在本届WWDC上,尽管没有AR眼镜的消息,但苹果(AAPL.US)推出了多款AR应用。其中包括RealityKit 2、Object Capture以及AR Maps等。
RealityKit是一款为AR打造的3D渲染、物理核空间音频引擎。通过使用真实的和基于物理的材质、环境反射、背景阴影、相机噪点、运动模糊等来将虚拟内容与现实世界高度融合。
RealityKit 2的新增内容包括:Object Capture对象捕捉、自定义着色器、自定义系统、动态asset、角色控制器。
据苹果全球开发者关系副总裁 Susan Prescott介绍,ObjectCapture使用摄影测量将iPhone或iPad拍摄的一系列2D照片转换成3D模型。
从大会视频演示来看,用户只需要通过iPhone或iPad多维度拍摄物体照片,然后倒入Cinema 4D等即可创建3D模型。当然,通过RealityComposer或其它工具,用户也可以快速获得AR预览。
单从效率来看,相比于花数周时间手动创建3D模型,Object Capture可以将时间成本压缩到数分钟内。
据苹果公司称,这些3D模型可以在 AR Quick Look 中查看或添加到 Reality Composer/ Xcode 中的 AR场景中,从而帮助开发者更容易构建 AR 应用程序。苹果表示,开发者正在使用ObjectCapture在一些领先的3D内容创建应用(如Cinema4D和Unity MARS)中解锁全新的3D内容创建方式。
苹果方面还补充道,借助 RealityKit 2 中的新API,开发人员还可以通过更好的视觉、音频和动画控制(包括自定义渲染通道和动态着色器)为用户打造更逼真、更复杂的 AR 体验。
Loup Ventures创始人、资深苹果分析师吉恩•蒙斯特(Gene Munster)本周在一封电子邮件中写道:“从高层来看,今年,甚至可能是明年的苹果全球开发者大会(WWDC)将成为苹果创新风暴之前的一场平静。”“目前,苹果正在加紧开发围绕增强现实可穿戴设备和交通工具的新产品类别。”
苹果从未确认过发布AR硬件的计划,但据报道,苹果最早可能在今年发布一款AR耳机。Facebook、Snap和微软也在开发头戴式AR设备。
人工智能可以理解手势、人和脸庞。尽管苹果的机器学习和人工智能工具并不直接与AR联系在一起,但它们所代表的能力对于在3D空间中工作的计算机界面来说将是非常重要的。苹果的视觉框架软件可以被应用程序调用,通过iPhone的摄像头来识别人、面孔和姿势。苹果公司的计算机视觉软件现在可以识别图像内部的物体,包括标识上的文字,以及搜索照片内部的东西——比如狗或朋友。
与苹果的其他工具相结合,这些人工智能工具可以应用类似Snap滤镜的效果。在今年的WWDC上,有一场会议甚至讨论了如何识别手的姿势或动作,这为高级手势奠定了基础,这是目前微软全息眼镜(Hololens)等AR头盔界面的重要组成部分。
热门推荐
-
Apple将于2022年推出具有Mac级处理能力AR耳机
2021-11-29 -
苹果将在2022年推出AR头戴设备 采用运算能力与Mac同等级处理器
2021-11-26 -
《Pikmin Bloom》上线两周获200万下载量 此外还有一个AR增强模式
2021-11-16 -
Niantic发布AR Lightship技术 创建一个真实世界元节应用程序
2021-11-12
热门专题
每日资讯更多+
-
“元宇宙”为何爆火?游戏ETF带来怎样的投资机遇?
2021-12-27 -
ar和vr的区别就是和用途 AR、VR是真火还是虚火?是复活还是重生?
2021-12-27 -
2021年VR/AR产业链日趋成熟,行业爆发在即
2021-12-27 -
未来5-10倍的VR/AR概念5大龙头公司
2021-12-27 -
VR全景漫游系统功能有哪些?自考院校/专业介绍
2021-12-23 -
又一家科技巨头加入直播大潮之中扎克伯格高度关注直播
2021-12-23
VR设备 更多+
-
V社自家VR设备获IGN 8.5分
2019-07-01 -
ARM显示芯片的设计可以为VR一体机带来更好的体验
2019-05-16 -
来自Bellevue的Valve Index原型VR硬件照片曝光
2019-05-16 -
Acer推出ConceptD OJO 4K Windows MR头显
2019-04-12
VR网站 更多+
-
鸥课学院
2017-09-12 -
玖的VR
2017-08-10 -
ARinChina技术论坛
2017-07-15 -
虚幻引擎社区
2017-07-15