Unity,一家领先的实时3D(RT3D)内容创建和发展平台,今天宣布推出其visionOS的beta计划,该计划包括访问Unity PolySpatial,该技术将为Unity内容和其他应用程序在AppleVision Pro的共享空间上运行。Unity表示,通过将Unity的新PolySpatial技术与Apple的RealityKit托管应用渲染相结合,Unity创建的内容将与visionOS中的其他应用程序具有统一的外观和感觉。该公司还表示,已与Apple密切合作,为visionOS和PolySpatial提供支持,以确保用户可以在Vision Pro设备上的首日体验Unity应用程序。有兴趣参加beta计划的开发者可以访问Unity的官方网站进行注册。
通过这一宣布,创作者和开发者现在能够在visionOS上构建全新的体验并移植现有的内容,从Unity编辑器直接预览到Apple Vision Pro,以实现快速迭代。新的创作工作流程将使创作者能够将内容与物理世界无缝融合,而输入工具将为用户提供通过眼睛和手控制内容的自然直观方式,这是通过苹果Vision Pro混合现实头盔实现的。
“我们很高兴能与Apple合作,这样我们数百万游戏和应用程序开发者的生态系统就能将他们的Unity应用程序带到这个令人兴奋的新平台,”Unity Runtime、Editor和Ecosystems的高级副总裁兼总经理Ralph Hauwert说道。“通过Unity PolySpatial,我们使开发者使用他们熟悉和喜爱的编辑器更高效、更顺畅地创建全新的沉浸式体验。这是我们让开发者创建一次,到处发布的核心承诺。”
根据Unity的说法,有三种主要的方法可以在visionOS平台上创建空间体验:
1. 移植现有的虚拟现实游戏或创建新的全面沉浸体验,用数字环境替代玩家的周围环境;
2. 将内容与透视图混合,创建将数字内容与真实世界融合的沉浸式体验;
3. 在共享空间中通过透视图同时运行多个沉浸式应用程序。
Unity指出,无论是移植现有应用程序还是创建全新的应用程序,使用Unity都更加简单明了,需要做到以下几点:
1. 工作流程 – 在Unity中完全支持visionOS平台,开发者只需几个步骤就能在Vision Pro上查看他们的项目运行情况;
2. 图形 – Unity建议在visionOS项目中使用Universal Render Pipeline,以实现更高保真度的视觉效果;
3. 输入 – 用户将使用手和眼睛与Vision Pro上的内容进行交互。Unity的XR Interaction Toolkit添加了手部跟踪功能,使开发者更容易调整现有项目。开发者还可以使用Unity输入系统对内置系统手势做出反应,并通过XR Hands包访问原始手部关节数据以进行自定义交互;
4. 共享空间 – Unity的PolySpatial技术使开发者能够创建可以在共享空间中并行运行的应用程序。
Unity指出,除了沉浸式应用程序,开发者还可以在窗口中运行内容,用户可以调整和重新定位在他们的空间中(如上图所示)。这是将现有的移动和桌面应用程序带到visionOS的最简单方式,也是针对visionOS平台的内容的默认模式。支持窗口应用程序的beta版本可以在Unity 2022 LTS(2022.3.5f1或更高版本)中尝试使用。
Apple的Vision Products Group副总裁Mike Rockwell表示:“我们知道有一大批开发者已经使用Unity强大的创作工具构建了令人难以置信的3D体验,我们非常期待他们为Apple Vision Pro构建应用程序。基于Unity的应用程序和游戏可以在Apple Vision Pro上直接运行,因此它们可以使用创新的visionOS功能,包括低延迟透视图和高分辨率渲染。这使得Unity开发者能够充分利用Apple Vision Pro的强大而独特的功能。”
想了解更多关于Unity visionOS beta计划的信息,包括Unity对visionOS的开发支持、PolySpatial和接入资源,请访问Unity官方网站。有关如何为visionOS平台准备项目的更多信息,请访问Unity的博客。
(图片来源:Unity)