2024年01月06日美国专利局新申请AR/VR专利摘选
文章相关引用及参考:XR导航网
(XR导航网 2024年01月06日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是XR导航网的整理(详情请点击专利标题),一共68篇。更多专利披露请访问XR导航网专利板块https://patent.nweon.com/进行检索,你同时可以加入XR导航网AR/VR专利交流微信群(详见文末)。
1. 《Meta Patent | Readout methods for foveated sensing(Meta专利:注视点感测的读出方法)》
在一个实施例中,用于注视点感测的系统和读出方法可以包括像素阵列、读出电路和处理逻辑。像素阵列可以具有多个像素。读出电路可以配置为针对多个像素中的每一个从像素阵列读取图像数据。处理逻辑可以配置为识别像素阵列内的多个感兴趣区域(ROI)。处理逻辑可以配置为将像素的图像数据与一个或多个ROI相关联。处理逻辑可以配置为将图像数据排列成数据帧。数据帧可以包括按ROI排序的图像数据。可以在传输之前从图像数据和数据帧中去除不活动像素的图像数据。处理逻辑可以配置为以基于ROI的顺序发送数据帧。
2. 《Meta Patent | Travel in artificial reality(Meta专利:在人造现实中旅行)》
在一个实施例中,用户可以在源位置,并且接收到的输入可以触发用户前往目标XR环境。用户可以在源虚拟世界中生成虚拟门户,并用于化身前往目的地虚拟世界。在一个实施例中,用户可以在源位置,并且接收到的输入可以触发用户前往目标XR环境。
在一个实施例中,专利描述的光学设备可以包括(i)在操作时产生热量的热源,(ii)光学透明并消散由热源产生的热量的导热光学元件,以及(iii)在热源和导热光学元件之间传递热量的导热连接器。
在一个实施例中,专利描述的设备可以包括光调制器,所述光调制器包括具有至少有机层和/或有机金属层的第一层;以及具有非本征半导体层和/或电极层的第二层。其中,所述光调制器可以通过操纵电荷载流子进行光学调制。
在一个实施例中,专利描述了在一锅系统中根据定义的顺序反应方案并由多官能单体制备的聚合物及其制备方法。专利同时描述了由树脂混合物制备的可调谐3D打印材料。
6. 《Microsoft Patent | Scanning mirror 设备(微软专利:扫瞄镜组件)》
在一个实施例中,专利描述的扫描反射镜装置包括设置在反射镜支撑件上的反射镜。扫描镜装置包括第一对致动器,第一对致动器包括第一致动器和第二致动器。第一致动器定位在反射镜支撑件的第一侧。第二致动器定位在镜支撑件的与镜支撑件第一侧相对的第二侧。第一致动器和第二致动器沿着第一旋转轴线连接到反射镜支撑件。扫描镜装置同时包括第二对致动器,第二对制动器包括第三致动器和第四致动器。第三致动器定位在反射镜支撑件的第一侧。第四致动器定位在反射镜支撑件的第二侧。第三致动器和第四致动器沿着第二旋转轴线连接到反射镜支撑件。
7. 《Microsoft Patent | Intelligent keyboard attachment for mixed reality input(微软专利:用于混合现实输入的智能键盘附接)》
在一个实施例中,专利描述了用于在MR环境中将虚拟输入设备附接到虚拟对象的系统。所述系统包括存储器、通信地耦合到存储器的处理器以及显示设备。显示设备配置为显示由处理器实现的至少一个应用程序提供的MR环境。混合现实环境包括与应用程序相对应的虚拟对象和虚拟输入设备。至少一个应用程序以相对于虚拟对象的偏移将虚拟输入设备附接到虚拟对象。
在一个实施例中,接收一个或多个输入视频流。识别一个或多个输入视频流内的第一主体。基于一个或多个输入视频流,识别第一主题的第一视图。基于一个或多个输入视频流,识别第一主体的第二视图。第一对象被分割成多个平面对象。多个平面对象相对于彼此进行变换。多个平面对象基于第一对象的第一视图和第二视图。在输出视频流中输出多个平面对象。多个平面对象向一个或多个观看者提供第一对象的视角。
9. 《Apple Patent | Non-contact respiration sensing(苹果专利:非接触式呼吸传感)》
在一个实施例中,专利描述了一种非接触式呼吸传感方法。头戴式设备可以包括一个或多个干涉式传感器,干涉式传感器定位并定向在外壳中以感测由用户的呼吸引起的粒子运动。来自一个或多个干涉传感器的干涉信号可以用于确定关于用户的呼吸信息。
10. 《Apple Patent | Wearable 设备 including optical sensor circuitry(苹果专利:包括光学传感器电路的可穿戴设备)》
在一个实施例中,专利描述的头戴式设备包括外壳和一组一个或多个SMI传感器。一个或多个SMI传感器的集合设置在外壳中。一个或多个SMI传感器的集合配置为朝向与用户的鼻腔通道相邻的解剖结构发射电磁辐射,并且生成包括关于解剖结构的运动的信息的一个或更多个SMI信号。
在一个实施例中,对与预定眼睛状况相关的环境状况执行校正操作包括,从设备的一个或多个传感器获得环境传感器数据;基于环境传感器数据确定设备的当前上下文情景;以及基于当前上下文情景确定满足眼睛状态标准。响应于确定满足眼睛状态标准,根据眼睛状态标准确定校正操作,并且执行校正操作。当执行时,校正操作配置为解决与眼睛状态标准相关联的环境条件。
12. 《Apple Patent | Command disambiguation based on environmental context(苹果专利:基于环境上下文的命令消歧)》
在一个实施例中,专利描述的方法包括接收语音命令;使用图像传感器获得物理环境的图像;基于与对象的对象标识符相关联地存储在非暂时性存储器中的对象的视觉模型,在物理环境的图像中检测对象;基于声音命令和对象的检测来生成包括对象的对象标识符的指令;实现改变对象的状态的指令。
在一个实施例中,专利描述了一种在从第一音频体验到第二音频体验的转换期间提供消褪音频体验的方法。第一音频体验可以包括使用由音频系统生成的第一空间脉冲响应来空间化的音频信号的回放。第二音频体验包括使用由音频系统接收的第二空间脉冲响应对空间化的音频信号进行回放。音频系统基于第一空间脉冲响应和第二空间脉冲响应生成混合空间脉冲响应。在音频体验之间的转换期间,混合空间脉冲响应用于对音频信号进行空间化,以创建消褪的音频体验。还描述并要求保护其它方面
14. 《Apple Patent | Audio capture with multiple 设备s(苹果专利:使用多台设备进行音频捕获)》
在一个实施例中,在物理环境中的第一设备处执行使组合的音频拾取模式可视化的方法。所述方法包括确定第一设备的第一音频拾取模式;确定相应一个或多个第二设备的一个或更多个第二音频拾取模式;基于所述第一音频拾取模式和所述一个或多个第二音频拾取模式来确定所述第一设备和所述另一个或更多个第二设备的组合音频拾取模式;在显示器显示组合音频拾取模式的表示。
在一个实施例中,头显执行将声音转换为用于合成现实(SR)设置的虚拟声音。所述方法包括在显示器显示合成现实(SR)设置的图像表示;通过麦克风记录在物理环境中产生的真实声音;使用一个或多个处理器,通过基于SR设置的声学混响特性变换真实声音来生成虚拟声音;以及包括通过扬声器播放虚拟声音。
16. 《Apple Patent | Displaying content in electronic 设备s with gaze detection(苹果专利:基于注视点检测在电子设备中显示内容)》
在一个实施例中,专利描述的电子设备可以包括一个或多个传感器和一个或更多个显示器。电子设备可以从至少一个外部服务器接收要在一个或多个显示器显示的内容、标识内容中的感兴趣区域的信息以及与感兴趣区域相关联的动作。电子设备可以显示所述内容。电子设备可以经由一个或多个传感器获得注视点,并确定注视点与内容中的感兴趣区域重叠。根据注视点与内容中的感兴趣区域重叠的确定,电子设备可以执行与感兴趣区域相关联的动作,包括提供视觉、音频和/或触觉反馈。
17. 《Apple Patent | Techniques for viewing 3d photos and 3d videos(苹果专利:查看3D照片和3D视频的技术)》
在一个实施例中,确定并提供3D内容的不同类型的视图之间的转换。例如,示例过程可以包括获得3D内容项目,在3D环境内提供3D内容项目的第一视图,基于标准确定从3D内容项目第一视图转换到第二视图,以及在3D环境中提供3D内容项的第二视图。其中3D内容项的左眼视图和右眼视图基于左眼内容和右眼内容中的至少一个。
在一个实施例中,识别在物理环境的图像中描绘的对象的对象类型。然后,基于对象类型和图像来确定特定实例。特定实例的对象具有不同于与对象类型的其他实例相关联的特征集的特征集。然后,获得在物理环境中描绘的对象的特定实例的一组特征。
19. 《Apple Patent | Real time visual mitigation of a live camera feed(苹果专利:摄像头实时视觉缓解)》
在一个实施例中,缓解触发显示条件包括获得包括由相机捕获的图像数据的图像帧,从图像数据确定图像帧的至少一部分的图像统计。所述技术同时包括确定图像统计满足触发标准,其中触发标准与至少一个预定显示条件相关联,并且作为响应,修改图像帧的至少一部分的图像参数;根据修改的图像参数渲染图像帧,以及显示渲染的图像帧。
20. 《Apple Patent | Positioning content within 3d environments(苹果专利:在3D环境中定位内容)》
在一个实施例中,示例过程可以包括通过确定屏幕上内容和屏幕外内容来获得虚拟内容并将虚拟内容定位在3D环境的视图内;将屏幕上内容定位在该3D环境内的虚拟屏幕上,以及将屏幕外内容定位在三维环境内的该虚拟屏幕之外;呈现3D环境的视图,其中视图包括在虚拟屏幕上呈现屏幕上内容和在虚拟屏幕之外呈现屏幕外内容。
21. 《Apple Patent | Context-based avatar quality(苹果专利:基于情景的化身质量)》
在一个实施例中,在通信会话中,第一设备接收并使用流式化身数据来呈现包括时变化身的视图。例如,在通信会话期间从另一用户的设备发送的另一用户中的一些或全部的视频内容。为了有效地使用资源,基于用户情景来调整化身提供过程(例如视频帧速率、图像分辨率等),比如说观看者是否正在观看化身、化身是否在观看者的注视点区域内、或者化身是否在观察者的视场内。
22. 《Apple Patent | Virtual object kit(苹果专利:虚拟对工具包)》
在一个实施例中,专利描述的方法包括获得虚拟对象工具包,虚拟对象工具包包括特定虚拟对象类型的一组虚拟对象模板。虚拟对象工具包包括多组组件。多个组件组中的每一个都与虚拟对象的特定部分相关联。所述方法包括接收组装虚拟对象的请求。请求包括从多个组件中选择组件。然后,根据请求合成虚拟对象。
23. 《Apple Patent | Content transformations based on reflective object recognition(苹果专利:基于反射式物体识别的内容转换)》
在一个实施例中,示例过程可以包括从包括一个或多个对象的物理环境中的电子设备的传感器获得传感器数据,例如图像、声音、运动等;基于传感器数据检测一个或多个对象中的反射对象;确定反射对象在物理环境中的3D位置;在物理环境的视图中呈现虚拟内容。虚拟内容可以基于反射对象的3D位置定位在3D位置。
在一个实施例中,专利描述的方法包括基于特征来确定三维空间中的参考位置;针对参考位置获得第一电子设备的增强现实坐标系中的第一参考坐标和第二电子设备的加强现实坐标系的第二参考坐标;基于第一参考坐标和第二参考坐标的函数来确定坐标变换;使用坐标变换将第一电子设备的增强现实坐标系与第二电子设备的加强现实坐标系同步。
在一个实施例中,示例过程可以包括获得用户的传感器数据,其中传感器数据与时间点相关联;基于传感器数据生成表示用户的一组值;以及提供该组值;该组值包括定义用户部分相对于投影表面的点的多个3D位置的3D位置的深度值和定义用户部分的外观的外观值,例如颜色、纹理、不透明度等。
26. 《Apple Patent | Perspective correction of user input objects(苹果专利:用户输入对象的透视校正)》
在一个实施例中,确定显示位置的方法由包括一个或多个处理器和非瞬态存储器的设备执行。所述方法包括在物理环境中获得用户输入对象的二维坐标的camera集合;获得不包括用户输入对象的物理环境的深度信息;基于排除用户输入对象的物理环境的深度信息,将二维坐标的camera集合转换为二维坐标的显示集合。
在一个实施例中,基于障碍物的接近度提供视觉处理包括通过设备收集环境的传感器数据;确定环境的多个区域中的每个区域的状态,其中环境的至少一个区域被分配有占用状态;以及根据所述设备满足对被分配有占用状态的环境的所述至少一个区域的预定接近度阈值的确定,使得由所述设备呈现视觉处理。其中,所述视觉处理指示具有占用状态的所述环境的至少一个区域的位置。
28. 《Apple Patent | Out-of-process hit-testing for electronic 设备s(苹果专利:电子设备的进程外命中测试)》
在一个实施例中,应用程序指定要与应用程序分开管理的UI窗口的控制样式,例如由在应用程序进程之外运行的系统进程来管理。当在与应用UI的与已经指定了控制样式的UI窗口分离的部分相对应的位置处接收到用户输入时,可以将用户输入重定向到已经指定了控件样式的UI窗。进程外命中测试可以提高计算机用户输入系统的隐私性和效率。
在一个实施例中,专利描述的方法用于防止三维内容遮蔽三维环境中的网络浏览器或其他用户界面的部分。所述方法包括对三维内容应用一个或多个视觉处理;将一个或多个视觉处理应用于网络浏览器的部分或其他用户界面的部分;至少从用户的角度应用一个或多个视觉处理;应用一个或多个视觉处理是基于三维内容的三维视觉效果。
在一个实施例中,响应于检测到相应的用户输入:如果相应的用户输出满足第一标准,计算机系统根据所述一只手或两只手在所述三维环境中的移动,使所述虚拟对象在所述立体环境中相对于所述三维空间移动;并且如果相应的用户输入满足第二标准,计算机系统用与不同于所述第一视点的第二视点相对应的所述三维环境的视图替换与所述第一视角相对应的三维环境的所述视图。
31. 《Apple Patent | Fit guidance for head-mountable 设备s(苹果专利:用于头戴式设备的穿戴指南)》
在一个实施例中,可以提供用于头显最佳放置的指导,以引导用户以实现部件相对于用户的适当对准并最大化用户舒适度的方式定位头显。例如,头戴式设备和/或另一设备可以包括用于检测用户面部特征、佩戴时分布在面部上的力和/或与面部(例如眼睛)对准的传感器。头戴式设备和/或另一设备可以检测眼睛调节的变化,并基于这种变化的频率和/或幅度来推断用户的不适。另外,头戴式设备设备和/或另一设备可以在使用设备之前、期间和/或之后检测用户面部特征的变化。
32. 《Apple Patent | Head-mountable electronic 设备 spacer(苹果专利:头戴式电子设备垫片)》
在一个实施例中,专利描述的头戴式设备包括具有外壳和显示器的显示器部分、从外壳延伸并包括与外壳偏移一定距离的光密封件、以及耦合到外壳和光密封件并配置为改变距离的调节机制。
33. 《Apple Patent | Eye imaging system(苹果专利:眼睛成像系统)》
在一个实施例中,专利描述了一种具有耦入器和耦出器的波导,其用于将反射光重定向到摄像头。波导可以集成在诸如眼镜之类的可佩戴设备的透镜中。光源向眼睛发射光束。光束的一部分被耦入器反射。耦入器可以根据衍射或反射技术来实现,并且可以是窄宽度的直线或曲线以在近距离处聚焦,但其长度足以对眼睛进行充分成像。耦入器改变光束的角度,从而使用全内反射来中继光束并将光束聚焦到波导的耦出器。光束由耦出器重定向到摄像头。
34. 《Google Patent | Partially curved lightguide with pupil replicators(谷歌专利:带有光瞳复制器的部分弯曲光导)》
在一个实施例中,部分弯曲的光导包括嵌入式准直器,嵌入式准直器具有用于在光遇到出射光瞳扩展器的光瞳扩展区域中的表面之前准直光以进行显示的表面。通过在光导内准直光而不是在进入光导之前准直光,AR显示器的形状参数的必要体积可以通过消除选择的准直光学器件而最小化,从而使得在光源的区域中的AR显示器的体积较小。
在一个实施例中,操作AR系统的技术包括基于从近红外摄像头获取的用户手腕皮肤的二维图像序列来确定用户形成的手势。具体地,设置在佩戴在用户手腕周围的腕带的图像捕获设备包括电磁辐射源,例如,将辐射发射到用户手腕中的红外(IR)波段的发光二极管;以及产生用户手腕中真皮内区域的二维图像序列的IR检测器。根据序列,姿势检测电路基于从序列生成度量的训练模型来确定生物流量度量的值。最后,姿势检测电路将生物流量度量的值映射到确定姿势的特定手/手指运动。
在一个实施例中,专利描述了一种根据用户的瞳孔距离自动调整图像光的图像显示设备。所述图像显示设备包括反射从至少一个光源发射的图像光,并将图像光投射到用户的眼睛和/或光学元件上的多个反射镜;基于眼睛或光学元件的位置调节多个反射镜中的每一个的角度的反射镜角度调节单元;反射镜角度调整单元;以及误差间距离调节单元,其基于所述角度调节所述多个反射镜之间的距离。
37. 《Sony Patent | Gaze tracking for user interface(索尼专利:用于用户界面的注视点追踪)》
在一个实施例中,执行注视追踪以追踪用户在用户视图屏幕内的注视,包括:将注视追踪与头部移动追踪相结合,其中头部移动追踪的头部移动提供对用户注视方向的粗略估计,而注视追踪的眼睛移动提供对用户在用户视图屏内的注视方向的微调。当开启注视区域估计时,将用户观看屏幕划分为多个注视区域;以及将注视追踪与注视区域估计相结合以从多个注视区域中选择注视区域作为用户的注视方向。
在一个实施例中,用于更新图形管道信息的方法包括,在第一帧周期中在CPU执行应用程序以生成第一视频帧的场景的基元。在第二帧周期中接收用户眼睛的注视追踪信息。在第二帧周期中,至少基于注视追踪信息预测其在头显显示器的着陆点。在第二帧周期中执行对GPU可访问的缓冲器的预测着陆点的late update。在第二帧周期中在GPU中执行着色器操作,以基于基元和基于预测的着陆点生成像素数据。像素数据在第三帧周期中从帧缓冲器被扫描到头显。
39. 《Sony Patent | Representing virtual objects outside of a display screen(索尼专利:表示显示屏外的虚拟对象)》
在一个实施例中,专利描述的方法包括:接收定义包括多个虚拟对象的虚拟环境的数据,每个虚拟对象在虚拟环境内具有虚拟位置;确定所述虚拟对象的子集的至少一个虚拟对象是否在所述视场之外但至少部分地在与所述显示屏相邻的虚拟显示区域内。响应于确定虚拟对象的子集的虚拟对象至少部分地在虚拟显示区域内,将虚拟对象的虚拟位置转换为真实世界位置,以及使用混合现实显示设备在真实世界位置显示表示虚拟对象的虚拟元素。
40. 《Sony Patent | Method for detecting display screen boundaries(索尼专利:检测显示屏边界的方法)》
在一个实施例中,专利描述了一种用于使用扩展现实显示设备检测显示屏的计算机实现方法。所述方法包括在扩展现实显示设备处接收与视频流的预定帧相对应的图像或定义图像的数据,;监视正显示视频流的显示屏;在显示屏幕显示的视频流的预定帧中检测多个指定特征点中的至少一些;并基于检测到的指定特征点确定显示屏幕的物理边界。
41. 《Sony Patent | Visual perception assistance apparatus and method(索尼专利:视觉感知辅助设备和方法)》
在一个实施例中,专利描述的视觉感知辅助设备包括配置为渲染虚拟环境以供显示的渲染单元;配置为选择所述虚拟元素中的一个或多个的选择单元;以及配置为针对给定的所选虚拟元素,并根据所述给定的所选择虚拟元素与所述虚拟环境内的预定位置之间的距离,适配与所述给定选定虚拟元素的外观相关联的一个或多个方面的适配单元。
在一个实施例中,专利描述的方法包括:确定至少一个控制器是否连接到游戏系统,并执行和重复以下操作,直到转换为用户的单手操作或双手操作:(a)如果检测到多个控制器连接,则转换为双手操作;(b) 如果未检测到控制器连接,则请求用户连接所述至少一个控制器;(c) 如果仅检测到第一控制器的连接,则请求用户连接第二控制器;(d) 如果未检测到所述第二控制器的连接,则转换到所述单手操作。其中,在确定并决定仅使用所述第一控制器继续之后,进行到所述单手操作的转换。
43. 《Sony Patent | Head-mounted display, display control method, and program(索尼专利|头戴式显示器、显示器控制方法和程序)》
在一个实施例中,专利描述的戴式显示器便于用户理解用户和用户周围物体之间的接近度。显示模块布置在佩戴头显用户的眼睛前方。根据用户和用户周围物体之间的接近度,头显控制显示模块,使得用户能够视觉上识别向前方向。
44. 《Samsung Patent | Accelerator, storage 设备, and vr system(三星专利|加速器、存储设备和VR系统)》
在一个实施例中,专利描述的加速器包括存储器访问模块和计算模块,存储器访问模块配置为从输入设备获取用于生成VR图像的多个原始图像。计算模块包括拼接区域检测器、拼接处理器、图像处理器和组合处理器。存储器访问模块配置为将多个原始图像发送到拼接区域检测器。拼接区域检测器配置为通过对从存储器访问模块接收到的多个原始图像中的每一个执行检测处理,从多个原始图象中的每个检测至少一个拼接区域和图像区域,将至少一个拼接区域提供给拼接处理器,并将图像区域提供给图像处理器。拼接处理器配置为生成至少一个后处理的拼接区域。
在一个实施例中,专利描述了一种促进经由设备与模拟对象交互的方法。所述方法包括渲染包括物理位置的地图的用户界面;接收用户经由用户界面对地图上的区域的选择;在显示由设备的相机获得的至少一个图像的同时获得设备的位置数据;响应于确定由所述设备获得的所述位置数据满足指定在哪里可以生成与所述物理对象相关联的所述模拟对象的标准,向模拟对象提供由所述摄像头获得的至少一个图像;并且基于所述设备的运动的变化来自动调整所述模拟对象。
46. 《Samsung Patent | Wearable 设备 and controlling method thereof(三星专利:可穿戴设备及其控制方法)》
在一个实施例中,专利描述的AR设备可以配置为生成用户的物理环境的虚拟表示。AR设备可以捕捉用户的物理环境的图像以生成网格地图。AR设备可以在虚拟边界框上的指定位置投影图形,以引导用户捕获用户的物理环境的图像。AR设备可以提供视觉、听觉或触觉引导,以引导AR设备的用户朝着路点看,从而生成用户环境的网格图。
47. 《Samsung Patent | Electronic 设备 and control method of the same(三星专利:电子设备及其控制方法)》
在一个实施例中,专利描述的电子设备包括:输入设备;以及配置为与所述输入设备通信的移动设备。其中,所述移动设备将所述移动设备的位置或第一外部装置的位置确定为参考坐标,接收所述输入装置相对于所述参考坐标的相对位置信息和所述输入装置的运动信息,基于所述相对位置信息以及所述运动信息确定运动轨迹,并显示所述运动轨迹或将所述运动轨道发送到第二外部设备。
在一个实施例中,专利描述了一种全息显示设备。所述全息显示设备包括空间光调制器;以及孔径放大膜,其配置为放大来自空间光调制器的多个像素中的每个像素的光束的光束直径。由孔径放大膜放大的每个光束的光束直径可以大于空间光调制器的每个像素的孔径的宽度。
49. 《Samsung Patent | Wearable electronic 设备 including lens assembly(三星专利:包括透镜组件的可穿戴电子设备)》
在一个实施例中,专利描述的可佩戴电子设备包括:沿着从用户眼睛侧到显示器的光轴布置的至少四个透镜,所述至少四个镜片包括第一镜片和第二镜片;其中,所述第一透镜最靠近所述至少四个透镜中的所述用户的眼睛侧,并且包括至少一个平坦表面,以及设置在所述至少一个平面上的第一四分之一波片QWP和第一折射构件。其中,来自所述用户眼睛侧的所述第二透镜包括至少一凸表面和设置在至少一凸表面上的第二折射构件。
在一个实施例中,专利描述的电子设备,包括包括锚和标签的第一传感器、包括惯性传感器和地磁传感器的第二传感器,以及配置为基于来自锚的信号到达外部设备的到达时间来估计外部电子设备的第一相对位置的处理器。处理器基于所述惯性传感器和所述地磁传感器的测量来估计所述外部电子设备的第一相对姿态,基于所述外部电设备的所述相对姿态将所述电子设备在传感器帧中的加速度转换为导航帧中的加速,计算所述外部设备的相对加速度,并且通过将计算出的外部电子设备的相对位置和第一相对位置应用于扩展卡尔曼滤波器来估计外部电子设备的相对位置和相对姿态。
51. 《Snap Patent | Rotational navigation system in augmented reality environment(Snap专利:增强现实环境下的旋转导航系统)》
在一个实施例中,为了将用户引导到位于AR计算设备的佩戴者的视场之外的目标对象,旋转导航系统在显示设备显示称为方向指示器的箭头或指针。基于用户头部的方向和目标对象的方向之间的角度以及校正系数来生成方向指示符。校正系数被定义为使得用户头部的方向和目标对象的方向之间的角度越大,方向指示器的水平分量就越大。
52. 《Snap Patent | Neural rendering using trained albedo textures(Snap专利:使用经过训练的反照率纹理的神经渲染)》
在一个实施例中,专利描述的操作包括:访问一组反照率纹理和与真实世界对象相关联的机器学习模型;获得所述真实世界对象的3D网格;接收选择与所述真实世界对象的所述多个视点不同的新视点的输入;以及基于真实世界对象的3D网格、反照率纹理集合以及与真实世界对象相关联的机器学习模型,从新的视点生成真实世界对象的照片级真实感渲染。
53. 《Snap Patent | Background replacement using neural radiance field(Snap专利:使用神经辐射场进行背景替换)》
在一个实施例中,专利描述了一种用于提供虚拟体验的系统。所述系统访问描绘人物的图像和表示与用于捕获图像的摄像头相关联的视点的一个或多个摄像头参数。系统提取图像的一部分。系统通过神经辐射场(NeRF)机器学习模型处理一个或多个摄像头参数,以从与摄像头相关联的视点渲染场景的估计描绘。系统将包括对人的描绘的图像部分与对场景的估计描绘相组合以生成输出图像,并使输出图像呈现在客户端设备。
在一个实施例中,专利描述的技术涉及无线通信。至少部分地基于对应于物理数据信道的物理数据信道配置,网络节点可以通信对应于与物理数据信道设置相关联的第一物理数据信道时机的第一XR数据通信,其中第一优先级与所述第一XR数据通信相关联。网络节点可以传送与第二物理数据信道时机相对应的第二XR数据通信,并且其中所述第二优先级高于所述第一优先级,同时至少部分地基于与所述物理数据信道配置相关联的分组延迟预算在指定的分组延迟阈值内。
55. 《Qualcomm Patent | Object scanning using planar segmentation(高通专利:使用平面分割的对象扫描)》
在一个实施例中,专利描述了用于从一个或多个图像或帧生成对象的三维模型的技术。例如,可以获得场景中对象的至少一个帧。对象的一部分定位在至少一个帧中的平面上。可以在至少一个帧中检测平面,并且基于检测到的平面,可以从至少一个框中的平面分割对象。可以基于从平面分割对象来生成对象的3D模型。可以为3D模型的与位于平面上的对象的部分相对应的部分生成精细网格。
56. 《Qualcomm Patent | Synchronization of target wakeup times(高通专利:目标唤醒时间同步)》
在一个实施例中,专利描述了用于在站处进行无线通信的技术。所述技术通常包括获得指示目标唤醒时间(TWT)字段的分辨率的信令,基于所指示的分辨率来确定TWT服务周期(SP)的开始时间,以及基于所确定的TWT SP的开始时间来采取行动。
57. 《Qualcomm Patent | High bandwidth low latency cellular traffic awareness(高通专利:高带宽低延迟蜂窝流量感知)》
在一个实施例中,专利描述了用于无线通信的技术。网络节点配置包括一个或多个文件级QoS参数的服务质量(QoS)简档,其中QoS简档应用于与与用户设备(UE)相关联的服务流相关联的一个或更多个文件,并且所述文件的每个PDU的报头包括文件标识符和文件的文件类型,同时在所述一种或多种文件实现QoS简档。
58. 《Qualcomm Patent | Low-power fusion for negative shutter lag capture(高通专利:用于负快门滞后捕获的低功耗融合)》
在一个实施例中,专利描述了用于处理一个或多个帧的系统。例如,过程可以包括从图像捕获系统获得与第一设置域相关联的第一多个帧;从图像捕获系统获得与第二设置域相关联的参考帧,其中在接近获得捕获输入时捕获参考帧;从图像捕获系统获得与第二设置域相关联的第二多个帧,其中在参考帧之后捕获第二多帧;基于参考帧,变换第一多个帧的至少一部分,以生成与第二设置域相关联的变换后的多个帧。
59. 《Qualcomm Patent | Scale image resolution for motion estimation(高通专利:用于运动估计的缩放图像分辨率)》
在一个实施例中,专利描述的示例过程可以包括:基于输入图像和参考图像来确定识别输入图像与参考图像之间的运动的运动矢量;确定由运动矢量指示的运动是否低于第一阈值;基于由所述运动矢量指示的运动低于所述第一阈值的确定,抑制确定所述输入图像和所述参考图像之间的局部运动;基于所述运动矢量并且不使用所述输入图像和所述参考图像之间的局部运动来确定变换矩阵;以及基于变换矩阵来调整输入图像。
60. 《Vuzix Patent | Multi-antenna augmented reality display(Vuzix专利:多天线增强现实显示器)》
在一个实施例中,专利描述了用于在增强现实显示单元和外设之间建立的数据连接之间切换的方法。所述方法可以基于传感器数据在通信模块、天线或频率之间自动切换,以减少或消除接近水或浸没在水下的影响。在通信模块、天线或频率之间的切换基于用户头部的运动或增强现实显示单元所放置的水体的电阻、盐度或化学成分。
在一个实施例中,光透射基板布置为具有与观看者的眼睛相对的两个主表面中的第一个,并且通过两个主面之间的内反射来引导光。光学耦合输出配置将对应于准直图像并且由两个主表面之间的内反射引导的图像光耦合到光传输基板之外。第一光学耦合配置使来自眼睛的光准直以产生准直光,并将准直光耦合到光传输基板中以通过内反射进行引导。第二光学耦合配置将准直光从光传输基板耦合到感测耦合出的光的光学传感器。处理系统通过处理来自光学传感器的信号来导出眼睛的当前注视方向。
62. 《Magic Leap Patent | Massive Simultaneous Remote Digital Presence World(Magic Leap专利:同时远程呈现的大型数字世界)》
在一个实施例中,专利描述的方法和设备用于允许一个或多个用户能够与虚拟现实或增强现实环境交互。示例系统包括计算网络,其中计算机服务器通过高带宽接口与网关互连,从而处理数据和/或实现服务器与一个或多个本地用户接口设备之间的数据通信。服务器包括存储器、处理电路和软件,其用于设计和/或控制虚拟世界,以及存储和处理用户数据和系统其他组件提供的数据。一个或多个虚拟世界可以通过用户设备呈现给用户。大量用户可以各自使用一个设备同时与一个或多个数字世界进行交互,使用设备相互观察和交互,并与数字世界中产生的对象进行交互。
在一个实施例中,专利描述了确定并执行共享空间中的一组用户的意图的成像和可视化系统。相关方法包括为共享虚拟空间中的一组用户识别该组用户中的两个或多个用户中的每个用户的相应目标。对于两个或多个用户中的每一个,基于来自具有不同输入模态的多个传感器的输入来确定用户的相应意图。多个传感器中的至少一部分是使得用户能够参与共享虚拟空间的用户的设备的传感器。基于各自的意图来确定用户是否正在为用户执行各自的目标。
64. 《Magic Leap Patent | Tool bridge(Magic Leap专利:工具桥)》
在一个实施例中,专利描述了用于共享和同步虚拟内容的系统和方法。一种方法可以包括经由包括透射显示器的可穿戴设备从主机应用接收包括第一数据的第一数据包;基于所述第一数据识别虚拟内容;经由所述透射显示器呈现所述虚拟内容的视图;经由所述可穿戴设备接收针对所述虚拟内容的第一用户输入;基于所述第一数据和所述第一用户输入生成第二数据;经由所述可穿戴设备向所述主机应用发送包括所述第二数据的第二数据包,其中所述主机程序配置为经由远离所述可佩戴设备,并与所述可佩带设备通信的计算机系统的一个或多个处理器执行。
65. 《Magic Leap Patent | Individual viewing in a shared space(Magic Leap专利:共享空间中的单独查看)》
在一个实施例中,通过使用演示者可以选择的多种视图模式,可以在多个用户之间共享混合现实虚拟环境。多个用户可能希望查看公共虚拟对象,例如用于教育目的的虚拟对象,比方说博物馆中的艺术品、汽车、生物标本、化合物等。虚拟对象可以在虚拟房间中呈现给任意数量的用户。通过利用虚拟对象相关的信息,演示者(如教师)可以控制演示来引导多个参与者(如学生)。使用不同的查看模式将允许单个用户在共享查看空间中查看不同的虚拟内容,或者在共享空间中的不同位置查看相同的虚拟内容。
66. 《Magic Leap Patent | Waypoint Creation In Map Detection(Magic Leap专利:地图检测中的航点创建)》
在一个实施例中,增强现实设备可以配置为生成用户物理环境的虚拟表示。增强现实设备可以捕获用户物理环境的图像以生成网格图。增强现实设备可以在虚拟边界框的指定位置投影图形,以引导用户捕获用户物理环境的图像。增强现实设备可以提供视觉,听觉或触觉指导,从而引导用户看向航路点并生成用户环境的网格图。
67. 《HTC Patent | Image sensing 设备 and head-mounted display(HTC专利:图像感知设备和头显)》
在一个实施例中,专利描述的图像感测设备包括多个透镜组、连接器、至少一个天线元件和多个图像感测元件。每个透镜组包括从第一侧沿着光轴布置的多个透镜元件。连接器包括多个第一部分和多个第二部分。第二部分连接在第一部分之间。天线元件分别设置在第一部分上,并且配置为向第一侧向目标区域提供多个感测波束。图像感测元件分别设置在透镜组的面向第二侧的一侧上,并且配置为感测目标区域的反射光束。第二侧的方向与第一侧的方向相反。
68. 《HTC Patent | Method for pose correction and host(HTC专利:姿势矫正方法和Host)》
在一个实施例中,专利描述的方法包括:获得第一图像;响应于确定至少一个参考对象的第一参考对象存在于第一图像中,确定Host和第一参考对象之间的第一相对位置;基于所述第一相对位置获得第一参考姿态;以及基于第一参考姿态校Host的姿态。