文章相关引用及参考:XR导航网
(XR导航网 2024年01月27日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是XR导航网的整理(详情请点击专利标题),一共72篇。更多专利披露请访问XR导航网专利板块https://patent.nweon.com/进行检索,你同时可以加入XR导航网AR/VR专利交流微信群(详见文末)。
1. 《Meta Patent | Systems and methods for ultra-wideband frequency band allocation(Meta专利:超宽带频带分配的系统和方法)》
在一个实施例中,专利描述了用于超宽带频带分配的方法。所述方法可以包括在信道与第二超宽带设备建立连接的第一超宽带设备。信道可以具有10.6千兆赫(GHz)或以上的中心频率。第一超宽带设备可以经由信道的连接向第二超宽带设备发送信号。
在一个实施例中,专利描述的系统用于实现利用各种连接技术的一个或多个不同网络与网络设备之间。所述系统可以包括处理器和存储指令的存储器。处理器在执行指令时可以使系统通过实现与3GPP标准相关联的协议来修改安全网关以提供元宇宙安全网关,并且利用元宇宙安全网关和元宇宙服务器来促进客户端设备的元宇宙通信。
在一个实施例中,专利描述的扬声器包括具有楔形的磁体,因此磁体在不同位置具有不同的宽度。一个或多个音圈耦合到靠近磁体的隔膜。由于磁体在不同位置具有不同的宽度,磁体的不同位置提供不同的磁场强度。为了补偿由于磁体的磁场强度变化而引起的隔膜运动的变化,耦合到隔膜的环绕件具有不对称刚度。所述环绕物在靠近磁体的磁场较强的位置处具有较高的刚度,而在接近磁体的磁场较弱的位置处则具有较低的刚度。
在一个实施例中,专利描述的系统可以包括天线和天线匹配网络。天线匹配网络可以包括配置为移动天线的频率响应的孔径调谐器,及配置为动态地改变天线的辐射功率量的阻抗调谐器。根据天线的各种操作特性,天线匹配网络可以定位在距天线至少指定的最小距离处。
5. 《Meta Patent | Expression transfer to stylized avatars(Meta专利:表情转移到风格化的化身)》
在一个实施例中,专利描述了一种用于增强现实应用程序的个性化风格化化身的方法。所述方法包括捕获第一对象的面部表情的图像,在图像中识别指示第一对象的个人特征的一个或多个特征,从人体模型中的一组标准表情中识别基于第一对象的脸部表情的选定表情,将指示第一主体的个人特征的一个或多个特征转移到人体模型中的所选表情,并将人体模型提供给沉浸式现实应用程序以在客户端设备显示。
6. 《Meta Patent | Mitigation of animation disruption in artificial reality(Meta专利:缓解人工现实中的动画破坏)》
在一个实施例中,专利描述的方法旨在减轻在人工现实环境中由于用户追踪丢失而导致的化身显示中断。所述技术可以使用人工现实设备来连续地确定用户的情景特征。与追踪中断时发生的情景特征相对应的用户状态可以定义用户的身体配置。可以根据分配给用户状态的化身姿势,在中断发生时将化身动画化为分配的姿势,并且在重新获得对用户姿势的追踪时立即从所述姿势重新启动动画。
7. 《Meta Patent | Gaze-aware tone mapping and chromatic adaptation(Meta专利:注视点感知色调映射和色度自适应)》
在一个实施例中,专利描述的系统可以使用视线方向信息来执行针对VR环境的色调映射或色彩自适应。系统可以包括处理器和存储指令的存储器。当处理器执行指令时,系统可以确定物理环境内的用户焦点位置。可以接收与物理环境相对应的图像。系统可以确定与用户焦点位置相对应的物理环境的视觉特性。系统可以基于所确定的视觉特性来修改图像的区域的颜色映射,从而生成输出图像。
8. 《Meta Patent | Automatic quantitative food intake tracking(Meta专利:自动定量食物摄入量跟踪)》
在一个实施例中,专利描述的方法使用智能眼镜和/或其他可穿戴设备来定量跟踪食物摄入。智能眼镜可以包括图像捕获设备,例如摄像头,其可以无缝地捕获用户正在吃的食物的图像。与智能眼镜(或智能眼镜本身)通信的计算设备可以通过将对象识别和体积估计技术应用于图像来识别正在吃的食物的类型和体积。可替换地,智能眼镜和/或其他可穿戴设备可以通过捕捉和分析嘴的运动和咀嚼,通过一天中咬的次数来跟踪用户的饮食模式。计算设备可以记录食物的类型、食物的量和/或咬的口数,并计算可以在智能眼镜显示给用户的统计数据。
在一个实施例中,手腕可穿戴设备识别和检测表面的形状,以及可选地,表面与手腕可穿戴装置的距离,并通过检测用户执行的手势,使包括触觉事件在内的操作对用户可用,并使得在手势的执行期间基于手势的类型以及可选地基于手腕可佩戴设备与表面的距离来执行相应的操作。例如,手腕可穿戴设备可以配置为使得执行与在表面的空中阈值距离内执行的悬空手势相对应的第一组操作,以及与在表面表面阈值距离内进行的近表面手势相对应地第二组操作。
在一个实施例中,专利描述的光学组件包括有源光学部件。有源光学部件包括位于两个电极之间的激活层,例如第一电极和与第一电极不同且分离的第二电极。有源光学部件同时包括一个或多个基板,用于为两个电极中的至少一个提供机械支撑。在一个配置中,光学组件包括用于为第一电极提供机械支撑的第一衬底和用于为第二电极提供机械支持的第二衬底。
在一个实施例中,近眼显示设备的扫描投影仪可以耦合到波导并且包括多脊光源以提供光束。光源的脊之间的距离可以大于一个像素,并且脊可以水平、垂直或成一定角度排列。光学耦合到光源的2D光束扫描器可以通过执行光束的双共振扫描来产生光场。投影仪同时可以包括或耦合到控制器,以使光束扫描器在遵循相干李萨如模式的视场内围绕第一轴和第二轴扫描光束,同时改变光束的亮度以提供图像。
12. 《Meta Patent | Flat-surfaced tunable optical lens(Meta专利:平面可调谐光学透镜)》
在一个实施例中,专利描述的可调谐透镜的厚度分布可以通过电压控制的薄膜压电致动器,例如,通过铅锆钛氧化物(PZT)膜来修改。对于自动聚焦和光学变焦特征,可以修改可调谐透镜的整个厚度。为了光学图像稳定,可调谐透镜的厚度轮廓可以修改为倾斜轮廓,其中可调谐透镜一侧比另一侧薄,而可调谐透镜相对的表面保持平坦。倾斜轮廓在两个表面之间的角度可以在高达10度的范围内。
13. 《Meta Patent | Waveguide with birefringent organic solid crystal layer(Meta专利:具有双折射有机固体晶体层的波导)》
在一个实施例中,专利描述的光学元件包括配置为通过全内反射将光从输入端引导到输出端的波导本体、位于输入端的用于将光耦合到波导本体中的耦入结构、以及位于输出端的用于把光耦合出波导本体的耦出结构。其中波导主体包括有机固体晶体层。这样的光学元件可以具有低重量并且表现出良好的颜色均匀性。
在一个实施例中,聚合物薄膜包括分子量至少约250000 g/mol的聚乙烯,并且具有至少约25 GPa的弹性模量、至少约0.8 GPa的拉伸强度和至少约5W/mK的热导率。聚合物薄膜的形成可以包括由可结晶的聚乙烯和液体溶剂形成聚合物溶液,由聚合物溶液形成凝胶,通过压延或固态挤出由凝胶形成聚合物薄膜,以及拉伸聚合物薄膜。
在一个实施例中,专利描述的眼动和手部追踪系统布置有使用光学掩模作为编码元件的无透镜摄像头系统。所述光学掩模将卷积应用于设备用户的身体部位(例如眼睛或手)的光学图像。卷积后的身体图像是由系统中的传感器捕获的加扰或编码表示,但人类无法识别。诸如神经网络的机器学习系统配置为直接从编码表示中提取身体特征,而不执行传统上用于以人类可识别的形式重建原始身体图像的去卷积。所提取的身体特征由相应的眼动或手部追踪系统用来输出用户眼或手的相关追踪数据,头显设备可以利用所述数据来支持各种应用和用户体验。
16. 《Microsoft Patent | Efficient hrtf approximation via multi-layer optimization(微软专利:通过多层优化实现高效的HRTF近似)》
在一个实施例中,专利描述的系统使用网络来分解HRTF数据集以生成近似数据,并使用近似数据来呈现音频信号。输入HRTF数据集馈送到网络中,然后网络生成包括混合信道增益、FIR滤波器系数和基滤波器形状的近似数据。近似数据控制网络中的各种组件。当输入HRTF数据集作为输入馈送到网络中时,则网络的输出是输出近似的HRTF数据集合。网络迭代地微调近似数据,直到输出的近似HRTF数据集与输入的HRTF数据组充分匹配。在近似数据被充分调谐之后,近似数据随后由网络用于呈现音频信号。
在一个实施例中,用于从低分辨率图像生成高分辨率视频的系统配置为访问捕获环境的第一视频流和第二视频流。第一视频流由第一视频捕获设备捕获。第二视频流由第二视频捕获设备捕获。第一视频流的图像帧与第二视频流的相应图像帧在时间上同步。系统同时配置为生成具有比第一或第二视频流更高分辨率的合成视频流。使用第一视频流的各个图像帧和第二视频流的时间同步的对应图像帧作为输入来生成合成视频流的每个合成图像帧。
在一个实施例中,专利描述了用于生成融合增强图像的技术。使用第一模态的第一摄像头生成第一图像,并且使用第二模态的第二摄像头生成第二图像。识别两个图像之间共同的像素。确定公共像素的纹理。识别与噪点相关的相机特性。缩放因子应用于第一个图像中的纹理。使用缩放的纹理来确定第一显著性。使用来自第二图像的纹理来确定第二显著性。生成阿尔法图,并基于阿尔法图,然后从公共像素合并纹理以生成融合的增强图像。
19. 《Apple Patent | Method and 设备 for tiered posture awareness(苹果专利:用于分层姿势感知的方法和设备)》
在一个实施例中,专利描述的方法包括:在经由显示设备呈现3D环境的同时,获得与计算系统相关联的用户的头部姿势信息;基于所述头部姿势信息来确定所述用户的累积应变值;并且根据用户的累积应变值超过第一姿势感知阈值的确定:基于与用户相关联的高度值和与3D环境相关联的深度值来确定虚拟内容的位置;以及经由显示设备在所确定的位置处呈现虚拟内容,同时继续经由显示设备呈现3D环境。
20. 《Apple Patent | Display system having an audio output 设备(苹果专利:具有音频输出设备的显示系统)》
在一个实施例中,专利描述的显示系统包括头戴式显示单元和可拆卸扬声器单元。头戴式显示单元向用户输出视觉内容,并向用户提供真实环境的视觉透视。可拆卸扬声器单元可拆卸地连接到头戴式显示单元,并用于向用户提供听觉内容。视觉内容或听觉内容中的至少一个根据可拆卸扬声器单元相对于头戴式显示单元的位置而改变。
21. 《Apple Patent | Foveated display(苹果专利:注视点显示器)》
在一个实施例中,诸如头戴式设备之类的电子设备可以具有显示器。显示器可以具有更低和更高分辨率的区域,以减少显示器的数据带宽和功耗,同时保持令人满意的图像质量。数据线可以由显示器的较低分辨率部分和较高分辨率部分共享,或者可以向具有不同分辨率的显示器的不同部分提供不同数量的数据线。数据线长度可以在显示器的较低分辨率和较高分辨率部分之间的过渡区域中变化,以减少较低分辨率部分和较高分辨率部分之间的可见不连续性。可以使用动态可调栅极驱动器电路和动态可调数据线驱动器电路来动态调整显示器的较低分辨率部分和较高分辨率部分。
22. 《Apple Patent | Image enhancement 设备s with gaze tracking(苹果专利:具有视线追踪功能的图像增强设备)》
在一个实施例中,专利描述的电子设备可以具有显示器和摄像头。设备中的控制电路可以使用注视追踪系统和其他传感器来收集关于用户注视点的信息,可以通过分析真实世界图像来收集关于真实世界图像的信息,例如关于内容、运动和其他图像属性的信息,可以收集用户视觉信息,例如用户敏锐度、对比敏感度、视场和几何失真,并且可以收集诸如用户偏好和用户模式选择命令之类的用户输入并且可以收集其他输入。基于注视点信息和/或其他收集的信息,控制电路可以在显示器显示真实世界的图像和补充信息。补充信息可以包括诸如图标、文本标签和覆盖在真实世界图像上的其他计算机生成文本和图形之类的增强。
在一个实施例中,可以检测光学感测系统的一个或多个光学部件的表面材料。检测方法包括使用光学感测系统生成第一图像。根据满足一个或多个标准的确定,所述一个或一个以上标准包括当所述第一图像的具有在第一强度范围内的光强度的比例大于阈值时满足的标准,在所述第一可附接透镜检测表面材料。
24. 《》
在一个实施例中,专利描述了用于编辑和呈现MR录制内容的改进技术,包括接收包括自然和/或合成元素的参数的这种混合现实录制内容,然后响应于用户对多个元素中的所选元素的选择,基于所选元素构建动画轨迹,所述动画轨迹包括所选元素的参数。响应于用户修改输入,基于用户修改输入修改所选元素的参数,并存储包括修改参数的修改记录。
在一个实施例中,专利描述的计算机系统显示三维环境,并经由包括第一部分和第二部分的输入设备检测第一输入,所述第一部分和所述第二部分可以在第一配置中物理耦合并且在第二配置中物理去耦。在第一配置中,当第一部分耦合到输入设备的第二部分时,响应于检测到第一输入,计算机系统在三维环境中执行第一操作。当输入设备的第一部分和输入设备的第二部分在第二配置中去耦时,计算机系统检测一个或多个输入的序列。其中,序列包括输入设备第一部分相对于输入设备第二部分的移动。响应于检测到一个或多个输入的序列,计算机系统执行一个或更多个第二操作。
26. 《Apple Patent | Environment application model(苹果专利:环境应用模型)》
在一个实施例中,专利描述的方法包括在显示器呈现电子设备的环境视图。确定向第一应用程序提供对控制参数的访问。所述控制参数配置为用虚拟内容修改所述环境的视图的至少一部分,并且所述视图的所述部分包括与所述第一应用相关联的视觉表示的视图之外的内容的至少一部分。所述方法进一步包括限制其他应用程序对控制参数的访问,以防止其他应用程序通过控制参数修改环境视图的至少一部分。
27. 《Apple Patent | Device connectors for sensor integration(苹果专利:用于传感器集成的设备连接器)》
在一个实施例中,专利描述了用于传感器集成的设备连接器。专利描述的设备包括显示器、面部接口、附接到面部接口的传感器、以及耦合到传感器的通信接口或电源接口中的至少一个。
在一个实施例中,专利描述的方法包括:在与显示生成组件和一个或多个输入设备通信的计算机系统处:经由显示生成组件显示媒体库用户界面;以及在显示所述媒体库用户界面时:在第一时间,经由所述一个或多个输入设备,检测与所述媒体图书馆用户界面中的第一位置相对应的用户注视;响应于检测到与媒体库用户界面中的第一位置相对应的用户注视,将第一媒体项目的表示的外观从经由显示生成组件以第一方式显示改变为以不同于第一方式的第二方式显示;在所述第一时间之后的第二时间,经由所述一个或多个输入设备检测与所述媒体库用户界面中不同于所述第一位置的第二位置相对应的用户注视;以及响应于检测到与媒体库用户界面中的第二位置相对应的用户注视,经由显示生成组件以不同于第二方式的第三方式显示第一媒体项目的表示。
29. 《Apple Patent | Devices with detachable headbands(苹果专利:带可拆卸头带的设备)》
在一个实施例中,专利描述的头戴式设备可以具有头戴式外壳。头戴式装置外壳可以具有外壳结构。头带可以可拆卸地联接到外壳。头带可以具有带开口的带。可提供可释放的闩锁以允许头带和外壳之间的选择性接合和脱离。闩锁可包含可移动闩锁构件,其使用磁性偏置机制、基于弹簧的偏置机制或其它偏置机制来偏置。为了释放每个闩锁,用户可以致动凸片、按钮、拨动杆、滑块或其他释放机制。这将可移动闩锁构件从闭合闩锁位置移动到打开闩锁位置,从而将头带从外壳释放。
30. 《Apple Patent | Head-mounted electronic 设备(苹果专利:头戴式电子设备)》
在一个实施例中,专利描述的头戴式设备可以具有头戴式壳体。所述壳体可以包括具有左开口和右开口的底盘,左开口和右开口分别与左光学模块和右光学模块重叠。每个光学模块可以具有透镜和通过透镜呈现图像的显示器。底盘可以具有内部框架和外部框架。底盘的中间部分可以形成加强鼻桥结构。壳体中的部件可以跨越外壳的宽度,从而形成提供刚性并有助于防止外壳变形的箱形结构。
在一个实施例中,透镜模块可以包括第一透镜元件、耦合到第一透镜元件的透镜成形结构、以及多个致动器,所述多个致动器配置为调节透镜成形结构的位置以调节第一透镜元件。透镜模块同时可以包括第二透镜元件和在第一和第二透镜单元之间的流体填充室。为了允许在不需要额外致动器的情况下动态调节第二透镜元件,第二透镜单元可以是半刚性透镜单元。当致动器调节第一透镜元件的曲率时,施加到第二透镜元件的表压改变。这导致第二透镜元件的曲率发生变化。因此,即使没有致动器附接到第二透镜元件,致动器都可以调节第一透镜元件和第二透镜单元两者的曲率。
32. 《Apple Patent | Electronic 设备s with sensors(苹果专利:包括传感器的电子设备)》
在一个实施例中,诸如头戴式电子设备之类的电子设备可以包括用于向用户呈现图像的显示器。为了适应与不同用户相关联的瞳孔间距离的变化,头戴式设备可以具有相对于彼此移动左眼和右眼光学模块的致动器。为了将内部结构隐藏在视线之外,头戴式设备的后部可以设置有盖子。电容传感器电路和/或基于开关的传感器电路可以使用电极来测量由于光学模块相对于用户鼻子的侧面朝向彼此移动而引起的鼻子接触。致动器可以响应于传感器测量而停止或以其他方式移动,从而在光学模块朝向彼此移动以适应用户的瞳孔间距离时避免不期望的鼻压。
33. 《Apple Patent | Electronic 设备s with rearward-facing sensors(苹果专利:带有后向传感器的电子设备)》
在意额给实施例中,专利描述的头戴式设备可以具有带有支撑透镜的框架的外壳。每个透镜可以具有正偏置透镜元件和负偏置透镜元件。波导可以与透镜重叠。在操作期间,可以通过负偏置透镜元件将来自波导的图像提供给视窗。诸如注视追踪摄像头之类的眼睛传感器可以通过负偏置透镜元件进行操作。眼动传感器监测用户的眼睛。
34. 《Sony Patent | Contextual scene enhancement(索尼专利:上下文场景增强)》
在一个实施例中,在交互式会话期间监视显示期间要播放的音频,以及经由机器学习组件分析该音频,以确定与该音频的至少一部分相关联的感觉。所述方法同时可以包括确定指示所述感觉的效果,并且将所述效果的指示输出到相关联的输出设备。其中,所述效果配置为与所述交互式内容流的相关部分显示实时地与音频一起输出。
在一个实施例中,无线通信终端使用移动通信系统执行游戏的应用程序,向控制由所述移动通信系统提供的无线通信的质量的信息处理设备请求作为指示游戏体验质量改变信息的请求信息,并且基于从所述信息处理设备发送的控制信息来改变无线通信的设置。
在一个实施例中,在游戏处理过程中,游戏数据存储在游戏数据存储部分中。然后,游戏服务器将其中诸如人物的分数和位置之类的游戏参数,以及诸如虚拟世界的三维结构之类的数据发送到实时图像显示支持设备。实时图像显示支持设备通过使用游戏参数来执行优先级划分和聚类,并且基于虚拟世界中的地面的正常等来生成诸如虚拟camera的状态的控制信息。
37. 《Sony Patent | Adaptive virtual objects in augmented reality(索尼专利:增强现实中的自适应虚拟对象)》
在一个实施例中,专利描述的一种计算机实现方法包括选择要在混合现实环境中定位的虚拟对象,扫描混合现实环境的真实世界部分,基于扫描确定定位虚拟对象的位置,基于所述位置缩放所述虚拟对象,并将所述虚拟对象定位在所述混合现实环境中的所述确定位置处。
38. 《Sony Patent | Identifying 设备s in a mixed-reality environment(索尼专利:在混合现实环境中识别设备)》
在一个实施例中,专利描述的计算机实现方法包括识别真实世界环境中的游戏设备,其中游戏设备在混合现实设置中向用户提供用户体验。所述方法同时包括识别现实世界环境中靠近该游戏设备的对象,以及基于混合现实设置的虚拟部分启动与该对象相关的活动。
在一个实施例中,专利描述了包括显示单元、检测器和第一控制单元的信息处理设备及其使用方法。显示单元可以是头戴式显示器。显示单元能够向用户提供真实空间和虚拟对象的视场。检测器检测显示单元围绕至少一个轴的方位角,并且基于检测到的方位角来控制虚拟对象的显示。
40. 《Sony Patent | Eye monitoring system and method(索尼专利:眼动追踪系统和方法)》
在一个实施例中,专利描述的系统可操作以向用户呈现内容,所述系统包括配置为检测与用户的眼睛中的至少一个相关联的温度和/或与头显相关联的环境温度的温度传感器单元、配置为检测用户的一只眼睛或两只眼睛的眨眼的眨眼传感器单元,配置为根据所述一个或多个检测到的温度来确定所述用户的眨眼速率的阈值的阈值确定单元,以及处理单元。所所述处理单元配置成根据所述检测到的眨眼确定所述用户的眨眼速率,并且响应于所述用户眨眼速率低于所述阈值来修改由所述头显呈现的内容。
在一个实施例中,专利描述的信息处理设备包括:获取布置在虚拟空间中的多个用户之间的位置关系的获取单元;以及基于由所述获取单元获取的位置关系,从每个用户发出的声音的声音数据中生成要呈现给目标用户的声音的输出数据的生成单元。
42. 《Sony Patent | Methods and systems for simulating perception of a sound source(索尼专利:模拟声源感知的方法和系统)》
在一个实施例中,专利描述了一种用于模拟声源垂直位移感知的音频个性化方法。所述方法包括以下步骤:获得与用户相关的输入头相关传递函数HRTF;确定所述声源的预期垂直位移;在所述输入HRTF中选择至少一个频率区域;以及调整所选频率区域的幅度以模拟声源的预期垂直位移。
43. 《Sony Patent | Head-mounted display and image displaying method(索尼专利:头显和图像显示方法)》
在一个实施例中,专利描述的立体视觉头戴式显示器包括叠加图像控制部分,它可以根据视场中的三维空间的状态来确定要显示的叠加图像的虚拟距离。头显同时包括显示图像生成部分,其在叠加图像放置在三维空间中的虚拟距离处的状态下生成包括叠加图像的显示图像的数据。头显进一步包括输出控制部分,其将显示图像的所述数据输出到显示面板。
44. 《Sony Patent | Display 设备(索尼专利:显示设备)》
在一个实施例中,专利描述的显示设备包括发光元件组,每个发光元件组包括发光元件单元,每个发光单元包括第一、第二和第三发光元件。每个发光元件组包括驱动第一发光元件的第一驱动电路、驱动第二发光元件的第二驱动电路、以及驱动第三发光元件的三驱动电路,并且在每个发光元件群中,第一驱动电路的数量等于第一发光元件的数量,第二驱动电路的数量小于第二发光元件的数量,并且第三驱动电路的数目小于第三发光元件的数目。
在一个实施例中,专利描述的方法包括从表示Avatar的3D模型中选择第一点,所述第一点与眼睛相关联;从所述3D模型选择第二点,所述第二点与与眼睛相关联的眼周区域相关联。基于所述第一个点和所述第三个点生成反照率和球面谐波(SH)系数,以及基于反照率和SH系数生成图像点。
在一个实施例中,专利描述的透镜包括至少一个透镜元件,透镜元件配置为沿着从用户的瞳孔的一侧到显示表面的一侧的光轴方向与用户的瞳孔对接。所述至少一个透镜元件限定孔径光阑,所述孔径光阑配置为用于面对用户的瞳孔的区域的至少一部分。孔径光阑在用户相对于光轴方向的整个视角内定义与多个注视方向相对应的多个子光阑区域。所述多个子光阑区域的取向基于人类视觉系统。
在一个实施例中,专利描述了一种用于处理计算机生成全息图(CGH)的方法和系统。用于处理CGH的系统包括CGH生成设备和显示设备。CGH生成设备重复执行将对象数据从第一深度层传播到第二深度层、将对象数据的幅度数据改变为第二预定幅度数据、将对象信息从第二深度图层反向传播到第一深度图层、以及将对象信息的幅度数据改变为第一预定幅度数据的处理,并且通过使用对象数据来生成CGH。
在一个实施例中,专利描述的电子设备包括显示器、通信模块、存储器和至少一个处理器,所述至少一个存储器配置为可操作地连接到所述显示器、所述通信模块和所述存储器。所述至少一个处理器可以配置为检测用于执行剩余指纹盗窃防止服务的事件的发生。所述至少一个处理器可以配置为接收与指纹候选区域相对应的剩余指纹候选组数据。所述至少一个处理器可以配置为确定指纹候选区域的认证有效性。所述至少一个处理器可以配置为发送通过评估残留在显示器上的剩余指纹的安全风险而获得的安全级别。所述至少一个处理器可以配置为输出关于显示器的剩余指纹的安全指南信息。
在一个实施例中,专利描述的可穿戴电子设备可以包括框架、连接到框架的一侧的第一边撑、连接到框架相对侧的第二边撑以及位于该框架的一个区域中的摄像头。摄像头可以包括透镜模块和图像传感器,所述透镜模块包括至少一个超透镜和检测由超透镜模块引导的光的图像传感器。
50. 《Snap Patent | Wearable 设备 with heat transfer pathway(Snap专利:具有传热路径的可穿戴设备)》
在一个实施例中,专利描述的可穿戴设备可以包括眼镜主体、机载电子部件、热耦合和热传递设备。眼镜主体可以配置为由用户佩戴。机载电子部件可以由眼镜主体在眼镜主体的第一部分处承载,并且可以包括在其电动操作期间产生热量的热源。热耦合可以在眼镜主体的第二部分处热耦合到热传递装置。热传递装置可以在热源和热耦合器之间纵向延伸,以将热量从热源传递到热耦合器。
51. 《Snap Patent | Dynamic over-rendering in late-warping(Snap专利:late-wrping中的动态过度渲染)》
在一个实施例中,专利描述了一种用于调整AR设备中的显示器的过度渲染区域的方法。所述方法包括识别显示设备的角速度、显示设备的最近姿态、先前扭曲姿态和先前过度渲染区域,以及基于角速度、最近姿态、之前扭曲姿态和之前过度渲染区域的组合来调整动态过度渲染区域的大小。
52. 《Snap Patent | Controlling interactive fashion based on facial expressions(Snap专利:基于面部表情控制交互式时尚物品)》
在一个实施例中,专利描述的操作包括:接收包括穿着时尚物品的人的描绘的图像;生成所述图像中描绘的人所穿的时尚物品的分割;识别所述图像中描绘的用户的面部表情;以及响应于识别所述面部表情,基于对所述人佩戴的时尚物品的分割,将一个或多个增强现实元素应用于所述人所佩戴的时尚项目。
53. 《Snap Patent | Ar body part tracking system(Snap专利:AR身体部位追踪系统)》
在一个实施例中,专利描述了用于呈现AR项目的系统。系统执行的操作包括:接收包括真实世界环境中的第一真实世界身体部位的描绘的图像;将机器学习技术应用于所述图像以生成多个密集输出,每个密集输出与所述图像中的多个像素中的相应像素相关联;将第一任务专用解码器应用于所述多个密集输出以识别与所述第一真实世界身体部位的中心相对应的像素;使用所识别的像素应用第二任务专用解码器,以从所述多个密集输出中检索第一真实世界身体部位的3D旋转、平移和缩放;基于第一真实世界身体部位的3D旋转、平移和缩放来修改AR对象;以及修改图像以包括对修改后的AR对象的描绘。
54. 《Snap Patent | 3d captions with face tracking(Snap专利:带有人脸追踪的3D字幕)》
在一个实施例中,专利描述的操作包括:由实现消息收发应用程序的一个或多个处理器接收来自用户设备的摄像头的视频馈送;由所述消息收发应用程序检测所述视频馈送中的面部;响应于在视频馈送中检测到面部,检索3D字幕;修改视频馈送以在视频馈送的3D空间中靠近面部的位置处包括3D字幕;以及显示包括面部和3D字幕的修改的视频馈送。
55. 《Snap Patent | Enhanced reading with ar glasses(Snap专利:使用AR眼镜增强阅读能力)》
在一个实施例中,专利描述了用于增强AR阅读的方法,包括进入阅读模式,捕获诸如书籍页面之类的阅读材料的一部分的图像,识别图像内的代码,以及识别与该代码相对应的代码模块。所述方法同时包括执行代码模块,所述代码模块提供与所述部分或页面上描绘的对象相关的增强现实对象或虚拟现实对象,基于部分或页面的估计阅读持续时间进入睡眠模式达睡眠持续时间,在所述睡眠持续时间之后苏醒,以及捕获下一图像。用户可以使用外部用户界面手动唤醒AR读取设备。
在一个实施例中,专利描述的方法包括访问由柔性设备的立体光学传感器生成的第一立体帧的特征数据,而该特征数据基于柔性设备的视觉惯性里程计(VIO)系统生成;访问第一立体帧中的深度图数据,该深度图数据基于柔性装置的深度图系统生成;基于第一立体帧内的特征数据和深度图数据估计俯仰-滚转偏置和偏航偏置;以及在第一立体帧后生成第二立体帧。
57. 《Qualcomm Patent | Coordinate conversion for geometry point cloud compression(高通专利:用于几何点云压缩的坐标转换)》
在一个实施例中,专利描述的点云编码器和点云解码器配置为将点云数据的点的笛卡尔坐标转换为球面坐标。球面坐标包括半径、方位值和激光ID。点云编码器和点云解码器可以使用定点实现来执行方位值的转换,而该定点实现使用基于用于编码方位的比特数的可变移位值。
在一个实施例中,专利描述了用于检测移动设备中的未授权虚拟对象的方法。移动设备可以从摄像头接收图像。移动设备可以检测在图像中包括的移动设备的显示器显示的虚拟对象。移动设备可以在移动设备移动之后从惯性测量单元(IMU)接收数据。移动设备可以基于从IMU接收的数据来确定虚拟对象的估计的新位置。移动设备可以在从IMU接收到数据之后确定虚拟对象的实际位置。移动设备可以确定虚拟对象的估计的新位置和实际位置之间的差。移动设备可以基于所述差异来确定虚拟对象是否是未经授权的虚拟对象。
在一个实施例中,专利描述了一种在头显中进行图形处理的方法。所述方法通常包括基于可佩戴显示设备的位置,以及与该位置相关联的一个或多个真实世界对象的轮廓和深度信息来渲染第一图像,所渲染的第一图像至少包括一个或更多个虚拟对象。基于可佩戴显示设备的不同于该位置的更新位置来重新投影第一图像,并使用第一图像中的一个或者多个真实对象的重新投影的轮廓、第一图像中一个或者更多个真实世界物体的更新的深度信息、第一图像中一个或更多个虚拟对象的更新深度信息以及扭曲的一个以上虚拟对象来渲染第二图像,并且在头显显示器显示第二图像。
在一个实施例中,呈现虚拟内容的跨现实系统可以配置为呈现基于web的内容。所述系统可以包括棱镜管理器,棱镜管理器提供棱镜。为了呈现基于web的内容,访问web内容的浏览器可以与棱镜相关联,并且可以将内容呈现到关联的棱镜中,从而为用户创建与当内容由本地应用程序生成时相同的沉浸式体验。用户可以从与本机应用程序相同的程序启动程序菜单访问web应用程序。系统可以具有允许用户访问相关功能的工具。
在一个实施例中,可以使用便携式设备的摄像头获取图像,并且其他信息可以是映射。相对于映射进行定位可允许多个跨现实设备能够在相对于映射指定的位置呈现虚拟内容,从而为系统的使用提供增强的体验。所述方法同时可用于其它装置和其它目的,例如自主驾驶汽车的导航。
在一个实施例中,专利描述了用于眼睛图像分割和图像质量估计的系统和方法。一方面,在接收到眼睛图像之后,诸如增强现实设备之类的设备可以使用具有合并架构的卷积神经网络来处理眼睛图像,并生成分割的眼睛图像和眼睛图像的质量估计。分割的眼睛图像可以包括背景区域,巩膜区域,虹膜区域或瞳孔区域。在另一方面,具有合并架构的卷积神经网络可以接受训练并用于眼睛图像分割和图像质量估计。在另一方面,所述设备可以使用分割后的眼睛图像来确定眼睛轮廓,例如瞳孔轮廓和虹膜轮廓。
在一个实施例中,专利描述了用于调节可穿戴系统呈现的虚拟对象的运动速度的系统和方法。可穿戴系统可呈现3D虚拟内容。运动速度可遵循S曲线的轮廓,逐渐增加至最大速度,随后逐渐降低速度,直到达到运动终点。速度的降低可能比速度的增加更为缓慢。可穿戴系统可追踪虚拟对象的位置,其中虚拟对象以跟随S曲线的速度移动。所述速度曲线允许目标快速移动,同时在确定目标的初始和最终位置时提供舒适的浏览体验和高精度。
在一个实施例中,专利描述的系统可以包括选择性透明的投影设备,并从相对于用户眼睛的空间中的投影设备位置向用户眼睛投射图像,所述投影设备在不投影图像时保持基本透明的状态;所述系统同时可以包括遮挡掩模设备,其耦合至投影设备,并配置成以与投影设备投影图像相关联的遮挡图案;所述系统同时可以包括边界板衍射图案形成设备,其位于用户眼睛和投影设备之间,并且配置成致使来自投射设备的光线在行进至眼睛时通过具有可选几何形状的衍射图案。
66. 《Magic Leap Patent | Eyepieces For Augmented Reality Display System(Magic Leap专利:用于增强现实显示系统的目镜)》
在一个实施例中,用于增强现实显示系统的目镜波导可以包括光学透射基板,输入耦合光栅(ICG)区域,多向光瞳扩展器(MPE)区域,以及出射光瞳扩展器(EPE)区域。ICG区域可以接收输入光束,并将输入光束作为引导光束耦合到基板。MPE区域可以定位成接收来自ICG区域的引导光束,并在多个方向上衍射所述引导光束,从而以产生多个衍射光束EPE区域可以定位成接收来自MPE区域的一个或多个衍射光束,并将它们作为输出光束从光学透射基板中耦合出来。
在一个实施例中,专利描述了一种通过虚拟鼠标远程控制扩展现实的系统。所述系统包括头戴式显示器和用于佩戴在手上的第一遥控器。头戴式显示器包括图像捕获设备。所述第一遥控器与所述头戴式显示器通信连接,其中所述头佩戴式显示器配置为:通过所述图像捕获设备捕获图像;检测图像以获得图像中的手的第一数据和图像中的平面的第二数据;并根据第一数据和第二数据启用虚拟鼠标。
68. 《HTC Patent | Wearable authentication system and ring 设备(HTC专利:可穿戴认证系统和环形设备)》
在一个实施例中,专利描述了一种可穿戴认证系统。所述可穿戴认证系统包括头戴式设备和环形设备。头戴式设备包括第一网络模块和摄像头。第一网络模块发送认证请求。摄像头配置为提供用户的手的图像。环形装置包括惯性测量单元、第二网络模块和生物特征传感器。惯性测量单元提供环形装置的惯性测量值。第二网络模块接收认证请求。生物特征传感器基于认证请求从用户收集生物特征信息。可穿戴认证系统基于图像和惯性测量值中的至少一个来追踪环形装置的位置。第二网络模块向第一网络模块发送基于生物特征信息和惯性测量值的认证信息。
在一个实施例中,头戴式显示器响应于接收到切换信号而从多个多媒体内容中选择第一多媒体内容,并且基于确定用户选择执行新的应用程序来生成切换信号,并且第一多媒体内容的播放内容对应于新的应用程序。头戴式显示器将第一多媒体内容发送到显示器以在显示屏的多个像素上播放第一多媒体内容。
70. 《Vuzix Patent | Smart glasses with acoustic channel(Vuzix专利:带声道的智能眼镜)》
在一个实施例中,专利描述的智能眼镜设备包括具有近端和远端的边撑臂。智能眼镜设备具有与边撑臂近端耦合的光学系统和至少部分位于边撑臂远端中的扬声器。智能眼镜同时具有至少部分地位于扬声器周围的隔间。所述通道至少部分地位于所述边撑臂内,其中所述通道与所述隔室声学连通。一个或更多个音频端口位于所述腿撑臂中,其中所所述一或更多个音频端口与所述通道声学连通。
在一个实施例中,光栅中可以提供与复用光栅重叠的分束器层,以用于减少激光照射波导中的条带。分束器可以由一个或多个介电层提供。分束器可以对一个偏振具有灵敏度。分束器可以对S偏振敏感。分束器可以是针对法向入射进行优化的抗反射涂层,而当浸入玻璃或塑料中时,该抗反射涂层在高TIR角下变为反射性。
72. 《DigiLens Patent | Photonic crystals and methods for fabricating the same(DigiLens专利:光子晶体及其制造方法)》
在一个实施例中,专利描述的平视显示器包括:用于将准直光投影到视场上的图像生成单元;第一波导,包括用于将来自图像生成单元的光耦合到第一波导中的全内反射路径中的输入光栅和用于提供光束扩展和从第一波导提取光的输出光栅;弯曲的透明基板;以及反射镜。所述反射镜设置成其反射表面面向第一波导的波导输出表面。