香港挂牌网

www.64796.com2019年09月18日美国专利局最新ARVR专利报

更新时间:2019-10-08

  近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共30篇。更多专利披露请访问映维网专利板块进行检索,也可加入映维网AR/VR专利交流微信群。

  专利描述的可穿戴系统可包括:配置为在三维空间中呈现虚拟内容的显示系统;配置为接收用户输入的用户输入设备;以及配置为检测用户姿势的一个或多个传感器。可穿戴系统可以基于情景信息支持用户与环境对象进行各种用户交互。

  专利描述了一种头显装置,其包括显示器和透镜。透镜提供独立于用户眼睛旋转位置的一致畸变。 透镜包括具有第一透镜表面和第二透镜表面的光学透明基板。透镜配置为在第一时间将来自显示器第一位置的光聚焦在第一旋转位置的眼睛瞳孔,并在第二时间将来自显示器第二位置的光线聚焦在第二旋转位置的眼睛瞳孔。

  光束偏转组件包括两个棱镜阵列。第一棱镜阵列中的棱镜具有低于临界角的顶角,其使得光线穿过棱镜并以低于特定角度的角度偏转。第二棱镜阵列中的棱镜具有高于临界角的顶角,其使得进入棱镜的光线将从顶点表面反射到出射表面,从而致使光线以高于特定角度的角度偏转。在一些实施例中,第一阵列和第二阵列中的棱镜协同工作并将来自多个位置的光线引导到单个焦点。

  专利描述的头显包括电子显示器和Pancake透镜块。Pancake透镜块包括后弯曲光学元件和前弯曲光学元件。通过Pancake透镜块传播的光线经历多次反射并减轻寄生反射(parasitic reflections),Pancake透镜块的光学元件之间没有气隙。作为波片表面和镜面表面的混合膜可以放置在前弯曲光学元件和后弯曲光学元件之间。通过令前光学元件和后光学元件的耦合表面是基于凸圆柱表面轮廓和凹圆柱表面轮廓,其中圆柱表面轴位于头显用户垂直方向,可以实现宽视场。

  头显包括配置成发射图像光的电子显示器,提供光学校正的光学组件,眼动追踪系统和变焦模块。光学组件包括:后光学元件,其配置为接收来自电子显示器的图像光;耦合组件,其配置为将前光学元件耦合到光学组件内的位置,使得前光学元件接收由后光学元件传输的光线。光学组件针对图像光提供光学校正。眼动追踪系统确定用户眼睛的追踪信息。变焦模块根据眼睛追踪信息和光学校正来调整图像焦点。

  在一些实施例中,边界框可以包括一个安全区域和一个警示区域。例如,当用户位于安全区域时,用户可以体验完整的虚拟现实渲染。随着用户与边界框中心的距离增加(当用户走出安全区并接近警示区时),虚拟现实的视图可以逐渐过渡至现实世界的视图,从而对用户予以提醒。

  专利描述了一种包括眼动追踪系统的头戴式显示器。眼动追踪系统包括源组件,摄像头和控制组件。在一些实施例中,源组件包含多个源,并且定位成至少照射眼睛角膜的周边区域。升值超千倍这枚六字母域名268万元被秒!www.756755.com,在一些实施例中,源组件掩蔽为特定形状。在一些实施例中,摄像头可以检测反射光的偏振,并使用偏振来消除可能出现的反射位置歧义。类似地,飞行时间同样可用于消除可能出现的反射位置歧义。控制组件使用来自探测器的信息来追踪用户眼睛位置。

  专利描述了一种虚拟现实系统和显示设备。显示设备可以包含多于一个的数据驱动器,如偶数行数据驱动器和奇数行数据驱动器。显示设备可以具有可配置的分辨率,并使得显示设备的一个区域以全分辨率操作,而另一个区域以降低的分辨率操作。虚拟现实系统同时可以追踪眼睛注视点,并相应地调整显示设备的全分辨率区域。

  专利描述了用于数字成像的技术。数字像素图像传感器包括在每个像素中的数字转换器,其中数字转换器使用比较器等元件数字化来自光电二极管的模拟输出信号。在一些实施例中,比较器包括预充电电路而非恒定偏置电路,从而降低每个像素的功耗。在一些实施例中,每个像素包括数字或模拟相关二次采样(analog correlated doubl;CDS)电路,从而降低噪点并提供更高的动态范围。

  专利描述的技术通过将来自多个骨传导换能器阵列的振动聚焦到用户耳蜗来提供音频。 当接收到骨传导信号时,骨传导传感器将振动传递到用户耳蜗。骨传导信号发生器产生骨传导信号,其可以针对不同的骨传导传感器在幅度和相位方面变化,以放大一只耳朵耳蜗位置的振动水平,同时衰减另一只耳朵耳蜗的振动。

  包含发射器和接收器的系统使用磁场来确定两个装置的相对位置和方向或姿势。例如,发射器可以是手持式控制设备,接收器可以是增强现实或其他计算解决方案。发射器发射两个不同频率和不同幅度的磁场。接收器选择具有较高信噪比的磁场之一,从而确定发射器的相对姿态。

  专利描述的头显配置有传感器封装,所述传感器封装能够帮助确定设备用户的投影注视点与虚拟现实环境位置的交叉点,从而使得虚拟对象可以以高精度放置在虚拟现实环境中。可以使用传感器包的数据来应用物理环境的表面重建,从而确定用户在虚拟世界中的视图位置。根据用户输入(例手势,语音交互或控制操纵),虚拟对象放置在投影的注视射线和虚拟现实环境之间的交叉点位置。

  专利描述了一种包括具有处理器和相关显示器的头显的计算系统。与处理器通信的传感器配置为检测用户的可移动身体部位。多个物理触觉反馈结构配置为与可移动身体部分接触。处理器配置为操作显示设备,从传感器接收数据。另外,处理器配置为计算从可移动身体部分到目标物理结构的真实三维空间中的路径,计算空间扭曲模式,并且经由显示器显示虚拟空间和虚拟现实表示。

  专利描述了一种用于流式传输空间音频与视频的系统。响应于共享虚拟现实会话的请求,可以确定第二音频输出组件的特性和第二视频输出组件的特性。进一步响应于所述请求,并根据所确定的第二音频输出组件特性,可以将空间音频提供给第二音频输出组件,并且可以根据所确定的第二视频输出组件特性对接收的虚拟现实视频进行转码。经代码转换的虚拟现实视频可以提供给第二视频输出组件。

  专利描述了用于在计算机介导环境中组合与对象的直接交互和间接交互,从而促进精确交互的计算机化方法和系统。系统检测与对象的直接交互。直接交互可以是自然的或超自然的交互。随后,系统可以确定与对象相关的各种间接交互选项。间接交互可以由控制组件生成。在接收到间接交互时,系统可以根据直接交互和间接交互的组合来修改对象。

  专利描述的扫描显示器包括具有双轴MEMS镜或一对单轴MEMS镜的MEMS扫描器。耦合至MEMS扫描器的控制组件控制双轴MEMS镜或单轴MEMS镜的旋转。第一光源用于产生第一光束,第二光源用于产生第二光束。控制组件控制双轴MEMS镜或单轴MEMS镜的旋转,使用第一光束光栅扫描图像的第一部分,使用第二光束光栅扫描图像的第二部分。

  专利描述了一种在真实环境视图中表示虚拟对象的方法和系统,所述系统包括提供由摄像头捕获的人脸的第一图像图像信息,提供至少一个人脸特定特征,确定第一图像中的面部图像区域为面部区域,根据面部区域和至少一个人脸特定特征确定照射在面部的至少一个第一光线,并根据第一光线在显示设备上将虚拟对象混合至真实环境视图。所述方法同时包括提供多个面部样本位置,为多个面部样本位置中的每一个提供辐射传递函数,确定第一图像中的面部样本位置的图像位置,以及根据关联的强度信息确定第一光线. 《Google Patent Heat Pipe Thermal Component For Cooling System(谷歌专利:用于冷却系统的导热管组件)》

  头显装置包括具有一个或多个处理器的印刷电路板。具有面向发热元件表面的传热板耦合至印刷电路板,而传热板的相反表面耦合至导热管。www.64796.com。导热管耦合至传热壳,传热壳配置称散热器。在操作中,热量从头显发热组件传输至传热板,热能再经由导热管传递到传热壳,后者又将热能传递到头显外表面。

  头戴式显示器的显示器可用于显示虚拟场景。显示组件包括用于检测显示组件旋转和/或平移的运动追踪器。显示组件同时包括处理器,其配置为确定显示组件相对于多个与世界对齐的视锥的方向。处理器同时配置为识别一组与输出视场重叠的视锥集合。处理器同时配置为渲染所述视锥集合中的像素,并对渲染像素进行上采样,从而生成由显示组件呈现的显示像素值。

  专利描述了用于改变可穿戴计算设备功能的方法和设备。示例设备包括第一传感器和第二传感器。示例方法包括,当设备以第一状态操作时,第一传感器接收触控输入。根据以第一状态下操作的设备,第二传感器配置为待机模式。所述方法同时包括:响应于接收到触摸输入,触发第二传感器并从第二传感器接收数据。所述方法同时包括根据所述数据确定用户是否正在佩戴设备。

  可以存储用于虚拟现实或增强现实体验的场景视频流,并将其传递给用户。可以根据时间分割,视点分割和/或视图方向分割将视频流划分为多个单元。每个单元划可以再分为多个子单元。视频流的至少一部分可以存储在包括多个单元的文件中。每个单元可以是一组图片,其是一系列连续的时间帧。每个子单元可以定义可从其观看场景的最佳视点位置。

  专利所述的方法包括根据用户便携式显示设备相对于三维世界的第一姿态维持光场数据结构,所述光场数据结构表示三维世界的四维光场的至少一部分。所述方法同时包括确定用户便携式显示设备相对于三维世界的第二姿态,第二姿态包括用户便携式显示设备的更新姿态。所述方法同时包括根据第二姿态从光场数据结构生成显示帧,所述显示帧表示第二姿态的三维世界视图。

  系统可以确定模拟武器(如虚拟武器)已经击中UAV。这可以包括确定模拟武器的模拟位置和UAV的相对位置。然后,系统可以确定武器的效果区域并确定UAV是否被击中。系统可以确定UAV的哪个部分被击中,以及损伤程度。然后,系统可以确定模拟条件,如损坏的发动机或机翼。然后,系统可以接收用于控制UAV的输入,并将输入与模拟条件组合,从而产生用于UAV的控制信号。控制信号可以包括减小马达的功率。

  在信息处理设备中,姿态数据获取部分从头显运动传感器获取输出值,然后根据校正公式校正输出值,从而获取有效加速度。根据所获取的加速度,相应于运动传感器轴计算姿态。然后,根据先前获取的角度误差执行旋转校正并计算头显姿态,同时将计算的姿态输出到信息处理部分。校正数据更新部分根据在捕获图像成像的头显标记来获取姿态信息,比较基于标记的姿态信息,并根据传感器输出值更新用于获取姿态的校正数据。

  专利描述的可穿戴计算设备包括头显。头显可以显示叠加在视场中的图像。当可穿戴计算设备确定目标设备在其环境内时,可穿戴计算设备从程序化本地标签中获取与目标设备有关的目标设备信息。目标设备信息可以包括,定义用于控制目标设备的虚拟控制界面的信息,以及在所述界面提供目标设备的限定区域的标识。可穿戴计算设备控制头显并将虚拟控制图像显示为叠加在限定区域的图像。

  专利描述的电子设备具有配置为捕获图像数据的摄像头;配置为显示捕获图像数据和与电子设备应用相对应的内容的显示器;以及配置为检测电子设备运动的运动传感器。电子设备同时包括配置为当运动传感器检测到运动时激活摄像头,并且控制显示器显示捕获图像的电路。

  在图形处理中,接收表示虚拟空间场景的一个或多个顶点数据。在顶点执行Primitive Assembly,从而计算顶点从虚拟空间到视口的投影。扫描转换确定多个像素中的哪个像素属于已经转换为屏幕空间坐标的图元的一部分。每个图元的粗略光栅化确定图元重叠的子部分。与基元重叠子部分相关联的元数据确定子部分的像素分辨率。元数据用于处理子部分的像素并生成用于视口的最终像素值,从而使得两个不同子部分中的部分场景具有不同的像素分辨率。

  当游戏开始并且相应地建立HRTF时,可以利用每名用户的头部追踪。随着游戏的进行,追踪虚拟游戏空间中的每名玩家角色相对于其他玩家的位置,并相应地进行音频调整。如果需要,可以通过游戏主机或通过玩家的本地游戏界面向下混合音频,然后再为每位玩家向上渲染音频。

  专利描述的增强现实设备包括:用于捕获视频图像和相应深度信息的3D视频摄像头;用于显示视频数据的显示设备;以及用于将虚拟3D模型添加到视频数据的AR模块。深度映射模块根据深度信息生成3D映射;动态场景识别和追踪模块处理视频图像和3D映射,并且检测和追踪3D摄像头视场内的目标对象;增强视频渲染模块渲染虚拟3D模型的增强视频。AR设备同时可以包括根据当前位置的情景数据来选择虚拟3D模型的情景模块。

  专利描述了与发光显示装置结构相关的实施例,所述装置具有发光显示元件和超材料透镜。所述超材料透镜在发光显示元件的发光表面具有多个纳米颗粒,能够控制发光显示元件发射光线的角度分布。专利同时讨论了所述元件结构,包含这种受控发光显示元件结构的系统,以及制造它们的方法。

  发现本站文章存在版权等问题,烦请30天内提供版权疑问、身份证明、版权证明、联系方式等发邮件至,管理员将及时处理。


香港正版挂牌| 香港最快开奖结果直播| 最快开奖结果现场直播| 跑狗开奖直播| 9742香港开奖结果| www.007009.com| 本港台开奖现场直播开奖记录| www.45639B.com| www.225262.com| 开奖现场| 香港挂牌解一码| www.049222.com|