欢迎光临小豌豆知识网!
当前位置:首页 > 物理技术 > 光学> 用于平视显示器的基于任务的可调焦距的系统和方法独创技术43530字

用于平视显示器的基于任务的可调焦距的系统和方法

2021-02-01 11:55:05

用于平视显示器的基于任务的可调焦距的系统和方法

  背景技术

  在库存环境(诸如零售商店、仓库、运输设施等)中,必须执行许多不同类型的任务。这些任务可以包括,例如,卸载箱子、分类库存、选择要包装或放在货架上的库存、包装箱子、分类箱子、将箱子装进车辆、驱动机械(诸如叉车)等。在许多实例中,在库存环境中工作的个体必须为了每个新的任务将他或她焦点转移到他或她的视场范围内的不同领域。

  附图说明

  图1是根据本公开的教导构造的示例平视显示器(HUD)组件的框图。

  图2A和图2B示出了根据一些实施例的可以实现图1的示例HUD组件的示例HUD组件。

  图3示出了被安装到用户头部的图2A和图2B的示例HUD组件。

  图4示出了根据一些实施例的被安装到示例HUD组件的示例光引擎。

  图5A和图5B示出了根据本公开的教导的如何基于当前任务修改由图1的示例呈现生成器显示的视觉媒体的示例。

  图6是表示被配置为实现本文所公开的示例方法和装置的示例逻辑电路的框图。

  图7是根据本公开的教导的表示机器可读指令的流程图,该机器可读指令可被执行以实现被配置为由用户佩戴的HUD组件中的视觉媒体的基于任务的修改的示例方法。

  图8是根据本公开的教导的表示机器可读指令的流程图,该机器可读指令可被执行以实现获取在特定任务的执行期间要由HUD组件的呈现生成器显示视觉媒体的焦距的示例方法。

  图9是根据一些实施例的表示机器可读指令的流程图,该机器可读指令可以被执行以实现标识与HUD组件的用户相关联的当前任务的示例方法。

  图10是根据一些实施例的表示机器可读指令的流程图,该机器可读指令可以被执行以实现标识与HUD组件的用户相关联的当前任务的示例方法。

  图11是根据一些实施例的表示机器可读指令的流程图,该机器可读指令可以被执行以实现标识与HUD组件的用户相关联的当前任务的示例方法。

  图12是根据一些实施例的表示机器可读指令的流程图,该机器可读指令可以被执行以实现标识与HUD组件的用户相关联的当前任务的示例方法。

  本领域技术人员将理解附图中的要素出于简化和清楚而示出,并且不一定按比例绘制。例如,附图中一些要素的尺寸可以相对于其他要素被夸大,以帮助改进对本教导的实施例的理解。

  已经在附图中通过常规符号在适当位置对装置部件进行了表示,所述表示仅示出与理解本公开的教导有关的那些特定细节,以免因得益于本文的描述对本领域技术人员显而易见的细节而混淆本公开。

  具体实施方式

  在库存环境中使用的现有的平视显示器(HUD)组件单元在任务之间统一地显示视觉媒体,而不考虑每一个任务所需的焦点转移。因此,现有的HUD单元的用户通常会被呈现不适合手头任务的视觉媒体。因此,此类HUD单元的用户在任务期间必须转移焦点以查看显示器,这会导致眼睛疲劳和/或增加完成任务所需的时间。

  提供了用于在平视显示器中视觉媒体的基于任务的修改的系统和方法。本文所公开的示例系统包括被配置为由用户佩戴的平视显示器组件,该平视显示器组件包括头戴件和被配置为向用户显示视觉媒体的呈现生成器。该示例系统进一步包括存储器,被配置为存储计算机可执行指令;以及处理器,被配置为与该呈现生成器和该存储器通过接口连接(interface with),并且被配置为执行该计算机可执行指令。在该示例系统中,该处理器标识与用户相关联的当前任务,并且获取在当前任务的执行期间要向用户显示视觉媒体的焦距。该示例系统的处理器使呈现生成器在当前任务的执行期间在所获取的焦距处显示视觉媒体。

  图1是根据本公开的教导构造的示例HUD组件100的框图。图1的示例HUD组件100的替代实现方式包括一个或多个附加或替代元件、过程和/或设备。在一些示例中,可以组合、分割、重新布置或省略图1的示例HUD组件100的元件、过程和/或设备中的一个或多个。

  图1的示例HUD组件100包括呈现生成器102和头戴件104。头戴件104构造为将呈现生成器102安装到人的头部,使得由呈现生成器102生成的呈现可由人消费。该呈现包括视觉媒体分量(例如,图像)和/或音频媒体分量。为了生成诸如静态或动画文本和/或图形之类的图像,图1的示例呈现生成器102包括图像生成器106。图1的示例图像生成器106与一个或多个图像数据源通信。在图像生成器106处接收到的图像数据表示例如,文本、图形和/或增强现实元素(例如,覆盖在视场内的对象上的信息)。图1的示例图像生成器106包括光引擎108,光引擎108将所接收的图像数据转换成光的模式和脉冲。光引擎108将所生成的光传送到波导110,使得与所接收的数据相对应的图像经由波导110显示给用户。在一些示例中,光引擎110包括在将光提供给波导110之前调节或操纵(例如,偏振和/或准直)所生成的光的光学器件。虽然示例图像生成器106利用光引擎108和波导来呈现该呈现的视觉分量,但是图1的示例HUD组件100可以采用任何合适的图像生成技术,诸如例如,阴极射线管(CRT)设备或扫描激光器。

  在图1的示例中,光引擎108利用光源(例如,发光二极管(LED))来基于所接收的数据来生成光。在一些示例中,光引擎108接收处理过的数据,该处理过的数据处于可立即转换成光的状况下。在一些示例中,光引擎108在将图像数据转换成光之前处理原始图像数据。为了执行此类处理,图1的示例光引擎108包括被配置为处理图像数据的一个或多个逻辑电路和/或与被配置为处理图像数据的一个或多个逻辑电路通信。

  图1的示例波导110以与图像数据相对应的方向和模式携带从光引擎108接收的光。在本文公开的示例中,图1的示例波导110基于用户正在执行的当前任务,以与特定焦距相对应的方向和模式携带从光引擎接收的光。

  在示出的示例中,波导110包括形成光导的多个内表面,以在光从输入到输出行进时内部地反射光。示例波导110在输出端处包括光栅,以使光朝向用户的眼睛衍射,从而向用户显示图像。在示出的示例中,波导110是透明的,使得用户可以同时查看周围环境与所显示的图像,或者当波导110上没有图像显示时仅查看周围环境。

  图1的示例波导110包括第一透镜和第二透镜,该第一透镜和第二透镜被布置为分别放置在用户的第一眼睛和第二眼睛上。然而,任何合适的形状或尺寸对于波导110都是可能的。为了实现所显示的视觉媒体所期望或所选择的焦距,在一些实例中,该第一透镜和第二透镜被配置为使得基于当前任务的焦距机械地调整其位置。附加地,在一些示例中,第一透镜和第二透镜是振荡透镜,被配置为基于转移以根据当前任务所期望或所选择的焦距来呈现视觉媒体。附加地或替代地,基于所供应的电压改变曲率的液体透镜可以被放置在第一透镜和第二透镜上,其中基于当前任务所期望或所选择的焦距向该液体透镜供应电压。

  图1的示例呈现生成器102包括音频生成器112,音频生成器112接收音频数据并经由耳机插孔114和/或扬声器116将该音频数据转换成声音。在一些示例中,音频生成器112和图像生成器106协同生成视听呈现。

  在图1的示例中,示例呈现生成器102包括(例如,容纳和/或携带)多个传感器118。在图1的示例中,该多个传感器118包括光传感器122、运动传感器124(例如,加速度计)、陀螺仪126、麦克风128。在一些实例中,该多个传感器118可以包括被配置为检测由蓝牙低能耗无线电传输的信号的传感器。在一些示例中,由示例图像生成器106和/或音频生成器112生成的呈现受由传感器118中的一个或多个生成的一个或多个测量和/或检测的影响。例如,由图像生成器106生成的显示的特性(例如,不透明度)可以取决于由光传感器120所检测的环境光的强度。附加地或替代地,通过由传感器118中的一个或多个生成的测量和/或检测来确定一个或多个模式、操作参数或设置。例如,如果运动传感器122在阈值时间量内没有检测到运动,则呈现生成器102可以进入待机模式。

  图1的示例呈现生成器102包括照相机子系统128。在一些示例中,照相机子系统128被安装到与呈现生成器102相同的壳体或由与呈现生成器102相同的壳体携带。在一些示例中,照相机子系统128被安装到头戴件104或由头戴件104携带。示例照相机子系统128包括麦克风132和一个或多个照相机130,以分别捕获表示HUD组件100周围的环境的音频数据和图像数据。在一些示例中,照相机子系统128包括一个或多个照相机130,以捕获表示HUD组件100的用户的图像数据。例如,表示HUD组件100的用户的图像数据包括表示用户的眼睛或用户的面部的图像数据。

  在一些示例中,由照相机130和/或麦克风132捕获的图像和/或音频数据与由图像生成器106和/或音频生成器112生成的呈现集成。例如,图1的照相机子系统128将数据传送到图像生成器102,图像生成器102可以处理图像数据并且以在波导110上生成一个或多个相对应的图像。在一些示例中,分别由照相机130和/或麦克风132捕获的图像数据和/或音频数据存储在示例HUD组件100的存储器135中。在一些示例中,分别由照相机130和/或麦克风132捕获的图像数据和/或音频数据经由例如照相机子系统128的USB接口134传送到HUD组件100外部的设备(例如,服务器或外部存储器)。

  图1的示例呈现生成器102包括多个接口136,该多个接口136被配置为使得HUD组件100能够与一个或多个外部设备136和一个或多个网络138通信。在图1的示例中,接口136包括将数据从一种格式转换为另一种格式的转换器140(例如,HDMI到LVDS-RGB转换器)、USB接口142和音频发射器146。在一些示例中,示例音频发射器146与HUD组件100的麦克风126、麦克风132中的一个或两个协作以接收来自用户的语音输入并将该语音输入传送到外部设备136中的一个或多个。例如,可以使用音频发射器146经由HUD组件100向用户正在佩戴的移动计算设备提供语音输入。示例外部设备136包括键盘、点击按钮、智能手表和移动计算设备。

  示例图像生成器106、示例光引擎108、示例音频生成器112、示例照相机子系统128、示例转换器140、示例USB接口134、144和/或更一般地,图1的示例呈现生成器102由硬件、软件、固件和/或硬件、软件和/或固件的任何组合来实现。在一些示例中,示例图像生成器106、示例光引擎108、示例音频生成器112、示例照相机子系统128、示例转换器140、示例USB接口134、144和/或更一般地,图1的示例呈现生成器102中的至少一个由逻辑电路实现。

  如本文所使用的,术语“逻辑电路”明确地定义为包括至少一个硬件部件的物理设备,该至少一个硬件部件被配置(例如,经由根据预定配置的操作和/或经由存储的机器可读指令的执行)为控制一个或多个机器和/或执行一个或多个机器的操作。逻辑电路的示例包括一个或多个处理器、一个或多个协处理器、一个或多个微处理器、一个或多个控制器、一个或多个数字信号处理器(DSP)、一个或多个专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、一个或多个微控制器单元(MCU)、一个或多个硬件加速器、一个或多个专用计算机芯片、以及一个或多个片上系统(SoC)设备。一些示例逻辑电路(诸如ASIC或FPGA)是专门配置用于执行操作的硬件。一些示例逻辑电路是执行机器可读指令以执行操作的硬件。一些示例逻辑电路包括专门配置的硬件和执行机器可读指令的硬件的组合。

  如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个明确地定义为机器可读指令(例如,以例如软件和/或固件的形式的程序代码)可以被存储在其上的存储介质(例如,硬盘驱动器的盘片、数字多功能盘、光盘、闪存、只读存储器、随机存取存储器等)。进一步,如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个被明确地定义为排除传播信号。也就是说,正如在本专利的任何权利要求中所使用的,“有形机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“非瞬态机器可读介质”不能被理解为通过传播信号来实现。此外,正如在本专利的任何权利要求中所使用的,“机器可读存储设备”不能被理解为通过传播信号来实现。

  如本文所使用的,术语“有形机器可读介质”、“非瞬态机器可读介质”和“机器可读存储设备”中的每一个都被明确定义为存储介质,在该存储介质上,机器可读指令在任何合适的时间段内(例如,永久地,在延长的时间段内(例如,当与机器可读指令相关联的程序正在执行)和/或短时间段内(例如,当机器可读指令被高速缓存和/或在缓冲处理期间)被存储。

  图2A和图2B示出了可以实现图1的示例HUD组件100的示例HUD组件200。图2A的示例HUD组件200包括呈现生成器202和示例头戴件204。图2A的示例呈现生成器202容纳或携带部件,该部件被配置为生成例如供佩戴图2A的示例HUD组件200的用户使用的视听呈现。例如,图2A的呈现生成器202容纳或携带图1的示例呈现生成器102的部件。

  图3示出了安装到用户的头部300的图2A和图2B的示例HUD组件200。

  图4示出了实现例如图1的光引擎108以向HUD组件的用户显示视觉媒体的示例光引擎402。如上所述,光引擎402生成由波导携带的光。当图4的示例光引擎402被定位在每一个目镜的上方时,光引擎402可以被定位在任何合适的位置,诸如例如,在框架的边缘处。

  图5A和5B示出了根据本发明的教导的如何基于用户正在执行的当前任务和/或为用户的计划好的任务来控制和/或修改由HUD组件的呈现生成器显示的视觉媒体的示例。一般来说,本文公开的示例HUD组件的呈现生成器基于用户的当前任务控制视觉媒体的显示,以例如减少或避免眼睛疲劳或眼睛疲倦。当用户需要在远近对象之间进行焦点转移时,会出现眼睛疲劳和眼睛疲倦。因此,在本文所公开的示例中,视觉媒体显示为在与较远的对象有关的任务期间看起来在较远的地方,并且在与靠近用户的对象有关的任务期间看起来在更靠近用户的地方,这样用户在执行任务时不需要在与任务有关的对象和视觉媒体之间进行焦点转移。

  例如,如图5A所示,用户500佩戴HUD组件502,执行与箱子对象504有关的任务(诸如例如,读取或扫描附接到箱子对象504的标签(label)),近距离(例如,一英尺或两英尺远)检查箱子对象504以执行任务。在该示例中,基于当前任务的需求,显示视觉媒体508使得视觉媒体508看起来在离用户500短距离处。也就是说,当视觉媒体508显示在较短的焦距处时,用户500可以通过在聚焦于视觉媒体508和聚焦于箱子对象504时保持相似的焦距来减少眼睛疲劳。因此,HUD组件502的呈现生成器显示视觉媒体508,使得视觉媒体508看起来在与用户的当前任务有关的箱子对象504的焦距类似的焦距处。

  另一方面,如图5A所示显示视觉媒体508处的焦距不适合于要求用户聚焦在离用户500更远的对象上的不同的任务。也就是说,如果用户500在执行任务时需要聚焦在更远的对象上,但是视觉媒体看起来靠近用户500,则用户的眼睛将需要在聚焦于看起来很近的视觉媒体和聚焦于远处的物理对象之间交替。因此,本文公开的示例在当前任务改变时修改或控制用户500所看到的视觉媒体的位置。

  例如,佩戴HUD组件552的图5B的用户550正在执行与图5A的用户500不同的任务。在图5B的示例中,用户550正在从一定距离(例如,10英尺到15英尺远)查看箱子对象554以执行当前任务。例如,图5B的用户550的任务是从位于跨房间定位的货架上的许多其他箱子对象(未示出)中标识一个箱子对象554。在图5B的示例中,基于用户当前任务的要求,本文公开的示例显示视觉媒体558,使得视觉媒体558看起来离用户550更远,即,在离用户550较大的焦距处。也就是说,当在较大的焦距处显示视觉媒体558时,图5B的用户550可以通过在聚焦于视觉媒体558和聚焦于与任务的执行(即,从用户550在位于跨房间定位的货架上的其他对象中标识箱子对象554)有关的对象时保持相似的焦距来减少眼睛疲劳。因此,在该实例中,HUD组件552的呈现生成器在与用户的当前任务有关的箱子对象554的焦距类似的焦距处显示视觉媒体558。

  图6是表示可以用于实现例如图1的示例图像生成器106、示例光引擎108、示例接口136中的一个或多个、示例音频生成器112和/或更一般地,图1的示例呈现生成器100的示例逻辑电路的框图。图6的示例逻辑电路是能够执行例如实现与例如,图1的示例HUD组件100相关联的操作的机器可读指令的处理平台600。

  图6的示例处理平台600包括处理器602,诸如,例如,一个或多个微处理器、控制器和/或任何合适类型的处理器。图6的示例处理平台600包括由处理器602可访问(例如,经由存储器控制器)的存储器(例如,易失性存储器、非易失性存储器)。示例处理器602与存储器604交互以获取例如,存储在存储器604中的机器可读指令。附加地或替代地,机器可读指令可以存储在一个或多个可移除介质(例如,光盘、数字多功能盘、可移除闪存等)上,该可移除介质可以耦合到处理平台600以提供对存储在其上的机器可读指令的访问。特别地,存储在存储器604上的机器可读指令可以包括用于执行下文在图7-图12中更详细描述的方法中的任何一种的指令。

  图6的示例处理平台600进一步包括网络接口606,以实现经由例如一个或多个网络与其他机器的通信。示例网络接口606包括被配置为根据任何合适的(多个)协议操作的任何合适类型的(多个)通信接口(例如,有线接口和/或无线接口)。图6的示例处理平台600包括输入/输出(I/O)接口608,以使得能够接收用户输入并将输出数据通信给用户。

  图7是根据本公开的教导的被配置为由用户佩戴的HUD组件中视觉媒体的基于任务的控制和/或修改的示例方法700的流程图。示例方法700可以实现为,例如,存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框702处,标识与HUD组件的用户相关联的当前任务。例如,HUD组件的用户可以在库存环境(诸如零售商店、仓库、运输设施等)中工作。由库存环境中的用户执行的各种任务可以包括,卸载箱子、分类库存、选择要包装或放在货架上的库存、包装箱子、分类箱子、将箱子装进车辆、驱动机械(诸如叉车)等。用户经常在任务之间切换,例如,在一小时、一天、一周等时间内。例如,用户早上执行卸载箱子的任务,下午执行分类库存的任务。又例如,用户包装箱子直到箱子装满,然后定期将装满的箱子装进车辆。

  在一些示例中,标识与用户相关联的当前任务包括标识由用户在当前时间正在执行的特定任务。附加或替代地,标识当前任务包括标识由用户在当前时间正在执行的任务的类型或类别。例如,任务可以按照针对每一个任务(例如,短焦距任务、中焦距任务、长焦距任务等)所推荐或所期望的焦距(例如,根据测试和/或个人偏好)进行分类,或者可以按诸如包装任务、分类任务、装载任务、抬升任务等进行分类。

  参照图9-图12更详细地讨论用于标识由HUD组件的用户正在执行的当前任务的示例性方法。

  在框704处,获取在当前任务的执行期间要显示视觉媒体的焦距。如上文所述,由用户佩戴的HUD组件的呈现生成器显示该视觉媒体。视觉媒体包括,例如,与正在执行的当前任务有关的指令或信息。此外,在各种实例中,视觉媒体可以包括与正在执行的当前任务有关的二维和三维文本、图像和/或视频。在一些实例中,视觉媒体看起来是覆盖在包括用户的环境上的“增强现实”。

  要由用户执行的每一个任务将具有合适的和/或优选的焦距(或合适的焦距的范围),在该焦距处HUD组件显示视觉媒体,以例如避免眼睛疲劳和疲倦。由用户执行的不同任务通常将各自具有不同的合适焦距(或合适焦距的范围)。为了避免眼睛疲劳和疲倦,本文公开的示例认识到,视觉媒体应当被显示成使得该视觉媒体看起来位于用户已经聚焦在的类似焦平面上,使得用户不需要在视觉媒体和任务有关的焦点之间转移焦点。也就是说,如果在特定任务期间让用户承担了聚焦在较远的地方上的任务,则视觉媒体应当被显示成使得在正执行该任务时该视觉媒体看起来也离用户较远。类似地,如果在不同任务期间让用户承担了聚焦在离用户较近的某物上的任务,则视觉媒体应当被显示成使得在正执行该任务时该视觉媒体看起来也离用户较近。参照图8更详细地讨论用于获取要显示视觉媒体的焦距的示例性方法。

  在框708处,基于所获取的与当前任务的执行相关联的焦距来控制或修改由呈现生成器显示的视觉媒体的焦距。也就是说,呈现生成器显示视觉媒体,使得该视觉媒体看起来位于与现有的任务有关焦点相同或相似的焦距处。有利的是,通过这种方式,可以减少当用户频繁地在焦距之间转移其视觉焦点时发生的眼睛疲劳或眼睛疲倦。

  在一些实例中,基于特定的用户特性附加地控制和/或修改由呈现生成器显示的视觉媒体的焦距。例如,可以基于用户瞳孔之间的距离(瞳孔间距)附加地控制和/或修改焦距。一般来说,瞳孔间距因个体而异,通常从大约55mm到大约75mm的范围。可以通过由朝向用户面部定向的照相机检测用户瞳孔中的每一个的位置来计算特定用户的瞳孔间距。基于用户的瞳孔间距,视觉媒体的优选的或合适的焦距可以更长或更短。此外,在一些实例中,基于当前任务附加地控制和/或修改由呈现生成器显示的视觉媒体的水平位置或垂直位置,以获取附加或替代优势。例如,在涉及到货架上的堆叠对象的任务期间,可以垂直地修改视觉媒体的位置以与向上看的用户的眼睛相匹配。又例如,在涉及扫描房间或货架以搜索对象的任务期间,可以水平地动态修改视觉媒体的位置,以在用户水平地扫描房间或货架时与用户的眼睛相匹配。因此,任务将需要较少的用户焦点的位置转移,因为视觉媒体看起来将位于与当前任务有关的位置。有利的是,可以减少当用户必须频繁地水平地和/或垂直地转移他们的视觉焦点时发生的眼睛疲劳或眼睛疲倦。

  在一些实例中,基于用户当前是否正佩戴双焦点或渐进式透镜附加地控制和/或修改由呈现生成器显示的视觉媒体的垂直位置。也就是说,这些类型的矫正透镜要求透镜的佩戴者向下看以查看离佩戴者较近的对象,并向上看以查看离佩戴者较远的对象。因此,对于佩戴双焦点或渐进式透镜的用户,基于在当前任务的执行期间要显示视觉媒体的焦距,如果焦距较长则可以垂直地向上调整视觉媒体,并且如果焦距较短则可以垂直地向下调整视觉媒体。

  图8是根据一些实施例在图7的框704上展开的用于获取在特定任务的执行期间要由HUD组件的呈现生成器显示视觉媒体的焦距的示例方法800的流程图。方法800可以实现为存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框802处,标识与当前任务相关联的物理对象。该物理对象可以是箱子、包装、或其他库存物品,或者可以是附接到箱子或其他包装的标签。例如,如果当前任务是从车辆上卸载特定箱子,则与当前任务相关联的物理对象是将要卸载的特定箱子。又例如,如果当前任务是对库存进行分类,则与当前任务相关联的物理对象是将要分类的库存对象。

  在一些实例中,经由安装到HUD组件的照相机或其他传感器来标识与当前任务相关联的物理对象,该照相机或其他传感器检测指示该物理对象(例如,在用户的环境中)的数据。例如,可以将外部记号(marker)或标记(tag)粘附到物理对象上,以标识该对象。在一些实例中,通过访问(例如,由处理器)存储用于标识与特定任务相关联的物理对象的数据的数据库,并且通过将当前任务与该数据库中的相关联的物理对象进行匹配来标识与当前任务相关联的物理对象。在一些实例中,基于用户输入标识与当前任务相关联的物理对象。例如,HUD组件与手持式用户设备通信,用户通过该用户设备(例如,经由键盘或通过扫描物理对象)选择与当前任务有关的物理对象。

  在框804处,确定用户和与当前任务相关联的物理对象之间的距离。在一些实例中,用户和与当前任务相关联的物理对象之间的距离是实际距离,该实际距离可以经由,例如,安装到HUD组件的传感器来确定。例如,传感器可以被用于确定用户和该用户前面的箱子之间的距离,或用户和该用户当前持有的箱子之间的距离。作为一个示例,安装到HUD组件的传感器测量由安装到HUD组件的光源所发射的光信号到达物理对象并返回该传感器花费的时间。通过这种方式,可以基于所测量的时间确定HUD组件和物理对象之间的距离(并且因此确定用户和物理对象之间的距离)。

  在一些实施例中,用户和与当前任务相关联的物理对象之间的距离是基于当前任务或基于物理对象的预期或估计的距离。例如,在一些实例中,处理器访问包含各种任务中用户和物理对象之间所预期或所估计的距离的数据库,并且将该当前任务和该数据库中列出的所预期或所估计的距离进行匹配。例如,一些任务通常要求用户处于距物理对象较大或较小的距离。例如,当用户执行涉及读取或扫描标签的任务时,该用户可能通常需要靠近标签已被放置在其上的对象。因此,当用户正在执行读取标签或扫描标签的任务时,该用户和物理对象之间的估计或预期的距离可以是通常较短的距离(例如,两英尺)。另一方面,当用户正在仓库中定位特定箱子时,该用户和物理对象之间的估计或预期的距离可能更大(例如,十英尺)。

  附加地或替代地,在标识对象的外部记号或标记被粘附到对象的实例中,外部记号或标记包括用户和物理对象之间对于与该对象有关的任务所预期或所估计的距离的指示。

  在框806处,计算在当前任务的执行期间要显示视觉媒体的焦距。通常,在特定任务期间显示视觉媒体的焦距与用户和与该任务相关联的物理对象之间的距离有关。也就是说,为了避免或减少眼睛疲劳和/或眼睛疲倦,视觉媒体应当看起来位于焦距处,当物理对象离用户较远时,焦距较大,而当物理对象离用户较近时,焦距较短。在一些实例中,在特定任务期间显示视觉媒体的焦距将与用户和与该任务相关联的对象之间的距离相等。在一些实例中,在特定任务期间显示视觉媒体的焦距将是距离范围(例如,与任务相关联的对象的一英尺内,与任务相关联的对象的五英尺内等)。

  附加地或替代地,在一些示例中,在每一个任务的执行期间要显示视觉媒体的合适的和/或优选的焦距通过分析与执行相同任务的其他用户相关联的数据来确定。例如,如果与执行特定任务的其他用户相关联的数据表明,当视觉媒体出现在与任务相关联的对象的六英寸内的焦距处时,用户报告较不频繁的眼睛疲倦或较不强烈的眼睛疲倦,则用于执行该任务的合适和/或优选的焦距可以在与任务相关联的对象的六英寸内。

  因此,可以通过标识与任务有关的物理对象以及该物理对象与用户之间的实际或预期的距离来计算在特定任务的执行期间要显示视觉媒体的合适焦距。

  图9是根据一些实施例在图7的框702上展开的标识与HUD组件的用户相关联的当前任务的示例方法900的流程图。方法900可以实现为存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框902处,检测与用户相关联的运动的指示,例如,通过安装到HUD组件的加速度计(或通过任何其他合适的运动传感器)与用户相关联的运动的指示可以包括,例如,用户的取向和/或位置,以及用户的速度和/或加速度。

  在框904处,分析与用户相关联的运动的指示。例如,由加速度计收集的数据可以指示用户正在蹲下、站起来、行走、走楼梯、站着不动、驾驶机动车辆(诸如叉车)等,以及用户正在看的方向(例如,上、下、左、右)。也就是说,通过分析与用户的运动有关的数据并将其与各种人类运动的已知模式(例如,其可以存储在由处理器访问的数据库中)进行比较,标识用户的特定类型的运动。

  在框906处,基于与用户相关联的运动的指示的分析标识与用户相关联的当前任务。在一些实例中,处理器访问存储与特定任务相关联的预期类型的用户运动的数据库,并通过将所标识的用户运动与特定任务进行匹配来标识当前任务。例如,当用户正向下看时,站着不动或蹲下运动可以与读取标签或扫描标签的任务相关联,而当用户正向上看时,行走或攀爬运动可以与例如将箱子装进车辆的任务相关联。因此,基于在当前时间用户的移动来标识用户的当前任务。

  图10是根据一些实施例在图7的框702上展开的标识与HUD组件的用户相关联的当前任务的另一个示例方法1000的流程图。方法1000可以实现为存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框1002处,检测与用户的眼睛相关联的运动的指示,例如,通过安装到HUD组件的传感器或照相机。也就是说,传感器或照相机面向用户的眼睛,并收集与用户的眼睛移动有关的数据。

  在框1004处,分析与用户的眼睛相关联的运动的指示。在一些实例中,分析由传感器或照相机收集的数据以确定用户的瞳孔是扩大还是收缩。在一些实例中,分析由传感器或照相机收集的数据以确定用户的眼睛的位置是否已发生变化(即,用户是在向上看、向下看、向左看还是向右看,或是一些组合)。在一些示例中,分析由传感器或照相机收集的数据以确定用户眨眼的次数和/或频率。

  在框1006中,基于与用户的眼睛相关联的运动的指示的分析标识与用户相关联的当前任务。在一些实例中,处理器访问存储与特定任务相关联的预期类型的眼睛移动的数据库,并将所标识的用户的眼睛的运动与特定任务进行匹配。在一些示例中,收缩的瞳孔与诸如将箱子装进车辆之类的任务有关,而扩大的瞳孔则与诸如分类库存之类的任务有关。作为另一个示例,向上看与诸如标识货架上的特定箱子之类的任务有关,而向下看则与诸如包装箱子之类的任务有关。因此,基于在特定时间用户的眼睛的移动来标识用户的当前任务。在一些示例中,数据库附加地存储与眼睛疲倦相关联的预期类型的眼睛移动,并且将所标识的用户的眼睛的运动与推断的用户的眼睛疲倦进行匹配。例如,在某段时间内不频繁的眼睛运动或不频繁的眨眼与用户眼睛疲倦相关联。在一些示例中,示例方法1000附加地包括当检测到眼睛疲倦时,向用户生成通知。例如,用户的眼睛疲倦通知可以包括用于用户短暂休息以减少或避免眼睛疲倦的指令。

  此外,在一些实例中,基于与用户的眼睛相关联的运动的指示来动态地控制和/或修改由呈现生成器显示的视觉媒体的水平位置和/或垂直位置,以获取附加或替代优势。在一些示例中,通过监视用户瞳孔的运动来检测用户视觉的中心(也称为中央凹(fovea))的位置,并且基于该中央凹的位置动态地控制和/或修改由呈现生成器显示的视觉媒体的水平位置和/或垂直位置。也就是说,虽然在一些实例中,用户的头部和眼睛的移动是协调的(例如,当用户对该用户周围的环境进行视觉搜索时),但是在其他实例中,在称为前庭眼反射(vestibulo-ocular reflex)的反射性眼球移动中的小角度位移的视觉搜索(例如,当用户的眼睛扫描靠近用户的货架标签时)期间,用户的眼睛以不同于用户头部的方向移动。当用户的眼睛以不同于用户头部的方向移动时,动态地控制视觉媒体的水平位置和/或垂直位置以匹配用户的眼睛的位置而不是用户头部的位置,使得视觉媒体始终看起来靠近用户的视觉中心。

  特别地,由于人类的视觉敏锐度在横向地距离中央凹10度到15度处显著劣化,所以视觉媒体被动态地控制和/或修改,以便横向地出现在用户的中央凹的15度内。例如,当与用户的眼睛相关联的运动的指示表明用户的瞳孔正在水平地移动时,视觉媒体的位置可以基于用户的眼睛的水平运动动态地水平地修改,以便始终横向地出现在用户的中央凹的15度内。

  附加地,动态地控制和/或修改视觉媒体以垂直地出现在用户视线的20度范围内。例如,当与用户的眼睛相关联的运动的指示表明用户的瞳孔当前正在垂直移动时,视觉媒体的位置可以动态地垂直地修改,以始终垂直地出现在用户视线的20度范围内。因此,即使当用户的眼睛水平地和/或垂直地移动时,视觉媒体始终出现在用户中央凹的15度范围内和用户视线下方20度范围内,因此用户将不需要为了查看视觉媒体而水平地和/或垂直地转移其视觉焦点。有利的是,可以减少当用户必须频繁地水平地和/或垂直地转移他们的视觉焦点以查看离轴的视觉媒体时出现的眼睛疲劳、眼睛疲倦和颈部疲劳。

  图11是根据一些实施例在图7的框702上展开的标识与HUD组件的用户相关联的当前任务的另一个示例方法1100的流程图。方法1100可以实现为存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框1102处,接收与用户相关联的凭证信息。例如,用户在佩戴HUD组件之前或在佩戴HUD组件的同时登录或选择用户简档。例如,凭证信息可以是该用户的用户简档信息。在一些实例中,不需要与用户相关联的凭证信息。例如,拥有个人HUD组件的用户可以不需要登录或提供凭证。

  在框1104处,访问与用户相关联的任务计划。任务计划可以包括按日期和/或时间列出的任务。例如,一个任务将由用户在星期一上午8:00到上午10:00执行,而另一个任务将由用户在星期一上午10:00到上午10:30执行,而在星期二仍然要执行不同的任务等。

  在框1106处,确定当前时间段(例如,日期和/或当前时间),并且在框1108处,基于与用户相关联的任务计划和当前时间段标识与用户相关联的当前任务。也就是说,当前时间段与要在当前时间段执行的计划好的任务相匹配,以标识当前任务。通过这种方式,基于用户正在执行任务的日期和/或时间来标识由用户正在执行的当前任务。在一些示例中,时间信息可以基于本地化的时间,诸如仓库中的计时器。

  图12是根据一些实施例在图7的框702上展开的标识与HUD组件的用户相关联的当前任务的附加示例方法1200的流程图。方法1200可以实现为存储在计算机可读存储器604上并且在一个或多个处理器602上可执行的一组指令。

  在框1202处,捕获与用户的环境相关联的图像数据,例如,通过安装到HUD组件上的照相机或其他传感器。一般来说,照相机或其他传感器捕获与用户周围的物理空间和/或物理对象相关联的图像数据。

  在框1204处,分析与用户的环境相关联的图像数据。在一些实例中,分析包括标识用户的环境。例如,可以分析图像数据以基于,例如,图像数据中的照明、颜色或其他指示来确定用户是在室外还是在室内。

  在框1206处,在用户的环境内标识与用户的当前任务相关联的物理对象。也就是说,与用户的环境相关联的图像数据的分析可以包括在用户的环境内标识物理对象的分析。例如,在分析期间,可以在用户的环境内标识箱子对象、叉车、库存对象或其他任务相关的对象。此外,在一些实例中,附接到用户的环境内的物理对象的标签(例如,文本标签、条形码或其他可以被扫描和分析的标签)也用于标识用户的环境内的物理对象。

  在框1208处,基于与用户的环境相关联的图像数据的分析标识与用户相关联的当前任务。在一些实例中,处理器访问存储多种类型的环境、多种类型的物理对象和/或特定标识的物理对象和与每一个特定标识的物理对象相关联的任务的数据库。因此,基于用户的环境的分析和/或基于用户的环境内标识的物理对象,可以标识用户的当前任务。例如,如果附接到用户的环境内的箱子对象的标签指示要对该箱子进行分类,则用户的当前任务被标识为分类箱子。又例如,如果与用户的环境相关联的图像数据的分析指示用户在室外,则用户的当前任务通常被标识为室外任务或被标识为特定的室外任务,诸如将箱子装进停在外面的车辆中。通过这种方式,基于在正在执行任务时与用户环境相关联的图像数据来标识由用户正在执行的当前任务。

  在上述说明书中已经描述了具体实施例。然而,本领域普通技术人员理解,可做出各种修改和改变而不脱离本教导的范围。因此,说明书和附图被认为是图示性的而非限定性的意义,并且所有这种修改都旨在被包括在本教导的范围内。

  这些益处、优势、问题解决方案以及可能使任何益处、优势或解决方案发生或变得更为突出的任何(多个)要素不被解释成任何或所有权利要求的关键的、必需的或必要的特征或要素。

  此外,在该文档中,诸如第一和第二、顶部和底部等之类的关系术语可单独地用来将一个实体或动作与另一个实体或动作区别开,而不一定要求或暗示这些实体或动作之间具有任何实际的这种关系或顺序。术语“包括”、“包括有”、“具有”、“具备”、“包含”、“包含有”、“涵盖”、“涵盖有”或它们的任何其他变型旨在覆盖非排他性包括,以使包括、具有、包含、涵盖一要素列表的过程、方法、物品或装置不仅包括那些要素还可包括对该过程、方法、物品或装置未明确列出的或固有的其他要素。以“包括一”、“具有一”、“包含一”、“涵盖一”开头的要素,在没有更多约束条件的情形下,不排除在包括、具有、包含、涵盖该要素的过程、方法、物品或装置中有另外的相同要素存在。术语“一”和“一个”被定义为一个或更多个,除非本文中另有明确声明。术语“基本上”、“大致上”、“近似”、“约”或这些术语的任何其他版本被定义为如本领域内技术人员理解的那样接近,并且在一个非限定性实施例中,这些术语被定义为在10%以内,在另一实施例中在5%以内,在另一实施例中在1%以内,而在另一实施例中在0.5%以内。本文中使用的术语“耦合的”被定义为连接的,尽管不一定是直接连接的也不一定是机械连接的。以某种方式“配置”的设备或结构至少以该种方式进行配置,但也可以以未列出的方式进行配置。

《用于平视显示器的基于任务的可调焦距的系统和方法.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式(或pdf格式)