欢迎光临小豌豆知识网!
当前位置:首页 > 生活技术 > 运动娱乐> 用于游乐园环境中的文本覆盖的系统和方法独创技术58634字

用于游乐园环境中的文本覆盖的系统和方法

2020-10-29 00:30:46

用于游乐园环境中的文本覆盖的系统和方法

  技术领域

  本公开总体上涉及游乐园的领域。更具体地,本公开的实施例涉及在游乐园景点中提供增强和虚拟现实体验的系统和方法。

  背景技术

  游乐园和/或主题公园可包括各种娱乐景点、餐馆和乘坐设施,其在为游乐园的客人(例如,所有年龄的家庭和/或人们)提供享受中是有用的。游乐园的区域可能具有具体地把某些观众作为目标的不同主题。例如,某些区域可以包括传统上儿童感兴趣的主题,而其他区域可以包括传统上较成熟的观众感兴趣的主题。通常,具有与这样的游乐园相关联的主题的位置可以被称为景点或主题景点。

  可以使用固定装备、建筑布局、道具、装饰品等来建立主题景点,其中的大多数通常与某个主题相关。在要在同一位置中建立不同主题的情况下,会利用与较新主题相关联的装置来替换与较旧主题相关联的装置。取决于位置的主题的复杂性,可能证明这是非常困难且耗时的,因为装饰品、器具、装备、道具等被移除或替换。实际上,对于某些类型的景点,相对复杂的主题已变得较常见来为客人提供较沉浸的体验。

  现在认识到的是,合意的是包括景点,在所述景点中可能有以相对于传统技术的灵活且高效的方式来改变景点主题、或者在这样的景点中包括或移除某些主题装置的可能。现在还认识到的是,可能合意的是增强客人在景点内的沉浸体验以及为客人提供较个性化或定制化的体验。

  发明内容

  下面概括了范围上与原始要求保护的主题相称的某些实施例。这些实施例不旨在限制本公开的范围,而是这些实施例仅旨在提供某些公开的实施例的简要概述。实际上,本公开可以包含可以与以下阐述的实施例相似或不同的多种形式。

  根据实施例,一种系统包括:可视化设备,其包括由用户可观看的显示器。该系统还包括计算机图形生成系统,其通信地耦合到可视化设备。计算机图形生成系统包括处理器和存储设备,所述存储设备通信地耦合到处理器,使得存储设备存储指令,所述指令使得处理器生成现实世界图像、增强现实图像或其组合的环境。指令还使得处理器接收并分析与环境相关联的数据以确定适当的文本位置;至少部分地基于适当的文本位置来确定文本的适当的文本特性;以及在适当的文本位置处将具有适当的文本特性的文本覆盖到环境上。

  根据实施例,一种方法,包括经由一个或多个处理器生成包括现实世界图像、增强现实图像、虚拟现实图像或其任何组合的环境。方法还包括经由一个或多个处理器,分析与环境有关的数据以确定适当的文本位置。此外,方法包括经由一个或多个处理器,至少部分地基于适当的文本位置来确定文本的适当的文本特性;以及经由一个或多个处理器,在适当的文本位置处将具有适当的文本特性的文本覆盖到环境上。

  根据实施例,一种有形的非暂时性计算机可读介质存储由计算机图形生成系统中的一个或多个处理器可执行的指令,所述计算机图形生成系统通信地耦合到由用户戴着的可视化设备。指令使得一个或多个处理器通过在可视化设备的显示器上显示现实世界图像、虚拟现实图像、增强现实图像或其组合,来生成经由可视化设备对用户可见的环境。指令还使得一个或多个处理器接收并分析指示用户的注视方向的信号;接收并分析与环境有关的数据;至少部分地基于指示用户的注视方向的信号和与环境有关的数据来确定适当的文本位置;以及在适当的文本位置处将文本覆盖到环境上。

  附图说明

  当参考附图阅读以下详细描述时,本公开的这些和其他特征、方面和优点将变得较好地被理解,在所述附图中,贯穿附图,相同的字符表示相同的部分,其中:

  图1是根据实施例的用作增强现实(AR)或虚拟现实(VR)眼镜(goggles)的可视化设备和计算机图形生成系统的图示;

  图2是根据实施例的图1的可视化设备的分解透视图;

  图3是根据实施例的图1的另一可视化设备的分解透视图;

  图4是根据实施例的包括具有通过图1的可视化设备提供的各种AR/VR图像以及文本的环境的刺激的乘坐设施的透视图;

  图5是根据实施例的当用户参与图4的刺激的乘坐设施时可以由戴着图1的可视化设备的用户观察的环境的视图;

  图6是根据实施例的可以由戴着图1的可视化设备的用户在一个时间点上观察的图5的环境的视图;

  图7是根据实施例的可以由戴着图1的可视化设备的用户在另一个时间点上观察的图5的环境的视图;以及

  图8是根据实施例的可用于通过将文本覆盖到利用图1的可视化设备可观看的图5的环境上来创建增强体验的过程的流程图。

  具体实施方式

  以下将描述本公开的一个或多个特定实施例。在致力于提供这些实施例的简要描述的过程中,可能不在说明书中描述实际实施方式的所有特征。应当理解的是,在任何这样的实际实施方式的开发中,如在任何工程或设计项目中,都必须做出许多特定于实施方式的决策,以实现开发者的特定目标,诸如依照与系统有关和与业务有关的约束,其可能因实施方式而变化。此外,应当理解的是,这样的开发工作可能是复杂且耗时的,但是对于受益于本公开的普通技术人员而言,这仍然会是设计、制作和制造的例行任务。

  本实施例涉及提供作为与游乐园或主题公园相关联的景点的一部分的增强现实(AR)体验、虚拟现实(VR)体验、混合现实(例如,AR/VR的组合)体验或其组合的系统和方法。在实施例中,系统和方法涉及提供文本(例如,字幕)以增强AR体验、VR体验或混合现实体验。尽管参考了游乐园中的景点来描述某些实施例以便于讨论,但是应当理解,景点不一定限于游乐园的区域。实际上,本公开的方面还涉及在游乐园的边界之外的场地中(诸如例如在与游乐园相关联的酒店中、在语言教育设施中、在音乐会场所处或者在向和从游乐园和/或酒店运送客人的交通工具中)的实施方式。

  考虑到上述情况,游乐园内的某些景点可能包括乘坐车辆,其可使一个或多个客人能够观看周围环境。在一个实施例中,乘坐车辆可以沿着乘坐路径(例如,轨道或导轨)行进。一个或多个客人可能暴露于各种声音(诸如通过以下各项而发出的声音:滚轮驱动行驶中的乘坐车辆、喇叭响、其他客人尖叫等等),使得可能难以听到任何一种特别的声音。此外,AR、VR或混合现实体验可以包括当一个或多个客人沿着乘坐路径行进时提供叙述(例如,经由扬声器系统说或讲故事)的各种角色(例如,虚拟动画角色)。然而,各种声音干扰(例如,滚轮、客人尖叫)可能使一些客人难以听到由角色讲的叙述。因此,叙述或任何其他信息可以作为文本被传达给客人,从而向一个或多个客人提供由于例如这样的声音干扰而不能经由声音传达的内容。实际上,(例如,在镜片或电子眼镜上)显示与AR、VR或混合现实体验相关联的文本或字幕可以允许一个或多个用户(例如,客人)解释叙述或接收多种消息中的任何一种(例如,作为文本),由此不管与听到声音相关联的任何困难都将信息传达给一个或多个用户。这样的体验可以为游乐园的客人(例如,用户)提供可以是可定制的、个性化的和/或交互性的充满景点的体验。

  在一个实施例中,可以利用某些硬件配置、软件配置(例如,算法结构)的组合以及某些景点装置来实现具有AR、VR和混合现实体验的文本(例如,字幕)。例如,在实施例中,系统可以包括观看设备,诸如可穿戴装备(例如,诸如电子眼镜或镜片的可视化设备),游乐园客人和雇员可以通过所述观看设备观看增强、虚拟或混合现实场景。此外,可穿戴装备可以包括显示文本的表面和AR、VR或混合现实体验的其他装置。某些实施方式可用于例如通过在与游乐园相关联的环境中虚拟地移除或添加特征来在同一次乘坐中针对不同体验提供可调整的虚拟环境来增强客人(例如,用户)体验,以使客人能够接收与AR、VR或混合现实体验相关联的文本,而不妨碍体验的重要特征的视图,等等。在一个实施例中,可穿戴装备可以向用户提供AR、VR或混合现实场景上的文本。例如,由用户观看的场景可以包括各种虚拟或现实对象,诸如动物。在一个实施例中,可穿戴装备可以向用户提供与虚拟或现实对象(例如,动物)相关联的文本。例如,可穿戴装备可以向用户提供有关动物物种、动物年龄或相关联于动物的事实的文本。在一个实施例中,通信地耦合到可穿戴装备的计算机图形生成系统(例如,控制系统)可以确定合适的定位来显示文本,使得文本可识别并且不妨碍由控制系统确定为重要的任何特征的视图。

  此外,可以从可穿戴装备收集某些数据,以实现计算能力和/或其他资源的较高效使用,以用于在合适的位置中提供文本、用于触发效果或调整展示等。在一个实施例中,可以收集用户可视化数据。例如,计算机图形生成系统可以在发起与虚拟或现实对象相关联的任何文本的显示之前确定乘坐设施中的用户是否已经在看(例如,在某个方向上的)虚拟或现实对象。可穿戴装备还可以用于充当乘坐设施操作者平视显示器(HUD)。附加地或可替代地,某些游乐园景点可以包括固定的观看设备(例如,双筒望远镜),其能够提供文本以增强用户可以用来观看游乐园或之外的不同区域的AR、VR或混合现实场景。

  可以控制附加的游乐园设备(诸如气味释放设备、扬声器、可致动效果设备等)以与观看设备协作来提供增强的用户体验。这样,由用户探索的环境可以看来似乎对用户的增强体验或虚拟体验做出反应。此外,在一个实施例中,可以将装置结合到可穿戴物品(例如,电子眼镜或镜片)中,以向用户提供听觉、嗅觉和/或触觉输入来补充他们的视觉AR、VR或混合现实体验。

  为了帮助说明,图1描绘了AR/VR系统10的实施例,该AR/VR系统10被配置成使用户12(例如,客人、游乐园雇员)能够体验控制的AR、VR或混合现实场景(例如,观看控制的AR、VR或混合现实场景、与控制的AR、VR或混合现实场景交互)。根据实施例,用户12可以购买或以其他方式被提供可视化设备14,其在实施例中可以包括电子镜片16(例如,AR/VR镜片、眼镜)。如下面进一步详细描述的,可视化设备14可以包括被配置成容纳电子镜片16的至少一部分的、被图示为头带的可穿戴部分18。

  可视化设备14可以被单独使用或与其他装置组合使用以创建超现实环境20,其可以包括AR体验、VR体验、混合现实(例如,AR/VR的组合)体验、计算机介导(computer-mediated)现实体验、其组合或用于用户12的其他类似的超现实环境。具体地,可视化设备14可以在乘坐或另一预定活动的整个持续时间中(诸如在游戏期间、在游乐园的特别区域的入口处、在到与游乐园相关联的酒店的乘坐期间、在酒店处等等)由用户12戴着。

  可视化设备14可以包括其中某些虚拟特征被覆盖到透明表面(例如,玻璃状物)上的设备,或者可以包括其中虚拟特征被覆盖到基本上实时的视频上的设备,或其组合(例如,可视化设备14可能能够在透明和不透明的用户可视化之间进行切换)。在实施例中,可视化设备14可以包括诸如光投射装置之类的装置,其被配置成将光投射到用户12的一只或两只眼睛中,使得虚拟特征被叠加在现实世界对象之上。这样的可视化设备14可以被认为包括视网膜显示器。

  因此,在实施例中,用户12可以通过基本上透明的电子镜片16的集合观看现实世界环境,其中某些虚拟特征被覆盖到电子镜片16的表面(或用户12的眼睛)上,使得用户12感知到虚拟特征被集成到现实世界环境中。可替代地或另外,在实施例中,用户12可以观看具有覆盖的虚拟特征的现实世界环境的实时视频。

  在实施例中,在戴着可视化设备14时,用户12可以感觉到被环境20完全包围,并且可以将环境20感知为包括某些虚拟特征的现实世界物理环境。具体地,可视化设备14可以(例如,使用不透明观看表面)完全控制用户12的视图,使得环境20可以是实时视频(例如,以实时或接近实时捕获的视频),其包括与一个或多个AR/VR图像24(例如,虚拟增强或虚拟特征)电子融合的现实世界图像22。现实世界图像22通常表示即使在不戴着可视化设备14时用户12也会看到的内容(例如,现实世界图像22是现实世界环境中的特征的图像)。术语“实时”指示以基本上接近于实际观察的时间的时间框架获得和/或提供的图像。实际上,可视化设备14可以(例如,使用透明观看表面)仅部分地控制用户12的视图,使得环境20是实际环境,其中AR/VR图像24覆盖到透明表面上或覆盖到用户12的眼睛上。根据本公开的实施例,AR/VR图像24可以起作用来覆盖现实世界对象,使得该对象看来似乎不再存在或被删除(例如,利用虚拟对象或虚拟环境表示完全或部分遮蔽现实世界对象)。此外,尽管本文中公开的某些示例涉及现实世界图像22以便于讨论,但是应当理解,本文中公开的任何技术可以适于将AR/VR图像24覆盖到通过可视化设备14的透明玻璃状物可见的现实世界环境上。因此,在本文中的某些示例中引用的现实世界图像22应被认为由现实世界环境中的现实特征可替换。当将AR/VR图像24覆盖到通过透明玻璃状物观看的现实世界图像22上或现实世界环境的现实特征上时,AR/VR图像24可以被认为是AR图像并且可以被认为是创建了AR体验。当AR/VR图像24形成环境20的整体(例如,不显示现实世界图像22或不实现现实世界环境的现实特征的可视化)时,AR/VR图像24可以被认为是VR图像并且可以被认为是创建了VR体验。如上所述,可视化设备14可能能够在不同类型的可视化之间切换。

  此外,在一个实施例中,可视化设备14可以在生成环境20的同时向用户12提供文本25。具体地,可视化设备14可以将文本25与现实世界图像22和/或AR或VR图像24融合以生成或完成环境20。在实施例中,文本25可以向用户12提供与现实世界图像22、AR或VR图像24或环境20中的现实特征相关联的信息,如下面详细描述的那样。在一个实施例中,文本25可以被提供为文本气泡,其描绘了旨在由现实世界图像22、AR或VR图像24或环境20中的现实特征传达的内容。在一个实施例中,提供文本25的文本气泡可以与由可视化设备14或乘坐设施系统提供的声音协调。

  如可视化设备14的剖视部分中所图示,为了支持环境20的各方面的创建,可视化设备14可以包括处理电路,诸如处理器26和存储器28。处理器26可以可操作地耦合到存储器28,以执行用于执行目前公开的技术(例如,在显示现实世界图像22和/或一个或多个AR/VR图像24的同时生成文本25)的指令。这些指令可以被编码在存储在有形的非暂时性计算机可读介质(诸如存储器28和/或其他存储器)中的程序或代码中。处理器26可以是通用处理器、片上系统(SoC)设备、专用集成电路(ASIC)或某个其他类似的处理器配置。存储器28和处理器26可以一起形成AR/VR计算机化可视化系统40(例如,计算机图形生成系统)的全部或一部分。

  在一个实施例中,如进一步图示的,可视化设备14还可以包括分别对应于用户12的每只眼睛的一对显示器30和32(例如,其可以被提供在可视化设备14的框架前部中,其中镜片透镜会以其他方式出现)。可替代地,可以采用统一的显示器。通过非限制性示例,相应的显示器30和32可以各自包括透明透镜,AR/VR图像24和文本25可以覆盖到所述透明透镜上(例如,以将这样的图像和文本覆盖在现实世界环境的用户的视图上)。此外,显示器30和32可以是显示表面,并且可以包括邻近于它们相应的周边定位的装置(例如,电路、发光器),所述装置被配置成促进覆盖AR/VR图像24和文本25以生成环境20。

  附加地或可替代地,显示器30和32可以包括不透明液晶显示器(LCD)、不透明有机发光二极管(OLED)显示器或在向用户12显示现实世界图像22、AR/VR图像24和文本25中有用的其他类似显示器。在实施例中,相应的显示器30和32可各自包括透视LCD或透视OLED显示器,所述透视LCD或透视OLED显示器在例如允许用户12观看出现在相应显示器30和32上的AR/VR图像24和文本25中是有用的,所述AR/VR图像24和文本25作为对实际和物理现实世界环境(例如,与游乐园相关联的景点)的覆盖。

  可视化设备14的相机34和36可以分别对应于用户12的观看点,并且可以用于捕获现实世界的实时视频数据(例如,现场视频)或外界光信号。在一个实施例中,可以采用单个相机。可视化设备14还可以包括附加的相机以跟踪用户的眼睛移动,其在与计算设备(例如,计算机图形生成系统40)结合使用时,可以促进确定文本特性,诸如用于显示文本25的合适位置、文本25的合适大小、文本25的颜色、文本25的字体等,如下面详细讨论的那样。具体地,一个或多个传感器37可以是可以捕获数据以确定注视方向、瞳孔的定位、焦距和/或任何其他合适的眼睛参数的眼睛跟踪传感器(例如,相机)。在实施例中,可视化设备14包括向用户12传递声音的一个或多个扬声器35。扬声器35可以定位在用户12的耳朵附近。可视化设备14的通信装置38(例如,包括无线收发器39)可以以实时或接近实时地向处理器26和/或计算机图形生成系统40发送数据(例如,视频数据、眼睛跟踪数据、环境数据)以用于处理。由通信装置38发送的数据可以包括例如经由相应相机34和36和/或传感器37(例如,眼睛跟踪相机)捕获的数据。

  如所描绘的,可视化设备14可以经由无线网络42(例如,无线局域网[WLAN]、无线广域网[WWAN]、近场通信[NFC])通信地耦合到(例如,游乐园内的)计算机图形生成系统40。可替代地或附加地,应当理解,可以经由处理器26在可视化设备14上处理经由相应相机34和36捕获的实时视频数据。此外,连接到处理器26的通信装置38(例如,无线收发器39、输入/输出连接器)可以使处理器26和存储器28上包括的固件和/或软件能够被更新和/或被配置用于特别用途。

  可视化设备14的通信装置38可以发送基于经由可视化设备14的传感器37获得的数据获得和/或导出的取向数据、定位数据、观看点数据(例如,焦距、取向、姿势)、运动跟踪数据等。这样的传感器37可以包括取向和定位传感器(例如,加速度计、磁力计、陀螺仪、全球定位系统[GPS]接收器)、运动跟踪传感器(例如,电磁和固态运动跟踪传感器)、惯性测量单元(IMU)、眼睛跟踪传感器等等。

  在实施例中,可视化设备14的特征(例如,几何外观或标记)可以由监视系统41(例如,一个或多个相机)监视,以确定可视化设备14的定位、位置、取向等等,并且转而确定用户12的定位、位置、取向等等。监视系统41可以通信地耦合到计算机图形生成系统40,并用于识别用户12(或多个用户)的定位、位置、取向等等。

  计算机图形生成系统40包括诸如处理器44(例如,通用处理器或其他处理器)之类的处理电路和存储器46,并且可以处理从可视化设备14或监视系统41接收的实时(或接近实时)视频数据(例如,现场视频)、取向和定位数据、观看点数据、环境数据或其任何组合。具体地,计算机图形生成系统40可以使用该数据来生成参考系,以将AR/VR图像24和文本25注册到现实世界图像22或以将AR/VR图像24和文本25施加在实际和物理环境上。在一个实施例中,计算机图形生成系统40可以在将文本25施加在环境20上之前进一步使用该数据来确定文本特性(例如,文本25相对于通过可视化设备14可见的环境20的适当定位、文本25的大小、文本25的颜色、文本25的字体、文本25的亮度或强度和/或用于显示文本25的持续时间)。具体地,在使用基于取向数据、定位数据、观看点数据、运动跟踪数据等等生成的参考系的情况下,图形生成系统40然后可以渲染AR/VR图像24的视图并且包括文本25。在实施例中,在使用基于取向数据、定位数据、观看点数据、运动跟踪数据等等生成的参考系的情况下,计算机图形生成系统40可以确定用于显示文本25的合适位置。在实施例中,图形生成系统40可以以与现实世界环境在时间和空间上相称的方式来渲染AR/VR图像24、文本25和现实世界图像22的视图。计算机图形生成系统40可以周期性地(例如,以实时或接近实时)更新文本25的渲染,以反映用户12的相应的取向、定位和/或运动的改变。例如,计算机图形生成系统40可以识别注视方向(例如,用户12看向的方向),并且可以执行计算(例如,最小二乘近似和奇异值分解),以确定基本上正交于注视方向的平面。计算机图形生成系统40可以在平面上显示文本25。在实施例中,计算机图形生成系统40可以跟踪与多个用户(例如,乘坐的乘客、共享游戏中的玩家)对应的这样的数据,其中每个用户(或至少一些用户)具有对应的可视化设备14。

  如上所阐述,在一个实施例中,可视化设备14包括若干部件,并且通常可以包括被配置成戴在用户12的头部上的电子镜片16。可以使用电子镜片16的多种不同配置和实施方式,其中不同配置可以具有不同的大小和形状以较好地适应不同用户的不同大小以及不同的内部部件(例如,通信装置、换能器、显示器)以适应不同的实施方式。

  为了给电子镜片16提供附加的灵活性和支撑,可视化设备14的可穿戴部分18可以采取多种形式,其示例实施例在图2和3中描绘。在图2中,可视化设备14包括头带作为可穿戴部分18。可穿戴部分18的这样的实施例可以包括各种材料(例如,弹性材料、吸汗芯材料、衬垫),其被配置成适应用户12的移动,同时为用户12提供舒适性。目前认识到,可能合意的是具有分离的可穿戴部分18和电子镜片16,以使可穿戴部分18能够不时地被清洗而没有对电子镜片16的电子部件的风险。在实施例中,可穿戴部分18可以结合一个或多个电子部件。因此,可穿戴部分18中的电子部件可以基本上被密封离开环境以避免损坏。

  在实施例中,图2的可穿戴部分18包括配置成接收电子镜片14并在使用期间维持电子镜片14相对于用户12的眼睛的定位的容座区60。就这一点而言,容座区60可包括围绕电子镜片16的显示器30、32的周边可固定的中央部分62,以及被配置成(例如,部分地或完全地)围绕电子镜片16的臂66的侧部分64。

  容座区60的中央部分62可包括衬垫,以允许使用者12的舒适性,同时头带紧靠用户12的头部提供足够的压缩力(以用于维持电子镜片16的定位)。在实施例中,中央部分62可以包括一种或多种具有相对皮肤的摩擦系数的材料,该材料提供了稳定性和舒适性的适当组合。例如,通常在镜片的鼻部区中使用的凝胶材料是适当的。

  如图3中所描绘的实施例中所图示,可穿戴部分18可以包括除了头带之外的其他装置,或者代替头带的其他装置。如所描绘,可穿戴部分18包括要戴在用户12的头部之上的帽子70,以及与图2中阐述的头带类似的装置。在实施例中并且如所示,帽子70可以包括固定区72,其中帽子70与头带部分74重叠。固定区72可以包括搭扣机构,诸如钩环紧固件、钩眼紧固件、纽扣、磁性条带等等,其配置成实现帽子70和头带部分74之间的固定。这样,帽子70与头带部分74分离,这允许它们被分离地使用或分离地清洗。可替代地,在实施例中,头带部分74可以与帽子70成一体(例如,被缝合到帽子70中),使得头带部分74不是容易地从帽子70可移除。

  在实施例中,帽子70包括遮阳板76,其用于保护用户的眼睛以及电子镜片16及其相关联的显示器30、32免受诸如太阳、头顶照明等等之类的强烈照明源的影响。在显示器30、32基于光学反射操作和/或是透明或半透明的应用中,遮阳板76例如可能特别有用。实际上,遮阳板76可以协助增强AR/VR图像24相对现实世界背景的感知的视觉对比度,以(例如,通过阻挡来自照明源的不想要的光)改进在显示器30、32上描绘的文本25的清晰度。

  虽然不限于图3的实施例,但是图3的图示的可视化设备14还包括配置成放置在电子镜片16的显示器30、32上方的显示器盖78。显示器盖78可以为显示器30、32提供罩,以保护显示器30、32免受物理糟蹋(abuse),以提供一定程度的不透明性用于文本25和AR/VR图像24的增强的对比度和可视化、用于光学过滤等。显示盖78可包括任何适当的固定机构,诸如夹子80,其被配置成将显示盖78可移除地附接到电子镜片16。可以使用其他固定装置,诸如临时粘合剂和/或钩环紧固件。

  考虑到上述情况,描述如图4中示意性地示出的其中在游乐园90中使用AR/VR系统10的设置的实施例可能是有用的。图4是根据实施例的包括环境20的刺激的乘坐设施92的透视图,该环境20包括通过图1的可视化设备14提供的各种AR/VR图像24。如所图示,游乐园90可以包括现实世界装置,诸如刺激的乘坐设施92、游乐园设施的购物中心94(例如,游戏区域、酒店、餐馆、纪念品商店等等)以及附加的游乐景点96(例如,摩天轮、黑暗乘坐设施、动画角色或其他景点)。在实施例中,刺激的乘坐设施92可以包括过山车或其他类似的刺激的乘坐设施,并且因此可以进一步包括闭环轨道或闭环轨道98的系统(例如,数英里的轨道98)。例如,当乘坐乘客102、104、106、108(一个或多个可以是图1的用户12)乘坐刺激的乘坐设施92时,轨道98可以被提供为乘客乘坐车辆100可以在其上横过的基础设施。轨道98因此可以限定乘坐车辆100的运动。然而,在另一个实施例中,例如,轨道98可以由受控路径替换,在该受控路径中,可以经由电子系统、磁性系统或除轨道98以外的其他类似系统基础设施来控制乘坐车辆100的移动。换句话说,乘坐车辆100的乘坐路径可能不物理地约束到精确的路径,由此允许乘客102、104、106、108对其运动路径、观看视角等进行某种程度的控制。应当理解,尽管乘客乘坐车辆100可以被图示为4乘客车辆,但是在其他实施例中,乘客乘坐车辆100可以包括任何数量的乘客空间(例如,1、2、4、8、10、20或更多的空间)以容纳单个或多个乘客。

  当乘坐车辆100沿着轨道98移动时,可以向乘坐乘客102、104、106、108提供刺激的乘坐设施92周围或附近的区域中的风景(例如,设施94、附加的游乐景点96等)的移动游览。例如,这可以包括围绕刺激的乘坐设施92的环境(例如,完全或部分容纳刺激的乘坐设施92的建筑物)。尽管乘坐乘客102、104、106、108可以发现刺激的乘坐设施92是非常令人愉快的体验,但增强他们的乘坐体验可以是有用的。具体地,代替仅具有设施94(例如,娱乐区域、酒店、餐馆、纪念品商店等)、附加的游乐景点96(例如,摩天轮或其他景点)或游乐园90内的其他顾客或行人的物理视图,向乘坐乘客102、104、106、108提供增强现实(AR)体验或虚拟现实(VR)体验可以是有用的。

  附加地或可替代地,向乘坐乘客102、104、106、108提供文本25可以是有用的,该文本25可以经由可视化设备14与一个或多个图像(例如,现实世界图像22和/或AR/VR图像24)或现实世界装置相关。这可以在乘坐车辆100沿着轨道98移动或在预定区域内移动时完成。在一个实施例中,这可以在游乐园顾客享受诸如设施94或游乐景点96之类的区域时完成。例如,AR/VR 24和/或合适的文本25可以由电子镜片16覆盖到现实世界环境上,使得用户12能够在饭店、景点之间的路径等处体验附加的娱乐装置。

  此外,在实施例中,刺激的乘坐设施92可以涉及用户与AR/VR图像24的交互,例如,当乘坐车辆100经过或穿过虚拟对象109、110时,与第一虚拟对象109(例如,星星)和第二虚拟对象110(例如,动画动物)的模拟交互。乘坐车辆100可以是用户控制的,并且游戏的一个方面可以是通过将乘坐车辆100引导向虚拟对象109、110而与各种虚拟对象109、110进行交互,或者通过向远离某些虚拟对象109、110行驶而避免与某些虚拟对象109、110碰撞。根据由计算机图形生成系统40存储的某些预定或建模的响应,模拟的交互可以使虚拟对象109、110受到影响。作为示例,预定或建模的响应可以由物理引擎或由计算机图形生成系统40实现的类似模块来实现。

  此外,在实施例中,虚拟对象109、110可以由计算机图形生成系统40生成并显示在可视化设备14的显示器30、32上。具体地,虚拟对象109、110可以被叠加在乘客102、104、106、108的现实世界感知上。实际上,第一虚拟对象109可以是星星的静止描绘,而第二虚拟对象可以是鸟的移动(例如,动态)描绘。即,在一个实施例中,第一虚拟对象109(例如,星星)相对于环境的其他对象保持静止,而第二虚拟对象110(例如,鸟)可以相对于环境中的其他对象移动。例如,对于包括现实世界图像22和其他AR/VR图像24(图1)的组合的环境20,第一虚拟对象109相对于现实世界图像22保持静止(例如,相对于轨道98的现实世界图像22静止),而第二虚拟对象110相对于现实世界图像22移动。

  此外,计算机图形生成系统40可以针对戴着可视化设备14的每个乘客102、104、106、108确定注视方向112(例如,与乘客正看向的方向对准并共线的轴线)。在一个实施例中,传感器37(图1)可以(例如,以实时或接近实时)捕获指示瞳孔的定位、焦距和/或可视化设备14的取向的数据以确定注视方向112。应当理解,注视方向112可以利用多种眼睛跟踪设备和算法中的任何一种来确定。在确定注视方向112之后,计算机图形生成系统40可以确定平面114以包括文本25。特别地,在一个实施例中,平面114取向成与所确定的注视方向112基本上正交。因此,文本25可以定位在平面114上,使得文本25取向成沿着注视方向112面朝向乘客,由此产生可识别文本25。

  在一个实施例中,注视方向112可以用于确定文本特性,其可以用于定制文本25。例如,计算机图形生成系统40可以确定乘客104的注视方向112取向成朝向第二虚拟对象110。响应于确定乘客104的注视方向112取向成朝向第二虚拟对象110,计算机图形生成系统40可以显示与第二虚拟对象110相关联的文本25。特别地,文本25可以包括(例如,包括与由第二虚拟对象110说出的叙述匹配的单词的)话音气泡、提供关于第二虚拟对象110的信息(例如,鸟的类型、鸟的最大速度、鸟原产于的世界的区)的图,等等。

  图5是环境20的视图,该环境20可以由如所示的戴着可视化设备14的用户(例如,图4的乘客102、106)观察,由此文本25被覆盖到环境20上。环境20可以包括覆盖到现实世界图像22(图1、4)上的AR/VR图像24,诸如第一虚拟对象109(例如,星星)和第二虚拟对象110(例如,动画动物),所述现实世界图像22诸如刺激的乘坐设施92、设施94、乘客104、108和附加的游乐景点96的图像。如上所述,应当理解,本文中公开的技术可以应用于将AR/VR图像24和文本25覆盖到通过可视化设备14的透明玻璃状物可见的现实世界环境上,而不是覆盖到现实世界图像22(例如,现实世界环境的图像)上。因此,在一个实施例中,可以经由可视化设备14向乘客提供混合现实环境。此外,计算机图形生成系统40(图1)可以促进将文本25显示(例如,覆盖)到现实世界环境上。因此,应当理解,用于覆盖文本25的技术可以应用于VR环境、AR环境、现实世界环境、混合环境等。

  在一个实施例中,计算机图形生成系统40可以以实时或接近实时地接收环境数据。环境数据可以包括与现实世界图像22相关联的数据和/或与AR/VR图像24相关联的数据。具体地,环境数据包括现实世界图像22(例如,刺激的乘坐设施92、设施94、乘客104、108和附加游乐景点96)的定位和AR/VR图像24(例如,第一和第二虚拟对象109、110)的定位。具体地,在一个实施例中,环境数据包括现实世界图像22的定位和AR/VR图像24在环境20上的定位,使得现实世界图像22的定位和AR/VR图像24的定位被映射到可视化设备14上。

  此外,在一个实施例中,环境数据可包括用于每个图像的标识符,使得该标识符将每个图像标记为现实世界图像22、AR/VR图像24或不重要的图像118。具体地,在一个实施例中,标识符可以将一些现实世界图像22标记为重要的,并且将一些现实世界图像22标记为不重要的图像118。当计算机图形生成系统40确定图像不添加主题或者在其他情况下是可能由文本25覆盖的图像或特征时,计算机图形生成系统40可以(例如,使用一种或多种算法)执行计算以将现实世界图像22标记为不重要(例如,不重要的图像118)。

  在所描绘的实施例中,计算机图形生成系统40可以扫描显示在可视化设备14上的区域,以确定经由可视化设备14可见的每个图像或每段内容的标识符。例如,在所描绘的实施例中,计算机图形生成系统40可以将刺激的乘坐设施92、设施94和附加的游乐园景点96与第一标识符相关联,使得第一标识符将这些图像标记为现实世界图像22。计算机图形生成系统40可以将第一虚拟对象109和第二虚拟对象110与第二标识符相关联,使得第二标识符将这些图像标记为AR/VR图像24。另外,计算机图形生成系统40可将山119、草121和乘客104、108与第三标识符相关联,使得第三标识符基于(例如,使用一种或多种算法的)计算将这些图像标记为不重要的图像118。在实施例中,不重要的图像118包括例如通过用作背景(例如,太阳、云、其他乘客和风景设计)而不向环境20添加主题或供给如由计算机图形生成系统40所确定的任何其他不重要的功能(或者与其他图像或特征相比相对较不重要的功能)的图像。

  在实施例中,计算机图形生成系统40可以将通过可视化设备14可见的环境20的每一个区域与第一、第二或第三标识符相关联。然而,应当理解,在实施例中,计算机图形生成系统40可以不利用任何标识符、利用标识符的一部分(例如,仅第一、第二或第三标识符)、或者利用任何附加的标识符来执行本文中所描述的技术。

  环境数据可以进一步包括每个现实世界图像22和AR/VR图像24的大小。例如,计算机图形生成系统40可以确定每个图像相对于可视化设备14上的整个显示区域的大小。即,计算机图形生成系统40可以确定每个图像占据了经由可视化设备14可见的整个环境20的什么份额(例如,部分)。

  在实施例中,计算机图形生成系统40可以分析每个图像的定位、标识符和/或大小,以促进确定合适的文本区120。具体地,文本区120是指可视化设备14上的显示区域上适合于显示文本25的区,使得文本25对于戴着可视化设备14的用户是可见的和/或不干扰某些图像或特征的视图。

  在一个实施例中,计算机图形生成系统40可以使用环境数据来确定文本区120。应当理解,在一个实施例中,计算机图形生成系统40可以至少基于环境数据来确定文本区120的定位和大小。具体地,计算机图形生成系统40可以使用每个图像的定位、每个图像的大小、每个图像的标识符以及任何其他合适的环境数据来确定文本区120。例如,计算机图形生成系统40可以将包括与第三标识符相关联的(一个或多个)图像(例如,不重要的图像118)的最大部分的区域确定为文本区120,因为在这样的区域处显示文本25可以例如使用户能够观看文本25而不干扰重要的图像。

  此外,在一个实施例中,计算机图形生成系统40可以基于优先级方案来确定文本区120。优先级方案可以按重要性等级对在可视化设备14上接收、识别或显示的每个图像进行评定。例如,与文本25相关联的图像(例如,由文本25描述的图像)可以以最高优先级评定,而与第三标识符相关联的任何大图像(例如,不重要的图像118)可以以最低优先级评定。计算机图形生成系统40可以确定文本区120位于利用可视化设备14可见的环境20的区域上,该区域包括足够大以容纳文本25的区域和/或基于计算机图形生成系统40的优先级方案评定为最低优先级。

  此外,在一个实施例中,计算机图形生成系统40可以接收文本25的指示以显示在可视化设备14上。文本25的指示可以包括用于显示文本25的时间、文本25的内容以及与文本25相关联的图像。用于显示文本25的时间可以包括用于显示文本25的开始时间、文本25的持续时间以及用于显示文本25的结束时间。文本25的内容可以包括与和图像(例如,现实世界图像22或AR/VR图像24)相关联的声音(例如,可闻话音)协调的字幕或可识别语音、与图像相关联的描述、与图像相关联的统计信息或文本25的任何其他合适的内容。与文本25相关联的图像可以包括由文本25描述的图像、产生经由文本25传达的叙述的图像或与注视方向112相关联的图像。

  此外,在一个实施例中,文本25的指示可以是响应于由用户12(例如,乘坐乘客)采取的动作而在可视化设备14上的文本确认。例如,在用户12固定他/她的安全带之后,计算机图形生成系统40可以接收该动作(例如,安全带的固定)的指示,由此计算机图形生成系统40使得可视化设备14显示确认文本25,诸如“已固定”。出于质量控制的目的,指示确认文本的数据也可以被发送到基站控制器和/或远程操作者。例如,乘坐设施操作者可以通过接收文本25来监视用户的安全带的状态,该文本25通过在由乘坐设施操作者戴着的相应可视化设备14上显示文本25来确认用户的安全带被锁定在适当的位置。

  在一个实施例中,文本25的呈现可以基于戴着可视化设备14的用户12的注视方向112。例如,计算机图形生成系统40可以(例如,基于眼睛跟踪)确定注视方向112取向成朝向第二虚拟对象110,使得计算机图形生成系统40确定应当将文本25与最接近注视方向112的图像(例如,第二虚拟对象110)相关联。在一个实施例中,响应于(例如,由计算机图形生成系统40)确定注视方向112指向特别图像(例如,指向第二虚拟对象110)来显示文本25。然而,应当理解,文本25的呈现可能不基于注视方向112,而是可以附加地或可替代地基于(例如,在乘坐的某个部分期间呈现的)在乘坐的操作期间的时间戳,这响应于某个AR/VR图像24的呈现(例如,对应的文本25与AR/VR图像24一起呈现)、由用户12采取的动作等。

  实际上,计算机图形生成系统40可以使用环境数据(诸如每个图像的定位、每个图像的大小、每个图像的标识符和/或任何其他合适的环境数据)来确定文本区120的定位和大小。另外或可替代地,计算机图形生成系统40可以使用文本25的特性(诸如用于显示文本25的时间、文本25的内容和/或与文本25相关联的图像)来确定文本区120的定位和大小。

  例如,在所描绘的实施例中,计算机图形生成系统40可以识别每个图像(例如,刺激的乘坐设施92、游乐园设施的购物中心94、附加的游乐景点96、第一虚拟对象109、第二虚拟对象110、山119、草121、乘客104、108和/或经由可视化设备14可见的任何其他图像)的大小、定位和/或标识符。使用上面描述的任何技术,在所描绘的实施例中,计算机图形生成系统40可以确定文本区120的定位在第二虚拟对象110上方并且确定文本区120的尺寸(例如,大小)。例如,文本区120的尺寸可以包括为L1的长度和为L2的宽度。计算机图形生成系统40可以将其确定为文本区120的定位和大小,因为计算机图形生成系统40将其确定为不重要的图像118(例如,与第三标识符相关联的图像)的最大区。尽管所描绘的实施例包括基本上矩形的文本区120,但是应当注意,文本区可以具有任何合适的形状(例如,圆形、三角形、五边形)。

  在一个实施例中,计算机图形生成系统40可以将其确定为文本区120的定位和大小,因为这是最接近于与文本25相关联的图像(例如,第二虚拟对象110)的区域。在所图示的实施例中,可以呈现文本25,因为第二虚拟对象110与注视方向112相交或接近注视方向112。

  在一个实施例中,计算机图形生成系统40可以将文本25定位在通过可视化设备14可见的环境20上的任何地方,使得文本25不阻挡(例如,干扰)与文本25相关联的图像(例如,第二虚拟对象110)。例如,与第二虚拟对象110相关联的文本25可以包括第二虚拟对象110在说的内容的文本气泡(例如,“从前……”)并且可以定位在第二虚拟对象110附近,而不干扰第二虚拟对象110的视图。

  如上所述,将诸如文本25之类的附加信息覆盖到包括现实世界图像22和AR/VR图像24的环境上可能带来许多挑战。例如,确定文本25的内容、在环境20上显示文本25的定位、文本25的颜色以及文本25的亮度或强度而使得文本25不会混入(文本25显示在其上的)背景中等可以是有益的。因此,在一个实施例中,计算机图形生成系统40可以确定文本特性,诸如要显示的合适的文本25、文本25在环境20上的定位、文本25的颜色等。

  具体地,计算机图形生成系统40可以针对文本25确定合适的颜色,使得文本25对于戴着可视化设备14的用户12较容易可读。在一个实施例中,文本25可以包括文本框124(例如,文本气泡),在其内显示文本25。文本框124可以是一种颜色,而文本25可以是不同的颜色。例如,文本框124可以是黑色,而文本25可以是白色。应当理解,可以省略文本框124,可以在环境20上方呈现文本25,并且文本25可以是与在其上显示文本25的环境20的区域(例如,背景颜色)显著地不同的颜色。例如,如果文本25显示在浅蓝色的天空上方,则文本25可以是深的颜色(例如,黑色)。然而,如果文本25显示在深色墙上方,则文本25可以是浅的颜色(例如,白色)。

  附加地或可替代地,计算机图形生成系统40可以确定文本25的合适的亮度或强度,以在图像(例如,现实世界图像22)和文本25之间提供足够的对比度。例如,当现实世界图像22包括大量的太阳曝光时,可以增加文本25的亮度或强度以增强文本25的清晰度。

  转向图6,描绘的是环境20的视图130,其可以在时间瞬间t0由戴着可视化设备14的用户观察。如所示,文本25覆盖到环境20上。在时间t0,计算机图形生成系统40可基于环境数据确定文本25应显示在第一文本区132上。如上所述,计算机图形生成系统40可以基于第一文本区132的定位和大小来确定文本特性(例如,文本25的内容、文本25的颜色、文本25的大小、文本25的字体、文本持续时间)。在确定文本特性、第一文本区132的定位和大小以及被统称为“显示参数”的图像(例如,现实世界图像22、AR/VR图像24)之后,可以将文本25覆盖到环境20的包括第一文本区132的部分上。此外,文本25可以显示在文本框124上或直接显示在环境20上,使得文本25具有与文本框124或环境20的颜色不同的颜色,并且较容易被用户12辨读。

  在一个实施例中,计算机图形生成系统40可以使得可视化设备14在时间t0在环境20(或文本框124)上显示文本25。实际上,计算机图形生成系统40可以以实时或接近实时地确定文本区132、文本特性等(例如,显示参数)。在一个实施例中,文本25可以基于注视方向112。例如,当计算机图形生成系统40识别到注视方向112时,文本25可以包括与第二虚拟对象110有关的信息,以沿着非常接近第二虚拟对象110的方向截取(intercept)或取向。特别地,计算机图形生成系统40可以在时间t0确定注视方向112,然后在其后不久在合适的位置(例如,文本区132)处显示包含合适的文本特性的文本25。在一个实施例中,计算机图形生成系统40可以显示文本25直到结束时间t1。持续时间(例如,在时间t0和时间t1之间的时间)可以是预定的。然而,应当理解,用于显示文本25的持续时间可以基于瞳孔活动(例如,使得计算机图形生成系统40可以识别用户12停止阅读文本25的时间)、用户12的活动、由文本所覆盖的任何图像或特征的重要性等。

  在一个实施例中,在文本25被覆盖在环境20上之后,文本25可以保持在可视化设备14上的那个定位达显示的持续时间(例如,在时间t0开始,并且在结束时间t1结束)。例如,在所描绘的实施例中,文本25被显示在定位在可视化设备14的左侧部分上的文本框124上的第一文本区132上。在该示例中,当戴着可视化设备14的用户12看其他地方时,文本25可以保持在可视化设备14的左侧部分上。然而,应当理解,在一个实施例中,可以基于戴着可视化设备14的用户12的视图的改变来动态地调整文本25在可视化设备14上的定位。

  如上所述,可以基于任何合适的技术将文本25显示在经由可视化设备14可观看的环境20上。例如,可以基于时间戳在环境20上显示文本,使得当虚拟对象(例如,第二虚拟对象110)开始讲话时,文本25与讲话的虚拟对象的叙述匹配。实际上,在一个实施例中,文本25的覆盖可以与和现实世界图像22和/或AR/VR图像24相关联的音频协调。在所描绘的实施例中,文本25与第二虚拟对象110相关(例如,因为注视方向112取向成朝向第二虚拟对象)。此外,在实施例中,当注视方向取向成朝向另一图像时,文本25可以与另一图像相关。

  在计算机图形生成系统40已经结束显示文本25之后(例如,在计算机图形生成系统40已经确定文本25的显示的持续时间已经达到结束时间t1之后),计算机图形生成系统40可以使得文本25从环境20移除。

  转向图7,描绘的是环境的视图140,其可以在另一时间瞬间tn由戴着可视化设备14的用户观察。如所示,文本25覆盖到环境20上。在一个实施例中,在图6的第一透视图130中显示的文本25停止显示之后(例如,因为其已经到达结束时间t1、因为用户12改变他的取向视图等),计算机图形生成系统40可以等待直到另一开始时间t0,由此计算机图形生成系统40可以执行上述技术以确定显示参数,诸如文本区和文本特性。

  具体地,在时间tn,计算机图形生成系统40可以基于环境数据确定文本25应被显示在第二文本区142上。另外,计算机图形生成系统40还可以在时间tn确定第二文本区142的定位和大小。如上所述,计算机图形生成系统40可以在时间tn确定文本特性(例如,文本25的内容、文本25的颜色、文本25的大小、文本25的字体)。在实施例中,显示在第二文本区142上的文本25的文本特性可以与显示在图6的第一文本区132上的文本25的文本特性不同。在所描绘的实施例中,文本25可以是关于附加的游乐景点96,因为由计算机图形生成系统40将注视方向112识别为取向成朝向例如附加的游乐景点96。

  在确定文本特性以及第二文本区142的定位和大小之后,文本25可以覆盖到环境20的包括第二文本区142的部分上。此外,文本25可以显示在文本框124上或直接显示在环境20上,使得文本25具有与文本框124或环境20的颜色不同的颜色,并且较容易被用户12辨读。文本25在环境20上的显示可以连续更新达乘坐的持续时间,使得当要(例如,与时间戳、注视方向112、刺激的乘坐设施92的装置等协调地)显示新文本25时,确定文本信息以及文本区的定位和大小。

  图8是根据实施例的可用于通过将文本25(图1、4-7)覆盖在通过可视化设备14(图1-7)可观看的环境20(图4-7)上来创建增强的体验的过程200的流程图。特别地,在一个实施例中,计算机图形生成设备40(图1-4)接收并分析以实时或接近实时捕获的环境数据(处理框210)。如上所述,环境数据可以包括与现实世界图像22(图1、4)相关联的数据、与AR/VR图像24(图1-4)相关联的数据、用于经由可视化设备14可见的环境20中的每个图像的标识符、经由可视化设备14可见的环境20中的每个图像的大小和定位等。计算机图形生成系统40可以生成环境20(处理框220),其可以包括现实世界图像22和AR/VR图像24。在实施例中,计算机图形生成系统40可以访问文本信息,诸如文本25的内容(例如,文本25中包括的词语和字符)(处理框230)。然后,计算机图形生成系统40可以确定文本25的显示参数(处理框240),使得计算机图形生成系统40将文本25呈现到适当文本区120处的环境20上(处理框250),其被修改以包括文本特性(例如,内容、颜色、大小、字体)。实际上,可视化设备14可以向戴着可视化设备14的用户12提供覆盖到环境20上的文本25。

  在一个实施例中,计算机图形生成系统40通信地耦合到可视化设备14。计算机图形生成系统40可以从可视化设备14(诸如相机34、36(图1)和/或传感器37(图1))接收环境数据。如上所述,由计算机图形生成系统40接收的环境数据(处理框210)可以包括与现实世界图像22相关联的数据,其可以包括显示在可视化设备14上的每个现实世界图像22相对于整个显示器表面(例如,显示器30、32[图1])的大小的大小和定位。另外,环境数据可以包括与AR/VR图像24相关联的数据,其可以包括显示在可视化设备14上的每个识别的现实世界图像22相对于整个显示器表面的大小的大小和定位。此外,环境数据可以包括每个图像(例如,现实世界图像22和AR/VR图像24)的标识符。在一个实施例中,计算机图形生成系统40可以将标识符分配给每个图像。例如,第一标识符可以由计算机图形生成系统40分配给图像,使得其将图像标记为现实世界图像22。此外,第二标识符可以被分配给另一图像,使得其将图像标记为AR/VR图像24。另外或可替代地,第三标识符可以被分配给另一图像,使得该标识符将图像标记为不重要的图像118。

  计算机图形生成系统40可以分析环境数据以生成环境20(处理框220)。在一个实施例中,环境20可以包括现实世界图像22和AR/VR图像24,使得它们被组合以生成环境20。如上所述,可以基于用户12的注视方向112(图4-6)来更新环境20。

  在生成环境20之后,计算机图形生成系统40访问文本25(处理框230)。在一个实施例中,文本25可以是存储在计算机图形生成系统40的存储器46(图1)中的预设内容(例如,字符和字母)。实际上,计算机图形生成系统40可以基于环境数据来访问文本内容(例如,文本包括的词语和字符)。例如,环境数据可以包括说话的虚拟对象的AR/VR图像24,使得所访问的文本25包括被协调以匹配说话的虚拟对象的口头叙述的文本25。

  在访问文本25之后,计算机图形生成系统40可以确定显示参数(处理框240),如上面详细讨论的。显示参数可以包括文本25的文本特性、文本区120(图5)的定位和大小以及经由可视化设备14可见的图像。更详细地,文本特性包括由计算机图形生成系统40访问的文本内容、文本25的颜色、文本25的大小、文本25的字体、文本25的亮度或强度和文本持续时间。此外,显示参数可以用于确定文本25的合适呈现,使得文本25在覆盖到环境20上时较容易地可识别,并且使得文本25不干扰经由可视化设备14可见的重要内容(例如,图像)。

  在确定合适的显示参数(例如,文本特性、文本区的大小和定位以及文本内容)之后,将文本25覆盖到环境20上。即,在实施例中,文本25可以被定位在具有最不重要的图像118(图5)的环境20的区域上。实际上,可视化设备14可以向戴着可视化设备14的用户12提供覆盖在环境20上的文本25,以进一步增强游乐园体验。

  本文中呈现和要求保护的技术被引用并应用于实际性质的物质对象和具体示例,其明确地改进了本技术领域,并且因此不是抽象的、无形的或纯粹的理论上的。此外,如果在本说明书的末尾所附的任何权利要求包含被指定为“用于[执行][功能]的装置……”或“用于[执行][功能]的步骤……”的一个或多个元素,则意图根据35 U.S.C. 112(f)解释这样的元素。然而,对于任何包含以任何其他方式指定的元素的权利要求,意图不根据35U.S.C. 112(f)解释这样的元素。

  尽管本文中已经图示和描述了本实施例的仅某些特征,但是本领域技术人员将想到许多修改和改变。因此,应当理解,所附权利要求旨在覆盖落入本公开的真实精神内的所有这样的修改和改变。此外,应当理解,所公开的实施例的某些元件可以彼此组合或互换。

《用于游乐园环境中的文本覆盖的系统和方法.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式(或pdf格式)