可穿戴护具以及用于可穿戴护具的场景呈现方法
技术领域
本申请涉及用于灾难救援的护具技术,特别涉及一种可穿戴护具、以及一种用于可穿戴护具的场景呈现方法。
背景技术
在一些灾难场景中,例如火灾现场,通常会弥漫大量的浓烟,并且,还可能伴有刺眼的火光,这些环境因素都会形成视觉干扰,导致很难清楚地获知现实环境,进而有可能导致救援失败。
可见,如何解决真实场景(例如灾难场景)难以被清楚获知的困扰,成为现有技术中有待解决的技术问题。
发明内容
在本申请的实施例中,为了解决上述技术问题或者至少部分地解决上述技术问题,提供了一种可穿戴护具和用于可穿戴护具的场景呈现方法,以强化真实场景的视觉辨识度。
在其中一个实施例中提供的可穿戴护具可以包括:增强现实组件,用于供目标对象观察真实场景;红外探测组件,用于输出所述真实场景的红外图像,所述红外探测组件的成像视场角对应的视野与所述增强现实组件的光学视场角对应的视野同向交叠,其中,所述光学视场角为目标对象透过所述增强现实组件观察所述真实场景的视场角;处理组件,用于基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的目标红外图像,并发送至所述增强现实组件;所述增强现实组件,还用于呈现所述目标红外图像,并使得所述目标红外图像中存在的场景目标与所述真实场景中的所述场景目标的位姿对应。
可选地,所述处理组件具体用于:基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换关系,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的所述目标红外图像;其中,所述转换关系至少用于定义所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角的差异对应的红外图像裁剪尺寸。
可选地,所述处理组件具体用于:确定所述真实场景中的标定基准对象;基于所述标定基准对象相对可穿戴护具的距离与所述可穿戴护具的预设标定距离的差值,对所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间预先确定的标定转换关系进行校准,得到校准转换关系;基于所述校准转换关系,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的所述目标红外图像。
可选地,所述处理组件进一步用于:对出现在所述目标红外图像中的所述场景目标的轮廓进行增强处理,使得所述场景目标的轮廓在所述增强现实组件呈现的所述目标红外图像中被增强显示。可选地,所述可穿戴护具进一步包括亮度探测组件,所述亮度探测组件用于探测所述真实场景中的环境亮度;所述处理组件进一步用于:根据所述环境亮度生成背光亮度调节指令,并发送至所述增强现实组件;所述增强现实组件进一步用于:根据所述背光亮度调节指令,调节背光亮度,以基于调节之后的背光亮度呈现所述目标红外图像。可选地,所述可穿戴护具进一步包括位置感应组件和无线通信组件;其中,所述位置感应组件用于感测所述可穿戴护具的空间位置信息;并且,所述无线通信组件用于将所述空间位置信息远程传输,以供远程服务端利用所述空间位置信息维护所述可穿戴护具的移动轨迹,所述远程服务端还用于将基于所述移动轨迹产生的可视化导航指示呈现于在后可穿戴护具中,其中,所述在后可穿戴护具的开始移动时间晚于所述可穿戴护具的开始移动时间。例如,所述位置感应组件包括3轴加速度计、3轴陀螺仪和3轴磁感应计。可选地,所述可穿戴护具进一步包括距离探测组件,所述距离探测组件用于探测所述真实场景中的场景目标相对于所述可穿戴护具的距离;所述处理组件进一步用于:将所述距离探测组件探测到的所述距离与所述场景目标进行关联处理,并将关联处理结果发送至所述增强现实组件;所述增强现实组件进一步用于:基于所述关联处理结果,将所述距离和所述场景目标进行关联呈现。可选地,所述处理组件进一步用于:生成所述目标红外图像的图像呈现类型的切换指令,并发送至所述增强现实组件;所述增强现实组件进一步用于:按照与所述切换指令对应的图像呈现类型,呈现所述目标红外图像,其中,所述图像呈现类型包括热图像类型或灰度图像类型。
可选地,所述处理组件进一步用于:根据所述红外探测组件探测的所述真实场景的温度信息,生成所述切换指令。可选地,所述可穿戴护具进一步包括模式切换开关,所述模式切换开关用于响应外界触控操作,生成所述目标红外图像的图像呈现类型的切换请求,并向所述处理组件发送;所述处理组件进一步用于:根据所述切换请求,生成所述切换指令。
可选地,所述可穿戴护具进一步包括气体探测组件,所述气体探测组件用于探测所述可穿戴护具所处环境中的气体成分参数;所述处理组件进一步用于:根据所述气体成分参数,生成呼吸切换指令,并向呼吸阀发送;所述呼吸阀用于:根据所述呼吸切换指令,确定连通状态,其中,所述连通状态包括与所述可穿戴护具所处环境中的大气连通的状态,或者与储气瓶连通的状态。
可选地,所述可穿戴护具进一步包括气体探测组件,所述气体探测组件用于探测所述可穿戴护具所处环境中的气体成分参数;所述处理组件进一步用于:根据所述气体成分参数,生成呼吸警示信息,并向所述增强现实组件发送;所述增强现实组件进一步用于:呈现所述呼吸警示信息,其中,所述呼吸警示信息包括用于表示所述可穿戴护具所处环境中存在危险气体的信息内容。
可选地,所述处理组件进一步用于:根据所述储气瓶中的气体剩余量,生成气体剩余量提示信息,并向所述增强现实组件发送;所述增强现实组件进一步用于:呈现所述气体剩余量提示信息。
在另一个实施例中提供的用于可穿戴护具的场景呈现方法可以包括:获取红外探测组件输出的真实场景的红外图像,其中,所述红外探测组件的成像视场角对应的视野与增强现实组件的光学视场角对应的视野同向交叠,所述增强现实组件用于供目标对象观察所述真实场景,并且,所述光学视场角为所述目标对象透过所述增强现实组件观察所述真实场景的视场角;基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的目标红外图像;将所述目标红外图像发送至所述增强现实组件,以供所述增强现实组件呈现所述目标红外图像,所述增强现实组件还用于使得所述目标红外图像中存在的场景目标与所述真实场景中的所述场景目标的位姿对应。
可选地,所述基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的目标红外图像,具体包括:基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换关系,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的所述目标红外图像;其中,所述转换关系至少用于定义所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角的差异对应的红外图像裁剪尺寸。
可选地,所述基于所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间的转换关系,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的所述目标红外图像,具体包括:确定所述真实场景中的标定基准对象;基于所述标定基准对象相对可穿戴护具的距离与所述可穿戴护具的预设标定距离的差值,对所述红外探测组件的所述成像视场角与所述增强现实组件的所述光学视场角之间预先确定的标定转换关系进行校准,得到校准转换关系;基于所述校准转换关系,对所述红外图像进行处理,得到与所述增强现实组件的所述光学视场角匹配的所述目标红外图像。
可选地,所述方法进一步包括:对出现在所述目标红外图像中的所述场景目标的轮廓进行增强处理,以使得所述场景目标的轮廓在所述增强现实组件呈现的所述目标红外图像中被增强显示;或者,所述方法进一步包括:根据所述真实场景中的环境亮度,并根据所述环境亮度生成背光亮度调节指令,并发送至所述增强现实组件;所述增强现实组件用于根据所述背光亮度调节指令,调节背光亮度,并基于调节之后的所述背光亮度呈现所述目标红外图像;或者,所述方法进一步包括:将可穿戴护具的空间位置信息远程传输,以供所述远程服务端利用所述空间位置信息维护所述可穿戴护具的移动轨迹,所述供远程服务端还用于将基于所述移动轨迹产生的可视化导航指示发送至在后可穿戴护具中,其中,所述在后可穿戴护具的开始移动时间晚于当前的所述可穿戴护具的开始移动时间;或者,所述方法进一步包括:将所述真实场景中的场景目标相对于可穿戴护具的距离,与所述场景目标进行关联处理,并将关联处理结果发送至所述增强现实组件;所述增强现实组件用于基于所述关联处理结果,将所述距离与所述场景目标进行关联呈现。
可选地,所述方法进一步包括:生成所述目标红外图像的图像呈现类型的切换指令,并发送至所述增强现实组件;所述增强现实组件用于按照与所述切换指令对应的所述图像呈现类型,呈现所述目标红外图像,其中,所述图像呈现类型包括热图像类型或灰度图像类型。
可选地,所述生成所述目标红外图像的图像呈现类型的切换指令,具体包括:
根据所述真实场景的温度信息,生成所述切换指令;或者,根据所述目标红外图像的所述图像呈现类型的切换请求,生成所述切换指令;所述切换请求是模式切换开关响应外界触控操作而生成。
可选地,所述方法进一步包括:根据所述可穿戴护具所处环境中的气体成分参数,生成呼吸切换指令,并向呼吸阀发送;所述呼吸阀用于根据所述呼吸切换指令,确定连通状态,其中,所述连通状态包括与所述可穿戴护具所处环境中的大气连通的状态,或者与储气瓶连通的状态。可选地,所述方法进一步包括:根据所述气体成分参数,生成呼吸警示信息,并向所述增强现实组件发送;所述增强现实组件用于呈现所述呼吸警示信息,其中,所述呼吸警示信息包括用于表示所述可穿戴护具所处环境中存在危险气体的信息内容;或者,所述方法进一步包括:根据所述储气瓶中的气体剩余量,生成气体剩余量提示信息,并向所述增强现实组件发送;所述增强现实组件用于呈现所述气体剩余量提示信息。
在另一个实施例中还提供了一种非瞬时计算机可读存储介质,所述非瞬时计算机可读存储介质存储指令,所述指令在由处理器执行时引发所述处理器执行如前述实施例所述的用于可穿戴护具的场景呈现方法。
基于上述实施例,可穿戴护具可以具有用于供目标对象观察真实场景的增强现实组件、以及用于输出真实场景的红外图像的红外探测组件,其中,红外探测组件通过感知真实场景中的场景目标的温度而输出的红外图像,可以经过处理组件的处理而被转换与增强现实组件的光学视场角匹配的目标红外图像,因此,增强现实组件通过呈现转换得到的目标红外图像,可以增强真实场景在目标对象视野中的正确再现,从而,可以强化真实场景的视觉辨识度,进而有助于缓解甚至消除真实场景难以被清楚获知的困扰。
附图说明
以下附图仅对本申请做示意性说明和解释,并不限定本申请的范围:
图1为一个实施例中的可穿戴护具的示例性局部结构示意图;
图2为适用于如图1所示的可穿戴护具的简化呈现机制的示意图;
图3为如图1所示的可穿戴护具的优选呈现机制的示意图;
图4a和图4b为如图3所示的优选呈现机制进一步引入背光调节功能的原理图;
图5为如图3所示的优选呈现机制进一步引入模式切换功能的原理图;
图6为如图3所示的优选呈现机制进一步引入局部增强功能的原理图;
图7a和图7b为如图3所示的优选呈现机制进一步引入距离可视化功能的原理图
图8为如图1所示的可穿戴护具的位置上报机制的示意图;
图9为如图1所示的可穿戴护具的轨迹导航机制的示意图;
图10为如图1所示的可穿戴护具的呼吸保护机制的示意图;
图11为如图1所示的可穿戴护具的实例结构的立体图;
图12为如图11所示实例结构的分解状态示意图;
图13为另一个实施例中用于可穿戴护具的场景呈现方法的示例性流程示意图。
具体实施方式
为使本申请的目的、技术方案及优点更加清楚明白,以下参照附图并举实施例,对本申请进一步详细说明。
图1为一个实施例中的可穿戴护具的示例性局部结构示意图。请参见图1,在该实施例中,可穿戴护具可以具有增强现实组件30、红外探测组件51以及处理组件500。
增强现实组件30用于供目标对象观察真实场景。具体地,增强现实组件30可以包括镜框31和光波导镜片32,该光波导镜片32可以嵌入在镜框31中,由于光波导镜片32包括光透明介质基片、以及覆盖在光透明介质基片的两侧表面的介质膜,因而光波导镜片32具有透光特性,从而使得目标对象可以透过光波导镜片32观察真实场景。示例性地,目标对象可以包括救援人员,还可以包括其他具有场景观察功能的设备。真实场景可以包括例如火灾、烟雾环境等灾难场景,以及其他可以使用红外探测组件进行环境探测的场景。
其中,增强现实组件30具有预先配置的光学视场角FOV_ar,该光学视场角FOV_ar是指目标对象透过增强现实组件30(即光波导镜片32)观察真实场景的视场角,即,目标对象佩戴增强现实组件30的情况下,目标对象的原有视场角中与光波导镜片32的感光范围的相交部分。以佩戴可穿戴护具的目标对象为救援人员为例,救援人员的双目可以在光学视场角FOV_ar对应的视野中透过增强现实组件30(即光波导镜片32)观察到真实场景(例如火场环境等灾难场景)。并且,增强现实组件30的光学视场角FOV_ar可以通过设置光波导镜片32的尺寸规格、以及光波导镜片32相对于目标对象的距离(即镜框31的尺寸规格)来配置。
增强现实组件30还可以包括显示驱动模组33,该显示驱动模组33可以装设于镜框31的外侧、并且与光波导镜片32电连接,其中,显示驱动模组33至少包括光引擎,光引擎可以对光波导镜片32产生光波,光波被光波导镜片32的介质膜约束在光透明介质基片内传播,可以使得光波导镜片32中呈现不阻碍目标对象观察真实场景的特定影像,从而实现对现实的增强。
红外探测组件51用于输出真实场景的红外图像,例如采集浓烟环境下的红外图像。具体地,红外探测组件51可以包括红外探测器,该红外探测器可以集成有用于红外成像的传感器阵列,通过红外探测器的传感器阵列对真实场景中的温度感知,可以得到红外图像,该红外图像的像素值是根据温度确定的。红外探测组件51的安装位置不作具体限定,例如可以安装在镜框31的一侧。
其中,红外探测组件51具有预先配置的成像视场角FOV_inf,该成像视场角FOV_inf由红外探测器的镜头的视野范围确定,通常情况下,红外探测组件51的成像视场角FOV_inf可以大于增强现实组件30的光学视场角FOV_ar。
而且,红外探测组件51的成像视场角FOV_inf对应的视野与增强现实组件30的光学视场角FOV_ar对应的视野同向交叠。其中,红外探测组件51的成像视场角FOV_inf对应的视野与增强现实组件30的光学视场角FOV_ar对应的视野“同向”,可以理解为红外探测组件51的成像视场角FOV_inf对应的视野与增强现实组件30的光学视场角FOV_ar对应的视野朝向可穿戴护具的同一侧;并且,红外探测组件51的成像视场角FOV_inf对应的视野与增强现实组件30的光学视场角FOV_ar对应的视野的“交叠”,可以理解为红外探测组件51的成像视场角FOV_inf对应的视野与增强现实组件30的光学视场角FOV_ar对应的视野在相对于可穿戴护具的指定距离范围(具体与可穿戴护具的预设标定距离有关)内相互重叠。
如图2所示,红外探测组件51输出的红外图像60中可以包含真实场景中的场景目标40,若在增强现实组件30呈现红外图像60,即,将红外图像60与在目标对象观察到的真实场景一起融合呈现,则,显示驱动模组33包括的光引擎可以根据红外图像60对光波导镜片32产生光频电磁波,以在目标对象观察到的真实场景中产生对场景目标40增强呈现的视觉效果。其中,本申请实施例中提及的真实场景中的场景目标可以包括出现在真实场景中的任意对象,并可以根据真实场景的具体类型而细分。例如针对火灾、烟雾环境等灾难场景,真实场景中的场景目标可以包括人、路面障碍物、车辆、家具或家电、以及建筑结构(例如出入口、窗户、墙壁等)等。
然而,若将红外图像60直接提供给增强现实组件30呈现,则,由于增强现实组件30的光学视场角与红外探测组件51的成像视场角的不同,可能会导致在增强现实组件30呈现的红外图像60中的场景目标偏离于真实场景中的该场景目标的位姿,从而有可能干扰甚至误导目标对象对真实场景的正确认知。
如前文所述,增强现实组件30的光学视场角FOV_ar(包括水平视场角和垂直视场角)可以根据光波导镜片32的尺寸规格和相对于目标对象的距离来设定,这样的设定通常会考虑目标对象的佩戴舒适度,而且通常会小于红外探测组件51的成像视场角FOV_inf(包括水平视场角和垂直视场角)。由此,若将在成像视场角FOV_inf对应的视野范围内形成的红外图像60直接在增强现实组件30呈现,则,会由于适配光学视场角FOV_ar而压缩红外图像60的图像整体尺寸,由此,导致场景目标由于图像整体尺寸的压缩发生不恰当的变形或偏移。也就是,若将红外图像60直接提供给增强现实组件30呈现,则,由于增强现实组件30的光学视场角FOV_ar与红外探测组件51的视场角FOV_inf之间的差异,会导致红外图像60中的场景目标40被失真地呈现给目标对象。
图2为适用于如图1所示的可穿戴护具的简化呈现机制的示意图,且具体以人眼通过增强现实组件30观察真实场景为例,不应理解为对本申请实施例的具体限定。请在参见图1的同时结合图2,图2中示出了将红外图像60直接提供给增强现实组件30呈现的效果,从图2中可以看出,增强现实模组30可以在光学视场角FOV_ar对应的视野中呈现场景目标40在红外图像60中的影像轮廓41’,但由于视场角的角度差异,该影像轮廓41’可能与场景目标40沿目标对象的观察光路在增强现实组件30(即光波导镜片32)的投影轮廓42发生严重偏差,致使影像轮廓41’在目标对象的视觉感知中反映错误位姿的虚影目标40’,而不能反映出场景目标40的真实位姿。
若真实场景相对目标对象具有一定的视觉能见度,则,虚影目标40’将会扰乱目标对象对场景目标40的判断;例如,在火灾救援场景中,可能延误救援人员对被困人员的施救。
若真实场景相对目标对象的视觉能见度极低,则,目标对象只能观察到位姿失真的虚影目标40’,此时对于目标对象而言,直接在增强现实组件30呈现的红外图像60相当于产生了偏离于真实场景的VR(Virtual Reality,虚拟现实)效果。
可见,无论真实场景中的能见度如何,将红外图像60直接提供给增强现实组件40呈现都不利于目标对象了解真实环境。
因此,在该实施例中,使用处理组件500对红外图像60进行相应的处理,得到用于在增强现实组件30呈现的目标红外图像。其中,处理组件500可以包括处理器,该处理器可以具有图像处理能力,或者,处理组件500也可以包括不具有图像处理能力的控制器、以及具有图像处理能力的处理器,例如,具有图像处理能力的处理器可以选用DSP(DigitalSignal Processor,数字信号处理器)或GPU(Graphics Processing Unit,图形处理单元)等。
图3为如图1所示的可穿戴护具的优选呈现机制的示意图。请在参见图1的同时结合图3,处理组件500用于获取红外探测组件51输出的红外图像60,并且,基于红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间的转换,对红外探测组件51输出的红外图像60进行处理,得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80,并将目标红外图像80发送至增强现实组件30。
为了基于红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间的转换,对红外图像60进行处理,得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80,处理组件500可以具体用于:
基于红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间的转换关系,对红外图像60进行处理,得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80。其中,该转换关系至少用于定义红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar的差异对应的红外图像裁剪尺寸。应当理解,如果为得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80,还需要对红外图像60进行其他图像编辑操作,例如旋转、平移等,前述转换关系中还可以定义包括红外图像的旋转量和平移量等。
红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间的转换关系可以包括预先确定的标定转换关系,或者在可穿戴护具的实际使用过程中对标定转换关系进行校准(或称为修正)得到的校准转换关系。标定转换关系可以包括在不考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下,对可穿戴护具进行标定(即对红外探测组件51和增强现实组件30进行标定)所确定的标定转换关系,或者可以包括在考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下,对可穿戴护具进行标定所确定的标定转换关系。
示例性地,可穿戴护具在出厂之前,可以由技术人员对可穿戴护具进行标定,例如可以利用标定环境中距离可穿戴护具预设标定距离的预设标定物,对可穿戴护具进行标定,从而确定在不考虑红外探测组件51和增强现实组件30之间的部署位置偏差或者考虑考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下,所确定的标定转换关系。部署位置偏差是指红外探测组件51在可穿戴护具的安装位置与增强现实组件30(即光波导镜片32)在可穿戴护具的安装位置相互避让,即为保证各自的功能实现,光轴位置不重合。当红外探测组件51和增强现实组件30之间的部署位置偏差,对红外图像60在增强现实组件30中的呈现效果影响较小时,可以不加考虑。
红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间的差异包括水平视场角分量差值和垂直视场角分量差值,相应地,在前述转换关系中,红外图像裁剪尺寸包括图像水平方向和/或图像纵向方向(即与水平方向垂直的方向)上的裁剪尺寸。
具体地,若红外探测组件51的成像视场角FOV_inf的垂直视场角分量大于增强现实组件30的光学视场角FOV_ar的垂直视场角分量,则,红外图像60在图像纵向方向上的裁剪尺寸可以根据两者的垂直视场角分量的差值来确定;同理,若红外探测组件51的成像视场角FOV_inf的水平视场角分量大于增强现实组件30的光学视场角FOV_ar的水平视场角分量,则,红外图像60在图像水平方向上的裁剪尺寸可以根据两者的水平视场角分量的差值来确定。示例性地,可预先设置红外探测组件51和增强现实组件30的垂直视场角分量的差值和水平视场角分量的差值分别与图像裁剪尺寸的对应关系,进而在确定垂直视场角分量的差值和水平视场角分量的差值后,基于该对应关系计算图像纵向方向或者图像水平方向上的图像裁剪尺寸。一般情况下,针对图像纵向方向或者图像水平方向,红外图像60两侧的裁剪尺寸可以相同。
基于转换关系,可以使得在可穿戴护具的使用过程中,快速得到目标红外图像80。如图3所示,红外图像60的边缘部分可以被剪裁,被裁剪的部分在图3中被表示为包围目标红外图像80的阴影区域,以使得目标红外图像80具有与增强现实组件30的光学视场角FOV_ar匹配的图像整体尺寸。图像裁剪过程中不会改变场景目标40在红外图像60中的尺寸比例和形状,裁剪得到的目标红外图像80中的场景目标40在增强现实组件30上呈现时不会发生不恰当的变形或偏移现象。
进一步优选地,考虑红外探测组件51与增强现实组件30(即光波导镜片32)之间会存在部署位置偏差,这样的部署位置偏差会导致红外探测组件51的光轴与增强现实组件30(即光波导镜片32)的光轴位置之间存在位置偏移,或者,导致红外探测组件51的光轴与增强现实组件30(即光波导镜片32)的光轴相交,从而,导致在不考虑该部署位置偏差的情况下,对红外图像60进行处理得到目标红外图像80后,呈现在增强现实组件30的目标红外图像80中的场景目标40相对于其在真实场景中的姿态可能存在变形或偏移。由此,也可知在不考虑红外探测组件51与增强现实组件30(即光波导镜片32)之间存在部署位置偏差的情况下,相当于默认不考虑红外探测组件51的光轴与增强现实组件30的光轴位置之间的位置偏移或光轴相交的情况,即认为两者的位置偏移可忽略或者光轴平行。
为了减小甚至消除由部署位置偏差所导致的增强现实组件30上呈现的场景目标40的变形或位置偏移,可以利用在考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下对可穿戴护具进行标定所确定的标定转换关系,对红外图像60进行处理,得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80。此情况下,具体地,标定转换关系中至少定义了基于红外探测组件51与增强现实组件30之间的部署位置偏差所确定的红外图像裁剪尺寸的补偿量。部署位置偏差包括垂直方向和/或水平方向上的部署位置偏差,相应地,红外图像裁剪尺寸的补偿量也包括图像纵向方向或者图像水平方向上的裁剪尺寸补偿量。
示例性地,在图像纵向方向或图像水平方向上对红外图像60的裁剪,可以采用双边裁剪尺寸非对称(即在图像纵向方向或者图像水平方向上,图像两侧的裁剪尺寸可以不相同)的裁剪方式,以补偿红外探测组件51与增强现实组件30(即光波导镜片32)之间的部署位置偏差(包括垂直方向和/或水平方向上的部署位置偏差),避免场景目标40在增强现实组件30上呈现时,可能存在的变形或偏移的现象。
通常情况下,呈现在增强现实组件30上的目标红外图像80中场景目标40由于上述部署位置偏差而引发的变形或偏移,可能会随着场景目标40相对于可穿戴护具的距离而略有差异,并且当真实场景中的场景目标40相对于可穿戴护具的距离,与可穿戴护具标定过程中使用的预设标定物和可穿戴护具之间的预设标定距离不同时,预先确定的标定转换关系的准确性会有所降低,因此,针对考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下,可以在可穿戴护具的实际使用过程中,在真实场景中确定标定基准对象,并基于标定基准对象相对于可穿戴护具的距离与可穿戴护具的预设标定距离的差值,对预先确定的标定转换关系进行现场校准,以提高对红外图像60进行裁剪处理的准确性。通过现场校准,可以在场景目标40由于相对于可穿戴护具的距离偏离于前述预设标定距离时,减小甚至消除增强现实组件30上呈现的目标红外图像80中场景目标40相对其在真实场景中的位姿偏差。
即在一种实施方式中,针对考虑红外探测组件51和增强现实组件30之间的部署位置偏差的情况下,处理组件500具体用于:确定真实场景中的标定基准对象;基于确定的标定基准对象相对可穿戴护具的距离与可穿戴护具的预设标定距离的差值,对红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间预先确定的标定转换关系进行校准,得到校准转换关系;基于校准转换关系,对红外图像60进行处理,得到与增强现实组件30的光学视场角FOV_ar匹配的目标红外图像80。
其中,该校准转换关系中考虑了对基于红外探测组件51与增强现实组件30之间的部署位置偏差所确定的红外图像裁剪尺寸补偿量的校准。示例性地,可预先设置标定基准对象相对可穿戴护具的距离与可穿戴护具的预设标定距离的差值,与红外图像裁剪尺寸补偿量的校准量的对应关系,进而在确定距离差值后,基于该对应关系计算红外图像裁剪尺寸补偿量的校准量;此外,还可以可预先设置标定基准对象相对可穿戴护具的距离与可穿戴护具的预设标定距离的差值,与包括裁剪尺寸补偿量的红外图像裁剪尺寸的校准量的对应关系,进而在确定距离差值后,基于该对应关系计算红外图像裁剪尺寸的校准量,从而得到所需的校准转换关系。
在可穿戴护具的实际使用过程中,场景目标可以作为真实场景中的标定基准对象,在此情况下,可穿戴护具可以进一步包括的例如眼球跟踪器等装置,用于对目标对象在增强现实模组30的光学视场角FOV_ar对应的视野内的关注方位进行跟踪检测,并且,处理组件500可以将位于检测到的目标对象关注方位的场景目标确定为真实场景中的标定基准对象。即在本申请实施例中,随着目标对象的关注方位或者视野方向变化,标定基准对象可以随之变化。
或者,处理组件500也可以将出现在红外图像60的一个场景目标确定为真实场景中的标定基准对象。其中,若红外图像60中只出现一个场景目标,则该场景目标即为真实场景中的标定基准对象;若红外图像60中出现多个场景目标,则,处理组件500可以根据场景目标在红外图像60中的图像坐标、和/或场景目标在红外图像60中的区域面积、和/或场景目标的目标类型来选定场景目标,例如,处理组件500可以优先选定最靠近红外图像60的中心位置的场景目标、和/或优先选定在红外图像60中的区域面积最大的场景目标、和/或优先选定轮廓呈人形的场景目标等,具体可以根据需求而配置。此情况下,随着红外探测组件51的探测方向的变化,标定基准对象也可以随之变化。
通过基于真实场景中的标定基准对象对红外探测组件51的成像视场角FOV_inf与增强现实组件30的光学视场角FOV_ar之间预先确定的标定转换关系进行校准,利用校准得到的校准转换关系,对红外图像60进行处理,以得到目标红外图像80,可以使得增强现实模组30上呈现的目标红外图像80中场景目标相对其在真实场景中的姿态变形量或姿态偏移量最小化。尤其是增强现实组件30上呈现的目标红外图像80中包括被确定为标定基准对象的场景目标时,目标红外图像80上的标定基准对象相比于其他场景目标,在目标红外图像80上呈现的姿态相对在真实场景中的姿态,变形量或偏移量可以趋近于零。即增强现实组件30可以达到较高的场景再现效果。
另外,处理组件500可以通过任意方式获取到标定基准对象相对于可穿戴护具的距离,例如,如图7a和图7b所示,可穿戴护具可以进一步包括距离探测组件53,可以用于探测真实场景中的任意标定基准对象相对于可穿戴护具的距离,并发送给处理组件500。
无论处理组件500以何种方式对红外图像60进行基于上述转换的处理,场景目标40在目标红外图像80中或者在红外图像60中均可以保持同样的位姿。
并且,增强现实组件30在呈现目标红外图像80的过程中,使得目标红外图像80中存在的场景目标40与真实场景中的该场景目标40的位姿对应。其中,姿态对应可以至少包括在目标对象通过增强显示组件30观察真实场景的情况下,目标红外图像80中存在的场景目标40与真实场景中的该场景目标40的预设标识位置重合,该预设标识位置例如可以是场景目标的中心位置或者其他具有位置标识作用的特定位置,具体可以预先设置;位姿对应还可以进一步包括在目标对象通过增强显示组件30观察真实场景的情况下,目标红外图像80中存在的场景目标40与真实场景中的该场景目标40的目标包络区域重叠,其中,目标包络区目标可以是场景目标上的局部区域或者场景目标的整体区域,进一步地,目标包络区域的重叠可以是重叠率超过预设比例阈值(例如50%)的局部区域重叠,也可以是重叠率趋近于100%的区域完全重叠,并且,目标包络区域的完全重叠最优的程度足以使目标红外图像80中存在的场景目标40与真实场景中的该场景目标40的轮廓重合。
从而,若真实场景中具有足以使场景目标对目标对象可分辨的能见度,则,当目标红外图像80被呈现于增强现实组件30(即光波导镜片32)时,场景目标40在目标红外图像80中的影像轮廓41与该场景目标40沿目标对象的观察光路在增强现实组件30(即光波导镜片32)的投影轮廓42重合,以增强目标对象对真实场景中的场景目标40的辨识能力。本文提及的影像轮廓41与投影轮廓42的重合,是指影像轮廓41与投影轮廓42趋近于理论上的完全重合,而并不排斥存在轮廓细节偏差的情况。
若真实场景(例如火灾等灾难场景)中的能见度极低、导致场景目标对目标对象不可分辨,则,当目标红外图像80被呈现于增强现实组件30(即光波导镜片32)时,场景目标40能够基本真实地重现场景目标40在真实场景中对应的位姿,使目标对象可以完全依赖于目标红外图像80辨识真实场景中的场景目标40。
可见,红外探测组件51通过感知真实场景中的场景目标的温度所输出的红外图像60,能够经过处理组件500的处理而被转换为与增强现实组件的光学视场角匹配的目标红外图像80,从而,增强现实组件30通过在光波导镜片32呈现目标红外图像80,可以增强真实场景在目标对象视野中的正确再现,从而,可以强化真实场景的视觉辨识度,进而有助于缓解甚至消除真实场景难以被清楚获知的困扰,以火灾场景为例,可以使得救援人员不必完全依赖于积累的实战经验即可判断火情,例如,救援人员可以准确判断出火灾中的火点位置、待救援人员的位置及体态、以及与救援人员集体行动的队友的位置及体态。
而且,由于该实施例中的护具是可穿戴的,因此,还可以解放救援人员的双手,便于救援人员手持例如灭火器、消防栓等辅助工具,提高灭火及救援效率。
在具体实现时,目标红外图像80的图像类型可以为热图像(例如俗称铁红模式的热图)或灰度图像(也可称为灰阶图像)。其中,当真实场景(例如火场环境等灾难场景)中的各场景目标之间的温差、或场景目标相对于环境的温差较大时,热图像可以更清晰地呈现出场景目标;而当真实场景(例如火场环境等灾难场景)中的各场景目标之间的温差、或场景目标相对于环境的温差较小时,热图像中的场景目标的清晰度会低于灰度图像。因此,为了适应不同的情况,在该实施例中,允许目标红外图像80的图像类型切换。
图4a和图4b为如图3所示的优选呈现机制进一步引入模式切换功能的原理图。请参见图4a和图4b,处理组件500可以进一步用于生成目标红外图像80的图像呈现类型的切换指令Ins_sw,并将切换指令Ins_sw发送至增强现实组件30,并且,增强现实组件30可以进一步用于按照与切换指令Ins_sw对应的图像呈现类型,呈现目标红外图像80,即该切换指令中携带有增强现实组件30中待呈现的目标红外图像80的图像呈现类型,其中,图像呈现类型包括热图像类型或灰度图像类型。
处理组件500产生的切换指令Ins_sw可以根据红外探测组件51探测的真实场景中的温度信息来触发,或者,也可以根据外部触控操作来触发。
示例性地,在图4a中,处理组件500可以进一步用于根据红外探测组件51探测的真实场景的温度信息Info_temp,生成切换指令Ins_sw。例如,温度信息Info_temp可以通过红外图像60的像素值来确定,并且,处理组件500可以进一步用于根据红外探测组件51探测的真实场景中的场景目标的温度信息Info_temp,确定真实场景中的各场景目标之间的温差、或场景目标相对于环境的温差,并根据确定的温差生成切换指令Ins_sw;进一步地,如果确定的温差值较大,则生成携带热图像类型信息的切换指令,如果确定的温差值较小,则生成携带灰度图像类型信息的切换指令。
或者,在图4b中,可穿戴护具可以进一步包括模式切换开关57,该模式切换开关57用于响应外界触控操作(例如按压或拨动或旋拧等),生成目标红外图像80的图像呈现类型的切换请求Req_sw,并向500处理组件发送该切换请求Req_sw;并且,处理组件500可以进一步用于根据切换请求Req_sw,生成切换指令Ins_sw。例如,该模式切换开关57可以选用机械式开关或触摸式开关,该模式切换开关57可以响应于外部触控操作(例如按压或拨动或旋拧等)而产生具有特定电平状态的切换请求Req_sw,处理组件500可以根据切换请求Req_sw的特定电平状态识别出请求切换的图像呈现类型为热图像类型或灰度图像类型。模式切换开关57的安装位置,本申请实施例不作具体限定,例如可以安装在镜框的一侧。
另外,真实场景中的环境亮度也会影响目标红外图像80中的场景目标的辨识度。为此,该实施例中的可穿戴护具可以进一步根据环境亮度自适应调节增强现实组件30的背光亮度,以基于调节之后的背光亮度呈现目标红外图像80。其中,背光亮度是指显示驱动模组33(其中包括光引擎)对光波导镜片32在呈现目标红外图像80时的光源照射亮度。若环境亮度较高,则可以调高背光亮度,以使得目标红外图像80不会由于较高的环境亮度而难以分辨;反之,若环境亮度相对低,则可以调低背光亮度,以避免过高的背光亮度刺激目标对象视觉。
图5为如图3所示的优选呈现机制进一步引入背光调节功能的原理图。请参见图5,该实施例中的可穿戴护具可以进一步包括亮度探测组件55,该亮度探测组件55可以包括亮度传感器,并且,该亮度探测组件55可以用于探测真实场景中、尤其是光波导镜片32的光学视场角FOV_ar对应的视野内的环境亮度L_env,相应地,处理组件500可以进一步用于根据环境亮度L_env生成背光亮度调节指令Ins_adj,并将背光亮度调节指令Ins_adj发送至增强现实组件30,并且,增强现实组件30可以进一步用于根据背光亮度调节指令Ins_adj,调节背光亮度,以基于调节之后的背光亮度呈现目标红外图像80,背光亮度的调节具体可以由包括光引擎的显示驱动模组33执行。
例如,处理组件500可以根据预先设定的环境亮度与背光亮度的对应关系,确定增强现实组件30根据背光亮度调节指令Ins_adj对背光亮度的调节目标值。
从而,有助于目标对象在各种环境亮度下看清增强现实组件30呈现的目标红外图像80中的场景目标,并且同时避免增强现实组件30在环境亮度较低的情况下对目标对象产生视觉刺激。
切换图像类型是从目标红外图像80的呈现形式的角度实施的优化,自适应调节强现实组件30的背光亮度是从目标红外图像80的呈现环境的角度实施的优化,二者既可以相互独立地实施,也可以组合实施。除此之外,该实施例还可以对目标红外图像80的图像内容做进一步优化,以进一步提高目标红外图像80中出现的场景目标的辨识度。
作为对目标红外图像80的图像内容的一种优化机制,处理组件500可以进一步用于对出现在目标红外图像80中的场景目标的轮廓实施局部增强处理。该局部增强处理,可以在得到目标红外图像80之后执行,或者,也可以直接在得到红外图像60之后先对红外图像60执行,然后通过对红外图像60的处理得到轮廓局部增强的目标红外图像80。该局部增强处理可以包括使用不同的颜色对轮廓进行显示增强、或者使用粗线条对轮廓进行显示增强(例如图像描边算法)等,其中,使用的颜色类型或线条类型可以根据轮廓呈现需求而预先设置或者在护具使用过程中灵活调整,本公开实施例不作具体限定。
图6为如图3所示的优选呈现机制进一步引入局部增强功能的原理图。请参见图6,处理组件500可以进一步用于对出现在目标红外图像80中的场景目标的轮廓进行增强处理,以使得场景目标的轮廓在增强现实组件30(即光波导镜片32)呈现的目标红外图像80中被增强显示。
在图6中,仅仅是以人体轮廓的场景目标40为例,示出了人体轮廓的增强显示效果,在实际应用中,可进行轮廓增强处理的场景目标并不限于人,而是还可以包括例如燃气罐、家具等物体,还可以包括例如通行口、墙壁等建筑结构。例如,通过对红外图像60或目标红外图像80进行目标边缘检测,可以同步得到红外图像60或目标红外图像80中出现的所有场景目标的轮廓,而不局限于针对某个目标类型的检测和轮廓识别,得到检测的场景目标的轮廓之后,可以按照预先设置的待增强处理的轮廓类型,对属于该轮廓类型的场景目标进行轮廓增强处理,当然也可以对边缘检测确定的轮廓均进行增强处理。其中,待增强处理的轮廓类型可以根据真实场景的类型而预先设定,例如,针对火灾、烟雾环境等灾难场景,待增强处理的轮廓类型可以包括人体轮廓、路面障碍物轮廓、车辆轮廓、家具或家电轮廓、以及建筑结构相关轮廓等类型。
通过轮廓增强处理,目标对象可以更加快速准确地识别出目标红外图像80中的场景目标。例如,在火场环境、烟雾环境等灾难场景中,目标对象可以精准地识别出真实场景中出现人物的体态动作,以便于识别出例如待救援人员做出的求救肢体语言、或救援队友做出的提示性肢体语言等有助于提升救援效率的体态动作;而且,还可以精准地识别出真实场景中的物体摆放方位、建筑结构对行进的影响等,以助于避让例如燃气罐等危险目标、或准确寻找路径。
对目标红外图像80的轮廓增强,可以独立于切换图像呈现类型、以及自适应调节强现实组件30的背光亮度,或者也可以与其中至少之一组合实施。对于轮廓增强与切换图像类型被组合实施的情况,用于轮廓增强的轮廓颜色可以随图像呈现类型的切换而改变,也可以与图像呈现类型对应的颜色一致,例如当目标红外图像80的图像呈现类型被确定为热图像(例如俗称铁红模式的热图)类型时,轮廓颜色可以选用与热图像的主色调具有反差效果的第一颜色(例如冷色调颜色);当目标红外图像80的图像类型被确定为灰度图像(也可称为灰阶图像)类型时,轮廓颜色可以选用与灰色具有反差效果的第二颜色(例如高亮效果的暖色调颜色)。
图7a和图7b为如图3所示的优选呈现机制进一步引入距离可视化功能的原理图。请参见图7a和图7b,该实施例中的可穿戴护具可以进一步包括距离探测组件53,该距离探测组件53可以包括但不限于激光测距探测器或者雷达测距探测器,并且,该距离探测组件53用于探测真实场景中的场景目标40相对于可穿戴护具的距离D40。
距离探测组件53探测到的距离D40可以按照前文所述的方式用来校准转换关系之外,和/或,还可以与目标红外图像80一起被关联呈现;相应地,处理组件500可以进一步用于将距离探测组件53探测到的距离D40与场景目标40进行关联处理,并将关联处理结果发送至增强现实组件30;增强现实组件30进一步用于:基于关联处理结果,将距离和场景目标40进行关联呈现。其中,关联处理结果可以包括将距离和场景目标40进行关联呈现的呈现指令,或者关联处理结果可以包括与场景目标40对应的距离数据本身,或者关联处理结果可以包括叠加有与场景目标40对应的距离信息的目标红外图像等。
示例性地,在图7a中,处理组件500可以具体用于基于距离探测组件53探测的距离D40,生成距离信息呈现指令Ins_dis(其中可以携带距离探测组件53探测到的距离D40),并将距离信息呈现指令Ins_dis作为关联呈现结果发送至增强现实组件30;并且,增强现实组件30进一步用于基于距离信息呈现指令Ins_dis,将场景目标40与距离探测组件53探测到的距离D40进行关联呈现。例如,增强现实组件30的显示驱动模组33可以根据距离信息呈现指令Ins_dis,将目标红外图像80与距离探测组件53探测到的距离D40在光波导镜片32叠加呈现。或者,处理组件500也可以使用表示距离D40的距离数据来替代距离信息呈现指令Ins_dis。
示例性地,在图7b中,处理组件500可以具体用于在目标红外图像80中添加距离探测组件53探测到的距离D40,并将添加了该距离D40的目标红外图像80作为关联呈现结果发送至增强现实组件30。可以理解的是,图7b中同时还呈现了场景目标的轮廓增强效果,这是为了更清楚地体现距离D40在目标红外图像80中的叠加是与场景目标关联的,而不是限定距离的关联呈现必须与轮廓增强组合实施。
与目标红外图像80中的场景目标40关联呈现的距离D40,可以具有可视化数字图形的形态,或者可以是包含数字信息内容的图片形态,并且其在目标红外图像80中的显示位置不作具体限定,例如,关联呈现的距离D40可以位于场景目标40的轮廓内或者呈现在距离场景目标40特定距离的位置处,以便于在目标红外图形80中存在多个场景目标时,甄别距离探测组件53探测到的不同场景目标的距离。其中,该特定距离的具体取值可以根据显示需求预先合理设置。当真实场景(例如火场环境等灾难场景)中存在多个场景目标时,距离探测组件53可以探测到每个场景目标的距离,并可以根据每个场景目标的位置标识区分不同的探测距离,并且,处理组件500可以具有区分不同场景目标的距离的能力。
基于距离探测组件53探测的距离与目标红外图像80中的场景目标的关联呈现,可以使目标对象对场景目标的空间认知更加准确,有助于提升灾难场景下的救援效率,还可以同时提醒目标对象控制步伐,降低与其他移动对象发生误碰撞而受伤的风险。
除了在增强现实组件30重现真实场景(例如火场环境等灾难场景)之外,该实施例中的可穿戴护具还可以支持轨迹追踪和轨迹导航。
图8为如图1所示的可穿戴护具的位置上报机制的示意图。请参见图8,在该实施例中,可穿戴护具还可以进一步包括位置感应组件73和无线通信组件71,具体安装位置不作具体限定。其中,位置感应组件73可以包括加速度计量器、陀螺仪、磁感应计量器等不同类别的传感器的组合,例如,位置感应组件73可以包括九轴传感组件,该九轴传感组件包含3轴加速度计、3轴陀螺仪以及3轴磁感应计,有助于提高定位计算的准确性。位置感应组件73用于感测可穿戴护具(即穿戴该护具的目标对象90)的空间位置信息,并且,在处理组件500的驱动控制下,无线通信组件71用于将空间位置信息远程传输,以供远程服务端900(例如指挥中心服务器)利用空间位置信息维护可穿戴护具的移动轨迹(即穿戴该护具的目标对象90的移动轨迹)。
远程服务端900通过对空间位置信息的实时采样和融合运算,可以获取可穿戴护具的实时位置,并且,通过对实时位置的曲线拟合,可以得到可穿戴护具(即穿戴该护具的目标对象90)的移动轨迹,例如,图8中示出了目标对象90从火场环境的入口到达待被搜寻人员(即作为场景目标40的一种示例)所在位置的移动轨迹。
而且,远程服务端900(例如指挥中心服务器)可以基于当前已维护的移动轨迹产生可视化导航指示,远程服务端900还可以将基于移动轨迹产生的可视化导航指示通过远程传输呈现于在后可穿戴护具中,其中,在后可穿戴护具的开始移动时间晚于当前的可穿戴护具(即已维护移动轨迹的可穿戴护具)的开始移动时间。并且,可视化导航指示可以包括基于维护的移动轨迹生成的导航轨迹,或者,也可以包括基于维护的移动轨迹生成的例如表示前行、后退、左转或右转的导航指引标识。
例如,对于某些灾难场景,例如火灾,可能需要目标对象各自佩戴可穿戴护具,在此情况下,每个可穿戴护具可以预先分配有对应的设备标识,每个可穿戴护具通过无线通信组件71向远程服务端传输的空间位置信息中都可以携带本护具的设备标识,以便于远程服务端区分携带不同可穿戴护具的目标对象。对于以分组行动方式实施救援工作的情况,为了进入灾难场景的出发时间较晚的目标对象,尽快找到进入灾难场景的出发时间较早的目标对象,或者提高救援效率,远程服务端900可以对进入行灾难场景的出发时间较早的目标对象的移动轨迹(也即可穿戴护具的移动轨迹)进行维护,并基于维护的移动轨迹产生可视化导航指示,然后远程传输至进入灾难场景的出发时间较晚的目标对象所佩戴的可穿戴护具(即在后可穿戴护具),即可使该在后可穿戴护具的增强现实组件呈现该可视化导航指示,以引导佩戴在后可穿戴护具进入灾难场景的目标对象,沿出发时间较早的目标对象的移动轨迹,以最高的效率进入灾难场景或者高效地寻找到之前进入灾难场景的目标对象,以在最短的时间内完成协同营救工作,避免单兵作战的目标对象迷失在灾难场景中。从而,远程服务端900可以通过获取目标对象在灾难场景中的空间位置信息和以此确定的移动轨迹,对救援工作实施有效的统筹策划。
可穿戴护具的增强现实组件30可以进一步用于呈现指引行进方向的可视化导航指示。其中,若当前的可穿戴护具的增强现实组件30作为在后可穿戴护具,则,其呈现的可视化导航指示可以是基于进入灾难场景的出发时间较早的目标对象的移动轨迹而产生的。但可以理解的是,可穿戴护具的增强现实组件30所呈现的可视化导航指示,也可以是基于真实场景的地图、或者是基于其他方式(例如基于无人机的高空导航)产生的。
图9为如图1所示的可穿戴护具的轨迹导航机制的示意图。请参见图9,在该实施例中,无线通信组件71可以进一步用于通过远程传输获取可视化导航指示89,该可视化导航指示89可以是根据远程服务端维护的移动轨迹、以及可穿戴护具(即穿戴该护具的目标对象90)的空间位置信息确定的,相应地,增强现实组件30可以进一步用于呈现可视化导航指示89,例如,表示当前行进方向的导航指引标识、或者当前导航轨迹等。
可视化导航指示89可以由远程服务端900提供,通过实时监测可穿戴护具(即穿戴该护具的目标对象90)的空间位置信息,可以在可穿戴护具(即穿戴该护具的目标对象90)处于导航轨迹中的每个关键拐点处时,提供适用于该关键拐点的可视化导航指示89。在图9中,以可视化导航指示89用于指引目标对象90与被搜寻人员(作为场景目标40的一种示例)沿如图8所示的移动轨迹原路回退逃生为例。但实际应用中,可视化导航指示89可以用于指引任何行进路径。
关于可视化导航指示89的呈现的实现,可以采用与目标红外图像80非同时叠加显示的方式呈现,例如可视化导航指示89可以打断目标红外图像80在增强现实组件30的呈现,然后单独呈现预设时长,取值可以预先合理设定,或者,可视化导航指示89也可以与目标红外图像80在增强现实组件30堆叠呈现,即增强现实组件30同时呈现可视化导航指示89和目标红外图像80。
可见,通过进一步引入的轨迹导航机制,可以便于营救工作的统筹规划,并且有助于提升营救效率。可穿戴护具还可以具有语音通话组件,通过无线通信组件71与远程服务端900的语音交互,可以有助于指挥目标对象精准施救,并在可能发生危险时及时通知目标对象紧急撤离。例如,通过实时空间位置信息和以此确定的移动轨迹,指挥人员可以实时掌握目标对象的当前位置和移动趋势,基于在灾难环境外通过其他途径额外获取到的辅助信息,指挥人员可以通过语音有针对性地指导灾难环境内的目标对象精准进行营救工作,而不是盲目指挥。
另外,该实施例中的可穿戴护具还可以实现呼吸保护机制,以在环境气体不利于、甚至阻碍目标对象呼吸时提供警示。
图10为如图1所示的可穿戴护具的呼吸保护机制的示意图。请参见图10,该实施例中的可穿戴护具可以进一步包括气体探测组件75,该气体探测组件75可以用于探测可穿戴护具所处环境中的气体成分参数,并且,处理组件500可以进一步用于根据气体探测组件75探测的气体成分参数,生成呼吸警示信息87,并将生成的呼吸警示信息87向增强现实组件30发送;增强现实组件30进一步用于呈现呼吸警示信息87,其中,该呼吸警示信息87至少包括用于表示可穿戴护具所处环境中存在危险气体的信息内容,例如,一氧化碳的含量达到某个数值、氧气含量过低、气体中含有易燃易爆成分等,并且,该呼吸警示信息87还可以包括例如感叹号等警示符号。
例如,处理组件500可以检测气体探测组件75探测的气体成分参数,并且,处理组件500可以响应于检测到的具有预设的危险配比的气体成分参数(例如气体中的有毒气体或二氧化碳的浓度超标),生成呼吸警示信息87;该呼吸警示信息87可以打断(例如以持续预设时长的方式打断)目标红外图像80在增强现实组件30的呈现,或者,呼吸警示信息87也可以与目标红外图像80在增强现实组件30叠加呈现。
处理组件500还可以将具有危险配比的气体成分参数通过无线通信组件71远程传输至远程服务端,以便远程服务端对救援工作做出下一步决策及指示,防止出现由于对现场环境未知而作出错误指示造成更大的灾难。
图11为如图1所示的可穿戴护具的实例结构的立体图。图12为如图11所示实例结构的分解状态示意图。为了更直观地理解可穿戴护具的物理形态,在图11和图12中提供了一种实例结构,应当可以理解的是,可穿戴护具的物理形态并不局限于该实例结构。
请参见图11并同时结合图12,可穿戴护具的实例结构可以包括面罩10,该面罩10具有呼吸防护组件20。作为一种优选方式,呼吸防护组件20可以包括具有气路切换开关的呼吸阀,该气路切换开关可以将呼吸阀可选择地与可穿戴护具所处环境中的大气连通、或与储气瓶连通,例如,气路切换开关在关的状态下,可以将呼吸阀与可穿戴护具所处环境中的大气连通,气路切换开关在开的状态下,可以将呼吸阀与储气瓶连通;反之也可以。在此情况下,如图10所示的呼吸警示信息87中还可以包括用于提示将呼吸阀与储气瓶连通的可视化提示信息,以提示目标对象手动执行呼吸阀的切换。其中,储气瓶可以由目标对象随身携带,气路切换开关的可选择的连通可以通过自动或手动方式的触发。
或者,呼吸阀的切换也可以由处理组件500自动触发,即,处理组件500可以进一步用于:根据气体探测组件75探测的气体成分参数,生成呼吸切换指令,并向呼吸阀发送;呼吸阀进一步用于:根据呼吸切换指令,确定连通状态,其中,呼吸阀的连通状态包括与可穿戴护具所处环境中的大气连通的状态,或者与储气瓶连通的状态。由此,当环境气体含量威胁到目标对象的健康甚至生命安全时,通过切换呼吸阀的连通对象,可以保障目标对象的健康及安全。
处理组件500进一步用于:根据储气瓶中的气体剩余量(例如氧气存量),生成气体剩余量提示信息,并向增强现实组件30发送;增强现实组件进一步用于:呈现气体剩余量提示信息。例如,处理组件500可以从储气瓶的气压监测组件获取到的当前瓶内压力,确定储气瓶的当前气体剩余量,并生成气体剩余量提示信息,若储气瓶的当前气体剩余量低于预设的存量阈值,处理组件500还可以进一步生成警示提醒信息,例如在增强现实组件30中呈现,或者以声音形式反馈给目标对象,以使得目标对象及时退出灾难场景。
该面罩10至少在呼吸防护组件20的上方具有透光区域,增强现实组件30可以在覆盖透光区域的位置处装设于面罩10内。可穿戴护具的实例结构可以包括第一外挂盒50,该第一外挂盒50挂接安装在面罩10的第一侧边之外,其中,红外探测组件51、距离探测组件53、亮度探测组件55以及模式切换开关57均可以装设在该第一外挂盒50的前迎面。可穿戴护具的实例结构还可以包括第二外挂盒70,该第二外挂盒70挂接安装在面罩10的与第一侧边相反的第二侧边之外,其中,无线通信组件71装设在该第二外挂盒70的顶端,位置感应组件73和气体探测组件75可以容纳在第二外挂盒70的内部,并且,第二外挂盒70的前迎面具有通气空隙750,该通气空袭750被布置为与呼吸防护组件20相邻、并与气体探测组件75的感应端连通。
处理组件500可以容纳在第一外挂盒50的内部,并与红外探测组件51、距离探测组件53、亮度探测组件55以及模式切换开关57电连接,并且,容纳在第一外挂盒50中的处理组件500还可以与装设于第二外挂盒70的无线通信组件71、位置感应组件73和气体探测组件75跨腔通信。或者,处理组件500也可以容纳在第二外挂盒70的内部,并与装设于第二外挂盒70的无线通信组件71、位置感应组件73和气体探测组件75电连接,并且,容纳在第二外挂盒70中的处理组件可以与装设于第一外挂盒50的红外探测组件51、距离探测组件53、亮度探测组件55以及模式切换开关57跨腔通信。
另外,从图12可以清楚地看出,增强现实组件30、红外探测组件51、距离探测组件53、亮度探测组件55、模式切换开关57、无线通信组件71、位置感应组件73和气体探测组件75都可以与带有呼吸防护组件20的面罩10分离,因此,该实施例中的可穿戴护具也可以是不包含面罩10、但能够可拆卸地装设于面罩10的附属配件的形态。
图13为另一个实施例中用于可穿戴护具的场景呈现方法的示例性流程示意图。请参见图13,该场景呈现方法的示例性流程可以适用于前述实施例中的可穿戴护具的处理组件执行,并且,以下实施例中未详细解释的内容,可以参考上述实施例中的解释。该场景呈现方法可以包括:
S1310:获取红外探测组件输出的真实场景的红外图像,其中,红外探测组件的成像视场角对应的视野与增强现实组件的光学视场角对应的视野同向交叠,增强现实组件用于供目标对象观察真实场景,并且,光学视场角为目标对象透过增强现实组件观察真实场景的视场角。
S1330:基于红外探测组件的成像视场角与增强现实组件的光学视场角之间的转换,对红外图像进行处理,得到与增强现实组件的光学视场角匹配的目标红外图像。
在一种可选实施方式中,本步骤可以具体包括:基于红外探测组件的成像视场角与增强现实组件的光学视场角之间的转换关系,对红外图像进行处理,得到与增强现实组件的光学视场角匹配的目标红外图像,其中,转换关系至少用于定义红外探测组件的成像视场角与增强现实组件的光学视场角的差异对应的红外图像裁剪尺寸。
在另一种可选实施方式中,本步骤可以具体包括:确定真实场景中的标定基准对象;基于确定的标定基准对象相对可穿戴护具的距离与可穿戴护具的预设标定距离的差值,对红外探测组件的成像视场角与增强现实组件的光学视场角之间预先确定的标定转换关系进行校准,得到校准转换关系;基于校准转换关系,对红外图像进行处理,得到与增强现实组件的光学视场角匹配的目标红外图像。
无论是哪一种方式,红外探测组件的成像视场角与增强现实组件的光学视场角之间的转换,都可以通过对红外图像的剪裁来实现。具体地,红外图像的边缘部分可以被剪裁,以使得目标红外图像具有与增强现实组件的光学视场角匹配的图像整体尺寸,并且,目标红外图像中的场景目标并没有因为图像压缩而发生不恰当的变形或偏移。
S1350:将目标红外图像发送至增强现实组件,以供增强现实组件呈现目标红外图像,增强现实组件还用于使得目标红外图像中存在的场景目标与真实场景中的场景目标的位姿对应。
基于上述流程,若可穿戴护具具有用于供目标对象观察真实场景的增强现实组件以及用于输出真实场景的红外图像的红外探测组件,则,红外探测组件通过感知真实场景中的场景目标的温度而输出的红外图像,可以被转换为与增强现实组件的光学视场角匹配的目标红外图像,因此,增强现实组件通过呈现转换得到的目标红外图像,可以增强真实场景在目标对象视野中的正确再现,从而,可以强化真实场景(例如火灾等灾难场景)的视觉辨识度,进而有助于缓解甚至消除真实场景难以被清楚获知的困扰。
在执行如图13所示流程的期间内,为了确保目标红外图像能够在环境温差处于不同程度时都能最大限度地清晰呈现,目标红外图像的图像类型可以根据环境亮度而被可切换地确定为热图像或灰度图像。具体地,该实施例中的场景呈现方法可以进一步包括:生成目标红外图像的图像呈现类型的切换指令,并发送至增强现实组件,增强现实组件进一步用于按照与切换指令对应的图像呈现类型,呈现目标红外图像,其中,图像呈现类型包括热图像类型或灰度图像类型。
生成目标红外图像的图像呈现类型的切换指令的方式,可以具体包括:
根据真实场景的温度信息,生成切换指令,例如,根据真实场景中的场景目标的温度信息,确定真实场景中的场景目标之间的温差,并根据场景目标之间的温差生成切换指令,并且,真实场景的温度信息可以从红外图像中获取到;
或者,根据目标红外图像的图像呈现类型的切换请求,生成切换指令;切换请求是模式切换开关响应外界触控操作而生成。
在执行如图13所示流程的期间内,为了避免目标红外图像的呈现由于环境过亮而不易分辨、或由于环境过暗而对目标对象产生视觉刺激,增强现实组件的背光亮度,可以是根据探测到的真实场景(尤其是增强现实组件的光学视场角对应的视野内)的环境亮度确定的。具体地,该实施例中的场景呈现方法可以进一步包括:获取真实场景中(尤其是增强现实组件的光学视场角对应的视野内)的环境亮度,根据获取到的环境亮度生成背光亮度调节指令,并发送至增强现实组件,增强现实组件进一步用于根据背光亮度调节指令,调节背光亮度,以基于调节之后的背光亮度呈现目标红外图像。例如,真实场景中的环境亮度可以从可穿戴护具进一步包括的亮度探测组件获取。
为了在目标红外图像中突显场景目标,该实施例中的场景呈现方法可以进一步包括:对出现在目标红外图像中的场景目标的轮廓进行增强处理,使得在场景目标的轮廓在增强现实组件呈现的目标红外图像中被增强显示。
若在执行如图13所示操作过程中还能够实时探测场景目标相对于可穿戴护具的距离,则,该实施例中的场景呈现方法可以进一步包括:获取在真实场景中探测到的场景目标相对于可穿戴护具的距离,将探测到的距离与场景目标进行关联处理,并将关联处理结果发送至增强现实组件,增强现实组件可以进一步用于基于关联处理结果,将在真实场景中探测到的距离与场景目标进行关联呈现。例如,场景目标相对于可穿戴护具的距离可以从可穿戴护具进一步包括的距离探测组件获取。
例如,基于获取的距离生成距离信息呈现指令或表示该距离的距离数据,并将距离信息呈现指令或距离数据作为关联处理结果发送至增强现实组件,以使增强现实组件进一步基于距离信息呈现指令或距离数据,将场景目标与该距离进行关联呈现;或者,在目标红外图像中添加获取到的距离,并在执行S1350时将添加了该距离的目标红外图像作为关联处理结果发送给增强现实组件。
可选地,该实施例中的场景呈现方法还可以实现可穿戴护具的位置实时上报。具体地,该实施例中的场景呈现方法可以进一步包括:获取可穿戴护具的空间位置信息,将获取到的空间位置信息远程传输(例如通过可穿戴护具进一步包括的无线通信组件远程传输),以供远程服务端利用该空间位置信息维护可穿戴护具的移动轨迹,该供远程服务端还用于将基于该移动轨迹产生的可视化导航指示呈现于在后可穿戴护具中,其中,在后可穿戴护具的开始移动时间晚于该可穿戴护具的开始移动时间。
可选地,该实施例中的场景呈现方法还可以实现可视化导航指示。具体地,该实施例中的场景呈现方法可以进一步包括:呈现指引行进方向的可视化导航指示。其中,该可视化导航指示可以是基于远程服务端维护的移动轨迹产生的,或者,也可以是基于灾难场景的地图或其他方式产生的;对可视化导航指示的获取,可以是通过对远程传输的监听而实时获取的,并且,可视化导航指示可以打断(例如以持续预设时长的方式打断)目标红外图像在增强现实组件的呈现,或者,也可以与目标红外图像在增强现实组件叠加呈现。
另外,在执行如图13所示流程的期间内,该实施例中的场景呈现方法还可以进一步包括:根据可穿戴护具所处环境中的气体成分参数生成呼吸切换指令,并向呼吸阀发送,呼吸阀用于根据呼吸切换指令确定连通状态,其中,连通状态包括与可穿戴护具所处环境中的大气连通的状态,或者与储气瓶连通的状态。若可穿戴护具进一步包括用于探测可穿戴护具所处环境中的气体成分参数的气体探测组件,则气体成分参数可以从气体探测组件获取。在此基础上,该实施例中的场景呈现方法还可以进一步包括:根据气体成分参数生成呼吸警示信息,并向增强现实组件发送,增强现实组件用于呈现呼吸警示信息,其中,该呼吸警示信息包括用于表示可穿戴护具所处环境中存在危险气体的信息内容;或者,该实施例中的场景呈现方法可以进一步包括:根据储气瓶中的气体剩余量,生成气体剩余量提示信息,并向增强现实组件发送,增强现实组件用于呈现气体剩余量提示信息。
上述方法实施例提供的技术方案与上述产品实施例提供的技术方案属于相同的发明构思,方法实施例中未详细解释的内容,可以参考上述产品实施例中的解释,并可以实现产品实施例中记载的相应有益效果。
在另一个实施例中,还提供了一种非瞬时计算机可读存储介质,该非瞬时计算机可读存储介质存储指令,这些指令包括用于引发处理器(或处理组件)执行上述实施例中提供的任意可用于可穿戴护具的场景呈现方法,关于方法的描述可以参见上述实施例中的描述。该非瞬时计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
- 上一篇:石墨接头机器人自动装卡簧、装栓机
- 下一篇:提升HDR图像质量的方法和装置