
智能汽车:自动化意外下的AR-HUD界面的探讨
自动驾驶系统被认为是未来交通的主要方式,因为它有可能有能力减少人为失误,可实现更高效和更舒适的交通。因此,需要设计一个界面,确保人类操作员的态势感知,以减少混乱、错误的预期和对自动系统的过度依赖。当人类操作员驾驶时,需要自动化系统处理人类无法处理的麻烦情况。因此,需要一个界面在必要时提供适当的信息,以便人类操作人员能够很容易地察觉到突然进行自动干预的原因。在这项研究中,重点介绍了这样一个场景,其中模拟的自动干预避免了与突然出现在路边的行人的潜在碰撞。为了向驾驶员传达自动干预的原因,开发了一个以行人为目标的基于增强现实的平视显示器(AR-HUD)提示。为了了解AR-HUD提示对人类操作员识别行人的速度的影响,以及这种视觉提示对感知的可接受性和对自动干预可信度的影响,我们将AR-HUD与在挡风玻璃底部显示行人符号的静态平视显示器(S-HUD)进行了比较。结果表明,AR-HUD提示能够更快地识别目标行人,并提供相对更容易接受的自动干预感知。
简介
自动驾驶汽车被视为交通的未来方向,它将减少人为失误,挽救数百万人的生命,同时提供更节能、更舒适、更方便的交通方式。美国国家公路交通安全管理局定义了汽车自动驾驶的六个级别。0级--由人类驾驶员单独驾驶;1级--特定功能的自动化;2级--同时具有自动化的综合功能,目前最先进的水平;3级--有限的自动驾驶,其中司机需要准备好在任何时候接管车辆控制权,4级--在某些情况下完全自动驾驶;5级--在所有情况下的完全自动驾驶,人类只是乘客,不需要参与驾驶。在这些级别中,第3级具有重要的意义,因为它有望在下一代汽车中得以实现。
近年来,一些科技企业在3级测试了他们的自动驾驶系统,以期在不久的将来完成完全自动驾驶的最终目标。不幸的是,在2018年3月,一辆自动驾驶的Uber汽车在测试中撞到了一名行人。美国国家运输安全委员会(NTSB)报告称,事故发生的原因之一是,虽然系统在碰撞前有足够的时间检测到过路行人,但车辆操作员没有足够的时间发现并对过路行人作出反应。这是对自动化过分自信的典型效果,导致无法避免冲突。这一事件表明,人机界面(HMI)的设计和功能至关重要,需要确保人类操作者和自动化系统以安全的方式进行协作。人类驾驶员与自动化系统之间的相互理解,确保了人类驾驶员在正确的时间获得适量的驾驶相关信息,从而建立准确的态势感知。这样的相互理解,对于可接受的和舒适的操作,适当地校准信任是必不可少的。自动化系统与人类驾驶员对对方操作的误解,有可能导致错误的预期以及对系统能力的过度依赖。反之,如果人类驾驶员对系统能力信任不足,他们可能会拒绝购买或使用这些系统。
“自动化意外”的定义是自动化系统的行为与驾驶员的期望不一致。Hurts等人提到,自动化意外可能会在操作人员意识到它的存在之前就发生了。自动化惊喜也可以指一种积极的现象,即系统以一种司机意想不到的方式控制了局面。然而,即使自动化意外是为了处理意外情况而发生的,但重要的是要尽量减少自动化意外,并使驾驶员适应自动化系统的行动过程,以保持其可接受性和可信性。为了减少自动化的意外操作,系统应该及时提供意外行为的原因,以便操作者能够理解这种情况并调整对系统的信任。因此,设计一个人机界面非常重要,它能够提供与意外情况相对应的驾驶相关信息,并以一种人类操作人员能够及时理解的方式,呈现自动化系统的相应行为。
图1 (a)(S-HUD)和(b)(AR-HUD)的设计
当驾驶员注视前方时,仍然可以在视觉上接收到80%与驾驶有关的信息,有助于安全驾驶。如果驾驶相关信息与真实环境相匹配,符合人类驾驶员的视角,那么驾驶员就能自然识别信息,集中注意力不受干扰地驾驶。实现这一目标的方法之一是平视显示器(HUD)。HUD通过将驾驶相关信息的视觉提示投射到挡风玻璃上,来减少司机眼睛离开道路的频率和时间。与头朝下显示相比,HUDs对意外道路事件的反应时间更短,横向加速度和方向盘角度的差异也更小。基于HUD的界面通过适当的静态视觉提示提供直观的信息,呈现在驾驶员的外部视野附近。然而,他们已经证明了心理负荷的增加,这表现在高工作负荷情况下的反应时间更长。HUD的另一个限制是潜在的杂波,它可能会干扰全景图中其他物体的可视化。一项试点研究表明,静态视觉提示增加了检测障碍物的反应时间,这可能是由静态线索的非一致性造成的。此外,在现实环境中,通过使用静态提示来提示不太显眼的物体可能不容易被司机注意到,有可能造成致命的伤害。
先前的研究已经确定,与未强调的目标相比,当明确指出目标时,受试者会更快地注意到目标。在此,一个可以加强HUD技术的使用以呈现驾驶相关信息的策略是使用增强现实的HUD(AR)。AR指的是视线中真实和人工元素的结合,目的是突出重要的物体来更好的帮助人类。研究表明,在航空视觉搜索任务中,当目标物不显眼时,通过提示目标物可以提高检测精度。此外,研究表明,AR可以提醒司机并引导他们注意危险情况。
因此,本文认为,与使用静态 HUD (S-HUD) 相比,使用基于 AR 的 HUD (AR-HUD) 通过视觉提示来传达驾驶相关信息可以增强态势感知并缩短驾驶员的响应时间。
因为信息呈现的时间反映了系统的行为和能力,它必须与驾驶员的期望相一致; 否则,可能会导致司机信任度的降低。先前的研究表明警报及时性对信任的有效性。考虑到这一点,不仅信息呈现的时机至关重要,而且与信息有关的驾驶员的识别时机也很重要。然而,对识别时机及其与可接受性和信任的关系的调查却很少。在这项研究中,我们专注于这样一个场景:模拟自动驾驶系统突然干预手动驾驶,以避免与意外出现在路边的行人发生潜在的碰撞。为了减少自动化的意外,提高对突如其来的自动干预的可接受性,及时向司机传达与驾驶有关的信息是很重要的。参考文献[21]重点论述了HMI中对最小化操作意外的四个重要品质: 可观察性、可预测性、可指导性和永恒性。本文相信,一个精心设计的、与AR-HUD设计属性相配合的HMI页面会反映出这些品质。因此,人们会更快地理解自动化系统意外操纵的原因,从而产生更可接受和可信的认知。在本文中,展示了在这种情况下 AR-HUD 提示和 S-HUD 提示之间的比较。这一比较的结果表明,基于AR-HUD的界面在提供及时识别方面更胜一筹。相应地,它可能有助于更好地评估自动化干预的可接受性和可信度。
方法
A.基于增强现实的平视显示器(AR-HUD)和静态平视显示器(S-HUD)提示的设计
以前的研究利用行人象形图或主警报作为 S-HUD 提示,以提高驾驶员对行人的意识。
图2 驾驶模拟器和实验环境
图3 图中描述了实验场景。自动干预是随着行人的出现和人机界面的开始而发生的。
与 AR-HUD 相关的研究使用矩形或菱形虚线。在本研究中,设计了 S-HUD 和 AR-HUD 提示来指示道路上的行人,这就是自动干预的原因。S-HUD的设计采用了行人象形图,显示了行人在道路上的位置 (Fig. I(a))。相反,对于AR-HUD提示,我们通过使用Blender软件(2.79b版)设计了一个半径为0.5米的圆柱体,向上和向下移动0.5米。AR-HUD的线索直接放在行人身上(Fig. I(b))。两个线索(行人象形图和圆柱体)选择橙色,以传达警告而不是紧急情况。我们利用驾驶模拟软件的设置将视觉提示放在屏幕上的适当位置。
B.假设
人类操作者和自动系统之间的相互理解对于设计良好的人机界面建立准确的态势感知非重要,这样司机就能理解系统的行动,这可能会减少自动化的意外,并增加使用意愿和对信任的系统。这种人机界面的设计应包括多种模式,如视觉、听觉和触觉提示。作为这项研究的第一步,我们专注于设计视觉提示,并探索人类操作员对视觉提示和自动干预的客观和主观反应以及印象。
我们假设AR-HUD提示会使驾驶者以比S-HUD提示更短的反应时间识别潜在障碍物的目标。此外,由于人类操作者会更快地识别目标,自动干预的原因在AR-HUD的提示下会被更快地理解,从而产生一个更可接受和可信的感知。我们还假设,由于AR-HUD界面的明确和动态设计,它将提供比S-HUD界面更好的用户体验。
C.实验设置
UC-win/Road程序(第13版)1作为模拟软件,同时使用了5台显示器、可调节的驾驶座、方向盘、刹车和加速器 (图2)。模拟汽车的最大速度被设定为50公里/小时。我们用AR-HUD和S-HUD的提示在同一驾驶路线上考察了两种实验条件。
在AR-HUD条件下,当汽车在50米外时,AR-HUD的提示出现在行人身上。这条提示在行人身上是可见的,直到汽车超过他。在S- HUD条件下,当汽车离行人50米远时,S-HUD提示位于屏幕的下侧,并且该提示在汽车经过行人之前是可见的。
实验过程中的路线是5公里;此外,参与者被要求以大约40公里/小时的速度驾驶。参与者开始以手动模式驾驶汽车4.5公里,自动干预场景发生在路线终点前0.5公里的距离。这时,一个行人突然出现在道路的左侧; 同时,最初处于手动模式的模拟汽车自动干预,手动模式被改为自动模式,汽车在行人面前50米处向右变道 (图3)。同时,随着行人的出现和自动干预的开始,人机界面的提示被显示出来。其余的行程在自动模式下完成,速度为40公里/小时。在干预前和干预过程中,都没有向受试者提供关于干预目的的其他信息。
在实验中,将场景的时间设定为日落之前,此时物体的能见度相对较低。沿着道路,我们还在人行道上放置了一群行人,并在道路的右侧放置了一个施工场景,以分散司机对目标行人的注意力。因此,我们防止了潜在的天花板效应,这种效应可能是由上述两种情况下容易观察到的目标造成的。在实验中,为了跟踪和评估参与者的视觉注意力以及他们对目标行人的识别时间,我们使用了Tobii专业眼镜眼球追踪器。
图4 图中描述了AR-HUD和S-HUD条件下两个参与者的视线转移的差异有关的例子
图5 在AR-HUD和S-HUD条件下参与者的识别时间比较(***:P<0.001)。
D.流程
我们的实验是在36名参与者(10名女性,26名男性)身上进行的,年龄从21岁到54岁不等(平均(M)=34.638,标准差(SD)=11.293)。我们进行了一项跨主体研究,以避免学习效应的影响。所有参与者都拥有有效的驾驶执照。参与者被随机分为两组,分别为19名和17名成员,分别应用AR-HUD和S-HUD条件。到达后,对参与者关于实验进行了的简要解释。在开始实验之前,参与者进行了5分钟的练习,以使他们习惯于驾驶模拟器。练习课是在与实验中不同的道路上进行的。在练习过程中,参与者手动使用模拟汽车并接触到自动干预。练习课后,实验课开始了。
实验课程结束后,参与者被要求完成三份调查问卷: 用于评估基于AR-HUD或S-HUD的视觉提示的自动干预的接受度问卷,用于评估自动干预的来源可信度问卷,以及用于评估视觉提示的用户体验问卷。
实验是在获得名古屋大学伦理委员会的批准后进行的。
结果
由于数据准确性低,客观和主观数据分析中分别省略了来自 AR-HUD 和 S-HUD 条件下的两名参与者和一名参与者的数据。在分析中,我们将“响应时间”定义为从 HMI 开始到参与者第一次观察到突然出现在路边的行人之间的时间间隔。
完成实验条件的平均时间为 6 分 46 秒(SD = 1 分 0 秒)。此外,在自动干预和 HMI 启动之前参与者的平均速度为 39.218 公里/小时(SD = 8.142)。
A.眼球注视数据分析
分析表明,在AR-HUD条件下,两名参与者的目光在行人和视觉提示出现之前已经在目标行人的区域。我们将这两个参与者的响应时间重新定义为其他参与者的最短三个响应时间的平均值。此外,在S-HUD条件下,三名参与者的目光完全没有与行人对齐。因此,这三名参与者的反应时间被重新表述为其余参与者的三个最长反应时间的平均值。经过这些修改后,我们进行了双样本t-检验。结果显示,在AR-HUD情况下,参与者的注意力在HMI开始后明显比在S-HUD情况下更快地转移到行人身上,P<0.05水平。(t(15)=4.825,p=0.0001)。
与S-HUD条件相比,AR-HUD条件下有关Q4和Q13的评分明显较高(t(31) = 1.708, p = 0.048和t(31) = 2.753, p = 0.004,分别)。参与者的注视模式显示,在AR-HUD条件下,
图6 接受度调查问卷的结果显示,Q4和Q13有显著差异。(***:P<0.001,**:P<0.01,*:P<0.05)
表1 接受调查问卷的项目中三个是基于抬头显示的提示,两个项目是基于自动干预,六个项目是基于自动干预和抬头显示提示的兼容性。
参与者在HMI开始后以更少的步骤识别目标行 (图4-(a))。然而,在 S-HUD 案例中,注视模式显示,参与者在注视 S-HUD 提示后注意到了目标行人,然后经过几步注视后,他们将视线转移到目标行人身上 (图4-(b))。
综合考虑,这些结果表明,基于AR-HUD的视觉提示在识别道路上的目标行人方面实现了更短的反应时间。
B.主观评估
表2 在AR-HUD和S-HUD条件下,反应时间和接受度问卷调查项目(左)、来源可信度评估因素(右上)和用户体验问卷调查(右下)之间的相关性。
问卷回答采用七点李克特量表评分:7(非常同意),6(基本同意),5(同意),4(中立),3(不同意),2(基本不同意),和1(强烈不同意)。我们应用双样本t检验来揭示两种条件下的问卷项目结果的差异。结果显示,Q4和Q13在两种条件下存在显著差异 (图6)。实验还检查了接受度调查表项目与两种条件下的反应时间值之间的相关性。对于AR-HUD条件,我们发现显著的相关关系是强烈的负相关(r(16)=-0.691,p=0.003)和中度负相关(r(16)=-0.621,p=0.01;r(16)=-0.546,p=0.028和r(16)=-0.543,p=0.029),分别在反应时间值和Q1,Q2,Q12和Q13之间。对于S-HUD条件,我们发现反应时间和Q7之间有显著的中度负相关(r(15)=-0.589,p =0.016) (表2左)。
2) 自动干预的可信度: 来源可信度评估项目也以七点李克特量表进行评分。双样本t检验的结果显示,在能力、关怀和信任等因素方面,AR-HUD和S-HUD条件之间没有统计学上的显著差异(图7),P<0.05。然而,当我们检查每个条件的反应时间和可信度因素之间的相关性时,我们观察到在AR-HUD条件下,反应时间和能力(r(17)=-0.531,p=0.034)、关怀/善意(r(17)=-0.564,p=0.022)和可信度(r(17)=-0.637,p=0.007)因素之间存在明显的中等负相关关系。
1) 对人机界面(HMI)提示的自动干预的接受程度: 自动干预的接受度调查表由14个问题组成,其中最后一个是开放性问题 (表1)。
此外,我们观察到在S-HUD条件下,反应时间和关怀/善 意因素之间存在显著的中度负相关(r(17) = -0.548, p = 0.027) (表2右上 )。
3)人机界面提示的用户体验质量:用户体验调查问卷的项目再次以七点李克特量表的形式进行评分。
图7 来源于可信度评估的结果
双样本t检验的结果显示,在P<0.05的水平上,吸引力、敏锐性、效率、可依赖性、刺激性或新颖性等因素没有统计上的显著差异。(图8)。然而,我们观察到,在AR-HUD条件下,反应时间和效率因素之间存在适度的负相关(r(17) = -0.564, p = 0.022) (表2右下)。
用户意见和反馈: 参与者主要抱怨转向操作困难。一位参与者评论说,她无法充分注意道路,因为她正在集中精力于准确驾驶。参与者的意见主要是关于预警系统的不足。三位来自AR-HUD组的参与者和一位来自S-HUD组的参与者表示,他们希望在视觉提示的同时有一个音频警告。AR-HUD组的两名参与者和S-HUD组的四名参与者表示,他们对自动系统的突然干预感到惊讶和恐惧。三位参与者表示,当汽车改变车道而不提供任何安全确认时,他们没有安全感;因此,他们倾向于让汽车停下来。一位参与者报告说,自动系统的驾驶方法与参与者的方法不一致。此外,三名参与者表示,他们无法了解是他们还是自动系统正在驾驶。
讨论
在这项研究中,我们比较了基于AR-HUD和S-HUD的视觉提示对人类操作者的影响,以避免与突然出现在路边的行人发生潜在碰撞。结果显示,基于AR-HUD的视觉提示提供了明显更短的行人识别时间 ,鼓励人类操作者对自动干预表现出略微更好的感知力。在驾驶时,唤起空间注意力使驾驶员能够通过对视野内的区域进行优先排序来选择性地处理视觉信息。研究表明,当空间注意被唤起时,
图8 用户体验调查问卷结果
观察者在检测出现在预期位置的目标时,通常比出现在意外位置的目标更快、更准确。根据 "聚光灯比喻",注意力的焦点类似于聚光灯的光束。可移动的聚光灯对准一个地方,其光束内的一切都会被注意到并优先处理,而光束外的信息则无人问津。我们发现,通过利用AR-HUD线索将人类操作者的注意力转移到一个特定的位置,可以更快地识别行人,这也支持这一理论。此外,主观评价的结果(Q13)支持我们的客观结论,即人类操作者意识到他们可以很容易地识别目标。此外,在AR-HUD条件下,参与者的注视模式在注意到目标行人之前表现出较少的转变,这一迹象证实了我们的假设 (图4)。基于这些发现,我们可以推断,当目标被明确和动态地指示而不是隐式和静态地指示在挡风玻璃上时,人类操作员可以更快地识别目标。
我们还假设,随着对目标的快速识别,参与者对自动干预的接受程度会更高,当使用基于AR-HUD的视觉提示时,预计会对自动系统给予更多的信任。在AR-HUD条件下,识别时间和接受度问卷中的三个问题(Q1、Q2、Q12和Q13)之间的负相关关系表明,随着识别时间的减少,对目标的识别感知也在提高。这些结果可能与自动系统的可信度认知密切相关。最近的研究结果表明,当一个系统更加透明并提供其行为的原因时,那么用户可能会对该系统更加宽容和更易接受,即使该系统的行为被认为是不好的。在此,尽管可信度分析的结果没有显示出AR-HUD和S-HUD条件下的显著差异,但我们可以从相关结果中推断出,人类操作员对自动系统可信度的感知可能取决于他们识别系统行为原因的速度。自动干预被普遍认为是突然的,对两种情况的参与者都造成了不满。
因此,Q9的评分相当低,可能表明对自动系统的这种不愉快的看法; 此外,与我们的预期不同,AR-HUD 并不能有效地增强这种感知,尽管它可以更快地识别目标。其中一个原因可能是界面的模式不足,正如某些参与者的评论所指出的。由于这些类型的突然干预,换句话说,自动化的意外,可能会在未来真正的自动驾驶汽车的真实场景中发生,因此,除了基于HUD的提示外,还必须通过其他方式,如音频或触觉提示,通过其他方式来减轻人类操作员的不愉快的感觉非常重要。
限制因素: 这个实验是使用驾驶模拟器和基于HUD的二维视觉提示进行的。由于对AR和HUD技术的不同深度感知,这项研究的结果可能会发生变化。此外,本研究中使用的参与者数量相对较少。尽管如此,我们的发现表明,这两个基于HUD的提示值得进一步调查。未来的研究将受益于更大的样本量和对AR-HUD和S-HUD的更现实的应用,因为我们这个微不足道的实验提出了这样的可能性:一些不显著的因素可能有某些我们无法检测的影响。
总结
在本文中,我们证明了基于AR-HUD的视觉提示可以提供更快的响应时间,并促进人类操作员识别潜在的障碍物。结果还显示,随着识别时间的缩短,自动系统的可信度可能会提高。在考虑设计一个在意外的自动干预过程中更可接受和可信的界面时,据推测,只使用视觉提示可能无法在系统和人类操作者之间提供足够的理解。在未来的研究中,我们将研究不同的模式和它们的组合,以支持和满足人类操作员更好的自动驾驶体验。
文章转载自公众号:智能汽车开发者平台
