美国研发新工具可量化AI算法的可信度

2021-03-29 15:27:07
导读 据外媒报道,美国南加州大学维特比工程学院(USC Viterbi Engineering)的研究人员研发了一种新工具,如果AI算法生成的数据和预测信息是可

据外媒报道,美国南加州大学维特比工程学院(USC Viterbi Engineering)的研究人员研发了一种新工具,如果AI算法生成的数据和预测信息是可靠的,该工具可以自动生成指标。

神经网络是一种人工智能(AI)技术,能够模仿大脑并产生预测信息。但是,此类神经网络产生的预测真的可信吗?自动驾驶汽车普及的一个关键障碍是,汽车需要在自动驾驶时作为独立的决策者,并快速理解和识别路上的物体,无论该物体是减速带、无生命物体、宠物还是孩子,并且在遇到另一辆车时,其需要决定如何采取行动避开其他车辆。汽车是否应该撞上迎面驶来的车辆、或者撞上无生命的物体或儿童?我们能够信任车载计算机软件可以在几分之一秒内做出正确决定吗?特别是当不同的传感器给出相互冲突的信息时,如摄像头的计算机视觉信息或激光雷达的数据?知道哪个系统值得信任,哪个传感系统最准确,将有助于确定自动驾驶系统应该做出什么决定。

于是,研究人员们打造了一个名为DeepTrust的工具,可以将不确定性进行量化,从而确定是否需要人工干预。

研发该款工具花费了南加州大学研究团队近两年的时间,他们利用主观逻辑来评估该神经网络架构。此外,在2016年总统大选的民调中,DeepTrust发现,指向希拉里获胜的预测有更大的误差率。

该项研究的另一个重要意义是,为如何测试AI算法的可靠性提供了见解,因为此类算法通常需要在成千上万个数据点上进行训练。如果去检查此类指示AI预测的数据点是否进行了准确标记将非常耗时。研究人员表示,更重要的是,此类神经网络系统的架构将具有更高的精确度。此外,如果计算机科学家想要同时将准确性和信任度实现最大化,该项研究也可以作为测试样本中有多少“噪音”的路标。

研究人员还认为,他们研发的模型是首创。“据我们所知,目前还没有用于量化深度学习、人工智能和机器学习信任度的模型或工具。作为首个方法,该工具开辟了新的研究方向,能够让AI具有感知能力和适应性。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。