物理科技生物学-PHYICA

研究人员对人工智能进行心理宋茜机场排队被怼图片分析

技术工程 2022-01-20 21:54:19

aiCredit:pix abay/CC0 Public Domain我们并不确切知道人工智能(AI)的“大脑”内部正在发生什么,因此我们无法准确预测其动作。我们可以运行测试和实验,但是我们不能总是预测和理解为什么人工智能会做它做的事情。就像人类一样,人工智能的发展是基于经验的(就人工智能而言,是以数据的形式)。这就是为什么人工智能的行为方式有时会让我们大吃一惊,并且有无数个人工智能表现出性别歧视、种族歧视或不恰当的例子。

“仅仅因为我们可以开发一种算法,让人工智能在数据中找到模式,以最好地解决一项任务,并不意味着我们理解它找到了什么模式。因此,即使我们已经创造了它,这并不意味着我们知道它,”DTU计算机公司的索伦·豪伯格教授说。

一个叫做黑箱问题的悖论。这一方面根植于人工智能的自我学习本质,另一方面是因为迄今为止,还无法深入研究人工智能的“大脑”,看看它如何处理数据,以形成其学习的基础。

如果我们能发现人工智能使用什么数据以及如何工作,它将对应于考试和精神分析之间的某种东西——换句话说,一种更好地了解人工智能的系统方法。到目前为止,这是不可能的,但现在索伦·豪伯格和他的同事已经开发了一种基于经典几何的方法,这使得人们有可能看到人工智能是如何形成其“个性”的。

凌乱的大脑

它需要非常大的数据集来教机器人抓、扔、推、拉、走、跳、开门等等。,而人工智能只使用使其能够解决特定任务的数据。人工智能从无用的数据中筛选出有用的数据,并最终看到它随后行动所基于的模式的方法是将数据压缩到神经网络中。

然而,就像我们人类把东西打包在一起一样,在别人看来很容易看起来很乱,很难弄清楚我们使用了哪个系统。

例如,如果我们把我们的家打包在一起,目的是它应该尽可能紧凑,那么一个枕头很容易放在汤锅里,以节省空间。这没有错,但局外人很容易得出错误的结论;枕头和汤锅是我们打算一起使用的东西。到目前为止,当我们人类试图理解系统学人工智能的工作原理时,情况就是如此。然而,根据索伦·豪伯格的说法,这已经成为过去:

“在我们的基础研究中,我们找到了一个从理论上倒退的系统解决方案,这样我们就可以跟踪哪些模式植根于现实,哪些模式是通过压缩发明的。当我们能够将两者分开时,我们作为人类可以更好地理解人工智能是如何工作的,但也要确保AI不会听假模式。”

索伦和他的DTU同事借鉴了18世纪发展起来的用于绘制地图的数学。这些经典的几何模型已经在机器学习中找到了新的应用,它们可以用来绘制压缩如何移动数据的地图,从而通过人工智能的神经网络回溯并理解学习过程。

归还控制权

在许多情况下,该行业避免使用人工智能,特别是在安全是关键参数的生产领域。害怕失去对系统的控制,因此如果算法遇到它无法识别的情况,必须自己采取行动,就会发生事故或错误。

新的研究恢复了一些失去的控制和理解。使得我们更有可能将人工智能和机器学习应用到我们今天没有做的领域。

“诚然,仍然有一些无法解释的部分遗留下来,因为系统的一部分已经从模型本身在数据中发现的模式中产生。我们不能验证模式是最好的,但我们可以看看它们是否明智。这是朝着对人工智能更有信心迈出的一大步。

该数学方法是与德国卡尔斯鲁厄理工学院和工业集团博世人工智能中心共同开发的。后者在其机器人算法中实现了DTU的软件。研究结果刚刚发表在机器人学:科学与系统会议上的一篇文章中。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/8488.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~