物理科技生物学-PHYICA

数学悖论证明了人工智能的局限性

技术工程 2022-04-15 21:56:29

ai Credit: CC0公共领域人类通常非常善于在出错时识别,但人工智能系统不是。根据一项新的研究,由于一个世纪之久的数学悖论,人工智能通常会受到固有的限制。像一些人一样,AI系统经常有一种远远超过其实际能力的自信程度。就像一个过于自信的人一样,许多人工智能系统不知道他们什么时候犯了错误。有时候,对于一个人工智能系统来说,意识到它在犯错误甚至比产生一个正确的结果还要困难。

来自剑桥大学和奥斯陆大学的研究人员表示,不稳定性是现代人工智能的致命弱点,一个数学悖论显示了人工智能的局限性。人工智能中最先进的工具神经网络大致模拟了大脑中神经元之间的联系。研究人员表明,稳定和准确的神经网络存在问题,但没有算法可以产生这样的网络。只有在特定情况下,算法才能计算出稳定准确的神经网络。

研究人员提出了一种分类理论,描述了在某些特定条件下,何时可以训练神经网络来提供值得信赖的人工智能系统。他们的结果发表在《美国国家科学院院刊》上。

深度学习是领先的人工智能模式识别技术,已经成为无数令人屏息的头条新闻的主题。例子包括比医生更准确地诊断疾病或通过自动驾驶预防交通事故。但是,很多深度学习系统是不可信的,容易被忽悠。

“许多人工智能系统都不稳定,这正成为一个主要的负担,特别是当它们越来越多地用于高风险领域,如疾病诊断或自动驾驶汽车,”来自剑桥大学应用数学和理论物理系的合著者安德斯·汉森教授说。“如果人工智能系统被用于一旦出错就会造成真正伤害的领域,那么对这些系统的信任就必须是重中之重。”

研究人员发现的悖论可以追溯到20世纪的两位数学巨人:艾伦·图灵和库尔特·哥德尔。20世纪初,数学家们试图证明数学是科学的终极一致语言。然而,图灵和哥德尔揭示了数学核心的一个悖论:无法证明某些数学陈述是真还是假,一些计算问题无法用算法解决。而且,每当一个数学系统丰富到足以描述我们在学校学到的算术时,它都无法证明自己的一致性。

几十年后,数学家史蒂夫·斯梅尔(Steve Smale)为21世纪提出了18个未解决的数学问题。第18个问题是关于人类和机器的智力极限。

“图灵和哥德尔首先发现的悖论现在被斯梅尔和其他人带到了人工智能的世界,”来自应用数学和理论物理系的合著者马修·科尔布鲁克博士说。"数学有其固有的基本限制,同样,人工智能算法也不能解决某些问题."

研究人员表示,由于这种悖论,在一些情况下,好的神经网络可以存在,但内在可信的网络却无法建立。“不管你的数据有多精确,你永远无法获得构建所需神经网络的完美信息,”合著者奥斯陆大学的Vegard Antun博士说。

不管训练数据量有多少,计算好的现有神经网络也是不可能的。无论一个算法可以访问多少数据,它都不会产生想要的网络。“这类似于图灵的论点:无论计算能力和运行时间如何,都存在无法解决的计算问题,”汉森说。

研究人员表示,并非所有的人工智能都有内在缺陷,但只有在特定的领域,使用特定的方法,它才是可靠的。“问题在于你需要保证的领域,因为许多人工智能系统是一个黑箱,”科尔布鲁克说。“在某些情况下,人工智能犯错误完全没问题,但它需要诚实面对。这不是我们在许多系统中看到的情况——没有办法知道他们何时对决策更有信心或更没有信心。”

“目前,人工智能系统有时会有一点猜测,”汉森说。“你尝试一些东西,如果它不起作用,你就添加更多的东西,希望它能起作用。在某些时候,你会厌倦得不到你想要的,你会尝试不同的方法。理解不同方法的局限性很重要。我们正处于人工智能的实际成功远远超出理论和理解的阶段。需要一个了解人工智能计算基础的项目来弥合这一差距。”

“当20世纪的数学家发现不同的悖论时,他们并没有停止研究数学。他们只需要找到新的路径,因为他们知道局限性,”科尔布鲁克说。“对于人工智能来说,这可能是一个改变路径或开发新路径的案例,以建立能够以可信和透明的方式解决问题的系统,同时了解它们的局限性。”

研究人员的下一步是结合逼近理论、数值分析和计算基础来确定哪些神经网络可以通过算法计算,哪些可以变得稳定和可信。正如哥德尔和图灵发现的关于数学和计算机局限性的悖论导致了丰富的基础理论——描述了数学和计算的局限性和可能性——或许类似的基础理论也可能在人工智能中开花结果。

来源:由phyica.com整理转载自PH,转载请保留出处和链接!

本文链接:http://www.phyica.com/jishugongcheng/14632.html

发表评论

用户头像 游客
此处应有掌声~

评论列表

还没有评论,快来说点什么吧~