人类通常很擅长识别何时出错,但人工智能系统则不然。根据一项新的研究,由于存在百年历史的数学悖论,人工智能通常会受到固有的限制。
像一些人一样,人工智能系统的自信程度往往远远超过他们的实际能力。就像一个过度自信的人一样,许多人工智能系统不知道自己什么时候犯了错误。有时,人工智能系统在犯错时意识到比产生正确结果更困难。
剑桥大学和奥斯陆大学的研究人员表示,不稳定性是现代人工智能的致命弱点,一个数学悖论显示了人工智能的局限性。神经网络是人工智能中最先进的工具,大致模仿了大脑中神经元之间的联系。研究人员表明,存在稳定和准确的神经网络存在的问题,但没有算法可以产生这样的网络。只有在特定情况下,算法才能计算出稳定准确的神经网络。
研究人员提出了一种分类理论,描述了何时可以训练神经网络以在某些特定条件下提供可信赖的 AI 系统。他们的结果发表在《美国国家科学院院刊》上。
深度学习是用于模式识别的领先人工智能技术,一直是众多令人窒息的头条新闻的主题。示例包括比医生更准确地诊断疾病或通过自动驾驶预防交通事故。然而,许多深度学习系统是不可信且容易被愚弄的。