人工智能有哪些限制?

发布时间:2018-12-18 作者:jasonli

回答一:智能部分是计算(以及设计)的函数,因此AI的能力将与可用计算的增加正相关。AI的极限非常依赖于另一个问题,“计算的极限是什么?” 这里没有确定的答案,但估计之间存在高低估计。

如果你特别悲观,那么你会认为消费电子产品在20世纪20年代早期就停止了增长。大约在那个时候,摩尔定律将被宣布为死亡,随后的几代人将意识到量子计算是不可行的,永远不会实现。

鉴于这种情况,您仍将拥有自动驾驶汽车,无人机和实时翻译。如果最终能够充分了解大脑,那么整个大脑仿真仍然在技术上是可行的,所以即使在这种严峻的情况下,人工智能的极限也至少是图灵能力的聊天机器人和保存亲人的副本。

麻省理工学院的一篇论文做了餐巾纸计算的背面,以猜测物理学允许的最终计算极限。如果您可以安排一定数量的物质,以便它能够以尽可能好的形式计算设备,那该怎么办呢?这是该论文提出并回答的问题。

得出的结论是,一公斤这样的物质可以在一秒内完成所有人类大脑的组合在同一秒内产生 - 除了10万亿亿次以上。这是一个荒谬的估计,因为它不考虑能量,光速,纠错或可能推动创造这种材料的经济学。然而,它确实证明了天花板的高度。

任何一个方向的极值通常都会做出糟糕的预测,所以我认为AI的真正极限就是这些之间的某个人。也许人工智能比人脑更好,只有10 ^ 10而不是10 ^ 23。


回答二:我认为我们正在讨论最终限制,而不仅仅是短期或中期限制。

似乎有两种基本方法可以想象这个问题的答案:

情景A:我们目前的知识不健全或完整,并且实际上无法提供限制,即使我们想象它可以。

情景B:我们目前的数学和科学知识是合理的,能够为我们提供这些限制的估计。

情景A:盲目地凝视未知

例如,考虑相对论,它似乎预测行进速度比光速更快是不可能的。根据目前的知识,光速是绝对的极限。然而,未来的知识可能会使用我们目前尚不知道的手段打破这一障碍。

我们还必须考虑人脑在了解事物方面的局限性。如果大脑是人类思想的器官,那么它可能与其他人类的感官和经验一样有限。每当人类思维薄弱,或浅薄或容易出错时,我们都可以看到这方面的证据。

然而,我们看不到的是人脑本身可能无法知道甚至想象的东西。我们存在的某些方面可能无法理解。它们可能远远超出我们的范围,我们甚至都没有意识到掌握它们的知识,就像试图掌握量子力学知识的蚂蚁一样。他们甚至不知道他们不知道,甚至不会怀疑。这对他们来说只是一个很大的空白。

因此,我们目前的知识虽然令人印象深刻,但可能是我们根本不知道的方式。显而易见的是,我们没有一个理论(TOE)可以站在这里,但我们所缺少的东西并不是那么明显,或者它的含义是什么。谁知道在这种情况下还有什么样的AI能力?

场景B:填写地图

在这种情况下,我们目前的数学和科学知识基本上是合理的。当然,有些事情还有待发现,但它们不会使我们已经知道的事情无效。

所以我们的数学和物理知识为我们提供了明确的估计:

我们可以从一个物质单位中提取多少能量,这些能量将来自何处,以及有多少能量

计算可以将能量转化为有用的智力工作(称为算法)

随着问题的难度或规模的增加,这些算法在解决问题时的局限性(称为命令或Big-O表示法)

难以测量向这些算法提供数据的世界状态

继续使用额外的能量和努力来解决具体问题的收益递减。

与这些特定限制相反,我认为普通人只是将智能视为一个了解所有答案的魔术盒。所以在他们看来,人工智能只会知道一切并且是完美的。但这错误地假设没有限制,真的存在。

让我们考虑以国际象棋游戏的AI为例。

我们可以用太阳能为AI供电。有很多。另一方面,国际象棋游戏可能比宇宙中的原子更多,因此计算它们的需求似乎超过了我们的能源。而且我们也不想把它全部用在国际象棋上。

AI可以使用我们可用的任何算法。算法由机器语言中的一系列有限步骤组成。因此可用的算法数量是有限的,取决于我们选择的机器语言和执行它的硬件限制。另一方面,AI不仅限于使用人类设计的算法,因为没有什么能阻止它发现自己的,更先进的算法。尽管如此,这些算法仍然是有限的,因为它们必须适合有限的空间并在有限的时间内运行,就像所有算法一样。

人工智能遇到困难,因为它试图在国际象棋游戏中展望更多的动作。国际象棋有一个分支因素,或每步的选择数量,约为30.所以你的移动和AI移动提供约30x30 = 900选项。让我们说1000,因为数学更简单。展望未来,人工智能需要评估1000x1000 = 100万个位置。展望未来六步,AI需要评估1000x1000x1000 = 10亿个位置。因此,在没有其他变化的情况下使AI增强十亿倍,这将使它看起来只有前进六步。所以它并没有真正解决十亿次问题。许多算法甚至比这更困难。

AI在这里休息,因为国际象棋是一个完美的信息游戏,它可以知道每个点的棋盘总状态。规则也很简单,董事会职位易于用计算机术语表示。但是,在实际问题中,人工智能可能难以获得决定如何解决问题所需的信息。例如,如果没有扫描你的大脑的能力,它怎么知道你在想什么?如何在不知道每一阵风的吹拂的情况下如何预测天气?除了能够完美衡量它的能力之外,世界可能很复杂。

国际象棋只是一场比赛,而且在生活质量方面,我们只能获得一点点比赛。所以在某些时候,我们只是说,“那就足够了!” 并继续其他事情。毕竟,无论你投入多少资源,都可能无法进行完美的国际象棋游戏。

AI与人类:谁赢了?

因为AI显然是不完美的,所以有些人认为人类的思想本质上是优越的。一个经常被引用的例子是哥德尔的不完备性定理。有人认为人类思维可能比图灵机器更强大,因为它们能够理解逻辑本身有其局限性。因此有人得出结论,人类的思想优于机器。

我发现这是一个相当可疑的概念。即使人类的思维在某种程度上比图灵机更强大,这只是假设,我们还没有证明其他非图灵机的思想不能构建得那么差。很可能机器,甚至是普通的图灵机,将在不久的将来构建,以理解人类以上的所有数学,从而使这一概念得以休息。

毕竟,人类大脑就像使用化学特性和电脉冲一样构建,因此与其他机器具有相同的自然规律,这些机器具有相同的特征可以利用。

如果有的话,我希望机器比大脑更强大,因为机器可以人工构建,以利用大脑操作中不明显的原理,例如量子计算。

机器能想到吗(中文)?

中国房间是哲学家约翰塞尔的想象场景。他声称机器不能像人一样思考或理解,换句话说,没有“强大的AI”。

他的论点假设你不懂中文,但被送到一个房间并给出如何操纵中文符号的说明。问题被传递到房间,就像在图灵测试中所做的那样,并且通过测试,出现了正确且富有洞察力的答案。

然而,Searle声称机器仍然没有想到。虽然它具有思考的表现(人们认为它已经通过了中文的图灵测试),但房间里不懂中文,因为房间里的人不懂中文。

Searle是否正确?关于这一点已经有很多争论。我想我可能会同意两种结果:

Searle是正确的,但是非常简单,因为他的测试和图灵测试一样随意。阿兰图灵喜欢欺骗他想象他们可以思考的机器,但John Searle没有,因为他要求了解他是如何被愚弄的,而不仅仅是被愚弄。由于这只是个人偏好,你可以自己做任何测试,我们为什么要关心它们呢?

Searle是错的,因为他无法解释中国人大脑中的神经元如何理解中文,而不能解释中国人如何理解中文。他无法直观地理解一个房间或一个人如何理解中文,并不能证明其中任何一个实际上都不会理解中文。

我倾向于赞成后一种解释。如果我们真的拥有能说中文的机器足以通过图灵测试,99%的人类会接受他们懂中文,所以我认为那里没有任何真正的障碍。

结论

考虑到我们目前的数学和物理知识,人工智能的极限很可能是我们期望的极限。虽然我们可以期待人工智能的进步可以获得指数性增长,但我们应该记住,人工智能问题的规模可能超出指数,我们的能源和观察世界的能力总是有限的,因而结果就普通的人类经验而言,它们可能不像摘要中那样令人印象深刻。

虽然我仍然希望AI能够在任何明确的任务中最终超越人类的表现。


息息.AI生活.更简单 xixi生活

©2016-2018 成都轻雨科技有限公司 Made in chengdu

蜀ICP备 17039669号-1

更多ai生活 请关注息息公众号