【哥德尔人工智能】关于哥德尔定理与人工智能的问题...

2019-10-26
字体:
浏览:
文章简介:Q1:这个解释不太对.应该是如果G是假的,那么在PM中必然存在G的一个证明,然后导出G是真的,因为PM是一致的所以这种情况不可能发生,所以G是真的.那么根据G自己的陈述,就有G在PM中不可证明的结论.Q2:可以这样说,G是背景一中的那种公式.我不清楚是否有别的更有"实际"数学意义的命题满足这个条件.[哥德尔人工智能]关于哥德尔定理与人工智能的问题...Q3:这个我要详细讲一下.首先,不能说这些命题影响了形式系统的推理能力,这些命题的出现是推理系统本身的性质,而且与其说它限制了系统的表达

Q1:这个解释不太对。应该是如果G是假的,那么在PM中必然存在G的一个证明,然后导出G是真的,因为PM是一致的所以这种情况不可能发生,所以G是真的。那么根据G自己的陈述,就有G在PM中不可证明的结论。

Q2:可以这样说,G是背景一中的那种公式。我不清楚是否有别的更有“实际”数学意义的命题满足这个条件。

【哥德尔人工智能】关于哥德尔定理与人工智能的问题...

Q3:这个我要详细讲一下。

首先,不能说这些命题影响了形式系统的推理能力,这些命题的出现是推理系统本身的性质,而且与其说它限制了系统的表达能力,反而应该说这些命题的出现彰显了这个推理系统表达能力的强大。

【哥德尔人工智能】关于哥德尔定理与人工智能的问题...

哥德尔有个不太出名的完备性定理,说的是在一阶谓词演算中,真的命题永远可以被证明,也就是说标准语义的真和形式的可证明性是等价的。然而,一阶谓词演算是一个很弱的系统,不能唯一地定义自然数(算术),而哥德尔不完备性定理应用的先决条件则是形式系统可以表达皮亚诺公理,也就是自然数(算术)。不是所有形式系统都有不能被证明的真理,只有那些足够强的形式系统,才有足够的能力表达连本身的形式证明也触碰不到的真理。

【哥德尔人工智能】关于哥德尔定理与人工智能的问题...

然后,我对背景1的论述其实非常怀疑。人类真的能天然地看出某个公式是真的还是假的吗?比如说inaccessible cardinal,有人认为有,有人认为没有,该相信谁?事实上,现在对于人脑的计算能力是否严格强于图灵机,仍然存在非常大的疑问。

我们知道,人脑在理想情况下至少是图灵机,因为可以利用外部的资源记录信息。但要想超越图灵机,人脑需要特殊的机制。目前Church-Turing论题认为,所有物理上能行的计算都能通过图灵机完成,而还没有什么例子违反了这个论题。当然这个论题不一定正确,但至少我们需要超凡的证据,才能相信人脑超越了图灵机。

人脑的计算模型是神经网络,当然是相当复杂的。简单的结果表明,如果人脑的神经元之间传递的信号和处理的方式都是无限精度的话,的确可以实现超越图灵机的计算能力。问题是,大脑中总有各种电信号,环境中总有噪音,无限精度是不可能的。

而如果只有有限精度的能力的话,显然可以用图灵机模拟人脑(虽然工程浩大)。有些论点(比如说彭罗斯的《皇帝新脑》)认为,量子效应结合宇宙射线中的随机性可以使人脑的计算能力超越图灵机。这类论点的错误之一在于,即使添加了量子效应,图灵机的计算能力仍然保持不变。

简单来说,目前尚没有什么有力的论点证明人脑超越了图灵机,而因为脑科学还没有足够地发展(@anpopo 靠你们了……),所以也还没有足够的证据证明人脑的计算能力相当于图灵机。我个人认为,目前还是“人脑相当于图灵机”这边的证据比较靠谱。

下面是无节操广告时间:(啦啦啦啦啦…………………………)

关于人脑的简化模型(就是现在用得很多的神经网络),请参见: 人算不如天算 之 电脑中的微型大脑

关于哥德尔不完备性定理,请参见: 希尔伯特之梦,以及梦的破灭

关于图灵机,最近正在写关于这个的系列,因为今年是图灵诞辰100周年嘛。现在正在慢慢写(過度な期待はしないでください……),这里是第一篇: 计算的极限(零):逻辑与图灵机