机器证明
2017 年 11 月 14 日
我记得在我十几岁的时候,有人告诉我人工智能 (AI) 在未来几年会做些什么奇妙的事情。现在,几十年过去了,其中一些似乎正在发生。最近的胜利是 计算机通过相互对弈来互相学习围棋,它们迅速变得比任何人类都更熟练,其策略是人类专家几乎无法理解的。人们自然会想知道未来几年会发生什么,计算机很快就会比人类更聪明吗?(考虑到最近的一些选举结果,这可能不是一个很难跨越的门槛。)
但当我听到这些的时候,我想起了帕布罗·毕加索几十年前关于计算机的 评论:“计算机毫无用处。它们只能给你答案”。机器学习等技术可以产生的推理结果确实令人印象深刻,对我们作为软件的用户和开发者来说将非常有用。但答案,虽然有用,并不总是全部。我在上学初期就学到了这一点——仅仅提供数学问题的答案只能得到几多分,要获得满分,我必须展示我是如何得到答案的。得出答案的推理比结果本身更有价值。这是自学围棋 AI 的局限性之一。虽然它们可以获胜,但它们无法解释自己的策略。
鉴于这种世界,我认为 AI 面临的一大挑战是,虽然我们可能已经找到了机器学习来教它们如何得到答案,但我们还没有找到可以为它们的答案进行机器证明的系统。随着 AI 为我们做出更多判断,我们将越来越多地遇到答案不足的情况。AI 可能会接受过训练来裁决法律案件,但我们能接受 AI 无法解释其推理的判决吗?
鉴于此,我们似乎需要在未来培养出一批新的“程序员”,他们的工作是弄清楚 AI 为什么会得到它们得到的答案,推断出 AI 技能背后的推理。我们可以看到许多领域,AI 做出了一些我们认为很好的不透明判断,但我们需要另一种方法来真正学习其决策背后的理论。
这个问题尤其严重,因为我们发现,这些机器很容易从训练数据中学习到不良行为,例如在判断信用评级时 歧视少数族裔。
像许多人一样,我认为计算机的许多机会在于与人类的协作。正确使用计算机是了解计算机的优势(快速完成受限的工作)以及人类的优势,并使用混合方法。计算机在智力上最重要的是心灵的工具。在编程中,我很乐意依靠编译器来帮助我查找错误或建议替代方案,这是一种在我年轻时作为程序员被斥责的做法。这两个方面最强大的界限是流动的,未来的魅力之一是如何最好地利用它的运动。