人工智能理解意味着什么

导读 记住 IBM 的 Watson,AIJeopardy!冠军?2010 年的一项促销活动宣称:Watson 理解自然语言的所有歧义和复杂性。然而,正如我们在 Watso

记住 IBM 的 Watson,AIJeopardy!冠军?2010 年的一项促销活动宣称:“Watson 理解自然语言的所有歧义和复杂性。”然而,正如我们在 Watson 随后在寻求“用人工智能彻底改变医学”的过程中惨遭失败时所看到的那样,语言设施的表面与实际理解人类语言并不相同。

自然语言理解长期以来一直是人工智能研究的主要目标。起初,研究人员试图手动编程机器理解新闻故事、小说或人类可能写的任何其他内容所需的一切。正如 Watson 所展示的,这种方法是徒劳的——不可能写下理解文本所需的所有不成文的事实、规则和假设。最近,一种新的范式已经建立:我们不是建立显性知识,而是让机器学习自己理解语言,只需摄取大量书面文本并学习预测单词即可。结果就是研究人员所说的语言模型。当基于大型神经网络时,比如 OpenAI 的 GPT-3,这样的模型可以生成不可思议的人类散文(和诗歌)!) 并且似乎执行复杂的语言推理。

但是 GPT-3——对来自数千个网站、书籍和百科全书的文本进行训练——是否超越了 Watson 的表面?它真的理解它生成的语言和表面上的推理吗?这是 AI 研究界存在明显分歧的话题。此类讨论曾经是哲学家的职权范围,但在过去十年中,人工智能已经从学术泡沫中迸发出来,进入了现实世界,它对现实世界的缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,IBM 的 Watson 被发现提出了“不安全和不正确的治疗建议的多个例子”。另一项研究表明,谷歌的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。我们如何在实践中确定机器是否可以理解?1950 年,计算先驱艾伦图灵试图用他著名的“模仿游戏”来回答这个问题,现在称为图灵测试。一台机器和一个人都隐藏在视线之外,将竞争说服人类判断他们的人性,仅使用对话。如果法官无法分辨哪个是人类,那么,图灵断言,我们应该认为机器正在思考——实际上,是理解。

不幸的是,图灵低估了人类被机器愚弄的倾向。即使是简单的聊天机器人,例如 Joseph Weizenbaum 1960 年代的替代心理治疗师Eliza,也会欺骗人们相信他们正在与一个理解的人交谈,即使他们知道他们的对话伙伴是一台机器。

在2012 年的一篇论文中,计算机科学家 Hector Levesque、Ernest Davis 和 Leora Morgenstern 提出了一个更客观的测试,他们称之为 Winograd 模式挑战。此测试已被 AI 语言社区采用,作为评估机器理解的一种方式,也许是最好的方式——尽管我们将看到,它并不完美。以语言研究员 Terry Winograd 的名字命名的 Winograd 模式由一对句子组成,这些句子仅相差一个词,每个句子后跟一个问题。这里有两个例子:

免责声明:本文由用户上传,如有侵权请联系删除!