Nature论文找到新证据:神经网络“举一反三”能力或超人类,错误率不到1%

导读 原标题:Nature论文找到新证据:神经网络“举一反三”能力或超人类,错误率不到1% ...

原标题:Nature论文找到新证据:神经网络“举一反三”能力或超人类,错误率不到1%

图片来源于Nature

出品|搜狐科技

作者|郑松毅

神经网络一直被质疑的“举一反三”能力终于被验证,甚至超越人类水平?

近日,刊于Nature的一篇论文表示,纽约大学和西班牙加泰罗尼亚研究所(ICREA)的科研人员提出了一种名为MLC(meta-learning for compositionality)的元学习神经网络模型,可以让神经网络拥有人类般的“举一反三”能力。

据了解,“举一反三”的专业术语叫做“系统泛化能力(systematic generalization)”,指的是神经网络能够从数据训练过程中学习并概括出规律性的模式,从而在新的语境中使用新学到的词汇。举例来说,小孩子在第一次理解了什么是“笔”,后面就可以理解“铅笔”、“钢笔”。

一直以来,神经网络的运作机制如“黑匣子”般缺乏一个清晰的理论解释。处理熟悉常规的数据还好,但在处理全新从未见过的数据时,神经网络有时会产生离谱的错误,这使得人们对于其“举一反三”的能力一直保持质疑态度。

论文中提到的MLC方法现在找到了新的证据,证明神经网络是可以具备良好系统泛化能力的,刷新了人们对于神经网络“举一反三”能力的刻板印象。

为了证明MLC“举一反三”的能力,科研人员邀请了25个人与机器进行了场比赛。比赛很有趣,为了确保参与者都是第一次学习这些单词,科研人员提出用“dax”、“wif”、“lug”这些本身不具有意义的新词标记不同颜色的圆圈,然后用“fep”、“kiki”等新词代表具体的动作指令。

图片来源于论文

其实根据图示不难总结出规律,比如“dax”代表红色的圆圈,“wif”代表绿色的圆圈等。对于动作词汇来说,“fep”代表重复三次,“kiki”代表倒置颜色图案顺序等。当然,以上陈述的图案和新词汇之间的对应规律需要参与者自己观察和总结,机器也需要通过学习样本数据去总结规律。

图片来源于论文

样本学习任务完成后,人类和机器需要根据科研人员的指令(文本字符串)输出序列(彩色圆圈)。实验结果显示,人类系统泛化后输出结果的准确率为80.7%,而MLC表现更好,系统性泛化基准测试错误率不到1%。相比之下,GPT-4的错误率超过42%,不及MLC。

Nature指出,新墨西哥州圣达菲研究所的计算机和认知科学家Melanie Mitchell对此项研究表示,“这项研究是一个有趣的原理证明,但这种训练方法是否可以扩展到更大的数据集甚至图像上,还有待观察。”

德国奥斯纳布吕克大学自然语言处理专家Elia Bruni认为,这项研究可以使神经网络成为更高效的学习者。不仅能减少训练 ChatGPT 等系统训练所需的数据量,而且能最大限度地减少“幻觉”。

免责声明:本文由用户上传,如有侵权请联系删除!