Nature:神经网络“举一反三”能力甚至超人类

西风 发自 凹非寺
量子位 | 公众号 QbitAI

神经网络具有类似人的“举一反三”能力,甚至超过人类水平???

最近刊于Nature的一篇论文表示找到了证据。

“举一反三”的能力更专业点叫做系统性泛化能力。像小孩子一样,一旦学会了如何“跳”,他们就可以理解如何“向后跳”、“绕锥体跳过两次”。

要知道,早在1988年,认知科学家Fodor、Pylyshyn就提出了系统性挑战,认为人工神经网络缺乏这种能力。

Nature的这篇文章中表示,研究人员用一种叫做MLC的方法,通过在动态变化的组合任务流中训练,神经网络可以获得人类般的组合推理能力。

他们还将MLC和人类在相同的系统性泛化测试中进行了比较。结果机器学习的系统性泛化基准测试表明,MLC错误率不到1%,并且还可以模拟人类的认知偏见导致的错误。

相比之下,GPT-4 在相同的任务中平均失败率在42%到86%之间,具体取决于研究人员如何提出任务。

挑战已存在35年的观点

35年前,认知科学家Fodor、Pylyshyn提出了一个著名的观点:

人工神经网络由于缺乏组合性,不太可能成为合理的认知模型。

换句话说,人类语言和思维的精髓在于系统性组合,而神经网络只能表示特定的事物,缺乏这种系统性组合能力。

这个观点引发学界激烈讨论。其中反驳观点主要集中于两个方面。

一是尽管人类的组合技能很重要,但它们可能并不具有Fodor、Pylyshyn所说的那样的系统性和规则性。

二是虽然神经网络在基本形式上受到了限制,但使用复杂的架构可以增强系统性。

虽然最近几年,神经网络在自然语言处理等方面有了很大进展和突破,相关辩论也随之升级。

但时至今日,系统性的问题仍没有一个定论。

基于此,纽约大学心理与数据科学助理教授Brenden M. Lake、西班牙加泰罗尼亚研究所(ICREA)研究教授Marco Baroni提出了一种叫做MLC(meta-learning for compositionality)的元学习神经网络模型。

具体来说,用的是一种通过特殊指导和人类示例来指定模型行为的方法,然后要求神经网络通过元学习获得正确的学习技巧。

研究人员还表示,MLC使用的是标准的Seq2Seq架构,常见的神经网络并没有添加符号机制,也没有手动设计内部表示或归纳偏见。

举个例子来说明训练过程。如下图所示,给神经网络模型一个“连续跳跃两次”(skip twice)的指令。并用箭头和小人来展示学习示例,告诉机器jump(跳)、skip(跳过)、jump twice是怎样的。

然后将输出的skip twice和行为目标比较:

类似情境,引入下一个词“向后踮脚尖绕过一个锥体”,要求神经网络组合向后走(walk backwards)、踮脚尖(tiptoe)、绕锥体行走(walk around a cone)的动作,推出如何“向后踮脚尖绕过一个锥体”。

机器VS人类

为了展示MLC方法的性能,研究人员对人类和机器在相同的系统性泛化测试中进行了评估。

实验基于一个少样本学习伪语言任务进行,其中词汇与特定的符号或颜色有关。

比如给出基本词汇,“dax”是红色,“wif”是绿色,“lug”是蓝色。

还有三个Function。Function 1中,“lug fep” 代表三个蓝色的连续圈圈,“dax fep” 代表三个红色的连续圈圈。

Function 2代表的是交替,像“lug blicket wif” 代表蓝绿蓝三个颜色的圈圈。

Function 3代表把输出顺序倒过来,像“dax kiki lug” 代表蓝红(根据基本词汇应该是红蓝)。

还可以组合不同的Function,比如“wif blicket dax kiki lug”是蓝绿红绿。

MLC架构

然后研究人员对25名人类的反应和机器的反应进行了比较:

研究人员还测试了在不给出任何示例的情况下,人类和机器归纳这种方法后的输出,为的是测验人类的归纳偏见:

测试后的结果表明,人类能够系统性地泛化,正确率约为80%,但也存在一些偏见。

而使用MLC方法机器可以达到或超过人类的系统性泛化水平。

MLC还可以预测哪些指令对人们来说更容易或更难。

下图展示了模型预测人类行为的log-likelihood值(用来判断模型预测数据的好坏),数值越大表示模型的预测越准确:

研究人员还在两个常见的机器学习的系统性泛化基准测试SCAN、 COGS中,着重关注MLC处理新单词和单词组合方面的表现,结果显示错误率不到1%。

在机器学习基准测试中进行系统性词汇泛化的错误率

他们还表示,在纯粹的代数推理和模拟人类复杂组合行为的情况中,MLC还可以模拟人类的认知偏见导致的错误模式,这说明神经网络是一种很好的建模工具。

引发热议

美国圣达菲研究所的计算机与认知科学家Melanie Mitchell表示:

这项研究是一个有趣的原理证明,但这种训练方法是否可以扩展到更大的数据集甚至图像,还有待观察。

德国奥斯纳布吕克大学自然语言处理专家Elia Bruni表示:

这项研究可以使神经网络更高效地学习,将减少像ChatGPT等所需的训练数据量,并减少“幻觉”。

将系统性注入神经网络是一件大事,它可以同时解决这两个问题。

但也有网友指出:

人类的沟通是多样且多层次的,可以从太多角度总结 ,所以有必要持合理的怀疑态度,同时还需要证据和测试结果。

还有网友表示用这种方法能够击败GPT-4是因为提示的问题:

我觉得一名高级的提示工程师使用GPT-4可以达到正确率85%的效果。“根据研究人员如何呈现任务,准确率在42%到86%之间”这话确实会让人产生疑虑。

考虑到主观因素,希望他们能展示是如何提出这个任务的,至少比只给一句话要详细。

论文链接:https://www.nature.com/articles/s41586-023-06668-3

参考链接:
[1]https://www.nature.com/articles/d41586-023-03272-3
[2]https://news.ycombinator.com/item?id=38017146

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

相关推荐

  • 互联网博物馆爆火,网友满满回忆杀,看看你能想起几个?
  • 空间站换班了!神舟十七成功发射,“上天”的导师下周就回来(狗头)
  • 考研物理39分的他,斩获凝聚态物理最高奖!70年来首位中国籍
  • 一个令人惊艳的 GitHub 开源项目,诞生了!
  • 腾讯混元大模型开放文生图;微软AI投资重心或转向应用和业务;国产大模型10月榜单公布丨AIGC大事日报
  • 三大关键词看2023安博会!安防巨头大模型混战,机器人机器狗看花眼
  • 300 亿颗芯片、拉动万亿元产值,揭秘安谋科技撬动 AIoT产业的底气
  • 死磕一个小类目,视频号半年赚15w
  • LLM在text2sql上的应用
  • 编程语言流行趋势
  • 如何避免JavaScript中的内存泄漏?
  • OpenAI、谷歌微软等设立1000万美元AI安全基金
  • 骁龙8 Gen 3处理器发布:CPU性能提升30%、GPU提升25%
  • 从开源模型到商业落地应用,亚马逊云科技构建实用路线图!
  • C++的复杂,C是原罪:从值类别说开去
  • no-GIL Python,启动!
  • 您的数据存储和灾备系统选对了吗?
  • 是时候放弃云计算了
  • ChatGPT企业版,基本凉了!
  • 谷歌大爆料:神秘AI工具曝光,Gemini将取代PaLM 2