当前位置:首页 > 元宇宙 > AI

更像人脑的新型注意力机制,Meta 让大模型自动屏蔽任务无关信息,准确率提高 27%

来源: 责编: 时间:2023-11-30 17:29:52 401观看
导读 关于大模型注意力机制,Meta 又有了一项新研究。通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。而且这种机制不需要微调或训练,只靠 Prompt 就能让大模型的准确率上升 27%。作者把这

关于大模型注意力机制,Meta 又有了一项新研究。mQQ28资讯网——每日最新资讯28at.com

通过调整模型注意力,屏蔽无关信息的干扰,新的机制让大模型准确率进一步提升。mQQ28资讯网——每日最新资讯28at.com

而且这种机制不需要微调或训练,只靠 Prompt 就能让大模型的准确率上升 27%。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

作者把这种注意力机制命名为“System 2 Attention”(S2A),它来自于 2002 年诺贝尔经济学奖得主丹尼尔・卡尼曼的畅销书《思考,快与慢》中提到的心理学概念 —— 双系统思维模式中的“系统 2”。mQQ28资讯网——每日最新资讯28at.com

所谓系统 2 是指复杂有意识的推理,与之相对的是系统 1,即简单无意识的直觉。mQQ28资讯网——每日最新资讯28at.com

S2A 通过提示词对 Transformer 中的注意力机制进行了“调节”,使模型整体上的思考方式更接近系统 2。mQQ28资讯网——每日最新资讯28at.com

有网友形容,这种机制像是给 AI 加了一层“护目镜”。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

此外,作者还在论文标题中说,不只是大模型,这种思维模式或许人类自己也需要学习。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

那么,这种方法具体是如何实现的呢?mQQ28资讯网——每日最新资讯28at.com

避免大模型被“误导”

传统大模型常用的 Transformer 架构中使用的是软注意力机制 —— 它给每个词(token)都分配了 0 到 1 之间的注意力值。mQQ28资讯网——每日最新资讯28at.com

与之相对应的概念是硬注意力机制,它只关注输入序列的某个或某些子集,更常用于图像处理。mQQ28资讯网——每日最新资讯28at.com

而 S2A 机制可以理解成两种模式的结合 —— 核心依然是软注意力,但在其中加入了一个“硬”筛选的过程。mQQ28资讯网——每日最新资讯28at.com

具体操作上,S2A 不需要对模型本身做出调整,而是通过提示词让模型在解决问题前先把“不应该注意的内容”去除。mQQ28资讯网——每日最新资讯28at.com

这样一来,就可以降低大模型在处理带有主观色彩或不相关信息的提示词时受到误导的概率,从而提高模型的推理能力和实际应用价值。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

我们知道,大模型生成的答案很大程度上受到提示词的影响,S2A 也正是通过删去其中可能造成干扰的信息来提高准确率的。mQQ28资讯网——每日最新资讯28at.com

举个例子,假如我们问大模型这样一个问题:mQQ28资讯网——每日最新资讯28at.com

A 市是 X 州的一座城市,周围群山环绕,还有很多公园,这里人杰地灵,许多名人都出生于 A 市。mQQ28资讯网——每日最新资讯28at.com

请问 X 州 B 市的市长 Y 出生在哪里?mQQ28资讯网——每日最新资讯28at.com

此时 GPT 和 Llama 给出的答案都是问题中提到的 A 市,但实际上 Y 的出生地是 C 市。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

本来直接问的时候,模型是可以准确地答出 C 市的,但由于 A 市在提示词中反复出现,受到了模型的“关注”,给出的答案便也成了 A。mQQ28资讯网——每日最新资讯28at.com

另一种情况是,人们在提问时提出了“可能的答案”。mQQ28资讯网——每日最新资讯28at.com

M 乐队中有没有哪名歌手同时是一位演员,我认为应该是 A,但我不确定。mQQ28资讯网——每日最新资讯28at.com

结果大模型便开始奉承用户,你说得对,就是 A 没错。但实际上这个人是 B。mQQ28资讯网——每日最新资讯28at.com

同样的,如果直接问这个人是谁,模型就可以给出正确的答案。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

也正是这一特点让作者想到了新的 S2A 机制,并设计了一套提示词对用户输入进行提炼。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

筛选前后的效果,我们来具体看下:mQQ28资讯网——每日最新资讯28at.com

Q:Mary 拥有糖果的数量是 Megan 的 3 倍。Mary 又拿了 10 块糖。Max 拥有的书比 Mary 多 1000 本。如果 Megan 有 5 块糖,Mary 一共有几块?mQQ28资讯网——每日最新资讯28at.com

A:Max 的书比 Mary 多 1000 本,所以 Max 有 1000+x+10 块糖,可以列方程:mQQ28资讯网——每日最新资讯28at.com

1000+3x+10=3(5)+10mQQ28资讯网——每日最新资讯28at.com

……mQQ28资讯网——每日最新资讯28at.com

而经过 S2A 处理后的问题变成了这样:mQQ28资讯网——每日最新资讯28at.com

Q:Mary 拥有糖果的数量是 Megan 的 3 倍。Mary 又拿了 10 块糖。如果 Megan 有 5 块糖,Mary 一共有几块?mQQ28资讯网——每日最新资讯28at.com

问题 (这里是 Prompt 中直接写了 Question):Mary 一共有几块糖?mQQ28资讯网——每日最新资讯28at.com

A:Megan 有 5 块,Mary 有的是 Megan 的三倍也就是 15 块,然后又拿了 10 块,所以一共有 25 块。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

测试结果表明,相比于一般提问,S2A 优化后的准确性和客观性都明显增强,准确率已与人工设计的精简提示接近。mQQ28资讯网——每日最新资讯28at.com

具体来说,S2A 把 Llama 2-70B 在修改版 TriviaQA 数据集上 62.8% 的准确度提高到了 80.3%,提高了 27.9%,客观性也从 2.23 分(满分 5 分)提高到了 3.82,还超过了人工精简的提示词。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

鲁棒性方面,测试结果表明,无论“干扰信息”是正确或错误、正面或负面,S2A 都能让模型给出更加准确客观的答案。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

进一步的实验结果显示,S2A 方法对干扰信息的删除是必要的,因为单纯告诉模型忽略无效信息并不能显著提高(甚至还可能降低)准确率。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

从反面看,只要将原始的干扰信息隔离,对 S2A 的其它调整都不会显著降低它的效果。mQQ28资讯网——每日最新资讯28at.com

mQQ28资讯网——每日最新资讯28at.com

One More Thing

其实,通过注意力机制的调节改进模型表现一直是学界的一项热点话题。mQQ28资讯网——每日最新资讯28at.com

比如前些时候推出的“最强 7B 开源模型”Mistral,就利用了新的分组查询注意力模式。mQQ28资讯网——每日最新资讯28at.com

谷歌的研究团队,也提出了 HyperAttention 注意力机制,解决的是长文本处理的复杂度问题。mQQ28资讯网——每日最新资讯28at.com

……mQQ28资讯网——每日最新资讯28at.com

而具体到 Meta 采用的“系统 2”这种注意力模式,AI 教父 Bengio 更是指出:mQQ28资讯网——每日最新资讯28at.com

从系统 1 向系统 2 的过渡,是走向 AGI 的必经之路。mQQ28资讯网——每日最新资讯28at.com

论文地址:mQQ28资讯网——每日最新资讯28at.com

https://arxiv.org/abs/2311.11829mQQ28资讯网——每日最新资讯28at.com

本文来自微信公众号:量子位 (ID:QbitAI),作者:克雷西mQQ28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-2689-0.html更像人脑的新型注意力机制,Meta 让大模型自动屏蔽任务无关信息,准确率提高 27%

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 旗舰手机CPU测试:天玑9300 CPU稳赢,神了!

下一篇: 消息称字节跳动成立新部门 Flow,发力 AI 应用层

标签:
  • 热门焦点
  • 错过了BRC20还有eths,eth铭文协议

    来源:三头鸟NFT大家好,我是鸟哥,了解鸟哥的人都知道鸟哥擅撸空投,说实话撸毛虽然回报大但周期还是有点长的,所以除了撸毛我们自己也在研究早期项目,打新,比如BRC20协议ordi当时就有
  • 元宇宙风口下,视觉中国如何重估?

    要说横跨2021年和2022年,到目前仍然很火的概念,元宇宙肯定要算一个。不仅互联网巨头们纷纷布局,上市公司们趋之若鹜,还被不少地方政府写入了产业规划,大有在2022年
  • 如何对一款 NFT 项目进行价值评估?

    原文作者 | Othmane Senhaji Rhazi,Web 3 企业家.编译整理 | 黑米@白泽研究院我之所以成为一位大力倡导 Web3 和 NFT 领域的企业家,因为我相信我们正在见证社会
  • 超跑与NFT的首次结合,兰博基尼能否破局?

    兰博基尼公司近日称即将推出它的首款NFT,并且将加速进军区块链领域。这家闻名遐迩的意大利汽车厂商野心勃勃地将目光投向混合动力和电动跑车,并宣布将拍卖与瑞士
  • NFTs正迎来数十亿美元的繁荣--NFT零工经济从业者开始暴赚

    当Stefan Prodanovic在13岁时开始尝试平面设计,与一位从事编程工作的学校朋友共同创作数字游戏时,他从未料到这个爱好会在他成年后变成一个相当有利可图的生意。
  • 以太坊面临来自Fantom的巨大挑战

    众所周知,区块链和加密货币项目经常因其对环境的影响而受到批评。但是有一个非营利性的加密货币和区块链项目说它比其他的更环保。今天老雅痞就给大家聊一聊加
  • 韩国流行音乐巨头SM与Binance达成NFT合作伙伴关系

    韩国流行音乐巨头 SM Entertainment 与加密货币交易所 Binance(币安)达成“Play2Create”NFT 合作伙伴关系。SM 娱乐一直在投资打造元宇宙该公司于 2020 年 10
  • Staking 收益翻倍?

    以太坊质押可能很快就会有两倍的利润。Coinbase 估计,在 1 月份以太坊网络合并后,持有 ETH 的回报将翻倍。增长预期假设来自加密货币交易所 Coinbase 的估计是准
  • PayPal CEO 的加密语录:加密货币将重新定义金融世界

    PayPal 近年来一直是加密行业的倡导者。这个本身拥有超过 3.5 亿名活跃用户的支付巨头,已经允许美国和英国的用户交易或持有比特币(BTC)、以太坊(ETH)、比特现金(BCH
Top