当前位置:首页 > 科技  > 网络

Nature封面:AI训AI 越训越傻

来源: 责编: 时间:2024-07-28 07:49:44 212观看
导读 AI训练AI,可能会让AI变傻?!来自牛津、剑桥等学校机构的研究人员新发现,使用合成数据训练,大模型可能会崩溃。其研究成果被选为新的Nature封面。直接一个:GARBAGE OUT!要知道,现在绝大部分科技公司的大模型都在用合

AI训练AI,可能会让AI变傻?!1H228资讯网——每日最新资讯28at.com

来自牛津、剑桥等学校机构的研究人员新发现,使用合成数据训练,大模型可能会崩溃。其研究成果被选为新的Nature封面1H228资讯网——每日最新资讯28at.com

直接一个:GARBAGE OUT!1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

要知道,现在绝大部分科技公司的大模型都在用合成数据来缓解“数据荒”。这下无疑是整个行业浇了一波冷水。1H228资讯网——每日最新资讯28at.com

研究团队给了这样一个例子。1H228资讯网——每日最新资讯28at.com

他们测试了Meta的OPT-125m模型,询问了关于中世纪建筑的相关信息。1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

每一次微调都是由上一次生成的数据来训练。结果前面几轮回答还好。结果就在第九次,就开始胡说八道……1H228资讯网——每日最新资讯28at.com

扯到兔子是什么鬼?!1H228资讯网——每日最新资讯28at.com

该论文主要作者表示,他们曾考虑过合成数据可能对大模型造成误差,但未曾预料到模型的恶化速度会如此迅速。1H228资讯网——每日最新资讯28at.com

三个误差导致模型崩溃1H228资讯网——每日最新资讯28at.com

首先,团队定义了什么是模型崩溃。1H228资讯网——每日最新资讯28at.com

模型崩溃是一个退化过程,模型生成的内容会污染下一代的训练数据集。而在被污染的数据上训练之后,新一代模型就容易误解现实。1H228资讯网——每日最新资讯28at.com

以此循环往复,一代更比一代差。1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

按照时间推移,主要分为两种情况:早期模型崩溃和晚期模型崩溃。1H228资讯网——每日最新资讯28at.com

早期模型崩溃中,模型开始丢失一些尾部信息。(类似概率分布中一些低概率事件) 而在晚期模型崩溃,模型将收敛到同原始分布几乎没有任何相似之处。1H228资讯网——每日最新资讯28at.com

这一过程的发生,同模型设计、学习过程和所用数据质量有关。1H228资讯网——每日最新资讯28at.com

具体到理论中,主要包括了这三个误差导致大模型同原始模型的偏离。1H228资讯网——每日最新资讯28at.com

统计近似误差。这是主要类型的误差,由于样本数量有限而产生,并随着样本数量趋于无穷大而消失。这是因为在重新采样的每一步中信息都有可能丢失,这种概率不为零。函数表达性误差。这种误差是由于函数近似表达能力有限而产生的。特别是,神经网络只有在其规模达到无穷大时才是通用近似值。不过,在没有其他两种误差的情况下,这种误差只会发生在第一代。函数近似误差。主要由学习过程局限性引起,例如随机梯度下降的结构偏差或目标的选择。这种误差可以看作是在无限数据和每一代都具有完美表达能力的情况下产生的误差。1H228资讯网——每日最新资讯28at.com

对语言模型的影响1H228资讯网——每日最新资讯28at.com

随后研究人员评估了模型崩溃对语言模型的影响。由于从头开始训练大模型成本非常高,他们选择评估语言模型常见的设置:微调设置1H228资讯网——每日最新资讯28at.com

每个训练周期都从具有新数据的预训练模型开始。训练数据来自另一个经过微调的预训练模型。1H228资讯网——每日最新资讯28at.com

他们用Meta因果语言模型OPT-125m,在wikitext2上进行了微调。1H228资讯网——每日最新资讯28at.com

为了从训练好的模型中生成数据,团队使用了five-way波束搜索。他们将训练序列设为 64 个token长度;然后对于训练集中的每个token序列,要求模型预测下一个64个token。1H228资讯网——每日最新资讯28at.com

他们会浏览所有原始训练数据集,并生成一个相同大小的人工数据集。如果模型的误差为0,它就会生成原始的wikitext2数据集。1H228资讯网——每日最新资讯28at.com

为了进一步感受区别,他们采用两种不同的设置:一组是除了开始训练,后续过程没有任何原始训练数据;另一组则是保留10%的原始数据。1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

结果显示,随着时间推移,模型产生的错误会增加。在模型完全崩溃之前,它还会导致模型遗忘数据集中低概率事件,他们的输出也变得更加同质化。终也就出现了开头这一现象。1H228资讯网——每日最新资讯28at.com

另外在VAE、GMM模型中看到了类似模型崩溃的现象。1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

Nature封面:AI训AI 越训越傻1H228资讯网——每日最新资讯28at.com

来自杜克大学的Emily Wenger教授表示,到目前为止,要缓解这一问题并非易事。1H228资讯网——每日最新资讯28at.com

有领先的科技公司已经部署了一项技术,即嵌入“水印”——1H228资讯网——每日最新资讯28at.com

标记AI生成的内容,让其在训练数据中排除。但困难在于,这需要科技公司之间的协调,因此不太具有商业可行性。1H228资讯网——每日最新资讯28at.com

这样一来,那从之前互联网获取数据的公司,他们训练的模型更能代表现实世界。所以,开始那一波大模型算是有了先发优势。1H228资讯网——每日最新资讯28at.com

对于这一观点,你怎么看呢?1H228资讯网——每日最新资讯28at.com


文章出处:量子位

本文链接:http://www.28at.com/showinfo-17-104051-0.htmlNature封面:AI训AI 越训越傻

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 雷军身披雨衣现身巴黎奥运开幕式:一个难忘的夜晚

下一篇: 跳水首金观众席上的中国人沸腾了:祝贺陈艺文/昌雅妮

标签:
  • 热门焦点
  • 石头自清洁扫拖机器人G10S评测:多年黑科技集大成之作 懒人终极福音

    科技圈经常能看到一个词叫“缝合怪”,用来形容那些把好多功能或者外观结合在一起的产品,通常这样的词是贬义词,但如果真的是产品缝合的好、缝合的实用的话,那它就成了中性词,今
  • 摸鱼心法第一章——和配置文件说拜拜

    为了能摸鱼我们团队做了容器化,但是带来的问题是服务配置文件很麻烦,然后大家在群里进行了“亲切友好”的沟通图片图片图片图片对比就对比,简单对比下独立配置中心和k8s作为配
  • 虚拟键盘 API 的妙用

    你是否在遇到过这样的问题:移动设备上有一个固定元素,当激活虚拟键盘时,该元素被隐藏在了键盘下方?多年来,这一直是 Web 上的默认行为,在本文中,我们将探讨这个问题、为什么会发生
  • 重估百度丨“晚熟”的百度云,能等到春天吗?

    ©自象限原创作者|程心排版|王喻可2016年7月13日,百度云计算战略发布会在北京举行,宣告着百度智能云的正式启程。彼时的会场座无虚席,甚至排队排到了门外,在场的所有人几乎都
  • 慕岩炮轰抖音,百合网今何在?

    来源:价值研究所 作者:Hernanderz“难道就因为自己的一个产品牛逼了,从客服到总裁,都不愿意正视自己产品和运营上的问题,选择逃避了吗?”这一番话,出自百合网联合创
  • 自律,给不了Keep自由!

    来源 | 互联网品牌官作者 | 李大为编排 | 又耳 审核 | 谷晓辉自律能不能给用户自由暂时不好说,但大概率不能给Keep自由。近日,全球最大的在线健身平台Keep正式登陆港交所,努力
  • 机构称Q2全球智能手机出货量同比下滑11% 苹果份额依旧第2

    7月20日消息,据外媒报道,研究机构的报告显示,由于需求下滑,今年二季度全球智能手机的出货量,同比下滑了11%,三星、苹果等主要厂商的销量,较去年同期均有下
  • 电博会上海尔智家模拟500平大平层,还原生活空间沉浸式体验

    电博会为了更好地让参展观众真正感受到智能家居的绝妙之处,海尔智家的程传岭先生同样介绍了展会上海尔智家的模拟500平大平层,还原生活空间沉浸式体验。程传
  • 中关村论坛11月25日开幕,15位诺奖级大咖将发表演讲

    11月18日,记者从2022中关村论坛新闻发布会上获悉,中关村论坛将于11月25至30日在京举行。本届中关村论坛由科学技术部、国家发展改革委、工业和信息化部、国务
Top