近日,OpenAI的人事风暴暂时平息,外界对董事会代表的保守派与CEO Sam Altman为首的商业派路线差异的解读也引发了广泛关注。回顾Altman过去对AI监管的发言,可以看出他支持政府对强大的人工智能系统进行监管。然而,哪些系统够强大?谁该被监管?目前似乎缺乏共识。
据报道,OpenAI的权力斗争细节引发了广泛关注。这场斗争主要涉及两大派系:一方认为Altman团队正在酝酿的Q*(Q-star)计划在通用人工智能(AGI)领域取得了新的技术突破;另一方则认为,从ChatGPT、GPT-4到OpenAI开发者大会中宣布的定制化GPTs方案,一系列技术突破的速度过快,Altman未确保上述系统的网络安全即公诸于世,这表明他急于商业化并忽视潜在风险。
然而,从Altman最近的公开表态来看,他对AI的发展持乐观态度,认为人工智能虽然存在一定的风险,但仍有犯错的机会,并且政府只需要适度监管。他强调人类会不断适应科技的发展。
在2023年9月访台参与永龄基金会主办的公开论坛时,Altman重申了支持政府监管AI的观点,但他也强调,监管应该仅针对最强大的系统,而小模型和开源模型则无需监管。对于什么是最强大的系统,他描述可能是比GPT-4强上1万倍的模型或可与整个人类文明比拟的AI系统。
在听证会上被问到对AI发展的最大恐惧时,Altman直言担心AI可能会对世界造成重大损害。他表示希望与政府合作确保AI发展不会偏离轨道。他还支持美国联邦政府成立一个单位发放执照给开发者打造“一定能力门槛以上的”的AI模型如果模型未达政府安全标准该单位也有权撤回执照。
本文链接:http://www.28at.com/showinfo-27-34410-0.htmlSam Altman的AI监管态度:支持但有条件
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
上一篇: 韩国正极材料业面临衰退:电动车需求下降