7月26日消息,OpenAI首席执行官山姆・阿尔特曼(SamAltman)今日在回应网友提问时透露,公司计划在下周向ChatGPT Plus用户开放Alpha版本的GPT-4o语音模式(VoiceMode)。这一新功能的推出将为用户实现更为流畅、无缝的语音聊天体验。
据ITBEAR科技资讯了解,GPT-4o是OpenAI最新推出的一款重要的人工智能模型,其特点在于能够处理文本、视觉和音频的端到端全新统一模型。这意味着,所有的输入和输出都将由同一个神经网络进行处理,从而大大提高了处理效率和响应速度。首席技术官穆里・穆拉蒂(MuriMurati)在早前的演讲中表示,由于GPT-4o是公司首个融合了所有这些模式的模型,因此在探索其功能及局限性方面,OpenAI仍处于初步阶段。
原定于6月底邀请一小部分ChatGPTPlus用户测试GPT-4o语音模式的计划,因需进一步提高模型的内容检测和拒绝能力而被推迟。此次,阿尔特曼的表态意味着这一创新功能即将与公众见面。
此前公开的信息显示,相较于GPT-3.5模型的平均语音反馈延迟为2.8秒,以及GPT-4模型的5.4秒延迟,GPT-4o有望极大地缩短这一延迟时间,使得语音交流更加流畅自然,近乎实现无缝对话。这无疑将为用户带来全新的交互体验,同时也展示了OpenAI在人工智能领域的持续创新和领先地位。
本文链接:http://www.28at.com/showinfo-45-6113-0.htmlOpenAI下周推出GPT-4o语音模式,ChatGPT Plus用户将率先体验无缝AI聊天
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com