万通商务网

记者实测OpenAI新模型GPT-4o

来源:TechWeb | 发表时间:2024/5/15
5月14日消息,今日凌晨,OpenAI正式发布了新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。
据介绍,GPT-4o在英文文本和代码中的表现与GPT-4 Turbo相当,但在非英文文本上的能力大幅提升,在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。
此外,能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。
除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT Plus用户推送。
TechWeb记者第一时间对GPT-4o进行了实测,不过目前免费用户还不能使用图片生成功能。我们使用GPT-4o来描述图片,并让其分别对一张中文图表和一张英文图表进行了分析,来看看结果。
我们首先让GPT-4o描述了一张图片,发现描述的非常准确,并可以对单独人物的动作进行描述,最后还可以用文字来分析该图片场景。
随后是一张中文图表,不但可以读懂上面的数字含义,还可以对差异和趋势进行非常详细的分析。
最后是一张英文图表,GPT-4o可以读懂并翻译图表展示的数据内容,最后根据图表数据总结得出分析结论。
总体来说,GPT-4o的能力的确有了很大的提升,未来在所有功能开放的时候,TechWeb也将继续为大家带来更详细的实测体验。
投稿报价或其它产品资讯信息,请联系客服QQ:770276607
标签:OpenAI GPT-4o
产品:
相关资讯
我要采购
采购产品
联系电话
采购数量
详细说明
采购发布后需要审核后才会上线
登录
手机版 下载app 热门词 百科词库
万通商务网 版权所有©2016 h665.cn