OpenAI 在 2024 年春季推出了 GPT-4o,这是其最新的旗舰模型,能够实时处理音频、视觉和文本信息。
提示:若想成为 GPT-4o 的付费用户,请使用邀请码 ACCPAY,可直接免除 2 美元的开卡费。虚拟卡开通后,您可以通过支付宝充值以升级 ChatGPT,或直接使用 ChatGPT,只需手机号注册即可体验其他海外订阅服务。
GPT-4o 的强大功能
GPT-4o(“o”代表“omni”)是人机交互的一次重大进步。它能够接受文本、音频和图像的任意组合作为输入,并生成相应的输出。其响应时间短至 232 毫秒,平均为 320 毫秒,接近人类的反应速度。
在英语文本和代码的处理上,GPT-4o 的性能与 GPT-4 Turbo 相当,而在非英语文本的处理上则有显著提升。同时,API 的速度更快,成本降低了 50%。在视觉和音频理解方面,GPT-4o 的表现尤为突出。
模型能力
在 GPT-4o 发布之前,用户通过语音模式与 ChatGPT 对话的平均延迟为 2.8 秒(GPT-3.5)和 5.4 秒(GPT-4)。这一过程由三个独立模型组成,导致信息的损失。GPT-4o 通过端到端的训练,整合了文本、视觉和音频的处理能力,提升了整体性能。
模型评估
根据传统基准测试,GPT-4o 在文本、推理和编码智能方面达到了 GPT-4 Turbo 的性能水平,并在多语言、音频和视觉功能上设立了新的标杆。
- 文本评价:在 0-shot COT MMLU(常识问题)上,GPT-4o 创下了 88.7% 的新高分。
- 音频 ASR 性能:GPT-4o 显著提升了所有语言的语音识别能力,尤其是资源匮乏语言的表现。
- 音频翻译性能:在语音翻译方面,GPT-4o 设立了新的最先进水平。
可用性
GPT-4o 是 OpenAI 在深度学习领域的最新突破,旨在提升实用性。OpenAI 在过去两年中致力于提高每一层的效率,GPT-4o 的功能将逐步推出。
目前,GPT-4o 的文本和图像功能已在 ChatGPT 中上线,免费用户可以体验 GPT-4o 的智能,而 Plus 用户则享有更高的消息限制。
ChatGPT 免费用户可访问的功能
OpenAI 还介绍了 ChatGPT 免费用户可以访问的新功能,包括:
- 体验 GPT-4 级别的智能
- 从联网后的模型获取响应
- 数据分析与图表创建
- 讨论上传的照片
- 上传文件以帮助总结、撰写或分析
- 发现和使用 GPTs 及 GPT Store
- 用记忆构建更有用的体验
免费向所有人提供 GPT-4 级别的 AI
全新的 AI 模型现已免费向所有用户开放,您可以通过 ChatGPT 页面体验 GPT-4o 的强大功能。
无论您是付费用户还是免费用户,都能通过 GPT-4o 体验到 GPT-4 级别的智能。唯一的区别在于,ChatGPT Plus 用户的消息限制是免费用户的 5 倍。
GPT-4o 不仅提供与 GPT-4 同等的模型能力,其推理速度更快,还具备同时理解文本、图像和音频的多模态能力。
在这次 OpenAI 春季发布会上,GPT-4o 的发布再次证明了 OpenAI 在 AI 领域的领导地位。