在这次OpenAI的新品发布会上,发言人展示了一些令人兴奋的新技术和功能。当各家科技公司还在追赶大模型多模态能力,把总结文本、P 图等功能放进手机里的时候,遥遥领先的 OpenAI 直接开了大招,发布的产品连自家 CEO 奥特曼都惊叹:就像电影里一样。
以下是一些关键点的总结:
1.实时对话语音:发言人提到了一项关键功能,即实时对话语音。他们通过手机展示了这项技术,使用了一个应用程序来激活GPT的音频能力。
2.情绪感知与响应:模型能够感知用户的情绪,如在用户呼吸急促时建议用户冷静下来。此外,模型还能够以不同的情感风格生成语音。
3.实时演示:进行了实时演示,包括一个关于机器人和爱的睡前故事,展示了模型在语音表达上的能力。
4.视觉能力:模型不仅能够进行语音交互,还能够通过视频与用户互动,展示了模型的视觉能力。
5.数学问题解决:模型帮助用户解决了一个线性方程问题,展示了其教育和辅助解决问题的能力。
6.实时翻译:模型展示了实时翻译的能力,能够在英语和意大利语之间进行转换。
7.面部表情识别:模型尝试根据用户的面部表情来识别情绪,尽管最初出现了一些技术问题。
8.编程和代码分析:模型能够接收代码,分析其功能,并提供对代码中特定函数影响的解释
9.数据可视化:模型能够分析和解释天气数据的可视化图表。
10.未来展望:发言人提到,他们将在未来几周内推出更多功能,并将继续探索新技术的边界
发布会时GPT-4o可运用具体场景:
两个GPT-4os互动唱歌 面试准备 玩剪刀石头布 理解讽刺 数学问题解答(与Sal和Imran Khan) 两个GPT-4os和声唱歌 学习西班牙语 会议AI 实时翻译 唱摇篮曲 快速对话 说“生日快乐” 模仿狗叫 讲爸爸笑话 与Andy(来自BeMyEyes in London)的互动 客户服务概念验证
1. 交互能力:接受文本、音频和图像输入,生成相应输出。
本文链接:https://joeyce.com/chatgpt/258.html
GPT-4oGPT4ogpt-4o检测人的情绪gpt-4o多模态大模型发布GPT-4o免费GPT-4o官网GPT4o官网