北京时间14日凌晨,OpenAI公司在美国加州举办新品发布会,推出一款名为GPT-4o(欧)的人工智能模型。公司表示,新模型具备“听、看、说”的出色本领。发布会上,OpenAI公司展示了新模型的多个应用场景。
据介绍,GPT-4o(欧)的“o”源自拉丁语,意思是“全能”(字幕:omni,全能),新模型能够处理50种不同的语言,提高了速度和质量,并能够读取人的情绪。
新模型可以在最短232毫秒对音频输入做出反应,与人类在对话中的反应时间相近。即使对话被打断,新模型也可以做出自然反应。这是此前人工智能语音聊天机器人做不到的。
图像输入方面,研究人员启动摄像头,要求实时完成一道方程题,新模型轻松完成了任务;研究人员还展示了它对一张气温图表进行实时解读的能力。

OpenAI公司研究人员 巴雷特:ChatGPT,我正在和你分享这张图表。你能否用非常简短的一句话概括你所看到的?
人工智能模型GPT-4o:这张图表显示了2018年全年的平均、最低和最高温度。一个明显的注释显示,9月下旬曾下过一场大雨。
【未经授权,严禁转载!联系电话028-86968276】

OpenAI新模型‘耳聪目明,口齿伶俐’,进化成了能听会看还能聊的AI界交际花,不仅能读懂你的言外之意,看透你的小心思,还能无缝对接,聊得天衣无缝,让AI的‘人性’指数直线上升!
会听会看会说的机器人,陪人聊天减压一定不错,平时想说不敢说的,可以一吐为快,比闺蜜还保密,暖人心。
大力发展人工智能
加快人工智能发展!
科技改变生活,好期待