OpenAI 已开始向部分客户展示一款新的多模态 AI 模型,该模型能够进行对话并辨识物品。根据外媒《The Information》,OpenAI 预计在周一活动上展现新功能。
据报导,新的多模态模型在辨识图像和声音方面,比 OpenAI 现有的模型表现更快、更准确。新模型能帮助客服更好地理解来电者的语气,以及是否在讽刺,且「理论上」能够协助学生解决数学问题或翻译现实世界中的标志。
消息人士指出,新模型在回答特定类型的问题时,表现甚至可能胜过当前的 GPT-4 Turbo,但也仍有可能会生成错误的回应。
除了多模态 AI 功能外,OpenAI 也传闻正准备对 ChatGPT 进行更新,增加电话通话功能,有开发者贴出与通话相关的程式码,并表示 OpenAI 在准备用於即时声音和视讯通话的伺服器。
Sam Altman 先前也暗示,即将发布的是 ChatGPT 和 GPT-4「魔法般」的新功能,但他明确否认会会发表备受期待的 GPT-5 模型,其计划将於年底发布。同时 Altman 也证实,这周并不会推出新 AI 驱动的搜索引擎。
如果 OpenAI 本周一真的揭晓了据报的多模态 AI 功能,这消息有可能会盖过Google 即将在 I/O 大会上展示的相似 AI 技术,有消息透露 Google 也在测试 AI 通话功能,以及镜头辨识物体能力。
随着 AI 模型越来越擅长将文字、视觉和声音等不同模态融合到一个系统中,OpenAI 即将展示的成果似乎准备将多模态 AI 助理带往新高度。OpenAI 预计於台湾时间 5/14 凌晨一点进行直播。
责任编辑:Jocelyn
核稿编辑:Chris
本文初稿为 INSIDE 使用 AI 编撰。快加入 INSIDE Google News 按下追踪,给你最新、最 IN 的科技新闻!