首页 > 动态 > 综合精选 > > 正文
2024-05-22 15:49:17

OpenAI现在有了一个带有视觉的AI模型

导读 本周对人工智能来说是重要的一周,因为OpenAI 于 5 月 13 日星期一举办了一场活动,而Google I/O 2024也将于 5 月 14 日和 15...

本周对人工智能来说是重要的一周,因为OpenAI 于 5 月 13 日星期一举办了一场活动,而Google I/O 2024也将于 5 月 14 日和 15 日举行。尽管有关 OpenAI 可能正在准备搜索竞争对手的报道没有成功,但 OpenAI 确实在周一推出了 GPT-4o。OpenAI的最新 AI 模型是多模态的,可以处理视觉、文本和语音输入的组合。虽然还为时过早,但 GPT-4o 模型的快速测试和演示给用户和 AI 研究人员留下了深刻的印象。

GPT-4o 的某些特征使其比我们迄今为止看到的任何其他形式的人工智能更有可能取代现有的产品和服务。对视觉、文本和语音输入组合的支持消除了 Humane AI Pin 和Rabbit R1等硬件设备的新颖性。据称,使用语音时的响应时间与人类一样快,这可能会让 Google Assistant 显得过时。最后,丰富的翻译和学习功能可能会让 Duolingo 这样的应用变得多余。

我们完全预计Google 将在 2024 年 I/O 大会上对抗 OpenAI 的 GPT-4o,谁知道呢,Google 可能会推出与 GPT-4o 一样好甚至更好的产品。不管怎样,科技行业的其他人是时候开始担心 OpenAI 了。到目前为止,ChatGPT 和 GPT-4 存在一些明显的缺陷,很容易被忽视。其中一些仍然存在,但 OpenAI 正在将许多内容从列表中删除。