OpenII呈現GPT-4O:從這一刻起,Chatgpt看起來越來越像“她”

OpenII推出了GPT-4O,這是一種著名型號的新版本,該版本為其主要產品提供chatgpt

昨天的廣告直播期間,該公司的首席技術官Mira Murati強調,更新的模型“更快”,並解釋了該名稱的“ O”如何代表”Omni“,指示多模式領域的進展以及改進的“處理文本,視頻和音頻的技能”。

OpenII宣布,GPT-4O的功能“將以迭代方式分發”,但其文字和圖像技能將立即在Chatgpt中提供,並且所有用戶都可以免費訪問,享受付費的用戶”提高自由用戶的技能五倍。 ”

GPT-4O以更大的反應性和管理圖像,外語和情感識別的能力為特徵,設計用於更流暢和個性化的人類互動,而“記住”過去的對話。

斯嘉麗,是嗎?

GPT-4O的介紹

OpenAI首席執行官Sam Altman將GPT-4O描述為“本地可加入”。

這個新模型具有更大的能力,可以通過語音,文本或圖像來生成內容或理解控件,最重要的是人聲模式的新功能在chatgpt。
現在聊天機器人可以充當元音助手實時響應並觀察周圍的環境:立即喚起電影“她”的呼籲的能力,在其中,斯嘉麗·約翰遜(Scarlett Johansson)將聲音借給了ia。

過去,模型的人聲模式有限,能夠一次對單個提示做出響應,並且僅根據被授予的聲音進行操作;由於需要使用單獨的音頻轉錄和人聲合成,因此需要平均延遲2.8秒(GPT-3.5)或5.4秒(GPT-4)。
GPT-4O整合了這些過程,允許對輸入和輸出進行更有效的管理:它僅延遲供應和答案之間的232毫秒,這在人類時代相當大。

在現場演示期間,GPT-4O還表明了其提供有關數學問題的建議,分析IT代碼和解釋面部表情的情緒
儘管不便,例如對未經請求的圖像和倡議的解釋不正確,但GPT-4O的潛力已被證明是強烈的前衛。

安全條款,OpenAI在其設計中採用了預防措施,包括過濾訓練數據以及通過信息後改善模型的行為。
此外,該公司還與外部專家合作,以識別和減輕與人聲輸出等新功能相關的風險。

為更美好的世界委派

新模型將自己帶入更多流體的人類大分子相互作用

在昨天發布之前,關於OpenII宣布的內容的期望存在對比鮮明的關係:搜索引擎與Google競爭,整合困惑,甚至是新的和改進的模型GPT-5。

無論如何,Openi都有戰略性操作通過在Google I/O之前發布這些新聞,該新聞是山景巨頭的主要會議,該會議是從Gemini團隊發射的各種產品,並定於今天晚上7點發布。

在現場活動結束後的博客文章中,Altman在OpenII道路上進行了反思,並意識到了公司願景的變化。儘管最初的目標是“為世界創造所有類型的利益”,但Altman表示,重點是通過付費蜜蜂為開發人員提供高級模型,使第三方可以“使用它們來創建所有類型的令人難以置信的事物我們將所有人都可以。

GPT-4O功能將直接在CHATGPT中實現,並具有Alpha版本模式,該模式將很快可用於Chatgpt Plus訂閱者。
Altman在X上補充說,有興趣嘗試GPT-4O的開發人員可以訪問API,其特徵在於價格降低50%,並且與GPT-4 Turbo相比,其特徵是雙重速度。

除了GPT-4O外應用桌面對於Mac,安排了Windows版本的年底。
此外,現在將免費提供以前用於高級訂戶的某些功能,包括有機會訪問GPT商店創建和共享個性化聊天機器人。