上手了刷屏一天的GPT-4o,我感覺目前也就那樣
最近,OpenAI的春季發(fā)布會如期而至,而在這場發(fā)布會中,GPT-4o的發(fā)布引起了不少業(yè)內人士的關注。那么,GPT-4o的實際上手體驗如何?一起來看看作者的分享。
沒有所謂的 AI 搜索引擎,也沒有炸裂的 GPT-5 ,但 OpenAI 還是讓大伙兒感受到了,什么叫做?“Only OpenAI Can Do”?。
就在近日凌晨, OpenAI 的春季發(fā)布會終于是來了。
他們也沒多講幾句廢話,整場發(fā)布會就二十來分鐘,其中,最重磅的無異于 GPT-4o 新模型的發(fā)布。
關于 GPT-4o 起名的緣由, OpenAI 官方是這么解釋的: “ o “ 的全稱是 “ omni ” ,也就是 “ 全能 ” 的意思。
之所以說它全能,是因為它能把文本、視覺、音頻全打通了。換句話說,你跟 GPT-4o 對話就跟真人似的。
最重要的是, GPT-4o 是免費向用戶開放的,不開 Plus 會員也能用,只不過 Plus 會員要多一些使用次數(shù)。
反正跟世超一起蹲守直播的同事們看了,都直呼想要。。。
就連奧特曼也在推特上毫不避諱地,把 GPT-4o 跟科幻電影《 Her 》聯(lián)系起來。( 這部電影講的是人和 AI 語音助理談戀愛的故事 )
評論區(qū)的網(wǎng)友們也紛紛表示 “ 見證歷史 ” “ 電影終于要照進現(xiàn)實了 ” ,甚至還用奧特曼的照片,整出來了個 “ him ” 。
玩笑歸玩笑,但世超覺得, OpenAI 這次 GPT-4o 的現(xiàn)場演示效果,特別是實時語音和視頻交互的能力,確實甩了其他現(xiàn)役大模型好幾個車尾燈。
不過光這么說,大伙兒對 GPT-4o 的感受可能也不深,咱直接來看演示。
像演示人員讓 GPT-4o 從一數(shù)到十,中途就嫌它語速太慢了,讓它說快點兒, GPT-4o 能立馬反應過來,后續(xù)隨時插話它都能瞬間 get 到。
就這一個接一個的連續(xù)對話實力,說實話世超還沒在 AI 身上體驗過。
給 GPT-4o 一個麥克風和攝像頭權限,它能分分鐘化身成面試指導官,比方視頻里的這個老哥,說自己要去 OpenAI 面試,讓 GPT-4o 給點著裝建議。
它迅速 “ 打量 ” 了下這位老哥,禮貌不失幽默地給出了 “ 抓個頭發(fā) ” 的中肯建議。但老哥打算走個不聽勸的人設,順手拿出個帽子,問能不能戴它去面試。
GPT-4o 這邊反應賊快,識破了老哥明知故問地惡作劇,順著他的話茬說,也不是不行,最起碼能讓你在人群中脫穎而出。
如果不給世超看演示畫面,光聽聲音我可能會以為,這就是兩個朋友之間在開玩笑。
當然,以 GPT-4o 的知識儲備和多模態(tài)能力,它也有相當正兒八經(jīng)的應用場景。
一扭頭,就能直接化身成視障人士的眼睛,幫他們識別所在的位置,要是想知道眼前都有啥場景, GPT-4o 也能夠繪聲繪色地描繪出來,甚至還能一步一步指導視障人士打車。
再搖身一變, GPT-4o 還能化身成數(shù)學老師,把屏幕的權限開放給它,它能一步步指導你做題,你在題目上寫了啥畫了啥 GPT-4o 也都能看得一清二楚。
有一說一,這跟世超上中學時爸媽請的家教沒啥兩樣。。。
看完官方的案例視頻,相信大伙兒跟世超一樣,已經(jīng)被震撼得沒邊兒了。
而為了做到這些, OpenAI 在底層的模型上可是下了不少苦功。
之前咱們用 ChatGPT 的語音對話,都是一輪一輪的來。它得先把咱說的話轉換成文字輸給 GPT-4 ,等 GPT-4 生成文字答案之后,才能再轉成語音輸出。
也就是說,以前和 ChatGPT 語音對個話,它得動用三個模型,一個管音頻轉文本,一個 GPT-4 管文本轉文本,另外還有一個管文本轉音頻。
一整套流程下來,耐心都快給磨沒了,而且中間除非咱們手動暫停,否則根本沒插話的機會。
但 GPT-4o 不一樣,它是一個原生的多模態(tài)模型,無論文字音頻,還是視頻啥的,所有的輸入和輸出都在同一個神經(jīng)網(wǎng)絡里處理。
這種打娘胎里自帶多模態(tài)的特性,讓 GPT-4o 能夠聽懂好賴話,表達自己的情緒,和它對話也能像吃了德芙一樣絲滑。
不過,上面那些視頻終歸還是?“PPT”?,沒到手實測一波,世超也不敢輕易下定論這玩意兒是不是真的有這么強。畢竟前段時間, Sora 生成的《?氣球人?》短片才被傳出加了大量的人類后期。
而在實際用這塊, OpenAI 還是一如既往的狗,嘴上說 GPT-4o 都能免費用,但也要分先來后到,而且功能也慢慢開放。
現(xiàn)在能用上 GPT-4o 的只有 Plus 賬號,而且最重磅的實時視頻和語音功能,毛都看不著。
但有總歸比沒有強,世超手邊恰好也有個 Plus 賬號,而且官方也說了, GPT-4o 生成的速度還會比 GPT-4 快上兩倍。
所以咱這波,就先提前給差友們試試 GPT-4o 的實力。
先讓它給咱講一個童話故事,順便再畫出整個故事的分鏡圖。GPT-4o 沒猶豫幾秒,庫吃庫吃就開始寫了。
寫完中間也沒帶停頓,直接開始畫分鏡了。
而同樣的問題再拋給 GPT-4 ,它一開始就得磨蹭半天在問題上。。。
講清楚要求后才肯繼續(xù)寫,而且寫完之后也不繼續(xù)畫分鏡圖,還得等世超我再親自強調一波。
不過雖然 GPT-4 比 GPT-4o 墨跡了不少,但從內容來看,我還是會覺得 GPT-4 會更豐富一點。
再借我司老員工火鍋的照片一用,分別讓 GPT-4 和 GPT-4o 生成一張像素風的圖片。
在生成速度上 GPT-4o 完勝,但要摳細節(jié)的話兩個就半斤八兩了。
GPT-4 識別出了火鍋嘴里叼著的是袋子, GPT-4o 多識別出了一只拖鞋,非要比的話,其實 GPT-4 的金毛更像火鍋一些。。。
( 左邊 GPT-4 ,右邊 GPT-4o )
接著,我又讓 GPT-4o 把咱差評的 LOGO 換成 3D 圖片,結果它整出來字,翻遍整本新華字典,估計都找不到。
但不識漢字也是歷代 ChatGPT 的老毛病了,換成英文再要求它,你別說,這次出來的整體效果還可以,就是經(jīng)不起細看,不少英文拼寫都是錯的。。
整個上手試下來, GPT-4o 給我最大的印象就是快,非??臁?/p>
但說實話,除了快,世超真沒覺得有啥特別的了,與其說 GPT-4o 是 GPT-4 的智商進化版,倒不如說是把 GPT-4 的交互能力單拎出來強化了一波。
就像奧特曼在博客里提到的, “ 達到人類響應時間和表達水平 ” 是 AI 的巨大變化。大模型的終極形態(tài),也應該是讓人和 AI 的交流回歸到最原始、最簡單的形態(tài)。
在未來,咱們面對一臺電腦、一部手機,直接說話交流,就是最主要的交互方式。
不過這次 GPT-4o 最厲害的殺手锏:視頻交流功能,還沒放出來,等到時候咱能體驗到了再下結論也不遲。
另外,網(wǎng)友們也沒干坐著,也在各種研究 GPT-4o 的,結果,卻扒出了一些番外的料。。。
也不知道 GPT-4o 的中文語料庫是哪兒來的,里面有不少的釣魚網(wǎng)站的違禁詞,像什么?“?日本 x 片免費視頻?”?這類的。
給人老外都整無語了。。
像這樣的樂子,以后指不定還要冒出來不少。但言歸正傳, GPT-4o 的出現(xiàn)確實又給 AI 開了個新副本。
按照之前 ChatGPT 問世之后,其他友商步步緊逼的尿性。世超盲猜,在 GPT-4o 之后,類似的 “Claude-o”“Gemini-o” 應該很快就會出現(xiàn)。
剛好很快就是谷歌的 I/O 了,咱們也淺淺期待一手好吧。
圖片、資料來源:
X , OpenAI 、 Blog
本文由人人都是產品經(jīng)理作者【差評】,微信公眾號:【差評】,原創(chuàng)/授權 發(fā)布于人人都是產品經(jīng)理,未經(jīng)許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!