OpenAI視頻模型Sora被惡意泄露,又拉馬斯克背鍋?

1 評論 163 瀏覽 0 收藏 9 分鐘

在人工智能技術(shù)迅猛發(fā)展的今天,OpenAI的文本轉(zhuǎn)視頻AI模型Sora遭遇了一次意外的API泄露事件,引發(fā)了業(yè)界的廣泛關(guān)注。

11月27日凌晨,OpenAI的文生視頻模型Sora,被人惡意泄露了API,使其短暫地開放了1小時左右。

據(jù)了解,此次泄露事件是由于自今年年初OpenAI首次預(yù)告了其文本轉(zhuǎn)視頻AI模型 Sora后,一直沒有提供任何具體的更新。導(dǎo)致一群參與OpenAI新型文本轉(zhuǎn)視頻AI模型Sora的測試藝術(shù)家,因?qū)镜牟粷M而泄露了該模型的早期訪問權(quán)限。

在OpenAI介入并關(guān)閉相應(yīng)權(quán)限之前,已經(jīng)有不少人制作了AI視頻并流出。此次對于OpenAI會造成什么樣的影響呢?

一、藝術(shù)家們的憤怒

據(jù)悉,泄露者通過AI開發(fā)平臺Hugging Face發(fā)布了一個與Sora API相關(guān)的項目,利用早期訪問的認證token,創(chuàng)建了一個前端界面,允許用戶生成視頻。通過這個前端,任何用戶都可以輸入簡短的文字描述,生成最長10秒、分辨率高達1080p的視頻。

隨后,許多用戶在社交媒體上分享了生成的視頻示例,這些視頻大多帶有OpenAI的視覺水印。然而,短暫地開放了1小時左右,前端界面就停止了工作,外界猜測OpenAI和Hugging Face可能已經(jīng)撤銷了訪問權(quán)限。

而且,這些藝術(shù)家在Hugging Face這一公共AI模型平臺上發(fā)布了他們的抗議信,聲稱自己在測試過程中被公司利用,成為“無償?shù)难邪l(fā)和公關(guān)工具”。

在這封公開信中,藝術(shù)家們表示:“親愛的企業(yè)AI領(lǐng)主們,我們獲得Sora的測試權(quán)限時,被承諾是早期測試者和創(chuàng)意合作伙伴。然而,我們認為自己只是被引誘進入一種‘藝術(shù)洗白’的過程,為Sora做宣傳。” 他們強調(diào),藝術(shù)家不是公司的 “免費bug測試員、宣傳工具、訓(xùn)練數(shù)據(jù)或驗證token”。

有意思的是,在公開信相關(guān)網(wǎng)站上,它獲得了122名聯(lián)名支持者,其中甚至出現(xiàn)了馬斯克的名字。但考慮到簽名系統(tǒng)不需要嚴格的身份認證,暫時不能確定其是否為馬斯克本人。

在事件發(fā)生后,當(dāng)有媒體聯(lián)系OpenAI時,OpenAI并未證實Sora泄露的真實性,但強調(diào)參與 “研究預(yù)覽” 的藝術(shù)家是自愿的,并不需要提供反饋或使用該工具。

科技旋渦認為,年初OpenAI首次向世界展示了Sora,其生成視頻的時長、質(zhì)量讓人耳目一新,但幾乎一年時間過去了,OpenAI對Sora還沒有有效更新,不過這還不是最可怕的,如果當(dāng)它的正式版本發(fā)布后,已經(jīng)屬于落后的技術(shù),那才是OpenAI的悲哀。

二、OpenAI的安全問題

Sora相關(guān)項目的泄露很容易讓人們聯(lián)想到安全的問題,如果這個事件繼續(xù)發(fā)酵,很容易讓大家對利用大量數(shù)據(jù)進行訓(xùn)練的AI公司失去信任。

而且,這樣的安全隱患隨著一位已辭職的OpenAI團隊負責(zé)人的發(fā)言變得越來越接近,他表示,科技巨頭微軟斥巨資支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”團隊,該團隊曾經(jīng)負責(zé)向這家AI初創(chuàng)公司提供如何處理與應(yīng)對越來越強大的AI技術(shù)方面的解決方案與建議,以及提供當(dāng)今世界是否準(zhǔn)備好管理這些技術(shù)方面的建議?!癆GI Readiness”團隊曾經(jīng)的團隊主管表示,希望在外部繼續(xù)AGI領(lǐng)域的相關(guān)研究。近期越來越多跡象表明,OpenAI似乎全身心投入AI創(chuàng)收,無暇顧及AI安全。

而在本月初,OpenAI再痛失一員大將,OpenAI安全研究副總裁Lilian Weng發(fā)出長信,官宣離開OpenAI的安全團隊。

今年9月,OpenAI宣布其安全與安保委員會將成為獨立的董事會監(jiān)督委員會,該委員會于今年5月成立,負責(zé)處理有關(guān)安全流程的爭議。該委員會最近結(jié)束了為期90天的審查,對OpenAI的流程和保障措施進行了評估,然后向董事會提出了建議。

高管離職和董事會變動的消息也是繼今年夏天圍繞OpenAI的安全問題和爭議日益增多之后傳出的,此時OpenAI與谷歌、微軟、Meta和其他公司正處于生成式人工智能軍備競賽的風(fēng)口浪尖——據(jù)預(yù)測,這個市場將在十年內(nèi)達到1萬億美元的營收規(guī)模——因為各行各業(yè)的公司似乎都急于增加人工智能聊天機器人和代理,以避免被競爭對手甩在身后。

據(jù)The Information援引一位了解相關(guān)會議情況的人士透露,今年夏天,在一些并未公開的會議上,奧特曼的團隊向美國國家安全官員展示了“草莓”模型。

報道指出,通過向政府官員展示一項尚未發(fā)布的技術(shù),OpenAI可能為人工智能開發(fā)者樹立了新標(biāo)準(zhǔn),尤其是在先進人工智能日益成為潛在安全隱患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者認為該項技術(shù)形成威脅,那么他們可能給公司帶來麻煩。

不過,一些業(yè)界人士對此并不買賬,因為OpenAI并未向公眾提升透明度。AI初創(chuàng)公司Abacus.AI CEO Bindu Reddy表示,封閉的OpenAI將他們最好的大模型藏在背后,以此來取得領(lǐng)先優(yōu)勢。“如果沒有開源AI,我們都會完蛋,我們可能會把文明的控制權(quán)交給1到2家公司。”

三、寫在最后

雖然這次藝術(shù)家們的泄露只是抒發(fā)出自己的不滿,好像沒有造成更大的影響,但OpenAI的ChatGPT平臺被曝出一系列沙盒漏洞,用戶竟能在本不該接觸的環(huán)境中游刃有余,文件上傳、命令執(zhí)行甚至文件結(jié)構(gòu)瀏覽,這令人不禁想起黑客神秘的入侵操作。這些安全問題的出現(xiàn),進一步凸顯了OpenAI在網(wǎng)絡(luò)安全方面的潛在風(fēng)險。

作者 & 編輯|賈桂鵬

本文由人人都是產(chǎn)品經(jīng)理作者【科技旋渦】,微信公眾號:【科技旋渦】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Sora視頻截圖

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 出現(xiàn)惡意泄露,不得不說以后用chatGPT難免會擔(dān)心,擔(dān)心這樣的事會再次發(fā)生。

    來自廣東 回復(fù)