通信界訊 宮斗事件讓市場(chǎng)意識(shí)到獨(dú)占模型存在不穩(wěn)定性,許多公司會(huì)傾向于部署開源模型對(duì)沖風(fēng)險(xiǎn),Meta可能成為那個(gè)默默躺贏的巨頭。
全球最著名科技創(chuàng)企OpenAI的宮斗鬧劇,以CEO奧特曼在100小時(shí)內(nèi)重新掌舵而告終。但科技大廠之間暗流涌動(dòng)的角力,卻還沒有結(jié)束。
有分析指出,相比在危機(jī)中力挽狂瀾、拼命避免讓自己上百億美元投資打水漂的微軟,沒有真正卷入宮斗事件的Meta,可能才是那個(gè)默默躺贏的巨頭。原因在于,這次宮斗鬧劇,讓市場(chǎng)意識(shí)到,類似OpenAI的GPT大模型這樣的獨(dú)占模型,跟一家公司綁定太緊密,存在太多不穩(wěn)定性。
開源與封閉的路線之爭(zhēng)
在AI浪潮里,存在著兩支相互對(duì)立的派別,一派是以O(shè)penAI、Anthropic等公司為代表的“閉源派”,這些公司的大模型技術(shù)細(xì)節(jié)不對(duì)外公開,代碼由自己掌控;另一派是以Meta為代表的“開源派”,代碼公開,在版權(quán)限制范圍內(nèi),人人都可以對(duì)代碼進(jìn)行修改甚至重新開發(fā)。
支持“開源派”的人認(rèn)為,開源有利于生態(tài)的快速建立與發(fā)展,也能集結(jié)全球的力量,幫助AI模型快速迭代,開源是打開群體的智慧。去中心化,對(duì)抗權(quán)力過(guò)度集中。
但支持“閉源派”的人則指出,開源對(duì)創(chuàng)作者有害,競(jìng)爭(zhēng)對(duì)手可以復(fù)制他們的作品,并且可能具有潛在的危險(xiǎn),可能會(huì)有人利用最先進(jìn)的AI模型做壞事。
OpenAI首席科學(xué)家Ilya Sutskever曾明確表示:
“ 如果你相信AGI會(huì)到來(lái)的話,開源是一個(gè)壞主意!
Firefox瀏覽器開發(fā)商、互聯(lián)網(wǎng)開源組織Mozilla基金會(huì)總裁兼執(zhí)行董事Mark Surman對(duì)媒體表示:
“OpenAI/微軟的戲劇性事件凸顯了人工智能近期的一大風(fēng)險(xiǎn),下一波技術(shù)浪潮將由塑造了上一個(gè)互聯(lián)網(wǎng)時(shí)代的那一小撮玩家所控制......如果 GPT-X 能夠負(fù)責(zé)任地開源,讓研究人員和初創(chuàng)企業(yè)有機(jī)會(huì)讓這項(xiàng)技術(shù)變得更安全、更有用、更值得信賴,那么我們或許有機(jī)會(huì)避免這種情況!
就在幾周前,Mozilla聯(lián)合Meta首席人工智能科學(xué)家Yann LeCun等名人發(fā)布了一封呼吁AI行業(yè)更加開放的公開信,公開信已經(jīng)獲得了1700多人的簽名。
公開信中寫道:
“增加公眾訪問(wèn)和審查會(huì)使技術(shù)更安全,而不是更危險(xiǎn)。認(rèn)為對(duì)基礎(chǔ)人工智能模型進(jìn)行嚴(yán)格的專有控制是保護(hù)我們免受大規(guī)模社會(huì)危害的唯一途徑,這種想法往好了說(shuō)是天真,往壞了說(shuō)是危險(xiǎn)!
宮斗事件可能會(huì)影響OpenAI的生意
據(jù)報(bào)道,上周末,數(shù)百名OpenAI客戶開始聯(lián)系OpenAI的競(jìng)爭(zhēng)對(duì)手,其中包括Anthropic、谷歌和Cohere,他們擔(dān)心如果OpenAI一夜之間解體,自己的業(yè)務(wù)可能會(huì)受到影響。
他們的擔(dān)憂不是沒有道理。云計(jì)算行業(yè)就是一個(gè)典型的例子。華盛頓大學(xué)計(jì)算機(jī)科學(xué)教授兼OctoML首席執(zhí)行官Luis Ceze對(duì)媒體表示:
“把所有籌碼都放在一個(gè)籃子里是很危險(xiǎn)的,我們?cè)谠缙诘脑朴?jì)算時(shí)代就看到了這一點(diǎn),這導(dǎo)致公司轉(zhuǎn)向多供應(yīng)商和混合環(huán)境。”
相比OpenAI的GPT大模型,Meta的開源模型的能力差距并不大,因此也極具性價(jià)比,是公司實(shí)現(xiàn)AI配置多元化的理想渠道,依賴專有模型的企業(yè)可以通過(guò)部署開源模型,迅速將業(yè)務(wù)風(fēng)險(xiǎn)壓到最低。
還有分析稱,OpenAI短暫的宮斗鬧劇,凸顯出小企業(yè)“草臺(tái)班子”、治理不完善的一面,一些在意穩(wěn)定性的技術(shù)人員,可能會(huì)更愿意加入Meta的AI研究實(shí)驗(yàn)室。