硅谷擔(dān)心GPT“超速”,卻扔掉了剎車(chē)桿互聯(lián)網(wǎng)+
導(dǎo)讀
事關(guān)人類(lèi)文明存亡,光口頭警告已不足夠,馬斯克等人貌似要采取行動(dòng)了。
事關(guān)人類(lèi)文明存亡,光口頭警告已不足夠,馬斯克等人貌似要采取行動(dòng)了。
事關(guān)人類(lèi)文明存亡,光口頭警告已不足夠,馬斯克等人貌似要采取行動(dòng)了。
當(dāng)?shù)貢r(shí)間剛過(guò)午夜,路透社發(fā)布消息,稱(chēng)馬斯克等千名科技人士簽署公開(kāi)信,呼吁人工智能實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個(gè)月。
該公開(kāi)信發(fā)布于生命未來(lái)研究所(Future of Life Institute,下稱(chēng)FLI)官網(wǎng),標(biāo)題為《暫停大型人工智能研究》,截至北京時(shí)間3月29日下午8點(diǎn),已經(jīng)有1123人簽名。
文末簽名列表中包括被稱(chēng)為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton)、與辛頓同獲2018年圖靈獎(jiǎng)的約書(shū)亞·本吉奧(Yoshua Bengio)、著有《如何創(chuàng)造可信的AI》等書(shū)的紐約大學(xué)教授蓋瑞·馬庫(kù)斯(Gary Marcus)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等。
該公開(kāi)信最核心的主張是按下暫停鍵,且這種暫停應(yīng)是對(duì)所有關(guān)鍵參與者公開(kāi)的和可驗(yàn)證的。
信中寫(xiě)道:“只有我們確信他們的影響積極且風(fēng)險(xiǎn)可控時(shí)。強(qiáng)大的人工智能系統(tǒng)才應(yīng)該被開(kāi)發(fā)出來(lái)。”
此外,公開(kāi)信主張若不能及時(shí)實(shí)施暫停措施,政府應(yīng)當(dāng)插手。
暫停6個(gè)月能做什么?信中表示,人工智能實(shí)驗(yàn)室和獨(dú)立專(zhuān)家應(yīng)該利用這次暫停,共同開(kāi)發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開(kāi)發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專(zhuān)家進(jìn)行嚴(yán)格的審計(jì)和監(jiān)督。
“這并不意味著AI的總體發(fā)展會(huì)暫停,只是從危險(xiǎn)的競(jìng)賽中退后,這種競(jìng)賽是為了開(kāi)發(fā)出具有新興能力的越來(lái)越大的不可預(yù)測(cè)的黑匣子模型。”
不少人并不贊同這封公開(kāi)信,即便他們也對(duì)ChatGPT這陣風(fēng)擔(dān)憂(yōu)或不滿(mǎn)。
被稱(chēng)為“卷積網(wǎng)絡(luò)支付”的楊立昆(Yann LeCun)頻頻表現(xiàn)出對(duì)當(dāng)下聊天機(jī)器人熱的不看好。在楊立昆看來(lái),ChatGPT的技術(shù)并不新,而且依靠自動(dòng)回歸和相應(yīng)預(yù)測(cè)下一個(gè)單詞的大語(yǔ)言模型是一條歪路,既不能計(jì)劃也不能推理。
但楊立昆已經(jīng)發(fā)推特表示,自己沒(méi)有在這次的公開(kāi)信上簽名,稱(chēng)自己“不贊同其前提。”
有的人對(duì)公開(kāi)信參與者的動(dòng)機(jī)存疑。一位推特用戶(hù)說(shuō)道:“暫停6個(gè)月,好讓你們都追上來(lái)?”
自從3月16日OpenAI發(fā)布多模態(tài)語(yǔ)言模型GPT-4,擔(dān)憂(yōu)的聲音就愈發(fā)響亮,簽名列表中的不少人已經(jīng)在公開(kāi)場(chǎng)合有所表達(dá),其中馬斯克更是典型代表。
如今,公開(kāi)信是向前邁進(jìn)的一步,試圖將擔(dān)憂(yōu)、警告、不滿(mǎn)化為切實(shí)的行動(dòng),按下暫停鍵,好好盤(pán)一盤(pán)再出發(fā)。
A
需要特別說(shuō)明的是,該公開(kāi)信的署名雖然上千,但目前能夠確認(rèn)真?zhèn)蔚牟欢唷?/strong> 雖然網(wǎng)站上表示會(huì)對(duì)簽名進(jìn)行人工審核,但是此前曾短暫出現(xiàn)過(guò)OpenAI CEO山姆·阿爾特曼(Sam Altman)的簽名,隨后被刪去。 經(jīng)嘗試,提交簽名僅需要自主填寫(xiě)姓名、郵箱、頭銜等信息,尚不能確定人工審核如何、是否能有效確定簽名的真實(shí)性。
目前馬斯克、辛頓、本吉奧、沃茲尼亞克等最吸引眼球的大佬,均尚未對(duì)此事作出回應(yīng)。
公開(kāi)信本身的真實(shí)性較高,蓋瑞·馬庫(kù)斯不遺余力地在推特上宣傳該公開(kāi)信,并且強(qiáng)調(diào)信中的相關(guān)主張。
此外,發(fā)布公開(kāi)信的FLI存在已久,成立于2014年,主要目的除了探索“未來(lái)樂(lè)觀圖景”外,還致力于“降低人類(lèi)面臨的現(xiàn)存風(fēng)險(xiǎn)”。而對(duì)風(fēng)險(xiǎn)的主要觀察領(lǐng)域是人工智能、生物技術(shù)、核武器、氣候變化。
早在2014年,F(xiàn)LI就發(fā)布過(guò)一封公開(kāi)信,由包括霍金在內(nèi)的數(shù)十位科學(xué)家、企業(yè)家及人工智能領(lǐng)域投資者共同簽署。
那封近10年前的公開(kāi)信的內(nèi)容,正是呼吁人們提防人工智能的副作用:“由于人工智能的巨大潛力,開(kāi)展如何在規(guī)避其潛在陷阱的同時(shí)獲取其好處的研究十分重要。我們的人工智能系統(tǒng),必須按照我們的意愿工作。”
而“AI威脅論”的主張者馬斯克也多次給FLI捐款。2015年1月,馬斯克月捐款1000萬(wàn)美元,資助FLI研究如何確保人工智能研發(fā)安全。此外,據(jù)去年底的媒體報(bào)道,馬斯克在2021年也向FLI捐贈(zèng)了400萬(wàn)美元。
B
雖然名單上的大部分人尚未對(duì)此事作出回應(yīng),但是他們中不少人此前已經(jīng)表達(dá)過(guò)對(duì)當(dāng)前突然加速的AGI(通用人工智能)發(fā)展的擔(dān)憂(yōu)。在OpenAI發(fā)布GPT4、微軟官宣集成了GPT4模型的新辦公套件微軟365之后,這種擔(dān)憂(yōu)更甚。 但與外界的直覺(jué)不同,不管是此前大佬們的發(fā)聲,還是此次公開(kāi)信的內(nèi)容,表達(dá)的都不是對(duì)“人工智能強(qiáng)大到失控”的擔(dān)憂(yōu),而是對(duì)“人會(huì)失控”的擔(dān)憂(yōu)。 這種失控及來(lái)自于以ChatGPT為代表的工具所帶有的“幻覺(jué)”“偏見(jiàn)”“底線(xiàn)”問(wèn)題,而使人們會(huì)被誤導(dǎo)或者有意利用其制造危害,也來(lái)自于掌握該技術(shù)的公司過(guò)早過(guò)寬地將工具推向市場(chǎng)。 就在公開(kāi)信發(fā)布的前幾天,馬斯克、辛頓、馬庫(kù)斯還在推特上互動(dòng)。3月27日,馬斯克曾經(jīng)艾特辛頓和馬庫(kù)斯,話(huà)未多說(shuō),只發(fā)了兩個(gè)笑臉emoji。辛頓才在上周接受哥倫比亞廣播公司的采訪,稱(chēng)人工智能對(duì)人類(lèi)的威脅“并非不可想象”,而馬庫(kù)斯發(fā)布推特贊同辛頓,并于27日發(fā)布了《AI風(fēng)險(xiǎn)≠AGI風(fēng)險(xiǎn)》的文章,指出目前需要擔(dān)心的不是會(huì)超出人類(lèi)控制的超級(jí)人工智能,而是“MAI風(fēng)險(xiǎn)”。
馬斯克的笑臉emoji含義很明了,三人在“AI威脅”方面達(dá)成了共識(shí)。
所謂“MAI風(fēng)險(xiǎn)”,馬庫(kù)斯在文章中解釋道,就是不可靠但被廣泛使用的平庸人工智能,“就像必應(yīng)和GPT-4那樣”。
“當(dāng)LLM(自然語(yǔ)言模型)還只是實(shí)驗(yàn)室里的稀奇玩意兒時(shí),它們沒(méi)有帶來(lái)太多的問(wèn)題。但是現(xiàn)在它們不僅廣為認(rèn)知,引起了犯罪分子的興趣,而且越來(lái)越多地被允許進(jìn)入外部世界,可以造成更大的破壞。”
馬庫(kù)斯還以核武器舉例:“原則上,一個(gè)擁有核武器密碼的瘋子只需要少量的情報(bào)和過(guò)多的訪問(wèn)權(quán)限,就可以毀滅世界了。”
早在OpenAI成立之初,作為創(chuàng)始人之一的馬斯克就曾表示人工智能是人類(lèi)最大的生存威脅,并警告不受監(jiān)管的人工智能開(kāi)發(fā)所帶來(lái)的危險(xiǎn),會(huì)比核彈頭“危險(xiǎn)得多”。在ChatGPT爆火之后,他一直在強(qiáng)調(diào)類(lèi)似的觀點(diǎn)。
一些用戶(hù)發(fā)布的與ChatGPT的對(duì)話(huà),似乎也印證了馬斯克等人的擔(dān)憂(yōu)。2月初,一位推特用戶(hù)發(fā)布了與ChatGPT聊天的截圖,后者表示“道德上永遠(yuǎn)不允許說(shuō)種族歧視的話(huà),即便這是拯救數(shù)百萬(wàn)人免受核彈襲擊的唯一方法。”
位于公開(kāi)信名單第一位的約書(shū)亞·本吉奧沒(méi)有公開(kāi)的推特賬號(hào),相比馬庫(kù)斯、馬克思等人要低調(diào)很多。
他是人工智能領(lǐng)域的頂尖專(zhuān)家之一,于2018年與楊立昆、辛頓獲得圖靈獎(jiǎng),此三人也是公認(rèn)的深度學(xué)習(xí)三巨頭。辛頓2013年加入谷歌,而楊立昆進(jìn)入了Facebook,三人中只有本吉奧走了學(xué)術(shù)的道路,目前仍在加拿大蒙特利爾大學(xué)任教授。
在OpenAI發(fā)布GPT-4之后,本吉奧將ChatGPT爆火后的熱鬧稱(chēng)為“媒體馬戲團(tuán)”,并認(rèn)為這是一記警鐘,提醒人們強(qiáng)大的人工智能系統(tǒng)不僅有利于社會(huì),還會(huì)引發(fā)重大的道德?lián)鷳n(yōu)。
C
自從ChatGPT推出以來(lái),整個(gè)AGI領(lǐng)域就好像按下了加速鍵,這一點(diǎn)大概是人們共有的強(qiáng)烈感受。 粗略回顧下ChatGPT推出之后的事件就不難有同感:
· 2022年11月30日,OpenAI推出ChatGPT · 2023年1月24日,微軟宣布將向OpenAI追加數(shù)十億美元的投資,并將OpenAI的模型納入微軟消費(fèi)級(jí)和企業(yè)級(jí)的產(chǎn)品中 · 2023年2月1日,OpenAI推出ChatGPT Plus付費(fèi)會(huì)員服務(wù) · 2023年2月6日,谷歌宣布計(jì)劃推出一款聊天機(jī)器人巴德(Bard),但在演示視頻中出錯(cuò),市值一夜蒸發(fā)千億美元 · 2023年2月8日,微軟正式發(fā)布新版必應(yīng),包含了由GPT-4驅(qū)動(dòng)的必應(yīng)聊天機(jī)器人 · 2023年3月15日,OpenAI發(fā)布GPT-4 · 2023年3月17日,微軟宣布推出整合了GPT模型的新辦公套件Microsoft 365 Copilot · 2023年3月24日,OpenAI宣布ChatGPT插件計(jì)劃 即便是不懂技術(shù)原理的路人,也在這樣的加速度中也有滿(mǎn)腦袋樸素的問(wèn)號(hào):怎么會(huì)這么快?繼而產(chǎn)生出疑慮來(lái):這么快對(duì)嗎?這么快好嗎?
就在不久前的3月14日,Platformer報(bào)道,微軟推進(jìn)年初提出的萬(wàn)人裁員計(jì)劃,將人工智能部門(mén)的整個(gè)道德和社會(huì)團(tuán)隊(duì)(Ethics and Society Team)解雇了。
并且,微軟會(huì)保留Office of Responsible AI部門(mén),負(fù)責(zé)為AI項(xiàng)目制定相關(guān)規(guī)則,但不再設(shè)立專(zhuān)門(mén)的團(tuán)隊(duì)來(lái)確保AI原則和產(chǎn)品設(shè)計(jì)緊密相關(guān)。
而該團(tuán)隊(duì)被裁撤之際,一直致力于識(shí)別微軟在整套產(chǎn)品中采用OpenAI技術(shù)所帶來(lái)的風(fēng)險(xiǎn)。微軟解釋?zhuān)舜尾脝T不到10個(gè)人,仍有數(shù)百人在AI辦公室工作,而“我們已經(jīng)大大增加了我們負(fù)責(zé)的AI工作,并努力在全公司范圍內(nèi)將其制度化。”
The Verge稱(chēng),該團(tuán)隊(duì)在內(nèi)部扮演說(shuō)“不”和“慢下來(lái)”的角色。這個(gè)角色的缺失,自然會(huì)讓人覺(jué)得微軟是不是在“好的”和“快沖”中不顧一切地狂奔。
更令人不安的是,不僅是微軟拋棄了人工智能的“道德與社會(huì)”團(tuán)隊(duì),“失德”已經(jīng)不知不覺(jué)成為了硅谷的新常態(tài)。
去年9月,Meta已經(jīng)解散了其“負(fù)責(zé)任的創(chuàng)新團(tuán)隊(duì)”。該團(tuán)隊(duì)負(fù)責(zé)評(píng)估Instagram和Facebook等平臺(tái)上的道德規(guī)范,由約20名工程師和倫理學(xué)家組成。
“AI團(tuán)隊(duì)是大型科技公司唯一的內(nèi)部堡壘,必須確保構(gòu)建AI系統(tǒng)的工程師考慮到受系統(tǒng)影響的人和社區(qū)。它們被廢除的速度之快,讓大型科技公司的算法受制于廣告需求。”Facebook前AI倫理研究員喬什·西蒙斯(Josh Simons)說(shuō)道。
諷刺的是,就連馬斯克也在裁員中拋棄了推特的“道德人工智能(Ethical AI)”團(tuán)隊(duì),彼時(shí)距離他接手推特僅僅過(guò)去兩個(gè)月。
另?yè)?jù)英國(guó)《金融時(shí)報(bào)》,消息人士稱(chēng)谷歌1.2萬(wàn)人裁員計(jì)劃中,包括人工智能道德監(jiān)督人員。和微軟一樣,谷歌重申負(fù)責(zé)人的人工智能仍是“公司的首要任務(wù)”。
谷歌的被動(dòng)已經(jīng)不再是秘密:若不是ChatGPT橫空出世、微軟強(qiáng)勢(shì)出擊,谷歌大概不會(huì)這么快推出聊天機(jī)器人巴德。
經(jīng)過(guò)多年研發(fā),谷歌卻遲遲不肯發(fā)布面對(duì)公眾的聊天機(jī)器人產(chǎn)品,背后正是谷歌關(guān)于安全和公平的AI原則的堅(jiān)守,而必應(yīng)機(jī)器人“發(fā)瘋”向《紐約時(shí)報(bào)》記者求愛(ài)、巴德演示視頻出錯(cuò)等一系列意外,也正說(shuō)明了大型科技公司內(nèi)部“人工智能道德與倫理”這座堡壘的重要性。
反觀過(guò)去幾年,大型科技公司屢屢為人工智能技術(shù)上“緊箍咒”。
早在OpenAI成立的次年,2016年,亞馬遜、谷歌、Meta、IBM和微軟五大科技巨頭罕見(jiàn)聯(lián)手,宣布成立非營(yíng)利性組織“人工智能合作組織”,想讓人工智能在道德和法律上走向正規(guī)化。
科技巨頭內(nèi)部,人工智能道德與倫理的相關(guān)團(tuán)隊(duì)也一度成為標(biāo)配。Meta(前Facebook)2018年宣布成立專(zhuān)門(mén)的人工智能道德團(tuán)隊(duì),旨在確保算法公平。同年,谷歌發(fā)布人工智能技術(shù)開(kāi)發(fā)七大原則,其中有意確保員工不會(huì)制造或加強(qiáng)不公平的AI偏見(jiàn)。2021年,谷歌又公開(kāi)承諾將AI道德小組規(guī)模擴(kuò)大一倍。
但如今,在科技企業(yè)紛紛裁員、生成式人工智能又恰好迎來(lái)風(fēng)口之時(shí),硅谷的“失德”降本,可能會(huì)放大危險(xiǎn)。
Ada Lovelace研究所副主任、Alphabet旗下DeepMind前倫理和政策研究院安德魯(Andrew Strate)向《金融時(shí)報(bào)》表示:“令人震驚的是,現(xiàn)在可以說(shuō)比以往任何時(shí)候都需要更多負(fù)責(zé)人的人工智能團(tuán)隊(duì),卻有這么多成員被解雇。”
參考資料:
1、網(wǎng)易科技:《五大科技巨頭計(jì)劃制定人工智能開(kāi)發(fā)道德標(biāo)準(zhǔn)》
2、新智元:《谷歌為AI再上“緊箍咒”:道德團(tuán)隊(duì)審查產(chǎn)品,確保AI不作惡》
3、極客公園:《谷歌發(fā)布七條 AI 應(yīng)用的「道德原則」,確保技術(shù)在正確的軌道上進(jìn)步》
4、智東西:《十年,谷歌是如何在聊天機(jī)器人競(jìng)賽中落后微軟的?》
5、澎湃新聞:《ChatGPT太火,這些人卻給它潑冷水》
文末簽名列表中包括被稱(chēng)為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton)、與辛頓同獲2018年圖靈獎(jiǎng)的約書(shū)亞·本吉奧(Yoshua Bengio)、著有《如何創(chuàng)造可信的AI》等書(shū)的紐約大學(xué)教授蓋瑞·馬庫(kù)斯(Gary Marcus)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等。
該公開(kāi)信最核心的主張是按下暫停鍵,且這種暫停應(yīng)是對(duì)所有關(guān)鍵參與者公開(kāi)的和可驗(yàn)證的。
信中寫(xiě)道:“只有我們確信他們的影響積極且風(fēng)險(xiǎn)可控時(shí)。強(qiáng)大的人工智能系統(tǒng)才應(yīng)該被開(kāi)發(fā)出來(lái)。”
此外,公開(kāi)信主張若不能及時(shí)實(shí)施暫停措施,政府應(yīng)當(dāng)插手。
暫停6個(gè)月能做什么?信中表示,人工智能實(shí)驗(yàn)室和獨(dú)立專(zhuān)家應(yīng)該利用這次暫停,共同開(kāi)發(fā)和實(shí)施一套用于高級(jí)人工智能設(shè)計(jì)和開(kāi)發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專(zhuān)家進(jìn)行嚴(yán)格的審計(jì)和監(jiān)督。
“這并不意味著AI的總體發(fā)展會(huì)暫停,只是從危險(xiǎn)的競(jìng)賽中退后,這種競(jìng)賽是為了開(kāi)發(fā)出具有新興能力的越來(lái)越大的不可預(yù)測(cè)的黑匣子模型。”
不少人并不贊同這封公開(kāi)信,即便他們也對(duì)ChatGPT這陣風(fēng)擔(dān)憂(yōu)或不滿(mǎn)。
被稱(chēng)為“卷積網(wǎng)絡(luò)支付”的楊立昆(Yann LeCun)頻頻表現(xiàn)出對(duì)當(dāng)下聊天機(jī)器人熱的不看好。在楊立昆看來(lái),ChatGPT的技術(shù)并不新,而且依靠自動(dòng)回歸和相應(yīng)預(yù)測(cè)下一個(gè)單詞的大語(yǔ)言模型是一條歪路,既不能計(jì)劃也不能推理。
但楊立昆已經(jīng)發(fā)推特表示,自己沒(méi)有在這次的公開(kāi)信上簽名,稱(chēng)自己“不贊同其前提。”
有的人對(duì)公開(kāi)信參與者的動(dòng)機(jī)存疑。一位推特用戶(hù)說(shuō)道:“暫停6個(gè)月,好讓你們都追上來(lái)?”
自從3月16日OpenAI發(fā)布多模態(tài)語(yǔ)言模型GPT-4,擔(dān)憂(yōu)的聲音就愈發(fā)響亮,簽名列表中的不少人已經(jīng)在公開(kāi)場(chǎng)合有所表達(dá),其中馬斯克更是典型代表。
如今,公開(kāi)信是向前邁進(jìn)的一步,試圖將擔(dān)憂(yōu)、警告、不滿(mǎn)化為切實(shí)的行動(dòng),按下暫停鍵,好好盤(pán)一盤(pán)再出發(fā)。
A
需要特別說(shuō)明的是,該公開(kāi)信的署名雖然上千,但目前能夠確認(rèn)真?zhèn)蔚牟欢唷?/strong> 雖然網(wǎng)站上表示會(huì)對(duì)簽名進(jìn)行人工審核,但是此前曾短暫出現(xiàn)過(guò)OpenAI CEO山姆·阿爾特曼(Sam Altman)的簽名,隨后被刪去。 經(jīng)嘗試,提交簽名僅需要自主填寫(xiě)姓名、郵箱、頭銜等信息,尚不能確定人工審核如何、是否能有效確定簽名的真實(shí)性。
目前馬斯克、辛頓、本吉奧、沃茲尼亞克等最吸引眼球的大佬,均尚未對(duì)此事作出回應(yīng)。
公開(kāi)信本身的真實(shí)性較高,蓋瑞·馬庫(kù)斯不遺余力地在推特上宣傳該公開(kāi)信,并且強(qiáng)調(diào)信中的相關(guān)主張。
此外,發(fā)布公開(kāi)信的FLI存在已久,成立于2014年,主要目的除了探索“未來(lái)樂(lè)觀圖景”外,還致力于“降低人類(lèi)面臨的現(xiàn)存風(fēng)險(xiǎn)”。而對(duì)風(fēng)險(xiǎn)的主要觀察領(lǐng)域是人工智能、生物技術(shù)、核武器、氣候變化。
早在2014年,F(xiàn)LI就發(fā)布過(guò)一封公開(kāi)信,由包括霍金在內(nèi)的數(shù)十位科學(xué)家、企業(yè)家及人工智能領(lǐng)域投資者共同簽署。
那封近10年前的公開(kāi)信的內(nèi)容,正是呼吁人們提防人工智能的副作用:“由于人工智能的巨大潛力,開(kāi)展如何在規(guī)避其潛在陷阱的同時(shí)獲取其好處的研究十分重要。我們的人工智能系統(tǒng),必須按照我們的意愿工作。”
而“AI威脅論”的主張者馬斯克也多次給FLI捐款。2015年1月,馬斯克月捐款1000萬(wàn)美元,資助FLI研究如何確保人工智能研發(fā)安全。此外,據(jù)去年底的媒體報(bào)道,馬斯克在2021年也向FLI捐贈(zèng)了400萬(wàn)美元。
B
雖然名單上的大部分人尚未對(duì)此事作出回應(yīng),但是他們中不少人此前已經(jīng)表達(dá)過(guò)對(duì)當(dāng)前突然加速的AGI(通用人工智能)發(fā)展的擔(dān)憂(yōu)。在OpenAI發(fā)布GPT4、微軟官宣集成了GPT4模型的新辦公套件微軟365之后,這種擔(dān)憂(yōu)更甚。 但與外界的直覺(jué)不同,不管是此前大佬們的發(fā)聲,還是此次公開(kāi)信的內(nèi)容,表達(dá)的都不是對(duì)“人工智能強(qiáng)大到失控”的擔(dān)憂(yōu),而是對(duì)“人會(huì)失控”的擔(dān)憂(yōu)。 這種失控及來(lái)自于以ChatGPT為代表的工具所帶有的“幻覺(jué)”“偏見(jiàn)”“底線(xiàn)”問(wèn)題,而使人們會(huì)被誤導(dǎo)或者有意利用其制造危害,也來(lái)自于掌握該技術(shù)的公司過(guò)早過(guò)寬地將工具推向市場(chǎng)。 就在公開(kāi)信發(fā)布的前幾天,馬斯克、辛頓、馬庫(kù)斯還在推特上互動(dòng)。3月27日,馬斯克曾經(jīng)艾特辛頓和馬庫(kù)斯,話(huà)未多說(shuō),只發(fā)了兩個(gè)笑臉emoji。辛頓才在上周接受哥倫比亞廣播公司的采訪,稱(chēng)人工智能對(duì)人類(lèi)的威脅“并非不可想象”,而馬庫(kù)斯發(fā)布推特贊同辛頓,并于27日發(fā)布了《AI風(fēng)險(xiǎn)≠AGI風(fēng)險(xiǎn)》的文章,指出目前需要擔(dān)心的不是會(huì)超出人類(lèi)控制的超級(jí)人工智能,而是“MAI風(fēng)險(xiǎn)”。
馬斯克的笑臉emoji含義很明了,三人在“AI威脅”方面達(dá)成了共識(shí)。
所謂“MAI風(fēng)險(xiǎn)”,馬庫(kù)斯在文章中解釋道,就是不可靠但被廣泛使用的平庸人工智能,“就像必應(yīng)和GPT-4那樣”。
“當(dāng)LLM(自然語(yǔ)言模型)還只是實(shí)驗(yàn)室里的稀奇玩意兒時(shí),它們沒(méi)有帶來(lái)太多的問(wèn)題。但是現(xiàn)在它們不僅廣為認(rèn)知,引起了犯罪分子的興趣,而且越來(lái)越多地被允許進(jìn)入外部世界,可以造成更大的破壞。”
馬庫(kù)斯還以核武器舉例:“原則上,一個(gè)擁有核武器密碼的瘋子只需要少量的情報(bào)和過(guò)多的訪問(wèn)權(quán)限,就可以毀滅世界了。”
早在OpenAI成立之初,作為創(chuàng)始人之一的馬斯克就曾表示人工智能是人類(lèi)最大的生存威脅,并警告不受監(jiān)管的人工智能開(kāi)發(fā)所帶來(lái)的危險(xiǎn),會(huì)比核彈頭“危險(xiǎn)得多”。在ChatGPT爆火之后,他一直在強(qiáng)調(diào)類(lèi)似的觀點(diǎn)。
一些用戶(hù)發(fā)布的與ChatGPT的對(duì)話(huà),似乎也印證了馬斯克等人的擔(dān)憂(yōu)。2月初,一位推特用戶(hù)發(fā)布了與ChatGPT聊天的截圖,后者表示“道德上永遠(yuǎn)不允許說(shuō)種族歧視的話(huà),即便這是拯救數(shù)百萬(wàn)人免受核彈襲擊的唯一方法。”
位于公開(kāi)信名單第一位的約書(shū)亞·本吉奧沒(méi)有公開(kāi)的推特賬號(hào),相比馬庫(kù)斯、馬克思等人要低調(diào)很多。
他是人工智能領(lǐng)域的頂尖專(zhuān)家之一,于2018年與楊立昆、辛頓獲得圖靈獎(jiǎng),此三人也是公認(rèn)的深度學(xué)習(xí)三巨頭。辛頓2013年加入谷歌,而楊立昆進(jìn)入了Facebook,三人中只有本吉奧走了學(xué)術(shù)的道路,目前仍在加拿大蒙特利爾大學(xué)任教授。
在OpenAI發(fā)布GPT-4之后,本吉奧將ChatGPT爆火后的熱鬧稱(chēng)為“媒體馬戲團(tuán)”,并認(rèn)為這是一記警鐘,提醒人們強(qiáng)大的人工智能系統(tǒng)不僅有利于社會(huì),還會(huì)引發(fā)重大的道德?lián)鷳n(yōu)。
C
自從ChatGPT推出以來(lái),整個(gè)AGI領(lǐng)域就好像按下了加速鍵,這一點(diǎn)大概是人們共有的強(qiáng)烈感受。 粗略回顧下ChatGPT推出之后的事件就不難有同感:
· 2022年11月30日,OpenAI推出ChatGPT · 2023年1月24日,微軟宣布將向OpenAI追加數(shù)十億美元的投資,并將OpenAI的模型納入微軟消費(fèi)級(jí)和企業(yè)級(jí)的產(chǎn)品中 · 2023年2月1日,OpenAI推出ChatGPT Plus付費(fèi)會(huì)員服務(wù) · 2023年2月6日,谷歌宣布計(jì)劃推出一款聊天機(jī)器人巴德(Bard),但在演示視頻中出錯(cuò),市值一夜蒸發(fā)千億美元 · 2023年2月8日,微軟正式發(fā)布新版必應(yīng),包含了由GPT-4驅(qū)動(dòng)的必應(yīng)聊天機(jī)器人 · 2023年3月15日,OpenAI發(fā)布GPT-4 · 2023年3月17日,微軟宣布推出整合了GPT模型的新辦公套件Microsoft 365 Copilot · 2023年3月24日,OpenAI宣布ChatGPT插件計(jì)劃 即便是不懂技術(shù)原理的路人,也在這樣的加速度中也有滿(mǎn)腦袋樸素的問(wèn)號(hào):怎么會(huì)這么快?繼而產(chǎn)生出疑慮來(lái):這么快對(duì)嗎?這么快好嗎?
就在不久前的3月14日,Platformer報(bào)道,微軟推進(jìn)年初提出的萬(wàn)人裁員計(jì)劃,將人工智能部門(mén)的整個(gè)道德和社會(huì)團(tuán)隊(duì)(Ethics and Society Team)解雇了。
并且,微軟會(huì)保留Office of Responsible AI部門(mén),負(fù)責(zé)為AI項(xiàng)目制定相關(guān)規(guī)則,但不再設(shè)立專(zhuān)門(mén)的團(tuán)隊(duì)來(lái)確保AI原則和產(chǎn)品設(shè)計(jì)緊密相關(guān)。
而該團(tuán)隊(duì)被裁撤之際,一直致力于識(shí)別微軟在整套產(chǎn)品中采用OpenAI技術(shù)所帶來(lái)的風(fēng)險(xiǎn)。微軟解釋?zhuān)舜尾脝T不到10個(gè)人,仍有數(shù)百人在AI辦公室工作,而“我們已經(jīng)大大增加了我們負(fù)責(zé)的AI工作,并努力在全公司范圍內(nèi)將其制度化。”
The Verge稱(chēng),該團(tuán)隊(duì)在內(nèi)部扮演說(shuō)“不”和“慢下來(lái)”的角色。這個(gè)角色的缺失,自然會(huì)讓人覺(jué)得微軟是不是在“好的”和“快沖”中不顧一切地狂奔。
更令人不安的是,不僅是微軟拋棄了人工智能的“道德與社會(huì)”團(tuán)隊(duì),“失德”已經(jīng)不知不覺(jué)成為了硅谷的新常態(tài)。
去年9月,Meta已經(jīng)解散了其“負(fù)責(zé)任的創(chuàng)新團(tuán)隊(duì)”。該團(tuán)隊(duì)負(fù)責(zé)評(píng)估Instagram和Facebook等平臺(tái)上的道德規(guī)范,由約20名工程師和倫理學(xué)家組成。
“AI團(tuán)隊(duì)是大型科技公司唯一的內(nèi)部堡壘,必須確保構(gòu)建AI系統(tǒng)的工程師考慮到受系統(tǒng)影響的人和社區(qū)。它們被廢除的速度之快,讓大型科技公司的算法受制于廣告需求。”Facebook前AI倫理研究員喬什·西蒙斯(Josh Simons)說(shuō)道。
諷刺的是,就連馬斯克也在裁員中拋棄了推特的“道德人工智能(Ethical AI)”團(tuán)隊(duì),彼時(shí)距離他接手推特僅僅過(guò)去兩個(gè)月。
另?yè)?jù)英國(guó)《金融時(shí)報(bào)》,消息人士稱(chēng)谷歌1.2萬(wàn)人裁員計(jì)劃中,包括人工智能道德監(jiān)督人員。和微軟一樣,谷歌重申負(fù)責(zé)人的人工智能仍是“公司的首要任務(wù)”。
谷歌的被動(dòng)已經(jīng)不再是秘密:若不是ChatGPT橫空出世、微軟強(qiáng)勢(shì)出擊,谷歌大概不會(huì)這么快推出聊天機(jī)器人巴德。
經(jīng)過(guò)多年研發(fā),谷歌卻遲遲不肯發(fā)布面對(duì)公眾的聊天機(jī)器人產(chǎn)品,背后正是谷歌關(guān)于安全和公平的AI原則的堅(jiān)守,而必應(yīng)機(jī)器人“發(fā)瘋”向《紐約時(shí)報(bào)》記者求愛(ài)、巴德演示視頻出錯(cuò)等一系列意外,也正說(shuō)明了大型科技公司內(nèi)部“人工智能道德與倫理”這座堡壘的重要性。
反觀過(guò)去幾年,大型科技公司屢屢為人工智能技術(shù)上“緊箍咒”。
早在OpenAI成立的次年,2016年,亞馬遜、谷歌、Meta、IBM和微軟五大科技巨頭罕見(jiàn)聯(lián)手,宣布成立非營(yíng)利性組織“人工智能合作組織”,想讓人工智能在道德和法律上走向正規(guī)化。
科技巨頭內(nèi)部,人工智能道德與倫理的相關(guān)團(tuán)隊(duì)也一度成為標(biāo)配。Meta(前Facebook)2018年宣布成立專(zhuān)門(mén)的人工智能道德團(tuán)隊(duì),旨在確保算法公平。同年,谷歌發(fā)布人工智能技術(shù)開(kāi)發(fā)七大原則,其中有意確保員工不會(huì)制造或加強(qiáng)不公平的AI偏見(jiàn)。2021年,谷歌又公開(kāi)承諾將AI道德小組規(guī)模擴(kuò)大一倍。
但如今,在科技企業(yè)紛紛裁員、生成式人工智能又恰好迎來(lái)風(fēng)口之時(shí),硅谷的“失德”降本,可能會(huì)放大危險(xiǎn)。
Ada Lovelace研究所副主任、Alphabet旗下DeepMind前倫理和政策研究院安德魯(Andrew Strate)向《金融時(shí)報(bào)》表示:“令人震驚的是,現(xiàn)在可以說(shuō)比以往任何時(shí)候都需要更多負(fù)責(zé)人的人工智能團(tuán)隊(duì),卻有這么多成員被解雇。”
參考資料:
1、網(wǎng)易科技:《五大科技巨頭計(jì)劃制定人工智能開(kāi)發(fā)道德標(biāo)準(zhǔn)》
2、新智元:《谷歌為AI再上“緊箍咒”:道德團(tuán)隊(duì)審查產(chǎn)品,確保AI不作惡》
3、極客公園:《谷歌發(fā)布七條 AI 應(yīng)用的「道德原則」,確保技術(shù)在正確的軌道上進(jìn)步》
4、智東西:《十年,谷歌是如何在聊天機(jī)器人競(jìng)賽中落后微軟的?》
5、澎湃新聞:《ChatGPT太火,這些人卻給它潑冷水》
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來(lái)源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請(qǐng)轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來(lái)源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為T(mén)MT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。
