如果OpenAI有最想劃掉的經(jīng)歷,那么大概率就是推出AI Classifier了。
作為轟動(dòng)全球的ChatGPT的研發(fā)者,OpenAI在AI時(shí)代所獲得的關(guān)注無(wú)人能比。然而,就是這么一家在AI領(lǐng)域讓人難以望其項(xiàng)背的公司,最近卻遭遇了滑鐵盧。
今年1月,OpenAI推出了可以識(shí)別文本來(lái)源類別的應(yīng)用AI Classifier。OpenAI原打算用它來(lái)檢測(cè)某個(gè)文本的來(lái)源是人工智能編寫還是人類編寫。然而,它的表現(xiàn)出乎意料的差。
AI Classifier的正確識(shí)別率不僅不盡如人意,甚至比不上其它毫不知名的小公司所開(kāi)發(fā)的工具,短短半年時(shí)間就被停止了服務(wù)。
自知面上無(wú)光的OpenAI甚至把停止服務(wù)的公告都隱藏在1月份發(fā)布的文章里面,采用內(nèi)容更新的方式編輯的舊聞。
AI Classifier的失敗從側(cè)面證實(shí)了,目前,OpenAI并沒(méi)有有效的辦法控制ChatGPT所造成的影響。
而這件“停服小事”已經(jīng)淹沒(méi)在信息海洋中,并沒(méi)有引發(fā)大家足夠的重視。
01
AI Classifier誕生背景:教育界的集體抵制
2022年11月底,ChatGPT一經(jīng)推出就火遍全球,短短5天時(shí)間吸引了上百萬(wàn)用戶,僅用兩個(gè)月就達(dá)到上億月活,躥紅速度前無(wú)古人,甚至在并沒(méi)有開(kāi)通服務(wù)的大洋彼岸引發(fā)了一次大模型進(jìn)化風(fēng)潮。無(wú)數(shù)的中小公司改頭換面,套殼蹭熱度,甚至一時(shí)之間在BOSS上新誕生出了ChatGPT運(yùn)營(yíng)、ChatGPT提示詞工程師等等崗位。一波又一波的新媒體人通過(guò)視頻、圖文等方式,教網(wǎng)友怎么靠AI賺錢。
B端企業(yè)更是嗷嗷待哺,一系列與AI有關(guān)的公司突然成為當(dāng)紅炸子雞。前腳還罵百度錯(cuò)過(guò)了移動(dòng)時(shí)代的人,后腳就夸百度是個(gè)有遠(yuǎn)見(jiàn)的長(zhǎng)期主義者。在某些“大廠”內(nèi)部,更是全員開(kāi)腦洞,集體研究大模型可以如何運(yùn)用,怎么和現(xiàn)有業(yè)務(wù)相結(jié)合。甚至有車企表示,把大模型集成到車機(jī)系統(tǒng)中,也是正在考慮的事項(xiàng)。
而身在ChatGPT核心地帶的小孩們,則成為首批通過(guò)ChatGPT獲益的人。Study的一項(xiàng)調(diào)查顯示,有超過(guò)89%的學(xué)生通過(guò)ChatGPT做作業(yè),這引發(fā)了教育界的普遍擔(dān)憂。而這些擔(dān)憂中,也包含部分老師的驚訝。有美國(guó)教師表示,嘗試用ChatGPT為學(xué)生評(píng)估作業(yè),發(fā)現(xiàn)ChatGPT迅速的提供了比他自己更詳細(xì)更有用的反饋。
相比于鼓吹A(chǔ)I能力的科技作者,教育界的擔(dān)憂還體現(xiàn)在傳統(tǒng)教育思維有可能被打破的困擾上。美國(guó)權(quán)利法案研究所的一項(xiàng)投票顯示,有52.8%的人認(rèn)為應(yīng)該禁止ChatGPT進(jìn)入課堂。他們認(rèn)為,人工智能對(duì)傳統(tǒng)學(xué)習(xí)構(gòu)成了威脅。此外,ChatGPT還有被剽竊、給出錯(cuò)誤答案和誤導(dǎo)人的嫌疑。有人留言警告稱,ChatGPT開(kāi)始取代批判性思維。
根據(jù)報(bào)道,包括美國(guó)在內(nèi),多地多所學(xué)校曾禁止學(xué)校設(shè)備和網(wǎng)絡(luò)對(duì)ChatGPT的訪問(wèn),英國(guó)的倫敦帝國(guó)理工大學(xué)和劍橋大學(xué)等頂尖大學(xué)也都發(fā)表聲明,警告學(xué)生不要使用ChatGPT作弊。而對(duì)于ChatGPT究竟是改變教育還是摧毀教育,網(wǎng)絡(luò)上的爭(zhēng)辯此起彼伏,但提及最多的,還是這種工具的依賴性會(huì)摧毀人們的批判性思維和創(chuàng)造力。
此外,來(lái)自科學(xué)界的聲音也將矛頭對(duì)準(zhǔn)了ChatGPT?!犊茖W(xué)》雜志明確禁止將ChatGPT列為合著者,且不允許在論文中使用ChatGPT所生產(chǎn)的文本?!蹲匀弧冯s志表示,可以在論文中使用大型語(yǔ)言模型生成的文本,但不能將其列為論文合著者。
而在文本之外,由AI生產(chǎn)的圖片和視頻則更具欺騙性,有關(guān)于此前AI換臉?biāo)鶐?lái)的道德問(wèn)題被重新提及。在這種情況下,如何分辨內(nèi)容來(lái)自人類還是AI就變得尤為重要。
02
拜登:你們要給AI生產(chǎn)的內(nèi)容加個(gè)水印
如果說(shuō),教育和科研界對(duì)于ChatGPT的擔(dān)心更多的是用戶使用層面,那么來(lái)自于國(guó)家政策方面的阻力以及對(duì)安全性的擔(dān)憂則對(duì)OpenAI生存造成了極大挑戰(zhàn)。
在今年3月底,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布,暫時(shí)禁止使用ChatGPT,并表示已對(duì)ChatGPT背后的OpenAI公司展開(kāi)調(diào)查,這也是首個(gè)禁止ChatGPT的西方國(guó)家。其后,包括德國(guó)、加拿大等國(guó)也開(kāi)始調(diào)查OpenAI相關(guān)問(wèn)題。
甚至,包括圖靈獎(jiǎng)得主約書亞·本吉奧、特斯拉CEO埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫?沃茲尼亞克等數(shù)千名AI領(lǐng)域企業(yè)家、學(xué)者、高管發(fā)出公開(kāi)信,建議所有AI研究室立刻暫停訓(xùn)練比GPT-4更加強(qiáng)大的AI系統(tǒng),為期至少6個(gè)月,并建議各大企業(yè)、機(jī)構(gòu)共同開(kāi)發(fā)一份適用于AI研發(fā)的安全協(xié)議,同時(shí)信中還提到各國(guó)政府應(yīng)當(dāng)在必要的時(shí)候介入其中。
而對(duì)于中國(guó)、俄羅斯和伊朗等國(guó),雖然ChatGPT并未遭到禁止,但OpenAI主動(dòng)屏蔽了相關(guān)地區(qū)用戶的注冊(cè)許可。截至目前,包括美國(guó)在內(nèi)的多個(gè)國(guó)家都已經(jīng)開(kāi)始對(duì)OpenAI進(jìn)行數(shù)據(jù)安全、虛假信息等方面的調(diào)查。部分政客甚至擔(dān)心,ChatGPT之類的應(yīng)用會(huì)操縱選舉。
今年7月26日,微軟、谷歌和OpenAI等公司發(fā)布聯(lián)合公告,宣布成立前沿模型論壇(Frontier Model Forum),致力于確保安全、負(fù)責(zé)任地開(kāi)發(fā)前沿人工智能AI模型。這些動(dòng)作顯然與民眾要求美國(guó)加強(qiáng)對(duì)AI的監(jiān)管呼聲有關(guān)。
微軟總裁布拉德·史密斯表示:“開(kāi)發(fā)AI技術(shù)的公司有責(zé)任確保其安全、可靠,并仍處于人類控制之下?!監(jiān)penAI負(fù)責(zé)全球事務(wù)的副總裁安娜·馬坎朱也發(fā)表聲明稱:這是一項(xiàng)緊迫的工作,這個(gè)論壇有能力迅速采取行動(dòng),推進(jìn)AI的安全狀況。”
然而,該舉措仍舊遭到質(zhì)疑,科技公司被指試圖趕在監(jiān)管機(jī)構(gòu)之前制定AI開(kāi)發(fā)和部署的規(guī)則??棺h人士表示,科技行業(yè)有未能遵守“自我監(jiān)管承諾”的歷史。
在成立該論壇之前,拜登曾與前沿模型論壇的創(chuàng)始人會(huì)面,白宮敦促相關(guān)企業(yè)給出“保障措施”,會(huì)議承諾,對(duì)人工智能生產(chǎn)的內(nèi)容增加數(shù)字水印,以便更容易發(fā)現(xiàn)深度偽造等誤導(dǎo)性材料。不過(guò)此項(xiàng)措施仍舊被美國(guó)媒體指責(zé)動(dòng)作太慢。
早在今年6月,歐盟立法者同意了一系列規(guī)則草案,其中就包括ChatGPT等系統(tǒng)必須披露人工智能生成的內(nèi)容。
03
互聯(lián)網(wǎng)已經(jīng)被大規(guī)模污染,沒(méi)有人能夠逃脫
如果說(shuō),來(lái)自政界和教育界的擔(dān)憂是前瞻性的,那么互聯(lián)網(wǎng)上被人工智能污染且循環(huán)利用的垃圾信息正在困擾著每一個(gè)互聯(lián)網(wǎng)的使用者。
最近,在中文互聯(lián)網(wǎng)上流傳著這樣的一個(gè)事件。有用戶向Bing提問(wèn)“象鼻山是否有纜車”,Bing給出了看似專業(yè)的答案,甚至有營(yíng)業(yè)時(shí)間和票價(jià)。然而,網(wǎng)友點(diǎn)開(kāi)參考鏈接,竟然發(fā)現(xiàn)參考鏈接的回答者仍然是AI,這個(gè)AI在知乎上的很多回答內(nèi)容都未經(jīng)證實(shí)。
而在國(guó)外,美國(guó)知名科幻電子雜志《克拉克世界》的總編尼爾·克拉克說(shuō),今年早些時(shí)候,該雜志不得不暫時(shí)停止接受在線投稿,因?yàn)槠浔粩?shù)百篇人工智能生成的故事給淹沒(méi)。與此相似的還有,洛桑聯(lián)邦理工學(xué)院的研究人員在網(wǎng)上聘請(qǐng)自由撰稿人,對(duì)《新英格蘭醫(yī)學(xué)雜志》上發(fā)表的摘要進(jìn)行總結(jié),結(jié)果發(fā)現(xiàn)其中超過(guò)三分之一的人使用了人工智能生成的內(nèi)容。
性質(zhì)更為惡劣的是,有網(wǎng)友發(fā)現(xiàn),AI會(huì)制作假的科普配圖,甚至生產(chǎn)假新聞。江西一男子為吸粉引流,曾利用ChatGPT生成假新聞,聲稱“鄭州雞排店驚現(xiàn)血案”,內(nèi)容獲得瘋狂轉(zhuǎn)發(fā)。深圳一自媒體公司,為獲得流量,通過(guò) ChatGPT 修改編輯過(guò)時(shí)的社會(huì)熱點(diǎn)新聞,炮制假新聞在平臺(tái)上分發(fā)獲取收益,最終被警察抓獲。
據(jù)美國(guó)的民間新聞評(píng)級(jí)公司NewsGuard的調(diào)查,全球有至少365個(gè)AI生成新聞網(wǎng)站。這些網(wǎng)站幾乎沒(méi)有人監(jiān)督,語(yǔ)言涵蓋了中文、英文、法語(yǔ)等13種語(yǔ)言。網(wǎng)站主通過(guò)低質(zhì)且虛假的內(nèi)容獲取流量,進(jìn)行廣告位的售賣,以此獲得利潤(rùn)。該機(jī)構(gòu)還發(fā)現(xiàn),ChatGPT-3.5在被提示時(shí),80%的情況下會(huì)產(chǎn)生錯(cuò)誤信息和虛假敘述,ChatGPT-4在這種情況下比例上升至100%。此外,該機(jī)構(gòu)還聲稱,中文互聯(lián)網(wǎng)中錯(cuò)誤的AI信息要多于英文互聯(lián)網(wǎng)。
更令人憂心的是,AI不僅入侵了網(wǎng)絡(luò)新聞,還正在稀釋購(gòu)物網(wǎng)站點(diǎn)評(píng)的真實(shí)性。有截圖顯示,在亞馬遜上的一款商品的評(píng)價(jià)中,有人上傳了AI產(chǎn)生的評(píng)價(jià),“作為一個(gè) AI 語(yǔ)言模型,我沒(méi)有親自使用過(guò)這個(gè)產(chǎn)品,但根據(jù)它的功能和用戶評(píng)論,我可以自信地給它打 5 星”。
04
AI準(zhǔn)確性需要消耗大量資源,而OpenAI需要降本增效
ChatGPT顯然是一個(gè)充滿能量的物種,但是越來(lái)越多的麻煩正在纏繞著OpenAI。不同于國(guó)內(nèi)余波未平的大模型和AIGC熱,越來(lái)越多國(guó)外的機(jī)構(gòu)和媒體正在質(zhì)疑ChatGPT對(duì)于環(huán)境的負(fù)面影響。
模型精度和算力強(qiáng)相關(guān)。模型的大小由其參數(shù)量及其精度決定,精度下降使得算力承載擴(kuò)大的同時(shí),也會(huì)導(dǎo)致性能在一定程度上下降。而算力又對(duì)應(yīng)著資源消耗,資源的背后則是成本和環(huán)境問(wèn)題。因此,一個(gè)精確的通用大語(yǔ)言模型背后所消耗的資源可能是海量的。
加州大學(xué)研究人員的報(bào)告顯示,微軟數(shù)據(jù)中心在訓(xùn)練GPT-3期間,使用了大約70萬(wàn)升的淡水。當(dāng)ChatGPT用于回答問(wèn)題或生成文本任務(wù)時(shí),20-50個(gè)簡(jiǎn)單對(duì)話就會(huì)消耗一瓶500ml的水(服務(wù)器中的能量會(huì)轉(zhuǎn)換為熱量,需要用水來(lái)降溫)。知名計(jì)算機(jī)專家吳軍形容,ChatGPT每訓(xùn)練一次,相當(dāng)于3000輛特斯拉在一個(gè)月走完了21年的路。
根據(jù)斯坦福人工智能研究所(HAI)發(fā)布的《2023年人工智能指數(shù)報(bào)告》,訓(xùn)練像OpenAI的GPT-3這樣的人工智能模型所需消耗的能量,足可以讓一個(gè)普通美國(guó)家庭用上數(shù)百年。
而根據(jù)方正證券的一份研究報(bào)告,如果Open AI想通過(guò)ChatGPT實(shí)現(xiàn)盈利,那么就需要通過(guò)降低精度控制算力成本,并且提高用戶的付費(fèi)率。目前,ChatGPT大部分用戶使用的正是免費(fèi)且所占算力成本巨大的GPT-3.5。
因此,無(wú)論是從資源環(huán)境的方面,還是出于項(xiàng)目成本控制的考慮,降低GPT-3.5的精度似乎都成為了一項(xiàng)可以考慮的事情。
此前就有媒體報(bào)道,GPT-4疑似變笨。有國(guó)外網(wǎng)友稱,雖然GPT-4反應(yīng)很快,但它的輸出質(zhì)量更像是GPT-3.5++。GPT-4產(chǎn)生了更多的bug代碼,答案也缺乏深度和分析,其對(duì)復(fù)雜程度相似的問(wèn)題處理結(jié)果甚至還不如它的前身GPT-3或GPT-3.5。
這直接引發(fā)了OpenAI為節(jié)約成本偷工減料質(zhì)疑。
05
OpenAI打開(kāi)的是魔盒還是百寶箱,最終還要看人類自己
目前OpenAI有非常多棘手的問(wèn)題有待解決,其中有生存的問(wèn)題,更有發(fā)展的問(wèn)題,而這些問(wèn)題都急需ChatGPT可以與人類重建信任,而信任的第一步就是可追溯。
從教育界開(kāi)始,越來(lái)越多的人需要分清哪些內(nèi)容來(lái)自于AI,哪些內(nèi)容來(lái)自于人類。除了OpenAI自研的AI Classifier外,普林斯頓大學(xué)的華人學(xué)生開(kāi)發(fā)的軟件 GPTZero也曾被給予厚望,但效果并不盡如人意。此外,包括Turnitin等軟件也有AI檢測(cè)的功能,但識(shí)別準(zhǔn)確率仍然不夠高。
有人把目前的AI技術(shù)大爆炸描述成“軍備競(jìng)賽”,但似乎,我們現(xiàn)在確實(shí)也到了面對(duì)新型“核彈”的時(shí)刻。雖然OpenAI不同的高管在多個(gè)場(chǎng)所表明安全的重要性,但如何實(shí)現(xiàn)這一承諾仍然道阻且長(zhǎng)。
實(shí)際上,為了保證ChatGPT的答案可以不至于太離譜,OpenAI需要非常多準(zhǔn)確且來(lái)源清晰的訓(xùn)練數(shù)據(jù)。斯坦福的研究顯示,使用AI生成的數(shù)據(jù)訓(xùn)練次數(shù)超過(guò)5次,模型就會(huì)出現(xiàn)崩潰(性能下降以致于難以使用)。也就是說(shuō),如果不能給模型提供新鮮的、人類標(biāo)注的數(shù)據(jù),其輸出質(zhì)量將會(huì)受到嚴(yán)重影響。
遺憾的是,目前AIGC的內(nèi)容已經(jīng)無(wú)處不在,而OpenAI并沒(méi)有辦法大規(guī)模的分離出目前AI已經(jīng)產(chǎn)生的內(nèi)容。而AI Classifier的失敗正是OpenAI對(duì)于此事無(wú)能的注解。
雖然,包括美國(guó)政府在內(nèi),越來(lái)越多的人正在期待數(shù)字水印技術(shù)可以為ChatGPT之類的人工智能裝上護(hù)欄,但一個(gè)遺憾的事實(shí)是,OpenAI本身早就對(duì)數(shù)字水印技術(shù)進(jìn)行了研究和探索,而OpenAI截至目前仍未有效的利用數(shù)字水印來(lái)區(qū)分AI所生產(chǎn)的文本。
至于未來(lái)如何,也許我們只能祈禱,大語(yǔ)言模型會(huì)成長(zhǎng)為核電站,而不是核導(dǎo)彈了。