來源:數(shù)據(jù)觀綜合 時間:2022-12-12 17:22:45 作者:蒲蒲
日前,美國硅谷的初創(chuàng)公司OpenAI推出了一款新的人工智能對話模型ChatGPT,模型中首次采用RLHF(從人類反饋中強化學習)方式。
目前,模型處于測試階段,用戶與ChatGPT之間的對話互動包括普通聊天、信息咨詢、撰寫詩詞作文、修改代碼等。功能如此“全面”的ChatGPT被稱作“最強AI(人工智能)”,面世5天便已有超過100萬用戶使用。
ChatGPT為什么這么神?
ChatGPT能夠?qū)崿F(xiàn)當前的交互,離不開OpenAI在AI預訓練大模型領域的積累。
OpenAI最初提出的GPT1,采取的是生成式預訓練Transform模型(一種采用自注意力機制的深度學習模型),此后整個GPT系列都貫徹了這一谷歌2017年提出,經(jīng)由OpenAI改造的偉大創(chuàng)新范式。
簡要來說,GPT1的方法包含預訓練和微調(diào)兩個階段,預訓練遵循的是語言模型的目標,微調(diào)過程遵循的是文本生成任務的目的。
2019年,OpenAI繼續(xù)提出GPT-2,所適用的任務開始鎖定在語言模型。GPT2擁有和GPT1一樣的模型結構,但得益于更高的數(shù)據(jù)質(zhì)量和更大的數(shù)據(jù)規(guī)模,GPT-2有了驚人的生成能力。不過,其在接受音樂和講故事等專業(yè)領域任務時表現(xiàn)很不好。
2020年的GPT3將GPT模型提升到全新的高度,其訓練參數(shù)是GPT-2的10倍以上,技術路線上則去掉了初代GPT的微調(diào)步驟,直接輸入自然語言當作指示,給GPT訓練讀過文字和句子后可接續(xù)問題的能力,同時包含了更為廣泛的主題。
圖源:Medium GPT系列模型的數(shù)據(jù)集訓練規(guī)模
現(xiàn)在的ChatGPT則是由效果比GPT3更強大的GPT-3.5系列模型提供支持,這些模型使用微軟Azure AI超級計算基礎設施上的文本和代碼數(shù)據(jù)進行訓練。
具體來說,ChatGPT在一個開源數(shù)據(jù)集上進行訓練,訓練參數(shù)也是前代GPT3的10倍以上,還多引入了兩項功能:人工標注數(shù)據(jù)和強化學習,相當于拿回了被GPT3去掉的微調(diào)步驟,實現(xiàn)了在與人類互動時從反饋中強化學習。
也因此,我們得以看到一個強大的ChatGPT:能理解人類不同指令的含義,會甄別高水準答案,能處理多元化的主題任務,既可以回答用戶后續(xù)問題,也可以質(zhì)疑錯誤問題和拒絕不適當?shù)恼埱蟆?/p>
當初,GPT-3只能預測給定單詞串后面的文字,而ChatGPT可以用更接近人類的思考方式參與用戶的查詢過程,可以根據(jù)上下文和語境,提供恰當?shù)幕卮?,并模擬多種人類情緒和語氣,還改掉了GPT-3的回答中看似通順,但脫離實際的毛病。
ChatGPT自己回答與前代GPT3的能力區(qū)別
不僅如此,ChatGPT能參與到更海量的話題中來,更好的進行連續(xù)對話,有上佳的模仿能力,具備一定程度的邏輯和常識,在學術圈和科技圈人士看來時常顯得博學而專業(yè),而這些都是GPT-3所無法達到的。
盡管目前ChatGPT還存在很多語言模型中常見的局限性和不準確問題,但毋庸置疑的是,其在語言識別、判斷和交互層面存在巨大優(yōu)勢。
巨頭搶灘AI“大模型”
自2018年以來,國內(nèi)外超大規(guī)模預訓練模型參數(shù)指標不斷創(chuàng)出新高,“大模型”已成為行業(yè)巨頭發(fā)力的一個方向。谷歌、百度、微軟等國內(nèi)外科技巨頭紛紛投入大量人力、財力,相繼推出各自的巨量模型。
國外的超大規(guī)模預訓練模型起步于2018年,2021年進入“軍備競賽”階段。
2018年,谷歌提出3億參數(shù)BERT模型,驚艷四座,由此大規(guī)模預訓練模型開始逐漸走進人們的視野,成為人工智能領域的一大焦點。
2019年2月,OpenAI推出了15億參數(shù)的GPT-2,能夠生成連貫的文本段落,做到初步的閱讀理解、機器翻譯等。
緊接著,英偉達推出了83億參數(shù)的Megatron-LM,谷歌推出了110億參數(shù)的T5,微軟推出了170億參數(shù)的圖靈Turing-NLG。
2020年6月,大模型迎來了一個分水嶺,OpenAI以1750億參數(shù)的GPT-3,直接將參數(shù)規(guī)模提高到千億級別。而作詩、聊天、生成代碼等無所不能。
之后,微軟和英偉達在2020年10月聯(lián)手發(fā)布了5300億參數(shù)的Megatron-Turing自然語言生成模型(MT-NLG)。
2021 年 1 月,谷歌推出的Switch Transformer模型以高達1.6 萬億的參數(shù)量打破了GPT-3作為最大AI模型的統(tǒng)治地位,成為史上首個萬億級語言模型。
2021年,12月,谷歌還提出了1.2萬億參數(shù)的通用稀疏語言模型GLaM,在7項小樣本學習領域的性能超過GPT-3。
國內(nèi),超大模型研發(fā)厚積薄發(fā),充分展示了中國企業(yè)的技術實力和應用需求。
2021年是中國超大規(guī)模AI模型的爆發(fā)年。在國內(nèi)超大模型研發(fā)比國外公司晚,但是發(fā)展卻異常的迅速。
4月,華為云聯(lián)合循環(huán)智能發(fā)布盤古NLP超大規(guī)模預訓練語言模型,參數(shù)規(guī)模達1000億;聯(lián)合北京大學發(fā)布盤古α超大規(guī)模預訓練模型,參數(shù)規(guī)模達2000億。
阿里達摩院發(fā)布270億參數(shù)的中文預訓練語言模型PLUG,聯(lián)合清華大學發(fā)布參數(shù)規(guī)模達到1000億的中文多模態(tài)預訓練模型M6。
6 月,北京智源人工智能研究院發(fā)布了超大規(guī)模智能模型“悟道 2.0”,參數(shù)達到 1.75 萬億,成為當時全球最大的預訓練模型。
7月,百度推出ERNIE 3.0 知識增強大模型,參數(shù)規(guī)模達到百億。10月,浪潮發(fā)布約2500億的超大規(guī)模預訓練模型“源1.0”。
12月,百度推出ERNIE 3.0 Titan模型,參數(shù)規(guī)模達2600億。而達摩院的M6模型參數(shù)達到10萬億,將大模型參數(shù)直接提升了一個量級。
到今年,大模型繼續(xù)火熱。最開始,大模型是集中在計算語言領域,但如今也已逐漸拓展到視覺、決策,應用甚至覆蓋蛋白質(zhì)預測、航天等等重大科學問題,谷歌、Meta、百度等等大廠都有相應的成果。一時間,參數(shù)量低于 1 億的 AI 模型已經(jīng)沒有聲量。
有研究實驗表明,數(shù)據(jù)量與參數(shù)量的增大能夠有效提升模型解決問題的精確度。以谷歌2021年發(fā)布的視覺遷移模型 Big Transfer 為例,分別使用 1000 個類別的 128 萬張圖片和 18291 個類別的 3 億張圖片兩個數(shù)據(jù)集進行訓練,模型的精度能夠從 77% 提升到 79%。
簡而言之,大模型往往具備一個特征:多才多藝,身兼多職。這對解決復雜場景的挑戰(zhàn)至關重要。
規(guī)模就是一切?
近年來,大型語言模型的參數(shù)數(shù)量保持著指數(shù)增長勢頭。據(jù)預測,OpenAI開發(fā)中的最新大型語言模型GPT-4將包含約100萬億的參數(shù),與人腦的突觸在同一數(shù)量級。由此,出現(xiàn)了一個新的人工智能口號:“規(guī)模就是一切”。
圖片來源:https://huggingface.co/blog/large-language-models
更大的模型帶來了更高的訓練成本。這既包括智力支出和經(jīng)濟成本,也有不可忽視的環(huán)境影響。馬薩諸塞大學阿姆赫斯特分校的一項研究指出,僅是訓練參數(shù)數(shù)量不到最新模型1%的BERT模型,就會造成652千克的碳排放,可與跨越美國東西海岸的一次航班所造成的碳排放相比擬。
與此同時,越來越大的模型所帶來的效用提升正在縮小。人們發(fā)現(xiàn),模型參數(shù)規(guī)模增長10倍,得到的性能提升往往不到10個百分點。相比直線,倒是那些同等(乃至更小)參數(shù)規(guī)模的新模型,會帶來真正質(zhì)的提升。還有一些研究者嘗試把大模型拆分成更多小模型并集之所長,但由于其模型參數(shù)并不會全部加入計算,“這是否會是參數(shù)量狂熱之下的一種數(shù)字泡沫”的質(zhì)疑也隨之而來。
而且,隨著大型語言模型的廣泛應用,一些負面的社會效應也開始顯現(xiàn)。據(jù)預測,到2023年,約有5%的大學生會使用大型語言模型生成的文本來代替本應由他們自己撰寫的作業(yè),而與之對抗的檢測手段則很難真正發(fā)揮作用。
就在上月,Meta公司發(fā)布了一個名為Galactica的大型語言模型,宣稱它“可以總結學術論文,解決數(shù)學問題,生成維基百科文章,編寫科學代碼,標記分子和蛋白質(zhì),以及更多功能?!?/p>
但上線僅3天,該模型就在巨大爭議中撤回。它雖然能生成一些貌似通順的學術文本,但文本中的信息是完全錯誤的——貌似合理的化學方程,描述的是實際上并不會發(fā)生的化學反應;格式合規(guī)的引文參考的是子虛烏有的文獻;甚而種族主義、性別歧視的觀點,也能通過模型生成的文本而被包裝成“科學研究”。批評者質(zhì)疑,這樣的模型會使學術造假變得更為隱蔽,也將使科學謠言的散播變得更加便利。
一般的觀點認為,盡管人工智能系統(tǒng)能在諸多特定任務中顯現(xiàn)出看似智能的行為,但它們并不像人那樣理解它們所處理的數(shù)據(jù)。譬如,Character.ai、ChatGPT這樣的模型應用雖然已能流暢地與人進行“對話”,而且相當程度上顧及到上下文,然而,人工智能系統(tǒng)中無法預測的錯誤、對于一般情況推廣能力的欠缺等都被視為它們無法“理解”的證據(jù)。這樣的大型語言模型并未真正“理解”語言所描述的現(xiàn)實世界。
AI大模型將往哪兒走?
在預訓練大模型發(fā)展中,面臨最大問題是什么,未來的發(fā)展方向又在哪兒呢?
阿里達摩院在發(fā)布的報告里認為,未來大模型的參數(shù)規(guī)模發(fā)展將進入冷靜期,大模型與相關聯(lián)的小模型協(xié)同將是未來的發(fā)展方向。
其中,大模型沉淀的知識與認知推理能力向小模型輸出,小模型基于大模型的基礎疊加垂直場景的感知、認知、決策、執(zhí)行能力,再將執(zhí)行與學習的結果反饋給大模型,讓大模型的知識與能力持續(xù)進化,形成一套有機循環(huán)的智能系統(tǒng)。參與者越多,模型進化的速度也越快。
阿里達摩院預測,在未來的三年內(nèi),個別領域?qū)⒁源笠?guī)模預訓練模型為基礎,對協(xié)同進化的智能系統(tǒng)進行試點探索。
在未來的五年內(nèi),協(xié)同進化的智能系統(tǒng)將成為體系標準,讓全社會能夠容易地獲取并貢獻智能系統(tǒng)的能力,向通用人工智能再邁進一步。
百度研究院發(fā)布2022年十大科技趨勢預測認為,備受業(yè)界關注的超大規(guī)模預訓練模型,將呈現(xiàn)知識增強、跨模態(tài)統(tǒng)一建模、多學習方式共同演進的趨勢,并逐漸實用化,破除盲目增加參數(shù)規(guī)模的“軍備競賽”。
預計2022年,大模型研發(fā)方向?qū)⑥D向“實用化”,大模型的效果、通用性、泛化性、可解釋性和運行效率將持續(xù)提升,應用門檻不斷降低,在多場景廣泛落地。
整體而言,現(xiàn)在大規(guī)模預訓練模型的研究,包括模型結構的演進和落地仍處在探索階段,各家的持續(xù)探索正在不斷擴大對大規(guī)模預訓練模型的認知邊界。
責任編輯:藺弦弦