過去十年,人工智能系統(tǒng)飛速發(fā)展。從2016年Alpha Go在復(fù)雜的圍棋游戲中擊敗李世石開始,人工智能現(xiàn)在能夠比人類更好地識別圖像和語音,并通過包括商學(xué)院考試等在內(nèi)的測試。
近期,在美國參議院司法委員會關(guān)于監(jiān)管人工智能的聽證會上,康涅狄格州參議員理查德·布盧門撒爾(Richard Blumenthal)描述了其人們對人工智能最新進展的反應(yīng)。“這個被反復(fù)使用的詞很可怕?!?/p>
負責(zé)監(jiān)督會議的隱私、技術(shù)和法律小組委員會聽取了三名專家證人的證詞,他們強調(diào)了人工智能的進展速度。證人之一、著名人工智能公司Anthropic的首席執(zhí)行官達里奧·阿莫代伊(Dario Amodei)表示:“了解人工智能最重要的一點是它的發(fā)展速度有多快?!?/p>
人工智能已經(jīng)在許多任務(wù)上超越了人類,而且人類在新任務(wù)上被超越的速度正在增加。相對于人類的表現(xiàn),最先進的人工智能表現(xiàn)都在人類基準之上。
如上圖所示,人工智能在手寫識別(Handwriting recognition),語音理解(Speech recognition),圖像識別(Image recognition),閱讀理解(Reading comprehension),語言理解(Language understanding)等方面已經(jīng)超越人類,而在常識補全(Common sense completion),小學(xué)數(shù)學(xué)(Grade school math),代碼生成(Code generation)方面也與人類水平非常接近。因此,按照這個發(fā)展趨勢,未來幾年人工智能將在更多的領(lǐng)域?qū)崿F(xiàn)對人類的超越。
過去,人們通常認為科學(xué)技術(shù)進步從根本上來說是不可預(yù)測的,并且是由事后更清晰的洞察力所驅(qū)動的。但可以預(yù)見的是,人工智能系統(tǒng)能力的進步是由計算、數(shù)據(jù)和算法這三種輸入的進步推動的。過去70年的大部分進步都是研究人員使用更強的計算處理能力(通常稱為“計算”)來訓(xùn)練人工智能系統(tǒng)的結(jié)果,為系統(tǒng)提供更多數(shù)據(jù),或者提出有效減少獲得相同結(jié)果所需的計算或數(shù)據(jù)量的算法技巧。
因此,了解了過去這三個因素如何推動人工智能進步,是理解為什么大多數(shù)從事人工智能工作的人預(yù)計AI的進展不會很快放緩的關(guān)鍵。
計算
世界上第一個人工神經(jīng)網(wǎng)絡(luò)Perceptron Mark I于1957年開發(fā)出來,當(dāng)時它可以學(xué)習(xí)辨別卡片是標記在左側(cè)還是右側(cè)。它有1000個人工神經(jīng)元,訓(xùn)練它需要大約700000次操作。70多年后,OpenAI發(fā)布了大型語言模型GPT-4。訓(xùn)練 GPT-4 估計需要 21*102?次運算。
計算量的增加使人工智能系統(tǒng)能夠攝取更多的數(shù)據(jù),這意味著系統(tǒng)有更多的例子可供學(xué)習(xí)。更多的計算還允許系統(tǒng)更詳細地對數(shù)據(jù)中變量之間的關(guān)系進行建模,這意味著它可以從顯示的示例中得出更準確和細致的結(jié)論。
自 1965 年以來,摩爾定律(即集成電路中晶體管的數(shù)量大約每兩年增加一倍)意味著計算的價格一直在穩(wěn)步下降。研究機構(gòu)Epoch的主管杰米·塞維利亞(Jaime Sevilla)表示,雖然這確實意味著用于訓(xùn)練人工智能系統(tǒng)的計算量增加了,但研究人員更專注于開發(fā)構(gòu)建人工智能系統(tǒng)的新技術(shù),而不是關(guān)注用于訓(xùn)練這些系統(tǒng)的計算量。
杰米·塞維利亞(Jaime Sevilla)說,這種情況在2010年左右發(fā)生了變化?!叭藗円庾R到,如果要訓(xùn)練更大的模型,實際上不會得到收益遞減的結(jié)果,”這是當(dāng)時普遍持有的觀點。
從那時起,開發(fā)人員花費越來越多的資金來訓(xùn)練更大規(guī)模的模型。訓(xùn)練人工智能系統(tǒng)需要昂貴的專用芯片。人工智能開發(fā)人員要么構(gòu)建自己的計算基礎(chǔ)設(shè)施,要么向云計算提供商付費以訪問他們的計算基礎(chǔ)設(shè)施。OpenAI首席執(zhí)行官Sam Altman表示,GPT-4 的訓(xùn)練成本超過1億美元。這種支出的增加,加上摩爾定律導(dǎo)致的計算成本的持續(xù)下降,導(dǎo)致人工智能模型需要接受大量計算的訓(xùn)練。
OpenAI和Anthropic兩家領(lǐng)先的人工智能公司各自從投資者那里籌集了數(shù)十億美元,用于支付他們用于訓(xùn)練人工智能系統(tǒng)的計算費用,并且每家都與財力雄厚的科技巨頭建立了合作伙伴關(guān)系——OpenAI與微軟、Anthropic與谷歌。
從上圖可以看出,自1950年以來,用于訓(xùn)練人工智能系統(tǒng)的計算量一直在增加,增長率在2010年開始明顯增加。
數(shù)據(jù)
人工智能系統(tǒng)的工作原理是建立訓(xùn)練數(shù)據(jù)中變量之間關(guān)系的模型。一般來說,更多的數(shù)據(jù)點意味著人工智能系統(tǒng)擁有更多的信息來建立數(shù)據(jù)中變量之間關(guān)系的準確模型,從而提高性能。
關(guān)于Perceptron Mark I 的最初研究論文稱,它僅根據(jù)六個數(shù)據(jù)點進行訓(xùn)練。相比之下,LlaMa是由Meta 研究人員開發(fā)并于2023年發(fā)布的大型語言模型,接受了約10億個數(shù)據(jù)點的訓(xùn)練,比Perceptron Mark 1增加了1.6億多倍。就LlaMa而言,數(shù)據(jù)點是從以下多種來源位置收集的文本:其中67%來自Common Crawl數(shù)據(jù)(Common Crawl 是一個非營利組織,負責(zé)抓取互聯(lián)網(wǎng)并免費提供收集到的數(shù)據(jù)),4.5%來自GitHub(軟件開發(fā)人員使用的互聯(lián)網(wǎng)服務(wù)),以及 4.5%來自維基百科。
上圖反映了在過去的70年里,用于訓(xùn)練人工智能模型的數(shù)據(jù)點數(shù)量急劇增加。
算法
算法(定義要執(zhí)行的操作序列的規(guī)則或指令集)決定人工智能系統(tǒng)如何準確地使用計算能力來對給定數(shù)據(jù)中的變量之間的關(guān)系進行建模。除了使用越來越多的計算量來簡單地訓(xùn)練人工智能系統(tǒng)以獲取更多數(shù)據(jù)外,人工智能開發(fā)人員還一直在尋找從更少的資源中獲得更多收益的方法。Epoch 的研究發(fā)現(xiàn),“每九個月,更好的算法的引入就相當(dāng)于計算預(yù)算增加了一倍。”
算法的進步意味著需要更少的計算和數(shù)據(jù)來達到給定的性能水平,上圖在圖像識別測試中達到80.9%準確率所需的計算量和數(shù)據(jù)點數(shù)。對于在一萬億個數(shù)據(jù)點上訓(xùn)練的模型,2021年訓(xùn)練的模型所需的計算量比2012年訓(xùn)練的模型少16500倍。
人工智能的下一階段進展
根據(jù)Epoch的主管杰米·塞維利亞(Jaime Sevilla)的說法,人工智能開發(fā)人員用于訓(xùn)練其系統(tǒng)的計算量可能會在一段時間內(nèi)繼續(xù)以目前的加速速度增加,因為企業(yè)會增加在訓(xùn)練每個人工智能系統(tǒng)上花費的資金,并且隨著計算價格持續(xù)穩(wěn)定下降效率也會提高。Sevilla預(yù)測這種情況將持續(xù)下去,直到某個時候不再值得繼續(xù)花更多的錢,因為增加計算量只能略微提高性能。此后,所使用的計算量將繼續(xù)增加,但速度會減慢,這完全是由于摩爾定律導(dǎo)致計算成本下降。
輸入現(xiàn)代人工智能系統(tǒng)(例如 LlaMa)的數(shù)據(jù)是從互聯(lián)網(wǎng)上抓取的。從歷史上看,限制輸入人工智能系統(tǒng)的數(shù)據(jù)量的因素一直是擁有足夠的計算來處理這些數(shù)據(jù)。但是,最近用于訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)量激增,已經(jīng)超過了互聯(lián)網(wǎng)上新文本數(shù)據(jù)的產(chǎn)生速度, Epoch的研究人員預(yù)測,到2026年,人工智能開發(fā)人員將耗盡高質(zhì)量的語言數(shù)據(jù)。研究人員預(yù)測,到 2026 年,人工智能開發(fā)人員將耗盡高質(zhì)量的語言數(shù)據(jù)。
那些開發(fā)人工智能系統(tǒng)的人往往不太關(guān)心這個問題。OpenAI首席科學(xué)家 Ilya Sutskever表示,“數(shù)據(jù)情況仍然相當(dāng)不錯。還有很多事情要做。” 而人工智能公司Anthropic的首席執(zhí)行官達里奧·阿莫代伊(Dario Amodei)則估計,“這種擴展可能有10%的可能性會因無法收集足夠的數(shù)據(jù)而中斷?!?/p>
塞維利亞還相信,數(shù)據(jù)缺乏不會阻礙人工智能的進一步改進——例如找到使用低質(zhì)量語言數(shù)據(jù)的方法——因為與計算不同,數(shù)據(jù)缺乏以前并不是人工智能進步的瓶頸。他預(yù)計人工智能開發(fā)人員可能會發(fā)現(xiàn)許多容易實現(xiàn)的創(chuàng)新成果來解決這個問題。
杰米·塞維利亞(Jaime Sevilla)表示,算法的進步可能會繼續(xù)增強用于訓(xùn)練人工智能系統(tǒng)的計算和數(shù)據(jù)量。到目前為止,大多數(shù)改進都來自于更有效地使用計算。Epoch發(fā)現(xiàn)過去超過四分之三的算法進步都被用來彌補計算方面的不足。如果未來,隨著數(shù)據(jù)成為人工智能訓(xùn)練進展的瓶頸,更多的算法進展可能會集中在彌補數(shù)據(jù)的不足上。
將這三部分放在一起,包括杰米·塞維利亞(Jaime Sevilla)在內(nèi)的專家預(yù)計人工智能至少在未來幾年將繼續(xù)以驚人的速度取得進展。隨著企業(yè)花費更多的錢并且底層技術(shù)變得更便宜,計算將繼續(xù)增加?;ヂ?lián)網(wǎng)上剩余的有用數(shù)據(jù)將用于訓(xùn)練人工智能模型,研究人員將繼續(xù)尋找訓(xùn)練和運行人工智能系統(tǒng)的方法,以更有效地利用計算和數(shù)據(jù)。
這些十年趨勢的延續(xù)是專家認為人工智能將繼續(xù)變得更加強大的原因。這讓很多專家感到擔(dān)憂。
達里奧·阿莫代伊(Dario Amodei)在美國參議院委員會聽證會上發(fā)言時表示,如果繼續(xù)以同樣的速度取得進展,在未來兩到三年內(nèi),很多人都能夠獲得即使是今天的專家也無法掌握的科學(xué)知識。他表示,這可能會增加“造成嚴重破壞”的人數(shù)。“我特別擔(dān)心人工智能系統(tǒng)可能會在網(wǎng)絡(luò)安全、核技術(shù)、化學(xué),尤其是生物學(xué)領(lǐng)域被大規(guī)模濫用?!?/p>
本文作者:Will Henshall資料來源:TIME
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 國家發(fā)改委成立低空經(jīng)濟發(fā)展司
- 什么是人工智能網(wǎng)絡(luò)? | 智能百科
- 工信部:2025年推進工業(yè)5G獨立專網(wǎng)建設(shè)
- 人工智能如何改變?nèi)蛑悄苁謾C市場
- 企業(yè)網(wǎng)絡(luò)安全挑戰(zhàn)頻出?Fortinet 給出破解之法
- 2025年生成式人工智能將如何影響眾行業(yè)
- 報告:人工智能推動數(shù)據(jù)中心系統(tǒng)支出激增25%
- 千家早報|馬斯克預(yù)測:人工智能或?qū)⒊絾蝹€人類;鴻蒙生態(tài)(武漢)創(chuàng)新中心啟用,推動鴻蒙軟硬件在武漢首試首用——2024年12月27日
- 中移建設(shè)被拉入軍采“黑名單”
- 大理移動因違規(guī)套現(xiàn)等問題,擬被列入軍采失信名單
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責(zé)任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。