您的位置:首頁 > 資訊 > 行業(yè)動態(tài) > 正文

如果 AI 不斷向其他 AI 學習,會產(chǎn)生什么樣的結(jié)果?

2023-07-03 14:48 性質(zhì):原創(chuàng) 作者:Mulan 來源:中叉網(wǎng)
免責聲明:中叉網(wǎng)(www.zulingongsi.com.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關。如有需要刪除,敬請來電商榷!)
AI (人工智能)的進步是近年來科技發(fā)展中的重大突破。然而,隨著 AI 的發(fā)展,對 AI 的訓練和教育方法的討論也愈發(fā)重要。一個核心的問題是:如果 AI 不斷向其他 AI...

AI (人工智能)的進步是近年來科技發(fā)展中的重大突破。然而,隨著 AI 的發(fā)展,對 AI 的訓練和教育方法的討論也愈發(fā)重要。一個核心的問題是:如果 AI 不斷向其他 AI 學習,會產(chǎn)生什么樣的結(jié)果?

在這個問題的核心,是 AI 的訓練方法和數(shù)據(jù)來源。大型語言模型 (LLM),如 ChatGPT,主要使用來自互聯(lián)網(wǎng)的大量人工文本庫進行訓練。這使得 AI 能夠以統(tǒng)計的方式處理信息,并進行預測,例如預測句子中最有可能出現(xiàn)的單詞。然而,如果這些 AI 主要使用其他 AI 的輸出作為訓練數(shù)據(jù),就可能出現(xiàn)所謂的"模型崩潰"。

然而,來自英國牛津大學的研究人員Ilia Shumailov及其團隊指出,"模型崩潰"是指 AI 模型嚴重偏見、過于簡化,并與現(xiàn)實脫節(jié)的現(xiàn)象。這主要是因為 AI 模型以統(tǒng)計方式表示文本,多次看到一個短語或句子的 AI 很可能在輸出中重復這個短語,并且不太可能產(chǎn)生它很少看到的東西。換句話說,AI 可能會“狹義學習”,只能理解和生成它曾經(jīng)看到的內(nèi)容。

研究者發(fā)現(xiàn),當新模型根據(jù)其他 AI 的輸出進行訓練時,這種現(xiàn)象會更加明顯。新模型只能看到原始 AI 可能輸出的一小部分,且這個子集往往不能完全覆蓋所有可能的情況,因此新 AI 不會將更稀有的輸出納入自身可能的輸出。這種訓練方式會使模型無法判斷自己看到的由其他 AI 生成的文本是否符合現(xiàn)實,可能會引入比當前模型更多的錯誤信息。

更重要的是,當這種過程不斷重復時,問題會愈演愈烈。Shumailov形象地描述了這種情況:“最終我們會陷入這種瘋狂的狀態(tài),其中只有錯誤、錯誤和錯誤,而且錯誤的嚴重程度遠高于其他任何事情?!边@意味著,如果 AI 不斷從其他 AI 中學習,那么錯誤將在這些系統(tǒng)中迅速累積,導致偏見和誤導。

然而,這并不意味著 AI 之間的學習是不可能的或者是有害的。這意味著我們需要仔細考慮如何進行 AI 的訓練和學習。AI 模型和訓練方式的設計應盡可能地代表多樣化的數(shù)據(jù),以減少偏見和誤導。此外,我們需要對 AI 輸出的真實性和準確性進行更嚴格的評估和監(jiān)控,以防止錯誤信息的傳播。

總的來說,AI 之間的學習可能會帶來很多挑戰(zhàn),但也可能為 AI 的進步提供新的機會。只要我們采取適當?shù)牟呗院头椒?,就有可能避?模型崩潰",并充分利用 AI 的學習能力。

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關資訊

關注官方微信

手機掃碼看新聞