AI危機,人工智慧無可避免的反智現象

在這個時代,人工智能已經是每個人不可不知的存在,從ChatGPT的第一次發表,到後來的AI繪圖時代,逐漸到了AI可以自動生成影片的今天,AI人工智能的未來一片大好,所有人都在期待AI的未來發展,也擔心著AI是否會如同電影一般,在未來的某一天背叛人類,但小編認為,這些問題似乎可以不用太過擔憂,因為根據人們的使用觀察發現,AI不知何種原因,開始變得越來越笨、越來越懶,這樣的現象為何發生,是因為AI與人類接觸太久,學習了我們的劣性,還是這當中存在甚麼科學界的謊言呢,小編今天就要跟各位來好好研究一番!

ChatGPT罷工擺爛,到底是跟誰學的?

從2023年年底開始,越來越多人發現,越來越多人發現ChatGPT的最新模組-“GPT-4″出現了反智現象,原本聰明的智能大腦在回答問題時,逐漸失去了以往的理解力與準確性,時不時出現牛頭不對馬嘴的回應,或者乾脆直接擺爛不答,對此,許多用戶進行過猜測,加州大學的論文也提出了學術界的最新解釋,簡單來說,他們發現人工智能過往的表現,好過於現今的資料庫,更簡單的說,這些大模型在以前學習過的任務表現優秀,但新任務就相對不佳,比起人工智慧,這更像是以往的檢索模擬智慧法,回答問題全靠死記,而非基於所謂的學習能力。

因此論文中認為,這些所謂的智能模型之所以早期表現優秀,是因為以前的零樣本和少樣本表現出色,顯示處理複雜和多樣化問題的靈活性,這代表GPT其實並不是真正理解問題,而是因為它【以前】就看過這些資料

來自范德堡大學、薩塞克斯大學、牛津大學等研究機構的科研人員也發現,當一個大語言模型在訓練時,輸入A=B形式的數據時,它並沒有辦法自動反推出B=A,就連目前最強的ChatGPT,也僅有33%的準確率,對此,研究人員將這種現象命名為”反轉詛咒”,直觀敘述語言模組無法反向推論的現象,以及暗指語言模組在推理與泛化方面的侷限性

牛津大學研究员 Owain Evans表示:
為何反轉詛咒需要被關注,因為這代表大語言模型存在推理能力的缺失,”A是B”和”B是A”是訓練及中的一種系統性模式,人工智能完全針對這模式進行學習,其對數概率無論怎麼調整都沒有變化。

GPT變笨非個案,這是所有大模型的末路?!

許多網友認為,這個降智現象會是所有大模型的共同命運,對這些沒有持續學習能力的機器模型來說,進行訓練後凍結,輸入分佈卻不停飄移,五花八門的問題日夜不斷,如果這些模型無法適應變化,終有一天會退出時代的舞台。

以目前來看,持續訓練模型的成本太高,人類一定會放棄效率低的方式,我們很難建構不嚴重干擾過去知識的同時,又能持續適應新知識的機器學習模型,目前所有關於人工智能的炒作,都只是基於「人工智能一定會越來越好」的說法,但根據目前大型語言模型的設計方式,通用人工智慧幾乎是不可能達到的,除非將範圍縮小,特定場景的小眾範例才會是這項技術的最佳使用方式。

對於持續學習這點,恰好就是生物網路神經的優勢,以哺乳動物來說,因為有強大泛化力,所以每次學習不同任務,就可以進一步增強整體系統性能,每次獲得的知識都有助於提升學習效率,從本質上來講,只要能解決越多問題,就能變得越好,然而大模型則反之,雖然每天都被數以百萬計的問題考驗,卻沒辦法自動出色的解決任務,因此學習能力被凍結在某一個時刻。

 

AI毀滅人類,卻不是用我們所想像的方式

雖然問題逐漸顯現,但不可否認,依然有大量人群依賴這些人工智能,換句話說,我們正在依賴一個沒有自主生產能力的機器,期望它可以帶給我們超乎人類想像的未來,從邏輯上來講這就是不可能的事情,以目前科技來說,人工智能依然只能停留在工具的階段,但我們依然可以預先知道,在未來的時代,人們會將越來越多資金投入人工智能的研究,而機械大腦的強項,就在於重複性高的事情,他們能做到人類遠遠不及的地步。

AI暫時還不會毀滅人類,能毀滅人類的只有自己,而且必定是透過以下兩種方式,第一就是不能善用生物大腦的創意性與泛用性學習,在單一領域被AI迅速取代,第二,則是因為過於仰賴人工智慧,最終在反智現象裡惡性循環,實現真正的返祖現象。

返回頂端