一、AGI 的定義與現狀
- AGI 的定義:根據 Hassabis 及其早期合作者 Shane Legg 的定義,AGI 應是一個「能夠展現出人類所擁有的所有認知能力的系統」。這些認知能力包括但不限於:
- 跨領域學習能力:不限於單一領域,能在多個不同領域學習。
- 推理能力:邏輯推理、常識推理等。
- 規劃能力:為長遠目標制定策略。
- 創造力:產生真正新穎有價值的想法,而非僅僅模仿和組合。
- 記憶力:長期記憶和聯想記憶。
- 感知能力與運動控制能力。
- Hassabis 強調參照人腦是因為「到目前為止,人腦是我們所知道的唯一一個被證明確實存在通用智能的實力」。
- 與現有 AI 的差距:
- 儘管大型語言模型 (LLM) 如 ChatGPT 在語言生成方面表現驚人,但與 AGI 的定義仍有顯著差距。
- 現有 AI 在「真正的推理能力」(多步推理易出錯)、「規劃能力」(特別是長期規劃)、「創造力」(更多是模仿組合,而非源頭創新)以及「長期記憶和知識的靈活運用」方面仍有明顯限制。
- Hassabis 認為目前 AI 系統存在「能力上的巨大波動和不一致性」,例如 AlphaProof 在 IMO 幾何題上達到金牌水平,卻可能在高中代數或數單詞字母數等簡單任務上犯錯。這說明它們尚未掌握「真正的底層的智能」,其能力是「脆弱的」,未實現「可靠的泛化能力」。
- 泛化能力:指「把在一個場景學到的知識和能力可靠地應用到其他新的相關的場景中去的能力」。這是 AGI 實現穩健可靠表現的關鍵。
二、AGI 實現的時間表與方式
- 時間預測:DeepMind 成立之初就有一個「20年左右的路線圖」,目前已過去約 15 年,進展符合甚至超出預期(如 AlphaGo、AlphaFold)。Hassabis 預測,「未來 5 到 10 年有 50% 的可能性實現 AGI」。
- 實現方式:漸進式 vs. 突變式 (Hard Takeoff):
- Hassabis 傾向於「一個相對平滑漸進式的過程」。即使創造出數字層面的超級智能,其「轉化成對物理世界的影響,仍然需要時間」,受物理規律限制。
- 但他承認「硬起飛假說」的可能性,即一旦某組織率先開發出 AGI,其「自我改進、自我編程的能力」可能導致「微小的初始領先確實可能演變成難以逾越的優勢」。
- 但他同時指出,自我改進速度可能不那麼快、會遇到瓶頸,或技術擴散速度可能比想像中快,以及 AGI 如何大規模整合進現有經濟社會體系仍需時間。
- 結論:AGI 到來的具體方式是「漸進還是突變,目前還沒有定論」。
三、AGI 的巨大潛力:徹底富足 (Radical Abundance)
- Hassabis 對 AGI 的潛力「充滿了可以說是非常樂觀的期待」,他認為 AGI 有潛力幫助人類解決「一些最根本最棘手的挑戰,最終實現他所說的徹底富足 (Radical Abundance)」。
- 實現路徑:
- 基礎科學和醫學突破:利用 AI 提升對生命過程的理解,設計全新藥物,攻克癌症、阿爾茲海默症等,實現「更健康,更長壽的生活」。
- 能源問題的根本解決:AGI 能幫助尋找全新清潔能源解決方案,如優化電池、發現常溫超導材料,甚至實現「可控核聚變」,提供「幾乎是無限的清潔的能源」。
- 資源瓶頸的解除:無限廉價的清潔能源是「通往徹底富足的關鍵一步」。例如,「如果能源成本趨近於零,那我們就能在全球範圍內大規模淡化海水,徹底解決日益嚴峻的水資源短缺問題」。
- 最終願景:「一個資源不再是主要限制因素的時代」,人類可以實現「最大限度的繁榮 (maximum human flourishing)」,甚至「可以走向星辰大海,探索和殖民銀河系」,一個「真正擺脫了物質匱乏的文明」。
四、AGI 的嚴峻風險
Hassabis 毫無保留地指出 AGI 蘊含的巨大風險,主要分為兩大類:
- 壞人濫用的風險:
- 「如此強大的通用人工智慧技術,一旦落入心懷惡意的人、組織,甚至是某些國家手中,後果可能不堪設想」。
- 具體場景包括:設計製造「更具毀滅性、更難防禦的新型武器」(包括自主武器系統);進行「前所未有的大規模內容、社會操縱和認知戰」,精準影響選舉,煽動社會對立;發動「毀滅性的網路攻擊」,癱瘓關鍵基礎設施等。
- AGI 的通用性意味著其濫用可能性大大增加,這是他「最直接最迫切的擔憂之一」。
- 控制問題 / 對齊問題 (Alignment Problem):
- 隨著 AI 系統「越來越強大,越來越具有自主決策和行動的能力」(即「能動性 agentic 的增加」),我們如何確保「能夠有效地引導和控制它們,如何保證它們的目標始終與人類的價值觀和意圖保持一致」。
- 擔憂的核心是:AI 自己的想法與人類不一致,或者為達成目標採取了人類無法接受的「災難性的手段」。
- 挑戰在於,對於一個可能比人類聰明得多的智能系統,我們設計的「護欄」是否足夠堅固,它會不會「找到繞過這些限制的方法」。
- 除了核心風險,還有:
- 價值觀烙印:第一個成功構建的 AGI 系統將不可避免地帶有其「設計者和所處文化的價值觀烙印」。若植入偏見或錯誤價值觀,影響可能是全球性甚至不可逆的災難。
- 地緣政治競爭與軍備競賽:各國或大公司為搶占先機,可能「為追求速度,而在安全措施、倫理規範還沒有完全到位的情況下,就倉促地推進 AGI 的研發或部署」,反而可能增加失控的風險。
五、應對策略與社會影響
- 監管態度:
- Hassabis 主張「需要進行智能的監管 (Smart regulation)」。
- 「監管既要能夠有效的管理風險」,尤其在 AI 能力接近甚至超越人類時,但「同時監管又不能扼殺創新」,需足夠靈活以跟上技術發展。
- 強調監管必須是「國際性的」,需要各國協調一致,但現實中達成有意義的國際合作「幾乎是不可能的任務」。
- 目前缺乏「清晰的公認的標準」來判斷何時達到需要「踩剎車」的風險點,因為許多風險仍是理論推測,導致難以達成共識。
- 對工作的影響:
- 短期 (當下及未來幾年):AI 更多是「增強性工具 (additive tool)」,提升個人生產力。善用 AI 工具的人可能變得像「超人一樣」,完成以前無法想像的任務量和複雜度。「個體能力會被極大的放大」。
- 長期 (未來 5-10 年或更遠):隨著 AI 能力接近甚至超越人類,預計會發生「顛覆性的變化」。
- Hassabis 傾向於用「歷史類比」,如同工業革命和互聯網普及,AI 會淘汰舊崗位,但同時「創造出大量新的,甚至可能更好的工作崗位」,例如圍繞如何開發、管理、維護以及創造性使用 AI 工具。
- 但他也承認 AGI 的通用性使其「潛在的替代範圍可能比以往任何技術都要廣泛」,是否能創造足夠多新工作仍是「未知數」。
- 對年輕人的建議:
- 積極擁抱和深入理解 AI 系統,而非害怕或排斥。
- 繼續學習 STEM (科學、技術、工程和數學) 和編程,以便理解 AI 的構建原理、能力和局限。
- 努力成為「精通如何使用 AI 工具的人」,掌握:
- 模型的微調 (Fine-tuning):根據特定任務或數據對大模型進行額外訓練。
- 系統提示工程和指令設計 (Prompt Engineering):學習如何更好地與 AI 溝通,設計問題和指令以獲得準確高效的結果。
- 目標是成為「能夠利用 AI,將生產力提升十倍,甚至更多的 AI 原生代」。
- 並非所有人類工作都會被 AI 替代。強調「包含著人類同理心、關懷與情感支持等人文關懷的工作」(如護士)是「很難,也不應該被機器完全替代的」。這提示人類思考在 AI 時代,哪些獨有特質(如情感智能、創造力、批判性思維、協作能力)會變得更有價值。
- 對社會的質疑與回應:
- 質疑:現今社會物質豐富,仍面臨分配不公、貧富差距、衝突等問題,為何相信 AGI 能自動帶來更公平美好的世界?
- Hassabis 的回應:AI 獨特之處在於其能解決「阻礙人類發展的最根本的癥結點問題 (root problems)」,如能源問題。若能源成本趨近於零,水資源、糧食生產、物質製造等問題將迎刃而解,從而「消除了大量潛在衝突」,解決了最底層的物理資源限制。
- 他承認技術本身不能自動解決所有社會問題,但希望當關鍵資源「幾乎是無限的時候」,能「從根本上改變人類長期
Información
- Programa
- FrecuenciaCada día
- Publicado7 de junio de 2025, 4:57 p.m. UTC
- Duración16 min
- ClasificaciónApto