這篇文章出自大衛·薩普特所著的《當我點擊時,算法在想什麼?》一書,由易文波翻譯,並由中國科學技術出版社於2025年1月出版。內容深入探討了演算法如何蒐集、分析並應用個人數據來形塑我們的數位生活,並對其可能帶來的倫理與社會影響進行了批判性思考。
一、理解演算法的運作方式與局限性 首先,我們需要深入理解這些系統背後的數學秘密,看清那些控制結果並制約系統本身的運算。這包括理解演算法如何收集、分析並應用個人數據來塑造我們的數位生活,以及其設計初衷與實際應用可能產生的落差。認識到演算法的「黑箱」特性,即其內部運作方式不為人知,是第一步。
然而,這種「黑箱」感可能存在誤導性,我們應該也確實能夠探究演算法的內部。
二、加強人類的監管與介入 薩普特強調,在當今的演算法系統中,人類的監管必不可少。演算法即便在準確性上與人類不相上下,也因其處理數據的速度快而獲勝,但這並不意味著它能完全取代人類的智慧與判斷。
三、質疑並消除演算法中的偏見與歧視 演算法並非中立,它們會學習並反映我們社會中存在的偏見。因此,我們需要主動質疑並消除這些偏見: 不盲從「大家也喜歡」的推薦機制。
例如,亞馬遜的推薦演算法會強化既有的流行趨勢,導致某些產品(如書籍)即使質量平平也可能暢銷,而質量好的產品卻可能被埋沒。
我們應意識到成功往往是偶然事件,並非純粹的品質體現。
四、培養個人的主動性與批判性思考 作為演算法的用戶,我們不應被動接受,而應積極運用批判性思考:
• 警惕假新聞和媒體炒作。儘管假新聞充斥網路,但其影響力可能被誇大,大多數人並不完全相信它們。對於如「奇點」等關於人工智慧的科幻式誇大,我們應保持務實態度,認清其本質僅是推測,而非科學。
理解演算法的局限性。它們無法完全理解人類的情感、意圖和複雜的社會語境,更無法取代人類的完整性。
五、負責任的演算法開發與研究 演算法的開發者和研究人員也肩負著重要責任:
• 培訓數據科學家時,應強調其所擁有的力量與責任,而非僅追求商業效果。
• 鼓勵多元化的研究團隊。由背景和想法相似的人組成的團隊,可能難以窮盡預測未來時所需考慮的所有複雜因素。
• 研究人員應避免過度渲染科學發現,媒體也應謹慎報導,避免扭曲或誇大研究結果。
• 逐步驗證人工智慧的能力,而非好高騖遠。圖靈曾建議,演算法應先模擬兒童而非成人。目前,人工智慧的智慧水準甚至可能還不如單一細菌。
• 科技巨頭應持續合作共享研究成果,在良性競爭中推動技術進步,同時確保這些技術能被用來造福廣大民眾,而非僅滿足少數人的私慾。
總之,應對演算法日益增長的影響力,關鍵在於人類的主動參與、批判性思考和負責任的態度。我們不應被動地被演算法控制,而是要理解它們、質疑它們、並引導它們,使其成為人類文化的寶貴遺產,真正造福社會。
Informações
- Podcast
- FrequênciaSemanal
- Publicado6 de setembro de 2025 às 11:24 UTC
- Duração22min
- ClassificaçãoLivre