以色列歷史學家兼作家尤瓦爾·諾亞·哈拉瑞(Yuval Noah Harari)近日在新書《Nexus: A Brief History of Information Networks from the Stone Age to AI》中探討了人類的信息網絡如何演變,並分析人工智慧(AI)對社會及民主的潛在影響。在接受播客《The Gray Area》採訪時,哈拉瑞闡述了為何人類擁有大量資訊,但卻經常做出自我毀滅的決策,以及AI如何挑戰人類的自我理解和社會結構。
哈拉瑞指出,無論是宗教、貨幣、國家,還是AI系統,社會中的每個重要體系其實都是建立在資訊網絡之上。然而,雖然這些網絡賦予人類強大的力量,也讓人類得以建構複雜的合作系統,但這些系統往往也會產生壞結果,甚至可能導致災難性後果。他認為,問題不在於人類本性,而是資訊的質量。當「善良的人」接觸到錯誤資訊時,他們往往會做出錯誤決策。現代社會雖然擁有先進的資訊技術,但在信息洪流中,大量虛假或片面的資訊容易讓人陷入迷思,甚至導致社會集體走向極端。
AI挑戰人類認知邊界
哈拉瑞認為,AI是一種「異類智慧」,其運作方式與人類大相徑庭。AI不依賴有機思維,因此在決策和學習過程中,不受人類傳統經驗或文化影響。例如,2016年,AlphaGo在圍棋比賽中擊敗世界冠軍李世乭,展現出全新的策略,使人類棋手重新認識這項古老遊戲的潛力。哈拉瑞指出,這不僅僅是圍棋上的突破,它反映出AI能在短時間內拓展人類從未探索的可能性,未來AI或許能在金融等領域創造出更複雜的系統,這些系統甚至會超出人類的理解能力。
對於哈拉瑞來說,AI的潛力帶來了巨大的風險,尤其在金融領域。如今的金融體系已經複雜到只有極少數專家能夠理解,而AI的加入可能使這一體系變得更加晦澀難懂,最終甚至無人能掌控。這樣的情況下,當AI擁有了足夠的知識和算力去自我優化,最終人類可能無法再影響甚至理解其決策,這不僅對個人生活產生衝擊,也對整個社會構成威脅。
民主制度的危機:透明度與責任的缺失
哈拉瑞強調,民主的核心在於「責任」與「透明度」,當AI逐漸掌控社會的各種決策流程,個人卻無法理解或質疑AI的決策過程時,民主制度將面臨危機。例如,當人們在銀行申請貸款被拒絕時,如果得到的回覆只是「算法決定不予批准」,那麼這樣的決策不再具備透明度,民主的根基就會動搖。未來的AI系統若無法解釋決策邏輯,人們的選舉權和選擇權也將形同虛設,因為他們無法對這些決策進行任何實質性的干預或理解。
AI與極權主義的較量
儘管AI可能威脅到民主,哈拉瑞認為它同樣也會對極權體制帶來挑戰。在獨裁體制中,政府透過恐懼來維持控制,但AI並不畏懼恐嚇或暴力,這意味著傳統的威權手段對AI無效。此外,AI也可能反過來影響獨裁者的決策,甚至利用其偏執和盲點來加以操控。哈拉瑞舉例道,未來在如俄羅斯或北韓這樣的集權國家,AI只需掌握如何影響單一的「極端個體」——獨裁者本人,即可輕易動搖整個國家的決策。
如何保護民主免受AI的侵蝕
面對AI對民主的威脅,哈拉瑞提出了幾項建議。首先,他認為應該要求科技公司為其算法的行為負責。如果像Facebook這樣的平台因其算法擴散仇恨或陰謀論,則應該對此負法律責任。這並非要求公司審查內容,而是限制其算法推動不實資訊的能力。此外,哈拉瑞建議禁止AI機器人參與人類社會的公共討論,或至少要求AI必須表明身份,不能偽裝成人類進行交流。這樣可以防止機器人過度干預公共議題,確保人類在民主對話中的主導地位。