陳楸帆:如果人類想讓自己的文明延續得更久遠一些……
《人類剎車計劃》是圍繞著自動化武器、區塊鏈、量子計算等技術展開的對于未來一種極端化場景的想象。在這一想象里,一個人便能夠發起一場全球規模的恐怖襲擊,甚至將人類社會的發展“撥回”信息革命之前。幸好,這樣的事情大概率不會在可見的未來發生,一方面因為技術的步伐未必如我們所愿般迅速,另一方面人類將竭盡所能設置種種的“保險”來確保技術的應用不會脫軌。
這個故事是小說集《AI 2041》的其中一篇,將在全球以不同語種發行,講的是10個發生在20年后跟AI相關的故事,包括醫療、教育、娛樂、養老、就業等等議題。我與李開復博士花了很長時間,跟AI從業者、學者、研究者做交流,希望從最堅實的科技基礎展望未來。在這個過程當中,我發現現在的弱勢群體在未來AI主導的社會里,將會變得更加弱勢。因為AI是基于現有收集的數據,經過機器強化學習得到的解決方案,而所謂的弱勢群體,比如說在疫情中沒有用智能手機的這樣一群人,沒有接入網絡的一群人,老年人和殘障人士,他們的數據是缺失的。在未來如何建立更加公平、友好,用善意對待每個人的AI技術將成為關鍵。因為在我看來,AI是為每個人而生的,不應該只是為了某些特定群體,比如說精英階層而設計。
科學是對客觀世界規律的一種探尋和發現,它是一個中性的存在。但是技術是對于這種規律的一個應用,它是根據人的需求來量體裁衣。對于某些人可以說是正面的科技,對于另一些人來說不一定,從AI這件事上可以看到特別明顯的體現。一個貌似非常中性的篩選簡歷的AI,在使用過程中,會發現它變得越來越具有某種傾向性,比如說性別上的、種族上的、學歷背景上的傾向性,某些特征的簡歷通過率會更高,這是由于人類對AI進行目標函數最大化的設置,讓它不斷自我強化,導致結構性歧視的產生。
我們需要傳遞“AI可持續發展”這樣一個非常重要的觀念,不僅是對政策制定者,對于大公司、技術從業者,更重要的是社會中的每個個體都應該理解,我有什么樣的權利、責任和義務。作為一個寫作者,我能做的就是把技術想象通過講故事的方式,傳遞給更多的人,建立起一個更大的共識,只有當共識形成之后,我們才能凝聚起力量,讓每個人都能看到AI所能帶來的照亮未來的光。
我們現在所謂的科學是一個自文藝復興、啟蒙運動、工業革命之后,一路發展到現在的產物。它對于人類來說有非常正向的影響,比如說生產力和效率、嬰兒存活率,人的平均壽命,對抗疾病與災難、包括物質生活的水平,有大幅度提升。但如果從另一個角度,從地球整體的生物圈,生態多樣性,氣候變化,有可能我們所擁有的是一個負面的科技。去年的疫情讓我們直觀感受到這樣的變化,野豬在高速公路上狂奔,野生動物開始在城市里嬉戲,這是對于原來工業文明,加速主義視角下的科技觀的一個撥亂反正。這樣的視角下,我們如何用更宏觀、更多元甚至是去人類中心化的視角討論科技這件事情。
如果人類想讓自己的文明延續得更久遠一些,我們必須去深刻地考慮什么是可持續發展,是針對誰的可持續發展。