該如何想像這樣的未來?

 本書作者是全球知名的人工智慧學者托比•沃爾許(Toby Walsh),根據他的預測,2062 年將是人工智慧影響人類最終命運的關鍵年。從工作到家庭,從社會到政治,現在我們做出的決定,將決定未來的樣貌,因此我們必須謹慎以對。

 2062 年,人工智慧最明顯的衝擊,是人類把辛苦的工作交給機器,我們可以將時間聚焦在更重要的事情,過自己想要的生活。我們有更多時間發展興趣、創作和欣賞藝術,或是重新探索人性,如此一來,可能促使第二次文藝復興來臨。假如我們選擇得宜,人工智慧保證會讓我們的工作少很多,有更多時間陪伴心愛的人,使生活變得更好,讓所有的人過著更健康、更富有、更幸福的生活。

 不過,人工智慧進步的速度已經超越人類的想像,AI 造假技術產生的假新聞、假影音等假內容正在左右選舉結果影響政治;科技巨頭蒐集用戶個資用來販售個人化廣告、社會信用評分系統監控人民的一舉一動、自駕車太守法反而造成車禍、無人機搭載自主武器造成殺戮,甚至每家公司都需要哲學長(Chief Philosophical Officer,CPO)確定 AI 系統的行動符合倫理,這些都是我們必須面對的課題。

作者介紹

托比.沃爾許(Toby Walsh)
世界首屈一指的人工智慧專家之一,一輩子都在夢想和研究機器或可如何思考。他是新南威爾斯大學的人工智慧科學講座教授,以及澳洲科學院的院士。托比大力提倡要設限,以確保人工智慧是用來改善而不是危害我們的生活。他的上一本著作《它是活的!》(It’s Alive! Artificial Intelligence from the Logic Piano to Killer Robots)被《新政治家》(New Statesman)選為年度好書之一。托比是《美國科學人》(American Scientist)、《新科學人》(New Scientist)和《衛報》(The Guardian)的固定撰稿人。

推薦序

二○六二,真正的奇點即將到來
文/陳芳毓
(本文作者為《天下雜誌》未來城市頻道總監,曾任《經理人》《遠見》雜誌主編、《天下雜誌》用戶成長主編)

書名《二○六二》,乍聽像科幻電影片名,內容也使人腦洞大開。
寫這篇心得時,正值溫布頓網球賽。女單冠軍出爐後,官方釋出一支影片:一位老師傅拿著尺規與刻刀,將冠軍Simona Halep的名字,一筆一畫,吃力地刻在一座有歷年冠軍名字的獎盃上。不到一天,在臉書(Facebook,FB)已有近四百則留言,分享近八千次。
我幻想:若把時間快轉到四十三年後、二○六二年的溫布頓—本書作者托比.沃爾許(Toby Walsh)推測那將是人工智慧超越人類的「奇點(singularity;人工智慧的能力超越人類的時間點)之年」—影片主角老師傅,會不會被換成一管閃紅光的雷射槍?
而作為觀眾,你期待看見由誰來紀錄這個神聖時刻?一隻機器手臂,或一雙靈活的人類十指?
人類終極恐懼:會不會被人工智慧取代?
從工作、戰爭、平等、隱私到政治,科技的應用範圍愈廣,人們的疑問也愈多,最終的恐懼無非是:人類,會不會被人工智慧取代?
作者沃爾許的態度是樂觀的。他細緻梳理各種關於人工智慧的「都會傳說」,如「數萬種工作將被人工智慧取代」、「機器人上戰場可減少軍人傷亡」、「用演算法決定保費最公平」等,再一一提出證據反詰,試圖打破對科技的恐懼與崇拜。
就拿工作來說,上個世紀開始,每隔一段時間就有學者或調研組織發出警告:數以萬計的人類工作將被機器取代;有些報告甚至能精準指出,有四七%至七七%的工作,可能因為由科技取代而消失。
作者質疑這類數字過於聳動,而且有三個漏洞:
(一)工作過於複雜,用人工智慧做不來;
(二)工作過於廉價,用人工智慧划不來;
(三)工作過於社交,人類顧客與人工智慧處不來。
比如修理腳踏車,這是一個看來簡單、實則細膩的工作。首先,腳踏車有許多非標準零件,難以自動化;其次,這不是高薪工作,用人工智慧無法產生經濟效益。最重要的是,許多車友會趁修腳踏車時跟老闆交換情報,即便有又快又好的修腳踏車機器人,顧客們可能還是偏好找人類來修。
也就是說,那些嚇人的報告往往只考慮到,工作自動化在技術上是否可行,卻忽略在經濟上與人性上是否實際。
機器已取代勞力,現在還要取代認知
但作者同時務實地指出,固然有工作會因人工智慧衍生出新機,但有些工作註定要消失。一位化學家可能因自動化提升工作效率,而有餘裕做更多創新;但一位洗窗工人卻可能因為工作貴又危險,而被機器取代。
二○一五年美國研究顯示,最可能被犧牲的是二十一到三十歲、沒有大學學位的美國男性。他們曾是勞動骨幹,但在調查前十二個月,有二二%的人完全沒有工作過。
不只藍領岌岌可危,白領也非高枕無憂。上法庭辯論需要資深律師,但搜集資料等法務助理的工作可能會被自動化取代。
工業革命時代,機器取代了勞力工作,但認知工作還是歸人類掌管。但當人工智慧將認知工作也拿下之後,到了二○六二年,還有什麼歸人類?
到了這個階段,人工智慧面臨的不只是技術或經濟問題,而是倫理與價值的選擇。
每家公司都需要一位「哲學長」
就拿經典的哲學問題「電車兩難」來說:電車開在軌道上,眼看就要撞死綁在主幹道上的五個人。但你手上握有控制桿,只要用力一拉,就能將電車導向支線,支線上「只」綁著一個人。這時候,你該不該拉下控制桿?
你可以把這個頭痛的問題擱一邊,但設計自動駕駛系統的廠商,可不能對此含混過關—因為它真的可能在道路上發生。然而,連人類都尚未形成共識的問題,又該如何教機器人「思考」?
而當人工智慧結合破壞力更大的系統,如軍事無人機,就不是「一人vs.五人」的選擇,而是「數十人vs.上千人」的生死交關。萬一誤炸平民,誰要負責?誰該接受軍事審判?
「有鑒於電腦的一板一眼,我們在價值上必須比以往更精準,因為我們給予人工智慧系統的決定能力會衝擊到我們,」作者提醒,人類千百年都理不清的事,如今卻被科技推著釐清,也是意外收穫。
到了二○六二年,每家公司可能都需要一位「哲學長」,以確保人工智慧系統能反映人類價值,哲學的黃金時代將再度降臨。
所以,別擔心誰來刻獎盃了;說不定二○六二年與人類在溫布頓對打的,已經是機器人了—等等,這符合倫理嗎?