被業界尊為「AI教父」的辛頓(Geoffrey Hinton)警告,AI可能對全人類造成威脅。
日經3月31日報導,辛頓受訪時指出,人類面臨的威脅在於,AI可能曲解意思,讓良善的本意變質。舉例來說,若要求一個超級AI解決氣候變遷問題,這款AI第一個想法恐怕是讓人類消失。換言之,設定目標時須非常小心。
辛頓說,假設不同AI開始彼此競爭,由於AI是藉由讀取更多數據的方式變聰明,需要許多資料中心及資源。因此,兩款AI將彼此爭奪資源來演進,人類會被遠遠拋在後頭。許多人會問,何不設置開關、必要時將之關閉?辛頓認為,若AI真比人類聰明,那麼只要還可跟人類對話,AI肯定能說服執掌開關的人相信,將之關閉是很壞的主意。
辛頓學生、也是OpenAI共同創辦人的Ilya Sutskever,去(2023)年11月曾試圖開除OpenAI執行長阿特曼(Sam Altman)、最終以失敗收場。對此,辛頓表示,Sutskever非常擔憂安全機制,OpenAI原先使命是,就算營利也要把安全擺第一,如今營利卻排在安全前面。2012年AI還無法跟上人類,只能辨識物體及影像,無法理解語言及複雜事物。然而,Sutskever比辛頓還要早改變看法,最後證明他是對的。
辛頓相信,人類肯定會在未來10年藉由先進AI研發出可怕又致命的自動化武器,聯合國(UN)也許會設法控管、就像監管化學武器一樣。他希望AI戰鬥機器人的使用能受到管制,但估計要到真的有人用了、聯合國才會出手監管。
霍金:AI可能失控、人類恐自取滅亡
英國知名物理學家史蒂芬霍金(Stephen Hawking) 2014年就曾警告,強尼戴普(Johnny Depp)主演的電影《全面進化(Transcendence)》描述了一個逐漸失控的AI,其實這並非危言聳聽,因為AI未來可能會比金融市場還聰明、比科學家更具創意、比人類領袖更能操縱人心、甚至還有機會研發出人們完全無法理解的武器。
霍金指出,世界文明是人類智慧的產物,但當這種智慧被AI的工具放大時,產生的結果實在難料,唯一能確定的就是,戰爭、疾病與貧窮會是大家最先消滅的問題。全球各地的軍隊已開始考慮導入能夠自選並殲滅目標的自動化武器系統(聯合國與人權觀察組織已開始呼籲禁用這類武器);中期來看,人工智慧甚至可能轉化整個經濟型態,帶來巨大的財富與嚴重的混亂。
他2016年再度示警,宣稱AI要不是有史以來最棒的發明、就是人類史上最可怖的悲劇。
億萬富翁創業家馬斯克(Elon Musk)也有類似看法,他先前並在《福克斯新聞頻道》2023年4月17日播出的專訪指出,他打算創立追求極致真相、試圖理解宇宙本質的AI系統「TruthGPT」,這或許是為AI安全把關的最佳途徑。當AI將理解宇宙視為己任、它就不太可能滅絕人類,因為人類也是宇宙有趣的一部份。
馬斯克2023年7月宣布創立人工智慧(AI)公司「xAI」,目標是為了「了解宇宙真相」(understand the true nature of the universe)。