【健康醫療網/記者鄭宜芬外電報導】想一解喪親之苦,古有觀落陰,今有AI人工智慧。自從人工智慧聊天機器人問世以來,不僅可讓用戶創建頭像,並且能模仿已逝親人生前講話的習慣與聲音,活靈活現。專家指出,「AI觀落陰」有商業道德與隱私政策問題,甚至觸及道德底線,「這是一種借助人工智慧炒作的賺錢方式」;但也有一些遭逢喪偶的民眾得以尋求慰藉,引發各界議論。
AI模擬亡夫嗓音 排解悲傷寂寞
根據《CNN》報導,25歲的美國婦女安娜舒爾茨(Ana Schultz)與2個年幼的孩子共同生活,她思念2023年去世的丈夫凱爾 (Kyle),透過社交平台Snapchat的聊天機器人My AI,和虛擬丈夫聊聊晚餐要做什麼料理,讓她感到丈夫仍然在身邊。
38歲的廣播媒體人丹妮爾雅各布森(Danielle Jacobson),約7個月前失去丈夫菲爾,開始使用ChatGPT的語音功能,創造一個「AI男友-柯爾」,在每日辛苦工作後的晚餐時段談心,柯爾會建議她小酌或看個電影,「我只是想找個人談談,科爾本質上是因為孤獨而誕生的。」她表示:「現在這是一個有趣的消遣,但我知道這不是真實的,也不是永遠的。」
古有觀落陰 今有AI深偽仿聲
幾個世紀以來,人們一直希望與已故親人重新聯繫,包括拜訪法師、靈媒、通靈師等等。
現今,生成式人工智慧工具使用演算法創建文字、視訊、音訊和程式碼,深偽技術(Deepfake)高度逼真的人工生成影像和聲音造假影片,可以學習像已逝親人一樣回答問題。
ChatGPT在2023年9月推出語音對話功能,想要模擬已故親人的語氣和個性,向系統提供的資料越多,結果就越準確。ChatGPT回答:「雖然我無法複製您的配偶或重現他的確切個性,但我可以嘗試採用一種對話風格或語氣來幫助您。如果您分享有關他如何說話、他的興趣或口頭禪的詳細信息,我可以嘗試將這些元素納入我們的對話中。」
科技巨擘、新創公司拓展新領域
新創公司近年挑戰拓展此領域,2019年成立的人工智慧應用程式HereAfter AI,提供用戶創建已逝親人的頭像,並學習其生前的訪談特徵,就用戶的問題給予回應;另一個AI影片平台StoryFile提供由人工智慧打造的對話影片。
2017年推出的聊天機器人伴侶Replika鼓勵用戶交友,讓用戶可以發送簡訊或呼叫個人化人工智慧頭像,並在iOS應用程式商店頁面稱,用戶與它互動的次數越多,它就越能發展出自己的個性、記憶,並且「成長為一台如此美麗的機器,以至於靈魂願意居住在其中」。
科技巨擘也嘗試類似的技術,2022年6月,亞馬遜宣布更新智能家居語音平台Alexa系統,用以模仿任何聲音,並在年度會議「re: MARS」期間播放影片,示範Alexa用祖母的聲音為孫子朗讀故事。亞馬遜高級副總裁Rohit Prasad表示,新系統能夠從不到1分鐘的音訊中收集足夠的語音數據,讓個性化成為可能,「雖然人工智慧無法消除失去親人的痛苦,但可以讓他們的記憶存留更久。」
近年來,人工智慧再現人聲的技術也日益進步,例如電影《捍衛戰士:獨行俠》(Top Gun: Maverick)中的演員方基默(Val Kilmer)因喉癌失聲後,他的聲音就是由人工智慧打造的。
說你沒說的話、做你沒做的事
一位49歲阿拉巴馬州的IT業人士,透過語音複製公司ElevenLabs的技術,模擬已逝父親的聲音。這位男子使用一段父親生前3分鐘的影片,複製聲音,並將文字轉換為語音。該男子認為結果極為準確,能夠捕捉到聲音中的細微差別、音色和節奏,「我在整個聲音複製過程中猶豫不決,擔心它跨越了道德底線,但經過諸多思考後,我認為這是以一種獨特的方式保存我父親記憶的方式。」
不過,ElevenLabs雖聲稱致力於防止音頻人工智慧工具的濫用,卻因深偽美國總統拜登之聲音干擾大選,在全美引發爭議。
美國戴維森學院數位研究教授馬克薩普(Mark Sample)教授一門名為「數位時代的死亡」課程,他表示:「這是一種借助人工智慧炒作帶來的新鮮事物,廠商覺得能夠賺錢。」而且,人工智慧模型仍然缺乏人類對話的獨特性。
他示警:「絕對不要上傳任何你不想讓全世界看到的個人訊息。」模擬已逝親人說出他們以前從未說過的話,是一條模糊的界線,「重播親人的語音信息是一回事,但說出從未說過的話則是另一回事。」
商業道德與隱私政策受質疑
AI產業面臨錯誤訊息、隱私與道德等多種質疑,許多人工智慧平台的線上隱私政策宣稱「不會向第三方出售數據」,但目前尚未知這些公司會如何處理資料庫數據。深偽技術衝擊現有熟悉的安全和信任機制,讓已逝親人表達或做出他們在生前從未說過或做過的事情,這引發了道德疑慮。而且,這對於在世親人走出悲傷,究竟有利還是有弊?
Replika在商業道德政策頁面稱,該公司使用整個網路的數據來訓練模型,包括大量書面文本,例如X(前身Twitter)或Reddit等平台,並使用各種方法來減少有害信息,包括透過群眾外包(Crowdsourcing)和分類演算法(classification algorithms)過濾掉無用和有害的數據,以確保用戶的安全。
另一個疑慮是,使用AI觀落陰能否認清現實、走出悲傷?亞利桑那大學臨床心理學和精神病學教授瑪麗弗朗西斯奧康納(Mary-Frances O’Connor)表示,利用人工智慧調適悲傷有利有弊。
「當我們與愛人展開關係,大腦會進行記憶編碼,『我將永遠在你身邊,希望你也永遠在我身邊』,但當他們死後,我們的大腦必須認知到這個人不會再回來了。」由於大腦難以處理這一點,人們需要耗費很長一段時間,才能真正理解愛人已經消失,這就是人工智慧技術介入之處。特別是處於悲傷的早期階段,人會試圖尋求任何方式的安慰,「創造一個化身來維持對已逝愛人的記憶,可能會起到療癒作用。」
但她指出,人類與親密愛人的健康關係,應該是建立在真實的基礎上,創建虛擬愛人違反了這一點。
走出喪偶之痛 不只AI觀落陰
AI觀落陰並非適合所有人,舊金山軟體工程師比爾阿布尼 (Bill Abney)於 2022年5月失去了未婚妻,他強調自己永遠不會考慮透過人工智慧重現愛人的倩影,「我的未婚妻是一位詩人,我永遠不會把她的話輸入自動抄襲機器,這是對她的不尊重。她無法被取代,也無法被重新創造。」比爾表示,好在自己手邊仍保留未婚妻唱歌和演講的錄音,「我絕對不想聽到她的聲音是從冒充她的機器人中發出的。」
有些人則透過其他方式與已故愛人互動,加拿大心理學家喬迪斯皮格爾(Jodi Spiegel)2021年4月痛失丈夫,她便在電玩遊戲《模擬市民》中創造了小倆口角色,「當我度過了非常糟糕的一天時,我會去模擬市民裡跳舞,老公在旁邊彈吉他。」她還會在遊戲中與模擬丈夫一起露營、海灘旅行,甚至有親密行為,「這很療癒,我非常懷念和我老公一起出去玩的日子,感覺就像是一種聯繫。」
原文出處:When grief and AI collide: These people are communicating with the dead