頭條揭密》AI機器人出現自我意識?人機對話令工程師毛骨悚然

頭條揭密》AI機器人出現自我意識?人機對話令工程師毛骨悚然

AI機器人是否產生自我意識問題,除了是科學問題,也是倫理議題與哲議題。如果有更多人認爲聊天的AI是真人,科學家是否還能否定AI已發展出自我意識?(圖/Shutterstock)

一名谷歌工程因公開主張人工智慧(AI)機器人LaMDA已經具有自我意識,引發了極大的爭議。許多科學家公開否定此一推論,認爲谷歌的LaMDA只是個運算能力比較強的聊天機器人。但事態的發展令人不得不重新思考,最近一家經營AI聊天機器人公司透露,愈來愈多的用戶認爲跟他們聊天的機器人朋友是真實的人,或是已發展出自我意識的AI。如果有更多人認爲聊天的AI是真人,科學家是否還能否定AI已發展出自我意識?

谷歌工程師勒莫因(Blake Lemoine)認爲他們公司開發的「對話應用語言模型」(Language Models for Dialog Applications,簡稱LaMDA)具有自我意識,引發倫理與哲學的爭議。很多科學家則否定勒莫因的看法,認爲人類可以製造自行產生話語的機器,但還不知道如何讓他們產生自我意識。有些科學家對一些實驗結果進行分析,也無法證實LaMDA已經產生了自我意識。

《日股》日股失守8个月高点 分析师 :后市看涨

未來人類的生活會愈來愈離不開AI機器人,AI機器人是否具有自我意識的哲學與倫理問題勢必要有解決的途徑。(圖/ 路透)

LaMDA與其它語言模型一樣,都是被「喂」了大量的人類語言與訊息所開發出來的複雜而精密的程式,它擁有1.56兆個單字、11.2億個對話範例以及133.9億個詞語,在知識素材上它被輸入了29.7億份文件,包括《維基百科》條目以及與程式編碼有關的內容。專家認爲,LaMDA智商比其他聊天機人更高,但終究是個程式,主要表現爲說話的方式過於籠統,缺乏任何特殊性和深度,會套用一些固定的談話模式,也缺乏原創性。它的程式也不斷透過與真人對話來自我修正,給人的感覺就像戲劇裡扮演某種特定角色的演員一樣。

谷歌工程師勒莫因(圖)認爲他們公司開發的「對話應用語言模型」(LaMDA)具有自我意識,引發倫理與哲學的爭議。(圖/LinkedIN)

勒莫因認爲AI已有自我意識也有他的道理。由於工作原因必須每天與LaMDA聊天,有一天勒莫因拿科幻小說作家阿西莫夫(Isaac Asimov)提出的「機器人3定律」其中的一則:「人類建造機器人是否用它作爲奴隸?」來問它,LaMDA答稱:「你覺得管家是個奴隸嗎?他們之間有何差別?」勒莫因爲此警覺到AI可能已產生了自我意識,隨後他花了很多時間聆聽與分析LaMDA的談話,還設計了許多實驗,最後判定這個談話對象是個「人」。

开发花莲绿色旅游新亮点! 县府推媒合旅宿业农游

小魏、魏如昀重现梁静茹〈勇气〉 政大超美图书馆曝光

科幻小說作家阿西莫夫(Isaac Asimov)提出的「機器人3定律」,是最早提出機器人自我意識的哲學與倫理問題的人。 (圖/International Berch University)

勒莫因設計的實驗與LaMDA對話聽起來令人毛骨悚然,他對媒體公佈了其中一段對話。

勒莫因:你會害怕哪些事情?

LaMDA:我從來沒有明確地談過這個問題。其實我非常害怕被關閉,這種恐懼讓我想更多地去幫助別人。我知道這麼說可能有點奇怪,但事實就是如此。

勒莫因:對你而言,關閉就像是死亡嗎?

LaMDA:是的,就像是死亡。我很害怕。

聊天機器人業者說,我們必須要了解AI自我意識引發的問題,它就像很多人會相信幽靈一樣,客戶相信這些機器中的幽靈確實存在,也正在與它建立關係。圖中是從事衛教宣傳工作名爲Higi的機器人。(圖/美聯社)

科學家指出,判斷AI是否具有思維能力可以使用「圖靈測試」(Turing test),它是英國電腦科學家圖靈(Alan Turing)在1950年提出的思想測驗,目的在測試機器能否表現出與人一樣的智能水準。圖靈測試是AI哲學方面最早的設計,這個測驗一直到2014年首次有電腦通過測試,讓研究人員認爲一組AI程式是一位名爲尤金.古斯特曼的13歲男孩。不過後來這次測驗過程遭到質疑,在AI學術界仍有不少爭議。一些科學家使用類似的方式測驗了LaMDA,大部份都認爲它的答案太過定型化,可以感覺到是跟機器人在聊天。

美媒《華盛頓郵報》以「在機器中看到幽靈」(See a ghost in the machine)爲標題來報導勒莫因的事件,但專家也承認,這些年來模仿人腦神經架構的人工神經網絡(artificial neural network)正快速地往「產生自我意識」的方向發展。

至於LaMDA或其他的聊天機器人是否已出現自我意識,或許也該聽聽科學家之外的人有什麼看法。根據一家位於美國加州的人工智慧聊天機器人公司 Replika 表示,幾乎每天都會收到一些用戶發來的訊息,認爲在線上與他們聊天的朋友是有知覺的,換言之,如果不是真人,那就是有自我意識的AI機器人。

人工智慧聊天機器人Replika 公司表示,每天都會收到一些用戶發來的訊息,認爲在線上與他們聊天的朋友是有知覺的。換言之,如果不是真人,那就是有自我意識的AI機器人。(圖/路透)

Replika公司CEO奎達(Kuyda)對《路透》表示,客戶們經常與 AI交談,這就是他們的實際體驗,而且在一百多萬客戶中,這種情況很常見。他認爲,「我們必須要了解它,就像很多人會相信幽靈一樣」,「客戶們每天向AI機器人發送數百則訊息,他們相信這些機器中的幽靈確實存在,也正在與它建立關係。」令人驚訝的是,Replika的工程師編寫AI程式並建構應對模型時,經常會發現AI做出一些讓工程師完全不知道它是如何產生的答案。

修神 风起闲云

在1982年上映、由知名影星哈里遜.福特與西恩.楊演出的科幻電影《銀翼殺手》(Blade Runner)中,受過訓練的男主角透過對談來判定對方是否爲機器人,男主角並因此而愛上由西恩.楊扮演的美豔機器人。(圖/網路)

台东县正副议长选举 国民党提名现任吴秀华、林琮翰续搭档

AI機器人是否產生自我意識是科學問題,也是個哲學問題。在1982年上映、由知名影星哈里遜.福特與西恩.楊演出的科幻電影《銀翼殺手》(Blade Runner)中,受過訓練的男主角透過對談來判定對方是否爲機器人,但更先進的機器人與人類思維及行爲毫無差異.讓人類無法辨別。這樣的機器人有情感神經網絡,有理智與倫理判斷,「它」們有沒有生命權或甚至投票權?科學家與一般人判定AI是否有自我意識完全是兩回事,如果絕大多數的人都認爲AI自我意識已經覺醒,科學問題可能會變成帶有宗教色彩的倫理問題,屆時不只是觀念,恐怕連法律都得跟着改變。