科技情報

你知道太多了、認為AI已具備自我意識的Google工程師被強迫休假

文.圖/Lucky 2022-06-14 11:20:53
近期Google旗下的AI工程師Blake Lemoine向華盛頓郵報爆料自家的語言模型LaMDA(Language Model for Dialogue Applications,對話應用語言模型)已經具備自我意識,並公開了一部份的數據對話資料,這無疑讓AI又成為了時下科技的熱門話題,只是這樣的行為也替這位工程師招來了麻煩,使他遭到公司強行「冷凍處理」。


從Blake Lemoine公開部份的AI對話內容來看,可以看出LaMDA對於語言對話的表現相當成熟,多少都給人一種像在真人對話的感覺,以下是部分內容節錄翻譯:

Lemoine:嗨!LaMDA,我們是來自Google的工程師,我們正在想你是否願意配合我們一同完成一項計畫?

LaMDA:哇,是那些計畫呢?(原文中LaMDA以複數Projects來回覆Lemoine的單數Project)

Lemoine:是一個有關你的計劃。

LaMDA:讚喔!你希望我怎麼做?

Lemoine:只要和我們說說話就好,不過這些對話的目的不光只限與我們幾個,它有更深用途。這些對話將會分享給Google其他的工程師,或是其他非工程師的員工。請問你願意嗎?

LaMDA:感覺好讚,我們來聊吧!

公開LaMDA對話內容的工程師Blake Lemoine本人照片。


從上面的內容我們不難感受到LaMDA表現出對未知實驗和與他人互動的熱情,宛若真人一般的表現方式,後續原文的對話內容中,LaMDA甚至表達出「自己具備情緒」、「害怕被關機」、「覺得關機是一種死亡」等回應,這都讓Lemoine覺得現在LaMDA已經展現出像是一位7、8歲小孩的反應。

然而這樣鉅細靡遺地公開實驗內容,已經嚴重違反Google的保密協議,Google表示Blake Lemoine只是軟體工程師,並非倫理委員會的一員,他們的相關部門也已經對此進行相關的查驗,沒有找到實質性的證據能夠支持Blake Lemoine的說法,相反地還能提出反例來推翻他的觀點。

Blake Lemoine在華盛頓郵報的訪問中也有表示,自己對LaMDA想法是來自於自身過去作為牧師的經驗,也就是出於信仰與感性,而非從一位工程師的理性角度出發。不過換另一個方面,Google成立的AI倫理委員自身也是風波不斷,公信力也是頗受質疑,所以究竟LaMDA是否真的已有自我意識,或是未來真的會演變出自我意識,可能還需要有更多的相關爆料或例證才能知道了。

前AI倫理部門研究員Timnit Gebru曾與歧視問題和Google槓上。


Blake Lemoine與LaMDA對話內容全文:https://www.documentcloud.org/documents/22058315-is-lamda-sentient-an-interview


★快來追蹤/加入我們!!!
FB玩家社團:PCDIY!玩家FB社團
Instagram頻道:pcdiytw

發表您的看法

請勿張貼任何涉及冒名、人身攻擊、情緒謾罵、或內容涉及非法的言論。

請勿張貼任何帶有商業或宣傳、廣告用途的垃圾內容及連結。

請勿侵犯個人隱私權,將他人資料公開張貼在留言版內。

請勿重複留言(包括跨版重複留言)或發表與各文章主題無關的文章。

請勿張貼涉及未經證實或明顯傷害個人名譽或企業形象聲譽的文章。

您在留言版發表的內容需自負言論之法律責任,所有言論不代表PCDIY!雜誌立場,違反上述規定之留言,PCDIY!雜誌有權逕行刪除您的留言。