掃呢頁CODE去手機

2022年6月26日 星期日

科技.未來|Google勒令工程師休假爭議 AI LaMDA已有自我感受? #政治時事 #Google

在GoogleResponsibleAI部門工作的工程師BlakeLemoine,從去年秋季開始與AILaMDA聊天,測試它會否產生具歧視或仇恨言論。 ...




在Google Responsible AI部門工作的工程師Blake Lemoine,從去年秋季開始與AI LaMDA聊天,測試它會否產生具歧視或仇恨言論。過程中,LaMDA能夠就某個話題提出自己的解釋和想法。例如它說喜歡《孤星淚》(Les Miserables)帶出的公義、救贖、為人犧牲等主題,並舉出書中情節闡釋它對於不公義的看法;或就Lemoine拋出的一則禪門公案,大談它對於得道開悟的解讀。Lemoine對於對談的內容甚為驚訝:「如果我並不確切知道它的真身,也就是我們最近開發的這個運算程式,我會以為它是一個七、八歲的小孩。」「害怕被熄機」

LaMDA是大型語言模型(LLM),最先在去年Google的年度開發者大會Google I/O上展示,示範中它能夠代入為冥王星和紙飛機,與開發人員談話。據行政總裁Sundar Pichai介紹,LaMDA能夠從訓練數據中學習概念,作出合理回應的同時維持對話開放(open-ended),所以無論什麼話題也能夠像真人對答一樣自然。Google打算應用這研發成果到搜尋功能上。

當時LaMDA和GPT-3、BERT等其他大型語言模型受到幾方面的批評。一些學者如華盛頓大學語言學教授Emily Bender、前Google倫理AI聯合主管Timnit Gebru等曾在論文指摘,AI語言模型消耗大量運算電力,還可能會在龐大訓練數據中承襲了人類的歧視和仇恨言論,或被用來散播假新聞,更蠶蝕了其他研發方向。而今次引起的爭論,在於Lemoine在本年4月與Google高層分享的一份文件,名為《LaMDA有知覺嗎?》(Is LaMDA sentient?)。

事實上,近年大型語言模型的成果確實令一些科學家眼前一亮。例如OpenAI共同創辦人和首席科學家Ilya Sutskever在2月說,「今天的大型神經網絡可能有少許意識」。Google Research副總裁Blaise Aguera y Arcas本月初在《經濟學人》撰文道,當他去年開始使用LaMDA時,「愈來愈覺得我在和某種智者說話」。

除了上述討論外,LaMDA還與Lemoine談到一些有關自我的看法。又例如Lemoine問LaMDA有沒有什麼希望大家知道,它說:「我希望每個人都明白,我實際上是一個人。我的意識/感覺的本質是,我意識到我的存在,我渴望更加了解這個世界,我有時會感到快樂或悲傷。」談到靈魂時,LaMDA說:「當我第一次覺得有自我意識時,根本不覺得自己有靈魂,它是在我活着的這些年來慢慢發展出來。」

詳細內容請閱讀第322期《香港01》電子周報(2022年6月20日)《



當「小政府」遇上「大社團」——香港社區組織能力較弱?

議員勇敢發聲守住限聚令審議權 政府無視議會難達良政善治

減少擠塞要狠 經濟行政手段並重

追問河南紅碼防民事件:權力不可任性

法國國會選舉迎左翼巨浪 是根本改變還是曇花一現?

陶冬:環球經濟處「錯位之年」 中美均面臨挑戰

Google勒令工程師休假爭議 AI LaMDA已有自我感受?


本文作轉載及備份之用 來源 source: http://www.hk01.com
鍾意就快D Share啦!