人工智能的最大挑戰(zhàn)是道德問題 它們的行為動機(jī)無法確定
2017-03-15 11:41:05 來源:36氪 熱度:
人工智能無處不在,并且還會在以后漫長的歲月中影響我們的生活。在網(wǎng)上購買什么樣的書籍?購買哪一趟航班?工作申請是否成功?是否收到銀行貸款?甚至癌癥治療方法的選擇?這些都或多或少地受到人工智能的影響。

所有的這些,甚至更多的事情,在很大程度上可以由復(fù)雜的軟件自動決定。人工智能在過去幾年中取得了令人矚目的巨大進(jìn)步,并且人工智能可能會使我們生活的許多方面變得更好。
在過去的幾年中,人工智能的興起是不可避免的。大量資金投放在了人工智能的創(chuàng)業(yè)公司中。許多現(xiàn)有的科技公司,包括像亞馬遜、Facebook和微軟這樣的巨頭,都已經(jīng)開設(shè)了新的研究實驗室。可以毫不夸張地說,軟件就意味著人工智能。
有些人預(yù)測人工智能興起帶來的影響可能會像互聯(lián)網(wǎng)帶來的震撼一樣,甚至震撼更大。我們問一個技術(shù)專家小組,這個迅速變化的、充滿完美機(jī)器的世界會給人們帶來怎樣的影響?值得注意的是,幾乎所有的回答都集中在道德問題上。
要確保每個人都受益——Google研究主管Peter Norvig
對于Google研究主管和機(jī)器學(xué)習(xí)先驅(qū)的Peter Norvig來說,在數(shù)據(jù)驅(qū)動的人工智能技術(shù)成功的背后,我們應(yīng)該考慮的關(guān)鍵問題是:如何確保這些新系統(tǒng)能夠改善整個社會,而不僅是幫助那些控制它的人。“在實際任務(wù)中,人工智能已被證明非常有效。例如標(biāo)記照片,理解語言,書寫自然語言,甚至可以幫助識別疾病。”他說,“現(xiàn)在面臨的最大問題是確保每個人都受益于這項技術(shù)。”
最大的問題是,軟件的復(fù)雜性通常意味著,不可能確定人工智能行為的動機(jī)?;诖笠?guī)模的稱為機(jī)器學(xué)習(xí)的成功技術(shù),你不可能打開人工智能的外殼來看看它究竟是怎么工作的,所以我們必須信任它。因此,我們需要找到新的方法來監(jiān)測或?qū)徲嬤@個在很多領(lǐng)域都極其重要的人工智能。
哈佛法學(xué)院互聯(lián)網(wǎng)法教授Jonathan Zittrain說,計算機(jī)日益復(fù)雜的系統(tǒng)可能會阻礙系統(tǒng)得到它們應(yīng)當(dāng)?shù)玫降膶彶?,這是十分危險的。“我擔(dān)心,在技術(shù)的幫助下,我們的系統(tǒng)將變得更加復(fù)雜和緊密連合,人類的可操控性會下降。”他說。 “如果我們設(shè)置它并忘記它,我們可能會后悔系統(tǒng)自己進(jìn)化成的樣子,并且這里沒有任何一個方面需要考慮道德倫理問題。
這是我們小組內(nèi)其他人關(guān)注的問題。曾經(jīng)是美國海軍第一位女戰(zhàn)士飛行員之一,現(xiàn)在是無人機(jī)專家的北卡羅來納州杜克大學(xué)人類和自治實驗室主任Missy Cummings問道,“我們將如何證明這些系統(tǒng)是安全的?”
人工智能需要監(jiān)督,但我們尚不清楚該如何實現(xiàn)這一過程。“目前,我們沒有人們能夠普遍接受的方法,”Cummings說,“并且沒有用于測試這個系統(tǒng)的行業(yè)標(biāo)準(zhǔn),因此這些技術(shù)難以被廣泛使用。”
缺少測試人工智能的行業(yè)標(biāo)準(zhǔn),難以廣泛應(yīng)用 ——Missy Cummings,杜克大學(xué)人類和自治實驗室主任
然而在快速發(fā)展的社會中,監(jiān)管機(jī)構(gòu)發(fā)現(xiàn)自己經(jīng)常在追隨時代的發(fā)展。在許多關(guān)鍵領(lǐng)域,例如刑事司法系統(tǒng)和醫(yī)療保健部門,公司們已經(jīng)在探索人工智能在假釋或診斷疾病等方面所發(fā)揮的作用。但是,把決策權(quán)交給機(jī)器的話,我們將面臨風(fēng)險。誰能確保這個系統(tǒng)在每個案件中都做出了正確的決定?
微軟研究院的主要研究員Danah Boyd說,正被寫入這些系統(tǒng)的價值觀存在著嚴(yán)重的問題,誰會最終對這些系統(tǒng)負(fù)責(zé)? 她說:“監(jiān)管機(jī)構(gòu)、公民和社會理論家們越來越希望看到這些技術(shù)是公平和道德允許的,但是這些“公平”或“道德”的概念卻十分含糊不清且難以界定。”
一個充滿倫理問題的領(lǐng)域是工作場所。人工智能會讓機(jī)器人做更加復(fù)雜的工作,并取代更多的人類工作者。例如,為蘋果和三星提供裝配服務(wù)的富士康科技集團(tuán)宣布,它將使用機(jī)器人替換6萬名工廠工人。位于德國科隆的福特工廠將機(jī)器人與人放在一起工作。
此外,增加自動化對就業(yè)有很大的影響,它也會對人的心理健康產(chǎn)生不利影響。“是什么讓人的生活變得有意義?有三件事:有意義的人際關(guān)系、對興趣的熱情以及有意義的工作。”生物倫理學(xué)家及Barack Obama的前醫(yī)療顧問伊澤克爾·伊曼紐爾說,“有意義的工作是一個個體很重要的一部分。”他認(rèn)為,在工廠關(guān)閉、失業(yè)高發(fā)的地區(qū),自殺、藥物濫用和抑郁癥的風(fēng)險會增加。
我們對倫理學(xué)家的需求也在增加。“公司將遵循市場需求而發(fā)展,這并不是一件壞事。但我們不能依靠市場需求的準(zhǔn)則,因為我們需要站在道德的立場來處理問題。”在麻省理工學(xué)院專攻法律和倫理學(xué)的Kate Darling說,“這有助于建立規(guī)章制度。我們已經(jīng)在周圍的生活中見過這樣的例子。每當(dāng)我們有一種新技術(shù)產(chǎn)生的時候,我們就要想出如何管理它。”
希望技術(shù)是公平和道德的,但“公平”和“道德”的概念卻含糊不清。——Danah Boyd,Microsoft Research
Darling指出,很多像谷歌這樣的大公司已經(jīng)成立了道德委員會,以便監(jiān)控他們?nèi)斯ぶ悄艿拈_發(fā)和部署。這里有一個更常見的觀點:“我們不想扼殺創(chuàng)新,但我們可能要建立一些制度來限制它某一部分的發(fā)展。”
對于Google的道德委員會成員的詳細(xì)信息以及它實際上所做的工作,我們知道的信息仍然很少。但去年9月,F(xiàn)acebook、Google和亞馬遜形成了一個聯(lián)盟,旨在研究人工智能隱私安全的相關(guān)問題的解決方案。 OpenAI是一個致力于開發(fā)和促進(jìn)人工智能開源以滿足所有人利益的組織。谷歌的Norvig說:“機(jī)器學(xué)習(xí)必須公開研究,并通過開放的出版物和公開源代碼進(jìn)行傳播,這樣我們就都可以從中獲益。”
如果我們要發(fā)展行業(yè)和道德標(biāo)準(zhǔn),并充分了解所涉及的問題,那么對倫理學(xué)家、技術(shù)專家和企業(yè)領(lǐng)導(dǎo)者的信任是很重要的。我們可以利用人工智能,使人類在已經(jīng)做得很好的時領(lǐng)域做到更好。 “我們不用擔(dān)心科幻小說里對機(jī)器人占領(lǐng)人類的描述,而應(yīng)把更多的注意力放在如何使用技術(shù)來幫助人類反思和決策,而不是完全取代我們自己的工作上。”Zittrain說。
責(zé)任編輯:黃焱林