
王春暉
人工智能技術(shù)的發(fā)展被稱為第四次工業(yè)革命,是一個融合計算機科學、統(tǒng)計學、腦神經(jīng)學和社會科學的前沿綜合學科,可以代替人類實現(xiàn)某種識別、認知、分析和決策等功能,已經(jīng)成為當今世界各國一爭高下的重要場域。
不過,到目前為止,人工智能并沒有確切的定義,有人推測人工智能的發(fā)展遠景將經(jīng)歷三個階段:一是弱人工智能階段;二是強人工智能階段;三是超人工智能階段。筆者認為,目前所有的人工智能技術(shù)尚屬于弱人工智能階段。
人工智能面臨的倫理與法律問題
已故著名物理學家、劍橋大學教授史蒂芬·霍金在世時曾警告:在我的一生中,見證了許多社會深刻變化,其中最深刻的,同時也是對人類影響與日俱增的變化,就是人工智能的崛起?;艚鹫J為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。
筆者認為,人工智能在其發(fā)展進程中面臨的最大問題不是技術(shù)本身,而是倫理和法律問題。2017年6月,由聯(lián)合國國際電信聯(lián)盟主辦的主題為“人工智能造福人類”的全球峰會在日內(nèi)瓦召開。這次峰會聚焦了人工智能的兩大國際性問題:一是加速人工智能的研發(fā)和應用,以應對貧困、饑餓、健康、教育和環(huán)境保護等全球性挑戰(zhàn);二是探討如何確保人工智能的安全性并符合倫理規(guī)范,防止其帶來意想不到的后果。
2016年,標準制定組織IEEE發(fā)布了首份人工智能報告(2016),其名稱為:“利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景”。該報告提出了一個發(fā)展人工智能的一般性原則,主要涉及的是高層次倫理問題,報告認為,人工智能發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時,主要考慮三大因素:一是體現(xiàn)人權(quán);二是優(yōu)先考慮最大化對人類和自然環(huán)境的好處;三是削弱人工智能的風險和負面影響。
原則之一:人類利益原則。人類利益原則要求考慮,如何確保人工智能和自主系統(tǒng)不侵犯人權(quán)。為了實現(xiàn)人工智能和自主系統(tǒng)尊重人權(quán)、自由、人類尊嚴及文化多樣性,在使用年限內(nèi)是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應當構(gòu)建治理框架,包括標準化機構(gòu)和監(jiān)管機構(gòu),增進公眾對人工智能和自主系統(tǒng)的信任。
原則之二:責任原則。責任原則涉及如何確保人工智能和自主系統(tǒng)是可以被問責的。為了解決過錯問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶熜?,證明其為什么以特定方式運作。
首先,立法機構(gòu)/法院應當闡明人工智能系統(tǒng)開發(fā)和部署過程中的職責、過錯、責任、可追責性等問題,以便于制造商和使用者可以知曉其權(quán)利和義務分別是什么;其次,人工智能設計者和開發(fā)者在必要時考慮使用群體的文化規(guī)范的多樣性;再次,當人工智能及其影響游離于既有規(guī)范之外時,利益相關(guān)方應當一起制定新的規(guī)范;第四,自主系統(tǒng)的生產(chǎn)商/使用者應當創(chuàng)建記錄系統(tǒng),記錄核心參數(shù)。
原則之三:透明性原則。透明性原則意味著,自主系統(tǒng)的運作必須是透明的,人們能夠發(fā)現(xiàn)其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開發(fā)的去中心化模式,加重了責任確定和責任分配的難度。透明性對每個利益相關(guān)方都意義重大:第一,對使用者,透明性可以增進信任,讓其知道人工智能系統(tǒng)可以做什么及其這樣做的原因;第二,對人工智能和自主系統(tǒng)批準和認證機構(gòu),透明性能確保人工智能系統(tǒng)可以接受審查;第三,如果發(fā)生事故,透明性有助于事故調(diào)查人員查明事故原因;第四,事故發(fā)生之后,參與審判的法官、陪審團、律師、專家證人需要借助透明性來提交證據(jù),作出決定;第五,對于自動駕駛汽車等顛覆性技術(shù),一定程度的透明性有助于增強公眾對技術(shù)的信心。
原則之四:教育和意識原則。教育和意識原則涉及如何擴大人工智能和自主系統(tǒng)技術(shù)的好處,最小化其被濫用的風險。在人工智能和自主系統(tǒng)越來越普及的時代,需要推進倫理教育和安全意識教育,讓人們警惕人工智能和自主系統(tǒng)被濫用的潛在風險。這些風險可能包括黑客攻擊、賭博、操縱、剝削等。
2018年7月,中國發(fā)展研究基金會在其發(fā)布的一份《未來基石——人工智能的社會角色與倫理》的報告中也指出,盡管有少數(shù)哲學和社科領(lǐng)域的學者開始關(guān)注人工智能帶來的倫理問題和社會挑戰(zhàn),但是這些討論并未進入公共政策視界,而且討論的重點也多集中在超級人工智能這樣仍相對遙遠的議題上。該報告認為,在人工智能問題上,圍繞可能出現(xiàn)的挑戰(zhàn),無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。該報告建議:在社會層面,高校和研究機構(gòu)開展前瞻性的科技倫理研究,為相關(guān)規(guī)范和制度的建立提供理論支撐;各國政府、產(chǎn)業(yè)界、研究人員、民間組織和其他利益攸關(guān)方展開廣泛對話和持續(xù)合作,通過一套切實可行的指導原則,鼓勵發(fā)展以人為本的人工智能;人工智能企業(yè)應該將倫理考量納入企業(yè)社會責任框架中。
事實上,人工智能和自主系統(tǒng)帶來了許多復雜的倫理問題,這些倫理問題往往直接轉(zhuǎn)化為具體的法律挑戰(zhàn),或是引發(fā)復雜的連帶法律問題。每個倫理問題一般都涉及相關(guān)法律問題。筆者認為,當前的人工智能本質(zhì)上是一種建立在大數(shù)據(jù)基礎上的自我學習、判斷和決策的算法,算法的核心是基于網(wǎng)絡的編程技術(shù),但這種編程技術(shù)絕非中立,人工智能的算法決策具有典型的“黑箱”特點,這應當引起現(xiàn)代法律人的高度警惕,進行深入研究,應當從倫理學和法律融合的角度深入審視和研究人工智能的算法。筆者呼吁,人工智能的算法必須確立法律的可追溯性原則,人工智能的行為決策全程應當處于法律監(jiān)管之下。
構(gòu)建公開透明的人工智能全過程監(jiān)管體系
我國應當建立健全公開透明的人工智能監(jiān)管體系,重點在人工智能的設計問責和應用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)上做充分的準備,實現(xiàn)對人工智能算法設計、產(chǎn)品開發(fā)和成果應用等的全過程監(jiān)管。促進人工智能行業(yè)和企業(yè)自律,切實加強人工智能協(xié)同一體化的管理體系,加大對人工智能領(lǐng)域數(shù)據(jù)濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。
在人工智能技術(shù)研發(fā)的同時,要加強人工智能相關(guān)法律、倫理和社會問題的同步研究,尤其要關(guān)注人工智能模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機轉(zhuǎn)化為目標武器攻擊人類,建立和優(yōu)化保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。法律研究領(lǐng)域要開展與人工智能應用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護、機器倫理與破壞力評價等倫理與法律問題的交叉研究,建立人工智能的可追溯和問責制度,明確人工智能的設計者、控制者、使用者等相關(guān)法律主體的權(quán)利、義務和責任。
關(guān)于人工智能監(jiān)管的原則,科幻作家艾薩夫·阿西莫夫于1942年提出的“機器人學三律”仍具有參照價值,非常值得借鑒:
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
筆者建議,國家有關(guān)部門或行業(yè)組織應當制定人工智能產(chǎn)品研發(fā)設計人員的道德規(guī)范和行為守則,加強對人工智能潛在危害與收益的評估,構(gòu)建人工智能復雜場景下突發(fā)事件的解決方案。同時,我國應當積極參與人工智能的全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,構(gòu)建我國人工智能領(lǐng)域的國際制度性話語權(quán)。
責任編輯:張迪
相關(guān)推薦
AI芯片創(chuàng)業(yè)潮生存真相:等其他人死了 活下來就成功
8月上旬,深鑒科技CEO姚頌出現(xiàn)在北京一場以科技創(chuàng)新趨勢為主題的小規(guī)模交流會中?! ∫灲衲?5歲,是國內(nèi)人工智能芯片領(lǐng)域冉冉升起的新星。兩年半前,他與在清華的導師、學長共同創(chuàng)立深鑒科技,專注于深度學習加速解決方案的研發(fā)。創(chuàng)立后在A輪融資中得到了賽靈思、螞蟻金服、聯(lián)發(fā)科等知名產(chǎn)業(yè)資本的投資?! 【驮?0多天前,深鑒科技突然宣布被芯片