來(lái)自澳大利亞的人工智能專(zhuān)家認(rèn)為,自動(dòng)化武器將導(dǎo)致人類(lèi)進(jìn)入《終結(jié)者》中的場(chǎng)景。如果人類(lèi)不直接指揮殺人武器,我們就難以控制戰(zhàn)爭(zhēng)。
澳大利亞知名人工智能專(zhuān)家、新南威爾士大學(xué)教授Toby Walsh周二(6月13日)對(duì)澳大利亞每日郵報(bào)表示,他認(rèn)為,如果自動(dòng)化武器落入恐怖分子之手,災(zāi)難將會(huì)發(fā)生,而這種災(zāi)難過(guò)去只發(fā)生在科幻小說(shuō)中。他說(shuō),既然自動(dòng)化武器能夠自行行動(dòng),那么它們就有可能被用來(lái)對(duì)付平民百姓。包括Walsh在內(nèi)的眾多人工智能專(zhuān)家,試圖讓聯(lián)合國(guó)禁止在沒(méi)有人為干預(yù)的情況下使用自動(dòng)化武器。
“如果什么都不做,在50到100年后,世界看起來(lái)就像《終結(jié)者》中的樣子了。”Walsh告訴每日郵報(bào)澳大利亞記者:“這可能在不久的將來(lái)就會(huì)發(fā)生。”今天,在韓國(guó)與朝鮮接壤的邊境上,有一些“哨兵”機(jī)器人,它們可以移動(dòng),有熱傳感器來(lái)探測(cè)入侵者,還配備了機(jī)關(guān)槍。機(jī)器人需要人類(lèi)來(lái)拉動(dòng)扳機(jī),但Walsh指出,隨著現(xiàn)代技術(shù)的發(fā)展,他們以后可能不再需要人類(lèi)來(lái)操作了。他認(rèn)為這一點(diǎn)很危險(xiǎn)。在沒(méi)有人為干預(yù)的情況下使用人工智能武器,將為各國(guó)間的人工智能軍備競(jìng)賽鋪平道路,而這場(chǎng)競(jìng)賽百害而無(wú)一利。
Walsh在2015年寫(xiě)給聯(lián)合國(guó)的公開(kāi)信中表示:“與核武器不同,它們(人工智能武器)的原材料沒(méi)有那么昂貴和難找,因此它們可能會(huì)變得無(wú)處不在,而且因?yàn)槌杀镜土梢杂糜诖笠?guī)模生產(chǎn)。”這封呼吁禁止自動(dòng)化武器的信件由成千上萬(wàn)的研究人員簽了名,其中包括史蒂文霍金、埃隆馬斯克、Noam Chomsky和Yann LeCun等。
這封信敦促聯(lián)合國(guó)禁止人工智能武器趨勢(shì),以防止這種情況發(fā)生。他說(shuō),真正自動(dòng)化武器的存在將會(huì)破壞地球的穩(wěn)定。它們不僅有可能是致命性武器,而且很容易被恐怖分子利用。Walsh說(shuō),ISIS已經(jīng)使用遙控?zé)o人機(jī)在伊拉克投放炸彈了。盡管他擔(dān)心的是對(duì)戰(zhàn)爭(zhēng)中避難所的影響,以及恐怖分子對(duì)這些武器的利用,不過(guò),自動(dòng)化武器也難免令人們對(duì)未來(lái)機(jī)器的崛起感到擔(dān)憂(yōu)。