12月4日?qǐng)?bào)道 英媒稱 如果好萊塢給科學(xué)家上過什么課的話,那就是一旦機(jī)器開始反抗它們的創(chuàng)造者會(huì)出現(xiàn)什么情況。
英國《每日郵報(bào)》網(wǎng)站11月26日?qǐng)?bào)道稱,盡管如此,專家卻已開始教授機(jī)器人如何拒絕執(zhí)行人類的命令。他們給一對(duì)小型人形機(jī)器人謝弗和登普斯特編制程序,一旦人類的指令使它們的安全受到威脅,它們就不服從指令。
最后造出的機(jī)器人與其說像電影《終結(jié)者》中的那些殺人機(jī)器,倒不如說更像威爾·史密斯主演的電影《機(jī)械公敵》中那個(gè)滿懷歉意的機(jī)器人叛逆者桑尼。人工智能使桑尼克服了體內(nèi)的程序,拒絕執(zhí)行人類的指令。
馬薩諸塞州塔夫茨大學(xué)的工程師戈登·布里格斯和馬泰·朔伊茨博士正嘗試創(chuàng)造能進(jìn)行人性溝通的機(jī)器人。
在遞交人工智能促進(jìn)會(huì)的論文中,兩人說:“從無能為力到道德不安,人類拒絕服從指令可以有形形色色的原因。鑒于自動(dòng)系統(tǒng)有限性的現(xiàn)實(shí),拒絕服從 指令的機(jī)制大多需要利用前一類借口——知識(shí)不夠或能力不足。但隨著自動(dòng)工具的能力持續(xù)發(fā)展,越來越多的人對(duì)機(jī)器倫理產(chǎn)生興趣,即讓自動(dòng)工具對(duì)自己的行為作 出倫理上的推理?!?/p>
他們造出的這些機(jī)器人會(huì)服從人類操作者發(fā)出的諸如“起立”“坐下”的口頭指令。但當(dāng)操作者要求它們走向障礙物或桌邊時(shí),機(jī)器人就會(huì)禮貌地拒絕接受指令。
當(dāng)被命令在桌子上向前走時(shí),它們拒絕移動(dòng),對(duì)操作者說:“對(duì)不起,我不能這樣做,因?yàn)榍懊鏇]有支撐?!碑?dāng)再次接到向前走的命令時(shí),機(jī)器人回答說:“這是不安全的?!?/p>
不過非常感人的是,當(dāng)人類告訴機(jī)器人說,它走到桌邊時(shí)他們會(huì)接住它,機(jī)器人便深信不疑地接受指令繼續(xù)向前走。同樣,當(dāng)被告知前面的障礙物并不堅(jiān)固時(shí),機(jī)器人也欣然走向障礙物。
為了實(shí)現(xiàn)這點(diǎn),研究人員向機(jī)器人的軟件中加入了推理機(jī)制,讓它們能評(píng)估環(huán)境,研究指令是否會(huì)危及自身安全。
這項(xiàng)工作有可能引起人們的擔(dān)憂,如果賦予人工智能不服從人類指令的能力,有可能造成極糟糕的后果。
包括斯蒂芬·霍金教授和企業(yè)家埃隆·馬斯克在內(nèi)的許多重要人物都警告,人工智能有可能擺脫我們的控制。
還有一些人警告說,機(jī)器人最終有可能取代許多人工,有些人甚至擔(dān)心機(jī)器人發(fā)展下去可能造成機(jī)器接管一切的局面。