殺手之濫殺風險
人類底線在哪里?
在科幻電影中,機器人的濫殺主要有三種原因。一是某臺中央電腦產生邪惡意識,從而操控其控制下的機器人發動對人攻擊,如《機械公敵》《終結者》等都是如此;二是機器人本身由于故障或病毒或自主意識產生了反抗乃至屠殺制造者的思想,如《變形金剛》。還有更多的情況,則是野心家或幕后集團刻意的造出了殺人機器人,只不過,有時他們反過來失去對機器人的控制而已。
據美國媒體報道,過去幾個月,對于使用全自動機器人的辯論日益增多。有人堅稱,機器人在戰場上能拯救更多生命。美國陸軍肯尼斯少校勾勒出機器人技術在戰場上的幾大優勢:機器不會疲倦,下雨時不需要躲到樹下,也不需要交談。但是人權組織對“全自動殺人機器人”的擔心,主要是倫理道德層面的。
相比科幻電影,現實中機器人濫殺無辜的可能性遠不止這些。有智能的機器也是機器,是機器就有出故障的可能,而且智能化越高,出故障風險越大。全自動殺人機器導致濫殺固然是可怕的;但就算現在的半自動殺人機器,難道就是安全的么?偵察系統可能獲取錯誤的信息,造成對目標的誤判;后方遙控信號可能被干擾,接收到錯誤的攻擊指令。
而且,比機器更可怕的是操作機器的人。即使軟硬件不出故障,也可能因為操作者的疏忽大意造成誤傷。而軍人的惡念更是戰爭罪行的直接來源。以美軍為例,在伊拉克、阿富汗打著反恐名義殺傷的大量平民,很多是不能怪罪到武器系統的。國際機器人武器控制委員會主席諾艾爾撰文稱:“隨著戰爭變得越來越自動化,我們必須捫心自問,我們的底線在哪里?”(楊益)