艾薩克·阿西莫夫(Isaac Asimov)曾在他的科幻小說里描述了規范機器人行為的三定律,包括:不能傷害人類、服從人類命令和保護自己。
現在,英國標準協會正式發布了一套機器人倫理指南,比阿西莫夫三定律更加復雜和成熟。我們的社會已經到了要給機器人制定行為規范的時候了,這不禁讓人產生一種科幻與現實交織的奇妙感覺。
英國標準協會(British Standards Institute,簡稱BSI),是有著100多年歷史的英國國家標準機構,在世界范圍內具有很高的權威性。這個倫理指南的全稱是《機器人和機器系統的倫理設計和應用指南》(以下簡稱《指南》),主要針對的人群就是機器人設計研究者和制造商,指導他們如何對一個機器人做出道德風險評估。最終的目的,是保證人類生產出來的智能機器人,能夠融入人類社會現有的道德規范里。
這個標準的文件代號為BS8611,發布于9月15日英國牛津郡的“社會機器人和AI”(Social Robotics and AI)大會上。西英格蘭大學機器人教授Alan Winfield表示,這是業界第一個關于機器人倫理設計的公開標準。
文件內容雖然用詞枯燥,但是里面所描繪的場景,簡直跟從科幻小說里蹦出來的一樣。機器人欺騙、令人成癮、具有超越現有能力范圍的自學能力,這些都被列為危害因素,是設計人員和制造商需要考慮的。
《指南》開頭給出了一個廣泛的原則:機器人的設計目的不應是專門或主要用來殺死或傷害人類;人類是負責任的主體,而不是機器人;要確保找出某個機器人的行為負責人的可能性。
《指南》也聚焦了一些有爭議性的話題,例如,人類與機器人產生情感聯系是可以的嗎,尤其是當這個機器人本身設計目的就是為了與小孩和老人互動。
謝菲爾德大學教授Noel Sharkey認為,這就是機器人在無意的情況下欺騙人類的例子。機器人是沒有感情的,但是人類有時候并不這么認為。他指出,最近有一項研究,把小機器人放到一所幼兒園里,孩子們很是喜愛,并且認為這些機器人比家里的寵物具有更高的感知能力。
《指南》建議設計者更應關注機器人的透明性,但是科學家們表示這個在現實里很難應用。這是因為人們無法確切了解AI系統(尤其是深度學習系統)是如何做出決定的。
一個人工智能體,并沒有用固定的程序來指導它完成任務,它是通過數百萬次的學習和嘗試,才找出成功的解決方法。這種學習和做出決策的過程,有時候是其人類設計者都無法理解的。
《指南》里也提到了機器人的性別和種族歧視問題。這是因為深度學習系統很多都是使用互聯網上的數據進行訓練,而這些數據本身就帶著偏見。
機器人的偏見是會直接影響技術應用的。它會對某些群體的學習更深入,而對另一些群體有所忽視,這在以后的應用中,意味著機器人會“看菜下飯,看人說話”。
現在已有的例子就是,聲音識別系統對于女性的理解要弱一些,再比如機器識別白種人的臉更容易,識別黑人的臉更難。長遠來看,在未來的醫療應用中,機器人在診斷女性和少數族群的時候,其專業程度會降低。
Sharkey教授說:“我們也需要一個機器人黑盒子,可以打開來仔細審查。如果一個機器人表現出種族主義的傾向,我們可以把它關掉,從街上拽回來。”
兩周前,路透社有文章指出,有科學家表示性愛機器人會使人成癮,因為機器人不會拒絕。
《指南》也提到了這種“過度依賴機器人"的現象,然而并沒有給設計者一個確切的可遵循的準則。這也是在未來的工作中需要繼續補充的。
(審核編輯: 智匯小蟹)
分享