機器人倫理學(英語:Robot ethics)是有關機器人的倫理學。它是以人類為責任主體,研究如何開發和應用機器人的倫理學。[1]屬於應用倫理學和機器人學的交叉領域。[2]
發展
機器人倫理學的起源可以追溯至艾薩克·阿西莫夫提出的「機器人三定律」,其表述以機器人作為責任主體[3]。2000年代以後,各領域研究人員開始以人類作為責任主體,探討機器人倫理學。術語「機器人倫理學」(英語:Roboethics)於2002年左右被提出。[4]
2004年,在日本福岡市舉行世界機器人會議(International Robot Fair)上發表了《世界機器人宣言》,期望下一代機器人成為人類的夥伴,並為人類的身心健康和構築安全社會做出新貢獻。[5][6]2005年IEEE機器人和自動控制協會成立了機器人倫理技術委員會。[7]
2016年,英國標準協會(BSI)發布了《機器人和機器系統的倫理設計和應用指南》,指南開篇聲明:不應設計用於傷害甚至殺死人類的機器人;人,而非機器人,為責任主體。[8]2016年起,IEEE開始推出《人工智能設計的倫理準則》(Ethically Aligned Design),鼓勵技術人員在設計開發人工智能和自動化系統時優先考慮道德因素。[9][10]2017年,歐洲議會呼籲制定「機器人法」,其中要求為機器人的研發和應用制定道德框架,並為機器人的所作所為確定責任主體。[11]
案例
軍用機器人中的致命性自主武器(亦稱「殺手機器人」)存在着倫理問題。[12]此類武器會在沒有人類干預的情況下選中並攻擊目標,人類無法控制和判斷其武器使用和武力傷害。[13]
- 對不可預測的自主武器系統應予以明令禁止
- 應禁止使用自主武器系統攻擊人類
- 對於未被禁止的自主武器系統,其設計和使用應受到規制
2014年起,《特定常規武器公約》開始就限制致命性自主武器展開討論。[14]2021年,關於限制致命性自主武器的提議在聯合國遭包括美國、俄羅斯、英國、印度在內的多國反對,未能達成共識。[15][16]
有的服務機器人被做成寵物型或者類人型並用於社交領域,例如用於自閉症治療或者老年人陪護。對於這類型的機器人是否為道德主體,目前沒有明確的答案。[3]
2017年,沙特阿拉伯授予「女性」機器人索菲亞公民身份,引發了機器人倫理學的相關爭議。有網友指出,機器人索菲亞因沒有監護人,某種意義上甚至比沙特女性享有更多的權利。[17]李開復評論稱其「絲毫沒有人性,人的理解、愛心、創造力」[18],楊立昆斥該機器人為「扯淡」和營銷產物[19]。
2018年在美國亞利桑那州坦佩市,優步無人駕駛汽車撞死了行人伊萊恩·赫茲伯格,成為首宗自動駕駛車輛撞死行人事件。事後引發了關於自動駕駛倫理、道德和法律的討論:事故負責人應為測試部門、自動駕駛系統設計部門、還是傳感器供應商[20]?當面對無法規避的碰撞而要選擇傷害對象時,自動駕駛系統會陷入更嚴峻的倫理困境,例如汽車應該優先保護乘員的生命還是行人的生命;選擇優先撞擊帶頭戴的摩托車手還是不戴頭盔的;是否選擇保護更多的性命等等[21]。
參見
參考
參考書目
外部連結
Wikiwand in your browser!
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.