日期:[2023年01月11日] -- 智慧生活报 -- 版次:[A4]

无人平台的道德底线是什么 (上)

  电影《终结者》给我们描述了一个机器人杀戮和奴役人类的黑暗未来,虽然电影中的场景短期内难以在现实生活中复现,但是在前面章节中讨论的无人机、机器人杀人恐怖事件确实真实在发生,这不仅仅是科学技术问题,更是对伦理道德的思辨。
  无人平台研究的道德理论底线是什么?这是全球哲学家、科学家一致寻求的终极问题。1950 年,科幻小说家艾萨克·阿西莫夫在《我,机器人(I,Robot)》中提出了著名的“机器人三定律”:
  第一定律,机器人不得伤害人,或因不作为使人类受到伤害;
  第二定律,机器人应服从人的一切命令,但不得违反第一定律;
  第三定律,机器人应保护自身的安全,但不得违反第一、第二定律。
  曾有不少媒体、研究者把这作为机器人研究中的“金科玉律”,但在很多研究者眼里完全不是那么回事。人工智能理论研究者路易,海尔姆就曾表示:“我真的没从机器人三定律里获取什么灵感,它无法成为机器伦理的合适基础。”78年过去了,随着人类科技取得重大进步,机器人领域已经发生重大变化,且将继续变化,但我们对机器人三定律的实践并没有进展。现实中无论是AI安全研究者还是机器伦理学专家,都没有真的使用它作为指导方案。他们提出“机器人三定律”的缺陷还不少:内在的对抗性,基于有缺陷的伦理框架,不被研究者接受,哪怕在科幻文学里也会出问题。三定律还有一大问题,就是没有准确定义什么是机器人,什么是对人类的伤害。
  因此无论从技术层面还是伦理层面,机器人三定律的实践都存在很多漏洞。其实《我,机器人》本就是围绕机器人遵守这三定律时出现的各种意外、变故写出的精彩小说。故事中的机器人多了不少特殊功能的。最极端的就是军事战斗环境下的机器人,基本点就与“第一定律”相违背。
  既然如此,在缺少指导性纲要的情况下,采用普遍性强的折学思维理解一般性科学技术和谐发展观,形成指导性的想法和基础文件,反而比坚持设立基本原则,会直观得多。爱因斯坦说,“单靠知识和技巧并不能使人类走向幸福和高尚的生活”,因为“关于直理的知识本身虽然是了不起的”,可是“它却很少能起指导作用,它甚至不能证明向往这种真理知识的志向是正当的和有价值的”。在无人平台科学技术和伦理道德约束体系的建立过程中,积极克服莫名恐惧,重新建立正反馈信息最为重要。
  摘自《无人胜有人——聚焦无人平台的发展与应用》