写的他会
2021年2月25日,

随着自动驾驶汽车、机器人甚至武器等自动机器的出现,人们需要在机器中嵌入某种道德这些机器。根据定义,自治系统必须自己做出选择,向左或向右,杀人或不杀人,我们希望这些选择反映我们自己的价值观和规范。实现这一点的一种方法是开发人员将显式的规范规则转换为代码。另一种可能更民主的方式是众包道德。例如,通过要求公众对各种道德困境(如众所周知的电车问题)进行“投票”,或让自动系统从我们的实际行为中学习(如观察我们如何驾驶)。有趣的是,这种形式的众包实际上可能导致自治系统的行为与当地的价值观和规范一致,而不是某种渴望的普遍道德。然而,缺点是这些系统,尤其是那些模仿我们行为的系统,不能做出比我们人类更好的决定。

燃烧的问题:

  • 这些形式的众包道德是否会增加公众对自治系统的信任,并让社会更容易接受?
  • 道德AI系统的最终目标是让它们与我们的规范和价值观保持一致,还是机器人有可能比我们表现得更好?
  • 机器能在道德上超越人类吗?这对人类的未来意味着什么?