US President-elect Donald Trump campaigned on a promise to take a confrontational approach to China, with tariffs as his weapon of choice. But unless his administration adopts a measured approach, his plans may end up harming American businesses and consumers, undermining US democracy, or even leading to military confrontation.
发自剑桥——在过去几年间,由麻省理工学院主办的“道德机器”研究调查了公众对人工智能应用程序应当在各类设定中如何表现的偏好。数据的一个结论是,当自动驾驶汽车遇到生死攸关的情景时,人们认为它应如何应对的观点在很大程度上会取决于此人来自何处,以及人们对事故所涉及的行人或乘客的了解。
例如,在自动驾驶版本的经典“手推车难题”中,有些人可能更喜欢汽车在伤害他人之前撞到一个已被定罪的杀人凶手,或者撞到老年人而不是小孩。还有一些人可能认为自动驾驶汽车应该简单地掷骰子以防止以数据为导向的歧视。
一般来说,此类窘境都是事后保留给法官或警方调查去决断的。但在自动驾驶的情况下,选择将在几毫秒内完成,意味着几乎没有足够的时间来做出明智的决定。重要的不是我们所知道的,而是汽车所知道的。那么问题在于自动驾驶应该对周围的人占有什么信息。企业是否应被允许去适用不同的道德体系以追求竞争优势?
请考虑以下情况:一台中国车与美国车有不同的工厂设定标准,但假设这台中国车正在美国行驶,并即将与一辆美国车发生不可避免的碰撞。倘若中国汽车驾驶员的道德偏好不同于美国汽车驾驶员,那么哪个系统应该占上风?
除了基于文化的道德偏好差异外,还必须考虑各国数据法规的差异。例如中国制造的汽车可能会获得社会评分数据,从而使其决策算法能够纳入美国汽车制造商无法获取的额外输入。更丰富的数据可以带来更好、更一致的决策,但拥有这一优势是否就该允许一个系统去凌驾于另一个系统?
很显然,在自动驾驶车辆大规模上路之前,我们需要确定算法决策的责任究竟落在哪里,不管是市政当局,国家政府还是多边机构。更重要的是,我们需要新的框架来管理这个商业和国家的交叉点。问题不仅仅是自动驾驶车辆在极端情况下会做什么,而是企业在开发和部署决策算法时如何与不同文化进行互动。
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
不难想象,所有自动驾驶车辆制造商都会简单地宣传自己那套系统会将驾驶员的生命置于首位或是允许用户切换自身的道德设置。为了防止这种“公地悲剧”,必须建立在自动驾驶车辆决策之间进行通信和协调的框架。但是,在不同文化背景下开发此类系统时,政策制定者和企业将必须面对不同的主权、隐私和个人自治的文化概念。
这将引发额外的挑战,因为人工智能系统无法容忍歧义。从头开始设计人工智能应用程序需要非常明确;无论效果如何,这些系统只会按照你告诉他们的方式行事。这意味着企业,政府和其他提供商在编写针对不同情况的响应规则时需要做出明确的抉择。
但在这一切发生之前,政策制定者们需要订立算法问责制的范围以确定应该把哪些决策留给企业或个人(如有的话)。那些属于国家职权范围的责任必须经由辩论商讨来决定。鉴于这些道德和道德问题从来没有简单的答案,因此也不太可能出现共识。虽然无法拿出一个最终解决方案,但我们需要创建一些至少能促进自动驾驶车辆之间通信以及裁决算法争议和道路事故的系统。
鉴于在设计决策算法时需要明确性,因此有必要建立一个国际机构来制定标准,并依据这些标准来解决道德和道德困境。毕竟自动驾驶车辆只是算法决策的其中一项应用。展望未来,算法问责标准必须在许多领域实施管理。
最终,我们必须决定的首要问题是企业是否有权为算法决策设计另一套道德框架。在我们看来它们是不应该有的。
在这个人工智能时代,全球价值链的某些组成部分最终会实现自动化,此时它们将不再被视为企业追求竞争优势的领域。确定和裁定算法问责制的过程应该是这样一个领域。无论以什么方式我们都将做出决定,而且最好是统一并尽可能民主地解决。