巴黎—在最近的达沃斯世界经济论坛的非正式会议上,新加坡通讯和信息部长悄然宣布了世界首个治理人工智能的国家框架。全球媒体并没有关注此事,但它的重要性远远超过了新加坡和宣布地瑞士小城的边界。它是一个榜样,世界其他国家急需跟进并更进一步。
在过去几年中,新加坡政府通过国家领导的人工智能新加坡(AI Singapore)计划,致力于推动新加坡成为AI行业的世界领先者。它也正在取得扎实的进展:新加坡——以及上海和迪拜——是去年全球吸引AI相关投资最多的地区。据一项最新预测,AI投资能够在13年而非22年内让新加坡经济规模翻一番。
当然,AI的影响遍及全球。据最新麦肯锡报告,到2030年,AI能够让全球GDP增长高达16%。如此潜力让AI投资和创新竞争日趋激烈,美国和中国不出意外成为领先者。但到目前为止,还没有政府或超国家机构试图制定AI潜能最大化并管理AI风险所需要的治理机制。
这不是因为政府认为AI治理无关紧要,而是因为治理AI需要决策者和公司打开潘多拉魔盒。以AI的社会影响为例。社会影响远比经济影响更难量化——以及在必要时予以遏制。当然,AI在医疗等方面的应用可以产生重大社会效益。但是,政府和公司收集数据有可能处理不当或被操纵,这意味着这些应用所造成的风险远大于过去的数据隐私丑闻,以及政府和公司尚未内部化的声誉。
另一份麦肯锡报告指出,“认识AI改善社会福利的潜力不会自动发生。”成功需要“决策者的结构性干预,行业参与者也要为此做出更大的贡献。”政府和决策者可能想要推迟行动,而这样做的风险——包括它们自己的声誉风险——切不可低估。
事实上,许多国家都面临着政府信任和信心危机,强化AI相关治理在很多层面上与解决公司和政治治理失灵一样重要。毕竟,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在2018年指出,“AI是人类工作的最重要的东西。我不知道,它比电和火还要影响深远。”
欧盟委员会也许是少数认识到这一点的行动方之一,去年年底,它发布了“值得信任的AI的伦理指南草案”。新加坡的指引聚焦于构建消费者信心以及确保遵循数据处理标准,而欧洲模式旨在以伦理标准引导以人为本的AI建设。
但新加坡的AI治理框架和欧盟的指南草案都没有解决AI治理的一个最根本的问题:AI部门的所有权、责任以及相关技术到底归谁?这个问题直指AI责任的本质,以及它将带来重大社会进步还是导致数据挪用和操纵的卡夫卡系统。
欧盟的指南承诺制定一个“让所有相关利益方在自愿基础上正式认可和签署《指南》的机制。”新加坡的框架也保持自愿原则,但并不解决问题,尽管其建议显然是针对公司部门。
如果想要AI实现社会进步,公共和私人部门需要共同承担其治理责任。在这方面,开发或投资AI应用的公司必须与最终用户建立强联系,政府必须明确它们将致力于保护公民免受潜在的有害科技的影响。事实上,共同AI责任系统将是目前热议的更广义的“相关利益方资本主义”模式的测试。
公共部门与私人部门之间的紧张不是我们必须抓住的唯一的问题。弗朗西斯·福山(Francis Fukuyama)曾说,“随着现代科技的发展,它会以连贯的方式影响国民经济,让它们成为巨大的全球经济链条。”当科技和数据能够跨境自由流动的时代,管理AI的国家政策权力可能是有限的。
互联网治理措施表明,建立超国家实体治理AI是一项挑战,因为各国的政治当务之急存在冲突。1998年,美国的互联网名称和数字分配公司(ICANN)成立,其旨在保护作为公共品的互联网,通过数据库维护保持网络操作的稳定性和安全性。但全世界仍有大约一半的网民面临在线审查。AI的重要性使得建立一个超国家实体更具挑战性,领导人需要解决类似的——可能更加棘手的——政治问题。
日本跨国集团软银首席执行官孙正义是AI投资的拥趸,最近他在说他的公司寻求“开发能让人发笑的深情机器人。”要实现这一目标,政府和私人部门必须设计稳健的协同模式来治理今天的关键性AI。这一尝试的结果将决定人类是否能够创造有利于我们而不会毁掉我们的AI科技。
巴黎—在最近的达沃斯世界经济论坛的非正式会议上,新加坡通讯和信息部长悄然宣布了世界首个治理人工智能的国家框架。全球媒体并没有关注此事,但它的重要性远远超过了新加坡和宣布地瑞士小城的边界。它是一个榜样,世界其他国家急需跟进并更进一步。
在过去几年中,新加坡政府通过国家领导的人工智能新加坡(AI Singapore)计划,致力于推动新加坡成为AI行业的世界领先者。它也正在取得扎实的进展:新加坡——以及上海和迪拜——是去年全球吸引AI相关投资最多的地区。据一项最新预测,AI投资能够在13年而非22年内让新加坡经济规模翻一番。
当然,AI的影响遍及全球。据最新麦肯锡报告,到2030年,AI能够让全球GDP增长高达16%。如此潜力让AI投资和创新竞争日趋激烈,美国和中国不出意外成为领先者。但到目前为止,还没有政府或超国家机构试图制定AI潜能最大化并管理AI风险所需要的治理机制。
这不是因为政府认为AI治理无关紧要,而是因为治理AI需要决策者和公司打开潘多拉魔盒。以AI的社会影响为例。社会影响远比经济影响更难量化——以及在必要时予以遏制。当然,AI在医疗等方面的应用可以产生重大社会效益。但是,政府和公司收集数据有可能处理不当或被操纵,这意味着这些应用所造成的风险远大于过去的数据隐私丑闻,以及政府和公司尚未内部化的声誉。
另一份麦肯锡报告指出,“认识AI改善社会福利的潜力不会自动发生。”成功需要“决策者的结构性干预,行业参与者也要为此做出更大的贡献。”政府和决策者可能想要推迟行动,而这样做的风险——包括它们自己的声誉风险——切不可低估。
事实上,许多国家都面临着政府信任和信心危机,强化AI相关治理在很多层面上与解决公司和政治治理失灵一样重要。毕竟,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在2018年指出,“AI是人类工作的最重要的东西。我不知道,它比电和火还要影响深远。”
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
欧盟委员会也许是少数认识到这一点的行动方之一,去年年底,它发布了“值得信任的AI的伦理指南草案”。新加坡的指引聚焦于构建消费者信心以及确保遵循数据处理标准,而欧洲模式旨在以伦理标准引导以人为本的AI建设。
但新加坡的AI治理框架和欧盟的指南草案都没有解决AI治理的一个最根本的问题:AI部门的所有权、责任以及相关技术到底归谁?这个问题直指AI责任的本质,以及它将带来重大社会进步还是导致数据挪用和操纵的卡夫卡系统。
欧盟的指南承诺制定一个“让所有相关利益方在自愿基础上正式认可和签署《指南》的机制。”新加坡的框架也保持自愿原则,但并不解决问题,尽管其建议显然是针对公司部门。
如果想要AI实现社会进步,公共和私人部门需要共同承担其治理责任。在这方面,开发或投资AI应用的公司必须与最终用户建立强联系,政府必须明确它们将致力于保护公民免受潜在的有害科技的影响。事实上,共同AI责任系统将是目前热议的更广义的“相关利益方资本主义”模式的测试。
公共部门与私人部门之间的紧张不是我们必须抓住的唯一的问题。弗朗西斯·福山(Francis Fukuyama)曾说,“随着现代科技的发展,它会以连贯的方式影响国民经济,让它们成为巨大的全球经济链条。”当科技和数据能够跨境自由流动的时代,管理AI的国家政策权力可能是有限的。
互联网治理措施表明,建立超国家实体治理AI是一项挑战,因为各国的政治当务之急存在冲突。1998年,美国的互联网名称和数字分配公司(ICANN)成立,其旨在保护作为公共品的互联网,通过数据库维护保持网络操作的稳定性和安全性。但全世界仍有大约一半的网民面临在线审查。AI的重要性使得建立一个超国家实体更具挑战性,领导人需要解决类似的——可能更加棘手的——政治问题。
日本跨国集团软银首席执行官孙正义是AI投资的拥趸,最近他在说他的公司寻求“开发能让人发笑的深情机器人。”要实现这一目标,政府和私人部门必须设计稳健的协同模式来治理今天的关键性AI。这一尝试的结果将决定人类是否能够创造有利于我们而不会毁掉我们的AI科技。