At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
认识到这些差距,伊格拉佩研究所(Igarapé Institute 研究所和新美国(New America)最近发起了一个新的预测性分析促进安全和发展全球工作组。该工作组将召集来自美洲、非洲、亚洲和欧洲的数字权利倡导者、公共部门合作伙伴、科技企业家和社会科学家,目的是为用于全球南方的公共安全和可持续发展的预测技术的使用定义第一性原则。
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
At the end of a year of domestic and international upheaval, Project Syndicate commentators share their favorite books from the past 12 months. Covering a wide array of genres and disciplines, this year’s picks provide fresh perspectives on the defining challenges of our time and how to confront them.
ask Project Syndicate contributors to select the books that resonated with them the most over the past year.
里约热内卢 - 最近几个月很可能成为预测性人工智能成为主流的时刻。预测算法已经使用了几十年,但像OpenAI的ChatGPT3这样的应用程序的发布——以及它与微软的必应搜索引擎的快速整合——可能已经打开了用户友好型人工智的大门。ChatGPT3发布不出几周,就已经吸引了1亿月度用户,其中许多人无疑已经体验到了它的黑暗面——从侮辱和威胁到虚假信息,以及它显示出来的编写恶意代码的能力。
登上头条的聊天机器人仅仅是冰山一角。创造文本、语音、艺术和视频的人工智能正在迅速发展,对治理、商业和公民生活具有深远影响。毫不奇怪,资本正在涌入该领域,政府和公司都在投资初创企业开发和部署最新的机器学习工具。这些新的应用将把历史数据与机器学习、自然语言处理和深度学习相结合,从而确定未来事件的概率。
至关重要的是,新的自然语言处理和生成性人工智能的采用将不局限于富裕国家和一马当先的谷歌、Meta和微软等公司。这些技术已经在中低收入环境中传播,从减少城市不平等到解决食品安全问题的各种预测分析,对于寻求提高效率、释放社会和经济效益,但又现金紧张的政府、公司和非政府组织来说是巨大的希望。
然而问题是,人们对这些技术的潜在负面外部性和意外影响关注不够。最明显的风险是,空前强大的预测工具将加强独裁政权的监控能力。
一个被广泛引用的例子是中国的 "社会信用体系",它利用信用记录、犯罪记录、在线行为和其他数据,给该国的每个人打分。这些分数可以决定一个人是否可以获得贷款,进入一所好学校,乘坐铁路或航空旅行,诸如此类。尽管中国的系统被称为提高透明度的工具,但它同时也是一种社会控制的工具。
然而,即使使用预测工具的是表面上善意的民主政府、专注于社会影响的公司和进步的非营利组织,也会产生次优的结果。基础算法的设计缺陷和有偏的数据集可能导致隐私泄露和身份歧视。这已经成为刑事司法中的一个突出问题,预测性分析经常使种族和社会经济差异长期存在。例如,为帮助美国法官评估累犯的可能性而建立的人工智能系统错误地认定黑人被告的再犯罪风险远远高于白人。
HOLIDAY SALE: PS for less than $0.7 per week
At a time when democracy is under threat, there is an urgent need for incisive, informed analysis of the issues and questions driving the news – just what PS has always provided. Subscribe now and save $50 on a new subscription.
Subscribe Now
人们对人工智能加深工作场所的不平等的担忧也在增加。到目前为止,预测性算法一直在提高效率和利润,使管理者和股东受益但牺牲普通工人的利益(特别是在零工经济中)。
在所有这些例子中,人工智能系统正在为社会举起一面哈哈镜子,投射并放大我们的偏见和不平等。正如技术研究员Nanjira Sambuli所指出的,数字化往往会加剧而不是改善先前存在的政治、社会和经济问题。
采用预测性工具的热情必须用对其预期和非预期效果的知情和道德考虑来制衡。在强大的算法的影响有争议或未知的情况下,预防原则认为还是不要部署为妙。
我们决不能让人工智能成为决策者要求赦免而非许可又一个领域。这就是为什么联合国人权事务高级专员和其他机构呼吁暂停采用人工智能系统,直到伦理和人权框架得到更新,考虑其潜在的伤害。
拟定适当的框架需要就设计和使用预测性人工智能工具所应遵循的基本原则达成共识。幸运的是,人工智能竞赛已经导致了关于伦理的研究、倡议、机构和网络的同步涌现。民间社会已率先行动,但经合组织和联合国教科文组织等政府间实体也已参与其中。
至少从2021年开始,联合国就一直致力于建立合乎伦理的人工智能的普遍标准。此外,欧盟已经提出了一项人工智能法案——这是主要监管机关的首次努力——该法案将阻止某些用途(如类似于中国的社会信贷系统),并将其他高风险应用置于具体的要求和监督之下。
迄今为止,这场辩论绝大部分集中在北美和西欧。但中低收入国家有自己的基本需求、关注点和社会不平等问题需要考虑。大量的研究表明,由发达经济体开发、面向发达经济体的技术往往不适合欠发达经济体。
如果新的人工智能工具在必要的治理结构到位之前就被一股脑儿引进并投入广泛使用,很容易弊大于利。要为人工智能治理设计真正普遍的原则,就必须考虑所有这些问题。
认识到这些差距,伊格拉佩研究所(Igarapé Institute 研究所和新美国(New America)最近发起了一个新的预测性分析促进安全和发展全球工作组。该工作组将召集来自美洲、非洲、亚洲和欧洲的数字权利倡导者、公共部门合作伙伴、科技企业家和社会科学家,目的是为用于全球南方的公共安全和可持续发展的预测技术的使用定义第一性原则。
制定这些原则和标准只是第一步。更大的挑战是调动国际、国家和次国家的合作与协调,从而在法律和实践中实施这些原则和标准。在全球急于开发和部署新的预测性人工智能工具的情况下,预防伤害框架对于确保一个安全、繁荣、可持续和以人为本的未来至关重要。