>
梅里·马达沙希:拥抱数字化转型 推动科技伦理治理
2023-11-17   |   中央广电总台国际在线

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

文/梅里·马达沙希

联合国前高级经济官员

创意中心咨询委员

华南理工大学公共政策研究院客座教授

导读

Introduction

  人工智能(AI)技术的迅猛发展正在不断重塑我们的世界。AI的交叉性和学习能力正推动着人类知识结构、决策制度和创新轨迹的深刻转型。

  然而,鉴于其颠覆性和尚不明确的技术图景,其发展也有可能会导致极具破坏性的结果。

  如何管控人工智能发展,避免其可能造成的恶性结果?

  联合国教科文组织国际创意与可持续发展中心咨询委员梅里·马达沙希(Mehri Madarshahi)认为,当前的首要任务,是共同铸造一个兼容并蓄、普遍适用的人工智能治理架构,让国际社会既能释放人工智能潜力、又能妥善管理其风险。

  拥抱数字化转型,推动科技伦理治理

  过去人工智能只存在于人类的幻想中,如今已经成为发展最快的技术,在各领域均得到了广泛的应用。

  然而,人工智能的崛起引发了全球监管机构的担忧,进而引发了有关人工智能监管话题的思考。人工智能存在的不可控性、算法歧视、虚假信息传播、个人数据滥用等问题,已经让国际社会意识到人工智能监管的必要性。

  虽然人工智能的前景不可估量,但是一旦滥用,就会给公共安全带来巨大隐患,侵蚀社会信任乃至侵犯个人自由。

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

  Impacts of Artificial Intelligence. (Elysium Embedded School)

  链接:https://embeddedschool.in/how-does-artificial-intelligence-impacts-our-lives/

  人工智能在网络上生成虚假信息的能力,进一步印证了人工智能监管的必要性。即便如此,人工智能前所未有的强大能力,迫使人工智能监管面临严峻挑战。

  今天,包括中国在内的多个国家,正在研究如何在充分运用人工智能潜力的同时,最大限度地减少由此对人类带来的潜在风险。与基于渐进式路径的技术不同,人工智能通常具有自我指导、自我复制、自我改进等特点。因此,制定人工智能的国际法规是一项长期性事业,也是一项全球性任务。

  监管机构应该如何解决计算机脱离人类控制的担忧?是否应该主动干预存在歧视风险或主动干预对数十亿人产生不利政治影响的算法?应该采取何种措施来降低虚假信息传播、个人数据滥用等与聊天机器人相关的风险?上述问题是监管机构面临的第一要务。

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

图源:网络

  最近有报道指出,人工智能可以用于制造和传播有害信息,侵蚀社会信任和民主,监视、操纵和限制个人行为,破坏个人和集体自由,甚至生产威胁人类生存的武器。

  与此同时,人工智能可能会导致数以百万计的就业机会流失,加剧现有的不平等,创造新的不平等,产生更严重的算法歧视。

  上述风险只是冰山一角。由于人工智能发展速度过快,故在某些情况下,我们对其潜在风险知之甚少,以至于迄今为止,世界各国尚未就人工智能监管达成共识。

  大型语言模型(例如ChatGPT)的突破性进展,为人工智能的发展注入了强劲动力,但同时也引发了职业替代和劳动力需求下降的担忧。人工智能研究公司(OpenAI)与宾夕法尼亚大学最近合作进行的一项研究指出,大型语言模型及其他先进人工智能模型的问世,将对白领阶层造成广泛影响。

  从短期来看,人工智能将具备在网络上传播虚假信息的能力。在不久的将来,通用人工智能将成为现实,即一种能够在各种任务中表现出超越人类智能的计算机系统,且具备自我指导、自我复制、自我改进等超出人类控制的能力。

  人工智能并非第一个具有上述特征的技术,而是一个高新技术的整合体。人工智能不同于互不关联、依赖渐进式创新的硬件技术(例如汽车、飞机等)。

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

图源:Dawson college 作者:Michel Fournier-Simard

  随着人工智能优势的凸显,人工智能将变得更加智能、高效、便宜和普及,并具备一定的自主性(例如能够在有限的人为监督下完成特定任务),以及自我改进的能力。

  然而,一旦人工智能的能力过于强大,就可能会对传统的治理模式构成挑战。这意味着,在未来几年里,人工智能的发展将主要由少数企业主导,而并非政府机构。这其中涉及的微妙性和风险性,使得人工智能的挑战不同于世界以往面临的任何挑战。

  政府机构在人工智能治理方面取得的进展乏善可陈。大多数有关人工智能治理的政策建议,均是由缺乏对人工智能有深刻理解的政策专家提出的。

  人工智能监管在世界各国的进展情况

  ►  中国开展人工智能监管的情况  

  一些国家对如何构建和使用算法和信息源提出了新的要求,这对于全球人工治理具有潜在的重大意义。这很可能将成为未来中国综合性人工智能法律的知识基础,正在推动中国成为人工智能治理的“试验田”。

  中国发布的全球首部关于生成式人工智能的法规,标志着中国在新兴技术监管领域迈出了重要一步。中国之所以能够取得如此成就,其主要原因是因为中国早就认识到人工智能蕴含的巨大潜力及以负责任、符合道德规范的方式使用人工智能的必要性。

  认识到数字经济带来的重大机遇,中国采取了一系列积极措施。例如,2023年,中国推出了《生成式人工智能服务管理暂行办法》(以下简称为《暂行办法》),并进一步完善了其网络安全法,以便更好地保护个人和组织的网络安全。

  中国为了促进科技创新与合作,设立了人工智能研发基地和人工智能试点项目,并设定了一系列宏大的目标,其中包括到2025年核心数字经济产业的份额提高到中国国内生产总值的10%。此外,中国的另一个目标是让更多的家庭获得每秒至少1GB的宽带。

  中国将提升在传感器、量子信息、通信、集成电路、关键软件、大数据、人工智能、区块链、新材料等“战略领域”的基础研究能力,并在基础软硬件、核心电子元器件、关键基础材料、生产设备等方面实现自给自足,以此加强5G、集成电路、新能源汽车、人工智能、工业互联网等重点领域的供应安全。

  中国采取的多项措施可以为人工智能公司和研究人员营造良好的创新环境,并有助于在确保法规遵从性的同时,鼓励人工智能产业的发展。《暂行办法》是中国人工智能监管框架的一个重要补充,其目的是构建综合性人工智能治理模式。这同时也表明,中国致力于构建自己的人工智能治理模式。

  ►  欧盟、英国、美国等国家的开展情况  

  欧盟(包括27个成员国)、美国、英国、日本、印度、阿联酋、沙特阿拉伯、新加坡等国均制定了数字经济专项行动计划。

  目前,欧盟的《人工智能法案》已经进入立法审议阶段。该法案是一项全面的产品安全立法,旨在规范开发、销售和使用与人工智能相关的产品和服务。《人工智能法案》关注的重点是高风险人工智能,尤其是参与工作或贷款申请决策的人工智能。欧盟要求企业披露用于创建和训练人工智能模型的数据源,并对任何滥用行为承担责任。此外,欧盟禁止企业使用不可接受风险的人工智能,同时对低风险人工智能施加适度的限制。

  为了推动《人工智能法案》的落地实施,欧盟将设立“欧洲人工智能办公室”,负责提供政策性意见、建议和指导。该法案预计将在2023年年底前获得通过。即便如此,一些欧洲企业仍担心《人工智能法案》可能会对未来人工智能的发展造成不利影响。

  相比之下,英国并未出台与人工智能相关的法案,而是要求监管机构遵守五项基本原则(安全性和稳健性、透明度和可解释性、公平性、问责制和管理,以及可竞争性),以此促进人工智能在各领域中的创新和安全应用。

  美国在人工智能监管方面采取了较为谨慎的态度,目前尚未进行相关的立法。联邦政府鼓励人工智能产业实行自我监管,部分州政府为了解决个人隐私、数据安全以及算法歧视的问题,已经出台了针对人工智能的法律法规。总而言之,美国在人工智能监管方面目前仍处于观望态度。

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

图源:网络

  事实上,科技公司也一直在积极倡导对人工智能进行监管。2023年5月,数百名人工智能专家联合发表了一份声明,警告人工智能对人类构成的潜在生存威胁。2023年7月微软、人工智能研究公司、谷歌、亚马逊、脸谱网等美国头部人工智能公司向社会做出公开承诺,将以负责任的方式开发人工智能。

  新加坡是拥有庞大数字基础设施堆栈总体规划项目的国家。新加坡的战略重点包括提前投资及全面规划整个面向未来的数字基础设施堆栈(硬基础设施、物理数字基础设施和软基础设施),可为新加坡未来的经济增长提供动力。

  欧盟人工智能监管框架能否引领世界?

  就目前而言,全球在人工智能监管方面尚处于起步阶段,仍存在许多不足之处。虽然欧盟的《人工智能法案》是一项大胆的尝试,但是欧盟对人工智能的监管力度,可能难以跟上人工智能的发展速度。此外,欧盟的法规可能更符合欧盟国家的需求。

  2023年11月,英国主办首届全球人工智能峰会,旨在讨论人工智能监管方面的国际协作及如何降低人工智能的相关风险。

  虽然行业自律对于人工智能监管至关重要,但是还需要制定监管细则、登记备案和报告制度以及安全标准。上述措施与行业自律相结合,将更有助于确保安全、负责任地管理人工智能的开发和应用。

  然而,由于目前利益相关方之间在监管措施上仍存在分歧,而且公众对监管机构普遍缺乏信任,故制定多方认可的人工智能监管方案仍困难重重。

  具体而言,在行业实行自我监管的同时,还必须辅之以三大基本要素:

  第一,针对人工智能研发人员,制定合理的监管细则。

  第二,制定登记备案和报告制度,以确保人工智能开发过程的可预见性。

  第三,为人工智能的开发和应用制定安全标准。

  此外,监管沙箱不仅可以为人工智能的测试和创新提供受控环境,还可以确保其符合安全和道德标准。

  人工智能治理的核心在于防患于未然,并非事后补救,这一点尤其重要。

  人工智能治理是一项富有挑战性的任务,其关键在于构建促进负责任、合乎道德地使用人工智能的监管框架。

  推动行业自律是第一步,同时还需要制定监管细则、登记备案和报告制度以及安全标准。这样一来,监管机构便能够有效地监管人工智能的开发和应用,并确保该技术的应用符合社会价值观和人类的共同利益。

  值得注意的是,人工智能并非是当今唯一的变革性技术。量子计算、生物技术、纳米技术和机器人技术也可能像人工智能一样,具有重塑世界的能力。因此,人工智能治理的成败,决定着其他变革性技术治理的成败。

  综上所述,具有针对性和协作性的人工智能治理方案,对于构建全球人工智能监管框架至关重要。只有在促进科技创新的同时,降低科技创新带来的风险,我们才可以充分利用人工智能的潜力来保护个人权利,维护国家安全,以及造福社会。

梅里·马达沙希:拥抱数字化转型,推动科技伦理治理

图源:网络

  为此,世界各国必须尽可能地在国家体制上保持一致,以便更好地控制人工智能的传播。否则,全球人工智能产业可能将陷入繁文缛节的泥潭。

  人工智能治理必须是全球性的,且能够根据技术性质、面临的挑战以及政治结构和权力关系进行调整。

  构建全球人工智能监管框架,可能需要全社会的共同参与。这意味着除了政府和科技公司以外,科学家、伦理学家、工会、民间团体等关注人工智能发展的社会群体,也应该积极参与人工智能监管事业,共同推进人工智能的负责任使用。

  不受控制的人工智能,可能会对全球稳定构成不可接受的风险,也不利于商业发展,更不符合世界各国的共同利益。

  如何充分利用人工智能的优势及避免人工智能的负面影响,是我们构建全球人工智能监管框架时需要考虑的重要因素。鉴于技术发展和迭代的速度,此事不容迟疑,利益相关方必须立即采取行动。

编辑: 冯薇薇
标签: