消费者安全 数据安全审计 企业合规师 备案登记 劳动用工合规管理 知识产权合规 个人信息与隐私权保护 企业廉洁合规 经营合规 风险提示与预警信息 IPO合规 安全生产合规管理 企业合规典型案例 合同合规管理 企业合规实务 企业数据合规 企业刑事合规
网络犯罪 人工智能合规 网络安全 新基建安全资讯 保密科技 数据合规 元宇宙合规 数字合规 网络与数据法学 电信网络诈骗 区块链合规 信息与网络安全 网络不正当竞争 数字贸易合规 数据出境合规 互联网合规
上市公司合规管理 税务合规 企业合规管理 商业秘密 财务合规 商业合规 内控资讯 合同法律 信息披露风险 公司法实务 人力资源合规 信用规制 知识产权合规 合规尽职调查 内控稽查 内部控制和风险管理合规 会计监管风险 税务异常处理 税务检查应对
征信合规 涉税合规 经济犯罪案例 合规文化主题月 劳动与人力资源合规 合规运行报告 网络直播合规 信用合规 刑事合规管理 工程合规与舞弊调查 涉案企业合规 安全审计 合规科技 劳务派遣合规 采购合规 财务风控 招投标合规
国际注册合规师 公司治理与公司合规 全球金融监管动态月刊 境外合规专项行动 国企合规 反不正当竞争合规管理 出口退税合规风险 全球反垄断 全球企业合规事务 国际监管合规服务 合规风险 进出口管制和贸易制裁 境外投资和“一带一路” 跨境投资和经营合规 知识产权内部控制 商业贿赂 外汇合规 合规与诚信
证券合规 银行合规 金融犯罪合规 保险合规 金融消费者保护 银保监督 私募合规 互联网金融合规 银行合规资讯 投融资合规 支付 银行合规综合 金融安全 信托合规 担保合规 金融合规 信用合规 股权合规 内保外贷合规 外汇合规 保理合规
人工智能(AI)是推动科技跨越发展、产业优化升级、生产力整体跃升的关键驱动力量。最近,ChatGPT再次引发全球对新一代AI的广泛关注,主要经济体竞相加快AI技术创新和产业布局。但如何应对AI快速发展带来的治理和监管挑战,也是当今世界各国面对的共同问题,探索解决AI治理问题已经迫在眉睫。
2022年11月底,OpenAI发布了ChatGPT,把AI应用拓展到新水平。ChatGPT属于机器学习大类,是典型的生成式AI。生成式AI是指可用于创建音频、代码、图像、文本、模拟和视频等新内容的算法,除ChatGPT外,比较典型的还有DALL-E(可生成图像的AI工具)。伴随生成式AI越来越多地无缝融入商业、社会和个人生活,一系列新的风险挑战也逐渐凸显。
一是商业应用面临潜在风险隐患。一方面,应用门槛降低。“低代码”和“无代码”AI工具使得集成、构建和部署AI应用程序变得便宜而容易。这意味着小微企业甚至个人,就可以使用AI和机器学习技术。另一方面,信息不对称加剧。开发生成式AI模型的“上游开发人员”,无法预估应用该模型的全部场景,而未参与原始模型开发的“下游开发人员”,又可能会调整模型并将其输出集成到更广泛的软件系统中,开发出新的应用场景。由于上游和下游开发人员均无法全面了解、完全控制整个AI系统,商业应用中出现错误和意外的可能性大大增加。
二是恶意使用带来安全伦理问题。一方面,生成式AI模型可能创建未经同意的内容,包括自动生成仇恨言论、有针对性的骚扰或虚假信息等。此类模型已经被用于设计更具说服力的骗局,例如帮助欺诈者模仿CEO的声音以获得汇款。虽然在数字生态系统中,上述情况屡见不鲜,但是生成式AI的扩散可能会使情况变得更糟。另一方面,隐私保护面临空前严峻的挑战。据美联社3月9日报道,美国政府工作人员的健康保险出现安全漏洞,数百名国会议员及其家人的敏感信息被盗。生成式A I需要大量训练数据作为支撑,其中可能包括涉及企业机密和个人隐私的敏感数据,社会公众倾向于认为设备供应商可能在机器上设置“后门”,用来远程控制系统或窃取信息。
三是算法偏见加剧弱势群体歧视。一方面,算法偏见存在于不同人群之间,弱势群体容易被算法忽视。算法开发和应用常常忽略性别、年龄等方面的弱势群体,甚至可能诱导不道德活动或犯罪活动,这些弱势群体因此可能受到不同程度的伤害。特别是一些未被发现和未被处理的潜在偏见,可能会使决策结果缺乏准确性和公平性,还可能使系统开发人员和用户因违背反歧视法而承担法律责任。另一方面,一些历史偏见常常在不知不觉中“镶嵌”入算法之中。
近年来,美欧等主要经济体争相推进A I治理探索。美欧治理模式有较大差别,虽然两者的AI治理都不是纯粹的“横向”或“纵向”,但相比之下,欧盟的AI治理思路更偏“横向”,力求通过一个总的法案约束所有领域、所有类型的AI;而美国的治理则更偏“纵向”,不同领域、不同系统分别制定了具有约束力的AI治理指南。
欧盟治理模式。2021年4月,欧盟委员会发布了拟议的《AI法案(草案)》,力求建立一个基于分层风险类别的AI开发、部署和应用的安全框架。该法案的核心是将AI应用程序分为不可接受的风险、高风险和其他风险等类别,每个类别都由一组预定义的监管工具进行管理。该AI法案模糊地定义了每个风险等级的“基本要求”,对每个类别施加了不同限制。
该法案的特点在于:一是力求通过“横向”立法,使用一部单一法案监管几乎所有AI使用,该法案成为全球首个应对AI风险的法律框架。AI法案确定了要监管的AI应用范围,同时允许具体领域的机构确定确切的参数和合规策略。该框架在提供可预测性和跟上AI发展步伐的双重要求之间取得了平衡。二是该法案使用基于风险等级的监管方案,允许监管机构随着AI用途的发展,将新的应用领域划入已有的风险类别,从而在监管规范性和灵活性之间取得平衡。同时,该法案模糊化定义风险等级边界,也缓解了纯横向立法带来的“过于死板”的“一刀切”问题。但是也要看到,该模式也存在若干问题,比较突出的是,法案对监管机构要求较高,负责执行法案的各个监管机构可能在监管能力方面存在差异,从而破坏横向治理的协调优势。
美国治理模式。2022年10月,美国发布《A I 权利法案蓝图》,确定五项原则:系统的安全有效性、免受算法歧视、确保数据隐私权、AI系统的使用通知及其对用户潜在影响、退出AI系统的能力。美国治理模式的主导思想是,将监管视为一种阻碍创新的行为,认为必须“避免妨碍AI创新和增长的不必要的监管或非监管行动”。总体来看,美国还是强调“少管”,除必要点外,能不管就不管。
美国治理模式的最大特点在于偏“纵向”,目前尚未形成统一的AI立法,更多依靠地方自治、行业规则和个人诉讼等方式解决生成式AI带来的问题,各部门分别出台本领域的监管指南。在该蓝图发布前后,至少有美国国防部、平等就业机会委员会、劳工部等五个联邦机构通过了负责任地使用AI系统的指南。
同时,美国模式也有显而易见的缺陷。例如,《AI权利法案蓝图》着眼于私营部门的自我监管,但是,对于通常从AI不透明性中获利的企业来说,这种期望可能不太现实。再如,该蓝图虽然提到贷款、招聘等领域的公民权利保护和可解释性,但是,由于互联网和算法应用程序上存在不透明性,影响算法模型运行方式的因素通常不会告知消费者,如何确保公民权利的保护和可解释性仍然未知。再如,该蓝图没有提供强制性、可执行的指导方针,并且缺乏明确的执行制度。
近年来,我国在AI治理方面进行了多方探索,并在全球率先推出两项针对推荐算法和深度合成技术的生成式AI治理法规。2021年12月,国家互联网信息办公室等四部门联合发布《互联网信息服务算法推荐管理规定》。2022年11月,在ChatGPT发布的同时,国家互联网信息办公室等三部门联合发布《互联网信息服务深度合成管理规定》,明确了生成式AI应用服务提供者、技术支持者和服务使用者等各方的法定义务,在生成式AI法律监管方面迈出重要一步。今后一个阶段,适当借鉴美欧经验做法,兼顾“横向”和“纵向”治理,从三个方面着手,逐步构建起符合我国实际的AI治理模式。
一是推动监管领域的技术创新。AI发展速度之快,已经超出传统监管体系的约束能力,监管技术落后已经成为制约监管能力提升的主要障碍之一。未来几年,监管技术创新可在发现未知漏洞、检测恶意活动、采取对策防御等几个方面集中发力。同时,为相关应用建立A I 工具的动态测试、验证和认证标准,围绕A I的研发制定共同规范,并考虑约束该领域的知识和能力扩散。
二是制定完善人工智能法律体系。特别是要通过法律的形式,对AI治理的核心概念达成共识,对隐私保护、数据治理等有争议的问题,必须进行深入研究。明确AI使用的价值观、知识产权、隐私权等伦理问题,规范透明度、安全性和问责制等使用问题,建立监管规则、技术规范等,强化AI的正面作用,减少AI的负面影响。同时,明确AI治理机构,建立AI监管体系。
三是引导实施AI全生命周期治理。关键在于调动AI参与者的积极性,引导AI参与者对其开发和使用的AI系统承担责任,确保AI系统是值得信赖的,即:AI系统能够造福于人,尊重人权和公平,确保AI系统是透明的和可解释的。为实现这一目标,要引导参与者制定一套AI风险管理动态机制,实施AI系统规划和设计、数据收集和处理、模型构建和验证,以及部署操作和监控的全生命周期治理。
© 2024 All rights reserved. 北京转创国际管理咨询有限公司 备案号: 京ICP备19055770号-4
Transverture International Group Co Ltd, Guangdong Branch
地址:广州市天河区天河北路179号尚层国际1601
深圳市福田区深南中路2066号华能大厦
佛山顺德区北滘工业大道云创空间
东莞市大朗镇富丽东路226号松湖世家
梅州市丰顺县留隍镇新兴路881号
长沙市芙蓉区韶山北路139号文化大厦
欢迎来到本网站,请问有什么可以帮您?
稍后再说 现在咨询