系统观引领中国人工智能安全监管制度构建
□董慧娟
党的二十届三中全会明确提出“完善生成式人工智能发展和管理机制”的重要任务,并强调指出,要“加强网络安全体制建设,建立人工智能安全监管制度”。在世界各国积极探索构建本国负责任的人工智能管理机制、达成人工智能安全监管国际共治的共识等背景下,厘清AI产业发展与安全的关系,具有重要的意义。
放眼全球人工智能技术与产业发展的激烈竞争态势,就中国而言,AI赋能新质生产力发展是高质量发展、深化改革、推进中国式现代化的重要路径之一;而安全监管,则是确保总体国家安全观落实、捍卫国家安全与公共安全的首要任务。发展与管理二者不可偏废。
在人工智能安全监管制度构建过程中,应当充分发挥系统观的重要作用。党的二十届三中全会明确了在全面深化改革过程中坚持系统观的要求,要求“坚持系统观念,处理好经济和社会、政府和市场、效率和公平、活力和秩序、发展和安全等重大关系,增强改革系统性、整体性、协同性”。系统观中的几对关系,正好契合了AI领域促进发展与依法管理并行过程中若干重要问题之解决,如市场主导与政府统筹协调、数据保护与数据分享的冲突与协调等。
◆系统观引领中国人工智能安全监管制度构建的总体目标与要求
在确保安全的前提下大力促进AI产业向善发展,力争在国际上赢得显著竞争力;在激励AI创新发展的同时捍卫国家安全、公共安全和私人合法权益等重要领域及其他领域的安全;确保人工智能安全、可靠、可控,确保中国的AI发展道路始终朝向以人为本、智能向善、负责任的正确方向,服务于社会主义国家建设。该目标的实现,有赖于我们坚定不移地在党的领导下将系统观念贯彻于人工智能安全监管制度构建的全过程。
为达成上述目标,我们应构建宽严相济的人工智能安全监管制度。处理好发展与安全的重大关系,实现两者间的动态平衡,优化法律制度、标准规范及科技伦理规范建设,适时更新立法、调整执法与司法政策,为AI赋能新质生产力发展提供相适应的法治保障与制度助力,是我们要面对与解决的关键问题。构建宽严相济的安全监管制度,既是完善中国人工智能发展与管理制度体系的关键一环,也是贯彻落实总体国家安全观的必然要求与新时代任务。
◆系统观引领宽严相济的人工智能安全监管制度构建的实践路径
在系统观引领下,建立人工智能安全监管制度,需要始终坚持在AI产业发展过程中处理好经济和社会、政府和市场、效率和公平、活力和秩序、发展和安全等重大关系,增强系统性、整体性和协同性。必须坚持在严把重要领域安全关的前提下促进发展,善用技术与法律两种工具的优势,整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,同时加强技术研发,实行技法并举、共治,在战略性重要产业或领域充分发挥新型举国体制的独特优势与统筹协调能力,调动全国数据资源,支持算力建设和算法开发与优化,破除人工智能技术与产业发展中的各种障碍,协同各方力量各司其职、通力合作、促进创新发展、为安全把控和风险共担贡献力量。
在促进发展方面。其一,重视国家安全与战略布局,确保足够的人工智能研发投入或投资规模;其二,参考其他国家建设AI数据中心的新举措,在全国范围内协同重要领域的数据资源并实现有效配置,调动全国数据资源,构建统一的大数据市场,在与国家安全、国计民生相关的重要领域,优先推动AI大模型训练的数据池建设,解决高质量数据短缺等问题;其三,充分发挥市场机制与有为政府激励机制的优势,推动中国AI大语言模型优化与迭代升级,在战略性领域发挥新型举国体制优势,有力有序提升算力供给,促进算法开发优化升级;其四,在提升预训练基础数据的质量与数量方面,宜适时发挥新型举国体制在资源整合能力、长远价值布局等方面的优势,推动相关产业界对接与合作,助推重要数据库或数据集的许可谈判,适时创建与AI产业发展相适应的孤儿作品(指享有版权但难以找到版权主体的作品)的许可使用机制,便利作品与数据利用,减少不必要的摩擦与内耗,降低谈判成本,提升AI发展效率与活力;其五,积极探索AI多样化应用场景,鼓励各类经营主体以AI赋能新质生产力发展,实现高质量发展,适时推动相关产业、产品标准形成,为行业发展提供行业规范;其六,妥善处理数据安全与数据共享的关系,疏通发展中的各种阻碍,协同各方力量共建、共管、共治,共担风险,共享收益与福利,达致共赢。
在安全监管方面。在发展与安全并重的总目标下,不同领域的侧重点应当有所区别,应区分领域,把握好监管标准与尺度,捍卫国家安全、公共安全等重要领域;除构建起普遍倡导的风险分级分类监管体系外,也要与重要领域、一般领域的区分相结合。科学吸纳并充分利用柔性监管、敏捷治理、实验主义等科学监管理念与工具,以与人工智能产业发展特有的涌现性、自主性、迭代性等特征或规律高度匹配、高度适应,建立起能有效预防和应对各级各类风险的“防火墙”。
重要领域的风险安全监管。在涉及国家安全、公共安全等传统重要领域,以及智能驾驶、智慧医疗等呈现高风险的新兴重要领域,监管力度应偏严格,与私人合法权益保护等一般领域监管力度适当宽松形成对比。依重要程度,重要领域的监管也分层次,国家安全应排在首位,公共安全与公共利益次之,与智能驾驶、智慧医疗等高风险领域同等重要。首先是国家安全领域。要维护国家安全和人民利益,对潜在风险加强提前研判与防范;提升国家安全风险防御能力,筑牢国家安全屏障;加强对AI技术辅助决策的研究,助力提升决策的科学性、精准度等;加强AI领域的公私合作,提升信息追踪技术;织密国家安全保护网,建立严密的风险防控体系。其次是公共安全领域。严格把控人脸识别等技术应用的合法性审查关;严格规制深度伪造等可能导致虚假信息传播的技术之应用;区分场景与领域,AI助力艺术领域创新活动之监管可适度宽松,但新闻、宣传、广告、公共信息等公共领域及涉及消费者群体利益的真实性价值,要坚定捍卫、从严监管,避免虚假有害信息传播;切实增强社会公众的AI素养,除通过发布AI生成合成内容标识办法明确法定标识义务外,还应继续完善相关规定,增强公众借助技术等手段对生成式AI生成内容的识别与辨别能力;在消费者权益保护法中要适时更新与数字化消费相关的条款,明确经营者对AI生成内容的提示、披露、标识等义务,提升透明度,杜绝虚假广告或宣传;在平台治理与主体责任方面,通过立法、行政规章、指引或指南等行业倡导性规范等刚柔并用的体系化治理方式,强调“元规制”理念,有效确保企业自治与自我监管落到实处。再者是智能驾驶、智能医疗等高风险的重要领域,针对生成式AI领域的涌现性与自主性及该领域风险的难以预测性,建议参考域外经验,缩小产业界与监管部门的信息差,优化人机接管中的人机协同,实现无缝衔接、安全接管,切实将伦理价值融入AI算法设计及安全评估全过程,促进价值对齐实现。
一般领域的风险安全监管。以私权保护领域为例,立法与司法应及时回应深度伪造等生成式人工智能对真人肖像、形象、声音等人身权益保护的挑战与冲击,加快民法典、著作权法、个人信息保护法等法律之间的协同与衔接,满足系统观中的协同性要求;调整现行法以与AI新技术发展和安全监管需求相适应,法律责任体系也须与时俱进,革新产品质量法并加强法律间衔接与协同,区分产品与服务及法律责任上的差异,确立生成式人工智能服务提供者、研发者、部署者、用户等各方主体的注意义务、侵权责任等基础性法律规则;厘清司法实践中新型涉人工智能案件中多种法益交织等疑难问题,作出司法应对;鉴于新领域司法经验不足,在涉AI侵权责任等司法裁判中应强调柔性监管、敏捷治理与比例原则,避免过重责任抑制或阻碍产业发展,慎用对产业发展消极影响大的责任形式,如销毁大模型、修改算法;注重保护的适度性与均衡性,避免设定过重的注意义务或责任,同时避免过轻义务导致预防或追责不足、走向另一极端。如此,方能实现系统观中对宽严相济安全监管制度的系统性、整体性、协同性等要求。
(作者为厦门大学知识产权研究院教授、博士生导师)
扫码关注中国福建微信
扫一扫在手机上查看当前页面