中国对人工智能(AI)的监管方式体现了其在创新和治理两方面都希望领先的雄心。随着人工智能技术在各行各业的迅速发展,中国政府出台了全面的法律和标准草案,以应对人工智能带来的伦理、安全和运营挑战。本文探讨了关键法规,包括《生成式人工智能服务管理暂行办法》(2023 年)和正在形成的《网络安全技术--生成式人工智能服务安全基本要求》(2024 年草案),以及旨在促进人工智能在各行业应用的举措。
- 生成式人工智能服务管理暂行办法(2023 年)
2023 年 8 月 15 日生效的《生成式人工智能服务管理暂行办法》为中国开发和使用生成式人工智能提供了全面指导。这些措施针对生成文本、图像和视频等内容的人工智能系统,对其使用进行规范,以确保符合国家安全、公共利益和道德标准。
主要条款包括
- 内容控制:人工智能生成的内容必须体现社会主义核心价值观,不得宣扬颠覆、分裂主义或虚假信息。法律还规定,人工智能生成的内容必须尊重知识产权和隐私,避免歧视。
- 数据保护:措施强调数据合规性,要求人工智能服务提供商使用合法来源的数据,并按照中国《个人信息保护法》(PIPL)保护个人信息。提供商还必须确保训练数据的完整性和安全性。
- 服务问责制:人工智能提供商必须保持其服务的透明度,披露人工智能系统是如何训练的,并负责确保其服务不会造成伤害。处理非法内容的报告机制必须到位。
- 以创新为重点的人工智能法规:新一代人工智能示范应用场景(2022 年)
在严格监管的同时,中国还通过战略举措鼓励人工智能创新。2022 年《科技部关于支持建设新一代人工智能示范应用场景的通知》旨在促进人工智能与经济关键领域的融合。该通知概述了十个示范应用场景,重点关注人工智能能够产生重大社会和经济影响的领域:
- 智慧农业:群体智能和自主无人作业等人工智能技术正在通过优化种植、管理和收割流程,改变中国的农业部门。
- 工业自动化:智能港口和智能工厂中的人工智能驱动系统提高了物流和制造效率,增强了中国的工业能力。
- 医疗与教育:人工智能在医疗保健领域的应用旨在提供智能诊断,改善农村地区医疗服务的可及性。在教育领域,正在推广智慧教室,以提高欠发达地区学生的学习成果。
- 正在形成的法律标准:网络安全技术--生成式人工智能服务安全基本要求(2024 年草案)
最近提出的《网络安全技术--生成式人工智能服务安全基本要求(征求意见稿)》于 2024 年 5 月发布,预示着中国人工智能监管的未来。该草案目前正在公开征求意见,旨在为生成式人工智能服务建立网络安全基线,重点关注人工智能模型开发的整个生命周期,从数据收集到内容生成。主要条款包括
- 数据安全:草案概述了对训练数据安全的严格要求,规定服务提供商必须对数据来源进行安全评估,并过滤掉违法或不良内容。该标准强调可追溯性,确保训练数据,无论是自行采集、商业获取还是来自开放平台,都符合严格的法律和道德准则。
- 模型和内容安全:提供商必须确保其人工智能模型的安全性,包括定期对人工智能开发框架进行安全审计,并防范后门和注入攻击等网络攻击。此外,生成的内容必须符合科学标准并反映社会规范,避免虚假或误导性信息。
- 透明度和用户保护:草案还要求人工智能服务运营的透明度。提供商必须披露所使用模型的相关信息,并确保用户可以轻松终止将其数据用于培训目的。此外,不适合未成年人使用的服务必须采取限制访问的措施。
- 法律趋势和监管重点
中国的人工智能监管格局反映了一个明显的趋势:鼓励创新,同时保持严格的监督,以解决伦理、安全和社会问题。《暂行办法》和《2024 年网络安全(草案)》强调了透明度、数据保护和内容控制的必要性,体现了中国对技术领先和公共安全的承诺。
此外,《2022 年人工智能示范应用场景》还强调了政府如何在医疗、教育和农业等关键行业积极推广人工智能。这些举措反映了通过人工智能创新推动经济增长和社会发展的战略努力。
结论
随着中国不断提高人工智能能力,其监管框架也在不断发展,以平衡创新与问责。《暂行办法》和《网络安全技术草案》是确保人工智能技术以负责任的方式发展,并充分考虑国家安全、公共福利和伦理问题的更广泛努力的一部分。随着这些法规的成形,它们将为人工智能提供商和创新者在这个充满活力、监管日益严格的环境中航行提供更清晰的道路。



