追踪全球各国人工智能法律法规与政策指南
韩国《AI基本法》于2026年1月22日正式施行,是全球首部针对人工智能全领域的综合性立法。该法旨在促进人工智能领域健康发展,平衡发展与规制,构建涵盖治理架构、产业促进、风险防范的全方位规则体系。法律要求政府制定人工智能发展计划并定期检讨,引入AI内容标识义务,并对高影响力AI系统设置专门规则。
该条例是《数据安全法》和《个人信息保护法》的重要配套法规,对网络数据处理活动实施全面规范。条例涵盖数据分类分级管理、数据安全风险评估、个人信息保护、重要数据和核心数据保护等,对AI系统的训练数据使用、数据跨境传输、数据安全评估提出了明确要求,是AI数据合规的重要法律依据。
全球首部全面规范人工智能的综合性立法,采用基于风险的分级监管框架,将AI系统分为不可接受风险、高风险、有限风险和最低风险四类,对高风险AI系统设置严格的合规要求。
联合国大会一致通过的里程碑式决议,呼吁抓住安全、可靠和值得信赖的AI系统带来的机遇,让AI给人类带来惠益并促进可持续发展。决议强调AI系统必须尊重、保护和增进人权和基本自由,呼吁弥合国家之间和国家内部的AI鸿沟,是全球AI治理的重要国际法律文件。
G7广岛AI进程旨在促进安全、可靠和值得信赖的先进AI系统在全球范围内的发展和使用,发布了国际指导原则和行为准则,以应对生成式AI带来的机遇和挑战,包括治理、知识产权保护、透明度、虚假信息以及负责任的AI创新。这些文件为AI开发者和政策制定者提供了实践指导。
规范生成式人工智能服务的提供和使用,要求服务提供者履行数据安全、内容安全、算法安全等义务,并对生成内容进行标识。
OECD人工智能原则是首个关于AI的政府间标准,于2019年通过、2024年更新,由五项基于价值观的原则和五项建议组成,为政策制定者和AI参与者提供实用和灵活的指导。原则强调以人为本,平衡AI的益处和风险,已被42个国家采纳,为全球AI治理奠定了重要基础,也是欧盟AI法案等立法的重要参照。
欧盟通用数据保护条例是全球影响最广泛的数据保护法规,对AI系统的开发和部署具有深远影响。GDPR要求数据最小化、目的限制、透明度和可解释性,其第22条专门规定了自动化决策和画像的限制,赋予数据主体拒绝纯自动化决策的权利。GDPR已成为全球数据保护立法的重要参照,直接影响AI训练数据的合法使用。
该规划是中国人工智能发展的纲领性文件,提出了三步走战略目标:2020年AI总体技术和应用与世界先进水平同步,2025年AI基础理论实现重大突破,2030年AI理论、技术与应用总体达到世界领先水平。规划确立了中国AI发展的战略方向,推动了后续一系列AI专项立法和政策的出台。
中国正在制定的综合性人工智能法,将对AI研发、应用和治理进行全面规范,目前处于草案研究阶段,预计将整合现有AI专项法规。
新加坡IMDA发布的《智能体AI治理框架》是全球首个针对智能体AI(Agentic AI)的综合性治理框架,旨在为组织提供结构化的风险管理方法,负责任地部署智能体AI。框架提出四个核心维度:预先评估和限制风险、确保人类有意义的问责、实施技术控制和流程、赋能终端用户责任,强调人类在AI生命周期中的监督作用。
韩国首部综合性AI法律,建立AI安全与可信框架,要求高影响力AI系统进行透明度披露,设立国家AI委员会,推动AI产业发展与安全并重。
日本内阁于2025年12月通过《人工智能基本计划》,旨在通过可信赖AI实现日本再启动,成为最AI友好型国家。计划强调兼顾创新与风险管理,提出加速AI利用、战略性强化AI开发能力、引领AI治理以及向AI社会可持续转型等四大基本政策,并提出具体实施措施,涵盖政府、产业、人才培养和国际合作。
印度AI治理指南旨在平衡AI创新与问责制,以七项核心原则(信任、人民至上、创新优先于限制、公平与公正、问责制、设计可理解性、安全韧性与可持续性)为指导,提出基础设施、能力建设、政策与法规、风险缓解、问责制和机构建设六大支柱的建议,强调全政府协作和技术法律方法。
该办法规范人工智能生成合成内容的标识要求,要求对AI生成的文本、图片、音频、视频等内容进行显式标识和隐式标识(水印),明确了内容制作、传播各方的标识责任和义务。这是全球首个专门针对AI内容标识的系统性立法,旨在帮助用户辨别AI生成内容,防范虚假信息传播。
特朗普政府发布的AI行政令,旨在通过消除阻碍美国AI创新的政策和指令,巩固美国在AI领域的全球领导地位。该行政令废除了拜登政府的EO 14110,强调发展不受意识形态偏见影响的AI系统,指示相关机构制定行动计划以促进人类繁荣、经济竞争力和国家安全,采取更为宽松的AI监管立场。
联合国大会通过的首个关于AI的全球性决议,呼吁各国确保AI的安全、可信和负责任发展,强调以人为中心,保护人权,推动全球AI治理合作。
英国AI安全研究所是全球首个由国家支持的专门从事先进AI安全研究的机构,致力于通过严谨的AI研究推进先进AI治理。其使命是为政府提供对先进AI所构成风险的科学理解,开发和测试风险缓解措施,并与AI开发者及其他政府合作,影响AI的开发和塑造全球政策。
拜登政府发布的AI行政令,是美国联邦政府首个全面的AI治理框架,提出了AI安全标准、促进创新与竞争、支持美国工人、推进公平与公民权利、保护消费者、维护隐私与公民自由等八项指导原则。要求对AI系统进行安全评估,并指示NIST制定AI安全标准。该行政令已于2025年1月被特朗普政府废除。
拜登政府发布的全面AI行政令,要求AI开发商向政府报告安全测试结果,建立AI安全标准,保护公民隐私,推动AI在政府中的负责任使用。
英国政府发布的AI监管白皮书,采用支持创新的监管方法,提出了五项跨部门原则:安全与稳健性、适当的透明性与可解释性、公平性、问责制与治理、可争议性与补救。白皮书强调利用现有监管机构的专业知识,采取情境特定而非技术特定的方法,不设立专门的AI监管机构,以促进AI创新并解决潜在风险。
规范深度合成技术(包括AI换脸、AI配音、AI生成图像视频等)的服务,要求对深度合成内容进行显著标识,防范虚假信息传播。
欧盟数字市场法案旨在确保数字市场的公平竞争,主要针对被指定为守门人的大型在线平台。DMA规定了守门人必须遵守或禁止的行为,包括数据共享、互操作性等,间接影响大型科技公司在AI领域的开发和应用,特别是限制其利用AI系统强化市场支配地位。
欧盟数字服务法案旨在创建更安全、更公平的数字空间,对在线平台和中介服务提供商施加新义务,包括内容审核、透明度报告、风险评估和应对非法内容等。DSA要求超大型在线平台(VLOP)和超大型搜索引擎(VLOSE)对其AI推荐系统进行透明度披露,并向用户提供不基于画像的推荐选项,对AI内容审核系统的使用提出了问责要求。
规范互联网平台算法推荐服务,要求平台公开算法推荐原则,保障用户知情权和选择权,禁止利用算法实施不正当竞争。
该规范旨在将伦理道德融入人工智能全生命周期,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理要求,并针对AI管理、研发、供应、使用等特定活动提出了18项具体伦理要求,是中国AI伦理治理的重要指引。
该法案建立了美国国家人工智能倡议,设立国家人工智能倡议办公室和跨机构委员会,协调联邦政府在AI领域的项目和活动。法案要求NIST制定AI系统自愿标准,推动AI研发和应用,并设立国家AI咨询委员会,是美国联邦AI政策的重要法律基础。
巴西通用数据保护法(LGPD)是巴西首部综合性数据保护法律,受欧盟GDPR启发,对个人数据的收集、使用、处理和存储规则做了详细规定。LGPD覆盖巴西所有行业的私营和公共实体,设立了国家数据保护局(ANPD)作为主要监管机构,对AI系统的训练数据使用和自动化决策具有重要约束。
阿联酋人工智能战略2031旨在将阿联酋打造成为全球AI领域的领导者,通过投资人才和关键产业,在能源、交通、医疗、教育等优先领域部署AI,建立强大的AI生态系统。阿联酋是全球首个任命国家AI部长的国家,该战略是其AI治理体系的核心文件。
巴西人工智能法案(PL 2338/2023)受欧盟AI法案启发,旨在规范巴西AI系统的开发和使用,采用基于风险的分级监管方法,对高风险和过度风险AI系统提出严格合规要求,包括算法影响评估、鲁棒性、准确性等。法案规定了受AI影响者的权利(知情权、解释权、质疑权),并禁止某些滥用AI的行为,目前仍在立法程序中。
加州AB-2013要求生成式AI系统的开发者在其网站上发布关于AI系统训练数据的文档,包括数据集的来源、描述、数据点数量、是否包含受版权保护的数据、是否包含个人信息等。该法案旨在提高生成式AI训练数据的透明度,是全球首个专门针对AI训练数据透明度的立法。
该指南根据日本《人工智能相关技术研发和利用促进法》制定,鼓励所有利益相关者在AI研发和利用中采取自愿和积极的行动,以实现可信赖AI。指南提出了风险导向方法、利益相关者积极参与、建立AI生命周期治理框架和敏捷响应等基本方针,详细说明了研发机构、利用企业、政府和公民应特别关注的事项。
澳大利亚财政部于2024年发布《国家政府人工智能保障框架》,为各级政府合理使用人工智能提供全国性方法,确保AI系统公平、包容、负责任和安全。框架将AI伦理原则转化为技术要求和指南,涵盖AI系统从采购、设计、开发到部署、运营和停用的全生命周期管理。
科罗拉多州SB24-205是美国首个通过的综合性AI消费者保护法,要求高风险AI系统的开发者和部署者采取合理措施,保护消费者免受算法歧视的风险。法案规定了透明度要求,包括披露AI系统信息、进行影响评估、发布公开声明及向总检察长报告算法歧视,是美国州级AI立法的重要参照。
法国政府发布的AI行动计划,投资22亿欧元推动AI研究和应用,建立AI创新生态系统,重点关注主权AI和欧洲AI竞争力。
印度政府推出的IndiaAI任务,旨在建立全面的AI生态系统,包括算力基础设施、数据集、研发资金和AI应用推广,推动印度成为全球AI领导者。
以色列发布首个全面的AI监管与伦理政策,旨在促进负责任的创新,应对AI广泛使用带来的复杂挑战。政策强调平衡创新与伦理,解决歧视、人工监督、可解释性、安全性、问责制和隐私等问题,建议采用部门特定、基于风险的方法和软性监管,并遵循OECD人工智能原则。
德国联邦政府更新的AI战略,重点推动AI在工业4.0中的应用,加大AI研发投入,建立可信AI生态系统,同时配合欧盟AI法案的实施。
英国政府发布的AI监管白皮书,采用亲创新监管理念,不设立专门AI监管机构,而是由现有监管机构在各自领域内负责AI监管,强调灵活性和促进创新。
NIST发布的AI风险管理框架,为组织提供识别、评估和管理AI风险的自愿性指南,涵盖治理、映射、测量和管理四大功能。
日本政府发布的AI战略,强调以人为中心的AI原则,推动AI在社会5.0中的应用,注重AI人才培育和国际标准制定。
新加坡信息通信媒体发展局发布的AI治理框架,为企业提供负责任使用AI的实践指南,涵盖内部治理、人机协作决策、运营管理和利益相关者沟通四大领域。
澳大利亚于2019年发布AI伦理原则,旨在指导企业和政府负责任地设计、开发和实施人工智能。框架包含八项自愿性原则:人类、社会和环境福祉;人类中心价值观;公平性;隐私保护和安全;可靠性和安全性;透明和可解释性;可争议性;问责制,是澳大利亚AI治理体系的基础。
加拿大《自动化决策指令》旨在确保联邦机构在部署自动化决策系统时能够降低对客户、机构和社会造成的风险。指令要求在采用自动化决策系统前进行算法影响评估,并强调透明度、可解释性和问责制,是全球最早的政府AI使用规范之一,已成为多国政府AI治理的参照。
《网络安全法》中涉及AI数据处理的相关条款,要求AI系统在数据收集、存储、使用方面遵守网络安全和数据保护规定。
加拿大《人工智能与数据法》草案,作为C-27法案的一部分提出,旨在规范高影响力AI系统的开发和部署,要求风险评估和透明度披露。
巴西参议院通过的AI法案草案,采用基于风险的监管方法,要求高风险AI系统进行影响评估,保护基本权利,设立国家AI管理机构。
欧盟人工智能责任指令草案旨在调整非合同民事责任规则以适应人工智能,确保因AI系统受损的个人能够获得与传统技术相同的保护水平。该草案于2022年9月提出,但已于2025年2月被欧盟委员会撤回,不再进行立法辩论。尽管如此,该草案对全球AI责任立法讨论具有重要参考价值。
加拿大《人工智能与数据法案》(AIDA)是C-27法案的一部分,旨在规范加拿大境内AI系统的设计、开发和使用,采取风险导向的监管模式,确保AI系统的安全性和非歧视性。该法案已随2025年1月加拿大联邦政府解散而终止,但其立法框架对加拿大未来AI立法具有重要参考价值。
新西兰公共服务AI框架旨在支持新西兰公共部门负责任地使用人工智能技术,提供指导以确保AI在公共服务中的应用是安全、道德和有效的,并与现有的法律和政策框架保持一致,是新西兰政府AI治理的核心文件。
澳大利亚政府发布的AI伦理框架,包含八项AI伦理原则,为企业和政府机构负责任使用AI提供指导,强调包容性、透明度和问责制。