白宫发布国家AI政策框架:建议国会统一联邦AI立法,监管风险而非算法
白宫正式发布长达87页的《国家人工智能政策框架》,这是美国联邦政府首次系统性地对AI监管问题给出全面方案。框架的核心是"联邦优先权"原则——即联邦法规将优先于各州自行制定的AI法律,结束当前加州、科罗拉多州、得克萨斯州和纽约州各自为政的监管碎片化局面。
该框架围绕四大支柱构建:创新促进、风险管理、权利保护和国际协调。在版权问题上,框架采取了"合理使用推定"立场,即AI训练使用受版权保护的材料在默认情况下被视为合理使用,除非权利持有者能够证明具体损害。这一立场明显有利于AI公司,引发了内容创作者和出版商的强烈反对。
框架还提出了与欧盟《AI法案》和中国《生成式AI管理办法》截然不同的监管哲学——美国选择了"行业自律+联邦轻触"模式,而非欧盟的"分级强制监管"或中国的"内容审查+备案制"。这三种模式的差异将深刻影响全球AI产业的竞争格局。这一决策将对全球AI监管格局产生深远影响,特别是在跨国AI企业的合规策略和国际竞争力方面。
白宫国家AI政策框架:美国AI监管的分水岭时刻
一、87页框架的四大支柱
2026年3月23日,白宫科技政策办公室(OSTP)正式发布《国家人工智能政策框架》,全文87页,标志着美国联邦政府首次对AI监管采取系统性、全面性的政策立场。此前,美国的AI政策一直停留在行政命令和各机构零散指南的层面,缺乏统一的法律框架。
框架围绕四大支柱构建:
第一支柱:创新促进(Innovation Promotion)
框架将AI创新视为国家安全和经济竞争力的核心,明确提出联邦政府不应对AI研发施加过度限制。具体措施包括:设立50亿美元的"国家AI研究基金"、简化AI初创企业的监管合规流程、以及在联邦采购中优先考虑美国AI企业的产品。框架还提出"监管沙盒"制度,允许AI公司在受控环境中测试尚未完全合规的AI系统。
第二支柱:风险管理(Risk Management)
框架采用了基于风险的分级管理方式,将AI系统分为四个风险等级:低风险(无需监管)、中风险(行业自律)、高风险(强制合规)和不可接受风险(禁止使用)。高风险类别包括:关键基础设施中的AI决策系统、执法和司法领域的AI工具、以及医疗诊断AI。但与欧盟AI法案不同,美国框架将风险评估的主要责任交给企业自身,而非政府机构。
第三支柱:权利保护(Rights Protection)
框架确认了公民在面对AI决策时的基本权利,包括:知情权(知道AI何时被用于影响自己的决策)、申诉权(对AI做出的不利决定提出异议)、以及退出权(在某些场景下选择人工服务而非AI服务)。但这些权利的具体执行机制和法律约束力仍待后续立法明确。
第四支柱:国际协调(International Coordination)
框架提出建立"AI标准联盟",联合盟国制定AI安全和伦理标准,同时在AI军事应用方面与中国建立"护栏机制"。
二、联邦优先权:终结州级监管碎片化
框架最具争议也最具影响力的条款是"联邦优先权"(Federal Preemption)原则。目前美国至少有15个州已通过或正在推进各自的AI法律:
- **加州 SB 1047**(2024年签署):要求大型AI模型开发者进行安全评估,设置"紧急停止"机制
- **科罗拉多 AI法案**(2025年生效):全美首个综合性AI监管法,要求AI决策透明度和偏见审计
- **得克萨斯 HB 2060**:禁止AI在就业决策中使用面部识别,但对其他AI应用采取放任态度
- **纽约 Local Law 144**(已修订扩展):要求自动化就业决策工具进行年度偏见审计
这种各州各行其是的局面给AI公司带来了巨大的合规成本。据行业估计,一家在全美运营的AI公司可能需要同时遵守超过40项不同的州级AI法规。联邦优先权原则意味着这些州级法律将在与联邦框架冲突的领域被取代,为AI公司提供统一的合规环境。
然而,加州和科罗拉多州的官员已公开反对这一原则,认为它剥夺了各州保护公民免受AI伤害的能力。加州总检察长办公室表示将"全力维护"SB 1047的效力,预计联邦优先权条款将面临宪法层面的法律挑战。
三、版权争议:合理使用推定的深远影响
框架在版权问题上的立场是最具行业影响力的条款之一。"合理使用推定"(Fair Use Presumption)意味着:
1. AI公司使用网络上的文本、图像、代码等受版权保护的内容来训练模型,在默认情况下被视为合理使用
2. 权利持有者如果认为自身权益受损,需要承担举证责任,证明AI训练造成了"具体的市场替代损害"
3. AI生成的内容不自动享有版权保护,但如果包含"足够的人类创造性贡献"则可获得版权
这一立场实质上为OpenAI、Google、Meta等AI巨头提供了法律庇护。《纽约时报》诉OpenAI案和Getty Images诉Stability AI案的结果可能因此受到重大影响。出版商和内容创作者联盟已发表联合声明,称这一政策"将彻底摧毁创意产业的经济基础"。
四、三大监管模式的国际比较
全球AI监管正在形成三种截然不同的模式:
美国模式:行业自律+联邦轻触
核心理念是"创新优先,风险后置"。企业对AI安全负主要责任,政府仅在高风险领域实施强制监管。优势在于给予AI企业最大的创新空间,劣势在于可能导致监管真空和公民权益保护不足。
欧盟模式:分级强制监管(EU AI Act)
2024年生效的《AI法案》将AI系统按风险分为四级,高风险AI必须通过第三方认证和符合性评估。对通用AI(GPAI)模型设有专门条款,要求透明度、版权合规和能耗报告。优势在于公民保护完善,劣势在于可能抑制创新、增加合规成本。
中国模式:内容审查+备案制
以《生成式AI管理办法》《深度合成规定》等为代表,重点在于内容安全(意识形态合规)和算法备案。所有面向公众的AI模型必须经过安全评估并向政府备案。优势在于强有力的内容管控,劣势在于限制了模型的开放性和创造性。
这三种模式的竞争将决定未来十年全球AI产业的发展格局。美国模式可能催生最多的AI创新,但也可能产生最多的AI滥用问题;欧盟模式可能打造最安全可信的AI生态,但也可能错失AI革命的先机;中国模式则在可控性和创新性之间寻求平衡。
五、行业反应与前瞻
AI行业对框架总体持欢迎态度。OpenAI、Google和Microsoft的CEO均发表声明支持联邦统一框架。但公民权利组织、工会和创意产业对版权立场和公民保护措施的力度表示担忧。
国会方面,该框架仍需通过立法程序转化为正式法律。参议院AI领导小组表示将在90天内提出对应法案,但共和党和民主党在监管力度上的分歧可能导致立法进程漫长。在此之前,框架作为行政指导文件不具有法律约束力,但将显著影响联邦机构的AI采购和监管决策。