2025年7月23日,特朗普政府发布长达23页的“美国AI行动计划”(America’s AI Action Plan),旨在通过大幅放宽监管、加速基础设施建设和扩大能源供应,推动美国在人工智能领域的全球领导地位。该计划标志着本届政府在AI战略上的重大政策转向,也是对拜登时期严格监管框架的全面重塑。
《AI行动计划》指出,美国正处于一场争夺人工智能全球主导地位的竞赛中。谁拥有最大的人工智能生态系统,谁就能制定全球人工智能标准,并获得广泛的经济和军事利益。
- 面向人工智能创新,要消除繁文缛节和苛刻监管,加大对人工智能驱动的科学研究的投资力度,构建世界级科学数据集,推动人工智能应用,保证美国的工人及其家庭能够从这场技术革命创造的机遇中获益。
- 面向基础设施建设,要在简化人工智能基础设施的审批流程的同时保障安全,需着重发展与人工智能创新速度相匹配的电网,为军事和情报界建设高安全性数据中心,并将半导体制造业带回美国本土。
- 面向全球博弈,须推动美国人工智能系统、计算硬件和标准在全球范围内的采用,鼓励合作伙伴和盟友遵循美国的管制措施,而非进行填补。《AI行动计划》将遏制中国的影响力,在国际AI外交和安全事务中确立“霸主”地位视作主要目标之一,为此提出多项限制性措施:如有针对性的禁用中国大模型;加强人工智能计算与半导体制造的出口管制;推广“反映美国价值观的AI治理标准”等等。
该计划由白宫AI事务负责人戴维·萨克斯(David Sacks)牵头制定,历经数月征求科技企业与行业领袖意见,核心围绕三大支柱:加速AI创新、建设本土AI基础设施、确立美国技术为全球标准。
为加快AI数据中心等关键项目建设,政府将改革联邦和州级许可流程,简化环境审查标准,打破“繁文缛节”。对于被认定对AI发展设置过度障碍的州,联邦政府或将停止相关拨款,以施加政策压力。
《AI行动计划》其中,能源保障被列为战略重点。随着AI计算需求激增,数据中心用电量预计到2035年将占全美电力消耗的8.6%,远超当前3.5%的水平。为此,计划提出优先发展核能、先进地热及天然气等稳定能源,延长已计划关闭的燃煤与核电站运营期限,并动用紧急权力确保电力供应稳定。
此举被视为特朗普兑现竞选承诺的关键一步,旨在将美国打造为全球AI中心。
白宫颁布《美国AI行动计划》,剑指中美对抗(原文:Just like we won the space race, it is imperative that the United States and its allies win this race.)正如我们曾赢得太空竞赛,美国及其盟友也必须赢得这场AI竞赛,美国必须利用已有优势,建立一个持久的全球联盟,同时防止对手搭乘我们的创新和投资便车。(It is imperative that the United States leverage this advantage into an enduring global alliance, while preventing our adversaries from free-riding on our innovation and investment)
以下为要点总结:
具体来说,《AI行动计划》的三大核心支柱分别是:
第一支柱:加速AI创新
白宫提出一系列措施以加速AI创新发展,包括:删除繁文缛节与繁重监管;确保前沿AI系统保障言论自由与美式价值;鼓励开源与“开放权重”AI系统;促进AI广泛应用;培养AI时代的美国劳动力;支持下一代智能制造;投资AI驱动科学研究;建立世界级科学数据集;推动AI可解释性、可控性与稳健性技术突破;构建AI评估生态体系;加速AI在政府中的采纳;推动AI在国防部的应用;保护商业与政府AI创新;打击法律系统中的合成媒体。
第二支柱:建设美国AI基础设施
相关措施包括:简化数据中心、半导体制造设施和能源基础设施的审批流程,同时保障安全;发展与AI创新速度相匹配的电网;恢复美国半导体制造业;为军事和情报界建设高安全性数据中心;培养AI基础设施所需的熟练劳动力;加强关键基础设施网络安全;推广安全设计的AI技术和应用;提升联邦政府应对AI事件的成熟能力。
第三支柱:在国际AI外交和安全中发挥领导作用
相关措施包括:向盟友和伙伴出口美国AI;在国际治理机构中对抗中国影响力;加强AI计算出口管制执行;堵塞现有半导体制造出口管制中的漏洞;确保美国政府在评估前沿模型国家安全风险方面处于领先地位;全球协调保护措施;投资生物安全。
这份行动计划不仅旨在提升美国在AI领域的全球主导力,也强调了在推进技术发展的同时对国家安全、产业就业、监管改革等维度的全面考量。特朗普政府此举被视为对中美科技竞争加剧背景下的一次系统性战略部署。
该行动计划中的重点政策包括:
一、推动AI出口。美国商务部和国务院将与产业界合作,向全球盟友和伙伴出口“完整、安全的AI堆栈产品”,包括硬件、模型、软件、应用和标准。
二、加速建设数据中心与半导体工厂。政策将包括加快数据中心与芯片厂建设许可流程,进行现代化改革;并通过国家倡议提升高需求职业的劳动力储备,例如电工和暖通(HVAC)技术人员。
三、减少监管障碍。该计划将推动废除妨碍AI发展和应用的繁重联邦监管规定,并寻求私营部门在规则修订上的建议。
四、捍卫边界模型中的言论自由。联邦采购指南将被更新,确保政府仅与那些保证系统客观、无上层意识形态偏见的大语言模型开发者签约。
值得一提的是,特朗普此前在华盛顿举行的“赢得AI竞赛”峰会上强调,开发AI模型的企业必须在模型训练方面遵循统一的联邦规则。特朗普表示:“你不可能指望开发成功的AI模型还要一个个地与内容提供方谈判授权。”他的言论针对的是AI企业与出版商之间日益增长的诉讼纠纷。例如,微软支持的OpenAI正面临《纽约时报》发起的版权侵权诉讼,该诉讼指控微软与OpenAI在训练AI模型过程中非法使用了该报内容。
白宫人工智能与加密货币事务专员大卫·萨克斯(David Sacks)表示:“为了保持全球领先的经济和军事力量地位,美国必须赢得AI竞赛。特朗普总统要求我们制定这份行动计划。赢得AI竞赛的关键是:创新、基础设施和全球伙伴关系,并确保AI始终以美国工人为中心,避免走向奥威尔式的滥用。”
此外,文件还引用了一段由特朗普科技顾问迈克尔·克拉修斯(Michael Kratsios)、大卫·萨克斯及国家安全事务助理马可·卢比奥(Marco Rubio)共同签署的声明:“我们必须建设并维护庞大的AI基础设施及支撑其运行的能源体系。为此,我们将继续拒绝激进气候教条和官僚主义障碍——这正是本届政府从就职日以来一贯坚持的立场。简而言之,‘建设!建设!建设!’(Build, Baby, Build!)”
以下是译文 & 原文:
美国AI行动计划
2025年7月
白宫
“今天,科学发现的新前沿正展现在我们面前,它由人工智能(AI) 等变革性技术所定义。这些领域的突破性进展,有潜力重塑全球力量格局,催生全新产业,并彻底变革我们的生活和工作方式。鉴于全球竞争对手正竞相利用这些技术,对美国而言,实现并维持无可置疑、无可挑战的全球技术主导地位,是一项国家安全当务之急。为确保我们的未来,我们必须充分发挥美国创新的全部力量。”
唐纳德·J·特朗普
美国第45任及第47任总统
特朗普做序
目录
引言
其一:加速AI创新
* 消除繁文缛节和繁重监管
* 确保前沿AI保护言论自由和美国价值观
* 鼓励开源和开放模型权重AI
* 推动AI应用
* 赋能AI时代的美国工人
* 支持下一代制造业
* 投资AI赋能的科学
* 建设世界级科学数据集
* 推进AI科学
* 投资AI可解释性、可控性与鲁棒性突破
* 建设AI评估生态系统
* 加速政府部门AI应用
* 推动国防部内部AI应用
* 保护商业和政府AI创新
* 打击法律系统中的合成媒体
其二:建设美国AI基础设施
* 简化数据中心、半导体制造设施和能源基础设施建设许可审批,同时确保安全
* 发展电网以匹配AI创新速度
* 恢复美国半导体制造业
* 为军事和情报界用途建设高安全数据中心
* 培养AI基础设施熟练劳动力
* 加强关键基础设施网络安全
* 推广安全设计AI技术与应用
* 提升联邦政府AI事件响应成熟能力
其三:引领国际AI外交与安全
* 向盟友和合作伙伴出口美国AI
* 反制中国在国际治理机构中的影响力
* 加强AI计算出口管制执法
* 堵塞现有半导体制造出口管制漏洞
* 在全球范围内统一保护措施
* 确保美国政府在评估前沿模型国家安全风险方面处于最前沿
* 投资生物安全
目录
引言
美国正处于一场竞逐人工智能(AI)全球主导地位的竞赛之中。谁拥有最庞大的AI生态系统,谁就能制定全球AI标准,并从中获得广泛的经济和军事利益。正如我们曾赢得太空竞赛,美国及其盟友也必须赢得这场AI竞赛。
特朗普总统上任伊始便采取了果断措施,迈出了实现这一目标的关键一步。他签署了《EO 14179号行政命令——消除美国在AI领域领导地位的障碍》,明确呼吁美国在这场全球竞赛中保持主导地位,并指示制定一项AI行动计划。
赢得AI竞赛将为美国人民开启人类繁荣、经济竞争力与国家安全的新黄金时代。
• AI将带来一场工业革命:它将使美国人能够发现新材料、合成新化学品、制造新药物,并开发利用能源的新方法。
• AI将带来一场信息革命:它将催生彻底的教育、媒体和通信新形式。
• AI将带来一场文艺复兴:它将实现全新的智力成就,例如解读一度被认为无法阅读的古代卷轴,在科学和数学理论上取得突破,以及创造新型数字和实体艺术。
一场工业革命、一场信息革命和一场文艺复兴——这一切同时发生。这就是AI所蕴含的巨大潜力。摆在我们面前的机遇既令人振奋,也令人敬畏。我们必须抓住它,否则将错失良机。
《美国AI行动计划》 包含三大核心支柱:创新、基础设施以及国际外交与安全。
首先,在各个领域的新AI技术开发和推广方面,美国需要比竞争对手更快、更全面地进行创新,并拆除阻碍私营部门发展的非必要监管壁垒。正如副总统万斯在2月巴黎AI行动峰会上所言,用繁重监管限制AI发展,“不仅会不公平地使现有企业受益,更意味着扼杀我们几十年来所见最有前途的技术之一。”这正是特朗普总统在就职第一天就废除了拜登政府危险举措的原因。
其次,我们需要建设并维护庞大的AI基础设施及其所需的能源。为此,本届政府将一如既往地,自就职日起便持续拒绝激进的气候教条和官僚繁文缛节。简而言之,我们需要“大建特建!”
最后,我们需要将美国的AI技术——从先进的半导体到模型再到应用——确立为全球AI的黄金标准,并确保我们的盟友以美国技术为基础进行建设。
贯穿这三大支柱,有几项核心原则:
1. 美国工人是特朗普政府AI政策的核心。 本届政府将确保我国工人及其家庭从这场技术革命创造的机遇中获益。AI基础设施的建设将为美国工人创造高薪就业机会。而AI将在医学、制造业以及许多其他领域实现的突破,将提高所有美国人的生活水平。AI将通过辅助工作而非取代工作来改善美国人的生活。
2. 我们的AI系统必须摆脱意识形态偏见,在用户寻求事实信息或分析时,应以追求客观真相而非社会工程议程为目标。AI系统正成为不可或缺的工具,深刻塑造着美国人获取信息的方式,但这些工具也必须是值得信赖的。
3. 我们必须防止先进技术被恶意行为者滥用或窃取,并警惕AI带来的新兴和不可预见的风险。做到这一点需要持续的警惕性。
本行动计划为联邦政府的近期执行设定了明确的政策目标。它旨在阐明本届政府可为美国人民实现的政策建议,以达成总统关于全球AI主导地位的愿景。AI竞赛是美国必将赢得的,本行动计划是我们通向胜利的路线图。
迈克尔·J·克拉西奥斯
总统科学技术助理
大卫·O·萨克斯
AI和加密技术特别顾问
马可·A·卢比奥
总统国家安全事务助理
引言1/2
引言2/2
其一:加速AI创新
美国必须拥有世界上最强大的AI系统,同时也要在全球AI系统的创新和变革性应用方面保持领先。实现这些目标需要联邦政府为私营部门主导的创新蓬勃发展创造条件。
消除繁文缛节和繁重监管
为保持AI领域的全球领导地位,美国私营部门必须摆脱官僚繁文缛节的束缚。特朗普总统已为此采取多项措施,包括废除了拜登政府的EO 14110号行政命令,该命令预示着一个繁重的监管制度。AI在早期阶段至关重要,不应被官僚体制所扼杀,无论是州级还是联邦级。联邦政府不应允许将与AI相关的联邦资金导向那些拥有繁重AI法规、导致资金浪费的州,但也不应干预各州通过不 unduly restrictive to innovation 的审慎法律的权利。
建议政策行动
• 在科学技术政策办公室(OSTP) 的领导下,面向企业和公众启动信息征集(Request for Information),收集当前阻碍AI创新和应用的联邦法规信息,并与相关联邦机构合作采取适当行动。
• 在管理和预算办公室(OMB) 的领导下,并与《EO 14192号行政命令——通过放松管制释放繁荣》保持一致,与所有联邦机构合作,识别、修订或废除不必要阻碍AI开发或部署的法规、规章、备忘录、行政命令、指导文件、政策声明和机构间协议。
• 在OMB的领导下,与拥有AI相关自由裁量资助计划的联邦机构合作,确保在适用法律允许的范围内,其在做出资助决定时考虑各州的AI监管环境,并在州的AI监管制度可能阻碍资助或奖励效力的情况下限制资金。
• 在联邦通信委员会(FCC) 的领导下,评估各州的AI法规是否干扰了该机构履行《1934年通信法》规定的义务和权限。
• 审查上届政府启动的所有联邦贸易委员会(FTC) 调查,确保它们不推行不当阻碍AI创新的责任理论。此外,审查所有FTC最终命令、同意令状和禁令,并在适当情况下,寻求修改或撤销任何不当阻碍AI创新的命令。
Page 3
确保前沿AI保护言论自由和美国价值观
AI系统将在我们教育子女、完成工作和获取媒体信息方面发挥深远作用。至关重要的是,这些系统应从设计之初就考虑到言论自由和表达,并且美国政府政策不应干预这一目标。我们必须确保言论自由在AI时代蓬勃发展,并确保联邦政府采购的AI客观反映真相,而非社会工程议程。
建议政策行动
• 在商务部(DOC) 通过美国国家标准与技术研究院(NIST) 的领导下,修订NIST AI风险管理框架,消除对错误信息(misinformation)、多元化、公平与包容(Diversity, Equity, and Inclusion)以及气候变化的提及。
• 更新联邦采购指南,确保政府仅与那些确保其系统客观且没有自上而下意识形态偏见的前沿大型语言模型(LLM)开发商签订合同。
• 在DOC通过NIST的AI标准与创新中心(CAISI) 的领导下,进行研究并在适当情况下发布对中华人民共和国前沿模型与中国共产党宣传论调和审查制度一致性的评估报告。
鼓励开源和开放模型权重AI
开源(Open-Source) 和开放模型权重(Open-Weight)AI模型由开发者免费提供,供世界各地任何人下载和修改。以这种方式发布的模型对创新具有独特价值,因为初创企业可以灵活使用它们,而不必依赖封闭模型提供商。它们还有利于商业和政府对AI的应用,因为许多企业和政府拥有敏感数据,无法发送给封闭模型供应商。它们对于学术研究也至关重要,学术研究往往依赖于获取模型的权重和训练数据来进行严谨的科学实验。
我们需要确保美国拥有基于美国价值观的领先开放模型。开源和开放模型权重模型可能成为全球某些商业领域和学术研究的全球标准。因此,它们也具有地缘战略价值。虽然是否以及如何发布开放或封闭模型的决定根本上取决于开发者,但联邦政府应为开放模型创造一个支持性环境。
Page 4
建议政策行动
• 通过改善计算资源金融市场,确保初创企业和学术界能够获取大规模计算能力。当前,寻求使用大规模计算能力的公司通常必须与超大规模服务商(hyperscalers) 签订长期合同——这远远超出了大多数学术机构和许多初创企业的预算范围。美国以前通过金融市场解决了其他商品的问题,例如大宗商品现货和远期市场。通过与行业、DOC的NIST、OSTP以及国家科学基金会(NSF) 的国家AI研究资源(NAIRR)试点项目的合作,联邦政府可以加速健康计算资源金融市场的成熟。
• 与领先科技公司合作,作为NAIRR试点项目的一部分,增加研究界对世界级私营部门计算、模型、数据和软件资源的访问。
• 为精简且可持续的NAIRR运营能力奠定基础,使其能够连接全国范围内越来越多的研究人员和教育工作者,获取关键AI资源。
• 在OSTP的领导下,发布新的国家AI研发(R&D)战略计划,指导联邦AI研究投资,以继续推动下一代AI突破。
• 在DOC通过国家电信和信息管理局(NTIA) 的领导下,召集利益相关者,帮助推动中小型企业(small and medium-sized businesses) 采用开源和开放模型权重模型。
推动AI应用
如今,释放AI全部潜力的瓶颈并非模型、工具或应用的可用性。相反,是AI应用范围的有限和速度缓慢,尤其是在大型、成熟组织内部。美国许多最关键的部门,如医疗保健,由于对技术的不信任或缺乏理解、复杂的监管环境以及缺乏明确的治理和风险缓解标准等多种因素,应用速度尤其缓慢。一项协调一致的联邦努力将有助于在美国各行业建立一种动态的“先试先行”文化,以推动AI的应用。
建议政策行动
• 在全国范围内建立监管沙盒或AI卓越中心(AI Centers of Excellence),供研究人员、初创企业和成熟企业快速部署和测试AI工具,同时承诺开放共享数据和结果。这些工作将由食品药品监督管理局(FDA) 和证券交易委员会(SEC) 等监管机构推动,并得到DOC通过其NIST的AI评估计划的支持。
• 在DOC的NIST的领导下,启动多项特定领域行动(例如,在医疗保健、能源和农业领域),召集广泛的公共、私营和学术利益相关者,加速AI系统国家标准的制定和应用,并衡量AI在这些领域实际任务中提高生产力的程度。
• 在国防部(DOD) 与国家情报总监办公室(ODNI) 的协调下,定期更新DOD-情报界(IC)联合评估,以衡量美国、其竞争对手及其对手国家安全机构对AI工具的相对应用水平,并根据这些AI综合评估,制定DOD和IC各自AI应用举措的持续适应方法。
• 通过IC、能源部(DOE)、DOC的CAISI、国家安全委员会(NSC) 和OSTP之间的协作,优先收集和分发可能具有国家安全影响的外国前沿AI项目情报。
Page 5
赋能AI时代的美国工人
特朗普政府支持以工人为中心的AI议程。 通过加速生产力并创造全新的产业,AI可以帮助美国建立一个为美国工人提供更多经济机会途径的经济体。但它也将改变所有行业和职业的工作方式,需要严肃的劳动力应对措施来帮助工人应对这一转型。特朗普政府已在这方面迈出重要步伐,包括2025年4月签署的《EO 14277号行政命令——推进美国青年的AI教育》 和《EO 14278号行政命令——为未来高薪技能贸易工作培养美国人》。为继续实现这一愿景,特朗普政府将推进一系列优先行动,以扩大AI素养和技能发展,持续评估AI对劳动力市场的影响,并试点新创新,以快速再培训并帮助工人在AI驱动的经济中蓬勃发展。
建议政策行动
• 在劳工部(DOL)、教育部(ED)、NSF和DOC的领导下,将AI技能发展作为相关教育和劳动力资金流的核心目标。这应包括促进AI技能发展融入相关项目,包括职业和技术教育(CTE)、劳动力培训、学徒制以及其他联邦支持的技能倡议。
• 在财政部的领导下,发布指导意见,阐明鉴于AI对所有行业和职业所需任务和技能的广泛重塑影响,许多AI素养和AI技能发展项目可能符合《国内税收法》第132条规定的合格教育援助。在适用情况下,这将使雇主能够为AI相关培训提供免税报销,并有助于扩大私营部门在AI技能发展方面的投资,从而为美国工人保留就业机会。
• 在劳工统计局(BLS) 和DOC通过人口普查局(Census Bureau) 和经济分析局(BEA) 的领导下,利用它们已经收集的关于这些主题的数据,例如人口普查局在其《商业趋势与展望调查》中追踪的企业级AI应用趋势,研究AI对劳动力市场的影响。这些机构随后可以提供关于AI应用、就业创造、取代和工资影响的分析。
• 在DOL下建立AI劳动力研究中心(AI Workforce Research Hub),在BLS和DOC通过人口普查局和BEA的协作下,领导一项持续的联邦努力,评估AI对劳动力市场和美国工人体验的影响。该中心将定期进行分析,为一系列潜在的AI影响水平进行情景规划,并产生可操作的见解,为劳动力和教育政策提供信息。
• 在DOL的领导下,在适当情况下,利用可用的自由裁量资金,为受AI相关就业岗位流失影响的个人提供快速再培训。发布澄清性指导意见,帮助各州识别因AI应用而经历重大结构性变化的行业中符合条件的失业工人,以及澄清各州“快速响应(Rapid Response)” 资金如何用于主动提升面临未来失业风险工人的技能。
• 在DOL和DOC,快速试点解决AI带来的劳动力挑战的新方法,这可能包括工人流失驱动的快速再培训需求以及入门级职位技能要求变化等领域。这些试点应由各州和劳动力中介机构利用《劳动力创新和机会法案》和《公共工程和经济发展法案》下的现有授权进行,并应旨在识别可扩展的、绩效驱动的策略,以帮助劳动力系统适应AI驱动的劳动力市场变化的速度和复杂性。
Page 6
支持下一代制造业
AI将促成物理世界中一系列新的创新:自主无人机、自动驾驶汽车、机器人技术以及其他尚未有专有名词的发明。至关重要的是,美国和我们值得信赖的盟友必须成为这些下一代技术的世界级制造商。AI、机器人技术及相关技术为制造业和物流业创造了新的能力,包括那些应用于国防和国家安全的能力。联邦政府应优先投资这些新兴技术,并开启一场新的工业复兴。
建议政策行动
• 通过DOD、DOC、DOE、NSF及其他联邦机构,利用小型企业创新研究计划(Small Business Innovation Research program)、小型企业技术转让计划(Small Business Technology Transfer program)、研究拨款、CHIPS研发(R&D)计划、《史蒂文森-怀德勒技术创新法》(Stevenson-Wydler Technology Innovation Act)授权、《国防生产法》(Defense Production Act)第三章、其他交易授权(Other Transaction Authority) 以及其他授权,投资开发和扩大基础和转化制造技术。
• 在DOC通过NTIA的领导下,召集行业和政府利益相关者,识别美国机器人和无人机制造面临的供应链挑战。
Page 7
投资AI赋能的科学
像许多其他领域一样,科学本身也将被AI所改变。AI系统已经能够生成蛋白质结构、新型材料等模型。日益强大的通用模型有望用于形成假设和设计实验。这些新生的能力有望加速科学进步。然而,只有在科学进行方式发生关键变化,包括启用科学基础设施的情况下,它们才能实现这一点。如果科学家无法同时扩大实验规模,那么AI赋能的预测作用甚微。当今的基础科学通常是一个劳动密集型过程;AI时代将需要更多的科学和工程研究,将理论转化为工业规模的企业。反过来,这将需要新的基础设施和对新型科学组织的支持。
建议政策行动
• 通过NSF、DOE、DOC的NIST及其他联邦合作伙伴,投资于一系列科学领域的自动化云端实验室,包括工程学、材料科学、化学、生物学和神经科学,由私营部门、联邦机构和研究机构酌情与DOE国家实验室(DOE National Laboratories) 协调合作建设。
• 利用长期协议支持重点研究机构(Focused-Research Organizations) 或其他类似实体,利用AI和其他新兴技术取得基础科学突破。
• 通过在审查新项目提案时考虑研究人员先前资助项目中的科学和工程数据集的影响,激励研究人员公开更多高质量数据集。
• 要求联邦资助的研究人员在研究和实验过程中,披露AI模型使用的非专有、非敏感数据集。
Page 8
建设世界级科学数据集
高质量数据已成为国家战略资产,因为各国政府都在追求AI创新目标并利用该技术的经济效益。包括我们对手在内的其他国家在积累大量科学数据方面已经超越我们。美国必须引领世界创建规模最大、质量最高的AI就绪科学数据集,同时尊重个人权利并确保公民自由、隐私和保密保护。
建议政策行动
• 指示国家科学技术委员会(NSTC) 机器学习和AI小组委员会就生物、材料科学、化学、物理及其他科学数据模态在AI模型训练中使用时的最低数据质量标准提出建议。
• 颁布《2018年保密信息保护和统计效率法案》中OMB要求的关于可访问性推定和扩大安全访问的法规,这将降低获取联邦数据的壁垒并打破信息孤岛,最终促进统计机构更好地利用AI进行证据建设,同时保护机密数据免遭不当访问和使用。
• 在NSF和DOE内部建立安全计算环境,以实现对受限联邦数据进行受控访问的AI用例。
• 为NSF的国家安全数据服务(NSDS)示范项目创建一个在线门户,为公众和联邦机构提供一个访问涉及受限联邦数据受控访问的AI用例的“前门”。
• 在NSTC的领导下,探索为联邦土地上的生命创建一个全基因组测序计划的可能性,并包括美国农业部、DOE、国立卫生研究院(NIH)、NSF、内政部以及合作生态系统研究单位(Cooperative Ecosystem Studies Units) 的成员,以合作开发一项倡议,建立一个针对联邦土地上生命(包括所有生物领域)的全基因组测序计划。这些新数据将成为训练未来生物基础模型的宝贵资源。
推进AI科学
正如大型语言模型(LLM) 和生成式AI系统代表着AI科学的范式转变一样,未来的突破也可能类似地改变AI的可能性。美国必须保持在此类突破中的领先地位,而这始于对前沿最有前景路径的战略性、定向投资,并将其体现在即将发布的国家AI研发(R&D)战略计划中。
建议政策行动
• 优先投资理论、计算和实验研究,以保持美国在发现新颖和变革性范式以提升AI能力方面的领导地位,并在即将发布的国家AI研发(R&D)战略计划中体现这一优先事项。
投资AI可解释性、可控性与鲁棒性突破
如今,前沿AI系统的内部运作机制尚不清楚。技术人员大致了解LLM的工作原理,但通常无法解释模型为何会产生特定输出。这使得预测任何特定AI系统的行为变得困难。这种缺乏可预测性反过来又使得在国防、国家安全或其他涉及生命安危的应用中使用先进AI具有挑战性。如果我们能在这些研究问题上取得根本性突破,美国将能更好地在高风险国家安全领域充分发挥AI系统的潜力。
建议政策行动
• 由国防高级研究计划局(DARPA) 牵头,与DOC的CAISI和NSF合作,启动一项技术开发计划,以推进AI可解释性、AI控制系统和对抗鲁棒性。
• 将AI可解释性、可控性和鲁棒性的基础进步作为即将发布的国家AI研发(R&D)战略计划的一部分优先考虑。
• DOD、DOE、DOC的CAISI、国土安全部(DHS)、NSF和学术合作伙伴应协调一项AI黑客马拉松倡议,征集美国学术界最优秀的人才,以测试AI系统的透明度、有效性、使用控制和安全漏洞。
Page 9
建设AI评估生态系统
评估是AI行业衡量AI系统性能和可靠性的方式。 严谨的评估可以成为在受监管行业中定义和衡量AI可靠性和性能的关键工具。随着时间的推移,监管机构应探索在其适用现有法律于AI系统时,使用评估。
建议政策行动
• 通过DOC的NIST(包括CAISI),发布指南和资源,供联邦机构根据其独特的任务和操作以及符合现有法律进行自身AI系统评估。
• 由DOC的NIST、DOE、NSF及其他联邦科学机构牵头,支持AI模型测量和评估科学的发展。
• 在DOC的CAISI主持下,每年至少召开两次会议,供联邦机构和研究界分享AI评估建设方面的经验和最佳实践。
• 通过DOE和NSF,投资开发AI测试平台,用于在安全、真实环境中试点AI系统,使研究人员能够原型化新AI系统并将其转化为市场。此类测试平台将鼓励广泛的多利益相关方团队参与,并涵盖AI所涉及的各种经济垂直领域,包括农业、交通和医疗保健交付。
• 在DOC的领导下,召集NIST AI联盟,以赋能协作建立新的计量科学,从而识别经过验证、可扩展和可互操作的技术和指标,以促进AI发展。
Page 10
加速政府部门AI应用
随着AI工具的应用,联邦政府可以以更高的效率和效能为公众服务。用例包括加速缓慢且通常是手动进行的内部流程、简化公共互动等等。总而言之,AI的变革性应用有助于提供美国人民期望和应得的高度响应型政府。OMB已经通过减少拜登政府施加的繁重规则,推动了政府AI的应用。现在是时候在此成功基础上再接再厉。
建议政策行动
• 将首席人工智能官委员会(CAIOC) 正式化,作为机构间AI应用协调和协作的主要场所。通过CAIOC,启动与相关联邦行政委员会的战略协调和协作,包括:总统管理委员会(President’s Management Council)、首席数据官委员会(Chief Data Officer Council)、首席信息官委员会(Chief Information Officer Council)、机构间统计政策委员会(Interagency Council on Statistical Policy)、首席人力资本官委员会(Chief Human Capital Officer Council)和联邦隐私委员会(Federal Privacy Council)。
• 在人事管理办公室(Office of Personnel Management) 的建议下,创建一个人才交流计划,旨在允许联邦工作人员快速借调到需要专业AI人才(例如,数据科学家和软件工程师)的其他机构。
• 创建一个由总务管理局(GSA) 与OMB协调管理的AI采购工具箱,以尽可能地促进联邦企业范围内的统一性。该系统将允许任何联邦机构轻松选择多种模型,同时符合相关隐私、数据治理和透明度法律。机构还应拥有充足的灵活性来根据自身需求定制模型,并查看其他机构的AI使用目录(基于OMB现有的AI Use Case Inventory)。
• 与GSA合作实施一项先进技术转移和能力共享计划,以在机构之间快速转移先进AI能力和用例。
• 强制要求所有联邦机构,在最大程度上,确保所有其工作可从前沿语言模型中受益的员工都能够访问并获得此类工具的适当培训。
• 在OMB的主持下,召集一批拥有高影响力服务提供者(High Impact Service Providers) 的机构,试点并增加AI的使用,以改善对公众的服务交付。
Page 11
推动国防部内部AI应用
AI有潜力改变DOD的作战和后台运营。美国必须在其武装部队内部积极采用AI,以保持其全球军事领先地位,同时确保,如本行动计划所概述,其AI使用是安全可靠的。由于DOD在联邦政府中拥有独特的作战需求,因此其AI应用值得采取具体的政策行动。
建议政策行动
• 识别DOD劳动力大规模利用AI所需的才能和技能。在此识别基础上,实施人才发展计划,以满足AI劳动力需求并推动AI赋能能力的有效运用。
• 在DOD建立AI与自主系统虚拟试验场(AI & Autonomous Systems Virtual Proving Ground),首先要确定该设施所需的技术、地理、安全和资源要求。
• 在DOD内部制定一个简化流程,用于分类、评估和优化其主要作战和使能功能中的工作流程,旨在制定一份优先自动化AI工作流程清单。当一个工作流程成功实现自动化后,DOD应努力尽快将该工作流程永久性过渡到基于AI的实施方案。
• 优先与云服务提供商、计算基础设施运营商及其他相关私营部门实体签订DOD主导的协议,以在国家紧急状态下制定计算资源的优先访问权,从而使DOD在重大冲突期间能够充分利用这些技术。
• 将我们的高级军事院校(Senior Military Colleges) 发展成为AI研究、开发和人才培养的中心,向未来世代传授核心AI技能和素养。在高级军事院校的各专业中,培养AI特定课程,包括AI使用、开发和基础设施管理。
保护商业和政府AI创新
维护美国在AI领域的领导地位,要求美国政府与行业密切合作,妥善平衡尖端AI技术的传播与国家安全关切。同时,美国政府也必须有效应对美国AI公司、人才、知识产权和系统面临的安全风险。
建议政策行动
• 在DOD、DHS、DOC的CAISI及IC其他适当成员的领导下,与领先的美国AI开发商合作,赋能私营部门积极保护AI创新免受安全风险,包括恶意网络行为者、内部威胁等。
打击法律系统中的合成媒体
许多美国人已经意识到AI的一个风险是恶意深度伪造(deepfakes),无论是音频、视频还是照片。虽然特朗普总统已经签署了《TAKE IT DOWN法案》,该法案由第一夫人梅拉尼娅·特朗普倡导,旨在防止色情、非自愿的深度伪造,但仍需要采取额外行动。特别是,AI生成媒体可能对法律系统带来新的挑战。例如,虚假证据可能被用来试图剥夺原告和被告的公正。本届政府必须为法院和执法部门提供应对这些新挑战所需的工具。
建议政策行动
• 在DOC的NIST的领导下,考虑将NIST的《法证证据守护者》(Guardians of Forensic Evidence) 深度伪造评估计划发展为正式指南和配套的自愿性法证基准。
• 在司法部(DOJ) 的领导下,向从事裁决的机构发布指导意见,探讨采用类似于证据规则咨询委员会(Advisory Committee on Evidence Rules) 正在审议的拟议《联邦证据规则》第901(c)条的深度伪造标准。
• 在DOJ法律政策办公室的领导下,就《联邦证据规则》中任何拟议的深度伪造相关增补提交正式意见。
Page 12
Page 13
其二:建设美国AI基础设施
AI是现代生活中第一个挑战美国需要建设比目前规模大得多的能源生产能力的数字服务。自20世纪70年代以来,美国的能源容量停滞不前,而中国则迅速扩大了其电网规模。美国实现AI主导地位的道路取决于改变这一令人担忧的趋势。
简化数据中心、半导体制造设施和能源基础设施建设许可审批,同时确保安全
像过去大多数通用技术一样,AI将需要新的基础设施——芯片生产工厂、运行这些芯片的数据中心,以及为所有这些提供动力的新能源。美国的环保许可审批制度和其他法规使得在美国以所需的速度建设这些基础设施几乎不可能。此外,这些基础设施的建设绝不能使用任何可能损害美国AI主导地位的对手技术。
幸运的是,特朗普政府在改革这一制度方面取得了前所未有的进展。自上任以来,特朗普总统已经改革了几乎所有相关联邦机构的《国家环境政策法》(NEPA) 法规,启动了许可技术现代化计划,创建了国家能源主导委员会(NEDC),并启动了美国投资加速器(United States Investment Accelerator)。现在是时候在此基础上再接再厉了。
建议政策行动
• 根据NEPA设立新的分类豁免(Categorical Exclusions),涵盖通常对环境没有重大影响的数据中心相关行动。在可能的情况下,采用其他机构已设立的分类豁免,以便每个相关机构能够以最高效率进行。
• 扩大FAST-41流程的使用范围,涵盖《2015年美国地面交通法案》(Fixing America’s Surface Transportation Act of 2015)中所有符合条件的数据中心和数据中心能源项目。
• 探讨是否有必要为数据中心设立全国范围的《清洁水法》(Clean Water Act)第404条许可,如果采纳,则确保该许可不要求施工前通知(Pre-Construction Notification),并涵盖与现代AI数据中心规模相符的开发场地。
• 通过简化或减少根据《清洁空气法》(Clean Air Act)、《清洁水法》、《综合环境响应、赔偿和责任法》(Comprehensive Environmental Response, Compensation, and Liability Act)及其他相关法律颁布的法规,加快环境许可审批。
• 通过指示拥有大量土地的机构识别适合大规模开发的地点,开放联邦土地用于数据中心建设以及为这些数据中心建设发电基础设施。
• 维护安全护栏,禁止对手向此类基础设施注入敏感输入。确保国内AI计算堆栈建立在美国产品之上,并且支持AI开发的能源和电信等基础设施免受外国对手信息和通信技术与服务(ICTS)——包括软件和相关硬件——的影响。
• 扩大将AI应用于加速和改进环境审查的工作,例如通过扩大参与DOE的PermitAI项目的机构数量。
Page 14
发展电网以匹配AI创新速度
美国电网是地球上最大、最复杂的机器之一。它也需要升级以支持数据中心和未来其他能源密集型产业。电网是现代经济的命脉和国家安全的基石,但它正面临多重挑战,需要战略远见和果断行动。电气化和AI技术进步带来的需求升级正在增加电网压力。美国必须制定一项综合战略,以增强和扩展电网,这不仅是为了应对这些挑战,更是为了确保电网未来的持续强大和容量增长。
建议政策行动
• 尽可能稳定当前的电网。 这一初始阶段承认需要保障现有资产,并确保不间断且可负担的电力供应。美国必须防止关键发电资源过早退役,并探索创新方式利用现有容量,例如利用现有备用电源在用电高峰期增强电网可靠性。稳定电网的关键要素是确保电网的每个角落都符合全国范围内的资源充足性标准,并确保全国范围内始终有充足的发电能力。
• 尽可能优化现有电网资源。 这包括实施策略以提高输电系统的效率和性能。美国必须探索诸如先进电网管理技术和输电线路升级等解决方案,这些方案可以增加沿现有线路输送的电量。此外,美国应研究大型电力消费者在电网关键时期管理其用电量的新颖方式,以增强可靠性并释放系统中的额外电力。
• 优先互联可靠、可调度电源,并拥抱技术前沿的新能源发电来源(例如,增强型地热、核裂变和核聚变)。改革电力市场,使财政激励与电网稳定目标保持一致,确保对发电的投资反映系统的需求。
• 创建一份战略蓝图,以应对21世纪复杂的能源格局。通过稳定当前电网、优化现有电网资源,并为未来发展电网,美国能够迎接赢得AI竞赛的挑战,同时为所有美国人提供可靠且可负担的电网。
Page 15
恢复美国半导体制造业
美国通过半导体的发明开启了现代技术时代。现在,美国必须将半导体制造业带回美国本土。一个重振的美国芯片产业将创造数千个高薪工作,巩固我们的技术领先地位,并保护我们的供应链免受外国对手的干扰。特朗普政府将领导这场复兴,同时避免为美国纳税人带来糟糕的交易,或将广泛的意识形态议程强加于企业。
建议政策行动
• 在DOC重组后的CHIPS计划办公室的领导下,继续专注于为美国纳税人带来强劲的投资回报,并取消CHIPS资助半导体制造项目的所有无关紧要的政策要求。DOC及其他相关联邦机构还应合作简化阻碍半导体制造工作的法规。
• 在DOC的领导下,审查半导体拨款和研究计划,确保它们加速先进AI工具融入半导体制造。
为军事和情报界用途建设高安全数据中心
由于AI系统在处理原始情报数据方面特别适用,并且考虑到AI系统未来可能拥有的极大扩展能力,AI很可能会与美国政府最敏感的数据一起使用。部署这些模型的数据中心必须能够抵御最坚定和最有能力的国家级行为者的攻击。
建议政策行动
• 在DOD、IC、NSC和DOC的NIST(包括CAISI)的领导下,与行业以及适当的联邦资助研究与开发中心(Federally Funded Research and Development Centers)合作,为高安全AI数据中心创建新的技术标准。
• 推进机构采用涉密计算环境,以支持可扩展和安全的AI工作负载。
Page 16
培养AI基础设施熟练劳动力
为了建设支持美国AI未来的基础设施,我们还必须投资于将建设、运营和维护这些基础设施的劳动力——包括电工、高级暖通空调技术人员以及许多其他高薪职业。为解决这些关键岗位中的许多短缺问题,特朗普政府应识别支撑AI基础设施的优先职位,开发现代化技能框架,支持行业驱动的培训,并通过通识教育、职业和技术教育(CTE) 和注册学徒计划(Registered Apprenticeships)扩大早期人才储备,以推动美国AI领导地位。
建议政策行动
• 在DOL和DOC的领导下,发起一项国家倡议,识别对AI相关基础设施建设至关重要的高优先级职业。这项工作将召集雇主、行业团体和其他劳动力利益相关者,以开发或识别这些职位的国家技能框架和能力模型。这些框架将提供自愿性指导,可为课程设计、证书开发以及劳动力投资的协调提供信息。
• 通过DOL、DOE、ED、NSF和DOC,与州和地方政府以及劳动力系统利益相关者合作,支持创建行业驱动的培训项目,以满足与优先AI基础设施职业相关的劳动力需求。这些项目应由雇主和培训伙伴共同开发,以确保完成项目的个人具备就业能力并与招聘流程直接相关。还可以探索激励雇主提升在职工人技能以适应优先职业的模型。DOC应将这些培训模型作为其基础设施投资计划的核心劳动力组成部分。该战略的资金分配将根据项目弥补已识别的人才缺口和交付与雇主需求对齐的人才产出的能力进行优先排序。
• 在DOL、ED和NSF的领导下,与教育和劳动力系统利益相关者合作,扩大早期职业接触计划和预备学徒计划,吸引初中生和高中生参与优先AI基础设施职业。这些努力应侧重于提升对这些工作的认知和热情,与当地雇主需求对齐,并提供进入高质量培训和注册学徒计划的通道。
• 通过ED的职业、技术和成人教育办公室,向州和地方CTE系统提供指导,说明如何更新学习计划以与优先AI基础设施职业对齐。这包括更新课程、扩大双重入学选择以及加强CTE项目、雇主和为AI基础设施职业服务的培训提供者之间的联系。
• 在DOL的领导下,扩大注册学徒计划在对AI基础设施至关重要的职业中的使用。努力应侧重于简化新项目在优先行业和职业的启动,并消除雇主采用的障碍,包括简化注册、支持中介机构,以及使项目设计与雇主需求对齐。
• 在DOE的领导下,利用其国家实验室在AI方面的专业知识和能力,扩大本科生、研究生、博士后学生和教育工作者的实践性研究培训和发展机会。这应包括与社区学院和技术/职业学院合作,培养新工人并帮助现有劳动力过渡到关键AI岗位。
Page 17
加强关键基础设施网络安全
随着AI系统在编码和软件工程能力方面的进步,它们作为网络攻防工具的效用将得到扩展。保持强大的防御态势对于关键基础设施所有者而言尤为重要,其中许多所有者的财政资源有限。幸运的是,AI系统本身就是出色的防御工具。通过持续采用AI赋能的网络防御工具,关键基础设施提供商可以领先于新兴威胁。
然而,在网络和关键基础设施中使用AI会使这些AI系统面临对抗性威胁。所有在安全关键或国土安全应用中对AI的使用,都应包含对安全设计、鲁棒和弹性AI系统的使用,这些系统应配备工具以检测性能变化,并警示潜在恶意活动,如数据投毒或对抗性样本攻击。
建议政策行动
• 建立AI信息共享与分析中心(AI-ISAC),由DHS牵头,与DOC的CAISI和国家网络总监办公室合作,促进美国关键基础设施部门之间AI安全威胁信息和情报的共享。
• 在DHS的领导下,发布并维护向私营部门实体提供的关于修复和响应AI特有漏洞和威胁的指导意见。
• 确保联邦机构内部已知的AI漏洞,酌情以协作和整合的方式与私营部门共享。这一过程应利用现有的网络漏洞共享机制。
推广安全设计AI技术与应用
AI系统易受某些类别的对抗性输入影响(例如,数据投毒和隐私攻击),这使得它们的性能面临风险。美国政府有责任确保其依赖的AI系统——特别是用于国家安全应用的——免受虚假或恶意输入的侵害。虽然在AI保障(AI Assurance) 领域已做了大量工作,但促进弹性且安全的AI开发和部署应是美国政府的核心活动。
建议政策行动
• 在DOD与DOC的NIST和ODNI的合作下,继续完善DOD的负责任AI和生成式AI框架、路线图和工具包。
• 在ODNI的领导下,并与DOD和DOC的CAISI协商,根据《情报界指令505号:人工智能》发布一项情报界AI保障标准。
Page 18
提升联邦政府AI事件响应成熟能力
AI技术的扩散意味着需要审慎规划,以确保在系统故障时,对关键服务或基础设施的影响最小化,并确保响应及时。为应对此类情况,美国政府应推动将AI事件响应行动纳入现有事件响应原则和公共和私营部门的最佳实践中。
建议政策行动
• 在DOC的NIST(包括CAISI)的领导下,与AI和网络安全行业合作,确保AI被纳入事件响应团队的标准制定、响应框架、最佳实践和技术能力(例如,快速部署工具包)。
• 修改网络安全和基础设施安全局(Cybersecurity and Infrastructure Security Agency) 的《网络安全事件与漏洞响应手册》(Cybersecurity Incident & Vulnerability Response Playbooks),以纳入对AI系统的考量,并包括要求首席信息安全官(Chief Information Security Officers) 酌情与首席AI官(Chief AI Officers)、高级隐私事务官员(Senior Agency Officials for Privacy)、DOC的CAISI及其他机构官员协商。各机构应相应更新其下属手册。
• 在DOD、DHS和ODNI的领导下,与OSTP、NSC、OMB和国家网络总监办公室协调,鼓励负责任地共享AI漏洞信息,作为正在实施《EO 14306号行政命令——维持加强国家网络安全的特定努力并修订EO 13694和EO 14144号行政命令》工作的一部分。
Page 19
其三:引领国际AI外交与安全
要在全球AI竞争中取得成功,美国不仅要在国内推广AI。美国还必须推动美国AI系统、计算硬件和标准在全球范围内的应用。美国目前在数据中心建设、计算硬件性能和模型方面处于全球领先地位。美国必须利用这一优势,建立一个持久的全球联盟,同时防止对手搭乘我们的创新和投资便车。
向盟友和合作伙伴出口美国AI
美国必须通过向所有愿意加入美国AI联盟的国家出口其完整的AI技术栈——硬件、模型、软件、应用和标准——来满足全球对AI的需求。未能满足这一需求将是一个不必要的失误,导致这些国家转向我们的竞争对手。美国技术的推广和扩散将阻止我们的战略对手使我们的盟友依赖外国对手技术。
建议政策行动
• 在DOC内部建立并运行一项计划,旨在收集行业联盟关于全栈AI出口方案的提案。一旦DOC选定联盟,经济外交行动小组(Economic Diplomacy Action Group)、美国贸易和发展署(U.S. Trade and Development Agency)、进出口银行(Export-Import Bank)、美国国际发展金融公司(U.S. International Development Finance Corporation) 和国务院(DOS) 应与DOC协调,促成符合美国批准的安全要求和标准的交易。
反制中国在国际治理机构中的影响力
联合国(United Nations)、经济合作与发展组织(Organisation for Economic Co-operation and Development)、G7、G20、国际电信联盟(International Telecommunication Union)、互联网名称与数字地址分配机构(Internet Corporation for Assigned Names and Numbers) 等众多国际机构都提出了AI治理框架和AI发展战略。美国支持志同道合的国家合作,鼓励AI发展与我们共同的价值观相符。但其中太多努力倡导繁重监管、推行不符合美国价值观的模糊“行为准则”,或受试图塑造人脸识别和监控标准的中国公司影响。
建议政策行动
• 在DOS和DOC的领导下,利用美国在国际外交和标准制定机构中的地位,积极倡导促进创新、体现美国价值观并反制威权主义影响的国际AI治理方法。
Page 20
加强AI计算出口管制执法
先进的AI计算是AI时代的关键,它既能带来经济活力,又能催生新型军事能力。因此,阻止我们的外国对手获取这一资源,既是地缘战略竞争问题,也是国家安全问题。为此,我们应探索出口管制执法的创新方法。
建议政策行动
• 在DOC、OSTP和NSC的领导下,与行业合作,探索利用先进AI计算中新的和现有地理位置验证功能,以确保芯片未流向关注国家。
• 在DOC的领导下,建立一项新工作,与IC官员就全球芯片出口管制执法进行合作。这将包括监测AI计算领域新兴技术发展,以确保全面覆盖可能发生芯片转运的国家或地区。这种增强的监测可用于扩大和加强对先进美国原产AI计算高转运风险国家的最终用途监控,尤其是在工业与安全局(Bureau of Industry and Security) 没有出口管制官员驻扎的国家。
堵塞现有半导体制造出口管制漏洞
半导体是人类有史以来最复杂的发明之一。美国及其亲密盟友在半导体制造供应链中的许多关键零部件和工艺方面拥有接近垄断的地位。我们必须继续在半导体制造领域进行开创性研究和新发明方面引领世界,但美国也必须防止对手以损害我们国家安全的方式利用我们的创新。这需要采取新措施来弥补半导体制造出口管制中的空白,并加强执法。
建议政策行动
• 在DOC的领导下,制定针对半导体制造子系统的新出口管制。目前,美国及其盟友对半导体制造所需的主要系统实施出口管制,但并未管制许多零部件子系统。
在全球范围内统一保护措施
美国必须对敏感技术实施严格的出口管制。我们应鼓励合作伙伴和盟友遵循美国的管制,而不是填补空缺。如果他们这样做,美国应使用外国直接产品规则(Foreign Direct Product Rule) 和二级关税(secondary tariffs) 等工具,以实现更大程度的国际协同。
建议政策行动
• 在DOC和DOS的领导下,并与NSC、DOE和NSF协调,制定、实施和共享关于互补技术保护措施的信息,包括在基础研究和高等教育领域,以减轻来自战略对手和相关实体的风险。这项工作应建立在DOS和DOC现有努力的基础上,或者在必要时涉及新的外交行动。
• 制定一份AI全球联盟的技术外交战略计划,由DOS牵头,与DOC、DOD和DOE协调,旨在协调政府各部门的激励措施和政策杠杆,促使主要盟友在供应链中采用互补的AI保护系统和出口管制。该计划应旨在确保美国盟友不向美国寻求实施出口管制的对手供应技术。
• 扩展促进AI技术栈多边控制的新倡议,避免仅依赖多边条约机构实现这一目标,同时涵盖现有美国管制和未来所有管制,以平衡美国与盟友之间的管制水平。
• 在DOC和DOD的领导下,与盟友协调,确保他们采纳美国的出口管制,与美国合作开发新的管制,并禁止美国对手向其国防工业基础供应或获取国防供应商的控股权。
Page 21
确保美国政府在评估前沿模型国家安全风险方面处于最前沿
最强大的AI系统可能在不久的将来带来新型国家安全风险,例如在网络攻击以及化学、生物、放射性、核或爆炸性(CBRNE)武器的开发等领域,以及新型安全漏洞。由于美国目前在AI能力方面处于领先地位,美国前沿模型中存在的风险很可能预示着外国对手未来将拥有的能力。了解这些风险的性质及其演变对国防和国土安全至关重要。
建议政策行动
• 与前沿AI开发商合作,评估前沿AI系统的国家安全风险,由DOC的CAISI牵头,并与在CBRNE和网络风险方面具有相关专业知识的其他机构合作。
• 在DOC的CAISI的领导下,与国家安全机构合作,评估和评测对手AI系统在关键基础设施和美国经济其他领域使用可能产生的潜在安全漏洞和恶意外国影响,包括后门及其他恶意行为的可能性。这些评估应包括对美国和对手AI系统能力、外国AI系统应用情况以及国际AI竞争状况的评估。
• 优先招募顶尖AI研究人员进入联邦机构,包括DOC内部的NIST和CAISI、DOE、DOD和IC,以确保联邦政府能够持续提供前沿的AI系统评估和分析。
• 通过DOC的CAISI、国家安全机构和相关研究机构之间的协作,建立、维护并根据需要更新国家安全相关的AI评估。
Page 22
投资生物安全
AI将释放生物学领域近乎无限的潜力:治疗新疾病、新颖工业应用案例等等。同时,它也可能为恶意行为者合成有害病原体及其他生物分子创造新的途径。解决这个问题需要一种多层次的方法,旨在筛选恶意行为者,并提供更有效筛选的新工具和基础设施。随着这些工具、政策和执法机制的成熟,与盟友和合作伙伴合作以确保国际采纳将至关重要。
建议政策行动
• 要求所有接受联邦资金进行科学研究的机构,使用具备健全核酸序列筛选和客户验证程序的核酸合成工具和合成服务提供商。为此要求创建执法机制,而非依赖自愿性声明。
• 在OSTP的领导下,召集政府和行业参与者,开发一种机制,促进核酸合成服务提供商之间的数据共享,以筛选潜在欺诈性或恶意客户。
• 通过DOC的CAISI、国家安全机构和相关研究机构之间的协作,建立、维护并根据需要更新国家安全相关的AI评估。
Page 23
引言
第一支柱:加速AI创新
- 消除繁文缛节和苛刻监管
- 确保前沿AI保护言论自由和美国价值观
- 鼓励开源和开放权重AI
- 推动AI应用
- 在AI时代赋能美国工人
- 支持下一代制造业
- 投资AI驱动的科学研究
- 构建世界级科学数据集
- 推进AI科学发展
- 投资AI可解释性、控制性和稳健性突破
- 构建AI评估生态系统
- 加速政府部门AI应用
- 保护商业和政府AI创新
- 推动国防部AI应用
- 打击法律系统中的合成媒体
第二支柱:建设美国AI基础设施
- 简化数据中心、半导体制造设施和能源基础设施的审批流程,同时保障安全
- 发展与AI创新速度相匹配的电网
- 恢复美国半导体制造业
- 为军事和情报界建设高安全性数据中心
- 培养AI基础设施所需的熟练劳动力
- 加强关键基础设施网络安全
- 推广安全设计的AI技术和应用
- 提升联邦政府应对AI事件的成熟能力
第三支柱:在国际AI外交和安全中发挥领导作用
- 向盟友和伙伴出口美国AI
- 在国际治理机构中对抗中国影响力
- 加强AI计算出口管制执行
- 堵塞现有半导体制造出口管制中的漏洞
- 确保美国政府在评估前沿模型国家安全风险方面处于领先地位
- 全球协调保护措施
- 投资生物安全
美国正处于一场争夺人工智能全球主导地位的竞赛中。谁拥有最大的人工智能生态系统,谁就能制定全球人工智能标准,并获得广泛的经济和军事利益。就像我们赢得太空竞赛一样,美国及其盟友必须赢得这场竞赛。特朗普总统在就职初期就采取了果断措施,签署了第 14179 号行政命令《消除美国在人工智能领域领先地位的障碍》,呼吁美国在这场全球竞赛中保持主导地位,并指示制定人工智能行动计划。
赢得人工智能竞赛将为美国人民带来人类繁荣、经济竞争力和国家安全的新黄金时代。
人工智能将使美国人能够发现新材料、合成新化学品、制造新药物,并开发新的能源利用方法 —— 这是一场工业革命。
它将带来全新的教育、媒体和通信形式 —— 一场信息革命。
它还将带来全新的智力成就:解开曾经被认为无法解读的古代卷轴,在科学和数学理论上取得突破,创造新型的数字和实体艺术 —— 一场文艺复兴。
一场工业革命、一场信息革命和一场文艺复兴 —— 同时发生。
这就是人工智能所展现的潜力。摆在我们面前的机遇既令人鼓舞又令人敬畏。这一机遇由我们把握,也可能错失。
美国人工智能行动计划有三大支柱。首先,美国需要比竞争对手更快、更全面地在各个领域开发和推广新的人工智能技术,并消除阻碍私营部门这样做的不必要监管障碍。正如万斯副总统在 2 月巴黎人工智能行动峰会上所说,用苛刻的监管限制人工智能发展 “不仅会不公平地让现有企业受益…… 还将意味着瘫痪我们这几代人所见过的最有前途的技术之一”。这就是特朗普总统在第一天就废除拜登政府危险举措的原因。
我们需要建设并维护庞大的人工智能基础设施和为其提供动力的能源。为此,我们将继续拒绝激进的气候教条和官僚主义繁文缛节,本届政府自就职日以来就一直这样做。简单地说,我们需要 “建设,宝贝,建设!”(“Build, Baby, Build!”)
我们需要将美国人工智能 —— 从我们的先进半导体到我们的模型再到我们的应用 —— 确立为全球人工智能的黄金标准,并确保我们的盟友基于美国技术进行建设。
有几个原则贯穿这三大支柱。
首先,美国工人是特朗普政府人工智能政策的核心。政府将确保我们国家的工人及其家庭能从这场技术革命带来的机遇中获益。人工智能基础设施的建设将为美国工人创造高薪工作。人工智能在医学、制造业和许多其他领域带来的突破将提高所有美国人的生活水平。人工智能将通过补充而非替代美国工人的工作来改善他们的生活。
其次,我们的人工智能系统必须摆脱意识形态偏见,在用户寻求事实信息或分析时,旨在追求客观真理,而非社会工程议程。人工智能系统正成为必不可少的工具,深刻影响着美国人获取信息的方式,但这些工具也必须是可信的。
最后,我们必须防止我们的先进技术被恶意行为者滥用或窃取,并监测人工智能带来的新兴和不可预见的风险。这需要持续的警惕。
本行动计划为联邦政府近期的执行工作设定了明确的政策目标。该计划的目的是阐述本届政府能为美国人民实现总统全球人工智能主导愿景而提出的政策建议。人工智能竞赛美国志在必得,本行动计划是我们走向胜利的路线图。
迈克尔・J・克拉齐奥斯
总统科学技术助理
戴维・O・萨克斯
人工智能和加密货币特别顾问
马可・A・卢比奥
总统国家安全事务助理
第一支柱:加速人工智能创新
美国必须拥有世界上最强大的人工智能系统,同时也必须在这些系统的创造性和变革性应用方面引领世界。实现这些目标需要联邦政府创造条件,让私营部门主导的创新蓬勃发展。
消除繁文缛节和苛刻监管
为了保持在人工智能领域的全球领先地位,美国私营部门必须摆脱官僚主义繁文缛节的束缚。特朗普总统已经采取了多项措施来实现这一目标,包括废除拜登关于人工智能的第 14110 号行政命令,该命令预示着一套苛刻的监管制度。在这个早期阶段,人工智能至关重要,不能被官僚主义扼杀,无论是在州还是联邦层面。联邦政府不应允许与人工智能相关的联邦资金流向那些有繁琐人工智能法规、浪费这些资金的州,但也不应干涉各州通过不过度限制创新的审慎法律。
建议的政策行动
-
在科学技术政策办公室的领导下,向企业和公众发出信息请求,了解当前阻碍人工智能创新和应用的联邦法规,并与相关联邦机构合作采取适当行动。 -
在管理和预算办公室的领导下,根据 2025 年 1 月 31 日的第 14192 号行政命令《通过放松管制释放繁荣》,与所有联邦机构合作,识别、修订或废除不必要地阻碍人工智能开发或部署的法规、规则、备忘录、行政命令、指导文件、政策声明和机构间协议。 -
在管理和预算办公室的领导下,与拥有与人工智能相关的可自由支配资金计划的联邦机构合作,确保在符合适用法律的情况下,这些机构在做出资金决策时考虑一个州的人工智能监管环境,并在该州的人工智能监管制度可能阻碍资金或奖励的有效性时限制资金。 -
在联邦通信委员会的领导下,评估州人工智能法规是否干扰该机构根据 1934 年《通信法》履行其义务和职权的能力。 -
审查上届政府发起的所有联邦贸易委员会调查,确保它们不会提出过度负担人工智能创新的责任理论。此外,审查所有联邦贸易委员会的最终命令、同意令和禁令,并在适当情况下寻求修改或撤销任何过度负担人工智能创新的内容。
确保前沿人工智能保护言论自由和美国价值观
人工智能系统将在我们教育孩子、工作和消费媒体的方式中发挥深远作用。至关重要的是,这些系统从一开始就应考虑言论自由和表达,美国政府政策不应干扰这一目标。我们必须确保言论自由在人工智能时代蓬勃发展,并且联邦政府采购的人工智能客观反映事实,而非社会工程议程。
建议的政策行动
-
在商务部通过国家标准与技术研究院的领导下,修订国家标准与技术研究院人工智能风险管理框架,删除有关错误信息、多样性、公平性和包容性以及气候变化的内容。 -
更新联邦采购指南,确保政府只与那些确保其系统客观且没有自上而下意识形态偏见的前沿大型语言模型开发商签订合同。 -
在商务部通过国家标准与技术研究院人工智能标准与创新中心的领导下,对中国的前沿模型进行研究,并在适当情况下发布评估,看其是否与中国的言论和审查制度保持一致。
鼓励开源和开放权重人工智能
开源和开放权重人工智能模型由开发者免费提供给世界上任何人下载和修改。以这种方式分发的模型对创新具有独特价值,因为初创企业可以灵活地使用它们,而不必依赖封闭的模型提供商。它们还有利于企业和政府采用人工智能,因为许多企业和政府拥有敏感数据,无法发送给封闭的模型供应商。它们对学术研究也至关重要,因为学术研究往往依赖于访问模型的权重和训练数据来进行科学严谨的实验。
我们需要确保美国拥有基于美国价值观的领先开放模型。开源和开放权重模型可能在全球范围内的某些业务领域和学术研究中成为全球标准。因此,它们也具有地缘战略价值。虽然是否以及如何发布开放或封闭模型的决定基本上由开发者决定,但联邦政府应该为开放模型创造一个支持性环境。
建议的政策行动
-
通过改善计算金融市场,确保初创企业和学术界获得大规模计算能力。目前,一家寻求使用大规模计算的公司往往必须与超大规模企业签订长期合同 —— 这远远超出了大多数学术界和许多初创企业的预算范围。美国以前通过金融市场解决过其他商品的这个问题,例如大宗商品的现货和期货市场。通过与行业合作,商务部下属的国家标准与技术研究院、科学技术政策办公室以及国家科学基金会的国家人工智能研究资源试点项目,联邦政府可以加速健康的计算金融市场的成熟。 -
与领先的科技公司合作,作为国家人工智能研究资源试点项目的一部分,增加研究界对世界级私营部门计算、模型、数据和软件资源的访问。 -
构建一个精简且可持续的国家人工智能研究资源运营能力基础,能够将越来越多的全国研究人员和教育工作者与关键的人工智能资源连接起来。 -
继续推动下一代人工智能突破,由科学技术政策办公室牵头发布新的国家人工智能研发战略计划,指导联邦人工智能研究投资。 -
在商务部通过国家电信和信息管理局的领导下,召集利益相关者,帮助推动中小企业采用开源和开放权重模型。
推动人工智能应用
如今,充分利用人工智能潜力的瓶颈不一定是模型、工具或应用的可用性。相反,是人工智能的应用有限且缓慢,特别是在大型老牌组织中。美国许多最关键的行业,如医疗保健,由于多种因素,应用速度特别慢,包括对技术的不信任或缺乏了解、复杂的监管环境以及缺乏明确的治理和风险缓解标准。协调的联邦努力将有助于在美国工业界建立一种动态的、“先试后用” 的人工智能文化。
建议的政策行动
-
在全国范围内建立监管沙盒或人工智能卓越中心,研究人员、初创企业和老牌企业可以在其中快速部署和测试人工智能工具,同时承诺公开分享数据和结果。这些努力将由食品和药物管理局、证券交易委员会等监管机构以及商务部通过国家标准与技术研究院的人工智能评估计划提供支持。 -
在商务部通过国家标准与技术研究院的领导下,发起若干特定领域的努力(如医疗保健、能源和农业),召集广泛的公共、私营和学术利益相关者,加速人工智能系统国家标准的开发和应用,并衡量人工智能在这些领域实际任务中提高生产力的程度。 -
在国防部与国家情报局局长办公室的协调下,定期更新国防部和情报界关于美国、其竞争对手和对手国家安全机构采用人工智能工具的比较水平的联合评估,并建立一种方法,根据这些人工智能净评估持续调整国防部和情报界各自的人工智能应用计划。 -
通过情报界、能源部、商务部人工智能标准与创新中心、国家安全委员会和科学技术政策办公室的合作,优先收集和分发有关可能具有国家安全影响的外国前沿人工智能项目的情报。
在人工智能时代赋能美国工人
特朗普政府的人工智能政策以美国工人为中心。政府将确保我们国家的工人及其家庭从这场技术革命创造的机遇中获益。人工智能基础设施的建设将为美国工人创造高薪工作。人工智能在医学、制造业和许多其他领域的突破将提高所有美国人的生活水平。人工智能将通过补充而非替代美国工人的工作来改善他们的生活。
建议的政策行动
-
在劳工部、教育部、国家科学基金会和商务部的领导下,将人工智能技能发展作为相关教育和劳动力资金流的核心目标。这应包括促进将人工智能技能发展纳入相关计划,包括职业技术教育、劳动力培训、学徒制和其他联邦支持的技能计划。 -
在财政部的领导下,发布指导意见,明确许多人工智能素养和人工智能技能发展计划可能有资格成为《国内税收法》第 132 条规定的合格教育援助,因为人工智能对各个行业和职业所需的任务和技能产生了广泛影响。在适用情况下,这将使雇主能够为与人工智能相关的培训提供免税报销,并帮助扩大私营部门对人工智能技能发展的投资,为美国工人保住工作。 -
在劳工统计局和商务部通过人口普查局以及经济分析局的领导下,利用他们已经收集的关于这些主题的数据,研究人工智能对劳动力市场的影响,例如人口普查局在其商业趋势和前景调查中跟踪的企业层面人工智能应用趋势。这些机构可以随后提供关于人工智能应用、就业创造、岗位替代和工资影响的分析。 -
在劳工部下设立人工智能劳动力研究中心,领导联邦政府持续努力评估人工智能对劳动力市场和美国工人体验的影响,与劳工统计局和商务部通过人口普查局和经济分析局合作。 -
在劳工部的领导下,在适当情况下利用可用的可自由支配资金,为受人工智能相关岗位替代影响的个人提供快速再培训资金。发布明确的指导意见,帮助各州识别因人工智能应用而发生重大结构性变化的行业中符合条件的失业工人,以及明确各州快速反应资金如何用于主动提升面临未来替代风险的工人的技能。 -
在劳工部和商务部,利用《劳动力创新与机会法》和《公共工程与经济发展法》规定的现有权力,通过各州和劳动力中介机构快速试点应对人工智能带来的劳动力挑战的新方法,这些方法可能包括因工人替代和入门级岗位技能要求变化而产生的快速再培训需求。这些试点应旨在发现可推广、以绩效为导向的策略,帮助劳动力系统适应人工智能驱动的劳动力市场变化的速度和复杂性。
支持下一代制造业
人工智能将在物理世界带来广泛的新创新:自主无人机、自动驾驶汽车、机器人以及其他尚未命名的发明。至关重要的是,美国及其可信盟友必须成为这些下一代技术的世界级制造商。人工智能、机器人和相关技术为制造业和物流领域的新能力创造了机会,包括那些应用于国防和国家安全的能力。联邦政府应优先投资这些新兴技术,迎来新的工业复兴。
建议的政策行动
-
通过国防部、商务部、能源部、国家科学基金会和其他联邦机构,利用小企业创新研究计划、小企业技术转让计划、研究 grants、CHIPS 研发计划、史蒂文森 – 怀德勒技术创新法授权、《国防生产法》第三条、其他交易授权和其他授权,投资开发和推广基础性和转化性制造技术。 -
在商务部通过国家电信和信息管理局的领导下,召集行业和政府利益相关者,识别美国机器人和无人机制造业的供应链挑战。
投资人工智能驱动的科学研究
与许多其他领域一样,科学本身也将被人工智能改变。人工智能系统已经可以生成蛋白质结构、新材料等模型。越来越强大的通用模型有望在提出假设和设计实验方面发挥作用。然而,这些新兴能力要加速科学进步,还需要在科学开展方式上进行重大变革,包括完善科学基础设施。如果科学家不能扩大实验规模,人工智能驱动的预测就用处不大。如今的基础科学往往是劳动密集型过程;人工智能时代将需要更多的科学和工程研究,将理论转化为工业规模的企业。这反过来又需要新的基础设施和对新型科学组织的支持。
建议的政策行动
-
通过国家科学基金会、能源部、商务部下属的国家标准与技术研究院以及其他联邦合作伙伴,投资于一系列科学领域的自动化云赋能实验室,包括工程、材料科学、化学、生物学和神经科学,由私营部门、联邦机构和研究机构酌情与能源部国家实验室合作建设。 -
利用长期协议支持专注研究组织或其他类似实体,利用人工智能和其他新兴技术取得基础性科学进展。 -
通过在新项目提案审查中考虑研究人员先前资助项目中的科学和工程数据集的影响,激励研究人员公开更多高质量数据集。 -
要求受联邦资助的研究人员披露在研究和实验过程中被人工智能模型使用的非专有、非敏感数据集。
构建世界级科学数据集
随着各国追求人工智能创新目标并利用该技术的经济效益,高质量数据已成为国家战略资产。包括我们的对手在内的其他国家,在积累大量科学数据方面已经走在我们前面。美国必须在创建世界上最大、质量最高的人工智能就绪科学数据集方面处于领先地位,同时尊重个人权利并确保公民自由、隐私和保密保护。
建议的政策行动
-
指示国家科学技术委员会机器学习和人工智能小组委员会就生物、材料科学、化学、物理和其他科学数据模式在人工智能模型训练中的最低数据质量标准提出建议。 -
颁布 2018 年《保密信息保护和统计效率法》要求的管理和预算办公室关于可访问性推定和扩大安全访问的法规,这将降低获取联邦数据的障碍并打破数据孤岛,最终促进统计机构更好地利用人工智能进行证据构建,同时保护机密数据免受不当访问和使用。 -
在国家科学基金会和能源部内建立安全计算环境,以支持对受限联邦数据的安全人工智能使用案例。 -
为国家科学基金会的国家安全数据服务示范项目创建一个在线门户,为公众和联邦机构提供涉及受限联邦数据受控访问的人工智能用例的入口。 -
探索在国家科学技术委员会的领导下创建联邦土地上生命全基因组测序计划,包括美国农业部、能源部、国立卫生研究院、国家科学基金会、内政部和合作生态系统研究单位的成员,合作制定一项在联邦土地上建立生命全基因组测序计划(包括所有生物领域)的倡议。这些新数据将成为训练未来生物基础模型的宝贵资源。
推进人工智能科学发展
正如大型语言模型和生成式人工智能系统代表了人工智能科学的范式转变一样,未来的突破可能同样会改变人工智能的可能性。美国必须保持在这类突破的领先先锋地位,这首先要在前沿对最有前景的路径进行战略性、有针对性的投资。
建议的政策行动
-
优先投资理论、计算和实验研究,以保持美国在发现新的、变革性范式方面的领先地位,这些范式将提升人工智能的能力,并在即将出台的国家人工智能研发战略计划中反映这一优先事项。
投资人工智能可解释性、控制性和稳健性突破
如今,前沿人工智能系统的内部工作原理鲜为人知。技术人员在较高层面上知道大型语言模型如何工作,但往往无法解释为什么模型会产生特定的输出。这会使预测任何特定人工智能系统的行为变得困难。反过来,这种不可预测性会使在国防、国家安全或其他涉及生命安全的应用中使用先进人工智能变得具有挑战性。如果我们在这些研究问题上取得根本性突破,美国将能够更好地在高风险国家安全领域充分利用人工智能系统。
建议的政策行动
-
启动由国防高级研究计划局与商务部人工智能标准与创新中心以及国家科学基金会合作领导的技术开发计划,推进人工智能可解释性、人工智能控制系统和对抗性稳健性。 -
在即将出台的国家人工智能研发战略计划中,优先考虑人工智能可解释性、控制性和稳健性的根本性进展。 -
国防部、能源部、商务部人工智能标准与创新中心、国土安全部、国家科学基金会和学术合作伙伴应协调开展人工智能黑客马拉松活动,吸引美国学术界最优秀和最聪明的人才来测试人工智能系统的透明度、有效性、使用控制和安全漏洞。
构建人工智能评估生态系统
评估是人工智能行业评估人工智能系统性能和可靠性的方式。严格的评估可以成为在受监管行业定义和衡量人工智能可靠性和性能的关键工具。随着时间的推移,监管机构应探索在将现有法律应用于人工智能系统时使用评估。
建议的政策行动
-
通过商务部下属的国家标准与技术研究院(包括人工智能标准与创新中心)发布指南和资源,供联邦机构对其不同使命和业务中的人工智能系统进行自己的评估,并确保符合现有法律。 -
在商务部下属的国家标准与技术研究院、能源部、国家科学基金会和其他联邦科学机构的领导下,支持人工智能模型测量和评估科学的发展。 -
在商务部人工智能标准与创新中心的主持下,至少每年召开两次会议,供联邦机构和研究界分享关于构建人工智能评估的经验和最佳实践。 -
通过能源部和国家科学基金会投资开发人工智能测试平台,用于在安全的现实世界环境中试点人工智能系统,允许研究人员原型化新的人工智能系统并将其推向市场。此类测试平台将鼓励广泛的多利益相关者团队参与,并涵盖人工智能触及的各种经济垂直领域,包括农业、交通和医疗服务。 -
在商务部的领导下,召集国家标准与技术研究院人工智能联盟,以促进协作建立新的测量科学,这将有助于识别经过验证的、可扩展的和互操作的技术和指标,以促进人工智能的发展。
加速政府部门人工智能应用
通过使用人工智能工具,联邦政府可以更高效、更有效地为公众服务。用例包括加速缓慢且通常是手动的内部流程、简化公众互动等。总之,人工智能的变革性使用有助于提供美国人民期望和应得的高度响应的政府服务。
管理和预算办公室已经通过减少拜登政府实施的繁琐规则,推进了政府部门的人工智能应用。现在是在这一成功基础上再接再厉的时候了。
建议的政策行动
-
将首席人工智能官委员会正式确定为机构间协调和合作推进人工智能应用的主要场所。通过首席人工智能官委员会,启动与相关联邦执行委员会的战略协调与合作,包括:总统管理委员会、首席数据官委员会、首席信息官、机构间统计政策委员会、首席人力资本官委员会和联邦隐私委员会。 -
创建人才交流计划,旨在允许联邦工作人员快速借调到其他需要专业人工智能人才(如数据科学家和软件工程师)的机构,并征求人事管理办公室的意见。 -
创建由总务管理局与管理和预算办公室协调管理的人工智能采购工具箱,在可行的最大范围内促进联邦企业的统一性。该系统将允许任何联邦机构轻松地在多个模型中进行选择,同时符合相关的隐私、数据治理和透明度法律。各机构还应拥有足够的灵活性来根据自己的目的定制模型,并查看其他机构的人工智能使用目录(基于管理和预算办公室已有的人工智能用例清单)。 -
实施由总务管理局主导的先进技术转让和能力共享计划,以快速在各机构之间转让先进的人工智能能力和用例。 -
要求所有联邦机构在切实可行的最大范围内确保所有其工作可从前沿语言模型访问中受益的员工都能访问这些工具并接受适当的培训。 -
在管理和预算办公室的主持下,召集一批提供高影响力服务的机构,试点并增加使用人工智能来改善向公众提供的服务。
推动国防部人工智能应用
人工智能有潜力改变国防部的作战和后台运营。如果美国要保持其全球军事优势,同时确保如其在本行动计划中所述的人工智能使用是安全和可靠的,就必须在其武装部队中积极采用人工智能。由于国防部在联邦政府中具有独特的运营需求,因此需要具体的政策行动来推动人工智能应用。
建议的政策行动
-
确定国防部工作大规模利用人工智能所需的人才和技能。基于这一识别,实施人才发展计划,以满足人工智能生产力需求,并推动人工智能赋能能力的有效运用。 -
在国防部建立人工智能与自主系统虚拟试验场,首先确定此类设施所需的技术、地理、安全和资源要求。 -
在国防部内制定简化的流程,对其主要运营和支持功能中涉及的工作流进行分类、评估和优化,旨在制定一份优先使用人工智能实现自动化的工作流清单。当工作流成功实现自动化后,国防部应努力尽快将该工作流永久过渡到基于人工智能的实施。 -
优先考虑国防部与云服务提供商、计算基础设施运营商和其他相关私营部门实体签订协议,在国家紧急情况下明确优先访问计算资源,以便国防部准备在重大冲突期间充分利用这些技术。 -
将我们的高级军事学院发展成为人工智能研究、开发和人才培养的中心,向未来几代人教授核心人工智能技能和素养。在各专业的高级军事学院中培养专门的人工智能课程,包括人工智能使用、开发和基础设施管理。
保护商业和政府人工智能创新
保持美国在人工智能领域的领导地位需要美国政府与行业密切合作,适当平衡尖端人工智能技术的传播与国家安全关切。美国政府有效应对美国人工智能公司、人才、知识产权和系统面临的安全风险也至关重要。
建议的政策行动
-
在国防部、国土安全部、商务部人工智能标准与创新中心以及情报界其他适当成员的领导下,与领先的美国人工智能开发商合作,使私营部门能够积极保护人工智能创新免受安全风险,包括恶意网络行为者、内部威胁等。
打击法律系统中的合成媒体
许多美国人已经意识到人工智能的一个风险是恶意深度伪造,无论是录音、视频还是照片。虽然特朗普总统已经签署了《删除法案》,该法案由第一夫人梅拉尼娅・特朗普倡导,旨在防止性剥削、非自愿的深度伪造,但还需要采取额外行动。特别是,人工智能生成的媒体可能给法律系统带来新的挑战。例如,虚假证据可能被用来试图剥夺原告和被告的正义。政府必须为法院和执法部门提供克服这些新挑战所需的工具。
建议的政策行动
-
在商务部下属的国家标准与技术研究院的领导下,考虑将国家标准与技术研究院的法医证据守护者深度伪造评估计划发展成为正式指南和配套的自愿法医基准。 -
在司法部的领导下,向参与裁决的机构发布指导意见,探索采用类似于证据规则咨询委员会正在考虑的联邦证据规则第 901(c)条的深度伪造标准。 -
在司法部法律政策办公室的领导下,就任何拟议的与深度伪造相关的联邦证据规则增补提交正式意见。
第二支柱:建设美国AI基础设施
人工智能是现代生活中第一个挑战美国建设比我们今天拥有的大得多的能源产量的数字服务。自 20 世纪 70 年代以来,美国的能源承载量一直停滞不前,而中国则迅速建设了他们的电网。美国通往人工智能主导地位的道路取决于改变这一令人不安的趋势。
简化数据中心、半导体制造设施和能源基础设施的审批流程,同时保障安全
与过去的大多数通用技术一样,人工智能将需要新的基础设施 —— 生产芯片的工厂、运行这些芯片的数据中心以及为所有这些提供动力的新能源。美国的环境审批系统和其他法规使得在美国以所需的速度建设这种基础设施几乎不可能。此外,这种基础设施也不能使用任何可能破坏美国人工智能主导地位的对抗性技术来建设。
幸运的是,特朗普政府在改革这一系统方面取得了前所未有的进展。自上任以来,特朗普总统已经改革了几乎所有相关联邦机构的《国家环境政策法》法规,启动了审批技术现代化计划,创建了国家能源主导委员会,并启动了美国投资加速器。现在是在这一势头基础上再接再厉的时候了。
建议的政策行动
-
根据《国家环境政策法》建立新的类别排除,涵盖通常不会对环境产生重大影响的数据中心相关行动。在可能的情况下,采用其他机构已经建立的类别排除,以便每个相关机构都能以最大效率推进。 -
扩大 FAST-41 流程的使用,以涵盖 2015 年《修复美国地面交通法》规定的所有符合条件的数据中心和数据中心能源项目。 -
探索全国范围内《清洁水法》第 404 条数据中心许可证的必要性,如果采用,确保该许可证不需要施工前通知,并涵盖与现代人工智能数据中心规模一致的开发场地。 -
通过简化或减少根据《清洁空气法》、《清洁水法》、《综合环境响应、赔偿和责任法》以及其他相关法律颁布的法规,加快环境审批。 -
通过指示拥有大量土地组合的机构确定适合大规模开发的场地,将联邦土地用于数据中心建设和这些数据中心的发电基础设施建设。 -
保持安全护栏,禁止对手向这一基础设施插入敏感输入。确保国内人工智能计算栈建立在美国产品之上,并且支持人工智能发展的基础设施(如能源和电信)没有外国对手的信息和通信技术及服务(ICTS)—— 包括软件和相关硬件。 -
扩大应用人工智能加速和改进环境审查的努力,例如通过增加参与能源部 PermitAI 项目的机构数量。
发展与人工智能创新速度相匹配的电网
美国电网是地球上最大、最复杂的机器之一。它也需要升级,以支持未来的数据中心和其他能源密集型产业。电网是现代经济的命脉和国家安全的基石,但它正面临着一系列挑战,需要战略远见和果断行动。电气化和人工智能技术进步驱动的需求不断升级,给电网带来了越来越大的压力。美国必须制定一项全面战略,加强和扩大电网,其设计不仅要应对这些挑战,还要确保电网的持续强度和未来增长能力。
建议的政策行动
-
尽可能稳定当今的电网。这一初始阶段承认需要保护现有资产,并确保不间断和负担得起的电力供应。美国必须防止过早退役关键发电资源,并探索利用现有承载量的创新方法,例如利用现存的备用电源在高峰需求期间增强电网可靠性。这种稳定的一个关键要素是确保电网的每个角落都符合全国资源充足性标准,并且全国范围内始终有足够的发电量可用。 -
尽可能优化现有电网资源。这包括实施提高输电系统效率和性能的策略。美国必须探索先进的电网管理技术和升级电力线路等解决方案,以增加沿现有路线传输的电量。此外,美国还应研究大型电力消费者在关键电网时期管理其电力消耗的新方法,以提高可靠性并释放系统上的额外电力。 -
尽快优先考虑可靠、可调度电源的互联,并拥抱技术前沿的新能源发电来源(如增强型地热、核裂变和核聚变)。改革电力市场,使财务激励与电网稳定目标保持一致,确保对发电的投资反映系统的需求。 -
制定一份应对 21 世纪复杂能源的战略蓝图。通过稳定当今的电网、优化现有电网资源以及为未来发展电网,美国能够迎接赢得人工智能竞赛的挑战,同时也为所有美国人提供可靠和负担得起的电网。
恢复美国半导体制造业
美国通过发明半导体启动了现代技术。现在美国必须将半导体制造业带回美国本土。振兴的美国芯片产业将创造数千个高薪工作岗位,加强我们的技术领导地位,并保护我们的供应链免受外国竞争对手的干扰。特朗普政府将领导这一振兴,不会为美国纳税人达成糟糕的交易,也不会让公司背负全面的意识形态议程。
建议的政策行动
-
在商务部改组后的 CHIPS 计划办公室的领导下,继续专注于为美国纳税人带来强劲的投资回报,并消除 CHIPS 资助的半导体制造项目的所有无关政策要求。商务部和其他相关联邦机构还应合作简化减缓半导体制造努力的法规。 -
在商务部的领导下,审查半导体 grant 和研究计划,确保它们加速先进人工智能工具在半导体制造中的整合。
为军事和情报界建设高安全性数据中心
由于人工智能系统如今特别适合处理原始情报数据,并且由于人工智能系统未来可能拥有大幅扩展的能力,人工智能很可能会用于处理美国政府的一些最敏感数据。部署这些模型的数据中心必须能够抵抗最坚定和最有能力的国家行为者的攻击。
建议的政策行动
-
在国防部、情报界、国家安全委员会和商务部下属的国家标准与技术研究院(包括人工智能标准与创新中心)的领导下,与行业合作,并酌情与相关联邦资助的研发中心合作,为高安全性人工智能数据中心创建新的技术标准。 -
推进各机构采用分类计算环境,以支持可扩展和安全的人工智能工作负载。
培养人工智能基础设施所需的熟练劳动力
为了建设为美国人工智能未来提供动力所需的基础设施,我们还必须投资于将建设、运营和维护的人员—— 包括电工、高级暖通空调技术人员以及许多其他高薪职业。为了应对许多这些关键工作的短缺,特朗普政府应该确定支撑人工智能基础设施的优先角色,开发现代技能框架,支持行业驱动的培训,并通过普通教育、职业技术教育和注册学徒制扩大早期渠道,以推动美国人工智能领导地位。
建议的政策行动
-
在劳工部和商务部的领导下,创建一项国家倡议,以确定与人工智能相关基础设施建设至关重要的高优先级职业。这项工作将召集雇主、行业团体和其他劳动力利益相关者,为这些角色开发或确定国家技能框架和能力模型。这些框架将提供自愿指导,可能为课程设计、证书开发和劳动力投资的调整提供信息。 -
通过劳工部、能源部、教育部、国家科学基金会和商务部,与州和地方政府以及劳动力系统利益相关者合作,支持创建行业驱动的培训计划,以满足与优先人工智能基础设施职业相关的劳动力需求。这些计划应由雇主和培训合作伙伴共同开发,以确保完成计划的个人做好就业准备,并直接与招聘过程联系起来。还可以探索激励雇主将现有工人提升到优先职业的模型。商务部应将这些培训模型作为其基础设施投资计划的核心劳动力组成部分。根据计划解决已确定的渠道差距和提供与雇主需求一致的人才成果的能力,优先考虑为这一战略提供资金。 -
在劳工部、教育部和国家科学基金会的领导下,与教育和劳动力系统利益相关者合作,扩大早期职业接触计划和学徒前计划,让中学生和高中生参与优先人工智能基础设施职业。这些努力应侧重于提高对这些工作的认识和兴趣,与当地雇主需求保持一致,并提供进入高质量培训和注册学徒计划的途径。 -
通过教育部职业、技术和成人教育办公室,为州和地方职业技术教育系统提供指导,说明如何更新学习计划,以适应优先的人工智能基础设施职业。这包括更新课程、扩大双学分选项,以及加强职业技术教育项目、雇主和为人工智能基础设施职业提供服务的培训提供商之间的联系。
-
在劳工部的领导下,扩大注册学徒制在对人工智能基础设施至关重要的职业中的使用。重点应放在简化在优先行业和职业中启动新计划的流程,消除雇主采用的障碍,包括简化注册、支持中介机构,以及使计划设计与雇主需求保持一致。 -
在能源部的领导下,扩大本科生、研究生、研究生和教育工作者的实践研究培训和发展机会,利用其国家实验室中广泛的人工智能专业知识和能力。这应包括与社区学院和技术 / 职业学院合作,培养新工人,并帮助现有劳动力转型以填补关键的人工智能角色。
加强关键基础设施网络安全
随着人工智能系统在编码和软件工程能力方面的进步,它们作为网络攻防工具的效用将得到扩展。对于许多财力有限的关键基础设施所有者来说,保持强大的防御姿态尤为重要。幸运的是,人工智能系统本身可以成为出色的防御工具。随着人工智能驱动的网络防御工具的持续采用,关键基础设施提供商可以领先于新兴威胁。
然而,在网络和关键基础设施中使用人工智能会使这些人工智能系统面临对抗性威胁。在所有安全关键或国土安全应用中使用人工智能时,都应使用具有安全设计、稳健且有弹性的人工智能系统,这些系统经过检测性能变化的工具配置,并能对数据投毒或对抗性示例攻击等潜在恶意活动发出警报。
建议的政策行动
-
在国土安全部的领导下,与商务部人工智能标准与创新中心和国家网络主任办公室合作,建立人工智能信息共享与分析中心,以促进美国关键基础设施部门之间人工智能安全威胁信息和情报的共享。 -
在国土安全部的领导下,向私营部门实体发布并维护有关补救和应对特定人工智能漏洞和威胁的指导。 -
酌情确保联邦机构内部已知的人工智能漏洞向私营部门进行协作和整合共享。此过程应利用现有的网络漏洞共享机制。
推广安全设计的人工智能技术和应用
人工智能系统容易受到某些类型的对抗性输入(例如数据投毒和隐私攻击)的影响,这会使其性能面临风险。美国政府有责任确保其依赖的人工智能系统,特别是用于国家安全应用的系统,免受虚假或恶意输入的影响。虽然在推进人工智能保障领域已经做了大量工作,但促进有弹性和安全的人工智能开发和部署应该是美国政府的核心活动。
建议的政策行动
-
在国防部与商务部国家标准与技术研究院和国家情报局局长办公室的合作下,继续完善国防部的负责任人工智能和生成式人工智能框架、路线图和工具包。 -
在国家情报局局长办公室与国防部和商务部人工智能标准与创新中心协商后,在《关于人工智能的第 505 号情报界指令》的框架下,发布情报界人工智能保障标准。
提升联邦政府应对人工智能事件的成熟能力
人工智能技术的普及意味着需要进行审慎规划,以确保如果系统发生故障,对关键服务或基础设施的影响能够最小化,并且能够立即做出响应。为应对这种情况,美国政府应推动将人工智能事件响应行动纳入公共和私营部门现有的事件响应原则和最佳实践中。
建议的政策行动
-
在商务部国家标准与技术研究院(包括人工智能标准与创新中心)的领导下,与人工智能和网络安全行业合作,确保在事件响应团队的标准、响应框架、最佳实践和技术能力(例如便携式工具包)的建立中纳入人工智能。 -
修改国土安全部网络安全与基础设施安全局的《网络安全事件与漏洞响应手册》,以纳入对人工智能系统的考虑,并要求首席信息安全官酌情咨询首席人工智能官、高级机构隐私官员、商务部人工智能标准与创新中心和其他机构官员。各机构应相应地更新其下属手册。 -
在国防部、国土安全部和国家情报局局长办公室的领导下,与科学技术政策办公室、国家安全委员会、管理和预算办公室以及国家网络主任办公室协调,鼓励负责任地共享人工智能漏洞信息,作为实施第 14306 号行政命令《持续加强国家网络安全的特定努力并修订第 13694 号和第 14144 号行政命令》的持续工作的一部分。
第三支柱:在国际AI外交和安全中发挥领导作用
为了在全球人工智能竞争中取得成功,美国必须做的不仅仅是在其境内推广人工智能。美国还必须推动美国人工智能系统、计算硬件和标准在全球范围内的采用。美国目前在数据中心建设、计算硬件性能和模型方面处于全球领先地位。美国必须利用这一优势建立一个持久的全球联盟,同时防止我们的对手从我们的创新和投资中坐享其成。
向盟友和伙伴出口美国人工智能
美国必须通过向所有愿意加入美国人工智能联盟的国家出口其完整的人工智能技术栈(硬件、模型、软件、应用程序和标准)来满足全球对人工智能的需求。不能满足这一需求将是一个不必要的错误,导致这些国家转向我们的竞争对手。美国技术的分布和传播将阻止我们的战略竞争对手使我们的盟友依赖外国对手的技术。
建议的政策行动
-
在商务部内建立并运作一个项目,旨在收集行业联盟关于全栈人工智能出口包的提案。一旦商务部选定联盟,经济外交行动小组、美国贸易和发展署、进出口银行、美国国际开发金融公司和国务院应与商务部协调,促进符合美国批准的安全要求和标准的交易。
在国际治理机构中对抗中国影响力
许多国际机构,包括联合国、经济合作与发展组织、七国集团、二十国集团、国际电信联盟、互联网名称与数字地址分配机构等,都提出了人工智能治理框架和人工智能发展战略。美国支持志同道合的国家共同努力,鼓励按照我们共同的价值观发展人工智能。但这些努力中,有太多倡导繁琐的监管、模糊的 “行为准则”(这些准则推广与美国价值观不一致的文化议程),或者受到试图制定面部识别和监控标准的中国公司的影响。
建议的政策行动
-
在国务院和商务部的领导下,利用美国在国际外交和标准制定机构中的地位,大力倡导促进创新、反映美国价值观并对抗威权主义影响的国际人工智能治理方法。
加强人工智能计算出口管制执行
先进的人工智能计算对于人工智能时代至关重要,它能推动经济活力和新型军事能力的发展。因此,拒绝我们的外国对手获得这一资源,既是地缘战略竞争的需要,也是国家安全的需要。因此,我们应该寻求创新的出口管制执行方法。
建议的政策行动
-
在商务部、科学技术政策办公室和国家安全委员会与行业的合作下,探索利用先进人工智能计算上的新的和现有的位置验证功能,确保芯片不在受关注的国家。 -
在商务部的领导下,建立一项新的工作,与情报界官员就全球芯片出口管制执行进行合作。这将包括监控人工智能计算领域的新兴技术发展,以确保全面覆盖可能存在芯片转移的国家或地区。这种强化的监控可用于扩大和加强在高风险转移美国原产先进人工智能计算的国家的最终用途监控,特别是在没有工业和安全局出口管制官员驻在的国家。
堵塞现有半导体制造出口管制中的漏洞
半导体是人类构想的最复杂发明之一。美国及其亲密盟友在半导体制造流程的许多关键组件和工艺上拥有近乎垄断的地位。我们必须继续以开创性的研究和半导体制造的新发明引领世界,但美国还必须防止我们的对手以损害我们国家安全的方式利用我们的创新。这需要采取新的措施来解决半导体制造出口管制中的差距,同时加强执行力度。
建议的政策行动
-
在商务部的领导下,制定关于半导体制造子系统的新出口管制。目前,美国及其盟友对半导体制造所需的主要系统实施出口管制,但不控制许多组件子系统。
全球协调保护措施
美国必须对敏感技术实施严格的出口管制。我们应该鼓励合作伙伴和盟友遵循美国的管制措施,而不是进行填补。如果他们这样做,美国应该使用诸如外国直接产品规则和次级关税等工具来实现更大的国际协调。
建议的政策行动
-
在商务部和国务院的领导下,与国家安全委员会、能源部和国家科学基金会协调,制定、实施和分享关于互补技术保护措施的信息,包括在基础研究和高等教育领域,以减轻来自战略对手和相关实体的风险。这项工作应建立在国务院和商务部正在进行的努力之上,或在必要时开展新的外交活动。 -
在国务院与商务部、国防部和能源部的协调下,制定一项人工智能全球联盟的技术外交战略计划,以协调政府各部门的激励措施和政策杠杆,促使主要盟友在整个供应链中采用互补的人工智能保护系统和出口管制。该计划旨在确保美国的盟友不向美国寻求实施出口管制的对手提供技术。 -
扩大新的举措,促进人工智能技术栈的多边管制,避免仅仅依靠多边条约机构来实现这一目标,同时也涵盖现有的美国管制和所有未来的管制,以平衡美国和盟友管制之间的竞争环境。 -
在商务部和国防部的领导下,与盟友协调,确保他们采用美国的出口管制,与美国共同制定新的管制措施,并禁止美国的对手为其国防工业基地提供供应或获得国防供应商的控股权。
确保美国政府在评估前沿模型国家安全风险方面处于领先地位
最强大的人工智能系统在不久的将来可能会在网络攻击以及化学、生物、放射、核或爆炸物(CBRNE)武器的开发等领域带来新的国家安全风险,以及新的安全漏洞。由于美国目前在人工智能能力方面处于领先地位,美国前沿模型中存在的风险很可能预示着外国对手在不久的将来将拥有的风险。随着这些风险的出现,了解其性质对于国防和国土安全至关重要。
建议的政策行动
-
在商务部人工智能标准与创新中心与其他在 CBRNE 和网络风险方面拥有相关专业知识的机构的合作下,与前沿人工智能开发商合作,评估前沿人工智能系统的国家安全风险。 -
在商务部人工智能标准与创新中心与国家安全机构的合作下,评估和评估对手的人工智能系统在关键基础设施和美国经济其他领域使用所产生的潜在安全漏洞和恶意外国影响,包括后门和其他恶意行为的可能性。这些评估应包括对美国和对手人工智能系统的能力、外国人工智能系统的采用以及国际人工智能竞争状况的评估。 -
优先在联邦机构(包括商务部的国家标准与技术研究院和人工智能标准与创新中心、能源部、国防部和情报界)招募顶尖人工智能研究人员,以确保联邦政府能够继续提供对人工智能系统的尖端评估和分析。 -
通过商务部人工智能标准与创新中心、国家安全机构和相关研究机构之间的合作,建立、维护并在必要时更新与国家安全相关的人工智能评估。
投资生物安全
人工智能将释放生物学几乎无限的潜力:新疾病的治疗方法、新颖的工业用例等。同时,它可能为恶意行为者创造合成有害病原体和其他生物分子的新途径。解决这一问题的方法是一种多层次的方法,旨在筛查恶意行为者,以及提供更有效的筛查工具和基础设施。随着这些工具、政策和执行机制的成熟,与盟友和伙伴合作确保国际采用至关重要。
建议的政策行动
-
要求所有获得联邦资金用于科学研究的机构使用具有强大核酸序列筛查和客户验证程序的核酸合成工具和合成提供商。为这一要求创建执行机制,而不是依赖自愿证明。 -
在科学技术政策办公室的领导下,召集政府和行业参与者,开发一种机制,促进核酸合成提供商之间的数据共享,以筛查潜在的欺诈性或恶意客户。 -
通过商务部人工智能标准与创新中心、国家安全机构和相关研究机构之间的合作,建立、维护并在必要时更新与国家安全相关的人工智能评估。
www.smartcity.team