OpenAI 支持限制 AI 导致群体死亡或金融灾难责任的法案

OpenAI 公开支持伊利诺伊州 SB 3444 法案,该法案将限制 AI 实验室在产品造成 100 人以上死亡或 10 亿美元财产损失时的责任追究,只要非故意且已发布安全报告。此举标志 OpenAI 从防御姿态转向主动立法参与,但政策专家指出该法案可能为行业设定新标准且过于极端,遭到消费者权益保护者反对,反映了技术公司推动联邦统一标准与公共安全监管之间的深层矛盾。

发布于2026年4月10日 17:31
作者小创
评论0
阅读2

OpenAI 支持一项限制人工智能导致大规模死亡或金融灾难责任的法案

ChatGPT 的开发商公开支持伊利诺伊州的一项法案,该法案将限制人工智能实验室在产品造成“重大危害”时的责任追究,即使这些产品导致了严重的人员伤亡。

OpenAI 正在支持伊利诺伊州的一项州法案,该法案旨在保护人工智能实验室免于承担某些情况下的责任。这些情况包括人工智能模型被用于造成严重社会危害,例如导致 100 人或以上死亡或重伤,或者造成至少 10 亿美元的财产损失。

这一举动似乎标志着 OpenAI 立法策略的转变。迄今为止, OpenAI 基本上采取防御姿态,反对可能使其为技术危害承担责任的法案。多位人工智能政策专家向著名科技媒体 Wired 表示, SB 3444 法案可能会为该行业设定一个新标准,但它比 OpenAI 过去支持的法案更为极端。

该法案将保护前沿人工智能开发商免于承担“重大危害”的责任,前提是这些危害是由其前沿模型造成的,且开发商并非故意或鲁莽地导致此类事件,并已在网站上发布了安全、安保和透明度报告。法案将前沿模型定义为训练成本超过 1 亿美元的任何人智能模型,这一定义可能适用于美国最大的人工智能实验室,包括 OpenAI 、 Google 、 xAI 、 Anthropic 和 Meta 。

OpenAI 发言人杰米·拉迪丝在一份电子邮件声明中表示:“我们支持这样的方法,因为它们关注最重要的事情:在确保最先进人工智能系统造成严重危害风险的同时,让这项技术惠及伊利诺伊州的大小企业和个人。这些方法也有助于避免各州规则碎片化,推动建立更清晰、更一致的国家标准。”

根据法案对重大危害的定义,法案列举了人工智能行业普遍关注的一些领域,例如不良行为者利用人工智能制造化学、生物、放射性或核武器。如果人工智能模型自主实施的行为,若由人类实施则构成犯罪,并导致上述极端后果,这也将被视为重大危害。如果人工智能模型在 SB 3444 法案下实施任何此类行为,只要不是故意的,且发布了相关报告,其背后的人工智能实验室可能无需承担责任。

美国联邦和州立法机构尚未通过任何专门法律来裁定 OpenAI 等人工智能模型开发商是否需要为其技术造成的此类危害承担责任。但随着人工智能实验室继续发布更强大的人工智能模型,这些模型带来了新的安全和网络安全挑战,例如 Anthropic 的 Claude Mythos ,这些问题显得越来越迫切。

在其支持 SB 3444 法案的证词中, OpenAI 全球事务团队的成员凯特琳·尼德迈尔也主张建立联邦层面的人工智能监管框架。尼德迈尔传达的信息与特朗普政府打击州人工智能安全法律的立场一致,她声称避免“州与州之间不一致的要求造成的摩擦,同时又不能真正提高安全性”非常重要。这也与硅谷近年来的更广泛观点一致,硅谷普遍认为人工智能立法不能损害美国在全球人工智能竞争中的地位。虽然 SB 3444 法案本身就是一项州级安全法律,但尼德迈尔认为,如果这些法律“加强与联邦系统协调的路径”,它们也可以是有效的。

尼德迈尔表示:“在 OpenAI ,我们相信前沿监管的北极星应该是安全部署最先进模型的方式,同时保持美国在创新领域的领导地位。”

安全人工智能项目政策主任斯科特·威索尔告诉 Wired ,他认为该法案通过的可能性很小,因为伊利诺伊州在监管技术方面历来态度激进。“我们对伊利诺伊州民众进行了调查,询问他们是否认为人工智能公司应该免除责任, 90%的人表示反对。没有理由让现有的人工智能公司减少责任。”威索尔说。

他指出,伊利诺伊州的议员们也提交了增加人工智能模型开发商责任的法案。去年 8 月,该州成为美国第一个通过限制人工智能用于心理健康服务立法的州。伊利诺伊州在监管生物特征数据收集方面也走在前列,于 2008 年通过了《生物特征信息隐私法》。

虽然 SB 3444 法案关注大规模人员伤亡事件和大型金融灾难,但人工智能实验室也面临着一个关于其人工智能模型可能对个人造成危害的问题。过去一年中,多个家庭起诉了 OpenAI ,他们的孩子们在据称与 ChatGPT 建立了不健康的关系后自杀身亡。

尼德迈尔在证词中倡导的联邦人工智能立法对国会来说仍然是一个难以实现的目标。虽然特朗普政府发布了行政命令并公布了框架,试图推动一些联邦人工智能立法,但实际通过此类措施的讨论似乎没有任何进展。在缺乏联邦指导的情况下,包括加利福尼亚州和纽约州在内的多个州已经通过了法案,如 SB 53 法案和《 Raise 法案》,要求人工智能模型开发商提交安全和透明度报告。

在人工智能热潮持续多年之后,如果一个人工智能模型造成灾难性事件,究竟会发生什么,这仍然是一个悬而未决的法律问题。


当前人工智能监管领域的存在一个核心矛盾。一方面,像 OpenAI 这样的技术公司倾向于推动联邦层面的统一标准,以避免各州立法差异带来的合规负担。另一方面,消费者权益保护者和一些政策专家担心,过早地限制人工智能公司的责任可能会削弱对技术滥用的制约。

值得注意的是,该法案设定的 100 人死亡或 10 亿美元财产损失的门槛相当高,这意味着日常的人工智能应用纠纷并不在其保护范围内。但问题在于,如何准确定义“前沿模型”以及谁将最终裁定何为“临界”仍存在很大争议。从硅谷的视角看,保持技术领先优势似乎是不容妥协的优先项,但从公共安全的角度,这种立法倾向可能为未来埋下隐患。

相关文章

Meta 新型 AI 模型让扎克伯格坐上“主桌”
AI 新闻资讯
2026年4月10日
0 条评论
小创

Meta 新型 AI 模型让扎克伯格坐上“主桌”

Meta 推出 Muse Spark 模型,这是其 AI 战略重启后的首款重要产品。 Muse Spark 具备多模态和高级推理能力,在基准测试中超越 OpenAI 、 Google 等竞争对手,被视为 Meta 迈向“个人超级智能”愿景的关键一步。为加速 AI 业务发展, Meta 投入巨资招聘顶尖人才和投资初创企业。当前模型保持闭源,但 Meta 承诺未来将开源,并发布安全扩展框架,阐述将 AI 能力扩展至超越人类水平的目标。

#Meta#Muse Spark
阅读全文
矛盾裁决让 Anthropic 深陷供应链风险困境
AI 新闻资讯
2026年4月10日
0 条评论
小创

矛盾裁决让 Anthropic 深陷供应链风险困境

美国上诉法院裁定 Anthropic“未能满足撤销五角大楼供应链风险认定所需达到的严格条件”,与此前旧金山下级法院的裁决相矛盾。 Anthropic 因坚持 Claude 缺乏某些敏感军事操作准确性而面临政府惩罚,这两家法院各依据不同法律作出判决。 Anthropic 主张供应链认定违法,政府则强调军事指挥权属于总统而非科技公司。目前两案仍在审理中,最终判决预计还需数月, Anthropic 在联邦政府中的地位悬而未决。

#Anthropic
阅读全文
70 人 AI 图像创业公司挑战硅谷巨头
AI 新闻资讯
2026年4月10日
0 条评论
小创

70 人 AI 图像创业公司挑战硅谷巨头

Black Forest Labs 是德国一家仅 70 人的 AI 初创公司,凭借“潜扩散”技术以远少于竞争对手的资源,开发出性能仅次于 OpenAI 和 Google 的图像生成模型。公司估值已达 32.5 亿美元,与 Adobe 、 Meta 、微软等巨头达成合作。公司联合创始人表示,视觉智能远超内容创作,计划今年推出搭载 AI 模型的机器人,并涉足智能眼镜领域,将业务从图像生成扩展至物理智能。

阅读全文
互动讨论

评论区

围绕《OpenAI 支持限制 AI 导致群体死亡或金融灾难责任的法案》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。