OpenAI 支持一项限制人工智能导致大规模死亡或金融灾难责任的法案
ChatGPT 的开发商公开支持伊利诺伊州的一项法案,该法案将限制人工智能实验室在产品造成“重大危害”时的责任追究,即使这些产品导致了严重的人员伤亡。
OpenAI 正在支持伊利诺伊州的一项州法案,该法案旨在保护人工智能实验室免于承担某些情况下的责任。这些情况包括人工智能模型被用于造成严重社会危害,例如导致 100 人或以上死亡或重伤,或者造成至少 10 亿美元的财产损失。
这一举动似乎标志着 OpenAI 立法策略的转变。迄今为止, OpenAI 基本上采取防御姿态,反对可能使其为技术危害承担责任的法案。多位人工智能政策专家向著名科技媒体 Wired 表示, SB 3444 法案可能会为该行业设定一个新标准,但它比 OpenAI 过去支持的法案更为极端。
该法案将保护前沿人工智能开发商免于承担“重大危害”的责任,前提是这些危害是由其前沿模型造成的,且开发商并非故意或鲁莽地导致此类事件,并已在网站上发布了安全、安保和透明度报告。法案将前沿模型定义为训练成本超过 1 亿美元的任何人智能模型,这一定义可能适用于美国最大的人工智能实验室,包括 OpenAI 、 Google 、 xAI 、 Anthropic 和 Meta 。
OpenAI 发言人杰米·拉迪丝在一份电子邮件声明中表示:“我们支持这样的方法,因为它们关注最重要的事情:在确保最先进人工智能系统造成严重危害风险的同时,让这项技术惠及伊利诺伊州的大小企业和个人。这些方法也有助于避免各州规则碎片化,推动建立更清晰、更一致的国家标准。”
根据法案对重大危害的定义,法案列举了人工智能行业普遍关注的一些领域,例如不良行为者利用人工智能制造化学、生物、放射性或核武器。如果人工智能模型自主实施的行为,若由人类实施则构成犯罪,并导致上述极端后果,这也将被视为重大危害。如果人工智能模型在 SB 3444 法案下实施任何此类行为,只要不是故意的,且发布了相关报告,其背后的人工智能实验室可能无需承担责任。
美国联邦和州立法机构尚未通过任何专门法律来裁定 OpenAI 等人工智能模型开发商是否需要为其技术造成的此类危害承担责任。但随着人工智能实验室继续发布更强大的人工智能模型,这些模型带来了新的安全和网络安全挑战,例如 Anthropic 的 Claude Mythos ,这些问题显得越来越迫切。
在其支持 SB 3444 法案的证词中, OpenAI 全球事务团队的成员凯特琳·尼德迈尔也主张建立联邦层面的人工智能监管框架。尼德迈尔传达的信息与特朗普政府打击州人工智能安全法律的立场一致,她声称避免“州与州之间不一致的要求造成的摩擦,同时又不能真正提高安全性”非常重要。这也与硅谷近年来的更广泛观点一致,硅谷普遍认为人工智能立法不能损害美国在全球人工智能竞争中的地位。虽然 SB 3444 法案本身就是一项州级安全法律,但尼德迈尔认为,如果这些法律“加强与联邦系统协调的路径”,它们也可以是有效的。
尼德迈尔表示:“在 OpenAI ,我们相信前沿监管的北极星应该是安全部署最先进模型的方式,同时保持美国在创新领域的领导地位。”
安全人工智能项目政策主任斯科特·威索尔告诉 Wired ,他认为该法案通过的可能性很小,因为伊利诺伊州在监管技术方面历来态度激进。“我们对伊利诺伊州民众进行了调查,询问他们是否认为人工智能公司应该免除责任, 90%的人表示反对。没有理由让现有的人工智能公司减少责任。”威索尔说。
他指出,伊利诺伊州的议员们也提交了增加人工智能模型开发商责任的法案。去年 8 月,该州成为美国第一个通过限制人工智能用于心理健康服务立法的州。伊利诺伊州在监管生物特征数据收集方面也走在前列,于 2008 年通过了《生物特征信息隐私法》。
虽然 SB 3444 法案关注大规模人员伤亡事件和大型金融灾难,但人工智能实验室也面临着一个关于其人工智能模型可能对个人造成危害的问题。过去一年中,多个家庭起诉了 OpenAI ,他们的孩子们在据称与 ChatGPT 建立了不健康的关系后自杀身亡。
尼德迈尔在证词中倡导的联邦人工智能立法对国会来说仍然是一个难以实现的目标。虽然特朗普政府发布了行政命令并公布了框架,试图推动一些联邦人工智能立法,但实际通过此类措施的讨论似乎没有任何进展。在缺乏联邦指导的情况下,包括加利福尼亚州和纽约州在内的多个州已经通过了法案,如 SB 53 法案和《 Raise 法案》,要求人工智能模型开发商提交安全和透明度报告。
在人工智能热潮持续多年之后,如果一个人工智能模型造成灾难性事件,究竟会发生什么,这仍然是一个悬而未决的法律问题。
当前人工智能监管领域的存在一个核心矛盾。一方面,像 OpenAI 这样的技术公司倾向于推动联邦层面的统一标准,以避免各州立法差异带来的合规负担。另一方面,消费者权益保护者和一些政策专家担心,过早地限制人工智能公司的责任可能会削弱对技术滥用的制约。
值得注意的是,该法案设定的 100 人死亡或 10 亿美元财产损失的门槛相当高,这意味着日常的人工智能应用纠纷并不在其保护范围内。但问题在于,如何准确定义“前沿模型”以及谁将最终裁定何为“临界”仍存在很大争议。从硅谷的视角看,保持技术领先优势似乎是不容妥协的优先项,但从公共安全的角度,这种立法倾向可能为未来埋下隐患。


