出品|搜狐科技
作者|郑松毅
编辑|杨锦
AI究竟该如何监管?李飞飞、吴恩达等AI大佬,正在与美国立法机构展开较量。
是“解药”还是“毒药”?
近日,一个名为“SB-1047” 的AI监管法案成为焦点,引来众多AI大佬不满。
就在昨日,李飞飞亲自撰文提出 *** ,加州大学7个校区的师生及其他机构研究人员起草并签署联名信企图阻止法案通过。
该法案全称为《前沿人工智能模型安全创新法案》(以下简称“法案”),旨在为AI模型树立安全标准,明确责任划分,以防止AI滥用带来的灾难性后果。
《法案》最初于2月份在参议院被提出,几经修改后,很多AI科学家仍认为该《法案》条款存在极大不合理性,或将对AI发展产生不利影响。
根据《法案》,受重点监管的AI模型范围包括使用超过 10^26 次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元。
同时,利用等于或大于 10^25 次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型也在监管范围内。
简单来说,当前市场上的主流AI大模型几乎都被包含在内,需接受“重点照顾”。
另外,《法案》直接要求开发者对模型开发及后续衍生应用承担法律责任。
“在模型正式发布前,开发者应保证模型处于未经许可禁止访问状态,并保证模型在发布后不会对社会造成严重损害。”
“如在安全风险评估中发现模型有潜在安全风险,则开发者不得将模型用于商业或公开用途,也不得将模型衍生品用于商业或公开用途。”
《法案》规定,开发者每年需向监管部门上交一份由首席技术官或更高职位官员签署的安全证明,延迟未交或做伪证将受到处罚,甚至可能入狱。
《法案》要求开发者对“危险事件”具备及时响应能力:要在获知事件发生72小时内总结上报给监管部门,同时在设计代码时要让模型具备迅速“全面关闭”能力,以便及时停止使用。
同时,《法案》对举报人设有保护条款,鼓励举报者上报模型危害行为和风险,确保员工可以在不受报复的情况下报告企业的不合规情况。
据悉,如果法案获得通过,州长 Gavin Newsom的一个签名就可以将其纳入加州法律。
从表面来看,《法案》拟定出发点是好的,但在科学家们看来,这些繁琐的规定或将成为AI创新发展的“抑制剂”。
李飞飞:AI生态系统会因此变得更糟
《法案》在正式通过前,留给科学家们 *** 的时间已经不多了。
为此,李飞飞亲自撰文陈述《法案》不合理性,试图再为合理立法争取一些时间。
李飞飞在文中表示,“善意的人工智能法案将损害美国生态系统。人工智能政策制定必须以鼓励创新为前提,设置适当的限制。不这样做的政策在更好的情况下无法实现其目标,在最坏的情况下会导致意想不到的严重后果。”
她提到,“每个AI开发者(尤其是初出茅庐的开发者和企业家)都无法预知模型的所有用途,法案对开发者过度追责将迫使开发者退缩并采取防御措施——这正是需要避免的。”
在李飞飞看来,该法案对开源社区将形成毁灭性影响。
“法案提到的‘全面关闭’是一种可以随时关闭程序的机制。如果程序员们都在担心他们下载或正在构建的程序可能会被随时删除,他们将更加不愿意编写代码和写作。‘全面关闭’将摧毁开源社区——它是无数创新的源泉。其影响不限于人工智能领域,而是在从 GPS 到 MRI 到互联网本身的各个领域。”
她提到,“法案将削弱公共部门和学术人工智能研究。开源开发对于私营部门很重要,但对于学术界也至关重要。如果没有协作和对模型数据的访问,学术界就无法进步。如果我们的机构无法获得适当的模型和数据,我们将如何培养下一代人工智能领导者?”
“终止开关甚至会进一步削弱学生和研究人员的努力,与大型科技公司相比,他们在数据和计算方面已经处于劣势。在我们应该加倍加大公共部门人工智能投资时,SB-1047 将为学术人工智能敲响丧钟。”
李飞飞强调,该法案并未解决人工智能进步的潜在危害,包括偏见和深度伪造等等。相反,SB-1047 设置了一个任意阈值——调节使用一定计算能力或花费 1 亿美元训练的模型。
在她看来,这项措施远非提供保障,只会限制包括学术界在内的跨部门创新。如果学术界受到 SB-1047 的监管,我们的人工智能生态系统将会因此而变得更糟。”
她澄清自己并不反对人工智能治理,但认为该法案目前过于武断。同时,加州是全美最强大的人工智能生态所在地,立法将具备代表性并会影响到其他地方,需要谨慎思考。
“立法对于人工智能的安全有效发展至关重要。但人工智能政策必须促进开源开发,提出统一且合理的规则,并建立消费者信心。”李飞飞说。
AI大佬联合发起 *** ,怒斥法案“愚蠢”
除李飞飞外,加州院校和AI相关研究机构也在行动,联合起草 *** 试图阻止法案通过。
除了与李飞飞上述提到的类似观点外, *** 还强调了该法案对教育的损害。
“SB-1047未来可能会阻碍对人工智能感兴趣的学生进一步学习相关知识,甚至可能会阻止新人才进入计算机科学等关键领域。此外,随着科技行业从大公司向初创公司的转变,额外的监管障碍可能会通过支持更大、更好的企业来削弱新兴创新者。这种转变可能会缩窄学生的职业道路。”
截至目前,数十名来自加州大学7个校区、哈佛大学、Samaya.ai等院校及研究机构的学者们已完成签名,共同吹响抗争号角。
除了 *** ,不少大佬选择在社交媒体上发声,给这把火又添了把柴。
吴恩达发文致谢Meta团队对开源做出的贡献,并表示“希望SB-1047这样愚蠢的法规不会阻止此类创新。”
他指出,“这项拟议的法律犯了一个根本性的错误:应监管人工智能应用而不是技术。”
“我欢迎取缔未经同意深度伪造的内容,用水印等特别设置识别生成内容,并为安全研究方面投入更多资金。不幸的是,拟议的法案走的是一条不太有益、更有害的道路。”
吴恩达认为,模糊不清的法案要求将会提高企业合规成本,即便是还没什么收入的小公司也需要聘请团队帮助审核,以帮助确保他们遵守这些模糊且不合理的要求。
图灵奖得主杨立昆随即为吴恩达的论证点赞,并再次强调该法案将扼杀开源人工智能,并阻止人工智能创新。
未来学者和思想家Daniel Jeffries尖锐指出,“SB-1047不是人工智能安全法案,而是特洛伊木马(病毒)。”
“它(法案)的设计看起来谨慎,但其真正目的是为一小群边缘反人工智能分子提供致命开关,同时给加州的科技行业带来破坏。”Daniel Jeffries说。
发表评论
2024-11-04 07:51:46回复
2024-11-04 07:55:07回复
2024-12-24 01:14:56回复
2024-12-24 01:18:00回复