HyperAI超神经
Back to Headlines

加州发布新AI监管报告,强调透明度与第三方评估重要性

6 days ago

去年9月,加州参议院法案1047引起了广泛关注,最终却被州长加文·纽森否决。该法案本意要求那些训练成本超过1亿美元的大型AI模型开发者对模型进行特定风险测试。这一决定引起了行业内部举报者的不满,但大多数大型科技公司对此表示欢迎。然而,故事并未就此结束。纽森认为法案过于严苛和一刀切,他委托一群领先的AI研究者提出替代方案,旨在支持生成式AI的发展并治理其风险。 本周二,这份由斯坦福大学人工智能研究所联合主任李飞飞、卡内基国际和平基金会总裁马里亚诺-弗洛伦蒂诺·库埃拉尔和加州大学伯克利分校计算、数据科学和社会学院院长詹妮弗·图尔·查耶斯共同领导撰写的《加州前沿政策报告》正式发布。报告指出,自纽森否决SB 1047以来,AI能力,尤其是模型的“推理”能力有了显著提升。通过历史案例研究、实证研究、建模和模拟,他们建议建立一个更加透明和独立审查的框架,以应对AI的风险。 报告认为,前沿AI技术在加州的突破可能对农业、生物技术、清洁能源、教育、金融、医疗和交通等众多领域产生重要影响。作者们强调,监管不应抑制创新,而是要确保企业有足够的资源来遵守规范。同时,他们重申了风险管理的重要性:“没有适当的安全措施,强大的AI可能导致严重的、有时甚至是不可逆转的伤害。” 自今年3月发布草案以来,报告经历多次修订。作者们指出,加州的AI政策需要应对迅速变化的地缘政治现实,并增加了更多关于大型AI模型真实世界应用风险的背景信息。他们还调整了公司的分类标准,不再单纯依赖训练所需算力。报告认为,算力需求一直在变化,仅以此为依据无法全面反映模型的实际应用风险。 报告呼吁加强举报人保护,第三方评估机构的独立审查以及向公众直接分享信息,以实现超越当前领先AI公司所披露的透明度。作者之一斯科特·辛格在接受The Verge采访时指出,联邦层面的AI政策讨论已经完全改变,而加州可以引领各州之间的协调努力,推动全国普遍支持的合理政策,避免出现零散的州法律导致的混乱局面。 此外,报告还提出了一些具体措施,如建立第三方风险评估机制,保护独立研究人员的安全,并为因AI系统受损的人提供报告渠道。这些措施不仅有助于增强AI模型的安全性,还可以更好地了解实际应用中可能出现的问题。目前,领先AI公司通常自行或雇用第二方承包商进行评估,但第三方评估至关重要。因为“有成千上万的个人愿意参与风险评估,这远超内部团队和外包团队的规模。”而且,第三方面试团队在多样性上具有显著优势,特别是在开发团队主要来自特定人口和地理区域的情况下,能够更全面地评估对不同群体的实际影响。 然而,给予第三方评估人员广泛的访问权限并不容易。即使对于第二方评估者,获取这种级别访问权也非常困难。例如,OpenAI的合作安全测试公司Metr曾表示,他们在测试o3模型时未能获得足够的数据和模型内部推理访问权限,这限制了他们进行有效评估的能力。OpenAI随后表示正在探索与Metr等公司共享更多数据的方法。 报告还引用了一封于今年3月由350多名AI行业研究人员签署的公开信,信中呼吁为独立AI安全测试提供“安全港”,类似于其他领域已有的第三方网络安全测试保护措施。报告指出,即使设计完美的安全政策也难以防止所有重大不良后果的发生,随着基础模型的广泛应用,了解实践中产生的实际伤害变得尤为重要。

Related Links