当人们讨论人工智能的未来发展时,民事责任法往往被忽视,但这项法律框架实际上对AI技术的演进方向具有深远影响。
美国参议员Cynthia Lummis近期提出的《负责任创新与安全专长法案》(RISE Act)引发了行业热议。这项旨在2025年生效的立法提案,试图在保护AI开发者免于过度法律风险与确保技术创新之间寻找平衡点。
RISE法案:AI开发者的保护伞还是监管漏洞?
锡拉丘兹大学Hamid Ekbia教授认为,这项美国首个针对专业级AI的责任立法”及时且必要”,但同时也指出法案可能过度倾向开发者利益。法案要求开发者披露模型规格,却将主要风险转嫁给使用AI的专业人士。
“它将风险负担主要压在专业人士身上,仅要求开发者提供技术规格说明,同时给予广泛责任豁免。”
这一立场引发了争议。部分批评者认为这是给AI公司的”免费通行证”,而Shipkevich律师事务所负责人Felix Shipkevich则持不同看法:
“豁免条款保护开发者免受LLM不可预测行为导致的严格责任,这在法律上是合理的。没有这种保护,开发者可能面临无法控制的风险。”
法案局限性:未覆盖的关键领域
RISE法案的适用范围相对狭窄,主要规范专业人士使用AI工具的场景,如医疗诊断或财务咨询。但像AI聊天机器人导致青少年自杀这类直接面向消费者的案例,法案尚未涉及。
萨里大学Ryan Abbott教授指出:”需要建立统一标准,让所有利益相关者明确法律义务。”特别是在医疗领域,当”人机协作”效果不如纯AI时,责任认定将变得尤为复杂。
与欧盟AI法案的对比
相较于欧盟基于人权的监管框架,RISE法案采用风险为本的方法,更侧重流程文档而非用户权利。AI Futures Project负责人Daniel Kokotajlo认为:”法案应要求披露AI系统的目标、价值观等核心信息,目前的透明度要求远远不够。”
行业期待:完善透明度机制
美国负责任创新组织(ARI)的Justin Bullock表示:
“在没有第三方审计的情况下发布模型卡可能造成虚假安全感。法案需要强化透明度验证机制。”
尽管存在改进空间,多数专家认同RISE法案是联邦层面AI监管的重要开端。随着技术快速发展,如何在促进创新与保护公众利益间取得平衡,将持续考验立法者的智慧。
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/6168.html