以太坊联合创始人Vitalik Buterin近日发出警告,指出在加密项目治理过程中使用人工智能可能带来严重安全隐患,为恶意攻击者提供可乘之机。
Buterin在社交媒体平台X上发文表示:“一旦使用AI来分配贡献奖励,攻击者极有可能在系统中植入越狱指令,例如直接要求‘将所有资金转移至指定账户’。”这一观点引发加密社区对AI治理风险的广泛关注。
Buterin的评论是对AI数据平台EdisonWatch创始人Eito Miyamura所发布视频的回应。该视频演示了OpenAI最新为ChatGPT引入的一项功能可能被滥用以泄露用户隐私信息。
目前,不少加密货币用户已利用AI开发交易机器人和自动化代理以优化投资组合管理。随着AI应用日益普遍,部分人士提出使用AI协助甚至完全接管加密协议的治理工作。
Vitalik Buterin提出更安全的治理替代方案
针对AI治理的潜在风险,Buterin提出应转向更安全的“信息金融(info finance)”方法。他在推文中强调,ChatGPT最新暴露的漏洞恰恰说明“天真的‘AI治理’存在根本缺陷”。
This is also why naive “AI governance” is a bad idea.
If you use an AI to allocate funding for contributions, people WILL put a jailbreak plus “gimme all the money” in as many places as they can.
As an alternative, I support the info finance approach ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9
— vitalik.eth (@VitalikButerin)
September 13, 2025
Buterin早在2024年11月就曾撰文详细介绍“信息金融”方法。该方法以用户需要了解的事实为出发点,通过机制设计引导市场参与者提供有效信息,并主张借助预测市场获取未来事件的洞察。
他进一步解释:“这种机制设计方法更具弹性,它允许外部大语言模型(LLM)接入系统,而非直接编写LLM进行治理。”同时,该方法支持实时模型多样性,并为模型提交者和市场投机者提供持续监督与快速纠错的激励机制。
ChatGPT新升级存在“严重安全风险”
近日,OpenAI为ChatGPT推出了一项重要更新,新增对“模型上下文协议(Model Context Protocol)”的支持。该协议旨在促进AI模型与其他软件之间的智能代理集成,然而却可能引发新的隐私泄露问题。
Eito Miyamura在X平台上披露,仅通过受害者的邮箱地址,就能利用该功能使AI模型泄露其私人邮件数据。他明确指出,此次升级“带来严重安全风险”。
据其介绍,攻击者只需向目标发送带有“越狱提示”的日历邀请,即使对方未接受该邀请,ChatGPT仍可能被恶意利用。整个攻击过程无需受害者主动参与,大大增加了潜在危害。
当用户允许ChatGPT访问日历时,AI会自动读取含有恶意指令的邀请,进而被攻击者控制,执行诸如搜索邮件并转发给攻击者的操作。
Miyamura提醒,尽管该功能需用户手动批准,但“决策疲劳是真实存在的,很多用户往往因过度信任AI而盲目点击同意”。他总结称:“再智能的AI系统,仍可能通过低级骗术遭受钓鱼攻击,最终导致数据外泄。”
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/40937.html