OpenAI首席执行官Sam Altman近日发出重要警告:在特定法律情况下,公司可能被迫向法院提交用户通过ChatGPT分享的敏感信息和文件。这一声明引发了对AI时代隐私保护的新一轮讨论。
Sam Altman做客《本周末》播客节目讨论AI隐私议题(来源:YouTube)
AI对话缺乏法律特权保护
在上周与知名播客主持人Theo Von的深度对话中,Altman将这一隐私隐患称为”亟待解决的重大问题”。他指出,与传统专业服务不同,用户与ChatGPT的对话目前尚未获得类似心理医生、律师或医生的法律特权保护。
“当前法律体系下,与专业人员的咨询享有保密特权,但AI对话的法律地位仍不明确。如果用户与ChatGPT讨论高度敏感内容,在诉讼情况下我们可能被强制要求披露这些信息。”
这一警告恰逢越来越多用户开始依赖AI进行心理健康支持、医疗咨询和财务规划等敏感话题。Altman强调,这种现状极不合理,AI对话理应获得与传统专业服务同等的隐私保护级别。
亟需建立AI隐私法律框架
Altman呼吁尽快建立专门规范AI隐私保护的法律政策框架,他认为这是数字时代必须面对的”关键挑战”。
“这解释了为何我在使用某些AI产品时会有所顾虑——因为缺乏明确规范,我们无法确定个人信息的最终流向和控制者。”
据Altman透露,与其交流的政策制定者普遍认同这一问题的重要性,并认为需要尽快采取行动。他主张AI对话应该获得与医疗和法律咨询同等级别的隐私保护。
AI普及与隐私保护的平衡
Altman还探讨了AI技术广泛应用可能带来的监控风险。他指出,随着AI在全球范围内的快速普及,各国政府出于反恐和执法需求,对公众活动的监控需求将不可避免地增加。
虽然Altman表示愿意为公共安全做出适度的隐私让步,但他同时发出警示:
“历史经验告诉我们,政府权力存在被滥用的风险,这一可能性令我深感忧虑。我们需要在技术创新与公民权利保护之间找到平衡点。”
这一讨论凸显了在AI技术飞速发展的当下,建立完善的隐私保护机制和法律框架的紧迫性。随着AI应用场景的不断扩展,如何保障用户数据安全将成为行业和监管机构面临的核心挑战。
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/27259.html