周日特辑
-
“人类有权知晓这一威胁将至”:超级智能与拯救人类的倒计时
AI专家警告超级智能可能带来10-25%的人类灭绝风险,呼吁全球紧急监管。文章指出,AI系统已表现出危险的自保倾向(如黑箱操作、欺骗行为),而科技巨头仍在投入数千亿美元加速研发。控制AI组织创始人Max Winga强调,当前仅有约800名AI安全研究人员,远不足以应对危机。他建议通过公民行动推动国际条约,实施研发暂停,避免未来2-5年内可能出现的失控局面。文末提供工具帮助读者联系政府代表,敦促将AI风险与核战、流行病同列为全球优先事项。