转发原文标题:《d/acc:一年后》
一年前,我发表了一篇关于技术乐观主义的文章,阐述了技术发展可能带来的巨大机遇,同时也对某些特定风险表达了担忧,特别是超智能人工智能可能引发的危机。文章的核心观点是:我们需要推动去中心化和民主化的差异化防御加速。这意味着在加快技术进步的同时,应该优先发展那些增强人类防御能力的技术,而非可能造成伤害的技术,同时确保技术权力不会过度集中在少数精英手中。理想的防御模式应该借鉴民主瑞士的治理方式,或是历史上那些准无政府状态的地区,而非中世纪封建领主式的权力结构。
过去一年里,这一理念得到了显著发展。我在”80,000小时”播客中深入探讨了这些观点,收获了广泛反响——大多数是积极的,也不乏建设性的批评。我们的工作持续推进,并取得了多项实质性进展:在可验证的开源疫苗研发方面取得突破,健康室内空气的重要性获得更多认可,社区笔记功能持续发挥作用,预测市场作为信息工具迎来爆发式增长,零知识证明技术在政府身份识别和社交媒体领域得到应用(同时通过账户抽象技术保护以太坊钱包安全),开源成像工具在医学和脑机接口领域的应用也取得进展。去年秋天,我们在Devcon举办了首届重要的d/acc活动——”d/acc发现日”,汇集了来自生物、物理、网络、信息防御和神经技术等各领域的专家。长期从事这些技术研究的人们开始意识到彼此工作的关联性,外界也越来越多地关注到:推动以太坊和加密货币发展的核心理念,同样可以应用于更广阔的世界。

目录
d/acc的定义与界限
想象一下2042年的场景:媒体报道称你所在城市可能出现新疫情。这已经司空见惯——人们对每种动物疾病的变异总是反应过度,但大多数最终并未真正爆发。此前两次潜在疫情通过废水监测和社交媒体开源分析被早期发现并完全控制。但这次不同,预测市场显示至少有10,000例感染的概率达到60%,这让你开始担忧。
病毒的基因序列昨天已被确认。你的便携式空气测试仪已通过软件更新获得检测新病毒的能力(仅需一次呼吸或在密闭空间暴露15分钟)。预计几周内就能获得利用现代医疗设备生成疫苗的开源说明。大多数人目前依赖普遍使用的空气过滤和通风系统进行防护。由于你有免疫系统疾病,所以更加谨慎:你的开源本地AI助手不仅处理导航、餐厅推荐等日常事务,还能实时分析空气测试仪和二氧化碳数据,只推荐最安全的场所。这些数据来自成千上万的参与者和设备,通过零知识证明和差分隐私技术最大限度地降低了数据泄露风险(如果你想贡献数据,还有专门的AI助手验证这些加密工具的有效性)。
两个月后,疫情消失了。数据显示,60%的人在空气测试仪发出病毒警报时佩戴口罩,在检测阳性时居家隔离,这些基本防护措施配合高效的空气过滤系统,成功将传播率控制在1以下。模拟显示,二十年前可能比新冠严重五倍的疾病,如今已变得微不足道。
|
|
|
Devcon d/acc 日
Devcon的d/acc活动最令人振奋的成果是,d/acc框架成功地将来自不同领域的专家聚集在一起,使他们真正对彼此的工作产生了兴趣。
组织一个表面”多元化”的活动很容易,但让不同背景和兴趣的人真正建立联系却极具挑战。我仍记得学生时代被迫观看冗长歌剧的经历——虽然理论上应该欣赏,但实际上感到乏味。d/acc日活动完全避免了这种尴尬:参与者似乎真心享受了解不同领域的工作成果。
要创造一个超越统治、减速和毁灭的替代方案,我们需要建立这种广泛的联盟。d/acc在这方面取得的成功,本身就证明了这一理念的价值。
d/acc的核心思想简明有力:推动去中心化和民主化的差异化防御加速。
我们需要发展使攻防平衡向防御倾斜的技术,同时避免权力过度集中。这两者密切相关:任何去中心化、民主或自由的政治结构,在防御容易时发展最好,而在防御困难时则面临最大挑战——后者往往导致所有人相互对抗的战争,最终形成强者统治的局面。
d/acc的核心原则适用于多个领域:

图表来自 My Techno-Optimis,
从我去年关于技术乐观主义的文章中可以看出,理解同时追求去中心化、防御性和加速思维的重要性,可以通过与放弃这三者的哲学进行对比来实现。
去中心化加速但不关注”差异化防御”的方法,本质上是一种去中心化的e/acc。虽然有不少支持者采用这种方式,其中一些人自称为d/acc,但他们更倾向于将重点描述为”进攻”。还有更多人温和地对”去中心化AI”等主题表示兴趣,但在我看来,他们对”防御”方面的关注不足。这种方法可能避免了特定群体对全球人类的专制统治风险,但未能解决潜在结构性问题:在偏向进攻的环境中,总是存在灾难或有人自我定位为保护者并永久占据顶端的风险。在人工智能的具体案例中,它也没有很好地解决人类整体相对于人工智能被削弱的风险。
差异化防御加速但不关心”去中心化和民主”的方法,出于安全考虑接受集中控制,对部分人具有持久吸引力。最近,一些人担心极端的集中控制是应对未来技术极端情况的唯一解决方案。然而,集中控制是一个光谱。经常被忽视但仍具危害性的温和集中控制形式,体现在生物技术领域对公众监督的抵制,以及允许这种抵制不受挑战的闭源规范。这种方法的根本风险在于,中心本身往往就是风险的来源。我们在新冠疫情期间已经见证了这一点:多个主要政府资助的功能获得研究可能是疫情源头,集中知识论导致世界卫生组织多年不承认新冠病毒空气传播的事实,而强制社交隔离和疫苗接种引发的政治反弹可能持续数十年。与人工智能或其他风险技术相关的任何风险也可能出现类似情况。去中心化的方法将更好地应对来自中心自身的风险。
去中心化防御但不关心加速的方法,本质上是试图减缓技术进步或经济减速。这种策略面临双重挑战:首先,从整体看,技术和经济增长对人类极其有利,任何延迟都会带来难以估量的成本;其次,在非极权世界中,不进步是不稳定的——那些找到可信方式继续进步的人将获得领先优势。减速主义策略在某些特定背景下可能部分有效,但它们无法永远奏效。
对于d/acc,我们希望:在世界日益部落化的时期保持原则,不是随意构建任何东西,而是专注于构建使世界更安全、更美好的特定技术;承认指数级技术进步意味着世界将变得非常不同,人类对宇宙的总体”足迹”只会增加,我们必须提升保护脆弱生命的能力,但唯一出路是向前;构建使我们安全的技术,而非假设”好人(或好AI)掌控一切”,我们通过发展在建设和保护时更有效的工具,而非在破坏时更有效的工具来实现这一目标。
另一种理解d/acc的方式是回到2000年代末欧洲海盗党运动的赋权框架:

目标是构建一个保留人类自主权的世界,既实现避免他人干预的消极自由,又实现塑造自身命运的能力和确保拥有知识资源的积极自由。这与几个世纪以来的古典自由主义传统相呼应,也包括斯图尔特·布兰德对”工具获取”的关注,以及约翰·斯图尔特·密尔将教育与自由视为人类进步关键组成部分的观点。我们可以将d/acc视为在21世纪技术背景下实现这些相同目标的一种方式。
第三个维度:生存和发展
在我去年的文章中,d/acc特别关注防御性技术:物理防御、生物防御、网络防御和信息防御。然而,仅靠去中心化的防御不足以创造伟大的世界:我们还需要一个前瞻性的积极愿景,说明人类如何利用新获得的去中心化和安全性来实现目标。
去年的文章确实包含积极愿景,主要体现在两个方面:关于超智能挑战的路径探讨,以及信息防御领域的社会技术进步。但这些观点与d/acc的核心论点联系不够紧密。
实际上,”防御性”和”进步性”d/acc技术之间存在重要联系。通过增加”生存与发展”这一维度来扩展去年的d/acc图表,我们可以看到:

在所有领域中,帮助我们在某领域”生存”的科学、思想和工具,与帮助我们”繁荣”的科学、思想和工具密切相关。例如:近期抗新冠研究集中在病毒持续存在的作用上,这可能是长期新冠问题的机制,而病毒持续存在也可能与阿尔茨海默病有关——如果证实,解决各种组织的病毒持续问题可能成为对抗衰老的关键;Openwater正在开发的低成本微型成像工具可有效治疗微血栓、病毒持续、癌症,也可用于脑机接口;为高度对抗环境构建的社会工具和为合理合作环境构建的社会工具具有相似动机;预测市场在高合作和高对抗环境中都具有价值;零知识证明等隐私保护计算技术既增加了可用于科学研究的可用数据,又增强了隐私保护;太阳能和电池技术既支持清洁经济增长,又在去中心化和物理韧性方面表现出色。
此外,不同学科之间存在重要相互依赖关系:协作技术可用于协调各技术领域的资金;脑机接口作为信息防御和协作技术非常相关,它能实现更详细的思想和意图沟通;许多生物技术依赖于信息共享,这需要隐私技术的支持;协作技术可用于协调其他技术领域的资金。
难题:人工智能安全性、短期时间线和监管

不同人对人工智能发展时间线的预测差异很大。
这张图来自2023年黑山Zuzalu活动。
我去年文章中最有力的反对意见来自人工智能安全社区。他们认为:”如果我们还有半个世纪才面临强人工智能,可以集中精力构建所有这些好东西。但实际上,可能只有三年就能实现通用人工智能(AGI),再过三年达到超智能。因此,要避免世界被毁灭或陷入不可逆转的陷阱,我们不仅要加速好的事物,还必须减缓坏的事物,这需要通过强有力的监管来实现。”去年文章中,我确实没有呼吁任何具体的”减缓坏事物”策略,除了对不构建风险形式超智能的模糊呼吁。因此,值得直接回答这个问题:如果我们生活在人工智能风险高、时间线可能只有五年的”最不方便世界”,我会支持什么样的监管?
首先,对新法规谨慎考虑
去年提出的人工智能监管主要是加州SB-1047法案。该法案要求最强大模型的开发者在发布前进行安全测试,并对未尽注意义务者施加责任。许多反对者认为该法案”威胁开源”;我不同意,因为成本门槛意味着它只影响最强大的模型。但回顾起来,法案存在更大问题:与大多数监管一样,它过于适应当前情况。对训练成本的关注在面对新技术时显得脆弱:最新Deepseek v3模型的训练成本仅600万美元,而在o1等新模型中,成本正从训练转向推理。
其次,实际上最可能引发人工智能超智能灾难的是军方。正如过去半个世纪的生物安全等领域所示,军方愿意做一些可怕的事情,也容易犯错。今天,人工智能军事应用正在迅速推进。而政府通过的任何安全监管,默认都会使其军队和紧密合作的公司免责。
这些论点不是让我们束手无策的理由,而是制定尽量减少这些担忧的规则的指南。
策略1:责任
如果某人造成法律上可追究的损害,他们可能被起诉。这不能解决来自军方等”超越法律”行为者的风险,但这是非常通用的做法,避免了过度适应,通常得到倾向自由主义经济学家的支持。
已考虑的主要责任目标包括:用户、部署者和开发者。将责任归于用户似乎最符合激励。虽然模型开发方式与最终使用方式的联系常常不明确,但用户确切决定了人工智能使用方式。对用户施加责任会产生强大压力,促使他们以正确方式使用人工智能:专注于为人类思维构建机械外骨骼,而非创造新的自给自足智能生命形式。前者定期响应用户意图,不会导致灾难性行为,除非用户希望;后者则有最大风险导致经典”人工智能失控”场景。将责任尽可能接近最终使用的另一好处是,它最小化了责任导致人们采取其他有害行动的风险。
对仅将责任归于用户的经典反对论点是:用户可能是没有多少钱的普通人,甚至是匿名的,无法实际赔偿灾难性损害。这论点可能被夸大:即使某些用户太小而无法承担责任,人工智能开发者的平均客户并非如此,因此开发者仍有动力构建能让用户确信不会面临高责任风险的产品。尽管如此,这仍是有效论点,需要解决。你需要激励管道中有资源采取适当注意义务的人,部署者和开发者都是容易目标,他们对模型安全性仍有很大影响。
对部署者施加责任似乎合理。常被提到的担忧是这对开源模型可能不起作用,但这似乎可以管理,尤其因为最强大的模型很可能无论如何都是闭源的。开发者责任也存在同样担忧,但同样反驳适用。作为一般原则,对控制施加”税”,并基本说”你可以构建你无法控制的东西,或者构建你控制的东西,但如果你构建你控制的东西,那么20%的控制必须用于我们的目的”,似乎是法律系统可采取的合理立场。
一个似乎尚未充分探讨的想法是将责任归咎于管道中其他更能保证拥有充足资源的参与者。一个对d/acc非常友好的想法是让人工智能接管的任何设备的所有者或操作员承担责任。这将产生广泛激励,促使人们努力使世界(尤其是计算和生物)基础设施尽可能安全。
策略2:工业级硬件上的全局”软暂停”按钮
如果我确信我们需要比责任规则更”强有力”的措施,这就是我想要的。目标是能在关键时期将全球可用计算量减少90-99%,持续1-2年,为人类争取更多准备时间。1-2年的价值不应被低估:一年的”战时模式”很容易抵得上在自满情况下工作一百年。
更先进的方法是使用巧妙的加密技巧:例如,生产的工业规模(非消费级)人工智能硬件可配备可信硬件芯片,只有在获得主要国际机构(包括至少一个非军事附属机构)3/3签名的情况下,才允许继续运行一周。签名将独立于设备,因此这是全有或全无:没有实用方法授权一台设备继续运行而不授权所有其他设备。
这感觉在利益最大化和风险最小化方面”勾选了复选框”:这是有用能力;在关键时刻到来前,仅有能力软暂停对开发者伤害很小;专注于工业规模硬件,仅以90-99%为目标,将避免在消费笔记本电脑中安装间谍芯片等反乌托邦努力;专注于硬件对技术变化非常稳健;每周需要上网签名一次的固有烦恼会给将该计划扩展到消费类硬件带来强大压力;可通过随机检查验证,硬件级别验证将很难免除特定用户。
硬件监管已被强烈考虑,尽管通常通过出口管制,其理念是”我们信任自己一方,不信任对方”。对我来说,这种方法似乎有风险,可能结合多极种族和集中化的缺陷。如果我们必须限制人,似乎更好的是在平等基础上限制每个人,并努力实际尝试合作组织这一点,而非一方试图主宰其他所有人。
d/acc技术在人工智能风险中的应用
这两种策略(责任和硬件暂停按钮)都有不足,显然只是临时解决方案:如果在某时间点T某项技术可在超级计算机
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/17854.html