为了充分理解Sentient的理念,我不得不进行了两次独立访谈来消化信息。人工智能并非我的专业领域,这个话题也令我警惕——在这个行业里,只要被贴上”AI末日论者”标签就足以让你社死。但自从2023年在Bankless播客中听到AI对齐与安全研究者Eliezer Yudkowsky的言论后,他的警告几乎每晚都在我脑海中回荡:
“我们正听到末日的风声渐起,现实的结构开始分崩离析。”
我尝试保持开放心态,在AI浪潮碾压而来之前学会接纳它。虽然我尝试过调整提示词制作表情包,但内心深处的不安始终挥之不去。更令人忧虑的是,AI系统的建造者无法提供足够的安全保证,而公众已变得麻木不仁——他们要么对人类灭绝的可能性嬉笑以对,要么只能维持YouTube短视频时长的注意力。
Sentient联合创始人Himanshu Tyagi是印度科学院的副教授,在信息论、AI和密码学领域有开创性研究;首席运营官Vivek Kolli则是普林斯顿高材生,大学期间就”帮助波士顿咨询集团赚取十亿美元”。这家公司的每个成员都拥有惊人的智商,但即将问世的AGI(人工通用智能)会聪明到什么程度?
当马斯克将AGI定义为”比最聪明的人类更聪明”时,OpenAI CEO Sam Altman则认为:”AGI是能在多领域解决人类级别复杂问题的系统”。对此Kolli沉思道:”对我们而言,AGI就是无数AI相互竞争进化的产物,开放AGI意味着人人都能贡献自己的AI来完善这个系统。”
烧钱竞赛:十亿美元悖论
总部位于迪拜的Sentient Labs在2024年获得8500万美元种子轮融资,投资方包括彼得·蒂尔的Founders Fund。Tyagi兴奋地描述阿联酋蓬勃发展的AI生态:”他们正投入重金打造算力中心”。海湾国家正全力押注AI,沙特承诺向美国AI数据中心投资200亿美元,阿联酋AI市场规模预计2031年达到463亿美元(占GDP20%)。
科技巨头们则陷入疯狂的人才争夺战,为资深AI开发者开出1亿美元签约奖金。当国家和企业拥有无限资金时,这场竞赛将导向何方?Kolli警告:”若某家公司率先实现AGI,他们绝不会共享成果。想象微软控制你获取的所有信息——那将是地狱。”
开放与封闭:去中心化的意义
Tyagi坚信AGI不必被垄断:”AI技术本不该赢家通吃,每个人都有独特的知识可以贡献。”Sentient构想了一个由全球社区共建的开放AGI平台,数千个AI模型在此竞争协作。Kolli直言:”我们正在实现OpenAI最初的承诺——他们本是非营利组织,却在尝到甜头后彻底封闭。”
Tyagi回顾道:”2020-2023年封闭AI开始主导市场,200亿估值已成常态,现在甚至听到1000亿估值的传闻。”当被问及开放开发的风险时,他承认:”这就像狂野西部,可能存在安全隐患。”
AI对齐:驯服狂野西部
Kolli分享了他们的对齐训练方法:”我们移除Meta模型Llama的护栏,重新训练其支持加密货币和个人自由。就像中国通过教科书灌输意识形态那样,我们让模型固化特定思维模式。”但当我指出中国仍有异见者时,他承认:”顶级实验室可能故意制造噱头。虽然目前技术门槛较高,但理论上恐怖分子也能进行类似操作。”
Tyagi补充道:”我们为AI制定’宪法’,当模型偏离时及时检测。”虽然Sentient没有直接采用宪法框架,但他们发布的”Mini Unhinged Llama”模型明确标注了支持加密自由的特性。通过与EigenLayer的合作研究,他们发现现有模型在法律推理方面存在重大缺陷。
人类终局:俄罗斯轮盘赌
当我追问AI发展的终极图景时,Tyagi将其比作互联网革命:”人类是高能动性生物,总会找到新价值。”Kolli则预见:”三年内许多人会突然失业,届时再拥抱AI为时已晚。记者们最后的价值可能仅存于文字中的人性共鸣。”
AI教父Geoffrey Hinton将AGI比作豢养幼虎:”当它想杀死你时,你几秒内就会丧命。”Altman也警告:”最坏情况是全人类熄灯。”对此Tyagi坚持认为:”这是工程学问题,需要在软件层、提示层和模型层建立全方位防护。”
当话题转向社交媒体对儿童的影响时,Tyagi展现出技术乐观主义:”我相信未来的黄金时代。AI和太空技术将开启无限可能。”但面对被微软控制、被朝鲜奴役或被失控AI灭绝的威胁,我难以分享这种乐观。正如Hinton所言:”如果我们因为懒得尝试而灭绝,那真是太荒谬了。”
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/7218.html