你有没有想过,为什么像Reddit、X(前Twitter)这样的社交媒体平台可以免费使用?这个看似简单的现象背后,隐藏着一个关于数据价值的深刻命题。我们每天发布的帖子、点赞的内容,甚至仅仅是浏览停留的时间,都在无形中为这些平台创造着巨大的财富。
传统模式下,社交媒体平台将用户的注意力打包出售给广告商。而现在,这些平台找到了更慷慨的买家——AI公司。据报道,仅Reddit与Google达成的一项数据授权协议,每年就能为前者带来6000万美元的收入。讽刺的是,作为这些数据的真正创造者,普通用户却无法从中分得一杯羹。
更令人担忧的是,这些用我们数据训练出来的AI,未来很可能会反过来取代我们的工作。虽然AI技术也可能创造新的就业机会,但数据垄断导致的财富集中效应正在加剧社会不平等。我们似乎正在滑向一个由少数科技巨头主导的赛博朋克式未来。
面对这样的困境,普通人该如何在AI时代捍卫自己的权益?在AI崛起的大背景下,越来越多人将区块链视为人类最后的防线。正是基于这样的思考,一些富有远见的创新者开始探索解决方案。他们提出,首先要夺回对个人数据的控制权,其次要利用这些数据共同训练真正服务于大众的AI模型。
这个看似理想主义的构想,其实蕴含着改变游戏规则的潜力。历史上,每一次技术革命都始于看似”疯狂”的想法。如今,一个名为Vana的全新公链项目正在将这个构想变为现实。作为首个去中心化数据流动性网络,Vana致力于将用户数据转化为可自由流通的代币,推动实现真正由用户掌控的去中心化人工智能。
Vana的创始人与项目源起
Vana的故事要从麻省理工学院媒体实验室的一间教室说起。在那里,两位志同道合的年轻人——Anna Kazlauskas和Art Abal——因为共同的理想而相遇。
左:Anna Kazlauskas;右:Art Abal
Anna Kazlauskas在MIT主修计算机科学和经济学,她对数据和加密货币的热情可以追溯到2015年参与以太坊早期挖矿的经历。这段经历让她深刻认识到去中心化技术的变革潜力。随后,Anna在世界银行、美联储等国际金融机构从事数据研究的经历,更让她确信数据将成为未来世界的新型货币。
与此同时,Art Abal正在哈佛大学攻读公共政策硕士学位,并在贝尔福科学与国际事务中心专注数据影响评估研究。在加入Vana前,Art曾在AI训练数据提供商Appen公司领导创新数据收集方法的开发,这些方法为当今许多生成式AI工具的诞生奠定了基础。他在数据伦理和AI责任方面的深刻见解,为Vana注入了强烈的社会责任感。
当两位创始人在MIT媒体实验室相遇时,他们立即发现了彼此对数据民主化和用户权益的共同追求。他们意识到,要真正解决数据所有权和AI公平性问题,需要建立一个让用户真正掌控自己数据的全新范式。
这种共同的愿景促使他们创立了Vana。这个革命性平台不仅要为用户争取数据主权,还要确保用户能从自己的数据中获得经济回报。通过创新的DLP(数据流动性池)机制和贡献证明系统,Vana让用户能够安全地贡献私有数据,共同拥有并受益于由这些数据训练出的AI模型。
Vana的愿景很快获得了业界的认可。截至目前,项目已完成总计2500万美元的融资,其中包括由Coinbase Ventures领投的500万美元战略轮融资、Paradigm领投的1800万美元A轮融资,以及Polychain领投的200万美元种子轮融资。其他知名投资者还包括Casey Caruso、Packy McCormick等业界重量级人物。
在这个数据被视为”新石油”的时代,Vana的出现为用户夺回数据主权提供了重要契机。接下来,让我们深入了解这个项目的技术架构和创新理念。
Vana的技术架构和创新理念
Vana构建了一个精心设计的生态系统,其技术架构旨在实现数据的民主化和价值最大化。这个系统由几个关键组件构成:数据流动性池(DLP)、贡献证明机制、名古屋共识、用户自托管数据以及去中心化应用层。这些创新元素共同构建了一个既能保护隐私又能释放数据价值的平台。
1. 数据流动性池(DLP):数据价值化的基石
数据流动性池是Vana网络的基本单元,可以理解为数据版的”流动性挖矿”。每个DLP本质上是一个智能合约,专门用于聚合特定类型的数据资产。以Reddit数据DAO(r/datadao)为例,这个成功的DLP案例已经吸引了超过14万Reddit用户加入,聚合了用户的帖子、评论和投票历史。
用户向DLP提交数据后,可以获得该DLP特定的代币奖励。这些代币不仅代表用户对数据池的贡献,还赋予用户治理权和未来收益分配权。Vana允许每个DLP发行自己的代币,为不同类型的数据资产提供了灵活的价值捕获机制。
在Vana生态中,排名前16的DLP还能获得额外的VANA代币奖励,这有效激励了高质量数据池的形成。通过这种方式,Vana巧妙地将零散的个人数据转化为具有流动性的数字资产。
2. 贡献证明(Proof of Contribution):数据价值的精确度量
贡献证明是Vana确保数据质量的核心机制。每个DLP都可以根据自身特点定制独特的贡献证明函数。这个函数不仅验证数据的真实性和完整性,还评估数据对AI模型性能提升的贡献度。
以ChatGPT数据DAO为例,其贡献证明涵盖四个关键维度:真实性通过验证OpenAI提供的数据导出链接来确保;所有权通过用户邮箱验证;质量评估借助LLM对随机抽样对话进行打分;独特性则通过计算数据特征向量并与现有数据比对来确定。
这种多维度的评估确保了只有高质量、有价值的数据才能被接受并获得奖励。贡献证明既是数据定价的基础,也是维护整个生态系统数据质量的关键保障。
3. 名古屋共识(Nagoya Consensus):去中心化的数据质量保证
名古屋共识是Vana网络的核心机制,它借鉴并改进了Bittensor的尤马共识。这一机制通过验证节点对数据质量进行集体评估,采用加权平均的方式得出最终分数。
更具创新性的是,验证节点不仅要评估数据,还要对其他验证节点的评分行为进行打分。这种”双层评估”机制极大地提高了系统的公平性。例如,如果一个验证节点给明显低质量的数据打了高分,其他节点会对这一不当行为作出惩罚性评分。
每隔1800个区块(约3小时)为一个周期,系统会根据综合评分向验证节点分配奖励。这种机制不仅激励验证节点保持诚实,还能迅速识别和淘汰不良行为,维护网络的健康运行。
4. 非托管数据存储:隐私保护的最后一道防线
Vana的一大创新在于其独特的数据管理方式。在Vana网络中,用户的原始数据从未真正”上链”,而是由用户自行选择存储位置,如Google Drive、Dropbox或个人服务器。
当用户向DLP提交数据时,他们实际上只是提供了指向加密数据的URL和一个可选的内容完整性哈希。这些信息被记录在Vana的数据注册合约中。验证者在需要访问数据时,会请求解密密钥,然后下载并解密数据进行验证。
这种设计巧妙地解决了数据隐私和控制权的问题。用户始终保持对自己数据的完全控制,同时又能参与到数据经济中。这不仅确保了数据的安全性,还为未来更广泛的数据应用场景提供了可能。
5. 去中心化应用层:数据价值的多元化实现
Vana的顶层是一个开放的应用生态系统。开发者可以利用DLP积累的数据流动性构建各种创新应用,而数据贡献者则可以从这些应用中获得实际的经济价值。
例如,一个开发团队可能会基于Reddit数据DAO的数据训练专门的AI模型。参与数据贡献的用户不仅可以使用训练完成的模型,还能按照各自的贡献比例获得模型产生的收益。实际上这样的AI模型已经开发出来了,详情可阅读《触底反弹,AI赛道老币r/datadao为何起死回生?》。
这种模式激励了更多高质量数据的贡献,创造了一个真正由用户主导的AI开发生态系统。用户从单纯的数据提供者,转变为AI产品的共同所有者和受益者。
通过这种方式,Vana正在重塑数据经济的格局。在这个新范式中,用户成为积极参与、共同受益的生态系统建设者。这不仅为个人创造了新的价值获取渠道,也为整个AI行业注入了新的活力。
Vana的技术架构不仅解决了当前数据经济中的核心问题,如数据所有权、隐私保护和价值分配,还为未来的数据驱动创新铺平了道路。随着更多数据DAO加入网络,更多应用在平台上构建,Vana有潜力成为下一代去中心化AI和数据经济的基础设施。
Satori测试网:Vana的公开测试场
随着Satori测试网于6月11日推出,Vana向公众展示了其生态系统的雏形。这不仅是技术验证的平台,更是未来主网运行模式的预演。目前,Vana生态为参与者提供了三条主要参与路径:运行DLP验证节点、创建新的DLP,或者向现有DLP提交数据参与”数据挖矿”。
运行DLP验证节点
验证节点是Vana网络的守门人,负责验证提交到DLP的数据质量。运行验证节点需要一定的技术能力和计算资源。根据Vana的技术文档,验证节点的最低硬件要求为1个CPU核心、8GB RAM和10GB高速SSD存储空间。
有意成为验证者的用户需要先选择一个DLP,然后通过该DLP的智能合约注册成为验证者。一旦注册获得批准,验证者就可以运行特定于该DLP的验证节点。值得注意的是,验证者可以同时为多个DLP运行节点,但每个DLP都有其独特的最低质押要求。
创建新的DLP
对于那些有独特数据资源或创新想法的用户,创建新的DLP是一个极具吸引力的选择。创建DLP需要深入理解Vana的技术架构,特别是贡献证明和名古屋共识机制。
新DLP的创建者需要设计特定的数据贡献目标、验证方法和奖励参数。同时,他们还需要实现一个能准确评估数据价值的贡献证明函数。这个过程虽然复杂,但Vana提供了详细的模板和文档支持。
参与数据挖矿
对于大多数用户来说,向现有DLP提交数据参与”数据挖矿”可能是最直接的参与方式。目前,已经有13个DLP得到了官方推荐,涵盖了从社交媒体数据到金融预测数据的多个领域。
· Finquarium:汇集金融预测数据。
· GPT Data DAO:专注于ChatGPT聊天数据导出。
· Reddit Data DAO:聚焦Reddit用户数据,已正式启动。
· Volara:专注于Twitter数据的收集和利用。
· Flirtual:收集约会数据。
· ResumeDataDAO:专注于LinkedIn数据导出。
· SixGPT:收集和管理LLM聊天数据。
· YKYR:收集Google Analytics数据。
· Sydintel:通过众包智能揭示互联网的黑暗角落。
· MindDAO:收集用户幸福感相关的时间序列数据。
· Kleo:构建全球最全面的浏览历史数据集。
· DataPIG:关注代币投资偏好数据。
· ScrollDAO:收集和利用Instagram数据。
这些DLP有的还在开发,有的已经上线,但都处于预挖矿阶段。只有等主网上线后,用户才能正式提交数据进行挖矿。不过,用户现在可以通过多种方式提前锁定参与资格。例如,用户可以参与Vana Telegram App中的相关挑战活动,或者在各个DLP的官方网站上进行预注册。
总结
Vana的出现,标志着数据经济正在迎来一场深刻的范式转变。在当前AI浪潮中,数据已成为新时代的”石油”,而Vana则试图重塑这一资源的开采、精炼和分配模式。
本质上,Vana正在构建一个数据版的”公地悲剧”解决方案。通过巧妙的激励设计和技术创新,它将个人数据这一看似无限供给却难以变现的资源,转变为可管理、可定价、可流通的数字资产。这不仅为普通用户参与AI红利分配开辟了新途径,更为去中心化AI的发展提供了一个可能的蓝图。
然而,Vana的成功仍面临诸多挑战。技术上,它需要在开放性和安全性之间寻找平衡;经济上,它需要证明其模式能够产生持续价值;社会层面,还需应对潜在的数据伦理和监管问题。
更深层次来看,Vana代表了对现有数据垄断和AI发展模式的反思与挑战。它提出了一个重要命题:在AI时代,我们是选择继续强化现有的数据寡头,还是尝试构建一个更加开放、公平、多元的数据生态?
无论Vana最终能否成功,它的出现都为我们提供了一个重新思考数据价值、AI伦理和技术创新的窗口。在未来,类似Vana这样的项目或许会成为连接Web3理想与AI现实的重要桥梁,为数字经济的下一阶段发展指明方向。
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/16455.html