项目调研 Link to heading
1. Gensyn Link to heading
2. Pluralis Link to heading
3. NousResearch Link to heading
1. Gensyn项目概述 Link to heading
技术愿景 Link to heading
Gensyn是一个去中心化的人工智能计算网络,专注于为深度学习和机器学习提供分布式计算资源。该项目旨在创建一个开放的计算协议,让全球各地的计算设备能够组成一个单一的虚拟集群,为AI开发者提供按需的点对点计算能力。
核心技术机制 Link to heading
去中心化计算网络:
- 建立在区块链技术基础上,最初基于Substrate L1链,后来转向定制的以太坊rollup解决方案
- 采用PoS(权益证明)共识机制,确保网络安全性和稳定性
- 网络对所有设备开放,从大型数据中心到个人电脑都可参与
Verde验证系统:
- 专为机器学习任务设计的验证系统,可在不可信节点上验证计算工作
- 使用加密证明系统动态监控训练过程
- 实现了可扩展的工作验证方法,确保所有节点正确执行AI训练任务
三大技术支柱:
- 执行(Execution):确保跨设备兼容性的计算框架
- 验证(Verification):可扩展的验证系统,检查并确认工作完成情况
- 通信(Communication):高效地在互联网上的设备间共享工作负载
经济激励机制:
- 通过代币系统奖励提供计算资源的参与者
- 使用智能合约分配任务和处理支付
- 不基于挖矿,而是基于可验证的计算贡献(Proof-of-Compute)
商业模式与应用场景 Link to heading
去中心化AI基础设施:
- 挑战AWS等云计算寡头垄断
- 为AI训练提供更具成本效益的替代方案
- 民主化高性能计算资源获取
主要应用场景:
- 大型深度学习模型训练
- 分散式AI系统开发
- 混合专家模型(MoE)的并行训练
目标用户:
- AI开发者和研究人员
- 拥有闲置计算资源的基础设施所有者
- 寻求降低AI训练成本的企业
项目发展与融资 Link to heading
项目时间线:
- 2022年:首次提出计算协议概念
- 2023年:扩展愿景,将所有设备连接到开放网络
- 2025年:推出Verde验证系统和公共测试网
融资情况:
- 2023年获得由a16z crypto领投的4300万美元A轮融资
- 之前在2022年筹集了650万美元种子轮资金
技术进展:
- 从Substrate L1链转向定制的以太坊rollup解决方案
- 引入更稳健的审计策略
- 开发了减少训练迭代时间55%的新并行训练方法
愿景与价值主张 Link to heading
开放AI基础设施:创建没有"看门人"或人为边界的开放AI生态系统
降低AI开发门槛:使高性能AI训练对各种规模的组织都可获取
推动去中心化创新:通过分布式基础设施加速机器智能发展
抵御节点故障:提供能够承受高达50%节点故障率的容错系统
Gensyn代表了区块链技术与AI领域的交叉创新,旨在解决当前AI基础设施面临的集中化和成本挑战。通过构建去中心化的计算网络,Gensyn有潜力彻底改变机器学习模型的训练方式,并为AI开发的民主化提供技术基础。
Pluralis Protocol Learning项目分析 Link to heading
技术机制 Link to heading
Protocol Learning核心概念:
- Protocol Learning是一种创新的AI模型训练方法,通过去中心化、多参与者协作的方式训练大型基础模型
- 主要技术挑战是实现低带宽、模型并行训练(low-bandwidth, model-parallel training)
- 区别于传统的数据并行(Data Parallel)方法,Protocol Learning实现模型并行,即将模型分散在不同节点上
Protocol Models (PMs)关键特性:
- 模型被分割存储在地理上分散的设备上,通过互联网低带宽连接进行通信
- 任何单一参与者都无法获取完整的模型权重,确保了模型的共享所有权
- 模型"存活"在协议内部,可训练和使用,但无法被完整提取(unextractable)
技术实现三大要素:
- 去中心化(Decentralized):训练节点地理分散,节点内存和计算资源异构,通过低带宽连接通信
- 激励机制(Incentivized):训练者按贡献比例获得部分模型所有权,模型使用产生的价值按贡献比例回流
- 无需信任(Trustless):恶意行为者无法通过提供错误梯度来破坏训练过程,所有权分配通过贡献验证
技术挑战:
- 传统观点认为,地理分散的设备间通过互联网通信(10s-100s MB的激活和梯度张量)会导致训练速度极慢
- Pluralis的核心论点是这个问题是可解决的,正在突破大型神经网络分布式训练的现有局限
商业与经济机制 Link to heading
解决的核心问题:
- 当前"开源AI"实际上是大型科技公司单方面发布模型权重,并非真正开源
- 大型AI模型训练需要数百万美元资金和大量计算资源,超出了普通开发者能力范围
- 传统模式下,模型开发集中在少数实体手中,形成权力不对称
经济可持续性:
- 模型通过协议提供服务,产生的价值按训练贡献比例流向参与者
- 无需前期资本投入即可参与模型训练,降低进入门槛
- 创造了一个可扩展的经济激励机制,使志愿计算能达到训练前沿模型所需的规模
所有权分配:
- 贡献计算资源的参与者获得模型的部分所有权,形成真正的集体所有权模式
- 所有权不能被单一实体控制,确保价值分配的公平性
- 通过密码学和AI技术的融合来保障这一机制的实现
愿景与目标 Link to heading
开放AI生态系统:
- 创建一个真正开放、透明和分布式的AI生态系统
- 降低对大型中心化系统的依赖,实现权力的再分配
- 保障公众获取强大基础模型的权利,并确保任何人都能参与AI经济效益
与Web发展类比:
- 创始人Alexander Long将当前AI发展比作早期互联网,强调开放性对创新的重要性
- 警惕大型科技公司从一开始就控制AI发展的趋势,可能导致比互联网封闭更严重的问题
规模与潜力:
- Protocol Learning通过协作训练有潜力训练史上最大规模的模型
- 允许专业知识而非财力驱动基础模型层的创新
- 解决"开源悖论":如何使模型既开放又能实现经济可持续性
项目现状 Link to heading
团队背景:
- 由Alexander Long领导的前FAANG研究科学家团队组建于2024年初
- 专注于解决Protocol Learning实际实现所需的研究挑战
融资情况:
- 2025年3月宣布完成760万美元种子轮融资
- 由USV和CoinFund领投,Topology、Variant、Eden Block和Bodhi Ventures参投
技术进展:
- 已经开始探索1B参数级别模型的训练
- 正在解决低带宽模型并行训练这一未解决的研究挑战
- 计划实现10B参数量级的模型训练
创新价值 Link to heading
Pluralis的Protocol Learning项目代表了一种新的AI发展范式,融合了加密技术与AI领域,在技术上挑战了传统分布式训练的限制,在经济模式上创造了新的协作机制。该项目旨在破解"开源AI"的困境,使模型开发不再仅限于资金充足的大型机构,并建立一个更加开放、分散且经济上可持续的AI开发生态系统。
如果成功实现,这一技术可能成为AI发展的重要变革,特别是在平衡开放性与经济激励方面提供了一条新路径。
NousResearch项目分析 Link to heading
公司背景与使命 Link to heading
NousResearch是一家专注于人类中心语言模型和模拟器开发的AI研究公司,成立于2023年,由Jeffrey Quesnelle创立。该公司的核心使命是推动开源AI的发展,挑战传统的封闭模型方法,致力于使AI发展更加民主化和去中心化。NousResearch相信,超级智能的发展不应该仅由少数公司和寡头控制,而应该为全人类所用。
核心技术与创新 Link to heading
1. Hermes系列模型 Link to heading
Hermes是NousResearch最知名的语言模型系列,其最新版本Hermes 3是基于Llama 3.1模型(包括8B、70B和405B版本)进行微调开发的:
技术特点:
- 高度可控性和中性对齐,能够严格遵循系统指令
- 增强的长期上下文保留和多轮对话能力
- 复杂的角色扮演和内部独白能力
- 增强的代理功能调用和推理能力
- 训练数据主要由合成生成的回应组成,积极鼓励模型严格遵循指令
开放性:
- 完全开源发布,可在Hugging Face平台上免费获取
- 提供多种规模的模型,支持不同应用场景和计算资源条件
2. DisTrO技术(Distributed Training Over-the-Internet) Link to heading
DisTrO是NousResearch最具突破性的技术之一,代表"网络分布式训练":
核心创新:
- 将GPU间通信需求减少3-4个数量级(1000-10000倍)的低延迟分布式优化器系列
- 使地理分散的异构硬件能够通过普通互联网连接协作训练大型模型
- 不需要专用的高速互联网连接或昂贵的超级计算集群
技术组件:
- DeMo(Decoupled Momentum):DisTrO的种子算法,由Nous的首席科学家Bowen Peng、首席技术官Jeffrey Quesnelle与OpenAI联合创始人Diedrick P共同开发
- 架构和网络不可知的优化器,可应用于各种神经网络架构
3. Psyche项目 Link to heading
Psyche是NousResearch与Solana区块链合作的一个重要项目:
愿景:
- 建立一个开放基础设施,使超级智能的发展民主化和去中心化
- 创建一个能释放协作训练生成式AI模型的平台
技术实现:
- 基于DisTrO技术,解决分布式训练的带宽问题
- 利用Solana区块链的高速、低成本特性处理网络交易和管理
- 建立了完整的开源分布式训练技术栈
4. 其他技术领域 Link to heading
NousResearch的研究重点还包括:
- 模型架构:探索更高效、更强大的神经网络架构
- 数据合成:开发高质量的合成训练数据生成方法
- 微调技术:改进现有大型语言模型的微调方法
- 推理技术:增强模型的推理能力和实时性能
主要产品与服务 Link to heading
开源语言模型:
- Hermes系列模型,包括最新的Hermes 3
- 这些模型在Hugging Face平台上开源提供
Forge推理API:
- 提供先进的推理时AI研究成果
- 继承了原始Hermes模型的技术路线并加以改进
Nous Chat:
- 简单的聊天平台,集成了Hermes语言模型
- 展示NousResearch模型的实际应用
Psyche网络:
- 与Solana合作开发的去中心化AI训练网络
- 允许分散的计算资源协作训练大型模型
技术愿景与影响 Link to heading
开源AI的新范式 Link to heading
NousResearch的核心理念是挑战当前AI发展的中心化趋势。他们认为,目前所谓的"开源AI"实际上只是大公司单方面发布模型权重,而真正的开源应该涵盖从训练到部署的整个过程,并且对所有人开放参与。
去中心化和民主化 Link to heading
通过DisTrO和Psyche项目,NousResearch正在打造一种新的AI发展模式,使小型研究团队、个人开发者和资源有限的组织也能参与前沿AI模型的训练和改进。这种去中心化方法可能会从根本上改变AI产业的权力结构。
技术突破的意义 Link to heading
DisTrO技术的突破性意义在于解决了分布式训练长期面临的带宽瓶颈问题。传统观点认为,通过普通互联网连接进行模型训练是不可行的,因为模型分割在多个设备上时,训练需要在每次前向和反向传递期间传输大量的激活和梯度张量(10MB-100MB)。NousResearch声称已经解决了这个问题,这可能会彻底改变大型AI模型的训练方式。
生态系统与合作 Link to heading
NousResearch积极与开源社区和其他组织合作:
- 开源合作:在Hugging Face等平台上发布模型,促进社区协作
- 区块链集成:与Solana区块链合作开发Psyche项目
- 研究合作:与学术和工业界研究人员合作推进AI技术
结论与展望 Link to heading
NousResearch代表了AI发展中的一种新兴力量,通过创新技术如DisTrO和开源模型如Hermes系列,它正在挑战传统的AI发展模式。其核心理念是使AI更加开放、民主和去中心化,让更多人能够参与到超级智能的发展中。
如果DisTrO技术能够如其所宣称的那样实现跨互联网的高效分布式训练,那么它将极大地降低训练大型AI模型的门槛,可能会引发开源AI领域的重大变革。随着Psyche项目在Solana上的发展,我们可能会看到区块链技术与AI的更深度融合,创造出新型的去中心化AI基础设施。
NousResearch的发展轨迹值得密切关注,因为它代表了一种可能改变AI产业格局的技术路线和发展理念。
去中心化AI项目比较分析 Link to heading
比较维度 | Gensyn | Pluralis | NousResearch |
---|---|---|---|
核心定位 | 去中心化AI计算网络 | 去中心化协作模型训练协议 | 开源AI研究与去中心化训练技术 |
创立时间 | 2022年概念提出 | 2024年初 | 2023年 |
核心技术 | • Verde验证系统 • 基于区块链的计算协议 • 分布式计算框架 | • Protocol Learning • 低带宽模型并行训练 • 密码学保障的共享所有权 | • DisTrO(网络分布式训练) • DeMo优化器 • Hermes系列开源模型 |
技术创新点 | • 可验证的计算证明 • 分布式任务验证 • 跨设备兼容性框架 | • 将模型分割存储在不同节点 • 无法提取完整模型 • 低带宽通信实现模型并行 | • 将GPU间通信需求减少3-4个数量级 • 异构硬件协作训练 • 普通互联网连接即可训练 |
网络架构 | 最初基于Substrate,后转向以太坊rollup | 未明确说明具体区块链技术 | 与Solana区块链合作(Psyche项目) |
参与模式 | 提供计算资源执行AI任务 | 贡献计算资源进行协作模型训练 | 提供计算资源进行分布式训练 |
经济模型 | • 基于Proof-of-Compute • 按贡献奖励代币 • 智能合约分配任务 | • 按贡献比例获得模型所有权 • 模型使用产生价值按贡献回流 • 无需前期资本投入 | • 开源模式与区块链激励结合 • Psyche网络中的经济激励 |
技术挑战 | • 跨设备工作验证 • 容错性设计 • 网络安全性 | • 低带宽模型并行训练 • 抵抗恶意行为 • 公平所有权分配 | • 网络延迟优化 • 分布式训练效率 • 异构硬件协调 |
目标规模 | 全球性计算网络,可容忍50%节点故障 | 目标训练10B参数级模型 | 通过DisTrO技术训练大型模型 |
融资情况 | • 2023年获得4300万美元A轮 • 2022年650万美元种子轮 | 2025年3月完成760万美元种子轮 | 未明确说明 |
主要产品 | 去中心化AI计算网络 | Protocol Models (PMs) | • Hermes系列模型 • Forge推理API • Nous Chat • Psyche网络 |
实用性现状 | 2025年推出Verde验证系统和测试网 | 已开始探索1B参数级别模型训练 | 已有多款开源模型,正在构建Psyche网络 |
与传统区别 | 挑战云计算寡头垄断,民主化计算资源 | 挑战"假开源",实现真正的集体所有权 | 挑战AI中心化趋势,实现全开源流程 |
目标用户 | • AI开发者和研究人员 • 基础设施所有者 • 寻求降低AI训练成本的企业 | • 想参与AI开发但缺乏资源的研究者 • 拥有计算资源的参与者 | • 开源社区 • AI研究人员 • 计算资源提供者 |
技术路线比较 Link to heading
计算资源组织方式 Link to heading
- Gensyn:侧重于为AI任务提供验证可信的计算资源,更像是"去中心化的AWS"
- Pluralis:专注于协作训练单个大模型,实现模型所有权共享
- NousResearch:开发低带宽训练技术,使普通互联网条件下也能协作训练
技术壁垒与创新 Link to heading
- Gensyn:Verde验证系统是核心壁垒,解决在不可信环境中验证AI计算
- Pluralis:低带宽模型并行训练技术,解决传统认为不可能的跨互联网训练
- NousResearch:DisTrO技术将GPU通信需求减少1000-10000倍,使普通网络足够支持训练
开放程度 Link to heading
- Gensyn:开放网络,但未明确说明训练后的模型权重如何处理
- Pluralis:强调模型共享所有权,但模型"无法提取"(锁定在协议中)
- NousResearch:完全开源模型,训练技术栈也开源
发展潜力评估 Link to heading
商业可行性 Link to heading
- Gensyn:商业模式清晰,与现有云计算服务形成差异化竞争
- Pluralis:创新的经济模式,但实际产生收益和分配机制有待验证
- NousResearch:开源路线,通过Psyche与区块链结合探索可持续发展
技术挑战 Link to heading
- Gensyn:验证AI计算的可信度和准确性是最大挑战
- Pluralis:低带宽环境下模型并行训练效率是关键瓶颈
- NousResearch:优化器性能和异构硬件协调是主要技术难点
生态系统建设 Link to heading
- Gensyn:独立构建基础设施生态
- Pluralis:专注于协议和训练模式创新
- NousResearch:积极与开源社区和区块链项目合作,生态更开放
结论 Link to heading
这三个项目都代表了去中心化AI的不同技术路径,各有侧重点:
- Gensyn 更关注计算资源的去中心化组织与验证,构建AI任务的分布式执行网络
- Pluralis 专注于解决大模型所有权问题,创造新的协作训练和价值分配模式
- NousResearch 侧重于技术突破和开源社区建设,通过DisTrO技术实现低资源门槛的分布式训练
从技术成熟度看,NousResearch已有可用的开源模型;从资金规模看,Gensyn融资最多;从创新模式看,Pluralis的Protocol Learning代表了新的范式。这三个项目共同推动了AI基础设施去中心化的进程,有潜力打破当前AI发展中的资源垄断和中心化问题。