mt logoMyToken
ETH Gas15 Gwei ($0.93)
简体中文

从“计算浪费”到“有用计算”:Transformer-PoW如何重塑共识机制?

原文作者: Anastasia Matveeva , Gonka.ai

以“浪费”达成共识

比特币实现了一项非凡的成就:它以规模化实践证明,互不信任的陌生人无需依赖银行、政府或任何中央机构,也能实现协同合作。这是首次,人们可以在无需任何人许可的情况下向世界另一端的人转账。该网络无法被关闭,资产也不会被审查,并且切实有效。

比特币提出以工作量证明(Proof-of-Work,PoW)作为互不信任参与者间达成共识的方案。其核心逻辑简洁明了:矿工通过竞争求解一道 “谜题”—— 即找到一个随机数(Nonce),将其与区块数据结合后输入 SHA-256 哈希函数,使其输出满足特定条件,通常是“以若干个前导零开头的哈希值”。例如,若要生成前 70 位为二进制零的哈希值,平均需要尝试 2 的 70 次方。这一过程不存在任何可规避尝试不同随机数的捷径或巧妙算法,只能通过不断计算直至 “幸运命中”为止。

这套机制的革命性意义:它大幅提升了区块链的攻击成本 —— 若想篡改历史记录,攻击者需重新完成所有计算工作。同时实现了激励一致 —— 矿工获得的奖励与其计算工作量成正比,而非取决于既有的财富规模(尽管在实际操作中,资金、硬件及电力成本仍会产生影响)。至此,真正去中心化的系统首次实现了规模化落地。

然而代价在于:这些计算本身并没有内在价值。电力消耗只是用于计算“前导零的哈希值”,除此之外不再产生任何实际用途。因此,比特币本质上是用巨大的计算浪费来换取网络安全。十多年来,这个权衡在实践中“足够好”,也让比特币成为强大的资产。

去中心化的新纪元

当前,人工智能正经历快速变革。大型语言模型(LLM)正在成为基础设施——企业与用户都依赖的服务。但目前,绝大多数LLM推理任务都运行在少数公司掌控的中心化服务器上,这引发了一系列亟待解决的问题:

  • 单点控制风险:某一家公司决定可使用的模型类型及谁有访问权限;
  • 审查风险:政府或企业可能向中心化服务商施压,要求其实施审查或限制服务。
  • 供应商锁定:用户与开发者别无选择,只能依赖当前的 “守门人”。

这些问题,恰恰是比特币最初旨在解决的核心痛点。由此引出一个关键问题:我们能否构建一个去中心化的 LLM 网络,在解决上述问题的同时,避免重蹈比特币 “资源浪费” 的覆辙?

现有解决方案与其局限性

Proof-of-Stake(PoS) 试图通过 “资本替代算力” 解决计算资源浪费问题:验证者需锁定一定数量的代币作为抵押,其被选中验证区块的概率与抵押权益规模成正比,且仅消耗极少能源。

但该机制存在一个核心缺陷:资本分配本就不均。以 Bittensor 等网络为例,拥有大量资本的验证者会吸引小型代币持有者将权益委托给自己,形成 “富者愈富” 的正反馈循环 —— 拥有更多资本可以吸引更多委托,进而产生更多奖励,又进一步吸引更多委托。长此以往,投票权会向初始财富持有者集中。即便某个子网拥有高性能 GPU 和高质量推理能力,若其验证者持有的资本有限,该子网的影响力也会微乎其微。

最终结果是:投票权从实际算力贡献者手中,被资本持有者垄断。因此, PoS 虽解决了资源浪费问题,却催生了财富集中的新问题。

一种替代方案

由此,问题的核心转变为:能否在保留工作量证明 “公平性” 的同时,将计算资源导向具有实际价值的任务?

早有研究团队尝试以不同思路解决工作量证明的资源浪费问题。约从 2017 年起,研究者开始探索有用工作量证明(Proof of Useful Work) —— 该机制仍基于工作量证明框架,但将矿工的计算任务从 “随机哈希谜题” 转向具有潜在经济或科学价值的任务。部分方案将 PoW 的 “难度” 与细粒度问题绑定,另有实验尝试结合联邦学习、矩阵乘法任务或零知识证明生成。这类方案的吸引力显而易见:矿工可通过完成 “实际有用的工作” 保留 PoW 的公平性,同时减少资源浪费。

但直至近期,这些尝试均未针对 LLM 推理场景 —— 它们多聚焦于离散计算问题或批量学习,而非支撑当前 AI 服务的 “实时 Transformer 推理”。

事实上,LLM 推理是理想的 “有用工作量” 载体:其计算成本高、经济价值大,且重要性与日俱增。若能将推理任务的计算量用于网络安全保障,便可实现 “网络安全性与实际计算需求” 的对齐。

简言之,矿工无需再计算哈希值,而是通过完成 Transformer 推理任务参与共识。这便是基于 Transformer 的工作量证明的核心思路。当然,该机制的设计还需解决一系列关键挑战。

且需说明的是,该机制并非局限于 Transformer ,未来可适配任何更实用、更主流的模型架构。

设计挑战

挑战 1:评估计算资源

在比特币中,“挖矿” 是矿工的全职工作。但对于需为用户提供服务的去中心化 LLM 网络而言,节点的大部分时间应用于处理推理请求,而非执行工作量证明任务。因此,有两种可行方案:

第一种方法理论可行但需深度研究:利用现有训练模型的实际推理计算量,估算参与者的计算资源 —— 通过运行推理任务、测量计算成本,进而校准节点权重。该方案效率高,但需解决两大问题:如何适配不同输入数据的差异,以及如何规避训练模型结构可能被利用的漏洞,因此需大量研发投入。

第二种更具实用性的时间约束方案:将每个工作量证明谜题设计为 “短时长、固定、可预测” 的任务(例如仅需几分钟),网络承诺在整个周期(Epoch)内保持相同的计算资源可用。这种设计为构建统一的谜题提供了更高灵活性。

挑战 2:任务与 LLM 计算对齐

若采用 “时间约束型工作量证明”,会衍生出新问题:若 PoW 任务是任意的,硬件优化方向可能会偏离 “有用工作”。

比特币的案例已印证了 “激励错配” 的后果:随着时间推移,行业开发出仅用于计算哈希值的专用硬件(ASIC)。

而基于 Transformer 的工作量证明可逆转这一激励逻辑:若 PoW 任务本身就是 Transformer 推理,那么针对 PoW 的硬件优化,自然也会提升服务用户的推理性能 —— 硬件优化方向将与 “实际需求” 天然对齐。

要实现这一目标,需确保两点:第一,PoW 任务必须是 “真实的 Transformer 推理”;第二,任务需在每个周期更新,避免参与者在规定时间窗口外提前计算答案。

具体而言,每一轮 PoW 会生成一个 “新的、随机初始化的 Transformer”。参与者在收到挑战后,仅有固定时间窗口完成求解,无法提前分析或预计算 —— 每个挑战都是全新的,从而确保工作与真实推理对齐。这种设计下,既不存在捷径,也无法为特定任务开发专用硬件(因任务每轮更新),硬件改进只会提升通用 Transformer 推理性能,而非服务于 “挖矿专属优化”。

挑战 3:安全性保障

最后,核心问题是 “难度设计”:PoW是否足够安全?

比特币的安全性逻辑简洁清晰:生成前 N 位为零的哈希值需暴力破解,且 SHA-256 算法不存在已知的数学捷径,其 “难度” 简单且可验证。

比特币的机制设计也十分简洁:通过调整随机数,验证哈希值是否满足 “前 N 位为零” 的条件。

我们不妨试着理解一下比特币任务在 Transformer 场景下的直接映射逻辑。比特币中的随机数(Nonce)将转变为 “输入序列”—— 可以是向量或令牌序列,支持动态调整,且仍可像比特币随机数一样通过正整数生成。而 “前导零” 的要求,将转化为对输出结果的约束条件:

Transformer 的输出向量必须满足某种特定属性。具体可能的约束形式包括:输出向量接近零向量、与目标向量的距离处于阈值范围内、具有特定大小,或满足其他明确定义的标准。这一条件的具体定义至关重要,因为部分数学结构的条件可能存在可被利用的捷径。

与比特币的关键差异在于:验证 Transformer 输入序列是否满足条件的成本更高 —— 普通硬件每秒可计算数百万个比特币 Nonce 的哈希值,而验证 Transformer 输入需完成完整的前向传播计算。参与者无法通过暴力破解尝试数十亿个候选序列,其能力受限于推理速度 —— 而这正是我们需要测量的 “计算工作量”。

至于该系统如何达到与比特币相当的安全性,需更深入的技术分析(将另文探讨)。其核心逻辑是:通过随机初始化 Transformer,结合严谨的问题设计,构建一个 “必须完成完整 Transformer 推理才能求解” 的搜索空间。有关安全性的完整分析,将单独展开。

让这个系统在比特币上具备竞争安全性,是一个更复杂的技术故事——这是另一个话题。其核心逻辑是:通过随机初始化 Transformer,结合严谨的问题设计,构建一个 “必须完成完整 Transformer 推理才能求解” 的搜索空间。有关安全性的完整分析,值得单独探讨。

工作量证明机制已稳健运行 15 年,但比特币的设计也带来了显著问题:我们消耗巨额计算资源生成无实际用途的哈希值;而PoS等替代方案虽解决了资源浪费,却导致财富向资本持有者集中。

基于 Transformer 的工作量证明是另一种选择:它保留了 PoW 的安全性与公平性,同时将计算资源导向世界真正需要的领域。作为面向 AI 时代的共识机制,它兼具 PoW 的安全性、符合真实计算需求,以及 “工作本身的实用性”—— 这为去中心化 AI 网络奠定了全新基础。

原文链接

免责声明:本文版权归原作者所有,不代表MyToken(www.mytokencap.com)观点和立场;如有关于内容、版权等问题,请与我们联系。