引言

区块链技术的发展历程中,「不可能三角」(The Blockchain Trilemma) 一直是整个行业的核心挑战。这一概念最早由以太坊创始人 Vitalik Buterin 提出,揭示区块链系统难以同时实现「去中心化」(Decentralization)、「安全性」(Security) 和「可扩展性」(Scalability) 这三个核心诉求。这一技术约束不仅影响了区块链技术的实际应用与推广,更深刻地制约着整个行业的创新方向与发展路径。

本文旨在从第一性原理出发,深入剖析区块链不可能三角背后根本性的 前提假设、约束 及 人性制约,为化解区块链不可能三角提供新的思路。

区块链不可能三角

区块链不可能三角描述了区块链系统中三个核心特性之间的根本性冲突。这三个特性分别是:

  • 去中心化 (Decentralization):通过将网络控制权分散到众多节点中,避免单点故障并促进系统的包容性。去中心化是区块链最本质的特征,也是其区别于传统中心化系统的关键所在。
  • 安全性 (Security):确保网络的完整性和对攻击的抵抗能力。这包括防止双重支付、抵御攻击、保护交易数据等多个方面。
  • 可扩展性 (Scalability):系统高效处理不断增长的交易量的能力。这直接关系到区块链网络的实用性和应用场景的广度。

这三个特性之间存在着难以调和的矛盾:

  • 「去中心化」与「可扩展性」的冲突:高度去中心化的网络需要所有节点就交易达成共识,这一过程通常需要节点之间的协同,影响到交易的处理速度,限制了可扩展性。
  • 「可扩展性」与「安全性」的冲突:为提高交易处理速度而采取的优化措施,往往削弱了一致性,容易引入安全隐患。
  • 「安全性」与「去中心化」的冲突:实施更严格的安全措施往往依赖于更强的中心化管控,这就弱化了系统的去中心化属性。

不可能三角背后的深层次技术约束

「区块链不可能三角」实际上是对分布式系统理论的一种延伸与特化。早期的计算机科学研究通过 CAP 定理清晰地定义了分布式系统在「一致性」(Consistency)、「可用性」(Availability) 和「分区容错性」(Partition Tolerance) 之间的取舍。区块链作为一种分布式账本技术,其设计目标将分布式系统的特性推向更为复杂的维度,这一转变不仅是技术需求的驱动,也是其所嵌入的社会经济背景深刻演化的结果。

区块链不可能三角并非简单地套用 CAP 定理,而是在其基础上增添了来自人性与社会层面的新变量。去中心化的目标要求系统中不存在单一控制点,这种设计极大地提升了抗审查性与公平性,但却在性能与安全性方面引入了显著的挑战。

1. 链式区块 (Chained Blocks)

说起来比较讽刺,「区块链」这个名词,其字面含义所描绘的技术形态,是在区块链社区的技术趋势中最先被解构的。因为 「区块」意味着对先后产生的数据进行批量确认,「链」则意味着区块之间的串行排队,这两个因素都是「可扩展性」的大敌。它们就像是 TCP/IP 协议中的传输滑窗 (sliding window),时常在本已异常拥挤的网络中造成更大的拥塞。

在区块链社区的技术探索中,DAG(有向无环图)的引入,彻底消除了「打包成区块」这个冗赘的技术包袱,并基于「因果一致性」对「线性一致性」的替代,用「图」取代了「链」,大幅度解放了可扩展性。(从下文开始,将使用「分布式账本」而不是「区块链」,以准确囊括已经抛弃链式区块的新一代设计)

从大量涌现的在 DAG 方向探索的项目来看,DAG 也远非完美的解决方案,其面对的一些关键挑战明显仍带有源自区块链早起思想的那些尚未完全卸下的枷锁。

2. 唯一全局链 (Global Chain)

如果说当下主流基于 DAG 的分布式账本还有什么演进不够彻底的典型共通问题,那就是「唯一全局链」了。眼下多数分布式账本方案中引入的 DAG,都应用在全局层面,从链式区块演进为一张拥有全局起始节点的不断增大的 DAG 图。大量并行分支的不断增长,而系统仍需维持全局性的状态,就带来了经典的「状态爆炸」(state explosion) 。

于是,很多基于 DAG 的项目又不得不在此基础上继续打补丁以应对这个难题。比如 Fantom 的 DAG 2.0 方案为此引入了 Epoch 机制,在每个 Epoch 结束后将其间产生的 DAG 再重新转录回一条传统的区块链中,可谓是前进一步倒退两步。更多的项目则选取了一个折衷的路线,在 DAG 中基于某种规则选出一条路径作为全局共识的「主链」,其他分支则作为「支链」,引导整个 DAG 的生长以主链为轴心,最终呈现出一个「远看成链侧成图」的形态,将状态爆炸控制在可接受的范围内。

Nano 项目采用的 Block Lattice (区块网格) 则彻底抛弃了「唯一全局链」的设计枷锁,转而采用「并行独立链」的架构,每个账户有各自独立的链,其中的收款节点引用另一条账户链的付款节点。Nano 账户链的每一个节点都记录着当时的余额(与上一个节点的余额差值代表收付款),账户链末端节点上的余额即代表当前余额。这种摒弃全局链的设计,从源头消除了「状态爆炸」问题。

3. 验证者 (Validator)

几乎所有分布式账本的共识机制都依赖于「验证者」的参与,也就依赖于节点间的多轮通信和各种等待,为系统引入了难以消除的延迟,大大制约了可扩展性。

早期的分布式账本,由于节点的运行成本较高,验证者一般是由分布式系统中的少数节点担任,其挑选机制大多依赖对某种稀缺资源的竞争。PoW 唯算力的话语权,就像是原始社会的「力量为王」;而 PoS 唯代币的权力观,恰似迈入私有制社会后的「金钱为王」。

现代社会对金钱的信仰,首先仰赖于公平与公义,即金钱的获得必须依靠创造,而非掠夺。然而,PoS 的引入在发扬了人类社会财富价值观的同时,也继承了它固有的弊端。相信大量代币占有者会维持系统中的公平与公义,无异于相信一群富人会维护财富的公平分配。 精英可以治国理政,但却绝难在财富分配上摒除私心,这是人性使然。 至于在验证者的选择上引入基于概率的随机性,不过是一种试图掩盖本质的虚幻公平。

纵观今天的分布式账本生态,只要代币仍然还是中心化发行,PoS 就始终难以摆脱这一局限性。真正有助于消除 PoS「富者躺富」这一长期公平性问题的演进方向,只能坚定地走上抛弃验证者这一「食利阶层」的道路。目前社区中的相关探索主要集中在两个方向:

  • 让共识的规则具有强确定性,实现无需依赖验证者投票即可由每个节点自行完成全局一致的验证。

    以「分叉选择」规则为例,大部分分布式账本项目针对这一点采取的共识规则都是「弱确定性」的,依赖外部通信或数据(比如以太坊的 LMD-GHOST)。这种内秉的弱确定性,决定了技术方案上的努力几乎永远无法摆脱对验证者角色的依赖。

    一些前沿探索项目已经在一步步接近这个理想目标。CoVer 消除了验证者必须是「全节点」这个前置门槛,使得所有节点都能成为验证者;Avalanche 的随机抽样和概率共识机制,虽然通过多轮局部投票快速收敛到全网共识,在这个方向上迈出了一小步,但验证过程依然依赖小规模的通信;Hedera 在 hashgraph 快速 Gossip 同步的基础上,借助「虚拟投票」这一不断迭代增强确定性的机制,使得每个节点都能独立完成全局一致的验证,巧妙地避免了验证过程中的通信,从而摆脱了对验证者角色的依赖,尽管其仍然依赖于大范围的及时同步。

    即便每个节点都能成为自主验证者,想要彻底消除投票,还必须从根本上消除待验证事项的判断不确定性。「双花」一直是分布式账本项目中「交易有效性」这一核心投票事项所要应对的关键挑战(即便不是唯一挑战)。在这一点上,Corda 项目是想得挺透彻的,其 Notary 机制的唯一职责就是「防止双花」。反正不可能三角就在那里,不如在这一环节彻底牺牲去中心化,换取其网络中所有节点除「双花验证」之外的完全独立验证。

    除非每个节点能够对「双花攻击」涉及交易的有效性,进行独立的本地验证并确保得出完全一致的结论,否则消除投票就无从谈起。具体而言,考虑到攻击者可能以任何方式伪造交易记录,只有当双花交易的其中一笔已完成最终化,对新一笔的拒绝才能保证通过节点本地的独立验证也能达成全局一致。如果双花的两笔交易均未最终化,大部分分布式账本项目要么竞争或投票推出一个最终裁决者,要么直接通过投票来决定「双花留谁」,无论如何都无法摆脱投票或单独的验证者角色。

  • 让需要验证的内容足够单一,消除对网络中其它节点及数据的依赖,尤其是传递性的验证依赖,减轻节点进行本地验证的负担。

    无论是账户模型基于已完成验证的数据校验账户余额,还是 UXTO 模型基于已消耗的 UXTO 记录校验新交易的输入有效性,校验的成本都取决于所依赖的历史数据。Merkle Tree 等技术方案虽然可以降低现行网络中的单次验证成本,但它本质上还是依赖验证者角色基于历史数据完成的前置验证,对节点进行本地验证的帮助不大。即便是 Nano 的 Block Lattice 这种以余额为中心的独立账户链模型,要验证余额的有效性,仍依赖于对该账户所有历史收款的回溯验证,进而又传递依赖收款来源账户的历史回溯。在大部分场景下,随着时间的推移,验证所依赖的数据量最终都难以收敛。

    在减轻节点验证负担的道路上,大家最容易想到的就是减少与本节点无关的验证任务。Layer 2 的引入,虽然大幅度降低了网络所需完成的验证总量,但并未改善节点完成验证所需的无关数据问题;分片 (Sharding) 则朝着正确的方向迈出了关键的一步,合理的分片规则将有助于真正让节点的验证工作专注于与自己相关性更强的数据,从而减轻实现本地验证的数据负担。但大部分的分片方案仍然无法做到足够细的分片粒度,也就难以在更大程度上降低负担。

综合来看,这个问题的本质是验证「钱从哪里来」。只要账户的钱来自于别人,我们就永远会受困于对「钱之来源」的回溯验证,和对「钱之去向」的唯一性验证。除非以某种方式彻底消除「钱在账户之间的流动」,我们才有可能完全消除对「单独验证者」角色的依赖,实现真正意义上的节点本地独立验证,让共识机制彻底摆脱拜占庭将军的噩梦。

4. 一致性 (Consistency)

顺序一致性

传统的区块链对数据的同步施加了「顺序一致性」要求,不仅约束了区块的顺序全局一致,对区块内记录的交易,其顺序在出块时也被固定,必须保持全局一致。尽管交易可能存在天然的时间先后顺序,但在被系统处理时,这些交易并不完全具有先后次序上的必要性。这种系统设计中人为施加的「顺序一致性」约束,在高并发中无疑对可扩展性是有显著拖累的。

DAG 的出现,在消除区块的同时,也从全局层面打破了「顺序一致性」,代之以「因果一致性」。但在实践中,不同项目的具体实现方式上对待「顺序一致性」的态度仍有差异。有些项目(比如 IOTA)完全放弃了「顺序一致性」,对 DAG 中同级的子节点也没有顺序要求;有些项目(比如 Fantom)由于需要将 DAG 重新打包回区块进行同步,所以实际上依然受制于「顺序一致性」;还有些项目(比如 Nano)则寻求平衡,在某些不影响可扩展性的局部设计上仍然保留「顺序一致性」。

全局一致性

在分布式网络中,数据在节点之间的同步都需要一个过程,这个过程体现为时间和空间两个维度的交织和平衡,这是分布式系统的内秉属性。尽管「同一时间的节点之间」及「同一节点在不同时间」普遍存在数据不完全一致的状态,不过系统设计依然可以将其考虑在内,纳入以下几种情形:

  • 不知道自己不知道

    节点对于自己所获得数据的有效性存在误判和事后更正的可能,这是早期大部分的分布式账本中节点所处的局面。以比特币为例,其最长链原则决定了,节点对于当前本地同步得到的链尾区块,其有效性的判断只是暂时的。倘若后续同步得到的数据出现了更长的分叉,节点就不得不否定此前误以为有效的链尾区块。

  • 知道自己不知道

    节点对于自己所获得数据的有效性没有判断的把握,在等待来自更多节点的可靠验证期间,将这些数据视为不信任。这是在认识到前一种情形中的潜在误判风险后,一些分布式账本项目作出的调整。

    在以太坊 2.0 的「检查点」(Checkpoint) 机制中,节点必须等待下一个检查点出现,才会将上一个检查点之后的数据视为「已最终化」。这个机制的引入虽然大幅降低了数据被事后否定的风险,但却显著增加了有高可靠性要求的场景中,数据可用的等待时间,损害了系统的实时性和可扩展性。

  • 知道自己知道

    节点对于自己所获得数据的有效性可以独立作出判断,无需等待外部验证。这是现阶段最理想的状态,也是一些前沿分布式账本项目在共识机制设计上所追求的目标。

    无论 Hedera Hashgraph 的「虚拟投票」机制,Avalanche 的随机抽样和概率共识机制,还是 Nano 的 Block Lattice 架构,都在朝着这个方向努力。

  • 不知道自己知道

    现阶段大部分试图实现节点独立验证的分布式账本,其实都或多或少依赖于在待验证数据之外,提前从其它节点获得的辅助数据。这些辅助数据起到了达成共识的前置意见交换作用,如果缺少它们,节点往往也会失去独立验证的能力。那么有没有可能实现完全不依赖额外的辅助数据,节点就可以当即对待验证数据的有效性作出可靠判断呢?

    这个问题本质上是要回答「对数据的有效性判断能否剥离外部依赖?」。那么让我们首先来看一看,常见数据的有效性判断,为什么存在外部依赖。典型的有效性判断分两类:「数据是否被他人伪造」和「数据是否蓄意违规」。前者已经有完善的验证手段,虽然仍依赖于提前同步的数据(如公钥),不过这类数据一般长期有效,无需频繁同步。后者由于是行为主体的潜在作弊意图,只要作弊仍然有利可图,规则仍有潜在的漏洞可钻,就会陷入作弊与反作弊的对抗螺旋,这是人性使然。

    所以要从根本上消除作弊,也对应着两条路可走:让作弊的收益低到缺乏吸引力,或者让原本被视作作弊的行为彻底合法化。前者类似于大幅弱化考试成绩在评价中的权重(相应的策略将在后续文章中单独讨论);而后者好比在考试中打击小抄作弊,最行之有效的办法就是转为开卷考试,让小抄彻底合法化。前面提到,在分布式账本的场景中,作弊对应着「数据的蓄意违规」,即产生被规则所禁止的数据。那么要彻底消除作弊,首先得从规则入手,先把规则禁止的情形削减到最少。

    对于不依赖外部验证源便可判断是否违规的情形,可以轻松达成全局共识,自然也就无需多虑。但在分布式环境中,有一类作弊情形是节点无从独立判断的,那就是「双花」。双花数据中的每一条单独来看自然都是合法的,那么其中哪一条才应被认定为有效,在时序都难以保证的分布式环境中,几乎不可能在兼顾可扩展性的同时设计出结论全局一致的判定规则,因而不得不诉诸「投票」这个强外部依赖。由此看来,要完全消除对投票的依赖,只能回到源头处彻底改变「双花」的性质,从系统设计上设法使其彻底沦为完全可被系统接纳的合法行为。倘若在设计上便把「双花」视为正常操作(即用户的两次独立支出),那么所有由「双花」引出的烦恼都将烟消云散。要想在 UTXO 模型中做到这一点或许并不容易,而账户模型则相对更有希望,只要能为「透支」找到一个妥善的应对之策。

5. 最终性 (Finality)

在分布式账本系统中,「最终性」是数据可靠性和安全性的核心诉求,也是共识机制力图达成的目标。它假设在一定的时间后,链上的历史数据须到达一个不可变更的最终状态。这是一个动态的过程,意味着新产生的增量数据将陆续在共识机制下经历一个接受检验的过程,最终被确认或拒绝。

「最终性」不等于「不变性」(Immutability)

比特币的最长链原则明确地表明,它的最终性只是一个依靠算力堆出的概率城堡,并非绝对的坚不可摧。以太坊 2.0 看似通过「检查点」机制建立了一个具有「确定性」的最终性,但整个机制本身也依赖验证者节点之间的相对共识。倘若出现了势均力敌的对立,导致任何一方都无法争取到足够的多数票,那么「最终性」也将陷入瘫痪。

推至更深层次,分布式账本的内秉属性决定了,任何意义上的数据「最终性」都是建立在共识之上的。共识如水,既能载舟,亦能覆舟。对最终性的篡改也是「成王败寇」,如果你能说服过半的核心节点参与篡改,就能左右最终裁决,推翻看似已经最终化的数据,重新书写新的「历史」。

现有分布式账本中的数据,其最终性终究还是一个「概率」,绝非传统意义上的「不可变」。传统分布式账本项目通常通过经济激励从两个维度来降低最终性被破坏的可能:要么抬升修改企图的成本 (PoW),要么对破坏行为施加代价高昂的惩罚 (PoS)。既然是经济激励,就难逃经济学中「理性人」的假设,在面对行为经济学的挑战时尚且左支右绌,更遑论冰冷的数学概率和「墨菲定律」。

从「最终性」到「不变性」

如果追求「所见即永恒」这一绝对意义上的「最终性」,那么不仅在有效性验证上,节点不能依赖外部数据,还必须彻底摒弃依赖共识裁决的「最终化」(Finalize) 这一过程。这就对系统设计提出了必须同时满足的两个极高的要求:

  • 数据独立性:所有记录性数据的有效性都不依赖于其它记录性数据,通过本地可判定的规则即可完成即时验证。

    这里提到的「记录性数据」,特指公私钥等长期有效的凭据数据之外,系统中持续产生的记录性质的数据(比如 交易记录)。这意味着,所有的记录性数据都是并行独立存在的,相互之间没有有效性上的依存关系。形如 UXTO 模型中新 UXTO 产生自现有 UXTO 这种依存关系,便不符合这一要求。

  • 无条件永久接受:任何通过了有效性验证的数据,都必须被无条件永久接受,不可变更。

    也就是从系统设计层面摒弃「变更」,杜绝最终性被推翻的可能。如此一来,系统的状态变化只能由增量数据表示,系统的当前状态是由所有不可变的存量数据构成。增量数据的无条件接受,还意味着类似「透支」这样的状态也必须被接受,因为透支与否的验证依赖于其它记录性数据。

6. 持久化 (Persistence)

存储之殇

用「不变性」取代「最终性」,带来的一个显而易见的问题是:由于数据只能被创造而不能被修改,存量数据会随着时间的推移而不断增大,存储问题将成为一个难以回避的挑战。

存储问题长期以来一直是分布式账本系统的一个关键挑战。早期的区块链设计,要求全节点保存所有的数据。这种设计并非没有考虑增长无止境的存储成本,而是隐含了一个假设「存储成本的持续下降,可以抵消数据存储不断增长的成本」。这一假设看似合理,但却给分布式账本套上了一个无处不在的枷锁,上链数据的价值须跟持久化该数据的成本相匹配。这种匹配在数据上链时尚且容易达成,但就长期而言,却很难保证数据的长期价值与持久化的长期成本相匹配。现今多数分布式账本上,绝大部分历史数据都已失去了原有的价值,成为这些账本难以卸下的净负担。

随着分布式账本社区的快速发展,交易量迅猛增长,全节点的存储和计算成本急剧增加,「裁剪节点」和「轻节点」应运而生,以降低运行门槛,避免去中心化程度被削弱。再往后,分片 (Sharding) 和 Layer 2 (如 闪电网络、Rollups) 的引入试图将部分交易处理移至链外,给存储减负。同时,以太坊 2.0 引入 Verkle Trees 等优化,使轻节点能高效验证状态数据;Celestia 提出了数据可用性层,让轻量客户端更容易验证区块完整性。

比特币和以太坊技术社区也在积极探索存储问题的长期解决方案。比特币的 AssumeUTXO 方案旨在以 UTXO 快照和硬编码的校验哈希替代完整的历史链,降低全节点的存储需求。在以太坊的坎昆升级后,旨在减少节点需存储历史数据的 EIP-4444 提案再度被提上议程,第一阶段的 Pre-Merge Data Expiry 已经达成共识并将在今年五月实施。客观地说,牺牲了一部分应用场景(例如链上 NFT)的历史数据抛弃方案,依然算不上一个彻底的解决方案,「数据保留期限」与「应用场景制约」的平衡在未来的数据加速增长面前将变得愈发艰难。

存储的长期压力反过来也会传导到交易成本上,限制网络所能承载的业务类型及适用场景;传导到节点的运行和维护成本上,制约网络的去中心化程度;传导到技术方案的取舍中,逐渐削弱网络的潜在安全性。如果我们希望分布式账本能支撑上达「全球交易」下至「比特传输」的全方位应用场景,存储的挑战就必须找到一个长期(即便不是永久)的解决方案。

生命的启示

自然界的生命带给我们最大的启示是:死亡之必然,赋予时间以意义,方显生命的可贵,推动生生而不息。然而,在分布式账本的生态中,我们却不假思索地假定账本记录应当是永恒的。即便后来引入了「删减」(Prune) 机制,实质上仍然还假定被删减的历史记录是当下数据有效性的依托。在永远不会走向真正消亡的数据中,失去存在价值的数据比例将无法避免地攀升,持续消耗着宝贵的存储和计算资源,不断挤占留给新数据的生存空间。

只有从根本上接纳和拥抱「消亡」,才能让分布式账本的数据生态走向「生生不息」的良性循环。

消亡意味着什么

如果历史数据存在「永久消亡」的可能,意味着系统中由历史数据支撑的那些「状态」也就存在着一定程度上的不确定性,其中所涉及的数值状态,其不确定性很可能会表现为某种程度的衰减或虚高。

听起来是不是非常混乱和可怕?有这样的感受完全可以理解,因为人类天生厌恶不确定性。为了消化这种不确定性对系统及参与者造成的影响,且让我们先回顾一下物理学中的「不确定性」原理。这个量子力学的核心原理曾经一度颠覆了人类对物理学乃至实体世界的认知框架。一百多年过去了,每天绝大多数人所面对的世界,上至探索太空下至对抗病毒,依然在以牛顿力学为代表的「高度确定性」的数学公式下运转良好,并未因微观世界的不确定性而遭受显著冲击。这给了我们一个重要的启示:不确定性并不可怕,只要能将其约束在有限的幅度内,并通过群体的概率分布抵消个体的微观不确定性。

接纳数据的消亡

为了接纳数据的消亡,我们首先必须在系统设计上实现以下两点:

  • 新数据的有效性不再永久依托于历史数据

    达成这一点的具体思路在前一节关于「最终性」的探讨中已有所提及,这里不再赘述。

  • 以去中心化的方式实现数据的「自然消亡」

    这也许是对现有分布式账本设计理念的最大挑战。首先,消亡的过程理应是去中心化的,不由任何中心化「裁决者」或者「代表集团」决定;其次,消亡应当是「自然发生」的,即避免由主观意图主导,而是依靠众多市场参与者的微观行为形成的无形之手,推动着数据逐步走向消亡。

    那么,推动数据消亡的主导因素,应该是什么?这还得从对不确定性的幅度约束中去寻找答案。

拥抱不确定性

如前所述,参与者能积极接纳和拥抱不确定性的前提,是约束其幅度。在一个去中心化的系统中,对不确定性的约束难以通过预设的规则和参数来实现,更理性的做法是通过市场对其「某些状态的共识数值」经历一个向零衰减的过程来促成。当这些状态数值衰减到一个足够低的水平后,再走到消亡的终点,自然也就实现了对不确定性的幅度约束。

那么,这个「消亡的终点」又该如何实现呢?墨西哥传统文化中的「亡灵节」(Day of the Dead) 为我们带来了一些启示。每年 11 月 2 日,墨西哥人会在家中为已故亲人搭建祭坛,献上食物、饮料和鲜花,来纪念逝去的生命。他们相信,只要在世之人没有遗忘逝去的亲人,逝者就会在每年的这一天回到人间。墨西哥人观念中,逝者只有当在世之人全都遗忘他的那一刻,才真的「消亡」。

在一个分布式系统中,数据的「存在性」本就是被众多节点共同支撑的。倘若允许节点在必要的时候主动「遗忘」某些数据,那么这些数据就会随着继续保存它的节点逐渐减少而走向「消亡」。当所有节点都不再保存这些数据时,它们就走到了生命的终点,如同那些被所有人遗忘的逝者。

然而,节点该在什么时候主动「遗忘」部分数据呢?既然数据消亡的初衷是让网络卸下数据永久存储的负担,那么我们自然可以预期,节点的理性策略是在特定数据所能带来的「价值」已经低于继续存储它的成本,且看不到价值回归的可能时,作出抛弃该数据的决定。

这就引出了一个更为深刻的问题:如何量化数据的「价值」?这也是在接下来的文章中将探讨的核心话题。

Tags:

Categories:

Updated: