本篇文章主要给网友们分享区块链容量冗余度的知识,其中更加会对区块链容量冗余度是什么进行更多的解释,如果能碰巧解决你现在面临的问题,记得关注本站!
什么是区块链扩容?
普通用户能够运行节点对于区块链的去中心化至关重要
想象一下凌晨两点多,你接到了一个紧急呼叫,来自世界另一端帮你运行矿池 (质押池) 的人。从大约 14 分钟前开始,你的池子和其他几个人从链中分离了出来,而网络仍然维持着 79% 的算力。根据你的节点,多数链的区块是无效的。这时出现了余额错误:区块似乎错误地将 450 万枚额外代币分配给了一个未知地址。
一小时后,你和其他两个同样遭遇意外的小矿池参与者、一些区块浏览器和交易所方在一个聊天室中,看见有人贴出了一条推特的链接,开头写着“宣布新的链上可持续协议开发基金”。
到了早上,相关讨论广泛散布在推特以及一个不审查内容的社区论坛上。但那时 450 万枚代币中的很大一部分已经在链上转换为其他资产,并且进行了数十亿美元的 defi 交易。79%的共识节点,以及所有主要的区块链浏览器和轻钱包的端点都遵循了这条新链。也许新的开发者基金将为某些开发提供资金,或者也许所有这些都被领先的矿池、交易所及其裙带所吞并。但是无论结果如何,该基金实际上都成为了既成事实,普通用户无法反抗。
或许还有这么一部主题电影。或许会由 MolochDAO 或其他组织进行资助。
这种情形会发生在你的区块链中吗?你所在区块链社区的精英,包括矿池、区块浏览器和托管节点,可能协调得很好,他们很可能都在同一个 telegram 频道和微信群中。如果他们真的想出于利益突然对协议规则进行修改,那么他们可能具备这种能力。以太坊区块链在十小时内完全解决了共识失败,如果是只有一个客户端实现的区块链,并且只需要将代码更改部署到几十个节点,那么可以更快地协调客户端代码的更改。能够抵御这种社会性协作攻击的唯一可靠方式是“被动防御”,而这种力量来自去一个中心化的群体:用户。
想象一下,如果用户运行区块链的验证节点 (无论是直接验证还是其他间接技术),并自动拒绝违反协议规则的区块,即使超过 90% 的矿工或质押者支持这些区块,故事会如何发展。
如果每个用户都运行一个验证节点,那么攻击很快就会失败:有些矿池和交易所会进行分叉,并且在整个过程中看起来很愚蠢。但是即使只有一些用户运行验证节点,攻击者也无法大获全胜。相反,攻击会导致混乱,不同用户会看到不同的区块链版本。最坏情况下,随之而来的市场恐慌和可能持续的链分叉将大幅减少攻击者的利润。对如此旷日持久的冲突进行应对的想法本身就可以阻止大多数攻击。
Hasu 关于这一点的看法:
“我们要明确一件事,我们之所以能够抵御恶意的协议更改,是因为拥有用户验证区块链的文化,而不是因为 PoW 或 PoS。”
假设你的社区有 37 个节点运行者,以及 80000 名被动监听者,对签名和区块头进行检查,那么攻击者就获胜了。如果每个人都运行节点的话,攻击者就会失败。我们不清楚针对协同攻击的启动群体免疫的确切阈值是多少,但有一点是绝对清楚的:好的节点越多,恶意的节点就越少,而且我们所需的数量肯定不止于几百几千个。
那么全节点工作的上限是什么?
为了使得有尽可能多的用户能够运行全节点,我们会将注意力集中在普通消费级硬件上。即使能够轻松购买到专用硬件,这能够降低一些全节点的门槛,但事实上对可扩展性的提升并不如我们想象的那般。
全节点处理大量交易的能力主要受限于三个方面:
算力:在保证安全的前提下,我们能划分多少 CPU 来运行节点?
带宽:基于当前的网络连接,一个区块能包含多少字节?
存储:我们能要求用户使用多大的空间来进行存储?此外,其读取速度应该达到多少?(即,HDD 足够吗?还是说我们需要 SSD?)
许多使用“简单”技术对区块链进行大幅扩容的错误看法都源自于对这些数字过于乐观的估计。我们可以依次来讨论这三个因素:
算力
错误答案:100% 的 CPU 应该用于区块验证
正确答案:约 5-10% 的 CPU 可以用于区块验证
限制之所以这么低的四个主要原因如下:
我们需要一个安全边界来覆盖 DoS 攻击的可能性 (攻击者利用代码弱点制造的交易需要比常规交易更长的处理时间)
节点需要在离线之后能够与区块链同步。如果我掉线一分钟,那我应该要能够在几秒钟之内完成同步
运行节点不应该很快地耗尽电池,也不应该拖慢其他应用的运行速度
节点也有其他非区块生产的工作要进行,大多数是验证以及对 p2p 网络中输入的交易和请求做出响应
请注意,直到最近大多数针对“为什么只需要 5-10%?”这一点的解释都侧重于另一个不同的问题:因为 PoW 出块时间不定,验证区块需要很长时间,会增加同时创建多个区块的风险。这个问题有很多修复方法,例如 Bitcoin NG,或使用 PoS 权益证明。但这些并没有解决其他四个问题,因此它们并没有如许多人所料在可扩展性方面获得巨大进展。
并行性也不是灵丹妙药。通常,即使是看似单线程区块链的客户端也已经并行化了:签名可以由一个线程验证,而执行由其他线程完成,并且有一个单独的线程在后台处理交易池逻辑。而且所有线程的使用率越接近 100%,运行节点的能源消耗就越多,针对 DoS 的安全系数就越低。
带宽
错误答案:如果没 2-3 秒都产生 10 MB 的区块,那么大多数用户的网络都大于 10 MB/秒,他们当然都能处理这些区块
正确答案:或许我们能在每 12 秒处理 1-5 MB 的区块,但这依然很难
如今,我们经常听到关于互联网连接可以提供多少带宽的广为传播的统计数据:100 Mbps 甚至 1 Gbps 的数字很常见。但是由于以下几个原因,宣称的带宽与预期实际带宽之间存在很大差异:
“Mbps”是指“每秒数百万 bits”;一个 bit 是一个字节的 1/8,因此我们需要将宣称的 bit 数除以 8 以获得字节数。
网络运营商,就像其他公司一样,经常编造谎言。
总是有多个应用使用同一个网络连接,所以节点无法独占整个带宽。
P2P 网络不可避免地会引入开销:节点通常最终会多次下载和重新上传同一个块 (更不用说交易在被打包进区块之前还要通过 mempool 进行广播)。
当 Starkware 在 2019 年进行一项实验时,他们在交易数据 gas 成本降低后首次发布了 500 kB 的区块,一些节点实际上无法处理这种大小的区块。处理大区块的能力已经并将持续得到改善。但是无论我们做什么,我们仍然无法获取以 MB/秒为单位的平均带宽,说服自己我们可以接受 1 秒的延迟,并且有能力处理那种大小的区块。
存储
错误答案:10 TB
正确答案:512 GB
正如大家可能猜到的,这里的主要论点与其他地方相同:理论与实践之间的差异。理论上,我们可以在亚马逊上购买 8 TB 固态驱动 (确实需要 SSD 或 NVME;HDD 对于区块链状态存储来说太慢了)。实际上,我用来写这篇博文的笔记本电脑有 512 GB,如果你让人们去购买硬件,许多人就会变得懒惰 (或者他们无法负担 800 美元的 8 TB SSD) 并使用中心化服务。即使可以将区块链装到某个存储设备上,大量活动也可以快速地耗尽磁盘并迫使你购入新磁盘。
一群区块链协议研究员对每个人的磁盘空间进行了调查。我知道样本量很小,但仍然...
请点击输入图片描述
此外,存储大小决定了新节点能够上线并开始参与网络所需的时间。现有节点必须存储的任何数据都是新节点必须下载的数据。这个初始同步时间 (和带宽) 也是用户能够运行节点的主要障碍。在写这篇博文时,同步一个新的 geth 节点花了我大约 15 个小时。如果以太坊的使用量增加 10 倍,那么同步一个新的 geth 节点将至少需要一周时间,而且更有可能导致节点的互联网连接受到限制。这在攻击期间更为重要,当用户之前未运行节点时对攻击做出成功响应需要用户启用新节点。
交互效应
此外,这三类成本之间存在交互效应。由于数据库在内部使用树结构来存储和检索数据,因此从数据库中获取数据的成本随着数据库大小的对数而增加。事实上,因为顶级 (或前几级) 可以缓存在 RAM 中,所以磁盘访问成本与数据库大小成正比,是 RAM 中缓存数据大小的倍数。
不要从字面上理解这个图,不同的数据库以不同的方式工作,通常内存中的部分只是一个单独 (但很大) 的层 (参见 leveldb 中使用的 LSM 树)。但基本原理是一样的。
例如,如果缓存为 4 GB,并且我们假设数据库的每一层比上一层大 4 倍,那么以太坊当前的 ~64 GB 状态将需要 ~2 次访问。但是如果状态大小增加 4 倍到 ~256 GB,那么这将增加到 ~3 次访问。因此,gas 上限增加 4 倍实际上可以转化为区块验证时间增加约 6 倍。这种影响可能会更大:硬盘在已满状态下比空闲时需要花更长时间来读写。
这对以太坊来说意味着什么?
现在在以太坊区块链中,运行一个节点对许多用户来说已经是一项挑战,尽管至少使用常规硬件仍然是可能的 (我写这篇文章时刚刚在我的笔记本电脑上同步了一个节点!)。因此,我们即将遭遇瓶颈。核心开发者最关心的问题是存储大小。因此,目前在解决计算和数据瓶颈方面的巨大努力,甚至对共识算法的改变,都不太可能带来 gas limit 的大幅提升。即使解决了以太坊最大的 DoS 弱点,也只能将 gas limit 提高 20%。
对于存储大小的问题,唯一解决方案是无状态和状态逾期。无状态使得节点群能够在不维护永久存储的情况下进行验证。状态逾期会使最近未访问过的状态失活,用户需要手动提供证明来更新。这两条路径已经研究了很长时间,并且已经开始了关于无状态的概念验证实现。这两项改进相结合可以大大缓解这些担忧,并为显著提升 gas limit 开辟空间。但即使在实施无状态和状态逾期之后,gas limit 也可能只会安全地提升约 3 倍,直到其他限制开始发挥作用。
另一个可能的中期解决方案使使用 ZK-SNARKs 来验证交易。ZK-SNARKs 能够保证普通用户无需个人存储状态或是验证区块,即使他们仍然需要下载区块中的所有数据来抵御数据不可用攻击。另外,即使攻击者不能强行提交无效区块,但是如果运行一个共识节点的难度过高,依然会有协调审查攻击的风险。因此,ZK-SNARKs 不能无限地提升节点能力,但是仍然能够对其进行大幅提升 (或许是 1-2 个数量级)。一些区块链在 layer1 上探索该形式,以太坊则通过 layer2 协议 (也叫 ZK rollups) 来获益,例如 zksync, Loopring 和 Starknet。
分片之后又会如何?
分片从根本上解决了上述限制,因为它将区块链上包含的数据与单个节点需要处理和存储的数据解耦了。节点验证区块不是通过亲自下载和执行,而是使用先进的数学和密码学技术来间接验证区块。
因此,分片区块链可以安全地拥有非分片区块链无法实现的非常高水平的吞吐量。这确实需要大量的密码学技术来有效替代朴素完整验证,以拒绝无效区块,但这是可以做到的:该理论已经具备了基础,并且基于草案规范的概念验证已经在进行中。
以太坊计划采用二次方分片 (quadratic sharding),其中总可扩展性受到以下事实的限制:节点必须能够同时处理单个分片和信标链,而信标链必须为每个分片执行一些固定的管理工作。如果分片太大,节点就不能再处理单个分片,如果分片太多,节点就不能再处理信标链。这两个约束的乘积构成了上限。
可以想象,通过三次方分片甚至指数分片,我们可以走得更远。在这样的设计中,数据可用性采样肯定会变得更加复杂,但这是可以实现的。但以太坊并没有超越二次方,原因在于,从交易分片到交易分片的分片所获得的额外可扩展性收益实际上无法在其他风险程度可接受的前提下实现。
那么这些风险是什么呢?
最低用户数量
可以想象,只要有一个用户愿意参与,非分片区块链就可以运行。但分片区块链并非如此:单个节点无法处理整条链,因此需要足够的节点以共同处理区块链。如果每个节点可以处理 50 TPS,而链可以处理 10000 TPS,那么链至少需要 200 个节点才能存续。如果链在任何时候都少于 200 个节点,那可能会出现节点无法再保持同步,或者节点停止检测无效区块,或者还可能会发生许多其他坏事,具体取决于节点软件的设置。
在实践中,由于需要冗余 (包括数据可用性采样),安全的最低数量比简单的“链 TPS 除以节点 TPS”高几倍,对于上面的例子,我们将其设置位 1000 个节点。
如果分片区块链的容量增加 10 倍,则最低用户数也增加 10 倍。现在大家可能会问:为什么我们不从较低的容量开始,当用户很多时再增加,因为这是我们的实际需要,用户数量回落再降低容量?
这里有几个问题:
区块链本身无法可靠地检测到其上有多少唯一用户,因此需要某种治理来检测和设置分片数量。对容量限制的治理很容易成为分裂和冲突的根源。
如果许多用户突然同时意外掉线怎么办?
增加启动分叉所需的最低用户数量,使得防御恶意控制更加艰难。
最低用户数为 1,000,这几乎可以说是没问题的。另一方面,最低用户数设为 100 万,这肯定是不行。即使最低用户数为 10,000 也可以说开始变得有风险。因此,似乎很难证明超过几百个分片的分片区块链是合理的。
历史可检索性
用户真正珍视的区块链重要属性是永久性。当公司破产或是维护该生态系统不再产生利益时,存储在服务器上的数字资产将在 10 年内不再存在。而以太坊上的 NFT 是永久的。
是的,到 2372 年人们仍能够下载并查阅你的加密猫。
但是一旦区块链的容量过高,存储所有这些数据就会变得更加困难,直到某时出现巨大风险,某些历史数据最终将……没人存储。
要量化这种风险很容易。以区块链的数据容量 (MB/sec) 为单位,乘以 ~30 得到每年存储的数据量 (TB)。当前的分片计划的数据容量约为 1.3 MB/秒,因此约为 40 TB/年。如果增加 10 倍,则为 400 TB/年。如果我们不仅希望可以访问数据,而且是以一种便捷的方式,我们还需要元数据 (例如解压缩汇总交易),因此每年达到 4 PB,或十年后达到 40 PB。Internet Archive (互联网档案馆) 使用 50 PB。所以这可以说是分片区块链的安全大小上限。
因此,看起来在这两个维度上,以太坊分片设计实际上已经非常接近合理的最大安全值。常数可以增加一点,但不能增加太多。
结语
尝试扩容区块链的方法有两种:基础的技术改进和简单地提升参数。首先,提升参数听起来很有吸引力:如果您是在餐纸上进行数学运算,这就很容易让自己相信消费级笔记本电脑每秒可以处理数千笔交易,不需要 ZK-SNARK、rollups 或分片。不幸的是,有很多微妙的理由可以解释为什么这种方法是有根本缺陷的。
运行区块链节点的计算机无法使用 100%的 CPU 来验证区块链;他们需要很大的安全边际来抵抗意外的 DoS 攻击,他们需要备用容量来执行诸如在内存池中处理交易之类的任务,并且用户不希望在计算机上运行节点的时候无法同时用于任何其他应用。带宽也会受限:10 MB/s 的连接并不意味着每秒可以处理 10 MB 的区块!也许每 12 秒才能处理 1-5 MB 的块。存储也是一样,提高运行节点的硬件要求并且限制专门的节点运行者并不是解决方案。对于去中心化的区块链而言,普通用户能够运行节点并形成一种文化,即运行节点是一种普遍行为,这一点至关重要。
区块链的冗余度是指
冗余有两层含义,第一层含义是指多余区块链容量冗余度的不需要区块链容量冗余度的部分,第二层含义是指人为增加地重复部分,其目区块链容量冗余度的是用来对原本的单一部分进行备份,以达到增强其安全性的目的,这在信息通信系统当中有着较为广泛的应用
区块链的核心技术是什么?
简单来说,区块链是一个提供了拜占庭容错、并保证了最终一致性的分布式数据库;从数据结构上看,它是基于时间序列的链式数据块结构;从节点拓扑上看,它所有的节点互为冗余备份;从操作上看,它提供了基于密码学的公私钥管理体系来管理账户。
或许以上概念过于抽象,我来举个例子,你就好理解了。
你可以想象有 100 台计算机分布在世界各地,这 100 台机器之间的网络是广域网,并且,这 100 台机器的拥有者互相不信任。
那么,我们采用什么样的算法(共识机制)才能够为它提供一个可信任的环境,并且使得:
节点之间的数据交换过程不可篡改,并且已生成的历史记录不可被篡改;
每个节点的数据会同步到最新数据,并且会验证最新数据的有效性;
基于少数服从多数的原则,整体节点维护的数据可以客观反映交换历史。
区块链就是为了解决上述问题而产生的技术方案。
二、区块链的核心技术组成
无论是公链还是联盟链,至少需要四个模块组成:P2P 网络协议、分布式一致性算法(共识机制)、加密签名算法、账户与存储模型。
1、P2P 网络协议
P2P 网络协议是所有区块链的最底层模块,负责交易数据的网络传输和广播、节点发现和维护。
通常我们所用的都是比特币 P2P 网络协议模块,它遵循一定的交互原则。比如:初次连接到其他节点会被要求按照握手协议来确认状态,在握手之后开始请求 Peer 节点的地址数据以及区块数据。
这套 P2P 交互协议也具有自己的指令集合,指令体现在在消息头(Message Header) 的 命令(command)域中,这些命令为上层提供了节点发现、节点获取、区块头获取、区块获取等功能,这些功能都是非常底层、非常基础的功能。如果你想要深入了解,可以参考比特币开发者指南中的 Peer Discovery 的章节。
2、分布式一致性算法
在经典分布式计算领域,我们有 Raft 和 Paxos 算法家族代表的非拜占庭容错算法,以及具有拜占庭容错特性的 PBFT 共识算法。
如果从技术演化的角度来看,我们可以得出一个图,其中,区块链技术把原来的分布式算法进行了经济学上的拓展。
在图中我们可以看到,计算机应用在最开始多为单点应用,高可用方便采用的是冷灾备,后来发展到异地多活,这些异地多活可能采用的是负载均衡和路由技术,随着分布式系统技术的发展,我们过渡到了 Paxos 和 Raft 为主的分布式系统。
而在区块链领域,多采用 PoW 工作量证明算法、PoS 权益证明算法,以及 DPoS 代理权益证明算法,以上三种是业界主流的共识算法,这些算法与经典分布式一致性算法不同的是,它们融入了经济学博弈的概念,下面我分别简单介绍这三种共识算法。
PoW: 通常是指在给定的约束下,求解一个特定难度的数学问题,谁解的速度快,谁就能获得记账权(出块)权利。这个求解过程往往会转换成计算问题,所以在比拼速度的情况下,也就变成了谁的计算方法更优,以及谁的设备性能更好。
PoS: 这是一种股权证明机制,它的基本概念是你产生区块的难度应该与你在网络里所占的股权(所有权占比)成比例,它实现的核心思路是:使用你所锁定代币的币龄(CoinAge)以及一个小的工作量证明,去计算一个目标值,当满足目标值时,你将可能获取记账权。
DPoS: 简单来理解就是将 PoS 共识算法中的记账者转换为指定节点数组成的小圈子,而不是所有人都可以参与记账。这个圈子可能是 21 个节点,也有可能是 101 个节点,这一点取决于设计,只有这个圈子中的节点才能获得记账权。这将会极大地提高系统的吞吐量,因为更少的节点也就意味着网络和节点的可控。
3、加密签名算法
在区块链领域,应用得最多的是哈希算法。哈希算法具有抗碰撞性、原像不可逆、难题友好性等特征。
其中,难题友好性正是众多 PoW 币种赖以存在的基础,在比特币中,SHA256 算法被用作工作量证明的计算方法,也就是我们所说的挖矿算法。
而在莱特币身上,我们也会看到 Scrypt 算法,该算法与 SHA256 不同的是,需要大内存支持。而在其他一些币种身上,我们也能看到基于 SHA3 算法的挖矿算法。以太坊使用了 Dagger-Hashimoto 算法的改良版本,并命名为 Ethash,这是一个 IO 难解性的算法。
当然,除了挖矿算法,我们还会使用到 RIPEMD160 算法,主要用于生成地址,众多的比特币衍生代码中,绝大部分都采用了比特币的地址设计。
除了地址,我们还会使用到最核心的,也是区块链 Token 系统的基石:公私钥密码算法。
在比特币大类的代码中,基本上使用的都是 ECDSA。ECDSA 是 ECC 与 DSA 的结合,整个签名过程与 DSA 类似,所不一样的是签名中采取的算法为 ECC(椭圆曲线函数)。
从技术上看,我们先从生成私钥开始,其次从私钥生成公钥,最后从公钥生成地址,以上每一步都是不可逆过程,也就是说无法从地址推导出公钥,从公钥推导到私钥。
4、账户与交易模型
从一开始的定义我们知道,仅从技术角度可以认为区块链是一种分布式数据库,那么,多数区块链到底使用了什么类型的数据库呢?
我在设计元界区块链时,参考了多种数据库,有 NoSQL 的 BerkelyDB、LevelDB,也有一些币种采用基于 SQL 的 SQLite。这些作为底层的存储设施,多以轻量级嵌入式数据库为主,由于并不涉及区块链的账本特性,这些存储技术与其他场合下的使用并没有什么不同。
区块链的账本特性,通常分为 UTXO 结构以及基于 Accout-Balance 结构的账本结构,我们也称为账本模型。UTXO 是“unspent transaction input/output”的缩写,翻译过来就是指“未花费的交易输入输出”。
这个区块链中 Token 转移的一种记账模式,每次转移均以输入输出的形式出现;而在 Balance 结构中,是没有这个模式的。
如何推动区块链技术为数据安全增效?
区块链在信息安全上的优势和数软件区块链技术实验室根据自身开发经验和技术特点总结以下方面: 1.利用高冗余的数据库保障信息的数据完整性;2.利用密码学的相关原理进行数据验证,保证不可篡改;3.在权限管理方面运用了多私钥规则进行访问权限控制。
区块链是去中心化,分布式,区块链技术是公开透明的,目前来说还没有有效的方法处理数据安全。事实上,数据项目对个人数据的控制有限。数据传输中项目就无法控制后续如何使用了。并且通过使用加密货币,区块链为维护网络的机构提供经济激励,区块链提供了一种安全的信息存储和管理,包括个人数据。
建立跨地域、跨行业,能够面向整个社会开放的数据共享平台,加强数据安全立法,同时逐步加大引入人工智能和区块链技术,推动大数据与人工智能、区块链等新技术的融合,提高对风险因素的感知、预测、防范能力。
borderless无界币的区块链是否处于世界顶端科技?与其他虚拟货币相比,优势是否比较明显?
1. Borderless系统的技术支持
1) 高效且可扩展性能
Borderless系统实现超 10 万次/s批量转账
高性能的区块链技术对加密货币和智能合约平台来说是必须的,能够为业界提供一个有可能代替现有金融平台的解决方案。为了能够实现比VISA和MasterCard每秒可以处理交易数量更快的速度,无界从底层开始重新设计。通过股份授权证明机制,无界网络可以在平均一秒的时间内确认超 10 万次转账交易。
Borderless系统架构总览
要达到行业里面最顶级的性能,无界借鉴LMAX交易所的经验。这个 LMAX 交易所可以在每秒内处理高达 6 百万次的交易。无界借鉴其技术的关键点,如下:
a) 将一切东西放在内存里面
b) 将核心的业务逻辑放到一个单线程里面
c) 将加密算法操作(哈希和签名)放在核心业务逻辑以外
d) 将校验的操作分成状态独立和状态依赖检查
e) 使用一种面向对象的数据模型
通过遵守这些简单的规则,无界在未进行颠覆式优化工作的情况下,实现了每秒处理 10 万次转账的高效性能。如果有进一步的优化工作的话,会让无界可以达到与 LMAX 交易所相近的性能表现(即每秒 600 万次)。需要注意到,无界达到这样的性能表现是高度依赖其中的一个兼容交易协议。如果想用业务逻辑运行在一个进行加密算法操作和用哈希识别器去调用所有对象的虚拟机上的话,不可能达到同样层级的性能表现。区块链天生就是单线程的,而单核的 CPU 的性能是各种资源中最短缺的、最难扩展的一个方面。 无界的技术逻辑能够让这个单线程的执行达到极可能的高效。
Borderless系统核心业务背书
区块链是一个下达关于确定去修改一个共享的全局状态交易的全球账本。这些交易中包含的命令可以改变其他交易的有效性。例如,你不能在你的支票存入生效前,从你的银行账户里支取金额。在能够影响一个特定的账户的所有先前交易都被处理之前,你不可能知道一个交易是否有效。 如果两个无关联的账号没有共享任何通用的依赖关系的话,理论上这两个账号的交易可以是在同一时间进行处理的。实际上,在一个由具备仲裁条件的智能合 约驱动的账本上识别哪些交易是真正独立存在的耗费是很棘手的。唯一的保证两个交易是真正独立存在的方法,是通过维护完全分离的账本,然后定期在它们之间传输价值。如果要用这种性能表现的权衡关系去打比方的话,可以像是非一致内存访问架构(Non-Uniform Memory Access ,NUMA)和一致内存访 问架构(Uniform Memory Access ,UMA)之间的关系。 实际上,一致内存访问架构对开发者来说是更容易去设计的,而且耗费更低。非一致内存访问架构通常是在建造超级计算机和大型计算机集群时作为不得已的方法去采用的。 计算机产业逐渐意识到通过平行计算去实现性能的扩张并没有早期那么容易,毕竟那时候最需要做的事情只是提高处理器的频率而已。就是因为这个原因,处理器的设计者们在尝试去采用多线程设去提高性能之前都在拼命去提高单线程的性能。当多线程还不够的话,而且只有这样的话,集群计算这个方案才会被考虑。
很多加密货币产业的人在没有探索过在技术上一台电脑的单个核心能实现什么之前,就尝试通过用集群计算的方案去解决可扩展性的问题。
2) LMAX Disruptor 分解器技术
LMAX 分解器提供了一个在单线程上可以实现什么表现的学习例子。LMAX 是一个针对终端顾客的交易平台,目标是成为世界上最快的交易所。它们一直很慷 慨地将他们学到的东西公布出来。
LMAX架构的概要总览:
业务逻辑处理器是所有顺序交易和订单匹配发生的地方。它是一个可以每秒处理百万级别订单的单线程。这个架构可以很容易地用在加密货币和区块链设计的 领域。 输入分解器扮演的角色是从很多来自不同源头的用户里面收集订单,然后分配给它们一个确定的顺序。当给它们分配好顺序后,它们会被复制、记录然后广播 到很多冗余的业务逻辑处理器。输入分解器是高度并行的,而且容易分包到一个计算机集群系统中。 当业务逻辑处理器处理完输入后,一个输出分解器负责通知那些关心结果的人。这也是一个高度并行的任务。 最终,通过在业务逻辑处理器里使用单线程样品化处理器和 Java 虚拟机,LMAX 可以在每秒内执行 600 万次交易。如果 LMAX 可以达到这个成绩,那么加密 货币和智能合约平台平不需要在每秒连 10 个交易都不到的情况下去考虑集群网络方案。 高性能区块链
要建造一个高性能的区块链,我们需要使用 LMAX 同样的技术。这是几个必须实现的事项: 将所有东西放在内存上,避免同步原语(锁定,原子操作),避免在业务逻辑处理器上不必要的计算。 由于内存的设计是高度并行的,因此越来越便宜。追踪互联网上每个人的账户余额和权限所需要的数据量是可以放在小于 1TB 的 RAM 内存上,这用不到 15000 美元的价格就能买到了,而且可以装在商品化(高端)的服务器主板上。在这个系统被 30 亿人采用之前,这类硬件会在普通的桌面计算机里面看到。 真正的瓶颈不是内存容量的需求,而是带宽的需求。在每秒 100 万次交易和每笔交易占 256 字节的情况下,网络会需要 256MB 每秒的数据量,即 1Gbit/s 的 带宽。这样的带宽在普通的桌面计算机上并不是常见的。不过,这样的带宽只是二代互联网 100Gbit/s 带宽的一点而已。这个二代互联网被供应给超过 210 个 美国教育机构、70 家公司和 45 个非盈利机构和政府机构。
另一句话说,区块链技术可以轻松将所有东西保存在内存里,而且如果设计的合理的话可以扩展到支持每秒百万级别的转账。
3) 分配ID并避免哈希计算
在单线程系统的系统里面,处理器周期是需要被保留的稀缺资源。传统的区块链设计使用加密算法基础上的哈希计算去生成一个全球独特的ID系统,以实现统计学上不会有碰撞的保证。进行这些哈希计算的问题是,它会耗用越来越多的内存和处理器周期。与一个直接的数组索引相比,这种方式会显著地占用更多处理器的时间去查找一个账户的记录。例如,64位的整数对比和操作起来都要比160位以上的ID更简单。更大的哈希ID机制意味着CPU缓存里面的空间更少了,而需要更多的内存。在现代的操作系统里不常访问的随机存储器是会被压缩的,不过哈希识别器是随机数,这是没法压缩的。型号区块链给了我们一个在全球内分配独特的ID的方法,这些ID互相之间不会起冲突,因此完全避免使用像比特币地址那样的哈希算法为基础的识别器去引用一个账号、余额或者许可。
4) 从业务逻辑处理器中去除签名校验
所有在加密货币网络的交易依赖于用加密算法签名去校验权限。大部分情况下,请求的权限可以由其他交易的结果改变。这意味着在业务逻辑处理器里面,权限需要被定义成与加密算法计算无关的情况。
要达到这个目的,所有的公钥需要分配一个独特的和不可代替的ID。当ID被分配后,输入分解器可以校验提供的签名与指定的ID是否匹配。当交易到达业务逻辑处理器后,只需要去检查ID就可以了。
这个同样的技术可以在拥有不可代替的静态ID的对象上实现去除前提条件检查。
5) 为静态校验设计交易
对交易来说,有很多特性是可以进行静态检查的,而不需要引用当前的全局状态。这些检查包括参数的范围检查、输入的去冗余和数组排序等。通常来说,有很多检查是可以被进行的,如果交易包含它“假设”是全局状态的数据的话。在这些检查被执行后,业务逻辑处理器必须要做的事情就只有去确保这些假设还是正确的,这个过程总结下来就是检查一个涉及交易签名时间的对象引用的修改时间戳。
6) 智能合约
很多区块链正在整合一种通用的脚本语言去定义所有的操作。这些设计最终将业务逻辑处理器定义为一个虚拟机,而所有的交易被定义为由这个虚拟机运行的脚本。这个方案有一个在真实处理器上的单线程性能极限,并且由于将所有东西强制通过一个虚拟处理器去执行,让问题更严重了。一个虚拟处理器即使用上了实施编译技术(JIT)也总会比一个真正的处理器要慢,不过计算速度并不是这种“任何东西都是一个脚本”方案的唯一问题。当交易被定义在这么低的层次上,意味着静态检查和加密算法操作还是会被包含到业务逻辑处理的环节里,这也让会让整体的吞吐量降低。一个脚本引擎永远不应该要求执行一个加密算法签名检查的请求,即使这个请求是通过原生的机制实现的。
根据我们从LMAX上学到的课程,我们知道一个为区块链设计的虚拟机应该考虑到单线程表现。这意味着在一开始就要为实施编译优化,而且最常用的智能合约应该通过区块链原生支持,而只有那些不常用的、定制的合约会运行在一个虚拟机上。这些定制的合约设计的时候要考虑性能,这意味着虚拟机应该将可以访问的内存范围限制到可以放在处理器缓存上的级别。
7) 面向对象的数据模式
在内存中保存所有东西的其中一个好处是,软件可以设计成模仿现实世界中数据的关系。这意味着业务逻辑处理器可以迅速根据内存内的指针去找到数据,而不是被迫去进行耗费高的数据库查询任务。这意味着数据不需要复制就能访问了,而且可以当场就被修改。这个优化提供了比任何数据库为基础的方案高一个数量级的性能表现。
Borderless无界系统的高效性能的成功创建,是建立在在核心业务逻辑上去除与关键性、订单依赖性和评估无关的计算任务,并且设计一个可以帮助优化这些事项的协议。这就是无界做的事情。
现在市场98%的虚拟货币是无法达到borderless无界币区块链技术,优势十分显著。
为什么说虚拟币是区块链存在的唯一意义
为什么说虚拟币是区块链存在的唯一意义
区块链已经是一个世人皆知的名词了,有人甚至断言,未来人类社会的一切都将以区块链为基石。但若问区块链究竟是个什么技术,各路“专家”的解释可谓语焉不详:有些堆砌常人不可理解的术语,有些大谈其潜在应用,有些干脆冠之以“第四次工业革命”——至于区块链的本质,大家终究还是不甚了了。
之所以闪烁其词,原因并不难猜。就功能而言,区块链无非是一个特殊方式加密的公共数据库,这种毫不性感的概念是没法用来炒作的。当然,区块链吸睛如斯,其内涵和外延不可能如其功能般缺乏营养。要把它讲清楚,我们需要了解大量技术本体以外的信息,而其中的重中之重便是以比特币为代表的虚拟币。
区块链的痛点
放在五年前,世上并无太多人知道什么是区块链。作为比特币的底层技术,这个系统以数据块(block)的形式进行传输,并以末端追加的方式将数据块连成链状(chain),因而得名区块链(blockchain)。从技术层面看,区块链和之前存在的IT技术之间没有显著的壁垒,并无革新性的进步;但从价值观层面看,它们则有根本性的不同——以前所有的技术都旨在提高效率,而区块链是反其道而行之的。
鉴于比特币是区块链标志性的存在,我们不妨拿它作为样本。
比特币体系内的每一笔交易记账都在全网范围内由无数个用户验证,验证通过后,该次交易才能成立。而第一个成功记账的用户可以得到一定量的比特币奖励。这个信息处理过程俗称“挖矿”。目前比特币系统的活跃用户数约500万人,2017年全年处理量约3000万笔交易。3000万笔是个什么体量呢?2017年11月11日这一天时间里支付宝完成了14.8亿笔交易,约为比特币全年交易量的50倍。
这个差距并不说明太大问题。毕竟比特币的用户数远低于支付宝,应用场景也远少于支付宝,所以交易量有数量级的差别并不奇怪。真正说明问题的,是支持这3000万笔交易所消耗的电量:外媒Digiconomist公布,2017年比特币系统消耗的电能达到了300亿度,占全球耗电量的0.13%,超过数十个国家的全国年用电量。换言之,处理一笔交易,比特币系统平均需要消耗1000度电;以我国居民电价计,相当于每个活跃用户人均承担电费3000元。如此匪夷所思的耗电量意味着巨大的算力配置,这与其渺小的处理功能形成了强烈反差。
“去中心化”的低效,不只体现在算力,还体现在数据存储。
继续以比特币为例,众所周知,比特币(区块链技术)要求用户分布式储存公共账本。其背后的逻辑很奇葩:“去中心化”理念认为中心账本的管理者会作假,故账本的存储必须公共化。目前完整的比特币公共账本大小已经超过150GB,并以每年数十GB的速度快速递增——仅仅为了支持500万用户每年3000万笔交易。如果有朝一日其处理量与目前的支付宝比肩,那每年比特币账本的大小将增加超过500TB。这相当于把支付宝服务器的存储数据在所有用户的个人电脑上进行备份,其荒谬性是显而易见的。
为了解决这个问题,比特币系统现在允许用户存储不完整的公共账本,即“轻钱包”,但其交易验证仍然依赖网络上其他人的完整账本。我们试想,当公共账本大到绝大多数人都无力完整存储的时候,仅剩的那些完整用户节点不就又成了中心账本吗?
把视野延伸到虚拟币以外的区块链应用(如果存在的话),公共账本需要记录的将不仅仅是纯数字的交易金额,还可能是每一辆车的保险信息、每一个人的信用信息,这些多维度的数据若也要“去中心化”存储在每个用户的终端上,那我们需要的将是天文数字级的存储空间。短时间内,这将是一个不可能解决的难题。
从哲学高度讲,科学的本质是怀疑,宗教的本质是相信。区块链作为科技范畴内的概念,是如何让众人无视诸多悖论、沦为其信徒的呢?答案当然也离不开比特币,这个现世的造富奇迹。
比特币的哲学
不知从何时起,大佬们开始刻意把比特币和区块链作为两个概念割裂开来,众口一词称比特币只是区块链的应用之一。
其中的动机是多样的。
但凡稍有经济学常识的人都知道,比特币不可能成为正常经济体的通行货币。它自带通缩属性,无视货币政策,与现代经济理论八字不合。更重要的原因是,它所挑战的信用货币,实在是过于强大了。全世界除了少数几个失败国家,清一色都是基于政府信用发行货币的。信用货币之所以也被称为法币,是因为绝大多数国家都用法律明确规定,本国货币为国内流通领域“必须接受”的一般等价物。通过这种方式,国家确保信用货币不被拒绝,也同时保证了货币持有人的权利不受侵害。换言之,信用货币并不是凭空发行的,它背后有政府信用背书,有国家机器撑腰。
而比特币的发行机制(也就是挖矿),其用意就是把政府的货币集权“去中心化”,背后则是对政府存在之合理性的质疑。
前面已经提到过,“去中心化”的逻辑出发点是对中心化机构的不信任。比特币原教旨信徒之所以选择用“机器共识”来代替“制度共识”,根本上的理由是认为政府主导的货币发行制度无法体现公平正义——通胀、贫富不均——这些比特币试图解决的问题,无不指向建制。从这个角度看,比特币低效的共识机制也就有了“效率换公平”的哲学意义。
如果技术的进步终将让损失的效率忽略不计,那是否意味着“不值得信任的”中心化机构就无需存在呢?
这是一个危险的问题,好在我们暂时不必作答——因为比特币的“公平化”尝试已经基本失败了。
比特币设计者的初衷,是希望比特币参与者在同一时期能大致机会均等地获得比特币。为此设计了一个相当精巧而理想化的区块链算法,也就是所谓的PoW(ProofofWork,工作量证明)机制。通过穷举随机数变量,第一个得到特定要求哈希函数值(Hash)的用户将有权记账该轮交易,并获得对应的比特币奖励。基于PoW机制,每个用户获得比特币的概率直接由他贡献的算力决定,投入越多,回报越多,看似合情合理。
当然,事情没那么简单。
一方面,比特币的PoW是极其耗能的,每次生成随机数获得特定要求哈希值的预期概率是1/62^18(不到亿亿亿亿分之一),所以全体设备需要海量的穷举运算才能决出记账权。比特币高昂的运行成本极大程度上应归功于这个“公平”的激励机制。
另一方面,比特币设计者对算力分布做出了严重误判。他本以为用户会老老实实用CPU运行挖矿程序,而受限于CPU的核心个数和成本,单一用户不太可能集中太多算力。然而后来发生的事情大家都已经了解了,从GPU到矿机,再到大型矿坑,一个旨在去中心化的系统已经近乎寡头化。
比特币之所以会严重背离其理念,原因其实并不偶然。
规模化的生产给“矿业巨头”带来了诸多好处:更强的电费议价能力,更高的固定资产利用效率,更低的综合人力成本,更薄的研发摊销成本。即便是比特币这样的虚拟产品,其生产过程终究还是符合边际成本递减这一朴素的经济学规律,这便是中心化存在的必然性。从自然科学角度看,类似的结论同样成立:一盘散沙的个体是熵值最高的状态,而高熵意味着无能。
有些人认为,是PoW扭曲了比特币理念,降低了效率,诱发了算力竞争,把它废止了问题就能迎刃而解。于是他们设计了PoS、DPoS等新的激励机制。依我愚见,这些努力是不会有结果的,因为在“效率”和“公平”这个跷跷板上,你不可能满足所有人,甚至不可能满足大多数人。
说得再玄一点:任何一种虚拟币激励机制都是一套经济制度——“死的制度”不可能保证一个动态经济体系稳定运转,只有“活的人”可以。
脱币化的困境
由于比特币的种种问题,圈内的有识之士意识到,继续把区块链和比特币绑定在一起,必将一损俱损,以“技术无罪”的名义切割关系已是当务之急。这不单是应时势,更是遂人愿:比特币的影响已经过于深远,若不把区块链解放出来,后来者的致富空间将被压榨殆尽。
然而,区块链真的可能脱币化吗?
很多不明真相的普通人,甚至一些知名投资者都觉得“真实,不可篡改”的区块链单凭技术本身便存在无限的价值。
对此我要说,这中间误会太大了。
比如银行间结算,即便区块链系统成功完成了记账操作,但某无赖银行拒绝对外打款,区块链能代替法律、保证对手银行权利不受侵害吗?再如产品防伪,即便二维码全程无误,但卖家第一时间在盒子里装的就是次品,区块链能施展魔法、让顾客顺利收到正品吗?事实上,区块链的“真实,不可篡改”,充其量只能作用于虚拟信息,它的触角根本伸不到现实世界。
然而,现在这些概念正被有意无意地滥用。负责任地说,大部分号称前景远大的区块链应用,完全是基于“真实,不可篡改”字面意思的臆想,提出这些应用的人并不理解区块链技术本身,他们找到的只是一些以“真实性”为痛点的应用场景而已——而此类场景当然是无处不在的。然而,最后所有人都会发现,即便克服了低效冗余安全性等众多难题,想象中的区块链需求依旧不会出现。
因为这很大程度上不是个技术问题,而是个经济问题。
区块链的“去中心化”设计意味着系统运行成本会被分摊到每个用户头上,但理性人的天性从来都不是共享和奉献,而是搭便车。以比特币为例,且不讲矿机之类的硬件投资,仅是电费一项,活跃用户人均就要支付每年3000元人民币。如果区块链应用不产生切实的个体收益,就不会有自发的参与者,即便勉强参与了,其可靠性亦会存疑。所以,区块链的商业应用断不能和激励机制脱钩。
说得更深入点,区块链的共识,并不单单是技术上的公共账本共识,更是对区块链价值介质的共识。比如在比特币系统里,如果没有激励机制,抑或比特币一文不值,那就不会有人提供算力,就不会有人提供存储空间,就不会有人传教布道——比特币本身就是系统的价值,理念和技术都只是美好的故事。
现在媒体报道的各种区块链应用,总结起来无非两种:要么就是借题材炒作,在中心化机构的交易中强行套用区块链算法;要么就是纯粹的“展望”,丝毫不考虑实现的方式和难度。出于某些原因,这些媒体在鼓吹区块链的过程中达成了奇妙的默契,绝口不提虚拟币,这对大家产生了严重误导,以为区块链只是一个纯粹的网络技术。事实上,如果确有名副其实的区块链生态出现,那白皮书最后图穷匕见的,必定是虚拟币。
据此,我们不妨重新审视下虚拟币和区块链的关系。
圈内有个说法,称“区块链为本,虚拟币为用”,此话的真伪甚是难辨。
挑明了说,区块链的本质是虚拟币为了建立“公平激励机制”而创造的特定算法,所谓的“区块链为本,虚拟币为用”无异于买椟还珠。在此我们大可断言,一旦失去虚拟币这个灵魂,区块链就不存在价值。
这个论点或让人一时难以接受,但逻辑上并无太多不妥。
所谓“产生价值”,无非三个标准:创造需求,降低成本,重塑公平。从成本看,区块链之于中心化可谓毫无优势;从公平看,宏大的比特币社会实验已然揭开分晓。那么唯一留有悬念的,就是区块链是否“创造需求”了。
这时候币圈人可以跳出来斩钉截铁说,当然有需求,你看这风起云涌的ICO!
ICO的狂欢
ICO,全称InitialCoinOffering,即首次代币发行。简而言之就是把早期项目的特定虚拟币,以比特币等通用虚拟币作价,向公众发售份额的众筹融资行为。所谓的“早期项目”有多早呢?组一个团队再写一个白皮书就够了。如果有闲工夫,顺便做个PPT那算是相当勤奋了。至于尽职调查、财务分析,那都完全不需要,因为大部分项目一分钱营业收入都没有。
“特定虚拟币”这个称呼略有点不专业,在币圈通行的叫法应是token,高雅点的翻译叫“通证”。在白皮书里,项目团队会画出各种大饼,告诉你将来自家通证会有多大“价值”。但你若想知道通证究竟是个什么东西,不好意思,区块链圈子有一个优良传统,叫“语焉不详”。
出于某些意味深长的原因,大部分ICO的法律文书(LegalDocuments)都是纯英文的,而通证的真实定义其实就藏在其中。几乎所有ICO都在法律文书里作了类似如下的规定:“通证不授予白皮书所规定回报以外的任何权利,且仅在项目成功时方能生效。众筹投资者对项目发展和管理不可施予任何影响。通证不代表投资者对项目拥有任何形式的所有权,亦不可凭此获得项目相关的未来收入和知识产权。”
这段让人瞠目结舌的文字,说白了就是:虽然你出了钱,但你什么都不是。ICO众筹并不是我们过去知道的那个众筹,投资者花钱买到的不是股份,而是筹码,什么时候庄家不玩了,筹码就归为空气——且不讲大多数庄家根本玩不起来。
没有底层资产,没有主体信用,没有商业模式,没有法律保障,这样的虚拟币,卖得出去吗?答案竟然是肯定的。
这一切看似荒谬绝伦,但背后的逻辑其实非常简单:因为很多人通过ICO赚了钱。
建团队写白皮书是ICO产业链的第一环,紧接着要拉大佬站台,到境外“交易所”发币,虚拟币上线了还要操纵币价吸引更多炒家入场,最后看准时机套现离场就算走完了全程。有人在这个游戏中直接实现了财务自由;有些虽然没吃到肉,但也喝到了汤。
面对门槛如此低的造富奇迹,任谁都要心动一下。
但是,如果项目本身无法盈利,那不管如何包装美化,ICO终究还是个零和游戏——如果有人赚得盆满钵满,那肯定有人赔得底裤不剩。这就像我们熟知的传销,所有人都知道接最后一棒会死,但都觉得自己不会接到最后一棒。
那区块链在ICO大潮中究竟扮演了什么角色呢?
众所周知,去中心化、去信用化和公平公正,这些都是区块链标榜的理念。我们反观ICO:若要上线发币,就必须向中心化的交易所支付巨额“上币费”,这是何等的“去中心化”?项目团队欺诈横行、币圈媒体刻意误导、交易账户频遭黑客,这是何等的“去信用化”?庄家大鳄肆意哄抬价格,牟取暴利,倾轧韭菜,这是何等的“公平公正”?事实上,除了提供虚拟币和噱头,区块链在币圈什么都不是。更具讽刺意味的是,很多ICO发行的虚拟币甚至都没有基于区块链技术。
所以,ICO不是区块链创造的需求,而是区块链之耻。
链和币的未来
既然我们已经知道虚拟币是区块链存在的唯一价值,那么对于区块链未来的分析也就有了大致的思路。
法定货币充分电子化的当下,基于区块链技术的虚拟币在正常社会生活中并无太多实用价值。但置于特殊场景,虚拟币却有一个电子法币不可复制的优点,那就是隐私性。
但凡以银行作为支付通道的交易,都是能被监管的,如果当局愿意,他们可以知道你把钱给了谁,这笔交易的背景,发生的时点,一切的一切。所以在比特币问世之前,绝大多数见不得人的交易都是用现金完成的。你只见过黑帮片里提着一大箱子现金去买毒品,绝对看不到带着一个POS机过去的。
而比特币的横空出世,革新了洗钱、贩毒和黑市军火买卖。有了这种完全匿名的货币,不法分子再也不必为一箱箱现金提心吊胆,再也不必为连号的美元支付折价了——比特币就是便携的黄金,正如它的设计理念一样。
所以,比特币及其替代品是不可能被彻底消灭的,因为逃脱监管的需求将永远存在。
只要虚拟币不死,区块链经济就一定有生存的空间,因为虚拟币代表的价值必然需要兑现的途径,而这个途径不可能永远是法币。
这里要插一句,最近区块链和中心化账本的妥协产物,比如雷电网络等,正逐渐露出头角。原理上中心账本能大幅提高处理效率,适应大规模高频次应用,但如果虚拟币核心用户的主要诉求是脱离监管,那么这个功能可能并不会受欢迎。结果如何,不久便知。
另一个大家关心的问题是:风起云涌的ICO会导致虚拟币大爆发吗?答案当然是否定的。
虚拟币不受法律强制保护,所以其公众接受度很大程度上决定了它的价值和前途。在接受法币支付时,我们默认自己得到的法币,别人也同样会接受,其面值在流通过程中不产生任何折价,具有100%的流动性。虚拟币的场合情况就不一样了,由于缺乏流动性量化指标,我们只能根据公众对其接受度的笼统判断,决定是否接受该种虚拟币支付。这种判断方式会形成强大的马太效应,因为公众的选择会迅速趋同。
另一方面,公众自发接受的货币种类也是有上限的。拿共享单车打个比方,我们会给摩拜充押金,会给OFO充押金,心很大的还会给Bluegogo充押金,敢问同时给4种以上共享单车充过押金的人有多少?通常情况下,大众对于同质化功能的接受上限仅有“三个”。在货币的场合,法币第一的位置无法动摇,第二多半是比特币,第三是以太坊——所以很不幸,不出意外其他所有虚拟币都长不大。
有人会说,这是基于公链的判断,我们还有私链和联盟链。
在这里,我们要旗帜鲜明地站定立场:私链就是个中心账本,和区块链理念一点关系都没有。至于联盟链,相关的误解就更多些。比方说,现在很多联盟链的构想是没有token成分的,这便是最大的误解。如之前分析,若没有激励机制,高频应用会变成低频应用搭便车的工具,更差的情况甚至连价值传输的介质都会缺失。另外,如果不同应用间token价值的兑现方式存在区别,联盟内部的套利也将不可避免。总之,联盟链和公链相比,除了隐私性略有提高外,问题只多不少。Token泛用性的差距意味着它只能在公链的阴影下靠底层资产价值苟延残喘。
综上,我们对于未来区块链的应用范围也就有了基本的认识:大部分自然生长的区块链经济,都将基于比特币和以太坊存在。这里说的自然生长,特指与中心化机构强行附会的伪区块链进行区别。无论是银行间结算、产品防伪还是其他任何场景,如果参与主体间的共识和信任早已存在,那所谓的区块链应用充其量只是个数据库,而且不会是最优设计的数据库。
最后一个问题:区块链的热潮什么时候会退去呢?
这是一个很难回答的问题。不过有句话说得好:你可以在一个时间愚弄所有人,也可以永远愚弄一个人,但不可能永远愚弄所有人。
关于区块链容量冗余度和区块链容量冗余度是什么的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。
标签: #区块链容量冗余度
评论列表