区块链数据膨胀 区块链 数据爆炸

皕利分享 94 0

本篇文章给大家谈谈区块链数据膨胀,以及区块链 数据爆炸对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

区块链容量瓶颈遭质疑,生态令技术突发“奇思妙想”?

在当前区块链技术从成为主流应用技术的态势下,区块链系统最首要的容量瓶颈本质上受限于单台全节点的内存容量,这一点直接制约了吞吐量。而生态令就吞吐量问题,利用新技术解决区块链容量遭质疑的问题。

只要是区块链技术系统,无论使用何种共识算法机制,无论是POW、POS,还是委托权益证明,都将面临同样的问题。假设物理网络的延迟和带宽可以忽略不计,就像基于信息中心高速链路的 EOS,系统第二个瓶颈是受限的账本存储容量,本质上被单台全节点的内存容量所限制,这一点直接限制了区块网络可以承载多少个参与者地址,和多少个 DApp应用。

当前大部分主流的区块链技术系统,包括以太坊、比特币区块链、EOS等,都存在当下问题,并且更为不幸的是,这个问题也是无解的。多级缓存的信息库技术可以稍微改善一下所面临的限制,使得只有用户活跃才会受到存储容量限制,而总用户基数局限于硬盘的容量。但是这也指标不治本,难以从根本上解决这个问题。

于是,ECOL生态令技术将其关注点聚焦于吞吐量,在解决吞吐量这个短板的问题基础上,将区块所存在的容量问题暴露出。

ECOL生态令了解到共识算法其实帮不了解决性能和容量的瓶颈,便试图从标新立异的共识算法出发,提升区块链系统性能的努力。基于ECOL生态令信用体系基础,采用信用准入原则,借现有区块链账本确定性和唯一性,将各节点进行单点广播权确定和验证的系统完美协调。ECOL生态令的 POCM 共识机制规避了 POW 工作量证明的不够环保节能,有算力垄断,中化心趋向问题,解决了 POS 的权益不均问题,并处理了 DPOS 的操作效率弊病。

一般的“区块+链式”架构,所有的交易要打包到区块才生效。如果区块的容量存储小,则交易量大时,许多交易打包速度变慢,甚至有失败风险。如果区块容量存储大,则会使区块链信息迅速膨胀,普通电脑无法运行全节点,全节点的运行权则掌握在少数人手里,这将与去中心化的结果相悖。这也是比特币扩容之争的根本矛盾点。ECOL生态令没有区块这一概念,所以解决了传统区块+链式结构先天性的悖论两难问题。

总之,面临容量瓶颈,分布式技术系统设计上的巧思概念极为重要,这和共识算法有关,也和密码学有关,ECOL生态令在这一点上做得非常好

区块链3.0是什么?有4.0吗?

区块链技术目前发展阶段:金融价值期、信用价值期和治理价值期。其中区块链3.0与4.0都在飞速发展中,预测区块链技术将有一波大变革。

区块链技术发展阶段

随着区块链技术的渐进完善以及应用场景的需要,侧链技术也作为重点受到公众关注。包括应区块链3.0时代而生的生态令技术,都将维护侧链数据安全、防患算力风险早早地加入系统机制的构造,对于生态令等新技术来说,要追求技术的完美,必须要完善地考虑侧链存在的差池。

生态令

对于生态令技术来说,他们优先肯定的和看到的自然是侧链的技术优势。在主链安全性保证的基础上,侧链可以在小范围内达成共识,优化确认时间,完成秒级确认。因为主链上的信息只是侧链信息转入当中存储的状态,侧链不会面临数据信息膨胀的瓶颈。再加上侧链信息可以进行高加密,在小范围内传送,记录交易路径,可以在锁定主网价值的同时,开发智能合约的功能。

生态令

但在享受侧链给我们带来的技术优势和应用好处之下,生态令团队更是发现了侧链所慢慢暴露出的问题。侧链完善了主链存在的一些性能弊病,一定程度上弥补了主链“不可能三角”的缺陷,但也并非十分完美。侧链本身也是一条区块链,在受“不可能三角”的局限时,在开发和实用过程中容易引发一系列影响到主链安全的问题。

并且根据闪电网络的基础设计,很有可能会出现有少数几个巨型节点占据的网络,其他侧链或也都面临着类似的问题,为了提升区块链的延展性,中心化的倾向将会愈来愈严重。

生态令主链侧链

ECOL生态令团队对待侧链面临的困境,通过数据隔离和跨链审计的方式,让侧链的业务数据保密性和安全性得到保障,解决数据透明与商业保密的平衡问题。

并支持多侧链,主侧链通讯,资产转移,既融合又分工,既具安全性又有便利性。主链主要负责安全及共识,侧链将提供智能合约、代币发行、资产交易、跨链互通、主侧链结构,通过瘦身、修剪技术能有效防止区块肿胀、垃圾推积、缩短同步时间。为高并发、闪电网络的实施扫清障碍。

ECOL生态令通过侧链技术,能够将不同区块链连接起来的技术,就是区块链拓展外在结构的解决传输速度慢,效率低下的关键。简单地说,侧链就像是一条条通路,将不同的区块链相连接在一起,以实现区块链的扩展。从长远来看,生态令在开发侧链、应用侧链、提出解决方案的情形下,逐步构建起属于侧链的高速价值互联网。

如何解决比特币区块链不断膨胀的问题

解决比特币区块链不断膨胀的问题的主要方法还是扩容,这也是最近比特币出现分歧的主要原因。比特币网络传输的数量有了很大的增长,在一定程度上引发了比特币网络的传输拥堵。为解决此问题,比特币核心开发者加文·安德烈森提出将区块扩容到最大上限20M。目前全球比特币行业对此存在较大的争议。中国矿池生产区块占全球约43%。部分国际讨论者支持加文·安德烈森的观点,但这势必会对中国矿场造成一定伤害。在社区讨论中,部分激进的外国讨论者认为不用考虑中国的宽带情况,如果中国矿工无法完成挖矿任务,在没有中国人的情况下也可以继续比特币事业。但就目前实际情况来看,比特币生产环节几乎一半分布在中国地区,因此中国对比特币基础设施的相关事宜尤其是挖矿领域有着重要的发言权。目前,中国的几大矿池均明确表示反对比特币扩容计划。

POA(Proof of Activity)区块链共识算法

POA(Proof of Activity)算法是一个区块链的共识算法,基本原理是结合POW(Proof of work)和POS(Proof of stake)算法的特点进行工作,POW算法和POS算法的具体内容可以参考:

POW算法 :

POS算法 :

POA算法相比于其他算法可以改进网络拓扑,维持在线节点比例,需求更少的交易费同时减少共识算法过程中的能量损耗。

POA算法需求的网络中同样包含两类节点,矿工和普通参与者,其中普通参与者不一定一直保持在线。POA算法首先由矿工构造区块头,由块头选出N个币,这N个币的所有者参与后续的校验和生成块的过程。

从这里可以看到POA算法不仅与算力有关,后续的N个参与者的选举则完全由参与者在网络中所拥有的币的总数量决定。拥有越多币的参与者越有机会被选为N个后续的参与者。而后续N个参与者参与的必要条件是这N个参与者必须在线,这也是POA命名的由来,POA算法的维护取决于网络中的活跃节点(Active)。

POA算法的一个理想的基本流程是,类似于POW协议,矿工构造出一个符合难度要求的块头,通过矿工得到的块头计算衍生出N个币的编号,从区块链中追溯可以得到这几个币目前所述的参与者。矿工将这个块头发送给这N个参与者,其中前N-1个参与者对这个块进行校验和签名,最后第N个参与者校验并将交易加入到该块中,将这个区块发布出去,即完成一个区块的出块。

一个理想过程如下图所示:

在实际运行中,无法保证网络上所有参与者都在线,而不在线的参与者则无法进行校验和签名,这个无法被校验和签名的块头则会被废弃。

即在实际运行中,应该是一个矿工构造出块头后广播给各个参与者签名,同时继续重新构造新的块头,以免上一个块头衍生的N个参与者存在有某一个没有在线,而导致块头被废弃。

因此,在这种情况下,一个块是否被确认不仅与矿工的计算能力有关同时也与网络上的在线比例有关。

与纯POW相比,在与比特币(POW)同样10分钟出一个块的情况下,POA由于会有参与者不在线而产生的损耗,因此,10分钟内矿工可以构造的块的数量会更多,即块头的难度限制会降低,那么矿工在挖矿过程中会造成的能量损耗也会降低。

与纯POS相比,可以看到POA的出块流程并不会将构造区块过程中的相关信息上链,可以明显减少区块链上用于维护协议产生的冗余信息的量。

本节对上诉协议中一些参数设置进行分析

在矿工构造出块头后对块头进行校验和区块构造的N个参与者的数量选定比较类似于比特币中每一个块的出块时间的选取。比特币中选择了10分钟作为每一个块的期望出块时间并通过动态调节难度来适应。

这里N的取值同样可以选择选定值或者动态调节。动态调节需要更加复杂的协议内容,同时可能会带来区块链的数据膨胀,而复杂的协议也增加了攻击者攻击的可能性。另外暂时没有办法证明动态调节可以带来什么好处。静态调节在后续的分析(4 安全分析)中可以得到N=3的取值是比较合适的。

从上面的描述可以看到,构造新的区块的除了矿工还有从块头中衍生出来的N个币所有者。在构造出一个新的区块后,这些参与者同样应该收到一定的激励,以维持参与者保持在线状态。

矿工与参与者之间的非配比例与参与者的在线状态相关。给予参与者的激励与参与者保持在线状态的热情密切相关,越多参与者保持在线状态,能更好地维持网络的稳定。因此,可以在网络上在线参与者不够多的时候,提高参与者得到的激励分成比例,从而激发更多的参与者上线。

如何确定当前参与者的在线情况呢?可以最后第N个参与者构造区块时,将构造出来但是被废弃的块头加入到区块中,如果被丢弃的块头数量过多,说明在线人数过低,应当调节分成比例。

同时最后第N个参与者与其他参与者的分成同样需要考虑,第N个参与者需要将交易加入区块中,即需要维护UTXO池,同时第N个参与者还需要将被丢弃的块头加入新构建的区块中。

为了激励其将废弃区块头加入新构建的区块中,可以按照加入的区块头,适当增加一点小的激励。虽然加入更多的区块头,可以在下一轮的时候增加分成的比例,应当足够激励参与者往区块中加入未使用的块头了(这里参与者不可能为了增加分成而更多地加入区块头,每一个区块头都意味着一位矿工的工作量)。

一个参与者如果没有维护UTXO池则无法构造区块,但是可以参与前N-1个的签名,因此为了激励参与者维护UTXO池,作为最后一个构造区块的参与者,必须给予更多的激励,比如是其他参与者的两倍。

从3.2的描述中可以知道一个用户必须在线且维护UTXO池才可能尽可能地获得利益。这种机制势必会导致一些用户将自己的账户托管给一个中心化的机构。这个机构一直保持在线,并为用户维护其账户,在被选为构造区块的参与者时参与区块的构建并获取利益。最后该机构将收益按照某种形式进行分成。

上面说到参与者必须用自己的密钥进行签名,而托管给某个机构后,这个机构在可以用这个密钥签名构造区块的同时,也有可能使用这个密钥消费用户的财产。这里可以采用一种有限花销的密钥,这个密钥有两个功能,一个是将账户中的部分财产消费出去,另一个是将所有财产转移到一个指定账户。在托管的时候可以使用这个密钥,在被通知部分财产被花费后可以立即将所有财产转移到自己的另一个账户下,以保证财产的安全。

从上面的分析可以看到,POA的安全性与攻击者所拥有的算力和攻击者所拥有的股权有关。假设攻击者拥有的在线股权占比为 ,则攻击者的算力需要达到其他所有算力的 倍才能达成分叉。假设攻击者股权总占比为 ,网络中诚实用户的在线比例为 ,则攻击者的算力需要达到其他所有算力的 倍才能达成攻击。

攻击的分析表格如下:

从上文的分析可以看到,POA算法相比于其他算法可以改进网络拓扑,维持在线节点比例,需求更少的交易费同时减少共识算法过程中的能量损耗。同时,PoA协议的攻击成本要高于比特币的纯PoW协议。

参考文献:Proof of Activity: Extending Bitcoin’s Proof of Work via Proof of Stake

区块链信息越来越大怎么办?

当初中本聪也考虑了这个问题,他认为技术也在不断发展中,更好的存储和网络技术有能力存储和传输日益增长的区块链。 即使如此,中本聪还是设置了每个区块1M大小的限制,防止区块链过度膨胀。 让我们做一个计算:每十分钟产生一个区块链,那么比特币诞生10年以后,也就是到2019年,区块链的大小可能会有多大:10*365*24*6 ≈ 525G。再过10年到2029年,差不多1T。即使在现在看来,问题也不大。所以倒是不必太担心。

但区块链的空间,不仅仅会随着时间增长。现在每个区块1M的空间,已经有些不能够满足比特币的发展了。为什么?因为交易量大了,每个区块空间只有1M,能容纳的交易数量有限,所以就要考虑扩容区块链来突破这个限制。 2015年,社区对区块链的扩容讨论了多次。最终,仍然保持1M大小的区块链空间,但可以容纳更多交易的“隔离见证”技术生出,可能会作为区块链扩容的第一步。后续还会有“闪电网络”其他技术来缓解区块链空间紧张的问题。 但无论如何,比特币区块链也不可能无限扩容。在我的思考中,比特币区块链最终会成为一个锚,其他应用有自己的数据保存方式,不必都保存在比特币区块链上,但可以把数据的Merkle根保存在比特币区块链,一次来保证数据的安全性。

关于区块链数据膨胀和区块链 数据爆炸的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

标签: #区块链数据膨胀

  • 评论列表

留言评论