北京时间2月14日情人节晚上,以太坊创始人Vitalik Buterin和以太坊基金会(EF)研究员Dankrad Feist举办了一场关于资料片解决方案“Danksharding”的教育研讨会。如果你想知道区块链如何在大规模扩张的同时增加“去中心化”和“安全”的属性,那么这个研讨会就是一个很好的起点。
以下内容来自“哥们,丹克沙丁是什么情况?PPT,如果想看完整的研讨会视频,可以访问以太坊基金会官方频道。
摘要
1、什么是老:
(1)数据碎片化;
(2)使用KZG承诺的数据可用性;
(3)使用分离分片方案对原始数据进行分片;
2、新增内容:
(1)提议者-构建者(数据生成器)分离(PBS);
(2)Cr list;
(3)2D方案;
(4)拟议的框架
3.总结优缺点什么叫老?
数据碎片
为汇总和其他扩展解决方案提供数据可用性(DA );
数据的含义由应用层定义;
以太坊的基本共识(所有节点和验证者)除了保证数据可用,不承担任何责任;为什么不执行碎片化?与原生执行相比,rollup二层网络的效率要高100倍,所以很难看出执行分片会有什么需求。目的:提供约1.3 MB/s的数据可用性层和完整的分片功能(10倍于当前最大数据容量,200倍于通常容量);
从2019年底开始,数据碎片化就是以太坊的目标;
数据可用性抽样(DA抽样)
想知道通过O(1)工作得到的O(n)数据是可用的;
想法:把数据分布成n个chunk块;
每个节点下载k个(随机选择的)chunk块;
擦除代码(擦除编码)
使用里德-所罗门编码(多项式插值)来扩展数据;例如,当编码率r=0.5时,这意味着任何50%的块(d0到e4)都足以重构整个数据;现在采样变得高效了(比如30个随机块全部可用,50%以上不可用的概率是2 (-30)),但是我们需要保证编码是正确的;kzg承诺(KZG承诺)
多项式
承诺C(f)
计算y = f(z)
证明者可以计算证明π(f,Z)用C(f),π(f,Z),Y和Z,验证者可以确认f(z) = yC(f)和π(f,Z)是一个椭圆曲线元素(各48字节)。
KZG有望成为数据可用性的根源。
把“KZG根”想象成类似于Merkle根的东西;
不同的是“KZG根”承诺了一个“多项式”(所有点都保证在同一个多项式上,但Merkle根不能保证这一点);
分离碎片建议
什么是新的?
提议者-建立者(数据生成器)分离(PBS)
为对抗MEV导致的集中化趋势而发明;
MEV意味着更成熟的参与者可以比普通的验证者提取更多的价值,这意味着对大型矿池的优势;
PBS以独立的角色“包含”这种复杂性/集中化,并且有一些诚实的假设;
提议者)=验证者,诚实多数假设意味着高度分权;数据生成器(构建者)=一个单独的角色,几个诚实的假设意味着去中心化只需要确保一个诚实的(非审查的)数据生成器;查看阻力方案–Cr list
PBS的危险:一个高效的构建者可以永久的审核一些交易(以一定的经济成本);【注意:在今天的贿赂模型中,审查一项交易的成本是永久贿赂所有提议者的成本,不包括该项交易;]crLists允许提议者指定建造者必须包括的tx列表,从而恢复旧的平衡;CrList(“混合PBS”设计)
KZG二维方案
为什么不在KZG承诺中编码所有内容?
需要一个超级节点(“构建器”)来构建和重建,以防失败;我们希望避免这种假设的有效性;目的:对m个分割的斑点进行编码;在d KZG承诺中;
如果天真的这么做,需要m * k个样本,那么数据太多了;相反,我们可以再次使用里德-所罗门编码,将M个承诺扩展为2* m个承诺;KZG二维方案属性
所有样品可根据承诺直接验证(无造假证明!);
恒定数量的样本确保了概率数据的可用性;
如果75%+1个样本可用:
所有数据都可用;它可以从只观察行和列的验证器中重构出来;不需要节点观察所有情况;合起来就是Danksharding。
执行块和碎片块一起构造;
我们过去需要碎片化委员会,因为每个碎片化blob可能不能单独使用;现在,使执行块有效和所有分段的blob可用是数据生成器的责任;验证可以聚合;
Danksharding诚实多数验证
每个验证器选择s = 2随机行和列;
仅证明所分配的行/列是否可用于整个时期;
不可用的块(lt;75%可用)无法证明大于2(-2s)= 1/16;
丹克斯哈丁重建
每个验证器都应该重建它们遇到的任何不完整的行/列;
这样做时,他们应该将丢失的样本转移到正交线上;
每个验证器可以在行/列之间传输4个缺失样本(大约55,000个在线验证器可以保证完全重建)。
Danksharding DA采样(恶意多数安全)
未来升级
每个节点检查方阵上的75个随机样本;
这确保了不可用块通过lt的概率;2 ^(-30);
带宽75 * 512 b/16s = 2.5 kb/s;
总结优缺点
优势
简单的设计:
不需要分割的委员会基础结构;不需要跟踪分割的斑点确认;没有额外的构建者基础设施(来自执行层的同步支付取代了这一点)来使用现有的执行层费用市场基础设施;执行链和碎片之间的紧密耦合;
从而使卷装设计更简单;zkRollup和执行链之间的同步调用是可能的;碎裂不需要单独的PBS;
利用验证者集的1/32(而不是旧的分片方案中的1/2048)立即确认的数据,在一个历元周期内加入到完整的验证者集中,增强了抗贿赂能力;
由于2d方案,整个节点(不运行验证器)将能够通过75个样本(2.5 kb/s)而不是30*64=1920个样本(60 KB/s)来确保数据可用性;
新挑战
对数据发生器要求增加了:
构造32MB数据的KZG证明(需要100个核,但目前正在研究CPU实现)需要2.5 GBit/s的互联网连接分发样本;为数据生成器提供更多的动力,因为他们充当的是执行+数据层服务提供者;
需要通过crList来缓解。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信,我们会及时处理和回复。
原文地址"2021以太坊扩容升级世界论坛,以太坊扩容方案arbitrum":http://www.ljycsb.cn/qukuailian/252383.html。

微信扫描二维码投放广告
▲长按图片识别二维码