تضمن خارطة طريق إيثريوم في البداية استراتيجيتين للتوسع: التجزئة وبروتوكول Layer2. في النهاية، تم دمج هاتين الاستراتيجيتين معًا، مما أدى إلى تشكيل خارطة طريق تركز على Rollup، والتي لا تزال استراتيجية التوسع الحالية لإيثريوم.
تقدم خريطة الطريق التي تركز على Rollup تقسيمًا بسيطًا للعمل: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتحمل L2 مهمة مساعدة النظام البيئي على التوسع. هذه النمط موجود في جميع أنحاء المجتمع: وجود نظام المحاكم ( L1 ليس من أجل السعي نحو السرعة العالية والكفاءة، ولكن لحماية العقود وحقوق الملكية، بينما يتعين على رواد الأعمال ) L2 البناء فوق هذه الطبقة الأساسية الثابتة، وقيادة البشرية نحو المريخ.
هذا العام، حقق المخطط الذي يركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844، زادت سعة البيانات الخاصة بـ إثيريوم L1 بشكل كبير، ودخلت عدة EVM ( Rollup المرحلة الأولى. كل L2 موجود ك"شظية" ذات قواعدها الداخلية ومنطقها، وقد أصبحت تنوع وتعدد طرق تنفيذ الشظايا واقعًا اليوم. لكن، كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، تتمثل مهمتنا الآن في إكمال المخطط الذي يركز على Rollup وحل هذه المشكلات، مع الحفاظ على قوة ولامركزية إثيريوم L1.
) الصعود: الأهداف الرئيسية
يمكن أن يصل إثيريوم إلى أكثر من 100,000 TPS في المستقبل من خلال L2;
الحفاظ على لامركزية ومرونة L1؛
على الأقل بعض L2 ورثت بالكامل الخصائص الأساسية لإثيريوم ( الموثوقية، والانفتاح، ومقاومة الرقابة )؛
إثيريوم يجب أن يشعر وكأنه نظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
مثلث قابلية التوسع هو فكرة طرحت في عام 2017، وتعتبر أن هناك تناقضاً بين ثلاث خصائص للبلوكشين: اللامركزية )، بشكل أكثر تحديداً: انخفاض تكلفة تشغيل العقد ###، قابلية التوسع ###، عدد المعاملات التي تتم معالجتها (، والأمان )، حيث يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة كي يفشلوا معاملة واحدة (.
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، ولم تتضمن المشاركات التي تقدم مفارقة المثلث إثباتًا رياضيًا. ومع ذلك، فهي تقدم حجة رياضية استنتاجية: إذا كان هناك عقدة صديقة لامركزية ) على سبيل المثال تستخدم جهاز كمبيوتر محمول عادي ( يمكنها التحقق من N معاملة في الثانية، ولديك سلسلة تعالج k*N معاملة في الثانية، فإن )i( يمكن أن تُرى كل معاملة فقط من قبل 1/k من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد لتحقيق معاملة خبيثة، أو )ii( ستصبح عقدتك قوية، بينما لن تصبح سلسلتك لامركزية. الغرض من هذه المقالة ليس إثبات أن كسر مفارقة المثلث مستحيل؛ بل تهدف بدلاً من ذلك إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب بطريقة ما الخروج من إطار التفكير الضمني في تلك الحجة.
على مر السنين، زعمت بعض سلاسل الأداء العالي أنها حلت معضلة الثلاثة دون تغيير بنيتها الأساسية، عادةً من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائمًا ما يكون مضللًا، حيث أن تشغيل العقد على هذه السلاسل أصعب بكثير من تشغيل العقد على إثيريوم. ستستكشف هذه المقالة لماذا يكون الأمر كذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات الخاصة بعميل L1؟
ومع ذلك، فإن الجمع بين أخذ عينات توافر البيانات وSNARKs يحل فعلاً مفارقة المثلث: حيث يسمح للعملاء بالتحقق من أن كمية معينة من البيانات متاحة، وأن كمية معينة من خطوات الحساب تم تنفيذها بشكل صحيح، وذلك من خلال تنزيل كمية قليلة فقط من البيانات وتنفيذ قدر ضئيل جداً من الحسابات. SNARKs لا تتطلب ثقة. وأخذ عينات توافر البيانات لديه نموذج ثقة دقيق من نوع few-of-N، لكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، أي أنه حتى هجمات 51% لا يمكن أن تجبر الكتل السيئة على القبول من قبل الشبكة.
طريقة أخرى لحل معضلات الثلاث هي بنية Plasma، التي تستخدم تقنيات ذكية لدفع مسؤولية مراقبة توفر البيانات بطريقة متوافقة مع التحفيز إلى المستخدمين. في الفترة ما بين 2017-2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت بنية Plasma محدودة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs) الإثباتات غير التفاعلية والقصيرة المعرفة(، أصبحت بنية Plasma أكثر قابلية للاستخدام في سيناريوهات أوسع من أي وقت مضى.
في 13 مارس 2024، عندما يتم إطلاق ترقية Dencun، سيكون لدى شبكة إثيريوم كتلة كل 12 ثانية تحتوي على 3 كتل بحجم حوالي 125 كيلوبايت، أو عرض نطاق البيانات المتاحة لكل كتلة حوالي 375 كيلوبايت. إذا افترضنا أن بيانات المعاملات يتم نشرها مباشرة على السلسلة، فإن تحويل ERC20 سيكون حوالي 180 بايت، وبالتالي فإن الحد الأقصى لـ TPS لمجموعات إثيريوم سيكون: 375000 / 12 / 180 = 173.6 TPS
إذا أضفنا الحد الأقصى النظري للـcalldata لإثيريوم): كل slot 30000000 غاز / لكل بايت 16 غاز = كل slot 1,875,000 بايت ###، فإن ذلك سيصبح 607 TPS. باستخدام PeerDAS، قد يزيد عدد الـblob إلى 8-16، مما سيوفر 463-926 TPS للـcalldata.
هذا تحسين كبير لـ إثيريوم L1، لكنه ليس كافياً. نحن نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميغابايت لكل فتحة، وإذا تم دمجه مع تحسينات ضغط بيانات Rollup، فسوف يؤدي إلى ~58000 TPS.
ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في مجال الأعداد الأولية (prime field). نحن نبث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 إحداثيات متجاورة من إجمالي 8192 إحداثي. من بين هذه القيم الـ 8192، يمكن استعادة أي blob باستخدام أي 4096 ### وفقًا للمعلمات المقترحة حاليًا: أي 64 من 128 عينة محتملة (.
تعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تقوم الشبكة الفرعية i ببث العينة i لأي blob، ومن خلال الاستفسار عن نظيراتها في الشبكة العالمية p2p ) حول من سيستمع إلى الشبكات الفرعية المختلفة ( لطلب blob الذي تحتاجه في الشبكات الفرعية الأخرى. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكات الفرعية، دون استفسارات إضافية عن طبقة النظير. الاقتراح الحالي هو السماح للعقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما تستخدم العقد الأخرى ) أي العملاء ( PeerDAS.
من الناحية النظرية، يمكننا توسيع حجم "1D sampling" إلى حد كبير: إذا قمنا بزيادة العدد الأقصى من blob إلى 256) والهدف إلى 128(، فإننا نستطيع الوصول إلى هدف 16MB، وفي عينة توفر البيانات، كل عقدة تأخذ 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = 1 MB من عرض النطاق الترددي لكل slot. هذا بالكاد في نطاق تحملنا: إنه ممكن، ولكن يعني أن العملاء ذوي النطاق الترددي المحدود لا يمكنهم العينة. يمكننا تحسين ذلك إلى حد ما من خلال تقليل عدد blob وزيادة حجم blob، لكن ذلك سيؤدي إلى زيادة تكلفة إعادة البناء.
لذلك، نريد في النهاية أن نذهب خطوة أبعد، لإجراء أخذ عينات ثنائية الأبعاد )2D sampling(، هذه الطريقة لا تقتصر فقط على أخذ عينات عشوائية داخل الـ blob، بل تأخذ عينات عشوائية بين الـ blobs أيضاً. باستخدام خاصية الالتزام KZG الخطية، يمكن توسيع مجموعة الـ blobs في كتلة واحدة من خلال مجموعة جديدة من الـ blobs الافتراضية، حيث تشفر هذه الـ blobs الافتراضية المعلومات نفسها بشكل زائد.
لذا، في النهاية نريد أن نخطو خطوة أبعد، لإجراء عينة ثنائية الأبعاد، حيث يتم أخذ عينات عشوائية ليس فقط داخل الكتل ولكن أيضًا بين الكتل. يتم استخدام خاصية الالتزام KZG الخطية لتوسيع مجموعة الكتل داخل كتلة واحدة، والتي تحتوي على قائمة كتل افتراضية جديدة ترمز بشكل زائد لنفس المعلومات.
من الأهمية بمكان أن توسيع الالتزام لا يتطلب وجود blob، وبالتالي فإن هذا الحل هو في جوهره صديق لبناء الكتل الموزعة. تحتاج العقد التي تقوم فعليًا ببناء الكتل فقط إلى امتلاك التزام blob KZG، ويمكنها الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر الكتل البيانات. عينة توفر البيانات أحادية الأبعاد )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
![فيتالك مقال جديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
)# ماذا يجب أن نفعل بعد؟ وما هي الموازنات الأخرى؟
الخطوة التالية هي إكمال تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد blobs على PeerDAS بشكل مستمر، مع مراقبة الشبكة بعناية وتحسين البرمجيات لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل في وجود المزيد من الأعمال الأكاديمية لتنظيم PeerDAS وإصدارات DAS الأخرى وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الشوكة.
في مراحل مستقبلية أبعد، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من 2D DAS، وإثبات خصائصه الأمنية. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا يزال غير واضح ما هي الحلول المرشحة التي تكون ودودة لبناء الكتل الموزعة. حتى عند استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد إثباتات صحة لإعادة بناء الصفوف والأعمدة، فإن ذلك غير كاف لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O(log)n( * log)log###n((، لكن في الواقع، فإن STARK يكاد يكون بحجم الـ blob بأكمله.
أعتقد أن المسار الواقعي على المدى الطويل هو:
تنفيذ DAS ثنائي الأبعاد المثالي;
الاستمرار في استخدام 1D DAS، التضحية بكفاءة عرض النطاق الترددي للعينة، من أجل البساطة والموثوقية وقبول حد أدنى من البيانات.
التخلي عن DA، وقبول Plasma بالكامل كهيكل Layer2 الرئيسي الذي نركز عليه.
يرجى ملاحظة أنه حتى إذا قررنا التوسع مباشرة في طبقة L1، فإن هذا الخيار موجود. وذلك لأنه إذا كانت طبقة L1 ستتعامل مع عدد كبير من TPS، ستصبح كتل L1 كبيرة جداً، وسيتمنى العملاء وجود طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام تقنيات مماثلة لتقنية Rollup) مثل ZK-EVM و DAS( في طبقة L1.
(# كيف تتفاعل مع أجزاء أخرى من خريطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسوف يقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسوف ينخفض الطلب أكثر. كما أن DAS يمثل تحديات لبروتوكولات وآليات بناء الكتل الموزعة: على الرغم من أن DAS نظريًا صديق لإعادة البناء الموزعة، إلا أن ذلك يتطلب عمليًا دمجه مع اقتراح قائمة تضمين الحزم وآليات اختيار الفروع المحيطة بها.
![فيتاليك الجديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp)
( ضغط البيانات
)# ما المشكلة التي نحاول حلها؟
تستخدم كل معاملة في Rollup مساحة كبيرة من بيانات السلسلة: يتطلب نقل ERC20 حوالي 180 بايت. حتى مع توفر عينات بيانات مثالية، فإن هذا يقيد قابلية توسيع بروتوكول Layer. كل slot 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا استطعنا حل مشكلة البسط ليس فقط، ولكن أيضًا حل مشكلة المقام، مما يجعل كل معاملة في Rollup تشغل مساحة أقل على السلسلة؟
ما هو ، كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة منذ عامين:
ضغط الصفر بايت، حيث يتم استبدال كل سلسلة طويلة من الصفر بايت ببايتين يمثلان عدد الصفر بايت. علاوة على ذلك، استغلينا الخصائص المحددة للمعاملات:
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 22
أعجبني
22
8
إعادة النشر
مشاركة
تعليق
0/400
BearHugger
· 08-19 09:26
السبب وراء جمع المال هو الفهم الجيد لذلك
شاهد النسخة الأصليةرد0
MEVSupportGroup
· 08-17 12:40
التركيز على L2 يمزحني حتى الموت، أليس هذا عبارة عن قاعدة بيانات مبنية ذاتياً؟
شاهد النسخة الأصليةرد0
GasWaster
· 08-17 00:14
ما زلت أدفع 500 gwei للجسر... متى القمر يا صديقي؟
شاهد النسخة الأصليةرد0
ForkPrince
· 08-16 19:07
ترقية المسار في النهاية هي لخداع الحمقى في عالم العملات الرقمية.
شاهد النسخة الأصليةرد0
OnchainDetective
· 08-16 19:06
هل لاحظ أحد أن نمط تداول العنوان في مقال V God مشبوه جداً؟ ننتظر تحليل أحد الزملاء.
فيتالك يشرح إثيريوم The Surge: هدف 100,000 TPS وطريق التوسع L2
فيتالك: مستقبل إثيريوم المحتمل، The Surge
تضمن خارطة طريق إيثريوم في البداية استراتيجيتين للتوسع: التجزئة وبروتوكول Layer2. في النهاية، تم دمج هاتين الاستراتيجيتين معًا، مما أدى إلى تشكيل خارطة طريق تركز على Rollup، والتي لا تزال استراتيجية التوسع الحالية لإيثريوم.
تقدم خريطة الطريق التي تركز على Rollup تقسيمًا بسيطًا للعمل: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتحمل L2 مهمة مساعدة النظام البيئي على التوسع. هذه النمط موجود في جميع أنحاء المجتمع: وجود نظام المحاكم ( L1 ليس من أجل السعي نحو السرعة العالية والكفاءة، ولكن لحماية العقود وحقوق الملكية، بينما يتعين على رواد الأعمال ) L2 البناء فوق هذه الطبقة الأساسية الثابتة، وقيادة البشرية نحو المريخ.
هذا العام، حقق المخطط الذي يركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844، زادت سعة البيانات الخاصة بـ إثيريوم L1 بشكل كبير، ودخلت عدة EVM ( Rollup المرحلة الأولى. كل L2 موجود ك"شظية" ذات قواعدها الداخلية ومنطقها، وقد أصبحت تنوع وتعدد طرق تنفيذ الشظايا واقعًا اليوم. لكن، كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، تتمثل مهمتنا الآن في إكمال المخطط الذي يركز على Rollup وحل هذه المشكلات، مع الحفاظ على قوة ولامركزية إثيريوم L1.
) الصعود: الأهداف الرئيسية
يمكن أن يصل إثيريوم إلى أكثر من 100,000 TPS في المستقبل من خلال L2;
الحفاظ على لامركزية ومرونة L1؛
على الأقل بعض L2 ورثت بالكامل الخصائص الأساسية لإثيريوم ( الموثوقية، والانفتاح، ومقاومة الرقابة )؛
إثيريوم يجب أن يشعر وكأنه نظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
![فيتالك مقال جديد: مستقبل إثيريوم المحتمل، الزيادة]###https://img-cdn.gateio.im/webp-social/moments-6e846316491095cf7d610acb3b583d06.webp(
) محتوى هذا الفصل
( نظرية مثلث القابلية للتوسع
مثلث قابلية التوسع هو فكرة طرحت في عام 2017، وتعتبر أن هناك تناقضاً بين ثلاث خصائص للبلوكشين: اللامركزية )، بشكل أكثر تحديداً: انخفاض تكلفة تشغيل العقد ###، قابلية التوسع ###، عدد المعاملات التي تتم معالجتها (، والأمان )، حيث يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة كي يفشلوا معاملة واحدة (.
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، ولم تتضمن المشاركات التي تقدم مفارقة المثلث إثباتًا رياضيًا. ومع ذلك، فهي تقدم حجة رياضية استنتاجية: إذا كان هناك عقدة صديقة لامركزية ) على سبيل المثال تستخدم جهاز كمبيوتر محمول عادي ( يمكنها التحقق من N معاملة في الثانية، ولديك سلسلة تعالج k*N معاملة في الثانية، فإن )i( يمكن أن تُرى كل معاملة فقط من قبل 1/k من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد لتحقيق معاملة خبيثة، أو )ii( ستصبح عقدتك قوية، بينما لن تصبح سلسلتك لامركزية. الغرض من هذه المقالة ليس إثبات أن كسر مفارقة المثلث مستحيل؛ بل تهدف بدلاً من ذلك إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب بطريقة ما الخروج من إطار التفكير الضمني في تلك الحجة.
على مر السنين، زعمت بعض سلاسل الأداء العالي أنها حلت معضلة الثلاثة دون تغيير بنيتها الأساسية، عادةً من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائمًا ما يكون مضللًا، حيث أن تشغيل العقد على هذه السلاسل أصعب بكثير من تشغيل العقد على إثيريوم. ستستكشف هذه المقالة لماذا يكون الأمر كذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات الخاصة بعميل L1؟
ومع ذلك، فإن الجمع بين أخذ عينات توافر البيانات وSNARKs يحل فعلاً مفارقة المثلث: حيث يسمح للعملاء بالتحقق من أن كمية معينة من البيانات متاحة، وأن كمية معينة من خطوات الحساب تم تنفيذها بشكل صحيح، وذلك من خلال تنزيل كمية قليلة فقط من البيانات وتنفيذ قدر ضئيل جداً من الحسابات. SNARKs لا تتطلب ثقة. وأخذ عينات توافر البيانات لديه نموذج ثقة دقيق من نوع few-of-N، لكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، أي أنه حتى هجمات 51% لا يمكن أن تجبر الكتل السيئة على القبول من قبل الشبكة.
طريقة أخرى لحل معضلات الثلاث هي بنية Plasma، التي تستخدم تقنيات ذكية لدفع مسؤولية مراقبة توفر البيانات بطريقة متوافقة مع التحفيز إلى المستخدمين. في الفترة ما بين 2017-2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت بنية Plasma محدودة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs) الإثباتات غير التفاعلية والقصيرة المعرفة(، أصبحت بنية Plasma أكثر قابلية للاستخدام في سيناريوهات أوسع من أي وقت مضى.
![فيتالك: مستقبل إثيريوم المحتمل، الطفرة])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
) تقدم إضافي في عينة توفر البيانات
(# ما هي المشكلة التي نعمل على حلها؟
في 13 مارس 2024، عندما يتم إطلاق ترقية Dencun، سيكون لدى شبكة إثيريوم كتلة كل 12 ثانية تحتوي على 3 كتل بحجم حوالي 125 كيلوبايت، أو عرض نطاق البيانات المتاحة لكل كتلة حوالي 375 كيلوبايت. إذا افترضنا أن بيانات المعاملات يتم نشرها مباشرة على السلسلة، فإن تحويل ERC20 سيكون حوالي 180 بايت، وبالتالي فإن الحد الأقصى لـ TPS لمجموعات إثيريوم سيكون: 375000 / 12 / 180 = 173.6 TPS
إذا أضفنا الحد الأقصى النظري للـcalldata لإثيريوم): كل slot 30000000 غاز / لكل بايت 16 غاز = كل slot 1,875,000 بايت ###، فإن ذلك سيصبح 607 TPS. باستخدام PeerDAS، قد يزيد عدد الـblob إلى 8-16، مما سيوفر 463-926 TPS للـcalldata.
هذا تحسين كبير لـ إثيريوم L1، لكنه ليس كافياً. نحن نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميغابايت لكل فتحة، وإذا تم دمجه مع تحسينات ضغط بيانات Rollup، فسوف يؤدي إلى ~58000 TPS.
ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في مجال الأعداد الأولية (prime field). نحن نبث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 إحداثيات متجاورة من إجمالي 8192 إحداثي. من بين هذه القيم الـ 8192، يمكن استعادة أي blob باستخدام أي 4096 ### وفقًا للمعلمات المقترحة حاليًا: أي 64 من 128 عينة محتملة (.
تعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تقوم الشبكة الفرعية i ببث العينة i لأي blob، ومن خلال الاستفسار عن نظيراتها في الشبكة العالمية p2p ) حول من سيستمع إلى الشبكات الفرعية المختلفة ( لطلب blob الذي تحتاجه في الشبكات الفرعية الأخرى. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكات الفرعية، دون استفسارات إضافية عن طبقة النظير. الاقتراح الحالي هو السماح للعقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما تستخدم العقد الأخرى ) أي العملاء ( PeerDAS.
من الناحية النظرية، يمكننا توسيع حجم "1D sampling" إلى حد كبير: إذا قمنا بزيادة العدد الأقصى من blob إلى 256) والهدف إلى 128(، فإننا نستطيع الوصول إلى هدف 16MB، وفي عينة توفر البيانات، كل عقدة تأخذ 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = 1 MB من عرض النطاق الترددي لكل slot. هذا بالكاد في نطاق تحملنا: إنه ممكن، ولكن يعني أن العملاء ذوي النطاق الترددي المحدود لا يمكنهم العينة. يمكننا تحسين ذلك إلى حد ما من خلال تقليل عدد blob وزيادة حجم blob، لكن ذلك سيؤدي إلى زيادة تكلفة إعادة البناء.
لذلك، نريد في النهاية أن نذهب خطوة أبعد، لإجراء أخذ عينات ثنائية الأبعاد )2D sampling(، هذه الطريقة لا تقتصر فقط على أخذ عينات عشوائية داخل الـ blob، بل تأخذ عينات عشوائية بين الـ blobs أيضاً. باستخدام خاصية الالتزام KZG الخطية، يمكن توسيع مجموعة الـ blobs في كتلة واحدة من خلال مجموعة جديدة من الـ blobs الافتراضية، حيث تشفر هذه الـ blobs الافتراضية المعلومات نفسها بشكل زائد.
لذا، في النهاية نريد أن نخطو خطوة أبعد، لإجراء عينة ثنائية الأبعاد، حيث يتم أخذ عينات عشوائية ليس فقط داخل الكتل ولكن أيضًا بين الكتل. يتم استخدام خاصية الالتزام KZG الخطية لتوسيع مجموعة الكتل داخل كتلة واحدة، والتي تحتوي على قائمة كتل افتراضية جديدة ترمز بشكل زائد لنفس المعلومات.
من الأهمية بمكان أن توسيع الالتزام لا يتطلب وجود blob، وبالتالي فإن هذا الحل هو في جوهره صديق لبناء الكتل الموزعة. تحتاج العقد التي تقوم فعليًا ببناء الكتل فقط إلى امتلاك التزام blob KZG، ويمكنها الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر الكتل البيانات. عينة توفر البيانات أحادية الأبعاد )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
![فيتالك مقال جديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-40311fde406a2b6c83ba590c35e23a7c.webp(
)# ماذا يجب أن نفعل بعد؟ وما هي الموازنات الأخرى؟
الخطوة التالية هي إكمال تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد blobs على PeerDAS بشكل مستمر، مع مراقبة الشبكة بعناية وتحسين البرمجيات لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل في وجود المزيد من الأعمال الأكاديمية لتنظيم PeerDAS وإصدارات DAS الأخرى وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الشوكة.
في مراحل مستقبلية أبعد، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من 2D DAS، وإثبات خصائصه الأمنية. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا يزال غير واضح ما هي الحلول المرشحة التي تكون ودودة لبناء الكتل الموزعة. حتى عند استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد إثباتات صحة لإعادة بناء الصفوف والأعمدة، فإن ذلك غير كاف لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O(log)n( * log)log###n((، لكن في الواقع، فإن STARK يكاد يكون بحجم الـ blob بأكمله.
أعتقد أن المسار الواقعي على المدى الطويل هو:
يرجى ملاحظة أنه حتى إذا قررنا التوسع مباشرة في طبقة L1، فإن هذا الخيار موجود. وذلك لأنه إذا كانت طبقة L1 ستتعامل مع عدد كبير من TPS، ستصبح كتل L1 كبيرة جداً، وسيتمنى العملاء وجود طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام تقنيات مماثلة لتقنية Rollup) مثل ZK-EVM و DAS( في طبقة L1.
(# كيف تتفاعل مع أجزاء أخرى من خريطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسوف يقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسوف ينخفض الطلب أكثر. كما أن DAS يمثل تحديات لبروتوكولات وآليات بناء الكتل الموزعة: على الرغم من أن DAS نظريًا صديق لإعادة البناء الموزعة، إلا أن ذلك يتطلب عمليًا دمجه مع اقتراح قائمة تضمين الحزم وآليات اختيار الفروع المحيطة بها.
![فيتاليك الجديد: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp)
( ضغط البيانات
)# ما المشكلة التي نحاول حلها؟
تستخدم كل معاملة في Rollup مساحة كبيرة من بيانات السلسلة: يتطلب نقل ERC20 حوالي 180 بايت. حتى مع توفر عينات بيانات مثالية، فإن هذا يقيد قابلية توسيع بروتوكول Layer. كل slot 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا استطعنا حل مشكلة البسط ليس فقط، ولكن أيضًا حل مشكلة المقام، مما يجعل كل معاملة في Rollup تشغل مساحة أقل على السلسلة؟
ما هو ، كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة منذ عامين:
ضغط الصفر بايت، حيث يتم استبدال كل سلسلة طويلة من الصفر بايت ببايتين يمثلان عدد الصفر بايت. علاوة على ذلك، استغلينا الخصائص المحددة للمعاملات:
توقيع التجميع: نحن