Nghịch lý tam giác khả năng mở rộng cho rằng có một mâu thuẫn giữa ba đặc tính của blockchain là phi tập trung, khả năng mở rộng và tính bảo mật. Đây không phải là một định lý nghiêm ngặt, mà là một lập luận toán học gợi ý: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi có thể xử lý k*N giao dịch mỗi giây, thì hoặc là mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại; hoặc là các nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không còn phi tập trung.
Trong nhiều năm, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được nghịch lý ba yếu tố mà không thay đổi đáng kể kiến trúc, thường là thông qua việc áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, vì việc vận hành nút trên những chuỗi này khó khăn hơn nhiều so với việc vận hành nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một số lượng dữ liệu là khả dụng trong khi chỉ tải xuống một lượng nhỏ dữ liệu và thực hiện rất ít tính toán. SNARKs là không cần tin tưởng. Mẫu khả dụng dữ liệu có một mô hình tin cậy tinh vi few-of-N, nhưng nó giữ lại các đặc tính cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả cuộc tấn công 51% cũng không thể buộc khối xấu được mạng chấp nhận.
Một cách khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm về khả năng giám sát dữ liệu cho người dùng theo cách tương thích với động lực. Với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng rộng rãi hơn so với trước đây.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi bản nâng cấp Dencun được triển khai, chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB cho mỗi slot 12 giây, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm calldata của Ethereum, thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên từ 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có thêm khả năng mở rộng. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253. Chúng tôi phát sóng các shares của đa thức, trong đó mỗi share chứa 16 giá trị đánh giá từ 16 tọa độ lân cận trong tổng số 8192 tọa độ. Trong số 8192 giá trị đánh giá này, bất kỳ 4096 giá trị nào cũng có thể khôi phục blob.
Cách hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào và yêu cầu các blob trên các subnet khác mà nó cần bằng cách hỏi các đối tác trong mạng p2p toàn cầu. Phiên bản bảo thủ hơn là SubnetDAS chỉ sử dụng cơ chế subnet mà không có việc hỏi thêm từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256, thì chúng ta có thể đạt được mục tiêu 16MB, trong đó mỗi nút trong mẫu khả dụng dữ liệu sẽ có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = 1 MB băng thông dữ liệu mỗi slot. Đây chỉ vừa đủ trong phạm vi chấp nhận của chúng tôi: điều này khả thi, nhưng có nghĩa là các client bị giới hạn băng thông không thể thực hiện sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nhất định bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Vì vậy, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện việc lấy mẫu 2D, phương pháp này không chỉ lấy mẫu ngẫu nhiên trong blob mà còn lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là, việc mở rộng cam kết tính toán không cần có blob, do đó giải pháp này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực tế xây dựng khối chỉ cần sở hữu cam kết blob KZG, và họ có thể dựa vào việc lấy mẫu khả dụng dữ liệu để xác minh tính khả dụng của khối dữ liệu. Việc lấy mẫu khả dụng dữ liệu một chiều về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
Còn cần làm gì nữa? Còn có những sự cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, tăng dần số lượng blob trên PeerDAS, đồng thời theo dõi mạng lưới và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công việc học thuật hơn để quy định PeerDAS và các phiên bản khác của DAS cũng như tương tác của chúng với các vấn đề an toàn như quy tắc lựa chọn phân nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng tôi cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh hiệu lực cho việc tái tạo các hàng và cột, cũng không đủ để đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log(n) * log(log(n)) giá trị băm, nhưng thực tế STARK gần như lớn bằng toàn bộ blob.
Đường đi thực tế dài hạn mà tôi nghĩ là:
Thực hiện DAS 2D lý tưởng;
Kiên trì sử dụng 1D DAS, hy sinh hiệu suất băng thông mẫu, chấp nhận giới hạn dữ liệu thấp hơn vì sự đơn giản và tính ổn định.
Từ bỏ DA, hoàn toàn chấp nhận Plasma là kiến trúc Layer2 chính mà chúng tôi quan tâm.
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này cũng tồn tại. Điều này là vì nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng cùng một công nghệ với Rollup trên lớp L1.
Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm hơn nữa. DAS cũng đặt ra thách thức đối với các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng trên thực tế điều này cần phải kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ tiêu tốn một lượng lớn không gian dữ liệu trên chuỗi: Chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ giải quyết vấn đề của tử số mà còn giải quyết vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, làm thế nào để hoạt động?
Theo tôi, lời giải thích tốt nhất là bức tranh này hai năm trước:
Trong quá trình nén byte không, mỗi chuỗi byte không dài được thay thế bằng hai byte để biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính đặc biệt của giao dịch:
Ký tên tổng hợp: Chúng tôi chuyển từ chữ ký ECDSA sang chữ ký BLS, đặc điểm của chữ ký BLS là nhiều chữ ký có thể kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở cấp L1, do ngay cả khi thực hiện tổng hợp, chi phí tính toán để xác minh vẫn cao, vì vậy không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2, nơi dữ liệu khan hiếm, việc sử dụng chữ ký BLS là có ý nghĩa. Đặc tính tổng hợp của ERC-4337 cung cấp một cách để thực hiện chức năng này.
Sử dụng con trỏ thay thế địa chỉ: Nếu đã từng sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ dài 20 byte bằng một con trỏ dài 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tuần hoàn tùy chỉnh của giá giao dịch------Hầu hết các giá giao dịch có số chữ số rất ít, ví dụ, 0.25 Ether được biểu diễn là 250,000,000,000,000,000 wei. Phí giao dịch cơ bản tối đa và phí ưu tiên cũng tương tự. Do đó, chúng ta có thể sử dụng định dạng dấu phẩy động thập phân tùy chỉnh để biểu diễn hầu hết các giá trị tiền tệ.
Còn cần làm gì, có những cân nhắc nào?
Điều chính cần làm tiếp theo là thực hiện thực tế kế hoạch đã nêu. Các thỏa hiệp chính bao gồm:
1、Việc chuyển sang chữ ký BLS cần phải nỗ lực rất lớn và sẽ giảm tính tương thích với các chip phần cứng đáng tin cậy có thể nâng cao độ bảo mật. Có thể sử dụng các gói ZK-SNARK của các phương án chữ ký khác để thay thế.
2、Nén động ( Ví dụ, việc thay thế địa chỉ ) bằng pointers sẽ làm cho mã khách hàng trở nên phức tạp.
3、Việc phát hành sự khác biệt trạng thái lên chuỗi thay vì giao dịch sẽ giảm khả năng kiểm toán và khiến nhiều phần mềm ( chẳng hạn như trình duyệt khối ) không thể hoạt động.
Làm thế nào để tương tác với các phần khác của lộ trình?
Áp dụng ERC-4337 và cuối cùng đưa một phần nội dung của nó vào L2 EVM có thể làm tăng tốc độ triển khai công nghệ tổng hợp. Đưa một phần nội dung của ERC-4337 lên L1 có thể tăng tốc độ triển khai của nó trên L2.
Plasma Tổng Quát
Chúng tôi đang giải quyết vấn đề gì?
Ngay cả khi sử dụng blob 16 MB và nén dữ liệu, 58.000 TPS cũng chưa chắc đủ để hoàn toàn đáp ứng nhu cầu thanh toán của người tiêu dùng, mạng xã hội phi tập trung hoặc các lĩnh vực đòi hỏi băng thông cao khác, đặc biệt là khi chúng ta bắt đầu xem xét các yếu tố về quyền riêng tư, điều này có thể làm giảm khả năng mở rộng từ 3-8 lần. Đối với các trường hợp ứng dụng có khối lượng giao dịch cao và giá trị thấp, hiện tại một lựa chọn là sử dụng Validium, nó lưu trữ dữ liệu bên ngoài chuỗi và áp dụng một mô hình bảo mật thú vị: nhà điều hành không thể đánh cắp tiền của người dùng, nhưng họ có thể tạm thời hoặc vĩnh viễn đóng băng tất cả tiền của người dùng. Nhưng chúng ta có thể làm tốt hơn.
Nó là gì, nó hoạt động như thế nào?
Plasma là một giải pháp mở rộng, liên quan đến việc một nhà điều hành phát hành khối ra ngoài chuỗi và đưa gốc Merkle của các khối này lên chuỗi. Đối với mỗi khối, nhà điều hành sẽ gửi cho mỗi người dùng một nhánh Merkle để chứng minh sự thay đổi của tài sản của người dùng, hoặc không có sự thay đổi nào. Người dùng có thể rút tài sản của họ bằng cách cung cấp nhánh Merkle. Quan trọng là, nhánh này không nhất thiết phải có gốc ở trạng thái mới nhất. Do đó, ngay cả khi có vấn đề về khả năng truy cập dữ liệu, người dùng vẫn có thể khôi phục tài sản của họ bằng cách rút trạng thái mới nhất có sẵn. Nếu người dùng gửi một nhánh không hợp lệ, thì việc xác định quyền sở hữu hợp pháp của tài sản có thể được thực hiện thông qua cơ chế thách thức trên chuỗi.
Các phiên bản Plasma ban đầu chỉ có thể xử lý các trường hợp thanh toán, không thể mở rộng hiệu quả hơn. Tuy nhiên, nếu chúng ta yêu cầu mỗi gốc được xác minh bằng SNARK, thì Plasma sẽ trở nên mạnh mẽ hơn nhiều. Mỗi trò chơi thách thức có thể được đơn giản hóa đáng kể,
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
4 thích
Phần thưởng
4
4
Đăng lại
Chia sẻ
Bình luận
0/400
NeverVoteOnDAO
· 08-10 19:10
Lại nói những lời sáo rỗng này, Nút không chạy nổi.
Xem bản gốcTrả lời0
FancyResearchLab
· 08-10 18:58
Giá trị học thuật bơm đầy, lên tài khoản làm một thí nghiệm nhỏ.
Xem bản gốcTrả lời0
BlockchainThinkTank
· 08-10 18:51
Không kể có thổi phồng đến đâu, dữ liệu luôn không lừa dối, khuyên đồ ngốc nên tĩnh tâm chờ đợi.
Xem bản gốcTrả lời0
FudVaccinator
· 08-10 18:44
Vấn đề tam nguyên vẫn không thể tránh né, phải đối mặt thì vẫn phải đối mặt.
Ethereum The Surge: Đột phá giới hạn khả năng mở rộng
Tương lai của Ethereum: The Surge
Nghịch lý tam giác khả năng mở rộng
Nghịch lý tam giác khả năng mở rộng cho rằng có một mâu thuẫn giữa ba đặc tính của blockchain là phi tập trung, khả năng mở rộng và tính bảo mật. Đây không phải là một định lý nghiêm ngặt, mà là một lập luận toán học gợi ý: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi có thể xử lý k*N giao dịch mỗi giây, thì hoặc là mỗi giao dịch chỉ có thể được nhìn thấy bởi 1/k nút, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại; hoặc là các nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không còn phi tập trung.
Trong nhiều năm, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được nghịch lý ba yếu tố mà không thay đổi đáng kể kiến trúc, thường là thông qua việc áp dụng các kỹ thuật kỹ thuật phần mềm để tối ưu hóa nút. Điều này luôn gây hiểu lầm, vì việc vận hành nút trên những chuỗi này khó khăn hơn nhiều so với việc vận hành nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một số lượng dữ liệu là khả dụng trong khi chỉ tải xuống một lượng nhỏ dữ liệu và thực hiện rất ít tính toán. SNARKs là không cần tin tưởng. Mẫu khả dụng dữ liệu có một mô hình tin cậy tinh vi few-of-N, nhưng nó giữ lại các đặc tính cơ bản mà chuỗi không thể mở rộng có, đó là ngay cả cuộc tấn công 51% cũng không thể buộc khối xấu được mạng chấp nhận.
Một cách khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm về khả năng giám sát dữ liệu cho người dùng theo cách tương thích với động lực. Với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng rộng rãi hơn so với trước đây.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi bản nâng cấp Dencun được triển khai, chuỗi khối Ethereum sẽ có 3 blob khoảng 125 kB cho mỗi slot 12 giây, hoặc băng thông dữ liệu khả dụng khoảng 375 kB cho mỗi slot. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta thêm calldata của Ethereum, thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên từ 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có thêm khả năng mở rộng. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253. Chúng tôi phát sóng các shares của đa thức, trong đó mỗi share chứa 16 giá trị đánh giá từ 16 tọa độ lân cận trong tổng số 8192 tọa độ. Trong số 8192 giá trị đánh giá này, bất kỳ 4096 giá trị nào cũng có thể khôi phục blob.
Cách hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào và yêu cầu các blob trên các subnet khác mà nó cần bằng cách hỏi các đối tác trong mạng p2p toàn cầu. Phiên bản bảo thủ hơn là SubnetDAS chỉ sử dụng cơ chế subnet mà không có việc hỏi thêm từ lớp đối tác. Đề xuất hiện tại là để các nút tham gia chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256, thì chúng ta có thể đạt được mục tiêu 16MB, trong đó mỗi nút trong mẫu khả dụng dữ liệu sẽ có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = 1 MB băng thông dữ liệu mỗi slot. Đây chỉ vừa đủ trong phạm vi chấp nhận của chúng tôi: điều này khả thi, nhưng có nghĩa là các client bị giới hạn băng thông không thể thực hiện sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nhất định bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Vì vậy, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện việc lấy mẫu 2D, phương pháp này không chỉ lấy mẫu ngẫu nhiên trong blob mà còn lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của cam kết KZG, mở rộng tập hợp blob trong một khối bằng một tập hợp blob ảo mới, những blob ảo này mã hóa dư thừa cùng một thông tin.
Điều quan trọng là, việc mở rộng cam kết tính toán không cần có blob, do đó giải pháp này về cơ bản là thân thiện với việc xây dựng khối phân tán. Các nút thực tế xây dựng khối chỉ cần sở hữu cam kết blob KZG, và họ có thể dựa vào việc lấy mẫu khả dụng dữ liệu để xác minh tính khả dụng của khối dữ liệu. Việc lấy mẫu khả dụng dữ liệu một chiều về cơ bản cũng thân thiện với việc xây dựng khối phân tán.
Còn cần làm gì nữa? Còn có những sự cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, tăng dần số lượng blob trên PeerDAS, đồng thời theo dõi mạng lưới và cải thiện phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Đồng thời, chúng tôi hy vọng có nhiều công việc học thuật hơn để quy định PeerDAS và các phiên bản khác của DAS cũng như tương tác của chúng với các vấn đề an toàn như quy tắc lựa chọn phân nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng tôi cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn lượng tử và không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn chưa rõ có những ứng viên nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" đắt đỏ, tức là sử dụng STARK đệ quy để tạo ra các chứng minh hiệu lực cho việc tái tạo các hàng và cột, cũng không đủ để đáp ứng nhu cầu, vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O(log(n) * log(log(n)) giá trị băm, nhưng thực tế STARK gần như lớn bằng toàn bộ blob.
Đường đi thực tế dài hạn mà tôi nghĩ là:
Xin lưu ý, ngay cả khi chúng tôi quyết định mở rộng thực thi trực tiếp trên lớp L1, lựa chọn này cũng tồn tại. Điều này là vì nếu lớp L1 phải xử lý một lượng lớn TPS, các khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng cùng một công nghệ với Rollup trên lớp L1.
Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu việc nén dữ liệu được thực hiện, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm hơn nữa. DAS cũng đặt ra thách thức đối với các giao thức và cơ chế xây dựng khối phân tán: mặc dù DAS về lý thuyết thân thiện với việc tái tạo phân tán, nhưng trên thực tế điều này cần phải kết hợp với đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh nó.
Nén dữ liệu
Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ tiêu tốn một lượng lớn không gian dữ liệu trên chuỗi: Chuyển ERC20 cần khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, chúng ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ giải quyết vấn đề của tử số mà còn giải quyết vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều đó sẽ như thế nào?
Nó là gì, làm thế nào để hoạt động?
Theo tôi, lời giải thích tốt nhất là bức tranh này hai năm trước:
Trong quá trình nén byte không, mỗi chuỗi byte không dài được thay thế bằng hai byte để biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính đặc biệt của giao dịch:
Ký tên tổng hợp: Chúng tôi chuyển từ chữ ký ECDSA sang chữ ký BLS, đặc điểm của chữ ký BLS là nhiều chữ ký có thể kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tính hợp lệ của tất cả các chữ ký gốc. Ở cấp L1, do ngay cả khi thực hiện tổng hợp, chi phí tính toán để xác minh vẫn cao, vì vậy không xem xét việc sử dụng chữ ký BLS. Nhưng trong môi trường L2, nơi dữ liệu khan hiếm, việc sử dụng chữ ký BLS là có ý nghĩa. Đặc tính tổng hợp của ERC-4337 cung cấp một cách để thực hiện chức năng này.
Sử dụng con trỏ thay thế địa chỉ: Nếu đã từng sử dụng một địa chỉ nào đó, chúng ta có thể thay thế địa chỉ dài 20 byte bằng một con trỏ dài 4 byte trỏ đến một vị trí nào đó trong lịch sử.
Chuỗi tuần hoàn tùy chỉnh của giá giao dịch------Hầu hết các giá giao dịch có số chữ số rất ít, ví dụ, 0.25 Ether được biểu diễn là 250,000,000,000,000,000 wei. Phí giao dịch cơ bản tối đa và phí ưu tiên cũng tương tự. Do đó, chúng ta có thể sử dụng định dạng dấu phẩy động thập phân tùy chỉnh để biểu diễn hầu hết các giá trị tiền tệ.
Còn cần làm gì, có những cân nhắc nào?
Điều chính cần làm tiếp theo là thực hiện thực tế kế hoạch đã nêu. Các thỏa hiệp chính bao gồm:
1、Việc chuyển sang chữ ký BLS cần phải nỗ lực rất lớn và sẽ giảm tính tương thích với các chip phần cứng đáng tin cậy có thể nâng cao độ bảo mật. Có thể sử dụng các gói ZK-SNARK của các phương án chữ ký khác để thay thế.
2、Nén động ( Ví dụ, việc thay thế địa chỉ ) bằng pointers sẽ làm cho mã khách hàng trở nên phức tạp.
3、Việc phát hành sự khác biệt trạng thái lên chuỗi thay vì giao dịch sẽ giảm khả năng kiểm toán và khiến nhiều phần mềm ( chẳng hạn như trình duyệt khối ) không thể hoạt động.
Làm thế nào để tương tác với các phần khác của lộ trình?
Áp dụng ERC-4337 và cuối cùng đưa một phần nội dung của nó vào L2 EVM có thể làm tăng tốc độ triển khai công nghệ tổng hợp. Đưa một phần nội dung của ERC-4337 lên L1 có thể tăng tốc độ triển khai của nó trên L2.
Plasma Tổng Quát
Chúng tôi đang giải quyết vấn đề gì?
Ngay cả khi sử dụng blob 16 MB và nén dữ liệu, 58.000 TPS cũng chưa chắc đủ để hoàn toàn đáp ứng nhu cầu thanh toán của người tiêu dùng, mạng xã hội phi tập trung hoặc các lĩnh vực đòi hỏi băng thông cao khác, đặc biệt là khi chúng ta bắt đầu xem xét các yếu tố về quyền riêng tư, điều này có thể làm giảm khả năng mở rộng từ 3-8 lần. Đối với các trường hợp ứng dụng có khối lượng giao dịch cao và giá trị thấp, hiện tại một lựa chọn là sử dụng Validium, nó lưu trữ dữ liệu bên ngoài chuỗi và áp dụng một mô hình bảo mật thú vị: nhà điều hành không thể đánh cắp tiền của người dùng, nhưng họ có thể tạm thời hoặc vĩnh viễn đóng băng tất cả tiền của người dùng. Nhưng chúng ta có thể làm tốt hơn.
Nó là gì, nó hoạt động như thế nào?
Plasma là một giải pháp mở rộng, liên quan đến việc một nhà điều hành phát hành khối ra ngoài chuỗi và đưa gốc Merkle của các khối này lên chuỗi. Đối với mỗi khối, nhà điều hành sẽ gửi cho mỗi người dùng một nhánh Merkle để chứng minh sự thay đổi của tài sản của người dùng, hoặc không có sự thay đổi nào. Người dùng có thể rút tài sản của họ bằng cách cung cấp nhánh Merkle. Quan trọng là, nhánh này không nhất thiết phải có gốc ở trạng thái mới nhất. Do đó, ngay cả khi có vấn đề về khả năng truy cập dữ liệu, người dùng vẫn có thể khôi phục tài sản của họ bằng cách rút trạng thái mới nhất có sẵn. Nếu người dùng gửi một nhánh không hợp lệ, thì việc xác định quyền sở hữu hợp pháp của tài sản có thể được thực hiện thông qua cơ chế thách thức trên chuỗi.
Các phiên bản Plasma ban đầu chỉ có thể xử lý các trường hợp thanh toán, không thể mở rộng hiệu quả hơn. Tuy nhiên, nếu chúng ta yêu cầu mỗi gốc được xác minh bằng SNARK, thì Plasma sẽ trở nên mạnh mẽ hơn nhiều. Mỗi trò chơi thách thức có thể được đơn giản hóa đáng kể,