🧧 Gate 廣場 $50,000 紅包雨狂撒,發帖 100% 中獎!
活動全面加碼,獎勵上不封頂!
🚀 人人有份: 新老用戶發帖即領,單帖最高可得 28U!
📈 多發多得: 參與次數不設限,發帖越多,紅包拿得越手軟!
立即參與:
1️⃣ 更新 App: 升級至 v8.8.0 版本。
2️⃣ 開啟紅包: 點擊發帖,獎勵自動入賬!
馬上發帖領紅包 👉 https://www.gate.com/post
詳情: https://www.gate.com/announcements/article/49773
區塊鏈的安全性如何保護用戶免受意外風險
在Farcaster的最新討論中,Vitalik Buterin分享了關於區塊鏈系統安全性與用戶體驗之間複雜關係的深刻觀點。根據Foresight News的報導,Buterin透露了挑戰普遍假設的想法,即安全性與用戶體驗是兩個獨立的領域。相反,它們密切相關,並源自相同的目標:縮小用戶意圖與系統實際運作之間的差距。
用戶意圖:經常被忽視的安全基礎
根據Buterin,區塊鏈安全的核心在於系統能夠準確理解並執行用戶的意圖。在這個觀點中,安全性著重於降低尾端風險——由對抗行為或偏離原始意圖所引發的罕見但影響巨大的事件。
然而,用數學方式定義用戶意圖遠比看起來複雜。Buterin強調,即使是像“向Bob發送1 ETH”這樣的簡單指令,也蘊含著隱藏的複雜性。系統如何知道所指的Bob是誰?如果Bob的身份可以被其他地址混淆呢?用戶的隱私又為何增加了另一層難題——因為元數據洩露可能揭示比數據加密本身更多的信息。
用戶意圖與實際執行之間的不一致性形成了安全漏洞。用戶體驗也可以用類似的方式來定義,證明用戶保護與易用性並不矛盾。
從理論到實踐:多層次安全解決方案保障用戶體驗
Buterin建議,有效的安全解決方案需要多層次的方法——允許用戶通過多種互補的機制來表達其意圖。系統只有在不同角度達成一致時才會採取行動。
一些可以保護用戶的多層機制包括:
每一層都增加冗餘,降低系統行為偏離用戶真實意圖的可能性。
AI技術作為輔助:超越大型語言模型(LLM)來保護用戶
反思在精確定義用戶目標方面的困難,Buterin提醒我們在早期AI安全中遇到的類似挑戰。他提出,大型語言模型(LLM)可以作為意圖模擬器——理解用戶想做什麼的輔助工具。
普通的LLM能接近人類的常識理解,而個性化的LLM則能更貼近捕捉特定用戶的偏好。然而,Buterin警告不要完全依賴LLM來判斷用戶意圖。相反,LLM應作為多層安全系統中的一個額外視角——增強整體冗餘的效果,而非成為單點故障。
這種方法反映了一個更廣泛的哲學:保護用戶免受不可預見風險需要結合技術、多層驗證與深刻理解用戶意圖。通過將區塊鏈安全與直觀的用戶體驗相結合,生態系統能打造出不僅安全且人人都能輕鬆使用的系統。