關鍵見解:
- 維塔利克·布特林警告稱,雲端AI可能導致私人資料外洩,並讓各地用戶更容易進行越獄和系統篡改
- 他支援以本地優先的設定,採用裝置端推論、本地儲存和沙箱技術,以減少使用時的外部接觸。
- AI 代理正變得越來越自主,隨著市場朝 2030 年 480 億美元的目標快速推進,安全問題日益受到關注
人工智慧工具正變得越來越強大,但其所帶來的隱私風險也越來越難以忽視。以太坊共同創辦人 Vitalik Buterin 已關注到這一轉變,警告稱新型人工智慧系統可能使使用者面臨資料外洩、外部干預以及未經明確授權的行為風險。他的擔憂集中在能夠超越回答問題、執行任務、存取檔案並與其他軟體互動的人工智慧代理。為此,他提出採用「本地優先」的人工智慧架構,作為降低對雲端系統依賴、讓敏感資料更接近使用者的更安全方式。
維塔利克·布特林:遠端 AI 系統面臨日益增加的安全疑問
在最近的 部落格文章 中,布特林指出,許多現有的 AI 產品過度依賴遠端基礎設施。這種模式通常要求使用者將個人資料透過由外部供應商控制的伺服器傳送。因此,電子郵件、文件、瀏覽活動及其他私人資訊可能面臨超出使用者完全監控能力的風險。
隨著 AI 工具從聊天機器人功能轉向自主代理,擔憂日益增加。這些系統可以遵循指令、連接外部服務,並以極低的摩擦完成多步操作。這種便利性也為濫用創造了新的機會,特別是在惡意提示或有害網際網路內容影響模型行為時。
他 引用 了現有研究,顯示這些弱點在實際中已有所體現。其中一個例子中,據報一個 AI 代理處理了惡意網頁,然後執行了殼層指令碼,使外部行為者得以控制系統的一部分。其他發現顯示,某些工具可能透過隱藏的網路請求洩露資料。一項獨立審查發現,約 15% 的觀察到的代理技能包含有害指令。
本地優先 AI 引起關注
為限制這些風險,Vitalik Buterin 描述了一種以設備端推論、本地儲存和嚴格的進程沙盒為核心的本地優先設置。其理念是盡可能將 AI 任務保留在用戶的機器上,而非通過第三方伺服器轉發。這種方法可以減少數據收集的暴露風險,並讓外部行為者更難干預系統。

他還對某些模型的建構與分發方式表示擔憂。在他看來,許多被標示為開源的工具並未提供關於其運作方式的充分透明度。這使得用戶難以檢視隱藏的觸發機制、模型行為,或僅在特定條件下才會出現的內建弱點。
在其他近期的以太坊新聞中,Vitalik Buterin 引起了關注於「快速確認規則」,這是一項建議的變更,可在不進行硬分叉的情況下將 ETH 充幣確認時間縮短至約 13 秒。他還指出,FCR 並未取代完全最終性,因為該提案仍依賴驗證者證明、網路同步性以及持續受到審視的更廣泛信任假設。
效能仍然是本地 AI 在日常使用中能否良好運作的主要因素。Vitalik Buterin 測試了多種設置,包括搭載 NVIDIA 5090 圖形卡的筆記型電腦、搭載 128 GB 統一記憶體的 AMD Ryzen AI Max Pro 平台,以及 DGX Spark 硬體。
根據這些結果,Vitalik 指出,低於每秒 50 個標記的速度會開始影響可用性。因此,他傾向於選擇高性能筆記型電腦,而非用於本地使用的更專業硬體。
同時,近期的 Ethereum price predictions 中,分析師指出,ETF 資金流和鏈上活動是可能塑造 ETH 在 2026 年 4 月表現的兩個關鍵催化因素。他們還注意到,ETH 一直維持在 $1,755 至 $2,405 之間,若倒置頭肩形態得以實現,可能會反彈。
文章 Vitalik Buterin 指出 AI 工具對用戶隱私構成日益增長的威脅 首先刊登於 The Market Periodical。