Vitalik:AI和加密正如何改變隱私?

原文標題:Why I support privacy
作者:Vitalik,以太坊創始人;編譯:白水,金色財經
特別感謝 Balvi 志愿者 Paul Dylan-Ennis、pcaversaccio、vectorized、Bruce Xu 和 Luozhu Zhang 的討論和反饋。
最近,我越來越關注改善以太坊生態系統的隱私狀況。隱私是去中心化的重要保障:誰掌握信息誰就擁有權力,因此我們需要避免信息的中心化控制。現實世界中,人們對中心化技術基礎設施的擔憂,有時是擔心運營商會意外更改規則或下架用戶平台,但同樣常見的是擔心數據收集。雖然加密貨幣領域起源於像Chaum的Ecash 這樣的項目,這些項目將保護數字金融隱私放在首位,但最近它卻低估了隱私,原因歸根結底是糟糕的:在 ZK-SNARK 技術出現之前,我們無法以去中心化的方式提供隱私保護,所以我們淡化了隱私的重要性,轉而專注於我們當時可以提供的其他保障。
然而,如今隱私已不容忽視。人工智能正在大幅提升中心化數據收集和分析的能力,同時也極大地擴展了我們自愿共享的數據範圍。未來,腦機接口等新技術將帶來更多挑战:我們或許真的會談論人工智能讀懂我們的思想。與此同時,我們擁有比上世紀 90 年代密碼朋克所能想象的更強大的工具來保護隱私,尤其是在數字領域:高效的零知識證明 (ZK-SNARK) 可以在保護我們身份的同時,揭示足夠的信息來證明我們是值得信賴的;全同態加密 (FHE) 可以讓我們在不查看數據的情況下對數據進行計算;而混淆技術可能很快就會提供更多功能。
隱私不意味着要彼此隔離,而意味着要團結一致。
此時,我們有必要回顧一下這個問題:我們爲什么需要隱私?每個人的答案都不一樣。在這篇文章中,我將給出我自己的答案,並將其分爲三個部分:
隱私即自由:隱私賦予我們空間,讓我們能夠以符合自身需求的方式生活,而無需時刻擔心自己的行爲在各種政治和社會博弈中會被如何看待。
隱私即秩序:構成社會基本運作基礎的諸多機制都依賴於隱私才能正常運轉。
隱私即進步:如果我們能夠找到新的途徑,有選擇地分享信息,同時又能保護信息免遭濫用,我們就能釋放巨大的價值,加速技術和社會進步。
隱私就是自由
早在21世紀初,類似大衛·布林1998年出版的《透明社會》一書所概括的觀點就曾盛行一時:技術將使世界各地的信息更加透明,雖然這會帶來一些弊端,需要不斷調整適應,但總體而言,這是一件非常好的事情,而且我們可以通過確保民衆能夠監視(或者更確切地說,監視)政府來使其更加公平。1999年,Sun Microsystems首席執行官斯科特·麥克尼利曾發出著名言論:“隱私已死,接受它吧!”這種心態在Facebook的早期構思和發展過程中非常普遍,當時Facebook禁止使用假名身份。我個人還記得在2015年深圳華爲的一次活動上,一位(西方)演講者隨口提到“隱私已死”,就親身經歷了這種心態的尾聲。
“透明社會”體現了“隱私已至”意識形態所能提供的最佳和最光明的前景:它承諾一個更美好、更公正、更公平的世界,利用透明的力量使政府承擔責任,而不是壓制個人和少數群體。然而,事後看來,即使是這種理念也顯然是時代的產物,寫於全球合作與和平以及“歷史的終結”熱情的頂峰時期,並且它依賴於一系列對人性的過於樂觀的假設。主要表現在:
全球政治的頂層通常會是善意且理智的,這使得縱向隱私(即不向有權勢的人和機構透露信息)變得越來越不必要。權力的濫用通常會局限於特定區域,因此打擊這些濫用的最佳方式是將其暴露在陽光下。
文化將不斷進步,直到橫向隱私(即不向其他公衆成員透露信息)變得不再必要。書呆子、同性戀,以及最終其他所有人都可以不再躲在櫃子裏,因爲社會將不再對人們的獨特特質苛刻和評判,而是變得更加开放和包容。
如今,沒有哪個大國能普遍認同第一個假設是正確的,而有不少大國卻普遍認爲它是錯誤的。在第二個方面,文化包容度也在迅速倒退——僅僅在推特上搜索“欺凌是好事”之類的短語就是一個證據,盡管很容易找到更多類似的證據。
我個人很不幸地經常遭遇“透明社會”的弊端,因爲我在外面做的每一個舉動都有可能意外地成爲媒體的公共報道:
最糟糕的是,有人在我清邁用筆記本電腦時拍攝了一段時長一分鐘的視頻,然後將其發布到小紅書上,立即獲得了成千上萬的點贊和轉發。當然,我自己的情況遠非人類的常態——但隱私一直都是如此:生活狀況相對正常的人不太需要隱私,而生活狀況偏離常態的人則更需要隱私,無論偏離方向如何。一旦你把所有重要的方向加起來,真正需要隱私的人的數量就會相當多——你永遠不知道自己什么時候會成爲其中之一。這也是隱私經常被低估的一個重要原因:它不僅關乎你今天的處境和信息,還關乎這些信息在未來會發生什么(以及它如何影響你)的未知數。
如今,即使在人工智能倡導者中,企業定價機制的隱私也是一個小衆問題,但隨着基於人工智能的分析工具的興起,它可能會成爲一個日益嚴重的問題:公司對你的了解越多,他們就越有可能爲你提供個性化的價格,從而最大限度地提高他們從你身上榨取的利潤乘以你付款的可能性。
我可以用一句話來表達我對隱私即自由的一般論點如下:
隱私讓您可以自由地以最適合您個人目標和需求的方式生活,而不必不斷平衡“私人遊戲”(您自己的需求)和“公共遊戲”(各種其他人,通過各種機制,包括社交媒體級聯、商業激勵、政治、機構等,將如何看待和回應您的行爲)之間的每一個行動。
沒有隱私,一切都會變成一場持續不斷的鬥爭,爭論的焦點是“其他人(以及機器人)會怎么看待我所做的事情”——無論是有權勢的人、公司還是同行,無論是現在還是未來的人。有了隱私,我們就能保持平衡。如今,這種平衡正在迅速被侵蝕,尤其是在實體領域。現代科技資本主義的默認路徑,渴望找到一種無需用戶明確付費就能從用戶身上獲取價值的商業模式,正在進一步侵蝕這種平衡(甚至會滲透到高度敏感的領域,比如最終會滲透到我們自己的思想中)。因此,我們需要抵消這種影響,更明確地支持隱私,尤其是在我們最實際能夠做到的領域:數字領域。
但爲什么不允許政府有後門呢?
對上述推理,有一種常見的回應:我所描述的隱私弊端,很大程度上在於公衆過度了解我們的私生活,即使涉及到權力濫用,也在於企業、老板和政客過度了解。但我們不會讓公衆、企業、老板和政客掌握所有這些數據。相反,我們會讓一小群訓練有素、經過嚴格審查的執法專業人員查看從街頭監控攝像頭以及互聯網電纜和聊天應用程序上的竊聽數據,執行嚴格的問責程序,這樣其他人就不會發現。
這是一個悄無聲息卻被廣泛持有的立場,因此明確地解決這個問題至關重要。即使出於良好的意愿以高質量標准實施,此類策略也存在內在的不穩定性,原因如下:
實際上,不僅僅是政府,各種企業實體也都面臨着數據泄露的風險,而且質量參差不齊。在傳統金融系統中,KYC 和支付信息掌握在支付處理商、銀行和各種其他中介機構手中。電子郵件提供商會查看海量各類數據。電信公司知道您的位置,並定期非法轉售。總的來說,要對所有這些實體進行足夠嚴格的監管,確保它們真正高度重視用戶數據,對監控者和被監控者來說都耗費巨大精力,這可能與維護競爭性的自由市場格格不入。
擁有訪問權限的個人總會感到濫用數據(包括出售給第三方)。2019 年,幾名 Twitter 員工因向沙特阿拉伯出售異見人士的個人信息而被指控,隨後被定罪。
數據隨時可能被黑客入侵。2024 年,美國電信公司依法必須收集的數據遭到黑客攻擊,據稱是來自中國政府的黑客所爲。 2025年,烏克蘭政府持有的大量敏感個人數據遭到俄羅斯黑客攻擊。另一方面,中國高度敏感的政府和企業數據庫也遭到黑客攻擊,其中就包括美國政府。
政權可能會更迭。今天值得信賴的政府,明天可能就不再值得信賴。今天的掌權者,明天可能就會受到迫害。一個警察機構,今天還保持着無可挑剔的尊重和禮儀標准,十年後,可能就會淪爲各種幸災樂禍的殘酷行徑。
從個人的角度來看,如果他們的數據被竊取,他們無法預知未來是否會被濫用以及如何被濫用。迄今爲止,處理大規模數據最安全的方法,是從一开始就盡可能少地集中收集數據。數據應最大限度地由用戶自己持有,並使用加密手段在不損害個人隱私的情況下匯總有用的統計數據。
有人認爲,政府應該有權憑搜查令獲取任何信息,因爲事情一直以來都是這樣運作的,這種說法忽略了一個關鍵點:從歷史上看,憑搜查令獲取的信息量遠低於今天,甚至低於如果普遍採用最嚴格的互聯網隱私保護措施所能獲得的信息量。在19世紀,平均每人只進行一次語音對話,而且從未被任何人記錄下來。因此,“信息隱私”引發的道德恐慌完全不符合歷史規律:普通對話,甚至金融交易,完全且無條件地保持私密,才是數千年來的歷史常態。
1950 年的一次普通對話。除了對話進行時參與對話的人員之外,沒有任何人在任何時間記錄、監視、“合法攔截”、進行人工智能分析或以其他方式查看過該對話。
盡量減少中心化數據收集的另一個重要原因是,全球通信和經濟互動的很大一部分本質上具有國際性。如果每個人都在同一個國家,那么至少可以說“政府”應該有權訪問他們互動中的數據。但如果人們身處不同的國家呢?當然,原則上你可以嘗試提出一個“銀河系大腦”方案,將每個人的數據映射到某個負責他們的合法訪問實體——盡管即使這樣,你也必須處理大量涉及多人數據的邊緣情況。但即使你能做到,這也不是現實的默認結果。政府後門的現實默認結果是:數據集中在少數幾個中央管轄區,這些管轄區擁有所有人的數據,因爲它們控制着應用程序——本質上就是全球技術霸權。強大的隱私是迄今爲止最穩定的替代方案。
隱私就是秩序
一個多世紀以來,人們認識到,民主制度得以有效運作的關鍵技術要素是祕密投票:沒有人知道你投了誰的票,而且,即使你真的想證明,你也無法向任何人證明你投了誰的票。如果祕密投票不是默認設置,那么選民就會受到各種影響其投票方式的附帶激勵:賄賂、追溯獎勵承諾、社會壓力、威脅等等。
用一個簡單的數學論證就可以看出,這種附帶激勵會徹底破壞民主:在一場有N人參與的選舉中,你影響結果的概率只有大約1/N,因此任何關於哪個候選人更好、哪個候選人更差的考量都會被N除。與此同時,“附帶博弈”(例如,選民賄賂、脅迫、社會壓力)會根據你的投票方式(而不是基於整體投票結果)直接對你產生影響,因此它們不會被N除。因此,除非附帶博弈受到嚴格控制,否則它們默認會壓倒整個博弈,淹沒任何關於哪個候選人的政策實際上更好的考量。
這不僅適用於國家規模的民主。理論上,它適用於幾乎所有企業或政府的委托代理問題:
法官決定如何裁決案件
政府官員決定與哪家公司籤訂合同或撥款
移民官員決定籤發或拒絕籤證
社交媒體公司員工決定如何執行內容審核政策
公司員工參與商業決策(例如,從哪家供應商採購)
所有情況下的根本問題都是一樣的:如果代理人誠實行事,他們只能從其行爲中爲其所代表的實體帶來一小部分利益;而如果他們遵循某些附帶博弈的激勵,那么他們就能獲得全部利益。因此,即使在今天,我們仍然需要大量的道德善意,以確保我們所有的機構不會被一場互相推翻的附帶博弈的混亂漩渦完全吞噬。如果隱私進一步被削弱,這些附帶博弈就會變得更加強大,維持社會正常運轉所需的道德善意可能會變得高得不切實際。
社會系統能否重新設計以避免出現這個問題?不幸的是,博弈論幾乎明確指出這是不可能的(除了一個例外:完全獨裁)。在關注個人選擇的博弈論版本中——即假設每個參與者獨立做出決策,並且不允許多個主體群體爲了共同利益而協同工作的可能性——機制設計師擁有極大的自由度來“設計”博弈,以實現各種特定結果。事實上,有數學證明表明,任何博弈都必須至少存在一個穩定的納什均衡,因此分析這類博弈變得容易處理。但在允許聯盟合作(即“勾結”)可能性的博弈論版本中,即合作博弈論,我們可以證明,存在大量沒有任何穩定結果的博弈(稱爲“核心”)。在這樣的博弈中,無論當前事態如何,總有一些聯盟能夠從中獲利。
如果我們認真對待數學,就會得出這樣的結論:建立穩定社會結構的唯一途徑是對參與者之間可能發生的協調數量進行一些限制——這意味着高度的隱私性(包括可否認性)。如果你不認真對待數學本身,那么觀察現實世界,或者至少思考一下上述某些委托代理情境如果被邊緣遊戲接管會變成什么樣,就足以得出同樣的結論。
請注意,這引出了另一個關於政府後門爲何存在風險的論點。如果每個人都擁有無限的能力在所有事情上與其他人協調,結果就是混亂。但如果只有少數人能夠這樣做,因爲他們擁有獲取信息的特權,那么結果就是他們佔據主導地位。一個政黨擁有獲取另一個政黨通信的後門,很容易意味着多黨制的可行性終結。
另一個依賴於限制共謀才能運作的社會秩序的重要例子是知識和文化活動。參與知識和文化活動本質上是一項由內在動機驅動的公益活動:很難找到旨在對社會做出積極貢獻的外在激勵機制,這恰恰是因爲知識和文化活動在某種程度上本身就是一項決定社會中哪些行爲是積極行爲的活動。我們可以制定一些近似的商業和社會激勵措施來指引正確的方向,但它們也需要內在動機的大力補充。但這也意味着,這類活動極易受到外部動機失衡的影響,尤其是社會壓力和脅迫等邊緣博弈的影響。爲了限制此類失衡的外部動機的影響,隱私再次成爲必需。
隱私是進步
想象一下一個完全不存在公鑰和對稱密鑰加密的世界。在這個世界裏,安全地遠距離發送消息本質上會變得更加困難——並非不可能,只是非常困難。這將導致國際合作大大減少,結果更多的合作將仍然通過面對面的线下渠道進行。這將使世界變得更加貧窮,更加不平等。
我認爲,相對於假設的未來世界,我們今天所處的正是這樣的境地,那時更強大的密碼學形式將得到廣泛應用——特別是可編程密碼學,並輔以更強大的全棧安全和形式化驗證,從而爲我們提供強有力的保障,確保這些密碼學得到正確使用。
埃及神協議:三種強大且高度通用的結構,可以讓我們對數據進行計算,同時保持數據完全私密。
醫療保健就是一個很好的例子。如果你與過去十年在長壽、抗擊流行病或其他健康領域工作過的人交談,他們都會一致告訴你,未來的治療和預防將是個性化的,有效的應對措施高度依賴於高質量的數據,包括個人數據和環境數據。有效地保護人們免受空氣傳播疾病的侵害,需要了解哪些地區的空氣質量較高和較低,以及病原體在特定時間出現在哪些地區。最先進的長壽診所都會根據你的身體、飲食偏好和生活方式的數據,提供定制化的建議和治療方案。
然而,所有這些都同時構成了巨大的隱私風險。我個人知道一個事件,公司爲一位“打電話回家”的員工配備了一個空氣監測儀,收集到的數據足以確定該員工何時發生性行爲。出於類似的原因,我預計許多最有價值的數據將默認不會被收集,正是因爲人們害怕隱私風險。即使數據確實被收集到,也幾乎總是不會被廣泛共享或提供給研究人員——部分原因是出於商業原因,但同樣常見的情況是出於隱私方面的考慮。
同樣的模式也在其他領域重演。我們撰寫的文檔、在各種應用程序上發送的消息以及在社交媒體上的各種行爲中,都蕴含着大量關於我們自身的信息,這些信息都可以被用來更有效地預測和提供我們日常生活中所需的東西。此外,還有大量與醫療保健無關的關於我們如何與物理環境互動的信息。如今,我們缺乏有效利用這些信息的工具,而又不至於造成反烏托邦式的隱私噩夢。但未來,我們或許會擁有這些工具。
解決這些挑战的最佳方法是使用強加密技術,它可以讓我們獲得共享數據的好處,而不會帶來負面影響。在人工智能時代,獲取數據(包括個人數據)的需求只會變得更加重要,因爲能夠在本地訓練和運行“數字孿生”,使其能夠基於對我們偏好的高保真近似值,代表我們做出決策,這將帶來巨大的價值。最終,這還將涉及使用腦機接口 (BCI) 技術,讀取來自我們大腦的高帶寬輸入。爲了避免導致高度集中的全球霸權,我們需要找到在尊重隱私的前提下實現這一目標的方法。可編程加密是最值得信賴的解決方案。
我的 AirValent 空氣質量監測器。想象一下,有這樣一個設備,它收集空氣質量數據,將匯總統計數據發布在开放數據地圖上,並獎勵你提供數據——所有這些都使用可編程加密技術,以避免泄露你的個人位置數據,並驗證數據的真實性。
隱私可以促進社會安全的進步
零知識證明等可編程加密技術非常強大,因爲它們就像信息流中的樂高積木。它們可以精細地控制誰可以看到哪些信息,更重要的是,可以控制哪些信息可以被查看。例如,我可以證明我持有一本顯示我已年滿18歲的加拿大護照,而無需透露任何其他個人信息。
這使得各種有趣的組合成爲可能。我可以舉幾個例子:
零知識人格證明:證明您是獨一無二的人(通過各種形式的身份證件:護照、生物識別技術、基於去中心化社交圖譜的身份證明),而無需透露任何其他身份信息。這可以用於“證明您不是機器人”、各種“每人最大N值”用例等等,同時在不暴露規則未被違反的情況下完全保護隱私。
隱私池(Privacy Pools)是一種金融隱私解決方案,無需後門即可排除不良行爲者。在消費時,用戶可以證明其代幣的來源不在公开的黑客和盜竊名單中;只有黑客和盜竊者自己無法生成此類證明,因此他們無法隱藏。Railgun 和 privacypools.com 目前正在使用此類方案。
設備端反欺詐掃描:這不依賴於零知識證明 (ZKP),但感覺它屬於此類。您可以使用設備內置的過濾器(包括 LLM)來檢查傳入消息,並自動識別潛在的虛假信息和詐騙信息。如果在設備上執行此操作,則不會損害用戶的隱私,並且可以以用戶授權的方式進行,讓每個用戶都可以選擇訂閱哪些過濾器。
實物來源證明:結合使用區塊鏈和零知識證明,可以追蹤物品在其制造鏈中的各種屬性。例如,這可以在不公开披露供應鏈的情況下對環境外部性進行定價。
左圖:隱私池示意圖。右圖: Message Checker 應用,用戶可以選擇开啓或關閉多個過濾器,從上到下依次爲:URL 檢查、加密貨幣地址檢查、謠言檢查
隱私和人工智能
最近,ChatGPT 宣布將开始將你過去的對話輸入到 AI 中,作爲你未來對話的背景信息。這種趨勢將不可避免地朝着這個方向發展:AI 回顧你過去的對話並從中獲取洞見,這從根本上來說非常有用。在不久的將來,我們可能會看到有人开發出更深入地侵犯隱私的 AI 產品:被動收集你的互聯網瀏覽模式、電子郵件和聊天記錄、生物特徵數據等等。
理論上,你的數據對你來說是私密的。但在實踐中,情況似乎並非總是如此:
哇!ChatGPT 有個 bug,它會把別人問的問題推送給我!這可是嚴重的隱私泄露。我問了一個問題,然後報錯,然後“重試”又生成了一個我永遠不會問的問題。
隱私保護機制完全有可能運作良好,而在本例中,AI 產生了幻覺,生成了一個 Bruce 從未提出過的問題並進行了回答。但目前無法驗證。同樣,也無法驗證我們的對話是否被用於訓練。
這一切都令人深感擔憂。更令人不安的是 AI 的明確監控用例,這些用例在未經用戶同意的情況下,大規模收集和分析用戶的(物理和數字)數據。面部識別技術已經在幫助專制政權大規模鎮壓政治異見。而最令人擔憂的是 AI 數據收集和分析最終的前沿:人類思維。
理論上,腦機接口技術擁有提升人類潛能的驚人力量。以去年 Neuralink 的首位患者諾蘭·阿爾博 (Noland Arbaugh) 的故事爲例:
這款實驗性設備讓現年30歲的阿爾博獲得了獨立感。以前,使用口棒需要有人扶他直立。如果口棒掉了,就需要有人幫他撿起來。而且他不能長時間使用,否則會長瘡。有了Neuralink設備,他幾乎可以完全控制電腦。他可以隨時瀏覽網頁、玩電腦遊戲,Neuralink表示,他創造了人類使用腦機接口(BCI)控制光標的紀錄。
如今,這些設備功能強大,足以幫助傷病員。未來,它們將強大到讓完全健康的人有機會與計算機協作,並以我們難以想象的效率相互進行心靈感應交流(!!)。但真正解讀腦信號,使這種交流成爲可能,需要人工智能。
這些趨勢交織在一起,可能會自然而然地催生出一個黑暗的未來:我們會看到硅片超級代理吞噬並分析每個人的信息,包括他們的寫作、行爲和思維方式。但同時也存在一個更光明的未來:我們既能享受這些技術帶來的好處,又能保護自己的隱私。
這可以通過結合幾種技術來實現:
盡可能在本地運行計算——許多任務(例如基本圖像分析、翻譯、轉錄、BCI 的基本腦電波分析)都足夠簡單,可以完全在本地運行的計算中完成。事實上,本地運行的計算甚至在減少延遲和提高可驗證性方面具有優勢。如果某件事可以在本地完成,就應該在本地完成。這包括涉及訪問互聯網、登錄社交媒體帳戶等各種中間步驟的計算。
使用密碼學使遠程計算完全私密——全同態加密 (FHE) 可用於遠程執行 AI 計算,而不允許遠程服務器查看數據或結果。從歷史上看,FHE 非常昂貴,但 (i) 最近它的效率正在迅速提高,(ii) LLM 是一種獨特結構化的計算形式,並且漸近地幾乎所有都是线性運算,這使得它非常適合超高效的 FHE 實現。涉及多方私人數據的計算可以通過多方計算來完成;常見的兩方情況可以通過諸如混淆電路之類的技術極其高效地處理。
使用硬件驗證將保證擴展到物理世界——我們可以堅持認爲,能夠讀取我們思想的硬件(無論是從頭骨內部還是外部)必須是开放且可驗證的,並使用IRIS之類的技術來驗證它。我們也可以在其他領域做到這一點:例如,我們可以安裝安全攝像頭,可證明的是,只有當本地法學碩士(LLM)將其標記爲身體暴力或醫療緊急情況時,才會保存和轉發視頻流,並在所有其他情況下將其刪除,並使用IRIS進行社區驅動的隨機檢查,以驗證攝像頭是否正確實現。
未完成的未來
2008年,自由主義哲學家大衛·弗裏德曼寫了一本名爲《不完美的未來》的書。書中,他概述了新技術可能給社會帶來的變化,但並非所有變化都對他有利(或對我們有利)。在其中一節中,他描述了一個潛在的未來:隱私與監控之間將出現復雜的相互作用,數字隱私的增長將抵消現實世界監控的增長:
如果一只視頻蚊子趴在牆上看着我打字,那么對我的電子郵件進行強加密也毫無意義。因此,在一個透明的社會中,強大的隱私保護需要某種方式來保護我現實空間身體與網絡空間之間的接口……一種低技術含量的解決方案是在頭罩下打字。一種高科技的解決方案是建立思維與機器之間的某種連接,這種連接不通過手指——或者任何外部觀察者可見的通道。24
現實空間透明性與網絡空間隱私之間的衝突也體現在另一個方向上……我的掌上電腦用你的公鑰加密我的信息,並將其傳輸到你的掌上電腦,後者解密信息並通過你的VR眼鏡顯示出來。爲了確保沒有東西從你肩膀上讀取眼鏡,護目鏡不是通過屏幕顯示圖像,而是用微型激光將其寫入你的視網膜。幸運的話,你的眼球內部仍然是私人空間。
我們最終可能會生活在一個身體活動完全公开、信息交易完全私密的世界。它有一些吸引人的特點。普通公民仍然可以利用強大的隱私優勢找到殺手,但僱傭殺手的成本可能超出他們的承受能力,因爲在一個足夠透明的世界裏,所有謀殺案都會被偵破。每個殺手執行一項任務後都會直接入獄。
這些技術與數據處理之間的相互作用又如何呢?一方面,現代數據處理技術使得透明社會成爲一種威脅——如果沒有數據處理技術,即使你把世界上發生的一切錄下來也沒什么用,因爲沒有人能在每天生產的數百萬英裏錄像帶中找到他想要的那一段六英寸錄像帶。另一方面,支持強大隱私的技術提供了重建隱私的可能性,即使在一個擁有現代數據處理技術的世界裏,通過保護你的交易信息不被任何人獲取,你也無能爲力。
這樣的世界或許是所有可能世界中最好的:如果一切順利,我們將看到一個幾乎沒有肢體暴力的未來,但與此同時,我們的網絡自由得以維護,並確保社會中政治、公民、文化和思想進程的基本運作,而這些進程的持續運行依賴於對完全信息透明度的某種限制。
即使它並非理想狀態,也比物理和數字隱私歸零,最終包括我們自身思想隱私的版本要好得多。到2050年代中期,我們會看到一些評論文章,認爲期望思考不受合法攔截的思想當然是不現實的。而對這些評論文章的回應,則包含指向最近一起事件的鏈接:一家人工智能公司的法學碩士被利用,導致一年內3000萬人的私人內心獨白被泄露到整個互聯網上。
社會始終依賴於隱私和透明度之間的平衡。在某些情況下,我也支持對隱私進行限制。舉一個與人們在這方面通常的論點完全不同的例子,我支持美國政府禁止合同中加入競業禁止條款的舉措,主要不是因爲它們會直接影響員工,而是因爲它們可以迫使公司將隱性領域知識部分开源。強迫公司比他們想要的更加开放是對隱私的限制——但我認爲這是淨收益的限制。但從宏觀角度來看,不久的將來技術最緊迫的風險是隱私將接近歷史最低點,並且以一種極不平衡的方式,最有權勢的個人和最強大的國家會獲得每個人的大量數據,而其他人幾乎看不到任何數據。因此,支持每個人的隱私,並使必要的工具开源、通用、可靠和安全是我們這個時代的重要挑战之一。
標題:
地址:https://www.pressbased.com/post/12401.html