Paper Drafts

Kurt Pan

業餘研究者究竟去了哪裡,我們又該如何讓他們回歸?


原文:https://kasurian.com/p/research-as-leisure

作者:Mariam Mahmoud

譯者:Kurt Pan


文明的文學基礎

坐落於舊金山福特梅森的一處結合咖啡館、酒吧、博物館與活動空間的場所中,有一座從地板到天花板的圖書館,珍藏著長今基金會的《文明手冊》。這是一套大眾精選的藏書,共收錄3,500本對維繫或重建文明至關重要的書籍。《文明手冊》源自一個問題:若你被困於一座孤島(或一顆環境不利的小型星球),你會選擇攜帶哪些書籍?

這套藏書展示在充滿工業感的牆面上,既莊嚴又充滿希望,既真摯又略顯徒勞,彷彿浪漫主義者心中的書卷金唱片。最生動地說,它是一座令人謙卑的紀念碑,見證了歷史學家芭芭拉·塔克曼所宣示的「書籍是文明的載體」這一真理。塔克曼曾寫道:「若無書籍,文明的發展將無法實現。」

將文明與人類文化聯繫於書籍、閱讀與寫作的觀點,並非僅屬於塔克曼一人。

近350年前,加利略便宣稱書籍是「人類所有令人讚嘆發明的印記」,因為書籍使我們能跨越時空溝通,與那些「尚未誕生,或千年萬年後亦不會誕生的人」對話。

幾代人之後,亨利·戴維·梭羅在瓦爾登湖的隱居中寫道:「書籍乃田野間珍貴的財富,是世代與文化應得的傳承。」

隨後的一代,卡爾·薩根在帶領電視觀眾穿越宇宙之旅後,獨自漫步於圖書館,重溫加利略的見解。當航海者二號金唱片中那首漂浮的貝多芬樂曲《卡瓦蒂娜》響起時,薩根驚嘆於書籍的存在。他說:「寫作也許是人類最偉大的發明,它將彼此素未謀面、來自遙遠時代的民眾緊密聯結在一起。」他最後總結道:「一本書,就是證明人類能夠創造奇蹟的證據。」

塔克曼的這句老生常談,便在數個世紀中持續流傳:書籍承載著文明。這並非因為書籍本身蘊含著神聖不可侵犯的知識,而是因為閱讀與寫作構築並塑造了文化;而若無文化,便無文明。

神聖的閱讀命令

在阿拉伯語中,文明的根字 ح-ض-ر(意指「在場」、「定居」、「停留」)展現出從漂泊到定居的深刻轉變。對伊斯蘭而言,這一轉變始於在城市與沙漠交界的探求。

1450年前,一位追尋靈性居所的遊子在2000英尺高處俯視著克爾白,距離超過兩英里,他接到一個命令:閱讀。先知穆罕默德 ﷺ回答說:「我不懂閱讀。」命令再次下達:閱讀。聖先知再度回答:「我不懂閱讀。」命令再度來臨:「以創造者之名閱讀。

關於伊斯蘭起源的故事,已有太多論述——這故事透過人類最嚴謹而精密的口頭傳承系統被保存下來——以至於在一篇論及閱讀的文章中,人們都會猶豫是否引用它。然則,正是藉由這一神聖的命令,亞伯拉罕、摩西與耶穌的神開啟了伊斯蘭文明的歷程。以創造者之名閱讀。

獨處與社群之間

命令一個不識字的人閱讀,顛覆了將閱讀僅僅視為解碼印刷符號這一單一觀念。阿拉伯語中的「Iqra」常被譯作「閱讀」,但其實同時蘊含著「朗誦」的意涵。朗誦是一種主要透過口語、外向表達的行為,而閱讀則是一種更私密、獨處且內省的活動。

伊斯蘭起始經文中的「閱讀」體現了正如艾倫·雅各布斯在《分心時代的閱讀樂趣》中簡潔所言,『在孤獨邂逅與更具社交性的互動之間不斷轉換』。在現代閱讀的語境中,「社交」可以呈現為任何形式——日記、部落格文章、讀書會、文學沙龍、一場端莊的線上辯論,甚至是一封致友人的信——因為正如雅各布斯所寫,「每一個偉大理念的實現,都是連結與沉思交織、在兩者間來回穿梭的成果」。

如果閱讀未能向外延展,構建並貢獻於那生生不息的人類知識網絡,那神聖的閱讀命令便顯得受阻、無法達成其使命。

然而,僅僅依賴閱讀——即便其兼具雙重性——仍不足夠。古蘭經中閱讀的命令具有明確的方向性:

以創造者之名閱讀。祂從一團黏稠之物中創造了人類。閱讀吧!你的主乃是最慷慨者,祂以筆教導,傳授給人類那些他們所不知的知識。

以我們創造者之名閱讀的命令,正如Rebecca Elson在詩作《我們這些天文學家》中所言(該詩表達了對幻滅的抗拒),賦予了一種「令人敬畏的責任」。古蘭經中的「閱讀」可被解讀為一種令人敬畏的責任,一個既要求嚴謹探究,又呼喚虛心驚奇的學習邀請。

最後一位閱讀者的漫長世紀

在過去的一個世紀中,這項我們敬畏的責任成為了一種焦慮的來源。

1926年——那一年,無線電這項令人目眩的新發明走入美國家庭,將世界連續劇帶進全國的客廳;那一年,貝爾電話實現了從紐約到舊金山的橫貫通話,只需18美元;那一年,奧菲姆劇院在洛杉磯開幕,其傳奇的霓虹招牌至今仍熠熠生輝——弗吉尼亞·伍爾夫開始憂心閱讀的未來。在1926年8月3日出版的《新共和國》中,伍爾夫在比較電影與閱讀時,對電影的恐怖感到不安甚至近乎厭惡。她寫道,電影以及我們從中獲得的快感,源自一種過於粗糙、背離文明的人性衝動。這位典型的沉思樂觀主義者曾於1915年1月著名地寫道:「我認為,未來是黑暗的,這是未來能有的最好狀態。」雖然她並未直接譴責閱讀的未來,但她認為影音媒介正危險地侵蝕著深度。

25年後的1951年——那一年《我愛露西》首播,用木製電視盒取代了家庭無線電;那一年有反美調查委員會;那一年內華達沙漠進行了首次核試;那也是1952年科技彩色影像消逝前的最後一年——深受喜愛的兒童文學作家E.B. White(《夏綠蒂的網》和《小斯圖爾特》作者)對閱讀的未來感到憂心。在《紐約客》「鎮上之談」專欄中,White回顧了羅林斯學院院長的預測:「五十年後,全國只有百分之五的人會閱讀。」White寫道:「在我們看來,即便在每一億五千萬人中僅有一人繼續成為閱讀者,他也將成為值得挽救的人,是建立大學的核心。這位『不可能的人』,這位『最後的閱讀者』,便是那『蜂后』,從他身上衍生出『與久遠過去透過斷裂的智慧鏈條完美聯繫的新一代人,以延續社群。』」他最後斷言,更有可能的是,人類將透過影音設備延續下去,那些設備不要求心智的自律,且已令空間彌漫著鴉片館般的慵懶感。

45年後的1996年——那一年,福克斯新聞在衛星電視上首播;那一年,多莉羊複製成功;那一年出現了「微型電話」,撥號上網、「滑鼠」與「鍵盤」、『www』和『@』齊現;也是亞馬遜改變互聯網的前夕——蘇珊·桑塔格開始憂慮閱讀的未來。

她在致豪爾赫·路易斯·博爾赫斯的一封信中(距博爾赫斯去世十年後)向這位老友致歉說:「很遺憾告訴你,如今書籍已被視為瀕危物種。」她所指的不僅僅是書本本身,而是「構成文學及其靈魂效應的閱讀條件」。不久之後,「我們將隨需召喚『書屏』,任何『文本』都能被調用,並能改變其外觀、向其提問、與之『互動』。」桑塔格的結論呼應了White與伍爾夫數十年前的憂慮:當書籍變成我們「互動」的「文本」時,書面文字將僅僅成為我們那由廣告驅動的電視現實中的另一面向;這不僅意味著書籍的消逝,更等同於內心世界的死亡

近百年來——每一年,未來似乎都比我們能處理的速度更快——我們一直憂心閱讀的未來。然而,無論是這些作家,還是哈羅德·布魯姆在《如何閱讀與為何閱讀》、莫提默·J. 阿德勒與查爾斯·范多倫在《如何閱讀一本書》,以及尼爾·波斯特曼在《娛樂至死》中的預言,都未曾預見到這樣一個未來:一個介於「口語性」與「讀寫性」之間的詭異空谷,周圍雖充斥著歷史上任何時期都更多的書籍、文字、閱讀與寫作,卻缺乏連貫的文化。

伍爾夫、White與桑塔格預見了影音媒介對人腦與靈魂的腐蝕性、野蠻影響。他們憂慮的並非書籍的消逝,而是當閱讀從一種全神貫注、沉思的行為轉變為被動、碎片化、表面化的狀態時,將導致文化崩壞。閱讀的死亡,不是書籍的消失,而是文化的失落。

文化危機

這些恐懼並非毫無根據。今日,我們正處於伍爾夫、White與桑塔格所預見的那種文化危機中——並非一個沒有書籍的世界,而是一個碎片化注意力與表面性參與侵蝕了共享意義與文化連貫性基礎的世界。

「文化」的定義就如同其所要描述的現象般流動。在《王子與權力》中,詹姆斯·鮑德溫指出,只有處於危機中的文化才會要求界定「文化」的意義。

我們正處於一個文化危機之中。正如韓炳哲在《儀式的消逝》中所闡述,我們缺乏賦予意義的結構與形式,這導致了文化的碎片化,其結果便是文明式的ADHD——一種世代性的躁動、注意力不集中以及無目的的過度移動,使得洞察變得難以捉摸且稍縱即逝。

研究作為消遣:艾略特與皮珀談文化復興

對於T.S.艾略特而言,在二戰後的英國,「文化」是一個互相依賴的三層次感受——個體、群體與社會——共同構成了「整體社會的格局」。若任一層次與其他層次脫節,無論是個體與群體,或群體與社會的分裂,「更高的文明便難以尋獲」。

在這片碎裂的景觀中,我們所需的不僅是診斷,更需要處方。當我們的注意力方式受到侵蝕時,如何重建文化的基礎?答案或許在於回歸對消遣的古老理解——消遣不是懶散,而是一種有導向的沉思。

尤瑟夫·皮柏在與艾略特同時代的背景下,於一個滿目瘡痍、四分五裂的德國中宣稱,消遣乃文化的基石。對於「消遣」,皮珀並非指懶散,而是更古老意義上的消遣——即希臘語中的 σχολή(學院或學校)。

皮珀所說的消遣是一種沉思式的狀態,本質上是一種無拘無束的研究風格。這樣的消遣不僅僅是為了知識本身而追求,也不僅是純粹的「為樂而讀」。構成文化基礎的消遣是一種有導向且刻意的好奇心——它是以充滿驚奇而非僵硬確定性的態度提出問題、尋求答案的實踐。若閒暇時間未用於研究,未用來提出問題並以探險者的精神探究答案,文化的連貫性便會瓦解。對皮珀而言,若缺乏以書信為基礎的消遣,或所謂的「研究作為消遣」,就無法構築出更高文明所依托的格局。

總而言之,艾略特與皮珀提供了互補的文化架構:艾略特描繪了文化的外在格局,而皮珀則描述了滋養並重塑這一格局的內在狀態——消遣。缺乏艾略特所描述的結構連貫性,文化將面臨瓦解;缺乏皮珀所推崇的沉思式消遣,這一結構將變得空洞。

以書信為消遣,將閱讀與寫作重新定義為既充滿趣味又深思熟慮的活動,讓驚奇、好奇與發現的喜悅得以正式呈現。它之所以成為文化的基礎,是因為透過思想的交流——無論是當代作家還是千年前的文人——社會的格局得以被組織、重組。

凝視著那詭異空谷的深淵,「以書信為消遣」開啟了一種全新的文化想像;那種既正式又充滿趣味、由刻意好奇驅動的思想交流,孕育出一種新文化。

反對空洞閱讀

文化復興在實踐中該如何展現?重組整體社會格局始於觀念上的轉變:將閱讀與探究視為一種充滿趣味且有意識的好奇行為,而非繁重或僅限於學術範疇的行動。

對某些人而言,閱讀的衝動表現為一種生產力技巧,或是被動地消費那些流行的自助書籍與小說;這些讀者不把閱讀當作洞察周遭現實的工具,而僅視其為彰顯生產力美德的責任,或僅僅作為娛樂,與真人秀節目無異。

而對許多貪婪的讀者來說,閱讀的衝動則演變成一種確認偏誤:收集那些能印證既有世界觀的觀點碎片。這些讀者將閱讀視作一個表面上採納與自己現有信念相符的概念的機會,而非深入探究的邀請,最終導致一種智識上的腹語現象,扼殺了好奇心。

與這種空洞的閱讀方式對立的是「研究作為消遣」——這是一種對以創造者之名的閱讀命令的莊嚴回應。它邀請我們懷著目的與好奇心審視構成生命的一切,以一種無限開放且虔誠面對神秘的態度追求知識。簡而言之,就是成為一個學生,即便我們在「知識經濟」的工作中進進出出,即便缺乏學院提供的保護與指導。

對學術界而言,「研究」是一個專業術語,但對我們而言,研究並非高高在上的學術活動,而是一項根植於人性的冒險、一門工藝、一種凝聚文化的歡聚。

非專家也能而且應該追求專業知識。

從理論到實踐:研究作為消遣之架構

1. 培養好奇心

隨身攜帶著亞歷山大圖書館般的知識資源,反而使我們的感官變得鈍化,而非敏銳。儘管前所未有地獲得資訊,我們卻流露出一種遲鈍的無好奇心,將自己交給那些推送資訊的演算法,而非主動探索。

然而,好奇心本質上是簡單的:它是觀察、專注,以及不斷追問「為什麼」與「如何」。好奇心意味著在寧靜的順服中站在創造者面前,因為每一個問題中都蘊藏著無數更多的問題。

培養好奇心就像隨手拿起一本雜誌,偶然讀到一篇關於鳥類遷徙的文章,並由此激起了進一步探索的慾望。它也像在散步時,注意到腳下的人行道或街道、周遭的建築、樹木以及動植物,並好奇這一切是如何、又為何會存在。

正是在我散步的時候,我開始對周遭的郊區景觀產生疑問:這些房屋是如何建造出來的?為何選擇這些房屋,採用這種風格,街道又為何如此寬闊?這個社區究竟是如何形成的?我起初所見的單調蔓延,竟轉變成一個神秘的謎題,一場探索城市規劃、建築、土地使用、經濟與科技如何影響我生活的探險。

2. 提出問題

無方向的好奇僅僅是分心。對我們而言,好奇心必須凝結成一個問題。被動的好奇必須轉化為對真理的積極探索。對於研究作為消遣之人,提出問題本身充滿趣味,因為這不受學科限制、多元交叉,且不拘泥於那些晦澀難懂的學術規則。

沒有問題是愚蠢的,但大多數問題可能是糟糕的,這本身並非壞事。問題糟糕正是一個令人愉悅的過程,因為它能讓思想與聯繫隨時間漸次綻放。即使是個糟糕的問題,也依然是一個起點。

最初,我對郊區的疑問既廣泛又模糊——從「郊區是如何形成的?」到「分區政策如何創造了現代郊區?」、再到「分區的歷史是什麼?」、以及「購物中心又如何塑造現代郊區?」、「為何會有最低停車位要求?」與「郊區是否真具合理性?」……問題層出不窮。

透過實踐,我學到了一個簡單的公式:一個好的問題既要足夠具體以引導研究,又要足夠開放以促進發現。發現對於思想的綻放至關重要,因為正是在那裡,跨學科的連結和新問題得以湧現。

3. 收集證據

一旦問題成形,就需要實質內容來豐富它,而收集證據往往是研究者遇到的最大瓶頸。

首先,我們的信息生態系統使我們成為了資料的收集者,而非真正的讀者。收集PDF、書籍以及書單固然令人興奮,但也可能成為束縛,其中最大的挑戰在於如何組織這些資料。

其次,對於以研究為樂的人,自學必須涵蓋該學科的基礎經典。理解這些經典以及它們如何塑造我們對該主題的看法至關重要,因為在那裡,一種健康的異議與懷疑精神才能茁壯成長。透過理解支配一個學科思維的規則,研究者便能深思熟慮地質疑、探究傳統智慧所忽略的路徑,並發展全新的答案。

最後,總有更多值得閱讀的內容——這當然無妨。

4. 形成答案

研究必須有一個結論,即使這結論意味著引出更多待解的問題。這個結論不必驚天動地,但必須以切實的形式呈現出來,不論是一篇文章、一個影片、一個社群媒體串,甚至是一封致友人的信。

區分「研究作為消遣」與無所事事瀏覽的關鍵,正在於這種朝向創造的行動;無論成果多麼樸實,你的答案必須能促進對話,而非僅僅消費或重複他人的觀點。

5. 知識共同體

理想情況下,就如同古蘭經中「閱讀」的雙重意涵,研究的最終成果應具備社會性、對話性與共融性。研究作為消遣的藝術在於建立正式與非正式的「知識共同體」,在其中深入探討的觀點以書面形式傳遞,並呈現給更廣泛的討論。

如今,這些共同體無處不在:Substack、YouTube、Discord、Twitter;小型讀書會、寫作圈,以及全球各地客廳與咖啡館中的非正式討論小組。透過這些共同體,就如同布魯姆斯伯里小組、因克林斯、格特魯德·斯坦因的沙龍或維也納圈子,我們培養出那生機勃勃的網絡,讓思想得以檢驗、提煉、交叉激盪並傳承。

藉此,我們逐步重組出促成高層文化與文明可能的整體社會格局。

重組文明的格局

文明手冊》提醒我們,書籍不僅是資訊的存放處,更是文化記憶與能動性的載體。在這個碎片化的時代,以創造者之名閱讀的神聖命令,煥發出前所未有的迫切感。

Kasurian是一個邀請,鼓勵大家走上研究作為消遣的道路;任何人都可以進行嚴肅的研究,而成為專家的門檻從未如此之低。成為你所著迷領域的業餘專家,通過電子報、論文、討論小組或參與線上論壇來貢獻你的研究,讓社群檢驗、挑戰並完善你的結論。藉由擁抱正式與非正式專業知識的文化,以及研究作為消遣的文化,我們便能重拾那份驚奇感,恢復啟發、協商並超越當下正統觀念的能力。


進一步閱讀:

  • Lost in Thought: The Hidden Pleasures of an Intellectual Life – Zena Hitz

  • The Pleasures of Reading in the Age of Distraction – Alan Jacobs

  • Slow Reading in a Hurried Age – David Mikics

  • A History of Reading – Alberto Manguel

  • Notes Toward a Definition of Culture – T.S. Eliot

  • Princes and Powers – James Baldwin

  • Leisure: The Basis of Culture – Josef Pieper

  • The Disappearance of Rituals – Byung-Chul Han

  • How Romantics and Victorians Organized Information – Jillian M. Hess

  • Dialogue Concerning the Two Chief World Systems: Ptolemaic and Copernican – Galileo Galilei

  • How to Read a Book – Mortimer J. Adler and Charles Van Doren

  • Amusing Ourselves to Death – Neil Postman

  • Technopoly – Neil Postman

  • How to Read and Why – Harold Bloom

  • The Anatomy of Influence: Literature as a Way of Life – Harold Bloom

  • The Study: The Inner Life of Renaissance Libraries – Andrew Hui

  • The Sociological Imagination – C Wright Mills

  • Tools for Conviviality – Ivan Illich

  • How to Write a Thesis – Umberto Eco

  • Dust Tracks on a Road (Chapter 10) – Zora Neale Hurston

引言

當談及命名我們的當代世界時,我們常在「數位時代」、「資訊時代」與「監控時代」這三個不同稱謂之間輪換。這些稱謂各有其準確之處,但又皆不全面,因為它們各自僅捕捉到二十世紀初三個相互關聯特徵中的一個。「數位」時代指的是二十世紀數位運算與電信網絡的革命;「資訊」時代則指數位運算革命加速了我們創造、存儲、分享、獲取與修改資訊的能力;而「監控」時代則指政府與企業大規模監控系統的發展,這些系統旨在監視、提取、記錄、分類、分析並利用由數位技術創造出的資訊。

從密碼龐克的角度來看,我們應以謹慎態度對待這個數位–資訊–監控時代,因為它既帶來巨大希望,也伴隨著嚴重威脅。密碼龐克擁抱數位革命,並視電腦與密碼為促進良性互動的工具;他們也欣然接受數位革命所帶來的資訊與通訊量的增加。然而,他們卻擔憂「跨國監控反烏托邦」的興起,在那裡「所有通訊將被監控、永久記錄、永久追蹤,每個人在所有互動中都將被永久識別……從出生到死亡」。密碼龐克對大規模監控的反對,並非源自陰謀論式的幻想,而是基於對我們這個時代的準確理解。政府機構與企業希望不分時段地收集所有數據,且他們如今使用先進的監控系統來達成這一目標。更令人擔憂的是,大規模監控之所以成為可能,正是因為政府機構與企業經常相互合作。面對大規模監控反烏托邦的出現,密碼龐克引用其指導口號的前半句:「弱者享有隱私,強者必須透明」。

作為一個關注爭取二十一世紀社會權力分配的運動,密碼龐克主張,我們必須利用密碼來捍衛我們的隱私,並應以隱私作為賦予個人與相對弱勢組織權力的手段。政府與企業追求對全球個人與公眾行為的全面資訊掌握,因為這種知識能夠增強它們的權力。正如朱利安·阿桑奇所寫:「政權往往依靠掌控數據,而他們可以藉由這種控制傷害、壓迫或使人沉默」。密碼龐克認為,投票無法也不能終結大規模監控,因為政府——特別是西方政府——是大規模監控的主要元凶。因此,他們敦促個人與團體學會利用密碼進行資訊自我防衛。正如阿桑奇總結道:「面對即將到來的監控反烏托邦,唯一有效的防禦就是你自己採取措施保護你的隱私,因為那些有能力攔截一切的人,並沒有自我克制的動機」。超越單純隱私的考量,蒂莫西·梅則主張,密碼將使「完全匿名」與「無法追蹤」的個人通訊與經濟交易成為可能。儘管梅的密碼無政府主義與阿桑奇的密碼正義對於密碼普及後將出現的世界有著截然不同的預想,但他們大體上同意,真正的、由密碼技術賦能的弱者享有隱私,是數位時代政治中不可或缺的一部分。

在接下來的各節中,我們將在當代資訊與監控的背景下探討密碼龐克所倡導的「弱者享有隱私」概念。雅各布·阿佩爾鮑姆解釋說,一個關鍵的密碼龐克見解在於「架構實際上決定了政治狀況」,這意味著在我們對資料、監控與密碼作出倫理判斷之前,必須先了解它們在具體情境中的運作方式。第一節將介紹理解不同資料狀態、各種監控形式及密碼相關應用的基本術語;第二節探討密碼龐克針對監控與隱私提出的各種論點,其中梅的密碼無政府主義與阿桑奇的密碼正義均為相關視角,但還會引入其他密碼龐克的聲音,以拓展我們對「弱者享有隱私」的理解。第三節則從資訊與通訊轉向經濟交易,介紹密碼貨幣在弱者享有隱私中的應用。儘管存在眾多密碼貨幣,但此處討論將以比特幣作為代表性例子,以闡明密碼龐克對匿名、無國家的密碼現金的呼籲。雖然真正的匿名仍然難以實現,但密碼龐克在捍衛弱者享有隱私方面,主張使用各種密碼工具。

資料、監控、密碼

為了理解密碼龐克倫理在理解並追求「弱者享有隱私」方面的各種應用,我們必須了解在當代技術環境中,資料、監控與密碼彼此之間的關係。就本討論而言,資料可以定義為任何在數位與電信設備上創建、共享及儲存的資訊、檔案、訊息、媒體或其他內容。這些資料存在於兩種基本狀態。當資料被儲存於某個硬碟中——無論是你個人裝置的硬碟、外接硬碟或 USB 隨身碟,或是由大型科技公司擁有並運營的雲端伺服器——它被視為靜態資料。當資料通過任何規模的網絡從一個裝置傳送到另一個裝置時,則被視為傳輸中資料。這兩個分類是資料的兩種狀態,而非兩種不同類型的資料,因為任何單一數位資料對象都可以被儲存到硬碟中(即屬於「靜態資料」),或通過網絡共享(即屬於「傳輸中資料」)。例如,愛麗絲撰寫並發送一封電子郵件給鮑勃。當該郵件從愛麗絲的郵件帳戶傳送到鮑勃的過程中,該郵件屬於傳輸中資料;但最終,郵件的一份副本被儲存在愛麗絲的已發送資料夾中,而另一份則被儲存在鮑勃的收件箱中,兩者皆屬於靜態資料。

除了具有兩種基本狀態之外,資料還包括兩個基本部分:內容與元資料。資料的內容指的是檔案的實質部分,也就是閱讀或使用的部分;而元資料則是指在不打開檔案閱讀其內容的情況下,可以獲得的有關該資料的資訊。當查看儲存在智慧型手機中的照片時,你看到的是該照片的內容,但同時也可以獲得該照片的元資料——如照片的尺寸、拍攝的日期、時間以及(日益增多的)拍攝地點,而無需打開照片本身。無論是靜態資料還是傳輸中資料,都同時包含內容與元資料。例如,愛麗絲發送給鮑勃的電子郵件包含了她訊息的內容(「約在圖書館見」)以及顯示郵件大小、發送時間與愛麗絲與鮑勃(分別為發件人與收件人)電子郵件地址的元資料。重要的是,元資料可以與其對應的內容分別被複製與儲存。有人甚至可以記錄下愛麗絲在某個時間發送給鮑勃的一封特定大小的郵件,而無需保存郵件內容的副本。如果所有郵件的元資料都被收集,便會形成一個關於愛麗絲與鮑勃通信的元資料數據庫。

除了了解資料的狀態與組成部分外,我們還必須理解兩種基本的監控模式:定向監控與大規模監控。定向監控是指對特定個人或小團體的活動與通訊進行監視的做法。這類監控通常由政府執法機構進行,而在美國,第四修正案被認為規定了政府進行此類監控時必須遵循的標準,例如必須具備合理理由並取得搜查令。另一方面,大規模監控是指對整個人口(無論是國內還是國際)的活動與通訊進行監視。政府機構在獲取電信基礎設施接入權並希望不加區分地收集、儲存及分析整個人口數據時,就會進行大規模監控。企業也會進行大規模監控,特別是那些擁有數百萬甚至數十億用戶的大型科技公司,藉此預測用戶興趣並展示用戶可能點擊的廣告。越來越多地,政府機構與企業在推行大規模監控做法上展開合作。Google、Facebook 及其他科技巨頭一向向政府機構提供其數據庫與雲端儲存伺服器的接入權。

定向監控與大規模監控都可以用來針對任何狀態下資料的內容與元資料。當政府機構進行定向監控時,它們可以搜索個人電腦中的資料內容、從郵件服務中收集個人郵件的內容、從行動通訊商那裡獲取個人電話通話的元資料,甚至安裝裝置以實時窺聽個人電話通話。通過結合對靜態與傳輸中資料內容及元資料的存取,政府代理人能夠拼湊出該個人行為、活動及其交往對象的全面圖像。當政府與企業進行大規模監控時,它們試圖獲取所有相關人員在任何時候的所有可能數據。儘管這些大規模監控組織常常試圖存取資料內容,但元資料往往能提供對更大社會行為模式的更深入見解。

為了在這個現代監控環境中保護資料隱私,我們可以使用兩種類型的加密技術:對稱密鑰密碼與非對稱密鑰密碼。對稱密鑰系統中最常用的數位密碼是先進加密標準(AES),由喬安·戴曼與文森特·瑞伊門開發。AES 的數學運算遠比簡單替換密碼複雜,但簡單替換密碼與 AES 都屬於對稱密鑰密碼,意即加密與解密訊息均使用相同的密鑰。由於 AES 是一種對稱密鑰密碼,它主要用於加密靜態資料,無論是儲存在個人裝置上還是雲端儲存中。與所有對稱密鑰密碼一樣,AES 加密密鑰必須保持秘密。愛麗絲無法安全地將她的 AES 密鑰傳送給鮑勃,因為竊聽者可能攔截該密鑰並用以解密他們所有訊息。

雖然 AES 可用於靜態資料,加密通訊則可採用非對稱密鑰密碼或公開密鑰密碼,以保護傳輸中資料。當愛麗絲通過簡訊向鮑勃發送訊息時,任何能夠接觸到該網絡任何部分的人,包括其行動通訊商,都可以讀取該訊息的明文。這相當於數位版的明信片:任何能看到該明信片的人都可以讀取上面的訊息。為了確保通訊隱私,愛麗絲與鮑勃可以使用加密訊息應用程式及其他程式,共享公開加密密鑰,從而安全地傳遞訊息。這就像使用密封信封寄信一樣——只不過目前尚無已知的數位「開信工具」能夠讓竊聽者打開加密信封。

重要的是,公開密鑰加密有兩種形式。端對端加密(E2EE)用於加密傳輸中資料的內容,同時保留元資料對網絡可見,以便網絡知道將訊息送往何處。端對端加密類似於使用密封信封寄出的信件:郵局無法讀取信件內容,因為其被封存在信封中,但郵局可以讀取所有元資料——包括發件人與收件人的姓名與地址,以及標示寄出時間、日期和地點的記錄。在所有使用端對端加密的網絡中,進行流量分析的人可以看到網絡上所有通訊者的姓名、地址及聯絡資訊,但卻無法讀取任何訊息內容。另一方面,鏈路加密用於加密資料在網絡中傳輸過程中任何特定「連結」上的內容元資料,但這意味著整個訊息(包括內容)必須在每一個中繼點被解密,否則,訊息所經過的伺服器將無法得知下一步應將訊息發送到哪裡。依然以明信片作比喻,這相當於將信件地址放入信封中,並假設郵局會打開信封以取得目的地址。在所有使用鏈路加密的網絡中,所有轉發訊息至收件裝置的伺服器節點都能解密訊息並獲取其內容與元資料,但進行該網絡通訊流量分析的人則無法看到網絡上所有通訊者的姓名、地址與聯絡資訊。因此,在隱私保護上存在權衡取捨。端對端加密使通訊的元資料對網絡開放,同時確保只有指定收件人能夠讀取其內容;而鏈路加密則隱藏通訊的內容與元資料,卻允許每個授權的伺服器節點存取內容與元資料。最終,我們可以使用不同類型的密碼技術來保護我們的資料免受各種形式的監控,但無論我們做出何種選擇,都將面臨一定的權衡取捨。

無政府、正義、隱私

談到弱者享有隱私時,密碼無政府主義密碼龐克與密碼正義密碼龐克之間的一個主要差異在於所要求的隱私程度。例如,密碼無政府主義者如蒂莫西·梅經常談論匿名且無法追蹤的通訊。梅的《密碼無政府主義宣言》中的第二句讚揚了這樣一個理念:電腦技術正處於即將為個體與團體提供完全匿名通訊與互動能力的邊緣。梅認為,「隱私」與「匿名」代表了不同的透明度:隱私使追蹤或監控變得困難,而匿名則使之完全不可能。作為一名密碼無政府主義者,梅認為,隱私總比完全沒有防禦監控來得好,但只有完全匿名才能使個體瓦解政府的權力。他觀察道:「國家將不再能告訴其公民可以獲得什麼,至少當這些公民能透過匿名系統進入網絡世界時。」對梅而言,匿名意味著沒有人應該被強迫透露自己的真實姓名。雖然人們在心理上需要知道與自己互動的人是誰,而政府也因權力而渴望知道誰在與誰進行何種活動,但梅明確表示,只有匿名才能實現密碼無政府主義。梅關於利用密碼技術實現匿名的推測始終僅作為對未來的期望,而非對當前事實的描述,儘管自他首次闡述密碼無政府主義基本理念以來已經過了數十年,完全匿名仍然無法實現。

儘管密碼無政府主義者渴望匿名,但大多數密碼龐克認為隱私已足以抵禦監控;然而,他們主張我們必須重新思考日常使用的科技,從智慧型手機、社交媒體到搜尋引擎。這三種技術均削弱隱私,並促進監控。阿桑奇解釋道:「智慧型手機既是一種追蹤裝置,又具有通話功能。」從使用者角度看,智慧型手機旨在完成通訊任務,如撥打電話與發送簡訊;但從製造商與服務供應商的角度看,智慧型手機則旨在收集有關你位置、行為與興趣的數據。社交媒體監控是智慧型手機功能的延伸,像 Facebook 這樣的應用程式旨在從使用者那裡獲取私人資訊;即便使用者不上傳照片或發佈貼文,他們點擊和滑動的每一個動作都會被追蹤、記錄並永久儲存。正如傑瑞米·齊默曼所指出,Facebook 有意模糊隱私與公開之間的界線,不僅針對使用者上傳的內容,連 Facebook 記錄的行為數據也如此。儘管智慧型手機與社交媒體使大型科技公司具備極端監控能力,雅各布·阿佩爾鮑姆強烈提醒我們,Google——世界上最常用的搜尋引擎——是「史上最強大的監控機器」。Google 已經主導了網際網路搜尋,甚至「googling」一詞已成為指代在網路上搜尋的動詞。實際操作與語言上賦予 Google 這樣的主導地位存在危險,因為與 Facebook 一樣,Google 不僅記錄我們的搜尋查詢,還記錄它所能獲得的所有行為數據,無論是否在 Google 上。一個在智慧型手機上安裝了 Google 與 Facebook 應用程式的人,根本沒有隱私,因為隱私本來就無法設計出來。

與智慧型手機、社交媒體與搜尋引擎類似,雲端儲存作為日常科技使用日益普及,但同時也威脅著隱私。儘管個人與組織可將雲端儲存用於各種用途,但其中最普遍的用途之一是備份智慧型手機的資料。從使用者角度來看,將資料備份於雲端是有幫助的;若手機損壞、遺失或被盜,手機擁有者仍可獲得所有資料。然而,將資料存放在某個伺服器上,意味著使用者的資料容易受到第三方監控與控制。在 NSA 被揭露監控之前,NSA 已被允許存取大多數主要科技公司雲端伺服器中儲存的使用者資料;由於資料未經加密,美國政府能夠秘密讀取每一則訊息、查看每一張圖片並檢查所有元資料。科技公司則掃描所有儲存在雲端的使用者資料,以擴充其對使用者行為模式知識的數據庫。自2013年以來,大多數科技公司對雲端儲存進行加密,但從密碼龐克的角度來看,仍存在問題。如果一個人將手機資料備份於 Google 或 Apple 加密的雲端,但 Google 與 Apple 能夠存取 AES 加密密鑰,那麼該資料仍然不具隱私性。Google 與 Apple 不僅可以在使用者不知情的情況下輕易解密資料,還可能將解密後的資料與 NSA 及其他政府機構分享,而使用者卻毫不知情。此外,科技公司可以聲稱使用者違反服務條款,從而阻止使用者存取其儲存在雲端的資料;這些公司甚至可以刪除使用者資料。因此,安迪·穆勒-馬古恩主張,密碼龐克的角色在於保持系統去中心化,建立自己的基礎設施,而非依賴雲端運算,而是擁有自己的東西。對密碼龐克而言,只有當資料儲存在該資料擁有者所擁有並控制的設備上,資料才是真正的私密。

儘管可以通過不使用社交媒體與雲端儲存來避免其反隱私特性,但通訊與網際網路流量則代表著一個完全不同的挑戰。密碼龐克主張使用具有端對端加密的訊息應用與電子郵件服務,但這些服務僅保障傳輸中訊息的安全,並不提供完全匿名。大多數此類服務要求使用者以真實手機號碼進行認證,因此即使竊聽者無法讀取愛麗絲與鮑勃的電子郵件和簡訊,他仍然可以看到他們在進行通訊及通訊頻率。同樣地,網際網路流量也容易受到監控,儘管現今大部分網路已加密,但仍存在不足之處。現在大多數網站都使用安全超文本傳輸協定進行保護,這意味著你的電腦與網站伺服器之間的所有流量皆被加密;然而,網路服務供應商及其他監控網路流量的機構仍知道你在那個時候訪問了哪個特定網站。隱蔽網路流量的最簡單方法是使用虛擬私人網路。使用 VPN 時,你的電腦或手機會與一台 VPN 伺服器建立加密連線,然後該伺服器轉發你所有的網路流量請求。任何監控網路流量的竊聽者將只看到你裝置與某台伺服器之間的一條加密連線,而無法得知訪問的是哪些網站。另一方面,你訪問的所有網站的伺服器將從 VPN 伺服器收到流量請求,而非你的電腦,從而隱藏你的位置與身份(若你未登入任何帳戶)。與加密電子郵件與訊息服務類似,VPN 並非完全匿名,因為使用者通常需要以真實姓名註冊。更重要的是,儘管你的網路服務供應商與你訪問的網站在監控你方面會遇到更多困難,但 VPN 供應商卻知道你所有的流量。許多 VPN 宣稱能提供完全匿名,並以不記錄活動日誌來推廣其服務,但許多此類服務已被揭露其日誌政策不實。儘管如此,密碼龐克認為 VPN 為網路使用者提供了更高程度的隱私;正如阿桑奇所說:「新網路正建立在網際網路之上——虛擬私有網路,其隱私源於密碼技術。」

比 VPN 更甚,密碼龐克主張使用 Tor 瀏覽器。Tor 項目最初由美國海軍開發,現已成為一個非營利組織,但仍獲得美國政府資金支持。Tor 的名稱來自其縮寫 TOR,意指「洋蔥路由器」。該網絡因此得名,因其依賴多層加密,這些加密層就像洋蔥層般逐層剝開。使用 VPN 時,你的網路流量僅通過一個伺服器節點到達你所訪問網站的目的伺服器;但使用 Tor 時,你的流量會通過三個伺服器節點到達目的伺服器。Tor 流量受到三層加密保護,每當流量通過一個 Tor 節點時,就會解密一層,然後將流量轉發到下一個節點。換言之:連接到 Tor 網絡後,你輸入一個網址。該請求首先送至 Tor 節點 A,在那裡解密一層;節點 A 隨後看到該流量將被發送至節點 B;到達節點 B 時,又解密一層,然後將流量送至節點 C,在節點 C 最後一層加密被解除後,請求被送往目標網站的伺服器。由於節點眾多,無一個單獨的節點能夠掌握網路流量的全部資訊。節點 A 了解你的裝置及節點 B,但不知節點 C 及流量請求的目的地;節點 B 知道節點 A 與 C,但不了解你的裝置與流量目的地;節點 C 知道節點 B 及流量目的地,但不知你的裝置及節點 A。與 VPN 類似,任何監控你裝置連線的竊聽者僅能看到與某個 Tor 節點的連線;而任何監控從節點 C 出站的未加密流量的竊聽者,雖能看到所有流量,但不會知道該流量的來源。

密碼龐克已將 Tor 用於許多項目,包括絲綢之路與維基解密,並主張所有人都應使用 Tor。但 Tor 對於在網絡上登入個人帳戶的人來說,並不提供隱私保護。例如,使用 Tor 之後再登入個人電子郵件帳戶毫無意義,因為一旦登入,你就會暴露身份。對於不登入帳戶的人,Tor 能提供可能是網上最高程度的隱私,但在密碼無政府主義的意義上,它並非完全匿名。距離蒂莫西·梅首次闡述密碼無政府主義願景已過三十年,透過密碼技術實現的匿名性仍然無法達成,但這並未阻止密碼無政府主義者嘗試,亦未阻止其他密碼龐克發展、使用並倡導各種保護隱私的密碼工具。

密碼貨幣作為無政府主義現金

政府和企業日益監控我們的通訊,它們也監控我們的經濟交易。正如大衛·喬姆觀察到的:「正如追蹤通訊系統中的資料能夠將個人與各組織的所有紀錄聯繫起來,因為它們都使用相同的地址,付款資料也能夠將涉及相同帳戶付款的紀錄聯繫起來。」在數位時代之前,大多數交易都是以政府創造、支持和授權的法定貨幣現金形式進行的。(美金、歐元、日圓)使用現金,我們可以在商店購買商品或匿名地支付給朋友或鄰居,因為這些交易不會被記錄在中央帳本中。然而,在數位時代,無論我們是在超市購物還是網上購物,我們常常使用信用卡或借記卡進行支付。儘管這些交易是加密的,可防止竊聽者和罪犯記錄我們的卡號,但它們並不具備隱私性。事實上,它們破壞了現金所提供的隱私,因為多個方——包括你所擁有帳戶的銀行、你進行購買的零售商、促成資金轉移的公司(Visa, MasterCard, PayPal)以及常常還有各種政府機構——都會詳細記錄所購買的商品、消費金額以及交易的時間、日期和地點。鑑於通訊經濟活動同樣容易受到大規模監控的影響,密碼龐克及其他密碼學家研發了各種密碼工具,以在數位時代為弱者實現經濟隱私。最終的成果就是我們現在所稱的密碼貨幣,其中比特幣也許是最具影響力且最為人知的。

密碼龐克走向密碼貨幣的道路並非直線,而是經歷了多次技術與哲學上的演進,起始於大衛·喬姆的研究。隨著電腦變得更加普及,且金融系統數位化網絡化,喬姆意識到,我們的購買習慣能夠揭示許多有關我們的信息:我們的行動與位置、我們的興趣與財產,以及我們的聯繫與商業往來。預見到未來大多數人會透過數位網絡支付商品和服務,喬姆擔心我們的購買記錄會促使大規模監控增加,從而削弱甚至消除隱私。為了開創私密網上購物的方法,喬姆創立了一家公司,名為 DigiCash,該公司允許客戶從銀行帳戶提取法定貨幣到一個加密的數位卡中。該卡隨後可用於網上購物,而零售商無法得知購買者的真實身份,銀行、信用卡公司或政府也無法記錄該交易。芬恩·布倫頓解釋說:「喬姆的 DigiCash 在交易上是匿名的,甚至比紙幣本身更為匿名:一旦從你在銀行的(實名身份)帳戶中提取出來,這筆錢就無法用來將某次購買與你聯繫起來。」在我們目前的經濟體系中,一個人前往網上零售商,輸入他的卡片資訊,並完成購買。而在喬姆的 DigiCash 系統中,一個人會利用他的密碼卡作為銀行與零售商之間的匿名節點,同時繞過那些有意記錄交易的銀行與政府。

儘管喬姆在技術與哲學上的貢獻為密碼貨幣的發展奠定了基礎,但 DigiCash 並非我們今天所認知的密碼貨幣,也未能滿足幾乎普遍存在的密碼龐克對完全匿名、非國家數位貨幣的需求。梅寫道:「喬姆在不可追蹤電子現金方面的工作,激發了人們意識到可以構建一個具備匿名性、不可追蹤性以及附帶無政府資本主義特徵的數位經濟。」然而,喬姆的 DigiCash 只是一種創造現有貨幣臨時數位版本的方式。喬姆主張,DigiCash 為法定貨幣提供了一種保護方法,以防止它們受到全數位競爭的衝擊:「如果我們不能妥善將國家貨幣轉為電子形式,市場將繞過它們並創造出其他貨幣。」但密碼龐克期望擁有其他貨幣。對於像梅這樣的密碼無政府主義者而言,完全不可追蹤的市場與貨幣使個體能夠隱藏他們的財富,從而逃避國家強制徵稅的權力。但即便是不主張密碼無政府主義的密碼龐克,如阿桑奇,也主張創建與使用非國家密碼貨幣削弱了政府的權威,並將權力平衡從強者轉向弱者。根據阿桑奇的觀點,國家權力的實現依賴於對軍事力量、通訊基礎設施與金融基礎設施的壟斷。他解釋道:「如果你剝奪了國家對經濟交易手段的壟斷,那麼你就剝奪了構成國家的三大要素之一。」受喬姆的啟發,密碼龐克努力超越 DigiCash 的限制,創造出完全無國家控制的密碼貨幣。

如今,最具影響力與成功的密碼貨幣是比特幣,其由中本聰以化名所發表的論文《比特幣:一個點對點電子現金系統》首次提出。儘管比特幣的一些技術層面,如「挖礦」、數位簽名與哈希函數,超出本討論範圍,但我們仍可對該貨幣的運作有一個大致的了解。比特幣允許「任何兩個願意的個體直接進行交易,而無需信任第三方」,其原理在於「利用點對點分布式時間戳伺服器生成交易時間順序的計算證明」。比特幣與像美金這樣的法定貨幣之間的首個差異在於帳本。對於美金而言,我們依賴第三方,例如銀行,來維護一個中心化帳本或記錄所有交易。如果愛麗絲從她的銀行帳戶電子轉賬10美元給鮑勃的帳戶,兩家銀行便會確認這10美元的轉移並在帳本中記錄該交易。其他使用美金的人不會知道愛麗絲與鮑勃之間的交易,但銀行會知曉。而對於比特幣這種點對點系統,愛麗絲的幣會直接轉到鮑勃那裡,而不經過銀行。當愛麗絲將10美元的比特幣轉給鮑勃時,該交易會被記錄在一個分布式帳本上,每個比特幣使用者都能讀取,因為每個使用者都有相同的帳本副本。由於不存在中心化的信任系統,因此向所有人提供所有交易的記錄,是讓大家達成共識每個人擁有多少比特幣的唯一方式,而這一切均由密碼技術實現。正如凱斯·馬丁所言,在像比特幣這樣的分布式帳本系統中,「你不需要銀行,因為你和所有擁有金錢的人,就是銀行。」

乍看之下,比特幣的分布式帳本系統似乎不如傳統的中心化帳本隱私,但那是因為比特幣顛覆了傳統帳本的隱私機制。原始比特幣論文解釋道:

「傳統銀行模式透過僅將資訊的存取權限限於相關方與信任的第三方,來達到一定程度的隱私。由於必須公開宣佈所有交易,這種方式無法持續,但仍可以透過在另一處斷裂資訊流的方式來維持隱私:即保持公開密鑰的匿名性。」

比特幣採用了 Diffie 與 Hellman 的公開密鑰密碼技術,但它改變了人們對密鑰的認知。在加密通訊時,愛麗絲會分享她的公開密鑰並告訴大家那是她的,讓人們可以向她發送私密訊息。而在比特幣中,公開密鑰(稱為比特幣地址)並不與擁有者的身份公開相關聯。因此,若愛麗絲向鮑勃發送一枚比特幣,分布式帳本將顯示一個公開密鑰向另一個公開密鑰發送了一枚比特幣,但愛麗絲與鮑勃的名字在帳本中均不會出現。所有比特幣使用者都能看到——並且由於帳本運作所依賴的數學運算而達成共識——一個密鑰向另一個密鑰發送了一枚幣,而不需要知道愛麗絲與鮑勃這兩位密鑰擁有者的真實姓名與身份。因此,比特幣建立在一個系統之上,使用者創建了「匿名帳戶」,但進行的貨幣交換卻是「無條件公開、可追蹤且透明的」。

對於密碼龐克而言,比特幣非常令人興奮且實用,但它未能滿足密碼龐克對匿名交易的要求。與喬姆的 DigiCash 不同,比特幣是一種非國家貨幣。當比特幣使用者進行交易時,他們不會交換如美金等法定貨幣,而是以位元,即密碼數據本身進行價值交換。密碼龐克已經充分利用比特幣。例如,在2011年,當 Visa、MasterCard 及 PayPal 對維基解密實施金融封鎖時,支持者就能並確實以比特幣捐款來繞過這一封鎖。然而,問題依然存在。一個問題是,大多數擁有比特幣的人僅將其用作投資選項,而非用作日常購物的貨幣。另一個問題是,比特幣越來越受到國家法律的管控,這反映了政府試圖控制或規範這種非國家貨幣的意圖。從技術角度看,比特幣不需要身份驗證,但從法律角度看,比特幣使用者必須透露自己的身份才能完全參與比特幣交易。當然,即使沒有強制性身份政策,政府仍能透過模式分析將比特幣交易追溯至參與者:如果愛麗絲可識別的行為與某個匿名比特幣公開密鑰所對應的行為模式吻合,當局很可能會斷定該密鑰屬於愛麗絲。密碼龐克意識到這一點,他們希望密碼貨幣能夠繼續演進,成為真正匿名的系統。

就他本人而言,梅對比特幣的發展方向感到震驚。他說:

「我無法代表中本聰的原意,但我肯定不認為那會涉及具有嚴苛規則的比特幣交易所……以及關於向當地秘密警察報告『可疑活動』的法律。真有可能,所有關於『治理』、『規範』與『區塊鏈』的喧囂最終會實際上創造出一個監控國家,一個檔案社會。」

換句話說,政府對比特幣進行規範的努力,加上比特幣管理者的合作意願,意味著比特幣可能會成為一種監控工具,這與中本聰的原意背道而馳。梅總結道:「抱歉,如果這破壞了故事情節,但我認為這個故事已經亂了。中本聰做了一件出色的事,但這個故事遠未結束。」

結論

儘管密碼無政府主義者對於完全匿名且無法追蹤的通訊與交易的夢想依然遙不可及,但這並未阻止密碼龐克持續倡導弱者享有隱私。無論是開發或使用像 Tor 或比特幣這樣的密碼工具,密碼龐克都堅持在最大化數位資訊時代效益的同時,盡可能降低監控帶來的威脅。當然,鑒於政府與企業採取反隱私立場,掌權者不斷試圖嚇阻公眾,以換取某種模糊的安全感。每當密碼技術廣泛用於捍衛隱私時,反隱私宣傳便會激增,出現有關恐怖分子、綁架者、洗錢者、毒販的故事——或正如密碼龐克戲謔地稱之為「資訊末日的四騎士」。這類煽動恐懼的策略往往十分奏效,因為正如梅所觀察到,大多數人會在「這不關你的事」與「我沒什麼可隱藏的」之間搖擺,即使那些堅持隱私的人,有時在「資訊末日的四騎士」出現時也會屈服。

密碼無政府主義者主要致力於推進一種個人主義、自由意志主義式的反抗強制國家的自由觀念,而密碼正義密碼龐克則更關注國家與區域層面的社群自主決定。這類密碼龐克主張,弱小國家可以利用密碼技術抵抗西方強權的帝國政策。在這一點上,無政府與正義之間的區別極為關鍵,因為西方強權不僅對拉丁美洲、非洲及亞洲那些曾受殖民的小國公民進行大規模監控,還利用大規模監控配合武裝無人機實施致命打擊。當我們將「弱者享有隱私」的概念擴展到考量種族與殖民主義暴力時,我們便會發現,隱私與監控不僅僅關乎誰的電子郵件在不告知的情況下被讀取;對於帝國的受害者而言,這關係到生死存亡。

更重要的是,最大的、最具權力的監控機構——國家安全局、Google、Facebook——同時也是最為隱秘的。正如亞當·摩爾所提醒,「權力的一個標誌是有能力要求他人披露資訊,同時自己卻能將資訊保密。」因此,密碼龐克要求弱者享有隱私,不是因為他們將隱私視為某種模糊的權利,而是因為隱私能夠改變權力平衡,讓個人、社群與小型組織佔據上風。同樣,許多密碼龐克也要求強者必須受透明監督,積極揭露那些掌控著二十一世紀政治與經濟機構秘密的人士的內幕。

引言

在上一章中,我們探討了蒂莫西·梅與朱利安·阿桑奇的後設倫理哲學。在本章中,我們將進一步延伸對密碼無政府主義與密碼正義的探索,從這些密碼龐克哲學所提供的政治哲學角度來審視國家。密碼無政府主義與密碼正義各自提出了描述國家現狀的理論以及規範國家應有面貌的理論,儘管它們對政府的「現狀」與「應有狀態」存在分歧。

為了更好地理解梅與阿桑奇的密碼龐克國家理論,將它們置於國家社會契約論的脈絡中會有所幫助。社會契約論或許是現代英語哲學中最具影響力的政府理論,而梅與阿桑奇的政治哲學在許多方面都是對社會契約論的回應與轉化。根據社會契約論,當個體聚集成群並同意建立一個機構——政府,以制定並執行所有人共同遵守的規則時,政府便由此形成。該理論認為,人們之所以同意這種安排,是因為在沒有政府的情況下,生活相當危險且不便。若不投入大量時間與精力於自衛措施,個人的生命與財產便難以保障;契約若因對方決定不履行而無法強制執行,爭端也難以解決,因為既沒有一致認可的程序,也沒有公認的爭議決定權威。因此,人們便締結社會契約,建立一個能夠執行法律、保護生命與財產,並設立法院以和平仲裁爭端的政府。社會契約論者認為,這樣的政府之所以合法,是因為人民已同意成立政府——被治理者的同意是政府合法性的唯一依據。基於此,許多版本的社會契約論主張,當現有政府違反社會契約條款、從而失去人民的同意時,人民就有權廢除該政府並建立新政府。儘管社會契約論者對政府適當形式存在分歧,但在當代西方社會中,社會契約政府通常依據憲法建立——一份闡明了公眾所認同的政府基本規則與結構的文件——並呈現出代議制民主的形式,公民定期選舉官員,由其代替公眾制定與執行法律。

正如下文所述,梅與阿桑奇對社會契約政府的理論與實踐採取了截然不同的回應。社會契約論為政府的形式合法性提供了解釋,即憲法式代議制民主與被治理者的同意。梅接受社會契約觀點,認為政府通常依據憲法建立並以代議制民主運作;但作為密碼無政府主義者,他主張任何政府都具合法性,即便是那些已獲得「被治理者同意」的政府也不例外。相反,阿桑奇則認同政府只有在人民同意下才具有合法性這一觀點,但作為密碼正義的倡導者,他主張,任何依賴隱秘手段達成其目的的政府,都是專制的,因此不具合法性,即便其表面上呈現代議制民主的形式亦然。換言之,梅堅持傳統的政府觀念,但否定傳統對政府合法性的認定;而阿桑奇則堅持傳統對政府合法性的認定,但否定傳統對政府本質的理解。因此,密碼無政府主義與密碼正義對國家的觀念截然不同。密碼無政府主義借鑒無政府資本主義的政治哲學,主張任何政府都不具合法性,並認為密碼是邁向由志願性虛擬社群構成的自由意志主義社會過渡中的必要工具;而密碼正義則依據控制論的系統理論,主張政府實際上是透過資訊控制來集中權力的計算網絡,並認為密碼是恢復權力平衡、使權力更傾向於個人及公眾的必要工具。

密碼無政府主義與自由意志主義社會

如果非強制原則是密碼無政府主義倫理的核心原則,那麼在政治領域中,密碼無政府主義便拒絕任何本質上具備強制性的制度的合法性。對於密碼無政府主義者以及那些從中獲得啟發的無政府資本主義者來說,唯一本質上具備強制性、因此根本不具合法性的社會機構便是政府。與其密碼無政府主義後設倫理相似,蒂莫西·梅的密碼無政府主義國家理論直接借鑒了大衛·弗里德曼的無政府資本主義,主張所有政府皆不具合法性,因為政府都依賴於對合法化武力使用的壟斷。兩者均認為,與其受政府強制支配,不如完全依靠市場關係治理,而市場關係本質上是自願且自由的。雖然梅與弗里德曼都主張社會應從以國家暴力組織轉向以自願市場交易組織,但梅在無政府資本主義哲學上作了調整,認為密碼技術能且應在過渡到自由意志主義社會的過程中發揮作用。由於私人使用密碼技術可將權力平衡從政府暴力轉向個人自治,梅預測密碼技術將透過限制政府在身份認證、課稅與通訊方面的權力,進而削弱國家權力。梅總結認為,密碼無政府主義的結果將是虛擬社群的崛起——這些社群是完全自願組成,存在於網絡空間之中。梅提醒我們,國家政府不會一蹴而就地崩潰,因此密碼技術在一段時期內能使虛擬社群與政府並存;然而,最終他希望虛擬社群(與政府不同,它們符合非強制原則)能徹底取代國家,成為社會、經濟與政治組織的基本單位,從而迎來一個自由意志主義自由的時代。

梅的基本政治理論在很大程度上源自大衛·弗里德曼的無政府資本主義。弗里德曼主張,我們可以根據政府與市場各自運作的邏輯來區分它們。一方面,他將政府定義為「合法化強制的機構」,該機構干涉人們自由選擇經濟與社會交往對象的權利。弗里德曼認識到,政府並非社會中唯一的強制力量,但他指出,人們往往只視政府的強制為合法的強制力量。他寫道:「區分政府與其他強制機構(如普通犯罪集團)的特殊特徵在於,大多數人將政府的強制視為正常且適當。當同一行為由私人個體實施時被認為是強制性的,但若由政府機構執行則被視為合法。」但正如犯罪暴力並無正當功能一樣,弗里德曼認為「政府也沒有正當功能。」另一方面,弗里德曼將市場定義為「在自由社會中透過互惠交換所達成的合作」。與政府的邏輯不同,市場法則不容許強制介入;在市場中,所有互動皆純粹出於自願。因此,弗里德曼得出結論:廢除政府並以自願市場關係規則取而代之,將有助於促進人類自由。由於政府本質上違背了非強制原則,而市場則天生不具強制性,弗里德曼因此強烈主張「真正的敵人是政府」。

弗里德曼對政府與市場的觀念,加上他對非強制原則的堅持,使他拒絕極小國家主義——一種非無政府主義的自由意志主義國家理論,主張極小政府在道德上是正當的。羅伯特·諾齊克則提出廣為人知的極小國家辯護,認為 > 極小國家僅限於防止武力使用、盜竊、詐騙、契約執行等狹隘職能是正當的;任何擴張的政府都會侵犯個人免受強迫從事某些行為的權利,因此不正當。

在這種「守夜人」式的政府觀念中,政府唯一合法的職能是法院(仲裁)、警察(執法)與軍隊(國防)。弗里德曼不僅因為極小國家仍然違背非強制原則而拒絕諾齊克的極小國家理念,還認為所有那些政府職能都可以透過市場機制以非強制方式提供。在一個無政府資本主義社會中,法院將由仲裁機構取代,警察由權利執行機構取代,甚至軍隊也能由國防機構取代;個人可自願選擇支持自己青睞的仲裁、執法與防衛機構,意味著所有互動皆不帶有強制性。儘管弗里德曼承認向無政府資本主義社會過渡並非沒有問題,但他相信,這些問題將被普遍自由增加所帶來的利益所抵消。

依據弗里德曼的觀點,梅主張所有政府皆不具合法性,並認為只有自願且以市場為基礎的交易與互動,才是唯一合法且自由的結合方式。梅將這些觀點置於二十世紀末美國的歷史背景中,並強調技術變革在其分析中的作用,主張美國憲法——尤其是權利法案——是若必須屈服於極小政府時所能擁有的最佳政府形式;但隨著電子與數位通訊技術帶來的大規模監控能力,梅認為美國政府「已經遠遠超出了憲法制定者可能曾有的任何概念」。梅指出:「在一個自由社會中,很少有個人秘密是必須公開的。不幸的是,我們長期處於政府堅持要求人們提供真實姓名、各種身份證號、醫療狀況等信息的情況。」在梅看來,計算機數據庫的日益普及代表著向專制政府轉變的趨勢。在這樣的監控社會中,政府要求掃描身份證,並監控所有使用電子系統(如借記卡或信用卡)進行的經濟交易。梅主張:「政府喜歡介入身份問題,因為這能賦予它們額外的控制力」,並補充說,政府通常利用監控權力來控制公民,而不是用來抓捕罪犯與恐怖分子。當將梅對技術驅動監控國家的批判置於其無政府資本主義承諾背景下理解時,很明顯,他認為曾經作為極小政府的美國政府正被轉變為「一個極權監控國家」,其藉由瞭解每位公民的一切來增加其強制力。

在梅的著作中,我們不僅能感受到弗里德曼著作中所缺乏的緊迫感,還看到他將衝突的戰場從政治與經濟領域轉移到了技術領域。梅主張,西方社會在二十一世紀初正面臨著一個「階段性轉變」,因為人們必須在兩種互斥的文明形態之間作出選擇:「監控國家」或「自由意志主義或無政府資本主義國家」。梅宣稱:「根本性的戰鬥已經展開,這是大政府與自由以及密碼無政府主義力量之間的對抗。」與密碼龐克偏好以技術解決方案取代立法解決方案相一致,梅指出:「對於自由意志主義者而言,強大的密碼技術將成為避免政府干預的手段。」梅進一步補充說:「政府顯然害怕強大的密碼學技術落入民眾之手,」因為密碼技術的匿名化能力使個人能夠參與「完全無法追蹤的市場」,並聚集起「超出政府掌控範圍的財富」。依梅所見,密碼技術為個人提供了一種避免稅收強制與強迫身份認證的方法;它還使得「實際上自由地讀寫所願」成為可能。因此,梅解釋道,密碼技術「改變了世界傳統的『關係拓撲』,使得多元化的互動能在無外在政府監管、課稅或干預的情況下得以實現。」

與弗里德曼一樣,梅也承認國家政府在近期不太可能消失,但他主張,在此期間,密碼技術的應用使得個體能在網絡空間中過著無政府資本主義式的生活。他解釋說:「密碼無政府主義是無政府資本主義在網絡空間中的實現,超越國界,並使個體能夠以自願方式作出其希望達成的經濟安排。」雖然弗里德曼認為自由意志主義者可以通過教育公眾以及在政治與經濟領域「發展替代機構」來推動社會朝向無政府資本主義發展,但梅則主張,密碼技術將使執法與稅收徵管變得困難,使國家邊界更難以監管與保護,並使資料能夠迅速、廉價且匿名地在全球流動,從而推動社會邁向無政府資本主義。梅寫道:「這對個人自由的影響當然是深遠的。國家將不再能告訴其公民他們能接觸到什麼,至少當這些公民能透過匿名系統進入網絡世界時。」

隨著密碼技術的廣泛應用及政府逐漸衰弱,梅預見未來國家將被一種全新的社會組織形式——虛擬社群——所取代。梅定義道:

「虛擬社群是由個體或群體所構成的網絡,它們不一定在地理上彼此緊密相連。『虛擬』意指非物質性的連結,但不應被解讀為這些社群就比傳統實體社群缺乏社群性質。」

他觀察到,隨著網際網路的興起,人們逐漸放棄對地理性社群的忠誠,愈來愈多地認同自願加入的網絡社群。虛擬社群應將密碼技術視為一個必要工具,因為唯有依靠密碼技術,這些社群才能對外部保持不透明,從而維持其自治;虛擬社群越透明,就越容易受到外部影響與控制。梅認為:

「企業就是虛擬社群的一個典型例子——它擁有分散的營運據點、私人通訊渠道(通常外界,包括政府當局均無法接近)、自身的安全部隊與懲罰系統(在一定範圍內),以及其獨立的目標與方法。」

與其他虛擬社群相似,企業僅由自願參與者組成,並且只與其他虛擬社群進行自願性的聯繫。梅補充說:「這樣的虛擬社群無疑遠多於國家,而連結它們的紐帶大多比沙文主義的民族主義衝動來得更強烈。」正如大衛·弗里德曼追求一個以市場關係為基礎且符合非強制原則的未來社會組織,梅則預見一個未來,在那裡虛擬社群取代國家,成為社會、經濟與政治組織的基本單位;他預測:「虛擬社群正在崛起,取代傳統的國家概念,」並暗示虛擬社群是「具有真正結社自由的自願經濟與社會關係」在數位世界中的體現。

最終,梅的密碼無政府主義願景否定了民主與法治這兩種作為強制性政治框架的體制,而是將絕對個人自治視為核心政治價值。梅寫道:

「在密碼無政府主義之下,個體獲得了自主決定何為正確何為錯誤的能力,並能隨心所欲行動,選擇加入自己所希望的虛擬社群,支付所需服務的費用,並無視民主大眾的意志。」

對梅而言,密碼無政府主義使得無政府資本主義者能夠實現自願且以市場為基礎的互動,因為在此情境下,只有經雙方同意的交易才是可能的。透過將通訊與交易屏蔽於民主監督之外,密碼技術防止了社會對偏離大眾者過度施加多數統治;或如梅所言,「密碼無政府主義基本上破壞了民主:它將行為與交易排除在暴民的視野之外。」儘管梅承認強制性政府在近期不會消失,但他仍主張,當個體開始利用密碼技術重獲自治時,政府在執法與徵稅方面的權力將受到嚴重限制;隨著人們以參與虛擬社群來取代對國家的自豪感,國家將逐漸衰弱,而個體在社會、經濟與政治上將獲得更多自由。梅總結道,儘管密碼無政府主義不一定會摧毀政府,但在那些即便看似自由的政府也逐漸演變成極權監控國家的時代,它確實為自由意志主義自由創造了空間。

密碼正義與控制論國家

儘管密碼無政府主義旨在摧毀政府並以虛擬社群取而代之,密碼正義則旨在破壞那些陰謀論式、專制的政府,並將其替換或轉型為正義且富有人性化的政府。正如芬恩·布倫頓所指出,朱利安·阿桑奇——密碼正義的主要倡導者——「並非美國右翼所幻想的那位虛無主義、摧毀文明的人物(他們似乎終於找到了他們那貧乏世界觀下所期盼的邦德反派)。」相反,阿桑奇的政治立場是一種「控制論政治」,他主張創造並維持「內建的、自我修正的反饋迴路」,將推動社會朝向透明制度與準確資訊,因為陰謀式保密所帶來的代價過於高昂。與此同時,蒂莫西·梅則將其後設倫理與政治理論皆源自無政府資本主義;而阿桑奇則在後設倫理上與美德倫理及浪漫主義傳統相契合,並在政治理論上借鑒了控制論與傳播學。如果密碼正義的主要後設倫理觀點在於,不公正的社會往往會摧毀人類天生具有的正義美德,那麼其政治理論便是運用控制論國家理論來診斷不公正社會中的權力機構。該理論接受社會契約觀點,即只有當國民自願同意統治時政府才具合法性;但它拒絕僅憑憲法與選舉存在就能使國家合法的觀點。相反,阿桑奇的控制論政治理論將政府——以及企業與帝國——視為計算型資訊網絡,這些網絡可以是開放的、因此正義,也可以是隱秘的、因此專制。阿桑奇主張,密碼技術正是抵抗、改造和取代專制政府的那個關鍵工具,因為它使個人與團體得以重新掌控資訊流,從而瓦解現代國家對資訊收集與流通的壟斷。

阿桑奇的政治理論始於一種基於「資訊即權力」觀點的社會契約論詮釋。他認為,政府只有在其統治者獲得國民自由同意的情況下才具合法性,但他拒絕認為憲法存在與定期選舉就構成了有意義的同意。相反,他認為同意的實現依賴於獲得相關且必要的資訊;換言之,同意是認識論上的,而非僅僅程序上的。隨著現代西方政府變得愈加隱秘,其合法性也日益減弱。正如阿桑奇所寫:

許多現代國家忘卻了它們是建立在啟蒙運動原則之上的,忘卻了知識是自由的保證,也忘卻了任何國家都沒有權利將正義當作僅僅是一種權力的恩惠來施予。

阿桑奇主張,政府的保密性與其合法性呈反比:政府越隱秘,其合法性就越低。正如哲學家約翰·斯圖亞特·密爾曾問道:「在沒有公眾曝光的情況下,公眾又如何能監督或促進那些他們無法得知的事物呢?」從這個觀點來看,如果公眾對政府幕後的作為一無所知,那麼他們便失去了給予同意的機會。阿桑奇因此總結說:「資訊讓我們獲得自由,因為它使我們能夠質疑那些我們原本無法質疑、沒有權利回應的行動。」

為了分析當代政府的合法性或不合法性,阿桑奇強調,我們必須了解「現代通訊國家」如何控制資訊流通以謀取自身利益,這一過程他稱之為「陰謀」。根據阿桑奇的定義,當一個機構的成員「秘密制定計劃以共同實施有害行為」時,即存在陰謀;他認為,陰謀並非政府的專制偏差,而是維持或加強專制權力的主要規劃方法。正如美國政府聘請數學家以連接圖的形式解析恐怖組織,阿桑奇將此連接圖模型應用於政府,主張這使我們能理解政府本質上是利用保密來達成其目的的資訊處理網絡。為闡明這一方法,阿桑奇提供了以下視覺化示例:

「首先隨意將幾個釘子(陰謀者)釘入一塊板上;接著取一條繩子(通訊),將其從一個釘子繞到另一個釘子,且不中斷。將連接兩釘的繩子稱為一個連結……再想像在某些釘子間有一條粗重的繩索,而在其他釘子間則有一條細輕的線。將連結的重要性、厚度或重量稱為其『權重』;對於那些從未互通訊息的陰謀者之間,其權重為零。」

儘管各國政府之間的陰謀網絡規模與形態各異,阿桑奇主張這一基本模型可應用於所有國家——無論是中國的共產主義政府,或是美國的「自由民主」政府——以理解其所採用的隱秘程度,從而判定其所宣稱合法性的範圍。

正如計算機網絡依賴資訊的輸入與輸出運作,通訊型國家則透過收集、處理與輸出資訊及行動來運作。控制論之父諾伯特·維納曾指出:「任何有機體都是由獲取、使用、保留與傳遞資訊的手段所構成……」阿桑奇運用類似見解於現代西方政府,他認為:

「陰謀會將其運作世界的資訊(即陰謀環境)收集起來,通過陰謀者間傳遞,並依據結果採取行動。我們可以將陰謀視為一種裝置,其具有輸入(關於環境的資訊)、計算網絡(陰謀者及其彼此間的連結)以及輸出(旨在改變或維持環境的行動)。」

一旦我們理解政府本質上是一個資訊處理網絡,阿桑奇認為我們就能更清楚地認識當代政治體系的本質。例如,有些民主政府的捍衛者認為,大規模監控——即監視並記錄整個地區、國家乃至全球人口的活動與通訊——是一種異常現象,可通過立法改革予以糾正;但阿桑奇的控制論國家理論強調,政府若無法全面掌握其環境資訊,就無法有效運作,因此大規模監控正是現代計算型國家的不可或缺之處。

此外,控制論國家模型並不受傳統國家地理界限的限制,這也是阿桑奇借鑒哈羅德·英尼斯著作,主張不僅國家政府,連帝國政府也以計算網絡運作的原因。作為傳播學的創始知識分子之一,英尼斯認為所有傳播媒介皆天生具有偏向時間或空間的「偏向性」:前者促成時間持續性,後者促進社會的地理擴展。英尼斯指出,古代帝國以石刻文字可持續數千年,因石材耐用;但石材運輸困難,使得這些帝國難以迅速擴展。隨著莎草紙等更具流動性的媒介出現,帝國能更有效進行地理擴展,但卻犧牲了持續性。在現代,英尼斯注意到,西方帝國尤其是美國,利用電報、電話、廣播、電視以及網際網路實現了前所未有的地理擴展,但卻因此犧牲了時間上的持久性,使其易受不穩定力量影響。與古代帝國試圖在空間與時間偏向媒介間取得平衡不同,現代帝國如美國則依賴官僚制度與暴力來達成穩定與持續。英尼斯曾評論美國帝國,指出「無盡的行政活動」與「組織化武力」的結合,用以在傳播媒介無法實現穩定的情況下,確保其穩定性。

將英尼斯二十世紀中葉的分析延伸至數位時代,阿桑奇觀察到美國——「世界上唯一剩下的帝國」——不僅利用數位媒介達成地理擴展,還藉由官僚制度與暴力來確保其持續性。濃縮英尼斯的核心見解,阿桑奇寫道:「利用傳播來結構化管理一個擴展的文化與經濟體系,是帝國的標誌。」正如英尼斯指出,空間偏向的媒介使得地理上廣闊的帝國成為可能;阿桑奇認為,「識字率與傳播革命賦予陰謀者全新的共謀手段,加速了他們互動的準確性,從而使陰謀在瓦解前所能達到的規模最大化。」數位傳播網絡使美國政府得以將使館大使、中央情報局的特工以及國家安全局的分析員連接起來,構成一個高效的全球傳播網絡;儘管美國藉此實現地理擴展,但卻依賴官僚與暴力來確保持續性。阿桑奇指出,美國利用監控與資料分析「整合流入的情報」,並以軍事化的官僚體系「迅速將決策向外投射」。從這一觀點來看,美國不僅掌控著全球網際網路的結構,更擁有史上最昂貴且規模龐大的軍事基地與武器網絡,這絕非巧合。用英尼斯的語言來說,美國帝國的傳播媒介具有空間偏向,而美國並未以時間偏向媒介來補充這些,而是以龐大的暴力機構來彌補。

重要的是,阿桑奇將他對計算型網絡的分析不僅局限於國家與帝國,還擴展至企業。他明確表示:「我看不出政府、大企業與小企業之間有什麼區別。這一切都是一個連續體;這些系統都在試圖獲取盡可能多的權力。」正如政府會收集、處理其環境數據並據此決定行動一樣,企業也如此。但阿桑奇迅速提醒我們,儘管理論上區分政府與企業有其用處,然而在現實中,兩者日益相互聯結,界限變得模糊。美國便是一個明顯的例子:一方面,政府在許多方面為企業服務,例如進行經濟間諜活動以監視外國企業,使美國企業獲得資訊優勢;另一方面,矽谷的大型科技公司——尤其是 Google、Facebook 與 Twitter——通過追蹤所有用戶數據,並與國家安全局共享這些數據,充當了政府監控機構的延伸。阿桑奇指出,這種關係並非偶然,連 Google 前執行長埃裡克·施密特也曾與前國務院顧問合著一本書,主張「科技產業可能成為美國對外政策的一個強大代理人。」他解釋道,施密特的書毫不掩飾地宣稱,Google 不僅可以幫助美國政府監控整個外國人口,還能以更友善的國家元首替換那些不合作的外國政府。阿桑奇總結道,公私部門之間的界線已經模糊,而企業——尤其是大型科技公司——在許多方面都是陰謀計算網絡的延伸。

正如蒂莫西·梅主張,西方民眾如今面臨一個由密碼無政府主義或者極權主義定義的未來,阿桑奇則認為全球民眾將面臨一個由密碼正義或「跨國監控反烏托邦」所塑造的未來。由於美國政府能夠監控全球所有人,通過持續的軍事行動強加其意志,選擇外國政府領袖,並利用矽谷的力量達成這一切,阿桑奇主張,

世界正面臨一個跨國監控國家的發展——一個充斥著無人機、由跨國精英構成的新型網絡化新封建體制;這並非傳統意義上的,而是一種由各國精英拋開本國基層,彼此結合所形成的複雜多方互動。所有通訊都將被監控、永久記錄、永久追蹤,每個人在所有互動中都會被永久識別為這個新建制中的個體,從出生到死亡……這一體系還將伴隨著一場無人機軍備競賽,徹底消除我們所知的明確邊界,因為這些邊界源自物理線條之間的爭奪,最終導致一種持續戰爭的狀態,當贏得影響力的網絡開始向世界索取讓步時,人們則會被淹沒在官僚體制那無法破解的複雜計算中。

儘管這樣的未來看似陰森,阿桑奇主張它並非不可避免,因為密碼技術使個人與公眾能夠抵抗跨國監控反烏托邦的發展,並在國內外實現密碼正義。他指出,「一個無法思考的專制陰謀,對其所引發的反對者毫無自保之力」,因此,他呼籲利用密碼技術對控制論國家的「陰謀認知能力」發動兩種攻擊:遮蔽限制。阿桑奇認為,一方面,密碼技術可以破壞陰謀收集環境資訊的能力,使其失去洞察力;換言之,密碼技術使活動人士能夠「透過扭曲或限制其可獲得的資訊」來遮蔽陰謀。由於加密通訊與交易網絡免受監控,無論本國公民還是外國人士皆可利用密碼技術削弱專制政府監控與記錄其活動的能力;若控制論國家無法透過大規模監控或其他資訊收集方式,了解其環境中其他行動者的行為、思考與計劃,則它既無法知曉,也無法預測這些行動,陰謀網絡將因此難以高效運作。這一原則同樣適用於國際層面。阿桑奇寫道:

「密碼技術不僅能保護個人的公民自由與權利,還能保護整個國家的主權與獨立、共同理想團體之間的團結,以及全球解放的事業。它可以用來對抗的不僅是國家對個人的暴政,還有帝國對較小國家的暴政。」

因此,美國公民可以利用密碼技術防禦本國政府的監控,而全球南方那些仍受美國帝國壓迫的弱小國家,也能利用密碼技術自保。

除了利用密碼技術遮蔽陰謀之外,阿桑奇還指出,同樣可以利用密碼技術對陰謀進行限制。所謂「限制」是指收縮那些連接總陰謀力量相等區域之間重量較大的連結;換言之,當一個控制論國家的內部通訊渠道受阻或失效,其通訊速度便會受到限制。由於只有陰謀內部人士具備限制內部通訊的能力,阿桑奇堅持必須迫使這些內部人士採取行動,而迫使他們限制自身通訊網絡的最佳方法就是「煽動一場全球大規模洩漏的運動」。當然,所有數位通訊都會留下痕跡,包括洩露文件的傳輸;但如果那些目擊不義行為與計劃的內部人士,通過加密通道匿名洩露文件,那麼其他陰謀參與者就會越來越難以追查洩漏來源。正如布倫頓所解釋:

「如果陰謀中有人洩露資訊,且該資訊以匿名方式公開,那麼整個網絡中的每個人都會變得可疑;即便不是因為洩露,也會因安全疏忽而被懷疑。如果關鍵節點因此停止溝通,或因擔心被揭露而使對話受到極大限制,導致其連結重要性大幅下降,你就不需要去中和這些關鍵節點。」

回到前述以釘子與繩子在板上的示例,洩露文件的效果在於迫使陰謀開始切斷自身連結,「從而使其變得更愚蠢、更遲鈍、更微小。」匿名洩漏降低了陰謀內部的信任水平,當陰謀者彼此間信任下降時,他們之間的溝通自然也會減少。

最終,阿桑奇呼籲密碼正義,即利用密碼技術來抵制政府與企業的大規模監控,並為那些意圖從陰謀內部洩露文件的人提供匿名通道。密碼正義的目標並非摧毀政府本身,而是推動正義政府的實現。在現代西方,政府與企業對自身行動日益隱秘,卻同時要求對他人行動保持更高的透明度。所有政府都在日益監視其國民,而帝國則監控從本國公民到整個外國人口的所有人。阿桑奇主張,一旦我們將政府、帝國與企業視為處理環境數據並輸出行動以維持及增強權力的計算型網絡,密碼技術便成為挑戰現有權力關係的最重要工具。一方面,個人可以利用密碼技術規避大規模監控,全球南方國家也能借此抵抗如美國這般的帝國支配;另一方面,建立匿名文件洩露通道則能使內部人士揭露陰謀網絡的不義行徑,從而破壞這些網絡的運作。隨著洩露文件日益增多,公眾將重新獲得決定是否同意其政府的機會,並得以重新判斷其政府是否真正合法與正義。

結論

梅的密碼無政府主義與阿桑奇的密碼正義分別提出了不同的國家理論,它們各自回應社會契約論並受各自後設倫理觀點的影響。作為密碼無政府主義的主要倡導者,梅主張所有政府皆不具合法性,因為它們均違反非強制原則。他認為民主並不比獨裁更理想:後者依賴於一人專制,而前者則依賴於多數暴政。梅藉由弗里德曼的無政府資本主義得出結論,只有市場安排能夠維護非強制原則,因為所有市場安排都是嚴格自願的。在梅看來,密碼技術代表著解決政府權威問題的技術方案,因為它使個體之間的通訊與交易對國家安全、執法與稅務機構完全不透明。他讚揚虛擬社群作為自願參與與結社場所的出現,並雖然承認這一過程可能緩慢,但他預測未來將出現一種情景,即自由組織的虛擬社群取代了武斷且具強制性的國家。

作為密碼正義的主要理論家,阿桑奇則主張,當公眾同意政府時,該政府才具合法性,但他堅持公眾必須對政府活動擁有完整且持續的認識,才能使這種同意具有意義。阿桑奇借助控制論和英尼斯的傳播理論,認為我們必須將政府視為一個處理資訊並執行行動的計算網絡。這類控制論政府旨在國內外達到全面的資訊掌握,其隱秘網絡不僅包括公私合作,還包括大國對小國、弱國的帝國統治——尤其是美國。在阿桑奇看來,密碼技術正是解決政府和企業保密問題的技術方案,因為它使內部人士能夠洩露大量有關有害政策和計劃的數據,從而為公眾提供對公共與私營機構更完整的認識。儘管阿桑奇不一定預見人類在全球範圍內能達到完美正義的未來,但他讚揚密碼技術使追求正義和減輕帝國主義成為可能。

儘管密碼無政府主義與密碼正義代表了兩種非常不同的密碼龐克倫理版本,但它們都認為密碼技術是一種促進良性互動的工具,只是在各自獨特的方式上展現。對梅來說,密碼技術的良性作用在於其能夠限制強制性權力,同時促進自願結社,從而推動社會朝向自由意志主義方向發展;而對阿桑奇而言,密碼技術的良性作用則在於它能夠破壞政府與企業的保密性,進而促進正義而非不公的政策與行動。儘管他們對理想社會國家的觀念存在分歧,但他們均認同密碼技術是實現此類社會不可或缺的工具。

同樣地,密碼無政府主義與密碼正義均與密碼龐克的原則「弱者享有隱私,強者必須透明」相容——只是方式大不相同。密碼無政府主義重視弱者的隱私,因為這賦予個體抵抗政府強制的能力,同時將強者的透明視為加密網絡的一種附帶現象;而密碼正義則重視強者的透明,因為這能破壞陰謀型機構對整個群體造成的傷害,同時將弱者的隱私視為一種補充手段,以賦予公眾對抗專制政府、帝國國家和貪婪企業的力量。正如後續章節所示,密碼無政府主義與密碼正義為我們提供了兩種截然不同的「弱者享有隱私,強者必須透明」的觀念。

引言

所有密碼龐克都相信,密碼技術有改變社會的力量,能使社會變得更好,但他們對「更好」的定義並不完全一致。密碼龐克在倫理觀點、政治意識形態和整體價值體系上各不相同,本章及下章將通過探討兩位標誌性的密碼龐克知識分子——蒂莫西·梅(Timothy May)和朱利安·阿桑奇(Julian Assange)——的截然不同的哲學世界觀,凸顯這種思想上的多樣性。梅是密碼無政府主義的思想創始人,這一密碼龐克哲學流派主張使用密碼技術推動無政府資本主義的生活方式。1990年代的許多早期密碼龐克在某種程度上是密碼無政府主義者,這一傳統至今仍在延續,尤其在那些對密碼貨幣感興趣的人中間。儘管阿桑奇身處澳大利亞,與加州的運動發源地距離遙遠,但他參與了最初的密碼龐克郵件列表好幾年。雖然在最初的十年裡,他在密碼龐克圈子中相對不為人知,但在創建維基解密後,他成為了公認的領軍密碼龐克的知識分子。儘管梅和阿桑奇都是擁護密碼技術的密碼龐克,阿桑奇的觀點在許多方面與密碼無政府主義的意識形態相對立。梅和其他密碼無政府主義者希望利用密碼技術來推動無政府資本主義理想,而阿桑奇則主要關注利用密碼推動正義。本文將使用「密碼無政府主義」和「密碼正義」這兩個術語來闡明梅和阿桑奇各自密碼龐克倫理觀中的哲學分歧。

下一章將涵蓋梅的密碼無政府主義和阿桑奇的密碼正義中關於國家理論的內容,而本章將探討每一種密碼龐克倫理學派的後設倫理特徵。當我們談論「倫理學」時,通常指的是所謂的規範倫理學,這是哲學的分支之一,旨在確定我們可以用來判斷行為是否道德允許的各種原則。另一方面,後設倫理學是哲學的一個分支,它從規範性主張中退一步,提出有關道德本質的問題。理查德·T·加納(Richard T. Garner)和伯納德·羅森(Bernard Rosen)在1967年指出了三個重要的後設倫理學問題。首先,加納和羅森解釋道,後設倫理學的探究可以澄清道德術語的含義,例如「善」或「對錯」這些詞語。其次,他們解釋道,後設倫理學的分析可以確定我們如何獲得關於道德的知識,並為道德主張提供證明標準。第三,他們觀察到,後設倫理學的反思旨在確定道德主張的本質,無論它們是客觀的還是主觀的,普遍的還是相對的,等等。這三種類型的問題可以稱為道德語義學、道德認識論和道德本體論。羅伯特·J·麥克謝(Robert J. McShea)在1979年識別了第四個可能的後設倫理學問題,即人類本性理論。正如麥克謝所指出的,大多數西方哲學的倫理理論是建立在特定的人類本性觀念之上的。例如,如果一位哲學家認為理性是區別人類與其他物種的特質,那麼理性很可能會在該哲學家的倫理理論中佔據中心地位。重要的是,麥克謝關於倫理理論依賴人類本性理論的洞察,幫助我們理解加納和羅森所識別的三個後設倫理學問題。關於道德主張的含義、道德主張的本質以及我們如何獲得道德主張的知識的問題,通常只有在我們對人類是什麼樣的存在有所了解的情況下才能得到解答。因此,當我們考慮密碼龐克的後設倫理學時,我們不關心他們是否認為某個行為對還是錯;相反,我們關心的是密碼龐克在形成關於對錯的信仰時,對語言、知識和人類本性所持的觀點。

以下第一部分將探討梅的密碼無政府主義的後設倫理假設,第二部分將探討阿桑奇的密碼正義的後設倫理假設。儘管梅和阿桑奇對他們各自的國家理論非常明確,他們對於後設倫理學的表述則相對模糊。無可否認,後設倫理學通常是學術界的專門領域,僅有學者們撰寫長篇論文來進行探討,而梅和阿桑奇更偏好短篇文章和實用行動,而非長篇論辯。儘管如此,仍然可以在他們的哲學中辨識出一些基本的後設倫理學主張。梅的哲學觀點汲取了大衛·弗里德曼(David Friedman)的 《自由的機器》(The Machinery of Freedom),梅在多篇文章中對此表示讚賞。像弗里德曼一樣,梅是一位無政府資本主義自由意志主義者,他高度重視個人自由,這本質上被定義為消極自由,即免於外部控制的自由。受非強迫原則指導,這樣的自由意志主義者認為,個人自由最好通過讓每個人選擇自己過什麼樣的生活,並且不受他人(包括政府)的強迫來實現。由於梅對他的後設倫理學表達較少,因此可以借助弗里德曼來澄清梅的觀點。同樣,儘管阿桑奇對他的後設倫理學只有很少的見解,他的隨意表述仍然暗示出他對人類本性持浪漫觀點,認為人類天生是善良的,但被墮落的社會所腐化。由於對人類品格如此重視,阿桑奇似乎在支持一種美德倫理學的觀點,即倫理學是關於培養美德,如正義和勇氣,同時避免惡行,如不公和懦弱。因此,密碼無政府主義依賴一種自由意志主義的後設倫理學語言,將個人自由作為核心(但不是唯一)價值,而密碼正義則融入了浪漫的人類本性理論,重視正義和勇氣等美德。

蒂莫西·梅的密碼無政府主義

梅的密碼無政府主義中的後設倫理承諾十分難以界定,因為他對此所言甚少。梅解釋道,密碼無政府主義是一種密碼龐克版的無政府資本主義,一種自由意志主義哲學,認為若廢除政府,並且讓所有人際關係與制度僅受市場力量支配,則人類社會將更為自由與有序。這類自由主義哲學將非強制原則視為其核心倫理標準。依據非強制原則,唯有當所有行為與決策均未受到他人影響或控制時,人類才能獲得真正的自由。正如弗里德曼所言,自由意志主義社會是一個「每個人皆可隨心所欲地處理自身及其財產,只要不利用這些對他人施加武力」的社會。這種觀念表明,自由——即個人行動與決策不受外在阻礙——或許正是無政府資本主義者所追求的最高價值。儘管梅在其著作中隱含了關於自由價值及非強制原則重要性的見解,他卻明確避免將這些主張建立在人類本性理論之上。據說,梅曾表示「別管我」這句話比任何有關人性本質的正式理論更能代表自由意志主義的根基。對梅而言,自由意志主義倫理並非在建立於對人類本性概念的認知,而是對自由價值堅持的表達。梅解釋道:「我的政治哲學就是:別動我的東西,不論是我的檔案、辦公室,還是我吃、喝、吸的一切。如果別人想要過量過度,那就隨他們去吧,人生如此,及時行樂(Schadenfreude)啊。」

儘管梅對其後設倫理的論述極為含糊,弗里德曼對無政府資本主義後設倫理的探討,卻為理解梅的密碼無政府主義後設倫理提供了一些線索。與梅一樣,弗里德曼也明確拒絕以人類本性理論作為自由意志主義倫理正當化的依據;同時,他強調,自由雖非唯一價值,但卻是自由意志主義倫理的核心,部分原因在於自由能使其他價值得以追求。弗里德曼主張,不同個體各有不同的價值承諾,他認為「每個人最有資格為自己從眾多可能的人生中選擇出哪一種最適合自己」。透過推崇自由,我們賦予每個人選擇追求其他價值的能力。為了闡明這一觀點,弗里德曼認為政治語言中應當摒棄「需要」一詞。許多人主張所有人「需要」食物、水與空氣,但在他看來,「需要」與「想要」之間存在著重要區別。誠然,我們皆因生物生存本能而想要食物、水與空氣,但將這些想要轉化為需要,便是不合理地將某些價值人工地提升為客觀與普遍的標準。正如弗里德曼所言,「認為存在某些遠比其他一切更為重要的價值——那些我真正需要而非僅僅想要的東西」這一觀點,要求我們假設這種「需要」能夠被客觀地確定。但弗里德曼堅持認為,價值既非客觀也非普遍。即使是自由——自由意志主義倫理的核心價值——也並非客觀和普遍。正如弗里德曼所解釋,自由並非一個客觀上值得追求的價值;相反,它僅僅是大多數人似乎所想要的。在弗里德曼的無政府資本主義哲學中,道德價值既不是客觀的,也非普遍人性所決定;相反,價值是主觀的,而自由之所以被賦予優先地位,只是因為大多數人似乎想要,並且它能使個人在不受他人阻礙的情況下追求其他價值。

由於弗里德曼提出了一種避免依賴人類本性理論並拒絕將價值視為客觀的自由意志主義倫理闡述,他同時也拋棄了以權利為基礎的倫理觀,而轉而支持以結果為基礎的功利主義方法。弗里德曼指出,許多自由意志主義者通過訴諸自然權利來為其倫理與政治觀點辯護,而這類論證依賴於人類本性理論,因為它預設了人類天生擁有權利;同時,這也暗示某些道德標準是普遍且客觀的,既假設所有人皆享有權利,又假設我們能夠對這些權利獲得確定認知。弗里德曼認為,以權利為基礎的自由意志主義理論會導致荒謬的結論,尤其當這些權利被視為不可廢除、在任何情況下皆不得取消時。他以個人財產中不可廢除的權利為例,指出這類論證經不起基本檢驗,並提出一個思想實驗:假設明天某場大規模自然災害將奪去全人類的生命,而唯一能阻止災難的方法,是從你確認為合法所有者的人那裡竊取一件昂貴設備。弗里德曼指出,你的選擇很簡單:要麼因偷竊而違背自由意志主義原則,要麼任所有人死去。他進一步指出,當我們承認以權利為基礎的主張常常相互衝突,而解決這些衝突唯一的方法就是違背某項權利時,問題便更加嚴峻。因此,他主張在某些情況下,對權利侵害必須根據其實際情況來評估,而非先驗地依據傳統自由意志主義自然權利原則加以否定。

以權利為基礎的自由意志主義倫理觀似乎難以令人滿意,弗里德曼主張功利主義方法更具吸引力。功利主義認為,一個行為只有在其所產生的效用超過其他任何可能行為時才算道德正確;換言之,只有當行為能為所有受影響者帶來最佳結果時,該行為才是道德正確的。當然,弗里德曼明確表示,他並非哲學上的功利主義者,他認為儘管功利主義不應作為究竟應該或不應該發生之事的最終標準,但功利主義論證通常是捍衛自由意志主義觀點的最佳方式。換句話說,功利主義雖不「真實」,卻「有用」。他進一步指出,在說服非自由意志主義者接受自由意志主義觀點時,務實的論證較純粹的倫理論證更具效果,這與他認為道德價值既非客觀亦非普遍的觀點相契合;若大多數人重視自由,那僅是因自由使個人能追求其他價值。

根據弗里德曼的觀點,這種功利主義的觀點幾乎與基礎經濟學難以區分。一方面,他主張「讓人們在市場中自由互動……是利用社會去中心化知識的最佳方式,包括每個人對自己價值的認知」。如果每個人最了解自己所需,且每個人也最知道對自己有益的事物,那麼非強制性的市場關係便能提供每個人追求其欲望與實現其福祉所需的自由。另一方面,弗里德曼主張「經濟學是一門遠比道德哲學發展得更完善的科學」,並表示「經濟學不僅是一種更好的說服他人的方式,同時也是更好地幫助我自己確定支持立場的方法」。這些評論表明,對於弗里德曼而言,大多數人是通過直覺與試錯的結合,逐漸獲得對其價值的認識。正如我們利用感官對物理現實作出合理但不確定的判斷,弗里德曼認為我們也會利用道德直覺對道德價值作出合理卻不確定的判斷。要獲得對物理現實的認知,個體需要盡可能廣泛地觀察現象;而要獲得對道德價值的認識,個體則必須試驗各種善,並判斷哪一種對自己而言是「正確的」。因此,無論是功利主義還是自由市場經濟學,個體皆因自由帶來的良好結果而被說服接受自由意志主義倫理。

儘管梅對其密碼無政府主義後設倫理的論述寥寥,其觀點似乎與弗里德曼所論大致相符。梅與弗里德曼皆拒絕依賴人類本性理論來建立自由意志主義倫理,且與弗里德曼相似,梅從未以自然權利的觀點來論述。大多數情況下,他採取務實的方式描述從無政府主義角度看密碼所帶來的道德後果。梅曾在一段說明性文字中寫道:「將決策權還給人們,讓他們在沒有政府干預的情況下自主選擇生活,將是一件好事。」他對密碼的討論常強調這樣一個觀點:密碼所帶來的益處,如個人自由,將超越其可能的害處,例如使罪犯能夠逃避追查,此一觀點正體現了功利主義邏輯。梅亦認同弗里德曼對價值是否普遍或客觀的懷疑,主張一個團體究竟被視為「不法分子」或「英雄」,完全取決於個人的觀點。因此,弗里德曼無政府資本主義理論中的大部分後設倫理討論,都與梅無政府資本主義理論中的零星論述相符。然而,有一個重要的警告:弗里德曼認為自由是大多數人所追求的,但梅似乎認為,只有少數精英才真正理解並渴望自由。在某些地方,梅認為「我們中的許多人」渴望自由;而在另一些地方,他則提到那「無知的百分之九十五」,即所謂「微塵之人大聲呼喊著要求更多救濟」,並預測將出現「大規模淘汰無用人口」的情形——這些人是福利國家的寄生奴隸。

如果梅的觀點正確,即宣稱「別管我」的自由意志主義傾向並非廣泛存在於人群中,那麼密碼無政府主義者便會拒絕弗里德曼試圖說服非自由意志主義者轉而接受自由意志主義的計劃,而寧願尋找使自由意志主義者能與那些顯然樂於受制於政府的人共存的方法。因此,梅主張密碼學使得密碼無政府主義計劃成為可能。密碼可以透過隱藏個人的數位通訊與交易,免受政府監視,從而促進自由;若政府無法觀察人們所瀏覽的內容與購買的物品,就無法阻止人們存取禁制內容或購買非法產品。

朱利安·阿桑奇的密碼正義

阿桑奇和梅一樣,常常避免明確討論後設倫理問題。曾有一次,當被問及為何創立維基解密時,阿桑奇回答道:

有人會問,「你的哲學公設是什麼?」而我會說,「我無需考慮這些,這僅僅是我的性情,而這就是一個公設,因為事情本就如此。」這樣便避免了進一步無益的哲學討論,關於我為何要去做某件事。只要我去做就足夠了。

儘管如此,阿桑奇始終明確表達正義是他主要的動力所在。他曾說:「我只有一個目標,雖然不甚新穎,但卻是我生命中明確的目標——那就是協助創造一個更公正的社會供人們生活。我並非全然支持全面透明,甚至也不全然支持普遍民主,但我堅持正義。」認識到正義是阿桑奇倫理的核心是必要的第一步,但關於正義的後設倫理概念存在多種詮釋。綜合他著作中的種種線索,可以合理解讀阿桑奇是一位以美德倫理為基礎、並持有浪漫主義人性觀的學者。作為一種倫理理論,美德倫理學並不提供明確指示何為正確行為的原則,而主張我們應該辨識出哪些性格特質能造就一個好人。作為一種人性觀,浪漫主義普遍認為人類天生具有善良或純真的本質,並主張人類會因墮落文化而受到腐蝕。雖然阿桑奇很少明確提及亞里士多德和盧梭,但他們的哲學正好能突顯出他著作中隱含的後設倫理立場。綜合美德倫理與浪漫主義,阿桑奇似乎認為人在受到負面社會影響時,其天生的端正品質會逐漸退化,並主張只有在面對墮落的社會規範與結構時堅守美德,才能實現真正的正義。

阿桑奇並未對「正義」作出明確定義,但我們可藉由區分不同種類的正義及其功能來窺見其涵義。亞里士多德區分了法理正義與自然正義:法理正義是特定於各個社會與法律體系的,而自然正義則在各處均具有同等效力。法理正義是透過程序正確性來實現,而自然正義則依靠正確、有意義且基於功績的實質性獎懲分配來達成。阿桑奇似乎也持相似的區分觀點。他認為法理正義並非真正的正義,因為法律往往僅僅是權力的表現和權勢者的工具;而真正的正義則是衡量各國政府和法律體系道德地位的普遍標準。阿桑奇主張,任何國家都無權僅把正義視為權力的恩惠。事實上,堅守正義正是對權力的一種制衡。換言之,法律能夠達成正義,但並非所有的法律都是正義。阿桑奇進一步指出,正義是一種美德,同時他也認為「正義」這一術語應正確用於描述整個社會,而不僅僅是個體。他解釋道:「殘忍與仇恨存在於個人之中,但當我談論『不義』時,我是在評論一個政治和社會體系。」雖然他有時也在倫理論證中討論權利,但阿桑奇並不必然堅持以權利為基礎的倫理觀,因為就連最基本的權利也僅僅是為了「支持正義」而存在。對他而言,權利本身並不具備內在價值,而是因為它們有助於實現真正的正義而變得有價值。

當阿桑奇藉由自然或真正的正義來判斷某一社會與政治體系是否公正時,他暗示真正的正義是透過報應、或對犯下不義行為者施以相應懲罰而實現的。阿桑奇堅信,作惡者應受懲罰,而無辜者則必須受到保護,不致遭受不應受的處罰,這也是他既喜歡「幫助弱勢群體」,又喜歡「粉碎惡棍」的原因。其中「惡棍」是他用來專指那些犯下極其骯髒不義行為的人,而在他看來,戰爭是最極端的不義之一。他解釋說:「現代戰爭並非國防部所宣稱的那種充滿科技魔法與超凡精準的作戰,它只是那老一套血腥、悲劇與不義的混亂。無人機或許能夠精確鎖定一處住宅,但卻無法辨識屋內是誰,或者誰剛從學校回家。」然而,戰爭僅僅是不義中最極端的一種。亞里士多德認為,正義乃是「相對於他人的完全美德」。依此觀點,一個人若能確保所有人(包括自己)獲得應有的利益,同時不對那些不該受傷害者造成傷害,便是維護了正義;反之,當一個人剝奪他人應得的利益,並對他人施加不應承受的傷害時,即是在製造不義。最不義的人往往以犧牲他人的代價為自己謀取不當利益,對阿桑奇來說,這些兇惡的惡棍必須受到懲罰,才能使真正的正義得以實現。

阿桑奇將正義視為提供普遍獎懲分配標準的原則,這一觀點與他的關於人性的理論密切相關。雖然令人好奇人們如何獲得正義的認知,但阿桑奇認為,真正值得探討的問題在於,人們究竟如何逐漸忘卻正義的真正意涵。因此,我們可以解讀阿桑奇持有一種浪漫主義的人性觀。現代浪漫主義運動興起於十八世紀,其提出了一系列對立:自然對抗文化、情感對抗理性判斷、青年對抗權威、民主對抗貴族,以及個體對抗國家。對浪漫主義者而言,人類天生具有固有的善良或純真,但這種善良或純真卻會因被社會化進入墮落文化而遭到腐蝕。浪漫主義者對傳統懷有蔑視,並警告同代人不要屈服於「文明積累的惡行」。他們同時主張,哲學無法教授美德,相反,每個人都有「與生俱來的是非意識」,這種意識必須經由情感的熏陶,才能激發美德,使人不僅僅成為一個精明的計算者,而是一個真誠善良的人。

作為「浪漫主義運動之母」,盧梭將人類視為富有同情心和敏感性的存在,並主張所有人天生便對同胞受苦抱有本能的厭惡。對盧梭而言,這種情感被稱為憐憫,它是一種極具普遍性且對人類極為有用的美德,因為它先於任何反思而存在於人之中。由此看來,邪惡或不義並非源自人性,而是文化或文明的產物。雖然文明可能增進人們對美德的認識,但它同時也使得行善變得更加困難。與生活在自然狀態、僅有最基本需求的古代人不同,盧梭認為現代社會中充斥著「無數由社會產生的情感」,並認為文明進程可能弊大於利。最危險的是,文化摧毀了人類與生俱來的憐憫感,並以一連串膚淺、物質化的慾望取而代之,驅使著卑鄙與怨恨。總而言之,盧梭與其他浪漫主義者認為,自然的人類美德常常被人造文化所摧毀。

同樣地,阿桑奇認為人性本質上是善良的,但當個體被社會化進入病態文化時,這種善良往往會受到腐蝕。與盧梭不同,阿桑奇並不主張人類是從自然狀態中脫穎而出以締結社會契約,但他關於年輕人的言論暗示,人類起初是善良的,隨著成長逐漸遺忘了美德。曾有一次,在一個訪談中,有人主張「年輕人本質上並不善良」,而阿桑奇則回答:「年輕人其實天生擁有相當不錯的價值觀。當然,這是一個譜系,但大多數時候,他們具有相當良好的價值觀,並希望向他人展現這些價值。」談及他在密碼龐克運動早期的經歷時,阿桑奇表示:「我們當然是理想主義者,而且年輕——這正是那些渴望改變現狀之人的普遍狀態。」對阿桑奇來說,年輕人普遍懷有實現正義的內在渴望,雖然他們在青年時期常為此行動,但隨著年齡增長,這份熱情卻日益被憤世嫉俗與冷漠自私所取代。阿桑奇指出:「在現代經濟中,完全隔絕於不義之外是不可能的。」在經濟激勵、專業地位以及那些威脅要懲罰任何挑戰現狀者的強大利益壓力下,許多人逐漸放棄了對正義的堅守。當然,那些犯下不義的人不幸地拋棄了他們天生的美德,反而採用了「文明積累的惡行」,經常一味追求權力,從中以犧牲弱勢者的利益為代價為自己謀取更多。正如盧梭認為社會化使憐憫轉變為卑鄙,阿桑奇則主張,腐敗的權力結構削弱了對正義的追求,並以自滿甚至同謀取而代之。

透過連結阿桑奇對美德、正義與人性的論述,我們可以理解其著作中最具哲學深度的一段話。阿桑奇指出,「系統性的不義必然會牽涉到眾多人」,而人們牽涉其中的方式各不相同:有些人近距離目睹或甚至參與了不義行為;而另一些人則僅僅是間接見證,因為現代通訊系統將不義廣播給整個群體——有時甚至是在不義發生之時。阿桑奇認為,當糟糕治理所引發的不義與現代通訊技術結合時,整個民眾的品格便會被侵蝕。他寫道:

「每當我們目擊到一個我們認為不公的行為而未採取行動時,我們就成為不義的一分子;那些在不義面前一再消極的人,最終會發現自己的品格腐蝕成奴性。大部分目擊的不義行為都與糟糕治理有關,因為當治理良好時,未受回應的不義是罕見的。隨著一個民族品格的逐漸衰退,報導出來卻未能解決的不義,其影響遠比表面上看來更為深遠。」

美德倫理學家常主張,品格美德源自於習慣性的行動:彈鋼琴能成就鋼琴大師,行正義則能使人成為正義的人。阿桑奇更進一步認為,對見證到的不義若僅僅採取不作為,將會腐蝕個人的品格。儘管數位通訊技術促進了與他人及世界的聯繫,但它也使得良好品格的大規模瓦解成為可能。

對阿桑奇而言,防止品格退化的唯一方法在於培養勇氣。作為一種促進性美德,勇氣就是「通過理解情勢中的真實風險與機會,並使之保持平衡,從而達到對恐懼的智性掌握」。懦弱者會迴避衝突;魯莽者則會盲目衝進,而有勇氣的人既不會退縮,也不會魯莽作戰,而是會系統性地研究情勢,根據所掌握的知識為正義而戰。正如阿桑奇所暗示,培養勇氣與追求正義密不可分。勇氣使個體與團體能夠應對不義,而勇氣只能在反覆面對不義時逐漸培養出來。值得注意的是,阿桑奇指出,密碼可以用來改變風險與機會的格局,從而降低「勇氣門檻」。密碼破壞了現有的權力關係,使個體能以更少的風險和更大的機會來應對不義。正因如此,密碼不僅為個體提供了培養勇氣的空間,也讓他們能夠保持並追求對普遍正義的天生渴望。

結論

考慮到對蒂莫西·梅與朱利安·阿桑奇哲學承諾的檢視,我們可以發現,密碼無政府主義與密碼正義所提供的後設倫理觀點大相逕庭。起初,我列舉了四個後設倫理議題:道德語義、道德認識論、道德本體論以及人類本性理論。就道德語義而言,無論是梅還是阿桑奇似乎都不把闡明道德語言的意涵作為首要任務;但在其餘後設倫理議題上的分歧,則似乎源自他們對人類本性的對立立場。一方面,梅刻意避免任何關於人性的討論,儘管尚不明了他是否認同弗里德曼的直覺主義道德認識論,但梅在道德本體論問題上顯然與弗里德曼持相同看法:對於這兩位無政府資本主義者而言,道德價值既非也不可能是普遍客觀的,而只能是特殊且主觀的。另一方面,阿桑奇似乎將其後設倫理根植於一種浪漫主義的人性觀,這對他的道德認識論與道德本體論皆產生了影響。如果人類天生具備珍視正義的內在傾向,而只有在品格逐漸腐蝕之下才有可能失去這一傾向,那麼「認識」正義便不在於學習,而在於不去遺忘。同樣地,若真正的正義適用於所有人,並提供評價現存社會的標準,那麼正義必定是普遍的。當然,這裡還存在其他未曾討論的後設倫理問題,但此對梅與阿桑奇各自哲學中基本後設倫理承諾的概述,並非意在窮盡一切。這場論述的目的在於展示,儘管密碼無政府主義與密碼正義均屬於龐克倫理的變體,但它們在哲學上存在著深刻的分歧。

作為最後一項比較,有必要回到梅針對那「無知的95%」仍屈從於政府家長主義者的論述。作為對梅的可能直接回應,阿桑奇寫道:

「構成群眾的那95%人口從來都不是我的目標,也不應該成為你的目標;我瞄準的是常態兩端那2.5%的人,一部分值得珍惜,另一部分則必須被摧毀。」(曼恩 2011)

在梅的密碼無政府主義世界觀中,主要的道德衝突存在於要求自由意志主義自由的小精英與崇拜福利國家的奴性大眾之間;然而,在阿桑奇的密碼正義世界觀中,主要的道德衝突則落在那些利用權力犯下極端不義行為的惡棍與依靠勇氣為真正正義而奮戰的少數正直個體之間。正如下一章所示,密碼無政府主義與密碼正義對於國家的理論也大相徑庭,而即便是這一簡略的後設倫理概述,也要求我們接受密碼無政府主義與密碼正義在哲學上顯而易見的不可通約性。

Kurt Pan

March 4, 2025

Abstract

Indistinguishability Obfuscation (iO) has emerged as a transformative concept in cryptography, aiming to make computer programs unintelligible while preserving their functionality. This survey provides an in-depth review of iOs evolution, theoretical foundations, and farreaching applications, structured in the style of an academic paper. We begin by motivating iO in the context of classical program obfuscation and summarizing its significance as a cryptographic master tool. We then present formal definitions and preliminaries needed to rigorously understand iO. The survey examines the core theoretical underpinnings of iO, including major candidate constructions and the complexity assumptions they rely on. We also explore the remarkable applications enabled by iO from constructing fundamental cryptographic primitives under minimal assumptions to advanced protocols previously deemed out of reach. Recent research milestones are discussed, highlighting state-of-the-art iO constructions based on well-founded hardness assumptions and the implications for cryptographic theory. Finally, we outline open problems and future directions, such as improving efficiency, simplifying assumptions, and addressing lingering challenges. Through comprehensive coverage of both theory and practice, this survey underscores iOs central role in modern cryptographic research and its potential to unify a wide range of cryptographic goals.

Contents

2 Preliminaries 6 2.1 Program Obfuscation . . . . . . . . . . . . . . . . . . . . 6 2.2 Indistinguishability Obfuscation (iO) . . . . . . . . . . . 7 2.3 Basic Hardness Assumptions . . . . . . . . . . . . . . . 8 3 Theoretical Foundations of iO ..... 8 3.1 Initial iO Constructions (2013-2014) ..... 9 3.2 Punctured Programming Technique ..... 10 3.3 iO and Functional Encryption – Equivalence ..... 12 3.4 Progress in Assumptions (2015-2019) ..... 12 3.5 Limitations and Impossibility Results ..... 14 3.6 Summary of Theoretical Status ..... 14 4 Applications of iO ..... 14 5 Current State of Research ..... 19 5.1 Confidence in iOs Existence ..... 19 5.2 Efficiency and Complexity Concerns ..... 21 5.3 Ongoing Research Directions ..... 21 6 Open Problems and Future Directions ..... 23 7 Conclusion ..... 27

1 Introduction

Program obfuscation is the process of converting a computer program into a form that is functionally equivalent to the original but difficult for humans or algorithms to understand. A virtual black-box (VBB) obfuscator was long considered the ideal: an obfuscated program would reveal nothing beyond what is observable from input-output behavior (as if one only had black-box access to the function). However, a seminal result by \(\left[\mathrm{BGI}^{+} 01\right]\) demonstrated that general-purpose VBB obfuscation is impossible for arbitrary programs. They constructed (under a mild assumption that one-way functions exist) a family of functions for which no efficient obfuscator can hide certain hidden properties of the program . This impossibility result dashed hopes of perfect obfuscation and prompted researchers to seek weaker definitions that might still be achievable.

Indistinguishability Obfuscation (iO) was proposed as a viable relaxation of VBB obfuscation. Informally, iO requires that given any two equivalent programs (or circuits) that compute the exact same function, their obfuscations should be computationally indistinguishable \(\left[\mathrm{GGH}^{+} 13\right]\). In other words, if two programs produce identical outputs for all inputs, then an observer should not be able to tell which obfuscated program corresponds to which original program. Unlike VBB, iO does not guarantee that all information about a single program is hidden, it only guarantees that nothing can be learned that differentiates one implementation from another equivalent implementation [Edw21]. This subtle weakening avoids the [BGI \(\left.{ }^{+} 01\right]\) impossibility, making iO a theoretically achievable goal. Initially, the utility of this strange new notion was unclear; iO does not by itself hide secrets in a single program, but rather provides a form of relative security between functionally identical programs.

The cryptographic communitys interest in iO surged after a breakthrough in 2013. [GGH \({ }^{+}\)13] (FOCS 2013) presented the first candidate construction for indistinguishability obfuscation. Their work provided a concrete (albeit heuristic) approach to realize iO for all polynomialsize circuits, using novel tools called multilinear maps [GGH12] to encode the program. This result was a watershed moment : it suggested that iO might actually exist in the real world, contrary to earlier skepticism. Almost immediately, researchers uncovered a staggering range of applications for iO [BV15] (FOCS 2015). It became apparent that iO is a powerful generalized cryptographic primitive: in the words of Bitansky and Vaikuntanathan, iO is “powerful enough to give rise to almost any known cryptographic object”. Indeed, subsequent works [SW14] showed that if one assumes iO (together with standard hardness assumptions like one-way functions), one can construct an expansive array of cryptographic schemes that were previously unknown or only conjectured to exist. [SW14] (STOC 2014) demonstrated how to use iO to realize advanced cryptographic goals, settling open problems that had stood for years . In [SW14], they introduced the punctured programming technique and used iO to solve the long-standing problem of deniable encryption – an encryption scheme where a sender can produce a fake decryption key that makes a ciphertext appear as an encryption of a different message. The same work posited iO as a “central hub” for cryptography, showing that many disparate cryptographic primitives could be constructed through the lens of iO . The floodgates opened: countless cryptographic constructions (from standard public-key encryption to “first-of-their-kind” primitives) were realized by leveraging iO's unique capabilities. This explosion of results cemented iO's reputation as a “holy grail” of cryptography – a single primitive that, if achieved in full generality, would enable or simplify the construction of nearly everything else [BV15].

Despite this promise, early iO candidates were based on complex new assumptions and remained unproven. Over the next several years, a cat-and-mouse game ensued between proposal and cryptanalysis \({ }^{1}\). The initial constructions relied on heuristic objects (multilinear maps) that were not firmly grounded in well-studied hardness assumptions, leading to attacks and broken schemes. This period of “emotional whiplash” saw cryptographers alternate between optimism and doubt regarding iO's existence . Nevertheless, the community's understand-

[^0]ing deepened with each iterated construction and break [Edw21]. Major advances have been achieved in the last few years: in 2020, researchers unveiled the first iO constructions based on standard (or wellfounded) assumptions [JLS20], markedly increasing confidence that iO can be realized without uncontrolled heuristics . At the same time, these newer solutions highlight remaining challenges such as efficiency and the desire for even simpler assumptions.

This survey provides a comprehensive review of indistinguishability obfuscation, targeting researchers and advanced practitioners. We cover both the theoretical foundations of iO and its diverse applications. In section 2, we give formal definitions and necessary cryptographic background. In section 3 , we delve into iO constructions, from the original frameworks (based on multilinear maps and functional encryption) to the latest “standard assumption” breakthroughs. In section 4, we explore how iO has revolutionized the landscape of cryptographic primitives and protocols, enabling solutions like functional encryption for all circuits, secure multi-party computation improvements, and more. Section 5 surveys the state-of-the-art, summarizing known constructions, the assumptions underpinning them, and their current security status. In section 6 , we discuss the many open challenges that remain on the road to practical, provably secure iO including efficiency barriers, reducing assumptions, and understanding the limits of iO's power. We conclude with reflections on the significance of iO and its future role in cryptography.

Impossibility & Definitiهrirst Constructions & Applications Standard Assumptions Figure 1: Timeline of significant developments in indistinguishability obfuscation research.

2 Preliminaries

This section introduces the formal definition of indistinguishability obfuscation and related concepts needed to understand iOs foundations. We assume familiarity with basic cryptographic notions such as polynomial-time adversaries, negligible functions, and standard hardness assumptions (e.g., one-way functions).

2.1 Program Obfuscation

We model programs as Boolean circuits for simplicity. An obfuscator \(O\) is a probabilistic polynomial-time \(\mathrm{PPT)}\) algorithm that takes a circuit \(C\) as input and outputs a new circuit \(C^{\prime}=\) $O©\(, intended to be a “scrambled” version of \)C$ that preserves \(C\) 's functionality.

The soundness requirement is that \(C^{\prime}\) computes the same function as \(C\) for all inputs (perhaps with overwhelming probability if \(O\) uses randomness).

Informally, security requires that \(C^{\prime}\) reveals as little as possible about the internal details of \(C\).

Different obfuscation definitions formalize “as little as possible” in various ways.

The strongest traditional definition is virtual black-box (VBB) obfuscation, which demands that anything one can efficiently compute from the obfuscated circuit \(C^{\prime}\) could also be computed with only oracle access to \(C\) (i.e. by treating \(C\) as a black-box function evaluator).

Definition 2.1 (circuit obfuscator). A probabilistic algorithm \(\mathcal{O}\) is a (circuit) obfuscator if the following three conditions hold:

  • (functionality) For every circuit \(C\), the string \(\mathcal{O}©\) describes a circuit that computes the same function as \(C\).
  • (polynomial slowdown) There is a polynomial \(p\) such that for every circuit \(C,|\mathcal{O}©| \leq p(|C|)\).
  • (“virtual black box” property) For any PPT A, there is a PPT S and a negligible function \(\alpha\) such that for all circuits \(C\)

$$ \left|\operatorname{Pr}[A(\mathcal{O}©)=1]-\operatorname{Pr}\left[S^{C}\left(1^{|C|}\right)=1\right]\right| \leq \alpha(|C|) $$

We say that \(\mathcal{O}\) is efficient if it runs in polynomial time. [BGI \(\left.{ }^{+} 01\right]\) showed that a general VBB obfuscator for all circuits cannot exist.

They constructed a family of circuits \(\left{C{k}\right}\) (dependent on a one-way function) such that there exists a secret property \(\pi\left(C{k}\right)\) that is easy to learn from the circuit description yet provably hard to determine with only oracle access to the underlying function.

This result implies any would-be obfuscator \(O\) that works on all circuits must fail (leak \(\pi\left(C_{k}\right)\) ) on some circuit in the family.

Intuitively, the impossibility stems from the obfuscators requirement to hide every aspect of the computation; the contrived circuits of [ \(\left.\mathrm{BGI}^{+} 01\right]\) have an implanted secret that any correct program reveals by definition (since the program itself can be examined), but which cannot be extracted via black-box queries alone.

2.2 Indistinguishability Obfuscation (iO)

The iO definition relaxes the VBB guarantee. An obfuscator \(O\) is indistinguishability obfuscating if for any two circuits \(C{0}\) and \(C{1}\) of the same size that compute identical functions (i.e \(C{0}(x)=C{1}(x)\) for all inputs \(x\) ), the distributions \(O\left(C{0}\right)\) and \(O\left(C{1}\right)\) are computationally indistinguishable. In other words, if an adversary is given an obfuscation of one of two equivalent circuits (chosen at random), they cannot tell which one was obfuscated. This must hold for all equivalent circuit pairs and for all polynomial-time distinguishers. By design, iO only provides a meaningful guarantee when two different circuits compute the same function. If \(C{0}\) and \(C{1}\) differ in functionality, iO places no restrictions indeed, one can trivially distinguish \(O\left(C{0}\right)\) vs \(O\left(C{1}\right)\) by just running them on some input where their outputs differ. Thus, iO does not hide specific information within a single program in the absolute sense; it ensures that whatever one program reveals, any other equivalent program would reveal as well. Any implementation-dependent secrets are safe only to the extent that there is no alternate implementation to compare against.

Formally, for security parameter \(\lambda\), and any two functionally equivalent circuits \(C{0}, C{1}\) with \(\left|C{0}\right|=\left|C{1}\right|\), we require:

$$ \operatorname{Dist}\left(O\left(1, \lambda, C{0}\right) ; O\left(1, \lambda, C{1}\right)\right) \leq \operatorname{negl}(\lambda) $$

where \(\operatorname{Dist} X ; Y\) denotes the maximum advantage of any PPT distinguisher in distinguishing distribution \(X\) from \(Y\), and \(\operatorname{negl}(\lambda)\) is a negligible function. The obfuscator is also required to have a polynomial slowdown: there is a polynomial \(p(\cdot)\) such that for any circuit \(C\) of size \(n\), the obfuscated circuit \(C=O©\) has size at most \(p(n)\).

This definition, first put forth explicitly by Garg et al. (2013) , evades the Barak et al. impossibility because it does not demand security for a single given circuit in isolation. If \(C\) has some secret property that is efficiently extractable from its description, iO does not prevent that from being learned iO only guarantees that another equivalent circuit \(C\) would leak the same property. In the pathological case from Barak et al.s result, no alternate equivalent circuit exists that hides the secret property (the obfuscation cannot eliminate the secret without changing functionality), so iO does not promise security there. In practice, however, cryptographers leverage iO by carefully designing equivalent programs that do conceal secrets unless one knows a specific trapdoor. The indistinguishability property then ensures an adversary cannot tell whether they have the real program or a secret-hiding equivalent version, which can be enough to guarantee security in applications. This style of proof underpins many iO-based constructions.

Relationship to Other Notions Indistinguishability obfuscation is considered the weakest useful form of general obfuscation any stronger notion (like VBB) would imply iO , but iO itself is potentially easier to realize. There are also intermediate notions studied, such as credible or differing-inputs obfuscation, which impose security only for circuits that are equivalent on most inputs or under certain distributions. These are beyond our scope, though we note that many positive results use iO as a stepping stone or assume slightly stronger variants when needed for proof convenience. Importantly, iO in combination with other standard primitives often yields security equivalent to (or at least as good as) VBB obfuscation for the overall scheme. As well see in applications, even though iO by itself is a weak guarantee, it becomes extremely powerful when used cleverly in cryptographic protocol design.

2.3 Basic Hardness Assumptions

Since general obfuscation was proven impossible in an informationtheoretic sense, any realization of iO must rely on computational hardness assumptions. Early iO candidates leaned on new algebraic assumptions (related to multilinear maps) which we will describe later. Modern iO constructions rely on a constellation of assumptions such as the hardness of learning with errors (LWE), certain elliptic-curve group assumptions, and coding theory problems. We will introduce these assumptions informally in context. For now, it suffices to say that iO cannot exist in a vacuum like most cryptographic primitives, it is achievable if and only if certain problems are computationally infeasible to solve for an attacker. Part of the challenge in iO research is identifying the minimal and most believable set of such assumptions needed to securely instantiate an obfuscator.

3 Theoretical Foundations of iO

Indistinguishability obfuscations theoretical development has been driven by a sequence of landmark results that gradually brought the concept from theory to (approximate) reality. In this section, we survey the major iO constructions and the ideas behind them, as well as the evolving assumptions that underpin these constructions.

Figure 2: Hierarchy of program obfuscation notions and their feasibility.

3.1 Initial iO Constructions (2013-2014)

The first candidate construction of iO for general circuits was given by Garg, Gentry, Halevi, Raykova, Sahai, and Waters (GGHRSW) in 2013 . This breakthrough work provided a blueprint for how iO could be built in principle. The construction was accomplished in three main steps : iO for NC1 via Multilinear Maps: They described a candidate obfuscator for circuits in the class \(\mathrm{NC}^{1}\) (circuits of logarithmic depth). Security of this obfuscator was based on a new algebraic hardness assumption introduced in the paper, using a primitive called a multilinear jigsaw puzzle essentially a form of multilinear map. Multilinear maps (proposed shortly prior by Garg, Gentry and Halevi ) are a generalization of the DiffieHellman bilinear pairing concept to allow multi-party exponentiation. In simple terms, a multilinear map lets one encode secret values in such a way that certain polynomial relations can be checked publicly (like an \(n\)-way DiffieHellman key), but recovering any hidden component is as hard as solving a hard math problem (originally, related to lattice problems ). GGHRSWs NC1 obfuscator used these algebraic structures to create a garbled encoding of a circuits truth table that an evaluator can still execute. The novel multilinear jigsaw puzzle assumption in their work was needed to argue that the obfuscation leaks no more than intended . Bootstrapping to All Circuits: Next, they showed how to obfuscate any general circuit \(C\) by recursively leveraging the NC1 obfuscator. The trick was to use Fully Homomorphic Encryption (FHE) as a bridge . They obfuscated an NC1 circuit that included the decryption algorithm for FHE, thereby creating a system where an arbitrary circuit \(C\) could be pre-encrypted and evaluated within the obfuscated NC1 decoder. In effect, this bootstrapping used FHE to compress the task of evaluating \(C\) into an \(\mathrm{NC}^{1}\) procedure (decrypt-and-evaluate) which iO could handle. The result was an indistinguishability obfuscator for all polynomial-size circuits, assuming the security of the \(\mathrm{NC1} \mathrm{iO} \mathrm{scheme} \mathrm{and} \mathrm{the} \mathrm{underlying} \mathrm{FHE}\).

The GGHRSW construction demonstrated feasibility: iO could exist if these new hardness assumptions (e.g., the multilinear map jigsaw puzzle assumption) held true. It is worth noting, however, that the security was not proved from established assumptions; rather, the paper introduced entirely new algebraic problems on lattices that had not been vetted by years of cryptanalysis. This left a question mark on how much confidence to place in the candidate. Nonetheless, the conceptual contributions especially the idea of combining a limited obfuscator with FHE to get general obfuscation have influenced all later developments.

3.2 Punctured Programming Technique

In parallel with constructing iO itself, researchers needed new techniques to use iO in applications (since standard proof techniques often treat cryptographic primitives in a black-box way, which iO inherently is not). A key idea introduced by Sahai and Waters (STOC 2014) is punctured programming .

The intuition is as follows: suppose you have a secret key or secret value \(s\) you want to hide in a program, but you can afford for the program to not use \(s\) on one specific input (to punt on that input). You can create two versions of the program: one full program \(P\) that uses \(s\) normally, and one punctured program \(P^{\hat{x}}\) that has \(s\) removed or scrambled in the code path for some particular input \(\hat{x}\). Both programs are functionally identical for all inputs except \(\hat{x}\) (where \(P^{\hat{x}}\) might output some dummy value instead of using \(s\) ). If chosen carefully \(\hat{x}\) can be a point that an adversary would need to query to learn the secret. Now,

Both programs behave identically except possibly at input \(\hat{x}\)

Secret s is removed from the code path for input \(\hat{x}\)

Figure 3: Visualization of the punctured programming technique used in iO applications. iO guarantees that an adversary cannot distinguish whether they have \(O(P)\) or \(O\left(P^{\hat{x}}\right)\). If we can show that in either case the adversary cannot actually obtain the secret \(s\) (in one case because \(s\) isnt even there, in the other because even if its there, extracting it would solve some hard problem), then \(s\) is secure. This technique cleverly sidesteps the fact that iO doesnt hide secrets outright instead, it leverages indistinguishability to play a game between a real program and a tampered (punctured) program to argue security.

Punctured programming is often used in combination with puncturable pseudorandom functions (PRFs) . A puncturable PRF is a special PRF where one can derive a restricted key that evaluates the PRF on all inputs except one punctured point \(t\); and critically, given this punctured key, the PRFs output at the punctured point \(t\) remains pseudorandom (unknown). Using such PRFs, Sahai and Waters constructed an obfuscated program that included a PRF key \(K\), but whenever the program needed to use \(K\) on the punctured point, it would instead output a fixed value (not using \(K\) ). The punctured PRF security ensured that an adversary who sees the obfuscated program cannot distinguish it from one where the PRF outputs at that point are truly random meaning the adversary gains no information about the real PRF key. This approach was instrumental in building a public-key encryption scheme from just a one-way function and iO, among other applications . In fact, the Sahai-Waters 2014 paper showed how to achieve standard Public-Key Encryption (PKE) using only an iO obfuscator and a one-way function (OWF) a striking result because PKE generally cannot be based on OWFs alone in a blackbox world. The non-black-box use of iO (via punctured programming) bypassed that limitation.

3.3 iO and Functional Encryption – Equivalence

Following the initial iO candidate, researchers explored connections between iO and other advanced primitives. A remarkable result by Bitansky and Vaikuntanathan (FOCS 2015) showed that iO is essentially equivalent in power to public-key functional encryption . They gave a construction of iO assuming the existence of a sufficiently powerful functional encryption (FE) scheme, and conversely, prior works already indicated how to get FE from iO. In their abstract they noted that iO was powerful enough to give rise to almost any known cryptographic object, yet FE was seemingly a weaker notion; their work bridged this gap by showing FE with certain properties can actually lead to iO . The significance of this is twofold: (1) it provided an alternative conceptual path to iO (via FE) which could be useful if FE is easier to construct under standard assumptions, and (2) it helped simplify and modularize iO constructions by breaking the problem into smaller pieces (designing FE, which was better understood by then, and then upgrading it to iO ).

3.4 Progress in Assumptions (2015-2019)

One of the main theoretical questions about iO after 2013 was: Can we base iO on standard, well-established hardness assumptions? Early constructions relied on ad-hoc assumptions tied to new objects like multilinear maps. These maps (e.g. GGH13 multilinear lattices ) soon came under cryptanalytic attacks, undermining confidence. Over time, researchers proposed new candidate constructions that traded one assumption for another. For instance, some works assumed variants of the learning with errors (LWE) problem (a lattice-based assumption considered standard) but required other exotic assumptions alongside it. Others introduced assumptions like graph-induced multilinear maps, degree-preserving PRGs, or strengthening of existing ones (e.g. requiring sub-exponential hardness of DDH or LWE). The theoretical trend was a slow chipping away at the assumption barrier: reducing complex or circular assumptions to simpler, more standard ones.

A key milestone was achieved by Jain, Lin and Sahai in 2020, who constructed an iO scheme from a combination of four assumptions, each of which has a long history in cryptography or coding theory . This result was heralded as the first fully plausible iO candidate, as all its assumptions are considered plausible by most experts (albeit some in new settings). In simplified terms, their construction assumes the security of: A bilinear map assumption on elliptic curves (a variant of the Diffie-Hellman hardness used in pairing-based cryptography). The Learning With Errors (LWE) lattice problem (a cornerstone of post-quantum cryptography) in a sub-exponential security regime. A hardness assumption about decoding random linear codes (related to the well-known difficulty of error-correction decoding without a secret key) . A structured pseudorandomness assumption (instantiated via a pseudorandom generator or variant of the Goldreich PRG conjecture).

One highlight is the use of random linear codes: for decades, coding theory suggested that decoding a general random linear code (without structure) is intractable, and this was now brought in as a cryptographic assumption . Sahai noted that breaking this assumption would require a breakthrough in algorithms that has eluded researchers for \(70+\) years , lending credence to its hardness. The JainLinSahai (JLS) construction showed how to cleverly combine ingredients from disparate areas (lattices, codes, pairings) to achieve iO, reflecting a deep synthesis of cryptographic techniques.

Around the same time, other researchers achieved complementary results. A series of works by Agrawal, Wichs, Brakerski, and others aimed to base iO primarily on LWE, with only minimal extra assumptions. Notably, one construction achieved iO using LWE plus a single (relatively mild) circular security assumption . Circular security (roughly, that its safe to have encryptions of secret keys under themselves) is a heuristic assumption often made in cryptography. By reducing all other components to LWE (which is a well-studied assumption, even believed secure against quantum attacks), these works came tantalizingly close to the dream of iO from one standard assumption . Barak (2020) describes this convergence as different seasons of progress: the community has not fully reached the holy grail of basing iO on just LWE alone, but the gap has narrowed dramatically .

Its worth mentioning that virtually all current iO schemes require assumptions to hold with sub-exponential security. This means, for example, if using LWE, one must assume the attacker cannot solve the lattice problem even with \(2^{n^{\epsilon}}\) time (for some \(\epsilon>0\) ) when the dimension is \(n\). These stronger hardness requirements are often needed in the security proof to perform union bounds or to handle hybrid arguments involving exponentially many possibilities (e.g., guessing a PRF key index). While sub-exponential hardness assumptions are not uncommon in cryptographic theory, they do make assumptions strictly stronger and are a target for improvement in future research.

3.5 Limitations and Impossibility Results

Alongside positive results, researchers have also investigated what cannot be achieved with iO. Interestingly, even iO (with OWFs) is insufficient for certain tasks under black-box reductions. For instance, one result showed that there is no fully black-box construction of collisionresistant hash functions from iO and one-way permutations. In other words, iO doesnt automatically solve every cryptographic problem collision-resistant hashing seems to require additional assumptions or non-black-box techniques beyond just iO. Another work showed that iO (or even private-key functional encryption) cannot generically yield key-agreement protocols without extra assumptions. These results remind us that iO , while extremely powerful, has its limits and must be applied with care. They also encourage the exploration of non-blackbox techniques (like punctured programming) as essential in iO-based constructions, since purely black-box reductions often run into such barriers .

3.6 Summary of Theoretical Status

As of now, indistinguishability obfuscation has moved from a theoretical concept to a primitive with multiple plausible constructions. The evolution has been marked by a reduction in the speculative nature of assumptions: from entirely new hardness assumptions in 2013, we have reached a point where iO can be constructed from assumptions that are standard or at least closely related to well-studied problems (LWE, DDH on elliptic curves, etc.). Theoretical techniques like punctured programming, multilinear maps, functional encryption, and homomorphic encryption have all contributed to making iO feasible. Still, feasible in theory does not yet mean practical the schemes are extraordinarily complex and inefficient. However, the theoretical groundwork laid over the last decade provides a clear direction for further research, and it establishes iO as a central object of study in cryptography with connections to numerous other areas of theory.

4 Applications of iO

One reason iO is often dubbed a central hub or crypto-complete primitive is the astonishing breadth of applications it enables . Once re-

Construction Year Key Assumptions Status
GGHRSW 2013 Multilinear maps, FHE Broken (multilin-
ear map attacks)
GGH15 2015 Multilinear maps, graph-
induced multilinear maps
Partially broken
Lin-Vaikuntanathan 2016 LWE, PRGs with constant lo-
cality
Theoretical; un-
broken
Lin-Pass 2018 Subexponential LWE, weak
PRGs
Theoretical; un-
broken
Jain-Lin-Sahai 2020 LWE, bilinear maps, random
linear codes, structured PRGs
Current state-of-
art; unbroken
Wee-Wichs 2021 LWE plus circular security Simplest assump-
tions; unbroken

Table 1: Comparison of major iO construction approaches and their security status. searchers had a candidate iO in hand, they quickly discovered that many cryptographic constructions some previously known and some entirely new could be built or improved by assuming iO. We highlight several important applications and impacts of iO on cryptographic primitives and protocols.

Public-Key Encryption from Minimal Assumptions Perhaps the most celebrated application is the construction of public-key encryption (PKE) schemes from iO and only one-way functions. It is well-known that PKE cannot be achieved from one-way functions alone in a black-box manner (this is related to the separation of PKE from symmetric-key primitives in standard complexity assumptions). However, Sahai and Waters showed that by using iO, one can circumvent this limitation . In their approach, the encryption algorithm of a symmetric-key scheme (which normally uses a secret key) is obfuscated and made public. Concretely, take a one-way function \(f\) and use it to derive a pseudorandom function; then obfuscate a program that has the PRF key hardwired and, on input a message, uses the PRF output to one-time-pad encrypt the message. The obfuscation of this program becomes the public key, and the secret key is the seed to invert the oneway function (or evaluate the PRF at the punctured point). Because of indistinguishability obfuscation and punctured PRFs, an attacker cannot extract the hidden key from the obfuscated encryption program This yields a secure public-key scheme, an achievement illustrating how iO acts as a sort of alchemists stone to turn base primitives (one-way

Figure 4: Applications enabled by indistinguishability obfuscation. functions) into full-blown public-key cryptosystems. Deniable Encryption Deniable encryption (introduced by Canetti et al. in 1997) is an encryption scheme where senders (or receivers) can produce fake secrets that make a ciphertext appear to decrypt to a different message, thus denying the true message under coercion. Despite years of attempts, fully deniable encryption (in the multi-distributional sense) wasnt achieved under standard assumptions. Using iO, Sahai and Waters finally constructed the first sender-deniable encryption scheme. The idea, at a high level, was to obfuscate an encryption program that can operate in two modes depending on a hidden switch (a punctured program trick): one mode uses the real message, another uses a fake message. If coerced, the sender can provide a fake input that toggles the fake mode. The security of iO ensures an adversary cannot tell which mode the obfuscated program was actually using when producing the ciphertext, thereby providing deniability. This application not only solved a long-standing open problem, but also demonstrated how iO can serve as a substitute for the unattainable ideal obfuscation in complex security definitions.

Functional Encryption and Beyond As mentioned earlier, iO directly enabled constructing very general functional encryption (FE) schemes. With iO, one can create an FE for any circuit, which was far beyond the capabilities of pre-iO techniques (which could only handle limited function classes like inner-products or NP predicates under specific assumptions). The existence of general FE is itself extremely powerful, subsuming many other primitives like identity-based encryption, attribute-based encryption (ABE), and witness encryption. Indeed, many of these primitives were either simplified or shown to be constructible via iO. For example, iO can yield identity-based encryption by obfuscating a program that checks the identity and then decrypts with a hardwired master secret. Traditional ABE schemes that required complex pairings assumptions can alternatively be built using iO and simpler building blocks, often with much shorter ciphertexts or keys as a trade-off.

Traitor Tracing and Watermarking In the domain of digital rights management, traitor tracing schemes allow a content distributor to trace the source of a leaked decryption key (the traitor) when pirates collude to build a pirate decoder. Similarly, software watermarking allows embedding an undetectable marker in a program that can be used to prove ownership. Both of these advanced primitives saw progress through iO. For instance, Nishanth Chandran et al. and others leveraged iO to build software watermarking schemes for pseudorandom function programs, something previously not known under standard assumptions. The general approach is to obfuscate programs in such a way that the obfuscation inherently contains either a traceable mark or the ability to catch if its been modified. iO gives the ability to argue that the mark cannot be removed without fundamentally changing the programs function (which would be noticeable) an argument otherwise hard to make without an obfuscation guarantee. Traitor tracing schemes with short ciphertexts have also been built using iO by embedding tracing capabilities into obfuscated decoder programs.

Secure Multiparty Computation and Zero-Knowledge Indistinguishability obfuscation has contributed to reducing complexity in secure multiparty computation (MPC) and non-interactive proof systems. Huijia Lin notes that iO could enable extremely efficient secure multiparty communication protocols, possibly achieving security with minimal overhead. The intuition is that parties could exchange obfuscated stateful programs that encapsulate the next-step of a protocol, thereby removing the need for many rounds of interaction. Additionally, iO can be used to obtain non-interactive zero-knowledge (NIZK) proofs for NP by obfuscating a program that contains a hardcoded NP witness and only outputs a confirmation if a provided statement is true. Normally, such a program would reveal the witness if inspected, but iO ensures that if two statements are true, their corresponding proof programs (which do contain different witnesses internally) are indistinguishable to the verifier. Early works constructed NIZK from iO and one-way functions, achieving in principle what previously required heavy tools like pairings or the random oracle model.

Universal Composition and Advanced Protocols iOs applications extend to virtually any scenario where a cryptographic protocol or primitive could benefit from a party being able to compute a function without revealing how they are computing it. For example, in program obfuscations original motivation software protection iO would allow software vendors to distribute programs that hide their internal logic or secret keys, solving an important practical problem if it were efficient. While current iO is far from practical, the principle stands that it would be the ideal solution to prevent reverse-engineering of software, viruses, or even cryptographic white-box implementations (like an obfuscated DRM player that embeds a decryption key yet is hard to extract).

Another frontier is obfuscation for cryptographic protocol steps. In cryptographic protocols, we often assume parties run certain algorithms (key generation, signing, etc.) honestly. With iO, one can sometimes obfuscate a protocol algorithm and give it to other parties such that they can execute it without learning the secret within. This has been used to achieve things like delegatable pseudorandom functions and verifiable random functions by obfuscating key-holding algorithms in a way that preserves output correctness but hides the key.

In summary, indistinguishability obfuscation has proven to be an extremely versatile tool. Researchers have shown that any cryptographic system or protocol that can be realized in an ideal model (e.g., using a random oracle or a black-box access to a functionality) can often be instantiated in the real world using iO. This effectively means iO, combined with simple primitives like one-way functions, gives a way to build many cryptographic constructions that were previously conjectured but not realized. Indeed, iO has been used to achieve or simplify: one-round multiparty key exchange, time-lock puzzles with no computational assumptions (by obfuscating a loop that runs for a specific number of steps), and more. While each application may require additional assumption or clever construction, iO has lowered the barrier in a host of cryptographic problems, turning several unknown possibility results into concrete (if still theoretical) constructions.

5 Current State of Research

The rapid developments in iO research over the past few years have significantly shifted the landscape. In this section, we discuss the current state-of-the-art for indistinguishability obfuscation: what constructions are considered secure today, what assumptions they rely on, and how the communitys confidence in iO has evolved. We also address practical considerations and remaining hurdles from a research standpoint.

5.1 Confidence in iOs Existence

After the initial excitement of 20132014, the cryptographic community grew cautiously skeptical due to the series of breaks targeting candidate multilinear maps. For some time, whether general iO existed at all was an open question you might get different answers to, depending on whom you asked and which ePrint report they read that week . However, the whiplash has eased with the advent of constructions based on well-founded assumptions. The 2020 JainLinSahai result was a turning point: it showed that by assuming several standard hardness conjectures (LWE, codes, pairings, etc.), one can obtain iO . This greatly increased the communitys confidence that iO is part of our cryptographic reality (much like we believe secure multiparty computation is possible even though early protocols were inefficient). The newer candidate has so far withstood public scrutiny; no fatal flaw has been found in the underlying assumptions or the security proof, although its still relatively recent. Likewise, the parallel line of work that nearly bases iO on just LWE (plus a mild assumption) has added optimism, since LWE is a widely trusted foundation . Overall, while some healthy skepticism remains especially because the constructions are enormously complex most experts now cautiously lean towards believing iO can be instantiated in theory. This is a stark change from, say, 2015 when the prevalent attitude was uncertainty.

Assumptions and Security of Current Constructions. The state-of-the-art iO constructions, broadly speaking, fall into two categories: Multi-Assumption Constructions (e.g., JLS 2020): These use a combination of several assumptions, each moderate by itself, in unison. For instance, the JLS scheme assumes four things: sub-exponential LWE, a coding assumption, a Diffie-Hellman style assumption on groups, and a locality-based PRG assumption . Because each of these has been studied individually (to varying extents), the construction is termed heuristic-free it doesnt rely on a completely untested assumption like previous candidates did. The security proof reduces an attack on the obfuscator to breaking one of these assumptions. To date, none of these assumptions have been disproven (and indeed some, like LWE, have withstood a great deal of testing). Thus, the security of the scheme is only as questionable as the conjectures themselves. Some of the assumptions (like the linear code assumption) are new to cryptography, so they havent received decades of attention; but they are grounded in problems known to be hard in other fields (coding theory), which inspires some confidence . LWE-centric Constructions: A number of works are homing in on using primarily the Learning With Errors assumption, which is appealing due to its simplicity and resistance to quantum attacks . Brakerski et al. (2020), Wee and Wichs (2021), and others demonstrated iO constructions that, aside from a circular security assumption (considered a relatively minor leap of faith), rely solely on LWE. Circular security has been assumed in other contexts (like key-dependent message security) without issue, and might eventually be removable. These constructions are significant because if the remaining heuristic assumption is eliminated, we would have iO from just LWE achieving the holy grail of basing iO on a single core assumption . As of now, these almost standard schemes are still a bit heuristic but represent the cutting edge. Researchers are actively exploring ways to remove even the circular security assumption or replace it with standard hardness of a specific algebraic problem.

One interesting divergence in current research is whether to include LWE at all. The JLS approach uses LWE, but some follow-up work suggests that LWEs inherent noise might be a liability in obfuscation (because the noise in lattice-based encryption can leak information upon many uses). Indeed, Lin pointed out that the random noise that is crucial for LWE security tends to accumulate and could compromise obfuscations security if not handled carefully . The JLS paper managed this by combining with other tools, but Jain has hinted that subsequent efforts try to avoid LWE entirely to simplify constructions . This is somewhat ironic given the push to base iO on LWE; it underscores that the simplest assumption for general encryption might not be the simplest for obfuscation specifically. In any case, whether LWE is included or not, the fact remains that some structured hardness assumptions are needed, and current trends are trying to minimize and simplify those sets of assumptions.

5.2 Efficiency and Complexity Concerns

A glaring aspect of all known iO constructions is their astronomical inefficiency. The size of an obfuscated circuit and the time to produce or evaluate it are far beyond feasible. For example, earlier prototypes (using now-insecure techniques) were estimated to blow up a program of size 80 bits to more than 10 GB of obfuscated code, taking minutes to run . The more secure current proposals are even more complex Sahai remarked that the overhead is so high it is impractical to even estimate with precision . The complexity comes from many layers of reductions, encodings, and cryptographic primitives within primitives. Each step that makes the program more obfuscatable introduces a large multiplicative overhead.

The consensus is that efficiency, while a serious issue, is likely to improve with time. There is historical precedent: early constructions of multiparty secure computation or probabilistically checkable proofs were absurdly slow or large, yet decades of research brought them closer to practical viability, with improvements by many orders of magnitude . Barak draws an analogy to those cases, suggesting the current state of iO might be akin to the very first MPC protocol conceptually groundbreaking but ripe for optimization . Indeed, researchers are now looking at the myriad sub-components of iO constructions to see where optimizations or simplifications can be found. Every removed layer of complexity could potentially reduce that exponential overhead by a polynomial factor, which in aggregate could be huge.

5.3 Ongoing Research Directions

A few prominent directions in ongoing iO research include: Simplifying Assumptions: As mentioned, a drive exists to reduce the assumptions to a single core problem or at least a smaller set of well-understood problems. The motivation is partly aesthetic (a simpler foundation is easier to trust) and partly practical (every additional assumption is another potential point of failure). Work is ongoing to see if the coding assumption can be replaced by a variant of LWE, or if the pairing assumption can be dropped by using more lattice structure, etc. . The ideal endgame is iO based on a single assumption like LWE or on an assumption thats as established as (say) factoring or discrete log. Achieving that would likely remove much of the remaining skepticism in the community. Modularizing and Optimizing Constructions: Researchers are revisiting the current constructions to identify unnecessary steps. As Sahai noted, often you go back and realize you didnt need certain steps . There is a tightening mode now where the community is consolidating ideas different groups works are being compared and combined to eliminate redundancy. A more compact conceptual frame- work for iO is being sought, which would not only improve efficiency but also make security proofs easier to digest (right now verifying a full iO proof is an arduous task). The Simons Institute even hosted collaborative workshops where authors of various iO papers presented together to unify the perspective . Quantum Security: As quantum computing advances, its important to consider if iO remains secure against quantum adversaries. The inclusion of lattice assumptions like LWE is a positive in that regard (since LWE is believed quantum-safe). However, any scheme that uses classical number-theoretic assumptions (like elliptic curve pairings as in SXDH) would not be secure if large quantum computers arrive. Thus, one direction is to ensure iO can be based entirely on post-quantum assumptions. The LWE-centric approach is promising for that. If iO can be built from LWE (plus maybe a quantum-safe circular security assumption or a code assumption), then it would inherit post-quantum security. Some pieces like the Goldreich PRG (if used) also need to be examined for quantum resistance. Overall, aligning iO with the goals of post-quantum cryptography is on the roadmap. Applications and Synergies: While theory work continues, some researchers are exploring intermediate goals or specialized uses of iO-like primitives. For instance, domain-specific obfuscation (obfuscation for specific functions like simple algebraic functionalities) might be achievable with far less overhead, and could yield practical tools sooner. Also, iO has synergies with other emerging ideas like secure hardware enclaves (one could store an obfuscated program in an enclave for efficiency, etc.) and blockchain smart contracts (obfuscation could hide contract logic on a public ledger until conditions are met). The current research state includes investigating such hybrids using a bit of trusted hardware or a bit of multi-party computation to augment iO and reduce its burden.

In conclusion, the current state of iO research is one of cautious optimism and active refinement. We now have credible constructions that havent been broken, which is a big leap from a few years ago. The community is steadily chipping away at the complexity, trying to distill the essence of what makes program obfuscation possible. While we are still far from seeing iO in widespread practical use (or even a prototype for moderate-sized programs), the theoretical foundation is stronger than ever. Indistinguishability obfuscation is increasingly viewed as a real (if complex) object in cryptography, and ongoing research is firmly focused on making it simpler, faster, and based on unassailable assumptions.

6 Open Problems and Future Directions

Despite significant progress, indistinguishability obfuscation remains a young and challenging field. Many important questions are unresolved, and the path to practical, provably secure iO is still long. In this section, we outline several open problems and future research directions for iO .

Open Problem Current Status Research Directions
Efficiency Im-
provements
Astronomical overhead;
impractical for real use
Optimize circuit components; ex-
plore specialized hardware accelera-
tion; restrict to important program
classes
Assumption Mini-
mization
Multiple assumptions
needed (LWE + coding
+ PRGs + pairings)
Base iO on LWE alone; remove sub-
exponential hardness requirements;
find simpler assumptions
Practical Obfus-
cation
No implementations for
non-trivial problems
Develop domain-specific obfusca-
tors; explore approximate obfusca-
tion; create benchmarks
Post-Quantum
Security
Some constructions use
quantum-vulnerable
pairings
Base iO entirely on quantum-
resistant assumptions; study quan-
tum obfuscation
Theoretical Im-
plications
Connections to com-
plexity theory not fully
explored
Characterize complexity-theoretic
consequences of iO; develop black-
box separation results

Table 2: Summary of major open problems in iO research.

  1. Improving Efficiency The most obvious gap between theory and practice is efficiency. Current obfuscation schemes are extraordinarily impractical, with size and runtime overheads that are infeasible for all but toy examples . A crucial open problem is to reduce the complexity of iO constructions by orders of magnitude. Achieving even a sub-exponential improvement (for example, bringing the overhead from exponential in the circuit size down to quasi-polynomial) would be a major breakthrough. Future work may explore new optimization techniques, perhaps by leveraging structure in the circuits being obfuscated (obfuscating restricted classes of programs more efficiently) or by discovering entirely new paradigms that avoid the costly steps of current approaches. As Barak noted, other areas of cryptography have seen radical efficiency improvements through sustained effort . A specific challenge is to streamline the chain of reductions in current iO proofs each reduction often blows up the size. If researchers can find a more direct way to go from assumptions to an obfuscation (fewer hybrid steps in proofs, fewer nested cryptographic primitives), this could cut down the overhead dramatically. Another angle is developing better heuristic optimizations in implementations (should anyone attempt to implement current iO); even though provable security might be lost, it could inform where the bottlenecks lie and guide theoretical improvements.
  2. Reducing Assumption Complexity While recent constructions have shed the completely ad-hoc assumptions, they still require multiple assumptions or strengthened forms (like sub-exponential hardness). A key open problem is to base iO on the simplest possible assumption(s). The ideal goal often stated is iO from only the Learning With Errors (LWE) assumption or something equivalently well-studied (perhaps factoring or discrete log, though those seem less likely given current knowledge). Achieving this would likely involve removing the need for certain components like the random oracle-like objects or specialized PRGs used in current schemes. It might also involve proving the security of some current heuristic (such as circular security) under a standard assumption, so it no longer counts as an extra assumption. Another intriguing possibility is basing iO on new complexity assumptions that could be more efficient or easier to work with than LWE. For example, the hardness of decoding random linear codes (used by JLS) might become a standalone assumption for iO if it gains enough credibility. Researchers are also exploring assumptions in idealized models (like obfuscation in random oracle model or generic group model) as stepping stones; while not real assumptions, these can highlight where we might eliminate or simplify things in the real world. In summary, assumption minimization is both a conceptual and practical pursuit fewer assumptions mean a conceptually cleaner foundation and often less complicated constructions.
  3. Foundations in Complexity Theory Indistinguishability obfuscation lies at an intersection of cryptography and computational complexity theory. Its existence (or non-existence) has implications for complexity separations. For instance, it is known that if iO for all circuits exists (with auxiliary input one-way functions), then certain complexity classes related to pseudorandomness and NP might have new relationships (there are results about iO implying NP is not in coAM or that certain proof systems exist under iO). A theoretical open question is to more precisely characterize the complexity-theoretic consequences of iO. Can we, for example, show that iO implies \(P \neq\) $N P$ (most suspect not directly, but iO does imply one-way functions which in turn imply \(N P \nsubseteq B P P\) so a world with iO is a world with secure crypto)? Conversely, could proving iO from weak assumptions inadvertently solve a major complexity question (for instance, basing iO on NP-hard problems would be surprising, since it might put those problems in a cryptographic context)? So far, iO has fit within our cryptographic world without shattering known complexity assumptions (e.g., it doesnt give \(N P \subseteq P /\) poly or such nonsense its consistent with known or believed separations). However, deepening the link between iO and complexity classes remains an open area. Another specific angle: is there a black-box separation showing iO cannot be based on certain classes of assumptions? Some works already show iO cannot be constructed in a black-box way from one-way permutations alone , suggesting needing richer structures. Mapping out these limits can guide which assumptions are worth targeting for iO.
  4. Cryptanalysis of New Assumptions With new assumptions (like the explicit linear code assumption, or certain structured PRG assumptions) introduced, another ongoing task is cryptanalysis attempting to break or weaken these assumptions, or finding the exact hardness boundary. The community needs to test the hardness of decoding the specific linear codes or the security of the specific PRGs used in iO frameworks. If weaknesses are found, iO constructions might need revision; if they hold firm, confidence grows. Unlike classical assumptions (RSA, AES, etc.), these new problems havent had decades of concerted attack efforts. So a future direction is to subject them to such efforts. This is not an open problem in the sense of something to construct or prove, but rather a crucial component of iOs maturation: withstand attempts of cryptanalysis over time. As Yael Kalai pointed out in a panel, confidence in assumptions grows over years Diffie-Hellman was once new and unproven, but now is standard. The same must happen for iOs assumptions. One could imagine future competitions or challenges set up to solve instances of the underlying problems (similar to RSA challenge), to gauge their security margins.

5. Toward Practical Obfuscation (Special Cases and Ap-

proximations) Achieving full iO for all circuits in a practical sense might be far off, but there are intermediate goals. One is obfuscation for specific function families that are particularly useful, under weaker assumptions. For example, can we obfuscate point functions (which are essentially digital lockers/password checks) efficiently? This is known to be possible under the existence of one-way functions (via simpler constructions like hashed password files), but doing it in the indistinguishability sense with full security has nuances. There are partial results (e.g., obfuscating point functions and conjunctions using specific assumptions). A related problem is approximate obfuscation:maybe we can live with an obfuscator that mostly preserves functionality (with small probability of error) if that circumvents impossibility for certain tasks. Barak et al. had extended impossibility to some forms of approximate obfuscation, but perhaps for restricted circuits, approximate obf. is viable. Another angle is measuring obfuscations efficacy: in practice, one might not need perfect indistinguishability, just enough that an adversarys job is sufficiently hard. This leads to considering heuristic obfuscators (like virtualization and software packing used in industry) and bridging them with theoretical iO to see if any security can be formally proven. While not exactly iO, this is a direction to gradually bring theory closer to practice.

  1. Obfuscation in New Domains The current definition of iO is for classical boolean circuits. Obfuscation for quantum circuits or protocols is an open frontier. Would an iO for quantum circuits even make sense (given quantum information can leak in new ways, and indistinguishability would have to allow quantum distinguishers)? Some initial work has started on defining quantum obfuscation, but its largely unexplored. If quantum computing becomes prevalent, understanding how (or if) iO can work in that realm will be important. Similarly, applying obfuscation to randomized functions or machine learning models is an emerging area. One can ask: can we obfuscate a neural network so that the model is hidden but it still produces the same classification outputs? This crosses into AI security and is partly practical, partly theoretical. The current iO theory mostly handles deterministic circuits; handling randomness (beyond what can be fixed by coin-fixing techniques) might require new ideas.
  2. Ethical and Security Implications Outside of pure research, a broader question looms: How will the availability of iO affect security overall? On one hand, it empowers defenders (e.g., protecting software, credentials). On the other hand, it could aid malware authors by making analysis of malicious code near-impossible. This dual-use concern isnt a problem to solve in the usual sense, but it is an issue that the community will eventually need to confront. Future research might consider obfuscation misuse detection (if that is even feasible) or build frameworks for lawful escrow if governments push back against widespread use of obfuscation. While these are more policy and ethical questions, they could influence technical designs (for example, perhaps future obfuscators have tracing capabilities combining watermarking to deter misuse).

In summary, the future of indistinguishability obfuscation research is rich with challenges. The field is poised between theory and practice: foundational questions about assumptions and efficiency are equally as important as exploring new applications and implications. A successful resolution of these open problems could eventually lead to a world where obfuscation is a standard tool in every security engineers toolkit providing a powerful way to secure software and cryptographic protocols. Reaching that point will likely require many incremental advances: shaving complexity factors, gaining confidence in assumptions year by year, and creatively adapting iO to new contexts. The journey of iO , often likened to a crypto dream, exemplifies the interplay of deep theory, system-building, and even philosophy of cryptographic design. The coming years will determine how this dream materializes into reality.

7 Conclusion

Indistinguishability obfuscation has rapidly evolved from a cryptographic curiosity into a central focal point of modern cryptographic research. In this survey, we explored how iO arose as a response to the impossibility of perfect black-box obfuscation, offering a weaker but achievable goal. We reviewed the formal definitions that underpin iO and traced the development of its theoretical foundations from the first heuristic constructions relying on novel algebraic assumptions, to recent schemes built on pillars of lattice, coding, and pairing-based cryptography. Along the way, we saw how iO has enabled a cascade of applications: long-standing problems like deniable encryption, functional encryption for general circuits, and advanced protocol tasks have seen solutions through the lens of iO , fundamentally changing the cryptographic landscape. We also discussed the current state of the art, noting that while no consensus standard model construction of iO is yet as simple as, say, RSA or AES, the community has made great strides in basing iO on assumptions we have reason to trust and in understanding the intricate web of reductions needed to make iO secure.

Several themes emerge from this exploration. First, iO serves as a powerful unifying framework disparate primitives and security notions can often be realized by constructing an appropriate program and obfuscating it, leveraging iOs guarantee to ensure security. This central hub quality of iO explains the tremendous excitement it has generated; it is no exaggeration to say that iO , if fully realized, would enable a form of cryptographic completeness, allowing us to bootstrap nearly any desired cryptographic functionality from basic components . Second, the path to realizing iO highlights the creative synthesis of techniques in cryptography: ideas from homomorphic encryption, multilinear maps, pseudorandom functions, and more all converge in service of obfuscation. The field has spurred new connections between cryptography and complexity theory, coding theory, and even software engineering principles. At the same time, our survey underlines a note of caution. Indistinguishability obfuscation today stands at a crossroads: constructions exist but remain enormously complex and inefficient. The assumptions, while more solid than before, need time and scrutiny to become universally accepted. There is much work left to be done before iO can transition from theory to practice. Open problems abound in improving efficiency, simplifying assumptions, and extending obfuscations reach. The coming years will be crucial for refining iOs foundations either reinforcing the confidence that it can be practical or identifying fundamental barriers that must be overcome.

In conclusion, indistinguishability obfuscation represents both a pinnacle of cryptographic ingenuity and a grand challenge. Its dual nature as an enabler of anything in crypto and a construct difficult to pin down makes it a fascinating subject of study. The progress made thus far gives reason for optimism: slowly but surely, researchers are demystifying iOs construction and strengthening its groundwork. If these trends continue, the once elusive goal of general-purpose program obfuscation may become a standard tool, profoundly impacting how we protect software and data. Even if hurdles remain, the journey toward iO has already enriched cryptographic science, leading to new techniques and deeper understanding. In the ongoing quest for secure computation and communications, indistinguishability obfuscation stands out as a testament to cryptographers willingness to tackle impossible problems and occasionally, to overcome them.

References

[ \(\left.\mathrm{BGI}^{+} 01\right]\) Boaz Barak, Oded Goldreich, Russell Impagliazzo, Steven Rudich, Amit Sahai, Salil P. Vadhan, and Ke Yang. On the (im)possibility of obfuscating programs. Electron. Colloquium Comput. Complex., TR01, 2001. (In pages 3, 6, and 7). [BV15] Nir Bitansky and Vinod Vaikuntanathan. Indistinguishability obfuscation from functional encryption. Cryptology ePrint Archive, Paper 2015/163, 2015. (In page 4). [Edw21] Chris Edwards. Better security through obfuscation. Commun. ACM, 64(8):1315, July 2021. (In pages 3 and 5). [GGH12] Sanjam Garg, Craig Gentry, and Shai Halevi. Candidate multilinear maps from ideal lattices. Cryptology ePrint Archive, Paper 2012/610, 2012. (In page 4). [GGH \({ }^{+}\)13] Sanjam Garg, Craig Gentry, Shai Halevi, Mariana Raykova, Amit Sahai, and Brent Waters. Candidate indistinguishability obfuscation and functional encryption for all circuits. Cryptology ePrint Archive, Paper 2013/451, 2013. (In pages 3 and 4). [JLS20] Aayush Jain, Huijia Lin, and Amit Sahai. Indistinguishability obfuscation from well-founded assumptions. Cryptology ePrint Archive, Paper 2020/1003, 2020. (In page 5). [SW14] Amit Sahai and Brent Waters. How to use indistinguishability obfuscation: deniable encryption, and more. In Proceedings of the Forty-Sixth Annual ACM Symposium on Theory of Computing, STOC '14, page 475484, New York, NY, USA, 2014. Association for Computing Machinery. (In page 4).

[^0]: \({ }^{1}\) New Developments in Indistinguishability Obfuscation (iO) by Boaz Barak