像剛才講的,我現在最關注的技術就是怎麼樣子確保這種橫向的擴散——在 AI 擴散的時候,它造成的這些危害,我們也可以透過這種分散式的方法來解決。我舉例:好比像說,像剛剛分散式的,就是大家都可以偽裝成什麼名人在社群媒體上面打廣告騙人的能力,你就可以用分散式的,每個人都可以透過電子簽章,來確保說這個真的是本人;沒有授權的,你就要把它當成是詐騙了。這樣子的做法來解決。所以你就不是說,擴散式的危害一定要靠集中式的方法來解決,因為集中式的方向盤天生就打得比較慢,這個是一定的。
那或者是說,我在法國的時候有跟像很注重安全的 Eric Schmidt,以及很注重開放擴散的 Yann LeCun,我們三個人一起去發佈了一個叫 ROOST,就是 Robust Open Online Safety Tools,那就是說在網絡上面現在有很多——可能就是剝削兒少啊什麼這樣子的一些圖片或影音。
在以前呢,這些都很容易找到拍的人等等,因為能夠大量製作這樣子的,必須要是一個犯罪集團。但現在因為合成式的 Deepfake 變得很容易製作,所以就變成是你很難去找到到底是哪個犯罪集團在做;任何個人他甚至用筆電、用個人電腦,就可以大量合成這樣子的照片或影音。那這樣的話,你如果要解決這個問題,你就很難像以前那樣,把所有偵測到的 CSAM(兒童性剝削素材)都全部集中到某一個資料庫裡面,因為太多人製造這樣的東西了。
所以反過來,你就要把偵測怎麼樣子是 CSAM 的這樣子的能力,也開放出來,然後訓練到每個人的手機裡面、或者在自己的個人電腦裡面,自行偵測的時候,就可以立刻去偵測說,這個是 CSAM。而且還可以加入大家一起貢獻出這樣子的數據,然後來進行分析,再訓練下一代的模型等等。
所以就是說,防衛性的這種科技也必須要用分散式,因為攻擊造成危害的能力現在已經分散了。這樣子的想法,我們叫做 d/acc,就是 Defense-Decentralization-Democracy/Acceleration(去中心化的民主防衛加速),因為大家發現說,我們在這些事情上面,我們開放式的這樣子的擴散,它不會產生武器化的作用,因為那些犯罪者本來手上該有的都已經有了,所以大家不管是注重安全的,還是注重開放的,都可以投資在這個只能做防衛使用的領域裡面,這就是我最關心的題目。
那當然除了 CSAM 或者詐騙之外,還有很多很多分散式防禦對於安全有幫助的地方。Cyber Security 就是另外一個很好的例子,因為資通安全嘛,現在你要打一臺電腦的漏洞等等,在以前你需要很專業的駭客,一直去遙控這個裡面的病毒、木馬等等;那現在呢,病毒也好木馬也好,它越來越有智慧了,它以後也不一定要你遙控,這個木馬在那邊直接使用對方的算力就可以自己橫向移動等等。
那要怎麼抵禦這樣子的攻擊呢?你還是要用 AI 來做。所以這種 AI 防衛的技術,在臺灣也是我們叫做信賴科技產業鏈的一環;我們有五個 Trusted Industry Sectors,各種各樣值得信賴的科技所組成的。那這些 sector 就是我們現在臺灣,大家最希望不管是民間投資或政府投資,能夠集中到五大信賴產業上。
我們剛剛提到,大概 2015 年的時候,那個時候就發生了一個,我覺得是一個分水嶺。當時在網路上面大家可以自由表達意見,也看到說這樣子自由表達意見可能會讓社會有分裂的問題。在臺灣,我們所採取的方法,就是讓政府對人民透明。這個情況下,不管你再怎麼分裂,至少可以瞭解到有些共同的事實基礎,然後討論的時候比較能夠找到所謂 uncommon ground,就是大家雖然彼此之間感受不同,但至少對這些基本的事實都是互相認同的。
那他們就採取了相反的方法,他們是讓人民對政府透明。所以你不管在做什麼,只要是在網絡上面發表意見、或者是進行討論等等,政府都知道你在做什麼。而且如果你的這樣子的集會、結社這些自由,對政府造成了一定程度的威脅,那這樣政府就會警告你,說不能夠再做這樣子的言論等等。所以我們就可以知道,這兩個方向同樣只有做「透明」,但是「政府對人民透明」跟「人民對政府透明」是完全不一樣的方向。所以從那個時候開始,相同的數位技術,很多時候就是做背道而馳的應用。
另外,我先想要挑戰「一切都監控起來會最安全」的這個想法。因為我們剛剛提到,好比像說 2020 年初期,大家都碰到疫情的問題,但其實早在 2019 年底,中共那邊就有像李文亮醫師,他就已經發現自己患病了,而且他覺得這感覺上不是普通的感冒,可能是很致命的一種疾病,他也試著去提醒他的同事啊等等。但是因為他們那邊的言論監控,所以他們就要求李文亮醫師去寫個悔過書什麼的,不讓他繼續說有病毒,而且這個病毒可能不是一般的感冒這件事情。
如此一來,就讓本來可能可以提醒到更多人的,變成沒有辦法提醒到那麼多人了。那當然從一個角度來看,就是不要引起社會的慌張吧,這可能是所謂的「安全」。但是以對疫情的對應來講,這應該是非常不安全才對,因為實際上它擴散到不得不把整個武漢城封鎖的那個情況下,他們才提出對應。但是如果一開始就讓大家知道有這回事,而且可以比較分散式地採取最好的應對方法的話,那可能到最後也不會有這樣子的結果。
所以事實上就是說,安全是多個層面的。很多部分的安全對應,是依賴於整個社會有所謂的 resilience,就是韌性。韌性是來自於每個人都充分瞭解、很透明地瞭解到底事情實際上是怎麼樣,然後每個人都有能力去找出從他的角度,他可以怎麼樣來因應這樣子的危險,不管是疫情,還是什麼別的問題。
但是,如果你剝奪掉這個能力,甚至連決策者都沒有辦法很精確地知道到底發生什麼事,因為你把言論自由取消掉了,那樣的話,只有在某個部分可能讓社會比較這方面達到一些安全的目的,但是在所有其他的部分,其實是犧牲了安全,因為你能做安全對應的基礎,就是大家共同認識的基礎,被剝奪掉了。
那各位是新聞工作者,新聞工作就是這個共同認識基礎的一個最基本的部分。但是在 2015 年以前,中共那邊的新聞自由跟現在的新聞工作者自由,大家可以看到就已經有相當大的不同了。所以我首先並不認同這種高度監控、維持穩定、網絡上的清朗和諧,就一定是達到安全最好的方法。事實上我們臺灣在 2020 年或 2021 年對應疫情的能力,並沒有比中共那邊差,事實上按照大部分統計數字是比較好的。但是我們這樣子並沒有讓任何城市被封鎖住,我們也沒有讓消息被封鎖住,我們的新聞記者不但可以問問題,而且每天都得到回答,每天下午 2 點都得到回答。所以在這個情況下,我們覺得這種分散式、政府對人民透明的方法,其實是更安全的。疫情是一個很好的例子,不管是口罩的分配等等,大家越清楚實際的情況,是越好的。
至於你後面的問題,推到極致會怎麼樣?當然我沒辦法幫極權政體說話,但從理論上面來講,就是變成越來越少數人,可以幫整個社會做越來越多的決定。你就不再需要分散這個決定權利到實際靠近那個事情的人身上,因為靠近這件事情與否,你可以用各種各樣的監控設備來取代,所以你不需要在場的新聞記者、調查報導工作者,告訴你這個情況怎麼樣,用無人機、用 AI,你也可以取得這樣子的資訊。差別是說,當決定權力掌握在極少數人手上的時候,他做一個錯誤的決定,所造成的不利影響就沒有辦法糾正;反而如果是分散式做決定,雖然大部分的決定都不會完美,但是也不太可能造成對整個社會非常糟糕的危害。這個就是 checks and balance,互相制衡的力量。
我們還是認為說,在比較自由的,大家比較有共同的認識基礎的社會,才比較能夠制衡,也比較不會有對整個社會的傷害。反過來講,如果絕大部分的人都沒有討論的自由,甚至沒有理解事情實際情況的自由,只有極少數人透過 AI 都聚集起來做判斷,那他要是做出好的決定當然很好,但是做出不好的決定就沒有救了,就好像你沒有方向盤,在懸崖邊直接掉下去。
DeepSeek 相信大家知道,它是所謂的開放模型,就好像一個樂高積木一樣,任何人都可以拿這個樂高積木自己再疊別的樂高高塔。但是當 DeepSeek 剛出來的時候,我們看到很多宣傳,好像說它只花六百萬元就蓋了這麼高一座塔,但其實不是嘛,它只是疊最後一塊積木上去,而且現在也有人在它的基礎上面再疊新的積木了。好比像說 Perplexity 就拿了 R1,就是 DeepSeek 的推理模型,做出了 R1-1776,那 1776 就是美國獨立的那一年,所以他就是拿 R1,但是透過後面的訓練,去消除掉 R1 裡面本來會有很多言論審查的成分,好比像說不能夠談天安門等等。那這些部分他把它消除了之後,再把新的這塊積木也放出來,又有很多人拿這塊新的積木繼續去發展、繼續去開發。
所以當然,共享出來讓大家能夠繼續開發這件事情,本來就是一件好事,在前面的回答也都提到了。但是在極權政體,因為它很擔心大家會問一些問題,像天安門什麼的,所以在極權政體境內去運營的服務,大家就會看到,雖然 DeepSeek 已經準備要回答了,但它回答到一半突然又被取消掉了,可以看到 DeepSeek 的不管是 APP 還是網站,都有這樣子的問題。
所以它貢獻出這塊積木,就跟任何科學研究或者開發的貢獻相同,但是在它的境內營運的話,我們這邊的數位發展部很早就講了,你如果去依賴它的這個服務的話,就跟依賴 TikTok 是一樣的道理,很容易變成你的機密啊、隱私啊等等部分,可能就會被過度蒐集,甚至拿去做什麼別的利用。所以還是去使用像 R1 1776 啊,或者是現在 Hugging Face 也在重新訓練所謂的 Open R1 等等的做法,比較保險。
美國跟中國之間,現在不管是經濟、技術,都有對立、分裂、脫鉤的情況,對立也日漸嚴重。您剛剛提到的很多 Open Source(開源)的努力,是否會因為這個對立造成一些阻礙呢?或者在 AI 安全上,美中的政治對立會不會是阻力? 我想即使是在冷戰最劇烈的時候,美國也有分享關於像核燃料怎麼樣子安全儲存的技術給蘇聯。因為如果不管任何人,因為一個不小心或者是故意的犯罪行為,導致大規模放射性事件,對全世界都是壞事,不會只對某個國家是壞事。所以所謂的 global security(全球安全保障),就是雙方可以互相分享知識的一個契機。 所以我們現在也看到,自從巴黎的 AI 峰會之後,包含像英國,它本來叫做 AI Safety Institute,就好像道路安全,要繫安全帶那種 Safety,它改名叫做 AI Security Institute,那就是用 Security(國安、資安)的角度,而不只是用 Safety(產品安全)的角度來看待 AI。因為 AI 造成的損害、危害的範圍擴大的同時,大家也用新的「國安」角度來看待 AI。 那在這個過程裡面,大家就發現 Open Source 就扮演很重要的成分。因為在 Cyber Security(資安)世界裡,新出來的加密系統或者新的資安系統,往往不是大家關起門來自己做,而是在草稿階段就公佈出來。你說會不會讓攻擊變得更容易?其實這三十年來的資安界,已經有共識,就是 The enemy already knows the system(攻擊者早就知道你用的系統)。所以你只要守住你的鑰匙就好,其他全部公開,這樣反而比較安全。如果你又要守住鑰匙,又要守住所有程式碼、所有部署藍圖等等,要求攻擊者都不知道,反而一下就被打穿了。所以在這個過程裡面,大家透過 open source cybersecurity 的想法,以及 resilience(韌性)——並不是你不被攻擊,而是因為藍圖都公開,朋友跟你協防的這些朋友也都知道你的藍圖,反而可以及時幫你修正、幫你阻斷攻擊者路徑等等。 這樣一來,反而需要儘可能地開放出來你怎麼防守。而且在開放出來的前提底下,有所謂的 interoperability(共同性),不管是臺灣或者日本,跟理念相近的這些朋友一起訓練也非常重要。在所有這些部分上面,open source 都是一個前提,open source 反而增進 security。這個想法其實是本世紀的想法。上個世紀,連加密系統都被認為是軍事用途、不可以輸出的,在美國是這樣。但經過了三十年,整個資安界都瞭解到,我的密碼系統越公開,漏洞越早被發現,反而越好,也就越強健、更安全。所以接下來 AI 安全也會往這個方向走。 當然還是有互相競爭,但怎麼樣確保「安全」的這一部分,倒是可以分享出來的,它不會造成阻礙。因為在以前,你要對對方造成資安上的傷害,你也必須是一個大國才能做到,但現在情況不是這樣。就算只是一個三四個人的犯罪團伙,也可以做到不成比例的傷害,就像當初有人拿飛機去撞高樓一樣。所以在新的情勢底下,你要防範的就不是只有別的大國,而是各種小型犯罪集團。這些小型犯罪集團甚至已經可以透過勒索軟體、線上詐騙等等全自動化的方式去運作,連遙控都不需要。它犯罪得來的錢又可以再購入算力,形成持續迭代。所以未來可以想像這種情況更加複雜,所以各國也就更需要在「AI 如何防禦」這件事上面互相分享知識。 另外,在教育場域上,有些人擔心未來是不是不需要老師,因為很多東西請 AI 就可以了,像語言翻譯、法律檢索等等都可以 AI 做。您覺得在教育現場,AI 應該怎麼被運用? 不過這個挑戰,其實當初有搜尋引擎、有維基百科出來的時候就已經出現過一次了。以前是說老師腦裡有最專業的資訊,學生要聽老師講課。但就算沒有 AI,當時有了百科全書跟搜尋引擎以後,也已經出現:老師講到一半,學生打斷說「維基百科上不是這樣寫的,網上不是這樣講的」。也就是說,如果純粹只是知識性的傳授,有標準答案的那些東西,老師早就沒有壟斷的地位了。 所以我們在臺灣,2019 年就已經更改基本教育的教學方針。在以前,大家注重的是怎麼樣「有標準答案」,能夠理解到標準答案並回答出來;但從 2019 年開始,我們就改成說:沒有,因為這些有標準答案的東西,AI 做得不但比學生好,也比老師好。 我們要在學習過程裡面培養的,就不是那些標準答案,而是說「你怎麼激發自己的好奇心」——這個叫自發,「怎麼跟背景跟你不同的人互相合作」——這個叫互動,「怎麼在合作過程裡面不是我贏你就輸,而是一起看到雙贏、多贏的可能性」——這個叫共好。 自發、互動、共好,簡稱「自動好」。這些都是 AI 把有標準答案的事情都做完之後,人還可以產生的價值,也就是我們剛剛一直講的:人跟人之間透過交流所產生的意義。這個意義是建立在互相理解、互相關懷的概念上。而這個,我想對日本來說也不陌生,日本也是認為,一個人成功並不是只在於考試都考滿分,或者賺到最多錢,而是要跟社會保持羈絆、回應社會需求,能帶來整體價值。所以這點上,臺灣和日本是完全相同的。 所以我們的教育也不需要擔心 AI。如果我們請學生培養的都是「自發、互動、共好」,那老師就變成促進者的角色,讓學生跟學生之間更能夠透過互動來激發創意,而不是老師腦裡包含所有標準答案的那種模式——那個模式早就過去了。 我們在 2019 年推行新的教育方針之後,到了 2022 年,國中的學生第一批進入這樣的體制,去參加 ICCS(國際公民素養研究)評比。結果發現臺灣的學生,對於「自己能夠在環境永續、社會議題、人權等面向上貢獻」的公民素養跟自信,是全世界第一。那也讓大家比較放心的是,我們在 OECD PISA(閱讀、數學及科學能力)排名依然在前幾名,並沒有因為更注重公民素養就犧牲了 STEM 表現。所以我覺得這是最好的狀況。
兩週前,我在巴黎參與 AI 行動峰會,開放模型如 Mistral,以及去除審查機制的 R1 推理式模型(如後續的 Open R1、R1 1776 等)成為會場熱門話題。會議尾聲,六十一國集體簽署宣言,承諾以「開放」、「包容」和「道德」的方式開發技術。讓外界驚訝的是,英國及美國均拒絕簽署。 有些人因此誤以為,這是為了追求科技發展,選擇犧牲安全。事實上,恰恰相反。 英國長期致力提倡 AI 安全,全球首屆 AI 安全峰會也是由其主辦。英國政府認為,巴黎宣言沒有充分解決 AI 武器化的挑戰,也沒有提供足夠、實質的明確指引,簡而言之,對國安的關注度不夠。 英國的 AI 安全機構,最近甚至從 AI Safety Institute 更名為 AI「Security」Institute。雖然翻譯都是「安全」,但關注焦點不同。後者意味著要更致力於防堵蓄意攻擊,也就是「資安即國安」的概念。 在巴黎峰會上,美國副總統范斯(J.D. Vance)也發表了關於 AI 武器化的嚴正警告。他指出,威權政權正在利用 AI 增強其軍事情報、監控能力以及宣傳活動,對國安構成威脅。他強調,川普政府將採取強硬立場,全面阻止此類 AI 的濫用行為。 在隨後於慕尼黑的演講中,范斯也談到選舉干預的問題。他提到,羅馬尼亞因懷疑俄羅斯利用訊息攻擊操縱選舉,而取消了其總統選舉的結果。他認為,民主國家如果僅因外國的數位廣告就能被動搖,則顯示其民主制度的脆弱性;惟有公民自由表達意見,才能使民主更加強大。 范斯的發言正值 AI 模型快速擴散之際,這類模型可能讓小型行動者以極低的成本發動大規模攻擊,類似「AI 賓拉登」的不對稱威脅。隨著 AI 寫程式、產生具說服力言論的能力飛速成長,甚至超過人類,小規模的攻擊者,也可以用低成本,就做出像羅馬尼亞所受到的境外干預。 在全球嚴陣以待、防範 AI 威脅民主制度的時刻,我在慕尼黑資安會議中分享臺灣多年應對複合式威脅的經驗,具體說明如何與盟友建立協力聯防機制。在國際認識臺灣作為 AI 安全合作的重要夥伴的同時,也是我國資安廠商跟進晶片業者腳步,參與全球 AI 熱潮的大好時機。
您好,我現在在臺灣,這裡是晚上十點半。很高興能跟您分享有關言論自由的一些想法。對我們來說,來自臺灣的觀點當然是支持充分且不受審查的討論,因為臺灣以前曾經歷過戒嚴統治,目前也在抵抗威權式的審查。
好的。其實我從 2014 年就加入內閣,當時是以專案顧問(special adviser)的身份進入。那是大約十年前吧,起因是在當時的臺灣立法院,很多人不滿與北京的貿易協議——那個協議將允許他們進入我們的媒體、通訊網路等等。所以民眾就自己出面,和平佔領了立法院三週,呼籲改革。當時我們並不僅僅是「抗議者」,而是自稱「示範者(demonstrators)」,因為我們想示範一種透明且不受審查的方式,讓整個社會一起討論公共事務。
同年年底,我受邀基本上做同樣的事情,不過是在網路上執行:建立一套系統,讓人們可以不受大型科技平台審查地進行對話。於是我們一起協商各種政策,不只針對 Uber 和勞動權等問題,也為了應對來自威權強鄰的假訊息攻擊與極化攻擊而努力。我們也透過群眾智慧,將原本花三小時的報稅流程縮短為三分鐘(大約在 2016–2017 年),開放任何人貢獻想法,同時把政府的支出與採購透明化,讓大家自由提出建議。
我是在慕尼黑網路安全會議上發言的,該會議比主要的安全會議早一天開始。不過,我和其他人一樣,都有聽到貴國副總統在主會議上的談話。
在臺灣,我們在網路自由——包括言論自由等方面——被國際評為亞洲最自由的。我們並不認為「安全與自由之間」有任何必要的取捨。在許多司法管轄區,人們認為要取得安全,就得在言論自由上做出一點犧牲,例如為了安全或治安而必須審查某些言論。
然而,我們在臺灣的經驗則顯示,只要讓社群自行做內容的審核,而不是交給專家或第三方(通常被大型科技控制),就可以建構更具彈性的機制。與其看不到那些攻擊或製造極化的行動,我們反而讓社群看得更清楚:哪些是機器人、哪些是網路酸民(trolls),但你不必去審查或移除貼文;大家可以形成對事件真實狀況的共同理解,然後共同提出具創意的解方,把衝突當成共創的能量,而不是一把把「需要撲滅的火」。我在慕尼黑網安會上也是分享這樣的立場。
至於你提到的社交媒體角色,我目前是「Project Liberty Institute」的資深學人;我們正在重新思考網路社群的模式,基於所謂的開源或自由軟體和分散式系統。如果某個社群平台的政策讓你不滿意,你仍然可以保留你的內容、人際關係以及社交圖譜(social graph),並「搬家」到另一個社群。在那裡,由你們自己決定討論規則與審核機制。而我們也在協助「The People’s Bid」的團隊,他們想收購 TikTok——由 Frank McCourt 和 Kevin O’Leary 主導——以便讓 TikTok 成為更分散式的模式,不再由遙遠的中心化團隊制定審查方針,而是把決策權交給各個次級社群。
有兩點非常關鍵的差異。第一,我們想把決策權「自上而下」轉變成「自下而上」的社群模式,而不是由隱形小組在背後決定要禁言誰。換言之,由每個社群自行決定他們重視的內容,而非某個祕密委員會判定誰該被消音或移除。
第二,我們倡導的原則是「以更多言論取代更少的言論(more speech, not less)」。我們的系統會為貼文標上更多的背景標籤,說明哪些想法有廣泛共識,哪些仍在爭論之中,以及不同社群對該議題的辯論走向。但這些標籤並不會移除任何貼文,而是提供更多上下文背景,告訴使用者在哪些社群獲得支持、原因是什麼。這完全是另一種思路,不是審查,而是「補充」資訊。
他在慕尼黑分享的羅馬尼亞案例,正好也是我常舉的例子,那就是民主如何需要更強的防禦機制,才能抵擋境外勢力利用機器人或透過極化的手段從內部瓦解。關於這點,我想我們的觀點和他相當一致。
許多歐洲聽眾其實也在嘗試了解臺灣經驗:我們已經在這裡發展出一整套透明、開放、且能讓人民掌握真實資訊的策略,以防禦極化或外部的入侵操作(troll attack)。與其把一些人貼上「輿論操作」的標籤並封禁,他們更想學習臺灣如何「讓大家看到」那些騷擾或破壞行為的實質內容,並透過更多的資訊分享來加強社會穩定。如此一來,不同意見之間的社會紐帶才更穩固。
我認為 J.D. Vance 的演說某種程度上也指向了這條路:要確保網路社群審核權是掌握在多元的社群手上,而不是只交由某個國家或某個大型科技公司集中管理。只要決策保持在中心化,就會繼續陷入「安全 vs. 自由」的假性兩難之中。
回到 2014 年,當時臺灣可說更加撕裂與憤怒,馬總統的支持率只有 9%,意思是有 2,000 多萬人口中,超過 2,000 萬人都不認同他,國內情緒可謂高漲。二者之間的最大差別在於,我們從一開始就強調,我們不是單純在「抗議」或「提出訴求」,而是在示範(demonstrate)如何提出實際對策。也就是說,我們直接嘗試去供給(supply side)更好的政策,而不是只停留在需求(demand side)。
既然政府要簽訂貿易協定,我們就示範更好的方法,甚至與北京打交道時,也讓大家看見更好的防禦方式。正因為很快地把立場定位在「示範者」,而不只是「抗議者」,才讓這場運動在結束時出現罕見的結果:立法院長出面表示,群眾提出的方案確實有理。這次佔領最終是以「收斂」結束,而不是越趨激烈的「發散」。
我認為威權主義者的核心論述是:「自由只會帶來混亂與內鬨,不可能帶來成果。」這種「自由=混亂」的敘事不斷被強調,就成了他們鎮壓與封鎖的藉口。要反制這點,我們就必須打造一個能夠自我強化的自由社會——例如,你在社群上看到某篇貼文上有註記:「這在基督教保守社群中具有共鳴」,同時也看到一些網路酸民的貼文試圖挑撥離間。現在的威權操作手法,有時不是簡單地刪除,而是反而塞滿假訊息,好像「整個社會都在吵架」。
在我們的設計中,你會很清楚看見這些支持者和所屬社群的標籤,也能理解哪些是「共有的想法」,哪裡有「不同派別」。這就能協助人們建立比較完整的視野,而不是只見到極端片面內容。如此也可破除那種「看起來只有亂象,沒有共識」的印象。
是的。我剛註冊了 Truth Social,第一篇貼文就轉了你的一則貼文。我感覺到,那裡的用戶對社群本身有更多自主感,所以使用者也較不會因為覺得被審查就放棄平台。這很有助於形成真實的社群對話。
技術上,我們當前最需解決的是,不同平台往往是由一家公司或一個團隊集中控制,這些平台透過廣告盈利模式,會優先把所有使用者行為資料賣給廣告商,而非開放給使用者自行分析,導致每個人看到的廣告與回饋都高度客製化,社會就更被割裂。
我的論文也提出「換個商業模式」的可能性:讓不同的社群集資,打造「共享體驗」的貼文。譬如說,有些貼文可以同時向保守派與自由派群體做預先澄清(prebunking),讓衝突尚未爆發前,各方就能看到能夠溝通或緩和的「橋樑式內容」。這比事後才做的「闢謠」效果更好,也不需要審查任何內容;只需要多挖掘那些有助於跨社群理解的貼文。
如果對「The People’s Bid」收購 TikTok 的計畫有興趣,可以瀏覽 thepeoplesbid.com 。至於我們的核心概念,也可以在 Plurality.net (我和另外 60 人合著的一本公共領域書籍)看到。該書無版權,可以自由改作。
對,完全開源,歡迎自由重製。
好的,片名叫《夠好的祖先(Good Enough Ancestor)》,內容聚焦於臺灣民主化的進程。我是出身於新聞家庭——父母都是新聞工作者——他們在戒嚴時期必須遵守相當嚴格的審查。一直到 1996 年,臺灣才舉行首次總統直選,真正走向民主。也就是說,我們的網路自由和民主自由幾乎同步發展。隨著北京的威權體制一直在干擾臺灣,我們也在思考如何抵禦這種侵蝕,並且不對外犧牲自由。片中也敘述我個人成長如何與臺灣民主一起蛻變。
好的,這部片會在 3 月 9 日正式上映。我會在 Truth Social、X.com 和 Bluesky 等平台分享更詳細的觀影資訊。
這部片的訊息其實就是「科技應該推進自由」。在臺灣,我們始終相信,「自由」與「安全」並不是對立,要擁有安全,不必犧牲言論自由。也希望美國及國際社會可以擴大這個理念,讓科技真正為所有人的自由與參與服務。
上映日期是 3 月 9 日。我會在 Truth Social(@audreyt)、X(@audreyt)以及 Bluesky 上發布相關資訊。也歡迎大家關注 Plurality.net 的後續消息,那裡也有 Discord 頻道可供參與討論。
我生理上原本睾固酮水平就很低,也算是身體自然條件介於性別光譜之間。但我不覺得這影響到我生活。我的代名詞是「隨意」,在華語我們都說「ㄊㄚ/ㄊㄚ/ㄊㄚ」,也沒有強制誰一定要用什麼代名詞。所以我也不主張改變任何人的用詞方式。
回到你問的核心:我認為絕對的言論自由跟相互尊重可以並行不悖。主要問題在於,傳統「廣播式」社群平台只會擴大最具爭議與煽動的內容。人們就會誤以為「極端看法」才是全部,而無法發現還有很多理性「中間」聲音。雙方彼此扭曲成最糟糕的形象。
是啊,目前也有很多人透過 Rumble 的聊天視窗留言,我有在看。我覺得能直接回應或對談真的很好。只有透過直接對話,大家才不至於把對方一竿子打翻。好比說,聊天室有人問我是否支持女性安全空間。當然,我向來完全支持。
所謂的「言論自由」,對我來說不只是「要能廣泛播送」,更包括「要能廣泛傾聽」對方。當雙方能及時交流,就比較難把對方簡化成「極端敵人」。所以我認為即使是所謂的「可憎但合法(awful but lawful)」言論,只要能及時回應並說明,就比較有機會消弭誤解。像現在直播聊天,就是個很好的例子。