《資創條例》也是給創新者。
就是運用韌性而不是用防衛的角度。
對。
他指的危機指的是什麼?我看大家都很有危機感。我最近常常碰到有人說「會不會 AI 害我失業」之類的。
這可能也表示他風險比較低?善泳者溺——
——這是開玩笑的。
我覺得,最好的情況還是讓每一個社群,它可以自己決定人工智慧進入它的方式。
對,我在《AI Frontier》有寫過一篇文章《AI 對齊不能由上而下》,專門講這件事情。
日本有位 Arisa Ema 教授,她上次來臺灣的時候我有聊過。她就很不認為說——舉例來說——像在自動駕駛的場景,大家會說:「我這個眼睛放在這裡、手放在這裡,這叫 Level 1;然後眼睛放在哪裡是 Level 2;手放在哪裡是 Level 3、Level 4、Level 5。」然後 Level 5 就完全自動了。
但她覺得這個講法很危險。因為在很多場景裡面——好比像說我們兩個講不同的話,那這個需要翻譯——自動翻譯的場景。那你完全可以想像有一個兩邊都戴耳機、然後你講話我就自動聽我的語言、live translation 的這種技術——蘋果也做出來了。那這種技術你說是 Level 幾呢?這事實上是超過那個 Level 框架的。
所以 Arisa Ema 她提出了另外一種想法。她把它叫做 Type A、Type B、Type C、Type D、Type F。Type A 可能是完全不用 AI,Type B 可能是 AI 只在中間做橋接翻譯——類似本來口譯人員在做的事情。Type C 可能是你沒有辦法到現場的人,然後 AI 讓你能夠「附身」然後到現場進行參與。Type D、Type E 等等。但只有一個 Type——好像 Type F 是把人替代掉,就把本來人做的事情是用機器替代。
但它用 Type 而不是 Level 的好處就是說,因為 Level 是一個自然數,所以你自然會覺得好像 Level 5 比 Level 4 厲害一點,你到 Level 4 就努力一下就跑到 Level 5 了。但是 Type 不是這樣——我血型是 B 型,我從來沒有想過要升級到 A 型,到底有什麼好處?輸血會更容易嗎?也不會。而且 Type 可以疊加——血型 AB 型。
所以我的意思就是說,當你這樣子想的時候,我們就可以回來問爺爺奶奶、或者是問樓下社區管理員:他到底要不要用憑證皮夾去掃碼取貨。那超商當然超商說了算,但是每個管委會應該每個管委會自己說了算。事實上本社區的管委會就正在討論數位化的問題——到底是不個通知包裹取件要紙本跟數位並行,還是像現在只有紙本呢。或者大門的門禁到底是不是要管理員看到臉就好呢,還是可以從某種程度上要求掃碼或感應呢。
對,所以我剛剛並不是完全開玩笑。我的意思就是說,公寓大廈自治管理的「自治」的意思,就是由那個管委會的人——那個社區的人自己討論、經過審議之後做出自己的決定。
那如果是現在縣市政府,或者是國家的哪一個部會說「我剝奪掉這些審議討論」——為什麼呢?因為我的技術架構需要所有人的權限必須集中管理,你每掃一下我的部會就要知道一下。那因為技術限制,所以對不起你們管委會的想法跟別的管委會想法不能不一樣。我們最多大家來公投,公投完之後就像瑞士公投完之後,那我們就大家都得一樣。
那這樣子的話你看——你從資安的角度去分析,它創造了單點故障的風險;你從全民參與的角度來看,它剝奪了全民參與的動能——49% 的人會覺得很不高興,只有那 51% 的人會覺得高興。那從產業創新來看,實際上這也比較不穩定,因為你現在看起來大家都用了這樣子的架構,但是隨時那個 49% 變 51% 的時候它就會改回去。所以對產業來講它並不是保證穩定性。
那你還不如就是讓每一個管委會、每一個早餐店、每一個學生會等等,各自去做出 AI 怎麼樣進入它們的社群的 Type 幾的決定。那做了決定之後,你就調整剛剛講的地端模型去符合那一個決定,那符合那個決定之後它們就自己管理了。而且由於是地端的,就算是爺爺奶奶——其實你要調整 AI 很容易,你跟它講話就好。
現在之所以很難調,是因為你調完之後你要等 OpenAI、Anthropic 什麼東西去改模型。如果是地端模型,你講兩句話它就改了。所以在這個情況之下,當然我是希望盡可能透過分散式的方法來決定。
「數位民主」當然就是透過數位的方式,來實行民主制度。這個不是通論嗎?
因為民主從來沒有辦法脫離工具。最早的民主的器具,像 Kleroterion——就是在雅典。他們把自己名字的那個小紙條放進去,然後玩那個抽籤還是什麼丟彈珠之類的,然後就抽到哪一排、那一排的人就是這一屆的議會。
所以我的 point 是說,你如果沒有把民主想像成一種技術——你把它想成某種就是先賢傳下來的但是我們就只能照著做的東西——那當然會覺得說數位是來擾亂它或者是來 disrupt 它。
但是我覺得我國比較沒有這個問題,是因為我國第一次總統直選的時候就已經有瀏覽器了,就已經有網際網路了。所以我國從來沒有一個就是先賢留下來的什麼體制,是早於數位時代而你不能夠去用數位時代去想像的。事實上當時不要說什麼地下電臺或者火腿族,當時 BBS 都已經非常蓬勃了。
所以在這個情況下,我們一開始就不覺得說民主是不能升級的東西,它應該每幾個月就像臺積電那個電路一樣,趕快發明新的方式。所以我覺得數位民主在臺灣,天生比較沒有好像去跟類比民主打對臺的那個感覺——因為我們本來就出生在數位時代。
現在還有人在說「量子民主」,這個也很先進。
對啊。這個最近的一位先賢——本來還不是先賢的——Jürgen Habermas——就是這樣子想的。
對。我懷念他——貢獻真的良多。
我有一個研究群在英國,是一個基金會,有資助一項把大家分裂的意見收集起來、然後翻譯成大家都聽得懂的話的機器,就叫 Habermas Machine,就是為了向他致敬。
可以看 freedom.wethepeople-250.org 這個網站,是跟美國的 Napolitan Institute 合作,來自全美 435 個選區、超過 2,400 名參與者的全國代表性樣本。然後這些人因為那是做民調的基金會,所以各方面都非常 rigorous,就是可以代表整個母體。就是抽樣上面是非常 stratified 的。
然後就是問這些最容易極化的一些問題,特別像說你對自由的看法、你對平等的看法等等。然後每個人當然都有自己的意見。然後語言模型看了他的意見之後,就去追問一個問題說:「那你有什麼個人經驗?你有什麼故事,讓你有這個意見?」那他就回答了。
它完全沒有任何摩擦力——你如果會跟 ChatGPT 聊天,你就會做這種問卷。因為你也不需要好像打電話跟那個做問卷的某一個人,還要解釋你的意思。語言模型完全可以看起來像理解你的意思,而且它回問的問題都是有詳細聽懂你的話才問的。
結果大家各種五花八門的、對自由跟平等的看法,其實完全就可以被收集成二十幾個核心看法。也就是說,一方面他可能是要說「我們要做氣候正義,我們要為未來的世代有更平等的環境權」;另外一方面可能是說「聖經說神造世界,所以我們要對這個受造物有所關懷,因為我們是好的牧者」之類的。
這兩邊雖然用完全不一樣的語言,而且在社交媒體上大概會吵起來,但是因為 Habermas Machine 它可以在這兩個中間做翻譯,所以他們就可以看到說兩邊講的話其實是同一個意思。你只要翻譯兩邊的語言的話,講的都是要愛護環境。
所以第二部分就很像 Polis。就是你回答自己的意見之後,那你對翻譯過的、這些 paraphrase 過的看法——別人的看法——你同意嗎?你反對嗎?等等。那你同意幾次、反對幾次,就發現說原來大家的核心想法都差不多。這些美國人透過 Habermas Machine 的互動顯示,即使在高度極化的社會裡,仍可透過 AI 輔助審議挖掘出大量重疊價值;這不代表沒有極化,而是代表極化不等於沒有可被翻譯的共識。
所以他們最後就發現說,經過 Habermas Machine 翻譯之後,97% 的、具有統計代表性的參與者同意:「良善的價值始於家庭,父母在教導孩子尊重與善意上負有最先且最重要的角色。」
而且就算是最極化的——就是「只有在每個人都有發展自身能力的自由時,我們才可能真正依技能與品格評價一個人。」——經過社會翻譯之後,有 68% 的人都同意。
所以回答你剛剛 Habermas 的問題——水能載舟亦能覆舟嘛。你如果是一個演算法,它專門放大最極端的聲音,然後讓它具有傳染力,那當然你看久了——螢幕又這麼多彩多姿——看起來就會覺得旁邊的這個世界好像都變灰色的,那你就一直盯著那個最極化的演算法看,那當然社會就分裂。
但反過來講,同樣的技術你也可以用來把中間重疊的地方放大、然後不讓極端的部分擴音。這個也可以。極端的地方還是在喊,可是沒有幾個人聽得到,因為沒有給他一個大聲公。
那所以像我們做審議式調查的時候——像做《防詐條例》草案的時候——我們抽了 447 個人,也是具有統計代表性,放在四十幾個虛擬的線上會議室。在那裡面,我們就跟每個房間說:「你這十個人,你就是得說服彼此你的想法。如果沒有說服彼此,根本出不了這個房間。」
所以如果你在那邊大喊大叫、在那邊酸民、在那邊怎麼樣,不但會被系統制止——打斷別人太久——而且事實上因為小組最後投票,你的主張根本出不了房間。所以到最後就是有共識的主張才傳得出來。
所以你稍微改一下演算法的結果,就是讓 outrage 勝不了 overlap。造成極化的資訊系統,你只要改個演算法,那它就會變成一個收斂的系統。
有啊,民主基金會有做這個。
今年申請了預算,要看預算什麼時候通過。他們正在訓練 AI facilitator——這是在玉山論壇的 demo 影片。這位是民主基金會廖達琪執行長。這個是正在跟總統拜年的虛擬分身「若貓和」。然後我們賴總統說:「這個聽到是唐鳳的聲音。」你看,我把聲紋捐出去。
當時就是我們訓練它去做 Oregon 式辯論,所以它可以聽得懂論點。
對,就是用這個。
沒有,它現在後端可以套不同的東西。民主基金會的那一場辯論,它套的當然就是辯論的核心。但是我們也有把一些我們在發展的 Civic AI 的概念放進去。
辯論完之後就可以看到做了前測後測——大家本來是極端地認為「AI 一定有害民主」或「AI 一定有助於民主」的,大家都往中間集中。所以那個結果跟 Habermas Machine 想達到的效果是一樣的,雖然那次後面沒有串 Habermas Machine。
現在開發很容易啦,你就讓你的 AI 做一套就好。
對呀,我們原本「提點子」就有正反兩欄嘛,用按讚不讚嘛、但不能彼此回覆,所以至少最極端的聲音沒有辦法擴大,這個有做到嘛。但是綜合的聲音有沒有辦法擴大呢?還沒有嘛。
對啊,所以你就可以運行一支 Habermas Machine,去把兩端的聲音翻譯到中間——
這個就是回合制的啊。