好奇(自發) :探索新關係的自主性。 協作(互動) :跨越差異一起工作的能力。 公民關懷(共好) :對公共利益的承諾。
這些都是關係式的美德。無論機器人變得多厲害,它們都不可能取代好奇、協作或公民關懷。所以「AI 會不會奪走人類的意義?」是錯誤的命題。正確的問題是:「AI 會不會逼我活得像機器,還是它能幫助我變得更好奇、更能協作,也更關懷公眾?」
合成親密。人們和螢幕之間形成的依附,我認為是今天很多混亂、極化與憤怒的根源。
像手機成癮,或者更廣義的觸控螢幕成癮。去極化,從我們開始把真實的人與人的連結,放得比對像素的虛擬依附更重要的那一刻開始。
我有個小撇步:我把所有螢幕都調成灰階。在筆電和手機上,我都用無障礙設定把大部分顏色拿掉,只剩大約 20%。真人立刻就比螢幕看起來更鮮明,而我也睡得好很多。重點不只是說「少滑一點,多睡一點」,而是建立一些習慣,把注意力拉回現實。
當人們在網路上變得憤怒,往往是寄生型 AI 的直接產物:推薦引擎辨識出我們的差異,然後把它們放大。所以我們應該去找那些獎勵重疊、而不是獎勵憤怒的平台。
例如,我現在和 X,也就是前 Twitter,一起做 Collaborative Notes。當一則貼文開始大量傳播、但缺乏脈絡時,像 Grok 這樣的 AI 智慧體可以幫忙起草橋接式註解,讓來自不同意識形態的人都能接受。這樣一來,每次爭議就不必變成更深的裂痕,系統反而可以幫忙搭出一座療癒的橋。任何人都可以加入 Collaborative Notes 的陪審團,這就像一個持續運作的對齊大會,也像一個持續運作的仁工智慧。
可以啊,我也在 Truth Social 上。其實我也和猶他州的 Project Liberty Institute 合作過一部法律,會在今年 7 月生效。那部法律規定,如果有人想從 X 搬到 Truth Social 或 Bluesky,舊網路必須繼續把新的追蹤者、回覆和互動轉送到新網路。這就是社交可攜性,就像你更換電信業者時的門號可攜一樣。這會逼平台用更好的服務去競爭,向上競爭,而不是往下競爭到腦幹底部。
臺灣已經原型化仁工智慧超過十年了。特別有意義的是,我們是在 3 月 18 日錄音,也就是 2014 年太陽花運動的週年。那三週的佔領期間,有五十萬人上街,還有更多人在網路上參與。我們證明了多元共創是可行的:對《兩岸服務貿易協議》有強烈感受的人,仍然可以把這些感受轉化為一套清楚的訴求。當時王金平院長只說了一句:「民眾的想法比較好。我們就採納吧。」
臺灣是第一個在大規模場景下原型化廣泛傾聽的地方。現在,我們正把這些方法在世界各地交叉播種,為了攜手解放未來。
下次見。少滑手機,多睡一點。
你說《AI 基本法》?
你在講的是《Digital Omnibus》草案?
它想要做的是整合。原本有一個《Free Flow of Non-Personal Data Regulation》,大概可以稱作「非個資數據自由流通規則」,另外還有《Data Governance Act》、《Open Data Directive》,這幾個現在是往整合的方向走,整併進重構後的《Data Act》。
其中跟個資比較有關的部分,例如 cookie 的一些規則,和《GDPR》對齊;高風險 AI 義務的適用時間點跟支援工具,則是跟《AI Act》對齊。所以它是好幾源頭在整合。
但是它有要把基本權利、資料保護、安全跟公平性這些支柱拿掉嗎?
因為《AI Act》在剛開始寫的時候還沒有生成式 AI。那他們當時所想的高風險,不管是偏差的風險,反正大家都知道那些風險,那個都是在我們所謂的 narrow AI,就是窄的 AI 的那個情況。
那生成式的特點就是說,你設定它的時候,你根本不需要預期它的使用方式,也就是說你可以在完全不知道自己要幹嘛的情況下,就訓練一個大型模型。那這個情況下,當然有些它的用途會是高風險的,這個大概是避免不了,就算你一開始沒有想到高風險的用途,它現在都可以做高風險的用途。
所以後來他們在《AI Act》最後那一段時間,剛好 ChatGPT 出來的時候,去做了很多最後一刻的調整。那當然當時很難預測到後面——特別是開放式模型等等的這些發展。所以它那些調整一開始的配套,可能不一定非常容易適用。所以現在過了兩三年,大家對於大模型能做什麼、不能做什麼,大概都很清楚了,所以他們會需要把它明確化。
明確化也會讓法遵變容易,但我還沒有聽說它要把權利保障的支柱放棄掉。
或許是本來它的指令裡面導致沒有辦法法遵的,這些把它明確化了?
但是它如果本來就沒有辦法執行法遵,那這樣子的話它本來權利保障也很難說是高的,而是這件事本來你就沒有去做的確定性——不是在有保障的情況下確定能做,是你本來會覺得可能不能做。
那現在它是把它設定到一個「好,那你這樣子算是可以做,我們以前沒想到這樣也能保障權利,但是現在可以做」。那這樣的話,當然還是要在保障權利的情況下做。
至於如果說因為法遵難以執行,所以不如乾脆都不要做,這樣對基本權保障程度最高,那好像也有點奇怪。
你說我們還沒有完成,指的是《個資會組織法》還沒有運作,還是什麼?
等一下,哪兩邊衝突?
你現在是不是在說:有一派主張要把《AI 基本法》裡面加上更多基本權保護,甚至包含法遵義務、罰則等等?雖然它名字叫基本法,一般不太會把罰則放進去,但確實有人想放?這是一邊。
那另一邊是說,也有人認為應該先等歐盟做到一個程度再來做。我們自己先顧本培元,先把個資會什麼東西弄好。但這兩個不衝突啊。你可以一面把個資會弄好,一面把基本權保障加上去,因為個資會是執行它的單位,不是嗎?
我不確定你引的是哪一條,因為你引的那個條號,第 22 條——
條號應該跳過了?
21 條是產業自願共享資料給政府的機制。
那是鼓勵產業間合作。
那個是後面一題,我們先回到你這裡。
你的意思是,有些人認為說應該先在《AI 基本法》加上基本權保障——還是在《個資法》加上基本權保障?
然後再來動《資創條例》?
然後有些人認為說,把《個資會組織法》弄好了、施行了,才可以做《資創條例》?
這我理解。可是這個到底跟《AI 基本法》有什麼關係?因為你一直在《AI 基本法》架構上談,所以我就越聽越模糊。因為《AI 基本法》以我的理解是沒有罰則的。
那然後以我的理解,你說要把基本權加以保護,是要按照基本法的意旨,去立別的法或修別的法去達成的。我剛剛聽到的是說,有人認為應該在《AI 基本法》裡面加上更多的基本權保護——
然後再依此立罰則,或者是修各子法等等——
對。那但是,《AI 基本法》即使不改,你也可以立罰則,可以去改《資創條例》等等。就是說為什麼一定要先改《AI 基本法》?我一直沒有聽懂這一點。
你在一個條例裡面立罰則,那個條例本身仍然是法律位階。法律保留的意思是應該三讀通過、立法制定嘛。但條例也是法律位階啊。
我不認為是這樣子。我沒有聽說過基本法除了名字叫「基本法」之外,它還有類似憲法的功能。我沒有聽說哪一個法學者這樣講的。
《AI 基本法》的目的,是促進人工智慧的研發跟產業發展,然後以人為本。那你剛剛提到的,比方說《資創條例》好了,它並不是為了人工智慧作為它唯一的目的,它是為了促進資料利用之發展。
所以就是說,就算它在《AI 基本法》裡面沒有任何可以扣合的東西,它可以去別的地方找可以扣合的東西——它不需要一定要扣合《AI 基本法》。因為資料用在所有其他地方,他要扣合《勞基法》也可以、他要扣合哪裡都可以。並沒有什麼原因說,好像人工智慧突然變成資料的唯一地基,好像不存在這個狀態。
你也可以動《AI 基本法》。我的意思是說,動基本法既非充分條件——就是動基本法這個就得修——也非必要條件——就是不動了它就沒辦法修。
它當然是進路之一,可是它既不是充分的進路——就是說好像做了這個別的都不用做了——也不是絕對必要的進路。這樣可以瞭解嗎?
但這個基本權,具體是什麼基本權?
對,那要怎麼進去《AI 基本法》呢?
你說的資料機制是《AI 基本法》第 14 條的個資保護嗎?
但是《AI 基本法》第 14 條只做 AI 的研發跟 AI 的應用。你現在如果是做一個跟 AI 研發、AI 應用都沒有關係的,但是你還是在侵害個資的,那當然是回到《個資法》。