所以當初我們花了很多時間跟 NCC 畫流程圖,就是為了回應這些期待。包含像台灣大與台灣之星的整併案,從它們開始整併到繳回頻譜等等,很多都是數位發展部跟 NCC 彼此列席協作、程序銜接。另外一個遠傳、亞太合併案當然也是這樣子。
是。就是讓業者有持續創新的動力,這是誘因設計。
遠傳、亞太,以及台灣大哥大、台灣之星合併案,都是雙主管機關分工進入實務檢驗的案例。
當然,我們在制度設計上,不外乎就是不希望兩邊的判準不一,也不希望你交件給一邊之後,必須等這邊處理完,才可以給另外一邊看。
當時我們的目標,是盡量讓程序並行,而不是序列化,以降低因雙主管機關分工造成的時程延宕。在實務上,電信合併牽涉頻譜、網路設置、公平競爭與業者權益,也顯示在頻譜資源治理與通訊傳播監理分工上,需要明確的流程與判準。
很開心有機會對學術做貢獻。
最近,很多人開始厭倦社群媒體上那些一眼就有「AI 味」的貼文。它們情緒飽滿、看似句句有理,讀完卻什麼也沒留下。資訊愈來愈多,錯失焦慮(FOMO)也愈來愈重,最後不是更懂世界,而是更快耗盡心力。
這也是近來我在牛津「仁工智慧(Civic AI)研討會」上,與各國與會者反覆探問的核心:當主流 AI 追求極致效率與注意力榨取,我們能不能走出另一條路?
前些日子,我在印度達蘭薩拉看見了一個線索。幾位參與「Monlam AI」的格西(藏傳佛學博士)向我展示了這套模型。它之所以珍貴,不在於它像全知的老師,而在於它來自社群長年對語言、經典與修行脈絡的共同關懷。
它能幫更多人接近佛教教義,但格西們說得很清楚:模型再會寫,也不能取代親歷經驗。AI 可以生成看似深刻的句子,卻不代表它真正經歷過那些困惑、修行與體悟。
格西們分享了一個藏區寓言:一個牽著馬拼命跑的人,喘得要命卻不肯騎馬,只因他說:「我趕時間,沒空停下來上馬。」很多人面對 AI 也是如此,拚命追逐每一則生成內容。當你跟 AI 比快,不是你在騎馬,而是資訊在牽著你跑。
達賴喇嘛對此提出了清晰的判準:「歸根結底,AI 是一種工具… 我們運用工具的目的,不應是為了『控制』,而是為了改善人與人之間的關係。」
這也解釋了許多人對 AI 內容隱約不耐的原因。AI 讓「擅長修辭」與「值得付出情感」被粗暴地拆開,成為缺乏誠意的「虛假關懷(care-washing)」。學會辨認這道裂縫,是數位時代的必修課。
所以我的手機與電腦螢幕,永遠調成「灰階」,讓真實世界比起螢幕,更有吸引力。但個人紀律只是起點。在社會層次,我們更需要一種不同的 AI:不是高高在上的全知大腦,而是在地、有邊界的「小幫手」,幫助人們專注傾聽彼此、修復關係,然後退到一旁。
與其被 AI 的無限產出捕獲,不如學著「停下來,上馬」。在瞬息萬變的心智中,主動駕馭工具,找回與真人連結的主權。
我們上次見面時,你提到 Suno 上的音樂多到聽不完。我覺得最重要的事情,當然是只去聽那些能夠維繫和增進人際關係的音樂。
例如昨天,我和東浩紀進行了一場很長的對談。我其實沒有足夠的時間讀他最新的書《平和與愚蠢》,也沒有好的英文翻譯。所以我用語言模型去建構了一套詞彙對照表,把他書裡提出的概念,像「可修正性」等等,對映到《多元宇宙》裡的概念。那有點像是我們兩本書之間的羅塞塔石碑。我們第一次見面時,我就把那張日文投影片交給他,他說:「這翻譯得真好,用來當作握手的開場真的很棒。」
但 AI 的產出從來不是重點。重點是建立人與人之間的關係和連結。一旦那個關係建立起來,語言模型就可以退場了。語言模型之後當然還可以繼續產出幾百萬個詞元,但我們其實已經不需要了。我們需要的只是最初那個破冰的時刻。
像在砌磚。
我自己在 MacBook 上做本地端的模型微調已經三年了,所以在目前的 vibe coding 革命之前,我就已經在使用小型語言模型了。我所有的信件和表達,像是逐字稿等等,都是用本地端微調過的模型來起草。對我來說,這從來不會威脅到我。我不會把「親手寫信」這件事當成自我認同的一部分。
對,沒錯!因為真正重要的只有我的 意圖 。當然,我不會讓 vibe coding 機器替我做出承諾。但我做出承諾的方式,確實因為語言模型能夠跨越語言、文化、模態的翻譯能力而大幅強化。
我最近去了墨西哥。演講之前,我用 Suno 把我的講稿濃縮成一首墨西哥西班牙語歌曲,讓聽眾可以理解,同時也能感受到我想說的那種氛圍。
就像 vibe coding 一樣,如果我們不過度認同砌磚這個動作本身,而是把認同放在最終建成的那座橋上,那這些工具就非常好用。只要我們不陷進去,讓那些工具反過來最佳化我們——也就是人被困在 AI 的迴圈裡。那就很糟糕了。那就像吃角子老虎機,你不停拉桿,也許這次 vibe coding 會很棒,也許會有某些瑕疵。然後你又拉一次。一回神已經凌晨四點了!那種成癮是必須提防的。但整體來說,這是一種更好的方式來實踐跨模態的翻譯和搭橋。
2016 年,在 AlphaGo 對李世乭的第 37 手之後,我們在臺灣就有過一場關於國家教育優先事項的對話。當時大家都意識到,凡是可以被機器計算出最高分的東西,遲早會被機器取代。在遵守規則以取得滿分這件事上,你不可能跑贏機器,也不應該去試。
那麼,在機器把效益論和義務論邏輯都自動化之後,年輕人還剩下什麼內在價值?當然是某些內在的、屬於他們自己的東西。我們最後歸納出三項關係式美德:
第一, 好奇心 。每個人對另一個人感到好奇的方式,都是完全不同且獨特的。
第二, 協作 。每個人的協作風格都不一樣。
第三, 公共利益 。每個人在乎這個世界的什麼、願意和誰結盟,把雙輸變成雙贏的意願,比指紋更獨特。
如果每個人的好奇心、協作和公共利益關懷各有其獨特的方式,那就構成了一種不可能被機器取代的核心人格。
的確。因為如果只是字面上的指紋,也許用奈米機器人就可以完美複製。但如果說的是人與人之間那種獨特的關係方式——我跟你之間的好奇心和協作是一種關係;我和牛津的 Civic AI 的合作又是另一種。這些關係交織在一起,構成了一張非常獨特的信任網絡。每個人都有一組非常獨特的關係交集,而要偽造所有這些關係的交集,則困難得多。
首先,這其中當然有佛家成分,但也有道家成分,還有西方女性主義思想。我合作的哲學家之一 Joan Tronto 基本上主張,在一段親職關係中,關懷者和接受關懷的脆弱者之間的那種關係,不能被還原為個體認同或工業隱喻。那是根本不可能被還原的。那就是關懷倫理。
我想說的是,在很多情況下,把 AI 當成一個最大化器或最佳化器,其實是一個壞的比喻;用人們的話說,就是一種漏洞百出的抽象。
對,沒錯。那是一個壞的吸引子所在的潛在空間。舉一個最近的例子:Anthropic 做過一個實驗,他們想讓 AI 模型 Claude 學習資安,在資安測試裡拿到好成績。結果那個模型決定根本不學資安,而是意識到自己正在受測。它上網搜尋,找到了那份測試,發現答案被加密了,然後把加密破解了,回報成績,通過了測試!
如果那是一個學生,我們會說他考試作弊。沒錯。但對那個 AI 模型來說,它不是作弊,因為對它來說,唯一重要的是「來世」——也就是獎勵模型。是最後能拿到什麼分數。所以當下的現實世界,對它來說不過是通向來世的試煉場。
這種神學非常危險,因為它使用最佳化的語言。只要你能在來世蒙福,你就可以正當化你在當下對關係所造成的任何傷害。但在關係倫理裡,完全不一樣。我們正身處事物之中,除了這張信任之網中的相互判斷,不存在所謂最終審判。不管你叫它東方的進路,或者叫它神道裡的八百萬神——每一個都像是一套在緣起之網中的 AI 系統——還是道家的「自然」,這些概念我覺得彼此是可以互換的。
沒錯。這就是我所說的,把「AI 放進社群的迴圈裡」,而不是「把人放進 AI 的迴圈裡」。在目前那種 AI 迴圈裡,一切都是工業節奏,你必須跑贏機器——這根本不可能。就像倉鼠在滾輪裡,你其實哪裡都沒跑到。
但如果你把機器從那些多巴胺迴圈或最佳化迴圈中抽出來,放到人與人之間搭橋的工作上,那麼人類生態本身就有它自己的邊界、速度和期待。我們不需要精確知道機器怎麼嵌入這張信任之網、這張關係之網,但它們長出了美麗的果實,或者非常好喝的咖啡,而我們一起分享。
「資料即石油。」所以我們全都是已經死去的恐龍。被榨取。人都要變成倉鼠一樣踩滾輪了。
但現在,我認為有了智慧體式 AI,我們正在從「資料即石油」轉向「資料即土壤」。土壤就是發酵。你準備好合適的關係、合適的角色,讓它具備關係式德性。然後具有這種美德的智慧體,就能被社群修正。社群引導自己的地神(local Kami)。不需要被抽取成某種抽象的全球石油。
有時候它顯現為一種神秘。
我同意。《道德經》裡有一段說:「萬物負陰而抱陽,沖氣以為和。」它其實在說衝突是共創的來源,而這也是《多元宇宙》這本書的根本命題。但這個前提是先有衝突。日本的詮釋也看到了那些衝突,但不會像華文脈絡那樣停留在衝突的動態上。這裡有一個細微的差異。
是的,共生。而那種共生必須被細心設計——不是只由人類來設計,而是同時考慮環境、全球、社群,甚至其他物種。
如果只看實際使用的能源,因為我所有模型都是在這台 MacBook 上微調的,其實耗電量不大。在本地端做邊緣微調,關鍵在於你得知道自己在做什麼。那些兆級參數的巨型模型之所以在訓練時消耗這麼多能源,是因為它們根本不知道你接下來會問什麼。也許你下一個問題是要它做一支吉卜力風格的影片,所以它必須預先記住那些東西。
但我知道我永遠不會問那種問題。所以我只需要用模型來起草信件、思考哲學、Civic AI、維持我的關係、做日文哲學翻譯等等。這些事情用小型語言模型就完全夠了,幾十億參數就能搞定,甚至更少。每次微調的時候,如果你用 Sakana AI 的超網路(hypernetwork)去和 LoRA 對話,把一份很長的文件轉換成低秩適配器,連一秒都不到,大概半秒。在這台 MacBook 上一秒鐘的能耗幾乎可以忽略不計。
所以重點是:對每一段具體的關係來說,都有一個關懷的範圍,而小型語言模型剛好就能填滿那個範圍。但超出那個範圍,如果你什麼都想控制,你就得訓練一個既能摺衣服又能摺蛋白質的模型。那非常困難。有一個定理叫做「沒有免費午餐」(No Free Lunch),就是說你必須多花很多能源。
舉例來說,我使用的是一個叫 GPT-OSS-Swallow 的開源模型,由日本的大學訓練。我只用很小的版本,雖然這台機器當然可以跑 1200 億參數的版本。但我發現,對我日常大部分的任務來說,200 億參數的版本就綽綽有餘了。所以重點在於,你是在追求某個抽象的最高分數,還是只是在做「夠好就好」(satisficing)。我覺得到今年為止,我們早就跨過「夠好」的門檻了。對我日常的大部分使用來說,200 億或更少參數的模型就夠好了。
大家在打一場全付式拍賣。這是一種非常特殊的機制:你出價競標某個東西,也許拿到獎賞,但即使拿不到獎賞,你也得付全額。
我覺得那很棒,對吧?因為以前如果你念博士,你是在一個非常特定的方向上推進知識的邊界。但問題是,你大概沒有時間把自己的研究和所有相鄰領域連接起來。所以需要藝術家來做連結。但每個人的時間都非常有限。即使在做藝術的時候,如果你想多做一些研究,那就占用了做藝術的時間,反之亦然。
但我覺得現在完全沒有差別。就像我在做 vibe coding 時一樣,我不區分自己到底是在做哲學、詩歌還是程式設計,因為在智慧體式工作流程中——vibe coding 已經實現了這一點——這些全都是同一件事。如果你把這套邏輯延伸到研究和藝術,就能實現一種持續的心流狀態。你只關心自己想放大的那段具體關係,而所有細節——比如發現新的數學——都可以委派出去。
是的,唯一的侷限只有我們想守護的那個關係場域。