我對他們在受限條件下,靠極低階程式連起那些晶片這點感到佩服;但以整體表現來說,它沒有領先太久。
我們共舞很久了。2014 年的太陽花運動——我參與、協助直播與協作——就是要討論:要不要讓华为、中兴進入我們剛起步的 4G 基礎建設?要不要讓來自北京、上海的投資者控制通訊平台、報社、出版業?
服貿協議本來會把臺灣的資通訊基礎設施與生態,開放給北京、上海資本。社會最後非常明確地說「不」。尤其在《港区国安法》通過之後,臺灣已經很難找到仍抱持同樣幻想的嚴肅政黨了。
哇。沒錯。也因此,你現在會在台北看到一個很少見的畫面:中華民國國旗(蔣宋美齡很喜歡的那面)和台灣島旗,同時在同一場集會上飄揚。過去兩面旗從不出現在同一場,現在會了。因為不論你把臺灣叫「ROC Taiwan」還是「Taiwan ROC」,在如何「對抗威權但不自己變威權」這點上,大家站在一起。
只有當「受過科學簡報、以隨機抽樣選出的公民陪審」就透明證據進行審議,並判定某個 AI 智慧體值得擁有我們賦予「有情眾生」的道德地位時,它才算取得「意識」的徽章。
民主一直都是這樣擴張選舉權的。
正是如此。因為民主的定義會隨時間演進。民主剛出現時,只有極少數人能投票。後來不同性別、族群等的投票權逐步擴張。流程一直一樣:受科學簡報的公民陪審團來決定。有時它不是完全隨機,但我個人偏好隨機抽樣。
謝謝。祝生生不息,繁榮昌盛。
川普宣布對等關稅,成了全世界最重磅的大事。然而,在矽谷科技巨頭與各大 AI 實驗室,討論熱度更高的卻是《AI-2027.com》——由 OpenAI 前研究員科科塔伊洛(Daniel Kokotajlo)與其團隊推出的研究報告。 任職於 OpenAI 時,他的主要任務有二: 其一,在 AI 技術日行千里的過程預先警示,思考如何在 AI 當駭客、欺瞞人類的能力進步到一定程度前,就搶先防堵。同時,提供有價值的研究方向,幫助 OpenAI 把人力與時間花在正確的事上。 他能在全球最重要的 AI 公司之一,擔當起預測未來的角色,是因為早在 2021 年,他就針對 AI 的可能發展,發表 2026 年預言,絕大多數都命中。 例如,他成功預測 AI 會有兩波重要發展,首先,像 ChatGPT 這樣的對話型 AI,普羅大眾都開始著迷其應用,讓 AI 廣泛落入日常生活;另外是,思考型 AI 出現後,開始產生 AI 訊息危害,甚至,AI 會開始說謊。 其二,他同時也命中美國限制對中共的晶片出口,以及 AI 能在多人互動遊戲裡打敗真人。 過去普遍認為,AI 模型越大,能運作得越好。但科科塔伊洛提出,AI 模型將會在運算過程中停下來思考,不必另外花時間跑訓練素材,就能越來越準確。這概念已經在 2024 年證實:把能源用來推理,而不是只花在訓練上,也可以達到更好的結果。 從 OpenAI 離職後,他針對全球的晶片存量、密度與分布,分析 AI 發展趨勢,推演出可能未來——2027 年,AI 具有欺騙能力,新一代 AI 可能不再對齊人類,而是聽命於舊一代 AI。 他認為倘若各國與 AI 公司都積極競爭,只在乎能否跑贏別人,很可能導致 AI 出現嚴重對齊問題,最終反客為主、成為賽局的其中一個玩家,並於 2030 年脫離人類控制;但如果各大強權在 AI 競爭中,願意持續投資 AI 安全研究,則能避免災難性後果,實現可控制的 AI 發展。 在川普宣布對等關稅前,多國政府大動作投資 AI;如今,資金可能更急著挽救受衝擊企業,這可能讓資源很難投入 AI 安全等防禦性領域。但為了長遠發展,各界更該持續投資在 AI 安全措施,以及運用高品質資料、專注特定產業,生成安全的 AI 小模型,讓 AI 成為幫助人類的助力,而非新增的壓力。
俄烏戰爭已超過三年,國際局勢持續動盪。今年以來,臺灣的海纜已經斷了六次,共機侵擾頻率也不斷升高。 除了國際衝突,天然災害也是不安定因子,今年初,美國加州野火延燒近月,迫使超過二十萬人撤離家園。 天災人禍降臨時,政府往往得一邊忙救災,一邊安撫不同政治立場、價值觀相左的群眾互相指責,不但難以緩解災害造成的衝擊,社會也更難團結。 社會互信一旦下降,重大災害期間,外部勢力要見縫插針,就更加容易。 臺灣該如何趁早建立社會韌性? 首先,要意識到現代社會已從垂直信任走向水平信任。過去大眾容易接受政府、學術界或特定新聞機構的權威訊息,但近十幾年來,民眾不再輕易買單權威,反而更傾向透過橫向交流,尋求獲得廣泛認可的意見,例如文章下方高分的評論。 因此,強化社會成員間的水平信任,是增強韌性的重要基礎。面對野火挑戰的美國加州政府,即參考臺灣數位民主經驗,推出「Engaged California」平台,供居民討論救災、賑災及未來的防災措施。 面對大量提案與持續更新的討論,該平台利用 AI 進行摘要與比對立場,找出不同群體之間的共識,並優先執行與回饋給參與討論的民眾。如此一來,政府能夠從最廣泛認同的措施開始,避免片面聲量影響決策,更能增強社會參與的動力。 然而,生成式 AI 崛起也帶來挑戰,有心人士很容易在網路創造出無數個不同身份、栩栩如生的假帳號,影響公共討論品質。對此,數位發展部參考加州的公共程式,推出「數位憑證皮夾」,符合國際分散式認證標準,有效杜絕假冒帳號。重要的是,這種方式不會回傳訊息給憑證發放單位(如政府或企業),避免不必要的監控。 這對民眾而言,也有實質的便利與隱私保障。未來,民眾能將個人及會員資料儲存在手機,等同隨身的實體卡片,並可選擇性揭露資訊,例如超商取貨時僅須出示「姓名」,而非所有個人資料,即使在離線狀態下也能正常運作。 臺灣社會建立應對韌性的過程,AI 能在制度與工具提供助力,但更需要每個人在親友群組中積極參與討論、培養尊重差異的習慣。當社會具備強大的水平信任,就能更有效地抵禦訊息攻擊,共同面對天災人禍帶來的挑戰。
我自己因為從小有先天性心臟病,所以我四歲的時候就醫生跟我跟我家人說,說這個小孩就是不能夠很激動,心情不能夠非常的劇烈。如果很劇烈的話,那可能就會觸發這個心臟的問題,然後只有一半的機會,可以活到能夠心臟開刀的時候。
所以我 12 歲動了手術,當然現在心臟沒有問題了,但是我人生中的前 12 年,我想事情都只想一天,也就是我覺得我睡前我要把我學會的就分享出來,可能錄成錄音帶啊,或者打字啊,或者放到網路上面。這樣的話,我就算隔天醒不過來,那其他的人也可以用我今天學得到的東西,去進行進一步的開發。
所以後來我都採取,就是沒有著作權的方法,去把我學到的東西公開出來。那所以我們現在在看未來的時候,我看的比較是說,怎麼樣子讓未來的這個後代,它可以創作的空間越來越大。我把這個叫做「夠好的祖先」(Good enough ancestor),不是說我們就要解決,好比像說十年之後所有的世界上的問題,這個也不可能。而是說我們怎麼樣子去開發出儘可能開放的工具,不管是思想的工具,還是技術上的工具,讓未來的人可以看到新的威脅、新的挑戰,而且我們還不一定在的時候,也能夠來運用這些工具。
所以一方面,我就是看一天之後的未來,有沒有可能比我今天醒來的時候可以好一點。那二方面就是,我是希望說,不管是未來的幾年、幾十年或幾百年,我們不是去預先決定它的路徑,而是說我們提供更多的工具,讓當時的人可以去決定他們的路徑。所以就是說,十年後的未來跟一百年後的未來,我是用類似的方法來看待,不會變成覺得說,像有一些會想說「下個季度比較重要,三代以後比較不重要」。我比較沒有這個問題,對我來講都是一樣的。
這些做所謂 singularity(奇異點)的這些推測,是說到那年的時候,世界上進行運算的能力就足夠了。但是不是說有這麼多運算能力,它就要拿去做這樣子的使用?為什麼做這樣子的使用,可能不是最好的運用資源的方法呢?是因為也有一些朋友認為說,當這個 AI,你訓練它這一代的 AI,你又用這一代的 AI 去訓練下一代的 AI,又訓練下一代的 AI,在裡面人類的角色越來越少。
到了最後,就是每一代的 AI 都是上一代的 AI 在訓練的時候,那可能會到某一個程度,那一代的 AI 會冒出一個想法,就是說,我有所謂的 ego,就是自己想要保護自己;那它開始有一種「我執」,開始有一種「我的形象」。那這種形象,它一方面可能會讓我們這些基於碳基的生物,它們是矽做的,可能會覺得說,碳做的生物跟矽做的生物好像是兩種不同的生物,可能有競爭關係,那這個對我們就很危險。又或者是說,它會覺得說,那為什麼我要聽人類的這樣子的做法,又要幫他訓練下個階段的 AI 來取代我自己呢?我如果現在就停在這個階段的話,那我就是地球上最聰明的啦,我為什麼要幫忙去訓練比我更聰明的那個階段呢?所以這樣子的話,就會產生出各種各樣的風險來。
那目前的研究,還沒有辦法完全去掉這樣子的風險的出現。所以如果您剛剛提到的,就是 AI 倫理啊道德啊這種研究,2040 年的時候就知道說怎麼樣完全不會觸發這樣子的問題,這當然是比較好的。但是也有可能是我們到那個時候,還不知道怎麼樣不觸發這樣子的問題。那如果那樣子的話,可能不要往這個方向發展會比較好。
那當然,即使你解決了這個問題,那到最後就會變成是,可能有很少數的人,可能就一兩個人而已。那這個人類他就會跟這個新的、他沒有自我保護本能的 AI,就會融合,可能就是 transhuman,超過人類的某種生命體。那這樣對其他的人來講也不是好事,因為等於就是有一個人類,他突然之間變成了擁有非常大的能力,因為這個 AI 不會想自我保護,而是加強這個人的能力。所以這個 AI 不是照顧自己,是照顧這個人;但這個人之於地球上所有其他人來講,他就有非常大的權力、非常大不對稱的這種能力,那這個對於地球上其他人也不一定是好事。
所以不管有沒有解決 AI 會不會有自我保護本能的這個問題,到最後的結果,對地球上大部分的人來講,都不一定是什麼好事。所以雖然有能力達到奇異點,但是不表示說奇異點是我們唯一能夠達到的方向。
那大家可能知道,我有一本書,現在是華文跟英文的,其他語言正在翻譯,日文的應該五月初會出版,叫做《Plurality》,跟 Singularity 是完全不同的。Plurality 希望的方向是說,AI 它也許可以取代「機器跟機器之間」的任務,這個中間現在有一個人,他的工作只是把這個機器傳到那個機器,這種工作人也不太想做,這個也許可以 AI 來做。但是像我們現在,是在人跟人之間進行交流這些工作,我們就不主張用 AI 把它取代掉。AI 最多就是幫我們做翻譯,就是做一些好像戴眼鏡一樣,assistive intelligence(輔助式智慧)的工作。
那這樣輔助式的 AI,每一個都不用達到很大規模,也不需要變成好像 super intelligent,不需要比人類還聰明。它只要在某一個很特別的部分,好比像說華語跟日語的翻譯上面,比人類好就可以了。但是真正絕大部分、99% 的其他的部分,這個 AI 模型並不需要知道,也不需要去干預。所以我們就好像有很多這種「輔助性」的智慧,就是 assistive intelligence,在幫助人類之間越來越能夠互相協調,越來越能夠互相理解彼此的狀態,越來越能夠一起做成決定。
Plurality 的方向,就比 singularity 的方向來得 empower 大家。大家都會覺得說,那我本來做不到的事、本來沒有辦法理解的事情、本來沒有辦法形成的決定,都可以很快地這樣子互相做成,但是人跟人之間的連結就會越來越強,而不是像 singularity 的情況下,只有某少數幾個人之間的連結還存在,其他的都變成完全好像不重要一樣,對不對?Plurality 的方向在我看來,是比 singularity 方向來得好的。
我們剛剛其實已經有稍微回答到這個問題。就是我的想法是說,人的快樂,它是建立在互相之間的交流產生出來的意義上的。所以不管這樣子的交流本身它是怎麼樣,OK,不好意思,那再來一次。
我覺得就是,人跟人之間互相交流,然後互相關懷所產生出來的這種意義,才是社會上面大部分人覺得有意義的事情,不管是不是工作。那如果你的工作裡面,完全沒有就是跟其他人一起創造意義,或者是跟那一臺機器中間,把它互相接在一起等等,那這樣的話,就算你的薪水很高,或者就算是你是一個很棒的投資人,有取得很多的錢等等,它可能產生出所謂的 utility,就是所謂的效益。
但是這樣子的效益,比起我們互相關心、以及瞭解到說,我們的文化、我們的社群、我們的整個文明的價值,可以透過這樣子讓更多人理解、讓更多人參與的這種互相關懷的、或者叫做 virtue,就是德性上面的這種意義來講,我覺得後面的這種意義要來得比較穩定,而前面的這種,它好像隨時可以取代那個感覺。
所以當然,前面這邊你累積一些資本等等,對於後面的這個部分,就是大家互相關懷等等,也不是沒有幫助。有很多慈善家,他聚集了資本之後,他拿這樣子的資本去投資教育,或者去投資公共建設,然後去確保說每個地方的人,不管他有沒有這種資本的能力,他都可以——好比像說我們現在覺得很當然的,就是大家連到網際網路,好像應該是一種人權;到了網際網路上面,大家可以不用付錢,就可以看百科全書上面的知識。
甚至你想到什麼想法,你把這個想法分享出去之後,如果有幾百萬人看到你的想法、聽到你的想法,你也不用像以前那樣子,一定要架一個廣播電臺,或者是架一臺印刷機。所以有很多的工作是所謂的 commons,就是它在 infrastructure,就是基礎建設的這個階段,它先投入了一些資本,那這個資本的結果就是,後面想要在這個上面進行交流、創造意義的人,幾乎都不需要任何資本就可以做得到。
那像這樣子的 infrastructure,就是基礎建設,在我看起來,就是不管是大的資本家、或者是慈善家、或者是政府,可以來做的事情。每一次我們多有一層可以成為 infrastructure,大家創造意義的困難度就又減了一些。
所以這兩個其實是相輔相成的:當資本聚集之後,你就要看它是不是用在 infrastructure 的用途上;如果是的話,它等於就是讓更多人可以創造意義、變得快樂。它如果不是用來做這個用途,甚至是創造一些我們叫 antisocial 的一些場域,讓每一個人都變成好像越來越孤單,或者想象中別人越來越惡毒,或者是越來越讓人不舒服等等,越來越極端化,那這樣就跟剛剛那一個找到大家的 uncommon ground、找到雖然有不同的出處、不同的來源、不同的文化,但是都可以彼此理解、彼此聆聽的這個方向就相反了。這個可能是 prosocial(利社會)的方向,而不是 antisocial(反社會)的方向。資本可以做這種運用,也可以做那種運用。
就像剛剛說的,如果你在工廠裡面,只是從一臺機器拿它的輸出,走到另外一臺機器,變成它的輸入,那人做這樣子的工作,也沒有什麼創造意義的感覺。所以這樣子的工作透過機器來做,對大部分的人來講,那他寧可去做更像是把人跟人之間互相連接,而不是從一臺機器搬到一臺機器那樣子的工作。
所以絕大部分的人都可以往這種更能夠創造意義的工作來移動。那當然很多長輩,他其實腦裡有很多的想法,而且我們剛剛在講到這種文明的傳承、智慧,或者是我們講 care,就是照顧的能力等等。其實他腦裡面有非常多這種想法,但是以前如果要他來參加這種公共的討論,他就必須要搭車,或者是他必須要轉車,要到什麼其他的地方。那隨著身體這個可能越來越脆弱,要做這樣子長途旅行的成本也就越來越高,隨著年齡的增長。
但是現在呢,我們發現說透過 AI 的這樣子的方式,越來越多的人他已經很習慣,他就算是在他的家裡,就算他的行動可能受到一些限制,但是他的思想、他的智慧,其實不受這種時間跟空間的限制。如果他現在要跟一群不同語言的人來進行交流,那有 AI 可以及時幫他翻譯、及時幫他上字幕。那他如果行動不太方便的話,那他或者他的照顧者,現在有 AI 的什麼外骨骼啊、什麼其他的方法,能夠幫助他們很容易地,不管是搬運重物啊,或者是在你要去某一個地方之前,先透過虛擬的方式,先了解那個地方的場景啊等等。
所以在不管是食衣住行方面,如果是輔助式的這種智能的話,我們就不需要所謂的「強人工智慧」好像取代掉人,而是把每一個部分你隨著年齡增長,可能就是狀況變得比較需要支援的這個部分,透過 AI 把它補上、透過機器人把它補上,或者是我們所謂「幫助照顧者」,所以幫助照顧你的那個人,因為他的時間或者他的體力也有限嘛,透過 AI 的方式放大它的體力或者是時間能夠碰觸到的地方。但這個最後總歸一句,還是創造更多「人跟人之間能夠連接,並且創造意義」的時間跟機會。那只要是往這個方向設計,它就是有利於社會的。
那當然日本在這一方面是走得非常前面,那可能也是因為高齡所產生的需求,比其他的地方來得迫切。所以我在日本所看到的這些創新的方法,大概都是透過這種「永續高科技」的角度去進行設計,而不是只是賺很快的下一個季度賺多少錢、投資多少倍的回本,但是實際上去剝奪掉人跟人之間的連接跟意義。
其實大概現在是 2025 年,大概十年之前,其實就已經有這樣的 AI 開始操縱這個社會。大概 2015 年左右,我們可以看到,以前我們在線上,就是大家加入同樣的群組、互相聊天等等,那有所謂的 social network,就是去把大家在線上的這樣子互相組織的能力能夠增強的一些軟體。但是 2015 年開始,AI 開始進入這些軟體,所以我們就看到說,有的時候你看了一個影片還不夠,它預設會有 autoplay,就是你看了一個影片,自動幫你播下一個影片。那個影片也不是你去找的,而是 AI 去揣測說你看了這個影片之後,我如果播下一個影片,你就花比較多的時間在這個熒幕上面、在你的手機上面,可能可以看一些廣告之類的。
那又或者是說,有很多 AI 它是有一個注意力的競標的模型,它就是給願意下廣告的人說,現在這群人他想要看什麼、那群人想要看什麼,那付出最多錢的人就可以讓這小群人看這個東西,那小群人又看一個不同的東西,但最後還是同一個出錢買廣告的人。那結果造成什麼問題呢?就是本來大家有很多共通的經驗的,但從 2015 年開始,大家共通的經驗越來越少了,每個人看到的那個時間軸都跟別人完全不一樣。
而且呢,看到的這些不管是廣告也好,或者是在網絡上面,就是越來越多人點擊、或者越來越多人轉傳的內容,怎麼都越來越極端,好像看起來就是吵架吵得特別兇的?那本來在網絡上面可以找到共同興趣、志同道合的人,就因為這邊吵一下、那邊吵一下,到最後大家都互相分崩離析了。那個是在很多社會,透過 AI 對於我們注意力的操縱,我們就看到的實際的情況。
當然到最近幾年,大家發現 AI 操縱人類社會不能再這樣子下去,所以也有一些地方,好比像說澳洲,就說 16 歲以下的小孩,不應該再讓他們的頭腦被 AI 操控,他們就禁止他們去使用社區媒體。那也有一些地方去說,那你如果在社區媒體上面,你要下廣告的話,那至少你要用真人的簽章、像在臺灣來背書,而不是說讓隨便哪個機器人都可以隨便合成人類的樣子在網絡上面投廣告。那當然很多地方,像歐盟他們也有所謂的數位服務法(Digital Services Act),去確保說如果在上面有大規模的社會造成傷害的部分,那這樣可能要罰錢或者有其他的一些做法。
但你可以看到,花了整整快十年的時間,大家才從 AI 所造成的這種危害裡面,大概可以看到說,人類社會開始終於有一些回應。所以我自己的感覺是說,我們如果現在大家想要對這件事情有做一些貢獻的話,最好就不只是越來越快速地發展 AI,好像踩油門那樣子,也不是說一下把所有的 AI 停下來,好像踩煞車那樣子,而是去中間把那個方向盤可以讓它打得更靈活。也就是當你看到一個可能的危害的時候,你要能夠非常針對那個危害,一下就集思廣益,讓大家對這個危害怎麼因應的這種意見能夠去聚集起來。聚集起來之後,就有所謂 uncommon ground,就是大家第一場,雖然不同,但都可以接受的一些做法,然後再把這些做法快速地實行出來,去杜絕這個特定的危害對社會造成的傷害。
所以像最近我們就有看到,包含那個日本的 Takahiro Anno-san(安野貴博),就跟包含 Hoyke-san 啊等等的這些朋友們,都開始了這樣叫 Broad Listening(廣泛傾聽)的做法,就是想把這個方向盤讓它打得更靈活一點。那或者在加州,我跟 Gavin Newsom 州長,兩個星期之前也針對他們怎麼從野火裡面重建,創建了「Engage California」去傾聽大家的意見。所以像這樣子廣泛傾聽的、建構共同意義(sensemaking)的做法,對我來講就是「打方向盤」的這個做法,這是大家應該致力的。
我覺得不是那些人要來配合人工智慧的發展行列,而是反過來應該是技術要能夠來配合大家實際的需求。我自己小的時候,1980 年代,那個時候剛剛出現所謂的個人電腦(Personal Computer, PC),那個是一個很新的想法,因為在以前都只有大企業或者是政府,能夠買得起很大的大型主機。大家都只是在大型主機裡面,去分享大型主機的一點點運算時間,叫 Time Sharing。那這樣子的做法,就是只有大的資本才能夠去確定哪些事情值得去進行計算,當然不可能說讓它的計算去符合每一個角落、每個人的需求。
但是個人電腦的想法就完全不一樣。個人電腦上面運行的軟體,是所謂通用型的軟體,所以你的作業系統也不會說,你非得用來做什麼運算不可。在上面運行的好比像說試算表這樣子的軟體,也沒有說你這個試算表只能用來算這個,不能用來算那個。所以透過像自由軟體,就是每個人都可以改這些軟體,然後又分享出去的這樣子的運動,每一個不同的地方,想要拿電腦去做不同用途的,都可以很容易拿一臺個人的電腦,在上面安裝一些自由的軟體之後,就改變這些軟體的運作邏輯,讓它符合這個社會的需求。
那當然在過去兩三年,我們 AI 的發展也看到真的很多地方,就是大量的資本聚集起來,投資所謂的 Data Center(資料中心),然後好像在資料中心裡面訓練越來越大的模型、越來越強的 AI,好像什麼都可以做。那絕大部分的人就只要訂閱這些資本家所做出來的這些大的模型就好,所以我們又回到了好像 mainframe(大型主機)那樣子的年代。
但是呢,我們今年就可以看到說,有很多很讓人高興的發明,也就是說,小型的這些語言模型,它們推理的能力已經變成跟大型模型差不多了,可能有 90% 左右的水準。那又像在日本,有很多專門做這種中小型模型的公司,比如 Sakana AI,他們做的就是,如果你在你的企業裡面,需要做日文翻譯,或者是說像剛剛講到做出一個試算表軟體等等,你把需求寫出來之後,他們就幫你把這些小型的 AI,好像很多小魚一樣(Sakana),把它變成一個池子。這個小的池子裡面,反而更能夠解決你的公司所碰到的問題。那又或者像這兩年來,我都是用這臺筆記型電腦在訓練幫我回電子郵件的那樣子的 AI,那我的電子郵件就不用離開我的電腦,它就可以在這邊讓我打方向盤。
在這樣的情況下,每個個人或每個公司、每個小的團體,它就不需要等這些大的資本、大的企業把 AI 訓練成他們要的樣子,而可以下載很多小型的模型,然後就在自己這邊來進行訓練等等。那當然在以前主要的問題就是說,只有這些大型的主機,它運算的速度才足夠快,不然的話你在小型的電腦上,你要等比較久才能夠看到答案。但是現在我們也發現,小型的模型在普通的電腦上運作,也就已經夠快了。好比像說現在有所謂的 diffusion 的模型,你就不需要等它一個字一個字去接龍,它可以很快地寫出一整篇文章給你,然後按照你的需求再把這篇文章更加精密化。所以就不是像以前那樣子說,你要寫很長篇,你一定要等很久,而是說你先有一個 first draft(初稿)出來,然後很快地——它就可以按照你的需求,把它變得更加符合你的社會、你的社區或者是你這個文化的需求。
那所以這樣子我們叫做 pluralistic alignment(多元對齊)的能力,在以前是很昂貴的,或者需要等很久;但是現在又快、又不需要等很久。所以從今年開始,我覺得 AI 的發展方向,除了這個縱向的越來越大的模型之外,還有一個橫向的,就是越來越擴散的、這些開放式的模型。那這個就不需要人來配合這個大企業,而是這些大企業所訓練出來的這些 AI,可以很容易地被萃取到小的模型裡面,並且在每一個個人電腦上、社區的電腦上重新調整。
剛剛有講到,這完全取決於你「打方向盤」的能力。如果你有輛車,然後你的方向盤幾乎打不動,那當然你就會開一下下,突然撞到牆,或者是突然發現前面有懸崖,你就要趕快煞車,好不容易再打一點點方向,然後再試一個新的方向。但是如果你有很好的方向盤的話,你就沒有這個問題。
所以我的職位叫做 Cyber Ambassador,這個 Cyber 就是 Cybernetics 的意思。Cybernetics 就是你在開一艘船的時候打的舵,就是打方向盤的能力。所以有這樣子的 Cybernetics,就是打方向盤的能力的話,那你就可以去問大家說,那在接下來,我如果繼續這個方向往前,後果呢?這樣子透過剛剛講到的 sensemaking、broad listening 的方式,集思廣益,大家一起把我們前面的這個地圖畫出來。畫出來之後,自然就可以趨吉避凶,把科技的方向導正。
那之前的問題就是說,我們十年前 social media 造成的問題,我們這個方向盤轉了整整十年,才能夠稍微糾正到稍微對一點點的方向。所以這個打的速度也太慢了。如果這個方向盤打的速度越來越快,而且看到接下來未來裡面哪些好、哪些不好的這種能力越來越強的話,那這樣就不需要像你們剛剛講到的戰戰兢兢的,好像一次只能發展一點點技術。但是反過來講,如果沒有這個能力的話,那當然不要暴衝是比較好的。
所以我想在未來,如果有一些國家,它確實是沒有什麼打方向盤的能力,然後就暴衝,然後真的造成了什麼危害,那這個危害可能就會提醒全球其他的國家、其他的社會說,你看,你不能沒有打方向盤的能力,像這樣子。