本文件為非官方謄稿。官方影音紀錄請見 senparlvu.parl.gc.ca。本文件依參議院公開重製許可轉載:須準確、不得呈現為官方版本、不得作商業使用,且不享國會議事特權。議事內容之著作權由加拿大參議院保留;參議員及其他證人發言之著作權歸各自原作者所有。本儲存庫之 CC0 公眾領域宣告不適用於本文件。
加拿大參議院人權常設委員會(The Standing Senate Committee on Human Rights)於 2026 年 4 月 27 日(星期一)下午 5 時(東部時間)以視訊會議方式召開,研究並就 AI 對加拿大人權與經濟安全的影響提出報告,特別關注弱勢群體與國際人權體系下之工作權。
由主席 Paulette Senior 參議員主持。

現在我將介紹第二場次的與談小組。我們邀請證人各自發表五分鐘的開場陳述,接著由參議員提問。
今天在現場出席的是 Knockri 的執行長 Jahanzaib Ansari;另外,我們也透過視訊會議歡迎遠從臺灣與會的唐鳳,臺灣數位治理大使。謝謝兩位今天出席。現在,我邀請 Ansari 先生進行簡報,接著由唐鳳發言。

感謝各位邀請我。主席與各位尊敬的參議員,我由衷感謝這份機會。
首先,請容我向各位為國家的服務表達敬意與感謝。今天能來到這裡,對我而言確實是一項榮幸。感謝各位給我機會在此作證,討論 AI 對加拿大人權與經濟安全的重要性,特別是它與易受影響群體,以及國際人權體系下工作權之間的關係。
我的名字是 Jahanzaib Ansari。我是 Knockri 的創辦人兼執行長。Knockri 是一家加拿大組織,已經營運大約十年。我們的使命非常簡單:確保每一位加拿大人都有公平的機會、平等的機會,不讓任何人因不公平的守門人,而被排除在他們本應享有的機會之外。
我們的平台被私部門與公共部門中大型且成熟的組織採用,用於支援招募、升遷與培訓。我們的解決方案是一套 AI 解決方案,大約十年前就開始發展。整體而言,使用我們解決方案的組織所代表的勞動力約有 300 萬人,範圍從加拿大到塔吉克,再一路到泰國。十年下來,我們已涵蓋相當龐大的勞動力。
我創辦這間公司的起點非常有意思。大約十二年前,我在找工作,但很多雇主都沒有回覆我。我有一個很長、帶有族裔色彩的名字,Jahanzaib,所以一直得不到回音。當時我非常挫折,於是我把名字英語化,從 Jahanzaib 改成 Jason、Jordan 或 Jacob。結果在短短六週內,我真的找到了一份工作。
我今天不是來博取同情的。但我當時感覺,可能有非常多有技能的加拿大人正被忽視,而我們必須有更好的解決方案,來處理偏見,並提升招募、升遷與培訓流程的效率。於是我與一位機器學習科學家,以及一位工業與組織心理學家合作,創立了 Knockri。
我們所創造的,是一套協助組織降低招募偏見、在能力基礎上提升多元性、改善效率,並提供良好候選人體驗的解決方案。不同於目前某些 AI 炒作,我們從公司創立之初,就把許多防護機制納入考量,並確保每一項決策都能追溯到它實際上是如何做出的。
我們基本上打造了一種玻璃盒演算法,透明、可稽核,並能建立信任。我的共同創辦人是 Faisal Ahmed,他是來自多倫多大學的機器學習科學家。我們的首席科學家是 David Mayers 博士,專精於甄選與評量。
各位尊敬的參議員,今天的 AI 既可能強化既有的不平等,也可能協助減少不平等。根據我十年來與私部門、公共部門客戶合作的觀察,我想簡短提出四點,之後我們再開放提問。
我必須承認,AI 正日益與國際人權體系下的工作權連結在一起,這正是我們目前在市場上所看到的,也帶來一些挑戰。但當 AI 以負責任的方式訓練時,它其實可以維護許多人權,包括國際工作權。
第三點,透過我們與私部門、公共部門和軍隊客戶的合作,我們深切感受到,透明是關鍵,問責是不可妥協的。打造可稽核的解決方案,並且能夠真正打開來理解一項決策究竟如何產生,極為重要。
最後,這當中的許多問題都直接關係到經濟安全與國家競爭力。當然,演算法存在偏見挑戰。但同時,我們也需要有不至於讓我們慢到無法採用新技術、最終落後於人的監管制度。
總結來說,AI 目前正以令人目眩的速度發展,但我們過去也曾見過類似的轉型。如果能以負責任的方式引導,AI 可以擴大機會、減少偏見、強化經濟安全,並維護人權。
再次感謝各位給我今天出席的機會。我期待各位的提問。

謝謝 Ansari 先生。

主席、副主席、各位尊敬的參議員,感謝邀請我以個人身分出席作證。我的名字是唐鳳。今天我的觀點,來自我目前擔任臺灣數位治理大使的工作、我在牛津大學 AI 倫理研究院的學人身分,以及我作為臺灣首任數位發展部長的經驗。
在我參與日常政府運作的任內,我們的使命不只是讓人民信任科技,而是讓數位制度值得人民信任。
貴委員會的研究關注 AI 如何影響人權、經濟安全、弱勢群體,以及國際工作權。我想提供一個框架:AI 不只是自動化。它重新分配注意力、權威與議價能力。在民主社會中,這樣的重新分配必須可見、可爭辯,並且共同治理。
臺灣成功應對 AI 生成詐騙廣告的經驗顯示,民主社會不必在技術官僚式控制與平台消極不作為之間二選一。公民可以審議詐騙防制與言論自由之間的平衡。同樣的原則也適用於工作:在系統固化成基礎設施之前,受影響的人就應協助設定規則。
AI 時代的工作權,必須包含三項實際權利:學習權、知情權與申訴權。
學習權,意味著在被取代之前就接受培訓,而不是在被取代之後才補救。工作不只是收入。工作也是學徒制,是歸屬感、關懷與尊嚴。知情權,意味著當 AI 影響招募、排班、升遷、福利、教育或公共服務時,人們應該知道 AI 正在被使用、誰應負責,以及誰的資料正在塑造這項決定。黑盒子的決定不應被視為正當程序。
申訴權,意味著受影響者可以挑戰結果,而不需要先取得電腦科學學位。申訴必須導向修復,例如更正、補償、政策改變,或讓該系統完全退場。
這對那些已經因既有制度而變得脆弱的人尤其重要。我想到的是原住民族社群、移工、身心障礙者、兒童、高齡者、被種族化的社群,以及在勞動與技能資料中代表性不足的人。AI 不應成為新的方式,用來在未經同意下榨取知識、在缺乏脈絡下替人打分數,或讓排除變得更有效率。
在牛津,我在「仁工智慧」(Civic AI)的工作,是把關懷倫理轉譯為六個治理問題:我們是否聽見最接近傷害的人?是否有人被明確指定並負起責任?系統是否能在脈絡中運作?受影響者是否有救濟管道?它是否建立團結,而不是供應商鎖定?以及,它是否知道何時該停止?
對於高影響 AI,民主社會應要求決策軌跡、獨立稽核、可近用的申訴機制、公開事件通報、勞工與社群共同治理、落日條款,以及避免供應商鎖定的採購規則。
民主制度必須是可中斷的:在不破壞人們所依賴之必要服務的情況下,可以暫停、覆寫或退場。
共融繁榮也是民主安全。加拿大與臺灣都是自由開放的社會,我們都知道敵對勢力正在測試我們信任的縫隙。但主權不是孤立獨行。主權是保護人民並與他者合作,同時不放棄公共判斷的方式。
在大家熟悉的保護、賦權與建設之外,我想再加上一個動詞:共同治理。保護人們免於傷害,以技能與知識賦權於人,建設可信賴的公共基礎設施,並與勞工、家庭、社群,以及將承受這些後果的未來世代,共同治理 AI。
一位足夠好的祖先不會問:「機器是否準備好取代人類?」一位足夠好的祖先會問:機器如何幫助人類更好地彼此關懷、共同審議,並守住對尚未出生者的承諾?
不應有人因自動化而喪失自主能動性。任何社群的知識、語言或勞動,都不應在未經同意下被視為原料。任何工作者都不應被迫獨自與黑盒子談判。
謝謝。我歡迎各位提問。

非常感謝兩位精彩的簡報。我相信各位一定有很多問題想請教。我們現在開始。

謝謝兩位今天出席。這真的很有意思。
唐鳳,我聽過你的 podcast,我想你今天最困難的工作,就是把你做過的一切濃縮起來,因為你做過的事情實在很多。
第一個問題:你寫過書嗎?

有。那本書屬於公眾領域,並且可以在 plurality.net 上免費取得。

太好了。謝謝。
你真的身體力行共同治理模式。我想請問,你能否舉一個你在臺灣實施的具體例子,說明如何圍繞 AI 進行真正的共同治理?

正如我剛才提到的,2024 年,我們召開了一場所謂的對齊大會,來應對生成式 AI 所造成的網路詐騙與詐欺廣告傷害。大家知道,2024 年 deepfake 在所有民主社會都非常普遍。但作為亞洲網際網路自由度最高的國家,臺灣不能採取由上而下的審查。因此,我們向全臺 20 萬組隨機電話號碼發送簡訊,詢問:「我們應該一起怎麼做?」民眾紛紛提出他們的想法,我們選出了 447 位民眾,組成一個在統計上近似整體政體的小型公眾,以每桌 10 人的方式進行審議。唯一簡單的規則是:AI 只能扮演促進者,而參與者必須先說服同桌另外九個人,他們的想法才會浮現上來。
長話短說,我們實施了一組在這個小型公眾中獲得超過 85% 同意,而另外 15% 也能接受的構想。其中包括共同責任、強制性「認識你的客戶」規則,以及讓不遵守我們責任規則的外國平台連線變慢。整個 2025 年,冒名與 deepfake 廣告減少了超過 90%。我認為這明確顯示,當人們想要坐上談判桌時,重點不是由上而下地控制,而是發明一張更大的桌子。

謝謝。只是這會花更久。

需要一個漫長的下午。這稱為審議式民調,進行時間和嚴謹民調一樣,通常一天或幾天。

第二個問題,我覺得你很清楚地說明了大型 AI 與非常特定形式 AI 之間的差異。我不知道正確用語是什麼 — 通用 AI — 然後是特定的 AI。從能源使用的角度,你能不能為我們說明一下?這個問題反覆被提到。

目前在 AI 訓練中,所謂的通用大型模型,需要在同一個模型中預期幾乎所有用途,從摺疊蛋白質到摺疊衣物都包含在內。這樣做的結果,是訓練時極度能源低效率。但當我們知道希望模型做什麼,例如摺疊蛋白質或摺疊衣物,我們就可以訓練所謂的領域特定模型或本地模型,這些模型可以納入本地社群的輸入,同時也保護其資料不被抽取到雲端,送到外國大型科技公司手中。
我想分享的一個概念是:那種榨取式、非常耗能的部分,可以把它的資料想成是石油。這種萃取會送到某個大型煉油廠。但以本地方式訓練小模型 — 我們可以把資料想成是土壤。本地社群一起照料這些資料,進行微調,持續訓練,讓任何時候出現偏見或錯誤,修正可以立即發生,而不是等待一次可能耗時半年的高耗能訓練。


唐鳳可能已經回答了我的部分問題,但我想把這個問題提給 Ansari 先生。
你提到四點。你說,當 AI 以負責任的方式訓練時,它可以維護標準。你也提到透明與問責是關鍵。我想請你進一步說明,並告訴我們這兩點如何應用在你的企業中。你如何確保 AI 是以負責任的方式訓練?又如何確保透明與問責?

非常感謝這個問題。
我會從高層次分享,因為我不是非常技術背景的人,但我會讓各位對解決方案有好的理解。
在我們的組織裡,我們沒有使用任何大型語言模型,所以我們對如何訓練資料有很大的自主性。當我們創辦公司時,我們客觀地檢視職能。成長型思維客觀上意味著什麼?協作意味著什麼?敏捷意味著什麼?根據這些精確定義,我們把工作世界與勞動力中的成功相關性進行對應。
如果我參與這個流程,它並不是用歷史且帶有偏見的資料來訓練。市面上很多供應商,或我們在產業中普遍看到的做法,是用歷史資料訓練模型。如果那些資料本身存在既有偏見,當然就會滲入演算法,並進一步製造資料。
我們所做的,是不以那種方式看待歷史資料。舉例來說,如果某個組織中的某個子群體,例如南亞裔男性,是科技職位中表現最高的一群,而我們只用這一點來訓練演算法,那麼在評估白人女性或其他群體時就會產生很多挑戰。
我們很早就學到,不能這樣做。這是第一點。
第二點是,我們有來自許多不同背景與知識領域的多元評分者,也對這些候選人進行評分,以驗證兩者之間的效度。
我們必須與大學和組織進行許多研究,因為這是一個非常容易發生訴訟的領域,尤其當它用來支援這類決策時。談到聯邦公共部門,我們已經通過演算法影響評估與隱私影響評估的繁複流程,並且真正檢視決策是如何推導出來的。
我們與 ISED 團隊、PCO 團隊和 PSC 團隊一起經歷了漫長流程。多年來,我們一直確保它可稽核。這是第一點。它非常透明。第二,它是以非常客觀的方式訓練。我希望這有幫助。

謝謝兩位證人。
關於兩位證人,你們能否談談,在強調透明與民主參與的同時,如何也意識到分享人權資訊與保護人權資訊的重要性?特別是在像我們這樣有 13 或 14 個管轄組成部分的司法管轄區。我想這與臺灣不同,但我也很樂意被指正。

我對某些管轄問題的知識並不是非常深入。不過,我可以這樣說:很多走過這個流程的人 — 我可以舉一個例子。我們曾遇到一個情況,涉及一位來自黑人社群的女性。她長期被忽視。她本來有升遷機會,但卡在那裡大約五年。他們把我們納入流程的一部分,而五年之後,她最終獲得升遷。她升上去了,這讓我們看到,當你建立一套讓競爭環境更公平、並根據能力評估個人的解決方案時,它就維護了許多基本人權,例如以有尊嚴的方式,在職涯中獲得公平且平等的進步機會。
此外,參議員,我們不保留任何資訊。我們會刪除所有資料,因為那些資料對我們反正沒有幫助。我們的功能,是探討如何幫助這些個人獲得公平機會與平等機會,同時也給予他們能動性,而不是把他們綁在某個儲存其資料的組織之上。

如果可以,我想區分資料聯盟與資料聚合。資料聯盟是人們以對所有成員都有用的方式共用資料。多個行動者、利害關係人或社群,可以加入一個資料聯盟,而不分享任何原始資料。現在有一類技術稱為零知識技術,可以讓人證明自己能做某件事、擁有某些知識,或證明某個社群能回應某類查詢,而不揭露底層任何可識別個人身分的資訊。
在臺灣疫情期間,我們使用了保護隱私的接觸者追蹤方法。基本上,場所在門口的 QR code 上印一組隨機號碼,民眾掃描之後傳到一組大家熟知的號碼 1922,但電信業者不知道那組隨機號碼代表什麼,場所什麼也不知道,甚至不知道訪客的電話號碼,國家也完全不知道任何資訊。如果發生感染,我們可以進行接觸者追蹤與遞迴通知,而且同樣不犧牲未在受影響區域者的隱私。我希望這個例子稍微呈現出,零知識的資料與知識共享安排實際上可以如何運作。

謝謝兩位簡報者的工作。聯合國 2024 年報告《為人類治理 AI》中指出:
今天,在 AI 方面存在全球治理赤字。儘管倫理與原則已有許多討論,但規範與制度的拼湊仍處於萌芽階段,並且充滿缺口。問責往往明顯缺席,包括部署會影響他人且不可解釋的 AI 系統。

報告進一步指出:
這類技術的開發、部署與使用,不能只任由市場恣意決定。國家政府與區域組織將至關重要,但這項技術本身在結構與應用上具有跨國性,因此需要全球性方法。

該報告列出指導原則,這些原則承認,AI 治理並非發生在真空中;國際法,特別是國際人權法,也適用於 AI。能請兩位談談這一點嗎?

我可以先從我的經驗開始,之後再請我尊敬的同僚接續。
McCallum 參議員,在尚未有標準化的國際 AI 人權監管方法之前,我們看到許多大型組織已設有倫理委員會。它們有委員會,會深入分析與評估每一項解決方案。如果有任何可能對任何子群體造成不利影響,該解決方案就不會往前推進。
從我的角度來看,我還沒有看到全球採用的東西。但許多組織都有非常明確、具體的任務。如我所說,這是一個非常容易發生訴訟的領域。已經有很多公司因為演算法造成偏見而被起訴。這是第一點。
第二點,就加拿大而言,根據聯邦要求,我們作為供應商或其他演算法,必須通過這些演算法影響評估。它是根據風險標準:你的解決方案對決策有多關鍵。例如,如果它被空軍使用,而你要鎖定一棟建築物,那就是極高風險。那個決策流程必須被極為清楚地理解,因為它可能造成很多挑戰。我們的解決方案是低風險的,因為我們做的是決策支援。最終總是有人類在審查。
我在國際上所見到的是,目前還沒有一套明確指引。歐盟有法案,美國一些州也有法案。然而,川普試圖取消那些法案,所以我們會看看接下來如何發展。
我會說,目前至少在加拿大,最好的行動方案,是與像 ISED 的 Mark Schaan 這樣的人合作,理解他們所制定的某些規範,並確保每一位供應商都是真正正當的。

如果可以,我認為該報告的診斷是正確的:只有一堆原則拼湊在一起,而沒有可執行的義務,是無法治理 AI 的。AI 本質上是一種全球性的科技現象。但我認為民主社會,尤其包括中等強權,應該建立可互通的治理。這並不表示在全球各地以完全相同方式適用同一套治理,而是稽核標準、即時通報標準、合成媒體的來源標示(就像我們剛才提到的),以及避免任何形式供應商鎖定的採購要求。所有這些都像是堆疊,可以跨司法管轄區運作,而不必調和每一條國內規則。我認為臺灣與加拿大,作為自由開放社會,可以在這項工作上成為彼此的同儕。
我認為,全球治理赤字不會靠另一項普世原則來補上,但可以透過可執行的義務來補上,讓原則在每一個領域中都能被爭辯、被檢驗。


我坐在這裡,真的被兩位對問題的回應震撼到了。我不覺得我們過去聽過這樣的回應,所以非常感謝。
Ansari 先生,我想問你的問題是:鑑於 Knockri 正在致力於無偏見決策的解決方案,你們所提供的工作或益處,目前採用情況如何?不必說出名稱,只要談談你們所做工作的典型客戶會是誰。

就我們的解決方案而言,我會說包括聯邦政府部門、空軍,以及部分武裝部隊。在私部門方面,則有大型組織,從科技公司、顧問公司、銀行、保險、教育等都有。
不同組織看到的價值也不同,對吧?有些組織有明確任務,要提高候選人短名單中的性別與種族多元性。那裡有非常具體的重點:首先,如何看待人才管道,並真正理解為什麼某些人沒有被篩選進來。因為我們所看到的,類似於我的經驗,人類智慧很棒,但其中也有挑戰。我們也不是完美的生物。
所以我會說,我們的解決方案被用來增加入選候選人短名單中的性別與種族多元性。許多組織現在則是為了效率而使用它。因為你申請一份工作,有些人要等很久才有回音。這讓招募人員與人資團隊可以專注於價值更高的工作,也就是理想上進行面對面的對話;同時,那些繁瑣、偏見可能滲入的工作,則在該階段由自動化處理。
這是我們在許多客戶身上看到的。他們在這方面已能節省大量時間與成本。
最近,主席,這套解決方案也被空軍用來創造培訓效率。
正如我剛才所說,這直接關係到經濟安全與國家競爭力。我們看到,加拿大在生產力與效率上面臨許多挑戰,大家都知道。
此外,容我補充這一點:許多年輕加拿大人正在離開這個國家,這不是好現象。舉例來說,我童年的一位朋友去了佛羅里達。高素質人才正在離開國家,但我們本地也有非常優秀的人才,卻沒有合適的工作。
我們看到這套解決方案被用於提升個人技能。它也被大學用來提升學生技能,並確保他們與組織正在尋找的職能相匹配,讓通往就業的道路可以更快。
它觸及的面向非常多。當然,在採用方面,我會說,ChatGPT 大幅加速了這一點。一開始,人們對這項技術有很多恐懼,之後開始有關於挑戰與偏見的教育。現在我感覺採用情況正在大幅增加。

非常感謝。
唐鳳,我剩下時間不多,但我對你談到的治理模式很感興趣。你提到受影響的人協助制定規則的重要性。你也提到,可以用不以取代為目的的方式使用 AI,而是用它來幫助我們彼此連結、彼此協助。你能否稍微談談這一點?我也對你們所採用的方法在臺灣或其他司法管轄區的推廣情況感興趣。

謝謝。我想先區分兩種 AI。一種是把智慧自動化的 AI — 我有時稱之為「威權智慧」— 也就是代替人們做決策。例如,十年前在社群媒體上,許多人覺得自己的能動性被奪走了,因為過去當我們追蹤同樣的人,我們看到的是同樣的動態消息。但十年前,這被一種非常有評判性的 AI 取代,它將我們的動態消息個人化,並透過「以激怒促進互動」來鼓勵互動。那是非常威權的。
在臺灣,我們把另一種稱為「輔助智慧」,它協助那些原本無法同意彼此的人進行跨對話。不要把它想像成吞噬人與人之間氧氣的野火,而要把它想像成大家圍坐其旁的營火,照亮與你不同的臉孔。不過,每個營火仍由一組有界線的人照料:10 人、100 人,或更大的篝火。
在臺灣,我們設計了這種利社會媒體,例如 Polis,它是一項開源技術,我想已被全球十多個國家使用,包括加拿大。它的理念是,不是讓憤怒病毒式擴散,而是讓重疊點病毒式擴散。要在這種利社會媒體上獲得傳播力,就只能是那些原本不會同意彼此的人也能共同支持的想法。只有搭橋者能獲得傳播力,透過這種方式,人們可以療癒極化等問題。
我們的示範足夠成功,甚至連 x.com — 原本的 Twitter — 這類傳統社群媒體,如今也採用了類似演算法,稱為「社群筆記」(Community Notes)。它讓能跨越不同意識形態搭橋的人撰寫筆記,在病毒式傳播的錯誤資訊、假訊息或只是具爭議性的資訊旁邊補充脈絡。
現在,我們與所有主要社群媒體公司合作,協助實作這些功能,也合作推動「協作筆記」— 由 AI 起草、再由人類即時修正的筆記,讓 AI 能學會哪些內容可以跨社群轉譯。例如在一邊是氣候正義社群、另一邊是聖經關懷受造界社群時,AI 可以學會如何在不同語彙之間轉譯。我希望這稍微說明了這類語言模型技術的搭橋潛力。

謝謝。非常有意思。

謝謝你加入我們。唐鳳,你能否告訴我們,臺灣數位發展部是否曾與農業部合作,推動農業數位轉型?在前一場次,我們聽了加拿大農業信貸公司的報告,他們談到加拿大脈絡下 AI 在農業中的整合。能否請你根據你擔任數位部長期間的經驗,提供一些關於臺灣兩個部會之間交集的觀察?

當然。在我任內,我們確實與新的農業部合作。兩個部會大約是在前後一年內相繼成立。在臺灣,我們當然也面臨農業部門年輕人較少的問題,而且某一特定領域的專業知識,不容易直接轉譯到另一個領域。
我們主要與農業部合作,確保環境感測不限於單一生產設施,並確保關於種植哪些作物、如何灌溉、客戶關係以及線上關係管理等長期趨勢都能獲得支援。我們有一個稱為 TCloud(臺灣雲市集)的計畫,每一家中小企業,包括農業部門的一些業者,都可以在數千家供應商之間選擇。
關鍵在於,我們落實同樣的透明性與資料可攜性,以及在不同供應商之間移動的自由,讓資料留在農業經營者手中。如此一來,如果某個預測模型或某個供應商不再符合其特定情況,他們可以自由轉換到另一家供應商。
為了鼓勵商家加入這個計畫,我們提供商家最高 80% 的政府補助,協助他們啟動,特別是為農業部門生產軟體的中小型新創供應商,把他們引介到農業部門。所以,此處的國家補助,不是為了扶植單一國家級或區域級冠軍,而是為了互通性、農業部門的資料主權與所有權,讓他們可以共同訓練特定部門的模型。
現在,我們看到資料聯盟的概念也被其他模型採用。例如,金融部門剛宣布,銀行與保險公司正在使用同樣的想法,在不犧牲資料主權與所有權的情況下,訓練部門特定模型。

這太好了。你提到臺灣有農民高齡化的情況。我們在加拿大也面臨同樣問題,而我們看到的是,農場整併受到規模經濟需求推動,因為要維持經營、保持獲利並生存下去。
在臺灣,年輕人投入農業的障礙是什麼?你如何看待 AI 更好地促成或吸引年輕人?我們從加拿大農業信貸公司那裡聽到,透過更好的可預測性來降低風險。能請你進一步談談你的看法嗎?

當然。我會說,更好的可預測性是其中很大一部分。但在任何工作中,包括農業,我們都必須考慮我剛才提到的「ABCD」:apprenticeship(學徒制)、belonging(歸屬感)、care(也就是我們可以關懷自己的社群這個概念)以及 dignity(尊嚴)。這些同等重要。
正如我們剛才提到的,AI 系統可以幫助世代之間的團結,讓人們在某個脈絡中的 know-how,能夠傳遞到另一個脈絡,而不犧牲地方智慧,也不像煉油廠那樣被聚合 — 而是像土壤那樣。我認為這一點也非常重要。
此外,資本與土地取得、從一代到下一代繼承默會知識的困難,以及傳統上仰賴少數中介者取得市場通路等問題,並不是透過更多整併來解決,而是讓小型經營者透過共享數位基礎設施,達到合作規模。例如,我們的無人機農業服務平台,集合了 90 位小型經營者,共享設備、認證飛手與合規紀錄。任何一位若單獨行動,都無法負擔設備,也難以承擔監管要求;但他們在一起,就達到了一種水平規模,而這種規模過去只有大型農企業才能取得。我會說,國家的角色不是挑選國家冠軍,而是補助選擇的自由。謝謝。

如果你願意,也可以書面回答。聯邦政府如何能最好地支持原住民族資料主權?唐鳳?

是的。臺灣有 16 個原住民族,還有超過 42 種語言變體。我們認為文化主權,以及跨文化主權 — 也就是跨文化翻譯的能力 — 都非常重要。當我們在臺灣說「主權 AI」時,我們指的不是只有一個會說華語、台語、客語和其他原住民族語言的國家臺灣模型。我們指的是一套可重現的流程,讓語言社群能夠擁有其語言社群內所策展資料的社會與文化組成,以及對齊大會 — 也就是讓人們能夠劃定 AI 應該如何進入其社群的邊界,幾乎像是為 AI 代理者制定行為準則。
這兩者結合起來,使每一個社群感覺到自己擁有其社會與文化自決權,就語言模型訓練而言;同時也納入跨文化翻譯能力,讓某種語言或文化取得某項能力時,如果社群覺得合適,就可以隨時把它引入自己的脈絡中。但能動性與主權,是由原住民族社群持有,而不是由上而下的國家委員會持有。我希望我說得清楚。我很樂意再以書面補充,但這就是整體想法。

以書面補充非常好。非常感謝。

Ansari 先生,你想補充什麼嗎?

我有最後一點想加入,因為我覺得關於透明性的討論有些被略過了。我們其實觀察到,個人 — 尤其是來自易受影響群體的人 — 在你分享為什麼使用 AI 解決方案時,真的很感謝。因為大家通常對它有很多恐懼。我們看到的是,一旦我們開始溝通:「我們是在協助確保每個人都有公平機會和平等機會」,整個對話的動態就改變了。所以,如果你要採用某種 AI 解決方案,我認為它不應只是軟體。你需要這種行為與人的理解,讓人們也理解為什麼要這樣做,以及它的益處是什麼。否則,他們會非常害怕它,並且非常不信任公共部門。

非常感謝。謝謝你最後的這一點。
聽完兩位的發言,我感到很有希望,你們的回應非常了不起。聽到像「主權不是孤立獨行」這樣的話,以及談到共融繁榮、如何以真正減少障礙與偏見的方式使用 AI,我想 — 我可以代表自己說,我一直希望能聽到這些。所以非常感謝。
這也讓我們本場次小組來到尾聲,感謝兩位對我們正在進行的工作所作出的貢獻。這非常有幫助。