(speech content)
(more content)
(answer text) ```
# Date Title — document heading ### Speaker: — speaker label (e.g. ### Audrey Tang: or ### 唐鳳: ) > (Section Title) — section dividers ### Question: / ### 問: — questions in Q&A sections
Bilingual pairs
Many transcripts exist in both English and Traditional Chinese. The .alternates file maps these pairs (tab-separated, one pair per line):
2026-03-04-Ciudadanía-Digital.md 2026-03-04-數位公民.md
The CI workflow reads this file and sends alternate_filename to the API so the two versions are linked on the site.
How it works
git push *.md │ ▼ GitHub Actions workflow ├─ POST /api/upload_markdown → archive.tw (D1 + R2) └─ rebuild search index → deploy sayit-hono to Cloudflare Workers
On every push that touches a .md file, the workflow in .github/workflows/upload-markdown-on-change.yml :
Detects added, modified, and deleted markdown files Uploads (or deletes) them via the archive.tw API, including alternate_filename for bilingual pairs Rebuilds the Pagefind search index and redeploys the site
Contributing
If you spot an error in any transcript, open a pull request. The content is CC0 — public domain.
License
CC0 1.0 Universal
你說《AI 基本法》?
你在講的是《Digital Omnibus》草案?
它想要做的是整合。原本有一個《Free Flow of Non-Personal Data Regulation》,大概可以稱作「非個資數據自由流通規則」,另外還有《Data Governance Act》、《Open Data Directive》,這幾個現在是往整合的方向走,整併進重構後的《Data Act》。
其中跟個資比較有關的部分,例如 cookie 的一些規則,和《GDPR》對齊;高風險 AI 義務的適用時間點跟支援工具,則是跟《AI Act》對齊。所以它是好幾源頭在整合。
但是它有要把基本權利、資料保護、安全跟公平性這些支柱拿掉嗎?
因為《AI Act》在剛開始寫的時候還沒有生成式 AI。那他們當時所想的高風險,不管是偏差的風險,反正大家都知道那些風險,那個都是在我們所謂的 narrow AI,就是窄的 AI 的那個情況。
那生成式的特點就是說,你設定它的時候,你根本不需要預期它的使用方式,也就是說你可以在完全不知道自己要幹嘛的情況下,就訓練一個大型模型。那這個情況下,當然有些它的用途會是高風險的,這個大概是避免不了,就算你一開始沒有想到高風險的用途,它現在都可以做高風險的用途。
所以後來他們在《AI Act》最後那一段時間,剛好 ChatGPT 出來的時候,去做了很多最後一刻的調整。那當然當時很難預測到後面——特別是開放式模型等等的這些發展。所以它那些調整一開始的配套,可能不一定非常容易適用。所以現在過了兩三年,大家對於大模型能做什麼、不能做什麼,大概都很清楚了,所以他們會需要把它明確化。
明確化也會讓法遵變容易,但我還沒有聽說它要把權利保障的支柱放棄掉。
或許是本來它的指令裡面導致沒有辦法法遵的,這些把它明確化了?
但是它如果本來就沒有辦法執行法遵,那這樣子的話它本來權利保障也很難說是高的,而是這件事本來你就沒有去做的確定性——不是在有保障的情況下確定能做,是你本來會覺得可能不能做。
那現在它是把它設定到一個「好,那你這樣子算是可以做,我們以前沒想到這樣也能保障權利,但是現在可以做」。那這樣的話,當然還是要在保障權利的情況下做。
至於如果說因為法遵難以執行,所以不如乾脆都不要做,這樣對基本權保障程度最高,那好像也有點奇怪。
你說我們還沒有完成,指的是《個資會組織法》還沒有運作,還是什麼?
等一下,哪兩邊衝突?
你現在是不是在說:有一派主張要把《AI 基本法》裡面加上更多基本權保護,甚至包含法遵義務、罰則等等?雖然它名字叫基本法,一般不太會把罰則放進去,但確實有人想放?這是一邊。
那另一邊是說,也有人認為應該先等歐盟做到一個程度再來做。我們自己先顧本培元,先把個資會什麼東西弄好。但這兩個不衝突啊。你可以一面把個資會弄好,一面把基本權保障加上去,因為個資會是執行它的單位,不是嗎?
我不確定你引的是哪一條,因為你引的那個條號,第 22 條——
條號應該跳過了?
21 條是產業自願共享資料給政府的機制。
那是鼓勵產業間合作。
那個是後面一題,我們先回到你這裡。
你的意思是,有些人認為說應該先在《AI 基本法》加上基本權保障——還是在《個資法》加上基本權保障?
然後再來動《資創條例》?
然後有些人認為說,把《個資會組織法》弄好了、施行了,才可以做《資創條例》?
這我理解。可是這個到底跟《AI 基本法》有什麼關係?因為你一直在《AI 基本法》架構上談,所以我就越聽越模糊。因為《AI 基本法》以我的理解是沒有罰則的。
那然後以我的理解,你說要把基本權加以保護,是要按照基本法的意旨,去立別的法或修別的法去達成的。我剛剛聽到的是說,有人認為應該在《AI 基本法》裡面加上更多的基本權保護——
然後再依此立罰則,或者是修各子法等等——
對。那但是,《AI 基本法》即使不改,你也可以立罰則,可以去改《資創條例》等等。就是說為什麼一定要先改《AI 基本法》?我一直沒有聽懂這一點。
你在一個條例裡面立罰則,那個條例本身仍然是法律位階。法律保留的意思是應該三讀通過、立法制定嘛。但條例也是法律位階啊。
我不認為是這樣子。我沒有聽說過基本法除了名字叫「基本法」之外,它還有類似憲法的功能。我沒有聽說哪一個法學者這樣講的。
《AI 基本法》的目的,是促進人工智慧的研發跟產業發展,然後以人為本。那你剛剛提到的,比方說《資創條例》好了,它並不是為了人工智慧作為它唯一的目的,它是為了促進資料利用之發展。
所以就是說,就算它在《AI 基本法》裡面沒有任何可以扣合的東西,它可以去別的地方找可以扣合的東西——它不需要一定要扣合《AI 基本法》。因為資料用在所有其他地方,他要扣合《勞基法》也可以、他要扣合哪裡都可以。並沒有什麼原因說,好像人工智慧突然變成資料的唯一地基,好像不存在這個狀態。
你也可以動《AI 基本法》。我的意思是說,動基本法既非充分條件——就是動基本法這個就得修——也非必要條件——就是不動了它就沒辦法修。