唐鳳

舉例來說,我使用的是一個叫 GPT-OSS-Swallow 的開源模型,由日本的大學訓練。我只用很小的版本,雖然這台機器當然可以跑 1200 億參數的版本。但我發現,對我日常大部分的任務來說,200 億參數的版本就綽綽有餘了。所以重點在於,你是在追求某個抽象的最高分數,還是只是在做「夠好就好」(satisficing)。我覺得到今年為止,我們早就跨過「夠好」的門檻了。對我日常的大部分使用來說,200 億或更少參數的模型就夠好了。