但我知道我永遠不會問那種問題。所以我只需要用模型來起草信件、思考哲學、Civic AI、維持我的關係、做日文哲學翻譯等等。這些事情用小型語言模型就完全夠了,幾十億參數就能搞定,甚至更少。每次微調的時候,如果你用 Sakana AI 的超網路(hypernetwork)去和 LoRA 對話,把一份很長的文件轉換成低秩適配器,連一秒都不到,大概半秒。在這台 MacBook 上一秒鐘的能耗幾乎可以忽略不計。
j 下一段next speechk 上一段previous speech