【杜蘭說AI】大模型的“大”到底是啥?

|
一共四個維度,
第一,
參數規模,
就像是你吃火鍋時鍋的大小,
也是一切的基礎,
ChatGPT就是一口1750億參數的巨型火鍋,
因為夠大,
所以能涮的食材也多。
這又涉及到了咱們的第二個維度,
訓練數據的規模,
就是咱們涮火鍋的食材種類,
食材越多越豐富,
涮鍋的味道就越香,
這也就是為啥說
“訓練數據決定了模型的知識廣度和深度”。
第三是計算量,
也叫訓練模型的能源消耗,
計算量大不大,
就是在問你這鍋的火力大不大?
一般肯定是火力越強熟得越快,
但也有像DeepSeek這樣,
著名的550萬美元能耗的火鍋,
主打一個“智能控溫”,
能耗小,
湯也能熟。
最後一個叫上下文窗口,
它決定的是模型能同時處理的信息量,
這回咱得支個桌了,
上下文窗口越大,
就相當於你放火鍋的餐桌越大,
那能放的菜品肯定也越多,
模型一次能處理的信息也就越多。
總結起來就是,
大模型就是一鍋容量大、食材多、火力強、桌面寬的火鍋。
好了,
吃個火鍋獎勵一下自己吧。
FINMETA
香港Web3生態服務商
官方網站:www.finmeta.com.hk
公眾號、視頻號:FINMETA
X.COM:https://x.com/FINMETA_NEWS
YOUTUBE:https://www.youtube.com/@FINMETA_NEWS
Bilibili:https://space.bilibili.com/627654383/channel/collectiondetail?sid=652860
【線上社區】
TG group:https://t.me/finmeta_web3
WhatsApp group:https://chat.whatsapp.com/IgMyxP1ssiO0k212SJJ9U5
Discord group:https://discord.com/invite/vrBdf6YGP3
【線下空間】
Web3 Space:https://www.finmeta.com.hk/en-us/field
地址:香港金鐘道95號 統一中心 2001
Room 2001,Unity Center ,95 Queensway, Admiralty, Central District, Hong Kong Island
FINMETA所刊載內容之知識產權為FINMETA及相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、複製及建立鏡像等任何使用。如有意願轉載,請發郵件至[email protected],獲得書面確認及授權後,方可轉載。