AIGC 少即是多!10億參數(shù)「小巨人」擊敗ChatGPT 只有10億參數(shù)的xLAM-1B在特定任務中擊敗了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上個月剛發(fā)布的蘋果智能模型只有30億參數(shù),就連奧特曼都表示,我們正處于大模型時代的末期。那么,小語言模型(SLM)會是AI的未來嗎? 新智元 ChatGPTLLMSLM