"LLM"相關(guān)的文章
AIGC
少即是多!10億參數(shù)「小巨人」擊敗ChatGPT

少即是多!10億參數(shù)「小巨人」擊敗ChatGPT

只有10億參數(shù)的xLAM-1B在特定任務(wù)中擊敗了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上個(gè)月剛發(fā)布的蘋果智能模型只有30億參數(shù),就連奧特曼都表示,我們正處于大模型時(shí)代的末期。那么,小語(yǔ)言模型(SLM)會(huì)是AI的未來(lái)嗎?
LLM最全「怪癖」首曝光!馬里蘭OpenAI等30+學(xué)者祭出75頁(yè)提示報(bào)告

LLM最全「怪癖」首曝光!馬里蘭OpenAI等30+學(xué)者祭出75頁(yè)提示報(bào)告

大語(yǔ)言模型提示中,竟有不少「怪癖」:重復(fù)某些內(nèi)容,準(zhǔn)確性就大大提高;人名變匿名,準(zhǔn)確性就大大下降。最近,馬里蘭OpenAI等機(jī)構(gòu)的30多位研究者,首次對(duì)LLM的提示技術(shù)進(jìn)行了大規(guī)模系統(tǒng)研究,并發(fā)布75頁(yè)詳盡報(bào)告。
AIGC
兩句話,讓LLM邏輯推理瞬間崩潰!最新「愛(ài)麗絲夢(mèng)游仙境」曝出GPT、Claude等重大缺陷

兩句話,讓LLM邏輯推理瞬間崩潰!最新「愛(ài)麗絲夢(mèng)游仙境」曝出GPT、Claude等重大缺陷

在基準(zhǔn)測(cè)試上頻頻屠榜的大模型們,竟然被一道簡(jiǎn)單的邏輯推理題打得全軍覆沒(méi)?最近,研究機(jī)構(gòu)LAION的幾位作者共同發(fā)表了一篇文章,以「愛(ài)麗絲夢(mèng)游仙境」為啟發(fā)涉及了一系列簡(jiǎn)單的推理問(wèn)題,揭示了LLM基準(zhǔn)測(cè)試的盲區(qū)。
AI人工智能
銀行如何構(gòu)建大語(yǔ)言模型產(chǎn)品

銀行如何構(gòu)建大語(yǔ)言模型產(chǎn)品

自從ChatGPT發(fā)布之后,大模型對(duì)知識(shí)整理、歸納、推理、總結(jié)方面強(qiáng)大的能力引起了大家的關(guān)注。而銀行領(lǐng)域的專業(yè)性和特殊性,更要求自己構(gòu)建LLM產(chǎn)品。本文針對(duì)銀行使用大模型的場(chǎng)景、方式進(jìn)行了詳細(xì)的分析,并給出了銀行做大模型的實(shí)踐樣例,供大家參考。