大約兩個月前,我所在的程序員群里每天能刷出上百條關(guān)于DeepSeek的討論。
有人用它優(yōu)化代碼結(jié)構(gòu),有人用R1模型給醫(yī)療數(shù)據(jù)集做清洗,甚至有團(tuán)隊(duì)嘗試用本地蒸餾版實(shí)現(xiàn)工業(yè)質(zhì)檢自動化。
但最近這些消息像被按了靜音鍵,只剩零星幾個人在問“為什么***總是提示服務(wù)器繁忙”。
如今DeepSeek的熱度曲線,不過是技術(shù)成熟度曲線(Hype Cycle)的經(jīng)典重現(xiàn)。
2018年BERT模型剛問世時,媒體鋪天蓋地報道“NLP領(lǐng)域迎來終極解決方案”,但半年后…。


