大家好呀,我是零度火花昨天晚上用GLM-5.1干活时候,朋友突然@我甩来一个仓库“哥们,这个llmfit太狠了,一键搞定本地LLM硬件适配!”从一年前的DeepSeek,到今年的本地部署龙虾,不少人都问过我,我应该本地部署什么模型?哪个最适合我?不少人,眼巴巴下好 70B 模型,一运行直接 OOM 爆显存;好不容易跑起来,token 速度慢到抠脚;换了好几个量化版本,还是不知道哪个最适配自己的电脑 ...