gengen 发表于 2026-3-11 10:11:21

我3090显卡 双e52666洋垃圾 128g内存 ollama搭建了qwen3.5 27b,小龙虾本地用,回答一个“介绍一下你自己”,用了大概6分多钟。

williamc2 发表于 2026-3-11 10:29:05

cg865 发表于 2026-3-11 10:47:56

minimax 最便宜套餐,29 一个月。够用了的。
比本地搞强了 n 个次方。虽然比不上 opus 这些,但龙虾完全足够

archer99 发表于 2026-3-11 12:00:37

小参数模型+一个龙虾服务,跑肯定可以跑

非常店小二 发表于 2026-3-11 12:55:48

豆包不够你用嘛

coco99 发表于 2026-3-11 15:09:19

从带宽焦虑变成了token焦虑

联邦调查局 发表于 2026-3-12 04:04:59

不过确实好用

店长推荐 发表于 2026-3-12 09:21:24

本地ai跟傻子一样能用吗,基本上同配置吧,不过内存是64。 早就放弃本地的弱智ai了。

yixin82 发表于 2026-3-12 11:35:05

本地AI=弱智,不要自己气自己

lotus 发表于 2026-3-12 12:30:25

智谱有免费模型,就是很蠢
页: 1 2 [3] 4
查看完整版本: 龙虾怎么配本地模型跑