| 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型? babymonster • 1h 10m ago • Lastly replied by fcten | 107 |
| 推荐一个 GPU 推理速度计算器, 可能方便买配件自建本地大模型的人用上 Hermitist • 2h 40m ago • Lastly replied by midraos | 10 |
| LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM zsj1029 • 7h 19m ago • Lastly replied by Orangeee | 7 |
| DGX Spark、ASUS GX10、MSI EdgeXpert 看起来都像是一个母胎的产品,用起来有差别吗? SzgSw5zGyN1iy • 6h 59m ago • Lastly replied by diudiuu | 8 |
| 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气 KaiWuBOSS • 53 mins ago • Lastly replied by AlexaZhou | 112 |
| github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps stefwoo • 3 days ago • Lastly replied by stefwoo | 9 |
| 请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以? ken2025 • 3 days ago • Lastly replied by jinsongzhaocn | 5 |
| 私有化部署大模型的“终点”是 Mac 还是 Nvidia? babymonster • 4 days ago • Lastly replied by bobguo | 29 |
| 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现 KaiWuBOSS • 10h 3m ago • Lastly replied by kevan | 107 |
| 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型 alangz • 4 days ago • Lastly replied by davidqw | 11 |
| 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
Livid PRO |
15 |
| 我自己的电脑是 5070Ti,总感觉跑一些模型算力不够 babymonster • 4 days ago • Lastly replied by iovekkk | 48 |
| qwen3.6 27b 本地编码测试 zsj1029 • 3 days ago • Lastly replied by zsj1029 | 62 |
| 自己做了一款在线 GPU 推理速度计算器 · TPS Calculator diudiuu • Apr 30 • Lastly replied by nanshan2012 | 10 |
| 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了 KaiWuBOSS • Apr 29 • Lastly replied by coefu | 29 |
| xllm 真的比 vllm+plugin 性能好么? joeue404 • Apr 27 |
| 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型 Hermitist • Apr 26 • Lastly replied by Hermitist | 19 |
| 请教一个关于模型训练主机配置的问题 jamme • Apr 26 • Lastly replied by zhoukevin233 | 12 |
| 大伙有想过二次训练吗? archxm • Apr 25 • Lastly replied by mingtdlb | 9 |