DeepSeek导航
投稿
相关知识
在线满血版
本地部署
交流社区
模型
AI-Playground
162
intel显卡用户可以使用该intel官方的程序来实现本地部署Deepseek
Ollama
72
适合英伟达显卡用户的本地部署方案,您应该至少有 8 GB 的 RAM 来运行 7B 型号,16 GB 的 RAM 来运行 13B 的型号,32 GB 的 RAM 来运行 33B 型号。
AingDesk
16
一键把DeepSeek部署在你电脑👍免费开源无限制 ✨支持联网大幅度提升答案质量 🤝可在线分享他人共用 🚀 支持DeepSeek/Llama 等其他模型
Ollama英特尔优化版
15
本镜像提供基于 IPEX-LLM 的 Ollama 英特尔优化版,用户可在英特尔GPU (如搭载集成显卡的个人电脑,Arc 独立显卡等) 上直接免安装运行 Ollama.
AnythingLLM
15
Mintplex Labs推出的一款全栈AI应用程序,支持多种开源和商用LLMs,能将各类文档转换为LLM可参考的上下文,具有自定义AI代理、多模态支持、多用户管理、可嵌入网站、提供开发者API等功能,可本地运行也可云部署。
LM Studio
14
适合AMD显卡用户的本地部署解决方案。
按Ctrl+D收藏当前页面