Ollama
-
llama.cpp,Ollama 麒麟高级服务器版 v10 SP3(鲲鹏 ARM64 + 昇腾 GPU) 的正式生产环境中对比
在麒麟高级服务器版 v10 SP3(鲲鹏 ARM64 + 昇腾 GPU) 的正式生产环境中,llama.cpp 和 Ollama 哪个更适合部署大模型,核心关注适配性、稳定性、资源…
-
Unsloth+Ollama低成本定制LLM
1、本地 LLM 开发的关键概念 在深入探讨技术细节之前,让我们先探讨一些关键概念,这些概念对于我们在资源受限的硬件上进行本地 LLM 开发至关重要。 1.1 开源模型 开源 vs…
-
银河麒麟系统部署Deepseek
一、系统要求 1.硬件要求 处理器: x86_64 架构,至少 4 核 内存: 至少 8GB RAM 存储: 至少 50GB 可用空间 2.部署软件 Kylin-Server-V1…
-
7个用于运行LLM的最佳开源WebUI
无论是希望将AI大模型集成到业务流程中,还是寻求企业客户服务自动化,亦或者是希望创建一个强大的个人学习工具。可能都需要考虑数据安全、灵活度以及更具有可控性的使用和开发基础。值得考虑…