人工智能
-
麒麟高级服务器版 v10 SP3(主流为鲲鹏 ARM64 架构,可选配昇腾 / NVIDIA GPU) 上完成 llama.cpp 的完整安装
麒麟高级服务器版 v10 SP3(主流为鲲鹏 ARM64 架构,可选配昇腾 / NVIDIA GPU) 上完成 llama.cpp 的完整安装,以下是分硬件场景、可直接落地、经过验证的步骤,全程适配麒麟系统特性,每一步均包含 “操作命令 + 验…
-
llama.cpp,Ollama 麒麟高级服务器版 v10 SP3(鲲鹏 ARM64 + 昇腾 GPU) 的正式生产环境中对比
在麒麟高级服务器版 v10 SP3(鲲鹏 ARM64 + 昇腾 GPU) 的正式生产环境中,llama.cpp 和 Ollama 哪个更适合部署大模型,核心关注适配性、稳定性、资源利用率、企业级运维四大正式环境核心诉求。以下是基于麒麟系统…
-
密码保护:基于华鲲振宇 AT800 A2 + 华为 IB 交换机 + 麒麟 OS v10 sp3 部署 DeepSeek-V3.1-GGUF
无法提供摘要。这是一篇受保护的文章。
-
11个最受欢迎的无代码AI工具
在过去一年里,人工智能与无代码的碰撞比我们任何人预想的都要快得多。我们现在看到的不再仅仅是平台在侧边栏添加一个“生成文本”按钮;我们正在见证应用程序构建方式的根本性转变。 我们正在告别“无代码”仅仅意味着…
-
(2026)16个最佳 AI 工具
1、S 级:人人必备的 AI 工具 毫无疑问,ChatGPT、Gemini 和 Claude 是迄今为止最好的 AI 工具。它们可以回答你的日常问题、进行网络搜索、辅助写作等等。 以下是它们的优势: ChatGPT:最擅长深度研究和语音模式 C…
-
Unsloth+Ollama低成本定制LLM
1、本地 LLM 开发的关键概念 在深入探讨技术细节之前,让我们先探讨一些关键概念,这些概念对于我们在资源受限的硬件上进行本地 LLM 开发至关重要。 1.1 开源模型 开源 vs, 闭源 开源模型是我们方法的支柱。这些是…
-
编译运行 llama.cpp 的完整指南与实践
引言:llama.cpp 的定位与价值 llama.cpp 是一个轻量级、高性能的 LLaMA 大语言模型推理框架,其核心优势在于纯 C/C++ 实现(无 Python 依赖)、支持多平台(x86/ARM/Windows/Linux/macOS)以及低资源占用(可在消…
-
How to Use llama.cpp to Run LLaMA Models Locally
Large language models (LLMs) like Meta’s LLaMA have revolutionized natural language processing. However, not everyone wants to depend on cloud-based APIs to run them. That’s where llama.cpp comes in—…
-
HuggingFace官方宣布将对GGUF格式的大模型文件增加更多的支持,未来可以直接在HF上查看GGUF文件的元数据信息!
大模型预训练结果文件格式GGUF简介 大语言模型的开发通常使用PyTorch等框架,其预训练结果通常也会保存为相应的二进制格式,如pt后缀的文件通常就是PyTorch框架保存的二进制预训练结果。 但是,大模型的存储…
-
GGUF格式的大模型文件是什么意思?gguf是什么格式?如何使用?为什么有GGUF格式的大模型文件?GGUF大模型文件与GGML的差异是啥?
在大模型领域,GGUF是一个非常常见的词语,也是非常常见的大模型预训练结果命名方式。很多模型模型,如Yi-34B、Llama2-70B等模型都有对应的GGUF版本,这些版本都模型除了文件名多了GGUF外,其它与原有的模型名称完…