技术专区
-
How to Use llama.cpp to Run LLaMA Models Locally
Large language models (LLMs) like Meta’s LLaMA have revolutionized natural language processing. However, not everyone wants to depend on cloud-based APIs to run them. That’s where llama.cpp comes in—…
-
HuggingFace官方宣布将对GGUF格式的大模型文件增加更多的支持,未来可以直接在HF上查看GGUF文件的元数据信息!
大模型预训练结果文件格式GGUF简介 大语言模型的开发通常使用PyTorch等框架,其预训练结果通常也会保存为相应的二进制格式,如pt后缀的文件通常就是PyTorch框架保存的二进制预训练结果。 但是,大模型的存储…
-
GGUF格式的大模型文件是什么意思?gguf是什么格式?如何使用?为什么有GGUF格式的大模型文件?GGUF大模型文件与GGML的差异是啥?
在大模型领域,GGUF是一个非常常见的词语,也是非常常见的大模型预训练结果命名方式。很多模型模型,如Yi-34B、Llama2-70B等模型都有对应的GGUF版本,这些版本都模型除了文件名多了GGUF外,其它与原有的模型名称完…
-
DeepSeek R1 gguf 模型文件下载指南:从获取到部署的全流程解析
一、gguf格式与DeepSeek R1模型核心价值 DeepSeek R1作为一款基于Transformer架构的开源语言模型,其gguf(General GPU Format)格式是专为GPU加速设计的模型权重文件格式。相较于传统格式,gguf具有三大技术优势:…
-
Windows11本地部署DeepSeek加速
安装Ollama 跟Ubuntu Linux上的操作比较类似,也是要从Ollama官网下载一个安装文件,然后直接双击安装就好了,没有配置安装路径的选项。安装完成后,可以在cmd中查看ollama的版本: DeepSeekmodels> ollama --ve…
-
Ubuntu Linux部署DeepSeek
安装Ollama 以下是DeepSeek生成的关于Ollama的介绍的一个片段: Ollama 是一个开源工具,专门用于在本地运行、管理和部署大型语言模型(LLMs,Large Language Models)。它简化了 LLMs 的安装、配置和运行流程,支…
-
Windows(Win10/Win11)本地部署DeepSeek全流程指南
一、部署前准备:硬件与软件环境要求 1.1 硬件配置建议 DeepSeek模型对硬件资源有明确要求: 内存:7B参数模型建议≥16GB,32B参数模型需≥32GB 显卡:NVIDIA显卡(CUDA支持)可显著提升推理速度,RTX 3060及以上型号…
-
Windows 本地部署 DeepSeek:从安装到运行
1 先来简单了解一下DeepSeek DeepSeek是一家中国人工智能公司,总部位于浙江省杭州市。 该公司成立于2023年7月17日,创始人兼首席执行官为梁文峰。 DeepSeek的首个产品是一款开源的大型语言模型(LLM),名为DeepSe…
-
sqlmap的安装及使用教程
1. sqlmap简介 sqlmap 是一个开源渗透测试工具,可自动检测和利用 SQL 注入缺陷并接管数据库服务器,支持多种数据库和多种注入技术。 2. sqlmap安装 sqlmap是基于python环境的,因此安装前需要安装python环境。sqlm…
-
Mac 下验证下载文件的 MD5/SHA1/SHA256
验证SHA-256 openssl dgst -sha256 /path/to/file 1 验证SHA-1 openssl sha1 /path/to/file 1 验证 MD5 openssl md5 /path/to/file 1 备注 MD5已经不再安全,推荐使用 SHA-256 最新的 macOS好像可以通过md5 /path/t…