系统:PC
日期:2025-02-20
类别:编程开发
版本:v0.5.7.0
Ollama官方正版是一款专门用于大型语言模型本地化运行的辅助软件,一般大企业对于这种模型都是专人管理,各种设置都很复杂,而Ollama出现让非专业的网友们也有机会在本地使用AI模型了,并且采用的是轻量级框架,不会占用太多的资源,当然如果网友家里设备号,那么Ollama也具有很好的可扩展性。
Ollama官方最新版现在最热门的用法自然是和DeepSeek搭配使用了,下面也为网友们准备了一个简单的教程,让网友可以你在本地使用DeepSeek。当然,如果网友有途径获得国外的那行AI模型,那么也可以使用这款软件搭建在本地使用。
1、简化部署:
Ollama 目标在于简化在 Docker 容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
2、轻量级与可扩展:
作为轻量级框架,Ollama 保持了较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。
3、API支持:
提供了一个简洁的 API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。
4、预构建模型库:
包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。
5、模型导入与定制:
从 GGUF 导入:支持从特定平台(如GGUF,假设这是一个模型托管平台)导入已有的大型语言模型。
从 PyTorch 或 Safetensors 导入:兼容这两种深度学习框架,允许用户将基于这些框架训练的模型集成到 Ollama 中。
自定义提示:允许用户为模型添加或修改提示(prompt engineering),以引导模型生成特定类型或风格的文本输出。
6、跨平台支持:
提供针对 macOS、Windows(预览版)、Linux 以及 Docker 的安装指南,确保用户能在多种操作系统环境下顺利部署和使用 Ollama。
7、命令行工具与环境变量:
命令行启动:通过命令 ollamaserve 或其别名 serve、start 可以启动 Ollama 服务。
环境变量配置:如 OLLAMA_HOST,用于指定服务绑定的主机地址和端口,默认值为 127.0.0.1:11434,用户可以根据需要进行修改。
如搭配DeepSeek使用,DeepSeek模型版本有许多:比如1.5b、7b、8b、14b、32b、70b 671b,版本越高越强大,但是对电脑GPU要求也越高。根据你电脑的配置选择合适的版本,每一个版本都对应一个安装命令,把它复制下来。
DeepSeek-R1
ollama run deepseek-r1:671b
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
然后在CMD命令框,输入上述命令。例如:ollama run deepseek-r1:1.5b,便可以自动在线部署安装。
部署成功后,我们可以使用命令窗口直接输入你想问的问题。
1、API与多语言支持
RESTAPI:兼容OpenAI接口标准,开发者可通过/api/generate和/api/chat接口生成文本或实现对话功能。
客户端集成:支持Python、Java、C#等语言调用,便于与其他应用程序(如Web界面、桌面客户端)集成。
2、硬件加速与资源优化
GPU加速:在支持CUDA或Metal的设备上,可通过GPU显著提升推理速度。
资源管理:通过环境变量(如OLLAMA_KEEP_ALIVE控制模型内存驻留时间、OLLAMA_MAX_VRAM限制显存占用)优化硬件资源使用。
3、本地化部署
Ollama支持在macOS、Linux和Windows(预览版)系统上运行,无需依赖云端服务。用户可通过Docker容器或直接安装包部署,确保数据隐私与低延迟响应。
4、模型管理便捷
模型仓库:提供预构建的模型库(如Llama3、Phi3、Gemma2等),用户可通过ollamapull快速下载。
自定义模型:支持通过Modelfile定义模型参数(如温度值、系统提示),并基于现有模型创建个性化版本。例如,可让模型以特定角色(如马里奥)回答问题。
多模型并行:支持同时加载多个模型,并通过调整num_ctx参数控制上下文长度。
解压后,运行ollamasetup.exe,弹出安全警告,点击“运行”;
开始安装,点击“install”,片刻后就能安装完成。
热门推荐
相关应用
实时热词
评分及评论
点击星星用来评分