Ollama使用教程

Ollama是一个开源工具,用于本地运行大模型,它的特点是使用简单,配置方便。本文介绍如何使用Ollama。

一、安装Ollama

访问Ollama官方网站下载安装包。

brew install ollama
curl -fsSL https://ollama.com/install.sh | sh

拉取Docker镜像:

docker pull ollama/ollama

安装完成后,执行如下命令查看版本号:

ollama -v

查看使用说明:

ollama -h

结果:

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

Ollama基于客户端-服务端架构,执行ollama serve开启服务端。

二、运行模型

Ollama支持多个模型,例如deepseek-r1和qwen3等,可访问官网模型入口查看具体模型。

ollama-models

点击模型名称,可以看到不同类型的模型:

deepseek-r1-models

下载模型:

ollama pull <模型名称>

查看已下载模型:

ollama list

查看模型信息:

ollama show <模型名称>

运行模型(如果本地没有该模型,则会先进行下载):

ollama run <模型名称>

以deepseek-r1:1.5b模型为例,本地运行后,出现命令行交互界面,输入问题后模型返回结果:

ollama-model-cli

三、自定义模型

Ollama支持创建自定义模型,并且提供了Modelfile文件来管理模型配置,使用自定义模型的好处是可以根据自己需求进行个性化配置。

通过现有模型创建自定义模型:

ollama create <自定义模型名称> -f <Modelfile>

Modelfile是模型配置文件,用于定义和管理模型,可以在其中配置模型温度和随机种子等。

将自定义模型推送到模型库:

ollama push <自定义模型名称>

四、总结

通过使用Ollama工具,可以很方便地下载和运行模型。Ollama也提供了基于HTTP的API,开发者可通过接口调用的方式和模型进行交互。总之,Ollama类似于软件应用中的Docker,简化了本地配置和部署模型的流程。

Discussion and feedback