ollama实操

Posted by     "虞天" on Friday, June 28, 2024

ollama操作指南

一、如何在windows系统上安装 ollama

一.下载 Ollama 访问 https://ollama.com/download ,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。

二. 安装 Ollama

双击下载的 “OllamaSetup.exe”,进行安装。

三. 环境变量

Ollama 下载的模型默认保存在 C 盘。

强烈建议更改默认路径,可以通过新建环境变量 OLLAMA_MODELS 进行修改。

  • 变量名:OLLAMA_MODELS
  • 变量值:E:\OllamaCache

设置成功后重启电脑生效修改

二、如何使用 Ollama 启动大模型服务

访问 https://ollama.com/library

搜索需要使用的模型,主流的模型。

再下面以 qwen2 为例,选择运行 1.5b 的模型

在cmd或者PowerShell运行(推荐使用cmd)

ollama run qwen2:1.5b

等待模型下载与加载。

当出现 Send a nessage 即可开始模型的使用

三、如何调用大模型 API 服务

打开chrome浏览器访问页面

http://localhost:11434/

返回 Ollama is running 说明API服务正常

单轮对话使用样例

import requests
import json

url = 'http://localhost:11434/v1/chat/completions'
headers = {
    'Content-Type': 'application/json'
}
data = {
    "model": "qwen2:1.5b",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "Hello!"
        }
    ]
}

response = requests.post(url, headers=headers, data=json.dumps(data))

print(response.json())

多轮对话使用样例

import requests
import json

url = 'http://localhost:11434/v1/chat/completions'
headers = {
    'Content-Type': 'application/json'
}
data = {
    "model": "qwen2:1.5b",
  messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": "Who won the world series in 2020?"},
    {"role": "assistant", "content": "The LA Dodgers won in 2020."},
    {"role": "user", "content": "Where was it played?"}

  ]
}

response = requests.post(url, headers=headers, data=json.dumps(data))

print(response.json())

详细操作,请参考官方文档

四、如何部署web界面

下面我们部署一个类似ChatGPT界面的web ui,运行以下docker命令。

docker run -p 3000:3000 ghcr.io/ivanfioravanti/chatbot-ollama:main

如下图所示,一键部署成功。

配置UI界面

用浏览器打开http://localhost:3000,即可像使用ChatGPT一样使用自己的私有GPT了,重点是可以离线使用,数据更安全!

「真诚赞赏,手留余香」

YuTian Blog

真诚赞赏,手留余香

使用微信扫描二维码完成支付