admin管理员组

文章数量:1337119

ollama Windows部署

前言

为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。

原文博客地址:ollama Windows部署-旅程blog (cxy.red)

1. 下载ollama

官方下载地址:https://ollama/download

2. 环境配置

  1. 双击安装包会默认安装在C盘

    ​​

  2. 配置模型保存位置

    1. ​​

    2. OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。

      OLLAMA_MODELS : 指定ollama模型的存放路径

      根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。

      ​​

3. 测试

3.1 网路配置检测

终端输入ipconfig​:查看IP地址

​​

然后打开浏览器测试输入:ip地址:11434

​​

出现ollama is running,表示配置成功

3.2 模型测试

​​

参考文献

  1. Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)

本文标签: ollamaWindows