知识


  • 简介
  • 目录大纲
  • 最新文档
  • 文集下载

    [大模型]ollama容器离线升级ollama手动升级0.6.8

    说明 前面介绍过ollama升级的过程,但是咧,太麻烦,太慢,太不可行。 经过测试,今天给出简单好用的升级方法。 升级方法 下载.tgz安装包 用浏览器下载,通过github加速的方式下载,github上搜索ollama,找到最新稳定版0.6.8版本。 拷贝到容器(登陆容器内操作) 拷贝到容器中,并用命令解压 bash tar -xzf ollama-linux-amd64.tgz -C /...……

    虚拟世界 - 2025年5月16日 16:25


    [大模型]ollama工具升级docker中升级ollama下载速度很慢的解决方案

    原地址: https://blog.csdn.net/chinamaoge/article/details/145665465 自动安装(不推荐,不稳定) 下载脚本 bash curl -fsSL https://ollama.com/install.sh -o ollama_install.sh 修改脚本 bash sed -i 's|https://ollama.com/downloa...……

    虚拟世界 - 2025年5月15日 16:18


    [大模型]离线更新本地ollama模型,拷贝ollama模型到离线电脑中安装使用deepseekR1模型更新增量更新update models

    情况说明 因为我最近在离线的机器上部署了一个ollama+open—webui的方式,运行在公司电脑。过完年后,爆火的deepseek R1已经有模型下载了,于是就有了今天这个操作。 之前是用的deepseek v2,也该更新了... 方法步骤 拉取ollama仓库中deepseek R1模型 如果您的电脑能联网,仅需要执行一条命令即可,不需要后续的其他操作。 bash ollama p...……

    虚拟世界 - 2025年2月13日 11:11


    [大模型]使用chatbox和open-webui同时调用ollama管理器cs模式和bs模式同时使用,调用ollama:11434端口连接被对方重设关联deepseek

    说明 由于有同事想要chatbox调用ollama,所以有此文章。 主要也是ollama在windows部署起来也是很简单的,如果内网中,多个机器部署还是有些浪费资源,故想要使用chatbox直接调用服务器上的ollama就好了。 这里的ollama是通过容器的方式部署在了GPU服务器上,Linux服务器为open-webui提供服务。最近又更新了deepseek R1模型,所以理论上是可以...……

    虚拟世界 - 2025年2月12日 23:05



    虚拟世界 , 世界虚拟