文集列表
最近文档
[VPS]OracleCloud系统上安装部署服务frp远程穿透服务xui节点服务
说明
OracleCloud目前申请成功了,那么我们需要在上面部署一些服务,需要部署哪些服务呢?
我部署了xui节点服务,和开源frp内网穿透服务。虽然是1c1m,但是感觉完全够用了。
附,下面操作使用的软件(共两个压缩包):
【附件】frp.zip
【附件】xui.zip
登录用私钥公钥:
【附件】OracleCloud_ssh_priKey_pubKey20260406.zip
安装
要对外提供
修改时间: 2026-04-15 22:12 |
所属文集: Linux_服务器
[VPS]OracleCloud申请成功注册账号成功
说明
最近闲时,看到申请oracle cloud的视频,于是在出差时,试着申请了一下,看了很多的文章,说是能注册就是一个运气,玄学...于是我在3月19号、20号、21号,分别尝试了数次,扣款是能扣款,但是扣款后的提交,就提示ABC错误,无法注册账号。
我对注册时的英文信息,中文信息,都分别尝试了一下,然后都时失败状态...
这里,我的信用卡是使用的交通银行的万事达虚拟信用卡,其实一直都是有实体卡,
修改时间: 2026-04-15 22:11 |
所属文集: Linux_服务器
WSL子系统中的Qt应用程序通过VS2022实现远程调试remote debug
说明
由于习惯用vs2022进行编程,所以在Linux下也可以用vs2022进行编程就更完美了。通过cmakelist来管理工程,之前已经能够实现跨平台的编译。目前就是要基于wsl子系统进行跨平台的编程和调试。
在离线环境下,通过一个简单界面的测试,将目前已经实现的远程调试的方式记录于下:
步骤
启用放宽系统调用级别
这个设置,是为了gdb在调试时不要那么严格,理论上只建议在开发环境启用该功能。
=
修改时间: 2026-04-15 21:13 |
所属文集: 安装
windows离线安装wslLinux子系统windows Linux System
说明
本文说明,在离线机器上安装wsl,类似于虚拟机子系统。具体方法参见下面:
离线安装
先在线机器上操作
==由于wsl不能直接修改安装路径,故需要先安装ubuntu,再导出后,再导入以修改安装目录。==
修改安装路径
bash
wsl --install Ubuntu
wsl --export Ubuntu Ubuntu_wsl_202604.tar
wsl --unregister Ubunt
修改时间: 2026-04-15 15:39 |
所属文集: 安装
[AI]ClaudeCode离线安装并使用本地Ollama模型进行调用offline install models配置设置
说明
昨天,实现了一个很重要的功能,在公司电脑上完成了内网本地部署claude code工具,并成功调用到了服务器本地Ollama模型,今天已经测试,并使用claude code实现了整个工程的代码注释。
步骤
首先离线安装claude code
具体请参考:
npm 离线安装软件包指南(离线安装 claude code)_npm安装claude code-CSDN博客
简单步骤:
1、(有网机
修改时间: 2026-04-13 22:37 |
所属文集: 安装
Nvidia显卡驱动更新方法Ollama升级后无法调用显卡资源大模型运行很慢Ubuntu离线更新GPU显卡驱动driver update offline
说明
最近在升级ollama时遇到在访问大模型时反应很慢,无法快速回应用户的问题。那么问题在哪呢?最后通过观察发现,更新ollama之后,以前能调用GPU运行,现在不能调用GPU运行,全都是在CPU上跑。所以要等5分钟才会回复。最后,通过查看ollama下lib目录下cuda_v12,cuda_v13目录,然后通过nvidia-smi命令,看到目前机器cuda版本只有11.8,而以前ollama目录
修改时间: 2026-04-08 16:44 |
所属文集: 解决方案
Mrdoc无法通过手机访问的运行命令指定服务地址运行mrdoc服务手机无法访问的解决方案
说明
由于最近想要修改Mrdoc,并测试是否能够适应手机屏幕显示,故想通过运行mrdoc服务,以测试。
默认的运行方案,只能通过本机的浏览器访问,手机无法访问,即使关闭防火墙,仍然无法通过手机访问该服务。
方案
最后通过查询,需要指定服务ip地址为0.0.0.0即可。
完整的启动命令行为:
python manage.py runserver 0.0.0.0:8000
运行上面命令,并允许防火墙8
修改时间: 2026-02-22 23:12 |
所属文集: 解决方案
visualStudio2022离线安装在内网机安装vs2022如何部署vs2022插件一键安装拷贝offline install vs2022
申明
这里非破解vs2022,只是讲一下如何在没有互联网的电脑,如何安装最新的vs2022,以及如何安装插件。
online下载vs2022
登录官网https://visualstudio.microsoft.com/zh-hans/vs/
vs安装程序的附加命令行:
```shell
VisualStudioSetup2022Enterprise.exe --layout D:\VS2022
修改时间: 2026-02-01 10:00 |
所属文集: 安装
QMenu菜单通过名称查找是否已经存在名称的菜单项存在 通过findchild<Qmenu*>(menuName);无法查询到,明明menuName的菜单已经存在,却总是返回nullptr
说明
今天在解决方案的时候碰到一个莫名其妙的问题,很奇怪,故要记下来。
auto obj=findchild(menuName) 无法查询到,明明menuName的菜单已经存在,却总是返回nullptr。通过测试和调试,最终确定问题原因。本文的问题是在Qt5环境下测试。
解决方案
使用addMenu直接添加子菜单或者菜单项
```cpp
QMenu* fileMenu = menuParent-&g
修改时间: 2026-01-28 23:21 |
所属文集: 解决方案
[大模型]Ollama pull拉取大模型时速度很慢slow download model file
说明
最近在更新大模型时,发现ollama下载模型很慢,折腾了很久,设置代理然后,设置镜像网站,等等都不行。
折腾了好久,才勉强算是有了一个方案。
对了,脚本全部由TRAE完成,自己未写一字。
解决方案
==通过重启pull的方式进行,也就是过一段时间就重启下载==
==实现实时监控速度,低于指定值则重启下载==
脚本使用方法:
bash
Ollamapull.bat qwen3-next:80b
修改时间: 2026-01-17 10:49 |
所属文集: 知识