文集列表

最近文档

[VPS]OracleCloud系统上安装部署服务frp远程穿透服务xui节点服务
说明 OracleCloud目前申请成功了,那么我们需要在上面部署一些服务,需要部署哪些服务呢? 我部署了xui节点服务,和开源frp内网穿透服务。虽然是1c1m,但是感觉完全够用了。 附,下面操作使用的软件(共两个压缩包): 【附件】frp.zip 【附件】xui.zip 登录用私钥公钥: 【附件】OracleCloud_ssh_priKey_pubKey20260406.zip 安装 要对外提供
修改时间: 2026-04-15 22:12 | 所属文集: Linux_服务器
[VPS]OracleCloud申请成功注册账号成功
说明 最近闲时,看到申请oracle cloud的视频,于是在出差时,试着申请了一下,看了很多的文章,说是能注册就是一个运气,玄学...于是我在3月19号、20号、21号,分别尝试了数次,扣款是能扣款,但是扣款后的提交,就提示ABC错误,无法注册账号。 我对注册时的英文信息,中文信息,都分别尝试了一下,然后都时失败状态... 这里,我的信用卡是使用的交通银行的万事达虚拟信用卡,其实一直都是有实体卡,
修改时间: 2026-04-15 22:11 | 所属文集: Linux_服务器
WSL子系统中的Qt应用程序通过VS2022实现远程调试remote debug
说明 由于习惯用vs2022进行编程,所以在Linux下也可以用vs2022进行编程就更完美了。通过cmakelist来管理工程,之前已经能够实现跨平台的编译。目前就是要基于wsl子系统进行跨平台的编程和调试。 在离线环境下,通过一个简单界面的测试,将目前已经实现的远程调试的方式记录于下: 步骤 启用放宽系统调用级别 这个设置,是为了gdb在调试时不要那么严格,理论上只建议在开发环境启用该功能。 =
修改时间: 2026-04-15 21:13 | 所属文集: 安装
windows离线安装wslLinux子系统windows Linux System
说明 本文说明,在离线机器上安装wsl,类似于虚拟机子系统。具体方法参见下面: 离线安装 先在线机器上操作 ==由于wsl不能直接修改安装路径,故需要先安装ubuntu,再导出后,再导入以修改安装目录。== 修改安装路径 bash wsl --install Ubuntu wsl --export Ubuntu Ubuntu_wsl_202604.tar wsl --unregister Ubunt
修改时间: 2026-04-15 15:39 | 所属文集: 安装
[AI]ClaudeCode离线安装并使用本地Ollama模型进行调用offline install models配置设置
说明 昨天,实现了一个很重要的功能,在公司电脑上完成了内网本地部署claude code工具,并成功调用到了服务器本地Ollama模型,今天已经测试,并使用claude code实现了整个工程的代码注释。 步骤 首先离线安装claude code 具体请参考: npm 离线安装软件包指南(离线安装 claude code)_npm安装claude code-CSDN博客 简单步骤: 1、(有网机
修改时间: 2026-04-13 22:37 | 所属文集: 安装
Nvidia显卡驱动更新方法Ollama升级后无法调用显卡资源大模型运行很慢Ubuntu离线更新GPU显卡驱动driver update offline
说明 最近在升级ollama时遇到在访问大模型时反应很慢,无法快速回应用户的问题。那么问题在哪呢?最后通过观察发现,更新ollama之后,以前能调用GPU运行,现在不能调用GPU运行,全都是在CPU上跑。所以要等5分钟才会回复。最后,通过查看ollama下lib目录下cuda_v12,cuda_v13目录,然后通过nvidia-smi命令,看到目前机器cuda版本只有11.8,而以前ollama目录
修改时间: 2026-04-08 16:44 | 所属文集: 解决方案
Mrdoc无法通过手机访问的运行命令指定服务地址运行mrdoc服务手机无法访问的解决方案
说明 由于最近想要修改Mrdoc,并测试是否能够适应手机屏幕显示,故想通过运行mrdoc服务,以测试。 默认的运行方案,只能通过本机的浏览器访问,手机无法访问,即使关闭防火墙,仍然无法通过手机访问该服务。 方案 最后通过查询,需要指定服务ip地址为0.0.0.0即可。 完整的启动命令行为: python manage.py runserver 0.0.0.0:8000 运行上面命令,并允许防火墙8
修改时间: 2026-02-22 23:12 | 所属文集: 解决方案
visualStudio2022离线安装在内网机安装vs2022如何部署vs2022插件一键安装拷贝offline install vs2022
申明 这里非破解vs2022,只是讲一下如何在没有互联网的电脑,如何安装最新的vs2022,以及如何安装插件。 online下载vs2022 登录官网https://visualstudio.microsoft.com/zh-hans/vs/ vs安装程序的附加命令行: ```shell VisualStudioSetup2022Enterprise.exe --layout D:\VS2022
修改时间: 2026-02-01 10:00 | 所属文集: 安装
QMenu菜单通过名称查找是否已经存在名称的菜单项存在 通过findchild<Qmenu*>(menuName);无法查询到,明明menuName的菜单已经存在,却总是返回nullptr
说明 今天在解决方案的时候碰到一个莫名其妙的问题,很奇怪,故要记下来。 auto obj=findchild(menuName) 无法查询到,明明menuName的菜单已经存在,却总是返回nullptr。通过测试和调试,最终确定问题原因。本文的问题是在Qt5环境下测试。 解决方案 使用addMenu直接添加子菜单或者菜单项 ```cpp QMenu* fileMenu = menuParent-&g
修改时间: 2026-01-28 23:21 | 所属文集: 解决方案
[大模型]Ollama pull拉取大模型时速度很慢slow download model file
说明 最近在更新大模型时,发现ollama下载模型很慢,折腾了很久,设置代理然后,设置镜像网站,等等都不行。 折腾了好久,才勉强算是有了一个方案。 对了,脚本全部由TRAE完成,自己未写一字。 解决方案 ==通过重启pull的方式进行,也就是过一段时间就重启下载== ==实现实时监控速度,低于指定值则重启下载== 脚本使用方法: bash Ollamapull.bat qwen3-next:80b
修改时间: 2026-01-17 10:49 | 所属文集: 知识
1 2 3 4 5 6 7 下一页