文集列表

最近文档

Linux下手动编译Miniocpp源码编译过程及依赖的安装build install minio-cpp
说明 这个说明,原是以为是miniocpp使用vcpkg在linux下编译的代码不能被qt程序调起,而出现各种库的问题。虽然问题已解决,但是考虑到Miniocpp编译并不轻松,故记录在此。 ==编译完后,未作使用测试,但看来没有什么问题== 步骤 安装依赖 此依赖的安装,是为了免得后面在编译Miniocpp时提示错误,以下错误的原因大概率是缺少环境的原因。故先配置好依赖库的环境。 Could NOT
修改时间: 2026-04-24 23:43 | 所属文集: 解决方案
Linux下使用Minio的一些问题解决方案依赖库顺序问题编译类型问题undfined reference to开启详细信息
说明 因为在Qt工程中引用了Minio,然后才有这些折腾的过程,然后有此文章。Windows下基本上没有什么问题,linux下,同一工程,却出现了各种各样的毛病。 ==以下问题都是Windows没有出现,而Linux出现的问题== 问题1,编译类型引起的找不到库的问题,开启详细信息输出 这个问题困扰了我好几天,由于我在Windows下使用vcpkg编译的库,然后拷贝到固定目录下引用,配置后使用vs
修改时间: 2026-04-24 21:26 | 所属文集: 解决方案
windows离线安装wslLinux子系统windows Linux System开发环境准备Qt环境minio等依赖环境depends
说明(已增加20260424依赖库命令) 本文说明,在离线机器上安装wsl,类似于虚拟机子系统。具体方法参见下面: 【附件】wsl_update_x64更新包202604.rar 【附件】wsl.2.7.1.0.x64完整版.rar 【附件】vcxsrv-64.21.1.16.1.installer-WSL界面服务.rar 【附件】Ubuntu24.04.4LTS_wsl_withDepends_2
修改时间: 2026-04-24 20:09 | 所属文集: 安装
WSL子系统Linux下编译Minio-cpp客户端库SDK ubuntu24.04 build MiniO vcpkg install depends
说明 Minio-cpp是一个连接minio服务器的c++接口,要在Linux下进行完整编译,并不简单... 以下是安装过程,其实与Windows下编译Minio-cpp过程很类似,区别不大,可以相互参考。 【附件】minio-cpp_libs_linux_x64_installed-Ubuntu24.04下已编译ok.rar 【附件】minio-RELEASE.2025-10-15T17-29-5
修改时间: 2026-04-20 12:39 | 所属文集: 解决方案
WSL子系统压缩空间并打包系统
说明 本文主要是在说明wsl清除缓存并打包。 步骤 wsl系统清理缓存包 sudo apt-get clean sudo apt-get autoremove sudo rm -rf /tmp/* sudo rm -rf ~/.cache/* sudo find /var/log -type f -name "*.log" -exec truncate -s 0 {} \; sudo journal
修改时间: 2026-04-18 12:56 | 所属文集: 安装
[VPS]OracleCloud申请成功注册账号成功
说明 最近闲时,看到申请oracle cloud的视频,于是在出差时,试着申请了一下,看了很多的文章,说是能注册就是一个运气,玄学...于是我在3月19号、20号、21号,分别尝试了数次,扣款是能扣款,但是扣款后的提交,就提示ABC错误,无法注册账号。 我对注册时的英文信息,中文信息,都分别尝试了一下,然后都时失败状态... 这里,我的信用卡是使用的交通银行的万事达虚拟信用卡,其实一直都是有实体卡,
修改时间: 2026-04-15 22:11 | 所属文集: Linux_服务器
WSL子系统中的Qt应用程序通过VS2022实现远程调试remote debug
说明 由于习惯用vs2022进行编程,所以在Linux下也可以用vs2022进行编程就更完美了。通过cmakelist来管理工程,之前已经能够实现跨平台的编译。目前就是要基于wsl子系统进行跨平台的编程和调试。 在离线环境下,通过一个简单界面的测试,将目前已经实现的远程调试的方式记录于下: 步骤 启用放宽系统调用级别 这个设置,是为了gdb在调试时不要那么严格,理论上只建议在开发环境启用该功能。 =
修改时间: 2026-04-15 21:13 | 所属文集: 安装
[AI]ClaudeCode离线安装并使用本地Ollama模型进行调用offline install models配置设置
说明 昨天,实现了一个很重要的功能,在公司电脑上完成了内网本地部署claude code工具,并成功调用到了服务器本地Ollama模型,今天已经测试,并使用claude code实现了整个工程的代码注释。 步骤 首先离线安装claude code 具体请参考: npm 离线安装软件包指南(离线安装 claude code)_npm安装claude code-CSDN博客 简单步骤: 1、(有网机
修改时间: 2026-04-13 22:37 | 所属文集: 安装
Nvidia显卡驱动更新方法Ollama升级后无法调用显卡资源大模型运行很慢Ubuntu离线更新GPU显卡驱动driver update offline
说明 最近在升级ollama时遇到在访问大模型时反应很慢,无法快速回应用户的问题。那么问题在哪呢?最后通过观察发现,更新ollama之后,以前能调用GPU运行,现在不能调用GPU运行,全都是在CPU上跑。所以要等5分钟才会回复。最后,通过查看ollama下lib目录下cuda_v12,cuda_v13目录,然后通过nvidia-smi命令,看到目前机器cuda版本只有11.8,而以前ollama目录
修改时间: 2026-04-08 16:44 | 所属文集: 解决方案
Mrdoc无法通过手机访问的运行命令指定服务地址运行mrdoc服务手机无法访问的解决方案
说明 由于最近想要修改Mrdoc,并测试是否能够适应手机屏幕显示,故想通过运行mrdoc服务,以测试。 默认的运行方案,只能通过本机的浏览器访问,手机无法访问,即使关闭防火墙,仍然无法通过手机访问该服务。 方案 最后通过查询,需要指定服务ip地址为0.0.0.0即可。 完整的启动命令行为: python manage.py runserver 0.0.0.0:8000 运行上面命令,并允许防火墙8
修改时间: 2026-02-22 23:12 | 所属文集: 解决方案
1 2 3 4 5 6 7 下一页