原创
未读
Debian12 驱动 N100 核显
1.先更新内核到支持的版本 echo "deb http://mirrors.ustc.edu.cn/debian bookworm-backports main non-free-firmware" >> /etc/apt/sources.list
apt update 2. 然后找一个支持的内核
PVE or Linux 6.5 以上内核 开启 SRVIO
使用 MoetaYuko大佬的包直接一件配置即可. apt update
apt install -y pve-headers-$(uname -r)
apt install -y build-* git unzip dkms sysfsutils
wget https://github.com
重命名 Ceph 中的 vmdisk
在pve中配置了ceph osd做高可用之后 如果要修改虚拟机编号可用和以前一样直接修改 conf的文件名 和其中的硬盘编号,但是磁盘如果要修改名称的话 则需要按照以下操作 其中 -p 后面是 pool的名称 rbd -p ceph list # 查看所有vm的名称
rbd -p ceph rena
Pve dd扩容案例
原本安装的Pve宿主机硬盘只有16G, 但是使用过程中发现空间逐渐不够用了。于是便想着换一个大点的系统盘,但是又不想重装宿主机系统。(东西太多)。于是想到用dd方式镜像过去。镜像完成后。硬盘实际容量是不变的(还是16g)接下来则需要扩容。 扩容步骤如下。 1. 使用LiveCD之类的系统进入。然后
Proxmox 双节点做高可用 与 qDevice 相关
在正常情况下 Pve 要配置集群高可用需要3台以上的机器才行,因为要考虑到仲裁投票的问题。 如果2台机器配置高可用,谁也无法从投票中获胜。 会导致两台机器都认为自己离线。但是对于我们家庭用户而言,3台物理集群,的确有点过于奢侈,那么应该怎么解决呢?答案就是 qDevice! 要配置2台集群高可用应该
重装 PVE 的 Ceph
如果你的ceph被玩坏了 重装方式如下(清空数据) systemctl stop ceph-mon.target
systemctl stop ceph-mgr.target
systemctl stop ceph-mds.target
systemctl stop ceph-osd.target
PVE 调节cpu频率
一般我们可以使用linux-power来调节频率,实现节能或者提高性能的目的。 安装软件包 apt update && apt install linux-cpupower powertop -y
快速设置策略 # 全核高性能
cpupower frequency-set -g performa
PVE的LXC容器中直通核显
在 ProxmoxVE 的 LXC 容器中直通核心显卡 在 ProxmoxVE 平台中使用 LXC 容器使用 Docker 部署 frigate 时(或其他需要GPU的容器如Jellyfin等),需要使用 GPU 对 ffmpeg 进行加速,因此需要将宿主机 N5105 的核心显卡挂载到 LXC 容
pve为vm导入已有的磁盘镜像/qcow2/vmdk/img
先把磁盘镜像上传到pve里 使用qm importdisk命令导入 qm importdisk <vmid> <images-name> <storage pool> --format=<disk-fs>
vmid:vm的id 例如102
images-name:磁盘镜像的名字
storage
pve 挂载硬盘 (正规军)
按照官方的标准是利用Systemd挂载磁盘, 不会像fstab那样, 挂载磁盘找不到而卡boot 挂载本地磁盘 命名方式 mnt-pve-XXXXX.mount touch /etc/systemd/system/mnt-pve-nvme1t.mount
查询硬盘 UUID blkid -o ex
原创
未读
个人PVE N100 配置相关参数.
# 删除 LVM-Thin
lvremove /dev/pve/data
# 处理挂盘
mkdir /mnt/nvme2t
lsblk -f
echo "UUID=848a2e0a-7066-4f3e-8afb-3c6c73ce1717 /mnt/nvme2t ext4 defaults 0 0"
配置 UPS 服务器和客户端
安装NUT > apt install nut nut-server nut-client
配置 /etc/nut/nut.conf MODE=netserver
配置 /etc/nut/ups.conf [ups]
driver = usbhid-ups
port = auto
p