标签:Proxmox
Proxmox常用命令脚本及操作|PVE自用笔记
前言一直都是用notepad来存这些零零散散的脚本,然后前几天Windows11出来了,大半夜一脑热就给装上了,忘记备份....这次记在博客上不怕丢了。基本设置更换Community源默认安装的Proxmox是自带Enterprise源的,没有订阅不能更新,换成Community源之后就没问题了sed -i "s/^deb/\#de……
[已解决]Proxmox集群部分节点出现问号 功能却全部正常 不用重启
前言以前也碰到很多次这种问题了,大多数情况是不管他然后等维护的时候重启解决。这次来扒一下原因和解决方案。问题描述Proxmox集群部分节点出现问号 功能却全部正常:这次出现这个问题是在添加完NFS存储之后,因此估计是NFS那块出现了问题。查看PVE cluster信息全部正常,都是online,这就很尴尬了...问题原因决定pve上状态的服……
Proxmox修复证书错误/etc/pve/nodes/*/pve-ssl.pem not found
问题描述Proxmox集群看似正常,但是storage无法配置节点,migrate也是无法选择节点。在CLuster information中提示Standalone node - no cluster defined在查看系统日志,发现报错:etc/pve/nodes/XXX/pve-ssl.pem' - No such fi……
Proxmox常见问题 服务器SSH可以登录但WebUI无法访问
首先,看看端口是否在监听:lsof -i:8006如果没有记录,检查pveproxy运行情况,通常重启服务可以解决:service pveproxy pvedaemon statussystemctl restart pveproxy pvedaemon如果8006端口监听了但是无法访问,注意看是监听的IPv6还是v4,另外查看/……
[已解决]Proxmox下丢失集群pveproxy[20850]: ipcc_send_rec[1] failed: Connection refused
问题描述同之前的问题一样,但是之前的解决方案不再适用:检查pve服务状况可以看到,除了丢失cluster之外,pveproxy也无法连上自己本地的pve服务:“ipcc_send_rec[3] failed: Connection refused”说明服务挂掉了root@PVE-EU-2 ~ # systemctl status pve-clust……
[已解决]Failed to start The Proxmox VE cluster filesystem | /etc/pve无法访问 | 集群丢失节点
问题描述Proxmox集群单节点丢失,能够ping通,但是ssh通过key连接时卡住,使用密码正常。使用ssh -vvv查看发现在验证key的时候无任何反馈,表明故障节点存public key的地方出现了问题。排查Proxmox存储集群public key的地方在/etc/pve,尝试cd进入失败。/etc/pve路径使用的是corosync进行同……
【转】Proxmox系统替换zfs中的坏盘并重建/恢复阵列
转自我们汤总的博文:proxmox系统替换zfs中的坏盘平台正在用的一块zfs硬盘坏了,需要换一块新硬盘,过程中参考proxmox的官方文档以及一些相应的资料,整理了一下步骤如下。欢迎大家批评指正zfs系统替换硬盘的基本步骤使用zpool status 命令查看zfs存储池情况1zpool status可以看到第……
历时48小时,修复了一个ZFS存储节点
发现磁盘问题堪萨斯集群的一台proxmox服务器在2月4号有一块盘出现了错误,导致ZFS阵列降级。准备更换硬件修复阵列当天我们将客户服务器转移至其他节点后,将这块坏盘在zfs cli中offline,然后工单提交换盘(热插拔)。悲剧的重启机房那边说既然我们备份好数据了,就趁这个机会把这台机器换到新的交换机和机柜里,经过我们同意后关机、移位,发现……
debian10下移除iSCSI Target磁盘|Proxmox下手动删除iSCSI磁盘
在Proxmox的GUI下删除iSCSI磁盘并不会实际关闭iSCSI链接,不知道是为什么。因此这里记录一下手动关闭的过程。首先要查看目前的链接:root@PVE-EU-1 ~ # iscsiadm -m sessiontcp: [39] 172.17.3.107:3260,1 iqn.2020-01.pve-eu-3:iscsieu1 (non-……
Debian10下ext4日志journal使用外部缓存设备|用SSD加速ext4
前言最近公司组了一套集群:3个90TB的存储服务器和3个计算服务器,计算服务器后续还会增加,然后内网使用10G的万兆交换机相连。一开始使用NFS将存储服务器的磁盘空间共享给计算服务器,但是发现计算服务器对小文件的读写较多,线程数一多就出现 IO Delay,实际看到网卡的流量并不高。也就是说:瓶颈出现在网络的IO上,而非带宽上!解决方案:换iSCSI,……