用iso安装的一台proxmox5.4 每天运行一段时间后节点离线 虚拟机运行正常 但无法监控和控制

重启pvestatd服务后约10秒 可恢复绿色状态
systemctl restart pvestatd
可加入crontab 定时重启 问题基本解决
用iso安装的一台proxmox5.4 每天运行一段时间后节点离线 虚拟机运行正常 但无法监控和控制
重启pvestatd服务后约10秒 可恢复绿色状态
systemctl restart pvestatd
可加入crontab 定时重启 问题基本解决
分离服务:
复制一份sshd服务
cp /usr/lib/systemd/system/sshd.service /etc/systemd/system/sftpd.service cp /etc/pam.d/sshd /etc/pam.d/sftpd cp /etc/ssh/sshd_config /etc/ssh/sftpd_config ln -sf /usr/sbin/service /usr/sbin/rcsftpd ln -sf /usr/sbin/sshd /usr/sbin/sftpd cp /etc/sysconfig/sshd /etc/sysconfig/sftp
修改sftpd.service配置文件
vm /etc/systemd/system/sftpd.service
修改sftpd_config配置文件
vm /etc/ssh/sftpd_config
116行,将PidFile /var/run/sshd.pid改成PidFile /var/run/sftpd.pid
第132行,将
Subsystem sftp /usr/libexec/openssh/sftp-server
注释,并添以下5行
Subsystem sftp internal-sftp Match User sftpuser1 ChrootDirectory /data/sftpuser1 X11Forwarding no AllowTcpForwarding no ForceCommand internal-sftp Match User sftpuser2 ChrootDirectory /data/sftpuser2 X11Forwarding no AllowTcpForwarding no ForceCommand internal-sftp
ChrootDirectory可以锁定sftp用户的登录根目录,设置ChrootDirectory会遇到两个坑
1、 设置的目录 如:/data/user1 所属用户不能设置为user1:user1否则连不上 需要设置为root:user1
2、/data/user1 权限不能设置为777 否则也连不上 设置755可以连上 但用户在他的自己根下无法写入 所以在用户根下再建一个目录 /data/user1/data 这个目录可以自由设置归属和权限
<style type="text/css">html{ filter: grayscale(100%); -webkit-filter: grayscale(100%); -moz-filter: grayscale(100%); -ms-filter: grayscale(100%); -o-filter: grayscale(100%); filter: url("data:image/svg+xml;utf8,#grayscale"); filter:progid:DXImageTransform.Microsoft.BasicImage(grayscale=1); -webkit-filter: grayscale(1);} </style>
登录web面板,选择需要添加权限的容器=>选项=>签名=>打开嵌套,重启后容器运行Docker不会再报错。
如果没有效果 手动编辑容器配置文件重启容器即可
cd /etc/pve/lxc
vi 机器号.conf
添加三行
lxc.apparmor.profile: unconfined lxc.cgroup.devices.allow: a lxc.cap.drop:
开始=>运行
rundll32.exe shell32.dll,Control_RunDLL desk.cpl,,0
下面是一份示例 nginx.conf
默认轮询后端绑定的所有节点
weight=3 #控制权重 数值越高 权重越大 负载也越大
max_fails=5 fail_timeout=30s #30秒中内请求失败5次 则标记节点死亡踢出列队30秒后继续加入负载列队
proxy_connect_timeout 1s; #服务端与后端节点连接超实时间
proxy_timeout 30s; #客户端与服务器连接超时时间
user root; worker_processes 3; pid /run/nginx.pid; worker_rlimit_nofile 114514; include /etc/nginx/modules-enabled/*.conf; events { worker_connections 114514; # multi_accept on; } stream { proxy_timeout 30s; proxy_connect_timeout 1s; upstream group1 { #hash $remote_addr consistent; 根据请求IP分配节点 ,测试后发现会与backup节点冲突 server t1.xxxx.com:11125 weight=3 max_fails=5 fail_timeout=30s; server t1b.xxxx.com:30000 weight=5 max_fails=5 fail_timeout=30s; server xxxx.com:11125 weight=5 max_fails=5 fail_timeout=30s; server 10.0.5.1:11125 backup; #标记backup节点 其他三个节点标记死亡后启用 } server { listen 11125; listen 11125 udp; proxy_pass group1; } server { listen 30000; listen 30000 udp; proxy_pass group1; } server { listen 30001; listen 30001 udp; proxy_pass group1; } }
关于nginx绑定DDNS域名问题:nginx会在启动时解析域名对应的ip地址,如果域名对应动态IP在nginx运行后发生改变,则需要手动nginx -s reload后才能刷新IP,否则nginx会继续请求旧IP。
通过添加crontab 每半小时执行一次reload 基本可满足需求。
添加rewrite
if (!-f $request_filename){ set $rule_0 1$rule_0; } if ($rule_0 = "1"){ rewrite ^/([^\.]+)$ /$1.html last; }
安装前检查
proxmox安装对hostname有严格要求,确认返回IP是否与本机hosts中一致
hostname --ip-address
安装Proxmox并开启bbr
echo "deb http://download.proxmox.com/debian/pve stretch pve-no-subscription" > /etc/apt/sources.list.d/pve-install-repo.list wget http://download.proxmox.com/debian/proxmox-ve-release-5.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-5.x.gpg apt-get update apt install proxmox-ve postfix ksm-control-daemon open-iscsi bridge-utils -y apt remove os-prober -y echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf sysctl -p
安装完成且无报错后 和访问https://IP:8006访问管理面板
配置网卡
先备份一下网卡配置
cp /etc/network/interfaces /etc/network/interfaces.bak
以下是网卡配置eno2为物理网卡,vmbr0为独立ip网桥,vmbr1为nat网桥
auto lo iface lo inet loopback iface eno2 inet manual up route add -net 【IP】 netmask 【netmask】 gw 【gateway】 dev eno2 auto vmbr0 iface vmbr0 inet static address 【IP】 netmask 【netmask】 gateway 【gateway】 bridge_ports eno2 bridge_stp off bridge_fd 0 auto vmbr1 iface vmbr1 inet static address 10.0.1.254 netmask 255.255.255.0 bridge_ports none bridge_stp off bridge_fd 0 post-up echo 1 > /proc/sys/net/ipv4/ip_forward post-up iptables -t nat -A POSTROUTING -s '10.0.1.0/24' -o vmbr0 -j MASQUERADE post-down iptables -t nat -D POSTROUTING -s '10.0.1.0/24' -o vmbr0 -j MASQUERADE
创建虚拟机
登录 https://IP:8006/
LXC模版上传至/var/lib/vz/template/cache/ 或在web中储存->内容->模板 下载
KVM模版上传至 /var/lib/vz/template/iso/
独立IP网络配置:
NAT网络配置:
可以使用iptables映射端口到虚拟机上
留坑 之后补上
默认功能不开启,可以在这里开启:
chrome://flags/#enable-parallel-downloading
先删除rhel自带的yum
rpm -aq|grep yum|xargs rpm -e --nodeps
依次安装centos yum rpm包
rpm -ivh --force --nodeps 1.rpm rpm -ivh --force --nodeps 2.rpm rpm -ivh --force --nodeps 3-1.rmp 3-2.rpm
redhat6使用:1.rpm 2.rmp 3-1.rpm 3-2.rpm
redhat7使用: 1.rpm 2.rmp 3-1.rpm 3-2.rpm
备份并移除该目录下repo文件 /etc/yum.repos.d/
redhat7将 centos-7.repo 文件放入/etc/yum.repos.d/
redhat6将 centos-6.repo 文件放入/etc/yum.repos.d/
如果是内网环境 配置代理即可
yum clean all yum makecache yum update