Proxmox – Migration v3.4 vers v4.0

0 comments

Posted on 6th novembre 2015 by cschwartz in Informatique |Linux |Virtualisation

, , , , , , , , , ,

Bonjour à tous

Ce petit article pour vous dire que la version v4 de Proxmox est sortie, et donc voici un petit article de la marche à suivre pour cette mise à jour depuis une version v3.4.

Voici les grandes nouveautés de cette version v4 :

  • OpenVZ à été remplacé par LXC
  • Nouvelle version de corosync a été implantée
  • Une reconfiguration de gestionnaire d’haute disponibilité a été mis en place
  • Passage d’un kernel 2.6.32 à 4.2.2

Prérequis à la mise à jour :

  • Proxmox 3.4 et ces dernière mises à jour
  • Accès à tous les périphériques de stockage
  • Toutes les VM ou CT doivent être à l’arrêt
  • Une sauvegarde à jour de vos VM ou CT (notez que les CT devront être converties)
  • Au moins 1Go d’espace libre disponible

Mise à jour proprement dite :

On vérifie que notre Proxmox est bien à jour :

apt-get update && apt-get dist-upgrade

Ensuite on supprime ce qu’on a plus besoin pour la version v4:

apt-get remove proxmox-ve-2.6.32 pve-manager corosync-pve openais-pve redhat-cluster-pve pve-cluster pve-firmware

On ajoute les dépôts de Jessie et on les mets à jour :

sed -i 's/wheezy/jessie/g' /etc/apt/sources.list
sed -i 's/wheezy/jessie/g' /etc/apt/sources.list.d/pve-enterprise.list
apt-get update

On installe la nouvelle version du kernel :

apt-get install pve-kernel-4.2.2-1-pve

Maintenant on mets à jour notre système vers Jessie et on redémarre pour prendre en charge la nouvelle version du kernel

apt-get dist-upgrade
reboot

On installe donc la nouvelle version de notre hyperviseur Proxmox :

apt-get install proxmox-ve

Et pour finir on supprime la version obsolète de l’ancien kernel :

apt-get remove pve-kernel-2.6.32-41-pve

Un dernier petit reboot et votre serveur est en v4 :

reboot

Migration des conteneurs OpenVZ vers LXC

On restaure ensuite les conteneurs OpenVZ vers des conteneurs LXC avec la commande :

pct restore 101 /var/lib/vz/dump/vzdump-openvz-101-2015_11_05-10_42_42.tar.lzo

On restaure la configuration IP :

pct set 101 -net0 name=eth0,bridge=vmbr0,ip=192.168.20.101/24,gw=192.168.20.10

Puis on démarre la VM :

pct start 101

Et on y accède via la commande :

pct enter 101

Ou directement via une console :

pct console 101

Voilà j’ai testé tout ça sur un environnement de test et tout semble correct. Je vais donc prévoir la migration des tous mes serveurs Proxmox vers la version v4, dans un premier temps ceux auto-hébergé et dans un second temps ceux sur des serveurs dédiés chez OVH.

Cas d’un cluster de deux serveurs Proxmox

Chez moi j’ai deux serveurs Proxmox en cluster, une fois les deux nœuds mis à jour, il faut reconstruire le cluster avec les commandes suivantes :

Sur le premier nœud du cluster :

pvecm create <nom_du_cluster>

Sur le second ou sur les nœuds suivants du cluster :

pvecm add <ip_du_premier_nœud> -force

Tout est fonctionnel chez moi, voici deux commandes pour visualiser l’état du cluster :

pvecm status
pvecm nodes

Bonne lecture à tous

Proxmox – Double authentification avec OTP

0 comments

Posted on 5th décembre 2014 by cschwartz in Informatique |Linux |Sécurité |Virtualisation

, , , , , ,

Bonjour à tous

Depuis quelque temps j’utilise Proxmox comme solution de virtualisation que ce soit chez moi ou sur mes serveurs OVH, et depuis peu pour des clients.

Ce dernier point m’a poussé à mettre en place une double authentification via OTP (One Time Password).

Rien de plus simple vu que déjà présent en natif dans la distribution Proxmox et que la mise place ne prends que deux minutes.

Dans un premier temps se connecter en SSH sur le serveur et lancer la commande suivante pour générer une clé :

root@Proxmox:~# oathkeygen
RXRYWAHMGO64C7JZ

Une fois cette clé générée il faut se rendre dans l’interface web du serveur, dans le menu Authentification et éditer la ligne PAM pour choisir dans le menu TFA : OATH.

proxmox-otp-001Une fois cette option activée il suffit d’aller renseigner la clé générée avant en ssh dans l’utilisateur, ici root

proxmox-otp-002Il ne reste plus qu’à se déconnecté et à la prochaine connections l’OTP sera nécessaire en plus du mot de passe habituel.

proxmox-otp-003

D’un point de vue application client pour la génération de l’OTP, j’utilise pour ma part Google Authentificator sur mon téléphone portable et sur mon iMac je préfère OTP Manager.

En cas de soucis, il est toujours possible en SSH de désactiver cette fonctionnalité via en commentant une ligne dans le fichier /etc/pve/domains.cfg :

nano /etc/pve/domains.cfg
#tfa type=oath

Bonne journée

Proxmox – Nouveau cluster en commande

0 comments

Posted on 17th octobre 2013 by cschwartz in Materiel |Open Source |Virtualisation

, , , , , ,

Bonjour à tous

Ca fait un moment que mon cluster Proxmox est basé sur deux machines récupérées mais qui commencent à vieillir (plus de 5 ans).

Une offre intéressante sur Amazon, pour un serveur HP – 704941-421 – Proliant Micro serveur – G7 N54L NHP 250 Go , m’a attiré l’œil…

Bon au final, achat de deux serveurs avec un supplémentent de 4Go de ram pour chacun pour avoir deux nodes de mon cluster avec chacun 6Go de ram.

Ca va faire du bien à pas mal de niveau :

  • Consommation énergétique moins importante (divisé au moins par deux)
  • Matériel neuf et sous garantie
  • Plus de ram en passant de 2.5 Go et 3 Go à deux fois 6 Go
  • Gain de place
  • Évolutivité au niveau de baies disques durs

Enfin voila reste plus qu’à recréer un cluster, et récupérer les sauvegardes des machines virtuelles et une petite restauration dans la foulée.

Proxmox – Ajout de la fonction support – Erreurs dans les update

0 comments

Posted on 26th août 2013 by cschwartz in Informatique |Linux |Non classé |Open Source |Virtualisation

, , , ,

Bonjour à tous

Ce post express juste pour vous informer que Proxmox à rajouter une fonction de support payante (optionnelle) et a pousser de nouveau repository, qui posent problème lorsque l’on a pas souscrit à un support.

root@Proxmox-1:~# apt-get update
Hit http://ftp.fr.debian.org wheezy Release.gpg
Hit http://download.proxmox.com wheezy Release.gpg
Hit http://security.debian.org wheezy/updates Release.gpg
Hit http://download.proxmox.com wheezy Release
Hit http://security.debian.org wheezy/updates Release
Hit http://ftp.fr.debian.org wheezy Release
Hit http://download.proxmox.com wheezy/pve amd64 Packages
Hit http://security.debian.org wheezy/updates/main amd64 Packages
Hit http://security.debian.org wheezy/updates/contrib amd64 Packages
Hit http://ftp.fr.debian.org wheezy/main amd64 Packages
Hit http://security.debian.org wheezy/updates/contrib Translation-en
Hit http://security.debian.org wheezy/updates/main Translation-en
Hit http://ftp.fr.debian.org wheezy/contrib amd64 Packages
Hit http://ftp.fr.debian.org wheezy/contrib Translation-en
Ign https://enterprise.proxmox.com wheezy Release.gpg
Hit http://ftp.fr.debian.org wheezy/main Translation-en
Ign http://download.proxmox.com wheezy/pve Translation-en_US
Ign http://download.proxmox.com wheezy/pve Translation-en
Ign https://enterprise.proxmox.com wheezy Release
Err https://enterprise.proxmox.com wheezy/pve-enterprise amd64 Packages
The requested URL returned error: 401
Ign https://enterprise.proxmox.com wheezy/pve-enterprise Translation-en_US
Ign https://enterprise.proxmox.com wheezy/pve-enterprise Translation-en
W: Failed to fetch https://enterprise.proxmox.com/debian/dists/wheezy/pve-enterprise/binary-amd64/Packages  The requested URL returned error: 401
E: Some index files failed to download. They have been ignored, or old ones used instead.

Pour parer ce problème il suffit de désactiver les sources dédiées en ajoutant un # dans le fichier :

nano /etc/apt/sources.list.d/pve-enterprise.list
 
#deb https://enterprise.proxmox.com/debian wheezy pve-enterprise

Ce petit changement vous rends votre serveur opérationnel comme avant.

root@Proxmox-1:~# apt-get update
Hit http://ftp.fr.debian.org wheezy Release.gpg
Hit http://security.debian.org wheezy/updates Release.gpg     
Hit http://ftp.fr.debian.org wheezy Release                                              
Hit http://security.debian.org wheezy/updates Release                                    
Hit http://security.debian.org wheezy/updates/main amd64 Packages                                              
Hit http://ftp.fr.debian.org wheezy/main amd64 Packages                                  
Hit http://security.debian.org wheezy/updates/contrib amd64 Packages            
Hit http://ftp.fr.debian.org wheezy/contrib amd64 Packages                      
Hit http://download.proxmox.com wheezy Release.gpg
Hit http://security.debian.org wheezy/updates/contrib Translation-en      
Hit http://download.proxmox.com wheezy Release                            
Hit http://security.debian.org wheezy/updates/main Translation-en         
Hit http://ftp.fr.debian.org wheezy/contrib Translation-en
Hit http://download.proxmox.com wheezy/pve amd64 Packages
Hit http://ftp.fr.debian.org wheezy/main Translation-en
Ign http://download.proxmox.com wheezy/pve Translation-en_US
Ign http://download.proxmox.com wheezy/pve Translation-en
Reading package lists... Done

De plus pour éviter le message au login sur l’interface web, il suffit d’éditer le fichier

nano/usr/share/pve-manager/ext4/pvemanagerlib.js

et de commenter les lignes suivantes

//              if (data.status == 'Active') {
//                  Ext.Msg.show({
//                      title: gettext('No valid subscription'),
//                      icon: Ext.Msg.WARNING,
//                      msg: PVE.Utils.noSubKeyHtml,
//                      buttons: Ext.Msg.OK,
//                      callback: function(btn) {
//                          if (btn !== 'ok') {
//                              return;
//                          }
//                          orig_cmd();
//                      }
//                  });
//              } else {
//                  orig_cmd();
//              }

Sans oublier de relancer le pvedaemon avec la commande :

/etc/init.d/pvedaemon restart

Bonne journée à tous

Proxmox – Réaménagement d’un cluster

0 comments

Posted on 4th juillet 2013 by cschwartz in Informatique |Linux |Virtualisation

, , , , , , ,

Bonjour

Actuellement j’ai un cluster de deux nœuds sous Proxmox, que l’on va appeler pour l’article :

  • Proxmox-1 : 192.168.0.11
  • Proxmox-2 : 192.168.0.12

Suite a des changements de boitier du nœuds Proxmox-1, j’ai le connecteur SATA du disque qui a prit un coup, pour l’instant tout va bien mais je pense que le changement est proche, pour plus de sécurité.

C’est ce qui m’a amener à me poser la question comment remplacer ce nœud, au cas ou il ne démarrait plus du tout. (sinon actuellement un clone de disque est envisagé)

Mais comme je suis un minimum précautionneux, je me suis dit que j’allais d’abord tester sur autre chose que mon cluster.

La je peux dire merci à Vmware Fusion sur mon iMac, j’ai pu virtualiser trois nœuds Proxmox avec la configuration suivantes :

  • Proxmox-1-Test : 192.168.0.21
  • Proxmox-2-Test : 192.168.0.22
  • Proxmox-1-Test : 192.168.0.21 (éteint dans la première phase de test)

J’ai monté les deux premiers nœuds en cluster, avantage de Proxmox c’est fait en deux commandes, la première sur le Proxmox-1-Test et la seconde sur Proxmox-2-Test

pvecm create Proxmox-Test
 
pvecm add 192.168.0.21

Une fois le cluster opérationnel, j’ai tout simplement éteint la machine Proxmox-1-Test, comme si elle était hors service.

J’ai démarré la machine Proxmox-1-Test de remplacement (même nom et même ip, je veux garder un peu de cohérence), j’ai essayé plusieurs solutions mais voici celle que j’ai retenu.

J’ai commencé par supprimer la configuration Cluster du serveur Proxmox-2-Test avec les commande suivantes :

/etc/init.d/cman stop
Stopping cluster:
   Stopping dlm_controld... [  OK  ]
   Stopping fenced... [  OK  ]
   Stopping cman... [  OK  ]
   Waiting for corosync to shutdown:[  OK  ]
   Unloading kernel modules... [  OK  ]
   Unmounting configfs... [  OK  ]
/etc/init.d/pve-cluster stop
Stopping pve cluster filesystem: pve-cluster.
rm /etc/cluster/cluster.conf
rm -rf /var/lib/pve-cluster/*
rm -rf /etc/pve/nodes/*
/etc/init.d/pve-cluster start
Starting pve cluster filesystem : pve-cluster.
/etc/init.d/cman start

Les machines virtuelles sont toujours opérationnelles à ce moment la sur le nœud Promox-2-Test.

Puis j’ai tout simplement recréé le cluster sur le nouveau nœud Proxmox-1-Test

pvecm create Proxmox-Test

Puis j’ai rajouter le nœud Proxmox-2-Test au nouveau cluster

pvecm add 192.168.0.21

Rien de plus simple pour recréer un cluster tout en gardant le nommage et les ip des noeuds hors service.

Après je vous recommande avant tout, d’exporter les sauvegardes de vos machines virtuelles sur un équipement tiers type NAS pour moi.

Pour restaurer une machine virtuelle en cas de soucis, rien de plus simple il suffit recopier la sauvegarde sur un nouveau nœud Proxmox et de lancer la commande suivante pour réimporter  la machine avec l’id 101 :

qmrestore sauvegarde_101.vma.lzo 101

A très vite

Migration Proxmox v 2.3 vers v 3.0

2 comments

Posted on 9th mai 2013 by cschwartz in Informatique |Linux |Virtualisation

, , , , , ,

Bonjour à tous

Un petit article pendant l’upgrade de mon cluster Proxmox v 2.3 vers 3.0 pour vous expliquer comment faire tout simplement.

Voici les étapes que j’ai suivi pour l’upgrade de mon cluster de deux noeuds :

  • Sur les deux noeud j’ai télécharger le script d’upgrade :
wget http://download.proxmox.com/debian/dists/wheezy/pve-upgrade-2.3-to-3.0   
chmod +x pve-upgrade-2.3-to-3.0
  • Sur les deux noeuds j’ai lancé le téléchargement des fichiers pour la migration :
./pve-upgrade-2.3-to-3.0 --download-only
  • Sur le nœud 2 le moins chargé et le moins important pour moi, j’ai commencé la migration en éteignant toutes mes machines virtuelles, sans oublier de faire une sauvegarde de celles ci sur un stockage externe.
./pve-upgrade-2.3-to-3.0
reboot
  • Puis après un reboot, j’ai relancé les machines virtuelles pour tester, pas de soucis : tout est ok
  • Puis j’ai restopper les VM du noeud 2 pour purger les fichiers de la migration avec la commande
./pve-upgrade-2.3-to-3.0 --purge
reboot
  • Et j’ai rebooter une dernière fois ce serveur et j’ai redémarrer les machines virtuelles hébergées sur ce nœud.
  • Tout simplement j’ai procéder de la même façon sur le nœud principal, sans aucun soucis

Si vous rencontrer des problèmes suite à la migration, avant la dernière étapes de purges vous pouvez consulter les logs dans le fichier pve-upgrade.log

Ces deux nœuds étaient graphés sous munin, j’ai du refaire l’installation surement du au passage a Débian 7.

Tout petit bémol j’utilisais l’application quadprox-mobile sur mon téléphone et ma tablette, mais celle ci ne fonctionne pas avec la nouvelle version de proxmox v 3.0 enfin pas encore…

Bonne journée à tous

Pourquoi j’ai migré de VMWare Server 2.0 vers Proxmox

0 comments

Posted on 7th avril 2013 by cschwartz in Informatique |Linux |Open Source |Virtualisation

, , , , ,

Bonjout à tous

Ce petit billet pour vous faire un état de lieux de mon système de virtualisation et plus précisément ma migration de VMWare Server 2.0 vers Proxmox.

J’utilise ce serveur de virtualisation depuis quelques d’années sans aucun soucis jusqu’au jour d’une mise à jour de mon socle Ubuntu. Celle-ci provoqua des erreurs lors du démarrage de la couche VMWare et donc des machines virtuelles hébergées.
Après plusieurs recherches sur internet j’ai pu corriger le problème en créant des nouveaux liens symboliques vers le nouvel emplacement des ressources nécessaires au bon fonctionnement du serveur.

Tout est de nouveau fonctionnel mais cela mais permis de me rendre compte que le système de virtualisation n’était pas fiable et surtout non redondé.

Après avoir fait le tour de solutions de virtualisation je me suis tourné tout naturellement vers Proxmox.

Cette solution me permet de disposer non pas d’un serveur mais bien d’un cluster actuellement composé de deux machines physiques.

Deux machines de récupération, mon ancien PC avant de le remplacer par mon iMac et mon ancien serveur OpenVZ, seule nécessité avoir un processeur 64bits.

Installation

Rien de plus simple, vu qu’il suffit de télécharger l’iso d’installation ici et de suivre les 5-6 pages d’installation.

On procède à l’installation de chaque machine indépendamment l’une de l’autre, la mise en cluster se fait pots-installation.

Une fois installé on s’y connecte via un navigateur à l’adresse suivante : https://ip:8006

proxmox-login

Mise en cluster

Rien de plus simple, cela se fat un 5 minutes avec deux commandes :

  • Création du cluster à faire sur le premier nœud
pvecm create YOUR-CLUSTER-NAME

Pour information, le choix du nom du cluster est quelque chose qui ne change pas facilement donc premier deux minutes pour y réfléchir.

On peut vérifier l’état avec la commande suivante :

pvecm status
  • Ajout d’un node au cluster
pvecm add IP-ADDRESS-CLUSTER

La commande est à lancer sur chaque node que l’on veut rajouter au cluster.

On peut vérifier l’état avec la commande suivante sur chaque node :

pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M    296   2013-03-09 08:18:47  Node-Proxmox-1
   2   M    376   2013-03-09 08:52:22  Node-Proxmox-2

Et voila en deux commandes on se retrouve avec un cluster de deux serveurs de virtualisation.

Le cluster est accessible via le navigateur via les deux adresses des serveurs physiques.

Avantages :

  • Possibilité de fonctionnement en cluster
  • Possibilité de HA d’une machine virtuelle d’un node à l’autre à chaud si le sotckage est mutualisé, sinon en stoppant les machines
  • Pas de client lourd, ce qui est aussi un frein sous Mac OS X avec un ESXi
  • Pas besoin d’avoir des périphériques (contrôleurs sata, carte réseaux compatibles comme avec les ESXi)

Améliortations que j’attends avec impatience :

  • Synchronisation de dossier de stockage entre les nœuds physiques comme pour les templates, les iso, les sauvegardes.

Inconvénients :

  • Avoir une architecture 64bits

Pour l’instant c’est une solution qui me convient chez moi pour ma solution de virtualisation que je compte porter prochainement sur un serveur dédié soit chez Online soit chez OVH, en cours de comparaison et de test.