Proxmox – Migration v3.4 vers v4.0

0 comments

Posted on 6th novembre 2015 by cschwartz in Informatique |Linux |Virtualisation

, , , , , , , , , ,

Bonjour à tous

Ce petit article pour vous dire que la version v4 de Proxmox est sortie, et donc voici un petit article de la marche à suivre pour cette mise à jour depuis une version v3.4.

Voici les grandes nouveautés de cette version v4 :

  • OpenVZ à été remplacé par LXC
  • Nouvelle version de corosync a été implantée
  • Une reconfiguration de gestionnaire d’haute disponibilité a été mis en place
  • Passage d’un kernel 2.6.32 à 4.2.2

Prérequis à la mise à jour :

  • Proxmox 3.4 et ces dernière mises à jour
  • Accès à tous les périphériques de stockage
  • Toutes les VM ou CT doivent être à l’arrêt
  • Une sauvegarde à jour de vos VM ou CT (notez que les CT devront être converties)
  • Au moins 1Go d’espace libre disponible

Mise à jour proprement dite :

On vérifie que notre Proxmox est bien à jour :

apt-get update && apt-get dist-upgrade

Ensuite on supprime ce qu’on a plus besoin pour la version v4:

apt-get remove proxmox-ve-2.6.32 pve-manager corosync-pve openais-pve redhat-cluster-pve pve-cluster pve-firmware

On ajoute les dépôts de Jessie et on les mets à jour :

sed -i 's/wheezy/jessie/g' /etc/apt/sources.list
sed -i 's/wheezy/jessie/g' /etc/apt/sources.list.d/pve-enterprise.list
apt-get update

On installe la nouvelle version du kernel :

apt-get install pve-kernel-4.2.2-1-pve

Maintenant on mets à jour notre système vers Jessie et on redémarre pour prendre en charge la nouvelle version du kernel

apt-get dist-upgrade
reboot

On installe donc la nouvelle version de notre hyperviseur Proxmox :

apt-get install proxmox-ve

Et pour finir on supprime la version obsolète de l’ancien kernel :

apt-get remove pve-kernel-2.6.32-41-pve

Un dernier petit reboot et votre serveur est en v4 :

reboot

Migration des conteneurs OpenVZ vers LXC

On restaure ensuite les conteneurs OpenVZ vers des conteneurs LXC avec la commande :

pct restore 101 /var/lib/vz/dump/vzdump-openvz-101-2015_11_05-10_42_42.tar.lzo

On restaure la configuration IP :

pct set 101 -net0 name=eth0,bridge=vmbr0,ip=192.168.20.101/24,gw=192.168.20.10

Puis on démarre la VM :

pct start 101

Et on y accède via la commande :

pct enter 101

Ou directement via une console :

pct console 101

Voilà j’ai testé tout ça sur un environnement de test et tout semble correct. Je vais donc prévoir la migration des tous mes serveurs Proxmox vers la version v4, dans un premier temps ceux auto-hébergé et dans un second temps ceux sur des serveurs dédiés chez OVH.

Cas d’un cluster de deux serveurs Proxmox

Chez moi j’ai deux serveurs Proxmox en cluster, une fois les deux nœuds mis à jour, il faut reconstruire le cluster avec les commandes suivantes :

Sur le premier nœud du cluster :

pvecm create <nom_du_cluster>

Sur le second ou sur les nœuds suivants du cluster :

pvecm add <ip_du_premier_nœud> -force

Tout est fonctionnel chez moi, voici deux commandes pour visualiser l’état du cluster :

pvecm status
pvecm nodes

Bonne lecture à tous

Proxmox – Nouveau cluster en commande

0 comments

Posted on 17th octobre 2013 by cschwartz in Materiel |Open Source |Virtualisation

, , , , , ,

Bonjour à tous

Ca fait un moment que mon cluster Proxmox est basé sur deux machines récupérées mais qui commencent à vieillir (plus de 5 ans).

Une offre intéressante sur Amazon, pour un serveur HP – 704941-421 – Proliant Micro serveur – G7 N54L NHP 250 Go , m’a attiré l’œil…

Bon au final, achat de deux serveurs avec un supplémentent de 4Go de ram pour chacun pour avoir deux nodes de mon cluster avec chacun 6Go de ram.

Ca va faire du bien à pas mal de niveau :

  • Consommation énergétique moins importante (divisé au moins par deux)
  • Matériel neuf et sous garantie
  • Plus de ram en passant de 2.5 Go et 3 Go à deux fois 6 Go
  • Gain de place
  • Évolutivité au niveau de baies disques durs

Enfin voila reste plus qu’à recréer un cluster, et récupérer les sauvegardes des machines virtuelles et une petite restauration dans la foulée.

Proxmox – Réaménagement d’un cluster

0 comments

Posted on 4th juillet 2013 by cschwartz in Informatique |Linux |Virtualisation

, , , , , , ,

Bonjour

Actuellement j’ai un cluster de deux nœuds sous Proxmox, que l’on va appeler pour l’article :

  • Proxmox-1 : 192.168.0.11
  • Proxmox-2 : 192.168.0.12

Suite a des changements de boitier du nœuds Proxmox-1, j’ai le connecteur SATA du disque qui a prit un coup, pour l’instant tout va bien mais je pense que le changement est proche, pour plus de sécurité.

C’est ce qui m’a amener à me poser la question comment remplacer ce nœud, au cas ou il ne démarrait plus du tout. (sinon actuellement un clone de disque est envisagé)

Mais comme je suis un minimum précautionneux, je me suis dit que j’allais d’abord tester sur autre chose que mon cluster.

La je peux dire merci à Vmware Fusion sur mon iMac, j’ai pu virtualiser trois nœuds Proxmox avec la configuration suivantes :

  • Proxmox-1-Test : 192.168.0.21
  • Proxmox-2-Test : 192.168.0.22
  • Proxmox-1-Test : 192.168.0.21 (éteint dans la première phase de test)

J’ai monté les deux premiers nœuds en cluster, avantage de Proxmox c’est fait en deux commandes, la première sur le Proxmox-1-Test et la seconde sur Proxmox-2-Test

pvecm create Proxmox-Test
 
pvecm add 192.168.0.21

Une fois le cluster opérationnel, j’ai tout simplement éteint la machine Proxmox-1-Test, comme si elle était hors service.

J’ai démarré la machine Proxmox-1-Test de remplacement (même nom et même ip, je veux garder un peu de cohérence), j’ai essayé plusieurs solutions mais voici celle que j’ai retenu.

J’ai commencé par supprimer la configuration Cluster du serveur Proxmox-2-Test avec les commande suivantes :

/etc/init.d/cman stop
Stopping cluster:
   Stopping dlm_controld... [  OK  ]
   Stopping fenced... [  OK  ]
   Stopping cman... [  OK  ]
   Waiting for corosync to shutdown:[  OK  ]
   Unloading kernel modules... [  OK  ]
   Unmounting configfs... [  OK  ]
/etc/init.d/pve-cluster stop
Stopping pve cluster filesystem: pve-cluster.
rm /etc/cluster/cluster.conf
rm -rf /var/lib/pve-cluster/*
rm -rf /etc/pve/nodes/*
/etc/init.d/pve-cluster start
Starting pve cluster filesystem : pve-cluster.
/etc/init.d/cman start

Les machines virtuelles sont toujours opérationnelles à ce moment la sur le nœud Promox-2-Test.

Puis j’ai tout simplement recréé le cluster sur le nouveau nœud Proxmox-1-Test

pvecm create Proxmox-Test

Puis j’ai rajouter le nœud Proxmox-2-Test au nouveau cluster

pvecm add 192.168.0.21

Rien de plus simple pour recréer un cluster tout en gardant le nommage et les ip des noeuds hors service.

Après je vous recommande avant tout, d’exporter les sauvegardes de vos machines virtuelles sur un équipement tiers type NAS pour moi.

Pour restaurer une machine virtuelle en cas de soucis, rien de plus simple il suffit recopier la sauvegarde sur un nouveau nœud Proxmox et de lancer la commande suivante pour réimporter  la machine avec l’id 101 :

qmrestore sauvegarde_101.vma.lzo 101

A très vite

Pourquoi j’ai migré de VMWare Server 2.0 vers Proxmox

0 comments

Posted on 7th avril 2013 by cschwartz in Informatique |Linux |Open Source |Virtualisation

, , , , ,

Bonjout à tous

Ce petit billet pour vous faire un état de lieux de mon système de virtualisation et plus précisément ma migration de VMWare Server 2.0 vers Proxmox.

J’utilise ce serveur de virtualisation depuis quelques d’années sans aucun soucis jusqu’au jour d’une mise à jour de mon socle Ubuntu. Celle-ci provoqua des erreurs lors du démarrage de la couche VMWare et donc des machines virtuelles hébergées.
Après plusieurs recherches sur internet j’ai pu corriger le problème en créant des nouveaux liens symboliques vers le nouvel emplacement des ressources nécessaires au bon fonctionnement du serveur.

Tout est de nouveau fonctionnel mais cela mais permis de me rendre compte que le système de virtualisation n’était pas fiable et surtout non redondé.

Après avoir fait le tour de solutions de virtualisation je me suis tourné tout naturellement vers Proxmox.

Cette solution me permet de disposer non pas d’un serveur mais bien d’un cluster actuellement composé de deux machines physiques.

Deux machines de récupération, mon ancien PC avant de le remplacer par mon iMac et mon ancien serveur OpenVZ, seule nécessité avoir un processeur 64bits.

Installation

Rien de plus simple, vu qu’il suffit de télécharger l’iso d’installation ici et de suivre les 5-6 pages d’installation.

On procède à l’installation de chaque machine indépendamment l’une de l’autre, la mise en cluster se fait pots-installation.

Une fois installé on s’y connecte via un navigateur à l’adresse suivante : https://ip:8006

proxmox-login

Mise en cluster

Rien de plus simple, cela se fat un 5 minutes avec deux commandes :

  • Création du cluster à faire sur le premier nœud
pvecm create YOUR-CLUSTER-NAME

Pour information, le choix du nom du cluster est quelque chose qui ne change pas facilement donc premier deux minutes pour y réfléchir.

On peut vérifier l’état avec la commande suivante :

pvecm status
  • Ajout d’un node au cluster
pvecm add IP-ADDRESS-CLUSTER

La commande est à lancer sur chaque node que l’on veut rajouter au cluster.

On peut vérifier l’état avec la commande suivante sur chaque node :

pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M    296   2013-03-09 08:18:47  Node-Proxmox-1
   2   M    376   2013-03-09 08:52:22  Node-Proxmox-2

Et voila en deux commandes on se retrouve avec un cluster de deux serveurs de virtualisation.

Le cluster est accessible via le navigateur via les deux adresses des serveurs physiques.

Avantages :

  • Possibilité de fonctionnement en cluster
  • Possibilité de HA d’une machine virtuelle d’un node à l’autre à chaud si le sotckage est mutualisé, sinon en stoppant les machines
  • Pas de client lourd, ce qui est aussi un frein sous Mac OS X avec un ESXi
  • Pas besoin d’avoir des périphériques (contrôleurs sata, carte réseaux compatibles comme avec les ESXi)

Améliortations que j’attends avec impatience :

  • Synchronisation de dossier de stockage entre les nœuds physiques comme pour les templates, les iso, les sauvegardes.

Inconvénients :

  • Avoir une architecture 64bits

Pour l’instant c’est une solution qui me convient chez moi pour ma solution de virtualisation que je compte porter prochainement sur un serveur dédié soit chez Online soit chez OVH, en cours de comparaison et de test.

Edito du 18/12/2011

0 comments

Posted on 18th décembre 2011 by cschwartz in # Edito

,

Hello à tous

Quand on aime, on recommence suite et fin du déménagement de la semaine dernière…hier tout la journée… avec une très bonne soirée à la suite.

Dernière semaine de boulot avant les vacances, vivement jeudi soir…

  • Les test sur OpenVZ sont toujours en cours et confirme mes attentes.
  • Ma première VM Shinken à vue le jour cette semaine… une logue phase de test est en cours avant la migration de ma supervision.

Sinon pas trop le temps en cette fin d’année pour des articles mais promis 2012 sera plus calme (on y croit, on y croit…).

Bon week-end à tous…

Edito du 11/12/2011

0 comments

Posted on 11th décembre 2011 by cschwartz in # Edito

, , , , , ,

Bonjour à tous

Petit édito ce matin, tout courbaturé… (déménagement oblige).

Quoi de neuf, qui pourrait être intéressant sur pour ce blog…et les personnes qui les suivent :

  • Toujours en phase de test sur OpenVZ et en monté de charge (les gabarits sont en cours d’élaboration)
  • Toujours entrain d’étudier les différentes solutions pour de la domotique (X11 – RFXCom – 1-Wire – Z-Wave)
  • Entrain de voir pour l’achat d’un aspirateur iRobot Roomba…
  • Et puis toujours à l’écoute d’une bonne offre pour une Tablette… affaire à suivre…

Sur ceux je crois qu’aujourd’hui va être dédié à ne rien faire… temps en temps ça fait du bien…

Bon week-end à tous…

Edito du 03/12/2011

0 comments

Posted on 3rd décembre 2011 by cschwartz in # Edito

, , , ,

Bonsoir à tous…

Petit édito d’un samedi soir pluvieux…

Cette semaine a été plutôt calme pour le blog…mais très enrichissante d’un point de vue professionnel. Les changements sont validés de tous les côtés, reste à définir précisément la date.

Sinon comme promis dans le dernier édito je suis en plein test de la solution OpenVZ installé le week-end dernier (actuelement je suis entrain de définir mes nouveaux gabarits d’OS).

Sinon je teste pas mal de petite solution de domotique, pour essayer de définir exactement mes besoins et d’y trouver les meilleures solutions. Le dernier en date une solution open source, si si je vous jure…Domogik qui semble pas niveau ergonomie et très bien fourni au niveau des connecteurs (X10, 1-Wire, RFID etc)

De plus l’application mobile est très proche de la version web et reste très simple d’utilisation, les tests continuent.

Sur ce je vous souhaite une bonne fin de week- end et une bonne semaine à venir

Installation d’un cluster OpenVZ administré via OpenVZ Web Panel

3 comments

Posted on 27th novembre 2011 by cschwartz in Informatique |Linux |Open Source |Virtualisation

, , , , , ,

Bonjour

Je rentre quelques soucis avec mon serveur VMWare Server 2.0 commençant à être de plus en plus rapprochés, je me suis dit pourquoi pas OpenVZ.

Pour poser les bases de l’installation, je dispose de :

  • Deux serveur physiques qui vont héberger les deux serveurs OpenVZ. Ces deux serveurs se trouvent en DMZ de mon réseau.
  • Un serveur dans mon LAN et non dans ma DMZ pour l’administration des deux serveurs avec l’interface OpenVZ Web Panel.

Ci dessous les différentes étapes de l’installation :

  • Installation d’un version d’Ubuntu Server 8.04 sur chaque serveur comme socle de base.
  • Installation d’OpenVZ :
apt-get install linux-openvz vzctl
  • Suppression des version des linux-image qui ne sont plus nécessaires :
apt-get remove --purge --auto-remove linux-image-.*server
  • Modification du fichier /etc/sysctl.conf pour le paramétrage réseaux des machines virtuelles, en rajoutant les lignes ci dessous :
vi /etc/sysctl.conf
# On Hardware Node we generally need
# packet forwarding enabled and proxy arp disabled
net.ipv4.conf.default.forwarding=1
net.ipv4.conf.default.proxy_arp=1
net.ipv4.conf.eth0.proxy_arp=1
net.ipv4.ip_forward=1
# Enables source route verification
net.ipv4.conf.all.rp_filter = 1
# Enables the magic-sysrq key
kernel.sysrq = 1
# TCP Explict Congestion Notification
#net.ipv4.tcp_ecn = 0
# we do not want all our interfaces to send redirects
net.ipv4.conf.default.send_redirects = 1
net.ipv4.conf.all.send_redirects = 0
  • Prise en compte des nouveaux paramètres réseaux :
sysctl -p

(more…)

Edito du 26/11/2011

0 comments

Posted on 26th novembre 2011 by cschwartz in # Edito

, ,

Bonjour à tous !

Comme toute les semaines voici un petit résumé concernant le site en lui même :

  • Ouverture d’un compte Twitter pour ThorAndCo
  • Intégration de mes Tweek dans le blog
  • Ajout du bouton Twitter pour me suivre

Concernant les articles, pas trop eu le temps cette semaine, trop chose d’un point de vue professionnel pour me consacrer à la rédaction d’article. Par contre je peux déjà vous annoncer un article à venir avec un peu de change aujourd’hui ou demain sur l’installation d’OpenVZ sur deux serveurs et le tout administré via une interface déportée via OpenVZ Web Panel.

A bientôt