Bonjour à tous

Ce petit article pour faire un point sur mes hyperviseur Proxmox depuis le déménagement d’octobre 2017.

Depuis 2013, je virtualise uniquement via Proxmox chez moi, sur un cluster de deux serveurs HP NL54 Microserver avec chacun 6 go de ram, ce qui me suffisait pour mes besoins et me permettait de pouvoir répartir mes VM en fonction de la charge sur l’un ou l’autre serveur.

Durant mon activité professionnel, j’ai pu récupérer deux nouveaux serveurs pour remplacer mes deux petits cubes qui auront fait leur temps en tant qu’hyperviseur, il est certain qu’ils auront une autre utilité dans les mois à venir (potentiellement un serveur NVR Ubiquiti)

Les nouveaux serveurs sont deux serveurs IBM x3650 M3 rackable et ne prenant qu’un seul U chacun dans la baie informatique, niveau configuration on est aussi largement mieux qu’avant :

  • CPU : 2 x  Intel(R) Xeon(R) CPU L5630 @ 2.13GHz
  • RAM : 80 Go
  • Disque
    • Un premier raid 1 avec deux disque de 68 Go en 10000 tours pour le système
    • Un second raid 5 avec 6 disques de 146 Go soit 680 Go en 10000 tours pour les machines virtuelles
  • Alimentation : 2 alimentations sur deux PDU connecté à deux groupes différents sur l’onduleur
  • Réseau : 4 interfaces gigabits

Les deux serveurs sont rackés mais uniquement le premier est allumé et héberge les machines virtuelles, le second est en backup (mais celui-ci est allumé automatique et mis à jour régulièrement pour qu’en cas de besoin il soit tout de suite opérationnel)

A ce niveau j’ai décidé de ne pas les mettre en cluster car la fonction principale de HA inter nodes est compensé par le fait que les snapshots des machines virtuelles sont disponible sur le QNAP pour les deux serveurs au besoin et que la restauration est rapide.

La migration en elle-même fût super rapide :

  • Sauvegardes des machines virtuelles des deux serveurs HP sur le QNAP
  • Arrêt des deux anciens serveurs (lors du déménagement)
  • Installation du nouveau serveur
    • Proxmox
    • Supervision
    • Automatisation via Ansible
    • Configuration du QNAP en NFS sur ce nouveau serveur pour disposer d’un espace de stockage supplémentaire ainsi que de sauvegarde
  • Restauration des machines virtuelles et démarrage de celles-ci
  • Mise en place des sauvegardes automatiques vers le QNAP

Actuellement je fais tourner sans soucis 11 machines virtuelles Debian avec une consommation des ressources plus que raisonnable :

 

A date de ce jour cette nouvelle machine remplie toutes les fonctions nécessaires à la virtualisation des mes serveurs.

Bonne lecture à tous

Bonjour

La sauvegarde est un point ultra important pour moi et devrait l’être pour chacun qui gère des données. Ma stratégie de sauvegarde est en adéquation avec mon niveau de sécurité demandé et cet article n’as pas vocation à être généralisable à chacun mais uniquement montrer l’exhaustivité de ma stratégie. Chacun pourra prendre et adapter les différents points à son propre besoin.

Pour moi une stratégie de sauvegarde doit être interne et externe pour garantir un niveau de sécurité satisfaisant.

  • Ma stratégie de sauvegarde en interne

    • Mon Imac, poste de travail principal est sauvegardé de plusieurs manières et à plusieurs endroits :
      • Sur mon QNAP TS-453 Pro (en RAID 5 avec 4 x 3To)
        • En TimeMachine automatiquement toutes les heures
        • De plus toutes les nuits mes données brutes sont sauvegardées via Rsync vers ce même NAS
      • Sur un disque externe en USB
        • Tout les 10 jours via les même processus que sur le QNAP (merci à mon iMac de me le rappeler automatiquement)
        • Avant de partir par exemple en vacances pour pouvoir emmener une copie avec moi dans la boite à gant de la voiture
    • Le reste des machines à la maison sont de serveurs Linux :
      • Les machines virtuelles sont snapshotées toutes les semaines automatiquement via l’hyperviseur Proxmox coeur de mon système de virtualisation (cela correspond à mon besoin de sauvegarde sur ce domaine)
        • Les snapshots sont locaux dans un premier temps
        • Puis dans un second temps, ils sont exportés vers la QNAP
      • Les machines physique comme les hyperviseurs, les fichiers importants (configuration / log / etc…) sont sauvegardées toute les nuits via Rsync vers le QNAP
    • Pour moi un NAS même en RAID 5 reste du stockage, et ne peut en aucun cas garantir la pérennité des données à lui seul
      • Toutes les données en RAID 5 sont automatiquement répliquées toutes les nuits vers un autre NAS Synology servant de backup au point central de mon stockage
      • C’est stratégie de sauvegarde avec différents points de redondance des données mais à mon goût encore incomplète, c’est la qu’intervient la sauvegarde externalisée quotidienne
    • Depuis que l’intégralité des hébergements aussi bien à domicile, qu’en datacenter sont reliés via un réseau OpenVPN (un article à venir sur le sujet expliquera sa mise en place), je ne fais plus de distinction entre les serveurs en local ou à distance d’un point de vue sauvegarde.
  • Ma stratégie de sauvegarde en externe

    • Ca fait un bout de temps que j’externalise mes données, au début les plus sensibles par faute de place et d’une solution pérenne et puis les années passant je me suis rendu comptes qu’aucune donnée n’est plus importante qu’une autre et qu’il fallait externaliser la totalité de mon stockage
    • Pour moi je différencie deux sortes d’externalisation de mes données :
      • Un simple cloud type Dropbox / Hubic etc… pour rendre des données accessibles de n’importe quel endroit , pour ma part c’est un mix des deux fournisseurs pour l’instant :
        • Dropbox (8Go) dans mon cas me sert à l’envoi des photos et videos de l’ensemble de nos périphériques de type téléphones et tablettes
          • Un jour j’espère abandonner cette solution, mais pour l’instant Hubic ne permet pas l’upload des vidéos en automatique contrairement aux photos
        • Hubic (25 Go) pour l’ensemble des données à synchroniser et accessible depuis n’importe quel périphérique
        • Après avoir fait des tests avec un OwnCloud puis NextCloud auto-hébergé , je ne vois pas l’utilité pour des données peu sensibles de gérer mon propre Cloud (je le fais pour des besoins de certains de mes clients dans le cadre de mon auto-entreprise)
        • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

        • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
          • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
            • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
            • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)
      • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

      • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
        • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
          • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
          • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)

A priori je n’ai rien oublié, mais une stratégie de sauvegarde n’est pas quelque chose de figée, mais celle-ci doit évoluer dans le temps.

Je mettrais donc cet article à jour en fonction des évolutions de mon architecture future.

Bonne lecture à tous

Bonjour à tous

Ce petit article pour vous dire que la version v4 de Proxmox est sortie, et donc voici un petit article de la marche à suivre pour cette mise à jour depuis une version v3.4.

Voici les grandes nouveautés de cette version v4 :

  • OpenVZ à été remplacé par LXC
  • Nouvelle version de corosync a été implantée
  • Une reconfiguration de gestionnaire d’haute disponibilité a été mis en place
  • Passage d’un kernel 2.6.32 à 4.2.2

Prérequis à la mise à jour :

  • Proxmox 3.4 et ces dernière mises à jour
  • Accès à tous les périphériques de stockage
  • Toutes les VM ou CT doivent être à l’arrêt
  • Une sauvegarde à jour de vos VM ou CT (notez que les CT devront être converties)
  • Au moins 1Go d’espace libre disponible

Mise à jour proprement dite :

On vérifie que notre Proxmox est bien à jour :

apt-get update && apt-get dist-upgrade

Ensuite on supprime ce qu’on a plus besoin pour la version v4:

apt-get remove proxmox-ve-2.6.32 pve-manager corosync-pve openais-pve redhat-cluster-pve pve-cluster pve-firmware

On ajoute les dépôts de Jessie et on les mets à jour :

sed -i 's/wheezy/jessie/g' /etc/apt/sources.list
sed -i 's/wheezy/jessie/g' /etc/apt/sources.list.d/pve-enterprise.list
apt-get update

On installe la nouvelle version du kernel :

apt-get install pve-kernel-4.2.2-1-pve

Maintenant on mets à jour notre système vers Jessie et on redémarre pour prendre en charge la nouvelle version du kernel

apt-get dist-upgrade
reboot

On installe donc la nouvelle version de notre hyperviseur Proxmox :

apt-get install proxmox-ve

Et pour finir on supprime la version obsolète de l’ancien kernel :

apt-get remove pve-kernel-2.6.32-41-pve

Un dernier petit reboot et votre serveur est en v4 :

reboot

Migration des conteneurs OpenVZ vers LXC

On restaure ensuite les conteneurs OpenVZ vers des conteneurs LXC avec la commande :

pct restore 101 /var/lib/vz/dump/vzdump-openvz-101-2015_11_05-10_42_42.tar.lzo

On restaure la configuration IP :

pct set 101 -net0 name=eth0,bridge=vmbr0,ip=192.168.20.101/24,gw=192.168.20.10

Puis on démarre la VM :

pct start 101

Et on y accède via la commande :

pct enter 101

Ou directement via une console :

pct console 101

Voilà j’ai testé tout ça sur un environnement de test et tout semble correct. Je vais donc prévoir la migration des tous mes serveurs Proxmox vers la version v4, dans un premier temps ceux auto-hébergé et dans un second temps ceux sur des serveurs dédiés chez OVH.

Cas d’un cluster de deux serveurs Proxmox

Chez moi j’ai deux serveurs Proxmox en cluster, une fois les deux nœuds mis à jour, il faut reconstruire le cluster avec les commandes suivantes :

Sur le premier nœud du cluster :

pvecm create <nom_du_cluster>

Sur le second ou sur les nœuds suivants du cluster :

pvecm add <ip_du_premier_nœud> -force

Tout est fonctionnel chez moi, voici deux commandes pour visualiser l’état du cluster :

pvecm status
pvecm nodes

Bonne lecture à tous

Bonjour à tous

Suite à l’article précédent, j’ai reçu mes deux cartes réseaux dual lan full giga ce samedi.


Carte Dual Lan Giga

Les cartes ont été vite installées dans le nouveau serveur, suivi d’une rapide installation de Sophos.

Puis une simple restauration de la configuration de l’ancienne machine a suffit à rendre le nouveau Firewall totalement opérationnel.

Maintenant mon réseau domestique est enfin entièrement en giga.

Bonne journée à tous

 

Bonjour à tous

Mon projet de nouvelle baie réseau arrive quasi à sa fin. Il ne reste plus qu’à changer mon serveur hébergeant mon Firewall Sophos, pour une machine plus puissante et plus récente, et surtout full giga.

J’ai trouvé une machine qui fera très bien l’affaire aussi bien d’un point de vue matérielle, que taille pour rentrer dans ma baie : un Dell Optiplex 380.

Dell Optiplex 380

 

Reste à rajouter deux cartes dual lan full giga, commandé sur DX.com le 7 juillet donc un brin de patience pour pouvoir remplacer définitivement mon firewall.

Winyao WY546T2Ces cartes ont déjà été testé sous Sophos et sont reconnus sans aucun soucis.

Je vous referais un article pour la migration.

 

Bonjour à tous

Ce petit post pour vous faire un rapide résumé sur mon dernier changement de Firewall.

Pendant plus de 10 ans mon infrastructure était gérée par un serveur physique hébergeant la distribution IPCOP. Cette distribution a rempli son boulot, sans aucun soucis, mais n’évoluait plus dans sa version 1.4.21. Un nouvelle version est sortie en 2.x mais nécessitait une totale réinstallation.

J’ai abandonné cette possibilité car la machine hébergeant mon IPCOP était largement obsolète et que cela faisait un bout de temps que je suivait les évolutions de la version UTM Home Edition de Sophos.

Au final la migration entre les deux technologies c’est fait sans soucis.

Description de la version UTM Home Edition

Essential Firewall Edition assure la protection illimitée des adresses IP, ainsi que les fonctions suivantes sans aucune limite dans le temps :

  • Mise en réseau : routeur Internet, établissement de liaisons, serveur et proxy DNS, relais DynDNS et DHCP, prise en charge de NTP, QoS automatique
  • Sécurité réseau : pare-feu avec inspection dynamique et traduction des adresses réseau (DNAT/SNAT/usurpation d’identité).
  • Accès à distance : prise en charge des protocoles PPTP et de L2TP over IPSec (y compris iPhone)
  • Journalisation/édition de rapports : journalisation complète sur le disque dur local, recherches, rapports en temps réel sur le matériel, l’utilisation et la sécurité du réseau, et rapports exécutifs quotidiens
  • Administration : interface utilisateur Web dans la langue locale, assistant de configuration, sauvegarde et restauration des configurations, notifications aux administrateurs, prise en charge du protocole SNMP, gestion centralisée via Sophos UTM Manager (gratuitement).

Cette version remplie toutes mes demandes, que ce soit d’un point de vue routeur, sécurité, possibilité d’accès distant sans oublier les rapports qui sont détaillées automatisables.

Mise en place

Bien tenté par une appliance mais bon il faut savoir être raisonnable, et puis j’avais une machine qui remplissez les demandes niveau matérielles, c’est à dire :

  • Intel(R) Pentium(R) 4 CPU 1.50GHz
  • Un disque dur de 40Go
  • 768 Mb – 1Go serait le top
  • 4 cartes réseaux – LANDMZWLANWAN

Effectivement je fonctionne chez moi avec 4 zones bien distinctes dans mon réseau.

Ensuite rien de plus simple, il suffit de s’inscrire sur le site et de télécharger le fichier ISO et le fichier de licence.

Et ensuite un petit boot sur l’iso et l’installation est faite en 10 min et accessible ensuite via :

  • SSH : ssh loginuser@ip_sophos
  • Web : https://ip_sophos:4444

sophos-web

L’interface web est très fluide et assez bien fini, on retrouve rapidement ce qu’on cherche dans les différentes rubriques du menu de gauche.

Utilisation au quotidien

Je l’utilise maintenant depuis un petit mois sans aucun soucis. Voici les fonctionnalités que j’utilise à ce jour :

Onglet Gestion

  • Up2Date : Mise à jour automatique
  • Sauvegarde / Restauration : Avec mise en place d’un export de la conf par mail toutes les nuits
  • Notification : Par mail via la configuration d’un serveur SMTP
  • SNMP : Configuration pour interrogation SNMP à distance

Définitions & utilisateurs

  • Gestion des réseaux : Définition des réseaux et des hôtes entre autre pour la réservation DHCP via les adresses MAC
  • Gestions de services : Définition des services pour les règles de filtrage
  • Utilisateurs & groupes : Définitions de utilisateurs locaux ou VPN

Interfaces & routage

  • Interfaces : Gestions des interfaces physiques ou virtuelles

Services réseau

  • DNS : Gestion des DNS externes et gestions des services DNS sur les différentes zones
  • DHCP : Gestion de l’attribution des adresses via DHCP pour moi dans mon LAN et WLAN
  • NTP : Gestion des serveurs de temps pour les machine des réseaux LAN et DMZ

Networking Protection

  • Pare-feu : Gestion de règles de filtrage, blocage de pays d’un point de vue IP
  • NAT : Mise en place du Masquerading et du Network Adress Translation
  • Advanced Threat Protection : Activation de la recherche de menaces sur les réseaux gérés par l’UTM Home Edition de Sophos
  • Prévention des intrusions : Activation de l’IPS sur les trois réseaux internes / Anti-DoS / Anti-Portscan…

Web Protection

Pour l’instant non utilisé mais va être utilisé pour faire du filtrage pour de contenu entre autre pour la mise en place d’un contrôle parentale.

Email Protection

Pour l’instant non utilisé.

Endpoint Protection

Pour l’instant non utilisé.

Wireless Protection

Pour l’instant non utilisé.

Webserver Protection

Pour l’instant non utilisé.

Red Protection

Pour l’instant non utilisé.

VPN site à site

Pour l’instant non utilisé.

Accès à distance

  • L2TP sur IPSec : Mise en place d’accès distant via un VPN pour certains utilisateur

Journaux et rapports

L’ensemble des catégories de ce menu est utilisé en fonction de l’information recherchée.

Un rapport journalier est envoyé par mail ainsi qu’un hebdomadaire et mensuel.

De plus toutes les nuits, l’ensemble des logs est exporté sur une NAS pour sauvegarde.

Conclusion

Actuellement cette gamme de pare-feu remplie totalement mes espérances, aussi bien par ses fonctionnalités diverses et variées que par son ergonomie et son mode de fonctionnement.

Je reviendrais vers vous pour faire un point d’ici quelques mois de fonctionnement et peut être l’activation de nouvelles fonctionnalités

 

Bonjour à tous

Depuis quelque temps j’utilise Proxmox comme solution de virtualisation que ce soit chez moi ou sur mes serveurs OVH, et depuis peu pour des clients.

Ce dernier point m’a poussé à mettre en place une double authentification via OTP (One Time Password).

Rien de plus simple vu que déjà présent en natif dans la distribution Proxmox et que la mise place ne prends que deux minutes.

Dans un premier temps se connecter en SSH sur le serveur et lancer la commande suivante pour générer une clé :

root@Proxmox:~# oathkeygen
RXRYWAHMGO64C7JZ

Une fois cette clé générée il faut se rendre dans l’interface web du serveur, dans le menu Authentification et éditer la ligne PAM pour choisir dans le menu TFA : OATH.

proxmox-otp-001Une fois cette option activée il suffit d’aller renseigner la clé générée avant en ssh dans l’utilisateur, ici root

proxmox-otp-002Il ne reste plus qu’à se déconnecté et à la prochaine connections l’OTP sera nécessaire en plus du mot de passe habituel.

proxmox-otp-003

D’un point de vue application client pour la génération de l’OTP, j’utilise pour ma part Google Authentificator sur mon téléphone portable et sur mon iMac je préfère OTP Manager.

En cas de soucis, il est toujours possible en SSH de désactiver cette fonctionnalité via en commentant une ligne dans le fichier /etc/pve/domains.cfg :

nano /etc/pve/domains.cfg
#tfa type=oath

Bonne journée

Bonjour à tous,

Ca faisait un petit bout de temps que je n’avais rien publié comme article, le temps de me manque…

Je suis tombé sur une petite application hier, et fallait absolument que vous en parle : GoAccess Visual Web Log Analyzer

Rien de plus qu’un utilitaire d’analyse de log en temps réel pour serveurs web, mais avec une simplicité d’utilisation très appréciable.

GoAccess utilise les fichiers de logs de Nginx & Apache pour collecter les données. GoAccess affiche les statistiques dans la console. Les rapports générés comprennent:

  • Statistiques générales, bande-passante,…
  • Top Visiteurs
  • Fichiers demandés
  • Fichiers demandés statiques
  • Referrers URLs
  • 404 Not Found
  • Operating Systems
  • Browsers et Spiders
  • Hosts, Reverse DNS, IP
  • HTTP Status Codes
  • Sites Référant
  • Mots clés

Installation

Pour l’installer sur Ubuntu ou Debian, rien de plus simple, il suffit exécutez la commande

apt-get install goaccess

Ou alors à partir des sources :

wget http://downloads.sourceforge.net/project/goaccess/0.7.1/goaccess-0.7.1.tar.gz 
tar -xzvf goaccess-0.7.1.tar.gz 
cd goaccess-0.7.1/ 
./configure --enable-geoip --enable-utf8
make
make install

Et sinon la page d’instruction est très bien détaillée

Utilisation

Pour utiliser GoAccess, utilisez cette commande qui indique au passage le chemin du fichier de log du serveur :

goaccess -f /var/log/apache2/access_log
goaccess -f /var/log/nginx/access_log

goaccess,png

Pensez ensuite à utiliser les flèches de direction de votre clavier de haut en bas, pour visualiser l’ensemble des statistiques.

L’option -e permet d’exclure des IP de l’analyse.

D’autres options sont disponibles (consommation bande passante, User Agent…).
Pour plus d’infos :

man goaccess

Bonne lecture à tous et à très vite

Bonjour à tous

Ce post express juste pour vous informer que Proxmox à rajouter une fonction de support payante (optionnelle) et a pousser de nouveau repository, qui posent problème lorsque l’on a pas souscrit à un support.

root@Proxmox-1:~# apt-get update
Hit http://ftp.fr.debian.org wheezy Release.gpg
Hit http://download.proxmox.com wheezy Release.gpg
Hit http://security.debian.org wheezy/updates Release.gpg
Hit http://download.proxmox.com wheezy Release
Hit http://security.debian.org wheezy/updates Release
Hit http://ftp.fr.debian.org wheezy Release
Hit http://download.proxmox.com wheezy/pve amd64 Packages
Hit http://security.debian.org wheezy/updates/main amd64 Packages
Hit http://security.debian.org wheezy/updates/contrib amd64 Packages
Hit http://ftp.fr.debian.org wheezy/main amd64 Packages
Hit http://security.debian.org wheezy/updates/contrib Translation-en
Hit http://security.debian.org wheezy/updates/main Translation-en
Hit http://ftp.fr.debian.org wheezy/contrib amd64 Packages
Hit http://ftp.fr.debian.org wheezy/contrib Translation-en
Ign https://enterprise.proxmox.com wheezy Release.gpg
Hit http://ftp.fr.debian.org wheezy/main Translation-en
Ign http://download.proxmox.com wheezy/pve Translation-en_US
Ign http://download.proxmox.com wheezy/pve Translation-en
Ign https://enterprise.proxmox.com wheezy Release
Err https://enterprise.proxmox.com wheezy/pve-enterprise amd64 Packages
The requested URL returned error: 401
Ign https://enterprise.proxmox.com wheezy/pve-enterprise Translation-en_US
Ign https://enterprise.proxmox.com wheezy/pve-enterprise Translation-en
W: Failed to fetch https://enterprise.proxmox.com/debian/dists/wheezy/pve-enterprise/binary-amd64/Packages  The requested URL returned error: 401
E: Some index files failed to download. They have been ignored, or old ones used instead.

Pour parer ce problème il suffit de désactiver les sources dédiées en ajoutant un # dans le fichier :

nano /etc/apt/sources.list.d/pve-enterprise.list
 
#deb https://enterprise.proxmox.com/debian wheezy pve-enterprise

Ce petit changement vous rends votre serveur opérationnel comme avant.

root@Proxmox-1:~# apt-get update
Hit http://ftp.fr.debian.org wheezy Release.gpg
Hit http://security.debian.org wheezy/updates Release.gpg     
Hit http://ftp.fr.debian.org wheezy Release                                              
Hit http://security.debian.org wheezy/updates Release                                    
Hit http://security.debian.org wheezy/updates/main amd64 Packages                                              
Hit http://ftp.fr.debian.org wheezy/main amd64 Packages                                  
Hit http://security.debian.org wheezy/updates/contrib amd64 Packages            
Hit http://ftp.fr.debian.org wheezy/contrib amd64 Packages                      
Hit http://download.proxmox.com wheezy Release.gpg
Hit http://security.debian.org wheezy/updates/contrib Translation-en      
Hit http://download.proxmox.com wheezy Release                            
Hit http://security.debian.org wheezy/updates/main Translation-en         
Hit http://ftp.fr.debian.org wheezy/contrib Translation-en
Hit http://download.proxmox.com wheezy/pve amd64 Packages
Hit http://ftp.fr.debian.org wheezy/main Translation-en
Ign http://download.proxmox.com wheezy/pve Translation-en_US
Ign http://download.proxmox.com wheezy/pve Translation-en
Reading package lists... Done

De plus pour éviter le message au login sur l’interface web, il suffit d’éditer le fichier

nano/usr/share/pve-manager/ext4/pvemanagerlib.js

et de commenter les lignes suivantes

//              if (data.status == 'Active') {
//                  Ext.Msg.show({
//                      title: gettext('No valid subscription'),
//                      icon: Ext.Msg.WARNING,
//                      msg: PVE.Utils.noSubKeyHtml,
//                      buttons: Ext.Msg.OK,
//                      callback: function(btn) {
//                          if (btn !== 'ok') {
//                              return;
//                          }
//                          orig_cmd();
//                      }
//                  });
//              } else {
//                  orig_cmd();
//              }

Sans oublier de relancer le pvedaemon avec la commande :

/etc/init.d/pvedaemon restart

Bonne journée à tous

Bonjour

Actuellement j’ai un cluster de deux nœuds sous Proxmox, que l’on va appeler pour l’article :

  • Proxmox-1 : 192.168.0.11
  • Proxmox-2 : 192.168.0.12

Suite a des changements de boitier du nœuds Proxmox-1, j’ai le connecteur SATA du disque qui a prit un coup, pour l’instant tout va bien mais je pense que le changement est proche, pour plus de sécurité.

C’est ce qui m’a amener à me poser la question comment remplacer ce nœud, au cas ou il ne démarrait plus du tout. (sinon actuellement un clone de disque est envisagé)

Mais comme je suis un minimum précautionneux, je me suis dit que j’allais d’abord tester sur autre chose que mon cluster.

La je peux dire merci à Vmware Fusion sur mon iMac, j’ai pu virtualiser trois nœuds Proxmox avec la configuration suivantes :

  • Proxmox-1-Test : 192.168.0.21
  • Proxmox-2-Test : 192.168.0.22
  • Proxmox-1-Test : 192.168.0.21 (éteint dans la première phase de test)

J’ai monté les deux premiers nœuds en cluster, avantage de Proxmox c’est fait en deux commandes, la première sur le Proxmox-1-Test et la seconde sur Proxmox-2-Test

pvecm create Proxmox-Test
 
pvecm add 192.168.0.21

Une fois le cluster opérationnel, j’ai tout simplement éteint la machine Proxmox-1-Test, comme si elle était hors service.

J’ai démarré la machine Proxmox-1-Test de remplacement (même nom et même ip, je veux garder un peu de cohérence), j’ai essayé plusieurs solutions mais voici celle que j’ai retenu.

J’ai commencé par supprimer la configuration Cluster du serveur Proxmox-2-Test avec les commande suivantes :

/etc/init.d/cman stop
Stopping cluster:
   Stopping dlm_controld... [  OK  ]
   Stopping fenced... [  OK  ]
   Stopping cman... [  OK  ]
   Waiting for corosync to shutdown:[  OK  ]
   Unloading kernel modules... [  OK  ]
   Unmounting configfs... [  OK  ]
/etc/init.d/pve-cluster stop
Stopping pve cluster filesystem: pve-cluster.
rm /etc/cluster/cluster.conf
rm -rf /var/lib/pve-cluster/*
rm -rf /etc/pve/nodes/*
/etc/init.d/pve-cluster start
Starting pve cluster filesystem : pve-cluster.
/etc/init.d/cman start

Les machines virtuelles sont toujours opérationnelles à ce moment la sur le nœud Promox-2-Test.

Puis j’ai tout simplement recréé le cluster sur le nouveau nœud Proxmox-1-Test

pvecm create Proxmox-Test

Puis j’ai rajouter le nœud Proxmox-2-Test au nouveau cluster

pvecm add 192.168.0.21

Rien de plus simple pour recréer un cluster tout en gardant le nommage et les ip des noeuds hors service.

Après je vous recommande avant tout, d’exporter les sauvegardes de vos machines virtuelles sur un équipement tiers type NAS pour moi.

Pour restaurer une machine virtuelle en cas de soucis, rien de plus simple il suffit recopier la sauvegarde sur un nouveau nœud Proxmox et de lancer la commande suivante pour réimporter  la machine avec l’id 101 :

qmrestore sauvegarde_101.vma.lzo 101

A très vite