Bonjour

Après plusieurs tests, je ne peux plus avoir confiance en Hubic pour la synchronisation de mes fichiers, en parallèle j’utilisais aussi un compte Dropbox pour l’envoi de mes photos et vidéos depuis mes mobiles (Hubic ne prenant toujours pas en charge l’upload des vidéos).

Deux outils dont un peu fiable et un ou je limite l’usage (condition tarifaire non en adéquation avec mon besoin), ça fait deux outils de trop.

Après avoir mis en place quelques NextCloud en mode Actif/Backup pour mes clients, je décide qu’il est temps de monter la même infrastructure pour mes propres besoins et me passer des principaux acteurs payants du marché.

Ce billet n’as pas pour but de vous donner la procédure d’installation et de configuration de NextCloud (il y a déjà assez de blogs qui le font très bien), mais juste de faire un point sur l’évolution de mon infrastructure.

Donc pour faire court, je suis partie sur deux VM hébergées une à mon domicile en DMZ et une chez OVH (le tout sur deux serveurs Proxmox).

La VM à mon domicile est le serveur NextCloud principal, alors que qui ce trouve chez OVH est en mode backup, la synchronisation ce fait via trois scripts :

  • Le premier est programmé toutes les heures et synchronise les “datas” entre les deux serveurs
  • Le second n’est lancé qu’une fois par jour et permet la synchronisation de la base de données (au final très peu de changements)
  • Le troisième s’exécute une fois par nuit et intégré les données brutes synchronisées dans la base de données du serveur backup

Les deux serveurs sont accessibles via un serveur HAProxy portant le certificat SSL (un article sur ce sujet devrait arriver sous peu). Celui ci est hébergé sur un VPS de chez OVH avec un lien direct OpenVPN vers les deux VM. L’avantage de ce mode d’accès est la bascule rapide sur le second serveur en cas de défaillance du serveur primaire et une gestion simplifié du certificat SSL.

Bonne lecture à tous

 

 

 

Bonjour

Depuis toujours j’utilisais le mail pour faire de l’alerting. J’étais conscient que cela n’était pas efficace mais c’est aussi ce qui est plus natif dans l’ensemble des applications (Supervision, Sauvegardes…)

Après avoir tester pas mal de choses comme le tweet sur un compte privé, j’ai décidé de trouver quelques choses de plus efficaces, je suis tombé sur Slack qui est en premier une plate-forme de communication collaborative mais qui propose pas mal de possibilités.

Slack a l’avantage de pouvoir créer via l’API des Incoming Webhooks dédiés à un channel permettant de catégoriser les messages en fonction de ses propres critères.

Je ne vais pas faire un article technique mais plutôt partager avec vous ma façon de faire et t’intégrer ça dans mon alerting quotidien.

Le lien ci dessus est très bien fait pour la mise en place via un simple script, mais je vous mets la syntaxe de base pour information :

curl -X POST \ --data-urlencode 'payload={"text":"Exemple de notification.\nCeci est un message de test."}' \ https://hooks.slack.com/services/T00000000/B00000000/XXXXXXXXXXXXXXX

Dans mon cas dans un premier temps j’ai décidé de dédier un compte Slack pour l’ensemble de l’alerting réseau avec des channels en fonction de la source de la notification. Dans mon cas et au moment ou je vous écris cet article, mes channels sont les suivants :

  • backup : Regroupant tous les logs de sauvegardes ou plus précisément l’état des sauvergardes pour avoir eu vu synthétique et rapide
  • centreon : avec l’ensemble des notifications de ma plateforme de supervision (voir screenshot ci dessous)
  • opnsense : avec les notifications de mon firewall OPNsense
  • proxmox: avec les messages d’alertes, de sauvegardes de l’ensemble de mes serveurs Proxmox
  • qnap: avec les messages de mon Qnap aussi bien les mises à jour disponibles que les alertes techniques
  • rclone : avec tous les logs d’externalisation des mes données via Rclone actuellement vers un compte Hubic 10To
  • syno: avec les messages de mon Synology aussi bien les mises à jour disponibles que les alertes techniques
  • ubiquiti : avec l’alerting des mes produits Ubiquiti comme les AP ou les caméras
  • uptimerobot : avec les messages de supervision externe envoyés par UptimeRobot

Sur un second compte Slack j’ai actuellement deux channels uniquement :

  • home-irobot : m’indiquant la fin du nettoyage de mon aspirateur IRobot Roomba
  • thorandco-blog : me permettant d’avoir un suivi sur la publication des nouveaux articles de ce blog

Vous allez me dire que tout ca n’est pas possible uniquement avec Slack et vous avez raison, il y a pas mal de chose comme par exemple mon firewall ou l’aspirateur qu’on en peut pas interfacer directement, et c’est la que rentre en scène IFTTT en passerelle.

IFTTT est un service web gratuit permettant à ses utilisateurs de créer des chaînes d’instruction simples appelées applets. Une applet est déclenchée par des changements qui interviennent au sein de services web tels que Gmail, Facebook, Instagram ou Pinterest.

Dans notre cas c’est encore une fois les mails qui vont nous sauver. Par exemple une applet peut envoyer un Slack lorsque un compte Gmail reçoit un e-mail marqué d’un label spécifique, c’est cette fonctionnalité que j’utilise pour intercepter tous les notifications d’application ou de service ne pouvant pas simplement envoyer leurs messages vers Slack.

Voila à un rapide résumé de mon système de mon nouveau système de notification basé sur Slack

Slack est tout aussi bien fonctionnel sous Android et me permet donc d’avoir toujours un oeil sur mes notifications peut importe où je me trouve.

Bonne lecture à tous

 

Bonjour

Cet article est venu plus vite que prévu, étant donné que les limites de la licence de mon Firewall UTM Sophos ont été atteinte début avril.

Après plusieurs tests, de différentes solutions c’est la solution OPNsense qui a été retenue, pour remplacer la solution actuelle au cœur de mon réseau.

Cette migration est dans les cartons, mais lors d’un week-end avec un peu de monde à la maison et donc des équipements en wifi en plus sur le réseau, j’ai reçu une alerte de mon firewall Sophos me disant que j’avais atteinte 48 IPs gérés sur 50 maximum. Après validation du support Sophos, il n’y a pas de moyen de réinitialiser la liste des IPs sous licence avec le baux de 7 jours glissants.

Ce point a fait accélérer le remplacement, car je ne pouvais plus garder cette épée de Damoclès sur mon réseau.

La migration a été réalisée sur un week-end en utilisant la même machine (lien ici et ici) que le serveur Sophos en remplaçant juste le disque dur par un nouveau permettant un retour arrière simple rapide et complet en cas de migration partielle en fin du week-end.

Je ne vais pas détailler l’installation en elle-même j’ai tout simplement suivi la documentation officielle disponible sur le site officiel du projet OPNsense.

Par contre je vais essayer de lister les différentes fonctionnalités utilisées sur cette nouvelle solution après un mois de migration, mais avant tout voici un petit rappel sur les connectivités de ce firewall :

  • Une zone LAN, hébergeant les périphérique filaires de mon réseau (ordinateurs, imprimantes, tv etc)
  • Une zone DMZ hébergeant les services accessible aussi bien depuis la zone LAN mais surtout depuis l’extérieur (NAS / Proxmox, etc…)
  • Une zone WLAN, donnant accès à tous les périphérique wifi via une solution de point d’accès Ubiquiti diffusant deux SSID différents dont un tagué Guest.
  • Une zone WAN1 reliée au réseau K-Net Fibre
  • Une zone WAN2 reliée au réseaux Orange en ASDL

Ces deux dernières zones gèrent le multi wan en actif / backup.

Quelles sont les différentes fonctions que j’utilise et que j’ai reprise lors de la re configuration de ce nouvelle machine :

  • La gestion du multi WAN (Fibre & ADSL pour ma part)
  • Le routage
  • Les règles de filtrage entre les différentes zones
  • Le NAT très peu au final car tout passe par le réseau OpenVPN pour l’accès aux données internes depuis l’extérieur. Au final le nat ne sert que d’accès de secours en cas de soucis.
  • Les serveurs DHCP
    • Un pour la zone LAN
    • Un pour la zone WLAN Guest, pour la zone WLAN traditionnelle c’est par filtrage MAC que l’attribution des IPs se fait
  • Le service de DNS Dynamique via OVH DynHOST
  • Les services comme SNMP / Smart / NTP / WOL sont bien sûr activés et utilisés
  • La sauvegarde automatique vers Google Drive (un peu compliqué à mettre en place mais on n’y touche plus après et pour moi une sauvegarde automatique externe est indispensable, le tout bien évidemment chiffré)

De plus par rapport à mon ancien Firewalll UTM Sophos, j’utilise la fonctionnalité de client OpenVPN pour connecter mon réseau domestique à mes hébergeurs externes comme OVH et Aruba Cloud.

Cette fonctionnalité était remplie jusqu’à présent par un machine virtuelle en zone DMZ en attendant mieux, celle ci est devenu inutile à ce jour.

De plus j’ai aussi activé la fonction de Netflow interne pour avoir une vision plus fine des flux transitant par ce firewall.

Après un mois d’utilisation et configuration, je confirme l’efficacité du produit OPNsense, en tout cas il comble à ce jour tous les points de mon cahier de charge.

Il reste encore quelques paramétrages et affinages à faire, mais je suis satisfait du changement et de mon choix.

Bonne lecture

Bonjour à tous

Ce petit article pour faire un point sur mes hyperviseur Proxmox depuis le déménagement d’octobre 2017.

Depuis 2013, je virtualise uniquement via Proxmox chez moi, sur un cluster de deux serveurs HP NL54 Microserver avec chacun 6 go de ram, ce qui me suffisait pour mes besoins et me permettait de pouvoir répartir mes VM en fonction de la charge sur l’un ou l’autre serveur.

Durant mon activité professionnel, j’ai pu récupérer deux nouveaux serveurs pour remplacer mes deux petits cubes qui auront fait leur temps en tant qu’hyperviseur, il est certain qu’ils auront une autre utilité dans les mois à venir (potentiellement un serveur NVR Ubiquiti)

Les nouveaux serveurs sont deux serveurs IBM x3650 M3 rackable et ne prenant qu’un seul U chacun dans la baie informatique, niveau configuration on est aussi largement mieux qu’avant :

  • CPU : 2 x  Intel(R) Xeon(R) CPU L5630 @ 2.13GHz
  • RAM : 80 Go
  • Disque
    • Un premier raid 1 avec deux disque de 68 Go en 10000 tours pour le système
    • Un second raid 5 avec 6 disques de 146 Go soit 680 Go en 10000 tours pour les machines virtuelles
  • Alimentation : 2 alimentations sur deux PDU connecté à deux groupes différents sur l’onduleur
  • Réseau : 4 interfaces gigabits

Les deux serveurs sont rackés mais uniquement le premier est allumé et héberge les machines virtuelles, le second est en backup (mais celui-ci est allumé automatique et mis à jour régulièrement pour qu’en cas de besoin il soit tout de suite opérationnel)

A ce niveau j’ai décidé de ne pas les mettre en cluster car la fonction principale de HA inter nodes est compensé par le fait que les snapshots des machines virtuelles sont disponible sur le QNAP pour les deux serveurs au besoin et que la restauration est rapide.

La migration en elle-même fût super rapide :

  • Sauvegardes des machines virtuelles des deux serveurs HP sur le QNAP
  • Arrêt des deux anciens serveurs (lors du déménagement)
  • Installation du nouveau serveur
    • Proxmox
    • Supervision
    • Automatisation via Ansible
    • Configuration du QNAP en NFS sur ce nouveau serveur pour disposer d’un espace de stockage supplémentaire ainsi que de sauvegarde
  • Restauration des machines virtuelles et démarrage de celles-ci
  • Mise en place des sauvegardes automatiques vers le QNAP

Actuellement je fais tourner sans soucis 11 machines virtuelles Debian avec une consommation des ressources plus que raisonnable :

 

A date de ce jour cette nouvelle machine remplie toutes les fonctions nécessaires à la virtualisation des mes serveurs.

Bonne lecture à tous

Bonjour

La sauvegarde est un point ultra important pour moi et devrait l’être pour chacun qui gère des données. Ma stratégie de sauvegarde est en adéquation avec mon niveau de sécurité demandé et cet article n’as pas vocation à être généralisable à chacun mais uniquement montrer l’exhaustivité de ma stratégie. Chacun pourra prendre et adapter les différents points à son propre besoin.

Pour moi une stratégie de sauvegarde doit être interne et externe pour garantir un niveau de sécurité satisfaisant.

  • Ma stratégie de sauvegarde en interne

    • Mon Imac, poste de travail principal est sauvegardé de plusieurs manières et à plusieurs endroits :
      • Sur mon QNAP TS-453 Pro (en RAID 5 avec 4 x 3To)
        • En TimeMachine automatiquement toutes les heures
        • De plus toutes les nuits mes données brutes sont sauvegardées via Rsync vers ce même NAS
      • Sur un disque externe en USB
        • Tout les 10 jours via les même processus que sur le QNAP (merci à mon iMac de me le rappeler automatiquement)
        • Avant de partir par exemple en vacances pour pouvoir emmener une copie avec moi dans la boite à gant de la voiture
    • Le reste des machines à la maison sont de serveurs Linux :
      • Les machines virtuelles sont snapshotées toutes les semaines automatiquement via l’hyperviseur Proxmox coeur de mon système de virtualisation (cela correspond à mon besoin de sauvegarde sur ce domaine)
        • Les snapshots sont locaux dans un premier temps
        • Puis dans un second temps, ils sont exportés vers la QNAP
      • Les machines physique comme les hyperviseurs, les fichiers importants (configuration / log / etc…) sont sauvegardées toute les nuits via Rsync vers le QNAP
    • Pour moi un NAS même en RAID 5 reste du stockage, et ne peut en aucun cas garantir la pérennité des données à lui seul
      • Toutes les données en RAID 5 sont automatiquement répliquées toutes les nuits vers un autre NAS Synology servant de backup au point central de mon stockage
      • C’est stratégie de sauvegarde avec différents points de redondance des données mais à mon goût encore incomplète, c’est la qu’intervient la sauvegarde externalisée quotidienne
    • Depuis que l’intégralité des hébergements aussi bien à domicile, qu’en datacenter sont reliés via un réseau OpenVPN (un article à venir sur le sujet expliquera sa mise en place), je ne fais plus de distinction entre les serveurs en local ou à distance d’un point de vue sauvegarde.
  • Ma stratégie de sauvegarde en externe

    • Ca fait un bout de temps que j’externalise mes données, au début les plus sensibles par faute de place et d’une solution pérenne et puis les années passant je me suis rendu comptes qu’aucune donnée n’est plus importante qu’une autre et qu’il fallait externaliser la totalité de mon stockage
    • Pour moi je différencie deux sortes d’externalisation de mes données :
      • Un simple cloud type Dropbox / Hubic etc… pour rendre des données accessibles de n’importe quel endroit , pour ma part c’est un mix des deux fournisseurs pour l’instant :
        • Dropbox (8Go) dans mon cas me sert à l’envoi des photos et videos de l’ensemble de nos périphériques de type téléphones et tablettes
          • Un jour j’espère abandonner cette solution, mais pour l’instant Hubic ne permet pas l’upload des vidéos en automatique contrairement aux photos
        • Hubic (25 Go) pour l’ensemble des données à synchroniser et accessible depuis n’importe quel périphérique
        • Après avoir fait des tests avec un OwnCloud puis NextCloud auto-hébergé , je ne vois pas l’utilité pour des données peu sensibles de gérer mon propre Cloud (je le fais pour des besoins de certains de mes clients dans le cadre de mon auto-entreprise)
        • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

        • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
          • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
            • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
            • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)
      • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

      • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
        • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
          • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
          • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)

A priori je n’ai rien oublié, mais une stratégie de sauvegarde n’est pas quelque chose de figée, mais celle-ci doit évoluer dans le temps.

Je mettrais donc cet article à jour en fonction des évolutions de mon architecture future.

Bonne lecture à tous

flashcode-thorandco.fr

Bonjour

De quoi allons nous parler dans les prochains articles… oui le blog est reparti enfin…

  • Un article sur Centreon que j’utilise maintenant pour la supervision de l’ensemble de mon réseau aussi bien interne qu’externe via le VPN
  • Un article pour faire le point sur l’évolution de ma stratégie de sauvegarde
  • Mon changement de serveur Proxmox, soit le passage de mon cluster de deux serveur HP Proliant MicroServer N54L vers un serveur IBM x3650 M3 avec bien plus de ressources (avec un second serveur en backup au besoin)
  • Mon passage de Fabric à Ansible pour la gestion automatisé des machines sous linux (98% des machines utilisées)
  • La mise en place du réseau OpenVPN entre mon réseau domestique, OVH et Aruba Cloud
  • La mise en place de la solution HAProxy pour la gestion de l’accès aux ressources hébergées.
  • La mise en place du SSL sur l’ensemble des accès externes via ACME & Let’s Encrypt le tout intégré dans HAProxy
  • Le remplacement de mon Firewall UTM Sophos qui commence à atteindre les limites de sa licence par une solution basé sur un fork de pfSense nommé OPNsense
  • L’utilisation constante de Git pour chaque serveur pour le suivi des scripts utilisés
  • La mise en place d’une nouvelle solution d’alerting via Slack & IFTTT

Cette article évoluera en fonction des projets à venir

flashcode-thorandco.fr

Bonjour à tous

Pour faire suite au post d’avant, celui a pour but de faire l’état des lieux sur mon infrastructure dite étendue.

En plus de tout ce qui est hébergé à mon domicilie, le reste de mon infra est héberger dans sa majorité chez OVH.

  • Un serveur dédié KS2 sous Proxmox pour les petites choses que je veux hors de chez moi ou en redondance
  • Un second serveurdédié  KS2 mais non utilisé en ce moment (servait de sauvegarde distante jusqu’à peu)
  • Un VPS SSD 1 qui à lui pas mal de fonctions vitales pour le bon fonctionnement
    • HAProxy  over SSL
    • Frontal SSH
    • Serveur OpenVPN

Mais depuis peu je me suis intéressé à l’offre Cloud d’Aruba Cloud à 1€ HT qui est cohérente par rapport à ce qu’il propose pour ce tarif. Actuellement j’ai un VPS pour test chez eux, et si c’est concluant, pourquoi pas utiliser cette solution pour des tests dans un premier temps.

A venir courant de l’année dès que j’ai un peu de temps et testé deux trois solutions techniques :

  • Un second VPS chez OVH pour doubler les fonctionnalités déjà présentes sur le premier et pouvoir basculer l’IP de failover au besoin d’un VPS à l’autre et ainsi assurer une redondance des services
  • Tester la solution d’Aruba Cloud pour évaluer la possibilité de créer une solution de haute disponibilité voir de PRA

Tout ces instances sont en VPN toutes entre elles et avec l’infrastructure auto hébergé chez nous et tous les flux passent par le VPS d’OVH, d’où l’envie et le besoin de sécurisé ce point.

A bientôt pour la suite

flashcode-thorandco.fr

Bonjour à tous….

Ça fait comment dire un sacré moment que j’ai pas pris le temps d’alimenter le blog.

Je pense que je vais faire plusieurs posts pour refaire le point sur l’ensemble de ce que j’utilise et comment.

Dans ce premier post on va faire un état des lieux sur ce qui est hébergé dans la nouvelle maison.

Nous avons déménagé dans notre nouvelle construction le premier octobre 2017, une maison sur plusieurs demi niveau :

  • Un grande cave de 65 m² cloisonnées en plusieurs pièces
  • Un grand garage de 36m²
  • Un RDC de 65 m² comprenant un cellier, une entrée, un WC, un grand salon / salle à manger et enfin une cuisine ouverte
  • Le dessus du garage nous à servi à faire un bureau et une suite parentale de trois pièces (dressing / chambre / une salle de bain)
  • Et enfin l’étage séparé en 4 pièces avec une chambre pour chacune de nos deux filles, une chambre d’amis et une grande salle de bain.

Qui dit nouveau lieu de vie, dit forcément mise à jour de mon infrastructure réseaux.

Déjà lors de la construction, nous avons disposé 48 prises réseaux en Cat 6A dans l’ensemble de la maison et quelques unes extérieures.

L’ensemble des prises arrive dans la cave point central de l’informatique de la maison.

Je vais profiter de ce post pour lister l’ensemble du matériel racké dans la baie 42U de type serveur :

  • Les deux bandeaux de 24 prises RJ45 Cat 6A
  • Une premier switch administrable 48 ports full Giga
  • Une second switch administrable 24 ports full Giga
  • Et enfin un troisième Uniquiti switch 24 ports full Giga POE
  • Une Ubiquiti Cloud Key alimentée en POE
  • Deux APC 8 ports pour gérer l’alimentation de l’ensemble des périphérique de la baie à distance
  • L’arrivée ADSL Orange en backup
  • L’arrivée Fibre 1G actuellement chez K-Net
  • 1 Raspberry pour la gestion des consoles des équipements réseaux
  • Un firewall Sophos UTM avec une licence gratuite, mais qui commence à arriver au limite de la licence entre nombres IP (50 IP gérées sur une durée de 7 jours)
  • Un écran / clavier / souris de chez IBM le tout ne prenant qu’un seul U de la baie
  • Un NAS QNAP TS-453 Pro
  • Un NAS Synology backup du QNAP
  • Deux serveurs HP Proliant MicroServer N54L sous Proxmox actuellement éteint car remplacé par un serveurs IBM x3650 M3
  • Un premier serveur IBM x3650 sous Proxmox me servant à héberger l’ensemble des machines virtuelles
  • Un second serveur IBM x3650 M3 sous Proxmox, lui étant juste en standby au besoin
  • Et enfin un ondueur Eaton 5PX 2200 Netpack pour onduler l’ensemble de la baie
  • Sans oublier des balais passe câbles, des bagues d’identifications pour les tous les câbles, et une multitude des scratchs pour faire ça proprement

En plus de tout ça nous avons dans la maison réparti dans maison :

  • 3 Ubiquiti Networks UAP-AC-PRO répartis dans toute la maison pour la gestion du wifi
  • Un imac 27 mid 2011 mais qui est encore au top avec deux écrans Iiyama G-MASTER G2730HSU-B1 et d’un kit Logitech Z906 – 5.1 pour le son
  • Un ancien écran Dell 24″ qui me sert les jours ou je suis en télétravail
  • Une imprimante Lexmark multifonctions couleur – CX510DE
  • Une seconde imprimante HP OfficeJet 6230
  • Une TV Samsung UE65MU6405 4K UHD dans le salon
  • Une TV Samsung UE46D6530 dans la chambre d’amis

Les évolutions à venir :

  • 1 Ubiquiti Networks UAP-AC-PRO au niveau de la future maison de jardin pour couvrir l’ensemble du jardin en wifi
  • 3 UniFi Video Camera G3 UVC‑G3 à l’extérieure autour de la maison
  • 1 UniFi Video Camera G3 UVC‑G3 dans le garage
  • 1 UniFi Video Camera G3 UVC‑G3 au niveau de la future maison de jardin
  • 1 enceinte Bose SoundTouch 30 Series III pour le RDC
  • Le changement du firewall est aussi à prévoir pour une question de capacitaire.

J’ai essayé d’être aussi exhaustif que possible.

A très vite pour la suite

Bonjour à tous

Ce petit article pour vous dire que la version v4 de Proxmox est sortie, et donc voici un petit article de la marche à suivre pour cette mise à jour depuis une version v3.4.

Voici les grandes nouveautés de cette version v4 :

  • OpenVZ à été remplacé par LXC
  • Nouvelle version de corosync a été implantée
  • Une reconfiguration de gestionnaire d’haute disponibilité a été mis en place
  • Passage d’un kernel 2.6.32 à 4.2.2

Prérequis à la mise à jour :

  • Proxmox 3.4 et ces dernière mises à jour
  • Accès à tous les périphériques de stockage
  • Toutes les VM ou CT doivent être à l’arrêt
  • Une sauvegarde à jour de vos VM ou CT (notez que les CT devront être converties)
  • Au moins 1Go d’espace libre disponible

Mise à jour proprement dite :

On vérifie que notre Proxmox est bien à jour :

apt-get update && apt-get dist-upgrade

Ensuite on supprime ce qu’on a plus besoin pour la version v4:

apt-get remove proxmox-ve-2.6.32 pve-manager corosync-pve openais-pve redhat-cluster-pve pve-cluster pve-firmware

On ajoute les dépôts de Jessie et on les mets à jour :

sed -i 's/wheezy/jessie/g' /etc/apt/sources.list
sed -i 's/wheezy/jessie/g' /etc/apt/sources.list.d/pve-enterprise.list
apt-get update

On installe la nouvelle version du kernel :

apt-get install pve-kernel-4.2.2-1-pve

Maintenant on mets à jour notre système vers Jessie et on redémarre pour prendre en charge la nouvelle version du kernel

apt-get dist-upgrade
reboot

On installe donc la nouvelle version de notre hyperviseur Proxmox :

apt-get install proxmox-ve

Et pour finir on supprime la version obsolète de l’ancien kernel :

apt-get remove pve-kernel-2.6.32-41-pve

Un dernier petit reboot et votre serveur est en v4 :

reboot

Migration des conteneurs OpenVZ vers LXC

On restaure ensuite les conteneurs OpenVZ vers des conteneurs LXC avec la commande :

pct restore 101 /var/lib/vz/dump/vzdump-openvz-101-2015_11_05-10_42_42.tar.lzo

On restaure la configuration IP :

pct set 101 -net0 name=eth0,bridge=vmbr0,ip=192.168.20.101/24,gw=192.168.20.10

Puis on démarre la VM :

pct start 101

Et on y accède via la commande :

pct enter 101

Ou directement via une console :

pct console 101

Voilà j’ai testé tout ça sur un environnement de test et tout semble correct. Je vais donc prévoir la migration des tous mes serveurs Proxmox vers la version v4, dans un premier temps ceux auto-hébergé et dans un second temps ceux sur des serveurs dédiés chez OVH.

Cas d’un cluster de deux serveurs Proxmox

Chez moi j’ai deux serveurs Proxmox en cluster, une fois les deux nœuds mis à jour, il faut reconstruire le cluster avec les commandes suivantes :

Sur le premier nœud du cluster :

pvecm create <nom_du_cluster>

Sur le second ou sur les nœuds suivants du cluster :

pvecm add <ip_du_premier_nœud> -force

Tout est fonctionnel chez moi, voici deux commandes pour visualiser l’état du cluster :

pvecm status
pvecm nodes

Bonne lecture à tous

Bonjour à tous

Un rapide petit article pour vous faire part de la dernière évolution de mon plan de sauvegarde.

Depuis samedi, j’ai décidé de ne pas continuer l’aventure avec Owncloud et cela malgré le cluster actif / passif que j’avais monté.

Je base donc la synchronisation de mes fichiers uniquement sur hubiC actuellement une 10aine de giga sur le 50 Go disponible suite aux parrainages.

Dropbox me sert toujours à l’envoi des photos & vidéos depuis nos téléphones et nos tablettes pour pouvoir les sauvegarder et les rapatrier facilement et rapidement sur mon iMac.

Owncloud n’est pas totalement exclu de mon infrastructure mais reste actuellement en arrière plan, je reste à l’écoute des évolutions à venir.

Bonne journée et bonne lecture