Bonjour

Depuis toujours j’utilisais le mail pour faire de l’alerting. J’étais conscient que cela n’était pas efficace mais c’est aussi ce qui est plus natif dans l’ensemble des applications (Supervision, Sauvegardes…)

Après avoir tester pas mal de choses comme le tweet sur un compte privé, j’ai décidé de trouver quelques choses de plus efficaces, je suis tombé sur Slack qui est en premier une plate-forme de communication collaborative mais qui propose pas mal de possibilités.

Slack a l’avantage de pouvoir créer via l’API des Incoming Webhooks dédiés à un channel permettant de catégoriser les messages en fonction de ses propres critères.

Je ne vais pas faire un article technique mais plutôt partager avec vous ma façon de faire et t’intégrer ça dans mon alerting quotidien.

Le lien ci dessus est très bien fait pour la mise en place via un simple script, mais je vous mets la syntaxe de base pour information :

curl -X POST \ --data-urlencode 'payload={"text":"Exemple de notification.\nCeci est un message de test."}' \ https://hooks.slack.com/services/T00000000/B00000000/XXXXXXXXXXXXXXX

Dans mon cas dans un premier temps j’ai décidé de dédier un compte Slack pour l’ensemble de l’alerting réseau avec des channels en fonction de la source de la notification. Dans mon cas et au moment ou je vous écris cet article, mes channels sont les suivants :

  • backup : Regroupant tous les logs de sauvegardes ou plus précisément l’état des sauvergardes pour avoir eu vu synthétique et rapide
  • centreon : avec l’ensemble des notifications de ma plateforme de supervision (voir screenshot ci dessous)
  • opnsense : avec les notifications de mon firewall OPNsense
  • proxmox: avec les messages d’alertes, de sauvegardes de l’ensemble de mes serveurs Proxmox
  • qnap: avec les messages de mon Qnap aussi bien les mises à jour disponibles que les alertes techniques
  • rclone : avec tous les logs d’externalisation des mes données via Rclone actuellement vers un compte Hubic 10To
  • syno: avec les messages de mon Synology aussi bien les mises à jour disponibles que les alertes techniques
  • ubiquiti : avec l’alerting des mes produits Ubiquiti comme les AP ou les caméras
  • uptimerobot : avec les messages de supervision externe envoyés par UptimeRobot

Sur un second compte Slack j’ai actuellement deux channels uniquement :

  • home-irobot : m’indiquant la fin du nettoyage de mon aspirateur IRobot Roomba
  • thorandco-blog : me permettant d’avoir un suivi sur la publication des nouveaux articles de ce blog

Vous allez me dire que tout ca n’est pas possible uniquement avec Slack et vous avez raison, il y a pas mal de chose comme par exemple mon firewall ou l’aspirateur qu’on en peut pas interfacer directement, et c’est la que rentre en scène IFTTT en passerelle.

IFTTT est un service web gratuit permettant à ses utilisateurs de créer des chaînes d’instruction simples appelées applets. Une applet est déclenchée par des changements qui interviennent au sein de services web tels que Gmail, Facebook, Instagram ou Pinterest.

Dans notre cas c’est encore une fois les mails qui vont nous sauver. Par exemple une applet peut envoyer un Slack lorsque un compte Gmail reçoit un e-mail marqué d’un label spécifique, c’est cette fonctionnalité que j’utilise pour intercepter tous les notifications d’application ou de service ne pouvant pas simplement envoyer leurs messages vers Slack.

Voila à un rapide résumé de mon système de mon nouveau système de notification basé sur Slack

Slack est tout aussi bien fonctionnel sous Android et me permet donc d’avoir toujours un oeil sur mes notifications peut importe où je me trouve.

Bonne lecture à tous

 

Bonjour

La sauvegarde est un point ultra important pour moi et devrait l’être pour chacun qui gère des données. Ma stratégie de sauvegarde est en adéquation avec mon niveau de sécurité demandé et cet article n’as pas vocation à être généralisable à chacun mais uniquement montrer l’exhaustivité de ma stratégie. Chacun pourra prendre et adapter les différents points à son propre besoin.

Pour moi une stratégie de sauvegarde doit être interne et externe pour garantir un niveau de sécurité satisfaisant.

  • Ma stratégie de sauvegarde en interne

    • Mon Imac, poste de travail principal est sauvegardé de plusieurs manières et à plusieurs endroits :
      • Sur mon QNAP TS-453 Pro (en RAID 5 avec 4 x 3To)
        • En TimeMachine automatiquement toutes les heures
        • De plus toutes les nuits mes données brutes sont sauvegardées via Rsync vers ce même NAS
      • Sur un disque externe en USB
        • Tout les 10 jours via les même processus que sur le QNAP (merci à mon iMac de me le rappeler automatiquement)
        • Avant de partir par exemple en vacances pour pouvoir emmener une copie avec moi dans la boite à gant de la voiture
    • Le reste des machines à la maison sont de serveurs Linux :
      • Les machines virtuelles sont snapshotées toutes les semaines automatiquement via l’hyperviseur Proxmox coeur de mon système de virtualisation (cela correspond à mon besoin de sauvegarde sur ce domaine)
        • Les snapshots sont locaux dans un premier temps
        • Puis dans un second temps, ils sont exportés vers la QNAP
      • Les machines physique comme les hyperviseurs, les fichiers importants (configuration / log / etc…) sont sauvegardées toute les nuits via Rsync vers le QNAP
    • Pour moi un NAS même en RAID 5 reste du stockage, et ne peut en aucun cas garantir la pérennité des données à lui seul
      • Toutes les données en RAID 5 sont automatiquement répliquées toutes les nuits vers un autre NAS Synology servant de backup au point central de mon stockage
      • C’est stratégie de sauvegarde avec différents points de redondance des données mais à mon goût encore incomplète, c’est la qu’intervient la sauvegarde externalisée quotidienne
    • Depuis que l’intégralité des hébergements aussi bien à domicile, qu’en datacenter sont reliés via un réseau OpenVPN (un article à venir sur le sujet expliquera sa mise en place), je ne fais plus de distinction entre les serveurs en local ou à distance d’un point de vue sauvegarde.
  • Ma stratégie de sauvegarde en externe

    • Ca fait un bout de temps que j’externalise mes données, au début les plus sensibles par faute de place et d’une solution pérenne et puis les années passant je me suis rendu comptes qu’aucune donnée n’est plus importante qu’une autre et qu’il fallait externaliser la totalité de mon stockage
    • Pour moi je différencie deux sortes d’externalisation de mes données :
      • Un simple cloud type Dropbox / Hubic etc… pour rendre des données accessibles de n’importe quel endroit , pour ma part c’est un mix des deux fournisseurs pour l’instant :
        • Dropbox (8Go) dans mon cas me sert à l’envoi des photos et videos de l’ensemble de nos périphériques de type téléphones et tablettes
          • Un jour j’espère abandonner cette solution, mais pour l’instant Hubic ne permet pas l’upload des vidéos en automatique contrairement aux photos
        • Hubic (25 Go) pour l’ensemble des données à synchroniser et accessible depuis n’importe quel périphérique
        • Après avoir fait des tests avec un OwnCloud puis NextCloud auto-hébergé , je ne vois pas l’utilité pour des données peu sensibles de gérer mon propre Cloud (je le fais pour des besoins de certains de mes clients dans le cadre de mon auto-entreprise)
        • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

        • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
          • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
            • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
            • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)
      • Et le stockage dit à froid, qui consiste à stocker mes données dont je n’aurais pas besoin sauf en cas exceptionnel comme dans le cas d’une perte des la totalité des sauvegardes locales.

      • Après avoir testé pas mal de solution en tout genre pour externalisé mes données, je crois que j’ai enfin trouvé une solution qui complète ma stratégie de sauvegarde :
        • Pour rappel toute mes données sont centralisées sur mon NAS, c’est donc ces données qui sont toujours à jour qu’il faut exporter :
          • Pour ma part j’ai donc décidé d’utilisé un compte Hubic dédié au stockage à froid de 10 To (pour 5 euros par mois ou 50 euros l’année)
          • La solution retenue pour transférer mes données est l’utilisation du logiciel Rclone qui permet en même temps de chiffrer les données pour un stockage en sécurité (un article est à venir sur le blog à ce sujet)

A priori je n’ai rien oublié, mais une stratégie de sauvegarde n’est pas quelque chose de figée, mais celle-ci doit évoluer dans le temps.

Je mettrais donc cet article à jour en fonction des évolutions de mon architecture future.

Bonne lecture à tous

Bonjour à tous

Un rapide petit article pour vous faire part de la dernière évolution de mon plan de sauvegarde.

Depuis samedi, j’ai décidé de ne pas continuer l’aventure avec Owncloud et cela malgré le cluster actif / passif que j’avais monté.

Je base donc la synchronisation de mes fichiers uniquement sur hubiC actuellement une 10aine de giga sur le 50 Go disponible suite aux parrainages.

Dropbox me sert toujours à l’envoi des photos & vidéos depuis nos téléphones et nos tablettes pour pouvoir les sauvegarder et les rapatrier facilement et rapidement sur mon iMac.

Owncloud n’est pas totalement exclu de mon infrastructure mais reste actuellement en arrière plan, je reste à l’écoute des évolutions à venir.

Bonne journée et bonne lecture

 

Bonjour à tous

Un rapide petit article pour vous faire part de la dernière évolution de mon plan de sauvegarde.

Depuis samedi, OVH a enfin mis à jour ses versions de hubiC en ajoutant la possibilité de paramétrer un proxy avec authentification.

Donc enfin exploitable de partout pour moi. J’ai donc procéder le week-end passé à la migration des mes données depuis Dropbox vers hubiC passant ainsi naturellement de 8 Go gratuit (vive le parrainage) à 25 Go (voir déjà 30 Go avec le parrainage) et pouvant profiter de l’offre d’hubiC à 1€ pour 100 Go.

Dropbox me sert aujourd’hui uniquement à l’envoi des photos & vidéos depuis nos téléphones et nos tablettes pour pouvoir les sauvegarder et les rapatrier facilement et rapidement sur mon iMac.

Bonne journée et bonne lecture

 

Bonjour

Cela fait un bout de temps que je voulais faire cet article pour présenter le plan de sauvegarde et de replication de mes données.

J’ai voulu attendre de stabiliser mon architecture pour pouvoir tester et valider avant de vous en faire part.

Plusieurs sauvegardes sont parallélisées sur mon infrastructure LAN & WAN :

Pour la partie LAN, nous avons les sauvegardes suivantes :

Pour la partie WAN, nous avons les sauvegardes ci dessous :

  • Pour les deux serveurs dédiés chez OVH sous Proxmox, ils sont sauvegardés toutes les nuits vers le NAS Qnap TS-439 Pro, via un VPN monté à la demande.
  • Les deux serveurs Proxmox hébergent chacun des machines virtuelles. Celles ci sont sauvegardées à tour de rôles chaque nuit via des Snapshots. Ce roulement me permet en une semaine d’avoir une sauvegarde de chaque machine virtuelle et permet l’export dans la nuit via la sauvegarde des deux serveurs physiques.
  • De plus le dernier Snapshot de chaque serveurs Proxmox sont exportés vers l’autre serveur Proxmox pour pouvoir restaurer rapidement via le réseaux rapide d’OVH des machines en cas de crash total d’un serveur physique.

De plus il y a des sauvegardes entre le LAN & WAN :

  •  Chaque nuit les données importantes sont exportés via Rsync vers deux machines virtuelles hébergées chacune sur un des deux serveurs Proxmox de chez OVH.

Le “cloud” est aussi présent dans mon architecture via Dropbox et hubiC :

  • Certaines de mes données doivent être synchronisées sur toutes mes machines donc il y a des années j’ai ouvert un compte Dropbox que j’utilise tous les jours.
  • Ces données sont sauvegardées dans un premier temps dans les sauvegardes des machines connectées à Dropbox mais aussi synchronisées toutes les 30 minutes vers hubiC de chez OVH qui sera un jour le remplacement de Dropbox. Hélas à ce jour pas de possibilité de mettre un proxy avec identification, ce qui est bloquant sur pas mal de réseaux.
  • Dropbox est aussi synchronisé sur le NAS Qnap TS-439 Pro ce qui permet aussi d’avoir les données sur un Raid 5.

Au final une dernière sauvegarde existe vers un disque USB :

  • Ce disque USB de 1,5 To est sur mon bureau relié à mon iMac. Ce disque me suit partout lors de mes grands déplacements, par exemple dans la boite à gants de la voiture pour les vacances, celui si est divisé en deux partitions.
    • Une première partition pour un TimeMachine
    • Une seconde partition contenant les sauvegardes des données brutes de l’iMac via Rsync

Je pense n’avoir rien oublié, mais on ne sait jamais, bien-sur toutes ces sauvegardes sont automatisées.

Bonjour

Actuellement j’ai un cluster de deux nœuds sous Proxmox, que l’on va appeler pour l’article :

  • Proxmox-1 : 192.168.0.11
  • Proxmox-2 : 192.168.0.12

Suite a des changements de boitier du nœuds Proxmox-1, j’ai le connecteur SATA du disque qui a prit un coup, pour l’instant tout va bien mais je pense que le changement est proche, pour plus de sécurité.

C’est ce qui m’a amener à me poser la question comment remplacer ce nœud, au cas ou il ne démarrait plus du tout. (sinon actuellement un clone de disque est envisagé)

Mais comme je suis un minimum précautionneux, je me suis dit que j’allais d’abord tester sur autre chose que mon cluster.

La je peux dire merci à Vmware Fusion sur mon iMac, j’ai pu virtualiser trois nœuds Proxmox avec la configuration suivantes :

  • Proxmox-1-Test : 192.168.0.21
  • Proxmox-2-Test : 192.168.0.22
  • Proxmox-1-Test : 192.168.0.21 (éteint dans la première phase de test)

J’ai monté les deux premiers nœuds en cluster, avantage de Proxmox c’est fait en deux commandes, la première sur le Proxmox-1-Test et la seconde sur Proxmox-2-Test

pvecm create Proxmox-Test
 
pvecm add 192.168.0.21

Une fois le cluster opérationnel, j’ai tout simplement éteint la machine Proxmox-1-Test, comme si elle était hors service.

J’ai démarré la machine Proxmox-1-Test de remplacement (même nom et même ip, je veux garder un peu de cohérence), j’ai essayé plusieurs solutions mais voici celle que j’ai retenu.

J’ai commencé par supprimer la configuration Cluster du serveur Proxmox-2-Test avec les commande suivantes :

/etc/init.d/cman stop
Stopping cluster:
   Stopping dlm_controld... [  OK  ]
   Stopping fenced... [  OK  ]
   Stopping cman... [  OK  ]
   Waiting for corosync to shutdown:[  OK  ]
   Unloading kernel modules... [  OK  ]
   Unmounting configfs... [  OK  ]
/etc/init.d/pve-cluster stop
Stopping pve cluster filesystem: pve-cluster.
rm /etc/cluster/cluster.conf
rm -rf /var/lib/pve-cluster/*
rm -rf /etc/pve/nodes/*
/etc/init.d/pve-cluster start
Starting pve cluster filesystem : pve-cluster.
/etc/init.d/cman start

Les machines virtuelles sont toujours opérationnelles à ce moment la sur le nœud Promox-2-Test.

Puis j’ai tout simplement recréé le cluster sur le nouveau nœud Proxmox-1-Test

pvecm create Proxmox-Test

Puis j’ai rajouter le nœud Proxmox-2-Test au nouveau cluster

pvecm add 192.168.0.21

Rien de plus simple pour recréer un cluster tout en gardant le nommage et les ip des noeuds hors service.

Après je vous recommande avant tout, d’exporter les sauvegardes de vos machines virtuelles sur un équipement tiers type NAS pour moi.

Pour restaurer une machine virtuelle en cas de soucis, rien de plus simple il suffit recopier la sauvegarde sur un nouveau nœud Proxmox et de lancer la commande suivante pour réimporter  la machine avec l’id 101 :

qmrestore sauvegarde_101.vma.lzo 101

A très vite