Optimiser la production des statistiques de munin avec squid

Lorsque l’on gère comme moi plusieurs dizaines, voire centaines de serveurs, et que l’on utilise munin, la production des tableaux et graphes de statistiques devient un traitement extrêmement lourd qui peut prendre de longues minutes sur un serveur normal.
Faut-il mettre en oeuvre un énorme serveur juste pour produire les statistiques des machines de votre réseau?
ET même dans ce cas, le délai pour aller chercher les mises à jour sur des dizaines de serveurs prendra quand même du temps, vu que munin scrute les serveurs de manière quasi séquentielle.
Donc la solution la plus efficace est de partager la surveillance sur plusieurs serveurs en installant munin et en adaptant le munin.conf sur chacun, et de gérer une page d’accueil (index.html) commune pour se promener dans l’arborescence des statistiques.
Pour ma part, comme je surveille mes serveurs à distance, pour des raisons de sécurité, j’ai un firewall qui me donne un accès sur une IP unique vers les ports http de mes serveurs internes, et un squid qui oriente les requêtes en fonction de l’URL.
Donc il faut générer une page d’accueil, à partir des /index.html générés par munin, en changeant à chaque fois le href de l’URL avec un code permettant au squid de faire la bonne orientation.
Un peu de awk, du sed, et voila, ça marche, ma page est actualisée toutes 5 minutes, et la navigation dans munin est complètement transparente au fait que les statistiques sont produites sur 2 serveurs au lieu d’un.
Je n’ai plus de limite au nombre de serveurs que je surveille avec munin.
Heureux!

Publié par

Patrick

Architecte Performances des systèmes d'informations Marié, père de 3 enfants

2 réflexions au sujet de « Optimiser la production des statistiques de munin avec squid »

Laisser un commentaire