\n
Ce matin, notre infrastructure h\u00e9berg\u00e9e chez OVHCloud a subi les cons\u00e9quences d’un incident sur le r\u00e9seau.<\/p>\n\n\n\n
A la suite de la r\u00e9solution par OVH de son probl\u00e8me, nous avons d\u00fb intervenir pour remettre en fonctionnement nominal notre service. <\/p>\n\n\n\n
L’incident est clos \u00e0 10h55.<\/p>\n<\/div><\/div>\n\n\n\n
Le d\u00e9tail de ce qui s’est pass\u00e9…<\/h2>\n\n\n\n
Dans la nuit, vers 23h00, nous constatons des probl\u00e8mes de routage entre les serveurs de notre infrastructure. Cela g\u00e9n\u00e8re la mise en s\u00e9curit\u00e9 automatique de nos serveurs de production. Nous d\u00e9cidons d’attendre la communication officielle de notre fournisseur OVH.<\/p>\n\n\n\n
T\u00f4t ce matin, OVH indique que l’incident est toujours d’actualit\u00e9.<\/p>\n\n\n\n
Nous activons donc notre mode \u00ab\u00a0urgence\u00a0\u00bb : tous les appels sont pris en charge et nous communiquons sur notre compte Twitter. Les clients de nos serveurs 3CX se voient proposer un renvoi vers un num\u00e9ro de portable. Pour les autres, nous mettons en place des solutions en fonction des besoins.<\/p>\n\n\n\n
10h30 : OVH nous indique la fin de son incident. Nous intervenons pour r\u00e9tablir l’ensemble de nos services. Pendant 20 minutes, les serveurs reprennent leur r\u00f4le et sont fortement ralentis.<\/p>\n\n\n\n
10h55 : Tous les services sont actifs et en fonctionnement normal. Nous faisons une nouvelle v\u00e9rification de bon fonctionnement sur les serveurs complexes.<\/p>\n\n\n\n
Le taux de disponibilit\u00e9 de nos services reste malgr\u00e9 tout tr\u00e8s bon sur un an et nous travaillons dans le but de minimiser l’impact d’un incident. Celui d’aujourd’hui \u00e9tant situ\u00e9 dans le r\u00e9seau au dessus de nos services, il n’est pas possible de l’\u00e9viter (sauf pour les services disposant nativement d’un failover dans un autre datacenter, ce qui est le cas pour notre h\u00e9bergement 3CX Entreprise).<\/p>\n\n\n\n
Nous vous pr\u00e9sentons donc nos excuses pour cet incident et la g\u00eane qu’il a pu occasionner.<\/p>\n","protected":false},"excerpt":{"rendered":"
Ce matin, notre infrastructure h\u00e9berg\u00e9e chez OVHCloud a subi les cons\u00e9quences d’un incident sur le r\u00e9seau.<\/p>\n","protected":false},"author":3,"featured_media":1941,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1940","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-general"],"_links":{"self":[{"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/posts\/1940"}],"collection":[{"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/comments?post=1940"}],"version-history":[{"count":1,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/posts\/1940\/revisions"}],"predecessor-version":[{"id":1942,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/posts\/1940\/revisions\/1942"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/media\/1941"}],"wp:attachment":[{"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/media?parent=1940"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/categories?post=1940"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/wlem.lemnia.net\/wp-json\/wp\/v2\/tags?post=1940"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}