Panne des sites de presse français : que s’est-il passé chez Oxalide ?

Panne des sites de presse français : que s’est-il passé chez Oxalide ?

Jean Kévin a encore frappé !

Avatar de l'auteur
Guénaël Pépin

Publié dans

Internet

20/01/2015 6 minutes
63

Panne des sites de presse français : que s’est-il passé chez Oxalide ?

Vendredi dernier, les sites d’une partie de la presse française ont été indisponibles pendant plusieurs heures. Au cœur de cette panne qui a rapidement pris une ampleur importante : Oxalide. L’hébergeur gère en effet de très nombreux sites français, dont plusieurs grands médias. Si l’entreprise a écarté la piste d’une attaque extérieure, elle n’a laissé filtrer que peu de détails sur ce qu'il s’est passé. Nous avons voulu en savoir plus.

France Info, Le Parisien, L’Express, 20minutes, Marianne, Slate, Mediapart, Gamekult, ZDNet, mais aussi Alinea ou Sushi Shop. Voilà une partie des victimes de la panne qui a touché le réseau de l’hébergeur Oxalide vendredi 16 janvier, laissant leurs sites hors-ligne toute la matinée. « Le 16 janvier à 10h, l’infrastructure de cœur de réseau a subi des dysfonctionnements qui ont impacté l’intégralité de nos clients pendant 90 minutes. […] La totalité des sites et services hébergés par Oxalide était de nouveau disponible à midi » expliquait l'hébergeur dans un billet de blog publié le jour-même.

Avec la vague de défigurations de sites qui a eu lieu sur le web français quelques jours plus tôt, beaucoup ont craint qu’Oxalide ait été victime d’une attaque extérieure. Certains avançant même leurs propres explications de l’incident. « Envisagée dans un premier temps, du fait de l’actualité, une attaque de type DDoS, rapidement identifiable, a pu être écartée » répond l’hébergeur. Le problème vient bien de son propre réseau.

Que s’est-il passé ?

« À 9h30, on a commencé à avoir les premiers cris dans la rédaction, ce qui est souvent un premier symptôme ! » nous explique Didier Cros, directeur des opérations au Parisien. Le site est ensuite redevenu accessible à 12h15. « On a à peu près eu 2h30 de déconnexion. C’est beaucoup trop long, et très, très dur pour un site d’info. Surtout dans une période aussi chargée en termes d'actualité. Techniquement parlant, c'est plutôt une belle réaction » estime-t-il.

Concrètement, le réseau d’Oxalide a simplement disparu d’Internet, comme l’explique en détail le spécialiste Stéphane Bortzmeyer sur son blog. Dans les faits, les routeurs d’Oxalide ont arrêté d’annoncer les bonnes routes vers les serveurs où sont hébergés les sites peu avant 9h. Une fois ces routes perdues, le réseau est hors du Net. Les routeurs tentent à la chaine des routes connues, avant de se résigner. Les bonnes routes sont ré-annoncées par les équipements d’Oxalide vers 10h20, pour 1h30 de déconnexion. « Il n'y avait plus d'annonce BGP durant l'incident » confirme un client de l’hébergeur, qui a obtenu les mêmes données.

Cette version est également confirmée par le spécialiste des datacenters Zayo (ex-Neotelecoms), qui héberge des serveurs d’Oxalide. « Ce sont les routeurs d’Oxalide qui ont été touchés, alors que les routeurs de nos autres clients ont continué à fonctionner normalement », expliquait ainsi la société à ZDNet vendredi.

À l’origine de l’incident, une erreur. « Un câble branché là où il ne fallait pas » nous explique un client de l’hébergeur, sur la foi du rapport d’incident. « Oxalide confirme l’erreur humaine. Une erreur de brassage (de connexion des câbles réseau aux routeurs) qui a généré un broadcast storm, une ‘tempête de réseau’. La mauvaise connexion envoie des infos qui n’ont pas lieu d’être sur des équipements qui les renvoient vers d’autres, jusqu’à saturer le réseau » affirme-t-il. Ce déroulement nous a été confirmé par un second client.

La panne a touché le réseau d’administration, qui permet à Oxalide de gérer sa plateforme. L’hébergeur était ainsi coupé de sa propre plateforme. « Ils ont éteint le réseau d’administration » qui commande entre autres l’envoi des routes jusqu’aux serveurs hébergeant les clients, nous explique-t-on encore.

Même si l’accès était restauré vendredi après-midi, il était encore instable pour certains clients. Le groupe CUP Interactive (ZDNet, Cnet, Gamekult) a par exemple eu des difficultés avec son CMS (interface de gestion de contenus) même une fois les sites rétablis. Les clients d’Oxalide étaient accessibles via « des solutions de contournement », selon l’hébergeur qui travaillait à régler le problème et rétablir un accès pérenne.

Des instabilités ont également été notées chez d’autres clients durant l’après-midi. L'hébergeur a ainsi dû identifier le problème le matin et annoncer de nouvelles routes, et ce, sans son système d'administration.

« Je ne leur retire pas ma confiance »

Une question se pose alors : pourquoi autant de sites de presse sont-ils chez Oxalide, au risque de voir une grande partie des sources d'informations françaises disparaître du web en cas de problème ? « Parce qu’ils correspondent à ce que tout le monde cherche : de l’infogérance pendant que les équipes des sites diminuent. Ce ne sont pas les moins chers, on est loin du low cost. Ce serait une erreur de croire que tout le monde y est pour le prix » affirme Emmanuel Parody, directeur des rédactions de CUP Interactive. Lorsqu’ils ont quitté le groupe CBS début 2014, les sites qu’il dirige ont dû entièrement migrer vers une nouvelle plateforme, ce qu’Oxalide aurait selon lui bien géré.

Pour lui, le succès d’Oxalide tient à un bon bouche à oreille entre responsables techniques qui ont besoin de soutenir de fortes montées en charge. Un contrat qui a été en partie rompu vendredi. « On est tous refroidis, mais ils ont géré les choses en toute transparence. Je ne leur retire pas ma confiance » assure-t-il. « L’incident de vendredi ne changera rien. Le zéro défaut n’existe pas. Ils ont eu une gestion de la crise très propre par rapport à ce que j’ai vu ailleurs » appuie Didier Cros du Parisien, qu'Oxalide a appelé à plusieurs reprises dans la journée.

Ce n’est pourtant pas l’avis d’autres clients, pour qui il s’agit du problème de trop. « La confiance que nous avions dans cet hébergeur a été plusieurs fois mise à mal et cette fois, ce sera sûrement la dernière » nous affirme l’un d’eux. Pour se prémunir d’une redite, l’hébergeur met en place des barrières pour empêcher une prochaine « tempête de réseau » de prendre une telle ampleur. « C’est comme ça qu’on apprend. C’est surprenant parce qu’on a des solutions technologiques qui nous prémunissent de ces problèmes, alors qu’on reste à la merci d’un simple câble ! » philosophe l'un des clients interrogés.

Écrit par Guénaël Pépin

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Que s’est-il passé ?

« Je ne leur retire pas ma confiance »

Fermer

Commentaires (63)


Et les média devraient arrêter de faire un foins autour d’un problème alors qu’ils ne connaissaient pas l’origine du problème.



Ils ont quasiment tous laissé tout entendre que ça pouvait être un piratage (suite au différents sites piratés en 3 jours) alors qu’ils n’avaient strictement aucune information.



Et il s’agit d’une bête erreur humaine. Comme quoi.








News a écrit :



« C’est comme ça qu’on apprend. C’est surprenant parce qu’on a des solutions technologiques qui nous prémunissent de ces problèmes, alors qu’on reste à la merci d’un simple câble ! » philosophe l’un des clients interrogés.



Et elles passent par quoi ces “solutions technologiques” ? Par ce foutu câble ! <img data-src=" />



Le technicien qui a fait la boulette va se faire petit pendant longtemps je pense :)



Dans une urne funéraire tu veux dire ? <img data-src=" />


Donc en gros si on comprend bien leur explication, c’est un stagiaire qui a fait une boucle dans le réseau local ? <img data-src=" /><img data-src=" /><img data-src=" />


“le succès d’Oxalide tient à un bon bouche à oreille”



Mouais je me suis demandé aussi pourquoi ce succès, il y’a du réseau dans l’air , et pourtant ce sont des mec de l’epita donc ca doit venir d’ailleurs, sans doute la famille


“Plus dangereux que l’attaque de type DDoS , il y a la boulette de type VDM.”



© 2015 - Oxalide sysadmin



Oxalide reste tout de même le meilleure hébergeur avec lequel j’ai pu travailler. Des réponses aux ouvertures de ticket dans l’heure, aide technique efficace. Lorsqu’un de nos sites s’est fait pirater, un technicien est resté au téléphone avec vous pendant 2h pour chercher les failles et parcourir les logs c’est quand même cool.



Bref, ils font du super boulot et gardent notre confiance à 100%. C’est pas une simple erreur humaine qui va changer ça.


La faute au stagiaire.


Ça c’est Roger à qui on a refusé son augmentation… Ou alors c’est juste Kevin le stagiaire à qui on a proposé avec regret d’aller se faire la main sur le terrain. Une fois compris ce qu’il se passait il s’est surtout fait la malle <img data-src=" />








David_L a écrit :



Dans une urne funéraire tu veux dire ? <img data-src=" />





Dans ce genre de cas, le premier à blâmer est plutôt celui qui gère l’organisation, qui n’a pas suffisamment pris en compte le facteur humain.



Le stagiaire pourra mettre “broadcast storm” sur son CV !





  • Vous savez gérer ça ?

  • Oui, et même les provoquer !


Ca méritait d’être corrigé, effectivement <img data-src=" />


Tu veux que les médias arrêtent de diffuser des infos non-vérifiées ? Tu veux les mettre au chômage ou quoi&nbsp;<img data-src=" />&nbsp;?



Pour être plus sérieux, je pense que c’est le problème d’un info qui nécéssite de plus en plus de spécialistes alors que les grands médias sont par définition généraliste et font de plus la course au buzz…


Ouais enfin tu peux pas non plus être derrière chacun de tes employés à chaque moment…

Puis c’est pas un problème d’organisation, au pire c’est une négligeance au moment de l’embauche (Et encore, même les meilleurs peuvent faire d’énormes boulettes…)


Si c’est bien un tech… Chez un ancien employeur, un commercial qui voyait traîner un RJ45 s’est dit que c’était pas normal et que ça devait bien se brancher qqpart. Le switch lui a paru un bon plug… Sauf que l’autre extrémité du câble y était déjà branché… Broadcast storm, 1/2h (petit parc) à localiser &gt;_&lt;


Comme c’est étrange, celui qui dénigre ne veut pas qu’on le nomme. On assume pas ?


J’avais dans l’esprit que les équipements réseaux modernes savaient isolr les boucles réseau pour les déconnecter…


un câble mal branché qui coupe les plus gros sites français haha. j’espère que les centrales nucléaires ne sont pas gérées de la même façon sinon ça craint un max.








fr1g0 a écrit :



un câble mal branché qui coupe les plus gros sites français haha. j’espère que les centrales nucléaires ne sont pas gérées de la même façon sinon ça craint un max.





Y’a un deuxième cable branché à coté, ils sont pas fou !&nbsp;^^



La boucle réseau, erreur qui arrive facilement, ne pardonne jamais. Surtout sur des archi multi-DC








vince120 a écrit :



J’avais dans l’esprit que les équipements réseaux modernes savaient isolr les boucles réseau pour les déconnecter…







oui oui: Spanning Tree <img data-src=" />



Oui, ils savent le faire… pour peu que le protocole (STP) soit activé paramétré proprement. <img data-src=" />


Pas besoin d’être journaliste spécialisé pour balancer une information.



Si t’es pas un con de journaliste tu balance pas une info pas vérifié et tu lance pas la rumeur d’un piratage.



Je ne vois pas en quoi ça nécessite une spécialisation en informatique.


sais pas pourquoi, mais personnellement; je verrais bien les nords-coréens derrière tout cela <img data-src=" />








A-snowboard a écrit :



Pas besoin d’être journaliste spécialisé pour balancer une information.



Si t’es pas un con de journaliste tu balance pas une info pas vérifié et tu lance pas la rumeur d’un piratage.



Je ne vois pas en quoi ça nécessite une spécialisation en informatique.





je rattache plutôt leur approche à ceci&nbsp;



Oui mais là on en revient à l’autre problème : La course au scoop et au buzz

Les médias généralistes cherchant à faire du clic, s’ils se contentent de dire “on n’a pas plus d’infos” ils perdront en visites…



Et puis quand tu veux traiter d’un sujet, je pense quand même que disposer de spécialistes est souvent indispensable, car combien de fois on lit des articles truffés de contre-sens ?




Le fil rouge sur le bouton rouge, le fil bleu sur le bouton bleu…



ça fait un bon sous titre non?&nbsp;<img data-src=" />



Ah régis et le branchement de cable, pour une fois qu’il y a un cable de trop de branché et pas un cable de moins genre sectionné ou débranché.&nbsp;<img data-src=" />








Sigma42 a écrit :



Et puis quand tu veux traiter d’un sujet, je pense quand même que disposer de spécialistes est souvent indispensable, car combien de fois on lit des articles truffés de contre-sens ?



et encore, on les voit parce que nous sommes sensibilisés au sujet. Combien nous échappent sur d’autres sujets ?









FunnyD a écrit :



sais pas pourquoi, mais personnellement; je verrais bien les nords-coréens derrière tout cela <img data-src=" />





Y’a plus qu’a attendre que le FBI et la NSA fabriquent les preuves et on pourra tranquillement lui déclarer la guerre ^^



Ah mais je dis ça, tout sujet compris ^^

C’est pour ça que je n’accorde plus trop de crédits aux grands médias généralistes

Le problème étant : Comment trouver des info fiables sur des sujets que l’on ne maitrise pas soi-même ?








Exodus a écrit :



oui oui: Spanning Tree <img data-src=" />





Et c’est quand même une sacrée erreur de ne pas l’avoir activer … Ça ne fait pas sérieux dans la gestion de leur infra interne … Ça me parait même trop gros <img data-src=" />



Même dans un réseau de 10 postes j’active le spanning tree (quand j’ai un switch manageable bien évidemment <img data-src=" />&nbsp;)car on est jamais trop prudent. Enfin bon on ne va pas refaire le monde ^^. &nbsp;









eliumnick a écrit :



Y’a plus qu’a attendre que le FBI et la NSA fabriquent les preuves et on pourra tranquillement lui déclarer la guerre ^^





Ben non, z’ont pas de pétrole. <img data-src=" />



C’est gentil de proposer des liens déjà dans l’article <img data-src=" />


<img data-src=" /> Pour ma défense, j’étais en train de manger <img data-src=" />








Sigma42 a écrit :



Ouais enfin tu peux pas non plus être derrière chacun de tes employés à chaque moment…



    Puis c'est pas un problème d'organisation, au pire c'est une négligeance au moment de l'embauche (Et encore, même les meilleurs peuvent faire d'énormes boulettes...)








   &nbsp;Le but n'est pas d'être derrière chaque employé pour éviter toute erreur. C'est idiot.&nbsp;  Une bonne organisation c'est celle qui anticipe les problèmes et apporte les réponses appropriées rapidement.          






   Je travaille dans un de ces domaines ou la minute d'inactivité coûte des millions d'euros. Et on ne se repose pas sur l'utopie qu'on n'embauchera que des sur-hommes qui ne font jamais d'erreur.          

On se repose sur le fait qu'on a suffisamment de procédures, de vérifications, de contre-vérifications, de culture d'entreprise de la prudence, de backups logiciels, matériels, de failover clusters, de&nbsp; ... bref:






1) de méthodologie pour identifier et anticiper tout ce qui pourrait engendrer un problème critique, et        






2) dee moyens mis en face pour parer à toutes les éventualités (dans notre cas, y compris une attaque nucléaire en Europe).         






   Si demain un trouffion de base fait par erreur une manipulation qui fout le système dans un état critique, c'est pas lui qui sautera illico presto. C'est (bibi), le responsable dont la tâche prioritaire est la prévention de ce genre de problème.       

&nbsp;

&nbsp;



&nbsp; Dans “responsable”, il y a … “responsable” <img data-src=" />

&nbsp;



   &nbsp;         

&nbsp;








John Shaft a écrit :



<img data-src=" /> Pour ma défense, j’étais en train de manger <img data-src=" />





han il mange devant son pc&nbsp; (<img data-src=" />) ou son smartphone (re <img data-src=" />)!



Devant le PC qui appartient à ma boite <img data-src=" />



<img data-src=" />








John Shaft a écrit :



Devant le PC qui appartient à ma boite <img data-src=" />



<img data-src=" />





abus de bien social en plus !!!!!!!&nbsp;<img data-src=" />

cache les miette du sandwich qu’il a mangé devant son propre poste…









John Shaft a écrit :



Devant le PC qui appartient à ma boite <img data-src=" />



<img data-src=" />





Tant que tu manges pas dedans.. <img data-src=" />



Bin ça l’aiderai à mourir et ça m’arrangerait (vieux machin sous WinXP) <img data-src=" />








Kiroha a écrit :



Et c’est quand même une sacrée erreur de ne pas l’avoir activer … Ça ne fait pas sérieux dans la gestion de leur infra interne … Ça me parait même trop gros <img data-src=" />



Même dans un réseau de 10 postes j’active le spanning tree (quand j’ai un switch manageable bien évidemment <img data-src=" /> )car on est jamais trop prudent. Enfin bon on ne va pas refaire le monde ^^.







ça m’a fait le même effet, dès que c’est administrable ==&gt; hop activé!



le coup du crash à cause d’un câble je ne pensais pas que c’était possible dans des boites comme ça <img data-src=" />









WereWindle a écrit :



je rattache plutôt leur approche à ceci







Je ne parle pas anglais. Donc j’ai rien compris. :(







Sigma42 a écrit :



Oui mais là on en revient à l’autre problème : La course au scoop et au buzz

Les médias généralistes cherchant à faire du clic, s’ils se contentent de dire “on n’a pas plus d’infos” ils perdront en visites…



Et puis quand tu veux traiter d’un sujet, je pense quand même que disposer de spécialistes est souvent indispensable, car combien de fois on lit des articles truffés de contre-sens ?





Entre suggérer que la pane est lié à un piratage informatique et juste dire que des sites ne marchent pas et que la cause n’est pas connue il y a quand même un gouffre.



Après oui je suis d’accord qu’on lit pas mal de contre sens et qu’il leur faudrait des spécialistes.

Après j’ai vu une fois la désinformation totale a propos d’une avalanche à chamonix : interview d’un guide que je connais qui a raconté l’histoire. L’article n’avait plus rien à voir. Un truc de ouf.



Je ne suis pas expert réseau mais il existe des raison de ne pas avoir de spanning tree sur certains protocol ou liaison, de mémoire certains équipements iSCSI n’apprécie pas trop, idem pour les ports de stackage sur d’autres machine.

Ceci dit ça n’excuse pas totalement la défaillance d’Oxalide, comme le dit brazomyna ce genre de cas doit être envisager et les procédures adaptés avec.

Et pour avoir eu quelques expériences avec eux je dirais que c’est un prestataire correct. Leur réputation est peut être un peu surfaite mais à leur décharge niveau communication il présentait plutôt bien et ils proposait quelques solutions type un peu plus efficace et recherché que ce que proposait d’autre hébergeur à une époque (aucune idée de ce qu’il en est actuellement).








A-snowboard a écrit :



Je ne parle pas anglais. Donc j’ai rien compris. :(





1ere image : “des hackers ont brièvement fait tombé le site web de la CIA”

2nde image : ce que les gens entendent : “des hackers se sont introduits dans les serveurs de la CIA !”

3ème image : ce que les experts entendent : “des hackers ont déchiré un poster placardé par la CIA”

<img data-src=" />



RSTP








nikon56 a écrit :



RSTP





???



<img data-src=" /> parfait


Rapid Spanning Tree Protocol (RSTP)



en gros c’est un protocole qui, même en cas de bouclage, permet de désactiver certaines routes, c’est ce qui permet de faire volontairement des boucles réseau dans le but de faire de la redondance, si l’un des nœuds tombe, l’un des nœud alors désactivé est réactivé afin de continuer, certes avec un chemin plus long, d’acheminer les données.



donc en cas de bouclage involontaire, ce même protocole vas se mettre en place et désactiver l’un des ports afin justement que le bouclage disparaisse








nikon56 a écrit :



Rapid Spanning Tree Protocol (RSTP)



en gros c’est un protocole qui, même en cas de bouclage, permet de désactiver certaines routes, c’est ce qui permet de faire volontairement des boucles réseau dans le but de faire de la redondance, si l’un des nœuds tombe, l’un des nœud alors désactivé est réactivé afin de continuer, certes avec un chemin plus long, d’acheminer les données.



donc en cas de bouclage involontaire, ce même protocole vas se mettre en place et désactiver l’un des ports afin justement que le bouclage disparaisse





Ah ok ^^ Désolé tu as été grillé par tout le monde ^^&nbsp;

Je croyais que tu voulais dire qqch en plus, d’ou mon incompréhension ^^&nbsp;



ha oui tiens, effectivement <img data-src=" />








WereWindle a écrit :



1ere image : “des hackers ont brièvement fait tombé le site web de la CIA”

2nde image : ce que les gens entendent : “des hackers se sont introduits dans les serveurs de la CIA !”

3ème image : ce que les experts entendent : “des hackers ont déchiré un poster placardé par la CIA”

<img data-src=" />







Merci pour la traduction ! :)

Pas mal.



Je suis d’accord que les gens font leur propre interprétation. Mais l’on parle d’une information valide à la base.



Or je parle d’informations erronées ou tendancieuses.



Salut,



Y a un truc qui me chiffonne…



“un broadcast storm, une ‘tempête de réseau’.”



Une “broadcast storm”&nbsp; est une “tempête de broadcast” et non de réseau(x). Broadcast se traduisant par “diffusion à tous”; sous entendu de trames (couche 2) ou paquets (couche 3) selon la couche du modèle OSI.



Mais ce qui me titille le plus, c’est cette idée que des broadcast se transmettent entre des réseaux via des router. Étant donné qu’un des rôles principal du router est de les confiner à l’intérieur d’un LAN (avec qques exceptions, ex: relais DHCP).



Je ne parviens pas à comprendre le lien entre broadcast et BGP.



De ce que j’ai compris, il s’agit de l’arrêt de propagation de route(s) via le protocol BGP, dû à un branchement érroné, rien de plus.



Alors PQ? parle-t-on de broadcast storm?



Si qqu’un peut éclairer ma lanterne… Merci d’avance.


heu une erreur de câble ok

pourquoi ne pas l’avoir débranché et rebranché au bon endroit ?

2h30 pour ça, cela paraît louche =)








jdelire a écrit :



heu une erreur de câble ok

pourquoi ne pas l’avoir débranché et rebranché au bon endroit ?

2h30 pour ça, cela paraît louche =)





D’autant que la méthodologie de debug dans ce type de cas tend à pousser l’admin à commencer par vérifier la connectique… (couche 3 déconne ==&gt; on vérifie en couche 2, non?)



A mon avis la tempête de broadcast a saturé les équipements réseaux et/ou les liens, d’où un effondrement du réseau local, d’où une impossibilité de traiter les paquets BGP, d’où un effondrement de la connectivité extérieure..


Les administrateurs ne sont pas forcément sur site. C’est possible que les équipements soient hébergés (hostés) directement chez Zayo, avec un simple technicien de Zayo pour effectuer les opérations sur site (“Branche un câble entre tel port et tel port”).








nikon56 a écrit :



RSTP









eliumnick a écrit :



???





Réparation Soudure Travaux Publics <img data-src=" />



Ça semble étrange dans un datacenter.

Mais ça pourrait se discuter selon l’environnement et les impératifs SSI.


Les paquets de broadcast remontent au CPU du routeur, ce qui en cas de broadcast storm va le saturer à coup sûr, donc tous les process du routeur vont lagger, y compris le process BGP…&nbsp; Du coup les sessions BGP finissent par time outer et donc les routes disparaissent d’Internet.



C’est pour ça que dans un réseau administré correctement, tous les switches sont configurés pour limiter le nombre de paquets de broadcast envoyé par secondes.


En parlant de site indisponible, j’ai eu droit à une indisponibilité de NXI à l’instant.

&nbsp;

Depuis qu’ils passent par CloudFlare, j’ai l’impression que le souci revient régulièrement, une fois par trimestre en moyenne.

&nbsp;








Debcool a écrit :



“un broadcast storm, une ‘tempête de réseau’.”



Une “broadcast storm” est une “tempête de broadcast” et non de réseau(x).





Une tempête dans un réseau, si tu préfères.



Salut à tous,



Désolé pour le délai de réponse mais je n’étais point là. J’étais coincé dans une loop ;-))



Merci pour vos retours. Ça éclairci déjà un peu plus les choses.



Bon, je ne suis pas spécialiste en BGP ni en routage “border

gateway” mais de ce que j’en sais ce type d’appareillage qui gère ce

type de protocol sert “uniquement” entre FAI et/ou très grosses

structures. Right?



Quant aux “autres” (OSPF, EIGRP… RIP ;-) ) sont plutôt réservés pour l’intérieur des structures (Interior Gateway Protocol) indépendament de leur taille.



Du moins, c’est ce que j’en ai compris durant les cours CCNA.

&nbsp;

À partir de cela, vous semble-t-il cohérent d’avoir un routeur qui gère du BGP d’un côté et qui de l’autre est directement connecté à un LAN (des VLAN, sans doutes)?



Moi pas. D’où mon questionnement concernant le rapport entre une (des) tempète(s) de broadcast et le routage BGP.



Voilà. Merci encore pour vos retours.



A+

Debcool

&nbsp;