[MàJ] Panne chez GLI : les éditeurs en pleine reconstruction de leurs données d'abonnement

[MàJ] Panne chez GLI : les éditeurs en pleine reconstruction de leurs données d’abonnement

Shit happens

Avatar de l'auteur
David Legrand

Publié dans

Internet

23/06/2016 4 minutes
286

[MàJ] Panne chez GLI : les éditeurs en pleine reconstruction de leurs données d'abonnement

Et si l'on vous disait qu'une panne informatique pouvait faire perdre à une partie de la presse française la gestion de ses abonnements ? Incroyable... mais vrai. GLI vient ainsi de perdre des données cruciales, qu'il faut maintenant retrouver et reconstruire.

« Tel que vous me voyez, là, je suis sans aucun abonné ». C'est ainsi qu'un éditeur nous a annoncé qu'il avait perdu voilà quelques jours, la totalité des informations concernant ses abonnés papier. Et il n'est pas seul, une bonne partie de la presse française est aussi concernée.

Une partie de la presse française perd son service d'abonnement

La raison ? Pour gérer leurs parcs d'abonnés, les éditeurs passent souvent par un prestataire. L'un des plus importants de ce marché est le groupe GLI. Se rendre compte de son impact sur le secteur est simple comme une recherche Google. Il y a quelques jours, cette société a semble-t-il rencontré une panne informatique. Résultat : toutes les données ont été perdues. « Même les codes sources » précisent plusieurs de nos interlocuteurs.

Côté sauvegarde ? Il semblerait qu'elles aient été touchées au même titre que le reste. Autant dire que les DSI accusent le coup. Heureusement, depuis, une solution partielle a été trouvée : un outil de « Business Intelligence » contient au moins une très large partie des informations et permet de les récupérer, mais de manière non structurée. Selon l'un de nos contacts, une version antérieure de l'outil d'abonnement de GLI, datant d'octobre, aurait été retrouvée.

Résultat : Le Figaro, Libération, Les Échos, Le Point, mais aussi toute une galaxie de petits éditeurs de titres spécialisés se retrouvent ainsi dans une situation dramatique. La période est charnière, les lecteurs modifiant parfois leur adresse d'expédition pour profiter de leurs abonnements en vacances. Un coup dur supplémentaire pour ce secteur qui n'en n'avait vraiment pas besoin.

Presse GLI FAILPresse GLI FAIL
Presse GLI FAILPresse GLI FAIL

Les sites des médias concernés préviennent actuellement que leur service d'abonnements est en maintenance et tous sont dans l'attente d'une solution. Selon nos confrères de PresseNews, des pistes pourraient être évoquées dans une réunion de crise organisée demain soir chez Les Échos où GLI devrait revenir sur la panne et faire le point sur la situation. Une information qui nous a été confirmée depuis. 

Car il reste de nombreux inconnues comme la possibilité pour GLI de faire redémarrer son service, et si oui, dans quels délais. Mais il faudra aussi du temps pour reconstituer les données récupérées et chacun doit donc composer en attendant et trouver des solutions à court terme.

Single point of failure

Les tenants et les aboutissants de cette crise mettront sans doute encore quelques jours à être démélés, mais la période va être difficile, pour les éditeurs comme pour GLI. L'épisode remet sur la table la question de la dépendance à un prestataire unique pour un secteur d'une telle ampleur, outre celle de la vérification des procédures en cas de défaillance technique, des sauvegardes, etc. On se rappelle ainsi qu'en 2015, une bonne partie de la presse française s'était retrouvée hors-ligne lorsqu'un hébergeur avait subi là aussi une panne d'ampleur.

Comme l'indique le site spécialisé En-Contact « cet évènement pourrait bien faire quelques heureux : Vivetic ou CCA International, par exemple, prestataires spécialisés en gestion d’abonnements et BPO (Business Process Outsourcing) qui ne risquent pas, eux, de chômer les prochains jours. Anne Laratte, la dirigeante de Vivetic, confirmait cet après-midi même avoir été sollicitée par… de nombreux groupes de presse ».

En attendant, si vous vous retrouvez avec un souci concernant vos abonnements à des titres de presse, le mieux est de contacter le service client aux numéros indiqués sur les sites concernés. Nous tenterons de faire le point avec des éditeurs et GLI dès que nous aurons pu obtenir des informations complémentaires.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une partie de la presse française perd son service d'abonnement

Single point of failure

Commentaires (286)


Oh. Putain….&nbsp;<img data-src=" /><img data-src=" />


Un data center sous l’eau ? Serieux pour que même les sauvegardes soient touchés il faut faire fort quand même !


Si ils arrivent à paumer aussi les backups c’est vraiment que leur SI était merdique, car en général tu as du backup sur disque et sur bande, tu peux même externaliser les bandes au besoin (ou au moins les foutres dans un coffre ignifugé).



Bref, là je vois pas, ça voudrait dire qu’il y a eu une corruption des données à l’échèlle d’un SI, si c’est le cas le société va difficilement s’en remettre… ou alors ça va leut coûter cher…


En voilà un beau symptôme de la presse qui essaie de racler les fonds de tiroirs plutôt que de chercher à attirer des lecteurs sur le long temps.


Ouais, mais c’est hyper-pratique pour refroidir les serveurs. <img data-src=" />


Un employé viré partant en foutant le boxons… ou de futurs chômeurs incompétents aux manettes ^^


Trouver le moyen de perdre les backup également, ça veut dire à priori qu’ils n’externalisaient pas ça, voire qu’il n’y avait pas de backup, parce que j’ai du mal à croire qu’ils puissent tout perdre comme ça, à moins d’un incendie ( et donc avec lieu de backup = lieu de prod ).



J’espère que leurs contrats sont bien blindés aux gars de GLI, et à l’inverse j’espère que leurs clients ont bien blindé les SLA & co, pour les faire cracher suite à l’embrouille…


C’est bien tous les éditeurs vont changer de prestataire et après ?



Le problème restera le même : ils confient l’intégralité de leur base clients qui est le coeur de leur activité.

S’ils ne possèdent pas eux même une copie de leur listing clients ils seront toujours au bord du précipice.



Pour certains ce sera peut-être le coup de grâce.


Surréaliste comme situation.

Ils font jamais de plan de reprise d activité avec bascule sur site de secours, test régulier des sauvegardes (faire les sauvegardes c est bien mais verifier qu elles ne sont pas corrompue c est mieux)



La plus part des boîtes qui n ont pas procédure de pra et de sauvegarde coule immédiatement ou dans les 6 mois après que la perte de données soit survenue


Même dans notre petite pme de webdev, on a trois sauvegarde de toutes les datas clients dans 3 lieux géographiques différents.



Pour avoir des gros clients, comme une banque, je connais les pénalités SLA&nbsp;<img data-src=" />. C’est déjà une fortune au bout d’une heure, tu déposes le bilan au bout d’une demi journée.&nbsp;



Là je te dis pas s’ils recouvrent pas très vite les datas et le service… ça va être un enfer procédural contre GLI. Pinaise….&nbsp;<img data-src=" />


ouf, je fais partie de l’autre partie de la presse française, celle moins reluisante (mais je suis presta, c’est pas de ma faute! <img data-src=" />)


Pas de bol.








boogieplayer a écrit :



Même dans notre petite pme de webdev, on a trois sauvegarde de toutes les datas clients dans 3 lieux géographiques différents.



Pour avoir des gros clients, comme une banque, je connais les pénalités SLA&nbsp;<img data-src=" />. C’est déjà une fortune au bout d’une heure, tu déposes le bilan au bout d’une demi journée.&nbsp;



Là je te dis pas s’ils recouvrent pas très vite les datas et le service… ça va être un enfer procédural contre GLI. Pinaise….&nbsp;<img data-src=" />





Ce ne sont pas des banques mais des éditeurs qui se sont vautrés dans l’économie numérique, ça ne serait pas étonnant que leur contrat/SLA/Cahier des charges soient anecdotiques et n’aient même pas de rubrique dédié au temps de disponibilité.









JustMe a écrit :



Surréaliste comme situation.

Ils font jamais de plan de reprise d activité avec bascule sur site de secours, test régulier des sauvegardes (faire les sauvegardes c est bien mais verifier qu elles ne sont pas corrompue c est mieux)



La plus part des boîtes qui n ont pas procédure de pra et de sauvegarde coule immédiatement ou dans les 6 mois après que la perte de données soit survenue





amen <img data-src=" />

Tester les back up et les plans de reprise d’activité c’est quand même la base &gt;&lt;

&nbsp;



Derniers recours : demander la NSA s’ils n’ont pas un backup <img data-src=" />


Même le code source ???



Mais mais… que… quoi… COMMENT ?



Je suis de l’avis de manu0086: un truc de cet ampleur c’est forcément une manigance volontaire.








Ramaloke a écrit :



Ce ne sont pas des banques mais des éditeurs qui se sont vautrés dans l’économie numérique, ça ne serait pas étonnant que leur contrat/SLA/Cahier des charges soient anecdotiques et n’aient même pas de rubrique dédié au temps de disponibilité.





Ca a changé, crois moi, les avocats de la banque (le C.A dans mon cas) sont tout à fait au fait de ça. Et c’est pas une question de sous, ils s’en foutent que tu payes le SLA, c’est de toute façon trop tard en terme de biz ou d’image, c’est un moyen de pression très important pour (et là je te rejoins à 100%) qur les prestataire fassent autre chose que se la péter “j’ai fait un dev pour untel-qui-est-tres-gros” et soient des gens impliqué et sérieux :)



La bonne nouvelle c’est qu’il va y avoir de l’emploi dans leur service informatique.

Forcément : il va bien falloir remplacer tous les types qui vont se faire virer. <img data-src=" />

&nbsp;


Euh vu qu’ils avaient leur porte monnaie entre le mains, je crois qu’il faut pas trop abuser non plus… Moi je peux déjà affirmer que GLI c’est fini !

Quand tu perds même les back up je vois pas comment dans les 3 mois qui vont suivre la société peut rester en vie.








Beginner a écrit :



Trouver le moyen de perdre les backup également, ça veut dire à priori qu’ils n’externalisaient pas ça, voire qu’il n’y avait pas de backup, parce que j’ai du mal à croire qu’ils puissent tout perdre comme ça, à moins d’un incendie ( et donc avec lieu de backup = lieu de prod ).



Même avec un incendie, ça ne devrait pas arriver. Pour de simple données de travail, le minimum c’est backup locale (quotidienne) + backup distante online (quotidienne ou hebdomadaire), et pour les données critiques, au moins du quotidien sur le distant online et tu ajoutes du hors-site offline (genre un coffre de banque) au moins hebdomadaire.

S’ils ne font pas ça, la boîte mérite de couler, et le DSI mérite de perdre son emploi.

&nbsp;









Industriality a écrit :



Si ils arrivent à paumer aussi les backups c’est vraiment que leur SI était merdique, car en général tu as du backup sur disque et sur bande, tu peux même externaliser les bandes au besoin (ou au moins les foutres dans un coffre ignifugé).



Bref, là je vois pas, ça voudrait dire qu’il y a eu une corruption des données à l’échèlle d’un SI, si c’est le cas le société va difficilement s’en remettre… ou alors ça va leut coûter cher…









Je citerai juste mon ancien chef : “ça coûte trop cher pour le faible risque que cela représente” donc on laisse sans réélles sauvegardes.



Ballot en effet.


Je pense pas qu’on utilise des bandes quand on manipule des Tera de données sollicitées 2424.

Mais c’est vrai que leur plan de backup avait l’air foireux.


Tiens imaginons que les données soit cryptées et qu’il ai perdu la clef de cryptage ou un acte malveillants à ce sujet et infine tu perd tout..








Minikea a écrit :



ouf, je fais partie de l’autre partie de la presse française, celle moins reluisante (mais je suis presta, c’est pas de ma faute! <img data-src=" />)





Jacky et Michel sont toujours en ligne, mon abonnement est safe ! ouf &nbsp;<img data-src=" />



J’espère pour eux qu’ils vont retrouver les backups sinon, vu l’état de la presse française, on risque de perdre pas mal de publications.








picatrix a écrit :



La bonne nouvelle c’est qu’il va y avoir de l’emploi dans leur service informatique.

Forcément : il va bien falloir remplacer tous les types qui vont se faire virer. <img data-src=" />



Je ne vois pas comment la boîte peut survivre à ce genre d’événement.

Quelle pourrait être la motivation d’un client pour rester chez eux ?

&nbsp;



Tiens, moi cela me rappelle un certain Nicolas S. (alias Zeus) qui faisait des backups puis effectuait une restauration de la bande dans la foulée. Manque de bol, le backup ayant foiré il avait effacé toutes les données, obligation de restaurer une vieille bande et 15 jours de dev envolés en fumée… On en avait bavé…



Grand principe en informatique : tu te rends compte qu’un backup est foireux uniquement le jour où tu essaies de faire une restauration…









No-MaDe a écrit :



J’espère pour eux qu’ils vont retrouver les backups sinon, vu l’état de la presse française, on risque de perdre pas mal de publications.





Yo mon poulet :)



T’inquiète pas, Canard PC n’est pas concerné&nbsp;<img data-src=" />



Je suis pas un spécialiste réseau, mais j’ai pas l’impression non plus que les données gérées (les listes abonnés) représentent un gros volume. Enfin c’est pas du youtube quoi : ça doit pouvoir se sauvegarder à 10 endroits différent très rapidement quand même… Je me trompe ?


Et je crois que c’est ça le pire. S’ils ne retrouvent pas les données, rattraper les abonnées flémard de démarche va être plus que compliqué ! Sans compter ceux qui vont se rendre compte qui vivent aussi bien sans. Bref tout le monde va perdre gros de la DSI au journaux impacté.


Je pense que les éditeurs (du moins certains) extrayaient régulièrement une partie de leurs données. Leur problème actuel est la gestion de ces données, s’ils se dirigent déjà vers les concurrents, c’est qu’ils ont des données, ils ne vont pas voir déjà à côté pour repartir de zéro.


Oula c’est violent comme nouvelle. <img data-src=" />



Par contre je me demande comment des éditeurs peuvent laisser à une boite externe la gestion de clients. C’est quand même la base financière quoi. Le genre de truc qui doit rester chez moi avec triple sauvegarde.


Nous sommes d’accord là dessus, ce que je voulais dire c’est que s’ils en sont là c’est parce qu’il n’y avait aucun plan réel de sauvegarde, et maintenant ils peuvent fermer, après avoir foutu leurs clients dans la merde.


Les joies de l’externalisation…

Sans déconner ils ont pas assez de pognon pour monter une solution de gestion d’abonnement en interne???

Ils touchent des millions d’aide chaque année, en partie d’ailleurs pour le numérique


Bah en fait si tu regardes l’évolution du marché, tu as de plus en plus de solution SAAS adoptées par les sociétés, et tu comptes donc sur le fait que les providers de SAAS sécurisent leur data. Tout le monde n’a pas forcemment les moyens ni l’envie de stocker on premise leurs données.


Une liste des magazines chez ce prestataire ? (impactés ou non par le problème)



J’ai deux abonnent, c’est juste pour savoir si je suis potentiellement concerné ou non. (et donc faire gaffe aux prochains envois)


Peut être un employé qui à joué au bash russian roulette et qui a perdu



&nbsp;[ \([ \)RANDOM % 6 ] == 0 ] && rm -Rf / || echo “YEEPEE KAI !”



<img data-src=" /> <img data-src=" /> <img data-src=" />&nbsp;



PS: Je décline toute responsabilité quand à l’utilisation de cette commande…


Incroyable? Non pas vraiment

Si vous saviez ce qu’on voit parfois. le plus courant c’est la place manquante sur le disque, les logs qui gonflent et empechent les sauvegarde, etc etc



Et effectivement si le client a cherché à baisser les prix au max, l’informatique réagit en conséquence hein, tu payes pas une atreinte gratos non plus



la “dépendance à un presta” c’est toujours le cas, ou presque. Après, que la moitié de la presse FR se fie au même presta c’est pas de bol mais c’est un petit secteur d’activité après tout


C’est bien fait.

à force de tout vouloir externaliser avec des presta payés au lance-pierre dans des SSII de merde pour gagner quelques piécettes.



Je me marre.


Pas mieux, responsabilité totale de GLI la : des backups ça s’externalise (plusieurs kilomètres de distance).








Beginner a écrit :



Bah en fait si tu regardes l’évolution du marché, tu as de plus en plus de solution SAAS adoptées par les sociétés, et tu comptes donc sur le fait que les providers de SAAS sécurisent leur data. Tout le monde n’a pas forcemment les moyens ni l’envie de stocker on premise leurs données.







Je comprends parfaitement le besoin de passer par des prestataires externes et spécialisé.



C’est juste que pour certaines données critiques, je pense que c’est plus intelligent d’y mettre les moyens pour que ça reste en interne.



Enfin c’est mon point de vue.



Je serais curieux d’en connaitre la cause également. A moins que tout soit stocké dans un seul batiment qui a été entièrement détruit je ne vois pas comment ca peut ne pas être du sabotage.


comment peut on perdre : le source, la prod et les backups en meme temps ? c’est 3 systemes differents qui sont normalement en 3 lieux differents, c’est … impossible sauf acte malveillant


Ah bah c’est ballot ça…



Ca me rappelle un de mes anciens employeurs qui faisait chaque nuit une sauvegarde sur bandes… Bandes stockées à côté du lecteur de bande, le tout sur l’étagère au dessus du serveur.


Un SPOF sans DRP (Disaster recovery plan) 😂

Faites des backups, “on ne sait jamais”… bah maintenant ils savent 😂


On peut aussi passer par un presta, mais prévoir dans le contrat la fourniture régulière de backups sur supports physiques, qu’on ira mettre dans un coffre par exemple.


Dans les grosses boîtes genre banques, c’est des VM et donc physiquement les 3 serveurs peuvent être au même endroit…


C’est ballot … <img data-src=" />


Que les groupes de presses s’appuient sur un prestataire, c’est assez logique, chacun son métier.

Par contre, je trouve ça assez incroyable qu’ils n’exigent pas d’avoir chez eux au minimum un export hebdomadaire des données (surtout que là c’est probablement des données textes, ça doit pas être bien lourd)









Obidoub a écrit :



Je pense pas qu’on utilise des bandes quand on manipule des Tera de données sollicitées 2424.





Les sauvegardes ne sont pas sollicités h24, c’est tout à fait possible de les faire sur bandes.









sephirostoy a écrit :



Derniers recours : demander la NSA s’ils n’ont pas un backup <img data-src=" />





<img data-src=" />



Cela reste possible, GLI avait lui-même un prestataire informatique… qui gérait l’informatique chez GLI (donc visiblement GLI n’avait pas d’informaticien…). Cela donne l’impression qu’il n’y avait qu’un seul serveur chez GLI où tout était stocké, et qu’il a crashé… le sous prestataire n’a sans doute fait que répondre aux demandes de GLI avec un budget limité…


Schrodinger’s backup:



The condition of any backup is unknown until a restore is attempted



<img data-src=" />


Et dire que certains de ces journaux recoivent du financement public…


Je pense que comme beaucoup de boite, ils ont supprimé la bande et avait tout sur disque.

Le probleme c’est que le backup et l’archivage sur disque peuvent être touché par un virus ou grillés par un simple court jus quand la bande est plus sure.



D’ailleurs on me dit que StorageTek fait 35% de chiffres en plus d’année en année…


Tu manipules des Terra par jour concernant un fichier client avec des abonnements ? Ca concerne la galaxie entiere ta DB ?

Meme si tu manipules des TB c’est differents d’ajouter des TB. Aka a la fin de la journee ta DB fait sensiblement la meme taille donc ton backup de DB ne bouge pas tant.

Les LTO ca stock 6TB non compresse de nos jours.



Et si on avait tous 3 abo en france avec une adresse longue comme le bras ca ferait dans les 50GB de DB, pas la follie quoi :)




Côté sauvegarde ? Il semblerait qu’elles aient été touchées au même

titre que le reste, et personne ne sait encore si ces données pourront

être récupérées. Autant dire que les DSI accusent le coup.





si c’est les dsi de gli à mon avis ils sont chez eux lourdés pour faute lourde, parce qu’il peut être concevable que les serveurs tombent mais serveur + backup c’est inadmissible.




Côté sauvegarde ? Il semblerait qu’elles aient été touchées au même titre que le reste





C’te blague, c’est quoi ces sauvegardes en carton ?


VM ou pas VM, si ta sauvegarde est au même endroit que la donnée de prod, tu ne te protège pas de tout ce qui est désastre physique (incendie, inondation, vol…). Ça peut être acceptable pour certaines utilisations, mais une boite qui traite des infos importantes doit savoir gérer ses VM de façons à ce qu’elles soient physiquement pas au même endroit.








L3 G33K a écrit :



On peut aussi passer par un presta, mais prévoir dans le contrat la fourniture régulière de backups sur supports physiques, qu’on ira mettre dans un coffre par exemple.







Bon à la rigueur, tu te dis que le backup fait parti du travail du presta.



Par contre avoir la récup régulières des données chez soi, pourquoi pas.



Si, pour les sauvegardes à long terme. Sinon effectivement, pour le court terme, des réplicas font bien l’affaire (virtualisation).


J’aimerai pas être à la place de la DSI de GLI…. <img data-src=" />


Erreurs basiques :

1 / ne jamais demander la sauvegarde de ses données à son prestataire

2 / ne jamais vérifier cette même sauvegarde par un autre prestataire si besoin

Une telle inconscience venant de titres aussi gros est à la limite de l’absurdité.

Bravo aux DSI/DRI concernés, en espérant que cela servira de leçon à d’autres…


Je pense qu’il n’y a pas de DSI en fait, vu la boulette. Oo


Vous connaissez le prestataire informatique ? Ca m’interresse … !!


La gestion d’abonnements papiers, même avec des millions d’abonnés, cela ne prend pas beaucoup de mémoire… ni de ressources, un seul ordinateur peut facilement supporter cette charge et je crains que c’est bien là le problème de GLI ^^ Ils avaient sans aucun doute &nbsp;un vieux bousin qui tournait depuis plus de 10 ans, et tout fonctionnait très bien… jusqu’au jour où… Beaucoup d’entreprises n’ont pas un serveur principal upgradé régulièrement, “ça marche donc on y touche pas…”, on fait qq sauvegardes non régulières par-ci par-là par habitude et de plus en plus espacées… et BAM&nbsp;

Ils ont peut-être encore de “vieilles” sauvegardes, sauf que leur ordinateur de production est hors service, donc inexploitables en l’état ^^&nbsp;








manu0086 a écrit :



Cela reste possible, GLI avait lui-même un prestataire informatique… qui gérait l’informatique chez GLI (donc visiblement GLI n’avait pas d’informaticien…). Cela donne l’impression qu’il n’y avait qu’un seul serveur chez GLI où tout était stocké, et qu’il a crashé… le sous prestataire n’a sans doute fait que répondre aux demandes de GLI avec un budget limité…





Je valide. Quand on voit certains budget calamiteux pour bosser dans de bonnes conditions malgré les marges indécentes de certaines boite. Des bases de données jamais backupé dont les logs saturent le disque dur jusqu’à la rendre inopérante c’est tellement courant que ça en devient ridicule.

Même un stagiaire est capable de suivre une procédure d’installation et appliquer les bonnes pratiques pourtant :(









alex.d. a écrit :



Même avec un incendie, ça ne devrait pas arriver. Pour de simple données de travail, le minimum c’est backup locale (quotidienne) + backup distante online (quotidienne ou hebdomadaire), et pour les données critiques, au moins du quotidien sur le distant online et tu ajoutes du hors-site offline (genre un coffre de banque) au moins hebdomadaire.

S’ils ne font pas ça, la boîte mérite de couler, et le DSI mérite de perdre son emploi.

&nbsp;





Je ne blamerai pas trop la DSI pour ça sans avoir un minimum d’information de contexte. Si ça se trouve la DSI a pointé le problème et la direction&nbsp; leur a pas filé le budget.&nbsp;





Tous les scénarios sont possibles









sir.thorfin a écrit :



Peut être un employé qui à joué au bash russian roulette et qui a perdu




&nbsp;[ $[ $RANDOM % 6 ] == 0 ] &amp;&amp; rm -Rf / || echo "YEEPEE KAI !"      





<img data-src=" /> <img data-src=" /> <img data-src=" />&nbsp;



PS: Je décline toute responsabilité quand à l’utilisation de cette commande…





Je vais essay….. tuuutttt…. tuuuttttt….. tuuuttttt…..



bah oui c’est toujours comme ca … mais est ce que quelqu’un sait QUI est ce prestataire informatique …

parceque vaut mieux le savoir pour le futur …. ?

:-)








JoePike a écrit :



Schrodinger’s backup:



The condition of any backup is unknown until a restore is attempted



<img data-src=" />





Énorme. Je te la pique celle là&nbsp;<img data-src=" />









NekoLeChat a écrit :



bah oui c’est toujours comme ca … mais est ce que quelqu’un sait QUI est ce prestataire informatique …

parceque vaut mieux le savoir pour le futur …. ?

:-)





Avoir le nom ne sert à rien sans avoir le contexte. Peut-être que le sysadmin criait à la mort qu’il fallait faire quelque chose depuis x années sans jamais avoir de retour. SI c’est le cas mieux vaut espérer qu’il ait des traces écrites et/ou beaucoup de témoins.



Je suis peut être trop optimiste, mais même un informaticien pas trop doué et un peu flemmard n’est pas idiot à ce point quant-aux risques majeur. Ou alors il n’en fout pas une de la journée…



ça les fera réfléchir à embaucher des informaticiens en interne, plutôt que de toujours externaliser et s’en foutre des conséquences pour les travailleurs <img data-src=" />


oui c’est vrai … mais bon quand meme quand on est hébergeur, on fait attention, et eux ils doivent vraiment avoir une grosse angoisse … sans compter leurs autres clients quand ils vont l’apprendre … !!








Beginner a écrit :



Je pense qu’il n’y a pas de DSI en fait, vu la boulette. Oo





Il y en a une, on a même des images de leurs réunions de travail.



A la limite ce serait un scénario un peu moins catastrophique que ce que laisse imaginer l’article : les données sont là, mais GLI ne sait plus les gérer. Les concurrents de GLI vont se faire un plaisir de trouver un moyen de les intégrer à leur système d’ici quelques jours !


C’est étrange de tout perdre si facilement. Alors incompétences, radinerie ou acte malveillant, les paris sont ouverts.&nbsp;



En tous cas, pour récupérer les données de leur clients (au moins nom, prénom et adresse postale) il leur suffit de les extraire des factures émises lors de l’abonnement.

Ensuite, d’envoyer un publipostage à toutes ces adresses avec un formulaire à remplir, et enfin de tout ressaisir.

Un coût en main d’oeuvre non-négligeable, mais qui sera certainement à la charge du fournisseur en faute ou de son assurance.&nbsp;








manu0086 a écrit :



La gestion d’abonnements papiers, même avec des millions d’abonnés, cela ne prend pas beaucoup de mémoire… ni de ressources, un seul ordinateur peut facilement supporter cette charge et je crains que c’est bien là le problème de GLI ^^ Ils avaient sans aucun doute  un vieux bousin qui tournait depuis plus de 10 ans, et tout fonctionnait très bien… jusqu’au jour où… Beaucoup d’entreprises n’ont pas un serveur principal upgradé régulièrement, “ça marche donc on y touche pas…”, on fait qq sauvegardes non régulières par-ci par-là par habitude et de plus en plus espacées… et BAM 

Ils ont peut-être encore de “vieilles” sauvegardes, sauf que leur ordinateur de production est hors service, donc inexploitables en l’état ^^





J’espère quand même que le service de GLI ne s’arrête pas à une table dans la DB <img data-src=" /> il doit y avoir plein d’outils avec comme la gestion des stats, API, gestion de crise/backup (<img data-src=" />) , reporting etc.







ben5757 a écrit :



Je ne blamerai pas trop la DSI pour ça sans avoir un minimum d’information de contexte. Si ça se trouve la DSI a pointé le problème et la direction  leur a pas filé le budget. 





Tous les scénarios sont possibles







Alors là, c’est tout à fait possible effectivement ! “Çà sera sur le budget de l’an prochain” “le budget a été alloué au marketing, faites ce qui est possible avec 5€” etc.



Mince mon abonnement à Libération et au Figaro <img data-src=" />



Non je déconne, j’ai un cerveau


Ce qui me fait bien rire c’est que des sites comme les échos sont aux abois (malgré les subventions pharaoniques de l’état à la presse qui ne vent plus), ils bloquent les lecteurs avec bloqueurs de pubs pour récupérer le moindre centime de chaque clic sur leur torches-c.. (surtout qu’un petit coup de NO-JS et hop ! on peut le lire quand même… ;) OK ils passent par un prestataire et c’est lui qui a merdé mais les audits ça existe, j’ai même envie de dire que ça sert a découvrir des failles… Le seul vrai drame a mon avis est pour les petits éditeurs, les autres sont des bons a riens ! Peut-être que leurs serveurs sont passés tout seuls sous windows10…



Ca s’active pour retrouver les backups


Sauf si tout était géré en externe, ce qui à l’air d’être le cas… Et là, pas de source, pas de restauration.



&nbsp;:smiley qui fait pan!:



&nbsp;


Ahahah!

Oh les cons!

Ça donne presque envie de dire “bien fait”…


Manigance systémique : à rogner les coûts partout, la merde s’accumule à droite à gauche, on la met sous le tapis, jusqu’à…


J’ai le dernier ‘Valeurs Actuelles’ pour les amateurs en manque <img data-src=" />



<img data-src=" />


Ca me surprend pas non plus, j’ai travailler pour une boite de réseau satellite et autres méthodes pour les zones éloignés ayant plusieurs milliers de clients et bien, &nbsp;aucune sauvegarde, les mots de passe en clair (le patron pensait que s’était impossible le con), pertes des sources d’un nouveau produit quelques jours avant la sortie après que le stagiaire soit partie car personne ne savait où s’était, vol de matériel part les employés etc.



Et je me suis fait virer car je voulais aller dans le bon sens.


Evidemment, mais je vois bien le truc avec un seul serveur de production, où chacun tape dedans pour effectuer son travail.&nbsp;&nbsp;

Beaucoup de services fonctionnent ainsi pendant de très longues années… à la moindre interruption du serveur de production, tout le monde gueule, donc on le laisse tourner sans modifier les vieilles procédures dépassées ^^

Et en interne, peut-être y’a-t-il un simple administrateur réseau (qui change de temps en temps, qui bosse en même temps que les employés, donc ne peut rien effectuer dessus), et qui doit s’adapter à ces vieilles procédures d’un autre temps au lieu de mettre à jour tout le réseau… (ouais j’ai un peu connu ça j’avoue ^^)








garn a écrit :



Incroyable? Non pas vraiment

Si vous saviez ce qu’on voit parfois. le plus courant c’est la place manquante sur le disque, les logs qui gonflent et empechent les sauvegarde, etc etc



Et effectivement si le client a cherché à baisser les prix au max, l’informatique réagit en conséquence hein, tu payes pas une atreinte gratos non plus



la “dépendance à un presta” c’est toujours le cas, ou presque. Après, que la moitié de la presse FR se fie au même presta c’est pas de bol mais c’est un petit secteur d’activité après tout





+10000



On parle de la responsabilité de GLI (perdre le code source quoi, sérieux…), mais peut être (et même probable) que les éditeurs ne voulaient pas payer un service de backup non plus. Ils veulent débourser le moins possible, et bien ils ont le service qui va avec. Tout est payant. Faire des backups c’est super important mais ça a un coût. Si le client ne veut pas payer pour, et ben pas de backup.



Peut-être qu’ils n’ont tout simplement pas de backup…

Ou alors, ils ont peut-être eu un ransomware…








ben5757 a écrit :



Je ne blamerai pas trop la DSI pour ça sans avoir un minimum d’information de contexte. Si ça se trouve la DSI a pointé le problème et la direction&nbsp; leur a pas filé le budget.&nbsp;





Tous les scénarios sont possibles



Tu crois qu’une base de données contenant les abonnements de presse ça prend des centaines de teras ? Pour 100 millions d’abonnements, 1024 octets par entrée dans la table, t’es à 100 Go. &nbsp;Bon, j’y vais peut-être à la hache, et en fait ça fait 500 Go. Voire même 1 To en comptant large de chez large. Une sauvegarde passe sur un bête disque externe à 100€, que tu peux déposer au coffre à la banque. T’en fait deux à deux endroits, gérés par deux personnes différentes, et t’es relativement à l’abri de la panne, de l’incendie, du virus, et de la malveillance.

On ne parle pas d’investissement ou de budget là, c’est du consommable qui s’achète sur le budget de fonctionnement, pas un gros investissement à amortir, hein !

&nbsp;









A-snowboard a écrit :



Bon à la rigueur, tu te dis que le backup fait parti du travail du presta.



Par contre avoir la récup régulières des données chez soi, pourquoi pas.





Je n’ai pas dit le contraire, le gestion des backups du presta, c’est au presta de le faire comme bon lui semble. Simplement, pour le client ça coûte pas bien cher de demander des copies régulières, pour les avoir sous la main en cas de pépin.



Inadmissible! Je ne pense pas que cette boite s’en remettra, et c’est peut-être tant mieux vu leur apparente négligence.


Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?


bon ben moi j’ai une pensée pour leur DSI qui a du faire confiance à cet hébergeur que personne ne connait … et qui maintenant doit etre en DefCon2 …








CryoGen a écrit :



J’espère quand même que le service de GLI ne s’arrête pas à une table dans la DB <img data-src=" /> il doit y avoir plein d’outils avec comme la gestion des stats, API, gestion de crise/backup (<img data-src=" />) , reporting etc.



Ouais mais on s’en fout s’ils perdent l’historique des logs ou autres. Mais putain, perdre la base clients, c’est impardonnable et c’est petit à sauvegarder.

&nbsp;

&nbsp;

&nbsp;









Krystanos a écrit :



+10000



On parle de la responsabilité de GLI (perdre le code source quoi, sérieux…), mais peut être (et même probable) que les éditeurs ne voulaient pas payer un service de backup non plus. Ils veulent débourser le moins possible, et bien ils ont le service qui va avec. Tout est payant. Faire des backups c’est super important mais ça a un coût. Si le client ne veut pas payer pour, et ben pas de backup.







Ouais enfin un client qui ne paye pas je veux bien, mais là on a l’impression que c’est la totalité <img data-src=" />

Et puis en général quand on externalise c’est pour avoir des garanties en contrepartie. Bon après comme tu dis, la contrepartie c’était peut-être uniquement le cout…



Mais j’aimerai vraiment connaitre la raison de cette perte digne d’un EMP <img data-src=" />

Parce que pour tout perdre faut vraiment y aller quand même…









JoePike a écrit :



Schrodinger’s backup:



The condition of any backup is unknown until a restore is attempted



<img data-src=" />





<img data-src=" /> <img data-src=" />



Je ne vois pas le rapport avec une VM, justement tu peux même bien plus facilement séparer les 3 environnements.


ça peut prendre beaucoup moins de mémoire que ça… ça peut prendre 10Go à tout casser (la table principal des abonnements)&nbsp;&nbsp;



Et non on effectue pas des sauvegardes extérieures ainsi sur des bases de données “actives”. Tu ne repêches pas de vieilles données ainsi sans te soucier des nouveaux abonnements, abonnements renouvelés, expirés, changement d’adresses…etc.&nbsp;Certes ça peut limiter la casse, mais un joli foutoir derrière…

Les bonnes sauvegardes sont des duplications en temps réel de la base de données… bon ici évidemment que ce n’était pas le cas…








NekoLeChat a écrit :



bon ben moi j’ai une pensée pour leur DSI qui a du faire confiance à cet hébergeur que personne ne connait … et qui maintenant doit etre en DefCon2 …





Quel hébergeur ?



De ce que je comprend, c’était GLI l’hébergeur.







Gigatoaster a écrit :



Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?





Si cela arrive, on se prendra des commentaires narquois bien mérités.



Faudrait pas oublier quand même que l’activité du groupe est “Gestion d’installations informatiques”, si demander à une boîte qu’elle fasse ce qu’elle vend ne me semble pas être juste du foutage de gueule.









Gigatoaster a écrit :



Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?





Tu veux qu’on dise quoi?

Ils ont merdés, c’est tout. Et ils le savent très bien. Y a des postes qui devraient sautés, c’est limite faute grave.



Et pour répondre à ta question, déjà il n’y a pas trop de rapport avec le particulier. Maintenant si tu veux tout savoir, perso j’ai une bonne politique de sauvegarde, avec des disques durs dans un coffre fort à ma banque (à 200m de chez moi). Les données vraiment importantes sont en triple exemplaire.



La mauvaise, c’est que non. La boîte va fermer, et tous ses employés (devs ou non devs) vont se retrouver au chômage.


On ne parle pas d’une personne qui souffre, on parle d’une boîte qui ne fait pas son boulot.



Si ton boucher te vend de la viande avariée, tu t’attends à ce que tout le monde lui donne des leçons. Bah là c’est pareil.


1/ C’est leur boulot de faire du backup : il n’y a rien d’ésotérique dans un système d’information hein. La reprise n’est pas forcement facile à faire par contre, mais là on parle bien de perte données et non seulement de perte de production.

2/ Je propose toujours à mes clients d’avoir des backups et si possible d’avoir des archives distantes (au moins dans un bâtiment différent, ou coffre ignifuge ou géographiquement éloigné.

3/ Les équipements capable de faire de la réplication, de la haute disponibilité ou du stockage avec tolérance de panne, ca existe depuis des années, et de nos jours on peut avoir des solutions abordables, en particulier quand il s’agit de protéger LE service que tu vends à tous tes clients.








manu0086 a écrit :



Et non on effectue pas des sauvegardes extérieures ainsi sur des bases de données “actives”. Tu ne repêches pas de vieilles données ainsi sans te soucier des nouveaux abonnements, abonnements renouvelés, expirés, changement d’adresses…etc.&nbsp;Certes ça peut limiter la casse, mais un joli foutoir derrière…

Les bonnes sauvegardes sont des duplications en temps réel de la base de données… bon ici évidemment que ce n’était pas le cas…



Évidemment que la sauvegarde principale doit être synchro. Mais avoir une sauvegarde froide, même âgée d’une semaine, ça t’évite quand même d’avoir l’air con et dire que tu as paumé toute la base et le code source. Après, bien sûr, repartir d’une base qui a une semaine, ça implique un peu de taf.









alex.d. a écrit :



Tu crois qu’une base de données contenant les abonnements de presse ça prend des centaines de teras ? Pour 100 millions d’abonnements, 1024 octets par entrée dans la table, t’es à 100 Go.  Bon, j’y vais peut-être à la hache, et en fait ça fait 500 Go. Voire même 1 To en comptant large de chez large. Une sauvegarde passe sur un bête disque externe à 100€, que tu peux déposer au coffre à la banque. T’en fait deux à deux endroits, gérés par deux personnes différentes, et t’es relativement à l’abri de la panne, de l’incendie, du virus, et de la malveillance.

On ne parle pas d’investissement ou de budget là, c’est du consommable qui s’achète sur le budget de fonctionnement, pas un gros investissement à amortir, hein !







ca marche pas comme ca

Tu peux pas calculer un Backup professionnel dans un cadre de SI multiples comme tu installe un jeu sur ton PC personnel



Ceci étant, pour la petite histoire, quand je travaillais dans un grand groupe francais, ancienne administration <img data-src=" /> a un moment on a eu des problèmes de disques : les achats bloquaient pour investir, la BDD était saturée, les données commencaient à plus pouvoir être sauvegardées et les perf étaient à la ramasse sur tout ce qui dépendant, bref la merde

Ca s’est effectivement terminé, de facon totalement non officielle, par notre informatique à Nantes qui a fait “bon bah jvais acheter un disque chez Surcouf, au moins ca colmatera la brèche”

Je dis bien “non officiel” : il avait ps le droit, cette opération n’a été enregistrée nulle part, tout le monde a joué à l’innocent, d’un point de vue sécurité c’était pas permis du tout du tout.

N’empeche : ca nous a sauvé une prod <img data-src=" />



(edit : j’ai vu un com’ parlant de mdp en clair, ca aussi c’est une grande blague, j’avais des numéro de CB en clair sur mon poste appartenant à nos clients (fichiers de prod’, je gardais une copie). Un jour quelqu’un a parlé de sécurité, ca a été remonté à la direction, ca a fait plein de bruit, et au final on a jamais rien changé)









alex.d. a écrit :



Tu crois qu’une base de données contenant les abonnements de presse ça prend des centaines de teras ? Pour 100 millions d’abonnements, 1024 octets par entrée dans la table, t’es à 100 Go. &nbsp;Bon, j’y vais peut-être à la hache, et en fait ça fait 500 Go. Voire même 1 To en comptant large de chez large. Une sauvegarde passe sur un bête disque externe à 100€, que tu peux déposer au coffre à la banque. T’en fait deux à deux endroits, gérés par deux personnes différentes, et t’es relativement à l’abri de la panne, de l’incendie, du virus, et de la malveillance.

On ne parle pas d’investissement ou de budget là, c’est du consommable qui s’achète sur le budget de fonctionnement, pas un gros investissement à amortir, hein !

&nbsp;





si un presta me propose&nbsp; une procédue de backup avec un disque dur externe de 100 euro je pense pas que je signe sérieux.

&nbsp;

C’est pas qu’une question de taille de DB il y’a d’autres éléments à prendre en compte.&nbsp; Si c’est une base de données qui contient des transaction d’abonnement ( je ne parle pas d’argent mais le mouvement des inscriptions et desinscriptions) tu dois à minima faire un differentiel par jour et un full par par semaine parce que chaque ligne de la base est importante. Il semblerait quand même ici que la base de données soit un élément essentiel du processus de gestion des abonnements qui aurait mérité plus qu’un simple disque dur externe. Le process que tu décris là est incomplet. Si tu dois faire une sauvegarde tous les jours c’est le bordel parce que tu dois :




  • Aller à la banque chercher ton disque

  • Faire ta sauvegarde

  • Retourner à la banque

    &nbsp;Ca te coute à la grosse louche preque un demi jour homme par jour&nbsp; et encore je fais l’impasse sur les problématiques de chiffrement ( pas question de transporter en clair ) et sur la partie test de restauration. D’ailleurs ce genre de procédure ne dispense pas de mettre en place un plan de reprise d’activité et ça demande un peu de budget quand même parce que ça&nbsp; prend vraiment du temps même pour une petite SI.









Gigatoaster a écrit :



Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?







Je n’ai pas encore commenté, mais personnellement, ce que je trouve drôle, c’est qu’en tant que simple particulier, quand j’ai ouvert mon petit site web personnel, la première chose que j’ai faite, c’était de mettre en place un système de backup de la base de données et des fichiers, de faire une sauvegarde quotidienne tout en gardant les quinze dernières sauvegardes, puis de synchroniser tout ça par sftp sur un serveur distant.



À tout moment, j’ai donc les sauvegardes des quinze derniers jours sur deux sites distincts.



Encore une fois, simple particulier, et je paie tout moi-même. Alors que des professionnels dont c’est le métier et qui sont payés pour ça n’arrivent pas à sécuriser à ce point les données de leurs clients, je trouve ça fort.



Quand je pense au nombre de DSI qui cherchent a externaliser a tout prix sans vérifier une seule seconde que les SLA fournit par le presta sont fiables.

J’en ai rencontré pleins comme ça. C’est fou de faire confiance aveuglément comme ça.


Ca c’est la faute de leurs acheteurs, et aussi de la DSI qui ne discute pas assez avec les achats sur la question.








Gigatoaster a écrit :



Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?







c’est déja arrivé, ca arrivera encore, et effectivement très peu de gens ici savent comment / pourquoi ca se passe au niveau “pro”



D’un autre coté faut les comprendre, techniquement, ils ont raison, et c’est véritablement stupide parceque la plupart du temps c’est bloqué par les achats / sécurité / contrats



le truc fun : tu changes de presta, mais ton contrat ne précise pas que la reprise de données est obligatoire. Tu crois que la boite qui perd le contrat va payer des gens pour gérer le passage de connaissance / technique / data ? Que dalle : la plupart du temps c’est la ou y a la plus grosse perte, parceque le client veut pas payer l’ancien presta pour ca










KP2 a écrit :



Quand je pense au nombre de DSI qui cherchent a externaliser a moindre coût tout prix sans vérifier une seule seconde que les SLA fournit par le presta sont fiables.

J’en ai rencontré pleins comme ça. C’est fou de faire confiance aveuglément comme ça.





Fixed <img data-src=" />



On est en train de faire ça chez nous, externaliser des services entiers chez des prestas. C’est super, on a des gens pas formés et un délai de réactivité passant de quelques heures à plusieurs jours ouvrés <img data-src=" />



Et c’est pas prêt de s’arrêter…









alex.d. a écrit :



Tu crois qu’une base de données contenant les abonnements de presse ça prend des centaines de teras ? Pour 100 millions d’abonnements, 1024 octets par entrée dans la table, t’es à 100 Go.  Bon, j’y vais peut-être à la hache, et en fait ça fait 500 Go. Voire même 1 To en comptant large de chez large. Une sauvegarde passe sur un bête disque externe à 100€, que tu peux déposer au coffre à la banque. T’en fait deux à deux endroits, gérés par deux personnes différentes, et t’es relativement à l’abri de la panne, de l’incendie, du virus, et de la malveillance.

On ne parle pas d’investissement ou de budget là, c’est du consommable qui s’achète sur le budget de fonctionnement, pas un gros investissement à amortir, hein !







Il peut aussi y avoir des procédures internes contre la fuite d’information par exemple. Un DSI ou une direction générale qui ne comprend rien et qui a lu quelque part “que les backup sur disque dur externe c’est nul on va allouer un budget pour avoir l’air sérieux, rendez-vous en 2025”.



Et puis les backups pour une base de donnée, ca s’improvise pas à l’arrache comme çà.







alex.d. a écrit :



Ouais mais on s’en fout s’ils perdent l’historique des logs ou autres. Mais putain, perdre la base clients, c’est impardonnable et c’est petit à sauvegarder.







Ah mais je suis d’accord, je disais juste que l’externalisation de la base client ne devait pas simplement se limiter à ce service uniquement.









Beginner a écrit :



Ca c’est la faute de leurs acheteurs, et aussi de la DSI qui ne discute pas assez avec les achats sur la question.







Les DSI n’ont pas toujours des “acheteurs” dédiés. Dans l’extreme majorité des boites, c’est la DSI elle-meme qui fait ses achats. Et quand bien même, ca passe par un acheteur, la DSI intervient forcément pour donner des indications. C’est pas l’acheteur qui va décider par lui-même que tel presta remplit le besoin ou pas. Surtout sur des sujets aussi techniques que l’informatique.




Je suis acheteur spécialisé IT, et en ce qui me concerne même si l’IT est le “owner” du dossier, cela ne me dédouane pas de vérifier ce genre de choses. Mais bon, j’entends tout à fait ce que tu expliques concernant le manque d’acheteurs, mais dans ce cas punaise, qu’est-ce que fout l’IT à ne pas sécuriser tout ça????








Beginner a écrit :



Ca c’est la faute de leurs acheteurs, et aussi de la DSI qui ne discute pas assez avec les achats sur la question.







et du budget, et de l’urba, et de la sécurité, voire de l’exploit interne qui doit bosser avec le presta, quand y en a une…



C’est jamais simple, mais tout est lié et justement souvent on se dit “fuck, je paye un package de prestation, a eux de se démerder”, et quelques mois / années plus tard, a la fin du contrat, ou quand ca merde, tu découvres ces horreurs



c’est humain : qui irait se rajouter des emmerdes / choses à gérer alors que tu payes pour justement les gérer. Sauf que toujours, quelque part, quelqu’un fait mal son boulot ou a oublié un truc ou pas lu les petits lignes du contrat, etc…









ActionFighter a écrit :



Fixed <img data-src=" />



On est en train de faire ça chez nous, externaliser des services entiers chez des prestas. C’est super, on a des gens pas formés et un délai de réactivité passant de quelques heures à plusieurs jours ouvrés <img data-src=" />



Et c’est pas prêt de s’arrêter…







Moi, je suis pas un chantre de l’internalisation. Mais externaliser aveuglément, c’est complétement debile.



En fait, je suis sur que la plupart des DSI qui veulent externaliser sans aucune limite sont dans une grosse merde ou c’est le bordel et tout et il se disent au fond d’eux même qu’ailleurs, c’est forcement mieux.

Sauf que c’est là ou ils se gourrent <img data-src=" />



Pour avoir bosser dans des boites comme ça, vous n’imaginez pas les choses qu’on peut voir… Genre 40% du CA de la boite passait par une appli héberger sur un serveur avec une grosse BDD. Aucun serveur de backup, aucune sauvegarde de la base régulière (genre tous les 2 3 mois), aucun disaster recovery plan, des modifications d’exe / DLL fait en live sur la prod sans tests qualités etc.



Bref, je suis pas surpris. Mais d’une telle ampleur, y’en a qui doivent avoir du mal à dormir la…








KP2 a écrit :



Moi, je suis pas un chantre de l’internalisation. Mais externaliser aveuglément, c’est complétement debile.



En fait, je suis sur que la plupart des DSI qui veulent externaliser sans aucune limite sont dans une grosse merde ou c’est le bordel et tout et il se disent au fond d’eux même qu’ailleurs, c’est forcement mieux.

Sauf que c’est là ou ils se gourrent <img data-src=" />





Chez nous, c’est surtout pour réduire à terme la masse salariale, ce qui peut se comprendre dans certains services, moins dans d’autres.

Je ne suis pas non plus pour l’internalisation lorsqu’elle n’apporte pas de plus-value, mais là, on se retrouve avec des infras et des informations ultra-critiques qui ne sont même plus hébergées chez nous, et administrées par des gens qui n’y connaissent pas grand chose par rapport aux spécialistes que l’on avait en interne avant.



Ah ah bien fait pour leurs gueules, ça leur apprendra à faire les choses convenablement.


oh le cryptovirus qui est mal passé (une des version irréverisble…)


Bon après, faut relativiser : Y’a valeurs actuelles, le figaro, le point dans le lot… c’est un mal pour un bien <img data-src=" />








ben5757 a écrit :



Je ne blamerai pas trop la DSI pour ça sans avoir un minimum d’information de contexte. Si ça se trouve la DSI a pointé le problème et la direction&nbsp; leur a pas filé le budget.&nbsp;





Tous les scénarios sont possibles



&nbsp;

C’est tellement ça là où je&nbsp;taf en ce moment … <img data-src=" />



Me rappelle avoir visité Sanofi (pour une présentation de logiciel), je crois fin 2012.

Les locaux informatique étaient VIDES. Il restait deux DSI. Tout le monde viré, externalisé, et les responsables s’emmerdaient sévère (d’ou la pres, ils avaient que ca à foutre de nous écouter)



Et ca va pas en s’arrangeant…


C’est beau la sous-traitance …

Ca renforce ma “confiance” envers tout ce qui est cloud & co. …


C’est con. Et ça touche plusieurs journaux (Korben avance “la moitié de la presse française”).

Ce qui me frappe moi, c’est justement l’ampleur des dégâts pour -éventuellement- une seule machine corrompue.

L’un des gros problèmes du monde moderne : la centralisation. Si chacun y allait de sa solution perso on assisterait jamais à ce genre d’évènement où un grand nombre de sociétés sont touchées.



On est pourtant au courant du phénomène, on a même un dicton avec des oeufs et un panier, je crois.



Mais non, on continue de centraliser : les pouvoirs, les ressources, les moyens, les outils, les gens et le pognon.








KP2 a écrit :



Les DSI n’ont pas toujours des “acheteurs” dédiés. Dans l’extrême majorité des boites, c’est la DSI elle-même qui fait ses achats. Et quand bien même, ça passe par un acheteur, la DSI intervient forcément pour donner des indications. C’est pas l’acheteur qui va décider par lui-même que tel presta remplit le besoin ou pas. Surtout sur des sujets aussi techniques que l’informatique.





Moi j’en connais des directions ‘métier’ ou des acheteurs qui ne se demandent pas l’avis de la DSI avant de passer un marché type SaaS (voire qui ignorent cet avis s’il ne leur convient pas). Ce qui ne les empêchent pas de chouiner quand les SI interne et la prestation ne s’interfacent pas bien.

Ce que tu décrit, c’est une boite qui marche drôlement bien <img data-src=" />



Évidemment la base doit être sur un disque RAID, évidemment il doit y avoir duplication à la volée sur une machine sur le même site, évidemment il faut une sauvegarde sérieuse.

Mais si en plus de tout ça, il n’y a pas le budget pour une sauvegarde externalisée dans les règles, la solution du disque externe à la banque, en supplément et en dernier recours, ça peut sauver la mise sur des cas critiques (incendie, inondation, sysadmin qui pète les plombs et sabote tout, y compris les sauvegardes online).

Bien entendu, ça ne doit pas être la sauvegarde principale !

&nbsp;&nbsp;








Juju251 a écrit :



C’est beau la sous-traitance …

Ca renforce ma “confiance” envers tout ce qui est cloud & co. …







Ca n’a pas de rapport…

Tu peux très bien avoir tes serveurs dans un service Cloud mais tu géres toi-même le service. Dans ce cas, y’a pas de raison que ca se passe mal. Le presta n’assure que l’hebergement du matos, rien de plus car y’a aucune valeur ajoutée pour toi à ce niveau.



Par contre, confier l’exploitation de ton service sans s’assurer que le presta à les reins pour supporter le niveau de SLA requis, c’est dingue.

Quand tu vois des presta qui proposent du Saas en garantissant du 247 et un SLA de 99,99% avec 2 exploitants, 1 support et 2 dev, les mecs sont dingues. Autant coté presta que coté clients…



Mais on est aussi dans un monde ou on veut que les choses soit interopérable. Et ça avec un système ou chacun fait à sa sauce, ça marche pas.

On est aussi dans un monde ou on est plus fort à plusieurs avec l’économie d’échelle. Concurrent dans la vie mais ensemble dans la négociation.



Bref la faute est dans les deux camps. Pour la DSI d’avoir foirer tout leur backup, perte de code sources (reste à savoir comment).

Pour chacun des éditeurs, ne pas avoir conserver de sauvegarde maison ou chez un autre prestataire en cas de défaillance.

Mais vu les difficultés que ces dernière subissent, je crois que tout était porté à l’économie.


C’est bien marrant : tout ces médias utilisaient le même service externe… un peu comme leur sources d’informations… ca se veut pluralité de la presse, mais en pratique tout viens de l’afp LOL.


Et si c’était un acte de malveillance d’un bobo syndicaliste ex-employé ? Ils ont bien coupé une fibre paralysant un hôpital et coupé le courant d’un autre… Une honte… Ils ne sont plus à ça prêt.



<img data-src=" />



<img data-src=" />


C’est pourtant las base de vérifier les backups et surtout d’avoir un plan de reprise d’activité

GLI est une boîte morte








StephaneGames a écrit :



C’est bien tous les éditeurs vont changer de prestataire et après ?



Le problème restera le même : ils confient l’intégralité de leur base clients qui est le coeur de leur activité.

S’ils ne possèdent pas eux même une copie de leur listing clients ils seront toujours au bord du précipice.



Pour certains ce sera peut-être le coup de grâce.





Ouais enfin le problème n’est pas de prendre un prestataire…

Il vaut mieux faire appel à des prestataires qui connaissent le métier plutôt qu’avoir un service interne de bras cassés qui ne pensent qu’aux avantages du CE car la boite aura mal recruté… (l’informatique n’étant pas leur métier, ça se comprend, et les erreurs de casting sont très fréquentes…)



Mais dans le cas de la news, c’est encore pire, ils font appel un presta en comptant sur leur expertise dans le domaine et ces tocards sont même pas foutu d’avoir un backup viable… c’est scandaleux.

Ils peuvent déposer le bilan GLI, je vois pas qui pourrait leur faire confiance après ça… c’est quand même la base de faire des backups réguliers et d’en externaliser… Incroyable que ce genre de choses puisse encore arriver en 2016…&nbsp; (enfin, une petite pme ça pourrait se comprendre, mais pas un professionnel de l’informatique…)









manu0086 a écrit :



Et non on effectue pas des sauvegardes extérieures ainsi sur des bases de données “actives”. Tu ne repêches pas de vieilles données ainsi sans te soucier des nouveaux abonnements, abonnements renouvelés, expirés, changement d’adresses…etc.&nbsp;Certes ça peut limiter la casse, mais un joli foutoir derrière…

Les bonnes sauvegardes sont des duplications en temps réel de la base de données… bon ici évidemment que ce n’était pas le cas…





Euh non. Ça c’est vrai pour le failover, au cas où un équipement tombe en panne, mais c’est très loin de suffire. T’as aucune boîte sérieuse qui se contente d’une réplication de base de données en temps réel, il faut également des backups ponctuels, isolés du réseau, et isolés physiquement du reste. Si tu n’as que la réplication, tu fais quoi en cas d’intrusion et/ou de données corrompues ? Tu te retrouves avec deux bases ayant des données corrompues.



<img data-src=" />

C’est pas de la malchance, c’est de l’incompétence


En tout cas, c’est silence radio sur cette affaire dans la fameuse fumeuse presse nationale <img data-src=" />


trop de commentaires pour tout lire, mais ça pue le ransonware ça non ? ^^



et bien sur sans sauvegarde “morte” (bande, ou stockage hors ligne) juste de la réplication qui à donc été impacté.



enfin il faudrait que toutes les données soit accessibles, mais ça c’est fortement possible ^^


Qui a mis à jours plesk


Mauvaise nouvelle ça va générer du chômage vu que les types virés vont pas retrouver du boulot de sitôt (sauf en politique où n’ont pas vraiment besoin d’être compétent, mais, là, les places sont déjà prises par des gens qui s’y accrochent comme une moule à son bouchot).


Un petit coup de Ansible foireux <img data-src=" />








garn a écrit :



Me rappelle avoir visité Sanofi (pour une présentation de logiciel), je crois fin 2012.

Les locaux informatique étaient VIDES. Il restait deux DSI. Tout le monde viré, externalisé, et les responsables s’emmerdaient sévère (d’ou la pres, ils avaient que ca à foutre de nous écouter)



Et ca va pas en s’arrangeant…





L’informatique, peut-être. Les données process, sûrement pas !!









garn a écrit :



Me rappelle avoir visité Sanofi (pour une présentation de logiciel), je crois fin 2012.

Les locaux informatique étaient VIDES. Il restait deux DSI. Tout le monde viré, externalisé, et les responsables s’emmerdaient sévère (d’ou la pres, ils avaient que ca à foutre de nous écouter)



Et ca va pas en s’arrangeant…





En même temps, tous les DSI n’ont rien d’autres à foutre que d’écouter les autres résoudre des problèmes à leur place <img data-src=" />



Quand les docs du prochain scandale sanitaire seront leakées par un presta, ils pourront toujours faire marche arrière <img data-src=" />



Combien vont couler à cause de ça ? GLI ? Son assureur ? Certains client de GLI ? Tous ses clients ?&nbsp;



<img data-src=" />



J’espère presque que c’est du sabotage interne(le mec ferait mieux de quitter le pays si c’est le cas), car sinon c’est de l’incompétence extrêmement grave.&nbsp;


C’est hallucinant qu’une telle situation se produise en 2016 <img data-src=" />


Tu peux avoir des systèmes inter-opérables sans centralisation hein

L’inter-opérabilité c’est utiliser les mêmes standards, pas les même serveurs / prestataires…








ActionFighter a écrit :



En même temps, tous les DSI n’ont rien d’autres à foutre que d’écouter les autres résoudre des problèmes à leur place <img data-src=" />







Ça et lire des newsletter digitale sur la disruption du cloud dans l’uberisation de la blockchain



<img data-src=" />









John Shaft a écrit :



Ça et lire des newsletter digitale sur la disruption du cloud dans l’uberisation de la blockchain



<img data-src=" />





<img data-src=" />



Ils doivent être très fort au Kamoulox <img data-src=" />



Le fait d’avoir des sauvegardes à plusieurs endroits et de manière régulière, est-ce que ça coûte cher? (je veux dire à l’instant t, au moment de faire ce choix =&nbsp;en ayant une vision extrêmement court-termiste).








ActionFighter a écrit :



En même temps, tous les DSI n’ont rien d’autres à foutre que d’écouter les autres résoudre des problèmes à leur place <img data-src=" />



Quand les docs du prochain scandale sanitaire seront leakées par un presta, ils pourront toujours faire marche arrière <img data-src=" />





Il y a des questions sanitaires assez graves dans le pharma liées au SI, en fait à l’automatisme surtout…. Mais le plus grave sont les erreurs humaines, ou justement ce qui n’est pas géré par un process control…

Et crois moi, je sais de quoi je parle, bien malheureusement,..



&nbsp; Personnellementje ne crois pas au complot mais a de l’incompétence grasse.



Quand je vois ce qu’un groupe français ayant des centaines de magasins fait pour ses serveurs, je me dis qu’il faudrait encore plus gros pour que les décideurs décident de prendre des vrais pros du domaine de l’hébergement








Koxinga22 a écrit :



C’est con. Et ça touche plusieurs journaux (Korben avance “la moitié de la presse française”).

Ce qui me frappe moi, c’est justement l’ampleur des dégâts pour -éventuellement- une seule machine corrompue.

L’un des gros problèmes du monde moderne : la centralisation. Si chacun y allait de sa solution perso on assisterait jamais à ce genre d’évènement où un grand nombre de sociétés sont touchées.



On est pourtant au courant du phénomène, on a même un dicton avec des oeufs et un panier, je crois.



Mais non, on continue de centraliser : les pouvoirs, les ressources, les moyens, les outils, les gens et le pognon.







ca coute une blinde les solutions à développer from scratch. Sans garantie de résultat, ni de temps pour le mettre en place (ca vous dit quelque chose Louvois <img data-src=" />https://fr.wikipedia.org/wiki/Logiciel_unique_%C3%A0_vocation_interarm%C3%A9es_d…

(Ok c’est un des pires exemples mais c’est toujours drôle)



D’ou les logiciels propriétaires, les éditeurs informatique, qui proposent des solutions “clé en main”. Et on arrive au cas GLI, ou l’hébergement est traitée de la même facon



tout est surtout une question de pognon <img data-src=" />









Pictou a écrit :



Le fait d’avoir des sauvegardes à plusieurs endroits et de manière régulière, est-ce que ça coûte cher? (je veux dire à l’instant t, au moment de faire ce choix = en ayant une vision extrêmement court-termiste).





Ce qui est cher, ce n’est pas le coût de la sauvegarde, mais le coût en installation et maintenance de l’infra qui va l’héberger.







Drepanocytose a écrit :



Il y a des questions sanitaires assez graves dans le pharma liées au SI, en fait à l’automatisme surtout…. Mais le plus grave sont les erreurs humaines, ou justement ce qui n’est pas géré par un process control…

Et crois moi, je sais de quoi je parle, bien malheureusement,..





Oh mais je n’ai qu’à regarder le respect des processus dans les équipes de ma boîte pour te croire sans problème <img data-src=" />









ActionFighter a écrit :



Fixed <img data-src=" />



On est en train de faire ça chez nous, externaliser des services entiers chez des prestas. C’est super, on a des gens pas formés et un délai de réactivité passant de quelques heures à plusieurs jours ouvrés <img data-src=" />



Et c’est pas prêt de s’arrêter…





Je suis&nbsp; en train de lutter contre ça ;)



Mouai, alors il faut cumuler :

-&nbsp;mauvaise séparation du code et des données

-&nbsp;mauvaise séparations de la prod et des backup



puis au choix :&nbsp;




  • catastrophe sur le datacenter (incendie, inondation)&nbsp;

  • ou une erreur humaine assez sale, mais qui peut arriver (le rm * à la racine en croyant être dans un autre dossier).&nbsp;








Pictou a écrit :



Le fait d’avoir des sauvegardes à plusieurs endroits et de manière régulière, est-ce que ça coûte cher? (je veux dire à l’instant t, au moment de faire ce choix =&nbsp;en ayant une vision extrêmement court-termiste).





Je suis en projet pour modifier notre infra.

Un lecteur de bande LTO 7 env. 3000 €

Un serveur de sauvegarde env. 7000€

le logiciel de backup env . 3000€

Avec ça je sauvegarde jusqu’à 6To de données non compressées.

&nbsp;

Tous les matins, je prends la K7 de sauvegarde qui s’est déroulée la nuit et la ramène à mon domicile.

J’ai en permanence chez moi, les 2 dernières K7 quotidiennes, la dernière mensuelle et la dernière annuelle.

Je fais un test de restauration d’une VM (choisie aléatoirement) tous les mois.

Les autres K7 sont dans un coffre ignifugé 2h dans la salle serveur.









blackdream a écrit :





  • mauvaise séparation du code et des données







    Il est ou le code dans un hébergement de data sur les abonnés, il me semble qu’on ne parle bien que des données







    blackdream a écrit :



  • mauvaise séparations de la prod et des backup







    Suffit de pas avoir de backup <img data-src=" />





    Catastrophe sur datacenter. Quel datacenter? Vous croyez que toutes les boites hébergent leurs données dans des lieux sécurisés et prévus pour ? On est pas chez Amazon <img data-src=" />



    Inutile de penser à un rm* (la pour le coup, c’est franchement peu probable, encore qu’on sait jamais…)

    Une panne matérielle ca arrive tous les jours, un mauvais script, une erreur de BDD irrécupérable (toutes ne permettent pas les rollback, encore faut il avoir de quoi stocker le rollback d’ailleurs)



    Franchement, comme dit plus haut par plusieurs d’entre nous, on est à un tel niveau souvent, même dans de très grosses boites, qu’il y a pas besoin d’imaginer des trucs tordus



    et puis n’oublions pas qu’on parle aussi des données de facturation la, c’est ca qui est beau. (et ca veut pas dire que c’est sécurisé pour autant, comme dit avant)



dans le lien société.com indiqué dans l’article on voit que la société a fait l’objet de deux jugements :




  • 05/06/2014 : procédure de sauvegarde

  • 15/01/2015 : plan de sauvegarde



    &nbsp;

    et on peut y ajouter 23/06/2016 foirage catastrophique de la sauvegarde. <img data-src=" />


Ca me rappelle une histoire (qui s’est révélée être un hoax mais qui illustre bien ) :



&nbsp;http://korben.info/eviter-journee-de-merde-ca-passe-backups.html


Je suis bien conscient qu’il s’agit d’un débat d’opinion, et que chaque point de vue est valable :) Mais je ne suis pas d’accord.







k43l a écrit :



Mais on est aussi dans un monde ou on veut que les choses soit interopérable. Et ça avec un système ou chacun fait à sa sauce, ça marche pas.





Rien n’empêche d’avoir un standard “théorique”, mais que chacun l’implémente physiquement chez lui.





k43l a écrit :



On est aussi dans un monde ou on est plus fort à plusieurs avec l’économie d’échelle. Concurrent dans la vie mais ensemble dans la négociation.





Là aussi, faire chacun dans son coin ne permet pas l’optimisation financière d’un seul pro qui chapeaute tout un domaine. Mais qui a dit que le but de l’existence sur Terre était d’amasser des fortunes ?

Si chacun fait chez soi, ça coute plus cher, mais pas non plus au point de mettre sur la paille les sociétés. Cette volonté de toujours plus de pognon est vraiment nuisible à l’existence. C’est un travers auquel on sacrifie de plus en plus de notre temps, notre énergie, notre confort, voire même nos idéologies.

Ces sociétés auraient pu consacrer une part de leur revenus à la gestion correcte de leur parc de client, sans que que ça les empêche de payer leur maison ou leur nourriture. Le reste n’est qu’un chiffre virtuel sur le serveur d’une banque.

Résultat : une activité de meilleure qualité sans inconvénient notable, en ce qui me concerne.



C’est un cas typique où l’argent, au lieu d’être serviteur, devient maître. Pour l’argent, on ne fait pas correctement le boulot. C’est un symptôme grave, je trouve.







k43l a écrit :



Bref la faute est dans les deux camps. Pour la DSI d’avoir foirer tout leur backup, perte de code sources (reste à savoir comment).

Pour chacun des éditeurs, ne pas avoir conserver de sauvegarde maison ou chez un autre prestataire en cas de défaillance.

Mais vu les difficultés que ces dernière subissent, je crois que tout était porté à l’économie.





Dans la réalité, je suis d’accord. Sur un plan philosophique, je pense qu’on gagnerais à changer ça, en accordant moins d’importance à un impératif de croissance.







garn a écrit :



ca coute une blinde les solutions à développer from scratch. Sans garantie de résultat, ni de temps pour le mettre en place (ca vous dit quelque chose Louvois <img data-src=" />https://fr.wikipedia.org/wiki/Logiciel_unique_%C3%A0_vocation_interarm%C3%A9es_d…

(Ok c’est un des pires exemples mais c’est toujours drôle)



D’ou les logiciels propriétaires, les éditeurs informatique, qui proposent des solutions “clé en main”. Et on arrive au cas GLI, ou l’hébergement est traitée de la même facon



tout est surtout une question de pognon <img data-src=" />





Entièrement d’accord (sauf sur “ca coute une blinde”, ca coute plus ou moins selon ce qu’on fait, chacun peut placer ses curseurs selon son contexte).



Tiens en allant sur souciété.com j’ai trouvé ça :



GROUPE GLI, société anonyme à conseil d’administration est en activité depuis 27 ans.

Établie à SAINT OUEN (93400), elle est spécialisée dans le secteur d’activité de la gestion d’installations informatiques. Son effectif est compris entre 3 et 5 salariés.



Sur l’année 2014 elle réalise un chiffre d’affaires de 12 790 300,00 €.



Le total du bilan a diminué de 23,85 % entre 2013 et 2014.

Societe.com recense 2 établissements actifs et le dernier événement notable de cette entreprise date du 12-02-2015.





Les 2 jugements

Date : 15-01-2015

Type : Plan de sauvegarde

Date : 05-06-2014

Type : Procédure de sauvegarde





Bref ils étaient déjà pas en forme avant ça. Par contre c’est le nombre d’employé qui me fait tiquer, moins de 5!!! Bref possible que leur NAS local ai fait cramer les disque et qu’ils n’aient rien sauvegarder a coté <img data-src=" />








garn a écrit :



ca coute une blinde les solutions à développer from scratch. Sans garantie de résultat, ni de temps pour le mettre en place (ca vous dit quelque chose Louvois <img data-src=" />https://fr.wikipedia.org/wiki/Logiciel_unique_%C3%A0_vocation_interarm%C3%A9es_d…

(Ok c’est un des pires exemples mais c’est toujours drôle)



D’ou les logiciels propriétaires, les éditeurs informatique, qui proposent des solutions “clé en main”. Et on arrive au cas GLI, ou l’hébergement est traitée de la même facon



tout est surtout une question de pognon <img data-src=" />





Sauf que dans ton exemple, la source du merdier venait d’une centralisation interne faite en interne par des internes peu ou pas rôdé à la gestion de projet informatique, ni aux bonnes pratiques et encore moins aux technos qu’il fallait prendre et celles qu’il fallait fuir.

Donc bon …









Koxinga22 a écrit :



Entièrement d’accord (sauf sur “ca coute une blinde”, ca coute plus ou moins selon ce qu’on fait, chacun peut placer ses curseurs selon son contexte).







Effectivement, disons le développement à partir de rien coute (normalement) plus cher que d’utiliser une solution propriétaire



ca dépend pendant combien de temps, la taille & l’importance du truc, comme tu dis, c’est selon le contexte



J’ai bossé en tant que presta sur bientôt feu Sanofi Pasteur MSD (mariage entre Sanofi et Merck) et c’était guère plus reluisant.

J’ai aussi dû intervenir parmi les applications les plus mal codées que j’ai pu voir jusqu’à présent. le genre où on a fait intervenir X presta à l’arrache pendant 10 ans. Niveau qualité et maintenabilité du code, je n’ai jamais vu l’ombre d’un contrôle. Si ça marche en apparence, tu pouvais t’en sortir le temps que l’on découvre la surprise des années plus tard. Et j’en ai découvert des surprises…

La seule chose qui importait aux responsables internes des applications, c’est uniquement que ça fasse grosso modo le job et que ce soit fait vite pour pas cher.



Je crois que ça s’applique un peu à toutes les entreprises du pharma.


C’est une surcouche mutiple d’erreurs ce truc mais oui, comme tu dis une grosse partie vient aussi de ce que le client (l’armée) a réclamé l’impossible



Après, c’est au presta de guider son client dans la gestion de projet, et de lui prouver “la, ca va merder”

(ca, c’est mon boulot)



le probleme ne reposait pas entièrement sur le (les) presta mais ils avaient avoué quand même ne pas avoir pu tester, contrainte de planning, tout ca… ca aide pas <img data-src=" />



(encore une fois, c’est un des pires exemples, mais aussi un des plus connus)


NextInpact, c’est du local ou vous utilisez aussi un prestataire?








Mimoza a écrit :



Tiens en allant sur souciété.com j’ai trouvé ça :



GROUPE GLI, société anonyme à conseil d’administration est en activité depuis 27 ans.

Établie à SAINT OUEN (93400), elle est spécialisée dans le secteur d’activité de la gestion d’installations informatiques. Son effectif est compris entre 3 et 5 salariés.



Sur l’année 2014 elle réalise un chiffre d’affaires de 12 790 300,00 €.



Le total du bilan a diminué de 23,85 % entre 2013 et 2014.

Societe.com recense 2 établissements actifs et le dernier événement notable de cette entreprise date du 12-02-2015.





Les 2 jugements

Date : 15-01-2015

Type : Plan de sauvegarde

Date : 05-06-2014

Type : Procédure de sauvegarde





Bref ils étaient déjà pas en forme avant ça. Par contre c’est le nombre d’employé qui me fait tiquer, moins de 5!!! Bref possible que leur NAS local ai fait cramer les disque et qu’ils n’aient rien sauvegarder a coté <img data-src=" />









dans le monde informatique, ca veut RIEN dire le nombre d’employés : on sous traite



Si GLI avait des clients, ils payaient des presta eux même (ou des CDD, ou des stagiaires… sisi <img data-src=" /> )



Tout est une question de cout : ton contrat t’assure X euros, tu peux te permettre de passer Xième euros sur le cout d’une sous traitance, tant que ca te rapporte une marge suffisante à la fin









Pictou a écrit :



Le fait d’avoir des sauvegardes à plusieurs endroits et de manière régulière, est-ce que ça coûte cher? (je veux dire à l’instant t, au moment de faire ce choix =&nbsp;en ayant une vision extrêmement court-termiste).







Pour une boite un peu importante (Genre PME), matériellement le cout est faible (Quelques serveurs, des disques, même un lecteur de bande etc) ça représente pas grand chose de nos jours, quelques milliers voire dizaine de millier d’euros, mais c’est cacahuètes même sur un CA de PME.



&nbsp;Ce qui coûte cher c’est surtout le temps homme. Ton plan de sauvegarde, il faut déjà des gens pour le concevoir, le mettre en place et assurer le suivi et la maintenance.&nbsp;



Habituellement tu peux faire faire le plan par la même équipe que l’infra en libérant du temps projet, ou alors tu externalise ça et tu t’occupe du suivi/maintenance avec un sysadmin qui prend un peu de son temps chaque jour à vérifier le backup, mettre/retirer les cassettes, changer les disques etc.



Le problème il est là. Aucun manager/RH/Directeur ne veut libérer du temps à des personnes pour des choses qui ne rapporte RIEN et est un coût direct. Le SAV/Support est TOUJOURS le parent pauvre de n’importe quelle boite, parce que tu auras toujours des gens pour avancer que ça coûte cher et ne rapporte rien, et c’est le cas d’un point de vue purement commercial et courtermiste.



Après je serai le premier étonné qu’on apprenne dans les écoles de commerces et management à la gestion long-terme et à la pérennisation des acquis, mais j’ai de gros doutes vu que la très grande majorité des boites fonctionnent en “résolution d’incident” et pas en “prévention” alors que ça fait un paquet d’année que l’on sait que la “prévention des risques” revient moins cher sur le long terme.









shadowfox a écrit :



J’ai bossé en tant que presta sur bientôt feu Sanofi Pasteur MSD (mariage entre Sanofi et Merck) et c’était guère plus reluisant.

J’ai aussi dû intervenir parmi les applications les plus mal codées que j’ai pu voir jusqu’à présent. le genre où on a fait intervenir X presta à l’arrache pendant 10 ans. Niveau qualité et maintenabilité du code, je n’ai jamais vu l’ombre d’un contrôle. Si ça marche en apparence, tu pouvais t’en sortir le temps que l’on découvre la surprise des années plus tard. Et j’en ai découvert des surprises…

La seule chose qui importait aux responsables internes des applications, c’est uniquement que ça fasse grosso modo le job et que ce soit fait vite pour pas cher.



Je crois que ça s’applique un peu à toutes les entreprises du pharma.







rectifications. C’est pareil avec d’autres clients que je ne peux citer hélas (grandes distributions, transports, énergies, etc.).



Quand tu fait une propal d’installation de serveurs (+applis+docs) sur 10 jours et que le commercial vend ça pour 3 jours et que tu dois le faire sur 2, c’est pas étonnant que ça merde. Je l’ai vécu et je n’ai jamais été aussi mal psychologiquement.










shadowfox a écrit :



J’ai bossé en tant que presta sur bientôt feu Sanofi Pasteur MSD (mariage entre Sanofi et Merck) et c’était guère plus reluisant.

J’ai aussi dû intervenir parmi les applications les plus mal codées que j’ai pu voir jusqu’à présent. le genre où on a fait intervenir X presta à l’arrache pendant 10 ans. Niveau qualité et maintenabilité du code, je n’ai jamais vu l’ombre d’un contrôle. Si ça marche en apparence, tu pouvais t’en sortir le temps que l’on découvre la surprise des années plus tard. Et j’en ai découvert des surprises…

La seule chose qui importait aux responsables internes des applications, c’est uniquement que ça fasse grosso modo le job et que ce soit fait vite pour pas cher.



Je crois que ça s’applique un peu à toutes les entreprises du pharma.







yep



toujours sur Sanofi (c’est drôle ces anecdotes), au moment ou j’intervenais ils préparaient le sunshine act à la francaise (le fait de divulger les liens entre medecins & labos, ce qu’ils donnent en cadeau, etc…)



Pour gérer ca… ils embauchaient des presta de Cap pour faire des fichiers EXCELS



Développquoi? Mais non, pas besoin, on a qu’a demander à des mecs de faire du copier / coller pendant quelques années <img data-src=" />



(ca nous avait dégouté, ce genre de truc normalement c’est du pain béni en projet, et la t’as un fleuron de l’industrie francaise qui te répond plus ou moins qu’il préfère photocopier des docs plutot que de développer un site web)



Élisabeth Teissier déclare: Je vois dans ma boule de cristal la fin de l’entreprise GLI…








Ramaloke a écrit :



Avoir le nom ne sert à rien sans avoir le contexte. Peut-être que le sysadmin criait à la mort qu’il fallait faire quelque chose depuis x années sans jamais avoir de retour. SI c’est le cas mieux vaut espérer qu’il ait des traces écrites et/ou beaucoup de témoins.



Je suis peut être trop optimiste, mais même un informaticien pas trop doué et un peu flemmard n’est pas idiot à ce point quant-aux risques majeur. Ou alors il n’en fout pas une de la journée…





Si les traces écrites étaient des mails eux aussi perdus avec les data… :p









Gigatoaster a écrit :



Allez, chacun y va de son commentaire narquois et donneur de leçon…si vous êtes si bon à gérer vos infras et vos sauvegardes, on vous retient pas d’aller les aider…à c’est sûr c’est plus difficile que de cracher dans la soupe.



Si cela vous arrive dans le futur, qui fera le malin?





Ha, toi tu dois bosser chez GLI non ?<img data-src=" />









Mimoza a écrit :



Date : 15-01-2015

Type : Plan de sauvegarde





Arf, ils ont dessiné les plans de la sauvegarde mais ils ne l’ont pas faite ? <img data-src=" />



j’ai bien tout lu :)



tout le monde parle d’un incident technique, et pourtant d’après les infos glané a droite et a gauche mon doigt mouillé me fait pensé a une grosse base access 2000 &nbsp;une petit corruption lors d’un redémarrage intempestif, ou 2 instance d’ouverte et sauvegarde dans le mauvais fichier \o/



bon courage &nbsp;a eux, m’en vais tester mes sauvegardes


J’ai quand même bossé pour des clients qui entendait “l’application est devenue impossible à maintenir, elle est vieille, les gens qui l’ont développé ne bossent plus pour vous depuis 5 ans au moins et trop de personne l’ont bidouillé”.

&nbsp;C’est par exemple un des projets sur lesquels bossent Carouf (pour citer un monstre de la grande distrib). Mais c’est des enfoirés quand même doublés de marchands de tapis, mais ‘des fois’ ils entendent raison.

&nbsp;

SPMSD, la seule réponse qu’on a réussi à obtenir, c’est “non, on ne fera pas de refonte de l’application”.


Je ne suis même pas étonné. <img data-src=" />


j’ai eu une mission comme ca



Résumé de la mission :

Client : “euh alors on a une appli. Mais on a viré tous les gens qui l’ont développé / ont bossé dessus. Tu saurais faire du retro engineering pour faire la specification technique et fonctionnelle?”

Moi : - FONCTIONNELLE? Vous savez même plus à quoi elle sert votre appli?

Client - sisi, ca fait la compta. Mais bon, faut aussi la faire évoluer, alors quitte a faire…





(3 mois de mission, à mon TJM, parceque “oops, on a oublié de garder des gens qui savent comment ca marche”)

Mais la, elle était pas vieille, genre fini de dev l’année d’avant, c’est toute la beauté de la chose, ce client la c’était “t’as fini ton boulot? Ok, dehors”








k43l a écrit :



Mais vu les difficultés que ces dernière subissent, je crois que tout était porté à l’économie.







Une “économie” qui fait perdre des données fondamentales car on a pas su mesurer le risque, c’est pas une économie.



A mon avis, dans les direction de GLI et de leurs clients, ca doit être la chasse aux responsabilités avec tous les managers en train de farfouiller leurs mails pour sortir LA preuve que c’est pas de leur faute…









Ramaloke a écrit :



Avoir le nom ne sert à rien sans avoir le contexte. Peut-être que le sysadmin criait à la mort qu’il fallait faire quelque chose depuis x années sans jamais avoir de retour. SI c’est le cas mieux vaut espérer qu’il ait des traces écrites et/ou beaucoup de témoins.



Je suis peut être trop optimiste, mais même un informaticien pas trop doué et un peu flemmard n’est pas idiot à ce point quant-aux risques majeur. Ou alors il n’en fout pas une de la journée…





Bon je note, en cas de problème critique sur l’infra, penser à envoyer une note au chef, ou un mail, et en faire des copies pour sa pomme. Pour se couvrir .



Sinon je me marre un peu : c’est bien beau que l’une des sauvegardes soit externalisée mais mais… on est pas censé râler sur le cloud ici? La confidentialité, tout ca?



Si vous parlez de sauvegarder les données sensibles sur un serveur distant ou chez un prestataire vous croyez que votre boss ne va pas grogner? Sans parler du coût supplémentaire, ce qui fait toujours grincer des dents.



En plus dans les commentaires on râle contre l’externalisation tout en prônant des solutions de sauvegardes distantes (ou sur un autre “site” de la boite),&nbsp; difficile à faire sans prestataire pour pas mal de tpe ou pme <img data-src=" />



&nbsp;





CryoGen a écrit :



Mais j’aimerai vraiment connaitre la raison de cette perte digne d’un EMP <img data-src=" />

Parce que pour tout perdre faut vraiment y aller quand même…





C’est Daesh bien sur. Il voulaient effacer les abonnements à Charlie Hebdo, mais une EMP ca ne choisit pas









RaoulC a écrit :



Sinon je me marre un peu : c’est bien beau que l’une des sauvegardes soit externalisée mais mais… on est pas censé râler sur le cloud ici? La confidentialité, tout ca?







tu t’en fous, c’est les données des clients (abonnés), pas celles de la boite <img data-src=" />



“&nbsp;«&nbsp;Même les codes sources&nbsp;» précisent plusieurs de nos interlocuteurs.”








RaoulC a écrit :



Bon je note, en cas de problème critique sur l’infra, penser à envoyer une note au chef, ou un mail, et en faire des copies pour sa pomme. Pour se couvrir .







Si tu le fais pas, commence à le faire sérieusement alors.

J’ai connu boite ou on te disait en riant à moitié : “Verba volant, scripta manent” (traduction : les paroles s’envolent, les écrits restent).

Je crois que ça s’applique à peu près partout car quand les problèmes surviennent et qu’il y a de vrais risques de licenciement, il ne faut surtout pas compter sur la bonne foi et la mémoire des gens pour reconnaitre leurs carences (que ce soit coté salariés que managers).




Tiens imaginons que les données soit cryptées&nbsp;soient chiffrées et qu’il ai perdu la clef de cryptage chiffrement ou un acte malveillants à ce sujet et infine tu perd tout..&nbsp;

&nbsp;<img data-src=" />








A-snowboard a écrit :



Je comprends parfaitement le besoin de passer par des prestataires externes et spécialisé.



C’est juste que pour certaines données critiques, je pense que c’est plus intelligent d’y mettre les moyens pour que ça reste en interne.



Enfin c’est mon point de vue.



Le problème est que ce n’est pas le cœur de métier des maisons de presse et qu’elle ne sont pas forcément suffisamment imposante pour gérer cela efficacement elles-mêmes. Donc à un moment donné il faut se poser la question de savoir si on fait cela mal nous même ou si on confie ça à des pro.

A échelle plus personnelle, c’est pour la même raison que tu ne répares pas forcément toi même le système de freinage de ta voiture, ou que tu vas voir un médecin quand tu es malade.

Sauf que là, manque de bol, ils sont manifestement tombés sur des charlots. Je me demande à quand date le dernier audit de sécurité chez GLI.









RaoulC a écrit :



Bon je note, en cas de problème critique sur l’infra, penser à envoyer une note au chef, ou un mail, et en faire des copies pour sa pomme. Pour se couvrir .



Sinon je me marre un peu : c’est bien beau que l’une des sauvegardes soit externalisée mais mais… on est pas censé râler sur le cloud ici? La confidentialité, tout ca?



Si vous parlez de sauvegarder les données sensibles sur un serveur distant ou chez un prestataire vous croyez que votre boss ne va pas grogner? Sans parler du coût supplémentaire, ce qui fait toujours grincer des dents.



En plus dans les commentaires on râle contre l’externalisation tout en prônant des solutions de sauvegardes distantes (ou sur un autre “site” de la boite),&nbsp; difficile à faire sans prestataire pour pas mal de tpe ou pme <img data-src=" />



&nbsp;



C’est Daesh bien sur. Il voulaient effacer les abonnements à Charlie Hebdo, mais une EMP ca ne choisit pas







Toujours se couvrir en informatique, TOUJOURS. Je ne compte plus le nombre de fois où on a essayé de me faire porter le chapeau pour des choses dont j’ai annoncé, alerté et prédit qu’elles allaient arriver. Et n’essaye même pas d’envisager que dans un “ta parole contre celle de ton manager”, la direction tranche en ta faveur :(&nbsp;

&nbsp;

&nbsp;Et les sauvegardes, tout comme les données utilisateurs, ça se chiffre. Ce que tu fournis à ton prestataire, ce sont les DATA chiffré, et tu gardes la clé. Et ça peut faire parti du cahier des charges du prestataire à qui tu confie la gestion de ton PCA/PRA. Si tes données se retrouvent dans la nature ou sont piraté en claire, tu peux taper sur ton presta comme ça. Si ce n’est pas de ton côté que provient la fuite, c’est qu’ils avaient conservé la clé de déchiffrement. CQFD.



Et la confidentialité des données, ça se décide en comité de pilotage, des entreprises s’en fichent de l’espionnage industriel si elles n’ont pas de propriétés stratégiques. Si elles ont de la propriété stratégique, tout devrait être internalisé et l’entreprise devrait comporter 0 prestataire. Mais j’en demande trop là c’est utopique.



&nbsp;









blackdream a écrit :



“ « Même les codes sources » précisent plusieurs de nos interlocuteurs.”







j’avais raté ca <img data-src=" />

Code source de quoi… leurs applis étaient aussi hébergées chez GLI j’imagine, quitte à faire, c’est encore pire que les data abonnés <img data-src=" />



Mauvaise séparation du code et des données ca s’appelle un ERP








kwak-kwak a écrit :



Le problème est que ce n’est pas le cœur de métier des maisons de presse et qu’elle ne sont pas forcément suffisamment imposante pour gérer cela efficacement elles-mêmes.







Bof, c’est qu’un fichier client… toutes les boites ont un fichier client et elles savent le gerer soit avec une solution interne soit avec un soft acheté.

Un de mes clients est justement une agence de presse et ils gerent leurs abonnement avec un petit soft developpé en interne pas trop mal foutu, facile a maintenir et pas cher.

Je peux te dire d’ailleurs que le problème de GLI les fait bien marré (mais ils viennent quand même de me demander de renforcer leur politique de backups au cas ou <img data-src=" /> )







kwak-kwak a écrit :



Donc à un moment donné il faut se poser la question de savoir si on fait cela mal nous même ou si on confie ça à des pro.







Ben ouais mais le mec en face a beau se presenter comme un pro, il faut quand meme evaluer si ce qu’il raconte est vrai ou pas.

Dans ton exemple sur les mecanos, tu jetes un oeil au garage, tu causes 5 min avec le mec pour voir si c’est un charlot ou pas. On a toujours le risque de se faire avoir mais bon, entre gens du metier, on sait quand même reconnaitre si le mec en face est sérieux ou pas.

Et puis rien n’empeche de demander un audit sur le presta…



Tout a fait d’accord, mais en général pour piloter les presta il faut un interne. Donc là il ne devait pas y avoir grand monde non plus. A moins qu’ils n’aient vraiment tout délégué …


&nbsp;







Ramaloke a écrit :



&nbsp;

&nbsp;Et les sauvegardes, tout comme les données utilisateurs, ça se chiffre. Ce que tu fournis à ton prestataire, ce sont les DATA chiffré, et tu gardes la clé. Et ça peut faire parti du cahier des charges du prestataire à qui tu confie la gestion de ton PCA/PRA. Si tes données se retrouvent dans la nature ou sont piraté en claire, tu peux taper sur ton presta comme ça. Si ce n’est pas de ton côté que provient la fuite, c’est qu’ils avaient conservé la clé de déchiffrement. CQFD.



Et la confidentialité des données, ça se décide en comité de pilotage, des entreprises s’en fichent de l’espionnage industriel si elles n’ont pas de propriétés stratégiques. Si elles ont de la propriété stratégique, tout devrait être internalisé et l’entreprise devrait comporter 0 prestataire. Mais j’en demande trop là c’est utopique.



&nbsp;



Non mais je sais tout ca, c’est convaincre le supérieur le plus compliqué <img data-src=" />









RaoulC a écrit :



&nbsp;

Non mais je sais tout ca, c’est convaincre le supérieur le plus compliqué <img data-src=" />







C’est impossible donc faut se couvrir pour quand ça pète, ou être parti avant&nbsp;<img data-src=" />



Ca ne m’étonne pas ce genre de choses je pense qu’on en reverra à force de toujours vouloir tirer sur les prix, car l’informatique maintenant “ça ne doit pas être cher”.








KP2 a écrit :



Bof, c’est qu’un fichier client… toutes les boites ont un fichier client et elles savent le gerer soit avec une solution interne soit avec un soft acheté.

Un de mes clients est justement une agence de presse et ils gerent leurs abonnement avec un petit soft developpé en interne pas trop mal foutu, facile a maintenir et pas cher.

Je peux te dire d’ailleurs que le problème de GLI les fait bien marré (mais ils viennent quand même de me demander de renforcer leur politique de backups au cas ou <img data-src=" /> )





Comment ça renforcer la “politique de backup” ? Faire un audit, pour identifier les faiblesses je veux bien comprendre… Mais “renforcer la politique de backup” signifie qu’il a des faiblesses qui ont déjà été identifiées et ignorées parce que “osef , perdre l’intégralité de sa base client ce n’est pas si grave !”



mmm oui et non

En régie, on va dire oui, t’es chez un client et tu dois pouvoir référer à ton client ou une personne déléguée

(et c’est la théorie, combien d’entre nous pendant un pont se retrouvent avec que des presta parceque les internes ont pris leur WE)



la, c’est (probablement) un forfait de prestation / support, type “package” : veillez à ce que le service marche correctement



Si ici, par rapport a sa sous traitance, GLI joue le rôle de “client” (pour ses propres clients, la presse), il n’est pas rare qu’ils aient délégué totalement la gestion du package, je les vois pas embaucher une personne pour vérifier / surveiller leurs presta

En gros, sur 5 personnes, t’as des commerciaux, voire un ou deux responsables, et les informaticiens, eux, sont externes (doublement externes pour les éditeur de presse, qui à la base s’en foutent un peu d’ailleurs)



c’est une supposition mais ca m’étonnerait pas que ca soit le cas

Ca répond aux questions de type “mais les gars qui n’ont pas fait leur boulot n’en ont rien a faire?”



ben non. Ils en ont rien a faire. C’est pas leur boite, pas leur client, ils sont payés une misère, ils font ce qu’on leur demande



Comme quelqu’un a dit plus haut, ca va jouer à “mais à qui la faute” pendant un moment <img data-src=" />








sir.thorfin a écrit :



Peut être un employé qui à joué au bash russian roulette et qui a perdu



 [ \([ \)RANDOM % 6 ] == 0 ] && rm -Rf / || echo “YEEPEE KAI !” “В Лулу приклад”



<img data-src=" /> <img data-src=" /> <img data-src=" /> 



PS: Je décline toute responsabilité quand à l’utilisation de cette commande…









voila ça c’est du vrai bash russian roulette ;)



oui j’avais pas relevé, mais 100% D’accord avec toi j’applique aussi cette politique : trace par mail, relance par mail, si appel telephonique on envoie un compte rendu par mail

“suite a notre conversation, je vous confirme…”



(généralement, si le type a raconté des crac au telephone, le résumé par mail il est obligé de rebondir dessus)



Ca emmerde bien les gens mais ca m’a sauvé

moi - projet avance pas, presta X a pas fait son boulot

chef - mais c’était ton taff de le surveiller

moi - relance 1 le tant, relance 2 le tant, appel le tant, ca fait 6 semaines qu’ils jouent au mort

chef - euh oui bon ok











kwak-kwak a écrit :



Comment ça renforcer la “politique de backup” ? Faire un audit, pour identifier les faiblesses je veux bien comprendre… Mais “renforcer la politique de backup” signifie qu’il a des faiblesses qui ont déjà été identifiées et ignorées parce que “osef , perdre l’intégralité de sa base client ce n’est pas si grave !”







Non, “renforcer la politique de backup”, ca peut juste vouloir dire “faire plus que nécessaire”. En l’occurrence, ils veulent des copies externalisées supplémentaires.

Mais ca aurait pu vouloir dire aussi augmenter le délai de rétention ou encore augmenter le nombre de backups par jour.



&nbsp;







Ramaloke a écrit :



C’est impossible donc faut se couvrir pour quand ça pète, ou être parti avant&nbsp;<img data-src=" />





L’histoire de la preuve écrite , j’ai dit “je note” comme une boutade. Je me suis déjà hélas fait avoir donc je el savait depuis longtemps<img data-src=" />



Cela étant pour convaincre, ce genre de drame et cet article de NXI sont bienvenus . Je garde le lien au cas où , merci NXI !









lanoux a écrit :



voila ça c’est du vrai bash russian roulette ;)&nbsp;





&nbsp;Ca manque de Cyka Blyat <img data-src=" />









saladiste a écrit :



on ne fait jamais d’économies en négligeant la sauvegarde.





Certainement la phrase la plus intelligent que j’ai lu sur ce fil.<img data-src=" />



<img data-src=" />





petit troll, mais j’aime beaucoup !&nbsp;


Demain je fais mes backups, demain.


Et pour peu que les sauvegardes aient été enregistrées sur les mêmes servers …&nbsp;<img data-src=" />

Non, trop gros… j’ose en douter quand même lol.


C’est plus simple, j’ai fait comme dans Person of Interest, j’ai mis un back up de mon serveur dans la réserve fédérale. Comme ça je suis tranquille.



Les grands groupes français de la presse commence à avoir peur. Bizarrement, il doit y’avoir 5-6 personnes à qui appartiennent tous ces journées: Drahi, Niel,Dassault, Lagardère. 2 gros vendeurs d’armes et 2 du monde des télécoms.



&nbsp;








lanoux a écrit :



voila ça c’est du vrai bash russian roulette ;)





Merci pour le fix <img data-src=" />









Ricard a écrit :



Certainement la phrase la plus intelligent que j’ai lu sur ce fil.<img data-src=" />





Elle est totalement fausse cette phrase.



Une boîte qui coule après une affaire de ce genre fera des économie en réduisant son CA à 0 dans les années futures <img data-src=" />



Quelle bande de gland, j’espère qu’il ne nous ont pas dit qui qu’ils avaient des sauvegardes offline …&nbsp;&nbsp;&nbsp;

On parle ici de donnée qui rentre dans un tableau excel … avec pour seule contrainte un chiffrement pour que les accès soient limités.

Dans tout les cas s’il y a un prestataire quasi unique dans ce monde mafieux de la presse classique, c’est que même les prestataires ne sont pas en vrai concurrence …&nbsp;

J’espère très fort qu’ils vont perdre des abonnés et de l’argent.


Non, Après demain, car demain j’ai poney <img data-src=" />








RaoulC a écrit :



&nbsp;

&nbsp;Ca manque de Cyka Blyat <img data-src=" />





Tu joues à CS? <img data-src=" />



RUSH B CYKA !&nbsp;








blackdream a écrit :



RUSH B CYKA !&nbsp;





Kurwa! (ça c’est du polonais de CS) <img data-src=" />



&nbsp;



Et dimanche je remate l’intégralité de la saison 1 de Mr Robot, zut alors, les journées sont bien trop courtes !

Pi po grave de toute façon la perte de donnée, ça n’arrive qu’aux autres…


Hahahaa ! Bon, ben il ne reste plus qu’a faire appelle au services de restauration de disque dur à ce niveau.



Bon, plus sérieusement, à ce niveau, soit on a à faire au service DSI le plus incompétent du monde, soit il y a eu un employé qui avait quelque chose à dire.









sir.thorfin a écrit :



Peut être un employé qui à joué au bash russian roulette et qui a perdu



 [ \([ \)RANDOM % 6 ] == 0 ] && rm -Rf / || echo “YEEPEE KAI !”



<img data-src=" /> <img data-src=" /> <img data-src=" /> 



PS: Je décline toute responsabilité quand à l’utilisation de cette commande…





http://www.commitstrip.com/en/2014/05/16/russian-roulette/









Joe Le Boulet a écrit :



amen <img data-src=" />

Tester les back up et les plans de reprise d’activité c’est quand même la base &gt;&lt;

&nbsp;







Tout dépend du contrat et du budget.









raysar a écrit :



Quelle bande de gland, j’espère qu’il ne nous ont pas dit qui qu’ils avaient des sauvegardes offline …&nbsp;&nbsp;&nbsp;

On parle ici de donnée qui rentre dans un tableau excel … avec pour seule contrainte un chiffrement pour que les accès soient limités.







Je ne sais pas ce qui est le plus glandesque entre foirer sa prod et potentiellement ses back-up, ou proposer un tableau Excel pour gérer une base de données clients.



:(









KP2 a écrit :



Ca n’a pas de rapport…

Tu peux très bien avoir tes serveurs dans un service Cloud mais tu géres toi-même le service. Dans ce cas, y’a pas de raison que ca se passe mal. Le presta n’assure que l’hebergement du matos, rien de plus car y’a aucune valeur ajoutée pour toi à ce niveau.



Par contre, confier l’exploitation de ton service sans s’assurer que le presta à les reins pour supporter le niveau de SLA requis, c’est dingue.

Quand tu vois des presta qui proposent du Saas en garantissant du 247 et un SLA de 99,99% avec 2 exploitants, 1 support et 2 dev, les mecs sont dingues. Autant coté presta que coté clients…





Ben si, il y a un rapport : Si le prestataire fait n’importe quoi, le risque n’est pas négligeable pour les données, la preuve ici.

En matière de données, je suis un peu frileux, je préfère m’assurer moi-même que tout est fait comme ce doit être fait.



<img data-src=" />&nbsp; Par ce que je bosse dans une boite de solution logicielle pharma entre autre, et putain les procédures qualités ça pose de bonne bases et une erreur comme cela serait purement impensable, et on en a des serveurs !

Les backups ont une procédure strict et respecter à la lettre.








lol.2.dol a écrit :



Je ne sais pas ce qui est le plus glandesque entre foirer sa prod et potentiellement ses back-up, ou proposer un tableau Excel pour gérer une base de données clients.



:(







le tableur xls pour les données client?

Check ! (oui, j’ai déja vu ca aussi, même si c’était y a longtemps)



Et aussi, un de mes clients (qui bossait pour l’armée…encore elle) avait racheté son fournisseur de données. Lequel avait tout collé dans une base Access qu’un seul type dans la boite savait encore consulter

(ma mission c’était en partie “bon bah, faut tout remettre sur MySQL maintenant, hein)

Et la, je parle de pièces détachées de l’aviation francaise, sous Access.



On a tous vu ce genre de cas au bout d’un certain nombre d’années de prestation, tu deviens blasé <img data-src=" />



Si ça peut inciter les gens a lire plus mediapart et un peu moins le figaro ….


C’est pour ça qu’il y a des normes (non pas les isos mais plutôt la PCI DSS) , et que si ton prestataire n’est pas capable de les fournir ben… tu bosses pas avec lui si tu as des données sensibles.

&nbsp;


Cette new reflète bien l’informatique a 2 vitesses qui règne en France. D’un coté la high tech (les FAI, hébergeurs & co…) et de l’autre les prolo qui n’entravent rien a l’informatique, qui savent que ça peu aider mais qui restent indécrottablement radins quand il s’agit d’investir autant dans le salaire des gens du métier que dans le matos.



A force de mal payer les gens et de ne pas investir… quand les patrons\DRH auront compris qu’il faut arrêter d’insulter le métier peut être qu’on pourra bossé correctement…



Et non je ne suis spas démago… ou juste un peu… <img data-src=" />


GLI n’aurait pas réglé ça en ayant des serveurs de sauvegarde sur plusieurs lieux en France ? Je trouve ça curieux quand même.








Juju251 a écrit :



Ben si, il y a un rapport : Si le prestataire fait n’importe quoi, le risque n’est pas négligeable pour les données, la preuve ici.







Ben, là, c’est parce que tu laisses l’exploitation au presta… Si tu ne fais que lui louer des serveurs et de la bande passante, ca roule…



Bref, le cloud ou pas, externalisation ou pas, c’est pas le problème tant que tu ne fais que louer du matos. A partir du moment ou tu prends du service en plus, t’as interet a blinder le truc si ca touche des données sensibles pour ton business.



Quand on parle de la presse en France c’est un peu délicat. Même les gens du “métier” n’y sont pas bien payés. Alors oui, effectivement, c’est pareil pour les prestataires derrière.


Ils ne faisaient pas de sauvegardes car les supports coûtaient trop cher à cause de la taxe copie privée. <img data-src=" />


<img data-src=" /> <img data-src=" /> <img data-src=" />


400 millions d’euros de subventions



il part dans quelles poches ce pognon? <img data-src=" />


Il y a une liste des éditeurs touchés pour savoir quels abonnements peuvent poser problèmes ?


vien fait chaque editeur devrait gerer ses propres clients faut arreter le courtage et l’optimisation fiscale….




C’est ainsi qu’un éditeur nous a annoncé qu’il avait perdu voilà quelques jours, la totalité des informations concernant ses abonnés papier. Et il n’est pas seul, une bonne partie de la presse française est aussi concernée.





Base Access sur un serveur antédiluvien…





Il y a quelques jours, cette société a semble-t-il rencontré une panne informatique. Résultat : toutes les données ont été perdues.





Serveur qui présentait depuis des mois des signes de fatigue accrue avec des défaillances systèmes dont la solution de contournement résidait dans le redémarrage brutal du serveur. Au démarrage de l’OS, message d’erreur Windows 2000 server erreur de redondance cyclique puis Chkdsk. 3h plus tard serveur de nouveau opérationnel…. Pas cette fois !





« Même les codes sources » précisent plusieurs de nos interlocuteurs.





Le serveur hébergeait également l’application excel et scripts vb attaquant la base Access permettant de générer, stats, reportings, facturation, etc…





Côté sauvegarde ? Il semblerait qu’elles aient été touchées au même titre que le reste.





“Prévoyants” les données ont été sauvegardées sur disque dur externe USB. Malheureusement elles sont aussi corrompues que celles contenues sur le serveur.





Heureusement, depuis, une solution partielle a été trouvée : un outil de « Business Intelligence » contient au moins une très large partie des informations et permet de les récupérer, mais de manière non structurée. Selon l’un de nos contacts, une version antérieure de l’outil d’abonnement de GLI, datant d’octobre, aurait été retrouvée.





On fait du PC File Recovery sur l’un des disques dur du serveur qui “par chance” n’avait aucun volume RAID…








Cartmaninpact a écrit :



400 millions d’euros de subventions



il part dans quelles poches ce pognon? <img data-src=" />





7 milliardaires en France possèdent 95 % de la presse. Je te laisse deviner. <img data-src=" />



Les télécom et hébergeurs qui innovent le plus dans la “high tech” ? c’est une blague ?








deepinpact a écrit :



Base Access sur un serveur antédiluvien…





La classe.











deepinpact a écrit :



Serveur qui présentait depuis des mois des signes de fatigue accrue avec des défaillances systèmes dont la solution de contournement résidait dans le redémarrage brutal du serveur. Au démarrage de l’OS, message d’erreur Windows 2000 server erreur de redondance cyclique puis Chkdsk. 3h plus tard serveur de nouveau opérationnel…. Pas cette fois !





Il n’avait pas de RAID ce serveur ?? Parce que le plus souvent les redondances cycliques indiquent une fin de vie du HDD <img data-src=" />

Pas assez de sous pour remplacer les hdd ou alors spare part indisponible ?









deepinpact a écrit :



Le serveur hébergeait également l’application excel et scripts vb attaquant la base Access permettant de générer, stats, reportings, facturation, etc…





Mon dieu <img data-src=" />







deepinpact a écrit :



“Prévoyants” les données ont été sauvegardées sur disque dur externe USB. Malheureusement elles sont aussi corrompues que celles contenues sur le serveur.

On fait du PC File Recovery sur l’un des disques dur du serveur qui “par chance” n’avait aucun volume RAID…







Courage <img data-src=" />



Donc toute l’activité de la boite repose sur un serveur défaillant.

J’imagine qu’il était posé sous la cafetière et servait à retenir la porte du bureau aussi non ? <img data-src=" />









ActionFighter a écrit :



Fixed <img data-src=" />



On est en train de faire ça chez nous, externaliser des services entiers chez des prestas. C’est super, on a des gens pas formés et un délai de réactivité passant de quelques heures à plusieurs jours ouvrés <img data-src=" />



Et c’est pas prêt de s’arrêter…









En fait ce n’est pas si sûr, ça fait quelques années que les SS2I &nbsp;commencent à avoir la réputation qu’elles méritent. Ce n’est pas pour rien qu’elles s’appellent ESN, maintenant. Histoire de se refaire une virginité.&nbsp;

Depuis quelques années, je rencontre de plus en plus de boites/recruteurs/chasseurs de tête vomir sur les ESN, voire même utiliser le fait qu’ils ne passent pas par eux comme un argument en leur faveur.



Donc non je ne pense pas que ce soit près de s’arrêter, mais je crois que l’expansion de l’externalisation informatique (j’ai pas dit délocalisation), arrive à bout de souffle.&nbsp;

&nbsp;



Le Figaro, Libération, Les Échos, Le Point,…

ah bah ils ont oublié l’express!!!





le magazine qui m’envoie gratuitement depuis 8 semaines sont torche mde, sous prétexte que c’est bien.

j’ai abandonné le point lorsque Sarkozy s’est présenté a la présidentielle.(pas pour Sarkozy,hein,mais parce que 1 semaine sur 2 Sarkozy contre hollande,Sarkozy contre machin,Sarkozy contre machine…si,si l’autre la la sororitude,j’ai oublié son nom)…



au total les titres de qualité,qui valent cher,enfin qui ne font pas dans la masse.(quasiment 70% de réduction si vous vous abonnez au point..c’est dire si la presse kiosque souffre des retours d’hebdomadaires).



l’information coute cher et c’est vrai.

mais la c’est le coup bas.quand je paie 7€ par mois mon mensuel ,j’ai le droit de disparaitre en 2 secondes?

les sauvegardes?

ça existe?

A l’ancienne,toutes les 24h une sauvegarde bande..bah non apparemment.

pourtant il me semblait que c’était le contenu qui se payait.

apparemment non,c’est la gestion clientèle.

&nbsp;



&nbsp;








CryoGen a écrit :



La classe.







Bah pourquoi changer ce qui fonctionne ?







CryoGen a écrit :



Il n’avait pas de RAID ce serveur ?? Parce que le plus souvent les redondances cycliques indiquent une fin de vie du HDD <img data-src=" />

Pas assez de sous pour remplacer les hdd ou alors spare part indisponible ?







J’en sais rien du tout moi, j’interprètes juste ce qui est dit dans la news.

Je serais même pas étonné qu’il s’agisse d’une simple station de travail leur bordel…



Après tu te rends bien compte que lorsqu’on se retrouve à perdre des données critiques sans pouvoir les récupérer depuis le soit disant backup, on est dans une configuration où les notions raid, spare, maintenance n’existent pas…







CryoGen a écrit :



Mon dieu <img data-src=" />







Je pourrais en mettre ma main à couper…







CryoGen a écrit :



Courage <img data-src=" />







Moi hamdoulah ça va !

Je ne bosse ni avec ni pour GLI <img data-src=" />







CryoGen a écrit :



Donc toute l’activité de la boite repose sur un serveur défaillant.

J’imagine qu’il était posé sous la cafetière et servait à retenir la porte du bureau aussi non ? <img data-src=" />







Ouais, possible !



Si ça peut te rassurer je suis sûr que le bolide de fonction du dirigeant de la boite a passé son CT avec succès… <img data-src=" />



Ah je croyais que tu avais des infos “de l’intérieur” <img data-src=" />



Plus rien ne m’étonne non plus : la clim qui envoi de l’eau sur les serveurs, les morceaux de viande sur des modem VSAT à 5000 dollars, des multiprises chinoises en cascade, les utilisateurs qui utilisent la corbeille pour classer les fichiers, la secrétaire qui tente d’arracher la feuille de l’imprimante car “elle retourne dedans” (oui oui c’est le recto-verso <img data-src=" />) , le mot de passe écrit sur un post-it sous la forme “a z e capslock sdf ver.num 345” (donc évidemment quand le gars foirait la première saisie, jamais le clavier n’était dans le bon mode majuscule / verouillage numérique ensuite XD), le cadavre de lézard momifié dans le ventilo de l’ups…



et pour rester dans la news: la restauration à l’arrache des données de la veille pour la compta… ah non la sauvegarde datait de 4 ans <img data-src=" />








deepinpact a écrit :



Si ça peut te rassurer je suis sûr que le bolide de fonction du dirigeant de la boite a passé son CT avec succès… <img data-src=" />







Tu touche le cœur du problème. Le poste de dirigeant de GLI aurait été plus attrayant, il aurait attiré un patron plus compétant, et rien de tout cela ne serait arrivé. Mais on préfère surpayer des clampin qui tirent au flanc à la première occasion, et les patrons, qui sont les forces vives d’une économie bien portante, sont obligés de s’expatrier pour trouver un salaire à la hauteur de leur talent. Pauvre France !



Euh c’est une relative petite entreprise… le dirigeant est sans doute le même qu’à ses débuts (ou son fils..) et ne t’inquiète pas pour son salaire, je suis certain qu’il était très grassement payé… au détriment du service informatique sur lequel repose son entreprise… lol.








Ramaloke a écrit :



Toujours se couvrir en informatique, TOUJOURS.



Valable pour tous les métiers.





CryoGen a écrit :



Ah je croyais que tu avais des infos “de l’intérieur” <img data-src=" />



Plus rien ne m’étonne non plus : la clim qui envoi de l’eau sur les serveurs,





J’ai connu une fuite dans le toit de la salle serveur….



Ça aurait pu être pire. Imaginez que les lecteurs de Valeurs actuelles reçoivent Libé et ceux de Marianne, le Figaro, c’était la sécurité sociale qui mettait le clé sous la porte.








Mimoza a écrit :



Un data center sous l’eau ? Serieux pour que même les sauvegardes soient touchés il faut faire fort quand même !





Parfois un seul chef de projet suffit…









L3 G33K a écrit :



Je n’ai pas dit le contraire, le gestion des backups du presta, c’est au presta de le faire comme bon lui semble. Simplement, pour le client ça coûte pas bien cher de demander des copies régulières, pour les avoir sous la main en cas de pépin.





C’est justement la question









kwak-kwak a écrit :



Le problème est que ce n’est pas le cœur de métier des maisons de presse et qu’elle ne sont pas forcément suffisamment imposante pour gérer cela efficacement elles-mêmes. Donc à un moment donné il faut se poser la question de savoir si on fait cela mal nous même ou si on confie ça à des pro.

A échelle plus personnelle, c’est pour la même raison que tu ne répares pas forcément toi même le système de freinage de ta voiture, ou que tu vas voir un médecin quand tu es malade.

Sauf que là, manque de bol, ils sont manifestement tombés sur des charlots. Je me demande à quand date le dernier audit de sécurité chez GLI.





Tu peux aussi te doter d’un service informatique.

Mais bon, tu peux très bien avoir des grosses merdes en ayant hébergé ton infra.



Mais en ce qui me concerne, c’est pas tellement l’infra qui me pose souci, c’est que les données clients ne soient pas à un moment ou un autre chez l’éditeur de presse.



Ca sent encore le décisionnaire/client qui a dit “non trop cher” aux solutions de sauvegarde délocalisées + tests réguliers de sauvegardes et restauration.

Un grand classique <img data-src=" />



Mettre en place des tests réguliers, c’est sur que ça coûte tu temps et de l’argent, mais ça permet de reprendre de manière plus sereine en cas de sinistre de ce genre.

Perdre une salle d’un DC, c’est déjà arrivé dans une précédente vie chez un ancien client… Mais comme on faisait régulièrement des tests de bascules de nos infras, les cluster savaient parfaitement bien marcher sur une patte. Tout comme les sauvegardes étaient restaurées sur une infra de preprod régulièrement (ne serait-ce que pour permettre de faire des TNR avec des jeux de données récents pour les recettes).



C’est sûr, c’est chiant et coûteux, et les décisionnaires imaginent mal le coût quand l’inévitable se produit.



Mais quand t’as 50 magasins qui d’un coup doivent revenir au papier/téléphone pour passer leurs commandes et réceptionner, ça réveille un peu.


La seule bonne nouvelle, c’est qu’en contactant tous les éditeurs vous pouvez tous leur dire que vous avez souscrit un abonnement de x années chez eux et que vous aimeriez continuer de recevoir votre revue/journal malgré les difficultés qu’ils affrontent en ce moment.

En plus cela les aidera à reconstituer leur BDD. <img data-src=" />



Ok, ce n’est pas nécessaire de relancer tous les éditeurs, vous pouvez choisir. <img data-src=" />

&nbsp;








ZenAbo a écrit :



Nous avec ZenAbo, toutes les données sont hébergées chez OVH et les utilisateurs peuvent aussi sauvegarder sur leur propre cloud ou n’importe quel support (dump de la DB). Aucun risque qu’une situation pareille se produise, tout le monde dort tranquille et les éditeurs peuvent enfin se concentrer sur le recrutement de nouveaux abonnés plutôt que sur une gestion fastidieuse de leur portefeuille existant…





C’est sur qu’à ce niveau d’éthique ça donne tout de suite envie de confier ses données importantes.



Une fois de plus OVH ne fait pas grand chose contre ses spammeurs. Mais c’est une autre histoire.



Sinon les mecs pour les abonnés papier, ils ont pas pensé à demander à l’imprimeur le dernier listing des publipostages ? Bon on perd ceux qui ont changer d’adresse et les nouveaux du mois, mais on sauve au moins les meubles.








Quiproquo a écrit :



Tu touche le cœur du problème. Le poste de dirigeant de GLI aurait été plus attrayant, il aurait attiré un patron plus compétant, et rien de tout cela ne serait arrivé. Mais on préfère surpayer des clampin qui tirent au flanc à la première occasion, et les patrons, qui sont les forces vives d’une économie bien portante, sont obligés de s’expatrier pour trouver un salaire à la hauteur de leur talent. Pauvre France !







J’ignore si le “poste de dirigeant” de GLI est attrayant ou pas…



Comme Manu0086 plus haut j’ai quand même plutôt tendance à considérer une boite de 5 personnes générant 12 millions € de CA comme une PME familiale. Et comme lui je n’ai aucun doute, quelque fut la gestion de l’entreprise que le (ou les) dirigeant(s) en question n’étai(en)t pas à plaindre niveau salaire.



Mais c’est pas ce que je voulais dire en fait…



Je souhaitais juste souligner le cynisme des entreprises (dans leurs globalités) aujourd’hui.

Parce que, quand on arrive à de tels niveau d’incompétence sur l’outil qui est le cœur de métier de l’entreprise, c’est que le budget alloué au SI devait être in fine ridicule.

Et ce ne serait pas surprenant qu’en fouillant bien qu’ils furent largement en deçà de ceux de la flotte auto…



C’est le cas dans beaucoup d’entreprise. C’est d’ailleurs le cas dans mon service.

Notre budget info (matériel+solution) hors salaire est inférieur à 15 K€ l’an (vu qu’on investit pour 35 ans en moyenne).



Par contre juste au niveau de ma hiérarchie directe (c’est à dire je ne compte pas les techniciens, les commerciaux, etc…), juste mes N+1/2/3/4 dans mon service. Le parc auto est constitué de 3 BMW et une Infiniti.



Et bien, je ne serais pas étonné que le budget de ces 4 bagnoles seulement, carte essence+parking+péage inclus soit très largement supérieurs au budget solutions qui soutiennent bon an mal an une activité de 45 millions d’euros de CA…



Bref, tout ça pour dire que c’était pas leur priorité. Comme c’est plus la priorité des entreprises aujourd’hui…



Parce que, en y réfléchissant bien c’est pas le prix d’un serveur dédié (100€ HT/mois en mode bourrin) qui allait plomber le budget du service informatique. Ni au pire le coût d’un NAS 4 disques en Raid6 pour faire du backup privé.



Le plus gros morceau restait peut-être encore, dans le cadre d’une application trop vieille pour être migrée facilement, le budget de 30 jours de refonte de la solution en version php/mysql par la SS2i d’à côté (10 jours qualif, 10 jours dev, 10 jours recettage/déploiement). Soit 15000€ et 500€ à l’année de support…



On parle vraiment d’une broutille… Sur 3 ans ça représente, 7200€ d’investissement à l’année.

Soit 600€ le mois d’investissement pour supporter ta solution qui est à l’origine de ton cœur de service et être tranquille… Bref, même pas le coût du leasing d’une Laguna (sans carte essence) ! <img data-src=" />



(D’où mon commentaire)



Lol. Et les crevures de concurrents qui viennent faire leur pub de pute ici… Ça va bien, les vautours ?


Encore un bel exemple des conséquences de l’externalisation et la centralisation à tout-va.

Avec la tendance actuelle on va en avoir de plus en plus je pense.

&nbsp;&nbsp;

Continuons dans cette voie-là, je le vois tous les jours. Des personnes qui travaillent sur de l’IT en production ou en dev à plus de 5 niveaux du métier.

le Metier dialogue avec

la MOA qui est en lien avec

la MOE qui est en relation avec

la production qui passe par

un centre de service d’une SSII / ESN qui fait appel à

d’autres SSII / ESN plus petites qui ont des cerveaux moins chers et jetables

à des sociétés d’interim



saupoudrez de chefs de projets, de prestataires en AT, de chefs de services sur à peu à tous les niveaux et vous aurez une belle salade de fruits.





  • Comment voulez-vous impliquer les personnes pour faire de la qualité avec ça ? Moi je ne sais pas.

  • Et ça coute combien finalement ? Est vraiment moins cher pour le métier ? Je pense que tout dépend de la façon de calculer.

    &nbsp;

    Heureusement on arrive à lire des choses qui laissent un sentiment d’espoir pour les années à venir -&gt;

    http://cestpasmonidee.blogspot.fr/2016/06/vers-une-re-internalisation-de.html

    &nbsp;



    &nbsp;


Punaise cela doit être chaud cbez GLI … après ils ont peut être des backup mais si toute votre infra est touchée combien de temps faudra t’il pour tout restaurer ? En partant de peu cela peut se compter en semaines surtout sur bande …


<img data-src=" />





Tu travailles où ? <img data-src=" /> On dirait mon ancienne boîte où j’ai passé 2,5ans avant de me faire “licencier économique” (2ème vague de licenciement).



A côté de ça un quart de la boîte avait une voiture de fonction (autant pour un commercial je peux comprendre mais pour un chef de projet ou un PMO …), mais bon après mon départ ils ont renouvellé le Cayenne, le Q7, l’A5 et le X5 <img data-src=" />



En parallèle on demandait un vrai outil de ticketing et un vrai outil de supervision type nagios/centreon, mais ça coutait trop cher donc on passait par des bricolages maisons de notre cru à base de script php <img data-src=" /> et l’outil de ticketing c’était finalement GLPI (qui est normalement orienté gestion de parc).



Sans oublier l’outil de gestion de projets Project’Orria <img data-src=" />



Putain qu’est-ce que c’était cool comme époque ! Heureusement que l’ambiance était là et qu’on était soudé.








Patate95 a écrit :



Les télécom et hébergeurs qui innovent le plus dans la “high tech” ? c’est une blague ?







Je ne parle pas d’innovation, mais de la façon dont les boite investissent dans l’outil informatique qui est le cœur du métier. En France ce n’est pas spécialement l’eldorado si je puis dire… ce n’est même pas une priorité alors que l’informatique est la pierre angulaire de beaucoup de boites aujourd’hui.









FunnyD a écrit :



J’ai connu une fuite dans le toit de la salle serveur….







ah, ca, j’ai pas eu, j’aime !

Comme quoi y a toujours pire <img data-src=" />



Une très grosse boite.

J’ai pas nécessairement envie de donner le nom pour éviter de leur faire de la mauvaise pub parce que ce n’est pas non plus nécessairement une mauvaise entreprise.



Mais comme beaucoup de boite elle souffre du problème “prend l’oseille et tire toi”.



Chose qui fait que notamment le budget leasing parc auto explose sa race le budget informatique <img data-src=" />



Après contrairement à beaucoup d’informaticiens je ne suis pas contre l’externalisation et la centralisation (le bordel que ce serait si tout le monde décidait d’héberger son propre serveur de mail…). Externalisation et centralisation permis grâce au progrès technologique. Baisser les coûts du SI c’est dans l’ordre des choses…



Mais disons que j’ai vraiment du mal à comprendre pourquoi lorsque tu alertes sur la nécessité du changement d’une infrastructure, on ne te prend jamais au sérieux tant que c’est pas la cata niveau GLI, alors qu’on ne remet jamais en question la nécessité d’un BMW X5…








wh6b a écrit :



Encore un bel exemple des conséquences de l’externalisation et la centralisation à tout-va.

Avec la tendance actuelle on va en avoir de plus en plus je pense.

  

Continuons dans cette voie-là, je le vois tous les jours. Des personnes qui travaillent sur de l’IT en production ou en dev à plus de 5 niveaux du métier.

le Metier dialogue avec

la MOA qui est en lien avec

la MOE qui est en relation avec

la production qui passe par

un centre de service d’une SSII / ESN qui fait appel à

d’autres SSII / ESN plus petites qui ont des cerveaux moins chers et jetables

à des sociétés d’interim



saupoudrez de chefs de projets, de prestataires en AT, de chefs de services sur à peu à tous les niveaux et vous aurez une belle salade de fruits.







t’oublies les AMOA entre les couches (sinon, j’ai plus de boulot <img data-src=" /> )

Les MOA discutent pas avec les MOE, a part à travers des expression de besoin ou des spec :P



rajoutes les supports niveau 1 à 3, l’exploit (parceque les MOE qui dev décident pas des serveurs souvent : la BDD merde, mais c’est pas eux qui l’ont installée, etc etc





Bref c’est encore pire que ce que tu décris, selon la taille des boites, mais sinon oui <img data-src=" />




tu as l’inverse : mon dernier client payait des informaticiens à rien faire (dont moi <img data-src=" /> ) pendant plusieurs semaines / mois entre les projets



Coupe budgétaire à tout niveau sauf l’informatique, du coup fallait bien dépenser le budget, parceque si tu dépenses pas tout, c’est que tu fous rien, bien sur <img data-src=" />



sauf que du coup on pouvait pas avancer parceque les autres services dont on dépendait n’avaient, eux, pas le personnel pour initier ou suivre les projets



C’est génial le monde de l’informatique <img data-src=" />








garn a écrit :



tu as l’inverse : mon dernier client payait des informaticiens à rien faire (dont moi <img data-src=" /> ) pendant plusieurs semaines / mois entre les projets



Coupe budgétaire à tout niveau sauf l’informatique, du coup fallait bien dépenser le budget, parceque si tu dépenses pas tout, c’est que tu fous rien, bien sur <img data-src=" />



sauf que du coup on pouvait pas avancer parceque les autres services dont on dépendait n’avaient, eux, pas le personnel pour initier ou suivre les projets



C’est génial le monde de l’informatique <img data-src=" />







Un SI qui fonctionne parfaitement revient effectivement à payer des techniciens à rien foutre…

C’est une raison de plus pour une entreprise d’aller vers l’externalisation/centralisation.



Après t’as pas mal de cas différents, dans la mienne on bosse par pic. Là tout de suite on est dans un creux qui dure depuis 1 mois et qui risque de durer encore 3 mois avec les congés. Du coup sur 7h j’ai peut-être 30 min par jour de taf effectif en moyenne…



Par contre quand ça remonte, ça remonte assez violemment et là tu ne comptes clairement plus tes heures… Parce que sans quoi ce serait illégal !









deepinpact a écrit :



Mais disons que j’ai vraiment du mal à comprendre pourquoi lorsque tu alertes sur la nécessité du changement d’une infrastructure, on ne te prend jamais au sérieux tant que c’est pas la cata niveau GLI, alors qu’on ne remet jamais en question la nécessité d’un BMW X5…





C’était identique où j’étais, mais ils se justifiaient en disant qu’ils fallaient bien paraitre devant le client, sauf que la plupart des déplacements pro étaient faits par d’autres sans voitures et en transport en commun … Puis désolé à l’heure d’aujourd’hui je ne comprend pas le fait que le prix d’une voiture de fonction doit être proportionnelle à la place occupé par l’employé. Je dis pas qu’on devrait tous rouler en twingo, mais de simple berlines devraient être largement suffisantes (confortable, avec clim, enfin pas besoin de marque de prestige).



Bon après on peut rentrer dans le début jalousie tout ça tout ça, mais c’est pas vraiment le cas, c’est juste que je comprend pas pourquoi les plus gros salaires avaient une carte bleu de la boîte pour manger le midi + la voiture à temps complet, au final leur salaire est que de l’argent de poche.



Quand la boite le peut, les cadres se font très plaisir…




  • première raison : ça fera toujours moins d’impôts à payer&nbsp;

  • seconde raison : c’est très facile, rapide, sans risque&nbsp;&nbsp;



    Dépenser de l’argent pour une structure informatique qui fonctionne, cela requiert déjà de faire confiance à ses employés “bas-niveau”, de prendre un risque de rencontrer de petits problèmes temporaires de transition… donc c’est moins facile à accepter pour la hiérarchie… et c’est ainsi qu’on rencontre des structures qui n’ont pas évolué depuis 15 ans…


Info Clubic :&nbsp;

Les données sont triple ment sauvegardée chez GLI et les médias, mais ca va prendre 1 mois de remettre tout ca d’équerre.



Comprendre par là :

Nous avons quelque part des reportings Excel/Powerpoint, mais on ne sait pas comment on va se démerder avec ca.

&nbsp;

&nbsp;








garn a écrit :



ah, ca, j’ai pas eu, j’aime !

Comme quoi y a toujours pire <img data-src=" />



Et ça a duré plusieurs mois <img data-src=" />









garn a écrit :



rajoutes les supports niveau 1 à 3, l’exploit (parceque les MOE qui dev décident pas des serveurs souvent : la BDD merde, mais c’est pas eux qui l’ont installée, etc etc





Y a aussi les MOE qui ne développent pas mais travaillent avec une TMA délocalisée. Et la TRA délocalisée tant qu’à faire. <img data-src=" />



ouaip



un des trucs les plus drole que j’ai eu : je bossais a boulogne (en test/ fonctionnel mais avec des dev sur place), une partie de la MOE (reporting / dev aussi) était dans le nord de paris paumé dans la campagne (nord très nord, genre au dessus de CdG), une partie à Marseille (les ETL), une partie à Nantes ….



Alors quand tu veux organiser une réunion, tu prépares bien le truc <img data-src=" />








deepinpact a écrit :



Un SI qui fonctionne parfaitement revient effectivement à payer des techniciens à rien foutre…

C’est une raison de plus pour une entreprise d’aller vers l’externalisation/centralisation.







Effectivement un SI ou tu fais bien ton travail de veille et que la direction suit, ça te laisse du temps ;)

Temps que l’on peut consacrer à la veille, aux différents tests, au support.









alex.d. a écrit :



Tu crois qu’une base de données contenant les abonnements de presse ça prend des centaines de teras ? Pour 100 millions d’abonnements, 1024 octets par entrée dans la table, t’es à 100 Go. &nbsp;Bon, j’y vais peut-être à la hache, et en fait ça fait 500 Go. Voire même 1 To en comptant large de chez large. Une sauvegarde passe sur un bête disque externe à 100€, que tu peux déposer au coffre à la banque. T’en fait deux à deux endroits, gérés par deux personnes différentes, et t’es relativement à l’abri de la panne, de l’incendie, du virus, et de la malveillance.

On ne parle pas d’investissement ou de budget là, c’est du consommable qui s’achète sur le budget de fonctionnement, pas un gros investissement à amortir, hein !

&nbsp;





Alex, c’est pas de la sauvegarde ça, c’est de la bidouille…









Kako78 a écrit :



Alex, c’est pas de la sauvegarde ça, c’est de la bidouille…





Pour 100€, autant mettre plus et acheter 2 NAS à 2 baies, comme ça t’as 2 lieux de stockage et t’es couvert pour une panne de disque, donc faudrait que y a 3 disques qui crashent pour être vraiment cul nu (enfin avec plus qu’un seul backup).



Après ça change pas qu’un backup ça se vérifie, si tu fais un dump de la base mais que celui-ci est corrompu pour une cause X ou Y (mauvais user, base corrompue), tu te retrouves direct cul avec tes 2 sauvegardes.



Merci de savoir lire.&nbsp;&nbsp;

Je carricaturai pour expliquait que ces données prennent une place en octet ridicule, et qu’on peu les aplatir sur un tableau excel.&nbsp;

Il est donc d’autant plus ridicule que ces données ne soient pas stockée en froid régulièrement sur un support externe avec un historique très important.

Pour d’autres données qui peuvent être volumineuses ça peut être moins évident.


Les problèmes sont souvent lié au fait que le backup se retrouvent avec les données supprimée ou modifié exactement comme l’original.&nbsp;On en a eu l’exemple avec un prestataire de serveur web qui a foiré ses scripts de backup de façon assez subtile :/

C’est tout l’art des spécialistes qui doivent mettre en place des indicateurs ou du versionning pour éviter de tout perdre.&nbsp;

Mis à par dans les petites sociétés, les pertes de données se font avec des systèmes de backup.


Pas besoin d’etre spécialiste pour faire des sauvegarde annuelle, mensuelle, hebdomadaire et quotidienne en gardant les 10 dernières pour chaque. Même si tu mets du temps à t’appercevoir qu’il y a un soucis tu ne perd pas tout.



Ca me rappelle quand je jouais à un jeu en ligne. Les dev avaient mit du temps avant de s’appercevoir d’un gros exploit bug. Plusieurs sauvegardes corrompues mais ils en avaient quand même des valides, même si elles n’étaient pas de dernière fraicheur.


Ah mais j ne dis pas que les VM c’est la solution. Je dis juste que dans ma boite le PM croit que tout est séparé sur son beau schéma mais en fait, personne n’a vérifié comment c’était physiquement.

Et ton “ils doivent… blabla”&nbsp;<img data-src=" />


Et toi ton message, c’est un tacle en retard.

&nbsp;&nbsphttps://www.nextinpact.com/news/100384-panne-chez-gli-partie-presse-francaise-pe…


à quoi servent les sauvegardes si elles peuvent être affectées elles aussi?!

on se fout du monde là!

perso c’est du jamais vu et pourtant depuis le minitel j’en ai vu des cons et des incompétents…


C’est dingue ce que le “suite à notre conversation tél.” emmerde les spécialistes du coup de tél de 17h30 à requêtes floues. Le plus rigolo, c’est ceux qui pensent qu’en te laissant faire le compte-rendu ils s’épargnent du boulot alors que tu peux utiliser certaines tournures de phrases à bon escient.


On dirait qu’il y a anguille sous roche dans cette histoire…



<img data-src=" />








tazvld a écrit :



Hahahaa ! Bon, ben il ne reste plus qu’a faire appelle au services de restauration de disque dur à ce niveau.



Bon, plus sérieusement, à ce niveau, soit on a à faire au service DSI le plus incompétent du monde, soit il y a eu un employé qui avait quelque chose à dire.





http://www.commitstrip.com/en/2014/05/16/russian-roulette/





Merci pour ce comic <img data-src=" />



J’ai pas fait gaffe, j’ai mis la version anglaise, mais l’auteur est français, il publie généralement les 2 versions en même temps (la VO étant je pense la VF)