[Tribune] Le numérique doit prendre sa part du virage écologique. Voici comment.

[Tribune] Le numérique doit prendre sa part du virage écologique. Voici comment.

Tribune de Tristan Nitot, Sustainability Lead, Scaleway

Avatar de l'auteur
Tristan Nitot

Publié dans

Sciences et espace

07/11/2022 5 minutes
58

[Tribune] Le numérique doit prendre sa part du virage écologique. Voici comment.

Voilà, la COP 27 est arrivée et la pluie de rapports et d'actualités sur le changement climatique ne cesse pas, faisant suite à un été anormalement long et chaud, assorti de mégafeux et de sécheresse en France, ainsi que d’inondations meurtrières au Pakistan.

Comment concilier la nécessité de réduire l'empreinte carbone du numérique de toute urgence avec le besoin constant de croissance ? Coïncidence amusante, la COP 27 tombe lors de l'anniversaire du lancement commercial du premier microprocesseur par Intel, le 4004 (le 15 novembre 1971). Il a marqué le début de la révolution numérique et a inspiré la loi de Moore, selon laquelle la puissance des puces électroniques double tous les 18 mois.

D'un côté, la loi de Moore a permis l'hyper-croissance de l'industrie du numérique depuis 51 ans, ce qui fait que nous avons (presque) tous un ordinateur dans la poche ou le sac à main. Mais de l'autre côté, justement parce que la puissance doublait rapidement, les développeurs n'avaient aucune incitation à optimiser leur code, puisque même s'il fonctionnait au ralenti le jour de sa sortie, il serait rapide un an et demi plus tard, renouvellement du parc oblige. Aujourd’hui, 51 ans plus tard, nous continuons à développer des logiciels peu optimisés et donc à gaspiller à grande échelle. Par exemple, sur ces 25 dernières années, la taille des pages web a été multipliée par 150. La mémoire requise pour faire tourner Windows et Office a été multipliée par près de 200. Bien sûr, nos pages web et nos documents bureautiques sont mieux qu’avant, plus beaux et plus intuitifs. Mais sûrement pas 150 à 200 fois mieux.

Le numérique continue à croître, et sa consommation énergétique aussi : il représente déjà 4 % des émissions de gaz à effet de serre mondiales (bien plus que l’aéronautique !). Résultat, les avertissements s’accumulent : d’un côté les rapports du GIEC nous expliquent qu'il va falloir diviser ces émissions par deux d'ici 2030, de l’autre, la guerre en Ukraine nous rappelle que dépenser l'énergie sans compter est une posture du passé. Comment réconcilier ces deux tendances à première vue contradictoires : virage climatique et besoin de numérique ?

Faire durer les équipements est indéniablement le plus gros levier à notre disposition. En effet, en France, la fabrication des terminaux représente les trois quarts des émissions de gaz à effet de serre du numérique. Amortir le matériel sur cinq ans ou plus, acheter d'occasion, résister à la tentation du dernier gadget à la mode, de l'iPhone 14 à la TV 4K, sont autant de solutions à ce problème. Il conviendra aussi de ne pas retomber dans les travers de « l’effet rebond », en consommant plus de ressources uniquement parce qu’elles deviennent plus accessibles. C’est d’autant plus important que nous savons que l’électronique est la catégorie de déchets qui connaît actuellement la plus forte progression au monde.

Mais d'autres leviers existent, et le cloud public en est un. Au lieu de faire de l'informatique « à la papa », chez soi (on-premises, dans le jargon), on gagnera à passer au cloud public, et ce pour plusieurs raisons qui se recoupent.

Tout d'abord, le on-premises oblige à dimensionner son outil informatique pour faire face aux pics d'activité les plus intenses. Pour un détaillant en ligne, cela peut être le Black Friday, ou la période des fêtes. Résultat, le reste du temps, on dispose de serveurs très largement sous-utilisés, souvent à moins de 10 % de leur capacité. En plus de causer des émissions de gaz à effet de serre, c’est un immense gaspillage d'énergie, d'eau et de ressources minérales.

Avec le cloud public, à l'inverse, les ressources sont mutualisées : le client ne loue que les serveurs dont il a besoin à l'instant « t », et bénéficie ainsi de l'élasticité du cloud. De ce fait, les serveurs ont un taux de charge bien plus élevé, car utilisés à pleine capacité, et par plusieurs clients en même temps. Vu la taille des datacenters, on bénéficie aussi d'une approche industrielle pour gérer au plus près la consommation électrique des équipements, leur refroidissement, leur sécurité et leurs connexions internet. Bref, bien mieux que ce que pourrait faire une équipe de plus petite taille dans une approche on-premises.

Et si les fournisseurs de cloud se décidaient à aller plus loin ? Par exemple, en alimentant leurs datacenters uniquement par les énergies renouvelables et en concevant ces derniers de telle sorte qu’ils consomment le moins d’énergie et d’eau possible pour le refroidissement de leurs machines ?

La durée de vie des serveurs est aussi un enjeu : entre 10 et 15 % des émissions de gaz à effet de serre des serveurs sont produites lors de la phase de fabrication. Aussi, les faire durer est essentiel pour réduire leur empreinte carbone durant toute leur utilisation. Or, il est possible de faire durer des serveurs jusqu’à dix ans, en les reconditionnant, là où la moyenne du secteur est de trois à quatre ans.

Chez Scaleway, fournisseur de cloud français et européen, ces initiatives sont déjà en place, et, pour certaines, depuis une décennie. Nous sommes persuadés que la réduction de l’impact du numérique est la responsabilité de tous, des fournisseurs de cloud à leurs clients, et jusqu’à leurs utilisateurs finaux. Car l’enjeu est de taille.

Face au changement climatique, le secteur numérique ne peut pas rester dans le déni : lui aussi doit faire sa révolution copernicienne. Si nous ne parvenons pas à stabiliser le climat, sans clients sereins et solvables, l’avenir du numérique est bien sombre. Lui aussi doit jouer son rôle et le passage au cloud public, en complément d'une stratégie pour allonger la durée de vie des terminaux, est la meilleure option pour y arriver.

Écrit par Tristan Nitot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (58)


Faire pédaler le personnel pour alimenter le datacenter c’est une énergie renouvelable ou bien ? :transpi:



Inny a dit:


Faire pédaler le personnel pour alimenter le datacenter c’est une énergie renouvelable ou bien ? :transpi:




Ca dépends si la bouffe est bio


«Avec le cloud public, à l’inverse, les ressources sont mutualisées : le client ne loue que les serveurs dont il a besoin à l’instant « t », et bénéficie ainsi de l’élasticité du cloud.»



Dès le début de la tribune, je m’attendais à ce que ça prenne cette direction, je ne suis pas déçu.
Combien d’entreprises ont des pics de charge typiques d’un black friday qui nécessiteront vraiment une solution élastique ? Combien sauront exploiter une telle solution ?
Pour être élastique, combien de serveurs chez les cloudeux sont en attente de nouvelles VMs ?
Et surtout, surtout… ne parlons pas d’imposer aux gens d’optimiser leur code et leurs choix de technos, chut !


Sans parler du fait qu’un black friday, c’est tous les vendeurs qui ont un pic, puis pour noël, c’est pareil.



N’oublions pas qu’au départ, le cloud d’Amazon est parti de l’idée de louer aux autre les serveurs qu’ils n’utilisaient pas en dehors de la période avant Noël qui représentait un pic. Mais, cette idée n’a pas tenu très longtemps : les autres vendeurs de cadeaux avaient le besoin d’augmenter leur capacité à la même période. Ils ont donc ajouté des serveurs dédiés pour les autres en gardant pour eux l’usage de leurs serveurs lié à leur activité de marchand en ligne. C’est ainsi qu’on crée une nouvelle activité dans une société. :D


blablabla
gnangnangnan
blablabla
culpabilisation
blablabla
publicité ‘subliminale’
blablabla



Tristan Nitot



Envoyé depuis mon core i9 + 8k + 2 x 4K


Peut être que je l’ai mal compris mais pareil je ne suis d’accord avec cette tribune.
Oui généralement dans le monde professionnel on dimensionne les serveurs pour l’usage maximal mais par exemple les industries ne fonctionne pas comme le commerce et ça n’est pas dimensionné juste pour les “événements” du black black friday ou noël, paques….
Et malgré les arguments, pour pouvoir faire un scale up pour toutes ces industries au niveau cloud, il faut déjà avoir les serveurs en disponible et en route, alors oui ils peuvent être utilisé par plusieurs mais c’est pareil la demande est telle lors de ces évènements, que je ne suis pas sur que les fournisseurs de cloud ne soit pas surdimensionné et donc dans ce cas aucun avantage comparé à avant.


J’aurais aimé plus de chiffres dans une tribune notamment sur une comparaison entre le cloud à “papa” et le cloud des pros. ça m’aurait intéressé pour divers scénario. Perso, j’héberge une base de données (réplica) d’une 10 To pour un collègue. Le mini-PC (d’ailleurs je l’avais choisi après un article de David ici :smack: ) sert également de “DropBox maison” et de bastion ssh. Je suis à environ 20 W à la prise (quand les disques durs tournent) sinon je frole les 10W.



Mais comme dit plus haut, il faudrait envisagé à optimiser les codes et à utiliser les bonnes technos avant de sortir l’argument du “cloud à papa” c’est has-been (en tout cas c’est comme ça que je résume l’article).
Et le “cloud à Papa” à l’avantage d’héberger ses données chez soi et par le PC d’un autre (c’est bien la définition n°1 du cloud, non ?).


Puisque la tribune vante Scaleway, j’aurais trouvé utile de donner davantage d’informations. En particulier sur la consommation des serveurs. Je m’explique : un problème avec les serveurs dans les data centers, c’est qu’ils tournent à fond tout le temps. Les systèmes d’économie d’énergie sont désactivés afin de garantir un niveau de performance maximales, qu’importe les applications qui tournent dessus. Cela rend le cloud public plus énergivore que le on-premise (sans parler du système de clim, etc). Et oui, comme certains le remarquent, en dehors des pics, là aussi les serveurs sont sous-utilisés.
Du coup, qu’en est-il de Scaleway ? La tribune gagnerait à se justifier davantage avec des chiffres, plutôt que de passer pour une pub en utilisant des arguments vagues, voir déconnectés de la réalité.


Je trouve que ce billet souffle le chaud et le froid.
Il faut « résister à la tentation du dernier gadget à la mode, de l’iPhone 14 à la TV 4K », mais quelques lignes plus bas, on nous conseille d’utiliser le cloud pour gérer les pics de connexion du… Black Friday.
D’un côté, on devrait revoir la conception de nos pages web, qui sont de plus en plus lourdes. Mais de l’autre, on devrait passer au cloud, parce quelques jours par an, les commandes s’affolent ? C’est un peu facile.
En résumé : le on-premises c’est mal, le cloub c’est bien (surtout chez Scaleway, oeuf corse).
Je veux bien que ce soit une tribune, donc c’est publié tel quel, mais là on est à la limite du publi-rédactionnel (nonobstant le fait que je :incline: le rédacteur).



grsbdl a dit:


Puisque la tribune vante Scaleway, j’aurais trouvé utile de donner davantage d’informations.




Idem. Une bonne valorisation de la chaleur fatale peut avoir plus de sens qu’une amélioration marginale de l’efficacité énergétique.


Pour le côté désenchantement du logiciel, je ne peux que recommandé l’article de Romain Fadet à ce sujet (qui est en fait une traduction d’un article anglais).



Pas de pub, et on comprend bien le désenchantement (que je ne peux que constater aussi malheureusement…)


Il est très bien, ce papier, merci pour le partage !


Merci pour le lien.



Perso, je le trouve pas vraiment superbe. Certes il résume assez bien la situation en entreprise mais il semble oublier, malheureusement, comme une entreprise fonctionne.



Par contre sur d’autres point je suis pas d’accord et il semble méconnaître un peu le sujet. Un compilateur (un vrai comme gcc, icc par cette merde de chez M$) prend du temps, pas pour le plaisir mais parce que certaines options de compilations (en particulier pour les optimisations, l’analyse du code) demande pas mal d’analyse. Si la compilation d’un programme est lent c’est éventuellement parce que le code a mal été écrit ou le fonctionnement du compilateur méconnu pour l’exploiter correctement. Je parle avec expérience sur un code de plus d’un 1 millions de lignes en C++.



Les OS sont plus complexes car les progrès ont évolué. Il semble oublier que la gestion de la mémoire virtuelle sous W98 n’a rien à voir avec celle de nos jours. Coder un MGLRU dans le kernel, c’est pas mettre du JS sur une page Web. Il y a également les aspects de sécurité qui ont un impact.
Enfin, il me semble que ce monsieur semble oublier que les OS modernes gèrent la mémoire RAM d’une façon différente et que le cache dans la RAM est souvent mesuré par les moniteurs mais pas rarement compris par ce qui les interprète.



Il a raison sur les points concernant le fait qu’on peut coder la merde car les machines vont vites. Mais ils oublient qu’une entreprise à besoin d’argent pour vivre et que si un concurrent fait un code “aussi rapide” (Michu ne voit pas la différence entre 0.5 s et 6 s, surtout sur son Windaube) mais pour deux fois moins chère, il aura pas le contrat. C’est les règles du jeu des entreprises, je les approuvent pas, mais ton paquet de pâte ne se paye pas avec la “beauté du code” ni sa performance. Et oui, le monde moderne est dominé par les Michus. Et cette espèce invasive à réussi (sans surprise, hein) à prendre sa place dans les entreprises et c’est comme ça que des OS performants ont laissé place à des merdes infâmes, qui par une brillante stratégie marketo-commercial a réussi à faire accepter aux Michus qu’une mise à jour d’un OS qui prends 30 minutes (et qui plante souvent) est normal. Que voulez-vous, les cons ça acceptent tout et c’est même à ça qu’on peut les reconnaître.



Néanmoins, apportons une touche d’espoir : Il existe des jobs (certes j’en ai pas trouvé en France, hors du public) où la performance, l’utilisation de la bonne techno et l’optimisation est plus importante car le temps du développeur est moins chère que celui de l’ordinateur. Et avec l’augmentation du coût de l’énergie ce genre de jobs risque de devenir de plus en plus important. Mais encore faudrait-il que les techos puisse être écouté au sein des entreprises…


BlackLightning

Merci pour le lien.



Perso, je le trouve pas vraiment superbe. Certes il résume assez bien la situation en entreprise mais il semble oublier, malheureusement, comme une entreprise fonctionne.



Par contre sur d’autres point je suis pas d’accord et il semble méconnaître un peu le sujet. Un compilateur (un vrai comme gcc, icc par cette merde de chez M$) prend du temps, pas pour le plaisir mais parce que certaines options de compilations (en particulier pour les optimisations, l’analyse du code) demande pas mal d’analyse. Si la compilation d’un programme est lent c’est éventuellement parce que le code a mal été écrit ou le fonctionnement du compilateur méconnu pour l’exploiter correctement. Je parle avec expérience sur un code de plus d’un 1 millions de lignes en C++.



Les OS sont plus complexes car les progrès ont évolué. Il semble oublier que la gestion de la mémoire virtuelle sous W98 n’a rien à voir avec celle de nos jours. Coder un MGLRU dans le kernel, c’est pas mettre du JS sur une page Web. Il y a également les aspects de sécurité qui ont un impact.
Enfin, il me semble que ce monsieur semble oublier que les OS modernes gèrent la mémoire RAM d’une façon différente et que le cache dans la RAM est souvent mesuré par les moniteurs mais pas rarement compris par ce qui les interprète.



Il a raison sur les points concernant le fait qu’on peut coder la merde car les machines vont vites. Mais ils oublient qu’une entreprise à besoin d’argent pour vivre et que si un concurrent fait un code “aussi rapide” (Michu ne voit pas la différence entre 0.5 s et 6 s, surtout sur son Windaube) mais pour deux fois moins chère, il aura pas le contrat. C’est les règles du jeu des entreprises, je les approuvent pas, mais ton paquet de pâte ne se paye pas avec la “beauté du code” ni sa performance. Et oui, le monde moderne est dominé par les Michus. Et cette espèce invasive à réussi (sans surprise, hein) à prendre sa place dans les entreprises et c’est comme ça que des OS performants ont laissé place à des merdes infâmes, qui par une brillante stratégie marketo-commercial a réussi à faire accepter aux Michus qu’une mise à jour d’un OS qui prends 30 minutes (et qui plante souvent) est normal. Que voulez-vous, les cons ça acceptent tout et c’est même à ça qu’on peut les reconnaître.



Néanmoins, apportons une touche d’espoir : Il existe des jobs (certes j’en ai pas trouvé en France, hors du public) où la performance, l’utilisation de la bonne techno et l’optimisation est plus importante car le temps du développeur est moins chère que celui de l’ordinateur. Et avec l’augmentation du coût de l’énergie ce genre de jobs risque de devenir de plus en plus important. Mais encore faudrait-il que les techos puisse être écouté au sein des entreprises…


Il met en avant la loi de Wirth (sans vraiment la nommer).



Oui, il y a une complexification des OS, c’est indéniable. Mais c’est oublié qu’on est passé aujourd’hui sur des machines multicoeurs et 10x plus rapide, avec 1000x plus de RAM et des disques bien plus rapides (SSD, NVMe, …). Et pourtant, ça rame encore.



Aujourd’hui, on en est là, en grande partie à cause d’un manque de réelle compétence. Il ne s’agit pas de faire des optimisations à foison. Juste de savoir correctement coder et de connaitre les bonnes pratiques.



Comme on a longtemps dit qu’on manquait de développeur, c’est devenu un domaine idéal pour les reconversions, etc… Sauf que devenir un bon développeur, cela ne prend pas 3 mois de formation pour être fullstack. Ce sont des années d’expérience, de projets, des erreurs, etc…



Le matériel vient combler les lacunes des développeurs. Est-ce normal ? Par exemple, est-ce normal, qu’un fan ait réussi à réduire de 70% le temps de chargement de GTA, sans même avoir le code source ? Le souci, c’est juste que les développeurs derrières n’avaient pas suffisamment de connaissance pour savoir que la fonction sscanf est très lente. Pourtant, un bon développeur C le sait !



Il est vrai aussi que les choses ont changé, notamment au niveau de la mémoire. Avec des langages comme Java ou C#, la mémoire consommée est beaucoup plus importante qu’avant. C’est normal, et c’est même le principe de fonctionnement. Par contre, avec ce nouveau paradigme, en cas de pression sur la mémoire, l’OS peut demander à récupérer de la mémoire. Ce n’est pas un problème. Sauf qu’on voit bien que souvent, la mémoire n’est pas libérée !
Qu’une application consomme 5Go n’est pas un problème. Qu’une application nécessite 5Go est un problème. Qu’un logiciel comme VSCode puisse nécessiter plus de 2Go pour charger un petit projet, oui, c’est un problème aujourd’hui.


Je trouve que cette « tribune » a des ressemblances troublantes avec une publicité déguisée… Mais peut-être est-ce moi qui n’arrive pas à faire la part des choses ?


Idem, ça manque d’une étiquette « publirédactionnel »…



Si vous pouviez éviter ce genre d’articles pour les abonnés ça serait bien.


J’ai signalé par “Signler une erreur” qu’il manquait l’indication Information Publicitaire sur la page d’accueil, mais la correction n’a toujours pas été faite.


J’ai tjs beaucoup apprécié Tristan mais sa conversion au bullshit ShiftProjectien est vraiment une grosse déception.
Je dis pas qu’il ne faut rien faire dans le numérique mais répéter des mensonges comme les soit-disants 4% des GES mondiales, c’est vraiment pas de son niveau… Ça va tout de même, il nous a fait grace du reste sur les mails/photos/whatever a effacer, le très très méchant streaming & co (mais je sais que sur d’autres médias et RS, il s’y est largement laissé aller)




résister à la tentation du dernier gadget à la mode, de l’iPhone 14 à la TV 4K, sont autant de solutions à ce problème




OK mais autant pour le prob des déchets que pour le prob de la durée de vie, ce ne sont pas les produits hauts de gammes qui sont les plus gênants.
C’est quand que qqn va enfin parler des masses de merdouilles bas de gammes a base d’android qui sortent toutes les semaines ?




cloud




Après, je suis agréablement surpris par le discours sur le cloud. Merci ! Ça fait du bien d’entendre que la mutualisation des moyens et des ressources est une sources d’économie de ces moyens et ressources.
Non, le cloud n’est pas le grand Satan, c’est une des solutions que nous devons pousser !
Non, l’auto-hébergement n’est pas une solution pour le climat ou la soit-disante « pollution numérique ». Le numérique n’est pas un jardin potager, vos datas ne sont pas des carottes qu’il faut avoir bio et locales pour être bonnes a manger.



grsbdl a dit:


un problème avec les serveurs dans les data centers, c’est qu’ils tournent à fond tout le temps. Les systèmes d’économie d’énergie sont désactivés afin de garantir un niveau de performance maximales,




C’est faux




Cela rend le cloud public plus énergivore que le on-premise




C’est faux




(sans parler du système de clim, etc).




C’est faux




Et oui, comme certains le remarquent, en dehors des pics, là aussi les serveurs sont sous-utilisés.




C’est faux


Mais bon, je me demande quand même si le discours fort agréable a entendre (et tout aussi surprenant venant de lui) ne serait pas lié a sa récente embauche chez Scaleway dont il vante allègrement les services ?
(Question réthorique)



Peut-etre qu’un jour il travaillera chez Apple et arretera enfin de raconter des salades sur le dernier iphone…


Parler du cloud public, c’est bien et effectivement cela peut être intéressant sur beaucoup d’aspect.
Dommage qu’il oublie de parler des aspects où cela n’est pas intéressant, car oui le cloud public n’est pas forcément toujours intéressant, cela dépend de l’activité de l’entreprise.



Cet article le résume d’ailleurs plutôt bien (en anglais) : https://world.hey.com/dhh/why-we-re-leaving-the-cloud-654b47e0



KP2 a dit:


J’ai tjs beaucoup apprécié Tristan mais sa conversion au bullshit ShiftProjectien est vraiment une grosse déception. Je dis pas qu’il ne faut rien faire dans le numérique mais répéter des mensonges comme les soit-disants 4% des GES mondiales, c’est vraiment pas de son niveau… Ça va tout de même, il nous a fait grace du reste sur les mails/photos/whatever a effacer, le très très méchant streaming & co (mais je sais que sur d’autres médias et RS, il s’y est largement laissé aller)




+1
J’ai aussi constaté tout le bullshit qu’il a contribué à faire tourner depuis quelques temps maintenant. Des choses maintes fois démontées pourtant, preuves à l’appui.
Je trouve que le Shift pose quelques questionnements de fond intéressants. Mais leur analyse sur le numérique est complètement faussée et c’est fort dommage que Tristan, qui est pourtant de ce milieu, n’ait pas plutôt porté un message plus modéré et proche des faits.



Sinon je rejoins les autres commentaires qui pointent le fait que cette tribune est une forme de placement publicitaire. Un tribune assez marketing tout de même et qui devrait être notée comme telle.
Le fait que Tristan soit un copain ne doit pas permettre d’exception à ce sujet ;)



KP2 a dit:


Après, je suis agréablement surpris par le discours sur le cloud. Merci ! Ça fait du bien d’entendre que la mutualisation des moyens et des ressources est une sources d’économie de ces moyens et ressources. Non, le cloud n’est pas le grand Satan, c’est une des solutions que nous devons pousser ! Non, l’auto-hébergement n’est pas une solution pour le climat ou la soit-disante « pollution numérique ». Le numérique n’est pas un jardin potager, vos datas ne sont pas des carottes qu’il faut avoir bio et locales pour être bonnes a manger.




Je ne suis absolument pas d’accord, c’est peut être meilleur d’un point de vue environnemental mais pour ma part je ne veux pas être dépendant et lié à un cloud qui peut augmenter ses tarifs quand ça lui chante alors que je suis coincé chez lui (vendor-lockin).
C’est une question de souveraineté mais je préfère largement l’autohebergement où mes données sont stockées et gérées chez moi plutôt que chez quelqu’un d’autre. En outre je peux continuer à utiliser mon infra même si la connexion à Internet ne fonctionne plus.


Il raconte des cracks.
La mutualisation des ressources repose sur la disponnibilité de ces dernières et correspond à un mode d’organisation incomparable sur le plan environnemental avec un particulier utilisant ses propres services dont la majorité analysée en charge de calcul sont précisément sous exploités même après mutualisation.



Sans préciser les conditions aux limites on ne sait pas de quoi on parle !
Ce n’est ainsi pas car j’ai une poubelle chez moi que la même poubelle devient neutre une fois enlevée par les éboueurs… encore faut-il en connaître les DIMENSIONS. :mdr:


« acheter d’occasion, résister à la tentation du dernier gadget à la mode, de l’iPhone 14 à la TV 4K »



C’est bien joli et je partage l’idée de faire durer, mais si plus personne n’achète du neuf on trouvera quoi en occasion ?



mayuraviva a dit:


Je ne suis absolument pas d’accord, c’est peut être meilleur d’un point de vue environnemental mais pour ma part je ne veux pas être dépendant et lié à un cloud qui peut augmenter ses tarifs quand ça lui chante alors que je suis coincé chez lui (vendor-lockin). C’est une question de souveraineté mais je préfère largement l’autohebergement où mes données sont stockées et gérées chez moi plutôt que chez quelqu’un d’autre. En outre je peux continuer à utiliser mon infra même si la connexion à Internet ne fonctionne plus.




Je ne parle bien QUE d’environnement. Absolument pas de vie privée, de souveraineté et autres.



KP2 a dit:


Je ne parle bien QUE d’environnement. Absolument pas de vie privée, de souveraineté et autres.




Sur ce point je suis d’accord. Mais je pense que c’est nécessaire de rappeler les gros inconvénients du cloud autre que sur l’aspect environnemental. Car si on ne le fait pas et que seulement cet aspect rentre dans la prise de décision, alors d’ici quelques années j’ai bien peur que des associations écolos arrivent a faire passer une loi pour interdire le on-permise/l’autohebergement.



Inny a dit:


Faire pédaler le personnel pour alimenter le datacenter c’est une énergie renouvelable ou bien ? :transpi:




Alors oui, c’est renouvelable, mais ça risque de ne pas suffire ! 🤣


Outre le fait qu’on ne comprend pas très bien si cette tribune est un publi-rédactionnel ou pas, je pense que pas mal de commentaires posent des questions légitimes. Il aurait été vraiment plus judicieux et constructif d’apporter des compléments au lieu de ce genre de remarque…


eupalynos

Outre le fait qu’on ne comprend pas très bien si cette tribune est un publi-rédactionnel ou pas, je pense que pas mal de commentaires posent des questions légitimes. Il aurait été vraiment plus judicieux et constructif d’apporter des compléments au lieu de ce genre de remarque…


+42



KP2 a dit:


Peut-etre qu’un jour il travaillera chez Apple et arretera enfin de raconter des salades sur le dernier iphone…




Ah mais des bonnes choses à dire sur Apple, j’en ai, par exemple le support logiciel des smartphones jusqu’à 5 ans. Des mauvaises aussi (le blocage des apps sous licence GPL sur l’AppStore, leur lutte contre la réparabilité, et plein d’autres.) Mais là n’est pas le sujet aujourd’hui. Et puis mon avis d’utilisateur d’Apple n’intéresse probablement pas grand monde.



gismork a dit:


le cloud public n’est pas forcément toujours intéressant, cela dépend de l’activité de l’entreprise.



Cet article le résume d’ailleurs plutôt bien (en anglais) : https://world.hey.com/dhh/why-we-re-leaving-the-cloud-654b47e0




Oui, très bon article. Le Cloud public est utile dans un certain nombre de cas de figure et ne s’impose pas dans d’autres cas.



Si on a une charge toujours constante (ou à limite en croissance permanence à taux constant ce qui la rend prévisible), on peut passer sur du matériel dédié (plutôt en Cloud privé que On Premises, pour bénéficier des économies d’échelles). Le prix sera plus avantageux si on arrive à faire tourner les machines à 100% de leur capacité.



Par contre, dans d’autres cas, il y a des chances que le Cloud public soit plus avantageux en conso électrique, en réutilisation du matériel et utilisation optimale de ce matériel. Quelques exemples pour illustrer :



Une entreprise qui fait du deep learning. Une partie du temps, elle a besoin d’entrainer son modèle avec un nouveau jeu de données. Pour ça, elle va avoir besoin d’une forte puissance de calcul (peut-être même de GPUs) pendant une longue durée (plusieurs semaines ?). Ensuite, elle va avoir besoin d’autres ressources, moins gourmandes, pour exploiter le modèle. Dans un modèle Cloud public, elle “relâche” les ressources utilisées pendant l’entraînement et donc n’est plus facturée pour celles-ci, qui sont donc utilisables par d’autres (mutualisation). (Cas client Scaleway : Preligens-EarthCube ).



Même modèle pour les commerçants en retail qui, avec le Cloud, peuvent ajuster en quasi temps-réel les machines louées en fonction de l’affluence. C’est cette élasticité qui fait une bonne partie de la valeur du Cloud public ! Rappelons que c’est en substance ce qui a fait qu’Amazon s’est lancé dans son activité Cloud : ils avaient des machines très peu utilisées et donc avaient besoin de cette élasticité.



Autre cas d’école, les universités (Sorbonne, Paris 8, attention, liens vers un site commercial ;-) ) qui font de la visio “allument” des instances qui font tourner la solution open source BigBlueButton et les éteignent quand il y a moins de demande.



Et puis bien sûr, le Cloud est utile pour les startups qui n’ont pas une croissance prévisible (en plus d’avoir des fonds limités) et préfère donc louer de la ressource informatique que de l’acheter.



Bref, le Cloud public n’est pas une solution à tous les problèmes, mais dans un cas où les besoins évoluent vite, où on a besoin de souplesse et d’élasticité, il fait beaucoup de sens.


Petit retour d’expérience, sur un lot de serveur pris chez Scaleway récemment, il m’ont tous été livrés avec des NVMe dont l’état SMART indiquait déjà plusieurs dizaines de millier d’heure de fonctionnement et un taux d’usure (wearout) entre 50 et 70%. Je m’en suis étonné auprès du support et la politique écologique a été donné en justification pour ce “recyclage”.
Dans l’absolu je ne suis pas contre mais je sais que ça va entraîner des opérations de maintenances importantes dans le cycle d’utilisation (provisionné pour 3 ans) de ces serveurs et que par expérience je sais que ça risque d’être assez pénibles car souvent (pour ne pas dire systématiquement) des soucis avec le support sur ce genre d’intervention qui demande plusieurs retours (serveur remis en service avec de mauvaise conf bios, ipmi en carafe…) et traine parfois sur plusieurs jours (pendant lesquels la facturation n’est pas suspendu).
Bref pas opposé à la démarche mais j’ai un peut trop l’impression que c’est une occasion pour Scaleway de faire des économies en faisant supporter les conséquences à ses clients (le “reconditionnement” des serveurs pourrait être plus complet, les NVMe pourrait très bien être recyclé sur des baies de stockage cloud ou autre service pris en charge par Scaleway de façon transparente pour les clients…).



mayuraviva a dit:


Je ne suis absolument pas d’accord, c’est peut être meilleur d’un point de vue environnemental mais pour ma part je ne veux pas être dépendant et lié à un cloud qui peut augmenter ses tarifs quand ça lui chante alors que je suis coincé chez lui (vendor-lockin).




Nous sommes bien d’accord ! C’est quelque chose que nous combattons chez Scaleway, où on souhaite que les egress fees (frais de sortie) soient limités. Car en effet, ils provoque un vendor lock-in qui est inacceptable.



Scaleway propose, pour s’y opposer, de passer au multi-cloud où on explique en toutes lettres son premier objectif :




Réduire le verrouillage (lock-in) des fournisseurs ;



C’est une question de souveraineté mais je préfère largement l’autohebergement où mes données sont stockées et gérées chez moi plutôt que chez quelqu’un d’autre. En outre je peux continuer à utiliser mon infra même si la connexion à Internet ne fonctionne plus.




Absolument ! Ca n’est pas pour rien si j’ai bossé 3 ans chez Cozy Cloud à faire un serveur auto-hébergé en logiciel libre…


Merci pour ces précisions, je suis d’accord avec vous.


Aaaah, le cloud et ses “indéniables” qualités ! Pour ma part, le cloud public a un intérêt pour partager ses données avec d’autres personnes ou avoir avoir accès à ses données quand on est en déplacement, ou éventuellement pour avoir une sauvegarde “au cas où” . À part ça, le “cloud à papa”, comme le définit l’auteur de cet article, a de loin ma préférence! Les raisons ? Comme cités dans d’autres commentaires, principalement le fait d’avoir accès à ses données chez soi en en restant maître, sans dépendre d’un accès internet ni d’une société externe (quelque soit sa localisation).
Il y a aussi un aspect qui n’a pas été évoqué dans les infrastructures nécessaires au cloud: celui des connexions entre le prestataire te ses clients. je veux parler plus spécifiquement des réseaux nécessaires pour le transit des données, avec ou sans câble. Par câble, le déploiement de la fibre optique avance aléatoirement suivant les régions et les motivations des opérateurs, et le cuivre affiche ses limites, même si des optimisations sont quelques fois possibles. Sans fil, la 4G est bientôt saturée, et la 5G, quoi qu’en disent ses défenseurs, est énergivore au possible, sans parler des conséquences environnementales et sanitaires qui font débat. À cela s’ajoute encore la communication par satellite avec ses qualités et ses défauts…
Donc, entre la consommation exponentielle qui se fait sur le web (streaming, pages web toujours plus lourdes comme décrites dans l’article, etc.), et les opérateurs qui, d’un côté, vantent leurs abonnements “illimités”, et, de l’autre, ont des problèmes de saturation sur leurs réseaux respectifs, il faudrait encore rajouter une couche d’échanges de données avec le cloud public ? Non merci, très peu pour moi…



v1nce a dit:


Une bonne valorisation de la chaleur fatale peut avoir plus de sens qu’une amélioration marginale de l’efficacité énergétique.




Alors ça n’est pas aussi simple. Je suis personnellement fan de la réutilisation de chaleur fatale et ce que font les camarades de Qarnot Computing est assez génial, à savoir fabriquer des chaudières spéciales avec des serveurs OCP en water cooling en guise de résistance électrique pour chauffer de l’eau.



Maintenant, l’amélioration de l’efficacité énergétique n’est pas négligeable du tout ! Le PUE moyen de l’industrie du datacenter, c’est 1,57. Un datacenter moderne et innovant comme DC5, avec free-cooling et adiabatique, c’est sous 1.20 et sera à 1.15 une fois rempli. Ça fait de l’ordre de 30% de moins, c’est très sensible !



Et le modèle de Qarnot est très différent de celui de Scaleway, chacun ayant des avantages et des inconvénients, autour de la saisonnalité (pourquoi chauffer de l’eau en été ?) et de la scalabilité (comment déployer rapidement de nouvelles capacités de calcul et de stockage ?).



Encore une fois, je suis fan de ce que fait Qarnot (j’avais interrogé leur CTO pour mon podcast l’Octet Vert sur le climat et le numérique ), mais ils ne font pas du datacenter, ils font du HPC / High-Performance Computing, et les contraintes sont très différentes d’une approche Datacenter.


Intéressant point de vue à propos de la charge serveur qui, lorsqu’elle est variable sur l’année, peut représenter un déficit d’efficacité des ressources utilisées (ça change de l’empreinte carbone moyenne que représente un mail). Mutualiser les infrastructures semble plus correcte (pas forcément dans un cloud de multinationale, mais aussi à l’échelle d’une intercommunalité ou d’une association de commerçants par exemples).



Au-delà de ça, cette tribune ressemble un peu à du brand content puisque Scaleway est partenaire de Nxi.


Et c’est comme ca que NXI mélangea la pub et le contenu de la rédaction :craint:


Un plaisir de lire celui dont j’ai entendu maintes fois la voix a travers son podcast!



Quelques réactions ça et là à cet article:




D’un côté, la loi de Moore a permis l’hyper-croissance de l’industrie du numérique depuis 51 ans




Ah ce qu’elle me provoque cette loi de Moore. Déjà on parle d’une loi comme si c’était une loi de la physique, aussi inébranlable qu’inchangeable ; alors qu’elle n’est qu’une théorie, une hypothèse delaquelle des fondeurs ont fait leur blés. Et puis il en s’agit pas de confondre cause et conséquence: c’est bien l’hyper croissance du numérique qui a provoqué la théorie de la loi de Moore.




Mais de l’autre côté, justement parce que la puissance doublait rapidement, les développeurs n’avaient aucune incitation à optimiser leur code, puisque même s’il fonctionnait au ralenti le jour de sa sortie, il serait rapide un an et demi plus tard, renouvellement du parc oblige.




Je pense qu’il y a d’autres facteurs qui ont aussi modélisé les organisations des entreprises du numérique. Aujourd’hui, des entreprises peuvent mettre en production des changements toutes les heures, tandis que le code d’un rover marsien est aussi difficilement que rarement patché. Par exemple des les contraintes de lisibilités, d’évolutivités et de maintenabilités du code source (code lisible et facile à modifier vs code performant) ; et aussi les approches Agiles ou incrémentales (code devant souvent changer et s’adapter aux besoins mouvants vs code statique) ; et tout simplement les spécialisations des langages, ont permis de promouvoir les langages de programmation dynamiques et interprétés, moins performants que leur équivalent compilés.




le on-premises oblige à dimensionner son outil informatique pour faire face aux pics d’activité les plus intenses.




Je pense que l’expertise technique nécessaire pour offrir un service en ligne est aujourd’hui trop avancée et complexe pour être gérée par des sociétés non spécialisées. Que la Redoute et Pronotes se spécialisent dans leur cœur d’activité (e-commerce et éducation numérique), car ils ne peuvent plus faire rivaliser leur infrastructure avec ce qu’est capable de proposer Azure ou AWS. Lorsque la pandémie est arrivée, le ministre de l’éducation était bien en peine de justifier les pannes serveurs et les quotas utilisateurs de son plan d’éducation en ligne.




Avec le cloud public, à l’inverse, les ressources sont mutualisées




La mutualisation est un sujet qui aujourd’hui soulève pas mal d’inquiétudes autant pour les entreprises que pour les particuliers, en ce qui concerne le respect de la vie privée et du secret des affaires. Utiliser un prestataire IT, c’est lui donner ses données et sa valeur et risquer de les perdes en cas de coupure. Pour les particuliers, de nombreuses inquiétudes gravitent autour de la vie privée, de la manipulation des opinions du au profilage dont certain craignent des dégradations de la démocratie, ou des intérêts de puissances économiques étrangères.



Heureusement, de nombreuses solutions existent et évidemment tout ces enjeux ne sont pas forcément du ressort des hébergeurs. Bien que décrié, un “cloud souverain” ou public pourrait représenter une solution plus convaincante.




La durée de vie des serveurs est aussi un enjeu




Je me permet de botter en touche sur l’impact du matériel, qui a mon avis est bien plus critique tant il nuit à la biodiversité et est source d’émission. Il est critique de sensibiliser les entreprises à être sobre en matériel informatique, que ça soit les terminaux des employés comme les serveurs et leur durée de vie ; préservons, ne négligeons pas le matériel informatique de notre employeur pour le faire durer le plus longtemps possible , et dans nos vies privées, également pensons à…




Amortir le matériel sur cinq ans ou plus, acheter d’occasion, résister à la tentation du dernier gadget à la mode, de l’iPhone 14 à la TV 4K




fdorin a dit:


Il met en avant la loi de Wirth (sans vraiment la nommer).




Je la connaissais pas celle-là. Merci !




Oui, il y a une complexification des OS, c’est indéniable. Mais c’est oublié qu’on est passé aujourd’hui sur des machines multicoeurs et 10x plus rapide, avec 1000x plus de RAM et des disques bien plus rapides (SSD, NVMe, …). Et pourtant, ça rame encore.




Je vais pas le nier, mais perso je le ressens pas sur ma Fedo. Par contre, W10 au boulot :transpi:




Aujourd’hui, on en est là, en grande partie à cause d’un manque de réelle compétence. Il ne s’agit pas de faire des optimisations à foison. Juste de savoir correctement coder et de connaitre les bonnes pratiques.



Comme on a longtemps dit qu’on manquait de développeur, c’est devenu un domaine idéal pour les reconversions, etc… Sauf que devenir un bon développeur, cela ne prend pas 3 mois de formation pour être fullstack. Ce sont des années d’expérience, de projets, des erreurs, etc…




Mais certaines entreprises y voit leur intérêt en faisant baisser les salaires.




Le matériel vient combler les lacunes des développeurs. Est-ce normal ? Par exemple, est-ce normal, qu’un fan ait réussi à réduire de 70% le temps de chargement de GTA, sans même avoir le code source ? Le souci, c’est juste que les développeurs derrières n’avaient pas suffisamment de connaissance pour savoir que la fonction sscanf est très lente. Pourtant, un bon développeur C le sait !




Ou peut-être que la fonction a été codée pour que ça marche puis jamais modifié car “pas le temps et pas utile”.




Qu’un logiciel comme VSCode puisse nécessiter plus de 2Go pour charger un petit projet, oui, c’est un problème aujourd’hui.




En même temps tu prends M\(. C'est un peu tiré sur l'ambulance. Si M\) savait coder, ça se saurait.


Je vais surement déclencher une vague de troll mais si on arrêtait aussi la course à la mise à jour/upgrade os à tout va pour soit disant se protéger des méchants hackers et qui conduit au renouvellement obligatoire des appareils !!!



Par exemple, mon iPad mini 2 que j’utilise pour le secur machin obligatoire de ma banque (que je ne peux pas utiliser avec mon Lumia 820 toujours fonctionnel) ne pourra plus être utilisé car la version d’iOs actuellement en 12 et non updatable ne sera plus supporté. En quoi ma tablette ne pourra plus utiliser un service web développé par cette banque, quelle raison technique oseront ils m’avancer.



Ensuite basculons sur Windows, j’utilise encore actuellement mon vieux Shuttle acheté il y a plus de 15 ans comme machine de dev principale CSharp sans le moindre soucis sous … XP. Et à ce jour je n’ai jamais eu de problème. Bien évidement cela va de pair avec une très bonne hygiène informatique. Alors certes l’obsolescence programmé des navigateurs a fait que je ne peux plus visiter une bonne partie des sites web sur celui la alors qu’il en a toujours les capacités.



Tout ça pour dire que ce virage doit être effectuer également à certains endroits qui ne semble pas en être :fumer:



BlackLightning a dit:



Je vais pas le nier, mais perso je le ressens pas sur ma Fedo. Par contre, W10 au boulot :transpi:




Stop avec le Microsoft bashing gratuit. C’est pas faux, mais la plupart des distributions linux, ce n’est pas mieux. Je trouve les temps de démarrage beaucoup trop long encore. Et pour certaines distributions qui sont passées sur les snap, c’est encore pire :transpi:




Mais certaines entreprises y voit leur intérêt en faisant baisser les salaires.




Et reportent des coûts de développement logiciels sur les utilisateurs qui doivent investir en matériel pour palier leur manque d’investissements. Et ce manque d’investissements généralement, ne se sent pas que sur le poids du logiciel, mais aussi sur la capacité à le maintenir et à le faire évoluer !




Ou peut-être que la fonction a été codée pour que ça marche puis jamais modifié car “pas le temps et pas utile”.




Non, au bout d’un moment, il n’est pas normal de masquer l’incompétence derrière un simple “faut que ça marche”.




En même temps tu prends M\(. C'est un peu tiré sur l'ambulance. Si M\) savait coder, ça se saurait.




Encore du bashing gratuit. C’est dommage parce que le reste du commentaire est intéressant :craint:



J’ai pris l’exemple de VSCode car c’est du Electron et que je l’utilise au quotidien. J’aurais pu prendre le client Slack qui est une bouse tout aussi immonde, cela aurait été pareil. Je ne vais pas me faire que des amis, mais NodeJS est une technologie qui n’aurait jamais du exister. On a porté côté serveur le seul langage ayant réussi à s’imposer côté client afin que certains puissent utiliser le même des deux côtés. Sauf que ce langage est mal foutu de base, peu performant, avec des environnements lourdingue. Mais là, on est hors sujet :D



fdorin a dit:


Stop avec le Microsoft bashing gratuit. C’est pas faux, mais la plupart des distributions linux, ce n’est pas mieux. Je trouve les temps de démarrage beaucoup trop long encore. Et pour certaines distributions qui sont passées sur les snap, c’est encore pire :transpi:




Tu peux penser que c’est bashing. Mais mon Linux démarre plus vite que W10. Sauf que mon Linux a du chiffrement intégral. Par contre, mon Firefox, thunderbird charge bien plus vite sous Linuxque W10. Mais bon, admettons qu’il s’agit de config et de nettoyage mais je suis pas admin.



Par contre les MAJ de 30 minutes, tu sais comment ramener à ça à quelques minutes ? A chaque fois, j’ai l’impression que M$ recompile le kernel.




Et reportent des coûts de développement logiciels sur les utilisateurs qui doivent investir en matériel pour palier leur manque d’investissements. Et ce manque d’investissements généralement, ne se sent pas que sur le poids du logiciel, mais aussi sur la capacité à le maintenir et à le faire évoluer !




Sauf que c’est le moyen pour les SSII de faire baisser leur facture et de rempoter le marché. Elles profitent également pour (re)vendre le matos derrière. J’ai vu ça avec du public en plus.
Mais tu retrouves ça aussi dans du développement interne. Mais là, c’est souvent que le chef n’est pas un techos et donc tu payes en plus l’incompétence.




Non, au bout d’un moment, il n’est pas normal de masquer l’incompétence derrière un simple “faut que ça marche”.




Honnêtement, j’ai vu des gens compétents (voir très compétent) dans des biens des coins du monde. Souvent ce n’est pas un problème de compétence mais juste que tu dois fournir très vite (trop?) ton code, ta fonction. Donc tu vas à l’essentiel et ensuite tu espères avoir le temps de revenir dessus et d’améliorer.
J’ai bosser dans le milieu HPC en recherche public et malheureusement j’ai étais souvent dans ces cas quand je bossais le code des autres. Alors qu’une heure de calcul sur un supercalculateur c’est pas donné.




Encore du bashing gratuit. C’est dommage parce que le reste du commentaire est intéressant :craint:




Merci, mais si tu sais comment rendre un W10 dans un environnement pro aussi stable et rapide qu’un MacOS ou un Linux, je suis preneuse. Parce que je suis une bille sous cet OS et je le trouve mal fichu.




J’ai pris l’exemple de VSCode car c’est du Electron et que je l’utilise au quotidien. J’aurais pu prendre le client Slack qui est une bouse tout aussi immonde, cela aurait été pareil. Je ne vais pas me faire que des amis, mais NodeJS est une technologie qui n’aurait jamais du exister. On a porté côté serveur le seul langage ayant réussi à s’imposer côté client afin que certains puissent utiliser le même des deux côtés. Sauf que ce langage est mal foutu de base, peu performant, avec des environnements lourdingue. Mais là, on est hors sujet :D




Pas tant hors sujet car tu illustres un cas réel et, qui je pense, véridique.



BlackLightning a dit:


Tu peux penser que c’est bashing. Mais mon Linux démarre plus vite que W10.




C’est rigolo, sur des bécanes un peu agé, j’ai constaté le contraire. J’ai récupéré un vieux portable sous Windows 7. Je l’ai passé en 10. Je n’étais pas convaincu (un peu lent à mon gout). J’ai installé Ubuntu (par facilité) : c’était encore plus lent au démarrage. Retour sous W10 ;)




Par contre les MAJ de 30 minutes, tu sais comment ramener à ça à quelques minutes ? A chaque fois, j’ai l’impression que M$ recompile le kernel.




On peut se plaindre de la MAJ longuette de Windows. Je trouve également que c’est exagéré. Mais un point à mettre au crédit de Microsoft : s’il y a un problème durant la mise à jour, le retour en arrière est automatique ET fonctionnel. Un linux, il faut mettre les moins dans le cambouis.




Sauf que c’est le moyen pour les SSII de faire baisser leur facture et de rempoter le marché. Elles profitent également pour (re)vendre le matos derrière. J’ai vu ça avec du public en plus. Mais tu retrouves ça aussi dans du développement interne. Mais là, c’est souvent que le chef n’est pas un techos et donc tu payes en plus l’incompétence.




C’est un moyen de faire croire que tu baisses la facture, car derrière il y a toujours des trucs hors contrats, etc… à payer en plus. Et la maintenance qui est souvent disproportionné. Je l’ai d’ailleurs vu : des gars en SSII qui m’ont dit texto qu’ils avaient des consignes pour ne pas être trop performant, histoire de vendre derrière des presta de maintenance et correction de bogues… :neutral:



Est-ce que ce sont des pratiques qui se font ? Malheureusement oui. Mais ce n’est pas pour autant qu’il faut les accepter et trouver cela normal.




Honnêtement, j’ai vu des gens compétents (voir très compétent) dans des biens des coins du monde. Souvent ce n’est pas un problème de compétence mais juste que tu dois fournir très vite (trop?) ton code, ta fonction. Donc tu vas à l’essentiel et ensuite tu espères avoir le temps de revenir dessus et d’améliorer.




Règle de vie d’un développeur : quand on espère pouvoir revenir dessus ultérieurement, alors cela ne sera pas fait. Tout bon développeur le sait. Donc un développeur qui espère pouvoir revenir sur son code, c’est un développeur qui a encore beaucoup à apprendre, même s’il dispose de certaines compétences techniques dans certains domaines.




Merci, mais si tu sais comment rendre un W10 dans un environnement pro aussi stable et rapide qu’un MacOS ou un Linux, je suis preneuse. Parce que je suis une bille sous cet OS et je le trouve mal fichu.




Pour ma part, ce n’est pas avec l’OS que j’ai des soucis, mais avec les applicatifs que j’utilise. L’OS en lui-même est pas trop mal foutu (W10, car le 11, jamais testé !).



Maintenant, le “mal fichu”, c’est souvent plus l’expression d’une résistance au changement qu’un truc réellement mal fichu. Des “linux c’est nul”, je m’en suis pris aussi de la part de certains membre de ma famille, car cela n’était pas comme d’habitude (comprendre Windows).



J’ai trouvé aussi MacOS mal fichu, car je ne m’y retrouvais pas.




Pas tant hors sujet car tu illustres un cas réel et, qui je pense, véridique.




Hors sujet pour moi, car je critique ouvertement le langage même et non les mauvais usages qu’il en est fait. Qu’un langage soit “mauvais” est une chose, que les développeurs le choisisse sciemment pour le mettre partout alors qu’il existe des alternatives en est une autre.


Vu que ce qu’on paye dans un hébergement, c’est pour une énorme part l’amortissement des machines et la consommation électrique, pas besoin d’arguments « écolos » : si ça consomme moins ça devrait être moins cher.



Or la réalité, c’est que depuis 6 ans, mon serveur dédié kimsufi à 15€ / mois reste imbattable en terme de rapport prix / service pour héberger mon nextcloud et deux trois à côtés comme un webmail. Le cloud public ? Pas compétitif, suffit de voir les prix dès qu’on a besoin de stockage. Les VPS ? Pas mieux.



Des serveurs reconditionnés ? Perso ça m’irait très bien. Mais pour l’instant, aucune offre décente, et certainement pas chez scaleway / dedibox. La seule offre type « cloud » qui pourrait me convenir, c’est le nextcloud hébergé chez Hetzner, 2To pour 10€/mois. Mais je dois prendre un VPS à côté pour les quelques autres services qui tournent sur mon serveur aujourd’hui, bref, pas rentable et je perds en flexibilité.



Faut pas croire que les gens sont dogmatiques. Ils font ce qui est le moins cher pour eux. Si j’étais fibré, je m’auto-hébergerais car ça me coûterai encore moins cher. Et vu que ce serait avec une machine de récupe, et que la moitié de l’année elle chaufferait ma maison, pas sûr que ce soit moins écologique (chez moi le PUE est très proche de 1, je climatise pas). Le cloud à papa a encore de beaux jours devant lui (et c’est une bonne nouvelle).



BlackLightning a dit:


Je vais pas le nier, mais perso je le ressens pas sur ma Fedo. Par contre, W10 au boulot :transpi:




Sur ce point précis, je voudrais appuyer un peu sur la réponse qui t’a déjà été faite. Dans mon expérience perso, sur mon PC pro, Windows 10 fonctionne correctement sans plus.
Sur mon PC perso, Windows 10 fonctionne parfaitement bien, il est rapide à booter (moins de 30s entre l’allumage et la disponibilité du système) et réagit bien, même si BlueStack a tendance à le faire tirer un peu la langue. Mais bon, mon PC perso est un petit Core i3 de 2012 avec CG intégrée au chipset, on va pas trop lui en demander non plus.



Tout ça pour dire : ta Fedo, tu te l’es mitonnée aux petits oignons (ou tu l’utilises sans trop de modifications). Le W10 de ton boulot, il vient avec plein de contrôles et de trucs liés à l’entreprise (connexions AD, éventuellement suite de sécurité, gestion des autorisations, des applis à déployer, des profils de sécurité, etc.), et peut-être, une compétence moyenne des équipes qui le gèrent - sans vouloir les dévaloriser non plus. Le souci ici, ce n’est pas l’OS, c’est tout ce qu’on lui met dessus.


Ouep ma Fedo est bidouillé. Mais ça je le sais déjà. Donc je compare avec une installation fraîche.



Pour le boulot, je pense que l’AV est le soucis. Pour le reste, je ne sais pas. Le service info n’est pas bavard mais il est efficace.



Pour ma défense (si recevable), je reviens sur Windows après 20 l’avoir quitté. Forcément, quand tu as l’habitude d’un Linux qui t’obéit au doigt et à l’oeil et d’un OSX qui fait son taff et se trouve stable, tu vois immédiatement les trucs qui vont pas. C’est juste du biais cognitif mais je trouve que c’est du temps perdu (et de l’argent) pour une entreprise en plus du risque de dépendance (car oui, tout est full MS).



fdorin a dit:


On peut se plaindre de la MAJ longuette de Windows. Je trouve également que c’est exagéré. Mais un point à mettre au crédit de Microsoft : s’il y a un problème durant la mise à jour, le retour en arrière est automatique ET fonctionnel. Un linux, il faut mettre les moins dans le cambouis.




NTFS sait faire du snapshot ?
Tu as raison pour Linux faut mettre les mains dans le cambouis. Mais bon, au moins tu sais ce que tu fais, c’est moins magique et tu appréhendes mieux la beauté du système.




C’est un moyen de faire croire que tu baisses la facture, car derrière il y a toujours des trucs hors contrats, etc… à payer en plus. Et la maintenance qui est souvent disproportionné. Je l’ai d’ailleurs vu : des gars en SSII qui m’ont dit texto qu’ils avaient des consignes pour ne pas être trop performant, histoire de vendre derrière des presta de maintenance et correction de bogues… :neutral:
Est-ce que ce sont des pratiques qui se font ? Malheureusement oui. Mais ce n’est pas pour autant qu’il faut les accepter et trouver cela normal.




Oui mais là le problème est d’ordre commercial. Et ce n’est plus forcément une histoire de langage.




Règle de vie d’un développeur : quand on espère pouvoir revenir dessus ultérieurement, alors cela ne sera pas fait. Tout bon développeur le sait. Donc un développeur qui espère pouvoir revenir sur son code, c’est un développeur qui a encore beaucoup à apprendre, même s’il dispose de certaines compétences techniques dans certains domaines.




Je suis d’accord avec ta règle à un détails près : C’est parfaitement possible de le faire à condition de bosser tard le soir (chez soi) et le WE. Mais c’est un choix (et je ne le fait quasiment plus maintenant que je suis dans le privé).




Pour ma part, ce n’est pas avec l’OS que j’ai des soucis, mais avec les applicatifs que j’utilise. L’OS en lui-même est pas trop mal foutu (W10, car le 11, jamais testé !).




Je sais pas pour l’OS. Je peux pas voir le code source est donc comprendre le fonctionnement interne du bestiau. Au moins sous Linux, je peux lire la doc du kernel, son API et voir l’implémentation. L’une des raisons pour laquelle Windows n’est pas le top 500.



Pour l’applicatif, il y a de tout. Tiens, j’ai installé GIMP sous W10. Et j’ai été agréable surprise de voir qu’il démarre plus vite que sous ma Fedo. Comme quoi, il y a peut-être du progrès chez MS.




Maintenant, le “mal fichu”, c’est souvent plus l’expression d’une résistance au changement qu’un truc réellement mal fichu. Des “linux c’est nul”, je m’en suis pris aussi de la part de certains membre de ma famille, car cela n’était pas comme d’habitude (comprendre Windows).




Depuis j’ai quitté le collègue (nom de Zeus ! ça fait un bail), je suis uniquement sous Linux en perso et pour le pro j’ai oscillé avec OSX et Linux. Il n’y a que récemment que je retrouve un WIndows.
Ma “haine” de Windows vient du fait que c’est un clickodrome et que dès que tu veux faire un truc -> Une application. Là où sous MacOS (c’est soit integré) soit sous Linux une ligne de commande.



Il y a bien PowerShell mais j’arrive pas à m’y faire à la syntaxe. Je la trouve trop verbeuse et sans assistance internet j’arrive à rien faire. Bon après ma journée de boulot consiste à lancer Teams, FF, Thunder et un émulateur de shell pour se connecter au serveur. Et là, je retrouve un linux.




J’ai trouvé aussi MacOS mal fichu, car je ne m’y retrouvais pas.




Je n’ai jamais été dérouté sous OSX. A vrai dire, c’est selon moi le meilleur OS dans le monde pro (tout domaine confondu, je pense) car tu as un mélange entre Windows (aka la compatibilité des applications) et Linux (stabilité, efficacité de la ligne de commande, similarité dans les appels noyaux…).



BlackLightning a dit:


NTFS sait faire du snapshot ?




Il y a un truc qui y ressemble oui. Mais ce n’est pas trop pour les windows grand public. C’est plutôt orienté serveur.




Tu as raison pour Linux faut mettre les mains dans le cambouis.




Donc tu exclues 99% de la population.




Je sais pas pour l’OS. Je peux pas voir le code source est donc comprendre le fonctionnement interne du bestiau. Au moins sous Linux, je peux lire la doc du kernel, son API et voir l’implémentation. L’une des raisons pour laquelle Windows n’est pas le top 500.




Chose dont les 99% qui ne mettront pas les mains dans le cambouis se fiche royalement.
Et dans les 1% restant, s’il y en a déjà 10% qui ont jeté un coup d’oeil ne serait-ce qu’une fois sur une portion de code de noyau… ce serait presque un miracle.




Ma “haine” de Windows vient du fait que c’est un clickodrome et que dès que tu veux faire un truc -> Une application. Là où sous MacOS (c’est soit integré) soit sous Linux une ligne de commande.




Ta “haine” de windows vient donc du fait que ce n’est pas adapté à tes besoins. Mais il l’est pour beaucoup d’autres. Ne pas oublier que ton profil “technique” est plus l’exception que la règle.




Il y a bien PowerShell mais j’arrive pas à m’y faire à la syntaxe. Je la trouve trop verbeuse et sans assistance internet j’arrive à rien faire.




C’est comme tout, il y a de l’apprentissage. C’est un biais appelé résistance au changement ;) Pourtant, PowerShell, de part son approche objet au lieu de texte sous les shells plus classiques facilite grandement les choses.



Pour la verbosité, cela permet plusieurs choses :




  • d’uniformiser le nom des commandes

  • de comprendre les grands principes ce que fais un script en le lisant, même si on ne connait pas toutes les commandes. Difficile d’avoir cela avec des scripts shell, où il faut connaitre les commandes par coeurs et les arguments en ligne de commande.



BlackLightning a dit:


Tu as raison pour Linux faut mettre les mains dans le cambouis. Mais bon, au moins tu sais ce que tu fais, c’est moins magique et tu appréhendes mieux la beauté du système.




“Alors chérie, j’ai une bonne nouvelle pour toi, non on ne passera pas la soirée ensemble à regarder un film. Mais j’ai quelque chose de magique à te proposer. Non non, on ne va pas au resto, on va débugger du linux qui a craché la mise à jour ! Alors, t’en dis quoi ? Tu prends stackoverflow et je prends les mailings list ? Prépare-toi à en prendre plein la vue tellement le système est bien fait !”


Le numérique sera à jamais incompatible avec l’écologie.
Il n’existe aucun moyen écologique d’extraire les métaux nécessaires à son fonctionnement, et aucune énergie 100% propre (sans nécessité de compenser via des contournements douteux) capable de tout faire tourner ne serait-ce qu’à la même échelle d’il y a 20 ans.



Ce sont des rêves pieux, les rêves font avancer les Hommes, mais ces rêves-ci ne feront jamais avancer la cause environnementale.


Autant supprimer tous les humains avec un raisonnement pareil. Vladimir, qu’est-ce que tu attends pour appuyer sur le bouton ?


Expliquer la frugalité de consommation d’énergie en promouvant l’infonuagique et en critiquant l’auto-hébergé (eh oui ! des termes français existent afin de s’exprimer !) avec des arguments fallacieux est d’une étroitesse d’esprit qui me sidère… saupoudrée de mauvaise foi ?



D’autant que l’infonuagique ici promue est bien celle publique, tel que répété à l’envi, c’est à dire encourager des acteurs à dépendre stratégiquement d’autres…
Cela est un discours de VRP pour les quelques structures capables de fournir ce genre de services.
Quel agenda pousse à ce genre de logique biaisée ?



Tout d’abord, non, l’auto-hébergée ne fait pas pire que de l’infonuagique, car une ressource allouée nécessite plus de machines physiques pour servir les autres usages et une ressource démarrée consomme de la même manière qu’une machine inutilisée, comme une voiture à l’arrêt.
Je n’ai rien expliqué d’exceptionnel disant cela.
Le discours part des postulats que les utilisateurs d’infonuagique serait plus précautionneux que si es même personnes géraient leur propre infrastructure, et que l’on utilise l’infonuagique de manière spéciale, avec de la mise à l’échelle automatique (et la fourniture de tels composant est loin d’être la norme côte fournisseurs de tels nuages !), ce qui est loin d’être le cas majoritaire pour ces deux postulats.
Les personnes compétentes pour correctement gérer de l’infonuagique ne serait pas soudainement incompétent afin de gérer le infrastructure. Le corollaire est aussi vrai.



Par ailleurs, tout ceci reste possible avec une infrastructure auto-hébergée, en pilotant le dimensionnement de son infrastructure en fonction des besoins.
L’auto-hébergé permet même une flexibilité d’infrastructure (forme de contenants d’exécutions, de machines physique aux conteneurs en passant par des machines virtuelles) et une hétérogénéité de matériel, qui peut à la fois être une source de soucis (maintenance) comme une source d’opportunité (protection contre les problèmes de séries et pannes liées à la vieillesse en opérant une rotation continue du matériel).
Il suffit de piloter son parc comme on apprendrait à utiliser les produits spéciaux de l’infonuagique permettant la mise à l’échelle automatique. Encore une fois, s’il y a compétence à utiliser de l’infonuagique, pourquoi ne pas supposer la même compétence à correctement gérer un parc auto-hébergé ?



L’auto-hébergé apporte des garanties de maitrise, puisque le seul fournisseur opérationnel direct devient le centre de données (à moins que l’on en soit propriétaire) et les variables sont de l’ordre de la redondance des alimentations et de la gestion du refroidissement.
Le client du centre de données est donc privilégié pour encourager son fournisseur à améliorer ses pratiques/augmenter son offre.



Par ailleurs, l’auto-hébergé, (re)donnant la maitrise sur le matériel, permet de s’assurer de sa valorisation en maximum, et en cas de remplacement soit par vieillesse, soit par optimisation d’espace ou d’efficience énergétique (attention à la chaîne d’émissions totale lors de l’“amortissement écologique” d’une machine, en prenant en compte la construction), permet aussi d’agir localement pour le recyclage du matériel soit auprès de récupérateurs en cas d’inutilisabilité, ou auprès d’acteurs locaux pour réutilisation (associations, ou plus petites structures).



Une infrastructure auto-hébergée correctement gérée permet donc toute la souplesse que promettent les acteurs infonuagique, promesses loin d’être tenues, et permet la sérénité d’une maitrise en profondeur de l’exécution jusqu’à l’architecture réseau permettant à la fois différentes formes de contrôle et de sécurité pour la fourniture de ses propres services.
Que rêver de mieux ?



fdorin a dit:


On peut se plaindre de la MAJ longuette de Windows. Je trouve également que c’est exagéré. Mais un point à mettre au crédit de Microsoft : s’il y a un problème durant la mise à jour, le retour en arrière est automatique ET fonctionnel. Un linux, il faut mettre les moins dans le cambouis.




C’est idiot de généraliser en pensant que toutes les distributions Linux sont identiques. Si on prend Linux Mint, ils fournissent Timeshift par défaut, qui propose un système d’instantanés (et donc de points de restauration), qui permettent de revenir facilement en arrière en cas de problème.


Non, ce n’est pas idiot, car on ne parle pas de la même chose. Je ne te parle pas de revenir en arrière quand l’utilisateur le décide suite à l’installation d’un programme, mais si une mise à jour système se passe mal.



Sous Windows, la mise à jour est annulé, et le système est restauré à un état fonctionnel automatiquement (j’ai malheureusement pu maintes fois le tester). Et puis au moins depuis Windows 7, je (=pour moi et mes proches car je suis le dépanneur attitré) n’ai plus jamais eu de souci de Windows qui ne démarrait plus après une mise à jour.



Sous Linux, la mise à jour est interrompue, laissant le système dans un état instable. Il faut connaitre la ligne de commande (quasi-obligatoire) et souvent avoir un live cd (ou usb). Et ça aussi, j’ai pu maintes fois le constater. J’ai aussi pu constater la mise à jour qui s’effectue correctement avec un kernel panic au démarrage car le disque de démarrage n’était pas trouvé (cela arrive moins souvent maintenant via l’usage des UUID pour les disques, au lieu des /dev/hdX, /dev/sdX, etc…)



Pour finir Timeshift, il faut l’installer ET le configurer pour qu’il soit utilisable. Autant dire que chez beaucoup de monde, ce n’est pas le cas…


Et on ne sait toujours pas combien de CO2 est produit par la fabrication d’un ordinateur et combien il coute en CO2 en consommation.



Comment concilier la nécessité de réduire l’empreinte carbone du numérique de toute urgence avec le besoin constant de croissance ?




Première ligne, première ânerie. Une croissance constante est incompatible des objectifs de préservation du climat et de la biodiversité… Il faut choisir son combat