du 12 juin 2018
Date

Choisir une autre édition

Microsoft rassure : oui Atom continuera d'être développé

Le rachat de GitHub (7,5 milliards de dollars) a provoqué bien des peurs, dont celle d'un abandon de l'éditeur Atom, apprécié de nombreux développeurs.

Une peur tout à fait légitime, puisque Visual Studio Code est un concurrent direct. Les deux sont gratuits, open source, multiplateformes, se servent d'Electron et ont une bonne liste de fonctionnalités communes.

Nat Friedman, cofondateur de Xamarin et nouveau PDG de GitHub, s'est montré rassurant : Atom et Visual Studio Code continueront tous les deux d'exister et évoluer. Il n'est pas impossible qu'un certain rapprochement ait lieu, notamment au travers de fonctions d'éditions collaboratives en temps réel.

Friedman a globalement passé les derniers jours à rassurer les développeurs, notamment en affirmant que rien ne changera dans le quotidien de GitHub.

Il y a fort à parier que Microsoft se doutait des réactions au rachat. L'entreprise sait probablement qu'elle ne doit toucher à rien (ou presque) sous peine de provoquer une vaste hémorragie de développeurs, GitLab se montrant très proactif actuellement avec des offres agressives.

chargement Chargement des commentaires...

À découvrir dans #LeBrief
Copié dans le presse-papier !

Le 20 octobre 2008, l'opérateur devenait aussi fournisseur d'accès à Internet et lançait sa première Bbox.

Arrivée après ses trois principaux concurrents Orange, Free et SFR (qui a racheté Neuf Cegetel en avril 2008), la Bbox est toujours dans l'ombre de ses concurrents (lire notre analyse de 10 ans de recrutements). Fin juin, le FAI revendiquait 3,5 millions de clients sur le fixe.

Copié dans le presse-papier !

La commission européenne a donné son feu vert, sans conditions, au rachat de GitHub par Microsoft. Bruxelles estime en effet qu'avec cette acquisition, le géant américain « resterait confronté à une concurrence importante de la part d'autres acteurs » sur les marchés des plateformes de développement de logiciels, des éditeurs de code et des environnements de développement intégré.

La commission s'est également penchée sur l'intérêt qu'aurait Microsoft à restreindre l'utilisation de GitHub avec des outils tiers. Son verdict est clair : « Microsoft ne disposerait pas d'un pouvoir de marché suffisant pour porter préjudice à la nature ouverte de GitHub, au détriment d'outils DevOps et de service en nuage concurrents. La raison en est qu'un tel comportement réduirait la valeur de GitHub aux yeux des développeurs désireux et en mesure de changer de plateforme ».

Copié dans le presse-papier !

« Comme les empreintes digitales, aucune imprimante 3D n’est exactement la même ». C'est la conclusion à laquelle sont arrivés six chercheurs de plusieurs universités, dont quatre de Buffalo. Ils ont baptisé leur découverte PrinTracker.

Ils expliquent que « le modèle de l’imprimante, le filament, la taille de la buse et d’autres facteurs provoquent de légères imperfections dans les motifs ». Par exemple, lors de l'impression d'un objet, les motifs peuvent varier de 5 à 10 % par rapport au plan original et, comme avec les empreintes digitales, « ces motifs sont uniques et reproductibles ».

Afin de tester PrinTracker, les scientifiques ont imprimé cinq porte-clés sur 14 imprimantes 3D différentes (dix FDM et quatre SLA). Ils ont ensuite créé des images numériques de chaque objet et comparé le résultat avec une base de données des empreintes de chaque imprimante 3D. Une correspondance entre l'imprimante et le porte-clés a pu être établie dans 99,8 % des cas.

Un des chercheurs, Wenyao Xu, affirme que « PrinTracker est un moyen efficace, robuste et fiable permettant aux forces de l'ordre, ainsi qu'aux entreprises soucieuses de protéger leur propriété intellectuelle, de retracer l'origine des produits imprimés en 3D ». La technique pourrait par exemple s'appliquer pour retrouver ou prouver l'origine d'une arme imprimée.

Copié dans le presse-papier !

Suite aux publications de Principled Technologies, largement en sa défaveur, le constructeur n'avait pas spécialement communiqué.

Il semble néanmoins avoir envoyé à nos confrères américains un document dans lequel il revient sur ces chiffres et sur les points qu'il considère problématique. Plus intéressant, il livre ses conseils sur les relevés de performances.

Des points assez basiques, mais pas toujours suivis : ne pas pas réutiliser un OS d'un système à l'autre, utiliser les derniers pilotes/patchs en date, limiter les effets du réseau et des applications tierces, faire attention à la température, etc.

D'autres sont plus sujets à controverse, comme l'emploi de la mémoire la plus rapide disponible. Notamment parce qu'il conteste deux points qui paraissent plus essentiels : adapter la machine testée au marché visé et se mettre à la place de l'utilisateur afin de s'assurer que la configuration a du sens.

Dans tous les cas, la transparence dans les protocoles et la capacité qu'ils ont de pouvoir être reproduits par des tiers sont sans doute deux des points les plus importants. Même si là aussi, ils sont assez peu respectés.

Copié dans le presse-papier !

Le constructeur vient d'ajouter une discrète mention de cette mémoire au sein de la fiche consacrée à la carte sur son site américain. La version française n'est pas encore à jour.

Les caractéristiques techniques sont inchangées, ce qui pourrait signifier qu'il ne s'agit que de permettre différentes sources d'approvisionnement aux constructeurs.

Il faudra rester vigilant sur l'arrivée de tels modèles sur le marché français, tant que NVIDIA et ses partenaires n'en auront pas dit plus sur leurs intentions.