Windows 10 : le navigateur Spartan de Microsoft est disponible

Windows 10 : le navigateur Spartan de Microsoft est disponible

Via une petite modification

Avatar de l'auteur
Sébastien Gavois

Publié dans

Logiciel

26/01/2015 3 minutes
139

Windows 10 : le navigateur Spartan de Microsoft est disponible

Alors que l'on n'attendait pas Spartan avant un ou deux mois, il est finalement possible de le tester dès maintenant, via une petite modification dans Internet Explorer. Nous en avons profité pour lancer quelques benchmarks afin de voir si d'importants changements avaient été faits, et il semblerait bien que ce soit le cas.

Le navigateur Spartan est une des grosses nouveautés de Microsoft introduite avec Windows 10 et qui aura la lourde tâche de remplacer, ou au moins d'épauler Internet Explorer. Lors de la conférence de mercredi dernier, le géant de Redmond avait annoncé que Spartan ne serait pas disponible avec la nouvelle Technical Preview de Microsoft et qu'il faudrait certainement attendre un ou deux mois.

Mais comme l'indiquent nos confrères de Neowin qui citent David Storey, qui se présente lui-même comme gestionnaire de projet chez Microsoft et ancien spécialiste du HTML5, il est d'ores et déjà possible d'activer Spartan dans la build 9926 de la Technical Preview de Windows 10. Pour cela, il suffit de taper « about:flags » dans le champ dédié aux URL, d'activer le nouveau navigateur puis de redémarrer le navigateur.

Pour l'instant, le design est identique entre les deux navigateurs, mais un changement important se cache à l'intérieur : Spartan s'identifie lui-même comme étant Chrome 39 au lieu d'Internet Explorer 11, une modification qui en dit long sur la manière dont IE est géré par les sites web. 

SpartanSpartan Windows 10Spartan identifié comme Chrome 39

Afin de voir ce que Spartan, dans sa version actuelle, propose comme changements, nous avons décidé de lancer quelques benchmarks. Pour cela, nous avons installé la Technical Preview build 9926 de Windows 10 sur une machine de test équipée d'un Core i3 et de 8 Go de DDR3. Nous avons ensuite installé la dernière version stable de Chrome 40 et de Firefox 35 afin de comparer les résultats obtenus.

Voici quelques résultats :

HTML5 Test : 

  • Chrome : 511 sur 555
  • Firefox : 449 sur 555
  • Internet Explorer : 343  sur 555
  • Spartan : 352 sur 555
  • Gains : 2,6 %

Octane 2.0 : 

  • Chrome : 15166 points
  • Firefox : 13897 points
  • Internet Explorer : 8680 points
  • Spartan : 14202 points
  • Gains : 63,6 %

Sunspider 1.0.2 :

  • Chrome : 300 ms
  • Firefox : 273 ms
  • Internet Explorer : 176 ms
  • Spartan : 157 ms
  • Gains : 12,1 %

Browser Rightware :

  • Chrome : 3680 points
  • Firefox : 3078 points
  • Internet Explorer : 2230 points
  • Spartan : 1652 points
  • Pertes : 35 %

Comme on peut le voir, le test de compatibilité HTML5 donne de meilleurs résultats avec Spartan, sans que le gain ne soit exceptionnel pour autant puisqu'on gagne 9 points seulement. Sous Octane 2.0, un benchmark poussé par Google et s'intéressant à JavaScript, les différences sont relativement impressionnantes puisqu'on passe de 8680 points sous Internet Explorer à plus de 14 000 sous Spartan. Avec Sunspider, Spartan est là encore à la fête avec 157 ms contre 176 ms pour Internet Explorer. Terminons enfin avec Browsermark de Rightware, avec des résultats à contre-courant. Spartan est en effet largement en retrait par rapport à Internet Explorer et bien loin de ses concurrents.

Quoi qu'il en soit, il ne s'agit là que d'une série de tests effectués sur un navigateur qui est encore loin d'être en version finale. Les résultats ont donc largement le temps de changer d'ici là. Il sera d'ailleurs intéressant de suivre l'évolution de Spartan au fil des build de Windows 10. De votre côté, n'hésitez pas à nous faire part de vos retours concernant Spartan.

139

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Commentaires (139)


Il faut se méfier des suites de bench trop connus, car les navigateurs ont la méchante habitude de devenir spécialistes de l’optimisation des benchmarks, plutôts que spécialiste de l’optimisation tout court.



          

Pour avoir fait quelques tests de performances ces derniers temps avec du code JS capable denvoyer du lourd (en calcul pur, sans affichage), issu d'un projet perso, j'ai eu la surprise de tomber sur des perfs de Firefox à chier comparé à un IE 10 qui s'en sortait largement mieux au final: quand IE faisait seulement 10% de perfs en moins que Chrome, FF était deux fois plus lent. Et pour une appli "temps réel", ça change beaucoup de choses pour l'expérience utilisateur.



Alors ce n’est qu’un test parmi les autres, mais ça montre aussi à quel point un résultat d’un bench ne vaut pas grand chose au final.




  Et quand on voit des boites comme Samsung capable d'overclocker leur CPU en fonction de noms d'applis de benchmark bien particulières pour fausser leurs résultats, ...







brazomyna a écrit :



Il faut se méfier des suites de bench trop connus, car les navigateurs ont la méchante habitude de devenir spécialistes de l’optimisation des benchmarks, plutôts que spécialiste de l’optimisation tout court.



          

Pour avoir fait quelques tests de performances ces derniers temps avec du code JS capable denvoyer du lourd (en calcul pur, sans affichage), issu d'un projet perso, j'ai eu la surprise de tomber sur des perfs de Firefox à chier comparé à un IE 10 qui s'en sortait largement mieux au final: quand IE faisait seulement 10% de perfs en moins que Chrome, FF était deux fois plus lent. Et pour une appli "temps réel", ça change beaucoup de choses pour l'expérience utilisateur.



Alors ce n’est qu’un test parmi les autres, mais ça montre aussi à quel point un résultat d’un bench ne vaut pas grand chose au final.




  Et quand on voit des boites comme Samsung capable d'overclocker leur CPU en fonction de noms d'applis de benchmark bien particulières pour fausser leurs résultats, ...







+1, ce genre de test n’est pas forcément représentatif, j’attends de pouvoir tester moi-même, c’est le seul ressenti qui compte pour moi.

Sinon,, bien dommage de devoir s’identifier comme Chrome 39. Le web est en train de se pourrir comme il y a quelques années, mais pour un autre acteur.









brazomyna a écrit :



Il faut se méfier des suites de bench trop connus, car les navigateurs ont la méchante habitude de devenir spécialistes de l’optimisation des benchmarks, plutôts que spécialiste de l’optimisation tout court.



            

Pour avoir fait quelques tests de performances ces derniers temps avec du code JS capable denvoyer du lourd (en calcul pur, sans affichage), issu d'un projet perso, j'ai eu la surprise de tomber sur des perfs de Firefox à chier comparé à un IE 10 qui s'en sortait largement mieux au final: quand IE faisait seulement 10% de perfs en moins que Chrome, FF était deux fois plus lent. Et pour une appli "temps réel", ça change beaucoup de choses pour l'expérience utilisateur.



Alors ce n’est qu’un test parmi les autres, mais ça montre aussi à quel point un résultat d’un bench ne vaut pas grand chose au final.




   Et quand on voit des boites comme Samsung capable d'overclocker leur CPU en fonction de noms d'applis de benchmark bien particulières pour fausser leurs résultats, ...







Firefox est particulièrement lors de l’utilisation du offline html5. C’est limite honteux.









Qruby a écrit :



Firefox est particulièrement lors de l’utilisation du offline html5. C’est limite honteux.





Moi je trouve ça suprenant, mais pas forcément honteux.



Le User Agent de Spartan contient donc les mots Chrome, Mozilla, Safari, Webkit et Gecko. Ça tourne vraiment au ridicule. Il serait temps d’abandonner définitivement le user agent sniffing au profit de la détection de fonctionnalités type Modernizr.


S’identifier comme Chrome 39 me semble risqué … S’ils ne suivent pas niveau mises à jour et respect des standards (ce que je ne jugerais pas, faute d’avoir eu l’occasion de développer pour les IE récents), ça pourrait donner un navigateur tout simplement inutilisable.



Le point positif, c’est que ça va forcer les dev à faire des fallbacks par fonctionnalité et non pas par navigateur, ce qui est largement plus propre et fiable.



Sinon, ça va être pratique pour analyser les parts de marché des navigateurs …


La parole divine sort de ta bouche, l’ami !


C’est vrai que là c’est ridicule. Surtout que c’est tellement pas normal que ça permettra le l’identifier.








sebcap26 a écrit :



S’identifier comme Chrome 39 me semble risqué … S’ils ne suivent pas niveau mises à jour et respect des standards (ce que je ne jugerais pas, faute d’avoir eu l’occasion de développer pour les IE récents), ça pourrait donner un navigateur tout simplement inutilisable.




Le point positif, c'est que ça va forcer les dev à faire des fallbacks par fonctionnalité et non pas par navigateur, ce qui est largement plus propre et fiable.     





Sinon, ça va être pratique pour analyser les parts de marché des navigateurs …





La vrai raison derrière est que les services Google sont différents en fonction du user agent. Microsoft en a fait les frais sur Windows Phone, ils ont corrigé le tir en se faisait passer pour un téléphone Android.



Loin de moi l’idée de faire caca dans les bottes de NXi mais…

Bonjour, on fait des benchmarks sur un navigateur en développement puis on fait remarquer que faire des benchmarks sur un navigateur en développement est un peu idiot.

J’ai un peu de mal à comprendre l’intêret (en dehors du fait de taper sur MS)

On peut également parler du fait que ce genre de tests ne vaut le coup que si tout le monde joue le jeu. aussi bien côté navigateur que côté test)


Quand un navigateur en “dev” est aussi rapide qu’un nav en “prod”, ça ne peut être que bon signe :)

Oui, les tests ne sont ni représentatifs ni définitifs, mais le chemin pris par MS semble plutôt bon :)


C’est pas genant l’utilisation de l’user agent de chrome vis à vis de tous les frameworks qui ont des fallback specifique à Internet Explorer, et qui, au vu de ce que l’on peut voir sur&nbsphttps://status.modern.ie/ n’ont pas été rattrapés?








brazomyna a écrit :



Il faut se méfier des suites de bench trop connus, car les navigateurs ont la méchante habitude de devenir spécialistes de l’optimisation des benchmarks, plutôts que spécialiste de l’optimisation tout court.



            

Pour avoir fait quelques tests de performances ces derniers temps avec du code JS capable denvoyer du lourd (en calcul pur, sans affichage), issu d'un projet perso, j'ai eu la surprise de tomber sur des perfs de Firefox à chier comparé à un IE 10 qui s'en sortait largement mieux au final: quand IE faisait seulement 10% de perfs en moins que Chrome, FF était deux fois plus lent. Et pour une appli "temps réel", ça change beaucoup de choses pour l'expérience utilisateur.



Alors ce n’est qu’un test parmi les autres, mais ça montre aussi à quel point un résultat d’un bench ne vaut pas grand chose au final.




   Et quand on voit des boites comme Samsung capable d'overclocker leur CPU en fonction de noms d'applis de benchmark bien particulières pour fausser leurs résultats, ...







Comme tout benchmark c’est forcement limité. Mais difficile de toute façon de faire des tests de performances autrement.



Sinon ce que j’aimerais bien savoir c’est quel est le support de ES6 et ES7 sur Spartan ? 









MasterCloud a écrit :



Bonjour, on fait des benchmarks sur un navigateur en développement puis on fait remarquer que faire des benchmarks sur un navigateur en développement est un peu idiot. 



Ils n’ont pas dit que c’était idiot. Ils ont dit que les résultats seront probablement très différents dans la version finale. Et finalement, c’est au contraire hyper intéressant de voir comment un logiciel évolue au fil des changements qui y sont apportés (c’est encore plus intéressant quand on a accès aux sources évidemment :) ).



Pouvez-vous décrire succinctement sur quoi se focalisent les différents tests?

On se doute de se que fait HTML5, pour les autres il faut avoir quelques connaissances.


Il n’est jamais dit que c’était idiot. Il est d’ailleurs dit qu’il est interessant de voir son “évolution” au cours du développement.



Le souci pour identifier la qualité d’un navigateur, c’est qu’il n’y a bien que ces benchmark qui peuvent donner une idée “chiffrée” (plus que “sur mon core I7 avec 8Go de ram, c’est rapide”&nbsp;<img data-src=" />).&nbsp;



Tu vois d’ailleurs que le % d’évolution n’est donné qu’entre IE-Spartan, seul ratio qui a réélement de l’importance pour moi (encore une fois pour ne pas comparer un navigateur avec son benchmark “optimisé”).



En résumé, pour une pré-version, c’est encourageant, il faudra voir comment il évoluera dans le temps et si la séparation du navigateur de l’OS poussera Ms à “faire la course aux version” avec Chrome.&nbsp;



&nbsp;


ES7, il faudrait déjà qu’elle soit complètement écrite. <img data-src=" /> (Sinon j’ai mis un lien plus haut, personne ne peut tester ?)








MasterCloud a écrit :



Loin de moi l’idée de faire caca dans les bottes de NXi mais…

Bonjour, on fait des benchmarks sur un navigateur en développement puis on fait remarquer que faire des benchmarks sur un navigateur en développement est un peu idiot.

J’ai un peu de mal à comprendre l’intêret (en dehors du fait de taper sur MS)

On peut également parler du fait que ce genre de tests ne vaut le coup que si tout le monde joue le jeu. aussi bien côté navigateur que côté test)







C’est le jeu des béta, c’est quand même INterressant d’avoir l’état actuel des choses même s’il peut évoluer fortement d’ici la version finale.









SylvainPV a écrit :



Le User Agent de Spartan contient donc les mots Chrome, Mozilla, Safari, Webkit et Gecko. Ça tourne vraiment au ridicule. Il serait temps d’abandonner définitivement le user agent sniffing au profit de la détection de fonctionnalités type Modernizr.







Amen !



Ils sont où les liens de téléchargement pour Mac OS X et Linux ? <img data-src=" />







Spartan s’identifie lui-même comme étant Chrome 39 au lieu d’Internet Explorer 11, une modification qui en dit long sur la manière dont IE est géré par les sites web.





C’est surtout ça qui est honteux : un vrai site Web moderne devrait complètement ignorer l’user-agent, et respecter les normes du Web (W3C). Les sites Web qui font des choses différentes en fonction du user-agent, ce sont des sites Web mal codés, ou avec une volonté manifeste de nuire à un certain navigateur.



J’avais lu que les navigateurs utilisent des user-agent bidon afin d’éviter les problèmes sur des vieux sites Web qui recherchent IE6 ou ce genre de truc. C’est pour cela que les user-agent ne veulent plus rien dire (IE s’identifie comme Chrome, Chrome s’identifie comme Mozilla, etc.). Sur des vieux sites Web qui ne sont plus mis à jour je veux bien, mais les sites Web récents qui cherchent encore à utiliser l’user-agent c’est lamentable.


Et moi qui n’ai pas réussi a installer W10 sur une machine virtuel. <img data-src=" />


Il n’y a que Firefox qui ne cherche pas à tricher ?



Mozilla/5.0 (Windows NT 6.1; WOW64; rv:35.0) Gecko/20100101 Firefox/35.0








Konrad a écrit :



C’est pour cela que les user-agent ne veulent plus rien dire (IE s’identifie comme Chrome, Chrome s’identifie comme Mozilla, etc.)







Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/41.0.2251.0 Safari/537.36 OPR/28.0.1747.0 (Edition developer) <img data-src=" />



Bon maintenant je bascule sur 10 pour tester ça









Konrad a écrit :



Les sites Web qui font des choses différentes en fonction du user-agent, ce sont des sites Web mal codés, ou avec une volonté manifeste de nuire à un certain navigateur.





Ou alors peut etre que lorsque le site à été crée, IE etait à la traine par rapport à Firefox/Chrome sur certains points qui apportait de lourds avantages à la team de dev, et que la société n’à pas juger urgent de réclamer une mis à jour pour les 15% d’utilisateur d’ie qui de toute maniere peuvent tres bien acceder au site avec…



… nan t’as raison, la theorie complot anti-MS est plus logique…









Qruby a écrit :



La vrai raison derrière est que les services Google sont différents en fonction du user agent. Microsoft en a fait les frais sur Windows Phone, ils ont corrigé le tir en se faisait passer pour un téléphone Android.







Perso Google m’identifie comme un iOS sous WP.









vloz a écrit :



Ou alors peut etre que lorsque le site à été crée, IE etait à la traine par rapport à Firefox/Chrome sur certains points qui apportait de lourds avantages à la team de dev, et que la société n’à pas juger urgent de réclamer une mis à jour pour les 15% d’utilisateur d’ie qui de toute maniere peuvent tres bien acceder au site avec…



… nan t’as raison, la theorie complot anti-MS est plus logique…







Ou alors peut-être que j’ai dit que les sites Web modernes ne devraient pas utiliser le user-agent.









Konrad a écrit :



Ou alors peut-être que j’ai dit que les sites Web modernes ne devraient pas utiliser le user-agent.





Ah? <img data-src=" />

Du genre?



Il ne te vient pas à l’esprit que cela peut être l’inverse ?

On code pour les standards et quand quelqu’un se pointe avec (au hasard) IE le gentil WM charge tout un tas de fix pour essayer de le faire fonctionner malgré tout.&nbsp;








Konrad a écrit :



Ou alors peut-être que j’ai dit que les sites Web modernes ne devraient pas utiliser le user-agent.





Quand les dev-web auront la garantie qu’en suivant aveuglément les standards leur site web aura le même aspect sur plus de 90% du parc des navigateurs installés, je pense qu’ils seront très heureux de ne pas avoir à redévelopper 3-4 fois chaque fonctionnalité un peu avancée.









Konrad a écrit :



Ou alors peut-être que j’ai dit que les sites Web modernes ne devraient pas utiliser le user-agent.







Les sites web modernes doivent souvent être pouvoir accéder sans problème sous IE7 minimum… et même s’il est mieux que IE6 ce n’est pas la panacée non plus… maintenant je suis d’accord, vu que le user-agent ne veux plus rien dire du tout, autant s’en passer.



Est-ce que ces mdes de balises conditionnelles IE sont toujours supportés ?



&lt; !–[if IE]

Ici votre code HTML réservé à IE.

&lt; ![endif]–



(Ça ressemble ça, mais le parseur me les vire si je les écrit correctement)








vloz a écrit :



… nan t’as raison, la theorie complot anti-MS est plus logique…





Euuu, que IE se colle une sale réputation et que les dev préfèrent optimiser leurs sites web pour d’autres navigateurs, c’est loin d’être une théorie du complot…









Qruby a écrit :



La vrai raison derrière est que les services Google sont différents en fonction du user agent. Microsoft en a fait les frais sur Windows Phone, ils ont corrigé le tir en se faisait passer pour un téléphone Android.





Cette différence de traitement est particulièrement honteuse d’ailleurs.



Pour ma part, les services de google sont devenus inutilisables (particulièrement gmaps) sous Firefox. Du coup, j’ai totalement abandonné l’utilisation de leurs services.

Optimiser, c’est une chose.

Force la main pour utiliser ses logiciels, c’en est un autre: c’est détestable et profondément irrespectueux de l’utilisateur.









Jed08 a écrit :



Euuu, que IE se colle une sale réputation et que les dev préfèrent optimiser leurs sites web pour d’autres navigateurs, c’est loin d’être une théorie du complot…





Bah oui, on est pret à perdre des clients et faire du code carde (le user agent c’est pas la solution de facilité hein) juste pour suivre la voie du “saint Google”…&nbsp;

Et les commentateur de next inpact serait les seuls suffisament independant dans leur jugement pour denoncer ça, tandis que les dev agissent plus comme des supporter…&nbsp;

Vous etes tellement fort… :/









SylvainPV a écrit :



Le User Agent de Spartan contient donc les mots Chrome, Mozilla, Safari, Webkit et Gecko. Ça tourne vraiment au ridicule. Il serait temps d’abandonner définitivement le user agent sniffing au profit de la détection de fonctionnalités type Modernizr.





Le user agent n’a pas que l’utilité d’un modernizr.

Cela permet d’activer/désactiver des fonctionnalités côté serveur, Modernizr est côté client.



Est-ce qu’on sait si Spartan intègre toujours les ActiveX, balises conditionnelles et modes de compatibilité ?



J’espère que non. Le mode de compatibilité est une horreur qui incite justement à ne jamais mettre à niveau ses applications.



Depuis des années dans ma boite, à chaque mise à jour de navigateur y’a un chialeur quelque part qui veut pas faire son boulot (pour mettre à niveau son application) qui a des relations et qui vient imposer le mode de compatibilité IE 67 comme stratégie globale sur le réseau (on est sous IE9 actuellement). C’est très chiant quand on essaie de faire son boulot correctement et de faire un code propre et moderne.


Le serveur peut récupérer les infos de moderniZr. Le javascript ça ne sert pas qu’a faire du calcul coté client :)



Ceci dit, tout ça est un beau bordel, et pour l’instant y a pas de solution efficasse qui se dessine. Donc le user-agent ne va pas encore disparaitre, malheuruesement…








SylvainPV a écrit :



Le User Agent de Spartan contient donc les mots Chrome, Mozilla, Safari, Webkit et Gecko. Ça tourne vraiment au ridicule.





Surtout si il est pas motorisé par les moteurs Blink, Chromium, Webkit ou Gecko !









seb2411 a écrit :



Comme tout benchmark c’est forcement limité. Mais difficile de toute façon de faire des tests de performances autrement.





Je ne dis pas le contraire. Les benchs ont leur utilité.

Ce qui me gènerait c’est que ça devienne tellement l’unique métrique avancée par les médias, que ça en influence le développement.



le bon vieux &nbsp;&lt; !–[if IE] Ici votre code HTML réservé à IE. &lt; ![endif]– ne fonctionne déjà plus sous ie11, car ie11 n’est pas déclaré comme un ie, ce qui oblige à définir :

&lt;meta http-equiv=“X-UA-Compatible” content=“IE=edge” /&gt;&nbsp;

en dehors pour être sur que ie11 ne se mettra pas en mode compat ie8…

&nbsp;








vloz a écrit :



Bah oui, on est pret à perdre des clients et faire du code carde (le user agent c’est pas la solution de facilité hein) juste pour suivre la voie du “saint Google”…&nbsp;

Et les commentateur de next inpact serait les seuls suffisament independant dans leur jugement pour denoncer ça, tandis que les dev agissent plus comme des supporter…&nbsp;

Vous etes tellement fort… :/





<img data-src=" />

Pour dire ça, tu n’as jamais du mettre le moindre pied dans un forum de développeurs informatiques, dans une société logicielle, ni même dans une simple classe d’info dans un établissement scolaire.

&nbsp;

J’ai un scoop pour toi: ce genre de comportement est (très) répandu en info, mais aussi dans tous les secteurs d’activité du monde: on appelle ça “la nature humaine”.

&nbsp;Et oui, les dev agissent souvent comme des supporters, des fanboys ou haters selon leur marque de prédilection, choisissant leur spécialisation de codage comme on choisit un vêtement adidas ou nike.



&nbsp;Tu t’attendais à quoi d’autres?

&nbsp;Que les codeurs soient au-dessus du lot en terme de réflexion? Qu’ils agissent plus par raison que par sentiment?

&nbsp;

&nbsp;Tout le monde agit ainsi, tout le monde le sait, et (presque) tout le monde le dénonce aussi.

&nbsp;Pas besoin d’être un inpactien pour le voir, le savoir et le dénoncer. Faut juste avoir les yeux en face des trous et ne pas se voiler la face.

&nbsp;



Perso, utiliser ces benchmark ne me dérange pas, tant qu’on reste sur l’évolution d’une version d’un navigateur &nbsp;à un autre, et pas pour comparer &nbsp;“le nav X est meilleur que Y parce qu’il fait 3% mieux sur truc”


Ben écoute, si ton site en production est codé uniquement selon les standards, c’est bien félicitation.

Mais c’est pas pour autant que le restes des autres devs font comme toi.

J’ai déjà vu des devs web qui utilisent les préfixes Webkit en production et qui refuse de créer un comportement différent uniquement pour IE.

Alors certes, le délaissement de IE au profit des autres navigateurs est mérité (MS ne s’est remis en question qu’à partir de IE 10 et a commencer à faire du bon boulot depuis IE 11), mais la philosophie de développer pour des navigateurs et non pas selon des standards est très mauvaise.


La comparaison est surtout intéressante entre Internet Explorer / Spartan afin de voir les changements apportés entre les deux versions, toutes les deux en développement (FF et Chrome sont présents pour donner des indications de mesures, rien de plus). Après oui, les choses vont certainement évoluer et c’est justement précisé dans l’actu pour éviter de tirer des conclusions hâtives. &nbsp;<img data-src=" />


Pour SunSpider j’imagine que la valeur la plus faible est la meilleure.

C’est pas un peu bizarre que Spartan en bêta à un résultat deux fois plus faible que Chrome ?


Une excellente nouvelle pour le monde du web en général, mais cela ne me fera pas changer de mon Firefox <img data-src=" />


C’est vrai, de plus en plus de devs web laissent purement et simplement tomber IE. J’en connais.


Surtout que comme pour tout programme, t’as une plate-forme de référence, je vois comment c’est possible autrement. Forcement, ça sera mieux sur celle-ci. Sauf que dans mon job, je connais personne qui se sert d’IE en référence.


Qu’en sera-t-il du support de WebRTC (officiel) par ce bidule ? :oui2:


Y’a moyen de voir ce que ça donne pour :

-http://css3test.com/

-http://kangax.github.io/compat-table/es6/


Personnellement qu’ils laissent tomber IE je m’en fous un peu du moment que le site est conforme aux standards

Qu’ils utilisent des features non standard en prod’ c’est sale mais ça peut être acceptable du moment que la majorité du code est conforme aux standards.

Le plus dur à avaler c’est que certains font les 2 et se respectent pas les standards. Donc oui, c’est le navigateur le plus discriminé qui se base uniquement sur le respect des standards du web (je parle de IE11) qui prend le plus cher !



Et le plus ironique c’est que des devs reprochent à MS de pas respecter ces standards qu’eux même ne respectent pas…


Sur CCS3Test :&nbsp;

IE : 50 %&nbsp;

Spartan : 51 %

&nbsp;

Sur le test ECMAScript 6, une info en particulier ou bien une copie del ‘intégralité des résultats pour IE/Spartan ?&nbsp;


Pour être exact, l’User Agent contient absolument tous les noms de navigateurs concurrents existants. Trolling maximal.








js2082 a écrit :



Cette différence de traitement est particulièrement honteuse d’ailleurs.



Pour ma part, les services de google sont devenus inutilisables (particulièrement gmaps) sous Firefox. Du coup, j’ai totalement abandonné l’utilisation de leurs services.

Optimiser, c’est une chose.

Force la main pour utiliser ses logiciels, c’en est un autre: c’est détestable et profondément irrespectueux de l’utilisateur.





Quel est ton roblème avec Firefox ? Pour ma part, Maps et Sttreet Vie fonctionnent très bien (de même que Gmail) sous Firefox 35.0 … Testé à l’instant.



En même temps, le standard du w3c les gens s’en moquent c’est plutôt webkit aujourd’hui le standard de fait, car il est incontournable.



C’est un peu Le scénario de IE5 qui se répète.


A la différence que ceux qui descendaient ms pour ca à l’époque encensent aujourd’hui google et/ou l’excusent. Cherchez l’erreur …


Les derniers IE respectent les standards. Et par standard, je parle de vrais standard pas ce qui est en passe d’être normalisé.








zefling a écrit :



Surhttp://css3test.com/ ethttp://kangax.github.io/compat-table/es6/ ça donne quoi ?





Pour CSS3test, j’ai exactement le même résultat entre les 2 (IE11 et Spartan), 614 tests passés.

Pour ES6, j’arrive à 71% (contre 21% pour IE11). En fait, ils ont ajouté la colonne affichant les scores de Spartan, donc depuis n’importe quel navigateur, tu peux voir les résultats détaillés.









darth21 a écrit :



A la différence que ceux qui descendaient ms pour ca à l’époque encensent aujourd’hui google et/ou l’excusent. Cherchez l’erreur …





mais tu comprend pas, google c’est le BIEN.

jamais aucune boite n’a autant contribué autant au progrès de l’humanité.

Alors il est évident que tout ce qu’ils font est pour le bien être de l’espèce humaine.

Si ce n’est pas toujours évident ,‘oublier pas que les voies de GOOGLE sont impénétrables.









ar7awn a écrit :



mais tu comprend pas, google c’est le BIEN.

jamais aucune boite n’a autant contribué autant au progrès de l’humanité.

Alors il est évident que tout ce qu’ils font est pour le bien être de l’espèce humaine.

Si ce n’est pas toujours évident ,‘oublier pas que les voies de GOOGLE sont impénétrables.





C’est surtout que le libre a aider google à faire de très grosses économies et a surtout fait gagné beaucoup de temps à google pour élaborer un OS. Après libre ou pas ça a été une opportunité pour cette entreprise.&nbsp;



Après on peut se demander si MS a raison d’insister dans du code privé, pour ma part MS sera obligé de faire sa mue vers le libre.









darth21 a écrit :



A la différence que ceux qui descendaient ms pour ca à l’époque encensent aujourd’hui google et/ou l’excusent. Cherchez l’erreur …







Ben pour ma part, je considère ceux qui codent des sites Web uniquement pour Webkit font la même connerie que ceux qui codaient des sites «optimisés pour IE6» à l’époque…



Un développeur Web devrait respecter les standards, point.



Microsoft, Apple, Google, Mozilla, font tous partie du W3C, à eux de s’entendre et de développer des standards qui fonctionnent partout.









darth21 a écrit :



A la différence que ceux qui descendaient ms pour ca à l’époque encensent aujourd’hui google et/ou l’excusent. Cherchez l’erreur …





Tout n’est peut être pas rose, mais la situation est quand même très différente de l’époque IE5/6.

&nbsp;

Mozilla a beaucoup apporté dans l’évolution des standards du Web, et je les en remercie, mais il faut avouer quand même que leurs actions font pâle figure par rapport à ce que Google a apporté avec Chrome (certes, les deux “sociétés” n’ont pas la même force de frappe). En quelques années, ils ont littéralement révolutionné les standards du Web, et ils continuent de tirer tout le monde vers le haut.



95% du temps ou je découvre une nouvelle API/fonctionnalité qui pourrait m’être utile, elle a été inventée par Google Chrome. Alors certes, c’est pas du standard et ça pose des problèmes similaires à l’époque IE5/6, mais au moins le monde du Web évolue dans le bon sens au lieu de rester totalement figé (et Google travaille beaucoup pour faire standardiser ses propositions).



Il y a un pourcentage en haut de la première colonne. Mais seblutfr m’a répondu. Merci à vous deux. <img data-src=" />


Ouais, sauf que j’ai l’impression qu’il n’y a pas grand-monde qui a cherche à comprendre comment ça se passe au W3C. J’avais essayé d’en faire une explication sur un autre forum.


Regarde du côté des WebAPI c’est principalement Mozilla, du côté du CSS dernièrement je pense que c’est Ms qui se bouge le plus le cul. Depuis quelques temps, j’ai n’ai plus l’impression de voir Google comme un moteur.








zefling a écrit :



Surhttp://css3test.com/ ethttp://kangax.github.io/compat-table/es6/ ça donne quoi ?



&nbsp;

Sur CSS3test j’ai : 50% Determined by passing 614 tests out of 1416 total for 293 features



Pour ES6 j’ai 71% et ca suit plus ou moins la colonne “IE technical preview”.









zefling a écrit :



ES7, il faudrait déjà qu’elle soit complètement écrite. <img data-src=" /> (Sinon j’ai mis un lien plus haut, personne ne peut tester ?)





Y’a déjà quelques fonctionnalités dont une assez intéressante (Object.observe).



source







We recognize some enterprises have legacy web sites that use older technologies designed only for Internet Explorer, such as custom ActiveX controls and Browser Helper Objects. For these users, Internet Explorer will also be available on Windows 10. Internet Explorer will use the same dual rendering engines as Spartan, ensuring web developers can consistently target the latest web standards.



Les ActiveX et les BHO seront supportés sur Internet Explorer mais plus sur Spartan.








Gilbert_Gosseyn a écrit :



Quel est ton roblème avec Firefox ? Pour ma part, Maps et Sttreet Vie fonctionnent très bien (de même que Gmail) sous Firefox 35.0 … Testé à l’instant.






 Impossibilité d'utiliser maps correctement avec ff 35 + goshtery et adb, sous win7.      

Street ne marche pas (écran noir).






J'ai beau avoir réinstallé les divers plug-ins, navigateur, antivirus, etc... ça ne veut pas marcher (enfin ça marche de façon très longue). Et j'ai un joli message qui s'affiche: "il semble que vous rencontrez des problèmes d'utilisation. Veuillez télécharger Chrome pour les résoudre" <img data-src="> (ou comment forcer la main en toute discrétion)      

&nbsp;Résultat: j'utilise d'autres sites concurrents, ça fonctionne très bien.






Les services google ont énormément perdu en qualité si tu n'utilises pas uniquement leur suite logicielle.      

Donc, google c'est direct poubelle pour moi. Je n'aime pas qu'on me force la main à utiliser leurs produits.


Si on parle bien des mêmes WebAPIs, c’est principalement destiné à Firefox OS, pas vraiment utilisable dans l’immédiat pour du Web (mais néanmoins du bon boulot, certes).



Quant à IE, j’ai pas beaucoup suivi ces dernières années, mais j’ai l’impression qu’ils visent surtout les standards. Pas d’innovations donc, mais au moins si on avait un navigateur supportant correctement l’existant (css3, inputs …) ça serait déjà énorme.




Comme on peut le voir, le test de compatibilité HTML5 donne de meilleurs résultats avec Spartan, sans que le gain soit exceptionnel pour autant puisqu’on gagne 9 points seulement.





Je vais me répéter une énième fois : HTML5 test n’est pas un test ! (comme CSS3test d’ailleurs).



Ces deux sites ne font que recenser les spécifications qui sont supportées, mais aucunement si elles le sont bien. Et en plus ils prennent en compte tous les drafts (et pour moi, un draft n’est pas un standard).



A quand un vrai site avec des vrais tests de la bonne implémentation du standard.


FF35 + ABP / win7 64b : street view fonctionne sans soucis, avec de beaux effets 3D au passage de la map au street view ….



Testé aussi sous IE11, sans plugin, pas de soucis …

Donc pour moi, tout semble fonctionner.



Après, je ne peux pas comparer avec Chrome, vu que je ne l’ai jamais installé …



Comme quoi, chaque expérience est différente. <img data-src=" />


Mais les propositions ont été poussées au W3C pour Mozilla et pas mal ont été acceptées.



Bha pour IE, c’est que tu ne suis pas assez bien. Pas mal de proposition au W3C ont pour rédacteurs des types de Microsoft avec des implémentations à l’appuie. Sauf que les -ms- (les prefixes c’est le mal) personne ne pense à regarder ce qu’il y a, et il y en a pas mal.


Je pense pas que quelques années après la sortie de IE5-IE6 et mêmes les quelques années après MS était descendu parce que “c’était le standard de fait” …&nbsp;



Le souci c’est le “niveau” de ce standard de fait&nbsp;<img data-src=" />



A sa sortie IE6 était offert, gratuit, et intégré dans windows EN PLUS d’être l’un des meilleurs navigateur sur le marché. Maintenant avec la mort des concurrents Ms a quasiment “stoppé” tout dev sur internet explorer forçant les devs à considérer les “bugs” comme des standard de fait pendant des années.



Si MS avait gardé son niveau de qualité, et avait continué à avoir un bon support des standards, le problème ne serait pas là …&nbsp;

Et quand la concurrence a commencer à emerger en se basant sur les standards W3C, les devs étaient quand même obligés de supporter les “bugs” de IE.



J’ai du coup, un peu de mal à voir l’analogie avec WebKit, qui sans être parfait, lui se base sur les standard W3C + fonctionnalités experimentales + gros niveau de réactivité pour supporter les standards de fait.





Après le débat, “google ils sont méchant ils font du filtrage par User Agent”, si je passe sur chrome mon user agent en IE8, mon WebMail Office 365 passe en mode “ancienne version” … ce que j’avais il n’y a pas si longtemps avec mon tel Android … Donc il y a bien aussi filtrage par UserAgent non ?&nbsp;







&nbsp;


Certaines tests dépendants de la puissance de ta machine, s’il n’y a rien pour comparer, ça ne sert à rien.


le problème vient des webdevs qui ne supportent plus qu’un seul navigateur : chrome, on a l’impression de revenir au web du “veuillez utiliser IE pour accéder à ce site”.



Par exemple il y a whatsapp ou snapchat je sais plus qui a lancé son chat web y’a pas longtemps qui n’est compatible… qu’avec chrome…








DDReaper a écrit :



le problème vient des webdevs qui ne supportent plus qu’un seul navigateur : chrome, on a l’impression de revenir au web du “veuillez utiliser IE pour accéder à ce site”.



Par exemple il y a whatsapp ou snapchat je sais plus qui a lancé son chat web y’a pas longtemps qui n’est compatible… qu’avec chrome…





Whatsapp mais c’est une application Chrome pas un site web si je me rappel bien.&nbsp;



Tu parles plutôt des sites promo fait en partenariat avec Google ? Mais c’est déjà de la pub pour Google. Quel site serait assez dingue pour faire du Chrome only autrement ?








zefling a écrit :



Certaines tests dépendants de la puissance de ta machine, s’il n’y a rien pour comparer, ça ne sert à rien.





Je m’en doute mais je ne vais pas laisser seule&nbsp; la rédaction proposer des résultats qui servent a rien&nbsp; <img data-src=" />



Si je vois bien c’est une web app sortie il y a 5 jours, où il y a marqué “More Browser coming soon” ?&nbsp;



Pour moi c’est pas tant WebKit qui est ciblée en tant que tel, mais “Chrome” : le navigateur qui a le meilleur rapport PDM/présence sur différentes plateformes.



Comme ça tous les utilisateurs desktop ont un moyen de l’utiliser “juste en installant chrome”, pour la version “beta” …



Il n’est pas question d’un support “webkit”, et support dégeu sur les autres plateformes, c’est “Chrome est supporté, le reste arrive”.








atomusk a écrit :



Si je vois bien c’est une web app sortie il y a 5 jours, où il y a marqué “More Browser coming soon” ?&nbsp;





Wow, ils sont visionnaires <img data-src=" />

Aujourd’hui Spartan, demain qui sait… un autre ?



Si Spartan rame autant que Windows 10 c’est pas la peine. (Genre, 1 Go de ram bouffé sans rien faire) <img data-src=" />


Joli troll, effectivement …


Tu veux dire que Windows 10, tout comme Windows 8, 7 et Vista, gère la mémoire en allouant la mémoire non utilisée aux applications, et que donc, ce n’est pas parce que tu as X Go allouée que tu as réellement toute la mémoire utilisée ? C’est étonnant dis donc


Mega ne fonctionne qu’avec Chrome, moyennement avec Firefox, pas du tout avec IE.

Le site OVH pour l’ADSL ne fonctionne qu’avec Chrome (et pas Chromium ou Iron !!!).



Moi ça me gave les gens qui dev comme des porcs ! Et en plus, quand tu leurs dis que IE11 est aussi bien voire meilleur, les gars d’OVH te rient au nez…



Mais bon, quand on a qu’une Surface RT comme ma grand-mère, va consulter le manager OVH du coup !


Et donc pourquoi faire d’abord une version spéciale chrome au lieu de cibler tous les navigateurs d’un coup en se basant sur du standard ?


Parce qu’il y a pas de challenge à utiliser encore et toujours les même choses.

Parce que avoir un CV en tant que dev disant que tu n’as jamais utiliser des features avancées pour coder des sites web, c’est pas vendeur.


Alors question bête, je suis le seul qui arrive pas à lancer IE sur la preview ? j’avais un 8.1 clean avec un IE dev chanel &nbsp;et j’ai migré via windows update. IE dev chanel se lance, mais il me dit “version plus supporté, installez la tech preview” et il se ferme.. &nbsp;Le normal il se passe rien du tout &gt;_&lt;’



edit: alors ça c’est pas mal, il se lance pas du menu démarer, je l’ai pin sur la task bar et il c’est lancé.. Oubliez mon post du coup :p&nbsp;


News un peu racoleuse, c’est pas nouveau ce switch, et ce n’est absolument pas Spartan.



&nbsp;&gt; Let’s be clear “Experimental Web Platform Features” is not new or “Spartan”.(https://twitter.com/WithinRafael/status/559465318616027138)


non, mais c’est belle et bien le moteur de rendu qu’il utilisera, c’est pour ça que la news ne parle pas de l’UI, mais purement des spec/perf de html5/rendu


c’est le principe d’une béta, proposer sur une plateforme ciblé un service en développement, pour faire évoluer le coeur, et après coup l’étendre à partir de ce qui a fonctionné, et de ce qui a raté



Aujourd’hui chrome (voir même webkit plus généralement d’ailleur) est suffisamment répandue, et documenté pour préparer un développement béta


Et pourquoi pas leur demander ?&nbsp;<img data-src=" />



C’est con, mais c’est souvent le cas quand tu développe une web app, tu cibles une ou plusieurs plateforme, tu fais ton projet, te valide le projet sur la/les plateforme, puis tu fais les réglages.&nbsp;



TRES rarement, tu développe sur une feuille de papier en suivant les standard, et tu test en parallèle sur toutes les plateformes. D’autant plus quand tu dois supporter les IE9-10-11.&nbsp;



Alors, oui, est-ce que c’est une erreur de la part de SnapChat ? il y a de fortes chances. maintenant la question est :&nbsp;




  • Est ce que la release de la version Safari arrive dans 2 jours, celle de IE &nbsp;dans une semaine le temps de faire les tests, validations & co

  • Est ce qu’ils vont dire pendant 6 mois : vous avez qu’à installer Chrome



    &nbsp;Et d’ailleurs, est ce vous avez essayé de faire tourner sur IE11 ?



    Maintenant est ce que Chrome est le IE5 de 20142015 ? perso, je dirai plutôt que c’est le Flash de 201415&nbsp;<img data-src=" />



    Ca fonctionne, une plateforme stable et commune à tous les OS, sur laquelle on peut dev sans trop de souci, et qui ne demande “que” l’installation d’une app mais bordel, si seulement on pouvait s’en passer&nbsp;<img data-src=" />

    &nbsp;


Alors c’est pas une news racoleuse, c’est une erreur dans la news, et tu as un bouton pour ça&nbsp;<img data-src=" />


En temps qu’utilisateur , IE11 a fait de sacré progrès . Certes&nbsp;IE partait de loin , très loin même . Il lui manque juste un gestion des modules plus “ouverte” .


Ça me semble bien crade d’activer/désactiver des fonctionnalités client liées au navigateur cotés serveur.


C’est parfois utiliser pour détecter si t’es en mobile ou non. Mais normalement avec le responsive design ça devrait disparaître.








Bejarid a écrit :



Le serveur peut récupérer les infos de moderniZr. Le javascript ça ne sert pas qu’a faire du calcul coté client :)



Ceci dit, tout ça est un beau bordel, et pour l’instant y a pas de solution efficasse qui se dessine. Donc le user-agent ne va pas encore disparaitre, malheuruesement…



Autant éviter un round-trip si possible. Bien que le useragent soit la plupart du temps paramétrable, donc absolument pas sûr.









sebcap26 a écrit :



Tout n’est peut être pas rose, mais la situation est quand même très différente de l’époque IE5/6.

&nbsp;

Mozilla a beaucoup apporté dans l’évolution des standards du Web, et je les en remercie, mais il faut avouer quand même que leurs actions font pâle figure par rapport à ce que Google a apporté avec Chrome (certes, les deux “sociétés” n’ont pas la même force de frappe). En quelques années, ils ont littéralement révolutionné les standards du Web, et ils continuent de tirer tout le monde vers le haut.



95% du temps ou je découvre une nouvelle API/fonctionnalité qui pourrait m’être utile, elle a été inventée par Google Chrome. Alors certes, c’est pas du standard et ça pose des problèmes similaires à l’époque IE5/6, mais au moins le monde du Web évolue dans le bon sens au lieu de rester totalement figé (et Google travaille beaucoup pour faire standardiser ses propositions).



Je suis tout ouï, qu’est-ce que Google à apporté au Web?

&nbsp;



Le user agent n’est pas utilisable, depart son implémentation. Il n’y a pas le choix, vu comment est conçu le HTML5, il faut envoyer modernizr, l’exécuter, et récupérer les infos, à ce moment seulement le serveur sait de façon raisonnablement précise à quoi il a affaire. Ce reste moyennement fiable (le navigateur peut raconter des conneries si ça lui chante) mais de manière générale ça fonctionne.



Avant ce retour, il faut considérer qu’en face, on peut avoir de l’IE8 comme du chrome 41…








5h31k a écrit :



Je suis tout ouï, qu’est-ce que Google à apporté au Web?

&nbsp;





Une campagne publicitaire monstrueuse ? (clips télé, affichage murale)

Jamais personne n’avait fait une telle pub pour un produit “internet”.



Bon après, ils n’ont pas fait que ça, et c’est d’ailleurs malheureux à mon avis :p









5h31k a écrit :



Je suis tout ouï, qu’est-ce que Google à apporté au Web?

&nbsp;





Fais un tour sur les comptes rendus du w3c et regarde les participants… Google et Mozilla sont tres largement impliqués…&nbsp;

La seul proposition réellement soutenue par Microsoft etant le grid layout (qui est toujours au stade de draft 4ans apres) et la prochaine version de WebRTC… :/

Par ailleurs google distribue des techno open source tres connues comme : v8, GWT, dart, polymer, Angular, Pnacl…



Alors biensur que dans les faits tout ça, c’est pour faire toujours plus de fric et modeler le web à son image et tuer petit à petit toute concurrence…

Mais c’est pas aux dev de se faire violence pour utiliser des techno dépassées de 10ans (parce que ouais, le combo html+js ça pue juste la merde), ni meme à google de ralentir en mode “Je fais du social pour ces cons de chez Microsoft”, le probleme viens surtout de l’inactivité des autres acteurs privés…



Au début, j’utilisais chrome. J’ai constaté que parfois le PC se mettait à chauffer et il fallait que je force l’arrêt pour ne plus entendre l’emballement du ventilo. Je suis passé à Firefox. Lors du téléchargement de Windows 10, pour vérifier le débit réseau, occupation du processeur:10%. Sous ie11:2%

Je ne sais pas ce que vous en pensez mais MS fait feu de tout bois en ce moment. D’ici qu’on se mette à acheter des windows phone… Au moins, ils ne baissent pas les bras et bossent. Et qu’on me parle pas du monde libre (IBM, SUN –&gt;Oracle et j’en oublie). MS a raison de mettre windows 10 gratuit pour les particuliers. C’est une manière de segmenter entre particuliers et entreprises qui vont arriver après et donc payer.

Et pourtant je suis un pro-google sur mobile(Android).

Tout ce qui tire l’expérience vers le haut va dans le bon sens.








brazomyna a écrit :



Il faut se méfier des suites de bench trop connus, car les navigateurs ont la méchante habitude de devenir spécialistes de l’optimisation des benchmarks, plutôts que spécialiste de l’optimisation tout court.



    &nbsp;           

Pour avoir fait quelques tests de performances ces derniers temps avec du code JS capable denvoyer du lourd (en calcul pur, sans affichage), issu d'un projet perso, j'ai eu la surprise de tomber sur des perfs de Firefox à chier comparé à un IE 10 qui s'en sortait largement mieux au final: quand IE faisait seulement 10% de perfs en moins que Chrome, FF était deux fois plus lent. Et pour une appli "temps réel", ça change beaucoup de choses pour l'expérience utilisateur.

Alors ce n'est qu'un test parmi les autres, mais ça montre aussi à quel point un résultat d'un bench ne vaut pas grand chose au final.






     Et quand on voit des boites comme Samsung capable d'overclocker leur CPU en fonction de noms d'applis de benchmark bien particulières pour fausser leurs résultats, ...








tu sais quoi ? Les procs des tels samsung etaient OC pendant les tests. Si tu utilises un navigateur qui O/C ta machine quand tu vas sur une page web, un bon conseil : change en urgemment...     





Pour le reste c’est du non sens complet. Tu as test quoi exactement ? Des calculs lourds ? Des boucles ? du rendu ? En quoi ton pauvre petit test est-il comparable à la foultitude de tests divers et variés effectués par un site fait spécifiquement pour ça ? Lequel est le plus proche du ressenti de l’utilisateur final ?

De mémoire spiderMonkey est particulièrement véloce pour tout ce qui est refactoring et boucles (gestion des events), V8 brille quant à la gestion du rendu…



Sachant que les sites utilisent tout et n’importe quoi, sauf du calcul lourd (les sites d’astrophysiques ça court pas les rues), quelque chose me dit que…



&nbsp;





SylvainPV a écrit :



Le User Agent de Spartan contient donc les mots Chrome, Mozilla, Safari, Webkit et Gecko. Ça tourne vraiment au ridicule. Il serait temps d’abandonner définitivement le user agent sniffing au profit de la détection de fonctionnalités type Modernizr.






Sachant que le user-agent est le seul et unique moyen "sûr" de faire la différence entre un navigateur desktop et mobile côté serveur ça va grandement améliorer le web ton idée....     





&nbsp;





5h31k a écrit :



Je suis tout ouï, qu’est-ce que Google à apporté au Web?



&nbsp;







Blague à la con ? Troll ? Si il y a bien une société sans qui le web n’aurait pas le même visage c’est Google…



&nbsp;

Globalement +1 avec les avis éclairés insistant sur le fait que la situation n’est pas comparable avec celle d’IE6… Au delà de la qualité intrinsèque de webkit qui est un moteur libre (Steam l’intègre aussi par exemple) et open source (très comparable avec trident hein ?), google pousse pour que les fonctionnalités avancées gérées par Chrome uniquement soient intégrés dans les standards ; MS développait l’API ActiveX qui en plus d’être pleine de failles n’était compatible avec rien…



Aujourd’hui il y a peu de code qui fonctionne sur un navigateur et pas sur l’autre, même dans le code avancé (dont la compatibilité est de toutes façons géré par un Fk dans 99.99% des cas)…

&nbsp;Ceux qui disent ça n’ont visiblement jamais connu la période IE6… et la façon dont les dev ont poussé pour s’en débarrasser. La situation ne se répète pas, Webkit (et non uniquement Chrome) est incontournable, vu son respect dans standards que dire à part “tant mieux” ?



Pour les CSS pour MS, actuellement en tant qu’éditeur (pas forcement seul) :




  • CSS Fragmentation

  • CSS Color 3

  • CSS Flexible Box

  • CSS Logical Properties

  • CSS Grid Layout (propositon MS)

  • CSS Scroll Snap Points (propositon MS)

  • CSS Mobile Text Size Adjustment

  • CSS Shapes

  • CSS Regions

  • CSS Positioned Layout (propositon MS)

  • CSS TV Profile



    Par contre, je conviens que Mozilla et Google sont plus présent. Adobe aussi est pas mal présent. Je suis pas un fan de Ms (j’ai plus rien de Ms chez moi), mais je ne pas nier que Ms s’est sorti les doigts du c*l ses 3 dernières années concernant le web.








11h10 a écrit :



Au début, j’utilisais chrome. J’ai constaté que parfois le PC se mettait à chauffer et il fallait que je force l’arrêt pour ne plus entendre l’emballement du ventilo. Je suis passé à Firefox. Lors du téléchargement de Windows 10, pour vérifier le débit réseau, occupation du processeur:10%. Sous ie11:2%

Je ne sais pas ce que vous en pensez mais MS fait feu de tout bois en ce moment. D’ici qu’on se mette à acheter des windows phone… Au moins, ils ne baissent pas les bras et bossent. Et qu’on me parle pas du monde libre (IBM, SUN –&gt;Oracle et j’en oublie). MS a raison de mettre windows 10 gratuit pour les particuliers. C’est une manière de segmenter entre particuliers et entreprises qui vont arriver après et donc payer.

Et pourtant je suis un pro-google sur mobile(Android).

Tout ce qui tire l’expérience vers le haut va dans le bon sens.





lapin compris.









ra-mon a écrit :



Wow, ils sont visionnaires <img data-src=" />

Aujourd’hui Spartan, demain qui sait… un autre ?





ah, oui, tiens : &nbsphttp://vivaldi.com dévoile un petit navigateur pour nos amis :)



en même temps, il est basé sur le moteur de chrome, il y a des chances qu’il ne pose pas de problème pour faire marcher whatsapp <img data-src=" />


Ils ont collé NXI dans le SpeedDial <img data-src=" />








Fuinril a écrit :



Sachant que le user-agent est le seul et unique moyen “sûr” de faire la différence entre un navigateur desktop et mobile côté serveur ça va grandement améliorer le web ton idée….





Okay je vois, les idées reçues ont la vie dure… Les user-agent ne sont en aucun cas un moyen “sûr” de tester l’environnement d’un utilisateur, ce n’est pas pour rien qu’on critique depuis des années le user agent sniffing. Fournir un contenu différent en se basant sur l’User Agent est une grossière erreur commise depuis des années, cela va à l’encontre du principe d’uniformité des URL. S’il faut charger un contenu différent, il faut que ce soit le navigateur qui en fasse la demande. Et ça tombe bien, avec JavaScript, on a accès à quantité d’informations supplémentaires sur le device et le contexte d’utilisation, informations auxquelles le serveur seul ne pourra jamais avoir accès. Les patterns de détection et les techniques de chargement adaptatif sont les fondements de ce que l’on nomme Adaptive Web Design, et qui s’avère aujourd’hui la référence en matière de web multplateforme. Pour information, le web multiplateforme est mon domaine de spécialisation professionnelle et j’ai récemment publié un livre sur le sujet donc j’ai la prétention de savoir de quoi je parle.









SylvainPV a écrit :



Okay je vois, les idées reçues ont la vie dure… Les user-agent ne sont en aucun cas un moyen “sûr” de tester l’environnement d’un utilisateur, ce n’est pas pour rien qu’on critique depuis des années le user agent sniffing. Fournir un contenu différent en se basant sur l’User Agent est une grossière erreur commise depuis des années, cela va à l’encontre du principe d’uniformité des URL. S’il faut charger un contenu différent, il faut que ce soit le navigateur qui en fasse la demande. Et ça tombe bien, avec JavaScript, on a accès à quantité d’informations supplémentaires sur le device et le contexte d’utilisation, informations auxquelles le serveur seul ne pourra jamais avoir accès. Les patterns de détection et les techniques de chargement adaptatif sont les fondements de ce que l’on nomme Adaptive Web Design, et qui s’avère aujourd’hui la référence en matière de web multplateforme. Pour information, le web multiplateforme est mon domaine de spécialisation professionnelle et j’ai récemment publié un livre sur le sujet donc j’ai la prétention de savoir de quoi je parle.





Sauf qu’avec un site en adaptative tu es loin de pouvoir faire tout ce que tu fais avec un design standard.



Fournir un contenu différent ne pose aucun problème… D’autant que dans la plupart des cas il est possible de revenir à la version standard du site. Certes le user-agent, et les headers http en général, sont tout sauf un moyen sûr, mais tous les navigateurs du monde envoient un user-agent ; donc c’est une information exploitable. Après un utilisateur s’amuse à modifier ses headers, il a la version standard, et alors ? Ce n’est pas ma cible…

&nbsp;

&nbsp;

Et au passage, tu fais comment avec tes supers contrôles js si ton utilisateur a désactivé javascript ? Ou si son navigateur ne supporte pas les fonctions que tu appelles ? Ce sont des cas rares, mais nettement plus fréquent qu’un type qui s’amuse à modifier son user-agent <img data-src=" />









vloz a écrit :



Fais un tour sur les comptes rendus du w3c et regarde les participants… Google et Mozilla sont tres largement impliqués…&nbsp;

La seul proposition réellement soutenue par Microsoft etant le grid layout (qui est toujours au stade de draft 4ans apres) et la prochaine version de WebRTC… :/

Par ailleurs google distribue des techno open source tres connues comme : v8, GWT, dart, polymer, Angular, Pnacl…



Alors biensur que dans les faits tout ça, c’est pour faire toujours plus de fric et modeler le web à son image et tuer petit à petit toute concurrence…

Mais c’est pas aux dev de se faire violence pour utiliser des techno dépassées de 10ans (parce que ouais, le combo html+js ça pue juste la merde), ni meme à google de ralentir en mode “Je fais du social pour ces cons de chez Microsoft”, le probleme viens surtout de l’inactivité des autres acteurs privés…



Je voie que tu as du mal a fournir des exemples donc je vais recommencer :

Donne moi des exemples concrets de la mise en place pour le Web (en général et pas que pour les site compatible Google) de la participation EXCLUSIVE et ABSOLUE de Google pour une amélioration LIBRE sans brevet.



Le combo html+js ca ne pue pas, c’est toi qui pue en disant ça. J’irais même jusqu’à dire qu’un site Web dois être consultable avec juste de l’HTML et rien d’autre. Si tu ne peux pas naviguer sur un site sans avoir de plugins (Flash reload?) que Google met gratuitement à disposition, alors tu ne sert pas le Web. Tu es tout le contraire.

Ajouter des plug-ins (même libre) pour pouvoir lire une page Web est mauvais. Que ce soit pour l’expérience utilisateur ou pour le développeur en lui-même.



&nbsp;



Fuinril a écrit :



Sachant que le user-agent est le seul et unique moyen “sûr” de faire la différence entre un navigateur desktop et mobile côté serveur ça va grandement améliorer le web ton idée….



   &nbsp;      






Blague à la con ? Troll ? Si il y a bien une société sans qui le web n'aurait pas le même visage c'est Google...      






&nbsp;      

Globalement +1 avec les avis éclairés insistant sur le fait que la situation n'est pas comparable avec celle d'IE6... Au delà de la qualité intrinsèque de webkit qui est un moteur libre (Steam l'intègre aussi par exemple) et open source (très comparable avec trident hein ?), google pousse pour que les fonctionnalités avancées gérées par Chrome uniquement soient intégrés dans les standards ; MS développait l'API ActiveX qui en plus d'être pleine de failles n'était compatible avec rien...






Aujourd'hui il y a peu de code qui fonctionne sur un navigateur et pas sur l'autre, même dans le code avancé (dont la compatibilité est de toutes façons géré par un Fk dans 99.99% des cas)...       

&nbsp;Ceux qui disent ça n'ont visiblement jamais connu la période IE6... et la façon dont les dev ont poussé pour s'en débarrasser. La situation ne se répète pas, Webkit (et non uniquement Chrome) est incontournable, vu son respect dans standards que dire à part "tant mieux" ?





Le user-agent n’est pas du tout le seul et unique moyen “sûr” de faire cette différence. D’ailleurs ce n’est même pas un moyen sûrs de faire ça !

Javascript possède des fonctions intrinsèques permettant cela et tu n’as pas besoin de rajouter des plug-ins.

D’ailleurs, tu trouveras sur tout les navigateurs la possibilité de mettre comme user-agent “Big Peggy” même si tu navigue avec Safari sous iOS.



D’ailleurs tu le dis toi-même, Google pousse SES fonctionnalités pour être des standard à SON effigie. Il ne se soucis pas du Web mais de la capacité du Web à pouvoir être lus par SON navigateur propriétaire. Pareil que ca qu’a faire Microsoft à son apogée. Donc la situation est identique.



Webkit est très loin de respecter les standards. Peut-être t’en rendras-tu compte dans 10 ans comme lorsque tu t’es rendus compte qu’optimiser un site pour IE6 était une bétise ;-)



Ce titre troll, j’y ai cru.



&nbsp;Le mode edge via la manip décrite&nbsp;est dispo depuis des mois dans&nbsp;les preview précédentes, rien de neuf.


Je ne sais pas ce que tu appelles “design standard” mais ce n’est pas l’Adaptive Web Design qui va t’empêcher de faire quoi que ce soit. Il s’agit juste de s’adapter au contexte d’utilisation, derrière tu fais ce que tu veux. Et le fait que tu parles de “version standard” montre clairement que tu es dépassé, il est bien loin le temps où l’on proposait une version mobile et une version pc. Avec tous les périphériques intermédiaires existants aujourd’hui, ça n’a plus de sens de couper la poire en deux entre fixe et mobile (surtout que les utilisateurs smartphones préfèrent généralement les versions fixes). L’AWD combine tests de support, tests d’environnement et analyse des usages pour offrir une expérience utilisateur bien plus riche.



Sinon, la dernière grosse étude de Yahoo faisait état de 0.2% de visiteurs avec JavaScript désactivé. Pourrir l’expérience utilisateur de 99.8% de ses visiteurs pour satisfaire ces 0.2%, ça n’a vraiment aucun sens. Le JavaScript désactivé c’est l’éternel argument des devs back-end pour justifier de continuer à faire le taf côté serveur et ne pas avoir l’air dépassé, mais il faut voir la vérité en face à un moment.


au pif : spdy&nbsp;?&nbsp;








atomusk a écrit :



au pif : spdy&nbsp;?&nbsp;



Merci. C’était la seule “chose” (de mon point de vue) que Google à fait et qui a été intégré par les autres (je pense à Firefox). Mais ce n’est pas un standard.



&nbsp;Le standard s’appuie sur les travaux de Google (et Microsoft aussi) et devais sortir officiellement en fin d’année dernière (pour la phase de test).



&nbsp;Donc je refais : qu’est-ce que Google à fait tout seul comme un grand?



NB : en fait, ma questin est purement réthorique car&nbsp;je sais pertinement que Google n’as rien fait tout seul pour tout le Web mais lire que “Google a fait plus de choses que les autres pour le Web” m’exaspère au plus haut point. Le Web se construit sur des bases des actions de tout ses acteurs et non pas seulement sur un. Sinon on retourne à l’époque d’IE/Netscape et on a vue ce que ca a donné.



NB2 : De plus, le Web ce n’est pas que les technologie “invisible”, il y a aussi tout l’interaction des clients vis-a-vis de ces technologies et là dessus Google ne fait rien, à l’instar de Microsoft et de ses tech Days présent partout dans le monde.&nbsp;









SylvainPV a écrit :



Je ne sais pas ce que tu appelles “design standard” mais ce n’est pas l’Adaptive Web Design qui va t’empêcher de faire quoi que ce soit. Il s’agit juste de s’adapter au contexte d’utilisation, derrière tu fais ce que tu veux. Et le fait que tu parles de “version standard” montre clairement que tu es dépassé, il est bien loin le temps où l’on proposait une version mobile et une version pc. Avec tous les périphériques intermédiaires existants aujourd’hui, ça n’a plus de sens de couper la poire en deux entre fixe et mobile (surtout que les utilisateurs smartphones préfèrent généralement les versions fixes). L’AWD combine tests de support, tests d’environnement et analyse des usages pour offrir une expérience utilisateur bien plus riche.




Sinon, la dernière grosse étude de Yahoo faisait état de 0.2% de visiteurs avec JavaScript désactivé. Pourrir l'expérience utilisateur de 99.8% de ses visiteurs pour satisfaire ces 0.2%, ça n'a vraiment aucun sens. Le JavaScript désactivé c'est l'éternel argument des devs back-end pour justifier de continuer à faire le taf côté serveur et ne pas avoir l'air dépassé, mais il faut voir la vérité en face à un moment.







Tu fais beaucoup moins de chose en responsive qu’en desktop de taille fixe (une barre latérale par exemple). Alors oui tu peux calculer son affichage, sa taille, etc mais au final tu te retrouves avec un truc horrible.



Si l’adaptative est basé sur un modèle de rendu vertical ce n’est pas pour rien…. et en desktop tu n’as pas cette contrainte.



En gros tu as un choix à faire quand tu fais un site : soit tu choisis un design qui s’adaptera en fonction du device avec les contraintes inhérentes à ce mode de rendu, soit tu fais plusieurs versions.



Chacune a ses avantages et ses inconvénients. Le responsive c’est la mode mais ce n’est pas “mieux”, c’est juste différent.



Et je ne vois pas en quoi tu pourris l’expérience de tes utilisateurs avec 2 versions d’un site pour les 0.00001% des visiteurs avec un user-agent modifié….&nbsp; Et faudra m’expliquer comment tu fais pour les navigateurs exotiques qui ne supportent pas tes fonctions js (y a pas que 4 navigateurs sur le marché, mais une foultitude)

&nbsp;





5h31k a écrit :



&nbsp; Le user-agent n’est pas du tout le seul et unique moyen “sûr” de faire cette différence. D’ailleurs ce n’est même pas un moyen sûrs de faire ça !



Javascript possède des fonctions intrinsèques permettant cela et tu n'as pas besoin de rajouter des plug-ins.      

D'ailleurs, tu trouveras sur tout les navigateurs la possibilité de mettre comme user-agent "Big Peggy" même si tu navigue avec Safari sous iOS.






D'ailleurs tu le dis toi-même, Google pousse SES fonctionnalités pour être des standard à SON effigie. Il ne se soucis pas du Web mais de la capacité du Web à pouvoir être lus par SON navigateur propriétaire. Pareil que ca qu'a faire Microsoft à son apogée. Donc la situation est identique.      






Webkit est très loin de respecter les standards. Peut-être t'en rendras-tu compte dans 10 ans comme lorsque tu t'es rendus compte qu'optimiser un site pour IE6 était une bétise ;-)








Le user-agent c'est la seule façon d'identifier le navigateur côté serveur sans passer par des magouilles dégueulasses à base de js et d'ajax et/ou de cookie (sachant que toutes ces infos sont au moins aussi facilement modifiables que le user-agent).     





Ce que google a fait pour le web ne se mesure pas à l’aune de son navigateur… des choses comme webGl ouvrent des perspectives même si ce n’est pas un standard. La techno est intéressantes et aura des débouchés qui iront bien au-delà de Chrome.

Et on pourrait parler de ce que Google fait en tant de moteur de recherche, avec entre autres, le fait de pousser le full https, punir les sites utilisants de mauvaises pratiques de référencement, etc…



Tiens, même la chute d’IE 6 est partiellement due à Google…

&nbsp;

Et tout ça sans parler des nombreuses fonctionnalités qu’ils proposent gratuitement (maps, gmail, news, etc…) et qui a fortement contribué à passer le web du statut repère de geeks à plate forme d’échange mondiale.

&nbsp;

Au cours des années aucune société n’a autant marqué le web que Google…







Encore une fois comparer la situation entre Chrome et IE6 n’a pas de sens…Déjà le respect des standards dans webkit est, pas parfait, mais très très bon (le meilleur des moteur de rendu actuel), et si tu n’en est pas content rien ne t’empêche de le modifier…. j’ai pas encore entendu dire que le code de trident était libre…









Fuinril a écrit :



&nbsp;Le user-agent c’est la seule façon d’identifier le navigateur côté serveur sans passer par des magouilles dégueulasses à base de js et d’ajax et/ou de cookie (sachant que toutes ces infos sont au moins aussi facilement modifiables que le user-agent). &nbsp;



Tu te trompe. Il est impossible d’identifier un navigateur côté serveur (à ma connaissance) car je peux te faire un script BASH qui enverra des trame disant qu’il est Chrome v76 si je le souhaite.

En quoi utiliser JS est dégueulasse? (je préfère la version ECMAScript perso mais chacun ses goûts).

&nbsp;

&nbsp;La seule façon de proposer une expérience utilisateur unique pour chacune de ses venues et d’utiliser le JavaScript et plus précisément de tester TOUTES tes fonctions pour vérifier si elle sont compatible ou non avec l’utilisateur (il existe une fonction basique en JS pour tester les fonctions JS). Si la fonction n’est pas compatible avec l’utilisateur alors tu dois soit trouver un moyen pour faire cette fonction en utilisant les fonctions disponible par l’utilisateur soit tu ne fais pas passer l’utilisateur par ta fonction indisponible chez lui.

Dans tout les cas, un site HTML qui me refuse l’entrée en vérifiant car je n’ai pas “Chrome” dans mon user-Agent c’est direct poubelle et note rouge sur WOT ;-)

De plus, comme dit dans mon précédent message, un site qui n’est pas lisible sur toute les plate-formes “PC” (entendre par là que j’exclus les mobiles et autres) n’est pas un bon site. un bon site doit être lisible sans CSS et sans JS (et sans aucun plug-ins tiers). Un simple Copier/Coller de son HTML devrais suffir à le rendre lisible. Comment faire? test le site Web dans un lecteur de site et tu verras si le site est “bien” ou s’il est codé avec une pelle ;-)









Fuinril a écrit :



Tu fais beaucoup moins de chose en responsive qu’en desktop de taille fixe (une barre latérale par exemple). Alors oui tu peux calculer son affichage, sa taille, etc mais au final tu te retrouves avec un truc horrible.




Si l'adaptative est basé sur un modèle de rendu vertical ce n'est pas pour rien.... et en desktop tu n'as pas cette contrainte.      






En gros tu as un choix à faire quand tu fais un site : soit tu choisis un design qui s'adaptera en fonction du device avec les contraintes inhérentes à ce mode de rendu, soit tu fais plusieurs versions.      






Chacune a ses avantages et ses inconvénients. Le responsive c'est la mode mais ce n'est pas "mieux", c'est juste différent.      






Et je ne vois pas en quoi tu pourris l'expérience de tes utilisateurs avec 2 versions d'un site pour les 0.00001% des visiteurs avec un user-agent modifié....&nbsp;  Et faudra m'expliquer comment tu fais pour les navigateurs exotiques qui ne supportent pas tes fonctions js (y a pas que 4 navigateurs sur le marché, mais une foultitude)







Déjà ne confonds pas responsive et adaptive, le RWD n’est qu’une des possibilités techniques pour mettre en oeuvre de l’AWD. Tu peux très bien détecter en JavaScript un usage tactile et charger une feuille de style alternative par exemple. Il n’y a pas de “modèle de rendu vertical” pour le Responsive, quoi que cela veuille dire, tu peux faire une page à scrolling horizontal si ça te chante. Ce n’est pas parce qu’on met en place des media queries qu’une mise en page est imposée. Et ce n’est pas parce que tu as vu deux-trois sites&nbsp;avec un design similaire&nbsp;qui se disent&nbsp;“responsive” qu’on ne peut pas faire autre chose. On a vite fait de faire des amalgames.



&nbsp;Si tu te bases uniquement sur les User Agent, tu n’as aucun moyen de savoir si l’utilisateur a une dalle tactile: par exemple s’il utilise Chrome sur une tablette Windows, ce n’est pas l’User Agent qui va t’aider. Côté client tu peux connaître les dimensions du viewport, l’orientation du device, les types d’interface de contrôle, la bande passante etc…



Deux versions du site, une mobile et une fixe, c’est une stratégie complètement dépassée. Les périphériques intermédiaires (phablettes/tablettes) ne sont pas adressées, et il y a toutes sortes de tailles de smartphones allant des résolutions 320x480 à 2560x1440 (et bientôt les smartphones 4K !). Et quid des moniteurs tactiles fixes ? L’énorme avantage de l’AWD est de ne plus avoir de “versions” mais un ensemble de tests et de chargements conditionnels. Les tests de support de fonctionnalités JS font également partie de ces tests, il y a toujours un fallback quoiqu’il arrive.



Si vous voulez plus de détails :&nbsphttp://books.google.fr/books?id=XL7KAwAAQBAJ&printsec=frontcover



Je ne sais pas si tu t’adressait à moi mais j’intervenais uniquement pour dire que de se baser sur le user-agent c’est pas bien et que JS peux aider à modeler un design adéquat au support <img data-src=" />

Les test de fonctionnalité sont souvent passé à la trappe car “de toute façon on supporte X% de la population donc on s’en fout des autres” d’après ce topic ^^


ah non j’ai misclick le nom pour la réponse, je suis entièrement d’accord avec ce que tu as dit








5h31k a écrit :



Tu te trompe. Il est impossible d’identifier un navigateur côté serveur (à ma connaissance) car je peux te faire un script BASH qui enverra des trame disant qu’il est Chrome v76 si je le souhaite.

En quoi utiliser JS est dégueulasse? (je préfère la version ECMAScript perso mais chacun ses goûts).

&nbsp;

&nbsp;La seule façon de proposer une expérience utilisateur unique pour chacune de ses venues et d’utiliser le JavaScript et plus précisément de tester TOUTES tes fonctions pour vérifier si elle sont compatible ou non avec l’utilisateur (il existe une fonction basique en JS pour tester les fonctions JS). Si la fonction n’est pas compatible avec l’utilisateur alors tu dois soit trouver un moyen pour faire cette fonction en utilisant les fonctions disponible par l’utilisateur soit tu ne fais pas passer l’utilisateur par ta fonction indisponible chez lui.

Dans tout les cas, un site HTML qui me refuse l’entrée en vérifiant car je n’ai pas “Chrome” dans mon user-Agent c’est direct poubelle et note rouge sur WOT ;-)

De plus, comme dit dans mon précédent message, un site qui n’est pas lisible sur toute les plate-formes “PC” (entendre par là que j’exclus les mobiles et autres) n’est pas un bon site. un bon site doit être lisible sans CSS et sans JS (et sans aucun plug-ins tiers). Un simple Copier/Coller de son HTML devrais suffir à le rendre lisible. Comment faire? test le site Web dans un lecteur de site et tu verras si le site est “bien” ou s’il est codé avec une pelle ;-)





Encore une fois je ne préconise pas la mise en place de sécurités basées sur le user-agent, d’ailleurs j’avais mis des guillemets autour de sûr, ce n’est pas pour rien.



C’est sûr uniquement dans la mesure où tous les navigateurs l’envoient, et donc on peut se baser dessus pour envoyer un rendu adapté. Si la majorité des utilisateurs, ou même une part significative, bidouillaient les user-agent ça ne serait plus vrai, en l’état ça l’est.



Et que je décide de faire gérer mon rendu visuel par le serveur ou le client ça me regarde, hors côté serveur, la seule information que tu as sur le navigateur du client c’est son user-agent (et il faut avouer que c’est souvent plus pratique et plus simple de le faire côté serveur, notamment pour désactiver des fonctionnalités qui n’ont pas leur place sur une version mobile - et pareil si tu me dis que c’est “pas bien”, je te répondrai que ça dépend des contextes et des usages).

Après l’utilisateur le change ? Et alors ? Il aura la version desktop avec peut être des fonctionnalités ne fonctionnant pas… ça le regarde.



Tu peux envoyer des appels http avec le user-agent modifié ? moi je peux faire un module FF qui dira à ton JS qu’il est lynx92 avec un écran de 2 milliards de pixel de large…. ce n’est pas plus sûr que le user-agent ou n’importe quelle donnée provenant du client.

&nbsp;

Concernant ton laïus sur le js c’est bien beau mais je te mets au défi de faire fonctionner l’intégralité d’un site moderne sur certains navigateurs comme lynx ou midori…

&nbsp;





SylvainPV a écrit :



Déjà ne confonds pas responsive et adaptive, le RWD n’est qu’une des

possibilités techniques pour mettre en oeuvre de l’AWD. Tu peux très

bien détecter en JavaScript un usage tactile et charger une feuille de

style alternative par exemple. Il n’y a pas de “modèle de rendu

vertical” pour le Responsive, quoi que cela veuille dire, tu peux faire

une page à scrolling horizontal si ça te chante. Ce n’est pas parce

qu’on met en place des media queries qu’une mise en page est imposée. Et

ce n’est pas parce que tu as vu deux-trois sites&nbsp;avec un design

similaire&nbsp;qui se disent&nbsp;“responsive” qu’on ne peut pas faire autre

chose. On a vite fait de faire des amalgames.



&nbsp;Si tu te bases

uniquement sur les User Agent, tu n’as aucun moyen de savoir si

l’utilisateur a une dalle tactile: par exemple s’il utilise Chrome sur

une tablette Windows, ce n’est pas l’User Agent qui va t’aider. Côté

client tu peux connaître les dimensions du viewport, l’orientation du

device, les types d’interface de contrôle, la bande passante etc…





Deux versions du site, une mobile et une fixe, c’est une stratégie

complètement dépassée. Les périphériques intermédiaires

(phablettes/tablettes) ne sont pas adressées, et il y a toutes sortes de

tailles de smartphones allant des résolutions 320x480 à 2560x1440 (et

bientôt les smartphones 4K !). Et quid des moniteurs tactiles fixes ?

L’énorme avantage de l’AWD est de ne plus avoir de “versions” mais un

ensemble de tests et de chargements conditionnels. Les tests de support

de fonctionnalités JS font également partie de ces tests, il y a

toujours un fallback quoiqu’il arrive.



Si vous voulez plus de détails :&nbsp;http://books.google.fr/books?id=XL7KAwAAQBAJ&printsec=frontcover





Blabla… si tu penses qu’on peut faire en adaptive tous les designs du monde que l’on peut avoir en rendu desktop alors il serait temps d’arrêter les cours et de passer à la pratique… Ou d’arrêter les grosses sociétés standardisées et de sortir dans le monde réel où la majorité des sites sont faits par des TPE/PME n’ayant ni les moyens ni le temps d’étudier 50 designs pour en trouver un qui réponde aux attentes à la fois du desktop et du mobile.



&nbsp;Pour info le user-agent envoie généralement aussi l’os sur lequel il tourne.



Et le double design ce n’est pas dépassé mais actuel. On se dirige doucement vers une transition (qui se terminera ou pas notamment en fonction de la réussite de l’implémentation de la fonctionnalité zoom - c’est pas gagné), mais actuellement l’immense majorité des sites ne sont pas fait pour du mobile. C’est comme ça et ça coute bien trop cher (pas que en dev, en référencement aussi) de faire une refonte intégrale du site pour le passer en adaptive quand une simple refonte pour une version spécifique suffit (elle-même adaptive, faut pas déconner, donc les phablettes sont gérées).

L’adaptive c’est bien mais ça ne fait pas le café. Et quant au fait que ce soit l’avenir peut être mais c’est loin d’être certain.



Ah et dernière chose : les sites adaptives horizontaux : il y en a pas ou presque parce que ce n’est juste pas pratique du tout. Mais quand je parle de design vertical c’est surtout pour dire que par nature tu dois abandonner les cadres de tailles fixes avec des pages séparées en 3 parties verticales par exemple.

&nbsp;









5h31k a écrit :



Je voie que tu as du mal a fournir des exemples donc je vais recommencer :

Donne moi des exemples concrets de la mise en place pour le Web (en général et pas que pour les site compatible Google) de la participation EXCLUSIVE et ABSOLUE de Google pour une amélioration LIBRE sans brevet.





Je vois que tu ne sais pas lire:

&nbsp;v8, GWT, dart, polymer, Angular, Pnacl



Mes résultats pour FIFEFOX 35.0.1 sous OS X 10.6.8 :



https://octane-benchmark.googlecode.com/svn/latest/index.html

Octane Score: 4834



Richards 13489 Core language features

Deltablue 15743 Core language features

Crypto 10831 Bit & Math operations

Raytrace 19738Core language features

EarleyBoyer 7996 Memory & GC

Regexp 68.7 Strings & arrays

Splay 815 Memory & GC

SplayLatency 1829 GC latency

NavierStokes 12674 Strings & arrays

pdf.js 2651 Strings & arrays

Mandreel 4238 Virtual machine

MandreelLatency 1519 Compiler latency

GB Emulator 25697 Virtual machine

CodeLoad 5034 Loading & Parsing

Box2DWeb 7950 Bit & Math operations

zlib 10810 asm.js

Typescript 4808 Virtual machine & GC

The final score is the geometric mean of the single scores.

We suggest to restart the browser before repeating the test.



https://www.webkit.org/perf/sunspider/sunspider.html

============================================

RESULTS (means and 95% confidence intervals)

——————————————–

Total: 327.9ms +/- 7.6%

——————————————–



3d: 54.9ms +/- 2.2%



 cube:                21.4ms +/- 3.2%   

morph: 10.0ms +/- 0.0%

raytrace: 23.5ms +/- 3.0%





access: 28.4ms +/- 2.4%



 binary-trees:         4.2ms +/- 7.2%   

fannkuch: 11.4ms +/- 3.2%

nbody: 6.8ms +/- 4.4%

nsieve: 6.0ms +/- 0.0%





bitops: 16.2ms +/- 1.9%



 3bit-bits-in-byte:    1.6ms +/- 23.1%   

bits-in-byte: 5.3ms +/- 6.5%

bitwise-and: 3.0ms +/- 0.0%

nsieve-bits: 6.3ms +/- 5.5%





controlflow: 3.8ms +/- 7.9%



 recursive:            3.8ms +/- 7.9%   





crypto: 26.3ms +/- 2.2%



 aes:                 12.9ms +/- 3.1%   

md5: 7.2ms +/- 4.2%

sha1: 6.2ms +/- 4.9%





date: 38.5ms +/- 2.4%



 format-tofte:        17.5ms +/- 2.2%   

format-xparb: 21.0ms +/- 3.2%





math: 26.5ms +/- 8.6%



 cordic:               6.4ms +/- 38.0%   

partial-sums: 16.3ms +/- 2.1%

spectral-norm: 3.8ms +/- 7.9%





regexp: 14.5ms +/- 2.6%



 dna:                 14.5ms +/- 2.6%   





string: 118.8ms +/- 19.7%



 base64:              11.4ms +/- 5.3%   

fasta: 13.9ms +/- 6.2%

tagcloud: 32.6ms +/- 2.8%

unpack-code: 38.5ms +/- 3.3%

validate-input: 22.4ms +/- 96.0%





http://browsermark.rightware.com

Your Desktop with this browser score was: 1721

Your Desktop with this browser is faster than 16% of all Desktops tested so far.

Below you can see some other top Desktop results.

Best Desktops



15 July 2014 19:11

Windows 7

Google Chrome 38.0

9230 points



24 November 2014 23:12

Mac OS X Yosemite

Safari 8.0

9071 points



22 November 2014 09:41

Windows

Google Chrome 40.0

8876 points



https://html5test.com/

Your browser scores 445 out of 555 points


Résultat en double et comportement très curieux de la page après avoir cliqué sur “envoyer”


Et dans le cas d’une support “annoncé” par le navigateur, mais incorrect en réel (comme dit plus haut HTML5testn’est pas un “benchmark”, mais juste un score donné parce que le navigateur “déclare” le support de fonctionnalités) ?&nbsp;



Tu fais quoi ? Tu donnes une expérience “complète”, mais dégeulasse parce que le navigateur n’est pas “encore pret” ?&nbsp;<img data-src=" />



L’interet de l’user agent c’est aussi de dire ; on a testé le support de IE11 / Chrome 20 / Safari 4, et on “a validé” la fonctionnalité avec ces versions de navigateur.



Tu veux changer ton IE en “chrome v155.01”, c’est ton problème, au final, pour 99% des utilisateurs ça permet d’éviter le retours utilisateurs : je suis toujours sur la version xxx de Chrome et mon rendu est dégueulasse parce qu’il y a un bug dans le rendu …&nbsp;








Fuinril a écrit :



Tu peux envoyer des appels http avec le user-agent modifié ? moi je peux faire un module FF qui dira à ton JS qu’il est lynx92 avec un écran de 2 milliards de pixel de large…. ce n’est pas plus sûr que le user-agent ou n’importe quelle donnée provenant du client.

&nbsp;

Concernant ton laïus sur le js c’est bien beau mais je te mets au défi de faire fonctionner l’intégralité d’un site moderne sur certains navigateurs comme lynx ou midori…

&nbsp;&nbsp;



L’affichage dois être rendu par le CSS et non par le JavaScript donc la question d’un lynx92 de 2 milliars de pixel de large ne se discute pas. Je parlais plus simplement des requêtes “basique”. Par exemple il est inutile d’essayer d’afficher des pubs toute les 30 secondes dans des encadrés chargés en AJAX si on navigue avec Lynx ;-) Dans ce cas, le test pour vérifier que le navigateur gère AJAX permet déjà d’enlever de la charge inutile pour ton serveur et pour le client.

&nbsp;Un autre exemple tout simple? tu possède une version “spéciale” Linux d’un grand navigateur en version “libre”. Cependant si tu cherches dans l’user-agent “Navigateur X” et que ton navigateur envoie “Butineur X” alors, même si le moteur de rendu est le même ainsi que le moteur JS, le site sera marqué “Incompatible” alors qu’il y est tout à fait. Certains sites vont jusqu’à interdire l’accès aux sites aux navigateurs “non moderne”.

Le test des fonctionnalités supportés par le navigateur permet dans ces deux cas de ne pas prendre en otage l’otage avec des fonctionnalités possibles.





vloz a écrit :



Je vois que tu ne sais pas lire:

&nbsp;v8, GWT, dart, polymer, Angular, Pnacl



En quoi c’est des normes? ca reste au plus des logiciels sympa, rien d’autres.





atomusk a écrit :



Et dans le cas d’une support “annoncé” par le navigateur, mais incorrect en réel (comme dit plus haut HTML5testn’est pas un “benchmark”, mais juste un score donné parce que le navigateur “déclare” le support de fonctionnalités) ?&nbsp;



Tu fais quoi ? Tu donnes une expérience “complète”, mais dégeulasse parce que le navigateur n’est pas “encore pret” ?&nbsp;<img data-src=" />



L’interet de l’user agent c’est aussi de dire ; on a testé le support de IE11 / Chrome 20 / Safari 4, et on “a validé” la fonctionnalité avec ces versions de navigateur.



Tu veux changer ton IE en “chrome v155.01”, c’est ton problème, au final, pour 99% des utilisateurs ça permet d’éviter le retours utilisateurs : je suis toujours sur la version xxx de Chrome et mon rendu est dégueulasse parce qu’il y a un bug dans le rendu …&nbsp;



Comme dit précédement, le JS ne dois qu’enrichir l’expérience utilisateur et non pas la dégradé. Bien sur, une version 100% sera plus enrichie qu’une version 50% mais un site Web se doit d’être lu même avec une version 0% “maquillage JS”.

Un exemple simple de fonction JS qui peux être sympa pour l’utilisateur mais tout aussi simple pour une personne n’ayant pas JS : une liste d’article sur une page d’accueil. Avec JS/Ajax la liste des articles peux s’actualiser au fûr et à mesure sans recharger toute la page. Sans JS/Ajax : proposer un lien vers une page “2” des articles et ainsi de suite.

Le site sera tout aussi fonctionnel mais avec du maquillage en moins.



&nbsp;



Et, encore une fois, dans l’hypothése où, dans ton exemple, le navigateur déclare le support de JS/Ajax, mais son fonctionnement est incorrect par rapport au standard ?



On vire le bouton “2” alors que l’actualisation ne se fait pas ?



Dans le cas de support incorrect de fonctionnalité HTML5, on laisse le site avec des bugs d’affichage ?








5h31k a écrit :



En quoi c’est des normes? ca reste au plus des logiciels sympa, rien d’autres.&nbsp;






Donc grossièrement, quand tu disais "donnez-moi un exemple de contribution de google au web",     



en fait,&nbsp;tu voulais dire:

“Donner un exemple de standard, émit exclusivement par une seul entreprise (google), qui soit normalisé, et disponible partout”



En fait t’es juste un putain de troll de merde… et meme pas drole en plus…



J’ai lancé netflix hier avec, ça n’a pas été un grand succès…


HS….

Je voulais juste t’interpeller sur ce thread ou pour moi il y a pleins de commentaires susceptibles de tomber sous le coup de la loi ,&nbsp;pour ne citer que celui là par exemple.

Malheureusement il n’y a de modo sur le thread ni pour supprimer certains commentaires ni pour avertir les &nbsp;gens de modérer leur propos +/- haineux ou racistes, d’autant plus que ça engage la responsabilité du site.&nbsp;


Non, il voulait dire : donnez moi 2 exemples, vu que spyd ne compte pas&nbsp;<img data-src=" />


Utilise la fonction “signaler le commentaire”, j’ai tendance à ne pas modérer ces news, parce que ça represente trop de travail et rapidement je fermerai la news, ce qu’en général je me refuse à faire.



En remontant le commentaire, la team NXI sera au courant et prendra les mesures qu’il faut.








atomusk a écrit :



Non, il voulait dire : donnez moi 2 exemples, vu que spyd ne compte pas&nbsp;<img data-src=" />





Si si, SPYD compte mais n’est pas standard. Le standard se base dessus. Mais bon, faut croire que pour vous Google il a tout inenté dans le Web (un peu comme Apple et les téléphones non?)

&nbsp;

J’assume totalement le rôle du troll en tant normal mais je voulais juste vous interpeller (enfin vloz car c’ets toi qui l’a dit) que Google n’est PAS du tout le SEUL et UNIQUE contributeur au Web. Plein d’autre acteurs jouent de rôles très important pour le Web. Google y joue un rôle, comme Mozilla, Apple, Amazon ou encore Microsoft. Tous sont des gros acteurs qui font ce que le Web est aujourd’hui.

&nbsp;

Les contributions que Google à fait puis partager (et dont l’utilité ont été démontré) sont le SPYD (comme cité par atomusk) mais aussi sa contribution pour les “Big Data”. Mais aussi, et facilement identifiable, le développement d’Android qui a permis d’étendre, avec iOS, le Web sur mobile. Enfin, j’ai surtout l’impression que pour vous, le Web c’était des tehcnologie côté serveur, d’où ma remarque sur un message précédent.



Quoiqu’il en soit, bisou tout plein, soyez gentil car “Don’t be Evil” ! <img data-src=" />









Mme_Michu a écrit :



HS….

Je voulais juste t’interpeller sur ce thread ou pour moi il y a pleins de commentaires susceptibles de tomber sous le coup de la loi , pour ne citer que celui là par exemple.

Malheureusement il n’y a de modo sur le thread ni pour supprimer certains commentaires ni pour avertir les  gens de modérer leur propos +/- haineux ou racistes, d’autant plus que ça engage la responsabilité du site.







Je ne vois pas du tout ce que tu trouves de haineux et raciste dans ce commentaire, mais alors vraiment pas.

Par contre, ce qui y est dit est d’une connerie totalement abyssale et totalement fausse (le distinguo religion/peuple). Le gars a compris l’inverse des choses et confond juifs, israélites et hébreux, notamment. Mais bon ça c’est une autre histoire ou Histoire. Le seul hic c’est qu’il assène sa connerie comme une sentence professorale voire magistrale.