Google annonce Android 9 Pie, déjà disponible pour les Pixel

Google annonce Android 9 Pie, déjà disponible pour les Pixel

Un nom pas si tarte

Avatar de l'auteur
Vincent Hermann

Publié dans

Société numérique

07/08/2018 6 minutes
104

Google annonce Android 9 Pie, déjà disponible pour les Pixel

Android 9 s’appellera finalement Pie. Google lance dans la foulée un appel aux développeurs, pour leur rappeler les nouveautés de son système. Les utilisateurs, eux, peuvent même déjà installer Pie s’ils possèdent un Pixel ou un Essential Phone. Les autres devront attendre.

Sans crier gare, Google a fourni hier soir deux informations importantes. D’une part, le nom du système. L’entreprise bat son record avec trois petites lettres, Pie (tarte en anglais). On est loin du temps d’Ice Cream Sandwich.

D’autre part, la diffusion en OTA (Over The Air) du système pour les appareils compatibles : les Pixel et l'Essential Phone. Bien que le téléchargement ait commencé, tout le monde ne sera pas forcément servi en même temps. L’attente ne sera toutefois pas longue, le déploiement se faisant en général sur quelques jours.

Tous les autres appareils, notamment ceux ayant participé au programme Beta, devront patienter un peu. Google promet une diffusion « avant la fin de l’automne » pour les Nokia 7 Plus, Oppo R15 Pro, Sony Xperia XZ2, Vivo X21, le Vivo X21UD et Xiaomi Mi Mix 2S. Pour les autres, tout dépendra du bon vouloir de chaque constructeur.

De petites améliorations un peu partout

Android Pie introduit la nouvelle vue multitâche présentée il y a quelques mois. Les fiches des applications ne sont plus présentées en empilement vertical, mais côte à côte. Selon Google, un simple glissement vers le haut depuis n’importe où déclenche cette vue. C’était effectivement le cas dans la bêta 2 du système sur un Nokia 7 Plus, mais la bêta 3 a curieusement remis en place le bouton dédié au multitâche.

Outre une prise en charge officielle des écrans possédant une encoche (ou « notch ») et des capteurs d’empreintes digitales (les applications n’ont plus besoin de développer leur propre interface), les notifications évoluent aussi. Les API MessagingStyle permettent de les rendre plus riches en informations. Les réponses directes seront plus complètes,  avec notamment l’insertion de pièces jointes. Les développeurs pourront d’ailleurs utiliser plus tard ML Kit pour générer des Smart Replies.

Android 9.0 PieAndroid 9.0 PieAndroid 9.0 PieAndroid 9.0 PieAndroid 9.0 Pie

Android Pie consacre le règne du machine learning

Les utilisateurs sont prévenus : Android 9 propose de l’IA à tous les étages. De nombreuses fonctionnalités sont ainsi basées sur le machine learning. Adaptive Battery donnera par exemple la priorité aux applications les plus souvent utilisées. Adaptive Brightness se souviendra des réglages de luminosité définis par l’utilisateur dans chaque contexte, pour les changer dynamiquement par la suite.

Plus consistantes, les App Actions ambitionnent de vous fournir la bonne action au bon moment. Le système apprend des habitudes et tâche de proposer une information, un service ou une application selon le contexte.

Si vous partez par exemple tous les matins au travail à la même heure, Android vous proposera l’itinéraire le plus adapté dans Google Maps en fonction du trafic. Idem si vous avez l’habitude d’appeler une personne particulière dans une tranche horaire ou d’écouter de la musique en sortant du travail le soir. Ces actions apparaîtront sous forme de notifications.

Vous reprendrez bien une part ?

Même si la fonction ne sera pas prête tout de suite, Android Pie proposera des Slices, des morceaux d’informations provenant d’applications. Disponibles plus tard cet automne, les Slices ne fonctionneront dans un premier temps que dans l’application Google. Selon les termes recherchés, les applications concernées pourront publier des encadrés proposant de réaliser une action.

À la manière des Apps Actions, c’est aux applications tierces de déclarer les fonctions pouvant être appelées de cette manière. Le contenu sera affiché dans un cadre et dépendra du contexte. Google ajoute que les Slices seront par la suite utilisées dans d’autres services, notamment Assistant.

Google fait le forcing sur le bien-être

Comme nous l’avions indiqué lors de la présentation initiale du système, Android 9 veut vous aider à maîtriser le temps passé devant l’écran. Des mécanismes que l’on retrouve élégamment dans iOS 12, en préparation chez Apple, et dans certaines applications, comme Facebook et Instagram.

Rassemblées sous l’appellation « bien-être numérique », ces fonctions interviennent un peu partout. On trouve par exemple un panneau récapitulatif affichant la manière dont l’appareil est utilisé, le temps d’écran, celui passé sur chaque application, etc.

Ceux qui veulent aller plus loin pourront même définir un temps spécifique à chaque application. Si vous indiquez par exemple « 1 heure » pour Facebook, le système vous préviendra de la fin de votre quota. En outre, l’icône de l’application se grisera sur l’écran d’accueil, même si son lancement ne sera pas bloqué pour autant.

Le mode Ne pas déranger évolue lui aussi pour se montrer plus strict. Contrairement aux versions précédentes, il bloquera par exemple les notifications sur l’écran, même si vous êtes en train d’utiliser l’appareil. En clair, l’utilisateur doit être tranquille.

L’utilisateur peut forcer le trait le soir s’il sait qu’il a un peu de mal à décrocher de son écran. Une fonction permet ainsi de basculer automatiquement en éclairage nocturne, Ne pas déranger et de griser graduellement l'écran à partir d’une certaine heure. Autant d’indicateurs censés aider à faire comprendre qu’il est l’heure d’aller se coucher. Certains diront : « On en est là ».

Les développeurs tiers mis à contribution

Comme toujours avec une nouvelle version d’un système, les développeurs d’applications devront se mettre à la page, du moins s’ils souhaitent profiter des fonctions introduites. Certaines, comme Adaptive Battery sont automatiques, tandis que d’autres réclament des modifications.

C’est particulièrement vrai avec les App Actions et Slices, les applications devant exposer aux systèmes les fonctionnalités qui pourront être appelées par le système selon le contexte.

Les développeurs sont également invités à se pencher sur l’API Neural Networks 1.1, qui apporte neuf nouvelles opérations (Pad, BatchToSpaceND, SpaceToBatchND, Transpose, Strided Slice, Mean, Div, Sub et Squeeze). Elles sont accessibles, évidemment, à travers le framework TensorFlow Lite, qui autorise l’exécution locale des modèles.

Notez que nous nous pencherons plus en détail sur Android 9 Pie quand il sera plus largement disponible, notamment sur les appareils tiers pris en charge pendant la phase bêta.

104

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

De petites améliorations un peu partout

Android Pie consacre le règne du machine learning

Vous reprendrez bien une part ?

Google fait le forcing sur le bien-être

Les développeurs tiers mis à contribution

Commentaires (104)


On en est là! <img data-src=" />

Les smartphones devaient être des outils, certains en sont devenus esclaves. <img data-src=" />


Le coup du “bien-être” est pour moi la ligne à ne pas franchir, l’inacceptable qui m’impose lorsque je changerai de tel de m’assurer préalablement que le tel. est facilement rootable pour y installer une distrib. totalement libre.



Le poutrage de données persos est probablement encore à ce stade comparable à la pratique actuelle, mais le prétexte au “bien-être” par Google (ou appel, FB etc…) c’est le signal du souhait de l’ingérence ouvrant le chemin du défonçage de données persos pour notre bien.



Pour moi c’est un déclic, je dois faire sortir ces entreprises de ma vie et de celles de mes proches.


et le prochain ? Quetsche ? Queijadinha ? <img data-src=" />


C’est beaucoup trop tôt pour intégrer du ML pour ce types de réglages (batterie, luminosité). On est encore loin de pouvoir faire une IA qui généralise et qui s’adapte vraiment aux situations, donc on va avoir un système très frustrant à chaque fois qu’une nouvelle situation émerge…


J’espère qu’il me dira quand aller faire caca, j’ai encore du racheter une chaise il y a peu… <img data-src=" />








jb18v a écrit :



et le prochain ? Quetsche ? Queijadinha ? <img data-src=" />



Quindim <img data-src=" />



Un jour, je vais passer sous Lineage OS, mais la liste des téléphones compatibles est désespérément courte…


Les cas à traiter sont très simples (gestion intelligence de la luminosité en fonction de l’heure et du jour). Il y a eu une présentation de ce cas là en vidéo, ça fonctionne vraiment bien.

Ya pas besoin d’une IA qui “généralise”, mais les IA s’adaptent aux situations par définition :p


J’ai un Samsung galaxy S5 d’occasion sur lequel tourne Lineage OS sans soucis. C’est peut être pas le dernier bidule à la mode mais il fonctionne très correctement et la batterie peut être changée.


Idem, S5 sous lineageOS 15.1 (Oreo 8.1), très bien suivi.








SebGF a écrit :



J’espère qu’il me dira quand aller faire caca, j’ai encore du racheter une chaise il y a peu… <img data-src=" />





E-colon <img data-src=" />



PS: Dommage je trouve pas la vidéo en entier :(









crocodudule a écrit :



pour moi c’est un déclic, je dois faire sortir ces entreprises de ma vie et de celles de mes proches.





Si d’autres ont besoin d’un déclic, il y a eu une conférence à Pas sage en Seine sur google :



https://video.passageenseine.fr/videos/watch/eddda14c-69a2-470c-8a3a-068ab3e59f4…



Sympa les fonctions “bien être”, mais ils pourraient aussi avancer sur des choses attendues comme le contrôle parental.

&nbsp;Actuellement, si on a créé le groupe familial AVANT l’arrivée de Family Link, on NE PEUT PAS utiliser le contrôle parental avec les membres du groupe.

&nbsp;

C’est juste 5 ans de retard face à Microsoft dans ce domaine qui avait intégré le contrôle parental dans Windows 8.








jb18v a écrit :



et le prochain ? Quetsche ? Queijadinha ? <img data-src=" />





Quinoa ? <img data-src=" />



&nbsp;





linkin623 a écrit :



Un jour, je vais passer sous Lineage OS, mais la liste des téléphones compatibles est désespérément courte…





Il me semblait au contraire qu’ils en supportent pas mal. Par contre il faut bidouiller un minimum, je passe chaque étape en tramblant des genoux. Heureusement il y a des gentils INpactiens qui filent un coup de main <img data-src=" />









M4tthieu a écrit :



J’ai un Samsung galaxy S5 d’occasion sur lequel tourne Lineage OS sans soucis. C’est peut être pas le dernier bidule à la mode mais il fonctionne très correctement et la batterie peut être changée.









Jarodd a écrit :



Il me semblait au contraire qu’ils en supportent pas mal. Par contre il faut bidouiller un minimum, je passe chaque étape en tramblant des genoux. Heureusement il y a des gentils INpactiens qui filent un coup de main <img data-src=" />





Je ne pense pas que mon Wileyfox Swift soit possible, je galère tellement à mettre un custom bootloader… Le fofo de NXI est un possibilité.



« Tous les autres appareils, notamment ceux ayant participé au programme Beta, devront patienter un peu. Google promet une diffusion «&nbsp;avant la fin de l’automne&nbsp;»

pour les Essential Phone, Nokia 7 Plus, Oppo R15 Pro, Sony Xperia XZ2,

Vivo X21, le Vivo X21UD et Xiaomi Mi Mix 2S. Pour les autres, tout

dépendra du bon vouloir de chaque constructeur. »



Je n’ai pas compris ça d’après les autres news, tous ceux ayant participé au programme bêta devrait avoir leur mise à jour day one. En tout cas, mon Essential PH-1 est à jour de ce midi en OTA.








linkin623 a écrit :



Je ne pense pas que mon Wileyfox Swift soit possible, je galère tellement à mettre un custom bootloader… Le fofo de NXI est un possibilité.





Le Swift est supporté officiellement par LineageOS. Tu peux donc passer dessus directement sans problème.

&nbsp;



Jarodd a écrit :



Il me semblait au contraire qu’ils en supportent pas mal. Par contre il faut bidouiller un minimum, je passe chaque étape en tramblant des genoux. Heureusement il y a des gentils INpactiens qui filent un coup de main <img data-src=" />





Il faut effectivement mettre un peu les mains dans le cambouis pour installer le recovery custom. Mais une fois que c’est fait, c’est vraiment très simple. Surtout pour un appareil supporté officiellement, les MàJ OTA sont un vrai bonheur et très simples à installer.



Ca reste un outil, avoir un réveil pour se lever le matin ou une indication qu’il faut aller dormir le soir ça reste de l’ordre d’utiliser un outil.



A titre perso ayant un chronotype tardif je n’ai jamais sommeil avant 1h du matin, je ne suis généralement pas sur le smartphone le soir mais si j’y suis j’apprécierai assez que l’engin me rappelle l’heure. Je ne suis pas pour autant dépendant ou esclave du truc, j’ai le même pb si je lis un livre ou si je joue.



A vrai dire j’ai eu pendant des années une alarme vers 11h le soir pour penser à aller me coucher (sur un réveil traditionnel) <img data-src=" />


Le problème est moins ta dépendance à l’outil que le fait que Google te connaisse aussi bien <img data-src=" />


C’est déjà le cas attendu que je passe en mode avion la nuit, et c’est le cas aussi de facebook qui accède aux données locales de communication pour calibrer ses algos etc.



Je ne vois pas ce que la valorisation d’infos qu’ils ont déjà ajoute comme nouveau pb .

C’est un pb depuis le début a partir du moment ou tu utilises des Apps et que celles ci sollicitent largement les services des GAFA.

Quel dommage que firefox os soit cantonné aux smartTV ou que Jolla n’ait jamais décollé oui, maintenant on ne peut pas refaire l’histoire là dessus.



Dans l’absolu quel dommage que Nokia ait disparu en fait <img data-src=" />








Z-os a écrit :



Si d’autres ont besoin d’un déclic, il y a eu une conférence à Pas sage en Seine sur google :



https://video.passageenseine.fr/videos/watch/eddda14c-69a2-470c-8a3a-068ab3e59f4…





Au taf, donc je regarderai ce soir, mais merci <img data-src=" />



Sur la batterie idem, le système détecte les applications un peu trop bourinnes en batterie et te demande si tu veux les passer en mode adaptive (bizarrement j’ai facebook, messenger et instagram en adaptive ^^). C’est donc également assez simple et probablement pas si dépendant du machine learning que ça.


J’ai la flemme de chercher, je sais pas si il y a des études sur ce sujet.



Mais est-ce que tous ces assistants vocaux, de plus en plus friands de nos données personnelles, qu’on nous fou partout ont vraiment du succès? Je veux dire est-ce que les gens accrochent vraiment ? (Cortana, Siri, Amazon Echo, Freebox V8? etc.).



Ou suis-je vraiment un vieux con hors de mon temps qui trouvent que c’est un peu exagéré ce genre de gadget ?<img data-src=" />




Selon Google, un simple glissement vers le haut depuis n’importe où déclenche cette vue. C’était effectivement le cas dans la bêta 2 du système sur un Nokia 7 Plus, mais la bêta 3 a curieusement remis en place le bouton dédié au multitâche.



Sur Pixel 2, le bouton dédié au multitâche n’était déjà pas là en beta 3 ni dans la release. C’est d’ailleurs super pratique je trouve ce nouveau système par gestes. On s’y habitue très vite et d’ailleurs, ça fait bizarre de repasser sur un smartphone avec le bouton carré pour le multitâche.








L_homme_Goujon a écrit :



J’ai la flemme de chercher, je sais pas si il y a des études sur ce sujet.



Mais est-ce que tous ces assistants vocaux, de plus en plus friands de nos données personnelles, qu’on nous fou partout ont vraiment du succès? Je veux dire est-ce que les gens accrochent vraiment ? (Cortana, Siri, Amazon Echo, Freebox V8? etc.).



Ou suis-je vraiment un vieux con hors de mon temps qui trouvent que c’est un peu exagéré ce genre de gadget ?<img data-src=" />





dépend des gens et pays.. perso j’ai joué avec Siri pas mal quand j’ai eu mon 4S, depuis il me sert surtout à envoyer un sms quand je conduis, ou à faire un rappel quand j’ai les mains prises.. donc pas souvent.

L’ajout de l’interaction par écrit est un vrai plus, dans la majorité des cas, t’as l’air con à demander un truc à voix haute, et aussi c’est pas forcément des infos publiques ou des détails qu’on veut énoncer tout haut.



En tout cas pour commander en ligne c’est pas encore ça <img data-src=" />



(*chacun ses usages, je parle juste de mon expérience :) )









Qruby a écrit :



C’est beaucoup trop tôt pour intégrer du ML pour ce types de réglages (batterie, luminosité). On est encore loin de pouvoir faire une IA qui généralise et qui s’adapte vraiment aux situations, donc on va avoir un système très frustrant à chaque fois qu’une nouvelle situation émerge…





Ha le machine learning; rions un peu:





  • Dans la définition : Trouver une solution même si on a pas suffisamment de données pour traiter et lancer avec un ensemble de réglages disponibles, puis recommencer autant de fois qu’on a un “Fail”.

  • Dans la réalité d’une application Android: mettre la lumière a fond et si l’utilisateur passe dans le menu du réglage de la luminosité; copier ce dernier paramètre…









    Salamandar a écrit :



    Les cas à traiter sont très simples (gestion intelligence de la luminosité en fonction de l’heure et du jour). Il y a eu une présentation de ce cas là en vidéo, ça fonctionne vraiment bien.

    Ya pas besoin d’une IA qui “généralise”, mais les IA s’adaptent aux situations par définition :p





    Ca dépend de qui programme. Et puis quelle approche on a d’un sujet. Le plus souvent on prend un algo qui doit décider et on lui colle un broyeur de données qui fera des tris et va ranger le dico. On est loin de quelque chose d’intelligent.



    Les “slices” me font penser&nbsp; à un projet Google qui n’est plus de ce monde qui était le même principe grosso modo. Je crois que c’était Google Reader Cela permettait de ranger et organiser des flux RSS dans une seule page. Du coup c’était pratique.

    &nbsp;

    &nbsp;Bon On sent bien que Google essaie de nous la vendre à sa sauce. La

    gestion intelligente de la luminosité est déjà là dans mon GalaxyS8.

    Les applis mises en sourdine (sans les fermer pour autant) sont aussi

    déjà dans les téléphones disponibles. Le tout sans IA de la mort qui tue. Tout est déjà bien là pas besoin

    de passer par le ML.&nbsp;&nbsp;Bref… encore une fausse réinvention de la soupe sans que cela soit meilleur.



    Hmmm Ce qu’on ferai pas pour un dollar.

    &nbsp;

    &nbsp;



Je crois que le seul portable que j’ai niqué, c’était mon LG G3, mais à l’époque LG niveau fabrication, c’était de la daube, je sais pas où ils en sont maintenant.



Sinon mon S1, S3, S7, j’ai jamais réussi à les brick. <img data-src=" />&nbsp;


Cest quoi l’ia d’un téléphone ou machine learning ? Je vois l’exemple de la luminosité selon les heures de la journée, c’est pas un peu ce que fais le capteur de luminosité au final ? Ou encore une bête application à paramétré de telle heure à telle heure ? J’ai beaucoup de mal à comprendre l’intelligence artificielle sur les téléphonesest ce car c’est du marketing comme le blockchain ou car je suis pas artificiel ?








Elwyns a écrit :



Cest quoi l’ia d’un téléphone ou machine learning ? Je vois l’exemple de la luminosité selon les heures de la journée, c’est pas un peu ce que fais le capteur de luminosité au final ? Ou encore une bête application à paramétré de telle heure à telle heure ? J’ai beaucoup de mal à comprendre l’intelligence artificielle sur les téléphonesest ce car c’est du marketing comme le blockchain ou car je suis pas artificiel ?





L’idée de départ est de partir du principe que par l’IA on va simplifier l’interaction machine/homme ce dernier, non fiable et imparfait, limitant son temps de cerveau disponible pour son phone (ou autre) à quelques usages parce qu’il a encore une vie sociale, euh pardon, les marketeux te diront par incompréhension du fonctionnement/possibilités d’utilisations.



Ils ajouteront rapidement dans le discours qu’en plus cela permet de lutter contre les inégalités entre les power-users et les autres en évitant le blocage d’une interface complexe, en réalité les vieux pas foutus d’asservir leurs cerveaux comme le font sans mal les plus jeunes.



De ce que j’ai pu voir des assistants vocaux, on a le poutrage de données présenté comme nécessaire pour permettre l’utilisation de l’IA, en revanche le service ressemble plus à un copain bourré en fin de soirée qui capte plus rien qu’à la moindre forme d’intelligence (ou alors celle de l’amibe) (néanmoins, ça permet de trouver un interlocuteur à ton copain réellement bourré en fin de soirée).









Elwyns a écrit :



Cest quoi l’ia d’un téléphone ou machine learning ? Je vois l’exemple de la luminosité selon les heures de la journée, c’est pas un peu ce que fais le capteur de luminosité au final ? Ou encore une bête application à paramétré de telle heure à telle heure ? J’ai beaucoup de mal à comprendre l’intelligence artificielle sur les téléphonesest ce car c’est du marketing comme le blockchain ou car je suis pas artificiel ?







Ce n’est pas un bête capteur il prend en compte tes préférences, pas seulement les indications du capteur, pour ajuster la luminosité selon les gouts de l’utilisateur.



J’ai brické un S1 <img data-src=" /> <img data-src=" /><img data-src=" />


Plutôt faux, les IA/réseaux de neurones sont capables de généraliser c’est même une de leur principales caractéristiques.



D’ailleurs lors de l’entraînement d’un réseau de neurones, on garde toujours une partie du dataset séparément pour valider la capacité à généraliser à des cas jamais rencontrés lors de l’apprentissage.



De petits réseaux de neurones me semblent une plutôt bonne idée pour régler la luminosité ou gérer de type de réglage simples dépendant d’un nombre limités de paramètres (appli, heure, luminosité ambiante…) et d’une dose de préférence de l’utilisateur.








L_homme_Goujon a écrit :



Ou suis-je vraiment un vieux con hors de mon temps qui trouvent que c’est un peu exagéré ce genre de gadget ?<img data-src=" />






    Au moins on sera deux <img data-src=">  






   Après... On faisait déjà la gestion de la batterie et luminosité sans ML, je ne vois pas ce que cela apporte concrètement.         






   Tente-t-on d'habituer l'utilisateur au concept en lui-même, afin de mieux l'entuber à long terme (quand la ML demandera de nous scruter plus activement et un peu partout ?).         






   C'est désagréable cette tendance à vouloir "aider" l'utilisateur, comme s'il était stupide ou qu'il s'énerve au moindre réglage. Car pour y parvenir et à voir ces nouvelles fonctions, cela oblige à me prendre par la main or          

il est évident que toutes les situations potentiellement rencontrables ne seront pas couvertes, et donc cela signifie à terme une grosse dose de frustration. Ou en tl;dr, je détecte l'automatique et le manque d'options car je dois souvent repasser dérrière, ce qui m'énerve.

&nbsp;

Question donc : Est-ce désactivable simplement ?

&nbsp;

En attendant, je suis plus inquiet du retrait par exemple du bouton Retour. Je ne vois pas pourquoi je devrais m'habituer à une nouvelle façon de faire quand ça marche bien depuis des années. Apparement il y a une option pour le remettre, mais j'avais aussi une option sur le Dialer ancien pour retirer l'extinction auto de l'écran et il n'existe plus maintenant, m'obligeant à le remettre de force à coup de Notepad++ et de recompilation de l'app...






   Va-t-il falloir sortir le compilateur à tour de bras à l'avenir ?








TheKillerOfComputer a écrit :



C’est désagréable cette tendance à vouloir “aider” l’utilisateur&nbsp;



&nbsp;

Au contraire ça peut être très pratique… Par exemple hier soir j’ai regardé une série sur mon téléphone dans le noir et en moins de 10 minutes je suis passé de 30% de luminosité à 1%, et le réglage manuel dans vlc ne permet pas de gérer ça de manière fine… 30%, 25%, 18%, 12%, 8%, 5% puis 1%. A chaque passage les yeux doivent s’habituer et parfois tu remonte, bref ça saoule ! Avec du machine learning ça pourrait ce faire de manière automatique, transparente et adapté à ma vue.









crocodudule a écrit :



Le coup du “bien-être” est pour moi la ligne à ne pas franchir





Quel est le problème ?

J’utilise déjà avec bonheur des outils comme l’addon “Leechblock” pour Firefox qui m’empêche d’aller consulter des sites de glande à des heures tardives. Je serais très content de pouvoir paramétrer davantage mon téléphone pour qu’il me crée moins d’interruptions et s’efface plus souvent au profit d’autres activités qui m’intéressent plus, comme lire le soir.



Ce n’est peut-être pas la peine de sortir l’artillerie lourde (l’IA, aujourd’hui) quand la tapette à mouche et un peu d’habileté (une régression linéaire ou quelque chose d’à peine plus évolué) suffisent ? :-)


Et au boulot, on nous demande de sortir de notre zone de confort. Ça manque de cohérence. ;)


J’espère que l’Adaptive Brightness est mieux fichu parce que je passe mon temps à ajuster la luminosité que ce soit avec la fonctionnalité de base, ou via une app…


Met a 80% tout le temps et ne dors pas avec.


je mets la luminosité en auto avec une puissance à 50% et ça gère sous le soleil ou trop de lumière .. du coup j’ai déjà mes préférences .



J’ai du mal avec ce concept d’IA








dylem29 a écrit :



Je crois que le seul portable que j’ai niqué, c’était mon LG G3, mais à l’époque LG niveau fabrication, c’était de la daube, je sais pas où ils en sont maintenant.





La vache t’es un sagouin !

Je t’écris avec un G3 sous Lineage justement, j’ai rarement vu un smart si robuste. Je l’ai flashé avec tout et n’imp, il est tombé 100 fois, et il est frais comme au 1er jour, sauf la batterie que j’ai changé récemment…

T’as du tomber sur une mauvaise série, des exp comme la mienne avec ce smart j’en lis partout, et c’est d’ailleurs pour ça que je l’ai choisi









darkbeast a écrit :



Ce n’est pas un bête capteur il prend en compte tes préférences, pas seulement les indications du capteur, pour ajuster la luminosité selon les gouts de l’utilisateur.



Depuis que j’ai réglé la luminosité le 1er jour d’utilisation de mon tél il y a 2 ans 12, je n’y ai plus touché, je laisse faire le capteur de luminosité ambiante. Et j’avoue ne jamais avoir vu ni entendu personne faire autrement…

Du coup, c’est quoi l’intérêt de ce machin?



(HS) Tiens justement je cherchais un smartphone de “secours”, pour pouvoir faire joujou avec des roms sans flinguer mon principal. Hier j’ai passé mon Xiaomi sous Lineage, j’ai galéré, et j’ai bien flippé pendant 1h parce que j’étais bloqué sur le logo MI au démarrage. Donc je voudrais m’entraîner sur un smartphone qui ne craint rien, je vais regarder ce modèle <img data-src=" />

Edit : 5.5 trop gros <img data-src=" />








Patch a écrit :



Du coup, c’est quoi l’intérêt de ce machin?&nbsp;



Moi ça m’arrive de pousser la luminosité en plein jour ou la baisser à fond le soir.

Donc j’imagine que android est sensé s’en apercevoir et en fonction du capteur de luminosité, de l’heure, de l’utilisateur, de la position gps du téléphone, de l’appli lancée, de la luminosité moyenne de l’image affichée à l’écran, de l’oriantation du téléphone, du bruit ambiant ou je ne sais quelle autre mesure … d’adapter le réglage.



L’IA doit permettre d’apprendre ce que fait l’utilisateur et de le reproduire automatiquement dans des conditions comparables (pas identiques: comparables)









Patch a écrit :



Depuis que j’ai réglé la luminosité le 1er jour d’utilisation de mon tél il y a 2 ans 12, je n’y ai plus touché, je laisse faire le capteur de luminosité ambiante. Et j’avoue ne jamais avoir vu ni entendu personne faire autrement…

Du coup, c’est quoi l’intérêt de ce machin?





Tu le sais très bien, tout ça est un prétexte pour élargir le flicage: l’intérêt de l’AI pour adapter la luminosité est anecdotique, tout comme le fait de t’aider à décrocher de ton téléphone parce que l’utilisateur en serait incapable lui-même, mais sous prétexte de se préoccuper du “bien-être” de l’utilisateur (comme si notre bien-être dépendait des outils de google…) certains vont baisser la garde et laisser la machine poutrer leurs données pour pouvoir activer des trucs à l’intérêt dérisoire.



Quatre quart <img data-src=" />


Pour moi, c’est du gadget. J’ai désactivé Google. Marre de cet assistant qui se lance quand j’appuie un peu trop longtemps sur home ou quand je manipule mon casque bluetooth. J’ai aussi désactivé tout les historiques, sauf celui des vidéos vues sur Youtube.


Question bête et méchante…



Le machine learning et tout ce qui va avec se fera comment? S’est l’OS en lui-même qui apprend les habitudes ou les infos sont envoyées à Google, traitées par des serveurs de la mort et redescendu au mobile?








spidermoon a écrit :



Pour moi, c’est du gadget. J’ai désactivé Google. Marre de cet assistant qui se lance quand j’appuie un peu trop longtemps sur home ou quand je manipule mon casque bluetooth. J’ai aussi désactivé tout les historiques, sauf celui des vidéos vues sur Youtube.





Sur le dernier honor je n’arrive pas à le désactiver complétement, s’il ne réagit plus à “ok google” lorsqu’il est en veille, en revanche si je dis “ok google” alors que l’écran est activé il me demande si je veux réactiver l’assistant vocal.



Ca implique nécessairement qu’au moins avec l’écran actif le téléphone est en mode écoute.



On ne dit pas “Android 9 Pie” mais &nbsp;“Android Pie bâton croix”



D’ailleurs un sous titre “habemus papam” ça serait bien non?


bonjour à tous, petit hors sujet je ne veux pas déranger la team pour ca, c’est moi ou l’appli mobile ne fonctionne plus depuis quelques temps ? (version android)








brice.wernet a écrit :



Moi ça m’arrive de pousser la luminosité en plein jour ou la baisser à fond le soir.

Donc j’imagine que android est sensé s’en apercevoir et en fonction du capteur de luminosité, de l’heure, de l’utilisateur, de la position gps du téléphone, de l’appli lancée, de la luminosité moyenne de l’image affichée à l’écran, de l’oriantation du téléphone, du bruit ambiant ou je ne sais quelle autre mesure … d’adapter le réglage.



L’IA doit permettre d’apprendre ce que fait l’utilisateur et de le reproduire automatiquement dans des conditions comparables (pas identiques: comparables)



Tu demandes à une IA de faire ce que n’importe quel capteur de luminosité fait déjà, quoi. En plein jour mon écran est déjà à fond, et quand il fait bien sombre il est quasiment au mini. Aucun besoin d’une IA pour ca, à moins que tu ne veuilles te la péter pour un truc de merde…









Patch a écrit :



Tu demandes à une IA de faire ce que n’importe quel capteur de luminosité fait déjà, quoi. En plein jour mon écran est déjà à fond, et quand il fait bien sombre il est quasiment au mini. Aucun besoin d’une IA pour ca, à moins que tu ne veuilles te la péter pour un truc de merde…





Non justement. Le capteur de luminosité peut ne pas être suffisant (le mien ne l’est pas: en plus du capteur, en plein soleil il faut que je mette la luminosité à fond, et le soir je la baisse à fond).

On peut combiner d’autres facteurs, pas toujours les mêmes selon les personnes.

&nbsp;

Mais je suis d’accord avec toi: c’est de l’artillerie lourde pour régler la luminosité. Remarque: tout comme l’IA dans ce domaine, le capteur de luminosité est tout à fait gadget aussi.

&nbsp;

On pourrait aussi penser que le réglage du volume du son pourrait être corrélé à d’autres facteurs. Par exemple si la caméra de face voit autre chose qu’une oreille ou du sombre, se mettre en mode haut-parleur. Quand tu arrives au boulot, se mettre en mode silencieux. Quand tu es au boulot, ne pas faire sonner le téléphone si c’est mamie car tu ne décroches jamais dans ce cas.

&nbsp;



C’est normal.








brice.wernet a écrit :



Non justement. Le capteur de luminosité peut ne pas être suffisant (le mien ne l’est pas: en plus du capteur, en plein soleil il faut que je mette la luminosité à fond, et le soir je la baisse à fond).

On peut combiner d’autres facteurs, pas toujours les mêmes selon les personnes.

 

Mais je suis d’accord avec toi: c’est de l’artillerie lourde pour régler la luminosité. Remarque: tout comme l’IA dans ce domaine, le capteur de luminosité est tout à fait gadget aussi.

 

On pourrait aussi penser que le réglage du volume du son pourrait être corrélé à d’autres facteurs. Par exemple si la caméra de face voit autre chose qu’une oreille ou du sombre, se mettre en mode haut-parleur. Quand tu arrives au boulot, se mettre en mode silencieux. Quand tu es au boulot, ne pas faire sonner le téléphone si c’est mamie car tu ne décroches jamais dans ce cas.







En attendant l’IA tu as Tasker pour faire tout ça.









Dj a écrit :



On ne dit pas “Android 9 Pie” mais &nbsp;“Android Pie bâton croix”



D’ailleurs un sous titre “habemus papam” ça serait bien non?





Le peuple il a faim et il veut changer de régime !?!









brice.wernet a écrit :



On pourrait aussi penser que le réglage du volume du son pourrait être corrélé à d’autres facteurs. Par exemple si la caméra de face voit autre chose qu’une oreille ou du sombre, se mettre en mode haut-parleur. Quand tu arrives au boulot, se mettre en mode silencieux. Quand tu es au boulot, ne pas faire sonner le téléphone si c’est mamie car tu ne décroches jamais dans ce cas. &nbsp;





Ça se fait déjà partiellement et plus simplement. L’app Dialer par exemple déduit l’emplacement du smartphone en fonction des relevés du capteur de luminosité durant un appel. Peu de lumière = très probable qu’il soit proche de l’oreille = l’écran s’éteint automatiquement. Dans le cas inverse, il se rallume.



On pourrait donc faire jouer le haut-parleur de la même façon avec probablement une dizaine de lignes de code dans le fichier ProximitySensor.java, et un peu plus pour placer une option dans l’interface dans je ne sais plus quel fichier.

&nbsp;

Donc pas besoin d’une IA ou de ML pour ça. Juste un peu de logique.



C’est quoi comme tarte ? On dirait des quetsches, en tout cas ce n’est pas une Appli pie <img data-src=" />








TheKillerOfComputer a écrit :



Donc pas besoin d’une IA ou de ML pour ça. Juste un peu de logique.







Ouais mais ça permet pas de remplir sa grille de Bingo-bullshit. <img data-src=" />









brice.wernet a écrit :



On pourrait aussi penser que le réglage du volume du son pourrait être corrélé à d’autres facteurs. Par exemple si la caméra de face voit autre chose qu’une oreille ou du sombre, se mettre en mode haut-parleur. Quand tu arrives au boulot, se mettre en mode silencieux. Quand tu es au boulot, ne pas faire sonner le téléphone si c’est mamie car tu ne décroches jamais dans ce cas.

&nbsp;





Donc en plus de m’écouter en permanence, mon smartphone me filmerait en permanence également ?



Et les images de ton oreille, couplées à Google Health, seraient envoyées en temps réel à ton ORL <img data-src=" />


Tasker… tellement user friendly… <img data-src=" />

Faut un peu sortir de la bulle geek hein.



Personne ne dit que c’est essentiel… vous dégueulez tous sur cette utilisation du ML introduite dans Pie pour entre autres la luminoisté. Et au final on tourne en rond avec des commentaires qui ne font que rester braqués sur cette partie de l’article sans ouverture d’esprit vers… plus.



Ca faisait longtemps que je n’avais pas commenté… je commence à comprendre pourquoi!



Personnellement, en 24h je me suis fait à la nouvelle navigation qui est tout simplement excellente. C’est à mon sens un point qui mérite débat (copie de la vision d’Apple sur son iPhone X par exemple!).



Mais non… le ML c’est pourri… l’IA ne sert à rien… … … … <img data-src=" />








Tandhruil a écrit :



Donc en plus de m’écouter en permanence, mon smartphone me filmerait en permanence également ?





Comme dirait je sais plus qui au début du fil de discussion, “quel est le problème ?” <img data-src=" />



Innovation utile, je me rappelle des premiers PDA-Phones où tu balançais des FV à ton interlocuteur avec ta joue&nbsp;<img data-src=" />


Tant que le capteur fonctionne bien, tout va bien. Quand il déconne comme sur le mien (ou à cause de LineageOS, je ne sais pas exactement), tu souffres car le clavier et le reste devient inaccessible <img data-src=" />



On part du principe que les smartphones ayant une durée de vie courte chez l’utilisateur, ça ne posera aucun problème car ça lâchera bien après qu’il soit arrivé dans la poubelle. Sauf que le boulet que je suis dispose d’un smartphone avec 5 ans de service <img data-src=" /> Ce n’est pas demain que la réutilisation sera simple à réaliser avec les smarphones, si les développeurs ne font rien pour aider à contourner les éventuelles défaillances.








frikakwa a écrit :



Tasker… tellement user friendly… <img data-src=" />

Faut un peu sortir de la bulle geek hein.



Personne ne dit que c’est essentiel… vous dégueulez tous sur cette utilisation du ML introduite dans Pie pour entre autres la luminoisté. Et au final on tourne en rond avec des commentaires qui ne font que rester braqués sur cette partie de l’article sans ouverture d’esprit vers… plus.



Ca faisait longtemps que je n’avais pas commenté… je commence à comprendre pourquoi!



Personnellement, en 24h je me suis fait à la nouvelle navigation qui est tout simplement excellente. C’est à mon sens un point qui mérite débat (copie de la vision d’Apple sur son iPhone X par exemple!).



Mais non… le ML c’est pourri… l’IA ne sert à rien… … … … <img data-src=" />







Et donc c’est quoi ta solution plus user friendly pour faire ces scénarios quand on n’a pas l’IA ?









Tom801 a écrit :



Et donc c’est quoi ta solution plus user friendly pour faire ces scénarios quand on n’a pas l’IA ?





Je veux pas faire ma sucrette mais parce que je pense qu’il est temps de relancer un débat de fond ici: c’est scenarii (à la limite scenari, mais pas d’accent et os).









crocodudule a écrit :



Je veux pas faire ma sucrette mais parce que je pense qu’il est temps de relancer un débat de fond ici: c’est scenarii (à la limite scenari, mais pas d’accent et os).







Scénarios semble ok aussi :https://fr.m.wiktionary.org/wiki/sc%C3%A9narii









crocodudule a écrit :



Je veux pas faire ma sucrette mais parce que je pense qu’il est temps de relancer un débat de fond ici: c’est scenarii (à la limite scenari, mais pas d’accent et os).







Va pour le débat de fonds !



Si je ne m’abuse, en italien : lo scenario / gli scenari

Dans quelle langue écrirait-on scenarii ? <img data-src=" />









Z-os a écrit :



Va pour le débat de fonds !



Si je ne m’abuse, en italien : lo scenario / gli scenari

Dans quelle langue écrirait-on scenarii ? <img data-src=" />





En italien moderne un seul i et pas d’accent, pour un langage plus ancien ii (et toujours pas d’accent). <img data-src=" />



Ah, j’ai retrouvé un articlesur le sujet <img data-src=" />









brice.wernet a écrit :



On pourrait aussi penser que le réglage du volume du son pourrait être corrélé à d’autres facteurs. Par exemple si la caméra de face voit autre chose qu’une oreille ou du sombre, se mettre en mode haut-parleur. Quand tu arrives au boulot, se mettre en mode silencieux. Quand tu es au boulot, ne pas faire sonner le téléphone si c’est mamie car tu ne décroches jamais dans ce cas.



Pas besoin d’une IA pour ca non plus.

-J’ai une appli (Sony Smart Connect) qui fait passer automatiquement mon tél en mode silencieux au taf et le remet en mode sonnerie à des heures précises (mes horaires de taf, en l’occurence). Elle gère toutes sortes d’évènements autres que ca d’ailleurs (en plus du passage en mode vibreur, j’ai aussi automatisé le lancement du lecteur audio au branchement d’un casque).

-Le choix de la sonnerie par n°, ca se fait déjà depuis plus d’une décenie sur n’importe quel smartphone digne de ce nom, et même certains featurephones et dumbphones.

On dirait que tu es vraiment décidé à tuer une mouche avec un Schwerer Gustav (canon sur rail de 800mm)…







TheKillerOfComputer a écrit :



Ça se fait déjà partiellement et plus simplement. L’app Dialer par exemple déduit l’emplacement du smartphone en fonction des relevés du capteur de luminosité durant un appel. Peu de lumière = très probable qu’il soit proche de l’oreille = l’écran s’éteint automatiquement. Dans le cas inverse, il se rallume.



Certains fabriquants l’intègrent déjà par défaut dans la ROM. Quand j’ai mon tél à côté de l’oreille, l’écran s’éteint pour moins chauffer, et éviter que j’appuie dessus sans le vouloir, sans appli.









crocodudule a écrit :



Je veux pas faire ma sucrette mais parce que je pense qu’il est temps de relancer un débat de fond ici: c’est scenarii (à la limite scenari, mais pas d’accent et os).



Le mot a été francisé.

En italien ca s’écrit scenario / scenari, en francais scénario / scénarios.



Mais… Faut pas rêver, ces données ils les ont depuis toujours ; très certainement depuis les toutes premières version d’Android.. Donc rien de neuf.

La différence aujourd’hui et qu’ils proposent à l’utilisateur un dashboard présentant ces données.&nbsp;








Tom801 a écrit :



En attendant l’IA tu as Tasker pour faire tout ça.



En fait, je me moque bien de l’IA dans ce domaine. Il y a des domaines bien plus importants. Et je me moque bien de ce qu’il y a dans mon smartphone: j’utilise les SMS, les appels et le calendrier. Un jeu ou deux (toujours les mêmes depuis 4 ans), pas d’appli sauf la banque à cause de paylib. Vieille habitude du Windows Phone.

&nbsp;

C’est juste pour illustrer.&nbsp;









TheKillerOfComputer a écrit :



Donc pas besoin d’une IA ou de ML pour ça. Juste un peu de logique.&nbsp;



Mais ça va marcher pour des gens, pas pour d’autres. Les utilisateurs lambda vont pas se farcir toutes les options en permanence. De plus, certains voudront ajouter d’autres paramètres.



L’IA permettrait de s’adapter à l’utilisateur, de s’adapter à de nouveaux paramètres. Peut-être même préconfigurer en fonction de paramètres choisis par des profils “voisins”.









Patch a écrit :



Pas besoin d’une IA pour ca non plus.&nbsp;



L’IA n’est nécessaire que quand un humain ne peut plus gérer le nombre de paramètres qu’on doit ingurgiter pour sortir une décision.

Bien sûr qu’il n’y a pas besoin d’IA. Mais ils vendent des puces avec IA intégrée, alors il faut marketer.



&nbsp;Et l’IA pourrait apporter des solutions à des agacements courant simples, et améliorer l’expérience utilisateur. Voire obtenir une certaine forme de portabilité de cette expérience d’un téléphone à l’autre (le rêve: ne pas avoir à se faire aux contrôles du nouveau téléphone).

Par contre, on risque aussi de ne pas comprendre pourquoi le téléphone s’est paramétré tout seul d’une façon ou d’une autre.



&nbsp;



Patch a écrit :



On dirait que tu es vraiment décidé à tuer une mouche avec un Schwerer Gustav (canon sur rail de 800mm)…&nbsp;



Il faut 145Mo de RAM pour afficher ce site. Nos processeurs à 3GHz peuvent être saturés pendant une fraction de secondes pour le rendu navigateur. Nos téléphones ont du mal avec des processeurs 4 cœurs 1,2GHz.

Pour le Schwerer Gustav ou la grosse Berta, c’est déjà dépassé à ce stade.

D’ailleurs, l’IA est possible surtout parce que la puissance de calcul instantanée est là. Les idées et algo, ils datent principalement d’avant les 80’s.



C’est drôle cette mode qui consiste à appeler IA tous les processus qui existent depuis des années et sont simplement configurables ou adaptatifs. A ce compte là, la luminosité adaptative c’est de l’IA, et mon laptop qui a 10 ans en contenait déjà :-p


C’est sur qu’en oubliant la partie “Machine learning” dans cette notion d’IA, tu peux vite croire qu’il n’y a rien de bien nouveau








Patch a écrit :



Le mot a été francisé.

En italien ca s’écrit scenario / scenari, en francais scénario / scénarios.





Bon ben voila on a bien fait avancer le débat sur la dernière AI d’android moi je trouve <img data-src=" />









Z-os a écrit :



Ah, j’ai retrouvé un articlesur le sujet <img data-src=" />



Je connaissais pas ce site, dommage qu’il soit à l’arrêt car y a des trucs bien drôles.









SirSeto a écrit :



Mais… Faut pas rêver, ces données ils les ont depuis toujours ; très certainement depuis les toutes premières version d’Android.. Donc rien de neuf.

La différence aujourd’hui et qu’ils proposent à l’utilisateur un dashboard présentant ces données.&nbsp;





Comme indiqué, je ne pense pas que pour l’instant le niveau de poutrage de données soit fondamentalement différent de la pratique actuelle.



En revanche l’approche elle est nouvelle; la prétention paternaliste et détestable de l’aide au bien-être par google (& co) tente de légitimité une plus grande voracité s’agissant de la collecte et le traitement de donnés pour un profilage général de l’individu et, là, il y a pour moi dans cette approche une ligne rouge qui ne devait pas être franchie.









brice.wernet a écrit :



L’IA n’est nécessaire que quand un humain ne peut plus gérer le nombre de paramètres qu’on doit ingurgiter pour sortir une décision.







Vivement l’IA pour aider Madame à choisir sa tenue vestimentaire du jour dans sa garde robe de 90m² et compenser le sempiternel “je n’ai rien à me mettre !”. <img data-src=" />









brice.wernet a écrit :



L’IA n’est nécessaire que quand un humain ne peut plus gérer le nombre de paramètres qu’on doit ingurgiter pour sortir une décision.



Pour gérer la luminosité ou lancer une appli, c’est vrai que c’est d’un compliqué tous les paramètres à prendre en compte… <img data-src=" />



Google qui parle d’IA dans android Pie, ça me fait bien marrer.

Je vais aux toilettes, je lance un jeu, “boom boom” ah merde, le son est à fond. Je le coupe.

Le soir, je dis “ok google, rappelle moi la recette de la tarte aux fraises”. Elle réponds pas vu que le son du téléphone est coupé.

Du génie l’IA de Google ! <img data-src=" />








Patch a écrit :



Pour gérer la luminosité ou lancer une appli, c’est vrai que c’est d’un compliqué tous les paramètres à prendre en compte… <img data-src=" />





Même pour des choses biens plus complexes, on “commence” à découvrir (même si l’offensive marketing n’avait pas échappé à certains) qu’il a été fait beaucoup de mousse sur l’IA, pour une effectivité sans rapport avec la réalité.



Dans le domaine du droit ; la réalité est à des années lumières de ce qui a été annoncé et le retour de bâton auprès des professionnels fait mal à ceux qui ont tenté d’enfumer leurs mondes.



Surtout en dehors de l’opensource point de salut: il n’y a aucun intérêt à soutenir des boites aux sources fermées, d’une part car cela ralenti inexorablement les progrès en matière d’IA, ensuite parce que si un jour (c’est pas demain au regard des présentations que j’ai pu voir…) un outil est pertinent alors il ne peut être détenu par un seul mais doit être accessible à tous sauf à renoncer à nos principes élémentaires :

http://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html



Je note que récemment encore et dans un autre domaine, l’IA déjà annoncée comme surclassant les médecins pour traiter les cancers, n’a donné que des résultats à la con voire dangereux (prétextant comme toujours ne pas avoir travaillé sur les bonnes données… air connu maintenant) :

https://www.numerama.com/tech/397120-lia-watson-dibm-a-donne-de-mauvais-conseils-pour-traiter-des-cancers.html



L’IA est un super sujet de recherche et offrira sans doute des solutions très intéressantes (je doute néanmoins que l’on puisse se passer de la surveillance humaine, sinon avant un bon moment).



Mais pour moi l’intégration de l’IA proposée à ce stade dans les outils grands publics est totalement prématurée aux regards de l’efficacité réelle d’une part et, d’autre part, du fait que les prétendus avantages de cette techno ne compensent en rien les risques inhérents aux technos de profilage (notamment s’agissant des données persos.) : typiquement ce que tu dénonces s’agissant d’utiliser l’IA pour régler la luminosité.



Il est d’ailleurs souhaitable que les constructeurs permettent de désactiver totalement l’aspect IA, en laissant le choix à l’utilisateur.



Ok, mais quid des applis qui sont sous googleplay ?

Tous les capteurs sont fonctionnel ?



J’ai regarder pour mon tel : 14.1, soit android 7 alors que je suis sous android 8 (officielle).








brice.wernet a écrit :



Mais ça va marcher pour des gens, pas pour d’autres. Les utilisateurs lambda vont pas se farcir toutes les options en permanence. De plus, certains voudront ajouter d’autres paramètres.



L’IA permettrait de s’adapter à l’utilisateur, de s’adapter à de nouveaux paramètres. Peut-être même préconfigurer en fonction de paramètres choisis par des profils “voisins”.





Vu que l’on parle d’élements aisément non-IAables (?), cela revient à dire que l’on doit sortir le BFG 9000 pour compenser la faïnéantise de l’utilisateur, ce dernier refusant de faire les réglages requis lors du premier allumage… Si c’est cela, on ne mérite même pas l’IA.

&nbsp;





grsbdl a écrit :



C’est drôle cette mode qui consiste à appeler IA tous les processus qui existent depuis des années et sont simplement configurables ou adaptatifs. A ce compte là, la luminosité adaptative c’est de l’IA, et mon laptop qui a 10 ans en contenait déjà :-p





De la même façon qu’on appelle “Cloud” du FTP à peine amélioré et autres <img data-src=" /> La puissance du marketing <img data-src=" />









TheKillerOfComputer a écrit :



Vu que l’on parle d’élements aisément non-IAables (?), cela revient à dire que l’on doit sortir le BFG 9000 pour compenser la faïnéantise de l’utilisateur, ce dernier refusant de faire les réglages requis lors du premier allumage… Si c’est cela, on ne mérite même pas l’IA.&nbsp;&nbsp;



Même pas mal. Vu qu’il n’y a plus de mode d’emploi, les gens sont perdus avec leurs *phones.



&nbsp;Pour que ce soient de vrais “smart”phones, il faut qu’ils aient de&nbsp; l’IA. CQFD.

&nbsp;









brice.wernet a écrit :



Pour que ce soient de vrais “smart”phones, il faut qu’ils aient de  l’IA. CQFD.



Ou pas.

Sortir l’IA pour faire 3 conneries qu’on fait déjà depuis 15 ans juste parce que le marketing a dit qu’il fallait de l’IA, il n’y a strictement aucun intérêt.



Après, tant qu’il y aura masse de gens comme toi qui boivent leurs paroles, ils n’ont aucune raison d’arrêter…









TheKillerOfComputer a écrit :



Vu que l’on parle d’élements aisément non-IAables (?), cela revient à dire que l’on doit sortir le BFG 9000 pour compenser la faïnéantise de l’utilisateur, ce dernier refusant de faire les réglages requis lors du premier allumage… Si c’est cela, on ne mérite même pas l’IA.

 



De la même façon qu’on appelle “Cloud” du FTP à peine amélioré et autres <img data-src=" /> La puissance du marketing <img data-src=" />







Ca m’étonne que dans le secteur automobile le régulateur de vitesse adaptatif ne se soit pas encore targué d’être un “régulateur de vitesse à intelligence artificielle”.



Quand le régulateur adaptatif vérifiera les rétro, devant la voiture suivie, et les info trafic, puis doublera la voiture de devant pour reprendre la vitesse fixée, on pourra parler d’IA <img data-src=" />


Ouais en gros une voiture autonome quoi ? <img data-src=" />



Les fonctions de maintient de file et changement sont encore trop “basiques” (il s’agit avant tout d’une analyse de proximité via des capteurs) pour être considérés comme de l’intelligence. Surtout qu’il n’y a pas réellement de prise de décision, l’action reste à la demande du conducteur (le conducteur met le clignotant, le véhicule a ordre de tenter un changement de file).

Par contre les véhicules autonomes complets méritent cette appellation vu qu’ils doivent déduire qu’est-ce qui est réellement sur la route (voiture ? piéton ? quelle est sa trajectoire ? anticipation…) et pas seulement quel objet est à portée pour manœuvrer de manière sure ou non.








SebGF a écrit :



Les fonctions de maintient de file et changement sont encore trop “basiques” (il s’agit avant tout d’une analyse de proximité via des capteurs) pour être considérés comme de l’intelligence. Surtout qu’il n’y a pas réellement de prise de décision, l’action reste à la demande du conducteur (le conducteur met le clignotant, le véhicule a ordre de tenter un changement de file).





La mienne est pas autonome néanmoins (mais je peux le désactiver naturellement), elle pile toute seule à l’approche d’un obstacle (en l’espèce les feuilles de ma haie, c’est d’ailleurs super stressant lorsque tu sais pas qu’elle peut faire ça ^^ ).



J’etais indifferent mais depuis que ma voiture a freine toute seule comme une brutasse alors que la voiture devant freinait normalement (et moi aussi) je ne fais absolument pas confiance aux “aides” a la conduite.


Lineage (sous Oreo ?) est dispo pour les LG G5 ?








jon1138 a écrit :



Lineage (sous Oreo ?) est dispo pour les LG G5 ?



Seulement des Nightlies de Nougat.









Patch a écrit :



Seulement des Nightlies de Nougat.





C’est à dire ?









Patch a écrit :



Sortir l’IA pour faire 3 conneries qu’on fait déjà depuis 15 ans juste parce que le marketing a dit qu’il fallait de l’IA, il n’y a strictement aucun intérêt.&nbsp;



Le marketing est bien plus puissant que l’innovation.



Mais mes propos sont surtout pour tenter d’illustrer, jamais Google n’a annoncé quels facteurs l’IA prendrait en compte pour la luminosité. Je suis très enthousiasmé par les IA, surtout pour l’apprentissage automatique en prenant en compte bien plus de paramètre que quiconque sache analyser, et pour la possibilité par les algos de classement utilisés de détecter des paramètres pertinents de façon peu biaisée (car il reste un biais humain: le choix des paramètres pris en compte et leur modélisation). Je trouve qu’il y a une certaine élégance dans la mise en œuvre d’algo de classification et d’apprentissage.



En plus, l’IA est par essence encore plus “boite noire” qu’un algo. Donc quand elle se trompera (du point de vue utilisateur) elle fera encore plus râler - déjà qu’on me pose plein de question sur pourquoi tel appareil a eu tel comportement, si en plus l’appareil a des réactions apprise au contact de son utilisateur, ça va finir en psychanalyse…









brice.wernet a écrit :



Le marketing est bien plus puissant que l’innovation.



Pour réussir à faire passer des vessies pour des lanternes auprès d’une majorité, je ne peux qu’acquiescer <img data-src=" />



Vous vouliez dire que le marketing est le domaine qui connaît le plus d’innovations !



C’est juste que nous n’avons pas la même définition du concept d’innovation.