Contre les « fake news », Google affute son algorithme de recherche et contrôle l'autocomplétion

Contre les « fake news », Google affute son algorithme de recherche et contrôle l’autocomplétion

Un fait divers, un algorithme

Avatar de l'auteur
Guénaël Pépin

Publié dans

Internet

26/04/2017 4 minutes
15

Contre les « fake news », Google affute son algorithme de recherche et contrôle l'autocomplétion

Google annonce une révision de son moteur, pour faire remonter des résultats « d'autorité » sur les recherches contenant des contenus trompeurs. Il est également possible pour certains utilisateurs de signaler des suggestions de recherche « inappropriées ».

La lutte contre les fausses nouvelles est l'occasion d'une communication nombreuse pour les géants du Net. Google vient d'annoncer une modification de PageRank, l'algorithme de son moteur de recherche. La cible affirmée, les fake news, soit « la diffusion d'informations manifestement trompeuses, de basse qualité, offensantes, voire clairement fausses ».

Si le problème est présenté comme nouveau par Google, il suit la démarche que le groupe affiche à long terme, à savoir lutter contre les mauvais contenus (comme ceux produits dans des « fermes ») et mettre en avant ceux de meilleure qualité. Comme d'habitude, l'entreprise affirme s'appuyer sur trois piliers : améliorer l'algorithme, faciliter les retours d'internautes et être plus transparent. Une trinité qui s'invite dans la communication de nombreuses entreprises du Net, sur n'importe quel sujet.

« Fake news » et communication de géants du Net

Comme celle de Facebook, la communication de Google est à la mesure des critiques que l'entreprise a reçu face à la recrudescence des « fausses nouvelles ». Le sujet, qui a émergé lors de la dernière élection présidentielle américaine, est devenu une préoccupation affichée à grands renforts de billets de blog, de formations et de financements pour les éditeurs de presse, notamment pour des prestations qu'ils fournissent en France (voir notre analyse).

Google avait par exemple interdit en fin d'année dernière la publicité pour ces contenus douteux, affichant des résultats impressionnants quelques mois plus tard. Des centaines de sites auraient ainsi été marqués au fer rouge par le géant, qui ne permet pas de vérifier ses dires.

Pourtant, selon Google, seule « une petite part de nos requêtes quotidiennes (0,25 %) » renverraient des contenus offensants ou trompeurs. Le but de la modification de l'algorithme est donc de fournir plus de résultats « d'autorité » sur cette section spécifique de requêtes, en cachant au mieux ceux estimés indésirables. À la mi-mars, le moteur de recherche a modifié ses lignes directrices en matière de qualité (PDF), pour réaffirmer que « les contenus trompeurs, les pages choquantes inattendues, les hoaxes et les théories du complot » sont descendus.

Signalements dans l'autocomplétion et FAQ complétée

En matière de retour des utilisateurs, Google tient à répondre aux critiques concernant l'autocomplétion et les contenus mis en avant (comme des actualités) en tête de résultats de recherche. En décembre dernier, la société a par exemple retiré manuellement des suggestions de recherche, jugées antisémites et sexistes. Il aura fallu une pression publique de certains utilisateurs pour obtenir ce changement, qui devrait désormais passer par un outil intégré.

Cet épisode en rappelle un autre, en 2012, quand des associations antiracistes françaises ont signalé des suggestions de recherche associant le mot juif à des personnalités. Un accord de médiation avait été trouvé. En 2014, un particulier obtenait le retrait de suggestions associant son nom à des termes connotés, sur le terrain de la loi CNIL.

Désormais, au moins sur la version américaine du moteur, une ligne apparaît sous la liste des recherches suggérées, permettant de marquer une ou plusieurs entrées comme inappropriées. Bien entendu, ces signalements doivent être pris en compte dans le tri des résultats par le moteur de recherche.

Encore faut-il que Google en tienne réellement compte, le traitement des résultats considérés comme choquants étant parfois aléatoire, tout comme les réponses de Google aux utilisateurs. Les soucis de vidéastes dans les recours en matière d'infraction du droit d'auteur illustre certaines difficultés en la matière.

Des suggestions de recherche retirées

Enfin, en matière de transparence, l'entreprise a complété sa section d'aide, en détaillant sa politique en matière de « saisie semi-automatique ». Sont ainsi automatiquement évincées les suggestions estimées vulgaires ou sexuellement explicites, incitant à la haine, à caractère violent et « mentionnant une activité dangereuse ».

Autant de catégories dans la délimitation restent bien à la discrétion de la société, toute transparente veuille-t-elle être, avec des résultats qui seront sûrement difficiles à mesurer simplement... Sinon en s'appuyant sur une probable nouvelle communication de Google à ce sujet dans plusieurs mois.

15

Écrit par Guénaël Pépin

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« Fake news » et communication de géants du Net

Signalements dans l'autocomplétion et FAQ complétée

Des suggestions de recherche retirées

Commentaires (15)


Après l’argument d’autorité ou de pouvoir (argumentum ad potentiam - dixit Wikipedia), les “résultats « d’autorité »” des algorithmes et/ou des petites mains (ou micro-tâcherons ou digital labors - dixit Antonio Casilli) du web social.


Une énième frontière de franchise qui éloigne d’avantage google de la neutralité.


Au bout d’un moment il est quand même bien de se poser la question, est-ce qu’on peut continuer comme ça? Si chaque internaute était capable d’avoir du recul sur l’information, de faire le tri entre le bon grain et l’ivraie et mettre de côté ses opinions politiques pour se concentrer sur les faits, on en serait pas là aujourd’hui… C’est dommage qu’un acteur majeur du web doive égratigner sa façon de gérer l’info, mais vu les proportions que ça prend.


Si seulement ces procédures, mises en place par Google, étaient transparentes et étaient réalisées avec de réelles intentions de salubrité de l’information, il n’y aurait rien à redire. Malheureusement, tout ça se fait dans les arrière-boutiques sans que rien ne soit public de ces algorithmes et de ces “autorités” de l’information vérifiée (partenariats? - choisies unilatéralement par Google? - qui sont nommément ces “autorités”?) et sans aucune assurance de la réactivité de Google en cas de signalement (comme écrit dans l’article).


Pour le coup, les algorithmes de google, ça a toujours été un secret et ça le restera longtemps… Concernant les “autorités”, ce serait bien qu’ils précisent ce qu’ils entendent par là, mais ce sont eux qui décident. Par contre le truc que je trouve con, c’est le morceau sur les infos “offensantes”, dans la mesure où aujourd’hui, tout le monde s’offense pour tout et n’importe quoi, ils sont pas sortis du sable…








Paratyphi a écrit :



Au bout d’un moment il est quand même bien de se poser la question, est-ce qu’on peut continuer comme ça? Si chaque internaute était capable d’avoir du recul sur l’information, de faire le tri entre le bon grain et l’ivraie et mettre de côté ses opinions politiques pour se concentrer sur les faits, on en serait pas là aujourd’hui… C’est dommage qu’un acteur majeur du web doive égratigner sa façon de gérer l’info, mais vu les proportions que ça prend.





https://reflets.info/google-et-facebook-versus-fakenews-de-la-fabrique-de-linfor…

Très bon exemple du danger de ce genre de procédé : le souci de bien faire est peut-être réel, mais la démarche dangereuse à cause des dérives. Qu’est-ce qu’un “fait alternatif”, une “fake news” ?

Si y a pas de soucis sur un article parlant des reptiliens (encore que ? vous avez vu les yeux de Macron ? :) ), j’ai plus de doutes quand il s’agit de santé humaine.



Avant Google Search renvoyait les sites les plus pertinents = ceux qui faisaient référence (les plus cités / visités).



Mais ca, c’était avant que Google ne s’intéresse a mon bien-être et ne décide de filtrer ce qui peut m’offenser et ce qui peut m’induire en erreur.



Merci Google.


Donc le nuage ne passe pas la frontière,

et il y a des armes de destructions massives en Irak.

G$\(gle et Faceb\)$k le disent, amen. <img data-src=" />



#radiolondres








psn00ps a écrit :



Donc le nuage ne passe pas la frontière,

et il y a des armes de destructions massives en Irak.

G$\(gle et Faceb\)$k le disent, amen. <img data-src=" />



#radiolondres





Justement, le nuage a passé la frontière (si, si, les mesures françaises le disent) et il n’y avait pas d’armes de destructions massives en Irak (là aussi, ce sont ce que les infos françaises ont dit à l’époque).



Sur le principe je suis totalement d’accord. Et qu’il existe un moyen de se protéger de ces actes&nbsp;détestables est une bonne chose. Mais je ne pense pas que cela soit la responsabilité d’un indexeur, encore moins privé.


Il y a quand même un vrai coté faux-cul de cette objectivité des algorithmes à la sauce Google. Il est bon de se rappeler des résultats de certains sur Youtube :&nbsp;Asselineau sur Youtube et leur résultats aux élections.

&nbsp;


Qu’aurait dit Google avec cet algorithme de recherche ?

Peut être “fake news”, et on imagine les conséquences.


Tant qu’on se limite à l’actualité visible (la terre est ronde) et aux infos vérifiables facilement (les chiffres du chômage par exemple) ça ne pose pas vraiment de problèmes. Quand on part sur des sujets plus pointus où dépendant d’une analyse scientifique, là part contre, je suis d’accord que le procédé perd en efficacité. Mais la plupart des “fake news” relayée sur les réseaux sociaux, concernent très souvent des infos facilement vérifiables et se limitent à des intox grossières.


D’où l’intérêt d’intégrer des médias indépendants et identifiés dans la boucle. Si on laisse l’initiative dans les seules mains des réseaux sociaux, le doute est permis. S’ils ne servent que de support et de plateforme technique pour de véritables journalistes, ça gagne en crédibilité. Sauf bien sûr pour ceux qui préfèrent alimenter leur biais de confirmation en s’abreuvant sur des sites partisans et bourrés d’intoxs…