Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Élection de Trump : influence ou innocence, le rôle de Facebook en questions

Les algorithmes au pilori
Internet 10 min
Élection de Trump : influence ou innocence, le rôle de Facebook en questions
Crédits : fotostorm/iStock

La diffusion massive d'informations erronées aurait contribué à l'élection de Donald Trump à la tête des États-Unis. Facebook, ses algorithmes et son modèle publicitaire ont rapidement été désignés comme principaux responsables. Qu'en est-il vraiment ? Nous avons compilé les critiques et en avons discuté avec le chercheur Antonio Casilli.

Le 8 novembre dernier, Donald Trump était élu président des États-Unis. Une surprise pour nombre de médias américains et français, qui avaient soutenu la candidate démocrate, Hillary Clinton. Au-delà des questions politiques que soulève cet événement, un phénomène a été montré du doigt : la montée d'une « nouvelle droite » dure (alt-right). Elle aurait été portée par la production d'actualités « bidons », diffusées massivement en ligne sans être régulées ou vérifiées.

Nous serions dans l'ère de la post-vérité, où la véracité d'un fait serait moins importante que sa capacité à confirmer notre vision du monde. Outre de sites politiques, ces contenus « bidons » proviendraient de sites dédiés, produisant en masse des articles accrocheurs pour vivre de la publicité. Ces contenus auraient été propulsés par les algorithmes des réseaux sociaux, mettant mécaniquement en avant les articles populaires.

De fausses informations et des « bulles de filtres »

Le Washington Post a d'ailleurs interrogé le propriétaire de plusieurs de ces sites « bidons ». Celui-ci pense avoir joué un rôle dans cette élection, notamment en créant de toutes pièces des événements, largement relayés sans être vérifiés. Ses articles ont d'ailleurs été mis en avant par des proches de Trump, et apparaissaient en bonne place sur Google, en plus des nombreux partages sur Facebook.

Avec Twitter, ce dernier aurait eu un rôle important dans la campagne, en filtrant à outrance les actualités et en maintenant les internautes dans « une bulle de filtres », masquant toute idée ou personne dissonante. L'hyper-personnalisation serait devenue un danger démocratique, d'abord nié par les producteurs des algorithmes, qui ont ensuite promis de s'amender.

Sur le fond, ces événements posent la question du rôle démocratique des plateformes et de la puissance prêtée aux algorithmes (qu'on les estime inoffensifs ou tout puissants). L'émergence récente du concept de « bulle de filtres » renvoie aux réflexions anciennes sur le rôle des médias, que Facebook ou Twitter seraient devenus, à part entière. Pour explorer le sujet, nous avons retracé le cours du débat et discuté avec Antonio Casilli, chercheur spécialiste des réseaux sociaux et du travail numérique.

Les réseaux sociaux accusés d'être des nids à informations « bidons »

Suite à l'élection, les plateformes en ligne ont été rapidement accusées d'avoir contribué à la montée de l'alt-right, en lui fournissant les outils pour étendre son influence et ses nombreuses approximations, voire mensonges répétés en boucle. De quoi déclencher une forte pression publique sur ces sociétés, dans les jours qui ont succédé au scrutin.

Selon une analyse de Buzzfeed News, sur Facebook, les 20 fausses actualités les plus populaires liées aux élections ont été bien plus partagées que les 20 venant de médias grand public. Les contenus de sites « bidons » auraient ainsi été diffusés 8,7 millions de fois, contre près de 7,4 millions de fois pour celles plus sérieuses. En clair, les sites d'hoaxes feraient leur beurre via Facebook.

Le 14 novembre, TechCrunch demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d'autres pays ». Pour le magazine, la plateforme « a eu un rôle important dans l'avènement de Donald Trump ». Elle n'aurait pas suffisamment agi contre les fausses actualités, étant certaines des plus lues et partagées, contribuant d'autant aux résultats financiers de la société californienne.

Une analyse partagée par The Guardian, qui estime que le réseau social n'a aucun intérêt à vraiment lutter contre ces contenus, dont le partage lui rapporte tant. Tout comme TechCrunch, le Washington Post estime surtout que Facebook doit assumer son rôle de média, et non de plateforme faussement neutre qu'elle voudrait se donner.

Des internautes enfermés dans des « bulles de filtres » ?

L'accusation principale reste : l'enfermement des internautes dans une « bulle de filtres », avec des personnes. Cette expression, démocratisée en 2011 par Eli Pariser, cofondateur d'Upworthy, vise à dénoncer l'influence présumée qu'a la personnalisation à outrance de l'information sur chacun de nous.

Après l'élection de Trump, selon Joshua Benton, directeur du Nieman Journalism Lab à Harvard, le premier réseau social mondial a « militarisé la bulle de filtres ». Pour lui, il devrait traiter différemment les contenus « de toute évidence faux », comme l'annonce que le pape François a soutenu le candidat républicain.

Comme nous l'explique le chercheur Antonio Casilli, la notion de « bulle de filtres » aurait un intérêt scientifique limité. Des concepts comme l'entre-soi, l'homophilie ou la chambre d'écho expriment des idées proches depuis des décennies. « C'est une métaphore qui a été popularisée par Eli Pariser, à des fins de mobilisation politique » affirme-t-il. En fait, « choisir de les appeler bulles de filtres, c'est porter un jugement. Un jugement qui ne m'aide pas particulièrement à comprendre ce qu'il se passe dedans ».

Le terme impliquerait que la situation n'a que des inconvénients. « Très souvent, lorsque l'on parle de bulles de filtres, on se limite à dire qu'elles existent et que c'est mal, ce qu'elles ne sont pas forcément » explique Casilli, pour qui il faut dépasser cette simple identification. Des questions comme le contenu de ces bulles, leur intérêt (partager une information ou être ensemble), leur évolution et les ponts entre ces différentes bulles sont « cruciales ».

Le graphe social et les phénomènes de réseaux 

À la base, il y a l'idée du graphe social : dans le réseau d'amis d'une personne, chacune est un nœud connecté à d'autres. Comme dans tout réseau, les liens sont bien plus denses dans certaines zones que dans d'autres. Ce sont ces communautés, cet « entre-soi », qui peuvent être appelées « bulles de filtres ».

Comme l'explique Antonio Casilli, avant même toute intervention logicielle d'un Facebook, il y a une tendance humaine à se rapprocher de ceux qui nous ressemblent. « Certains experts, autant de sciences politiques ou des sociologues, ont insisté sur le fait qu'une communauté soudée et dense peut, par exemple, se caractériser par de la solidarité » rappelle le chercheur.

Les « bulles de filtres », comme les chambres d'écho jusqu'ici, dirigent l'analyse vers la manipulation de l'information, et du vote qui en découle dans le cas de la dernière élection américaine. Quand la chambre d'écho (un concept de sciences politiques) se concentre sur l'information, la « bulle de filtres » se concentre sur la structure du réseau, qui serait réduit artificiellement.

Pourtant, « croire que l'échange avec des personnes de tous bords se met en place automatiquement est naïf » nous déclare Casilli. Pour lui, un phénomène contraire aurait joué : la spirale de silence. « Si vous savez qu'autour de vous, des personnes ne partagent pas votre opinion, vous auto-censurez vos avis politiques » résume-t-il. S'agissant d'une spirale, cette censure s'intensifie au fil du temps, avec des effets « désastreux » sur la vie politique d'un pays comme les États-Unis.

« Je me demande dans quelle mesure, plutôt que de parler de bulle de filtres, il faudrait parler de refroidissement de la conversation démocratique aux États-Unis. Malgré les déclarations outrancières de Trump, personne ne s'est efforcé de le démonter complètement d'un point de vue logique et politique » ajoute l'expert.

Selon une étude du sociologue Keith Hampton (PDF), le simple fait de connaître l'étendue de la surveillance de la NSA, suite aux révélations d'Edward Snowden en 2013, aurait eu un effet de refroidissement (chilling effect) sur cette parole politique. Plutôt que d'encourager le débat, cela aurait justement limité sa tenue sur les réseaux sociaux.

Les algorithmes sont-ils responsables ?

Pourtant, les principaux accusés sont les algorithmes des plateformes, qui trient l'information pour l'internaute. Pour Guillaume Chevillon, professeur en économétrie et statistiques, le filtre des algorithmes en matière d'actualité est « dangereux pour le débat démocratique ». Habituellement, ils constituent même une défense pour Facebook, évitant à des humains d'intervenir dans la sélection, qui seraient vraiment taillés pour chaque utilisateur.

Le cœur du débat est donc celui de l'influence réelle des algorithmes, certains estimant qu'ils sont tout puissants, quand d'autres ne leur prêtent aucune agentivité. Pour Antonio Casilli, se dire pour ou contre les algorithmes ne tient d'ailleurs pas à cette puissance présumée. Face à eux qui pensent qu'une influence sur les comportements est nuisible (algophobes), « pour certains techno-enthousiastes extrêmement proches de l'industrie, cette surpuissance peut être considérée comme une bonne chose » estime le chercheur.

Parmi ceux qui estiment que les algorithmes ne jouent pas un rôle déterminant dans les choix des internautes, il y a Facebook lui-même. Dans une étude en 2014, l'entreprise affirmait que, s'il existe bien un effet proche d'un enfermement algorithmique, il découle des choix de l'internaute, qui est le principal responsable. « Cette explication est complètement bidon » analyse sèchement Casilli, pour qui il existe un effet de mise en boucle entre les choix de l'utilisateur et ce que lui propose un algorithme, sur la base de critères prédéfinis.

« Sur 1 000 amis sur Facebook, si je vois toujours les mêmes, j'aurai tendance à penser que ce sont les seules personnes à utiliser le site. D'où cette illusion selon laquelle certains amis sont très actifs, quand les autres sont une majorité silencieuse. Alors qu'il s'agit surtout d'une majorité que l'algorithme déréférence et ne permet pas de voir à tout moment » détaille le spécialiste. Il faudrait donc manipuler la logique algorithmique, en interagissant sciemment avec des personnes plus éloignées, pour revoir cet effet. Autrement dit, il faut effectuer un effort supplémentaire et entrainer l'algorithme dans un autre sens. Autant de travail pour l'utilisateur.

« Croire que l'algorithme est tout puissant est vraiment un piège politique qui nous amène au pire de l'abdication à la résistance et à la négation. De l'autre côté, laisser faire l'algorithme, en disant que l'utilisateur est toujours responsable, est une injonction contradictoire, désastreuse dans d'autres domaines de la vie politique » poursuit-il. Sur-responsabiliser les utilisateurs serait une manière de dédouaner les concepteurs et les propriétaires des algorithmes, y compris le but et les critères qu'ils lui donnent. « L'algorithme n'existe pas, c'est toujours le choix d'un autre » résume Casilli.

Des actions promises contre les sites d'actualités « bidons »

Deux jours après l'élection, Mark Zuckerberg a d'abord nié toute influence de Facebook sur l'élection. Selon lui, les actualités « bidons » sont une part minime des contenus diffusés, et qu'« il faut un grand manque d'empathie pour penser que des gens ont voté Trump uniquement à cause d'actualités bidons ». De même, déterminer la véracité d'un contenu peut être difficile, notamment sur les questions politiques.

Il reste que les nombreuses mises en cause publiques ont porté leurs fruits. À la mi-novembre, Facebook et Google ont annoncé qu'ils refuseront d'afficher des publicités sur des sites diffusant de fausses actualités. Une action forte, censée éliminer l'incitation à créer de faux contenus « à clic », de la part des deux principales plateformes publicitaires du Net... qui vivent elles-mêmes du trafic de ces sites.

Le 18 novembre, Mark Zuckerberg a fourni un plan pour lutter contre ces contenus. Cette fois, il dit prendre « la désinformation au sérieux » et affirme que Facebook a une responsabilité dans l'information. « Nous ne voulons pas devenir des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance » explique-t-il.

Concrètement, le réseau social doit mettre en place une meilleure détection de ces contenus, faciliter leur signalement et s'aider de la vérification de tiers de confiance en matière de fact-checking. Il compte aussi afficher des avertissements si un contenu est signalé comme faux, à la lecture ou au partage, en plus d'améliorer la qualité des contenus présents dans le flux d'actualité et de « décourager économiquement les fausses informations ». Cela dans un dialogue constant avec les médias. L'entreprise bat publiquement sa coulpe sur le sujet.

Facebook peut donc difficilement continuer à s'affirmer neutre. « Depuis dix ans, il cherche à se déresponsabiliser, à se présenter comme une entreprise parmi d'autres qui a un rôle modeste dans un monde qui change. C'est une attitude indéfendable, surtout après la manière dont Facebook s'est imposé comme intermédiaire d'information, avec des responsabilités » réagit Antonio Casilli.

324 commentaires
Avatar de yvan Abonné
Avatar de yvanyvan- 23/11/16 à 08:52:06

Très intéressant, j'étais complètement passé à côté de ça.

Juste pour le lol (et pour évaluer le niveau de gravité du bidule), y aurait il moyen d'avoir des liens vers les 20 contenus bidons influençant en faveur de trump les plus diffusés via facebook qui sont évoqués dans l'article stp?

D'avance merci, cordial bisous tout ça :transpi:

Avatar de NeedSumSleep INpactien
Avatar de NeedSumSleepNeedSumSleep- 23/11/16 à 08:53:11

Franchement je ne pense pas que sa soit à Facebook ou twitter ou autre à réguler le contenu, l'information vérifié existe sur internet...il suffit juste de la chercher si les gens prenaient juste le temps de réfléchir à utiliser leur esprit critique en lisant une information/un texte se problème n'existerait pas !

Le plus grand mal de l'homme est et sera toujours la paresse intellectuel il faut arrêter de se dédouaner peut importe les filtres ou autres algorithme si on prend le temps de réfléchir on peut démêler le vrai du faut!
Mais voila les gens prennent n'importe quel infos pour argent comptant...en un sens l'élection de Trump c'est un peu la faillite du système éducatif américain on apprend pas au gens à réfléchir et à avoir l'esprit critique....

Édité par NeedSumSleep le 23/11/2016 à 08:53
Avatar de maestro321 INpactien
Avatar de maestro321maestro321- 23/11/16 à 08:53:17

La lutte contre la fausse information.. initiative louable.. tant que ça ne vire pas à la censure mais seulement au signalement ça peut peut-être être intéressant.

Par contre comment ils vont faire comment luter contre la diffusion d'études scientifique non indépendantes (en particuliers dans le domaine de l'agroalimentaire, la santé, les énergies etc..) dont ils est régulièrement prouvé quelle sont en grande partie faussées/biaisée/incomplètes/incorrectes? :popcorn:
http://information.tv5monde.com/info/la-fabrique-des-etudes-scientifiques-46677

Édité par maestro321 le 23/11/2016 à 08:54
Avatar de jackjack2 Abonné
Avatar de jackjack2jackjack2- 23/11/16 à 08:56:16

Je suis vraiment pas d'accord.
Voter c'est une responsabilité personnelle, ça implique de se bouger pour se renseigner sur celui que l'on veut comme représentant. C'est trop facile sinon.

On a pris le train de la déresponsabilisation depuis trop longtemps, et on accélère encore! Arrêtons ça

Avatar de Ami-Kuns INpactien
Avatar de Ami-KunsAmi-Kuns- 23/11/16 à 09:01:31

Bientôt en France aussi, il suffira de claquer au moins une centaine de millions pour se faire élire.:transpi:

Avatar de CreaYouz INpactien
Avatar de CreaYouzCreaYouz- 23/11/16 à 09:01:52

L'algo de FB et une horreur à mon gout, c'est vraiment un enfermement sur quelques "amis" où tu n'as plus le choix de ce que tu voie au premier abord.

 Après si on est attentif, on comprend vite comment fonctionne la base. Un clic sur un nom pas vus depuis longtemps, sur sa page, et hop ça reprend de la force pour mieux apparaitre dans  le fil d'actu.

Comme un "ami" pas vu

De base j'ai toujours eu du mal qu'on trie les informations pour moi, quand c'est si visible et si mal fait c'est vraiment pas top... Mais bon donner le choix à l'internaute c'est has been, mieux vaux un bon algo bien brutal qui va te dire ce que t'as le droit de voir ...

Sinon Google devrait peut être revoir un peux son analitycs pour virer le spam !

Sur un ID analitycs dédié au spam pour mes filtres perso je retrouve quand même des

[quote]Secret.ɢoogle.com You are invited! Enter only with this ticket URL. Copy it. Vote for Trump![quote] :mdr2:

Avatar de stephane.p Abonné
Avatar de stephane.pstephane.p- 23/11/16 à 09:05:06

Je ne suis pas de ton avis.

Les internautes sont submergés d'informations, et il est impossible de tout vérifier. Ok, parfois c'est tellement évident qu'un minimum de réflexion suffit, mais lorsque ça touche à des domaines qu'on ne maitrise pas du tout, on peut se faire avoir.

C'est justement en signalant qu'un contenu est potentiellement faux qu'on peut pousser les gens à chercher un autre point de vue si le sujet les intéresse.

Avatar de Jarodd INpactien
Avatar de JaroddJarodd- 23/11/16 à 09:12:04

Des exemples d'actu bidons ? Histoire de juger...

SinonTL;DR : Facebook c'est mal :devil:

Avatar de Liara T'soni INpactien
Avatar de Liara T'soniLiara T'soni- 23/11/16 à 09:15:19

"Les réseaux sociaux accusés d'être des nids à informations « bidons »"

 Nooooooooon sans dec ! J'être choqué !

Avatar de jackjack2 Abonné
Avatar de jackjack2jackjack2- 23/11/16 à 09:22:26

Tout vérifier, effectivement impossible.
Là on est dans l'extrême inverse.

Mais admettons, donc la réponse c'est "on garde les algos qui enferment mais on signale les articles supposément faux"?
Super, comme ça les gens penseront que tout ce qu'ils voient et qui ne sera pas signalé sera forcément vrai.
Qui décrétera au final la véracité ou non des articles?
Qu'est-ce qui empêchera le gouvernement US (ou autre) d'obliger sans le rendre public les plateformes à signaler comme suspicieux les articles sur les choses gênantes (type Snowden, Wikileaks, entre beaucoup d'autres)?

Édité par jackjack2 le 23/11/2016 à 09:23
Il n'est plus possible de commenter cette actualité.
Page 1 / 33