Facebook en pleine polémique suite à son expérience sur 689 000 personnes

Facebook en pleine polémique suite à son expérience sur 689 000 personnes

1984 style

Avatar de l'auteur
Nil Sanyas

Publié dans

Internet

01/07/2014 6 minutes
66

Facebook en pleine polémique suite à son expérience sur 689 000 personnes

Une étude révélée récemment fait polémique. Organisée dans le dos de 689 003 membres de Facebook il y a deux ans et demi, l'étude a consisté en une modification de l'affichage prioritaire des statuts dans le flux des utilisateurs. Certains ont ainsi affiché plus de publications positives, et d'autres plus de statuts négatifs. Et selon les chercheurs, cela a bien influé (légèrement) sur leur comportement. La manipulation n'est toutefois pas du goût de tout le monde, notamment outre-Atlantique.

« Les émotions exprimées par d'autres sur Facebook influencent nos propres émotions »

Sur Facebook, il est possible d'afficher sur son flux les statuts de ses amis de deux façons différentes : soit chronologiquement (du plus récent au plus ancien) soit d'une façon un peu plus aléatoire, certains statuts plus anciens de quelques heures pouvant s'afficher avant d'autres pourtant plus récents. Dans ce dernier cas, le réseau social réalise un tri en fonction de diverses priorités, basées sur les préférences et les habitudes de l'utilisateur.

 

Ce flux, pour des questions d'expérience, a donc été manipulé par Facebook pour 689 003 personnes au début de l'année 2012. L'objectif était de démontrer que « les états émotionnels peuvent être transférés à d'autres personnes par une contagion émotionnelle, conduisant les gens à éprouver les mêmes émotions sans en avoir conscience ». En somme, si l'on fait face à des statuts globalement positifs, nous aurons plus de chance de publier nous-mêmes des contenus joyeux. A contrario, une personne face à des statuts négatifs suivra le même chemin et sera donc encline à publier des messages loin d'être positifs.

 

Plus précisément, l'expérience a voulu exclure les interactions et vérifier si le transfert d'émotion était possible uniquement via l'affichage du contenu. Pour Adam D. I. Kramer (de Facebook), Jamie E. Guillory de l'Université de Californie et Jeffrey T. Hancock de l'Université de Cornell, ces résultats prouvent que « les émotions exprimées par d'autres sur Facebook influencent nos propres émotions, constituant la preuve expérimentale de contagion via les réseaux sociaux ».

Pas besoin d'interaction pour avoir une influence

Pour les trois auteurs de l'étude, les résultats permettent aussi une deuxième conclusion : « Ce travail suggère également que, contrairement aux hypothèses actuelles, l'interaction en personne et des indices non verbaux ne sont pas strictement nécessaires à la contagion émotionnelle, et que l'observation des expériences positives des autres constitue une expérience positive pour les gens. »

 

Concernant la manipulation du flux des centaines de milliers de « cobayes » sur Facebook, l'étude indique que des contenus (positifs ou négatifs, selon les cas) ont été omis sciemment dans l'affichage principal. Néanmoins, ledit contenu n'a pas été supprimé pour autant tient-on à rassurer. Non seulement il était possible de le visionner en regardant les comptes personnels des amis, mais il s'affichait aussi dans le flux, plus bas. Qui plus est, « l'expérience n'a pas eu d'incidence sur les messages directs envoyés d'un utilisateur à un autre » tient absolument à faire remarquer l'étude.

 

Facebook etude

 

Le tri a pour sa part été réalisé automatiquement en fonction des mots utilisés dans les statuts. Ces derniers n'ont donc pas été lus par les chercheurs. Au regard de la quantité de personnes prises comme « cobayes », seule une automatisation de l'expérience était de toute façon possible. Pour des questions pratiques et techniques, seules des individus anglophones ont par contre été concernés par les modifications de leurs fluxs, vous n'avez donc pas été touchés. Il est enfin précisé que les modifications n'ont eu lieu que pendant une semaine (entre le 11 et le 18 janvier 2012) et les personnes visées ont été choisies au hasard, ceci en fonction de leur ID. Au total, plus de 3 millions de messages ont été analysés, comprenant plus de 120 millions de mots. Mais seulement 4 millions étaient positifs et 1,8 million négatifs.

Vive polémique outre-Atlantique

Si l'expérience est ancienne, la publication de ses conclusions est néanmoins récente, d'où les réactions tardives de la presse sur le sujet. De l'autre côté de l'Atlantique, principal lieu où étaient situés les cobayes, l'étude fait néanmoins polémique. Slate estime ainsi qu'il s'agit d'une expérience immorale. Le site américain se plaint qu'il n'y ait pas eu de consentement réel de la part des utilisateurs de Facebook, les chercheurs se contentant de déclarer qu'ils ont respecté la politique d'utilisation des données du réseau social. Politique acceptée par les membres de Facebook lors de leur inscription.

 

Slate note de plus que la méthodologie opérée « soulève de graves questions éthiques ». Même son de cloche du côté de Business Week (Bloomberg), qui estime que tous les réseaux sociaux sont concernés et que nous ne sommes au courant que du fait de la publication des conclusions de l'étude. Mais qui ne nous dit pas que de telles expériences internes n'ont pas été réalisées dans notre dos, sans que nous n'en sachions rien, soit par Facebook à d'autres moments, soit par d'autres réseaux équivalents ?

 

Facebook sondage Today

 

On peut de plus se demander si de telles manipulations ne pourraient pas être appliquées pour des contenus bien plus importants, politiques ou économiques par exemple. La question mérite d'être posée et laisser un réseau trier de soi-disant « meilleurs statuts » à notre place est certainement la problématique principale ici. Today a d'ailleurs interrogé ses lecteurs sur la possibilité de la part de Facebook de contrôler le flux principal. Les réponses à l'heure où nous rédigeons ces lignes sont sans équivoques : sur plus de 87 000 réponses, 90 % étaient contre, 10 % pour. Mais tous les utilisateurs de Facebook ont-ils déjà conscience de tout ceci ?

 

Sur sa page Facebook, Adam D.I. Kramer, l'un des auteurs de l'étude, a tenu à s'expliquer suite à la montée de la polémique. Il a notamment fait valoir que le but des recherches était uniquement d'offrir un meilleur service. Mais il s'est surtout excusé non pas d'avoir réalisé cette étude, mais des conséquences médiatiques actuelles : « Après avoir rédigé et mené cette expérience moi-même, je peux vous dire que notre objectif n'était en aucun cas de déranger qui que ce soit. Je peux comprendre pourquoi certaines personnes ont des préoccupations à ce sujet, et les co-auteurs et moi-même sommes vraiment désolés pour la façon dont le papier a décrit la recherche et l'anxiété causée. Avec le recul, les avantages de la recherche du document ne peuvent pas justifier toute cette angoisse. »

Écrit par Nil Sanyas

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« Les émotions exprimées par d'autres sur Facebook influencent nos propres émotions »

Pas besoin d'interaction pour avoir une influence

Vive polémique outre-Atlantique

Commentaires (66)


Fallait lire les petites lignes… <img data-src=" />








tAran a écrit :



Fallait lire les petites lignes… <img data-src=" />







J’imagine que ceux qui les ont lues n’utilisent pas fb <img data-src=" />









Gab& a écrit :



J’imagine que ceux qui les ont lues n’utilisent pas fb <img data-src=" />





Loin de moi l’idée d’en faire une généralité <img data-src=" />



A leurs habitudes, les américains dramatisent et réagissent de façon impulsive.

On est loin d’un Prism, ici il n’y a rien d’invasif, juste un test qui, au pire, changeait un newsfeed, le truc le plus insignifiant par rapport à des données personnelles.


Combien parmi les indignés jurent par ailleurs qu’ils ne sont pas influencés par la pub ? <img data-src=" />



On pourrait penser que ceux qui s’inscrivent sur Facebook méritent qu’on les manipule.


Adieu Facebook !



<img data-src=" />



Erf, c’est vrai, je n’ai plus de compte depuis des années…



<img data-src=" />


Autant je n’aime pas facebook et je n’y suis pas, autant, je ne comprend pas la polémique.



Il est logique et normal que Facebook fasse des tests de pertinence dans les infos qui sont affichées. A vrai dire, tout les sites font ce genre de tests. !?

La seule chose qui puisse leur être reprochée c’est que c’était à l’insu de l’utilisateur.

Mais encore une fois, les gens ont approuvé les conditions d’utilisation…



Là, facebook fait des tests sur les status, mais lorsqu’ils font des tests avec la publicité (qui est ciblée rappelons-le), je suis certain qu’ils doivent aussi observer des tendances, et ça c’est accepté.<img data-src=" />




Une étude révélée récemment fait polémique. Organisée dans le dos de 689 003 membres de Facebook il y a deux ans et demi





plus précisément dans le bas du dos <img data-src=" />


C’est clair que la polémique, je me demande aussi pourquoi ils en font une…



Rien de bien choquant là-dedans. <img data-src=" />








matroska a écrit :



Adieu Facebook !



<img data-src=" />



Erf, c’est vrai, je n’ai plus de compte depuis des années…



<img data-src=" />



ça veut dire que t’en as déjà eu un <img data-src=" />



Ce genre de “test” est monnaie courante pour la publicité, et je doute que l’on prenne le temps “d’informer” l’utilisateur avant.





<img data-src=" />








A33 a écrit :



Combien parmi les indignés jurent par ailleurs qu’ils ne sont pas influencés par la pub ? <img data-src=" />





Je suis sûr Kia pas d’influence parce que la pub est pas assez Ford pour l’Esprit.









Zorglob a écrit :



ça veut dire que t’en as déjà eu un <img data-src=" />







Ouais, j’étais un mécréant il y a des années, mais ça c’était avant…



<img data-src=" />



<img data-src=" />




J’ai un compte Facebook, fouetter moi !

<img data-src=" />


Comme d’autres avant, ça ne me semble pas si dramatique pour le coup. J’imagine que plein d’autres boites ne se gênent pas pour faire des tests grandeur nature de ce genre en toute opacité, que ce soit pour la publicité ou simplement pour améliorer des algorithmes, etc.



Et puis Facebook c’est typiquement le site où on est déjà un rat de laboratoire à partir du moment où on s’inscrit dessus, puisque le modèle commercial implique que tout soit analysé pour personnaliser les publicités.



Tant que c’est bien sale et bien opaque tout le monde s’en fout, mais dès que c’est une étude plus sociologique et avouée alors là levée de boucliers !



Ok, paye ta logique… <img data-src=" />


bah oui, tout va bien dans le meilleur des mondes !



Peut être que quand quelqu’un divulguera un programme de recherche équivalent pour l’armée américaine qui lui permet d’influencer directement les utilisateurs de FB ce sera plus grave ?



Je sais pas, par exemple, pouvoir insérer des infos sur les réseaux sociaux pour participer à l’engouement général en vue de l’invasion d’un pays lointain, refuge de méchants terroristes et d’armes de destruction massives…



si ça se trouve FB vend cher ce genre de manipulations aux grosses sociétés en pipeautant les réactions, les tweets, les publications pour les mettre en avant de manière positive et discrète ?



tout est possible ma bonne dame !








maestro321 a écrit :



Il est logique et normal que Facebook fasse des tests de pertinence dans les infos qui sont affichées.



ça n’est pas un test de pertinence, c’est un test dont le principe est le suivant “si j’affiche en priorité des infos négatives ou des infos positives dans le flux d’actualité d’une personne, est-ce que j’arrive à influencer l’état d’esprit de cette personne?”



réponse : oui (logique)



sauf que je fais ce test sans prévenir personne et je joue avec l’état d’esprit de plus de 600.000 personnes



super pour les x % de déjà déprimés que Facebook a enfoncé encore un peu plus en les utilisant comme des souris de labo



je comprend parfaitement que ce genre de test ne soit pas bien perçu, et également que les utilisateurs souhaitent que Facebook ne fasse pas des choix d’affichage des actualités sur des critères obscurs et non profitables à l’utilisateur (là ce sont même des critères nuisibles)









picatrix a écrit :



plus précisément dans le bas du dos <img data-src=" />





<img data-src=" />









after_burner a écrit :



Ce genre de “test” est monnaie courante pour la publicité, et je doute que l’on prenne le temps “d’informer” l’utilisateur avant.

<img data-src=" />





Pas que dans la publicité, c’est couramment utilisé dans les apps, sur les sites web etc. cela s’appelle de l’A/B testing. Deux groupes d’utilisateurs sélectionnés aléatoirement ne voient pas exactement le même site web. Cela permet d’améliorer l’expérience utilisateur en repérant les points qui bloquent, les pages inutiles. Cela permet également de savoir ce qui marche d’un point de vue CRM (le design de page qui pousse le plus à l’achat etc.).

Par contre les conclusions avec des différences de 0.1-0.2%, j’ai envie de dire “Waow”, heureusement que le sample est grand quoi, mais est-ce-que les facteurs de désirabilité social ont été inclus? Où est-ce-qu’on ne mesure pas juste un halo?



l’observation des expériences positives des autres constitue une expérience positive pour les gens.



Pour tirer ça comme conclusion avec les résultats qu’ils ont, faut être culotté quand même.









PermaBananaed a écrit :



Je suis sûr Kia pas d’influence parce que la pub est pas assez Ford pour l’Esprit.





subtil <img data-src=" />









darthbob a écrit :











C’est le principe de la propagande en politique, si tu fait pas l’effort de faire abstraction des avis extérieurs tout en les lisant, tu sera toujours influencé, par fb ou autre.



On est tjs plus ou moins influencé en plus.









lomic2 a écrit :



sauf que je fais ce test sans prévenir personne et je joue avec l’état d’esprit de plus de 600.000 personnes









je comprend parfaitement que ce genre de test ne soit pas bien perçu, et également que les utilisateurs souhaitent que Facebook ne fasse pas des choix d’affichage des actualités sur des critères obscurs et non profitables à l’utilisateur (là ce sont même des critères nuisibles)



Bha justement quelle différence avec la publicitée ciblée?

Tu crois que facebook ne fait pas des études comportementale de ses utilisateurs suite à la diffusion d’une campagne de pub ciblée?









maestro321 a écrit :



Bha justement quelle différence avec la publicitée ciblée?

Tu crois que facebook ne fait pas des études comportementale de ses utilisateurs suite à la diffusion d’une campagne de pub ciblée?



y’a une différence entre publicité ciblée “ah tiens telle campagne a mieux fonctionné sur telle cible que sur telle autre” et la manipulation



c’est quoi le test suivant sur FB? “si on affichait en priorité le contenu pro-républicains sur le public pro-républicain?” et ça peut aller bien plus loin…



que Facebook cible ses campagnes de pub pour maximiser ses profits, c’est logique, mais qu’il joue à l’apprenti sorcier en manipulant les utilisateurs au travers d’un flux d’actualité coloré intentionnellement et non neutre, je pense qu’ils franchissent la limite




Et si il y avait un ou des morts ?

On verse des millions à la famille, une paille ! C’était peut-être déjà provisionné <img data-src=" />








lomic2 a écrit :



y’a une différence entre publicité ciblée “ah tiens telle campagne a mieux fonctionné sur telle cible que sur telle autre” et la manipulation



c’est quoi le test suivant sur FB? “si on affichait en priorité le contenu pro-républicains sur le public pro-républicain?” et ça peut aller bien plus loin…





Non mais c’est déjà le cas hein, c’est pour ça que FB est riche… <img data-src=" />









matroska a écrit :



Ouais, j’étais un mécréant il y a des années, mais ça c’était avant…



<img data-src=" />



<img data-src=" />





ça aurait pu être pire …t’aurais pu avoir un Skyblog <img data-src=" />









lomic2 a écrit :



y’a une différence entre publicité ciblée “ah tiens telle campagne a mieux fonctionné sur telle cible que sur telle autre” et la manipulation.





Ha bon?

Moi j’y vois manipulation des utilisateurs pour maximiser les profit (de FB et de l’annonceur).<img data-src=" />







lomic2 a écrit :



c’est quoi le test suivant sur FB? “si on affichait en priorité le contenu pro-républicains sur le public pro-républicain?” et ça peut aller bien plus loin…





Quand c’est dans un but commercial, c’est accepté, par contre quand c’est politique on a pas le droit de manipuler les utilisateurs?









lomic2 a écrit :



que Facebook cible ses campagnes de pub pour maximiser ses profits, c’est logique, mais qu’il joue à l’apprenti sorcier en manipulant les utilisateurs au travers d’un flux d’actualité coloré intentionnellement et non neutre, je pense qu’ils franchissent la limite





Où est la limite entre publicité et propagande.



Perso, je n’en vois pas vraiment.<img data-src=" />



Croire que les intérêts économiques/commerciaux sont déliés des intérêts politique, c’est n’avoir rien compris à nos sociétés modernes.<img data-src=" />









A33 a écrit :



On pourrait penser que ceux qui s’inscrivent sur Facebook méritent qu’on les manipule.





Alors ça, pour une réflexion idiote…



Question à la con : Comment détectent ils qu’un statut est positif ou négatif ?

Ils ont un algo ?



Ca doit être galère vu que pas mal doivent parler en “internet slang”, et que de façon générale personne ne s’exprime de la même manière



Du coup si on suppose que cet algo fonctionne assez bien, cela veut-dire que FB peut facilement détecter quelqu’un qui déprime où est de bonne humeur ?

Ca commence à faire pas mal d’info sur notre comportement <img data-src=" />


Mais vous découvrez le fonctionnement de FB ou quoi ? <img data-src=" />








lomic2 a écrit :



super pour les x % de déjà déprimés que Facebook a enfoncé encore un peu plus en les utilisant comme des souris de labo







Je suis assez d’accord : On est à l’extrème limite puisque l’on parle de la contagion des émotions

J’aimerai en savoir plus sur ce qu’ils entendent par statuts positifs ou non



attention, révélation de ouphe :



La rédaction d’un article, son titre, influencent le comportement du lecteur.



Salauds de manipulateurs !!!!! <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



<img data-src=" />







sans dec, on serait influencé par ce qu’on nous met devant les yeux ?


il ne manquerait plus que Facebook mette en avant la pub en analysant les profils et comportement des utilisateurs…



ah, on me dit à l’oreillette que….



<img data-src=" />








Reznor26 a écrit :



Mais vous découvrez le fonctionnement de FB ou quoi ? <img data-src=" />





+1.

En même temps si l’objectif de l’étude est d’augmenter la joie de vivre du monde, il me semble que c’est une bonne chose… A part pour les 350 000 personnes qui ont reçu des posts négatifs pendant quelques mois <img data-src=" />



Mais bon, à partir du moment où on est sur facebook, il faut assumer!









lomic2 a écrit :



y’a une différence entre publicité ciblée “ah tiens telle campagne a mieux fonctionné sur telle cible que sur telle autre” et la manipulation



que Facebook cible ses campagnes de pub pour maximiser ses profits, c’est logique, mais qu’il joue à l’apprenti sorcier en manipulant les utilisateurs au travers d’un flux d’actualité coloré intentionnellement et non neutre, je pense qu’ils franchissent la limite





une pub aussi modifie le flux intentionnellement de manière non neutre, ça fait des lustre que les publicitaires vérifient les ‘émotions’ de ce qu’il diffusent (reste à prouver dans quelle mesure le statut reflète réellement une émotion), le test du khi deux existe depuis existe depuis 1900, bienvenue dans le monde réel.

Les gens s’indignent car facebook mesure une émotion au lieu d’une audience, pourtant ça ne change strictement rien dans la mise en oeuvre de l’expérience.

Et ce genre d’expérience tout le monde en subit quotidiennement, tout les gros sites mesurent en permanence leur performances via des test transparents pour l’internaute.







Sigma42 a écrit :



Question à la con : Comment détectent ils qu’un statut est positif ou négatif ?

Ils ont un algo ?



Ca doit être galère vu que pas mal doivent parler en “internet slang”, et que de façon générale personne ne s’exprime de la même manière



Du coup si on suppose que cet algo fonctionne assez bien, cela veut-dire que FB peut facilement détecter quelqu’un qui déprime où est de bonne humeur ?

Ca commence à faire pas mal d’info sur notre comportement <img data-src=" />







oui un algo, mais un simple dictionnaire suffit, pas grave si c’est pas fiable à 100% tant que c’est suffisant pour faire du concret, les 0.001% qui l33t ne pesent pas grand chose dans la balance, surtout quand on à disposition quelque centaine de millions de gens “normaux”.



Facebook sait très bien exploiter toute les informations que tu as sciemment posté,

La ou c’est fort c’est qu’il peuvent en déduire des informations que tu n’a jamais posté.

Il serait assez réaliste par exemple de pouvoir prédire que tu es cocu avant que toi-même tu sois au courant.



Alors comme ça les chercheurs réinventent le fil à couper le beurre et les médias se la jouent faussement oie blanche.



L’évidence est déjà connu que les médias modidient nos comportements. Je n’y vois rien de nouveau. Le conditionnement pour faire accepter les américains d’aller en Irak par exemple. Les conditionnements qui ont fait voter 25% au fn par la peur au quotidien mise en avant par les médias.



Bref. Rien de nouveau sous le soleil.








fusion_sadam a écrit :



Les gens s’indignent car facebook mesure une émotion au lieu d’une audience, pourtant ça ne change strictement rien dans la mise en oeuvre de l’expérience.

Et ce genre d’expérience tout le monde en subit quotidiennement, tout les gros sites mesurent en permanence leur performances via des test transparents pour l’internaute.

toi-même tu sois au courant.







Ils ne font pas que mesurer justement…

Sachant que certaines personnes sont assez influençables, voir facilement dépressives j’aimerai avoir plus de détails sur cete expérience



Et j’oubliais effectivement la pub qui nous conditionne aussi. Et le conditionnement familiale, etc…



libre arbitre? Hehehe.








Sigma42 a écrit :



Ils ne font pas que mesurer justement…

Sachant que certaines personnes sont assez influençables, voir facilement dépressives j’aimerai avoir plus de détails sur cete expérience







si, la différence avec un test “classique” de pub c’est juste qu’il mesurent pas la même chose.

les personnes sont “manipulées” de la même manière au finale.



oups à effacer.


Je pensais que c’était un bug d’affichage… <img data-src=" />


bah en lisant en diagonale, l’étude porte surtout sur les mécanisme de l’empathie (ou de la sympathie pour être plus juste)

FB sert juste d’échantillon et de zone de test.



Ne pas prévenir les utilisateurs est pertinent scientifiquement (pour ne pas influencer leur comportement) mais discutable éthiquement.



(Que les résultat de l’étude soient utilisés pour la pub, pourquoi pas - probablement même - mais ce n’est pas le sujet de l’étude elle-même)


C’est toujours intéressant de connaître la nature et le comportement humain, perso ça ne me choque aucunement.








tAran a écrit :



Fallait lire les petites lignes… <img data-src=" />





Faut déjà avoir un cerveau pour lire les petites lignes.<img data-src=" />









seblutfr a écrit :



Alors ça, pour une réflexion idiote…





Moi je trouve pas. A l’heure d’INternet, l’ignorance est volontaire et mérite sanction.









seblutfr a écrit :



Alors ça, pour une réflexion idiote…





Les pratiques douteuses de Facebook ne sont pas nouvelles. S’indigner de ces pratiques et rester sur Facebook, c’est avoir choisi son malheur.



Plusieurs points méritent tout de même réflexion et pas de simplement se cantonner à “oui ben ce sont des idiots sur FB, ils l’ont bien cherché!”.





  1. L’éthique aux US implique que des tests ne peuvent être fait sans le consentement, à l’INsu des cobayes. Sur ce point, FB se retranche simplement derrière sa politique d’utilisation des données pour se défendre.

  2. FB a sciemment faussé des publications sur les timelines. Cela signifie donc que nous ne pouvons vraiment pas nous fier à ce qui y apparait puisque sujette à modification/manipulation en un tour de main.

  3. Peut-être minime mais impacter négativement le comportement ou l’état d’esprit de ses membres au risque, qui sait, pour certain de s’enfoncer encore plus (je sais j’exagère, je grossis volontairement le trait!).



    Bref… ils ont franchi la ligne jaune… rien de mal au niveau règlement mais éthiquement discutable!



    Au final, une tempête dans un verre d’eau! <img data-src=" />








Ricard a écrit :



Faut déjà avoir un cerveau pour lire les petites lignes.<img data-src=" />





Ou alors de très bonnes lunettes ou savoir utiliser les options mobilités de son ordi <img data-src=" />









frikakwa a écrit :





  1. FB a sciemment faussé des publications sur les timelines. Cela signifie donc que nous ne pouvons vraiment pas nous fier à ce qui y apparait puisque sujette à modification/manipulation en un tour de main.







    Non la timeline n’est pas modifié, c’est juste certain post qui sont omis dans le flux.

    De toute façon personne ne sait exactement comment facebook construit ce flux.



Pour qui conque s’y connait en statistique cette étude n’est qu’une grosse farce.



Les différentes tailles de l’effet de leur expérience sont de 0.001, 0.008 et 0.02.



Dites-vous qu’une différence de 0.2 est considérée comme faible selon Cohen, alors 0.001 devrait être considéré comme infiniment faible (bien que dans d’autres domaines comme la médecine, selon les implications une taille de l’effet plus faible pourrait montrer des résultats cliniquement significatifs et utiles).



L’interprétation qu’ils font de cette faible taille de l’effet est elle aussi ridicule et ne rejoint pas réellement les propos des auteurs qu’ils citent. Il est donc faux de dire que l’émotion sur Facebook influence les émotions des autres selon les données présentées. Je ne dis pas que cet effet n’existe pas, simplement que les résultats ne permettent pas d’entrevoir cette conclusion.



Bref encore une autre preuve de l’échec de bons nombres de chercheurs en science sociale à comprendre que la puissance d’un test p statistique n’implique aucunement que celui-ci a une portée théorique utile.





<img data-src=" />








lomic2 a écrit :



c’est quoi le test suivant sur FB? “si on affichait en priorité le contenu pro-républicains sur le public pro-républicain?” et ça peut aller bien plus loin…







C’est déjà ce que fait Google : si on est connecté à son compte pour les recherches, ils y associent toutes celles effectuées + Gmail si on passe par eux + Google+ et Youtube… afin de définir un profil très complet et de personnaliser les résultats du moteur en fonction de nos préférences. Au risque de perdre de la diversité d’infos.







fusion_sadam a écrit :



Il serait assez réaliste par exemple de pouvoir prédire que tu es cocu avant que toi-même tu sois au courant.







C’est déjà le cas, et même plus facile qu’on ne le croit : Facebook sait (pour la plupart des usagers qui l’ont renseigné) avec qui on est éventuellement en couple, il sait aussi à qui et de quoi parle notre conjoint(e) et potentiellement peut même deviner avec une probabilité effrayante qu’on est ou sera cocu bien avant qu’on le sache nous-même…



1984 <img data-src=" />









frikakwa a écrit :





  1. Peut-être minime mais impacter négativement le comportement ou l’état d’esprit de ses membres au risque, qui sait, pour certain de s’enfoncer encore plus (je sais j’exagère, je grossis volontairement le trait!).







    Je pense pareil, je suis étonné que personne ne réagisse sur ce point

    Là on ne manipule pas le contenu d’un site (certains ici ont fait ce parallèle), mais le contenu des publication de vos proche cela ne me semble pas du tout la même chose…









fusion_sadam a écrit :



Non la timeline n’est pas modifié, c’est juste certain post qui sont omis dans le flux.

De toute façon personne ne sait exactement comment facebook construit ce flux.





Omettre des flux, ce n’est pas modifier!? ok alors… excuse-moi… j’avais mal compris! <img data-src=" />









A33 a écrit :



On pourrait penser que ceux qui s’inscrivent sur Facebook méritent qu’on les manipule.





Quelle fine analyse…



De mon côté c’est ma famille qui m’y a poussé, pour leurs délires.

Personnellement j’aurai été un mauvais sujet à leur étude, je déteste que fb trie à ma place, je retrie toujours par chronologie. Et même là, j’ai conscience que fb filtre certains messages car je n’ai pas assez “liké” mes contacts.



bref, A33, on peut être sur FB tout en étant totalement contre ses conditions d’utilisation (un peut comme avec la politique, plutôt que la bouder, tentons de faire bouger les choses, c’est plus constructif)









Yutani a écrit :



ça aurait pu être pire …t’aurais pu avoir un Skyblog <img data-src=" />







<img data-src=" />



Je ne suis pas suicidaire ou maso non plus… Déjà avoir Facebook, ce fût un énorme pas que j’avais franchi, j’avais dépassé la ligne rouge…



Pardonne-moi Seigneur car j’ai pêché…



<img data-src=" />



<img data-src=" />









dematbreizh a écrit :



bref, A33, on peut être sur FB tout en étant totalement contre ses conditions d’utilisation (un peut comme avec la politique, plutôt que la bouder, tentons de faire bouger les choses, c’est plus constructif)





<img data-src=" />









dematbreizh a écrit :



Quelle fine analyse…





Le conditionnel, c’est trop subtil apparemment.





A33, on peut être sur FB tout en étant totalement contre ses conditions d’utilisation (un peut comme avec la politique, plutôt que la bouder, tentons de faire bouger les choses, c’est plus constructif)



On peut beaucoup de choses. On peut même comparer la géopolitique aux Pokémon avec de l’imagination. Je me moque des raisons qui poussent les utilisateurs à rester sur Facebook. Mais on peut bien soupirer quand on entend les utilisateurs de FB se plaindre de manipulations.



dites donc, ceux qui prennent de haut cette news en disant que FB réinvente la propagande, je pense que vous ne saisissez pas le concept de FB.



FB n’est pas un site d’actualité ou un journal papier ou même le JT d’une chaine télé.



Il ne s’agit aucunement de propagande au sens de fourniture d’informations filtrées, censurées, manipulées ou fabriquées dans le but de contrôler l’information et manipuler les foules.



Il s’agit de manipuler les publications et informations fournies par les amis des utilisateurs (tri, omission…) dans le but d’exercer une influence sur l’état d’esprit de l’utilisateur !



c’est beaucoup plus subtil ! l’internaute fait confiance à ses amis, sa famille et pense que tout ce que FB lui présente est neutre et fiable



Or, ce n’est pas le cas puisque FB a la possibilité de présenter les infos d’une façon adaptée à sa propre stratégie : influence, manipulation, état d’esprit… où est la limite ???????



Bon, ici on parle de FB mais Google fait la même chose, surement en pire.








Sigma42 a écrit :



Question à la con : Comment détectent ils qu’un statut est positif ou négatif ?

Ils ont un algo ?



Ca doit être galère vu que pas mal doivent parler en “internet slang”, et que de façon générale personne ne s’exprime de la même manière



Du coup si on suppose que cet algo fonctionne assez bien, cela veut-dire que FB peut facilement détecter quelqu’un qui déprime où est de bonne humeur ?

Ca commence à faire pas mal d’info sur notre comportement <img data-src=" />







surement qu’ils ont privilégié les news comportant beaucoup de pouces verts ou inversement … les gens ne mettent peu de pouce verts sur les posts négatifs sauf quand c’est des gens très proches pour montrer le soutien et comme sur FB t’as que des faux-culs et beaucoup de gens inutiles bah les post comportant beaucoup de pouces verts seront que des posts positifs ( voir draules )….



Pareil concernant les posts postés par les amis qui ont justement peu d’amis… si ils ont peu d’amis c’est qu’ils ne passent pas leur temps à sucer l’amitié ou à ajouter des faux culs résultats forcément ils seront moins draules quand ils posteront ..





Sinon cette news n’a rien d’étonnant que des moutons voyeurs soient influencés positivement ou négativement par ce qu’ils reluquent 5 fois par jour en moyenne rien d’étonnant même si au final cette influence représente peanuts c’est à dire peu de chose…



C’est un peu le syndrome JT de13 heure de TF1 façon jean pierre pernot aussi… le JT des bisounours n’habitant surtout pas paris ( la majorité des français quoi )









A33 a écrit :



Le conditionnel, c’est trop subtil apparemment.





On peut beaucoup de choses. On peut même comparer la géopolitique aux Pokémon avec de l’imagination. Je me moque des raisons qui poussent les utilisateurs à rester sur Facebook. Mais on peut bien soupirer quand on entend les utilisateurs de FB se plaindre de manipulations.





On peut beaucoup oui, on peut aussi critiquer ceux qui se plaignent de la pollution mais qui conduisent: cela ne leur donne pas tord… mais si tu te moques de leurs raisons de continuer à conduire.



Je me moque de tes raisons d’employer le conditionnel, mais je soupire en t’entendant dénigrer l’avis d’utilisateurs d’un système, quelque soit son nom.









A33 a écrit :



On peut beaucoup de choses. On peut même comparer la géopolitique aux Pokémon avec de l’imagination. Je me moque des raisons qui poussent les utilisateurs à rester sur Facebook. Mais on peut bien soupirer quand on entend les utilisateurs de FB se plaindre de manipulations.









<img data-src=" />



Comment ça avec de l’imagination ? T’as déjà regardé un débat à l’AN ? <img data-src=" />









Fuinril a écrit :



Comment ça avec de l’imagination ? T’as déjà regardé un débat à l’AN ? <img data-src=" />





Ne parle pas de mauvais souvenirs, toi. <img data-src=" />



J’avais suivi les débats sur HADOPI via streaming. À dresser les cheveux sur la tête… mais c’était surtout l’UMP qui craignait (excepté Lionel Tardi muselé plusieurs fois par son groupe <img data-src=" />).









frikakwa a écrit :





  1. FB a sciemment faussé des publications sur les timelines.





    D’ailleurs, question con mais… ça ferait pas perdre à FB son statut d’hébergeur ça? (S’ils l’avaient encore?)









von-block a écrit :



Bref encore une autre preuve de l’échec de bons nombres de chercheurs en science sociale à comprendre que la puissance d’un test p statistique n’implique aucunement que celui-ci a une portée théorique utile.





Si tu savais ce que j’ai vu dans les neurosciences et autres <img data-src=" />



“Bon alors j’ai fais 10 tests, 7 n’ont pas marché (= ils n’ont pas montré ce que je voulais trouver) je les ignore donc et je dis que j’ai prouvé ce que je voulais démontrer depuis le début.” = un papier dans nature <img data-src=" />









Soltek a écrit :



J’ai un compte Facebook, fouetter moi !

<img data-src=" />





Avec joie <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />









Khalev a écrit :



D’ailleurs, question con mais… ça ferait pas perdre à FB son statut d’hébergeur ça? (S’ils l’avaient encore?)





Pas con ça comme question!!!



Il faudrait demander à Marc son avis sur la question! <img data-src=" />