La Cour de cassation à la rescousse de Google Suggest

La Cour de cassation à la rescousse de Google Suggest

Escroc blanc

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

20/06/2013 7 minutes
48

La Cour de cassation à la rescousse de Google Suggest

La Cour de cassation vient de préciser la jurisprudence française s’agissant de la responsabilité d’un moteur de recherche pour les suggestions qu’il peut proposer à ses utilisateurs. Dans un arrêt rendu hier, la plus haute juridiction judiciaire a en effet considéré que Google ne pouvait pas être tenu pour responsable des mots proposés d'après un algorithme construit par ses soins. Explications.

suggestion lyonnaise

 

L’affaire remonte à 2010. La société Lyonnaise de garantie constate que lorsqu’on commence à taper « Lyonnaise de g » dans Google, le célèbre moteur de recherche affiche alors au troisième rang de ses suggestions : « lyonnaise de garantie escroc ». La fonction de saisie semi-automatique de Google, censée aider l’utilisateur à trouver des mots proches de ceux qu’il recherche, n’est pas du goût de l’entreprise, qui considère cette apposition du mot « escroc » comme une atteinte intolérable et manifestement illicite à sa réputation. Alors que la firme de Mountain View refuse d’accéder aux demandes de retrait de cette suggestion, la Lyonnaise de garantie décide de traîner le géant de l’internet devant les tribunaux pour injures publiques.

 

Au travers d’un arrêt rendu le 14 décembre 2011 (et disponible sur Legalis), la cour d’appel de Paris a considéré que la responsabilité de Google devait être engagée, en tant que directeur de la publication. La firme de Mountain view perdait ainsi son procès d’appel et se voyait condamnée aux mêmes peines qu’en première instance : retrait de l’expression « lyonnaise de garantie escroc » de ses suggestions dans un délai d’un mois, sous une astreinte quotidienne de 2 500 euros par jour de retard et par site (google.fr ; google.ca ; etc.) ; un euro de dommages et intérêts ; 5 000 euros de frais de justice. Les magistrats de la cour d’appel ont au passage augmenté l’addition des frais de justice de 10 000 euros supplémentaires.

La cour d’appel de Paris a violé le droit selon la Cour de cassation

Sauf que Google a souhaité contester l’application du droit par les juges du fond devant la Cour de cassation. Dans un arrêt rendu hier et repéré par le juriste Cédric Manara, les magistrats ont d’ailleurs donné gain de cause au moteur de recherche. Ils ont en effet estimé que la cour d’appel de Paris avait fait fausse route dans son interprétation des articles 29 et 33 de la loi du 29 juillet 1881 (relatifs à la diffamation et à l’injure).

 

Pour justifier leur décision, les juges ont fait valoir que « la fonctionnalité aboutissant au rapprochement critiqué [Google Suggest, ndlr] est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage des « mots clés » qui en résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’émettre les propos en cause ou de leur conférer une signification autonome au-delà de leur simple juxtaposition et de leur seule fonction d’aide à la recherche ». Autrement dit, la saisie semi-automatique de Google fonctionnant uniquement à partir d’algorithmes, il n’est pas possible d’en déduire que la responsabilité du géant de l’internet puisse être engagée dans cette affaire. Sans volonté de l’exploitant du moteur de recherche de faire apparaître le terme « escroc » après « Lyonnaise de garantie », Google n’est pas condamnable, retient ainsi la Cour de cassation.

 

Le jugement de la cour d’appel de Paris a donc été cassé et annulé. L’affaire devra à nouveau être examinée, mais cette fois par la cour d’appel de Versailles, laquelle devrait prendre en compte les principes posés hier par les magistrats de la Cour de cassation.

 

justice palais cour cassation

 

Cette décision est très importante pour Google et dans une plus large mesure pour les autres moteurs de recherche proposant eux aussi à leurs utilisateurs des espaces de saisie semi-automatique. Les solutions retenues par les juges du fond dans ce type litige ont pu osciller dans le passé, considérant parfois que le terme « escroc » ne pouvait pas être accolé, d’autres fois que le terme « arnaque » pouvait l’être...

Un arrêt qui empêche à priori toute revendication contre Google Suggest 

Contacté, le juriste Cédric Manara nous confirme « l’importance » de cet arrêt : « La Cour de cassation dit bien que le fonctionnement d’un outil tel que Suggest est finalement fonction des usages des internautes et qu’une fois que l’outil est dans la nature, Google n’est pas responsable de la façon dont les résultats sont produits par la mise en œuvre de sa technologie ». Autrement dit, « l’apparition automatique des résultats ne peut être imputée à Google ».

 

D’autant que cette décision va faire selon lui jurisprudence à la fois sur le plan de la responsabilité civile de droit commun et sur celui du régime dérogatoire du droit de la presse. « Faute de pêché originel, d’intention, de pouvoir caractériser la volonté de nuire, qu’on soit en matière pénale ou civile, a priori l’arrêt empêche désormais toute revendication contre le moteur à raison du fonctionnement de son outil ». Pourquoi ? Même si l’arrêt d’hier est pris sur le fondement de la loi de 1881, « dans tous les cas il faut une faute, une intention, quelque chose qui émane de la personne à qui on veut faire porter le chapeau ». Or ici, précisément, la cour dit que la faute ne peut pas être imputée à Google pour les effets de bords de sa technologie.

 

L’intéressé y voit de plus une position avant-gardiste des juridictions françaises par rapport à d’autres pays, mais également un signe fort envers les innovateurs. « Le fait que la Cour de cassation dise qu’il n’y a pas de déterminisme technologique permet aux créateurs de nouvelles applications ou de nouveaux outils de voir que des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne, en particulier du fait qu’il ne fait que refléter des usages populaires ou des requêtes régulières » explique Cédric Manara.

 

Google peut désormais se frotter les mains : l’argument retenu hier par la Cour de cassation est celui brandi de longue date par l'entreprise. Aujourd’hui encore, on peut lire sur ses pages explicatives que « les prédictions de la saisie semi-automatique sont déterminées par le biais d'un algorithme en fonction d'un certain nombre de facteurs, dont la popularité des termes de recherche, sans intervention humaine ». La firme de Mountain View précise néanmoins qu’elle applique dans le même temps « des règles strictes s'agissant des contenus pornographiques, violents ou incitant à la haine, et des termes fréquemment utilisés pour rechercher des contenus portant atteinte à des droits d'auteur ». Au-delà de certaines justifications juridiques ou légales, Google peut parfois prendre les devants suite aux pressions de certaines organisations. Ce fut par exemple le cas en France avec l’Union des étudiants juifs de France (UEJF), qui a finalement obtenu le retrait de la suggestion « juif » après le nom de certaines personnalités. Le tout sans avoir à passer devant la case justice (voir notre article). 

 

On précisera au final que les ayants droit avaient eux réussi à purger Google Suggest via un article introduit par la loi Hadopi (336-2 CPI).

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

La cour d’appel de Paris a violé le droit selon la Cour de cassation

Fermer

Commentaires (48)




« les prédictions de la saisie semi-automatique sont déterminées par le biais d’un algorithme en fonction d’un certain nombre de facteurs, dont la popularité des termes de recherche, sans intervention humaine »





« des règles strictes s’agissant des contenus pornographiques, violents ou incitant à la haine, et des termes fréquemment utilisés pour rechercher des contenus portant atteinte à des droits d’auteur »



Faudrait savoir, il y a analyse sémantique des termes ou pas ?

C’est pas un algo qui va déduire de sa petite cervelle “ce mot est injurieux, celui-là incite à la haine et ce dernier porte atteinte au droit d’auteur”.

Une clarification de Google sur la méthode de prédiction, ca serait pas mal.


Une bien bonne décision.

S’il y a diffamation d’une personne ou entreprise sur le net, il faut attaquer sa source plutôt que de condamner un moteur de recherche qui ne fait qu’afficher cette information.


<img data-src=" /><img data-src=" />








Koxinga22 a écrit :



Faudrait savoir, il y a analyse sémantique des termes ou pas ?

C’est pas un algo qui va déduire de sa petite cervelle “ce mot est injurieux, celui-là incite à la haine et ce dernier porte atteinte au droit d’auteur”.

Une clarification de Google sur la méthode de prédiction, ca serait pas mal.







Il faut faire la différence entre analyse sémantique, qui peut être automatique, et intervention humaine.



Et si, un algorithme peut faire ce genre de distinction, par exemple proposer d’autres mots clés en fonction des termes déjà exprimés, qui fournissent un contexte généralement plus précis.





Escroc blanc





Escroc au col blanc ( encore une histoire EPO)<img data-src=" />



<img data-src=" /> (vive le Tour) <img data-src=" />




Or ici, précisément, la cour dit que la faute ne pas peut être imputée à Google pour les effets de bords de sa technologie.



atchoum <img data-src=" />





de voir que des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne



J’ai envie de dire, enfin !


d’autant plus que “trucmuche escroc” peut autant signifier que trucmuche est un escroc ou que trucmuche c’est fait pigeonner par un escroc ou que trucmuche à découvert un escroc …etc.



Bref, ce sont les articles en liens qui seuls peuvent donner du sens à cet attribution de termes et qui sont susceptibles d’être condamnables au fait d’une prise de position.



C’est assez logique comme position.


Cette décision est un peu étrange :



D’un côté, un algorithme opaque, car non libre (bah oui ^^), sans aucune preuve que ça soit bien lui qui soit utilisé sur les serveurs de production, potentiellement “automatisé” et “sans intervention humaine”,



De l’autre côté, une Cour de Cassation qui fait pleinement confiance à cet algorithme, qui en fait le pilier de sa décision,



J’ai un peu de mal à avaler la couleuvre, même si je suis d’accord avec l’idée de fond qui est de laisser ce genre d’algo nous proposer des choses automatiquement, sans que la responsabilité du fournisseur de service puisse être mise en cause.



Trop facile sinon, de provoquer soi-même des requêtes douteuses pour ensuite réclamer le pactole.








Koxinga22 a écrit :



C’est pas un algo qui va déduire de sa petite cervelle “ce mot est injurieux, celui-là incite à la haine et ce dernier porte atteinte au droit d’auteur”.







C’est pas difficile d’avoir une liste noire de mots bloqués pour des mots dont le sens principale est à caractère visiblement pornographique ou insultant (bte, coulle, conn*rd…).









Vellou a écrit :



Cette décision est un peu étrange :



D’un côté, un algorithme opaque, car non libre (bah oui ^^), sans aucune preuve que ça soit bien lui qui soit utilisé sur les serveurs de production, potentiellement “automatisé” et “sans intervention humaine”,



De l’autre côté, une Cour de Cassation qui fait pleinement confiance à cet algorithme, qui en fait le pilier de sa décision,



J’ai un peu de mal à avaler la couleuvre, même si je suis d’accord avec l’idée de fond qui est de laisser ce genre d’algo nous proposer des choses automatiquement, sans que la responsabilité du fournisseur de service puisse être mise en cause.



Trop facile sinon, de provoquer soi-même des requêtes douteuses pour ensuite réclamer le pactole.







Oui, globalement, je te suis assez sur ton discours.

Que l’on soit bien d’accord, “des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne”, ça fait quand même du bien…

Mais ici, il y a-t-il eu une analyse approfondie par des gens qualifiés de l’algo de Google ? Ou alors, c’est simplement basé sur la bonne parole de Google ?



croc blanc, j’ai ri








malock a écrit :



Oui, globalement, je te suis assez sur ton discours.

Que l’on soit bien d’accord, “des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne”, ça fait quand même du bien…

Mais ici, il y a-t-il eu une analyse approfondie par des gens qualifiés de l’algo de Google ? Ou alors, c’est simplement basé sur la bonne parole de Google ?





je ne suis pas convaincu qu’on puisse forcer Google à révéler son algorithme à quel qu’expert français que ce soit. C’est peu le cœur de leur activité (et quand on voit dans les journaux toutes les fuites sur différentes affaires protégée en théorie par “le secret de l’instruction”, difficile de faire confiance).









WereWindle a écrit :



je ne suis pas convaincu qu’on puisse forcer Google à révéler son algorithme à quel qu’expert français que ce soit. C’est peu le cœur de leur activité (et quand on voit dans les journaux toutes les fuites sur différentes affaires protégée en théorie par “le secret de l’instruction”, difficile de faire confiance).







Oui, j’imagine bien… Alors, personne ne peut vraiment dire qu’il n’y a pas d’intervention humaine ou quelques petits tricks (features) par ci par là, n’est ce pas ?

C’est assez proche des nombreuses discussions qu’il y a eu au sujet du contrat Ministère de la Défonce/Microsoft… (“mais si mais si, Microsoft file ses sources”)



Désolé, mais “innocent tant qu’on a pas prouve qu’il est coupable”. Je ne peux que supposer comment fonctionne un tel algorithme, mais pour moi l’idée est simplement de prendre les recherches faites par tout les utilisateurs et de ressortir les propositions les plus fréquemment utilisées.

Et donc évidemment, plus une proposition va être haut, plus elle va rester en haut (vu qu’elle est suggérer).

Dans la mesure ou cette fonctionnalité marche pour toute chaîne de caractères possible, cela prouve qu’il y a un traitement purement automatique. Ensuite, Google a probablement la possibilité d’ajouter des exceptions. Mais si la société en question n’a rien pour justifier le moindre mobile de la part de Google, il n’y a apparemment aucune raison pour que Google ait sciemment voulu lui faire du tort.



Notez d’ailleurs que si Google ne propose plus “lyonnaise de garantie escroc”… lorsque l’on tape “lyonnaise de garantie c” on nous propose toujours “crook”… Encore un méchant move du méchant Google? Ou cette attaque insensée en justice leur a fait une belle pub d’escort dans les média du monde entier!








malock a écrit :



Oui, j’imagine bien… Alors, personne ne peut vraiment dire qu’il n’y a pas d’intervention humaine ou quelques petits tricks (features) par ci par là, n’est ce pas ?

C’est assez proche des nombreuses discussions qu’il y a eu au sujet du contrat Ministère de la Défonce/Microsoft… (“mais si mais si, Microsoft file ses sources”)





mais non ils ont juste dit “vous inquiétez pas, la NSA a vérifié et aidé à corriger notre code, c’est fiable <img data-src=" />”




  • oh bah si c’est la NSA, hein (une fois dans le chalet pour le travail <img data-src=" />)









malock a écrit :



Oui, globalement, je te suis assez sur ton discours.

Que l’on soit bien d’accord, “des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne”, ça fait quand même du bien…

Mais ici, il y a-t-il eu une analyse approfondie par des gens qualifiés de l’algo de Google ? Ou alors, c’est simplement basé sur la bonne parole de Google ?







Oui et non : inverse les rôles, un algorithme plus ou moins “clean”, mais auquel tu mets quelques petits coups de pouce par ci par là pour favoriser un terme, favoriser un buzz, une actualité, etc…



Un tel algorithme DOIT être condamné si il effectue des choses condamnables. Là, la Cour semble se contenter de peu de choses, et c’est dangereux.

Si elle avait par exemple dit qu’en l’état, le doute devait être accordé à l’algorithme de Google, et que donc Google ne peut être condamné : OK.



Mais de dire que l’algo de Google est clean, avoir une sorte de “sceau Cour de Cassation” sur son algorithme secret sans même avoir la preuve qu’il soit appliqué sans intervention humaine à côté … hmm … <img data-src=" />



Pour faire court, je pense que la Cour a tout simplement manqué de distance dans son arrêt. S’agissant d’un domaine complexe ça peut se comprendre, mais il faudrait tout de même éviter ce genre d’arrêt : ça peut vraiment rendre un fournisseur de service très puissant et intouchable sur plusieurs aspects. <img data-src=" />





* Sous réserve de voir le contenu de l’arrêt en lui-même. Il peut avoir été mal retranscrit, mal interprété, et donc donner lieu à des spéculations comme celle que je fais !



Désolé pour le double post, mais je n’avais pas vu que le lien de l’arrêt était disponible. Donc :





Qu’en statuant ainsi, quand la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage des « mots clés » qui en résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’émettre les propos en cause ou de leur conférer une signification autonome au-delà de leur simple juxtaposition et de leur seule fonction d’aide à la recherche, la cour d’appel a violé les textes susvisés ;





Je suis d’accord avec la Cour de Cassation <img data-src=" />

En revanche, je ne suis pas convaincu que Google ait pu donner la preuve de tout ceci.



Mais au moins, la Cour d’Appel de Versailles sait comment accueillir l’affaire : il faudra définir si OUI ou NON le système de Google est effectivement un processus entièrement automatisé et exempt d’action humaine.



Donc, pas dit que Google s’en sorte, mais c’est une très très bonne nouvelle au final.



Méa Culpa. <img data-src=" />








malock a écrit :



Oui, globalement, je te suis assez sur ton discours.

Que l’on soit bien d’accord, “des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne”, ça fait quand même du bien…

Mais ici, il y a-t-il eu une analyse approfondie par des gens qualifiés de l’algo de Google ? Ou alors, c’est simplement basé sur la bonne parole de Google ?





J’aurais tendance à dire que c’est le principe de la justice française. Si l’attaquant ne prouve pas que l’algorithme n’est pas automatique, alors il est considéré comme le dit la défense (Google). C’est pas à la défense de prouver qu’elle est innocente, c’est à l’attaque de prouver que la défense est coupable.



Vu que je ne pense pas que la lyonnaise machin ait fait un test cherchant à prouver que c’était pas automatique, la cours de cassation casse le jugement.



C’est un peu comme si tu condamnes un gars pour arnaque (justement) sans apporter de preuve qu’il y a eu arnaque. Dans ce cas oui la justice va le “croire sur parole” ou plutôt, le considérer innocent jusqu’à preuve du contraire.



C’est comme ça que je vois les choses, mais je ne suis pas juriste.



D’un côté il est bon qu’une entreprise puisse empêcher un algorithme de refléter l’opinion publique à son encontre.



De l’autre il y a deux vrais problèmes :

* Comment s’assurer que le comportement de l’algorithme est bien neutre et n,‘est pas biaisé par Google ? L’influence d’un tel outil est tellement grande que les tentations de l’instrumentaliser sont gigantesques. On ne peut pas se fier aveuglément à Google.



* Quid du droit à l’oubli ? Pas seulement après X années mais aussi, par exemple, suite à une relaxe judiciaire dans une affaire médiatisée : la personne innocentée verrait toujours son nom accolé à “assassin” et autres qualificatifs.








HarmattanBlow a écrit :



D’un côté il est bon qu’une entreprise puisse empêcher un algorithme de refléter l’opinion publique à son encontre.



De l’autre il y a deux vrais problèmes :

* Comment s’assurer que le comportement de l’algorithme est bien neutre et n,‘est pas biaisé par Google ? L’influence d’un tel outil est tellement grande que les tentations de l’instrumentaliser sont gigantesques. On ne peut pas se fier aveuglément à Google.





Il faudrait voir si ce comportement a été remis en cause par la société lors du procès ou en appel.









Khalev a écrit :



Il faudrait voir si ce comportement a été remis en cause par la société lors du procès ou en appel.





Je m’autocite.



Effectivement en appel ils ne remettent nullement en cause le caractère automatique de l’algo. Ils prennent juste en compte le fait qu’il y a des mots exclus pour juger qu’une “intervention humaine propre à éviter les dommages les plus évidents liés aux fonctionnalités en cause était possible”, et que donc Google est éditeur du commentaire.



Hors la cours de cassation dit que, au contraire, un algorithme entièrement automatique ne rend pas l’éditeur responsable de son résultat. A la lyonnaise machin maintenant de prouver, ou d’apporter suffisamment de preuves pour pouvoir douter que l’algorithme est automatique.









obillard a écrit :



Il faut faire la différence entre analyse sémantique, qui peut être automatique, et intervention humaine.



Et si, un algorithme peut faire ce genre de distinction, par exemple proposer d’autres mots clés en fonction des termes déjà exprimés, qui fournissent un contexte généralement plus précis.





tu veux dire en utilisant des listes de mots-déclencheurs ? Ce serait automatique et sans intervention humaine mais je ne crois pas que ce soit bien efficace.







cyrilleberger a écrit :



C’est pas difficile d’avoir une liste noire de mots bloqués pour des mots dont le sens principale est à caractère visiblement pornographique ou insultant (bte, coulle, conn*rd…).





Voila, pour le cul et les injures, oui. Mais pour le droit d’auteur ou la diffamation, il faut un humain je pense









cyrilleberger a écrit :



C’est pas difficile d’avoir une liste noire de mots bloqués pour des mots dont le sens principale est à caractère visiblement pornographique ou insultant (bte, coulle, conn*rd…).







En même temps cette liste noire existe… Cherche Cou*lle sur Google et il ne te le sortira pas en suggestion.. pareil pour les gros mots…

Mais en soit “juif” ou “escroc”… n’est pas injurieux… D’où la problèmatique.



En tout cas pour le porn non Google ne fait pas de suggestion (rien qu’en voyant la liste des Top recherches donnés par google c’est sur que le Porn est <img data-src=" />)









Vellou a écrit :



[…]

Mais au moins, la Cour d’Appel de Versailles sait comment accueillir l’affaire : il faudra définir si OUI ou NON le système de Google est effectivement un processus entièrement automatisé et exempt d’action humaine.

[…]







Mais c’est bien le sujet de ma question : comment fait-on pour le déterminer (si oui ou non tout est automatisé) ? Comme le WereWindle, je ne pense pas qu’il soit si simple de mettre les mains dans le code de Google pour en être sûr (propriété, secret, tout ça…).

Je suis également ok avec Khalev : tant que l’on a pas pu prouver qu’il y a eu faute, l’autre est innocent. Mais alors, quels sont les moyens pour qu’une entité quelconque puisse venir efficacement contester l’outils de Google ? On parle de “tests” mais quels tests ?

Personnellement, je ne vois pas les tests qui peuvent être fait afin de déterminer s’il y a intervention humaine dans un algo (d’autant plus pour un algo aussi complexe que celui dont on parle). Vous avez des idées ?



Oups… craquage (citation au lieu d’édition)… désolé.








malock a écrit :



Personnellement, je ne vois pas les tests qui peuvent être fait afin de déterminer s’il y a intervention humaine dans un algo (d’autant plus pour un algo aussi complexe que celui dont on parle). Vous avez des idées ?





Faire du Google bombing, mais dans ce cas là on risque de se heurter aux protections de Google et aux problèmes légaux.



Comparer les nombres de recherches, il me semble que Google permet de retrouver les nombres de recherches effectuées par périodes, et regarder si on n’y trouve pas d’incohérence.



Après tout il suffit de trouver quelque chose de suffisamment louche pour motiver le juge à faire une demande d’audit par un expert, non?









Khalev a écrit :



Faire du Google bombing, mais dans ce cas là on risque de se heurter aux protections de Google et aux problèmes légaux.



Comparer les nombres de recherches, il me semble que Google permet de retrouver les nombres de recherches effectuées par périodes, et regarder si on n’y trouve pas d’incohérence.



Après tout il suffit de trouver quelque chose de suffisamment louche pour motiver le juge à faire une demande d’audit par un expert, non?







Voui. Si apporter du louche permet l’audit d’un expert, ça devrait pouvoir se faire… je ne sais pas.

Après, exploiter l’outil de consultation de l’historique globale des recherches effectuées via Google me semble peu judicieux : de la même façon, c’est Google qui le maîtrise… Il pourra y apporter le contenu qui l’arrange et nous dira “c’est totalement automatisé, c’pas ma faute !”.









malock a écrit :



Mais c’est bien le sujet de ma question : comment fait-on pour le déterminer (si oui ou non tout est automatisé) ? Comme le WereWindle, je ne pense pas qu’il soit si simple de mettre les mains dans le code de Google pour en être sûr (propriété, secret, tout ça…).

Je suis également ok avec Khalev : tant que l’on a pas pu prouver qu’il y a eu faute, l’autre est innocent. Mais alors, quels sont les moyens pour qu’une entité quelconque puisse venir efficacement contester l’outils de Google ? On parle de “tests” mais quels tests ?

Personnellement, je ne vois pas les tests qui peuvent être fait afin de déterminer s’il y a intervention humaine dans un algo (d’autant plus pour un algo aussi complexe que celui dont on parle). Vous avez des idées ?







Ah donc en fait on est parfaitement d’accord <img data-src=" />



Et effectivement, il faudrait un expert indépendant qui puisse faire des tests, mais ils ne pourraient pas prouver quoi que ce soit, puisqu’on peut laisser l’algo tranquille durant cet audit, puis recommencer “comme d’hab” ensuite.



Reste le problème de la sécurité et confidentialité de l’algorithme en lui même : tant qu’il n’est pas révélé, aucune possibilité de vérifier son fonctionnement. Et bien entendu, ça fait partie des secrets les mieux gardés par Google.



Dans un tel cas, ça ne me réjouit pas plus que ça, mais il faut appliquer, amha, le bénéfice du doute, à moins que la partie adverse n’arrive à apporter un élément probant qui aille dans le sens contraire.









malock a écrit :



Voui. Si apporter du louche permet l’audit d’un expert, ça devrait pouvoir se faire… je ne sais pas.

Après, exploiter l’outil de consultation de l’historique globale des recherches effectuées via Google me semble peu judicieux : de la même façon, c’est Google qui le maîtrise… Il pourra y apporter le contenu qui l’arrange et nous dira “c’est totalement automatisé, c’pas ma faute !”.





Ça ne permettra pas de prouver que Google ne triche pas ça s’est sûr. Mais avec un peu de chance on peu montrer qu’il y a des discordances.

Le problème c’est qu’on a aucune info sur ce qui se passe chez google, donc on est obligé d’utiliser leurs données. Ou alors de fabriquer les nôtres, mais je me demande si ça ne frise pas l’illégalité à altérer volontairement le fonctionnement d’un système de traitement automatique de l’information.









Vellou a écrit :



Ah donc en fait on est parfaitement d’accord <img data-src=" />



Et effectivement, il faudrait un expert indépendant qui puisse faire des tests, mais ils ne pourraient pas prouver quoi que ce soit, puisqu’on peut laisser l’algo tranquille durant cet audit, puis recommencer “comme d’hab” ensuite.



Reste le problème de la sécurité et confidentialité de l’algorithme en lui même : tant qu’il n’est pas révélé, aucune possibilité de vérifier son fonctionnement. Et bien entendu, ça fait partie des secrets les mieux gardés par Google.



Dans un tel cas, ça ne me réjouit pas plus que ça, mais il faut appliquer, amha, le bénéfice du doute, à moins que la partie adverse n’arrive à apporter un élément probant qui aille dans le sens contraire.







Voui, voui, on est totalement d’accord <img data-src=" />

Dans ce cas là, j’ai quand même l’impression que Google est bien le tout puissant…

C’est plutôt chouette de reconnaître qu’une entité ne puisse par avoir le contrôle totale des résultats d’un processus totalement automatisé basé sur la participation de la communauté… ça pose tout de même quelques menus problèmes….



Le 20/06/2013 à 14h 54







cyrilleberger a écrit :



C’est pas difficile d’avoir une liste noire de mots bloqués pour des mots dont le sens principale est à caractère visiblement pornographique ou insultant (bte, coulle, conn*rd…).







Cela n’a aucun sens si ces termes sont utilisés et si l’on n’en connait pas le contexte !!!



Je te signale malgré tout que la pornographie n’est pas interdite, ni répréhensible, et les termes “insultants” genre “conn*rd” ont différents degrés de valeur suivant le contexte là encore.



De même si la pédo-pornographie est elle interdite, on ne peut présager à priori de l’usage des termes qui seraient utilisés dans le cadre d’une requête et si c’est dans le cadre d’une enquête de police ou journalistique… ^^ Eh oui…







malock a écrit :



Oui, globalement, je te suis assez sur ton discours.

Que l’on soit bien d’accord, “des juges acceptent qu’on puisse ne pas avoir le contrôle entier de la façon dont un outil fonctionne”, ça fait quand même du bien…

Mais ici, il y a-t-il eu une analyse approfondie par des gens qualifiés de l’algo de Google ? Ou alors, c’est simplement basé sur la bonne parole de Google ?







Mais tu veux faire une analyse approfondie de quoi ???



Google Suggest est basé sur les requêtes des utilisateurs !!!



Une requête c’est quoi sinon un questionnement, pas un jugement de valeur !!!



Tu ne peux interdire à quiconque la capacité de se poser des questions ou de faire des recherches pour comprendre certains phénomènes ou faits de société !



Et l’algorithme de Google Suggest se base uniquement sur l’agrégation de la popularité des requêtes et non sur le contenu des sites web ou des blogs…



Et même en ce qui concerne le contenu des sites et des blogs, il faut voir au cas par cas le contexte pour lequel certains termes sont utilisés ou non.



Si tu fais une recherche sur la pornographie, est-ce que cela fait de toi un pervers ? J’espère que non. Si tu fais une recherche sur le terrorisme, est-ce que cela fait automatiquement de toi un terrorisme ? J’espère encore une fois que ce n’est pas le cas… Comme comme le fait de se poser des questions sur les “races”, les religions, etc…



Pour ce qui est du terme arnaque, là encore je trouve légitime que les gens se posent des questions sur les pratiques de telle ou entreprise…



J’ai le sentiment qu’on se dirige de plus en plus vers un monde tel que décrit dans “1984” ou “Minority Report” alors que l’affaire PRISM est encore en suspens !!!









arobase40 a écrit :



[…]

Mais tu veux faire une analyse approfondie de quoi ???



Google Suggest est basé sur les requêtes des utilisateurs !!!



Une requête c’est quoi sinon un questionnement, pas un jugement de valeur !!!



Tu ne peux interdire à quiconque la capacité de se poser des questions ou de faire des recherches pour comprendre certains phénomènes ou faits de société !



Et l’algorithme de Google Suggest se base uniquement sur l’agrégation de la popularité des requêtes et non sur le contenu des sites web ou des blogs…



Et même en ce qui concerne le contenu des sites et des blogs, il faut voir au cas par cas le contexte pour lequel certains termes sont utilisés ou non.



Si tu fais une recherche sur la pornographie, est-ce que cela fait de toi un pervers ? J’espère que non. Si tu fais une recherche sur le terrorisme, est-ce que cela fait automatiquement de toi un terrorisme ? J’espère encore une fois que ce n’est pas le cas… Comme comme le fait de se poser des questions sur les “races”, les religions, etc…



Pour ce qui est du terme arnaque, là encore je trouve légitime que les gens se posent des questions sur les pratiques de telle ou entreprise…



J’ai le sentiment qu’on se dirige de plus en plus vers un monde tel que décrit dans “1984” ou “Minority Report” alors que l’affaire PRISM est encore en suspens !!!







Houla, relax mon ami… Mettre des éléments en gras dans ton discours le rend pas plus pertinent… d’autant qu’il est à côté de la plaque…

Tu me dis “Et l’algorithme de Google Suggest se base uniquement sur l’agrégation de la popularité des requêtes”… et ça vient d’où ? Apporte-moi la preuve de ton “se base uniquement”….

C’est bien de cela que l’on parle… pas de la légitimité des requêtes, ni d’interdiction de quoi que ce soit…



Le 20/06/2013 à 15h 05







Khalev a écrit :



Ça ne permettra pas de prouver que Google ne triche pas ça s’est sûr. Mais avec un peu de chance on peu montrer qu’il y a des discordances.

Le problème c’est qu’on a aucune info sur ce qui se passe chez google, donc on est obligé d’utiliser leurs données. Ou alors de fabriquer les nôtres, mais je me demande si ça ne frise pas l’illégalité à altérer volontairement le fonctionnement d’un système de traitement automatique de l’information.







Dans ce cas, c’est les États et la Justice qui seraient dans l’illégalité (sans oublier les Majors et certains Entreprises) puisque le plus souvent c’est ces entités qui exigent l’altération volontaire du fonctionnement d’un système automatisé !!! <img data-src=" />





Koxinga22 a écrit :



tu veux dire en utilisant des listes de mots-déclencheurs ? Ce serait automatique et sans intervention humaine mais je ne crois pas que ce soit bien efficace.





Voila, pour le cul et les injures, oui. Mais pour le droit d’auteur ou la diffamation, il faut un humain je pense







Encore une fois, hors contexte, cela n’a pas de sens !!!



Tu ne peux pas interdire à une personne de se poser des questions sur le sens d’un mot ou un autre, ou alors va falloir également interdire les dictionnaires papier ou numériques !?!?!?!









malock a écrit :



Voui, voui, on est totalement d’accord <img data-src=" />

Dans ce cas là, j’ai quand même l’impression que Google est bien le tout puissant…

C’est plutôt chouette de reconnaître qu’une entité ne puisse par avoir le contrôle totale des résultats d’un processus totalement automatisé basé sur la participation de la communauté… ça pose tout de même quelques menus problèmes….







Je suis entièrement d’accord avec toi.



Idéalement, il faudrait que l’algorithme soit ouvert. Seule manière de prouver la bonne foi du moteur de recherche, qui s’octroie des informations qu’on ne lui autorise pas forcément à réutiliser.



En fait, non, ça devrait être un pré-requis pour être couvert en cas de pépin même. Comme une assurance maison qui ne te couvre contre le vol que quand tu as installé une alarme agréée etc…



Là il devrait y avoir un algorithme agrée pour autoriser le fonctionnement de Google Suggest.



Enfin, c’est mon idée sur le moment, mais je pense que cette question mérite qu’on s’y penche sérieusement car elle a d’autres implications (entre autre avec la mode du cloud et donc des “tendances” que les hébergeurs vont pouvoir afficher).



Le 20/06/2013 à 15h 21







malock a écrit :



Houla, relax mon ami… Mettre des éléments en gras dans ton discours le rend pas plus pertinent… d’autant qu’il est à côté de la plaque…

Tu me dis “Et l’algorithme de Google Suggest se base uniquement sur l’agrégation de la popularité des requêtes”… et ça vient d’où ? Apporte-moi la preuve de ton “se base uniquement”….

C’est bien de cela que l’on parlhttp://www.pcinpact.com/images/clair/smiles/icon_mrgreen.gif… pas de la légitimité des requêtes, ni d’interdiction de quoi que ce soit…







Si tu ne comprends pas le sens du fait de mettre des éléments en gras, c’est que c’est bien toi qui est à côté de la plaque… <img data-src=" />



Tout d’abord,http://mashable.com/2010/09/08/google-instant-predictions/



De plus, qu’il y ai ou non une corrélation entre une requête avec des mots-clés provenant du contenu de sites web, ou de blogs ou quoique ce soit, cela ne change rien à ma démonstration.



Enfin, la preuve, elle est dans la décision de la Cour de cassation elle-même… ^^



“La Cour de cassation dit bien que le fonctionnement d’un outil tel que Suggest est finalement fonction des usages des internautes et qu’une fois que l’outil est dans la nature,…”



Usage des internautes : c’est bien ce que tu fais toi-même à chaque fois que tu utilises un moteur de recherche, quel qu’il soit, non ???









arobase40 a écrit :



Encore une fois, hors contexte, cela n’a pas de sens !!!



Tu ne peux pas interdire à une personne de se poser des questions sur le sens d’un mot ou un autre, ou alors va falloir également interdire les dictionnaires papier ou numériques !?!?!?!





Ah ba sur la question du “est-ce justifié d’interdire la prédiction de recherche” c’est un débat d’ordre philosophique : je suis sûr que tout le monde à un avis argumenté mais comment trancher sur qui a raison et qui a tord ?

J’étais plus sur le moyen technique pour paramétrer cette prédiction afin de suivre les décisions de justice.



Je pense sincèrement que pour filtrer “l’incitation à la haine” ou “le droit d’auteur”, il faut un cerveau humain aux commandes.

Par exemple : “j’invite tous les défenseurs de la liberté à faire mordre la poussière aux descendants d’abraham” c’est de l’incitation à la haine, mais ca ne déclenchera aucun mot-clé de liste noire.









Vellou a écrit :



[…]

Idéalement, il faudrait que l’algorithme soit ouvert. Seule manière de prouver la bonne foi du moteur de recherche…

[…]

Là il devrait y avoir un algorithme agrée pour autoriser le fonctionnement de Google Suggest.

[…]





<img data-src=" />

Je ne vois que ça également (avec le “peu” de recul que nous avons sur la question bien sûr…).

Finalement, comme je l’ai abordé dans mon second post, c’est également cette question qui a été soulevée lors des débats de la communauté au sujet du contrat Ministère de la Défense/Microsoft…

C’est effectivement des questions très sérieuses et je regrette largement que notre gouvernement/nation/… ne s’y intéresse pas plus…









Vellou a écrit :



Oui et non : inverse les rôles, un algorithme plus ou moins “clean”, mais auquel tu mets quelques petits coups de pouce par ci par là pour favoriser un terme, favoriser un buzz, une actualité, etc…



Un tel algorithme DOIT être condamné si il effectue des choses condamnables. Là, la Cour semble se contenter de peu de choses, et c’est dangereux.

Si elle avait par exemple dit qu’en l’état, le doute devait être accordé à l’algorithme de Google, et que donc Google ne peut être condamné : OK.



Mais de dire que l’algo de Google est clean, avoir une sorte de “sceau Cour de Cassation” sur son algorithme secret sans même avoir la preuve qu’il soit appliqué sans intervention humaine à côté … hmm … <img data-src=" />



Pour faire court, je pense que la Cour a tout simplement manqué de distance dans son arrêt. S’agissant d’un domaine complexe ça peut se comprendre, mais il faudrait tout de même éviter ce genre d’arrêt : ça peut vraiment rendre un fournisseur de service très puissant et intouchable sur plusieurs aspects. <img data-src=" />





* Sous réserve de voir le contenu de l’arrêt en lui-même. Il peut avoir été mal retranscrit, mal interprété, et donc donner lieu à des spéculations comme celle que je fais !







Ce n’est pas ce qui est dit. A l’issu des débats (tu n’y étais pas je suppose?):





Qu’en statuant ainsi, quand la fonctionnalité aboutissant au rapprochement critiqué est le fruit d’un processus purement automatiquedans son fonctionnement et aléatoire dans ses résultats, de sorte que l’affichage des « mots clés » qui en résulte est exclusif de toute volonté de l’exploitant du moteur de recherche d’émettre les propos en cause ou de leur conférer une signification autonome au-delà de leur simple juxtaposition et de leur seule fonction d’aide à la recherche, la cour d’appel a violé les textes susvisés ;





Si tu peux prouver que l’algorithme de google est bidonné pour faire apparaitre un résultat diffamant, c’est de la diffamation, sinon, si l’élément est traité comme n’importe quel autre élément ce n’est pas de la responsabilité de google…









arobase40 a écrit :



Si tu ne comprends pas le sens du fait de mettre des éléments en gras, c’est que c’est bien toi qui est à côté de la plaque… <img data-src=" />



Tout d’abord,http://mashable.com/2010/09/08/google-instant-predictions/



De plus, qu’il y ai ou non une corrélation entre une requête avec des mots-clés provenant du contenu de sites web, ou de blogs ou quoique ce soit, cela ne change rien à ma démonstration.



Enfin, la preuve, elle est dans la décision de la Cour de cassation elle-même… ^^



“La Cour de cassation dit bien que le fonctionnement d’un outil tel que Suggest est finalement fonction des usages des internautes et qu’une fois que l’outil est dans la nature,…”



Usage des internautes : c’est bien ce que tu fais toi-même à chaque fois que tu utilises un moteur de recherche, quel qu’il soit, non ???







Ok… tu n’as pas compris de quoi nous parlons… alors je vais aussi mettre des choses en gras…

On se demande comment la Cour de Cassation a pu dire que Suggest est finalement fonction des usages des internautes. Et mon premier post que tu cites pose justement ces questions : il y a-t-il eu des analyses/audites/études/etc… pour le démontrer et prouver ? Est-ce seulement basé sur les dires de Google ?

Le lien que tu me donnes, c’est très chouette, et alors ? Qui est cette Jennifer Van Grove ? Est-elle indépendante ? Où apporte-t-elle la preuve qu’il n’y a pas d’intervention humaine dans Suggest ? Huuum ?









zart a écrit :



[…]

Si tu peux prouver que l’algorithme de google est bidonné pour faire apparaitre un résultat diffamant […]







Et donc, notre questionnement : comment peut-on prouver que l’algorithme de Google est bidonné sans y avoir accès ?



Le 20/06/2013 à 16h 00







Koxinga22 a écrit :



Ah ba sur la question du “est-ce justifié d’interdire la prédiction de recherche” c’est un débat d’ordre philosophique : je suis sûr que tout le monde à un avis argumenté mais comment trancher sur qui a raison et qui a tord ?

J’étais plus sur le moyen technique pour paramétrer cette prédiction afin de suivre les décisions de justice.



Je pense sincèrement que pour filtrer “l’incitation à la haine” ou “le droit d’auteur”, il faut un cerveau humain aux commandes.

Par exemple : “j’invite tous les défenseurs de la liberté à faire mordre la poussière aux descendants d’abraham” c’est de l’incitation à la haine, mais ca ne déclenchera aucun mot-clé de liste noire.







Eh oui cela relève également du débat philosophique, parce que pour qu’un cerveau humain puisse déjà déterminer ce qui relève de “l’incitation à la haine”, de ce qui relève du “droit d’auteur”, des “races”, des “faits religieux”, j’ose à peine utiliser le terme “juif” parce qu’on va automatiquement me taxer d’antisémite, (mais je prends le risque), il faut encore que ce cerveau humain soit lui-même éduqué, alors pour ce qui est d’un algorithme et d’un traitement automatisé… ^^



Et de quelle manière s’éduque t’on ??? En amassant tout un ensemble de données, provenant de différentes sources, y compris de celles qui ne seraient pas “dans la norme officielle”, et l’on touille le tout afin de tenter d’en trouver un sens…



D’ailleurs, à ce propos, c’est pas un certain Jules Ferry qui serait à l’origine de la doctrine que “les races supérieures ont un droit vis à vis des races inférieures”, et que “les races supérieures ont un droit de civiliser les races inférieures” ??? Ce qui justifiait, selon lui, les colonisations !!!



N’est-ce pas également le discours que tenait un certain autre personnage prénommé “Hitler” qui a cherché à “coloniser” l’ensemble du Monde à fin de “civiliser les races inférieures” dont faisait également probablement partie les Français ??? <img data-src=" />



Et quand l’Allemagne a été vaincu, les nazis décapités, est-ce que la France a tiré les leçons de cette mission “salvatrice des races supérieures” ??? NON !!!



Puisqu’elle est repartie de plus bel dans “sa mission salvatrice” dans l’ensemble des ses colonies … ^^



Par conséquent, c’est bien beau d’avoir instauré l’éducation obligatoire et gratuite dans les écoles en mettant en place “l’éducation morale et l’instruction civique” quand on sait sur quoi est basée la notion d’Éducation !!!



Et tout ceci n’est pas de l’ordre du passé puisque cela continue encore de nos jours, à divers degrés et sous différents prétextes, par différents moyens, différentes technologies, que ce soit par les mêmes protagonistes (France, Grande-Bretagne, USA, etc…) par rapport à certaines autres régions du monde !!!



Je sens par avance que cela ne va pas plaire à bon nombre de lecteurs, mais il est des choses qu’il faut savoir assumer et prendre conscience… <img data-src=" />









zart a écrit :



Ce n’est pas ce qui est dit. A l’issu des débats (tu n’y étais pas je suppose?):







Si tu peux prouver que l’algorithme de google est bidonné pour faire apparaitre un résultat diffamant, c’est de la diffamation, sinon, si l’élément est traité comme n’importe quel autre élément ce n’est pas de la responsabilité de google…







Oui oui, j’ai fait mon méa culpa un peu après le message que tu cites <img data-src=" />



En revanche, dès que tu proposes un service d’information automatisé, tu dois fournir, en amont, des garanties de neutralité. En tout cas, je vois les choses comme ça (et ce n’est pas vraiment le sujet de la news, je le concède).



Du coup, sur cette question qu’on se pose avec malock, c’est : comment prouver que l’information est fiable ?



De fait, il est impossible de prouver qu’elle est. Il est également impossible de prouver qu’elle ne l’est pas (en fait, pas vraiment, puisqu’il y a un filtrage pour certains mots : on sort de l’automatisation et on change l’algorithme de manière imprévisible).



Il est donc quasiment impossible pour quiconque de prouver que Google puisse vraisemblablement modifier les résultats de Google Suggest avant de les afficher à celui qui fait la recherche.



C’est précisément ce point qui est problématique : la liberté d’expression est une liberté qui s’arrête là où commence celle de l’autre, comme chacune de nos libertés : comment faire respecter les libertés des autres que Google ? <img data-src=" />



Comme je l’expliquais, si le citoyen lambda lance ce genre de service, juste pour afficher les requêtes sur une page web, s’en serait-il aussi bien sorti ? (même si ce n’est pas terminé pour Google)









arobase40 a écrit :



[…]

Je sens par avance que cela ne va pas plaire à bon nombre de lecteurs, mais il est des choses qu’il faut savoir assumer et prendre conscience… <img data-src=" />





Non non, c’est très bien. C’est juste pas le bon endroit..

T’en arrives à parler de colonies, d’éducation, de races (oO)… alors qu’ici, le sujet, c’est la Cour de Cassation qui vient de préciser la jurisprudence française et pour unélément assez notable : une entité n’est pas responsable des résultats de son algo si celui-ci est totalement automatisé…

Tu mesures pas le truc ou bien ? T’es bourré ?



Le 20/06/2013 à 17h 12







malock a écrit :



Non non, c’est très bien. C’est juste pas le bon endroit..

T’en arrives à parler de colonies, d’éducation, de races (oO)… alors qu’ici, le sujet, c’est la Cour de Cassation qui vient de préciser la jurisprudence française et pour unélément assez notable : une entité n’est pas responsable des résultats de son algo si celui-ci est totalement automatisé…

Tu mesures pas le truc ou bien ? T’es bourré ?







Je pense que ton dernier commentaire est superflu, voire insultant… <img data-src=" />



J’ai bien mesuré la portée “du truc” comme tu l’appelles et cela ne me semble pas du tout choquant surtout quand on sait sur quelle base repose la décision de la Cour de Cassation !



La Cour de Cassation ne juge pas sur le fond, mais uniquement sur la forme d’une décision rendue par une juridiction “inférieure” : Tribunal de 1° instance ou Cour d’Appel” !!!



Donc, elle n’a pas à décider si les algo de Google sont “bidonnés” (comme certains le laissent suggérer), s’il y a une intervention humaine (c’est à la partie accusatrice de le démontrer lors des précédentes décisions), mais uniquement si les décisions ont été rendu sur des bases juridiques correctes… ^^



Donc, l’affaire va être renvoyée devant une autre Cour d’Appel qui rejugera l’affaire, et soit les Juges suivent la décision de la Cour de Cassation à la lettre, soit ils font de la résistance et alors l’affaire retournera de nouveau devant la Cour de Cassation… Cela arrive rarement, mais cela arrive…



Donc, si résistance il y a, le jugement devra être particulièrement bétonné sinon l’évaluation des juges risque de prendre un sacré coup pour la suite de leurs carrière… ^^



J’ai déjà eu à faire à la Cour de Cassation, avec succès dès lors que j’arrive à passer le premier barrage… <img data-src=" />





Sinon, pour ce qui est de l’autre partie de mon commentaire, c’est parfaitement le bon endroit puisque je démontrais le rôle de l’Éducation dans l’Histoire sur l’ensemble des Sociétés et de leurs représentants puisqu’elle a une influence sur la quasi-totalité des décisions rendues devant les institutions judiciaires/répressives du fait de certains parti pris ou à priori : influence Chrétienne, attachement à certaines “secte”, influence politique, racisme sous-jacent, le fait que nombre de juges sont eux-même propriétaires de logements en location… ^^









arobase40 a écrit :



Je pense que ton dernier commentaire est superflu, voire insultant… <img data-src=" />



J’ai bien mesuré la portée “du truc” comme tu l’appelles et cela ne me semble pas du tout choquant surtout quand on sait sur quelle base repose la décision de la Cour de Cassation !



La Cour de Cassation ne juge pas sur le fond, mais uniquement sur la forme d’une décision rendue par une juridiction “inférieure” : Tribunal de 1° instance ou Cour d’Appel” !!!



Donc, elle n’a pas à décider si les algo de Google sont “bidonnés” (comme certains le laissent suggérer), s’il y a une intervention humaine (c’est à la partie accusatrice de le démontrer lors des précédentes décisions), mais uniquement si les décisions ont été rendu sur des bases juridiques correctes… ^^



Donc, l’affaire va être renvoyée devant une autre Cour d’Appel qui rejugera l’affaire, et soit les Juges suivent la décision de la Cour de Cassation à la lettre, soit ils font de la résistance et alors l’affaire retournera de nouveau devant la Cour de Cassation… Cela arrive rarement, mais cela arrive…



Donc, si résistance il y a, le jugement devra être particulièrement bétonné sinon l’évaluation des juges risque de prendre un sacré coup pour la suite de leurs carrière… ^^



J’ai déjà eu à faire à la Cour de Cassation, avec succès dès lors que j’arrive à passer le premier barrage… <img data-src=" />





Sinon, pour ce qui est de l’autre partie de mon commentaire, c’est parfaitement le bon endroit puisque je démontrais le rôle de l’Éducation dans l’Histoire sur l’ensemble des Sociétés et de leurs représentants puisqu’elle a une influence sur la quasi-totalité des décisions rendues devant les institutions judiciaires/répressives du fait de certains parti pris ou à priori : influence Chrétienne, attachement à certaines “secte”, influence politique, racisme sous-jacent, le fait que nombre de juges sont eux-même propriétaires de logements en location… ^^







Je ne trouve pas cela choquant non plus ! On a bien conscience que ce n’est pas à la Cour de cassation d’aller fouiner chez Google. On se demande juste comment la partie accusatrice peut démontrer qu’il y a intervention humaine… On image que c’est très (trop) compliqué donc on se dit qu’une telle jurisprudence, ça peut tout de même vite devenir le bazar.

Et pour l’autre partie de ton commentaire, je trouve toujours que ce n’est pas l’endroit (d’autant qu’avec ta justification, tu pourrais le copier/coller dans n’importe quels threads…). Bref, je n’ai pas voulu être insultant, le “t’es bourré”, c’était plutôt de l’humour… mal dosée visiblement.



Le 20/06/2013 à 21h 10







malock a écrit :



Je ne trouve pas cela choquant non plus ! On a bien conscience que ce n’est pas à la Cour de cassation d’aller fouiner chez Google. On se demande juste comment la partie accusatrice peut démontrer qu’il y a intervention humaine… On image que c’est très (trop) compliqué donc on se dit qu’une telle jurisprudence, ça peut tout de même vite devenir le bazar.







Pas nécessairement…



Faudrait voir si l’arrêt en question édicte le principe comme une règle absolue et si cela est simplement spécifique à cette affaire Google…



De plus, comme les Juges de 1° et 2° instance suivent rarement les arrêts de la Cour de Cassation, donc les cas se répètent régulièrement et retournent fatalement devant la Cour de Cassation… pour les plus courageux, les plus acharnés et dans une grosse mesure pour les plus nantis.



Enfin, même devant la Cour de Cassation, les mêmes causes ne produisent pas nécessairement les mêmes effets… ^^

Sans compter qu’il y a “régulièrement” des revirements de Jurisprudence…



Au pif, suivant la direction du vent, je dirais que cela arrive quand il y a un changement dans l’Exécutif… <img data-src=" />







malock a écrit :



Et pour l’autre partie de ton commentaire, je trouve toujours que ce n’est pas l’endroit (d’autant qu’avec ta justification, tu pourrais le copier/coller dans n’importe quels threads…).







Pas vraiment en fait…





  1. la quasi totalité des lois trouvent leurs fondement les religions dominantes et la moralité liée à la religion du pays.

  2. J’avais pris l’exemple de Jules Ferry et de la colonisation, car c’était symptomatique de la relation qu’il y avait entre le fait d’être pourfendeur de l’Éducation pour justifier les Colonisations et de l’héritage si mal assumé par les générations suivantes…

  3. J’avais évoqué J.F et les colonisations, mais je peux également évoquer le Droit Napoléon à l’origine du Code Civil (Français) dont “certains” articles sont toujours en vigueur de nos jours ( ^^ ), et c’est le même personnage qui a annulé l’abolition de l’esclavage édictée pendant la Révolution française, qui a renouvelé l’abolition de l’esclavage quelques années plus tard… ^^



    L’histoire a tendance à se renouveler, et en particuliers les comportements, y compris parmi des magistrats, mais également des politiques puisque : 1) chacun fait ce qu’il veut dans son coin. 2) La Liberté d’expression est de plus en plus mis à mal. 3) je ne sais pas s’il est nécessaire d’évoquer Le respect de la vie privée…



    Donc, même quand “on” met en place un “système automatisé de traitement de l’information”, c’est également remis en cause… <img data-src=" />



    Attention : c’est juste une constatation des faits : cela ne signifie pas que j’adhère à un modèle ou un autre, un mode de pensée ou un autre…







    malock a écrit :



    Bref, je n’ai pas voulu être insultant, le “t’es bourré”, c’était plutôt de l’humour… mal dosée visiblement.







    Te fais pas de bile <img data-src=" /> , je plaisantais moi-même. <img data-src=" />









arobase40 a écrit :



[…]







Ok ! C’est vrai que je suis allé un peu vite… c’est selon ce monsieur Manara que potentiellement, ça peut faire jurisprudence… rien n’est fait donc…

Sympa de prendre la peine d’exprimer tout cela, ça aide.

Ok pour la suite de ton commentaire, je comprends mieux ton intervention (mais la trouve toujours “décalée” par rapport au topic… ce n’est que mon avis…)

<img data-src=" />



Le 21/06/2013 à 12h 24







malock a écrit :



Ok ! C’est vrai que je suis allé un peu vite… c’est selon ce monsieur Manara que potentiellement, ça peut faire jurisprudence… rien n’est fait donc…

Sympa de prendre la peine d’exprimer tout cela, ça aide.

Ok pour la suite de ton commentaire, je comprends mieux ton intervention (mais la trouve toujours “décalée” par rapport au topic… ce n’est que mon avis…)

<img data-src=" />







Ok, laissons de côté l’autre partie de mon commentaire puisque c’était simplement pour illustrer pourquoi on arrive à des lenteurs insupportables dans le traitement des dossiers (non automatique <img data-src=" /> ) devant la Justice Française et pourquoi les mêmes affaires se répètent en permanence.



Revenons sur le topic et l’affaire en cours !



J’ai pris le temps de lire la décision de la Cour de Cassation et le rendu de son arrêt est beaucoup plus compréhensible et “justifié” puisque le chef d’accusation est “Injure publique à la suite de l’apparition, lors de la saisie des termes « Lyonnaise de g” sur les moteurs de recherche accessibles aux adresses google.fr, google.be, google.uk, google.es, google.it et google.ca des mots ou propositions de requêtes : « lyonnaise de garantie escroc » au troisième rang des suggestions proposées”.



Hors comme il a été expliqué dans l’article, pour qu’il y ai injure publique (ou diffamation publique), il faut une faute, une intention, quelque chose qui émane de la personne à qui on veut faire porter le chapeau…



Cela signifie qu’il faut qu’il y ai un auteur, une volonté délibérée de nuire (ce qui explique le fait que j’ai mis le terme “intention” en gras) et par conséquent il n’est pas possible d’incriminer Google Suggest via son système automatisé ni son algorithme qui ne font qu’agréger des termes provenant des requêtes des utilisateurs lorsqu’ils font des recherches sur les moteurs de recherche…



Donc, l’injure ne vient pas de Google, et à priori il n’y a même pas reproduction d’une injure provenant d’une personne sur un site, et il n’y a même pas d’intervention humaine des services de Google…



J’imagine mal des centaines, voire des milliers de personnes installées dans les bureaux de Google tracées les millions, sinon les milliards de requêtes transitant quotidiennement via Google Suggest !!!



La faute de Google n’est pas plus établie puisque cela signifierait que son algorithme aie été conçu de telle manière que le terme escroc soit délibérément associé à la Société Lyonnaise de garantie en visant spécifiquement cette entreprise et pas une autre… ^^



Dès lors, si la faute et l’intention n’est pas établie, la conclusion s’impose d’elle-même !!!



Je ne comprends même pas que les premiers juges n’aient pas compris ce principe fondamental qui est parfaitement inscrit dans la Loi ???



Mais naturellement, s’ils ne sont pas formés à l’Informatique et s’ils ont des préjugés sur le fonctionnement même des moteurs de recherches ou du système Google Suggest, tout comme beaucoup de personnes profanes : des Michus quoi… ^^ <img data-src=" />



Pour ce qui est du fait que cela puisse faire Jurisprudence, il faut bien comprendre que cela ne s’appliquerait à priori et uniquement qu’aux moteurs de recherche et services associés…



Cela ne dégagera pas forcément la responsabilité des propriétaires de sites web, des blogs et/ou des forums sur lesquels ils ont normalement un meilleur contrôle via leurs modérateurs… <img data-src=" />



Il serait étonnant qu’il n’y ai pas d’autres affaires dans ce cadre… <img data-src=" />



Par contre, se posera probablement à nouveau la question des forums Usenet par exemple qui pour la plupart ne sont pas du tout modérés…



Il suffit d’aller voir les groupes de discussions du genre : fr.misc.droit et dérivés où l’on voit régulièrement des insultes, injures en tout genre que ce soit à caractère politique, racial, religieux, etc… et certains provenant même de d’avocats parfaitement identifiés !!! <img data-src=" />



Et quand je dis régulièrement, c’est même une inondation, des raz de marée depuis plusieurs années qui polluent en permanence ces groupes de discussion et leurs fait perdre leurs intérêts !!! <img data-src=" />



Ce qui revient le plus souvent c’est les “débats” concernant le plus souvent le conflit Israélo-Palestinien… <img data-src=" />



“D’autant que cette décision va faire selon lui jurisprudence à la fois sur le plan de la responsabilité civile de droit commun et sur celui du régime dérogatoire du droit de la presse. « Faute de pêché originel, d’intention, de pouvoir caractériser la volonté de nuire, qu’on soit en matière pénale ou civile, a priori l’arrêt empêche désormais toute revendication contre le moteur à raison du fonctionnement de son outil ». Pourquoi ? Même si l’arrêt d’hier est pris sur le fondement de la loi de 1881, « dans tous les cas il faut une faute, une intention, quelque chose qui émane de la personne à qui on veut faire porter le chapeau ». Or ici, précisément, la cour dit que la faute ne peut pas être imputée à Google pour les effets de bords de sa technologie.”