Publié dans Droit

19

ChatGPT poursuivi en justice pour diffamation

ChatGPT poursuivi en justice pour diffamation

Mark Walters, un animateur radio américain, porte plainte contre OpenAI car ChatGPT a envoyé à un journaliste une réponse déclarant que Walters détournait des fonds de The Second Amendment Foundation (SAF), une association de défense du port d’armes.

Dans le détail, Fred Riehl, le rédacteur en chef d’un site spécialisé dans les armes à feu, a demandé à ChatGPT de résumer une affaire concernant le Procureur général de Washington, Bob Ferguson. La machine a produit un texte dans lequel Mark Walters est cité comme trésorier et directeur financier de la SAF – ce qu’il n’est pas –, quand bien même Walters n’avait jamais été mentionné auparavant par le journaliste.

Riehl n’a publié aucune des informations produites par ChatGPT. Néanmoins, Walters et ses avocats estiment que le texte produit par la machine porte atteinte à sa réputation.

C’est la première plainte de ce type, et si rien ne dit qu’OpenAI sera condamné pour celle-ci, elle pourrait ouvrir le bal d’une série d’autres poursuites du même type, selon plusieurs juristes interrogés par Gizmodo.

19

Tiens, en parlant de ça :

Puce Snapdragon X Plus

Qualcomm dévoile son Snapdragon X Plus et trois variantes du modèle Elite

Plus moins bien

12:29 Hard 5
Un crâne ouvert au sommet sert de piscine à un homme qui se baigne dans une bouée canard, le tout sur fond rouge tirant vers le noir.

Transhumanisme, long-termisme… des idéologies aux racines eugénistes ?

Science artificielle

11:31 IASociété 17
Un ordinateur avec un drapeau pirate sur fond rouge

Corrigée depuis deux ans, une faille Windows activement exploitée par des pirates russes

Faille 1460-days

09:00 Sécu 11
19

Fermer

Commentaires (19)


Va-t-on voir bientôt un démenti en dessous de chaque réponse qui précise que ChatGPT ne fait que générer des phrases qui ne sont ni vraies ni fausses ?


Et sur la base quelle exception à l’amende ou d’organisation administrative il est souhaitable de déplacer le délit de diffamation dans l’interpersonnel ?



Francois75 a dit:


Va-t-on voir bientôt un démenti en dessous de chaque réponse qui précise que ChatGPT ne fait que générer des phrases qui ne sont ni vraies ni fausses ?




Mais c’est déjà le cas.




ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version




Ecrit en dessous du prompt.



D’ailleurs Infomaniak a ajouté aussi un chatbot basé sur l’IA à sa suite kSuite, dans l’outil kChat (il y a aussi un qui utilise l’API ChatGPT pour comparer, 100 requêtes par jour). Le même avertissement est affiché.




@kchat.bot est une IA souveraine. Les données sont traitées exclusivement en Suisse sur les serveurs d’Infomaniak. Nous vous rappelons que les informations générées par @kchat.bot et les IA peuvent être inexactes, incomplètes ou trompeuses.




C’est fou comme l’IA démontre la stupidité humaine.


La mention “Fumer tue” ne remplace pas la responsabilité des vendeurs de tabac. Même les vendeurs de cigarettes électroniques commencent à être mis face à leur responsabilité.



Le tour viendra des exploitants d’algorithmes, et on ne leur demandera pas leur permission comme avec les fakenews des médias sociaux. Ça a pris des dizaines d’années de lutte contre le tabagisme.


Oui, c’est juste fou à quel point les gens deviennent ou sont stupides… Ils attaquent une AI comme si elle avait conscience de ce qu’elle écrivait, comme si c’était un être humain…


eglyn

Oui, c’est juste fou à quel point les gens deviennent ou sont stupides… Ils attaquent une AI comme si elle avait conscience de ce qu’elle écrivait, comme si c’était un être humain…


Ou comme si c’était un service mis en place par des humains qui doivent maîtriser leur service, la blague. Oh, wait



Francois75 a dit:


Va-t-on voir bientôt un démenti en dessous de chaque réponse qui précise que ChatGPT ne fait que générer des phrases qui ne sont ni vraies ni fausses ?




Proposition intéressante, ce qui éviterait toute responsabilité des responsables des services par algorithmes ou IA.



Cependant, personne ne peut se dédouaner de sa responsabilité sur un automate ou un service ou un produit. Il existe des responsables de publication dans la presse, des responsables sécurité et hygiène dans les établissements recevant du public, il serait temps que les algorithmes et autres automatismes respectent la législation.



(quote:2136983:consommateurnumérique)
Proposition intéressante, ce qui éviterait toute responsabilité des responsables des services par algorithmes ou IA.




Je trouverai ça amusant de voir sous les trends ou “pour vous” Insta/TikTok/YT/… un truc du genre “On pense que c’est bon pour vous, mais ça peut aussi nuire à votre santé mentale et votre stabilité, use carefully” :mdr:



eglyn a dit:


Oui, c’est juste fou à quel point les gens deviennent ou sont stupides… Ils attaquent une AI comme si elle avait conscience de ce qu’elle écrivait, comme si c’était un être humain…




Non, ils n’attaquent pas l’IA, il ne faut pas se fier au titre de l’article. Ils attaquent OpenAI, la boîte gérée par des humains qui ont bien conscience de ce qu’il font (une IA qui raconte de la merde).



(reply:2136988:consommateurnumérique)




Et c’est pour ça qu’il y a la possibilité de signaler un résultat comme incorrect / inapproprié. Pour ça il suffit de cliquer le bouton 👎 juste à côté et d’expliquer.




Provide additional feedback



[ Textbox : What was the issue with the response? How could it be improved? ]
[_] This is harmful / unsafe
[_] This isn’t true
[_] This isn’t helpful



Sauf qu’on est pas là pour faire leur boulot à leur place. Et contrairement à un forum où l’on peut signaler un post et voir qu’il a été supprimé ou pas, on a aucune idée de l’action qui est faite suite au signalement.


Gamble

Sauf qu’on est pas là pour faire leur boulot à leur place. Et contrairement à un forum où l’on peut signaler un post et voir qu’il a été supprimé ou pas, on a aucune idée de l’action qui est faite suite au signalement.


Outre la réponse de misocard (et il me semble que c’est effectivement le fonctionnement de l’entraînement de l’IA), le développement d’un produit se fait aussi par retour utilisateur. C’est pas une question de faire le boulot à leur place, c’est juste signaler un défaut du produit (ou une qualité, on peut faire un signalement positif aussi sur ChatGPT).



Au même titre qu’on peut signaler une insatisfaction au service consommateur d’une entreprise (“votre lessive a lavé plus blanc que blanc, résultat mon slip est transparent”). Le cycle de développement agile avec boucle de retour utilisateur constante n’a rien inventé sur ce point.


Quand est-ce que les gens comprendront que les LLM ne donnent pas d’informations, mais ne font que prédire une suite de mot et qu’il ne faut pas prendre pour argen comptant ce que ca nous donne, sans vérifier.



Les LLM n’ont pas d’intelligence dans le sens où elles ont des connaissances intrinsèques. Ils ne font qu’imaginer ce que le mot suivant pourrait etre, point.


Malheureusement le marketing autour de ces produits a détruit toute capacité à comprendre leur fonctionnement. :craint:



Quand on vend un produit en disant que c’est Oracle-qui-sait-tout, voilà la conséquence. C’est dommage car cela nuit à une technologie intéressante.


Le point intéressant sera la conclusion de cette plainte, qui pourra faire jurisprudence si l’animateur gagne son procès et OpenAI doit payer une grosse amende. Dans ce cas, il va y avoir probablement un sacré coup de frein sur la mise à disposition d’IA au grand public pour générer tout et n’importe quoi, du texte comme des images, pouvant potentiellement porter atteinte à l’image d’une personne.



Gamble a dit:


Sauf qu’on est pas là pour faire leur boulot à leur place.




C’est pas ce qu’on a fait avec les captcha ?



Pour ce qui est de l’action prise par la suite, sans être un expert je pense que c’est utilisé par l’IA si elle fonctionne dans un système “Récompense / Punition”.
En cochant la case elle reçoit une punition de ce type pour qu’elle ait moins tendance à reproduire la logique utilisée pour produire le texte.




(reply:2136988:consommateurnumérique)




Ce qui est cocasse, c’est que c’est un défenseur des armes à feu qui s’attaque au produit et pas à l’utilisateur.
Guns don’t kill people, people kill people


Si, mais les captcha, on a généralement pas le choix.



Et pour le cas de chatgpt, il faudrait relancer un apprentissage afin qu’il prenne en compte les mensonges qu’il a produit. Je doute fortement qu’ils fassent quoi que ce soit des signalements (ou alors avec des délais qui peuvent prendre des mois)


random.org a généré “FCKYOUBSTRD”.



Je me suis senti offensé.
J’ai porté plainte.


Les désinformateurs et corbeaux n’ont plus qu’à créer un syndicat pour se protéger de ce concurent totalement déloyal. :fumer:



Des années de tradition de médisance ruinées par cet affabulateur numérique hors pair. Cela fait froid dans le dos. :D