Comme repère par Ars Technica, cette réponse se trouve dans la foire aux questions :
« Alors que certains (y compris OpenAI) ont publié des outils prétendant détecter du contenu généré par une IA, aucun d’entre eux n’a prouvé qu’il établissait une distinction fiable entre ce type de contenu et celui généré par l’homme ».
Open AI ajoute des précisions intéressantes : « De plus, ChatGPT n’a aucune "connaissance" du contenu qui pourrait être généré par une IA. Il répondra parfois à des questions telles que "avez-vous écrit cet [essai] ?" ou "cela aurait-il pu être écrit par l’IA ?". Ces réponses sont aléatoires et n’ont aucun fondement dans les faits ».
Cela ne signifie par contre pas qu’il est impossible de détecter du contenu généré par une intelligence artificielle, notamment chez les enseignants, les proches, les collègues… En effet, ces personnes peuvent avoir l’habitude du style d’écriture d’une personne et voir un changement si le contenu était généré autrement.