OpenAI prend ses distances avec l’éthique

OpenAI suit une pente qui sent l’enshittification (ou la « merdification ») à plein nez. Comme ses prédécesseurs des plateformes sociales, mais en beaucoup, beaucoup plus rapide. Zoom sur le naufrage.

OpenAI a mis la politique de confidentialité de ChatGPT à jour en février 2026. Pour mieux protéger votre vie privée ? Pas si sûr…

open ai et éthique

Pub 1 – confidentialité 0

Chouette, vous pouvez maintenant synchroniser vos contacts avec ChatGPT « pour voir qui d’autre utilise [ses] services » ! Mais pourquoi faire ?

Au-delà de l’aspect strictement voyeur de la proposition, pour l’utilisateur, aucun bénéfice. Par contre, pour OpenAI, c’est intéressant. Rappelons que ChatGPT s’essaie dans le même temps à la publicité : mieux vous connaître (vos relations, vos centres d’intérêt), c’est pouvoir vous cibler plus efficacement. D’ailleurs, en parlant de pub, vous vous rappelez que la promesse, au départ, c’était un espace… sans pub ?

La recommandation de survie était déjà de vérifier tout ce que vous affirmait le LLM : on peut prédire sans trop de risque que ça ne va pas s’arranger.

Allez, notons toutefois que ChatGPT a été (un peu) plus lent que Facebook à descendre ce glissant toboggan : là où le LLM a mis plus de 3 ans à se lancer dans la pub, Facebook l’avait fait… l’année suivant son ouverture au grand public (2 ans après son lancement pour les étudiants).

Bullshit 1 – protection des enfants 0

OpenAI se lance aussi dans la prédiction de l’âge de ses utilisateurs : « Dans les semaines à venir, nous commencerons à utiliser la prédiction de l’âge dans l’ensemble de nos services pour offrir aux adolescents des expériences plus sûres et adaptées à leur âge. »

Ça peut avoir l’air rassurant… si on ne creuse pas trop. Google en est témoin : ni les adaptations des algos de Facebook ou Instagram, pour ne citer qu’eux, ni les dispositifs de contrôle parental n’ont prouvé leur efficacité.

Un exemple ? Une étude menée par Meta montre que le contrôle parental n’a aucun impact notable sur les usages compulsifs des réseaux sociaux chez les ados.

Et que propose ChatGPT pour les jeunes utilisateurs ? Un outil de contrôle parental. Ouf, ça va mieux !

Data 1 – vie privée 0

Autre modification, sur la collecte et l’utilisation de vos données (dont vos « amis », cf. le début de cet article) : « Nous expliquons combien de temps nous conservons vos données, les contrôles dont vous disposez et les bases légales sur lesquelles nous nous appuyons pour traiter vos données personnelles. »

Celle-là, on la connait déjà : 20 ans de jurisprudence chez les grandes plateformes sociales ont montré que plus on a besoin de s’afficher comme transparent, moins on l’est, plus on a besoin de… bref, la spirale infernale.

Qui aujourd’hui peut encore comprendre les CGU des géants du numérique, à part des professionnel·les du droit ?

Paix 0 – guerre 1

OpenAI n’allait pas s’arrêter en si bon chemin : même pas 3 semaines après ce coup de génie (non), en quelques heures à peine, l’entreprise prend la place d’Anthropic auprès de l’armée états-unienne. Un mouvement d’une rare élégance…

Anthropic, l’entreprise qui édite Claude, un concurrent de ChatGPT, refusait de céder face à l’armée américaine. Celle-ci exigeait de faire sauter deux verrous éthiques de Claude :

  • pas d’utilisation de son IA pour mettre en place une surveillance de masse de la population américaine
  • ni pour contrôler des armes entièrement autonomes.

On peut considérer les freins d’Anthropic comme raisonnables, si on a un peu d’éthique et qu’on se rappelle que ces outils sont suffisamment peu fiables pour constituer un véritable danger (de plus) dans ces contextes… Alors certes, OpenAI a assuré conserver des garde-fous, mais lesquels, concrètement ?

Retour en haut