180 millions d’utilisateurs mensuels, un chiffre d’affaires supérieur à 1,6 milliard de dollars en 2023, une valorisation boursière estimée à 80 milliards de dollars... OpenAI, l’entreprise star dans le domaine de l’intelligence artificielle générative, connue pour son agent conversationnel ChatGPT, a battu tous les records l’an dernier. Et de nombreuses autres entreprises lui ont emboîté le pas, tirant profit de l’incroyable engouement généré par les derniers progrès de l’IA.
Mais dans cette euphorie générale, il est important de garder la tête froide et de ne pas perdre de vue un certain nombre de principes fondamentaux liés à l’éthique. Car pour bien piloter un projet d’intelligence artificielle, l’éthique doit être placée au centre des préoccupations, au risque de négliger un certain nombre de prérequis indispensables.
Comment maintenir le rapport à la vérité ?
L'éthique de l'intelligence artificielle soulève plusieurs enjeux majeurs, notamment quand il s’agit d'IA générative. Le premier de ces enjeux concerne le rapport à la vérité. Les grands modèles de langage (Large Language Models en anglais) présentent en effet des corrélations entre des éléments de texte sans nécessairement que le lien soit avéré.
Cela peut engendrer des résultats erronés, voire des hallucinations (résultats corrects d’un point de vue syntaxique, mais basés sur de fausses hypothèses). Le manque de compréhension des mots par ces systèmes peut avoir des conséquences graves, notamment dans des situations critiques, comme le souligne le Comité national pilote d'éthique du numérique (CNPEN).
Pour minorer les risques d’erreur, les concepteurs de systèmes d’IA générative doivent privilégier l’usage de sources de qualité, jugées selon des critères explicites, pour la constitution et l’usage des corpus d’apprentissage des modèles (pré-entraînement), mais aussi pour leur l’optimisation.
Comment éviter la manipulation des utilisateurs ?
Un autre défi éthique majeur concerne la possible manipulation des utilisateurs. Les textes générés, écrits dans un bon niveau de langage, peuvent donner l'impression que la machine est supérieure à l'homme, posant ainsi des risques de manipulation, intentionnelle ou non, des individus. Ces derniers peuvent ainsi se sentir pris à défaut ou incompétents devant les « capacités » de la machine.
L’interaction en langage naturel peut par ailleurs amener l’utilisateur à parler plus librement de son intimité et à croire à une attention de la part de la machine qui donne l’illusion de l’empathie humaine. Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles.
Il est donc primordial de former les personnes à l’utilisation de ces nouveaux outils. Il est notamment indispensable qu’elles apprennent à élaborer des requêtes précises (des prompts) afin d’obtenir des réponses les plus pertinentes qui soient, sans risque de confusion ou de mauvaise interprétation.
Comment faire la différence entre les contenus générés par la machine et les humains ?
La nécessité de maintenir des distinctions claires entre les contenus générés par la machine et ceux créés par des humains représente un troisième défi éthique de taille. Pouvoir faire la différence entre ces deux types de contenus permet notamment d’attribuer des responsabilités pour un éventuel préjudice.
Si un contenu provoque une tension éthique, par exemple à cause de la tentative de manipulation ou de la fraude qu’il contient, il est important de pouvoir tracer son origine afin d’éviter la confusion entre un discours produit par une personne responsable, apte à répondre de ce qu’elle dit, et la parole algorithmique d’un système d’intelligence artificielle auquel il est plus complexe d'attribuer une responsabilité.
Par ailleurs, l'utilisation croissante des systèmes d'IA générative dans l'éducation soulève des préoccupations éthiques. Le risque est ici de remplacer la formation à la pensée critique par une simple acquisition de connaissances via la machine.
L'utilisation de solutions techniques telles que des « watermarks » peut permettre aux utilisateurs de différencier les résultats issus des modèles d'IA de ceux produits par des auteurs humains.
Le sujet de l’éthique de l’intelligence artificielle vous intéresse ? Envie de prendre part aux réflexions en cours ? Découvrez nos offres de formation (en format bootcamp ou en alternance) dans les domaines de la Data et de l'IA, et notamment notre skill course dédié à l'Intelligence Artificielle, à paraître prochainement.