3 février 2025 par Emma Bougerol
L’utilisation de l’intelligence artificielle peut-elle être responsable et éthique ? Face aux risques environnementaux, sociétaux et humains de l’IA, la spécialiste Amélie Cordier avance des pistes de solutions. Entretien
Publié dans Société
Accessible au grand public depuis fin 2022, ChatGPT est devenu l’un des sites les plus visités au monde. Écrire un mail professionnel, poser une question pratique, traduire un message ou résumer un long texte, l’outil d’intelligence artificielle (IA) générative a pris une place centrale dans la vie de nombreuses personnes. Une utilisation croissante, qui laisse poindre des inquiétudes : si nous ne repensons pas nos usages, l’IA pourrait bien mettre en danger le climat, nos sociétés, et nous-mêmes.
Amélie Cordier est fondatrice et dirigeante de Graine d’IA, une entreprise de conseil et d’accompagnement à un usage responsable de l’IA. Docteure en intelligence artificielle, elle a été maîtresse de conférence à l’Université de Lyon. Selon elle, il est indispensable de comprendre ce qu’est l’intelligence artificielle pour bien utiliser cet outil dans le respect de la société et l’environnement.
Basta! : L’intelligence artificielle est un concept très flou pour certaines personnes, qu’on a du mal à visualiser ou à bien comprendre. Alors, comment définit-on l’IA ?
Amélie Cordier : Les maths sont aussi un concept très flou pour certaines personnes : il y a tellement de choses qu’on met dans les maths – ça va des équations du second degré à Pythagore. On a donc du mal à visualiser ce que c’est vraiment. L’intelligence artificielle, c’est pareil. L’IA est une discipline scientifique dans laquelle on a développé un tas d’outils et de technologies depuis des années. On parle d’intelligence artificielle depuis 1956, on peut même trouver des exemples d’IA avant ça. De plus, quand on dit « intelligence artificielle », on utilise un buzz word (un mot à la mode). Comme tous les buzz word, chacun met ce qu’il a envie de mettre derrière. Ce sont les raisons pour lesquelles l’intelligence artificielle est un concept flou.
Qu’est-ce que c’est ? C’est une discipline scientifique dont l’objectif est de faire des programmes qui sont capables de résoudre des problèmes et d’accomplir certaines tâches qui nécessitent une forme d’apprentissage pour être résolus. On ne s’intéresse pas à la résolution de problèmes simples, comme ouvrir une porte quand une personne passe devant un capteur. Mais, aujourd’hui, quand on parle d’intelligence artificielle, on pense souvent – et à tort – à l’IA générative, ou pire, à ChatGPT. Ce n’est qu’une partie de tout ce que l’on sait faire avec de l’intelligence artificielle. C’est comme si je vous parlais d’outils et que vous ne pensiez qu’à un tournevis. Le tournevis n’est qu’un des outils parmi les nombreux disponibles.
Quelle place l’IA a-t-elle dans nos vies ?
L’IA est devenue quasiment omniprésente. Vous déverrouillez votre téléphone avec votre tête : c’est de la vision par ordinateur, c’est une forme d’intelligence artificielle. Vous ne savez pas quoi regarder sur votre plateforme de streaming préférée, on vous fait un flux de ce qui va vous plaire : ce sont des algorithmes de recommandation, c’est de l’IA. Vous avez besoin d’aller dans un endroit que vous ne connaissez pas, vous mettez Google Maps ou Waze, donc un algorithme de GPS, c’est aussi de l’IA. Idem pour un bouton d’assistance au parking sur votre voiture. Et ce ne sont que des exemples de la vie privée.
Il y a aussi des exemples dans le cadre d’une entreprise. On peut avoir un algorithme dans une usine qui décide de comment poser les cartons sur la palette pour optimiser le chargement, une caméra pour regarder la qualité des crêpes sur une chaîne de production, ou bien un programme qui génère des molécules candidates pour fabriquer de nouveaux médicaments… Tout cela, c’est de l’intelligence artificielle. Je pourrais continuer comme ça pendant des heures. L’IA est partout.
Il y a des mouvements ou organisations qui s’opposent à l’utilisation de l’IA. Vous avez été notamment interrogée sur le bien-fondé de bannir ChatGPT pour les élèves. Pourquoi les outils d’intelligence artificielle inquiètent-ils tant ?
Il faut commencer par faire la part des choses entre les différents outils de l’IA et dire duquel on parle. Quand Google Maps ou Waze sont devenus un peu célèbres, peu de personnes sont montées au créneau pour interdire les GPS. On ne se sent pas, en général, menacés par le fait de disposer d’un outil qui nous aide dans une tâche très spécifique qui est de se déplacer d’un point A à un point B. Sur le même sujet
En revanche, avec les IA génératives, on entre dans une dimension de problèmes vraiment différente de ce que l’on a connu jusque-là. Aujourd’hui, les intelligences artificielles génératives sont capables d’aborder des problèmes de tous types, dans n’importe quel domaine de la vie courante. On peut demander à la même IA des conseils pour aller pêcher la truite dans le lac du coin, comme des explications sur la différence entre la tumeur X et la tumeur Y. Cette application de l’IA donne l’illusion qu’elle peut répondre à tout et n’importe quoi. L’humain le perçoit comme une sorte de menace parce que c’est la première fois qu’on arrive à automatiser des tâches qui étaient jusqu’à présent des tâches intellectuelles, que l’on pensait l’apanage de l’être humain conscient.
Que pensez-vous de cette volonté d’interdiction ?
Derrière la notion d’interdiction, il y a deux sujets, relativement différents. Le premier, c’est ceux qui veulent interdire parce qu’ils estiment que le développement de l’intelligence artificielle va trop vite et qu’on risque une perte de contrôle. Ils ont peur d’une humanité dans laquelle l’IA prendrait le dessus et nous échapperait complètement. On est dans des scénarios à la Terminator ou à la Matrix.
Elon Musk, Donald Trump ou moi, personne n’est capable de maîtriser l’ampleur et l’ensemble des conséquences du développement massif de l’IA
Le deuxième sujet, que je trouve plus intéressant d’un point de vue sociétal, tourne notamment autour de l’interdiction de l’IA dans les écoles. On se dit qu’on a mis sur l’étagère un outil d’une puissance absolument formidable, quasiment accessible à tous, mais dont on ne maîtrise pas encore les conséquences sociétales, sur l’apprentissage, le rapport à l’information. Dans ce cadre, on envisage une interdiction pour avoir le temps de s’équiper pour gérer ces conséquences. Personnellement, je ne pense pas qu’interdire soit la solution : si on interdit quelque chose en fermant la porte, il va rentrer par la fenêtre, et ça sera pire.
Mais la question sous-jacente est très intéressante. Elle est de savoir si, aujourd’hui, il y a quelqu’un sur cette planète qui comprend l’intégralité des impacts du développement massif de l’IA générative tel qu’il se fait. Selon moi, personne n’en est capable. Que ce soient moi, les plus grands penseurs, des philosophes comme Yuval Noah Harari, ou bien Elon Musk et Donald Trump, on a tous des intérêts différents, mais on a un point commun : nous sommes incapables de maîtriser l’ampleur et l’ensemble des conséquences du développement massif de l’IA. Les gens vont se l’approprier et créer des usages qu’on ne peut pas anticiper. À l’époque où Tim Berners-Lee a créé le web, il avait une vague idée utopiste de ce que cela pourrait devenir, mais il n’avait pas pensé au quart des usages du web que l’on fait aujourd’hui.
Pourquoi avoir créé Graine d’IA ?
Je pense qu’interdire ne fonctionnera pas. Légiférer, c’est bien, mais ça ne fonctionnera que partiellement et de toute façon trop tard. La seule barrière qui reste pour limiter la bêtise humaine, c’est l’acculturation [1]. Pour permettre aux gens de prendre des décisions pas trop mauvaises au regard de l’intelligence artificielle, le b.a.-ba, c’est que l’on comprenne de quoi ça parle et quels sont les impacts. Une fois que les gens ont compris cela, ils peuvent décider de l’utiliser, de ne pas l’utiliser ou de définir des règles d’utilisation, mais en ayant a minima une culture générale sur ce qu’est l’IA.
Aujourd’hui, pour conduire une voiture, il faut passer le code de la route et le permis. À quoi sert de passer le code de la route et le permis ? On apprend les règles de fonctionnement et on prend conscience des risques de conduire une voiture dans l’environnement dans lequel on vit. Avec l’intelligence artificielle, ça devrait être pareil. On devrait passer le code de la route de l’IA et avoir un permis d’utiliser l’IA.
Quels sont les risques de la méconnaissance de l’IA ?
Prenons l’exemple de jeunes qui jouent aux jeux de rôle avec des IA génératives en générant des images à chaque étape du jeu. Ils n’ont pas conscience qu’en faisant cela, leur consommation énergétique et en eau est pire que s’ils avaient fait trois Paris New-York en avion. Peut-être que s’ils le savaient, ils joueraient à leur jeu de rôle autrement.
« Avec l’intelligence artificielle, ça devrait être que pour conduire. On devrait passer le code de la route de l’IA et avoir un permis d’utiliser l’IA. »
Ou prenons l’exemple de la secrétaire d’une entreprise qui découvre ChatGPT et voit qu’il est capable d’extraire des données à partir de documents PDF. Elle extrait les données de 150 cartes d’identité par jour, donc elle se dit qu’elle va filer les données de ces cartes à ChatGPT pour gagner du temps. Elle n’a pas compris que, quand on utilise certaines intelligences artificielles, des règles s’appliquent sur l’utilisation des données. Elle fait de la fuite de données – même si c’est totalement involontaire.
Prenons aussi Junior, en classe de troisième, qui a une dissertation à écrire sur Victor Hugo et, à un moment, ChatGPT hallucine et écrit que, quand Victor Hugo était dans la Résistance en 1939, il a sauvé 100 personnes. S’il ne s’est pas documenté sur Victor Hugo et qu’il ne sait pas que les IA peuvent halluciner, il va écrire ça en toute bonne foi dans sa copie et ne va pas comprendre pourquoi il a une mauvaise note.
Il y a des risques environnementaux, des risques sociétaux, mais aussi des risques humains très forts d’addiction à cette forme d’intelligence artificielle. En expliquant simplement les choses, on renforce d’un niveau l’esprit critique des personnes et on évite qu’elles ne tombent dans ce genre de panneaux.
L’IA ne flotte pas au-dessus de nous, elle a des impacts concrets sur nos sociétés et notre environnement. Quels sont-ils ?
L’impact environnemental s’explique en deux étapes. D’abord, la majorité des modèles qu’on utilise aujourd’hui tournent sur des serveurs quelque part. Ils sont hébergés dans des data centers. Même si de notre point de vue c’est transparent – on envoie une requête sur Internet et on reçoit une réponse –, en pratique, on fait chauffer du processeur pour faire le calcul qui donne la réponse. Ensuite, on est pile poil dans le classique effet rebond : on consomme de la puissance de calcul pour régler des problèmes que l’on n’aurait pas eu à régler si l’intelligence artificielle générative n’existait pas.
L’effet rebond, c’est le fait qu’un usage, bien qu’a priori peu consommateur d’énergie, devienne une source massive de consommation d’énergie parce que l’usage se répand dans la population. Prenez par exemple LinkedIn. Aujourd’hui, le nombre de posts sur ce réseau social a été considérablement multiplié comparé à il y a quelques années. Vu que c’est devenu facile d’écrire des posts LinkedIn avec ChatGPT, n’importe qui publie n’importe quoi n’importe quand. Si on devait les écrire nous-mêmes, on publierait beaucoup moins souvent. L’impact environnemental est cette conjonction : l’IA coûte cher en énergie, en refroidissement, en semi-conducteurs, etc. et on l’utilise beaucoup parce que c’est facile.
L’impact sociétal, on commence à le voir sur la façon dont les gens apprennent et progressent. Par exemple, il y a cinq ans, quand un développeur junior arrivait dans une boîte, il allait écrire du code pendant deux ans jusqu’à devenir senior. Aujourd’hui, un développeur junior fait du copier-coller de code généré par des IA génératives, et le jour où il y a un problème, il ne sait pas le résoudre. La question qui se pose, transposable à beaucoup de métiers, est : comment on forme des seniors dans certains métiers quand les juniors ne sont pas capables de progresser ?
Est-ce qu’il y a des outils d’IA meilleurs à utiliser que d’autres ?
Ce que j’essaye de faire au travers de Graine d’IA, c’est d’acculturer aux différents aspects de l’intelligence artificielle et de permettre aux gens de choisir des outils d’IA en accord avec leur système de valeurs. Je ne peux pas vous dire s’il y en a des mieux, mais il y a des outils qui portent des valeurs différentes. On pourrait regarder par exemple quelle est la consommation énergétique du système en question pour des performances sympathiques. On pourrait aussi regarder avec quelles données le système a été entraîné et est-ce que la collecte de ces données s’est faite en adoptant une stratégie légale. Ce n’est par exemple pas le cas de ChatGPT et encore moins pour Grok (l’outil d’IA de X).
Les modèles ne sont pas entraînés que par des données, après ils sont affinés au travers d’interactions humains-machines. Il y a des humains, des travailleurs du clic, qui évaluent les requêtes. On peut ainsi regarder s’ils travaillent pour des salaires décents ou pas, s’ils sont payés à la tâche. Ainsi, on peut prendre une décision d’utiliser tel ou tel système parce qu’on se sent plus en phase avec la façon dont il a été construit et la façon dont il a été utilisé.
« Ce qu’il va se passer, c’est que si on n’encourage pas le développement d’alternatives, on va se retrouver à tous penser et parler comme ChatGPT »
Aujourd’hui, parmi les modèles d’IA, il y a évidemment les modèles d’OpenAI comme ChatGPT, mais aussi d’autres entreprises américaines comme Anthropic, une boîte française qui s’appelle Mistral, l’Allemande Aleph Alpha… Il y a plein de petites start-ups qui proposent des modèles open source qui sont certes moins performants ou moins pertinents que ChatGPT, mais qui en général suffisent amplement à résoudre les problèmes pour lesquels on les sollicite.
Concrètement, comment pourrait-on avoir un usage responsable de l’intelligence artificielle ?
Comment penser un usage responsable de la voiture ? Objectivement, la voiture, à l’époque à laquelle on vit, c’est très difficile de refuser de l’utiliser. On peut cependant l’utiliser de manière responsable, seulement quand on en a besoin, pas quand on en a envie. On peut réfléchir à changer de voiture pour en prendre une plus petite, plus adaptée à ses besoins, ou qui fonctionne avec un carburant différent.
Pour l’IA, c’est exactement la même chose. Aujourd’hui, on est dans une phase de Far Ouest où tout le monde s’excite autour des performances incroyables des IA génératives qui changent la vie, font gagner du temps, nous améliorent… Mais a-t-on besoin d’utiliser l’intelligence artificielle pour écrire le moindre mail ? Mon seul conseil pour adopter un usage plus responsable de l’IA c’est de se poser la question « est-ce que j’en ai vraiment besoin ? ». Parfois, la réponse est oui, il y a plein de situations dans lesquelles l’IA aide beaucoup. Ce n’est absolument pas mon but de dire qu’il ne faut pas l’utiliser. Mais l’utiliser moins souvent et pas pour faire n’importe quoi. C’est une forme de responsabilité.
Quel rôle ont les institutions et les entreprises dans la promotion d’une IA plus éthique, responsable écologiquement et socialement ?
Pour moi, le gouvernement, la politique, l’Europe, les collectivités, ont un rôle à jouer. Malheureusement, par manque de connaissance – la plupart du temps – ou parce qu’elles cèdent à des pressions notamment financières, elles ne jouent pas – ou mal – ce rôle. Les entreprises aussi ont un rôle à jouer. C’est peut-être d’elles que viendra la solution parce qu’il en va de leur gouvernance et de leur souveraineté. Aujourd’hui, par exemple, Carrefour, ou des banques comme le Crédit Mutuel ou le Crédit Agricole, ont décidé de développer et de déployer leur propre IA générative interne pour garantir la confidentialité des données. Personnellement, je n’imaginerais pas que ma banque se permettre de confier mon relevé de comptes à ChatGPT au prétexte de me conseiller plus vite.
Sur le même sujet
L’autre question stratégique importante est qu’il est vraiment crucial de faire comprendre aux gens qu’il existe des alternatives. Même si elles sont moins bonnes, il faut continuer à les utiliser. Sinon, ces alternatives vont disparaître et on va se retrouver dans une situation monopolistique où il y aura une IA qui gouvernera toutes les autres, qui sera la seule utilisée dans toutes les entreprises. Il ne faut pas oublier que ces modèles sont des modèles statistiques, avec un nivellement par le centre de tout ce que l’on doit se dire, connaître, penser, savoir. Ce qu’il va se passer, c’est que si on n’encourage pas le développement d’alternatives, on va se retrouver à tous penser et parler comme ChatGPT.
https://basta.media/nous-sommes-incapables-de-maitriser-les-consequences-de-l-ia
Commentaires récents