Intelligence artificielle : « une technologie dangereuse pour le discours public »

Intelligence artificielle : « une technologie dangereuse pour le discours public »
Portrait de Jean-Philippe Peyrache

● Elon Musk● Intelligence artificielle● chatGPT

Partenariat avec le journal La Brèche. Plusieurs personnalités du monde des nouvelles technologies, Elon Musk en tête, ont signé le 29 mars dernier une lettre ouverte appelant à suspendre le développement de l’intelligence artificielle. À l’heure où le robot conversationnel ChatGPT déchaîne les passions, cette démarche surprenante est portée par ceux-là mêmes qui financent son développement. En 2021, deux chercheuses de chez Google alertaient déjà sur les dérives associées à ces technologies. Elles n’ont pas été entendues et ont été débarquées de la multinationale.

Le 14 mars dernier, OpenAI, entreprise californienne spécialisée dans l’intelligence artificielle, a rendu publique la dernière version de son robot conversationnel ChatGPT. Ce fut un électrochoc pour le grand public qui a découvert de nouvelles questions d’éthique : les professions intellectuelles et artistiques seront-elles bientôt remplacées par ces machines d’un nouveau genre ? À se réfugier auprès de ces « amis » virtuels, ne risque-t-on pas de se couper du monde, voire pire ?

Elon Musk finance et dénonce : « C’est schizophrénique »

C’est dans ce contexte que des milliers d’experts ont appelé les laboratoires de recherche à suspendre le développement des systèmes d’intelligence artificielle, dans une lettre ouverte largement relayée, faisant état d’un « risque pour la civilisation et l’humanité ». Elon Musk, par ailleurs cofondateur d’OpenAI, en est un signataire actif. « Il a pourtant énormément financé le développement de ces outils. C’est schizophrénique », commente Aurélien Bellet, chercheur à l’Institut national de recherche en informatique et en automatique (INRIA).

Deux ans plus tôt, une initiative similaire a eu lieu sans connaître le même retentissement. Quatre chercheuses – dont Margaret Mitchell et Timnit Gebru, à l’époque toutes deux chez Google – publient un article alertant quant aux dangers soulevés par ces robots conversationnels. Et ils sont, selon elles, multiples.

Un coût environnemental démesuré pour l’entraînement d’un robot conversationnel

En premier lieu, les chercheuses tiennent à mettre en évidence le coût, financier comme environnemental, de ces technologies. Tandis qu’un être humain est responsable en moyenne de l’émission de 5 tonnes équivalent CO2 par an, la procédure d’apprentissage d’un tel robot conversationnel aurait pour conséquence l’émission de 284 tonnes. Ceci s’expliquant par la quantité de données phénoménale utilisée pour « entraîner » ces intelligences artificielles.

« Ces robots conversationnels sont fondés sur ce que l’on appelle des gigamodèles de langue. Ce sont de très gros modèles, avec des milliards de paramètres, qui ont besoin de se “nourrir” d’énormément de données, souvent issues d’Internet », détaille Aurélien Bellet.

« Ces robots n’ont pas de notion de source. Ils sont ainsi tout à fait capables de générer des réponses fausses au milieu de propos véridiques. Pour l’instant, on ne sait pas trop comment éviter que ça arrive », explique le chercheur Aurélien Bellet.
Fred Z.

« Internet est à l’origine d’une surreprésentation de propos misogynes ou vantant le suprémacisme blanc »

Par ailleurs, selon les autrices, « la taille des corpus ne garantit pas la diversité ». D’après elles, si « Internet est un espace virtuel large et divers, […] il devrait être représentatif des différentes manières qu’ont les personnes de voir le monde. »Cependant, elles expliquent que « les voix des personnes les plus susceptibles de porter un point de vue hégémonique sont aussi les plus susceptibles d’être intégrées par l’algorithme », entraînant ainsi une « surreprésentation de propos misogynes ou vantant le suprémacisme blanc ». Ceci étant dû en grande partie au caractère peu accueillant pour certaines catégories de population des plus célèbres plateformes d’échanges en ligne (Twitter, Reddit…), largement utilisées pour entraîner ChatGPT et consorts.

Des biais sociaux, amplifiés par les algorithmes d’intelligence artificielle

Un des autres écueils liés au développement de telles technologies, si l’on en croit les chercheuses, concerne le renforcement des biais sociaux. « Ces modèles sont entraînés à l’origine sur des données issues d’Internet, données qui sont elles-mêmes biaisées car représentatives des discriminations au sein de la société : le terme infirmier est souvent utilisé au féminin, tandis que le terme docteur est souvent associé au masculin par exemple. Les robots conversationnels, conçus pour générer des textes au plus proche de ceux qu’ils ont appris, vont avoir tendance à renforcer ces biais », explique Aurélien Bellet.

ChatGPT est un outil de désinformation massive

Dans leur document, les chercheuses s’inquiètent ainsi des impacts potentiels sur le débat public que pourrait entraîner la mise en place de ces outils, notamment vis-à-vis des populations déjà stigmatisées. Mathilde Saliou, journaliste spécialisée dans les nouvelles technologies, abonde dans le même sens : « Il est écrit dans les rapports techniques de ChatGPT que cette technologie est dangereuse pour le discours public, car il s’agit d’un outil de désinformation massive. Pourtant, de nombreuses entreprises du numérique sont en train de le mettre en place dans des applications destinées au grand public, ne voyant que l’intérêt économique direct. »

Deux chercheuses licenciées par Google

En conclusion, les autrices de l’article invitent à faire un pas de côté et à mettre les bénéfices potentiels de ces applications en perspective avec les risques dont elles sont porteuses, parmi lesquels « l’entretien des stéréotypes, le dénigrement et l’augmentation de l’idéologie extrémiste ». Elles appellent ainsi la communauté scientifique à s’interroger sur la pertinence de « ces applications qui visent à imiter de manière crédible les humains », rappelant que les propos générés, potentiellement faux ou discriminants, peuvent parfois être pris pour argent comptant, souvent au détriment de groupes sociaux les plus fragilisés. Ce que confirme Aurélien Bellet : « Ces robots n’ont pas de notion de source. Ils sont ainsi tout à fait capables de générer des réponses fausses au milieu de propos véridiques. Pour l’instant, on ne sait pas trop comment éviter que ça arrive. »

« On cherche immédiatement à marchandiser ces technologies, sans prendre le temps de s’interroger sur les éventuels effets pervers qu’elles induisent »

Les réserves émises par les chercheuses n’ont cependant pas été du goût de tout le monde. Deux des coautrices, Margaret Mitchell et Timnit Gebru, qui faisaient partie de l’unité affectée à l’éthique dans l’intelligence artificielle chez Google, ont ainsi été licenciées, officiellement pour des raisons indépendantes de la publication de leurs travaux. Les intérêts économiques primeraient-ils sur la prise en compte des enjeux éthiques ? C’est ce que semble affirmer Mathilde Saliou : « En ce qui concerne l’intelligence artificielle, on est en train de faire d’énormes progrès, ce qui est remarquable pour l’avancée de la connaissance scientifique. Toutefois, on cherche immédiatement à marchandiser ces technologies, sans prendre le temps de s’interroger sur les éventuels effets pervers qu’elles induisent. » La « pause » réclamée par Elon Musk, Steve Wozniak et d’autres en serait l’occasion.

Des inquiétudes légitimes pour quelle législation ?

Les progrès rapides de l’intelligence artificielle font logiquement émerger de nouvelles questions de société. Pour autant, l’appel de nombreux experts à une « pause » interroge quant à sa pertinence, comme l’exprime Aurélien Bellet : « Est-ce que décréter que l’on arrête le développement est souhaitable ? Est-ce efficace ? Je ne sais pas si c’est la solution. » Selon le chercheur, qui partage les inquiétudes relayées, il est certain que ces technologies sont porteuses d’une « potentialité de changement de beaucoup d’emplois dont il est difficile d’estimer les conséquences à l’heure actuelle ». Ainsi, d’après une étude récente de la banque états-unienne Goldman Sachs, l’intelligence artificielle – dans le cas où elle « tiendrait toutes ses promesses » – pourrait entraîner l’automatisation de 300 millions d’emplois à l’échelle mondiale. Pour Aurélien Bellet, « il est urgent que les autorités publiquess’emparent de façon urgente de ces questions-là, car pour le moment on est loin du compte ».

L’Italie interdit ChatGPT

Lancé en novembre dernier, ChatGPT, le robot conversationnel d’OpenAI, est utilisé pour générer du texte de manière autonome, en imitant de manière bluffante les styles et sujets de conversation humains. Il a récemment été au centre de l’actualité en raison des questions nouvelles qu’il pose quant au travail scolaire par exemple. Si les pouvoirs publics ont semblé pris de court par cette technologie novatrice, l’Italie est devenue, le 31 mars, le premier État occidental à en bloquer l’usage. Selon l’agence de protection des données du pays, l’application d’OpenAI ne respecte pas le RGPD. Si d’autres États européens pouvaient emboîter le pas des autorités transalpines, il est à noter que ChatGPT est déjà bloqué dans plusieurs autres pays comme la Chine, la Corée du Nord, l’Iran ou encore la Russie.

Crédits photo/illustration en haut de page :
Morgane Sabouret

https://www.blast-info.fr/articles/2023/intelligence-artificielle-une-technologie-dangereuse-pour-le-discours-public-FVjz7Z4hS4W5gicytyAr-w

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.