Depuis novembre 2022, l’intelligence artificielle est omniprésente dans nos vies. Les applications dopées à l’IA sont déployées au quotidien et il ne passe pas un jour sans que la presse ne mentionne cette nouvelle technologie révolutionnaire. Entre les géants de la Tech, la concurrence est rude pour avoir son propre modèle d’intelligence artificielle : OpenAI a ChatGPT, Google possède Bard et Gemini, Microsoft est propriétaire de Microsoft Copilot, etc. Une chose est certaine, les performances de l’IA sont incroyables et dépassent déjà ce qu’on pouvait concevoir à cette étape, dans l’entendement humain : générer des images, créer des vidéos, analyser des documents, parler et raisonner comme un humain, etc. Au vu de tout ceci, on peut rapidement penser que l’IA est capable de tout. Erreur ! Il est temps de déconstruire trois mythes liés à l’intelligence artificielle.
Sommaire :
L’intelligence artificielle est universelle
Quand on commence à discuter avec un modèle d’IA, on pense souvent à tort que ce dernier a tout lu et connaît tout pour répondre à n’importe quelle question sur tous les pays du monde. Malheureusement, ce n’est pas vrai. Quand bien même, ils sont capables de répondre à presque toutes les questions liées à la culture occidentale, les différents modèles d’intelligence artificielle qui existent ignorent encore plusieurs ethnies du monde. Principalement, il s’agit de celles qui n’ont pas de données numériques que les créateurs pourraient utiliser pour nourrir leur IA.
« En Chine, certaines ethnies minoritaires sont complètement absentes des données utilisées par les IA », affirmait Chen Qiufan, écrivain SF ayant travaillé pour Google et Baidu. Puisque ces modèles d’IA n’ont rien de ces peuples qu’ils peuvent consommer, ils les ignorent tout simplement lorsqu’on leur pose des questions à propos. Ceci laisse entendre que l’IA sera toujours en retard, tant que des recherches ne sont pas menées pour mettre à jour sa base de données.
Par ailleurs, la langue utilisée par une intelligence artificielle montre qu’elle n’est pas universelle. Les modèles qui existent aujourd’hui ont été entraînés en anglais. ChatGPT 3 a par exemple été entraîné à 93% avec des données en anglais. C’est notamment pourquoi il répond mieux lorsqu’on lui parle en anglais. Il en est de même de plusieurs modèles d’IA qui existent actuellement. Une chose qui change leur perception de la réalité.
L’IA est impartiale
Bien que ChatGPT et ses compères nous donnent l’impression d’être un arbitre impartial, retenez qu’ils ne répondent qu’en fonction de leur base de données, et selon ce qui leur a été donné de répondre dans certaines circonstances. À ce propos, Elene Usdin, auteure de bande dessinée, photographe et illustratrice, affirme de l’IA qu’elle est un « outil de conquête impérialiste puisqu’elle est éduquée aux normes d’un pays, en l’occurrence les États-Unis majoritairement ».
Pour nous rendre compte que l’IA n’est pas vraiment neutre, nous pouvons remonter à 2015, lorsque l’algorithme de reconnaissance faciale de Google Photos avait qualifié un homme noir de “gorille”. Le problème vient du fait que l’outil a été entraîné avec une base de données constituées d’images de personnes à la peau blanche.
En 2023, il a fallu plusieurs mises à jour avant que les images générées par DALL-E puissent commencer à inclure et mieux représenter des personnes à la peau noire.
L’IA est transparente
Selon Sylvie Lainé, ingénieure en informatique, « On ne peut pas faire expliciter clairement à une IA les raisons pour lesquelles elle arrive à une conclusion ». Vous êtes déjà sans doute confronté à ce problème lorsque vous essayez de comprendre ce que l’IA vous a servi comme réponse. C’est tout simple : il est difficile de comprendre comment ces robots réfléchissent. Voilà pourquoi on les désigne comme des boîtes noires.
Les modèles d’IA qui existent sont aujourd’hui incapables de citer leur source. Cette qualité même qui pourrait apporter un peu plus de crédibilité à ce qu’elles affirment.
C’est fou ce que l’IA a accompli, mais ces limites me rassurent un peu. Je veux dire, ça montre qu’il y a encore de la place pour l’ingéniosité humaine, non ?
Vraiment intéressant de voir que l’IA n’est pas infaillible. Ça me fait penser que l’on devrait toujours vérifier les infos données par l’IA.
Ouais, c’est assez dingue de penser que l’IA a ses propres biais. Cela montre qu’elle reflète vraiment la société qui l’a créée. Un peu flippant, mais fascinant !
J’ai toujours pensé que l’IA était impartiale, mais ça a du sens que son apprentissage dépend des données qu’on lui fournit. Cela soulève de sérieuses questions éthiques, non ?
Cet aspect de ‘boîte noire’ de l’IA me préoccupe. Comment pouvons-nous vraiment faire confiance à une technologie si on ne comprend pas entièrement comment elle fonctionne ?