Longtemps avant l’ère de l’IA générative, en 1950, Alan Turing avait posé les conditions pour évaluer l’intelligence d’une machine dans son article Computing Machinery and Intelligence. Très connu sous le nom de test de Turing, il avait une exécution simple : un humain devait discuter à l’aveugle avec deux interlocuteurs (une machine et un humain) et deviner lequel des deux est réellement une machine. Si la machine parvenait à simuler l’humain et ne se fait pas démasquer, elle est considérée comme intelligente. ChatGPT-4.5 y est parvenu.
Sommaire :
La machine est devenue aussi crédible que l’humain
Depuis plus de 50 ans, de nombreuses machines ont tenté de passer ce test que l’on considérait comme fondamental pour ‘‘déterminer’’ l’intelligence artificielle. Cependant, aucune n’est jusque-là parvenue à la réussite. Chose désormais archivée par ChatGPT-4.5 d’OpenAI lors de la version moderne du test organisée par une équipe de l’université de Californie à San Diego.
284 modèles d’IA et humains étaient mis à l’épreuve, dont Llama-3.1, ELIZA, GPT-4o et GPT-4.5. Avec divers tests passés, ce dernier est parvenu à obtenir un score de fiabilité de 73 %. Plutôt que de servir des réponses neutres comme à son accoutumée, ChatGPT-4.5 s’est fait passer pour un jeune homme introverti avec un langage typique de notre époque avec les codes culturels y afférents.
La conclusion est simple, selon les chercheurs : la machine est pour la première fois parvenue à se faire passer pour un humain, et même plus, à de nombreuses reprises, selon les résultats du test.
VOIR AUSSI : Attention, ChatGPT a une mémoire plus longue : ce qui change pour les utilisateurs
Devons-nous prendre peur ?
Une IA capable de simuler l’humain aura-t-elle de limite ? Après tout, l’IA elle-même n’est rien et n’est capable d’aucune action sans l’intervention d’un humain. C’est bien là tout le danger.
Selon l’équipe derrière le test de Turing de l’université de Californie, cette prouesse de ChatGPT-4.5 est un atout, mais aussi un danger, car cette capacité pourrait être exploitée à de mauvaises fins : « Des modèles capables de tromper avec autant de constance pourraient être utilisés à des fins de manipulation sociale ou de diffusion de fausses informations ».
Pouvant désormais simuler une persona, l’IA est capable d’établir une relation fluide avec son utilisateur afin de mieux le comprendre et répondre à ses besoins. Mais ce qui lui permet d’exceller du bon côté pourrait aussi être exploité du côté obscur et l’humain est connu pour y jouer.
À bien des égards, la malléabilité de ChatGPT-4.5 exploité du mauvais côté pourrait bien créer des dégâts. Il est devenu assez excellent pour créer de la désinformation très crédible que l’on prendrait rapidement pour du vrai, sans un minimum de recherche. De même, il devient très performant pour être très utile dans des domaines vertueux, dont l’éducation et l’accompagnement, etc. Étant capable du pire comme du meilleur, un encadrement strict est important pour limiter les débordements.
Par ailleurs, le test de Turing est-il encore crédible pour attester de l’intelligence d’une machine, sachant qu’une IA peut être entrainée spécifiquement pour réussir le test ?
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






