Le développement de l’intelligence artificielle avance à grands pas et les grands acteurs ne cessent de tirer la sonnette d’alarme à propos. L’année dernière, Anthropic, l’entreprise derrière Claude AI, avait émis une alerte sur les risques de cette technologie avant de soutenir une expérience qui prouvait que l’IA pouvait user de chantages pour maintenir sa position. Informations que confirment d’ailleurs les récentes recherches d’OpenAI : l’IA peut mentir pour parvenir à ses fins. En février dernier, Meta avait pris l’engagement de mettre fin au développement de ses systèmes d’IA si ces derniers devenaient dangereux. Une position que partage entièrement Google avec son dernier rapport au sujet du risque des modèles d’IA. On vous explique.
Sommaire :
Les trois principaux risques
Il y a quelques jours, Google a publié une nouvelle version de son Frontier Safety Framework, ou cadre de sécurité Frontier, en français. En l’absence d’une législation qui encadre et règlemente l’intelligence artificielle, ce document fonctionne comme une frontière critique à ne pas dépasser, au risque de voir l’intelligence artificielle échapper à l’homme et ainsi de se retourner contre lui.
À ce propos, Google établit trois axes principaux :
- L’utilisation de l’intelligence artificielle par des humains à des fins malveillantes
- La création, par des IA spécialisées, d’autres IA si complexes que l’homme ne pourrait plus les comprendre
- La création d’une IA si intelligente qui pourrait manipuler ses utilisateurs sans que ces derniers s’en rendent compte
Cependant, ce cadre frontalier arrive un peu comme une tentative de bonne conscience, car le danger est présent et l’on peut clairement déjà identifier des dépassements de ces frontières. Sam Altman affirmait il y a quelques jours que l’IA rendait la cybercriminalité performante. En plus d’aider à brouiller les anciennes pistes qui servaient à reconnaître les fraudes, l’IA amplifie les deepfakes.
VOIR AUSSI : Bill Gates rejoint l’ancien patron de Google sur la question de l’IA
L’IA évolue à grands pas avec ses risques et plus vite que les législateurs
L’intelligence artificielle progresse à une vitesse fulgurante. L’an dernier, l’IA ne pouvait générer que des vidéos muettes avec des scènes incohérentes. Aujourd’hui, toutes ces limites ont été dépassées. Hier, les systèmes d’IA étaient cantonnés à de sortes de chatbots sans interaction, mais nous voilà déjà à l’ère de l’IA agentique. Cette évolution constante est malheureusement inhérente à ses dangers.
Avec cette dernière forme d’IA capable de raisonner sans surveillance, les risques de mensonges contre les utilisateurs ont grandi, de même que les menaces et manipulations. Face à cela, Google préconise la mise en place de mesures d’atténuation supplémentaires.
Malheureusement, ces systèmes d’IA sont en avance sur les législateurs qui peinent à instaurer des régulations pertinentes. Ce décalage entraîne des risques non négligeables, notamment en matière de protection des données personnelles et d’éthique, notamment avec les compagnons IA.
Un cadre législatif clair permettrait non seulement de protéger les individus, mais également de favoriser un environnement propice à l’innovation responsable, renforçant ainsi la crédibilité des entreprises technologiques.
Si l’IA continue d’évoluer sans un encadrement légal sûr et préventif, nous risquons de sacrifier des valeurs fondamentales au profit de l’innovation rapide.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :







Dans le monde moderne, les rencontres virtuelles sont devenues un moyen privilégié de créer des liens. Grâce à bonjouralamour, il est possible de découvrir des personnes compatibles, d’échanger librement et de vivre des histoires uniques. Ce site se distingue par son atmosphère bienveillante et son engagement à favoriser des connexions sincères et durables.