Comme ce fut le cas avec la bombe atomique, les grandes entreprises de la tech sont désormais lancées dans la course à l’intelligence artificielle. À la suite d’OpenAI, Google a lancé Bard et Meta travaille bien en interne sur son modèle qu’il juge plus performant déjà. Mais, chaque jour, des voix s’élèvent pour demander un moratoire sur le développement des outils IA ou encore qu’un cadre juridique soit défini pour en limiter les conséquences. Dans son dernier article de blog, l’ancien patron de Microsoft a clarifié sa position sur la question.
Sommaire :
L’IA a des risques, mais…
Ancien patron de Microsoft, très investi dans la course à l’intelligence artificielle, et défenseur intransigeant de l’innovation, Bill Gates a adopté une position stratégique. L’homme de Seattle reconnaît bien que l’intelligence artificielle a des risques. Elle pourrait engendrer une variété de problèmes tels que la tricherie à l’école, l’augmentation des deepfakes, la création des algorithmes malveillants, etc. Néanmoins, pour lui, il n’y a rien d’alarmant. Ces dangers, dit-il, sont bien contrôlables et l’IA elle-même pourrait aider à y mettre fin. « L’avenir de l’IA n’est pas aussi sombre que certaines le pensent ».
Bill Gates pense que les problèmes qu’engendre l’IA ne seront pas aussi différents de ceux que les inventions précédentes ont créés à leur sortie. Il cite notamment la calculatrice qui a d’abord été considérée comme de la tricherie, avant d’être autorisée. C’est aussi le cas des ordinateurs portables, un temps, interdits, mais qui aujourd’hui sont au cœur de la formation. L’exemple de la voiture a également été cité. Le cofondateur de Microsoft rappelle ainsi que toute innovation a d’abord engendré des problèmes et même rencontré des oppositions. Mais, par la suite, elle a trouvé sa place au sein de la population.
« Peu de temps après que les premières voitures ont été sur la route, il y a eu le premier accident de voiture. Mais, nous n’avons pas interdit les voitures – nous avons adopté des limites de vitesse, des normes de sécurité… », a-t-il ajouté.
VOIR AUSSI : Prompt Engineer : le métier IA qui fait gagner jusqu’à 300 000 euros
Il rejoint Éric Schmidt sur la question
En matière d’intelligence artificielle, Bill Gates est conscient que sa voix compte. Alors, même s’il pense que cette innovation technologique n’est pas aussi dangereuse que certaines personnes le pensent, il recommande quand même que les organisations internationales ou les États établissent une règlementation qui s’impose à tout le monde. L’ex-dirigeant de Microsoft, bien que n’étant pas alarmant, rejoint tout de même l’ancien patron de Google, Éric Schmidt. Avant le lancement de ChatGPT et le début de cette folle course, ce dernier avait déjà comparé l’IA à la bombe atomique. Il a donc demandé qu’une règlementation stricte soit mise en place comme elle fut pour cette arme de destruction massive.
« Dans les années 50 et 60, nous avons finalement créé un monde où il y avait une règle de ‘sans surprise’ concernant les essais nucléaires. […] Il faut commencer à mettre en place un système dans lequel, parce que vous vous armez ou que vous vous préparez, vous déclenchez la même chose alors l’autre côté. Nous n’avons personne qui travaille là-dessus, et pourtant l’IA est si puissante »
Éric Schmidt.
Quels sont les grands dangers de l’intelligence artificielle ?
Comme toute invention humaine, l’IA ne présente pas que des avantages. Elle présente certains dangers qui méritent d’être considérés :
- La prolifération des deepfakes : il s’agit de fausses images qui manipulent la réalité. Entretemps, elles ont prospéré sur le web, avec le lancement de Midjourney. C’est l’exemple des images d’Emmanuel Macron en tant qu’éboueur, le Pape en doudoune dans la rue, Donald Trump arrêté, etc. Il y a également de fausses vidéos dans lesquelles l’identité d’une personne est usurpée en lui faisant faire de bonnes choses (rarissime) ou des choses sordides ;
- Piratage et escroquerie : malheureusement, ces cas deviennent de plus en plus nombreux. L’IA permet déjà aux hackers d’entreprendre des piratages sur mesure. Les modèles vocaux permettent par exemple de cloner la voix d’un proche pour soutirer de l’argent à ses parents.
- La corruption des données : modifier délibérément les données pour fausser une étude ou des analyses ;
- Manipulation des marchés financiers : ceci consiste à corrompre des algorithmes pour faire baisser la valeur du marché ou tout simplement nuire à la concurrence, etc.
Néanmoins, selon Bill Gates, tout danger de l’IA peut être réglé avec l’IA. Espérons !
Leave a Reply