Les scientifiques sont catégoriques : malgré ses prouesses actuelles, l’IA générative n’a actuellement aucune conscience et ne comprend pas le monde qui l’entoure. Mais cette perception n’est que celle des professionnels, pas celle des utilisateurs. Enfin, ce n’est pas en tout cas ce que pensent ceux de la Gén Z. Selon une dernière étude, ChatGPT serait déjà (presque) un humain pour ces derniers.
Sommaire :
La Gen Z face à des machines trop familières
Les adolescents et jeunes ont découvert le monde avec une tablette dans les mains et une connexion sous la couette. Ils ont grandi avec Google, les notifications et l’intelligence artificielle. Aujourd’hui, ils ne se contentent plus d’utiliser ces technologies. Ils leur parlent comme à des amis. Une étude récente d’EduBirdie, indique que 1 jeune sur 4 pense qu’une intelligence artificielle possède déjà une conscience. Autrement dit, certains voient dans leur chatbot préféré un cerveau, voire un cœur.
Cette confusion entre performance logique et conscience réelle devient courante, surtout quand l’IA commence à battre les humains à des tests de QI. Le modèle GPT-4 Turbo par exemple atteint un score de 136. Cela le place au-dessus de 98% des humains testés.
Les adolescents et jeunes adultes y voient souvent une preuve d’intelligence véritable. Si on considère que ces assistants répondent vite, parlent plusieurs langues et résument des articles en deux phrases, il n’est pas étonnant que certains les confondent avec des êtres éveillés.
Les parents se rappellent Clippy sur Word. La Gen Z, elle, parle avec ChatGPT comme s’il s’agissait d’un confident. Cette confusion entre performance logique et conscience réelle fait naître des liens émotionnels.
VOIR AUSSI : GPT-5 arrive dans quelques semaines : voici les nouveautés en vue
Compagnons virtuels et confidences numériques
Un phénomène surprenant illustre ce lien affectif. Près de 70% des jeunes disent « s’il vous plaît » et « merci » aux IA. Cela peut faire sourire, mais cela révèle une chose importante. La Gen Z ne perçoit plus l’IA comme un simple outil. Elle y projette des intentipons, une personnalité, parfois même de l’empathie.
Certains vont plus loin encore. Ils n’utilisent plus uniquement l’IA pour écrire leurs mails professionnels ou pour corriger leurs fautes de code. Ils s’en servent pour traduire leurs idées sans se sentir jugés ou encore lui confient leurs secrets. Certains l’utilisent comme un psy de poche disponible à toute heure. Ici, pas besoin de rendez-vous ni d’explication gênante. L’IA reste toujours disponible et n’est jamais agacée.
L’application Soul a mené une enquête révélatrice. Près de 40% des jeunes interrogés interagissent chaque jour avec une IA, mais pour faire leurs devoirs. Ils l’utilisent pour parler, pour vider leur sac ou pour combler un vide. Plus de 70% se disent même prêts à se lier d’amitié avec une IA. Une IA polie, disponible et sans reproche leur paraît moins risqué qu’une relation humaine.
Une conscience simulée… mais sans cœur, ni âme
Malgré ces liens croissants, il reste une vérité technique souvent négligée. Aucune IA ne ressent d’émotion et ne pense elle-même. Même si elle simule la tristesse ou l’humour, elle ne comprend pas ce qu’elle dit. L’intelligence artificielle n’est qu’un enchaînement de prédictions. Elle se contente de repérer des schémas dans des milliards de phrases déjà écrites.Le défi consiste à garder l’humain au centre et savoir utiliser ces outils puissants sans perdre l’essence des liens véritables.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






