OpenAI a annoncé le lancement de ChatGPT Health, une nouvelle interface dédiée aux conversations de santé et de bien-être. Cette fonctionnalité permet aux utilisateurs de connecter leurs dossiers médicaux et applications de suivi à l’IA. Présentée comme un outil d’aide à la compréhension, elle relance toutefois les débats. Et ceci notamment sur la fiabilité, la sécurité et les risques liés à l’usage médical des IA génératives.
Sommaire :
ChatGPT Health : une nouvelle interface santé aux ambitions larges
« Nous lançons ChatGPT Santé, une expérience dédiée qui combine de manière sécurisée vos informations de santé avec l’intelligence de ChatGPT, pour vous aider à vous sentir mieux informé, préparé pour gérer votre santé », peut-on lire sur le site d’OpenAI.
Dévoilée mercredi, ChatGPT Health vise à centraliser des données issues de dossiers médicaux et d’applications comme Apple Health ou MyFitnessPal. Son principal but est, entre autres, de fournir des réponses personnalisées. Selon OpenAI, plus de 230 millions de personnes interrogent chaque semaine ChatGPT sur des sujets liés à la santé, ce qui en fait l’un de ses usages principaux.
L’entreprise indique avoir travaillé avec plus de 260 médecins dans 60 pays sur deux ans pour encadrer cette fonctionnalité. Les usages annoncés restent non cliniques :
- Résumé de consignes médicales ;
- Préparation de rendez-vous ;
- Compréhension de résultats d’analyses ;
- Suivi de tendances de santé.
OpenAI affirme également que les conversations de ChatGPT Health sont stockées séparément et ne servent pas à entraîner ses modèles.
Cependant, la fonctionnalité est pour l’instant limitée à une liste d’attente aux États-Unis. Aussi, elle n’est pas disponible dans l’Espace économique européen, en raison de cadres réglementaires plus stricts sur les données sensibles.
VOIR AUSSI : Après Anthropic, OpenAI et Meta, Google admet que l’IA pourrait se retourner contre l’humain
Des risques structurels liés aux IA génératives
Malgré ces garde-fous, ChatGPT Health ravive une controverse persistante : les hallucinations des modèles de langage. Ces IA génèrent des réponses plausibles, mais parfois factuellement incorrectes, ce qui pose un problème majeur dans un contexte médical. Le cas rapporté par SFGate peut servir d’exemple. Ceci concerne le décès d’un jeune homme après des mois de conseils dangereux fournis par ChatGPT hors cadre médical. Elle illustre les dérives possibles lorsque les garde-fous échouent sur la durée.
Même si cet événement n’impliquait pas directement ChatGPT Health, il met en lumière un risque fondamental. En effet, un utilisateur non formé peut difficilement détecter une erreur dans une analyse de résultats ou un résumé médical erroné. OpenAI maintient d’ailleurs dans ses conditions d’utilisation que ses services ne sont pas destinés au diagnostic ni au traitement. Une position réaffirmée pour ChatGPT Health.
ChatGPT Health s’inscrit dans la stratégie d’OpenAI visant à faire de ChatGPT un assistant personnel polyvalent, y compris dans le domaine de la santé. En l’état et pour l’instant, il ne peut se substituer à un professionnel de santé.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






