« Mieux vaut ça que d’attendre six mois » : les médecins soutiennent le lancement de ChatGPT Health

Des experts ont soutenu le lancement de ChatGPT Health pour les consultations médicales, malgré les risques d'hallucinations liés aux modèles d'IA, rapporte TechCrunch.

Sina Bari, chirurgien en exercice et responsable de l'IA chez iMerit, a décrit comment son patient a consulté ChatGPT :

« Il est venu me voir récemment après que je lui ai recommandé un médicament et m'a montré un dialogue imprimé avec un chatbot. Ce dialogue indiquait que le médicament avait 45 % de chances de provoquer une embolie pulmonaire . »

Le docteur Bari a vérifié les sources et constaté que les statistiques provenaient d'un article portant sur les effets du médicament sur un sous-groupe spécifique de patients atteints de tuberculose. Ces données se sont avérées inapplicables à son cas clinique.

Malgré quelques inexactitudes, le médecin a salué le lancement de ChatGPT Health. Selon lui, ce service permet aux utilisateurs d'aborder leurs problèmes de santé dans un cadre plus confidentiel.

« Je trouve ça formidable. C'est quelque chose qui se fait déjà, donc formaliser le processus pour protéger les informations des patients et mettre en place certaines garanties rendra le processus plus efficace pour les patients », a déclaré le Dr Bari.

Les utilisateurs peuvent obtenir des recommandations plus personnalisées de ChatGPT Health en téléchargeant leurs dossiers médicaux et en synchronisant l'application avec Apple Health et MyFitnessPal. Cet accès approfondi aux informations personnelles a suscité l'inquiétude au sein de la communauté.

« Du jour au lendemain, des données médicales sont transférées d'organisations respectant la loi HIPAA à des prestataires qui ne la respectent pas. Je me demande comment les autorités de réglementation vont réagir », a déclaré Itay Schwartz, cofondateur de MIND.

Plus de 230 millions de personnes discutent chaque semaine de leurs problèmes de santé avec ChatGPT. Nombre d'entre elles ont cessé de rechercher leurs symptômes sur Google et se tournent vers le chatbot comme source d'information.

« C’est l’un des principaux cas d’utilisation de ChatGPT. Il est donc logique qu’ils souhaitent créer une version plus privée, sécurisée et optimisée du chatbot pour le secteur de la santé », a souligné Schwartz.

Le problème des hallucinations

Le principal problème des chatbots demeure les « hallucinations », un phénomène particulièrement critique dans le domaine de la santé. Les recherches de Vectara ont démontré que GPT-5 d'OpenAI « hallucine » plus fréquemment que ses concurrents de Google et d'Anthropic.

Cependant, Nigam Shah, professeur de médecine à l'université de Stanford, considère ces préoccupations comme secondaires. Selon lui, le véritable problème du système réside dans la difficulté d'accès aux médecins, et non dans le risque de recevoir des conseils erronés via ChatGPT.

« Actuellement, si vous vous rendez dans un centre de soins et souhaitez consulter un médecin généraliste, vous devez attendre entre trois et six mois. Si vous aviez le choix : attendre six mois et consulter un véritable spécialiste ou parler immédiatement à quelqu’un qui peut vous aider, que choisiriez-vous ? », a-t-il déclaré.

Les tâches administratives peuvent occuper près de la moitié du temps d'un médecin, réduisant considérablement le nombre de consultations. L'automatisation de ces processus permettra aux spécialistes de consacrer davantage de temps aux patients.

Le Dr Shah dirige une équipe à Stanford qui développe ChatEHR, un logiciel permettant aux médecins de travailler efficacement avec les dossiers médicaux électroniques de leurs patients.

« En le rendant plus convivial, les médecins pourront passer moins de temps à chercher les bonnes informations », a déclaré le Dr Sneha Jain, l'une des premières testeuses de ChatEHR.

Pour rappel, en janvier, Anthropic a annoncé la sortie de Claude for Healthcare, un ensemble d'outils destinés aux professionnels de santé et aux patients.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *