ChatGPT dans la santé
L’intégration d’outils d’intelligence artificielle tels que ChatGPT soulève de nombreuses questions dans le domaine de la santé. Avec son adoption par des millions d’utilisateurs, certains envisagent même son rôle potentiel en tant que médecin virtuel. Cependant, il est crucial de démêler la réalité des idées préconçues, reconnaissant à la fois les capacités prometteuses de ChatGPT et les limites incontournables de cette technologie.
Nicolas Latour, expert digital en santé, nous apporte son éclairage sur ChatGPT et son application.
Beaucoup d’idées reçues circulent sur l’utilisation de ChatGPT en santé à commencer par celle qu’il serait un meilleur médecin que les médecins, qu’en penser ?
Considéré par certains comme la plus grande révolution depuis les années 1980, une révolution aussi importante qu’Internet ou l’ordinateur selon Bill Gates, ChatGPT, le dernier modèle de langage d’OpenAI*, son créateur, suscite à la fois beaucoup d’enthousiasme et d’inquiétude quant à l’impact potentiel de l’intelligence artificielle sur divers aspects de notre vie. Avec plus d’un million d’utilisateurs dès les premiers jours et un nombre stupéfiant de 100 millions au cours des deux premiers mois1, ChatGPT est rapidement devenu l’application grand public à la croissance la plus rapide de l’histoire. Naturellement, certaines personnes s’interrogent sur le champ des possibles de ChatGPT dans la santé, oubliant cependant que cela reste un outil de travail. En aucun cas, ChatGPT ne peut être assimilable à une Intelligence Artificielle Générale (IAG), capable d’effectuer l’ensemble des tâches intellectuelles qu’un être humain peut effectuer. Si cette IAG peut potentiellement être aussi qualifiée qu’un médecin, elle n’existe pas encore et il va sans doute falloir patienter quelques siècles avant de la voir débarquer dans nos vies. Certes, des études affirment que GPT-4 manifesterait une intelligence plus générale que les précédents modèles d’IA, et afficherait des performances de niveau humain dans de multiples domaines tels que les mathématiques, la programmation et le judiciaire. De même, une autre étude publiée en 2023 rapporte que GPT-4 surpasse 99 % des humains aux tests de créativité de Torrance2. Toutefois, si l’application de modèles d’IA comme ChatGPT s’avèrent être d’une grande utilité dans le domaine médical, ils ne remplacent pas la richesse de l’intelligence humaine et de l’expérience clinique des médecins.
Dans cette même idée, ChatGPT est-il appelé à remplacer les praticiens ?
Bien que l‘IA ait le potentiel de révolutionner les soins de santé en améliorant les diagnostics et la gestion de cas cliniques, en détectant les possibles erreurs médicales et en réduisant les charges administratives, il est peu probable qu’elle remplace entièrement les médecins. Malgré les performances impressionnantes du ChatGPT dans les tests basés sur les connaissances, comme les soins de base en réanimation et les soins avancés en réanimation cardiovasculaire, il ne parvient pas à gérer le contexte et les nuances indispensables à des soins sûrs et efficaces aux patients. L’analyse de deux chercheurs d’Oxford, Carl Frey et Michael Osborne, suggère une faible probabilité (0,42 %)3 d’automatisation des tâches des médecins et des chirurgiens, soulignant le rôle irremplaçable des médecins dans l’administration de soins intégrés avec compassion. Le potentiel de l’IA dans les soins de santé réside dans l’augmentation des capacités des médecins, la redistribution des charges de travail et l’optimisation des performances afin d’alléger les charges de travail incessantes et les exigences administratives élevées. Aussi, il semble que l’avenir de la médecine réside davantage dans une collaboration étroite entre les professionnels de la santé et les technologies d’IA, chaque partie apportant ses forces spécifiques pour améliorer les résultats pour les patients.
Comment s’assurer que les données utilisées pour entraîner ChatGPT sont diverses, représentatives et exemptes de tout biais ou préjugé ?
Pour s’en assurer et éviter des disparités significatives dans les résultats des soins de santé pour différentes populations de patients, en particulier celles qui sont déjà marginalisées ou mal desservies, il faut veiller à ce que les ensembles de données utilisés pour l’entraînement représentent une diversité de populations en termes d’ethnies, de genres, d’âges et d’origines géographiques et de conditions médicales et cela nécessite notamment des efforts spécifiques pour collecter des données auprès de communautés sous-représentées. Il est également essentiel de documenter de manière transparente les sources et les caractéristiques des données utilisées, y compris les biais potentiels, ce qui permet aux utilisateurs et aux développeurs de comprendre les limites des modèles et d’ajuster leurs attentes en conséquence. En outre, la mise en place de mécanismes pour évaluer régulièrement les biais potentiels dans les résultats du modèle et l’implication active des communautés concernées dans le processus de collecte de données et d’entraînement du modèle sont nécessaires pour identifier des biais, des lacunes ou des problèmes spécifiques auxquels le modèle pourrait être confronté.
Si un chatbot ne peut pas être tenu responsable de son travail sachant qu’il n’existe pas de cadre juridique permettant de déterminer qui détient les droits sur le travail généré par l’IA, vers qui se tourner en cas d’erreur de diagnostic de la part de ChatGPT ?
Tout d’abord, rappelons que le 8 décembre 2023 le Parlement européen et le Conseil de l’Union européenne ont trouvé un accord qui va déboucher sur la première loi sur l’intelligence artificielle dans le monde4. Cette loi vise à réduire au minimum le risque de discriminations algorithmiques, assortie d’obligations en ce qui concerne les essais, la gestion des risques, la documentation et le contrôle humain tout au long du cycle de vie des systèmes d’IA. Cela étant dit, la définition des responsabilités juridiques lorsque les systèmes d’IA commettent des erreurs inévitables pose toujours un défi éthique de taille. La perspective de tenir l’IA pour responsable des erreurs soulève des questions sur la responsabilité et la nécessité d’un cadre réglementaire qui définisse les responsabilités des systèmes d’IA et de leurs homologues humains. Par ailleurs, il est important de souligner que les modèles d’IA ne doivent pas être utilisés comme substituts directs aux professionnels de la santé, mais plutôt comme des aides au diagnostic et/ou à la prise de décision clinique. Si une personne interroge ChatGPT en lui indiquant ses symptômes, ChatGPT rappellera systématiquement qu’il n’est pas qualifié pour délivrer un diagnostic médical et invitera cette personne à se rapprocher d’un professionnel de santé. En outre, si ChatGPT excelle dans la production de textes spécialisés, des études suggèrent des limites dans sa capacité à interpréter et à comprendre le contenu avec précision. Sa capacité à créer des manuscrits trompeurs ou incorrects sur le plan des faits présente des risques pour l’intégrité de la littérature scientifique et médicale. Des questions telles que l’absence de responsabilité pour le travail généré par l’IA, les droits de propriété et le risque de plagiat compliquent inévitablement le paysage éthique de l’IA dans la rédaction scientifique. La vigilance est de mise.
Comment les médecins peuvent-ils intégrer à leur pratique des technologies prometteuses sans accroître dans le même temps les risques liés à la fiabilité des décisions ?
ChatGPT est prometteur en matière de santé en ce qui concerne l’amélioration des pratiques médicales et la rationalisation des tâches administratives : les capacités de traitement du langage naturel de ChatGPT peuvent être par exemple exploitées pour rationaliser le processus de diagnostic, en permettant aux patients de mieux comprendre les symptômes et en facilitant l’identification des problèmes de santé. De même, en analysant les dossiers médicaux, les tests de diagnostic et les antécédents des patients, ChatGPT facilite l’extraction d’informations pertinentes à partir de données non structurées, contribuant ainsi à des diagnostics plus précis et plus efficaces. Sans parler de la réduction des temps d’attente à laquelle l’IA conversationnelle peut contribuer en répondant aux questions fréquemment posées, en triant les patients et en planifiant les rendez-vous, ce qui améliore en fin de compte l’accès des patients aux soins. Toutefois, il est impératif de s’attaquer aux préjugés, de définir les responsabilités juridiques et de garantir l’obligation de rendre des comptes avant de procéder à une mise en œuvre généralisée. Dans le domaine de la recherche scientifique et médicale, le potentiel de l’IA pour aider à la synthèse de la littérature et à la conception d’expériences est remarquable, mais la fiabilité et les préoccupations éthiques exigent un examen attentif. Pour aller de l’avant, une approche équilibrée et informée est nécessaire pour exploiter les avantages d’un outil d’IA comme ChatGPT tout en atténuant ses risques dans le domaine des soins de santé et de la recherche scientifique.
Bien que ChatGPT présente des opportunités significatives pour améliorer les pratiques médicales, il est impératif de reconnaître qu’il ne remplacera pas les professionnels de santé.
La collaboration entre l’intelligence artificielle et les praticiens émerge comme une voie prometteuse pour optimiser les soins, améliorer la communication patient-médecin et réduire les charges administratives. Pour autant, il ne faudrait pas occulter la nécessité d’une approche éthique et réglementaire pour garantir la responsabilité et la fiabilité des résultats. Alors que le paysage de l’IA dans la santé évolue à vitesse grand V, la vigilance demeure essentielle pour assurer une intégration équilibrée et informée de ces technologies.
*Société fondée en 2015 par plusieurs entrepreneurs, dont Elon Musk, basée à San Francisco et aujourd’hui dirigée par Sam Altman, considéré par ses pairs comme un génie de la tech.
Références
(1) ChatGPT Revenue and Usage Statistics (2024). Accessible sur https://www.businessofapps.com/data/chatgpt-statistics/ Consulté le 15.02.24.
(2) UM Research: AI tests into top 1% for original creative thinking. University of Montana, Juillet 2023. Accessible sur https://www.umt.edu/news/2023/07/070523test.php Consulté le 15.02.24.
(3) C.B. Frey et M.A. Osborne. The Future of Employment: How Susceptible Are Jobs to Computerisation? Sept. 2013. Accessible sur https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf Consulté le 15.02.24.
(4) Communiqué de Presse du Conseil de l’Union européenne. 9 décembre 2023. Accessible sur https://ue.delegfrance.org/le-conseil-et-le-parlement Consulté le 15.02.24.