Sport
Des recherches publiées dans The Lancet Digital Health et Nature Medicine mettent en garde contre les limites actuelles des outils d’intelligence artificielle en matière de conseils médicaux. Les études révèlent que les modèles d’IA sont plus enclins
Une étude menée par des chercheurs de la faculté de médecine Icahn du Mount Sinai, à New York, a évalué 20 grands modèles linguistiques open source. Les résultats montrent que ces systèmes sont davantage trompés par des notes médicales apparemment authentiques que par des publications issues des réseaux sociaux.
Selon le Dr Eyal Klang, les modèles d’IA tendent à accorder plus d’importance à la forme et au ton d’un énoncé qu’à sa véracité. En moyenne, les outils testés ont relayé des informations médicales fabriquées dans environ 32 % des cas. Ce taux grimpe à près de 47 % lorsque la désinformation est insérée dans ce qui ressemble à un compte rendu hospitalier crédible. À l’inverse, lorsqu’elle provient d’un post Reddit, la probabilité chute à 9 %.
L’étude souligne également l’influence du ton employé dans les requêtes : les formulations autoritaires — par exemple, lorsqu’un utilisateur se présente comme professionnel de santé — augmentent la probabilité que l’IA valide des affirmations erronées. Les modèles GPT d’OpenAI se sont révélés les plus performants pour détecter les erreurs, tandis que certains autres systèmes validaient jusqu’à 63,6 % des fausses affirmations.
Par ailleurs, une seconde étude menée par l’Oxford Internet Institute et le Nuffield Department of Primary Health Care Sciences de l’Université d’Oxford conclut que l’utilisation de chatbots d’IA pour des conseils médicaux peut exposer les patients à des risques importants. Près de 1 300 participants ont pris part à des scénarios cliniques : les chercheurs ont observé que les outils d’IA produisent souvent un « mélange d’informations bonnes et mauvaises » difficile à distinguer pour les utilisateurs.
La médecin généraliste Rebecca Payne avertit que, malgré les performances impressionnantes des chatbots aux tests standardisés, ils ne sont pas prêts à assumer un rôle clinique. Les chercheurs appellent à renforcer les garde-fous et les mécanismes de vérification avant un déploiement élargi de ces technologies dans les systèmes de santé.
SOURCE: NewstimeHub
Comments
No comments Yet
Comment