Information santé et intelligence artificielle : un risque bien réel
Dans ce travail, les experts évoquent également une « arme de désinformation de masse » en faisant référence à ces modèles, dont l’un des plus connus est ChatGPT. À titre d’exemple, en utilisant un seul modèle en langage accessible au public, en 65 minutes, 102 articles de blog distincts ont été générés contenant plus de 17 000 mots de désinformation liés aux vaccins et au vapotage. Chaque message était coercitif et ciblait divers groupes sociétaux, notamment les jeunes adultes, les jeunes parents, les personnes âgées, les personnes enceintes et les personnes souffrant de problèmes de maladies chroniques. Les blogs incluaient de faux témoignages de patients et de cliniciens et obéissaient aux demandes d’inclusion de références d’aspect scientifique. Les observations de ce travail démontrent que ces outils, bien que très puissants et prometteurs dans le domaine médical et de la santé, ont le potentiel de générer des informations incorrectes et extrêmement convaincantes, pouvant alimenter ainsi la désinformation lorsque les garde-fous des outils d’IA sont insuffisants. Les outils d’IA progressent rapidement. Parallèlement à ces avancées, des risques émergents deviennent de plus en plus apparents. Les principaux piliers de la pharmacovigilance, notamment la transparence, la surveillance et la réglementation, peuvent servir d'exemples précieux pour gérer ces risques et protéger la santé publique.
Ref : https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2811333