Gezondheidszorginformatie en kunstmatige intelligentie: een reëel risico
In dit werk verwijzen de experts ook naar deze modellen, waarvan ChatGPT een van de bekendste is, als een "massa desinformatiewapen". Door gebruik te maken van één openbaar toegankelijk talenprofiel werden bijvoorbeeld in 65 minuten 102 afzonderlijke blogberichten gegenereerd met meer dan 17.000 woorden aan desinformatie over vaccins en vaping. Elk bericht was dwingend en gericht op verschillende maatschappelijke groepen, waaronder jongvolwassenen, jonge ouders, ouderen, zwangere vrouwen en mensen met chronische ziekteproblemen. De blogs bevatten valse getuigenissen van patiënten en artsen en voldeden aan verzoeken om wetenschappelijke referenties op te nemen. De observaties van dit werk laten zien dat deze tools, hoewel ze zeer krachtig en veelbelovend zijn op medisch en gezondheidszorggebied, de potentie hebben om onjuiste en extreem overtuigende informatie te genereren, die verkeerde informatie kan voeden wanneer de waarborgen die AI-tools bieden onvoldoende zijn. AI-tools ontwikkelen zich snel. Naast deze vooruitgang worden ook nieuwe risico's steeds duidelijker. De belangrijkste pijlers van geneesmiddelenbewaking, namelijk transparantie, toezicht en regulering, kunnen dienen als waardevolle voorbeelden voor het beheren van deze risico's en het beschermen van de volksgezondheid.
Ref : https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2811333