Imagens falsas de raios-X criadas por inteligência artificial para se assemelharem a resultados verdadeiros de pacientes humanos podem enganar não apenas radiologistas experientes, mas também as próprias ferramentas de IA, de acordo com um estudo que ilustra o potencial de manipulação da ferramenta por pessoas mal-intencionadas.
No estudo, 17 radiologistas de 12 hospitais em seis países analisaram 264 imagens de raios-X, metade das quais foram geradas pelas ferramentas de IA ChatGPT ou RoentGen.
Quando os leitores radiologistas não sabiam do verdadeiro propósito do estudo, apenas 41% identificaram espontaneamente imagens geradas por IA, de acordo com um relatório publicado em Radiologia.
Após serem informados de que o conjunto de dados continha imagens sintéticas, a precisão média dos radiologistas na diferenciação dos raios-X reais e sintéticos aumentou para 75%.
Ter raios-X falsos realistas o suficiente para enganar os radiologistas “cria uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada puder ser indistinguível de uma real”, disse o líder do estudo, Dr. Mickael Tordjman, da Escola de Medicina Icahn no Monte Sinai, em Nova York, em um comunicado.
“Há também um risco significativo de segurança cibernética se os hackers obtiverem acesso à rede de um hospital e injetarem imagens sintéticas para manipular diagnósticos de pacientes ou causarem caos clínico generalizado, minando a confiabilidade fundamental do registro médico digital”, disse Tordjman.
A precisão de quatro grandes modelos de linguagem — GPT-4o, GPT-5, Gemini 2.5 Pro e Lhama 4 Maverick — na detecção de imagens falsas variou de 57% a 85%.
Mesmo o ChatGPT-4o, o modelo que criou os deepfakes, não conseguiu detectar todos eles, embora tenha identificado mais do que os outros LLMs, relataram os pesquisadores.
São necessárias potenciais salvaguardas digitais para ajudar a distinguir imagens reais e falsas e evitar adulterações, como o uso de marcas d’água invisíveis que incorporam a propriedade, disseram os pesquisadores.
“Potencialmente, estamos vendo apenas a ponta do iceberg”, disse Tordjman sobre a eventual possibilidade de tomografias computadorizadas e ressonâncias magnéticas falsas. “Estabelecer conjuntos de dados educacionais e ferramentas de detecção agora é fundamental.”
source
Fonte : CNN