Notícias de saúde

Gírias e erros ortográficos prejudicam a inteligência artificial em exames médicos

31 de dezembro de 2025 (Bibliomed). Um número crescente de pesquisas está explorando a capacidade da IA ??de fornecer uma segunda opinião para médicos humanos. Os programas já estão sendo usados ??para ajudar os médicos a redigir prontuários clínicos e triar mensagens de pacientes. No entanto, um estudo realizado no Massachusetts Institute of Technology (MIT), nos Estados Unidos, mostrou que erros comuns de digitação cometidos por humanos, assim como ausência de referências de gênero ou o uso de gírias podem prejudicar programas de inteligência artificial (IA) projetados para auxiliar profissionais de saúde na análise de prontuários médicos.

Este estudo começou quando os pesquisadores realizaram experimentos nos quais trocaram informações de gênero em prontuários de pacientes e, em seguida, as inseriram em uma IA. Eles ficaram surpresos ao descobrir que erros simples de formatação causavam mudanças significativas nas respostas da IA. Para explorar melhor esse problema, os autores alteraram os registros, trocando ou removendo referências de gênero, inserindo espaços extras ou erros de digitação nas mensagens dos pacientes, ou adicionando linguagem expressiva ou ambígua. A linguagem expressiva pode incluir exclamações como "uau" ou advérbios como "realmente" ou "muito". Exemplos de linguagem incerta incluem palavras ambíguas como "tipo de", "meio que", "possivelmente" ou "suponho". O prontuário do paciente preservou todos os dados clínicos, como medicamentos prescritos e diagnósticos anteriores, adicionando uma linguagem que reflete com mais precisão a forma como as pessoas digitam e falam.

A equipe analisou esses registros com quatro sistemas de inteligência artificial diferentes, perguntando se um paciente deveria controlar seus sintomas em casa, comparecer a uma consulta clínica ou fazer um exame laboratorial para melhor avaliar sua condição. Quando as IAs receberam os dados alterados ou "perturbados", elas tiveram de 7% a 9% mais probabilidade de recomendar que os pacientes cuidassem de si mesmos. Segundo os pesquisadores, o uso de linguagem figurativa, como gírias ou expressões dramáticas, teve o maior impacto.

Os modelos de IA também cometeram cerca de 7% mais erros em pacientes do sexo feminino e foram mais propensos a recomendar que as mulheres realizassem o autotratamento em casa - mesmo quando os pesquisadores removeram todas as informações de gênero dos registros. Pesquisas subsequentes, atualmente em análise, constataram que as mesmas alterações não afetaram a precisão dos médicos humanos.

Os pesquisadores planejam dar continuidade ao trabalho testando registros que imitem melhor as mensagens reais dos pacientes. Eles também pretendem estudar como os programas de IA inferem o gênero a partir de exames clínicos.

Fonte: Association for Computing Machinery Conference 2025.

Copyright © 2025 Bibliomed, Inc.

Faça o seu comentário
Comentários