Blog de Boa Saúde » Blog Archives

Author Archives: Natália Barbosa

About Natália Barbosa

Jornalista e colaboradora de Boa Saúde

Ataque cardíaco pode dar sinais até 24 horas antes de acontecer

Um episódio de parada cardíaca pode não acontecer tão repentinamente, sendo que até metade dos pacientes podem apresentar algum sintoma nas 24 horas anteriores ao episódio, sugere um estudo do Smidt Heart Institute of Cedars-Sinai, nos Estados Unidos. Além disso, os sintomas são diferentes conforme o sexo, sendo que para as mulheres, o sintoma mais proeminente de uma parada cardíaca súbita iminente é a falta de ar, e para os homens, é dor e pressão no peito.

Continue reading Published by:

Alguns esportes aumentam o risco de doença cerebral entre atletas jovens

Mas um estudo conduzido pela Universidade de Boston, nos Estados Unidos, revelou que os cérebros de 41% dos jovens atletas com menos de 30 anos apresentavam sinais de encefalopatia traumática crônica. Para se ter uma ideia, estudos de bancos de cérebros comunitários indicam que menos de 1% da população em geral tem a doença.

Continue reading Published by:

Crianças sedentárias tendem a se tornarem adultos com problemas cardíacos

Um estudo realizado pela Universidade do Leste da Finlândia mostrou que crianças sedentárias têm maior probabilidade de se tornarem adultos com problemas cardíacos. As crianças que fizeram parte do estudo Children of the 90s usaram um rastreador de atividade smartwatch por sete dias aos 11 anos e depois repetiram isso aos 15 e 24 anos.

Continue reading Published by:

ChatGPT gera falso artigo científico “convincente”

Um novo estudo publicado no Journal of Medical Internet Research revelou que modelos de linguagem de inteligência artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), podem gerar artigos científicos fraudulentos que parecem ser autênticos. Essa descoberta levanta preocupações críticas sobre a integridade da pesquisa científica e a confiabilidade dos artigos publicados.

Pesquisadores da Universidade Charles, na República Tcheca, tiveram como objetivo investigar as capacidades dos atuais modelos de linguagem de IA na criação de artigos médicos fraudulentos de alta qualidade. A equipe usou o popular chatbot AI ChatGPT, que roda no modelo de linguagem GPT-3 desenvolvido pela OpenAI, para gerar um artigo científico completamente fabricado no campo da neurocirurgia. Perguntas e prompts foram refinados à medida que o ChatGPT gerava respostas, permitindo que a qualidade da saída fosse melhorada iterativamente.

Os resultados deste estudo de prova de conceito foram impressionantes – o modelo de linguagem de IA produziu com sucesso um artigo fraudulento que se assemelhava a um artigo científico genuíno em termos de uso de palavras, estrutura de frases e composição geral. O artigo incluía seções padrão, como resumo, introdução, métodos, resultados e discussão, bem como tabelas e outros dados. Surpreendentemente, todo o processo de criação do artigo levou apenas uma hora sem nenhum treinamento especial do usuário humano.

Embora o artigo gerado pela IA parecesse sofisticado e sem falhas, após um exame mais detalhado, os leitores especialistas conseguiram identificar imprecisões e erros semânticos, principalmente nas referências – algumas referências estavam incorretas, enquanto outras eram inexistentes. Isso ressalta a necessidade de maior vigilância e métodos de detecção aprimorados para combater o potencial uso indevido da IA na pesquisa científica.

As descobertas deste estudo enfatizam a importância de desenvolver diretrizes éticas e melhores práticas para o uso de modelos de linguagem de IA em redação e pesquisa científica genuína. Modelos como o ChatGPT têm o potencial de aumentar a eficiência e precisão da criação de documentos, análise de resultados e edição de linguagem. Ao usar essas ferramentas com cuidado e responsabilidade, os pesquisadores podem aproveitar seu poder, minimizando o risco de uso indevido ou abuso.

Fonte: Journal of Medical Internet Research. DOI: 10.2196/49323.

Published by: