﻿{"id":8166,"date":"2024-11-20T06:50:00","date_gmt":"2024-11-20T09:50:00","guid":{"rendered":"https:\/\/www.boasaude.com.br\/blogboasaude\/?p=8166"},"modified":"2023-09-08T19:53:54","modified_gmt":"2023-09-08T22:53:54","slug":"chatgpt-gera-falso-artigo-cientifico-convincente","status":"publish","type":"post","link":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/chatgpt-gera-falso-artigo-cientifico-convincente\/","title":{"rendered":"ChatGPT gera falso artigo cient\u00edfico \u201cconvincente\u201d"},"content":{"rendered":"\n<p align=\"justify\">Um novo  estudo publicado no Journal of Medical Internet Research revelou que modelos de  linguagem de intelig\u00eancia artificial (IA), como ChatGPT (Chat Generative  Pre-trained Transformer), podem gerar artigos cient\u00edficos fraudulentos que  parecem ser aut\u00eanticos. Essa descoberta levanta preocupa\u00e7\u00f5es cr\u00edticas sobre a  integridade da pesquisa cient\u00edfica e a confiabilidade dos artigos publicados.<\/p>\n\n\n\n<p align=\"justify\">Pesquisadores  da Universidade Charles, na Rep\u00fablica Tcheca, tiveram como objetivo investigar  as capacidades dos atuais modelos de linguagem de IA na cria\u00e7\u00e3o de artigos  m\u00e9dicos fraudulentos de alta qualidade. A equipe usou o popular chatbot AI  ChatGPT, que roda no modelo de linguagem GPT-3 desenvolvido pela OpenAI, para  gerar um artigo cient\u00edfico completamente fabricado no campo da neurocirurgia.  Perguntas e prompts foram refinados \u00e0 medida que o ChatGPT gerava respostas,  permitindo que a qualidade da sa\u00edda fosse melhorada iterativamente.<\/p>\n<p align=\"justify\">Os  resultados deste estudo de prova de conceito foram impressionantes \u2013 o modelo  de linguagem de IA produziu com sucesso um artigo fraudulento que se  assemelhava a um artigo cient\u00edfico genu\u00edno em termos de uso de palavras,  estrutura de frases e composi\u00e7\u00e3o geral. O artigo inclu\u00eda se\u00e7\u00f5es padr\u00e3o, como  resumo, introdu\u00e7\u00e3o, m\u00e9todos, resultados e discuss\u00e3o, bem como tabelas e outros  dados. Surpreendentemente, todo o processo de cria\u00e7\u00e3o do artigo levou apenas  uma hora sem nenhum treinamento especial do usu\u00e1rio humano.<\/p>\n<p align=\"justify\">Embora  o artigo gerado pela IA parecesse sofisticado e sem falhas, ap\u00f3s um exame mais  detalhado, os leitores especialistas conseguiram identificar imprecis\u00f5es e  erros sem\u00e2nticos, principalmente nas refer\u00eancias \u2013 algumas refer\u00eancias estavam  incorretas, enquanto outras eram inexistentes. Isso ressalta a necessidade de  maior vigil\u00e2ncia e m\u00e9todos de detec\u00e7\u00e3o aprimorados para combater o potencial  uso indevido da IA na pesquisa cient\u00edfica.<\/p>\n<p align=\"justify\">As  descobertas deste estudo enfatizam a import\u00e2ncia de desenvolver diretrizes  \u00e9ticas e melhores pr\u00e1ticas para o uso de modelos de linguagem de IA em reda\u00e7\u00e3o  e pesquisa cient\u00edfica genu\u00edna. Modelos como o ChatGPT t\u00eam o potencial de  aumentar a efici\u00eancia e precis\u00e3o da cria\u00e7\u00e3o de documentos, an\u00e1lise de  resultados e edi\u00e7\u00e3o de linguagem. Ao usar essas ferramentas com cuidado e  responsabilidade, os pesquisadores podem aproveitar seu poder, minimizando o  risco de uso indevido ou abuso.<\/p>\n<p align=\"justify\">Fonte: Journal of Medical Internet Research.  DOI: 10.2196\/49323.<\/p>\n\n","protected":false},"excerpt":{"rendered":"<p>Um novo estudo publicado no Journal of Medical Internet Research revelou que modelos de linguagem de intelig\u00eancia artificial (IA), como ChatGPT (Chat Generative Pre-trained Transformer), podem gerar artigos cient\u00edficos fraudulentos que parecem ser aut\u00eanticos. Essa descoberta levanta preocupa\u00e7\u00f5es cr\u00edticas sobre a integridade da pesquisa cient\u00edfica e a confiabilidade dos artigos publicados. Pesquisadores da Universidade Charles, [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":8167,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[21],"tags":[1154,1151,1153,1152],"_links":{"self":[{"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/posts\/8166"}],"collection":[{"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/comments?post=8166"}],"version-history":[{"count":1,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/posts\/8166\/revisions"}],"predecessor-version":[{"id":8168,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/posts\/8166\/revisions\/8168"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/media\/8167"}],"wp:attachment":[{"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/media?parent=8166"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/categories?post=8166"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.boasaude.com.br\/blogboasaude\/index.php\/wp-json\/wp\/v2\/tags?post=8166"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}