Detecção de conteúdo gerado por inteligência artificial
Um software de detecção de conteúdo gerado por inteligência artificial visa determinar se algum material, como texto, imagem, vídeo ou áudio, foi gerado utilizando inteligência artificial. Entretanto, no presente momento, softwares com esse objetivo são considerados pouco confiáveis.[1]
Problemas de precisão
No presente momento, ferramentas destinadas a detectar conteúdo gerado por inteligência artificial demonstraram pouca confiabilidade. Em um estudo de 2023 conduzido por Weber-Wulff et al., os pesquisadores avaliaram 14 softwares de detecção, incluindo Turnitin e GPTZero, e obtiveram o resultado que todas as ferramentas apresentaram uma precisão inferior a 80%, sendo que apenas cinco acima tiveram um resultado superior 70% de acertos.[2] Os pesquisadores também determinaram que os softwares tendem a apontar mais textos como produzidos por humanos do que como gerados por inteligência artificial, além de que a precisão piora ao parafrasear ou referenciar uma outra obra.[2]
Falsos positivos
Na detecção de conteúdo gerado por inteligência artificial, um falso positivo ocorre quando um trabalho produzido por humanos é erroneamente identificado como feito por um software de inteligência artificial. Muitas das ferramentas afirmam ter um nível mínimo de falsos positivos — com o Turnitin, que afirma uma taxa de falsos positivos inferior a 1%.[3] Entretanto, pesquisas mais recentes apontam que as taxas de falsos positivos são muito maiores, como as conduzidas pelo jornal estadunidense The Washington Post, que atestaram taxas muito acima de 50%.[4] Falsos positivos em um ambiente acadêmico frequentemente levam a acusações de má conduta acadêmica, o que pode ter sérias consequências para o histórico de um estudante ou impedir que ele tenha acesso a determinadas oportunidades.
Pessoas neurodivergentes e falantes não nativas de idioma
Diferentes estudos conduzido por instituições como a Universidade de Nebraska-Lincoln e a Universidade Stanford atestaram que modelos de detecção por inteligência artificial são propensos a gerar falsos positivos para trabalhos escritos por pessoas cuja primeira língua não é inglês — a pesquisa foi conduzida em inglês — e por pessoas neurodivergentes. Portanto, instituições têm produzido manuais para orientar seus docentes a evitar tais ferramentas com estudantes estrangeiros e neurodiversos (como pessoas autistas, com transtorno do déficit de atenção e hiperatividade, com dislexia).[5][6]
Cada vez mais, em fóruns online, pesquisas e discussões universitárias, pessoas no espectro autista relatam que foram acusadas de utilizar inteligência artificial sem, de fato, a terem utilizado. Em uma matéria da The Washington Post, Rua Mea Williams,[nota 1] docente na Universidade de Purdue, sofreu a acusação, por parte de um de seus colegas de trabalho, de que seus textos eram produzidos utilizando inteligência artificial. À matéria, Williams afirmou "eu sou apenas autista" e que "as crianças costumavam zombar de mim por falar roboticamente. Essa é uma queixa muito comum entre crianças autistas".[5][6][7][8][9][10]
O artigo Preocupações com a IA para os neurodivergentes (em inglês: AI Concerns for the Neurodivergent), publicado pela National Education Defense, uma organização de defesa dos direitos dos estudantes formada por advogados vinculados à firma de advocacia estadunidense Lento Law Firm, afirmou que "indivíduos neurodivergentes são especialmente propensos a serem acusados injustamente de usar inteligência artificial em seus trabalhos. Essas acusações não são inofensivas. Estudantes podem sofrer sanções disciplinares, mesmo com as várias recomendações das próprias empresas para que as suas ferramentas não sejam utilizados como base para tais sanções" e "estudantes neurodivergentes já possuem hoje uma maior probabilidade de abandonar o ensino superior antes de concluir a graduação. Os desafios agora impostos com a inteligência artificial podem agravar ainda mais a taxa de conclusão para alunos com autismo e deficiências semelhantes".[11]
Teste com obras autorais
Diferentes obras autorais foram testadas em softwares de detecção de inteligência artificial e erroneamente apontadas como produzidas por algoritmos. Em junho de 2023, por exemplo, a autora Janelle Shane declarou que partes de seu livro You Look Like a Thing and I Love You foram acusadas de terem sido geradas por inteligência artificial.[1]
Também em 2023, a Constituição dos Estados Unidos, escrita em 1787, foi acusada de ter sido produzida por inteligência artificial.[12]
Falsos negativos
Um falso negativo é exatamente o oposto de um falso positivo. Ocorre quando o software de detecção falha em em identificar que algo produzido com inteligência artificial foi gerado por um algoritmo. Falsos negativos geralmente ocorrem como resultado do processo de humanização de um texto gerado por inteligência artificial — existem, inclusive, softwares de detecção, como o ZeroGPT, com ferramentas destinadas a "fazer com que o texto soe mais humano".[13] Academicamente, falsos negativos são menos preocupantes pois não costumam resultar em acusações ou consequências. A ferramenta Turnitin, por sua vez, afirma ter uma taxa de falsos negativos de 15%.[14]
Detecção de texto
A principal alegação que defende o uso de ferramentas de detecção de inteligência artificial é que a mesma serve para prevenir possíveis plágios. Os sistemas buscam detectar a repetição de palavras e processos de alucinação artificial, que é quando uma ferramenta de inteligência artificial insiste que uma informação incorreta é, de fato, correta. Seu uso mais comum atualmente é por professores na correção de trabalhos de estudantes. Após o lançamento do ChatGPT e de outros softwares de inteligência artificial, muitas instituições de ensino emitiram políticas vetando o uso das mesmas por seus estudantes.[15] Outro uso comum de ferramentas de detecção de inteligência artificial é por parte de avaliadores de candidatos a vagas de emprego, visando identificar candidatos que tenham utilizado algoritmos em seus currículos, portifólios, obras ou outros trabalhos.[16]
Entretanto, detectores atuais são considerados pouco confiáveis e costumam rotular incorretamente trabalhos humanos como produzidos por algoritmos, enquanto falham em detectar trabalhos que realmente foram gerados por inteligência artificial.[17][18][4][19] A revista estadunidense MIT Technology Review, vinculada ao Instituto de Tecnologia de Massachusetts, afirmou que as ferramentas "possuem dificuldades em detectar textos gerados pelo ChatGPT que tenham sido reorganizados por humanos e/ou parafraseados".[20] Outro ponto apontado foi que os software costumam discriminar falantes não nativos do idioma que a obra tenha sido produzida — como por exemplo, um texto produzido em inglês por uma pessoa hispanofalante nativa é mais propensa a ser acusada de ter sido produzida por inteligência artificial.[16]
Dois estudantes da Universidade da Califórnia em Davis foram encaminhados ao setor judicial da instituição depois que seus professores acusaram que seus trabalhos haviam sido produzidos por inteligência artificial. Entretanto, após grande cobertura midiática do caso, uma investigação foi aberta, resultando na declaração de inocência de ambos estudantes de quaisquer irregularidades.[21][22][23]
Em abril de 2023, a Universidade de Cambridge e instituições membros do Grupo Russell, uma organização que reúne as 24 maiores universidades de investigação intensiva do Reino Unido, acordaram em vetar o uso de ferramentas de detecção de textos gerados por inteligência artificial, como o Turnitin, após expressarem preocupações pela falta de confiabilidade.[24] Seis meses depois, a Universidade do Texas em Austin optou por também vetar o uso da ferramenta.[25]
Em maio de 2023, um professor da Universidade do Texas Oriental A&M enviou os textos de seus estudantes ao ChatGPT e perguntou se o material havia sido escrito por ele; a ferramenta declarou positivamente. Com isso, o docente ameaçou reprovar os estudantes, mesmo o ChatGPT não tendo a finalidade de detectar textos gerados por algoritmos.[26] Entretanto, nenhum dos estudantes acusados foi impedido de se formar, e todos, exceto um aluno que admitiu ter usado o software, foram inocentados das acusações de terem usado o ChatGPT em seus conteúdos.[27]
Em julho de 2023, foi publicado um artigo intitulado "Os detectores GPT são tendenciosos contra escritores não nativos de inglês" (em inglês: GPT detectors are biased against non-native English writers), relatando que as ferramentas de detecção discriminam autores não nativos de inglês. O artigo comparou textos de falantes não nativos de inglês e de estudantes estadunidense em sete ferramentas. Como resultado, as obras escritas pelos não nativos apresentaram uma taxa média de falsos positivos de 61,3%, o que foi considerada alarmante, inclusive por considerar que tais ferramentas funcionam internamente em inglês. Portanto, mesmo ao escrever em seus idiomas nativos, a probabilidade de falso positivo é maior que de obras escritas em inglês por anglófonos.[28]
Um artigo publicado em junho de 2024 pelo jornalista Thomas Germain no site Gizmodo, relatou casos de perdas de empregos de escritores e jornalistas devido a softwares de detecção de inteligência artificial que classificaram erroneamente seus trabalhos como gerados por algoritmos.[29]
Em setembro de 2024, a organização sem fins lucrativos estadunidense Common Sense Media relatou que os detectores de inteligência artificial tinham uma taxa de falsos positivos maior para estudantes negros (20%) quando em comparação com seus pares latinos (10%) e brancos (7%), evidenciando também padrões culturais e normativos que as ferramentas são treinadas.[30][31]
Para melhorar a confiabilidade da detecção de texto gerados por inteligência artificial, pesquisadores têm estudado técnicas de marca d'água digital. Um artigo de 2023 intitulado "Uma Marca d'água para Grandes Modelos de Linguagem" (em inglês: A Watermark for Large Language Models) defendeu que marcas d'água imperceptíveis em textos gerados por deveriam ser implementados, permitindo com maior precisão que um conteúdo gerado por inteligência artificial seja apontado com mais precisão. A técnica apresentada foi projetada para ser sutil e difícil de detectar para leitores casuais, preservando assim a legibilidade, ao mesmo tempo que fornece um sinal detectável para aqueles que utilizam ferramentas especializadas. No entanto, embora promissora, uma ferramenta como esta enfrenta desafios para se manter robusta sob transformações constantes dos modelos de linguagem, e garantir a compatibilidade entre diferentes plataformas e, também, ser aceita pelas instituições proprietárias das ferramentas geradoras de texto.[32]
Softwares anti-detecção e vulnerabilidades de marcas d'água digitais
Existem softwares disponíveis projetados para burlar a detecção de texto por inteligência artificial, visando deixá-lo com mais aparência de que foi escrito por uma pessoa. De fato, algumas ferramentas de detecção de algoritmos já fornecem nativamente opção para "humanizar" o texto.[33][34]
Um estudo publicado em agosto de 2023 analisou 20 resumos de artigos publicados na revista científica Eye, que foram então parafraseados usando o GPT-4.0. Os resumos parafraseados foram, então, examinados quanto a plágio usando a ferramenta QueText e, quanto a conteúdo gerado por inteligência artificial, usando a ferramenta Originality.AI. Os textos foram então reprocessados por meio de um software adversário chamado Undetectable AI, visando reduzir as pontuações de detecção da IA. O estudo descobriu que a ferramenta de detecção de IA, Originality.AI, identificou o texto gerado pelo GPT-4 com uma precisão média de 91,3%. No entanto, após o reprocessamento pelo Undetectable AI, a precisão de detecção do Originality.ai caiu para uma média de 27,8%.[35][36]
Alguns especialistas acreditam que técnicas como a marca d'água digital são ineficazes porque podem ser removidas ou adicionadas, o que geraria falsos positivos.[37] O próprio artigo "Uma Marca d'água para Grandes Modelos de Linguagem" (em inglês: A Watermark for Large Language Models), que apontou defendeu uma técnica para se colocar marcas d'águas em textos gerados por inteligência artificial, também apontou diferentes problemas técnicos, incluindo ataques de inserção, exclusão e substituição de texto, que podem ser usadas para burlar a detecção da marca d'água, bem como para acusar falsamente outras pessoas. Esses ataques variam em complexidade, desde simples paráfrases até abordagens mais sofisticadas envolvendo tokenização e alterações de homóglifos. O estudo aponta, então, o desafio de manter a robustez da marca d'água contra atacantes que podem empregar ferramentas automatizadas de paráfrase ou mesmo substituições específicas de modelos de linguagem para alterar trechos de texto, mantendo a similaridade semântica. Os resultados experimentais mostram que, embora tais ataques possam degradar a força da marca d'água, eles também acarretam prejuízos na qualidade do texto e aumento dos recursos computacionais.[32]
Detecção de imagem, vídeo e áudio
Diferentes softwares alegam serem capazes de detectar imagens geradas por software de inteligência artificial, como o Midjourney ou DALL-E. Assim como as ferramentas que buscam algoritmos em textos, diferentes estudos apontam que as ferramentas de detecção de imagens não são confiáveis, podendo gerar falsos positivos.[38][39]
Outras ferramentas, que também possuem a confiabilidade questionada, são as que afirmam ter a capacidade de identificar deepfakes de vídeo e áudio.[40]
Assim como no âmbito da detecção de textos gerados por inteligência artificial, há quem defenda a implementação de uma marca d'água digital em imagens, áudios e vídeos gerados por inteligência artificial. O laboratório anglo-estadunidense Google DeepMind afirma estar desenvolvendo um software de detecção chamado SynthID, que funciona inserindo uma marca d'água digital invisível ao olho humano nos pixels de imagens geradas por inteligência artificial.[41][42]
Algumas ferramentas de inteligência artificial, ao gerar vídeos ou imagens, como a Galaxy AI da empresa sul-coreana Samsung, deixa uma marca d'água visível na imagem, bem como informações nos metadados.[43] Entretanto, apenas cortar parte da mídia já suficiente para esconder a marca d'água, e os metadados são facilmente apagados de diferentes formas, como através de ferramentas disponíveis na Internet ou ao fazer uma captura de tela da imagem, que irá gerar uma imagem completamente nova e com metadados próprios.[44][45]
Ver também
- Alinhamento de Inteligência Artificial
- Alucinação (inteligência artificial)
- Detecção de similaridade de conteúdo
- Neurodiversidade
- Processamento de linguagem natural
- Transtorno do espectro autista
Notas
- ↑ Pessoa não-binária. Portanto, o texto deve ser escrito em gênero neutro.
Referências
- ↑ a b «'Don't use AI detectors for anything important,' says the author of the definitive 'AI Weirdness' blog. Her own book failed the test». Fortune (em inglês). Consultado em 21 de outubro de 2023
- ↑ a b Weber-Wulff, Debora; Anohina-Naumeca, Alla; Bjelobaba, Sonja; Foltýnek, Tomáš; Guerrero-Dib, Jean; Popoola, Olumide; Šigut, Petr; Waddington, Lorna (25 de dezembro de 2023). «Testing of detection tools for AI-generated text». International Journal for Educational Integrity (em inglês). 19 (1). 26 páginas. ISSN 1833-2595. arXiv:2306.15666
. doi:10.1007/s40979-023-00146-z
- ↑ «Understanding false positives within our AI writing detection capabilities». www.turnitin.com (em inglês). 16 de março de 2023. Consultado em 19 de março de 2025
- ↑ a b Fowler, Geoffrey A.; Ovide, Shira (1 de abril de 2023). «We tested a new ChatGPT detector for teachers. It flagged an innocent student.». The Washington Post (em inglês). ISSN 0190-8286. Consultado em 19 de março de 2025
- ↑ a b «AI-Detectors Biased Against Non-Native English Writers | Stanford HAI». hai.stanford.edu (em inglês). Consultado em 20 de março de 2025
- ↑ a b «The Challenge of AI Checkers | Center for Transformative Teaching | Nebraska». teaching.unl.edu (em inglês). Consultado em 20 de março de 2025
- ↑ «Students win plagiarism appeals over generative AI detection tool». Times Higher Education (THE) (em inglês). 15 de julho de 2025. Consultado em 30 de outubro de 2025
- ↑ «Autistic Purdue professor accused of being AI for lacking 'warmth' in email» (em inglês). 21 de julho de 2023. Consultado em 30 de outubro de 2025
- ↑ Staff, College Fix (29 de julho de 2023). «Professor with autism mistaken for AI bot». The College Fix (em inglês). Consultado em 30 de outubro de 2025
- ↑ «Estudante é falsamente acusado por detectores de IA: Falso positivo». 24 de junho de 2025. Consultado em 30 de outubro de 2025
- ↑ «Concerns for the Neurodivergent Student | Lento Law Firm». www.studentdisciplinedefense.com (em inglês). Consultado em 30 de outubro de 2025
- ↑ Lorenzo, Alessandro Di (2 de agosto de 2023). «Viagem no tempo? IA diz que escreveu Constituição dos EUA». Olhar Digital. Consultado em 29 de outubro de 2025
- ↑ Condit, Cynthia. «LibGuides: ChatGPT and Generative AI Legal Research Guide: AI Detection Tools». law-arizona.libguides.com (em inglês). Consultado em 20 de março de 2025
- ↑ «Turnitin adding AI writing detection, but instructors should use it with caution» (em inglês). Consultado em 20 de março de 2025
- ↑ Hern, Alex (31 de dezembro de 2022). «AI-assisted plagiarism? ChatGPT bot says it has an answer for that». The Guardian. Consultado em 11 de julho de 2023
- ↑ a b Sample, Ian (10 de julho de 2023). «Programs to detect AI discriminate against non-native English speakers, shows study». The Guardian. Consultado em 10 de julho de 2023
- ↑ Fowler, Geoffrey A. (2 de junho de 2023). «Detecting AI may be impossible. That's a big problem for teachers.». The Washington Post. Consultado em 10 de julho de 2023
- ↑ Tangermann, Victor (9 de janeiro de 2023). «There's a Problem With That App That Detects GPT-Written Text: It's Not Very Accurate». Futurism. Consultado em 10 de julho de 2023
- ↑ Taylor, Josh (1 de fevereiro de 2023). «ChatGPT maker OpenAI releases 'not fully reliable' tool to detect AI generated content». The Guardian. Consultado em 11 de julho de 2023
- ↑ Williams, Rhiannon (7 de julho de 2023). «AI-text detection tools are really easy to fool». MIT Technology Review. Consultado em 10 de julho de 2023
- ↑ «AI Detection Apps Keep Falsely Accusing Students of Cheating». Futurism. 6 de junho de 2023. Consultado em 21 de outubro de 2023
- ↑ Jimenez, Kayla. «Professors are using ChatGPT detector tools to accuse students of cheating. But what if the software is wrong?». USA TODAY (em inglês). Consultado em 21 de outubro de 2023
- ↑ Klee, Miles (6 de junho de 2023). «She Was Falsely Accused of Cheating With AI -- And She Won't Be the Last». Rolling Stone (em inglês). Consultado em 21 de outubro de 2023
- ↑ Staton, Bethan (3 de abril de 2023). «Universities express doubt over tool to detect AI-powered plagiarism». Financial Times. Consultado em 10 de julho de 2023
- ↑ Carter, Tom. «Some universities are ditching AI detection software amid fears students could be falsely accused of cheating by using ChatGPT». Business Insider (em inglês). Consultado em 21 de outubro de 2023
- ↑ Verma, Prashnu (18 de maio de 2023). «A professor accused his class of using ChatGPT, putting diplomas in jeopardy». The Washington Post. Consultado em 10 de julho de 2023
- ↑ «College instructor put on blast for accusing students of using ChatGPT». NBC News. 18 de maio de 2023. Consultado em 10 de julho de 2023
- ↑ Liang, Weixin; Yuksekgonul, Mert; Mao, Yining; Wu, Eric; Zou, James (14 de julho de 2023). «GPT detectors are biased against non-native English writers». Patterns. 4 (7). PMC 10382961
. PMID 37521038. doi:10.1016/j.patter.2023.100779
- ↑ Germain, Thomas (12 de junho de 2024). «AI Detectors Get It Wrong. Writers Are Being Fired Anyway». Gizmodo (em inglês). Consultado em 18 de junho de 2024
- ↑ Madden, Mary; Calvin, Angela; Hasse, Alexa; Lenhart, Amanda (18 de setembro de 2024). «The Dawn of the AI Era» (PDF). Common Sense Media. p. 10. Consultado em 26 de maio de 2025. Arquivado do original (PDF) em 24 de abril de 2025
- ↑ Klein, Alyson (18 de setembro de 2024). «Black Students Are More Likely to Be Falsely Accused of Using AI to Cheat». Education Week. Consultado em 26 de maio de 2025. Arquivado do original em 2 de maio de 2025
- ↑ a b Kirchenbauer, Johannes; Geiping, Jonas; Wen, Yuxin; Katz, Jonathan; Miers, Ian; Goldstein, Tom (24 de junho de 2023). «Testing of detection tools for AI-generated text». International Journal for Educational Integrity (em inglês). 19. arXiv:2301.10226
. doi:10.1007/s40979-023-00146-z
- ↑ Beam, Christopher. «The AI Detection Arms Race Is On—and College Students Are Building the Weapons». Wired (em inglês). ISSN 1059-1028. Consultado em 2 de dezembro de 2023
- ↑ Lee, Maxie (8 de agosto de 2025). «Is Undetectable AI Legit? 2025 Review, Accuracy & User Insights». Humanizer Ai
- ↑ Taloni, Andrea; Scorcia, Vincenzo; Giannaccare, Giuseppe (2 de agosto de 2023). «Modern threats in academia: evaluating plagiarism and artificial intelligence detection scores of ChatGPT». Eye (em inglês). 38 (2): 397–400. ISSN 1476-5454. PMC 10810838
. PMID 37532832. doi:10.1038/s41433-023-02678-7
- ↑ Thompson, David (30 de novembro de 2023). «Researchers Say Undetectable AI May Be a 'Modern Threat to Academia'». The Science Times
- ↑ Knibbs, Kate. «Researchers Tested AI Watermarks—and Broke All of Them». Wired (em inglês). ISSN 1059-1028. Consultado em 21 de outubro de 2023
- ↑ Thompson, Stuart A.; Hsu, Tiffany (28 de junho de 2023). «How Easy Is It to Fool A.I.-Detection Tools?». The New York Times. Consultado em 10 de julho de 2023
- ↑ Rizwan, Choudhury (15 de outubro de 2023). «Expert debunks AI tool's claim that Israel's photo is fake». Interesting Engineering. Consultado em 22 de outubro de 2023
- ↑ Hsu, Tiffany; Myers, Steven Lee (18 de maio de 2023). «Another Side of the A.I. Boom: Detecting What A.I. Makes». The New York Times. Consultado em 10 de julho de 2023
- ↑ Pierce, David (29 de agosto de 2023). «Google made a watermark for AI images that you can't edit out». The Verge. Consultado em 21 de outubro de 2023
- ↑ Wiggers, Kyle (29 de agosto de 2023). «DeepMind partners with Google Cloud to watermark AI-generated images». TechCrunch. Consultado em 21 de outubro de 2023
- ↑ «Samsung detalha recursos de IA do Galaxy AI para linha S24 | TC Entrevista». Tudo Celular. 1 de março de 2024. Consultado em 29 de outubro de 2025
- ↑ Gogoni, Ronaldo. «3 maneiras de remover dados EXIF de fotos (Windows, macOS, Linux e mobile) • Tecnoblog». Tecnoblog. Consultado em 30 de outubro de 2025
- ↑ «Metadados: como suas fotos online revelam mais do que deveriam na Internet». TechTudo. 30 de junho de 2017. Consultado em 30 de outubro de 2025