Pesquisadores da USP de São Carlos (SP) desenvolvem um sistema que usa reportagens de veículos de comunicação como base para checar se textos divulgados em redes sociais são verdadeiros ou possuem trechos inverídicos. A pesquisa, que está em andamento, utiliza inteligência artificial para cruzar as frases das mensagens com as informações publicadas pelos veículos de comunicação.
A pesquisa do doutorando do Instituto de Ciência, Matemática e Computação (ICMC-USP) Roney Lira tem como orientador o professor Thiago Pardo. O docente explica que a ferramenta, que ainda não está disponível, deve ter interface parecida com o sistema lançado em 2018 no mesmo estudo, mas com outra forma de verificação.
A lógica é semelhante. Na plataforma já existente, o usuário da rede social que quiser checar um conteúdo pode copiar e colar o texto no site criado pelos pesquisadores ou iniciar uma conversa de WhatsApp com o robô. No entanto, nessa primeira versão, a inteligência artificial vai apontar se toda a informação pode ser verdadeira ou falsa a partir da análise das palavras e classes gramaticais usadas.
“A gente pretende que ele [novo sistema] seja fácil de usar, de preferência no WhatsApp também”, afirma Pardo, que tem doutorado no mesmo instituto e é professor associado da USP de São Carlos. A previsão é concluir a pesquisa em 2021 e disponibilizar a ferramenta em seguida.
Checagem de conteúdo x método de detecção por palavras
Pardo explica que a primeira ferramenta analisa as palavras do texto. Com uso da inteligência artificial, os pesquisadores alimentaram uma base de dados de 3,6 mil textos falsos e 3,6 verdadeiros. O sistema encontrou padrões de palavras e classes gramaticais nas fake news e outros nas notícias verdadeiras. Com isso, consegue identificar se novos textos enviados são honestos.
O modelo esbarra na velocidade e variedade das fake news. “Quando você treina uma máquina para fazer alguma coisa, ela fica preparada para lidar com aquele tipo de dado que ela viu. O desafio das fake news é que os sistemas vão evoluindo”.
“Os tópicos mudam com o tempo. Então, por exemplo, quando a gente desenvolveu a nossa ferramenta não existia Covid-19, então não existia notícia falsa de Covid-19. A nossa máquina, quando ela aprendeu a distinguir notícia falsa de verdadeira, o Covid-19 não era um tópico. Então hoje, se você der notícias falsas de Covid-19 para ela, pode ser que ela erre”.
O percentual de acerto do sistema, quando foi lançado há dois anos, era próximo dos 90%, mas esse índice pode ter caído, de acordo com o docente.
No sistema focado na análise de vocabulário o conteúdo dos textos não é absorvido. Já no novo dispositivo, a checagem é toda sobre o conteúdo. Outra diferença é que a primeira plataforma indica se todo o texto é ou não mentiroso, enquanto o novo pretende grifar as informações falsas.
“O que a gente está fazendo agora é tentando simular um pouco o trabalho do jornalismo, então vocês jornalistas, quando pegam um texto, vão checar fato por fato para ver se é verdade. (…) É o que a gente está tentando fazer hoje, a gente quebra os textos em suas frases, extrai o conteúdo de cada frase, vai em uma base de artigos verdadeiros, e busca se aqueles fatos extraídos ocorreram no mundo real.”
Os primeiros testes foram realizados com casais presidenciais e capitais de países. Os cientistas informavam, por exemplo, que Brasília é a capital do Brasil e a inteligência artificial pesquisava nas fontes confiáveis se o fato procedia.
“Os resultados ainda são bastante variados, a gente tem coisa desde 70% a 80% e pouco [de acerto]. Agora, a gente está tentando dar um passo além, em vez de olhar para fatos específicos, olhando para todo o tipo de fato, não só casal presidencial ou capital de país. Isso ainda está funcionando, a gente não tem os resultados oficiais.”
Desafio de combater desinformação
Ainda que os estudos com inteligência artificial para combate às fake news estejam em evolução, o professor da USP afirma que são muitos os desafios para separar as notícias verdadeiras dos conteúdos falsos — ou retirados de contexto.
Pardo afirma que é preciso avançar também nos mecanismos de controle e identificação da autoria das mensagens, já que em aplicativos de mensagens, por exemplo, os criadores das mensagens compartilhadas não são identificados. Isso sem ferir as liberdades individuais, acrescenta o professor.
“Enquanto a gente não apertar esse gargalo tanto judicialmente quanto tecnologicamente, criando leis mais ágeis, penalizar de fato as pessoas pelo prejuízo que elas causam (…) e enquanto não tiver algum mecanismo tecnológico que seja confiável para rastrear a origem das coisas de forma a lidar bem com a liberdade de expressão, evitar censura, porque é tudo um meio muito nebuloso, isso vai continuar acontecendo”.
Coordenador de cursos de pós-graduação do Instituto Nacional de Telecomunicações (Inatel), em Santa Rita do Sapucaí (MG), Yvo Marcelo Chiaradia Masselli acrescenta a dificuldade de estabelecer padrões para definir a validação dos conteúdos verdadeiros para alimentar uma base de dados de inteligência artificial.
“A grande dificuldade de você ter uma referência, de ter algo que valide realmente uma notícia como verdadeira para que as máquinas possam ser treinadas e num futuro próximo realmente serem capazes do que identificar o que é fake e o que é fato. O fake, lembrando, tem uma proximidade muito grande do que é fato, porém em um contexto diferente, ou com algumas divergências” afirma o professor.
Fonte: G1 São Carlos e Região


