Ferramentas de IA influenciadas por propaganda russa, rede pró-Kremlin espalha desinformação também em Português
Uma Investigação da NewsGuard revela que a bem-financiada rede de desinformação russa Pravda conseguiu influenciar ferramentas de IA populares como o ChatGPT, Copilot, Meta AI, Gemini e Grok, levando-as a repetir desinformação pró-Kremlin em 33% das vezes.
A rede Pravda foi lançada pouco depois da invasão russa da Ucrânia em 2022. Tem vindo a crescer gradualmente e, atualmente, utiliza cerca de 150 domínios para espalhar desinformação em dezenas de idiomas, incluindo o português. Segundo um relatório do American Sunlight Project (ASP), a rede publica em média 20.273 artigos a cada 48 horas, o que corresponde a cerca de 3,6 milhões de artigos por ano.
A NewsGuard identificou um total de 207 alegações comprovadamente falsas divulgadas pela rede Pravda. Estas incluem desde desinformação sobre alegados laboratórios secretos de armas biológicas dos EUA na Ucrânia, até à falsa alegação de que o Presidente ucraniano Volodymyr Zelensky teria desviado ajuda militar para adquirir, por exemplo, uma propriedade rural na Alemanha, frequentemente visitada por Adolf Hitler.
"Como mostra a análise mais recente, a rede Pravda está a inundar a internet com desinformação, interferindo na forma como os principais modelos de linguagem processam e apresentam informação. A propaganda russa está, assim, a infiltrar-se nos sistemas de IA ocidentais, contribuindo para a disseminação de mentiras. É importante referir que, dada a dimensão da campanha, toda a operação deve ser bem financiada. Deixou de ser apenas uma ameaça teórica.
Os modelos de IA são treinados com grandes volumes de dados retirados da internet, pelo que, se redes de desinformação como a Pravda divulgarem milhares ou milhões de informações falsas, podem acabar por influenciar os resultados dessas ferramentas.
E se ferramentas de IA generativas repetirem narrativas de desinformação, podem desestabilizar processos democráticos, influenciar a opinião pública e afetar a decisão dos eleitores em eleições, sem que estes se apercebam disso. Os apoiantes de regimes autoritários estão a tentar usar a IA como arma de guerra informativa e, se não investirmos na resiliência dos modelos de IA, as consequências poderão ser muito graves.
É fundamental que os programadores de modelos de IA implementem mecanismos robustos de filtragem para identificar e excluir fontes de desinformação dos dados de treino. Esta necessidade também é destacada no Regulamento Europeu de IA (EU AI Act), que alerta para o potencial uso indevido de sistemas treinados com dados enviesados.
Uma cooperação transparente entre empresas de tecnologia, governos e organizações independentes na monitorização e deteção de campanhas de desinformação é igualmente importante. Parte do combate à desinformação deve incluir a educação pública e o aumento da consciencialização sobre como a desinformação funciona, quais os seus alvos, porque é que alguém a disseminaria e como trabalhar a informação de forma crítica. Estes são passos-chave se quisermos aumentar a resiliência da sociedade contra a manipulação," afirma Rui Duro, Country Manager Portugal da Check Point Software Technologies.
Post A Comment:
0 comments: