Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Eleições em destaque: IA generativa e falsificações graves

Eleições em destaque: IA generativa e falsificações graves
Share it:
Eleições em destaque: IA generativa e falsificações graves

- Desde que entrou em cena há pouco tempo, a IA tem tido impacto em muitas facetas da nossa vida quotidiana

- Muitas pessoas estão preocupadas com o facto destes desenvolvimentos colocarem em risco os discursos públicos dos debates factuais e ideológicos, comprometendo essência das eleições democráticas.
Neste artigo, a Check Point Software, líder mundial de soluções de cibersegurança, examinará o potencial impacto dos recentes avanços nas tecnologias de IA generativa nas próximas eleições democráticas. Em particular, analisamos duas mudanças principais: A capacidade da IA para criar textos persuasivos e personalizados numa escala maciça e a sua proficiência em gerar conteúdos audiovisuais credíveis a baixo custo.

Destaques:

- Discutimos os potenciais efeitos negativos da propaganda gerada pela IA, bem como algumas medidas que podem ser tomadas para os reduzir. Para tal, é necessária a cooperação de várias partes interessadas, incluindo os fornecedores de IA, os governos e a sociedade.

- Ilustramos que uma reação exagerada à ameaça pode agravar ainda mais o problema e estabelecemos um paralelo com as preocupações anteriores sobre as vulnerabilidades das máquinas de voto.

- Discutimos a forma como a reação à distorção do diálogo político pela IA pode prejudicar o envolvimento do público nos debates políticos. Discutimos que o que se está a deteriorar é a nossa confiança no discurso público e que os avisos desequilibrados podem corroer ainda mais essa confiança. Este é o verdadeiro perigo - antes que a nova tecnologia nos desligue da realidade, os receios e os avisos sobre ela podem produzir um resultado perigoso, nomeadamente, uma perda de confiança no aparelho democrático

Eleições presidenciais de 2020 nos EUA e as preocupações com a "pirataria eleitoral"

As eleições democráticas assentam em alguns elementos fundamentais: discussão pública livre - um mercado público de ideias onde as opiniões contraditórias são confrontadas e ponderadas, um processo de votação justo e a garantia de uma transição pacífica do poder, de acordo com os resultados do escrutínio. Cada um destes elementos tem enfrentado desafios nos últimos anos.

No período que antecedeu as eleições de 2020 nos EUA, houve um foco maior na confiabilidade e resiliência das máquinas de votação. Várias conferências e testes públicos de vulnerabilidade foram o centro das atenções. A iniciativa "Voting Village" da DefCon proporcionou uma plataforma para os hackers desafiarem a segurança de várias máquinas de voto de todos os EUA, com as vulnerabilidades detetadas a serem frequentemente notícia e a receberem uma extensa cobertura mediática. Em resposta às crescentes preocupações com a potencial pirataria eleitoral, países como os Países Baixos, que há muito tinham adotado a votação digital, voltaram a utilizar processos manuais baseados em papel. Entretanto, nos EUA, o governo federal atribuiu orçamentos na ordem dos milhares de milhões para melhorar a infraestrutura das máquinas de voto estatais. No entanto, os críticos afirmam que esses testes são efetuados em condições não realistas. De notar que, até à data, nunca houve relatos de tentativas de pirataria informática de máquinas de voto com a intenção de manipular os resultados eleitorais a nível mundial.

A razão subjacente a este facto pode ser atribuída à complexidade envolvida. Manipular resultados eleitorais não é uma tarefa simples. Requer a violação de múltiplos sistemas distribuídos offline e, crucialmente, fazê-lo sem ser detetado. Qualquer suspeita levantada poderia invalidar imediatamente a contagem, uma vez que as cópias de segurança em papel oferecem um método fiável de verificação cruzada manual da integridade do voto. Estes desafios podem explicar a razão pela qual, tanto quanto sabemos, tal não foi efetivamente tentado. Mas isso não significa que o sistema democrático não estivesse a ser atacado.

É agora evidente que o principal objetivo dos ataques aos sistemas eleitorais democráticos não era necessariamente a promoção de candidatos específicos, mas sim minar o próprio sistema democrático. As campanhas de influência têm como objetivo exacerbar as divisões no seio da sociedade visada, muitas vezes através do apoio a extremistas de todos os quadrantes, e minar a confiança na credibilidade do sistema de votação. O debate público contínuo e as preocupações relativas à fiabilidade das máquinas de voto servem exatamente este objetivo. O enfraquecimento do sistema democrático ajuda as agendas externas e internas das forças não democráticas atacantes. Na frente internacional, enfraquecem os seus adversários e, a nível interno, fornecem argumentos para as suas próprias campanhas que enfatizam as falhas da democracia ocidental, diminuindo assim as aspirações de democratização da população local. A mensagem subjacente é: "Olhem para os hipócritas dos Estados Unidos com a sua democracia imperfeita - não são esse o nosso modelo".

Em retrospetiva, os esforços contínuos para descobrir vulnerabilidades nas máquinas de voto eletrónico, que se destinavam sobretudo a aumentar a sua credibilidade e a reforçar o sistema democrático, podem ter tido inadvertidamente o efeito oposto. É possível que tenham efetivamente diminuído a confiança do público na fiabilidade destes sistemas e na legitimidade dos resultados eleitorais. Embora a avaliação da robustez das máquinas de voto em condições artificiais, como o acesso sem restrições em eventos como as "Aldeias de Voto", possa ser benéfica para as convenções, para a exposição mediática e para a indústria da cibersegurança, existem reservas. Muitos questionam se as vulnerabilidades identificadas são verdadeiramente exploráveis, se são mesmo visadas pelos adversários, ou se os potenciais riscos associados a estas vulnerabilidades compensam a consequente diminuição da confiança do público nos resultados eleitorais.

Esta perspetiva pode ter sido o que levou a CISA (Agência de Cibersegurança e Segurança de Infra-estruturas) a repensar a sua estratégia de comunicação. Em vez de chamar persistentemente a atenção para as vulnerabilidades e deficiências das máquinas de voto, a CISA optou por se concentrar em mensagens positivas ao longo de 2020, afirmando a segurança e a fiabilidade do sistema de votação dos EUA. Esta mudança na posição da CISA culminou com a demissão do seu diretor, Chris Krebs, pelo Presidente Trump. Enquanto Krebs proclamava que estas eleições eram as mais seguras da história americana, o Presidente Trump contestou fortemente os resultados eleitorais, culminando nos eventos de 6 de janeiro no Capitólio e interferindo com uma transição pacífica. O processo completou o círculo, com os funcionários da "aldeia de voto" da DEF CON a definirem agora a sua missão, à luz das teorias da "Grande Mentira", para "lutar contra as teorias da conspiração, a desinformação, as alegações de pirataria informática que não aconteceram, as alegações de coisas estranhas que não aconteceram".

A FOX Network concordou recentemente em pagar 787 milhões de dólares no âmbito de uma ação judicial intentada pela Dominion, um fabricante de máquinas de voto. A FOX foi processada por ter alegado falsamente e com conhecimento de causa que as máquinas da Dominion alteraram os resultados eleitorais a favor do Presidente Biden.

Inteligência Artificial e Textos Automatizados

À medida que se aproxima o próximo ciclo de eleições presidenciais dos EUA, em 2024, aumenta o receio de que os avanços na IA possam ser utilizados para introduzir novas perturbações no processo democrático. A tecnologia anterior era utilizada principalmente em campanhas de influência para selecionar e fazer corresponder conteúdos específicos a públicos-alvo. Atualmente, a vaga emergente de tecnologia é cada vez mais hábil na elaboração autónoma de conteúdos personalizados, aumentando as preocupações sobre a sua influência no discurso público.

O escândalo da Cambridge Analytica, que eclodiu em 2018, teve a ver com a utilização não autorizada de informações de utilizadores das redes sociais. Essas informações foram utilizadas para criar perfis de eleitores e fornecer conteúdo que se alinhava estreitamente com as visões de mundo dos alvos, tornando-os ferramentas de persuasão mais eficazes. O obstáculo a estas operações de influência era o custo do desenvolvimento de conteúdos, que exigia criadores de conteúdos humanos proficientes na língua, cultura, política e psicologia do país visado. No entanto, a nova tecnologia de IA contorna este estrangulamento, oferecendo conteúdos personalizados com uma boa relação custo-benefício. Desde o lançamento do ChatGPT no final de 2022, tornou-se fácil gerar automaticamente texto personalizado. Atualmente, pode definir os parâmetros de conversação específicos, como idade, sexo e localização geográfica, juntamente com objetivos que são alimentados automaticamente na API. Isto produz um texto personalizado impressionante e convincente destinado a atingir o objetivo predefinido. O resultado pode ser utilizado para gerar conversas completas entre a IA e o indivíduo visado. Os chatbots semelhantes já estão a ser utilizados comercialmente, por exemplo, como ferramentas eficientes de serviço ao cliente.

O verdadeiro avanço reside na capacidade de produzir este conteúdo personalizado em grande escala e a baixo custo. A qualidade do texto melhorou de tal forma que o historiador Prof. Yuval Noah Harari chama-lhe "hacking humans", referindo-se à capacidade da IA para antecipar e manipular os nossos sentimentos, pensamentos e escolhas para além da nossa própria compreensão.

No contexto das eleições, os investigadores propuseram uma experiência de pensamento em que os sistemas de IA, que designam por "Clogger e Dogger", operam em ambos os lados do mapa político para maximizar a utilização de técnicas de micro-direcionamento e de manipulação do comportamento. Os autores alertam para o facto de, em consequência, o discurso político futuro poder perder o seu significado. O discurso entre bots e eleitores individuais pode deixar de se centrar em questões políticas relevantes. Em vez disso, pode ser utilizado para desviar a atenção da mensagem de um adversário ou de outros tópicos de discussão importantes. Além disso, é importante notar que os atuais sistemas de IA não são necessariamente precisos, mas geram conteúdos que correspondem aos objetivos que lhes foram atribuídos. Neste cenário, os vencedores de uma eleição teriam prevalecido não devido à sua posição política ou mensagem que ressoa junto dos eleitores, mas devido à sua capacidade financeira para tirar partido deste sistema superior para o sucesso.

Desta forma, sem recorrer à censura ou à força, o principal requisito para eleições democráticas - um mercado livre de opiniões - poderia ser destruído. Como os funcionários recém-eleitos não foram eleitos pela sua plataforma ideológica, é lógico que não se comprometam a implementar essas políticas. Poderão mesmo continuar a empregar o "Clogger" ou o "Dogger" para tomar decisões políticas que maximizem as suas hipóteses de serem reeleitos.

IA e artefactos audiovisuais fabricados

Uma das implicações mais significativas da tecnologia de IA emergente é a sua capacidade de fabricar gravações de voz e vídeo enganadoras. Este avanço ameaça esbater as fronteiras entre relatos genuínos e falsificados de acontecimentos. Com estas ferramentas a tornarem-se cada vez mais acessíveis e económicas, existe uma preocupação crescente de que a distinção entre relatos autênticos e falsificações profundas se torne quase impossível, especialmente na arena política. Embora inicialmente utilizada para burlas, como fazer-se passar por indivíduos para obter ganhos financeiros, esta tecnologia já foi utilizada como arma política. Por exemplo, durante as recentes eleições municipais de Chicago, surgiu um clip de áudio adulterado, alegadamente do candidato Paul Vallas, a apoiar a agressão policial. Outras invenções deste género, alegando ser Elizabeth Warren ou o Presidente da Ucrânia, Volodymyr Zelensky, também foram encontradas online. Um vídeo criado por IA do Comité Nacional Republicano, que retrata cenas distópicas fictícias sob o governo de Joe Biden, levanta questões sobre a sua novidade: em que é que difere das anteriores produções de Hollywood e da sua utilização em campanhas políticas. A verdadeira mudança, no entanto, é a acessibilidade e a disponibilidade destas ferramentas tecnológicas, aumentando as preocupações com a sua utilização indevida na política.

Estes recentes avanços na IA, a capacidade de criar textos personalizados e de se envolver em diálogos micro-direcionados que podem tornar as discussões desprovidas de base factual, juntamente com a criação e disseminação de deep fakes, têm implicações de grande alcance para os processos democráticos. Negam o primeiro requisito das eleições democráticas - a existência de um intercâmbio livre e significativo de ideias e opiniões. Atingem o próprio cerne da comunicação humana e a nossa capacidade de realizar debates abertos e significativos antes das eleições
Enfrentar o desafio imediato da IA

Vale a pena sublinhar que, ao contrário dos desafios tecnológicos anteriores, para os quais a solução se baseava na tecnologia, estes novos desenvolvimentos desafiam algo mais fundamental: a nossa relação com a própria verdade. Estamos agora a lidar com questões complexas que são mais filosóficas e morais do que tecnológicas. Questões epistemológicas relacionadas com a natureza do conhecimento, a fiabilidade das fontes de dados, a reputação de figuras públicas e a própria forma como moldamos a nossa compreensão da realidade. Estes desafios estão a remodelar a paisagem do discurso político, pondo em causa a autenticidade da informação e exigindo uma nova perspetiva sobre os valores fundamentais da comunicação e da integridade no processo democrático.

Para enfrentar eficazmente estes desafios, é necessária a cooperação de stackholders. Em primeiro lugar, os fornecedores de IA devem tomar medidas proactivas para evitar o abuso dos seus processos, e os reguladores devem reavaliar e atualizar as orientações. Enquanto sociedade, temos de refletir profundamente sobre as nuances da liberdade de expressão e a forma como nos comportamos nesta era digital.

A condição principal para avaliar a informação é compreender o contexto em que ela aparece. Isto implica compreender a fonte de informação, a identidade do orador e as suas motivações. Por conseguinte, algumas propostas sublinham a necessidade de revelar estes pormenores juntamente com a publicação. Quando se trata de conversas com bots, há uma exigência de declarar a identidade do orador como um chatbot de IA. Há também um apelo para que se esclareçam as intenções da IA, possivelmente revelando a mensagem dada ao agente da IA. Fung & Lessig, no exemplo do "Clogger", propõem algo do género: "Esta mensagem gerada pela IA está a ser-lhe enviada pelo Comité Sam Jones para o Congresso porque o Clogger previu que, ao fazê-lo, aumentará as suas hipóteses de votar em Sam Jones em 0,0002%". Yuval Harari levanta uma questão relacionada com a aprovação da participação da IA no discurso político: A Primeira Emenda garante a liberdade de expressão aos seres humanos. Será que este direito também está reservado à IA? No entanto, à medida que a integração da IA nos processos de pensamento (como a tentativa de utilizar o ChatGPT no processo de criação deste artigo, com um sucesso muito limitado) se torna mais complicada, torna-se cada vez mais difícil distinguir as origens de um texto ou de uma ideia. A aplicação da regulamentação é fundamental, uma vez que confiar na capacidade de um indivíduo para reconhecer a fiabilidade da fonte se revelou ineficaz.

A condição principal para avaliar a informação é compreender o contexto em que ela aparece. Isto implica compreender a fonte de informação, a identidade do orador e as suas motivações. Por conseguinte, algumas propostas sublinham a necessidade de revelar estes pormenores juntamente com a publicação. Quando se trata de conversas com bots, há uma exigência de declarar a identidade do orador como um chatbot de IA. Há também um apelo para que se esclareçam as intenções da IA, possivelmente revelando a mensagem dada ao agente da IA. Fung & Lessig, no exemplo do "Clogger", propõem algo do género: "Esta mensagem gerada pela IA está a ser-lhe enviada pelo Comité Sam Jones para o Congresso porque o Clogger previu que, ao fazê-lo, aumentará as suas hipóteses de votar em Sam Jones em 0,0002%". Yuval Harari levanta uma questão relacionada com a aprovação da participação da IA no discurso político: A Primeira Emenda garante a liberdade de expressão aos seres humanos. Será que este direito também está reservado à IA? No entanto, à medida que a integração da IA nos processos de pensamento (como a tentativa de utilizar o ChatGPT no processo de criação deste artigo, com um sucesso muito limitado) se torna mais complicada, torna-se cada vez mais difícil distinguir as origens de um texto ou de uma ideia. A aplicação da regulamentação é fundamental, uma vez que confiar na capacidade de um indivíduo para reconhecer a fiabilidade da fonte se revelou ineficaz.

Na ausência de uma proibição da participação da IA no discurso popular, é evidente que a responsabilidade pelo conteúdo produzido pela IA recai sobre os utilizadores e os criadores. A fronteira exata será clarificada nos tribunais através de um diálogo entre os reguladores e os que interpretam os regulamentos.

Existe outra tensão entre o direito à liberdade de expressão e a busca da verdade. Até à data, a liberdade de expressão tem tido prioridade. Desde os Dez Mandamentos até ao direito americano, a mentira não é geralmente considerada um crime. Tom Wheeler, ex-presidente da FCC, destacou a triste realidade: o engano é permitido, especialmente na política. Um exemplo recente é uma decisão de 2012 do Supremo Tribunal dos EUA que levou à anulação de uma lei que proibia a falsa representação da história militar. Um candidato local na Califórnia foi apanhado a afirmar que tinha recebido uma medalha que não tinha, mas o Supremo Tribunal decidiu que a Primeira Emenda tem precedência e, na prática, não se pode proibir a mentira no discurso público. Dado o risco de se esbaterem as fronteiras entre documentação e fabrico, vale a pena reconsiderar o equilíbrio entre estes dois valores.

Será que alguém que produz um ficheiro áudio, uma imagem ou um vídeo com o objetivo de fabricar uma falsa representação da realidade deve ser responsabilizado criminalmente? A importância da fiabilidade no nosso discurso público é suscetível de assumir um papel ainda mais central no futuro. Numa realidade em que é cada vez mais difícil identificar as falsificações, a fonte e o contexto tornam-se primordiais. Numa situação destas, a credibilidade de uma pessoa e de uma fonte de informação torna-se cada vez mais crucial. Quando a verdade está em perigo, a dissuasão é criada através de uma menor tolerância para com as mentiras e os enganadores. Os políticos que outrora tinham orgulho em mentir abertamente, poderão em breve ser vistos de forma diferente. A credibilidade e uma reputação de confiança tornam-se ativos valiosos e é fundamental que haja uma responsabilização política pela mentira.

Meios de comunicação e soluções tecnológicas

Numa época em que os meios de comunicação social tradicionais se debatem com a crescente popularidade das redes sociais, poderá haver uma potencial reviravolta no sentido do ressurgimento dos primeiros. À medida que as pessoas procuram fontes fiáveis, podem procurar os principais meios de comunicação social que estão mais empenhados na verificação diligente dos factos, nas normas editoriais e na responsabilidade. Os projetos destinados a fornecer um contexto mais amplo às notícias serão cada vez mais importantes.

As múltiplas iniciativas centradas na identidade de origem podem ser o início de uma nova tendência. A WorldCoin, apresentada por Sam Altman da OpenAI, é uma plataforma de identificação digital cujo objetivo é proporcionar às pessoas uma forma de verificar se estão a interagir com seres humanos reais. Apesar das críticas dirigidas ao Twitter, a sua promoção da marca de verificação azul e outros mecanismos de verificação são passos na mesma direção. Aumentar o custo dos sinais para os tornar mais difíceis de falsificar, aumentando assim a sua fiabilidade, poderia ser também uma solução aplicável neste caso. Uma taxa mensal para o Twitter constitui um custo desse tipo e poderia impedir a criação de redes de milhares de bots. A preferência por eventos reais em vez de virtuais, como já vimos na popularidade das convenções em grande escala como parte das campanhas eleitorais, também poderia ser considerada como outra forma de aumentar o custo dos sinais.

Avisos exagerados podem piorar a situação

Até agora, discutimos os potenciais perigos decorrentes das capacidades da IA e as formas de os mitigar. No entanto, existe a possibilidade de que os repetidos avisos e a enfase nos perigos da IA possam exacerbar o problema. Tal como a enfase exagerada nas vulnerabilidades das máquinas de voto pode ter inadvertidamente enfraquecido a resiliência democrática ao corroer a confiança do público nos mecanismos de votação, podemos estar perante um perigo semelhante com a IA.

Conclusão

É essencial manter as coisas em perspetiva e lembrar que sempre tivemos de lidar com informações incompletas sobre a realidade e que as manipulações, as reviravoltas retóricas e as mentiras descaradas não tiveram origem na era da IA. Os retratos editados já existiam no tempo de Abraham Lincoln e é muito provável que a perceção de um leitor de notícias de 2023 sobre os acontecimentos atuais não seja pior do que em tempos anteriores, quando as "notícias" raramente estavam atualizadas e a verificação dos factos era muito mais difícil. Uma análise dos casos de utilização incorreta da IA sugere que esta ainda está longe de influenciar maciçamente a nossa perceção da realidade e o discurso político.

O que está a deteriorar-se é a nossa confiança no discurso público, e os avisos desequilibrados podem corroer ainda mais essa confiança. Na nossa opinião, este pode ser o verdadeiro perigo imediato - mesmo antes de as novas tecnologias nos desligarem da realidade, os próprios medos e avisos podem criar uma perda de confiança no aparelho democrático. É crucial sublinhar que o campo do discurso público, que nunca garantiu objetividade absoluta e fidelidade à verdade, também não está destruído agora. No entanto, a erosão da confiança nos mecanismos eleitorais e nos seus resultados pode diminuir cada vez mais a vontade do lado perdedor de admitir a derrota, o que, por sua vez, pode afetar uma transição pacífica do poder.
Share it:

info

Post A Comment:

0 comments: