As 3 principais ameaças de deepfake em 2023
O número de vídeos deepfake online está a aumentar a uma taxa anual de 900%, segundo o Fórum Económico Mundial (WEF). Têm sido muitos os casos de fraudes com deepfakes a chegarem às notícias, com relatos de assédio, vingança, esquemas com criptomoedas, entre outros. Os investigadores da Kaspersky dão a conhecer os três principais esquemas de fraude que utilizam deepfakes e aos quais deve estar atento.
A utilização de redes neurais e de aprendizagem profunda (daí o termo "deepfakes") permitiu a utilizadores de todo o mundo utilizar imagens, materiais de vídeo e áudio para criar vídeos realistas de uma pessoa, em que o seu rosto ou corpo foi digitalmente alterado para que pareça ser outra pessoa. Estes vídeos e imagens manipulados são frequentemente utilizados para fins maliciosos, com o objetivo de difundir informações falsas.
Fraude financeira
Os deepfakes podem ser utilizados para engenharia social, em que os criminosos utilizam imagens melhoradas para se fazerem passar por celebridades e aliciarem as vítimas a cair nas suas burlas. Por exemplo, um vídeo criado artificialmente de Elon Musk a prometer elevados retornos de um esquema duvidoso de investimento em criptomoedas tornou-se viral no ano passado, fazendo com que os utilizadores perdessem o seu dinheiro. Para criar deepfakes como este, os burlões utilizam imagens de celebridades ou juntam vídeos antigos e fazem transmissões em direto nas redes sociais, prometendo duplicar qualquer pagamento em criptomoeda que lhes seja enviado.
Deepfakes pornográficos
Outra utilização dos deepfakes é a violação da privacidade de uma pessoa. Os vídeos deepfake podem ser criados através da manipulação do rosto de uma pessoa num vídeo pornográfico, causando danos e angústia. Num caso, surgiram vídeos deepfake online de algumas celebridades, mostrando os seus rostos sobrepostos aos corpos de atrizes pornográficas em cenas explícitas. Consequentemente, nestas situações, as vítimas de ataques veem a sua reputação afetada e os seus direitos violados.
Riscos para as empresas
Os deepfakes são até utilizados para atingir empresas, nomeadamente através de crimes como extorsão de gestores, chantagem e espionagem industrial. Por exemplo, há um caso conhecido em que os cibercriminosos conseguiram enganar um gerente de um banco nos Emirados Árabes Unidos e roubar 35 milhões de dólares, utilizando um deepfake de voz. Uma pequena gravação da voz do chefe de um empregado foi suficiente para gerar um deepfake convincente. Noutro caso, os burlões tentaram enganar a maior plataforma de criptomoedas, a Binance. O executivo da Binance ficou surpreso quando começou a receber mensagens de agradecimento sobre uma reunião no Zoom da qual ele nunca participou. Com as suas imagens publicamente disponíveis, os atacantes conseguiram gerar um deepfake e aplicá-lo com sucesso numa reunião online, falando em nome do executivo.
Em geral, os objetivos dos burlões que exploram os deepfakes incluem a desinformação e a manipulação da opinião pública, a chantagem ou mesmo a espionagem. Os gestores de recursos humanos, por exemplo, já estão sob alerta para a utilização de deepfakes por candidatos a trabalhos remotos, de acordo com um aviso do FBI. No caso da Binance, os atacantes utilizaram imagens de pessoas que encontraram na Internet para criar deepfakes e conseguiram, inclusive, adicionar essas fotografias aos currículos. Se conseguirem enganar os gestores de RH desta forma e, mais tarde, receberem uma oferta, os cibercriminosos podem roubar dados do empregador.
De acordo com o Fórum Económico Mundial (WEF), o número de vídeos deepfake online está a aumentar a um ritmo anual de 900%. No entanto, também é importante considerar que os deepfakes são um tipo de fraude muito dispendioso, que requer um grande orçamento. Uma investigação anterior da Kaspersky revelou os tipos de deepfakes vendidos na darknet e os seus custos. Se um utilizador comum encontrar software na Internet e tentar fazer um deepfake, o resultado será irrealista e óbvio ao olho humano. Poucas pessoas acreditarão num deepfake de má qualidade: notarão desfasamentos na expressão facial ou o queixo desfocado.
Por isso, quando os cibercriminosos se preparam para um ataque, precisam de uma enorme quantidade de dados, nomeadamente fotografias, vídeos e áudio da pessoa que querem imitar. Os diferentes ângulos, o brilho da iluminação, as expressões faciais, todos desempenham um papel importante na qualidade final. Para que o resultado seja realista, é necessária uma potência informática e um software atualizados. Tudo isto exige uma enorme quantidade de recursos e só está disponível para um pequeno número de cibercriminosos. Portanto, apesar de todo o perigo que um deepfake pode oferecer, continua a ser uma ameaça extremamente rara e apenas um pequeno número de compradores será capaz de o pagar. Afinal, o preço de um minuto de um deepfake pode chegar aos 20 mil dólares.
"A ameaça mais grave que o deepfake representa para as empresas nem sempre é o roubo de dados empresariais. Por vezes, os riscos para a reputação podem ter consequências muito graves. Imagine que é publicado um vídeo em que o seu executivo (aparentemente) faz declarações polarizadoras sobre questões sensíveis. Para as empresas, isto pode levar rapidamente a uma queda no preço das ações. No entanto, apesar de os riscos de tal ameaça serem extremamente elevados, a probabilidade de ser atacado desta forma continua a ser extremamente baixa devido ao custo de criação de deepfakes e ao fato de poucos atacantes serem capazes de criar um deepfake de alta qualidade", afirma Dmitry Anikin, especialista sénior em segurança da Kaspersky.
"O que pode fazer hoje é estar ciente das principais características dos vídeos deepfake e manter uma atitude cética em relação às mensagens de voz e aos vídeos que recebe. Além disso, certifique-se de que os seus funcionários compreendem o que é um deepfake e como o podem reconhecer: por exemplo, movimentos bruscos, mudanças no tom de pele, piscar de olhos estranho ou nenhum piscar de olhos, etc.", continuou.
A monitorização contínua dos recursos da dark Web fornece informações valiosas sobre a indústria de deepfake, permitindo aos investigadores seguir as últimas tendências e actividades dos agentes de ameaças neste espaço. Ao monitorizar a dark web, os investigadores podem descobrir novas ferramentas, serviços e mercados utilizados para a criação e distribuição de deepfakes. Este tipo de monitorização é uma componente crítica da investigação de deepfake e ajuda a melhorar a nossa compreensão do cenário de ameaças em evolução. O serviço Digital Footprint Intelligence da Kaspersky inclui este tipo de monitorização para ajudar os seus clientes a manterem-se na vanguarda no que diz respeito a ameaças relacionadas com deepfake.
Saiba mais sobre a indústria de deepfake no Kaspersky Daily.
Para estar protegido contra ameaças relacionadas com deepfakes, a Kaspersky recomenda:
· Verifique as práticas de cibersegurança em vigor na sua organização, não apenas sob a forma de software, mas, também, em termos de competências de TI desenvolvidas. Utilize a Kaspersky Threat Intelligence para se antecipar ao atual panorama de ameaças.
· Reforce a "firewall humana" da empresa: garanta que os colaboradores compreendem o que são deepfakes, como funcionam e os desafios que podem colocar. Tenha ações de sensibilização e educação contínuas para ensinar os funcionários a detetar um deepfake. A Kaspersky Automated Security Awareness Platform ajuda os funcionários a manterem-se atualizados sobre as ameaças mais recentes e aumenta os níveis de literacia digital.
· Utilize fontes de notícias de boa qualidade. A iliteracia da informação continua a ser um fator crucial para a proliferação de deepfakes.
· Ter bons protocolos como "confiar, mas verificar". Uma atitude cética em relação ao correio de voz e aos vídeos não garante que as pessoas nunca serão enganadas, mas pode ajudar a evitar muitas das armadilhas mais comuns.
· Esteja ciente das principais características dos vídeos deepfake para evitar tornar-se uma vítima: movimentos bruscos, mudanças na iluminação de um fotograma para o outro, mudanças no tom de pele, pestanejar estranho ou não pestanejar de todo, lábios mal sincronizados com a fala, artefactos digitais na imagem, vídeo intencionalmente codificado com qualidade inferior e com iluminação deficiente.
Post A Comment:
0 comments: