5 formas de o ChatGPT e os LLM poderem promover a cibersegurança
· Embora a introdução de ChatGPT ou LLMs num ecossistema empresarial possa apresentar riscos, as ferramentas também podem aumentar a eficiência, a produtividade e as taxas de satisfação profissional das equipas de cibersegurança.
Embora os chatbots de IA generativa e os Modelos de Linguagem de Grande Dimensão (LLM, na sigla em inglês) possam ser uma faca de dois gumes no que diz respeito ao risco empresarial, podem fazer avançar de forma mensurável as iniciativas de cibersegurança de uma forma que pode ser considerada inesperadamente útil.
O ChatGPT e os LLMs têm sido anunciados pela multiplicidade de oportunidades que apresentam em termos de capacidades tecnológicas, eficiência e produtividade numa variedade de indústrias, setores e funções profissionais.
Embora a introdução de ChatGPT ou LLMs num ecossistema empresarial possa apresentar riscos, as ferramentas também podem aumentar a eficiência, a produtividade e as taxas de satisfação profissional das equipas de cibersegurança.
Como profissional de cibersegurança, se for capaz de compreender bem a nova tecnologia, poderá utilizá-la bem. Para ajudar, a Check Point Software Technologies Ltd., fornecedor líder em soluções de cibersegurança para empresas e governos a nível mundial, explica-lhe como pode tirar partido do ChatGPT e dos LLM para melhorar a segurança cibernética:
1. Análise e filtragem de vulnerabilidades:
Vários especialistas, desde CISOs globais até à Cloud Security Alliance, afirmam que os modelos de IA generativa podem ser utilizados para melhorar significativamente a análise e a filtragem de vulnerabilidades de cibersegurança.
Num relatório recente, a Cloud Security Alliance (CSA) demonstrou que o API Codex da OpenAI pode efetivamente procurar vulnerabilidades em linguagens de programação como C, C#, Java e JavaScript.
"Podemos prever que os LLMs, como os da família Codex, se tornarão um componente padrão de futuros scanners de vulnerabilidade", expressaram os investigadores no documento.
Por exemplo, um scanner poderia ser construído para identificar e sinalizar padrões de código inseguros em várias linguagens, permitindo que os programadores resolvam os principais problemas de segurança antes que eles se transformem em riscos à mesma.
No que diz respeito à filtragem, os modelos de IA podem fornecer informações sobre identificadores de ameaças que, de outra forma, poderiam passar despercebidos às equipas de segurança humanas.
2. Reversão de add-ons, analisando APIs de ficheiros PE:
A inteligência artificial e os modelos de linguagem de grande dimensão podem ser utilizados para desenvolver regras e inverter add-ons populares. Isso seria baseado em estruturas de engenharia reversa, como IDA e Ghidra. "Se formos específicos na pergunta sobre o que precisamos e a compararmos com as tácticas do MITRE ATT&CK, podemos depois pegar no resultado offline e torná-lo melhor para usar como defesa", diz o gestor de engenharia de ciberinteligência, Matt Fulmer.
Os LLMs também podem analisar APIs de ficheiros executáveis portáteis (PE) e informar o pessoal de segurança cibernética sobre a sua possível utilização. Por sua vez, isto pode limitar a quantidade de tempo que os investigadores de segurança gastam a procurar nos ficheiros PE e a analisar as comunicações API dentro dos mesmos.
3. Consultas de procura de ameaças:
A equipa de segurança cibernética pode aumentar a eficiência operacional e acelerar os tempos de resposta utilizando o ChatGPT e LLMs para desenvolver consultas de procura às ameaças, afirma a Cloud Security Alliance.
Através da criação destas procuras por ferramentas de pesquisa e deteção de malware, como o YARA, o ChatGPT permite a rápida identificação e mitigação de potenciais ameaças. Como resultado, as equipas podem dedicar mais tempo a tarefas de cibersegurança de maior prioridade ou de maior retorno.
A capacidade acima referida é útil quando se trata de manter uma forte postura de cibersegurança num cenário de ameaças em constante evolução. As regras podem corresponder a necessidades organizacionais específicas e a ameaças comuns do setor.
4. Detetar texto de IA generativa em ataques:
Toda a gente sabe que os LLMs podem gerar texto, mas sabia que, em breve, poderão ser capazes de detetar e colocar marcas de água em texto gerado por IA? É provável que esta capacidade venha a ser incorporada no software de proteção de correio eletrónico no futuro.
A capacidade de identificar texto gerado por IA significa que as equipas poderão detetar mais facilmente emails de phishing, código polimórfico e outros sinais de alerta.
5. Criação e transferência de código de segurança:
Em alguns casos, os modelos linguísticos de grande dimensão, como o ChatGPT, podem ser utilizados para gerar e transferir código de segurança cibernética. Tire um momento para compreender o seguinte exemplo: Uma campanha de phishing pode ter como alvo vários funcionários de uma empresa, resultando potencialmente na exposição de credenciais. Embora a equipa de segurança cibernética possa saber quais os funcionários que abriram o email de phishing, pode não ser claro se foi ou não executado código malicioso de roubo de credenciais.
Como forma de investigação, uma pesquisa do Microsoft 365 Defender Advanced Hunting pode ser utilizada para se concentrar nos 10 eventos de início de sessão mais recentes dos destinatários de correio eletrónico após a abertura dos emails maliciosos. A consulta ajuda a marcar atividades de início de sessão suspeitas relacionadas com as credenciais comprometidas.
Neste caso, o ChatGPT pode fornecer uma pesquisa ao Microsoft 365 Defender para verificar as tentativas de início de sessão das contas de email comprometidas, ajudando a bloquear os atacantes do sistema e fornecendo informações sobre se os utilizadores precisam ou não de alterar as palavras-passe. Efetivamente, o ChatGPT pode ajudar a reduzir o tempo de ação no âmbito da resposta a incidentes cibernéticos.
Em alternativa, com base no mesmo exemplo, a equipa de segurança pode ter o mesmo problema e encontrar a pesquisa do Microsoft 365 Defender, apenas para perceber que o sistema interno não funciona com a linguagem de programação KQL. Em vez de procurar o exemplo correto na linguagem necessária, o ChatGPT pode ajudar com uma transferência de estilo de linguagem de programação.
Post A Comment:
0 comments: