Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Riscos e vantagens da IA no Planeamento Financeiro

Riscos e vantagens da IA no Planeamento Financeiro
Share it:

 Riscos e vantagens da IA no Planeamento Financeiro

A Inteligência Artificial (IA) espalhou-se por quase todos os setores, uma vez que tanto as empresas como os consumidores pretendem tirar partido das suas eficiências de escala. Tarefas como a análise de dados, a transcrição, o apoio ao cliente e outros exemplos, podem ser realizadas com recurso à IA para reduzir o tempo de obtenção de resultados em ordens de grandeza. O planeamento financeiro não é exceção.

De acordo com um inquérito da F2 Strategy, mais de metade das empresas de gestão de fortunas já têm um projeto de IA em curso. Estão interessadas em análises preditivas sobre as condições do mercado e as alterações dos títulos ao longo do tempo, reconhecimento ótico de caracteres para analisar documentos, automatização do fluxo de trabalho, chatbots e muito mais. O potencial é claro - a IA pode reduzir o tempo humano gasto nestas tarefas em até 90%. Ao mesmo tempo, mais de 60% das empresas dizem que precisam de mais formação sobre IA. Assim, embora o lado positivo seja inegável, o rácio valor/risco é menos claro.

Segundo a a Check Point® Software Technologies Ltd. (NASDAQ: CHKP), fornecedor líder de plataformas de segurança cibernética alimentadas por IA e entregues na cloud, esta dinâmica é particularmente importante para o planeamento financeiro, onde os riscos são maiores - o dinheiro das famílias e dos indivíduos está diretamente em risco. Embora os serviços de gestão de património personalizados se destinem normalmente a indivíduos com um património líquido mais elevado, a IA torna possível oferecer estes serviços a um grupo mais vasto de pessoas. Os consultores podem desenvolver perfis de clientes e fornecer planos personalizados com base na idade, ativos, riscos, objetivos e necessidades numa fração de tempo, o que significa que as empresas podem oferecê-los a mais pessoas. Isto representa um novo mercado para os gestores de patrimónios, mas também um maior conjunto de riscos.

Devemos ter sempre presente que os agentes de ameaças também estão a utilizar a IA. Esta oferece aos atacantes exatamente os mesmos benefícios - é um multiplicador de forças que lhes permite aumentar a escala e a eficácia das suas campanhas. Podem até envenenar o próprio modelo de IA para revelar informações sensíveis ou apresentar resultados maliciosos. Além disso, os funcionários que não recebem formação adequada podem expor inadvertidamente informações sensíveis através das informações que introduzem nas ferramentas de IA, que posteriormente as incorporam nas suas atividades de aprendizagem automática. Já vimos casos em que este facto invalidou reivindicações de propriedade intelectual.

Por conseguinte, os controlos de segurança têm de ser integrados em todo o ciclo de vida da IA, incluindo a formação dos trabalhadores. Antes de utilizar qualquer ferramenta de IA, as organizações têm de compreender a classificação da privacidade de todos os dados que possam ser introduzidos, a fonte dos dados utilizados para treinar as ferramentas de IA e as especificidades dos protocolos de segurança em vigor para proteger as informações sensíveis. Isto deve fazer parte da implementação da IA desde o primeiro dia. Os sistemas de IA abertos acarretam ainda mais riscos, uma vez que são concebidos para serem acessíveis ao público, o que lhes permite aprender com um conjunto de dados muito maior, mas também permite a manipulação por maus atores. Os sistemas fechados são mais seguros, mas requerem uma gestão mais prática e formação de modelos. Os funcionários devem receber formação aprofundada sobre a ferramenta e o seu funcionamento, bem como sobre a forma de a utilizar com segurança - salientando quais os dados que podem ser utilizados e quais os que nunca devem ser expostos a um modelo de linguagem de grande dimensão (LLM), como o tipo que alimenta as aplicações de IA generativa.

Ao implementar uma solução baseada em IA, é importante identificar o âmbito da ferramenta e restringir o seu acesso aos dados ao que é absolutamente necessário para a treinar. Desenvolver uma compreensão abrangente da privacidade da informação, da fonte dos dados do modelo e dos mecanismos de segurança nativos incorporados. Muitas ferramentas de IA têm defesas incorporadas para proteger contra uma utilização pouco ética - um bom exemplo são as regras do ChatGPT que procuram evitar que as pessoas o utilizem para fins prejudiciais, como a criação de malware. No entanto, também é claro que estas regras podem ser contornadas através de prompts inteligentemente redigidos que obscurecem a intenção do utilizador.  Este é um tipo de ataque de injeção de comandos, que é uma categoria de ameaças exclusiva dos sistemas baseados em IA. Devem ser implementados controlos rigorosos para evitar estes ataques antes que aconteçam. Em termos gerais, estes controlos inserem-se no âmbito das estratégias de cibersegurança de confiança zero.

As ferramentas de IA, especialmente os LLM que permitem a IA generativa, não devem ser tratadas como uma ferramenta de software típica. São mais como um híbrido entre uma ferramenta e um utilizador. Os programas de confiança zero limitam o acesso aos recursos com base na função, âmbito e necessidades individuais de uma pessoa. Isto limita os danos que um atacante pode causar ao comprometer um único funcionário, porque limita o alcance do movimento lateral. É preciso lembrar que a adição de qualquer ferramenta de software também aumenta a superfície de ataque, oferecendo mais pontos de entrada a um atacante. Comprometer uma ferramenta - como uma ferramenta de IA - que tem acesso ilimitado a informações de identificação pessoal, segredos da empresa, ferramentas exclusivas, previsões estratégicas, análises competitivas e muito mais pode ser catastrófico. A prevenção deste tipo de violação deve estar na linha da frente da discussão a nível estratégico para implementar ferramentas de IA desde o início. Depois de um incidente de cibersegurança, muitas vezes é demasiado tarde.

Embora a maioria das ferramentas de IA venha com segurança incorporada, as organizações devem ter o cuidado de as adaptar às suas necessidades específicas. E também devem ir além delas. Apesar das semelhanças, cada organização terá casos de uso exclusivos, e calibrar a defesa para corresponder a essa dinâmica é uma aposta para a segurança cibernética em 2024. O custo do crime cibernético atingiu US $ 8 biliões em 2023, de acordo com um relatório da Cybersecurity Ventures. Claramente, esta não é uma ameaça de nicho. Pode ser razoavelmente considerada uma das principais ameaças que todas as empresas enfrentam atualmente, pelo que a segurança proativa é uma base para fazer negócios.

Quando falamos de IA, a segurança é ainda mais importante. A IA não substituirá os consultores financeiros, mas levará o setor à sua próxima fase de evolução, o que significa novas ameaças. A escala dos modelos e os dados que eles ingerem expandem exponencialmente a superfície de ataque, e apenas uma violação pode anular todo e qualquer ganho que uma empresa faça aproveitando a IA. A análise e o controlo da cibersegurança, sob um modelo de confiança zero, são indispensáveis para desbloquear todo o potencial de qualquer ferramenta baseada em IA.

Share it:

info

Post A Comment:

0 comments: