Riscos e vantagens da IA no Planeamento Financeiro
A Inteligência Artificial (IA) espalhou-se por quase
todos os setores, uma vez que tanto as empresas como os consumidores pretendem
tirar partido das suas eficiências de escala. Tarefas como a análise de dados,
a transcrição, o apoio ao cliente e outros exemplos, podem ser realizadas com
recurso à IA para reduzir o tempo de obtenção de resultados em ordens de
grandeza. O planeamento financeiro não é exceção.
De
acordo com um inquérito da F2 Strategy, mais de metade das empresas de gestão
de fortunas já têm um projeto de IA em curso. Estão interessadas em análises
preditivas sobre as condições do mercado e as alterações dos títulos ao longo
do tempo, reconhecimento ótico de caracteres para analisar documentos,
automatização do fluxo de trabalho, chatbots e muito mais. O potencial é claro
- a IA pode reduzir o tempo humano gasto nestas tarefas em até 90%. Ao mesmo
tempo, mais de 60% das empresas dizem que precisam de mais formação sobre IA.
Assim, embora o lado positivo seja inegável, o rácio valor/risco é menos claro.
Segundo a a Check Point® Software Technologies
Ltd.
(NASDAQ:
CHKP), fornecedor líder de plataformas de segurança cibernética alimentadas por
IA e entregues na cloud, esta dinâmica é
particularmente importante para o planeamento financeiro, onde os riscos são
maiores - o dinheiro das famílias e dos indivíduos está diretamente em risco.
Embora os serviços de gestão de património personalizados se destinem
normalmente a indivíduos com um património líquido mais elevado, a IA torna
possível oferecer estes serviços a um grupo mais vasto de pessoas. Os
consultores podem desenvolver perfis de clientes e fornecer planos
personalizados com base na idade, ativos, riscos, objetivos e necessidades numa
fração de tempo, o que significa que as empresas podem oferecê-los a mais
pessoas. Isto representa um novo mercado para os gestores de patrimónios, mas
também um maior conjunto de riscos.
Devemos ter sempre presente que os agentes de ameaças
também estão a utilizar a IA. Esta oferece aos atacantes exatamente os mesmos
benefícios - é um multiplicador de forças que lhes permite aumentar a escala e
a eficácia das suas campanhas. Podem até envenenar o próprio modelo de IA para
revelar informações sensíveis ou apresentar resultados maliciosos. Além disso,
os funcionários que não recebem formação adequada podem expor inadvertidamente
informações sensíveis através das informações que introduzem nas ferramentas de
IA, que posteriormente as incorporam nas suas atividades de aprendizagem
automática. Já vimos casos em que este facto invalidou reivindicações de
propriedade intelectual.
Por conseguinte, os controlos de segurança têm de ser
integrados em todo o ciclo de vida da IA, incluindo a formação dos
trabalhadores. Antes de utilizar qualquer ferramenta de IA, as organizações têm
de compreender a classificação da privacidade de todos os dados que possam ser
introduzidos, a fonte dos dados utilizados para treinar as ferramentas de IA e
as especificidades dos protocolos de segurança em vigor para proteger as
informações sensíveis. Isto deve fazer parte da implementação da IA desde o primeiro
dia. Os sistemas de IA abertos acarretam ainda mais riscos, uma vez que são
concebidos para serem acessíveis ao público, o que lhes permite aprender com um
conjunto de dados muito maior, mas também permite a manipulação por maus
atores. Os sistemas fechados são mais seguros, mas requerem uma gestão mais
prática e formação de modelos. Os funcionários devem receber formação
aprofundada sobre a ferramenta e o seu funcionamento, bem como sobre a forma de
a utilizar com segurança - salientando quais os dados que podem ser utilizados
e quais os que nunca devem ser expostos a um modelo de linguagem de grande
dimensão (LLM), como o tipo que alimenta as aplicações de IA generativa.
Ao implementar uma solução baseada em IA, é importante
identificar o âmbito da ferramenta e restringir o seu acesso aos dados ao que é
absolutamente necessário para a treinar. Desenvolver uma compreensão abrangente
da privacidade da informação, da fonte dos dados do modelo e dos mecanismos de
segurança nativos incorporados. Muitas ferramentas de IA têm defesas
incorporadas para proteger contra uma utilização pouco ética - um bom exemplo
são as regras do ChatGPT que procuram evitar que as pessoas o utilizem para
fins prejudiciais, como a criação de malware. No entanto, também é claro que
estas regras podem ser contornadas através de prompts inteligentemente
redigidos que obscurecem a intenção do utilizador. Este é um tipo de ataque de injeção de
comandos, que é uma categoria de ameaças exclusiva dos sistemas baseados em IA.
Devem ser implementados controlos rigorosos para evitar estes ataques antes que
aconteçam. Em termos gerais, estes controlos inserem-se no âmbito das
estratégias de cibersegurança de confiança zero.
As ferramentas de IA, especialmente os LLM que permitem a
IA generativa, não devem ser tratadas como uma ferramenta de software típica.
São mais como um híbrido entre uma ferramenta e um utilizador. Os programas de
confiança zero limitam o acesso aos recursos com base na função, âmbito e
necessidades individuais de uma pessoa. Isto limita os danos que um atacante
pode causar ao comprometer um único funcionário, porque limita o alcance do
movimento lateral. É preciso lembrar que a adição de qualquer ferramenta de
software também aumenta a superfície de ataque, oferecendo mais pontos de
entrada a um atacante. Comprometer uma ferramenta - como uma ferramenta de IA -
que tem acesso ilimitado a informações de identificação pessoal, segredos da
empresa, ferramentas exclusivas, previsões estratégicas, análises competitivas
e muito mais pode ser catastrófico. A prevenção deste tipo de violação deve
estar na linha da frente da discussão a nível estratégico para implementar
ferramentas de IA desde o início. Depois de um incidente de cibersegurança,
muitas vezes é demasiado tarde.
Embora a maioria das ferramentas de IA venha com
segurança incorporada, as organizações devem ter o cuidado de as adaptar às
suas necessidades específicas. E também devem ir além delas. Apesar das
semelhanças, cada organização terá casos de uso exclusivos, e calibrar a defesa
para corresponder a essa dinâmica é uma aposta para a segurança cibernética em
2024. O custo do crime cibernético atingiu US $ 8 biliões em 2023, de acordo
com um relatório da Cybersecurity Ventures. Claramente, esta não é uma ameaça de
nicho. Pode ser razoavelmente considerada uma das principais ameaças que todas
as empresas enfrentam atualmente, pelo que a segurança proativa é uma base para
fazer negócios.
Quando falamos de IA, a segurança é ainda mais
importante. A IA não substituirá os consultores financeiros, mas levará o setor
à sua próxima fase de evolução, o que significa novas ameaças. A escala dos
modelos e os dados que eles ingerem expandem exponencialmente a superfície de
ataque, e apenas uma violação pode anular todo e qualquer ganho que uma empresa
faça aproveitando a IA. A análise e o controlo da cibersegurança, sob um modelo
de confiança zero, são indispensáveis para desbloquear todo o potencial de
qualquer ferramenta baseada em IA.
Post A Comment:
0 comments: