Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Media Alert: Quatro riscos de privacidade na utilização do ChatGPT nas empresas

Media Alert: Quatro riscos de privacidade na utilização do ChatGPT nas empresas
Share it:
Quatro riscos de privacidade na utilização do ChatGPT nas empresas

Hoje em dia, muitos dependem de modelos linguísticos baseados em redes neurais, como o ChatGPT, para o desempenho das suas funções. Vários estudos recentes revelam isto mesmo, que cada vez mais profissionais confiam no ChatGPT para a realização de tarefas, além do que a proeminência do termo de pesquisa "ChatGPT" no Google Trends sugere uma utilização acentuada durante a semana, provavelmente associada a funções relacionadas com o trabalho.

No entanto, a crescente integração dos chatbots no local de trabalho suscita uma questão crucial: podem ser-lhes confiados dados empresariais sensíveis? Os investigadores da Kaspersky identificaram cinco riscos principais associados à utilização do ChatGPT para fins empresariais.

Fuga de dados ou pirataria do lado do fornecedor

Embora os chatbots fundamentados em Modelos de Linguagem de Grande Escala (LLMs) sejam geridos por grandes empresas de tecnologia, não estão isentos de serem alvo de pirataria informática ou de sofrerem fugas de dados acidentais. Por exemplo, registrou-se um incidente em que os utilizadores do ChatGPT puderam aceder indevidamente a mensagens do histórico de conversação de outros.

Fuga de dados através de chatbots

Theoretically, chats with chatbots might be used to train future models. Considering that LLMs are susceptible to "unintended memorization," wherein they remember unique sequences like phone numbers that don't enhance model quality but pose privacy risks, any data in the training corpus may inadvertently or intentionally be accessed by other users from the model.

Teoricamente, as conversas com chatbots podem ser utilizadas para treinar modelos futuros. Considerando que os Modelos de Linguagem de Grande Escala (LLMs) são suscetíveis à "memorização não intencional", onde eles lembram sequências únicas, como o número de telefone, que não melhoram a qualidade do modelo, mas apresentam riscos de privacidade, quaisquer dados introduzidos no corpus do treinamento podem, inadvertida ou intencionalmente, ser acedidos por outros utilizadores a partir do modelo.

Cliente malicioso

Esta é uma grande preocupação em locais onde os serviços oficiais como o ChatGPT estão bloqueados. Os utilizadores podem recorrer a alternativas não oficiais como programas, sites ou bots de mensagens e descarregar malware disfarçado de cliente ou aplicação não existente.

Pirataria de contas

Os atacantes podem entrar nas contas dos funcionários, acedendo aos seus dados, através de ataques de phishing ou de preenchimento de credenciais. Além disso, a Kaspersky Digital Footprint Intelligence encontra regularmente publicações em fóruns da dark web que vendem acesso a contas de chatbot.

Um exemplo de publicação na dark web que oferece acesso à conta empresarial ChatGPT e Synthesia por 40 dólares

Em resumo, a perda de dados é uma preocupação significativa em termos de privacidade, afetando tanto utilizadores individuais quanto empresas que fazem uso de chatbots. Os programadores responsáveis esclarecem a forma como os dados são utilizados para o treino de modelos nas suas políticas de privacidade. A análise da Kaspersky a chatbots populares, incluindo o ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard e Genius App da Alloy Studios, revelou que, no sector B2B, existem padrões de segurança e privacidade mais elevados, dados os elevados riscos associados à exposição de informações empresariais.

Consequentemente, os termos e condições para a utilização, recolha, armazenamento e processamento de dados estão mais centrados na proteção, em comparação com o sector B2C. As soluções B2B deste estudo normalmente não guardam automaticamente os históricos de conversação e, em alguns casos, nenhum dado é enviado para os servidores da empresa, uma vez que o chatbot funciona localmente na rede do cliente.

"Depois de examinarmos os potenciais riscos associados à utilização de chatbots baseados em LLM para fins profissionais, descobrimos que o risco de fuga de dados sensíveis é maior quando os funcionários utilizam contas pessoais no trabalho. Este facto torna a sensibilização dos funcionários para os riscos da utilização de chatbots uma prioridade máxima para as empresas. Por um lado, os funcionários precisam de compreender que dados são confidenciais ou pessoais, ou constituem um segredo comercial, e por que razão não devem ser fornecidos a um chatbot. Por outro lado, a empresa deve definir regras claras para a utilização desses serviços, se é que são permitidos", defende Anna Larkina, especialista em segurança e privacidade da Kaspersky.

Para saber mais sobre os riscos de privacidade da utilização de chatbots, visite a Securelist.com.

Para continuar a obter os benefícios da utilização de chatbots e manter-se seguro, os especialistas da Kaspersky também recomendam:

· Utilize passwords fortes e únicas: Crie palavras-passe complexas para cada uma das suas contas e evite utilizar informações facilmente adivinháveis, como datas de aniversário ou nomes.

· Cuidado com o phishing: Tenha cuidado com e-mails, mensagens ou chamadas não solicitadas que peçam informações pessoais. Verifique a identidade do remetente antes de partilhar quaisquer dados sensíveis.

· Instrua os seus funcionários: Os colaboradores das empresas devem manter-se informados sobre as últimas ameaças online e as melhores práticas para se manterem seguros.

· Mantenha o software atualizado: Atualize regularmente o seu sistema operativo, aplicações e programas antivírus. Estas atualizações contêm frequentemente patches de segurança.

· Limitar a partilha de informações: Tenha cuidado com a partilha de informações pessoais nas redes sociais ou em fóruns públicos. Forneça-as apenas quando for absolutamente necessário.

· Verificar URLs e sítios Web: Verifique novamente o URL dos sítios Web que visita, especialmente antes de introduzir credenciais de início de sessão ou de efetuar compras.

· Utilize uma solução de segurança empresarial: Para evitar que os funcionários consultem de forma independente chatbots não confiáveis para fins de trabalho, pode utilizar uma solução de segurança com análise de serviços na cloud.
Share it:

info

Post A Comment:

0 comments: