Uso do CHATGPT é bloqueado em uma a cada quatro empresas do setor financeiro

2 minutos de leitura

Análise aponta que setor controla o uso do ChatGPT, diferentemente do setor de tech, que usa cada vez mais a ferramenta com controles inteligentes



Por Redação em 14/09/2023

A Netskope realizou uma análise sobre o uso do ChatGPT em empresas de diversos setores. O mercado financeiro é o que mais controla o uso da ferramenta de inteligência artificial. De acordo com o relatório, uma em cada quatro empresas do setor financeiro bloqueia ou controla o uso da ferramenta. 

De acordo com o comunicado oficial da Netskope à imprensa, o uso do ChatGPT por empresas no setor é bem menor do que em outros segmentos da economia. Segundo eles, os controles são preventivos e, por isso, os usuários não chegam a ter acesso à plataforma. 

Já no setor de tecnologia a aderência ao uso do ChatGPT é bem maior. Apenas uma em cada cinco empresas da área tende a implementar os controles, sendo que o uso do ChatGPT em organizações deste segmento é consideravelmente maior. 

Para Ray Canzanese, diretor do Netskope Threat Labs, as empresas de tecnologia estão “aproveitando os benefícios da ferramenta com segurança, devido aos tipos de controle que estão implementando”.

Controles sobre o uso do ChatGPT

Instituições governamentais (estados e municípios) e instituições educacionais (SLED) são as que apresentam menor taxa de controle sobre o uso do ChatGPT. Além disso, apresentam também uma fraca política de treinamento de usuários, bloqueios e estratégias de prevenção contra perda de dados (DLP).

Por outro lado, entre as empresas tech, os controles são menos rigorosos do que em outros setores. Basicamente, as empresas de tecnologia permitem que seus usuários acessem o ChatGPT, mas acompanham de perto o uso da inteligência artificial e usam controles direcionados.

Confira os principais alertas sobre o uso do CHATGPT.

  • Políticas de prevenção contra perda de dados (DLP): geralmente elas permitem o acesso ao ChatGPT, mas controlam a postagem de dados confidenciais em prompts. Essas políticas são configuradas pela instituição para serem acionadas em cada postagem no ChatGPT, por isso inspecionam o conteúdo antes de permitir que o usuário prossiga.  Políticas de alerta:  são controles informativos, que fornecem a visibilidade de como os usuários dentro da empresa estão interagindo com o ChatGPT. Em alguns casos, caminham juntamente com as DLP, para fornecer visibilidade de dados potencialmente confidenciais postados no ChatGPT. 
  • Políticas de coaching do usuário: na maioria das vezes são associadas à DLP e podem notificar o usuário sobre dados postados no ChatGPT. Assim, ele será alertado sobre as regras da empresa e questionado sobre seu desejo de continuar a usar a ferramenta ou não.  
  • Políticas de bloqueio: nesse caso, os usuários não têm permissão para qualquer interação com a ferramenta, ou seja, não podem fazer login, postar prompts e, em alguns casos, não conseguem acessar a página de login.

E-book gratuito: saiba como implementar uma cultura de cibersegurança na sua empresa

Saiba mais


Matérias relacionadas

hiperpersonalizacao fidelidade Estratégia

A hiperpersonalização é o próximo nível no mercado de fidelidade

Para Fernanda Barchese, da Livelo, a hiperpersonalização permitirá o acompanhamento da jornada do cliente e as escolhas das melhores recompensas

instituicoes Estratégia

Inteligência artificial eleva o poder das instituições  

Para Tania Cosentino, da Microsoft, em pouco tempo não viveremos mais sem a inteligência artificial

Estratégia

Especialista defende ‘Cloud First’ diante da digitalização dos negócios

Segundo episódio da terceira temporada da websérie da Embratel, com Silvio Meira, debate o papel da migração das empresas para a nuvem

omnichannel Estratégia

Omnichannel: qual o próximo passo?

Para Amanda Andreone, a oferta ao cliente baseada em insights e dados é o grande caminho