privacidade em IA

5 medidas para proteger a privacidade em IA, segundo a KPMG

3 minutos de leitura

Documento “Privacy in the new world of AI”, traz informações sobre o desenvolvimento global de padrões de IA



Por Redação em 01/12/2023

A KPGM divulgou, recentemente, um estudo sobre privacidade em Inteligência Artificial (IA) . O “Privacy in the new world of AI” traz informações sobre o desenvolvimento global de padrões e estruturas de IA, que possivelmente moldarão as próximas gerações da inteligência artificial. Segundo a KPGM, trata-se de um material necessário, pois evidencia algumas implicações da generalização da adoção da IA, principalmente no que diz respeito à privacidade. 

De acordo com Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul, existem alguns cuidados que devem ser considerados durante a implementação de projetos de IA.  “Isso é importante para reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo, assim, a preservação da privacidade dos envolvidos”, apontou. 

O estudo também aponta possíveis medidas para mitigar os riscos que as instituições correm ao implementar soluções de IA em seus ambientes, de forma que consigam proteger a privacidade de todas as equipes. 

5 medidas capazes de proteger a privacidade em IA

1. Conhecer o ambiente regulatório

É imprescindível que se tenha conhecimento sobre o ambiente regulatório para a adoção de uma estratégia eficiente de privacidade de IA. Por isso, entender a regulação e identificar essas normas no que diz respeito à empresa, é essencial. Isso facilitará na hora de definir as políticas de privacidade em IA que a empresa implementará e, ainda, resultará na simplificação do desenvolvimento das atividades relacionadas.

2. Adotar sistemas de avaliação de privacidade em cada projeto

Para proteger a privacidade em IA é necessário que se incorpore um sistema de avaliação por projeto, ressaltando as informações previstas em compliance. De acordo com a KPMG, pode-se usar a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou a Avaliação do Impacto da Proteção de Dados (DPIA). Essa é uma dica que vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos. Outra indicação é incluir, nessa etapa do projeto, uma modelagem das ameaças à segurança e à privacidade. Além disso, quando necessário, consultar as partes envolvidas pode ser uma boa alternativa.  

3. Avaliar riscos à privacidade de IA

Segundo o relatório, ao mesmo tempo em que se faz uso da PIA ou DPIA, é importante avaliar os riscos à privacidade de IA. Por isso, é preciso assegurar que o projeto contempla as principais normas, práticas e, acima de tudo, os códigos de conduta que tornam operantes os requisitos. No caso dos clientes, é importante solicitar a documentação de suporte da PIA ou DPIA. Em alguns países, a legislação exige essas avaliações. No caso do Brasil, ainda não é obrigatória a regulação do uso destes dados.

4. Fazer a análise de seu sistema de IA

A medida é altamente recomendada, uma vez que uma empresa externa, que funcionaria como uma auditoria independente, sem vínculos ou interesses, validará se o trabalho de criação e implementação do projeto contempla dados de segurança e protocolos vigentes para IA. Nesses casos, é preciso que os desenvolvedores de sistema de IA verifiquem se seus clientes estão em conformidade junto aos órgãos reguladores e às boas práticas existentes, e uma consultoria independente poderá oferecer uma análise mais consistente.

5. Explicar como os dados são utilizados

É preciso respeitar os direitos e as escolhas por meio de explicabilidade, além de promover a transparência em relação a inputs e outputs de dados. Nesses casos, é necessário que as empresas que usam IA em projetos de tomadas de decisões estejam prontas para responder sobre quais modelos guiam a inteligência na prática. Dessa forma, a empresa deve ter condições de oferecer explicações quanto aos métodos utilizados pela IA na tomada de uma decisão, recomendação ou previsão. O relatório indica que os fluxos de trabalho sejam documentados, explicando como os dados foram utilizados com relação ao usuário final e as possibilidades de contestação.

Para Ricardo Santana, sócio-líder de Data & Analytics da KPMG no Brasil, as empresas devem se apoiar nos resultados do relatório. “Quando as organizações permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e se antecipam aos possíveis riscos, conseguem aproveitar melhor o potencial da tecnologia e, ao mesmo tempo, protegem a privacidade dos usuários”, sinalizou o executivo.


E-book gratuito: saiba como implementar uma cultura de cibersegurança na sua empresa

Saiba mais


Matérias relacionadas

agricultura molecular Inovação

Agricultura molecular modifica plantas para criar superalimentos

Os testes com agricultura molecular estão avançando no mundo. A inovação adiciona vacinas, antibióticos, enzimas e vitaminas às plantas

impressora 3d portatil Inovação

Mercado poderá ter impressora 3D que “cabe na mão”

Protótipo tem alta velocidade por usar tecnologia com chips fotônicos

drex liquidez Inovação

Drex: mais liquidez com uso de ativos

Clarissa de Souza, a responsável pela arquitetura que suportará a nova moeda digital, explica a sua funcionalidade e segurança

inclusao mulheres Inovação

Inclusão das mulheres na liderança também chega ao setor financeiro

Para Marisa Reghini, características femininas como colaboração e visão holística têm muito a contribuir para a evolução do setor como um todo