privacidade em IA

5 medidas para proteger a privacidade em IA, segundo a KPMG

3 minutos de leitura

Documento “Privacy in the new world of AI”, traz informações sobre o desenvolvimento global de padrões de IA



Por Redação em 01/12/2023

A KPGM divulgou, recentemente, um estudo sobre privacidade em Inteligência Artificial (IA) . O “Privacy in the new world of AI” traz informações sobre o desenvolvimento global de padrões e estruturas de IA, que possivelmente moldarão as próximas gerações da inteligência artificial. Segundo a KPGM, trata-se de um material necessário, pois evidencia algumas implicações da generalização da adoção da IA, principalmente no que diz respeito à privacidade. 

De acordo com Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul, existem alguns cuidados que devem ser considerados durante a implementação de projetos de IA.  “Isso é importante para reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo, assim, a preservação da privacidade dos envolvidos”, apontou. 

O estudo também aponta possíveis medidas para mitigar os riscos que as instituições correm ao implementar soluções de IA em seus ambientes, de forma que consigam proteger a privacidade de todas as equipes. 

5 medidas capazes de proteger a privacidade em IA

1. Conhecer o ambiente regulatório

É imprescindível que se tenha conhecimento sobre o ambiente regulatório para a adoção de uma estratégia eficiente de privacidade de IA. Por isso, entender a regulação e identificar essas normas no que diz respeito à empresa, é essencial. Isso facilitará na hora de definir as políticas de privacidade em IA que a empresa implementará e, ainda, resultará na simplificação do desenvolvimento das atividades relacionadas.

2. Adotar sistemas de avaliação de privacidade em cada projeto

Para proteger a privacidade em IA é necessário que se incorpore um sistema de avaliação por projeto, ressaltando as informações previstas em compliance. De acordo com a KPMG, pode-se usar a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou a Avaliação do Impacto da Proteção de Dados (DPIA). Essa é uma dica que vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos. Outra indicação é incluir, nessa etapa do projeto, uma modelagem das ameaças à segurança e à privacidade. Além disso, quando necessário, consultar as partes envolvidas pode ser uma boa alternativa.  

3. Avaliar riscos à privacidade de IA

Segundo o relatório, ao mesmo tempo em que se faz uso da PIA ou DPIA, é importante avaliar os riscos à privacidade de IA. Por isso, é preciso assegurar que o projeto contempla as principais normas, práticas e, acima de tudo, os códigos de conduta que tornam operantes os requisitos. No caso dos clientes, é importante solicitar a documentação de suporte da PIA ou DPIA. Em alguns países, a legislação exige essas avaliações. No caso do Brasil, ainda não é obrigatória a regulação do uso destes dados.

4. Fazer a análise de seu sistema de IA

A medida é altamente recomendada, uma vez que uma empresa externa, que funcionaria como uma auditoria independente, sem vínculos ou interesses, validará se o trabalho de criação e implementação do projeto contempla dados de segurança e protocolos vigentes para IA. Nesses casos, é preciso que os desenvolvedores de sistema de IA verifiquem se seus clientes estão em conformidade junto aos órgãos reguladores e às boas práticas existentes, e uma consultoria independente poderá oferecer uma análise mais consistente.

5. Explicar como os dados são utilizados

É preciso respeitar os direitos e as escolhas por meio de explicabilidade, além de promover a transparência em relação a inputs e outputs de dados. Nesses casos, é necessário que as empresas que usam IA em projetos de tomadas de decisões estejam prontas para responder sobre quais modelos guiam a inteligência na prática. Dessa forma, a empresa deve ter condições de oferecer explicações quanto aos métodos utilizados pela IA na tomada de uma decisão, recomendação ou previsão. O relatório indica que os fluxos de trabalho sejam documentados, explicando como os dados foram utilizados com relação ao usuário final e as possibilidades de contestação.

Para Ricardo Santana, sócio-líder de Data & Analytics da KPMG no Brasil, as empresas devem se apoiar nos resultados do relatório. “Quando as organizações permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e se antecipam aos possíveis riscos, conseguem aproveitar melhor o potencial da tecnologia e, ao mesmo tempo, protegem a privacidade dos usuários”, sinalizou o executivo.


E-book gratuito: saiba como implementar uma cultura de cibersegurança na sua empresa

Saiba mais


Matérias relacionadas

ia sem controle Inovação

Ganhadores do Nobel temem ameaça de IA sem controle

Para cientistas, a tecnologia pode levar a limites indesejáveis, colocando em questão a capacidade humana de controle

uso de ia generativa Inovação

Brasil supera grandes economias no uso de IA generativa

Estudo aponta que 57% dos brasileiros já utilizaram IA generativa, superando EUA, Alemanha, França e outros países

impacto ambiental da ia Inovação

Impacto ambiental da IA é pauta mundial

Em função da diversidade de fontes energéticas, Brasil pode oferecer alternativas sustentáveis para o setor

digitalizacao da saude Inovação

Estudo aponta avanços na digitalização da saúde

A pesquisa revelou que 92% dos estabelecimentos de saúde no Brasil possuem sistemas eletrônicos para registrar informações