A KPGM divulgou, recentemente, um estudo sobre privacidade em Inteligência Artificial (IA) . O “Privacy in the new world of AI” traz informações sobre o desenvolvimento global de padrões e estruturas de IA, que possivelmente moldarão as próximas gerações da inteligência artificial. Segundo a KPGM, trata-se de um material necessário, pois evidencia algumas implicações da generalização da adoção da IA, principalmente no que diz respeito à privacidade.
De acordo com Leandro Augusto, sócio-líder de Cyber Security & Privacy da KPMG no Brasil e na América do Sul, existem alguns cuidados que devem ser considerados durante a implementação de projetos de IA. “Isso é importante para reduzir as chances de vazamento de informações sensíveis e proteger os dados dos consumidores, garantindo, assim, a preservação da privacidade dos envolvidos”, apontou.
O estudo também aponta possíveis medidas para mitigar os riscos que as instituições correm ao implementar soluções de IA em seus ambientes, de forma que consigam proteger a privacidade de todas as equipes.
5 medidas capazes de proteger a privacidade em IA
1. Conhecer o ambiente regulatório
É imprescindível que se tenha conhecimento sobre o ambiente regulatório para a adoção de uma estratégia eficiente de privacidade de IA. Por isso, entender a regulação e identificar essas normas no que diz respeito à empresa, é essencial. Isso facilitará na hora de definir as políticas de privacidade em IA que a empresa implementará e, ainda, resultará na simplificação do desenvolvimento das atividades relacionadas.
2. Adotar sistemas de avaliação de privacidade em cada projeto
Para proteger a privacidade em IA é necessário que se incorpore um sistema de avaliação por projeto, ressaltando as informações previstas em compliance. De acordo com a KPMG, pode-se usar a Avaliação Sistemática do Impacto sobre a Privacidade (PIA) ou a Avaliação do Impacto da Proteção de Dados (DPIA). Essa é uma dica que vale também para empresas que acreditam utilizar apenas dados não pessoais ou anônimos. Outra indicação é incluir, nessa etapa do projeto, uma modelagem das ameaças à segurança e à privacidade. Além disso, quando necessário, consultar as partes envolvidas pode ser uma boa alternativa.
3. Avaliar riscos à privacidade de IA
Segundo o relatório, ao mesmo tempo em que se faz uso da PIA ou DPIA, é importante avaliar os riscos à privacidade de IA. Por isso, é preciso assegurar que o projeto contempla as principais normas, práticas e, acima de tudo, os códigos de conduta que tornam operantes os requisitos. No caso dos clientes, é importante solicitar a documentação de suporte da PIA ou DPIA. Em alguns países, a legislação exige essas avaliações. No caso do Brasil, ainda não é obrigatória a regulação do uso destes dados.
4. Fazer a análise de seu sistema de IA
A medida é altamente recomendada, uma vez que uma empresa externa, que funcionaria como uma auditoria independente, sem vínculos ou interesses, validará se o trabalho de criação e implementação do projeto contempla dados de segurança e protocolos vigentes para IA. Nesses casos, é preciso que os desenvolvedores de sistema de IA verifiquem se seus clientes estão em conformidade junto aos órgãos reguladores e às boas práticas existentes, e uma consultoria independente poderá oferecer uma análise mais consistente.
5. Explicar como os dados são utilizados
É preciso respeitar os direitos e as escolhas por meio de explicabilidade, além de promover a transparência em relação a inputs e outputs de dados. Nesses casos, é necessário que as empresas que usam IA em projetos de tomadas de decisões estejam prontas para responder sobre quais modelos guiam a inteligência na prática. Dessa forma, a empresa deve ter condições de oferecer explicações quanto aos métodos utilizados pela IA na tomada de uma decisão, recomendação ou previsão. O relatório indica que os fluxos de trabalho sejam documentados, explicando como os dados foram utilizados com relação ao usuário final e as possibilidades de contestação.
Para Ricardo Santana, sócio-líder de Data & Analytics da KPMG no Brasil, as empresas devem se apoiar nos resultados do relatório. “Quando as organizações permanecem atualizadas sobre as práticas de segurança na adoção da IA para a privacidade e se antecipam aos possíveis riscos, conseguem aproveitar melhor o potencial da tecnologia e, ao mesmo tempo, protegem a privacidade dos usuários”, sinalizou o executivo.