A regulamentação da Inteligência Artificial (IA) foi um consenso entre especialistas reunidos na Febraban Tech, em São Paulo. No painel Inovação + proteção: o desafio da regulamentação na implementação de IA, a opinião comum é a de que só a autorregulamentação não é capaz de combinar as possibilidades de inovação tecnológica com a segurança.
Fernanda Corvino, superintendente Jurídica do Itaú Unibanco, foi a moderadora da discussão, destacando a importância do Projeto de Lei 2.338/23, que tramita no Congresso Nacional e que define as normas para uso da IA no Brasil.
Para Ana Frazão, professora da UNB, os sistemas de IA podem ser operados com julgamentos subjetivos e valorativos – se a tecnologia não tiver regras claras e padronizadas – levando a riscos em termos de acesso a oportunidades e direitos.
No caso do setor bancário, por exemplo, ela destacou que o uso enviesado da tecnologia tem o poder de restringir o acesso ao crédito.
“A autorregulamentação não é suficiente para o controle de riscos e vejo com bons olhos a regulamentação que gere parâmetros seguros”, afirmou a advogada.
O mesmo pensamento foi compartilhado por Eduardo Sasaki, diretor de Dados e Analytics do Santander. De acordo com ele, o tratamento do PL 2.338/23 mostra que proteção e inovação são temas complementares e não antagônicos. O executivo argumentou que o tema tem sido pautado pelo avanço computacional. “A regulamentação é bem-vinda porque favorece o desenvolvimento de soluções robustas e escaláveis no setor bancário”, avalia.
O contato com IA, inclusive via experimentações usando plataformas como ChatGPT, foi destacado por outra painelista, a chefe global de cross franchise transformation do Citi, Tiffany Bigio. “Minha experiência é mais sobre o uso tecnológico e há muitos exemplos de benefícios. Os clientes têm confiança quando interagem com a IA”, argumenta. “É preciso desmistificar”, disse referindo-se a necessidade de amplificar informações sobre o uso da tecnologia.
Diana Troper, Data Protection Officer da Unico, também vê benefícios da regulamentação, desde que todos estejam sendo avaliados pela mesma medida. Para ela, o processo precisa ser equilibrado e o Brasil tem exemplos de boa condução de temas, como a criação da Lei Geral de Proteção de Dados (LGDP).
Esse ganho também foi destacado por Sasaki, do Santander. Para ele, os receios do mercado a respeito dessa outra regulamentação foram superados e a LGPD passou a agregar maior segurança jurídica para o segmento financeiro, assim como para outros setores.
O executivo também acredita que a regulamentação pode destravar potenciais inexplorados da IA. Sasaki citou caminhos para se fazer isso, com processo e transparência.
O primeiro deles é o estabelecimento de uma governança de dados, inclusive para treinamento de ferramentas de aprendizado de máquina (ML). O segundo ponto é estimular a cultura de experimentação atrelada a estratégia forte de negócios. No caso do universo financeiro, as priorizações são fundamentais, como é o caso da melhoria do acesso a crédito.
O terceiro ponto de atenção envolve o uso da IA responsável, o que vai agregar confiança como no caso da LGPD e trazer maior robustez para os negócios do segmento.
Tiffany, do Citi, também associa regulamentação com governança adequada de dados. Para ela, as experiências de autorregulamentação são justificáveis, mas o processo pode ser aprimorado com a padronização de regras. Um alerta, no entanto, é a respeito de uma padronização em nível global, o que pode reduzir custos de operações financeiras. Do contrário, esses valores poderão ser repassados para os clientes finais.
Diana, da Único, acrescentou algumas características da IA Responsável, que trabalha com usos específicos e sempre com o conhecimento e consentimento das pessoas. É o caso da biometria para confirmar a identidade em transações financeiras. O procedimento é feito com consentimento dos clientes e traz benefícios, entre eles, a redução de riscos de fraudes.
Ana Frazão, por sua vez, defende uma regulamentação equilibrada, que entenda as diferenças entre altos riscos e riscos de menor grau. Porém, como se trata de tecnologia, ela acha fundamental que haja um diálogo entre regulador e entidades que desenvolvem as tecnologias de IA para atualizar a classificação dos riscos.
O diálogo também deve pautar a relação, na análise de Diana, da Único. “Não se consegue um ambiente harmônico e homogêneo só com autorregulamentação”, disse. “O setor privado precisa ser chamado, porque é ele quem desenvolve a inovação responsável”, resumiu a executiva.