Parceria Editorial
Referência em Inteligência Artificial (IA), a advogada inglesa Kay Firth Butterfield é enfática sobre o tema: “precisamos definir agora o que nós, humanos, queremos em nossas vidas com a IA”. A frase faz parte da entrevista para o jornal Valor, realizada pelo advogado Ronaldo Lemos e produzida em parceria com a Embratel, na qual Kay discute vários aspectos do recurso, inclusive as questões éticas. Para ela, o assunto veio para o centro do debate depois que a tecnologia escalou.
Na avaliação da advogada, as discussões sobre superinteligência em IA ainda acontecem, mas os aspectos éticos ganharam força com a expansão da Inteligência Artificial para usos como recrutamento, na área de RH. Para ela, trata-se de uma aplicação polêmica e que pode ser perigosa, em função da possibilidade de criação de vieses. A especialista defende que seja construído um ambiente de confiança antes da adoção maciça da IA em RH.
Treinamento é essencial para identificar riscos
Como consultora independente, a advogada também chama a atenção para a necessidade de treinamento, principalmente nas corporações que são usuárias intensivas de IA. Kay recomenda o treinamento dos colaboradores para que todos entendam o que a tecnologia é capaz de fazer e também sobre os riscos que ela pode eventualmente trazer.
Além de ética e ambiente de confiança – dois pontos já destacados acima – a IA responsável, ainda de acordo com ela, envolve transparência.
Outro arcabouço necessário da tecnologia é a infraestrutura que pode habilitar o melhor da IA. Nesse caso, Kay destaca três requisitos: base de dados de qualidade, conectividade de excelência e segurança robusta. Segundo a advogada, essa combinação é que viabilizará a implementação de padrões de governança e ética elevados.
Com currículo sólido, a especialista foi a primeira líder do Fórum Econômico Mundial na área de IA e Machine Learning (ML), e ainda é membro da instituição. Sua atuação em consultoria inclui governos, ONGs e think tanks. Ela é militante da causa de inclusão de mulheres no desenvolvimento de IA. Sem inclusão e diversidade, a especialista acredita que os algoritmos podem ser enviesados, o que prejudica os aspectos de transparência e ética.
A entrevista completa pode ser vista no YouTube.