Além da ética: por que é preciso entender os impactos socioeconômicos da IA?

Além da ética: por que é preciso entender os impactos socioeconômicos da IA?

4 minutos de leitura

Pesquisadora defende que discutir toda a cadeia de desenvolvimento de IA ajuda a diminuir o viés e os problemas de ética da tecnologia.



Por Redação em 10/05/2021

Pesquisadora defende que discutir toda a cadeia de desenvolvimento de IA ajuda a diminuir o viés e os problemas de ética da tecnologia.

Qual seria a explicação mais fácil para dizer o que é a Inteligência Artificial (IA)? Na opinião de Kate Crawford, pesquisadora e especialista em IA, há um eufemismo em dizer que a tecnologia é “simplesmente um software eficiente executado na ‘nuvem’”.

A pesquisadora lançou recentemente o livro “Atlas of AI”, em que traça uma narrativa histórica da tecnologia e seus impactos na sociedade. Como Crawford destaca, há construções problemáticas da Inteligência Artificial desde a sua origem.

Entre tantos exemplos que ela aborda na publicação, um diz respeito às classificações sistemáticas da tecnologia. Para isso, ela compara as plataformas de IA modernas com o trabalho do médico e cientista Samuel Morton, considerado um craniologista do século XIX.

Naquele século, Morton coletou diversos crânios para dividi-los “objetivamente” por suas medidas físicas. Dependendo do formato da caixa óssea, o médico os categorizava de acordo com cinco “raças”: africana, nativo americana, caucasiana, malaia e mongol.

Em conversa com o MIT Technology Review, Crawford faz um paralelo com esse trabalho de Morton e afirma que a IA também “classifica o mundo em categorias fixas”. Isso é problema, porque promove uma ordem social, naturaliza hierarquias e aumenta a desigualdade.

Qual conclusão desse pensamento a pesquisadora traz? A conclusão de que a Inteligência Artificial não pode mais ser considerada uma tecnologia objetiva ou neutra. Até porque, os dados não são, afirmou ela ao site.

Discutindo a Inteligência Artificial ética

O seu celular ouve o que você fala, como explica Peter Henway, consultor de segurança da Asterix, uma empresa de segurança, à Vice. Minutos depois de uma conversa com alguém, provavelmente você verá anúncios relacionados do papo no navegador de internet ou na notificação de um aplicativo. Se isso não aconteceu com você, provavelmente ocorreu com um conhecido.

O exemplo é prático, mas funciona com base em dados e Inteligência Artificial. Você fornece dados e o algoritmo vai processá-los, transformá-los em informações. Com isso, a empresa anunciante que pagou para ter essas informações tenta te engajar com uma publicidade.

Vamos a outra situação: câmeras de reconhecimento facial analisam diversas pessoas transitando em uma estação de metrô. Um assalto acontece e, no meio da confusão, os bandidos conseguem fugir.

A polícia, então, usa as imagens captadas para encontrar os suspeitos e os algoritmos, de alguma forma, associam os assaltantes a uma pessoa negra, mas sem ter essa certeza. O resultado? Um possível erro, como aconteceu com Robert Williams, preso por engano após uma falha da IA.

Esse é um dos problemas da falta de ética na IA. Pesquisadores e profissionais da área questionam a falta de visibilidade de como os algoritmos tiram suas conclusões sobre algo. Sem contar com o viés, já que, por trás de toda IA, existe um humano a desenvolvendo.

Uma vez que a tecnologia é desenvolvida para fornecer bons resultados para quem a usa, dificilmente a Inteligência Artificial se permite discutir questões éticas na tomada de decisão, assim como uma pessoa pode refletir quando toma uma decisão por conta própria.

Como as entidades encaram a ética

Há um movimento das entidades públicas e privadas na promoção do uso consciente da Inteligência Artificial. Desde 2018, o Reino Unido tem se comprometido a criar um Centro de Ética e Inovação de Dados.

Na época, a ex-primeira-ministra Theresa May disse que o centro teria o objetivo de construir confiança e permitir a inovação baseada em dados. “A confiança sustenta uma economia forte e a confiança nos dados sustenta uma economia digital forte”, relembrou um artigo do site IT Pro.

Em abril de 2019, um conjunto de diretrizes foi publicado pela Comissão Europeia. O documento traz informações para promover o desenvolvimento ético da Inteligência Artificial. Uma das orientações, por sinal, é a supervisão humana consistente da tecnologia.

A Microsoft é outra atuante para diminuir o viés da tecnologia. No fim de abril deste ano, a empresa, junto à União Europeia, compartilhou um piloto de um regulamento no uso consciente da Inteligência Artificial.

A proposta é proteger os cidadãos da União Europeia de vigilância em massa feita pelas autoridades policiais. O uso de IA para essa finalidade no Reino Unido é considerado ilegal desde2020.

Isso vale também para outros usos: recrutamento, avaliação de pontuação de crédito e gestão de controle de fronteira. O entendimento é que ter IA auxiliando nessas demandas pode gerar discriminação.

Além da ética, é preciso entender os impactos da IA

Uma das propostas de Crawford é mostrar que a Inteligência Artificial não está limitada a  “decisões tomadas por dados”. Ela afirma que é preciso pensar em toda a cadeia de produção de um sistema de IA. Da extração do lítio usado para os dispositivos ao descarte do lixo eletrônico ao fim da vida útil do aparelho.

“Gastamos muito tempo nos concentrando em correções tecnológicas para sistemas de IA e sempre centralizamos em respostas técnicas”, disse a pesquisadora ao MIT Technology Review. Para ela, é preciso lidar com a pegada ambiental dos sistemas de IA – algo semelhante ao que falamos sobre a TI verde, leia aqui.

Há ainda a questão de como os dados são usados como verdade única pelas empresas. Crawford avalia que esse tipo de enquadramento gerou danos “sentidos principalmente por comunidades que já estavam marginalizadas e não experimentavam os benefícios desses sistemas.”

Na avaliação dela, a Inteligência Artificial não deve ser vista sempre com engenharia. Ou seja, caso qualquer problema com ela ocorra, há uma solução técnica para correção. Essa mudança de visão começou há alguns anos, com a criação de regulamentações para o uso de IA.

Porém, é preciso ir mais além: “onde estão os grupos da sociedade civil, onde estão os ativistas, onde estão os defensores que estão tratando de questões de justiça climática, direitos trabalhistas, proteção de dados? Como os incluímos nessas discussões? Como incluímos as comunidades afetadas?”, questionou.

Para ler a entrevista na íntegra (em inglês) com Kate Crawford, clique aqui.

Principais tópicos desta matéria

  • Uso ético da Inteligência Artificial é discutido por entidades públicas e privadas.
  • Para Kate Crawford, pesquisadora da área, é preciso ir além e convidar a sociedade para debater os impactos que a tecnologia trouxe.
  • Em entrevista ao MIT Technology Review, cientista destaca que pensar em toda cadeia de desenvolvimento de IA é uma forma de entender como deixá-la menos enviesada.


Matérias relacionadas

metaverso corporativo Inovação

4 casos de uso do metaverso no ambiente corporativo

De processos seletivos a reuniões, o metaverso possibilita experiências diferenciadas e interativas aos profissionais

Inovação

Viena avança como cidade inteligente com plataforma de dados urbanos em código aberto

A capital da Áustria, Viena, avança como cidade inteligente com gestão de dados em código aberto para mobilidade, saneamento e energia

cidades inteligentes Inovação

Tecnologia habilita cidades inteligentes

A tecnologia permite que os municípios entendam as demandas dos cidadãos, invistam em segurança pública, melhorem o trânsito, entre outros quesitos das cidades inteligentes

usina de Ouro Branco Inovação

Parceria com Embratel habilita indústria 4.0 na Gerdau

Com tecnologia da Embratel, a Gerdau vai implantar uma rede privativa dedicada 5G e LTE 4G em uma de suas fábricas, viabilizando os conceitos da indústria 4.0