Por que é preciso debater também os problemas da Inteligência Artificial

Por que é preciso debater também os problemas da Inteligência Artificial?

4 minutos de leitura

Embora a Inteligência Artificial traga inovações em diversos setores, empresas devem estar atentas a questões como viés e deepfake.



Por Redação em 18/02/2020

Embora a Inteligência Artificial traga inovações em diversos setores, empresas devem estar atentas a questões como viés e deepfake.

Não é novidade que a Inteligência Artificial promove mudanças nos negócios em diversos setores. Por outro lado, o viés e deepfake são dois assuntos relacionados à tecnologia que têm gerado diversas discussões nas empresas, universidades e outros atores do ecossistema de inovação.

A grande questão é: o que leva a tecnologia a gerar prejuízos para a sociedade?

Fator humano pode ser a resposta mais óbvia, de acordo com um artigo da Analytics India Magazine, publicação especializada em IA, Ciência de Dados e Machine Learning. Sobretudo quando um algoritmo é desenvolvido em cima de um grande volume de dados e só.

Mas como assim? Veja, o viés de um algoritmo pode ser explicado como estereótipos sociais que influenciam fortemente os dados de treinamento disponíveis. O problema é que, dependendo da solução de IA, ela vai exigir dados específicos para aprender.

Porém, muitos cientistas concentram seus esforços em treinar a Inteligência Artificial com essa grande quantidade de dados, mas sem prestar atenção em como a tecnologia utiliza essa fonte para aprender. Ou seja, sem filtrar os dados necessários para o desenvolvimento da solução.

FIQUE POR DENTRO: 10 habilidades que um cientista de dados deve ter

Entendendo melhor o viés da Inteligência Artificial

O viés de uma IA ainda é difícil de ser identificado muito porque o profissional pode achar que nada há de errado com ele. Entretanto, basta ver um estudo da Universidade Cornell (Estados Unidos) de 2014 sobre discriminação em anúncios no Google Ads.

A publicação descobriu que o algoritmo do Google Ads exibia vagas de emprego com salários mais baixos caso a busca fosse feita por uma pessoa do sexo feminino. Enquanto para homens, postos de trabalho bem renumerados eram exibidos.

Quer mais um exemplo de viés na IA? Em 2016, o Google criou um algoritmo para identificar discurso de ódio na internet. O problema é que a plataforma mostrou ser tendenciosa contra pessoas de pele escura, como mostra uma publicação de 2019 do site da Forbes.

A Amazon também teve seu problema com viés. Uma ferramenta de análise de currículos foi desenvolvida em 2014, mas, no ano seguinte ao lançamento, a empresa descobriu que o sistema não classificava de maneira neutra ao excluir mulheres dos processos seletivos.

Outro grande inimigo da IA: deepfake

Você se lembra dos primeiros vídeos deepfakes? Eles surgiram lá por 2017 e, embora a pessoa retratada no vídeo não piscasse os olhos, muitos pesquisadores já demonstravam uma preocupação sobre esse tipo de material.

Até porque o deepfake evoluiu em pouco tempo a ponto de muita gente achar que o conteúdo do vídeo é real. Hoje, é difícil um ser humano identificar se os movimentos labiais estão perfeitamente sincronizados com os movimentos do queixo e do pomo de Adão, por exemplo.

Mas, deepfakes vai além de vídeos. Há também um movimento no uso de Inteligência Artificial na produção de artigos escritos, como o GPT-2 da OpenAI, organização sem fins lucrativos com sede no Vale do Silício (Estados Unidos).

A plataforma leva segundos para escrever um artigo digno de ser um do jornal The New York Times. No entanto, em época de fake news, pesquisadores levantaram a hipótese de que o GPT-2 poderia ser ajustado para propagar ideias e conceitos não muito nobres.

Como as empresas estão combatendo esses problemas com a IA?

Por mais que a Inteligência Artificial tenha se tornado popular nas organizações, não há como negar que é preciso combater o viés e o aumento de deepfake. Até mesmo devido à dificuldade em corrigir algoritmos e identificar a veracidade de um conteúdo feito com a tecnologia.

Smitha Ganesh, da Thoughtworks, fez uma palestra em conferência da Analytics India Magazine, no ano passado, e indicou três formas para começar a evitar que algoritmos de IA sejam influenciados por vieses.

1. Trabalho multidisciplinar: desenvolver um algoritmo deve ter uma abordagem multidisciplinar. Com isso, o treinamento vai ser visto não só na ótica de especialistas em dados, mas também na visão de recursos humanos, por exemplo. Assim, as áreas envolvidas vão poder debater entre eles os resultados desse treinamento.

2. Monitoramento dos dados: não entender — e assim não conseguir interpretar corretamente — os dados que serão utilizados em uma IA pode resultar em problemas de ética. Basta ver o software COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) usado nos tribunais americanos. A solução é usada para prever a probabilidade de uma pessoa voltar a cometer crimes com base no seu histórico. Mas em 2016, uma publicação do ProPublica, site independente de jornalismo investigativo, mostrou que a plataforma apontou incorretamente que pessoas de pele escura eram mais propensas cometer novamente crimes.

3. Entendendo as perspectivas da IA: viés de algoritmo é algo difícil de corrigir, assim como os preconceitos da sociedade. Por isso as empresas devem assumir a responsabilidade quando a IA não trabalha de forma adequada. Ou seja, os envolvidos no projeto devem pensar neutro e considerar como os resultados das soluções vão impactar o cotidiano das pessoas.

O vídeo completo de Smitha Ganesh está disponível no YouTube:

E o deepfake?

Identificar a veracidade de um vídeo ou artigo ainda tem suas dificuldades. Mas muitas startups focadas em Inteligência Artificial têm testado soluções para impedir a propagação de conteúdos falsos e que atinjam, de forma negativa, a sociedade.

É o caso da startup israelense Cyabra. Ela desenvolveu uma tecnologia capaz de detectar vídeos manipulados por especialistas, assim como bots de perfis falsos em redes sociais que espalham esses conteúdos.

Para isso, a Cyabra utiliza um algoritmo que vai observar os metadados de uma imagem: onde ela foi tirada, qual tipo de câmera foi usada e qual data a captura aconteceu. Isso permite que a tecnologia identifique que um vídeo é falso.

Principais destaques desta matéria:

  • Inteligência Artificial traz inúmeros benefícios, mas empresas devem estar atentas ao viés e deepfake.
  • São problemas em que o fator humano tem mais responsabilidade que a tecnologia em si.
  • Confira 3 dicas de como combater o preconceito em algoritmos de IA.


Matérias relacionadas

drex Inovação

Drex e o “trilema” descentralização, programabilidade e privacidade

Segunda fase de testes do Drex está com inscrições abertas e busca resolver principalmente as questões de privacidade

telemedicina celular Inovação

Telemedicina: celular já é usado para escanear o corpo humano

Setor movimenta mais de US$ 172 bilhões (R$ 969 bilhões) em todo o mundo

ia sem controle Inovação

Ganhadores do Nobel temem ameaça de IA sem controle

Para cientistas, a tecnologia pode levar a limites indesejáveis, colocando em questão a capacidade humana de controle

uso de ia generativa Inovação

Brasil supera grandes economias no uso de IA generativa

Estudo aponta que 57% dos brasileiros já utilizaram IA generativa, superando EUA, Alemanha, França e outros países