Principais destaques:
– Publicação do site InformationWeek destaca a ética em sistemas inteligentes;
– Inteligência Artificial e outras tecnologias vão impactar empresas e sociedade;
– IEEE atua para garantir que sistemas sejam educados, treinados e capacitados para priorizar ética.
É preciso estabelecer padrões éticos em robôs e outros sistemas autônomos e inteligentes? Este é o questionamento levantado pelo site InformationWeek a executivos de diversas indústrias. A inteligência artificial e outras tecnologias vão transformar inúmeros setores, como o da saúde, e impactar a relação dos colaboradores com seus empregos e também o cotidiano das pessoas.
Daí a necessidade de criar diretrizes sociais e políticas que permitam esses sistemas inteligentes operarem de maneira ética. Ao mesmo tempo que surge essa demanda por algoritmos éticos, os executivos ouvidos na publicação afirmam que líderes do setor de tecnologia devem dar um passo à frente e definir como essa estratégia será usada nas aplicações.
A publicação ainda afirma que várias organizações já se reuniram para propor diretrizes para o desenvolvimento responsável de sistemas inteligentes e autônomos. É o caso do Instituto de Engenheiros, Eletricistas e Eletrônicos (IEEE, na sigla em inglês), nos Estados Unidos, que montou uma iniciativa global para garantir que esses sistemas sejam “educados, treinados e capacitados para priorizar a ética e se tornem um avanço ao benefício da humanidade.”
Outro esforço do IEEE foi um documento, lançado no começo de 2019, para promover uma discussão pública sobre o tema com base no contexto cultural de uma determinada sociedade, assim como fomentar a criação de padrões e programas de certificação que priorizem o bem-estar humano a partir da tecnologia.
Confira a opinião dos executivos entrevistados pelo InformationWeek:
Mark Kirby
Diretor de tecnologia e inovação para a América do Norte na Capgemini, empresa de consultoria, tecnologia e outsourcing.
“A maioria de nós diria que operar com ética significa saber a diferença entre certo e errado. O problema é que sistemas artificiais e autônomos não podem saber a diferença entre o certo e o errado, a menos que sejam especificamente projetados para isso”
Manoj Saxena
Presidente executivo da CognitiveScale, desenvolvedora de software de IA.
“Tudo começa com a educação de todos sobre a necessidade de projetar e controlar cuidadosamente os sistemas de Inteligência Artificial para que eles reflitam os valores centrais de uma empresa – ou de uma sociedade – ao mesmo tempo fornecendo transparência, interpretabilidade humana e auditoria para construir confiança e controle quando as coisas dão errado”
Dor Skuler
CEO e co-fundador da Intuition Robotics, empresa que desenvolveu um robô com Inteligência Artificial para ser usado por idosos.
“Como não há ninguém que seja diretamente responsável [em criar padrões éticos para IA], cada um de nós precisa ter um senso de propriedade nisso”
Briana Brownell
Fundadora e CEO da PureStrategy.ai, empresa de desenvolvimento de plataformas.
“Qualquer empresa que considere a base de clientes como sua principal parte interessada deve estar de acordo com o alinhamento de um design ético [para sistemas inteligentes e autônomos]”
Reid Blackman
Fundador e CEO da Virtue, empresa de consultoria que trabalha com empresas para identificar e mitigar os riscos éticos a produtos tecnológicos emergentes.
“Engenheiros e gerentes de produtos geralmente não têm o poder [de assumir as rédeas de um projeto], mesmo que tenham a vontade de integrar a diligência prévia (processo de investigação de uma oportunidade de negócio que o investidor deverá aceitar para poder avaliar os riscos da transação) de risco ético em seu processo de desenvolvimento”