computadores próximo nível

Inteligência artificial leva os computadores ao próximo nível

3 minutos de leitura

Evoluções vão da própria produção dos computadores à forma como eles são programados e como serão usados, com capacidade de autoaprendizagem



Por Redação em 19/11/2021

Apesar de terem ficado menores e mais rápidos, os computadores continuam sendo caixas com processadores que executam instruções humanas, como a 50 anos atrás. Agora, a inteligência artificial começa a mudar a dinâmica e isso fica visível em ao menos três frentes: (1) a própria produção dos computadores, (2) a forma como eles são programados e (3) a forma como são usados. No cômputo, isso significa que eles terão a sua função modificada. É o que sustenta uma reportagem de Will Douglas Heaven, publicada pela MIT Technology Review no final de outubro deste ano.

“O núcleo da computação está mudando de processamento de números para tomada de decisão”, contextualizou Pradeep Dubey, diretor do laboratório de computação paralela da Intel nesse mesmo material. Em outras palavras, também foi o que defendeu a diretora do MIT CSAIL, Daniela Rus, ao afirmar que “a inteligência artificial está liberando os computadores de suas caixas”.

No primeiro range de mudanças dos computadores, que diz respeito a forma como eles produzidos, a reportagem mostra que as máquinas se tornaram mais rápidas na execução de um cálculo após o outro, que está exigindo a evolução dos chips nesse sentido. “Por décadas, o mundo se beneficiou da aceleração dos chips que veio com regularidade metronômica, à medida que os fabricantes de chips cumpriam a Lei de Moore”, pontua a matéria. Porém, os modelos de aprendizado profundo que fazem os aplicativos de IA atuais funcionarem exigem uma mudança de abordagem, pois eles precisam de um grande número de cálculos menos precisos executados ao mesmo tempo. Isso significa que um novo tipo de chip é necessário para mover os dados o mais rápido possível, garantindo que eles estejam disponíveis quando e onde forem necessários. 

Por isso, fabricantes de chips como Intel, Arm e Nvidia, que forneceram muitas das primeiras GPUs na década passada, estão se empenhando para fazer hardwares sob medida para IA. O Google e o Facebook também estão abrindo caminho neste setor pela primeira vez, em uma corrida para encontrar uma vantagem de IA por meio do hardware. 

Computadores aprenderão sozinhos

A segunda mudança de paradigma é que, diferente do que fizemos nos últimos 40 anos, informando os computadores o que eles tem de fazer, passaremos a treiná-los para serem mais autônomos. Tradicionalmente, por exemplo, para que um computador faça algo como reconhecer fala ou identificar objetos em uma imagem, os programadores primeiro têm que criar regras para o computador. Agora, sustenta a reportagem da MIT Techology Review, o aprendizado de máquina permite que os programadores não escrevam mais regras e, em vez disso, criem uma rede neural que aprende essas regras por si própria. 

Alguns exemplos disso já são comuns como o reconhecimento de voz e a identificação de imagem em smartphones. Outros exemplos chegaram às manchetes, como quando AlphaZero aprendeu sozinho a jogar Go melhor do que os humanos. Da mesma forma, AlphaFold desvendou um problema de biologia, descobrindo como as proteínas se dobram, e venceram humanos debruçados por décadas sobre a questão. 

Para Bishop, os próximos grandes avanços virão na simulação molecular: treinar computadores para manipular as propriedades da matéria, potencialmente dando saltos que mudam o mundo no uso de energia, produção de alimentos, manufatura e medicina. 

Computadores tomarão decisões

Para Dubey, da Intel, a tendência é que não precisaremos mais clicar para dizer ao computador o que fazer e, mais ainda, eles serão capazes de aprender sozinhos isso. Isto introduz a terceira mudança listada pela reportagem e significa que, à medida que os computadores se proliferem nos mais variados objetos de internet das coisas, mais eles terão capacidade de se “auto-ensinar” dispensando o comando humano. Esta seria a mudança da análise de números para a tomada de decisões, o que Dubey vê como definidor da nova era da computação.  

Daniela Rus, por sua vez, diz que devemos adotar o suporte cognitivo e físico disponível. Ela imagina computadores que nos dizem coisas que precisamos saber para conhecê-los e intervém quando precisamos de uma ajuda qualquer. “Quando eu era criança, um dos meus filmes favoritos [cenas] em todo o mundo era ‘O Aprendiz de Feiticeiro. Sabe aquela hora que o Mickey convoca a vassoura para ajudá-lo a arrumar? Pois bem, não precisaremos de mágica para fazer isso acontecer”, conclui.



Matérias relacionadas

Inovação

Edge computing habilita o próximo nível do mercado de games

Experiência do setor de games pode ser ampliada com edge computing e processamento de dados em nuvem, mostram especialistas

edge computing no Brasil Inovação

Internet das coisas impulsiona o edge computing no Brasil

Pesquisa mostra que a IoT é o principal motivador para que as empresas de telecom invistam em edge computing no Brasil

scott galloway Inovação

Metaverso será mais audível e menos visual, diz Scott Galloway

Para o professor da New York University, Scott Galloway, o metaverso terá, como interface dominante, os aplicativos de voz

BID Fintechs Inovação

Para BID, fintechs são solução para combater informalidade

As fintechs contribuem para a inclusão digital e isso, consequentemente, é uma forma de combater a informalidade nas transações financeiras