computadores próximo nível

Inteligência artificial leva os computadores ao próximo nível

3 minutos de leitura

Evoluções vão da própria produção dos computadores à forma como eles são programados e como serão usados, com capacidade de autoaprendizagem



Por Redação em 19/11/2021

Apesar de terem ficado menores e mais rápidos, os computadores continuam sendo caixas com processadores que executam instruções humanas, como a 50 anos atrás. Agora, a inteligência artificial começa a mudar a dinâmica e isso fica visível em ao menos três frentes: (1) a própria produção dos computadores, (2) a forma como eles são programados e (3) a forma como são usados. No cômputo, isso significa que eles terão a sua função modificada. É o que sustenta uma reportagem de Will Douglas Heaven, publicada pela MIT Technology Review no final de outubro deste ano.

“O núcleo da computação está mudando de processamento de números para tomada de decisão”, contextualizou Pradeep Dubey, diretor do laboratório de computação paralela da Intel nesse mesmo material. Em outras palavras, também foi o que defendeu a diretora do MIT CSAIL, Daniela Rus, ao afirmar que “a inteligência artificial está liberando os computadores de suas caixas”.

No primeiro range de mudanças dos computadores, que diz respeito a forma como eles produzidos, a reportagem mostra que as máquinas se tornaram mais rápidas na execução de um cálculo após o outro, que está exigindo a evolução dos chips nesse sentido. “Por décadas, o mundo se beneficiou da aceleração dos chips que veio com regularidade metronômica, à medida que os fabricantes de chips cumpriam a Lei de Moore”, pontua a matéria. Porém, os modelos de aprendizado profundo que fazem os aplicativos de IA atuais funcionarem exigem uma mudança de abordagem, pois eles precisam de um grande número de cálculos menos precisos executados ao mesmo tempo. Isso significa que um novo tipo de chip é necessário para mover os dados o mais rápido possível, garantindo que eles estejam disponíveis quando e onde forem necessários. 

Por isso, fabricantes de chips como Intel, Arm e Nvidia, que forneceram muitas das primeiras GPUs na década passada, estão se empenhando para fazer hardwares sob medida para IA. O Google e o Facebook também estão abrindo caminho neste setor pela primeira vez, em uma corrida para encontrar uma vantagem de IA por meio do hardware. 

Computadores aprenderão sozinhos

A segunda mudança de paradigma é que, diferente do que fizemos nos últimos 40 anos, informando os computadores o que eles tem de fazer, passaremos a treiná-los para serem mais autônomos. Tradicionalmente, por exemplo, para que um computador faça algo como reconhecer fala ou identificar objetos em uma imagem, os programadores primeiro têm que criar regras para o computador. Agora, sustenta a reportagem da MIT Techology Review, o aprendizado de máquina permite que os programadores não escrevam mais regras e, em vez disso, criem uma rede neural que aprende essas regras por si própria. 

Alguns exemplos disso já são comuns como o reconhecimento de voz e a identificação de imagem em smartphones. Outros exemplos chegaram às manchetes, como quando AlphaZero aprendeu sozinho a jogar Go melhor do que os humanos. Da mesma forma, AlphaFold desvendou um problema de biologia, descobrindo como as proteínas se dobram, e venceram humanos debruçados por décadas sobre a questão. 

Para Bishop, os próximos grandes avanços virão na simulação molecular: treinar computadores para manipular as propriedades da matéria, potencialmente dando saltos que mudam o mundo no uso de energia, produção de alimentos, manufatura e medicina. 

Computadores tomarão decisões

Para Dubey, da Intel, a tendência é que não precisaremos mais clicar para dizer ao computador o que fazer e, mais ainda, eles serão capazes de aprender sozinhos isso. Isto introduz a terceira mudança listada pela reportagem e significa que, à medida que os computadores se proliferem nos mais variados objetos de internet das coisas, mais eles terão capacidade de se “auto-ensinar” dispensando o comando humano. Esta seria a mudança da análise de números para a tomada de decisões, o que Dubey vê como definidor da nova era da computação.  

Daniela Rus, por sua vez, diz que devemos adotar o suporte cognitivo e físico disponível. Ela imagina computadores que nos dizem coisas que precisamos saber para conhecê-los e intervém quando precisamos de uma ajuda qualquer. “Quando eu era criança, um dos meus filmes favoritos [cenas] em todo o mundo era ‘O Aprendiz de Feiticeiro. Sabe aquela hora que o Mickey convoca a vassoura para ajudá-lo a arrumar? Pois bem, não precisaremos de mágica para fazer isso acontecer”, conclui.



Matérias relacionadas

GenAI Inovação

“IA generativa só existe quando há dados”

Afirmação é de Rodrigo Duclos, diretor da Claro, que defende a inovação aberta

DeepSeek Inovação

DeepSeek: conheça a IA chinesa que surpreendeu o mercado de tecnologia

Ferramenta foi lançada há poucos dias e já mexeu inclusive com a bolsa de valores

mercado de data centers Inovação

Investimento no mercado de data centers chegará a US$ 6,5 bilhões até 2030

Receita chegará a US$ 2 bilhões em 2027, segundo especialista

IA no setor aéreo Inovação

Aplicação de IA no setor aéreo pode gerar economia de até 30%

A inteligência artificial traz melhorias para empresas, como no caso da Avianca, e para clientes, que ganham com a hiperpersonalização dos serviços