A ideia de que as ferramentas de Inteligência Artificial (IA) sejam como papagaios, repetindo truques e não raciocinando de fato, foi questionada pela jornalista Ivone Santana, do Valor, em coluna sobre o assunto. O questionamento foi feito com testes para a IA chatbot Gemini, do Google, e a resposta mostrou que a analogia não é simples como parece.
A própria ferramenta indicou que as IAs não têm sentimentos e foram criadas pelo homem como as calculadoras, repetindo raciocínios estabelecidos, mas sem a capacidade de racionar como o ser humano, ou seja, de forma criativa e autônoma. Por outro lado, a mesma reportagem lança um alerta do Financial Times, indicando que a complexidade e sofisticação de várias IAs estariam trazendo problemas para os sistemas de testes atuais, usados para avaliar a capacidade das tecnologias.
IA diferencia ações humanas
Nesse mesmo tema, a OpenAI, criadora do ChatGPT, apresentou no Brasil um sistema que faz uma espécie de prova de humanidade. A ideia é identificar a diferenciação de materiais, mostrando se foram produzidos por humanos ou robôs.
De acordo com o site Startups, o objetivo da iniciativa da OpenAI é ajudar as pessoas a navegar na era da inteligência artificial com mais segurança. O recurso é particularmente interessante em tempos de crescimento de fraudes de identidade e ameaças como deepfakes e scambots. Batizado de World ID, a tecnologia usa centros de captação de informações biométricas, focando em imagens de alta resolução de rostos, com destaque para a íris.
Além de provar que são humanos, os novos profissionais também vão usar testes com a IA para avançar nas carreiras. A capacitação em relação à IA já é apontada por estudos internacionais como o International Barometer, como um desafio. Para os pesquisadores, a IA exige constante atualização e adaptação e vai estar presente cada vez mais no dia a dia, de acordo com o documento citado pelo Valor.