Um incidente recente com a OpenAI, criadora do ChatGPT, iniciou uma discussão sobre riscos de espionagem industrial. De acordo com reportagem do The New York Times, republicada pelo UOL, o ataque aconteceu no fórum online da empresa, que é restrito para funcionários. Apesar do criminoso ter extraído conversas que envolviam a tecnologia da OpenAI, ele não teria tido acesso aos sistemas de inteligência artificial (IA).
Ainda de acordo com o jornal estadunidense, a orientação dos executivos da empresa foi de não compartilhamento da invasão, uma vez que nenhuma informação sobre clientes ou parceiros havia sido roubada. Essa diretiva teria sido tomada na sede da companhia, em São Francisco.
O ataque fez com que alguns funcionários da OpenAI aumentassem suas preocupações com a espionagem industrial estrangeira, fato negado pela companhia.
Espionagem industrial
Leopold Aschenbrenner, ex-gerente de projetos da companhia, que estava na empresa na época da invasão, discorda. De acordo com ele, a empresa não fazia o suficiente para impedir que possíveis invasores estrangeiros tivessem acesso a segredos de negócio.
A espionagem industrial, prática que envolve a coleta de informações confidenciais sobre concorrentes sem autorização, não é novidade no mercado corporativo. A discussão atual está no quão nocivo à segurança de uma nação seria se os segredos de uma inteligência artificial caíssem nas mãos de outro país.
Segundo estudos realizados no ano passado por empresas do mercado de IA, como a própria OpenAI e a Anthropic, um modelo de inteligência artificial não seria mais perigoso do que um motor de busca como o do Google.
Em entrevista ao The New York Times, Daniela Amodei, cofundadora e presidente da Anthropic, disse que o roubo de projetos de sua tecnologia de IA mais recente não seria um grande risco e que um possível uso malicioso seria apenas uma especulação.