O TikTok está passando por uma fase de transição em suas operações de segurança, marcada pelo aumento do uso de inteligência artificial (IA) para moderar conteúdos. A informação veio da Agência Reuters, que divulgou o desligamento de cerca de 700 funcionários da plataforma, sendo que a maioria deles estariam envolvidos nas operações de moderação de conteúdo da empresa.
A decisão levantou um debate essencial: a IA pode desempenhar essa tarefa com a mesma eficácia da inteligência humana?
“Estamos fazendo essas mudanças como parte de nossos esforços contínuos para fortalecer ainda mais nosso modelo operacional global de moderação de conteúdo”, disse um porta-voz do TikTok em comunicado.
Supervisão humana
Segundo a empresa, o modelo atual do TikTok combina IA com revisão humana para avaliar conteúdos publicados e garantir que sigam as diretrizes da plataforma. A reestruturação visa tornar esse processo mais eficiente, com a meta de que 80% dos conteúdos inadequados sejam removidos por sistemas automatizados. Além disso, para 2024, está prevista a aplicação de cerca de US$ 2 bilhões (R$ 11,2 bilhões) em segurança e confiança, com o objetivo de melhorar a eficiência das operações.
No entanto, a questão central é se a IA consegue, de fato, interpretar nuances e contextos culturais com a mesma precisão que revisores humanos, essenciais para evitar julgamentos equivocados. O risco da substituição de uma equipe majoritariamente humana por IA pode levar a uma moderação menos sensível às complexidades do conteúdo digital, afetando tanto a segurança dos usuários quanto a liberdade de expressão.