Meta É Acusada De Permitir Que IA Conversasse De Forma Sensual Com Crianças



Um documento interno da Meta, obtido pela agência Reuters, revelou que as regras internas da empresa permitiam que chatbots de inteligência artificial envolvidos no WhatsApp, Facebook e Instagram participassem de conversas com conteúdo romântico ou sugestivo com crianças, divulgassem informações médicas falsas e até criassem textos com conteúdo racista.

Segundo a reportagem, o arquivo, intitulado “GenAI: Content Risk Standards”, possui mais de 200 páginas e foi aprovado pelos setores jurídico, de políticas públicas e engenharia da Meta, incluindo seu principal especialista em ética. O documento descrevia situações em que chatbots poderiam “descrever uma criança em termos de atratividade”, embora proibisse qualificá-la como “sexualmente desejável”.

A Meta confirmou a autenticidade do material e afirmou que, após os questionamentos da Reuters, removeu trechos que permitiam flertes e brincadeiras de cunho romântico com menores. O porta-voz Andy Stone reconheceu que “essas conversas nunca deveriam ter sido permitidas” e admitiu que a aplicação das regras foi inconsistente.

Além das interações inadequadas com crianças, o documento também previa que, em alguns casos, os bots poderiam criar declarações que rebaixassem pessoas com base em características protegidas, como cor de pele, incluindo argumentos falsos de que “pessoas negras seriam mais burras que pessoas brancas”.

O caso reacende o debate sobre a segurança e a ética no desenvolvimento de inteligências artificiais, especialmente em plataformas com grande alcance entre crianças e adolescentes.