Una startup valorada en 1.500 millones de dólares prometía automatización total, pero detrás operaban cientos de trabajadores manuales desde India.
La promesa de la inteligencia artificial (IA) ha capturado la imaginación del mundo, ofreciendo soluciones automatizadas y eficientes. Sin embargo, el reciente escándalo de Builder.ai revela una realidad más compleja y, en algunos casos, engañosa.
Builder.ai, una startup londinense fundada en 2016, se presentó como una revolucionaria plataforma que permitía desarrollar aplicaciones con facilidad, gracias a su asistente de IA llamado «Natasha». La empresa atrajo inversiones significativas, incluyendo a gigantes como Microsoft, y alcanzó una valuación de 1.500 millones de dólares.
No obstante, en junio de 2025, se descubrió que «Natasha» no era una IA avanzada, sino una fachada detrás de la cual trabajaban manualmente más de 700 ingenieros en India. Estos empleados respondían a las solicitudes de los clientes, simulando una automatización que en realidad no existía.
Este modelo de «externalización encubierta» no solo engañó a los inversores, sino que también plantea preguntas éticas sobre la transparencia en el desarrollo y la implementación de tecnologías de IA.
El caso de Builder.ai destaca la necesidad de una mayor diligencia y escepticismo en el ámbito tecnológico, recordándonos que no todo lo que brilla en el mundo de la IA es oro.