Roblox implementará a partir de enero de 2026 una verificación obligatoria de edad para todos sus usuarios que deseen usar funciones de chat, medida que afectará a cientos de millones de jugadores en todo el mundo. La decisión llega tras múltiples demandas e investigaciones por fallos en la protección infantil dentro de la plataforma, acusada de exponer a menores a riesgos de acoso, contenido inapropiado y contacto con adultos.
Desde esta semana, los usuarios pueden realizar la verificación de manera voluntaria, pero será obligatoria en diciembre en Australia, Nueva Zelanda y Países Bajos, antes de su extensión global el próximo año. El proceso se realiza mediante un escaneo facial o identificación oficial, gestionado por la empresa de verificación digital Persona, y se lleva a cabo directamente en la aplicación. Roblox asegura que las imágenes o videos capturados se eliminan de inmediato una vez concluida la validación.
Chat por grupos de edad y nuevos límites
Con esta verificación, la compañía introduce un sistema de chat por grupos de edad que restringirá la interacción entre adultos y menores. Los jugadores serán clasificados en seis rangos: menores de 9 años, de 9 a 12, de 13 a 15, de 16 a 17, de 18 a 20 y mayores de 21. Cada usuario solo podrá comunicarse con personas de su mismo grupo o de grupos cercanos. Los menores de nueve años tendrán el chat desactivado por defecto, salvo autorización paterna.
Además del nuevo sistema de edad, Roblox prohibirá el intercambio de imágenes y videos en los chats, limitará los enlaces externos y empleará inteligencia artificial para supervisar los mensajes y detectar conductas indebidas. También lanzó un Centro de Seguridad que ofrece a padres y cuidadores guías sobre control parental y herramientas para monitorear las interacciones de sus hijos.
Roblox: entre demandas y críticas
El cambio ocurre mientras Roblox enfrenta demandas en estados como Texas, Luisiana y Kentucky, así como la presión de organismos reguladores en Estados Unidos y Reino Unido. Las acciones legales alegan que la empresa no ha hecho lo suficiente para proteger a los menores frente a depredadores y material sexualizado. Un portavoz de Roblox defendió que la tecnología no constituye reconocimiento facial, sino una estimación de edad, y destacó que los algoritmos tienen un margen de error promedio de 1,4 años en menores.
La compañía, que supera los 380 millones de usuarios activos mensuales, sostiene que esta verificación establece un nuevo estándar en seguridad digital y que otros servicios en línea podrían adoptar medidas similares. En los próximos meses, el requisito también se ampliará al uso de enlaces sociales y herramientas de colaboración en Roblox Studio, en un intento por reducir aún más el contacto entre adultos y menores dentro de su ecosistema virtual.




