A partir de marzo, Discord activará un sistema global de verificación de edad que condicionará el acceso a contenido para adultos y a espacios restringidos dentro de la plataforma. La medida será para todos los usuarios, nuevos y existentes, cuyos perfiles pasarán por defecto a una experiencia «apropiada para adolescentes» hasta que demuestren que son mayores de edad. El cambio modifica el acceso a comunidades, funciones y contenidos sensibles en uno de los servicios de comunicación más populares en la actualidad.
Esta actualización dicta que quienes no completen la verificación verán el contenido sensible de forma difuminada. Además, no podrán ingresar a canales, servidores o comandos con restricción de edad, ni participar como oradores en los llamados stage channels. Los mensajes directos y solicitudes de amistad de usuarios desconocidos se enviarán automáticamente a una bandeja separada, junto con advertencias adicionales sobre contactos potencialmente no familiares.
El acceso a contenido adulto en Discord
Para eliminar estas limitaciones, todos los usuarios adultos deberán completar un proceso de verificación de edad, que en la mayoría de los casos será único. Al momento del lanzamiento, la plataforma ofrecerá dos métodos: estimación de edad mediante un video selfie o envío de un documento de identidad a proveedores externos. Según la información oficial, los videos se procesan en el dispositivo del usuario y no se almacenan, mientras que las imágenes de documentos se eliminan después de confirmar la edad.
El sistema en algunos casos puede considerar que una sola comprobación no es suficiente y solicite métodos adicionales. También se agregará un modelo de inferencia de edad que analiza señales de uso y comportamiento para determinar si una cuenta pertenece a un adulto, sin requerir siempre una verificación explícita.
La implementación global se produce tras experiencias previas en países como Reino Unido y Australia, donde Discord ya aplicó esquemas similares. La compañía también ajustó el proceso luego de un incidente de seguridad ocurrido en 2025, que afectó a un proveedor externo encargado de verificaciones de edad, lo que llevó a cambiar la empresa que realizaba esta tarea.
Seguridad juvenil y nuevas restricciones
¿Y por qué Discord está haciendo todo esto? La idea es tan simple como la protección de adolescentes, y que en años recientes ya incluyó la prohibición de canales de citas para menores, el bloqueo de contenido sexual infantil generado por IA, filtros de contenido y advertencias automáticas. Estas medidas siguieron investigaciones judiciales en Estados Unidos que vincularon delitos graves con el uso de la plataforma para contactar a menores.
Junto con el nuevo esquema de verificación, Discord anunció la creación de un Consejo Juvenil, integrado por entre 10 y 12 adolescentes de 13 a 17 años, que participará como órgano consultivo para el desarrollo de políticas y funciones relacionadas con la experiencia de usuarios menores de edad.




