BOLETÍN DE ACTUALIDAD DE DERECHO CIVIL

Nuevas Directrices Europeas para la Protección de Menores en Plataformas Digitales


La Comisión Europea ha publicado las Directrices sobre medidas para garantizar un alto nivel de privacidad, seguridad y protección para menores en línea, un documento de 65 páginas que establece el marco regulatorio más completo hasta la fecha para la protección infantil en el entorno digital.

Marco Regulatorio y Alcance

Las directrices, adoptadas el 14 de julio de 2025 bajo el Artículo 28(4) del Reglamento (UE) 2022/2065 (Ley de Servicios Digitales), se aplican a todos los proveedores de plataformas en línea accesibles a menores. Una plataforma se considera accesible cuando sus términos y condiciones permiten el uso por menores, cuando el servicio está dirigido principalmente a menores, o cuando el proveedor tiene conocimiento de que algunos usuarios son menores.

El documento establece que no basta con incluir restricciones de edad en los términos y condiciones si no se implementan medidas efectivas para prevenir el acceso de menores. Por ejemplo, las plataformas que alojan contenido para adultos deben implementar verificaciones de edad robustas, independientemente de las prohibiciones declaradas.

Principios Fundamentales

Las directrices se basan en cuatro principios interrelacionados:

Proporcionalidad y Adecuación

Cada medida debe ser apropiada y proporcional, requiriendo una evaluación caso por caso que considere los riesgos específicos de la plataforma, su tamaño, alcance, tipo de servicio y base de usuarios.

Protección de los Derechos del Niño

Se debe considerar el interés superior del menor como consideración primaria, en línea con la Carta de Derechos Fundamentales de la UE y la Convención de la ONU sobre los Derechos del Niño.

Privacidad, Seguridad y Protección por Diseño

Los proveedores deben integrar altos estándares desde el diseño, desarrollo y operación de sus servicios.

Diseño Apropiado para la Edad

Los servicios deben alinearse con las necesidades cognitivas y emocionales de los menores, considerando su diversidad y etapa específica de desarrollo.

Revisión de Riesgos Obligatoria

Las plataformas deben realizar una evaluación integral basada en la tipología 5C que incluye:

  • Riesgos de contenido: exposición a material ilegal, dañino, de odio o desinformación
  • Riesgos de conducta: comportamientos que los menores pueden adoptar online
  • Riesgos de contacto: interacciones dañinas con otros usuarios, incluyendo grooming y ciberbullying
  • Riesgos de consumidor: prácticas comerciales explotadoras y gastos no deseados
  • Riesgos transversales: incluyendo riesgos de tecnología avanzada, bienestar y privacidad

Esta revisión debe realizarse anualmente y tras cambios significativos en la plataforma, incluyendo la integración de herramientas de IA generativa.

Verificación de Edad: Nuevos Estándares

Métodos Reconocidos

Las directrices distinguen entre tres categorías:

  • Autodeclaración: considerada insuficiente para garantizar protección
  • Estimación de edad: apropiada para riesgos medios
  • Verificación de edad: requerida para riesgos altos

Solución de Verificación de la UE

La Comisión está desarrollando una solución de verificación de edad de la UE que servirá como estándar de referencia hasta que estén disponibles las Carteras de Identidad Digital Europeas en 2026. Esta solución utiliza:

  • Protocolos criptográficos como pruebas de conocimiento cero
  • Procesamiento local en dispositivos
  • Tokens anónimos de edad
  • Métodos “doble ciego” que protegen tanto la identidad del usuario como los servicios a los que accede

Cuándo es Obligatoria la Verificación

Se requiere verificación de edad para:

  • Venta de alcohol, tabaco, drogas
  • Acceso a contenido pornográfico
  • Contenido de apuestas
  • Servicios que requieren 18+ años según términos contractuales
  • Casos donde los riesgos no pueden mitigarse con medidas menos restrictivas

Configuraciones por Defecto Protectoras

Las plataformas deben establecer configuraciones que garanticen el máximo nivel de privacidad, seguridad y protección por defecto, incluyendo:

  • Cuentas privadas que solo permiten interacción con contactos previamente aceptados
  • Geolocalización, micrófono y cámara desactivados
  • Notificaciones push desactivadas, especialmente durante horas de sueño
  • Funciones que contribuyen al uso excesivo deshabilitadas (contadores de “me gusta”, “rachas”)
  • Recomendaciones de otras cuentas desactivadas
  • Filtros asociados a efectos negativos en la imagen corporal deshabilitados

Los menores no pueden ser incentivados a cambiar a configuraciones menos seguras, y cualquier opción para modificar ajustes debe presentarse de manera neutral.

Sistemas de Recomendación Responsables

Restricciones en la Recolección de Datos

  • No recopilar datos de comportamiento fuera de la plataforma
  • Limitar el procesamiento de datos comportamentales dentro de la plataforma
  • Priorizar señales explícitas proporcionadas por el usuario sobre señales implícitas de engagement

Medidas Preventivas

  • Implementar medidas para prevenir exposición a contenido que promueva estándares de belleza irreales, trastornos alimentarios, o actividades peligrosas
  • Asegurar que las búsquedas y sugerencias de contactos prioricen cuentas verificadas
  • Bloquear términos de búsqueda conocidos por activar contenido dañino

Control del Usuario

  • Proporcionar opciones para restablecer feeds de recomendaciones completa y permanentemente
  • Ofrecer sistemas de recomendación no basados en perfilado como opción predeterminada cuando sea apropiado
  • Asegurar que los mecanismos de reporte tengan impacto directo en los parámetros del sistema

Prácticas Comerciales Éticas

Las directrices establecen protecciones específicas contra la explotación comercial:

Publicidad Restringida

  • Prohibición de publicidad basada en perfilado para menores (ya establecida en el Artículo 28(2) del DSA)
  • Eliminación de publicidad excesiva, poco ética o ilegal
  • Declaraciones de comunicación comercial claramente visibles y apropiadas para niños

Protecciones Financieras

  • Prohibición de sistemas de IA que influyan o manipulen a menores con fines comerciales
  • Restricciones en monedas virtuales y tokens que puedan ser confusos
  • Prohibición de prácticas manipuladoras como escasez artificial o recompensas intermitentes
  • Separación entre contenido y compras relacionadas

Compras In-App

  • En servicios presentados como “gratuitos”, las compras in-app no pueden ser necesarias para acceder al servicio
  • Todas las compras deben mostrarse en moneda nacional
  • Prohibición de cajas de botín y funciones similares al juego

Moderación Mejorada

Estándares de Contenido

Las plataformas deben definir claramente qué consideran contenido y comportamiento dañino para la privacidad, seguridad y protección de menores, en cooperación con menores, sociedad civil y expertos independientes.

Capacidades Operativas

  • Moderación humana disponible además de revisión automatizada
  • Equipos de moderación operativos 24/7 con al menos un empleado de guardia
  • Sistemas de moderación en los idiomas oficiales de los Estados miembros donde se presta el servicio
  • Priorización de reportes que conciernen la privacidad, seguridad y protección de menores

Tecnologías Preventivas

  • Implementación de soluciones técnicas efectivas como coincidencia de hash y detección de URL
  • Integración de salvaguardas en sistemas de IA para detectar y prevenir contenido dañino
  • Cooperación entre plataformas para prevenir la diseminación transversal

Herramientas de Reporte y Soporte

Mecanismos de Reporte

Los sistemas deben ser:

  • Efectivos, visibles, amigables para niños y fácilmente accesibles
  • Disponibles para usuarios no registrados si pueden acceder al contenido
  • Confidenciales y anónimos por defecto
  • Capaces de priorizar reportes urgentes relacionados con problemas de seguridad en curso

Medidas de Soporte

  • Herramientas de soporte claras que conecten a menores con servicios apropiados como Centros de Internet Seguro
  • Mensajes de advertencia y enlaces a líneas de apoyo cuando los menores buscan contenido potencialmente dañino
  • Opciones para bloquear o silenciar usuarios de forma anónima
  • Controles sobre quién puede comentar en su contenido

Herramientas para Tutores

Las herramientas para tutores deben ser complementarias, no sustitutos de las medidas de seguridad por diseño. Las directrices enfatizan que:

  • La protección no puede depender exclusivamente de la supervisión de los tutores
  • Las herramientas deben ser apropiadas para la edad y basadas en comunicación y empoderamiento
  • Deben proporcionar notificación clara a los menores cuando estén activadas
  • Deben incluir salvaguardas contra el posible mal uso por parte de los tutores

Gobernanza y Transparencia

Estructuras Organizacionales

  • Asignación de persona o equipo dedicado responsable de la privacidad, seguridad y protección de menores
  • Implementación de políticas internas que describan cómo se garantiza un alto nivel de protección
  • Capacitación regular para personal relevante sobre derechos del niño y riesgos online

Participación Infantil

  • Fomentar una cultura de participación infantil en el diseño y funcionamiento de la plataforma
  • Consultas regulares con menores, tutores, academia y sociedad civil
  • Pruebas de elementos de la plataforma con menores y consideración de sus comentarios

Requisitos de Transparencia

Toda la información debe ser:

  • Amigable para niños, apropiada para la edad y fácilmente accesible
  • Presentada de manera clara y lo más simple posible
  • Disponible en los idiomas oficiales del Estado miembro donde se presta el servicio
  • Atractiva para menores, potencialmente usando gráficos, videos o personajes

Monitoreo y Evaluación

Las directrices requieren evaluación regular de:

  • Efectividad de elementos de la plataforma relacionados con la protección de menores
  • Consultas con menores y partes interesadas relevantes sobre diseño y evaluación
  • Ajustes basados en resultados de consultas, desarrollos técnicos e investigación

Revisión de las Directrices

La Comisión revisará las directrices al menos cada 12 meses, considerando la experiencia práctica en la aplicación del Artículo 28(1) y el ritmo de desarrollos tecnológicos, sociales y regulatorios. La próxima revisión incluirá contribuciones de proveedores de plataformas, Coordinadores de Servicios Digitales, autoridades nacionales, la comunidad investigadora y organizaciones de la sociedad civil.​​​​​​​​​​​​​​​​

https://ec.europa.eu/newsroom/dae/redirection/document/118226

Back to top arrow