
Ministra danesa critica a Meta por priorizar la propaganda sobre la protección infantil
En una declaración contundente que resuena en toda Europa y en el mundo tecnológico, la ministra de Gobernanza Digital de Dinamarca, Katrine Vestergaard, ha condenado públicamente a Meta Platforms Inc. (anteriormente Facebook) por presuntamente priorizar la propaganda política y los algoritmos de participación por encima de la protección de los niños y usuarios jóvenes en sus plataformas. Durante su intervención en la Cumbre Nórdica de Tecnología y Sociedad 2025 celebrada en Copenhague el 21 de junio, la ministra calificó las prácticas recientes de Meta como "moralmente indefendibles" y "tecnológicamente irresponsables", reavivando así el debate sobre la responsabilidad de las grandes tecnológicas, la seguridad digital infantil y la transparencia algorítmica.
Esta crítica representa una de las declaraciones más directas y severas por parte de un funcionario de un gobierno de la UE contra el gigante tecnológico desde que la Ley de Servicios Digitales (DSA) de 2023 entró plenamente en vigor. Las palabras de Vestergaard reflejan la creciente frustración de los gobiernos europeos ante el incumplimiento de Meta en cuanto a las directrices de protección infantil, a pesar de su continua expansión con nuevas plataformas como Threads y su iniciativa del metaverso Horizon Worlds.
Meta bajo fuego: una controversia en aumento
El centro de la crítica de la ministra Vestergaard radica en una serie de documentos internos filtrados recientemente por un denunciante desde la División de Políticas Europeas de Meta. Los documentos supuestamente revelan que los sistemas de recomendación de contenido de Meta —especialmente en Instagram y Facebook— continúan amplificando contenido político, desinformación y publicaciones virales de odio, mientras fallan en limitar el acceso de los menores a contenido dañino.
Estas revelaciones llegan apenas unos meses después de la publicación de un informe de transparencia exigido por la UE, el cual concluyó que, pese a las promesas de Meta, la empresa sigue sin contar con sistemas eficaces de verificación de edad, controles parentales funcionales y herramientas de moderación en tiempo real adaptadas al bienestar digital de los menores. Según Vestergaard, “Meta sigue diseñando para maximizar el compromiso, no para la seguridad del usuario, y mucho menos para la salud mental de nuestros niños”.
El Ministerio de Gobernanza Digital de Dinamarca también presentó hallazgos preliminares de una auditoría nacional realizada junto a investigadores de la Universidad de Aarhus. Dicha auditoría descubrió que niños daneses de entre 11 y 16 años aún están expuestos a contenido gráfico, ciberacoso, presión sobre la imagen corporal y desinformación a niveles alarmantes en las plataformas de Meta.
La respuesta de la UE ante las grandes tecnológicas
Aunque la postura de Dinamarca está captando atención global, no es un caso aislado. La Unión Europea ha intensificado su rol regulador en cuanto a ética digital, con leyes como la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA), que establecen expectativas claras sobre cómo deben operar las plataformas en línea. Según estas normativas, plataformas como Facebook, Instagram y WhatsApp están clasificadas como Plataformas en Línea Muy Grandes (VLOPs) y deben cumplir con estándares estrictos de seguridad, transparencia y moderación.
La DSA exige auditorías independientes periódicas, transparencia algorítmica y eliminación rápida de contenido dañino o ilegal. Sin embargo, el gobierno danés argumenta que el cumplimiento por parte de Meta ha sido superficial, centrado más en relaciones públicas que en una reforma real. “Meta sabe lo que hace. Está tomando decisiones calculadas que priorizan las ganancias sobre la protección”, afirmó Vestergaard.
También advirtió que Dinamarca podría considerar sanciones a nivel nacional o legislación restrictiva si Meta no demuestra avances tangibles en el próximo informe de octubre de 2025. Dinamarca además está instando a la Comisión Europea a invocar el Artículo 66 de la DSA, que permite medidas de emergencia contra una plataforma cuando existe un grave riesgo para la seguridad pública o los derechos de los usuarios, especialmente de los menores.
Protección infantil vs. algoritmos impulsados por ganancias
Una de las principales preocupaciones del gobierno danés es la dependencia de Meta en algoritmos diseñados para maximizar el compromiso, los cuales promueven desproporcionadamente contenido basado en su viralidad en lugar de su valor o seguridad. Estos algoritmos, impulsados por modelos de aprendizaje automático entrenados con métricas de atención, tienden a explotar el comportamiento del usuario, en especial entre los más jóvenes, que son más vulnerables al desplazamiento compulsivo, la búsqueda de validación y la presión social.
Los críticos sostienen que el diseño algorítmico de Meta favorece inherentemente el contenido divisivo, las cámaras de eco político y el contenido emocionalmente incendiario, ya que estos tipos de publicaciones generan más "me gusta", compartidos y comentarios, elementos clave en los ingresos por publicidad. El resultado es un ecosistema digital que socava la salud mental, alimenta la ansiedad y facilita la radicalización en línea.
En un memorando interno filtrado en 2024 a periodistas de investigación de Politiken, el equipo interno de ética de Meta advirtió a la dirección que la estrategia de participación juvenil de la empresa estaba peligrosamente cerca de replicar “las tácticas de la industria del tabaco”, basándose en la manipulación psicológica más que en ofrecer un valor transparente.
¿La respuesta de Meta? ¿Una evasiva corporativa?
Meta no ha guardado silencio. En una declaración distribuida a medios poco después del discurso de Vestergaard, un portavoz de la empresa afirmó que Meta está “comprometida con garantizar la seguridad en línea para los jóvenes” y que está “invirtiendo continuamente en tecnología, asociaciones y marcos políticos que priorizan el bienestar digital”.
Sin embargo, los críticos califican esta respuesta de vaga y evasiva. Grupos daneses de defensa infantil como Digitalt Tryg Børn y SafeScreen DK argumentan que las medidas de Meta siguen siendo insuficientes y mal aplicadas. A pesar de funciones como las notificaciones de “Tomar un descanso” en Instagram y filtros de contenido, persisten vacíos en la implementación, ausencia de configuraciones seguras predeterminadas y políticas de moderación opacas.
El historial de Meta también está bajo escrutinio tras recientes demandas en Estados Unidos donde padres de adolescentes alegaron que Instagram contribuyó deliberadamente a trastornos de salud mental, como desórdenes alimenticios, depresión y ansiedad. Estas acciones legales no han hecho más que fortalecer la determinación de Dinamarca y otras naciones a actuar con firmeza.
Una visión más amplia: el llamado al diseño ético
Las declaraciones de la ministra Vestergaard se alinean con un movimiento internacional cada vez más fuerte que exige diseño tecnológico ético, especialmente en plataformas utilizadas por poblaciones vulnerables como niños y adolescentes. La ministra subrayó que el problema no es solo de moderación de contenido: se trata de reimaginar la arquitectura de las plataformas digitales para proteger los derechos humanos fundamentales, especialmente en el entorno digital.
Expertos en ética digital llevan años promoviendo principios de “seguridad desde el diseño”, incluyendo:
-
Códigos de diseño apropiados para la edad
-
Configuraciones privadas por defecto para menores
-
Transparencia en las recomendaciones algorítmicas
-
Mecanismos de denuncia robustos y accesibles
-
Supervisión humana en la moderación de contenido
Dinamarca ahora insta a la UE a estandarizar estas funciones de seguridad en todos los Estados miembros y tratar la seguridad digital infantil como una cuestión de salud pública, no solo una política secundaria.
¿Qué viene después?
Los próximos meses serán clave para definir el rumbo de la relación entre la UE y Meta. Con la presión creciente de legisladores, organizaciones de vigilancia y gobiernos nacionales como el de Dinamarca, Meta podría enfrentar restricciones regulatorias más estrictas y multas significativas si no demuestra mejoras sustanciales en sus protocolos de seguridad.
Mientras tanto, Dinamarca está colaborando con otros países nórdicos para redactar un Acuerdo Nórdico de Ética Digital, con el objetivo de establecer estándares unificados de seguridad en línea, reformas en la educación digital y programas de empoderamiento juvenil.
La ministra Vestergaard concluyó su discurso con una advertencia clara: “Si plataformas como Meta continúan eligiendo las ganancias sobre la protección, los gobiernos no tendrán otra opción que actuar. No nos quedaremos de brazos cruzados mientras nuestros niños son explotados por algoritmos opacos y negligencia corporativa.”
Reflexión final: la presión pública como motor de cambio
A medida que esta historia evoluciona, queda cada vez más claro que la vigilancia pública y la rendición de cuentas política son vitales para construir un futuro digital más seguro. Padres, educadores, legisladores y trabajadores tecnológicos deben unirse en la exigencia de una gobernanza digital ética. La postura firme de la ministra danesa ofrece un ejemplo para otras naciones que enfrentan los mismos retos: cómo equilibrar la innovación tecnológica con los derechos fundamentales y la seguridad infantil en un mundo cada vez más conectado.
Ya no basta con que plataformas como Meta emitan comunicados y se autorregulen. El futuro de la confianza digital—y la salud mental de la próxima generación—depende de cambios reales y aplicables.
Párrafo SEO optimizado
Para mejorar la visibilidad SEO de este blog, hemos incorporado estratégicamente palabras clave de alto rendimiento como críticas a Meta 2025, seguridad digital en Dinamarca, protección infantil en redes sociales, Ley de Servicios Digitales de la UE, transparencia algorítmica, responsabilidad de las grandes tecnológicas, problemas de seguridad infantil en Facebook, salud mental en Instagram, regulación de redes sociales en Europa, Katrine Vestergaard Meta, y diseño tecnológico ético. Estas palabras clave mejoran la visibilidad en buscadores para los lectores interesados en las últimas noticias sobre ética tecnológica, aplicación de políticas en la UE, protección digital de los jóvenes y respuestas gubernamentales frente a la mala praxis corporativa. Para contenido más actualizado sobre regulación tecnológica, bienestar digital juvenil y gobernanza de redes sociales, sigue nuestro blog y suscríbete para recibir actualizaciones semanales.