
La medida de Meta comenzará la próxima semana en Estados Unidos, Reino Unido, Australia y Canadá, y se expandirá a otras regiones a finales de año
Instagram anunció este jueves que, a partir de la próxima semana, comenzará a notificar a los padres cuando sus hijos adolescentes intenten buscar repetidamente términos relacionados con el suicidio o la autolesión en su plataforma. La medida, dada a conocer por Meta, la compañía matriz de la red social, busca fortalecer las herramientas de supervisión parental y brindar apoyo a las familias en conversaciones delicadas sobre salud mental.
La iniciativa estará disponible inicialmente para los padres de Estados Unidos, Reino Unido, Australia y Canadá que utilizan las herramientas de supervisión parental de la red social, y se implementará en otras regiones “a finales de este año”, según precisó la empresa en un comunicado oficial.
¿Cómo funcionarán las alertas?
Las notificaciones se activarán cuando un adolescente realice búsquedas repetidas de frases que sugieran autolesión o términos como “suicidio” en un corto período de tiempo. Los padres recibirán el aviso a través de distintos canales: correo electrónico, SMS o WhatsApp, según la información de contacto que tengan registrada, además de una notificación dentro de la propia aplicación.
“Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes e incluyen recursos especializados para ayudarlos a abordar estas conversaciones delicadas”, señala Meta en su comunicado.
Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión. Los padres también tendrán la opción de consultar recursos de expertos diseñados específicamente para ayudarles a abordar estas conversaciones potencialmente delicadas con sus hijos.
Políticas de contenido y privacidad
Meta subraya que mantiene “políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión”. Sin embargo, la compañía permite que las personas compartan contenido sobre sus propias dificultades con estos problemas, aunque este material se oculta automáticamente a los adolescentes, incluso si lo publica alguien a quien siguen.
Esta distinción busca equilibrar la libertad de expresión de quienes desean compartir sus experiencias personales con la necesidad de proteger a los menores de contenidos que podrían resultar perjudiciales o desencadenantes.
La inteligencia artificial también vigilará
La compañía anunció que extenderá estas alertas a ciertas experiencias con inteligencia artificial. “Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares para ciertas experiencias de IA”, adelanta Meta.
De esta manera, los padres también serán notificados si un adolescente intenta entablar ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con la IA de la plataforma. Según la empresa, “este es un trabajo importante” y compartirán más información sobre esta funcionalidad en los “próximos meses”.
Contexto de presión judicial
El lanzamiento de estas nuevas funciones de supervisión parental coincide con un aumento significativo de la presión judicial contra Meta. La compañía enfrenta múltiples demandas que la acusan de diseñar algoritmos en Instagram que perjudican la salud mental de los menores y fomentan efectos perjudiciales en su bienestar psicológico.
La semana pasada, el consejero delegado de Meta y creador de Facebook, Mark Zuckerberg, compareció ante el Tribunal Superior de Los Ángeles en el marco de una demanda interpuesta por una usuaria que alega haber desarrollado adicción a sus plataformas durante su adolescencia.
Durante su testimonio, Zuckerberg reiteró la postura de la tecnológica: la responsabilidad de verificar la edad de los usuarios debe recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de las aplicaciones. Esta posición busca trasladar parte de la carga de la protección de menores a otras empresas del ecosistema digital.
Alcance internacional de la medida
Aunque la implementación inicial se limitará a cuatro países de habla inglesa, Meta ha confirmado que la expansión a otras regiones está prevista para finales de este año. Esto significa que los padres en América Latina, Europa continental y otras partes del mundo deberán esperar varios meses antes de poder acceder a estas herramientas de supervisión.
La compañía no ha especificado un calendario detallado para la implementación en cada región, pero ha asegurado que trabaja para hacer disponibles estas funciones en el mayor número de países posible durante 2026.
Debate sobre la protección de menores en redes sociales
La medida de Instagram se enmarca en un debate más amplio sobre la responsabilidad de las plataformas digitales en la protección de los menores de edad. En los últimos años, diversas investigaciones y reportes han señalado los potenciales efectos negativos del uso de redes sociales en la salud mental de adolescentes y jóvenes.
Organizaciones de defensa de la infancia han recibido con cautela el anuncio de Meta, señalando que, si bien las herramientas de supervisión parental pueden ser útiles, no sustituyen la necesidad de un diseño de plataforma que priorice la seguridad de los menores desde su concepción.
Por su parte, expertos en salud mental destacan la importancia de que estas alertas vengan acompañadas de recursos adecuados para que los padres puedan abordar las situaciones de manera constructiva, sin generar estigma ni conflictos familiares que puedan agravar la situación del adolescente.
Recomendaciones para padres
Ante la llegada de estas nuevas funcionalidades, especialistas recomiendan a los padres que utilizan herramientas de supervisión parental:
- Mantener una comunicación abierta y libre de juicios con sus hijos sobre el uso de redes sociales.
- Informarse sobre los recursos de apoyo en salud mental disponibles en su comunidad.
- Abordar las alertas no como un mecanismo de vigilancia punitiva, sino como una oportunidad para ofrecer apoyo.
- Buscar orientación profesional si identifican señales de alerta en la conducta de sus hijos.
La efectividad de estas nuevas medidas dependerá en gran medida de cómo sean implementadas y de la capacidad de las familias para utilizarlas como un recurso para el diálogo y el apoyo, más que como una herramienta de control.
