Instagram, en una iniciativa para aumentar la seguridad de los usuarios menores de edad, ha introducido una función que automáticamente difuminará imágenes de desnudos en mensajes. Anunciada por Meta, la empresa matriz, esta herramienta apunta a mitigar los riesgos asociados con el acceso de menores a contenido inapropiado.
Esta funcionalidad, que se activará por defecto para los menores de 18 años, emplea tecnologías de aprendizaje automático para identificar y modificar imágenes potencialmente explícitas antes de que lleguen a sus destinatarios. Este desarrollo responde a las extensas críticas sobre el impacto negativo de las plataformas sociales en la salud mental de los jóvenes y los peligros de explotación.
Cuando se detecta un mensaje con contenido modificado, se notificará al usuario con un mensaje que desalienta la respuesta y ofrece opciones para bloquear o denunciar al remitente. También se proporcionarán advertencias sobre los riesgos de compartir imágenes personales.
«Esta característica no solo previene que los jóvenes vean imágenes no deseadas, sino que también los protege contra estafadores que pueden usar contenido explícito para coaccionar a los menores», comentó un representante de Meta.
Los Reyes de Instagram: Estas son las Cuentas con Más Seguidores
Actualmente en fase de prueba, la herramienta de Instagram se proyecta para un lanzamiento mundial en los próximos meses. Aunque diseñada primordialmente para menores, la empresa incentiva a todos los usuarios a activar esta función, buscando fortalecer la seguridad general en la plataforma.
Diario Financiero - El periódico de la gente informada