El algoritmo de Reels podría ser más poderoso de lo que la plataforma puede manejar.
Jóvenes usuarios de Instagram reciben más fácilmente recomendaciones de videos sexualmente explícitos y perjudiciales de lo que la plataforma deja ver, según un nuevo informe.
Los hallazgos sobre seguridad infantil se basan en dos experimentos realizados por el Wall Street Journal y la profesora de ciencias de la computación de la Universidad Northeastern, Laura Edelson. Durante un período de siete meses, la publicación creó nuevas cuentas de menores que luego navegaron por el feed de videos de Reels en Instagram, pasando por alto contenido “normal” y deteniéndose en videos adultos más “atrevidos”. Después de solo 20 minutos de desplazamiento, las cuentas se inundaron con promociones de “creadores de contenido sexual para adultos” y ofertas de fotos desnudas.
Las cuentas de Instagram marcadas como menores se asignan automáticamente a los límites de control de contenido más estrictos.
Las pruebas del Journal replican las realizadas por el personal de seguridad de la empresa en 2021, que descubrieron que el sistema universal de recomendaciones del sitio estaba limitando la efectividad de las medidas de seguridad infantil. Documentos internos de 2022 muestran que Meta sabía que su algoritmo estaba recomendando “más pornografía, gore y discurso de odio a usuarios jóvenes que a adultos”, informa el Wall Street Journal.
“Este fue un experimento artificial que no coincide con la realidad de cómo los adolescentes usan Instagram”, dijo Andy Stone, portavoz de Meta, a la publicación. “Como parte de nuestro trabajo continuo sobre temas juveniles, establecimos un esfuerzo para reducir aún más la cantidad de contenido sensible que los adolescentes podrían ver en Instagram y hemos reducido significativamente estos números en los últimos meses”.
Pruebas similares se realizaron en plataformas orientadas a videos como TikTok y Snapchat, pero no arrojaron los mismos resultados de recomendación.
Los nuevos hallazgos siguen a un informe de noviembre que encontró que el algoritmo de Reels de Instagram recomendaba contenido sexualmente explícito a usuarios adultos que solo seguían cuentas de menores.
Una investigación de febrero, también del Wall Street Journal, reveló que el personal de Meta había advertido a la empresa sobre la continua presencia de padres explotadores y titulares de cuentas de adultos en Instagram, quienes encontraban formas de lucrar con imágenes de niños en línea. El informe señaló el aumento de “mamás influencers” que participaban en conversaciones sexuales con seguidores y vendían suscripciones para ver contenido sugestivo de sus hijos, como bailando o modelando en bikinis.
Defensores y organismos reguladores han centrado su atención en el papel de las redes sociales en la explotación infantil en línea. Meta misma ha sido demandada múltiples veces por su supuesto papel en la explotación infantil, incluida una demanda en diciembre que acusó a la empresa de crear un “mercado para depredadores”. Tras la creación de su grupo de trabajo de seguridad infantil en 2023, Meta lanzó una serie de nuevas herramientas de seguridad, incluidos controles contra el acoso y las configuraciones de control de contenido “más estrictas” actualmente disponibles.
Mientras tanto, el competidor de Meta, X, recientemente revisó su política de contenido para adultos, permitiendo a los usuarios publicar “desnudez o comportamiento sexual producido y distribuido, siempre que esté debidamente etiquetado y no se muestre de manera prominente”. La plataforma ha declarado que los titulares de cuentas menores de 18 años serán bloqueados para ver dicho contenido, siempre que esté etiquetado con una advertencia de contenido. Pero X no detalla ninguna consecuencia para las cuentas que publiquen contenido para adultos sin etiquetar. (Original de Mashable)
Foto de Pramod Tiwari en Unsplash