Instagram investiga perfiles de IA que «fetichizan» a personas con discapacidad

La empresa matriz de Instagram, Meta, está investigando cuentas de redes sociales generadas por inteligencia artificial que sexualizan a personas discapacitadas que aparecen en su plataforma.

Algunos perfiles publican imágenes y vídeos falsos de mujeres con extremidades amputadas, cicatrices visibles o en silla de ruedas. Muchas aparecen en posturas sexualizadas y con ropa sugerente.

Algunas cuentas han acumulado cientos de miles de seguidores en cuestión de meses. Un perfil, que afirma ser de siamesas, tiene unos 400.000 seguidores, a pesar de haberse unido a Instagram en diciembre de 2025.

Kamran Mallick, director ejecutivo de Disability Rights UK, dijo que la aparición de «cuentas que fetichizan, se burlan o monetizan las identidades de las personas con discapacidad es nada menos que horrible».

Las organizaciones benéficas médicas también han expresado su preocupación. Un portavoz de Gemini Untwined, que financia cirugías especializadas para recién nacidos poco comunes unidos por la cabeza, afirmó que presentar a los siameses como entretenimiento era «moralmente reprobable».

Agregaron: «Somos testigos directos de los desafíos médicos que estos niños y sus familias enfrentan, lo que hace que la representación de siameses como una forma de entretenimiento o espectáculo sea especialmente problemática».

Reuters Una imagen del logotipo de Meta AI en un teléfono móvil. El teléfono descansa sobre el teclado de una computadora portátil.Reuters
Existen innumerables plataformas de IA generativa, incluida una creada por el propio Meta.

La Dra. Amy Gaeta, de la Universidad de Cambridge, declaró a la BBC que investiga cómo la IA influye en el poder en relación con el género y la discapacidad. Aseguró que internet está inundado de herramientas gratuitas y de bajo coste para la creación de imágenes con IA generativa.

La IA generativa es un tipo de software que crea contenido nuevo basándose en patrones que ha aprendido de datos existentes en respuesta a la solicitud de un usuario.

Gaeta dijo que si bien algunas herramientas tienen restricciones de contenido, como prohibir indicaciones sexualmente explícitas, otras no las tienen o pueden eludirse fácilmente.

«A veces, sin mi intervención ni intención, se generan imágenes hipersexualizadas de personas con discapacidad. Esto demuestra claramente un sesgo en los conjuntos de datos con los que se entrenan estas herramientas», afirmó.

Un portavoz de Ofcom dijo que estaban «siguiendo la evolución de la IA, los riesgos que pueden surgir y las acciones que pueden ser necesarias para abordarlos».

Dijeron que las normas de seguridad en línea del organismo de control requieren que las empresas tecnológicas aborden el contenido ilegal y protejan a los niños de material dañino, incluido contenido abusivo u odioso.

La Ley de Seguridad en Línea requiere que plataformas como Instagram apliquen los términos de servicio de manera consistente, incluso cuando el contenido se burla de las personas en función de características protegidas, como su discapacidad.

La Comisión de Igualdad y Derechos Humanos afirmó que las cuentas señaladas por la BBC eran «profundamente perturbadoras» y añadió: «Es fundamental que existan sólidos poderes regulatorios en el espacio digital para proteger a las personas de cualquier daño».

Un portavoz de Meta dijo que estaban investigando el contenido y que eliminan el material que promueve la explotación sexual o ataca a personas basándose en características protegidas.

Si bien estas cuentas generan personajes falsos, existe una seria preocupación por los comandos para las herramientas generativas detrás de ellas.

Alison Kerry, directora de comunicaciones de la organización benéfica de igualdad para personas con discapacidad Scope, dijo que la práctica equivalía a «discriminación disfrazada de contenido».

Agregó: «Estas imágenes de IA no aparecen de la nada; se construyen a partir de imágenes reales de personas con discapacidad, a menudo sin consentimiento, y los hilos de comentarios no moderados potencian la cosificación y el acoso».

Gaeta dijo que la moderación en sitios como Instagram no es lo suficientemente fuerte.

«Incluso cuando existen salvaguardas, se ha demostrado que es relativamente fácil eludirlas si alguien insiste lo suficiente en hacerlo», dijo.

«Las grandes empresas tecnológicas deben rendir cuentas, al igual que es necesario abordar la misoginia y el capacitismo».