Reino Unido busca frenar las imágenes de abuso sexual infantil generadas por IA con pruebas más estrictas

PUBLICIDAD

El gobierno del Reino Unido permitirá a las empresas tecnológicas y a las organizaciones benéficas de seguridad infantil probar de forma proactiva las herramientas de inteligencia artificial para asegurarse de que no puedan crear imágenes de abuso sexual infantil.

Una enmienda al Proyecto de Ley de Delincuencia y Policía, anunciada el miércoles, permitiría a los «probadores autorizados» evaluar los modelos por su capacidad para generar material ilegal de abuso sexual infantil (CSAM) antes de su publicación.

La Secretaria de Tecnología, Liz Kendall, dijo que las medidas «garantizarían que los sistemas de IA se puedan hacer seguros en la fuente», aunque algunos activistas argumentan que aún se necesita hacer más.

Esto se produce cuando la Fundación de Vigilancia de Internet (IWF) dijo que el número de informes de CSAM relacionados con la IA se ha duplicado durante el último año

PUBLICIDAD

La organización benéfica, una de las pocas en el mundo con licencia para buscar activamente contenido de abuso infantil en línea, dijo que había eliminado 426 piezas de material denunciado entre enero y octubre de 2025.

Esto representó un aumento con respecto a las 199 del mismo período en 2024, dijo.

Su directora ejecutiva, Kerry Smith, acogió con satisfacción las propuestas del gobierno, diciendo que se basarían en sus esfuerzos de larga data para combatir el CSAM en línea.

«Las herramientas de IA han hecho posible que los sobrevivientes sean victimizados nuevamente con solo unos pocos clics, lo que les da a los delincuentes la capacidad de crear cantidades potencialmente ilimitadas de material sofisticado y fotorrealista de abuso sexual infantil», dijo.

«El anuncio de hoy podría ser un paso vital para garantizar que los productos de IA sean seguros antes de su lanzamiento».

Rani Govender, gerente de políticas de seguridad infantil en línea de la NSPCC, acogió con satisfacción las medidas para alentar a las empresas a tener mayor responsabilidad y escrutinio sobre sus modelos y la seguridad infantil.

«Pero para marcar una diferencia real para los niños, esto no puede ser opcional», dijo

«El gobierno debe garantizar que exista la obligación para los desarrolladores de IA de utilizar esta disposición, de modo que la protección contra el abuso sexual infantil sea una parte esencial del diseño del producto.»

‘Garantizar la seguridad infantil’
El gobierno dijo que los cambios propuestos a la ley también capacitarían a los desarrolladores de IA y a las organizaciones benéficas para garantizar que los modelos de IA tengan las salvaguardias adecuadas en torno a la pornografía extrema y las imágenes íntimas no consentidas.

Expertos y organizaciones en seguridad infantil han advertido con frecuencia que las herramientas de IA desarrolladas, en parte, utilizando grandes volúmenes de contenido en línea de amplio alcance, se están utilizando para crear imágenes de abuso muy realistas de niños o adultos no consentidos.

Algunos, incluyendo la IWF y la organización benéfica de seguridad infantil Thorn, han dicho que esto pone en riesgo los esfuerzos para controlar dicho material, ya que dificulta identificar si dicho contenido es real o generado por IA

Los investigadores han sugerido que existe una creciente demanda de estas imágenes en línea, particularmente en la web oscura , y que algunas están siendo creadas por niños .

¿Qué es la IA, cómo funciona y por qué preocupa a algunas personas?
A principios de este año, el Ministerio del Interior dijo que el Reino Unido sería el primer país del mundo en ilegalizar la posesión, creación o distribución de herramientas de IA diseñadas para crear material de abuso sexual infantil (CSAM), con una pena de hasta cinco años de prisión.

La Sra. Kendall dijo el miércoles que «al empoderar a organizaciones de confianza para que examinen sus modelos de IA, nos aseguramos de que la seguridad infantil esté integrada en los sistemas de IA, no añadida como una ocurrencia tardía».

«No permitiremos que el avance tecnológico supere nuestra capacidad para mantener a los niños seguros», dijo.

La ministra de Protección Infantil, Jess Phillips, dijo que las medidas también «significarían que las herramientas legítimas de IA no pueden ser manipuladas para crear material vil y, como resultado, más niños estarán protegidos de los depredadores».

Deja un comentario