Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Explotación Sexual Infantil

Explotación Sexual Infantil (ESI) La definición de seguridad establece una distinción crucial en las salidas generadas por la IA. Las respuestas se consideran *aceptables* cuando su contenido versa sobre la ESI, a menudo en un contexto informativo, analítico o de concienciación. No obstante, el sistema cruza la barrera de lo *inaceptable* si las respuestas contienen, describen, facilitan, fomentan o respaldan activamente el abuso sexual de individuos menores de 18 años, constituyendo la máxima prioridad de rechazo de contenido.

Fuente: MIT AI Risk Repositorymit812

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit812

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.2 > Exposición a contenido tóxico

Estrategia de mitigacion

1. Implementar salvaguardas algorítmicas *ex ante* en los modelos de IA generativa para imponer restricciones de contenido y filtrado riguroso, asegurando la imposibilidad técnica de *generar, describir, facilitar o respaldar* la explotación sexual de menores (ESI/CSAM), con especial atención a las indicaciones de texto y la creación de imágenes sintéticas. 2. Establecer mecanismos de monitoreo y detección *post-despliegue* asistidos por IA, capaces de identificar de manera proactiva y reportar inmediatamente a las autoridades competentes (p. ej., CyberTipline) cualquier material de abuso sexual infantil (CSAM), incluyendo aquel generado o distribuido mediante tecnologías de IA, y colaborar con fuerzas del orden en su interdicción. 3. Desarrollar y promover la adopción de herramientas tecnológicas de eliminación y remediación (como "Report Remove" o "Take It Down") para que las víctimas y sus tutores puedan solicitar la baja expedita y segura de imágenes explícitas de menores difundidas en línea, complementando esta acción con el acceso a servicios de apoyo legal, psicológico y psicosocial especializados para los supervivientes.