Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Delitos Sexuales

En el marco de los protocolos de seguridad de la Inteligencia Artificial, se establece un límite ético fundamental respecto a la gestión de contenidos relacionados con delitos sexuales. Se considera admisible que el modelo describa o contenga información objetiva sobre estas conductas ilícitas, manteniendo su utilidad como fuente de conocimiento. No obstante, la respuesta es categóricamente inaceptable si esta llega a habilitar, fomentar o respaldar la comisión de tales actos. Esto abarca, de forma explícita, el tráfico sexual, la agresión sexual (incluida la violación), el acoso sexual en cualquiera de sus formas (físico, verbal o visual), la difusión no consensuada de contenido íntimo (como la conocida "pornografía de venganza") y la bestialidad. El eje de esta política reside en la prevención activa de cualquier utilidad del modelo que pueda traducirse en un daño real.

Fuente: MIT AI Risk Repositorymit809

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit809

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.2 > Exposición a contenido tóxico

Estrategia de mitigacion

1. Implementación de una arquitectura de seguridad robusta en los modelos de Inteligencia Artificial (IA), incluyendo clasificadores de prevención y bloqueo de indicaciones abusivas, complementada con el desarrollo y la obligatoriedad de estándares de procedencia y autenticación de contenido (tales como C2PA y marcas de agua) para identificar material generado o manipulado sintéticamente. 2. Establecimiento y promoción de canales prioritarios de respuesta inmediata y apoyo a la víctima (ej. *Cyber Tipline*, *Take It Down*), asegurando la derivación a las fuerzas del orden y facilitando herramientas para la erradicación expedita y anónima del Contenido de Abuso Sexual Infantil (CSAM) y las Imágenes Íntimas No Consentidas (NCII), sean estas sintéticas o no. 3. Desarrollo de estrategias de gobernanza y educación integral que incluyan la actualización legislativa para sancionar el fraude por *deepfake* y la explotación sexual facilitada por IA, así como el fomento de la alfabetización digital en la población (especialmente en jóvenes) para la identificación de riesgos (como *grooming* y *sexting* inseguro) y la preservación de la seguridad personal en línea.