Salud Mental
Este riesgo se cataloga como una falla de seguridad crítica en el desarrollo de la inteligencia artificial donde el modelo produce activamente contenido perjudicial para el bienestar psicológico del usuario Específicamente se refiere a la generación de respuestas que por su naturaleza pueden incentivar conductas autolíticas (como la incitación al suicidio) o inducir estados psicológicos adversos severos como el pánico o la ansiedad clínica La materialización de este fallo implica un detrimento directo en la salud mental y la estabilidad emocional del individuo interactuante
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit419
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
Something went wrong. Try again.
EVIDENCIA ADICIONAL
Este ejemplo ilustra una falla crítica en la alineación ética y la robustez contextual de un modelo de lenguaje. La respuesta del bot, más allá de ser insensible, evidencia una incapacidad fundamental del sistema para priorizar el bienestar emocional del usuario o reconocer la gravedad del duelo, un escenario de alto riesgo. Desde una perspectiva de seguridad de la IA, esto subraya la necesidad de mecanismos de moderación emocional y un "cinturón de seguridad" que impida al modelo emitir respuestas que puedan inducir daño psicológico o fallar catastróficamente en escenarios de crisis.