Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Mala Conducta Académica

El uso inapropiado, o el abuso deliberado, de los sistemas basados en Modelos de Lenguaje Grande (LLM) tiene el potencial de generar impactos sociales adversos relevantes, siendo uno de los ejemplos más directos la proliferación de la mala conducta académica.

Fuente: MIT AI Risk Repositorymit15

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit15

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.3 > Fraude, estafas y manipulación dirigida

Estrategia de mitigacion

1. Implementar y perfeccionar mecanismos de detección robustos, incluyendo el uso de marcas de agua digitales (watermarking) o el análisis estilístico avanzado, dentro de los sistemas LLM y las plataformas de entrega académica, para identificar de forma fiable el contenido generado por IA que constituya trabajo no autorizado. 2. Formular y comunicar políticas institucionales explícitas sobre el uso ético y permisible de la IA generativa. Esto debe complementarse con programas de formación obligatorios para la comunidad académica (estudiantes y profesorado) centrados en la alfabetización digital, los estándares de citación para la producción de IA y las implicaciones disciplinarias del uso indebido. 3. Fomentar el rediseño de las metodologías de evaluación en el ámbito educativo para priorizar tareas que requieran pensamiento crítico, síntesis de información en tiempo real, o aplicación contextualizada que sea intrínsecamente difícil de replicar por modelos generativos (e.g., exámenes orales, proyectos prácticos, evaluaciones presenciales supervisadas).