Introducción a la IA en la Educación
El uso de herramientas de inteligencia artificial en el aula abre nuevas posibilidades pedagógicas, pero también exige un marco claro de responsabilidad y seguridad. Todo lo que se expone a continuación se refiere al uso de estas tecnologías tanto por parte del profesorado como del alumnado, y tiene como finalidad establecer unas bases sólidas que eviten riesgos innecesarios, especialmente en lo relativo a la protección de datos y al cumplimiento de la normativa vigente.
Obligaciones Normativas Clave
- Responsabilidad en Datos: Garantizar la seguridad y privacidad desde el diseño (Artículo 11 de la Ley 2/2025).
- Reserva de Humanidad: Prohibición explícita de tomar decisiones académicas (calificación o disciplinaria) basadas únicamente en el resultado de una IA (Artículo 12).
- No Discriminación: Adopción de garantías para mitigar cualquier resultado discriminatorio o sesgo (Artículo 10).
📄 Documentación Oficial
Accede al texto completo de la normativa:
LEY 2/2025, de 2 de abril, para el desarrollo e impulso de la inteligencia artificial en Galicia1. SEGURIDAD
El uso de herramientas de inteligencia artificial en el aula abre nuevas posibilidades pedagógicas, pero exige un cumplimiento estricto de la normativa. Como docentes del sector público o concertado en Galicia, nuestra actuación se rige ahora por la Ley 2/2025.
Es imprescindible comprender que la gestión de los datos personales del alumnado es una "línea roja". El Artículo 11 impone la obligación de garantizar la seguridad y privacidad desde el diseño. No se pueden introducir datos de menores en plataformas que no garanticen el almacenamiento en la UE o que utilicen dichos datos para entrenar sus modelos sin control.
Existen servicios muy extendidos (cuentas personales de grandes tecnológicas) que, sin un contrato corporativo específico, no ofrecen las garantías exigidas por el Artículo 47 (Plan de gestión de datos).
Ampliación y Ejemplos Prácticos (Art. 11, 47, RGPD)
-
Ejemplo de Riesgo (MAL): El docente pide a los alumnos usar una IA generativa gratuita para un trabajo, registrándose con su correo personal.
Esto viola el principio de minimización de datos y el Art. 11 (transferencia de datos sin garantías). -
Ejemplo de Buena Práctica (BIEN): El centro utiliza una plataforma corporativa con contrato que garantiza alojamiento en la UE. El docente se asegura de que la IA solo procese respuestas anónimas o con seudónimos (ALUMNO_01).
Cumple con el Plan de Gestión de Datos (Art. 47) y Privacidad desde el Diseño. - Verificación de Soberanía del Dato: Antes de autorizar cualquier herramienta, buscar explícitamente la cláusula de alojamiento en la Unión Europea.
2. LA ÉTICA Y LA "RESERVA DE HUMANIDAD"
La ética ya no es solo una recomendación filosófica; es un mandato legal. La Ley 2/2025 establece en su Artículo 5 los principios de "Gestión Responsable", que incluyen transparencia, justicia y responsabilidad.
Para los docentes, el principio más crítico es la Reserva de Humanidad y Revisión Humana (Artículo 12). La ley prohíbe explícitamente que se tomen decisiones académicas basadas únicamente en el resultado de una IA.
Obligación Docente
Todo contenido o evaluación generado o asistido por IA debe ser supervisado y validado por el docente.
Derecho del Alumno (Art. 23)
El alumno tiene derecho a saber si está interactuando con una IA y a recibir explicación de cualquier decisión apoyada en ella.
Ampliación y Ejemplos Prácticos (Art. 5, 12, 23)
- Ejemplo de Reserva de Humanidad (Art. 12): Si un sistema anti-plagio recomienda un "Suspenso", el docente revisa manualmente el trabajo y toma la decisión final. Nunca se delega el acto decisorio a la máquina.
- Ejemplo de Transparencia (Art. 23): Si se usa un algoritmo para hacer grupos, se debe explicar a los alumnos qué criterios usa el algoritmo.
- Fiabilidad y Responsabilidad (Art. 15): Si la IA falla en una recomendación disciplinaria, la responsabilidad final es humana.
3. LOS SESGOS Y LA NO DISCRIMINACIÓN
Los sesgos en la IA (raciales, de género, culturales) violan el Artículo 10: "Imparcialidad y ausencia de sesgos". La ley exige adoptar garantías para mitigar cualquier resultado discriminatorio.
Como educadores, tenemos el mandato del Artículo 72 de promover la "alfabetización de la sociedad gallega en materia de IA". Enseñar a detectar estos sesgos es parte de nuestra función.
Ampliación y Ejemplos Prácticos (Art. 10, 72)
- Ejemplo de Sesgo por Género: Si al pedir "un director de instituto" solo salen hombres, se debe realizar la actividad "El Auditor de Algoritmos" para debatir la imparcialidad.
- Ejemplo de Sesgo Cultural/Lingüístico (Art. 2.g): Si un traductor funciona mal en gallego, debemos priorizar herramientas que permitan la interacción en gallego y traten la lengua con calidad.
- Mandato de Alfabetización: El objetivo educativo es que los alumnos adquieran pensamiento crítico para no perpetuar los prejuicios de los datos históricos.
4. MARCO LEGAL: LEY 2/2025 DE GALICIA
Puntos clave para el centro educativo:
- Ámbito de Aplicación (Art. 3): Se aplica a todo el sector público autonómico, incluyendo centros educativos públicos.
- Transparencia (Art. 8): Los centros deben publicar qué IAs usan, para qué, qué datos utilizan y el nivel de riesgo.
- El Comisionado de IA (Art. 36): El DPO asume las funciones de velar por el uso ético y recibir quejas.
- Fomento del Gallego (Art. 2.g): Obligación de priorizar el desarrollo y uso de sistemas de IA en lengua gallega.
5. SOLUCIONES PRÁCTICAS PARA DOCENTES
1) Preparación: "Inventario de Sistemas de IA" (Art. 35)
- Inventario Público: Lista de herramientas aprobadas y su riesgo.
- Responsable: Coordinador TIC (enlace con el Comisionado).
- Política: Prohibición de datos personales en herramientas no corporativas.
2) Checklist rápido (Validación Art. 43)
- ✅ Soberanía: ¿Datos alojados en la UE?
- ✅ Edad: ¿Permite uso por menores?
- ✅ Idioma: ¿Permite interacción en gallego?
- ✅ Explicabilidad: ¿Explica cómo llega a sus resultados?
- ✅ Privacidad: ¿No pide teléfono ni datos privados?
3) Procedimiento: "Reserva de Humanidad"
- Informar a familias (Art. 8).
- Minimización: Usar seudónimos (ALUMNO_01).
- Supervisión: Validar todo contenido generado.
4) Modelo de Cláusula para Familias
6. DÓNDE ACUDIR SI SE DETECTA UN PROBLEMA
Cadena de responsabilidad y ayuda según la Ley 2/2025:
Nivel 1
El DocentePrimer filtro de "reserva de humanidad". Responsable de la validación inicial.
Nivel 2
Coordinador TIC / DirecciónResponsables del Inventario (Art. 35) y checklist de herramientas.
Nivel 3
Comisionado de IA (DPO)Para dudas legales, brechas de datos o sesgos graves. Canal formal de quejas (Art. 36).
Nivel 4
Agencia Gallega de IAOrganismo competente para supervisión de alto nivel.