LEY 2/2025: PARA EL DESARROLLO E IMPULSO DE LA INTELIGENCIA ARTIFICIAL EN GALICIA

Guía práctica de seguridad, ética y normativa para docentes

Introducción a la IA en la Educación

El uso de herramientas de inteligencia artificial en el aula abre nuevas posibilidades pedagógicas, pero también exige un marco claro de responsabilidad y seguridad. Todo lo que se expone a continuación se refiere al uso de estas tecnologías tanto por parte del profesorado como del alumnado, y tiene como finalidad establecer unas bases sólidas que eviten riesgos innecesarios, especialmente en lo relativo a la protección de datos y al cumplimiento de la normativa vigente.

Obligaciones Normativas Clave

📄 Documentación Oficial

Accede al texto completo de la normativa:

LEY 2/2025, de 2 de abril, para el desarrollo e impulso de la inteligencia artificial en Galicia

1. SEGURIDAD

El uso de herramientas de inteligencia artificial en el aula abre nuevas posibilidades pedagógicas, pero exige un cumplimiento estricto de la normativa. Como docentes del sector público o concertado en Galicia, nuestra actuación se rige ahora por la Ley 2/2025.

Es imprescindible comprender que la gestión de los datos personales del alumnado es una "línea roja". El Artículo 11 impone la obligación de garantizar la seguridad y privacidad desde el diseño. No se pueden introducir datos de menores en plataformas que no garanticen el almacenamiento en la UE o que utilicen dichos datos para entrenar sus modelos sin control.

Existen servicios muy extendidos (cuentas personales de grandes tecnológicas) que, sin un contrato corporativo específico, no ofrecen las garantías exigidas por el Artículo 47 (Plan de gestión de datos).

Ampliación y Ejemplos Prácticos (Art. 11, 47, RGPD)

2. LA ÉTICA Y LA "RESERVA DE HUMANIDAD"

La ética ya no es solo una recomendación filosófica; es un mandato legal. La Ley 2/2025 establece en su Artículo 5 los principios de "Gestión Responsable", que incluyen transparencia, justicia y responsabilidad.

Para los docentes, el principio más crítico es la Reserva de Humanidad y Revisión Humana (Artículo 12). La ley prohíbe explícitamente que se tomen decisiones académicas basadas únicamente en el resultado de una IA.

Obligación Docente

Todo contenido o evaluación generado o asistido por IA debe ser supervisado y validado por el docente.

Derecho del Alumno (Art. 23)

El alumno tiene derecho a saber si está interactuando con una IA y a recibir explicación de cualquier decisión apoyada en ella.

Ampliación y Ejemplos Prácticos (Art. 5, 12, 23)

3. LOS SESGOS Y LA NO DISCRIMINACIÓN

Los sesgos en la IA (raciales, de género, culturales) violan el Artículo 10: "Imparcialidad y ausencia de sesgos". La ley exige adoptar garantías para mitigar cualquier resultado discriminatorio.

Como educadores, tenemos el mandato del Artículo 72 de promover la "alfabetización de la sociedad gallega en materia de IA". Enseñar a detectar estos sesgos es parte de nuestra función.

Ampliación y Ejemplos Prácticos (Art. 10, 72)

5. SOLUCIONES PRÁCTICAS PARA DOCENTES

1) Preparación: "Inventario de Sistemas de IA" (Art. 35)

2) Checklist rápido (Validación Art. 43)

  • Soberanía: ¿Datos alojados en la UE?
  • Edad: ¿Permite uso por menores?
  • Idioma: ¿Permite interacción en gallego?
  • Explicabilidad: ¿Explica cómo llega a sus resultados?
  • Privacidad: ¿No pide teléfono ni datos privados?

3) Procedimiento: "Reserva de Humanidad"

4) Modelo de Cláusula para Familias

"Estimada familia, en la asignatura de [X] utilizaremos la herramienta de IA [Nombre] con finalidad exclusivamente educativa. Dicha herramienta ha sido verificada según el Inventario de Sistemas de IA del centro. No se compartirán datos personales sensibles y todas las actividades estarán bajo supervisión docente directa, garantizando la 'reserva de humanidad' que exige la Ley 2/2025 de Galicia."

6. DÓNDE ACUDIR SI SE DETECTA UN PROBLEMA

Cadena de responsabilidad y ayuda según la Ley 2/2025:

Nivel 1

El Docente

Primer filtro de "reserva de humanidad". Responsable de la validación inicial.

Nivel 2

Coordinador TIC / Dirección

Responsables del Inventario (Art. 35) y checklist de herramientas.

Nivel 3

Comisionado de IA (DPO)

Para dudas legales, brechas de datos o sesgos graves. Canal formal de quejas (Art. 36).

Nivel 4

Agencia Gallega de IA

Organismo competente para supervisión de alto nivel.

Nota Importante: Con carácter previo a cualquier reclamación, se recomienda dirigirse al Comisionado (DPO) para una revisión interna (Art. 36.4).