| Autora: Karla Velezmoro |

Una alumna me preguntó hace poco: “¿Profesora, usted usa la inteligencia artificial?”.

“Claro”, le respondí sin dudar. “¿Y tú?”. Ella me miró con una sonrisa.

Esa conversación breve pero honesta ocurrió en medio de una clase sobre narrativa sonora. Hablábamos sobre cómo planificar el guion de un pódcast, y surgió, casi como quien no quiere la cosa, el tema del uso de ChatGPT. No fue una pregunta técnica. Fue una pregunta ética. Porque cuando alguien en el aula lanza esa interrogante no está pensando solo en comandos, prompts o en cómo reformular un texto. Está preguntando: ¿Cómo se usa bien esta herramienta?, ¿Hasta dónde es legítimo usarla?, ¿Quién toma la decisión final?

Como docentes, y también como productores de contenidos, nos movemos entre la creación y la responsabilidad. Usamos tecnología, sí, pero también formamos personas. Por eso, integrar la IA en nuestro trabajo pedagógico o narrativo no es solo una cuestión de eficiencia: es una cuestión de ética.

IA responsable: no se trata de prohibir, sino de formar

Desde hace unos meses, formo parte del proyecto europeo EthicalAI – Educar e innovar: moldeando el futuro de la universidad con inteligencia artificial responsable, financiado por el programa Erasmus+. El nombre puede sonar muy formal, pero lo que estamos haciendo es urgente y sencillo a la vez: pensar juntos (docentes, investigadores, técnicos y estudiantes) cómo usar la IA en la educación sin que ella nos use a nosotros.

El documento base del proyecto —un marco regulatorio para el uso ético de la IA en la educación superior— propone algo esencial: no empezar por los algoritmos, sino por las personas. ¿Qué significa esto? Que la IA debe estar al servicio de la inclusión, de la equidad y del aprendizaje significativo, no de la reproducción de sesgos o de la automatización sin criterio. Se trata de un enfoque con vigilancia humana, donde las herramientas digitales acompañan, pero no reemplazan, el juicio pedagógico ni el diálogo con los estudiantes.

De la ética al aula: lo que pasa cuando grabamos

En los talleres de producción sonora, cuando editamos o escribimos guiones con ayuda de IA, suelo detenerme y preguntar: ¿Qué parte de este texto es tuya?, ¿Qué parte editó la máquina?, ¿Te sientes cómoda con eso?

Y es que hacer un pódcast no es solo hablar bonito o editar con precisión; es también tomar decisiones sobre cómo representamos el mundo. Cuando un estudiante pide ayuda a una IA para sintetizar una entrevista, ¿Es trampa? No necesariamente. El problema no está en la herramienta, sino en cómo se cuenta con ella y qué se decide dejar fuera.

Por eso, trabajar con IA nos obliga a ser más conscientes de nuestros procesos: qué copio, qué adapto, qué firmo, qué valido. Y eso, aunque suene paradójico, puede ser una oportunidad pedagógica para hablar de autoría, de fuentes, de pensamiento crítico.

¿Y si la IA también nos enseña a enseñar?

Lo que más me interesa de este debate no es si usar o no usar IA. Esa discusión ya está superada. Lo que realmente importa es cómo enseñar a nuestros estudiantes a usarla con ética, con criterio y con responsabilidad.

El marco que construimos en el proyecto EthicalAI propone que cualquier implementación tecnológica debe ser transparente, justa, inclusiva y siempre con supervisión humana. Parece obvio, pero no siempre se cumple. Por eso, como profesora, me toca ponerme en el lugar del estudiante y preguntarme: ¿Le estoy enseñando a resolver un problema o le estoy dando atajos sin brújula?

Porque al final, cuando una alumna me pregunta si uso la IA, no me está preguntando por la herramienta. Me está preguntando qué tipo de docente soy. Y también, sin querer, qué tipo de ciudadana estoy formando. 

Tags :

Suscríbete a nuestra Newsletter

Mas post y noticias: