Cuestiones éticas y de privacidad al usar herramientas de IA
El uso de la IA en la educación plantea diversos retos éticos. La ética en la IA examina las implicaciones y responsabilidades morales del desarrollo, despliegue y uso de sistemas de inteligencia artificial. Esta página ofrece una visión general de los principales retos éticos que plantea el uso de la IA en la educación y también muestra recomendaciones de actuación sobre cómo afrontarlos.
Riesgo de sesgo
La inteligencia artificial puede entrenarse con datos sesgados, lo que puede dar lugar a resultados sesgados, erróneos y/o injustos. Es necesario que las intuiciones educativas y los educadores tomen medidas para identificar estos problemas en el sistema. También es necesario que haya una persona responsable de la supervisión continua de los resultados presentados por la IA.
¿Cómo reaccionar? Tanto los estudiantes como los educadores deben ser conscientes del riesgo de sesgo y discriminación de los sistemas de IA y sensibilizados sobre el tema de cuestionar crÃticamente los contenidos generados por IA. Para ello pueden ofrecerse, por ejemplo, cursos de formación y perfeccionamiento. Especialmente las instituciones educativas y los profesores deberÃan tomar medidas para identificar problemas como la discriminación en los sistemas de evaluación. Puede ser útil asignar personas adicionales que se encarguen de supervisar los resultados generados por la IA.
Falta de transparencia
Los sistemas de IA pueden ser complejos y difíciles de entender, lo que puede dificultar que profesores y alumnos comprendan cómo se toman las decisiones. Además, con algunas herramientas la decisión es intrínsecamente opaca, como ocurre con el aprendizaje profundo o las redes neuronales convolucionales. En consecuencia, es más difícil confiar en los datos y opiniones presentados por la inteligencia artificial.
¿Cómo reaccionar? Si es posible, es útil saber cómo se han recogido los datos, de dónde y cómo se ha llegado a la conclusión sobre una determinada cuestión.
Protección de datos
La IA recopila una gran cantidad de datos de profesores y maestros, lo que puede plantear problemas de privacidad. Los usuarios de herramientas de IA deben consentir activamente esta recogida de datos, pero este consentimiento es más o menos forzado cuando las instituciones educativas exigen el uso de herramientas de IA. En este caso, tanto educadores como alumnos y padres no tienen más remedio que dar su consentimiento.
¿Cómo reaccionar? Es importante cumplir el Reglamento General de Protección de Datos (RGPD) y asegurarse de utilizar las medidas de seguridad adecuadas para proteger y proteger los datos y la privacidad de los estudiantes.
Dependencia excesiva de la tecnología
Si los sistemas de inteligencia artificial se utilizan de forma inadecuada, puede existir el riesgo de que profesores y alumnos se vuelvan excesivamente dependientes de estas herramientas tecnológicas, lo que puede obstaculizar la enseñanza y el aprendizaje, perdiendo competencias y conocimientos importantes.
¿Cómo reaccionar? Tanto los alumnos como los profesores deben tener en cuenta que las herramientas de IA sólo deben servir de apoyo a su propio trabajo y no pueden sustituir por completo a su propia creatividad y habilidades. Investigar por cuenta propia, por ejemplo, es una habilidad clave. Los contenidos generados por la IA pueden utilizarse como punto de partida, pero deben complementarse con la investigación propia.
Pérdidas de empleo
El uso de la IA amenaza potencialmente los puestos de trabajo de los profesores y otras personas que trabajan en la educación. Por lo tanto, podría haber pérdidas de puestos de trabajo, ya que las herramientas ahorran costes a largo plazo.
¿Cómo reaccionar? En lugar de suprimir puestos de trabajo, hay que reajustar las tareas. La IA puede ayudar a que ciertas tareas sean más eficientes, dejando más tiempo a los profesores para otras actividades, como el apoyo individual o el diseño creativo de las clases. Los programas de reciclaje y desarrollo profesional también pueden permitirles asumir nuevas tareas que la IA no puede sustituir, como la atención y el apoyo individualizados a los alumnos. La IA también puede crear nuevas áreas de trabajo, como la creación de contenidos digitales de aprendizaje.
Sources
Akgun, S. & Greenhow, C. (2022). Artificial intelligence in education: Addressing ethical
challenges in K-12 settings, AI Ethics, 2(3), 431-440. https://doi.org/10.1007/s43681- 021-00096-7
Borenstein, J. & Howard, A. (2021). Emerging challenges in AI and the need for AI ethics
education, AI Ethics, 1(2), 61-65. https://doi.org/10.1007/s43681-020-00002-7
Iyer, R., Li, Y., Li, H., Lewis, M., Sundar, R. & Sycara, K. (Februar, 2018).
Transparency and Explanation in Deep Reinforcement Learning Neural Networks [Conference paper]. AIES '18: Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society, New York, USA. https://doi.org/10.1145/3278721.327877
European Union (2022). Use of artificial intelligence (AI) and data in teaching and learning. https://www.internetsegura.pt/sites/default/files/2022-11/ethical-guidelines-on- the-use-of-artificial-intelligence-nc0722649enn.pdf
UNESCO (2022). Recommendation on the Ethics of Artificial Intelligence. https://apee.pt/wp-content/uploads/2023/03/381137eng.pdf
.
University of Adelaide (o.D.) How to work with Artificial Intelligence - the University of Adelaide. https://www.adelaide.edu.au/student/academic-
skills/ua/media/234/artificial-intelligence-student-slides-v0.1.pdf
Zawacki-Richter, O., Marín, V., Bond, M. & Gouverneur, F. (2019). Systematic
review of research on artificial intelligence applications in higher education - where are the educators, International Journal of Educational Technology in Higher Education, 16(39), 1-27. http://dx.doi.org/10.1186/s41239-019-0171-0