Skip to main content

Unidad 5.2. Consideraciones éticas.

Introducción

"Un gran poder conlleva una gran responsabilidad". Origen desconocido, atribuida a Damocles en el siglo I A.C., y que también se ha usado por políticos, periodistas y autores de ficción para sus personajes. 

Esta cita encapsula la idea central de que la capacidad transformadora de la IA implica una obligación moral de usarla de manera que beneficie a la sociedad y evite los riesgos dañinos de un uso indebido. Al fin y al cabo se trata de una herramienta poderosa que mal utilizada puede llegar a ser muy perjudicial para la sociedad. En alguna ocasión se la ha comparado con la energía nuclear, capaz de proporcionar electricidad a gran escala con emisiones mínimas de carbono, mientras que manejada de manera incorrecta puede resultar en desastres catastróficos, como lo demuestran los accidentes de Chernobyl y Fukushima, además, la proliferación nuclear puede conducir a amenazas de seguridad global.

Como hemos ido descubriendo, en la era contemporánea, la Inteligencia Artificial ha permeado una multitud de sectores, redefiniendo la forma en que operan y creando un horizonte de posibilidades inexploradas. El sector educativo no es una excepción a esta transformación digital, donde la IA promete revolucionar la manera en que aprendemos y enseñamos. Sin embargo, junto con las promesas de eficiencia y personalización, emergen importantes cuestiones éticas que requieren una cuidadosa exploración y entendimiento.

La IA en educación tiene el potencial de personalizar y democratizar la enseñanza, optimizar los procesos administrativos liberando  tiempo de los docentes para realizar tareas específicas del proceso de enseñanza-aprendizaje y la tutorización. También nos va a permitir disponer de un conocimiento valioso basado en el análisis de grandes conjuntos de datos. Sin embargo, la implementación de estas tecnologías conlleva responsabilidades éticas significativas. Los dilemas éticos relacionados con la privacidad, el sesgo, y la autonomía, entre otros, son cruciales y demandan una consideración seria por parte de todos los actores involucrados en el ámbito educativo. 

Una serie de preguntas han de asaltarnos antes de lanzarnos a utilizar sistemas basados de IA en educación:  ¿Cómo asegurarnos de que los sistemas de IA sean justos y equitativos? ¿Cómo podemos evitar que se utilicen para manipular o discriminar a los estudiantes? y muchas otras

El propósito de esta unidad es explorar la ética en el contexto de la IA en general, profundizando posteriormente en las implicancias éticas específicas cuando la IA se aplica en el escenario educativo. Comenzaremos con una discusión sobre los principales debates éticos que rodean a la IA, seguido de una exploración de cómo estos debates se traducen y tal vez se complejizan, en el contexto educativo.

Al finalizar esta unidad, tendrás una comprensión sólida de los desafíos éticos que plantea la IA en la educación, y estarás en disposición de abordar estos desafíos de manera responsable y efectiva. Se busca fomentar una reflexión crítica y proporcionar una base sólida para la implementación ética de la IA en la educación, contribuyendo así a un futuro educativo más inclusivo, justo y humanizado.

Veremos además como desde la irrupción de la IA a nivel global, instituciones públicas y privadas de alcance mundial han ahondado en la necesidad de garantizar que los desarrollos de IA tanto a nivel general como especialmente a nivel educativo se realicen dentro de un marco ético.


Ética en la IA

Una definición de ética nos dice que es una disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano. Por tanto la ética de la IA se centra en los principios morales que deben guiar el desarrollo y el uso de la IA.

Mas concretamente la ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados que de la inteligencia artificial se quieren obtener.

Las personas tienen todo tipo de sesgos cognitivos, como el sesgo de confirmación, el de arrastre, efecto halo, pensamiento de grupo y muchos otros. Estos sesgos están patentes en nuestros comportamientos y, por tanto, en nuestros datos. Los datos son la base de funcionamiento de los algoritmos de machine learning, por tanto es vital, tener esto en cuenta si no queremos que los algoritmos de IA nazcan nutridos de estos sesgos. De otro modo la inteligencia artificial tiene altas probabilidades de escalar estos sesgos humanos a un ritmo sin precedentes.

El big data, ha sido un acicate para que las empresas desarrollen sistemas cada vez mas automatizados capaces de tomar decisiones basadas en datos. Su intención primigenia, siendo generalmente entidades con ánimo de lucro, ha sido un incremento en los resultados, sin embargo en ocasiones están experimentando situaciones imprevistas, como consecuencia de una falta de investigación inicial, posterior control o a los sesgos subyacentes de los conjuntos de datos.

Obviamente, los errores conducen a correcciones y han surgido nuevas pautas de trabajo e investigaciones desde el campo de la ciencia de datos. Las empresas líderes en IA están interesadas también en establecer pautas éticas para su uso, ya que han experimentado directamente las consecuencias de no hacerlo. La falta de diligencia en esta área puede tener implicaciones legales y financieras, así como daños a la reputación. Como con cualquier avance tecnológico, la innovación en IA suele ir por delante de la regulación gubernamental. Si bien, la reacción no se ha hecho esperar demasiado y también diversas instituciones públicas a nivel mundial han emitido ya informes y pautas de recomendación sobre un uso ético de la IA. 

Las preocupaciones manifestadas y las recomendaciones y principios comunes de actuación, tanto si provienen de instituciones privadas como públicas suelen tener puntos comunes:

Preocupaciones

Privacidad

Antes de la existencia de la IA, ya existía esta preocupación debido a la tecnología digital existente (internet, telefonía movil, hiperconectividad...). Sin embargo, la IA introduce nuevas dimensiones a estos riesgos o los amplifica. Estas nuevas dimensiones en cuanto a riesgos en la privacidad surgen de las supuestas bondades que la IA nos ofrece como:

Análisis predictivo y perfilación. La IA puede analizar grandes volúmenes de datos para predecir comportamientos y preferencias individuales con un alto grado de precisión. Esto permite una perfilación detallada que puede ser utilizada de manera invasiva o discriminatoria.

Reidentificación de datos anonimizados. Técnicas avanzadas de IA pueden desanonimizar datos que inicialmente fueron anonimizados, permitiendo la reidentificación de individuos, lo cual era mucho más difícil sin la IA.

Tecnologías de reconocimiento. La IA potencia tecnologías como el reconocimiento facial, de voz o de patrones de comportamiento, lo cual permite una vigilancia más invasiva y precisa en tiempo real.

Automatización de decisiones. La IA permite la toma de decisiones automatizadas basadas en datos personales, lo que puede resultar en discriminación o injusticia si los sistemas están sesgados o mal configurados, y esto puede ser más difícil de detectar o impugnar en comparación con decisiones tomadas por humanos.

 Si bien, es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016 se instauró el Reglamento General de Protección de Datos (RGPD) con el objetivo de resguardar la información personal de los ciudadanos en la Unión Europea y el Espacio Económico Europeo, brindándoles más control sobre sus propios datos. En Estados Unidos, varios estados han estado formulando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que exige a las empresas ser transparentes sobre cómo recopilan la información del consumidor. Estas nuevas legislaciones han impulsado a las empresas a reconsiderar sus prácticas de almacenamiento y uso de los datos de identificación personal (PII). Como consecuencia, la inversión en seguridad se ha catapultado como una prioridad para las empresas en su esfuerzo por mitigar cualquier vulnerabilidad y prevenir la vigilancia, hackeos y ciberataques.

XXXSesgoSesgo  y discriminación

Los casos de sesgo y discriminación detectados en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? En principio, las empresas ponen sus mejores intenciones en sus iniciativas de automatización, pero hay diversos informes y casos concretos que evidencian que no siempre tienen éxito. Por ejemplo Reuters destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review  ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación no se encuentran únicamente en los sistemas de contratación, también están presentes otras aplicaciones de la IA, como reconocimiento facial o los algoritmos de redes sociales.

ACon medidael quecreciente las empresas se vuelven más conscientesentendimiento de los riesgos deasociados con la IA, selas hancorporaciones vueltoestán participando más activasactivamente en estelas debatediscusiones sobrerelativas a la ética y los valores de la IA. Por ejemplo, elArvind año pasado,Krishna, el CEOdirector ejecutivo de IBM, Arvind Krishna, anunciódeclaró que IBMla empresa ha desechadoretirado sus productos de análisis y reconocimiento facial de IBM de uso general, enfatizandosubrayando queque:

 "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia". Arvind Krishna, CEO IBM

Impacto de la IA sobreen losel puestos de trabajoempleo

La inquietud pública sobre la IA suele enfocarse en la pérdida de empleos,  pero hay motivos para pensar que debería replantearse. el enfoque. Cada avance tecnológico altera la demanda laboral en ciertos sectores. Por ejemplo, en la industria automotriz, las principales marcas se están inclinando hacia los vehículos eléctricos acorde a tendencias ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. a inteligencia artificial puede mirarse bajo el mismo prisma. La IA reconfigurará la demanda laboral hacia otras áreas, necesitando por ejemplo trabajadores para gestionar estos sistemas y resolver problemas complejos en sectores como el servicio al cliente, adaptándose así a las nuevas exigencias del mercado.

Responsabilidad


Dado que por el momento no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar prácticas éticas de IA. LosActualmente los únicos incentivos actuales para que las empresas sigan estasunas directrices éticas son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. ParaComo cubrirsustituto de esta carencia, se han emergidorealizado tentativas de encauzar el desarrollo de la IA mediante diversos comunicados y cartas abiertas de algunos de los pioneros y desarrolladores destacados en este campo, como la carta: Pause Giant AI Experiments: An Open Letter en la que varios de los principales actores en el campo de la IA y mas de un millar de expertos solicitaban frenar los desarrollo de IA hasta que existiera un consenso sobre el desarrollo y el uso de la misma. 

También han surgido  marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, y uneste estudio (enlace externo a ibm.com) (PDF, 1 MB) muestra que la combinación de la responsabilidad distribuida y la falta de previsión de las posibles consecuencias no es necesariamente buena para prevenir el daño en la sociedad.

Singularidad tecnológica

A pesar del revuelo público al respecto, muchos expertos no ven cercana la amenaza de una IA que supere a la humanidad, lo que Nick Bostrum llama "superinteligencia". Aunque estamos lejos de eso, los coches autónomos ya nos hacen preguntarnos cosas como, si hay un accidente, ¿quién es el responsable? ¿Avanzamos hacia la autonomía total o nos quedamos con vehículos semiautónomos para más seguridad? Este tipo de dilemas éticos brotan con cada nuevo avance en IA.

 

 

Recomendaciones

XXX Listados en genially de preocupaciones y principios comunes de todas las organizaciones/instituciones para un desarrollo y gobierno etico de la IA

En relación con recomendaciones éticas en la aplicación de la IA a nivel general puedes leer el informe emitido por la ONU: Recomendación sobre la ética de la inteligencia artificial

image.png

Referencias a documentos UNESCO ONU o UE E IBM y Open AI (como una de las empresas pioneras y de desarollo) y video IBM XXX

XXVideo chema alonsoXXvideo kai fu lee en etica educa

Etica en la IA educativa (instituciones, profesorado, alumnado) xxxaqui el video de Kai Fu LeeXX

Los principios éticos de la IA se aplican también a la IA educativa. En este contexto, los principios éticos clave incluyen:

  • Transparencia e interpretabilidad: Los estudiantes tienen derecho a entender cómo funcionan los sistemas de IA que se utilizan para su aprendizaje.
  • Justicia y equidad: Los sistemas de IA deben ser justos y equitativos para todos los estudiantes, independientemente de su raza, género, origen étnico, o condición socioeconómica.
  • Privacidad y seguridad: Los datos de los estudiantes deben ser tratados de manera confidencial y segura.

Conclusiones

La IA tiene el potencial de transformar la educación para mejor. Sin embargo, es importante abordar los desafíos éticos de la IA educativa para garantizar que esta tecnología se utilice de forma responsable y ética.

Ejemplos de actividades de aprendizaje

  • Discusión: Los estudiantes pueden discutir los principios éticos de la IA educativa.
  • Análisis: Los estudiantes pueden analizar casos de uso de la IA educativa desde una perspectiva ética.
  • Proyecto: Los estudiantes pueden diseñar un sistema de IA educativa que sea ético.

Recursos adicionales

  • UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
  • AI Now Institute: Informe sobre la equidad en la IA
  • OpenAI: Principios éticos de la IA

Distribución de palabras

Introducción: 500 palabras

  • Definición de IA
  • Aplicaciones de la IA en educación
  • Desafíos éticos de la IA educativa

Etica en la IA: 1000 palabras

  • Transparencia e interpretabilidad
  • Justicia y equidad
  • Privacidad y seguridad

Etica en la IA educativa: 500 palabras

  • Aplicación de los principios éticos a la IA educativa
  • Ejemplos de casos de uso
  • Retos y oportunidades

Total: 2000 palabras

Este guion es solo una sugerencia, y puede modificarse para adaptarse a las necesidades específicas del curso.

  • Transparencia e interpretabilidad: ¿Cómo podemos entender cómo funcionan los sistemas de IA?
  • Justicia y equidad: ¿Cómo podemos asegurarnos de que los sistemas de IA no sean discriminadores?
  • Privacidad y seguridad: ¿Cómo podemos proteger la privacidad y seguridad de los datos de los estudiantes?

Recursos adicionales

  • UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
  • AI Now Institute: Informe sobre la equidad en la IA
  • OpenAI: Principios éticos de la IA

Actividades de aprendizaje

  • Discusión: Los estudiantes pueden discutir los desafíos éticos de la IA educativa.
  • Análisis: Los estudiantes pueden analizar casos de uso reales de la IA educativa desde una perspectiva ética.

https://www.ibm.com/es-es/artificial-intelligence/ethics