Skip to main content

Unidad 5.2. Consideraciones éticas.

Introducción

"Un gran poder conlleva una gran responsabilidad". Origen desconocido, atribuida a Damocles en el siglo I A.C., y que también se ha usado por políticos, periodistas y autores de ficción para sus personajes. 

Esta cita encapsula la idea central de que la capacidad transformadora de la IA implica una obligación moral de usarla de manera que beneficie a la sociedad y evite los riesgos dañinos de un uso indebido. Al fin y al cabo se trata de una herramienta poderosa que mal utilizada puede llegar a ser muy perjudicial para la sociedad. En alguna ocasión se la ha comparado con la energía nuclear, capaz de proporcionar electricidad a gran escala con emisiones mínimas de carbono, mientras que manejada de manera incorrecta puede resultar en desastres catastróficos, como lo demuestran los accidentes de Chernobyl y Fukushima, además, la proliferación nuclear puede conducir a amenazas de seguridad global.

Como hemos ido descubriendo, en la era contemporánea, la Inteligencia Artificial ha permeado una multitud de sectores, redefiniendo la forma en que operan y creando un horizonte de posibilidades inexploradas. El sector educativo no es una excepción a esta transformación digital, donde la IA promete revolucionar la manera en que aprendemos y enseñamos. Sin embargo, junto con las promesas de eficiencia y personalización, emergen importantes cuestiones éticas que requieren una cuidadosa exploración y entendimiento.

La IA en educación tiene el potencial de personalizar y democratizar la enseñanza, optimizar los procesos administrativos liberando  tiempo de los docentes para realizar tareas específicas del proceso de enseñanza-aprendizaje y la tutorización. También nos va a permitir disponer de un conocimiento valioso basado en el análisis de grandes conjuntos de datos. Sin embargo, la implementación de estas tecnologías conlleva responsabilidades éticas significativas. Los dilemas éticos relacionados con la privacidad, el sesgo, y la autonomía, entre otros, son cruciales y demandan una consideración seria por parte de todos los actores involucrados en el ámbito educativo. 

Una serie de preguntas han de asaltarnos antes de lanzarnos a utilizar sistemas basados de IA en educación:  ¿Cómo asegurarnos de que los sistemas de IA sean justos y equitativos? ¿Cómo podemos evitar que se utilicen para manipular o discriminar a los estudiantes? y muchas otras

El propósito de esta unidad es explorar la ética en el contexto de la IA en general, profundizando posteriormente en las implicancias éticas específicas cuando la IA se aplica en el escenario educativo. Comenzaremos con una discusión sobre los principales debates éticos que rodean a la IA, seguido de una exploración de cómo estos debates se traducen y tal vez se complejizan, en el contexto educativo.

Al finalizar esta unidad, tendrás una comprensión sólida de los desafíos éticos que plantea la IA en la educación, y estarás en disposición de abordar estos desafíos de manera responsable y efectiva. Se busca fomentar una reflexión crítica y proporcionar una base sólida para la implementación ética de la IA en la educación, contribuyendo así a un futuro educativo más inclusivo, justo y humanizado.

Veremos además como desde la irrupción de la IA a nivel global, instituciones públicas y privadas de alcance mundial han ahondado en la necesidad de garantizar que los desarrollos de IA tanto a nivel general como especialmente a nivel educativo se realicen dentro de un marco ético.


Ética en la IA

Una definición de ética nos dice que es una disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano. Por tanto la ética de la IA se centra en los principios morales que deben guiar el desarrollo y el uso de la IA.

Mas concretamente la ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados que de la inteligencia artificial se quieren obtener.

Las personas tienen todo tipo de sesgos cognitivos, como el sesgo de confirmación, el de arrastre, efecto halo, pensamiento de grupo y muchos otros. Estos sesgos están patentes en nuestros comportamientos y, por tanto, en nuestros datos. Los datos son la base de funcionamiento de los algoritmos de machine learning, por tanto es vital, tener esto en cuenta si no queremos que los algoritmos de IA nazcan nutridos de estos sesgos. De otro modo la inteligencia artificial tiene altas probabilidades de escalar estos sesgos humanos a un ritmo sin precedentes.

El big data, ha sido un acicate para que las empresas desarrollen sistemas cada vez mas automatizados capaces de tomar decisiones basadas en datos. Su intención primigenia, siendo generalmente entidades con ánimo de lucro, ha sido un incremento en los resultados, sin embargo en ocasiones están experimentando situaciones imprevistas, como consecuencia de una falta de investigación inicial, posterior control o a los sesgos subyacentes de los conjuntos de datos.

Obviamente, los errores conducen a correcciones y han surgido nuevas pautas de trabajo e investigaciones desde el campo de la ciencia de datos. Las empresas líderes en IA están interesadas también en establecer pautas éticas para su uso, ya que han experimentado directamente las consecuencias de no hacerlo. La falta de diligencia en esta área puede tener implicaciones legales y financieras, así como daños a la reputación. Como con cualquier avance tecnológico, la innovación en IA suele ir por delante de la regulación gubernamental. Si bien, la reacción no se ha hecho esperar demasiado y también diversas instituciones públicas a nivel mundial han emitido ya informes y pautas de recomendación sobre un uso ético de la IA. 

Las preocupaciones manifestadas y las recomendaciones y principios comunes de actuación, tanto si provienen de instituciones privadas como públicas suelen tener puntos comunes:

Preocupaciones

Privacidad

Antes de la existencia de la IA, ya existía esta preocupación debido a la tecnología digital existente (internet, telefonía movil, hiperconectividad...). Sin embargo, la IA introduce nuevas dimensiones a estos riesgos o los amplifica. Estas nuevas dimensiones en cuanto a riesgos en la privacidad surgen de las supuestas bondades que la IA nos ofrece como:

Análisis predictivo y perfilación. La IA puede analizar grandes volúmenes de datos para predecir comportamientos y preferencias individuales con un alto grado de precisión. Esto permite una perfilación detallada que puede ser utilizada de manera invasiva o discriminatoria.

Reidentificación de datos anonimizados. Técnicas avanzadas de IA pueden desanonimizar datos que inicialmente fueron anonimizados, permitiendo la reidentificación de individuos, lo cual era mucho más difícil sin la IA.

Tecnologías de reconocimiento. La IA potencia tecnologías como el reconocimiento facial, de voz o de patrones de comportamiento, lo cual permite una vigilancia más invasiva y precisa en tiempo real.

Automatización de decisiones. La IA permite la toma de decisiones automatizadas basadas en datos personales, lo que puede resultar en discriminación o injusticia si los sistemas están sesgados o mal configurados, y esto puede ser más difícil de detectar o impugnar en comparación con decisiones tomadas por humanos.

 Si bien, es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016 se instauró el Reglamento General de Protección de Datos (RGPD) con el objetivo de resguardar la información personal de los ciudadanos en la Unión Europea y el Espacio Económico Europeo, brindándoles más control sobre sus propios datos. En Estados Unidos, varios estados han estado formulando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que exige a las empresas ser transparentes sobre cómo recopilan la información del consumidor. Estas nuevas legislaciones han impulsado a las empresas a reconsiderar sus prácticas de almacenamiento y uso de los datos de identificación personal (PII). Como consecuencia, la inversión en seguridad se ha catapultado como una prioridad para las empresas en su esfuerzo por mitigar cualquier vulnerabilidad y prevenir la vigilancia, hackeos y ciberataques.

Sesgo y discriminación

Los casos de sesgo y discriminación detectados en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? En principio, las empresas ponen sus mejores intenciones en sus iniciativas de automatización, pero hay diversos informes y casos concretos que evidencian que no siempre tienen éxito. Por ejemplo Reuters destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review  ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.

El sesgo y la discriminación no se encuentran únicamente en los sistemas de contratación, también están presentes otras aplicaciones de la IA, como reconocimiento facial o los algoritmos de redes sociales.

Con el creciente entendimiento de los riesgos asociados con la IA, las corporaciones están participando más activamente en las discusiones relativas a la ética y los valores de la IA. Por ejemplo, Arvind Krishna, el director ejecutivo de IBM, declaró que la empresa ha retirado sus productos de análisis y reconocimiento facial de uso general, subrayando que:

 "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia". Arvind Krishna, CEO IBM

Impacto de la IA en el empleo

La inquietud pública sobre la IA suele enfocarse en la pérdida de empleos,  pero hay motivos para pensar que debería replantearse. el enfoque. Cada avance tecnológico altera la demanda laboral en ciertos sectores. Por ejemplo, en la industria automotriz, las principales marcas se están inclinando hacia los vehículos eléctricos acorde a tendencias ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. a inteligencia artificial puede mirarse bajo el mismo prisma. La IA reconfigurará la demanda laboral hacia otras áreas, necesitando por ejemplo trabajadores para gestionar estos sistemas y resolver problemas complejos en sectores como el servicio al cliente, adaptándose así a las nuevas exigencias del mercado.

Responsabilidad


Dado que por el momento no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo para garantizar prácticas éticas de IA. Actualmente los únicos incentivos para que las empresas sigan unas directrices éticas son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. Como sustituto de esta carencia, se han realizado tentativas de encauzar el desarrollo de la IA mediante diversos comunicados y cartas abiertas de algunos de los pioneros y desarrolladores destacados en este campo, como la carta: Pause Giant AI Experiments: An Open Letter en la que varios de los principales actores en el campo de la IA y mas de un millar de expertos solicitaban frenar los desarrollo de IA hasta que existiera un consenso sobre el desarrollo y el uso de la misma. 

También han surgido  marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, como ejemplo este estudio de la Universidad de Tubinga en Alemania (Centro Internacional para la Ética en Ciencias y Humanidades): The Ethics of AI Ethics. El estudio aborda la proliferación de guías éticas en respuesta al rápido desarrollo y aplicación de sistemas de inteligencia artificial. Sin embargo, según el mismo, estas guías, solo sirven de momento como recomendaciones. El estudio no proporciona un análisis optimista sobre la eficacia de las guías éticas analizadas para gobernar el desarrollo de modelos de IA en la sociedad. Por lo tanto, concluye, aunque se han establecido marcos éticos, su implementación práctica y su capacidad para mitigar los riesgos asociados con la IA aún están en una fase inicial, sirviendo más como una guía que como una regulación efectiva.


Recomendaciones

Las preocupaciones expuestas han llevado, como se ha adelantado a la emisión de comunicados e informes por parte de organismos e instituciones encaminadas a recomendar pautas éticas en el desarrollo de modelos de IA así como a guiar el uso ético de la misma.

Muchos de estos informes vienen a concluir en una serie de puntos clave. Extraemos como ejemplo los cuatro aspectos que del informe: Directrices éticas para una IA fiable, publicado en abril del 2019 por la Comisión Europea y desarrollado por un grupo de expertos de alto nivel. En este estudio se concreta la visión europea sobre la IA. De acuerdo con estas directrices, Europa tiene que investigar y desarrollar una IA fiable, es decir, lícita, ética y robusta.

Los cuatro principios éticos identificados en las directrices son: 

  1. Principio de respeto a la autonomía humana: Este principio valora y quiere preservar la capacidad de las personas para tomar decisiones independientes, asegurando que la IA no manipule, engañe o reduzca la libertad de elección de los individuos.
  2. Principio de prevención de los daños: Prioriza la identificación y mitigación de los riesgos y daños potenciales que pueden surgir del uso de la IA, promoviendo el bienestar y la seguridad de las personas y comunidades.
  3. Principio de equidad: Promueve la justicia y la igualdad en el acceso y los beneficios de la IA, además de abordar y corregir los sesgos sistémicos para evitar la discriminación.
  4. Principio de explicabilidad: Asegura que las decisiones tomadas por sistemas de IA sean comprensibles y rastreables para los usuarios y partes interesadas, permitiendo una mejor comprensión y la clara identificación de responsabilidades.

En relación con recomendaciones éticas en la aplicación de la IA a nivel general puedes leer también el informe emitido por la ONU:UNESCO: Recomendación sobre la ética de la inteligencia artificial

image.png

También de la UNESCO, dejamos aquí un ilustrativo artículo:  Inteligencia artificial: ejemplos de dilemas éticos,  con casos concretos sobre dilemas éticos aplicables a la IA. Entre ellos, este clarificador video:


 

XXVideo chema alonso 

  • OpenAI: Principios éticos de la IA??

Ética en la IA educativa (instituciones, profesorado, alumnado)

xxxaqui el video de Kai Fu LeeXX

LosHemos principiosvisto éticospreocupaciones y recomendaciones aplicables al desarrollo y aplicación de la IA seen aplicangeneral. Estos principios son también aplicables a la IAeducación. educativa.Si Enbien estepodemos contexto,establecer losmatices principios éticos clave incluyen:

  • Transparencia e interpretabilidad: Los estudiantes tienen derechodebido a entenderlas cómoposibilidades funcionany lospeligros sistemasespecíficos deque la IA quetiene seen utilizanel paraámbito su aprendizaje.
  • Justicia y equidad: Los sistemas de IA deben ser justos y equitativos para todos los estudiantes, independientemente de su raza, género, origen étnico, o condición socioeconómica.
  • Privacidad y seguridad: Los datos de los estudiantes deben ser tratados de manera confidencial y segura.

Conclusioneseducativo.

LaSe IAhan tienerealizado elpublicaciones potencialespecíficas al respecto de transformarlas consideraciones éticas en la educación parade mejor.las Sinque embargo,se espueden importanteextraer abordaruna los desafíos éticosserie de puntos clave comunes, tanto a la IA educativa para garantizar que esta tecnología se utilicehora de formaplantear responsablelas ypreocupaciones ética.

como

Ejemplosen las recomendaciones de actividades de aprendizaje

  • Discusión: Los estudiantes pueden discutir los principios éticos de laactuación.

    IA

    Preocupaciones

    educativa.
  • Privacidad

  • Análisis: Los estudiantes pueden analizar casos de

    El uso de la IA educativaen desdeel unaámbito perspectivaeducativo ética.

  • supone
  • recopilar y analizar grandes cantidades de datos de los estudiantes. La recopilación y el uso de datos personales supone un Proyecto:riesgo para su privacidad, Lossi estudianteslos datos no se gestionan o protegen adecuadamente.

    Deshumanización del aprendizaje

    Un incremento paulatino del uso de la IA en la educación, pude traducirse en un perdida en la conexión interpersonal entre profesores y estudiantes. El exceso de automatización y el enfoque en la eficiencia pueden diseñarrestar unvalor sistemaa la experiencia educativa, dejando de lado aspectos importantes como la empatía, la creatividad y el pensamiento crítico.

    Sesgos y discriminación 

    Como ya hemos visto, los algoritmos de IA educativapueden estar sesgados debido a los datos con los que season ético.

  • entrenados.
Esto puede llevar a decisiones discriminatorias en la educación, afectando la calidad de la enseñanza, la orientación profesional y las oportunidades académicas de los estudiantes. Los sesgos implícitos en la IA pueden agravar las desigualdades existentes y generar situaciones injustas para ciertos grupos de estudiantes.

Dependencia excesiva

Una utilización indiscriminada de sistemas de IA en la esfera educativa, existe la posibilidad de que los alumnos lleguen a depender excesivamente de la tecnología, lo que podría menguar sus aptitudes para pensar de forma autónoma y resolver problemas por sí mismos. El abuso de la IA en la educación podría Recursoscomprometer adicionalesla independencia y el crecimiento intelectual de los estudiantes.

    Falta
  • de supervisión y control humano
  • A pesar de su considerable potencia, la IA aún presenta restricciones y puede cometer fallos. La ausencia de una supervisión y control humanos apropiados en la aplicación de la IA en entornos educativos podría resultar enUNESCO: imprecisiones o efectos negativos en el proceso de enseñanza-aprendizaje.

    Distracción tecnológica

    La presencia de tecnología de IA en el entorno escolar podría generar distracciones para los alumnos o provocar una dependencia excesiva de dispositivos y sistemas, lo que podría mermar su habilidad para enfocarse Guíen el contenido educativo y para interactuar de manera efectiva con sus compañeros y docentes.

    Recomendaciones

    También en el ámbito educativo las organismos e instituciones publicas y privadas han emitido informes guía con el propósito de establecer unos principios de actuación para el uso de la IA educativa. La UNESCO, como consecuencia del Consenso de Beijing, emitió el informe Inteligencia artificial: guía para las personas a cargo de formular políticas, en cuyo resumen inicial se cita :

    La inteligencia artificial (IA) tiene la capacidad de hacer frente a algunos de los mayores desafíos que afronta, hoy en día, el ámbito de la educación, de desarrollar prácticas de enseñanza y aprendizaje innovadoras y, finalmente, de acelerar el progreso en la consecución del Objetivo de Desarrollo Sostenible (ODS) 4. No obstante, estos avances tecnológicos rápidos implican inevitablemente numerosos riesgos y retos, que los debates sobre las políticas y los marcos reglamentarios tienen aún dificultades para superar. Esta publicación ofrece orientación a las personas a cargo de formular políticas sobre la mejor manera de aprovechar las oportunidades y enfrentar los riesgos que presenta la creciente conexión entre la IA y educación

  • AI Now Institute: Informe sobre la equidadeducación.

  • Todo el informe merece una lectura, si bien, en lael IA

  • OpenAI: Principios éticosámbito de larecomendaciones IA
  • para
el

Distribución de palabras

Introducción: 500 palabras

  • Definición de IA
  • Aplicacionesuso de la IA en educación
  •  en el que se enfoca el apartado de esta unidad, es el capítulo 6 del informe el que las detalla. La base de tales recomendaciones son cuatro objetivos estratégicos, si bien habrían de ser interpretados en función del contexto local:

    • DesafíosGarantizar éticosel uso inclusivo y equitativo de la IA educativaen la educación.
  • Hacer

    uso de la IA para mejorar la educación y el aprendizaje.

  • EticaPromover el desarrollo de habilidades para la vida en la IA:era 1000de palabras

    la
      IA,
    • Transparenciaincluyendo ela interpretabilidad
    • enseñanza
    • Justiciadel yfuncionamiento equidad
    • Privacidad y seguridad

    Etica ende la IA educativa:y 500sus palabras

    implicancias
    • Aplicación de los principios éticos apara la IA educativahumanidad.
    • EjemplosSalvaguardar de casos deel uso
    • Retostransparente y oportunidades

    Total: 2000 palabras

    Este guion es solo una sugerencia, y puede modificarse para adaptarse a las necesidades específicas del curso.

    • Transparencia e interpretabilidad: ¿Cómo podemos entender cómo funcionan los sistemas de IA?
    • Justicia y equidad: ¿Cómo podemos asegurarnos de que los sistemas de IA no sean discriminadores?
    • Privacidad y seguridad: ¿Cómo podemos proteger la privacidad y seguridadauditable de los datos de los estudiantes?educativos.

    Estos cuatro principios estratégicos son desarrollados en el informe en las siguientes Recursos adicionalesrecomendaciones:

    • UNESCO:Planificación interdisciplinaria y gobernanza intersectorial.
    • Guía para las personas a cargo de formular polí
    • Políticas sobre IAel uso equitativo, inclusivo y educación
    • AI Now Institute: Informe sobre la equidad en la IA
    • OpenAI: Principios éticostico de la IAIA.

  • ActividadesDesarrollo de aprendizaje

    un
      plan
    • Discusión:maestro Lospara estudiantesel pueden discutir los desafíos éticosuso de la IA educativa.en educación, en la gestión, enseñanza, aprendizaje y evaluación.
    • Análisis:Pruebas Lospiloto, estudiantesseguimiento puedeny analizarevaluación, casosasí como la creación de usouna realesbase de pruebas.
    • Promoción de las innovaciones locales de IA para la educación.

    Todos estos puntos están ampliamente desarrollados en el informe, incluyen ejemplos de iniciativas en curso y su lectura es recomendable para comprender las eventuales hojas de ruta a implantar por las instituciones educativas.

    A notro nivel, es necesario que los educadores tengan claras determinadas pautas que les permitan evitar o mitigar los riesgos inherentes a las preocupaciones antes detalladas. En este sentido, el siguiente video realizado por Code.org®, una organización sin fines de lucro dedicada a expandir la participación en ciencias de la IAcomputación, educativadesarrolla desderecomendaciones unaprácticas perspectivaexpresamente ética.

  • dirigidas a los docentes: 


      https://www.ibm.com/es-es/artificial-intelligence/ethics