Unidad 5.2. Consideraciones éticas.
Introducción
"Un gran poder conlleva una gran responsabilidad". Origen desconocido, atribuida a Damocles en el siglo I A.C., y que también se ha usado por políticos, periodistas y autores de ficción para sus personajes.
Esta cita encapsula la idea central de que la capacidad transformadora de la IA implica una obligación moral de usarla de manera que beneficie a la sociedad y evite los riesgos dañinos de un uso indebido. Al fin y al cabo se trata de una herramienta poderosa que mal utilizada puede llegar a ser muy perjudicial para la sociedad. En alguna ocasión se la ha comparado con la energía nuclear, capaz de proporcionar electricidad a gran escala con emisiones mínimas de carbono, mientras que manejada de manera incorrecta puede resultar en desastres catastróficos, como lo demuestran los accidentes de Chernobyl y Fukushima, además, la proliferación nuclear puede conducir a amenazas de seguridad global.
Como hemos ido descubriendo, en la era contemporánea, la Inteligencia Artificial ha permeado una multitud de sectores, redefiniendo la forma en que operan y creando un horizonte de posibilidades inexploradas. El sector educativo no es una excepción a esta transformación digital, donde la IA promete revolucionar la manera en que aprendemos y enseñamos. Sin embargo, junto con las promesas de eficiencia y personalización, emergen importantes cuestiones éticas que requieren una cuidadosa exploración y entendimiento.
La IA en educación tiene el potencial de personalizar y democratizar la enseñanza, optimizar los procesos administrativos liberando tiempo de los docentes para realizar tareas específicas del proceso de enseñanza-aprendizaje y la tutorización. También nos va a permitir disponer de un conocimiento valioso basado en el análisis de grandes conjuntos de datos. Sin embargo, la implementación de estas tecnologías conlleva responsabilidades éticas significativas. Los dilemas éticos relacionados con la privacidad, el sesgo, y la autonomía, entre otros, son cruciales y demandan una consideración seria por parte de todos los actores involucrados en el ámbito educativo.
Una serie de preguntas han de asaltarnos antes de lanzarnos a utilizar sistemas basados de IA en educación: ¿Cómo asegurarnos de que los sistemas de IA sean justos y equitativos? ¿Cómo podemos evitar que se utilicen para manipular o discriminar a los estudiantes? y muchas otras
El propósito de esta unidad es explorar la ética en el contexto de la IA en general, profundizando posteriormente en las implicancias éticas específicas cuando la IA se aplica en el escenario educativo. Comenzaremos con una discusión sobre los principales debates éticos que rodean a la IA, seguido de una exploración de cómo estos debates se traducen y tal vez se complejizan, en el contexto educativo.
Al finalizar esta unidad, tendrás una comprensión sólida de los desafíos éticos que plantea la IA en la educación, y estarás en disposición de abordar estos desafíos de manera responsable y efectiva. Se busca fomentar una reflexión crítica y proporcionar una base sólida para la implementación ética de la IA en la educación, contribuyendo así a un futuro educativo más inclusivo, justo y humanizado.
Veremos además como desde la irrupción de la IA a nivel global, instituciones públicas y privadas de alcance mundial han ahondado en la necesidad de garantizar que los desarrollos de IA tanto a nivel general como especialmente a nivel educativo se realicen dentro de un marco ético.
Ética en la IA
Una definición de ética nos dice que es una disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano. Por tanto la ética de la IA se centra en los principios morales que deben guiar el desarrollo y el uso de la IA.
Mas concretamente la ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados que de la inteligencia artificial se quieren obtener.
Las personas tienen todo tipo de sesgos cognitivos, como el sesgo de confirmación, el de arrastre, efecto halo, pensamiento de grupo y muchos otros. Estos sesgos están patentes en nuestros comportamientos y, por tanto, en nuestros datos. Los datos son la base de funcionamiento de los algoritmos de machine learning, por tanto es vital, tener esto en cuenta si no queremos que los algoritmos de IA nazcan nutridos de estos sesgos. De otro modo la inteligencia artificial tiene altas probabilidades de escalar estos sesgos humanos a un ritmo sin precedentes.
El big data, ha sido un acicate para que las empresas desarrollen sistemas cada vez mas automatizados capaces de tomar decisiones basadas en datos. Su intención primigenia, siendo generalmente entidades con ánimo de lucro, ha sido un incremento en los resultados, sin embargo en ocasiones están experimentando situaciones imprevistas, como consecuencia de una falta de investigación inicial, posterior control o a los sesgos subyacentes de los conjuntos de datos.
Obviamente, los errores conducen a correcciones y han surgido nuevas pautas de trabajo e investigaciones desde el campo de la ciencia de datos. Las empresas líderes en IA están interesadas también en establecer pautas éticas para su uso, ya que han experimentado directamente las consecuencias de no hacerlo. La falta de diligencia en esta área puede tener implicaciones legales y financieras, así como daños a la reputación. Como con cualquier avance tecnológico, la innovación en IA suele ir por delante de la regulación gubernamental. Si bien, la reacción no se ha hecho esperar demasiado y también diversas instituciones públicas a nivel mundial han emitido ya informes y pautas de recomendación sobre un uso ético de la IA.
Las preocupaciones manifestadas y las recomendaciones y principios comunes de actuación, tanto si provienen de instituciones privadas como públicas suelen tener puntos comunes:
Preocupaciones
Privacidad
Antes de la existencia de la IA, ya existía esta preocupación debido a la tecnología digital existente (internet, telefonía movil, hiperconectividad...). Sin embargo, la IA introduce nuevas dimensiones a estos riesgos o los amplifica. Estas nuevas dimensiones en cuanto a riesgos en la privacidad surgen de las supuestas bondades que la IA nos ofrece como:
Análisis predictivo y perfilación. La IA puede analizar grandes volúmenes de datos para predecir comportamientos y preferencias individuales con un alto grado de precisión. Esto permite una perfilación detallada que puede ser utilizada de manera invasiva o discriminatoria.
Reidentificación de datos anonimizados. Técnicas avanzadas de IA pueden desanonimizar datos que inicialmente fueron anonimizados, permitiendo la reidentificación de individuos, lo cual era mucho más difícil sin la IA.
Tecnologías de reconocimiento. La IA potencia tecnologías como el reconocimiento facial, de voz o de patrones de comportamiento, lo cual permite una vigilancia más invasiva y precisa en tiempo real.
Automatización de decisiones. La IA permite la toma de decisiones automatizadas basadas en datos personales, lo que puede resultar en discriminación o injusticia si los sistemas están sesgados o mal configurados, y esto puede ser más difícil de detectar o impugnar en comparación con decisiones tomadas por humanos.
Si bien, es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016 se instauró el Reglamento General de Protección de Datos (RGPD) con el objetivo de resguardar la información personal de los ciudadanos en la Unión Europea y el Espacio Económico Europeo, brindándoles más control sobre sus propios datos. En Estados Unidos, varios estados han estado formulando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que exige a las empresas ser transparentes sobre cómo recopilan la información del consumidor. Estas nuevas legislaciones han impulsado a las empresas a reconsiderar sus prácticas de almacenamiento y uso de los datos de identificación personal (PII). Como consecuencia, la inversión en seguridad se ha catapultado como una prioridad para las empresas en su esfuerzo por mitigar cualquier vulnerabilidad y prevenir la vigilancia, hackeos y ciberataques.
Sesgo y discriminación
Los casos de sesgo y discriminación detectados en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? En principio, las empresas ponen sus mejores intenciones en sus iniciativas de automatización, pero hay diversos informes y casos concretos que evidencian que no siempre tienen éxito. Por ejemplo Reuters destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.
El sesgo y la discriminación no se encuentran únicamente en los sistemas de contratación, también están presentes otras aplicaciones de la IA, como reconocimiento facial o los algoritmos de redes sociales.
Con el creciente entendimiento de los riesgos asociados con la IA, las corporaciones están participando más activamente en las discusiones relativas a la ética y los valores de la IA. Por ejemplo, Arvind Krishna, el director ejecutivo de IBM, declaró que la empresa ha retirado sus productos de análisis y reconocimiento facial de uso general, subrayando que:
"IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia". Arvind Krishna, CEO IBM
Impacto de la IA en el empleo
La inquietud pública sobre la IA suele enfocarse en la pérdida de empleos, pero hay motivos para pensar que debería replantearse. el enfoque. Cada avance tecnológico altera la demanda laboral en ciertos sectores. Por ejemplo, en la industria automotriz, las principales marcas se están inclinando hacia los vehículos eléctricos acorde a tendencias ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. a inteligencia artificial puede mirarse bajo el mismo prisma. La IA reconfigurará la demanda laboral hacia otras áreas, necesitando por ejemplo trabajadores para gestionar estos sistemas y resolver problemas complejos en sectores como el servicio al cliente, adaptándose así a las nuevas exigencias del mercado.
Responsabilidad
Dado que por el momento no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo para garantizar prácticas éticas de IA. Actualmente los únicos incentivos para que las empresas sigan unas directrices éticas son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. Como sustituto de esta carencia, se han realizado tentativas de encauzar el desarrollo de la IA mediante diversos comunicados y cartas abiertas de algunos de los pioneros y desarrolladores destacados en este campo, como la carta: Pause Giant AI Experiments: An Open Letter en la que varios de los principales actores en el campo de la IA y mas de un millar de expertos solicitaban frenar los desarrollo de IA hasta que existiera un consenso sobre el desarrollo y el uso de la misma.
También han surgido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, como ejemplo este estudio de la Universidad de Tubinga en Alemania (Centro Internacional para la Ética en Ciencias y Humanidades): The Ethics of AI Ethics. El estudio aborda la proliferación de guías éticas en respuesta al rápido desarrollo y aplicación de sistemas de inteligencia artificial. Sin embargo, según el mismo, estas guías, solo sirven de momento como recomendaciones. El estudio no proporciona un análisis optimista sobre la eficacia de las guías éticas analizadas para gobernar el desarrollo de modelos de IA en la sociedad. Por lo tanto, concluye, aunque se han establecido marcos éticos, su implementación práctica y su capacidad para mitigar los riesgos asociados con la IA aún están en una fase inicial, sirviendo más como una guía que como una regulación efectiva.
Recomendaciones
Las preocupaciones expuestas han llevado, como se ha adelantado a la emisión de comunicados e informes por parte de organismos e instituciones encaminadas a recomendar pautas éticas en el desarrollo de modelos de IA así como a guiar el uso ético de la misma.
Muchos de estos informes vienen a concluir en una serie de puntos clave. Extraemos como ejemplo los cuatro aspectos que del informe: Directrices éticas para una IA fiable, publicado en abril del 2019 por la Comisión Europea y desarrollado por un grupo de expertos de alto nivel. En este estudio se concreta la visión europea sobre la IA. De acuerdo con estas directrices, Europa tiene que investigar y desarrollar una IA fiable, es decir, lícita, ética y robusta.
Los cuatro principios éticos identificados en las directrices son:
- Principio de respeto a la autonomía humana: Este principio valora y quiere preservar la capacidad de las personas para tomar decisiones independientes, asegurando que la IA no manipule, engañe o reduzca la libertad de elección de los individuos.
- Principio de prevención de los daños: Prioriza la identificación y mitigación de los riesgos y daños potenciales que pueden surgir del uso de la IA, promoviendo el bienestar y la seguridad de las personas y comunidades.
- Principio de equidad: Promueve la justicia y la igualdad en el acceso y los beneficios de la IA, además de abordar y corregir los sesgos sistémicos para evitar la discriminación.
- Principio de explicabilidad: Asegura que las decisiones tomadas por sistemas de IA sean comprensibles y rastreables para los usuarios y partes interesadas, permitiendo una mejor comprensión y la clara identificación de responsabilidades.
En relación con recomendaciones éticas en la aplicación de la IA a nivel general puedes leer también el informe emitido por la ONU: Recomendación sobre la ética de la inteligencia artificial
XXVideo chema alonso
Ética en la IA educativa (instituciones, profesorado, alumnado)
xxxaqui el video de Kai Fu LeeXX
Los principios éticos de la IA se aplican también a la IA educativa. En este contexto, los principios éticos clave incluyen:
- Transparencia e interpretabilidad: Los estudiantes tienen derecho a entender cómo funcionan los sistemas de IA que se utilizan para su aprendizaje.
- Justicia y equidad: Los sistemas de IA deben ser justos y equitativos para todos los estudiantes, independientemente de su raza, género, origen étnico, o condición socioeconómica.
- Privacidad y seguridad: Los datos de los estudiantes deben ser tratados de manera confidencial y segura.
Conclusiones
La IA tiene el potencial de transformar la educación para mejor. Sin embargo, es importante abordar los desafíos éticos de la IA educativa para garantizar que esta tecnología se utilice de forma responsable y ética.
Ejemplos de actividades de aprendizaje
- Discusión: Los estudiantes pueden discutir los principios éticos de la IA educativa.
- Análisis: Los estudiantes pueden analizar casos de uso de la IA educativa desde una perspectiva ética.
- Proyecto: Los estudiantes pueden diseñar un sistema de IA educativa que sea ético.
Recursos adicionales
- UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
- AI Now Institute: Informe sobre la equidad en la IA
- OpenAI: Principios éticos de la IA
Distribución de palabras
Introducción: 500 palabras
- Definición de IA
- Aplicaciones de la IA en educación
- Desafíos éticos de la IA educativa
Etica en la IA: 1000 palabras
- Transparencia e interpretabilidad
- Justicia y equidad
- Privacidad y seguridad
Etica en la IA educativa: 500 palabras
- Aplicación de los principios éticos a la IA educativa
- Ejemplos de casos de uso
- Retos y oportunidades
Total: 2000 palabras
Este guion es solo una sugerencia, y puede modificarse para adaptarse a las necesidades específicas del curso.
- Transparencia e interpretabilidad: ¿Cómo podemos entender cómo funcionan los sistemas de IA?
- Justicia y equidad: ¿Cómo podemos asegurarnos de que los sistemas de IA no sean discriminadores?
- Privacidad y seguridad: ¿Cómo podemos proteger la privacidad y seguridad de los datos de los estudiantes?
Recursos adicionales
- UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
- AI Now Institute: Informe sobre la equidad en la IA
- OpenAI: Principios éticos de la IA
Actividades de aprendizaje
- Discusión: Los estudiantes pueden discutir los desafíos éticos de la IA educativa.
- Análisis: Los estudiantes pueden analizar casos de uso reales de la IA educativa desde una perspectiva ética.
https://www.ibm.com/es-es/artificial-intelligence/ethics