Unidad 5.2. Consideraciones éticas.
Introducción
Como hemos ido descubriendo, en la era contemporánea, la Inteligencia Artificial ha permeado una multitud de sectores, redefiniendo la forma en que operan y creando un horizonte de posibilidades inexploradas. El sector educativo no es una excepción a esta transformación digital, donde la IA promete revolucionar la manera en que aprendemos y enseñamos. Sin embargo, junto con las promesas de eficiencia y personalización, emergen importantes cuestiones éticas que requieren una cuidadosa exploración y entendimiento.
La IA en educación tiene el potencial de personalizar y democratizar la enseñanza, optimizar los procesos administrativos liberando tiempo de los docentes para realizar tareas específicas del proceso de enseñanza-aprendizaje y la tutorización. También nos va a permitir disponer de un conocimiento valioso basado en el análisis de grandes conjuntos de datos. Sin embargo, la implementación de estas tecnologías conlleva responsabilidades éticas significativas. Los dilemas éticos relacionados con la privacidad, el sesgo, y la autonomía, entre otros, son cruciales y demandan una consideración seria por parte de todos los actores involucrados en el ámbito educativo.
Una serie de preguntas han de asaltarnos antes de lanzarnos a utilizar sistemas basados de IA en educación: ¿Cómo asegurarnos de que los sistemas de IA sean justos y equitativos? ¿Cómo podemos evitar que se utilicen para manipular o discriminar a los estudiantes? y muchas otras
El propósito de esta unidad es explorar la ética en el contexto de la IA en general, profundizando posteriormente en las implicancias éticas específicas cuando la IA se aplica en el escenario educativo. Comenzaremos con una discusión sobre los principales debates éticos que rodean a la IA, seguido de una exploración de cómo estos debates se traducen y tal vez se complejizan, en el contexto educativo.
Al finalizar esta unidad, tendrás una comprensión sólida de los desafíos éticos que plantea la IA en la educación, y estarás en disposición de abordar estos desafíos de manera responsable y efectiva. Se busca fomentar una reflexión crítica y proporcionar una base sólida para la implementación ética de la IA en la educación, contribuyendo así a un futuro educativo más inclusivo, justo y humanizado.
Veremos además como desde la irrupción de la IA a nivel global, instituciones públicas y privadas de alcance mundial han ahondado en la necesidad de garantizar que los desarrollos de IA tanto a nivel general como especialmente a nivel educativo se realicen dentro de un marco ético.
Ética en la IA
Una definición de ética nos dice que es una disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano. Por tanto la ética de la IA se centra en los principios morales que deben guiar el desarrollo y el uso de la IA.
Mas concretamente la ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados que de la inteligencia artificial se quieren obtener.
Las personas tienen todo tipo de sesgos cognitivos, como el sesgo de confirmación, el de arrastre, efecto halo, pensamiento de grupo y muchos otros. Estos sesgos están patentes en nuestros comportamientos y, por tanto, en nuestros datos. Los datos son la base de funcionamiento de los algoritmos de machine learning, por tanto es vital, tener esto en cuenta si no queremos que los algoritmos de IA nazcan nutridos de estos sesgos. De otro modo la inteligencia artificial tiene altas probabilidades de escalar estos sesgos humanos a un ritmo sin precedentes.
El big data, ha sido un acicate para que las empresas desarrollen sistemas cada vez mas automatizados capaces de tomar decisiones basadas en datos. Su intención primigenia, siendo generalmente entidades con ánimo de lucro, ha sido un incremento en los resultados, sin embargo en ocasiones están experimentando situaciones imprevistas, como consecuencia de una falta de investigación inicial, posterior control o a los sesgos subyacentes de los conjuntos de datos.
Obviamente, los errores conducen a correcciones y han surgido nuevas pautas de trabajo e investigaciones desde el campo de la ciencia de datos. Las empresas líderes en IA están interesadas también en establecer pautas éticas para su uso, ya que han experimentado directamente las consecuencias de no hacerlo. La falta de diligencia en esta área puede tener implicaciones legales y financieras, así como daños a la reputación. Como con cualquier avance tecnológico, la innovación en IA suele ir por delante de la regulación gubernamental. Si bien, la reacción no se ha hecho esperar demasiado y también diversas instituciones públicas a nivel mundial han emitido ya informes y pautas de recomendación sobre un uso ético de la IA.
Las preocupaciones manifestadas y las recomendaciones y principios comunes de actuación, tanto si provienen de instituciones privadas como públicas suelen tener puntos comunes:
Preocupaciones
Privacidad
Antes de la existencia de la IA, ya existía esta preocupación debido a la tecnología digital existente (internet, telefonía movil, hiperconectividad...). Sin embargo, la IA introduce nuevas dimensiones a estos riesgos o los amplifica. Estas nuevas dimensiones en cuanto a riesgos en la privacidad surgen de las supuestas bondades que la IA nos ofrece como:
Análisis predictivo y perfilación. La IA puede analizar grandes volúmenes de datos para predecir comportamientos y preferencias individuales con un alto grado de precisión. Esto permite una perfilación detallada que puede ser utilizada de manera invasiva o discriminatoria.
Reidentificación de datos anonimizados. Técnicas avanzadas de IA pueden desanonimizar datos que inicialmente fueron anonimizados, permitiendo la reidentificación de individuos, lo cual era mucho más difícil sin la IA.
Tecnologías de reconocimiento. La IA potencia tecnologías como el reconocimiento facial, de voz o de patrones de comportamiento, lo cual permite una vigilancia más invasiva y precisa en tiempo real.
Automatización de decisiones. La IA permite la toma de decisiones automatizadas basadas en datos personales, lo que puede resultar en discriminación o injusticia si los sistemas están sesgados o mal configurados, y esto puede ser más difícil de detectar o impugnar en comparación con decisiones tomadas por humanos.
Si bien, es en estos campos donde los creadores de políticas han podido hacer más avances en los últimos años. Por ejemplo, en 2016 se instauró el Reglamento General de Protección de Datos (RGPD) con el objetivo de resguardar la información personal de los ciudadanos en la Unión Europea y el Espacio Económico Europeo, brindándoles más control sobre sus propios datos. En Estados Unidos, varios estados han estado formulando políticas, como la Ley de Privacidad del Consumidor de California (CCPA), que exige a las empresas ser transparentes sobre cómo recopilan la información del consumidor. Estas nuevas legislaciones han impulsado a las empresas a reconsiderar sus prácticas de almacenamiento y uso de los datos de identificación personal (PII). Como consecuencia, la inversión en seguridad se ha catapultado como una prioridad para las empresas en su esfuerzo por mitigar cualquier vulnerabilidad y prevenir la vigilancia, hackeos y ciberataques.
XXXSesgo y discriminación
Los casos de sesgo y discriminación detectados en varios sistemas inteligentes han planteado muchas preguntas éticas sobre el uso de la inteligencia artificial. ¿Cómo podemos protegernos contra el sesgo y la discriminación cuando los propios datos de entrenamiento pueden estar sesgados? En principio, las empresas ponen sus mejores intenciones en sus iniciativas de automatización, pero hay diversos informes y casos concretos que evidencian que no siempre tienen éxito. Por ejemplo Reuters destaca algunas de las consecuencias imprevistas de incorporar la IA en las prácticas de contratación. En su esfuerzo por automatizar y simplificar un proceso, Amazon involuntariamente sesgó los posibles candidatos a un trabajo por género para puestos técnicos libres y, en última instancia, tuvieron que desechar el proyecto. A medida que se descubren sucesos como este, Harvard Business Review ha planteado otras cuestiones sobre el uso de la IA en las prácticas de contratación como, por ejemplo, qué datos se deberían poder utilizar al evaluar a un candidato para un puesto.
El sesgo y la discriminación no se encuentran únicamente en los sistemas de contratación, también están presentes otras aplicaciones de la IA, como reconocimiento facial o los algoritmos de redes sociales.
A medida que las empresas se vuelven más conscientes de los riesgos de la IA, se han vuelto más activas en este debate sobre la ética y los valores de la IA. Por ejemplo, el año pasado, el CEO de IBM, Arvind Krishna, anunció que IBM ha desechado sus productos de análisis y reconocimiento facial de IBM de uso general, enfatizando que "IBM se opone firmemente y no tolerará los usos de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, la creación de perfiles raciales, las violaciones de derechos humanos y otras libertades básicas, o cualquier propósito que no concuerde con nuestros valores y Principios de confianza y transparencia".
Impacto de la IA sobre los puestos de trabajo
La inquietud pública sobre la IA suele enfocarse en la pérdida de empleos, pero hay motivos para pensar que debería replantearse. el enfoque. Cada avance tecnológico altera la demanda laboral en ciertos sectores. Por ejemplo, en la industria automotriz, las principales marcas se están inclinando hacia los vehículos eléctricos acorde a tendencias ecológicas. La industria energética no va a desaparecer, pero la fuente de energía está cambiando de una economía basada en el combustible a otra eléctrica. a inteligencia artificial puede mirarse bajo el mismo prisma. La IA reconfigurará la demanda laboral hacia otras áreas, necesitando por ejemplo trabajadores para gestionar estos sistemas y resolver problemas complejos en sectores como el servicio al cliente, adaptándose así a las nuevas exigencias del mercado.
Responsabilidad
Dado que no hay una legislación significativa para regular las prácticas de IA, no existe ningún mecanismo de ejecución real para garantizar prácticas éticas de IA. Los incentivos actuales para que las empresas sigan estas directrices son las repercusiones negativas que un sistema de IA poco ético puede tener en el resultado final. Para cubrir esta carencia, han emergido marcos éticos como parte de una colaboración entre expertos en ética e investigadores para gobernar la construcción y distribución de modelos de IA dentro de la sociedad. No obstante, por ahora, solo sirven como guía, y un estudio (enlace externo a ibm.com) (PDF, 1 MB) muestra que la combinación de la responsabilidad distribuida y la falta de previsión de las posibles consecuencias no es necesariamente buena para prevenir el daño en la sociedad.
Singularidad tecnológica
A pesar del revuelo público al respecto, muchos expertos no ven cercana la amenaza de una IA que supere a la humanidad, lo que Nick Bostrum llama "superinteligencia". Aunque estamos lejos de eso, los coches autónomos ya nos hacen preguntarnos cosas como, si hay un accidente, ¿quién es el responsable? ¿Avanzamos hacia la autonomía total o nos quedamos con vehículos semiautónomos para más seguridad? Este tipo de dilemas éticos brotan con cada nuevo avance en IA.
Recomendaciones
XXX Listados en genially de preocupaciones y principios comunes de todas las organizaciones/instituciones para un desarrollo y gobierno etico de la IA
En relación con recomendaciones éticas en la aplicación de la IA a nivel general puedes leer el informe emitido por la ONU: Recomendación sobre la ética de la inteligencia artificial
Referencias a documentos UNESCO ONU o UE E IBM y Open AI (como una de las empresas pioneras y de desarollo) y video IBM XXX
XXVideo chema alonsoXXvideo kai fu lee en etica educa
Etica en la IA educativa (instituciones, profesorado, alumnado) xxxaqui el video de Kai Fu LeeXX
Los principios éticos de la IA se aplican también a la IA educativa. En este contexto, los principios éticos clave incluyen:
- Transparencia e interpretabilidad: Los estudiantes tienen derecho a entender cómo funcionan los sistemas de IA que se utilizan para su aprendizaje.
- Justicia y equidad: Los sistemas de IA deben ser justos y equitativos para todos los estudiantes, independientemente de su raza, género, origen étnico, o condición socioeconómica.
- Privacidad y seguridad: Los datos de los estudiantes deben ser tratados de manera confidencial y segura.
Conclusiones
La IA tiene el potencial de transformar la educación para mejor. Sin embargo, es importante abordar los desafíos éticos de la IA educativa para garantizar que esta tecnología se utilice de forma responsable y ética.
Ejemplos de actividades de aprendizaje
- Discusión: Los estudiantes pueden discutir los principios éticos de la IA educativa.
- Análisis: Los estudiantes pueden analizar casos de uso de la IA educativa desde una perspectiva ética.
- Proyecto: Los estudiantes pueden diseñar un sistema de IA educativa que sea ético.
Recursos adicionales
- UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
- AI Now Institute: Informe sobre la equidad en la IA
- OpenAI: Principios éticos de la IA
Distribución de palabras
Introducción: 500 palabras
- Definición de IA
- Aplicaciones de la IA en educación
- Desafíos éticos de la IA educativa
Etica en la IA: 1000 palabras
- Transparencia e interpretabilidad
- Justicia y equidad
- Privacidad y seguridad
Etica en la IA educativa: 500 palabras
- Aplicación de los principios éticos a la IA educativa
- Ejemplos de casos de uso
- Retos y oportunidades
Total: 2000 palabras
Este guion es solo una sugerencia, y puede modificarse para adaptarse a las necesidades específicas del curso.
- Transparencia e interpretabilidad: ¿Cómo podemos entender cómo funcionan los sistemas de IA?
- Justicia y equidad: ¿Cómo podemos asegurarnos de que los sistemas de IA no sean discriminadores?
- Privacidad y seguridad: ¿Cómo podemos proteger la privacidad y seguridad de los datos de los estudiantes?
Recursos adicionales
- UNESCO: Guía para las personas a cargo de formular políticas sobre IA y educación
- AI Now Institute: Informe sobre la equidad en la IA
- OpenAI: Principios éticos de la IA
Actividades de aprendizaje
- Discusión: Los estudiantes pueden discutir los desafíos éticos de la IA educativa.
- Análisis: Los estudiantes pueden analizar casos de uso reales de la IA educativa desde una perspectiva ética.