inteligencia artificial

En la intersección de la tecnología y la ética, la Inteligencia Artificial (IA) se alza como una fuerza transformadora que redefine nuestras vidas en formas inimaginables. Desde la omnipresencia de la publicidad personalizada hasta la automatización de procesos en todo tipo de industria, la IA ha demostrado ser una herramienta poderosa y eficaz. Sin embargo, con ese poder surgen una serie de desafíos éticos que deben ser abordados para garantizar que la tecnología trabaje en armonía con nuestros valores éticos fundamentales. Este es el resumen del discurso de ingreso como Académica Numeraria en la Real Academia Europea de Doctores de Cecilia Kindelán Amorrich, experta en comunicación, que señala la necesidad de una regulación que garantice un uso equitativo y beneficioso de la IA.

La IA y los macrodatos se han convertido en las palancas maestras de cambio en diversos campos, desde la educación hasta la sanidad. “La IA está cambiando profundamente todos los aspectos de la sociedad y tiene un importante potencial para generar un crecimiento económico sostenible y ayudarnos a afrontar los retos más acuciantes del Siglo XXI”, tal como señala en su discurso de ingreso Cecilia Kindelán titulado La inteligencia artificial y la ética: navegando por los desafíos del futuro. Sin embargo, estos avances no están exentos de desafíos éticos significativos, los riesgos inherentes a la IA son múltiples y complejos:

  1. Manipulación de la opinión pública y procesos electorales: Los algoritmos pueden ser utilizados para influir en la opinión pública y afectar procesos democráticos.
  2. Sesgos humanos en algoritmos: Dado que los algoritmos son creados por humanos, pueden reflejar los sesgos de sus creadores, lo que puede llevar a resultados subjetivos.
  3. Falta de transparencia: La falta de claridad en cómo se desarrollan y utilizan los algoritmos plantea preocupaciones sobre el control y la rendición de cuentas.
  4. Violación de la privacidad: La recopilación masiva de datos personales plantea serias preguntas sobre la privacidad y el uso de información sensible.
  5. Explotación laboral: Los trabajadores en países subdesarrollados que entrenan los sistemas de IA a menudo reciben salarios bajos y condiciones precarias.
  6. Impacto ambiental: Los enormes servidores necesarios para alimentar la IA generan una huella de carbono significativa.
  7. Falta de veracidad: La IA podría generar contenido falso y desinformación.
  8. Manipulación de sesgos: Los algoritmos pueden ser corrompidos para servir intereses particulares.
  9. Disrupción laboral: La automatización de trabajos puede eliminar puestos poco cualificados o altamente especializados.
  10. Concentración de poder: Grandes empresas tecnológicas pueden monopolizar el mercado de IA.

“Europa ha liderado el camino en la regulación ética con el Reglamento General de Protección de Datos de la IA”

La seguridad y responsabilidad son primordiales para mitigar estos riesgos. La formación adecuada de desarrolladores y la supervisión gubernamental de las aplicaciones de IA son esenciales.

La privacidad y seguridad de los datos también son preocupaciones cruciales. Los datos son valiosos, y su circulación es necesaria para el progreso. Pero debe garantizarse la protección de la intimidad. Los principios éticos, aunque aún en evolución, incluyen la autonomía, la justicia, la generación de beneficios y la prevención del daño.

El impacto socioeconómico es innegable. Políticas de regulación de almacenamiento y gestión de datos son necesarias, así como restricciones a prácticas de marketing poco éticas que explotan nuestras vulnerabilidades.

“Los datos son valiosos, y su circulación es necesaria para el progreso. Pero debe garantizarse la protección de la intimidad”

Marco regulatorio

Europa ha liderado el camino en la regulación ética de la IA, con el Reglamento General de Protección de Datos de la IA. La ética ancestral se convierte en un faro para guiar la tecnología futura.

El marco regulatorio es crucial. Debemos codificar nuestros derechos sobre los datos y el conocimiento generados por la IA para prevenir la concentración de poder. La autorregulación ha demostrado ser insuficiente; una regulación sólida y participativa es esencial.

En resumen, la IA nos desafía a equilibrar su poder con nuestros valores. Comprender cómo funcionan los algoritmos nos hace conscientes de los riesgos y oportunidades. La regulación garantiza un uso equitativo y beneficioso de la IA. Debemos liderar la tecnología para que no nos domine, manteniendo el control en manos humanas. Como dice la Dra. Cecilia Kindelán Amorrich, “la clave de todo está en que seamos nosotros quienes controlemos a la tecnología y no la tecnología quien nos controle a nosotros”.

Fuentes

Cecilia Kindelán Amorrich (2023) La inteligencia artificial y la ética: navegando por los desafíos del futuro. Colección Real Academia Europea de Doctores. ISBN: 978-84-09-52491-4. (Pag 62-112)

Cecilia Kindelán Amorrich es Doctora en Comunicación por la Universidad de Las Palmas de Gran Canaria licenciada en Ciencias de la Información y en Derecho por la Universidad Complutense de Madrid y la Universidad a Distancia y Magister en diferentes Másteres. Es  experta en formación en temas de comunicación, networking, ética empresarial y liderazgo.

Trabajó en IESE Business School como directora asociada del programa MBA y como directora de su programa internacional de intercambio. Anteriormente fue subdirectora de la Asociación Española de Directivos. Después de trabajar 10 años en Universia, trabajó en la Universidad Saint-Paul (Canadá) y fue profesora y directora de postgrados en la Universidad Internacional SEKA (Ecuador). 

En la actualidad ahora es Directora Nacional del Executive MBA program y del Programa de desarrollo de directivos en la ESIC Business and Marketing School.

cecilia-kindelan