Daniel Meza

Editor Jefe

¿Será ética la inteligencia artificial?

La ética de la inteligencia artificial genera especial preocupación en quienes aspiran a trabajar con ella en el futuro.
Pixabay

 

En un mundo digital en el que las filtraciones de datos son un riesgo latente y en el que la posibilidad de emplear datos para fines oscuros se convierte en una herramienta al alcance de campañas políticas y publicitarias –el sueño más húmedo de Goebbels y de cualquier sistema totalitario–, un tema que preocupa a las personas, organizaciones y gobiernos es si las nuevas tecnologías obedecerán a principios éticos o si su alcance y potencial será ‘regulable’.

Que la inteligencia artificial (IA) y el machine learning (ML) tengan el poder de tomar decisiones autónomas genera un nuevo nivel de preocupación, lo que obliga que la IA sea explicable y comprensible, y que alguien nos garantice que el sistema de IA esté funcionando de forma ética y justa.

De ahí que la propuesta del científico de datos chileno César Hidalgo –la de reemplazar a nuestros políticos por la IA– pueda generar complicaciones y dudas al aplicarse en un futuro. Para la firma Gartner, en su informe sobre las 10 tendencias tecnológicas estratégicas de la década, la transparencia y el seguimiento son elementos críticos para defender la nueva ética que demandará la humanidad con los nuevos avances digitales, además de las nuevas necesidades de privacidad al ser expuesta nuestra información privada más que nunca en la historia.  

Entre una serie de acciones requeridas para garantizar estos valores en las que todas las organizaciones deberían reparar, de acuerdo a la multinacional:

▶ Ética: la existencia de una ética y moral sobre el uso de información privada, algoritmos y sistemas más allá de las regulaciones.

▶ Integridad: un historial en el diseño de mecanismos para prevenir o reducir el sesgo y el uso inapropiado de datos privados.

▶ Apertura: principios éticos y compromisos accesibles y claros para todos, y con impacto en la toma de decisiones.

▶ Rendición de cuentas: mecanismos de testeo y auditorías que permitan evaluar cómo se respeta la privacidad o las preocupaciones éticas

▶ Competencia: existencia de procesos y entrenamientos que permitan que los individuos de la organización se sientan cómodos con el respeto por la la ética y la privacidad.

▶ Consistencia: aplicación de procesos constantemente

 

Que la inteligencia artificial (IA) y el machine learning (ML) tengan el poder de tomar decisiones autónomas genera un nuevo nivel de preocupación, lo que obliga que la IA sea explicable y comprensible, y que alguien nos garantice que el sistema de IA esté funcionando de forma ética y justa.

 

Algoritmos bajo la lupa

Si tuviésemos un foco malogrado, dispondríamos de una serie de soluciones ordenadas por prioridad para resolver el problema: revisar el interruptor, luego ver con detenimiento la bombilla y finalmente, si es que esta está quemada, cambiarla. En matemáticas o lógica, esto constituye un algoritmo: un conjunto de modos o acciones que nos permiten solucionar un problema.

La cuestión se complejiza cuando este conjunto de acciones están destinadas a resolver problemas con seres humanos, como lo hacen las organizaciones: decisiones de interés público, reclutamiento, compra y venta de productos o servicios, aplicar o no para un préstamo, arriesgarse o no a un negocio, qué se puede o no puede ver en internet, e incluso enviar a alguien a la cárcel u ordenar la pena de muerte.

Si llevamos todo al plano de la IA, igualmente, las decisiones sesgadas generalmente son decisiones incorrectas y por supuesto, generan malestar y caos. Organizaciones y gobiernos pueden enfrentar crisis por malas decisiones (sean de humanos o máquinas), pero en el caso de las últimas, la incapacidad de explicar el porqué de estas decisiones puede llevar a un nudo ciego en la corte.

¿Qué pasaría si es que una IA mantiene, por ejemplo, un sesgo racial u otras formas de discriminación? Actualmente existen algoritmos opacos (cuyos procesos son dificilmente comprensibles) como las redes neuronales profundas (DNNs), donde las decisiones son tomadas sin mayor control. Por ello, actualmente, la comunidad IA está actualmente preocupada por transparentar todas las decisiones automatizadas.

 

¿Para qué aspirar a una IA que rinda cuentas?

Muy similar al comportamiento humano, una IA sesgada causa polarización en las opiniones políticas, creencias anticuadas y decisiones de negocios en falso. Una IA explicable podría escrutinar un modelo, mantener sus fortalezas y atacar sus debilidades, mejorando así la toma de decisiones.

Con estas capacidades, el concepto de un gobierno de IA sería más real y factible. Entender el por qué de los sesgos o la toma de decisiones de una IA fortalecerá la regulación, reputación, rendición de cuentas y justicia en todo sentido.

Hacia el 2025, predice la firma citada, un 30% de gobiernos y trasnacionales consumidores de productos de IA requerirán de una AI ética y con capacidad de someterse a revisiones.

 

La IA…¿respetará nuestra privacidad?

El escándalo de Cambridge Analytica y Facebook nos da una pizca de noción de cómo las organizaciones tienen en sus manos información privada, caldo de cultivo para manipulacion masiva de cualquier tipo. Con la multipliación de capacidades de la IA en el manejo de big data…¿la situación mejorará?

Vivimos tiempos en que el reconocimiento facial, el reconocimiento automático de placas, los sensores de biomarcadores (al nivel de medir el ritmo cardíaco de personas alrededor de un crimen) proliferan y están a merced de organizaciones como la Policía, los gobiernos y las empresas. Muchos hoy saben quién eres, dónde estás, qué haces e incluso qué piensas.

Por ello, nos asomamos a tiempos en que la confianza se volverá un valor fundamental, ya que la información privada tiene un gran valor, y las personas estamos tomando consciencia de que debemos protegerla. Algunos optarán por servicios que preserven el anonimato como las máscaras VPN para ocultar la localización, el pago con bitcoin, o apelarán al Derecho a Ser Olvidado (RTBF), que ya existe en ciertos países como Europa, Sudáfrica y China.

Las organizaciones que usen mal los datos de sus clientes perderán la confianza de ellos y decaerán, quienes la cuiden y preserven esta confianza, prevalecerán y generarán mayores ganancias.

Como ejemplos de avances en ambos aspectos clave, en la última década, la Unión Europea (UE) propuso el Reglamento General de Protección de Datos, multando hasta con un 4% de los ingresos globales anuales, la más alta en su historia. También el Reino Unido tomó tomando acciones al respecto: los británicos investigan, en el Centro para la Ética en la Información y la Innovación, el sesgo en los algoritmos para la industria de servicios financieros.

 

 

Daniel Meza

Esta noticia ha sido publicada originalmente en N+1, tecnología que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, tecnología que sumawww.nmas1.org”.​

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.