La Inteligencia Artificial (IA) se ha convertido en un elemento más de nuestras vidas, con una presencia cada vez más evidente y que en un futuro muy próximo estará en la base de muchas de las decisiones que tomemos o que tomen sobre nosotros (financieras, sanitarias, judiciales…).
Esta presencia e importancia creciente, merece una reflexión profunda sobre los cambios que introducirá en nuestras sociedades, porque, de lo contrario, cuando esas transformaciones se conviertan en una realidad, nos encontraremos inermes para gestionarlas.
Cada día somos más conscientes de que son muchos los aspectos que se están viendo afectados por la irrupción de la IA en las sociedades actuales: sociales, laborales, legales, éticos, de seguridad… Cada uno de estos aspectos, por si solos, suponen una transformación radical en cada uno de los ámbitos afectados, pero cuando tomamos todos ellos en su conjunto, intuimos la aparición de nuevos modelos sociales y económicos que difícilmente somos capaces de explicar. Por eso, es fundamental que reflexionemos y regulemos las implicaciones de la IA antes de que sean una realidad.
Nos enfrentamos a dos aspectos muy preocupante de la IA, que incluso ponen en duda el concepto que hasta hoy tenemos de la inteligencia humana: el aprendizaje profundo y las cajas negras.
El desarrollo actual de los sistemas de IA se basa en los procesos de aprendizaje profundo (machine learning), es decir, sistemas diseñados para aprender por sí mismos y de forma automática. Cuando decimos que los sistemas aprenden automáticamente, nos referimos a que son capaces de identificar patrones complejos entre millones de datos y de elaborar un conjunto de fórmulas matemáticas y comandos de programación que constituyen las reglas que les permiten aprender cómo descubrir cosas por su cuenta, es decir, un algoritmo, que revisa los datos siendo capaz de predecir comportamientos futuros y lo hace automáticamente, lo que implica que estos sistemas mejoran con el tiempo sin intervención humana.
Por otro lado, nos enfrentamos a la aparición de las denominadas cajas negras (black box), sistemas de IA ,basadas en el aprendizaje profundo, cuyo funcionamiento interno, por su alto grado de complejidad, no es capaz de entender el ser humano o que por razones comerciales, mantiene su funcionamiento en secreto.
La capacidad de autoprogramación y de aprendizaje profundo de las máquinas actuales está comenzando, sin embargo, ya somos conscientes de que no somos capaces de entender cómo llevan a cabo estos procesos. La complejidad creciente de los algoritmos utilizados en el aprendizaje profundo hace que la capacidad de la mente humana para entender los procedimientos usados sea cada vez menor, llegando a la imposibilidad de entenderlos.
Esta falta de capacidad de los humanos para entender estos procesos genera las cajas negras, es decir, somos capaces de saber qué hace una máquina, pero no somos capaces de saber cómo lo hace. Sólo somos capaces de valorar la aportación de la máquina en términos de calidad de sus resultados pero no del proceso realizado para alcanzarlos.
La obtención de resultados por parte de una caja negra nos plantea una serie de cuestiones para las que debemos encontrar respuesta. ¿Es aceptable admitir los resultados de un procedimiento que desconocemos?. ¿Pueden estos procedimientos opacos discriminar a las personas?. ¿Quién es responsable de los actos de una máquina, cuyo funcionamiento no podemos entender? ¿Debemos de prescindir de los aspectos éticos en las actuaciones de la IA?… Debemos de ser capaces de llegar a respuestas responsables y comprometidas con el ser humano, antes de que siga aumentando la toma de decisiones basadas en algoritmos y procesos desconocidos para los humanos.
El Parlamento Europeo, en una resolución de este mismo año, ha sido la primera institución en el mundo que ha realizado un primer acercamiento a estas preguntas y a la posibilidad de iniciar su regulación. En esta resolución se empieza a dibujar la personalidad jurídica de las máquinas, se abordan aspectos de seguridad, éticos, de protección de datos, de relación hombre/máquina… este informe constituye una primera reflexión hacia una normativa europea sobre IA, en la que son muy necesarias las aportaciones de las empresas que dominan los desarrollos de IA, a las que se le debe exigir un comportamiento socialmente responsable y que deben comprender que también en este campo, una actuación responsable será beneficiosa para ellas.
Hay tres elementos importantes que tenemos que tener en cuenta para responder a alguna de las preguntas anteriores: los algoritmos sesgados, la obligada transparencia a la hora de explicar las decisiones tomadas y la responsabilidad de las máquinas. Tres elementos con un profundo calado ético, que impacta de lleno en los ciudadanos, las empresas y las organizaciones.
Los algoritmos sesgados y la explicación de las decisiones
Cada minuto, la IA toma millones de decisiones en el mundo y detrás de esas decisiones están algoritmos de aprendizaje profundo que vienen condicionados por los datos que se le suministran, por las operaciones que con ellos realizan estas máquinas y por los procesos de aprendizaje profundo que realizan. Si los datos que se le proporcionan a estas máquinas están sesgados y los procesos de autoaprendizaje no tienen en cuenta la posibilidad del sesgo, las decisiones que obtendremos, acusarán ese sesgo, pudiendo llegar a la discriminación de determinadas personas o colectivos, con una cierta apariencia de objetividad al ser una decisión tomada por una máquina.
Cuando estos sesgos algorítmicos afectan a sectores financieros, de seguros, médicos, a la administración de justicia… a lo que nos enfrentamos es a diferentes discriminaciones, en función del sesgo, en aspectos básicos de la vida de las personas.
Son muchos los campos sobre los que ya se han demostrados sesgos algorítmicos, como lo atestigua el experimento de Latanya Sweeney, de la Universidad de Harvard, que analizando los anuncios de Google adSense, mostró que las búsquedas en los anuncios de productos para bebés con la palabra «detención» («arrest») se relacionaban en un 80% con nombres de bebés negros (DeShawn, Darnell, Jermain…) y sólo en un 30% con nombres de bebés blancos (Geoffrey, Jill, Emma…). Es evidente que la aportación y el procesamiento de datos, en este caso datos policiales o penitenciarios, provoca un sesgo discriminatorio.
Si a la posibilidad de sesgo algorítmico le sumamos la utilización de cajas negras, la sospecha de posibles discriminación se dispara. Es el caso del sistema COMPAS, creado por la compañía Northpointe, que asegura predecir la posibilidad de reincidencia de los acusados ante un tribunal de justicia y que, funcionando como una caja negra, ya está siendo utilizado por jueces en Estados Unidos. El funcionamiento de este sistema de IA es secreto, pero una investigación de ProPublica, ha encontrado pruebas de sesgos discriminatorios hacia las minorías.
De ahí el segundo de los asuntos claves antes mencionados: es fundamental que las empresas y las organizaciones sean transparentes a la hora de eliminar los sesgos en los datos que se introducen en los sistemas y que orienten el autoaprendizaje de las máquinas a la detección y eliminación de esos sesgos.
Esta transparencia choca con la utilización de cajas negras en sectores claves para la seguridad y el desarrollo de las personas, como la medicina, el derecho, las finanzas… que impactan de una manera importante en las personas. Por eso, las empresas y organizaciones deberán esforzarse en demostrar que establecen herramientas para el entendimiento y explicación de los algoritmos que utilizan sus sistemas de IA, por supuesto, preservando los aspectos técnicos del funcionamiento, así como el know how que hay detrás de estas máquinas, que forman parte esencial de su negocio.
Esta exigencia de transparencia en los algoritmos utilizados y la explicación del funcionamiento de las máquinas que toman decisiones de fuerte impacto en las personas, deberá ser incorporado, en breve, al concepto de transparencia total hacia el que se encaminan las empresas socialmente responsables.
La responsabilidad de las máquinas
El aumento exponencial de la toma de decisiones por parte de la IA hace que sea necesario plantearse quién tiene la responsabilidad de sus acciones. Es evidente que si cada vez más dependemos de las máquinas para tomar decisiones, necesitamos mecanismos para reparar los posibles daños que se deriven de errores o de decisiones injustas. El establecimiento de responsabilidades sobre las actuaciones de las máquinas es un aspecto legal y ético que no podemos demorar más.
Para establecer esta responsabilidad sobre el comportamiento de las máquinas, debemos ser capaces de explicar con claridad el proceso de toma de decisiones que ha seguido la máquina, lo que en estos momentos es muy complicado por la complejidad de los procesos de aprendizaje profundo de la IA. Por ello, es necesario, por parte de la industria de la IA, invertir en la creación de sistemas que se autoexpliquen y que puedan ser sometidos a interrogatorios sobre el procedimiento de elaboración de los algoritmos que sustentan la toma de decisiones, preservando la no revelación tanto de aspectos técnicos como comerciales. Solo con el conocimiento profundo del funcionamiento del sistema podremos asignar responsabilidades sobre las actuaciones de las máquinas.
Cuando hablamos de sistemas que se autoexpliquen, nos referimos a las razones económicas, sociales, morales, legales… que las han llevado a tomar esas decisiones, no a una descripción de los procesos técnicos de toma de decisiones. En todo momento hay que preservar el secreto de los aspectos técnicos, que son patrimonio de las empresas que han desarrollado esos sistemas.
Las empresas deben ser conscientes de que no tardará en llegar la exigencia por parte de los consumidores de que los sistemas de IA estén sujetos a los mismos niveles de exigencia de explicaciones de sus actos que los humanos, porque las decisiones que la IA tomas son decisivas para sus vidas.
De igual manera que hoy exigimos a las empresas, a las organizaciones y a las administraciones, explicaciones claras de los comportamientos y decisiones de su personal humano, lo haremos muy pronto de sus máquinas. Por eso es fundamental que la industria de la IA sea consciente de la necesidad de invertir en sistemas autoexplicables que respondan de la misma manera que hoy lo hace su personal humano.
La IA es una realidad ante nuestros ojos, pero las implicaciones que tendrá en nuestras sociedades todavía son muy difíciles de calibrar en su totalidad, puesto que los avances ya no están en manos de los programadores, sino de las propias máquinas, que son capaces de aprender de una forma diferente a la de los seres humanos, lo que cada vez nos resulta más difícil de entender, cuando no imposible.
Con el desarrollo de la IA y todas las derivadas de sus múltiples usos, se abre un inmenso campo de trabajo para muchas disciplinas diferentes, también, sin duda, para la Responsabilidad Social.
Por José Antonio Bartolomé, Responsable de formación de Visión Responsable
@thejabview