La IA es una tecnología en auge que poco a poco se va introduciendo en la vida cotidiana, la de los ciudadanos y la de la Administración Pública. Es el punto clave en la revolución digital, pero ¿es factible utilizarla en todos los ámbitos de la sociedad?

 

¿Qué es la Inteligencia Artificial?

A. Kaplan y M. Haenlein describen la IA como “la capacidad que tiene un sistema para interpretar datos, aprender de los mismos y utilizar esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible”.

Así y, muy brevemente, la IA es la inteligencia llevada a cabo por las máquinas. Una máquina inteligente percibe su entorno y lleva a cabo acciones para maximizar las posibilidades de éxito del objetivo para el que ha sido creada. Es una máquina que intenta actuar como un humano, pero de manera más eficiente.

 

Y cotidianamente, ¿para qué puede ser útil?

La IA puede hacer la vida más sencilla simplemente realizando acciones tediosas para el hombre, o haciendo que cualquier acción del día a día se haga de manera “perfeccionada”.

Además, puede suponer un gran ahorro para empresas y particulares:

  • un robot que se dedique a la distribución y envío de paquetería en una gran empresa ahorraría grandes cantidades de dinero a corto, medio y largo plazo;
  • y uno que se dedique a estudiar un historial clínico de un paciente, sus síntomas y todos los diagnósticos posibles estaría más capacitado para dar un diagnóstico adecuado mucho más rápido que un médico de carne y hueso.

 

Entonces, ¿para qué situaciones puede no ser tan útil?

Existen algunos ámbitos en los que la IA no es tan efectiva. Cuando se trata de reconocimiento facial, la realidad es que es un sistema que, ya sea por probabilidad de semejanza con otros sujetos, o por problemas sociales actuales o pasados, no ha terminado de funcionar como se buscaría:

  • Un estudio llevado a cabo por la Unión Estadounidense por las Libertades Civiles en julio del 2018 demostró que el programa de reconocimiento facial de Amazon (que se plantea ser utilizado por algunos cuerpos de la policía estadounidense y otras agencias de la ley) no era fiable cuando lo utilizó en el Congreso, y el mismo identificó a 28 de los congresistas como criminales al comparar sus fotografías con los datos policiales del país.

¿El motivo? La gran mayoría de ellos eran pertenecientes a etnias minoritarias.

Por tanto, problemas como el racismo o la posibilidad de similitud facial hacen que este software, a simple vista de gran sofisticación, falle, suponiendo, además, una falta de respeto y una vulneración de los derechos a la igualdad y a la no discriminación de las personas.

Veamos otro ejemplo:

  • Situación similar sucedió con el software de reconocimiento facial de Google, que identificó a personas de etnia negra como primates, hecho que supuso un gran golpe para la marca –aunque no tan grande como cabría esperar-.

 

Visto esto, ¿es legítimo que se utilice la IA en cualquier ámbito de la sociedad?

Los ejemplos dichos anteriormente pueden no tener una gran relevancia más allá de cómo se sienta un individuo con ello, o más allá de suponer un retrato de una sociedad racista y xenófoba.

Sin embargo, hay que tener la mente abierta a que uno de los objetivos tecnológicos al menor plazo posible para los grandes gobiernos y las grandes empresas es la implantación de la IA en todos los ámbitos de la vida humana y de la relación con las personas.

Quizás es óptimo que se utilice este tipo de tecnologías para intentar mejorar la vida de la sociedad; sin embargo, hay que tener en cuenta otras situaciones en las que la IA puede ser más un inconveniente que una ventaja para las personas.

El ejemplo más claro y –no tan- radical es el de las armas autónomas.

 

¿Armas autónomas?

Las armas autónomas (Lethal Autonomous Weapons) son los comúnmente llamados “robots asesinos”, concepto que a priori parece más cercano a la ciencia ficción que a la realidad. Estas armas están dotadas de Inteligencia Artificial y una autonomía total y, gracias a ello, son capaces de seleccionar y disparar a los objetivos fijados anteriormente sin la necesidad del control de un humano.

Para explicarlo de una manera más sencilla, estos robots pueden ser programados para que ataquen a un perfil determinado, como por ejemplo, a hombres de una altura determinada y con unos rasgos determinados, y ellos mismos salen a buscarlos y cumplen con el objetivo.

 

Algunos ejemplos de armas autónomas son:

  • Los submarinos Boeing encargados por la Marina de EEUU en 2015, capaces de moverse sin tripulación y atacar a objetivos potencialmente peligrosos sin la intervención de un humano;
  • los tanques “come-personas”, capaces de moverse por el campo de batalla sin necesidad de control por parte de una persona, y de fabricar combustible con los cuerpos que encuentra.
  • o los drones autónomos como el MQ-9 Reaper de General Atomics, capaces de seleccionar y abatir un objetivo sin una orden humana.

Pero, ¿en qué medida estas tecnologías pueden suponer un beneficio para la sociedad?

y, ¿en qué medida cumplen con el Derecho?

¿Será que la tecnología podría ponerse en contra del ser humano y suponer un perjuicio para el mismo?

Parece ser que la Inteligencia artificial no es la mejor opción siempre y en ocasiones puede no ser la opción más adecuada para avanzar hacia un futuro sano.

Lo que queda claro es que el derecho no está preparado para esta revolución digital y, por ello, es necesaria una medida de control exhaustiva sobre las tecnologías que se desarrollan y, en particular, sobre la Inteligencia Artificial.