La IA necesita, como todos los niños en proceso de aprendizaje, a unos padres responsables que le guíen. No se trata de hacer unas leyes de la robótica como las de Isaac Asimov y esperar que todo vaya bien, regido por la fría lógica. Los niños entienden la lógica, la suya. La Inteligencia Artificial real, no la de los cerebros positrónicos de Asimov, está basada en el aprendizaje, y para aprender, se necesitan datos. Como los niños, la Inteligencia Artificial, necesita que alguien con criterio le diga qué está bien y qué está mal. El proceso de aprendizaje es similar: exposición a datos, repetición por imitación y validación de la conducta. Ya hay casos de Inteligencias Artificiales macarras, por haber sido expuestas a datos sin validar de seres humanos de carne y hueso, haciendo cosas reales, es decir, el animal. Por eso, es importante entender que los primeros límites de la Inteligencia Artificial son los de los propios seres humanos.

Un ejemplo sencillo de entender es suponer que pretendemos utilizar Deep Learning para crear una flamante inteligencia artificial policial que permita detectar si una persona tiene pinta de maleante o no. Quizás incluso podríamos dar más detalles, si se dedica al robo de carteras o robar coches. Luego procederíamos a enseñarle fotos de tipos fichados y procesados judicialmente, saltándonos, por supuesto, todo tipo de leyes de protección de datos, etcétera, etcétera. Suponiendo que este experimento lo hiciéramos en Estados Unidos, donde según en que región los delincuentes fichados de raza negra representan una elevada mayoría, resultaría que estaríamos educando a una IA para ser manifiestamente racista.

Salvando las distancias, esto mismo pasó cuando una IA de Google, que se usaba en Google Photos para etiquetar fotos, catalogó de gorilas, a dos chicos afroamericanos. Existen muchos casos similares en la red para el que quiera buscarlos. Se nos olvida que la IA actual no es más que el producto de utilizar una serie de algoritmos con un juego de datos de entrenamiento previo.

Si entrenamos a un perro para matar, y este acaba matando. ¿Es culpa del perro? ¿o del propietario que lo dejó cerca de unos niños? ¿Matan las balas, las pistolas o los tipos que meten las balas en la pistola, apuntan y aprietan el gatillo?

Lo mismo va a ocurrir con las IA militares. Por un lado existen numerosos grupos de debate que hablan de imponer límites éticos al desarrollo de la Inteligencia Artificial, pero estas personas no se dan cuenta que ya existen IA’s en la red que operan en bolsa para obtener resultados económicos por medio de sofisticadas operaciones de especulación a corto plazo, sin importarles los daños que provocan en la economía real, las empresas o sus competidores traders humanos. Lo mismo que la radiación de las bombas atómicas o la munición con blindaje de uranio, no respeta población civil de objetivos militares. Hablar de límites éticos en la inteligencia Artificial es una quimera, ya que son dichos humanos los que deberían tener dichos límites, no la tecnología.  No se pueden poner puertas al campo, aunque hay empresas cuyo modelo de negocio es ofrecer esos servicios especializados.

Como ingeniero, me fascina la ligereza de muchas personas que no son ni lo uno ni lo otro y adoptan las leyes de la robótica de Asimov como punto de partida para esta imposible tarea de poner puertas al campo. Isaac Asimov es uno de los escritores de ciencia ficción clásicos de los años 50 y 60, y como ingeniero químico y escritor, es muy conocido por su trabajo de divulgación científica y sus relatos de robots. Veamos un resumen de estas tres leyes de la robótica de Asimov, para que todos sepamos de que estamos hablando:

  1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

El propio Asimov plantea dilemas lógicos clásicos con situaciones como ¿matarías a una persona si pudieras evitar la muerte de cien inocentes? No hace falta tales argucias, porque hay mil formas más de hackear las tres leyes, la más obvia de todas, es redefinir -es decir, reeducar- lo que significa el concepto de daño. Muchas historias de ciencia ficción hablan de esto, y de como los robots eliminan del planeta a los seres humanos porque los consideran los más dañinos consigo mismos. Quizás la mejor forma de evitar que sufran daños es evitar que estén conscientes, ya que su psicología les induce a sufrir. Hay muchas formas de definir las premisas básicas de esas reglas lógicas, ya que se basan en conceptos muy poco definidos como «daño», «ser humano», «propia existencia» o «conflicto». El propio Asimov lo sabía y fueron parte de sus argumentos en decenas de historias de robots.

El hecho de que algunas personas utilicen esas leyes como base para desarrollar una «Inteligencia Artificial ética» demuestra que carecen de la imaginación de un escritor, los conocimientos de un ingeniero y que ni siquiera se han leído de verdad los cuentos de robots de Asimov. Espero que estas personas no sean las que quieran entrenar a sus IA’s, o acabaremos teniendo perros peligrosos en nuestro vecindario. Algo inevitable por otro lado.

El futuro de la IA es trabajar como nuestro aliado. Quizás no podamos darle una educación perfecta, pero como ocurre con nuestros hijos, acabarán viendo el mundo tal como lo vemos nosotros. Para lo bueno y para lo malo. Por eso podrán servirnos y protegernos, o porqué no, ayudarnos  a prosperar venciendo en batallas a nuestro lado.