En una de las mejores escenas de la película I, Robot se cuenta que, en un accidente de tráfico, un robot había elegido salvar al protagonista en lugar de a una niña que se encontraba en la misma situación. Según el análisis de la inteligencia artificial, él tenía un 45% de posibilidades mientras que la niña sólo un 11%. “El 11% era suficiente para mí”, reflexiona el personaje.
Esto es hoy solo una historia de ciencia ficción, pero pienso que la escena contiene elementos de una actualidad y de nuestro futuro inmediato en los que conviene detenerse.
Nos hemos acostumbrado a nuestros smartphones; quizás usemos Google Assistant, Siri o Cortana; y estamos familiarizados con Waze o Amazon.
Estas costumbres se introducen en nuestra vida sin que apenas nos demos cuenta. No nos preocupamos por ellos ni nos detenemos a pensar cuánto influyen en nuestras decisiones.
El algoritmo que utiliza Amazon para perfilar nuestros gustos es uno de los más desarrollados que existen. Más impresionantes son Siri, Cortana y el asistente de Google: a medida que los vamos usando su percepción de nosotros es más ajustada y eficiente.
No tenemos (¿todavía?) robots que nos atiendan, pero estamos rodeados de algoritmos que nos perfilan y aconsejan. Estamos en las puertas de lo que Jean Sadin ha llamado “la humanidad amplificada”, la cohesión hombre y máquina.
La ética de los robots
Vivimos una repentina evolución en materia de inteligencia artificial. Mientras que poco tiempo atrás esta idea pertenecía al cine y la literatura, hoy es una realidad tan presente y tangible que ni siquiera nos damos cuenta de su existencia.
Tenemos la tendencia a pensar en robots de apariencia humana construidos de algún metal. Pero esto no es necesariamente así. Si hacen el intento de preguntarle al asistente de Google si es una inteligencia artificial recibirán la sugerente respuesta “toda mi inteligencia es artificial”.
Lo que nos hace inequívocamente humanos es nuestra inteligencia y voluntad. La capacidad de entender al mundo y actuar en consecuencia. Y aprender de ello. Hoy, las inteligencias artificiales están acercándose mucho a esto. Son capaces de procesar y comprender cantidades gigantescas de información; han logrado, en los últimos tiempos, realizar acciones autónomas como consecuencia de esta información, aprender de ella y corregirse a sí misma.
Es claro que estamos lejos de esos robots humanoides de las películas que tienen conciencia y, por ello, deciden someter a la humanidad. Pero muy cerca de máquinas, usadas para la producción de bienes y servicios, que tomen “decisiones” sobre aquello que deban producir y modifiquen sus propios procesos.
Estos robots (estas inteligencias) pueden y van a generar una serie de cadenas de responsabilidades nuevas, y difíciles de delimitar.
Por ejemplo, uno de los problemas más graves por los que atraviesan hoy los automóviles autónomos no es técnico, sino moral: ¿estamos dispuestos a que nos traslade un auto que, ante un peligro de colisión y para proteger a sus pasajeros “decida” arrollar varias personas? ¿Y si la situación es la contraria? ¿si por evitarlo opte por sacrificarnos, ya que eso implicaría un mal menor?
¿Quién se hace cargo de mi robot?
Los robots literarios de Isaac Asimov se rigen por tres reglas básicas: 1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño, 2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley y 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Pero estas reglas son, aún, ciencia ficción; no hay algoritmos que hayan llegado a este nivel de comprensión de la realidad. Y ni siquiera con ellas se podría resolver el problema del vehículo autónomo.
La inteligencia artificial es una realidad bien tangible. Watson, la inteligencia artificial de IBM en estos momentos atiende la página web de una conocida marca de vestimenta outdoor, propone tratamientos y medicinas en una clínica oncológica y asesora en operaciones de comercio exterior a los clientes de una entidad financiera española.
Imaginemos que una empresa adquiere y utiliza una inteligencia artificial para producir un bien cualquiera, que ella va corrigiendo sus procesos sobre la base de información que toma de una central de reclamos de la propia empresa o, incluso, de las menciones que se hagan del producto en las redes sociales. Supongamos que de la combinación de esta información termina fabricando un producto tóxico o cancerígeno.
¿Quién será responsable de los daños? ¿El dueño del robot (de la inteligencia artificial) o el que escribió el algoritmo que hizo a la máquina “pensar” de esa manera? Claramente ninguno tuvo intención de dañar. Ni siquiera podríamos acusarlo de negligente: a ambos les era imposible prever que la inteligencia artificial terminaría llegando a esa conclusión.
La tecnología trae enormes beneficios, pero esas ventajas, que se traducirán en ganancias o bienestar, harán explotar las cadenas causales de responsabilidades personales y empresariales ¿Cuánto riesgo estamos dispuestos a asumir?
La cuestión no es menor, porque la sola apelación a límites morales o jurídicos no parece suficiente, porque no parece abarcar todos los matices de un tema tan nuevo… pero esto será el tema de un nuevo artículo.
Siga leyendo: Otra vez sobre ética y robots.