Actualidad

Otra vez sobre ética y robots

Él quiere asesinarla. Para eso fabrica cuidadosamente un muñeco que se parece a su odiada enemiga, consigue un mechón de su cabello, la viste con ropas como las que suele usar.

Una vez terminada su obra, recita unas frases halladas en un extraño libro de magia; e introduce un alfiler en el lugar donde debería encontrarse el corazón. Lejos de allí, esa mujer emulada, muere de un ataque cardíaco.
Variemos un poco la situación. Ambos viven en la misma casa; el victimario es un ferviente creyente de la magia negra, y la víctima incrédula. Pero por casualidad encuentra el muñeco con el corazón atravesado y le causa tanta impresión el odio que trasluce la imagen, que muere de un infarto.

O invirtamos los roles: el victimario es el escéptico y la víctima creyente. Él deja adrede el muñeco a la vista para que ella lo encuentre. Así ocurre y, aterrorizada, muere de un infarto.

¿En algunas de estas condiciones podemos hablar de asesinato?

Estos y muchos otros ejemplos imaginados utilizaban nuestros profesores en la facultad de derecho para explicarnos los alcances de la responsabilidad, cuando y por qué es posible atribuir a una persona una determinada consecuencia.

En aquel entonces, recuerdo, nos sonaban algo ridículos, supuestos puramente teóricos y más propios de novelas malas de misterios que de la realidad del Derecho.

Pero estos ejemplos intentaban hacernos pensar sobre temas importantes y profundos. ¿Hasta donde domina el hombre las causas y consecuencias de sus actos? ¿Basta con que haya aportado cualquier curso de acción para que sea responsable? ¿O solo algunos actos merecen ser considerados válidos?

Todos estos ejemplos tienen algo en común: la acción humana no conecta naturalmente con el resultado: pinchar un muñeco no provoca la muerte de una persona y la magia no existe por lo que no produce efectos en la realidad

¿Somos dueños de nuestros robots?

Pero ahora pienso que estos ejemplos tienen algo en común con los problemas que puede traer la generalización de la inteligencia artificial en un futuro que aparece como bastante cercano.

Como veíamos en el artículo anterior, ante el supuesto que una inteligencia artificial provoque un daño encontramos una cadena causal que lleva a ese resultado. Pero esa cadena es tan débil como la del muñeco vudú. Un programador escribe un algoritmo que permitirá a la máquina tomar decisiones autónomas; construye una inteligencia pensada para enfrentar una tarea determinada en la cual tiene la posibilidad de tomar la iniciativa que considere más apta para solucionar los problemas que aparezcan. Una empresa usa esa inteligencia artificial para alguna tarea concreta y perfectamente lícita con el objetivo de automatizar tareas y, así, evitar el error humano.

Pero se produce un daño, o una muerte. ¿Quién es el responsable?

¿En qué pensamos cuando pensamos en la atribución?

El Derecho tiene dos respuestas a este problema. La primera es la responsabilidad subjetiva: uno es responsable por las consecuencias de sus decisiones libres; la segunda, la responsabilidad objetiva: somos responsables de las cosas “peligrosas” que poseemos para nuestro beneficio (por ejemplo, el automóvil).

A decir verdad, me cuesta bastante incluir las acciones de una Inteligencia Artificial en alguna de estas categorías.
No veo que haya responsabilidad subjetiva de nadie. Cuando el programador escribe el algoritmo su intención es, precisamente, que la inteligencia artificial tome decisiones autónomas porque le resulta imposible prever todas las situaciones con las que se enfrentará. Si su actuar es responsable y se cuida de poner barreras para que no se produzca un daño (recordemos, por ejemplo, Las Reglas de Asimov), no puedo responsabilizarlo. Sería como acusar a un armero de construir la pistola con la que se produjo un asesinato, o a un padre por las acciones de un hijo ya adulto.

Cuando una empresa adquiere una inteligencia artificial, lo hace para una actividad concreta que quiere automatizar; es decir, evitar la intervención humana. No sabe cómo está escrito el algoritmo, sólo le importa que funcione adecuadamente.

La responsabilidad objetiva tampoco parece ayudar. En ese caso el dueño de la cosa debe pagar salvo que pruebe que existió una “causa ajena”, es decir, una circunstancia que cambió el curso de acción normal de las cosas. Además, esa circunstancia debe responder a una voluntad ajena a sí y que, por supuesto, no controla.

Y… ¿no es justamente ajena la decisión de una inteligencia artificial? Es cierto que no estamos hablando de una acción humana, pero ¿cambia algo que esa inteligencia sea artificial y no humana?
Parecería que, como está el Derecho hoy en día, no tiene demasiadas respuestas a estos interrogantes. Y mucho menos soluciones.

Es evidente que deberemos reformular muchas leyes e interpretaciones para ajustarnos a esta nueva realidad.

El asesinato usando magia nos parecía a los estudiantes de Derecho una teoría más novelesca que otra cosa. Pero ahora no tanto.

Y es un poco así: la tecnología, cuando no la entendemos, nos parece magia.

 

Lea el artículo anterior: La ética de los robots y otros problemas empresariales.

Sobre el autor

Enrique Horacio Del Carril

Abogado y magíster en Derecho y Magistratura Judicial. Profesor de Derecho Constitucional, Filosofía del Derecho y Ética en la Universidad Austral, UCA y UBA. Director del Cuerpo de Investigaciones Judiciales del Ministerio Público Fiscal de la CABA.

¿Cuál es tu opinión?