Valores

La Inteligencia Artificial ante el desafío ético

Escrito por Horacio Bolaños
Escuchar artículo

El conocimiento y la ciencia siempre fueron peligrosos. Por algo los dioses siempre los escatimaron a los mortales pues entendían que éstos no estaban preparados para manejarlos con prudencia. 

La AI, como todo instrumento es amoral. El carácter de bueno o malo, útil o perjudicial lo dará su empleo y esa es responsabilidad de los humanos, aparentemente poco confiables ante los ojos divinos. 

Los gestores de equipos creativos diseñados por la NASA para resolver desafíos nuevos a la mente definieron a la creatividad como la capacidad para reunir de manera novedosa cosas conocidas. Si, como todo parece indicar, esto es cierto, la AI estará en condiciones de tomar decisiones cada vez más complejas, como ya muestra la robótica actual. 

Sin embargo, el problema se presenta cuando la AI toma decisiones sin intervención humana. Toda decisión es una elección entre dos o más alternativas. Cuando esas alternativas representan valores, la AI tendrá que elegir por alguna de ellas. ¿Qué patrón ético utilizará para hacerlo? 

Como la base de AI son algoritmos lógicos (más elementales o complejos) es altamente probable que utilice el patrón utilitarista, que recomienda optar por “la acción que genere el mayor bienestar al mayor número de personas”. El utilitarismo es una corriente ética basada en el cálculo, el balance de los pro y contra de las acciones. La posibilidad de consecuencias no deseadas es alta ya que marginará lo bueno en nombre de las mayorías, no siempre acertadas. 

Entonces ¿podrá este nuevo artificio adoptar otro patrón ético, como el de la ética de los principios, que manda tomar el camino que mejor favorezca la búsqueda de la felicidad o auto-rrealización de las personas, como proponía Aristóteles? ¿Serviría en una mesa de cirugía o en la sala de partos cuando hay dos vidas en riesgo? ¿Por cuál felicidad optaría? ¿O terminaría en el cálculo utilitarista? Y en ese caso, ¿cuál vida vale más y quién lo establece en cada caso? 

La ética del deber, como la de la utilitarista, puede resultar más fácil de programar ya que su mandato nos señala: 

«Obra sólo según aquella máxima por la cual puedas querer que al mismo tiempo se convierta en ley universal». Es decir, que si vas a tomar una decisión piensa qué pasaría si todos los seres humanos hicieran lo mismo en todas partes y en todos los tiempos; por ejemplo, robar, mentir, matar, etc. Si todos los seres humanos mataran, mintieran o robaran de manera permanente, no sería posible la vida en sociedad. Con que lo hagan algunos pocos ya es suficiente muestra de lo que sucede en las sociedades modernas. Por eso, algunos críticos objetan que tal imperativo sirve para abstenerse de hacer algo, pero no ayuda a decidir un curso de acción proactivo. 

Aparte de rigorista o extremo, este imperativo se ha mostrado insuficiente para decisiones complejas como las señaladas esquemáticamente más arriba, como la del parto crítico. 

Hay una cuarta escuela que es la denominada ética dialógica o ética del discurso que propone tomar en consideración las consecuencias del curso de acción decidido, pero teniendo en cuenta los intereses de todos los afectados por tal determinación. Para ello supone la necesidad de dialogar tanto con los afectados como con los beneficiados por el curso de acción a seguir. Esta corriente toma el recaudo de tener en cuenta los intereses de las generaciones futuras representadas por defensores actuales de las mismos. Esta propuesta, nacida en la Alemania del siglo XX, cuando la amenaza de las ojivas nucleares era cierta y permanente, presenta el inconveniente de su implementación. ¿Cómo tener en cuenta los intereses de futuros descendientes o deudos en general de un enfermo terminal, por citar tan sólo un caso? ¿Cuáles son los límites de la “comunidad ideal de comunicación”, a la que nos convocan Habermas y Apel, proponentes de esta alternativa? 

Por último, podemos revisar la moral que las clases dirigentes romanas adoptaron para enfrentar la globalización imperial de su época. ¿Podrá servir para programar decisiones anticipadas? Esa escuela de vida fue el estoicismo, que enseña y promueve el desapego de las pasiones, la cautela ante lo desconocido y el desarrollo de la personalidad para enfrentar con entereza cualquier contingencia. El estoicismo, que no se propuso ser una moral sino una actitud de vida también apela a la razón para actuar en un mundo caótico y en crisis. Sin embargo, es difícil imaginar que tan razonable actitud pueda ayudar a tomar una decisión crítica; seguramente se lavará las manos, como Pilatos. 

En síntesis, lo más probable es que la AI apele a las fórmulas utilitaristas que sopesan pro y contra de las opciones. Pero el peso que tengan los valores intangibles frente a los numéricos requerirá de una sensibilidad que en estos momentos resulta difícil imaginar que un algoritmo de algoritmos logre hacerlo. ¿En el futuro podrá? Personalmente espero que sí, porque requerirá de la capacidad integral -racional, emocional y espiritual- de quienes imaginen las fórmulas centrales. Cada paso en los saberes de la humanidad significó también -en términos generales- el desarrollo de una sensibilidad social mayor. Es posible, no se sabe si probable, que la AI ayude a avanzar en la adquisición de un nivel de responsabilidad social a la altura de las circunstancias. Los que pensamos que los seres humanos somos algo más que el resultado de la sopa cósmica, esperamos que ese paso se concrete.

Sobre el autor

Horacio Bolaños

Consultor externo (jubilado) en Grupo Managers. Exdiretor de Great Place to Work. Autor y ensayista.

Deje su opinión