Según Yuval Noah Harari la inteligencia artificial podría llegar a dominar el mundo, porque según su personalísima bola de cristal, lo que esté haciendo la Inteligencia Artificial (IA) depende cada vez menos de los diseños humanos. Es más, por eso dice que habría que denominarla Inteligencia Alienígena, ya que esta actuaría como un humanoide.
Por otro lado, encontramos al filósofo francés Eric Sadin, que en su último libro titulado “La vida espectral” afirma que el uso de los prompts, esto es, las indicaciones que le damos, por ejemplo, al ChatGPT, nos crean la ilusión de dominio absoluto, es decir, de tener a disposición un esclavo, al que podemos darle órdenes a nuestro antojo y que “prontamente” las satisfará.
Aquí es interesante traer a colación el origen de la palabra prompt: en latín, promptus significa tanto que algo está listo – “está pronto” como dicen en Uruguay- así como también, que ha sido “traído a la luz”. Esto último se asimila a lo que dice Martin Heidegger respecto de la técnica como “póiesis”, es decir, que gracias a la técnica -o la tecnología- el hombre es capaz de hacer presente algo que antes no estaba ahí, i.e., producir. Esta idea heideggeriana, en un artículo anterior publicado en Diario Perfil, se aplicó a la IA.
El paisaje de gurúes y especialistas de la inteligencia artificial es amplio, pero seguramente no está completo si no mencionamos a los profetas de la gestión de riesgos y la due dilligence que se esconden -a simple vista- en las clases de éticas aplicada, en los expertos en Compliance o en los estudios de abogados. Y es que sí, más allá de la gratuita especulación futurista -Tomás de Aquino decía que los futuros contingentes no son ni verdaderos ni falsos- ya hay algunos derechos humanos que están en riesgo y otros, quizás, lo estén más adelante.
Los que parecen más relevantes son los riesgos que tienen que ver con la salud, el mercado laboral y las libertades civiles. Es decir, los riesgos que surgen, por ejemplo, o de la obtención de datos con los que se alimenta la IA, o del modo en que las predicciones, recomendaciones o “decisiones” de la IA pueden afectarlos o vulnerarlos. También, hay riesgos que podrían afectar a las personas en sus derechos de acceso a la educación, al mercado financiero o al uso del transporte, según dice el Global Compact.
Ética del cuidado de la dignidad humana
Desde un punto de vista centrado en la persona humana, aparece la necesidad de una ética del cuidado (care ethics), que no deje huérfana a la gestión de riesgos como puro proceso o burocracia. La denominada “supervisión humana de la IA” requerida por distintas regulaciones y normativas tanto hard como soft no se resuelve en protocolos, sistemas de gobernanza y obligaciones de transparencia -todos ellos dispositivos muy valiosos que sin duda son orientativos e ilustrativos.
Sin embargo, lo primero que quiero afirmar es que el cuidado que evita la vulneración de los derechos humanos es la convicción del valor intrínseco de cada persona, esto es, la dignidad humana. Es decir, un valor individual que no se sigue de su funcionalidad social o utilidad económica o de las exigencias de la ley positiva; un valor que ni siquiera depende de la empatía, porque no es el hallazgo de un sentimiento hacia otra persona.
La dignidad humana es una convicción. Digno significa valioso por sí mismo: valiosa yo, valioso vos, todos y cada uno; nacidos y por nacer. Entonces, si somos valiosos per se, es un atropello ser instrumentalizados, esclavizados, manipulados o que, incluso, que consideremos que nuestro valor depende solo de la opinión de los otros.
Educación humanista del financiador
Lo segundo que quiero afirmar es la importancia de los valores de quien financia el diseño de la IA. Es decir, la solución ética para mitigar los riesgos de la IA sigue siendo la educación humanista de quien tiene el poder de financiar: el empresario, el inversor-ángel, el funcionario político, el Estado, etc. Quien tome decisiones de financiamiento para la creación y el desarrollo de la IA, quien tome decisiones de contratación para su diseño será quien -aún sin entender exactamente lo que sucede en la “caja negra” de los algoritmos de la IA- será quien facilite su input y su output, esto es, el modo de alimentarla y con cuáles datos, obtenidos de qué modo y cómo o en qué aplicarla. Los financiadores serán quiénes, en definitiva, pondrán a trabajar ingenieros, neuro-especialistas y antropólogos digitales a fin de crear productos o servicios que tomarán ventajas de- o cuidarán de los diversos tipos de vulnerabilidades humanas.
Excelente! Me saco la galera, es la excelencia su art. !
«Quien tome decisiones de financiamiento para la creación y el desarrollo de la IA, quien tome decisiones de contratación…» El tema es sencillamente ¿Quien? El Ser Humano o la I.A?
Abrazo grande para Usted!
Muchas gracias Maria Marta!!! Mucho por aprender mucho ver todavía. Como diría Víctor Valle, Una gran oportunidad de poder sacar lo mejor de IA