Actualidad

Ética aplicada a la inteligencia artificial: una carrera con futuro (y con mucho presente)

Escrito por Luis Guastini
Escuchar este artículo

¿Pensaste que estudiar filosofía no podía darte una salida laboral? En plena era digital, esa suposición quedó atrás. Hoy, la ética aplicada a la inteligencia artificial no solo es una disciplina en crecimiento: es una necesidad urgente para gobiernos, empresas y organizaciones de todo el mundo.

En 2017, más de 2.000 expertos —incluido Stephen Hawking— se reunieron en Asilomar, California, para consensuar principios rectores sobre el desarrollo responsable de la inteligencia artificial. El resultado fue la publicación de 23 principios éticos que promueven una IA que respete la dignidad humana, los derechos individuales, las libertades fundamentales y la diversidad cultural.

Ese fue uno de los primeros intentos de ponerle límites éticos a una tecnología que evoluciona más rápido que la regulación, más rápido incluso que nuestra capacidad para anticipar sus consecuencias.

¿Por qué es necesario hablar de ética en IA?

Porque la inteligencia artificial ya toma decisiones que antes eran humanas:

  • Decide a quién mostrarle una oferta de empleo según su historial en redes sociales.
  • Estima qué persona podría cometer un delito (como en los sistemas predictivos de reincidencia usados en EE. UU.).
  • Selecciona qué noticias ves primero, en base a tus sesgos, emociones o comportamientos pasados.
  • Puede sugerir tratamientos médicos o decidir si alguien accede o no a un crédito.

Pero… ¿bajo qué criterios lo hace? ¿Quién decide qué es justo, seguro o transparente en cada caso?

La ética digital como nueva frontera profesional

Por eso, cada vez más instituciones están formando perfiles con pensamiento crítico y formación interdisciplinaria, capaces de anticipar dilemas éticos, mediar entre tecnología y derechos humanos, y formular marcos para un desarrollo justo y seguro de la IA.

Algunas iniciativas destacadas:

  • La OCDE impulsa lineamientos éticos globales para el uso responsable de la inteligencia artificial.
  • La Universidad de Oxford tiene un instituto dedicado exclusivamente a investigar ética algorítmica.
  • Empresas como Google, Meta, Microsoft o SAP crearon comités de ética de IA internos, formados por filósofos, sociólogos, científicos de datos y expertos en derechos humanos.
  • Startups y labs como The AI Ethics Lab o AI Now Institute trabajan en proyectos específicos para gobiernos y ONGs.

Un nuevo tipo de liderazgo: humanista y técnico

El futuro ya no es solo de programadores. También necesita personas que puedan formular buenas preguntas:

¿Qué implica entrenar una IA con datos históricos que reproducen discriminaciones pasadas?

¿Cómo afecta a una sociedad el hecho de automatizar decisiones en salud, educación o justicia?

¿Quién asume la responsabilidad cuando una máquina comete un error?

Las carreras en ética digital, filosofía aplicada, ciencia de datos con foco en impacto social o derecho tecnológico están ganando espacio. El talento humanista vuelve a estar en el centro. Porque alguien tiene que enseñar a las máquinas lo que está bien. Y ese alguien, probablemente, estudió filosofía.

Sobre el autor

Luis Guastini

Presidente & CEO ManpowerGroup Argentina. Presidente del Encuentro Anual ACDE 2024

Deje su opinión

1 comentario