| Evaluación crítica
Por muy abstractas que puedan llegar a parecer estas preguntas, la forma en la que las respondamos tendrá impacto específico y determinará que el desarrollo e implementación de la IA sea más adecuado o inadecuado, justo o injusto, veraz o falaz, bueno o malo y no de forma general, sino para cada una de las personas que son parte de nuestra empresa, así como para los stakeholders.
En el análisis de riesgo tradicional tomamos parámetros cuantitativos, pero debe contemplarse a la par de un parámetro cualitativo. No todo se trata de números. Sheila Jasanoff, profesora de la Kennedy School, la escuela de políticas públicas de Harvard, sugiere que además de tener expertos en IA, es necesario contar con las voces de las distintas partes involucradas, de nuestros stakeholders.
Sin esta evaluación crítica, a lo que se tiene acceso a través de estas herramientas es a un pensamiento lineal, sin matiz y, definitivamente, sin parámetros que permitan orientar su uso.
El verdadero riesgo de la IA no consiste en que cobre consciencia, sino en que las personas carezcamos de conciencia en su desarrollo e implementación.
Uno de los riesgos que se suele estudiar y que la cultura popular tiende a sobredimensionar en torno al desarrollo de la Inteligencia Artificial consiste en pensar que pueda llegar a tomar conciencia y decida exterminar a la humanidad —«¡Hasta la vista, baby!»—. Sin embargo, el verdadero riesgo de la IA no consiste en que cobre consciencia, sino en que las personas carezcamos de conciencia en su desarrollo e implementación. En otras palabras, la IA, al ser una creación humana, es una realidad ambivalente, capaz de generar grandes avances o de poner en riesgo a la persona, la empresa y nuestra comunidad. AN
Alejandro Salcedo es Profesor del área de Factor Humano y miembro del Centro de Investigación de Filosofía y Empresa de IPADE Business School.