En 2014, Nick Bostrom, filósofo sueco y profesor de la Universidad de Oxford, explicó con un experimento sencillo lo que pasaría si a una Inteligencia Artificial -IA- se le diera la tarea de fabricar y maximizar la producción de clips -para sujetar papeles-. El resultado sería que mataría personas para usarlas como un recurso más y transformarlas en clips. Pero, si se le diera la instrucción de no matar personas, podría matar árboles, bajo el supuesto de que es lo correcto.
Yejin Choi, experta en sistemas computacionales
y profesora de la Universidad de Washington, dice que habría muchas cosas que
no debería hacer la IA para maximizar la producción de clips: no difundir
noticias falsas, no robar y no mentir, todas relacionadas con el sentido común en
nuestra comprensión de cómo funciona el mundo. Uno de los desafíos más
importantes para la IA, desde hace varias décadas, es el del sentido común.
¿Qué es el sentido común? según Descartes, el sentido común era la
cualidad mejor repartida en el mundo, que permitía a todos tener claro que era
lo correcto, lo aceptable y lo irracional. Años después, Voltaire dijo que el
sentido común era el menos común de los sentidos; refiriéndose a que no siempre
se da o se percibe de la misma manera lo que es lógico o esperable en cada
situación. Lo más curioso es que cada vez parece más difícil que, como
humanidad, apliquemos el sentido común a los pequeños y grandes problemas que nos
plantea el mundo de hoy.
¿Qué es la IA? Podríamos decir que es una disciplina que existe
desde los años 50, cuyo objetivo es darle a la máquina capacidades cognitivas
semejantes a las de la inteligencia humana. Según el nivel de competencia,
grado de desarrollo, hay tres tipos de IA: 1. Específica: una máquina entrenada
para hacer una sola tarea; p. ej. jugar ajedrez. 2. General: una IA que tendría
el mismo nivel que la inteligencia humana; esta sería la mayor aspiración de la
IA, pero, como dicen los expertos, estamos muy lejos de estar ahí. 3. Superinteligencia: una inteligencia
superior a la nuestra. Pero, como dice Cristina Aranda, doctora en lingüística
de la Universidad Autónoma de Madrid “tranquilicémonos que la IA nunca va a
superar a la estupidez humana que es ilimitada”; las máquinas no son tan
creativas como los seres humanos y la tecnología se nutre de datos, de lo ya
creado.
¿Cómo hacer que la IA sea sostenible y humanista? Es la pregunta que se hacen hoy algunos expertos. Para ilustrar este tema, Yehin Choi acude a la historia de David y Goliat y dice que la IA es como Goliat, literalmente inmensa; sin embargo, comete errores pequeños y tontos que no se pueden corregir fácilmente. Los mayores desafíos de la IA, desde el punto de vista social, están relacionados con el costo de los modelos que muy pocas empresas pueden asumir, generando concentración de poder y problemas de seguridad; la huella de carbono y el impacto ambiental que hoy son muy grandes; los cuestionamientos de tipo intelectual alrededor de la seguridad para la humanidad cuando carece de un sentido común sólido.
La conclusión de quienes pretenden una IA sostenible y humanista es que hay que entrenarla en sentido común, ética y valores. Me pregunto si es algo fácil, cuando como humanidad nos está quedando grande encontrar caminos para avanzar en un desarrollo sostenible que tenga en cuenta la importancia de estar conectados con nosotros, con el otro y con el entorno.
Tal vez el mayor
reto sea poner a la tecnología en el sitio que le corresponde, como una
herramienta valiosa al servicio de una humanidad que clama por su dignidad.
Comentarios
Publicar un comentario