Antonio Diéguez
Universidad de Málaga
La inteligencia artificial, una cuestión que encierra enormes complejidades técnicas, se ha convertido en un asunto de cultura popular. Casi todo el mundo parece tener una opinión sobre su dominio futuro y sobre nuestra convivencia con las máquinas inteligentes. A mí, sin embargo, me cuesta formar una. No sé bien a qué carta quedarme. ¿Tendremos o no superinteligencia artificial general (y no meramente particular o estrecha, es decir, capaz solo de resolver problemas concretos)? Lo ignoro. En caso de tenerla, ¿colaborará con nosotros o nos destruirá? Lo ignoro. En caso de que colabore con nosotros, ¿nos relegará a una vida de ocio y quizás de inutilidad práctica o, por el contrario, potenciará nuestra creatividad y será un medio para enriquecer nuestra vida y para aumentar nuestra sabiduría? Lo ignoro. Lo cierto es que lo ignora todo el mundo, no solo yo, por mucho que se diga. Todo lo que se anuncia al respecto son especulaciones, con mayor o menor base en los avances científicos y técnicos reales, pero especulaciones al fin y al cabo.
Si alguien me preguntara, yo diría que no creo que en un futuro previsible vayamos a tener una superinteligencia artificial que quiera dominar el mundo y que vaya a constituir, por tanto, una amenaza existencial para la especie humana. Y no lo creo simplemente porque lo que hoy sabemos no da mucho pie para ello. Un escenario de ese tipo es por ahora pura ficción y hay una posibilidad bastante grande de que, pese a los avances rápidos en este campo, que desconciertan a los propios expertos, nunca deje de serlo. Aun suponiendo que lográramos alguna vez tener superinteligencia artificial general, algo que ciertamente la mayoría de los especialistas creen posible a medio o largo plazo, de ahí no se sigue que ésta desarrollará necesariamente voluntad para dominar el mundo. Eso de tener voluntad, y además voluntad de dominio, es quizás un rasgo humano, demasiado humano, como vio Nietzsche. Así que, esta preocupación no me quita el sueño por el momento.
Aunque son las empresas, especialmente las de Silicon Valley, las que se llevan la fama como pioneras en los progresos de la inteligencia artificial, la mayor parte de las investigaciones teóricas que hacen avanzar este campo se han producido y aun se producen en las universidades o en colaboración con ellas. Pese a ello, suele darse más voz en los medios de comunicación a los líderes de esas empresas que a los investigadores académicos que hacen el trabajo cotidiano en el que se basa la innovación científico-técnica. No es extraño, pues, que las promesas acerca de futuros grandiosos y deslumbrantes ocupen casi todo el espacio que se concede a estos asuntos para un público no experto y que sean ellas las que suelen centrar la discusión. No digo que esté mal pensar sobre las posibilidades remotas y espectaculares que nos presentan estos portavoces interesados, pero creo que hay que hacer un esfuerzo por pensar también sobre los problemas reales que esta tecnología suscita, por menos atractivos que resulten. Y entre ellos, el principal es el de cómo podremos controlar democráticamente la extensión de la inteligencia artificial particular, que es la que tenemos hoy y la que quizás siempre tengamos, y evitar sus efectos más indeseables. Como ha dicho el filósofo de la tecnología de la Universidad de Oxford, Luciano Floridi, en su libro The fourth revolution (Oxford: OUP, 2014), el desafío real no son las innovaciones tecnológicas, sino la gobernanza de todo lo digital. Esto es algo que ha sido subrayado también recientemente en nuestro país en el libro de José María Lasalle, Ciberleviatán (Barcelona: Arpa, 2019).
La sobrenaturaleza de la que hablaba Ortega, ese mundo creado por la técnica que es el único que el ser humano realmente habita y desea habitar, es hoy en día sobre todo infosfera, o noosfera, o tercer entorno, como lo llama Javier Echeverría. Es un entorno digital en el que las tecnologías de la información y de la comunicación (TIC) proliferan y en el que el manejo de los datos es la moneda corriente; y es allí donde reina la inteligencia artificial. Lo preocupante es que empieza su reinado como un monarca absoluto, sin el más mínimo control eficaz sobre sus posibles abusos y caprichos (entiéndaseme, no sobre los suyos, sino sobre los abusos y caprichos de los que la controlan ahora, es decir, empresas como Alphabet (con Google y DeepMind), Facebook, Amazon, Apple, Microsoft, AliBaba o Baidu, esas que a veces nos ofrecen sus servicios “gratuitamente” a cambio de nuestros datos).
Considerada como el motor de la cuarta revolución industrial, las aplicaciones de la inteligencia artificial se extienden por los campos más diversos: la medicina, la automatización, la economía y las finanzas, el ejército, el procesamiento del lenguaje natural, la robótica, etc. Con el desarrollo de los sistemas integrados la tendremos pronto en todo los que nos rodea en la vida cotidiana, desde los electrodomésticos hasta los edificios, desde la oficina hasta la política y los medios de comunicación, desde la policía hasta el centro escolar o la Universidad. Lo que marca las auténticas fronteras económicas que pueden trazarse hoy en el mundo es sencillamente un factor tecnológico: si la conexión a Internet descansa por la noche o no. La cibervigilia es el criterio que decide quién existe realmente en el mundo y quién es solo un espectro. Cuando estar conectado a Internet sea sinónimo de entrar sin tapujos en el entramado controlador de los algoritmos de la inteligencia artificial, como ya empieza a suceder, esa transición definitiva a la infosfera se habrá completado.
El despliegue gigantesco de la inteligencia artificial, que la ha convertido ya en la tecnología que más dinero mueve, está generando muchos recelos, y los escenarios distópicos de sociedades absolutamente controladas por poderes totalitarios, o de humanos convertidos en jubilados prematuros y resentidos, o de robots superinteligentes que deciden que somos un estorbo para ellos, empiezan a ser parte del imaginario popular. Paradójicamente, ese miedo convive con un empeño cada vez más obsesivo por adaptarse como sea a las nuevas tecnologías. Tanto en el mundo del trabajo como en el de la enseñanza solo se piensa en cómo integrar la innovación más reciente, que será la que finalmente revolucione la profesión o convierta al profesor en una máquina eficiente (que podrá ser sustituida más adelante por máquinas auténticas). La satisfacción de las necesidades de las empresas se ha convertido en el criterio último de evaluación sobre la eficiencia y la calidad de los servicios. A las Universidades, por ejemplo, no deja de pedírseles que se amolden a dichas necesidades, y se les avisa de que sus viejos objetivos de creación de cultura y de formación de personas conocedoras de esa cultura están ya obsoletos. No rinden ningún beneficio tangible. Hasta en lugares que parecían reservados para siempre a la humana virtud de la prudencia en el juicio, como es el mundo del derecho, particularmente el de la judicatura, o el de la medicina, ven también cómo sus puertas se abren decididamente a los sistemas de inteligencia artificial, que llegan con algoritmos capaces de justificar sentencias a partir de abundante jurisprudencia, o de realizar diagnósticos más fiables que los humanos, u operaciones quirúrgicas delicadas y complejas.
Sin embargo, lo que se echa en falta en el discurso en muchos de los voceros de estos miedos, o de los entusiasmos que, por el contrario, solo ven oportunidades para alcanzar paraísos que se nos habían resistido, es una reflexión sosegada y fundamentada sobre el alcance y las posibilidades reales de esta tecnología. Es necesario abandonar tanto cliché como se difunde y hacer prospectivas serias. Por ley, al menos en Europa, se dedican millones de euros a investigar sobre cuestiones éticas relacionadas con la inteligencia artificial, pero por el momento no ha surgido una ética de la IA, o una ciber-ética, o una tecno-ética, que tenga el mismo peso del que goza la bioética, por mucho que la capacidad de influencia de ésta sea también limitada. Estas reflexiones exigen un enfoque multidisciplinar difícil de conseguir, lo que quizás constituye uno de los principales obstáculos para el buen funcionamiento del proyecto. Se necesitan ingenieros con formación filosófica y filósofos con formación científica e ingenieril. Si bien hay que decir que los primeros pasos firmes se han dado ya y que empieza a haber un número significativo de análisis rigurosos sobre estos asuntos, aunque rara vez alcancen al gran público.
Distraídos con los futuros distópicos, con las pérdidas masivas de puestos de trabajo, o con las promesas entusiastas del “solucionismo” tecnológico, estamos dejando de ver lo fundamental. Los problemas reales están ya aquí. No hay que esperar décadas. Son los problemas de gobernanza a los que se refiere Floridi. El control de los datos está poniendo ya un enorme poder en muy pocas manos. Hay quien afirma que es una concentración de poder jamás conocida. Las grandes compañías tecnológicas constituyen oligopolios sin competencia real que imponen sus reglas a gobiernos e instituciones nacionales e internacionales. Evaden impuestos y se refugian en paraísos fiscales, sin que ningún gobierno haya podido aún cambiar sustancialmente las cosas. Muy preocupante es también la posibilidad de usar (porque, al parecer, están siendo creadas ya[1]) armas inteligentes y autónomas, a las que se designa con el cínico nombre de LAWS (Lethal Autonomous Weapons Systems). Estas armas son capaces de tomar decisiones sobre qué objetivos han de ser abatidos sin necesidad de un control directo humano, dirigidas solo por su propio sistema de sensores y algoritmos. A ello podemos añadir otras amenazas de carácter militar y estratégico como son los ciberataques realizados por bots o agentes autónomos inteligentes o la creación de noticias falsas o bulos con el propósito de desestabilizar a los enemigos políticos o a las potencias rivales, o simplemente de manipular elecciones. E inquieta igualmente el uso de técnicas de inteligencia artificial, como el reconocimiento de caras, para la vigilancia y el control de los ciudadanos. Una posibilidad muy real y con fuerte apoyo popular en países con regímenes autoritarios, pero también en los que presumen de calidad democrática, si bien en estos las prohibiciones sobre su uso empiezan a extenderse. Y, por cerrar aquí la lista, que podríamos prolongar fácilmente, es asimismo desasosegante el peso que los algoritmos han alcanzado en las decisiones que se toman en los mercados financieros, abriendo la posibilidad de generar crisis económicas sin que el ser humano sepa bien cómo y por qué se han producido.
No obstante, la partida no está aún acabada. Lo que sea en el futuro la inteligencia artificial dependerá en lo esencial de nosotros, de las decisiones que tomemos ahora. Nada está escrito, ni siquiera en el desarrollo tecnológico, como pretenden hacernos creer los deterministas. Si tomamos el camino acertado, y es posible hacerlo, la inteligencia artificial puede ser una gran ayuda para resolver algunos de los problemas más graves a los que habremos de enfrentarnos en los próximos años. Puede ser una herramienta de inestimable valor en la lucha frente al cambio climático. Puede servir para la eliminación de trabajos duros y rutinarios y para el aumento de la productividad, aunque debamos buscar el modo en el que la pérdida masiva de puestos de trabajo que probablemente acarreará no termine castigando, como siempre, a los más desfavorecidos. Puede ser un resorte fundamental en la creación de mayor desarrollo humano sin necesidad de una explotación tan masiva de recursos, aunque habrá que ver cómo disminuir el consumo alto de energía de los sistemas informáticos actuales. Puede contribuir a una mayor coordinación y cooperación entre países, alimentado proyectos que acaben con las desigualdades económicas extremas, aunque habrá que potenciar la transferencia de tecnología. Puede constituir una mejora cualitativa sustancial en el sistema sanitario y en el cuidado de las personas ancianas o con disfunciones de diverso tipo. Puede incluso ser un elemento clave en la prevención y control de problemas graves que ella misma ha contribuido a crear, como la proliferación de noticias falsas, que constituyen en la actualidad una de las mayores amenazas para los sistemas democráticos.
Todo esto son asuntos demasiado importantes como para centrarse en la discusión atemorizada de las predicciones más fantásticas. Atendamos mejor al problema de la gobernanza de la tecnología, que es donde nos jugamos el futuro. Pero, para eso, hemos de comenzar por dejar de contemplar con tan buenos ojos la pretensión de hacer que entreguemos nuestra privacidad y nuestra capacidad de decidir no tanto a las máquinas como a los dueños de las máquinas, con la excusa, según se nos repite, de que nada hay que podamos hacer al respecto. Muchos estarían dispuestos a renunciar con gusto a esa capacidad mientras se mantenga el circo tecnológico a pleno rendimiento y les proporcione diversión y seguridad, pero, lo reconozcan o no, esta es la mejor manera, si no la única, de impedir el cumplimiento de las anunciadas distopías y debería incorporarse en la agenda de todos los partidos políticos. Es hora de ponerse en serio con el trabajo legislativo.[2]
Referencias
[1] Véase, por ejemplo, J. Pandya, “The Weaponization Of Artificial Intelligence”, Forbes, 14/01/2019, https://www.forbes.com/sites/cognitiveworld/2019/01/14/the-weaponization-of-artificial-intelligence/#500797883686. Véase también la carta abierta firmada por diversos especialistas en Inteligencia Artificial en contra de su fabricación: https://futureoflife.org/open-letter-autonomous-weapons/?cn-reloaded=1 , o la campaña de diversas ONGs Stop Killer Robots: https://www.stopkillerrobots.org/about/. Un análisis realista de la situación actual puede verse en M. Bartlett, “The AI Arms Race In 2019”, Towards Data Science: https://towardsdatascience.com/the-ai-arms-race-in-2019-fdca07a086a7
[2] No me resisto a terminar haciendo mención de una buena noticia al respecto: https://www.elconfidencial.com/empresas/2019-07-27/silicon-valley-zuckerberg-big-techs_2147951/. Sobre la situación en la UE, puede verse el dictamen de 2017 del Comité Económico y Social Europeo sobre la “Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad”: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=uriserv:OJ.C_.2017.288.01.0001.01.SPA; y la resolución del Parlamento Europeo, de 12 de febrero de 2019, sobre “Una política industrial global europea en materia de inteligencia artificial y robótica”: http://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_ES.html.
Para citar este artículo
Diéguez, Antonio (2019). El miedo a la inteligencia artificial. Accesible en Niaiá 04/10/2019 https://niaia.es/el-miedo-a-la-inteligencia-artificial/