«Nunca invoques un poder que no puedas controlar»: Yuval Noah Harari sobre cómo la IA podría amenazar la democracia y dividir al mundo
Olvídate de las representaciones de Hollywood de robots armados corriendo descontrolados por las calles: la realidad de la inteligencia artificial es mucho más peligrosa, tal y como advierte el historiador Yuval Noaḥ Harari en este extracto que LENGUA publica en exclusiva de su nuevo libro, «Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA» (Debate, septiembre de 2024). En las siguientes líneas, extraídas y adaptadas del prólogo y los capítulos 10 y 11 del libro, el autor israelí alerta de la crisis a la que nos enfrentamos hoy en día, cuando la inteligencia no humana pone en peligro nuestra propia existencia: «La IA es una amenaza sin precedentes para la humanidad porque es la primera tecnología en la historia que puede tomar decisiones y generar nuevas ideas por sí misma».
Yuval Noah Harari. Crédito: cortesía del autor.
A lo largo de la historia, un buen número de tradiciones han creído que un defecto letal en nuestra naturaleza nos incita a andar detrás de poderes que no sabemos manejar. El mito griego de Faetón nos habla de un muchacho que descubre que es hijo de Helios, el dios sol. Ansioso por demostrar su origen divino, Faetón se atribuye el privilegio de conducir el carro del sol. Helios le advierte que ningún humano puede controlar a los caballos celestes que tiran del carro solar. Pero Faetón insiste, hasta que el dios sol cede. Después de elevarse orgulloso en el cielo, Faetón acaba por perder el control del carro. El sol se desvía de su trayectoria, abrasa toda la vegetación, provoca gran cantidad de muertes y amenaza con quemar la Tierra misma. Zeus interviene y alcanza a Faetón con un rayo. El presuntuoso humano cae del cielo como una estrella fugaz, envuelto en llamas. Los dioses retoman el control del cielo y salvan el mundo.
Dos mil años después, cuando la Revolución Industrial daba sus primeros pasos y las máquinas empezaban a sustituir a los humanos en numerosas tareas, Johann Wolfgang von Goethe publicó un texto admonitorio similar titulado «El aprendiz de brujo». El poema de Goethe (que posteriormente se popularizó en la versión animada de Walt Disney protagonizada por Mickey Mouse) cuenta cómo un brujo ya anciano deja su taller en manos de un joven aprendiz, a quien pide que, en su ausencia, se encargue de tareas como traer agua del río. El aprendiz decide facilitarse las cosas y, recurriendo a uno de los conjuros del brujo, lanza un hechizo sobre una escoba para que vaya a por el agua. Pero el aprendiz no sabe cómo detener la escoba, que, incansable, trae cada vez más agua, lo que amenaza con inundar el taller. Presa del pánico, el aprendiz corta la escoba encantada en dos con un hacha solo para ver que cada mitad se convierte en otra escoba. Ahora hay dos escobas encantadas que inundan el taller con cubos de agua. Cuando el viejo brujo regresa, el aprendiz le suplica ayuda: «Los espíritus a los que invoqué […] ahora no puedo librarme de ellos». De inmediato, el brujo deshace el hechizo y detiene la inundación. La lección para el aprendiz —y para la humanidad— es clara: nunca recurras a poderes que no puedas controlar.
¿Qué nos dicen las fábulas conminatorias del aprendiz y de Faetón en el siglo XXI? Es obvio que los humanos nos hemos negado a hacer caso de sus advertencias. Ya hemos provocado un desequilibrio en el clima terrestre y puesto en acción a miles de millones de escobas encantadas, drones, chatbots y otros espíritus algorítmicos con capacidad para escapar a nuestro control y desatar una inundación de consecuencias incalculables.
Así, pues, ¿qué debemos hacer? Las fábulas no ofrecen ninguna respuesta, a no ser que esperemos que un dios o un brujo nos salven.
El mito de Faetón y el poema de Goethe no proporcionan un consejo útil porque malinterpretan la manera en que los humanos solemos hacernos con el poder. En ambas fábulas, un único humano adquiere un poder enorme, pero después se ve corrompido por la soberbia y la codicia. La conclusión es que nuestra psicología individual imperfecta provoca que abusemos del poder. Lo que este análisis aproximado pasa por alto es que el poder humano nunca es el resultado de una iniciativa individual. El poder siempre surge de la cooperación entre un gran número de personas.
Por consiguiente, no es nuestra psicología individual lo que provoca que abusemos del poder. Al fin y al cabo, junto con la codicia, la soberbia y la crueldad, los humanos somos capaces de amar, de compadecernos, de ser humildes y de sentir alegría. Sin duda, entre los peores miembros de nuestra especie abundan la codicia y la crueldad, que llevan a los malos actores a abusar del poder. Pero ¿por qué elegirían las sociedades humanas encomendar el poder a sus peores representantes?
Por ejemplo, en 1933 la mayoría de los alemanes no eran psicópatas. Entonces, ¿por qué votaron a Hitler?
Nuestra tendencia a invocar poderes que somos incapaces de controlar no surge de la psicología individual, sino de la singular manera en que tiene lugar la cooperación entre un gran número de individuos en nuestra especie. La humanidad consigue un poder enorme mediante la construcción de grandes redes de cooperación, pero la forma en que se construyen dichas redes las predispone a hacer un uso imprudente del poder. Nuestro problema, por lo tanto, tiene que ver con las redes. Más concretamente, es un problema de información. La información es el pegamento que mantiene unidas las redes, y cuando las personas reciben mala información, es probable que tomen malas decisiones, sin importar cuán sabias y amables sean personalmente.
En una encuesta de 2023 en la que participaron 2.778 investigadores de IA, más de un tercio estimó en al menos un 10 por ciento la probabilidad de que la IA avanzada conduzca a resultados tan negativos como la extinción humana.
En épocas recientes, la humanidad ha experimentado un aumento sin precedentes en la cantidad y la velocidad de la producción de información. Cualquier teléfono inteligente contiene más información que la antigua Biblioteca de Alejandría y permite a su propietario entrar en contacto instantáneo con miles de millones de personas de todo el mundo. Pero, con tanta información circulando a velocidades impresionantes, la humanidad se halla más cerca que nunca de la aniquilación.
A pesar de —o quizá debido a— la acumulación de datos, seguimos arrojando a la atmósfera gases de efecto invernadero, contaminamos ríos y mares, talamos bosques, destruimos hábitats enteros, condenamos a innumerables especies a la extinción y ponemos en peligro los cimientos ecológicos de nuestra especie. También producimos armas de destrucción masiva cada vez más poderosas, desde bombas termonucleares hasta virus que pueden suponer la total aniquilación de la humanidad. Nuestros líderes no carecen de información acerca de estos peligros, pero, en lugar de colaborar en la búsqueda de soluciones, se acercan cada vez más a una guerra global.
Disponer cada vez de más información ¿hará que las cosas mejoren? ¿O hará que empeoren? Pronto lo descubriremos. Numerosas empresas y gobiernos se hallan inmersos en una carrera por desarrollar la tecnología de la información más poderosa de la historia, la inteligencia artificial (IA). Empresarios destacados como el inversor estadounidense Marc Andreessen creen que la IA acabará por resolver todos los problemas de la humanidad. El 6 de junio de 2023, Andreessen publicó un ensayo titulado «Por qué la IA salvará el mundo» que salpicó de afirmaciones tan atrevidas como: «Estoy aquí para dar a conocer una buena noticia: la IA no destruirá el mundo, y de hecho puede salvarlo», o «la IA puede mejorar todo aquello que nos importa». Y concluía: «El desarrollo y la proliferación de la IA, lejos de un riesgo que deberíamos temer, es una obligación moral que asumimos para con nosotros mismos, nuestros hijos y nuestro futuro».
Otros son más escépticos. No solo filósofos y científicos sociales, sino también conocidos expertos en IA y empresarios como Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk y Mustafa Suleyman han advertido al público sobre cómo la IA puede destruir nuestra civilización. En una encuesta de 2023 en la que participaron 2.778 investigadores de IA, más de un tercio estimó en al menos un 10 por ciento la probabilidad de que la IA avanzada conduzca a resultados tan negativos como la extinción humana. En 2023, cerca de treinta gobiernos —entre ellos los de China, Estados Unidos y Reino Unido— firmaron la Declaración de Bletchley sobre la IA, en la que se reconocía que «cabe la posibilidad de un daño grave, incluso catastrófico, ya sea deliberado o no intencionado, que surge de las capacidades más relevantes de estos modelos de IA». Al emplear términos tan apocalípticos, los expertos y los gobiernos no pretenden conjurar una escena hollywoodiense de robots rebeldes que corren por las calles y disparan contra la población. Este es un supuesto poco probable, y no hace más que desviar el foco de los peligros reales.
La IA es una amenaza sin precedentes para la humanidad porque es la primera tecnología en la historia que puede tomar decisiones y generar nuevas ideas por sí misma. Todo invento humano previo ha servido para conferir poder a los humanos, porque, con independencia del alcance que tuviera la nueva herramienta, las decisiones sobre su uso se han mantenido en nuestras manos. Las bombas nucleares no deciden por sí mismas a quién matar, ni pueden mejorar por sí mismas o incluso inventar bombas aún más poderosas. En cambio, los drones autónomos pueden decidir por sí mismos a quién matar, y las IA pueden crear nuevos diseños de bombas, estrategias militares inéditas y mejores IA. La IA no es una herramienta, es un agente. La mayor amenaza de la IA es que estamos invocando en la Tierra innumerables nuevos y poderosos agentes que potencialmente son más inteligentes e imaginativos que nosotros, y que no entendemos ni controlamos del todo.
El jugador surcoreano de go Lee Sedol (derecha) se prepara para su partida contra el programa de inteligencia artificial de Google, AlphaGo, durante el Google DeepMind Challenge Match celebrado el 10 de marzo de 2016 en Seúl, Corea del Sur. Crédito: Google a través de Getty Images.
Tradicionalmente, el término IA se ha utilizado como un acrónimo de Inteligencia Artificial. Pero es quizás mejor verlo como un acrónimo de Inteligencia Ajena. A medida que la IA evoluciona, se vuelve menos artificial (en el sentido de depender de diseños humanos) y más ajena. Muchas personas intentan medir e incluso definir la inteligencia artificial utilizando la métrica de «inteligencia a nivel humano», y hay un debate animado sobre cuándo podemos esperar que las IA alcancen la «inteligencia a nivel humano». Esta métrica es profundamente engañosa. Es como definir y evaluar los aviones a través de la métrica de «vuelo a nivel de pájaro». La IA no está progresando hacia la inteligencia a nivel humano. Está evolucionando hacia un tipo de inteligencia ajena.
Incluso en el momento actual, en la fase embrionaria de la revolución de la IA, los ordenadores toman decisiones por nosotros: la concesión de una hipoteca, un contrato de trabajo o la imposición de una pena de cárcel. Esta tendencia no hará más que aumentar y acelerarse, lo que nos dificultará la comprensión de nuestra propia vida. ¿Podemos confiar en los algoritmos informáticos para tomar decisiones sensatas y construir un mundo mejor? Este es un juego mucho más serio que confiar en que una escoba encantada achique agua. Y estamos poniendo en riesgo más que vidas humanas. La IA puede alterar el curso no solo de la historia de nuestra especie, sino de la evolución de todos los seres vivos.
Mustafa Suleyman es un experto mundial en este tema. Es cofundador y exdirector de DeepMind, una de las empresas de IA más importantes del mundo, responsable de desarrollar el programa AlphaGo, entre otros logros. AlphaGo se diseñó para jugar al go, un juego de estrategia en el que dos jugadores se disputan un territorio. Inventado en la antigua China, es bastante más complejo que el ajedrez. En consecuencia, incluso después de que fuera capaz de derrotar a un campeón mundial de ajedrez, los expertos siguieron creyendo que un ordenador nunca vencería a un humano en el go.
De ahí que, en marzo de 2016, tanto profesionales del go como expertos en informática quedaran atónitos cuando AlphaGo derrotó al campeón surcoreano de go Lee Sedol. En su libro de 2023 La ola que viene, Suleyman describe uno de los momentos más importantes de la partida, un momento que redefinió la IA y que en numerosos círculos académicos y gubernamentales se reconoce como un punto de inflexión en la historia. Tuvo lugar el 10 de marzo de 2016, durante el segundo juego de la partida.
«Entonces… llegó la jugada número 37 —escribe Suleyman—. No tenía sentido. Por lo visto, AlphaGo la había pifiado al seguir una estrategia aparentemente perdedora que ningún jugador profesional habría empleado nunca. Los comentaristas, ambos profesionales del mayor nivel, dijeron que había sido un "movimiento muy extraño" y pensaron que se trataba de "un error". Era algo tan insólito que Sedol tardó quince minutos en responder, e incluso se levantó de la mesa para dar un paseo. En la sala de control desde la que observábamos se palpaba la tensión. Pero, a medida que se acercaba el final de la partida, la jugada "errónea" se demostró esencial. AlphaGo volvió a ganar. La estrategia del go se estaba reescribiendo ante nuestros ojos. Nuestra IA había descubierto ideas que no se les habían ocurrido a los jugadores más brillantes en miles de años».
La jugada 37 es un emblema de la revolución de la IA por dos razones. La primera es que demostró la naturaleza ajena de la IA. En Asia oriental el go es mucho más que un juego: es una tradición cultural muy apreciada. Junto con la caligrafía, la pintura y la música, el go es una de las cuatro artes que se espera que toda persona refinada conozca. Durante más de dos mil quinientos años, decenas de millones de personas han jugado al go, y alrededor del juego se han desarrollado escuelas enteras de pensamiento que han apadrinado diferentes estrategias y filosofías. Pero, durante todos estos milenios, la mente humana ha explorado solo determinadas áreas en el paisaje del go. Otras quedaron intactas porque simplemente la mente humana no pensó en aventurarse a descubrirlas. La IA, al estar libre de las limitaciones de la mente humana, descubrió y exploró estas áreas que se mantenían ocultas.
La segunda razón es que demostró la ininteligibilidad de la IA. Ni siquiera después de que AlphaGo hiciera la jugada 37 para conseguir la victoria, Suleyman y su equipo pudieron explicar cómo había decidido hacerlo. Si un tribunal hubiera ordenado a DeepMind que proporcionara a Lee Sedol una explicación, nadie podría haber cumplido tal orden. Escribe Suleyman: «Ahora mismo, en la IA, las redes neurales que avanzan hacia la autonomía son inexplicables. No podemos hacer que alguien explore el proceso de toma de decisiones para explicar con precisión por qué un algoritmo ha hecho una predicción específica. Los ingenieros no pueden mirar bajo el capó y explicar en detalle la causa de que algo haya ocurrido. GPT-4, AlphaGo y demás son cajas negras, y todo aquello que producen y deciden se basa en cadenas opacas e imposiblemente intrincadas de señales minúsculas».
La IA no es una herramienta, es un agente. La mayor amenaza de la IA es que estamos invocando en la Tierra innumerables nuevos y poderosos agentes que potencialmente son más inteligentes e imaginativos que nosotros, y que no entendemos ni controlamos del todo.
El auge de una inteligencia ajena e insondable socava la democracia. Si nuestras vidas dependen cada vez más de las decisiones de una caja negra cuya comprensión y cuestionamiento quedan fuera del alcance de los votantes, la democracia dejará de funcionar. En concreto, ¿qué pasará cuando unos algoritmos insondables tomen decisiones de importancia no solo acerca de la vida de los individuos sino también sobre cuestiones de interés general como la tasa de interés de la Reserva Federal? Los votantes humanos aún podrán elegir un presidente humano, pero ¿no será una ceremonia vacía? Incluso en la actualidad, solo una pequeña parte de la humanidad entiende el funcionamiento del sistema financiero. Una encuesta de 2014 a miembros del Parlamento británico —que se encargan de regular uno de los centros financieros más importantes del mundo— reveló que solo el 12 por ciento entendía con exactitud que cuando los bancos conceden préstamos se crea dinero nuevo. Este es uno de los principios básicos del sistema financiero moderno. Tal como demostró la crisis financiera de 2007/2008, las estrategias y principios financieros más complejos, como los que hay detrás de los CDO, solo eran inteligibles para unos pocos magos de las finanzas. ¿Qué ocurrirá con la democracia cuando las IA creen estrategias financieras todavía más complejas y cuando el número de humanos capaces de entender el sistema financiero se reduzca a cero?
Traduciendo la fábula de advertencia de Goethe al lenguaje de las finanzas modernas, imaginemos el siguiente escenario: un aprendiz de Wall Street cansado de la monotonía del taller financiero crea una IA llamada Escoba, le proporciona un millón de dólares en capital inicial y le ordena que genere más dinero. Para la IA, las finanzas son el campo de juego ideal, ya que es un ámbito puramente informativo y matemático. Las IA aún encuentran difícil conducir un coche de forma autónoma, porque esto requiere moverse e interactuar en el desordenado mundo físico, donde el «éxito» es difícil de definir. Por contra, para realizar transacciones financieras, la IA solo necesita tratar con datos y puede medir con facilidad su éxito matemáticamente en dólares, euros o libras. Más dólares: misión cumplida.
En busca de más dólares, Escoba no solo ideará nuevas estrategias de inversión, sino que también desarrollará dispositivos financieros completamente nuevos que ningún ser humano ha imaginado. Durante miles de años, las mentes humanas solo han explorado ciertas áreas en el paisaje de las finanzas. Inventaron el dinero, los cheques, los bonos, las acciones, los ETFs, los CDOs y otros trucos de brujería financiera. Pero muchas áreas financieras quedaron sin explorar, porque las mentes humanas simplemente no pensaron en aventurarse allí. Escoba, al estar libre de las limitaciones de las mentes humanas, descubre y explora estas áreas previamente ocultas, realizando movimientos financieros que son el equivalente a la jugada 37 de AlphaGo.
Durante un par de años, mientras Escoba guía a la humanidad hacia territorios financieros vírgenes, todo parece maravilloso. Los mercados están en auge, el dinero fluye sin esfuerzo y todos están felices. Luego ocurre una crisis aún mayor que la de 1929 o 2008. Pero ningún ser humano —ya sea presidente, banquero o ciudadano— sabe qué la causó ni qué se puede hacer al respecto. Dado que no hay dios ni hechicero que venga a salvar el sistema financiero, los gobiernos, desesperados, solicitan ayuda a la única entidad capaz de entender lo que está ocurriendo: a Escoba. La IA hace varias recomendaciones políticas, mucho más audaces que la flexibilización cuantitativa —y también mucho más opacas—. Escoba promete que estas políticas nos sacarán del apuro, pero los políticos humanos —incapaces de entender la lógica detrás de las recomendaciones de Escoba— temen que podrían desmantelar por completo el tejido financiero e incluso social del mundo. ¿Deberían escuchar a la IA?
Los ordenadores aún no son lo suficientemente poderosos como para escapar completamente a nuestro control o destruir la civilización humana por sí solos. Mientras la humanidad permanezca unida, podemos construir instituciones que regulen la IA, ya sea en el ámbito financiero o en el de la guerra. Desafortunadamente, la humanidad nunca ha estado unida. Siempre hemos estado plagados de actores negativos, así como de desacuerdos entre actores positivos. El auge de la IA plantea un peligro existencial para la humanidad no por la malevolencia de los ordenadores, sino por nuestras propias deficiencias.
Así, un dictador paranoico podría otorgar un poder ilimitado a una IA falible, incluido el de lanzar un ataque nuclear. Si el dictador confía más en su IA que en su ministro de Defensa, ¿no tendría sentido que fuera dicha IA la encargada de supervisar el uso de las armas más poderosas del país? Pero, entonces, si la IA cometiera un error o se dedicara a perseguir un objetivo, el resultado podría ser catastrófico, y no solo para el país en cuestión. De modo similar, una banda terrorista cuyo campo de acción se limita a un rincón del planeta podría usar la IA para iniciar una pandemia global. Los terroristas podrían estar más versados en mitologías apocalípticas que en epidemiología, pero solo tendrían que fijarse un objetivo y la IA se encargaría del resto. La IA podría sintetizar un nuevo patógeno, pedírselo a un laboratorio comercial o incluso imprimirlo a través de una impresora biológica 3D, y a continuación diseñar la mejor estrategia para esparcirlo por el mundo, ya sea en aeropuertos o a través de la industria alimentaria. ¿Qué ocurriría si la IA llegara a sintetizar un virus que se revelara tan letal como el Ébola, tan contagioso como la COVID-19 y de manifestación tan lenta como el virus del sida? Para cuando empezaran a morir las primeras víctimas y se alertara del peligro a todo el mundo, la mayoría nos habríamos infectado.
Comparación de un vídeo original y uno deepfake del director ejecutivo de Facebook, Mark Zuckerberg. Crédito: Getty Images.
La civilización humana también podría ser víctima de armas de destrucción masiva sociales, como, por ejemplo, relatos capaces de socavar nuestros vínculos de convivencia. Una IA desarrollada en un país concreto podría emplearse para desatar una avalancha de noticias falsas, dinero falso y humanos falsos, de manera que la gente de otros numerosos países perdiera la capacidad de confiar en nada ni nadie.
Muchas sociedades, ya sean democracias o dictaduras, pueden actuar con responsabilidad para regular estos usos de la IA, adoptar medidas drásticas contra los actores dañinos y poner freno a las peligrosas ambiciones de sus propios gobernantes y de fanáticos. Pero bastaría con que un puñado de estas sociedades no lo hicieran para poner en peligro a toda la humanidad. Al tratarse de un problema global y no nacional, el cambio climático puede acabar incluso con aquellos países que adopten unas normativas medioambientales excelentes. La IA también es un problema global. Los gobiernos pecarían de ingenuos si creyeran que una regulación sensata de la IA dentro de sus fronteras fuera a protegerlos de las consecuencias negativas que puede acarrear la revolución de la IA.
De modo que, para comprender la nueva política relativa a los ordenadores, no basta con examinar las posibles reacciones de cada sociedad ante la IA. También debemos considerar hasta qué punto la IA podría alterar las relaciones entre todas esas sociedades a un nivel global.
En el siglo XVI, los conquistadores españoles, portugueses y holandeses estaban instaurando los primeros imperios globales de la historia, a base de barcos de vela, caballos y pólvora. Cuando británicos, rusos y japoneses compitieron por la hegemonía durante los siglos XIX y XX, se basaron en barcos de vapor, locomotoras y ametralladoras. En el siglo XXI, para dominar una colonia ya no es necesario desplegar la artillería. Basta con apoderarse de sus datos. Unas pocas compañías o un Gobierno que consigan recolectar los datos de todo el mundo podrían convertir el resto del globo en colonias de datos: territorios dominados no mediante una fuerza militar manifiesta, sino con información.
Supongamos que, dentro de veinte años, haya alguien en Pekín o en San Francisco que tenga en su poder el historial completo de cada político, periodista, coronel y director ejecutivo de nuestro país: todos los textos escritos, las búsquedas realizadas en la red, las enfermedades padecidas, los encuentros sexuales, los chistes contados, incluso los sobornos aceptados. ¿Aún viviríamos en un país independiente o más bien habitaríamos una colonia de datos? ¿Qué ocurre cuando nuestro país depende de las infraestructuras digitales y de unos sistemas gobernados por la IA sobre los que carece de control efectivo?
¿Qué ocurriría si la IA llegara a sintetizar un virus que se revelara tan letal como el Ébola, tan contagioso como la COVID-19 y de manifestación tan lenta como el virus del sida?
En el ámbito económico, los imperios anteriores se basaban en recursos materiales como la tierra, el algodón y el petróleo. Esto limitaba la capacidad del imperio para concentrar tanto la riqueza económica como el poder político en un solo lugar. La física y la geología no permiten que toda la tierra, el algodón o el petróleo del mundo se desplace a un solo país. La cosa cambia con los nuevos imperios de información. Los datos pueden moverse a la velocidad de la luz y los algoritmos no ocupan mucho espacio. En consecuencia, el poder algorítmico mundial puede concentrarse en un solo centro. Ingenieros en un solo país podrían escribir el código y controlar las claves para todos los algoritmos cruciales que gobiernen el mundo entero.
Por lo tanto, la IA y la automatización plantean un reto importante a los países más pobres y en vías de desarrollo. En una economía impulsada por la IA, los líderes digitales reclaman la mayor parte de los beneficios y pueden emplear su riqueza para seguir formando a su mano de obra y multiplicar sus beneficios. Mientras tanto, el valor de los obreros no cualificados de países rezagados se verá reducido, y estos países no tendrán los recursos suficientes para dotar de capacidades a su mano de obra, lo que hará que queden aún más rezagados. Como resultado, pueden generarse muchísimos nuevos empleos e inmensas riquezas en San Francisco o Shanghái mientras sobre otras muchas partes del mundo se cierne la ruina económica. Según la empresa de consultoría y contabilidad global PriceWaterhouseCoopers, se espera que en 2030 la IA aporte 15.700 millones de dólares a la economía global. Pero si se mantienen las tendencias actuales, se estima que China y Norteamérica —las dos principales superpotencias en el campo de la IA— se repartirán el 70 por ciento de esos ingresos.
Durante la Guerra Fría, en muchos lugares el Telón de Acero estaba literalmente compuesto de metal: una alambrada de espino separaba un país de otro. Ahora, el mundo se encuentra cada vez más dividido por culpa del Telón de Silicio. El código de nuestro teléfono móvil determina en qué lado del Telón de Silicio vivimos, qué algoritmos rigen nuestra vida, quién controla nuestra atención y hacia dónde fluyen nuestros datos.
Está resultando difícil acceder a información a través del Telón de Silicio, por ejemplo entre China y Estados Unidos, o entre Rusia y la UE. Además, las redes digitales que se usan en cada lado son cada vez más dispares, pues se basan en diferentes códigos informáticos.. En China no puedes usar Google o Facebook, y no puedes acceder a Wikipedia. En Estados Unidos, pocas personas usan WeChat, Baidu o Tencent. Más importante aún, las dos esferas digitales no son imágenes espejo la una de la otra. Baidu no es el Google chino. Alibaba no es el Amazon chino. Tienen objetivos diferentes, arquitecturas digitales distintas e impactos diversos en la vida de las personas. Estas diferencias influyen en gran parte del mundo, ya que la mayoría de los países dependen del software chino y americano en lugar de en tecnología local.
Estados Unidos también presiona a sus aliados y clientes para que eviten usar aparatos físicos chinos como la red 5G de Huawei. El Gobierno de Trump bloqueó un intento de la compañía Broadcom, con sede en Singapur, de absorber al principal productor estadounidense de chips informáticos, Qualcomm. Temían que los fabricantes extranjeros colocaran puertas traseras en los chips o que impidieran que el Gobierno estadounidense insertara allí sus propias puertas traseras. Tanto la administración Trump como la de Biden han impuesto estrictas limitaciones al comercio de chips de alto rendimiento necesarios para el desarrollo de la IA. Las empresas estadounidenses ahora tienen prohibido exportar tales chips a China. Aunque a corto plazo esto obstaculiza a China en la carrera de la IA, a largo plazo la empuja a desarrollar una esfera digital completamente independiente que será distinta de la esfera digital estadounidense incluso en sus unidades constitutivas más pequeñas.
Las dos esferas digitales podrían, por lo tanto, seguir alejándose cada vez más.
Yuval Noah Harari. Crédito: Love Tomorrow.
Durante siglos, nuevas tecnologías de información alimentaron los procesos de globalización y empujaron a gente de todo el mundo a entablar contactos más estrechos. Por extraño que parezca, hoy la tecnología de la información es tan poderosa que podría dividir a la humanidad, al encerrar a personas diferentes en cápsulas de información separadas, lo que acabaría con la idea de una única realidad humana compartida. Aunque en las últimas décadas la red ha representado nuestra metáfora principal, el futuro podría pertenecer a las cápsulas.
Aunque China y Estados Unidos lideran la carrera de la IA, no están solos. Otros países o bloques, como la Unión Europea, India, Brasil o Rusia, pueden intentar crear sus propias esferas digitales, cada una de ellas influida por diferentes tradiciones políticas, culturales y religiosas. En lugar de dividirse en solo dos imperios globales, el mundo podría dividirse en una docena de imperios.
Cuanto más compitan entre sí los nuevos imperios, mayor ser el peligro de que se produzca un conflicto armado. La Guerra Fría entre Estados Unidos y la Unión Soviética nunca desembocó en una confrontación militar directa. Pero, en la era de la IA, el peligro de escalada es superior, pues la guerra cibernética es intrínsecamente diferente de la guerra nuclear.
Las ciberarmas pueden hacer caer la red eléctrica de un país entero, pero también emplearse para destruir las instalaciones de un centro de investigaciones secretas, interferir en un sensor enemigo, orquestar un escándalo político, manipular elecciones o piratear un teléfono inteligente. Y todo esto se puede hacer a escondidas. No anuncian su presencia con una nube en forma de seta ni con una tormenta de fuego, y tampoco dejan un rastro visible desde la plataforma de lanzamiento al objetivo. En consecuencia, a veces resulta difícil saber si un ataque ha tenido lugar o quién ha sido su autor. Por ello, la tentación de lanzar una ciberguerra limitada es grande, como también lo es la tentación de escalarla.
Aunque la humanidad eluda el peor de los supuestos posibles y evite una guerra global, el auge de los nuevos imperios digitales todavía podría poner en peligro la libertad y la prosperidad de miles de millones de personas.
Una segunda diferencia fundamental tiene que ver con la predictibilidad. La Guerra Fría puede leerse como una especie de partida de ajedrez hipercalculada, y la certeza de que un conflicto nuclear derivara en destrucción era tan grande que redujo al mínimo el deseo de entrar en combate. La ciberguerra no cuenta con esta certeza. Nadie sabe con seguridad dónde ha plantado cada bando sus bombas lógicas, sus troyanos y sus programas malignos. Nadie puede estar seguro de si sus propias armas funcionarán realmente cuando se recurra a ellas. ¿Acaso los misiles chinos se dispararán cuando se les dé la orden, o tal vez los estadounidenses ya hayan hackeado sus misiles o la cadena de mando? Los portaaviones estadounidenses ¿funcionarán como se espera o, de manera misteriosa, dejarán de hacerlo y navegarán en círculos?
Esta incertidumbre socava la doctrina de la destrucción mutuamente asegurada. Un bando puede convencerse (sobre una base cierta o equivocada) de que puede lanzar un primer ataque con éxito y evitar una represalia masiva. Incluso peor, si un bando piensa que tiene esta oportunidad, la tentación de lanzar un primer ataque podría resultar irresistible, porque nunca se sabe durante cuánto tiempo se mantendrá abierta la ventana de oportunidad. La teoría de juegos nos enseña que la situación más peligrosa en una carrera armamentista corresponde al momento en que uno de los bandos siente que goza de ventaja pero que esta se está desvaneciendo.
Aunque la humanidad eluda el peor de los supuestos posibles y evite una guerra global, el auge de los nuevos imperios digitales todavía podría poner en peligro la libertad y la prosperidad de miles de millones de personas. Los imperios industriales de los siglos XIX y XX explotaron y reprimieron a sus colonias, así que sería una insensatez esperar que los nuevos imperios digitales se comporten mucho mejor. Además, tal como ya se ha indicado, si el mundo se divide en imperios rivales, es muy poco probable que la humanidad coopere con la eficacia suficiente como para superar la crisis ecológica o para regular la IA y otras tecnologías disruptivas como la bioingeniería.
La división del planeta en imperios digitales rivales se ajusta a la visión política de muchos líderes que creen que el mundo es una jungla, que la relativa paz de las últimas décadas ha sido una ilusión y que la única elección real es entre desempeñar el papel de depredador o el de presa.
Ante tal elección, la mayoría de los líderes preferirían pasar a la historia como depredadores y agregar sus nombres a la sombría lista de conquistadores que los pobres estudiantes están condenados a memorizar para sus exámenes de historia. Sin embargo, a estos líderes se les debería recordar que hay un nuevo depredador alfa en la jungla. Si los humanos no encontramos una manera de cooperar y proteger nuestros intereses compartidos, todos seremos presas fáciles para la IA.
OTROS CONTENIDOS DE INTERÉS:
El futuro según Yuval Noah Harari: las personas no serán necesarias
Yuval Noah Harari: «La inteligencia artificial es una amenaza a la existencia humana»
El increíble caso Breitwieser: robar por amor al arte (en sentido literal)
Somos agua en busca de agua: de cómo la sed nos une y nos divide
Por qué nos dejamos arrastrar por algoritmos que generan adicción
A 20 años del nacimiento de Facebook: «Lo que Mark Zuckerberg quería era poder»
«Por qué 1984 no será como "1984"»: 40 años del primer Macintosh
Elon Musk contra Jeff Bezos: guerra entre los barones de la ciencia ficción