Como vimos en el capítulo anterior, durante los años de mayor virulencia del Colapso, tanto la bioingeniería como el resto de tecnologías de la Alianza se desarrollaron con más fuerza que nunca.

Este fenómeno se debió, en gran medida, a un cambio de estrategia en sus políticas científicas: a principios de la década del cuarenta, su presupuesto para I+D+i dejó de ser gestionado por sus empresas y pasó a manos de un consejo central, lo cual evitó duplicaciones y permitió derivar recursos hacia otros fines.

Por una parte, a asegurar el alojamiento y los servicios del personal: la Alianza implantó sus laboratorios en las ciudades septentrionales, lo que les brindó una relativa estabilidad y una razonable calidad de vida (en especial teniendo en cuenta que, por entonces, la humanidad se hallaba inmersa en la Gran Migración Climática).

Por otra, a desarrollar áreas de investigación que, de otro modo, difícilmente habrían sido abordadas: como la bioingeniería médica, la bioingeniería de materiales o la bioingeniería informática.

Fue durante esos años cuando se diseñó la exopiel; cuando se empezaron a desarrollar los nanorobots médicos (NRM); cuando se perfeccionaron las carnes vegetales y las técnicas de cultivo hidropónico; o cuando se implementaron las técnicas de construcción instantánea (inspiradas en los nidos de avispa) que permitieron realojar a cientos de miles de personas en cuestión de días.

Sin embargo, en este capítulo no abordaré esas tecnologías, sino aquellas que transformaron a la Alianza en la potencia hegemónica que es hoy en día.

 

El gran salto tecnológico 1

 

14.1_ VRD

Como es lógico, solo hablaré de los avances en bioingeniería civil. Algunos historiadores sugieren que la bioingeniería militar fue la que más se desarrolló, pero la mayoría de la información al respecto permanece clasificada, así que, a día de hoy, resulta imposible tanto afirmarlo como desmentirlo.

Solo hay dos datos confirmados sobre los avances en bioingeniería militar: los dispositivos de realidad virtual se diseñaron a principios de los cuarenta y los exoesqueletos, a finales de esa década.

A más de un lector le habrá sorprendido que haya asociado los dispositivos de realidad virtual a la bioingeniería militar. Incluso a más de uno le habrá extrañado que los haya asociado a la bioingeniería. Así que, antes de seguir, debo hacer unas puntualizaciones.

En primer lugar, los VRD son un desarrollo mixto: su carcasa y base de datos emplean grafeno, pero los trasmisores de estímulos son cien por ciento biológicos.

Y, en segundo término, aunque la tecnología fue traspasada de inmediato al contexto civil, su objetivo inicial era militar: emplear los entornos virtuales para adiestrar a las tropas.

Lo que ocurrió fue que la experiencia de Ágora estaba demasiado presente como para que sus desarrolladores no reconocieran las potencialidades de los entornos virtuales.

 

14.2_ Redes sociales de inmersión

Aunque a día de hoy solo sobrevive Antares, por entonces se programaron más de diez RSI. Fueron una suerte de «buques insignia» para comercializar los VRD entre el personal de la Alianza y las clases altas de las ciudades septentrionales.

Sin embargo, no pasó mucho tiempo antes de que los VRD y las RSI asumieran una nueva función. A mediados de los cuarenta (una vez construidos los campos de refugiados) se convirtieron en la principal herramienta de control social.

Las misiones humanitarias que dirigían los campos empezaron a repartir VRD de forma gratuita entre los refugiados… y comprobaron que, al hacerlo, las tasas de conflictividad decrecían enormemente.

Lo cual, visto en perspectiva, resulta lógico: las redes sociales de inmersión son escenarios fijos pensados para evadirse de la realidad y relacionarse con otras personas. ¿Qué más podían desear los refugiados climáticos? Habían estado migrando durante casi una década sin saber dónde estarían al día siguiente…, sin saber, siquiera, si seguirían con vida, por lo que un lugar como Antares —estable, comprensible— era lo más próximo que podían estar del paraíso. Es lógico que estuvieran dispuestos a hacer cualquier cosa con tal de asegurarse el acceso.

Pero de los campos de refugiados hablaremos en el capítulo siguiente. Ahora volvamos a centrarnos en el gran salto tecnológico.

 

14.3_ Ordenadores cuánticos

En 2046 tuvo lugar un avance decisivo. Un hito tecnológico que marcó un antes y un después en la historia de nuestro siglo: el desarrollo de los ordenadores cuánticos.

Nada de los ocurrido a posteriori (incluido el descomunal avance de la bioingeniería) hubiera sido posible sin los QC.

Siendo precisos, los ordenadores cuánticos ya existían desde principios de siglo; de hecho, el ordenador de puntos cuánticos —es decir, la matriz física empleada en el prototipo del 46— había sido desarrollada en la década del diez. Ahora bien, el hecho de que hubiera sido desarrollada no implica que pudiera emplearse a gran escala.

El problema radicaba en la estabilidad. Para que un ordenador cuántico pueda operar es preciso que todos sus átomos vibren en fase, y lograr que las interferencias externas no anulen esa coherencia es la parte más complicada del proceso de diseño.

Antes del incidente de 2024, los investigadores ya habían conseguido hacer vibrar en fase algo más de cien átomos y (dada la férrea competición que se estaba produciendo entre las principales empresas tecnológicas de la época) es probable que, de no haberse interpuesto la Década Oscura y el Colapso, los primeros ordenadores cuánticos a gran escala hubiesen estado operativos a principios de la década del treinta.

Por lo tanto, tras el parón obligatorio, los esfuerzos de la década del cuarenta volvieron a centrarse en resolver esta «decoherencia cuántica», es decir, en lograr que miles de átomos vibraran en fase de forma estable… En eso y en desarrollar programas estadísticos que sirvieran de sistema operativo.

 

El gran salto tecnológico 7

 

14.4_ Sinergia y secretismo

Lo segundo que es importante recalcar es que todos los investigadores que participaron en el proceso trabajaban para empresas de la Alianza (en equipos independientes, sí, pero interconectados).

Eso hizo que, a la interna, la sinergia fuera absoluta al tiempo que, de cara al mundo, la investigación fuera un secreto. Hoy se sabe que en su seguridad informática trabajaron, conjuntamente, antiguos cibercomandos rusos, franceses y estadounidenses, lo que es una buena prueba de la importancia que se le dio al proyecto.

A la larga, este detalle ha resultado crucial. Todos sabemos que los QC forman parte de la tríada de tecnologías en las que la Alianza basa su poder…, lo que no todo el mundo sabe es que a la hora de generar (y proteger) ese poder, no todas las tecnologías tienen el mismo peso.

 

14.5_ Política de producto cerrado

Nadie duda de que el poder de la Alianza se basa en su «política de producto cerrado»; es decir, en su decisión de exportar sus tecnologías, pero no los conocimientos técnicos necesarios para modificarlas.

Ahora bien, si los paneles solares ultraeficientes (U-Panel), los superconductores a temperatura ambiente (FNA) y los ordenadores neuronales (ON) hubiesen sido desarrollados empleando bioingeniería convencional, habría sido imposible mantener esa política durante más de tres décadas.

La historia está repleta de ejemplos que lo demuestran. Como las armas atómicas: Estados Unidos fue la primera potencia en desarrollarlas, pero no pasaron ni diez años antes de que la Unión Soviética consiguiera igualarla.

Entones, ¿cómo ha logrado la Alianza que su política perdure?

Gracias al poder de cálculo de los ordenadores cuánticos.

El verdadero motivo por el que esas tecnologías están blindadas es que para su desarrollo fue necesario un poder de cálculo que, a día de hoy, la Alianza sigue restringiendo al resto de potencias.

La pregunta que surge de inmediato es la siguiente: ¿cómo es posible que lo restringa si hace décadas que vende QC?

Y la respuesta es tan simple como desconocida: impidiendo que sus competidores desarrollen ciertos procesos. (En la práctica, es el mismo tipo de blindaje que impide que los ordenadores cuánticos ataquen a la Alianza).

Si el ordenador reconoce una concatenación de instrucciones similar a las que dieron lugar a la Tríada, de inmediato reduce su capacidad operativa. En otras palabras: la Alianza no impide que sus competidores desarrollen sus propios productos por medio de QC, siempre que no empleen para ello sus procesos patentados.

Esta es la razón (junto con la criptografía cuántica) por la que dije más arriba que el poder político de la Alianza se basa en los QC… Por más que, a la larga, los U-Panel y el FNA hayan sido más importantes para el nuevo equilibrio global.

 

14.6_ De la escasez energética a la sobreabundancia

Si no se hubieran desarrollado los U-Panel y el FNA, es más que probable que, a estas alturas, tanto la Alianza como el resto de potencias hubieran dejado de existir. De hecho, lo más probable que hubiésemos retornado a un sistema social anterior a la revolución industrial.

La razón es tan obvia que suele olvidársenos: gracias a los U-Panel y el FNA pasamos, en una década, de la escasez energética aguda a la sobreabundancia. Para entender lo que eso supuso, conviene hacer un repaso de la situación previa.

 

El gran salto tecnológico 8

 

14.7_ Oro negro

Desde finales del siglo XIX hasta mediados del nuestro, la historia de la humanidad estuvo determinada —política y militarmente— por los hidrocarburos; nuestra anterior fuente de energía. El Colapso, sin ir más lejos, fue una consecuencia directa de esa dependencia. Y lo más grave era que sabíamos que se trataba de un recurso escaso.

A principios de los cuarenta, nadie dudaba de que los hidrocarburos se agotarían a medio plazo; en dos décadas, a lo sumo. Por entonces, la Alianza solo contaban con los yacimientos de su territorio: Sudamérica (que empezaba a fusionarse en los Estados Asociados de Brasil) destinaba su petróleo a sus propias industrias, China disponía de los recursos de la mayor parte de África y el vínculo de los países árabes con la Alianza era abiertamente hostil. El genocidio en el Mediterráneo —del que hablé en el capítulo anterior— fue la gota que derramó el vaso, pero el odio venía de lejos: de las guerras por el petróleo de principios de siglo y el tibio apoyo a los refugiados en la década del diez.

Como es lógico, la escasez de combustibles disparaba su precio. Tras lo ocurrido en Groenlandia, la Alianza había promulgado una normativa de seguridad muy severa para la extracción de gas natural (lo que había elevado su coste hasta el límite de lo rentable) y la imprevisibilidad climática hacía inviable la prospección a gran escala de los yacimientos petrolíferos del Ártico.

A esto había que agregar otro factor no menos importante: tras las catástrofes de finales del treinta, el cambio de matriz energética ya no era para la Alianza una cuestión económica, sino de mera supervivencia. Puede que nuestro cerebro no esté preparado para desarrollar previsiones a largo plazo (como afirma Alessandro Malcuori), pero cuando un problema se vuelve apremiante, vaya si surgen recursos para intentar resolverlo.

 

14.8_ La nueva matriz energética

De entre todas las líneas de investigación que se desarrollaron a principios de los cuarenta, la que partía como favorita (y consumió la mayor parte del presupuesto) no dio los resultados esperados. Me refiero a la fusión nuclear.

A principios de siglo, dos proyectos habían intentado lograrla. El primero (que llegó a construirse en Estados Unidos) pretendía alcanzar la fusión disparando casi doscientos láseres contra una esfera de isótopos de hidrógeno. En teoría, la idea era excelente; en la práctica, el grado de calibración requerida nunca llegó a conseguirse.

 

14.9_ ITER

El segundo proyecto consistía en contener gas de hidrógeno —a altísimas temperaturas— en el interior de un campo magnético. La idea, una vez más, era viable desde una perspectiva física por lo que el problema estaba en manos de los ingenieros: debían diseñar un contenedor, un objeto físico que mantuviera estable el campo magnético responsable de albergar el gas.

Esa estructura (proyectada en la década de 2000) era tan costosa que fue necesario gestionarla a través de un organismo internacional. El organismo se llamó ITER y consiguió que siete socios, (entre los que se encontraban la Unión Europea, Estados Unidos y la Federación Rusa) aceptaran financiarlo… El problema fue que el inicio de las obras se planificó para 2019, la crisis económica las retrasó dos años, y en 2024 todavía continuaba en su primera fase.

Luego, la Década Oscura obligó a desviar sus fondos hacia la resolución del problema alimentario, por lo que ITER fue abandonado. Afortunadamente, sus datos se mantuvieron a buen recaudo, así que cuando la Alianza decidió reactivar el proyecto, el proceso fue bastante sencillo.

Lo más complicado de resolver fue un problema de competencias: además de los tres miembros que ya he mencionado, ITER estaba compuesta por otros cuatro. Dos de ellos —Japón y Corea del Sur— habían sido devastados por los efectos del Colapso, pero los otros dos —China e India— eran, por entonces, las principales potencias del planeta. La Alianza deliberó durante meses si incluirlos o no en el proyecto y al final decidió no hacerlo… Lo que, con toda seguridad, nos habría conducido a un conflicto a gran escala si el proyecto hubiera prosperado.

El montaje del toroide que generaría el campo magnético llevó más de cinco años. Entre los científicos de la Alianza se rumoreaba que 2046 sería «el gran año», porque había comenzado con el desarrollo de los ordenadores cuánticos y finalizaría con la puesta a punto del primer reactor de fusión. (En la práctica, no habría sido así porque, aunque ITER hubiera funcionado, transformarlo en una planta de energía comercial habría llevado otra década).

Muchos de los ingenieros que habían trabajado en informática cuántica se ofrecieron a emplear los QC en las últimas calibraciones; gracias a eso, detectaron cierta inestabilidad en el dipolo magnético que comunicaron de inmediato a los directores del proyecto. Los encargados consideraron que las divergencias eran mínimas —«demasiado pequeñas para alterar la estabilidad del conjunto»— y decidieron fijar la prueba para finales de diciembre.

La ignición terminó realizándose el día veinticuatro… y fue un rotundo fracaso. El objetivo de ITER era producir quinientos megavatios de energía durante un mínimo de quinientos segundos, pero el reactor no logró permanecer estable ni siquiera un minuto. Tras el experimento, se produjeron cambios importantes en la plantilla del proyecto y se comenzó el lento proceso de desmontar y analizar el toroide para determinar el motivo del fallo.

 

El gran salto tecnológico 4

 

14.10_ Energía solar espacial

Otro proyecto ideado a principios de siglo consistía en poner en órbita paneles solares. Dichos paneles recolectarían la energía del sol antes de que fuera filtrada por la atmósfera y la enviarían a la superficie como radiación de microondas. El proyecto incluso tuvo un nombre: SSP, acrónimo de Energía Solar Espacial.

En el momento en que se planteó era una idea razonable (por entonces eran muchos los países que contaban con un programa espacial), sin embargo, tras la crisis económica de la década del diez, la hambruna de mediados del veinte y el Colapso de mediados del treinta, todos esos programas habían sido cancelados, así que a mediados de los cuarenta la imposibilidad de enviar paneles solares al espacio había relegado a un segundo plano la idea de sustituir los hidrocarburos por energía solar…

Hasta que un grupo de bioingenieros ambientales e informáticos cuánticos inspirados por el SSP consiguieron dar el pasos hacia una nueva matriz energética.

 

14.11_ Paneles solares ultraeficientes

La teoría era sencilla: si enviar paneles solares al espacio era inviable, ¿por qué no desarrollar un tipo de panel que recolectara desde la superficie terrestre la misma cantidad de energía que recolectaría uno estándar en el espacio? Obviamente, la idea no era original. El problema, como siempre, era la puesta en práctica.

Para empezar, en el espacio —a treinta y cinco mil quinientos kilómetros de la Tierra— la luz solar incidente es ocho veces mayor que en la superficie terrestre. Y dado que, por entonces, la eficiencia promedio de las células solares rondaba el 15%, para que una célula solar ubicada en superficie reprodujese las condiciones del espacio ésta debería absorber un 120% de la energía recibida… Lo cual, como es lógico, era imposible.

Sin embargo, dado que la energía absorbida en órbita debía ser enviada a la tierra en forma de radiación de microondas (y dado que en ese envío se producirían pérdidas) los investigadores asumieron que un panel ubicado en tierra que lograse transformar entre el 95 y el 98 por ciento de los fotones recibidos en energía eléctrica estaría compitiendo en igualdad de condiciones con uno estándar ubicado en el espacio.

A eso había que agregarle el problema de la nubosidad, pero para eso estaban los desiertos: en América, el desierto de California, en Rusia, el del mar Caspio y en la Unión, el desierto de Iberia.

Desde un principio, el objetivo de los investigadores fue superar la cota del 95%; algo considerado «físicamente imposible» hasta que los QC nos permitieron manipular la matera a nivel subatómico.

Los primeros prototipos viables estuvieron listos en 2049. De la noche a la mañana, los biopaneles solares ultraeficientes fueron el centro de todas las conversaciones. Sin embargo, para poder cambiar de matriz energética, aún quedaba un problema por resolver.

 

14.12_ Superconductores a temperatura ambiente

Se calcula que la energía producida en una hora por un kilómetro cuadrado de U-Panel basta para abastecer de electricidad durante un año a una ciudad de cien mil habitantes. Pero ¿cómo transportar dicha energía desde el desierto de Iberia hasta Helsinski (por poner un ejemplo) sin que se pierda la mayor parte en el camino?

La solución la brindó, en mayo de 2051, la matriz de nanotubos de fullereno (o FNA), el primer superconductor a temperatura ambiente y la mayor aportación de la bioingeniería de materiales.

El FNA permite generar grandes campos magnéticos con un gasto de energía ínfimo y ese campo magnético, a su vez, evita las pérdidas de electricidad. Por si esto fuera poco, el FNA es un material baratísimo: el fullereno no es más que un conjunto de átomos de carbono ordenados en forma de esfera en los que se encapsulan átomos de nitrógeno, y los nanotubos son filamentos cilíndricos construidos con esas esferas. De ahí lo de «matriz de nanotubos de fullereno».

Ahora bien, al igual que los U-Panel, el FNA no hubieran podido desarrollarse sin la capacidad de manipulación subatómica que brindaron los ordenadores cuánticos. Y, como vimos más arriba, estos procesos están protegidos por el sistema operativo de los QC.

 

El gran salto tecnológico 6

 

14.13_ La hegemonía de la Alianza

A mediados de en 2051 (sin grandes experimentos ni fechas señaladas) la Alianza «descubrió» que tenía en sus manos una nueva matriz energética. El cambio fue tan inesperado que sus empresas tardaron algo de tiempo en comprender sus implicaciones: podrían sustituir los hidrocarburos por una fuente de energía más limpia, barata y eficiente. Y lo que es más importante: por una fuente inagotable. La energía solar.

Para colmo, el control de esa nueva matriz no dependería de una ubicación geográfica (como en el caso de los hidrocarburos), sino de una tecnología.

Sin apenas darse cuenta, la Alianza se había transformado en la potencia hegemónica incluso cuando, hasta entonces, solo había desarrollado dos de los componentes de la Tríada: los ordenadores cuánticos y el binomio U-Panel/FNA.

En el lustro siguiente, la Alianza desarrollaría los ordenadores neuronales: el avance que afianzaría su poder. Sin embargo, el desarrollo de las neurociencias y la bioingeniería informática se vincula estrechamente a los campos de refugiados, y de los campos hablaremos en profundidad en el próximo capítulo.

 

El gran salto tecnológico 6

 

 

NOTA: Quiero agradecer a Elías Combarro sus comentarios respecto a los ordenadores cuánticos; los cuales han ayudado (y mucho) a la verosimilitud técnica de este capítulo. Obviamente, cualquier error que hayas podido detectar es responsabilidad mía.

 

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.