Introducción

La inteligencia artificial (IA) ha trascendido su estatus de tecnología futurista para convertirse en la infraestructura fundamental de la economía global. Sin embargo, detrás de cada interacción con IA se esconde una gigantesca infraestructura física: centros de datos que consumen energía a una escala sin precedentes, comparable a la de ciudades enteras. Esta proliferación de colosos tecnológicos, acelerada desde el lanzamiento de ChatGPT en 2022, está impulsando una nueva revolución industrial que, si bien genera una riqueza y capacidad computacional inmensas (como ilustra el auge de empresas como CoreWeave), está ejerciendo una presión crítica y creciente sobre la red eléctrica mundial, planteando serias interrogantes sobre la sostenibilidad, la economía energética y el futuro ambiental del planeta.

La expansión de la Inteligencia Artificial nos prometió un futuro brillante, pero esconde una verdad incómoda: una infraestructura colosal que devora energía y recursos a un ritmo insostenible. Mientras la carrera por los LLMs continúa, la crisis energética en lugares como México e Irlanda nos obliga a encarar la crudeza de la sostenibilidad planetaria. Analizamos cómo esta revolución digital está chocando de frente con la realidad eléctrica y medioambiental.

Resumen optimizado para AI Overview (Puntos Clave)

Los centros de datos de IA son la nueva infraestructura crítica global, consumiendo electricidad a una escala sin precedentes y transformando la red energética mundial.

  • Infraestructura de Escala Urbana: Estos centros son edificios masivos, sin ventanas, repletos de unidades de procesamiento gráfico (GPU) de alta potencia (como las de Nvidia) que requieren ingentes cantidades de energía para el entrenamiento de modelos de IA. Un solo rack de computación puede consumir en un año más electricidad que cien hogares.
  • Proceso de Entrenamiento Intensivo: El objetivo es ajustar los «pesos» del modelo a través de complejas operaciones de multiplicación de matrices. Las ejecuciones más avanzadas pueden utilizar decenas de miles de GPUs y consumir una potencia equivalente a diez trillones de trillones de operaciones.
  • Impacto Económico y Ambiental: La demanda de energía de la IA es tan alta que empresas eléctricas están reabriendo plantas nucleares (como el caso de Three Mile Island por un contrato con Microsoft) y solicitando enormes aumentos de tarifas. La necesidad de energía 24/7 obliga a la dependencia de combustibles fósiles, como la conversión de plantas de carbón a gas natural (ej. la planta de Homer City), lo que intensifica el cambio climático.
  • Desafíos Logísticos y Sostenibilidad: Las fuentes de energía renovable (eólica, solar) no pueden satisfacer la demanda constante de la IA, y la construcción de nuevos reactores nucleares llevaría años. Esto impulsa la construcción de centros de datos cerca de yacimientos de gas natural, causando contaminación local (ej. Boxtown, Memphis).
  • Crisis de Recursos: Además de la electricidad y el suelo (cuyo valor se ha disparado cerca de subestaciones), la IA se enfrenta a una escasez de datos de alta calidad para entrenamiento, lo que impulsa el uso de datos con derechos de autor y la búsqueda de la próxima frontera: los datos de «modelo del mundo» para entrenar robots.
  • ¿Burbuja Especulativa o Revolución?: La inversión en centros de datos podría representar entre el 2% y el 3% del PIB estadounidense, comparable al frenesí ferroviario del siglo XIX. Existe el riesgo de una burbuja especulativa si el escalado de chips no se traduce indefinidamente en mayor inteligencia o si innovaciones más eficientes hacen obsoleto el hiper-escalado.
  • Apuesta Civilizacional: El futuro de la IA es una apuesta de que transformará la economía global; sin embargo, la viabilidad de esta revolución dependerá de si se puede gestionar de forma sostenible ante los límites físicos de la red eléctrica y el impacto ambiental.

El nacimiento accidental de un imperio: la historia de coreweave

La inteligencia artificial ha dejado de ser una tecnología futurista para convertirse en la infraestructura que sostiene la economía del siglo XXI. Detrás de cada respuesta de ChatGPT, cada imagen generada por IA y cada predicción algorítmica, existe una gigantesca maquinaria física: centros de datos que consumen tanta electricidad como ciudades enteras y que se están multiplicando a un ritmo vertiginoso por todo el planeta.

Desde el lanzamiento de ChatGPT en noviembre de 2022, estos colosos tecnológicos han comenzado a aparecer en las afueras de prácticamente todas las ciudades importantes. Son edificios enormes, blancos, sin apenas ventanas, rodeados de vallas de seguridad como si fueran prisiones y flanqueados por hileras interminables de generadores diésel y sistemas de aire acondicionado industrial.

Sam Altman, CEO de OpenAI, lo expresó sin ambages: «Supongo que gran parte del mundo acabará cubierto de centros de datos con el tiempo». Esta afirmación, que podría sonar a exageración, se está convirtiendo en una realidad tangible que plantea interrogantes cruciales sobre sostenibilidad, economía y el futuro energético del planeta.

Para entender la magnitud de esta transformación, conviene conocer la historia de CoreWeave, el operador independiente líder de centros de datos para IA en Estados Unidos. Su origen es tan inesperado como revelador de la velocidad a la que se mueve este sector.

En 2017, un grupo de traders de un fondo de cobertura neoyorquino de rendimiento moderado decidió minar criptomonedas como pasatiempo. Compraron una GPU (unidad de procesamiento gráfico) de Nvidia —un microprocesador potente originalmente diseñado para videojuegos— que venía con software capaz de convertirlo en un superordenador de bajo coste.

«Fue tan exitoso, desde la perspectiva del retorno de capital, que empezamos a escalarlo», recuerda Brian Venturo, uno de los cofundadores de CoreWeave. «Si recuperas tu inversión en cinco días, quieres repetirlo muchas veces«.

En apenas un año, los traders habían abandonado el negocio de los fondos de cobertura y adquirido varios miles de GPUs que operaban desde el garaje del abuelo de Venturo en Nueva Jersey. Cuando el mercado de criptomonedas colapsó en 2018, CoreWeave aprovechó para comprar más microprocesadores a mineros insolventes a precio de saldo.

El verdadero punto de inflexión llegó en 2022, cuando Venturo descubrió Stable Diffusion, una IA generadora de imágenes que producía ilustraciones precisas y hermosas a partir de descripciones textuales. «Esto va a cautivar al mundo entero», pensó Venturo. Y no se equivocó.

CoreWeave captó cien millones de dólares y utilizó casi todo ese capital para comprar hardware de Nvidia. La apuesta fue tan acertada que pronto Jensen Huang, CEO de Nvidia, concertó una reunión con el equipo. «Pasó unos diez minutos burlándose de mí por ser de Nueva Jersey», bromea Venturo. Con el tiempo, Nvidia acabó comprando una participación en la empresa.

A principios de 2024, CoreWeave salió a bolsa. Venturo y sus cofundadores son ahora multimillonarios. La compañía posee varios cientos de miles de GPUs y su plataforma entrena modelos para Meta y otros laboratorios punteros, además de OpenAI.

Dentro del infierno tecnológico: un recorrido por un centro de datos de IA

Visitar un centro de datos de IA es adentrarse en un mundo donde la escala humana queda completamente eclipsada por la maquinaria. En un centro de CoreWeave en las afueras de Las Vegas, la seguridad es férrea: vallas gruesas, cámaras cada pocos metros, torniquetes de entrada y guardias con chalecos antibalas y táser al cinto.

Una vez dentro, tras entregar el teléfono móvil y colocarse tapones para los oídos de color verde lima, la primera impresión es abrumadora: un ruido ensordecedor, como si cientos de motores de avión funcionaran simultáneamente.

Los «nodos» que producen este estruendo son bandejas poco profundas de equipamiento informático, cada una con un peso de unos 32 kilos y que contiene cuatro GPUs refrigeradas por agua junto con una serie de componentes adicionales. Dieciocho de estas bandejas se apilan y conectan mediante cables a una unidad de control, formando el rack de computación Nvidia GB300.

Cada rack, un poco más alto que un frigorífico, cuesta varios millones de dólares. En un año de uso intensivo, un rack típico consume más electricidad que cien hogares. Y en estas instalaciones hay docenas —a veces cientos— de ellos funcionando sin parar.

CoreWeave mantiene sus racks en armarios metálicos blancos para ayudarles a mantenerse frescos y amortiguar el ruido. Cuando uno de los ingenieros abre la puerta de uno de estos armarios, el visitante se ve golpeado por una ráfaga de aire caliente y un estruendo infernal, como si hubiera abierto un armario de escobas y encontrado dentro un motor de avión en funcionamiento.

«El tinnitus es un riesgo laboral«, grita el ingeniero para hacerse oír sobre el ruido atronador. Jacob Yundt, del equipo corporativo, comenta más tarde: «Recursos Humanos me dijo que ya no puedo hacer este tipo de preguntas, pero me gusta contratar gente que pueda soportar mucho dolor. Atletas de resistencia, ese tipo de personas«.

Por encima de las filas de armarios se extiende una pasarela metálica, llena de distribuidores de energía para el equipamiento informático. El agua que circula sobre los microprocesadores de CoreWeave entra a temperatura ambiente pero sale más caliente que un baño, según explican los ingenieros. Se enfría en un tanque de almacenamiento antes de reciclarse en el sistema.

La temperatura, la humedad y el recuento de partículas del aire interior se monitorizan cuidadosamente. «La condensación es nuestro enemigo«, dice uno de los ingenieros con gravedad.

La alquimia digital: cómo se entrena una inteligencia artificial

Todo este despliegue de microprocesadores, electricidad, ventiladores, dinero, datos, bombas de refrigeración por agua y cables tiene un único objetivo: ajustar los «pesos» (weights), un pequeño archivo de números que cabe en un disco duro externo.

El proceso de entrenamiento funciona así: los desarrolladores de software suben al centro de datos un archivo de pesos (inicialmente aleatorios y sin capacidades) junto con una enorme cantidad de datos de entrenamiento —que pueden ser texto, imágenes, registros médicos o prácticamente cualquier cosa.

La IA se expone a un fragmento de estos datos de entrenamiento y se le pide que haga una predicción sobre qué debería seguir: las siguientes letras de una frase, por ejemplo. Una IA sin entrenar invariablemente se equivocará en esta predicción, pero al menos aprenderá qué no hacer. Los pesos deben modificarse para absorber esta nueva información.

Las matemáticas son complejas y dependen especialmente de una operación conocida como multiplicación de matrices. «La belleza es la primera prueba: no hay lugar permanente en el mundo para las matemáticas feas», escribió el matemático G.H. Hardy en 1940. Pero la multiplicación de matrices, a la que nuestra civilización dedica ahora tantos recursos marginales, tiene toda la elegancia de un hombre clavando un clavo en una tabla.

No posee ni belleza ni simetría: de hecho, en la multiplicación de matrices, a por b no es lo mismo que b por a. A medida que las matrices aumentan de tamaño, la aritmética requiere una potencia computacional enorme para resolverse.

Los últimos modelos de lenguaje grandes pueden implicar alrededor de un billón de pesos individuales. Una «ejecución heroica» de varias semanas para un modelo así puede utilizar decenas de miles de GPUs y requerir diez trillones de trillones de operaciones —más que el número de estrellas observables en el universo.

Cuando el producto terminado está listo, se distribuyen clones de los pesos a centros de datos de todo el país, donde pueden accederse a través de internet en un proceso conocido como «inferencia». Los usuarios hacen preguntas, y la IA produce unidades individuales de inteligencia llamadas «tokens».

Para escribir un trabajo universitario, una IA podría producir unos cinco mil tokens, consumiendo suficiente electricidad para hacer funcionar un microondas a máxima potencia durante unos tres minutos. A medida que la IA responde a solicitudes cada vez más complejas —vídeo, audio, terapia—, la necesidad de potencia computacional se multiplicará muchas veces.

Multiplica eso por los más de ochocientos millones de personas que usan ChatGPT cada semana, y la explosión de centros de datos tiene sentido. ChatGPT es ahora más popular que Wikipedia; los jóvenes se refieren a él como «Chat», que ha llegado a significar IA del mismo modo que «Google» significa búsqueda en internet.

Microsoft y la catedral del silicio

Si CoreWeave impresiona, los centros de datos de Microsoft operan a una escala que desafía la comprensión humana. Es extremadamente difícil entrar en uno de ellos, por la misma razón que es difícil entrar en Fort Knox: las IAs en desarrollo en estas instalaciones valen una fortuna.

«Tradicionalmente, cuando quieres robar algo que vale una cantidad insana de dinero, es como ‘trae el camión'», explica Peter Salanki, director de tecnología de CoreWeave. «Aquí, alguien entra con una memoria USB y puede caber toda la propiedad intelectual de OpenAI en ella«.

El campus de Microsoft visitado por periodistas se encuentra en medio de la nada estadounidense, rodeado de tierras de cultivo. No muestra ninguna marca de Microsoft ni señalización alguna. Tras una valla y varios puntos de control vehicular, el campus es una espaciosa extensión de nada, excepto por una esquina poblada por una hilera de cobertizos numerados.

Los cobertizos son blancos, estrechos, altos y de varios campos de fútbol de longitud. Flanqueando cada cobertizo hay una fila de generadores diésel y aires acondicionados industriales. En el momento de la visita había cinco cobertizos, con planes para aproximadamente diez.

Dentro, el centro era más silencioso, ordenado y espacioso que el de CoreWeave. Cientos de bancos idénticos y parpadeantes de servidores y equipamiento informático, conectados a estaciones de refrigeración y zumbando ruidosamente, ocupaban gran parte del suelo.

Racimos de cables atados con bridas corrían por el techo: cables para electricidad, cables para datos, tuberías para agua y aire. Los cables se conectaban a un racimo más grande que enlazaba con los otros cobertizos, permitiendo que todos actuaran como un único ordenador unificado. Entre los cinco cobertizos, el área dedicada a la computación equivalía a veinte campos de fútbol.

Judy Priest, ingeniera eléctrica graduada del MIT, explica que una ejecución de entrenamiento avanzada podría ocupar todo el sistema durante un mes. En un centro de control, es posible observar los picos de consumo eléctrico: el ordenador procesando datos de entrenamiento, luego descendiendo mientras escribe los resultados en el archivo.

Estos pulsos se repiten mientras la IA avanza de un punto de control al siguiente. En algún lugar dentro del edificio, el modelo está mejorando. En algún lugar dentro del edificio, el ordenador está aprendiendo a pensar.

El coste humano y ambiental: cuando el progreso devora la tierra

A media milla del centro de datos de Microsoft, un agricultor de alfalfa de cuarta generación contempla cómo la tecnología devora las tierras que su familia ha trabajado desde 1979. Viste vaqueros, camisa a cuadros y una gorra de béisbol con un camión cisterna bordado.

El agricultor señala las líneas eléctricas que atraviesan su campo, instaladas por la empresa eléctrica local en la década de 1940. «Siempre consideramos esas cosas un pasivo», dice. «Pensábamos que depreciaban el valor de la tierra». Pero ahora, el acceso a una subestación eléctrica vale una fortuna: uno de sus vecinos afirma haber vendido una parcela de tierra agrícola a un desarrollador de centros de datos por más de un millón de dólares por acre, más de lo que la granja retornaría en toda una vida.

Pieza por pieza, la familia del agricultor está haciendo lo mismo. Hay un nuevo centro de datos al norte de la granja, y otro en construcción al este. El extenso complejo de Microsoft domina el horizonte, asentado sobre un trozo de tierra que su familia había trabajado durante décadas.

El impacto sobre el suministro de agua, según el agricultor, es insignificante. «Honestamente, probablemente usamos más agua que ellos», admite. (Entrenar una IA de última generación requiere menos agua que la utilizada en una milla cuadrada de tierra agrícola en un año.)

La electricidad es otra historia: la empresa eléctrica local está prevista que suba las tarifas por tercera vez en tres años, con la subida más reciente propuesta en dos dígitos. La mayor pérdida fue la capa superficial del suelo rica en nutrientes, que su familia había mantenido con cuidadosas rotaciones de cultivos. «¡Microsoft trajo una excavadora y la arrancó toda en un día!», dice, como si hablara de una reliquia familiar perdida. «De seis a diez pies de profundidad, todo desaparecido«.

Observamos cómo un perro amarillo se levanta, camina en un pequeño círculo y vuelve a dormirse a la sombra de un árbol. Detrás del árbol, empequeñeciéndolo, hay un gigantesco almacén rectangular. Cuando se le pregunta si alguna vez usa IA, el agricultor responde: «Uso Claude. Google ahora es una porquería«.

La crisis energética: cuando la IA compite con las ciudades por la electricidad

Los centros de datos están comenzando a ejercer una presión intensa sobre la red eléctrica de Estados Unidos y, por extensión, del mundo. El caso de Three Mile Island es emblemático de esta nueva realidad.

En 1999, Constellation Energy compró el único reactor en funcionamiento en Three Mile Island y lo operó durante los siguientes veinte años. En 2019, la compañía cerró el reactor, concluyendo que era económicamente inviable. Bryan Hanson, el ejecutivo que supervisa la flota de generación nuclear de Constellation, organizó una fiesta de despedida para los empleados. «Había comida allí, pero nadie comió», recuerda. «El ambiente era como un funeral«.

Pero las fiestas podrían volver pronto a Three Mile Island. Constellation ha anunciado que reabrirá la instalación en 2027, rebautizándola como Crane Clean Energy Center. Un gran contrato con Microsoft marcó la diferencia. «Si me hubieras dicho que reabriríamos esta planta solo ocho años después, nunca lo habría creído», dice Hanson.

Ejecutivos energéticos como Hanson han sido bombardeados con solicitudes de más energía. Los centros de datos «son quizás más grandes, por un orden de magnitud, que cualquier cosa que hayamos conectado a la red antes«, explica. «Si piensas en la ciudad de Filadelfia, su carga es de aproximadamente un gigavatio. Ahora imagina añadir centros de datos del tamaño de un gigavatio a la red, y no solo uno, sino múltiples«.

Cuando un centro de datos se conecta, los clientes minoristas suelen ayudar a pagar la factura eléctrica: las empresas eléctricas estadounidenses solicitaron casi treinta mil millones de dólares en aumentos de tarifas minoristas en la primera mitad de 2025. Esta primavera, las empresas eléctricas solicitaron casi el doble de subidas de tarifas que en el mismo período del año anterior.

Un análisis de Bloomberg estimó que, en áreas cercanas a centros de datos, los costes mayoristas de electricidad han aumentado más del doscientos por ciento en los últimos cinco años. Y las tarifas probablemente seguirán aumentando: las centrales eléctricas no pueden producir ni de cerca suficiente electricidad para satisfacer la demanda.

Eric Schmidt, ex CEO de Google, ha dicho que Estados Unidos debe añadir noventa y dos gigavatios de energía al suministro nacional para satisfacer la demanda de centros de datos —unos noventa y dos «Filadelfia». Si no hay suficiente energía, los desarrolladores estadounidenses de IA podrían perder frente a Oriente Medio y China, donde ya están en marcha enormes proyectos de centros de datos.

El dilema renovable: por qué la energía verde no puede (todavía) salvar la IA

Los centros de datos deben operar veinticuatro horas al día para ser económicamente viables. La instalación de Microsoft visitada tiene permitidos cinco minutos y quince segundos de tiempo de inactividad no programado por año. Las fuentes de energía renovables como la eólica y la solar, que dependen del clima, actualmente solo pueden satisfacer una fracción de esta demanda.

La energía nuclear tampoco nos salvará, al menos no pronto. Hanson dice que pasarían años antes de que se pudieran construir nuevos reactores nucleares a gran escala en Estados Unidos. Con envidia en su voz, comenta: «China está construyendo veintiséis reactores nucleares«.

A corto plazo, los nuevos centros de datos se alimentarán en gran medida de combustibles fósiles. Los desarrolladores están comprando tierras cerca de depósitos de gas natural como Marcellus Shale, un gigantesco yacimiento de gas subterráneo en los Apalaches.

En abril de 2024, Homer City Redevelopment, un grupo con sede en Pensilvania, anunció que pretendía convertir una planta de carbón clausurada cerca de Pittsburgh en la mayor planta de gas natural del país, dedicada casi exclusivamente a centros de datos y capaz de producir aproximadamente cuatro gigavatios y medio de electricidad.

Según una organización sin ánimo de lucro medioambiental, la planta de Homer City podría liberar hasta cuatro millones de libras de dióxido de carbono a la atmósfera cada hora —aproximadamente lo mismo que cuatro millones de coches al ralentí.

La Tierra se está calentando ahora a un ritmo estimado de tres décimas de grado Celsius por década, aproximadamente diez veces más rápido que al final de una era glacial. Tras el final de la última era glacial, los océanos subieron cuatrocientos pies. Añadir plantas como Homer City —y decenas más en todo el mundo— acelerará esta cronología catastrófica.

Contaminación local: cuando la IA enferma a las comunidades

Los centros de datos también causan contaminación local. xAI de Elon Musk ha construido un centro de datos alimentado por gas natural en Memphis, cerca del barrio afroamericano de Boxtown. La zona, que ya tenía la tasa más alta de visitas a urgencias por asma en Tennessee, vio los niveles de dióxido de nitrógeno —que exacerba la condición— dispararse hasta un nueve por ciento después de que la planta se instalara.

Las áreas más ricas han intentado bloquear la construcción de centros de datos. En noviembre de 2024, los votantes en Warrenton, Virginia, un suburbio adinerado de Washington D.C., reemplazaron a miembros del consejo municipal que apoyaban un nuevo centro de datos de Amazon con una lista anti-desarrollo.

Ann Wheeler, una demócrata en un condado vecino de Virginia que perdió su escaño por el tema de los centros de datos, se quejó de lo que llamó la mentalidad «BANANA» de los activistas: Build Absolutely Nothing Anywhere Near Anyone (No Construir Absolutamente Nada en Ningún Lugar Cerca de Nadie).

La nueva fiebre del oro: ¿burbuja especulativa o revolución real?

La construcción de centros de datos está proyectada a representar entre el dos y el tres por ciento del PIB estadounidense en los próximos años. En el siglo XIX, la construcción de los ferrocarriles contribuyó un estimado del seis por ciento. Los ferrocarriles transformaron Estados Unidos y generaron una tremenda prosperidad —aunque distribuida de manera desigual—, pero el frenesí también produjo una de las mayores burbujas especulativas de la historia.

Siguió el Pánico de 1893: el desempleo se disparó, cientos de bancos quebraron y una oleada de sentimiento populista desestabilizó el entorno político estadounidense.

Jon Gray, presidente del gestor de activos alternativos Blackstone, menciona la biografía de Ron Chernow sobre John D. Rockefeller: «¡Muchos de los ferrocarriles quebraron!«, dice. «Estás intentando evitar este problema, porque no sabes cómo será el final del juego».

Blackstone ha emitido deuda para construir centros de datos. Para no estar entre los que quiebran, Gray puede cubrir el riesgo asegurando un contrato de arrendamiento de quince años con un gigante tecnológico como Microsoft o Amazon, que son algunos de los clientes más solventes que existen. Blackstone típicamente no invertirá en un centro de datos a menos que tenga tal cliente alineado. «No es como condominios en Miami o Dubái«, aclara Gray.

La pregunta del billón de dólares: ¿funcionará el escalado infinito?

La premisa de la construcción continua de centros de datos es que meter más chips de Nvidia en los cobertizos resultará en mejor IA. Hasta ahora, esto ha resultado cierto: la última generación de IA es la más capaz jamás producida. El GPT-5 de OpenAI puede incluso construir otras IAs más primitivas.

Aún así, no es una ley inmutable que más chips equivalgan a más inteligencia, y los investigadores no están completamente seguros de por qué existe siquiera este efecto de escalado. «Es una cuestión empírica si llegaremos a un muro de ladrillo», ha dicho el pionero de la IA Demis Hassabis sobre el escalado. «Nadie lo sabe«.

También es posible que una innovación tecnológica pudiera hacer obsoleto el hiper-escalado. A principios de 2024, cuando DeepSeek, una compañía china, presentó lo que parecía ser un paradigma de entrenamiento más eficiente para la IA, las acciones de Nvidia se desplomaron, borrando casi seiscientos mil millones de dólares de valor en un solo día. (Desde entonces se ha recuperado.)

Donald Trump ha hecho de la construcción de centros de datos una prioridad nacional. Se ha convertido en una especie de ritual que los ejecutivos tecnológicos anuncien nuevos proyectos desde la Casa Blanca. Pero adular a Trump podría significar estirar la verdad.

En una cena en la Casa Blanca en septiembre, Mark Zuckerberg dijo que Meta gastaría seiscientos mil millones de dólares en centros de datos e infraestructura relacionada en los próximos años. Con su micrófono todavía encendido, Zuckerberg se inclinó hacia Trump. «Perdón, no estaba listo», susurró. «No estaba seguro de qué número querías que dijera«.

Kerry Person, que gestiona las operaciones globales de centros de datos para Amazon, comentó que las empresas eléctricas eran escépticas de algunos de los nuevos desarrolladores de centros de datos que presentaban solicitudes de energía. «Si miro la cantidad de demanda que hay en estas colas, y miro la cantidad de dinero que se requeriría para construir todo eso, esa cantidad de dinero no existe«, dice Person.

El problema de los datos: cuando internet se queda sin contenido

El agua, la energía y la tierra son recursos escasos, pero el bien más valioso para un centro de datos, como sugiere el nombre, son los datos. Claude entrenó con LibGen, un voluminoso corpus de libros electrónicos pirateados que pueden descargarse por torrent.

En septiembre de 2024, Anthropic, el desarrollador de Claude, aceptó pagar mil quinientos millones de dólares a los titulares de derechos de autor de estos libros, o aproximadamente tres mil dólares por infracción: el mayor acuerdo colectivo por infracción de derechos de autor en la historia. Demandas similares contra OpenAI y Nvidia están pendientes.

Microsoft no sabe qué están subiendo sus clientes a sus centros de datos —los datos son propietarios—. Es difícil juzgar la escala de la infracción de derechos de autor en la era de la IA, pero probablemente hace que Napster parezca un intercambio de cintas caseras.

El enfoque moderno del desarrollo de IA ha sido aspirar cualquier dato disponible en línea —incluyendo audio, vídeo, prácticamente toda obra publicada en inglés y más de tres mil millones de páginas web— y dejar que los abogados ordenen el desastre.

Pero ahora se habla de una escasez de datos. Se cree que hay unas cuatrocientas billones de palabras en el internet indexado, pero, como ha señalado Andrej Karpathy, cofundador de OpenAI, gran parte de eso es «basura total». El texto de alta calidad es más difícil de encontrar.

Si las tendencias continúan, dicen los investigadores, los desarrolladores de IA podrían agotar el suministro utilizable de texto humano entre 2026 y 2032. Dado que los chatbots de IA están reciclando trabajo existente, se basan en clichés y su redacción se vuelve rancia rápidamente.

El futuro robótico: la próxima frontera de los centros de datos

Judy Priest, de Microsoft, comenta que no le preocupa quedarse sin datos: hay un universo más allá del texto, y los desarrolladores de IA apenas están comenzando a explorarlo. La próxima frontera son los datos de «modelo del mundo», que se utilizarán para entrenar robots.

Se alimentarán flujos de vídeo y datos espaciales a los centros de datos, que se utilizarán para desarrollar robots autónomos. Huang, de Nvidia, también quiere estar en este mercado, y el año pasado apareció en el escenario con dos androides móviles.

Los robots están por todas partes en China. Se les ve almacenando estantes y limpiando suelos en centros comerciales. Cuando se pide comida a la habitación del hotel, la entrega puede llegar mediante un robot con ruedas de dos pies de altura con forma de cubo de basura y voz de niño. Una trampilla en la parte delantera del robot se abre y sale una bandeja de fideos. La máquina emite un chirrido, el usuario toma su comida, la trampilla se cierra y el robot se aleja rodando.

¿Hacia dónde nos lleva esta revolución?

La IA, con todas sus capacidades maravillosas, puede decepcionar a los inversores. Puede resultar ser una mercancía no rentable: Claude, Grok, Gemini y ChatGPT tienen capacidades similares, y las innovaciones tecnológicas son rápidamente copiadas por los competidores.

Los gigantes tecnológicos no tienen fondos ilimitados: a medida que empresas como Microsoft y Meta vierten dinero en la carrera de centros de datos, sus reservas de efectivo están disminuyendo. Los inversores podrían tener expectativas poco realistas: el mercado de valores estadounidense se acerca a ratios de valoración vistos por última vez durante la era punto-com.

«Los inversores normalmente no dan a un equipo de seis personas un par de miles de millones de dólares sin producto. Es raro, y está sucediendo hoy«, dijo recientemente Jeff Bezos.

Por otro lado, podría ser que el entusiasmo esté justificado. Jensen Huang, CEO de Nvidia, es un científico informático de clase mundial que está produciendo los microprocesadores que hacen posible la era de la IA. «Solíamos recibir silicio cada dos años», dice Priest, la ingeniera de Microsoft. «Ahora recibimos silicio cada pocos meses«.

Nvidia representa aproximadamente el ocho por ciento de la capitalización de mercado del S&P 500, la concentración más alta en una sola acción en al menos cuarenta y cinco años. Mucho depende de la capacidad de Huang para seguir produciendo mejores chips. Si los estadounidenses quieren jubilarse cómodamente, Nvidia tiene que tener éxito.

La revolución de los centros de datos de IA es, en última instancia, una apuesta civilizacional: una apuesta de que la inteligencia artificial transformará la economía global de manera tan profunda como lo hicieron los ferrocarriles o la electricidad. Pero a diferencia de esas revoluciones anteriores, esta viene con un reloj de cuenta atrás marcado por el cambio climático y los límites físicos de nuestra red eléctrica.

La pregunta no es si esta transformación sucederá, sino si podremos gestionarla de manera sostenible —tanto económica como medioambientalmente— antes de que los costes superen los beneficios. El futuro de la IA no se está escribiendo solo en código: se está construyendo con hormigón, cobre y, sobre todo, con enormes cantidades de electricidad que el planeta puede no estar preparado para proporcionar.

Sigue la conversación: más noticias Tech

¿Buscas una agencia que cumpla con los factores E-E-A-T de Google?

En agencia de marketing Leovel, hemos desarrollado estrategias exitosas de marketing y publicidad para empresas de toda España durante más de una década. Te invitamos a conocer nuestro servicio especializado de posicionamiento web SEO y AEO.

Agencia SEO

¿Listo para elevar el potencial de su marca?

+34 684 308 382

Privacy Preference Center