La locura de la IA
Marty Hart-Landsberg
¿Es usted uno de los que exigen a gritos que las empresas creen sistemas basados en inteligencia artificial para entretenerlo en Facebook, ser su pareja sexual en línea, ofrecer terapia las 24 horas del día los 7 días de la semana, proporcionar respuestas a sus preguntas de búsqueda, escribir las noticias o mejorar la vigilancia de la gestión de la actividad de los trabajadores? Supongo que no. Y, sin embargo, dondequiera que mire, la IA se promociona como el billete hacia una vida más productiva y satisfactoria.
El hecho es que el furor de la IA está impulsado por las empresas tecnológicas, no por nuestras necesidades. Y estas empresas están trabajando sin parar para convencernos de lo mucho que necesitamos la IA en nuestras vidas. Hay mucho en juego para ellas; si tienen éxito, pueden ganar una fortuna. Por supuesto, no les importan en lo más mínimo las consecuencias sociales de su esfuerzo. Todo es una búsqueda de lo que parece ser una gran olla de oro.
Sin embargo, la locura por la IA ha durado lo suficiente como para que podamos empezar a sacar algunas conclusiones plausibles sobre hacia dónde nos lleva. Lo más importante es que hay buenas razones para creer que las grandes tecnológicas nunca ofrecerán la IA transformadora que prometen. Una de las principales razones es que el desarrollo actual de la IA está seriamente limitado por las propias limitaciones de los datos y las alucinaciones inexplicables, como veremos, que hacen que sus resultados no sean fiables. Otra es que los costes financieros que implica el desarrollo y la operación de sistemas cada vez más sofisticados son asombrosos y probablemente resulten prohibitivos.
Pero no podemos permitirnos quedarnos al margen y dejar que la locura de la IA siga sin control, incluso si confiamos en que algún día pasará. La razón es que tiene un gran costo público. Está siendo subsidiada por los gobiernos en todos los niveles, privando a nuestras ciudades y estados de los ingresos fiscales necesarios. Aún más importante, nos está llevando cada vez más rápido a un futuro de caos climático.
Falsas promesas
Lo primero es lo primero: cuando la gente habla de IA, normalmente tiene en mente la inteligencia artificial generativa (o IA de aprendizaje automático). OpenAI inició la locura de la IA con su lanzamiento en noviembre de 2022 de ChatGPT, donde GPT significa eso: Generative Pre-Trained Transformer. Este chatbot, y versiones posteriores, incluidas las de empresas competidoras, requieren grandes cantidades de datos, en su mayoría extraídos de la web, y un algoritmo llamado transformador que le permite aprovechar esos datos para determinar, en función de la probabilidad, una respuesta a las indicaciones. Como explica la escritora tecnológica Megan Crouse,
"El modelo no 'sabe' lo que está diciendo, pero sí sabe qué símbolos (palabras) es probable que aparezcan uno después del otro en función del conjunto de datos con el que fue entrenado. La generación actual de chatbots de inteligencia artificial, como ChatGPT, su rival de Google, Bard, y otros, en realidad no toman decisiones inteligentes e informadas; en cambio, son los loros de Internet que repiten palabras que es probable que se encuentren una al lado de la otra en el transcurso del habla natural. La matemática subyacente se basa en la probabilidad”.
Según las empresas tecnológicas, la IA generativa es solo el comienzo, y ya prevén un futuro de rápidas mejoras, con más datos y más potencia informática que les permitirá desarrollar sistemas cada vez más parecidos al rendimiento humano. A continuación, llegará la inteligencia artificial interactiva (IAI), capaz de decidir y llevar a cabo una serie de acciones diferentes para completar las tareas asignadas sin indicaciones paso a paso. Y, en un futuro no muy lejano, podemos esperar sistemas de inteligencia artificial general o AGI con la capacidad de pensar, aprender y resolver problemas por sí solos. Según los promotores, estos sistemas nos permitirán desarrollar nuevas vacunas, reducir las emisiones de gases de efecto invernadero, aumentar la productividad y los ingresos, eliminar el trabajo poco interesante y mal pagado, y la lista continúa.
Pero a pesar de los importantes gastos en el desarrollo de la IA, que han dado lugar a sistemas de IA generativos cada vez más rápidos y capaces, las empresas de IA están encontrando resultados decepcionantes. Como comenta el escritor de tecnología Edward Zitron:
“Bloomberg informó que OpenAI, Google y Anthropic están luchando por construir una IA más avanzada, y que el modelo 'Orion' de OpenAI, también conocido como GPT-5, 'no alcanzó el rendimiento deseado por la empresa', y que 'Orion hasta ahora no se considera un avance tan grande' como lo fue de GPT-3.5 a GPT-4, su modelo actual. Te sorprenderá saber que la razón es que 'se ha vuelto cada vez más difícil encontrar nuevas fuentes sin explotar de datos de entrenamiento de alta calidad y creados por humanos que se puedan usar para construir sistemas de IA más avanzados'”.
Las empresas de inteligencia artificial han animado a los inversores a considerar su sector a través del prisma de la industria de los semiconductores, donde las nuevas inversiones han producido un historial constante de avances que han dado lugar a chips cada vez más pequeños y potentes. Pero esa no ha sido la experiencia de la inteligencia artificial, a pesar de los importantes desembolsos para centros de datos cada vez más grandes con máquinas más potentes. Y las limitaciones de los datos, como señaló Zitron, son una de las principales razones.
En pocas palabras, las empresas de inteligencia artificial han desplazado Internet los datos generados por humanos y, sin nuevos conjuntos de datos de gran tamaño, sus sistemas no pueden desarrollar nuevas capacidades. Su respuesta: incitar a sus sistemas actuales a hacer preguntas y solicitudes de información para generar nuevos datos. Pero esta estrategia tiene serios problemas. Uno de ellos es que los datos existentes, en gran parte extraídos de la web, incluyen todo tipo de publicaciones y artículos racistas, sexistas y mal informados. Esos son parte de la base de datos de la que se nutre el sistema cuando genera nuevo material para su entrenamiento. Como resultado, estas nociones dañinas y la desinformación se arraigan más profundamente.
Pero hay un problema aún más grave. Alimentar al sistema con sus propias respuestas crea un ciclo de retroalimentación que produce un rango cada vez más reducido de respuestas. Si bien los resultados generados por humanos varían considerablemente, los modelos de IA están estructurados para brindar respuestas basadas en probabilidades frecuentes. Esto significa que sus respuestas, si sus datos de entrenamiento son en gran parte autogenerados, pronto convergerán en la “sabiduría convencional” determinada por el modelo, y esto limita la confiabilidad y utilidad del sistema.
Alucinaciones de IA
El New York Times , en un artículo titulado “Cuando los resultados de la IA son una amenaza para la propia IA”, destaca el problema:
“Imagina un chatbot de asesoramiento médico que enumera menos enfermedades que coinciden con tus síntomas, porque fue entrenado en un espectro más estrecho de conocimiento médico generado por chatbots anteriores…
“Así como una copia de una copia puede alejarse del original, cuando la IA generativa se entrena con su propio contenido, su resultado también puede alejarse de la realidad, alejándose cada vez más de los datos originales que pretendía imitar.
“En un artículo publicado el mes pasado en la revista Nature , un grupo de investigadores de Gran Bretaña y Canadá mostró cómo este proceso da como resultado un rango más estrecho de resultados de IA a lo largo del tiempo: una etapa temprana de lo que llamaron 'colapso del modelo'.
“Este problema no se limita únicamente al texto. Otro equipo de investigadores de la Universidad Rice estudió lo que sucedería cuando los tipos de IA que generan imágenes se entrenan repetidamente con su propio resultado, un problema que ya podría estar ocurriendo a medida que las imágenes generadas por IA inundan la web.
“Descubrieron que comenzaron a acumularse fallas y artefactos de imagen en los resultados de la IA, lo que eventualmente produjo imágenes distorsionadas con patrones arrugados y dedos destrozados”.
Además, existe el problema potencialmente más grave de las alucinaciones, que se refiere a los resultados de la IA que no tienen base en la realidad: fechas, horas, lugares y eventos pueden ser totalmente inventados. Como señala Zitron, “el problema de las alucinaciones es uno que está lejos de resolverse y, al menos con la tecnología actual, es posible que nunca desaparezca, y lo convierte en un problema inviable para muchas tareas comerciales, donde se necesita un alto nivel de confiabilidad”.
Consecuencias financieras
Estos desafíos tecnológicos tienen consecuencias financieras. Hasta el momento, las empresas de IA están desembolsando mucho dinero para mejorar sus sistemas de IA sin obtener grandes beneficios económicos. La experiencia de Microsoft es representativa :
“Microsoft ha gastado una cantidad asombrosa de dinero en IA, y es probable que dentro de muchos años siga obteniendo beneficios importantes, si es que algún día se concretan.“El gigante tecnológico reveló que durante el trimestre que finalizó en junio de 2024, gastó una asombrosa suma de 19 mil millones de dólares en gastos de capital en efectivo y equipos, informa el Wall Street Journal, el equivalente a lo que solía gastar en un año entero hace apenas cinco años.
“No es de sorprender que la mayoría de esos 19 mil millones de dólares estuvieran relacionados con la IA, y aproximadamente la mitad se utilizó para construir y alquilar centros de datos”.
No es de sorprender que este historial haya llevado a algunos analistas de inversiones a lanzar advertencias sobre el futuro de la industria de la IA. Como informa en New York Times, Covello, director de investigación bursátil de Goldman Sachs:
“Sacudió los mercados con un artículo de investigación que cuestionaba si las empresas obtendrían un rendimiento suficiente de lo que, según algunas estimaciones, podría ser un billón de dólares en gastos en IA en los próximos años. Dijo que la inteligencia artificial generativa, que puede resumir texto y escribir código de software, cometía tantos errores que era cuestionable si alguna vez resolvería de manera confiable problemas complejos.El Sr. Covello cuestionó la idea de que los costos de la IA disminuirían, señalando que los costos han aumentado para algunas tecnologías sofisticadas como las máquinas que fabrican semiconductores. También criticó las capacidades de la IA.
“La construcción excesiva de cosas para las que el mundo no tiene uso o para las que no está preparado suele acabar mal”, afirmó.
A un gran costo público
Resulta tentador quedarse al margen y dejar que las grandes tecnológicas persigan sus sueños. Si se concretan, genial, y si no, son ellas las que pierden. Pero las cosas no funcionan así. Todos estamos pagando un alto precio por sus esfuerzos.
Un ejemplo: los estados y las ciudades han estado compitiendo para atraer centros de datos con enormes exenciones fiscales. Según una investigación del periódico Oregonian , “Oregón tiene una de las industrias de centros de datos más grandes y de más rápido crecimiento del país”. Y una de las razones principales es que las grandes empresas tecnológicas, como Amazon, Apple, Google y Meta, reciben “algunas de las exenciones fiscales más generosas del mundo. Los centros de datos no emplean a muchas personas, pero las ricas empresas tecnológicas que los gestionan disfrutan de exenciones fiscales de Oregón por un valor de más de 225 millones de dólares anuales”.
Estas exenciones impositivas significan menos dinero para cosas que sí necesitamos, como escuelas, bibliotecas y parques. Y los propios centros de datos ocupan terrenos que podrían utilizarse para fines más productivos.
Una preocupación cada vez mayor es que estos centros de datos imponen enormes exigencias a nuestro sector energético, exigencias que plantean desafíos críticos para nuestras comunidades. Como explica el Oregonian :
“La demanda de centros de datos está aumentando debido a la inteligencia artificial, que utiliza cantidades masivas de electricidad para cálculos avanzados. Estas potentes máquinas ya consumen más del 10 % de toda la energía de Oregón y los pronosticadores dicen que el uso de energía de los centros de datos será al menos el doble de esa cifra para 2030, y tal vez varias veces más…
“Las necesidades energéticas de los centros de datos están provocando costosas mejoras en las líneas eléctricas del noroeste y provocando la construcción de nuevas plantas de energía. Existe una creciente preocupación entre los defensores de los consumidores, los reguladores y los políticos de que los hogares terminarán soportando gran parte del costo del crecimiento de los centros de datos a través de facturas de energía residenciales más elevadas”.
Oregón no es un caso aislado. Según el New York Times , “ya hay más de 5.000 centros de datos en Estados Unidos y se espera que la industria crezca casi un 10 por ciento anual. Goldman Sachs estima que la IA impulsará un aumento del 160 por ciento en la demanda de energía de los centros de datos para 2030”.
Esta demanda explosiva de electricidad se traduce directamente en un aumento drástico del uso de combustibles fósiles, incluido el carbón, y, por lo tanto, de las emisiones de gases de efecto invernadero de Estados Unidos, lo que aumenta la probabilidad de catástrofes climáticas. Sin embargo, como nos informa el New York Times, a nuestros líderes tecnológicos no parece importarles:
“Microsoft dijo que sus emisiones se habían disparado un 30 por ciento desde 2020 debido a su expansión de centros de datos. Las emisiones de Google aumentaron casi un 50 por ciento en los últimos cinco años debido a la IA.
“Eric Schmidt, ex director ejecutivo de Google, dijo recientemente que el auge de la inteligencia artificial era demasiado poderoso y tenía demasiado potencial como para permitir que las preocupaciones sobre el cambio climático se interpusieran en su camino.
“Schmidt, de manera un tanto fatalista, dijo que ‘de todos modos no vamos a alcanzar los objetivos climáticos’, y argumentó que en lugar de centrarme en reducir las emisiones, ‘prefiero apostar a que la IA resuelva el problema’”.
El presidente Biden, en su discurso de despedida a la nación, advirtió sobre el “posible auge de un complejo industrial tecnológico que puede plantear peligros reales para nuestro país”. Y, sin embargo, como señala el editor ejecutivo de The American Prospect, David Dayen,
“La misma semana en que lanzó esta advertencia, Biden firmó una orden ejecutiva que le da a ese complejo tecnológico-industrial un enorme regalo, al hacer de la creación de centros de datos para inteligencia artificial un imperativo de seguridad nacional. La orden tiene como objetivo acelerar la producción de centros de datos (de maneras que no se permiten, por ejemplo, en la producción de viviendas para seres humanos) y requiere el arrendamiento de terrenos federales propiedad del Pentágono y el Departamento de Energía para construir centros de datos”.
Lo que tenemos aquí es un claro ejemplo de la lógica destructiva del capitalismo •
Este artículo se publicó por primera vez en el sitio web Reports From the Economic Front .
Martin Hart-Landsberg es profesor emérito de Economía en el Lewis and Clark College de Portland (Oregón) e investigador adjunto en el Instituto de Ciencias Sociales de la Universidad Nacional de Gyeongsang ( Corea del Sur). Sus áreas de docencia e investigación incluyen la economía política, el desarrollo económico, la economía internacional y la economía política de Asia oriental. Mantiene un blog titulado Reports from the Economic Front.
¿Es usted uno de los que exigen a gritos que las empresas creen sistemas basados en inteligencia artificial para entretenerlo en Facebook, ser su pareja sexual en línea, ofrecer terapia las 24 horas del día los 7 días de la semana, proporcionar respuestas a sus preguntas de búsqueda, escribir las noticias o mejorar la vigilancia de la gestión de la actividad de los trabajadores? Supongo que no. Y, sin embargo, dondequiera que mire, la IA se promociona como el billete hacia una vida más productiva y satisfactoria.
El hecho es que el furor de la IA está impulsado por las empresas tecnológicas, no por nuestras necesidades. Y estas empresas están trabajando sin parar para convencernos de lo mucho que necesitamos la IA en nuestras vidas. Hay mucho en juego para ellas; si tienen éxito, pueden ganar una fortuna. Por supuesto, no les importan en lo más mínimo las consecuencias sociales de su esfuerzo. Todo es una búsqueda de lo que parece ser una gran olla de oro.
Sin embargo, la locura por la IA ha durado lo suficiente como para que podamos empezar a sacar algunas conclusiones plausibles sobre hacia dónde nos lleva. Lo más importante es que hay buenas razones para creer que las grandes tecnológicas nunca ofrecerán la IA transformadora que prometen. Una de las principales razones es que el desarrollo actual de la IA está seriamente limitado por las propias limitaciones de los datos y las alucinaciones inexplicables, como veremos, que hacen que sus resultados no sean fiables. Otra es que los costes financieros que implica el desarrollo y la operación de sistemas cada vez más sofisticados son asombrosos y probablemente resulten prohibitivos.
Pero no podemos permitirnos quedarnos al margen y dejar que la locura de la IA siga sin control, incluso si confiamos en que algún día pasará. La razón es que tiene un gran costo público. Está siendo subsidiada por los gobiernos en todos los niveles, privando a nuestras ciudades y estados de los ingresos fiscales necesarios. Aún más importante, nos está llevando cada vez más rápido a un futuro de caos climático.
Falsas promesas
Lo primero es lo primero: cuando la gente habla de IA, normalmente tiene en mente la inteligencia artificial generativa (o IA de aprendizaje automático). OpenAI inició la locura de la IA con su lanzamiento en noviembre de 2022 de ChatGPT, donde GPT significa eso: Generative Pre-Trained Transformer. Este chatbot, y versiones posteriores, incluidas las de empresas competidoras, requieren grandes cantidades de datos, en su mayoría extraídos de la web, y un algoritmo llamado transformador que le permite aprovechar esos datos para determinar, en función de la probabilidad, una respuesta a las indicaciones. Como explica la escritora tecnológica Megan Crouse,
"El modelo no 'sabe' lo que está diciendo, pero sí sabe qué símbolos (palabras) es probable que aparezcan uno después del otro en función del conjunto de datos con el que fue entrenado. La generación actual de chatbots de inteligencia artificial, como ChatGPT, su rival de Google, Bard, y otros, en realidad no toman decisiones inteligentes e informadas; en cambio, son los loros de Internet que repiten palabras que es probable que se encuentren una al lado de la otra en el transcurso del habla natural. La matemática subyacente se basa en la probabilidad”.
Según las empresas tecnológicas, la IA generativa es solo el comienzo, y ya prevén un futuro de rápidas mejoras, con más datos y más potencia informática que les permitirá desarrollar sistemas cada vez más parecidos al rendimiento humano. A continuación, llegará la inteligencia artificial interactiva (IAI), capaz de decidir y llevar a cabo una serie de acciones diferentes para completar las tareas asignadas sin indicaciones paso a paso. Y, en un futuro no muy lejano, podemos esperar sistemas de inteligencia artificial general o AGI con la capacidad de pensar, aprender y resolver problemas por sí solos. Según los promotores, estos sistemas nos permitirán desarrollar nuevas vacunas, reducir las emisiones de gases de efecto invernadero, aumentar la productividad y los ingresos, eliminar el trabajo poco interesante y mal pagado, y la lista continúa.
Pero a pesar de los importantes gastos en el desarrollo de la IA, que han dado lugar a sistemas de IA generativos cada vez más rápidos y capaces, las empresas de IA están encontrando resultados decepcionantes. Como comenta el escritor de tecnología Edward Zitron:
“Bloomberg informó que OpenAI, Google y Anthropic están luchando por construir una IA más avanzada, y que el modelo 'Orion' de OpenAI, también conocido como GPT-5, 'no alcanzó el rendimiento deseado por la empresa', y que 'Orion hasta ahora no se considera un avance tan grande' como lo fue de GPT-3.5 a GPT-4, su modelo actual. Te sorprenderá saber que la razón es que 'se ha vuelto cada vez más difícil encontrar nuevas fuentes sin explotar de datos de entrenamiento de alta calidad y creados por humanos que se puedan usar para construir sistemas de IA más avanzados'”.
Las empresas de inteligencia artificial han animado a los inversores a considerar su sector a través del prisma de la industria de los semiconductores, donde las nuevas inversiones han producido un historial constante de avances que han dado lugar a chips cada vez más pequeños y potentes. Pero esa no ha sido la experiencia de la inteligencia artificial, a pesar de los importantes desembolsos para centros de datos cada vez más grandes con máquinas más potentes. Y las limitaciones de los datos, como señaló Zitron, son una de las principales razones.
En pocas palabras, las empresas de inteligencia artificial han desplazado Internet los datos generados por humanos y, sin nuevos conjuntos de datos de gran tamaño, sus sistemas no pueden desarrollar nuevas capacidades. Su respuesta: incitar a sus sistemas actuales a hacer preguntas y solicitudes de información para generar nuevos datos. Pero esta estrategia tiene serios problemas. Uno de ellos es que los datos existentes, en gran parte extraídos de la web, incluyen todo tipo de publicaciones y artículos racistas, sexistas y mal informados. Esos son parte de la base de datos de la que se nutre el sistema cuando genera nuevo material para su entrenamiento. Como resultado, estas nociones dañinas y la desinformación se arraigan más profundamente.
Pero hay un problema aún más grave. Alimentar al sistema con sus propias respuestas crea un ciclo de retroalimentación que produce un rango cada vez más reducido de respuestas. Si bien los resultados generados por humanos varían considerablemente, los modelos de IA están estructurados para brindar respuestas basadas en probabilidades frecuentes. Esto significa que sus respuestas, si sus datos de entrenamiento son en gran parte autogenerados, pronto convergerán en la “sabiduría convencional” determinada por el modelo, y esto limita la confiabilidad y utilidad del sistema.
Alucinaciones de IA
El New York Times , en un artículo titulado “Cuando los resultados de la IA son una amenaza para la propia IA”, destaca el problema:
“Imagina un chatbot de asesoramiento médico que enumera menos enfermedades que coinciden con tus síntomas, porque fue entrenado en un espectro más estrecho de conocimiento médico generado por chatbots anteriores…
“Así como una copia de una copia puede alejarse del original, cuando la IA generativa se entrena con su propio contenido, su resultado también puede alejarse de la realidad, alejándose cada vez más de los datos originales que pretendía imitar.
“En un artículo publicado el mes pasado en la revista Nature , un grupo de investigadores de Gran Bretaña y Canadá mostró cómo este proceso da como resultado un rango más estrecho de resultados de IA a lo largo del tiempo: una etapa temprana de lo que llamaron 'colapso del modelo'.
“Este problema no se limita únicamente al texto. Otro equipo de investigadores de la Universidad Rice estudió lo que sucedería cuando los tipos de IA que generan imágenes se entrenan repetidamente con su propio resultado, un problema que ya podría estar ocurriendo a medida que las imágenes generadas por IA inundan la web.
“Descubrieron que comenzaron a acumularse fallas y artefactos de imagen en los resultados de la IA, lo que eventualmente produjo imágenes distorsionadas con patrones arrugados y dedos destrozados”.
Además, existe el problema potencialmente más grave de las alucinaciones, que se refiere a los resultados de la IA que no tienen base en la realidad: fechas, horas, lugares y eventos pueden ser totalmente inventados. Como señala Zitron, “el problema de las alucinaciones es uno que está lejos de resolverse y, al menos con la tecnología actual, es posible que nunca desaparezca, y lo convierte en un problema inviable para muchas tareas comerciales, donde se necesita un alto nivel de confiabilidad”.
Consecuencias financieras
Estos desafíos tecnológicos tienen consecuencias financieras. Hasta el momento, las empresas de IA están desembolsando mucho dinero para mejorar sus sistemas de IA sin obtener grandes beneficios económicos. La experiencia de Microsoft es representativa :
“Microsoft ha gastado una cantidad asombrosa de dinero en IA, y es probable que dentro de muchos años siga obteniendo beneficios importantes, si es que algún día se concretan.“El gigante tecnológico reveló que durante el trimestre que finalizó en junio de 2024, gastó una asombrosa suma de 19 mil millones de dólares en gastos de capital en efectivo y equipos, informa el Wall Street Journal, el equivalente a lo que solía gastar en un año entero hace apenas cinco años.
“No es de sorprender que la mayoría de esos 19 mil millones de dólares estuvieran relacionados con la IA, y aproximadamente la mitad se utilizó para construir y alquilar centros de datos”.
No es de sorprender que este historial haya llevado a algunos analistas de inversiones a lanzar advertencias sobre el futuro de la industria de la IA. Como informa en New York Times, Covello, director de investigación bursátil de Goldman Sachs:
“Sacudió los mercados con un artículo de investigación que cuestionaba si las empresas obtendrían un rendimiento suficiente de lo que, según algunas estimaciones, podría ser un billón de dólares en gastos en IA en los próximos años. Dijo que la inteligencia artificial generativa, que puede resumir texto y escribir código de software, cometía tantos errores que era cuestionable si alguna vez resolvería de manera confiable problemas complejos.El Sr. Covello cuestionó la idea de que los costos de la IA disminuirían, señalando que los costos han aumentado para algunas tecnologías sofisticadas como las máquinas que fabrican semiconductores. También criticó las capacidades de la IA.
“La construcción excesiva de cosas para las que el mundo no tiene uso o para las que no está preparado suele acabar mal”, afirmó.
A un gran costo público
Resulta tentador quedarse al margen y dejar que las grandes tecnológicas persigan sus sueños. Si se concretan, genial, y si no, son ellas las que pierden. Pero las cosas no funcionan así. Todos estamos pagando un alto precio por sus esfuerzos.
Un ejemplo: los estados y las ciudades han estado compitiendo para atraer centros de datos con enormes exenciones fiscales. Según una investigación del periódico Oregonian , “Oregón tiene una de las industrias de centros de datos más grandes y de más rápido crecimiento del país”. Y una de las razones principales es que las grandes empresas tecnológicas, como Amazon, Apple, Google y Meta, reciben “algunas de las exenciones fiscales más generosas del mundo. Los centros de datos no emplean a muchas personas, pero las ricas empresas tecnológicas que los gestionan disfrutan de exenciones fiscales de Oregón por un valor de más de 225 millones de dólares anuales”.
Estas exenciones impositivas significan menos dinero para cosas que sí necesitamos, como escuelas, bibliotecas y parques. Y los propios centros de datos ocupan terrenos que podrían utilizarse para fines más productivos.
Una preocupación cada vez mayor es que estos centros de datos imponen enormes exigencias a nuestro sector energético, exigencias que plantean desafíos críticos para nuestras comunidades. Como explica el Oregonian :
“La demanda de centros de datos está aumentando debido a la inteligencia artificial, que utiliza cantidades masivas de electricidad para cálculos avanzados. Estas potentes máquinas ya consumen más del 10 % de toda la energía de Oregón y los pronosticadores dicen que el uso de energía de los centros de datos será al menos el doble de esa cifra para 2030, y tal vez varias veces más…
“Las necesidades energéticas de los centros de datos están provocando costosas mejoras en las líneas eléctricas del noroeste y provocando la construcción de nuevas plantas de energía. Existe una creciente preocupación entre los defensores de los consumidores, los reguladores y los políticos de que los hogares terminarán soportando gran parte del costo del crecimiento de los centros de datos a través de facturas de energía residenciales más elevadas”.
Oregón no es un caso aislado. Según el New York Times , “ya hay más de 5.000 centros de datos en Estados Unidos y se espera que la industria crezca casi un 10 por ciento anual. Goldman Sachs estima que la IA impulsará un aumento del 160 por ciento en la demanda de energía de los centros de datos para 2030”.
Esta demanda explosiva de electricidad se traduce directamente en un aumento drástico del uso de combustibles fósiles, incluido el carbón, y, por lo tanto, de las emisiones de gases de efecto invernadero de Estados Unidos, lo que aumenta la probabilidad de catástrofes climáticas. Sin embargo, como nos informa el New York Times, a nuestros líderes tecnológicos no parece importarles:
“Microsoft dijo que sus emisiones se habían disparado un 30 por ciento desde 2020 debido a su expansión de centros de datos. Las emisiones de Google aumentaron casi un 50 por ciento en los últimos cinco años debido a la IA.
“Eric Schmidt, ex director ejecutivo de Google, dijo recientemente que el auge de la inteligencia artificial era demasiado poderoso y tenía demasiado potencial como para permitir que las preocupaciones sobre el cambio climático se interpusieran en su camino.
“Schmidt, de manera un tanto fatalista, dijo que ‘de todos modos no vamos a alcanzar los objetivos climáticos’, y argumentó que en lugar de centrarme en reducir las emisiones, ‘prefiero apostar a que la IA resuelva el problema’”.
El presidente Biden, en su discurso de despedida a la nación, advirtió sobre el “posible auge de un complejo industrial tecnológico que puede plantear peligros reales para nuestro país”. Y, sin embargo, como señala el editor ejecutivo de The American Prospect, David Dayen,
“La misma semana en que lanzó esta advertencia, Biden firmó una orden ejecutiva que le da a ese complejo tecnológico-industrial un enorme regalo, al hacer de la creación de centros de datos para inteligencia artificial un imperativo de seguridad nacional. La orden tiene como objetivo acelerar la producción de centros de datos (de maneras que no se permiten, por ejemplo, en la producción de viviendas para seres humanos) y requiere el arrendamiento de terrenos federales propiedad del Pentágono y el Departamento de Energía para construir centros de datos”.
Lo que tenemos aquí es un claro ejemplo de la lógica destructiva del capitalismo •
Este artículo se publicó por primera vez en el sitio web Reports From the Economic Front .
Martin Hart-Landsberg es profesor emérito de Economía en el Lewis and Clark College de Portland (Oregón) e investigador adjunto en el Instituto de Ciencias Sociales de la Universidad Nacional de Gyeongsang ( Corea del Sur). Sus áreas de docencia e investigación incluyen la economía política, el desarrollo económico, la economía internacional y la economía política de Asia oriental. Mantiene un blog titulado Reports from the Economic Front.