Gigantes tecnológicos como Google, Microsoft o Meta están inmersos en una frenética carrera por desarrollar más y más herramientas basadas en inteligencia artificial (IA) generativa. Esa competición está dejando su huella en el planeta. El entrenamiento y mantenimiento de estos sofisticados modelos requiere de un gigantesco poder computacional funcionando las 24 horas en los centros de datos. Eso ha disparado el consumo energético de estas infraestructuras, así como sus emisiones de carbono asociadas y el gasto de agua, empleada para refrigerar los sistemas. Pero la huella ambiental de la IA generativa no acaba aquí. Los equipos usados en los centros de datos en los que se cocina esta tecnología hay que renovarlos continuamente, y eso produce una gran cantidad de residuos digitales, incluyendo metales altamente tóxicos, como el plomo o el cromo. Un grupo de científicos ha hecho cálculos y su conclusión es alarmante: si no se toman medidas para reducir la basura electrónica asociada a la IA generativa, esta se multiplicará por 1.000 hasta 2030, alcanzando entre 1,2 y 5 millones de toneladas.
La investigación, cuyos resultados se publican hoy en la revista Nature Computational Science, quiere contribuir a encontrar la forma de reducir la basura electrónica asociada a la IA generativa, en particular a los grandes modelos de lenguaje (LLM) como ChatGPT, Copilot, Gemini, Claude o Llama. “Soy bastante optimista respecto a la posibilidad de impulsar estrategias de economía circular entre los principales actores implicados en la IA generativa”, asegura a este periódico Peng Wang, investigador del Instituto de Medio Ambiente Urbano de la Academia China de las Ciencias, en Xiamen, y uno de los autores del estudio. “Sin embargo, tengo una profunda preocupación en cuanto a la competencia entre la tasa de expansión de la IA generativa y la adopción de la economía circular. Dado el aumento sin precedentes de la demanda de esta tecnología, para ganar esta batalla, las medidas de choque deberían implementarse de manera inminente”, añade.
Más información
Wang y sus colegas tomaron como referencia para sus cálculos el servidor de ocho unidades GPU Nvidia DGX H100, de 2023. Es, hoy por hoy, el hardware de referencia en el procesamiento de IA, que necesita equipos mucho más potentes que los empleados en el resto de programas que se ejecutan online. Los autores del estudio han construido cuatro escenarios de futuro para estimar la evolución de la IA generativa, y su demanda asociada de procesamiento de datos, entre 2020 y 2030. El primero considera una expansión limitada de la industria de los chips y las manufacturas relacionadas con la IA generativa. Sitúa el crecimiento en el 41%, el mismo que se experimentó entre 2022 y 2023, entendiendo que es imposible que el ritmo sea menor porque desde entonces se han anunciado o presentado versiones mejoradas de varios de los modelos más usados.
Los siguientes tres escenarios son el conservador (+85%), que se basa en las cifras de crecimiento cosechadas por los asistentes de voz tipo Alexa; el moderado (+115%), inspirado en los números de TikTok; y el agresivo (+136%). Para este último se ha considerado que los grandes modelos de lenguaje se convierten en “una herramienta ubicua en la vida diaria de las personas”, tomando como referencia la tasa de crecimiento de Facebook, “una plataforma usada literalmente por todo el mundo”.
De acuerdo con sus cálculos, la generación de residuos pasaría de las 2.600 toneladas registradas en 2023 a entre 0,4 y 2,5 millones de toneladas para 2030, es decir, hasta 1.000 veces mayor. Ese volumen de residuos equivaldría a descartar entre 2.100 y 13.300 millones de iPhone 15 Pro. O lo que es lo mismo, entre 0,2 y 1,6 teléfonos por ser humano ese año. La estimación asume que durante la presente década no se ejecutarán medidas de reducción de la basura digital. En términos comparativos, todos los residuos de 2022 relacionados con equipamiento de tecnología de la información, como ordenadores portátiles o tabletas, fueron 4,6 millones de toneladas. Se calcula que para 2030 podrían ser 43,2 millones de toneladas.
Las proyecciones de Peng y sus colegas no han tenido en cuenta algo que, según destacan ellos mismos, podría agravar la situación: las restricciones a la importación de semiconductores, considerados productos clave desde el punto de vista geoestratégico. Ese bloqueo podría hacer que muchos países no se beneficien de las continuas mejoras en la eficiencia de los chips. Y eso tiene su peso: el análisis de los investigadores concluye que un año de retraso en la obtención de semiconductores de última generación puede conllevar un aumento del 14% en la generación de servidores de IA generativa que llegan al final de su vida útil. En términos absolutos, ese año de retraso supondría unos 5,7 millones adicionales de toneladas de residuos. Dado que los centros de datos dedicados a la IA están bastante concentrados geográficamente, la basura digital se concentrará en Europa (14%), Asia Oriental (25%) y Norteamérica (58%), si bien acaban enviándose en su mayor parte a África y Asia.
¿Son razonables las proyecciones que dibujan Wang y sus colegas? “Creo que sí, pero me da la impresión de que la acumulación de decisiones que simplifican el modelo (necesarias, porque si no el análisis no sería viable) añaden mucha incertidumbre a los resultados y las conclusiones. Por tanto, es importante tomar con bastante cautela estos resultados”, opina Álex Hernández, investigador principal del Instituto de Inteligencia Artificial de Quebec (MILA), institución que tiene entre sus filas a Yoshua Bengio, considerado uno de los padrinos de las redes neuronales. Hernández piensa también que el hecho de que los cuatro escenarios presentados no incluyan un análisis de su probabilidad, o al menos de su viabilidad, hace que el estudio sea menos criticable, pero también menos relevante.
“Aunque predecir el desarrollo futuro del hardware es difícil, considero que la previsión del documento es un indicador razonable de los residuos electrónicos que probablemente generará la IA generativa”, apunta por su parte Shaolei Ren, profesor asociado de Ingeniería Eléctrica e Informática de la Universidad de California en Riverside (Estados Unidos), en declaraciones al servicio SMC España.
Qué hacer
Ante esta situación, los autores examinan varias estrategias de economía circular para tratar de limitar la generación de residuos. La más efectiva, lógicamente, es aumentar la vida útil del hardware. Los números del equipo de científicos revelan que el 62% de los servidores de IA que se tiran cada año (3,1 millones de toneladas) se podrían mantener si se aumentara en un año su vida útil, que, según los autores, suele ser de tres. “De acuerdo con mi propia investigación, las GPU tienen un ciclo vital de entre tres y cinco años. Es decir, que los centros de datos dedicados a IA renuevan todos sus chips cada cuatro años o antes”, indica Ana Valdivia, profesora de Inteligencia artificial, gobierno y políticas del Instituto de Internet de la Universidad de Oxford. La ingeniera, que no ha participado en este estudio, investiga justamente la basura electrónica.
La reutilización de algunas partes de los procesadores GPU (los usados en el entrenamiento de modelos de IA), como los módulos de comunicación, de memoria o de batería, podría reducir los residuos electrónicos en un 42% (2,1 millones de toneladas). Valdivia no ve claro que eso sea factible. “Las GPU no se pueden insertar en una economía circular porque es muy caro reciclar sus componentes, cosa que no veo que se discuta en el artículo [de Wang y sus colegas]. El 100% de una GPU acaba incinerada o en un vertedero”, sostiene la experta.
Los equipos usados en los centros de datos constan de tres elementos principales, de acuerdo con el estudio: circuitos con semiconductores, baterías y partes estructurales. Cuando se desechan, quedan materiales tóxicos, del plomo y el cromo al acrilonitrilo o los policarbonatos, pero también metales preciosos, como oro, plata, platino, níquel o paladio. Si se reciclaran adecuadamente, estos materiales podrían tener un valor de entre 14.000 y 28.000 millones de dólares, estiman Wang y su equipo.
Sin embargo, el estudio podría haber hilado más fino. “Me llama la atención que los dispositivos de enfriamiento de servidores se excluyan del análisis, cuando estos juegan un papel fundamental en este tipo de dispositivos y además representan una gran cantidad del material físico de los servidores”, señala Hernández.
Pulsa aqui para ampliar la noticia