¿Cuál es tu huella ecológica?: La pregunta que ninguna IA puede responder

Escribes una pregunta, cualquier pregunta, la envías y del otro lado ‘alguien’ te responde con detalle. Nos hemos acostumbrado a esa magia tecnológica con el tiempo: al entrar a un banco, al quejarnos con nuestro operador de celular e incluso cuando tenemos una duda sencilla. Del otro lado no hay ‘nadie real’ respondiéndote: en eso consiste el truco de la Inteligencia Artificial, IA. 

Con el avance desenfrenado de las IA, es cada vez más crucial entender cómo funcionan. Por ejemplo los chatbots, esos chats en los que obtienes respuesta sin entender muy bien cómo, consisten en la aplicación de un software que, bajo previa programación de un grupo de expertos, puede simular tener una conversación como la tendrían dos humanos. Para esto utiliza el razonamiento basado en casos —CBR por su sigla en inglés— que le permite analizar información contenida en su programación, comparar y encontrar similitudes. Así resuelve problemas que encuentra semejantes.

Este tipo de software lleva aplicándose desde 1966 con el desarrollo de ELIZA, el primer programa informático que procesó lenguaje natural. Desde entonces los chatbots se han vuelto omnipresentes. Hoy cualquiera que haya hecho un trámite por internet con seguridad ha sido atendido por uno. Tan cotidianos que no causan mayor sorpresa ni curiosidad.

Sin embargo, el lanzamiento de ChatGPT al público general en noviembre de 2022 —y de otros chatbots similares lanzados posteriormente, como Bard de Google—, fue un acontecimiento. Es un chatbot distinto a los que conocemos: gracias al modelo lingüístico que le da nombre (transformador pre-entrenado generativo) ha sofisticado el tipo de conversación que puede sostener, imitando más fielmente la capacidad humana.

Lo que resulta tan atractivo de ChatGPT es que, al estar programado para generar algo nuevo a partir de la información que va almacenando, da la ilusión de que las respuestas que ofrece son impredecibles. Justo lo que nos gusta de conversar. Podríamos durar horas hablando con este chat, haciéndole preguntas, y probablemente muches de quienes están leyendo este texto lo han hecho. 

Esta novedad nos tiene tan obnubilades que no nos hemos preguntado qué recursos se necesitan, y cuánto de estos recursos, para que esta tecnología opere de manera simultánea en todo el mundo. Una pregunta ha estado casi ausente en el debate público sobre ChatGPT: pese a los potenciales beneficios que podría traernos,  ¿qué tanta energía consume ChatGPT y qué tanto aumenta el consumo energético en un mundo sumido en plena crisis ecológica?

¿Internet requiere más recursos de los que se piensa?

Esta pregunta no es nueva cuando hablamos de entrar a internet, así muches no pensemos en eso. ¿Cómo explicar una tecnología que en su núcleo se trata de almacenar y transportar algo tan abstracto e indeterminado como la información?  Las metáforas que usamos para navegar la web han tenido como objetivo explicar y hacer asimilable a personas que no están dentro del medio informático cómo funciona internet. 

Palabras como “ciberespacio”, “nube”, “wireless” o “big data” refuerzan ese carácter etéreo que creemos que tiene el internet, una tecnología que flota en el aire, sin materia concreta. Pero lo cierto es que, para poder funcionar, requiere de múltiples materias primas, incluso de difícil obtención, y ocupa espacio en algún lugar de la Tierra. 

El problema de no entenderlo de esta manera, de no ser usuarios conscientes de los recursos que requiere internet, o ChatGPT dentro de internet, es que para muches puede parecer una opción ambientalmente preferible, pues supuestamente no genera una huella ecológica como la generaría, por ejemplo, el papel de los libros, el otro gran sustrato que la humanidad ha usado para consignar y almacenar información. Pero no es así. Según datos de 2021, la huella de carbono, o sea el total de gases de efecto invernadero que produce internet, es similar al de la industria aeronáutica (conocida por ser una de las más contaminantes).

No es diferente con ChatGPT. Debido a su sofisticación, y la de otros  chatbots similares, tanto en la etapa investigativa como en la de lanzamiento y operación se necesita una cantidad de recursos proporcional a la envergadura del proyecto, como señala la investigadora en IA ética Sasha Luccioni para The Guardian.

¿Cuánto le cuesta a la Tierra ejecutar ChatGPT?

En los años previos a su lanzamiento, ya se venía reportando y alertando  sobre el impacto ambiental de la infraestructura que rodea el despliegue de grandes tecnologías de inteligencia artificial. Esto incluía el uso de combustibles fósiles e hidroeléctricas, fuentes energéticas de esta infraestructura. También grandes cantidades de agua dulce, requerida por los equipos para mantenerse frescos sin contaminarse con partículas —haciendo de lado los abusos laborales que venían denunciando los trabajadores del sector y que las compañías de alta tecnología invierten principalmente, al parecer, sin saberlo en la industria petrolera—. 

Una investigación de 2019 arrojó que el entrenamiento de un solo modelo de procesamiento de lenguaje natural requería el equivalente a unos 300.000 kg de emisiones de dióxido de carbono. Para dimensionarlo, esta nota de Nature las comparó con 125 vuelos de ida y vuelta entre Nueva York y Pekín.

Otro estudio dirigido por investigadores de la Universidad de California en Riverside, aún no revisado por pares académicos, calcula que en los centros de datos estadounidenses de Microsoft el entrenamiento de GPT3, el modelo operativo de lanzamiento de ChatGPT, podría haber consumido 700.000 litros de agua dulce. Esta cantidad equivale al consumo de una persona durante unos 14 años.

Todo software requiere su hardware, el canal físico en el que se desarrollan las operaciones de programas informáticos. La tecnología de ChatGPT requiere la construcción de computadores de última generación para los que se necesita, entre otros materiales, metales raros, un grupo de minerales llamados así porque es difícil encontrarlos en estado puro. En general, los metales raros son ampliamente requeridos por la industria de alta tecnología para la fabricación de sus múltiples aparatos (computadores, smartphones, carros eléctricos, etc.). Se obtienen principalmente a través de minería.

Cuanto más amplio se pretenda que sea el alcance de la inteligencia artificial generativa, más de este tipo de materias primas serán requeridas. Teniendo en cuenta su principal método de obtención, esto podría aumentar la explotación minera, que a su vez causaría un mayor impacto ambiental especialmente en los países donde se realice la extracción (Colombia, podría ser uno de ellos), lo que podría amenazar su biodiversidad.

Así mismo, cuantos más procesos quieran ser automatizados por medio de IA generativa, más grandes serían los centros de operaciones que almacenarían y tramitarían estos procesos, demandando más gasto energético y más agua dulce para mantener los equipos sin sobrecalentarse.

La transparencia en la información es clave  

La falta de transparencia en la información es quizá el mayor problema cuando se trata de reducir el impacto ambiental de las máquinas de inteligencia artificial. Hasta ahora no hay un estándar de medición con el que se pueda rastrear la eficiencia energética, las emisiones de carbono, el uso de agua, el tipo de hardware que emplean y su tiempo de uso. Eso impide tener reportes ambientales similares a los que hay en otras industrias, como la de la aviación. Aunque cada empresa cuenta con su propia información, esta no es de acceso público y abierto.

Esto tiene al menos dos consecuencias. La primera es que los potenciales usuarios no tienen idea de cómo funciona esta tecnología. En el imaginario del público general, construir una máquina para procesar lenguaje natural puede parecer, en el mejor de los casos, una tarea sencilla, una máquina simple. Pero, en el que podría ser el más común de los casos, no hay una imagen mental de tal máquina ni de cómo está construida. Por tanto, no pueden hacer un uso informado sobre el impacto ambiental que tiene su interacción con un chatbot de este tipo.

La segunda es que, al no tener una dimensión clara y precisa de la cantidad de recursos usados por esta tecnología, no hay un panorama real de su impacto ambiental ni de su incidencia en la crisis ecológica. Sin conocer esto, es difícil saber cómo optimizar el uso de recursos necesarios para tal fin.

También se dificulta establecer en qué casos sí valdría la pena usar esta tecnología (medicina, ciencia, mitigación del cambio climático son algunos de los campos en los que la inteligencia artificial resultaría de gran ayuda) y en cuáles otros sería mejor optar por opciones menos sofisticadas informáticamente hablando (correos electrónicos, procesos de compras por internet y automatización virtual dentro de empresas, son algunos de los campos que se sumarían a la incorporación de IA generativa en el futuro cercano).

Con certeza toda respuesta que nos da cualquier IA debe estar almacenada en un centro de datos en algún lugar del mundo, pues esta tecnología no produce conocimiento nuevo, sólo calcula la respuesta más velozmente que un ser humano a  partir de la información que ya tiene. Dado que no es de público conocimiento, porque las empresas son herméticas al respecto, hasta ahora ninguna IA ha podido responder con precisión cuál es su huella ecológica, pues no tienen almacenada esa información.

Ninguna de las compañías que lideran la IA parece haber dado declaraciones públicas al respecto. O directamente se han negado a dar respuesta a esta petición de información.

Los problemas más urgentes que plantea la IA 

Tratándose de un asunto tan urgente, ¿por qué no es de acceso abierto el gasto de recursos que requiere cada una de estas tecnologías? Según dice en esta nota de The Guardian Shaolei Ren, profesor de ingeniería eléctrica e informática asociado a UC Riverside,  las compañías no publican esta información porque al hacerlo podrían revelar a sus competidores la potencia computacional de la IA que están desarrollando. 

Otra de las razones estaría emparentada con que quienes están a cargo de estas compañías quieren ser cautos sobre potenciales usuarios que querrían usar esta herramienta con intenciones dañinas para la sociedad.

Para Roel Dobbe, PhD en ingeniería y profesor asistente de la Universidad Tecnológica de Delft en Sistemas basados en datos/algorítmicos y seguridad, justicia y sostenibilidad, es cuestión de voluntad política imponer estándares de medición del impacto ambiental de las IA similares a los que ya hay en otros sectores industriales. 

Como el desarrollo de la industria de alta tecnología ha estado en manos de unos pocos actores, afirma, ha puesto en entredicho el control crítico que las sociedades deberían mantener sobre esta infraestructura. Por lo que, señala, las compañías requieren incentivos para dar a conocer esa información. De lo contrario, no tienen razones obligantes y comprometedoras para hacerlo.

Los discursos alarmistas sobre los supuestos riesgos existenciales que las IA representan para la humanidad están desviando la atención sobre los riesgos reales, verificables y más cercanos que algunos científicos y otros actores del sector señalan sí deberíamos estar atendiendo en el respectivo debate público. 

Esto es problemático, porque mientras el público general está distraído temiendo en vano la supuesta autonomía de estas tecnologías, está perdiendo el derecho a tener una comprensión integral sobre su funcionamiento y los verdaderos potenciales beneficios y riesgos. Y los empresarios aprovechan esa distracción para hacer presión y suavizar las regulaciones necesarias.

Por ser más tangibles, los riesgos ambientales que causaría la IA deberían ser priorizados, como indica este estudio del 2021. Sus autores señalan que, en los casos en los que su fuente de energía es renovable, los centros de datos le restan espacio a la ‘energía verde’ para ser usada en otras áreas en la que sería más necesaria (agricultura, transporte, calefacción son otras industrias que requieren de energías renovables).

También señalan que el alto consumo de recursos que demandaría el desarrollo de la IA según su escala, causaría un impacto negativo doble en las poblaciones marginalizadas: probablemente no se beneficiarán del avance de esta tecnología y sufrirán de primera mano los perjuicios medioambientales de su consumo de recursos.  Sobre esto, preguntan si es justo implementar esta tecnología pese a la desigualdad que seguiría agudizando. 

Podemos hacerle frente al sentimiento de inevitabilidad que está despertando la IA como si su implementación se tratara de un destino inapelable. No es tal; estas máquinas dependen de las decisiones que toman los humanos que las operan y el curso de la acción humana es variable. Se puede interpelar.

Al fin de cuentas, eso es lo que nos diferencia a los humanos de estas súper calculadoras: con la información que hay —total o parcial— nosotros sí tenemos la capacidad evaluar su contenido, emitir juicios y decidir qué es lo que queremos para nuestras sociedades. No hay por qué dejar que sean los empresarios que financian estas computadoras los que nos lo digan.

***

Lamentablemente, gran parte de la información sobre este tema está en inglés. La autora recomienda usar el traductor de deepl para leerla en español.

***
María Teresa escribe sobre la relación entre ecología, sociedad y cultura. Puedes seguirla aquí.

Y sigue a MANIFIESTA en Instagram,Twitter y Facebook.

Facebook
Twitter
LinkedIn
WhatsApp

También te puede gustar