Ya es hora de calcular las emisiones de CO2 que provoca la Inteligencia Artificial: tanto como cinco coches

Entrenar una Inteligencia Artificial (IA) mediante deep learning tiene un impacto medioambiental equivalente a cinco coches. Concretamente, a las emisiones de toda la vida de esos cinco coches, incluyendo también el impacto medioambiental de fabricar los coches en sí mismos.

Es lo que acaban de calcular en un estudio investigadores de la Universidad de Massachusetts, Amherst, descubriedo que el proceso de entrenar una IA puede emitir más de 626 000 libras de dióxido de carbono.

Deep Learning

El Aprendizaje profundo (deep learning) es un conjunto de algoritmos de clase aprendizaje automático. El aprendizaje profundo es parte de un conjunto más amplio de métodos de aprendizaje automático basados en asimilar representaciones de datos. Varias arquitecturas de aprendizaje profundo, como redes neuronales profundas, redes neuronales profundas convolucionales, y redes de creencia profundas, han sido aplicadas a campos como visión por ordenador, reconocimiento automático del habla, y reconocimiento de señales de audio y música.

Pero esto también tiene un alto coste medioambiental. Los investigadores observaron cuatro modelos en el campo que han sido responsables de los mayores avances en el rendimiento: el Transformer, ELMo, BERT y GPT-2. Entrenaron a cada uno en una sola GPU durante un día para medir su consumo de energía. Luego utilizaron la cantidad de horas de entrenamiento que se enumeran en los documentos originales del modelo para calcular la energía total consumida durante todo el proceso de entrenamiento. Ese número se convirtió en libras de equivalente de dióxido de carbono.

En particular, los resultados sugieren que un proceso de ajuste conocido como búsqueda de arquitectura neuronal, que intenta optimizar un modelo mediante el ajuste gradual del diseño de una red neuronal a través de pruebas y errores exhaustivos, tenía costos asociados extraordinariamente altos por poco beneficio de rendimiento. Sin él, el modelo más costoso, BERT, tenía una huella de carbono de aproximadamente 1 400 libras de dióxido de carbono equivalente, casi como un vuelo de ida y vuelta a través de Estados Unidos para una persona.

Según Carlos Gómez-Rodríguez, uno de los autores del estudio, en general gran parte de las investigaciones más recientes en IA descuidan la eficiencia, ya que se ha encontrado que las redes neuronales muy grandes son útiles para una gran variedad de tareas, y las empresas e instituciones que tienen acceso abundante a recursos computacionales pueden aprovechar esto para obtener una ventaja competitiva.

Los resultados también ponen de relieve otro problema creciente en la IA: la gran cantidad de recursos que ahora se requieren para producir resultados dignos de ser publicados ha hecho que sea cada vez más difícil para las personas que trabajan en el mundo académico continuar contribuyendo a la investigación.

Los autores del estudio esperan que sus colegas presten atención a los hallazgos del documento y ayuden a nivelar el campo de juego invirtiendo en el desarrollo de hardware y algoritmos más eficientes.

Ver todos los comentarios en https://www.xatakaciencia.com

VER 0 Comentario

Portada de Xataka Ciencia