Cloud Computing como factor clave para un futuro más sostenible

Roberto García Esteban    14 diciembre, 2022

Desde que se celebrara la Cumbre del clima de París en 2015 y la posterior puesta en marcha de la Agenda 2030, gobiernos y empresas de todo el mundo tratan de reducir el impacto medioambiental de sus actividades.

No obstante, el uso creciente de las tecnologías de la información tiene también impacto en el medio ambiente. Según un estudio de la universidad de Lancaster en Reino Unido, el uso de las TIC supone entre el 2% y el 4% de las emisiones de CO2 de todo el planeta, por lo que la digitalización también debe contribuir a su reducción.

Sin embargo, el uso de Cloud Computing permite reducir esas emisiones. De la misma manera que la filosofía de la tecnología Cloud es que varios clientes compartan una misma infraestructura técnica y por tanto se gane en eficiencia, también se ahorran emisiones de CO2.

Las empresas que migran a la nube sus aplicaciones reducen en un 84% sus emisiones de CO2 debido principalmente al ahorro del 65% en el consumo de energía conseguido

Es decir, Cloud Computing ayuda a reducir la huella de carbono y puede llegar a ser un elemento clave para frenar el cambio climático, porque siempre es más eficiente concentrar la infraestructura en grandes centros de datos que tenerla dispersa en multitud de servidores privados.

Energías renovables para reducir la huella de carbono de los datacenters

Se estima que los centros de datos consumen unos 200 teravatios por hora (TWh). O lo que es lo mismo, el 1% de la energía que se demanda en todo el mundo. Aproximadamente 86 TWh son consumidos por los tres grandes hiperescalares (Amazon Web Services, Microsoft y Google).

Eso a pesar de que estos centros de datos de los hiperescalares pueden presumir de ser mucho menos intensivos en demanda de electricidad que los que gestionan las empresas individuales, dado que tienen una eficacia de uso de energía (PUE, Power Usage Effectiveness) con valores alrededor de 1,1, o lo que es lo mismo, solo necesitan 0,1 KWh adicionales a cada KWh consumido por los servidores para refrigerarlos o mantenerlos.

Los principales hiperescalares están realizando grandes esfuerzos para reducir su consumo de energía y sus emisiones de CO2

Los principales hiperescalares están realizando grandes esfuerzos para reducir su consumo de energía y por consiguiente, sus emisiones de CO2, basándose cada vez más en energías renovables para reducir la huella de carbono emitida por sus datacenters.

En el caso de los centros de datos, tiene especial relevancia el coste de la refrigeración, ya que para mantener a una temperatura óptima las salas que albergan estos centros de datos se requieren potentes sistemas de climatización que compensen el calor emitido por miles de servidores funcionando a pleno rendimiento.

Alternativas: centros de datos bajo el océano o en el ártico

Para reducir estos costes de refrigeración se buscan alternativas de lo más peculiares. En 2018 Microsoft inició el proyecto Natick, consistente en depositar un data center en el fondo del océano Atlántico a un kilómetro de las costas de las islas Orkney (Escocia), donde se encuentra un importante centro de energías renovables que genera el cien por cien de la electricidad consumida por sus habitantes y que alimentó en su totalidad al data center.

Proyecto Natick de Microsoft, en 2018. Foto: Microsoft Research

El frío de las aguas Atlánticas mantenía refrigerado y a temperatura prácticamente constante el datacenter y además, aunque parezca mentira, se demostró que la ausencia de intervención humana reducía la tasa de fallos.

Cuando dos años después del inicio del proyecto se recuperaron los data center, se comprobó que de los 864 servidores que se habían sumergido solo ocho habían tenido algún tipo de fallo, lo que es aproximadamente ocho veces menos que la tasa de fallos habituales.

El fondo del mar no es la única ubicación particular de un data center. Bajo la catedral Uspenski de Helsinki se halla un centro de datos de la empresa Equinix dentro de un antiguo refugio antiaéreo que utiliza las frías aguas del Báltico para refrigerarse y que, además, sirve para calentar el agua que sirve de calefacción a unas 500 viviendas de Helsinki con el calor que emite.

Luleå Data Center. Foto: Meta / Facebook

Meta (Facebook) construyó otro centro de datos en Lulea, Suecia, muy cerca del círculo polar ártico, donde las temperaturas rara vez superan los diez grados lo que contribuye a que las necesidades energéticas de este data center sea aproximadamente un 40% inferior a la media.

El reto de ser más eficientes y sostenibles

También AWS (Amazon) anunció en 2014 su compromiso con el uso de fuentes de energía limpias y en 2018 el 50% de la energía consumida por la multinacional ya era de origen renovable.

Para ello cuenta con sus propias granjas solares siendo alguna de las más importantes del mundo las que ha construido en Sevilla y Zaragoza.

Por último, Google quiere que sus data centers funcionen con energías limpias las 24 horas del día en 2030, para lo cual está compensando sus emisiones y comprando energía solar y eólica para sus instalaciones.

Las empresas con soluciones eficientes tienen una importante ventaja competitiva en términos de rentabilidad y sostenibilidad.

Así que la eficiencia energética y la sostenibilidad son parámetros clave a la hora de diseñar un data center. Las empresas que encuentren las soluciones más eficientes tendrán una importante ventaja competitiva en términos de ahorro y también de imagen ante la sociedad.

En definitiva, la nube se muestra como uno de los grandes aliados de la sostenibilidad por lo que la migración a Cloud Computing no solo trae mejoras de productividad o ahorros económicos, sino también se convierte en una ayuda muy importante para frenar el cambio climático.