Los centros de datos siguen consumiendo demasiada energía

EmpresasGreen ITInnovaciónPCWorkspace

La virtualización y otras técnicas para reducir el consumo de energía no parecen estar dando los resultados esperados.

A pesar de la adoptar tecnologías de virtualización y otras que permiten gestionar el uso de energía y por tanto su consumo, los centros de datos siguen gastando demasiado. Esta es, al menos, una de las conclusiones a las que se llegó durante el Uptime Symposium 2010, celebrado la semana pasada en Nueva York.

Rob Bernard, responsable de estrategias medioambientales de Microsoft comentó durante su comparecencia que la mayoría de la gente no se da cuenta de que se agotará la energía y no se podrá mantener el centro de datos lo suficientemente frío.

El consumo de energía de los centros de datos es un problema público desde que en 1996 el departamento de energía de Estados Unidos predijo que el consumo de energía de los datacenters se duplicará para 2011 hasta los 120.000 millones de kWh, una predicción que se ha cumplido. A esta hay que añadir otras, como que las empresas gastarían más en mantener los centros de datos, por la energía que consumen, que en el propio hardware.

Hace pocos años que despegó con fuerza la conciencia ecológica en el sector TIC, generándose el movimiento de Green IT al que muchas empresas se han apuntado con más o menos acierto. Pero para Bernard, a pesar de que se ha adelantado mucho a nivel de infraestructura y a nivel de tecnología, “pero no hemos cambiado en conducta”.

Muchos de los asistentes estuvieron de acuerdo en que parte del problema es la manera en que están desarrolladas las aplicaciones, ya que los desarrolladores crean aplicaciones que requieren mucha memoria y mantienen el procesador activo durante mucho tiempo. Conque haya un solo programa que no esté escrito para ponerse en reposo cuando no esté en uso se incrementa el consumo de energía de todo el servidor.

La Ley de Moore, que afirma que cada nueva generación de procesadores duplica el rendimiento de sus predecesores porque el número de transistores en cada nuevo chip se duplica cada dos años, también es culpable de que los centros de datos sigan consumiendo demasiado. Es cierto que cada nueva generación funciona mejor consumiendo lo mismo, pero hay que tener en cuenta que incluso los núcleos no utilizados consumen gran cantidad de energía, a lo que hay que añadir que los asistentes a la conferencia estimaron que la utilización media de la CPU es de entre un 5% y un 25%.

Las organizaciones no piensan en la consolidación de las cargas de trabajo, de forma que cada nueva aplicación añadida por una empresa tiende a funcionar por sí misma, de manera independiente, y se hace poco trabajo compartiendo recursos.

Poniendo como ejemplo a su compañía, Rob Bernard, comentó durante el Uptime Symposium 2010 que los servicios online de Microsoft como Hotmail y Bing tienen ratios de utilización de la CPU altos, pero que otros proyectos, tanto internos como externos, utilizan una pequeña capacidad de los servidores consagrados a los mismos. Cada nuevo proyecto utiliza demasiados servidores y cuando el hardware se actualiza el ratio de utilización de la CPU cae aún más.

Por lo tanto, aunque los fabricantes de servidores y otros componentes tienden a incorporar tecnologías que limitan el consumo, el bajo nivel de utilización de la CPU y los hábitos de las organizaciones hacen que esos ahorros de energía sean mínimos.

La empresa de investigación The 451 Group ha realizado una encuesta sobre los usos de la energía entre los miembros de Uptime y ha llegado a la conclusión de que las fluctuaciones en el tráfico de los servidores no se corresponden con las fluctuaciones en la cantidad de energía que consumen los mismos.

Es decir que aunque los servidores incorporen opciones de ahorro de energía, la manera en la que se generan las cargas de trabajo hace que no se consigan grandes reducciones en la cantidad de energía consumida.

Incluso cuando está en reposo, un servidor puede utilizar cientos de vatios y la clave, según algunos de los asistentes, es encontrar una manera más dinámica para que el centro de datos escale su consumo de energía dependiendo de la cantidad de trabajo que necesite hacer.

Fue Dean Nelson, director de centro de datos de eBay, quien planteó la idea de que son necesarias aplicaciones que trabajen con la frecuencia con la que la CPU del servidor pueda aumentar o reducir de forma dinámica la demanda, y que además estas aplicaciones puedan incluso gestionar el grado de refrigeración.

Este tipo de informática escalable es, por cierto, lo que Intel está intentando conseguir con sus nuevas generaciones de procesadores. El objetivo de Intel es desarrollar chips que utilicen “sólo la cantidad de energía necesaria para escalar la carga de trabajo”.

Leer la biografía del autor  Ocultar la biografía del autor