El sector de TIC consumió alrededor de 61 mil millones de kilovatios-hora en el año 2006; ante esto, el programa “CoolCentre50” de Hitachi busca reducir 50% de consumo de energía en sus centros de datos en Yokohama y Okayama en los próximos 5 años.
Con una
creciente preocupación por el calentamiento global, los gobiernos se encargarán
de imponer pautas y sancionar a quienes no cumplan con la legislación relacionada
a las emisiones de carbono (CO2), por lo que las grandes compañías establecerán
objetivos para reducir dichas emisiones provenientes de la generación de
electricidad. La creciente demanda de energía para computadoras, ancho de banda
y la capacidad de almacenamiento aumentará las necesidades energéticas y de
refrigeración de los centros de datos.
El gobierno
de los Estados Unidos completó recientemente un estudio que estima que el
sector de TI consumió alrededor de 61 mil millones de kilovatios-hora en el año
2006 y se estima que esta cifra se duplicará en los próximos 5 años. Esta
situación llevará a ciudades como Londres y Nueva York a toparse con el límite
de su capacidad eléctrica por lo que los centros de cómputo se ven forzados a
reubicarse en otras áreas donde hay energía disponible.
En
septiembre de 2007, Hitachi anunció en Japón un programa conocido como
“CoolCentre50” cuyo objetivo es reducir 50% el consumo de energía en sus centros
de datos en Yokohama y Okayama en 5 años. En apoyo a esta meta se presentó el
“Harmonius Green Plan” (Plan Ambiental Equilibrado) que tiene como objetivo
reducir en 330,000 toneladas las emisiones de CO2 en los próximos 5 años
mediante el desarrollo de productos informáticos que ahorren energía como la
virtualización del almacenamiento y de servidores.
Debido al
colapso en el mercado inmobiliario en los Estados Unidos, los precios elevados
del petróleo y el dólar en descenso provocarán incertidumbre económica lo cual
creará la necesidad de hacer más con menos considerando nuevos recursos
informáticos de virtualización y ciclos eliminando redundancias donde sea
posible.
La cantidad
de datos semi-estructurados como el correo electrónico y las páginas Web están
creciendo considerablemente, por esta razón los límites de capacidad aumentarán
a 2GB para satisfacer los requerimientos de los trabajadores, habrá una
avalancha de datos no estructurados por parte de tarjetas electrónicas y
sensores y los nuevos aviones de Airbus y Dreamliner de Boeing generarán
terabytes de datos en cada vuelo. Todas estas presiones conducirán a la
necesidad de archivar datos en nuevos tipos de sistemas que puedan escalar a
petabytes y brindar la capacidad de buscar contenidos en diferentes conjuntos
de datos.
Gracias a
la conciencia que se ha creado de que el almacenamiento de datos se ha tornado
sumamente ineficiente, se requerirán nuevas estructuras de almacenamiento que incrementen
el rendimiento, la conectividad y la capacidad, siendo capaces también de
brindar compatibilidad con múltiples protocolos y funciones de búsqueda común.
Debido a la
exigencia de disponibilidad continua de las aplicaciones, será necesario contar
con la capacidad de transferir datos sin interrumpir la operación de las
aplicaciones a través de un sistema de almacenamiento que pueda transferir los
datos a través de links de canales de fibra de alta velocidad sin utilizar los
ciclos de los procesadores de aplicaciones.
La
virtualización del almacenamiento basado en una unidad de control se aceptará
como el único abordaje que puede agregar valor como funciones de movilidad de
datos o funcionalidades de activación delgada a los arreglos de almacenamiento
existentes. Por otra parte, el almacenamiento orientado a los servicios se
convertirá en un complemento indispensable de la Arquitectura Orientada a los
Servicios en el área de las aplicaciones y la infraestructura, permitiendo que
se aprovechen los servicios de memoria caché global de alta performance,
replicación a distancia, almacenamiento por niveles y activación delgada.
Creemos que
los sistemas de almacenamiento independientes utilizarán una plataforma de
servicios de virtualización de “bloque común” con un conjunto compartido de
herramientas de administración que brindará ventajas como replicación remota,
activación delgada y virtualización de sistemas de almacenamiento heterogénea.
La activación delgada ofrecerá el máximo beneficio al aumentar la utilización
del almacenamiento a través de la eliminación de la capacidad de almacenamiento
asignada pero no utilizada.
Finalmente los principales proveedores de soluciones de backup implementarán la desduplicación, efectiva para reducir 20 o 30 veces el flujo de datos bajando el costo del almacenamiento de datos en discos con mejores características de acceso, disponibilidad y confiabilidad que las cintas.