¿Qué son los ‘TIERS’ en un Centro De Datos. El estándar ANSI/TIA-942

http://nubeblog.com/wp-content/uploads/abiquomarenostrum3-1024-191x300.jpg

Si estás buscando un servicio de alojamiento de servidores, colocación, etc. verás que los diferentes proveedores te ofrecen información de lo más variada sobre sus características y te ofrecen datos interesantes como niveles de redundancia, tamaño del centro de datos, tiempos de respuesta y demás.

Existe un estándar llamado ANSI/TIA-942 Telecommunications Infrastructure Standard for Data Centers, creado por miembros de la industria, consultores y usuarios, que intenta estandarizar el proceso de diseño de los centros de datos. El estándar está orientado a ingenieros y expertos en la materia. Sin embargo, hay una parte del estándar que vale la pena conocer cuando contratamos servicios de alojamiento en un centro de datos: Los Tiers. Este sistema de clasificación fue inventado por el Uptime Institute para clasificar la fiabilidad (y también para hacer negocio certificando los centros de datos, claro está).

El concepto de Tier nos indica el nivel de fiabilidad de un centro de datos asociados a cuatro niveles de disponibilidad definidos. A mayor número en el Tier, mayor disponibilidad, y por lo tanto mayores costes asociados en su construcción y más tiempo para hacerlo. A día de hoy se han definido cuatro Tier diferentes, y ordenados de menor a mayor son:

Tier 1: Centro de datos Básico: Disponibilidad del 99.671%.

  • El servicio puede interrumpirse por actividades planeadas o no planeadas.
  • Un solo paso de corriente y distribución de aire acondicionado, sin componentes redundantes.
  • Puede o no puede tener suelos elevados, generadores auxiliares o UPS.
  • Tiempo medio de implementación, 3 meses.
  • Tiempo de inactividad anual: 28,82 horas.
  • La infraestructura del datacenter deberá estar fuera de servicio al menos una vez al año por razones de mantenimiento preventivo y/o reparaciones.

Tier 2: Centro de datos Redundante: Disponibilidad del 99.741%.

  • Menos susceptible a interrupciones por actividades planeadas o no planeadas.
  • Un solo paso de corriente y distribución de aire acondicionado, con un componente redundante.
  • Tiene suelos elevados, generadores auxiliares o UPS.
  • Conectados a una única línea de distribución eléctrica y de refrigeración.
  • De 3 a 6 meses para implementar.
  • Tiempo de inactividad anual: 22,0 horas.
  • El mantenimiento de la alimentación y otras partes de la infraestructura requieren de un cierre de procesamiento.

Tier 3: Centro de datos Concurrentemente Mantenibles: Disponibilidad del 99.982%.

  • Permite planificar actividades de mantenimiento sin afectar al servicio de computación, pero eventos no planeados pueden causar paradas no planificadas.
  • Múltiples accesos de energía y refrigeración, por un solo encaminamiento activo. Incluye componentes redundantes (N+1).
  • Conectados múltiples líneas de distribución eléctrica y de refrigeración, pero únicamente con una activa.
  • De 15 a 20 meses para implementar.
  • Tiempo de inactividad anual: 1,6 horas.
  • Hay suficiente capacidad y distribución para poder llevar a cabo tareas de mantenimiento en una línea mientras se da servicio por otras.

Tier 4: Centro de datos Tolerante a fallos: Disponibilidad del 99.995%.

  • Permite planificar actividades de mantenimiento sin afectar al servicio de computación críticos, y es capaz de soportar por lo menos un evento no planificado del tipo ‘peor escenario’ sin impacto crítico en la carga.
  • Múltiples pasos de corriente y rutas de refrigeración. Incluye componentes redundantes (2 (N+1) significa 2 UPS con redundancia N+1).
  • De 15 a 20 meses para implementar.
  • Tiempo de inactividad anual: 0,4 horas.

Por ejemplo, si en la publicidad de un proveedor presume de ser Tier 3, lo que nos está diciendo es que su infraestructura no fallará más de 1.6 horas al año, que no hay interrupciones por mantenimientos planificados y que puede haber eventos inesperados que causen interrupciones del servicio. Hay que recalcar que se refiere a la infraestructura del centro de datos, y que otros aspectos como la disponibilidad de los equipos que van dentro del datacenter se gestionan aparte.

Claro está, es lo que dicen en la publicidad. Ahora, ¿podemos exigir en nuestro SLA un Tier determinado? Pues me temo que la cosa no es tan sencilla, ya que el uso de los Tiers se está usando para publicitar capacidades sin que haya una certificación oficial de ello en la mayoría de los casos. De hecho, el Uptime Institute solo ha certificado unos cuantos Centros de Datos en todo el mundo en los niveles 3 y 4. Así que dudo que un proveedor pueda o quiera realmente garantizar un Tier determinado por contrato. Además, muchos consideran inflexible esta clasificación por ser demasiado cerrada.

Como curiosidad el Datacenter de BBVA ubicado en Tres Cantos posee una Tier 4, y conviene seguir leyendo este artículo para ver qué maravilla.

Viaje al corazón del CPD del BBVA

Los CPD o Centros de Procesos de datos son la punta de lanza de cualquier servicio electrónico actual, desde bancos hasta operadores de telefonía o empresas de internet. BBVA inauguró su CPD en marzo del 2013 en Tres Cantos, Madrid.

CPD BBVA

Un cerebro en cuyas profundidades pueden vivir hasta 10.000 procesadores de la serie empresarial Intel Xeon.

CPD BBVA

Cuando se construye uno de estos edificios, el principal objetivo es garantizar la continuidad del servicio en cualquier circunstancia. El CPD de BBVA en Tres Cantos ha sido el primero de Europa en obtener la certificación Tier IV, un proceso de homologación que consta de 38 duras pruebas de resistencia para los equipos y la instalación. Una de estas pruebas, por ejemplo, consiste nada menos que en llenar la sala de servidores con estufas a plena potencia para testear la capacidad del edificio para disipar el calor.

CPD BBVA

Nuestro viaje comienza en la sala de control, un espacio a media luz con capacidad para hasta 45 operadores. Un Videowall de 32.5 metros cuadrados y más de 50 millones de píxeles se encarga de mostrar la información básica sobre distintas operaciones.

De la sala de operadores pasamos a la de ordenadores. Se trata de un espacio diáfano sostenido por una falsa cubierta que evita el uso de columnas. A lo largo y ancho de sus 1.500 metros cuadrados podemos encontrar todo tipo de servidores de varias generaciones. Un detalle interesante es que todos los cables que conectan los equipos no discurren bajo el suelo, sino en raíles colgados del techo y separados por colores en función de si son de fibra o convencionales.

CPD BBVA

Esta disposición permite, por un lado, acceder más cómodamente al cableado. Por el otro, crea un espacio diáfano de 1.40 metros de altura bajo la sala que se utiliza para canalizar la refrigeración. El sistema aprovecha el frío del exterior para optimizar el enfriado y, a su vez, emplea el calor generado por los equipos para calentar el edificio. La sala está separada en pasillos calientes que disipan hacia arriba y pasillos fríos en los que al aire entra desde rejillas en el suelo. Os podemos asegurar que estos últimos no tienen nada que envidiar a los pasillos de refrigerados de algunos supermercados.

Conviviendo con switches, servidores blade y armarios de almacenamiento, la sala de ordenadores está equipada con los procesadores Intel Xeon E5-2600. Esta familia mejora con la anterior los tiempos de latencia en un 30% al incorporar controladores en el propio chip y reduce el consumo hasta en un 50%. La familia Xeon permite hasta 8 núcleos por procesador y una memoria total del sistema de hasta 768GB, una potencia necesaria para mantener millones de operaciones simultáneas, en este caso bancarias.

Electricidad asegurada

El edificio cuenta con dos acometidas independientes de alta tensión y una tercera de media tensión que alimentan una subestación eléctrica propia capaz de dar electricidad a un pueblo de 3.500 hogares. En caso de que el suministro fallase por partida triple, el edificio cuenta con un sistema redundante para garantizar el suministro.

CPD BBVA

Salimos de la sala de ordenadores y bajamos varios pisos hasta la sala de generadores. Aquí encontramos ocho grupos electrógenos (el doble de los necesarios). Unas baterías cargadas permiten mantener el sistema con vida 20 segundos, que es el tiempo que tardan en arrancar los generadores de Gasoil. Con 240.000 litros de combustible, estos motores del tamaño de camiones podrían mantener el CPD funcionando a pleno rendimiento durante 96 horas.

CPD BBVA

La sala de generadores también cuenta con un circuito de refrigeración adicional mediante agua a 4 grados para emergencias. En caso de incendio, un sistema de aspersores por nebulización permitirían controlar las llamas sin perjudicar a los equipos.

Volvemos a la suprficie con la sensación de haber viajado en el tiempo. El CPD de Tres Cantos es el primero de cuatro centros, dos en Madrid y dos en México, que controlarán todas las operaciones mundiales del banco.

CPD Movistar

En el número 23 de la Avenida Punto Com, en Alcalá de Henares, en mayo del 2013, Telefónica ha inaugurado el mayor centro de datos del mundo TIER IV, que aunará las infraestructuras digitales y tecnológicas de la compañía.

CPD de Alcalá

El centro nace con la vocación de ser un punto de referencia para las empresas e instituciones de todo el mundo, y concentrará el cloud de Telefónica para Europa y las plataformas de los clientes de España, Reino Unido, Alemania y República Checa.

Los centros TIER son infraestructuras destinadas, entre otras cosas, a alojar servidores de datos, y su potencia y fiabilidad se establece a través de cuatro categorías que van del I al IV, siendo la última de ellas la más alta, caso de las instalaciones inauguradas por Telefónica.

Con una superficie de 65.000 m2, o lo que es lo mismo, ocho campos de fútbol, este CPD contará con 23 salas de tecnologías de la Información. La inversión total de este coloso de las telecomunicaciones será de 300 millones de euros, de los cuales 120 ya se han desembolsado. Para que nos hagamos una idea de su dimensión tecnológica, cuenta con la misma potencia que tendrían 35 millones de ordenadores de mesa, unos 20 petabytes.

Por cada sala hay un edificio central y otro auxiliar con electrogeneradores para garantizar el funcionamiento en el caso de que el principal falle. Cada central tiene tres niveles: la planta baja donde se encuentran las baterías, la primera planta donde se alojan los ordenadores y la superior, donde se encuentran las máquinas de aire para refrigerar. Sólo existen ocho edificios así en el mundo, dos de ellos en España.

El de Telefónica es el más grande de todos ellos y el objetivo es conseguir la etiquetaGold, que premia la sostenibilidad y el mínimo impacto ambiental. En este sentido, las instalaciones se han diseñado con los principios internacionales de Green It, con el fin de reducir el 75% del consumo eléctrico.

Ver video CPD

He investigado dos de los CPDs más importantes de España, ustedes puedan ampliar más información en:

http://www.centrodedatos-datacenter.es/

http://www.uptimeinstitute.com/TierCertification/certMaps.php

Data Center

Novedades introducidas por la Norma 942A

Resumimos en este apartado las modificaciones introducidas, en el campo del cableado, tanto en fibra como en cobre, por el estándar TIA 942 (A), de aplicación en Data Centers.

Si bien se trata de una normativa de origen USA, el estándar ANSI/TIA-942, editado en 2005, y con revisiones cada 5 años, puede ser considerado como “un sistema genérico de cableado para los Data Centers y su ámbito de influencia” (Página IX de las normativa). En su reciente actualización (2013), incorpora las siguientes novedades:

  • La utilización en los DC de fibras multimodo queda reservada a los tipos OM3 y OM4 (50/125), y equipos con emisores LASER 850 nm. Quedando prohibida la utilización de fibras de los tipos OM1 y OM2 anteriormente empleados.
  • Para los cableados de cobre, se recomienda el empleo de Cat6 (mínimo) y Cat6A apantallados. En este campo se coincide con ISO/IEC 24764, que reconoce únicamente enlaces Clase EA (Cat 6ªA)
  • Queda suprimida la limitación de 100 m. de longitud en cableados horizontales, para la fibra óptica, quedando la definición deeste concepto a la responsabilidad del fabricante.
  • Conectores ópticos: queda reducida la selección a los tipos LC Dúplex, para cables dúplex, y MPO para más de 12 fibras
  • Se recomienda el uso de arquitecturas centralizadas y jerárquicas, por ser más flexible que los enlaces directos.
  • Queda reestructurada la organización de los entornos DC, incluyendo tres tipos de áreas: MDA Main Distribution Area), IDA (Intermediate Distribution Area, HDA (Horizontal distribution Area) y ZDA (Optional Zone Distribution Area); algunas de las cuales pueden precisar de cableados supletorios. Con ello, instalaciones amplias pueden precisar de varias ubicaciones y varios IDAs, con cableados redundantes.

Referenacias

http://www.c3comunicaciones.es/data-center-el-estandar-tia-942/

http://www.centrodedatos-datacenter.es/

http://blogthinkbig.com/telefonica-inaugura-el-mayor-centro-de-datos-tier-iv-del- mundo/

http://www.xataka.com/otros/viaje-al-corazon-del-cpd-mas-moderno-de-europa

 

Deja un comentario

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies ACEPTAR

Aviso de cookies