1. Objeto. 2. Introducción. 3. Alcance del servicio licitado

Texto completo

(1)

UNA MANERA DE HACER EUROPA PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA EL SUMINISTRO E INSTALACIÓN DE LA REESTRUCTURACION Y AMPLIACIÓN DEL CLÚSTER DE

CÁLCULO Y DEL ALMACENAMIENTO CIENTÍFICO DEL CNAG - CRG EXPEDIENTE CRG11-15

1. Objeto

El objeto de este Pliego de Prescripciones Técnicas es establecer los requisitos y definir las obligaciones que corresponden al contrato de suministro e instalación de LA REESTRUCTURACION Y AMPLIACIÓN DEL CLÚSTER DE CALCULO Y DEL ALMACENAMIENTO CIENTÍFICO DEL CNAG - CRG.

Las especificaciones que se detallan en este pliego de condiciones generales y requisitos técnicos no tienen carácter exhaustivo ni limitativo, de manera que cualquier otro elemento que la empresa ofertante considere conveniente deberá estar incluido y especificado en la oferta presentada. En el presente expediente de contratación se solicita la reestructuración y ampliación del sistema actual, todo ello descrito en los siguientes apartados de este Pliego de Prescripciones Técnicas.

2. Introducción

El Centro Nacional de Análisis Genómico (CNAG de ahora en adelante) es un centro sin ánimo de lucro fundado en 2009 por el Ministerio de Economía y Competitividad y los Departamentos de Economía y Conocimiento y de Salud de la Generalitat de Catalunya y adscrito desde el primero de Julio de 2015 al Centro de Regulación Genómica (CRG) Fue creado dentro de la plataforma del Parc Científic de Barcelona (PCB), con la misión de desarrollar proyectos de secuenciación de DNA y análisis en colaboración con los investigadores de Cataluña, España y de la comunidad investigadora mundial, con el propósito de asegurar la competitividad de nuestro país en el área estratégica de la genómica. Se iniciaron las operaciones en Marzo de 2010 con 12 sistemas de secuenciación de última generación, lo que ha permitido al centro tener una capacidad de secuenciación de más de 800 Gbases por día, el equivalente a secuenciar completamente 6 genomas humanos cada 24 horas. Esta capacidad sitúa al CNAG - CRG como el segundo mayor centro europeo en términos de capacidad de secuenciación.

El sistema actual de cálculo del CNAG - CRG es un sistema formado por 1.152 cores, 12,5 TB de memoria y un sistema de almacenamiento en disco de 2,7 PB brutos sobre

Bullx PFS Lustre”y gestionado por el software bullx SCS.

El sistema final deberá contar al menos con 2.624 cores, 26 TB de memoria, y un sistema de almacenamiento en disco de 4.6 PB brutos en un máximo de 2 racks de 42 U adicionales y gestionado por el software bullx SCS.

(2)

UNA MANERA DE HACER EUROPA Las ofertas se ajustarán a las prescripciones contenidas en el Pliego de Cláusulas Particulares y en el presente Pliego de Prescripciones Técnicas.

Las ofertas incluirán todos los trabajos necesarios para el correcto suministro de los equipos, desde la fabricación, el transporte, la instalación en el CNAG - CRG para todos los componentes, los accesorios necesarios, la formación y el manual de funcionamiento y el de mantenimiento, con todas las soluciones técnicas, funcionales y de cualquier aspecto que resulten necesarias, hasta la realización de pruebas y ensayos que sean necesarios para la correcta verificación del resultado final de la instalación en el CNAG - CRG, el montaje del equipo y la gestión de los correspondientes residuos derivados de su instalación.

Todo el material suministrado debe de ser nuevo.

El licitador deberá detallar los trabajos en un Plan de proyecto que se consensuará con CNAG - CRG al inicio del proyecto.

Toda la documentación de la propuesta y del posterior proyecto deberá ser entregada en papel y en soporte digital y escrita en español.

En general, a parte de la tarea principal de suministro de equipos y servicios, la empresa proveedora deberá suministrar todos los medios personales, técnicos y de control necesarios para la correcta ejecución del proyecto de implantación.

En este documento se usan las siguientes definiciones: Unidades: 1 KB = 1024 bytes 1 MB = 1024 KB 1 GB = 1024 MB 1 TB = 1024 GB 1 PB = 1024 TB 1 U = altura de 44.45 mm (1.75”)

Capacidad Neta: espacio disponible desde el equipo cliente. La capacidad total neta de almacenamiento será aquella reportada como disponible (que no como total) por el comando df desde un sistema cliente NFS Linux. Esta capacidad neta no deberá tener en cuenta, por tanto, ni el espacio destinado al almacenamiento de las paridades (según el nivel de RAID) ni el espacio destinado a discos “spare”, así como cualquier otro espacio requerido por el propio sistema de almacenamiento para proporcionar la funcionalidad y la fiabilidad del mismo. Esto último incluye, por tanto, el espacio de disco necesario para alojar el sistema operativo y todos los ficheros relacionados, en caso de existir.

(3)

UNA MANERA DE HACER EUROPA

4. Descripción de la infraestructura existente

El sistema a re-estructurar y ampliar tiene actualmente la siguiente arquitectura global:

Se trata de un clúster con los siguientes componentes:

 SW de Gestión: bullx SCS

 2 nodos de login modelo BBullx R423-E2 conectados a 10Gb a la red interna, a la red de administración por conexión Ethernet de 1 Gb y también conectados al sistema de almacenamiento “Bullx PFS Lustre a través de 2 puertos Eth de 1GB en bonding

 2 nodos de management modelo BBullx R423-E2 para la administración, gestión y monitorización del clúster que albergan la clústerdb, el gestor de imágenes ksis y yabix, las herramientas de control nsctrl y conman, las utilidades clush, la monitorización syslog-ng, Nagios y Ganglia, las herramientas BSM, y las herramientas de gestion “Bullx PFS Lustre” PFS. Estos nodos están configurados en High Availability (HA) sobre el servicio RedHat ClústerSuite

 1 consola KVM con monitor de 17” para consola de los nodos de gestión

 104 nodos de cómputo modelo Bullx R422-E2 con sistema operativo redHat, conectados cada uno por un puerto InfiniBand QDR a la red de cálculo, conectados a la red de datos por dos puertos Eth 1Gb, y conectados a la red de administración a través de otro puerto Eth 1Gb

(4)

UNA MANERA DE HACER EUROPA

 1 chasis de cómputo modelo Bullx R424 con 4 blades, conectados a la red de datos por dos puertos Eth 1Gb, y conectados a la red de administración a través de otro puerto Eth 1Gb

 4 chasis de cómputo modelo Bullx R424-E3 con 4 blades,, conectados a la red de datos por dos puertos Eth 1Gb, y conectados a la red de administración a través de otro puerto Eth 1Gb

 2 servidores de IO para “Bullx PFS Lustre” MDS modelo Bullx R423-E2 conectados a la cabina Optima 1500 de metadatos, a la red de administración a través de Eth 1Gb, y por dos conexiones 10Gb al switch central de datos para

Bullx PFS Lustre”.

 8 servidores de IO para “Bullx PFS Lustre” OSS modelo Bullx R423-E2, cada uno conectado por dos puertos 10Gb Eth al switch central de datos para “Bullx

PFS Lustre”, conectados a la cabina CX4 para acceder al “Bullx PFS Lustre

journaling, conectados por un puerto Eth 1Gb al sistema de administración y por otro puerto Eth 1Gb para BMC. Están estructurados en dos grupos de cuatro en HA accediendo cada grupo a una de las dos cabinas de almacenamiento DDN 9900 mediante dos fibras por servidor.

 Una cabina de discos Optima 1500 dedicada a metadatos del sistema de ficheros

Bullx PFS Lustre”.

 Una cabina de discos EMC-Clariion CX4 dedicada al Journaling de “Bullx PFS

Lustre con 4 discos SSD de 73GB, a los home de usuarios con 15 discos de

1TB, y a la clústerdb de la Bullx SCS con 11 discos de 600GB

 Una cabina de discos DDN 9900 dedicada a los datos de “Bullx PFS Lustre” con 600 discos de 2TB

 Una cabina de discos DDN 9900 dedicada a los datos de “Bullx PFS Lustre

con 520 discos de 3TB

 6 racks de 19” y 42U refrigerados por puertas frías activas y con 6 PDUs conectadas a red mediante 6 C-TAC de 32A. Las puertas conectadas a la red de administración mediante conexión Ethernet

 Conexionado a la red pública: los nodos de login y nodos de gestión son los únicos conectados a la red pública (backbone)

 Conexionado a la red de administración y control (BMC): se realiza a través de 4 switches Ethernet de 48 puertos dedicados a los que se encuentran conectados todos los nodos del clúster

 Conexionado de los nodos de IO a las cabinas de almacenamiento: la parte de datos “Bullx PFS Lustre” se realiza a través de la siguiente arquitectura:

(5)

UNA MANERA DE HACER EUROPA

La parte de servidores de metadatos MDS está conectada a la cabina Optima a través de HBAs con dos conexiones a 4Gbps.

Los nodos de IO (MDS y OSS) se conectan mediante 2 enlaces de 10Gb en bonding como un único enlace. El resto de nodos se conectan a través de 2 puertos de 1Gb en bonding a los switches CISCO y de ellos con 2 uplinks de 10Gb también en bonding al Nexus central.

 Conexionado de la red de datos (“Bullx PFS Lustre”): se realiza a través de 10 switches Ethernet de 24 puertos a los que se encuentran conectados los nodos del clúster. Estos switches se conectan al Cisco Nexus a través de dos uplinks de 10Gb

 Conexionado de la red InfiniBand se realiza a través de los 9 switches IB QDR de 36 puertos a los que se encuentran conectados todos los compute nodes y los nodos de management y login.

(6)

UNA MANERA DE HACER EUROPA

 Racks: todos estos sistemas están instalados en 6 racks. El detalle del emplazamiento de los distintos componentes es el siguiente:

Estos racks están refrigerados por puerta trasera activa alimentados por agua fría y gestionados a través de conexión Ethernet.

(7)

UNA MANERA DE HACER EUROPA

5. Descripción de la infraestructura final requerida

El sistema descrito en el apartado anterior deberá ser re-estructurado y ampliado para conseguir dar solución a las necesidades que se plantea CNAG - CRG. Las modificaciones necesarias a realizar sobre la infraestructura mencionada se corresponden con los siguientes apartados:

1. Upgrade del sistema de gestión del clúster a la última versión compatible 2. Ampliación de la capacidad de cómputo

3. Ampliación de la capacidad de almacenamiento

4. Ampliación y modificación de las redes de interconexión 5. Incorporación de un servidor SMP

6. Suministro de la infraestructura complementaria 7. Servicios a incluir

A continuación se describe en detalle las especificaciones técnicas de cada uno de estos aspectos.

En las especificaciones técnicas, cada elemento de la lista se clasificará de la siguiente manera:

R indicando que es un requerimiento obligatorio que la solución debe cubrir

D indicando que es un requerimiento no obligatorio pero evaluable como mejora, según los criterios de valoración previstos en el Pliego de Cláusulas Particulares.

(8)

UNA MANERA DE HACER EUROPA

6. Especificaciones técnicas

Ref Descripción

1.- Upgrade del sistema de gestión del clúster a la última versión compatible

R El clúster actual, deberá ser actualizado en la parte de software en todos sus componentes (nodos de login, de administración, MDS, OSS, cómputo) de la versión SCS v2 R3 a la SCS v4 R4.

D Se valorará el Plan de Proyecto y las medidas planteadas para minimizar las paradas de servicio

R Los componentes SCS a actualizar son los siguientes:

 Systems central administration – Management Center (MC): o Software Manager (SM)

o Monitoring & Control Manager o Infrastrucuture Manager

 Batch Manager (BM – gestor de colas SLURM)

 “Bullx PFS Lustre” Parallel File System (PFS)

 Base Operating System (RedHat)

R Los nodos de administración del clúster deberán configurarse en HA (High Availability)

R Mantener la coherencia de la configuración de dichos módulos, manteniendo la información de configuración del clúster, definición de colas, etc.

D Disposición de nodos de pruebas para verificar el correcto funcionamiento de los nodos con el nuevo stack de software

R Los datos del sistema de ficheros “Bullx PFS Lustre” deberán migrarse a la nueva infraestructura y a la nueva versión del software manteniendo la integridad de los datos existentes

(9)

UNA MANERA DE HACER EUROPA

2.- Ampliación de la capacidad de cómputo

R Actualmente la capacidad de cálculo disponible es de 1.152 cores (104 nodos con 2 procesadores de 4 cores que acumulan 832 cores y otros 20 nodos con 2 procesadores de 8 cores que suman otros 320 cores) en nodos tipo thin. Se requiere una capacidad en nodos thin de al menos 1.472 cores tipo thin adicionales.

D Se valorará un mayor número de nodos thin.

R Estos cores deben disponerse mediante procesadores de tecnología actual de 64 bits compatibles con el código de instrucciones x86-64

R La potencia de cálculo será de al menos 480 GFlops por procesador R Cada procesador tendrá al menos 30MB de cache L2

R El TDP máximo del procesador será igual o menor que 120 watt R Los nodos serán de tipo bi-procesador.

R La memoria por nodo deberá proporcionar un ratio de al menos 10 GB/core R La memoria a disponer en los nodos será de un mínimo de 256 GB por nodo R La memoria se dispondrá en DIMMs de 32 GB

R La memoria deberá disponerse para garantizar las máximas prestaciones del subsistema de memoria.

R Estos nodos de cómputo deberán contar con un disco SSD de calidad enterprise de al menos 512 GB

R La conectividad de los nodos será de al menos un puerto InfiniBnad FDR de 56 Gbps para acceso a la red de datos, y un puerto de 1 Gb Eth y soporte IPMI para administración.

R Dadas las limitaciones de espacio se requiere que dicha ampliación se efectúe mediante servidores enrackables tipo blade que lleven integrados los switches IB-FDR y Gb Eth en el propio chasis

R Los chasis blade deberán incorporar fuentes y ventiladores redundantes R Los chasis deben tener una densidad mínima de 18 nodos en 7U o menos R Los chasis deberán incorporar capacidad de gestión remota

R Se requiere que los chasis puedan tener conectividad opcional de 10Gb (uplinks) R Todos los nodos de cómputo se situarán en un máximo de un solo rack estándar

de 42U y 19” refrigerado por agua en tecnología de puerta fría activa. CNAG -CRG proporcionará la instalación de agua fría hasta la conexión al rack con una temperatura entre de 7ºC, con un caudal de hasta 2 litros/s y una pérdida de presión máxima de 140Kpa. La temperatura en sala está mantenida entre 20ºC y 25ºC.

R Los nodos deben ser totalmente compatibles con S.O. RedHat en su última versión compatible.

R Los nodos actuales deberán ser actualizados a RedHat v6.4 a partir de las imágenes master

R Se deberán incluir las todas las licencias necesarias tanto para los nodos existentes como para los nodos de la ampliación

R Los nodos actualmente en servicio se encuentran conectados a la red de datos mediante dos puertos de 1 Gb Eth y deberán ser reconfigurados para acceder a la red de datos a través del puerto InfiniBand QDR actualmente disponible R En el rack deberán quedar libres 7 U de espacio para ampliaciones

(10)

UNA MANERA DE HACER EUROPA

3.- Ampliación de la capacidad de almacenamiento

R Se requiere substituir la cabina Optima de metadatos PFS “Bullx PFS Lustre” por otra de mayores prestaciones con 8 puertos SAS o FC

R La cabina de metadatos deberá contar con al menos 16 GB de cache

R La cabina de metadatos deberá contar con al menos 8 discos SSD de 200 GB R La cabina de metadatos deberá ocupar 2U o menos

R Los actuales metadatos deberán ser traspasados de la cabina a substituir hacia la nueva para dejar el sistema “Bullx PFS Lustre” operativo en su versión final 2.5, asegurando el acceso a los datos y la coherencia de la estructura de metadatos

R Se requiere migrar los servicios NFS de directorios home y la clústerdb de HA de la cabina EMC-CX4 a otra cabina nueva a suministrar de al menos 8 puertos SAS o FC

R La cabina de servicio NFS deberá contar con al menos 16 GB de cache R La cabina de servicio NFS deberá contar con al menos 12 discos de 4 TB R Los actuales datos deberán ser traspasados de la cabina a substituir a la nueva.

La cabina EMC-CX4 permanecerá para ser utilizada exclusivamente para la funcionalidad de journaling “Bullx PFS Lustre”.

R La cabina de servicio NFS ocupará 2Us o menos

R Se requiere añadir un tercer sistema de almacenamiento de datos para un sistema paralelo de ficheros “Bullx PFS Lustre” con una capacidad bruta (raw) de al menos 1.92 PB.

R El tercer sistema de almacenamiento deberá contar con puertos SAS de 12 Gb R El tercer sistema de almacenamiento deberá ofrecer un rendimiento de al menos

24 GB/s de ancho de banda agregado en “Bullx PFS Lustre”.

R Deberán incorporarse 4 nuevos servidores OSS para la tercera cabina a suministrar

R Deberán incorporarse 2 nuevos servidores MDS para la tercera cabina a suministrar

R Los servidores OSS y MDS deberán contar con arquitectura x86-64

R Los servidores OSS y MDS deberán contar con al menos 10 cores por procesador a 2.6GHz

R Los servidores OSS y MDS deberán contar con un mínimo de 256 GB de memoria

R Se requerirá una capacidad de ampliación de los servidores con al menos 3 slots PCI

R Los nuevos servidores OSS y MDS deberán disponer de conectividad infiniband FDR de doble puerto y un puerto 1 Gb Eth para la administración.

R El espacio máximo a ocupar por la tercera cabina de almacenamiento y sus respectivos 4 servidores OSS será de como máximo 1 rack estándar de 42U y 19” refrigerado por agua (a suministrar).

R Se requiere migrar el actual sistema “Bullx PFS Lustre”v 2.1 de las cabinas DDN existentes a “Bullx PFS Lustre” v2.5 (1.2+1.6 PB)

R Se suministraran las licencias necesarias para la operación de todos los mencionados componentes

R Las nuevas cabinas a suministrar deberán ser instaladas con “Bullx PFS

(11)

UNA MANERA DE HACER EUROPA

4.- Ampliación y modificación de las redes de interconexión

R Para incrementar las actuales prestaciones de IO de los nodos de cómputo existentes, estos deberán instalarse con la versión del cliente “Bullx PFS Lustre” correspondiente, y reconfigurar estos nodos de cómputo para acceder al sistema de ficheros PFS “Bullx PFS Lustre”v2.5 a través de la red Infiniband.

R Los 20 servidores que no disponen de conectividad infiniband deberán ser dotados con al menos un puerto infiniband FDR de 56 Gbps por nodo

R Los actuales 8 servidores OSS deberán ser actualizados y reconfigurados para substituir la conectividad “Bullx PFS Lustre” a través de red Ethernet para que el acceso se haga a través de la red Infiniband FDR

R Deberán suministrarse, instalarse y configurarse todos los componentes de red (HBAs, latiguillos y switches) necesarios para complementar la red actual infiniband, de tal forma que los nodos de cómputo existentes mantendrán la conectividad infiniband QDR, pero los nuevos nodos de cómputo y demás servidores complementarios (tanto existentes como nuevos) deberán contar con conectividad infiniband FDR

R Los switches de primer nivel adicionales a los existentes deberán ser al menos de 56Gbps y 36 puertos

R Los switches de segundo nivel serán al menos 56 Gbps y de 36 puertos

R Se suministrarán las licencias necesarias para la operación de los mencionados componentes

R Los componentes de todas las redes deberán ser gestionados bajo SCS

R Todos los elementos de red deberán ser ubicados en los racks actuales sin implicar añadir ningún nuevo rack para redes de interconexión

R Deberán suministrarse, instalar y configurar todos los componentes de red (HBAs, latiguillos y switches) necesarios para complementar la red de administración actual Ethernet, de tal forma que todos los componentes (nodos cómputo existentes y nuevos, servidores de IO existentes y nuevos, servidores de administración y servidores de login) tengan una conexión 1Gb Eth para la administración de los mismos

R Debe contemplarse que la ubicación física de los racks adicionales deberán ser instalados a la izquierda de la fila de racks (más allá de todos los racks actualmente ubicados, incluyendo los que no forman parte del propio clúster), por lo que la distancia y tipología de los cables a suministrar debe estar de acuerdo con estas limitaciones

(12)

UNA MANERA DE HACER EUROPA 5.- Incorporación de un nodo Shared Memory Multiprocesor (SMP) de 2TBs

R Deberá suministrarse e incorporar al cluster un nodo de alta capacidad de memoria de al menos 2 TB que permita la ejecución de procesos que requieran de una gran cantidad de memoria.

R El sistema SMP debe poder ampliarse en capacidad de memoria hasta 4 veces el mínimo exigido

R Se requiere incluir cuatro procesadores de arquitectura x86-64

R Mínimo de 12 cores por procesador a una frecuencia de al menos 2.1GHz R Mínimo de 2 TB de memoria

R Mínimo de 2 discos de 300GB

R Se requiere que los discos sean de 10krpm

R Se requiere la capacidad de poder añadir bandejas de discos adicionales R Se requiere la capacidad de poder realizar ampliaciones de memoria en caliente R 1 puerto InfiniBand FDR (56 Gbps)

R 4 puertos 1 Gb Ethernet para administración

R El SMP debe ser gestionado desde el software de gestión SCS

R Se suministraran las licencias necesarias (SCS, SO, ….) para la operación de los mencionados componentes

R Fuentes y ventiladores redundantes

6.- Suministro de infraestructura complementaria

R Se suministrarán dos racks estándar de 42U y 19” refrigerados por agua (puerta fría activa) para albergar los nuevos nodos de cómputo y sistema de almacenamiento

R Se suministrarán todos los cables, los cuales pueden alcanzar una longitud aproximada de 30 metros, conectores, GBICs, switches tanto infiniband como Ethernet para la correcta conexión de todos los elementos mencionados

R Se detallará un plan de implementación que deberá ser consensuado con CNAG - CRG antes de su ejecución

(13)

UNA MANERA DE HACER EUROPA 7.- Servicios a incluir

R actualización del software SCS del clúster incluyendo: o suite de administración

o gestor de colas

o “Bullx PFS Lustre” PFS

o SO de todos los nodos a RedHat v6.4 mínimo

R Instalación del software necesario en todos los nuevos componentes

R Instalación y verificación de los nuevos racks de agua (Instalación de nuevo lazo de alimentación de agua refrigerada para la puerta fría del rack. Este lazo deberá contener los siguientes elementos: termómetros y manómetros (con llave de corte para mantenimiento) en impulsión y retorno, caudalímetro y válvula de regulación de caudal de tipo TA, además de un filtro de partículas en Y. Todos estos elementos se instalarán y se realizará su puesta en marcha y regulación.) R Conexión de las puertas frías por Ethernet

R Instalación y configuración de los nuevos nodos de cómputo (al menos): o nodos thin

o 1 nodo SMP

R Instalación del nuevo sistema de almacenamiento en disco (cabina almacenamiento)

R Instalación de los nuevos 4 nodos de OSS de “Bullx PFS Lustre” para la nueva cabina

R Instalación de los nuevos 2 nodos de MDS de “Bullx PFS Lustre

R Configuración de la alta disponibilidad de los nodos de administración y de IO R Reconfiguración de los 8 OSS existentes para substituir su conectividad 10Gb

Ethernet por conectividad infiniband FDR de 56 Gb

R Migración de los MDTs de la Optima y home + clústerdb de la CX4 a la nueva infraestructura de almacenamiento propuesta

R Recableado de la red de administración y reposicionamiento de switches Ethernet

R Recableado de la red infiniband, incluyendo los nuevos switches L1 y L2 R Servicios de formación en:

o Operación y nuevas funcionalidades de la nueva versión del software de gestión SCS R4

o

R Retirada de todos los embalajes R Pruebas de funcionamiento

R Servicios de garantía a 12 meses, o según fabricante, NBD en el nuevo material suministrado

(14)

7. Suministro e instalación de los equipos y plazos

Se considerarán las siguientes fases en el proyecto con sus correspondientes hitos. 1. La fase de entrega, instalación y configuración del sistema objeto del

suministro. Esta fase se iniciará a partir del día de formalización del contrato y se efectuará en las instalaciones especificadas en el mismo, en la ciudad de Barcelona.

2. Una vez recibido, instalado y configurado el sistema, se pondrá en producción real y se iniciará la fase de test de aceptación. Durante esta fase el CNAG - CRG comprobará que el sistema cumpla con los requerimientos solicitados. Una vez finalizada con éxito esta fase, se extenderá la correspondiente acta de recepción y aceptación.

Para la ejecución de las fases indicadas de entrega, instalación y configuración del sistema y del test de aceptación, no podrá superarse el plazo máximo de 6 semanas a contar a partir de la formalización del contrato.

3. Posteriormente, se iniciará la fase de garantía de 12 meses, o según fabricante, una vez finalizada con éxito la fase de test de aceptación y emitida el acta de recepción y aceptación.

Plan de proyecto y formación

El licitador deberá proveer el correspondiente plan de proyecto sobre su propuesta técnica. El plan de proyecto deberá contemplar y describir la metodología a utilizar durante al menos las fases indicadas en el apartado anterior y los recursos correspondientes para su cumplimiento.

El plan del proyecto deberá presentar también toda la información que se necesitará del CNAG - CRG durante la fase de la instalación.

Fase de entrega, instalación y configuración

Una vez recibido el material se procederá a su instalación y configuración, fases que comprenderán al menos todas las gestiones y todos los trabajos que el licitador considere necesarios para poder iniciar correctamente la fase de test de aceptación. Una vez finalizada esta fase el licitador entregará el dossier correspondiente, que contendrá al menos los siguientes documentos:

 Descripción general de los componentes de la solución

 Esquema de conexionado e IPs

 Explicación del proceso de instalación y tareas realizadas

 Instrucciones de servicio

 Protocolos de pruebas de los equipos

 Catálogos de elementos instalados y Manual de mantenimiento

 Entrega de la lista de elementos fungibles para el funcionamiento de la máquina

 Entrega de la lista de elementos incluidos en la garantía

 Relación de proveedores que suministran piezas de repuesto

(15)

Fase de test de aceptación

Posteriormente a la entrega, instalación y configuración se realizará la correspondiente puesta en funcionamiento del equipo.

Durante el período de test de aceptación el CNAG - CRG comprobará y el licitador deberá demostrar que se cumplen las especificaciones de funcionalidad y de rendimiento suministradas en la documentación de la oferta usando el sistema instalado en producción.

En caso de anomalías el CNAG - CRG lo comunicará al licitador de acuerdo con el protocolo que se pacte en la fase de entrega, instalación y configuración y el licitador deberá corregir las deficiencias antes de que finalice el período de test de aceptación. Una vez realizada la formación y con el equipo en funcionamiento en los términos de funcionalidad y rendimiento señalados, y una vez recibida por el CNAG - CRG la documentación descrita en este pliego, se hará el acto formal y positivo de recepción y aceptación del material, que se formalizará mediante un documento suscrito por el suministrador adjudicatario y por parte del CNAG - CRG.

Garantía

La garantía tendrá una duración de 12 meses, o según fabricante desde la firma del acta de instalación y cubrirá cualquier tipo de fallo hardware de los módulos de disco bajo condiciones de operación continua a máxima carga en todos sus parámetros y en el entorno habitual del CNAG - CRG.

La subsanación de fallos se atenderá en un máximo de 1 día laborable a partir de la recepción del informe de avería. Los días laborables serán definidos por el calendario oficial definido por la Generalitat de Catalunya de festivos laborales generales y locales en Catalunya y en la ciudad de Barcelona.

El coste de transporte de equipos o piezas de repuesto desde y hacia las dependencias del CNAG - CRG para reparaciones o reemplazos estará en la garantía.

Cualquier reemplazo se realizará con un módulo que sea exactamente igual al original en todas sus características. Excepcionalmente, y bajo acuerdo explícito del CNAG - CRG, el reemplazo podrá ser compatible con el original pero de capacidad superior. En caso de haber fallos en más del 10% de los módulos durante el primer mes de operación, el proveedor deberá sustituir el 100% de los módulos ofertados por otros con iguales prestaciones y cuyas especificaciones sean acordadas con el CNAG - CRG. En caso de no hacer dicha sustitución, se considerará que el proveedor ha incurrido en el incumplimiento de una obligación contractual esencial.

En caso de haber tres o más fallos de hardware en un mismo módulo durante cualquier período de seis meses dentro del periodo de garantía, no se aceptará ninguna reparación adicional de dicho módulo y el proveedor deberá proveer una unidad de reemplazo.

En caso de haber un fallo de un mismo componente de hardware en más del 20% de los módulos, el proveedor deberá realizar la sustitución de dicho componente en el 100% de los módulos.

(16)

Consultas técnicas

Las eventuales dudas técnicas que tengan lugar desde la fecha de publicación del expediente hasta la fecha de presentación de las propuestas tendrán que ser realizadas como mínimo en idioma inglés.

Barcelona, 30 de julio de 2015

CPISR-1 C

Luis

Serrano

Pubul

Digitally signed by CPISR-1 C Luis Serrano Pubul

DN: c=ES, o=Centre Regulació Genòmica, ou=Serveis Públics de Certificació CPISR-1 amb càrrec, ou=Vegeu https://www.catcert.cat/ verCPISR-1CarrecUR (c)03, sn=Serrano Pubul, givenName=Luis, title=PDI-Director,

serialNumber=02519323H, cn=CPISR-1 C Luis Serrano Pubul Date: 2015.07.31 15:41:04 +02'00'

CPISR-1

C Bruna

Vives

Prat

Digitally signed by CPISR-1 C Bruna Vives Prat

DN: c=ES, o=Centre Regulació Genòmica, ou=Gerència, ou=Serveis Públics de Certificació CPISR-1 amb càrrec, ou=Vegeu https://www.catcert.cat/ verCPISR-1CarrecUR (c)03, sn=Vives Prat, givenName=Bruna, title=PAS-Gerent,

serialNumber=52628204H, cn=CPISR-1 C Bruna Vives Prat Date: 2015.07.31 15:41:28 +02'00'

Figure

Actualización...

Referencias

Actualización...

Related subjects : Alcance del servicio