• No se han encontrado resultados

Big Data: retos y oportunidades para la investigación Arquitectura geográfica BIG DATA

N/A
N/A
Protected

Academic year: 2021

Share "Big Data: retos y oportunidades para la investigación Arquitectura geográfica BIG DATA"

Copied!
29
0
0

Texto completo

(1)

Big Data: retos y oportunidades para

la investigación geográfica

Arquitectura

BIG DATA

Reunión de seguimiento SocialBigdata-CM

Borja Moya-Gómez (tGIS)

(2)

índice

1. El objetivo

2. La arquitectura con un ejemplo

3. El salto a la nube

(3)

1. El objetivo

Disponer de una herramienta que:

1. Capturar y adecuar automáticamente datos de diferentes

fuentes de datos (variedad – velocidad - volumen).

2. Visualice parte de esos datos para obtener información al

instante (variedad - velocidad).

3. “Abaratar el coste del error” para poder hacer análisis. Es

decir, realizar aquellos análisis que sin herramientas Big Data

son poco asumibles (variedad - volumen).

4. Sea fácil de usar por parte de todos los usuarios de la red, y se

pueda adaptar a las necesidades de cada uno (en la medida de

lo posible).

5. Permita que varios grupos dispongan de los mismos datos

para hacer fortalecer la red SocialBigdata-CM.

(4)

2. La arquitectura con un ejemplo

¿Cuál es la relación del tráfico

con la calidad del aire en la

villa de Madrid?

Objetivos:

Conocimiento de las fuentes de datos de envío de datos a intervalos

Formatos de los datos

Prototipo de protocolos de análisis

Prototipo de arquitectura

Participantes:

SocialBigdata-CM: Guadalupe (gTEC), Yolanda (gTEC), Henar (Indizen),

Juan Carlos (tGIS), Joaquín (tGIS), Borja (tGIS).

Facultad Informática: Verónica (TFM - Análisis)

(5)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

Análisis

. . .

(6)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

(7)

2. La arquitectura con un ejemplo

Kafka Otras fuentes Tráfico Madrid Calidad Aire

Kafta

Genera colas de datos, una por “topic”

Pide datos a las API… y los pone en su cola.

Se envían los datos de cada cola al siguiente

elemento según se configure (cada cola tiene su

configuración)

Sirve para compactar y laminar el flujo de datos.

No se pierden datos por saturación de procesos

posteriores

(8)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

(9)

2. La arquitectura con un ejemplo

Apache Flink

Apache Flink

Paraleliza procesos.

Permite hacer operaciones de:

• Filtrado

• Limpieza

• Normalización

• Enriquecimiento

El enriquecimiento se realiza con datos de otras fuentes.

Es un proceso que se origina por la pregunta original

En el ejemplo:

1. los datos de tráfico se preparan para indicar número de vehículos cada 5 min* y se suman para obtener la intensidad horaria [veh/h] de cada estación.

2. se añade el tráfico de esa hora a cada estación de calidad de aire según distancias (a 250m, a 500m, a 750m…)

El trabajo que se realice aquí será el que se

almacenará como

datos originales.

También prepara datos para visualización en tiempo real

(10)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

(11)

2. La arquitectura con un ejemplo

Secor/camus Kafka

Kafta

Sirve para compactar y

laminar el flujo de datos.

Envía datos a S3 por

intervalos preconfigurados

según ‘topic’

Interesa que los archivos

tengan un cierto tamaño,

para poder aprovechar

mejor las herramientas de

análisis de Big Data.

En el ejemplo:

1. Tráfico se envía a S3 cada X minutos 2. Calidad aire se envía a S3 cada Y minutos X = Y = 1 día

S3

Guarda los datos originales y los datos tratados Las herramientas de análisis pregunta a los datos de S3

Los datos que están en Kafta

NO

pueden ser analizados

(12)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

Análisis

. . .

(13)

2. La arquitectura con un ejemplo

Apache Flink

Ingesta

Análisis

(14)

2. La arquitectura con un ejemplo

Elastic

Es una BBDD.

Es muy liviana, es sólo contendrá la

información necesaria para visualizaciones

a tiempo real.

La vida del dato está limitada, se borran

automáticamente.

No permite procesos de análisis complejos

Organiza los datos por ‘topics’

En el ejemplo: 1. TráficoNombre estaciónUbicaciónIntensidad 2. AireNombre estaciónUbicaciónValor NOx

(15)

2. La arquitectura con un ejemplo

Apache Flink

Ingesta

Análisis

(16)

2. La arquitectura con un ejemplo

Visualiza datos introducidos en Elastic, permite obtener diferentes visualizaciones

(17)

2. La arquitectura con un ejemplo

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

Análisis

. . .

(18)

2. La arquitectura con un ejemplo

Análisis

. . .

(19)

2. La arquitectura con un ejemplo

S3

Sólo se puede escribir una vez,

leer muchas veces.

Los datos originales no se pueden modificar

Se guardarán los datos tratados que se

considere oportuno.

Apache Zeppelin

Interfaz de trabajo con los datos que, no

sólo permite trabajar con ellos, sino también

ejecutar procesos vía Spark, R, Python…

(20)

2. La arquitectura con un ejemplo

Análisis

. . .

(21)

2. La arquitectura con un ejemplo

. . .

Aquí, los analistas pueden acceder a toda

los datos, trabajar con ellos y analizarlos.

Spark

Distribuye y organiza los trabajos entre varios servidores

R y Python

Las herramientas básicas del análisis de datos

(22)

2. La arquitectura con un ejemplo

El conocer qué se quiere saber de los datos (la pregunta) permite

filtrarlos, limpiarlos, normalizarlos y enriquecerlos

en el momento de su captura. Se dejan los datos preparados para analizar

Una pregunta genera nuevas preguntas

pero eso no impide que se puedan usar para contestar otras preguntas que no se han tenido en cuenta en el momento de la captura de datos

se tendrá que tratar un poco los datos antes analizar

LA ARQUITECTURA ES MODULAR

(23)

3. El salto a la nube

Esta arquitectura requiere tener varios servidores (físicos o en la nube) encendidos

Eso es caro

Incluso “levantando” y “apagando” servidores

(24)

3. El salto a la nube

Secor/camus Kafka Otras fuentes Tráfico Madrid Calidad Aire Apache Flink Kafka

Ingesta

(mín 2)

Análisis

(mín 2)

. . .

(25)

3. El salto a la nube

Esta arquitectura requiere tener varios servidores (físicos o en la nube) encendidos

Eso es caro

Se remplaza parcialmente por servicios de AWS

La captura, filtrado, limpieza y

normalización* de los datos de

tráfico y aire ya no requieren “levantar” servidores. Se lanzan funciones cuando se requiere (cada 5 min, cada 1h…). ¡Se lanzan con Lambda! Se simplifican las colas

(Kinesis)

Hay fuentes de datos (Twitter

Streaming) que seguirán

requiriendo de servidores y parte de la arquitectura anterior

Encontrar el equilibrio entre servicios y servidores para aprovechar al máximo los recursos disponibles El filtrado, limpieza,

normalización* y

enriquecimiento se realiza con

(26)

3. El salto a la nube

La arquitectura realizada se va a implementar en

servidores de la Facultad de Informática

(27)

4. Talleres de formación

http://www.atkearney.com.mx/analytics/ideas-insights/article/-/asset_publisher/hZFiG2E3WrIP/content/its-challenge-bringing-structure-to-the-unstructured-world-of-big-data/10192?_101_INSTANCE_hZFiG2E3WrIP_redirect=%2Fanalytics%2Fideas-insights

Somos un equip

o

Cad a u no ti en e un o o más r ol es y h ay qu e es tar f or mado par a el rol elegido y ent en de r el res to de r ol es

(28)

4. Talleres de formación

Talleres

Septiembre – Octubre 2017:

• Amazon Web Service (abierto a todo el mundo)

• Manejo de la arquitectura SocialBigdata-CM (sólo SocialBigdata-CM)

Deberes

• Formarse en R y Python

• Hacer preguntas (qué fuente se debe usar, enriquecimientos propios o

con otras fuentes de datos…)

• Adjuntar los papers en los que se indique la fuente (API) que se usa, para facilitar la comprensión de la fuente y agilizar aspectos “burocráticos” con la fuente de datos. • A partir de las 13.30 (aprox), ¡hablar mucho entre nosotros para sacar más partido a

(29)

Big Data: retos y oportunidades para

la investigación geográfica

Gracias

Reunión de seguimiento SocialBigdata-CM

Borja Moya-Gómez (tGIS) – bmoyagomez@ucm.es

Referencias

Documento similar

Por otra parte, se toma como punto de apoyo el esnobismo o la incapacidad de dudosos teorizantes para atribuir a la arquitectura funcional un sentido cerebral desprovisto de

Twitter, base de datos, tweets, Big Data, Apache, Hadoop, Pig, HBase, Flume, Hive, Maven, Cluster, Arquitectura

En el siguiente apartado y posteriores incorporamos el sector turístico como objetivo de la gestión del Big Data, el turismo es una rama principal en la economía de nuestro país y

Apache Hadoop es actualmente la herramienta libre más utilizada para el análisis de Big Data, si bien también existen alternativas diseñadas para problemas específicos y, por

Además, durante la realización de este proyecto se ha diseñado y desarrollado un sistema que permite detectar el uso de herramientas de chat mediante el

Este trabajo pretende aprovechar este crecimiento del Machine Learning para crear y entrenar desde cero un modelo de red neuronal que sea capaz de clasificar imágenes de

Una de las etapas que encontramos en la creación de modelos de aprendizaje automático, tal y como podemos ver en la figura 9, es el análisis de los resultados

Aplicat a l’entorn industrial, el concepte big data fa referència a la gran quantitat de dades gene- rades per un conjunt de fonts molt diferents relacionades amb aquest