Top PDF Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

La I significa Imitability, es decir, si un competidor tratase de imitar esto, ¿sería fácil, poco costoso o rápido de hacer? Como hemos visto a lo largo de los ejemplos anteriores, no debemos hablar solo de la cantidad de millones de euros invertidos en Big Data por las dos organizaciones, ya que en el peor de los casos, cualquier organización de tamaño grande tendrá la disponibilidad de ese dinero, pero de lo que si debemos hablar es de que son medidas que se empezaron a implementar casi una década atrás, por tanto, puede que para una empresa grande no sea costoso pero si será imposible de imitar al tratarse de un proceso que autoaprendizaje de las propias empresas. Por poner un ejemplo, podemos ver que en el caso de UPS sus propias herramientas están siendo adelantadas por otra herramienta desarrollada por ellos (ORION) lo que nos hace darnos cuenta de que es un proceso continuo y lo convierte en algo muy costoso y complejo de imitar.
Show more

45 Read more

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

El big data (o grandes volúmenes de datos) ha ido creciendo de manera exponencial en los últimos años. Cada vez es más fácil y barato almacenar datos, y esto es un avance, ya que los data scientists y las personas que trabajan con estos datos van a tener información suficiente como para poder tener un mayor conocimiento de la empresa o negocio, y esto se va a traducir en una ventaja competitiva. El Big data, por ejemplo, nos va a ayudar a tener un mayor conocimiento de nuestros clientes, a darles un trato más personalizado, a mejorar las medidas antifraude del comercio electrónico, a evitar la perdida de clientes en manos de la competencia, y a ser más rápidos y eficientes en las decisiones que tomemos.
Show more

54 Read more

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

La importancia del Big Data para las empresas reside en el hecho de ser capaz de responder a preguntas que ni las propias empresas sabían que tenían que hacerse. Si siempre se ha considerado la información como un activo rele- vante de la empresa, con el Big Data se convierte en la clave competitiva, ya que permite obtener datos de distintas fuentes, almacenarlos y convertirlos en infor- mación accionable para descubrir patrones y tendencias clave para el negocio. Según un reciente estudio de IDC Research, las empresas que implanten estos modelos y que trabajen con ellos, tienen 5 veces más posibilidades de superar sus expectativas de negocio.
Show more

83 Read more

PONENCIA BIG DATA, UNA HERRAMIENTA FUNDAMENTAL PARA CONOCER AL CLIENTE Efrén David Peña Viana Cod: 2107064

PONENCIA BIG DATA, UNA HERRAMIENTA FUNDAMENTAL PARA CONOCER AL CLIENTE Efrén David Peña Viana Cod: 2107064

Con la llegada de grandes volúmenes de datos, las organizaciones están accediendo a herramientas analíticas y de predicción cada vez más sofisticadas que, combinadas con técnicas más tradicionales, multiplican la visibilidad sobre el cliente. Cuando se logra esta perspectiva se puede comenzar a diseñar una estrategia más efectiva que consiga aumentar la satisfacción de los ya clientes y mejorar la imagen que la empresa proyecta hacia el exterior. De esta forma lograremos aumentar la tasa de retención de clientes de una manera notable, minimizaremos el volumen de inconformidades, mejoraremos la gestión de incidencias y lograremos extender el alcance de las iniciativas de marketing a nuevos segmentos de mercado y nuevos clientes
Show more

16 Read more

Proceso de diseño de una arquitectura Big Data para el análisis de grandes volúmenes de datos e información

Proceso de diseño de una arquitectura Big Data para el análisis de grandes volúmenes de datos e información

En la actualidad, las organizaciones empresariales incrementan sus esfuerzos por reducir los costos y aumentar el binomio calidad-efectividad en los procesos de atención a la población, el sector financiero no está ajeno a ello (Kim, Trimi y Chung, 2014; Kshetri, 2016; Campbell-Verduyn, Goguen y Porter, 2017). Con el desarrollo del internet y la cantidad de datos que se generan a diario, las empresas han migrado sus necesidades a las tecnologías de la información, para encontrar variantes que propicien darles solución a sus problemas. Uno de estos es el análisis de la gran cantidad de datos e información que se disponen, para mejorar su toma de decisiones, hacerla más efectiva, en el menor tiempo posible y con menor gasto de recursos (Tabares y Hernández, 2014).
Show more

11 Read more

Evolución de los repositorios documentales: el caso SocialNet

Evolución de los repositorios documentales: el caso SocialNet

Como en otros tipos de acumulaciones de datos e informa- ción, en los repositorios –todos los citados son libremente accesibles- es posible utilizar aplicaciones de inteligencia (business intelligence) con las cuales pueden extraerse in- formes sobre autores e instituciones: qué, cuánto, cómo y con quién investigan, impacto obtenido, etc. Entre las apli- caciones de inteligencia cabe citar desde las hojas de cál- culo, hasta softwares como reporting and querying, online analytical processing (olap), cuadros de mando integrales (dashboards), minería de datos (data mining), etc. Todos estos sistemas han culminado en una de las grandes ten- dencias tecnológicas actuales: big data, que es el análisis masivo de ingentes cantidades de datos (logs de webs, da- tos meteorológicos, estelares, biológicos…) para extraer tendencias y conclusiones que sirvan para tomar decisiones. Las técnicas big data permiten tratar cantidades de informa- ción sin precedentes, para las cuales hasta ahora no existían ni software ni máquinas suficientemente rápidas.
Show more

8 Read more

Dispositivos para el almacenamiento de grandes volúmenes de información “Big data”

Dispositivos para el almacenamiento de grandes volúmenes de información “Big data”

• Debido a la naturaleza de las SAN, éstos dispositivos son muy útiles para el manejo de operaciones transaccionales, cuyo tamaño puede ser planeado claramente al momento del diseño del sistema, no así para el manejo acervos digitales que contienen imágenes o videos, cuyo tamaño puede fluctuar significativamente de acuerdo a sus contenidos y a las necesidades de las aplicaciones, como es el caso del VOD (Video On Demand). Entre las principales aplicaciones de las SAN se tienen: servicios de correo electrónico, aplicaciones de bases de datos de uso intensivo y para el manejo compartido de datos.
Show more

14 Read more

Análisis de la Viabilidad de la Implementacion de Big Data en Colombia

Análisis de la Viabilidad de la Implementacion de Big Data en Colombia

El sector japonés que es uno de los grandes administradores mundiales de tecnología se ha enfocado en la protección y el manejo ético de los datos recaudados y consignados es sus gigantescas bases de datos pues esta tendencia lleva alrededor de 7 años gestándose en el país nipón, El departamento de estrategias de IT constituyó el comité de análisis sobre los datos Personales, en el que los expertos en la materia debatieron la reforma, y en junio de 2015 presentaron un “Paquete de revisiones del sistema regulador del uso de datos personales”. En ese primer borrador se clasificó en dos categorías la información que se encuentra en la llamada “zona gris” entre la información personal como el nombre y la dirección y la no personal: “datos de baja especificidad personal” (nombre provisional), información que puede utilizarse sin el permiso del individuo si se mantiene el anonimato, y “datos secundarios de identificación personal”, información como la ID de los terminales móviles y los datos de reconocimiento facial. Esta definición de conceptos se pretendía plasmar en la ley para determinar cómo debían tratarse los distintos tipos de información por parte de los organismos oficiales y las empresas pero luego de diversos debates tanto de oposición como apoyo a la reforma se llegaron a establecer los siguientes tópicos principales:
Show more

79 Read more

Big data. Un nuevo paradigma de análisis de datos

Big data. Un nuevo paradigma de análisis de datos

En 2012 Gartner definió big data como “activos de información carac- terizados por su volumen elevado, ve- locidad elevada y alta variedad, que demandan soluciones innovadoras y efi- cientes de procesado para la mejora del conocimiento y la toma de decisiones en las organizaciones”. Esta definición hace mención a las 3 famosas “V” de los big data: Volumen, Velocidad y Ve- racidad (Figura 1); cuyos detalles se pueden consultar en el libro blanco de Fujitsu –Mitchell et al. (2012)– y en Zicari (2014). Adicionalmente se han propuesto nuevas “V” como Va- lor, Veracidad y Visualización; o incluso Volatilidad, Validez y Viabilidad.
Show more

7 Read more

Diseño de modelo tecnológico para el uso de big data en el análisis y visualización de información para pequeñas y medianas empresas

Diseño de modelo tecnológico para el uso de big data en el análisis y visualización de información para pequeñas y medianas empresas

Debido a la gran notoriedad que está tenien- do esta tendencia y parte de las nuevas tecno- logías, cualquier persona, con conocimientos tecnológicos o sin ellos, se pregunta cómo se almacena toda la información que se genera en el mundo por medio de las redes sociales (Face- book, Twitter, Smartcities, Instagram) o cómo Google es capaz de manejar todas las transac- ciones que se hacen a diario. Pero no solo se queda aquí, ya que Big Data alcanza todos los ámbitos: bolsa, climatología, astronomía, mar- keting, por lo que la cantidad de datos que se genera actualmente es abrumadora y solo el hecho de saber cómo se consigue captar y anali- zar dicha información parece una justificación bastante razonable para buscar herramientas que proporcionen soluciones atractivas. Por otra parte, el almacenamiento de la infor- mación incrementa cada día, por lo que se ha decido implementar nuevas tecnologías que cumplan con los requisitos de las grandes empresas, ya que almacenan cantidades enor- mes de información y requieren de mecanis- mos que les permitan realizar sus procesos de forma rápida y eficiente.
Show more

7 Read more

GEOBIG. Gestión de grandes volúmenes de datos abiertos

GEOBIG. Gestión de grandes volúmenes de datos abiertos

Consultor Senior GIS y Programador en Geograma. Licenciado en Ciencias Ambientales, Máster GIS (ESRI España - mención especial al mejor expediente de la promoción y Mejor Proyecto en el ámbito del Desarro- llo de Aplicaciones GIS - ACUA) y Máster en Desarrollo de Aplicaciones Java. Con 3 años de experiencia como inspector medioambiental y 2 años como gestor téc- nico de proyectos de I+D+i, finalmente asentado en el sector GIS los últimos 4 años, mejorando continua- mente las aptitudes en Big Data y ciencia de datos.

5 Read more

"¿Big data, el futuro de nuestra Historia? Posibilidades de aplicación del análisis de grandes cantidades de datos en la industria cultural y museos"

"¿Big data, el futuro de nuestra Historia? Posibilidades de aplicación del análisis de grandes cantidades de datos en la industria cultural y museos"

En 2013, Apple presentó iBeacon. La tecnología puede rastrear a los usuarios de teléfonos inteligentes con excelente precisión. Las aplicaciones que se ejecutan en esos teléfonos pueden recibir mensajes de los transmisores Bluetooth instalados en una ubicación determinada. Esta forma de GPS de ladrillo y mortero ha ayudado a marcar el comienzo de una nueva era de compras automatizadas. El seguimiento de los clientes en tiempo real permite a las empresas descifrar los datos demográficos y los intereses individuales. El uso de estos datos para hacer “ping” a las notificaciones de productos y cupones a los consumidores ha eliminado las conjeturas de la venta al por menor. Además, aunque iBeacon ha sido una gran ayuda para el comercio, también ha demostrado que tiene el potencial de reforzar dramáticamente nuestra comprensión de cómo nos involucramos con el arte. Si un museo pone beacons en sus galerías, cualquier dispositivo puede encontrarlas, y cualquier aplicación puede usar eses beacons para activar contenidos.
Show more

49 Read more

Comparativa del rendimiento de bases de datos NoSQL con grandes volúmenes de datos

Comparativa del rendimiento de bases de datos NoSQL con grandes volúmenes de datos

En base a estas tres tendencias, se puede asumir que el enfoque de embeber datos en una ´ unica estructura ser´ıa una decisi´ on acertada cuando las relaciones entre ellos sean simples y que el de establecer relaciones y referencias entre los datos lo ser´ a cuando sea necesario un enfoque m´ as relacional de los mismos. Por su parte, el almacenamiento en bruto de los datos ignora casi por completo cuestiones relativas al modelado conceptual o l´ ogico y se centra en la eficiencia m´ axima de la escritura y lectura de los datos. Esta tendencia a la hora de tratar la informaci´ on es muy adecuada cuando hablamos en t´ erminos de Big Data e IoT, ya que son dos situaciones en las que, tanto la afluencia como el volumen de los datos que se acaban manejando resultan enormes.
Show more

94 Read more

Diseño de datos: del big-data al urbanismo

Diseño de datos: del big-data al urbanismo

En la actualidad, los datos han dejado de ser estáticos y se han convertido en flujos dinámicos de paso de información. Se comportan como un fluido de corriente incesante en el que el dato en sí mismo es despreciable, y es el mismo flujo el que debe ser traducido. Para entender mejor la cantidad y la dimensión de los datos, la empresa americana de Domo (2018) especializada en visualización de datos e inteligencia empresarial, ha hecho un estudio en el que muestra que cada 60 segundos que pasan en el planeta, en Amazon se envían mil cien paquetes, en Netflix se visualizan 97 mil horas de vídeo, en Google se realizan 3,9 millones de búsquedas y en Youtube se visualizan 4,3 millones de vídeos. Precisamente por estas magnitudes, el diseño de datos se presenta como una herramienta necesaria para dar una significación y orden a estos inmensos volúmenes de macrodatos generados. Aunque el diseño de datos lleva mucho tiempo aplicándose en diferentes campos, ahora más que nunca está indagando y experimentando sobre nuevos escenarios y sus posibles aplicaciones. Como ya hemos mencionado en el párrafo anterior, si los datos se comportan como un fluido, el diseño de datos no solo debe representar estos flujos de datos, sino también debe esforzarse en mostrar patrones y tendencias, y relacionarlas con el entorno. Debe expresar las relaciones dinámicas inherentes en el big data dándoles forma y significado. Según Ben Willers (2015) diseñador de datos en Reino Unido, es importante seleccionar los datos a mostrar y la forma en la que se van a mostrar, para ser capaces de comunicar los descubrimientos sin necesidad de una exposición. Para él se trata de demostrar como las visualizaciones no solo dan significado a los datos de una manera gráfica, sino que también deben crear un lenguaje visual capaz de comunicar por si mismo. “Uno de los grandes retos a los que me enfrento en mi trabajo es encontrar un equilibrio entre no simplificar la riqueza de los datos en conjunto y al mismo tiempo, mostrar los datos de una manera
Show more

36 Read more

Datos abiertos en un mundo de grandes datos. Un acuerdo internacional ICSU-IAP-ISSC-TWAS

Datos abiertos en un mundo de grandes datos. Un acuerdo internacional ICSU-IAP-ISSC-TWAS

Muchas de las complejas relaciones que ahora tratamos de capturar a través de grandes datos (big data) o datos amplios (broad data) enlazados se encuentran más allá de la capacidad analítica de muchos métodos estadísticos clásicos. Requieren enfoques matemáticos más profundos, incluyendo métodos topológicos para asegurar que las inferencias extraídas de grandes datos y datos amplios sean válidas. El análisis computacional intensivo en datos y la capacidad de las computadoras de aprendizaje automático (machine-learning) están muy presentes y tienen importantes implicaciones para el descubrimiento científico. La complejidad de los patrones que las máquinas son capaces de identificar no son fácilmente captados por los procesos cognitivos humanos, lo que plantea cuestiones profundas sobre la interfaz hombre- máquina y lo que puede significar ser un investigador en el siglo XXI.
Show more

6 Read more

Web Services en el contexto de la Visualización de Grandes Volúmenes de Datos

Web Services en el contexto de la Visualización de Grandes Volúmenes de Datos

Gracias a los crecientes avances tecnológicos se aprecia un crecimiento exponencial en densidad y tamaño de los volúmenes de datos; la visualización de tales cantidades de datos puede sobrepasar rápidamente el poder de procesamiento local. Con la disponibilidad de la GRID, la ubicuidad de Internet y el soporte de los Web Services se han propuesto varios sistemas de visualización distribuida que asisten a científicos y usuarios de todo el mundo. Sin embargo, algunos de estos sistemas se han planteado desde el punto de vista de la colaboración a distancia y otros desde el punto de vista de compartir recursos; debido a esto, los sistemas existentes no están preparados para manejar volúmenes de datos realmente grandes. Para contar con un sistema de Visualización en la Web es imperativo hacer uso eficiente de la red; la estrategia consiste en transmitir solo las porciones de datos que serán procesadas y visualizadas; esto implica crear una representación de datos adecuada que permita extraer datos con diversos niveles de detalle para poder transmitirlos y visualizarlos progresivamente. Finalmente esto debe integrarse en un sistema de caché distribuido que evite retransmisiones innecesarias y haga que los datos residan más tiempo donde más se necesitan.
Show more

3 Read more

Hidden Gender Bias in Big Data as Revealed Through Neural Networks:  Man is to Woman as Work is to Mother?

Hidden Gender Bias in Big Data as Revealed Through Neural Networks: Man is to Woman as Work is to Mother?

Pero lo que no sabíamos aún, y he- mos tratado de comprobar con la apli- cación de la red neural word2vec, es si la Wikipedia mostraba sesgos de género semántico-estructurales, similares a los encontrados en Google News por Boluk- basi. En efecto, hemos corroborado, aun- que sea en el formato mínimo exigible en una prueba de concepto, que al menos en la Wikipedia en español del año 2006, esos sesgos de género se encuentran presentes. No podemos decir que el he- cho constituyera para nosotros una sor- presa, pero es muy llamativo hallar, en nuestra considerable muestra de más de 28 millones de palabras, que el algoritmo de la red neural empleada, asociaba pa- res como: Hombre es a Experto como Mujer es a Sabelotodo. Este fue el primer par analógico que nos escandalizó. Al re- velar el análisis de la semántica implícita en la Wikipedia en casos como este, esta macroenciclopedia online no hace más que seguir la tradición de otras enciclo- pedias convencionales. Así, por ejemplo, y como señala la historiadora Gillian Tho- mas en su estudio sobre la 11.ª edición de la Enciclopedia Británica, las mujeres que aparecen en ella suelen ser «perci- bidas como siervas pedantes ante el am- plio alcance de la inteligencia masculina» (Thomas, 1992: 18-26).
Show more

36 Read more

Métodos de predicción de fuga con grandes volúmenes de datos

Métodos de predicción de fuga con grandes volúmenes de datos

Balancear los datos demasiado también puede ser contraproducente, es decir, no podemos pasar de tener una penetración del 1% al 50% por ejemplo, ya que se está sesgando el patrón natural de los datos y podría darse el caso de que el modelo prediga bien solamente sobre la muestra balanceada, pero no sobre los datos originales (sin balancear). Por eso en la práctica es recomendable ir incrementándola poco a poco y parar en el momento en que veamos que el software que empleemos es capaz de construir un modelo.

178 Read more

Sesgos de gnero ocultos en los macrodatos  y revelados mediante redes neurales:  hombre es a mujer como trabajo es a madre?

Sesgos de gnero ocultos en los macrodatos y revelados mediante redes neurales: hombre es a mujer como trabajo es a madre?

El segundo gran problema, que por su trascendencia debiera ser el primero, es que la producción de los big data puede traducirse en una visión distorsionada y, con frecuencia, interesada del fenómeno que representan. Esta distorsión sería el reflejo de una sociedad dividida por múl- tiples fracturas y desigualdades (econó- micas, de género, educativas, étnicas, de salud, interseccionales, etc.), y traduciría los propios intereses de quienes elabo- ran los datos en cuestión. Campos de co- nocimiento como la agnotología (Proctor y Shiebinger, 2008) y la epistemología de la ignorancia (Tuana y Sullivan, 2006) han mostrado los numerosos sesgos que ta- ran los datos convencionales. Cuando los datos son complejos y masivos, como es el caso de los big data, el problema de los sesgos es más profundo: esos sesgos no aparecen meramente en la superficie de los datos, sino en la estructura profunda de los mismos, es decir, en las relaciones implícitas que mantienen. Esas relaciones solo son accesibles estadísticamente, en la medida en que solo se revelan a través de correlaciones complejas a través de grandes conjuntos de datos, y permane- cen invisibilizadas —como la redondez de la Tierra— para el observador micro.
Show more

36 Read more

Preprocesamiento y Calidad de los Datos - Big Data

Preprocesamiento y Calidad de los Datos - Big Data

Resumen: En los últimos años, el crecimiento masivo en la escala de los datos está siendo un factor clave en el actual escenario de procesamiento de datos. La eficacia de los algoritmos de extracción de conocimiento depende en gran medida de la calidad de los datos, la cual puede ser garantizada por los algoritmos de preprocesamiento. Sin embargo, en esta era de Big Data, los algoritmos de preprocesamiento tienen dificultades para trabajar con tal cantidad de datos, siendo necesario nuevos modelos que mejoren su capacidad de escalado. El objetivo de este trabajo es presentar la importancia del preprocesamiento de datos en Big Data, así como, estudiar las herramientas y técnicas de análisis de datos que dan soporte a la tarea del preprocesamiento de datos masivos.
Show more

7 Read more

Show all 10000 documents...