PDF superior Big Data y Periodismo de Datos

Big Data y Periodismo de Datos

Big Data y Periodismo de Datos

Un dispositivo inteligente, como un IPhone, tiene más poder de computación del que tenía la NASA cuando llegó el primer hombre a la luna. Los datos están en todas partes, en los códigos de barras, en las tarjetas de crédito, en las antenas de telefonía, en los sensores de humedad, en los contadores de la luz y el agua. Es en Internet donde se produce el mayor volumen de información a través de emails, piezas de contenido de Facebook, búsquedas en Google, tuits y vídeos en YouTube. Es por esta razón que muchos autores, al hablar del paisaje de los datos, dicen que nosotros somos Big Data.
Mostrar más

29 Lee mas

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

En el caso del big data, los clusters se suelen hacer con programas informáticos por la complejidad que tiene trabajar con grandes cantidades de datos. Antes hemos visto paso a paso como se forma un clúster con poca información. Cuando se hacen clúster con grandes volúmenes de información en los ordenadores, en el fondo se están haciendo los mismos pasos y las mismas operaciones que si hacemos un clúster con pocos datos a mano. De hecho, se podría decir que las matemáticas que se usan actualmente en los ordenadores para resolver clusters no es nada novedoso. Si hasta ahora no se podrían hacer clusters con tantos datos era porque hacerlos llevaba mucho tiempo y porque no se disponía ni de memoria suficiente para almacenar los datos, ni de programas informáticos lo suficientemente potentes como para resolver de manera inmediata el clúster.
Mostrar más

54 Lee mas

A10. Big Data: Herramientas para el procesamiento de datos masivos

A10. Big Data: Herramientas para el procesamiento de datos masivos

numerosas aplicaciones, tales como las colecciones de datos que nos proporcionan los instrumentos científicos, las redes de sensores, los dispositivos móviles, las transacciones comerciales, la genómica y la biomedicina, o los sistemas de información de la empresa. Esta gran cantidad de datos disponible en la actualidad y las tecnologías necesarias para su procesamiento conforma lo que conocemos hoy día como "big data". Esta materia se centrará en el procesamiento de datos masivos, tanto en los principios formales como en las herramientas específicas para tratar estos volúmenes de datos.
Mostrar más

10 Lee mas

Algoritmos, aplicaciones y Big data, nuevos paradigmas en el proceso de comunicación y de enseñanza-aprendizaje del periodismo de datos

Algoritmos, aplicaciones y Big data, nuevos paradigmas en el proceso de comunicación y de enseñanza-aprendizaje del periodismo de datos

Para ello, además del método de la re- visión de textos, hemos optado por utili- zar los métodos de la observación directa y el estudio de caso, unas metodologías de investigación cualitativa mediante la cual se verifica o construye una teoría con base en la observación de muestras o casos seleccionados de la realidad (Sierra y Álvarez, 1998). La observación directa ha de lograr una comprensión objetiva de la realidad al garantizar la recogida de información de todos y cada uno de los indicadores como pueden ser las di- versas aplicaciones tecnológicas utiliza- das en este campo del periodismo que se basa en los datos. En cuanto al método del estudio del caso que permite al ana- lista comprender el fenómeno estudia- do, crear una base sobre la cual desarro- llar investigaciones más extensas y estudiar sujetos o situaciones únicas, su relación e importancia en su contexto, el estudio de caso utilizado se basa en el al- goritmo de noticias Quakebot de Los Angeles Times, lo que nos permitirá es- tablecer un marco teórico y referencial que emana de las definiciones de las aplicaciones encontradas en sus sitios web. Estos métodos nos ayudaran a defi- nir el estado de la cuestión y sus posibles extrapolaciones en la mayoría de los me- dios periodísticos. Finalmente, se re- flexiona sobre el aspecto formativo de
Mostrar más

24 Lee mas

Nuevas tendencias en el uso de los datos para el marketing: Big Data

Nuevas tendencias en el uso de los datos para el marketing: Big Data

Junto a otros factores, a lo que se enfrentan hoy las plataformas de Big Data es a las consecuencias de ese aumento exponencial de los órdenes de magnitud. Un ejemplo del mundo científico: el acelerador de partículas LHC (Large Hadron Collider) genera 1 PetaByte (1 millón de GigaByte) de datos por segundo. Esta gigantesca cantidad de datos producidos en un solo segundo es similar al volumen de información que ocupan 10.000 millones de fotografías o 13 años de televisión de alta definición. Además, el Colisionador de Hadrones, que forma parte del Centro de Datos del CERN (Organización Europea para la Investigación Nuclear), comparte la información con 170 centros colaboradores de 36 países en todo el mundo que están conectados con el CERN. Esta red de centros pone en funcionamiento centenares de miles de ordenadores que proporcionan los recursos necesarios para almacenar, distribuir y procesar toda la información generada. El poder combinado de esta red en un sólo día es el equivalente al trabajo continuado de un ordenador durante más de 600 años.
Mostrar más

46 Lee mas

Hacia un universo digital de datos: el Big Data y Open Data

Hacia un universo digital de datos: el Big Data y Open Data

La nube se adapta a los big data (datos grandes), o dicho de otra manera, a lo largo de estos últimos cinco años, se ha venido produciendo una convergencia entre el modelo de la nube (cloud) y los big data: éste ha sido el lema central de la conferencia EMC Word 2014 celebrada en Las Vegas en mayo de ese año. EMC, además de presentar sus últimas herramientas para la nube, como el caso de la plataforma Vplex, presentó la tecnología geo que convierte en realidad la federación del almacenamiento a larga distancia, que permite acceder, compartir y mover de manera dinámica aplicaciones y datos entre los centros de datos ubicados a distancias de hasta 1000 kilómetros compartiendo la información como si se tratara de un único CPD.
Mostrar más

17 Lee mas

Desafíos que para la privacidad y la protección de datos implica el Big Data

Desafíos que para la privacidad y la protección de datos implica el Big Data

acceder a toda la información que se posea sobre el mismo. La legislación de protección de datos no se opone al desarrollo y aplicación del Big Data pero este fenómeno debe implantarse partiendo siempre del respeto a estos principios. Esto no obsta para que la normativa tradicional en materia de protección de datos pueda y deba verse completada con otras aproximaciones con el fin de salvaguardar la privacidad de manera efectiva. De ahí la importancia de realizar evaluaciones de impacto en la protección de datos y de potenciar la transparencia por parte de las empresas que tratan datos masivos, así como de otorgar a los ciudadanos un adecuado control sobre sus datos personales y de reforzar la necesidad de que otorguen su consentimiento.
Mostrar más

5 Lee mas

Objetivos de la formación. Dirigido a: Contenido. 1. Entender el Big Data. 2. De los datos del Cliente al Big Data. 3. Aplicaciones del Big Data

Objetivos de la formación. Dirigido a: Contenido. 1. Entender el Big Data. 2. De los datos del Cliente al Big Data. 3. Aplicaciones del Big Data

100% virtual en directo con el formador Big data es esencial para administrar una masa creciente de datos, de diversas fuentes, desestructurados y cambiantes a cada segundo. Big data ya no es una opción para el marketing web y la comunicación digital, es uno de los componentes del conocimiento del cliente y del seguimiento de acciones.

23 Lee mas

Big data. Un nuevo paradigma de análisis de datos

Big data. Un nuevo paradigma de análisis de datos

La computación en la nube ha su- puesto una reducción de costes, una mayor flexibilidad y una utilización óptima de los recursos, por lo que se considera que es una herramienta de ventaja competitiva de las empresas. Entre sus usos destaca la analítica de los big data. Kambatla et al. (2014) han indicado que una de las principales aplicaciones de la generación futura de sistemas distribuidos y de cálculo paralelo se encuentra en la analítica de los datos enormes. Los reposito- rios de datos para tales aplicaciones exceden actualmente la magnitud de exabytes y están creciendo rápida- mente en tamaño. Los datos residen en plataformas con capacidades com- putacionales y de red que varían am- pliamente. Ello hace que las considera- ciones de tolerancia a fallos, seguridad y control de acceso sean críticas.
Mostrar más

7 Lee mas

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

Big Data. Análisis de grandes volúmenes de datos en Organizaciones

La importancia del Big Data para las empresas reside en el hecho de ser capaz de responder a preguntas que ni las propias empresas sabían que tenían que hacerse. Si siempre se ha considerado la información como un activo rele- vante de la empresa, con el Big Data se convierte en la clave competitiva, ya que permite obtener datos de distintas fuentes, almacenarlos y convertirlos en infor- mación accionable para descubrir patrones y tendencias clave para el negocio. Según un reciente estudio de IDC Research, las empresas que implanten estos modelos y que trabajen con ellos, tienen 5 veces más posibilidades de superar sus expectativas de negocio.
Mostrar más

83 Lee mas

Computación en la nube: Big Data y protección de datos personales

Computación en la nube: Big Data y protección de datos personales

27 El Art. 5.1 LOPDCP establece un contenido mínimo de la información que debe de suministrar el responsable del tratamiento al titular de los datos, algunos de cuyos extremos, sin embargo, pueden omitirse si se deduce de la naturaleza de los datos que se soliciten o de las circunstancias concretas en las que éstos se demanden (Art. 5.3 LOPDCP). Por eso, nos parece que el contenido debe también comprender aquella información que imponga el principio general de buena fe y que evite el dolo (Art. 7.1 CC). Así, el titular de los datos de carácter personal debe ser informado, de modo expreso, preciso e inequívoco de la existencia de un fichero, de que sus datos personales se recogen y serán objeto de tratamiento, la finalidad del mismo y los destinatarios de sus datos, debe darse a conocer quién es el responsable del tratamiento, recordarle la posibilidad de ejercicio de sus derechos, entre otros aspectos. Dentro del grupo de destinatarios debería comprenderse al encargado del tratamiento contratado por el responsable y, en su caso, los posibles subencargados del mismo que, a su vez, haya contratado el encargado. Debe notarse que, en la mayoría de casos, sobre todo, cuando se manejan Big Data y el proveedor de servicios de computación en la nube es una multinacional, lo usual es la subcontratación de las diferentes operaciones en qué consiste el tratamiento de los datos. Esta información debe estar disponible para el titular de los datos, en la medida en que si encargado y subencargados no se ajustan a la finalidad perseguida con el tratamiento de los datos ocasionando daños al titular de los mismos, serán considerados como responsables del tratamiento, asumiendo la responsabilidad civil, penal y administrativa que les corresponda (Art. 12.5 LOPDCP).
Mostrar más

48 Lee mas

Minería de datos, minería de textos y Big Data

Minería de datos, minería de textos y Big Data

Esta línea de investigación se centra en el estudio y desarrollo de Sistemas Inteligentes para la resolución de problemas de Minería de Datos y Big Data utilizando técnicas de Aprendizaje Automático. Los sistemas desarrollados se aplican particularmente al procesamiento de grandes volúmenes de textos y al procesamiento de flujo de datos. En el área de la Minería de Datos se está trabajando, por un lado, en la construcción de conjuntos de reglas de clasificación difusas que faciliten y permitan justificar la toma de decisiones y, por otro lado, en el análisis de
Mostrar más

5 Lee mas

Big data: la revolución de los datos y su impacto en la comunicación corporativa

Big data: la revolución de los datos y su impacto en la comunicación corporativa

Es vital que las compañías apuesten por la formación en datos masivos si quieren sacar partido al big data y aprovechar al máximo las oportunidades que ofrece tanto en la toma de decisiones como en la definición de estrategias y la implementación de tácticas. En este contexto, la aplicación de big data a la gestión estratégica de la comunicación debe verse como una oportunidad (Wiencierz y Röttger, 2019; Pereira Villazón, Portilla Manjón y Rodríguez Salcedo, 2019; Holtzhausen, 2016). No solo deben dotar a los profesionales del Departamento de Comunicación de los conocimientos necesarios para manejar y saber interpretar grandes cantidades de datos, sino que es imprescindible contar con equipos multidisciplinares que incluyan también perfiles más técnicos. Esto requiere que las empresas estén dispuestas a realizar importantes inversiones en este sentido, como pone de manifiesto esta investigación.
Mostrar más

18 Lee mas

Arquitectura para la Gestión de Datos Imperfectos en la Era de Big Data

Arquitectura para la Gestión de Datos Imperfectos en la Era de Big Data

Resumen: La gran cantidad de datos que se maneja hoy en día y la manera como estos datos se extraen del contexto obligan a utilizar sistemas de información capaces de tomar decisiones, adecuarlos a la empresa y al usuario final. La digitalización da lugar a distintos tipos de datos en tiempo real de acuerdo al escenario que se plantee. Una gran cantidad de estos datos, en ocasiones se presentan de forma no normalizada: datos en streaming, geoespaciales o generados por diferentes tipos de sensores, que no encajan bien en un esquema relacional, tradicional o estructurado. Mucha de esta información puede ser vaga, imprecisa, ambigua o incompleta, muy parecida al lenguaje humano con respecto a términos cualitativos y cuantitativos. El objetivo del presente trabajo es estudiar acerca de la gestión de datos imperfectos sensibles al contexto integrado a la utilización de tecnologías asociadas a Big Data. La teoría de conjuntos difusos, en el marco de Soft Computing, aporta mecanismos para modelar y representar datos posibilísticos en bases de datos difusas, se propone una arquitectura que gestione este tipo de datos integrada con tecnologías para el manejo de datos masivos. Esta arquitectura incorpora un Módulo de Interacción con una Base de Datos Difusa que permita el almacenamiento y recuperación de datos sensibles al contexto. El propósito es proporcionar una herramienta útil para enfrentar el reto que tienen las organizaciones de obtener un mayor provecho de la gran cantidad de información proporcionada por las tecnologías del mundo actual. Además, se espera obtener los beneficios que agrega la gestión de datos difusos sensibles al contexto en el almacenamiento de datos imperfectos y consultas flexibles que no pueden ser ofrecidas en sistemas de bases de datos tradicionales.
Mostrar más

10 Lee mas

Los desafíos éticos del periodismo en la era del big data: análisis de códigos deontológicos latinoamericanos

Los desafíos éticos del periodismo en la era del big data: análisis de códigos deontológicos latinoamericanos

En este sentido, el fenómeno del big data trae consigo sus propios re- tos éticos, que merecen ser estudiados a medida que los periodistas se van enfrentando a ellos (Lewis y Westlund, 2015). Estos conflictos se refieren a la privacidad, la seguridad de la información o la manipulación de los da- tos, entre otros (Crawford, Miltner y Gray, 2014; Suárez-Gonzalo, 2017). Por tanto, este nuevo periodismo exige igualmente un nuevo planteamien- to en términos éticos, ya que, entre otras cosas, el mero hecho de que los datos con los que se trabaja sean cuantificables no supone de manera auto- mática que equivalgan a la verdad absoluta (Boyd y Crawford, 2012), en es- pecial si esos datos no se contextualizan adecuadamente (McBride, 2016). Son ya varios los autores que han abordado la tarea de intentar defi- nir una serie de principios éticos fundamentales para el periodismo de da- tos. Fairfield y Shtein (2014) plantean un marco basado en las obligaciones y se inspiran en algunos de los principios éticos fundamentales que rigen cualquier investigación científica que implique la presencia de seres huma- nos, como la autonomía, la beneficencia o la justicia para, a partir de ahí, extraer tres cuestiones más específicas del periodismo de datos: el tamaño de la muestra, el que el conjunto de los datos constituya un todo homogé- neo y no una mera acumulación de estos y los posibles perjuicios y daños que se puedan causar cuando se difunda la información.
Mostrar más

28 Lee mas

Desafíos que para la privacidad y la protección de datos implica el Big Data

Desafíos que para la privacidad y la protección de datos implica el Big Data

La legislación de protección de datos no se opone al desarrollo y aplicación del Big Data pero este fenómeno debe implantarse partiendo siempre del respeto a estos principios. Esto no obsta para que la normativa tradicional en materia de protección de datos pueda y deba verse completada con otras aproximaciones con el fin de salvaguardar la privacidad de manera efectiva. De ahí la importancia de realizar evaluaciones de impacto en la protección de datos y de potenciar la transparencia por parte de las empresas que tratan datos masivos, así como de otorgar a los ciudadanos un adecuado control sobre sus datos personales y de reforzar la necesidad de que otorguen su consentimiento.
Mostrar más

5 Lee mas

Diseño de datos: del big-data al urbanismo

Diseño de datos: del big-data al urbanismo

En la actualidad, los datos han dejado de ser estáticos y se han convertido en flujos dinámicos de paso de información. Se comportan como un fluido de corriente incesante en el que el dato en sí mismo es despreciable, y es el mismo flujo el que debe ser traducido. Para entender mejor la cantidad y la dimensión de los datos, la empresa americana de Domo (2018) especializada en visualización de datos e inteligencia empresarial, ha hecho un estudio en el que muestra que cada 60 segundos que pasan en el planeta, en Amazon se envían mil cien paquetes, en Netflix se visualizan 97 mil horas de vídeo, en Google se realizan 3,9 millones de búsquedas y en Youtube se visualizan 4,3 millones de vídeos. Precisamente por estas magnitudes, el diseño de datos se presenta como una herramienta necesaria para dar una significación y orden a estos inmensos volúmenes de macrodatos generados. Aunque el diseño de datos lleva mucho tiempo aplicándose en diferentes campos, ahora más que nunca está indagando y experimentando sobre nuevos escenarios y sus posibles aplicaciones. Como ya hemos mencionado en el párrafo anterior, si los datos se comportan como un fluido, el diseño de datos no solo debe representar estos flujos de datos, sino también debe esforzarse en mostrar patrones y tendencias, y relacionarlas con el entorno. Debe expresar las relaciones dinámicas inherentes en el big data dándoles forma y significado. Según Ben Willers (2015) diseñador de datos en Reino Unido, es importante seleccionar los datos a mostrar y la forma en la que se van a mostrar, para ser capaces de comunicar los descubrimientos sin necesidad de una exposición. Para él se trata de demostrar como las visualizaciones no solo dan significado a los datos de una manera gráfica, sino que también deben crear un lenguaje visual capaz de comunicar por si mismo. “Uno de los grandes retos a los que me enfrento en mi trabajo es encontrar un equilibrio entre no simplificar la riqueza de los datos en conjunto y al mismo tiempo, mostrar los datos de una manera
Mostrar más

36 Lee mas

Big Data El Valor de Los Datos

Big Data El Valor de Los Datos

Jon Ander Gómez Adrián DEPARTAMENTO DE SISTEMAS INFORMÁTICOS Y COMPUTACIÓN. UNIVERSIDAD POLITÉCNICA DE VALENCIA. El término anglosajón Big Data nos permite dar nombre a la revolución tecnológica que actualmente vivimos respecto a la gestión de los datos. Revolución que es debida, en su mayor parte, al crecimiento exponencial de los datos a medida que avanza el tiempo. Sin embargo, el disponer cada vez de mayores volúmenes de datos nos ha hecho ver que tener datos ya no es sinónimo de poseer información. Máxime cuando éstos no están siempre estructurados ni mucho menos expresados siguiendo reglas fácilmente deducibles. Pensemos en las redes sociales, los datos allí generados suelen estar expresados en lenguaje natural y sin respetar ninguna sintaxis. Este sería un ejemplo de que la extracción de información es una tarea ardua.
Mostrar más

80 Lee mas

La relación del Periodismo de Datos con Big Data y Open Data

La relación del Periodismo de Datos con Big Data y Open Data

De todas maneras, para los analistas de Gartner, BigData es un tema complejo pero el verdadero problema está en encontrarle sentido a tanta información y en buscar patrones que ayuden a las organizaciones a tomar mejores decisiones. Y, así como The Economist o Google con Think Quarterly no fueron ni los primeros medios relevantes ni los únicos en centrarse en Big Data como un tema actual y preponderante, previamente ya había habido otros indicios como el de la revista “Wired”. Esta, en su número de julio de 2008 habló de la “Era del Petabyte”, enfocada a destacar el potencial de la lectura matemática y estadística de los datos, sin importar el ámbito de su aplicación pues es la cantidad de información lo que hace la diferencia. Es en ese sentido que BigData permite una nueva forma de investigación en la que los números hablan por sí mismos: “La nueva disponibilidad de grandes volúmenes de datos junto con las herramientas estadísticas de hacer cálculos de estas cifras ofrece una nueva forma de entender el mundo”. Se refiere a la aplicación de algoritmos tan solo sea para descifrar tendencias y costumbres de los usuarios, por ejemplo.
Mostrar más

64 Lee mas

Blockhain la nueva base de datos no SQL en BIG Data

Blockhain la nueva base de datos no SQL en BIG Data

Como los grandes datos permiten el modelado predictivo de más y más procesos de la realidad, la tecnología blockchain podría ayudar a convertir la predicción en acción. La tecnología Blockchain podría unirse con grandes datos, en capas sobre la transformación reactiva-predictiva que está lentamente en marcha en la ciencia de los grandes datos para permitir el funcionamiento automatizado de grandes áreas de tareas a través de contratos inteligentes y la economía. El análisis predictivo de Big Data podría coincidir perfectamente con la ejecución automática de contratos inteligentes. Podríamos lograr esto específicamente agregando tecnología de bloque de bloques como la capa de pagos económicos incrustados y la herramienta para la administración de cuantos, implementada a través de contratos inteligentes automatizados, Dapps, DAOs y DACs. La operación automatizada de enormes clases de tareas podría aliviar a los humanos porque las tareas serían manejadas por un sistema de computación universal, descentralizado y distribuido a nivel mundial (Swan, 2015).
Mostrar más

32 Lee mas

Show all 10000 documents...