• No se han encontrado resultados

Big data in the audit process

N/A
N/A
Protected

Academic year: 2021

Share "Big data in the audit process"

Copied!
33
0
0

Texto completo

(1)

Big data in the audit process

El mundo empresarial actual se enfrenta a más retos que nunca a la hora de propulsar una cultura corporativa consciente de los riesgos con los que conviven y establecer una gobernanza y controles sólidos encargados de detectar y reducir el nivel de dichos riesgos.

En los últimos años se han vuelto muy populares los términos

Big Data y Analytics. Muchas empresas consideran crucial

incorporar dichos conceptos en su día a día, con el objetivo de mantener una agilidad, en la ejecución de todos sus procesos de negocio, competitiva y a su vez rentable [1]. El gran volumen, la variedad y la velocidad a la que se gestionan los datos presentan una serie de retos tecnológicos en cuanto a seguridad, almacenamiento y análisis de los mismos. El uso de Big Data plantea una serie de nuevos riesgos para las organizaciones, siendo la auditoría interna la responsable de su gestión. En primer lugar, ¿cómo pueden las organizaciones garantizar que los datos se almacenan de forma segura? Las brechas de datos no son algo nuevo, no pasa una semana sin incidencias sobre la pérdida de datos de un cliente. Pero la pérdida de un gran volumen de datos sobre un cliente o una serie de clientes podría suponer la pérdida masiva de confianza de sus clientes.

Esto conduce a preguntas sobre privacidad. ¿Qué volumen de datos es demasiado peligroso almacenar? ¿Son conscientes los clientes del volumen y la complejidad de los datos que se están recopilando y han dado su consentimiento? Todos n o s o t r o s , a l d e s c a r g a r c u a l q u i e r a p l i c a c i ó n e n nuestro smartphone, le damos permiso para recopilar una amplia variedad de información. La forma en que se utiliza esta información no siempre es tan evidente.

(2)

relación con las habilidades que se requieren de ellos. Los auditores internos que trabajan con Big Data requerirán conocimientos de análisis de datos, modelado estadístico y seguridad de TI para proporcionar seguridad en esta área [2]. También se requerirá que los auditores internos trabajen en estrecha colaboración con el director de información de la organización para identificar claramente los riesgos asociados a la recolección, almacenamiento, análisis y seguridad de los datos.

El Big Data es un área de riesgo emergente que los auditores internos deben adoptar para satisfacer las nuevas expectativas que se les imponen. Pero superar dichos retos supone adquirir unos conocimientos que pueden ser aprovechados para mejorar la toma de decisiones y acciones y ayudar a priorizar los recursos disponibles con el objetivo de añadir valor estratégico a la empresa.

Para poder mantener este ritmo en el panorama cada vez más complicado de la gestión de riesgos y la gobernanza, las empresas de auditoría externa y las funciones de auditoría interna están empezando a utilizar la tecnología para revolucionar la forma en la que se realizan las auditorías. Tanto auditores internos como externos están combinando Big Data y Analytics, obteniendo un acceso a un volumen de información detallada muchísimo más grande de la empresa, con el objetivo de ayudarles a entender mejor el negocio, identificar los riesgos y los problemas, y ofrecer una mejor calidad y cobertura, mientras que proporcionan más valor de negocio.

La información que puede ser relevante para el consejo de dirección de una empresa ahora se extiende mucho más allá de los datos transaccionales financieros tradicionales contenidos en los libros de contabilidad de una empresa y se extienden a datos de correo electrónico, medios sociales, video, voz y textos. La información obtenida de estos datos puede y debe

(3)

extenderse más allá de la evaluación del riesgo. Utilizando criterios predefinidos determinados en colaboración con otros departamentos, el uso de Big Data podría señalar transacciones específicas de grandes volúmenes de datos para investigar posibles casos de fraude.

Un hito esencial y vital para las empresas es la capacidad de rendir rápidamente y actuar rápidamente sobre las ideas clave obtenidas de fuentes aparentemente dispares de datos. Las empresas capaces de maximizar el valor de todos sus datos (por ejemplo, transacciones, interacciones, observaciones) y fuentes externas de datos se ponen en condiciones de impulsar más negocios, mejorar la productividad o descubrir oportunidades nuevas de negocio [3].

Las técnicas emergentes permiten a los auditores sacar conclusiones clave de un amplio rango y una gran cantidad de fuentes de datos (internas y externas). Estas conclusiones o ideas pueden reflejar cambios en el perfil de riesgo general, nuevos factores de riesgo para la empresa y factores de riesgo internos específicos tales como representaciones erróneas significativas de la información financiera, riesgo de fraude y riesgo de seguridad.

La integración de los análisis en las auditorías no está exenta de desafíos. El acceso a los datos relevantes de auditoría puede ser limitado, además la disponibilidad de recursos cualificados y experimentados para procesar y analizar los datos son escasos, y, por consiguiente, la integración oportuna de los análisis en la auditoría continúa siendo un reto para los auditores. Sin embargo, con el paso del tiempo se están consiguiendo grandes avances, permitiendo que cada vez más la figura de analítico pueda apoyar a los auditores internos a actuar como asesores estratégico, manteniendo la línea en el costo o incluso reducirlo. El análisis de datos para producir información potencialmente analizable es un reto y una oportunidad clave para las empresas. La utilización adecuada de esta información será la

(4)

clave que diferencie a las empresas.

REFERENCIAS:

[1] Big data and analytics in the audit process – EY

[2] Big data: implications for internal audit – Audit & Risk [3] What Is Big Data and What Does It Have to Do With IT Audit? – Isaca

Securing Big Data, security

controls

La tecnología ha evolucionado, y los intereses de las personas que la utilizan también. La motivación de los delincuentes cibernéticos ya no es la fama o el vandalismo, su motivación actual persigue fines económicos, y del mismo modo que ha evolucionado su motivación, también han evolucionado las herramientas que dedican para llevar a cabo el fraude. Las defensas de seguridad tradicionales no están preparadas para mitigar amenazas tan avanzadas y por lo tanto es necesario ponerse a la altura de la amenaza y comenzar a utilizar herramientas más potentes y preparadas, comenzar a utilizar Big Data para controlar el riesgo de fraude en los sistemas. En el control del riesgo del fraude, el Big Data puede ayudarnos durante todas las etapas del proceso, es decir, puede ayudarnos antes de producirse el incidente, durante el incidente y una vez que el incidente ha sido reducido.

(5)

dedicar recursos para detectarlas y reducirlas, es necesario poder conocer el entorno sobre el que vamos a trabajar. Es decir, es necesario familiarizarse con todos los tipos de comunicaciones usuales para que la detección de comunicaciones inusuales se convierta en un trabajo más sencillo y ágil.

Además, llevar a cabo un estudio exhaustivo del entorno nos permitirá identificar con mayor facilidad qué ubicaciones poseen un mayor riesgo de fraude, categorizar dichos niveles de riesgo y por lo tanto poder establecer de una forma óptima el uso de recursos en cada caso.

U n a v e z q u e l a a m e n a z a c o m i e n z a , g r a c i a s a e s t a s comunicaciones inusuales se podrá detectar la amenaza lo antes posible y ponerla en cuarentena, estableciendo un control sobre todos los dispositivos comprometidos.

Por último, una vez que la amenaza ha sido reducida, es necesario verificar que realmente ha desaparecido el riesgo de dicha amenaza y a continuación determinar el alcance del daño sufrido.

Además, el uso de Big Data nos va a permitir analizar una incidencia hasta su origen. De este modo podremos comprender exactamente qué ha ocurrido y cómo ha ocurrido, con el objetivo de establecer nuevos controles que permiten reducir o detectar con anterioridad dicho riesgo.

(6)

¿ Q u é controles? V a r i a s organizacio n e s describen y d e f i n e n diferentes c o n t r o l e s d e seguridad. E l i n s t i t u t o S A N S proporciona una lista de controles de seguridad [1] a tener en cuenta.

En la clasificación «muy efectiva», el cifrado (40%) ocupa el segundo lugar en los firewalls de aplicaciones basados en host y en IDS, con un 46%. Este ranking también indica que las defensas perimetrales siguen siendo una tecnología vital para monitorear los datos y las comunicaciones entrantes y salientes.

¿Por qué controlar? Para verificar el cumplimiento de políticas. Todos los dispositivos de una empresa son objetivos potenciales de ataques externos, y, por lo tanto, poseen un nivel alto de riesgo en la gestión del fraude. Por lo tanto, es necesario que una empresa controle los flujos de comunicación permitidos desde cada dispositivo interno, y aunque para los usuarios de dichos dispositivos estas medidas sean consideradas métodos para controlar su trabajo, en realidad lo que se pretende es reducir el riesgo de ataque sobre dichos dispositivos. A estas políticas de control se las conoce como políticas de uso aceptable, u originalmente

acceptable-use policies (AUPs) [2].

(7)

cumplir las AUPs. Al disponer de un acceso mayor a la información, disponemos de una mayor fuente de datos sobre la que trabajar y poder detectar aquellos casos en los que no se están cumpliendo las políticas establecidas y, en definitiva, reacondicionar los controles correspondientes y poder reducir el riesgo.

¿Control es igual a garantía de seguridad? A pesar de que los sistemas de control se actualizan con periodicidad, nada puede garantizarnos que no hemos sido vulnerados en el periodo de tiempo que transcurre desde que se detecta un nuevo tipo de amenaza hasta que nuestra herramienta de detección se actualiza con las nuevas políticas de controles. Por este mismo motivo, debido a que las herramientas de Big Data nos permiten, como veíamos anteriormente, supervisar y registrar todos los flujos de información generados en una empresa, podemos reproducir dichos flujos una vez que tengamos las herramientas de detección estén actualizadas con los nuevos controles de riesgo.

La clave para entender y gestionar la seguridad en la implementación de un sistema de Big Data no es el control de protocolos específicos o la protección de ciertas técnicas, sino una conciencia general y la capacidad de comprender y controlar el movimiento y el uso de datos al nivel más alto. Este nivel requiere una nueva mentalidad en torno a la seguridad, implementando medidas de seguridad centradas en datos, no sólo firewalls. Además, en algunos casos, puede que no haya una forma tradicional de detectar un ataque porque toda la aplicación de Big Data es demasiado nueva para que el personal de seguridad entienda lo que constituye un comportamiento normal, un flujo de datos usual.

Los profesionales de la seguridad necesitan comprender la analítica y la automatización que se está aplicando para determinar la mejor manera de proteger el gran volumen

(8)

de datos de la empresa, para seguir evolucionando en herramientas, técnicas y mejores prácticas y permitir un gran análisis de datos sin comprometerlos en el proceso.

REFERENCIAS:

[1] Enabling Big Data by Removing Security and Compliance … – SANS

[ 2 ] B i g D a t a S e c u r i t y B l u e C o a t S e c o n d E d i t i o n – ITBusinessBook

Big Data, Less Fraud

Recordemos, días atrás, como hablábamos de lo expuestas que se encuentran las empresas hoy en día a diferentes tipos de fraude. A pesar del uso de tecnologías tradicionales para la detección y reducción del riesgo de fraude, la evolución tecnológica con la que convivimos ha derivado en que dichas tecnologías sean insuficientes y sea necesario el uso de tecnologías más potentes para dicha tarea, como es el uso del Big Data.

A continuación, veremos los casos de uso más habituales, en los que el uso de tecnologías de Big Data consigue dar una mejor respuesta frente a tecnologías de control más tradicionales [1].

Respuesta a incidentes y análisis forense

Cada segundo que pasa desde que una amenaza es detectada hasta que se controla su efecto puede suponer grandes pérdidas de información o un mayor número de sistemas comprometidos.

(9)

Debido al gran impacto que supone este riesgo, el control encargado de dar respuesta a los distintos eventos fraudulentos que se detectan se ha convertido uno de los casos de uso más populares y requeridos por las distintas compañías. Es crítico garantizar que una amenaza de fraude, una vez detectada, no continúe y además no pueda volver a ocurrir. Para ello es necesario poder determinar el origen del problema de seguridad, y para dicha tarea el Big Data, a diferencia de otras herramientas de seguridad de red tradicionales, nos permite hacer un seguimiento, mediante la impresión digital de archivos y búsqueda global de datos en la red, de la ruta seguida por dicha amenaza.

Por otro lado, además de conocer el origen del problema, es crucial poder conocer si la amenaza de fraude todavía persiste en el sistema. Para ello, mediante la supervisión de las conexiones entre los distintos equipos y las conexiones de red externas, podemos conocer el estado de la situación en tiempo real.

Por último, una herramienta Big Data puede proporcionarte evidencias digitales sobre el fraude sufrido, pudiendo ser utilizadas legalmente frente a un juzgado para denunciar el acto, siempre y cuando seamos capaces de identificar al culpable previamente. Esto me recuerda una conferencia a la que asistí sobre ciberseguridad, en la cual se dejaba de manifiesto que las empresas, hoy en día, debido a la gran cantidad de amenazas sufridas a diario, no tienen capacidad ni

(10)

tiempo para poder denunciarlas ni recabar las pruebas necesarias para ello. En la actualidad su trabajo se limita a detectar y bloquear amenazas, convirtiendo el riesgo de fraude como una amenaza que no hace más que crecer debido a que no se reduce en su origen, en el infractor.

Tener conciencia de la situación

Como hemos mencionado antes, las empresas, hoy en día, no tienen tiempo para gestionar todos los r i e s g o s d e f r a u d e e n s u totalidad, sino que su labor, en la mayor parte de los casos, se limita a detectarlos y anularlos, sin llegar a indagar con más profundidad. En muchas ocasiones esta tarea se limita a detectar el fraude y anularlo, sin llegar a determinar, por falta de conocimiento, si realmente era necesario reducirlo. Por ejemplo, en muchas ocasiones se pueden detectar acciones de fraude que van encaminadas a unas plataformas concretas, y en caso de no poseer dichas plataformas dichas amenazas no suponen un riesgo. Pero aún así, debido a la falta de conocimiento sobre las amenazas hace que dediquemos esfuerzos a reducir riesgos innecesarios. Y en este punto es donde, el Big Data, permite recoger una cantidad mayor de información sobre la amenaza y su ubicación para poder tomar decisiones sobre qué incidentes poseen un mayor nivel de riesgo y, por lo tanto, deben ser priorizados.

Monitorización y análisis de pérdida de datos

Como mencionábamos anteriormente, las acciones fraudulentas sobre los sistemas controlados se producen a un ritmo constante. Según el informe del Ponemon Institute [2], el coste promedio de una violación de datos en 2014 fue de $ 3.8 millones. El trabajo de análisis y gestión sobre los datos, tras una infracción de fraude, supone la parte más costosa del proceso, y este coste está directamente relacionado con la

(11)

cantidad y el tipo de información comprometida, y todo esto siempre y cuando conozcamos esta información, porque el problema real de las empresas hoy en día es que las herramientas que utilizan para llevar a cabo esta labor no tiene la capacidad para ello, y por lo tanto el coste de dicha labor es exponencialmente mayor.

Gracias al uso de Big Data, evitamos esta situación de desconocimiento, debido a que se garantiza que todos los flujos de información dentro y fuera de la empresa son supervisados y registrados. El conocimiento de estos flujos de información, además, permite elaborar políticas que permiten analizar y almacenar datos potencialmente delicados para prevenir su pérdida. Por último, y no menos importante, nos va a permitir analizar los flujos de información tanto usuales como inusuales para poder localizar patrones que ayuden a la elaboración de los controles.

Como hemos podido ver, el uso de herramientas que se sustentan en el concepto de Big Data aportan un valor añadido a herramientas más tradicionales para el control de riesgos de fraude. La tecnología evoluciona, el volumen de datos con el que trabajamos se ve incrementado y por lo tanto, necesitamos herramientas a la altura, herramientas capaces de gestionar y analizar grandes volúmenes de información para poder establecer unos controles adecuados. Vivimos en una evolución constante y vivir en el pasado supone morir en el presente; al fin y al cabo, quien hace la ley hace la trampa.

(12)

REFERENCIAS:

[ 1 ] B i g D a t a S e c u r i t y B l u e C o a t S e c o n d E d i t i o n – ITBusinessBook

[2] Ponemon Study Shows the …

Big Risks, Big Data

Volvemos tras unas semanas de descanso, y como no podía ser de otra manera, volvemos hablando sobre Big Data, este concepto que está en la lengua de cualquier ejecutivo de una empresa que esté al acecho de nuevas oportunidades para la mejora de su negocio.

Recordemos, aunque os invito a sumergiros en las palabras de mi anterior artículo, ese océano de datos sin descubrir, ese rastro de huellas interminable que sería capaz de llevarnos al éxito siempre y cuando seamos capaces de interpretarlo, porque los datos por sí solos no sirven para nada. Lo verdaderamente importante es el conocimiento que se puede extraer a partir de dichos datos, y es aquí donde entra en juego el big data.

Vivimos en una sociedad donde las palabras fraude y corrupción no nos resultan desconocidas, ni para las personas ni para las organizaciones, y es que para estas últimas, precisamente, el fraude representa aproximadamente el cinco por ciento de los

(13)

ingresos perdidos [1]. Las compañías buscan crecer en mercados con altos niveles de percepción de riesgo de fraude, sobornos y corrupción e intentar evaluar los peligros y riesgos que esto supone se ha convertido en uno de los mayores desafíos para las

empresas. Con el paso de los años, el concepto de Big Data ha ido abriéndose camino en aspectos relacionados con la gestión del riesgo de fraude, auditoría interna y control; y es precisamente con este concepto con el que se pretende minimizar, e incluso evitar, los impactos que este tipo de riesgo acarrea.

Cabe destacar que, a pesar de que la gestión del fraude se basa en la detección y prevención, alrededor del cincuenta por ciento [2] de dichas conductas fraudulentas se detectan por accidente cuando la pérdida ya ha sucedido. Y aunque la pérdida económica puede suponer un gran contratiempo, la pérdida de reputación y fidelidad por parte de los clientes, en muchas ocasiones, supone un riesgo mucho más importante. La evolución tecnológica ha permitido que aumenten tanto los canales de comunicación que utilizan los distintos procesos como el volumen de datos que se gestionan en cada proceso y que se almacenan, y por lo tanto ha permitido que el riesgo de fraude sobre dichos procesos o datos se vea incrementado. Una empresa que no cuente con controles internos y medidas de seguridad habilitadas para tal efecto corre el riesgo de que sea incapaz de identificar efectivamente irregularidades como pagos no autorizados, sobornos, fraude de adquisiciones, lavado de dinero, etc.

(14)

Aun así, a pesar de contar con los controles adecuados, tales como el monitoreo de la conducta, el análisis de redes, el reconocimiento de patrones y la elaboración de perfiles, todos ellos controles de prevención probados y confiables [3], no son suficientes.

Pero la evolución tecnológica no solamente ha favorecido al aumento del alcance y potencial de los riesgos, sino que también ha aumentado el potencial de las herramientas disponibles para su control, y precisamente, cinco años atrás, empezó a cobrar fuerza la minería de datos, pudiéndole dar un enfoque analítico. Un enfoque que permitiría desenterrar patrones, tendencias, asociaciones, conexiones del comportamiento humano para prevenir el fraude.

Esta capacidad de acceder y analizar en tiempo real a enormes volúmenes de datos permite la creación de controles para la gestión del riesgo. Estos controles se deben centrar en las conductas habituales con el objetivo de poder detectar las conductas inusuales. De este modo, un sistema de controles adecuado pero flexible, será capaz de predecir situaciones sospechosas antes de que sea demasiado tarde. Y digo flexible porque un sistema de fraudes en tiempo real no debe interrumpir los servicios, ya que afectaría de forma negativa sobre la experiencia del cliente final, sino que debe consistir en una serie de controles que ayuden a optimizar la evaluación de escenarios de fraude y reducir el riesgo a través de métodos predictivos en segundo plano.

(15)

A pesar de que el Big Data ayuda a las empresas en multitud de áreas, es precisamente en la gestión de fraudes tanto internos como externos donde mayores beneficios se consiguen. Sobre todo en empresas del sector financiero, sanidad o gobiernos donde los datos que se gestionan tienen un carácter crítico y su pérdida o manipulación supone un riesgo demasiado importante.

Muchas empresas, actualmente, han optado por el uso de herramientas de análisis de datos con el objetivo de evaluar cualquier actividad inusual en sus procesos y prevenir el fraude externo e interno, evaluando fraudes anteriores o escenarios que favorezcan nuevos casos de fraudes.

Cómo hemos mencionado antes, el beneficio obtenido por una gestión de controles adecuada en la gestión del riesgo de fraude se deriva en una reducción notable en la pérdida de ingresos y en una fidelización de los clientes, demostrando la capacidad necesaria para proteger los activos que se posee. Y a pesar de que la evolución tecnológica favorece la aparición de nuevas trampas e ilegalidades, también favorece la capacidad para su detección y prevención.

REFERENCIAS:

[1] Big Data System for Analyzing Risky Procurement Entities, consultado el 20 de Noviembre de 2016.

[2] Fraud prevention, starring big data analytics | Graydon UK, consultado el 21 de Noviembre de 2016.

[3] Los grandes riesgos requieren pensamiento Big Data – EY, consultado el 20 de Noviembre de 2016.

(16)

Big Data … ¿es realmente un

concepto nuevo?

Lo primero que nos podría venir a la cabeza, a la hora de hablar sobre Big Data, son grandes empresas con sus herramientas de Business Intelligence, utilizadas para la toma de decisiones. Podríamos pensar que el Big Data no es algo que forme parte de nuestro día a día, que es algo relacionado con el mundo empresarial, ajeno a estudiantes o trabajadores que no ostenten un cargo elevado dentro de su organización.

Nada más lejos de la realidad, el Big Data es un concepto que define una realidad que ha convivido con nosotros desde el momento en el que nacemos. Estoy hablando del hecho de que todos nosotros, en el momento de tomar una decisión, analizamos el entorno que afecta a dicha decisión. Variables como el tiempo que dedicamos a analizar dicho entorno, o la cantidad de datos distintos que analizamos sobre dicho entorno, nos llevará finalmente a tomar una decisión u otra. Y os estoy hablando de decisiones tan comunes y cercanas a nosotros como pueden ser la elección de vestimenta para un evento concreto o la elección del desayuno que tomamos cada

(17)

mañana.

Sumado a este hecho, otra de las realidades con las que convivimos es la rapidez. ¡Vivimos en una época en la que las prisas nos comen! Vivimos estresados, y cada vez más, y no tenemos ganas de perder nuestro bien más preciado, el tiempo. Hoy en día nuestra mayor preocupación es cómo tomamos decisiones, queremos tomar la mejor decisión en el menor tiempo posible. ¿Vísteme despacio, que tengo prisa? ¡Eso es agua pasada! La evolución tecnológica pone a nuestro alcance herramientas que nos permiten tomar cualquier decisión en tiempos cada vez más reducidos.

No olvidemos que las empresas la forman personas como nosotros, y por eso mismo, toda empresa comparte las mismas realidades que los usuarios que la forman… ¡tomar decisiones correctas en franjas de tiempo mínimas! Pero para ello se necesita información, y no cualquier información, sino aquella que esté directamente relacionada con los productos y servicios que ofrece… Los consumidores, sus clientes, es decir, nosotros. Nos desconcertaría saber lo que las grandes plataformas de internet saben de cada uno de nosotros: Google, Facebook, Amazon, Twitter, WhatsApp, Linkedin, Tripadvisor, … Hay quien dice que somos sus esclavos y su producto. En realidad lo que van conociendo de nosotros les permite definir y ajustar su plan estratégico. Esa es su gran ventaja estratégica: cómo captan la información, la organizan, la

(18)

modelizan y la convierten en productos.

Esto me hace recordar, a raíz del revuelo que se montó por las distintas filtraciones de información desde varias redes sociales conocidas, una conversación que mantuve con una de mis amistades. Esta persona estaba muy preocupada por el hecho de que distintas empresas pudieran acceder al contenido de sus conversaciones. Pero, ¿realmente es lo único de lo que debemos preocuparnos? Me parecería muy inocente, por nuestra parte, creer que lo único que analizarían en este caso, sea el contenido de la conversación.

¿Recordáis el cuento de Hansel y Gretel? Dos hermanos que dejan un rastro de migas de pan en el bosque para saber volver a casa. Pues así somos nosotros, la diferencia es que nosotros no tiramos las migas intencionadamente, se nos caen del bolsillo sin saberlo.

Desde el primer momento que accedemos a Internet vamos dejando nuestro rastro sin saberlo, y por lo tanto dicho rastro puede ser utilizado para que terceros puedan analizar todos nuestros movimientos en la red y obtener información sobre ello. Información que proporcionará conocimiento sobre nuestros hábitos de consumo, de salud, sociales, … sobre todos los aspectos de nuestra vida. Estas pequeñas migas de pan

(19)

digitales pueden otorgar una ventaja competitiva fundamental a aquellos que la sepan explotar.

Vivimos en una sociedad donde las empresas, al fin, han entendido que los clientes y consumidores somos el núcleo de su negocio, y por ello mismo han tomado medidas. Han cambiado su estrategia, han dejado de centrarse en trabajar sobre sus productos para centrarse en estudiar a sus clientes, a las personas. Nos han convertido en su nuevo producto.

La información que poseen las empresas sobre nosotros crece cada día que pasa, nuestro contacto con la tecnología no hace más que aumentar su banco de información, llegando a conocer todos los aspectos de nuestra vida. No creo que deba alarmarnos que una empresa conozca el contenido de una de nuestras conversaciones, ni que conozca qué ropa hemos comprado el último mes, ni las estadísticas de la última vez que salimos a correr. Lo que me preocupa, y me asusta, es que el día de mañana, una empresa posea tanta información sobre uno de nosotros que sea capaz de responder a cuestiones como … ¿qué nos hace felices?, ¿qué deseamos hacer con nuestro tiempo libre?, ¿con quién queremos pasar nuestra vida?, … y dar una respuesta más acertada de la que daríamos nosotros mismos. Ese día, la imagen de mi madre sujetando con la mano su zapatilla mientras nos perseguía a mi hermana y a mí por casa, no me parecerá tan terrorífica.

Business Intelligence, mucho

más que un «Buzz»

El término de Buzz es un neologismo acuñado en la era de la web 2.0 y es una palabra onomatopéyica que trae a la mente el

(20)

zumbido de un grupo de abejas y tiene el significado de indicar el ruido, la “charla” que las redes sociales y más generalmente, la red, puede generar sobre un tema, a través del boca a boca.

B u z z e s p o r l o t a n t o “compartir, el intercambio de opiniones e información”.

Cuando un término técnico entra en “buzz” ocurre que las definiciones cambian y el significado real se puede perder. Este es probablemente el caso del término “Business Intelligence”, o BI. Desde que se acuñó, las nuevas tecnologías han ampliado enormemente nuestra comprensión de BI y cómo las empresas pueden obtener ventajas de sus datos y su representación.

El papel de las TI en los negocios ha cambiado radicalmente en los últimos años, gracias al auge de los datos disponibles junto con proporcionar la infraestructura tecnológica, ya no es suficiente para poner en práctica una estrategia.

En este contexto, el término “Business Intelligence” se ha convertido en mucho más que un simple “Buzz”: es un concepto que expresa la necesidad de pensar más allá del paradigma de análisis de datos aislados de los objetivos de negocio. De hecho, con la tecnología de BI, el negocio debe integrarse en un mismo conjunto armonioso de operaciones, de manera que los valores de la empresa puedan guiar la TI, proporcionando información útil para ayudar a la empresa en su crecimiento.

(21)

El “Business Intelligence” se compone de dos conceptos d i f e r e n t e s , p e r o complementarios.

El primero es el concepto de negocio. ¿Cómo puede una información maximizar la eficiencia y la productividad de

una empresa para desarrollar nuevos productos y servicios?

La segunda es la estrategia de TI. ¿Cuáles son las mejores soluciones tecnológicas para implementar y obtener valor de negocio?

Adaptar los datos de mapeo a las necesidades del negocio siempre ha sido difícil y muchas empresas tienen una gran dificultad para evaluar exactamente cuál es la información que necesita para lograr objetivos específicos. Este tipo de análisis de negocio requiere claridad de visión y objetivos. En el pasado, los proyectos de BI estaban limitados por la tecnología para recopilar información disponible. Pero las nuevas tecnologías, tales como Big Data, “fast data”, el análisis, la movilidad y el cloud computing, ya pueden adquirir las continuas corrientes enormes y detalladas de datos, relativamente fácil y cómodamente.

El papel del BI es ahora reunir y dar sentido a todos los datos.

(22)

Grandes planes para grandes

datos!

Las organizaciones inteligentes siempre han confiado en los datos para tomar decisiones estratégicas de negocios. Sin embargo, “los grandes datos ” tiene sus retos que deben abordarse antes de que puedan tener un impacto real.

El término “grande datos” se ha convertido en un algo expansivo que lo abarca todo. Aparentemente, tiene tantas definiciones como aplicaciones. Entonces, ¿qué quiere decir exactamente “grandes datos”, y que significa para las empresas y la normalización?

Jim Melton es un experto autorizado y escritor en el área sobre el lenguaje de base de datos. Preside el ISO/IEC JTC 1/SC 32 sobre gestión de datos e intercambio y cuenta con más de 25 años de experiencia. El Dr. Klaus-Peter Eckert es un colaborador científico del Instituto Fraunhofer de Sistemas de Comunicación Abierta. Durante más de 30 años, ha estado involucrado en proyectos relacionados con la interoperabilidad y plataformas de aplicaciones y servicios distribuidos. ¿Cómo definimos los datos? Aunque me he encontrado con varias descripciones , aquí transcribo la definición de una frase del libro “ The Ethics of Big Data” que me gustaría usar para entrar en el tema: “Este aspecto de la tecnología es único, ya que su propia naturaleza (su esencia) es crear, conectar, correlacionar, agregar, almacenar, procesar e informar sobre cantidades masivas de información.” Para hacerlo más simple, los grandes datos representan grandes cantidades de información compleja para tomar decisiones de negocios mejor informadas. Pero, como explican Eckert y Melton, los grandes datos tiene sus propios desafíos arraigados que deben abordarse antes de que puedan tener un impacto real. Los ciegos y los elefantes

(23)

“Hasta hace muy poco, la comunidad global de TI estuvo analizando los grandes datos de la misma manera que los seis hombres ciegos de la fábula que inspeccionaron el elefante ”, dice Melton. Es decir, cada miembro de la comunidad consideró el tema (grande datos) desde una sola perspectiva, a lo sumo un puñado. Pero el significado de los grandes datos, como el elefante, es algo más que las conclusiones que se derivan de todas esas perspectivas combinadas. Es considerablemente más complicado cuando se contempla en su conjunto la suma de sus partes “complejas”. La cantidad de datos que se producen en las empresas comerciales, como las grandes corporaciones, es asombrosa. De acuerdo con un estudio de McKinsey Global Institute sobre grandes datos, el crecimiento proyectado de los datos globales generados por año es de 40%. Sin embargo el

(24)

problema ya no radica en la adquisición de los datos, pero ¿qué hacer con ellos?

“Los grandes datos proporcionan muchos desafíos”, dice Melton. “La retención y la calidad de los datos son sólo dos de ellos, y no necesariamente los más difíciles. El procesamiento de los datos, realizar consultas, analizarlos y resumirlos es bastante difícil. En muchos entornos, la simple descripción de los datos el desarrollo de metadatos para ello será de vital importancia y muy difícil de lograr”. Eckert cree que la ventana de la oportunidad está abierta de par en par desde un punto de vista técnico. Por desgracia, la convergencia de los diferentes enfoques y la interoperabilidad entre las herramientas disponibles todavía es deficiente. “Tenemos varias herramientas alrededor de los grandes datos y el análisis de datos que han sido desarrolladas por las diferentes comunidades en los últimos años. Tenemos diferentes tipos de infraestructuras de TI, especialmente en la computación en la nube, que se han desarrollado de forma independiente de los grandes datos. Así, todos estos bloques de construcción técnicos están disponibles, pero que no encajan. Falta interoperabilidad. Existe una falta de arquitectura ampliamente acordada que reúna los varios componentes de soluciones de los grandes datos. Y aquí es exactamente donde los esfuerzos de la normalización entran en juego”.

Tanto Melton como Eckert creen que la complejidad de los grandes datos y las interacciones entre muchos dominios requieren mayor análisis. Esta es precisamente la misión del Grupo de Estudio ISO/IEC JTC 1. Mapeo de las complejidades Se espera que el Grupo de Estudio de reciente creación pueda dar una imagen mucho más clara de todo el alcance de los problemas, incluidas las cuestiones éticas graves, tales como si ciertos usos de los grandes datos violan los derechos civiles, sociales, políticos y jurídicos fundamentales. El resultado final será una o más recomendaciones al JTC 1

(25)

referentes a la asignación de proyectos a sus subcomités, momento en el cual el desarrollo de normas formales comenzará en serio.

El desarrollo de normas en este laberinto de complejidades de l o s g r a n d e s d a t o s c r e a r á u n a p l a t a f o r m a p a r a l a interoperabilidad.

‘Regalando’ datos

Cuando Edward Snowden sacó a la luz documentos clasificados sobre los programas de vigilancia llevados a cabo por la NSA, la mayoría de la gente crítico que los gobiernos recolectasen datos e información personal sin consentimiento. Sin embargo, no necesitan mucho esfuerzo para conseguirlos. La NSA no

escuchaba las conversaciones ni leía los documentos de textos, simplemente recogían los metadatos, datos que

permiten describir datos como el lugar y la fecha en la que se hizo una foto.

Hoy en día, compartimos los datos de nuestra vida privada en redes sociales, con aplicaciones que muestran el recorrido que realizamos mientras hacemos deporte o simplemente permitiendo que las aplicaciones de nuestro smartphones guarden nuestra localización. Además, instalamos aplicaciones y aceptamos ‘Términos y condiciones de uso» sin informarnos ni

(26)

Permisos que piden las 10 apps de linterna más descargadas en Android

Para comprobar la importancia de los datos y si realmente eran útiles y desvelaban información sobre nuestra vida privada, la Universidad de Stanford realizó un experimento y pidió a 546 voluntarios que se instalaran una app en su teléfono que recopilaría la misma información que, en teoría, la NSA había estado recopilando, como la fecha de la llamada, la duración o el destinatario, sin escuchar ninguna llamada . Los resultados fueron sorprendentes. Se pudo extraer información sobre su religión dependiendo a los centros religiosos que llamaban o sobre las enfermedades gracias a los expertos que consultaron. Además, también relacionaron varias llamadas y pudieron descubrir que una chica estaba embarazada porque realizó una llamada de bastante duración con su hermana a una hora demasiado inusual de la mañana y un par de días después, llamó a un centro de Planificación Familiar, al que volvió a llamar durante diversas ocasiones en las siguientes semanas.

Otro claro ejemplo del peligro de los datos que ofrecemos, sin ser conscientes, en las fotos que publicamos en Internet es ‘I know where your cat lives’

(27)

por Owen Mundy, utiliza los metadatos de más de un millón de fotografías con la etiqueta cat de páginas como Instagram o Flickr y las mapea utilizando las coordenadas geográficas. El objetivo de este experimento era precisamente mostrar el poder de los datos que colgamos de manera inconsciente cada vez que publicamos una foto o realizamos un comentario y como

‘regalamos’ a las empresas nuestra privacidad, ya no solo online sino también física.

Estos ejemplos pueden ser los más claros e impactantes por el conocimiento que pueden llegar a tener sobre nosotros las

empresas, pero no solo en Internet recogen nuestros datos. Hoy en día, todas las empresas tratan (o deberían de tratar)

obtener datos sobre sus clientes, como por ejemplo las tarjetas cliente que ofrecen descuentos, para, a través de herramientas de Big Data, descubrir sus comportamientos y optimizar sus ofertas y productos.

El futuro incierto de la

tecnología

A menudo, los humanos nos solemos preguntar cómo será el futuro que nos espera; cómo será ese futuro que surgirá de las nuevas tecnologías. Si miramos atrás en el tiempo, nos podremos dar cuenta de cómo los avances tecnológicos han influido en el desarrollo de la sociedad y cómo estos avances han provocado también cambios en la sociedad. La tecnología trae consigo muchas comodidades para mejorar la calidad de nuestras vidas pero, a su vez, trae también cambios en la forma en la que nos relacionamos los seres humanos dentro de una sociedad. Por ejemplo, antes de tener teléfonos móviles la forma en la que contactaban unas personas con otras era

(28)

diferente. Por eso, podemos afirmar que los avances tecnológicos afectan de una manera importante a la sociedad. Además, otro de los aspectos que a mí personalmente me preocupa mucho es la viabilidad que pueda tener el futuro tecnológico que nos espera. Es decir, si realmente es sostenible el desarrollo tecnológico a gran escala. Puede que nunca os hayáis preguntado si realmente es viable o no la revolución tecnológica que nos espera. Ahora mismo se habla de Big Data, IoT, Smart Cities… y otra serie de tendencias tecnológicas futuras que se están empezando a implantar. Pero, ¿qué tienen en común todas estas tendencias? La respuesta es sencilla, todas estas tecnologías necesitarían una cantidad inmensa de componentes electrónicos para su puesta en escena. Por ejemplo, para poder tener una Smart City, la ciudad en cuestión tendría que estar compuesta por un ecosistema tecnológico repleto de componentes electrónicos. Por supuesto, cada uno de estos componentes electrónicos contendrían condensadores, resistencias y otro tipo de materiales. El problema que existe en la actualidad en torno a ésto es que para la fabricación de dichos materiales el mineral más utilizado es la tantalita.

Como bien hemos dichos, la principal aplicación de la tantalita es crear condensadores en equipos electrónicos. La ventaja principal de este elemento en los condensadores es que tiene una alta eficiencia volumétrica, que permite reducir el tamaño, tiene una alta fiabilidad y estabilidad en un amplio rango de temperatura (-55 ºC a 125 ºC). Estas características hacen que los condensadores de otros materiales como la cerámica no puedan igualarlo. Sin salir de la electrónica, también se puede aplicar la tantalita para fabricar resistencias de alta potencia.

En este punto os preguntaréis, ¿y cuál es el problema? Si existe un material adecuado para la fabricación de

(29)

condensadores y resistencias, ¿por qué no utilizarlo? La pregunta que yo os recomendaría que os hicieseis es ¿de dónde se obtiene actualmente la tantalita?

La respuesta a esa pregunta es del coltán. El coltán es un mineral compuesto por columbita y tantalita y se explota con la finalidad de poderle extraer la tantalita que haya en él para la fabricación de condensadores y otros componentes electrónicos mencionados anteriormente.

El coltán se extrae de las minas de coltán. Estas minas están en la superficie de la tierra y tienen un difícil acceso. Este es el motivo por el cual se emplean niños para la extracción de dicho mineral, básicamente, porque son los únicos que pueden entrar por dichos agujeros para extraer el material. Como podréis ir viendo, es algo realmente grave e inhumano utilizar niños para explotar minas. Además, se corre el peligro de que por el simple hecho de estar en la superficie de la tierra estas minas se puedan derrumbar con facilidad y los niños se puedan quedar atrapados dentro extrayendo el mineral.

(30)

las reservas de coltán que hay en el mundo se encuentran en la República Democrática del Congo. Como este mineral está considerado como un recurso no renovable altamente estratégico, existe una guerra en el Congo desde 1998 por el control de los yacimientos. Esta guerra, directamente relacionada con la explotación de este mineral, arroja un saldo de más de 5,5 millones de víctimas, lo que supone el mayor número de muertes desde la Segunda Guerra Mundial.

Vista la dependencia que tienen los componentes electrónicos del coltán, como poco podemos pensar que el futuro tecnológico que nos espera es incierto. Es decir, no puede darse un desarrollo tecnológico global con el objetivo de mejorar la calidad de vida de los seres humanos cuando, en realidad, lo que este desarrollo está provocando y alimentando es una guerra que se ha cobrado más de 5.5 millones de victimas. Por eso me parece incierto el futuro tecnológico, porque no se cuál será la forma de sustituir este mineral (tantalita) por otro que no provoque miseria y devastación en el mundo.

Porque, ¿os gustaría vivir un desarrollo tecnológico de la manera en la que se está llevando a cabo en el presente? A mi NO.

Big data o Big….Brother

Hace unos días leía en la revista XLSemanal un artículo relacionado con un tema que nos viene como anillo al dedo. El titular era:

(31)

Pensémoslo 5 segundos. [ . . . ] Seguramente nuestra respuesta, así a bote pronto sería NO. En el trabajo o en cualquier lugar, lo de sentirnos «espiados» no termina de resultarnos cómodos. Pero…

¿tampoco nos sentimos así en las redes sociales, asistentes p e r s o n a l e s , p u l s e r a s d e a c t i v i d a d , d i f e r e n t e s aplicaciones móviles y otras fuentes de captación de nuestra

información? Puede parecer que no pero parándonos a pensar un momento nos daremos cuenta de que estamos bastante más vigilados de lo que seguramente nos gustaría…

Sin embargo, también es cierto que debido a todos los patrones que se identifican con los análisis de Big Data, se pueden llevar a cabo muchísimas prácticas beneficiosas para muchas organizaciones, desde hospitales con sus pacientes hasta recomendaciones personales de cualquier cosa que nos imaginemos. El caso que mostraba el artículo de la revista anteriormente nombrada era p r e c i s a m e n t e u n h o s p i t a l estadounidense en el que los p r o f e s i o n a l e s e s t á n monitorizados en toda su jornada laboral. Todo con unos objetivos claros: minimizar costes. Cada persona lleva un receptor en el que se puede saber en todo momento dónde está, cuánto tiempo pasa en el baño, en la sala de café, etc. Por supuesto, el dispositivo no es para nada obligatorio, aunque todos lo llevan.

Otra parte que me ha parecido curiosa es que Big Data está (o estará aún más) bastante relacionada con recursos humanos de la empresa. A día de hoy, hay aplicaciones que son utilizadas para contratar a los empleados que mediante una entrevista hecha por ordenador de unos 15 minutos, la máquina revela

(32)

informes con información de carácter personal: dotes de mando, preocupaciones, aficionado al riesgo, y otros datos muy interesantes para los jefes de personal. El análisis es llamativo por el hecho de que no se fija en las respuestas dadas, sino en el volumen de la voz, la velocidad del habla, el número de negaciones o lo largas que son sus pausas. Los partidarios del Big Data aseguran que con este tipo de mecanismos y otros parecidos, los despidos y contratos serán más objetivos.

Lo que está claro es que nos movemos en una era en la que Big Data y similares están en auge. Nuestras ciudades y «artilugios» más comunes se están convirtiendo en inteligentes (Smart cities, IoT, …), nuestra información es recopilada para u n a m e j o r e x p e r i e n c i a e n l a r e d , p a r a p r e d e c i r acontecimientos, recomendarnos productos, etc. Podemos sentirnos como si realmente viviésemos en un Gran Hermano global, pero… si nos hace más mal que bien podríamos desconectar nuestros Smartphones, no tener Facebook, no utilizar tarjetas de crédito, … Todo es opcional.

Para finalizar el post y el año os dejo con un artículo en el que se muestra cómo cambiará nuestra vida en los próximos años con unos ejemplos.

(33)

Referencias

Documento similar

Análisis de las características, herramientas, tecnologías y estándares relacionados con Big Data. Sectores que implementan en la actualidad soluciones Big Data en sus

La identificación de relaciones que, a causa de la multitud de circunstancias que acompañan a la acción educativa, no se perciben a simple vista es el argumento

En el siguiente apartado y posteriores incorporamos el sector turístico como objetivo de la gestión del Big Data, el turismo es una rama principal en la economía de nuestro país y

Apache Hadoop es actualmente la herramienta libre más utilizada para el análisis de Big Data, si bien también existen alternativas diseñadas para problemas específicos y, por

Además, durante la realización de este proyecto se ha diseñado y desarrollado un sistema que permite detectar el uso de herramientas de chat mediante el

To analyze the available data quality models in the context of Big Data applications and adapt a quality model from the existing ones which can be applied to specific Big

The k Nearest Neighbors (kNN) [32] algorithm is recognized as one of the top ten most influential algorithms in data mining because of its effectiveness on classification and

From that moment on, more proposals emerged focused on offering more efficient algorithms capable of processing larger sets of time series: the Proximity Forest algorithm [LSP +