Академический Документы
Профессиональный Документы
Культура Документы
Contenido
Por último, se menciona dos casos de éxito de Big Data aplicados en el Perú dentro del
sector de Transporte publico urbano (AATE) y el sector financiero (BCP). Los escenarios
de la aplicación de Big Data tienen una amplia proyección, sin embargo, es importante
citar un informe realizado por IBM y la escuela de negocios de Oxford (2012) el cual nos
da un panorama del avance y aplicación de Big Data en el sector empresarial tomado de
una muestra de 1061 ejecutivos encuestados.
En la imagen 1.1 se observa que el 47% de ejecutivos encuestados manifiesta que en sus
empresas ya existe una comprensión y acciones formales elaboradas respecto a la
Si hablamos de obstáculos o desafíos, podemos citar la imagen 1.2, IBM Institute for
Business Value & Escuela de negocios de la universidad de Oxford (2012). El principal
desafío es que no existe casos de negocio realmente atractivos para poder dirigir una
implementación (transversal a todos los niveles de adopción) a esto se le suma la calidad
de los datos y habilidades técnicas y analíticas requeridas. Se espera que estos
escenarios mejoren con la implementación de más iniciativas.
Durante la primera década del siglo XXI, con la proliferación de equipos tecnológicos
capaces de emitir información hacia internet, la reducción de costos en hardware y la
masificación del acceso a internet ha ocasionado una alta generación de datos de diversa
índole. Ya sea mediante la emisión de información del estado de un equipo (estado de
hardware, información recolectada por sensor), o la interacción que una persona a través
Aunque no existe consenso para definir Big Data, se suele brindar un acercamiento a
través de sus características que año tras año se van sumando inclusive hasta en el
presente año 2019. A inicios del 2011 Adrián Merv, vicepresidente de la consultora
Gartner definía a Big Data mediante las limitantes que se tenían para su procesamiento
en base al hardware y software de la época, una definición similar (en base a las
limitantes) era la brindaba por McKinsey Global Institute. La definición de Big Data en
base a la restricción fue cambiando hacia las características y diversos autores dan como
aceptadas las características denominadas ‘Tres V’: que refieren al Volumen (cantidad),
Velocidad (referente a la creación y tipo de procesamiento) y la Variedad (considerando
las diversas fuentes de emisión), con el tiempo fueron ganando aceptación dos
características adicionales como Veracidad (grado de calidad) y Valor (rentabilidad como
resultado).
Podemos definir a Big Data como el gran volumen de información generadas por diversos
dispositivos y almacenadas en diversos formatos que no pueden ser procesadas por la
tecnología de gestión de bases de datos estructurados.
Big data & Analytics son dos tecnologías emergentes que se complementan mutuamente.
Por un lado, la primera se refiere, por definición, a la recopilación, almacenamiento y
tratamiento de gran cantidad de datos, que cumplen principalmente con las siguientes
características:
Velocidad: Son generados continuamente, cada minuto, segundo e incluso
intervalos menores. A diferencia de las bases de datos tradicionales, estos datos
son generados en todo momento por las distintas fuentes de análisis, tales como
cámaras de video, redes sociales, entre otras.
Volumen: La cantidad es elevada, gigabytes o terabytes de información, que son
generados en tiempos bastante reducidos, y que pueden ser almacenados para su
respectivo tratamiento y análisis.
Variabilidad: Se trata de datos estructurados y no estructurados, los cuales
muchas veces ni siquiera son predecibles. A diferencia de los sistemas de
inteligencia de negocio típicos, en el caso de Big data, no siempre se sabe lo que
se está almacenando, pues mediante tecnología se descubre dicha información.
Veracidad: Los datos son relevantes y sin sesgo en relación con el objetivo del
análisis. Si bien es cierto que se trata de gestionar volúmenes de datos elevados,
se debe verificar que sean relevantes y veraces para el objetivo del estudio.
a) Fuentes: Se trata de los orígenes de los datos. Pueden ser bases de datos,
repositorios de archivos, redes sociales, páginas web, cámaras de video, entre
otras. No necesariamente generan datos estructurados.
b) Capa de almacenamiento: Componentes tecnológicos utilizados para almacenar
los datos generados en las distintas fuentes de datos. Por lo general, se utiliza la
base de datos Hadoop, la misma que permite gestionar datos estructurados y no
estructurados.
c) Capa de Análisis: Se trata de los componentes tecnológicos que contienen los
algoritmos para descubrimiento de datos, identificación de patrones, entre otros.
Su finalidad es generar información de valor, que luego será presentada al analista
para la toma de decisiones.
d) Capa de Consumo: Es la capa en la cual se generan los gráficos, que resumen el
análisis de datos realizado. En esta capa, se encuentran los reporteadores que
usualmente conocemos y que permiten mostrar los resultados al usuario final de
los mismos.
5.- Beneficios
Las ventas en el mercado global de Big Data y Analytics para este año 2019 se esperan
que alcancen los 189 billones USD, representando un crecimiento de 12% frente al 2018.
Con una proyección de crecimiento a doble dígito, para el 2022 se estima que las ventas
alcanzarán la cifra de 274 billones USD.
Del total de ventas, casi el 70% son soluciones basadas localmente, u on-premise,
mientras que el 30% restante son soluciones en cloud. Sin embargo, se espera que para
el 2022 las soluciones en la nube alcancen el 44% del mercado.
veces por un tema de costos que exceden lo esperado, los proyectos no acaban y
terminan siendo un desperdicio de dinero y recursos
7.4 Establecer una estrategia de gestión de la calidad de los datos: Al provenir los
datos de diferentes fuentes deben establecerse mecanismos para validar los datos en
cuanto a sus consistencias y la cantidad de posibles variantes del mismo dato. Si esto es
un factor crítico para solo datos estructurados, lo es más para datos estructurados y no
estructurados de todo tipo que considera el Big Data.
7.5 Diseño adecuado del modelo de datos: Que permita producir información de
calidad de acuerdo con los requerimientos del negocio.
7.6 Diseño de una arquitectura de la Solución que permita ser escalable: Tanto a
nivel de volumen de datos como en la complejidad del Negocio, es decir, si ocurren
cambios en las reglas de negocio o si se incorporan nuevas variables al mismo.
sdf
Partiendo de la premisa que el propósito primario del big data es analizar conjuntos de
datos relacionados al comportamiento humano y sus comunicaciones para revelar
patrones o tendencias, a continuación, revisaremos dos casos, uno en el sector público y
el otro en la banca del sector privado.
Extra oficialmente este proyecto tiene 5 fases las primeras fueron de levantamiento de
datos y de análisis, en la 4 etapa que inicia en septiembre se va a definir una metodología
para integrar la data al plan maestro 2050 y la quinta y última iniciará en octubre.
El segundo caso es “CreceMas”, un proyecto del BCP. Este proyecto está dirigido a los
negocios de ventas como restaurantes, tiendas, etc. Crecemas consolida la información
de los pagos realizados por los clientes con tarjetas de crédito o débito del BCP y la
complementa con la información adicional que el banco tiene de los mismos (clientes
empresa y persona). Este proyecto es una rica fuente de información para los negocios
pues les brinda información consolidada de preferencias, segmentos, distritos de los
cuales provienen los clientes e incluso permite conocer el comportamiento de tu
competencia, lo que permite diseñar estrategias, campañas o apertura de nuevos locales
fundamentadas en información.
Hoy en día los datos son capturados en un punto y luego son transmitidos a data
centers o clouds donde luego son procesados y analizados. La proyección es ser
capaz de consumir esos datos en tiempo real, analizarlos donde se generaron
(Edge Computing) lo cual permitirá mejorar el performance y ahorrar costos en
cloud computing. Esta proyección viene de la mano con Multi Cloud/Hybrid
Providers debido a que los datos se generan en múltiples instancias y los
proveedores de cloud deben ser capaces de integrarse a través de protocolos
abiertos y evitar a los clientes limitarse o bloquearse a un proveedor.
Empoderamiento de las aplicaciones para la toma de decisiones, las aplicaciones
inteligentes (no personas) serán los principales consumidores mediante la
integración de Machine learning, artificial intelligence and data analytics, el
software estará habilitado para actuar sobre los datos por nosotros, ya sea de
máquina a máquina o de máquina a consumidor, en lugar de simplemente
presentar los datos para que las personas los examinen y utilicen para tomar
decisiones. El auge de las aplicaciones inteligentes resolverá el problema de “Data
staffing Crisis” (problemas para conseguir personas con skills específicos).
Por décadas los ingenieros de software han confiado en la optimización de
software para correr complejos programas, pero hay limitaciones en la
optimización. En algún punto se necesitará computadoras más poderosas para
cumplir nuestros requerimientos. Quantum Computing puede re-definir como
nosotros interactuamos en los distintos campos de estudio. Actualmente analizar
big data en un nivel granular es casi imposible, algunos patrones pueden no ser
tan obvios para la investigación y podemos perder datos valiosos en un mar de
ruido. Poderosos procesadores cuánticos podrían ser capaces de manejar
masivos datasets y la inteligencia artificial podría analizar big data en un nivel
granular.
10.- Conclusiones
Big Data crea valor cuando se utiliza para retos empresariales (casos de negocio),
para ello es necesario tener acceso a variedad de datos (estructurados y no
estructurados), además de contar con sólidas funcionalidades analíticas
incluyendo (software y habilidades).
Big Data permite obtener una imagen más completa de las preferencias y
demandas de los clientes, en consecuencia, las empresas de diferente rubro
encuentran nuevas formas de relacionarse con sus clientes actuales y futuros.
La disponibilidad de datos, una nueva generación de tecnología y un cambio
cultural hacia la toma de decisiones basada en datos continúan impulsando la
demanda de tecnología y servicios de Big Data y análisis.
La adopción de Big Data se enfoca especialmente en crear valor cuantificable para
el negocio.
En la actualidad, los desafíos que obstaculizan la adopción de Big Data difieren del
grado de adopción que tiene la empresa.
11.- Bibliografía
How AI and Quantum Computers Could Bring Massive Change. (2018, September
29). Recuperado de: https://insidebigdata.com/2018/09/28/ai-quantum-computers-
bring-massive-change
Ramasamy, K. (2019, February 22). 2019 Data Predictions: Demise Of Big Data
And Rise Of Intelligent Apps. Recuperado de:
https://www.forbes.com/sites/forbestechcouncil/2019/02/22/2019-data-predictions-
demise-of-big-data-and-rise-of-intelligent-apps/#2eade990753c
Luis Joyanes Aguilar. (julio 2013). Big Data: Análisis de Grandes Volúmenes de
Datos en Organizaciones. Mexico D.F.: Alfaomega Grupo Editor S.A..
Las siete ‘V’ del Big Data (2019, Abril 26) Recuperado de:
https://bbvaopen4u.com/es/actualidad/las-siete-v-del-big-data