BIG DATA - Pragma Consultores

Transcripción

BIG DATA - Pragma Consultores
“QUEREMOS ACCEDER A NEGOCIOS
DIGITALES: COMBINAR ACTIVOS
FÍSICOS VIRTUALES Y EXPLOTAR
INFORMACIÓN DE OTRAS
MANERAS, INCLUSO HACIENDO
ALIANZAS CON PROVEEDORES DE
CONTENIDO”.
su nivel de consumo y cuentan con prestaciones
para controlarlo.
–¿Qué otros sistemas se modificaron a partir
del cambio de core?
–Hay muchas aplicaciones y sistemas complementarios que tuvieron que aggiornarse para
terminar siendo on-line. Por ejemplo, debimos
renovar completamente nuestro broker de pagos
con tarjeta de crédito, nuestro sistema de gestión
de comisiones para los canales y nuestro proceso
con entidades recaudadoras.
–Al tener toda la información de los clientes
reunida y digitalizada, el volumen de información crece exponencialmente. ¿Cómo la procesan para poder explotarla de forma comercial?
¿Están trabajando con proyectos de business
intelligence?
–Sí, tenemos bastante trabajo, y estamos también incursionando con Big Data y marketing
contextual.
PERSPECTIVA
PERSPECTIVA
INFORME ESPECIAL
PERSPECTIVA REGIONAL
• Objetivo: convertirse en una empresa
ciento por ciento digital.
• Plazo: tres años (2013-2015).
• Equipo involucrado: + de 400 personas.
• Principales cambios introducidos:
congelamiento de los legados y
reemplazo de procesos; simplificación y
consolidación de aplicaciones para los
diferentes segmentos de clientes y para
favorecer la multicanalidad; selección de
un único proveedor que suministra una
suite completa de aplicaciones telco.
EN EQUIPO
pág.
diciembre 2014
10
En el proyecto de transformación de
Telefónica, el Grupo Pragma conforma
el equipo liderado por Amdocs y
está a cargo de la integración de las
aplicaciones core con el resto de los
sistemas del negocio, así como de otras
responsabilidades clave para el éxito del
proyecto. La suite de Amdocs elegida
por Telefónica consiste en una única
plataforma multicanal que soporta los
procesos de negocio, alineada con los
estándares de la industria. Gracias a los
logros de la primera implementación, la
experiencia se ha comenzado a replicar
en otras filiales de Latinoamérica, como
Telefónica Chile y Perú.
BIG DATA
HACE DOS AÑOS PUBLICÁBAMOS UNA TAPA ACERCA DE BIG DATA. HOY, OTRA ACERCA DE SU
EVOLUCIÓN. Y PARA CONVERSAR SOBRE ELLA, INVITAMOS A ESPECIALISTAS Y AMIGOS.
EN ESTA NOTA, EL DEBATE: ¿DÓNDE ESTAMOS RESPECTO DE ESTE TEMA?
¿CÓMO HAN PROGRESADO LOS SERVICIOS? ¿QUÉ NOS FALTA?
¿CUÁL SERÁ EL CAMINO POR LOS PRÓXIMOS DOS AÑOS?
pág.
11
diciembre 2014
TELEFÓNICA 3.0: EL CASO LÍDER
La Argentina dio el puntapié inicial, pero ya
México comenzó a replicar el proyecto. Chile,
Perú y Brasil lo están iniciando, y los sigue Colombia. Sin duda, la experiencia argentina será
de gran utilidad para estos países, aunque las
particularidades de cada una harán necesario un
aprendizaje autónomo. “Las situaciones no son
necesariamente iguales –afirma Goldenberg–.
No se da la misma convicción en cada operación
porque son diferentes las culturas, los estados y
las oportunidades de las que parte cada país. Sin
embargo, ahora que la Argentina demostró que
es posible un cambio semejante con determinados ingredientes, presupuestos y plazos, para los
demás es más fácil replicarlo”.
–En el marco del negocio, ¿cómo ve Telefónica
a la región?
–Es importantísima, absolutamente vital para la
empresa. Latinoamérica ha sido el motor de crecimiento de Telefónica y hoy concentra la mayor
parte de su negocio. Por ese motivo hay inversiones fuertes en la región y particularmente en
la Argentina.
–Frente a este panorama, ¿cuál es el diferencial
que tiene Telefónica para ganarle a la competencia?
–Contamos con una capacidad comprobada de
relacionarnos con los clientes, que confían en
nosotros y que son un activo muy importante.
Brindamos servicios con seguridad, estamos en
condiciones de distribuir servicios digitales y de
ser brokers en el mundo digital, para poder agregar oferta y llevarla de una manera fácil de usar
y consumir tanto en los distintos segmentos de
consumidores masivos como en pymes o grandes
empresas donde tenemos servicios más verticales.
BIG DATA
BIG DATA (q.e.p.d.).
Falleció en 2014, asesinada cruelmente por los departamentos de Marketing de los principales vendors. Al llamar
“Big Data” a cualquier solución o tecnología para gestión de información, desde bases de datos en red existentes desde
hace más de 20 años hasta paquetes estadísticos disfrazados para la ocasión, la fueron matando lentamente. También
fueron partícipes necesarias las startups de cualquier cosa que se (auto) titularon“Big Data” para conseguir dólares
fáciles.
Sus hijos Predictive Analytics, Smart Data y Data Science participan su fallecimiento e invitan a una misa de
correlación en su honor.
pág.
diciembre 2014
12
Y sí. Murió Big Data. Fue. Farewell. Gracias,
hasta la vista, arrivederci. Duró más que el
OS/2 pero menos que la JavaStation.
No somos los primeros en decirlo. Tal fue el
sobreuso del término“Big Data”, tan poco se
entiende lo que realmente significa que hoy
casi carece de sentido. En un número previo
de Perspectiva comentábamos que era ridículo pensar que la problemática de Big Data era
la misma al analizar datos de un sistema de
control industrial y hacer predicciones basadas en sensores que al usar datos de compradores para orientar una campaña publicitaria.
Pero además, juntar en el mismo título todas
las tecnologías de gestión de datos fue un tanto abusivo. Casi casi como las service-oriented
architectures de unos años atrás.
Desde un punto de vista técnico, queda claro
que Hadoop no es la solución a todos nues-
tros problemas. Para todos los que alguna
vez trabajamos en sistemas distribuidos (mi
doctorado fue en sistemas distribuidos), era
obvio que no todos los problemas pueden resolverse razonablemente con el modelo map
& reduce, y a veces es necesario usar otros
modelos. No solo eso: a veces ni siquiera es
necesario utilizar más de una computadora.
Si bien una definición de Big Data era “lo que
no entra en una única máquina”, hay algunos
casos interesantísimos de análisis que todos
consideramos que deberían entrar en la definición y que se hacen con una máquina. Jure
Leskovec, profesor de Stanford a cargo del
proyecto SNAP y probablemente una de las
personas más relevantes en el análisis de redes sociales, decía que no se había encontrado
con grafos mayores a unos pocos teras, nada
que no se pudiera procesar en una máquina lo
suficientemente grande y sin usar algoritmos
distribuidos. La definición de “lo que no entra
en una máquina” es, simplemente, poco útil, la
peor característica que puede tener.
Otra cosa insostenible es el mapa de tecnologías Big Data. @BigDataBorat es el seudónimo
de un conocedor que tuitea ácida e irónicamente sobre el tema. Hace poco publicó un test
en el cual aparecen varios nombres, y uno debe
indicar si son de pokémon o de tecnologías
de Big Data... ¿Y saben qué? No es tan fácil
responder bien.
De hecho, la cantidad de tecnologías asociadas
a Big Data que hacen cosas totalmente distintas (desde manejar sistemas de archivos hasta
ejecutar algoritmos de inteligencia artificial y
desde optimizar redes hasta gestionar bases
de datos) es enorme. Y las organizaciones no
saben bien por dónde empezar.
frase: lo diferente es el uso del método científico para cuestionar la visión de negocio basado en datos concretos. Dicho de otra manera,
tomar premisas de negocio que se dan por
hechas y utilizar los datos para ratificarlas o
refutarlas. Y a partir de ahí disparar cambios.
El hecho de refutar una visión establecida de
negocio puede abrir nuevas fronteras y es algo
que los datos ayudan a realizar. En un proyecto de Big Data ejecutado en nuestra empresa
tuvimos en un momento cuatro doctores en
Por Daniel Yankelevich
SOCIO
GRUPO PRAGMA
CONSULTORES
Informática en una sala discutiendo sobre
las propiedades que mostraban los datos y
cuestionando los algoritmos que se estaban
usando. Esto caracteriza más a un proyecto
de Big Data que el hecho de usar Hadoop u
otra tecnología.
Por eso, en Pragma Consultores Argentina
apostamos fuertemente por los hijos de Big Data. Por Data Science, por Predictive Analytics.
Creemos que entre la tecnología –que permite
hoy procesar logs de operaciones, conjuntos
enormes de datos de fuentes distintas, y aplicar sobre ellos numerosas reglas y algoritmos
estadísticos– por un lado, y el negocio –que
necesita estos datos para armar modelos con
los cuales tomar decisiones– por el otro, hace falta alguien que entienda los algoritmos y
pueda traducirlos al negocio. Que pueda seleccionar la mejor tecnología para un determinado problema y ayude a realizar las preguntas
que importan. En 2005, al cumplir diez años,
nos presentábamos como traductores de tecnología: profesionales bilingües que podíamos
interactuar con el mundo del negocio y el de
la tecnología, generando valor en esa interpretación. Hoy más que nunca estas capacidades
son clave a la hora de armar proyectos que tal
vez debamos llamar “de Smart Data”. Posiblemente sean Big, porque la dimensión de los
datos es un problema con el cual hay que lidiar
y haya que buscar estrategias adecuadas a la
hora de resolverlos. Pero esa no es su principal
característica, sino el valor que agregan, la inteligencia que generan, el “insight” con la naturaleza del negocio, por lo que es adecuado pensar
en Smart como su principal característica. Y
en Smart Data, en vez de las típicas tres“V”
de Big Data (variedad, volumen, velocidad),
tendremos otras tres “V”: valor, valor, valor.
IS DEAD
PERSPECTIVA
Hace unos meses, una empresa descartó realizar una migración de datos porque la calidad
de los que debía migrar era demasiado mala y
se requería un trabajo muy grande para revisarlos y dejarlos en condiciones de ser introducidos en una base estructurada con mínimas
restricciones de integridad. Esa misma empresa empezó un proyecto de Big Data utilizando
los mismos datos sin considerar temas de calidad de datos o evaluaciones previas. Pueden
imaginar cuán bien va a funcionar un modelo
de machine learning alimentado con datos que
sabemos a priori que son de baja calidad. Aun
así, ganó la visión “herramientil”:“usemos la
herramienta antes de pensar, después vemos”.
En 2001, desde Pragma Consultores, publicábamos en un workshop del MIT un trabajo
sobre el uso de técnicas de data mining para
la evaluación de calidad de datos (S. Vázquez
Soler, D. Yankelevich, “Quality Mining: A Data
Mining Based Method for Data Quality Evaluation”, in Proc. of the 6th International Conference on Information Quality, Cambridge,
USA, 2001).
Ya en ese momento quedaba claro que las
anomalías de calidad y los datos ricos para el
negocio eran indistinguibles para una computadora, y era necesario contar con una fuerte
visión de negocio.
Hay un viejo chiste que cuenta de un oficial
del Gobierno chino que está de visita en Latinoamérica y es llevado a conocer una ciudad.
El oficial pregunta cuántos habitantes tiene; y
cuando el intendente, orgulloso, le dice que han
llegado a 100.000, repregunta: “¿Y en qué hotel
se hospedan?”. Las cantidades son relativas.
En nuestra visión, la cantidad de datos no es
tan relevante como la aproximación al análisis. El fundamento puede resumirse en una
pág.
13
diciembre
diciembre
20142014
PERSPECTIVA
INFORME ESPECIAL
pág.
diciembre 2014
14
En los últimos años, se ha visto un tremendo
avance en una gran cantidad de áreas que se
agrupan bajo el gran nombre de “Big Data”. La
masificación de estas tecnologías se ha logrado en parte a través de herramientas que abstraen tanto la complejidad conceptual como la
computacional. Una arquitectura destinada al
procesamiento de Big Data contiene en general
componentes para la ingesta de datos, otros
para el análisis de datos y, finalmente, algunos
para el guardado de los datos sin procesar y de
otros ya procesados. Existen sabores y colores
para cada uno de estos componentes, como
son Kafka, Hadoop/Mahout, Postgress, HBase, respectivamente y por nombrar solo uno
para cada aspecto.
Aunque no siempre explícitos, los problemas
involucrados en el diseño de una estrategia de
Big Data son generalmente tres y fundamentales:
- el descubrimiento de conocimiento propiamente dicho,
- la representación de éste y
- el acceso eficiente a él.
En general, cuando se habla de “estrategias
de Big Data” se hace referencia solamente al
primero, mientras que los otros dos son igualmente importantes.
LA TECNOLOGÍA DONDE SE
PUEDEN MIRAR ESOS TRES
COMPONENTES (“BUSCAR”,
“GUARDAR” Y “RECUPERAR”)
CON CIERTA CLARIDAD ES UNA
PLATAFORMA DE “ANALYTICS” O
DE “BUSINESS INTELLIGENCE”.
Para entender un poco
mejor los tres componentes,
supongamos que tenemos
control sobre una red social
donde los usuarios, además
de establecer vínculos,
comparten opiniones sobre
películas a través de un review
o explícitamente a través de un
número de estrellas.
BUSCANDO Y
DESCUBRIENDO EL DATO
Para entender un poco mejor los tres componentes, supongamos que tenemos control sobre una red social donde los usuarios, además
de establecer vínculos, comparten opiniones
sobre películas a través de un review o explícitamente a través de un número de estrellas. Podríamos diseñar una estrategia de minado de
datos que descubra tres valores: el sentimiento
de un review, la similitud entre películas y la
similitud entre usuarios. Para cada una de estas
tareas existen librerías que permiten resolver
estos problemas para pequeños y también
grandes volúmenes.
Una vez encontrado este conocimiento, aparecen dos preguntas fundamentales: ¿cómo
lo guardamos? y ¿cómo lo usamos? Una posible solución es almacenar la información
minada en una base relacional, así los reviews
tendrían un campo más con el análisis de sentimiento, la similitud entre películas en una
tabla con un atributo que indique el peso de
la semejanza y la misma idea para la similitud
entre usuarios. La información así guardada
permite que, para una película, recuperemos
muy fácilmente las similares o también las
que tienen mejores reviews. Las tablas resul-
EL ACCESO EFICIENTE
En las plataformas de “analytics” o de “business intelligence” se pueden mirar las tres
componentes con cierta claridad. Aquí, los
patrones que se buscan son casi triviales, ya
que en la mayoría de los casos se guardan solo
cantidad de eventos que sirven para computar probabilidades condicionales. Estos contadores se almacenan en tablas relacionales
reflejando el drill-down que un usuario puede
pedir. Como consecuencia, la información
que el usuario puede pedir depende entonces
de esta representación, y solo puede realizar
consultas en estas líneas. Aunque los patrones
encontrados son triviales, el verdadero poder
de la plataforma está dado por cuán inteligente es la representación de datos que usa y la
velocidad con que los puede recuperar. Estas
plataformas tienen muy poco trabajo en data
mining y mucho en representación y acceso.
Su poder y su valor en el mercado están más
relacionados al segundo y al tercer ítem que
al primero.
Aunque no tan desarrolladas como el primer
ítem, existen herramientas que facilitan los
dos segundos. Son bases de datos de grafos
que no responden al modelo relacional directamente. Estas tienen lenguajes de recuperación de información basados en SQL, más veloces en responder exploraciones en el grafo.
Muchas de estas son tecnologías nuevas que
poseen todavía grandes problemas técnicos
por resolver y obligan a los usuarios a pensar
sus datos como hiperconectados en un modelo no-estándar como son los grafos.
En resumen, una buena estrategia de uso de
tecnologías asociadas a Big Data debe contemplar entonces estrategias, diseños e implementaciones para estos aspectos fundamentales: la manera en la que la información se
buscará en grandes volúmenes de datos, cómo
estos patrones se representarán y qué tipo de
preguntas se les quieren hacer a los datos, de
manera que estas sean significativas.
3 ASPECTOS
FUNDAMENTALES
DE BIG DATA
PERSPECTIVA
BUSCAR
GUARDAR Y
RECUPERAR
tantes son de pocos atributos, pero crecen
cuadráticamente con la cantidad de usuarios
y de películas.
Nuestra representación nos permite responder
el tipo de preguntas que mencionamos de una
manera ágil y eficiente. Ahora, si queremos
recuperar películas que les gusten a amigos
que son similares a nosotros, la información
está en la base y solamente requiere un join.
Si deseamos una película que sea parecida a la
que vimos junto con un amigo que además es
similar a nosotros, la cantidad de joins por realizar crece. Es tan costoso hacer joins en tablas
relacionales cuando las tablas son tan grandes
que aunque tenemos la información en ellas,
no la podemos recuperar. Todavía peor cuando no solo queremos cierta relación, sino que
también lleva una minimización de pesos y
buscamos el peso óptimo. Y este es el caso general, ya que no nos interesa una película, sino
la película más parecida.
Por Gabriel Infante-López
ARQUITECTO DE SOFTWARE
Y ESPECIALISTA EN MACHINE
LEARNING Y DATA MINING
Gabriel es doctor en Ciencias de la
Computación por la Universidad de
Ámsterdam, donde se especializó en
Lógica, Procesamiento de Lenguaje
Natural y Modelos Formales. En la
Argentina fue investigador asociado
del CONICET y profesor asociado de
la Universidad Nacional de Córdoba.
Además, fue uno de los fundadores
del grupo de procesamiento de
lenguaje natural de dicha universidad.
Trabaja para INTEL hace dos años
como arquitecto de software y
especialista en machine learning
y data mining. Allí es integrante
del equipo científico del Grupo de
Nuevos Dispositivos de la compañía.
Es el líder técnico y arquitecto de
una solución basada en grafos en
memoria y sistemas distribuidos.
Tiene numerosos trabajos técnicos
publicados en importantes revistas y
patentes en el área.
pág.
15
diciembre 2014
PERSPECTIVA
INFORME ESPECIAL
ANTE TODO DEFINIR
LA ESTRATEGIA
DEL NEGOCIO
DOCUMENTAR LA ESTRATEGIA DE NEGOCIOS NO SOLO IMPULSA LA
ALINEACIÓN ENTRE LOS DIFERENTES GRUPOS DE INTERÉS EN LA
Por Sergio Zambrano
DIRECTOR DE SOLUCIONES
CLIENTE, EMC CONSULTING
CONO SUR
LOS NEGOCIOS NO
SERAN LOS MISMOS
DESPUES DE BD
PERSPECTIVA
PERSPECTIVA
INFORME ESPECIAL
Por Martín Saludas
DIRECTOR COMERCIAL
LA POSIBILIDAD DE
ORGANIZACIÓN Y EL ÁREA DE TI, SINO QUE TAMBIÉN ACTÚA COMO UNA
ALMACENAMIENTO CASI
HERRAMIENTA DE MEDICIÓN PARA TOMAR DECISIONES TECNOLÓGICAS.
INFINITO A BAJO COSTO Y EL
NUEVO PARADIGMA DE
diciembre 2014
16
Definir factores clave para el éxito detallando
“qué necesita hacerse” o los factores críticos
de éxito que se precisan para apoyar la ejecución exitosa de las iniciativas de negocio. Por
último, lograr transformar la estrategia de Big
Data en acciones. Aquí es donde debemos
identificar el soporte de BI, análisis avanzado
(ciencia de datos) y requisitos de almacenamiento de datos, por ejemplo.
A efectos prácticos, comparto los cuatro pasos de Bill Schmarzo (EMC CTO, Enterprise
Information Management & Analytics) para
desarrollar una estrategia efectiva de Big Data:
Paso 1:
Identificar los indicadores clave (o factores críticos de éxito) y compararlos con las iniciativas
del negocio que serán medidas.
Paso 2:
Identificar las preguntas clave del negocio,
métricas/datos y dimensiones necesarias para
apoyar las iniciativas de negocio.
Según Bill Schmarzo (EMC
CTO), para desarrollar una
estrategia efectiva de Big
Data necesitamos identificar:
los indicadores clave (o
factores críticos de éxito), las
preguntas clave del negocio,
las principales tareas y el
flujo de decisiones, y las
fuentes de datos.
IN MEMORY COMPUTING SON
UNA SOLUCIÓN EN BUSCA DE
UN PROBLEMA, COMO LO FUE
EL RAYO LÁSER EN 1960.
Paso 3:
Identificar las principales tareas, y el flujo de
decisiones requeridas para apoyar los factores
críticos de éxito. Definirlas bien para validar
que se hayan entendido correctamente todos
estos interrogantes, métricas y dimensiones
del negocio.
Paso 4:
Identificar las fuentes de datos, incluyendo
medidas, dimensiones, granularidad, frecuencia de actualización, ubicación y métodos de
acceso.
Como resultado de este trabajo, nos encontramos en posición de definir la gestión de datos,
ETL/ELT/enriquecimiento de datos, almacenamiento de datos, BI y los requisitos de ciencia de datos, que son necesarios para soportar
la estrategia de negocio.
En conclusión, documentar la estrategia de negocios no solo impulsa la alineación entre los
diferentes grupos de interés en la organización
y el área de TI, sino que también actúa como
una herramienta de medición para tomar decisiones tecnológicas. Este simple y eficaz documento proporciona un proceso para asegurar
que la inversión en tecnología apoye lo que es
importante para el negocio y no se convierta en
un complicado experimento científico.
Las organizaciones se enfrentan ahora al desafío de gestionar una increíble variedad y un
volumen de información procedente de múltiples fuentes y con gran velocidad. Su capacidad para adquirir, procesar y analizar estas
grandes cantidades de datos estructurados y
no estructurados –como datos transaccionales, feeds de redes sociales, datos de sensores
o geoespaciales– tiene el potencial para crear
nuevos modelos de negocio y redefinir cómo
funcionan las industrias, especialmente considerando que el 90% de los datos del mundo
fue creado en los últimos dos años.
Big Data es a menudo un “término paraguas”
que abarca varias categorías de soluciones.
Entre sus aspectos esenciales se destacan la
adquisición de datos, el almacenamiento y la
optimización, así como su análisis, visualización, clasificación y predicción.
Específicamente, el enfoque de SAP para
Big Data acelera la forma en que se adquiere, analiza y actúa sobre insights desde los
datos. Nuestras soluciones ayudan a obtener
resultados verdaderos en tiempo real, así
como nuestros expertos en ciencia de datos
contribuyen a descubrir y aplicar nuevos conocimientos específicos del negocio y la industria, y a extraer el máximo valor de todos
los datos de las organizaciones.
Mediante nuestra plataforma de Big Data
sobre SAP HANA es posible simplificar la
arquitectura de TI y apoyar el negocio en
tiempo real. Además, con Big Data Analytics
se pueden identificar rápidamente los riesgos
y las oportunidades, y mejorar la capacidad
de predicción.
Además, con aplicaciones de Big Data que
corren sobre la plataforma SAP HANA se optimizan las operaciones y se generan nuevas
fuentes de ingresos. SAP está construyendo
aplicaciones Big Data para descubrir e infundir
ideas directamente en los procesos de negocio, como Fraud Management, Demand Signal
Management, Operational Intelligence, Customer Engagement Intelligence y Sentiment
Intelligence.
Uno de los diferenciadores clave en SAP son
las aplicaciones empresariales como SAP
HANA (con amplitud de conocimiento en 25
industrias y 11 líneas de negocio), que puede
ejecutar OLTP + OLAP + Big Data en una plataforma in-memory.
En este contexto, un desafío es romper las
barreras mentales de lo que era posible hasta
ahora e imaginar nuevos escenarios de uso
que Big Data permite. La posibilidad de almacenamiento casi infinito a bajo costo y el
nuevo paradigma de in memory computing
son una solución en busca de un problema,
como lo fue el rayo láser en 1960. El enfoque
de manejo de datos desarrollado en los últimos 40 años de bases de datos asentadas en
disco no es suficiente para atacar la explosión
de datos e inmediatez que requieren hoy los
negocios.
Para impulsar Big Data
en la región optamos
por trabajar con Pragma
Consultores Argentina, con
quien venimos colaborando
desde hace varios años con
excelentes resultados en
industrias como banca y
finanzas, retail y energía.
Estamos convencidos de
que la unión hace la fuerza,
y nuestros partners, como
Pragma, constituyen un
eslabón fundamental en la
estrategia de crecimiento.
Su expertise, su profundo
conocimiento de las
distintas industrias y de las
tecnologías así como su
compromiso con el éxito de
cada proyecto constituyen
un diferencial clave.
pág.
17
diciembre 2014
pág.
Hace ya unos cuantos años, casi al inicio de mi
carrera profesional, me encontraba evaluando una solución para un cliente. No hallaba el
sentido de los productos que se estaban incluyendo. En ese entonces, un colega con unos
cuantos años en el rubro mencionó: “Cuando un problema tiene forma de clavo, todos
los productos del portafolio toman forma de
martillo”. Creo que un poco por la presión de
lograr los objetivos, la intensidad en la competencia, la “elasticidad” de los productos, la
reducción de los tiempos para el lanzamiento
de productos y la obsolescencia programada…
contribuimos a la confusión.
Desde la perspectiva de Big Data considero
que el análisis predictivo es un fundamento.
Hasta hace unos pocos años, muchas soluciones no eran factibles tecnológica ni económicamente. Actualmente contamos con
la habilitación tecnológica y casi todas las
soluciones son, también, económicamente
viables. En este contexto, una vez más, observando el mercado percibo que la sola combinación de productos pareciera ser la solución
y todos son martillos relucientes diseñados
para el clavo Big Data. La artillería desplegada
no distingue tecnología de almacenamiento,
de procesamiento, de análisis, de visualización… y menos aún puede repensar o adaptar
conceptos.
Si el objetivo es obtener valor para el negocio, sugiero empezar por ahí. Un buen inicio
es contar con una estrategia y lograr documentarla en forma concisa, clara y relevante.
Es decir, establecer las iniciativas de negocio
respecto de los objetivos deseados, lo que la
empresa espera alcanzar y cómo será medido.
4 PASOS PARA IR
DEL DATO A LA DECISIÓN
DATA
TRANSACCIONES
Y LOGS
1
CREACIÓN DE
DATOS
SERVICIOS RELACIONADOS
CON LA LOCALIZACIÓN
4
diciembre 2014
18
ALERTAS
B
ALMACENAMIENTO
MMP +
COMPUTACIÓN
EN MEMORIA
REAL TIME EVENTS
3
PROCESAMIENTO
DE STREAM
PERSPECTIVA
CLOUD
HADOOP
REDES DE ALTA
VELOCIDAD Y
RESILIENTES
GESTIÓN DE
EVENTOS
Equipo multidisciplinario
 Conocimiento de la estrategia de
negocio
 Gestión de la comunicación interna y
externa
 Gestión de stakeholders
 Desarrollo de aplicaciones móviles,
web, etc.
 Gestión del cambio
 Gestión de equipos distribuidos
 Gestión multicultural
AUTOMATIZACIÓN
DE WORKFLOWS E
INTERACCIONES
2
O
MO PR CESO DE N
CO
E
G
TA
OC
DA
I
pág.
Equipo de desarrollo y soporte
Capacidad de almacenamiento y
procesamiento in house
 Gestión de almacenamiento y procesamiento en la nube
 Manejo de ecosistema de software
open source
 Manejo de ecosistemas de software
propietarios


GEOLOCALIZACIÓN
Capacidades
de la organización
CONVERGENCIA DE
INFRAESTRUCTURA
BASES DE DATOS NO
RELACIONALES
Capacidades
de la organización
IG
REDES
SOCIALES
APLICACIONES
CONSCIENTES DEL
CONTEXTO
POR LA MADUREZ Y LA CALIDAD DE PROCESOS.
SSD Y ALMACENAMIENTO
ESCALABLE
Conocimiento del negocio
Conocimiento de fuentes de datos
públicas
Gestión de Internet of Things
Procesos de captura
Data Management
Data Quality
DATOS DE
APLICACIONES
MÓVILES
LA OFERTA DE SERVICIOS DE PRAGMA CONSULTORES, UNA OFERTA CARACTERIZADA
DISPOSITIVOS
Y SISTEMAS
INTELIGENTES
TOMA DE
DECISIONES
ACCESO PERMANENTE
A SERVICIOS
DE ANÁLISIS
 Integrado por científicos de
datos, informáticos y especialistas en estadística, física, finanzas,
biología, ciencias sociales,
gestión de I+D...
ANÁLISIS
DE LA
INFORMACIÓN
DEEP INSIGHTS
pág.
19
PREDICCIÓN
MODELADO
EXPLORACIÓN
DE DATOS
CONTEXTUALIZACIÓN
Infografía: Melisa D. Silva
Fuente de datos: IDC
diciembre 2014




INFORMACIÓN EN ANÁLISIS Y VALOR PARA EL NEGOCIO. ESTE ANÁLISIS ES PARTE DE
MÁQUINAS Y
SENSORES
Capacidades
de la organización


PRIMEROS PASOS DE UN CÍRCULO VIRTUOSO QUE NOS PERMITE TRANSFORMAR LA
UESTACIÓN
Q
:
OR
MAILS Y
MENSAJES
TENER MILLONES DE DATOS GENERADOS Y ALMACENADOS SON SOLO LOS DOS
O
PERSPECTIVA
INFORME ESPECIAL
EL CASO
Tu orquestación de BD puede tener fallas
Sin conocimiento del
negocio no sé qué datos
buscar.
1
4
Sin excelente delivery de
las respuestas, nadie las
escuchará.
pág.
diciembre 2014
20
Sin gestión de datos
no sé si estoy
analizando los
datos correctos.
Sin conocimiento del
negocio las respuestas
no generan valor.
PROYECTO EN EL CUAL CON SOLO DOS
DE GRAN PROFUNDIDAD.
Sin conocimiento de los
ecosistemas de
software no puedo
obtener respuestas.
3
3
Sin un equipo que reúna
capacidades de análisis, no
tendremos buenas o nuevas
respuestas. Ni siquiera buenas
o nuevas preguntas.
Si el equipo no reúne gente de
distintas disciplinas, no
tendremos puntos de vista
variados para mirar el
problema.
Sin la capacidad de hacer un
modelo adecuado, las preguntas
interesantes no tendrán
respuesta.
Si no uso las herramientas
estadísticas para grandes
volúmenes de datos, todas las
respuestas serán “falso
positivo”.
Sin modelo no
tendremos predicción.
BIG
SUBE
Por Juan V. Echagüe y Camilo Melani
PRAGMA CONSULTORES ARGENTINA
SUBE es una iniciativa del Gobierno argentino para facilitar
la movilidad en el área metropolitana. Es una tarjeta prepaga que puede usarse en los medios de transporte como colectivos, subterráneos y trenes de la ciudad de Buenos Aires.
A nivel institucional, el sistema que soporta la operatoria de
SUBE es gestionado por la empresa estatal Nación Servicios,
que maneja tanto la red de recarga como la de uso, la cual
está compuesta por 11.000 colectivos, 5 líneas de subtes y
las líneas ferroviarias metropolitanas, y diariamente vende
12 millones de boletos.
LOS RESULTADOS
Nuestras 4 máximas de BD
Aprovechar
todas las fuentes
de datos
disponibles.
DE NEGOCIO. ESTE ES EL CASO DE UN
CANTIDAD DE INFORMACIÓN PRECISA Y
Sin orquestación
punta a punta del
proceso, los resultados nunca estarán
listos a tiempo para
el cliente.
Sin voluntad de cambio la
nueva información no
genera ni decisiones ni
mejoras.
INFORME PARA EVALUAR POSIBILIDADES
TIPOS DE DATOS SE LOGRÓ EXTRAER UNA
2
1
Si la estrategia del negocio no
guía todo el proceso, los
resultados serán solamente
curiosidades.
Sin gestión del cambio
las decisiones no
impactan en la
organización.
CONSULTORES REALIZÓ UN EXHAUSTIVO
Sin infraestructura no “tengo” los
datos, no puedo conservarlos o no
puedo procesarlos. O ninguna de
las tres cosas.
Sin gestión la infraestructura
in house y/o en la nube es inútil.
Si no aprovecho los datos
públicos disponibles, pierdo
oportunidades de agregar
conocimiento.
Sin conocimiento de la
cultura de la organización,
la respuesta no será
adecuada al público.
Sin gestión de datos
puedo perder los
datos.
Sin gestión y calidad de
datos puedo traspasar los
límites de la ley o de la
ética sin darme cuenta.
Sin datos todo lo demás
es una cáscara vacía.
QUE PUEDE USARSE EN LOS MEDIOS DE
TRANSPORTE EN ARGENTINA, PRAGMA
Sin gestión de datos
puedo sufrir una fuga de
los datos.
Sin calidad de datos no
sé si los datos que
analizo son correctos.
DE DATOS DE LA TARJETA PREPAGA SUBE,
Transformar
Datos
Información
Información
Conocimiento
Conocimiento
Valor
PERSPECTIVA
WARNING!
MEDIANTE LA EXTRACCIÓN Y EL ANÁLISIS
Sin diques en el
flujo de los datos.
Orquestación del proceso
custodiando la
generación de valor.
El trabajo de análisis de datos que explicaremos permitió
al cliente contar con herramientas para conocer de forma
profunda y con altísimo nivel de detalle la distribución de la
demanda y las características de su negocio. Así, por ejemplo,
advirtió que el viajero frecuente tiene un peso muy pequeño
en la totalidad de los pasajeros transportados. Y este dato,
que contradijo una hipótesis previa del cliente, aportó luz y
conocimiento acerca del corazón de su negocio para, a partir
de allí, tomar mejores decisiones.
pág.
21
diciembre 2014
PERSPECTIVA
INFORME ESPECIAL

Documentos relacionados