BIG DATA - Pragma Consultores
Transcripción
BIG DATA - Pragma Consultores
“QUEREMOS ACCEDER A NEGOCIOS DIGITALES: COMBINAR ACTIVOS FÍSICOS VIRTUALES Y EXPLOTAR INFORMACIÓN DE OTRAS MANERAS, INCLUSO HACIENDO ALIANZAS CON PROVEEDORES DE CONTENIDO”. su nivel de consumo y cuentan con prestaciones para controlarlo. –¿Qué otros sistemas se modificaron a partir del cambio de core? –Hay muchas aplicaciones y sistemas complementarios que tuvieron que aggiornarse para terminar siendo on-line. Por ejemplo, debimos renovar completamente nuestro broker de pagos con tarjeta de crédito, nuestro sistema de gestión de comisiones para los canales y nuestro proceso con entidades recaudadoras. –Al tener toda la información de los clientes reunida y digitalizada, el volumen de información crece exponencialmente. ¿Cómo la procesan para poder explotarla de forma comercial? ¿Están trabajando con proyectos de business intelligence? –Sí, tenemos bastante trabajo, y estamos también incursionando con Big Data y marketing contextual. PERSPECTIVA PERSPECTIVA INFORME ESPECIAL PERSPECTIVA REGIONAL • Objetivo: convertirse en una empresa ciento por ciento digital. • Plazo: tres años (2013-2015). • Equipo involucrado: + de 400 personas. • Principales cambios introducidos: congelamiento de los legados y reemplazo de procesos; simplificación y consolidación de aplicaciones para los diferentes segmentos de clientes y para favorecer la multicanalidad; selección de un único proveedor que suministra una suite completa de aplicaciones telco. EN EQUIPO pág. diciembre 2014 10 En el proyecto de transformación de Telefónica, el Grupo Pragma conforma el equipo liderado por Amdocs y está a cargo de la integración de las aplicaciones core con el resto de los sistemas del negocio, así como de otras responsabilidades clave para el éxito del proyecto. La suite de Amdocs elegida por Telefónica consiste en una única plataforma multicanal que soporta los procesos de negocio, alineada con los estándares de la industria. Gracias a los logros de la primera implementación, la experiencia se ha comenzado a replicar en otras filiales de Latinoamérica, como Telefónica Chile y Perú. BIG DATA HACE DOS AÑOS PUBLICÁBAMOS UNA TAPA ACERCA DE BIG DATA. HOY, OTRA ACERCA DE SU EVOLUCIÓN. Y PARA CONVERSAR SOBRE ELLA, INVITAMOS A ESPECIALISTAS Y AMIGOS. EN ESTA NOTA, EL DEBATE: ¿DÓNDE ESTAMOS RESPECTO DE ESTE TEMA? ¿CÓMO HAN PROGRESADO LOS SERVICIOS? ¿QUÉ NOS FALTA? ¿CUÁL SERÁ EL CAMINO POR LOS PRÓXIMOS DOS AÑOS? pág. 11 diciembre 2014 TELEFÓNICA 3.0: EL CASO LÍDER La Argentina dio el puntapié inicial, pero ya México comenzó a replicar el proyecto. Chile, Perú y Brasil lo están iniciando, y los sigue Colombia. Sin duda, la experiencia argentina será de gran utilidad para estos países, aunque las particularidades de cada una harán necesario un aprendizaje autónomo. “Las situaciones no son necesariamente iguales –afirma Goldenberg–. No se da la misma convicción en cada operación porque son diferentes las culturas, los estados y las oportunidades de las que parte cada país. Sin embargo, ahora que la Argentina demostró que es posible un cambio semejante con determinados ingredientes, presupuestos y plazos, para los demás es más fácil replicarlo”. –En el marco del negocio, ¿cómo ve Telefónica a la región? –Es importantísima, absolutamente vital para la empresa. Latinoamérica ha sido el motor de crecimiento de Telefónica y hoy concentra la mayor parte de su negocio. Por ese motivo hay inversiones fuertes en la región y particularmente en la Argentina. –Frente a este panorama, ¿cuál es el diferencial que tiene Telefónica para ganarle a la competencia? –Contamos con una capacidad comprobada de relacionarnos con los clientes, que confían en nosotros y que son un activo muy importante. Brindamos servicios con seguridad, estamos en condiciones de distribuir servicios digitales y de ser brokers en el mundo digital, para poder agregar oferta y llevarla de una manera fácil de usar y consumir tanto en los distintos segmentos de consumidores masivos como en pymes o grandes empresas donde tenemos servicios más verticales. BIG DATA BIG DATA (q.e.p.d.). Falleció en 2014, asesinada cruelmente por los departamentos de Marketing de los principales vendors. Al llamar “Big Data” a cualquier solución o tecnología para gestión de información, desde bases de datos en red existentes desde hace más de 20 años hasta paquetes estadísticos disfrazados para la ocasión, la fueron matando lentamente. También fueron partícipes necesarias las startups de cualquier cosa que se (auto) titularon“Big Data” para conseguir dólares fáciles. Sus hijos Predictive Analytics, Smart Data y Data Science participan su fallecimiento e invitan a una misa de correlación en su honor. pág. diciembre 2014 12 Y sí. Murió Big Data. Fue. Farewell. Gracias, hasta la vista, arrivederci. Duró más que el OS/2 pero menos que la JavaStation. No somos los primeros en decirlo. Tal fue el sobreuso del término“Big Data”, tan poco se entiende lo que realmente significa que hoy casi carece de sentido. En un número previo de Perspectiva comentábamos que era ridículo pensar que la problemática de Big Data era la misma al analizar datos de un sistema de control industrial y hacer predicciones basadas en sensores que al usar datos de compradores para orientar una campaña publicitaria. Pero además, juntar en el mismo título todas las tecnologías de gestión de datos fue un tanto abusivo. Casi casi como las service-oriented architectures de unos años atrás. Desde un punto de vista técnico, queda claro que Hadoop no es la solución a todos nues- tros problemas. Para todos los que alguna vez trabajamos en sistemas distribuidos (mi doctorado fue en sistemas distribuidos), era obvio que no todos los problemas pueden resolverse razonablemente con el modelo map & reduce, y a veces es necesario usar otros modelos. No solo eso: a veces ni siquiera es necesario utilizar más de una computadora. Si bien una definición de Big Data era “lo que no entra en una única máquina”, hay algunos casos interesantísimos de análisis que todos consideramos que deberían entrar en la definición y que se hacen con una máquina. Jure Leskovec, profesor de Stanford a cargo del proyecto SNAP y probablemente una de las personas más relevantes en el análisis de redes sociales, decía que no se había encontrado con grafos mayores a unos pocos teras, nada que no se pudiera procesar en una máquina lo suficientemente grande y sin usar algoritmos distribuidos. La definición de “lo que no entra en una máquina” es, simplemente, poco útil, la peor característica que puede tener. Otra cosa insostenible es el mapa de tecnologías Big Data. @BigDataBorat es el seudónimo de un conocedor que tuitea ácida e irónicamente sobre el tema. Hace poco publicó un test en el cual aparecen varios nombres, y uno debe indicar si son de pokémon o de tecnologías de Big Data... ¿Y saben qué? No es tan fácil responder bien. De hecho, la cantidad de tecnologías asociadas a Big Data que hacen cosas totalmente distintas (desde manejar sistemas de archivos hasta ejecutar algoritmos de inteligencia artificial y desde optimizar redes hasta gestionar bases de datos) es enorme. Y las organizaciones no saben bien por dónde empezar. frase: lo diferente es el uso del método científico para cuestionar la visión de negocio basado en datos concretos. Dicho de otra manera, tomar premisas de negocio que se dan por hechas y utilizar los datos para ratificarlas o refutarlas. Y a partir de ahí disparar cambios. El hecho de refutar una visión establecida de negocio puede abrir nuevas fronteras y es algo que los datos ayudan a realizar. En un proyecto de Big Data ejecutado en nuestra empresa tuvimos en un momento cuatro doctores en Por Daniel Yankelevich SOCIO GRUPO PRAGMA CONSULTORES Informática en una sala discutiendo sobre las propiedades que mostraban los datos y cuestionando los algoritmos que se estaban usando. Esto caracteriza más a un proyecto de Big Data que el hecho de usar Hadoop u otra tecnología. Por eso, en Pragma Consultores Argentina apostamos fuertemente por los hijos de Big Data. Por Data Science, por Predictive Analytics. Creemos que entre la tecnología –que permite hoy procesar logs de operaciones, conjuntos enormes de datos de fuentes distintas, y aplicar sobre ellos numerosas reglas y algoritmos estadísticos– por un lado, y el negocio –que necesita estos datos para armar modelos con los cuales tomar decisiones– por el otro, hace falta alguien que entienda los algoritmos y pueda traducirlos al negocio. Que pueda seleccionar la mejor tecnología para un determinado problema y ayude a realizar las preguntas que importan. En 2005, al cumplir diez años, nos presentábamos como traductores de tecnología: profesionales bilingües que podíamos interactuar con el mundo del negocio y el de la tecnología, generando valor en esa interpretación. Hoy más que nunca estas capacidades son clave a la hora de armar proyectos que tal vez debamos llamar “de Smart Data”. Posiblemente sean Big, porque la dimensión de los datos es un problema con el cual hay que lidiar y haya que buscar estrategias adecuadas a la hora de resolverlos. Pero esa no es su principal característica, sino el valor que agregan, la inteligencia que generan, el “insight” con la naturaleza del negocio, por lo que es adecuado pensar en Smart como su principal característica. Y en Smart Data, en vez de las típicas tres“V” de Big Data (variedad, volumen, velocidad), tendremos otras tres “V”: valor, valor, valor. IS DEAD PERSPECTIVA Hace unos meses, una empresa descartó realizar una migración de datos porque la calidad de los que debía migrar era demasiado mala y se requería un trabajo muy grande para revisarlos y dejarlos en condiciones de ser introducidos en una base estructurada con mínimas restricciones de integridad. Esa misma empresa empezó un proyecto de Big Data utilizando los mismos datos sin considerar temas de calidad de datos o evaluaciones previas. Pueden imaginar cuán bien va a funcionar un modelo de machine learning alimentado con datos que sabemos a priori que son de baja calidad. Aun así, ganó la visión “herramientil”:“usemos la herramienta antes de pensar, después vemos”. En 2001, desde Pragma Consultores, publicábamos en un workshop del MIT un trabajo sobre el uso de técnicas de data mining para la evaluación de calidad de datos (S. Vázquez Soler, D. Yankelevich, “Quality Mining: A Data Mining Based Method for Data Quality Evaluation”, in Proc. of the 6th International Conference on Information Quality, Cambridge, USA, 2001). Ya en ese momento quedaba claro que las anomalías de calidad y los datos ricos para el negocio eran indistinguibles para una computadora, y era necesario contar con una fuerte visión de negocio. Hay un viejo chiste que cuenta de un oficial del Gobierno chino que está de visita en Latinoamérica y es llevado a conocer una ciudad. El oficial pregunta cuántos habitantes tiene; y cuando el intendente, orgulloso, le dice que han llegado a 100.000, repregunta: “¿Y en qué hotel se hospedan?”. Las cantidades son relativas. En nuestra visión, la cantidad de datos no es tan relevante como la aproximación al análisis. El fundamento puede resumirse en una pág. 13 diciembre diciembre 20142014 PERSPECTIVA INFORME ESPECIAL pág. diciembre 2014 14 En los últimos años, se ha visto un tremendo avance en una gran cantidad de áreas que se agrupan bajo el gran nombre de “Big Data”. La masificación de estas tecnologías se ha logrado en parte a través de herramientas que abstraen tanto la complejidad conceptual como la computacional. Una arquitectura destinada al procesamiento de Big Data contiene en general componentes para la ingesta de datos, otros para el análisis de datos y, finalmente, algunos para el guardado de los datos sin procesar y de otros ya procesados. Existen sabores y colores para cada uno de estos componentes, como son Kafka, Hadoop/Mahout, Postgress, HBase, respectivamente y por nombrar solo uno para cada aspecto. Aunque no siempre explícitos, los problemas involucrados en el diseño de una estrategia de Big Data son generalmente tres y fundamentales: - el descubrimiento de conocimiento propiamente dicho, - la representación de éste y - el acceso eficiente a él. En general, cuando se habla de “estrategias de Big Data” se hace referencia solamente al primero, mientras que los otros dos son igualmente importantes. LA TECNOLOGÍA DONDE SE PUEDEN MIRAR ESOS TRES COMPONENTES (“BUSCAR”, “GUARDAR” Y “RECUPERAR”) CON CIERTA CLARIDAD ES UNA PLATAFORMA DE “ANALYTICS” O DE “BUSINESS INTELLIGENCE”. Para entender un poco mejor los tres componentes, supongamos que tenemos control sobre una red social donde los usuarios, además de establecer vínculos, comparten opiniones sobre películas a través de un review o explícitamente a través de un número de estrellas. BUSCANDO Y DESCUBRIENDO EL DATO Para entender un poco mejor los tres componentes, supongamos que tenemos control sobre una red social donde los usuarios, además de establecer vínculos, comparten opiniones sobre películas a través de un review o explícitamente a través de un número de estrellas. Podríamos diseñar una estrategia de minado de datos que descubra tres valores: el sentimiento de un review, la similitud entre películas y la similitud entre usuarios. Para cada una de estas tareas existen librerías que permiten resolver estos problemas para pequeños y también grandes volúmenes. Una vez encontrado este conocimiento, aparecen dos preguntas fundamentales: ¿cómo lo guardamos? y ¿cómo lo usamos? Una posible solución es almacenar la información minada en una base relacional, así los reviews tendrían un campo más con el análisis de sentimiento, la similitud entre películas en una tabla con un atributo que indique el peso de la semejanza y la misma idea para la similitud entre usuarios. La información así guardada permite que, para una película, recuperemos muy fácilmente las similares o también las que tienen mejores reviews. Las tablas resul- EL ACCESO EFICIENTE En las plataformas de “analytics” o de “business intelligence” se pueden mirar las tres componentes con cierta claridad. Aquí, los patrones que se buscan son casi triviales, ya que en la mayoría de los casos se guardan solo cantidad de eventos que sirven para computar probabilidades condicionales. Estos contadores se almacenan en tablas relacionales reflejando el drill-down que un usuario puede pedir. Como consecuencia, la información que el usuario puede pedir depende entonces de esta representación, y solo puede realizar consultas en estas líneas. Aunque los patrones encontrados son triviales, el verdadero poder de la plataforma está dado por cuán inteligente es la representación de datos que usa y la velocidad con que los puede recuperar. Estas plataformas tienen muy poco trabajo en data mining y mucho en representación y acceso. Su poder y su valor en el mercado están más relacionados al segundo y al tercer ítem que al primero. Aunque no tan desarrolladas como el primer ítem, existen herramientas que facilitan los dos segundos. Son bases de datos de grafos que no responden al modelo relacional directamente. Estas tienen lenguajes de recuperación de información basados en SQL, más veloces en responder exploraciones en el grafo. Muchas de estas son tecnologías nuevas que poseen todavía grandes problemas técnicos por resolver y obligan a los usuarios a pensar sus datos como hiperconectados en un modelo no-estándar como son los grafos. En resumen, una buena estrategia de uso de tecnologías asociadas a Big Data debe contemplar entonces estrategias, diseños e implementaciones para estos aspectos fundamentales: la manera en la que la información se buscará en grandes volúmenes de datos, cómo estos patrones se representarán y qué tipo de preguntas se les quieren hacer a los datos, de manera que estas sean significativas. 3 ASPECTOS FUNDAMENTALES DE BIG DATA PERSPECTIVA BUSCAR GUARDAR Y RECUPERAR tantes son de pocos atributos, pero crecen cuadráticamente con la cantidad de usuarios y de películas. Nuestra representación nos permite responder el tipo de preguntas que mencionamos de una manera ágil y eficiente. Ahora, si queremos recuperar películas que les gusten a amigos que son similares a nosotros, la información está en la base y solamente requiere un join. Si deseamos una película que sea parecida a la que vimos junto con un amigo que además es similar a nosotros, la cantidad de joins por realizar crece. Es tan costoso hacer joins en tablas relacionales cuando las tablas son tan grandes que aunque tenemos la información en ellas, no la podemos recuperar. Todavía peor cuando no solo queremos cierta relación, sino que también lleva una minimización de pesos y buscamos el peso óptimo. Y este es el caso general, ya que no nos interesa una película, sino la película más parecida. Por Gabriel Infante-López ARQUITECTO DE SOFTWARE Y ESPECIALISTA EN MACHINE LEARNING Y DATA MINING Gabriel es doctor en Ciencias de la Computación por la Universidad de Ámsterdam, donde se especializó en Lógica, Procesamiento de Lenguaje Natural y Modelos Formales. En la Argentina fue investigador asociado del CONICET y profesor asociado de la Universidad Nacional de Córdoba. Además, fue uno de los fundadores del grupo de procesamiento de lenguaje natural de dicha universidad. Trabaja para INTEL hace dos años como arquitecto de software y especialista en machine learning y data mining. Allí es integrante del equipo científico del Grupo de Nuevos Dispositivos de la compañía. Es el líder técnico y arquitecto de una solución basada en grafos en memoria y sistemas distribuidos. Tiene numerosos trabajos técnicos publicados en importantes revistas y patentes en el área. pág. 15 diciembre 2014 PERSPECTIVA INFORME ESPECIAL ANTE TODO DEFINIR LA ESTRATEGIA DEL NEGOCIO DOCUMENTAR LA ESTRATEGIA DE NEGOCIOS NO SOLO IMPULSA LA ALINEACIÓN ENTRE LOS DIFERENTES GRUPOS DE INTERÉS EN LA Por Sergio Zambrano DIRECTOR DE SOLUCIONES CLIENTE, EMC CONSULTING CONO SUR LOS NEGOCIOS NO SERAN LOS MISMOS DESPUES DE BD PERSPECTIVA PERSPECTIVA INFORME ESPECIAL Por Martín Saludas DIRECTOR COMERCIAL LA POSIBILIDAD DE ORGANIZACIÓN Y EL ÁREA DE TI, SINO QUE TAMBIÉN ACTÚA COMO UNA ALMACENAMIENTO CASI HERRAMIENTA DE MEDICIÓN PARA TOMAR DECISIONES TECNOLÓGICAS. INFINITO A BAJO COSTO Y EL NUEVO PARADIGMA DE diciembre 2014 16 Definir factores clave para el éxito detallando “qué necesita hacerse” o los factores críticos de éxito que se precisan para apoyar la ejecución exitosa de las iniciativas de negocio. Por último, lograr transformar la estrategia de Big Data en acciones. Aquí es donde debemos identificar el soporte de BI, análisis avanzado (ciencia de datos) y requisitos de almacenamiento de datos, por ejemplo. A efectos prácticos, comparto los cuatro pasos de Bill Schmarzo (EMC CTO, Enterprise Information Management & Analytics) para desarrollar una estrategia efectiva de Big Data: Paso 1: Identificar los indicadores clave (o factores críticos de éxito) y compararlos con las iniciativas del negocio que serán medidas. Paso 2: Identificar las preguntas clave del negocio, métricas/datos y dimensiones necesarias para apoyar las iniciativas de negocio. Según Bill Schmarzo (EMC CTO), para desarrollar una estrategia efectiva de Big Data necesitamos identificar: los indicadores clave (o factores críticos de éxito), las preguntas clave del negocio, las principales tareas y el flujo de decisiones, y las fuentes de datos. IN MEMORY COMPUTING SON UNA SOLUCIÓN EN BUSCA DE UN PROBLEMA, COMO LO FUE EL RAYO LÁSER EN 1960. Paso 3: Identificar las principales tareas, y el flujo de decisiones requeridas para apoyar los factores críticos de éxito. Definirlas bien para validar que se hayan entendido correctamente todos estos interrogantes, métricas y dimensiones del negocio. Paso 4: Identificar las fuentes de datos, incluyendo medidas, dimensiones, granularidad, frecuencia de actualización, ubicación y métodos de acceso. Como resultado de este trabajo, nos encontramos en posición de definir la gestión de datos, ETL/ELT/enriquecimiento de datos, almacenamiento de datos, BI y los requisitos de ciencia de datos, que son necesarios para soportar la estrategia de negocio. En conclusión, documentar la estrategia de negocios no solo impulsa la alineación entre los diferentes grupos de interés en la organización y el área de TI, sino que también actúa como una herramienta de medición para tomar decisiones tecnológicas. Este simple y eficaz documento proporciona un proceso para asegurar que la inversión en tecnología apoye lo que es importante para el negocio y no se convierta en un complicado experimento científico. Las organizaciones se enfrentan ahora al desafío de gestionar una increíble variedad y un volumen de información procedente de múltiples fuentes y con gran velocidad. Su capacidad para adquirir, procesar y analizar estas grandes cantidades de datos estructurados y no estructurados –como datos transaccionales, feeds de redes sociales, datos de sensores o geoespaciales– tiene el potencial para crear nuevos modelos de negocio y redefinir cómo funcionan las industrias, especialmente considerando que el 90% de los datos del mundo fue creado en los últimos dos años. Big Data es a menudo un “término paraguas” que abarca varias categorías de soluciones. Entre sus aspectos esenciales se destacan la adquisición de datos, el almacenamiento y la optimización, así como su análisis, visualización, clasificación y predicción. Específicamente, el enfoque de SAP para Big Data acelera la forma en que se adquiere, analiza y actúa sobre insights desde los datos. Nuestras soluciones ayudan a obtener resultados verdaderos en tiempo real, así como nuestros expertos en ciencia de datos contribuyen a descubrir y aplicar nuevos conocimientos específicos del negocio y la industria, y a extraer el máximo valor de todos los datos de las organizaciones. Mediante nuestra plataforma de Big Data sobre SAP HANA es posible simplificar la arquitectura de TI y apoyar el negocio en tiempo real. Además, con Big Data Analytics se pueden identificar rápidamente los riesgos y las oportunidades, y mejorar la capacidad de predicción. Además, con aplicaciones de Big Data que corren sobre la plataforma SAP HANA se optimizan las operaciones y se generan nuevas fuentes de ingresos. SAP está construyendo aplicaciones Big Data para descubrir e infundir ideas directamente en los procesos de negocio, como Fraud Management, Demand Signal Management, Operational Intelligence, Customer Engagement Intelligence y Sentiment Intelligence. Uno de los diferenciadores clave en SAP son las aplicaciones empresariales como SAP HANA (con amplitud de conocimiento en 25 industrias y 11 líneas de negocio), que puede ejecutar OLTP + OLAP + Big Data en una plataforma in-memory. En este contexto, un desafío es romper las barreras mentales de lo que era posible hasta ahora e imaginar nuevos escenarios de uso que Big Data permite. La posibilidad de almacenamiento casi infinito a bajo costo y el nuevo paradigma de in memory computing son una solución en busca de un problema, como lo fue el rayo láser en 1960. El enfoque de manejo de datos desarrollado en los últimos 40 años de bases de datos asentadas en disco no es suficiente para atacar la explosión de datos e inmediatez que requieren hoy los negocios. Para impulsar Big Data en la región optamos por trabajar con Pragma Consultores Argentina, con quien venimos colaborando desde hace varios años con excelentes resultados en industrias como banca y finanzas, retail y energía. Estamos convencidos de que la unión hace la fuerza, y nuestros partners, como Pragma, constituyen un eslabón fundamental en la estrategia de crecimiento. Su expertise, su profundo conocimiento de las distintas industrias y de las tecnologías así como su compromiso con el éxito de cada proyecto constituyen un diferencial clave. pág. 17 diciembre 2014 pág. Hace ya unos cuantos años, casi al inicio de mi carrera profesional, me encontraba evaluando una solución para un cliente. No hallaba el sentido de los productos que se estaban incluyendo. En ese entonces, un colega con unos cuantos años en el rubro mencionó: “Cuando un problema tiene forma de clavo, todos los productos del portafolio toman forma de martillo”. Creo que un poco por la presión de lograr los objetivos, la intensidad en la competencia, la “elasticidad” de los productos, la reducción de los tiempos para el lanzamiento de productos y la obsolescencia programada… contribuimos a la confusión. Desde la perspectiva de Big Data considero que el análisis predictivo es un fundamento. Hasta hace unos pocos años, muchas soluciones no eran factibles tecnológica ni económicamente. Actualmente contamos con la habilitación tecnológica y casi todas las soluciones son, también, económicamente viables. En este contexto, una vez más, observando el mercado percibo que la sola combinación de productos pareciera ser la solución y todos son martillos relucientes diseñados para el clavo Big Data. La artillería desplegada no distingue tecnología de almacenamiento, de procesamiento, de análisis, de visualización… y menos aún puede repensar o adaptar conceptos. Si el objetivo es obtener valor para el negocio, sugiero empezar por ahí. Un buen inicio es contar con una estrategia y lograr documentarla en forma concisa, clara y relevante. Es decir, establecer las iniciativas de negocio respecto de los objetivos deseados, lo que la empresa espera alcanzar y cómo será medido. 4 PASOS PARA IR DEL DATO A LA DECISIÓN DATA TRANSACCIONES Y LOGS 1 CREACIÓN DE DATOS SERVICIOS RELACIONADOS CON LA LOCALIZACIÓN 4 diciembre 2014 18 ALERTAS B ALMACENAMIENTO MMP + COMPUTACIÓN EN MEMORIA REAL TIME EVENTS 3 PROCESAMIENTO DE STREAM PERSPECTIVA CLOUD HADOOP REDES DE ALTA VELOCIDAD Y RESILIENTES GESTIÓN DE EVENTOS Equipo multidisciplinario Conocimiento de la estrategia de negocio Gestión de la comunicación interna y externa Gestión de stakeholders Desarrollo de aplicaciones móviles, web, etc. Gestión del cambio Gestión de equipos distribuidos Gestión multicultural AUTOMATIZACIÓN DE WORKFLOWS E INTERACCIONES 2 O MO PR CESO DE N CO E G TA OC DA I pág. Equipo de desarrollo y soporte Capacidad de almacenamiento y procesamiento in house Gestión de almacenamiento y procesamiento en la nube Manejo de ecosistema de software open source Manejo de ecosistemas de software propietarios GEOLOCALIZACIÓN Capacidades de la organización CONVERGENCIA DE INFRAESTRUCTURA BASES DE DATOS NO RELACIONALES Capacidades de la organización IG REDES SOCIALES APLICACIONES CONSCIENTES DEL CONTEXTO POR LA MADUREZ Y LA CALIDAD DE PROCESOS. SSD Y ALMACENAMIENTO ESCALABLE Conocimiento del negocio Conocimiento de fuentes de datos públicas Gestión de Internet of Things Procesos de captura Data Management Data Quality DATOS DE APLICACIONES MÓVILES LA OFERTA DE SERVICIOS DE PRAGMA CONSULTORES, UNA OFERTA CARACTERIZADA DISPOSITIVOS Y SISTEMAS INTELIGENTES TOMA DE DECISIONES ACCESO PERMANENTE A SERVICIOS DE ANÁLISIS Integrado por científicos de datos, informáticos y especialistas en estadística, física, finanzas, biología, ciencias sociales, gestión de I+D... ANÁLISIS DE LA INFORMACIÓN DEEP INSIGHTS pág. 19 PREDICCIÓN MODELADO EXPLORACIÓN DE DATOS CONTEXTUALIZACIÓN Infografía: Melisa D. Silva Fuente de datos: IDC diciembre 2014 INFORMACIÓN EN ANÁLISIS Y VALOR PARA EL NEGOCIO. ESTE ANÁLISIS ES PARTE DE MÁQUINAS Y SENSORES Capacidades de la organización PRIMEROS PASOS DE UN CÍRCULO VIRTUOSO QUE NOS PERMITE TRANSFORMAR LA UESTACIÓN Q : OR MAILS Y MENSAJES TENER MILLONES DE DATOS GENERADOS Y ALMACENADOS SON SOLO LOS DOS O PERSPECTIVA INFORME ESPECIAL EL CASO Tu orquestación de BD puede tener fallas Sin conocimiento del negocio no sé qué datos buscar. 1 4 Sin excelente delivery de las respuestas, nadie las escuchará. pág. diciembre 2014 20 Sin gestión de datos no sé si estoy analizando los datos correctos. Sin conocimiento del negocio las respuestas no generan valor. PROYECTO EN EL CUAL CON SOLO DOS DE GRAN PROFUNDIDAD. Sin conocimiento de los ecosistemas de software no puedo obtener respuestas. 3 3 Sin un equipo que reúna capacidades de análisis, no tendremos buenas o nuevas respuestas. Ni siquiera buenas o nuevas preguntas. Si el equipo no reúne gente de distintas disciplinas, no tendremos puntos de vista variados para mirar el problema. Sin la capacidad de hacer un modelo adecuado, las preguntas interesantes no tendrán respuesta. Si no uso las herramientas estadísticas para grandes volúmenes de datos, todas las respuestas serán “falso positivo”. Sin modelo no tendremos predicción. BIG SUBE Por Juan V. Echagüe y Camilo Melani PRAGMA CONSULTORES ARGENTINA SUBE es una iniciativa del Gobierno argentino para facilitar la movilidad en el área metropolitana. Es una tarjeta prepaga que puede usarse en los medios de transporte como colectivos, subterráneos y trenes de la ciudad de Buenos Aires. A nivel institucional, el sistema que soporta la operatoria de SUBE es gestionado por la empresa estatal Nación Servicios, que maneja tanto la red de recarga como la de uso, la cual está compuesta por 11.000 colectivos, 5 líneas de subtes y las líneas ferroviarias metropolitanas, y diariamente vende 12 millones de boletos. LOS RESULTADOS Nuestras 4 máximas de BD Aprovechar todas las fuentes de datos disponibles. DE NEGOCIO. ESTE ES EL CASO DE UN CANTIDAD DE INFORMACIÓN PRECISA Y Sin orquestación punta a punta del proceso, los resultados nunca estarán listos a tiempo para el cliente. Sin voluntad de cambio la nueva información no genera ni decisiones ni mejoras. INFORME PARA EVALUAR POSIBILIDADES TIPOS DE DATOS SE LOGRÓ EXTRAER UNA 2 1 Si la estrategia del negocio no guía todo el proceso, los resultados serán solamente curiosidades. Sin gestión del cambio las decisiones no impactan en la organización. CONSULTORES REALIZÓ UN EXHAUSTIVO Sin infraestructura no “tengo” los datos, no puedo conservarlos o no puedo procesarlos. O ninguna de las tres cosas. Sin gestión la infraestructura in house y/o en la nube es inútil. Si no aprovecho los datos públicos disponibles, pierdo oportunidades de agregar conocimiento. Sin conocimiento de la cultura de la organización, la respuesta no será adecuada al público. Sin gestión de datos puedo perder los datos. Sin gestión y calidad de datos puedo traspasar los límites de la ley o de la ética sin darme cuenta. Sin datos todo lo demás es una cáscara vacía. QUE PUEDE USARSE EN LOS MEDIOS DE TRANSPORTE EN ARGENTINA, PRAGMA Sin gestión de datos puedo sufrir una fuga de los datos. Sin calidad de datos no sé si los datos que analizo son correctos. DE DATOS DE LA TARJETA PREPAGA SUBE, Transformar Datos Información Información Conocimiento Conocimiento Valor PERSPECTIVA WARNING! MEDIANTE LA EXTRACCIÓN Y EL ANÁLISIS Sin diques en el flujo de los datos. Orquestación del proceso custodiando la generación de valor. El trabajo de análisis de datos que explicaremos permitió al cliente contar con herramientas para conocer de forma profunda y con altísimo nivel de detalle la distribución de la demanda y las características de su negocio. Así, por ejemplo, advirtió que el viajero frecuente tiene un peso muy pequeño en la totalidad de los pasajeros transportados. Y este dato, que contradijo una hipótesis previa del cliente, aportó luz y conocimiento acerca del corazón de su negocio para, a partir de allí, tomar mejores decisiones. pág. 21 diciembre 2014 PERSPECTIVA INFORME ESPECIAL