Entradas

Mostrando entradas de 2013

Analisis Mundial 2014 - Microstrategy Cloud

Con todo el tema futbolero que vamos a tener el próximo año, me he encotrado un desarrollo analítico de los equipos mundialistas del próximo año que me pareció sensacional. clic aqui . Es un desarrollo construido en Microstrategy Cloud que nos muestra tres pestañas en un análisis inicial en el que percibimos el comportamiento de los equipos en las clasificaciones al mundial 2014, los partidos ganados, perdidos y empatados, estadísticas de los goleadores y todo comparado contra los otros equipos clasificados y no clasificados. En la siguiente pestañas podemos apreciar todo el análisis por regiones para cada una de las selecciones. Existe una pestaña de burbujas con un mapa donde nos muestra el tamaño de la burbuja como el número de participaciones de cada una de la selecciones y finalmente la última pestaña muestra un análisis por cada uno de los grupos mundialistas. Me gusto mucho este análisis y es una muestra de lo qu podemos construir en Microstrategy cloud (en la nube)

Que Responder Cuando una Persona Pregunta ¿Que Haces?

Hoy voy a salirme un poco del tema serio que venía manejando como era OWB y demás reflexiones y caso teóricos de BI para hablar de algo muy curioso que me pasa y creo que a muchos de los que puedan leer este texto y sean profesionales en BI, les suele suceder. Hace un año aproximadamente en el que andaba tratando de ser casanova y conquistar cuanta mujer se me atravesara, me comenzó a suceder algo a lo que no daba crédito y era que me preguntaran "¿Tu qué haces?", es una pregunta muy difícil de responder dado que yo quería seguir siendo alguien interesante pero no sabía cómo explicar lo que hacía. Entonces procedí a realizar un experimento dando diferentes respuestas a la pregunta a ver cuál sería más interesante: 1. Decir simplemente que soy Ingeniero de sistemas o Ingeniero informático. La respuesta más fría de todas las que pude dar. La mujer que escuchó esto quedo como, aahhh bueno, no me meto más en tu vida. 2. Explicar que trabajo como consultor de BI

Estudiando OBIEE

Imagen
En estos días tratando de tener la máquina virtual de OBIEE para estudiar en una certificación en la herramienta, me di cuenta de algo bien interesante que ha hecho Oracle y que celebro, estan dando acceso a un ambiente de Answers sobre la que se pueden verificar funcionalidades con un sin número de reportes y tableros de control, en los cuales vamos a poder ver algunas funcionalidades interesantes. Les comparto el link donde pueden ver esto click aquí . Adicional les regalo el link del ambiente proporcionado por Oracle click aquí .

Trabajando con Oracle Warehouse Builder - OWB Parte 4 - Mi primer Mapping

Imagen
El día de hoy mostraré como crear un sencillo mapping en owb. Aunque esta es una herramienta que ya no está incluida en la nueva versión del gestor de base de datos ORACLE, es una herramienta que se sigue utilizando en algunos paises como una de las soluciones más baratas y que pueden dar un buen rendimiento si se tiene un entorno Oracle. Para realizar el mapping usamos la version 11 de OWB. Antes de comenzar con esta lectura, recomiendo ver el siguiente articulo donde muestro como es el nombre de cada una de las partes de nuestro espacio de trabajo Trabajando con OWB Parte 1 y Trabajando con OWB Parte 2 . Lo primero que hacemos es crear un mapping dentro del módulo en el que vamos a ubicar todos los mappings, en , dando click derecho y presionando la opción crear nuevo mapping. Le ingresamos el nombre del mapping y la descripción de negocio si es necesario. Ahora nos aparece en el medio lo que llamamos como el canvas o lugar donde vamos a construir nuestro

Como Instalar Oracle Workflow Server (OWF) en 11gR2 Database

Imagen
Los pasos para instalar Oracle Workflow Server en 11gR2 Database son los siguientes: Con un programa como xming habilitamos para realizar la instalción con ventanas( Moba , Xming ). Ingresar a la ruta en el servidor: $ORACLE_HOME\owb\wf\install Correr el Script:  Linux: $ ./wfinstall.csh Windows: wfinstall.bat Nos aparece esta ventana: Insertar los valores que va a preguntar la instalación: Install Option : Server Only Workflow Account : owf_mgr (Este es el usuario Nuevo que vamos a crear) Workflow Password : Specify a password for owf_mgr SYS Password : Ingresar el password del usuario SYS para la base de datos, en este caso me aparece que es oracle. TNS Connect Descriptor : Descripción del TNS Name (Ingresar la cadena de conexión) [ (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP)(HOST = IP/Host)(PORT = 1521)) (CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = Base_de_datos)))] LDAP Parameters : Mailer Parameters : Tablespace : Default tablespace for worlflo

Trabajando con Oracle Warehouse Builder - OWB Parte 3 - Un poco de Afinación en OWB

Imagen
Estaba trabajando en un mapping que me estaba poniendo problema de performance. Comencé a revisar el explain del query que genera OWB para el mapping y vi que tenía con un costo de 57.634.199.428. Aunque en muchas ocasiones la BD dice mentiras en este costo, decidí guiarme por este y comenzar a trabajar en índices para poder bajar el costo y el resultado fue 14.899.776 (En una entrada posterior voy a hablar en temas de afinación en la BD Oracle). Mejoro mucho, sin embargo puse a correr durante seis horas el mapping y no fui capaz de lograr que terminara. Comencé a analizar más y decidí sacar una parte del mapping y llevarlo a un mapping aparte para poder realizar algunas operaciones en un paso antes del mapping y lo lleve tal como lo tenía en el mapping, a continuación les muestro como estaba el mapping. Revise el query generado para este mapping en el explain y el costo me dejo boquiabierto. Increíble que el costo fuera de 14591695... Casi lo mismo que el anterio

Mejoras en nuestras consultas

Esto además de ser una reflexión acerca de nuestras consultas, también lo que va a intentar es dar algunos tips de consultas que pueden servir para todos los que trabajan en BI. Volviendo un poco al pasado, me acuerdo que cuando comencé a trabajar en BI, me toco comenzar a aprender mucho acerca de consultas porque para ese entonces estaba en la moda de ser un programador de java y estaba dando mis primeros pinos en PDH. La primeras consultas que hice fue con mucho miedo porque no quería realizar consultas que fueran a tumbar la base de datos pero la verdad es que trabajaba en una multinacional y por ende tenían una gran máquina, adicional a esto me daba mucho miedo enfrentarme a un súper modelo que me intentaron explicar en dos días y tengo que admitir que dormí en varios momentos de la reunión en la que me estaban explicando el modelo (Modelo de Industria de Teradata para Seguros). Comencé con consultas pequeñas y las iba guardando para cogerme confianza y a partir de allí ib

Reflexión - Preguntas Existenciales de los usuarios de BI

En estos días me hizo una usuaria de un proyecto muy delicado que estamos desarrollando en mi empresa, que me puso a pensar bastante.   ¿Como podemos hacer para que no haya problemas de diseño y definiciones en los proyectos de BI?   Al principio quede WOW, es una pregunta que se responde con experiencia y en ese instante me mato co la siguiente pregunta.   Pues ¿Nosotros ya mas o menos sabemos, pero me preocupa lo que les pase a ustedes en los otros proyectos?   Esto fue un detonante para hacer mi reflexión del día de hoy. WOW WOW! Como una usuaria pude decirme que hicimos las cosas muy mal, como dijo un técnico de Fútbol Colombiano en algún momento cuando su equipo perdía todos los partidos... "Es que somos muy malos todos".   Con la usuario me salí por la tangente, respire profundo y le dije, mira como está de bonita la tarde y nos echamos a reir, sin embargo luego pense con detenimiento lo que ocultaban sus palabras y lo que realmente pasa en los proy

Mi primer Acercamiento a Big Data

Estuve leyendo un poco de Big Data y he visto como un tema bien interesante y en el que veo un potencial importante porque veo que cumple una promesa perdida en BI... "Homogenizar información interna y externa de la empresa para la mejor toma de decisiones".   Si es cierto que se trata de realizar esto en BI tradicional, la realidad nos indica que no es cumplido esto al 100% debido a que traer información externa es muy difícil y solo se tiene en cuenta la información interna de la empresa.   Me gusta mucho que se haya construido una plataforma qu permita realizar búsqueda de información por medio de métodos que nos garantizan búsquedas en datos no estructurados pero también veo con preocupación el tema de la construcción de un BI a partir de un sistema de archivos (que en el fondo esto es lo que guarda Hadoop una de las mas populares soluciones). Es una tecnología vieja a la que se le saca ventajas, sin embargo me asalta la duda en cuanto como se pueden hacer consul

Modelo en Copo de Nieve

Imagen
Este es un esquema un poco más complejo que el anterior ( Esquema Estrella ), su modelado es similar al de un copo de nieve:   Vemos que un copo de nieve tiene un centro que a su vez tiene relaciones con niveles superiores y estos niveles pueden tener más relaciones con niveles aún mayores. Lo que se tiene es una  tendencia a normalizar aun más los datos que en la topología en estrella porque las dimensiones tienen más de un nivel hacia arriba:   Podemos observar como la tabla de hechos tiene productos y los productos tienen unas características como la marca y la sub categoría, lo que hace que la dimensión producto de la tabla de hechos se tenga en más de una tabla.   Respecto a la topología en estrella, este esquema lo que nos permite es no tener tanta redundancia de datos en los registros y esto se traduce en menos datos para guardar, sin embargo son modelos más difíciles para el usuario si quieren realizar una consulta porque en el query deben poner mas j

Modelo Esquema en Estrella

Imagen
Vamos a hablar acerca de uno de los modelamientos que se pueden utilizar actualmente. Es el mas utilizado de los modelos para realizar análisis en todo el tema de BI tradicional (Ya tenemos que pensar en BI no tradicional - BigData y BI en Memoria). Pensemos primero en una estrella: Se tiene algo central y conectamos los otros puntos o nodos, al igual que la imagen, para Data Warehouse en la Topología en Estrella no se cambia mucho este concepto.Lo que tenemos es una tabla de hechos que va en la mitad y a su alrededor se construyen todas sus dimensiones, algo como lo que se muestra en la imagen. Imagen Tomada desde Google, a su autor pido disculpas porque no encuentro nuevamente la imagen desde su sitio para referenciarlo.    Una de las características de este tipo de topología para estructurar nuestro Data Warehouse es que las dimensiones siempre tendrán una clave primaria y simple o por así decirlo de un único campo (Por lo general) y la tabla de hechos que es la ta

OBIEE Answers - Eliminación Automática de Espacios

Imagen
He leido un artículo bien interesante acerca de OBIEE en el blog de Manjunath RG ( obiapplications.blogspot.com ) en el que leí que OBIEE automáticamente elimina los espacios en blanco o extras que existe en un campo que son mostrados en los tableros de control de Answers. Lo interesante es que no solo aplica esto para los espacios al momento de presentarlos, sino que también lo hace en el momento de hacer filtros del estilo between. Veamos un ejemplo que nos pone el mismo Manjunath RG en su blog: A b    A b  A  b Las tres cadenas se convierten en: A b Las tres las pone iguales. Yo la verdad estoy de acuerdo con Manjunath en una parte en la que dice que se deben cotrolar este tipo de cosas desde el ETL, sin embargo esta funcionalidad de OBIEE es interesante porque puede permitir ver información que aparentemente debería ser igual y que por uno de estos espacios no lo este, sin embargo es importante que los desarrolladores de ETL's comprendan que si no se arregla en el E

Extraccion, Transformación y Carga

Imagen
Este es un tema clave para poder tener éxito en una buena plataforma de Inteligencia de Negocios. Revisemos inicialmente la definición de ETL. Buscando rápidamente en google vemos la primera definición de ETL que nos proporcionan es la de wikipedia y dice: " Extract, Transform and Load (Extraer, transformar y cargar en inglés, frecuentemente abreviado a ETL) es el proceso que permite a las organizaciones mover datos desde múltiples fuentes, reformatearlos y limpiarlos, y cargarlos en otra base de datos, data mart, o data warehouse para analizar, o en otro sistema operacional para apoyar un proceso de negocio. " (wikipedia: ETL). En la anterior imagen se ve el esquema general de una solución BI, la parte que esta dentro del círculo es la que llamamos proceso ETL. Ahora veamos un zoom dentro de lo que se hace en este proceso: Podemos decir que está definición es una definición a muy groso modo de todo lo que comprende el proceso ETL, sin embargo este es un t

Diseño de ETL - Los ojos de un desarrollador ciego

Existe un viejo programa de televisión llamado los caquitos que fue hecho por el gran actor mexicano Roberto Gomez Bolaños y su compañero de aventura Ruben Aguirre y allí ellos salían con ideas locas y se cuestionaban algo, "¿estamos locos lucas?".   De la misma forma me cuestiono yo muchas veces en el tema del diseño de ETL's que a veces he leido y me cuestiono siempre lo mismo, "¿estaré loco lucas?". Lo digo porque he leido diseños de OBIAPPS, de IBM para su herramienta Datastage y sus modelos de industria e incluso el de muchos de mis compañeros.   Problematica: Sencillo, cuando se tiene un desarrollador de ETL tratando de decifrar diseños que están mal construidos (principalmente el mapeo), hace que toque recurrir al "código" para tener certeza de la veracidad del diseño y peor aún, entender lo que se está haciendo, debido a la falta de claridad que existe dentro de los documentos de diseños.   Esta es una problemática a nivel mundial

Borrado de Datos en OWB para un Rango de Fechas

Imagen
Trabajando con OWB he visto que no es factible realizar un borrado de una tabla para un rango de fechas. Sin embargo no todo está perdido porque es factible crear un procedimiento almacenado que se puede invocar desde un mapping para lograr el borrado (físico) de datos para un rango de fechas. El SP que hemos construido es realmente es sencillo y es el siguiente: PROCEDURE p_borre_datos_fact_bet(tabla1 varchar2, campo1 varchar2, valor_campo11 varchar2, valor_campo12 varchar2) AS     V_QUERY  varchar2(2000);     BEGIN       V_QUERY := 'DELETE FROM '||tabla1||' WHERE ' ||campo1|| ' BETWEEN '||valor_campo11||' AND '||valor_campo12||'';     DBMS_OUTPUT.PUT_LINE(V_QUERY);     EXECUTE IMMEDIATE V_QUERY;     COMMIT;   END p_borre_datos_fact_bet; Luego de crear este mapping lo que hacemos es importarlo dentro de OWB como una transformación de PL-SQL y creamos el mapping que convoque el procedimiento: El paso final donde se invoca se debe hac

Problemas adicionales en la búsqueda de trabajo en BI - Colombia

He visto últimamente un evento realmente alarmante en los problemas de conseguir empleo para personas que estasmos asociados con BI en Colombia. Primero quiero comenzar con el link a un artículo en el cual hable acerca de este tema Acerca de BI en Colombia en el que expuse 4 razones por las cuales las áreas de BI en Colombia han fracasado y ahora después de un año largo quiero dar nuevos avances en mi visión acerca de la problemática en Colombia.   Sin inmiscuirme en los problemas de otras profesiones uno de los grandes males en las empresas son las empresas conocidas como headhunters y los psicólogos y quiero realizar una explicación de cada una de estas porque a pesar que son manejadas en Colombia por psicologos las dos, un papel es el que desempeñan los psicologos de las empresas y otros los headhunters.   HeadHunters : Estas empresas han sido seriamente analizadas por varios colegas en Argentina y realmente hay algo de fondo para hacer esto. No dan un valor agregado

CALIDAD DE DATOS - Tercera entrega de un interesante tema

Ahora revisemos con mayor detalle el tema de la calidad de los datos en los desarrollos, ya he escrito dos artículos en los que he tratado el tema, pero ahora quiero embarrarme un poco las manos y presentar como estoy revisando mis propios desarrollos antes de liberarlos a un área de pruebas. Espero que este articulos les sea de mucha ayuda. He estado revisando con mayor detalle algo muy interesante en la base de datos ORACE llamado Expresiones regulares, esto es algo que apareció desde la  versión 10g de su base de datos y potencialmente ofrece muchas bondades para la búsqueda de patrones. Luego de revisar esto y viendo la necesidad de mejorar la calidad en mis programas de etl he decidido comenzar a trabajar fuertemente con las expresiones regulares y bueno algunos queries base que me ayuden a mejorar la calidad de mis desarrollos. Para comenzar las personas que no sepan mucho de expresiones regulares pueden revisar el siguiente artículo en español que escribio Fernando García

Magic Quadrant 2013

Imagen
Ya ha salido el resultado del reporte Magic Quadrant para este 2013 y veo pocas sorpresas en los moviemientos o cambios de líderes en el sector: Como el visionario mas importante se ve a IBM encabezando la lista y como al líder podemos apreciar que Microsoft ha desplazado tanto a OBI de Oracle como a MSTR (Microstrategy) debido a su nuevo producto power pivot (también la versión de power view). Ha sido un hit total este producto porque es la competencia directa de una solución que también desplazo a las antiguas líderes del mercado y es QlikTech (Qlikview).   La herramienta anteriormente mencionada ha tenido una vertiginosa subida en el mercado debido a su novedosa forma de tener los datos y que los usuarios se provean de información de manera rápida, sin embargo sigo con mis dudas acerca de estas soluciones de tener información en memoria, pero tengo que aceptar que es una grata sorpresa ver el resultado de este año porque quiere decir que cada vez las casas de BI se están e

OLAP, MOLAP, ROLAP, HOLAP

OLAP - On Line Analytical Processing es lo que llamamos el mundo analítico dispuesto para poder realizar análisis de información en las empresas. En su escencia se busca analizar la información de una manera organizada y con estructuras con tendencia a las consultas. Allí aparecen tres términos que son muy utilizados en este mundo. MOLAP - Multidimensional On Line Analytical Processing : Son cubos multidimensionales (mas de tres  dimensiones). Esta arquitectura se basa en que todos los datos se carguen directamente a los cubos sin tener un DWH y que de allí se consulten los datos. ROLAP - Relational On Line Analytical Processing : Esta arquitectura se basa en tener todos los datos en bases de datos relacionales (en un DWH), explotandose toda la información desde allí, tanto la detallada como la agregada. Esta es una de las formas que mas se ha comenzado a adoptar en los desarollos de BI por la versatilidad que da tener los datos en una base de datos relacional. HOLAP - Hybrid On Li

Medidas

Constituyen el que analizar. (también llamados KPIs, Indicadores, Valores, etc.) Son los valores numéricos generados en una o varias operaciones o transacciones de negocio. Cuantifica hechos. Existen tres tipos de medidas: Medidas Aditivas : Que se pueden sumar siempre. Son las que debemos buscar. (SUM, COUNT). Medidas Semi aditivas : Se pueden sumar por algunas dimensiones y por otras no (nro estudiantes en universidad). (MAX, MIN) Medidas no aditivas : Que no se deben sumar (Inventarios). (DISTINCT)

Dimensiones lentamente cambiantes

Las Dimensiones son perspectivas de análisis y determina el como analizar las medidas. En otras palabras podemos decir que las dimensiones son las encargadas de darle sentido a los hechos y las preguntas de negocio que pueden responder es del tipo Quien? Como? Cuando? Donde? Dependiendo de la importancia de los datos de una dimensión para un negocio, se tienen tres tipos de tablas dimensionales para poder representar los datos según como ellos vayan cambiando en el tiempo: Dimensiones Lentamente Cambiantes de Tipo 1 : En este tipo de dimensión no hay interés en hacer un seguimiento a los cambios presentados en los datos, porque es irrelevante el valor histórico pero si importa el valor actual. Son las dimensiones mas comunes que existen. Por ejemplo si tenemos la dimension con estos datos: Producto_Id      Producto_Cd      Producto_Desc 10                      AE01                  Botas de Pantano y se debe cambiar la descripción para que solamente sean botas, la tabla qued

Trabajo en Equipo es fundamental para desarrollar proyectos de BI

Imagen
Para poder afrontar un proyecto de BI, es fundamental el trabajo en equipo. Sin embargo fácilmente cuando trabajamos en equipo se puede presentar algo como lo es el no asumir responsabilidades por parte de las personas implicadas dejando así al equipo de trabajo como un simple grupo de personas que se han unido para trabajar en algo pero no están proporcionando la sinergía enriquecedora que requiere el trabajo en equipo para poder tener un desarrollo del proyecto muho más de lo que podría realizar cada uno si hiciera trabajos específicos.   Para hablar de este interesante tema quiero remitirme a un buen video que vi en youtube acerca de echarle la culpa al otro, el video se llama el Juego de Echarle la Culpa al Otro y tien una duración de 10 minutos.   Adicional de mostrar la trampa en la que se puede caer por jugar a echarle la culpa a los demás, también se entran a otros problemas evidentes como lo son:   Chismes de unas personas con otras. Bajará la productividad