por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Las herramientas de visualización de datos para ecosistemas Big Data se clasifican en los siguientes bloques: Notebooks Jupyter Zeppelin Librerías gráficas Google Chart D3.js Plotty Herramientas de análisis gráfico Kibana Shiny Grabana Loggy Herramientas... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Los sistemas de mensajería proporcionan un canal de comunicación entre aplicaciones del ecosistema big data, esto sistemas suele implementar sistemas de colas, tales como: Apache Kafka: sistema de itermediación de mensajes basado en el modelo publicador/subcriptor.... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Los frameworks de procesamiento de datos ecosistemas Big Data se clasifican en los siguientes bloques: Batch – procesamiento por lotes Hadoop Map-reduce: motor de procesamiento batch o por lotes. Streaming – procesamiento en tiempo real Apache Storm... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Definición de Storm Apache Storm es un sistema de computación distribuida en tiempo real de baja latencia y de alta disponibilidad basado en la arquitectura maestro-esclavo. Storm es ideal para trabajar con datos que necesitan ser analizados en tiempo real donde la... por Diego Calvo | Jul 4, 2018 | Big data, Hadoop
Prerequisitos Tener instalado Hortonworks (Virtual Box) para Spark Visionar el ejemplo de Hola Mundo. Configurar ficheros productora/consumidor kafka Copiar ficheros de configuración para pruebas Desde la linea de comandos acceder la carpeta donde se guardan... por Diego Calvo | Jul 4, 2018 | Big data, Hadoop
Prerequisitos Tener instalado Hortonworks (Virtual Box) para Spark Arrancar kafka Antes de empezar evidentemente es necesario tener arrancada la máquina virtual de Hortonworks Acceder a Ambari Acceder al servicio de Kafka Arrancar el servicio mediante el botón...