por Diego Calvo | Ago 19, 2018 | Big data, Hadoop
Prerequisitos Los prerequisitos para estos ejemplos son los mismos que para el anterior post de Sqoop. En estos ejemplos se crea una base de datos «mibbdd» y una tabla con valores introducidos «mitabla» y otra tabla vacía «mitabla2». Ejemplo de Carga de datos... por Diego Calvo | Jul 6, 2018 | Big data, Hadoop
Definición de Sqoop Apache Sqoop es una herramienta de línea de comandos desarrollada para transferir grandes volúmenes de datos de bases de datos relacionarles a Hadoop, de ahí su nombre que viene de la fusión de SQL y Hadoop. Concretamente transforma datos... por Diego Calvo | Jul 6, 2018 | Big data, Hadoop
Definición de Solr Apache Solr es un motor de búsqueda implementado en Java, basado en Lucene, con una API REST (XML/HTTP) y otra JSON. Solr tiene como objetivo mejorar las búsquedas y la navegabilidad de los sitios web de elevado volumen de tráfico. Este motor de... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Definición de Spark Streaming Apache Spark Streaming es una extensión de la API core de Spark, que da respuesta al procesamiento de datos en tiempo real de forma escalable, con alto rendimiento y tolerancia a fallos. Spark Sreaming fue desarrollado por la Universidad... por Diego Calvo | Jul 5, 2018 | Big data, Hadoop
Definición de Flink Apache Flink es un motor nativo de procesamiento de flujos de datos de baja latencia, que proporciona capacidades de distribución de datos comunicación y tolerancia a fallos. Flink fue desarrollado en Java y Scala por la Universidad Técnica de...