por Fernando Campos | Nov 30, 2018 | Big data, Hadoop
Prerequisitos Tener instalado Java 8. Descargar e instalar Apache Kakfa Descargar la última version de Apache Kafka o bien usar cd /home/haddop/Descargas wget http://apache.rediris.es/kafka/2.0.0/kafka_2.11-2.0.0.tgz Nota: Si prefieres trabajar con Docker y... por Fernando Campos | Nov 29, 2018 | Bases de Datos, Big data, Hadoop
Prerequisitos Tener instalado Java8. Descargar HBase Buscar la última versión de HBase compatible con el sistema que tengas o bien usar wget cd /home/hadoop/Descargas wget http://apache.uvigo.es/hbase/2.1.1/hbase-2.1.1-bin.tar.gz Descomprimir el fichero... por Diego Calvo | Nov 29, 2018 | Big data, Hadoop
Instalar y configurar un clúster Hadoop Pseudo-Distribuido (un solo nodo) Instalar la máquina Virtual Java. Instalar Hadoop. Configurar las variables de entorno. Configurar SSH Modificar ficheros de configuración Crear directorio de datos, donde almacenar HDFS Iniciar... por Diego Calvo | Nov 29, 2018 | Big data, Hadoop
Descargar entorno de trabajo Descargar la última versión de la máquina virtual CentOS (se utilizó la 6.7) y ejecutarla con virtualBox. Iniciar la máquina virtual con el usuario hadoop (sino existe crearlo) useradd hadoop passwd hadoop Instalación de máquina... por Diego Calvo | Nov 27, 2018 | Big data, Hadoop
Prerequisitos Tener instalado y configurado Hadoop. Descargar Hive Buscar la última versión de Hive compatible con el sistema que tengas o bien usar wget cd /home/hadoop/Descargas wget http://apache.rediris.es/hive/hive-2.3.4/apache-hive-2.3.4-bin.tar.gz... por Fernando Campos | Sep 26, 2018 | Big data, Hadoop, Scala, Spark
En este post vamos a mostrar la manera de invocar un SparkSession para escribir un fichero en disco mediante hfds. Para ello toma como punto de partida el post Mi primera Apache Spark con Scala con Maven en Intelligent Idea. En el paquete com.fer.cam se crea una...