Julio López Núñez – Educación Superior Data …



How to Install Hadoop on Windows 10 | Easy Steps to Install Hadoop | Hadoop Tutorial | Edureka Necesarios para realizar la instalación***Links importantes*** Java 8 Link: download Homepage: Hadoop 4 important xml files: Hadoop \bin Configuration File: A TODOS LOS QUE LES DA ALGUN ERROR QUE CMD NO IDENTIFICA LA CLASE, ES PORQUE TIENE ESPACIO EN SU USUARIO. POR EJEMPLO EN SU CMD TIENEN "JUAN CARLOS" Y PARA QUE NO LES DE ERROR ES "JUANCARLOS" ES CRUEL, PORQUE TIENEN QUE FORMATEAR SU PC POR ESE MALDITO ESPACIO.Otras Instalaciones: (PARA LINUX)Aplicación HADOOP hdfs_site.xmlSi tenemos más de un nodo el valor de replication será 3 (tres es un valor suficiente), en este caso es 1 porque tenemos un nodo (ya que esta prueba es sobre una máquina semi-distribuida).HDFS trabaja con una máquina maestra (Namenode) y X máquinas esclavas (Datanode). Tenemos que referirnos a ellas y crear unos directorios para namenodes y datanodes. Estos directorios lo vamos a llamar /datos (no es obligatorio llamarles así, pero para esta configuración nos permitirá verlo más claro). En este caso tenemos una maquina distribuida (en la realidad tendremos varias máquinas reales), por tanto las máquinas esclavas no tendrán la propiedad de replication y las maestras si la tendrán mientras que las namenodes no tendrán la propiedad con la ruta a los datos.Inicio del servicio HDFSAhora ejecutamos la instrucción para formatear y levantamos el sistema de archivos con ($> es un ejemplo de Prompt, no se debe escribir).Entonces, se inicia el servicio con start-dfs, ubicado en el directorio sbin. Luego se comprueba que el servicio se inició, ingresando a v) o vi) según versión de Hadoop.$>hdfs namenode –format (se formatea el nodo Hadoop donde se va a trabajar)$> start-dfs (se inicia el servicio del sistema de archivos de Hadoop)También con $>start-all (se inician todos los servicios, por ejemplo Yarn)Se debe comprobar que el sistema está levantado accediendo desde el navegador a la URL (abre una interfaz Web para visualizar el entorno Hadoop) (para >Hadoop 3 o superior) (para Hadoop 2)Ahora, crearemos un nuevo directorio en el nodo (único) sobre el que trabajamos actualmente. Así, el comando para esto es hdfs dfs -mkdir hdfs://localhost:9000/DUOCLuego verificamos que se creó correctamente el directorio DUOC dentro del sistema de archivo de Hadoop, el comando es hdfs dfs -ls -R hdfs://localhost:9000/Luego lo podemos revisar desde la web en v) o vi), opción EXPLORAR (Menú Utilities/Browse the file system).SI queremos crear un archivo en el directorio DUOC, lo realizamos con el comando touchAsí, el ejemplo de creación de un archivo quedaría de esta manera: hdfs dfs -touch hdfs://localhost:9000/DUOC/ejemploPara ver el archivo creado (vacío) se puede usar la interfaz Web o el comando:hdfs dfs -ls -R hdfs://localhost:9000/Apache SparkApache Spark (Descarga) Spark: Instalación en WINDOWS 10 Big Data con Sparkón a Spark ................
................

In order to avoid copyright disputes, this page is only a partial summary.

Google Online Preview   Download

To fulfill the demand for quickly locating and searching documents.

It is intelligent file search solution for home and business.

Literature Lottery

Related searches