Especialista en Big Data con Apache Hadoop (A distancia)

Centro de e-Learning UTN BA Institución privada
Duración:5 Semanas
Tipo:Cursos
Modalidad:A distancia
Big Data es el término que se utiliza para describir los grandes volúmenes de datos que componen Internet y la posibilidad de obtener información sobre ellos. La información en Internet está formada por datos estructurados, y por desestructurados, que en cantidad superan tres veces a los primeros y que provienen mayormente de las herramientas de redes sociales. Actualmente en menos de un minuto: se generan cerca de 100.000 tweets, se descargan 25.000 aplicaciones, 300.000 personas se loguean a Facebook y se ven 1,5 millones de videos en YouTube. Se estima que en 2014 cada día fueron creados cerca de 3 trillones de bytes de datos y se espera que para el año 2020 haya 35 zettabytes de información. La disciplina dedicada a los datos masivos y que se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos es Big Data. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la captura, el almacenamiento, búsqueda, distribución (compartir), análisis y visualización de los datos. Dentro de las herramientas para trabajar con Big Data Apache Software Foundation creó Hadoop. Haddop es un marco de trabajo de software basado en Java y que soporta aplicaciones distribuidas bajo una licencia de software libre – freeware. Permite a las aplicaciones trabajar con miles de nodos y petabytes de datos. La formación de Especialista en Big Data tiene como objetivo familiarizar a los participantes con el uso de las técnicas y herramientas más difundidas de Hadoop. Se espera que los participantes incorporen criterios para saber cuándo emplear y cuando no emplear las técnicas y herramientas de Big Data.
Objetivo General
Formar a los asistentes en Big Data, para lo que se requiere que los participantes: Entiendan las ventajas y desventajas de las técnicas de Big Data Sepan distinguir los problemas que son susceptibles de emplear las técnicas de Big Data Comprendan los contextos en los cuales Big Data no tiene sentido desde el punto de vista de almacenamiento y explotación de la información Conozcan las herramientas disponibles identificando sus fortalezas y debilidades Sepan utilizar las funciones más difundidas de Apache Hadoop Puedan diseñar un flujo de trabajo con MapReduce, el modelo de programación utilizado por Google para dar soporte a la computación paralela
Modulo 1: Especialista en Big Data con Apache Hadoop
- Unidad 2: ¿Cuando usar Apache Hadoop?
- Unidad 3: ¿Como configuramos un entorno Apache Hadoop?
- Unidad 4: HDFS y MAP REDUCE
- Unidad 5: Otros Lenguajes para Hadoop y Pasos Siguientes
¡Ayudanos y Reportalo!