¿Cuánto tiempo se requiere para aprender hadoop?

Depende de varios factores:

  • Tu experiencia
  • Tu conocimiento en tecnología.
  • ¿Cuántas horas dedicas a tu preparación?
  • ¿Estás planeando un auto estudio o tomando algún curso de entrenamiento comercial

Si está más fresco, lea mi respuesta anterior para obtener más detalles sobre cómo aprender Hadoop y conseguir un trabajo:

  • ¿Cómo consigo un trabajo en Hadoop como más fresco?

Si no estás más fresco, asumo que tienes conocimientos básicos sobre lenguajes de programación.

  • Si tiene una experiencia laboral de menos de 1 año, necesita un mínimo de 6 meses para dominar la tecnología Hadoop
  • Si tiene una experiencia laboral de> 1 año y <5 años, necesita 3 meses a 6 meses para aprender Hadoop
  • Si tiene más de 5 años de experiencia en el campo de la tecnología, puede dominar hadoop dentro de los 3 meses de tiempo.

Una vez más, las estimaciones anteriores se basan en que usted tiene un buen poder de comprensión para comprender las tecnologías.

Cursos de formación

Si está interesado en aprender mucho más rápido, es recomendable que se inscriba en cursos de capacitación comercial sobre big data.

Es más ventajoso si tomas cursos de certificación como Hortonworks o Cloudera. Ofrece más valor al completar la certificación.

Algunos de los cursos populares de certificación de Hadoop son:

  • Certificación de Administrador Certificado HDP (HDPCA)
  • Cloudera Certified Associate Data Analyst

¡Espero que esto te ayude!. Si tiene alguna pregunta sobre big data, por favor envíeme un mensaje.

Si va a aprender por sí mismo, tomará mucho tiempo, no puedo decir cuánto tiempo depende de su conocimiento previo sobre la tecnología y el material que prefiere.

Si va a un curso de certificación, puede tomarle aproximadamente dos meses aprender el Big Data Hadoop. Es posible que enfrente algunos problemas si no está familiarizado con el lenguaje Java. El curso Big Data y Hadoop de DataFlair ofrece el curso Java como complemento del curso Big Data Hadoop y la capacitación está orientada al 100% en el trabajo.

Otras razones para mi sugerencia de este curso son:

  1. Tienen mejores mentores, capacitadores y material de estudio, ya que tienen una base de alumnos y una audiencia más grandes.
  2. Hay sesiones de entrenamiento de video interactivo en vivo y puedes acceder a esos videos de por vida.
  3. Muchos profesionales y estudiantes con experiencia se inscriben en estos cursos y, por lo tanto, han programado sus clases de capacitación en consecuencia
  4. Puede asistir a clase desde cualquier lugar en el que se encuentre, no necesita tiempo libre para asistir a las sesiones.

También le sugiero algunos tutoriales si desea comenzar a aprender Hadoop:

  1. Big Data – Aprenda qué es Big Data y su importancia
  2. Tutorial de Hadoop – Una guía completa de Hadoop para principiantes
  3. Características de Hadoop HDFS: una descripción general para principiantes
  4. MapReduce – Introducción a Hadoop MapReduce para principiantes
  5. Terminologías de Big Data y conceptos de Hadoop que debes conocer
  6. Componentes del ecosistema de Hadoop y su papel
  7. Cómo funciona Hadoop – Aprenda el funcionamiento interno de Hadoop
  8. MapReduce InputSplit vsBlock en Hadoop
  9. Limitaciones de Hadoop – Cómo superar
  10. Hadoop – Video tutorial

Es realmente un buen momento para aprender Big Data y Hadoop y aprovechar la oportunidad de oro para hacer una carrera en él. Capacítate y toma los mejores empleos en la industria.

Siempre hay una pregunta que es cuánto ganaré. La siguiente imagen gráfica muestra el sistema salarial en el perfil de Big Data. Sin embargo, según su experiencia, puede ingresar en cualquier etapa del gráfico.

REVISE la respuesta si la encontró informativa y seguiré compartiendo más conocimientos sobre BigData.

El mundo de Hadoop y el “Big Data” pueden ser intimidantes: cientos de tecnologías diferentes con nombres crípticos forman el ecosistema de Hadoop. Con este curso, no solo entenderá qué son esos sistemas y cómo encajan entre sí, sino que también aprenderá cómo usarlos para resolver problemas comerciales reales.

Hadoop, MapReduce, HDFS, Spark, Pig, Hive, HBase, MongoDB, Cassandra, Flume – ¡la lista continúa! Más de 25 tecnologías.

Enlace del curso: The Ultimate Hands-On Hadoop – ¡Domine su Big Data !

Aprenda y domine las tecnologías de big data más populares en este curso integral, impartido por un ex ingeniero y gerente senior de Amazon y IMDb . Vaya más allá de Hadoop y sumérjase en todo tipo de sistemas distribuidos con los que deba integrarse.

  • Instale y trabaje con una instalación real de Hadoop en su escritorio con Hortonworks y la interfaz de usuario de Ambari
  • Administre big data en un cluster con HDFS y MapReduce
  • Escribir programas para analizar datos en Hadoop con Pig and Spark
  • Almacene y consulte sus datos con Sqoop , Hive , MySQL , HBase , Cassandra , MongoDB , Drill , Phoenix y Presto
  • Diseñar sistemas del mundo real utilizando el ecosistema de Hadoop.
  • Aprenda cómo se maneja su grupo con YARN , Mesos , Zookeeper , Oozie , Zeppelin y Hue
  • Maneja los datos de transmisión en tiempo real con Kafka , Flume , Spark Streaming , Flink y Storm

Comprender Hadoop es una habilidad muy valiosa para cualquier persona que trabaje en compañías con grandes cantidades de datos.

Casi todas las grandes empresas en las que desea trabajar utilizan Hadoop de alguna manera, incluidos Amazon, Ebay, Facebook, Google, LinkedIn, IBM, Spotify, Twitter y Yahoo! Y no son solo las empresas de tecnología las que necesitan a Hadoop; incluso el New York Times utiliza Hadoop para procesar imágenes.

Este curso es exhaustivo y abarca más de 25 tecnologías diferentes en más de 14 horas de conferencias en video . Está lleno de actividades y ejercicios prácticos, por lo que obtienes una experiencia real en el uso de Hadoop, no es solo teoría.

Encontrará una variedad de actividades en este curso para personas en todos los niveles. Si usted es un administrador de proyectos que solo quiere aprender las palabras de moda, existen UI web para muchas de las actividades en el curso que no requieren conocimientos de programación. Si te sientes cómodo con las líneas de comando, también te mostraremos cómo trabajar con ellas. Y si eres programador, te desafiaré con la escritura de scripts reales en un sistema Hadoop usando Scala, Pig Latin y Python .

Saldrá de este curso con una comprensión profunda y real de Hadoop y sus sistemas distribuidos asociados, y podrá aplicar Hadoop a problemas del mundo real. ¡Más un valioso certificado de finalización te espera al final!

Tenga en cuenta que el enfoque en este curso está en el desarrollo de aplicaciones, no en la administración de Hadoop. Aunque recogerás algunas habilidades de administración a lo largo del camino.

¿Quién es el público objetivo?

  • Ingenieros y programadores de software que desean comprender el ecosistema más grande de Hadoop y usarlo para almacenar, analizar y vender “big data” a escala.
  • Gestores de proyectos, programas o productos que deseen comprender la jerga y la arquitectura de alto nivel de Hadoop.
  • Los analistas de datos y los administradores de bases de datos que tienen curiosidad por Hadoop y cómo se relaciona con su trabajo.
  • Arquitectos de sistemas que necesitan comprender los componentes disponibles en el ecosistema de Hadoop y cómo encajan entre sí.

Haga clic en el enlace del curso arriba para ver los contenidos del curso.

Déjame contarte mi experiencia de cuánto tiempo me tomó aprender Hadoop.

Cambié mi carrera de Java a Big Data y tardé unos 2 meses en sentirme cómodo en Hadoop. Lo aprendí a través de la capacitación en línea e hice algunos proyectos allí. Me tomó cerca de 2 meses completar la capacitación y los proyectos de post, por lo que comencé a sentirme muy cómodo con esta tecnología.

Por lo tanto, se requerirá un mínimo de 2 a 3 meses para aprender Hadoop.

PD: era de Java, así que no dediqué tiempo a aprender java para Hadoop. Es posible que necesite 15 días adicionales para aprender los aspectos básicos de java para Hadoop si no pertenece al dominio java.

Puede ir a través del siguiente enlace para entender cómo aprendo Hadoop:

La respuesta de Shreya a ¿Cómo se puede pasar del dominio de Java a Hadoop?

Aunque depende de persona a persona, pero si se siente cómodo con la programación en java, entonces tendrá un inicio rápido. Aprender java básico para una persona con conocimientos de OOP no sería una tarea cuesta arriba, se podría requerir un máximo de 2 semanas para conocer los conceptos básicos de java.

Habiendo dicho eso, diría que no te des más de 3 meses para aprender Hadoop. Cuanto más tiempo le des, más perezoso serás.

Cuando aprendes una nueva habilidad, se reduce a lo perseverante que eres, porque muy a menudo terminarás en situaciones en las que sientes ganas de “detener” el aprendizaje, ya que en algún momento te quedas atascado.

¡Sea paciente y sea perseverante!

Tenía un historial de C ++, me tomó 3 meses para sentirme cómodo con hadoop.

Feliz aprendizaje !!

Puede obtener un conocimiento profundo de Hadoop en el plazo de 1 semana, pero necesita dedicar su tiempo al aprendizaje de lo contrario, de lo contrario, puede llevarle un mes. También había tomado el entrenamiento de Big Data y Hadoop de un instituto en línea.

En eso, el tiempo total de duración del curso fue de 40 horas, también hubo 40 horas de tareas y 30 horas de proyectos en vivo. Podemos acceder a todos los materiales proporcionados por ellos desde su LMS durante toda la vida, lo que me ayudó mucho a prepararme para la entrevista.

Si también desea tomar el entrenamiento de Hadoop, le sugiero que se registre aquí hoy en Data-Flair.

Te sugiero que aprendas haciendo. En unas pocas semanas, podría estar bastante familiarizado con los componentes principales del ecosistema de Hadoop. Suponiendo que usted ya es un programador y también sabe algo de SQL, tomará de diez a veinte días completos para poder decir que entiende los conceptos básicos.

Descárgalo e instálalo y los componentes relacionados que deseas aprender. Usted querrá tener Java y posiblemente Python y Scala también. Instale Eclipse si no tiene IDE. Todo es gratis o de código abierto.

Primero, ejecute HDFS y aprenda la interfaz de línea de comandos. Entonces haz que Hadoop corra. Escribe algunas aplicaciones simples de reducción de mapas en Java. Instale HBase y Hive y aprenda a usarlos, tanto a través del shell como de Java. Si te vuelves ambicioso, entonces prueba Spark.

Si desea una instalación fácil, use una versión de Hadoop de Cloudera o una de las otras. Pero este atajo te hará sentir menos seguro porque Hadoop no es una cosa, sino una colección de cosas y un paquete prebundado te dejará sin idea acerca de los componentes individuales.

Hay muchos buenos tutoriales en línea y ejemplos de Apache, Cloudera, TutorialsPoint, etc. También O’Reilly tenía algunos libros muy buenos sobre Hadoop y los diversos componentes.

Por cierto … Ni siquiera pienses en hacer esto en Windows, ya que los scripts están mal mantenidos y muchas versiones tienen errores que solo están presentes en la versión de Windows. Instalar Ubuntu Linux en una PC vieja. Es gratis y fácil de usar.

Asista a una demostración gratuita de Hadoop & Analytics el 23 de diciembre a las 8:30 PM, hora del este, para comprender esto.

Enviar un correo a

[email protected]

mira hombre, no se trata de tiempo, sino de cuánto tiempo vas a tomar para entender los conceptos de hadoop.