CCA175: Cloudera Hadoop y Spark Developer certificaciones consejos: –
1. Preparación : CCA175 Preguntas vinculan y practican el código provisto por http://www.HadoopExam.com. (Pasado a través de todo el módulo de formación de Spark Professional también)
2. No. de preguntas : generalmente obtendrá 10 preguntas en el examen real: los temas serán las cubiertas Sqoop, Hive, Pyspark y Scala y avro-tools para extraer el esquema (todas las preguntas están cubiertas en el Simulador de certificación CCA175 ).
- Solo me quedan 4 meses para NEET, ¿puedo hacerlo bien en NEET y obtener un buen AIR también, dado que no estoy preparado a medias con el plan de estudios en este momento?
- ¿Puede un estudiante esperar obtener la calificación en BITSAT incluso después de obtener un puntaje inferior al de corte en JEE Mains?
- ¿Qué tan difícil es para un estudiante de IGCSE descifrar exámenes como JEE en comparación con los estudiantes de CBSE, ICSE y otras juntas?
- ¿La nueva política de GMAC para volver a tomar el examen GMAT hará que sea más difícil obtener una puntuación en el percentil 89, es decir, una puntuación mínima de 700 en los próximos años?
- ¿Cuándo serán los resultados de Telangana TET 2016?
3. Fragmentos de código : se proporcionarán para Pyspark y Scala. Debe editar los fragmentos de código de acuerdo con la declaración del problema.
4. Entorno de examen real : se podrá acceder al nodo Gateway para la ejecución de los problemas durante el examen. Tenga en cuenta que no habrá ningún temporizador en pantalla disponible durante el examen. Tienes que seguir preguntando por el tiempo que queda. Hay tres secciones para cada problema, es decir
- Instrucciones
- Conjunto de datos
- Requisitos de salida.
- Lea detenidamente las tres secciones antes de comenzar a desarrollar el código.
- Nota : Si comenzó a desarrollar código justo después de mirar la parte de instrucciones de la pregunta, luego se dará cuenta de los detalles exactos de la tabla, como el nombre de la tabla y el directorio HDFS. Esto puede desperdiciar su tiempo si tiene que rehacer el código o le puede costar una pregunta.
5. Editor : nano, gedit no están disponibles. Entonces, si tiene que editar cualquier fragmento de código, debe usar vi solo. Por favor, familiarícese con vi editor si no lo está.
6. Llene los espacios en blanco : no tiene que escribir el código completo para Python y Scala para Apache Spark, generalmente le pedirán que complete los espacios en blanco.
7. Flume : Muy pocas preguntas sobre flume.
8. Nivel de dificultad : si tiene suficiente conocimiento, sentirá que el examen es bastante fácil. Las preguntas fueron lógicamente fáciles y pueden responderse en el primer intento si lees la pregunta detenidamente (las tres secciones).
9. Error común en Sqoop : la gente usa el conector como localhost, lo que es incorrecto, debe usar el nombre completo en lugar de localhost (evite perder su tiempo). Usar el nombre de host dado
10. Colmena : Tener conocimiento inicial de la colmena también.
11. Chispa : usando funciones básicas de transformación para obtener la salida deseada. Por ejemplo, filtrar según el escenario particular, clasificación y clasificación, etc.
12. Avro-tool : avro-tool para obtener el esquema del archivo avro. ( Muy bien cubierto en CCA175 HadoopExam.com Simulator )
13. Gran error : Evite eliminar accidentalmente sus datos: es necesario tener buenas prácticas para evitar tales errores. (Una vez que elimine o suelte la tabla de Hive, tendrá que crearla completamente una vez más). Lo mismo se indica en www.HadoopExam.com durante la sesión de sus videos provista en http: //cca175cloudera.training4e… (Por favor, consulte las sesiones de muestra)
14. Spark-sql : No harán preguntas basadas en Spark Sql. Aprendizaje importante, reducir, ordenar.
15. Administración del tiempo : es muy importante (por eso necesita mucha práctica, use el simulador CCA175 para practicar todas las preguntas al menos una semana o dos antes de su examen real).
16. Los conjuntos de datos en el examen real son bastante más grandes, por lo que tomarán de 2 a 5 minutos para la ejecución.
17. Intentos : intente intentar todas las preguntas al menos 9/10, por lo tanto, debe poder obtener un 70%.
18. Formato de archivo : en la mayoría de las preguntas había un archivo delimitado por tabulaciones para procesar.
19. Python o Scala : obtendrá un archivo de python o scala precargado para trabajar, por lo que no tiene (ahora puede elegir) una opción si desea intentar una pregunta a través de scala o pyspark. (He pasado por todas las sesiones de video proporcionadas por www.HadoopExam.com aquí
20. Problema de conexión : si se desconectó durante el examen, es posible que deba comunicarse con el supervisor de inmediato. Si no está disponible, inicie sesión nuevamente en Programar un examen y use su ayuda en línea.
21. Shell scripts : tener una buena experiencia para usar shell scripts.
22. Tipos de preguntas como se menciona en el programa : las preguntas fueron de Sqoop (importar y exportar), Hive (creación de tablas y partición dinámica), Pyspark y Scala (unir, clasificar y filtrar datos), avro-herramientas. Se proporcionarán fragmentos de código para Pyspark y Scala. Debe editar los fragmentos de código de acuerdo con la declaración del problema y puede obtener el archivo de script (que es otro archivo aparte del fragmento de código) para obtener los resultados.
23. El examen general es fácil, pero requiere mucha práctica para completarlo a tiempo y para soluciones precisas del problema. Por lo tanto, revise todo el material a continuación para el CCA175 (no tomará más de un mes, si usted es nuevo y ya sabe Spark y Hadoop, entonces 2-3 semanas son suficientes).
- · CCA175: Preguntas de práctica de la certificación de desarrollador Hadoop y Spark
- · Formación profesional Hadoop.
- · Formación profesional de chispas.
Características del CCA 175 (certificación Cloudera Hadoop y Spark Developer)
1. Se cubrirá el programa completo.
2. Todas las preguntas están basadas en el escenario y se darán soluciones paso a paso.
3. Lo mismo será ejecutado por nuestro equipo técnico y los videos grabados de cortesía seleccionados se compartirán aquí.
4. Se cubrirán casi todos los escenarios para exámenes reales.
5. Cualquier actualización futura será gratuita de por vida en una sola máquina.
6. Las soluciones ya se ejecutan en Cloudera CDH, por lo que las mismas se pueden usar para un examen real.
7. Nuestro experto actualiza regularmente el simulador.
8. Te ayudará a ganar confianza y reducir el tiempo de estudio.
9. Siempre actualizada y correcta / incorrecta forma de explicación de las soluciones.
Notas importantes:-
El patrón, debes seguirlo.
1. Todas las preguntas en la práctica, sin objetivo.
2. Todos los problemas que necesitamos, escribimos el código y ejecutamos en su clúster cdh5 .
3. El resultado debe y debe ser su forma esperada, si no es 0 puntaje
ejemplos:
- salida esperada x, y => tienes salida x, y o x, y
- No considerarán como una respuesta correcta también.
- Unos puntos tan pequeños que también hay que recordar.
- En el código también muy cuidadosamente tenemos que escribirlo. de lo contrario, lo harán solo como una respuesta incorrecta.
- Un ejemplo simple para ese código debe escribirse en una sola línea en el código de scala o python, pero con el propósito de la legibilidad que puede devolver en varias líneas, la respuesta se considerará como incorrecta.
- val wordcount = file.flatMap (line => line.split (“”) .map (word => (word, 1))
- Podemos por encima de la declaración como esta también.
- val words = file.flatMap (line => line.split (“”)
- val wordcount = words.map (word => (word, 1))
4. Por favor lea las preguntas claramente … porque
- Algunas preguntas darán un archivo de solución parcial en una ubicación específica en cdh5 vm . Necesitamos dar la solución correcta solo en ese archivo.
- Algunas preguntas que necesitamos para leer datos de hdfs.
- Algunas preguntas que necesitamos para leer los datos del sistema de archivos local.
- Algunas preguntas que necesitamos para leer datos de RDBMS.
- Algunas preguntas que necesitamos para leer datos de HDFS en diferentes formatos de archivo también usan spark con scala o python o hive o sqoop
- Como avro, parquet, json.
- Algunas preguntas solo dieron información parcial.
- Tengo 1 pregunta como esa.
- Casi pierdo mi tiempo 10 minutos allí solamente. Finalmente lo resolvió mediante una observación más profunda en los datos .
5. Podría enfrentar algunos problemas en el examen de escritura
- La fuente es muy baja , es difícil leer las preguntas y dar las respuestas también.
- El clúster es muy lento , no haga las tareas múltiples que cuelga
- El mismo problema que enfrenté, casi me toma 2-3 minutos volver a aparecer. como 2 -3 veces pasan también.
- puede matar su tiempo alrededor de 5-10 minutos también
- *** Recuerde que las ubicaciones del software cdh5 normal y este grupo de exámenes cdh5 serán diferentes según lo observado.
- Debido a esta 1 pregunta es muy difícil de responder desde mi lado. Tomó más tiempo para resolver.
- Utilicé mi experiencia previa en el conocimiento de Big Data para resolver ese problema. De otra manera puedo perder la respuesta de 1 pregunta .
Nota: – Esta respuesta ha sido tomada de google solo para ayudar a la gente.