¿Cuál es el conocimiento mínimo requerido para comenzar a estudiar big data?

Big Data se define por el volumen, la velocidad (tasa de creación) y la variedad de datos.
Lo que puede hacer con Big Data depende de sus necesidades.

Generalmente hay tres perspectivas en la especialización de Big Data, elija al menos una:

  1. Cómo manejar los datos. Debe saber al menos acerca de las técnicas estándar de administración de bases de datos. Principalmente relacionales (también conocido como SQL), aunque solo sea para entender por qué hay muchos enfoques exitosos de Big Data de NOSQL. Debe tener un conocimiento general sobre los algoritmos distribuidos para poder entender los conceptos básicos de Hadoop, por el momento, hasta que Spark o cualquier otra alternativa lo sustituya como el marco de procesamiento paralelo preferido.
  2. Cómo procesar los datos. Cualquier conocimiento previo de estadísticas es bienvenido. Aún mejor, saber sobre reconocimiento de patrones, aprendizaje automático y similares.
  3. Qué hacer con los datos. Aquí es más importante conocer una industria determinada (finanzas, comercio minorista, telecomunicaciones), cuáles son los factores de valor, su cadena de suministro, clientes, competidores, etc. De esta manera, puede obtener los resultados del # 2 de los datos almacenados. y procesado como # 1. Tal vez esta sea su mejor opción, no se espera que ningún miembro del equipo domine el # 1, el # 2, el # 3.

Parece que ya sabes al menos lo menos. En su núcleo, Big Data se trata de grandes conjuntos de datos complejos y de lo que son cambios en el tiempo. He estado en el juego de datos el tiempo suficiente para recordar cuando un conjunto de datos de 4 gigas con menos de cien características se consideraba grande.

Probablemente, el mínimo requerido sea algo de experiencia en programación, idealmente en Python / R, junto con un conocimiento práctico de estadísticas.