About This Course
Crie o seu servidor Apache Spark, processe grandes quantidades e faça um streaming em tempo real utilizando PySpark :)
Não se assuste mais com as tecnologias de Big Data! Aprenda o essêncial para processar grandes quantidades de dados em memória com o melhor Framework do mercado: O Apache Spark!
Iniciaremos do zero, explicando o que é Big Data e o que é necessário para que um dado seja categorizado como tal. Tudo de forma simples, com uma linguagem leve e agradável!
Após nos situarmos entre as tecnologias explicadas, dentre elas, o Hadoop, criaremos um servidor Apache Spark em uma instalação Windows e então prosseguiremos o curso explicando todo o framework e analisando dados. Vale ressaltar que instalaremos o Spark no Windows para os usuários menos experientes. Caso você seja usuário Linux, não se preocupe: Os comandos são os mesmos!
Explicaremos detalhadamente o que são as variáveis de ambiente e como elas influenciam na instalação e configuração de programas, como por exemplo o Java e a sua máquina virtual, a JVM.
Aplicaremos Map Reduce e outras funções nativas do Spark, utilizaremos o Spark SQL, criaremos RDDs e os novos Dataframes! Tudo isso do zero, passo a passo, explicado com que você já conhece!
Preocupado com os softwares? Você terá um drive com todos os programas e scripts do curso, exlusivo para o nosso material, além de, é claro, também ter os links oficiais, caso deseje baixar os programs direto do fabricante!
E aí? Curtiu a ementa?
Vem comigo aprender a processar Big Data!!
Brunno P. G.
Curso aparenta estar incompleto, pouca ou quase nenhuma aula sobre joins, agregações, funções de tratamento/conversão de dados no spark, etc