Big Data Engineer

Publicado 06 Dezembro 2018

Wondercom

Lisboa (Construção Civil)


Somos nos dias de hoje, uma empresa TIC de referencia no mercado nacional, sendo palco de uma evolução e crescimento que, embora exponencial, tem ocorrido de uma forma sustentável e consolidada.

Caracterizada por um estilo de liderança que promove a proximidade das pessoas e a sua envolvência com a Organização, temos grande facilidade em responder às necessidades dos Cliente e exigências do mercado.

Procuramos profissionais que se desafiem constantemente e que procurem uma experiência de crescimento e aprendizagem constantes.

Integrado na equipa de Data Engineering terá a responsabilidade de ingestão e modelação de dados Big Data e está ainda no âmbito dos serviços:
a) Adquirir e procurar/pesquisar fontes e datasets relevantes para um desafio analítico
b) Implementar processos corporativos de compartimentação, realizar a ingestão de fontes, identificar ligações a garantir para a catalogação e identificação de dados pessoais
c) Levantar regras de normalização de dados e implementar nos datasets (amostras) identificados
d) Criar datasets, catalogar e identificar dados pessoais
e) Agregar estruturas de dados complexas e de grande dimensão que garantem os requisitos funcionais ou não funcionais de negócio
f) Criar soluções de software sobre big data e criar data pipelines
g) Apoiar Stakeholders em temas técnicos relacionados com dados e necessidades de infraestrutura


Perfil Técnico:

  • Licenciatura ou Mestrado em Engenharia Informática, Gestão de Informação ou similar
  • 2 anos de experiência em projectos de desenvolvimento e desenho de soluções de Big Data
  • Conhecimento e/ou experiência em:
    • Tools do ecossistema Hadoop (e.g. HDFS, Kudu, Hive, Impala, Spark, Kafka/Confluent);
    • Bases de dados NoSQL (e.g. MongoDB, Cassandra, HBase);
    • Linguagens de programação Java e/ou Scala
    • Desenvolvimento de pipelines de ingestão de dados em Batch e/ou NRT
    • Desenvolvimento SQL (e.g. Oracle, MS SQL, MySQL);
    • Desenvolvimento de ETL e ELT (valorizado);
    • Desenvolvimento de Data Warehouse (valorizado);
    • Unix/Linux e Shell Scripting
    • Construção de RESTful APIs (valorizado)
    - Linguagens na óptica de Data Science - Python e/ou R (valorizado)
    • Sistemas de controlo de versões (e.g. GIT)
    • Frameworks Agile (e.g. Scrum, Kanban)


Perfil Comportamental:

  • Pensamento crítico
  • Foco na qualidade
  • Foco no detalhe
  • Autonomia
  • Conhecimento técnico
  • Pragmatismo
  • Capacidade analítica
  • Capacidade de interpretação
  • Foco na entrega
  • Gestão de tempo
  • Trabalho em equipa
  • Problem solving

Oferecemos integração numa organização dinâmica e exigente, com oportunidade de participação em projetos tecnologicamente inovadores.