Big Data Engineer Databricks H/F

Company Description Vous êtes passionné par le digital, la data, l’ioT ou l’IA et souhaitez rejoindre une équipe dynamique et ambitieuse à taille humaine ? N’attendez plus et rejoignez Talan !

Company Description

Vous êtes passionné par le digital, la data, l’ioT ou l’IA et souhaitez rejoindre une équipe dynamique et ambitieuse à taille humaine ?

N’attendez plus et rejoignez Talan !

Depuis plus de 15 ans, nous conseillons les entreprises et les administrations et les accompagnons dans la mise en œuvre leurs projets de transformation en Suisse et à l’international.

Pour ce faire, nous nous appuyons à la fois sur le levier technologique et sur la force de notre ADN basé sur l’intelligence collective, l’agilité et le goût d’entreprendre.

Présent sur cinq continents, avec plus de 3 500 collaborateurs notre objectif est de dépasser la barre du milliard d’€ de CA à horizon 2024. L’innovation est au cœur de notre développement et nous intervenons dans les domaines liés aux mutations technologiques des grands groupes, comme le Big Data, l’IoT, la Blockchain et l’Intelligence Artificielle.

Nos valeurs & terrains de jeu :

  • Intelligence collective
  • Agilité
  • Entreprenariat /Intrapreneuriat
  • Promouvoir la diversité/mixité (Soutient à la Fondation femmes@Numerique…)
  • Engagement (employé, partenaires, écoles, associations…)
  • Respect de l’humain et qualité de vie au travail
  • Ouverture d’esprit et inclusivité

Au cœur de la stratégie du domaine « Operational Intelligence », Talan recherche un Big Data Engineer Databricks confirmé pour intégrer un Feature Team AGILE SCRUM ayant pour objectif de développer des nouveaux cas d’usage sur une plateforme AWS (Databricks -Spark, MLFlow, LakeStore,…-, Airflow, Kafka Confluent…) pour un grand acteur du transport. Les cas d’usage seront sur tous les domaines métiers du groupe (financier, marketing, maintenance prédictive,…) et avec des finalités larges (Big Data, BI, Data Science, IA, Open Data, Closed Data,…).

Qui sommes-nous ?

Le domaine “Operational Intelligence”, composé de 50+ experts (Big Data Engineer, Machine Learning Engineer, IA Engineer, Architecte Big Data Cloud…), intervient sur des projets visant à améliorer l’efficacité opérationnelle via l’exploitation de données complexes en mêlant l’IoT, l’IA, la Data Science, le Big Data.

Nos réalisations tournent autour de thématiques telles que :

  • Industrie 4.0 : captation, traitement, stockage et monitoring temps réel de métriques issues d’objets connectés, exposition via API d’informations et de services, …
  • Vision 360 : centralisation des informations en vision 360 tout en garantissant la sécurité (encryption, anonymisation,…) pour garantir la compliancy avec la RGPD …
  • Analyse du comportement en temps réel, détection de fraude, de blanchiment d’argent, …
  • Exposition services innovant client : analyses des comportements et recommandations client en temps réel,,…
  • Mise en place de DataLake, DataHub,…

Nous intervenons autant dans des DSI que des direction métiers (le cloud nous ouvrent ces portes !), dans des modes forfaitaires ou en régie.

Job Description

Nous sommes à la recherche d’un Big Data Engineer Databricks confirmé qui sera en charge de l’intégration des données : acquisition, préparation, modélisation et stockage, exposition, . Vous devrez faire preuve d’un état d’esprit à la fois innovant, méthodique, orienté solution (et non problème !), et communiquant.

Responsabilités

  • Analyse des besoins techniques métiers, définition de l’architecture solution et logiciel, référent technique, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation, et parfois assumer le rôle de Scrum Master,…
  • Partager techniquement les membres de l’équipe : solutions et code reviews, recommandations, certifications à réaliser, …
  • Participation à des meet-up, coding dogo,…
  • Communication : écriture d’articles, retours d’expérience…

Qualifications

  • Issu d’une formation supérieure (école d’ingénieur, master,…)
  • Vous disposez d’au moins 3 années d’expérience dans le domaine du Big Data et particulièrement sur le framework Spark (idéalement Databricks)
  • Maîtrise du développement logiciel (Scala, Python,…) et vous disposez de solides expériences dans la mise en place de pipeline de données
  • Expérience sur une plateforme Cloud serait un plus et idéalement AWS
  • Expérience sur des flux temps réel serait un plus : Kafka + Spark Streaming
  • Maitrise du langage SQL
  • Expérience sur des méthodes de stockage : HDFS, S3, ,…
  • Bonnes connaissances en devOps : Jenkins, Gitlab, Maven, …
  • Connaissance de l’Agilité
  • Autonomie, organisation, sens du partage
  • Bonne communication
  • Orientation produit et solution

Additional Information

Avantages :

  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications) grâce à nos partenariats nous accordant une position de partenaire privilégié, et management de proximité par des experts
  • Top 5 du Palmarès Great Place to Work
  • Siège parisien situé à Charles-De-Gaulle Etoile
  • Tickets restaurants
  • Mutuelle d’entreprise prise en charge à 100%
  • Prime vacances
  • Prime de participation
  • 1% logement
  • RTT

Leave a Reply