Data Engineer H/F

A propos de nous

Nous sommes le premier industriel de la donnée en Europe. Notre métier est de créer, manager et exploiter le patrimoine data de nos clients.

Nous avons la conviction que chaque entreprise peut adopter une démarche innovante de gestion de la donnée et créer des cas d’usage disruptifs en réduisant l'impact écologique et en diminuant la dette technique.

Nous comptons plus de 900 collaborateurs en mission chez nos clients grands comptes dans tout secteur d’activité : banque, assurance, santé, énergie, e-commerce, automobile, luxe, retail, transport, agritech…

MissionS proposéeS

Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data.

Vous aurez la charge de :

  • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers

  • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles

  • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management

  • Transcrire des besoins métier en règles de gestion data

  • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression

Notre profil idéal

• Master en Informatique ou formation équivalente

• 5 ans d’expérience (ou plus) dans un rôle similaire

ETL & Data Integration

• Maîtrise de Semarchy xDI ou SSIS

• Bonnes pratiques de conception, optimisation et industrialisation de flux ETL

• Expérience en gestion et optimisation de pipelines de données

Plateformes analytiques modernes

• Expérience des plateformes analytiques modernes telles que Azure Synapse Analytics ou Microsoft Fabric (Data Factory, Lakehouse, Warehouse…)

• Bonne expérience en développement Python, Spark, R

Streaming & Échange de données

• Connaissance de Kafka (architecture, topics, producteurs/consommateurs, connecteurs)

• Familiarité avec les principes d’Event Streaming et d’intégration temps réel

APIs & Intégration

• Utilisation et conception d’API REST, GraphQL

• Compréhension des formats d’échange : JSON, XML

• Appels API dans des pipelines d’intégration (ex. via ADF, xDI, scripts…)

• Notions de sécurité API : authentification, gestion des tokens

Bases de données

• Connaissances des bases Oracle, SQLServer, MongoDB

• Solide maîtrise du SQL (optimisation, requêtes complexes, procédures)

• Connaissances en modélisation de données

Genève
42,50h
/semaine
De 115000€ 
à 120000€
/an
CDI
Data
Français

Partager cette offre

Intéressé(e) ? Pour postuler c'est ici que ça se passe !

Maximum file size: 20 Mo