Missions du poste :
- Compréhension et prise en main rapide des besoins du client ;
- Modélisation des données ;
- Conception des interfaces et des flux de de données ;
- Rédaction des spécifications techniques en se basant sur les besoins métiers ;
- Développement des solutions autour de l’intégration des données (ETL/ ELT) dans un environnement DWH et Big Data ;
- Optimisation des flux et des interfaces de données ;
- Respect des normes et bonnes pratiques de développement ;
- Assurer le support, la maintenance évolutive et corrective des solutions en Mode Run ;
- Rédaction des procédures techniques et la description des incidents/problèmes et leur résolution ;
- Reporter au manager AIM l’état d’avancement des travaux, remonter les risques, alertes et proposer des solutions et plans de remédiation.
Profil demandé :
Niveau de formation : Diplômé d’une Grande Ecole d’Ingénieur d’Etat, Master 2 avec spécialité autour d’une discipline DATA (BI, Big data, Data Science…) ;
Durée d’expérience :
- Minimum 1 an d’expérience dans le développement Big Data ;
- Expérience dans le développement autour du language Pyspark ou sur la plateforme Snowflake ;
- Expérience dans le développement d’une solution Data & Analytics (Datawarehouse, Big data, BI, Data Science);
- Expérience autour des solutions Big Data & Datawarehouse.
Compétences requises :
Très bonne connaissance des normes de développement ;
Forte capacité à résoudre des incidents complexes et proposer des solutions ;
Connaissance approfondie de la gestion des projets et des méthodologies de deliver ;
Capacité d’analyse et de synthèse ;
Esprit d’équipe ;
Excellente gestion du temps et des priorités ;
Capacité à prendre le lead ou être proactif lors des ateliers en interne ou avec le client ;
Capacité à travailler avec des prestataires externes, architectes ou toute ressource clé du projet ;
Excellentes capacités de communication orale et écrites ;
Très bonne maîtrise du français et de l’anglais.