v

Optimiser l'architecture cloud data et réduire coûts d'infrastru



Adresse : AWS Paris

Date de début de la mission : 03-11-2025

Durée de la mission : 90 jours

Date de publication de l'offre : 03-12-2025



Description de l'offre :

Objectif de la mission :

L'objectif est de contribuer à l'optimisation des systèmes informatiques et de réduire les coûts d'infrastructure en migrant vers AWS. L'utilisateur devra également concevoir des pipelines data scalables pour accroître leur valeur stratégique.

Missions principales :

  • Conception et mise en place de pipelines data scalables sur AWS
  • Optimisation des systèmes informatiques pour réduire les coûts d'infrastructure
  • Garantir la fiabilité des données pour les comités de pilotage et les tableaux de bord financiers

Profil recherché :

  • Compétences en Spark, Airflow et AWS
  • Capacité à analyser les objectifs métier pour répondre prioritairement aux besoins techniques

Le travail commence par la mise en place d'une routine de trois étapes : ✅ 1. Relire les objectifs métiers (pas seulement les tickets techniques) ✅ 2. Identifier le blocage ou l'opportunité la plus critique pour le métier ✅ 3. Aligner son backlog technique pour y répondre en priorité

La data est considérée comme ayant de la valeur si elle sert à une décision. Les pipelines ne sont pas construits simplement pour "faire de la data", mais pour améliorer une marge, réduire un délai ou sécuriser un processus.

La question principale que l'utilisateur se pose à chaque début de semaine est : "Quelle tâche va générer le plus de valeur pour le métier cette semaine ?"