Lors de mes passages dans ces 3 pays, j'ai pu identifier deux problèmes structurels récurrents : le transport urbain chaotique et l'exclusion bancaire massive. Ces observations terrain ont directement guidé mes deux projets.
Absence de traçabilité des véhicules, pas d'estimation de temps d'attente, itinéraires imprévisibles, information passager inexistante. Les usagers naviguent à l'aveugle chaque jour.
Opérateurs de transport sans outils de pilotage. Absence totale de données de mobilité centralisées, rendant impossible toute optimisation ou planification urbaine.
Des centaines de millions d'usagers urbains sans solution numérique fiable. La donnée de mobilité est une ressource sous-exploitée à très forte valeur analytique et prédictive.
Mise en relation passagers & conducteurs · Géolocalisation temps réel · Analytics embarqués
Back-office web en React : suivi de flotte en temps réel, gestion des utilisateurs et reporting opérationnel.
OpenStreetMap + Google Maps pour le suivi des véhicules, calcul d'itinéraires et estimation des temps d'arrivée.
FastAPI (Python) pour les APIs REST async, Redis pour le cache et la gestion des sessions temps réel.
PostgreSQL containerisé sur bare metal pour des performances et une maîtrise totale des données.
Pipeline CI automatisé : tests unitaires, lint et build Docker à chaque push. Zéro code défaillant en prod.
Modèles ML gérés via MLflow pour prédiction de demande, anomalies de trafic et optimisation de routes.
Metabase self-hosted pour les tableaux de bord opérationnels : KPIs, activité conducteurs, couverture géo.
OpenMetadata pour cataloguer, documenter et gouverner toutes les données de la plateforme.
Chaque push sur le repository déclenche automatiquement le workflow GitHub Actions.
Suite de tests Python sur la logique métier, les endpoints FastAPI et les transformations de données. Aucun code non testé ne passe.
Vérification de la qualité du code avant toute fusion. Aucun code défaillant n'atteint la branche principale.
Construction des images Docker et validation des configurations avant déploiement.
Après validation CI, Dagster orchestre le déploiement des nouvelles versions des pipelines et services.
Transformation des données, tests de qualité, mise à jour des couches Bronze / Silver / Gold.
Redémarrage des services Docker concernés sur le bare metal avec les nouvelles images validées.
Dagster log chaque run avec alertes en cas d'échec. Traçabilité totale de chaque déploiement.
Données brutes telles que reçues · Aucune transformation
Nettoyées, déduplicquées, enrichies par dbt · Prêtes à l'analyse
Agrégats métier · Data marts · Utilisés par Metabase & ML
Gestion des pipelines data avec observabilité native. Implémente la Continuous Delivery : chaque déploiement déclenche automatiquement les pipelines de transformation et de test.
Self-hosted sur le serveur bare metal. Dashboards opérationnels : activité en temps réel, KPIs conducteurs/passagers, couverture géographique, revenus et alertes métier.
Plateforme de gouvernance et catalogage : documentation des datasets, lignage des données, data quality monitoring, ownership et classification des actifs de données.
Tracking des expérimentations ML, versioning des modèles, gestion du model registry. Modèles de prédiction de demande, détection d'anomalies de trafic et scoring conducteurs.
Tous les services tournent dans des conteneurs Docker isolés
React + FastAPI
GitHub Actions + Dagster
Medallion, dbt, orchestration
Bare metal, Docker
MLflow, versioning
OpenMetadata, catalogue