• Mathieu Nohet

La Data City de demain, modéliser la ville



Tout le monde parle de Smart City, mais le terme de Data City est plus adapté. “Smart” est trop vague, et les villes n’ont pas attendu le numérique pour être intelligentes. En revanche, l’ensemble des transformations habituellement réunies sous le nom de “Smart City” est alimenté par l’explosion des données numériques. Ces données, produites à la fois par des entreprises, des citoyens et des administrations permettent le développement de nouveaux services et sont la base de la ville de demain.

Nous travaillons pour que les données soient non seulement au coeur de la ville, mais également au coeur des politiques publiques. Nous pensons qu’il est capital que les gouvernements locaux et nationaux aient des outils leur permettant d’exploiter le potentiel des données, afin de modéliser l’impact des décisions sur la vie des citoyens. Alors à quoi ressemble la Data City de nos rêves ?

SimCity pour de vrai


La manière la plus simple de résumer notre vision de la Data City est une SimCity grandeur nature. Pour ceux qui ne connaissent pas SimCity, c’est un jeu de simulation où l’on incarne un maire omniscient qui doit construire la meilleure ville possible.

Imaginez que l’on arrive à faire la même chose, mais pour une ville comme Paris ou Londres. En temps réel, on peut évaluer d’un coup d’oeil la situation, les problèmes des citoyens et les actions les plus pertinentes. En répartissant les ressources de manière optimale on peut diviser par deux le nombre d’élèves par classe, réduire l’insécurité sans augmenter la pression policière, assurer une mixité sociale saine, garantir un accès plus riche et plus juste à la culture.

Tous les désagréments urbains, toutes les frustrations des citoyens peuvent être résolus avec un tel outil. Un axe routier est congestionné ? On modifie les panneaux d’affichage pour rediriger le traffic. Un tas de déchet est détecté sur une avenue passante ? On envoie une équipe de nettoyage. Un conteneur de déchet doit être relevé mais il n’est plein qu’à 30% ? L’itinéraire du camion est modifié pour éviter un détour inutile.

Les élus sont parfaitement au courant de la situation de leur ville, et peuvent prendre des décisions en quelques minutes, sans attendre qu’un rapport aride arrive sur leur bureau. Instantanément, ils ont un retour sur les décisions prises, et l’on peut juger objectivement les résultats de leurs choix.

Bien sur, la réalité est plus complexe qu’un jeu vidéo, mais cette image n’est en fait pas si éloignée. Les métropoles mesurent déjà en temps réel la qualité de l’air, et prennent des décisions en conséquences. Des applications comme Waze permettent déjà de réagir en temps réel aux aléas du traffic automobile. La ville de New York détecte automatiquement les bâtiments en mauvais état et intervient pour assurer la sécurité des habitants.

Alors qu’est ce qui nous sépare de la Data City idéale ? Deux choses : la collecte de données et la capacité à les faire dialoguer.


Collecter des données partout, tout le temps

Utiliser les données existantes

La base de notre Data City existe déjà. Ce sont toutes les données produites mais non exploitées, présentes dans de nombreuses bases de données. Il y a aujourd’hui énormément de producteurs de données qui s’ignorent, qui génèrent des données lors d’activités quotidiennes.

Pour nous, le plus gros potentiel se situe dans les données des administrations. Leurs activités de gestion de l’espace public génèrent énormément d’informations, qui ne sont presque pas exploitées. L’Open Data en est encore à ses balbutiements, il faut donc aller chercher ses données directement à la source. Elles ont une immense valeur, et constituent la base de la Data City.

Aller plus loin avec l’IoT

Les données existantes ne sont cependant pas suffisantes, il faut mesurer toutes les activités. Nous avons déjà, aujourd’hui, la capacité technologique de mettre des capteurs partout dans la ville. Le problème est plutôt économique et politique.

Ajouter des capteurs dans toutes les poubelles de Paris est théoriquement faisable, mais coute très cher à installer et à maintenir. En le faisant on pourrait obtenir des données sur les habitudes de recyclages, la fréquence idéale de ramassage en fonction de la saison, les immeubles en surcharge… Ce serait un excellent moyen d’optimiser la collecte des déchets.

On peut faire ce raisonnement pour tous les domaines de la vie urbaine. Il est théoriquement possible de collecter des données sur toutes les activités, mais les bénéfices ne justifient pas le coût. En tout cas pour le moment. Nous sommes convaincus que l’Internet des Objets (IoT en anglais) permettra très prochainement d’installer des capteurs partout, pour mesurer tout ce que l’on souhaite mesurer.

Dans la première version de cet article, j’avais inclus une section sur les questions de vie privée. Le sujet est trop vaste, et l’article serait confus, je publierai donc prochainement un autre article traitant exclusivement ce point.


Faire dialoguer les données

Le deuxième obstacle à la création de notre Data City vient du fait que les données ne se parlent pas. Chaque entreprise, chaque administration, chaque plateforme d’Open Data a sa propre manière de gérer les données collectées. Personne ne collecte des données pour le plaisir, et chacun veut donc les valoriser pour son propre compte, ce qui rend impossible la construction d’une vue d’ensemble.

Des standards de partage de données sont en cours de création. Le W3C, l’organisation qui définit les standards d’Internet a publié l’an dernier une liste de bonnes pratiques pour la publication de données sur le web. L’Open Government Partnership (OGP) a lancé une série de réflexions sur les mesures à prendre pour que l’interopérabilité des données soit garantie. Comme nous avons des standards pour les prises, les ports USB et les ampoules, les standards pour les données sont indispensables. Tous les services producteurs de données pouvant servir d’intérêt général doivent être conçus en prenant en compte la réutilisation des données.

Les données de l’espace public, comme leur nom l’indique, sont un bien public. Plusieurs villes ont déjà lancé des partenariats public-privé pour accéder aux données générées par les citoyens. Versailles Grand Parc travaille avec Waze pour fluidifier le traffic routier. Ce genre de projet illustre parfaitement la valeur cruciale de l’interopérabilité, et devrait devenir la norme dans les années qui viennent.

Prévoir le futur

Très bientôt, nous collecterons des données sur toutes les activités urbaines, les données générées seront systématiquement ouvertes, le tout dans des formats normalisés et réutilisables. La Data City sera enfin à portée de main. Nous sommes convaincus qu’à l’heure actuelle, nous sommes proches de cette état. Les données sont là, il y a encore des progrès à faire sur leur croisement et leur valorisation, mais il est théoriquement possible de réaliser un double virtuel de Paris. Mais ce n’est qu’une étape.

Nous voulons prédire le futur.

Pour vous montrer que ce n’est pas si fou, prenons un sujet à priori banal : le temps qu’il fait. Pour donner la météo au journal de 20h, Météo France mesure la vitesse du vent, la pression, le taux d’humidité, et obtient une carte fiable de la situation actuelle. Dans un deuxième temps, pour prévoir le temps qu’il fera demain, on prend les données d’aujourd’hui, on les rentre dans un modèle informatique, on fait avancer le temps et l’on obtient la météo de demain. Météo France collecte des données, les croise, puis simule la réalité pour prédire le futur.

Il y a 50 ans la météo se faisait en regardant la couleur du ciel, les oiseaux et en sentant le vent. Depuis, nous avons mis en place des outils plus efficaces, mais les progrès en matière de modèles climatiques ont été beaucoup plus rapides qu’en matière de pilotage des politiques publiques. Les analyses sont souvent des hypothèses et des scénarii plutôt que des prédictions précises, et l’on fait plus souvent des bilans que des prévisions. Ce n’est pas par mauvaise volonté, mais simplement parce que les outils de qualité manquent. Les fonctionnaires et les élus font de leur mieux, personne ne se lève le matin en se demandant comment gaspiller les impôts.

Notre idée est de faire de la météo humaine. Nous collectons les données générées par les activités humaines (l’équivalent de la pression et de la température) et nous les rentrons dans un modèle pour obtenir l’état de la société demain. En modifiant un paramètre du modèle pour refléter un choix politique on obtient un état différent. Voilà ce que nous voulons construire. Le double virtuel et dynamique de notre monde.

L’idée d’une Data City qui ne ferait QUE refléter la réalité ne va pas assez loin.

On peut choisir de construire un musée dans la simulation, observer les conséquences, revenir au point de sauvegarde, construire un théâtre, observer une nouvelle fois, et choisir entre les deux, dans le monde réel cette fois-ci.


Le rêve de modéliser le monde

Voilà la Data City idéale. Une ville totalement connectée, où tous les citoyens participent à l’enrichissement du volume de données. Cette masse d’informations permet de construire un double virtuel de la ville, qui est utilisé pour répondre aux problèmes de sécurité, de transport, de santé… Les gouvernements ont un accès privilégié aux données, et peuvent lancer des simulations réalistes des politiques publiques. Les élus ne sont pas remplacés par la machine, et doivent encore prendre des décisions et faire des choix politiques, mais les discussions se concentrent sur les fondements de nos valeurs et le type de société que nous voulons, pas sur les résultats supposés d’une politique en particulier.

La Data City n’est pas qu’une ville. Elle s’inscrit dans une géographie plus large, une région, un pays. Tous les échelons de l’administration doivent tirer parti de l’opportunité que représentent les données pour améliorer le service public.

Ce que Yuval Noah Harari appelle dataisme dans son livre Homo Deus, l’idée que le monde est modélisable, nous y croyons. Pour espérer comprendre nos métropoles modernes, il faut collecter des données partout, tout le temps. Le flux de données qui en résultera permettra de modéliser notre environnement et donc de mieux l’influencer.