Big data : tous concernés

Jacques Priol
Big data : tous concernés

big-data

© faithie - fotolia

« Open », « big » ou « smart »… vous n’échapperez pas à la « data » ! Promulgation de la loi pour une République numérique en octobre, un sommet mondial du « gouvernement ouvert » à Paris en décembre, utilisation pour 2017 du « big data électoral », l’actualité ne manque pas. Au quotidien, l’environnement du décideur public est-il déjà soumis à l’omniprésence de ces nouvelles données ? Probablement. Et il le sera bientôt de façon considérable : toutes les collectivités sont concernées par le « phénomène data » !

Cette histoire débute en Californie, ça commence à être une habitude. Elle a moins de dix ans. L’augmentation phénoménale des capacités de stockage et la puissance démultipliée des outils informatiques rendent possible un rêve fou : comprendre le monde tel qu’il est, en l’observant de façon immédiate sous toutes ses coutures plutôt qu’en formulant des hypothèses que l’on teste sur des échantillons par de longues et coûteuses démarches. Ceci vaut pour des analyses scientifiques dans une multitude de disciplines (la physique, la climatologie, la médecine…) ; pour des analyses de marché et la détermination des comportements des consommateurs ; pour des analyses électorales ou l’anticipation du comportement plus global des citoyens et des usagers du service public.

Un champ infini d’usages et d’applications des données massives

Google stocke instantanément toutes les recherches faites dans le monde sur son moteur de recherche. Apple dispose des données des propriétaires d’iPhone. Facebook a accès au contenu de tous les profils de ses utilisateurs. Amazon fait de même pour ses clients. Avec ces données, ils construisent et stimulent des stratégies fondées sur une connaissance des comportements humains, répertoriés, triés, classifiés. Comparer ensuite chacun d’entre nous à des profils types permet d’anticiper nos actions.

Le « big data » et ses modèles prédictifs sont nés. Ils anticipent nos actes de consommateur à un degré qui dépasse parfois l’entendement. Ils anticipent nos votes, même si les sondages traditionnels demeurent la référence, pour un temps. Ils prédisent nos risques, sanitaires ou d’accidentologie, pouvant considérablement améliorer l’impact de campagnes de prévention, comme conduire à l’abandon du principe de mutualisation, chacun payant demain ses assurances en fonction de son comportement personnel.

Le « big data » et ses modèles prédictifs sont nés. Ils anticipent nos actes de consommateur à un degré qui dépasse parfois l’entendement.

Et ce qui vaut pour les comportements humains vaut dans une immensité d’autres domaines, observés, mesurés, disséqués. Autant de données massives conservées, compilées, historisées, pour des analyses et des actions immédiates ou futures.

Un champ infini d’usages et d’applications semble s’ouvrir devant nos yeux, par des procédés tellement massifs qu’ils échappent à nos raisonnements usuels. En manipulant des données dont l’existence même surprend, et parfois inquiète !

L’action publique à l'heure du big data

Intuitivement, l’élu ou le manager territorial savent que la maîtrise des données qui concernent leur territoire et l’ensemble de ses habitants n’est pas sans intérêt… En lieu et place d’études et rapports coûteux, et si la maîtrise de ces données permettait de mieux connaître les besoins et attentes des usagers ?

Intuitivement, l’élu ou le manager territorial savent que la maîtrise des données qui concernent leur territoire et l’ensemble de ses habitants n’est pas sans intérêt…

De mieux comprendre, et anticiper, les évolutions du territoire ? De cibler et donc réduire les coûts de l’information ? De développer de nouveaux outils de consultation et de concertation ? De construire des indicateurs objectifs et incontestés de performance des politiques publiques ? De cibler des actions concrètes dans de nombreux domaines (sécurité, fiscalité, transports, énergie, éducation, action sociale, logement…) ?

Lire aussi : Quand les collectivités territoriales s'emparent de l'open data

État des lieux : la France tire son épingle du jeu

Fin 2014, la France a été l’un des premiers pays au monde à nommer un « administrateur général des données » chargé de procéder à un inventaire des données utiles à l’action publique, à en définir la gouvernance, en améliorer la circulation, pour en faciliter la bonne exploitation. Et ces données sont nombreuses.

Il y a d’abord les « données libérées ». Après les pionnières de l’opendata (Rennes, Paris, Issy-les-Moulineaux…), près de 80 villes, métropoles, départements et région ont entrepris « d’ouvrir leurs données ». La loi pour une République numérique du 7 octobre 2016 prévoit la généralisation de la démarche pour toutes les collectivités de plus de 3 500 habitants. L’association nationale Opendata France vient de publier un rapport qui pointe quelques obstacles et suggère des méthodes pour les franchir.

Après les pionnières (Rennes, Paris, Issy-les-Moulineaux…), 80 villes, métropoles, départements et région ont entrepris « d’ouvrir leurs données ».

Il y a toutes les autres données de la collectivité, notamment les données techniques. Celles que des villes rassemblent, le plus souvent grâce au concours de délégataires de services publics, pour créer une « smart city ». La ville intelligente réduit les consommations d’énergie, optimise la gestion de l’eau, améliore le trafic routier, proportionne les moyens des services en fonction des affluences réelles ou anticipées, de la météo, ou des informations directement communiquées par les usagers.

Les usagers justement… La masse des données individuelles disponibles donne le tournis. En se gardant de transposer les méthodes d’Amazon au service public, une meilleure connaissance des situations individuelles permettrait d’accroître l’efficacité de l’action publique. Atteindre de façon directe, après les avoir identifiés, les bénéficiaires potentiels d’une politique, sans perdre de temps ni d’argent à diffuser massivement des supports d’information : le rêve de nombreux élus, dircoms et managers territoriaux.

• Le site de l’administrateur général des données en France : https ://agd.data.gouv.fr/
• Opendata France : http://www.opendatafrance.net/
• Le rapport sur la généralisation de l’opendata : http://www.opendatafrance.net/dispositifs-daccompagnement-opendata/
• Openstreetmap France : https ://openstreetmap.fr/
• La Base adresse nationale : https ://adresse.data.gouv.fr/
• Le site du sommet mondial du « gouvernement ouvert » : http://www.opengovpartnership.org/events/ogp-global-summit-2016-paris

Un « big data du territoire »

Et il existe aussi un « big data du territoire ». Un ensemble de données d’intérêt général, disponibles et à portée de main. L’Insee rend publiques, de manière anonyme, les informations du recensement par carreau de 200 m x 200 m : âge, revenus, CSP, niveau de diplôme, type de logement, énergie, trajet domicile travail, composition des ménages… Le système cartographique « Openstreetmap » est accessible gratuitement, il est un complément ou un concurrent possible des SIG, et une alternative certaine à GoogleMap.

Il existe des stocks infinis de données gratuites ou payantes.

La « Base adresse nationale », construite notamment par l’IGN et le groupe La Poste, est en ligne. Elle est présentée comme un véritable enjeu de souveraineté nationale. Il existe des stocks infinis de données gratuites ou payantes : celles des chambres consulaires, économiques ou agricoles ; celles des entreprises ; celles des délégataires de service public, consciencieusement collectées, parfois au nez et la barbe des collectivités concédantes.

Lire aussi : Robots, big-data, Mooc, homme bionique : les promesses du monde de demain

Faire bon usage de ces data

Pour faire bon usage de ces data, élus et fonctionnaires territoriaux vont devoir se confronter à des questions délicates.

• Des questions internes et managériales : la culture de la donnée ne se décrète pas. Il faudra du temps pour intégrer de façon pertinente la « data » dans les processus de fabrication, de mise en œuvre et d’évaluation des politiques publiques.

• Des questions économiques : ce n’est pas un hasard si la loi du 7 octobre 2016 va imposer aux délégataires de service public de restituer les données collectées aux collectivités. Ces données constituent un bien commun, et si elles sont aujourd’hui stockées, c’est que tous sont convaincus de leur grande valeur à terme.

• Des questions démocratiques : mieux connaître ses administrés peut permettre de mieux les informer et de mieux les associer. C’est le souhait des promoteurs du « gouvernement ouvert » qui tiennent sommet mondial à Paris en ce mois de décembre : des données libérées, de la transparence, des outils innovants de démocratie directe et de la co-construction de politiques publiques. Mais c’est aussi le souhait de ces start-up qui prétendent organiser de la concertation citoyenne mieux que les collectivités, et qui affichent parfois leur volonté de « hacker les élus »…

• Des questions juridiques : de prime abord, l’exploitation massive des données individuelles pourrait se heurter à un veto de la Cnil. À bien y regarder, la situation est plus complexe. D’un côté, la Cnil prend en compte les nouvelles pratiques et les nouveaux usages de la « data », et devra veiller à ce que les acteurs publics ne se retrouvent pas entravés, tandis que certains acteurs privés collecteraient sans vergogne des données d’intérêt général. Il en va d’une certaine forme de souveraineté. De l’autre, les acteurs publics ont parfois tendance à se réfugier de façon excessive derrière la Cnil pour éviter tout reproche futur, et se privent ainsi de données que les nouveaux moyens technologiques pourraient pourtant puissamment analyser.

Ces sujets interpellent les élus, les dirigeants territoriaux, les citoyens. Ils sont devant nous. La « révolution de la donnée » est en marche.

PETIT LEXIQUE DE LA DATA
Algorithme : Processus mathématique qui vise à obtenir, par une suite logique d’opérations, un résultat. Si les algorithmes sont développés et utilisés par les mathématiciens depuis des siècles, le développement des algorithmes numériques constitue l’une des conditions de la compréhension et de la maîtrise des big data. Comprendre le fonctionnement des algorithmes sera aussi un enjeu.

Big data : En français : les données massives ou les mégadonnées. Le big data désigne d’abord une immensité de données qualifiée par « la règle des 3V » : un volume énorme, une variété de données et une grande vélocité. Par extension, le big data désigne le traitement de ces données pour tenter d’y trouver des explications à des phénomènes, isoler des comportements types, et ainsi construire des modèles prédictifs.

Chief data officer (CDO) : En français : administrateur général des données (AGD). L’AGD « coordonne l’action des administrations en matière d’inventaire, de gouvernance, de production, de circulation et d’exploitation des données par les administrations ».

Gafa : Surnom collectif donné aux quatre géants de la « data » que sont Google, Apple, Facebook et Amazon.

Data lake : En français : lac de données. Espace de stockage dans lequel les organisations stockent les données dont elles disposent, ou qu’elles captent, dans un format brut. Dans l’attente de leur traitement big data.

Opendata : En français : les données ouvertes. Mouvement d’essence politique, initié au début des années 2000 en Amérique du Nord visant à obliger les autorités publiques à rendre accessibles de façon simple et normée, des « jeux de données » sur leur action. Dans la foulée de la ville de Rennes en 2010, près de 80 collectivités françaises ont rejoint le mouvement de l’opendata, dans l’attente de la généralisation réglementaire prévue à partir de 2017 par la loi pour la République numérique.

Smart city : En français : la ville intelligente. Si le concept se veut plus large, la smart city s’entend pour l’instant comme une ville connectée, équipée de nombreux capteurs sans fil permettant une gestion optimale des ressources et de métiers techniques (trafic, éclairage, chauffage urbain, énergie, eau, arrosage et entretien…). La smart city déverse ses data dans un data lake.

Smart data : En français : la donnée pertinente. En apparence opposée au big data, la smart data est en réalité extraite de la grande masse des données disponibles. Détecter et isoler la donnée pertinente est un enjeu majeur pour les organisations.

Recevez votre newsletter hebdo gratuitement

Nous vous recommandons

Claire Pitollat : « La ZFE est une méthode, elle doit s’adapter aux territoires »

Interview

Claire Pitollat : « La ZFE est une méthode, elle doit s’adapter aux territoires »

La députée Claire Pitollat assure depuis janvier 2023 la présidence du Conseil national de l’air. Elle nous explique avec quels moyens elle entend mieux valoriser cet organisme extraparlementaire dont la mission est de lancer des...

À Marseille, entre la ville et la métropole, c’est le printemps

À Marseille, entre la ville et la métropole, c’est le printemps

Nationalisation (ou renationalisation) d’EDF : leurre  ou réalité ?

Nationalisation (ou renationalisation) d’EDF : leurre  ou réalité ?

Démarches administratives dématérialisées : où en est-on côté usager ?

Infographie

Démarches administratives dématérialisées : où en est-on côté usager ?

Plus d'articles