Haut de page

Accueil » Tous les dossiers » La gestion des données

Introduction : Pourquoi parle-t-on aujourd’hui de gestion des données des Smart grids ?

Les Smart grids, à l’origine de la multiplication et de l’augmentation exponentielle des données dans le domaine de l’énergie : la digitalisation du secteur de l’énergie

Le Commissariat général à la stratégie et à la prospective annonce que 90 % de l’ensemble des données numériques disponibles aujourd’hui n’existaient pas il y a deux ans (Note d’analyse 08 - Analyse des big data. Quels usages, quels défis ?). Cette augmentation exponentielle du nombre de données disponibles concerne tout particulièrement le domaine de l’énergie.

Avec le déploiement des technologies de l’information et de la communication (TIC) sur les réseaux publics d’électricité et de gaz naturel, le nombre et la variété des données disponibles croit de manière exponentielle. De nombreuses technologies déployées sur les réseaux et en aval du compteur produisent des données : capteurs sur les réseaux, compteurs évolués de gaz naturel et d’électricité chez les clients finals pour mesurer la consommation et la production et également la qualité sur les réseaux, objets connectés chez les consommateurs (électroménager, véhicules électriques, energy box, GTB, etc.).

Le déploiement de l’ensemble de ces technologies générera plusieurs pétaoctets (soit plusieurs millions de milliards) de données d’ici 2020.

La gestion des données, de quoi s’agit-il ?

L’augmentation du volume d’informations disponibles ne signifie pas que les acteurs du monde de l’énergie sauront nécessairement utiliser ces données à des fins d’optimisation globale du système énergétique, de gestion des réseaux et/ou d’amélioration des services proposés au consommateur final.

En effet, ces différentes données apporteront de nouvelles opportunités aux différents acteurs du monde de l’énergie dans les domaines de la gestion de l’énergie, de l’exploitation des réseaux ou de l’évolution de la relation avec le client seulement dans la mesure où ces acteurs sauront analyser ces données et en tirer parti.

Dans ce cadre, la « gestion des données » fait référence à la transformation de données en connaissance utilisable, afin d’en extraire une valeur économique. La gestion des données comprend tous les aspects de collecte, de filtrage, d’analyse, de stockage et de mise à disposition des données à d’autres acteurs, d’autres applications et d’autres utilisateurs, incluant les problématiques d’identification des données, de validation, d’exactitude, de mise à jour, d’horodatation, de synchronisation des équipements, d’homogénéité des bases de données, de sécurité et de confidentialité, etc.

La gestion des données apporte des réponses sur les différentes questions que se posent les acteurs du monde de l’énergie, sur les équipements de réseau, leur état et leur besoin de mise à niveau, sur la façon d’exploiter le réseau et d’améliorer cette exploitation, sur les besoins et les préférences des clients.

L’« analytique » : une révolution incontournable porteuse de multiples opportunités

Les acteurs de l’énergie sont aujourd’hui au cœur d’une évolution déterminante qui les mène à une prise de décision presque exclusivement déterminée par les données. Selon l’Electric Power Research Institute (EPRI, institut qui réalise des recherches pour l’industrie de la production d’électricité des États-Unis), les données et leur analyse sont les nouveaux facilitateurs du Smart grid.


Source : Microsoft

La multiplication croissante des données produites et le développement d’outils informatiques permettant de les analyser offre de multiples possibilités et opportunités aux acteurs du monde de l’énergie. L’exploitation avancée des données pourrait devenir une source de revenus additionnels ainsi qu’un avantage compétitif importants. Sur tous les continents, les acteurs du monde de l’énergie ont compris l’importance de la gestion des données dans la mise en œuvre de leur métier.

Plus « de deux tiers des dirigeants au sein des gestionnaires d’énergie pensent que les avantages associés aux smart grids et au déploiement de compteurs intelligents – dont l’amélioration du service client, de la fiabilité du réseau et de la gestion des pannes – seront plus importants que ne le prévoyaient initialement les professionnels du secteur. […] Près de deux tiers (60 %) des participants à l’étude déclarent que « l’analytique » constituera le premier poste d’investissement de leur entreprise dans le domaine des smart grids au cours des prochaines années », selon Accenture dans son étude « Digitally Enabled Grid » publiée le 13 novembre 2014.

GTM Research confirme cette tendance. Il a évalué le marché de l’analyse de données issues des réseaux intelligents à 20 milliards de dollars entre 2013 et 2020, sur le seul territoire américain, passant d’1,1 milliard de dollars par an actuellement à 4 milliards de dollars dès la fin de la décennie. Le rapport prévoit que les acteurs de l’énergie américains dépenseront, dans les neuf prochaines années, près de 100 dollars par foyer en analyses de données relatives à l’exploitation du réseau et à la relation client (source : The Soft Grid 2013-2020: Big Data & Utility Analytics for Smart Grid).

Dépenses dans l’analyse des données des acteurs de l’énergie, 2012-2020

Source : GTM Research, The Soft Grid 2013-2020: Big Data & Utility Analytics for Smart Grid

Cependant, les acteurs de l’énergie ne sont pas forcément prêts pour cette révolution

Si les acteurs du monde de l’énergie ont bien compris la valeur de la gestion des données, tous ne sont pas prêts à faire face au traitement complexe (en raison de la nature des données : des séries temporelles, de leur caractère distribué et de la nécessité de traitements à différentes échelles, des contraintes temps réel pour certains besoins des données) qu’elle implique.

En effet, la gestion des systèmes de big data et des grands volumes de données n’est pas le cœur de métier des acteurs du monde l’énergie. L’étude Microsoft IDC France indique les « organisations décidées à investir pourraient améliorer de 56 % les bénéfices générés à partir de leurs données. Cette manne financière, qui est estimée à 54 milliards d’euros sur les quatre prochaines années en France, représente 0,6 point de PIB ! Mais pour ce faire, les décideurs doivent développer et promouvoir une véritable culture de la donnée ».


Source : EPRI, Big Data Survey 2013

Pour en savoir plus :

EPRI Data Analytics Initiatives for Transmission and Distribution

Dans son étude « Digitally Enabled Grid », Accenture note que, pour l’heure, la « grande majorité des gestionnaires d’énergie ne sont pas suffisamment armés pour relever le défi ». Pour tirer pleinement parti des réseaux intelligents, il faudra une « intégration des systèmes informatiques traditionnels aux solutions opérationnelles requises pour gérer le réseau en temps réel ».

Les acteurs du monde de l’énergie, et tout particulièrement les gestionnaires de réseaux, devront s’adapter face à cette multitude de données. De nouvelles organisations et de nouveaux outils doivent être mis en place pour transformer la donnée en vecteur d’action. Il est nécessaire de pouvoir décider des leviers à activer (effacement, arbitrage injection/soutirage, etc.) en temps réel et à une maille locale, alors que la centralisation des données se fait à une grande échelle.

En même temps, il est probable de nouveaux acteurs fassent leur entrée sur le marché de l’énergie en tant que gestionnaires de données en tant que tel.

Plusieurs questions se posent alors sur :

  • la gestion technique des données : Comment gérer cette grande masse de données ? Quels outils développer ?
  • le modèle économique de la gestion des données : Quels sont les nouveaux services et possibilités offerts par ces données ? Quelles sont les potentialités de valorisation de ces données ?
  • et la gouvernance de cette gestion des données : Qui devrait gérer les données ? Qui devrait avoir accès à ces données ?

L’« analytique » : une révolution incontournable pour les acteurs de l’énergie

Introduction : L’« analytique »

On entend communément par « analytique » la mise en œuvre de méthodologies statistiques et mathématiques dans les processus de l’entreprise (qu’ils soient opérationnels ou support), voire dans sa stratégie ou dans son modèle d’affaires. Dans la mesure où la matière première de l’analytique est la donnée numérique, cette mise en œuvre est consubstantielle de la transformation digitale de nos sociétés, de notre économie et donc des entreprises.

Business Intelligence, datamining, business analytics, big data et maintenant smart data : depuis quelques années, il est difficile d’échapper au foisonnement des concepts autour de l’analyse de la donnée, et au flot de théories, analyses et commentaires sur ses promesses en termes d’efficacité, de performance et d’opportunités de développement de nouvelles offres et services ciblés.

La transformation numérique de l’économie française est une des priorités de l’agenda politique. Ce sujet fait d’ailleurs l’objet du rapport Lemoine remis au gouvernement en novembre 2014. Ce rapport identifie les grands chantiers de la transformation numérique que l’économie française devrait engager (le secteur de l’énergie compris) et dresse plusieurs propositions allant dans ce sens.

La plupart des acteurs semblent s’être emparés du sujet, des plus sceptiques - qui y voient une nouvelle bulle prête à faire « pschitt » ou un argument marketing - à ceux pour qui il s’agit d’un véritable big bang - du même ordre que les précédentes révolutions industrielles.
De fait, une nouvelle typologie des acteurs de la donnée apparaît aujourd’hui.


Source : EY

Pour le moment, seuls quelques acteurs peuvent se targuer d’une maturité élevée dans l’exploitation des données numériques disponibles. Cependant, ces acteurs font état d’un impact fort des données pour tous leurs métiers, leur ouvrant de nouveaux marchés comme de nouvelles solutions d’amélioration de leur performance.

Un intérêt unanime des entreprises devant le potentiel de création de valeur

L’exploitation analytique des données permet une optimisation nouvelle de l’activité des entreprises et le développement de « services intelligents ».
Les fonctions commerciales et marketing, notamment dans les entreprises de la grande distribution, les banques et les assurances, sont adossées à des typologies de clients, des scores (il s’agit souvent du calcul de la probabilité d’un client de ne pas assumer une échéance (risque), de résilier un service (attrition ou churn) ou au contraire d’être susceptible d’en souscrire un (appétence)) et autres générateurs de recommandations croisant les données issues de leurs propres sources internes provenant de multiples canaux, mais aussi celles en provenance de leurs partenaires ou fournisseurs, des réseaux sociaux et de l’open data.

Défis et enjeux de la transformation numérique du secteur de l’énergie

Dans le secteur de l’énergie, le numérique permet de dresser de nouvelles perspectives autour de six axes identifiés dans le rapport Lemoine :

  1. un nouveau modèle énergétique connecté, en réseau et décentralisé émerge,
  2. un nouveau mix énergétique au sein duquel les énergies renouvelables prennent une place de premier plan devient possible,
  3. le modèle Business to Business (B2B) du secteur devient Business to Business to Client (B2B2C) en intégrant les attentes du client final en amont de la chaîne de valeur,
  4. de nouveaux services digitaux sont développés,
  5. la digitalisation des réseaux (smart grids) offre de nouveaux leviers pour optimiser la conduite, l’exploitation, la maintenance et le développement des réseaux,
  6. le développement de capacités prédictives apparaît comme une activité d’avenir (ex : anticiper les contraintes sur le réseau au niveau local avec des prévisions de consommation et de production à des échelles de temps très rapprochées)

Ceci induit une profonde transformation du secteur avec l’émergence ou le positionnement d’acteurs respectivement nouveaux (start-ups) ou traditionnellement en dehors du secteur (acteurs des NTIC, du web, fabricants d’équipement…) qui bouleversent les modèles d’affaire existants.

Le déploiement de nouveaux capteurs sur les réseaux (sur les réseaux de transport mais aussi de distribution avec 35 millions de compteurs Linky pour ERDF et 11 millions de compteurs Gazpar pour GRDF), va entraîner un accroissement considérable du volume de données (estimé à 10 000 fois plus important qu’auparavant).

L’utilisation de ces nouvelles données est un gisement de création de valeur important. Pour les gestionnaires de réseau, il s’agit par exemple de parvenir à croiser les données de comptage (index, courbes de charge des abonnés…) et de réseau (alimentation, tension…) avec des données externes (météo notamment).

Cette création de valeur concerne l’ensemble des parties prenantes du secteur depuis les producteurs jusqu’au client final. Pour ce dernier, il s’agit en particulier de satisfaire de nouvelles attentes : meilleure maîtrise de la consommation, plus de confort, plus grande disponibilité des services client, personnalisation des services, intervention rapide et à distance...

La révolution n’a pas encore eu lieu

Le rapport Lemoine souligne le retard des entreprises du secteur dans leur transformation numérique.

De fait, une récente étude EY auprès de 150 grandes entreprises françaises révèle l’existence d’un fort décalage entre le concept d’analytique et la réalité de la maturité des grandes entreprises. Certes, elles utilisent bien la donnée pour comprendre et mesurer leur activité et l’environnement dans lequel elles évoluent, mais cette exploitation est loin d’être systématique, et encore moins en matière d’anticipation et de prédiction.

Cette étude montre que les entreprises les plus matures en la matière (17 % du panel) œuvrent principalement dans les secteurs des technologies médias télécommunications, des transports et de la grande distribution. Elles se distinguent par les critères suivants :

  • anticipation des enjeux stratégiques liés à une meilleure utilisation des données internes et externes ;
  • diversité des données collectées et des canaux de collecte ;
  • constitution d’équipes de scientifiques de la donnée et d’autres experts de la donnée ;
  • adoption de nouvelles technologies d’exploitation de la donnée ;
  • prise en compte des enjeux de protection de la vie privée et des données à caractère personnel (privacy) dans l’exploitation des données clients ;
  • anticipation du risque en matière de réputation.

Ainsi, les proportions d’entreprises utilisant les données en provenance des réseaux sociaux, de la géolocalisation ou de capteurs sont respectivement de 36 %, 11 % et 14 % seulement.

Seules 40 % des entreprises ont à ce jour cherché à quantifier la contribution des solutions analytiques à leur performance.


Source : EY

Les freins sont humains, culturels et organisationnels

La diffusion de l’analytique est bien souvent liée à la capacité et la volonté des organisations de débloquer différents freins.

Frein n° 1 : la collecte des données encore largement limitée aux canaux traditionnels

Les données collectées par les entreprises à des fins de connaissance du client et de stratégie marketing proviennent très majoritairement des traditionnels systèmes de facturation, pour 84 % des entreprises de notre panel, et d’outils de gestion de la relation client (Customer Relationship Management – CRM), pour 66 %. Un constat d’autant plus surprenant que les données non structurées (données pour lesquelles l'ensemble des valeurs possibles n’est pas déterminé et connu à l’avance. Dans une base de données de mails, le contenu du mail est une donnée non-structurée tandis que l’auteur et la date sont des données structurées. De manière générale, les données non-structurées sont des données texte ou de formats plus variés : fichiers image, vidéo, audio) constituent, à l’ère digitale, la plus grande partie des données émises et partagées à travers le monde.


Source : EY

Frein n° 2 : les données non structurées peu collectées ou exploitées

Au-delà des informations traditionnelles sur leurs clients – coordonnées, comportements et dépenses – collectées par 90 % des entreprises de notre panel, celles-ci collectent parfois aussi des données moins classiques. Ainsi 45 % des entreprises interrogées collectent des données textuelles (verbatims issus des espaces Internet, les avis soumis ou partagés en ligne), voire pour certaines (moins de 25 %), des graphiques, des données sonores, des images ou des vidéos. Cependant, seules 20 % estiment les exploiter au moins partiellement.

L’analytique, en particulier dans un contexte « Big Data », implique le traitement de données volumineuses impliquant des sources diverses. Le traitement doit être réalisé dans un temps limité, voire en temps réel. Le problème est non seulement de stocker (a priori) un volume considérable de données clients, mais aussi de sélectionner dans le flux continu de données celles que l’on va conserver (a posteriori). Ce choix requiert des compétences et des outils spécifiques encore peu disponibles (cf. freins n°3 et 4 ci-dessous).

Frein n° 3 : le manque de disponibilité de compétences analytiques

Les utilities ne disposent traditionnellement pas des profils et des compétences analytiques en interne pour exploiter l’ensemble des données utiles à leur activité : traiter les données historiques, en temps réel, les contextualiser et en tirer des résultats utiles et exploitables. Les besoins sont importants alors même que les profils sont rares. Ainsi, selon l’étude EY, seules 30 % des grandes entreprises interrogées ont recruté des profils spécifiques dédiés. Plus généralement, pour 70 % des entreprises interrogées, l’ensemble des ressources dédiées au traitement des données clients représente moins de 10 personnes.

Frein n° 4 : une carence des outils de traitement et d’exploitation des données

Les données issues du web, du mobile et des objets connectés ont rendu caduques les techniques d’analyse classique. Elles manquent désormais de puissance, de rapidité, de flexibilité et elles sont devenues trop onéreuses. La combinaison de méthodologies statistiques, mathématiques et informatiques permet de résoudre partiellement ces difficultés de traitement, comme par exemple l’utilisation de méthodologies qu’il est possible de mettre en œuvre en parallèle – réalisation des calculs sur des sous-ensembles des données sur un grand nombre de processeurs, avant réconciliation, afin que les calculs soient globalement effectués de manière plus rapide.

Au-delà, des technologies et des outils de traitement spécifiques sont nécessaires pour extraire des informations et enseignements des données non structurées, qui sont le maillon faible de l’analyse. Il faut en effet les « traduire », les fiabiliser, les indexer, les combiner avec les données existantes, pour pouvoir les intégrer au rapport qui sera donné au niveau décisionnel. L’analytique requiert une architecture et un système informatiques qui répondent aux enjeux de volume, de vitesse de calcul et de traitement, de diversité des formats et qui permettent in fine une circulation fluide de l’information au sein de l’entreprise.

Frein n° 5 : l’analyse des données est (trop) peu orientée vers des objectifs prédictifs ou temps réel

Seules 10 % des entreprises interrogées exploitent leurs données clients à des fins prédictives et 5 % d’entre elles le font pour optimiser les processus techniques permettant d’accroître la rapidité d’exécution et les capacités de stockage (éléments clés pour exploiter des volumes croissants et toujours plus rapides de données et de flux d’informations). Si elles n’ont pas les compétences requises, les entreprises les plus matures de notre panel ont néanmoins été sensibilisées à ce sujet : 73 % des entreprises les plus matures affirment que la mise en place d’une stratégie sur les données leur permettrait d’utiliser des modèles prédictifs en temps réel (contre 43 % pour les moins matures). Elles sont encore plus nombreuses (92 % des plus matures) à penser qu’une telle stratégie leur permettrait d’assurer la rapidité de leurs extractions et de leurs requêtes.

Dans l’industrie, et particulièrement dans les industries de réseaux et d’infrastructures (énergie, communication, ainsi que transport et mobilité), les solutions de maintenance prédictive, en collectant et en analysant des données en temps réel à partir de nombreuses sources (logs (journal des évènements touchant un processus, traçant l'exécution d'un programme. Il s’agit ici en particulier de ceux provenant des capteurs connectés), données de surveillance, données environnementales, données financières, etc.) permettent d’améliorer significativement la qualité des prestations et la performance opérationnelle des entreprises. Elles permettent, notamment, de réaliser des diagnostics préventifs et, au-delà, de la maintenance prédictive. Il est alors possible de repérer en temps réel les schémas propices à la détection préventive des incidents et pannes afin de déterminer les domaines les plus exposés au risque et d’identifier la cause première du problème. La maintenance dirige alors les ressources vers ces domaines avant que le risque ne devienne une réalité. En d’autres termes, il s’agit d’anticiper les problèmes de réseaux plusieurs semaines voire plusieurs mois à l’avance et d’éviter les accidents, interventions et arrêts de production qui peuvent se révéler très coûteux financièrement et en termes d’image.

En outre, dans certaines industries, le coût de la maintenance est bien supérieur à celui de l’investissement initial.

Frein n° 6 : l’absence de mesure du retour sur investissement de l’exploitation des données

Le « Big data » marque un tournant majeur dans l’exploitation des données clients et représente un formidable levier de croissance et de profitabilité. Pourtant, les résultats de notre enquête laissent constater une très faible prise de conscience, au sein des entreprises, de la valeur ajoutée potentielle des projets analytiques. Quantifier et mesurer la valeur des projets d’analyses de données, sur la base d’indicateurs clés de performance (Key Performance Indicators – KPIs) prédéfinis et d’une estimation du retour sur investissement permettrait pourtant d’établir une feuille de route avec des projets d’analyse de données à déployer prioritairement ainsi que d’obtenir le soutien du management.

À ce jour, seules 29 % des entreprises interrogées considèrent que l’analytique marque un tournant majeur et représente un levier de croissance. Pour ce qui est du retour sur investissement en particulier, 58 % des entreprises interrogées n’ont pas cherché à quantifier la contribution des solutions à la performance de leur entreprise. L’écart est énorme entre les plus matures (77 %) et les « non-matures » (3 %).

En outre, 57 % des entreprises non-matures considèrent la perception du top management comme un frein à une exploitation optimale des données au sein de leur entreprise. Cette proportion tombe à 11 % parmi les plus matures.

Frein n° 7 : la confiance des acteurs, un risque majeur pour la fiabilité des données

Avec l’avènement de l’économie numérique et l’explosion de l’Internet des objets, les données connaissent une croissance exponentielle et forment une masse gigantesque de données structurées et non structurées. À la source de la production de ces données se trouve souvent un individu : le client, le citoyen, l'usager ou le salarié.

C’est pourquoi l’enjeu de la sécurité des données est une clé de l’avenir du déploiement de solutions analytiques pertinentes. Ainsi, quel intérêt de collecter et d’analyser des données si celles-ci se révèlent faussées par le manque de confiance des utilisateurs et, donc, sans aucune valeur à exploiter ?

Les questions les plus fréquemment posées sont relatives à la propriété des données, à l’usage qui en est fait par le responsable de traitement, au destinataire de celles-ci, aux mesures de sécurité mises en place pour les protéger contre des accès non autorisés, à la localisation de ces données, etc.

La protection des données personnelles cristallise aujourd’hui les réticences liées à l’exploitation des données clients. D’après une étude récente, 70 % des consommateurs sont réticents à partager leurs données personnelles avec les entreprises et 49 % affirment qu’ils seront moins enclins à le faire dans les cinq années à venir. Pourtant, 30 % des entreprises que nous avons interrogées estiment ne pas être concernées par les enjeux de protection de la vie privée lors de l’exploitation de leurs données clients quand elles sont plus de 90 % à considérer que c’est un enjeu prioritaire chez les plus matures.

Depuis le 1er juillet 2013, EY est le nouveau nom d’Ernst & Young. EY est un des leaders mondiaux de l’audit, du conseil, de la fiscalité et du droit, des transactions. Partout dans le monde, notre expertise et la qualité de nos services contribuent à créer les conditions de la confiance dans l’économie et les marchés financiers. Nous faisons grandir les talents afin, qu’ensemble, ils accompagnent les organisations vers une croissance pérenne. C’est ainsi que nous jouons un rôle actif dans la construction d’un monde économique plus juste et plus équilibré pour nos équipes, nos clients et la société dans son ensemble.

Les données relatives à la distribution publique de l’électricité en France

Les réseaux publics de distribution d’électricité doivent aujourd’hui faire face à de nouveaux défis tels que l’augmentation de la production d’électricité décentralisée à partir d’énergies de sources renouvelables et le développement de nouveaux usages (stockage, véhicules électriques, etc.). Pour accompagner ces développements, ERDF poursuit la modernisation du réseau public de distribution qui lui est concédé, notamment en le rendant plus communicant. En plus des capteurs déjà installés, le déploiement des compteurs Linky dès 2015 va permettre de collecter un grand nombre de données et ainsi d’avoir une connaissance plus complète, précise et dynamique des flux d’énergie circulant sur le réseau.

ERDF est gestionnaire d’un nombre croissant de données : données de comptage, données techniques relatives au réseau, mais également données client et données relatives au fonctionnement des marchés de l’électricité. Au titre des articles L322-8 et L322-9 du code de l’énergie, ERDF a en effet en charge la mission de comptage, en particulier la collecte et gestion des données, mais également notamment les missions de construire et d'exploiter le réseau, de veiller à l'équilibre des flux électriques, à l'efficacité, à la sécurité et à la sûreté du réseau. L’exercice de ces missions implique la collecte d’un nombre considérable et varié de données, qu’ERDF doit gérer, tout en préservant la confidentialité des informations commercialement sensibles et des données à caractère personnel.

Les types de données collectées par ERDF

Source : ERDF

Les données de comptage

Dans le cadre de sa mission de service public de distribution d’électricité, ERDF installe, exploite et garantit le bon fonctionnement des dispositifs de comptage pour l’ensemble des clients raccordés au réseau public de distribution qui lui est concédé. Afin de s’adapter à leurs besoins et à leurs installations, ERDF a développé toute une gamme de compteurs. Par exemple, certains dispositifs destinés aux sites fortement consommateurs permettent aujourd’hui de disposer d’informations sur la qualité de l’électricité distribuée. D’autres sont conçus pour permettre de mesurer la consommation à des intervalles de temps très fins et demain, il sera possible de relever tous les compteurs à distance.

Sur chaque site raccordé au réseau public de distribution, les dispositifs de comptage installés et exploités par ERDF permettent ainsi de collecter, a minima, les quantités d’électricité consommées et produites pour chaque classe temporelle de l’offre de fourniture (par exemple, pour les particuliers en option heure pleine/heure creuse, l’énergie est mesurée pour chaque plage tarifaire). D’autres dispositifs de comptage permettent de relever :

  • les puissances de consommation et production relevées à intervalles réguliers ;
  • les puissances maximales atteintes quotidiennement ;
  • d’autres mesures comme l’énergie réactive ou la tension moyenne.

Les données clients

ERDF est également dépositaire des données techniques relatives à l’ensemble des clients finaux et des producteurs d’électricité comme le type de compteur, la puissance installée, le domaine de tension, l’existence de dispositifs particuliers de limitation des perturbations, etc. Le distributeur est chargé de tenir ces données à jour et de les mettre à la disposition du client, du fournisseur d’électricité titulaire du point et d’autres acteurs légitimes et autorisés, tels que les agrégateurs ou les opérateurs d’effacement.

De manière équivalente, dans le cadre des contrats uniques, les fournisseurs d’énergie partagent avec les distributeurs les données client nécessaires à l’exercice de leurs missions. Ils communiquent un certain nombre de données contractuelles avec ERDF, telles que l’identité du client, l’offre de fourniture d’électricité ou le responsable d’équilibre en charge du point de livraison concerné, ainsi que d’autres informations utiles à ERDF (adresse de contact, type d’entreprise le cas échéant, etc.).

Les données relatives aux marchés de l’électricité

Différents mécanismes organisent les marchés de l’électricité et les échanges énergétiques et financiers entre les acteurs. Parmi les mécanismes nationaux et notamment ceux à disposition de RTE pour assurer l’équilibre entre l’offre et la demande d’électricité, certains sont ouverts aux installations raccordées aux réseaux publics de distribution.

  • L’électricité se stockant difficilement, un équilibre est continuellement nécessaire entre la production et la consommation. Un dispositif spécifique confie à des acteurs appelés responsables d’équilibre (RE) la charge financière des déséquilibres entre injection et soutirage à l’échelle de leur périmètre.
  • Lorsqu’il y a un déséquilibre entre la production et la consommation, le mécanisme d’ajustement permet de procéder à des adaptations des comportements de producteurs et de consommateurs. Ce mécanisme peut alors faire intervenir des capacités de production ou d’effacement raccordées aux réseaux publics de distribution.
  • Le mécanisme NEBEF (notifications d’échanges de blocs d’effacement) permet aux opérateurs d’effacement de vendre de l’énergie effacée sur les marchés au même titre qu’un moyen de production.
  • Enfin, le marché de capacités permettra quant à lui de sécuriser l’approvisionnement en électricité et contribue à garantir qu’en cas de pic de consommation, les capacités de production et d’effacement installées en France métropolitaine sont suffisantes pour couvrir les besoins de consommation.

Le fonctionnement de ces marchés nécessite de nombreux échanges d’informations entre les différents acteurs concernés : responsables d’équilibre, acteurs de l’ajustement, exploitants de capacités, gestionnaires de réseaux, opérateurs d’effacement, etc. Ces échanges permettent par exemple d’affecter à chacun la part d’énergie correspondant à leur participation aux mécanismes et de déterminer les flux financiers associés, conformément à leurs responsabilités. En tant que gestionnaire de réseau de distribution, ERDF contribue largement à ces mécanismes de marché et veille à une bonne insertion et participation des capacités raccordées au réseau public de distribution dans ces mécanismes. ERDF est chargée de collecter, calculer puis de gérer les données relatives aux installations raccordées au réseau public de distribution, afin d’établir bilans de consommation, profils des consommateurs, obligations des fournisseurs en capacités, périmètres des acteurs, etc.

Les données de qualité réseau

La qualité de l’électricité distribuée aux consommateurs raccordés au réseau public de distribution relève de la responsabilité d’ERDF. Elle se définit par :

  • la continuité de l’alimentation électrique ;
  • la qualité de l’onde électrique, en termes de stabilité de la tension et de la fréquence notamment.

Plusieurs dispositifs de comptage installés sur le réseau permettent de réaliser des mesures de qualité, par exemple d’enregistrer et de dater les coupures ou les variations de la tension délivrée. En particulier, les compteurs communicants Linky permettent de relever ces indicateurs. Avec la généralisation de ces compteurs sur 35 millions de sites alimentés en basse tension, ERDF disposera d’une vue très fine et quotidienne de la qualité d’alimentation sur le réseau public de distribution.

ERDF met à disposition des acteurs intéressés et, au premier chef, des collectivités concédantes, des indicateurs de qualité, dans le cadre des comptes rendus d’activité de concession (CRAC) et de la réglementation relative aux niveaux de qualité à respecter sur le réseau public de distribution d’électricité (décret du 24 décembre 2007 et son arrêté d’application).

Les données liées à la gestion du réseau

Enfin, pour assurer ses missions d’exploitation et de développement du réseau public de distribution, ERDF dispose d’un système d’information géographique (SIG). Cet outil lui permet de construire une description fine du réseau public de distribution d’électricité, des postes de transformation jusqu’aux dispositifs de comptage.

ERDF déploie notamment des capteurs permettant de mesurer les flux d’énergie au niveau des équipements du réseau. Ainsi, des postes sources instrumentés permettent à ERDF de mesurer et collecter les quantités d’énergie y transitant à des intervalles très fins.

Grâce à ces données, ERDF peut, notamment, adresser aux demandeurs de raccordement les propositions techniques et financières adaptées à leur demande et aider les clients et les collectivités à optimiser les effets liés à l’évolution du réseau sur leurs projets (raccordement, aménagement, etc.).



Cette fiche a été rédigée par ERDF.



Observabilité et estimation d'état dans le contexte Smart grid pour la distribution électrique

Dans les réseaux de distribution, parmi les fonctions de Smart grid qui jouent un rôle primordial, on peut citer les fonctions d’observation et de pilotage du réseau. Ces fonctions, couvrent l’ensemble de la chaîne « recueil de données et mesures provenant du réseau, des consommations et autres injections, leur analyse, l’aide à la décision pour les opérateurs et le renvoi d’ordre d’actions sur des composants de réseau tels que la production décentralisée, les interrupteurs et autres automates du réseau ».

L’objectif à atteindre est de permettre un fonctionnement optimal de l’ensemble du système électrique du point de vue économique, de la qualité et de la sécurité de l’approvisionnement en électricité, de la fiabilité, de l’impact environnemental, etc. Ces fonctions, dont certaines pourront être automatiques, tirent parti des Technologies de l’information et de la communication (TIC) et elles sont en mesure non seulement d’aider l’opérateur à résoudre les problèmes d’exploitation du réseau via des actions de télé-conduite, mais également d’aider la planification en amont. Parmi ces fonctions, on peut citer le réglage de la tension en présence d’un fort taux de pénétration de la production décentralisée, la reconfiguration des réseaux de distribution en régime normal (minimisation des pertes, répartition de la charge entre les transformateurs, etc.) ou en régime d’incident (auto-cicatrisation du réseau suite à l’apparition d'un défaut), la reconstruction du réseau après une perturbation, etc. L’opérateur doit alors améliorer sa « vision » du réseau afin de pouvoir mieux le piloter. Aujourd’hui, cette vision est basée sur un système de supervision et d’acquisition de données (SCADA – Supervisory Control And Data Acquisition) qui permet, pour la partie du réseau instrumentée (généralement la moyenne et haute tension), non seulement d’alimenter en données ces fonctions avancées mais, également, de gérer les entrées (informations) et les sorties (commandes) des données, les mesures (capteurs) et les ordres (actionneurs) entre le réseau et les centres de télé-conduite.

Estimateur d’état au sein de la conduite des réseaux de distribution

Source : G2ELab

En pratique, la télé-conduite comporte, d’une part, les télésignalisations et les télémesures (télésurveillance), qui transmettent les données des appareils vers l’opérateur et, d’autre part, les télécommandes et les télé-réglages, qui transmettent les données de l’opérateur vers les appareils.

La télésurveillance permet de connaître l’état du réseau en temps réel. Elle rassemble les mesures des grandeurs du réseau (tension, fréquence, intensité, température, etc.), les signalisations de position des différents appareils (disjoncteurs, indicateurs de passage de défaut, organes de manœuvre télécommandés), mais aussi leur déclenchement éventuel sur défaut. Les centres de conduite sont équipés avec des images de type synoptique (présentation, en général graphique, qui permet de saisir d’un seul coup d’œil un ensemble d’informations liées ou un système complexe), qui sont construites à partir des équipements réels en fonction des besoins de l’exploitant. De ce fait, l’opérateur de réseau peut visualiser les schémas d’exploitation, les valeurs des paramètres mesurés, le contenu détaillé des alarmes, les états de l’installation, etc.

La télécommande donne la possibilité d'ouverture et de fermeture des appareils du réseau ou du système électrique à distance, ainsi que de faire quelques actions de réglage ou d’actionner des automatismes.

Les SCADA en distribution utilisent aujourd’hui très peu de capteurs en réseau et ce n’est pas suffisant pour envisager, demain, la mise en œuvre de fonctions automatisées évoluées. Dans le contexte actuel et à venir, afin de profiter de la flexibilité du réseau et des ressources locales, l’opérateur devra connaître précisément l’état de son système, ce qui veut dire avoir une image globale des grandeurs électriques avec plus ou moins d’exactitude. Pour ceci, il aura besoin d'une fonction particulière appelée « estimateur d’état » qui, en utilisant des algorithmes adéquats, pourra fournir des données précises et fiables, donc avec un minimum d’erreur, aux fonctions avancées de réseau. Cette fonction, basée sur des mesures et pseudo-mesures (modèles, connaissances et données sur les puissances soutirées en réseau), devra permettre d’estimer, en « temps réel », l’état du réseau de distribution.

Structure générale de l’estimateur d’état

Source : G2ELab

En parcourant la figure précédente, le rôle de la tâche « détermination de la topologie », est de recueillir des données sur l’état des organes de coupure (disjoncteurs, interrupteurs, sectionneurs, etc.) et d’en déduire la configuration du système. Ces données sont préfiltrées, donc les erreurs structurelles qui peuvent apparaître dans la configuration du réseau sont éliminées.

Avant de faire une estimation, il faut s’assurer que le réseau soit observable, c’est-à-dire qu’il faut déterminer si une solution d’estimateur peut être obtenue en utilisant la série de mesures disponibles. L’estimateur d’état détermine alors l'état le plus probable du système sur la base du modèle de réseau et des mesures éventuellement entachées d’erreurs recueillies par le système de mesure. Le traitement des données fausses consiste à déterminer et à éliminer les erreurs grossières dans les mesures récupérées.

De telles fonctions d’estimation d’état sont largement utilisées et maîtrisées dans les réseaux de transport (à l’échelle régionale et nationale, voire continentale), mais ne sont pas transposables directement dans les réseaux de distribution (à l’échelle locale) parce que ces réseaux ont de fortes différences structurelles et opérationnelles.


Source : G2ELab

En effet, en France, le réseau de transport comprend 100 000 kilomètres de lignes à haute et très haute tension et il fournit l’énergie électrique à 2 200 postes de transformation appelés « postes sources » qui alimentent eux-mêmes les réseaux de distribution. Ces derniers sont donc les charges du réseau de transport. Ils comprennent eux-mêmes actuellement 1,3 million de kilomètres de lignes de distribution et 742 700 postes de transformation moyenne tension/basse tension permettant d’alimenter la grande majorité des 35 millions de consommateurs finaux.

Ce nombre très important de postes fait qu’il serait très coûteux de tous les équiper de systèmes de mesures, contrairement au réseau de transport où sont implantés des capteurs de mesures dans tous les postes. De plus, parce que le réseau de transport a une architecture maillée, et comme nous venons de le dire, des mesures dans tous les nœuds (postes), il existe des corrélations fortes entres les grandeurs électriques mesurées. Ainsi, l’estimateur d’état du transport peut corriger les erreurs de mesures avec une bonne précision et même détecter facilement les mesures erronées, d’autant plus que les mesures sont redondantes la plupart du temps. À l’opposé, l’architecture du réseau de distribution est radiale (en exploitation), avec beaucoup de ramifications et peu de capteurs de mesures, en général situés au poste source. En conséquence, les mesures faites sont peu, voire pas, corrélées du tout.

L’estimateur d’état pour les réseaux de transport existe donc depuis longtemps dans les centres de conduite des opérateurs et il connaît une problématique totalement différente de celle que nous pouvons envisager pour les réseaux de distribution. Aujourd’hui, ERDF est en train de déployer une première version d’estimateur d’état permettant d’obtenir une vue précise des tensions du réseau de distribution. Il reste néanmoins de larges champs d’exploration pour développer cet estimateur afin de pouvoir observer toutes les variables du réseau et des recherches sont en cours dans ce but sur la localisation optimale des capteurs, sur les nouvelles technologies de capteurs ou même sur le système de communication entre les capteurs et l’estimateur d’état, etc.

En particulier, le projet SOGRID retenu dans le cadre des appels à manifestation d’intérêt de l’ADEME va examiner les possibilités d’utiliser les compteurs communicants Linky associés au protocole de communication CPL-G3 pour améliorer l’observabilité et donc l’estimation d’état du réseau. Ces compteurs ne pourront a priori pas être utilisés comme des capteurs en réseau classiques, mais l’idée est de les solliciter régulièrement pour recaler les modèles d’estimateurs, ce qui permettrait par voie de conséquence de faciliter la mise en place des fonctions de pilotage avancées du réseau en améliorant la précision globale.

Laboratoire de recherche public affilié à l’Institut Polytechnique de Grenoble, l’Université Joseph Fourier et le CNRS, G2Elab couvre un large spectre de compétences dans le domaine du Génie Électrique. Son action peut être résumée par les mots-clefs suivants : énergie électrique, matériaux, procédés et systèmes innovants, modélisation et conception. Les travaux développés vont des recherches de base « amont », jusqu’au domaine « aval » avec une forte implication dans des collaborations avec des acteurs du secteur socio-économique Avec environ 300 personnes, le G2Elab s’impose dans ces domaines comme un acteur majeur au niveau national et international.

Le traitement des données et le big data de l’électricité

Les étapes de traitement des données

Après l’étape de collecte grâce aux différents capteurs, ERDF opère les traitements génériques suivants :

  1. Contrôle : cette étape permet de s’assurer que les données brutes collectées sont valides.
  2. Correction : sur certains types de données, des mécanismes d’estimation ou de correction peuvent être mis en œuvre. Ces dispositifs sont concertés avec l’ensemble des parties prenantes. Par exemple, en cas de dysfonctionnement d’un dispositif de comptage d’un client particulier, l’énergie consommée est estimée à l’aide de méthodes reconnues par les organismes compétents (cf. article 20 du cahier des charges fonctionnel sur le comptage électrique joint à la Communication de la CRE du 29 janvier 2004). De même, les corrections climatiques sont réalisées à l’aide d’une méthode dite « des gradients » partagée avec l’ensemble des acteurs et approuvée par le régulateur.
  3. Stockage : ERDF procède ensuite à un stockage sécurisé des données validées et corrigées dans ses systèmes informatiques. Ces systèmes sont sécurisés conformément au cadre légal et règlementaire. Ainsi, la chaîne de traitement des données issues des compteurs communicants Linky respecte notamment le référentiel de sécurité rédigé par ERDF, évalué et certifié par l’Agence nationale de la sécurité des systèmes d’information (ANSSI).
  4. Traitements adaptés : en fonction des finalités, des traitements adaptés peuvent être effectués sur les données. Par exemple, il est possible de retraiter les données de consommation afin d’en déduire des données de facturation à destination des fournisseurs titulaires des contrats de fourniture, d’effectuer des agrégations de données de consommation et de production sur le périmètre d’une concession, etc.
  5. Mise à disposition : les données sont ensuite utilisées par ERDF pour l’exploitation, la maintenance et le développement du réseau public de distribution. ERDF transmet également aux acteurs externes les données nécessaires pour l’exercice de leurs activités ou missions (clients finaux, fournisseurs, collectivités, tiers, régulateur, etc.) dans le respect du cadre juridique, notamment concernant la protection des données commercialement sensibles et à caractère personnel.

Un exemple, la chaîne de traitement des données Linky

Une fois mesurées par les compteurs communicants Linky, les données brutes sont transmises cryptées par courant porteur en ligne (CPL) aux concentrateurs situés dans les postes de distribution publique, puis par GPRS à un système d’information national. ERDF valide les données avant de les stocker sur des serveurs sécurisés, en conformité avec les recommandations légales en la matière. Ces données sont ensuite mises à disposition des acteurs autorisés. Par exemple, dans le cas de données individuelles de consommation, elles sont affichées dans l’espace client du consommateur concerné et transmises à son fournisseur titulaire pour l’exécution du contrat de fourniture.

Chaîne de traitement des données Linky et mise à disposition de ces données aux clients finaux et aux fournisseurs

Source : ERDF

STM : l’outil big data d’ERDF

Avec la modernisation du réseau électrique et l’introduction des nouvelles technologies telles que Linky, ERDF doit faire face à une augmentation considérable du volume de données collectées et traitées. Les technologies big data répondent à ces nouveaux enjeux en matière de stockage et de traitement de ces données.

Ainsi, ERDF s’est dotée d’un outil nommé Système de traitement des mesures (STM), fondé sur ces technologies. Véritable entrepôt des données de la distribution d’électricité, STM stocke et gère la totalité des données de mesure d’électricité produites par ERDF (réseaux et comptage), les informations descriptives des points associés à ces mesures (clients, contrats, responsables d’équilibre, fournisseurs, localisation, etc.), les données météorologiques, les profils de consommation utilisés pour la reconstitution des flux, etc. L’outil STM s’appuie sur une technologie big data de référence sur le marché, évolutive en termes de capacités de stockage et de traitement des données.

La technologie big data utilisée dans l’outil STM se caractérise par les « 4 V » :

  • volumétrie : pour les 35 millions de clients alimentés en basse tension, le déploiement des compteurs communicants entraîne le passage d’un relevé d’index semestriel de manière manuelle à un télérelevé quotidien. Avec le consentement du client, sa courbe de charge peut également être relevée. Les volumes concernés se comptent en téraoctets, voire en pétaoctets (1 pétaoctet représente 1015 octets, soit 1 milliard de mégaoctet (Mo), l’équivalent de 20 000 disques Blu-ray HD). Le système de stockage employé permet d’accroître les capacités au fur et à mesure des besoins ;
  • vélocité : les temps de traitement peuvent être réduits d’un facteur compris entre 10 et 20 par rapport aux systèmes traditionnels de gestion de données. De plus, le système STM permet à ERDF d’effectuer simultanément deux natures de traitements différents : des traitements analytiques fondés sur des grandes quantités de données et des traitements transactionnels rapides sur des mesures unitaires ;
  • variété : STM prend en charge une forte diversité de types de données (mesures, données météorologiques, description du réseau, etc.). Une multitude de croisements devient alors possible et engendre de nouvelles connaissances issues de l’analyse collective de ces données ;
  • véracité : la qualité des analyses menées repose sur la validité des données collectées. La multiplication des sources de données et l’accroissement des volumes mis en jeu apportent des moyens supplémentaires de contrôler la véracité des données et de détecter les erreurs éventuelles.

Les outils d'exploitation et d'analyse des données

Les données collectées irriguent un grand nombre d'outils, qui permettent de les exploiter, les croiser, les analyser et les mettre à disposition des parties prenantes.

Par exemple, ÉRABLE (Études pour un Réseau durABLE) est l'outil de développement du réseau public de distribution concédé à ERDF. Il intègre l'ensemble des données réseau (production décentralisée, contraintes, etc.) pour réaliser les études réseau ERDF et anticiper le dimensionnement du futur réseau public de distribution.

De même, le Système d’information géographique d'ERDF (SIG), référentiel des données descriptives du réseau, permet, entre autres, d’alimenter des outils d'analyses thématiques des données. Par exemple, en croisant les données géographiques des référentiels réseau et clientèle, il permet d’illustrer géographiquement la consommation par quartier et type de client dans le cadre d’études réseau et de projets d’aménagements.

Exemple d’analyse d’évolution des consommations sur un système d’information géographique

Source : ERDF

Les données collectées sont également utilisées par différents outils d’analyse et de traitement statistique en vue de la reconstitution des flux pour les marchés de l’électricité. Grâce à des outils spécifiques dits de « data mining », elles permettent par exemple de construire des profils type, d’identifier les pertes non techniques potentielles ou d’élaborer des méthodes d’évaluation de l’effacement via des panels de consommateurs.

Exemple d’analyse de courbes de charge de consommation

Source : ERDF



Cette fiche a été rédigée par ERDF.



Les outils d’analyses des big data – clé de voute pour le succès de la transition vers les réseaux intelligents

Réseaux intelligents : Où en sommes-nous aujourd’hui ?

L’émergence des réseaux intelligents est la conséquence des objectifs européens des « 3 x 20 », visant à encourager une utilisation plus rationnelle de l’énergie, une gestion optimisée des réseaux et le raccordement plus important de sources d’énergie renouvelable à tous les niveaux de tension des réseaux.

Dans beaucoup de pays, les régulateurs ont analysé les coûts/bénéfices (Costs benefits analysis - CBA) du déploiement des technologies de comptage évolués pour valider ces mêmes déploiements. Le récent rapport de la Commission européenne, intitulé « Cost-benefit analyses & state of play of smart metering deployment in the EU-27, Accompanying the document Report from the Commission - Benchmarking smart metering deployment in the EU-27, with a focus on electricity », Brussels, 17.6.2014 résume les études sur les coûts et les bénéfices identifiés par différents pays en Europe.

Partout dans le monde, et plus particulièrement en Europe, les gestionnaires de réseau de distribution déploient, ou ont déployé des systèmes de comptage évolués, ainsi que de nouvelles technologies de mesure et contrôle au niveau des réseaux de distribution.

Une part non négligeable de ces gestionnaires de réseau n’utilisent cependant qu’une toute petite partie des capacités de ces nouveaux systèmes de comptage, que ce soit pour les opérations à distance ou pour des lectures mensuelles. S’ils réalisent des économies sur la lecture manuelle des compteurs, ils ne mettent pas à profits les énormes potentialités de ces technologies – dont nous abordons certaines ci-après.

Une autre part, plus ambitieuse, a fait l’effort de déployer les technologies pour capturer quotidiennement les données. Néanmoins, très souvent, ces données finissent dans des « cimetières de données » (des entrepôts de données pour lequel aucun outil analytique efficace ne viendrait permettre leur exploitation), parfois très couteux (se chiffrant en millions d’euros), et restent peu utilisées pour améliorer la gestion du système électrique, parce qu’il est complexe d’appréhender et de gérer ces grandes quantités de données pour mettre en œuvre des actions concrètes.

Le comptage évolué a ainsi mis les entreprises de service public des secteurs de l’énergie et de l’eau face au paradigme du "Big Data Analytics". En recevant 1 000, 10 000, 100 000 fois plus de données que par le passé, représentant des téraoctets au quotidien, parfois avec une fiabilité de l’information relative, il devient très difficile d’assimiler ces données et d’en tirer des conclusions sur la base desquelles agir. Le big data caractérise ces environnements où :

  • la volumétrie de données est très importante ;
  • la variété de sources de données est étendue (données de comptage, météorologiques, topologie des réseaux, typologie des équipements, alarmes enregistrées par les équipements, données dites structurées et non structurées, etc.) ;
  • la vélocité – la fréquence d’obtention de données et les besoins de traitement pour des analyses en continu est élevée ;
  • la véracité est relative (i.e. les informations collectées ne sont pas fiables), rendant difficile l’interprétation.

Il s’agit du principe des « 3V » (volume, vélocité, variété) qui fut à priori formulé en 2001 par l’entreprise META Group. Le 4e V, relatif à la « véracité », fut ajouté ultérieurement.

De manière plus critique, il ne s’agit pas simplement d’être en mesure de stocker ces données, mais plutôt d’être en mesure d’en extraire les données importantes pour la gestion du système électrique. Il s’agit ici de trouver des aiguilles dans des bottes de foin de la taille de la France…

Figure 1 : Les outils d’analyse des big data dans le contexte de déploiement des réseaux intelligents et des systèmes de comptage évolué

Source : Oracle

Concrètement : comment des outils d’analyses avancées peuvent permettre d’améliorer l’efficacité des entreprises de service public des secteurs de l’énergie et de l’eau ?

Les exemples suivants illustrent l’utilité des technologies d’exploration de données big data dans le cadre du déploiement des réseaux intelligents et des systèmes de comptage évolué – par des cas pratiques :

  • un gestionnaire de réseau de distribution aux États-Unis a pu réduire par 20 le nombre d’interventions sur le terrain pour compteurs défectueux, grâce à des algorithmes éliminant les fausses alarmes et les situations transitoires ne requérant pas d’intervention. Elle a ainsi économisé plusieurs millions de dollars ;
  • une autre société a réduit de 87 % le traitement manuel des anomalies de consommation, rendant possible de se concentrer sur les cas ayant de vraies conséquences pour ses clients. Cela lui a permis d’améliorer substantiellement son service client ;
  • grâce à l’analyse de données, il a été également possible à d’autres entreprises de redéfinir leur politique de renouvellement de transformateurs sur les réseaux basse tension en identifiant les postes de transformation présentant des caractéristiques de services dégradées, et les plus grands risques de panne ;
  • elles ont pu également identifier dans les zones en déficit de capacité, les clients contribuant de manière significative aux pics de consommations et ceux sensibles à des incitations de réduction de leur consommation à ces moments précis, permettant ainsi un meilleur service pour l’ensemble des abonnés ;
  • d’autres sociétés ont pu générer des listes de clients potentiellement fraudeurs avec des niveaux de confiance de 80 % et plus, réduisant ainsi les pertes non-techniques et donc les coûts du système pour l’ensemble des utilisateurs ;
  • des entreprises ont pu optimiser leurs plans de gestions de tensions sur les réseaux basse tension, réduisant ainsi les pertes techniques, grâce à des études fines sur les données en provenance des compteurs évolués ;
  • dans le domaine du gaz, la mise en place de stratégies de détection sur la base des données mesurées ont permis de détecter rapidement des cas de fuites chez les abonnés et éviter ainsi des risques d’explosions aux conséquences tant en vies humaines et que financières très lourdes ;
  • dans le domaine de l’eau, l’analyse des données a permis le suivis de campagnes de sensibilisation à l’utilisation rationnelle de l’eau en période de sécheresse et de suivre, sans équipements additionnels, le respect des consignes sur l’arrosage et le remplissage de piscines.

Pourquoi n’est ce donc pas si simple ?

En pratique, parvenir à extraire la valeur des données nouvellement mises à disposition par les réseaux intelligents et les systèmes de comptage évolués est complexe. Cela requiert des capacités d’analyses avancées dans des environnements big data : il ne s’agit pas de réaliser des états, des rapports ou des tableaux de bord, plus ou moins dynamiques. Il s’agit de la capacité d’analyses statistiques de données élaborées, en présence de grandes quantités et variétés de données, pour produire des résultats que les équipes opérationnelles pourront utiliser (direction comptage, direction réseaux, direction clientèle, direction gestion des actifs, etc.).

En premier lieu, cela représente un défi technologique. Les technologies big data disponibles sur le marché sont extrêmement variées et requièrent de maîtriser une série de composantes, depuis des infrastructures ultraperformantes, des technologies de gestion de données – Hadoop, NOSQL, RDBMS, le in-memory, mais aussi des outils d’intégration, en temps réels ou non, spécifiques, et enfin des outils analytiques et statistiques. Pour chacune de ces technologies, ils existent différentes solutions sur le marché qui conviennent à différentes problématiques. Pour mettre en œuvre ce type d’architectures, il faut donc éventuellement assumer la responsabilité de l’intégration fiable de toutes les composantes suscitées. Enfin, pour compliquer le tableau, le nombre de personnes compétentes sur le marché pour ces technologies reste encore très limité. Dans l’étude menée par Oracle en 2013 (Utilities and Big Data:”Accelerating the Drive to Value”, July 23, 2013, A Utilities Transformation Study), 62 % des entreprises de service public du secteur énergétique aux États-Unis indiquaient un manque de compétence.

En second lieu, cela représente un défi fonctionnel pour les équipes métiers : n’ayant jamais eu ni ce type d’informations ni ces volumes à leur disposition, il est naturel que les analyses à mener et la manière de les conduire d’un point de vue métier, ne soit pas non plus facilement définies. Les outils d’analyses big data se confrontent en effet au paradigme « nous ne savons à l’avance ce que nous allons trouver, ni par quels analyses nous pourrons le trouver ».

Ce double défi « technico-fonctionnel » complique sensiblement la réalisation d’un projet informatique et peut - dans la pratique - rendre difficile la mise à disposition rapide d’outils supportant efficacement les équipes métier dans leurs investigations.

Pour que la gestion des données soit utile à ces acteurs, il conviendra de mettre à disposition :

  • des outils d’exploration et de visualisation des données, spécifiques et adaptés ;
  • des outils pour l’analyse ad hoc de ces données, permettant de concevoir des algorithmes d’analyse adaptés ;
  • des outils pour exécuter au quotidien et à grande échelle ces analyses algorithmiques de manière performante ;
  • Et enfin un accompagnement par des experts scientifiques de données connaissant à la fois les réseaux intelligents et les outils d’analyses, afin de supporter en continu l’élaboration et l’adaptation des analyses.

Figure 2 : Eléments clés de la plate-forme analytique mise à disposition des équipes métiers

Source : Oracle

Cependant, il existe également des alternatives : le Cloud

Dans ce contexte, il est possible d’avoir recours à une solution alternative : s’appuyer sur une expertise et de plates-formes déjà opérationnelles. Il existe en effet un certain de nombre de sociétés de service qui ont mis en place ce type d’architecture et proposent l’accès à ces plates-formes sous la forme de service. Aux États-Unis, déjà en 2013, d’après l’étude citée précédemment, 63 % des entreprises de service public consultées affirmaient vouloir recourir ou avoir déjà à des services d’analyses avancées de données.

Cette approche présente de nombreux avantages : pas d’infrastructure à mettre en œuvre, pas de licences logicielles à acquérir, un compromis sur une courte période – typiquement une base annuelle, une mise en place en quelques semaines plutôt qu’en quelques mois, l’accès à des cas d’usages éprouvés auprès d’autres sociétés du secteur, un accompagnement par des scientifiques de données expérimentés.

Si le Cloud reste limité en termes d’adoption par les entreprises des secteurs de l’énergie et de l’eau, en raison d’inquiétudes liées à la sécurité des données et au respect des données privées, de plus en plus d’acteurs du secteur y font appel. Tous les outils existent pour maitriser les risques cités précédemment et le Cloud est par ailleurs en très forte croissance dans d’autre secteurs, comme les télécommunications, la banque ou la santé, où les données doivent être gérées avec précaution.

Les outils d’analyses big data : clé de voute pour le succès de la transition vers les réseaux intelligents

La mise en œuvre de capacités d’analyse big data dans le secteur de l’énergie apparaît ainsi comme la clé de voute permettant – au-delà des bénéfices premiers liés à la lecture à distance des compteurs – de tenir les promesses de la transition énergétique en matière d’économies d’énergie, d’efficacité énergétique, de capacité à intégrer toujours plus de nouveaux usages (comme les véhicules électriques) – et ce - autant pour les entreprises que pour les utilisateurs.

Oracle est un partenaire établi des sociétés de service public des secteurs de l’énergie et de l’eau, dans le domaine des systèmes d’information. Au-delà de solutions technologiques qui incluent serveurs, solutions de stockage, bases de données, middleware, et outils analytiques, le département « Oracle Utilities » porte une offre complémentaire et spécifique au secteur de l’énergie au travers d’un portfolio de solutions applicatives et de services couvrant les différents cœurs de métier : la gestion des clients, des compteurs, des actifs, des réseaux.

Les solutions d'Open API pour outiller l'ouverture des données.

Une des caractéristiques de l’économie digitale est une plus grande ouverture des acteurs : ouverture des organisations tant vers l’interne que vers l’externe, et ouverture des infrastructures vers les différents écrans et canaux digitaux parmi lesquels les terminaux mobiles (téléphones, tablettes, etc.) jouent aujourd’hui un rôle central. Ces différents axes d’ouverture soulèvent des enjeux nouveaux pour les acteurs, en termes de stratégie, d’organisation et de mise en œuvre auxquels une démarche d’Open API a pour objectif de répondre.

Besoin de nouveaux types d’API

La brique de base de cette ouverture est l’Application Programming Interface ou API (en français l’interface de programmation), qui est une façade permettant à un programme tiers (une application) d’accéder à une ressource, qu’il s’agisse de données, de services, ou de contenus.


Source : Niji

La plupart des entreprises utilisent déjà des API exposées en interne au sein de la Direction des Systèmes d’Information (DSI). Certaines entreprises ont également déjà des API exposées vers l’externe à destination de leurs partenaires.


Source : Niji

Cependant, les stratégies d’ouverture touchent de nouveaux « consommateurs » nécessitant de nouveaux types d’API :

  • développement croissant des applications mobiles avec des contraintes technologiques spécifiques liées aux ressources de terminaux mobiles (et leurs différents systèmes d’exploitation) et aux spécificités de la connectivité des réseaux mobiles ;
  • développement d’usages B2B2C (ensemble des transactions destinées à un client professionnel qui, lui, s'adresse ensuite au marché des particuliers) avec un enjeu de sécurité de bout en bout, notamment au regard des données personnelles ;
  • apparition d’applications à caractère temps réel avec des enjeux de synchronisation de données favorisant l’émergence de modèles de souscription/notification en complément des modèles de requête/réponse ;
  • fort essor du nombre d’applications nécessitant une simplicité d’accès et d’utilisation des API.

Des API au service d’une stratégie

L’ouverture des API répondant à des enjeux stratégiques et commerciaux, il est nécessaire d’associer aux API des dispositifs connexes pour :

  • la promotion et le support à l’utilisation des API ;
  • la souscription au service d’utilisation des API ;
  • le contrôle de l’utilisation des API en accord avec les modèles de licence adoptées : délimitation des droits d’usage, qualité de service, tarification éventuelle, etc. ;
  • des dispositifs d’analyses des données permettant aux directions métier de suivre et de piloter la démarche d’ouverture des API : statistiques d’usage, supervision de la performance, etc.

Une problématique récurrente d’une démarche Open API est la difficulté à en évaluer la rentabilité a priori. En effet, la valorisation est souvent indirecte (image de marque, qualité de la relation client, etc.) et lorsque les API sont valorisées directement, le marché concerné est un marché émergent d’applications innovantes difficile à estimer.

Face à ces incertitudes, les acteurs développent plusieurs types de réponses :

  • des modèles d’affaires qui s’inspirent de ceux développés par les acteurs du Web : modèles de facturation de type freemium (modèle économique qui consiste à proposer des services basiques gratuits et des services complémentaires payants), modèles de partage de revenus, etc. ;
  • des stratégies de mise en œuvre incrémentale avec des structures de coûts progressives en s’appuyant sur des progiciels qui permettent de réduire drastiquement les coûts d’investissements initiaux et d’inscrire la mise en œuvre de la solution d’Open API elle-même dans une démarche d’agilité.

Le contrôle des accès, un enjeu majeur

Le qualificatif « Open » ne doit pas être compris comme une exposition sans contrôles : l’enjeu d’une démarche d’Open API est de mettre en œuvre l’ensemble des règles de contrôle d’accès aux API qui découle de la stratégie tout en préservant la sécurité du système d’information et la protection de l’utilisateur final.

Pour cela il est nécessaire de pouvoir gérer finement le contrôle d’accès aux API à différents niveaux :

  • le tiers : un tiers qui souhaite utiliser des API doit préalablement s’enregistrer ;
  • l’application : un tiers doit enregistrer et obtenir les autorisations d’accès aux API pour chaque application qu’il souhaite développer ;
  • l’utilisateur final : une application B2B2C qui s’adresse à un utilisateur final et manipule des données et/ou des services personnels doit permettre de recueillir son autorisation explicite et de manière sécurisée.


Source : Niji

La mise en œuvre de ces contrôles repose sur l’utilisation de standards pour gérer les problématiques d’authentification et d’autorisation adaptées aux différents contextes (B2B, B2B2C, applications mobiles, portails web, différents niveaux de confiance entre les acteurs, etc.).

En B2B2C, les standards applicables sont respectivement OAuthv2 pour la gestion des autorisations et OpenIDConnect pour la gestion de l’authentification. Ces standards fournissent des boîtes à outils permettant d’envisager des modèles de mise en œuvre très variés, y compris en répartissant les rôles entre les acteurs notamment pour la gestion de l’authentification et des autorisations.

Open API et Open Data

L’Open Data est d’abord une philosophie consistant à rendre accessibles les données numériques à tous. Elle a été déclinée d’abord au niveau des gouvernements avec des finalités de transparence et d’innovation. Elle tend à se répandre dans les collectivités, les délégataires de service public, les entreprises publiques, et les établissements publics à caractère industriel et commercial (EPIC).


Source : Niji

L’Open API est une démarche d’ouverture générale qui permet de répondre à tous les besoins d’une démarche Open Data en particulier. Une démarche et un outillage Open API peuvent s’avérer nécessaires dans la mise en œuvre d’une démarche Open Data lorsqu’il y a des enjeux d’industrialisation ou de contrôle de l’accès aux ressources dans une chaîne de valeur avec plusieurs types d’acteurs. C’est en particulier le cas des opérateurs de réseau qui ont des enjeux d’accompagnement de leurs autorités organisatrices/concédantes elles-mêmes engagées dans des démarches d’ouverture (Open Data), dans un environnement marqué par l’arrivée d’acteurs privés et des risques de désintermédiation de la relation client contre lesquels il faut se prémunir.


Source : Niji

Emergence de solutions matures

Vers la fin des années 2000, des solutions sont arrivées sur le marché : d’abord des éditeurs spécialisés puis des grands acteurs du logiciel. Apparues d’abord dans le secteur des télécoms, ces solutions sont aujourd’hui utilisées par des acteurs de tous les secteurs (finance, grande distribution, média, utilities, etc.).


Source : Niji

Les fonctionnalités proposées peuvent être regroupées en 3 catégories :

  • la passerelle API : point central d’accès aux ressources permettant, d’une part, de mettre en œuvre les règles de contrôle associées (sécurité et niveaux de service) et, d’autre part, d’exposer aux tiers des API faciles à consommer et stables dans le temps. Ce composant technique est piloté par les fonctions d’API Store et d’API Manager ;
  • API Store et API Manager : portails respectivement tournés vers les tiers et vers les acteurs internes et mettant en œuvre l’ensemble des fonctionnalités nécessaires conformément au modèle d’affaires associé à la stratégie d’ouverture des API.

L’open API dans les Smart grids ?

Permettre l’émergence du nouvel écosystème

Les Smart Grids en cours de déploiement vont fournir des données (et des fonctionnalités de pilotage) qui pourront être exploitées par tout un écosystème d’acteurs variés : les collectivités et autorités organisatrices, les acteurs de marché, les fournisseurs, les opérateurs de nouveaux services et les consommateurs eux-mêmes.

Le potentiel de valeur des différentes données (et fonctionnalités) pour différentes applications fait l’objet de nombreuses études (analyses coûts bénéfices) et de nombreux débats entre les acteurs. Cependant, comme dans d’autres domaines impactés par le numérique, l’innovation viendra en grande partie de l’extérieur et il convient de la favoriser au travers de démarches les plus ouvertes possibles.


Source : Niji

L’ouverture doit cependant répondre à des règles précises pour protéger les rôles, responsabilités et intérêts des différents acteurs de l’écosystème, en conformité avec la réglementation et la législation (et notamment les évolutions introduites dans le projet de loi de programmation pour la transition énergétique). En particulier :

  • les autorités organisatrices pourraient jouer un rôle dans la gestion de l’accès aux données (agrégées) relatives à leur concession, notamment vers les collectivités ;
  • les fournisseurs peuvent jouer un rôle dans l’accès aux données individuelles parce que les données générées par le compteur communicant n’appartiennent au client que dans la mesure, et sur la durée pendant laquelle celui-ci dispose d’un contrat de fourniture associé à ce compteur.

Une solution d’Open API permet de répondre à ces différents enjeux : ouverture large tout en mettant en œuvre les règles d’accès nécessaires, avec une répartition des rôles entre les acteurs pour la gestion de l’authentification et des autorisations d’accès. Une solution d’Open API offre également la flexibilité permettant d’accompagner progressivement le développement de l’écosystème, depuis les phases d’expérimentation jusqu’aux phases d’industrialisation.

Structurer le nouvel écosystème

Les nouveaux services s’appuieront souvent sur des données issues de différentes sources : données des différents réseaux d’énergies (électricité, gaz, chaleur, froid), données des compteurs communicants, mais aussi données des équipements situés en aval des compteurs, etc.

Les données issues des équipements situés en aval des compteurs sont aujourd’hui plus volumineuses que les données issues des réseaux et elles sont pour la plupart déjà disponibles via des démarches Open API : c’est le cas de tous les nouveaux acteurs des objets connectés (à l’instar de Nest, NetAtmo, etc.) qui sont progressivement rejoints par les acteurs domotiques traditionnels. Des acteurs commencent aussi à se positionner comme acteurs d’agrégation ou d’intermédiation, et notamment des acteurs du Web, à l’instar d’Apple avec Homekit, ou de IFTTT (« If This Then That »).

A l’aube de la constitution de ce nouvel écosystème, on peut identifier deux enjeux :

  • les données : les données étant au cœur de ce nouvel écosystème, l’enjeu est d’influer sur les modèles et formats de données mais aussi sur la manière de les mesurer, de les corréler, de les analyser, de les interpréter, etc. Les gestionnaires de réseaux ont un vrai rôle à jouer sur les données relatives à l’énergie en vertu de leur expertise métier. Par exemple, une API pourrait être fournie permettant l’analyse ou la comparaison de courbes de charge, ce qui nécessite une expertise spécifique ;
  • l’authentification : pour corréler les données, il faut pouvoir les associer à un même client ou à un même logement. La question posée est celle des identités numériques de ce nouvel écosystème (identité du logement et de son foyer occupant) : souhaite-t-on les laisser sous le contrôle des acteurs du web qui, à l’instar de Google ou Facebook, sont déjà devenus les fournisseurs de nos d’identités numériques en tant que individus consommateurs des services web ?

La mise en œuvre d’une solution Open API offre l’opportunité de structurer ce nouvel écosystème tant du point de vue des données que des identités qui les régiront.

Conclusion

Les solutions Open API permettent d’outiller l’ouverture des données des compteurs communicants dans le Cloud de manière symétrique à l’ouverture des données dans le foyer via l’interface TIC, l’une et l’autre ouvertures jouant des rôles complémentaires. L’ouverture dans le Cloud permet de bénéficier de l’extrême rapidité de diffusion des services numériques sans être tributaire du taux d’équipements de foyers en installations domotiques.

Le démarrage en 2015 de la généralisation du déploiement des compteurs communicants crée une opportunité unique pour structurer ce nouvel écosystème avec la mise en œuvre d’une solution de type Green Button « à la française » permettant de mettre à disposition les données des compteurs communicants avec recueil du consentement client, comme le recommande le rapport de la mission Lemoine sur la transformation numérique de l’économie française.

Niji est une société de conseil, de design et de technologies entièrement dédiée aux usages de la convergence numérique. Niji accompagne ses clients, acteurs de l’économie marchande et des services publics, dans leur transformation digitale. De l’idée à la réalité, Niji associe dans une même chaîne de valeur conseil en stratégie numérique, conseil technologique, design de services et d’applications interactives, et réalisation logicielle clés en main. Créée en 2001 et présente à Rennes (siège social), Nantes, Paris, et Lille, Niji sert aujourd’hui plus d’une centaine de clients, compte 450 salariés et a réalisé un chiffre d’affaire de 33 M€ en 2013.

Le cadre juridique de la protection et de la sécurité des données issues des Smart grids

L’exploitation des données générées par les Smart grids, ou réseaux intelligents, a notamment pour objectifs d’optimiser la production et l’acheminement d’électricité, de fiabiliser la facturation des abonnés et de faciliter l’intégration de sources décentralisées d’énergie (photovoltaïque et autres énergies renouvelables). À cet effet, des dispositifs de collecte et de traitement des données sont installés tout au long des différents niveaux des réseaux d’énergie, grand transport et interconnexion, répartition et distribution.

Le cadre juridique de cet ensemble considérable de données (ou big data) est en cours de construction. Il porte en particulier sur le respect du droit des données à caractère personnel et la sécurité des données issues des Smart grids. De nombreuses questions restent cependant à trancher.

L’application du droit des données à caractère personnel aux données issues des Smart grids

La loi n° 78-17 du 6 janvier 1978, relative à l’informatique, aux fichiers et aux libertés modifiée, définit le régime juridique applicable aux données à caractère personnel qui s’applique en conséquence aux données issues des réseaux intelligents.

L’article 2 de cette loi définit les données à caractère personnel comme toute information relative à une personne physique qui peut être identifiée par référence à un ou plusieurs éléments qui lui sont propres.

S’agissant des données techniques générées en amont des compteurs communicants, elles ne devraient pas, en principe, être reliées spécifiquement à une personne physique et ne devraient donc pas être qualifiées de données à caractère personnel.

En revanche, les données collectées par les compteurs communicants sont, pour certaines comme les index de consommation et les courbes de charge, reliées à une personne physique, l’abonné. Il s’agit donc de données à caractère personnel, ainsi que la CNIL l’a relevé. En outre, on peut noter que les compteurs communicants devraient entraîner un accroissement très significatif du volume des données personnelles traitées, la possibilité pour les tiers d’accéder facilement « en temps réel » à ces données et de procéder à un croisement avec d’autres données disponibles (établissement de « profils énergétiques »). Cela constitue autant de sujets qui devront être traités au regard de la loi du 6 janvier 1978.

Afin d’encadrer le traitement de ces données, la CNIL a adopté le 15 novembre 2012 une délibération n° 2012-404 portant recommandation, relative aux traitements des données de consommation détaillées collectées par les compteurs communicants. Cette recommandation porte sur le traitement des courbes de charge qui sont constituées d’un relevé, à intervalles réguliers (le pas de mesure), de la consommation électrique de l’abonné. La CNIL estime que des mesures très rapprochées sur une journée permettraient de déduire des informations relatives à la vie privée des personnes concernées et à leurs habitudes de vie (notamment, le nombre d’occupants, l’identification des heures de lever et de coucher ou encore les heures ou périodes d’absence), ce qui présente un risque significatif et nécessite une attention particulière au regard de la loi du 6 janvier 1978.

En conséquence, la CNIL précise que les traitements de la courbe de charge ne peuvent être mis en œuvre que pour trois finalités : la maintenance et le développement du réseau (par les gestionnaires de réseaux de distribution), la mise en place de tarifs adaptés à la consommation des ménages (par les fournisseurs d’énergie) et la fourniture de services complémentaires (par les sociétés tierces).

De même, elle préconise plusieurs mesures, notamment le recueil du consentement exprès des utilisateurs pour les traitements mis en œuvre par les fournisseurs d’énergie et les sociétés tierces, la mise en œuvre de mesures techniques rendant impossible toute collecte de la courbe de charge à un pas inférieur à 10 minutes (et qui donnerait une connaissance précise de la consommation d’électricité), la fixation d’une durée de conservation maximale des données selon la finalité et la gestion rigoureuse des habilitations d’accès aux données.

En concertation avec la Fédération des industries électriques, électroniques et de communication (FIEEC), la CNIL a également publié en mai dernier un « pack de conformité » qui définit les bonnes pratiques en matière de collecte des données via des appareils installés par les utilisateurs en aval des compteurs communicants, s’inscrivant ainsi dans la tendance de l’Internet des objets.

La prise en compte de la protection et de la sécurité des données dès la conception

En vertu des directives communautaires 2009/72/CE et 2009/73/CE du 13 juillet 2009, la mise en place des systèmes intelligents de mesure relèvent de la compétence des États membres de l’Union européenne (UE). La directive 2012/27/UE du Parlement européen et du Conseil du 25 octobre 2012 relative à l’efficacité énergétique impose aux États membres de l’UE de veiller à la sécurité des compteurs intelligents et de la communication des données ainsi que de garantir la protection de la vie privée des clients finaux.

Le développement des réseaux intelligents soulève la question de la sécurité des données collectées (risques de captation illicite de données sensibles) et celle de la sécurisation des infrastructures (risques d’attaques informatiques contre les réseaux intelligents connectés). La priorité est donnée à une prise en compte en amont de ces deux problématiques, dès la phase de conception des équipements. La normalisation, c’est-à-dire l’élaboration sur une base consensuelle de spécifications techniques auxquelles se soumettent volontairement les industriels, joue un rôle clé dans ce processus de prise en compte de la sécurité et de la protection des données dès la conception (privacy and security by design). Les enseignements du secteur des communications électroniques montrent en effet qu’une prise en compte a posteriori de la protection des données personnelles est plus complexe et coûteuse à mettre en œuvre.

Fin 2009, la Commission européenne a créé un groupe de travail sur les réseaux intelligents (Smart Grids Task Force). Ce groupe de travail a formulé des recommandations en matière de normalisation, de protection et de sécurité des données personnelles. Entre 2009 et 2011, la Commission européenne a ainsi confié aux organismes européens de normalisation (CEN, CENELEC et ETSI) plusieurs mandats (dont le mandat M/490 qui contient des exigences essentielles pour la sécurité des informations dans le réseau intelligent) afin d’établir des normes concernant respectivement l’interopérabilité des compteurs évolués, les systèmes de charges pour véhicules électriques et la mise en œuvre de services et de fonctionnalités des réseaux intelligents.

La Commission européenne a également adopté, le 9 mars 2012, une recommandation 2012/148/UE relative à la préparation de l’introduction des systèmes intelligents de mesure. Cette recommandation préconise la réalisation d’études d’impact sur la protection des données avant le déploiement des compteurs communicants, selon un modèle élaboré par la Commission européenne. La recommandation fixe également un ensemble d’exigences fonctionnelles minimales communes applicables aux compteurs évolués concernant notamment, la sécurité et la protection des données et la prévention et détection de fraude. Des travaux sont en cours en ce qui concerne la définition des « meilleures techniques possibles » en matière de cyber-sécurité.

On notera que la Commission européenne a récemment adopté une recommandation (2014/724/UE) fournissant des orientations à l'intention des États membres sur les mesures à prendre pour soutenir la mise en œuvre par les responsables de traitement de données du modèle d'analyse d'impact sur la protection des données des réseaux intelligents et des systèmes intelligents de mesure (ci-après le « modèle d'AIPD »). Plus précisément, la recommandation suggère la mise en place d’une phase d'essai de deux ans durant laquelle, les responsables de traitement de données, avec le concours des autorités nationales compétentes en matière de protection des données, seront encouragés à appliquer le modèle d'AIPD à des cas concrets. Le modèle est publié sur le site internet de la Smart Grids Task Force.
Tout au long de ce processus, les résultats seront diffusés dans le groupe de travail sur les réseaux intelligents et feront l’objet de discussions entre les responsables de traitement de données, les entreprises et les représentants de la société civile, les autorités nationales de protection des données et les autorités de régulation de l'énergie. Sur la base des rapports relatifs à la phase d'essai remis par les États membres, la Commission évaluera alors la nécessité d'une révision du modèle d'AIPD afin d’améliorer son efficacité.

La CNIL et la CRE sont activement associées aux travaux européens mentionnés précédemment. L’arrêté du 4 janvier 2012, relatif aux dispositifs de comptage sur les réseaux publics d’électricité, intègre l’approche de security by design en imposant que ces dispositifs soient conformes à des référentiels de sécurité approuvés par le ministre chargé de l’énergie. La conformité doit faire l’objet d’une procédure d’évaluation et d’une certification contrôlées par l’Agence nationale de la sécurité des systèmes d’information (décret n° 2002-535 du 18 avril 2002). Dans une délibération du 12 juin 2014 portant recommandations sur le développement des réseaux électriques intelligents en basse tension, la CRE a notamment insisté sur l’importance que les porteurs de projets Smart grids réalisent des études d’impact conformes au modèle européen (recommandation n° 6 de la délibération de la CRE du 12 juin 2014).

En définitive, dans son dernier rapport sur le déploiement des compteurs intelligents dans l’UE-27 (COM(2014) 356 final), la Commission européenne constate un traitement hétérogène des questions de protection et de sécurité des données personnelles dans les États membres. Peu d’États membres ont ainsi explicitement fait référence aux règles de protection de la vie privée en vigueur dans le cadre des programmes de déploiement des compteurs évolués. La Commission européenne souligne l’importance de trouver des solutions techniques adaptées pour répondre au risque de profilage énergétique des utilisateurs et pour assurer la protection et un accès sécurisé aux données personnelles stockées.

Un cadre juridique en formation

Le cadre juridique des données Smart grids étant en formation, de nombreuses questions restent ouvertes. Nous en avons sélectionné quatre.

La protection des bases de données Smart grids

La base de données, définie comme un recueil de données disposées de manière systématique ou méthodique, fait l’objet d’une protection spécifique qui permet à son producteur d’interdire l’extraction et la réutilisation de son contenu par des tiers pendant une durée de 15 ans à compter de son achèvement. L’article L. 341 1 du code de la propriété intellectuelle réserve cette protection aux bases de données dont la constitution, la vérification ou la présentation du contenu révèle un investissement financier, matériel ou humain substantiel.

Il est vraisemblable que les gestionnaires de réseaux de distribution et les fournisseurs d’énergie revendiquent une protection sur les bases de données crées à l’occasion de la collecte des informations générées par les compteurs communicants. Le seul déploiement des compteurs ne devrait, toutefois, pas constituer un investissement substantiel relatif à la constitution de la base en ce qu’il ne consiste qu’en une création de données ayant vocation à être intégrées dans ladite base. La protection pourra être accordée s’il est justifié que ces données ont fait l’objet d’un agencement, d’une organisation et d’une vérification nécessitant un investissement substantiel, en plus du simple rassemblement des données recueillies par les compteurs communicants.

La propriété

On peut tenter de qualifier les données issues des Smart grids comme des biens mobiliers incorporels. Elles n’ont cependant pas fait, à la différence d’autres biens similaires comme les droits de propriété intellectuelle, l’objet d’une définition par la loi, ce qui ne permet pas clairement définir le régime de leur propriété. À cette absence de régime légal, s’ajoute l’application du régime des données à caractère personnel, dont la propriété en tant que telle n’est pas non plus tranchée par la loi du 6 janvier 1978, mais qui accorde des droits importants à la personne dont les données sont collectées.

La réglementation sectorielle (décrets n° 2001-630 du 16 juillet 2001 et n° 2010-1022 du 31 août 2010) se limite à encadrer la transmission des données issues des compteurs communicants entre les différents acteurs. Chaque utilisateur des réseaux publics d’électricité a la libre disposition des données relatives à sa production ou à sa consommation enregistrées par les dispositifs de comptage. Les gestionnaires de réseaux de distribution ont le droit d’utiliser ces données pour tout usage relevant de leur mission. Les tiers autorisés par les utilisateurs ont également un droit d’accès à ces données dans des conditions transparentes, non discriminatoires et adaptées à leurs besoins. Enfin, les gestionnaires de réseaux de distribution communiquent également aux fournisseurs d’énergie et aux responsables d’équilibre, pour l’exercice de leurs missions, les données concernant leurs clients respectifs.

La notification des violations de données (ou « data breach »)

Le projet de règlement européen relatif à la protection des données à caractère personnel, dont l’adoption devrait intervenir prochainement, étend à tous les responsables de traitement l’obligation de notifier aux personnes concernées et/ou aux autorités nationales les violations de données à caractère personnel.

Les responsables de traitement de données issues des Smart grids (fournisseurs d’énergie, gestionnaires de réseaux, tiers autorisés, sans que cette liste soit limitative) seront donc bientôt amenés à divulguer les éventuels accès non autorisés aux données à caractère personnel ce qui incite non seulement à améliorer la sécurité des données pour éviter toute intrusion, mais aussi nécessitera de mettre en place des procédures complexes de notification en cas de violation, dans le respect des règles de sécurité exposées ci-dessus.

Les enjeux concurrentiels liés aux données issues des Smart grids

La collecte et l’utilisation des données issues des Smart Grids sont également susceptibles d’intéresser les autorités en charge du bon fonctionnement de la concurrence puisque ces données sont potentiellement « monétisables ». Ces autorités seront certainement attentives à la concentration des données au profit de certains acteurs et à leur utilisation au-delà des activités directement liées aux services rendus aux abonnés. L’Autorité de la concurrence est ainsi intervenue à plusieurs reprises pour sanctionner l’utilisation considérée comme anticoncurrentielle de données collectées par des opérateurs en position dominante.

Ces problématiques rencontreront celles du droit des données à caractère personnel. Ainsi, la maîtrise de leurs données par les utilisateurs soulève la question de la « portabilité » des données personnelles demandée par l’abonné à son bénéfice ou à celui d’un concurrent de son fournisseur d’énergie, ou encore la durée de conservation des données pourrait créer ou prévenir un risque de « verrouillage » des clients. Il n’est pas impossible non plus que la protection de la vie privée devienne un critère de différenciation des offres de fourniture d’énergie aux yeux des utilisateurs.

Pour en savoir plus :

Délibération de la CNIL n°2012-404 du 15 novembre 2012 portant recommandation relative aux traitements des données de consommation détaillées collectées par les compteurs communicants
Pack de conformité définissant les bonnes pratiques en matière de collecte des données via des appareils installés par les utilisateurs en aval des compteurs communicants de la CNIL de mai 2014
Mandat de la Commission Européenne pour un réseau intelligent M/490 - Mandat de normalisation aux organismes européens de normalisation (OEN) en soutien du déploiement du réseau intelligent européen
Recommandation de la Commission Européenne du 9 mars 2012 relative à la préparation de l’introduction des systèmes intelligents de mesure (2012/148/UE)
Recommandation de la Commission européenne du 10 octobre 2014 concernant le modèle d’analyse d’impact sur la protection des données des réseaux intelligents et des systèmes intelligents de mesure (2014/724/UE)
Data Protection Impact Assessment Template for Smart Grid and Smart Metering systems
Décret n° 2002-535 du 18 avril 2002 relatif à l’évaluation et à la certification de la sécurité offerte par les produits et les systèmes des technologies de l’information
Rapport de la Commission Européenne (COM (2014) 356 final) - Analyse comparative du déploiement de compteurs intelligents dans l’UE-27 visant plus particulièrement le marché de l’électricité

Créé en 1901 à Wall Street et présent à Paris depuis 1926, White & Case est un cabinet d’avocats d’affaires international présent dans 26 pays à travers 38 bureaux. À Paris, plus de 170 avocats apportent leur expertise, tant en conseil qu’en contentieux, dans tous les domaines clés du droit des affaires. Le cabinet intervient dans des opérations industrielles et financières d’envergure, auprès de clients français et internationaux : sociétés cotées et non-cotées, banques, fonds d’investissement et institutions gouvernementales.
Cette fiche a été rédigée par Bertrand Liard, Avocat Associé et Orion Berg, Avocat, avec la collaboration de Maxime Hebting et Alexis Tandeau.

Concilier innovation technologique et protection de la vie privée : grille de lecture du nouveau pack de conformité sur les compteurs communicants

Le développement des objets connectés dans le domaine de l’énergie est une évolution prometteuse en termes de confort individuel et de développement durable pour la société. Pour autant, ce phénomène peut soulever des préoccupations quant à la possibilité que les données puissent être collectées à l’insu des personnes concernées et/ou révéler des éléments de leur intimité comme leurs habitudes et modes de vie.

Les compteurs communicants sont un bon exemple d’objet connecté dans le domaine de l’énergie. Ainsi les développements qui suivent mettent en évidence les risques et opportunités en lien avec le déploiement des compteurs communicants ainsi que les solutions d’encadrement proposées par la CNIL en concertation avec l’industrie pour que ce déploiement s’opère en respectant la loi.

Enjeux concernant le traitement des données de consommation collectées par les compteurs communicants

Le développement des compteurs communicants

Depuis quelques années déjà, les objets dits « communicants » se développent fortement et s’immiscent dans le quotidien des consommateurs. Le secteur de l’énergie est particulièrement concerné. Ainsi, le décret n° 2010-1022 du 31 août 2010 relatif aux dispositifs de comptage sur les réseaux publics d’électricité, impose la mise en œuvre de dispositifs de comptage permettant aux utilisateurs d’accéder à leurs données de production et de consommation d’électricité.

Un compteur communicant est une des composantes des réseaux de distribution d’énergie intelligents. Il repose sur des technologies informatiques évoluées qui lui permettent de recevoir et de transmettre des informations à distance (CNIL, Compteurs communicants : premières recommandations, 24 janvier 2013). Il peut notamment identifier de manière précise et en temps réel, la consommation énergétique d’un foyer, d’un bâtiment ou d’une entreprise et la transmettre au distributeur du réseau d’énergie, qui la transmettra ensuite aux fournisseurs d’énergie (CNIL, Les compteurs électriques intelligents en question, 5 août 2010).

Ces dispositifs présentent des avantages significatifs. Ils permettent notamment de réaliser certaines opérations à distance (relevé des compteurs d’électricité, coupure ou changement de puissance souscrite) et de proposer des tarifs d’énergie plus complexes et plus adaptés au mode de consommation de l’abonné. Par exemple, le fournisseur d’énergie sera en mesure de facturer ses clients sur leur consommation réelle et non sur des estimations.

En France, le déploiement des compteurs électriques Linky de la société ERDF débutera à la fin de l’année 2015, dans plus de 35 millions de foyer français pour un budget de 5 milliards d’euros (CNIL, Energie, 6 choses à savoir sur les compteurs communicants, 29 septembre 2014).

Les risques à gérer en matière de protection de la vie privée des usagers

La mise en place de ces compteurs peut comporter, cependant et potentiellement, des risques importants en matière de protection de la vie privée des usagers. La CNIL a notamment insisté sur les risques de traçage des usagers compte tenu du volume de données collectées et des informations qu’elles fournissent sur le quotidien des usagers. En effet, les informations de consommation d’énergie transmises par les compteurs peuvent être très détaillées (par exemple, enregistrement de la consommation au pas demi-horaire) et permettent de présager certaines habitudes de vie des habitants d’un foyer (temps de présence, d’absence, horaire de coucher et de réveil, etc.).

Pour cette raison, la sécurité et la confidentialité des données collectées par ces compteurs doivent notamment être garanties par la mise en œuvre de mesures adéquates (Délibération de la CNIL n° 2012-404 du 15 novembre 2012 portant recommandation, relative aux traitements des données de consommation détaillées collectées par les compteurs communicants).

L’application de la loi Informatique et Libertés

Dans la mesure où ces compteurs communicants impliquent un traitement de données personnelles (i.e., toute opération de collecte, enregistrement, conservation, utilisation desdites données, etc.), leur mise en œuvre doit respecter les dispositions de la loi informatique et libertés. Toutefois, le pack de conformité publié par la CNIL à ce sujet rappelle que cette loi ne s’applique pas lorsque les traitements sont mis en œuvre pour l’exercice d’activités exclusivement personnelles ou lorsque les données traitées sont anonymes.

Selon la CNIL, les informations collectées par les compteurs communicants constituent des données à caractère personnel au sens de la loi dans la mesure où elles sont rattachées à une personne physique identifiée (l’abonné). Il peut s’agir, par exemple, des données relatives à la consommation d’électricité ou de gaz, de l’état des appareils électriques, du volume d’eau chaude consommé, etc.

Pour mémoire, cette loi impose au responsable de traitement, qui est pour mémoire, l’organisation qui décide de la finalité et des moyens du traitement, c’est-à-dire de l’objectif et des modalités d’utilisation des données personnelles traitées, un certain nombre d’obligations (obligation d’information des personnes concernées, obligation de ne conserver les données que le temps nécessaire à la finalité du traitement, obligation de prendre des mesures afin de garantir la sécurité et la confidentialité des données, obligation d’effectuer des formalités préalables auprès de la CNIL, etc.) outre l’obligation de respecter la finalité du traitement telle que déclarée à la CNIL et communiquée aux personnes concernées en amont de sa mise en œuvre.

S’agissant plus particulièrement des compteurs communicants, la CNIL a précisé le contenu de ces obligations dans le cadre d’un pack de conformité établi en partenariat avec la Fédération des industries électriques, électroniques et de communication (FIEEC).

L’élaboration d’un pack de conformité sur les compteurs communicants

Compte tenu des risques potentiels liés aux nouvelles fonctionnalités des compteurs communicants, la CNIL a souhaité assister les industriels du secteur de l’énergie en formulant des recommandations spécifiques.

Dans sa délibération du 15 novembre 2012 la CNIL a encadré les conditions de collecte et d’utilisation de la courbe de charge (cette courbe de charge constitue une nouvelle fonctionnalité offerte par les compteurs. Elle est constituée d’un relevé, à intervalles régulier, de la consommation électrique de l’abonné). Cependant, cette recommandation concernait exclusivement les données de consommation directement collectées et traitées à partir des compteurs communicants par les gestionnaires de réseau de distribution.

C’est pourquoi, parallèlement à ces travaux, la CNIL et la FIEEC ont formé un groupe de travail (appelé Groupe de travail « smart grids et données personnelles ») afin d’identifier les principes devant encadrer la collecte et le traitement des données de consommation électrique qui seront collectées et traitées, d’une part, via les matériels ou logiciels installés en aval des compteurs communicants (par exemple, directement sur le tableau électrique) et, d’autre part, à la demande et sous la maîtrise desdits usagers afin de leur fournir des services spécifiques.

Le pack de conformité vient, donc, compléter la recommandation du 15 novembre 2012. La CNIL indique que les données qui font l’objet du pack de conformité sont plus détaillées que celles collectées par les compteurs communicants et nécessitent ainsi l’établissement de recommandations spécifiques.

Le pack de conformité s’inscrit dans une démarche « Privacy by design » consistant à intégrer, dès la conception des produits et services, les impératifs de protection et de sécurisation des données personnelles.

Il est le résultat d’une méthode de travail innovante basée sur un partenariat étroit entre la CNIL et les professionnels du secteur des industries électriques. Il constitue, également, un nouveau mode de régulation pour la CNIL, en établissant des lignes directrices destinées à faciliter la mise en conformité des appareils et logiciels installés en aval des compteurs avec la loi Informatique et Libertés.

À cet effet, le groupe de travail a identifié trois types de traitement de gestion des données collectées dans le logement, correspondants à trois cas d’usage des données :

  • scénario IN → IN : la gestion des données collectées dans le logement, sans communication vers l’extérieur (par exemple, la communication entre le thermostat et le chauffage), les données restant accessible à l’usager uniquement ;
  • scénario IN → OUT : la gestion des données collectées dans le logement et transmises à l’extérieur du logement, au prestataire (par exemple, la mise en place d’un nouveau contrat de fourniture électrique après analyse de la consommation) ;
  • scénario IN → OUT → IN : la gestion des données collectées dans le logement sont transmises à l’extérieur pour permettre un pilotage à distance de certains équipements du logement (par exemple, la mise en place d’un service permettant à l’usager de déclenchement de sa machine à laver au moment où l’électricité est la moins chère).

Ainsi, le pack de conformité indique, pour chacun de ces scenarii, les finalités, les catégories de données collectées, leur durée de conservation, les droits des personnes, les mesures de sécurité à mettre en place et les destinataires des informations (chiffrages des échanges de données, authentification fiable de l’utilisateur, etc.).

Enfin, le groupe de travail précise que ces recommandations sont destinées à être revisitées régulièrement, afin de les adapter aux évolutions technologiques, et seront portées au niveau du groupe des CNIL européennes (« Groupe de l’article 29 ») qui vient de rendre public sa vision des développements récent des objets connectés (WP 223 « Opinion 8/2014 on the Recent Developments on the Internet of Things »).

Le compteur communicant est un bon exemple de technologie promis à un rapide développement si ses promoteurs et exploitants s’attachent à assurer un niveau de transparence sur l’utilisation des données permettant aux individus de garder le contrôle de leurs données. Cette démarche de conformité constitue de plus en plus souvent un avantage concurrentiel.



Depuis le 1er juillet 2013, EY est le nouveau nom d’Ernst & Young. EY est un des leaders mondiaux de l’audit, du conseil, de la fiscalité et du droit, des transactions. Partout dans le monde, notre expertise et la qualité de nos services contribuent à créer les conditions de la confiance dans l’économie et les marchés financiers. Nous faisons grandir les talents afin, qu’ensemble, ils accompagnent les organisations vers une croissance pérenne. C’est ainsi que nous jouons un rôle actif dans la construction d’un monde économique plus juste et plus équilibré pour nos équipes, nos clients et la société dans son ensemble.


Les défis de la cyber-sécurité dans les Smart grids

Une nouvelle donne sur les réseaux

Les Smart grids associent aux réseaux de distribution les technologies modernes de l’information et de la communication (TIC). Ces technologies permettent, notamment, de collecter et consolider l’information au plus proche des producteurs, des consommateurs ou lors de l’acheminement de l’énergie et d’exploiter l’information de manière plus intelligente.

Dans le secteur de l’énergie, l’intelligence des réseaux n’est cependant pas un phénomène nouveau. Les réseaux disposaient initialement de capacités de récupération d’information pour des besoins de pilotage. Cependant, l’ère des Smart grids permet d’accroître la précision des informations relevées : à titre d’exemple, certaines données auparavant relevées globalement par zones, peuvent désormais être collectées à une échelle plus locale, près de points de production ou d’acheminement. Ces données permettent, à terme, une optimisation de la production en limitant les pertes techniques, une augmentation de la durée de vie des réseaux de transport et de distribution d’électricité ou encore une gestion plus fine des dangers liés aux chauffes et aux déformations de lignes. La montée en puissance des énergies de sources renouvelables (pour lesquelles certaines courbes de charges ne sont pas prédictibles) nécessite un relevé d’information de production local (notamment pour les éoliennes, panneaux solaires, etc.). Les compteurs communicants jouent le rôle de maillon de relevé proche des consommateurs. Ces évolutions sont permises, notamment, par l’essor des technologies de la communication, ainsi que par la capacité à traiter de manière intelligente de forts volumes de données.

L’apparition de nouveaux risques

Cependant, la superposition de l’infrastructure de réseau électrique et des technologies de l’information modernes, l’augmentation du nombre de points d’interaction avec le réseau (utilisateurs de réseau « connectés » et points d’accès distants aux équipements du réseau notamment pour des besoins de télémaintenance) expose potentiellement les réseaux électriques intelligents aux menaces modernes ciblant les systèmes d’information.

Les systèmes d’information d’autres secteurs d’activités ont déjà pu faire l’objet de cas de vols de données personnelles, perturbation de systèmes, attaques de types dénis de services, fuites d’informations, etc.

De nombreux systèmes industriels n’étaient pas parés à faire face à ces menaces. L’exemple de la cyber-attaque Stuxnet en 2010, ayant mené à la prise de contrôle d’automates industriels pour modifier les paramètres de fonctionnement d’installations industrielles en accélérant leur vitesse de rotation, est encore dans toutes les mémoires des industriels. Les Smart grids deviennent ainsi potentiellement la cible de ces menaces. Si les réseaux électriques ont recours depuis longtemps à des systèmes d’information et de communication électroniques pour transmettre les données nécessaires à la gestion de la production, du transport et de la distribution d’énergie, les systèmes d’information dédiés aux réseaux électriques utilisent des systèmes propriétaires spécifiques à ces réseaux industriels et sont, encore pour la majorité, dédiés et fermés : l’intégration des réseaux intelligents de communication et d’échanges de données, qui s’appuient sur des technologies telles qu’Internet Protocol (IP) ou le « Cloud Computing », augmente le niveau de risque.

Des risques financiers, humains et de réputation accrus

Faire l’impasse sur ces enjeux de sécurité, dès la conception et le déploiement du Smart grid pourrait exposer les exploitants de réseaux intelligents à trois grands types de risques :

  • risque financier : manque de fiabilité, obsolescence du système dès la conception, détournement des équipements individuels à des fins d’utilisation illégale ;
  • risque humain sur les infrastructures critiques (extinction via cyber-attaque, cyber-terrorisme) ;
  • risque de réputation (vol de données personnelles).

Au-delà de ces risques de grande ampleur, les technologies de Smart grid exposent les entreprises à d’autres risques qui peuvent mettre à mal la fiabilité et la sécurité de l’ensemble de l’écosystème, et qui s’expliquent par divers facteurs :

  • absence prise en compte de la sécurité lors des phases de conception : la majorité des fabricants conçoivent les compteurs sans y intégrer des normes et standards de sécurité, supposant que la sécurité relève avant tout de la responsabilité du réseau ;
  • risque d’obsolescence: face aux rapides évolutions technologiques : les réseaux intelligents intègrent des technologies interconnectées multiples et en constante évolution, qui représentent autant de points de vulnérabilités facilement exploitables par les cyber-attaques, et requièrent en réponse une gestion d’autant plus complexe des mises à jour de sécurité. Par ailleurs, les compteurs communicants doivent avoir la même durée de vie que les compteurs mécaniques, mais doivent également pouvoir démontrer une solide résistance aux attaques, pouvoir être mis à jour à distance et se voir facilement appliquer des patchs de sécurité pour corriger les bugs ou prévenir des menaces et sécuriser des données des usagers ;
  • absence de normes applicables majoritairement suivies en matière de sécurité et de confidentialité, manque de bonnes pratiques largement répandues : cependant, la standardisation des équipements est un facteur essentiel pour le développement et la mise en œuvre des Smart grids, notamment en raison de la complexité des écosystèmes matériels et de la diversité des acteurs proposant des solutions ;
  • forte dépendance des systèmes aux fournisseurs : ces derniers fournissent généralement l’intégralité du système « clé en main », avec un contrat de maintenance pluriannuel où les évolutions sont délicates voire inenvisageables (technologies et déploiements propriétaires) ;
  • acheminement, stockage et gestion d’un volume exponentiel de données : la donnée est une information indispensable à la prise de décision dans le cadre du développement des réseaux électriques intelligents. Leur bon fonctionnement et leur fiabilité repose sur un traitement rapide et efficace d’une masse de données.

Le schéma ci-dessous précise les principales façons de répondre aux enjeux de sécurité pour les projets Smart grid :


Source : EY

Comprendre les technologies opérationnelles et informatiques en jeu est la condition sine qua non pour protéger ces systèmes des menaces virtuelles et physiques. C’est pourquoi, il est primordial de concevoir et de déployer ce nouvel écosystème intelligent sur une base de standards de sécurité extrêmement solide, au risque, dans le cas contraire, d’en compromettre non seulement le retour sur investissement, mais également la fiabilité et la sécurité, voire de mettre en péril l’ensemble du système.

Ceci requiert, en amont, une connaissance et une compréhension approfondies des vulnérabilités en matière de confidentialité, de cyber-sécurité, de fraude et enfin au niveau du management de programme, présentes tout au long de la chaîne de valeur de cet écosystème, des équipements à la chaîne logistique, en passant par les systèmes de communication.



Depuis le 1er juillet 2013, EY est le nouveau nom d’Ernst & Young. EY est un des leaders mondiaux de l’audit, du conseil, de la fiscalité et du droit, des transactions. Partout dans le monde, notre expertise et la qualité de nos services contribuent à créer les conditions de la confiance dans l’économie et les marchés financiers. Nous faisons grandir les talents afin, qu’ensemble, ils accompagnent les organisations vers une croissance pérenne. C’est ainsi que nous jouons un rôle actif dans la construction d’un monde économique plus juste et plus équilibré pour nos équipes, nos clients et la société dans son ensemble.


Des données au bénéfice de la collectivité et des acteurs du système électrique

Une nouvelle donne sur les réseaux

La mise à disposition des données relatives à la distribution de l’électricité constitue un volet important de la mission d’ERDF. En tant qu’acteur de service public, ERDF s’attache à fournir aux acteurs autorisés, en toute neutralité et dans le cadre légal en vigueur, les données nécessaires à l’accomplissement de leurs missions, tout en garantissant la confidentialité des données à caractère personnel (DCP) et commercialement sensibles (ICS).

Les données énergétiques sont nécessaires pour :

  • rendre compte du service de distribution assuré par le concessionnaire ;
  • accompagner les collectivités dans la mise en place de leur politique énergétique locale ;
  • permettre aux clients finaux de suivre leur consommation et production d’électricité ;
  • permettre aux fournisseurs et à de nouveaux opérateurs de développer de nouvelles offres de services.

Des données pour rendre compte de la gestion du réseau public de distribution.

En sa qualité de gestionnaire de réseau public, ERDF doit rendre compte auprès des autorités concédantes des missions d’exploitation et de développement du réseau qui lui sont dévolues par la loi. Dans le cadre prescrit par la réglementation et les contrats de concession, ERDF leur communique de nombreuses informations, notamment sur :

  • la description physique des ouvrages concédés (linéaires de réseau, nombre de postes HTA/BT, etc.) et sa cartographie ;
  • les travaux réalisés sur le réseau et les perspectives d’investissement ;
  • les clients (nombres de producteurs et de consommateurs, quantités acheminées, taux de satisfaction de la clientèle, etc.) ;
  • la qualité de l’alimentation (fréquences et durées de coupure, tenue de tension, etc.) ;
  • des données comptables et financières (éléments financiers d’exploitation sur la concession, informations patrimoniales).

Ces informations sont transmises au travers du compte rendu d’activité de concession (CRAC) ou en réponse aux demandes de contrôle de concession. Elles sont également fournies dans le cadre des conférences départementales sur les investissements instituées par l’article 21 de la loi NOME du 7 décembre 2010 ou encore en application de réglementations spécifiques (par exemple : décret qualité, décret 2011-1554 du 16 novembre 2011 relatif notamment à l’élaboration des PCET). ERDF s’attache à améliorer continument la qualité des informations transmises aux autorités concédantes (davantage d’informations et plus précises).

Par ailleurs, la CRE utilise de nombreuses données fournies par ERDF pour exercer ses missions de régulation et d’observation des marchés de l’énergie. Il s’agit notamment des bilans sur l’énergie facturée, de données sur les caractéristiques du réseau de distribution, des données sur le suivi des raccordements ainsi que des indicateurs de qualité de service.

Des données pour le fonctionnement des marchés de l’électricité

Au même titre que le gestionnaire du réseau de transport, ERDF est un acteur majeur du fonctionnement des marchés de l’électricité. Elle est chargée de gérer les données relatives au réseau public de distribution, de produire des bilans énergétiques et calculer des indicateurs nécessaires aux marchés.

Sur le dispositif des responsables d’équilibre, ERDF est notamment chargée de produire et de mettre à disposition des acteurs du marché les bilans hebdomadaires de consommation globale sur le périmètre de chaque responsable d’équilibre. Ces bilans sont constitués de la consommation et de la production agrégée des sites composant le périmètre de l’acteur. Ces données servent ensuite de base pour le calcul des écarts du périmètre des échanges financiers entre les acteurs du marché. De plus, ERDF met à disposition des responsables d’équilibre plusieurs autres indicateurs, afin de les accompagner au mieux dans leur activité.

De même, il est par exemple prévu que le distributeur élabore les données utiles au calcul des puissances de référence prises en compte pour déterminer les obligations de capacité des fournisseurs dans le cadre de la mise en œuvre du mécanisme de capacité institué par la loi NOME.

Des données pour aider à construire les politiques publiques de demain

Les collectivités territoriales sont chargées, selon leurs compétences, d’établir et de mettre en œuvre les politiques énergétiques, environnementales et d’aménagement sur leur territoire. La mise à disposition des données de consommation et de production est centrale pour les aider à être plus efficientes dans l’exercice de leurs missions. ERDF les accompagne activement en ce sens en leur fournissant les données sur lesquelles elles peuvent s’appuyer pour prendre leurs décisions.

Le dispositif Linky permettra d’accroître les capacités d’ERDF à fournir de telles données, notamment agrégées à des périmètres intéressant les collectivités.

Aujourd’hui, ERDF fournit aux collectivités chargées des Plans climat-énergie territoriaux (PCET), à la maille de la commune, des données de consommation par type de clients et de puissance de production installée par filière.

Par ailleurs, l’établissement des Schémas régionaux du climat, de l’air et de l’énergie (SRCAE) par les collectivités s’appuie sur des données fournies par le distributeur (bilans de consommation et de production, nombre de points de mesure, raccordements, etc.).

Dans le cadre d’expérimentations avec des collectivités et des partenaires locaux, ERDF travaille également à la mise à disposition de données de consommation à des échelles toujours plus fines.

Enfin, ERDF est partenaire des acteurs de l’aménagement du territoire, parmi lesquels les bailleurs, les agences d’urbanisme, les promoteurs et les collectivités pour lesquels elle peut réaliser des études permettant d’optimiser leurs décisions en évaluant les impacts sur le réseau public d’électricité. De plus, à l’occasion de projets pilotes, le distributeur expérimente la transmission de données pour les accompagner dans leurs projets d’éco-quartier, de rénovation urbaine, d’implantation d’énergies de sources renouvelables (EnR), d’infrastructures de recharge des véhicules électriques (IRVE) ou encore d’aménagement numérique (THD). Par exemple dans le cadre du projet de boucle énergétique locale de Brest Rive droite, ERDF fournit à Brest Métropole Océane de nombreuses données énergétiques et études réseau qui alimentent les décisions d’aménagement relatives à la création de l’éco-quartier des Capucins, d’une zone d’habitation à la Fontaine Magrot, le développement d’un réseau de chaleur, etc.

Des données pour aider les clients finaux à suivre leur consommation

Les données de comptage appartiennent aux clients et ERDF s’attache à les mettre à leur disposition. Un grand nombre d’entreprises ont déjà accès à leurs données de consommation via les dispositifs de télérelevé ou via les espaces client ERDF.

Le déploiement du compteur Linky ouvre encore plus de nouvelles perspectives aux consommateurs particuliers et professionnels. ERDF mettra à disposition des 35 millions de foyers français leurs données de consommation détaillées sur un site Internet via un accès personnel sécurisé. Ce service leur permettra de visualiser l’évolution de leur consommation d’électricité par mois, par jour, par heure.

De multiples démonstrateurs, dans l’Hexagone ou à l’étranger ont d’ores-et-déjà souligné l’intérêt de proposer aux particuliers et aux professionnels ce type de service. Par exemple, l’expérimentation Watt & Moi menée en 2012 par ERDF avec GRANDLYON HABITAT auprès d’un panel de 1116 locataires a montré qu’avec ce type de services, les consommateurs peuvent mieux s’approprier leurs données de consommation et comprendre le lien entre leur comportement en matière d’énergie et leur niveau de consommation.

Des données pour faciliter le développement de services innovants

De nombreux dispositifs de comptage peuvent directement transmettre, en local chez le client, toutes les informations relevées, via une interface de sortie, la Télé information client (TIC). Cette fonctionnalité permet d’ores et déjà à un écosystème d’acteurs de la fourniture d’énergie, de la domotique, des télécoms, des startups, de l’électronique, etc. de proposer des services innovants à leurs clients.

D’autre part, ERDF met les données des clients utiles à l’exécution du contrat de fourniture à disposition de leur fournisseur titulaire via le portail sécurisé d’échanges SGE. Ces données leur permettent, par exemple, de dimensionner leur offre de fourniture ou de facturer leurs clients. De même, les tiers autorisés par les clients finaux, tels que les opérateurs d’effacement ou certains opérateurs de service, peuvent également obtenir auprès d’ERDF les informations dont ils ont besoin dans le cadre de leur activité. Tous les acteurs énergétiques sont ainsi en mesure de développer de nouvelles offres de service à partir des données.

Avec le déploiement des compteurs communicants Linky, une nouvelle impulsion va être lancée sur le marché concurrentiel des services énergétiques. Les données détaillées relevées par Linky pourront permettre aux fournisseurs et à de nouveaux opérateurs de services d’imaginer de nouveaux services innovants.





Cette fiche a été rédigée par ERDF.


Les avantages de la gestion des données des Smart grids pour les fournisseurs d’énergie

Introduction

Les nouveaux services rendus possibles par les Smart grids ouvrent des perspectives d’amélioration de la relation client pour les fournisseurs. Cependant, de nouveaux acteurs tentent de pénétrer ce marché et la concurrence devient de plus en plus forte. Dans ce contexte, les fournisseurs d’énergie doivent saisir les opportunités que leur offrent les Smart grids et mettre en place des stratégies de développement pour rester compétitifs.

La relation client est un enjeu clé pour les fournisseurs d’énergie

La relation client améliorée par les Smart grids

Depuis quelques années, les fournisseurs ont pris la mesure de l’enjeu de la mise en place d’une relation client plus forte et de qualité. De vastes programmes de transformation ont été lancés au travers de projets reposant sur une meilleure segmentation des clients, afin d’adapter au mieux la prise en compte des besoins clients et adapter la réponse apportée, tant en termes de canal de prise en charge, de discours client que de niveau d’accompagnement, etc. La définition de parcours multicanaux articulés autour du digital est un des exemples les plus probants.

Dans ce cadre, l’arrivée des Smart grids représente une formidable opportunité pour les fournisseurs : un moyen de mieux comprendre les usages et comportements des clients, mieux les accompagner, mieux communiquer avec eux et ainsi renforcer la qualité de la relation.

Le « Smart » ouvre de nouvelles perspectives pour les fournisseurs d’énergie

Des clients maintenant « Consomm’acteurs » voire concurrents

Les Smart grids facilitent la gestion de la demande d’énergie, en restituant notamment au client, particulier, entreprise ou institutionnel, les informations relatives à ces usages et consommations qui lui permettront d’optimiser sa dépense énergétique. L’enjeu est ainsi de rendre le consommateur actif – « Consomm’acteur » – et le responsabiliser par l’appropriation de ses données de consommation.

Cependant les fournisseurs ne seront a priori pas les seuls à bénéficier de nouvelles données issues du déploiement des nouvelles technologies de l’information et de la communication sur les réseaux d’énergie. En effet, les Smart grids permettent de revisiter la relation entre le client et les fournisseurs. Le client, B2C ou B2B, pourra désormais suivre, gérer et piloter sa consommation, mais aussi la vente de l’énergie qu’il produit éventuellement. Disposant d’informations détaillées sur sa consommation, il pourra (par exemple) décider d’adapter lui-même ses comportements de consommation. Dès lors, le niveau d’exigence des clients à l’égard de leur fournisseur et de sa « relation client » pourrait être considérablement accru mettant à risque les fournisseurs qui n’auront pas su faire évoluer leurs propositions de valeur et la relation client.

Des parts du marché de l’intelligence potentiellement captées par de nouveaux acteurs

Dans un contexte concurrentiel qui s’intensifie, de nouveaux types de concurrents vont s’appuyer sur le développement des réseaux intelligents et des services énergétiques pour tenter de capter une partie de la valeur de ce marché. Les fournisseurs doivent anticiper cette évolution afin d’éviter que des géants de la donnée (comme Google) ne se taillent la part du lion. Car ces derniers trouvent un intérêt certain à récolter et compiler les données transmises par les réseaux, pour devenir des interlocuteurs de référence et réduire les énergéticiens à un rôle de simples fournisseurs d’énergie.

Les Smart grids mettent la relation client au cœur des enjeux des fournisseurs

Grâce aux données transmises par les réseaux intelligents ou les compteurs communicants, les fournisseurs pourront connaitre la consommation de leurs clients de manière plus fine et ce en quasi temps réel. Ils seront bientôt en mesure d’identifier les appareils branchés, le nombre d’usagers, les types d’usage, etc. et de répondre aux questions de leurs clients de manière extrêmement précise et pourront cerner immédiatement les problématiques particulières pour y associer une réponse personnalisée.

Dès lors, les fournisseurs devront optimiser l’usage de ces données clients avec 2 enjeux clés :

  • mieux comprendre les clients, en analysant très précisément leurs usages au regard de leurs profils, de leurs équipements, etc. Il sera alors possible d’enrichir la connaissance sur les clients et d’améliorer la segmentation clients sur la base des différentes catégories d’usages, équipements, etc. Et ainsi, sur la base de ces profils, d’adapter le portefeuille d’offres et de services pour mieux répondre aux attentes des clients ;
  • mieux gérer la demande. Au-delà de la quantité des données disponibles, c’est leur qualité qui sera largement accrue. Avec des données fondées sur du (quasi) temps réel, le fournisseur sera en mesure de mieux gérer la qualité de son service et ses coûts. Les habitudes de consommation pourront, également, être influencées dans un objectif de réduction de la consommation et d’amélioration de la gestion du réseau.

Dans une telle perspective, l’enjeu clé reposera sur le respect des règles de protection des données et le respect de la vie privée des consommateurs. Il s’agit à la fois d’un enjeu législatif (les réglementations pourraient évoluer afin de garantir une protection plus grande des données collectées), d’un risque en matière d’image et pour certains fournisseurs d’un garde-fou face à un risque d’abus de position dominante.

Conclusion

Les Smart grids sont un challenge de taille pour les fournisseurs d’énergie. S’ils sont un moyen efficace pour les aider à gérer la relation client et, par ce biais, améliorer leur image, les réseaux intelligents créent, également, de nouveaux enjeux concurrentiels. En effet, de nouveaux acteurs arrivent sur le marché et les offres concurrentes se multiplient. Par conséquent, les fournisseurs doivent investir rapidement pour proposer les meilleurs services afin de capter les clients et les fidéliser à long terme.

Depuis le 1er juillet 2013, EY est le nouveau nom d’Ernst & Young. EY est un des leaders mondiaux de l’audit, du conseil, de la fiscalité et du droit, des transactions. Partout dans le monde, notre expertise et la qualité de nos services contribuent à créer les conditions de la confiance dans l’économie et les marchés financiers. Nous faisons grandir les talents afin, qu’ensemble, ils accompagnent les organisations vers une croissance pérenne. C’est ainsi que nous jouons un rôle actif dans la construction d’un monde économique plus juste et plus équilibré pour nos équipes, nos clients et la société dans son ensemble.


L’impact des données sur les métiers de la distribution

L’afflux massif de données générées par les réseaux intelligents permet aux gestionnaires de réseaux d’améliorer la gestion du réseau et de l’adapter aux nouvelles contraintes induites par l’intégration des énergies de sources renouvelables et le développement de nouveaux usages.

L’exploitation des données issues des Smart grids contribue à un service public de la distribution d’électricité plus efficace et au meilleur coût pour la collectivité. En particulier, la gestion des équipements est optimisée et l’exploitation du réseau est de plus en plus réactive. L’analyse des données permet également d’optimiser les politiques d’investissements.

Les données pour optimiser la gestion des équipements

Avec la numérisation et la modernisation des réseaux, le distributeur peut capter le maximum de données provenant du réseau et de données externes afin d’acquérir une meilleure connaissance du patrimoine en exploitation. Il peut alors optimiser sa maintenance en passant progressivement d’une maintenance préventive systématique à une maintenance prédictive basée sur des modélisations de données de masse. ERDF cherche en effet à développer un modèle prévisionnel en créant une base des données historiques relatives aux équipements et des algorithmes prévisionnels. Cette évolution permettra à ERDF de mieux planifier les interventions de maintenance et de diminuer l’occurrence des pannes.

À terme, ce modèle évoluera vers une supervision encore plus précise en intégrant des données en temps réel et des données externes dans ce modèle prévisionnel. ERDF tire parti des outils big data qu’elle a développés au profit de la qualité d’alimentation de l’ensemble des clients finaux.

Avec les données collectées, ERDF acquiert au fur et à mesure une meilleure vision de l’ensemble du patrimoine à une échelle très fine, mais également de son fonctionnement. Sur le terrain, les techniciens et les sous-traitants pourront ainsi bénéficier d’un accès à des données géographiques et historiques des équipements qui faciliteront leurs interventions.

Les données pour améliorer l’exploitation du réseau de distribution électrique

En collectant des données sur l’ensemble du réseau, des postes de transformation aux dispositifs de comptage, il est plus facile pour ERDF de détecter, voire d’anticiper des situations de congestion sur le réseau public de distribution. ERDF a notamment pu développer des modèles qui permettent d’estimer le soutirage et l’injection aux différentes mailles du réseau public de distribution. De plus, les données issues des compteurs Linky permettront d’améliorer les prévisions. L’amélioration continue de ces analyses contribue à mieux intégrer les énergies de sources renouvelables, variables par nature.

Grâce à la remontée et à la supervision dynamique des informations, ERDF est en capacité de gérer les incidents et les interventions associées plus rapidement. Par exemple, le gestionnaire aura la possibilité de détecter rapidement des incidents, de les diagnostiquer, d’identifier une solution et de planifier l’éventuelle intervention à une localisation précise. De même, l’analyse des données permet de mieux identifier les dysfonctionnements de comptage.

Les données pour mieux cibler les investissements

À partir de l’historique des données collectées relatives à l’exploitation du réseau, ERDF a développé des modèles d’analyse de risque et de coût pour prendre ses décisions d’investissement. Avec l’ensemble des données recueillies, ERDF est capable d’anticiper les ressources nécessaires à la sécurité et au fonctionnement du réseau public de distribution. Plus tard, ces modèles pourront prendre en compte plus finement les nouveaux comportements et les nouveaux usages (charge des véhicules électriques, stockage, etc.). Ces outils et les données associées permettent d’éclairer les décisions d’investissement, afin de sécuriser le réseau au meilleur coût pour la collectivité.



Cette fiche a été rédigée par ERDF.



La FNCCR plaide pour un service public local de la donnée

La multiplication des « objets communicants » permet une évolution profonde des services publics et contribue à une modernisation du pilotage des territoires. Pour ces territoires, et parmi lesquels notamment ceux que recouvrent les Autorités organisatrices de la distribution d’énergie (AODE), la gestion des données constitue une réelle opportunité.

Ainsi, la problématique de l’accès à la donnée, sa collecte, sa gestion et son exploitation apparaît comme un nouvel enjeu à intégrer dans le cadre des politiques publiques locales. Elle doit faire l’objet d’une organisation entre les décideurs publics locaux et nationaux, afin d’envisager des modalités d’actions et d’interventions là où les enjeux mais aussi les risques les rendent pertinentes. Ces acteurs locaux devront aussi être en situation d’anticiper et de s’adapter en permanence compte tenu des évolutions technologiques et sociétales liées à la donnée.

Afin de permettre la mise en place d’un cadre sécurisé sans être figé permettant l’utilisation des données pertinentes par les décideurs publics, la FNCCR plaide pour un service public local de la donnée.

Dans ce contexte, les AODE, propriétaires des réseaux publics de distribution, ainsi que des compteurs d’électricité, font partie des acteurs incoutournables dans l’organisation de ce futur service public de la donnée, d’autant plus du fait des informations qui transitent sur leurs ouvrages. En tant que garantes des services publics locaux, elles ont besoin de toutes informations utiles à l’exercice de leur compétence et de données détaillées pour rendre plus efficient le contrôle légitimé par la loi et le contrat de concession, et par la même occasion la meilleure connaissance de leur patrimoine, et un pilotage effectif du service public.

Ces données, collectées, présentées, croisées et analysées de manière la plus pertinente possible, permettraient à l’autorité organisatrice de jouer pleinement son rôle.

De surcroît, dans le domaine de l’énergie, les AODE concourent à l’aménagement du territoire et les données qu’elles vont être amenées à recueillir pourraient utilement être mises à disposition des acteurs impliqués en matière d’urbanisme, de développement économique…dans la recherche d’optimisation, d’efficacité et de sobriété énergétique.

Les objectifs évoqués ci-dessus, à l’échelle d’un territoire, nécessitent une approche globale des énergies de réseau que ce soit l’électricité, le gaz ou les réseaux de chaleur ou de froid et par conséquent des données qui leur sont associées. La création de valeur se fera par l’activité locale générée par les filières de production et de distribution d’énergie, les filières d’efficacité énergétique et les différents services associés (information, conseils, financement, maîtrise d’ouvrage et maîtrise d’œuvre, suivi, évaluation, etc.) et à travers les économies réelles de dépenses énergétiques dans le budget des collectivités.

Aussi, la réflexion sur les Smart grids ne peut pas être séparée d’une planification énergétique locale qui précise la stratégie à mettre en œuvre à l’échelle locale pour maximiser la création de valeur (vitrine de l’innovation, coordination, partenariat, emploi, etc.).

À ces différents titres, la FNCCR prône la mise en place d’une compétence « service public local de la donnée » afin d’assurer un droit d’accès privilégié aux données issues des Smart grids pour les autorités organisatrices des services publics locaux en réseau. Dans l’optique d’une vision partagée et open data à venir, celles-ci seront vraisemblablement amenées à mettre à disposition des tiers un certain nombre de données après s’être assuré qu’elles puissent être rendues publiques.

La mise en place de cette compétence pourrait permettre de structurer les échanges et la diffusion de données rendues publiques par l’intermédiaire d’une plate-forme d’agrégation ou entrepôt de données et de mise à disposition sous certaines conditions. Des interfaces et modes d’accès spécifiques permettraient de gérer l’accès aux données en fonction de leur portée, de leur type, associées des profils prédéfinis d’acteurs. La plate-forme ou l’entrepôt de données pourrait également rationnaliser l’offre des données présentes sur le territoire en s’appuyant sur une initiative open data ou en proposant des données plus riches (« privées ») relatives au territoire concerné.

La sécurité de la plate-forme et de l’accessibilité aux données suppose une expertise forte, qui pourrait être plus facile à mobiliser dans le cadre d’une mutualisation des dispositifs de stockage et de mise à disposition des données. La nomination d’un « tiers de confiance » permettrait, en outre, de s’assurer du respect de protocoles et de règles d’authentification pour la circulation des données en dehors des domaines « fermés » gérés par les autorités organisatrices. Par tiers de confiance, la FNCCR entend la collectivité, à travers un service dédié constitué d’agents habilités et assermentés, en tant que garante du service public local. Cette mesure de sécurité pourrait être encadrée par la loi et le pouvoir réglementaire, sans se substituer, bien enetendu, aux prérogatives de la CNIL.

La mise en place d’une structure de coordination permettrait une mutualisation de moyens (pour le stockage et l’exploitation), la diffusion de bonnes pratiques pour une meilleure cohérence dans les choix de technologies et d’architectures, ainsi qu’une transmission facilitée des données entre les entités publiques.

Une analyse des acteurs en présence sur le territoire permettrait de recenser les besoins des différentes structures, ainsi que les synergies possibles en termes de stockage et d’exploitation.

La maille de la gouvernance sera à définir localement selon les territoires, à l’appui d’un plan d’action visant un rythme progressif de déploiement. La gouvernance pourra être matérialisée par une structure adaptée (syndicat, groupement d’intérêt public) ou centralisée autour d’un acteur existant. À court terme, chaque autorité organisatrice pourra prendre le soin de gérer cette nouvelle compétence en réalisant un diagnostic de la donnée territoriale sur son périmètre d’action.

Le marché croissant des objets connectés favorise le développement d’équipements divers, répondant à des besoins ciblés. Ce foisonnement entraîne l’apparition d’une diversité de protocoles et de spécifications techniques pour le type des données requises et leur transmission. Malgré des initiatives structurantes (compteurs évolués Linky, i-Ouate, protocoles de type Zigbee ou Bluetooth 4.0, jeux vidéo, etc.), il convient de favoriser le développement de protocoles et interfaces standardisés facilitant l’interopérabilité et les échanges de données (normes ou standards à définir clairement).

Une attention particulière devra être accordée à la possibilité de mettre en place une collecte mutualisée des dispositifs générateurs de données, pouvant engendrer des économies d’échelle et permettre l’intervention de nouveaux acteurs (opérateurs de collecte).

De la même manière, le traitement des données recueillies pourrait être mutualisé (par exemple concernant le stockage et l’exploitation) en particulier pour des données provenant de différents services publics locaux, qui pourraient être regroupés en pôles cohérents.

Enfin, le rôle de la collectivité organisatrice vis-à-vis des usagers-consommateurs qui sont aussi des citoyens évolue : l’information des usagers, la concertation sur les modalités d’organisation, sur les attentes et la perception en matière de qualité du service rendu, le renforcement (parfois le rétablissement) de la confiance vis-à-vis du service public prennent de plus en plus d’importance. La capacité de la collectivité à mettre à disposition de ses citoyens des informations pertinentes (ni trop, ni trop peu d’ailleurs) devient déterminante et ces nouvelles technologies peuvent contribuer à assurer la transparence et la qualité de l’information à l’usager.

Figure 41 : Collecte multigrid

Source : FNCCR

Compte tenu des enjeux de mutualisation et de l’intérêt public que présentent les données issues des Smart grids, la FNCCR prône la création d’un « service public de la donnée locale » dont la compétence incomberait aux collectivités, autorités organisatrices et garantes des données vis-à-vis du public. Ce service mettrait à disposition des collectivités organisatrices des services publics locaux, de leurs exploitants (pour les données ayant à transiter par ce service), mais aussi du public les données qui les concernent et/ou qui peuvent être rendues publiques. Un tel service permettrait de rationaliser les investissements et la gestion des infrastructures correspondantes à l’échelle du territoire, de structurer la gouvernance locale et de répondre aux défis de l’ouverture des données aux usagers consommateurs. Cela suppose nécessairement la mise en place d’outils robustes et sûrs d’administration de ces données et des droits d’accès.

Tout cela conduit à envisager l’exercice de cette compétence à un échelon territorial important au service des collectivités présentes sur le territoire concerné et associant à la gouvernance, la collectivité autorité organisatricenotamment au titre des services publics industriels et commerciaux mais pas uniquement puisque de telles données concernent également des services publics administratifs).

Pour en savoir plus :

Réseaux et territoires intelligents Quelles contraintes et quel positionnement pour les collectivités ? (partie 1)
Réseaux et territoires intelligents Quelles contraintes et quel positionnement pour les collectivités ? (partie 2)



La Fédération nationale des collectivités concédantes et régies (FNCCR) est une association de collectivités territoriales spécialisées dans les services publics locaux de distribution d’électricité, de gaz, d’eau, d’assainissement, de communications électroniques, de collecte et de valorisation des déchets.


La CRE favorable à un accès facilité aux données issues des Smart grids

Dans sa délibération portant recommandations pour le développement des réseaux électriques intelligents en basse tension du 12 juin 2014, la CRE recommande que l’accès aux données soit facilité notamment pour les collectivités territoriales et les autorités organisatrices de la distribution dans le cadre de leurs missions.

L’accès à ces données, leur collecte, leur gestion et leur exploitation apparaissent comme un nouvel enjeu important et, dans ce cadre, différents points devront être clarifiés :

  • la gouvernance de la gestion des données ;
  • la nécessité ou non d’une expérimentation à une maille locale, avant de l’étendre à tout le territoire national ;
  • les coûts (mise en place et exploitation de l’infrastructure informatique, prestations associées à ce service) et les bénéfices pour la collectivité ;
  • le type d’infrastructure (Big data, Open data, etc.) ;
  • la normalisation des protocoles d’échange entre les acteurs ;
  • le type de données échangées ;
  • la confidentialité des données (ICS et données à caractère personnel) ;
  • etc.


Représentation des différentes étapes de la collecte à l'utilisation des données (Source : CRE)

La collecte et le traitement des données de l’énergie

Depuis 2014, la situation a beaucoup évolué du fait, non seulement de la législation, mais aussi des actions entreprises par les gestionnaires de réseaux. Notamment, l’article 28 de la loi n° 2015-992 du 17 août 2015 relative à la transition énergétique et la croissance verte (LTECV) prévoit les modalités précises de diffusion par les gestionnaires des réseaux publics de distribution d’électricité et de gaz naturel des données de consommation d’énergie aux consommateurs et à leur fournisseur, ainsi qu’aux propriétaires ou aux gestionnaires d’immeubles. Aux évolutions législatives s’ajoutent les travaux de la Commission nationale de l’informatique et des libertés (CNIL) qui a proposé en juin 2014, un pack de conformité sur les données produites par les systèmes de comptage évolués.

Au préalable, il est essentiel de traiter la question du consentement à la collecte et au traitement des données de l’énergie. À ce propos, la CNIL a clairement exposé sa position dans son avis du 30 novembre 2015 sur le stockage local de la courbe de charge du compteur Linky d’Enedis : il est nécessaire pour le gestionnaire de réseaux de recueillir le « consentement de l’abonné […] pour la remontée de la courbe de charge dans le système d’information d’Enedis, ainsi que pour la transmission de la courbe de charge aux tiers ».

Il n’y a pas de doute sur le fait qu’il est du rôle du gestionnaire de réseaux, en tant que responsable de la collecte des données de consommation, de proposer à l’utilisateur une manière simple d’identifier à quel acteur et pour quelle durée il a octroyé un mandat d’exploitation de ses données personnelles. Enedis et GRDF ayant manifesté l’intention de mettre en place un tel service, la CRE propose qu’il soit généralisé à l’ensemble des gestionnaires de réseaux de distribution d’électricité et de gaz naturel. La CRE invite ces derniers à mettre en place des dispositifs à même de garantir à l’utilisateur une connaissance exhaustive de toutes les délégations qu’il aura formulées auprès de tiers autorisés (fournisseurs, agrégateurs d’effacement, gestionnaires d’immeubles, etc.) pour exploiter ses données de consommation.

Recommandation de la CRE no 5 du 8 décembre 2016 (R. 2016-05)

La CRE demande aux gestionnaires de réseaux publics de distribution d’électricité et de gaz naturel ayant déployé un système de comptage évolué à destination des producteurs et consommateurs domestiques et professionnels de mettre en place les dispositifs qui garantiront à l’utilisateur une connaissance exhaustive des délégations qu’il aura formulées auprès de tiers autorisés (fournisseurs, agrégateurs d’effacement, gestionnaires d’immeubles, société de conseils en diagnostics énergétiques, etc.) pour exploiter ses données de consommation.


La CRE enjoint les gestionnaires de réseaux à améliorer leur coordination afin de mettre à disposition de l’ensemble des acteurs concernés des données homogènes et cohérentes, et ainsi faciliter leur utilisation.

Recommandation de la CRE no 6 du 8 décembre 2016 (R. 2016-06)

La CRE demande aux gestionnaires de réseaux publics de transport et de distribution d’électricité et de gaz naturel de se coordonner, concernant, en particulier, la nature et le format des données qu’ils collectent, afin de faciliter leur croisement et leur exploitation par les utilisateurs finals et les personnes publiques.


Les avancées législatives concernent, aussi, l’accès des personnes publiques aux données de l’énergie. L’article 179 de la LTECV, complété par le décret n° 2016-973 du 18 juillet 2016 relatif à la mise à disposition des personnes publiques de données relatives au transport, à la distribution et à la production d’électricité, de gaz naturel et de biométhane, de produits pétroliers et de chaleur et de froid, entérine le principe de l’instauration d’un service de mise à disposition aux personnes publiques et au public de données de consommation et de production, auquel les gestionnaires de réseaux publics d’énergie sont appelés à contribuer. La loi n° 2016-1321 du 7 octobre 2016 pour une République numérique est venue renforcer la législation existante dans ce domaine.

Des données essentielles pour garantir la stabilité du système électrique

Dans le but de faciliter l’insertion de la production d’électricité de sources renouvelables et intermittentes sur les réseaux, RTE a, en collaboration avec les gestionnaires de réseaux de distribution, mis au point l’outil Caparéseau. Ce dernier recense les capacités d’accueil en injection de chacun des postes sources de distribution. Cet outil destiné aux producteurs souhaitant se raccorder aux réseaux électriques n’a cependant pas vocation à indiquer quels postes sources peuvent être sous contraintes, ni leur caractéristiques. À ce jour, les zones où la qualité de fourniture est dégradée ne sont pas rendues publiques par les opérateurs réseaux.

Afin d’assurer la stabilité du système électrique, la CRE souhaite par ailleurs encourager le recours aux solutions de flexibilité en alternative à des renforcements du réseau, et ce d’autant plus qu’à terme, ces solutions pourraient offrir de nouvelles possibilités d’exploitation aux gestionnaires de réseaux. Aussi, elle demande aux gestionnaires de réseaux de transport et de distribution d’électricité de mettre en place des outils informatique indiquant la localisation des zones de contraintes en tension et en intensité des réseaux qu’ils exploitent. La publicité de telles informations offrira la possibilité à des acteurs tiers de proposer des solutions appropriées pour traiter de possibles congestions.


Recommandation de la CRE no 7 du 8 décembre 2016 (R. 2016-07)

La CRE demande aux gestionnaires de réseaux publics de transport et de distribution d’électricité de mettre en place des outils informatiques permettant de rendre compte de la localisation des contraintes en tension et en intensité des réseaux qu’ils exploitent, afin de permettre à des acteurs tiers de leur proposer des solutions appropriées pour traiter de telles congestions.


L’article 199 de la LTECV, complété par le décret en Conseil d’État n° 2016-704 du 30 mai 2016 relatif aux expérimentations de services de flexibilité locaux sur des portions du réseau public de distribution d’électricité autorise, à titre expérimental pendant les quatre ans, les collectivités locales à créer des groupements d’acteurs, susceptibles de proposer des solutions aux gestionnaires de réseaux pour lever les contraintes dans les zones congestionnées. Le décret dispose que si ces services locaux de flexibilité « permettent de réduire les coûts d’investissement ou de gestion du réseau, le gestionnaire de réseau de distribution rémunère [le porteur de projet] à hauteur des coûts évités », ce qui est inclus « dans les charges couvertes par le tarif d’utilisation des réseaux publics de distribution d’électricité ».

Pour en savoir plus :

Délibération du 12 juin 2014 portant recommandations sur le développement des réseaux électriques intelligents en basse tension

Délibération du 8 décembre 2016 portant communication sur l’état d’avancement des feuilles de route des gestionnaires de réseaux et proposant de nouvelles recommandations sur le développement des réseaux intelligents d’électricité et de gaz naturel

Trois modèles d’architecture pour la gestion et l’accès aux données issues des Smart grids

Dans son rapport de janvier 2013 intitulé « Options on handling Smart Grids Data », le groupe d’experts n° 3 (EG3) de la Task force Smart grids de la Commission européenne a proposé trois modèles d’architecture pour la gestion et l’accès aux données issues des Smart grids.

Cas n° 1 : le gestionnaire du réseau de distribution comme facilitateur de marché

Ce modèle est fondé sur une plate-forme de données gérée par chaque gestionnaire de réseaux de distribution permettant aux acteurs de marchés de disposer de toutes les données nécessaires à l’exploitation des réseaux et toutes les données nécessaires pour faciliter le fonctionnement du marché (données sur les consommateurs, leurs possibilités techniques et leur production/consommation).

Le gestionnaire de réseaux de distribution fournit ces données au marché via cette plate-forme de données, comme un facilitateur de marché neutre et de façon non discriminatoire. C’est aux acteurs de marché de croiser ces données avec d’autres informations (par exemple les signaux-prix, les tarifs, etc.) dans le but de créer de nouveaux services innovants.

Pour des raisons de sécurité et de confidentialité des données, les consommateurs/producteurs seront toujours les propriétaires de leurs données personnelles et devront donner leur accord lorsque les données devront être transmises à des tiers.

Les gestionnaires de réseaux de distribution sont les opérateurs de l’infrastructure technique, incluant la plate-forme de données et les facilitateurs de nouveaux services à valeur ajoutée, ce qui signifie qu’ils agissent comme des facilitateurs de marché neutres pour les producteurs et les fournisseurs. Les gestionnaires de réseaux de distribution ont les moyens de prévoir et de gérer les nouvelles opportunités et les nouveaux risques liés aux réseaux, en coopération avec les autres acteurs de marché. Ils servent aussi de canal d’information pour les gestionnaires de réseau de transport et pour les installations de production raccordées à leurs réseaux.

Illustration du cas n° 1 : le gestionnaire de réseaux de distribution comme facilitateur de marché

Source : Rapport de l’EG 3 de la Task force Smart grids de la Commission européenne

Cas n° 2 : un acteur tiers comme facilitateur de marché (plate-forme centrale indépendante)

Ce cas consiste en une plate-forme de communication centrale indépendante fondée sur une ou plusieurs plates-formes qui interagissent avec les différentes parties prenantes des Smart grids, stockant et traitant potentiellement les données.

L’acteur tiers étant un acteur indépendant, cela permet un accès non-discriminatoire de tous les acteurs de marché aux données commerciales facilitant l’ouverture du marché de manière neutre.

Les fonctions clés de la plate-forme sont le contrôle d’accès, recevant les données des différents acteurs et les délivrant aux acteurs autorisés, tout autant que l’agrégation, le stockage pour l’extraction de données historiques ou de services sur-mesure pour les consommateurs finals ou leurs tiers autorisés, qui peuvent être des fournisseurs d’électricité, des entreprises de services énergétiques, des agrégateurs ou des fournisseurs de services.

Illustration du cas n° 2 : un acteur tiers comme facilitateur de marché

Source : Rapport de l’EG 3 de la Task force Smart grids de la Commission européenne

Cas n° 3 : un gestionnaire local et décentralisé des données

Le rôle du gestionnaire local et décentralisé des données sera assuré par des entreprises certifiées qui jouent le rôle de « gardien » du portail de données fournissant l’accès aux données à tout acteur de marché, consommateur ou consomm’acteur certifié. Ce gestionnaire décentralisé des données sera conçu pour améliorer les structures de marché, les rôles et les responsabilités existants et ne les changera pas nécessairement.

Le gestionnaire local et décentralisé des données est conçu pour gérer l’accès aux données et la gestion à distance des fonctionnalités nécessaires pour créer des programmes à valeur ajoutée au sein des Smart grids à partir d’un large éventails d’outils comme les compteurs évolués, la production décentralisées, les appareils électroménagers, les véhicules électriques, etc.

Le gestionnaire local et décentralisé des données devra maintenir et appliquer les droits d’accès de tous les acteurs de marché régulés et non régulés (fournisseurs de services, consommateurs) à travers n’importe quel réseau de communication durant tout la durée de vie des ressources et outils Smart grids concernés et en respectant les exigences régulatoires.

Le gestionnaire local et décentralisé des données crée une grande flexibilité en ce qui concerne l’accès aux données et le traitement des données, tout en maintenant les rôles et responsabilités de chacun au sein de la structure de marché.

Illustration du cas n° 3 : un gestionnaire local et décentralisé des données

Source : Rapport de l’EG 3 de la Task force Smart grids de la Commission européenne

Pour en savoir plus :

Rapport de l’EG 3 de la Task force Smart grids de la Commission européenne, Options on handling Smart grids Data, janvier 2013

Conclusion : Vers l’open data ? Vers un service public de la donnée ?

L’ouverture des données doit permettre d’encourager l’innovation et la création de nouvelles activités analytiques. Ce phénomène d’ouverture touche à la fois les données publiques et, de plus en plus, les données des clients. Le sujet de la gouvernance de ces données est donc au cœur des préoccupations de nombreux acteurs.

Les débats sur le projet de loi sur la transition énergétique ont fait émerger des propositions sur la gouvernance de ces données : un service public de la donnée, prenant en compte l’ensemble des énergies (électricité, gaz, chaleur, froid, eau, etc.) a ainsi été évoqué, afin notamment de disposer des de différents types de données (données patrimoniales, courbes de mesure agrégées au niveau de certains ouvrages, etc.). Cela permettrait aux collectivités territoriales, aux autorités concédantes, mais également à de nombreux acteurs, d’être mieux informés, de proposer de nouveaux services au consommateur final et de développer de nouveaux outils pour une gestion optimisée du système énergétique.

Cette demande de mise en œuvre d’un « service public de la donnée » a été relayée par de nombreux acteurs qui ont répondu à la consultation publique de la CRE du 4 novembre 2013 sur le développement des réseaux électriques intelligents en basse tension.

Dans sa délibération du 12 juin 2014 la CRE a souligné que la mise à disposition des données est nécessaire au développement de nouveaux services pour les utilisateurs. Elle a demandé que les gestionnaires de réseaux de distribution étudient la mise en place d’interfaces visant à mettre à disposition dynamiquement, d’une part, des autorités organisatrices de la distribution de l’électricité les données collectées sur les réseaux qu’ils sont tenus de communiquer et, d’autre part, de toute personne le souhaitant les données librement communicables.

Le Gouvernement a confié, au début de l’année 2014, à Philippe Lemoine (président du Forum d’action modernités et président de la Fondation Internet nouvelle génération) une mission pour préparer la transformation numérique de l’économie française. Philippe Lemoine a remis, le 7 novembre 2014, son rapport dans lequel il fait de nombreuses propositions parmi lesquelles celle d’une action immédiate : la mise en œuvre d’un Green Button à la française permettant à chaque foyer d’accéder de manière sécurisée à ses données énergétiques pour améliorer la maîtrise de sa consommation, lutter contre la précarité énergétique et à des acteurs innovants d’utiliser, dans le respect de la vie privée des consommateurs, ces masses de données afin de concevoir et de proposer de nouveaux produits et services de gestion de l’énergie.

Plus largement, le Conseil d’État a consacré au sujet du numérique et des données son étude annuelle 2014. Dans Le numérique et les droits fondamentaux, il formule 50 propositions, qui éclaireront utilement les exercices aujourd’hui engagés par les pouvoirs publics sur le sujet (projet de loi français sur le numérique qui devrait être soumis au Parlement en 2015, règlements européens en cours de discussion sur la protection des données personnelles et sur le marché unique des communications électroniques, etc.). Parmi ces propositions, le Conseil d’État propose d'instaurer une sorte de « droit au big data » permettant un usage libre à des fins statistiques de données personnelles sous réserve de leur anonymisation (proposition n° 12).

Pour en savoir plus :

Consultation publique de la CRE du 4 novembre 2013 sur le développement des réseaux électriques intelligents en basse tension
Délibération de la CRE du 12 juin 2014 portant recommandations sur le développement des réseaux électriques intelligents en basse tension
Rapport Lemoine, La nouvelle grammaire du succès - La transformation numérique de l’économie française - novembre 2014

Forum et interviews

La Commission de régulation de l’énergie a organisé son dix-septième forum le 4 novembre 2014 sur le thème « La gestion des données des Smart grids, une opportunité pour les acteurs du système électrique ».

Céline Salon, Directrice déléguée du programme numérique d’ERDF, Pascale Bernal, Directrice des systèmes d’information de GRDF, Nicolas Charton, manager chez Ecube et Sophie Nerbonne, Directrice de la conformité de la CNIL sont intervenus lors du forum afin de présenter les enjeux techniques, économiques et juridiques liés à la gestion des données des Smart grids pour les réseaux d’électricité et de gaz.


Point de vue de Céline Salon
Directrice déléguée du programme numérique

Point de vue de Nicolas Charton
Manager

Point de vue de Sophie Nerbonne
Directrice de la conformité

Point de vue de Pascale Bernal
Directrice des systèmes d’information


Vous découvrirez également les interviews suivantes :

Interview de Stéphane Meynet
Chef de projet Systèmes industriels

Interview d’Olivier Sellès
Chef de groupe R&D à la Direction de l’Innovation

Interview de Sophie Nerbonne
Directrice de la conformité

Interview de Laurent Schmitt
Vice-Président Smart grids, Alstom Grid




Point de vue de Céline Salon (ERDF) :

Aujourd’hui, les données relatives à la distribution d’électricité se multiplient en raison de plusieurs facteurs :

  • la mise en place des compteurs communicants qui va nous faire passer d’un relevé tous les six mois à potentiellement une donnée de consommation toutes les dix minutes ;
  • l’augmentation de la production d’énergie décentralisée qui multiplient le nombre d’acteurs sur les réseaux de distribution ;
  • le développement de nouveaux usages (VE) et de nouveaux comportements (flexibilité) ;
  • et la complexification du marché de l’énergie (ouverture des marchés, mécanismes d’effacement et de capacités qui nécessitent des traitements de données complémentaires et plus fins).


Source : ERDF

Les données gérées par le gestionnaire de réseaux de distribution sont :

  • des données client : données de contrat, données techniques en terme de puissance qui permettent de gérer leur connection et la mise à disposition de ces informations au fournisseur ;
  • données de comptage : des index, des courbes de mesure (actuellement pour les gros consommateurs/producteurs et demain avec Linky pour l’ensemble des clients qui le souhaiteront), des puissances maximales, des énergies réactives ;
  • des données de qualité de réseau : qualité de l’alimentation (enregistrement et datation des coupures), qualité de l’onde de la tension (excursion de tension que nous collectons aujourd’hui sur les gros clients et demain avec Linky sur les 35 millions de clients) ;
  • des données relatives à la gestion du réseau : la gestion du réseau se complexifie et pour gérer plus efficacement le réseau et accueillir les nouveaux usages et nouvelles productions, installation de capteurs dans les postes de distribution et dans les postes sources ;
  • des données pour le marché : agrégation de données à différentes mailles, à différents pas et pour différents acteurs.


Source : ERDF

Traiter les données, c’est :

  • d’abord contrôler les données qui nous parviennent des différents capteurs ;
  • corriger les données, les points absents, les corrections climatiques par exemple pour être en mesure de comparer des éléments comparables ;
  • stocker de façon sécurisée : avec l’augmentation du volume, la question du stockage devient prégnante ;
  • effectuer des traitements adaptés aux différentes vocations de ces données, et adaptés en fonction de la réactivité demandée. Aujourd’hui, le traitement des données se fait de façon plus dynamique et avec une réactivité beaucoup plus importante (en temps réel ou quasi-temps réel) ;
  • mettre à disposition des acteurs les données.

Pour cette gestion et le traitement de ces grands volumes de données, ERDF a déjà développé son propre outil : STM. Cet outil est en mesure de traiter les données selon les 4 V du big data :

  • volume ;
  • véracité : grâce au croisement de données différentes et plus nombreuses, on améliore la qualité des données que l’on a et que l’on traite ;
  • variété : traiter des données de différentes sources et de différents pas de temps ;
  • vélocité : les outils de big data permettent des traitements dix fois plus rapides que les outils actuels.


Source : ERDF

Les finalités pour un gestionnaire de réseaux de distribution sont d’améliorer l’efficacité de son métier afin de rendre un service plus efficient et au meilleur coût pour la collectivité :

  • optimiser la gestion des équipements en étant plus précis en termes de maintenance en connaissant mieux le comportement des équipements (les transformateurs par exemple) ;
  • améliorer l’exploitation des réseaux de distribution ;
  • mieux cibler les investissements avec des modèles plus fins fondés sur davantage de données qui permettent de gérer une complexité plus grande à meilleur coût.

ERDF est chargée de l’exploitation, du développement et de l’entretien des réseaux publics de distribution d’électricité. Elle doit rendre compte de son activité auprès :

  • des autorités organisatrices de la distribution d’électricité (AODE) et des préfets, pour permettre aux AODE de contrôler la concession ;
  • des collectivités territoriales, pour leur permettre d’élaborer et d’évaluer les schémas régionaux du climat, de l’air et de l’énergie (SRCAE) et les plans climat-énergie territoriaux (PCET) ;
  • de la CRE et des ministères concernés, pour leur permettre de réguler le marché de l’énergie et de suivre l’activité d’ERDF.

Les marchés de l’énergie se complexifient avec différents mécanismes existants ou qui se mettent en place :

  • le dispositif des Responsables d’équilibre (RE) ;
  • le Mécanisme d’ajustement (MA) ;
  • le mécanisme de Notifications d’échanges de blocs d’effacement (NEBEF) ;
  • le marché de capacités, permettant d’échanger des garanties de capacité d’effacement ou de production.

ERDF est un acteur majeur du fonctionnement des marchés de l’électricité. Elle est chargée de gérer les données relatives aux réseaux publics de distribution, de produire des bilans énergétiques et de calculer des indicateurs nécessaires aux marchés. Par exemple, ERDF fournit aux responsables d’équilibre :

  • des bilans de consommation et des indicateurs nécessaires à leur activité ;
  • les données agrégées nécessaires au contrôle du réalisé des effacements.

Des données collectées grâce aux technologies de Smart grids sur les réseaux publics de distribution sont utiles pour permettre aux acteurs de déterminer au plus juste les flux financiers échangés dans le cadre des marchés de l’électricité.

Un volet de la mission d’ERDF est d’accompagner les collectivités et acteurs des territoires sur :

  • les politiques énergétiques : ERDF fournit notamment des données nécessaires à la rédaction des PCET, SRCAE, etc. ;
  • les projets d’aménagement : ERDF est partenaire des acteurs de l’aménagement du territoire dans leurs projets d’écoquartiers, de rénovation urbaine, d’implantation EnR, etc.

Les données sont, également, utiles pour les utilisateurs du réseau. Les données de comptage appartiennent au client et la vocation d’ERDF est de les lui mettre à disposition afin qu’il puisse s’approprier sa propre consommation et qu’il comprenne ses dépenses d’énergie. De nombreux démonstrateurs ont prouvé l’importance d’informer les clients pour favoriser la maîtrise de la demande en énergie.


Source : ERDF

ERDF fournit également des données pour permettre à de multiples acteurs (acteurs de l’effacement, acteurs des objets connectés, acteurs de l’efficacité énergétique, acteurs de la domotique, etc.) de développer des services innovants. De nombreux démonstrateurs sont fondés sur les données issues des compteurs Linky mais aussi sur celles issues des compteurs actuels.


Source : ERDF

Dans le cadre de ses missions, ERDF est le gestionnaire des données relatives aux réseaux publics de distribution d’électricité qui lui sont concédés. ERDF continue de se doter des outils et compétences pour gérer l’ensemble de ces données de façon efficiente et sécurisée. Elle les utilise en vue d’un service public de la distribution plus efficace et au meilleur coût pour la collectivité.

De plus, ERDF s’attache à mettre à disposition des parties prenantes les données dont elles ont besoin pour leurs activités ou l’exercice de leurs missions. ERDF agit ainsi en facilitateur neutre des marchés, tout en restant garante de la sécurité et de la confidentialité des données commercialement sensibles et à caractère personnel.

Pour accélérer la transformation de l’entreprise vers le numérique, ERDF a lancé en 2014 un programme numérique, qui vise à :

  • exploiter la richesse des données qui sont confiées à ERDF pour rendre un meilleur service public ;
  • saisir l’opportunité des technologies numériques pour améliorer la performance industrielle et relationnelle ;
  • être à la pointe du numérique dans le secteur de la distribution d’électricité en France, en Europe et à l’international.

Céline Salon
4 novembre 2014



Céline Salon est directrice déléguée du programme numérique d’ERDF. Céline SALON a rejoint mi 2014 la création du Programme d’Evolution Numérique d’ERDF, après avoir quitté la Direction de la Stratégie d’ERDF, où elle avait en charge des projets liés à la place du distributeur dans les nouveaux mécanismes de marchés, et à l’intégration économique des Smart grids. Auparavant, elle a exercé différentes responsabilités opérationnelles dans la conception, l’exploitation et la maintenance des réseaux électriques au sein du Groupe EDF.



Point de vue de Nicolas Charton (E-CUBE) :

Cinq facteurs accélèrent aujourd’hui la dynamique de digitalisation et d’utilisation des données dans l’énergie :

  • le déploiement généralisé des compteurs communicants : le volume de données va passer de 10 giga-octets (Go) à plusieurs dizaines de téra-octets (To) par an lorsque le déploiement sera complet ;
  • le développement des objets connectés, qui ne sont pas tous liés à l’énergie mais qui pourront, de manière indirecte, donner une information utile sur les optimisations énergétiques et influencer les modèles d’affaires (cf. les efforts de standardisation en cours par les deux géants californiens avec l’Apple Home Kit et l’Android@home) ;
  • la réduction du coût des capteurs et du traitement des données : une partie de l’acquisition de la donnée va désormais se réaliser à coût marginal nul sur des systèmes qui sont déjà communicants (energy box, équipements domotiques, système de contrôle et d’acquisition de données (SCADA) dans l’industrie, gestion technique du bâtiment dans le tertiaire) ;
  • le développement de la concurrence et l’évolution des attentes des consommateurs : en Grande-Bretagne où la concurrence est plus développée qu’en France, les ventes sur Internet représentaient 21 % en 2011 et 32 % en 2013 : on constate une croissance très forte de la part du digital dans l’acquisition client ;
  • l’évolution des fondamentaux du secteur de l’énergie et du « market design » : aujourd’hui, la flexibilité possède une valeur : l’effacement peut contribuer aux réserves tertiaires depuis quelques années et primaires et secondaires depuis peu, sur des temps de réponse très rapide avec des enjeux de fiabilité extrêmement importants en temps réel.

Cette dynamique aura un impact sur l’ensemble de la chaîne de valeur énergie. Cependant, elle n’est pas toujours synonyme de création de valeur. La digitalisation est synonyme de création de valeur pour les réseaux de distribution et de transport, notamment avec les optimisations qui peuvent être réalisés sur les investissements ou sur l’exploitation et pour la fourniture et les offres de service, pour lesquels l’optimisation concerne les coûts de service ou la réduction du « churn » (EDF Energy détecte et anticipe les clients qui pourraient changer de fournisseur).

Dans d’autres cas, la digitalisation ne sera pas synonyme de création de valeur. Par exemple, l’affichage de proposition de prix dans le domaine de la fourniture d’électricité peut conduire à la disparition de niches tarifaires. Il existe potentiellement une perte de valeur pour le fournisseur ou une meilleure redistribution de la valeur pour les clients.

Actuellement, il est difficile de déterminer quel sera l’impact. Il existe deux grands scénarios :

  • un scénario d’optimisation : les acteurs vont se concentrer sur une amélioration de la « business intelligence » dans l’énergie et de la performance opérationnelle sans pour autant introduire une rupture complète, car dans le monde de l’énergie, les fondamentaux de coûts sont relativement fixes (investissements dans les réseaux, dans les moyens de production). L’optimisation des coûts de service peut être de second ordre ;
  • un scénario de rupture, où les fondamentaux de coûts pourraient être touchés, par exemple par une généralisation du marketing one to one.

Dans le scénario d’optimisation, l’impact annuel pour la France toutes énergies confondues a été chiffré à près d’un milliard et il se répartit sur l’ensemble de la chaîne de valeur. Comparé au poids de ces secteurs, cela confirme qu’il s’agit bien d’un scénario d’optimisation et non d’une rupture fondamentale.


Source : E-CUBE

Fourniture, effacement et services

L’arrivée des compteurs communicants a bouleversé les services proposés par les fournisseurs d’énergie et les acteurs de services énergétiques avec des outils gratuits d’analyse de la consommation ou de comparaison des tarifs en utilisant la courbe de charge :

  • My Energy est un service mis en place par le fournisseur américain PG&E à la suite du déploiement de ses compteurs qui relèvent la consommation au pas de 15 minutes (très proche de ce qui sera fait en France avec les compteurs Linky), l’affiche et permet d’avoir un conseil de performance énergétique en ligne établi directement à partir des données du client. Sur 4,5 millions de clients particuliers, 1,8 million de clients ont déjà utilisé ce service de conseil et d’audit en ligne ;
  • Green Button Connect My Data : ce concept fonctionne comme celui de « Connect with Facebook » : il est possible de se connecter sur n’importe quel site avec ses identifiants Green Button, ce qui lui permet d’accéder à votrecourbe de charge. Les comparateurs de prix représentent plus de 80 % de l’acquisition client digitale au Royaume-Uni. Demain, grâce à cette application, on aura des comparateurs de prix qui pourront travailler directement sur la courbe de charge du client et ainsi lui proposer l’offre qui lui est la plus adaptée à son profil. Les offres mises en avant par le comparateur seront les offres les mieux adaptées à la courbe de charge du client. Cela pourrait accélérer le développement d’offres reflétant les coûts de marché et les coûts de réseaux sur la courbe de charge du client. Il s’agit d’un scénario de rupture parce qu’aujourd’hui, tous les éléments ne sont pas réunis pour que ça se concrétise aussi massivement.


Source : E-CUBE

Transport et distribution

Une donnée fine et multi-énergies sera essentielle dans la concrétisation, même partielle, du concept de boucle locale de l’énergie (ex : optimisation des flux énergétiques à l’échelle locale). Dans ce modèle, il existe un enjeu important d’utilisation de la donnée pour réaliser des arbitrages sur la flexibilité à l’échelle locale.

Par exemple, Electricity North West, distributeur en Grande-Bretagne, rémunère les effacements pour reporter les investissements dans le réseau. Les niveaux de rémunération atteignent les ordres de grandeur des effacements réalisés en France à l’échelle nationale pour des appels d’offres industriels organisés par RTE.


Source : E-CUBE

Production et approvisionnement

En Allemagne, l’explosion du marché de l’agrégation de production génère une nouvelle utilisation des données. Les volumes d’agrégation de production vendue directement sur les marchés est passée de 15 GW en 2012 à 37 GW en 2014. Les petits producteurs d’électricité renouvelable utilisent les agrégateurs comme intermédiaires pour vendre leur production sur les marchés. Les agrégateurs pèsent chacun de l’ordre de 1 à 5 GW. Cela est lié à la mise en place d’une rémunération des producteurs par une prime en complément du prix de marché de l’électricité (à la place de tarif d’achat).

Le fondement du modèle d’affaires de ces acteurs de l’agrégation repose sur la gestion et le paiement des écarts, qui représentent largement plus de 50 % du coût de l’agrégation sur ce type de marchés. Les données et la capacité à moduler en temps réel la production, voire à moduler la consommation d’un parc de clients joints que l’on pourrait agréger dans le même périmètre d’équilibre, deviennent essentielles pour optimiser les coûts de ce métier.

En Allemagne, le marché est de plus en plus compétitif et une forte concentration des acteurs est attendue. Les acteurs jouent sur les marges et sur les coûts de structure. La capacité à avoir beaucoup de données sur les parcs de production pour pouvoir sélectionner les parcs qui sont les plus pertinents en termes d’écart et jouer sur le foisonnement sera décisive demain pour ce modèle d’affaires.


Source : E-CUBE

Quelques questions restent en suspens sur le sujet de la digitalisation du secteur de l’énergie :

  • quelles incertitudes restent à lever pour un impact massif avant 2020 ? Dynamisme de la concurrence ? Enjeux de confidentialités des données ? Rythme de déploiement compteurs ? Évolutions de market design ?
  • quel scénario d’impact, optimisation ou rupture ? Des acteurs font le pari de la rupture et investissent ;
  • quel modèle s’imposera : « service public de la donnée », « privatisation de l’agrégation » ou un autre modèle ? Si les enjeux sont forts, notamment pour les acteurs régulés, aucun modèle ne se démarque à date.

Nicolas Charton
4 novembre 2014





Nicolas Charton est manager chez E-CUBE Strategy Consultants.





Point de vue de Sophie Nerbonne (CNIL) :

À l’heure où la donnée personnelle se trouve au cœur d’un certain nombre de métiers et d’enjeux de la société numérique, il est intéressant d’avoir le point de vue de l’autorité de régulation des données personnelles.

Sa compétence, qui est transversale à la différence de celle des autorités de régulation sectorielle, mérite quelques mots de rappel sur les grands principes de la loi Informatique et Libertés. La loi Informatique et Libertés du 6 janvier 1978 modifiée s’applique dès lors qu’il est procédé à un traitement de données à caractère personnel. La question se pose alors de ce qu’est une « donnée à caractère personnel ». Dans le dialogue que la CNIL a engagé avec ses partenaires industriels de la Fédération des industries électriques, électroniques et des communications (FIEEC), les premiers échanges ont consisté à se comprendre et s’entendre concernant les données qui, directement ou indirectement, permettent l’identification d’une personne physique. Ainsi, les données de consommation électrique se rattachant à un abonné, client ou locataire, sont des données à caractère personnel.

Les acteurs qui manipulent ces données à caractère personnel se doivent de respecter différentes obligations légales :

  • l’information des personnes, voire le recueil du consentement exprès, et la mise en place de modalités d’exercice du droit d’accès et de suppression des données ;
  • la collecte et le traitement des données pertinentes pour la réalisation de finalités explicites, avec une durée de conservation ;
  • la mise en œuvre de mesures de sécurité pour préserver l’intégrité et la confidentialité de ces données ;
  • les formalités préalables à effectuer auprès de la CNIL, en l’absence de désignation de correspondant Informatique et libertés (CIL).

À partir du moment où les données sont anonymisées et qu’il est certain qu’il n’y a plus de possibilité d’identifier une personne physique, la loi Informatique et Libertés ne s’applique plus. Cela montre l’intérêt de développer les dispositifs d’anonymisation des données.

Dans un premier temps, en 2012, la CNIL a mené des travaux sur la collecte de la courbe de charge des compteurs communicants par les gestionnaires de réseaux de distribution. L’objectif était de réfléchir à l’impact des compteurs communicants sur la vie privée.

Le principal risque que nous avons identifié provient de cette nouvelle fonctionnalité offerte par les compteurs. Plus le « pas de mesure » est faible, plus les mesures sur une journée sont nombreuses et fines, ce qui permet d’avoir des informations précises sur les habitudes de vie des personnes concernées. Une courbe de charge avec un pas de 10 minutes permet notamment d’identifier les heures de lever et de coucher, les heures ou périodes d’absence, etc.

La CNIL a également réfléchi aux enjeux en termes de sécurité et de confidentialité de ces données.

Après deux années de réflexion et la consultation du CGEIET notamment, ces travaux ont abouti à la recommandation du 15 novembre 2012 afin d’encadrer les traitements de la courbe de charge, collectée par les gestionnaires de réseaux de distribution par l’intermédiaire des compteurs communicants dont ils assurent la gestion.

La recommandation pose plusieurs principes :

  • la courbe de charge ne peut être collectée de manière systématique ;
  • cette collecte intervient uniquement pour les finalités suivantes :
    • lorsqu’elle est justifiée par les nécessités de maintenance du réseau ;
    • lorsque l’usager en fait expressément la demande pour bénéficier de services particuliers (tarifs adaptés à sa consommation, bilans énergétiques, proposition de travaux d’isolation, etc.).

La recommandation exprime également des exigences en termes de sécurité. Elle prévoit notamment la réalisation d’études d’impact sur la vie privée avant le déploiement des compteurs et la réalisation d’analyses de risques pour déterminer les mesures techniques adéquates à mettre en place.

Cette recommandation a vocation à évoluer en prenant en considération les évolutions techniques et technologiques.

Par la suite, la CNIL a souhaité travaillé directement avec les acteurs privés concernés par ces sujets et a ainsi développé un partenariat avec la FIEEC au travers de la création d’un groupe de travail en octobre 2012.

Ce groupe de travail avait pour objectif d’aboutir à la publication d’un référentiel de bonnes pratiques visant à accompagner l’innovation des industriels en intégrant le concept de « privacy by design ». Ce concept est présent dans le projet de règlement européen actuellement en cours de discussion. Il est intéressant de noter que les industriels de la FIEEC ont été les premiers à considérer que travailler avec la CNIL pour élaborer de tels scénaris d’innovation allait leur permettre, dès lors que ces standards seraient adoptés au plan européen, d’améliorer leur compétitivité. L’intégration de ces normes et standards dans leurs produits et services constituent un facteur de compétitivité pour se distinguer des autres offres. Cela constitue un exemple d’accompagnement par la CNIL de dispositifs innovants.

Ces travaux concernent uniquement les traitements de données collectées via des appareils ou logiciels installés par les usagers en aval des compteurs électriques (données prises sur le compteur ou tableau électrique). En sont donc exclus les traitements de données réalisés directement via les compteurs électriques. La démarche de travail était avant tout centrée sur l’usager. Ces lignes directrices ont un caractère souple et évolutif : il s’agit de créer des réflexes chez les professionnels.

Les recommandations du groupe de travail FIEEC-CNIL s’organisent autour de trois cas d’usage des données de consommation électrique, identifiés par le groupe de travail :

  • le premier cas d’usage est le scénario « IN -> IN » : les données collectées dans le logement restent dans le logement ;
  • le deuxième cas d’usage est le scénario « IN -> OUT » : les données collectées dans le logement sont transmises à l’extérieur ;
  • le troisième cas d’usage est le scénario « IN -> OUT -> IN » : les données collectées dans le logement sont transmises à l’extérieur pour permettre un pilotage à distance de certains équipements de logement.

Des recommandations ont été produites dans chaque cas, détaillant les types de traitement possibles (cliquez pour zoomer).


Source : CNIL


Source : CNIL


Source : CNIL

Aujourd’hui, l’objectif est de diffuser largement le « pack de conformité énergie » (notamment via le site de la CNIL et les relais professionnels de la FIEEC), de les porter au plan européen, notamment au travers des travaux du G29 (Groupe de travail Article 29 sur la protection des données), groupe qui réunit l’ensemble des CNIL européennes, de mettre à jour régulièrement ces cas d’usage (les recommandations ont un caractère évolutif et ont vocation à être régulièrement revues) et de poursuivre le partenariat avec la FIEEC pour d’autres produits et services. La seconde brique du pack porte sur les dispositifs assurant la sécurité du logement (vidéosurveillance, alarmes, etc.) et portant assistance aux personnes (détection de perte de verticalité, etc.).

Cette démarche témoigne de la volonté de la CNIL de se rapprocher des professionnels afin d’identifier leurs besoins et d’élaborer des instruments de droit souple destinés tant à sécuriser juridiquement le déploiement de nouvelles technologies que de simplifier les formalités administratives. Le projet de règlement européen sur la protection des données personnelles prévoit d’ailleurs la montée en puissance de cette co régulation.


Sophie Nerbonne
4 novembre 2014



Sophie Nerbonne est directrice de la conformité à la CNIL. Diplômée de l’Institut d’études politiques de Paris et titulaire d’une maîtrise de droit à Paris II Assas, elle a tout d’abord été juriste d’entreprise à la SODEXHO avant de rejoindre la CNIL où elle a mené une carrière l’ayant successivement conduite de la prise en charge de secteurs (justice, éducation nationale, banque et assurance) au poste de responsable de l’unité Economie au service juridique (1992) puis de chef de service à la direction juridique (2001) et, de directrice adjointe des affaires juridiques, de l’expertise technique et des affaires internationales à la Cnil (2007).
Depuis septembre 2014, elle dirige la direction de la conformité, issue de la réorganisation des services de la Commission de mars 2014, dont l’activité est tournée vers les professionnels et consiste à promouvoir une gamme élargie d’outils de régulation, dans une logique de simplification administrative et d’accompagnement des acteurs.

Point de vue de Pascale Bernal (GRDF) :

Les données sont depuis longtemps au cœur des métiers du gestionnaire de réseaux de distribution de gaz naturel : données financières, données client, données de consommation, données patrimoniales, données de cartographie (avec une importance toute particulière de la cartographie pour les réseaux de gaz puisque la sécurité est au cœur de nos préoccupations : le gestionnaire de réseaux a besoin de savoir avec exactitude où se situent les réseaux de distribution).

Aujourd’hui s’ajoutent des demandes précises et nombreuses de différentes parties prenantes (les clients, les associations de consommateurs, les fournisseurs de gaz, les acteurs du gaz, les plombiers, les autorités concédantes) pour avoir de nouvelles données et, pour certaines, à une maille qui est de plus en plus fine. Jusqu’à récemment, la maille était celle de la commune. Aujourd’hui, les mailles sont celles des IRIS (Ilots regroupés pour l’information statistique) et la finesse de la maille pourrait aller croissant. Nous devons également fournir ces données à la CRE et les pouvoirs publics pour qu’ils puissent assurer leurs missions.


Source : GRDF

Les multiples enjeux autour des données existant dans le domaine de l’électricité existent également dans le domaine du gaz naturel :

  • la gouvernance des données : comment sont-elles collectées ? Quelles sont celles souhaitées et qu’il est possible de collecter ?
  • la connaissance des données : il est important de travailler en étroite collaboration avec les acteurs qui collectent ces données pour mieux les comprendre dans leur contexte ;
  • la qualité des données : il est important de les « nettoyer » pour pouvoir les analyser et les exploiter ;
  • l’accessibilité : il faut travailler sur ce sujet puisque de nombreuses parties prenantes sont intéressées par ces données. Le gestionnaire de réseau a un certain nombre d’obligations qui ne lui permettent pas de publier n’importe quelles données de n’importe quelle façon. La mise à disposition des données est ainsi centrale dans le travail du gestionnaire de réseaux.


Source : GRDF

Aujourd’hui, le sujet des données est prégnant en raison de l’explosion du nombre de données générées par les objets connectés.

Trois éléments majeurs bouleversent le métier du gestionnaire de réseau de distribution, faisant de la gestion des données le cœur de métier du distributeur :

  • la multiplication des capteurs sur différents points d’infrastructures (réseaux ou compteurs) et la mise en place des chaînes communicantes augmentent considérablement la volumétrie de données. Avec le programme de compteurs évolués Gazpar, alors que deux relevés par an étaient effectués, ce seront désormais 365 relevés par an pour 11 millions de compteurs ;
  • un bouleversement pour les métiers réseauavec le développement de la télésurveillance à la télé-exploitation des réseaux ;
  • selon l’ADEME, 1 400 projets d’injection de biométhane devraient être raccordés sur le réseau en 2030 : les données captées concernant le volume et pouvoir calorifique supérieur (PCS) à un pas de temps granulaire ouvrent la possibilité de maîtriser la qualité du mélange biométhane et gaz naturel importé qui est injecté sur les réseaux.

Les technologies pour traiter ces données se multiplient également (cloud, big data) et permettent de les traiter aujourd’hui d’une façon totalement différente d’hier.

La cartographie est très importante pour GRDF afin de savoir très précisément ce qui est dans le sous-sol pour éviter les dommages aux ouvrages et les risques de fuite. Depuis longtemps, les réseaux ont été cartographiés et des Systèmes d’information géographique (SIG) très précis existent. Aujourd’hui, au-delà de ces systèmes traditionnels, se développe le géo-décisionnel : des outils d’analyse permettent de visualiser l’information et de prendre des décisions beaucoup plus rapides et pertinentes pour tout type d’informations. Les collaborateurs de GRDF sont désormais géo-positionnés de façon à ce que l’on puisse, notamment lors de l’intervention d’urgence, localiser ceux qui sont le plus près et ainsi les faire intervenir le plus vite possible.


Source : GRDF

Depuis 2013, GRDF a créé un Datalab de façon à croiser les informations, parce que la valeur des analyses de données provient du croisement entre la connaissance du métier et des technologies liées aux big data. La mise en œuvre du Datalab permet de confirmer ou d’infirmer des intuitions dans la mesure où les informations disponibles sont beaucoup plus précises.

Il répond aux interrogations des différents métiers de l’entreprise : où implanter des stations de gaz naturel pour véhicules (GNV) ? Quel est le profil des clients qui se désengagent du gaz naturel ? Est-ce pour les mêmes raisons quelle que soit la région ? Comment optimiser nos interventions ? Chaque question déclenche une recherche des données concernées : marketing, démographiques, météorologiques ou liées à la maîtrise de l’énergie.

Les techniques du big data peuvent nous permettre de passer de la maintenance préventive vers de la maintenance prédictive. Si, grâce à l’analyse et au croisement des données, il est conclu que la défaillance n’arrive que tous les 7 ans alors que les maintenances s’effectuent aujourd’hui tous les 5 ans, GRDF réalisera moins d’interventions et cela permettra une réduction des coûts d’exploitation du réseau.


Source : GRDF

Le big data est un écosystème, qui implique de travailler avec de nombreux acteurs extérieurs : des universités et des écoles, d’autres entreprises qui ont des problématiques très proches des nôtres (entreprises de réseaux d’eau par exemple), les pouvoirs publics, des think tanks, des start ups. Croiser leur compétence sur le numérique avec celles que nous possédons en matière d’exploitation de réseau permet d’optimiser le service que nous rendons à l’ensemble des clients mais aussi le coût auquel nous le rendons.


Source : GRDF

GRDF a la volonté de pouvoir partager ces données et de les mettre à disposition des parties prenantes externes (clients, fournisseurs, collectivités) dans le respect de la loi Informatique et Liberté et des Informations commercialement sensibles (ICS). À ce jour, pour GRDF, la solution passe par un stockage sur un socle de données interne et maîtrisé. GRDF collabore avec l’ANSSI pour la mise en place de ses projets et est contrôlé par la CNIL.

La loi de transition énergétique pour la croissance verte en cours de discussion au Parlement fixe des repères qui permettront d’aller plus loin dans la mise à disposition de données aux clients et aux autorités concédantes.

Cette évolution se fera sans empiéter sur les prérogatives des fournisseurs et des sociétés de conseil.


Pascale Bernal
4 novembre 2014





Pascale Bernal est directrice des systèmes d’information chez GRDF.




Interview de Stéphane Meynet (Agence nationale de la sécurité des systèmes d’information - ANSSI) :

Pouvez-vous nous présenter les missions de l’ANSSI relatives aux Smart grids ?

L’Agence nationale de la sécurité des systèmes d’information (ANSSI) est une autorité nationale rattachée au Premier ministre et chargée de la sécurité et de la défense des systèmes d’information. Elle a pour principales missions d’assurer la sécurité des systèmes d’information de l’État et de veiller à celle des Opérateurs nationaux d’importance vitale1 (OIV – acteurs agissant par exemple dans le secteur de la santé, de la gestion de l’eau, de l’alimentation). Les trois missions majeures de l’ANSSI sont :

  • prévenir la menace en anticipant les modes d’attaques par l’expertise scientifique, en définissant les mesures de protection, en labellisant des produits et des services informatiques de confiance ;
  • défendre les systèmes d’information en détectant les failles et incidents, en réagissant le plus vite en cas de cyber-attaque, en apportant son assistance technique et son expertise ;
  • informer les différents publics en sensibilisant sur la nécessaire protection des environnements numériques, en promouvant les bonnes pratiques de cybersécurité et en émettant des recommandations techniques.

Les Smart grids sont considérés par de nombreux États, dont la France, comme des infrastructures critiques et entrent de ce fait dans le périmètre des missions de l’ANSSI.

En pratique, l’Agence sensibilise une large palette d’acteurs du domaine (gestionnaires et opérateurs de réseau, équipementiers, bureaux d’études, intégrateurs), les conseille et leur fournit l’expertise nécessaire pour renforcer la sécurité des systèmes en cours de développement ou ceux déjà en production. Les guides relatifs à la cyber-sécurité des systèmes industriels, ainsi que les nombreux autres que nous publions sur la sécurité des systèmes d’information en général, s’appliquent bien évidemment aux Smart grids.

1. Opérateurs publics ou privés exploitant des établissements ou utilisant des installations et ouvrages, dont l'indisponibilité risquerait de diminuer d'une façon importante le potentiel de guerre économique, la sécurité ou la capacité de survie de la Nation.

Comment est assurée la sécurité des systèmes d’information des Smart grids ? Comment intervenez-vous auprès des gestionnaires de réseaux pour assurer cette sécurité des systèmes d’information ?

La sécurité, ou plutôt devrions nous parler de cyber-sécurité afin d’éviter toute confusion’, est assurée par les opérateurs des Smart grids eux-mêmes. Ce sont eux qui en ont la charge et, donc, la responsabilité. Certains opérateurs peuvent être d’importance vitale et, donc, soumis à la réglementation relative aux OIV. Ils seront, en particulier, soumis aux articles concernant la cyber-sécurité de la loi de programmation militaire (LPM) du 18 décembre 2013 (Cette loi est relative à la programmation militaire pour les années 2014 à 2019 et porte diverses dispositions concernant la défense et la sécurité nationale) dont les décrets d’application seront publiés prochainement. Ces articles, parmi d’autres mesures, permettront au Premier ministre, à travers l’ANSSI, de fixer des règles de sécurité pour renforcer la sécurité des systèmes d’information critiques des OIV, de recevoir des notifications d’incidents informatiques (tentatives d'intrusion par exemple) touchant ces systèmes et de mener des audits pour évaluer le niveau de sécurité et l’application des règles fixées. La France est le premier pays à adopter une telle réglementation, à la hauteur des enjeux, ce qui mérite d’être souligné.
Les premiers groupes de travail dédiés à la préparation des règles de sécurité, ont été lancés mi-octobre pour le secteur de l’énergie (électricité et gaz). Les travaux s'appuieront sur les nombreux guides et référentiels déjà publiés par l'ANSSI. Bien avant la LPM, les pouvoirs publics se sont intéressés à la question de la sécurité des Smart grids et notamment à la sécurité des compteurs communicants. Un travail collectif, réunissant les ministères et opérateurs concernés, la CRE et l’ANSSI, a abouti à la prise en compte de mesures de cyber-sécurité dans l’arrêté relatif au comptage électrique du 4 janvier 2012 (arrêté du 4 janvier 2012 pris en application de l’article 4 du décret n° 2010-1022 du 31 août 2010, relatif aux dispositifs de comptage sur les réseaux publics d’électricité, pris par le ministre de l’économie, des finances et de l’industrie, de l’énergie et de l’économie numérique). Celui-ci prévoit, dans son article 4, que les « dispositifs de comptage mentionnés au présent article sont conformes à des référentiels de sécurité approuvés par le ministre chargé de l’énergie. Cette conformité est vérifiée par une évaluation et une certification conformément aux dispositions du décret du 18 avril 2002 susvisé » (décret n° 2002-535 du 18 avril 2002, relatif à l’évaluation et à la certification de la sécurité offerte par les produits et les systèmes des technologies de l’information).

Quels seraient les risques possibles si cette sécurité n’était pas assurée ?

Les risques sont de deux natures. Tout d’abord, l’atteinte à la vie privée des utilisateurs. Les Smart grid pénètrent jusqu’à l’intérieur du domicile des particuliers via les compteurs communicants par exemple, auxquels seront connectés des équipements domestiques (chauffe-eau, radiateurs, éclairage, équipements électroménagers et domotiques, etc.), et qui véhiculeront potentiellement des données à caractère personnel. Cet aspect est traité par la CNIL qui a d’ailleurs publié, à la suite des réflexions d’un groupe de travail, un « pack de conformité » pour les compteurs évolués. Ce pack propose des recommandations sur les conditions de collecte et de traitement des données personnelles relatives à la consommation électrique par des appareils installés par les usagers en aval des compteurs électriques.

Ensuite, il ne faut pas oublier les enjeux liés à la résilience de nos infrastructures. La résilience est définie comme la capacité à fonctionner pendant un incident et à revenir à l’état nominal.

En effet, les Smart grids « inter-connectent » un ensemble d’infrastructures industrielles (sites de production, infrastructures de transport et de distribution électriques) communiquant massivement entre elles. C’est la raison pour laquelle les technologies mises en œuvre, provenant du monde de l’informatique de gestion, sont propices aux attaques informatiques dont le nombre n’a cessé de croître ces dernières années. La menace pourrait devenir réelle, nous devons anticiper des tentatives de coupures électriques de la part d’individus malveillants. Ce type de scénario, mettant en cause la résilience des réseaux électriques, a été pris très au sérieux par de nombreux États, dont la France, ainsi que par l’Union européenne. Le nombre important de recommandations et d’études qu’ils ont déjà ou s’apprêtent à publier sur la cyber-sécurité des Smart grids, illustre bien les préoccupations dont nous parlons.

À ce sujet, pour être efficace, il est important de ne pas se disperser en créant une multitude de nouvelles réglementations et standards et de s’appuyer sur ceux déjà existants.

L’approche de l’ANSSI est de traiter les Smart grids comme des systèmes industriels présentant des particularités. La finalité des Smart grids est bien de gérer « intelligemment » les réseaux électriques (des systèmes industriels) en développant pour cela des systèmes d’information performants, s’appuyant sur des technologies telles que le cloud-computing, les réseaux de communications sans-fil, l’Internet des Objets (IoT), etc. Nous retrouvons dans les Smart grids tous les composants des systèmes industriels « modernes », ceux de « l’usine numérique », mais déployés à l’échelle d’une infrastructure nationale.

Toutefois, la particularité des Smart grids par rapport aux systèmes industriels, réside dans le fait qu’ils manipulent potentiellement des données à caractère personnel. Ce sujet est traité par la CNIL comme nous l’avons abordé précédemment.

Quelle différence faites-vous entre la protection de la vie privée et la sécurité des données ?

Toutes les données ne concernent pas la protection de la vie privée. Une donnée de paramétrage d’un équipement électrique du réseau de distribution, par exemple, ne présente pas de caractère personnel. Pour autant, il est important de sécuriser cette dernière afin d’éviter des dysfonctionnements et d’assurer la résilience des réseaux publics de transport et de distribution d’électricité.


Stéphane Meynet
21 novembre 2014



Stéphane Meynet, ingénieur de l’École des Mines d’Alès, a démarré sa carrière dans l’industrie de la micro-électronique. Après avoir été en charge pendant 10 ans de systèmes automatisés de contrôle de procédés industriels, il est aujourd’hui chef de projet sécurité des systèmes industriels à l’Agence nationale de la sécurité des systèmes d’information (ANSSI) où il traite des aspects de cyber-sécurité des infrastructures critiques.



L’Agence nationale de la sécurité des systèmes d’information (ANSSI) a été créée par le décret n° 2009-834 du 7 juillet 2009, sous la forme d’un service à compétence nationale. L’agence assure la mission d’autorité nationale en matière de sécurité des systèmes d’information. À ce titre, elle est chargée de proposer les règles à appliquer pour la protection des systèmes d’information de l’État et de vérifier l’application des mesures adoptées.
Dans le domaine de la défense des systèmes d’information, elle assure un service de veille, de détection, d’alerte et de réaction aux attaques informatiques, notamment sur les réseaux de l’État.

Interview de Olivier Sellès (Bouygues Immobilier) :

Quelles sont les données disponibles et pour quels acteurs dans le cadre du projet Issygrid ?

Pour les bâtiments tertiaires et les équipements publics, le projet IssyGrid collecte les données de consommations par usages, tels qu’ils sont définis dans la réglementation thermique 2012 (RT2012), c’est-à-dire le chauffage, la ventilation, la climatisation, la production d’eau chaude sanitaire et l’éclairage, ainsi que la consommation globale du bâtiment et, le cas échéant, les données de production d’énergie. Il a fallu pour cela équiper des bâtiments existants des instruments de mesure et des réseaux de communication nécessaire, les rendre « smart grid ready » (c’est-à-dire que des bâtiments construits avant la mise en place du smart grid sont rendus compatibles avec le smart grid), notamment grâce à l’aide des équipes de Schneider Electric.

Concernant les logements, certains foyers ont installé chez eux une box de la start-up Ijenko, boîtier communicant qui récolte les données disponibles sur le compteur et sur certaines prises pour permettre aux membres du foyer d’accéder aux données de consommation. Il s’agit d’un scénario « IN – IN », selon la terminologie de la CNIL : les données de consommation sont collectées pour les habitants et ne sont disponibles que pour eux, sauf s’ils donnent explicitement leur accord pour les communiquer à des tiers de façon anonyme.

Quant aux données globales de consommation des logements du quartier, IssyGrid est le premier projet Smart grid à travailler tant avec la CNIL, qu’avec la CRE, afin d’identifier la meilleure façon de collecter les données par usages, tout en garantissant le respect complet de la vie privée. Pour rendre les données non personnelles, il faut par exemple les agréger avec celles d’autres logements aux caractéristiques semblables. Notre objectif est d’estimer à partir de combien de logements cette agrégation ne permet plus distinguer les consommations individuelles.

Une fois qu’aura été déterminée la meilleure façon de collecter des données, tout en pouvant garantir le respect de la vie privée des habitants, la collecte démarrera.

Une fois anonymisées, toutes les données collectées sont ensuite, par principe, disponibles pour tous les acteurs de la ville, à commencer par l’habitant, qu’il soit particulier ou entreprise locale. Une telle démarche de mise à disposition pourra également inspirer des sociétés qui pourront ensuite créer des services innovants à partir de l’analyse de ces données.

Les gestionnaires des réseaux de distribution, comme ERDF pour l’électricité, possèdent également des données très fiables à la maille du quartier. Les entreprises du consortium IssyGrid travaillent donc main dans la main avec la CRE sur la façon d’inclure ces données globales de consommation sans déroger au principe de neutralité du gestionnaire de réseau de distribution, avec pour objectif de faciliter la collecte et le partage des données pour l’ensemble des acteurs du quartier, qu’ils soient habitants, entreprises locales, collectivités ou fournisseurs de services liés au Smart grid.

En quoi la mise en commun des données à la maille du quartier permet une gestion plus cohérente des usages énergétiques du quartier ?

Les logements, les commerces et les bureaux qui sont situés sur un quartier donné sont connectés entre eux par les réseaux d’énergie (électricité, chaleur, froid, gaz) qui desservent l’ensemble du quartier. Collecter les données d’un seul site de consommation sans tenir compte des autres sites de consommation du quartier au même moment ne permet pas de comprendre la dynamique qui est à l’œuvre.

Lorsqu’un ballon d’eau chaude démarre à deux heures du matin pour profiter du tarif heures creuses, c’est avantageux pour le résident et pour le gestionnaire de réseau. Si tous les ballons d’eau chaude du quartier démarrent au même instant pour profiter du tarif heures creuses, cela peut engendrer des contraintes nouvelles. Cela génère un pic de consommation pour le quartier, ce qui dans certains cas peut entrainer des perturbations locales pour le réseau (par exemple, une tension beaucoup trop basse) et détériorer l’empreinte carbone du résident. Avoir une vue d’ensemble du quartier permet de porter des analyses plus justes et de trouver des gisements d’amélioration du profil de consommation des ressources énergétiques. Nous comptons en particulier sur l’expertise d’EDF pour travailler sur ces analyses ensuite et être en mesure de proposer des offres tarifaires efficaces de fourniture d’énergie.

Travailler à l’échelle d’un quartier permet, de plus, de travailler plus efficacement avec la collectivité : le maire devient notre contact privilégié pour lancer le projet et faciliter le lien avec les habitants. À ce titre, le maire d’Issy-les-Moulineaux, Monsieur André Santini, est un soutien précieux pour assurer le succès de ce démonstrateur.

Quel est le rôle du consommateur dans ce cadre ?

En étant celui qui génère les données de consommation et qui paye ses factures d’énergie, le consommateur est le premier acteur du Smart grid. C’est à lui qu’il faut apporter les conseils pertinents correspondant à sa situation, pour l’aider à faire ses propres choix de façon responsable et informée. C’est également pour cela que nous portons une attention particulière à la réaction des habitants et des entreprises locales : comment s’approprient-ils les données ? Consultent-ils le détail de leurs consommations d’énergie ? Quel niveau d’information souhaitent-ils avoir ?

Il ne faut pas oublier que le consommateur est également de plus en plus souvent un producteur d’énergie. Il devient nécessaire de l’impliquer de façon plus active dans l’amélioration du profil énergétique du quartier. Dans le cadre du projet IssyGrid, Total et Bouygues Energies & Services mettent ainsi en place un système complet de démonstration sur un bâtiment du quartier où des panneaux photovoltaïques et des batteries électriques permettent au bâtiment de choisir à un moment donné s’il vaut mieux autoconsommer l’électricité produite, l’injecter sur le réseau public, ou le stocker pour une autoconsommation ultérieure.

Ainsi, le consommateur a un rôle de plus en plus large dans son quartier du point de vue énergétique. C’est pour cela que dans le cadre du projet, il est appelé « habitant » plutôt que « consommateur ». L’originalité d’avoir un projet de Smart Grid coordonné par un promoteur immobilier conduit à voir le projet avec une dimension « attractivité territoriale de la Smart City », au-delà de la simple réduction de la facture d’énergie.

Quelles sont les difficultés rencontrées par Bouygues Immobilier pour la gestion des données dans le projet Issygrid ?

Les sujets les plus difficiles sont de deux ordres : techniques et réglementaires.

Nous avons mis en place un centre unifié de collecte et d’analyse de données, opéré par Embix (la filiale commune d’Alstom et de Bouygues). Mais avec 14 systèmes d’information différents sur le périmètre du projet, nous avons dû faire communiquer des systèmes de gestion de données ne parlant pas le même langage et envoyant des données à des rythmes différents. Plate-forme de services de données sur le cloud, mesures de protection de la sécurité des données : l’aide d’experts du numérique comme Microsoft et Steria est indispensable pour gérer de telles quantités de données hétérogènes. Cela a été très instructif pour nous sur la mise au point du cahier des charges du bâtiment de demain, capable de suivre sa consommation d’énergie mais également de la partager avec les autres acteurs du quartier.

Données à caractère personnel, informations commercialement sensibles, données indispensables à une analyse pertinente du profil énergétique du quartier : l’aide de la CRE et de la CNIL est nécessaire pour faciliter notre compréhension des textes réglementaires. Ces autorités administratives savent que ce sujet pose des questions nouvelles et que leur réactivité permettra aux entreprises françaises de rapidement mettre au point une offre de Smart grid viable, pour démontrer leur savoir-faire dans ce domaine à temps, et en faire un levier de compétitivité internationale. En ce sens, la recommandation n° 7 de la CRE (dans sa délibération du 12 juin 2014) qui vise à mettre à disposition dynamiquement les données collectées sur les réseaux constitue une avancée essentielle.


Olivier Sellès
2 décembre 2014



Ancien élève de l’École polytechnique et docteur en science des matériaux, Olivier Sellès a débuté chez Saint-Gobain où il a conduit des projets de R&D à fort contenu technologique dans le solaire et dans le vitrage pour le bâtiment et l’automobile. Il a ensuite rejoint le Boston Consulting Group où il a conseillé des groupes industriels du secteur de la construction et de l’énergie sur des problématiques d’innovation et de marketing stratégique. Aujourd’hui chef de groupe R&D à la Direction de l’Innovation de Bouygues Immobilier, il conduit des projets en lien avec l’énergie dans la ville, s’intéressant plus particulièrement aux Smart grids et à l’implication des consommateurs dans leur usage des ressources énergétiques.



Leader de la promotion immobilière en France, Bouygues Immobilier développe des projets de logements, d’immeubles de bureaux, des parcs commerciaux et à partir de 35 implantations en France et 5 dans le reste de l’Europe et au Maroc. Engagé dans le déploiement d’une stratégie pionnière en matière de développement durable et spécialiste de l’efficacité énergétique des bâtiments, l’entreprise a lancé la création d’IssyGrid®, le premier projet de réseau urbain intelligent en France. Réalisé en partenariat avec la ville d’Issy-les-Moulineaux (92), 9 acteurs industriels majeurs et plusieurs startups, ce projet pilote de Smart grid est en train de voir le jour.

Interview de Sophie Nerbonne (CNIL) :

En quoi consiste le groupe de travail « Smart grids et données personnelles » qu’a créé la CNIL avec la Fédération des industries électriques, électroniques et de communication (FIEEC) ?

Le groupe de travail sur les Smart grids résulte d’une approche nouvelle de la part de la CNIL mais aussi de la part des professionnels. Avec la FIEEC, nous partageons l’idée que la régulation est un processus de collaboration.

Je dirige à la CNIL la toute neuve direction de la conformité dont l’ambition et le métier consiste à faire en sorte que les « utilisateurs » de données puissent mettre en œuvre et respecter la loi informatique et libertés. Le groupe de travail « Smart grids et données personnelles » était donc piloté par l’idée partagée qu’il nous fallait élaborer un cadre prévisible pour l’utilisation des données de l’aval compteur par les professionnels et ceci dans le respect des droits des personnes.

Nous avons donc réuni, durant un peu plus d’une année, des professionnels issus d’entreprises différentes et de cultures techniques différentes. Spécialistes de la sécurité, ingénieurs, juristes, commerciaux et responsables R&D ont ainsi pu discuter des besoins, des attentes et des contraintes de chacun pour définir trois scénarios d’usages et les recommandations techniques et juridiques associées. Je suis particulièrement fière de ce travail parce qu’il reflète une profonde évolution de la relation entre le régulateur et le secteur régulé. La compréhension du rôle de chacun permet d’établir une vraie confiance.

Pouvez-vous nous présenter le pack de conformité pour les compteurs communicants publié en juin 2014 et les trois scénarios d’innovation ad hoc ?

Le pack de conformité sur les compteurs communicants est un outil de régulation d’un genre nouveau. Il s’agit essentiellement d’un outil d’anticipation qui permet de couvrir un besoin encore latent des professionnels qui développent des services et des produits qui reposent sur les données de l’aval compteur.

Nous sommes partis, avec les professionnels, de l’idée que ces services et produits utilisaient des données selon trois scenarios quelles que soient les finalités d’usages. Dans le scénario 1, la donnée circule en vase clos à l’intérieur du foyer, la question des données est ici, pour ainsi dire, réduite à la question de la sécurité parce qu’il n’y a aucun échange de données avec l’extérieur. Les deux autres scénarios supposent au contraire que la donnée sorte du foyer pour être traitée par un tiers destinataire (scénario 2) et pour produire une rétroaction sur le foyer (scénario 3). Ces deux derniers scénarios correspondent à ceux où les données peuvent permettre d’établir une offre commerciale d’optimisation du rendement énergétique ou pour le scénario 3 de permettre, par exemple, de l’effacement de la consommation.

Dans tous les cas, nous avons rédigé durant la concertation des recommandations pour que les produits et services qui vont être développés respectent la loi informatique et libertés. Il s’agit de favoriser ce que nous appelons le « privacy by design » ou la vie privée dès la conception.

La CNIL a régulièrement fait part de sa position au sujet de la protection des données personnelles issues des compteurs évolués. Mais quelle est sa position quant aux données issues des Smart grids en général (données patrimoniales, données techniques, données de mesure de la qualité d’alimentation, données de consommation, données de production, etc.) ?

Dans sa recommandation de 2012, la CNIL s’est clairement exprimée pour offrir un cadre aux données produites en amont du compteur dans lequel était prise en compte la nécessité d’assurer la réparation des incidents et l’optimisation du réseau. Il s’agissait d’une première réflexion menée à l’issue d’une concertation au vu de l’état de la technique et sa connaissance du sujet.

Elle ne s’est pas encore exprimée sur les données des Smart grids dans leur globalité. Cependant, les données issues des Smart grids ou qui peuvent s’y rattacher ne sont pas uniquement des données purement énergétiques et de comptage globalisé. Cela n’aurait pas de sens et serait par ailleurs antinomique de l’idée de Smart grid et plus généralement de ce mouvement qui connecte l’individu et l’environnement pour obtenir de meilleures performances ou un niveau de service supérieur. Les fichiers clients des distributeurs d’énergie comportent de nombreuses données sur le client ou son environnement qui permettent d’améliorer et d’adapter l’offre aux besoins du foyer. Cependant, il serait également faux de considérer que toutes les données sont nécessairement des données personnelles pour lesquelles le consentement de l’individu prime nécessairement. Pour l’essentiel, il me semble que la question des données des Smart grids va être celle de l’anonymisation des données et du niveau d’agrégation permettant à la fois de tirer profit des données, mais aussi ne pas sacrifier la vie privée des personnes.

Que pensez-vous d’un service public de la donnée ?

L’idée d’un service public de la donnée est une idée dont nous comprenons bien l’utilité mais qui oblige à se poser la question initiale de la nature des données. La CNIL n’est compétente que dans la régulation des données personnelles. Ce ne sont donc pas toutes les données, et surtout ce ne sont pas n’importe quelles données, dont il nous appartient de veiller au bon usage.

Quand on pense données de consommation issues des compteurs, on pense immédiatement aux informations commercialement sensibles qui sont protégées par des textes. Notre philosophie n’est finalement pas si éloignée sur cette question du service public de la donnée. Les données anonymisées convenablement ou agrégées à des niveaux qui empêchent toute ré-identification des personnes nous paraissent pouvoir bénéficier à la collectivité et faire l’objet d’un traitement au titre du service public de diffusion. Cette idée est d’ailleurs très largement celle qui guide l’accès aux documents administratifs et aux données publiques dans le cadre des politiques d’ouverture des données publiques.

Cependant, comme pour les données publiques, quand elles concernent des citoyens, et ici des consommateurs identifiés ou identifiables, il n’y pas de raison de considérer que tout un chacun doit pouvoir en avoir connaissance. C’est à la loi et à la volonté individuelle de gérer cet accès comme cela a été dit dans la recommandation de la CNIL sur les réseaux intelligents.

Quelle différence faites-vous entre la protection de la vie privée et la sécurité des données ?

De prime abord, la question de la vie privée et de la sécurité technique des données n’est pas évidente mais en réalité les deux sont intimement liées. La sécurité est une condition du respect de la vie privée comme les volets de la maison sont une condition de l’intimité et de la sécurité du foyer.

La loi du 6 janvier 1978 associe donc fortement la sécurité des données à la préservation de la vie privée des personnes. La loi envisage la question au travers de plusieurs articles dont le plus important est l’article 34. Cet article pose un impératif de sécurisation et de confidentialité à celui qui entend traiter des données personnelles.

En effet, l’un des risques qui pèse sur les personnes est celui d’un accès non autorisé aux données par des personnes mal intentionnées. Il faut donc se prémunir contre les négligences mais aussi contre les malveillances. La CNIL est donc tout particulièrement attentive à cette question aussi bien dans la perspective d’éviter la dissémination involontaire des données que pour éviter les actes malveillants dont l’impact sur les personnes peut être important.

On pense évidemment aux usurpations d’identités mais aussi, comme cela a été le cas dans les travaux menés sur les Smart grids avec la FIEEC, aux conséquences sur le fonctionnement des appareils électriques, sur l’utilisation qui pourrait être faite par un cambrioleur d’une information sur l’occupation du logement en période estivale.

Dans le travail de scénarisation que nous avons conduit, nous avons mis en balance le risque et l’atteinte à la vie privée qui en résulte pour en déduire le niveau de sécurité adapté.


Sophie Nerbonne
21 novembre 2014



Diplômée de l’Institut d’études politiques de Paris et titulaire d’une maîtrise de droit à Paris II Assas, Sophie Nerbonne a tout d’abord été juriste d’entreprise avant de rejoindre la CNIL où elle a mené une carrière l’ayant successivement conduite de la prise en charge de secteurs (justice, éducation nationale, banque et assurance). Elle accède au poste de responsable de l’unité Economie au service juridique (1992) puis à celui de chef de service à la direction juridique (2001) et en 2007, à celui de directrice adjointe des affaires juridiques, de l’expertise technique et des affaires internationales à la CNIL. Depuis septembre 2014, elle est directrice de la direction de la conformité, issue de la réorganisation des services de la Commission de mars 2014, dont l’activité est tournée vers les professionnels et consiste à promouvoir une gamme élargie d’outils de régulation, dans une logique de simplification administrative et d’accompagnement des acteurs.



La Commission nationale de l’informatique et des libertés (CNIL) est chargée de veiller à ce que l’informatique soit au service du citoyen et qu’elle ne porte atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques.
Elle exerce ses missions conformément à loi du 6 janvier 1978 dite loi informatique et libertés qui la qualifie d’autorité administrative indépendante.

Interview de Laurent Schmitt (Alstom Grid) :

Que représentent le big data et la sécurité des données pour Alstom Grid ? Comment faites-vous face à cette évolution ?

Alstom Grid fournit aux acteurs du monde de l’énergie des solutions logicielles de pilotage de systèmes énergétiques pour la gestion des marchés, des réseaux de transport et de distribution et de centrales virtuelles. Alstom Grid est, de ce point de vue, directement impliqués dans de nombreux démonstrateurs technologiques de réseaux électriques intelligents, une trentaine dans le monde, notamment en France au sein des projets ReFlexE, Nice Grid, Smart Grid Vendée et Postes électriques intelligents. Ces projets convergent aujourd’hui sur les nouveaux besoins de flexibilité du système électrique pour faire face aux enjeux de l’intermittence des énergies de sources renouvelables et de la résilience de ces systèmes aux catastrophes naturelles.

Ceci nécessite de faire évoluer nos solutions logicielles de pilotage pour les interfacer à de nouveaux points de contrôle et de pilotage diffus – qu’il s’agisse de production diffuse, d’effacement, de stockage ou de véhicules électriques – et donc, de facto, d’intégrer de nouvelles sources de données amenées à croître exponentiellement dans les années à venir. Le compteur évolué est un exemple concret de ce phénomène sachant que ce dernier est une des premières options clés pour interfacer ces nouveaux gisements de flexibilité diffus. En parallèle, les nouveaux objets issus du monde de l’Internet amènent d’autres options souvent complémentaires, les thermostats ou les bornes de recharge intelligentes en sont d’excellents exemples. Alstom Grid travaille pour ouvrir nos solutions de pilotage à ces nouveaux flux de données en veillant à respecter strictement la confidentialité des données associées.

Pouvez-vous nous parler de votre travail avec Intel sur la sécurité des données dans les Smart grids ?

Cette nouvelle ouverture des solutions de pilotage rend ces systèmes plus vulnérables aux attaques tant internes qu’externes. Les réseaux électriques comptant parmi les infrastructures nationales les plus critiques, Alstom Grid travaille à renforcer la sécurité de ses systèmes en veillant à prendre en compte leur architecture de bout en bout et à doser le bon niveau de sécurité à chacun des niveaux de l’architecture.

Alstom Grid a contribué à la mise en œuvre de nouvelles normes et recommandations à l’échelle européenne en partenariat avec les initiatives des organismes CEN-CENELEC-ETSI et de l’ENISA et aux États Unis en partenariat avec le Smart Grid Interoperability Panel (SGIP – organisme qui travaille à accélérer la mise en œuvre de dispositifs et de systèmes Smart grids interopérables). Ces recommandations sont aujourd’hui intégrées dans les feuilles de route de nos plates-formes d’automatismes et de nos solutions de pilotages énergétiques. Elles donnent lieu au développement de nouveaux composants technologiques par exemple, mis en œuvre dans le cadre de projets tels que le projet Postes électriques intelligents en France. Le renforcement de la sécurité de nos solutions passe par des collaborations étroites avec quelques partenaires technologiques stratégiques dont Intel et McAfee dans le domaine de la cybersécurité. Alstom Grid a produit un white paper avec Intel et McAfee (Smart grid cyber security) précisant ces visions et architectures communes et servant de cadre à ces efforts.

Vous avez déployé des infrastructures big data pour recueillir les données des équipements de distribution électrique. Pouvez-vous nous expliquer les technologies mises en œuvre et les raisons de ce déploiement ?

Les premiers déploiements de démonstrateurs ne nous ont pas encore totalement exposés au réel tsunami du big data, parce qu’il s’agit, dans la plupart des cas, de micro-réseaux intégrant quelques milliers de clients. La mise à l’échelle de ces concepts – qui a démarré aux États-Unis depuis quelques mois – nécessite néanmoins d’anticiper ces nouvelles contraintes liées à la volumétrie des informations à traiter. Alstom Grid teste, en ce moment, des nouveaux composants technologiques et architectures issus du monde de l’Internet, visant par exemple à extraire des informations « ultra temps réel » des compteurs évolués associés à des gisements de flexibilité diffuses. Ceci pose non seulement la question du traitement de l’information mais aussi de l’architecture des moyens de communication et de la gestion de la confidentialité des données.

Des premiers prototypes fonctionnent, démontrant des gains de performance significatifs par rapport à des architectures plus classiques d’acquisition de données. En parallèle, nos projets démonstrateurs tels que les projets Nice Grid réalisé avec ERDF ou DOE Integrated Smart Distribution réalisé avec Duke Energy aux États-Unis nous permettent d’affiner les cas d’usage nécessitant ce type de collecte d’information « ultra rapide ». L’objectif de ces architectures est de proposer une approche « chirurgicale » du traitement des données selon les usagers et la pertinence économique d’une collecte d’information ultra rapide.

Vous avez présenté avec GDF Suez dans le cadre du plan industriel big data un projet de plate-forme de centralisation des données, combinant données énergétiques, de transport et tout ce qui est relatif à la ville intelligente. Pouvez-vous nous expliquer ce qu’il en est ? Quel est le rôle d’Alstom Grid dans ce projet ?

Les premiers éléments de ces nouvelles architectures ont été conçus dans le cadre de projets d’innovation internes et de projets d’innovation collaborative tel que le projet Energy Positive IT portant sur les nouveaux concepts de système d’information ouverts pour le pilotage des microgrids urbains. Cette nouvelle plate-forme a récemment été fournie à la plate-forme Smart City Energy de l’Institut de recherche technologique SystemX situé sur le plateau de Saclay, à laquelle contribuent différents acteurs dont GDF Suez, Alstom Transport, CoSMo et G2Mobility. L’objectif de cette plate-forme est de permettre une gestion « ultra temps réel des objets énergétiques » et vise à renforcer les capacités de « Machine learning » issues de ces données ultra temps réel.

Alstom Grid fournit sa plate-forme technologique big data pour permettre à SystemX et à ses partenaires de mener leurs recherches et d’affiner leurs modèles de données associées. La plate-forme permet de s’interfacer avec des objets intégrés aux systèmes énergétiques tels que les compteurs évolués mais aussi des objets issus du monde de l’Internet, par exemple des sous-compteurs électriques associés à des gisements de flexibilité diffus, des bornes de recharge intelligentes et des thermostats intelligents. Notre partenaire CoSMo travaillera notamment sur de nouveaux outils d’analyse prédictive et d’évolution des systèmes énergétiques urbains, qu’il faut calibrer au mieux avec des données temps réels issus du monde concret de l’énergie.


Laurent Schmitt
5 décembre 2014



Laurent Schmitt a rejoint Alstom Grid en juin 2010 en tant que Vice-Président Smart Grid où il est en charge de développer l’offre d’Alstom dans le segment des réseaux intelligents (Smart Grid), à la suite de l’intégration des activités d’AREVA T&D au sein d’Alstom en juin 2010.
Il commence sa carrière dans le domaine de la production d’électricité auprès d’Alstom Hydro et de Thermal Plant Controls, en Amérique du Nord. En 2007, il devient Directeur Stratégie de l’unité Automation d’AREVA T&D. En 2008, il est nommé Vice-Président Stratégie & Innovation pour les activités de gestion de l’énergie.
Laurent Schmitt est ingénieur en systèmes électriques, diplômé de Supélec Paris. Membre de plusieurs comité industriels stratégiques qui travaillent sur les réseaux intelligents, tels que le CIGRÉ, la CEI, l’EPRI, l’ENTSO-E et European Smart Cities Platform, il contribue régulièrement aux travaux de plusieurs groupes spécialisés auprès de la Commission européenne sur les sujets de la production électrique, des réseaux électriques et dans les applications de stockage.

Alstom Grid crée des solutions innovantes pour développer, partout dans le monde, un réseau électrique fiable, flexible, accessible à tous et respectueux de l’environnement. Nous concevons, produisons, installons et maintenons les systèmes et produits de transmission et de distribution d’électricité qui alimenteront une économie à faible émission de carbone pour notre planète, aujourd’hui et demain. Alstom Grid a plus de 130 ans d’expérience et se positionne parmi les 3 premiers acteurs du secteur de la transmission électrique, avec un chiffre d’affaires annuel de 3,8 milliards d’euros. Les 17 000 employés d’Alstom Grid, répartis dans 87 sites de fabrication et d’ingénierie dans le monde partagent la même mission : être le partenaire de confiance de nos clients, de la centrale électrique jusqu’à la ville. Energiser un monde plus intelligent avec Alstom