Haut de page

Accueil » Tous les dossiers » Les NTIC

Introduction : Le rôle crucial des NTIC pour les réseaux électriques intelligents

Lors de l’annonce de l’American Recovery and Reinvestment Act en 2009 (plan de relance économique des États-Unis), le Président Barack Obama avait indiqué que les 4,5 milliards de dollars consacrés à la modernisation les réseaux électriques américains et à leur évolution vers des réseaux électriques intelligents devaient être prioritairement orientés vers l’extension du réseau de communication haut-débit sur l’ensemble du territoire américain.

En France, l’importance des technologies de l’information et de la communication (TIC) pour le développement et l’optimisation des réseaux et du système électriques a également été mise en évidence lors de plusieurs consultations conduites auprès des industriels français du secteur de l’énergie et des TIC sur le sujet. À l’été 2010, une consultation « Smart Grids » a été lancée par le secrétariat d’État à l’Économie numérique et de juin à octobre 2011, une consultation a été menée dans le cadre du Plan France Numérique 2020. À l’issue de celle-ci, le ministre de l’Industrie, Eric Besson, a indiqué que le rapprochement des acteurs des TIC et de l’énergie au travers de projets communs faisait partie des 57 objectifs prioritaires du Plan France Numérique 2012-2020.

En effet, étant donné que l’industrie électrique et l’industrie des télécommunications sont traditionnellement fondées sur des modèles régulatoires spécifiques et que de nombreuses différences existent entre ces deux industries, il sera nécessaire de rapprocher les acteurs et de renforcer les synergies entre les deux domaines afin de développer un réseau de communication qui soit fiable, sécurisé, facilement évolutif, toujours disponible et robuste, c’est-à-dire capable de faire transiter des volumes très importants de données.

Afin d’atteindre cet objectif, un groupe de travail rassemblant tous les industriels concernés a été mis en place et des fonds ont été levés dans le cadre des Investissements d’avenir pour financer des projets de recherche ou de démonstrateurs communs aux deux industries. Des efforts soutenus de R&D dans le domaine des Smart grids permettront notamment aux industriels TIC français de renforcer leur capacité d’innovation et leur compétitivité. Ils devront notamment travailler au niveau des trois « couches » technologiques mises en œuvre dans les Smart Grids :

  • les infrastructures du réseau électrique (enjeux portant sur l’électronique de puissance, les systèmes électroniques de pilotage, etc.),
  • les infrastructures des réseaux de communication (enjeux technologiques, dans le domaine du logiciel et autour de la résilience et de la sécurité des réseaux),
  • les couches logicielles « supérieures » de pilotage de ces infrastructures (enjeux portant sur les architectures informatiques à déployer et sur la modélisation pour autoriser le passage à l’échelle).

Il s’agit donc de parvenir à utiliser tout le potentiel des technologies numériques pour répondre aux nombreux défis auxquels est confronté le système électrique français aujourd’hui : assurer la sécurité et la qualité de l’approvisionnement en électricité, permettre la maîtrise de la demande en électricité et la maîtrise des pointes et s’adapter pour faciliter l’insertion des installations de production d’électricité renouvelable.

Les NTIC joueront donc un rôle fondamental dans le développement des Smart grids sur l’ensemble de la chaîne de valeur, que ce soit en amont comme en aval du compteur. Elles assureront l’interaction active entre l’amont et l’aval du compteur communicant et apporteront des solutions nécessaires aux réseaux (infrastructures de communication sécurisées, logiciels de pilotage, etc.) et à la maîtrise de la consommation énergétique chez les consommateurs, par le biais notamment d’afficheurs ou de boîtiers (connaissance par le consommateur de sa consommation, pilotage des appareils).

Les Smart grids constituent de ce fait une filière stratégique de croissance pour les technologies numériques. Les analystes de Cisco estiment que le marché mondial de la communication pour les Smart grids atteindra les 20 milliards de dollars par an d’ici cinq ans.

Dans ce cadre, quelle est l’architecture du réseau de communication ? Ce réseau est-il ouvert comme pour les communications Internet ou suit-il le schéma traditionnel des réseaux de communication utilisés par les gestionnaires des réseaux électriques ? Quelles sont les normes ? Comment est assurée la sécurité des réseaux et des données qu’ils transportent ? Comment l’accès aux données sur la consommation électrique et leur conservation est-il géré ? Comment assurer l’acceptabilité sociale des dispositifs de maîtrise de l’énergie qui pourront être mis à disposition des consommateurs finaux ?

Pour en savoir plus :

American Recovery and Reinvestment Act – Smart grids
France Numérique 2012-2020 – 57 objectifs prioritaires
France Numérique 2012-2020 – Bilan et perspectives – Novembre 2011

La distribution des architectures et la mutualisation des réseaux de communication

Le développement progressif des Smart grids, et bientôt des Smart cities, génère une augmentation colossale du nombre de données à collecter, à gérer et à traiter. Ce phénomène a déjà été clairement identifié dans le cadre du déploiement des compteurs intelligents et va être décuplé dans les années à venir.

Dès lors, il faut s’interroger. Les capacités de stockage et de traitement de données par les systèmes informatiques actuels ne vont-elles pas limiter à court terme le déploiement des Smart grids ?

Pourrons-nous surveiller et gérer les réseaux électriques avec la précision voulue, sachant que, plus la surveillance est précise, plus elle requiert un nombre important d’informations ?

Le succès des Smart grids et des Smart cities sera-t-il conditionné à des ruptures technologiques et architecturales des systèmes d’information ?

Les limites au développement de nombreuses applications Smart grids, révélées par les premiers projets pilotes, concernent l’architecture même des applications et les réseaux de communication des données :

  • la bande passante des réseaux de communication disponibles est insuffisante et limite le nombre d’informations transmises ou la fréquence des transmissions ;
  • le coût opérationnel très élevé des communications entraîne une autocensure des besoins de chaque application ;
  • la capacité de stockage des données doit être considérablement augmentée ;
  • les consommateurs autant que les professionnels de l’énergie craignent de plus en plus la vulnérabilité des applications face à d’éventuelles cyber-attaques et intrusions.

Un gestionnaire de réseau se heurte d’autant plus rapidement à ces problèmes qu’il adopte une démarche linéaire pour le développement d’un Smart grid, procédant application après application. Par exemple, une infrastructure de communication parfaitement conçue pour une première série de besoins prédéfinis peut se révéler insuffisante pour absorber de nouveaux besoins.

Les évolutions vers des applications plus gourmandes en données sont difficiles et couteuses. La valeur créée par les Smart grids en est fortement impactée.

Dans de nombreux cas, une approche holistique des projets de Smart grids, reposant sur l’élaboration d’une vision et d’une feuille de route de déploiement, permettra des gains économiques très importants :

  • elle conduira à prévoir une architecture modulaire, évolutive, extensible des applications Smart grids ;
  • elle évitera l’obsolescence de certaines solutions, pourtant récemment déployées, face aux évolutions.

Les architectures ainsi définies reposeront sur deux principes, déjà testés dans le cadre de nombreux pilotes, le plus important étant probablement celui conduit par Duke Energy aux États-Unis :

  • la distribution des applications : les logiciels ne seront plus centralisés en un lieu vers lequel convergent l’ensemble des données nécessaires. Ils seront, selon le besoin de chaque application et en lien avec la réglementation en vigueur, partiellement repartis entre une plateforme locale - un nœud - et un lieu centralisé. Le nœud gèrera de manière autonome, selon un paramétrage donné et modifiable à distance, la collecte des données et un premier niveau de traitement de ces données. Ce nœud pourra alors gérer un premier niveau de réaction local, autonome, et l’envoi vers le site central des seules données utiles à ce niveau ;
  • la mutualisation des réseaux de communication : plusieurs applications Smart grids utiliseront le même réseau et les mêmes nœuds entrainant des économies opérationnelles et d’investissement très importantes.

Les premiers déploiements de ces architectures (partiellement) distribuées montrent de très nombreux avantages :

  • le nombre de données communiquées au système central est très fortement diminué, réduisant d’autant les besoins de stockage et de bande passante ;
  • la continuité de service des applications est améliorée : une interruption de fonctionnement affecte un nombre réduit de clients ou de points finaux ;
  • certaines boucles de réaction sont plus rapides car gérées localement ;
  • enfin, et surtout, le décloisonnement des applications au niveau des nœuds permet des échanges de données entre applications, impossibles auparavant, créant une valeur importante.

Par exemple, à l’échelle d’un petit territoire couvert par un nœud, un premier niveau de gestion de charge peut être assuré en fonction de la caractéristique des actifs locaux ainsi qu’un premier niveau d’adéquation charge-capacité.

La distribution des architectures et la mutualisation des réseaux de communication ont pour but de repousser les limites actuelles des solutions de Smart grids et de favoriser l’émergence de solutions plus sophistiquées tout en en maîtrisant les coûts. Elles se révèlent aussi être un moyen de créer une importante valeur supplémentaire et d’atteindre de nouveaux seuils de rentabilité, prometteurs, pour les projets de Smart grids.



Cette fiche a été rédigée par Ambient Corporation et Mach&Team.




Quels modèles pour les Smart grids communicants ?

Contexte et enjeux

Jusqu’au début du XXIème siècle, les réseaux électriques et les réseaux de communication électroniques se sont développés selon des modèles indépendants tirés chacun par des besoins différents.

Les réseaux électriques utilisent depuis longtemps des systèmes de communication électronique et d’information pour assurer la transmission des données nécessaires à la gestion de la production, du transport et de la distribution d’énergie. Néanmoins, contrairement aux réseaux de communication et d’échanges de données fondés sur l’approche décentralisée et ouverte de l’Internet, les systèmes d’information dédiés aux réseaux électriques étaient, et sont encore aujourd’hui, pour l’essentiel, dédiés et fermés et ne sont pas orientés vers les clients finals.

Les pressions qui pèsent depuis quelques années sur le modèle énergétique traditionnel (augmentation constante de la demande, rareté des ressources, réchauffement climatique, capacité et sécurité des systèmes de production, de transport et de distribution) poussent à une révision de ce modèle. L’enjeu consiste à développer une gestion plus fine, plus agile et plus en temps réel de l’énergie électrique, du côté de la production comme du côté de la consommation.

Quel(s) modèle(s) de réseau de communication pour les Smart grids ?

Logique centralisée top-down ou approche multicouches bottom-up ?

Le concept de Smart grids peut être envisagé selon deux grands prismes différents : une approche centralisée top-down ou une approche ouverte bottom-up.

L‘approche centralisée top-down s’inscrit dans le modèle traditionnel de la gestion de l’énergie électrique. Cette approche consiste à bâtir des Smart grids au service des producteurs, du transporteur et des distributeurs d’électricité. Dans le cadre d’une telle approche, les réseaux électriques intègrent des systèmes de communication et d’information qui accroissent la capacité à piloter l’offre aux différents niveaux du système (production, transport et distribution) et l’interface entre ces niveaux. Les technologies de communication et d’information mobilisées dans ce type d’approche sont, généralement, fondées sur des réseaux filaires dédiées aux systèmes qu’elles servent et gérées par des environnements propriétaires pour la partie hardware comme pour la partie software. À tous les niveaux de la chaîne électrique, il convient d’assurer la sécurité et la fiabilité des informations échangées.

L‘approche ouverte bottom-up, en revanche, sort du cadre conventionnel de la gestion de l’énergie. Elle est fondée sur la prise en compte des actions des clients finals dans les Smart grids et vise à permettre à ces derniers de piloter et d’optimiser leur consommation d’énergie. Cette approche comprend, entre autres, le déploiement de systèmes de comptage évolués, des systèmes de pilotage des équipements consommateurs d’énergie électrique (bâtiments intelligents, domotique, etc.) ou des équipements d’effacement diffus. Dans le cadre de cette approche, les réseaux de télécommunications existants peuvent directement être mobilisés :

  • les gestionnaires d’énergie en aval du compteur transmettent les informations collectées via les réseaux mobiles (2G, GPRS, 3G) et/ou les réseaux WiFi ;
  • les bâtiments intelligents peuvent être gérés grâce des plateformes utilisant les technologies et protocoles d’Internet (gestion locale ou à distance), dans la mesure où les systèmes gérés ne nécessitent pas des protocoles de sécurité très exigeants (par exemple : gestion de l’énergie électrique des systèmes de transport collectifs, etc.) ;
  • les informations transmises aux clients finals, dans le cadre d’une démarche d’effacement diffus peuvent être envoyées sous forme de données par Internet via des réseaux fixes et/ou mobiles.

Les approches top-down et bottom-up ne sont pas exclusives. Elles doivent au contraire coexister et communiquer intelligemment. Les acteurs du secteur électrique s’accordent sur le fait que les Smart grids ne peuvent être fondés exclusivement sur un système d’information unique et centralisé.

Du côté de l’offre, les contraintes de fiabilité et de sécurité qui pèsent pour l’essentiel sur la production et les réseaux continueront vraisemblablement à requérir des systèmes de communication et d’information dédiés et fermés.

Du côté de la demande, les contraintes de souplesse et de faisabilité technique et financière poussent pour des systèmes ouverts, partageables utilisant les réseaux de télécommunications existants.

L’enjeu consiste à promouvoir une démarche de « Smart grids agiles » qui assure un pilotage optimisé, en temps réel, de l’offre et de la demande d’énergie électrique. Cette approche de Smart grids agiles repose sur le développement d’interfaces entre les systèmes de communication d’information et de production coté offre et coté demande. Il importe que la communication soit bidirectionnelle, les systèmes de production et de transport doivent être le plus possible informés en temps réel de l’état de la demande. De même, il importe que les clients finals soient informés de l’état des capacités de production et de l’état de l’équilibre du réseau de transport afin, par exemple, de s’effacer ou de recourir à d’autres sources d’énergie.

Dans cette optique, l’interaction entre les Smart grids et les systèmes de communication et d’information ne doit pas être envisagée sous le seul angle des « tuyaux » qui permettent de transporter les données relatives à l’énergie électriques qui s’échangent. L’approche Smart grids nécessite une couche de services et d’applications qui assurent, pour les utilisateurs des réseaux une accessibilité aux informations, des analyses pertinentes, une historisation et la possibilité de réagir en activant des fonctionnalités adaptés ou en ajustant le comportement de consommation électrique en temps réel.

Conclusion : les systèmes de communication et d’information mobilisés par les Smart grids sont multiples et doivent être adaptés aux besoins des différents acteurs

Les Smart grids ne peuvent s’appuyer sur une unique technologie de communication. Chaque acteur des réseaux électriques a des besoins différents et entretient un mode de relation avec les réseaux qui requiert un système adapté.

La production et le transport d’énergie électrique ont besoin de systèmes de communication et d’information offrant un haut niveau de sécurité et de fiabilité. Les technologies déployées seront plutôt de type filaire et dédié. Quant aux services et applications associés, ils seront également propriétaires et plutôt fermés. Cependant les producteurs et transporteur d’électricité peuvent utilement être équipés de systèmes leur fournissant des informations sur l’état des réseaux de distribution et des installations électriques chez les clients finaux.

Le réseau de distribution électrique constitue le dernier maillon avant les clients finals. Chaque nœud du système (relation réseau de distribution-client final ou relation réseau de distribution-réseau de transport) peut utilement être équipé de systèmes de communication et d’information bidirectionnels plutôt fondés sur les systèmes classiques de télécommunications (fixes ou mobiles) tant qu’il s’agit d’échanger des informations entre l’offre et la demande. La gestion des équipements de transformation/conversion du courant électrique relève quant à elle davantage des systèmes de communication et d’information utilisés par les producteurs et transporteur.

Enfin les clients finals, dans le cadre de la gestion « intelligente » de leur consommation, ont plus de gains à attendre de systèmes de communication et d’information fondés sur l’usage d’Internet. Celui-ci assure en effet une bonne intégration dans le quotidien, une grande souplesse et des coûts modérés (pas besoin d’investir dans des supports ou des terminaux de communication dédiés, environnements utilisateurs a priori maîtrisés et connus). Il convient cependant de nuancer cette approche pour les grands consommateurs d’énergie (entreprises de transports ferroviaires, chimie, etc.) qui peuvent avoir besoin de mettre en place des systèmes de communication et d’information plus ou moins dédiés/fermés pour l’énergie électrique consommée pour produire les biens et services.



Cette fiche a été rédigée par Tera Consultants.




L’Internet des Objets, au cœur du « Smart grid »

Le nom « Internet des Objets » (« Internet of Things » ou simplement IoT en anglais) fait partie de ces expressions à la mode qui, par conséquent, en deviennent un peu suspectes. L’expression désigne en fait la place de plus en plus grande que prennent les automatismes distribués à base de capteurs, senseurs, actionneurs communicants (par exemple le téléphone, la voiture, l’alarme, le ballon d’eau chaude…) dans presque tous les secteurs de l’économie. On parle habituellement d’applications « Machine to Machine » (machine to machine ou M2M en anglais). Etant donné que de plus en plus d’automatismes, mis en œuvre par des acteurs très différents, sont amenés à interagir entre eux, il est tentant de désigner ce phénomène par son aboutissement ultime, celui où tout système automatisé peut optimiser son fonctionnement en communiquant en temps réel avec la totalité de son environnement : l’Internet des Objets. Les Japonais parlent aussi de « Smart communities ».

Pourquoi l’Internet des Objets est-il une technologie clef pour le Smart grid ?

Le secteur de l’électricité vit actuellement une grande mutation technologique que l’on peut résumer ainsi : d’un monde où la consommation est prédictible et où la production se planifie, nous passons progressivement dans un monde où la production est difficilement prévisible (en raison des énergies renouvelables intermittentes, il est devenu impossible de l’anticiper) et la consommation peut se planifier. Les progrès des technologies de l’information permettent en effet de rendre visible le coût instantané de l’électricité aux consommateurs industriels et aux gestionnaires d’énergie, responsables de grands ensembles immobiliers, et donc d’adapter la consommation à la production.

Ainsi, les technologies de l’Internet des Objets permettront de faciliter l’échange d’informations entre les besoins du réseau, le niveau des prix de l’électricité et le niveau de la consommation. Ces échanges permettront d’équilibrer le réseau avec plus d’efficacité par la connaissance des éléments calculés en temps réel comme les capacités d’effacement. En effet, les possibilités d’ajustement de consommation devront également être évaluées puis déclarées en temps réel aux responsables d’équilibre des réseaux de transport et de distribution, le marché prenant alors la forme d’un marché d’options sur le mode de fonctionnement du mécanisme d’ajustement actuel.

Ces nouvelles possibilités de contrôle en tout point du réseau à grande échelle viendront par ailleurs alimenter une autre révolution - à venir celle-là - qui est celle des réseaux de distribution. Alors que ces derniers ont été dimensionnés pour répondre à tout moment aux demandes de consommation et de production, les installations de production d’énergies renouvelables se multiplient et rendent plus incertain l’apport d’énergie dans le réseau. Le modèle d’équilibrage par le foisonnement des réseaux de distribution est donc remis en cause. En effet, les acteurs sont amenés naturellement, par le marché, à avoir des comportements identiques au même moment. Pour caricaturer un peu, une rafale de vent en Allemagne qui fait chuter les prix instantanés de l’énergie amènera demain un nombre important de consommateurs à se ruer sur cette occasion pour consommer plus. Le dimensionnement du réseau deviendra donc de plus en plus coûteux au fur et à mesure, d’une part, du développement des énergies renouvelables et, d’autre part, du comportement synchronisé des consommateurs en fonction de l’état du marché.

De nouveau, la solution passera probablement par les technologies de l’Internet des Objets : il faudra soumettre certains producteurs, et tout particulièrement les producteurs d’énergie intermittente, et certaines charges, notamment celles engendrées par les véhicules électriques, à un contrôle d’admission. Cela signifie que le réseau de distribution se réservera le droit, quelques heures par an, de ne pas autoriser certaines injections ou certains soutirages. En permettant d’éliminer les évènements statistiquement improbables mais possibles, cela permet de préserver un dimensionnement « raisonnable » du réseau, et donc de générer une économie pour le système supérieure au coût engendré (manque à gagner des injections refusées, inconfort des soutirages refusés). On pourrait ainsi imaginer à l’avenir que ces économies soient partagées, c’est-à-dire que le coût des accès au réseau soumis à contrôle d’admission soit inférieur au coût des accès restant en admissibilité totale.

Les développements technologiques de l’Internet des Objets

Au cœur des évolutions technologiques de nombreux secteurs, les technologies de l’Internet des Objets progressent rapidement. Nous parlerons ici de trois développements principaux, depuis la couche physique jusqu’aux aspects systèmes :
  • l’amélioration des technologies radio pour les automatismes ;
  • l’arrivée de l’IP sur les bus terrain (système de communication entre plusieurs ensembles communicants tels que des capteurs, des microcontrôleurs ou encore des actionneurs) et les applications bas débit/basse consommation ;
  • la normalisation des aspects systèmes du M2M.

L’amélioration des technologies radio

La communication entre automates a longtemps été l’apanage des technologies filaires. Cependant, pour de nombreux usages émergents, les technologies radio possèdent des avantages importants : réduction des coûts et des délais d’installation, mise en place sur le parc immobilier existant, flexibilité. Toutefois, l’industrie restait tenaillée entre la nécessité de fabriquer des produits utilisables dans le monde entier - la seule bande libre mondialement étant la bande du 2,4 GHz - et la faible performance relative de ces mêmes bandes de fréquence dans les bâtiments européens en béton. De plus, le niveau technologique des normes les plus acceptées, notamment IEEE 802.15.4-2003, était devenu significativement inférieur à celui des solutions propriétaires.

L’impulsion donnée par la recherche de meilleures solutions pour le Smart grid aux États-Unis a ouvert de nouvelles perspectives. Les normes 802.15.4g et 802.15.4e, notamment, représentent des progrès très importants :

  • de nombreux canaux nouveaux sont ouverts dans les bandes de fréquence dites « sub-GHz », qui pénètrent mieux les bâtiments pour une même énergie consommée. Les modulations définies couvrent l’ensemble des pays, permettant de concevoir des composants radio à la fois universels et adaptés à chaque besoin national ;
  • des modes de transmission à saut de fréquence sont définis, permettant la coexistence de nombreux systèmes en déploiement très dense sans complexifier la configuration, et tout en augmentant fortement la robustesse des transmissions ;
  • des modes de transmission fortement synchronisés sont spécifiés, permettant de combiner de très faibles consommations et de faibles latences de transmission sur des liens bidirectionnels.

Ces progrès laissent entrevoir un très fort développement des technologies radio normalisées pour toutes les applications des bus terrain (confort, énergie, ou sécurité par exemple) dans les années à venir.

L’arrivée d’IP sur les bus terrain

Il y a encore 20 ans, le choix de la technologie de réseau local d’un bâtiment était véritablement cornélien : Ethernet, Token-Ring, NetWare, etc., où la technologie physique et la couche réseau étaient interdépendantes. En quelques années, la mise en place de la couche IP, qui isole totalement la couche réseau de la couche physique, a fait oublier ces difficultés.

De même, aujourd’hui, les architectes doivent jongler entre les bus terrain KNX, LON, Modbus et autres Dali, et l’ensemble des passerelles entre ces divers univers. Le problème est que le domaine du bus terrain, fortement contraint par les coûts et les débits disponibles, restait inaccessible à l’IP. Cependant, après des années de travail, l’Internet Engineering Task Force (IETF qui produit la plupart des nouvelles normes d’Internet) a réussi un tour de force : faire passer de l’IPv6 – c’est-à-dire la version la plus évoluée et la plus consommatrice en ressources des différentes versions du protocole IP - sur les réseaux à très bas débit. En complément, la solution est également étudiée pour fonctionner sur les réseaux dont la performance en transmission est faible et aléatoire, comme les liens radio ou les liens CPL bas débit. L’IETF désigne ces difficultés sous le nom de « Lossy and Low Power networks » (LLNs), et la version d’IP véritablement tout terrain « 6loWPAN ».

La solution technologique permettant d’envisager une totale indépendance entre les couches physiques de bus terrain et leur couche réseau et donc, de passer en toute transparence d’un lien filaire à un lien radio ou CPL selon l’optimum de chaque cas, est donc prête.

La version d’IP « 6LoWPAN » va se développer dans les années à venir, et concomitamment la quasi-totalité des bus terrain évolueront vers l’IP. Cette évolution permettra aux automatismes d’univers différents de fonctionner ensemble et d’interagir simplement, alors qu’aujourd’hui, il est complexe et coûteux de faire communiquer les équipements venant de bus terrain différents qui sont autant de silos, car ils ne peuvent pas directement communiquer entre eux.

La normalisation des aspects systèmes du M2M

On désigne par « norme système » un ensemble de spécifications décrivant les interactions entre les équipements de tous les acteurs d’un écosystème technologique donné. Par exemple, le GSM est une norme système décrivant les relations entre les équipements des acteurs de l’écosystème des communications mobiles 2G : téléphones, antennes, opérateurs de réseaux, messageries SMS, etc.

Pour comprendre la nécessité de telles normes, prenons l’exemple d’un détecteur de mouvement à infrarouge, installé dans un salon. Ce même détecteur peut servir à des applications verticales très différentes : sécurité, maintien à domicile (chemin lumineux), climatisation (changement des points de consigne en cas d’absence prolongée). L’utilisateur ne souhaite pas nécessairement avoir dans son salon trois détecteurs de mouvement, trois réseaux domiciliaires, ou trois « box ». De même, pour des raisons d’économie, la ville de demain, aura sûrement intérêt à mettre en place un réseau unique de communication bas débit pour l’eau, le gaz, la maintenance des feux de signalisation, les mesures de trafic et de pollution, etc.

Il faut donc organiser la manière dont les acteurs de l’Internet des Objets pourront partager les ressources que sont les capteurs, les réseaux, et parfois les automates (les « box »), en toute sécurité et pour des déploiements très importants. Le géant des réseaux Cisco évoque plus de 50 milliards d’objets connectés en 2020.

En Europe et dans le monde, l’ETSI (European Telecommunications Standards Institute) conçoit de telles normes de niveau système. Il a notamment élaboré les normes GSM et 3G. En 2009, l’ETSI a lancé un nouveau « technical committee » pour élaborer une norme système pour le « machine to machine », sous le nom de TC M2M. La première version de cette norme vient de sortir, et elle permet déjà :

  • d’uniformiser la manière dont les applications de l’Internet des objets peuvent utiliser les ressources d’automates locaux, à travers le réseau ou localement ;
  • d’organiser la sécurité du réseau et l’étanchéité entre applications ;
  • d’offrir aux applications des ressources de stockage réseau bien définies, qu’elles peuvent utiliser aussi bien pour transmettre des informations (un capteur à piles qui s’allume, envoie ses informations et se remet en veille) que pour en recevoir (être notifié automatiquement lorsqu’un élément d’information est mis à jour).

Dans l’univers de l’énergie, il faut penser ETSI M2M dès qu’il y a un lien de données bidirectionnel entre deux objets ou applications. Par exemple en télé-relève, ETSI M2M complète utilement DLMS/COSEM (utilisé par les compteurs intelligents pour faire les relèves de courbes de charge) entre les concentrateurs et les applications de collecte. Au-delà du côté strictement technologique, la mutualisation des ressources permet de résoudre les impasses économiques de certaines applications verticales : telle application de télé-relève d’eau ou de gaz impossible à financer en silo devient évidente sur un réseau de collecte radio partagé. On pense aussi à l’équation économique des futures « energy box ».

Vers quels déploiements ?

Il semble encore très hasardeux aujourd’hui de dire quel acteur portera quel sous-ensemble technologique des futurs écosystèmes du Smart grid et de l’Internet des Objets. Cependant, l’évolution de la technologie pousse clairement dans le sens d’une disparition des silos et d’une certaine convergence. Dans ce contexte, on peut penser que la recherche de l’optimum économique poussera l’ensemble des acteurs à se spécialiser chacun dans leur domaine d’excellence et à collaborer pour construire le réseau électrique de demain.



Cette fiche a été rédigée par Actility.




La normalisation du Smart grid : l’Energie et l’Internet sur la voie de la compréhension mutuelle

L‘évolution vers les Smart grids a poussé l’ensemble des acteurs de l’industrie de l’énergie et des gestionnaires de réseaux à l’adoption de normes qui, d’une part, permettent la standardisation des produits, matériels, capteurs et logiciels et, d’autre part, facilitent la communication entre les divers composants des systèmes qui concourent à l’« intelligence du réseau ».

L’essentiel du corpus de normes, tant au niveau des modèles de données que des normes de communication, est maintenant largement présent dans tous les composants disponibles sur le marché et permet d’optimiser la construction de systèmes intelligents et interconnectés. L’évolution de ces normes, notamment en ce qui concerne les échanges de données, est souvent définie sur les standards TCP/IP (Transmission Control Protocol/Internet Protocol : ensemble des règles de communication sur Internet ; il se fonde sur une adresse IP propre à chaque machine du réseau afin d‘acheminer des paquets de données entre les différentes machines). Elle permet, là où c’est applicable, d’envisager un support de liaison à travers Internet ainsi que la conception de Web Services, notamment pour toutes les informations auxquelles les interlocuteurs, clients (particuliers, professionnels), producteurs ou acteurs publics (régulateurs, collectivités locales) peuvent avoir accès. C’est le cas des normes publiées par la Commission Electrotechnique Internationale (CEI) au niveau des interactions et automatismes de conduite (CEI 61850) ou du comptage (DLMS-COSEM – CEI 62056). Il en est de même des normes à venir dans le domaine du « Demand Response » à la suite des travaux de l’alliance OpenADR 2.0 qui regroupe des industriels du monde de l’énergie.

Parallèlement, d’autres initiatives industrielles s’appuient sur des standards de communication issus d’Internet dans la construction de solutions simples pour acheminer les données de santé, de comptage et/ou de commande au niveau du réseau et des équipements. Citons, notamment, les solutions fondées sur XMPP (Extensible Messaging and Presence Protocol, pour la messagerie instantanée et plus généralement une architecture décentralisée d’échange de données), publié par le même organisme qui avait défini l’ensemble des protocoles à la base d’Internet, à savoir l’Internet Engineering Task Force (IETF). Tous ces éléments de communication qui se retrouvent potentiellement sur Internet posent 3 grandes questions :

  • la qualité de service : certaines données comme le comptage ou des rapports de qualité, pour lesquelles la notion de temps n’est pas critique, peuvent être véhiculées sur un réseau tel qu’Internet sans engagement particulier pour la qualité de service. Le réseau Internet (jusqu’à IPv4) ne prévoit pas nativement de gestion de priorité, ni de bande passante garantie, ni de classes de débit temps réel pour favoriser les temps de traversée, ce qui convient à ce type de données. Il en est tout autrement des échanges industriels nécessitant une interaction en temps réel comme la supervision du réseau ou bien des alarmes de fonctionnement pour un équipement ou un segment de réseau. Le besoin de performance nécessite alors une garantie sur la vitesse et l’ordre d’arrivée des paquets de données. IPv6 offre dans ce cas une bonne gestion de la qualité de service (Quality of Service - QoS) ;
  • la volumétrie : l’utilisation d’Internet, y compris dans des liaisons point à point (entre deux équipements), pose, si on l’étend à un réseau ou un pays complet, un problème de volumétrie de données considérable qui menace potentiellement l’infrastructure centrale Internet du pays ou de la région ;
  • la sécurité et la confidentialité : les données et fonctions qui utilisent ces échanges ont de lourds impacts sur la sécurité de l’approvisionnement en énergie des personnes et des organisations, et doivent donc impérativement être protégées contre tout type de menace, qu’elle soit d’interception ou de modification. Dans cette optique la CEI a produit et continue de faire évoluer les standards CEI 62351 de sécurisation des systèmes et des échanges.

On peut également envisager des dialogues directs entre équipements énergétiques capables d’appréhender leur contexte et de s’auto-gérer, grâce à des initiatives comme l’Internet des Objets (Internet Of Things) qui ne feront pas nécessairement appel à une "intelligence" de gestion centralisée. Cependant, ces initiatives ne pourront apporter tout le potentiel qu’elles promettent que si elles reposent sur des standards de dialogue et d’infrastructure qui en permettent concrètement la mise en œuvre, d’un point de vue technique comme financier. Les acteurs de l’internet doivent pour cela collaborer étroitement avec ceux du monde de l’énergie afin de bien comprendre leurs problématiques spécifiques et qu’ensemble ils proposent des normes qui y répondent.

Dans cette logique nous ne pouvons que saluer l’adoption par l’European Telecommunications Standards Institute (ETSI) d’un protocole issu de l’Energy Services Network Association (ESNA) : l’Open Smart Grid Protocol (OSGP). L’OSGP vise à rendre compatibles différents appareils et technologies appelés à communiquer au sein du Smart grid et donc à réduire les coûts, améliorer la productivité et ainsi améliorer l’efficacité énergétique du système global.



Cette fiche a été rédigée par Steria.




Fragmentation des instances de normalisation

La normalisation jouera un rôle essentiel dans le développement des Smart grids. C’est un processus complexe car il s’agit de dégager des consensus techniques entre les différents acteurs. Dans ce domaine, la normalisation sera d’autant plus complexe à réaliser qu’il faudra faire converger les stratégies technico-industrielles distinctes des acteurs de l’énergie et des TIC. Deux univers, deux cultures techniques et deux approches de la normalisation différents, avec pour chaque domaine des instances de normalisation spécifiques.

Le paysage des organismes de normalisation est très complexe. Historiquement beaucoup d’organismes représentent les États, alors que d’autres représentent l’industrie elle-même. D’autres encore sont hybrides. Avec l’International Electrotechnical Commission (IEC), l’énergie dispose d’un organisme international qui s’appuie sur les structures nationales issues des administrations. Le secteur des TIC est plus diversifié avec plusieurs organisations d’essence étatiques (ITU, ISO, CEN, ETSI). L’ITU et l’ISO ont, notamment, joué dans le passé un grand rôle au travers de leur action dans le secteur des télécommunications fixes. Ce sont aujourd’hui des acteurs parmi d’autres, poussés plus par les pays émergents et asiatiques que par les États européens et les États-Unis. De nombreux organismes se sont en effet imposés dans le paysage de la normalisation sous la poussée des acteurs du marché et de manière plus ou moins indépendante des États mais souvent avec leur appui.

Le thème des Smart grids intéresse beaucoup les organismes de normalisation aujourd’hui. On peut représenter leur positionnement principal comme suit :

Ces organismes sont nombreux et souvent en concurrence. C’est le cas en Europe avec les trois organismes (CEN, CENELEC, ETSI) qui disposent jusqu’à présent d’un mandat général de la Commission européenne dans le cadre de la Directive 98/34/CE. Un mandat plus spécifique (M490) leur a été confié sur le thème des Smart grids. Un premier rapport a été publié, mais la production de normes communes reste encore assez lointaine. Dans la cadre d’une révision de sa politique de normalisation, la Commission européenne regarde si un lien doit être conservé avec les trois organismes, ou s’il n’y aura plus de norme dite européenne dans la future directive.

Côté énergie, l’IEC pilote les principaux sujets de normalisation à ce jour à l’échelle internationale. La France y est représentée par l’Union technique de l’électricité (UTE) qui est également membre du CENELEC. Le contexte est, de ce point de vue, plus simple, même si l’électricité reste un secteur où les spécificités restent très fortes en matière de normes.

Comment vont se comporter les acteurs des TIC dans ce nouveau champ de normalisation qui s’ouvre avec les Smart grids ? Il n’est par certain qu’ils se fondent naturellement dans le moule de l’IEC, d’une part, auquel ils ne participent pas sauf exception et, d’autre part, qui couvre selon eux une partie des sujets liés aux Smart grids.

Pour en savoir plus :

Mandat M440
Rapport sur le travail mené dans le cadre du mandat M490

Une normalisation en plein mouvement dans le numérique

La normalisation dans le secteur des TIC est en plein bouleversement depuis quelques années. Considéré comme un secteur à part entière, le monde des TIC ne forme pourtant pas un ensemble homogène. Il est composé de trois domaines à l’origine bien distincts que sont les télécommunications, la télévision et l’informatique. Chacun a eu, jusqu’à un passé récent, une culture très spécifique de la normalisation.

Pour les télécommunications, le principe général se résume à faire communiquer des personnes ou des systèmes au travers d’une infrastructure. L’interopérabilité est un préalable à tout développement. Tout est formalisé (couches, protocoles, interfaces formats) afin de permettre une communication entre des terminaux qui ne se connaissent pas nécessairement. La normalisation répond à une nécessité.

Il en va de manière très différente dans la télévision où la priorité n’était pas d’échanger mais de distribuer des images en contrôlant le plus possible la chaîne de diffusion vers l’usager, selon une logique verticale où un minimum de normalisation suffit (codage du signal pour l’essentiel et gestion du spectre).

Le modèle informatique, diffère radicalement de ceux qui ont présidé au développement des télécommunications ou de la télévision. La culture logicielle, qui sous-tend le développement des systèmes informatiques et celle de l’Internet est infiniment plus flexible : elle est faite d’architectures logicielles en perpétuel réagencement. Les composants et d’applications s’emboitent et s’enchevêtrent via des interfaces de programmation (API). Les cadres de normalisation changent régulièrement de forme, de présentation ou de contenu sous la pression marketing des acteurs. L’informatique est le règne du standard de facto où ce qui est appelé norme n’est finalement souvent qu’une interface logicielle (par exemple, Google API - Application Program Interface - Interface de service accessible dans des conditions spécifiques à des programmes informatiques), voire, par extension, un produit (par exemple, Word Office).

Internet, qui est certes un réseau, mais dont les acteurs majeurs sont des produits de la culture logicielle, a changé progressivement la donne. Avec lui, l’univers des API a imposé progressivement ses règles et ses normes. Alors que les modèles de normalisation dans les télécommunications ou la télévision se construisaient dans les couches basses (infrastructures) vers les couches hautes (applications et services utilisateurs), les modéles de normalisation dans le logiciel privilégient les couches hautes, sans se soucier des couches basses qui, de toute manière, utilisent les protocoles de l’internet (l’Internet Protocol, IP, en premier lieu).

La France et l’Europe ont joué, dans les années 1980 et 1990, un rôle majeur dans la normalisation des télécommunications. Contre le scepticisme des Américains, le téléphone portable et sa norme européenne se sont imposés dans le monde entier. L’ETSI a été l’artisan de ce succès. Pourtant, tout en reconnaissant le poids de la normalisation ex-post, l’Europe n’a pas tiré les conséquences de l’arrivée de l’Internet. Elle a cherché à reproduire le modèle GSM avec des normes ouvertes sous couvert d’une politique de diffusion de normes dite FRAND (Fair, Reasonnable and Accessible in Non Discrimatory terms - normes accessibles dans des conditions équitables et non discriminatoires). Ils donnent généralement lieu à des royaltees contrairement au World Wide Web Consortium (W3C - organisme de normalisation qui supervise le développement d'un ensemble de normes, telles que l'html, le xml, etc.). Le modèle de l’Internet, qui tient beaucoup aux écosystèmes logiciels, fonctionne sur des bases où le gratuit et le payant se mélangent de manière plus complexe. Apple et Google ont su, chacun à leur manière, jouer de ces nouveaux modèles dont ils ont été les acteurs majeurs. Force est de constater aujourd’hui que l’Europe est peu présente dans cette grande compétition des APIs.

Les organismes de standardisation restent très actifs dans la normalisation des couches de communication. Les acteurs tirent des revenus importants des licences liées aux brevets (IPRs (Intellectual Property Rights ). Le centre de gravité s’est cependant déplacé de la maîtrise des IPRs vers une âpre concurrence dans les services applicatifs et en particulier sur les API. Et à ce jeu-là, ce sont les acteurs du marché qui donnent le la, bien plus que les organisations de normalisation.

Cette bataille – car c’en est une – des API touchera demain de manière inéluctable le secteur de l’énergie. Jusqu’où ? Déjà une simple recherche sur internet de « Smart Meter » + « open source » + « API » donne 171 000 réponses. La concurrence sera celle-là. Elle n’est pas celle des normes gratuites contre les normes payantes mais de la bonne combinaison des deux afin que l’un soit le moteur de l’autre comme sait très bien le faire Google.



Cette fiche a été rédigée par ITEMS International.






Smart grids : la logicialisation des systèmes électriques

Les Smart grids vont transformer en profondeur les infrastructures, les services et les usages de l’électricité. Lieu de rencontre entre deux mondes, l’énergie et le numérique, ils marient également deux cultures :

  • d’une part, la culture des cycles longs et des investissements lourds des énergéticiens ;
  • et, d’autre part, la culture flexible des informaticiens faite d’architectures logicielles en perpétuel réagencement et de composants, d’applications et d’interfaces numériques.

Des initiatives majeures dans le monde des énergéticiens

De la production à la consommation, les équipements nécessaires pour permettre aux réseaux de gérer au mieux l’équilibre du système électrique, d’améliorer ses performances, de fournir des services aux consommateurs et d’optimiser les interventions sont désormais mieux connus.

Si les principes sont définis, le chemin semble encore long pour leur déploiement, tant les systèmes et les architectures sont complexes. La diversité des organisations du système électrique d’un pays à l’autre et des dispositifs nationaux de régulation est un facteur de complexité supplémentaire.

Les opérateurs du secteur de l’énergie ne découvrent pas l’informatique, ils l’utilisent déjà massivement. Ainsi, EDF, par le biais de sa direction Recherche et Développement, y travaille depuis les années 1980 (les Chroniques Muxiennes). En Allemagne, RheinEnergie au travers de NetCologne exploite le réseau haut débit de la ville de Cologne. Aux États-Unis, de nombreuses « public utilities » (comme le Florida Municipal Power Agency) sont impliquées dans le développement des infrastructures et des services haut débit.

Ces exemples illustrent deux grandes tendances :

  • Dans la plupart des pays européens, et notamment en France, en Italie, en Espagne, et en Grande-Bretagne, la modernisation du réseau est la préoccupation majeure. Les pays asiatiques, sous des formes différentes au Japon, en Corée et en Chine (le niveau de centralisation est très différent selon les pays : la Chine est très centralisée avec le rôle très structurant de NGCC. Le Japon est dans une situation similaire à celle de l’Allemagne avec des grandes compagnies régionales et des distributeurs locaux. La Corée a tout refondu il y a dix ans pour aller vers une décentralisation modérée et l’Etat continue à jouer un rôle de pilote) mettent en œuvre une démarche assez proche de celle des Européens.
  • Aux États-Unis, en revanche, le consommateur final est au cœur des préoccupations. C’est à partir de ses besoins (et de ce qu’on va pouvoir lui vendre) que s’agencent les stratégies d’investissement. Beaucoup de « public utilities » ne considèrent pas comme structurantes les séparations entre services énergétiques, services de télécoms, service de télévision, services Internet. Soumises au contrôle exercé par les Public Utility Commissions (dont les membres sont élus), les « local utilities » ont cependant une marge de manœuvre limitée en matière d’investissements lourds . Les citoyens y ont leur mot à dire : c’est ainsi que la ville de Boulder, pionnière en matière de Smart grids, a dû organiser, en raison de dépassements budgétaires, un référendum pour poursuivre ou non sa politique d’investissement dans les Smart Grids. Celle-ci n’ayant été validée qu’à une faible majorité de 52 %, la ville a été contrainte de revoir sa politique. La situation en Allemagne relève également de cette tendance. Proche à certains égards de la situation aux Etats-Unis, elle s’en différencie en revanche par le poids des 4 grands acteurs que sont enbw, E.ON, RWE et Vattenfall, qui disposent d’une une culture commune en matière d’investissements lourds.

C’est au croisement de ces approches que se cristallisent les enjeux les plus importants.

  • Pour les Européens, et les Français en particulier, le développement des énergies renouvelables décentralisées nécessitera de développer une gestion plus fine du réseau, dans laquelle l’équilibre du système sera fondé sur la gestion de la consommation ;
  • tous pressentent que les projets de Smart grids les plus stratégiques s’organiseront à une échelle locale élargie (peut-être demain régionale).

Cette évolution des réseaux énergétiques ne concerne pas directement les infrastructures électriques mais la manière dont on va optimiser leur fonctionnement grâce précisément à des technologies informatiques et télécoms. La réingéniérie informatique de coeur de métier : c’est là que l’expérience de sociétés de services en ingénierie informatique (SSII) comme Capgemini, Accenture, IBM, Logica, HP, Kema, Atos, Steria et d’autres s’avère essentielle. Dans des environnements organisationnels complexes, les SSII savent plus que tout autre moderniser la gestion des moyens techniques, des flux et des processus grâce à l’apport des technologies informatiques. A l’autre bout de la chaîne, côté client, elles savent aussi collecter, traiter et extraire de la valeur des données issues des modes de consommation. Ils ont un savoir faire qui s’exprime d’ores et déjà et qui est promis à prendre une grande importance dans l’énergie les AMI (Advanced Metering Infrastructure) et le MDM (Meter Data Management ou MDMS : MDM System).

Pour en savoir plus :

Greentechmedia : Boulder Fires Xcel, Wants Smart Grid on Its Own Terms

Les ambitions des acteurs du numérique

Les acteurs issus des télécoms et des logiciels se positionnent sur la thématique de la ville intelligente. IBM a ainsi lancé en 2010 une stratégie dénommée « Smarter City » qui entend intégrer non seulement tous les composants des Smart grids mais aussi tout une offre de gestion « intelligente » de la ville avec les transports, les services aux citoyens. Orange se positionne désormais avec une démarche de ce type. Du côté des fournisseurs de technologies, des acteurs comme SAP ou Oracle dans le logiciel, Cisco, Ericsson, Huawei sont parmi les plus actifs. D’autres acteurs, enfin, issus de l’électronique, développent également des familles de produits comme ST Micoelectronics, Texas Instruments, Intel, Sagemcom avec des investissements significatifs dans le logiciel.

Les acteurs de l'énergie voient avant tout les TIC comme un outil. S’ils admettent que cet outil affecte les aspects les plus stratégiques de leur métier, ils continuent de considérer les TIC comme un secteur technologique collatéral. De leur côté, les acteurs des TIC appréhendent les Smart grids comme un marché très prometteur dans lequel la relation client va jouer un rôle majeur. Ainsi, China’s State Grid Corporation, le gestionnaire du réseau électrique en Chine, investit 250 milliards de dollars dans les infrastructures énergétique dont 45 pour les Smart grids. Cette somme semble relativement faible par rapport aux 7 200 milliards d’investissements (dont 480 milliards en Europe) annoncés sur les seules infrastructures électriques dans le monde jusqu’à 2035. (Source World Energy Outlook 2011)

Pour en savoir plus :

Investissements chinois dans les infrastructures énergétiques
Résumé du World Energy Outlook 2011

Vers une logicialisation des services de l’énergie

Un peu comme le secteur des télécommunications l’a connue, et comme celui de la télévision le vit actuellement, nous allons vers une « logicialisation » des systèmes techniques intermédiaires : le pilotage et la gestion des moyens techniques de toute entreprise repose sur des technologies logicielles Certains n’hésitent pas à parler de logicialisation de l’économie. L’Europe se perçoit comme bien armée pour relever ce défi. Or, si elle peut s’appuyer sur de très bons intégrateurs, elle souffre d’un déficit d’acteurs majeurs de « l’industrie du logiciel ».

Depuis quelque temps, les industriels européens de l’énergie affichent leur volonté d’acquérir une expertise logicielle. L’acquisition en juin 2011 de la société de logiciel Telvent par Schneider Electric et celle de la société américaine UISOL par Alstom en mars 2011 sont des exemples parmi d’autres.

Côté américain, GE a lancé une offre « Smart grid as a Service ». Itron lance « Active Smart Grid Analytics » : un partenariat avec IBM, SAP et Teradata qui met en avant la terminologie « big data » très en vogue en ce moment dans le numérique. Big Data désigne à la fois le changement d’échelle dans les volumes de données produites et disponibles (En 2010, l’humanité a déversé 800 milliards de Gigabytes sur Internet) et la nécéssité de mettre au point de nouveaux outils, voire une nouvelle science, pour naviguer et exploiter ces déluges de données.

Si on ajoute les velléités de Google dans le domaine des services au client final, on a un résumé des enjeux auxquels doit se préparer le secteur de l’énergie.

Les 35 millions de compteurs intelligents, qui seront installés en France dans les années à venir, devraient générer 1 800 milliards de relèves par an (soit de l’ordre de plusieurs petaoctets - 1015), et probablement bien plus dans les années à venir. Ceci intéresse les grands noms de l’informatique, tout comme les opérateurs télécoms qui misent d’un côté sur leur « box » pour développer des services multimédia chez le client – et pourquoi pas demain comme passerelle de gestion des données énergétiques - et de l’autre sur le « cloud computing » pour la gestion des contenus qui y seront liés. Il en va de même pour les grands acteurs de l’électronique comme en témoigne l’importance accordée par les coréens Samsung et LG à ce sujet.

Le logiciel va prendre une part majeure dans les architectures des infrastructures énergétiques. Cette évolution aura des conséquences importantes sur la régulation du secteur (montée en puissance des interfaces numériques) et sur les modèles économiques.

Pour en savoir plus :

Offre de General Electric « Smart grid as a service »
Why software is eating the world ?
Services de Google au client final



Cette fiche a été rédigée par ITEMS International.




Gérer la très grande quantité de données issues du déploiement des NTIC sur les réseaux

Nota Bene : dans cette page, les principes décrits en se référant aux réseaux électriques s’appliquent, également, aux autres types de réseaux de distribution (gaz, eau, chaleur, etc.)

Aujourd’hui, notre planète se « numérise » ou « s’instrumente ». Dans tous les domaines, des dispositifs en nombre croissant permettent d’enregistrer des données et de les traiter localement.

Ces données prennent de la valeur quand les réseaux nécessaires à leur échange et à leur communication se déploient. La valeur des données réside dans l’information qu’elles fournissent soit en propre, soit à travers l’analyse et la corrélation avec d’autres informations. Cela n’est rendu possible que si les deux premières conditions (instrumentation et interconnexion) sont réalisées.

A cet égard, les réseaux électriques intelligents sont un parfait exemple de cette transformation. Les réseaux électriques de transport et le premier niveau des réseaux de distribution sont déjà « intelligents » (et le seront davantage). Les réseaux de distribution moyenne et basse tension ne fournissent quant à eux peu ou pas d’informations directement par manque d’instrumentation.

Avec l’avènement des Smart grids, et en particulier avec le déploiement des projets de compteurs intelligents ou évolués (les compteurs sont par essence des capteurs d’information), se pose la question de la manière de traiter aujourd’hui la problématique suivante : collecter / traiter / analyser les données. La grande volumétrie des informations rend les solutions classiques limitées et inadaptées.

Ces données en grand nombre proviennent de différents capteurs comme les compteurs de consommation, les compteurs pour les énergies renouvelables et/ou mobiles (solaire, éolien, véhicules électriques, stockage, etc.), les instruments de mesures au niveau des ouvrages de réseau (postes asservis, modules de communications, etc.) ou encore les appareils mobiles (smartphones, personal digital assistant, etc.).

Collecter et traiter des données de grande volumétrie : le traitement à la volée en temps réel

L’approche usuelle de collecte et de stockage des données pour pouvoir les traiter et fournir des résultats atteint ses limites dans les grands volumes.

En effet, quand la donnée devient une information nécessaire à une prise de décision (décider d’un changement de topologie réseau sur incident, effacement d’un client conformément à son contrat en cours et en réaction à un changement de consommation locale constatée par rapport à la prévision en cours, etc.), il est nécessaire de la traiter au plus tôt. Dans ce cadre, il ne faut pas attendre que ces données soient disponibles dans un lieu de stockage.

L’état de l’art aujourd’hui pour le traitement massif des données et le traitement des flux à la volée, permet de passer du schéma traditionnel où les traitements s’appliquent sur des données stockées afin de produire des résultats à un nouveau schéma où les données arrivent en mode flux sur lesquels les traitements peuvent s’exécuter pour fournir, au fil de l’eau, des résultats (que l’on choisit ou non de rendre permanents).

Cette approche permet de traiter et d’analyser en temps réel et de façon ultra-performante l'information structurée ou non structurée diffusée par de nombreuses sources, ce qui permet par conséquent d’augmenter la rapidité et l'exactitude du processus décisionnel. Le traitement à la volée, continu et extrêmement rapide, est rendu possible sur de très grands volumes d'information, en filtrant si nécessaire les données issues de sources hétérogènes pour n’extraire que celles qui doivent être conservées et exploitées plus en détail.

Une analyse court terme et très proche de la captation des données est déjà possible, ce qui bouleverse les approches d’architecture habituelles tout en apportant une valeur immédiate de traitement rapide d’information. Les champs d’applications sont vastes et concernent les industries où la prise de décision doit être rapide et dépend d’informations fortement changeantes : les valeurs financières sur les Marchés Financiers ou encore le comportement du réseau de communication chez les opérateurs de téléphonie mobiles en sont des exemples.

Dans le secteur de l’énergie, ces technologies répondent aux besoins d’évolution des systèmes de gestion des réseaux électriques et des systèmes de comptage intelligents. Elles vont permettre une observabilité et une gestion locale de l’infrastructure du réseau jusqu’au niveau le plus fin, grâce à la captation et au traitement local des données, venant des compteurs par exemple, et dans des échelles de temps très court, voire en temps réel.

Stocker de grands volumes de données

Il y a par nature deux grands types de données: des données structurées et celles non structurées.

Les données structurées

Les données structurées sont, par exemple, les descriptions du réseau et de ses ouvrages, de leurs caractéristiques, des grandeurs physiques (comme la consommation, la puissance, l’intensité), des conditions de fonctionnement (indicateurs, événements, alarmes), etc.

Dans ces données structurées, les données de type « série temporelle » font l’objet d’une attention particulière. Un compteur transmettant régulièrement différentes valeurs (index de consommation) au fil du temps (i.e. courbe de charge) en est une bonne illustration. Le stockage de ces données sous un format adapté aux séries temporelles fait donc sens. Cela apporte des performances élevées en écriture de ces informations et limite le volume de stockage nécessaire en évitant les redondances d’informations.

Dans le domaine opérationnel, les technologies de stockage de séries temporelles sont donc naturellement adaptées pour stocker les flux de données collectées sous cette même forme.

Le marché est aujourd’hui demandeur de ce type de technologies qui doit permettre :

  • des usages transactionnels élevés, caractérisés essentiellement par des ajouts/mises à jour des données,
  • des capacités d’acquisition et de stockage performants
  • et un grand nombre d’accès simultanés aux informations (par exemple pour visualisation à travers un portail).

Là encore, les systèmes de comptage intelligents ou les systèmes de gestion du réseau (systèmes SCADA, DMS, etc.) sont amenés à tirer profit de ce type de technologies supportant les séries temporelles pour des besoins opérationnels.

Le grand volume de données aujourd’hui met aussi en avant des technologies de gestion de bases de données fournies par les acteurs du monde des TIC :

  • des machines spécialisées dans certains types de traitement des données, notamment l’analyse poussée des informations ;
  • des approches logicielles spécialisées, beaucoup plus intégrées au matériel qu’auparavant, apportant de la souplesse tout en garantissant un haut niveau de performance nécessaire à la grande volumétrie.

Ces solutions ont comme point commun de rendre possible le stockage et le traitement de très grands volumes de données. Il est en effet facilement concevable que le volume des données Smart grids, toutes informations confondues (réseau, comptage, événements, etc.), en France par exemple, dépassera l’ordre du Peta-Octet (soit 1015) voire au-delà en prenant en compte la dimension historisation (les conceptions des systèmes aujourd’hui vont au-delà de l’échelle Exa, soit 1018).

Les données non structurées

Dans le monde d’aujourd’hui, les clients ou les consommateurs échangent beaucoup d’informations relatives à leurs vies, à leurs usages, notamment vis-à-vis de leur consommation énergétique, de leurs choix d’équipements, etc. D’autres types de données non structurées se trouvent aussi dans toutes les bases de connaissances des entreprises (par exemple dans les systèmes de gestion de maintenance où une riche information se trouve cachée dans les commentaires des personnels de maintenance souvent plus que dans les champs structurés) ou sur Internet et même dans les réseaux sociaux. Ce sont quelques exemples de données non structurées qui sont porteuses de valeur.
Les informations à traiter dans le cadre des Smart grids ne se limitent donc pas aux données que nous pourrions qualifier de techniques, issues des infrastructures (réseau) et des systèmes d’informations du distributeur ou du fournisseur (contrat, rattachement de poste, profil de client, etc.).


Exemple de solution d'analyse de réseaux sociaux (données non structurées)
Source : IBM

Le traitement de ce type de données nécessite des technologies différentes des précédentes.
Pour pouvoir stocker et traiter ces données par nature très réparties, en grande volumetrie et rapidement, il faut une capacité de traitement parallèle alliée à la distribution des données. Les réponses sont venues de grands acteurs de l’Internet avec des technologies comme Hadoop (créé par Yahoo et géré désormais par la fondation Apache) elle-même basée sur des principes d’architecture dits MapReduce introduit par Google : le principe est de paralléliser les traitements (Map) sur de grands volumes de données puis de réconcilier chaque résultat (Reduce) pour bâtir une réponse in fine très rapidement.

Les acteurs du monde des TIC proposent désormais des versions industrielles et robustes de ces technologies, incluant la gestion de ces architectures distribuées qui permet de traiter des informations en grand volume et en parallèle de façon fiable et tolérante aux pannes.

Analyser les données

Il est important de ne pas seulement collecter et stocker l’information, mais fondamentalement de savoir la valeur qu’on peut tirer de celle-ci. « Trop d’information tue l’information » et ne pas pouvoir utiliser l’information la rend inutile.

L’‘analyse des données dans les réseaux évolue selon trois tendances, qu’il faut prendre en compte si l’on veut que l’analyse des données contribue à la prise de décision et à l’action :

  1. L’explosion du nombre de données non structurées collectées via Internet ou provenant de l’instrumentation de l’infrastructure physique. L’analyse de ces gisements de données doit permettre aux entreprises de mieux comprendre, par exemple, les phénomènes variables comme les prévisions de consommation, les prévisions météorologiques ou encore de mieux comprendre les comportements de leurs propres clients, ce qui n’était pas possible auparavant à cette échelle.
  2. Les outils d’analyse doivent pouvoir être utilisés non pas seulement par des spécialistes de l’informatique, mais directement par les métiers, jusqu’au niveau décisionnel de l’entreprise. Les outils d’aujourd’hui doivent être simple d'utilisation et mettre l'utilisateur final en position de construire lui-même ses analyses. La valeur de l’analyse vient plus de l’expertise métier que de la capacité à maitriser un outil. Ainsi un responsable marketing clientèle est le mieux placé pour définir les critères pertinents de segmentation de clientèle. 
  3. Les analyses vont représenter une part très importante de l’utilisation des technologies de l’information et à ce titre, les solutions doivent être simples à mettre en œuvre et à utiliser, tout en garantissant des performances élevées.

Pour cela, nous pouvons considérer plusieurs axes d’analyses.

  • 1) L’analyse des données ou la constitution de rapports et de requêtes sur l’ensemble des données ou leurs agrégations, permettant de synthétiser et de structurer des données sur plusieurs dimensions ou axes (clients, régions, type de contrats, etc.)

Les outils pour le faire à grand volume doivent permettre de produire des résultats dans un temps adapté à la prise de décision. Il s’agit ici d’un domaine « classique » de l’informatique décisionnelle. La particularité tient à l’évolution des capacités des solutions à analyser le grand volume d’informations dans un temps compatible avec une prise de décision ou d’action. C’est un axe de performance technique.

  • 2) Le croisement d’informations entre elles, de sources ou de types éventuellement différents

Cela nécessite, d’une part, une bonne représentation de l’information qui permet de la rendre intelligible à travers plusieurs domaines et, d’autre part, d’avoir des outils de requêtage et/ou de corrélation inter-domaines, à destination ici encore des professionnels métier et non des informaticiens. Autant à petite échelle, il restait concevable de réaliser, statiquement ou manuellement, ce type d’analyse de corrélation. Autant avec la volumétrie, il est nécessaire de recourir à des outils industriels qui permettent de corréler des événements, de définir rapidement et simplement de nouvelles règles pour s’adapter au contexte changeant et supportant réellement la prise de décision. Par exemple, au lieu d’envoyer 1.000 alertes à un opérateur concernant 1.000 événements simultanés, mieux vaut lui transmettre une seule alarme résumant la cause probable de ces événements, lui permettant ainsi d’enclencher les actions adaptées. La personne la mieux placée pour définir ces règles et les adapter est naturellement cet opérateur.

  • 3) L’analyse prédictive

L’utilisation de modèles prédictifs permet de réaliser des prévisions en tenant compte de l’historique ou d’événements passés. Cela permet d’anticiper et de traiter un événement avant même qu’il ne se produise ou d’être en mesure de réagir très vite. Par exemple, envoyer une équipe d’intervention dans le bon secteur en cas de forte probabilité de défaillance d’un départ (alors que l’ouvrage est toujours en état de fonctionnement) permet de diminuer le temps de restauration du service à la clientèle, voire d’éviter l’interruption de service.

  • 4) La fiabilité de l’analyse

De plus en plus, les projections ne seront plus suffisantes. La tendance est effectivement de rechercher un taux de fiabilité associé à des recommandations et des réponses: « Quel est le taux de fiabilité de ce résultat ? Quel est le degré de précision de cette prévision locale : 1000 MW plus ou moins 10 ou 1000 MW plus ou moins 100 ? » Associé à des analyses, le degré de confiance dans les résultats devient un élément important de décision en environnement contraint.

  • 5) La prise en compte du retour d’expérience et la capacité d’apprentissage dans l’analyse

Enfin, l’analyse des retours d’expérience et des effets d’apprentissage est cruciale. Comprendre la valeur des données. Quelles méthodes de modélisation et d’analyse sont les plus efficaces pour fournir une information utile et utilisable ? Comment prendre en compte les retours d’expériences pour améliorer le processus de modélisation ? A titre d’exemple, le développement des énergies renouvelables (solaire, éolien, etc.) nécessitera une gestion plus locale du réseau. Le pilotage du réseau devra s’adapter en permanence aux évolutions de la production locale par rapport aux prévisions. Cette prévision constituée sur une base historique doit pouvoir s’actualiser, idéalement de façon dynamique, si des écarts prévision/constaté sont détectés,

Conclusion

Les bénéfices des Smart grids résident plus dans l’information fournie par les données de comptage relatives à la consommation et aux usages de l’énergie que dans le volume des données lui-même.
Ils permettront une amélioration de l’efficacité énergétique, une meilleure gestion de l’énergie et de meilleurs résultats pour les entreprises énergétiques.

Sans être exhaustif (nous n’avons pas abordé les problématiques de solution d’archivage des données par exemple), le panorama précédent a précisé que les solutions technologiques sont aujourd’hui disponibles sur le marché pour répondre aux besoins de gestion des grands volumes de données liés au déploiement des NTIC dans les réseaux.

Si nous prenons l’exemple du système Linky, la croissance en terme de nombres de capteurs (compteurs) et d’événements (donc de données) est sans commune mesure avec la situation actuelle. Cela nécessite des technologies industrielles, capables de gérer la dimension d’un tel système de comptage et rendre les informations utilisables par les différents acteurs selon leur rôle.


Source : IBM

Il reste néanmoins des points majeurs à traiter, tels que la normalisation, pour réaliser ces évolutions.
Un réseau intelligent est par définition un système de systèmes, chacun ayant sa propre représentation des données pour son propre usage. Afin de pouvoir échanger entre eux, il est, donc, nécessaire que ces systèmes partagent des modèles d’information communs de sorte que la valeur de l’information associée à ces données puisse être extraite et utilisée.
La normalisation est donc très importante et permet de s’entendre sur une modélisation pérenne et, donc, des systèmes pérennes (ce sujet global ne se limite évidemment pas à la problématique des données). Sans modèle d’information commun, le réseau intelligent ne pourra pas apporter sa pleine valeur dans un contexte de tour de Babel de l’information.

Grâce aux informations et à la possibilité de les exploiter, les Smart grids contribueront à :

  • intégrer la production issue des EnR ;
  • optimiser la gestion du réseau grâce à des informations précises et exploitables ;
  • garantir la sécurité du réseau et maintenir la qualité de fourniture, compte-tenu notamment de l’émergence des EnR ;
  • mieux connaître l’état du réseau et son fonctionnement notamment pour optimiser d’un point de vue technico-économique son plan de développement ;
  • aider au bon fonctionnement du marché et de la relation client avec la prise en compte des informations au pas de temps nécessaire et leur mise à disposition auprès des différents acteurs (consommateurs, fournisseurs, responsables d’équilibres, etc.) ;
  • encourager le consommateur à être acteur du système électrique avec une capacité de décision fondée sur une information sur sa consommation réelle. Grâce aux systèmes tels que le compteur évolué Linky, l’information disponible facilitera le passage du modèle « compteuràfacture » à celui plus représentatif du modèle visé « logement -> participant ».

Enfin, la bonne gestion de ces grands volumes d’information contribuera à l’atteinte des objectifs des « 3 x 20 » de l’Union européenne.



Cette fiche a été rédigée par IBM




Les outils de maîtrise de la demande en électricité à disposition des consommateurs

Les ménages et l'information énergétique

La maîtrise de la consommation électrique domestique est un enjeu majeur pour les systèmes énergétiques de demain : à la maison, l’électricité est facile d’accès, elle semble souvent inépuisable et nombre de ses utilisations sont « captives », elles ne peuvent être remplacées par une autre source d’énergie (52 % de la consommation concerne des usages spécifiques - loisirs, cuisine ou bureautique [ADEME, 2010]).

Malgré son poids considérable dans le budget annuel et son caractère vital, la consommation d’électricité du foyer reste souvent inconnue de ses habitants. La facturation est déconnectée du quotidien. En effet, les distributeurs d’électricité se basent sur des estimations et facturent de longues périodes d’activité à leurs clients. Cette situation facilite et réduit les coûts de gestion de la clientèle mais ne permet pas un suivi assez régulier de la consommation par les usagers eux-mêmes. Le particulier n’a pas accès aux informations nécessaires à la compréhension de l’impact énergétique du bâtiment où il réside, et ne peut apprécier l’impact de ses actions.

Les utilisateurs n’ont donc finalement qu’une vague idée de leur consommation quotidienne. Dès lors, ils perçoivent mal les changements réels qu’impliqueraient une modification de leurs habitudes ou l’investissement dans de nouveaux équipements (achat d’un réfrigérateur A+, isolation du bâtiment). Ainsi, pour rendre l’énergie plus visible et plus concrète, la mise à disposition d’une consommation électrique compréhensible et maîtrisable est indispensable.

Les compteurs évolués permettront aux foyers de connaître leur consommation électrique réelle et de bénéficier de services pour la comprendre. Cette meilleure connaissance leur permettra de maîtriser leurs dépenses énergétiques et de choisir des solutions adaptées à leurs besoins. Néanmoins, les utilisateurs n’auront pas à se déplacer physiquement devant leur nouveaux compteurs, des systèmes existent d’ores et déjà pour avoir accès directement à leurs informations.


Figure 1 : Exemple du tableau énergétique
Source : GridPocket

Une plateforme d’affichage est alors nécessaire pour les visualiser. Différents médias pourront faire l’interface entre le compteur évolué et son utilisateur : écran de contrôle, ordinateur, téléphone mobile, affichage déporté, réseaux sociaux pour les consommateurs ou programmes de gestion de la clientèle pour les fournisseurs d’énergie, en sont quelques exemples ; la figure Figure illustre un tableau de bord de la consommation d’un ménage via une interface Web. Une information simple, compréhensible et accessible à tout moment doit être disponible grâce à ce service. Progressivement, l’utilisateur expérimentera, apprendra et évaluera l’impact de ses habitudes sur sa consommation d’énergie, lui laissant ainsi le choix de modifier ou non sa consommation : augmentation, déplacement ou réduction.

Les études et rapports de sciences humaines et sociales [Darby, 2006] [Escoffier and Peretti Wattel, 2009] sur le sujet sont nombreux et soulignent les axes principaux d’approches expérimentés pour apporter de la lisibilité à la consommation électrique : relevé manuel de la consommation, compteur numérique, affichage déporté, facture détaillée, sous-comptage, applications informatiques. Ces pistes exploratoires sont nécessaires afin de proposer les solutions les plus « acceptables » et celles qui auront le plus de chances d’être adoptées par les foyers. Depuis les premières réflexions des années 1970, les études montrent que les différentes modalités de transmission des indications de consommations présentent des effets mesurables [Darby, 2006] [Ehrhadt-Martinez et al., 2010]. Un affichage seul, ou combiné avec d’autres dispositifs, incite clairement à des changements de consommation, mais sur le court terme. Sur la durée apparaissent des freins qui sont autant de défis : changer son comportement est nécessaire, certes, mais la pérennisation de ce changement l’est encore plus.

L’acceptabilité et la motivation des ménages

La difficulté ne réside donc pas uniquement dans l’efficacité des modalités d’affichage de la consommation à court terme mais aussi dans l'implication des utilisateurs dans la durée. La prise en compte des freins sociologiques et techniques permettra la mise à disposition de nouveaux services acceptables.

L’acceptation sociale et technique

Pour comprendre ce passage des actions ponctuelles et à court terme à un changement dans la durée, nous devons nous pencher sur la composition des rôles énergétiques dans un ménage. Dans le cas des foyers à plusieurs individus, celui qui paie n’est pas le seul à consommer l’électricité, les rôles sont répartis. De plus, la maîtrise de l’énergie concerne toutes les sphères de la vie quotidienne, du lever au coucher et même pendant le sommeil ; la consommation énergétique est permanente dans l’activité du ménage.

Un changement pérenne des habitudes énergétiques peut également avoir un impact sur la représentation du foyer vis-à-vis de l’extérieur. C’est-à-dire, qu’à l’instar de la possession et l’usage d’équipements comme signe ostentatoire ou simplement représentatif du « statut » du foyer, l’usage de l’énergie définit socialement le foyer, en d’autres termes, il reflète son statut social. Dès lors, l'incitation à la réduction énergétique, on peut induire une modification du statut social perçu par le ménage. Par exemple, pour caricaturer : un couple qui dépenserait sans compter sur de nombreux équipement lumineux en extérieur et, qui après une prise de conscience environnementale, réduit drastiquement ses « débordements », risque de changer de représentation sociale auprès de son entourage. Ainsi, les risques d’une maîtrise trop poussée de la consommation peuvent être l’apparition de « rapports sociaux tendus », la crainte d’une image négative due à la perte de confort, de bien-être et dans des cas extrêmes, la crainte de l’exclusion sociale ou de véhiculer une image désuète de personnes qui refusent le progrès !

Pour autant, les motivations des ménages sont généralement détachées de ces éléments de représentation. Les principales raisons de ces changements de comportement énergétique sont financières, éducatives, écologiques que ce soit pour l'anti-gaspillage et/ou rejet de la surconsommation [Moussaoui, 2007][Escoffier and Peretti Wattel, 2009] ,. Pour aplanir les difficultés de l’acceptation dans le long terme de ces compteurs évolués et de leurs conséquences, il faut nous arrêter sur le risque d'atteinte à la vie privée. Les données que relaieront ces compteurs sont très personnelles. On peut ainsi connaître facilement les moments de présence au foyer, la nature, même floue, de l’activité comme la mise en route de la batterie de cuisine, par exemple. Cette disponibilité de l’information inquiète et des acteurs (comme l'association de consommateurs « Que choisir ») mettent en garde afin que la maîtrise énergétique ne se transforme pas en contrôle [Fouquet 2011] de la vie privée comme le suggère la controverse autour des compteurs communicants. De fait, ces nouvelles technologies posent de nombreuses questions d’acceptabilité sociale et les solutions proposées doivent en tenir compte.

Les nouveaux services associés

La diffusion des compteurs évolués permettra certainement de faire de nombreuses économies, mais comme on l’a vu, et comme l’exemple italien le rappelle, la persistance de ces économies n’est pas garantie. C’est pourquoi, il est nécessaire de développer des outils adaptés permettant aux utilisateurs d’agir plus activement sur leur consommation. Ils doivent pouvoir mieux identifier quels appareils électriques consomment le plus et pourquoi, connaître le volume de leur consommation bien entendu, voir son évolution, mais également savoir la contrôler ou la réduire (figure 2).

Pour arriver à un tel catalogue d’outils, des leviers existent : les réseaux sociaux par exemple, des conseils génériques ou un « coaching » individualisé intégré sur une plateforme de services afin de permettre à l’utilisateur de s’impliquer, d'avoir des référentiels de comparaison et de rentrer également dans un processus d’apprentissage.

Pour être la plus pertinente possible, l’interface logicielle doit d’abord mieux comprendre les motivations des usagers à réduire leur consommation énergétique. Cette connaissance des usagers passe forcément par des analyses sociologiques A titre d’exemple, certains profils sociodémographiques se révèlent plus sensibles aux motivations citées précédemment, que d’autres (comme les femmes âgées de 40 et 49 ans avec un niveau de vie relativement aisé), tout comme on observe des disparités géographiques (les motivations précitées sont plus fréquemment invoquées en Hongrie qu’en Norvège ou les Pays-Bas [Escoffier and Peretti Wattel, 2009]). Cependant, si d’autres motivations peuvent aussi être pertinentes, les auteurs de l’étude insistent surtout sur la confiance qu’entretiennent les citoyens avec les institutions les incitant à diminuer leur consommation d’énergie. En effet, la question de la consommation d’énergie s’inscrit dans un cadre institutionnel plus large de confiance et de problématisation publique des pratiques privées [Brugidou et Moine, 2011].

Cette confiance dans les institutions est un élément intéressant, car il peut aussi se retrouver dans les motivations des professionnels.


Figure 2 : Exemple d'utile d’analyse énergétique
Source : GridPocket

Les enjeux pour les professionels

Les enjeux des Smart grids pour les industriels/professionnels sont de répondre à leurs attentes en termes de prix de l’énergie et de productivité, de trouver des solutions adaptées à leurs besoins, tout en leur démontrant les potentiels de retour sur investissement. Les gestionnaires, exploitants et propriétaires de bâtiments sont confrontés à de nombreux changements et évolutions : réglementation, attentes des utilisateurs et conjonctures économiques.

Par ailleurs, la fourniture d’électricité a une forte influence sur les activités professionnelles. Les coûts énergétiques globaux et les impacts des perturbations électriques se traduisent par une baisse de la productivité, voire des surcoûts opérationnels. L’énergie est alors un critère légitime d’investissement et de compétitivité globale.

Les principales attentes envers les Smart grids sont d’assurer la maîtrise de la demande et de l’approvisionnement en énergie. Les professionnels recherchent des solutions novatrices répondant à leurs défis quotidiens de compétitivité :

  • où et quand consomment-ils ?
  • comment réduire leur consommation ?
  • quels sont leurs modes de consommation ?
  • quel est l’usage réel et la répartition de l’énergie consommée ?
  • comment piloter la demande électrique et les pics de consommation ?

Pour les fournisseurs d’électricité, d’autres informations complémentaires sont importantes :

  • comment suivre et anticiper l‘engagement des usagers ?

Ces questions trouvent des réponses dans le développement d’une gestion intelligente de l’énergie grâce à différents systèmes et solutions d’automatismes (optimisation de la maintenance et de la disponibilité des équipements, amélioration de leur productivité).

Les leviers d'action pour les professionnels

Des solutions pour mesurer, agir et piloter les installations, réduire la facture énergétique des bâtiments, assurer l’approvisionnement énergétique, intégrer des installations de production décentralisées et résorber les pics de consommation et de pollution sont aujourd’hui indispensables.

La gestion de l’énergie inclut le pilotage de capacités de production installées sur site, dont l’utilisation (autoconsommation, stockage, injection sur le réseau) doit être optimisée selon l’état du réseau et les besoins des industriels.

L’équipement en compteurs intelligents permet aux professionnels de faire une analyse et mettre en place un plan d’action efficace en ayant la vision énergétique globale de son installation. Le gestionnaire peut alors comprendre l’usage de l’énergie et mettre en place une maîtrise énergétique efficace (figure 3 et tableau 1)


Figure 3 : Système de pilotage professionnel de l’énergie
Source : WIT

1. ACQUISITION 2. ANALYSE 3. ACTION 4. AIDE AU PILOTAGE
  • télé-relève périodique des compteurs eau, électricité, gaz
  • récupération des données des automates et régulateurs
  • prise en compte de tous les lots techniques et de toutes les énergies
  • diminuer les dépenses énergétiques par des fonctions de régulation, planification et effacement
  • garantir un confort aux usagers et une sécurité contrôlée
  • assurer une surveillance 24h/24 et diffuser des alertes lors de dysfonctionnements
  • rendre les sous-ensembles techniques inter-opérables
  • diminuer les dépenses énergétiques par des fonctions de régulation, planification et effacement
  • garantir un confort aux usagers et une sécurité contrôlée
  • assurer une surveillance 24h/24 et diffuser des alertes lors de dysfonctionnements
  • rendre les sous-ensembles techniques inter-opérables
  • indicateurs de performances détaillés par usage
  • tableau de bord énergétique (figure 2)
  • suivi et chiffrage des économies d’énergie réalisées
  • compréhension des usages et comparaison avec des valeurs de référence
  • simulation d’actions correctives
  • contrôle de l’impact des actions mises en œuvre
  • anticipation des consommations

La qualité et le coût de l’électricité ont un impact sur l’activité des industries. Le coût énergétique est intégré aux coûts de production et fait partie intégrante de la compétitivité. Pour les entreprises, la gestion active est le moyen le plus rapide, le plus efficace et le plus économique pour réduire la facture énergétique et les émissions de CO2. Elle couvre l’ensemble du cycle énergétique d’un bâtiment, neuf ou ancien, industriel ou commercial et peut offrir un gain pouvant aller jusqu’à 10 % grâce à l’organisation des systèmes énergétiques. Elle passe par des fonctionnalités intelligentes intégrées à la GTEB (Gestion Technique du Bâtiment) et doivent être accessibles et généralisées aux gestionnaires, exploitants et propriétaires immobiliers (figure 4).

Conclusions

La maîtrise de la consommation énergétique exige avant tout une disponibilité et un accès fiable aux informations détaillées. L'interprétation des données énergétiques reste, néanmoins, un défi pour les utilisateurs et un axe de différenciation important pour les systèmes de gestion énergétique.

La motivation et l’engagement des acteurs impliqués dans le processus de la maîtrise des énergies est un facteur additionnel qui doit être pris en compte parallèlement à la dimension purement technique. Ceci aussi bien dans un contexte de consommateurs individuels que de professionnels.


Figure 4 : Exemple tableau de bord énergétique
Source : WIT

Pour en savoir plus :

Présentation de Patrice GEOFFRON

[ADEME, 2010] ADEME (2010). Loisirs, cuisine, bureautique... Maîtrisez la consommation de vos équipements électriques. (page 26)

[Brugidou et Moine, 2010] Brugidou, Moine (2010). Normes émergentes et stigmatisation. Une analyse comparative à partir des deux questions ouvertes sur les raisons de ne pas trier les déchets et de ne pas faire d’économie d’énergie, JADT, Rome 2010.

[Darby, 2006] Darby, S. (2006). The effectiveness of feedback on energy consumption. Technical report, Environmental Change Institute. University of Oxford.

[Escoffier and Peretti Wattel, 2009] Escoffier, C. and Peretti Wattel, P. (2009). Motives for reducing energy use among citizens from seven European countries. Technical report, Energy Research in the 7th framework programme.

[Fouquet, 2011] Fouquet, J.-P. (2011). Projet AFFICHECO. Technical report, Université de Tours.

[Frenkiel, 2009] Frenkiel, E. (2009). Nudge ou le paternalisme bienveillant. La Vie des idées, (ISSN : 2105-3030).

[Hargreaves et al., 2010] Hargreaves, T., Nye, M., and Burgess, J. (2010). Making energy visible: a qualitative field study of how householders interact with feedback from smart energy monitors. Energy Policy, Elsevier, (38).

[Moussaoui, 2007] Moussaoui, I. (2007). De la société de consommation à la société de modération. Les Annales de la recherche urbaine, (103) : 112–119.



Cette fiche a été rédigée par GRIDPOCKET, TELECOM PARISTECH et WIT

Un réseau électrique dans les nuages ?

La conception des réseaux électriques a assez peu évolué depuis qu’en 1887, Tesla a installé la première ligne à courant alternatif sur la liaison ferroviaire Lauffen-Francfort. Il est, donc, probable que celui-ci comprendrait encore le mode de fonctionnement des réseaux électriques actuels s’il visitait les centres de contrôle ou les postes de transformation. Pourtant, les entreprises de distribution d’électricité devront rapidement refondre l’essentiel de leurs systèmes de « contrôle/commande » afin de rendre le réseau plus intelligent et sa gestion plus flexible. Certains se font les chantres d’un rapprochement entre les systèmes électriques actuels et le réseau Internet. Grenatec, le méga-projet de réseau électrique sur la zone du Sud-Est asiatique a même été surnommé « the pan-asian energy internet ».

Le premier besoin des entreprises de distribution concerne le développement massif des énergies renouvelables. A titre d’exemple, le plan soumis par l’Allemagne à la commission européenne prévoit la mise en ligne d’ici 2020 de plus de 100 GW d’électricité d’origine éolienne et 41 GW d’électricité issue de panneaux photovoltaïques, soit une puissance d’énergie intermittente supérieure à l’intégralité du parc de production électrique français. Même si les interconnexions européennes pourront aider, il est illusoire d’espérer gérer une telle volatilité avec les systèmes historiques.

Le second besoin concerne l’efficacité énergétique. La Commission Énergie du Parlement européen vient de négocier un projet de directive rendant obligatoire des objectifs de réduction de 20 % de la consommation d’énergie primaire d’ici 2050. Bien qu’encore en cours de validation au Parlement européen, ce projet de directive montre clairement le sens de l’histoire vers une réduction drastique de la consommation énergétique. Cette réduction sera d’autant plus indispensable, si l’on en croit les prévisions de la Commission de régulation de l’énergie qui envisage, dans le contexte législatif actuel, une augmentation de plus de 30 % du prix de l’électricité dans les cinq ans.

La lutte contre le réchauffement climatique imposera aussi de limiter le recours aux centrales thermiques. L’un des meilleurs moyens d’y parvenir consiste à lisser la consommation des clients ou à mettre en œuvre de nouveaux moyens de stockage.

Enfin, les pannes généralisées ou pics sur les marchés de l’électricité ont montré certaines limites aux systèmes actuels. Alors que l’origine de ces incidents était toujours des événements localisés (coupure d’une ligne électrique ou blocage d’une chaîne de traitement informatique pendant un week-end), les systèmes actuels se sont adaptés avec difficulté et ont engendré des pannes ou des pertes financières conséquentes. Les systèmes de demain devront encore améliorer leur robustesse face à des failles techniques ou humaines.

Pour répondre à ces principaux besoins quelles doivent être les caractéristiques des réseaux intelligents ?

Réactivité : la production d’électricité sera de plus en plus dépendante de la météorologie, car la proportion des énergies renouvelables dans le mix électrique final va augmenter considérablement. Les éoliennes ont une production relativement prévisible. Dans plus de 50 % des cas, les fluctuations d’une heure sur l’autre sont de moins de 2 % de la puissance installée. Une étude récente de Sauvons le Climat montre que la variation est, dans le pire des cas, de 380 MW/heure sur la base d’un parc de 5600 MW. En revanche, les panneaux solaires, notamment dans les zones non interconnectées, peuvent avoir une production extrêmement variable. Compte tenu du manque de foisonnement dans les îles, EDF SEI rapporte des variations régulières de la production issue des centrales photovoltaïques de plus de 75 % en moins d’une heure.

Taille des bases de données : la mise en place de solutions de comptage intelligent, voire de sous-comptage de même que la modernisation des systèmes de contrôle/commande et la corrélation avec les données météorologiques vont engendrer un volume de données de plusieurs dizaines de téraoctets par an. Être en mesure de collecter, valider et traiter ces données pour en extraire par exemple une estimation de production et de consommation prévisionnelle pour chacun des postes sources sera possible mais représente un saut technologique considérable.

Visibilité : de plus en plus, les informations actuelles visibles uniquement des gestionnaires de réseau devront pouvoir être mises à disposition de tiers. A titre d’exemple, la mise en place de système de tarification en temps réel de l’énergie, pour les bornes de recharge des véhicules électriques, nécessitera de fournir une visibilité accrue aux fournisseurs sur l’état des réseaux. De même, il est probable que l’ADEME et les collectivités locales seront de plus en plus intéressées pour disposer de données qualifiées et détaillées sur la consommation des Français.

Sûreté de fonctionnement : corollaire du besoin précédent, les systèmes de demain ne devront pas présenter de régression par rapport au niveau de sécurité des systèmes actuels, voire devront proposer une amélioration de la robustesse de ceux-ci, notamment en mettant en œuvre des fonctions dynamiques de reconfiguration des moyens de production, de consommation ou de stockage. Ils devront aussi permettre de gérer en même temps les événements (notamment les alarmes) en provenance à la fois des systèmes de contrôle/commande et des systèmes de supervision de la chaîne d’acquisition des compteurs et offrir des outils d’aide à la décision communs.

Fiabilité et traçabilité : l’arrivée progressive des marchés pour l’équilibrage des réseaux basse tension, voire la gestion des activités de stockage, nécessitera de disposer de données à la fois fiables, auditables et horodatées.

Dans quelles mesures Internet et les technologies de « cloud computing » peuvent-ils répondre à ces besoins ?

L’ensemble des briques technologiques permettant de répondre à ces nouveaux enjeux sont d’ores et déjà disponibles. Capteurs intelligents, couverture et fiabilité du maillage du réseau d’information, centre de traitement « cloudisé » nécessaire au stockage et au traitement massif de données, logiciels d’analyse prédictive permettant l’aide à la décision, communication en temps réel vers les usagers. La prise de conscience des enjeux énergétiques tant par les consommateurs finals que par les collectivités territoriales représente une réelle opportunité pour les fournisseurs de proposer des offres de service originales. Ce phénomène n’ira qu’en s’amplifiant avec la montée du prix de l’électricité et la compétitivité accrue des énergies de sources renouvelables et décentralisées.

L’intégration des technologies Internet et du traitement massif de données dans l’univers des énergies constituera la clé de voute du projet de développement d’une solution métier efficace et robuste. Cette maîtrise d’œuvre sera confiée à des acteurs ayant une vision et une maîtrise de l’ensemble de la chaîne de valeur et qui sont en capacité de prendre des engagements sur l’ensemble du système. Cette tendance est à l’origine du rachat d’entreprises du secteur du logiciel par les entreprises historiques du contrôle/commande comme Schneider Electric, Alstom ou Siemens. Cependant, la taille des projets sera telle que l’industrie énergétique aura certainement à passer, dans le futur, d’un mode de contractualisation « bi-partite » à un mode « tri-partenarial » : Utilité + Contrôle/Commande + Informatique. La détermination des responsabilités respectives de ce type de contrat ne sera pas une mince affaire.

La mise en place des projets de gestion intelligente du réseau ouvre, également, des perspectives de réflexion sur la gouvernance de la relation entre les acteurs du secteur. La plupart des études économiques démontrent que les investissements dans les réseaux intelligents ne se justifient que si l’on prend en compte les bénéfices qu’en tire l’ensemble des acteurs et non chacun d’entre eux pris individuellement. De nombreuses fonctions nécessiteront un échange d’informations accru entre ces différents acteurs. La tendance future sera, donc, vers la mise en place de plateformes indépendantes susceptibles d’offrir des services facturés à l’usage aux différents acteurs, comme il en existe dans d’autres secteurs comme la logistique, l’agroalimentaire ou les télécommunications. Ce transfert de modèle économique Capex vers Opex constitue d’ailleurs l’un des attributs fondateurs de la démarche « cloud ».

Les énergéticiens devront, dans les années à venir, concevoir des systèmes de contrôle/commande tirant avantage des atouts d’Internet tout en gardant à l’esprit leurs objectifs de sécurité et sûreté de fonctionnement. Un travail d’orfèvre qui nécessitera de faire preuve d’esprit d’initiative … et de prudence.



Cette fiche a été rédigée par HP




Forum et interviews

La Commission de régulation de l’énergie a organisé son septième forum le 6 décembre 2011 sur le thème des Smart grids comme convergence de l’énergie et des technologies de l’information et de la communication.

Messieurs Pierre Tournassoud, Vice-President Strategic Industries Solutions chez Alcatel-Lucent, Didier Rouchet, Senior Executive et responsable « Technology Smart grid » chez Accenture et Richard Lalande, Directeur général adjoint de SFR ont accepté de participer au forum en tant qu’intervenants et de nous expliquer comment le monde de l'énergie va évoluer en intégrant les TIC.


Point de vue de Pierre Tournassoud
Vice-President Strategic Industries Solutions

Point de vue de Didier Rouchet
Senior Executive et responsable « Technology Smart grid »

Point de vue de Richard Lalande
Directeur général adjoint


Vous découvrirez également les interviews suivantes :

Interview de Patrick Grossetête
Ingénieur technique marketing

Interview de Patrice Caillaud
Directeur Commercial et Marketing France

Interview de Marc Jalabert
Directeur division Grand Public et Opérateurs

Interview de Philippe Lucas
Président de la Commission Innovation & Normalisation




Point de vue de Pierre Tournassoud (Alcatel-Lucent) :

L’équipement des réseaux électriques en technologies de l’information et de la communication connait une situation assez contrastée entre réseaux de transport et de distribution. Dans la plupart des cas, le réseau de transport est déjà très bien instrumenté, notamment pour supporter la téléprotection avec des artères optiques le long des lignes électriques et des systèmes de contrôle sophistiqués. En revanche, le réseau de distribution est relativement peu instrumenté. Les communications sont très fragmentées par application avec des solutions souvent ad hoc et parfois peu évolutives.

Même s’il y a sur le réseau de transport le besoin d’intégrer de nouveaux équipements et de mettre à niveau les communications, l’enjeu des Smart Grids est principalement d’innover sur le réseau de distribution. En effet, les pointes de consommation, le développement des nouveaux usages et le raccordement des énergies renouvelables intermittentes obligent le réseau à s’adapter et à devenir plus flexible.


Source : Alcatel-Lucent

La couche de communication est un intermédiaire nécessaire entre les applications métier et les capteurs situés dans les réseaux électriques. Son caractère critique est clairement apparu avec les projets de déploiement des systèmes de comptage évolué en Europe et, aux Etats-Unis, les projets de rénovation et d’automatisation des réseaux et de gestion de la demande. Afin de développer des architectures de communication optimales et évolutives au cours du temps (qui seront assez flexibles pour supporter l’ensemble des applicatifs qui seront déployés tels que les véhicules électriques), il faudra évoluer vers un réseau de communication plus étendu, plus maillé, moins hiérarchique et « point à point » qu’il ne l’est aujourd’hui.

En matière d’organisation, il est important que les énergéticiens et les acteurs du monde des télécoms travaillent ensemble sur de nouveaux scénarios de gestion du réseau de distribution. En effet, les énergéticiens sont organisés par secteur d’activité (comptage, conduite, exploitation…) et les moyens de communication associés sont souvent spécifiques. Il faudra donc développer des architectures de communication communes, mais capables de supporter les contraintes particulières de chacune des applications.

Ces applications ont différentes caractéristiques, maintenant bien connues, en matière de trafic de données comme la latence, le volume échangé, la fiabilité et la sécurité. Même si ces applications ne génèrent pas individuellement un volume de données équivalent à celui produit par les applications multimédia sur les réseaux télécom publics, l’association de toutes ces applications et leur déploiement à grande échelle engendrent des flux de données extrêmement importants, de l’ordre de plusieurs centaines de mégabits par seconde. Il existe donc un besoin réel d’infrastructures de communication haut débit aux caractéristiques de fiabilité et de sécurité élevées, au-delà même des exigences des applications multimédia grand public.


Source : Alcatel-Lucent

Face à cette multiplication des données, il existe des réponses techniques adéquates. L’Internet Protocol – l’IP dans sa variante IP/MPLS – permet de supporter les différentes applications des Smart Grids de bout en bout tout en gérant leurs caractéristiques de qualité de service de façon différenciée. La complexité réside moins dans les choix de protocole à mettre en œuvre que dans leur intégration dans un environnement déjà multi-technologies. Ainsi, les architectures mélangent le courant porteur en ligne (CPL), la fibre optique, la radio maillée, la 2G-3G et le LTE (Long Terme Evolution, norme radio qui succède à la 3G et qui permet d’atteindre des débits de l’ordre de 60 Mbps et des temps de latence très faibles de l’ordre de 10 ms, critiques pour ces applications).

L’important est donc de mettre en œuvre des systèmes de communication et de gestion de données très fiables et des architectures flexibles pour faciliter l’intégration des différentes technologies et le passage à l’échelle industrielle. Pour des raisons économiques, un opérateur peut choisir d’utiliser le réseau de télécommunication public (par exemple, pour le comptage évolué, le gestionnaire de réseau utilise le GPRS entre le concentrateur et le système d’information), mais il peut, également, avoir intérêt à déployer une infrastructure en propre comme le fait le gestionnaire du réseau de transport en France (RTE a sa propre infrastructure de communication très bien managée et très sécurisée).

Les briques technologiques existent mais il faudra du temps, cinq ans au moins, pour arriver à des architectures multi-technologies éprouvées et permettant de faire des économies d’échelle sur des projets industriels de très grande ampleur.


Source : Alcatel-Lucent

Les investissements dans les Smart grids sont des projets complexes. Ils reposent sur un cycle classique de gestion de projet, mais certaines phases sont essentielles.

  • La phase de conseil en amont : Il faut anticiper l’ensemble des applicatifs qui devra être développé afin de faire les choix technologiques les plus pertinents et optimaux sur le long terme. Le rôle de l’intégrateur consiste à conseiller les gestionnaires de réseaux afin de définir et de mettre en place les outils et les solutions d’information et de communication adéquats: il faut tenir compte des équipements de réseau déjà présents (audit de l’existant) et les faire évoluer pour répondre au mieux aux besoins immédiats et futurs de l’opérateur (définition de nouveaux scénarios Smart Grids) ;
  • La phase d’intégration aux réseaux électriques : Il est nécessaire de réaliser un grand nombre de tests afin de convaincre les gestionnaires de réseaux de la valeur ajoutée et de la fiabilité de la solution ;
  • La phase d’audit de sécurité : certains protocoles et processus émergent actuellement, par exemple aux États-Unis dans le cadre du National Institute of Standards and Technology (NIST) ; mais beaucoup reste à faire afin de développer des solutions parfaitement sécurisées. Alcatel-Lucent met ainsi en œuvre un « security operation center » dans lequel des experts sont mis à la disposition des gestionnaires de réseaux afin d’auditer leurs équipements et d’émettre des recommandations.

Concernant le retour sur investissement, les projets menés aux États-Unis montrent que les bénéfices concernant les investissements sur la fiabilisation et la sécurisation du réseau de distribution peuvent être rapides (typiquement trois ans). L’observation des postes de distribution et des comportements des clients permet de déterminer les sous-investissements ou surinvestissements et ainsi de restructurer le réseau de façon efficace, et d’assurer une meilleure gestion préventive des pannes.


Source : Alcatel-Lucent

La normalisation des architectures de communication au niveau européen est un élément essentiel du développement des Smart Grids. Alcatel-Lucent étant présent aux États-Unis, en Europe et en Asie, cela permet de gagner du temps en capitalisant sur les différentes expériences au niveau mondial et en particulier aux Etats-Unis.

Cependant, le modèle américain n’est pas totalement applicable en Europe car les réseaux électriques ne sont pas dans le même état initial (structure des réseaux, modèles économiques et retours sur investissements distincts) et ils n’ont pas la même trajectoire (contexte de régulation). Mais l’Europe possède tout autant de fortes capacités d’innovation grâce aux industriels du monde de l’énergie, des technologies de l’information et de la communication ainsi qu’aux énergéticiens qui y sont présents. La réunion de tous ces acteurs autour de projets novateurs, par exemple dans le domaine de l’efficacité énergétique et de l’effacement/modulation, des architectures des postes électriques du futur, des véhicules électriques… devrait permettre de révéler cette filière.


Source : Alcatel-Lucent


Pierre Tournassoud
6 décembre 2011





Pierre Tournassoud est Vice-Président Strategic Industries Solutions chez Alcatel-Lucent.



Point de vue de Didier Rouchet (Accenture) :

Je propose de parcourir trois visions différentes mais complémentaires des Smart grids :

  • la vision métier ;
  • la vision fonctionnelle ;
  • la vision applicative des composants techniques.

La vision métier

Il s’agit de comprendre pourquoi les Smart grids se développent aujourd’hui. Le raccordement des installations de production d’électricité décentralisées et le développement des nouveaux usages électriques induisent des déséquilibres nouveaux sur les réseaux de distribution et les obligent à s’adapter. Cette adaptation implique de déployer de l’intelligence sur l’ensemble des réseaux. Elle va donner lieu à un échange massif de données que l’on peut catégoriser en deux groupes :

  • les données opérationnelles pour faire fonctionner le réseau et équilibrer l’offre et la demande ;
  • les données de consommation (courbes de charge par exemple) utilisées pour que les utilisateurs finals comprennent mieux leur facture.


Source : Accenture

La vision fonctionnelle

La vision fonctionnelle permet de catégoriser en quatre grandes familles les fonctionnalités majeures offertes par la mise en place des réseaux électriques intelligents :

  • la gestion des équipements du réseau : en déployant des capteurs sur les équipements présents sur les réseaux de distribution (lignes aériennes, câbles souterrains, postes de transformation, etc.), cette fonctionnalité permet de surveiller leur utilisation et d’anticiper leur défaillance (par exemple sur les pièces d’usure) et ainsi de prévoir leur fonctionnement futur . Elle est une aide à la décision en matière de maintenance préventive ou d’investissements ;
  • le pilotage des incidents : cette fonctionnalité permet de gérer les incidents et les pannes de la manière la plus automatique et la plus réactive possible. En faisant remonter les données du réseau au niveau des systèmes d’information centraux et en les analysant, il est possible de faire émerger des schémas type de pannes et ainsi de prendre de manière très réactive des décisions d’autocorrection, voire d’auto-cicatrisation (dans les minutes, voire les secondes, pour éviter la propagation de la panne sur le réseau) ;
  • les opérations de comptage : cette fonctionnalité permet de faire les relèves de consommation à distance. Cela permettra, également, la facturation sur index réel. Les utilisateurs auront besoin de ces informations pour piloter leur usage domestique ;
  • la gestion active de la demande : cette fonctionnalité permettra d’accroître la flexibilité du réseau (gestion des effacements par exemple) en réponse à l’intégration des énergies renouvelables intermittentes et à la multiplication des nouveaux usages.


Source : Accenture

La vision applicative des composants techniques

La première couche applicative concerne les données aux latences variables. Le déploiement des technologies de l’information et de la communication sur les réseaux électriques induit une multiplication des données : les données de consommation et les données opérationnelles. Ces données ont différentes latences. Les données opérationnelles sont en effet prioritaires en matière de transmission sur le réseau par rapport aux données de consommation. Le système d’information central est ainsi informé rapidement des incidents et peut donner les ordres d’autocorrection pour traiter efficacement les coupures.

La deuxième couche applicative regroupe les différents protocoles et voies de communication possibles (débit et fiabilité différents) pour transmettre ces données.

La troisième couche applicative (la brique verte sur le schéma) est une boîte à outils regroupant l’ensemble des applications à valeur ajoutée utilisées par les énergéticiens pour gérer les données issues des Smart grids. Accenture a développé sa propre architecture, l’architecture INDE, dans laquelle on retrouve les systèmes permettant de traiter et d’analyser les afflux massifs de données (fonctions analytiques et de business intelligence). Cela permet de visualiser les équipements, de les surveiller et ainsi de planifier les opérations de maintenance préventive. Ces fonctionnalités renforcent la sécurité du réseau de distribution.

La quatrième couche applicative regroupe les systèmes d’information géographiques qui permettent de naviguer sur le réseau pour la maintenance, les systèmes de « demand response », de gestion des incidents, de gestion des données de comptage évolués, et de gestion des données clients.


Source : Accenture

L’analyse et la gestion des données issues du système électrique représentent un enjeu clé pour le développement des Smart grids. L’objectif est de pouvoir les administrer, les intégrer et les analyser en temps réel. Cette analyse facilitera la prise de décisions propres à accroître la performance opérationnelles grâce à des informations prédictives et exploitables et permettra l’automatisation de la gestion des activités du réseau (type détection et résolution de coupures).


Source : Accenture

Des acteurs d’horizons différents sont concernés par les problématiques liées à l’utilisation des TIC dans les Smart grids. Aujourd’hui, l’écosystème des Smart grids est encore en construction, les frontières restent floues et le périmètre d’intervention des acteurs est en cours de définition. Il est, donc, important de travailler à fédérer les différents acteurs, à coordonner leurs activités et à interconnecter leurs différents systèmes d’information.





Didier Rouchet
6 décembre 2011


Didier Rouchet, Senior Executive, est responsable « Technology Smart Grid » pour Accenture en France. Ses 17 ans d’expérience au sein du Groupe ont été mis en pratique chez les plus grandes entreprises du secteur des Utilities et des Télécommunications à la fois nationales et internationales. Didier Rouchet a notamment dirigé pour de grands groupes français des programmes de transformation et des projets complexes d'intégration de systèmes.

Point de vue de Richard Lalande (SFR) :

Dans le domaine des Smart grids, SFR ne s’intéresse qu’à la partie terminale de l’architecture globale, qui concerne le consommateur et, par extension, la maison intelligente (Smart home). Aujourd’hui, les nouvelles technologies permettent la réalisation d’une partie des concepts qui ont émergé dans les années 1970 avec la domotique.

En se développant dans la maison, les technologies de Smart grids permettront de renforcer l’interaction avec le consommateur final afin d’optimiser et de lisser sa consommation, ainsi que de mieux gérer les périodes de pointe.

Par ailleurs, la libéralisation des marchés de l’énergie et le développement de la concurrence sera à l’origine de la multiplication et de la différenciation des offres de fournitures avec des tarifs fonction de l’heure de consommation. La multiplicité des offres poussera les consommateurs à avoir recours à des systèmes de gestion sophistiqués afin d’optimiser au mieux leur consommation.

En outre, les Smart grids ne devront pas être un frein au confort des consommateurs finaux. Ces derniers devront conserver la maîtrise de l’utilisation de leurs appareils électriques, même si les tarifs ne sont pas des plus vertueux.

Enfin, avec l’émergence du véhicule électrique (VE), il faudra développer des systèmes de gestion intelligente de la recharge du véhicule électrique. En effet, si tous les utilisateurs décident de recharger leurs véhicules électriques à 19 heures à son domicile, la pointe de consommation sera très importante. Les systèmes de gestion intelligente de la recharge du VE permettront cette recharge en fonction des besoins du consommateur, mais également de l’équilibre du système électrique et des contraintes du réseau. Le réseau pourra dialoguer avec le véhicule pour charger ou décharger la batterie du véhicule électrique, et ainsi soutirer ou injecter de l’électricité sur le réseau en fonction de ses besoins.

L’ensemble de ces systèmes implique des interactions complexes entre le réseau privé du domicile et le réseau public d’électricité. Or, aujourd’hui, ces deux réseaux sont indépendants l’un de l’autre.

D’un côté, les systèmes de comptage évolué de type Linky permettent notamment de gérer l’automatisation de la relève (grâce au CPL, au GPRS et aux système d’informations) et d’aider les différents acteurs des Smart grids à gérer leurs propres réseaux. Cependant, la capacité de pilotage d’un compteur Linky est par nature limitée (en vert sur le schéma).

De l’autre côté, des offres se développent pour aider le consommateur final dans la gestion de sa consommation. Cela est rendu plus facile grâce à la mise en place d’un boîtier général qui permet d’interconnecter les différents équipements de la maison et de les faire communiquer – la majorité des équipements a désormais des interfaces mais ne sont pas nécessairement reliées à une box centrale. Les données regroupées dans les boîtiers devront, pouvoir être interprétées à distance, par exemple pour déclencher le chauffage de la maison de campagne. (en rouge sur le schéma)

Ces deux réseaux indépendants ne permettent pas une gestion conjointe de l’énergie par les consommateurs finaux, les fournisseurs et les gestionnaires de réseaux (par exemple, la recharge du VE n’est pas optimisée). Pour que cela soit possible, il faudrait connecter les deux mondes (que la boucle se ferme entre le vert et le rouge sur le schéma) pour qu’il puisse y avoir des fonctions et des applications communes entre le gestionnaire de réseau, le fournisseur d’énergie, le consommateur final et les équipements au sein de la maison.

Ce n’est pas l’interconnexion entre les deux mondes qui suscite des difficultés, mais plutôt la multiplication des équipements et des interfaces dans la maison. Avec la diversification des interfaces et des protocoles propriétaires, les questions d’interopérabilité deviennent très importantes. Les différents équipements doivent pouvoir communiquer entre eux quelle que soit leur origine. Ainsi, si le client souhaite passer d’un opérateur télécom à un autre, ou d’un énergéticien à un autre, ou encore d’un fournisseur de radiateur électrique à un autre sans changer son système, cela doit être possible.

Par ailleurs, le prix du boîtier et de sa connexion avec chacun des équipements est fondamental. Recréer entièrement le réseau électrique d’une maison coûte plusieurs centaines d’euros et cela ne sera pas compensé, à court et moyen terme, par les économies potentiellement réalisables grâce à l’optimisation de la consommation de la maison.

Si l’on veut que ces systèmes se généralisent, il est absolument nécessaire que les acteurs de ce vaste écosystème (produits bruns, produits blancs, chauffagiste, opérateurs de télécoms et énergéticiens) se mettent d’accord sur l’architecture de communication, sur des protocoles et des interfaces en nombre suffisamment limité. En effet, l’objectif est que le réseau de la maison ait un coût limité pour les consommateurs finaux et que les services évoqués puissent se développer à grande échelle.

Aujourd’hui, des discussions sont en cours pour, d’une part, élaborer les interfaces du futur (Zigbee, CPL, etc.) et, d’autre part, intégrer les interfaces déjà existantes. Il faudra accélérer et consolider ces travaux afin de ne pas limiter le développement des technologies à des utilisateurs férus de technologie ou à de très gros utilisateurs qui sont prêts à payer un surcoût important pour la gestion de leur consommation électrique.

La concurrence est forte dans les télécoms et les acteurs de ce domaine savent que tout déploiement massif passe par cette phase d’interopérabilité. Ainsi, par exemple, le marché des SMS ne s’est vraiment développé en France que le jour où les trois opérateurs mobiles se sont accordés sur l’interopérabilité des systèmes SMS, ce qui a permis le développement de nombreuses offres entre les opérateurs.

Le réseau local de la maison ainsi développé, sécurisé et interopérable pour l’électricité pourra à terme être utilisé pour les autres fluides de la maison (eau, gaz, chaleur, froid, etc.) mais, également, pour les autres équipements (sécurité, santé à distance, etc.). Le partage, voire la mutualisation, des architectures permettrait de partager les coûts.

Le temps de la normalisation est venu pour permettre la baisse des coûts et une meilleure fluidité des échanges entre les acteurs et SFR expérimente actuellement un boitier multi-fluide avec deux des acteurs majeurs du secteur des Utilities et de la maison intelligente (smart home)


Richard Lalande
6 décembre 2011





Richard Lalande est Directeur général adjoint du Groupe SFR



Interview de Patrick Grossetete (Cisco) :

À quel niveau du système intervenez-vous ? Quelles sont les technologies que vous mettez en œuvre ? Quelles sont les évolutions qu’elles permettront pour le système électrique ?

Fort de son savoir-faire dans le monde des technologies de l’information et des communications (TIC) base sur les protocoles IP (Internet Protocol), Cisco a développé une architecture et des produits conformes aux besoins de communications bidirectionnelles (une des recommandations premières du NIST – Agence de normalisation américaine – et de la Commission européenne en termes de déploiement de réseaux intelligents). Cette architecture de réseau de télécommunications permet aux différentes interfaces du réseau électrique de communiquer entre elles. Cisco a fait le choix d’une architecture tout IP qui puisse permettre l’échange d’informations entre tous les points du réseau, notamment le « centre d’opérations » (appelé aussi centre de calcul) et le « point d’extrémité » (capteur, actionneur, compteur communicant, etc.) et ce, dans les deux sens. Notre objectif est d’établir une architecture de communication qui puisse évoluer en même temps que le réseau électrique. Il faut, donc, se projeter sur une durée de vie de 15 ou 20 ans.


Source : Cisco

Avant de développer les différentes technologies, Cisco a analysé quels étaient les besoins au niveau des réseaux électriques :

  • le premier point important à prendre en compte est la durée de vie des équipements : il existe un décalage entre le monde des réseaux électriques dans lequel un compteur, par exemple, est installé pour 15 à 20 ans et le monde des TIC où les technologies ont une durée de vie moyenne de 5 à 10 ans ;
  • le second point important est celui du dimensionnement : aujourd’hui, le déploiement des systèmes de comptage évolués en France représente environ 35 millions de compteurs électriques et un million de concentrateurs. Par comparaison, le nombre d’abonnés haut-débit ( ADSL) en France représente un déploiement de 20 millions de box gérées par 4 opérateurs différents. Le réseau de communication à déployer dans le cadre de Linky est, donc, du même ordre de grandeur que celui de l’ADSL. L’industrie qui possède une expérience de déploiement à une telle échelle est celle issue du protocole Internet. En effet, les protocoles Internet ont été définis pour être des standards du marché que chacun peut utiliser, qui garantissent l’interopérabilité et qui peuvent être utilisés dans des réseaux privés à haut niveau de sécurité comme les réseaux de la défense ou les réseaux financiers (échanges interbancaires, etc.) ou un réseau public tel que l’Internet auquel tout le monde accède via le web ou les réseaux sociaux.


Source : Cisco

Pourriez-vous nous expliquer en quoi consiste le système de communication IP sécurisé que vous avez développé pour votre activité en matière de Smart grids ? Quels sont les avantages de cette solution par rapport aux systèmes de communication actuellement utilisés par les opérateurs de réseaux ?

Dans les architectures de protocole de communication telles qu’elles ont été définies au niveau des normes ISO, le modèle OSI est composé des 7 couches suivantes :

  • une couche « physique » qui détermine quel est le support (câble ou radio) sur lequel on peut transmettre les données ;
  • une couche « liaison » qui définit la façon dont on met un paquet d’information sur ce média filaire ou radio ;
  • une couche « réseau » qui permet d’interconnecter les différents medias filaires ou radio et a tous équipements de communiquer indépendamment du type de media utilisé ;
  • une couche « transport » qui définit comment on peut avoir une connexion de bout en bout ;
  • trois couches « session, présentation et application » qui définissent les mécanismes d’échange et de langage permettant aux applications de communiquer.


Source : Cisco

Ce modèle permet de faire évoluer une couche sans remettre en cause l’ensemble de l’architecture. Pour Cisco, la sécurité doit concerner l’ensemble des couches de communication et les fonctions d’authentification et de sécurisation être appliquées aux niveaux les plus appropriés.

  • Pour assurer l’intégrité et la protection des données et garantir la protection de la vie privée, il est possible de choisir de faire du cryptage au niveau d’une ou plusieurs des couches de communication. Les technologies de type courant porteur (CPL) ou radio intègrent des notions de cryptage au niveau des couches 1 et 2. Les couches applicatives du système de comptage évolué tel que les protocoles DLMS/COSEM ou ANSI C12.22 offrent également, une notion de cryptage. Tandis que les couches réseau et transport des réseaux IP assurent le cryptage pour l’ensemble des applications comme largement utilisé sur l’Internet (cf. transaction financière dans le commerce en ligne).
  • Pour assurer la sécurité physique d’un équipement - équipement de communication dans un poste de distribution par exemple - l’accès du poste électrique doit être surveillé et l’intégrité du boîtier de communication doit être assurée (personne ne peut s’y connecter sans y être autorisé, personne ne peut en changer le logiciel ou modifier un paramètre sans qu’il y ait une alerte, etc.).
  • Il est, également, important de pouvoir vérifier l’identité et l’authentification des utilisateurs et des équipements connectés aux réseaux. Les normes du monde de l’Internet et des réseaux électriques définissent les mécanismes pour authentifier un utilisateur (s’il est autorisé et son degré d’autorisation) ou un équipement (reconnaissance de l’équipement) afin de pouvoir les connecter au réseau.
  • L’ensemble de l’infrastructure de communication doit-être protégé des accès extérieures de façon similaire a tout réseau prive et cela grâce a l’ensemble des solutions déjà existantes et éprouvées, sans bien évidemment oublier les aspects humains et d’éducation nécessaires au bon déroulement des opérations

L’ensemble de ces protocoles doit, donc, être coordonnés et intégrés à l’architecture pour que le système soit entièrement fiable. De nombreux standards ont été définis dans le monde des télécommunications pour les couches « physique » et « liaison de données » et ceux-ci évolueront au cours des 15-20 prochaines années. L’intégration des modèles de sécurité au bon niveau de l’architecture est donc une garantie d’évolution permettant l’adoption des nouvelles technologies.

Dans le monde IP, depuis plusieurs années, il existe une coordination au niveau des acteurs (clients – distributeurs, industriels – développeurs d’architecture et agences gouvernementales), appelé la « Coordination Emergency Response Team » (CERT). Cela permet à l’ensemble des acteurs, lors d’attaques ou de virus, d’être informés de façon à pouvoir réagir et bloquer l’attaque, corriger le logiciel ou garantir la sécurisation du réseau. Cela n’existe pas dans des mondes de protocoles plus fermés qui appartiennent à un seul constructeur. L’IP doit, donc, être privilégié car c’est un protocole ouvert, sécurisé et qui permet aux acteurs industriels de collaborer plus facilement


Source : Cisco


Pensez-vous qu’il y aura superposition ou intégration des réseaux électriques et des réseaux de communication ?

L’industrie des télécoms travaille à la fourniture d’infrastructures de communication au niveau de la production, du transport et de la distribution de l’électricité. Les infrastructures de communication utilisées dans la production et le transport de l’électricité sont modernisées et les infrastructures telles que la fibre optique et les réseaux à haut débit sont parfois mutualisées. En revanche, au niveau des réseaux de distribution, tout reste à faire. Les technologies de communication qui sont en cours de déploiement peuvent être ou ne pas être directement superposées aux réseaux électriques.

Tout dépend de la technologie, de la topologie géographique et des régions. Aux États-Unis, la technologie privilégiée est fréquemment de type radio. Elle peut être déployée sans suivre l’arborescence du réseau électrique. En revanche, de nombreux pays Européens privilégient les technologies de courant porteur (en France, G1 ou G3 CPL) qui obligent à suivre l’arborescence des réseaux. Le choix se fait en fonction des coûts d’investissements (le CPL ne demande pas d’investissements supplémentaires en termes de média) mais aussi en fonction de la régulation des télécommunications notamment concernant l’allocation des bandes de fréquence radio (en Europe, travaux du CEPT en cours pour améliorer l’allocation des bandes de fréquence).

Enfin, il est certain qu’en fonction du type de fluide ou d’énergie inclus dans le Smart grid, les technologies seront différentes. Il n’est pas possible d’utiliser la technologie CPL pour des réseaux de gaz ou d’eau, pour des questions de sécurité et de technologie (il n’y a pas toujours de réseaux électriques à proximité des réseaux de gaz ou d’eau). C’est la raison pour laquelle on retrouve, généralement, des technologies de type radio pour les compteurs de gaz ou d’eau.

Pourriez-vous nous expliquer l’intérêt de développer une architecture de communication unique pour tous les fluides (électricité, gaz, eau, chaleur) ouverte et interopérable pour tous les acteurs ?

Notre définition des Smart grids se résume comme la convergence des réseaux d’énergies et des technologies de l’information et de la communication (TIC – centres de calcul, base de données, moyens de communication). Nous sommes un acteur de l’architecture des systèmes d’information et des télécommunications : notre travail est de définir cette architecture et de s’assurer qu’elle est fondée sur un protocole standardisé. Nous intervenons comme équipementier télécoms à tous les niveaux, que ce soit des réseaux électriques ou des autres réseaux (gaz, eau). C’est la raison pour laquelle l’entité chez Cisco qui s’occupe des Smart grids s’appelle désormais « Connected Energy Network » (et non plus « Smart grids Business Unit »).

Cependant, notre responsabilité n’est pas de nous prononcer sur l’intérêt d’une fusion des différents réseaux de fluides mais plutôt d’expliquer comment bâtir la meilleure architecture possible afin d’assurer un échange d’informations performant et fiable. En effet, la performance est liée à la manière dont les réseaux sont conçus. Avec le déploiement des compteurs électriques communicants, le volume d’informations à transmettre via le réseau public au centre de calcul est considérable. Les réseaux de télécoms doivent, donc, être conçus pour supporter ce volume d’information. Si l’on agrège les différents réseaux de communication des réseaux de gaz, d’eau, etc. (agrégat en termes de volume, de trafic et temps de latence), il faut que le réseau de communication ait été suffisamment dimensionné en amont pour qu’il puisse véhiculer un nombre de données encore plus important.

Le marché mondial de la communication pour les Smart grids va atteindre les 20 milliards de dollars par an d’ici cinq ans. Comment vont se répartir ses investissements ? Quelles sont les priorités ?

Aujourd’hui, la production et le transport sont des infrastructures déjà intelligentes. Il s’agit, donc, plus d’une mise à niveau des technologies (utilisation de technologies à plus haut débit, fibre optique, recours au modèle basé sur les protocoles de l’Internet) qui concentrera environ un tiers des investissements. Les 2/3 restants seront consacrés aux réseaux de distribution. En effet, le réseau basse tension n’est généralement pas du tout instrumenté et le réseau moyenne tension l’est plus ou moins. Le phénomène d’échelle est très important : il est plus long et coûteux de déployer une infrastructure de communication qui va jusqu’au dernier point de comptage (nouveau services – VE, intégration des EnR délocalisées).

Cependant, cette répartition sera différente selon les régions et les distributeurs.

Pourquoi vous être allié avec la société Itron, spécialiste des compteurs communicants ?

Cisco n’est pas un acteur traditionnel du monde de l’énergie mais de celui des télécommunications. Le constat qui a été fait par les deux sociétés est que chacune veut rester dans son domaine de compétence (Cisco n’a aucune intention de construire des équipements électriques, type compteurs). La question qui se pose pour les acteurs du monde de l’énergie est de savoir s’ils développent eux-mêmes une expertise en matière de télécommunications ou s’ils choisissent de passer des accords industriels pour pouvoir fournir les meilleurs produits du marché avec des gens qui ont une expertise dans le domaine.

Itron partage notre vision de l’architecture de communication et de l’intégration de protocoles IP dans le réseau : il nous a alors semblé normal de nous associer pour promouvoir cette architecture. Aucun des acteurs ne peut réussir seul dans le monde du Smart grids pour déployer un réseau qui soit complètement sécurisé et interopérable. Il faut qu’un écosystème se mette en place et que les acteurs acceptent de jouer le rôle de partenaires. Nous allons devoir créer des réseaux de la taille de ceux qui existe aujourd’hui pour les abonnés haut-débit, type ADSL. Les défis sont équivalents mais la durée est bien plus courte : à l’instar du déploiement du réseau Internet, aucun industriel ne peut déployer seul les réseaux de communication nécessaires aux Smart grids.

Cet accord n’est pas exclusif et les deux entreprises peuvent avoir d’autres partenaires.

Finalement, le plus important dans le déploiement des Smart grids réside dans le transfert d’information entre les deux secteurs. L’industrie électrique vit aujourd’hui de profondes transformations, notamment par l’intégration de la dimension « communication » et la fusion des informations nécessaire à chaque activité verticale. L’industrie des télécoms doit s’efforcer d’être pédagogue pour s’adapter aux besoins métier des industries énergétiques. Cela commence par un besoin pour chaque composantes des Smart grids d’apprendre a parler un même langage afin de travailler de façon efficace. Un exemple typique étant le terme de « réseau » qui n’évoque évidemment pas les mêmes réalités pour les énergéticiens et pour les télécoms.


Patrick Grossetete
22 mars 2012


Patrick Grossetete est ingénieur technique marketing et travaille sur l’architecture et la structure des réseaux de communication au sein de la Connected Energy Networks Business Unit de Cisco. Il a rejoint Cisco lors de l’acquisition de la société Arch Rock, ou il était Directeur des solutions Client et responsable de Produits centrés sur la technologie de réseau sans fil IEEE 802.15.4 et IPv6 pour les Smart grids, et l’optimisation environnementale et énergétique pour centre de calcul et bâtiments tertiaires et industriels. Auparavant, Patrick Grossetete dirigeait l’équipe responsable des produits Cisco IOS IPv6 chez Cisco.

Cisco fournit une gamme étendue de solutions pour le transport des données, de la voix et de la vidéo. Ces solutions fondées sur le protocole Internet (IP) se greffent au cœur de l'Internet et de la plupart des réseaux privés ou publics à travers le monde.

Cisco s'attache à créer une plate-forme de communication puissante qui servira de base pour la convergence des données, de la voix, de la vidéo et des communications mobiles dans une architecture intégrée et sécurisée.

Interview de Patrice Caillaud (Itron) :

En quoi le déploiement des technologies de l’information et de la communication (TIC) sur les réseaux électriques constitueront-ils un facteur de réussite des Smart grids ? Vous travaillez sur des logiciels de gestion des données des compteurs communicants. Pouvez-vous nous expliquer leur fonctionnement ?

Tout réseau dit « intelligent » est composé de deux éléments principaux : des compteurs communicants et des systèmes ou logiciels associés. Grâce aux données de comptage relevées et exploitées par ces logiciels, le distributeur peut, d’une part, piloter son réseau (gestion de la pointe, localisation précise des incidents réseaux, etc.) et, d’autre part, gérer les relations clients (facturation sur la consommation réelle, changement de fournisseur, changement de tarif, etc.) pour une plus grande satisfaction du client final.

Les réseaux intelligents vont ainsi permettre au distributeur une très grande réactivité, une interaction avec le réseau (grâce au fonctionnement bidirectionnel : le compteur et le système d’information communiquent entre eux dans les deux sens). Afin de permettre cette instrumentation plus fine des réseaux, les compteurs vont transmettre de plus en plus de données et de manière plus fréquente.

Par conséquent, le développement des réseaux intelligents va entraîner une augmentation considérable des quantités de données à traiter. Le distributeur va être contraint de gérer une quantité non connue jusqu’alors dans notre domaine. Toutes ces données n’auront de valeur que si elles peuvent être correctement relevées, traitées et exploitées. C’est ce que l’on appelle l’« intelligence des données ».

A cette fin, il est nécessaire de posséder des logiciels de gestion appelé également MDM (Meter Data Management) extrêmement puissants qui permettent de traiter, d’archiver, d’analyser de manière complexe cette quantité considérable et récurrente d’informations. Les MDMS sont des plates-formes logicielles qui rassemblent des données de comptage de nombreuses sources différentes et les mettent à disposition, après intégration, synchronisation et validation, auprès des nombreuses cibles. Elles permettent de gérer ces données pour les rendre utilisables.

En quoi consistent votre système de gestion de la charge et votre système de télécommande centralisée ?

Le système de télécommande centralisée est un outil robuste et éprouvé depuis de nombreuses années qui permet de gérer la charge du réseau. Ce système, inviolable, assure une utilisation optimale du réseau en lissant la pointe. Il se caractérise par une grande fiabilité d’émission et de réception des signaux.

D’un point de vue technique, la télécommande centralisée utilise le réseau électrique pour transmettre des informations d’un point central vers des milliers de points contrôlés. L’injection de signaux basse fréquence (< 500 Hz) superposés au réseau 50 Hz en haute ou moyenne tension (émetteur) permet de contrôler tous les points connectés au réseau basse tension (récepteurs). Les programmes sont exécutés de façon calendaire ou bien en temps réel en fonction de la charge du réseau et des capacités de production disponibles.

Le système de télécommande centralisée est reconnu pour ses applications traditionnelles : l’ordre de changement de tarifs et le contrôle de charge direct. Dans le cas de changement de tarifs, le système envoie l’ordre au compteur de passer d’un tarif à un autre, incitant ainsi le client final à consommer pendant les heures où l’énergie est la moins chère. La rapidité d’exécution et la fiabilité du système permettent de gérer des tarifs aléatoires, avec des préavis très courts (moins d’une heure). Le contrôle de charge direct implique la mise en ou hors service d’appareils (exemple : le pilotage de l’éclairage public ou de charges non prioritaires).

Avec l’intégration des énergies renouvelables et des véhicules électriques, la gestion de la pointe va devenir un enjeu de plus en plus crucial. Les effacements seront essentiels afin d’optimiser les infrastructures existantes et les coûts d’investissement.

Le système de télécommande centralisée permet, également, de nouvelles applications qui sont liées aux problématiques des Smart grids.

La première de ces applications est le délestage ciblé en cas d’incident réseau ou de surconsommation. Jusqu’à présent, le délestage était géré de manière automatique et non ciblée. Cette nouvelle fonctionnalité va permettre de les cibler afin d’éviter des coupures arbitraires et généralisées ou dans des cas extrêmes avant des black-outs. La télécommande centralisée permet, également, la connexion, déconnexion à distance de centrales de production d’énergies aléatoires. Enfin, c’est également un outil au service de la sécurité puisqu’elle permet de déclencher des signaux d’alerte en cas d’incident sur une large zone et de les diffuser en masse, en 5 secondes, sur tous les foyers.

La rapidité d’action et la robustesse à toute épreuve du système de télécommande centralisée en font un outil utile pour les Smart grids.

Pouvez-vous nous parler de votre alliance avec Cisco ? Quelles sont les raisons de ce partenariat ? Quels vont être vos domaines d’action ?

Le 1er septembre 2010, Itron et Cisco ont signé un accord global de partenariat portant sur le développement d’une plate-forme de communication de nouvelle génération dédiée aux Smart Grids.

Avec le développement des Smart grids, les gestionnaires de réseau auront à gérer deux types de réseaux : le réseau traditionnel de transport et de distribution d’électricité, de gaz et un nouveau réseau, le réseau de communication.

Devant ce nouvel enjeu, Itron, expert mondial du comptage et des réseaux intelligents, a souhaité s’associer à un expert mondial des réseaux de communication, Cisco.

Ce partenariat était évident pour nos deux entreprises et ce pour deux raisons. Tout d’abord, nos sociétés sont parfaitement complémentaires en termes de connaissances et d’expertises sur ces deux types de réseaux. Ensuite, elles partagent une même vision sur ce sujet. En effet, afin de pouvoir, dans l’avenir, gérer un réseau de communication qui sera très hétérogène, tant par ses composantes que par les produits qui y seront connectés et les données qu’il véhiculera, la solution la plus viable est le passage à des solutions IP (Internet Protocole).

L’ambition commune de nos deux entreprises est de fournir au marché une solution IP de bout en bout. Nos équipes collaborent, donc, à la construction d’une infrastructure de réseau intelligent sécurisée, interopérable et multi-services comme base du futur déploiement des Smart Grids.

Cette technologie sera fondée sur le protocole IPv6 assurant ainsi une parfaite évolutivité du système.



Patrice Caillaud
22 mars 2012


Patrice Caillaud est titulaire d’un diplôme d’ingénieur en électronique et de diplômes universitaires. Il est un des représentants français dans les groupes internationaux de normalisation sur les protocoles du comptage. A ce titre, il a été amené à concevoir ou mettre en œuvre des protocoles de type Euridis, Mbus, CPL.
Depuis 2005, il est Directeur Commercial et Marketing d’Itron France, division électricité. Il est très impliqué dans les projets AMM et Smart grids sur le territoire français parmi lesquels le compteur intelligent d’ERDF et des ELD françaises, ainsi que les projets liés à l’intégration des énergies renouvelables sur les réseaux électriques.

Itron est le leader mondial des systèmes de comptage intelligent, de collecte et de gestion des données pour les industries de l’eau, du gaz et de l’électricité. Notre mission consiste à fournir des solutions complètes (compteurs d’électricité, de gaz, d’eau et d’énergie thermique, des technologies de communication réseau, des systèmes de collecte des données, des logiciels et services associés) pour la mise en place de réseaux de distribution intelligents.

Interview de Marc Jalabert (Microsoft) :

Comment intervenez-vous dans le domaine des systèmes d’information appliqués aux Smart grids ? Quels sont les projets sur lesquels vous travaillez en France et en Europe ?

Les Smart grids sont, par définition, à la convergence des mondes de l’énergie et des technologies de l’information. Les systèmes d’information sont déjà massivement sollicités à tous les niveaux : production, transport, distribution et consommation. Le passage d’environnements comprenant aujourd’hui des dizaines de grands sites de production à des environnements comprenant demain des centaines de milliers, voire des millions de sources d’énergies, va décupler le besoin en puissance informatique pour équilibrer l’offre et la demande en temps réel. Il y a des parallèles très intéressants à faire avec la révolution des réseaux télécoms provoquée par Internet et la téléphonie mobile. On étend des architectures hiérarchiques et « top-down » vers des modèles répartis, avec des capacités de « bottom-up » et de « peer to peer » (communications points à points). Le protocole IP (Internet Protocol) a été un facteur d’accélération majeur dans la standardisation des réseaux Internet et on peut se poser la question de son équivalent dans le domaine des Smart grids.

Le numérique va, également, être appelé à jouer un rôle central du côté des utilisateurs. Imaginons par exemple le scénario suivant : le soir, pendant qu’elle me ramène chez moi, ma voiture électrique va interroger automatiquement mon agenda électronique, les cartes routières et les prévisions de circulation et en déduire le niveau de charge nécessaire à mes déplacements du lendemain. Elle consultera ensuite la planification des tarifs de l’électricité de mon domicile pour la nuit à venir, afin d’optimiser le coût final de la charge. Pour y parvenir, plusieurs systèmes (voiture, agenda personnel, maison) devront s’interfacer automatiquement en délivrant l’expérience utilisateur la plus simple et intuitive possible. Et ce n’est qu’un scénario parmi des centaines envisageables.

Que ce soit, donc, au niveau des réseaux ou à leur périphérie, les Smart grids font appel aux différentes infrastructures informatiques au cœur de l’offre de Microsoft : environnements répartis, base de données, outils de communication et de collaboration, plateformes applicatives, technologies Internet, interfaces utilisateur et terminaux de tous types.

La stratégie de Microsoft est de collaborer activement avec les grands acteurs du secteur des Smart grids pour faciliter l’intégration de ses plateformes à leurs solutions verticales. Plusieurs partenariats R&D majeurs peuvent être mentionnés avec Alstom Grid, ESRI, Itron et Schneider/Telvent notamment.

Quel est votre stratégie en matière de développement de normes dans le domaine des systèmes d’information ?

Microsoft envisage l’émergence d’un écosystème « énergie intelligente » (« Smart Energy Ecosystem ») beaucoup plus large et complexe que le seul domaine des Smart grids. Cet écosystème sera composé de milliers d’entreprises qui collaboreront avec les grands acteurs du secteur pour innover à tous les niveaux.

Dans ce contexte, et pour faciliter la compréhension des enjeux, Microsoft a publié un guide de référence pour l’écosystème Smart Energy, le guide SERA (Smart Energy Reference Architecture) qui peut être consulté ici : http://www.microsoft.com/enterprise/industry/power-utilities/solutions/smart-energy-reference-architecture.aspx

Quelles sont vos préconisations en matière d’accès et de sécurisation des données dans le domaine des Smart grids ?

Sécurité des données et protection de la vie privée sont deux enjeux majeurs de la société numérique et des environnements Smart grids par extension. Sans préjuger des contraintes spécifiques aux environnements Smart grids, les bonnes pratiques en vigueur sur Internet peuvent donner des directions à envisager.

Microsoft compte parmi les rares acteurs du secteur à assurer à ses utilisateurs un niveau très élevé de protection des données personnelles. Parce que légiférer sur ces questions prend du temps, nous avons anticipé en considérant qu’il relevait de notre responsabilité de nous appliquer volontairement trois règles contraignantes en matière de conservation et de collecte des données personnelles des utilisateurs :

  • transparence : savoir précisément quelles données personnelles sont susceptibles d’être collectées, à quel moment, et surtout à quelle fin. Microsoft s’engage à fournir aux utilisateurs ces informations, disponibles sur l’ensemble de ses services ;
  • contrôle : pouvoir décider qui peut accéder aux données personnelles et autoriser leur utilisation. L’utilisateur a, par exemple, le choix d’accepter ou de refuser les publicités en lien avec ses centres d’intérêt ;
  • sécurité : protéger les données par des règles de collecte et de conservation extrêmement strictes.

Les services de Microsoft, comme ses partenaires, ne peuvent pas corréler les informations identifiantes, comme le nom, l’adresse e-mail, le numéro de téléphone, etc., et les données liées à l’utilisation d’Internet – mots-clés recherchés, pages vues, etc. Ces deux types d’informations sont stockés séparément et la communication entre les deux est rendue impossible par un algorithme de sécurité irréversible.

A la suite d’une demande du Groupe de l’Article 29 (rassemblement des CNIL européennes) Microsoft a, également, décidé d’opérer la suppression totale et définitive de l’adresse IP au bout de six mois s’agissant des données de connexion des internautes lors de leurs recherches sur le web, et ce jusqu’au dernier octet, seule méthode à même de garantir l’anonymat des requêtes des internautes. Le reste de l’industrie n’a pas encore suivi cette voie.

Quelle est votre contribution au projet IssyGrid ?

Le projet IssyGrid est particulièrement innovant sur le fond et la forme et Bouygues Immobilier réalise un travail remarquable d’orchestration. Microsoft est un acteur parmi dix et, comme les autres membres du consortium, Microsoft investit et réalise du « design to cost » (sans marge, en optimisant au maximum les coûts ) en mobilisant ses meilleures ressources techniques et marketing. Le projet est une opportunité unique de repousser les limites et d’apprendre à un rythme soutenu.

Microsoft intervient à plusieurs niveaux :

Le siège social français de Microsoft est situé à Issy les Moulineaux et il va, donc, naturellement être « branché » sur IssyGrid pour tester plusieurs types de scénarios : pilotage intelligent des infrastructures, résidentiel avec notre « appartement numérique » (appartement de démonstration d’usages numériques et domotique – avec chambre, salon et vraie cuisine), navettes électriques (deux navettes circulent tous les jours entre le siège et les stations de transport en commun), centre de données informatique, tertiaire (restaurants d’entreprise).

Plusieurs partenaires du consortium comme Alstom, Bouygues Telecom et Schneider Electric commercialisent déjà des offres basées sur les plateformes Microsoft et nous allons capitaliser sur le projet pour les faire évoluer ensemble.

Microsoft va solliciter des designers pour concevoir des interfaces grand public avancées très simples à comprendre et à utiliser.

Enfin et surtout, nous portons avec Steria la responsabilité de l’architecture IT globale du projet.

En quoi consiste le cloud computing et en quoi peut-il être appliqué aux Smart grids ?

La promesse du cloud computing réside dans un accès simplifié à des ressources informatiques quasiment illimitées, à la demande et à un coût compétitif.

Le cloud est, donc, une technologie particulièrement bien adaptée aux besoins des Smart grids en termes de capacité de traitement de données et d’interconnexion de systèmes hétérogènes et répartis.

IssyGrid s’appuie sur une architecture cloud pour faciliter l’intégration de la multitude de systèmes à interconnecter, pour fournir de la puissance informatique à la demande aux services spécifiques, et pour simplifier l’accès aux données publiques.

Trois niveaux de données sont en effet définis dans le cadre du projet :

  • les données privées des entreprises ou des particuliers qui ne seront jamais partagées ni publiées, sauf en cas de consentement explicite ;
  • des données partagées entre les membres du consortium et utilisées pour la bonne exécution des services IssyGrid (par exemple les prévisions météo) ;
  • des données publiques disponibles en mode ouvert « Open Data » (par exemple l’historique météo).

IssyGrid s’appuiera sur le cloud pour faciliter l’accès aux données publiques et potentiellement permettre à tout un écosystème d’entreprises innovantes de tirer parti de ces données pour inventer de nouveaux services. Le projet est l’occasion de mettre en place une structure de données garantissant sécurité et confidentialité, d’identifier les données à vocation publique et de définir des interfaces ouvertes afin d’obtenir un retour d’expérience d’un écosystème innovant.

IssyGrid sera à la pointe de l’innovation cloud pour les Smart grids.

Plus d’informations sur l’apport du cloud computing au domaine de l’énergie peut être obtenu ici : http://download.microsoft.com/download/8/D/4/8D4988FF-4D1B-4B21-ABD4-95AB10CADB5B/IT%20for%20Energy-Smart%20Cities.pdf

Quelles différences existe-t-il dans le développement des technologies de l’information et de la communication (TIC) pour les réseaux électriques intelligents entre l’Europe et les États-Unis ?

La différence principale semble résider dans le nombre de projets pilotes et de démonstrateurs. Les États-Unis sont dans une démarche empirique et pragmatique et créent un contexte dans lequel de nombreuses approches différentes vont pouvoir être testées et un grand nombre d’acteurs mobilisés. Cet esprit pragmatique existe aussi en France : le projet IssyGrid en est la preuve.


Marc Jalabert
22 mars 2012


Marc Jalabert, est le directeur de la division Grand Public et Opérateurs de Microsoft France, division qui regroupe les canaux de distribution des solutions grand public de Microsoft, en particulier Windows, Office, Windows Phone et Xbox/Kinect.

Marc Jalabert possède un diplôme d’ingénieur informatique de l’ENSEEIHT et un MBA de l’INSEAD. Il est membre du conseil d’administration de l’AFDEL (Association Française des Editeurs de Logiciel), du conseil d’orientation de l’ENSCI (Ecole Nationale Supérieure de Création Industrielle) et représente Microsoft au sein du consortium IssyGrid.

Fondée en 1975, Microsoft est le leader mondial du logiciel. La société développe et commercialise une large gamme de logiciels, accessoires et services à usage professionnel et domestique. La mission de Microsoft est de mettre son expertise, sa capacité d’innovation et la passion qui l’anime au service des projets, des ambitions et de la créativité de ses clients et partenaires, afin de faire du numérique leur meilleur allié dans l’expression de leur potentiel.
Microsoft | Environnement : http://www.microsoft.com/environment/
Microsoft | Smart Grids : http://www.microsoft.com/enterprise/industry/power-utilities/solutions/delivery-smart-grid.aspx

Interview de Philippe Lucas (Fédération française des télécoms) :

Quel est l’enjeu des réseaux électriques intelligents dans le cadre du développement durable ?

A l’occasion de la mise en place des 18 filières vertes (biomasse énergie, éolien, photovoltaïque, géothermie, énergies marines, biocarburants, véhicules décarbonés, captage et stockage du CO2, réseau électrique intelligent, etc.) par les pouvoirs publics en 2010, la Fédération Française des Télécoms (FFT) s’est intéressée à la manière dont elle pouvait être partie prenante des travaux sur les réseaux électriques intelligents.

Schématiquement, la problématique des réseaux électriques intelligents peut être structurée en trois parties :

  • en amont du compteur : nous sommes plutôt dans des situations de gestion de réseaux énergétiques classiques avec des énergéticiens et des acteurs industriels connus et pour lesquels les opérateurs télécoms permettent la remontée d’informations à travers l’utilisation de cartes SIM et de modems GSM dédiés ;
  • le compteur électrique en lui-même, qui va devenir demain intelligent, ou du moins communicant. Dans certains pays, les réseaux télécoms peuvent être utilisés pour la remontée d’informations ;
  • en aval du compteur : c’est là que les opérateurs télécoms peuvent apporter une valeur ajoutée supplémentaire, parce qu’en faisant passer un certain nombre d’informations ou de commandes par le portail Internet, par le lien télécom, le particulier va pouvoir mieux contrôler sa consommation et ses équipements électriques bruns ou blancs qui seront connectés aux réseaux télécoms.

Quelle serait la valeur ajoutée en matière d’outils et de services offerte par les technologies de l’information et de la communication (TIC) dans le domaine des réseaux électriques ?

La Fédération a commencé à travailler en 2010 pour construire la position des acteurs télécoms dans ce domaine, en particulier en matière de normalisation et de développement d’un écosystème regroupant l’ensemble des acteurs.

A cet effet, les opérateurs de la Fédération ont pris l’initiative de se rapprocher des industriels du secteur électrique, équipementiers et énergéticiens, afin :

  • d’élaborer un écosystème harmonieux ;
  • de participer à la création d’une filière industrielle qui permette, demain, d’offrir aux consommateurs les modes de pilotage de leurs équipements au sein du foyer et, en particulier, de pouvoir moduler leur chauffage et de recharger « intelligemment » leur voiture électrique sans mettre en péril l’équilibre du système électrique français ;
  • et, à terme, debénéficier de ces développements pour fédérer de façon efficace encore plus de services (eau, gaz, sécurité, mobilité) au sein du foyer.

Ces services gérés en aval du compteur seront complémentaires des compteurs électriques Linky qui seront bientôt déployés. Ces services nécessiteront la mise en place de boîtiers gérant des services multiples de différents acteurs (chauffagistes, énergéticiens, domotistes, etc.) et utilisant l’accès au réseau télécom pour gérer l’information du client.

L’intérêt de ces travaux est de pouvoir fédérer les acteurs des différents secteurs afin de limiter les développements propriétaires et de créer une dynamique de services aux clients finaux de façon simple, sécurisée et optimale. Si la concurrence doit permettre l’émergence d’une offre de services multiples et innovants, elle doit néanmoins s’appuyer sur un certain nombre d’éléments de connectivité normalisés, car ils se situent aux frontières des métiers des différents acteurs (électriciens, électronique grand public, opérateurs télécoms, énergéticiens, hydrauliciens, etc.). Ces éléments de normalisation sont au cœur des discussions entre les différentes filières.

Pour leur part, les opérateurs télécoms sont apparus légitimes pour travailler sur ce sujet parce qu’ils sont détenteurs aujourd’hui d’un accès Internet et qu’ils en gèrent les boîtiers associés (les « box »), au nombre de 20 millions en France. Les opérateurs télécoms ont une compétence et une expertise pour gérer cette problématique des boîtiers avec des services spécifiques.

L’idée centrale est d’éviter de déployer trop de box à la maison de façon à simplifier la vie de l’utilisateur et faciliter l’émergence de nouveaux produits et services innovants.

Quel est l’état de la réflexion en France et en Europe ?

La réflexion menée au niveau français est, également, conduite dans un certain nombre d’autres pays européens, en Allemagne, en Italie et en Espagne par exemple. Avec nos homologues européens, nous commençons à voir que, pour l’instant, cette réflexion se met en place avec des acteurs locaux uniquement. Nous pressentons le besoin de mettre en place une solution à l’échelle européenne, plus normalisée pour l’ensemble des industries électriques.

Quelles sont les actions que vous menez en tant que membre du Comité stratégique des éco-industries (COSEI) ?

Dans le cadre du COSEI, nous rencontrons l’ensemble des industriels français des branches télécom et électrique, mais, également, d’autres secteurs qui peuvent être concernés par les réseaux électriques intelligents, comme par exemple la filière automobile. Nous y avons une réflexion globale pour que tous les acteurs puissent commencer à discuter et travailler ensemble. Cela passera d’abord par un langage commun, ce qui n’est pas nécessairement évident, car les mêmes mots font rarement référence aux mêmes notions.

Le boîtier télécoms qui pourra demain être utilisé par d’autres secteurs devra permettre que les différents éléments communiquent entre eux. Pour cela, il faut que les acteurs des télécoms se mettent d’accord entre eux sur un certain nombre d’interfaces physiques, techniques et normatives, de protocoles, pour que les équipements interfonctionnent, interopèrent, et pour qu’un modèle d’affaire commun qui sied à tout le monde puisse émerger.

C’est un travail qui nécessite un partage d’informations et une réflexion commune autour de ces interfaces afin de se mettre d’accord pour déterminer celles qui feront référence sur le marché.

Il a été annoncé en mars 2012 la création du groupe de travail « Normalisation » dans le cadre du groupe de travail du COSEI que la FFT va présider. En effet, de même que le GSM est devenue la norme internationale en terme de téléphonie mobile, il doit être possible pour la France d’établir la norme française/européenne en matière de réseaux électriques intelligents. Des normes existent et sont déjà connues et référencées. Il ne s’agit pas de créer de nouvelles normes.

La Direction générale de l’industrie et des services (DGCIS) peut être le catalyseur de la réflexion française dans ce domaine.

Comment résoudre le paradoxe du secteur des TIC, à la fois fortement consommateur d’énergie, mais qui offre également des perspectives d’économies d’énergie grâce au développement des Smart grids (MDE, etc.) ?

Dans les télécoms, nous avons un double défi à gérer dans les années à venir :

  • le premier est de contrôler, de maîtriser, la consommation énergétique de nos réseaux. C’est d’ailleurs l’un des engagements que les opérateurs ont inscrit dans la charte d’engagements volontaires pour le développement durable qu’ils ont signée en juillet 2010. A l’horizon 2020, la consommation énergétique doit être maitrisée alors que l’on assiste à une explosion des usages sur nos réseaux. C’est une dualité forte et une contrainte très importante que nous devons prendre en compte, en tant qu’opérateur télécom, en particulier dans le cadre du déploiement des réseaux ;
  • le deuxième défi est de contribuer à la réduction des gaz à effet de serre. L’étude du BCG réalisée à la demande de la Fédération en 2009 montrait l’effet de levier du pilotage à distance du chauffage et des équipements domestiques (« smart home ») et de la recharge « intelligente » des véhicules électriques qui représente à lui seul un gain potentiel de 7,9 TWh en 2020, soit l’ordre de grandeur de la consommation totale du secteur télécom à cet horizon.

Philippe Lucas
30 mai 2012


Philippe Lucas, est président de la Commission Innovation & Normalisation de la Fédération Française des Télécoms depuis mars 2012.
Il a rejoint le groupe France Telecom Orange en 2002 et est directeur de la normalisation depuis 2007. Il dirige la stratégie et la représentation du groupe France Telecom Orange dans plus de 60 instances internationales en lien étroit avec les entités stratégiques, marketing et technique. Il est administrateur et vice-président du conseil de l’European Telecommunication Standard Institute, membre du Comité Exécutif de la GSM Association et administrateur de l’AFNOR.
Auparavant, il a été consultant indépendant effectuant des missions stratégiques pour le gouvernement français, les opérateurs et les industriels du secteur des télécoms.
De 1994 à 1999, il a été en poste chez SFR en charge du développement de nouvelles technologies du GSM et de l’UMTS puis en charge du marketing prospectif.
Philippe Lucas est diplômé de l’Institut Polytechnique de Grenoble et possède un Master en traitement de signal numérique.

La Fédération Française des Télécoms réunit les associations et opérateurs de communications électroniques en France. Elle a pour mission de promouvoir une industrie responsable et innovante au regard de la société, de l’environnement, des personnes et des entreprises, de défendre les intérêts économiques du secteur et de valoriser l’image de ses membres et de la profession aux niveaux national et international.