Le facteur de charge varie d'une éolienne à une autre, notamment en raison des régimes de vent variables. (©photo)
Le facteur de charge d’une unité de production électrique est le ratio entre l’énergie qu’elle produit sur une période donnée et l’énergie qu’elle aurait produite durant cette période si elle avait constamment fonctionné à puissance nominale(1). Il fournit une indication importante pour calculer la rentabilité d’une installation électrique.
Le facteur de charge varie d’une unité de production à une autre, notamment en fonction :
- de la source d’énergie (ex : intermittente ou non) ;
- du niveau d’utilisation de l’unité de production (ex : arrêt forcé ou production limitée si la demande d’électricité est trop faible ou en cas de maintenance) ;
- de sa localisation (ex : ensoleillement de la zone pour les panneaux solaires, vitesse du vent pour les éoliennes).
La période de temps généralement considérée pour calculer un facteur de charge de référence est une année. Celui-ci s’exprime généralement en pourcentage.
Prenons, par exemple, une éolienne de 2 MW de puissance nominale. Sachant qu’une année correspond à 8 760 h, cette éolienne pourrait, en théorie, produire au maximum : 8 760 h x 2 MW = 17 520 MWh (soit 17,52 GWh).
Si l’éolienne considérée produit dans les faits près de 4 000 MWh en un an, son facteur de charge est égal à : 4 000 / 17 520 = 22,8%.
En 2015, le parc nucléaire français a un facteur de charge avoisinant 75% selon le dernier bilan électrique de RTE(2). Les énergies renouvelables ont un facteur de charge qui se situe en moyenne autour de 15% pour les installations solaires photovoltaïques et de 24,3% pour les parcs éoliens en France. Les centrales hydrauliques d’éclusées ont également un facteur de charge peu élevé en raison de leur usage : elles sont appelées pour satisfaire la demande électrique lors des pics de consommation en complément des autres sources d’énergie.