La consommation des serveurs n'a pas augmenté depuis 2010. J'en reviens toujours pas. Vous en pensez quoi ? (source : IEA)
L'explication viendrait de l'optimisation de bourrin (parce que la niveau optimisation c'est du haut level) du notamment à l'hyperscale computing.
Ça remet complètement en question ma position sur le cloud niveau énergie. Je lis par-ci par la qu'il faudrait éviter le cloud et travailler un max en local. Mais finalement ça serait plus pour réduire l'usage du réseau (qui consomme pas mal, il faut que je trouve les chiffres)
Que charge serveur qui a l'air d’être bien plus opti qu'une machine en local même si elle est pas tout le temps allumée. Il faudrait que je creuse ça.
Bon ça fait réagir ^^ du coup question aux experts dans la salle : Indépendamment de l'amélioration des composants, l’optimisation de la charge des serveurs doit avoir une limite , on peut supposer que c'est une phase de transition ou pas ?
OK ce tweet fait à l'arrache a explosé les stats par rapport à ce que je fais d'habitude :p
Il y aura une vidéo sur la consommation électrique des usages d'internet en septembre et sur l'empreinte CO2. Voila ça c'est dit.
You can follow @MrBidouille.
Tip: mention @twtextapp on a Twitter thread with the keyword “unroll” to get a link to it.

Latest Threads Unrolled: