Digression Gagner en fluidité

Salut,

viewtopic.php?f=8&t=29838

Merci de nous avoir fait découvrir qu’avec un processeur plus rapide on gagnait en fluidité.
As-tu mesuré l’augmentation de la consommation d’énergie que provoque ce gain :slightly_smiling:

Personnellement, j’avais déjà tenté le truc via les applets de bureau Gnome qui permettent de modifier les fréquences du proc’ à la volée.
Je n’ai pas vu de différence ni avec compiz ni avec le reste en fait… (ce qui “ramait” rame toujours)
En mode “ondemand” par rapport au mode “performance”, le temps que met le proc pour monter en fréquence est à mon avis négligeable par rapport à l’inertie de l’application elle même.
De manière plus générale, j’ai rarement été convaincu par les bidouilles sensées améliorer les performances d’un système (dernièrement j’ai rajouté les options “relatime” et “nodiratime” aux partitions dans mon fstab sensées améliorer les temps d’accès disque, sans être convaincu non plus…)
Dans les 2 cas on perd quelque chose (proc’ à fond = conso. d’énergie en hausse / modif fstab = perte de la journalisation) sans rien gagner de convaincant en échange en terme de performance (sauf effet placébo).
(ma) Conclusion : le meilleur moyen de gagner significativement en performances est d’upgrader son matériel lorsque celui ci devient un peu juste :023

Re,

Et quand je vois la vitesse à laquelle je tape l’adresse d’un site par rapport au temps de réponse de mon 486 (serveur) je suis rassuré.

Utilise les marque-pages !

Plus facile à dire qu’à faire sur un portable.

Moi je dirais qu’en choisissant mieux ces applis on y gagne déjà.

Plus facile à dire qu’à faire sur un portable.

Moi je dirais qu’en choisissant mieux ces applis on y gagne déjà.[/quote]

Enfin des fois t’as pas trop le choix.
Mais je suis d’accord avec dric64 sur le fait que je n’ai jamais remarqué de changement avec les commandes de cpufrequtils, je me suis toujours demandé si ce logiciel fonctionnait réellement.

Pour moi il fonctionne en tous cas. La difference je l’ai vu la derniere fois que j’ai compile un noyau en passant en mode “performance”, ca a pris bien moins longtemps qu’en mode “conservative” que j’utilse d’habitude.

Si si, ça fonctionne bel et bien. C’est nettement plus flagrant sur du matos un peu vieillot. Ceci dit, j’ai abandonné cpufrequtils parce que j’avais lu quelque part que les nouveaux procs embarquaient d’autres systèmes de régulation interne, et surtout que le soit-disant gain d’énergie était contrebalancé par le fait que le temps de traîtement d’une opération est plus long en mode ondemand.

Sur la même machine avec et sans cpugrequtils je ne vois pas de différence de réactivité ni de performance. D’ailleurs le changement de fréquence mini ne m’a pas convaincu.
Par contre je vois la différence de consommation.

Je plussoie sur misterfreeze : le choix des applis est important sur une brouette et le choix du gestionnaire de fenêtre/bureau aussi. Je colle toujours iceWM sur mes brouettes et je vous donne la garantie que ça tourne mieux que gnome ou kde…si si

Le gain d’énergie est réel. Il suffit de regarder top pour colmprendre le mécanisme, la plupart du temps le CPU est à 10-30% ce qui veut dire qu’il passe 70% du temps à attendre des IO, une tache à faire, etc. Dans ces conditions le mettre à la fréquence minimale augmente le temps CPU consacrée à l’utilisateur (mettons passage de 20% à 60%, diminue la consommation et l’échauffement du CPU tout en ne changeant pas le temps de traitement. Dès que le CPU passe à 100%, si c’est possible la fréquence est augmentée.
Je n’ai vu aucun défaut à cette technique, c’est assez amusant de faire tourner un top et de voir le déclenchement des augmentation ou baisse de fréquence. Ce qu’il y a de rigolo, c’est que sur un logiciel comme mencoder n’utilisant qu’un seul coeur, l’un des coeur est à la fréquence max et l’autre à la fréquence min…

D’ailleurs, en parlant de ça, ffmpeg a une option threads qui permet de répartir la tâche sur plusieurs noyaux.

Pour le même film, l’utilisation de plusieurs coeurs a mis plus de temps que avec 1 seul coeur ( time à l’appui )

D’ailleurs, en parlant de ça, ffmpeg a une option threads qui permet de répartir la tâche sur plusieurs noyaux.

Pour le même film, l’utilisation de plusieurs coeurs a mis plus de temps que avec 1 seul coeur ( time à l’appui )[/quote]
Ça n’est pas le même algorithme, il n’est pas évident de faire du parallélisme et le résultat peut être moins efficace.

D’ailleurs, en parlant de ça, ffmpeg a une option threads qui permet de répartir la tâche sur plusieurs noyaux.

Pour le même film, l’utilisation de plusieurs coeurs a mis plus de temps que avec 1 seul coeur ( time à l’appui )[/quote]
Ça n’est pas le même algorithme, il n’est pas évident de faire du parallélisme et le résultat peut être moins efficace.[/quote]

Et en plus il n’est pas sûr que les deux solutions amalgamées neproduisent pas un effet contraire :slightly_smiling:

D’ailleurs, en parlant de ça, ffmpeg a une option threads qui permet de répartir la tâche sur plusieurs noyaux.

Pour le même film, l’utilisation de plusieurs coeurs a mis plus de temps que avec 1 seul coeur ( time à l’appui )[/quote]
Ça n’est pas le même algorithme, il n’est pas évident de faire du parallélisme et le résultat peut être moins efficace.[/quote]

Et en plus il n’est pas sûr que les deux solutions amalgamées neproduisent pas un effet contraire :slightly_smiling:[/quote]

Comment ça? Je n’ai pas lancé les deux commandes en même temps si c’est ce que tu veux dire…

Avec mencoder, lancer un encodage ou 2 encodages en parallèle prend le même temps: dans le premier cas, un seul coeur est utilisé, dans le deuxième cass les deux coeurs. Je ferais des tests avec ffmpeg. Tu peux faire des tests avec mksquashfs par exemple, tu verras que là le parallèlisme est impressionnant. gzip est efficace je crois aussi.

Bonjour,

[quote]Merci de nous avoir fait découvrir qu’avec un processeur plus rapide on gagnait en fluidité.
As-tu mesuré l’augmentation de la consommation d’énergie que provoque ce gain :slightly_smiling:[/quote]
À vrai dire, non, je n’ai pas mesuré la hausse de consommation.
Mais pour moi c’est un faux-problème que tu soulèves là. Lorsque tu te rends compte que ton ordinateur perd en efficacité tu as pas beaucoup de solutions :
Conserver son système et accélérer son matos, m’a paru être la solution la plus adaptée, on conserve son environnement, ses habitudes contre quelques centimes d’€/an de plus sur la facture EDF. Parce que la plupart des personnes qui utiliseront mon astuce ne mettront pas le processeur à 100% tout le temps (de toute façon l’applet Gnome peut très bien le faire aussi).
La solution qui consiste à changer régulièrement de configuration pour suivre l’évolution des logiciels (proposée par dric64) me paraît être la solution la plus aberrante . On peut reprocher à mon astuce de consommer plus d’énergie mais qu’est-ce réellement face à un changement régulier de PC ?
Raisonnons en Co2 émis, si mon astuce provoque certaine quantité de Co2 émis, le fait de changer de PC est pire : entre la création des composants dans des usines, leur transports jusqu’à une zone d’assemblage en Chine, leur transport dans des cartons jusqu’en Europe, puis jusqu’à chez ton revendeur en ligne, puis la livraison finale chez toi… L’émission de Co2 est bien plus importante, d’autant plus que sur la durée, la quantité de déchets produite est assez importante (quid du recyclage des composants PC ?)

Je ne veux pas vanter le coté écolo de mon astuce (ce serait assez paradoxal), mais si cette astuce peut permettre de conserver un utilisateur utilisable encore 3-4 ans de plus avant de changer en échange de quelques Watts, je considère ça comme plus écologique et plus économique que de changer souvent de configuration… Le marketing informatique a beau vanter ses progrès écolo, il n’en demeure pas moins qu’acheter souvent des “composants super écolos” est moins écolo que garder longtemps une solution moyennement écolo (on est plus à l’époque du Pentium 4 Prescott, les processeurs d’ancienne génération aujourd’hui sont les Core 2 Duo et les Athlon 64, dont la finesse de gravure est relativement basse (180<->45nm) et sont équipés de Coll’n’Quiet ou de SpeedStep)…
Et si ça peut faire chauffage en même temps pourquoi pas ? :smiley:

Et puis si tu considères mon astuce comme trop consommatrice, il y a un gars sur le forum Ubuntu-fr qui a donné une astuce pour faire en sorte que le noyau soit plus sensible à la moindre montée en charge et accède plus rapidement aux hautes fréquences, tout en laissant la fréquence minimale par défaut. De quoi mettre tout le monde d’accord :041
forum.ubuntu-fr.org/viewtopic.ph … 4#p3738804

Enfin sympa d’ouvrir la discussion sur des sujets comme ça :023

[quote=“Heliox”]Et puis si tu considères mon astuce comme trop consommatrice, il y a un gars sur le forum Ubuntu-fr qui a donné une astuce pour faire en sorte que le noyau soit plus sensible à la moindre montée en charge et accède plus rapidement aux hautes fréquences, tout en laissant la fréquence minimale par défaut. De quoi mettre tout le monde d’accord :041
forum.ubuntu-fr.org/viewtopic.ph … 4#p3738804[/quote]
Ah, ça c’est cool !

[quote=“seb-ksl”][quote=“Heliox”]Et puis si tu considères mon astuce comme trop consommatrice, il y a un gars sur le forum Ubuntu-fr qui a donné une astuce pour faire en sorte que le noyau soit plus sensible à la moindre montée en charge et accède plus rapidement aux hautes fréquences, tout en laissant la fréquence minimale par défaut. De quoi mettre tout le monde d’accord :041
forum.ubuntu-fr.org/viewtopic.ph … 4#p3738804[/quote]
Ah, ça c’est cool ![/quote]
Quand on peut mettre tout le monde d’accord, c’est l’essentiel :023