Suite à mon problème récent, j’aimerais savoir s’il est possible de disposer de deux cartes graphiques totalement différentes sous Debian.
Une AMD bas de gamme pour l’affichage.
Une nVidia avec drivers propriétaires pour des calculs GPU et seulement ça (sous Blender, avec CUDA).
C’est une entreprise viable ou parfaitement casse-gueule ?
Sur les portables il y a pour nous Bumblebee, et maintenant Optimus commence à être soutenu par Nvidia pour Linux. Seulement en général les machines sont montées ainsi d’origine (contrôleurs CG). Je suppose que tu parles d’un portable (batterie), pour un fixe cela n’aurait pas beaucoup d’intérêt.
Et pour le cas j’utilise bien un IGP pour le système et une CG sur un guest Windows.
IGP = processeur graphique présent avec le processeur, mais cela aurait pu être un processeur graphique intégré à la carte mère
CG = tout le monde l’aura deviné ‘carte graphique’
Bien entendu par contre il te faudra sans doute bien paramétrer la partie graphique pour n’utiliser que la carte bas de gamme, et t’assurer que ton CUDA sera utilisé par tes applicatifs.
Maintenant les outils de mining pour les rig permettent de sélectionner les carte graphique voulu, blender je ne le pense pas
De mon côté travaillant pour le coup avec du KVM/Qemu, je me contenter de blacklister la plus puissante pour pouvoir la laisser à disposition du ‘guest’ Windows.
Sans doute une piste te permettant de déporter blender sur une machine virtuelle et bénéficier malgré tout de la puissance nécessaire de calcul.
Sur de l’AMD/ATI je n’ai pas rencontré de souci particulier à le faire sous Intel/Nvidia il faut du patch mais c’es très bien documenté.
Je ne voie pas de contre indication. Il faudra juste faire un peu de config pour isoler l’affichage sur la bonne CG.
Fait des recherches pour voir s’il n’y a pas de conflit entre les drivers du caméléon et ceux d’ATI, et les différentes combinaisons entre les drivers propriétaire et libre.
C’est effectivement un pc fixe, et puisque cela a l’air possible, je vais poursuivre mes investigations (et discuter avec des personnes qui ont blender).
Ça aurait deux avantages : premièrement, ma CG ATI gère bien certaines choses que ma carte nvidia ne gère pas. Deuxièmement, ça donnerait plus de puissance de calcul à ma carte nvidia, ce qui me permettrait de passer de 4 jours de rendu à peut-être 3 jours, ce qui n’est vraiment pas rien ! (On gagne rarement une journée à optimiser quelque chose ! )
Il y avait Nvidia Gelato, dans les anciens temps, qui permettait de rendre très vite, en utilisant précisément la carte graphique, Nvidia, donc ; seulement le projet a dû être abandonné, même devant renaître différemment, et en outre je ne sais pas si la prise en charge par Blender avait été faite ou non.
Pour ton optimisation je ne sais pas si ça seras dans de telle proportion, mais il est vrai que les gestionnaire de bureau actuel utilise l’accélération graphique pour leur rendu, donc tu y gagnera un peu si tu utilise une autre carte pour cela.