je remonte donc le temps...
si je décode avec mon cpu c'est simplement pour décharger au max ma rtx 2080!
2/3 msec de différence de rendering entre decodage CPU et decodage matériel GPU, c'est étrange. L'acceleration matérielle utilise des composants hardware et pas ressource software GPU donc ne devrait rien couter en temps de rendring.
Moi, je n'ai aucune différence.
Tu utilises la fonction zoom control sur madVR ?
sur une vega64(que j'ai eu) ça va être encore plus juste. il va sans doute falloir passé en bilnear. surtout qu'elle va aussi s'occuper de frc
moi j'ai rtx dédier au rendering
amd rx550 dédier a frc
cpu i7@4600mhz dédier au decodage lavdecoder
C'est a voir.
Il y a eut des tests qui montrent clairement la supériorité de la Vega64 comparé un bundle RX... + GTX1080TI quand FRC est utilisé. (il faudrait que je retrouve le comparatif mais le gain en msec n'était pas mineur)
Ce gain est peut etre du a la minimisation des echanges de données entre les différents GPU et CPU.
Grosso modo, a l'époque , j'en avais déduit que si recours a FRC, alors il fallait éviter de scinder les processus et de faire tout dans la meme carte (donc dans du radeon)