Hello,<br><br>I have created a GPU-accelerated plugin to playback Dirac video streams. This currently, like the software implementation it is based on (Schrodinger) uses the gst framework. To do this, it downloads back the rendered frame from GPU to CPU memory, after which it passes the raw YUV output to gst, which uploads the frame to the screen again.
<br><br>This generates a lot of superfluous traffic on the bus. Is there infrastructure in place to pass the output of a plugin as a GL texture, for direct rendering? Or some other recommended way to do this?<br><br>I realize I&#39;ve probably written the first video rendering plugin for Linux that is accelerated on graphics hardware, so this might get interesting.
<br><br>Greetings,<br>Wladimir<br><br>