<div dir="ltr">Hello all,<div><br></div><div>This is my first post, so please inform me if I break any rules.<br><br>I'm reading a byte-stream YUV420 at 972x720 pixels from a file with Gstreamer using the following command:<br><br>gst-launch-1.0 filesrc location=testfile blocksize=1049760 ! rawvideoparse width=972 height=720  framerate=1/1 ! xvimagesink<br><br></div><div>This works in so far that I get an image but this image isn't displayed correctly. It looks like it contains part of the next YUV frame. When exporting the frames seperately using command:</div><div><br>gst-launch-1.0 filesrc location=testfile blocksize=1049760 ! rawvideoparse width=972 height=720  framerate=1/1 ! multifilesink location="rvp_%d.raw"</div><div><br></div><div>And play it using ffmpeg command: </div><div><br></div><div>ffplay -f rawvideo -video_size 972x720 -pixel_format yuv420p -i rvp_0.raw</div><div><br></div><div>The video (one frame) is displayed correctly. </div><div><br>I see that when using the element 'rawvideoparse' it will create a file of 1051200 bytes per frame instead of the expected 1049760. When I remove 'rawvideoparse' the right amount of bytes are written but this doesn't work in a video pipeline and my objective is to read them directly from the file into an 'xvimagesink'<br><br>Am I messing up or is there a bug in the rawvideoparse element? <br></div></div>