Hi all,<br><br>I&#39;m currently looking at syncing of two independent RTP sources (one video, one audio), both of which are recorded by our application to be played back later, in sync.<br><br>I understand that part of the RTP/RTCP spec is that RTCP sender reports sent periodically (e.g. every few seconds) contain a ntp timestamp which correlates ntp time to RTP timestamps, in theory allowing accurate synchronisation between multiple sources.<br>
<br>My question is: do any of the gstreamer rtp related elements take account of the ntp timestamps in sender reports and adjust buffer timestamps accordingly?&nbsp; Which element(s) do RTCP processing?<br><br>My video source is a RTSP/mpeg4 part2 network encoder, and the relevant gst-launch equivalent of my pipeline looks something like:<br>
<br>&gt; gst-launch uridecodebin uri=&quot;rtsp://someurl&quot; ! queue ! decodebin2 ....<br><br>in case that can help somebody direct me...<br><br>The audio source is received by something other than a g-streamer pipeline btw.<br>
<br>Thanks in advance,<br>Jono<br>