<div dir="auto"><div>Hi,</div><div dir="auto"><div dir="auto"><br></div><div dir="auto">What is the idea behind fixing the sink pad number i.e., sink_0 to video and sink_1 to audio ? The pads would be linked dynamically anyway.</div><div dir="auto"><br></div><div dir="auto">Can you try the below modified pipeline. I have also added a queue in audio branch after demux.</div><div dir="auto"><div dir="auto"><br></div><div dir="auto"><b style="font-size:12.8px">gst-launch-1.0 ndisrc ndi-name="NDIPE8 (SIGGEN)" !  ndisrcdemux name=demux demux.video ! queue ! videoconvert ! x264enc ! video/x-h264,format=byte-stream,profile=baseline ! rtph264pay !   'application/x-rtp,media=video,encoding-name=H264,payload=97,clock-rate=90000' !  whip. demux.audio ! queue ! audioconvert ! opusenc ! rtpopuspay ! 'application/x-rtp,media=audio,encoding-name=OPUS,payload=96,clock-rate=48000,encoding-params=(string)2'  !  whipsink name=whip   auth-token="…redacted….."  whip-endpoint="<a href="https://director.millicast.com/api/whip/myStreamName" style="text-decoration-line:none;color:rgb(66,133,244)" target="_blank" rel="noreferrer">https://director.millicast.com/api/whip/myStreamName</a>”</b><br></div></div><br><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Sat, 15 Jul, 2023, 03:30 GST Developer via gstreamer-devel, <<a href="mailto:gstreamer-devel@lists.freedesktop.org" target="_blank" rel="noreferrer">gstreamer-devel@lists.freedesktop.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="line-break:after-white-space"><div>Hi Folks.</div><div><br></div><div>I am attempting use gstreamer to send content from an NDI Source to a WHIP end point at Dolby.io.</div><div><br></div><div>If I just send VIDEO, its working fine:</div><div><br></div><div><b>gst-launch-1.0 ndisrc ndi-name="NDIPE8 (SIGGEN)" !  ndisrcdemux name=demux demux.video ! queue ! videoconvert ! x264enc ! video/x-h264,format=byte-stream,profile=baseline ! rtph264pay !   'application/x-rtp,media=video,encoding-name=H264,payload=97,clock-rate=90000' !   whip.sink_0 whipsink name=whip   auth-token=“…redacted….."  whip-endpoint="<a href="https://director.millicast.com/api/whip/myStreamName" rel="noreferrer noreferrer" target="_blank">https://director.millicast.com/api/whip/myStreamName</a>”</b></div><div><br></div><div><b>This works FINE !! we get the signal to the WHIP server and the end to end latency is about 2 seconds.</b></div><div><br></div><div>Now I want to add AUDIO to that pipeline, and I am trying: </div><div><br></div><b>gst-launch-1.0 ndisrc ndi-name="NDIPE8 (SIGGEN)" !  ndisrcdemux name=demux demux.video ! queue ! videoconvert ! x264enc ! video/x-h264,format=byte-stream,profile=baseline ! rtph264pay !   'application/x-rtp,media=video,encoding-name=H264,payload=97,clock-rate=90000' !  whip.sink_0 demux.audio ! audioconvert ! opusenc ! rtpopuspay ! 'application/x-rtp,media=audio,encoding-name=OPUS,payload=96,clock-rate=48000,encoding-params=(string)2'  ! whip.sink_1  whipsink name=whip   auth-token="…redacted….."  whip-endpoint="<a href="https://director.millicast.com/api/whip/myStreamName" rel="noreferrer noreferrer" target="_blank">https://director.millicast.com/api/whip/myStreamName</a>”</b><div><br></div><div>Now, it starts up with:</div><div><br></div><div><div>Setting pipeline to PAUSED ...</div><div>Pipeline is live and does not need PREROLL ...</div><div>Pipeline is PREROLLED ...</div><div>Setting pipeline to PLAYING ...</div><div>New clock: GstSystemClock</div><div>Redistribute latency...</div><div>Redistribute latency...</div><div>Redistribute latency…</div></div><div><br></div><div><b>But it stalls right there, and never gets to counting time, and we dont see anything arrive at the WHIP server.</b></div><div><br></div><div style="font-size:15px"><i>Might anyone know what I am doing wrong ?</i></div><div><br></div><div>Many thanks !!!</div><div><br></div><div><br></div><div><br></div></div></blockquote></div></div></div>