<div dir="ltr"><div><div><div><div><div><div><div>Hi everyone,<br><br></div>I'm developing a video surveillance server based on gstreamer. Yesterday we had a first shipment of h265 ip camera and I considered upgrading our server software. It turned out that rtph265(pay)depay is available only on gstreamer 1.6.X ( I had 1.4.X before from opensuse official repo). I updated my gstreamer stack, but then I stumbled upon some strange bugs:<br><br></div>1) rtspsrc with default protocols fails with <br><br>gstrtspsrc.c(6856): gst_rtspsrc_setup_streams (): /GstPipeline:pipeline0/GstRTSPSrc:rtspsrc0:<br>Could not setup transport.<br><br></div>This can be fixed with protocols=tcp option on pipeline<br><br></div>2) mp4mux element produces file with 0 duration. When i use ffprobe on new recorded rtsp stream I get 00:00:00 duration, yet the size is definitely non zero. This can be fixed if I use matroskamux instread.<br><br><br></div>Is this a broken repo/library issue or am I doing wrong here?<br><br><br></div>And other big question: how can I automatically define rtp pay/depay time for each camera type when recording live video streams? I have several types: mjpeg over rtp, h264 over rtp, h265 over rtp and possibly mpeg-ts over http and multipart mjpeg over http.  Right now I have command line switched for each codec, witch looks awkward as hell.<br><br></div>Thanks in advance! <br></div>