<div dir="ltr"><div><div>Hi everyone,<br><br></div>    I want to use the hardware encoder (OMX.Exynos.AVC.Encoder) to create a h264 stream on my Android phone (Samsung Galaxy Note 3) and streaming to the nginx server using gstreamer. I create a pipeline like this: "appsrc name=screensrc format=3 ! video/x-h264, width=1080, height=1920, framerate=30/1, stream-format=byte-stream ! h264parse ! flvmux streamable=true ! rtmpsink location=rtmp://<a href="http://192.168.100.6:1935/live/stream">192.168.100.6:1935/live/stream</a>". But the pipeline didn't work: h264parse can recognize SPS, PPS, IDR but on the server it didn't show anything. I can, however, encode the stream using jpecenc/x264enc and streaming via udp, even rtmp successfully. Because I don't know much about gstreamer and h264, I can't understand what I've done wrong. Can anybody view the attached log files and give me advices what to do next? Sorry for my bad English.<br><br></div>Thank you. <br></div>