<div dir="ltr">Thanks for the reply.<div><br></div><div>The relevant code you asked for is quite big and complex, I need some time to organize it and make it easy to read.</div><div><br></div><div>Apart from that, I have some questions that need to be clarified, maybe I can figure out the root cause somehow.</div><div><br></div><div>1. If the datasource contains video data and audio data, but my pipeline only processes the video data and I don't design any pipeline for audio data, what will happen to it? Should there be any error or warning?</div><div><br></div><div>2. To stream a video or a camera, do I need to design(or adjust) different pipelines for different platforms? Maybe the same pipeline that works on OSX doesn't work on Android or iOS?</div><div><br></div><div>3. Is there any method to check or monitor whether the datasource "really" goes through the pipeline? I mean, I did build a pipeline(road), but how could I sure the data(car) really processed by each element(drive over)? Maybe the data is stuck in the middle of the pipeline?</div><div><br></div><div>4. I followed your suggest and set the GST_LEVEL_DEBUG to 5, but still no message showing up in adb logcat(though many messages did show up on OSX)</div><div><br></div><div>5. I had set the permissions settings that is required to stream RTSP on Android devices in "AndroidManifest.xml".</div><div><br></div><div>Many Thanks</div></div>