<div dir="ltr">Hi,<div>I am working on an audio synthesis tool, which allows the user to generate audio to play over the top of a sequence of videos.</div><div>I'm writing this in python.</div><div>I am using GES to create a simple video sequence editor.</div><div>The application needs to be able to play the synthesised audio in sync with the video.</div><div><br></div><div>I have written a simple proof of concept subclass of GstApp.AppSrc which can do some simple audio synthesis, and feed it into a GStreamer pipeline. This works fine for me if I just connect it up to an autoaudiosink without using any GES stuff.</div><div><br></div><div>Is there a way to get this gstreamer element to be part of the GES timeline?</div><div><br></div><div>I tried to do this using the following method:</div><div><br></div><div>Create a Subclass of GES.SourceClip</div><div>Implement do_create_track_element on this subclass</div><div>do_create_track_element instantiates a custom subclass of GES.AudioSource</div><div>the subclass of AudioSource overrides do_create_source and returns a pipeline that wraps my custom AppSrc.</div><div>call layer.add_clip on a layer in a GES timeline to add one of these custom clips</div><div><br></div><div>This method does not work, I see various assertion errors when I try this.</div><div><br></div><div>Is this the right approach? Am I doing roughly the right thing? Or is there a totally different way to achieve what I want?</div><div>If this is roughly the right idea then where am I going wrong?</div><div><br></div><div>Thanks.</div><div>Dan.</div></div>