<br><br><div class="gmail_quote">On Sat, Jun 23, 2012 at 2:04 AM, Casey Dahlin <span dir="ltr"><<a href="mailto:cdahlin@redhat.com" target="_blank">cdahlin@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">On Fri, Jun 22, 2012 at 10:29:04PM +0300, Pekka Paalanen wrote:<br>
> The trick is in the kernel DRM, which has to be able to deal with the<br>
> buffer and actually push it to the USB device. This may require special<br>
> allocation flags or somehow using the dmabuf infrastructure to allocate<br>
> the buffer, where the composite is drawn.<br>
<br>
</div>Pretty sure it's possible right now to just copy the buffer out to normal<br>
userspace memory and then in to another DRM buffer. Not the quickest<br>
transition, but functional.<br>
<br>
--CJD<br>
</blockquote></div><br>Does this mean wayland (rather weston) does not support multiple graphics card seamlessly (as of now without dmabuf patches)? Consider that an application creates a DRM buffer and uses it for rendering, when user moves the window to another screen that is driven by another graphics card this case could appear. Will the memory content be copied (in current state)? Will there be a better solution without buffer sharing (what if the window buffer is in graphics card's RAM)? Please provide some pointers and/or documentation on how wayland and weston works (which libraries it calls for what purpose).<br>