<div dir="ltr">Dear virglrenderer developers,<br><br>I am writing to seek your guidance and support regarding the usage of virglrenderer on a ARM A53 based virtual platform running on Linux.<br><br>Currently, I have set up a virtual machine with the following configuration:<br><br>Host OS: <div>------------</div><div>Ubuntu 18.04 with Integrated GPU, Intel I7.<div><br>Virtual Machine OS: <div>---------------------------</div><div>Yocto Linux with Linux kernel 5.15 ,Virtual GPU: VIRTIO_GPU enabled in the Linux kernel<br>Graphics Stack: DRM with -virgl support<div><br>Additional Information: Weston is currently running with pixman support in the virtual machine.<br><br>My objective is to leverage virglrenderer to utilize the GPU of the host (Ubuntu 18.04) in running a sample OpenGL application within the virtual machine. I have successfully installed virglrenderer in the Yocto Linux build on the virtual machine.<br><br>However, I am facing some challenges in achieving this setup. I would greatly appreciate it if you could kindly provide me with instructions or guidance on how to run OpenGL applications with virglrenderer to utilize the host PC's GPU in the virtual machine.<br><br>Specifically, I would like to know the step-by-step procedure to:<br><br>1. Run a simple opengl application on VM using Host's CPU.</div><div>2. Configure Weston to use virglrenderer.<br>2. Ensure that the virtual machine effectively utilizes the host PC's GPU for running OpenGL applications.<br><br>Any insights or sample configurations would be immensely helpful in guiding me through this process. I have been exploring various documentation and forums, but I believe your expertise and support will be invaluable in getting this setup to work optimally.<br><br>Thank you so much for your time and assistance. I am looking forward to your prompt response.<br><br>Best regards,<br>Sami</div></div></div></div></div>