<div dir="ltr">Hi devs,<div><br></div><div>I would like to get 10-bit color depth working on my system for proper playback of HEVC Main10 profile. I'm writing some software to do this, but for initial test purposes I'm using readily available applications. So far I'm not able to get proper 10-bit color output. My system is an Intel NUC NUC5i7rYH (with Iris Graphics 6100) running Ubuntu 15.10 with Intel Graphics Installer 1.4.0. The output is HDMI to a Dell U3011 monitor and I also have an Astro VA-1838 HDMI Protocol Analyzer.</div><div><br></div><div>After installation of the Intel Graphics Installer 1.4.0, I can confirm that the output now shows as HDMI 12-bit RGB @1920x1080p60 (using the Astro VA-1838). However, display of gradient test images and video clips that have 10-bit color depth or more are either down sampled to 8-bit depth or dithered when using XVideo output (confirmed by reading pixel values using the Astro). These tests were done using combinations of Gimp 2.9.2, ImageMagick 6.8.9.9, VLC 2.2.1, ffmpeg 2.7.6, and x265 10-bit 1.9.</div><div><br></div><div>I noticed that the xdpyinfo utility shows that the X server display only supports depths 24, 1 , 4, 8, 15, 16, and 32. I read online that a custom xorg.conf file can be created to force the default depth to 30. I tried this and it does then make xdpyinfo report support for 30-bit depth, however it causes several issues, such as the Ubuntu Unity Plugin failing to start, VLC reporting that there is no available XVideo output adapter, and sluggish VLC playback with X11 video output. Furthermore VLC playback using the X11 video output is still down sampled to 8-bit.</div><div><br></div><div>My questions are:</div><div><ul><li>Is Intel Graphics for Linux supposed to support 10-bit color depth (30-bpp) in X?</li><li>If so, what do I need to do to enable it?</li><li>If not, can you provide some advice on how I can get 10-bit color output using Intel Graphics?</li></ul><div>Thanks,</div></div><div>-Marvin</div><div><br></div></div>