<div dir="ltr"><div>Dieter, you need final LLVM 8.0.</div><div><br></div><div>Marek<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Feb 13, 2019 at 11:02 AM Dieter Nützel <<a href="mailto:Dieter@nuetzel-hh.de">Dieter@nuetzel-hh.de</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">GREAT stuff, Marek!<br>
<br>
But sadly some crashes.<br>
Is my LLVM git version to old?<br>
7. Jan 2019 (short before 8.0 cut)<br>
<br>
LLVM (<a href="http://llvm.org/" rel="noreferrer" target="_blank">http://llvm.org/</a>):<br>
   LLVM version 8.0.0svn<br>
   Optimized build.<br>
   Default target: x86_64-unknown-linux-gnu<br>
   Host CPU: nehalem<br>
<br>
   Registered Targets:<br>
     amdgcn - AMD GCN GPUs<br>
     r600   - AMD GPUs HD2XXX-HD6XXX<br>
     x86    - 32-bit X86: Pentium-Pro and above<br>
     x86-64 - 64-bit X86: EM64T and AMD64<br>
<br>
Please have a look at my post @Phoronix:<br>
<a href="https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1079916-radeonsi-picks-up-primitive-culling-with-async-compute-for-performance-wins?p=1079984#post1079984" rel="noreferrer" target="_blank">https://www.phoronix.com/forums/forum/phoronix/latest-phoronix-articles/1079916-radeonsi-picks-up-primitive-culling-with-async-compute-for-performance-wins?p=1079984#post1079984</a><br>
<br>
Thanks,<br>
Dieter<br>
<br>
Am 13.02.2019 06:15, schrieb Marek Olšák:<br>
> Hi,<br>
> <br>
> This patch series uses async compute to do primitive culling before<br>
> the vertex shader. It significantly improves performance for <br>
> applications<br>
> that use a lot of geometry that is invisible because primitives don't<br>
> intersect sample points or there are a lot of back faces, etc.<br>
> <br>
> It passes 99.9999% of all tests (GL CTS, dEQP, piglit) and is 100% <br>
> stable.<br>
> It supports all chips all the way from Sea Islands to Radeon VII.<br>
> <br>
> As you can see in the results marked (ENABLED) in the picture below,<br>
> it destroys our competition (The GeForce results are from a Phoronix<br>
> article from 2017, the latest ones I could find):<br>
> <br>
> Benchmark: ParaView - Many Spheres - 2560x1440<br>
> <a href="https://people.freedesktop.org/~mareko/prim-discard-cs-results.png" rel="noreferrer" target="_blank">https://people.freedesktop.org/~mareko/prim-discard-cs-results.png</a><br>
> <br>
> <br>
> The last patch describes the implementation and functional limitations<br>
> if you can find the huge code comment, so I'm not gonna do that here.<br>
> <br>
> I decided to enable this optimization on all Pro graphics cards.<br>
> The reason is that I haven't had time to benchmark games.<br>
> This decision may be changed based on community feedback, etc.<br>
> <br>
> People using the Pro graphics cards can disable this by setting<br>
> AMD_DEBUG=nopd, and people using consumer graphics cards can enable<br>
> this by setting AMD_DEBUG=pd. So you always have a choice.<br>
> <br>
> Eventually we might also enable this on consumer graphics cards for <br>
> those<br>
> games that benefit. It might decrease performance if there is not <br>
> enough<br>
> invisible geometry.<br>
> <br>
> Branch:<br>
> <a href="https://cgit.freedesktop.org/~mareko/mesa/log/?h=prim-discard-cs" rel="noreferrer" target="_blank">https://cgit.freedesktop.org/~mareko/mesa/log/?h=prim-discard-cs</a><br>
> <br>
> Please review.<br>
> <br>
> Thanks,<br>
> Marek<br>
> _______________________________________________<br>
> mesa-dev mailing list<br>
> <a href="mailto:mesa-dev@lists.freedesktop.org" target="_blank">mesa-dev@lists.freedesktop.org</a><br>
> <a href="https://lists.freedesktop.org/mailman/listinfo/mesa-dev" rel="noreferrer" target="_blank">https://lists.freedesktop.org/mailman/listinfo/mesa-dev</a><br>
</blockquote></div>