<br><br><div class="gmail_quote">On Wed, Aug 24, 2011 at 5:15 PM, Zack Rusin <span dir="ltr">&lt;<a href="mailto:zack@kde.org">zack@kde.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im">On Wednesday, August 24, 2011 03:28:00 PM Chris Fester wrote:<br>
&gt;<br></div>
I think that computing timings during tracing could be useful if your<br>
application is CPU bound - huge discrepency between tracing and retracing<br>
timings would mean that the app is spending too much time creating the data.<br>
And the biggest offsets would point you to the places in your app that are the<br>
bottlenecks.<br>
<br>
Other than this case I&#39;m not sure if computing the timings while tracing is<br>
particular useful, because for all other case it should be a lot better to do<br>
it while retracing.<br></blockquote><div><br>The problem I&#39;ve got is I have the same rendering app, same code base, same OS, etc.  I upgrade the ATI kernel module and library stack.  Now I have very specific reproducible scenarios where my CPU usage shoots up for a certain range of frames, appearing to cause on-screen rendering to slow down/stutter.  The CPU usage is mostly accumulated in the rendering process, although one of my top iterations shows that X.org is also chewing up time (top -d 0.1).  Our rendering process is using glXSwapIntervalSGI(1), it&#39;s framerate is more-or-less clamped to VSYNC at 60Hz.  The rendering expert guy here suspects that something has changed in the ATI libs/drivers WRT loading textures onto the card.  Unfortunately the problem only seems to apply to certain textures.<br>
<br>Soooo.... it is possible that there&#39;s some sort of interaction between the rendering process and ATI&#39;s libGL that truly is more of a problem with our rendering process.  But I do have to prove for sure that the CPU time of each gl call is about the same (compared to the older ATI libs).  I agree with you that *most* GL calls wind up queuing up a command in the card&#39;s command buffer, and that won&#39;t take much CPU.  I also agree that it will be useful to prove that GPU time between driver versions isn&#39;t changing.<br>
<br>I like how Yuanhan&#39;s implementation times specific functions as opposed to everything.  I may do some initial timing with my variant first, then &quot;drill down&quot; with Yuanhan&#39;s.<br><br>Thanks!<br>Chris <br>
</div></div><br clear="all"><br>-- <br>Oh, meltdown... It&#39;s one of these annoying buzzwords. We prefer to call it an unrequested fission surplus.<br>-- Mr. Burns, The Simpsons<br>