<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Fri, Oct 16, 2015 at 4:08 AM, Emil Velikov <span dir="ltr"><<a href="mailto:emil.l.velikov@gmail.com" target="_blank">emil.l.velikov@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class="">On 15 October 2015 at 19:25, Dylan Baker <<a href="mailto:baker.dylan.c@gmail.com">baker.dylan.c@gmail.com</a>> wrote:<br>
> Yes please. Not running all of the subtests (or at least returning<br>
> values for them) breaks assumptions made by the framework.<br>
><br>
</span>How exactly doesn't the framework count the subtests ? Does it<br>
detect/parse piglit_report_subtest_result() usage or does it use some<br>
other method ? Afaict the former is not that commonly used as it<br>
should have :'(<br>
<br>
Thanks<br>
<span class=""><font color="#888888">Emil<br>
</font></span></blockquote></div><br></div><div class="gmail_extra">Well, the framework doesn't consider a test a subtest unless it uses the piglit_report_subtest_result helper (or rolls the same functionality by hand). Basically the framework treats tests with subtests as groups, and the subtests as full tests, so leaving out subtests will push a crash into the enabled/disabled page instead of the regressions/fixes page.<br></div></div>