<div dir="ltr"><div class="gmail_quote"><div dir="ltr">On Thu, Jan 3, 2019 at 3:39 AM Erik Faye-Lund <<a href="mailto:erik.faye-lund@collabora.com">erik.faye-lund@collabora.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Wed, 2019-01-02 at 10:16 -0600, Jason Ekstrand wrote:<br>
> On Wed, Jan 2, 2019 at 9:43 AM Ilia Mirkin <<a href="mailto:imirkin@alum.mit.edu" target="_blank">imirkin@alum.mit.edu</a>><br>
> wrote:<br>
> > Have a look at the first 4 patches in the series from Jonathan<br>
> > Marek<br>
> > to address some of these issues:<br>
> > <br>
> > <a href="https://patchwork.freedesktop.org/series/54295/" rel="noreferrer" target="_blank">https://patchwork.freedesktop.org/series/54295/</a><br>
> > <br>
> > Not sure exactly what state that work is in, but I've added<br>
> > Jonathan<br>
> > to CC, perhaps he can provide an update.<br>
> > <br>
> > Cheers,<br>
> > <br>
> >   -ilia<br>
> > <br>
> > On Wed, Jan 2, 2019 at 6:28 AM Qiang Yu <<a href="mailto:yuq825@gmail.com" target="_blank">yuq825@gmail.com</a>> wrote:<br>
> > ><br>
> > > Hi guys,<br>
> > ><br>
> > > I found the problem with this test fragment shader when lima<br>
> > development:<br>
> > > uniform int color;<br>
> > > void main() {<br>
> > >     if (color > 1)<br>
> > >         gl_FragColor = vec4(1.0, 0.0, 0.0, 1);<br>
> > >     else<br>
> > >         gl_FragColor = vec4(0.0, 1.0, 0.0, 1);<br>
> > > }<br>
> > ><br>
> > > nir_print_shader output:<br>
> > > impl main {<br>
> > >         block block_0:<br>
> > >         /* preds: */<br>
> > >         vec1 32 ssa_0 = load_const (0x00000001 /* 0.000000 */)<br>
> > >         vec4 32 ssa_1 = load_const (0x3f800000 /* 1.000000 */,<br>
> > > 0x00000000 /* 0.000000 */, 0x00000000 /* 0.000000 */, 0x3f800000<br>
> > /*<br>
> > > 1.000000 */)<br>
> > >         vec4 32 ssa_2 = load_const (0x00000000 /* 0.000000 */,<br>
> > > 0x3f800000 /* 1.000000 */, 0x00000000 /* 0.000000 */, 0x3f800000<br>
> > /*<br>
> > > 1.000000 */)<br>
> > >         vec1 32 ssa_3 = load_const (0x00000000 /* 0.000000 */)<br>
> > >         vec1 32 ssa_4 = intrinsic load_uniform (ssa_3) (0, 1, 0)<br>
> > /*<br>
> > > base=0 */ /* range=1 */ /* component=0 */   /* color */<br>
> > >         vec1 32 ssa_5 = slt ssa_0, ssa_4<br>
> > >         vec1 32 ssa_6 = fnot ssa_5<br>
> > >         vec4 32 ssa_7 = bcsel ssa_6.xxxx, ssa_2, ssa_1<br>
> > >         intrinsic store_output (ssa_7, ssa_3) (0, 15, 0) /*<br>
> > base=0 */<br>
> > > /* wrmask=xyzw */ /* component=0 */       /* gl_FragColor */<br>
> > >         /* succs: block_1 */<br>
> > >         block block_1:<br>
> > > }<br>
> > ><br>
> > > ssa0 is not converted to float when glsl to nir. I see<br>
> > glsl_to_nir.cpp<br>
> > > will create flt/ilt/ult<br>
> > > based on source type for gpu support native integer, but for gpu<br>
> > not<br>
> > > support native<br>
> > > integer, just create slt for all source type. And in<br>
> > > nir_lower_constant_initializers,<br>
> > > there's also no type conversion for integer constant.<br>
> <br>
> This is a generally sticky issue.  In NIR, we have no concept of<br>
> types on SSA values which has proven perfectly reasonable and<br>
> actually very powerful in a world where integers are supported<br>
> natively.  Unfortunately, it causes significant problems for float-<br>
> only architectures.<br>
<br>
I would like to take this chance to say that this untyped SSA-value<br>
choice has lead to issues in both radeon_si (because LLVM values are<br>
typed) and zink (similarly, because SPIR-V values are typed), where we<br>
need to to bitcasts on every access because there's just not enough<br>
information available to emit variables with the right type.<br></blockquote><div><br></div><div>I'm not sure if I agree that the two problems are the same or not...  More on that in a bit.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
It took us a lot of time to realize that the meta-data from the opcodes<br>
doesn't *really* provide this, because the rest of nir doesn't treat<br>
values consistently. In fact, this feels arguably more like buggy<br>
behavior; why do we even have fmov when all of the time the compiler<br>
will emit imovs for floating-point values...? Or why do we have bitcast<br></blockquote><div><br></div><div>Why do we have different mov opcodes?  Because they have different behavior in the presence of source/destination modifiers.  You likely don't use those in radeon or Zink but we do use them on Intel.  That being said, I've very seriously considered adding a generic nir_op_mov which is entirely typeless and doesn't support modifiers at all and make most of core NIR use that.  For that matter, there's no real reason why we need fmov with modifiers at all when we could we could easily replace "ssa1 = fmov.sat |x|" with "ssa1 = fsat |x|" or "ssa1 = fabs.sat x".  If we had a generic nir_op_mov to deal with swizzling etc., the only thing having i/fmov would really accomplish is lowering the number of different ways you can write "fmov.sat |x|".  The only reason I haven't added this nir_op_mov opcode is because it's a pile of work and anyone who can't do integers can just implement imov as fmov and it's not a big deal.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I would really love it if we could at least consider making this "we<br>
can just treat floats as ints without bitcasts if we feel like it"-<br>
design optional for the backend somehow.<br>
<br>
I guess the assumption is that bitcasts are for free? They aren't once<br>
you have to emit them and have a back-end remove a bunch of redundant<br>
ones... We should already have all the information to trivially place<br>
casts for backends that care, yet we currently make it hard (unless<br>
your HW/backend happens to be untyped)...<br>
<br>
Is there some way we can perhaps improve this for backends that care?<br></blockquote><div><br></div><div>That's an interesting question...</div><div><br></div><div>Before answering that question, let's back up and ask why.  From a hardware perspective, I know of no graphics hardware that puts types on registers.  On Intel, we assign types to sources and destinations of instructions but outside a specific instruction, a register is just a bag of bits.  I suspect most other hardware is the same.  In the hardware that his particular thread was originally about, you could argue that they have a type and it's always float.  The real issue that the GLES2 people are having is that constants have a bag of bits value which may need to be interpreted as integer or float depending on context which they do not have when lowering.  They don't care, for instance, about the fact that imov or bcsel take integers because they know that the sources will either be floats or integers that they've lowered to floats and so they know that the result will be a float.<br></div><div><br></div><div>The problem you're describing is in converting from NIR to another IR, not to hardware.  In LLVM they made a choice to put types on SSA values but then to have the actual semantics be based on the instruction itself.  This leads to lots of redundancy in the IR but also lots of things you can validate which is kind-of nice.  Is that redundancy really useful?  In our experience with NIR, we haven't found it to be other than booleans (now sorted), this one constant issue, and translating to IRs that have that redundancy.  Then why did they add it?  I'm really not sure but it may, at least somewhat, be related to the fact that they allow arrays and structs in their SSA values and so need full types.  This is another design decision in LLVM which I find highly questionable.  What you're is more-or-less that NIR should carry, maintain, and validate extra useless information just so we can pass it on to LLVM which is going to use it for what, exactly?  Sorry if I'm extremely reluctant to make fairly fundamental changes to NIR with no better reason than "LLVM did it that way".</div><div><br></div><div>There's a second reason why I don't like the idea of putting types on SSA values: It's extremely deceptive.  In SPIR-V you're allowed to do an OpSConvert with a source that is an unsigned 16-bit integer and a destination that is an unsigned 32-bit integer.  What happens?  Your uint -> uint cast sign extends!  Yup.... That's what happens.  No joke.  The same is true of signed vs. unsigned division or modulus.  The end result is that the types in SPIR-V are useless and you can't actually trust them for anything except bit-size and sometimes labelling something as a float vs. int.</div><div><br></div><div>So how do we deal with the mismatch?  My recommendation would be to use the source/destination types of the ALU ops where needed/useful, add special cases for things like imov and bcsel where you can pass the source type through, and insert extra bitcasts whenever they're needed.  This is obvious enough that I'm going to guess you're already more-or-less doing exactly that.  Sorry if I'm not being more helpful but the longer this e-mail gets the more convinced I become that SPIR-V and LLVM made the wrong design decision and we don't want to follow in their folly.<br></div><div><br></div><div>--Jason</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
>   There are two general possible solutions:<br>
> <br>
>  1. convert all integers to floats in glsl_to_nir and prog_to_nir and<br>
> adjust various lowering/optimization passes to handle<br>
> nir_compiler_options::supports_native_integers == false.<br>
> <br>
>  2. Just allow integers all the way through until you get very close<br>
> to the end and then lower integers to floats at the last possible<br>
> moment.<br>
> <br>
> Both of these come with significant issues.  With the first approach,<br>
> there are potentially a lot of passes that will need to be adjusted<br>
> and it's not 100% clear what to do with UBO offsets and indirect<br>
> addressing; fortunately, you should be able to disable most of those<br>
> optimizations to get going so it shouldn't be too bad.  The second<br>
> would be less invasive to NIR because it doesn't require modifying as<br>
> many passes.  However, doing such a lowering would be very tricky to<br>
> get right primarily because of constants.  With everything else, you<br>
> can just sort of assume that inputs are floats (you lowered, right?)<br>
> and lower to produce a float output.  With constants, however, you<br>
> don't know whether or not it's an integer that needs lowering.  We<br>
> could, in theory, add an extra bit to load_const to solve this<br>
> problem but there are also significant problems with doing that so<br>
> it's not clear it's a good idea.<br>
> <br>
> I think the patches from Marek (as indicated by ilia) attempt the<br>
> first approach.  If we can do it practically, my suspicion is that<br>
> the first will work better than the second.  However, it will take<br>
> some experimentation in order to actually determine that.<br>
> <br>
> --Jason<br>
> _______________________________________________<br>
> mesa-dev mailing list<br>
> <a href="mailto:mesa-dev@lists.freedesktop.org" target="_blank">mesa-dev@lists.freedesktop.org</a><br>
> <a href="https://lists.freedesktop.org/mailman/listinfo/mesa-dev" rel="noreferrer" target="_blank">https://lists.freedesktop.org/mailman/listinfo/mesa-dev</a><br>
<br>
</blockquote></div></div>