<div dir="ltr">I am using Intel_driver from the staging branch, on a Gen 3 HD4000. So there other algorithms like bi-cubic is not supported?<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Feb 18, 2013 at 12:11 AM, Xiang, Haihao <span dir="ltr"><<a href="mailto:haihao.xiang@intel.com" target="_blank">haihao.xiang@intel.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">On Fri, 2013-02-15 at 16:18 -0800, Ratin wrote:<br>
> I am decoding a 720 P video stream from a camera to 1080 P surfaces<br>
> and displaying them on the screen. I am seeing noticable noise and<br>
> pulsating which is directly related to the I frame interval<br>
> (aparently), the lowest I-frame interval I can specify for the camera<br>
> is  1 second and selecting that in addition to bitrate of 8192 kbps<br>
> makes is slightly better but still a lot of noise. A software<br>
> decoded/scaled video looks all smooth.<br>
><br>
><br>
> What I am wondering is what's the default scaling algorithm being used<br>
> in vaapi/intel driver and how do I specify better scaling algorithms<br>
> like bi-cubic etc.and possibly specify the strength of deblocking<br>
> filter level as well, and what can I do to reduce the pulsating ?<br>
<br>
</div></div>Which driver are you using ? For Intel, it is bilinear.<br>
<div class="im"><br>
><br>
><br>
><br>
><br>
> Any input would be much appreciated.<br>
><br>
><br>
> Thanks<br>
><br>
><br>
> Ratin<br>
><br>
><br>
</div>> _______________________________________________<br>
> Libva mailing list<br>
> <a href="mailto:Libva@lists.freedesktop.org">Libva@lists.freedesktop.org</a><br>
> <a href="http://lists.freedesktop.org/mailman/listinfo/libva" target="_blank">http://lists.freedesktop.org/mailman/listinfo/libva</a><br>
<br>
<br>
</blockquote></div><br></div>