<div dir="ltr"><div>awesome, would like to see the result from HQ scaling sometime in the future. I am just using putSurface, don't want to go thru Proc pipeline if I don't have to. Is the performance penalty identical in both ways? Is there a way I can measure how much GPU processing  (% and such) is being utilized? <br>
Thanks,<br><br></div>Ratin <br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Feb 19, 2013 at 7:24 PM, Xiang, Haihao <span dir="ltr"><<a href="mailto:haihao.xiang@intel.com" target="_blank">haihao.xiang@intel.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im"><br>
<br>
> I am using Intel_driver from the staging branch, on a Gen 3 HD4000. So<br>
> there other algorithms like bi-cubic is not supported?<br>
<br>
</div>You can select another scaling method other than the default method via<br>
the flag to vaPutSurface() or the filter_flag in<br>
VAProcPipelineParameterBuffer.<br>
<br>
/* Scaling flags for vaPutSurface() */<br>
#define VA_FILTER_SCALING_DEFAULT       0x00000000<br>
#define VA_FILTER_SCALING_FAST          0x00000100<br>
#define VA_FILTER_SCALING_HQ            0x00000200<br>
#define VA_FILTER_SCALING_NL_ANAMORPHIC 0x00000300<br>
#define VA_FILTER_SCALING_MASK          0x00000f00<br>
<br>
In VAProcPipelineParameterBuffer:<br>
<br>
    * - Scaling: \c VA_FILTER_SCALING_DEFAULT, \c VA_FILTER_SCALING_FAST,<br>
     *   \c VA_FILTER_SCALING_HQ, \c VA_FILTER_SCALING_NL_ANAMORPHIC.<br>
     */<br>
    unsigned int        filter_flags;<br>
<br>
For Inter driver, Currently only VA_FILTER_SCALING_NL_ANAMORPHIC and<br>
VA_FILTER_SCALING_DEFAULT/VA_FILTER_SCALING_FAST  are supported.  We<br>
will add the support for VA_FILTER_SCALING_HQ.<br>
<br>
Thanks<br>
<span class="HOEnZb"><font color="#888888">Haihao<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
><br>
><br>
><br>
> On Mon, Feb 18, 2013 at 12:11 AM, Xiang, Haihao<br>
> <<a href="mailto:haihao.xiang@intel.com">haihao.xiang@intel.com</a>> wrote:<br>
>         On Fri, 2013-02-15 at 16:18 -0800, Ratin wrote:<br>
>         > I am decoding a 720 P video stream from a camera to 1080 P<br>
>         surfaces<br>
>         > and displaying them on the screen. I am seeing noticable<br>
>         noise and<br>
>         > pulsating which is directly related to the I frame interval<br>
>         > (aparently), the lowest I-frame interval I can specify for<br>
>         the camera<br>
>         > is  1 second and selecting that in addition to bitrate of<br>
>         8192 kbps<br>
>         > makes is slightly better but still a lot of noise. A<br>
>         software<br>
>         > decoded/scaled video looks all smooth.<br>
>         ><br>
>         ><br>
>         > What I am wondering is what's the default scaling algorithm<br>
>         being used<br>
>         > in vaapi/intel driver and how do I specify better scaling<br>
>         algorithms<br>
>         > like bi-cubic etc.and possibly specify the strength of<br>
>         deblocking<br>
>         > filter level as well, and what can I do to reduce the<br>
>         pulsating ?<br>
><br>
><br>
>         Which driver are you using ? For Intel, it is bilinear.<br>
><br>
>         ><br>
>         ><br>
>         ><br>
>         ><br>
>         > Any input would be much appreciated.<br>
>         ><br>
>         ><br>
>         > Thanks<br>
>         ><br>
>         ><br>
>         > Ratin<br>
>         ><br>
>         ><br>
><br>
>         > _______________________________________________<br>
>         > Libva mailing list<br>
>         > <a href="mailto:Libva@lists.freedesktop.org">Libva@lists.freedesktop.org</a><br>
>         > <a href="http://lists.freedesktop.org/mailman/listinfo/libva" target="_blank">http://lists.freedesktop.org/mailman/listinfo/libva</a><br>
><br>
><br>
><br>
><br>
<br>
<br>
</div></div></blockquote></div><br></div>