<div dir="ltr"><p dir="ltr"><br>
On 7 May 2015 15:37, "Chris Wilson" <<a href="mailto:chris@chris-wilson.co.uk" target="_blank">chris@chris-wilson.co.uk</a>> wrote:<br>
><br>
> On Thu, May 07, 2015 at 03:15:50PM +0100, Robert Bragg wrote:<br>
> > +static int init_oa_buffer(struct perf_event *event)<br>
> > +{<br>
> > +     struct drm_i915_private *dev_priv =<br>
> > +             container_of(event->pmu, typeof(*dev_priv), oa_pmu.pmu);<br>
> > +     struct drm_i915_gem_object *bo;<br>
> > +     int ret;<br>
> > +<br>
> > +     BUG_ON(!IS_HASWELL(dev_priv->dev));<br>
> > +     BUG_ON(!mutex_is_locked(&dev_priv->dev->struct_mutex));<br>
> > +     BUG_ON(dev_priv->oa_pmu.oa_buffer.obj);<br>
> > +<br>
> > +     spin_lock_init(&dev_priv->oa_pmu.oa_buffer.flush_lock);<br>
> > +<br>
> > +     /* NB: We over allocate the OA buffer due to the way raw sample data<br>
> > +      * gets copied from the gpu mapped circular buffer into the perf<br>
> > +      * circular buffer so that only one copy is required.<br>
> > +      *<br>
> > +      * For each perf sample (raw->size + 4) needs to be 8 byte aligned,<br>
> > +      * where the 4 corresponds to the 32bit raw->size member that's<br>
> > +      * added to the sample header that userspace sees.<br>
> > +      *<br>
> > +      * Due to the + 4 for the size member: when we copy a report to the<br>
> > +      * userspace facing perf buffer we always copy an additional 4 bytes<br>
> > +      * from the subsequent report to make up for the miss alignment, but<br>
> > +      * when a report is at the end of the gpu mapped buffer we need to<br>
> > +      * read 4 bytes past the end of the buffer.<br>
> > +      */<br>
> > +     bo = i915_gem_alloc_object(dev_priv->dev, OA_BUFFER_SIZE + PAGE_SIZE);<br>
> > +     if (bo == NULL) {<br>
> > +             DRM_ERROR("Failed to allocate OA buffer\n");<br>
> > +             ret = -ENOMEM;<br>
> > +             goto err;<br>
> > +     }<br>
> > +     dev_priv->oa_pmu.oa_buffer.obj = bo;<br>
> > +<br>
> > +     ret = i915_gem_object_set_cache_level(bo, I915_CACHE_LLC);<br>
> > +     if (ret)<br>
> > +             goto err_unref;<br>
> > +<br>
> > +     /* PreHSW required 512K alignment, HSW requires 16M */<br>
> > +     ret = i915_gem_obj_ggtt_pin(bo, SZ_16M, 0);<br>
> > +     if (ret)<br>
> > +             goto err_unref;<br>
> > +<br>
> > +     dev_priv->oa_pmu.oa_buffer.gtt_offset = i915_gem_obj_ggtt_offset(bo);<br>
> > +     dev_priv->oa_pmu.oa_buffer.addr = vmap_oa_buffer(bo);<br>
><br>
> You can look forward to both i915_gem_object_create_internal() and<br>
> i915_gem_object_pin_vmap()</p>
<p dir="ltr">Okey, will do, thanks.</p>
<p dir="ltr">><br>
> > +<br>
> > +     /* Pre-DevBDW: OABUFFER must be set with counters off,<br>
> > +      * before OASTATUS1, but after OASTATUS2 */<br>
> > +     I915_WRITE(GEN7_OASTATUS2, dev_priv->oa_pmu.oa_buffer.gtt_offset |<br>
> > +                GEN7_OASTATUS2_GGTT); /* head */<br>
> > +     I915_WRITE(GEN7_OABUFFER, dev_priv->oa_pmu.oa_buffer.gtt_offset);<br>
> > +     I915_WRITE(GEN7_OASTATUS1, dev_priv->oa_pmu.oa_buffer.gtt_offset |<br>
> > +                GEN7_OASTATUS1_OABUFFER_SIZE_16M); /* tail */<br>
> > +<br>
> > +     DRM_DEBUG_DRIVER("OA Buffer initialized, gtt offset = 0x%x, vaddr = %p",<br>
> > +                      dev_priv->oa_pmu.oa_buffer.gtt_offset,<br>
> > +                      dev_priv->oa_pmu.oa_buffer.addr);<br>
> > +<br>
> > +     return 0;<br>
> > +<br>
> > +err_unref:<br>
> > +     drm_gem_object_unreference_unlocked(&bo->base);<br>
><br>
> But what I really what to say was:<br>
> mutex deadlock^^^</p>
<p dir="ltr">Yikes, I've pushed an updated patch addressing this and can reply with a new patch here in a bit.</p>
<p dir="ltr">Thanks,<br>
- Robert</p><p dir="ltr"><br>
> -Chris<br>
><br>
> --<br>
> Chris Wilson, Intel Open Source Technology Centre<br>
</p>
</div>