[PATCH 11/12] drm/xe: Make xe_ggtt_node struct independent

Matthew Brost matthew.brost at intel.com
Wed Jul 17 23:50:06 UTC 2024


On Thu, Jul 11, 2024 at 01:11:54PM -0400, Rodrigo Vivi wrote:
> In some rare cases, the drm_mm node cannot be removed synchronously
> due to runtime PM conditions. In this situation, the node removal will
> be delegated to a workqueue that will be able to wake up the device
> before removing the node.
> 
> However, in this situation, the lifetime of the xe_ggtt_node cannot
> be restricted to the lifetime of the parent object. So, this patch
> introduces the infrastructure so the xe_ggtt_node struct can be
> allocated in advance and freed when needed.
> 
> By having the ggtt backpointer, it also ensure that the init function
> is always called before any attempt to insert or reserve the node
> in the GGTT.
> 

A couple of nits below, but...
Reviewed-by: Matthew Brost <matthew.brost at intel.com>

> Cc: Matthew Auld <matthew.auld at intel.com>
> Cc: Michal Wajdeczko <michal.wajdeczko at intel.com>
> Cc: Matthew Brost <matthew.brost at intel.com>
> Signed-off-by: Rodrigo Vivi <rodrigo.vivi at intel.com>
> ---
>  .../gpu/drm/xe/compat-i915-headers/i915_vma.h |   4 +-
>  drivers/gpu/drm/xe/display/xe_fb_pin.c        |  36 ++++--
>  drivers/gpu/drm/xe/xe_bo.c                    |   2 +-
>  drivers/gpu/drm/xe/xe_bo.h                    |   9 +-
>  drivers/gpu/drm/xe/xe_bo_types.h              |   2 +-
>  drivers/gpu/drm/xe/xe_device_types.h          |   2 +-
>  drivers/gpu/drm/xe/xe_ggtt.c                  | 103 ++++++++++++++++--
>  drivers/gpu/drm/xe/xe_ggtt.h                  |   2 +
>  drivers/gpu/drm/xe/xe_ggtt_types.h            |   8 +-
>  drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c    |  34 +++---
>  .../gpu/drm/xe/xe_gt_sriov_pf_config_types.h  |   2 +-
>  drivers/gpu/drm/xe/xe_gt_sriov_vf.c           |  26 ++++-
>  12 files changed, 181 insertions(+), 49 deletions(-)
> 
> diff --git a/drivers/gpu/drm/xe/compat-i915-headers/i915_vma.h b/drivers/gpu/drm/xe/compat-i915-headers/i915_vma.h
> index 97193e660f6c..ac860414b91f 100644
> --- a/drivers/gpu/drm/xe/compat-i915-headers/i915_vma.h
> +++ b/drivers/gpu/drm/xe/compat-i915-headers/i915_vma.h
> @@ -20,7 +20,7 @@ struct xe_bo;
>  
>  struct i915_vma {
>  	struct xe_bo *bo, *dpt;
> -	struct xe_ggtt_node node;
> +	struct xe_ggtt_node *node;
>  };
>  
>  #define i915_ggtt_clear_scanout(bo) do { } while (0)
> @@ -29,7 +29,7 @@ struct i915_vma {
>  
>  static inline u32 i915_ggtt_offset(const struct i915_vma *vma)
>  {
> -	return vma->node.base.start;
> +	return vma->node->base.start;
>  }
>  
>  #endif
> diff --git a/drivers/gpu/drm/xe/display/xe_fb_pin.c b/drivers/gpu/drm/xe/display/xe_fb_pin.c
> index de4930b67a29..e871957d7565 100644
> --- a/drivers/gpu/drm/xe/display/xe_fb_pin.c
> +++ b/drivers/gpu/drm/xe/display/xe_fb_pin.c
> @@ -204,20 +204,28 @@ static int __xe_pin_fb_vma_ggtt(const struct intel_framebuffer *fb,
>  	if (xe_bo_is_vram(bo) && ggtt->flags & XE_GGTT_FLAGS_64K)
>  		align = max_t(u32, align, SZ_64K);
>  
> -	if (bo->ggtt_node.base.size && view->type == I915_GTT_VIEW_NORMAL) {
> +	if (bo->ggtt_node && view->type == I915_GTT_VIEW_NORMAL) {
>  		vma->node = bo->ggtt_node;
>  	} else if (view->type == I915_GTT_VIEW_NORMAL) {
>  		u32 x, size = bo->ttm.base.size;
>  
> -		ret = xe_ggtt_node_insert_locked(ggtt, &vma->node, size, align, 0);
> -		if (ret)
> +		vma->node = xe_ggtt_node_init(ggtt);
> +		if (IS_ERR(vma->node)) {
> +			ret = PTR_ERR(vma->node);
>  			goto out_unlock;
> +		}
> +
> +		ret = xe_ggtt_node_insert_locked(ggtt, vma->node, size, align, 0);
> +		if (ret) {
> +			xe_ggtt_node_force_fini(vma->node);
> +			goto out_unlock;
> +		}
>  
>  		for (x = 0; x < size; x += XE_PAGE_SIZE) {
>  			u64 pte = ggtt->pt_ops->pte_encode_bo(bo, x,
>  							      xe->pat.idx[XE_CACHE_NONE]);
>  
> -			ggtt->pt_ops->ggtt_set_pte(ggtt, vma->node.base.start + x, pte);
> +			ggtt->pt_ops->ggtt_set_pte(ggtt, vma->node->base.start + x, pte);
>  		}
>  	} else {
>  		u32 i, ggtt_ofs;
> @@ -226,11 +234,19 @@ static int __xe_pin_fb_vma_ggtt(const struct intel_framebuffer *fb,
>  		/* display seems to use tiles instead of bytes here, so convert it back.. */
>  		u32 size = intel_rotation_info_size(rot_info) * XE_PAGE_SIZE;
>  
> -		ret = xe_ggtt_node_insert_locked(ggtt, &vma->node, size, align, 0);
> -		if (ret)
> +		vma->node = xe_ggtt_node_init(ggtt);
> +		if (IS_ERR(vma->node)) {
> +			ret = PTR_ERR(vma->node);
>  			goto out_unlock;
> +		}
> +
> +		ret = xe_ggtt_node_insert_locked(ggtt, vma->node, size, align, 0);
> +		if (ret) {
> +			xe_ggtt_node_force_fini(vma->node);
> +			goto out_unlock;
> +		}
>  
> -		ggtt_ofs = vma->node.base.start;
> +		ggtt_ofs = vma->node->base.start;
>  
>  		for (i = 0; i < ARRAY_SIZE(rot_info->plane); i++)
>  			write_ggtt_rotated(bo, ggtt, &ggtt_ofs,
> @@ -323,9 +339,9 @@ static void __xe_unpin_fb_vma(struct i915_vma *vma)
>  
>  	if (vma->dpt)
>  		xe_bo_unpin_map_no_vm(vma->dpt);
> -	else if (!xe_ggtt_node_allocated(&vma->bo->ggtt_node) ||
> -		 vma->bo->ggtt_node.base.start != vma->node.base.start)
> -		xe_ggtt_node_remove(ggtt, &vma->node, false);
> +	else if (!xe_ggtt_node_allocated(vma->bo->ggtt_node) ||
> +		 vma->bo->ggtt_node->base.start != vma->node->base.start)
> +		xe_ggtt_node_remove(ggtt, vma->node, false);
>  
>  	ttm_bo_reserve(&vma->bo->ttm, false, false, NULL);
>  	ttm_bo_unpin(&vma->bo->ttm);
> diff --git a/drivers/gpu/drm/xe/xe_bo.c b/drivers/gpu/drm/xe/xe_bo.c
> index 3501a5871069..7e277ac0cd8d 100644
> --- a/drivers/gpu/drm/xe/xe_bo.c
> +++ b/drivers/gpu/drm/xe/xe_bo.c
> @@ -1090,7 +1090,7 @@ static void xe_ttm_bo_destroy(struct ttm_buffer_object *ttm_bo)
>  
>  	xe_assert(xe, list_empty(&ttm_bo->base.gpuva.list));
>  
> -	if (bo->ggtt_node.base.size)
> +	if (bo->ggtt_node)
>  		xe_ggtt_remove_bo(bo->tile->mem.ggtt, bo);
>  
>  #ifdef CONFIG_PROC_FS
> diff --git a/drivers/gpu/drm/xe/xe_bo.h b/drivers/gpu/drm/xe/xe_bo.h
> index 7c95133cc32b..c8a90e5bbd6b 100644
> --- a/drivers/gpu/drm/xe/xe_bo.h
> +++ b/drivers/gpu/drm/xe/xe_bo.h
> @@ -194,9 +194,12 @@ xe_bo_main_addr(struct xe_bo *bo, size_t page_size)
>  static inline u32
>  xe_bo_ggtt_addr(struct xe_bo *bo)
>  {
> -	XE_WARN_ON(bo->ggtt_node.base.size > bo->size);
> -	XE_WARN_ON(bo->ggtt_node.base.start + bo->ggtt_node.base.size > (1ull << 32));
> -	return bo->ggtt_node.base.start;
> +	if (XE_WARN_ON(!bo->ggtt_node))
> +		return -ENOENT;
> +
> +	XE_WARN_ON(bo->ggtt_node->base.size > bo->size);
> +	XE_WARN_ON(bo->ggtt_node->base.start + bo->ggtt_node->base.size > (1ull << 32));
> +	return bo->ggtt_node->base.start;
>  }
>  
>  int xe_bo_vmap(struct xe_bo *bo);
> diff --git a/drivers/gpu/drm/xe/xe_bo_types.h b/drivers/gpu/drm/xe/xe_bo_types.h
> index 3ba96a93623c..0ec6172cc8ba 100644
> --- a/drivers/gpu/drm/xe/xe_bo_types.h
> +++ b/drivers/gpu/drm/xe/xe_bo_types.h
> @@ -40,7 +40,7 @@ struct xe_bo {
>  	/** @placement: current placement for this BO */
>  	struct ttm_placement placement;
>  	/** @ggtt_node: GGTT node if this BO is mapped in the GGTT */
> -	struct xe_ggtt_node ggtt_node;
> +	struct xe_ggtt_node *ggtt_node;
>  	/** @vmap: iosys map of this buffer */
>  	struct iosys_map vmap;
>  	/** @ttm_kmap: TTM bo kmap object for internal use only. Keep off. */
> diff --git a/drivers/gpu/drm/xe/xe_device_types.h b/drivers/gpu/drm/xe/xe_device_types.h
> index 30f9c58932bb..706872711ebf 100644
> --- a/drivers/gpu/drm/xe/xe_device_types.h
> +++ b/drivers/gpu/drm/xe/xe_device_types.h
> @@ -203,7 +203,7 @@ struct xe_tile {
>  			struct xe_memirq memirq;
>  
>  			/** @sriov.vf.ggtt_balloon: GGTT regions excluded from use. */
> -			struct xe_ggtt_node ggtt_balloon[2];
> +			struct xe_ggtt_node *ggtt_balloon[2];
>  		} vf;
>  	} sriov;
>  
> diff --git a/drivers/gpu/drm/xe/xe_ggtt.c b/drivers/gpu/drm/xe/xe_ggtt.c
> index 928c01f9e212..fe0bfd8c26cd 100644
> --- a/drivers/gpu/drm/xe/xe_ggtt.c
> +++ b/drivers/gpu/drm/xe/xe_ggtt.c
> @@ -353,6 +353,7 @@ static void xe_ggtt_dump_node(struct xe_ggtt *ggtt,
>   * @end: then end GGTT address of the reserved region
>   * @node: the &xe_ggtt_node to hold reserved GGTT node
>   *
> + * It cannot be called without first having called xe_ggtt_init().
>   * Use xe_ggtt_node_deballoon() to release a reserved GGTT node.
>   *
>   * Return: 0 on success or a negative error code on failure.
> @@ -361,6 +362,9 @@ int xe_ggtt_node_balloon(struct xe_ggtt *ggtt, u64 start, u64 end, struct xe_ggt
>  {
>  	int err;
>  
> +	if (!node || !node->ggtt)
> +		return -ENOENT;
> +
>  	xe_tile_assert(ggtt->tile, start < end);
>  	xe_tile_assert(ggtt->tile, IS_ALIGNED(start, XE_PAGE_SIZE));
>  	xe_tile_assert(ggtt->tile, IS_ALIGNED(end, XE_PAGE_SIZE));
> @@ -392,14 +396,20 @@ int xe_ggtt_node_balloon(struct xe_ggtt *ggtt, u64 start, u64 end, struct xe_ggt
>   */
>  void xe_ggtt_node_deballoon(struct xe_ggtt *ggtt, struct xe_ggtt_node *node)
>  {
> -	if (!drm_mm_node_allocated(&node->base))
> +	if (!node || !node->ggtt)
>  		return;
>  
> +	if (!drm_mm_node_allocated(&node->base))
> +		goto free_node;
> +
>  	xe_ggtt_dump_node(ggtt, &node->base, "deballoon");
>  
>  	mutex_lock(&ggtt->lock);
>  	drm_mm_remove_node(&node->base);
>  	mutex_unlock(&ggtt->lock);
> +
> +free_node:
> +	kfree(node);

xe_ggtt_node_fini

Matt

>  }
>  
>  /**
> @@ -410,6 +420,7 @@ void xe_ggtt_node_deballoon(struct xe_ggtt *ggtt, struct xe_ggtt_node *node)
>   * @align: alignment constrain of the node
>   * @mm_flags: flags to control the node behavior
>   *
> + * It cannot be called without first having called xe_ggtt_init() once.
>   * To be used in cases where ggtt->lock is already taken.
>   *
>   * Return: 0 on success or a negative error code on failure.
> @@ -417,6 +428,9 @@ void xe_ggtt_node_deballoon(struct xe_ggtt *ggtt, struct xe_ggtt_node *node)
>  int xe_ggtt_node_insert_locked(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>  			       u32 size, u32 align, u32 mm_flags)
>  {
> +	if (!node || !node->ggtt)
> +		return -ENOENT;
> +
>  	return drm_mm_insert_node_generic(&ggtt->mm, &node->base, size, align, 0,
>  					  mm_flags);
>  }
> @@ -428,6 +442,8 @@ int xe_ggtt_node_insert_locked(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>   * @size: size of the node
>   * @align: alignment constrain of the node
>   *
> + * It cannot be called without first having called xe_ggtt_init() once.
> + *
>   * Return: 0 on success or a negative error code on failure.
>   */
>  int xe_ggtt_node_insert(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
> @@ -435,6 +451,9 @@ int xe_ggtt_node_insert(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>  {
>  	int ret;
>  
> +	if (!node || !node->ggtt)
> +		return -ENOENT;
> +
>  	mutex_lock(&ggtt->lock);
>  	ret = xe_ggtt_node_insert_locked(ggtt, node, size,
>  					 align, DRM_MM_INSERT_HIGH);
> @@ -443,6 +462,43 @@ int xe_ggtt_node_insert(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>  	return ret;
>  }
>  
> +/**
> + * xe_ggtt_node_init - Initialize %xe_ggtt_node struct
> + * @ggtt: the &xe_ggtt where the new node will later be inserted/reserved.
> + *
> + * This function will allocated the struct %xe_ggtt_node and return it's pointer.
> + * This struct will then be freed after the node removal upon xe_ggtt_node_remove()
> + * or xe_ggtt_node_deballoon().
> + * Having %xe_ggtt_node struct allocated doesn't mean that the node is already allocated
> + * in GGTT. Only the xe_ggtt_node_insert(), xe_ggtt_node_insert_locked(),
> + * xe_ggtt_node_balloon() will ensure the node is inserted or reserved in GGTT.
> + *
> + * Return: A pointer to %xe_ggtt_node struct on success. An ERR_PTR otherwise.
> + **/
> +struct xe_ggtt_node *xe_ggtt_node_init(struct xe_ggtt *ggtt)
> +{
> +	struct xe_ggtt_node *node = kzalloc(sizeof(*node), GFP_KERNEL);
> +
> +	if (!node)
> +		return ERR_PTR(-ENOMEM);
> +
> +	node->ggtt = ggtt;
> +	return node;
> +}
> +
> +/**
> + * xe_ggtt_node_force_fini - Forcebly finalize %xe_ggtt_node struct
> + * @node: the &xe_ggtt_node to be freed
> + *
> + * If anything went wrong with either xe_ggtt_node_insert(), xe_ggtt_node_insert_locked(),
> + * or xe_ggtt_node_balloon(); and this @node is not going to be reused, then,
> + * this function needs to be called to free the %xe_ggtt_node struct
> + **/
> +void xe_ggtt_node_force_fini(struct xe_ggtt_node *node)

s/xe_ggtt_node_force_fini/xe_ggtt_node_fini

> +{
> +	kfree(node);
> +}
> +
>  /**
>   * xe_ggtt_node_remove - Remove a &xe_ggtt_node from the GGTT
>   * @ggtt: the &xe_ggtt where node will be removed
> @@ -456,6 +512,9 @@ void xe_ggtt_node_remove(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>  	bool bound;
>  	int idx;
>  
> +	if (!node || !node->ggtt)
> +		return;
> +
>  	bound = drm_dev_enter(&xe->drm, &idx);
>  	if (bound)
>  		xe_pm_runtime_get_noresume(xe);
> @@ -468,23 +527,29 @@ void xe_ggtt_node_remove(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
>  	mutex_unlock(&ggtt->lock);
>  
>  	if (!bound)
> -		return;
> +		goto free_node;
>  
>  	if (invalidate)
>  		xe_ggtt_invalidate(ggtt);
>  
>  	xe_pm_runtime_put(xe);
>  	drm_dev_exit(idx);
> +
> +free_node:
> +	kfree(node);

xe_ggtt_node_fini

>  }
>  
>  /**
> - * xe_ggtt_node_allocated - Check if node is allocated
> + * xe_ggtt_node_allocated - Check if node is allocated in GGTT
>   * @node: the &xe_ggtt_node to be inspected
>   *
>   * Return: True if allocated, False otherwise.
>   */
>  bool xe_ggtt_node_allocated(const struct xe_ggtt_node *node)
>  {
> +	if (!node || !node->ggtt)
> +		return false;
> +
>  	return drm_mm_node_allocated(&node->base);
>  }
>  
> @@ -497,9 +562,14 @@ void xe_ggtt_map_bo(struct xe_ggtt *ggtt, struct xe_bo *bo)
>  {
>  	u16 cache_mode = bo->flags & XE_BO_FLAG_NEEDS_UC ? XE_CACHE_NONE : XE_CACHE_WB;
>  	u16 pat_index = tile_to_xe(ggtt->tile)->pat.idx[cache_mode];
> -	u64 start = bo->ggtt_node.base.start;
> +	u64 start;
>  	u64 offset, pte;
>  
> +	if (XE_WARN_ON(!bo->ggtt_node))
> +		return;
> +
> +	start = bo->ggtt_node->base.start;
> +
>  	for (offset = 0; offset < bo->size; offset += XE_PAGE_SIZE) {
>  		pte = ggtt->pt_ops->pte_encode_bo(bo, offset, pat_index);
>  		ggtt->pt_ops->ggtt_set_pte(ggtt, start + offset, pte);
> @@ -515,9 +585,9 @@ static int __xe_ggtt_insert_bo_at(struct xe_ggtt *ggtt, struct xe_bo *bo,
>  	if (xe_bo_is_vram(bo) && ggtt->flags & XE_GGTT_FLAGS_64K)
>  		alignment = SZ_64K;
>  
> -	if (XE_WARN_ON(bo->ggtt_node.base.size)) {
> +	if (XE_WARN_ON(bo->ggtt_node)) {
>  		/* Someone's already inserted this BO in the GGTT */
> -		xe_tile_assert(ggtt->tile, bo->ggtt_node.base.size == bo->size);
> +		xe_tile_assert(ggtt->tile, bo->ggtt_node->base.size == bo->size);
>  		return 0;
>  	}
>  
> @@ -526,15 +596,26 @@ static int __xe_ggtt_insert_bo_at(struct xe_ggtt *ggtt, struct xe_bo *bo,
>  		return err;
>  
>  	xe_pm_runtime_get_noresume(tile_to_xe(ggtt->tile));
> +
> +	bo->ggtt_node = xe_ggtt_node_init(ggtt);
> +	if (IS_ERR(bo->ggtt_node)) {
> +		err = PTR_ERR(bo->ggtt_node);
> +		goto out;
> +	}
> +
>  	mutex_lock(&ggtt->lock);
> -	err = drm_mm_insert_node_in_range(&ggtt->mm, &bo->ggtt_node.base, bo->size,
> +	err = drm_mm_insert_node_in_range(&ggtt->mm, &bo->ggtt_node->base, bo->size,
>  					  alignment, 0, start, end, 0);
> -	if (!err)
> +	if (err)
> +		xe_ggtt_node_force_fini(bo->ggtt_node);
> +	else
>  		xe_ggtt_map_bo(ggtt, bo);
>  	mutex_unlock(&ggtt->lock);
>  
>  	if (!err && bo->flags & XE_BO_FLAG_GGTT_INVALIDATE)
>  		xe_ggtt_invalidate(ggtt);
> +
> +out:
>  	xe_pm_runtime_put(tile_to_xe(ggtt->tile));
>  
>  	return err;
> @@ -574,13 +655,13 @@ int xe_ggtt_insert_bo(struct xe_ggtt *ggtt, struct xe_bo *bo)
>   */
>  void xe_ggtt_remove_bo(struct xe_ggtt *ggtt, struct xe_bo *bo)
>  {
> -	if (XE_WARN_ON(!bo->ggtt_node.base.size))
> +	if (XE_WARN_ON(!bo->ggtt_node))
>  		return;
>  
>  	/* This BO is not currently in the GGTT */
> -	xe_tile_assert(ggtt->tile, bo->ggtt_node.base.size == bo->size);
> +	xe_tile_assert(ggtt->tile, bo->ggtt_node->base.size == bo->size);
>  
> -	xe_ggtt_node_remove(ggtt, &bo->ggtt_node,
> +	xe_ggtt_node_remove(ggtt, bo->ggtt_node,
>  			    bo->flags & XE_BO_FLAG_GGTT_INVALIDATE);
>  }
>  
> diff --git a/drivers/gpu/drm/xe/xe_ggtt.h b/drivers/gpu/drm/xe/xe_ggtt.h
> index e68cede2e6b5..9ca0a3da8903 100644
> --- a/drivers/gpu/drm/xe/xe_ggtt.h
> +++ b/drivers/gpu/drm/xe/xe_ggtt.h
> @@ -13,6 +13,8 @@ struct drm_printer;
>  int xe_ggtt_init_early(struct xe_ggtt *ggtt);
>  int xe_ggtt_init(struct xe_ggtt *ggtt);
>  
> +struct xe_ggtt_node *xe_ggtt_node_init(struct xe_ggtt *ggtt);
> +void xe_ggtt_node_force_fini(struct xe_ggtt_node *node);
>  int xe_ggtt_node_balloon(struct xe_ggtt *ggtt, u64 start, u64 size, struct xe_ggtt_node *node);
>  void xe_ggtt_node_deballoon(struct xe_ggtt *ggtt, struct xe_ggtt_node *node);
>  
> diff --git a/drivers/gpu/drm/xe/xe_ggtt_types.h b/drivers/gpu/drm/xe/xe_ggtt_types.h
> index f3292e6c3873..60cbce3170d1 100644
> --- a/drivers/gpu/drm/xe/xe_ggtt_types.h
> +++ b/drivers/gpu/drm/xe/xe_ggtt_types.h
> @@ -48,9 +48,15 @@ struct xe_ggtt {
>  };
>  
>  /**
> - * struct xe_ggtt_node - A node in GGTT
> + * struct xe_ggtt_node - A node in GGTT.
> + *
> + * This struct needs to be initialized (only-once) with xe_ggtt_node_init() before any node
> + * insertion, reservation, or 'ballooning'.
> + * It will, then, be finalized by either xe_ggtt_node_remove() or xe_ggtt_node_deballoon().
>   */
>  struct xe_ggtt_node {
> +	/** @ggtt: Back pointer to xe_ggtt where this region will be inserted at */
> +	struct xe_ggtt *ggtt;
>  	/** @base: A drm_mm_node */
>  	struct drm_mm_node base;
>  };
> diff --git a/drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c b/drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
> index d0995680f53f..ac292351483c 100644
> --- a/drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
> +++ b/drivers/gpu/drm/xe/xe_gt_sriov_pf_config.c
> @@ -232,14 +232,14 @@ static u32 encode_config_ggtt(u32 *cfg, const struct xe_gt_sriov_config *config)
>  {
>  	u32 n = 0;
>  
> -	if (xe_ggtt_node_allocated(&config->ggtt_region)) {
> +	if (xe_ggtt_node_allocated(config->ggtt_region)) {
>  		cfg[n++] = PREP_GUC_KLV_TAG(VF_CFG_GGTT_START);
> -		cfg[n++] = lower_32_bits(config->ggtt_region.base.start);
> -		cfg[n++] = upper_32_bits(config->ggtt_region.base.start);
> +		cfg[n++] = lower_32_bits(config->ggtt_region->base.start);
> +		cfg[n++] = upper_32_bits(config->ggtt_region->base.start);
>  
>  		cfg[n++] = PREP_GUC_KLV_TAG(VF_CFG_GGTT_SIZE);
> -		cfg[n++] = lower_32_bits(config->ggtt_region.base.size);
> -		cfg[n++] = upper_32_bits(config->ggtt_region.base.size);
> +		cfg[n++] = lower_32_bits(config->ggtt_region->base.size);
> +		cfg[n++] = upper_32_bits(config->ggtt_region->base.size);
>  	}
>  
>  	return n;
> @@ -385,13 +385,13 @@ static void pf_release_ggtt(struct xe_tile *tile, struct xe_ggtt_node *node)
>  
>  static void pf_release_vf_config_ggtt(struct xe_gt *gt, struct xe_gt_sriov_config *config)
>  {
> -	pf_release_ggtt(gt_to_tile(gt), &config->ggtt_region);
> +	pf_release_ggtt(gt_to_tile(gt), config->ggtt_region);
>  }
>  
>  static int pf_provision_vf_ggtt(struct xe_gt *gt, unsigned int vfid, u64 size)
>  {
>  	struct xe_gt_sriov_config *config = pf_pick_vf_config(gt, vfid);
> -	struct xe_ggtt_node *node = &config->ggtt_region;
> +	struct xe_ggtt_node *node = config->ggtt_region;
>  	struct xe_tile *tile = gt_to_tile(gt);
>  	struct xe_ggtt *ggtt = tile->mem.ggtt;
>  	u64 alignment = pf_get_ggtt_alignment(gt);
> @@ -415,9 +415,15 @@ static int pf_provision_vf_ggtt(struct xe_gt *gt, unsigned int vfid, u64 size)
>  	if (!size)
>  		return 0;
>  
> +	node = xe_ggtt_node_init(ggtt);
> +	if (IS_ERR(node))
> +		return PTR_ERR(node);
> +
>  	err = xe_ggtt_node_insert(ggtt, node, size, alignment);
> -	if (unlikely(err))
> +	if (unlikely(err)) {
> +		xe_ggtt_node_force_fini(node);
>  		return err;
> +	}
>  
>  	xe_ggtt_assign(ggtt, node, vfid);
>  	xe_gt_sriov_dbg_verbose(gt, "VF%u assigned GGTT %llx-%llx\n",
> @@ -433,7 +439,7 @@ static int pf_provision_vf_ggtt(struct xe_gt *gt, unsigned int vfid, u64 size)
>  static u64 pf_get_vf_config_ggtt(struct xe_gt *gt, unsigned int vfid)
>  {
>  	struct xe_gt_sriov_config *config = pf_pick_vf_config(gt, vfid);
> -	struct xe_ggtt_node *node = &config->ggtt_region;
> +	struct xe_ggtt_node *node = config->ggtt_region;
>  
>  	xe_gt_assert(gt, !xe_gt_is_media_type(gt));
>  	return xe_ggtt_node_allocated(node) ? node->base.size : 0;
> @@ -1999,13 +2005,15 @@ int xe_gt_sriov_pf_config_print_ggtt(struct xe_gt *gt, struct drm_printer *p)
>  
>  	for (n = 1; n <= total_vfs; n++) {
>  		config = &gt->sriov.pf.vfs[n].config;
> -		if (!xe_ggtt_node_allocated(&config->ggtt_region))
> +		if (!xe_ggtt_node_allocated(config->ggtt_region))
>  			continue;
>  
> -		string_get_size(config->ggtt_region.base.size, 1, STRING_UNITS_2, buf, sizeof(buf));
> +		string_get_size(config->ggtt_region->base.size, 1, STRING_UNITS_2,
> +				buf, sizeof(buf));
>  		drm_printf(p, "VF%u:\t%#0llx-%#llx\t(%s)\n",
> -			   n, config->ggtt_region.base.start,
> -			   config->ggtt_region.base.start + config->ggtt_region.base.size - 1, buf);
> +			   n, config->ggtt_region->base.start,
> +			   config->ggtt_region->base.start + config->ggtt_region->base.size - 1,
> +			   buf);
>  	}
>  
>  	return 0;
> diff --git a/drivers/gpu/drm/xe/xe_gt_sriov_pf_config_types.h b/drivers/gpu/drm/xe/xe_gt_sriov_pf_config_types.h
> index 6d0d9299bafa..44dc0a6e90d1 100644
> --- a/drivers/gpu/drm/xe/xe_gt_sriov_pf_config_types.h
> +++ b/drivers/gpu/drm/xe/xe_gt_sriov_pf_config_types.h
> @@ -19,7 +19,7 @@ struct xe_bo;
>   */
>  struct xe_gt_sriov_config {
>  	/** @ggtt_region: GGTT region assigned to the VF. */
> -	struct xe_ggtt_node ggtt_region;
> +	struct xe_ggtt_node *ggtt_region;
>  	/** @lmem_obj: LMEM allocation for use by the VF. */
>  	struct xe_bo *lmem_obj;
>  	/** @num_ctxs: number of GuC contexts IDs.  */
> diff --git a/drivers/gpu/drm/xe/xe_gt_sriov_vf.c b/drivers/gpu/drm/xe/xe_gt_sriov_vf.c
> index a478e6e1b20e..5c540e20c785 100644
> --- a/drivers/gpu/drm/xe/xe_gt_sriov_vf.c
> +++ b/drivers/gpu/drm/xe/xe_gt_sriov_vf.c
> @@ -495,6 +495,22 @@ u64 xe_gt_sriov_vf_lmem(struct xe_gt *gt)
>  	return gt->sriov.vf.self_config.lmem_size;
>  }
>  
> +static int vf_balloon_ggtt_node(struct xe_ggtt *ggtt, struct xe_ggtt_node *node,
> +				u64 start, u64 end)
> +{
> +	int err;
> +
> +	node = xe_ggtt_node_init(ggtt);
> +	if (IS_ERR(node))
> +		return PTR_ERR(node);
> +
> +	err = xe_ggtt_node_balloon(ggtt, start, end, node);
> +	if (err)
> +		xe_ggtt_node_force_fini(node);
> +
> +	return err;
> +}
> +
>  static int vf_balloon_ggtt(struct xe_gt *gt)
>  {
>  	struct xe_gt_sriov_vf_selfconfig *config = &gt->sriov.vf.self_config;
> @@ -528,7 +544,7 @@ static int vf_balloon_ggtt(struct xe_gt *gt)
>  	start = xe_wopcm_size(xe);
>  	end = config->ggtt_base;
>  	if (end != start) {
> -		err = xe_ggtt_node_balloon(ggtt, start, end, &tile->sriov.vf.ggtt_balloon[0]);
> +		err = vf_balloon_ggtt_node(ggtt, tile->sriov.vf.ggtt_balloon[0], start, end);
>  		if (err)
>  			goto failed;
>  	}
> @@ -536,7 +552,7 @@ static int vf_balloon_ggtt(struct xe_gt *gt)
>  	start = config->ggtt_base + config->ggtt_size;
>  	end = GUC_GGTT_TOP;
>  	if (end != start) {
> -		err = xe_ggtt_node_balloon(ggtt, start, end, &tile->sriov.vf.ggtt_balloon[1]);
> +		err = vf_balloon_ggtt_node(ggtt, tile->sriov.vf.ggtt_balloon[1], start, end);
>  		if (err)
>  			goto deballoon;
>  	}
> @@ -544,7 +560,7 @@ static int vf_balloon_ggtt(struct xe_gt *gt)
>  	return 0;
>  
>  deballoon:
> -	xe_ggtt_node_deballoon(ggtt, &tile->sriov.vf.ggtt_balloon[0]);
> +	xe_ggtt_node_deballoon(ggtt, tile->sriov.vf.ggtt_balloon[0]);
>  failed:
>  	return err;
>  }
> @@ -555,8 +571,8 @@ static void deballoon_ggtt(struct drm_device *drm, void *arg)
>  	struct xe_ggtt *ggtt = tile->mem.ggtt;
>  
>  	xe_tile_assert(tile, IS_SRIOV_VF(tile_to_xe(tile)));
> -	xe_ggtt_node_deballoon(ggtt, &tile->sriov.vf.ggtt_balloon[1]);
> -	xe_ggtt_node_deballoon(ggtt, &tile->sriov.vf.ggtt_balloon[0]);
> +	xe_ggtt_node_deballoon(ggtt, tile->sriov.vf.ggtt_balloon[1]);
> +	xe_ggtt_node_deballoon(ggtt, tile->sriov.vf.ggtt_balloon[0]);
>  }
>  
>  /**
> -- 
> 2.45.2
> 


More information about the Intel-xe mailing list