<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
{font-family:Wingdings;
panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
{font-family:SimSun;
panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
{font-family:"Cambria Math";
panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
{font-family:Calibri;
panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
{font-family:Consolas;
panose-1:2 11 6 9 2 2 4 3 2 4;}
@font-face
{font-family:"\@SimSun";
panose-1:2 1 6 0 3 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
{margin:0in;
margin-bottom:.0001pt;
font-size:11.0pt;
font-family:"Calibri",sans-serif;
color:black;}
a:link, span.MsoHyperlink
{mso-style-priority:99;
color:blue;
text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
{mso-style-priority:99;
color:purple;
text-decoration:underline;}
pre
{mso-style-priority:99;
mso-style-link:"HTML Preformatted Char";
margin:0in;
margin-bottom:.0001pt;
font-size:10.0pt;
font-family:"Courier New";
color:black;}
p.msonormal0, li.msonormal0, div.msonormal0
{mso-style-name:msonormal;
mso-margin-top-alt:auto;
margin-right:0in;
mso-margin-bottom-alt:auto;
margin-left:0in;
font-size:11.0pt;
font-family:"Calibri",sans-serif;
color:black;}
span.HTMLPreformattedChar
{mso-style-name:"HTML Preformatted Char";
mso-style-priority:99;
mso-style-link:"HTML Preformatted";
font-family:Consolas;
color:black;}
span.EmailStyle21
{mso-style-type:personal-reply;
font-family:"Calibri",sans-serif;
color:windowtext;
font-weight:normal;
font-style:normal;
text-decoration:none none;}
.MsoChpDefault
{mso-style-type:export-only;
font-size:10.0pt;}
@page WordSection1
{size:8.5in 11.0in;
margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
{page:WordSection1;}
/* List Definitions */
@list l0
{mso-list-id:1524241316;
mso-list-template-ids:1236684714;}
@list l0:level1
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:.5in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Symbol;}
@list l0:level2
{mso-level-number-format:bullet;
mso-level-text:o;
mso-level-tab-stop:1.0in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:"Courier New";
mso-bidi-font-family:"Times New Roman";}
@list l0:level3
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:1.5in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level4
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:2.0in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level5
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:2.5in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level6
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:3.0in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level7
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:3.5in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level8
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:4.0in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
@list l0:level9
{mso-level-number-format:bullet;
mso-level-text:;
mso-level-tab-stop:4.5in;
mso-level-number-position:left;
text-indent:-.25in;
mso-ansi-font-size:10.0pt;
font-family:Wingdings;}
ol
{margin-bottom:0in;}
ul
{margin-bottom:0in;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body bgcolor="white" lang="EN-US" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal"><span style="color:windowtext">Hi Christian,<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext">What is the value of delay the destroy of hash to after vm is destroyed? Since vm is destroyed, you basically don’t have enough information to paging in the correct page to gpuvm. Am I right that the handling
of page fault need a valid VM? For example, you need the VM to get the corresponding physical address of the faulty page.
<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext">After vm is destroyed, the retry interrupt can be directly discard as you can’t find vm through pasid. You can think this is also one kind of prescreen.
<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext"><o:p> </o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext">So I am stand for the point that, there is no need to delay the destroy of hash to after vm is destroyed. Prescreening hash can be destroyed at the time of vm_fini.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext"><o:p> </o:p></span></p>
<div>
<p class="MsoNormal"><span style="color:windowtext">Thanks,<o:p></o:p></span></p>
<p class="MsoNormal"><span style="color:windowtext">Oak<o:p></o:p></span></p>
</div>
<p class="MsoNormal"><span style="color:windowtext"><o:p> </o:p></span></p>
<div>
<div style="border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b><span style="color:windowtext">From:</span></b><span style="color:windowtext"> Christian König <ckoenig.leichtzumerken@gmail.com>
<br>
<b>Sent:</b> Friday, September 07, 2018 4:39 AM<br>
<b>To:</b> Zeng, Oak <Oak.Zeng@amd.com>; Oak Zeng <zengshanjun@gmail.com>; amd-gfx@lists.freedesktop.org<br>
<b>Cc:</b> Zeng, Oak <Oak.Zeng@amd.com><br>
<b>Subject:</b> Re: [PATCH 1/2] drm/amdgpu: Moved fault hash table to amdgpu vm<o:p></o:p></span></p>
</div>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<p class="MsoNormal">Hi Oak,<br>
<br>
yeah, but this is still a NAK. Making the hash per PASID was not a suggestion but rather a must have.<br>
<br>
The VM structures must be destroyed while the processing is still ongoing, or otherwise we would not have a clean OOM handling.<br>
<br>
The IDR for PASID lockup can be put into amdgpu_ids.c, you can just replace the IDA already used there with an IDR.<br>
<br>
Since the PASID is already freed up delayed we should have the grace period for interrupt processing included. If that still isn't sufficient we can still add some delayed work for this.<br>
<br>
Regards,<br>
Christian.<br>
<br>
Am 07.09.2018 um 06:16 schrieb ozeng:<o:p></o:p></p>
</div>
<blockquote style="margin-top:5.0pt;margin-bottom:5.0pt">
<p>Hi Christian, <o:p></o:p></p>
<p>In this implementation, fault hash is made per vm, not per pasid as suggested, based on below considerations:<o:p></o:p></p>
<ul type="disc">
<li class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;mso-list:l0 level1 lfo1">
Delay the destroy of hash introduces more effort like how to set the proper grace period after which no retry interrupt will be generated. We want to avoid those complication if we can.
<o:p></o:p></li><li class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;mso-list:l0 level1 lfo1">
The problem of the per vm implementation is that it is hard to delay the destroy of fault hash, because when vm is destroyed, prescreen function won't be able to retrieve the fault hash. But in this case, the prescreen function can either let the interrupt
go through (to gmc) or ignore it. From this perspective, it is not very necessary to delay the destroy of hash table.
<o:p></o:p></li><li class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;mso-list:l0 level1 lfo1">
On the other hand, since ASICs after vega10 have the HW CAM feature. So the SW IV prescreen is only useful for vega10. For all the HW implemented CAM, we can consider the delayed CAM acknowledgment.
<o:p></o:p></li><li class="MsoNormal" style="mso-margin-top-alt:auto;mso-margin-bottom-alt:auto;mso-list:l0 level1 lfo1">
Making it per pasid need to introduce another idr to correlate pasid and hash table - where to put the idr? You will have to make it a global variable which is not very desirable.
<o:p></o:p></li></ul>
<p>The main purpose of this patch is to solve the inter-process lock issue (when hash table is full), while still keep codes simple.<o:p></o:p></p>
<p>Also with this patch, the faults kfifo is not necessary any more. See patch 2.
<o:p></o:p></p>
<p>Regards,<o:p></o:p></p>
<p>Oak<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<p class="MsoNormal">On 09/06/2018 11:28 PM, Oak Zeng wrote:<o:p></o:p></p>
</div>
<blockquote style="margin-top:5.0pt;margin-bottom:5.0pt">
<pre>In stead of share one fault hash table per device, make it<o:p></o:p></pre>
<pre>per vm. This can avoid inter-process lock issue when fault<o:p></o:p></pre>
<pre>hash table is full.<o:p></o:p></pre>
<pre><o:p> </o:p></pre>
<pre>Change-Id: I5d1281b7c41eddc8e26113e010516557588d3708<o:p></o:p></pre>
<pre>Signed-off-by: Oak Zeng <a href="mailto:Oak.Zeng@amd.com"><Oak.Zeng@amd.com></a><o:p></o:p></pre>
<pre>Suggested-by: Christian Konig <a href="mailto:Christian.Koenig@amd.com"><Christian.Koenig@amd.com></a><o:p></o:p></pre>
<pre>Suggested-by: Felix Kuehling <a href="mailto:Felix.Kuehling@amd.com"><Felix.Kuehling@amd.com></a><o:p></o:p></pre>
<pre>---<o:p></o:p></pre>
<pre> drivers/gpu/drm/amd/amdgpu/amdgpu_ih.c | 75 ------------------------<o:p></o:p></pre>
<pre> drivers/gpu/drm/amd/amdgpu/amdgpu_ih.h | 10 ----<o:p></o:p></pre>
<pre> drivers/gpu/drm/amd/amdgpu/amdgpu_vm.c | 102 ++++++++++++++++++++++++++++++++-<o:p></o:p></pre>
<pre> drivers/gpu/drm/amd/amdgpu/amdgpu_vm.h | 12 ++++<o:p></o:p></pre>
<pre> drivers/gpu/drm/amd/amdgpu/vega10_ih.c | 38 +++++-------<o:p></o:p></pre>
<pre> 5 files changed, 127 insertions(+), 110 deletions(-)<o:p></o:p></pre>
<pre><o:p> </o:p></pre>
<pre>diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.c b/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.c<o:p></o:p></pre>
<pre>index 06373d4..4ed8621 100644<o:p></o:p></pre>
<pre>--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.c<o:p></o:p></pre>
<pre>+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.c<o:p></o:p></pre>
<pre>@@ -197,78 +197,3 @@ int amdgpu_ih_process(struct amdgpu_device *adev)<o:p></o:p></pre>
<pre> return IRQ_HANDLED;<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>-/**<o:p></o:p></pre>
<pre>- * amdgpu_ih_add_fault - Add a page fault record<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * @adev: amdgpu device pointer<o:p></o:p></pre>
<pre>- * @key: 64-bit encoding of PASID and address<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * This should be called when a retry page fault interrupt is<o:p></o:p></pre>
<pre>- * received. If this is a new page fault, it will be added to a hash<o:p></o:p></pre>
<pre>- * table. The return value indicates whether this is a new fault, or<o:p></o:p></pre>
<pre>- * a fault that was already known and is already being handled.<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * If there are too many pending page faults, this will fail. Retry<o:p></o:p></pre>
<pre>- * interrupts should be ignored in this case until there is enough<o:p></o:p></pre>
<pre>- * free space.<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * Returns 0 if the fault was added, 1 if the fault was already known,<o:p></o:p></pre>
<pre>- * -ENOSPC if there are too many pending faults.<o:p></o:p></pre>
<pre>- */<o:p></o:p></pre>
<pre>-int amdgpu_ih_add_fault(struct amdgpu_device *adev, u64 key)<o:p></o:p></pre>
<pre>-{<o:p></o:p></pre>
<pre>- unsigned long flags;<o:p></o:p></pre>
<pre>- int r = -ENOSPC;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- if (WARN_ON_ONCE(!adev->irq.ih.faults))<o:p></o:p></pre>
<pre>- /* Should be allocated in <IP>_ih_sw_init on GPUs that<o:p></o:p></pre>
<pre>- * support retry faults and require retry filtering.<o:p></o:p></pre>
<pre>- */<o:p></o:p></pre>
<pre>- return r;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- spin_lock_irqsave(&adev->irq.ih.faults->lock, flags);<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- /* Only let the hash table fill up to 50% for best performance */<o:p></o:p></pre>
<pre>- if (adev->irq.ih.faults->count >= (1 << (AMDGPU_PAGEFAULT_HASH_BITS-1)))<o:p></o:p></pre>
<pre>- goto unlock_out;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- r = chash_table_copy_in(&adev->irq.ih.faults->hash, key, NULL);<o:p></o:p></pre>
<pre>- if (!r)<o:p></o:p></pre>
<pre>- adev->irq.ih.faults->count++;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- /* chash_table_copy_in should never fail unless we're losing count */<o:p></o:p></pre>
<pre>- WARN_ON_ONCE(r < 0);<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>-unlock_out:<o:p></o:p></pre>
<pre>- spin_unlock_irqrestore(&adev->irq.ih.faults->lock, flags);<o:p></o:p></pre>
<pre>- return r;<o:p></o:p></pre>
<pre>-}<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>-/**<o:p></o:p></pre>
<pre>- * amdgpu_ih_clear_fault - Remove a page fault record<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * @adev: amdgpu device pointer<o:p></o:p></pre>
<pre>- * @key: 64-bit encoding of PASID and address<o:p></o:p></pre>
<pre>- *<o:p></o:p></pre>
<pre>- * This should be called when a page fault has been handled. Any<o:p></o:p></pre>
<pre>- * future interrupt with this key will be processed as a new<o:p></o:p></pre>
<pre>- * page fault.<o:p></o:p></pre>
<pre>- */<o:p></o:p></pre>
<pre>-void amdgpu_ih_clear_fault(struct amdgpu_device *adev, u64 key)<o:p></o:p></pre>
<pre>-{<o:p></o:p></pre>
<pre>- unsigned long flags;<o:p></o:p></pre>
<pre>- int r;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- if (!adev->irq.ih.faults)<o:p></o:p></pre>
<pre>- return;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- spin_lock_irqsave(&adev->irq.ih.faults->lock, flags);<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- r = chash_table_remove(&adev->irq.ih.faults->hash, key, NULL);<o:p></o:p></pre>
<pre>- if (!WARN_ON_ONCE(r < 0)) {<o:p></o:p></pre>
<pre>- adev->irq.ih.faults->count--;<o:p></o:p></pre>
<pre>- WARN_ON_ONCE(adev->irq.ih.faults->count < 0);<o:p></o:p></pre>
<pre>- }<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- spin_unlock_irqrestore(&adev->irq.ih.faults->lock, flags);<o:p></o:p></pre>
<pre>-}<o:p></o:p></pre>
<pre>diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.h b/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.h<o:p></o:p></pre>
<pre>index a23e1c0..f411ffb 100644<o:p></o:p></pre>
<pre>--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.h<o:p></o:p></pre>
<pre>+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_ih.h<o:p></o:p></pre>
<pre>@@ -32,13 +32,6 @@ struct amdgpu_device;<o:p></o:p></pre>
<pre> #define AMDGPU_IH_CLIENTID_LEGACY 0<o:p></o:p></pre>
<pre> #define AMDGPU_IH_CLIENTID_MAX SOC15_IH_CLIENTID_MAX<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>-#define AMDGPU_PAGEFAULT_HASH_BITS 8<o:p></o:p></pre>
<pre>-struct amdgpu_retryfault_hashtable {<o:p></o:p></pre>
<pre>- DECLARE_CHASH_TABLE(hash, AMDGPU_PAGEFAULT_HASH_BITS, 8, 0);<o:p></o:p></pre>
<pre>- spinlock_t lock;<o:p></o:p></pre>
<pre>- int count;<o:p></o:p></pre>
<pre>-};<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre> /*<o:p></o:p></pre>
<pre> * R6xx+ IH ring<o:p></o:p></pre>
<pre> */<o:p></o:p></pre>
<pre>@@ -57,7 +50,6 @@ struct amdgpu_ih_ring {<o:p></o:p></pre>
<pre> bool use_doorbell;<o:p></o:p></pre>
<pre> bool use_bus_addr;<o:p></o:p></pre>
<pre> dma_addr_t rb_dma_addr; /* only used when use_bus_addr = true */<o:p></o:p></pre>
<pre>- struct amdgpu_retryfault_hashtable *faults;<o:p></o:p></pre>
<pre> };<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> #define AMDGPU_IH_SRC_DATA_MAX_SIZE_DW 4<o:p></o:p></pre>
<pre>@@ -95,7 +87,5 @@ int amdgpu_ih_ring_init(struct amdgpu_device *adev, unsigned ring_size,<o:p></o:p></pre>
<pre> bool use_bus_addr);<o:p></o:p></pre>
<pre> void amdgpu_ih_ring_fini(struct amdgpu_device *adev);<o:p></o:p></pre>
<pre> int amdgpu_ih_process(struct amdgpu_device *adev);<o:p></o:p></pre>
<pre>-int amdgpu_ih_add_fault(struct amdgpu_device *adev, u64 key);<o:p></o:p></pre>
<pre>-void amdgpu_ih_clear_fault(struct amdgpu_device *adev, u64 key);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> #endif<o:p></o:p></pre>
<pre>diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.c b/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.c<o:p></o:p></pre>
<pre>index 1d7e3c1..8b220e9 100644<o:p></o:p></pre>
<pre>--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.c<o:p></o:p></pre>
<pre>+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.c<o:p></o:p></pre>
<pre>@@ -2692,6 +2692,22 @@ void amdgpu_vm_adjust_size(struct amdgpu_device *adev, uint32_t min_vm_size,<o:p></o:p></pre>
<pre> adev->vm_manager.fragment_size);<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+static struct amdgpu_retryfault_hashtable *init_fault_hash(void)<o:p></o:p></pre>
<pre>+{<o:p></o:p></pre>
<pre>+ struct amdgpu_retryfault_hashtable *fault_hash;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ fault_hash = kmalloc(sizeof(*fault_hash), GFP_KERNEL);<o:p></o:p></pre>
<pre>+ if (!fault_hash)<o:p></o:p></pre>
<pre>+ return fault_hash;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ INIT_CHASH_TABLE(fault_hash->hash,<o:p></o:p></pre>
<pre>+ AMDGPU_PAGEFAULT_HASH_BITS, 8, 0);<o:p></o:p></pre>
<pre>+ spin_lock_init(&fault_hash->lock);<o:p></o:p></pre>
<pre>+ fault_hash->count = 0;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ return fault_hash;<o:p></o:p></pre>
<pre>+}<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre> /**<o:p></o:p></pre>
<pre> * amdgpu_vm_init - initialize a vm instance<o:p></o:p></pre>
<pre> *<o:p></o:p></pre>
<pre>@@ -2780,6 +2796,12 @@ int amdgpu_vm_init(struct amdgpu_device *adev, struct amdgpu_vm *vm,<o:p></o:p></pre>
<pre> vm->pasid = pasid;<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+ vm->fault_hash = init_fault_hash();<o:p></o:p></pre>
<pre>+ if (!vm->fault_hash) {<o:p></o:p></pre>
<pre>+ r = -ENOMEM;<o:p></o:p></pre>
<pre>+ goto error_free_root;<o:p></o:p></pre>
<pre>+ }<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre> INIT_KFIFO(vm->faults);<o:p></o:p></pre>
<pre> vm->fault_credit = 16;<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>@@ -2973,7 +2995,7 @@ void amdgpu_vm_fini(struct amdgpu_device *adev, struct amdgpu_vm *vm)<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> /* Clear pending page faults from IH when the VM is destroyed */<o:p></o:p></pre>
<pre> while (kfifo_get(&vm->faults, &fault))<o:p></o:p></pre>
<pre>- amdgpu_ih_clear_fault(adev, fault);<o:p></o:p></pre>
<pre>+ amdgpu_vm_clear_fault(vm->fault_hash, fault);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> if (vm->pasid) {<o:p></o:p></pre>
<pre> unsigned long flags;<o:p></o:p></pre>
<pre>@@ -2983,6 +3005,9 @@ void amdgpu_vm_fini(struct amdgpu_device *adev, struct amdgpu_vm *vm)<o:p></o:p></pre>
<pre> spin_unlock_irqrestore(&adev->vm_manager.pasid_lock, flags);<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+ kfree(vm->fault_hash);<o:p></o:p></pre>
<pre>+ vm->fault_hash = NULL;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre> drm_sched_entity_destroy(&vm->entity);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> if (!RB_EMPTY_ROOT(&vm->va.rb_root)) {<o:p></o:p></pre>
<pre>@@ -3183,3 +3208,78 @@ void amdgpu_vm_set_task_info(struct amdgpu_vm *vm)<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+/**<o:p></o:p></pre>
<pre>+ * amdgpu_vm_add_fault - Add a page fault record to fault hash table<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * @fault_hash: fault hash table<o:p></o:p></pre>
<pre>+ * @key: 64-bit encoding of PASID and address<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * This should be called when a retry page fault interrupt is<o:p></o:p></pre>
<pre>+ * received. If this is a new page fault, it will be added to a hash<o:p></o:p></pre>
<pre>+ * table. The return value indicates whether this is a new fault, or<o:p></o:p></pre>
<pre>+ * a fault that was already known and is already being handled.<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * If there are too many pending page faults, this will fail. Retry<o:p></o:p></pre>
<pre>+ * interrupts should be ignored in this case until there is enough<o:p></o:p></pre>
<pre>+ * free space.<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * Returns 0 if the fault was added, 1 if the fault was already known,<o:p></o:p></pre>
<pre>+ * -ENOSPC if there are too many pending faults.<o:p></o:p></pre>
<pre>+ */<o:p></o:p></pre>
<pre>+int amdgpu_vm_add_fault(struct amdgpu_retryfault_hashtable *fault_hash, u64 key)<o:p></o:p></pre>
<pre>+{<o:p></o:p></pre>
<pre>+ unsigned long flags;<o:p></o:p></pre>
<pre>+ int r = -ENOSPC;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ if (WARN_ON_ONCE(!fault_hash))<o:p></o:p></pre>
<pre>+ /* Should be allocated in amdgpu_vm_init<o:p></o:p></pre>
<pre>+ */<o:p></o:p></pre>
<pre>+ return r;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ spin_lock_irqsave(&fault_hash->lock, flags);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ /* Only let the hash table fill up to 50% for best performance */<o:p></o:p></pre>
<pre>+ if (fault_hash->count >= (1 << (AMDGPU_PAGEFAULT_HASH_BITS-1)))<o:p></o:p></pre>
<pre>+ goto unlock_out;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ r = chash_table_copy_in(&fault_hash->hash, key, NULL);<o:p></o:p></pre>
<pre>+ if (!r)<o:p></o:p></pre>
<pre>+ fault_hash->count++;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ /* chash_table_copy_in should never fail unless we're losing count */<o:p></o:p></pre>
<pre>+ WARN_ON_ONCE(r < 0);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+unlock_out:<o:p></o:p></pre>
<pre>+ spin_unlock_irqrestore(&fault_hash->lock, flags);<o:p></o:p></pre>
<pre>+ return r;<o:p></o:p></pre>
<pre>+}<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+/**<o:p></o:p></pre>
<pre>+ * amdgpu_vm_clear_fault - Remove a page fault record<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * @fault_hash: fault hash table<o:p></o:p></pre>
<pre>+ * @key: 64-bit encoding of PASID and address<o:p></o:p></pre>
<pre>+ *<o:p></o:p></pre>
<pre>+ * This should be called when a page fault has been handled. Any<o:p></o:p></pre>
<pre>+ * future interrupt with this key will be processed as a new<o:p></o:p></pre>
<pre>+ * page fault.<o:p></o:p></pre>
<pre>+ */<o:p></o:p></pre>
<pre>+void amdgpu_vm_clear_fault(struct amdgpu_retryfault_hashtable *fault_hash, u64 key)<o:p></o:p></pre>
<pre>+{<o:p></o:p></pre>
<pre>+ unsigned long flags;<o:p></o:p></pre>
<pre>+ int r;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ if (!fault_hash)<o:p></o:p></pre>
<pre>+ return;<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ spin_lock_irqsave(&fault_hash->lock, flags);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ r = chash_table_remove(&fault_hash->hash, key, NULL);<o:p></o:p></pre>
<pre>+ if (!WARN_ON_ONCE(r < 0)) {<o:p></o:p></pre>
<pre>+ fault_hash->count--;<o:p></o:p></pre>
<pre>+ WARN_ON_ONCE(fault_hash->count < 0);<o:p></o:p></pre>
<pre>+ }<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ spin_unlock_irqrestore(&fault_hash->lock, flags);<o:p></o:p></pre>
<pre>+}<o:p></o:p></pre>
<pre>diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.h b/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.h<o:p></o:p></pre>
<pre>index e275ee7..6eb1da1 100644<o:p></o:p></pre>
<pre>--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.h<o:p></o:p></pre>
<pre>+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_vm.h<o:p></o:p></pre>
<pre>@@ -178,6 +178,13 @@ struct amdgpu_task_info {<o:p></o:p></pre>
<pre> pid_t tgid;<o:p></o:p></pre>
<pre> };<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+#define AMDGPU_PAGEFAULT_HASH_BITS 8<o:p></o:p></pre>
<pre>+struct amdgpu_retryfault_hashtable {<o:p></o:p></pre>
<pre>+ DECLARE_CHASH_TABLE(hash, AMDGPU_PAGEFAULT_HASH_BITS, 8, 0);<o:p></o:p></pre>
<pre>+ spinlock_t lock;<o:p></o:p></pre>
<pre>+ int count;<o:p></o:p></pre>
<pre>+};<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre> struct amdgpu_vm {<o:p></o:p></pre>
<pre> /* tree of virtual addresses mapped */<o:p></o:p></pre>
<pre> struct rb_root_cached va;<o:p></o:p></pre>
<pre>@@ -240,6 +247,7 @@ struct amdgpu_vm {<o:p></o:p></pre>
<pre> struct ttm_lru_bulk_move lru_bulk_move;<o:p></o:p></pre>
<pre> /* mark whether can do the bulk move */<o:p></o:p></pre>
<pre> bool bulk_moveable;<o:p></o:p></pre>
<pre>+ struct amdgpu_retryfault_hashtable *fault_hash;<o:p></o:p></pre>
<pre> };<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> struct amdgpu_vm_manager {<o:p></o:p></pre>
<pre>@@ -355,4 +363,8 @@ void amdgpu_vm_set_task_info(struct amdgpu_vm *vm);<o:p></o:p></pre>
<pre> void amdgpu_vm_move_to_lru_tail(struct amdgpu_device *adev,<o:p></o:p></pre>
<pre> struct amdgpu_vm *vm);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+int amdgpu_vm_add_fault(struct amdgpu_retryfault_hashtable *fault_hash, u64 key);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+void amdgpu_vm_clear_fault(struct amdgpu_retryfault_hashtable *fault_hash, u64 key);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre> #endif<o:p></o:p></pre>
<pre>diff --git a/drivers/gpu/drm/amd/amdgpu/vega10_ih.c b/drivers/gpu/drm/amd/amdgpu/vega10_ih.c<o:p></o:p></pre>
<pre>index 5ae5ed2..acbe5a7 100644<o:p></o:p></pre>
<pre>--- a/drivers/gpu/drm/amd/amdgpu/vega10_ih.c<o:p></o:p></pre>
<pre>+++ b/drivers/gpu/drm/amd/amdgpu/vega10_ih.c<o:p></o:p></pre>
<pre>@@ -265,35 +265,36 @@ static bool vega10_ih_prescreen_iv(struct amdgpu_device *adev)<o:p></o:p></pre>
<pre> return true;<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>- addr = ((u64)(dw5 & 0xf) << 44) | ((u64)dw4 << 12);<o:p></o:p></pre>
<pre>- key = AMDGPU_VM_FAULT(pasid, addr);<o:p></o:p></pre>
<pre>- r = amdgpu_ih_add_fault(adev, key);<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre>- /* Hash table is full or the fault is already being processed,<o:p></o:p></pre>
<pre>- * ignore further page faults<o:p></o:p></pre>
<pre>- */<o:p></o:p></pre>
<pre>- if (r != 0)<o:p></o:p></pre>
<pre>- goto ignore_iv;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre> /* Track retry faults in per-VM fault FIFO. */<o:p></o:p></pre>
<pre> spin_lock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre> vm = idr_find(&adev->vm_manager.pasid_idr, pasid);<o:p></o:p></pre>
<pre>+ addr = ((u64)(dw5 & 0xf) << 44) | ((u64)dw4 << 12);<o:p></o:p></pre>
<pre>+ key = AMDGPU_VM_FAULT(pasid, addr);<o:p></o:p></pre>
<pre> if (!vm) {<o:p></o:p></pre>
<pre> /* VM not found, process it normally */<o:p></o:p></pre>
<pre> spin_unlock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre>- amdgpu_ih_clear_fault(adev, key);<o:p></o:p></pre>
<pre> return true;<o:p></o:p></pre>
<pre>+ } else {<o:p></o:p></pre>
<pre>+ r = amdgpu_vm_add_fault(vm->fault_hash, key);<o:p></o:p></pre>
<pre>+<o:p></o:p></pre>
<pre>+ /* Hash table is full or the fault is already being processed,<o:p></o:p></pre>
<pre>+ * ignore further page faults<o:p></o:p></pre>
<pre>+ */<o:p></o:p></pre>
<pre>+ if (r != 0) {<o:p></o:p></pre>
<pre>+ spin_unlock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre>+ goto ignore_iv;<o:p></o:p></pre>
<pre>+ }<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> /* No locking required with single writer and single reader */<o:p></o:p></pre>
<pre> r = kfifo_put(&vm->faults, key);<o:p></o:p></pre>
<pre> if (!r) {<o:p></o:p></pre>
<pre> /* FIFO is full. Ignore it until there is space */<o:p></o:p></pre>
<pre>+ amdgpu_vm_clear_fault(vm->fault_hash, key);<o:p></o:p></pre>
<pre> spin_unlock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre>- amdgpu_ih_clear_fault(adev, key);<o:p></o:p></pre>
<pre> goto ignore_iv;<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre>- spin_unlock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>+ spin_unlock(&adev->vm_manager.pasid_lock);<o:p></o:p></pre>
<pre> /* It's the first fault for this address, process it normally */<o:p></o:p></pre>
<pre> return true;<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>@@ -386,14 +387,6 @@ static int vega10_ih_sw_init(void *handle)<o:p></o:p></pre>
<pre> adev->irq.ih.use_doorbell = true;<o:p></o:p></pre>
<pre> adev->irq.ih.doorbell_index = AMDGPU_DOORBELL64_IH << 1;<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>- adev->irq.ih.faults = kmalloc(sizeof(*adev->irq.ih.faults), GFP_KERNEL);<o:p></o:p></pre>
<pre>- if (!adev->irq.ih.faults)<o:p></o:p></pre>
<pre>- return -ENOMEM;<o:p></o:p></pre>
<pre>- INIT_CHASH_TABLE(adev->irq.ih.faults->hash,<o:p></o:p></pre>
<pre>- AMDGPU_PAGEFAULT_HASH_BITS, 8, 0);<o:p></o:p></pre>
<pre>- spin_lock_init(&adev->irq.ih.faults->lock);<o:p></o:p></pre>
<pre>- adev->irq.ih.faults->count = 0;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre> r = amdgpu_irq_init(adev);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre> return r;<o:p></o:p></pre>
<pre>@@ -406,9 +399,6 @@ static int vega10_ih_sw_fini(void *handle)<o:p></o:p></pre>
<pre> amdgpu_irq_fini(adev);<o:p></o:p></pre>
<pre> amdgpu_ih_ring_fini(adev);<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
<pre>- kfree(adev->irq.ih.faults);<o:p></o:p></pre>
<pre>- adev->irq.ih.faults = NULL;<o:p></o:p></pre>
<pre>-<o:p></o:p></pre>
<pre> return 0;<o:p></o:p></pre>
<pre> }<o:p></o:p></pre>
<pre> <o:p></o:p></pre>
</blockquote>
<p class="MsoNormal"><br>
<br>
<br>
<br>
<o:p></o:p></p>
<pre>_______________________________________________<o:p></o:p></pre>
<pre>amd-gfx mailing list<o:p></o:p></pre>
<pre><a href="mailto:amd-gfx@lists.freedesktop.org">amd-gfx@lists.freedesktop.org</a><o:p></o:p></pre>
<pre><a href="https://lists.freedesktop.org/mailman/listinfo/amd-gfx">https://lists.freedesktop.org/mailman/listinfo/amd-gfx</a><o:p></o:p></pre>
</blockquote>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>