<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body text="#000000" bgcolor="#FFFFFF">
<p><br>
</p>
<br>
<div class="moz-cite-prefix">On 01/16/2019 02:46 AM, Christian König wrote:<br>
</div>
<blockquote type="cite" cite="mid:cbacbef0-d82b-1f44-2fd4-87d81d7ce00b@gmail.com">
<div class="moz-cite-prefix">Am 15.01.19 um 23:01 schrieb Grodzovsky, Andrey:<br>
</div>
<blockquote type="cite" cite="mid:de7d180d-f959-d8a6-0f99-99906f07e76c@amd.com">
<pre class="moz-quote-pre" wrap="">
On 01/11/2019 05:03 PM, Andrey Grodzovsky wrote:
</pre>
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">
On 01/11/2019 02:11 PM, Koenig, Christian wrote:
</pre>
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">Am 11.01.19 um 16:37 schrieb Grodzovsky, Andrey:
</pre>
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">On 01/11/2019 04:42 AM, Koenig, Christian wrote:
</pre>
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">Am 10.01.19 um 16:56 schrieb Grodzovsky, Andrey:
</pre>
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">[SNIP]
</pre>
<blockquote type="cite">
<blockquote type="cite">
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">But we will not be adding the cb back in drm_sched_stop 
anymore, now we
are only going to add back the cb in drm_sched_startr after 
rerunning
those jobs in drm_sched_resubmit_jobs and assign them a new parent
there
anyway.
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">Yeah, but when we find that we don't need to reset anything anymore
then adding the callbacks again won't be possible any more.

Christian.
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">I am not sure I understand it, can u point me to example of how this
will happen ? I am attaching my latest patches with waiting only for
the last job's fence here just so we are on same page regarding 
the code.
</pre>
</blockquote>
</blockquote>
<pre class="moz-quote-pre" wrap="">Well the whole idea is to prepare all schedulers, then check once more
if the offending job hasn't completed in the meantime.

If the job completed we need to be able to rollback everything and
continue as if nothing had happened.

Christian.
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">Oh, but this piece of functionality - skipping HW ASIC reset in case 
the
guilty job done is totally missing form this patch series and so needs
to be added. So what you say actually is that for the case were we skip
HW asic reset because the guilty job did complete we also need to skip
resubmitting the jobs in drm_sched_resubmit_jobs and hence preserve the
old parent fence pointer for reuse ? If so I would like to add all this
functionality as a third patch since the first 2 patches are more about
resolving race condition with jobs in flight while doing reset - 
what do
you think ?
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">Yeah, sounds perfectly fine to me.

Christian.
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">I realized there is another complication now for XGMI hive use case, 
we currently skip gpu recover for adev in case another gpu recover for 
different adev in same hive is running, under the assumption that we 
are going to reset all devices in hive anyway because that should 
cover our own dev too. But if we chose to skip now HW asic reset if 
our guilty job did finish we will aslo not HW reset any other devices 
in the hive even if one of them might actually had a bad job, wanted 
to do gpu recover but skipped it because our recover was in progress 
in that time.
My general idea on that is to keep a list of guilty jobs per hive, 
when you start gpu recover you first add you guilty job to the hive 
and trylock hive->reset_lock. Any owner of hive->reset_lock (gpu 
recovery in progress) once he finished his recovery and released 
hive->reset_lock should go over hive->bad_jobs_list and if at least 
one of them is still not signaled (not done) trigger another gpu 
recovery and so on. If you do manage to trylock you also go over the 
list, clean it and perform recovery. This list probably needs to be 
protected with per hive lock.
I also think we can for now at least finish reviewing the first 2 
patches and submit them since as I said before they are not dealing 
with this topic and fixing existing race conditions. If you are OK 
with that I can send for review the last iteration of the first 2 
patches where I wait for the last fence in ring mirror list.

Andrey
</pre>
</blockquote>
<pre class="moz-quote-pre" wrap="">I implemented HW reset avoidance including XGMI use case according to 
the plan i specified. Patch is attached but I can't test it yet due to 
XGMI regression in PSP which is supposed to be fixed soon. Please take a 
look.</pre>
</blockquote>
<br>
Looks a bit too complicated on first glance. In general we should probably get away from handling a hive in any special way.<br>
</blockquote>
<br>
Yes, I guess i can do it the same way as the generic handling in amdgpu_device_gpu_recover - there is a list of devices to process which is of size 1 for non xgmi use case or more then 1 for XGMI.<br>
<br>
<blockquote type="cite" cite="mid:cbacbef0-d82b-1f44-2fd4-87d81d7ce00b@gmail.com">
<br>
Multiple timeout jobs in a hive are identical to multiple timeout jobs on different engines on a single device.<br>
<br>
How about the following handling:<br>
1. Add the timeout job to a list.<br>
2. Try to grab a lock to handle the reset, if that doesn't work because there is already a reset underway return immediately.<br>
3. Stop all schedulers on all affected devices including stopping the timeouts and detaching all callbacks.<br>
4. Double check the list of timed out jobs, if all hw fences of all jobs are completed now we actually don't need to do anything.<br>
</blockquote>
<br>
What if all the jobs on the timed out list did complete but other job (or jobs) for which we removed the time out timer became hanged ? Wouldn't we  miss a required reset in this case and wouldn't even have any indication of their hang ?<br>
 <br>
<blockquote type="cite" cite="mid:cbacbef0-d82b-1f44-2fd4-87d81d7ce00b@gmail.com">
5. Do the reset on all affected devices.<br>
6. Drop the lock.<br>
7. Add callbacks again and restart the schedulers.<br>
</blockquote>
<br>
I see your steps don't include flushing any tdr in progress from drm_sched_job_finish (or as I did it from amdgpu_job_free_cb) does it mean you don't think we need to flush in order to avoid freeing job while it still might be accessed from time out  list ?<br>
<br>
Andrey<br>
<br>
<blockquote type="cite" cite="mid:cbacbef0-d82b-1f44-2fd4-87d81d7ce00b@gmail.com">
<br>
Regards,<br>
Christian.<br>
<br>
<blockquote type="cite" cite="mid:de7d180d-f959-d8a6-0f99-99906f07e76c@amd.com">
<pre class="moz-quote-pre" wrap="">
Andrey

</pre>
<blockquote type="cite">
<blockquote type="cite">
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">Andrey
</pre>
<blockquote type="cite">
<blockquote type="cite">
<blockquote type="cite">
<pre class="moz-quote-pre" wrap="">Andrey

</pre>
</blockquote>
</blockquote>
<pre class="moz-quote-pre" wrap="">_______________________________________________
amd-gfx mailing list
<a class="moz-txt-link-abbreviated" href="mailto:amd-gfx@lists.freedesktop.org" moz-do-not-send="true">amd-gfx@lists.freedesktop.org</a>
<a class="moz-txt-link-freetext" href="https://lists.freedesktop.org/mailman/listinfo/amd-gfx" moz-do-not-send="true">https://lists.freedesktop.org/mailman/listinfo/amd-gfx</a>
</pre>
</blockquote>
</blockquote>
<pre class="moz-quote-pre" wrap="">_______________________________________________
amd-gfx mailing list
<a class="moz-txt-link-abbreviated" href="mailto:amd-gfx@lists.freedesktop.org" moz-do-not-send="true">amd-gfx@lists.freedesktop.org</a>
<a class="moz-txt-link-freetext" href="https://lists.freedesktop.org/mailman/listinfo/amd-gfx" moz-do-not-send="true">https://lists.freedesktop.org/mailman/listinfo/amd-gfx</a>
</pre>
</blockquote>
</blockquote>
<br>
<fieldset class="mimeAttachmentHeader"></fieldset>
<pre class="moz-quote-pre" wrap="">_______________________________________________
amd-gfx mailing list
<a class="moz-txt-link-abbreviated" href="mailto:amd-gfx@lists.freedesktop.org" moz-do-not-send="true">amd-gfx@lists.freedesktop.org</a>
<a class="moz-txt-link-freetext" href="https://lists.freedesktop.org/mailman/listinfo/amd-gfx" moz-do-not-send="true">https://lists.freedesktop.org/mailman/listinfo/amd-gfx</a>
</pre>
</blockquote>
<br>
</blockquote>
<br>
</body>
</html>