<div dir="ltr"><a href="https://www.phoronix.com/scan.php?page=news_item&px=FreeDesktop-GitLab-2022-Crash">https://www.phoronix.com/scan.php?page=news_item&px=FreeDesktop-GitLab-2022-Crash</a></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jun 13, 2022 at 9:40 AM Daniel Stone <<a href="mailto:daniel@fooishbar.org">daniel@fooishbar.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Mon, 13 Jun 2022 at 05:17, Peter Hutterer <<a href="mailto:peter.hutterer@who-t.net" target="_blank">peter.hutterer@who-t.net</a>> wrote:<br>
> On Sun, Jun 12, 2022 at 05:57:05PM -0700, Jeremy Sequoia wrote:<br>
> > I was going to spend a little bit of time putting out an update to XQuartz<br>
> > to address a few bugs that I've been meaning to squash, but I'm having a bit<br>
> > of an issue pulling down sources.<br>
> ><br>
> > Fetching via ssh://<a href="mailto:git@gitlab.freedesktop.org" target="_blank">git@gitlab.freedesktop.org</a> is giving me Permission denied<br>
> > (publickey,keyboard-interactive).  I'm not sure if the latter is an infra<br>
> > issue or if the ssh key I have stored in my gitlab account are out of date<br>
> > (it's been about a year since I touched this).  Unfortunately, I can't seem<br>
> > to access <a href="https://gitlab.freedesktop.org" rel="noreferrer" target="_blank">https://gitlab.freedesktop.org</a> to check as it's constantly<br>
> > presenting me a 504 Gateway timeout.<br>
> ><br>
> > Is anyone else able to pull sources via ssh://<a href="mailto:git@gitlab.freedesktop.org" target="_blank">git@gitlab.freedesktop.org</a><br>
> > right now?  Is someone looking into the 504 issue?<br>
><br>
> not an fdo admin but judging by the chatter on #freedesktop: no and yes, in<br>
> that order. seems like the infrastructure is in various stages of depositing<br>
> fecal matter on itself and the fixes are involved enough that the admins have<br>
> to be mentally awake, not merely physically.<br>
<br>
Yes, that's what's happening. Our (multi-host-replicated etc) Ceph<br>
storage setup has entered a degraded mode due to the loss of a couple<br>
of disks - no data has been lost but the cluster is currently unhappy.<br>
We're walking through fixing this, but have bumped into some other<br>
issues since, including a newly-flaky network setup, and changes since<br>
we last provisioned a new storage host.<br>
<br>
We're working through them one by one and will have the service back<br>
up with all our data intact - hopefully in a matter of hours but we<br>
have no firm ETA right now.<br>
<br>
Cheers,<br>
Daniel<br>
</blockquote></div>