Если кто не знает, есть такой сервис по отслеживанию динамики test coverage.
Пару дней тому назад все github actions, публикующие на этот сервис, начали валиться с диагностикой от cloudflare.
После полуторых дней усилий парни смогли-таки заменить стандартную страничку cloudflare на кастомную, которая вежливо объясняет "мы тут чиним", и отправляет на status page.
На случай внезапного прихода в негодность и этой страницы, там сейчас написано, что
Status: Unresolved — No ETA
Update — Day 2 | Evening
Status: Unresolved — No ETA
We want to be transparent with you: after two full days of working directly with our hosting provider’s account team, we still do not have an ETA for service restoration. Despite having internal sponsorship within our provider’s organization, we have been unable to get the traction needed to resolve what appears to have been an automated action — one that no one on their side has taken ownership of causing or fixing.
We understand the severity of this disruption. Your CI workflows depend on Coveralls, and we can see the real impact this outage is having on your teams. That is not lost on us for a single moment.
This experience has made something painfully clear: no matter how trusted or established a cloud provider may be, a single vendor dependency without a failover plan is an unacceptable risk — for us and for you. We are already evaluating backup infrastructure options to ensure that nothing like this can take our service offline this way again. We’ll share more in our full postmortem.
In the meantime, to those of you who have stayed patient and stuck with us through this — thank you. We see you, we appreciate you, and we are committed to making this right. If there is anything we can do to help in the interim, please reach out.
We will continue to post updates as we have them.
Feb 26, 2026 — 17:13 PST
Update — As of 6am PST Thu, Feb 26, we are still waiting on restoration. We thought this would be resolved by this morning. We are in touch with our account team and are doing what we can to restore service. We apologize for the ongoing inconvenience.
Feb 26, 2026 — 06:53 PST
Update — After a full day of working with our hosting provider's account team (who've been really helpful), we've discovered that this outage stems from an account restriction that, by all indications, shouldn't have happened (we believe the technical term is "snafu"). They are actively working to get it reversed.
This is not a technical failure — our infrastructure and all customer data are fully intact. Services will be restored as soon as account access is.
We're hopeful for resolution this evening or tomorrow morning. We'll have more to say once we're back online.
Feb 25, 2026 — 17:56 PST
Update — We are continuing to communicate with our hosting provider around any updates or ETA.
Feb 25, 2026 — 09:49 PST
Monitoring — We are experiencing an outage that appears to have originated at our infrastructure provider. We are unable to access our account and are working with our account manager to resolve the issue. Unfortunately, due to the nature of the incident, we have no way to establish an ETA.
We are doing everything we can to restore service, and will update our status page as soon as we have a fix or an ETA.
You can subscribe for email updates by clicking SUBSCRIBE TO UPDATES button in the top right corner of this page.
Feb 25, 2026 — 09:48 PST
Update — Outage will be extended for at least several more hours.
To avoid further disruption to your CI workflows, we recommend employing the fail-on-error: false input option available with all official coveralls integrations.
Identified — The issue has been identified and a fix is being implemented.
Feb 24, 2026 — 17:36 PST
Update — We are continuing to investigate this issue.
Feb 24, 2026 — 14:58 PST
Investigating — We are currently investigating this issue.
Feb 24, 2026 — 14:52 PST
Из интересного so far:
Despite having internal sponsorship within our provider’s organization, we have been unable to get the traction needed to resolve what appears to have been an automated action — one that no one on their side has taken ownership of causing or fixing.
Звучит подозрительно похоже на то, что кто-то у их хостинг-провайдера воспользовался ИИ, и теперь не в силах даже разобраться, а что именно сломано
Уйдемте отсюда, Румата! У вас слишком богатые погреба.
Здравствуйте, Sinclair, Вы писали:
S>Если кто не знает, есть такой сервис по отслеживанию динамики test coverage. S>Пару дней тому назад все github actions, публикующие на этот сервис, начали валиться с диагностикой от cloudflare.
даже думать страшно, насколько все интернет сервисы хрупкие. То разорятся, то их ддосят, то ещё что
S>no one on their side has taken ownership of causing or fixing.
Сталина на них нет. S>Звучит подозрительно похоже на то, что кто-то у их хостинг-провайдера воспользовался ИИ, и теперь не в силах даже разобраться, а что именно сломано
Придётся подавать в суд на робота.
Данное сообщение является художественным произведением и освещает вымышленные события в вымышленном мире. Все совпадения с реальностью являются случайными. Не является инвестиционной рекомендацией.
Здравствуйте, Sinclair, Вы писали:
S>Звучит подозрительно похоже на то, что кто-то у их хостинг-провайдера воспользовался ИИ, и теперь не в силах даже разобраться, а что именно сломано
Я выделенное читаю так: "не взирая на то, что сервисные ресурсы достались нам на халяву, никто на стороне провайдера не выпрыгивает из штанов, чтобы все починить"
Re[2]: Тем временем coveralls.io лежит третий день
Здравствуйте, wl., Вы писали:
wl.>даже думать страшно, насколько все интернет сервисы хрупкие. То разорятся, то их ддосят, то ещё что
Да. Они еще и сами по себе любят падать. А еще с безопасностью у 100% их все обычно плохо или очень плохо.
S>Звучит подозрительно похоже на то, что кто-то у их хостинг-провайдера воспользовался ИИ, и теперь не в силах даже разобраться, а что именно сломано
Звучит как очередной high redundance cloud network fuckup. Это когда маршрутизаторы и коммутаторы не имеют своих минимальных "мозгов" а конфигурация в них загружается из вебинтерфейса молодежного вебконфигуратора, хостящегося в датацентре облаке производителя.
Забавна штука, ведь если выйдет из строя один из хрупких компонентов этой цепочки, от management интерфейса железки, до датацентра производителя, изменения формата конфига и просрочки оплаты подписки, оно все с грохотом падает.
Надеюсь, хостинг-провайдер на этом сэкономил достаточно, чтобы компенсировать обретенные репутационные потери.