Den tägliche Verbrauch an Gas und Strom visualisieren

In dem vorherigen Blog hatten wir Daten gesammelt, die in jedem Haushalt, der über einen Gas- und Stromanschluss verfügt, vorhanden sind: Datum, Uhrzeit, Stand Gaszähler, Stand Stromzähler. Der dazugehörige Zettel hängt bei uns am Kühlschrank und wer auch immer daran denkt und Zeit hat, fügt eine neue Zeile ein.

Nun sollen diese Zahlenkolonnen umgerechnet werden in den täglichen Verbrauch und der soll wiederum verglichen werden mit dem langjährigen Verbrauchsmittel, den uns die Energieversorger mit der Abrechnung zur Verfügung stellen.

Die Datenerfassung soll zumutbar bleiben

Dabei ergibt sich nun folgendes Problem: eigentlich sollte man täglich immer zur gleichen Uhrzeit ablesen, um so aus den Unterschieden der Zählerstände den jeweiligen Verbrauch ermitteln zu können. Das ist jedoch einer, zumindest unserer, Familie, nicht zumutbar.

Ein Algorithmus muss her

Dafür definieren wir eine Funktion die erlaubt, die Daten über eine gewisse Anzahl von Tagen, zum Beispiel über eine Woche also sieben Tage, zu glätten. Für eine Zeitspanne von einer Woche und den heutigen 13. November um 18:30 würde diese Funktion also alle Werte auswählen, die nach dem 6. November, ebenfalls um 18:30, erhoben wurden. Mithilfe dieser Daten führen wir eine Regressionsanalyse durch.

In R ist diese Funktion schnell erstellt. Andere mögen sie eleganter und ohne Schleife erstellen. Hinter den #-Zeichen füge ich Kommentare ein:

Verbrauch <- function(tab, days) {
  
  #tab[1, ]: Datum und Uhrzeit
  #tab[2, ]: Werte
  
  res <- tab
  res$Per24h <- NA
  res$R2 <- NA
  res$N <- NA
  
  for (i in 3:nrow(res)) {
    
    von <- tab[i, 1]$DatumUhrzeit - days*24*3600
    subset <- tab[1:i, ] %>% filter(DatumUhrzeit > von)
    colnames(subset)[2] <- "Werte"
    
    # Wir fangen noch einen Fehler ab:
    if(nrow(subset) > 2) {
      model <- lm(Werte ~ DatumUhrzeit, data = subset)
      res$Per24h[i] <- summary(model)$coefficients[2,1]*24*3600
      res$R2[i] <- summary(model)$r.squared
      res$N[i] <- nrow(subset)
    }
    
  }
  
  return(res)
  
  #res[1, ]: Datum und Uhrzeit
  #res[2, ]: Werte
  #res[3, ]: Verbrauch je 24h
  #res[4, ]: Regressionskoeffizient R^2
  #res[5, ]. Für die jeweilige Regression verwendete Anzahl von Werten
  
}

Dank dieser Funktion lässt sich das über eine Woche gemittelte Ergebnis für den Gasverbrauch wie folgt aus den Rohdaten der Tabelle t ermitteln:

days <- 7
tab <- t %>% select(DatumUhrzeit, StromverbrauchkWh)
res <- Verbrauch(tab, days)

So ergibt sich folgende Übersicht:

Wir sehen also, dass für den berechneten (über sieben Tage gemittelten) Durchschnittsverbrauch je 24 Stunden (oben) jeweils zumindest vier Datenpunkte zur Verfügung gestanden sind (unten). Bis auf den Anfang unserer Datenerhebung haben wir auch eine Güte R^2 der Regressionsanalyse von über 90% (Mitte). Diese Übersicht erzeugen wir ab jetzt zur Datenkontrolle. Solange dort keine Auffälligkeiten entstehen, werden die folgenden Graphiken im Familienrat betrachtet:

Bis ca. zum 20 Oktober sind die Gaswerte nicht zuverlässig (geringe Güte R^2). Wir haben da die Heizung auf Herbstbetrieb um- und dann für einige Tage bei schönem Wetter vollständig ausgestellt.

Wir können ab jetzt – fleißige Datenerhebung und -übertragung in ein Excelblatt vorausgesetzt – „per Knopfdruck“ (in R) unseren Verbrauch visualisieren. Unser derzeitige Schluss lautet: gar nicht so schlecht! Wir verbrauchen ca. 7 kWh Strom pro Tag und etwa ebenso viel Strom.

 

 

Energie sparen heißt zunächst einmal, den Energieverbrauch zu messen

Sparen ist angesagt

Seit Monaten wird darüber gesprochen, dass im jetzt kommenden Winter ein Energieproblem auf Deutschland zukommen wird oder kann – je nach dem, was man als „Problem“ betrachtet und wem man zuhört. Es scheint eine relativ einhellige Meinung darüber zu bestehen, dass wir unseren Energieverbrauch um ca. 20% reduzieren müssen, um das Risiko eines Blackouts zu reduzieren.

Wo steht mein Haushalt eigentlich?

Ein Blick in unsere Strom- und Gasabrechnungen der letzten Jahre zeigt, dass unser drei-Personen-Haushalt im Mittel der letzten Jahre pro Jahr

  • ca. 10.000 kWh Gas und
  • ca. 2.500 kWh Strom

verbraucht hat. Laut unserem Anbieter scheinen wir damit deutlich unter dem Durchschnitt zu liegen.

Messen einfach gemacht: Strom- und Gaszähler

Gerade für Strom gibt es allerhand Messgeräte, die man direkt vor den Verbraucher, z.B. den Fernseher, schalten und so die vom Gerät entnommene Leistung messen kann. Aber wie machen wir das für die Mikrowelle oder den E-Herd (den wir kaum benutzen)? Lohnt es sich also, so ein Gerät anschaffen? Und warum für Strom, wenn es für Gas nichts vergleichbares zu geben scheint (für den individuellen Verbrauch von Gasherd, -heizung und für Warmwasser)?

Wir haben deshalb beschlossen, einfach direkt an Strom- und Gaszähler abzulesen. Der Nachteil liegt auf der Hand: Rückschlüsse auf einzelne Verbraucher sind nicht ohne weiteres zu haben. Wieviel verbraucht zum Beispiel mein Computer im Laufe von 24 Stunden, wenn ich ihn nachts nicht ausschalte? Gleichzeitig können wir beliebig lange – und auch beliebig genaue Zeitreihen erfassen. Die sehen dann wie folgt aus:

Wir erfassen also

  • das Datum
  • die Uhrzeit
  • den Zählerstand Strom in Kilowatt-Stunden
  • den Zählerstand Gas in Kubikmeter und
  • „Bemerkungen“.

Dank der „Bemerkungen“ können wir – zumindest im Prinzip und falls wir „fleißig genug“ sind – zum Beispiel den Verbrauch der Waschmaschine erfassen, indem wir jeweils vor- und einem Waschgang den Strom ablesen.

Der Gaszähler zeigt Kubikmeter an – wir bezahlen aber Kilowattstunden!

Wenn man einmal anfängt, den Dingen auf den Grund zu gehen, dann erlebt man Überraschung: ablesen können wir am Gaszähler die Kubikmeter, wir bezahlen aber Kilowattstunden. Was die Umrechnung angeht, da vertrauen wir also dem Gaslieferanten (und dem zuständigen Eichamt).

In unserer Gasrechnung findet sich dazu eine sparsame Erklärung: der „Brennwert“, also wieviel Energie das Gas je Kubikmeter enthält, hängt von der Zusammensetzung des Gases ab. Im Internet erfahre ich, dass es auch eine „Zustandszahl“ gibt, die Temperatur und Druck berücksichtigt. Nun wird die Temperatur im Winter vermutlich geringer sein als im Sommer und der Kubikmeter Gas enthält dann auch mehr Energie. Welche Werte für welchen Zeitraum unserer Abrechnung zugrunde gelegt werden, darüber schweigt sich unsere Abrechnung aus. Im Internet finden sich einige interessante Referenzen, zum Beispiel auch diese hier. Man könne, so heißt es dort, den Abrechnungsbrennwert „regelmäßig“ beim Gaslieferanten erfragen.

Ein Anruf dort stößt tatsächlich auf Verständnis: „Ich finde gut, dass Sie nachfragen.“ Für unseren Wohnort wird uns ein Brennwert von 10,5 – 10,6 genannt und eine Zustandszahl von 0,976. Also rechne ich wie folgt um:

Verbrauchte Energie [kWh] = 10,6 * 0,976 * Verbrauchtes Gas [m^3]

Wir wollen unsere Freiheiten bei der Datenerfassung und -auswertung

Der Teufel steckt bekanntlich im Detail.
Das wird nach den ersten Tagen schon  klar.

Ich habe unsere Daten in ein Excelblatt übertragen und möchte sie auswerten. Zur Analyse würde man sich wünschen, dass die Werte regelmäßig, zum Beispiel täglich um 08:00 Uhr, erfasst werden. So könnte man dann den Verbrauch innerhalb von 24 Stunden bestimmen und vergleichen. Diese Disziplin bringen wir als Familie jedoch nicht auf. Bei uns liegt vielmehr der oben abgebildete Zettel in der Küche und wer auch immer möchte kann kurz in den Hauswirtschaftsraum herübergehen und eine neue Zeile eintragen.

Ich habe deshalb beschlossen, die Daten stattdessen mit einem R-Skript auszuwerten. Da ich noch nicht genau weiß, welche Auswertungen ich im Laufe der Zeit erstellen möchte, bleibe ich so flexibel. Das Skript kann zudem im Laufe der Zeit in einen Markdown-Report übertragen werden und so würden dann alle Auswertungen „per Knopfdruck“ zur Verfügung stehen. Das Excel-Blatt dient dabei lediglich als „Datenbank“. Das Programm Power-BI wäre dazu eine mögliche Alternative.

Erste Auswertung: einfacher Zeitverlauf

Mein Skript liest zunächst die Rohdaten aus dem Excelblatt ein und ich überführe die Daten in eine „aufgeräumte Struktur“, sodass jeweils eine Spalte entsteht für:

  • Datum und Uhrzeit
  • Energieverbrauch in kWh
  • Energieform (Gas oder Strom).

Dafür werden die Spalten jeweils „gestapelt“. Unter Verwendung des ggplot-Pakets in R lässt sich so mit folgenden Befehlszeilen (Formatierungsanweisungen habe ich der Einfachheit halber herausgenommen)

ggplot(data = plotdat, 
       aes(x = Datum, 
           y = kWh, 
           colour = Energie)) + 
geom_line()

diese Graphik erstellen:

Im betrachteten Zeitraum erkennen wir zunächst einen ziemlich gleichmäßigen Verbrauch. Im Jahr 2022 war der Oktober sehr warm und wir haben bis Ende Oktober nicht (mit Gas) geheizt: tagsüber scheint die Sonne herein, abends ziehen wir die Vorhänge zu, um die Wärme im Haus zu behalten. Dank guter Isolierung hat das bisher gereicht. Ein Vergleich zu später wird also interessant werden.

Ganz zu Beginn unserer Messungen steht ein Experiment: wir haben für einige Tage das Gas vollständig aus- und nur dann kurz wieder eingeschaltet, wenn das Duschwasser zu kalt geworden ist. Das Ergebnis ist anhand des bis zum 18. Oktober deutlich flacheren Verlaufs des Gasverbrauchs zu erkennen.

Der durchschnittliche Verbrauch lässt sich nun über eine Regressionsanalyse ermitteln:

model <- lm(StromverbrauchkWh ~ DatumUhrzeit, data = t)
summary(model)

So ergibt sich, dass (R-Quadrat) 99,9% der beobachteten Variation im Stromverbrauch mit dem Fortschreiten der Zeit zusammenhängen und nur 0,1% mit „Spezialeffekten“, wenn wir die Waschmaschine, einen Laubpuster oder den Trockner (kurz) laufen lassen. Der durchschnittliche tägliche Verbrauch lässt sich anhand der Steigung ermitteln. Wir erhalten:

  • Gas: 4,9 kWh/24h (R^2 = 99,1%)
  • Strom: 6,9 kWh/24h (R^2 = 99,9%)

Mit Blick auf das nun angekündigte kühlere Wetter – und wir haben heute die Heizung von „Schutzbetrieb“ auf „Eco“ umgeschaltet – liegt jedoch folgender Wunsch nahe: Wir wollen diese Regressionsanalyse nicht einfach nur über den gesamten Betrachtungszeitraum durchführen. Das wäre ohne weiteres auch in Excel möglich. Vielmehr möchten wir in der Lage sein, über ein wählbares Zeitfenster, zum Beispiel über 7 Tage hinweg, solch eine Regression durchzuführen, um die dadurch entstehende Zeitreihe untersuchen zu können. Schwankungen im durchschnittlichen Verbrauch sollten so erkennbar sein.

Bei diesem – relativ einfachen – Wunsch steigen meinem Kenntnisstand nach jedoch Excel, Power-BI und jegliche „Klick-Software“ aus – es sei denn, man erstellt ein Skript. Genau das tun wir von Anfang an in R.

Das Ergebnis wollen wir uns beim nächsten Mal anschauen.

Wie steht es eigentlich um die Demokratie in der Welt?

Dieser Blog ist seit fast zwei Jahren verwaist – was schade ist. Seit dem letzten Eintrag ist viel geschehen. Einen Wendepunkt stellt der 24. Februar 2022 dar. Auch in meinem Leben haben sich so neue Schwerpunkte ergeben.

Wir haben nicht aufgepasst

„Als Menschheit“ haben wir manches verschlafen. Viele Länder haben die Erfahrung gemacht, was passiert, wenn ein Volk über Jahre hinweg einer Propaganda ausgesetzt wird und unabhängige Stimmen eine nach der anderen mundtot gemacht werden.

Nun ist die freie Meinungsäußerung sicher nur ein Aspekt unter vielen, auf die es zu achten gilt. Bei meiner Suche bin ich auf die hervorragende Webseite State of Democracy und auf eine über sie veröffentlichte Datenbank bei The Global State of Democracy | International IDEA gestoßen (siehe dort: Data & Tools):

„Diese Daten müssen allen Menschen zur Verfügung stehen!“

Zu 160+ Ländern liegen dort Daten von den Jahren 1975 bis heute vor und dies zu 116 „Indizes“, die z.T. in 8 „sub-sub-Attribute“, in 16 „sub-Attribute“ und 5 „Hauptattribute“ aggregiert werden. „Nichts für mich“, werden Sie sich vielleicht sagen, „da muss eine Statistikerin ran“. So bleibt dann dieser Fundus an Daten den wenigen Statistikern vorbehalten, die ihnen Einsichten entlocken können. Es entsteht ein Flaschenhals – und etwas fundamental undemokratisches. Denn der größte Teil der Menschheit bleibt somit ausgeschlossen.

Alle Länder sollten „unter Beobachtung“ stehen

Das ist ein großer Verlust. Denn zum einen sollten wir alle auf unser eigenes Land, auf Nachbarländer und überhaupt „auf die Welt“ aufpassen. Und das ist nur möglich, wenn wir eine Art „Dashboard“ haben, das uns hilft, Entwicklungen schnell zu erkennen.

Zum anderen: wenn wir über „Demokratie“ sprechen, dann tun wir das häufig im Sinne der „Mechanik“: Wahlen, Gewaltenteilung usw. „State of Democracy“ betrachtet Demokratie stattdessen aus „Kundensicht“: was erwarten sich Menschen von ihrem Staat und was können sie erwarten?

Es geht um 5 Aspekte:

  • Fundamentale Rechte
  • Überprüfung der Regierung
  • Eine unparteiische Verwaltung
  • Einbindung der Bevölkerung und
  • Eine repräsentative Regierung.

Nun fragen Sie völlig zu recht, was mit dem Attribut „fundamentale Rechten“ gemeint sein könnte. Hier geht es wieder um drei wesentliche sub-Attribute:

  • Zugang zur Justiz
  • Bürgerliche Freiheiten
  • Soziale Rechte und Gleichheit.

Auch hier werden Sie fragen, was „bürgerliche Freiheiten“ wohl sind. Laut „State of Democracy“ bestehen diese aus den folgenden „sub-sub-Attributen“:

  • Die freie Meinungsäußerung
  • Die Vereinigungs- und Versammlungsfreiheit
  • Die Freiheit der Religion
  • Die Bewegungsfreiheit und um
  • Persönliche Integrität und Sicherheit.

Allein die freie Meinungsäußerung wird über 8 Indizes gemessen.

Wir können selbstverständlich unterschiedlicher Ansicht sein, ob die freie Meinungsäußerung wohl uneingeschränkt gelten sollte. Bei uns in Deutschland ist zum Beispiel die Leugnung des Holocaust strafbewehrt. Auch gibt es verschiedene Ansichten zum Attribute der Einbindung der Bevölkerung, die neben drei anderen auch über das sub-Attribut „direkte Demokratie“ beschrieben wird: birgt die direkte Demokratie nicht auch populistische und andere Gefahren?

Was „gut“ oder „richtig“ ist wird also kontrovers diskutiert und die demokratische Republik Kongo mag andere Antworten finden als Andorra. Die vorliegenden Daten, erstellt mit einer mir ansonsten unbekannten Sorgfalt (siehe das „Codebook„), können für diese Gespräche eine wichtige Grundlage liefern.

Daraus ergibt sich für mich die nahezu zwingende Vision:

Diese Daten müssen so einfach aufbereitet werden,
dass jedes Schulkind sie verstehen kann!

In den letzten Wochen habe ich damit angefangen.
Die ersten Ergebnisse sind in den folgenden Berichten zusammengefasst:

Es fehlen noch einige Werkzeuge wie Weltkarten, die mithilfe eines Attributs oder eines Index eingefärbt werden. Das ist „Standard“ und kann bei Gelegenheit entstehen. Wie aber kann man 145 „Key Performance Indicators“ und die Zusammenhänge zwischen ihnen so darstellen, dass „jedes Kind“ sie erfassen kann?

Hier hilft das „Blumen-Diagramm“, eine Entwicklung der letzten Tage:

Wenn alles ausgereift ist, dann werden diese Werkzeuge in einer interaktiven „App“ zusammengebaut, die jetzt schon als „halbfunktionaler“ Prototyp verfügbar ist:

Der Democratizer

Falls meine Freunde aus USA dies lesen: wenn es Euch lieber ist, dann könnt Ihr diese App auch gerne als „Republicanizer“ interpretieren. Es geht nicht um die eine oder um die andere Partei. Und falls Sie diesen Beitrag in Cuba oder Venezuela lesen: es geht darum, den Zugang zu diesen Daten zu „sozialisieren“, sie also allen zugänglich zu machen. „Das Volk“ (griechisch Demos) soll die Verfügungsgewalt (griechisch kratein = herrschen) über die aus diesen Daten gewonnenen Einsichten haben.

Um was es hier geht

Natürlich ist es für einen Datenwissenschaftler spannend, große Datensätze wie den vorliegenden visuell aufzubereiten und ihnen Einsichten zu entlocken. Der „Democratizer“ stellt jedoch lediglich eine Produktinnovation dar. Wichtiger sind die Prozesse und Dienstleistungen, die sich mit dieser oder mit vergleichbaren, Transparenz schaffenden Apps denken lassen.

Soviel jetzt schon: ich bin überzeugt, dass es sich hier um Aufgaben einer Generation handelt, die auf einer Stufe stehen mit Aufgaben wie der Umstellung auf erneuerbare Energien oder der Säuberung der Ozeane. Wir müssen es angehen. Viel ist schon unterwegs. Es geht mir darum, „den richtigen Aschluss“ zu finden. Mehr dazu dann später.

Does Corona have an impact on climate?

In 2017 (data from Wikipedia) humanity emitted about 37 giga-tons of fossil CO2, much of it linked to economic activity. Corona has significantly slowed things down. How big of an impact does that have on the atmosphere?

The answer to this question helps gage the measures necessary to tackle climate change. I am certainly not the right guy for that discussion but towards the end of this contribution, you find a few thoughts.

Since 1958, the Mauna Loa Observatory measures the atmospheric CO2 concentration on a weekly basis and makes the data publicly available. The overall trend is well-known:

Interestingly, as the plot shows, the CO2-concentration undergoes seasonal oscillations: The Northern land-mass is larger than the Southern which is why, during Siberian spring and summer, CO2 is absorbed from the atmosphere and emitted again during autumn and winter.

The tricky part in our question consists in finding the „Corona-signal“ amongst this variation. The basic idea is to model the above signal for the before-Corona times, predict its further evolution and compare the outcome to what really happened.

We start with a polynomial approximation and find that for times after 1995 a second-order polynom will do. We are then left with modelling the annual cycles:

To a climate newby like myself, these cycles are impressive: at a weight of the atmosphere of 5×1018 kg, a variation of 6ppm summer to winter corresponds to about 100 Gigatons CO2 that planet Earth „breathes in and out“. That is about 3x what humanity emits in fossil CO2 per year.

The challenge we are left with is understanding the „Corona-signal“ in these oscillations:

To that purpose, we use the Fast Fourier Transformation (FFT, see betterexplained.com) and get inspiration from Joao Neto’s tutorial on how to do that in R. Here we are not only interested in finding the amplitude of the oscillation but also need the phase-information. Just in case you plan to do that, here are a few tips:

  • Interpolate missing values before the analysis
  • To reduce artifacts, use time-windows of entire years for the FFT
  • Refine your algorithm with a known signal, then approach unknown signals.

What turns out to be hard to model in the annual CO2 cycles is the phase-information. Taking longer periods in time leads to significant phase-shifts on the edges. That is a pity because it is the upper edge we are interested in. Here I use the data between Jan 30 2010, and Jan 30 2020 by when the WHO declared COVID-19 a „public health emergency of international concern“.

In blue we see what happened, in green the model and in red the long-term trend based on a polynomial approximation. For the oscillation, I have used only the two frequencies with the strongest amplitudes. Overall the result looks promising but the devil sits in the details:

With the 2019-cycle we see the overall difficulty to model the phase shift. And yes, many blue dots (what happened) in 2020 are below the green curve (expected behavior without „Corona-effect“). Well,…

…we need to investigate better the residuals (differences between blue and green):

The average of -0.116 ppm is not significantly different from zero („Corona times are no different from what is expected without Corona“), given the overall variation in the residuals. One could argue that it took the world economy some time to settle into „Corona operations“ and that it equally took the planet some time to stirr the atmosphere enough for a lower CO2 concentration to reach remote Hawaii. When we take out of the analysis the two data points from February 1 and 8 (shown in italic), we get an average for the remaining residuals of -0.22 ppm, but this still with a likelihood („P-value“) of 10% that the true average is zero.

In other words:
With our somewhat crude analysis and for a relatively short time of observation, we only find a 90% chance for anything like a „Corona effect“ on the global CO2 concentration.  

Most people would wish to be at least 95% certain – and more is definitely better here and elsewhere. We knew things were going to be tricky. For my own business as a consultant, I am still happy to now have algorithms that help me study seasonality in my clients‘ demand data, for example. But that is not the point here.

For climate it pretty much looks like if we were in for a longer race: as the cartoonist from The Economist observed: Corona is only the preliminary round for the world to learn to fight together. After this „warm-up“, climate change then is the real thing. Taking quick shots at CO2 , even as big as a world-wide Corona shut-down, has limited impact.

With that said: the Mauna Loa data earn more thorough investigation than done here – and as quoted above, there are people doing just that. If you have an idea how to better model the data, and to tackle the phase-shift problem better than I do, maybe we can reduce the residuals between model and reality (measured when „learning“ the model with the data from before Corona). In my analysis, they stand at a standard deviation of 0.6 ppm. Lower residuals („noise“) will allow detecting smaller signals…

Ping me, if you have an idea.

 

 

 

Die Corona-Lockerungen schreiten voran – was sagen die Zahlen?

Wir sollten die Zahlen und unser eigenes Verhalten weiterhin im Blick behalten

Verglichen mit manch anderem Land sind wir in Deutschland bisher glimpflich davon gekommen. Vorsichtige Lockerungen schreiten voran. Auch bei uns zuhause wird ab heute an zwei Tagen die Woche und für je drei Stunden die Schule wieder beginnen – nicht im Klassenverband sondern in kleinen Gruppen. Auf dem Schulhof scheinen Kreuze aufgemalt zu sein, auf die sich die Kinder während der Pause offensichtlich stellen sollen.

Man wird sehen, wie das und vieles andere funktioniert. Die Lockerungen, genau wie auch die Maßnahmen, sehen regional jeweils verschieden aus. Aus den jeweiligen Auswirkungen wird sich viel lernen lassen, wie dem Virus am besten zu begegnen ist. Wir sollten sicher alle die täglich veröffentlichten Zahlen des Robert Koch Instituts (RKI) verfolgen, immer wieder einen Blick auf deren Dashboard werfen – und nicht zuletzt auch unser eigenes Verhalten im Blick behalten.

Kennt jemand eine Quelle für die Rohdaten in Deutschland?

Das Dashboard des RKI gleicht dem der Johns Hopkins Universität, die im Kleingedruckten auch einen Link zu ihren Rohdaten veröffentlicht. Alle Auswertungen in diesem Blog kommen von diesen Daten.

Kennt jemand solch einen Link für die Daten in Deutschland?
Ich bin sicher nicht der einzige, der sich die Dinge – gerade jetzt – liebend gern regelmäßig selbst anschauen würde. Auf meinem „Wunschzettel“ für diese Daten steht:

  • Tabellenformat (csv, xls, txt, …) mit Spalten für
  • Datum
  • Landkreis o. ä. mit jeweils
  • Gesamtzahl bestätigter Fälle
  • Gesamtzahl Genesungen
  • Gesamtzahl Todesfälle.

Aus den Gesamtzahlen lassen sich die täglich neuen Zahlen berechnen. Wenn es statt dieser Zahlen die täglich neuen Zahlen gibt, dann lassen sich natürlich auch die Gesamtzahlen berechnen. Falls beide veröffentlicht werden, so kann man deren Konsistenz prüfen. Sehr schön wäre es, wenn je Landkreis, Verwaltungsbezirk oder in welcher Form auch immer die Daten gesammelt werden, auch noch

  • GPS-Koordinaten und
  • Einwohnerzahl

zu haben wären. Diese Informationen können in neuen Spalten stehen oder auch gerne in einer separaten, aber dann bitte vollständigen Liste. Soweit mein Wunschzettel. Dem Dashbord des RKI müssen jedenfalls Daten in solch einem Format zugrunde liegen. Es gibt sie also. Wenn jemand den Link kennt, den ich bisher übersehen habe: sehr gerne!

Die „post-Corona Welt“ zeichnet sich am Horizont ab

Viele haben inzwischen notgedrungenerweise gelernt, von zuhause aus zu arbeiten. Man kennt von Menschen, denen man bisher nie begegnet ist, die Kücheneinrichtung und wird inzwischen auch schon von deren auf dem Schoß sitzenden Sohnemann begrüßt: trotz des Spagats, den viele machen müssen, erscheint in dieser neuen Arbeitswelt manches deutlich entspannter. Es zählt nicht mein Titel, wie groß mein Büro ist und ob mein Dienstwagen direkt vor dem Foyer oder auf dem Firmenparkplatz steht. Es geht darum, ob ich Probleme lösen kann und Dinge im Fluss halte. Zur allgemeinen Überraschung klappt das ganz gut, nicht zuletzt auch, weil Werkzeuge und Plattformen für virtuelle Zusammenarbeit derzeit einen Boom erleben.

Twitter verspricht konsequenterweise schon jetzt „Homeoffice für immer“ und auch Facebook zieht nach. Videokonferenzen unter europäischen Politikern sind der neue Standard. Auch hält die CSU einen virtuellen Parteitag und gewinnt dem einiges ab: man könne so auch in Zukunft viel schneller und flexibler Rücksprache mit Mitgliedern halten.

Wir werden sehen, in welcher Form diese Dinge in Deutschland Breitenwirkung erzeugen und auf Dauer Wurzeln schlagen. Muss man wirklich weiterhin für ein „Business Review“ im Quartalrhythmus in aller Herren Länder fliegen? Vielleicht wird das persönliche Treffen -nicht nur von Angesicht zu Angesicht dank Bildschirmübertragung sondern auch mit Möglichkeit zum Händedruck – zu einem Luxus, ähnlich dem von weit her eingeflogenen Lebensmittel zum Beispiel?

Unsere Lieferketten waren bisher vor allem auf Effizienz getrimmt. Es steht zu hoffen, dass es nun vermehrt auch um Resilienz und Nachhaltigkeit geht. Redundanzen und „near-shoring“ werden dabei vermutlich eine Rolle spielen. Gerade in Frankreich gibt es derzeit eine rege Debatte darüber, was wir aus Corona lernen können und müssen, um unseren Enkeln einen besseren Planeten übergeben zu können als den, zu dem wir das Erbe unserer Großeltern gemacht haben.

Die Sache ist allerdings noch lange nicht vorbei

Über den Daumen gepeilt haben wir in Deutschland knapp 178.000 bestätigte Corona-Fälle, von denen sich nur noch 12.000 im Krankenstand befinden – was schlimm genug ist. Seit dem 8. Mai kommen Tag für Tag für ganz Deutschland 630 bis 640 neue Fälle dazu (Regressionskoeffizient 99%), was etwa 60% der täglich bei Verkehrsunfällen verletzten Personen entspricht. Dieser Vergleich hinkt natürlich gewaltig: Wenn man sich die Todesfälle anschaut, dann liegt Corona weiterhin um einen Faktor 5-6 höher. Verkehrsunfälle wachsen auch nicht exponentiell, mit einer Verdopplungszeit von 2-3 Tagen, wenn man nichts dagegen tut. Der Vergleich zeigt aber zumindest, wie viel bei uns inzwischen erreicht wurde.

Ein Blick in die Welt zeigt jedoch auch, dass wir uns glücklich schätzen müssen: weltweit kennen die Zahlen bisher nur eine Richtung und der Höhepunkt ist noch längst nicht erreicht:

Von den über 81 Millionen Einwohnern in Deutschland steht – laut verfügbaren Zahlen – 99,8% das Risiko einer Erkrankung zudem weiterhin bevor. Wenn wir zu unserem Verhalten vom Februar zurückkehren, dann könnten sich auch die Wachstumszahlen vom Februar wieder einstellen. Berichte von dem einen oder anderen „Super-Spreader“ haben wir ja gelesen oder gehört.

Schauen wir uns an, welche Länder laut Johns Hopkins Universität derzeit die meisten „aktive“ Fälle verzeichnen …

… und wie die Entwicklungen in den vier am meisten betroffenen Ländern aussehen:

Man mag die Zahlen der Gesundeten in Großbritannien und die der Todesfälle in Russland anzweifeln und vielleicht gleich alle Zahlen aus Brasilien – aber dass gerade in Brasilien die „Reise“ erst am Anfang steht, erkennt man allein schon an dem exponentiellen Wachstum, das laut unseren eigenen Berechnungen derzeit einer Verdopplung alle 13 Tage entspricht (Regressionskoeffizient nahe 100%). Zum Vergleich: Peru, derzeit an Position 7 was den Krankenstand angeht, liegt bei einer Verdopplung alle 16 Tage (bei ebenfalls sehr hohem Regressionskoeffizienten).

Man wird deshalb auch diese Entwicklung im Auge behalten müssen:

Dargestellt sind in rot der tagesaktuelle Krankenstand vom 25. Mai und in schwarz die Wanderung im Laufe der Zeit des globalen Schwerpunkts dieser Zahlen: nach einer Ausbreitung zunächst in China hat sich das Virus sehr schnell Richtung Westen ausgebreitet.

Der Schwerpunkt (näheres zur Berechnung im Eintrag vom 31. März) blieb dann eine geraume Zeit über dem nördlichen Atlantik – und scheint seit neuestem eine lang vorhergesagte Reise nach Süden anzutreten. Es könnte durchaus sein, dass die größte humanitäre Katastrophen, auch durch Corona verursachte Hungernöte, uns noch bevorstehen.

Wie geht es eigentlich der Automobilindustrie seit Corona?

Schlecht natürlich. Wie allen. Ein genauerer Blick lohnt aber sicher und wir besorgen uns Daten von Yahoo Finance. Natürlich: der Aktienkurs ist nicht alles und gerade in außergewöhnlichen Zeiten sieht man gelegentlich übertriebene Markterwartungen – sowohl nach oben als auch nach unten. Aber die Aktienkurse haben zumindest den Charme, dass sie öffentlich einsehbar und jederzeit verfügbar sind.

Der handelsübliche Kursvergleich

Üblicherweise werden Entwicklungen verglichen relativ zu dem Kurs an einem bestimmten Datum. Da nun Aktienkurse bekanntermaßen Schwankungen unterliegen, verschaffen wir uns so allerdings einen „Wackelkandidaten“ im Nenner. Mit etwas Gymnastik gelingt dadurch gelegentlich, Kursverläufen das gewünschte Aussehen zu geben, indem man mit dem Bezugsdatum spielt.

Verglichen wird auch oft mit „dem Markt“. In Deutschland ist das der DAX, in den USA der Dow Jones und so weiter. Was aber, wenn wir Daimler, Toyota, Ford, Hyundai, Geely und Tesla vergleichen wollen?

Unser Kursvergleich für ausgewählte Automobilhersteller

Wir wählen deshalb zum einen den MSCI World als Vergleichsindex und verfolgen die Kursentwicklung nicht relativ zu einem bestimmten Tag sondern relativ zum Mittelwert über einen gewissen Zeitraum.

Man muss nicht lange hinschauen, um zu sehen, dass hier ein Sonderling dabei ist. Der zweite Blick ist aber vielleicht interessanter: auch schon vor der Corona-Zeit hat der Markt die Automobilindustrie immer pessimistischer eingeschätzt: von einer Lage klar über der (rot dargestellten) Linie des MSCI-World im vierten Quartal 2019 rutschen die Kurse bis Januar 2020 kontinuierlich ab. Aus Sicht des Marktes verschärft Corona diesen Trend also lediglich. Die gegenläufige Entwicklung des „Sonderlings“ mögen andere beurteilen. Wichtig ist hier: wir können dieseDinge sichtbar machen.

Was wäre wenn? – Wie Sie solche Analysen nutzen können

Das obige Diagramm ist (für ein anderes Portfolio freilich) Auftragsarbeit. Was man halt so tut in diesen Zeiten. Nun stellen wir uns aber einmal vor: was wäre, wenn derartige Analysen ein fester Bestandteil Ihres QBRs (zu deutsch: „Quarterly Business Review“) wären – einfach nur, um den Blick nach außen zu richten und nicht zu sehr „im eigenen Saft zu schmoren“? Stellen wir uns weiter vor, Sie hätten diese Auswertungen auf dem Tisch liegen für ausgewählte:

  • Konkurrenten
  • Lieferanten
  • Kunden.

Wie würde das die Diskussionen und die taktischen Beschlüsse für das nächste Quartal beeinflussen?

 

Corona: wir können viel von Asien lernen – und vom europäischen Norden

Der Blick über den Tellerrand

In den Nachrichten werden immer wieder die Corona-Entwicklungen verschiedener Regionen gegenüber gestellt. Wir wollen deshalb einmal die großen Länder Europas, also Deutschland, Frankreich, Italien und Spanien, in Zusammenschau mit vergleichbaren asiatischen Ländern betrachten. Eine Überraschung heben wir uns für den Schluss auf.

Bis vor kurzem hat manch einer vielleicht noch maskierte asiatische Touristen belächelt. Nun verstehen wir: wenn ich eine Maske trage, dann schütze ich vor allem die anderen. Hätten wir nicht auch früher schon von Asiaten lernen sollen, anstatt in Bus und Bahn zu husten und zu niesen?

Ein Ländervergleich

Ich habe hier drei asiatische Länder ausgewählt, die in gewisser Hinsicht mit europäischen durchaus vergleichbar sind – denn es geht nicht zuletzt auch um die Frage, welche Dinge in einer Gesellschaft umsetzbar sind. Was in China möglich ist funktioniert nicht notwendigerweise auch bei uns. Zunächst aber ein Blick auf Europa:

Die Graphik spricht Bände und wir können uns in Deutschland glücklich schätzen, wie wirkungsvoll die „Vollbremsung“ bei uns bisher war.

Wir wollen diese Entwicklungen nun vergleichen mit denen von Japan, Südkorea und Taiwan. Ausgewählt habe ich die Länder nach Bruttosozialprodukt pro Kopf, Einwohnerzahl (Daten jeweils aus Wikipedia) und nach „Demokratie-Index“ des Economist als Maß für die Art, wie eine Gesellschaft sich organisiert. Ich hoffe, dass auch diejenigen diesem Vergleich folgen, bei denen die Demokratie als Gesellschaftsform inzwischen in Misskredit geraten ist:

Hier nun die COVID-19 Daten aus diesen asiatischen Ländern im Vergleich zu Deutschland:

Was zunächst auffällt ist, wie gering die Zahlen ausfallen: In Taiwan waren es bis Mitte März lediglich 50 (!) bestätigte Fälle – und das bei zahlreichen Direktflügen, auch aus Wuhan. Innerhalb eines Monats sind diese Zahlen auf gut 400 angestiegen. Man zählt seither kaum noch Neuinfektionen – und das bei einer Bevölkerung, die knapp doppelt so groß ist wie die von Bayern. Selbst in dem dicht besiedelten Japan mit einer im Vergleich zu Deutschland um 50% größeren Bevölkerung, und mit 9 Millionen Menschen allein in Tokio, hat man nur 10% der Infektionen, die wir in Deutschland erdulden müssen. Blick nach Südkorea: dort scheint nun schon seit fast zwei Monaten die Lage im Griff zu sein. Es verwundert insofern, dass der Economist vom 2. Mai in seinem Leitartikel ausgerechnet Deutschland lobt.

Der hohe europäische Norden sorgt für noch eine Überraschung

Bei all den vielen Ländern und Regionen, für die die Johns Hopkins Universität die Zahlen erfasst und veröffentlicht, ist es inzwischen ein „big data“ Problem geworden, überraschende Länder herauszufiltern. Island verheddert sich zumindest in meinen Algorithmen:

Wie kann das denn bitte sein? Anfang März ging es los – und Anfang April soll es bei einem Krankenstand von insgesamt 1000 Menschen schon vorbei gewesen sein? Wir hoffen das beste und drücken den Menschen in Island alle Daumen.

Eines steht aber fest: der Blick über den Zaun lohnt.
Wir können – und müssen sicher – sehr viel voneinander lernen.

Mit ein bisschen Glück steht die Welt nämlich dann bei der nächsten großen Herausforderung zusammen. Die Karikatur des Economist vom 25. April zeigt auch, um was es nach dieser „Vorrunde“ ihrer Ansicht nach geht. Aber das Bild zeige ich hier mit Blick auf den Schutz des intellektuellen Eigentums wohl eher nicht…

90+ Tage Corona – Visualisierung der weltweiten Entwicklung

Ich werde mehr und mehr ein Fan der – zunächst unhandlich erscheinenden – Programmiersprache R. Wie vieles andere, so stehen dort längst auch die von Hans Rosling und der Gapminder-Foundation entwickelten Werkzeuge zur dynamischen Visualisierung von Daten zur Verfügung. Wir können damit die weltweite Entwicklung der Corona-Fälle als animierte gif-Datei visualisieren.

Dargestellt sind wieder die auf Github abgelegten Daten der Johns Hopkins Universität. Die Größe eines Punktes stellt dabei den Krankenstand dar und die Farbe die Rate der Veränderung (für die wir fünf Kategorien verwenden). Für die USA sind separate Datensätze auf regionaler Ebene vorhanden – jedoch leider nur für die bestätigten und die Todesfälle, nicht jedoch für die Anzahl der Genesenen. Da wir uns hier für den Krankenstand interessieren, verwenden wir die Daten für das gesamte Land.

 

Blick zurück: die Corona-Fälle steigen inzwischen linear

Nachdem in Deutschland und vielen anderen Ländern über Wochen hinweg die Zahl der bestätigten Corona-Fälle exponentiell gestiegen ist und sich in zwei bis drei Tagen verdoppelt hat, zeigen die Maßnahmen inzwischen deutliche Wirkung: das exponentielle Wachstum konnte auf ein lineares heruntergebremst werden.

Wir sehen uns für ausgewählte Länder den verfügbaren Datensatz an:

Zunächst fällt auf, dass die Lage in Singapur sich verschlimmert hat – wir hatten den Stadtstaat als „Ausnahmefall“ diskutiert und empfohlen, sich von dort Ideen zu holen. Wie deutsche Zeitungen berichten, ist allerdings inzwischen unter eng zusammenlebenden ausländischen Arbeitskräften Corona erneut ausgebrochen und gelangt von dort auch zur übrigen Bevölkerung.

Am anderen Ende der Skala fällt auf, dass in den USA die bestätigten Fälle ab ca. dem 3. Februar exponentiell angestiegen sind (was in logarithmischer Auftragung zu einer Geraden führt) aber seit ca. dem 27. März linear wachsen.

Wir wollen nun die Ausbreitung von Corona in diesen Ländern miteinander vergleichen. Dazu betrachten wir den Zeitraum ab dem 300sten bestätigten Fall.

So fällt auf, dass das exponentielle Wachstum in Deutschland und den USA zunächst sehr ähnlich verlief (wie auch in Spanien, Italien und vielen anderen Länder, wir haben das in früheren Beiträgen diskutiert). In Deutschland gelingt es dann jedoch, dieses Wachstum nach ca. 2 Wochen sichtbar zu bremsen. Der Vergleich der rechten und der linken Darstellung erlaubt zu erkennen, über welche Zeiträume hinweg das Wachstum eher exponentiell und wann es linear verläuft. Wir schauen uns diese Dinge unten genauer an.

Vorteile eines linearen Anstiegs der bestätigten Fälle

Bei einem exponentiellen Wachstum mit einer Verdopplungszeit von 3 Tagen haben wir nach 3 Tagen doppelt so viele Fälle, nach 6 Tagen schon viermal so viele, nach neun Tagen achtmal – und so weiter, bis das Gesundheitssystem zusammenbricht.

Für ein lineares Wachstum kommt dagegen jeden Tag in etwa die gleiche Anzahl neuer Fälle hinzu. Die Situation wird dadurch handhabbar, wie man über das Gesetz von Little erkennt: bei 2000 neuen Fällen Tag für Tag und falls Menschen im Mittel 30 Tage lang krank bleiben, dann muss das Gesundheitssystem einen mehr oder weniger konstanten Krankenstand von etwa 2000*30 = 60000 bewältigen. Bei bekanntem Prozentsatz  schwerer Fälle lässt sich so nicht zuletzt der Bedarf an Beatmungsgeräten planen. Für ein exponentielles Wachstum steigt dieser Bedarf dagegen exponentiell an.

Wie sieht die Lage in Deutschland aus?

Wir haben die „Western Electric“ oder „Nelson“ Regeln, die wir im letzten Beitrag noch in Minitab verwendet haben, inzwischen in unser R-Programm übertragen (Ayush aus Indien sei Dank dafür, den Fehler in meinem Code gefunden zu haben).

Der Algorithmus erkennt in logarithmischer Auftragung, links, zunächst einen ansteigenden Trend in den Residuen (Abstand zwischen den schwarzen Punkten und der blauen Ausgleichsgeraden). Dieser Trend führ auch zu einer eindeutigen Verschiebung („Shift“) und dann zu einem abfallenden Trend. Das exponentielle Modell beschreibt die Daten also schlecht, was wir auch an einem Regressionskoeffizienten von 92% erkennen. Rein rechnerisch erhält man zwar weiterhin eine Verdopplungszeit (von 20,5 Tagen), sollte diese jedoch nicht für Vorhersagen verwenden, da das zugrunde liegende Modell nicht angemessen ist.

Das lineare Modell, rechts, beschreibt die Daten dagegen besser: nur drei Prozent (100% minus 97%) der beobachteten Streuung stammen nicht von dem linearen Anstieg. Wir erkennen hier jedoch auch ein ähnliches Verhalten der Residuen: selbst das lineare Wachstum ist abgebremst. Die vorhergesagten 3668 neuen Fälle pro Tag stellen also eine Abschätzung nach oben dar. Wenn wir die Zahlen lediglich ab dem 10. April herausgreifen erkennen die Western Electric / Nelson Regeln keine Besonderheiten – und wir erhalten ca. 2500 neue Fälle pro Tag (2474, um genau zu sein – wir haben im Rahmen der Fehlertoleranz gerundet).

Unter Verwendung von Littles Gesetz und einer durchschnittlichen Krankheitsdauer von 30 Tagen schätzen wir für die nähere Zukunft also einen zu erwartenden, mehr oder minder konstanten, Krankenstand von 75000 Menschen in Deutschland ab. Bei den derzeitigen Diskussionen um Lockerungen der Maßnahmen wird diese Zahl mit der Kapazität des Gesundheitssystems verglichen.

Singapur: zurück zu exponentiellem Wachstum

Werfen wir für den gleichen Zeitraum einen Blick nach Singapur:

Ein lineares Wachstumsmodell (rechts) führt zu einer „Biegung“ der Residuen, die auch als Trend erkannt wird und somit signifikant ist. Das lineare Modell hat eine Güte von 94% – wohingegen ein logarithmisches Modell links die Zahlen fast perfekt beschreibt (Regressionskoeffizient nahe 100%): Singapur hat derzeit mit einer „zweiten Welle“ und einer Verdopplungszeit von 5,1 Tagen zu tun (wenn auch auf niedrigem Niveau, wie man an den 624 neuen Fällen pro Tag abliest, die das lineare Modell ermittelt). Wenn diese Welle jedoch nicht eingedämmt werden kann, dann ist im Laufe eines Monats (2*16,8) mit hundert Mal so vielen Fällen zu rechnen (Verzehnfachung der Verzehnfachung).

Automatisierte Erkennung von Infektionsherden

Auch in Deutschland wird man die Zahlen im Auge behalten müssen, um solch eine „zweite Welle“ schnell zu erkennen. Untersuchungen, die wir hier für ganze Länder durchführen, können auch regional angewendet werden und so frühzeitig warnen. Mit unserem R-Programm sind wir auch in der Lage, Länder und Regionen nicht nur schnell manuell zu betrachten – es genügt die Änderung eines Eintrages im Quellcode, was in wenigen Sekunden getan ist. Wir können auch Schleifen über mehrere Regionen und Länder durchlaufen, automatisiert modellieren und nach Verletzungen der Nelson-Regeln suchen. Man stelle sich dies vor für alle Postleitzahlen in Deutschland: Infektionsherde lassen sich so sehr schnell erkennen.

Wir sind überzeugt, dass genau dies oder ähnliches derzeit aufgebaut wird: entscheidend dafür sind nämlich gute Zahlen und es gilt, flächendeckend zu testen.

USA: lineares Wachstum mit erschreckend hoher Rate

Für die USA betrachten wir zunächst den Gesamtverlauf:

Wir erkennen deutlich den „Weckruf-Knick“ um den 24. Februar herum, ab dem Daten systematisch erfasst werden. Wenn man möchte, dann kann man in der linken, logarithmischen Darstellung das sich anschließende exponentielle Wachstum rückwärts extrapolieren, um den Zeitpunkt der Infektion des „Patienten Null“ zu bestimmen. Wir machen das freihändig (die beiden hinzugefügten Linien) und ermitteln somit den 15. Februar als Datum für den Beginn der Epidemie in den USA.

Ab ca. dem 30. März erscheint das Wachstum nahezu perfekt linear (rechts) und wir schauen uns die Entwicklung mit den nun hinreichend bekannten Statistik-Werkzeugen genauer an:

Das exponentielle Modell beschreibt das Wachstum nur unzureichend, was wir nicht nur am Regressionskoeffizienten sondern auch an dem deutlichen Trend in den Residuen erkennen. Das lineare Modell ist hingegen nahezu perfekt. Wir rechnen vorerst weiterhin mit 30000 neuen bestätigten Fällen pro Tag – die Auswirkungen auf das Gesundheitswesen, das Land und die Menschen sind für mich nicht vorstellbar.

Was bringen die Corona-Maßnahmen?

Seit dem 22. März gilt in Deutschland ein „umfassendes Kontaktverbot“, das unserer Wirtschaft und Gesellschaft hohe Opfer abverlangt. Was hat das bisher gebracht?

Ich folge inzwischen der deutschen Presse und verwende auch die Daten der John Hopkins Universität. Etwas unscheinbar befindet sich unter der „Corona Map“ ein Link auf Github, von wo sich csv-Dateien für die bestätigten und die Todesfälle sowie die Anzahl der Genesenen herunterladen lassen. Aus diesen Zahlen berechnen wir auch die Zahl der „Aktiven“, also den Krankenstand.  

Abschätzung des zu erwartenden Krankenstandes

In logarithmischer Auftragung erkennt man eine deutliche Abschwächung der Wachstumsrate für die bestätigten („confirmed“) Fälle. Zumindest genauso wichtig ist die damit einhergehende geringere Wachstumsrate (aber weiterhin steigende Anzahl) der Kranken, die auf ein gut funktionierendes und nicht überlastetes Gesundheitswesen angewiesen sind. Am 6. April sind das mehr als 72000 Menschen. Die Entwicklung der letzten Tage tragen wir logarithmisch auf:

Das zu erwartende Wachstum des Krankenstandes über die nächsten Tage lässt sich mit dieser Regressionsanalyse abschätzen. In logarithmischer Auftragung ergibt sich wie gezeigt eine Gerade mit der Steigung 0,04709. Wir erwarten also eine Verdopplung alle 14 Tage – bei aktuellem Maßnahmenkatalog. Über das lila gezeigte Vorhersageintervall erkennen wir, dass auf Grundlage dieser auf sieben Tagen basierenden Analyse eine Vorhersage für 14 Tage mit einer erheblichen Unsicherheit behaftet ist – sowohl nach oben als auch nach unten. Da aber auch die Einführung der Maßnahmen erst 15 Tage zurückliegt, können wir vermutlich nicht von einem „stabilen System“ ausgehen. Auch deshalb werden die aktuellen Zahlen in Nachrichten und Zeitungen stets neu bewertet.

Es liegen, wenn auch nicht mir, inzwischen genügend Zahlen vor, um aus der Anzahl der „Aktiven“ abschätzen zu können, wie viele Menschen eine Intensivbehandlung benötigen. Diese Zahl lässt sich wiederum mit der verfügbaren Kapazität an Bettenplätzen, Beatmungsgeräte, usw. vergleichen. So ließe sich überlegen, inwiefern Lockerungen der Maßnahmen riskiert werden können.

Hervorgehoben werden muss, dass es sich hier um eine grobe ABSCHÄTZUNG – und zwar hoffentlich nach oben – der zu erwartenden Belastung des Gesundheitssystems handelt: modellieren sollte man besser die Ausbreitung des Corona-Virus. Über Daten von Einzelfällen mit den Zeitpunkten für Diagnose und Ausgang der jeweiligen Erkrankung, Zahlen, die verständlicherweise nicht veröffentlicht werden, lässt sich eine mittlere Krankenzeit und deren Streuung berechnen. So könnte der zu erwartende Krankenstand besser abgeschätzt werden. Wir haben diese Möglichkeit hier nicht und modellieren deshalb den Krankenstand direkt.

Was hat die „soziale Distanzierung“ gebracht?

Schauen wir uns dafür die Zahlen der Ausbreitung genauer an und hier zunächst den Anstieg zu Beginn der Epidemie in Deutschland. Über eine Analyse der Residuen (s.u.) wählen wir den Zeitraum vom 25. Februar bis zum 19. März aus. Praktisch gesprochen: während dieser Zeit konnte sich das Virus nahezu ungebremst ausbreiten und wir wollen die Geschwindigkeit bestimmen.

Die Steigung der Kurve beträgt 0,2866 – was einer Verdopplung der Fälle alle 2,4 Tage entspricht – eine Rate, die wir auch bei vielen anderen Ländern zu Beginn der Epidemie antreffen. An den Vorhersageintervallen erkennt man zudem, dass einige Punkte „verdächtig weit“ von der braun-rot dargestellten Ausgleichsgeraden entfernt liegen. Wir schauen uns den zeitlichen Verlauf dieser „Residuen“, also der Abstände von der Ausgleichsgeraden, mit einer Regelkarte genauer an:

Die „Western Electric Regeln“ oder auch „Nelson Regeln“ im medizinischen Bereich, schlagen tatsächlich Alarm und wir haben zunächst einen signifikanten Anstieg – und zwar um sechs Standardabweichungen. Genaueres führt hier zu weit, lässt sich jedoch über eine Internetrecherche nachschlagen. Wichtig ist: in den Daten steckt noch ein Signal, das in dem obigen Regressionsmodell nicht erfasst wurde, und die Ergebnisse sind deshalb mit einer gewissen Vorsicht zu betrachten.

Eine Verdopplung der insgesamt bestätigten Fälle (also nicht der täglich neuen Fälle) alle 2,4 Tage ist und bleibt allerdings dramatisch und ließ sich – in logarithmischer Auftragung – schon sehr früh erkennen. Wir haben darüber geschrieben.

Dank der inzwischen eingeleiteten Maßnahmen hat sich die Lage seither sehr zum Besseren gewendet. Aus der Steigung von 0,07132 erhalten wir eine Verdopplung alle 9,7 Tage – was immer noch schlimm genug ist:

Schauen wir uns auch hier die Residuen an:

Wenn man optimistisch ist, dann sinkt ab dem 3. April die Wachstumsrate noch weiter. Aus diesen vier Punkten erhalten wir eine Verdopplungszeit von 16,5 Tagen – bei sehr breiten Vorhersageintervallen. Es gilt also, diese Zahlen täglich zu verfolgen: sind wir eher mit einer Verdopplung alle 10 oder alle 16 Tage unterwegs? Und was bedeutet das für die Aus- und Überlastung unseres Gesundheitssystems?

Wir kommen also von einer Verdopplung alle 2,4 Tage und haben es dank der eingeleiteten Maßnahmen geschafft, die Ausbreitungsgeschwindigkeit auf eine Verdopplungszeit von bis zu 9 oder sogar mehr Tagen zu bremsen.

Können die Maßnahmen inzwischen gelockert werden?

Das ist die Frage aller Fragen, auf die es keine statistische Antwort gibt. Untersuchungen wie diese hier können leider nur helfen, die Wirkung im Nachhinein zu bewerten. Eine Aufrechterhaltung der bestehenden Einschränkungen oder eine sehr vorsichtige Lockerung muss auf jeden Fall gut kommuniziert werden. Die rapide Ausbreitung von Corona war schon früh erkennbar – die notwendigen Maßnahmen in Deutschland aber offensichtlich damals noch nicht vermittelbar. Um so massive Änderungen des öffentlichen Lebens einzuleiten, bedurfte es eines geteilten Verständnisses der Dringlichkeit – und ganz offensichtlich hat Mathematik alleine dafür nicht gereicht. Gleiches gilt für eine Aufrechterhaltung oder nur zögerliche Lockerung der aktuellen Situation.

Schauen wir uns die Zahlen von Singapur an, um zu verstehen, wie es weitergehen könnte.

Zwischen dem 22. Januar und dem 2. Februar steigen hier die bestätigten Fälle mit einer Verdopplungszeit von 2,7 Tagen an. Ab dem 15. Februar (hervorgehoben) flacht die Kurve dank der eingeleiteten Maßnahmen ab und bleibt bis zum 5. März bei einer Verdopplungszeit von 30 Tagen, die sich danach aber relativ stabil auf 8,4 Tage verkürzt.

Hat Singapur vor dem 5. März gewisse Maßnahmen gelockert? „Steuert“ der Stadtstaat seine Reglementierungen anhand von solchen Analysen? Richten sie sich dabei aus an der Kapazität des Gesundheitssystems, sodass also alle Notfälle auch entsprechend behandelt werden können? Ich weiß es nicht. Ein Anruf in Singapur könnte aber auch hierzulande für interessante Einsichten sorgen, wenn es darum geht, in wie weit und wann die derzeitigen Einschränkungen gelockert werden können.