Modello a diffusione-saturazione
per andamento COVID-19

Bruno Caudana
b.caudana@adaptive.it
http://www.adaptive.it

16-mar-2020 / 24-jan-2021
<work in progress>

[doi:10.1101/2021.01.24.21250405]

"Non importa quanto bella sia la tua teoria, non importa quanto tu sia intelligente.
Se non si accorda con l'esperimento, è sbagliata."

Richard P. Feynman (wiki en)
datasources:
https://github.com/pcm-dpc/COVID-19/

Stime per Lombardia+province limitrofe

Andamento della curva epidemica. Fitting sui dati alla data specificata sul grafico, sui dati della zona Lombardia+province limitrofe.
I dati si riferiscono all'area: Lombardia + province di Modena, Parma, Piacenza, Reggio Emilia, Rimini, Pesaro, Alessandria, Asti, Novara, Verbano, Vercelli, Padova, Treviso, Venezia.

La curva studiata è quella dei casi totali cumulati della patologia macroscopica, secondo la definizione del Ministero della Salute.

Va fatto notare che, con il procedere dell'epidemia, si sono andati sommando come nuovi casi gli accertamenti positivi fatti allo stesso soggetto più volte. Questo sovrastima il reale numero di casi totali.

Inoltre, non è stato adottato un metodo uniforme per il riconoscimento dei casi di patologia macroscopica, il che porta a distorsioni dell'insieme di dati.

Ma questo è il data set disponibile. Un data set depurato da queste distorsioni avrebbe consentito un fitting più accurato e calzante sul fenomeno.

In una popolazione, quanti si ammalano di patologia macroscopica durante una epidemia dipende da:

  1. quanti sono suscettibili al virus (suscettibilità iniziale): non si sa, e non si può determinare direttamente;
  2. quanti restano suscettibili al virus man mano che l'epidemia si propaga: non si sa, dipende dalla suscettibilità iniziale e da quanti progressivamente ne diventano immuni;
  3. quanti si infettano perché incontrano il virus e quanti non;
  4. quanti di questi ultimi hanno bisogno di terapie tali da essere intercettati dal sistema terapeutico;

L'andamento temporale dei casi cumulati di patologia macroscopica contiene in modo aggregato questa informazione incognita. Non è semplice disaggregare questa informazione. Forse impossibile.

Ma non si può dire che chi NON HA SVILUPPATO anticorpi specifici per SARS-CoV-2 è automaticamente suscettibille ad infettarsi. Questa è una semplificazione prudenziale, ma troppo conservativa. Implica assumere arbitrariamente che tutta una popolazione sia interamente suscettibile al virus.

Questa assunzione è molto improbabile e in contrasto con i meccanismi evoluzionistici che hanno forgiato il sistema immunitario degli ospiti: improbabile che un patogeno non sia attaccabile in più bersagli biochimici, alcuni dei quali già riconosciuti e memorizzati dal sistema immunitario.
(update)

Di fatto non si sa quale è la suscettibilità iniziale di una popolazione ad un pur nuovo virus. Potrebbero agire fattori di protezione genetica o indotta da pregressa storia immunitaria soggettiva. Per esempio: questo virus potrebbe avere bersagli biochimici comuni ad altri Corona Virus già riconosciuti dallo spettro immunitario della popolazione ospite. Inoltre, storicamente, non si è mai visto una epidemia infettare una popolazione completa.

Quanti muoiono o guariscono dipende da:

Una epidemia in evoluzione libera, semplificando all'osso, ha una fase di accensione, raggiunge un picco, infine si spegne in modo simmetrico a come è iniziata. Questa è la cornice del modello matematico adottato.

La curva effettiva misurata mostra di seguire un andamento di accensione e spegnimento senza segni evidenti e inequivoci dell'effetto del contrasto alla diffusione virale rispetto alla evoluzione libera dell'epidemia

La curva presenta alta impennata di salita, con presumibile ritardo di fase della patologia macroscopica rispetto alla diffusione virale; un ulteriore ritardo di fase si ha sull'andamento dei morti e dei dichiarati "guariti". Questo potrebbe indicare che il virus è già endemico alla data del lockdown, almeno nella zona lombarda e aree limitrofe.

Con l'evolvere dell'epidemia, sono aumentati i tamponi usati per rintracciare in modo più aggressivo i positivi al virus, rispetto ad inizio epidemia. Questo presumibilmente causa una apparente diminuzione di aggressività del virus perché vengono diagnosticati più positivi con sintomi più lievi, rispetto ad inizio epidemia. Inoltre, nel frattempo si è imparato a curare in modo più efficace e si comincia a manifestare resistenza immunitaria nella popolazione ospite. Non è indebolita la aggressività del virus, ma è rafforzata la resistenza complessiva della popolazione ospite.

Inoltre, questo è sicuramente un fattore cha causa l'andamento asimmetrico dello spegnimento dell'epidemia mostrato dalla curva. Un altro fattore può essere un effetto dei mutati atteggiamenti relazionali per non infettarsi (buon senso nel distanziarsi, più che lockdown normativo). Altri fattori incogniti di secondo livello possono intervenire a modulare la non linearità di diffusione virale (es: effetti secondari in aumento o diminuzione dovute alle variazioni di comportamento, ec.).

Comunque, di fronte a una minaccia grave e sconosciuta, meglio abbondare con le precauzioni. Questo modello non considera in alcun modo l'eventuale decadimento delle difese immunitarie acquisite dalla popolazione: se le difese immunitarie decadono rapidamente, allora l'infezione può ricomparire altrettanto rapidamente. Vedremo...!


Modello adattativo a diffusione-saturazione
mediante fitting su dati trasformati
secondo inversa della Funzione Logistica: $\ln\left(y/(1-y)\right)$

Il modello adottato per la stima/fitting dei casi totali cumulati $f(t)$ è una estensione della equazione differenziale ridotta di Verhulst: $$\dot W(t) = \beta W(t)(\Omega -W(t))$$

Riferimenti storici e d'uso

Vito Volterra (circa 1926) nei suoi studi sulle dinamiche di popolazione definì equazioni differenziali di questa famiglia, la più semplice delle quali genera la funzione logistica.

Il comportamento a sigmoide fu usato da Enrico Fermi, tra altri, nell'ambito di fenomeni di diffusione (statistica di Fermi-Dirac).

Negli algoritmi ANN (Artificial Neural Networks) si usa la funzione logistica (diffusione in ambiente chiuso che satura) per rappresentare il segnale di output sull'assone simulato di ogni singolo neurone simulato dalla rete ANN, in funzione del segnale di input ricavato integrando i vari segnali provenienti dalle sinapsi simulate che convogliano al neurone simulato segnale proporzionale al loro peso sinaptico (schematicamente corrispondente alla capacità di una sinapsi biologica di modulare chimicamente il segnale che passa da un neurone all'altro in una rete neurale biologica).

Una panoramica storico-teorica sulle sigmoidi si trova in J.S. Cramer , "The Origins of Logistic Regression".

Per una trattazione esauriente delle logistiche e relative regressioni si può consultare:

Cosa rappresenta l'equazione differenziale di Verhulst

L'equazione differenziale di Verhulst rappresenta un fenomeno di diffusione in ambiente chiuso a risorse limitate, dove ciò che determina la diffusione determina anche una resistenza crescente alla diffusione stessa per effetto del processo di diffusione. Essa ha come soluzione la funzione seguente: $$W(t)=\Omega {\frac {1}{1+e^{-(\beta_{0} + \beta_{1}t )}}} $$ cioè la curva detta a sigmoide o logistica.

Sigmoidi soluzione

Quando la sigmoide soluzione viene normalizzata, cioè quando $\Omega=1$, $\beta_{0}=0$ e $\beta_{1}=1$, si ottiene la forma canonica della sigmoide, illustrata qui sotto.

Cioè: $ y={\frac {1}{1+e^{-(t )}}} $ con inversa che vale: $t=\ln\left( \frac{y}{1-y} \right) $

A quel punto, se si determina una serie di punti sulla sigmoide normalizzata e li si assoggetta ad una trasformazione che vale la funzione inversa della sigmoide, i punti ottenuti si collocano su una retta che passa per per il punto $P_{0}=(0, 0.5)$ e con coefficiente angolare $\beta_{1}=1$ ($\beta_{0}=0$ e $\beta_{1}=1$). In altre parole, la trasformazione opera la linearizzazione e la centratura sul punto di flesso della forma sigmoidale canonica.

sigmoide

Interpretazione epidemica dell'andamento a sigmoide

La cosa importante da notare è che se un fenomeno assume una forma sigmoidale all'inizio a causa del suo essere un fenomeno di diffusione-saturazione -- forma eventualmente modulata dai fattori distorcenti del parametro $\beta$ nel tempo $t$ ($\beta$ diventa $\beta(t)$) e del parametro $\Omega$ ($\Omega$ diventa $\Omega(t)$) nell'equazione differenziale originaria -- allora la sue evoluzione sigmoidale è mantenuta in tutto il suo sviluppo.

Una epidemia si accende, raggiunge un picco e infine si spegne per avvenuta saturazione dell'ambito in cui si può espandere. Questa forma elementare può presentarsi in esemplari multipli, eventualmente sfasati nel tempo, a seconda di quale rete di relazioni va a invadere nel groviglio delle reti di relazioni poco intercomunicanti presenti in una popolazione. Si potranno perciò avere successioni e sovrapposizioni di sigmoidi, ciascuna del proprio macro-cluster infettato, così come si hanno successioni/sovrapposizioni di sinusoidi elementari in un suono complesso.

La modulazione della sigmoide si concentra perciò nei parametri $\beta(t)$ e $\Omega(t)$, i quali rappresentano i fattori caratteristici di uno specifico andamento epidemico. Il processo può anche restare fisicamente incognito, ma mantiene un andamento sigmoidale modulato dagli eventuali fattori distorsivi caratteristici dei parametri $\beta$ e $\Omega$.

A questo punto, fittando $\beta(t)$ e $\Omega(t)$ con i dati reali rilevati si può studiare/stimare più agevolmente l'andamento interpolato ed estrapolato del fenomeno incognito di ipotizzata forma sigmoidale.

La stima di $\Omega(t)$ è particolarmente critica e instabile durante le prime fasi di salita della sigmoide. La cosa ha un corrispettivo fisico molto evidente: in quella fase è estremamente incerto quale corso avrà il fenomento epidemico: non si capisce ancora bene quando, quanto e come il fenomeno epidemico si va a differenziare da una crescita semplicemente esponenziale. Anche solo piccole incertezze nei dati mascherano la piega che l'epidemia sta assumento in quel momento. Nelle fasi successive, già prima del picco dei casi giornalieri (il flesso sulla curva dei casi cumulati), le cose si chiariscono meglio, e la stima di $\Omega(t)$ si stabilizza.

Il parametro $\Omega$ -- lo $i_{c}$ nel modello e nei grafici illustrati in questo scritto -- rappresenta il confine entro cui avverrà la saturazione. Nel caso di una epidemia è la stima di quanti contagiati alla fine di un periodo, o ondata, si avranno. Ovvio che sia molto difficile da determinare scrutando la curva nelle fasi iniziali del suo manifestarsi. Forse la cosa è impossibile o soggetta a molta aleatorietà: in quel momento piccole incertezze nei dati determinano grande incertezza nella stima di $\Omega$. Altre incertezze derivano da fattori esterni quali variazioni nei comportamenti degli ospiti o dei patogeni nel corso epidemico, ec.

Schema concettuale del modello

L'equazione differenziale di Verhulst è qui adottata come cornice a rappresentare un fenomeno di diffusione in ambiente a risorse limitate, quale una epidemia è.

L'estensione si ispira all'approccio adottato nella statistica di Fermi-Dirac, dove il fattore di proporzionalità $\beta$ è sostituito da una funzione $\beta(t)$ più complessa.

Inoltre, al posto di $ \Omega $ (il $c_{t}^{\ast}=p_{rif} \cdot i_{c}^{\ast}$ nel modello epidemico), viene adottato il suo andamento temporale $ \Omega(t) $ stimato in corsa, a tener conto del fatto che una epidemia si espande anche spazialmente e in modo reticolare. La stima di questo parametro viene fatta mediante un secondo anello di regolazione pilotato dal segnale di errore tra la stima del modello e i dati di input, oltre all'anello di regolazione che stima i parametri di fitting della funzione $\beta(t)$ nella sigmoide normalizzata.

La popolazione di riferimento considerata durante la messa a punto del modello è quella della zona geografica di riferimento (nel caso di Lombardia + province elencate: $p_{rif} = 17\text{_milioni}$). Il modello è poi applicato ad altri territori di cui esiste un insieme di dati validato e disponibile al pubblico.

Il modello fisico-matematico specifico adottato per la stima/fitting dei casi totali cumulati $f(t)$, con i conseguenti casi giornalieri $f_{}^{\prime}(t)$, è espresso dalle seguenti formule: $$f(t)= c_{t}^{\ast} {\frac {1}{1+e^{-\beta(t)}}} \, , \qquad f_{}^{\prime}(t)= c_{t}^{\ast} \frac{ \frac{\mathrm{d}}{\mathrm{d}t}\beta(t) \cdot e^{-\beta(t) } } {\left( 1+e^{-\beta(t)} \right)^2} $$ dove $\beta(t)$ è la funzione che determina il fattore $\beta$ dell'equazione differenziale di Verhulst.

Tecniche di fitting utilizzate

Il parametro libero indice di contagio ($i_{c}^{\ast}= c_{t}^{\ast} / p_{rif}$) deforma in modo svincolato dai dati la forma della inversa della sigmoide o trasformata logistica. Per questa ragione si opera qui un secondo loop di regolazione del fitting rispetto ai dati (in pratica si stima l'indice di contagio incognito minimizzando l'errore del modello rispetto ai dati noti man mano, col procedere dell'epidemia). Il fitting non lineare del parametro libero $i_{c}^{\ast}$ -- nonché fattore di normalizzazione per la trasformata logistica -- è ottenuto minimizzando l'errore quadratico del modello rispetto ai dati originali, non scalati secondo logistica. In particolare, viene minimizzato l'errore quadratico generato dai casi giornalieri rispetto a $f_{}^{\prime}(t)$, soggetto al vincolo $z=f_{}^{\prime}(t) > 0$ per i casi giornalieri ricalcolati dal modello.

In formule: $$ err_{m} = \sqrt{\frac{1}{N}\sum_{k=1}^{N}(n_{k}- \hat{z}_{k})^{2}} \quad , \qquad \sigma_{min} = \min(err_{m}) $$ col vincolo $\hat{z}_{k} > 0$ per ogni conteggio ricalcolato dal modello.

Durante la prima stesura del modello, avevo scelto un polinomio in $t$, $P(t)= \beta_{0} + \beta_{1}t + \beta_{2}t^{2} + \cdots + \beta_{n}t^{n} $, per rendere ragione della oscillazione notata col procedere dell'epidemia sui dati scalati secondo inversa della funzione logistica normalizzata: $\ln\left( \frac{y}{1-y}\right)$. Tuttavia questa scelta funziona bene solo per le interpolazioni. Per le estrapolazioni, cioè per tentare previsioni, l'uso di un polinomio di grado elevato non è affidabile. Infatti, al di fuori del campo di interpolazione, un polinomio di grado elevato tende a oscillare in modo selvaggio, rendendo inaffidabile l'estrapolazione per via del fenomeno di Runge

Attualmente ho scelto per $\beta(t)$ una spline, $S(t)$, molto smooth e con pochi gradi di libertà per evitare overfitting. Alla prova dei fatti, questa scelta mostra una estrapolabilità del fitting molto più affidabile (spline interpolation).

Non escludo di rivedere la funzione $\beta(t)$ e trovarne una più generale e/o più esplicativa, analizzando ulteriori insiemi di dati e tenendo conto di altre variabili (con opportune metriche), come la densità di popolazione, lo stile di vita diverso che può influenzare il contagio in aree diverse, ec.

Un criterio importante per scegliere le funzioni $\beta(t)$ e $i_{c}^{\ast}(t)$ è la capacità di estrarre, dall'andamento iniziale dell'epidemia, l'informazione che determina l'evolvere dell'epidemia nelle fasi successive: cioè la sua capacità previsiva.

Al momento, il modello fisico-matematico diventa perciò:
$f(t)= c_{t}^{\ast} {\frac {1}{1+e^{-S(t)}}} $, dove i parametri di $S(t)$ e $i_{c}^{\ast}$ ( $c_{t}^{\ast}=i_{c}^{\ast} \cdot p_{rif}$) sono parametri liberi oggetto di fitting.

La curva dei casi giornalieri è la derivata prima di $f(t)$ determinata con metodi numerici.

Il modello applicato alla zona lombarda estesa

Fitting spline $S(t)$ sui dati alla data specificata della zona Lombardia+province limitrofe.
L'indice $i_{c}^{\ast}$ tende a crescere lievemente nel tempo, di fitting in fitting, coerentemente col fatto che i dati misurano nel tempo un’epidemia che si espande territorialmente, cioè un sistema semi-chiuso e non perfettamente chiuso.
Il punto di attraversamento dell'asse orizzontale indica il probabile punto mediano stimato dal modello della patologia macroscopica rilevata.
Il punto simmetrico rispetto all'origine dei dati indica la probabile estinzione dell'epidemia, salvo diffusione in altri macro-clusters o per alterazione dei fattori limitanti la diffusione.

Picco ed estinzione si riferiscono al momento di riconoscimento/rilevamento della patologia macroscopica da parte del sistema terapeutico, con diagnosi ipoteticamente fatte nello stesso modo durante lo sviluppo della curva fino al momento del fitting. Altrimenti ulteriori distorsioni si accumulano.

Picco ed estinzione NON SI RIFERISCONO AL picco e all'estinzione dell'affollamento dei luoghi di terapia. Questi ultimi dipendono anche dalla durata del trattamento terapeutico, oltre che dall'afflusso dei manifestanti patologia macroscopica.

I dati del Ministero della Salute rappresentano la manifestazione del patologia macroscopica generatasi in assenza di azioni di contenimento del virus, almeno fino al momento in cui le azioni di contenimento, eventualmente, potranno mostrare la loro efficacia. Alla data del picco (23-mar-2020) non possono aver già mostrato effetto a causa del ritardo di fase stimabile.

Cosiderazioni sui dati epidemici

I dati non rappresentano la diffusione del virus perché è largamente incognita la relazione altamente non lineare tra diffusione del virus e diffusione del patologia macroscopica. Questa relazione è influenzata da molti fattori non lineari (es: spettro della suscettibilità della popolazione al virus, spettro della reazione immunitaria della popolazione, spettro della reazione infiammatoria della popolazione, spettro dei comportamenti della popolazione, distribuzione della densità di popolazione, ec.). Inoltre il campione di soggetti intercettati dal sistema terapeutico potrebbe essere molto deviato da molti fattori: spettro individuale di percezione dei sintomi lievi, assenza di sintomi, disponibilità individuale a chiedere consiglio medico, reattività del sistema terapeutico, ec.

Dalla curva dei dati della patologia macroscopica, questo virus mostra una velocità di contagio molto più alta di quanto ricavabile dalle stime di $R_{t}$ che mi sono pervenute. Nello scritto teorico disponibile su medRXiv [doi:10.1101/2021.01.24.21250405], c'è una riflessione sulle stime di $R_{t}$. La stima diretta di $R_{t}$ è difficile da fare direttamente; inoltre essa è soggetta a incertezza statistica di misura molto ampia. La corretta stima di $R_{t}$ è cruciale per orientare le decisioni di azione in emergenza: contenimento diffusione virus VS potenziamento terapie d'emergenza.

Le sperimentazioni diranno di più. La corretta stima di $R_{0}$ può orientare meglio la valutazione della contagiosità degli asintomatici. Dubito che una asintomatico non contagi. Non ha molto senso dal punto di vista biochimico. Dipende dalla sua carica virale.

Inoltre i dati rappresentano solo quei casi di patologia macroscopica che il sistema terapeutico ha intercettato. Non rappresentano tutti quegli altri eventuali casi non diagnosticati e ignoti, ma probabilmente esistenti e guariti, o non evoluti in patologia macroscopica. Infatti il campione di soggetti intercettati dal sistema terapeutico potrebbe essere molto deviato da molti fattori: spettro individuale di percezione dei sintomi lievi, assenza di sintomi, disponibilità individuale a chiedere consiglio medico, reattività del sistema terapeutico, ec.

Inoltre ancora, i dati inglobano anche le distorsioni indotte da cambiamenti di modalità di rilevamento fatte durante il rilevamento e differenze di modalità di rilevamento da un luogo all'altro (es: criteri di pratica del tampone; tampone fatto a chi soggettivamente dichiara o non-dichiara sintomi o presunti contatti con infetti; tamponi fatti con criteri diversi in funzione di esigenze diverse; tamponi fatti in funzione di esigenze emotive o socio-politico-emotive; ec.).

Forse un rilevamento a campione random rappresentativo di una popolazione darebbe una immagine spazio-temporale più realistica ed efficace della diffusione virale, se questo è quello che si cerca. Ma non è detto. Mentre le azioni di contenimento del virus possono servire ad ancora scarsa diffusione del virus solo per contenere l'onda di patologia macroscopica, e i tamponi ai sospetti positivi servono a orientare la terapia.


Strumenti per Stimare $R_{0}$ e $R_{t}$ dalla Curva dei Contagi Rilevati

Article on this in English [doi:10.1101/2021.01.24.21250405]

L'andamento temporale dei casi giornalieri contiene in sé $ R_{0} $ e l'andamento di $ R_{t} $. Di fatto, l'andamento della curva epidemica è l'effetto diretto della azione dell'indice di contagiosità $ R_{t} $ durante i precedenti $ g_{i} $ giorni di infettabilità.

L'idea che si propone qui è quella estrarre quella informazione e di stimare $ R_{0}$ ed $ R_{t}$ direttamente dall'andamento dei casi giornalieri derivati analiticamente dalla curva dei casi totali cumulati $f(t)$ oggetto di fitting. Quetsa idea è stata sviluppata dopo aver notato forti incongruenze tra i valori di $R_t$ segnalati e un raddoppio dei casi in pochi giorni. Qui si specifica meglio l'origine di questa idea.

Strumenti per stimare $R_{0}$, $R_{t}$ dalla curva misurata: Curva dei casi giornalieri in scala logaritmica. L'inclinazione $ \left[ \mathrm{d}h(t)/\mathrm{d}t \right] $ della curva rappresenta l'andamento esponenziale di crescita in quel punto, secondo definizione epidemiologica di $R_{t}$. La curva dei casi giornalieri in scala logaritmica a base $e$ è: $h(t)=\ln(f_{}^{\prime}(t))$, dove $f(t)$ è la curva che fitta i casi totali cumulati. Cioè $\frac{\mathrm{d}}{\mathrm{d}t}h(t)=R_{ist}$, che è l'inclinazione della retta equivalente a una esponenziale in scala logaritmica.
$R_{t} = e^{(R_{ist} \cdot g_{i})}$, con $g_{i}$ che indica la lunghezza del periodo di infettività del contagiante.
Va sottolineato che $R_{0}$ e $R_{t}$ esprimono la capacità di infettare di un agente patogeno calato nel modello microbiologico e comportamentale della popolazione infettabile. Per esempio: una popolazione di infettabili che ha poche relazioni interpersonali esprimerà un diverso $R_{0}$, $R_{t}$ rispetto ad una popolazione che ha intensi scambi interpersonali, ad esempio frequenti interscambi commerciali. Diciamo che uno stile di vita urbano da metropoli di paese ricco favorisce la diffusione del virus.
Strumenti per stimare $R_{0}$ dalla curva misurata. Rateo istantaneo $R_{ist}$ con cui calcolare $R_{0}$ e $R_{t}$.
Strumenti per stimare $R_{t}$ dalla curva misurata. Andamento del "numero di riproduzione di base" $R_{t}$ considerando un periodo infettante di 13_gg, secondo indicazioni OMS..
Strumenti per stimare $R_{0}$ dalla curva misurata. Andamento del tempo di raddoppio o dimezzamento dei casi giornalieri calcolato come $g_{d\vee h}= \ln(R_{t}=2.0)/R_{ist}$. Numeri negativi indicano un tempo di dimezzamento. Ovviamente ad epidemia in regime stazionario ($R_{t}$=1), un infetto infetta un altro, il tempo di raddoppio o dimezzamento vanno all'infinito.

Dalla definizione epidemiologica: numero di infezioni secondarie causate da un singolo caso di malattia, $R_{0}$ e $R_{t}$ sono analoghi al moltiplicatore del capitale iniziale unitario dopo 1 periodo (detto anche montante), in un processo di capitalizzazione composta.

Si possono stimare $R_{0}$ o $R_{t}$ dalla curva epidemica dei casi totali introducendo il concetto di tasso di riproduzione istantaneo $R_{ist}$, analogo al tasso di capitalizzazione istantaneo in matematica attuariale.

Definizione epidemiologica di $R_{t}$

La definizione epidemiologica di $R_{t}$ recita:

$R_{t}$ è il numero di infezioni secondarie causate da un singolo caso di malattia durante il suo periodo di infettività, in media.

Definizione di $R_{ist}$

La definizione di $ R_{t} $ (e di $ R_{0} $) indica una progressione esponenziale. Un infetto, dopo il suo periodo di capacità infettiva avrà infettato un nuovo infetto più (o meno) una quota di nuovi infetti. Diciamo, ad esempio, un infetto più un altro infetto e mezzo, pari a due infetti e mezzo $(1+1.5 = 2.5) $. Dopo 2 periodi di infettività gli infettati saranno quelli del periodo precedente ($ 2.5 $) ciascuno dei quali avrà infettato nuovi $(1+1.5 = 2.5) $: cioè gli $(1+1.5) $ del periodo 1, moltiplicato $( 1+1.5)$ del periodo 2; e così via...

In generale:

Di fatto si tratta di un processo analogo alla capitalizzazione composta del tasso di interesse $ r $, dove $ R_{t} $ è il montante dopo il periodo 1.

Per ottenere quale tasso $ r $ si debba usare per una capitalizzazione composta continua di $ n $ frazioni di periodo che dia, dopo 1 periodo, il montante $ R_{t} $, si può scrivere così: $ R_{t}= (1+\frac{r}{n})^{n}$, equivalente a $ R_{t}= [(1+\frac{r}{n})^\frac{n}{r}]^{r}$. Passando al limite per $ n\rightarrow \infty $, e notando che $\lim_{n\to\infty} (1+\frac{r}{n})^\frac{n}{r} = e$, si ottiene: $$ R_{t}=\left[ \lim_{n\to\infty} \left(1+\frac{r}{n}\right)^\frac{n}{r} \right]^{r}= e^{r} $$ da cui $$r=\ln (R_{t})$$

In altri termini, $r$ è l'esponente da dare a $e$ per ottenere $R_{t}$ dopo un periodo di durata infettiva $=1$. Cioè: $$ r =\ln(R_{t}) = R_{ist}\cdot 1$$

Se voglio esprimere $R_{ist}$ legato ad una unità di tempo più convenzionale rispetto al periodo unitario adimensionale, che abbia una unità di misura del tempo ancorata al tempo con cui si misura l'andamento dell'epidemia e che sia più facilmente comprensibile -- ad esempio i giorni (o le ore) con cui misuro la durata del periodo di infettività di un soggetto infettante $ g_{i} $ -- posso scrivere: $$ R_{ist} \cdot g_{i} = r = \ln (R_{t})$$ da cui: $$ R_{ist} = \frac{\ln (R_{t})}{ g_{i}} $$

In questo modo ho il parametro $R_{ist}$ che caratterizza la crescita esponenziale (come da definizione di $ R_{0} $ e $ R_{t} $) nel punto che, all'istante $ t $, l'incremento (o decremento) dei casi giornalieri va a determinare.

Esempio numerico di capitalizzazione istantanea. $R_{t}$ è analogo al moltiplicatore generato dal tasso di interesse $r_a$ nel periodo unitario di $g_{i}\,\mathrm{giorni}$ in una capitalizzazione composta. Esempio: tasso annuo $r_a=3\%$; moltiplicatore del periodo risultante $R=1.03$ per 1 periodo di $g_{i}=365\,\mathrm{giorni}$; tasso istantaneo risultante $ r=\ln(1.03)$; $ R_{ist}=\ln(1.03)/365 \approx 8.098\cdot 10^{-5} $; moltiplicatore ricalcolabile per 365 giorni (1 periodo): $e^{(8.098\cdot 10^{-5} \times 365)} = 1.03$; per 730 giorni (2 periodi): $e^{(8.098\cdot 10^{-5} \times 730)} = 1.0609$; per $n \times 365$ giorni ($n$ periodi): $e^{(n\times 365 \times 8.098\cdot 10^{-5})} = (1.03)^{n}$; ec.

Connessione di $R_t$ alla curva dei casi giornalieri

$R_{ist}$ è la pendenza all'istante $t$ della curva esponenziale, rappresentata in scala logaritmica, conseguente alla definizione epidemiologica di $R_{t}$ che, moltiplicata per i $g_{i}$ giorni di infettività, produce il moltiplicatore $R_{t}$ dei casi all'istante $t$. $R_{0}$ è quella stessa pendenza riscontrata all'istante $t=0$ sulla curva dei casi giornalieri rappresentata in scala logarimica (in base $e$).

In questo modo, determinando $R_{ist}$ posso calcolare in ogni istante $R_{t}$ per un determinato periodo di infettività $g_{i}$ noto o convenzionale. Faccio notare che il periodo di infettività medio di un soggetto infettante in una epidemia dovrebbe variare poco: lo si può assumere costante, determinato una tantum, o determinato periodicamente, o convenzionale. Le relazioni che legano il fitting dei casi totali cumulati $f(t)$, $R_{ist}$ e $ R_{t}$ sono le seguenti:

$$ h(t)=\ln(f_{}^{\prime}(t)) \: , \quad R_{ist} =\frac{\mathrm{d}}{\mathrm{d}t}h(t) \: , \quad R_{t} = e^{(R_{ist} \cdot g_{i})} \: , \quad R_{ist} = \frac{\ln(R_{t})}{g_{i}} \: , \quad g_{d\vee h}= \frac{\ln(2.0)}{R_{ist}} $$

I grafici mostrano gli strumenti per stimare $R_{0}$ e $R_{ist}$ a partire dalla curva dei casi rilevati. Secondo la definizione epidemiologica di $R_{0}$, esso ha un andamento esponenziale al limite iniziale del manifestarsi dell'epidemia. Esso evolve poi per assumere valore $R_{t}=1$ (un infetto ne infetta un altro) quando raggiunge lo stato stazionario, per poi calare ($R_{t}<1$) nella fase di estinzione dell'epidemia.

La evoluzione di $R_{0}$ evidenzia l'andamento secondo la funzione logistica di un fenomeno epidemico, determinato dalla rispettiva equazione differenziale generatrice della funzione logistica.

L'equazione differenziale generatrice della funzione logistica descrive la condizione di un agente patogeno in un ambiente a risorse rimitate che, crescendo di numero, tende ad esaurire il bacino di potenziale ulteriore espansione. L'ambiente a risorse limitate per il patogeno è costituito dal numero finito degli ospiti infettabili residui e dalla insorgente resistenza dell'ambiente (risposta immunitaria diretta della popolazione ospite e/o mutati comportamenti di ospite e/o patogeno).

Il metodo di stima di $R_{0}$ ed $R_{t}$ dalla curva dei casi totali cumulati si basa sulla determinazione dello equivalente $R_{ist}$, il quale è l'inclinazione (il coefficiente agolare) della retta tangente nel punto di interesse sulla curva dei casi giornalieri rappresentata in scala logaritmica. Rappresentare in scala logaritmica l'andamento esponenziale proprio della definizione di $R_{0}$ ed $R_{t}$ può essere pensato in scala logaritmica come una retta. Questo consente di usare il coefficiente angolare $\frac{\mathrm{d}}{\mathrm{d}t}h(t)$ della tangente alla curva dei casi giornalieri in scala logaritmica come stima di $R_{ist}$, da cui poi si ricava $R_{t}$ o $R_{0}$ moltiplicando $R_{ist} \cdot g_{i}$.

In formule, vige la seguente equivalenza: $$ \frac{\ln(R_{t})}{g_i}=R_{ist}=\frac{\mathrm{d}}{\mathrm{d}t}h(t) $$

Un ragionamento diverso forse riesce a illustrare meglio il concetto di stima di $R_{t}$ dalle curve epidemiche. $R_{t}$ è sostanzialmente il rapporto tra i nuovi casi giornalieri al tempo $t+1$ rispetto ai casi al tempo $t$. Cioè gli infetti al tempo $t$ generano gli infetti al tempo $t+1$, dove 1 è il periodo infettante.

Dato il punto $A$ che precede il punto $B$ nel tempo $t$, $R_{t}=B/A$. Questo rapporto è anche la migliore stima della capacità infettante media, assumendo che il metodo di individuazione dei nuovi infetti sia lo stesso al tempo $t$ e $t+1$, perché è una media fatta sull'intero universo misurato della casistica, così come viene intercettato dal sistema di conteggio-misura.

Differenziare la curva dei casi giornalieri, espressa in scala logaritmica, significa fare la differenza tra due valori, spaziati da un periodo unitario di tempo, cioè: $\ln(B)-\ln(A)$. Questa espressione equivale a fare $\ln(B/A)$, come facilmente ricorda chi ha usato i regoli calcolatori: $\ln(B)-\ln(A)=\ln(B/A)$. Facendo l'operazione inversa dell'estrazione di un logaritmo da un numero, cioè elevando a potenza la base del logaritmo per il valore del logaritmo in questione, uno ottiene il rapporto $B/A$ nella scala dei casi giornalieri di infezione: $e^{\ln(B/A)}=B/A$.

Questo rapporto rappresenta il tasso di aumento (se $>1$) o diminuzione (se $<1$) dei contagi mediato su tutti i contagi osservati, compresa l'informazione di resistenza media complessiva alla diffusione del contagio che si può essere formata nel frattempo, per qualsiasi ragione conosciuta o sconosciuta essa si sia formata. Inoltre il valore ottenuto in questo modo è il valore molto accurato di $R_t$ vigente al tempo attuale di $B$, cioè al momento stesso in cui si conosce il valore attuale dei casi contagiati. Il passaggio al limite di un periodo che tende all'istante, implicito nell'operazione di differenziazione rispetto a $t$, consente di avere una curva sempre aggiornata in tempo reale dell'andamento di $R_t$.

In questo modo si ottiene una stima statisticamente accurata di $R_{t}$ così come si manifesta nella realtà epidemica: di fatto è una stima di $R_{t}$ fatta mediando tutti i casi censiti. Inoltre, con questo metodo si riesce a determinare e aggiornare $R_{t}$ nello stesso istante in cui si aggiunge un nuovo rilevamento dei casi positivi.

Occorre ancora stimare direttamente $g_{i}$, ma senza dover riferire la stima di durata ai casi specifici considerati di cui poi si segue l'albero dei contagi secondari. Il che è una sempplificazione enorme e meno soggetta ad errori statistici perché si possono più facilmente arruolare più casi su cui stimare il periodo di infettività. Inoltre, se non si vuole seguire anche l'andamento della infettività specifica, basta accordarsi a usare sempre lo stesso per tutta la durata dell'epidemia, salvo evidenza contraria, oppure usare un valore convenzionale. Di fatto quello che interessa maggiormente è stimare il tempo di raddoppio o dimezzamento dei casi. E questo è ben rappresentato dall'andamento reale della curva epidemica e facilmente calcolabile a partire da $R_{ist}$.

La stima a partire da $f(t)$ -- stima derivata analiticamente dal fitting aggiornato della curva dei casi totali cumulati di un numero enorme di casi -- è una stima di $R_{t}$ statisticamente molto stabile e accurata, nonché up to date, perché media "staticamente" tutti i casi censiti fino alla data più recente, senza l'effetto del ritardo di fase introdotto da una stima diretta di $R_{t}$ (oltre le difficoltà di stima e le incertezze statistiche di una stima diretta fatta esplorando il reticolo delle avvenute infezioni), o da ogni media mobile o concetto analogo di media "dinamica", tipo: filtri FIR o IIR, ec. Vedere fitting nella figura iniziale.

Casi notevoli

La definizione epidemiologica di $R_t$ evidenzia i seguenti casi notevoli:

Quando $R_{t}$ è in contrasto con la curva epidemica dei casi giornalieri rispetto a questi casi notevoli, significa che la stima di $R_{t}$ è sbagliata (o inaccurata, o in ritardo di fase o entrambe le cose) in quanto viola la sua stessa definizione. Oppure la curva epidemica non rappresenta l'andamento dell'infezione, secondo quanto determinabile con una stima diretta di $R_t$.

Difficoltà di stima diretta di $R_t$

Una sola occhiata alla dispersione di un insieme sufficientemente esteso di dati giornalieri attorno a un buon fit di essi lascia facilmente immaginare quanto possa essere difficile e inaffidabile qualsiasi tentativo di stimare un andamento delle epidemie con $R_t$ che di fatto sono piccoli frammenti della loro derivata prima dei casi giornalieri, basandosi inoltre su considerazioni su come essi si distribuiscono su alberi di casi secondari che si sovrappongono. Il che è proprio ciò che la definizione epidemiologica di $ R_t $ chiede di fare.

Durante la prima fase dell'epidemia (Marzo 2020) si è notato che, con il procedere dell'epidemia, si sono sommati come nuovi casi anche accertamenti ripetuti sullo stesso soggetto. Un data set deputato dai conteggi plurimi sullo stesso soggetto avrebbe consentito un fitting $f(t)$ più accurato e calzante sul fenomeno. Meglio ancora se si fossero anche determinati i casi univoci sempre con lo stesso metodo e pescati con lo stesso setaccio, cosa che non sembra sia accaduta allora.

Tuttavia durante la seconda fase dell'epidemia sembra che queste anomalie siano state corrette e ora si proceda a pescare i positivi con setacci che non variano troppo durante il rilevamento.


Considerazioni sulla efficacia di lockdown

Difficoltà

Capire se, e soprattutto quanto, azioni normative di contenimento di una epidemia abbiano effetto su una collettività complessa è un problema enorme, forse insolubile.

Studiare gli effetti di azioni su una epidemia diffusa in grandi numeri che coinvolge oggetti iper-complessi -- come lo spettro dei comportamenti di una collettività umana -- sfida l'essenza stessa del concetto di scienza galileiana. Infatti, essa si basa sulla possibilità di fare esperimenti e confronti tra due condizioni considerate uguali tranne che per l'aspetto che si intende capire.

È a tutti evidente che non si può fare un esperimento misurando l'effetto di azioni su una collettività per confrontarli con la stessa collettività, senza che si siano intraprese quelle azioni indagate.

In ambito medico-biologico si cerca di fare questi esperimenti con gruppi di controllo, assumendo e cercando che i due gruppi siano omogenei e su di essi agisca solo l'azione sperimentale che si intraprende. E questo è già molto molto difficile da fare, al limite della praticabilità.

Nel caso di oggetti unici -- come intere collettività, che subiscono l'effetto di azioni presunte efficaci, e che, per questo ed altro, in modo combinato, si modificano -- questo non è possibile fare.

L'unica cosa che si può tentare di fare è cercare un modello affidable del fenomeno che si sta osservando e confrontare l'effetto delle azioni rispetto a ciò che, man mano, il modello proietta nel futuro. Operazione molto incerta e soggetta a ogni sorta di errori. Un po' come si fa per le previsioni meteo a breve, salvo che su di esse non agiscono azioni intenzionali. Agiscono solo le azioni che le misure-modellazioni dei fenomeni non riescono a catturare.

Fatta questa premessa, tento qualche osservazione sulla base del modello adottato qui.

Dubbi sull'effetto dei lockdown

Nella primavera scorsa ero scettico circa l'effetto del lockdown. Non si notavano discontinuità di andamento sulle curve epidemiche attribuibili inequivocabilmente ad una azione discontinua, come l'entrata in vigore di un lockdown ad una certa data per azione normativa.

L'estrapolazione di un ragionamento biologico elementare ci direbbe che esso funziona: se si diminuiscono le occasioni di contagio, allora la diffusione epidemica rallenta.

Ma potrebbe essere un abbaglio, nel caso di popolazioni dai comportamenti complessi coinvolte in epidemie. La estrapolazione del ragionamento biologico potrebbe non funzionare. Non è affatto detto che un lockdown, per quanto stringente si possa socialmente fare, sia una azione efficace per un virus così efficiente a contgiare. Probabilmente bisognerebbe girare tutti costantemente in scafandri da laboratorio di virologia, affinché la misura sia biologicamente efficace, come da estrapolazione elementare del ragionamento biologico. Ma questo è ovviamente impraticabile.

Bisogna chiedersi e cercare di capire se e quanto una azione normativa, che intende modificare improvvisamente un reticolo di comportamenti complessi e consolidati, ha effetto sulla diffusione virale di SARS-CoV-2. E molto probabilmente non ce l'ha, almeno in misura tale da manifestarsi sulle curve epidemiche.

Se si guarda alla poca evidenza dell'effetto di lockdown, fatti o non fatti, in nazioni diverse, il dubbio è forte. Ad esempio: -- Brasile, con nessuna azione normativa intrapresa; Argentina (stesso emisfero del Brasile) e Italia, con lockdown massimo: risultato pressoché identico sia sui casi (Argentina più casi del Brasile), sia sui morti (Italia con un $30\%$ di morti in più del Brasile, alla data del 21-gen-2021) -- lasciano molti dubbi sull'effetto complessivo del lockdown.

Un articolato studio fatto da ricercatori dell'Università di Stanford sulla efficacia di interventi normativi stringenti (lockdown) a questo proposito è lapidario:

Conclusione: Sebbene non si possano escludere piccoli benefici, non troviamo benefici significativi con gli NPI (Interventi Non Farmaceutici) più restrittivi sulla crescita dei casi. Riduzioni simili nella crescita dei casi possono essere ottenute con interventi meno restrittivi.

Osservazione di discontinuità sulle curve

Osservando i risultati del modello, forse si può essere un po' meno scettici. La stima dell'indice di contagio a fine ondata $i_c$, fatta dal modello per la zona lombarda estesa e per l'Italia [Fig. 4:], evidenzia una discontinuità in corrispondenza del lockdown.

Ma per altre zone questa discontinuità non si nota. Questa discontinuità sembra essere più correlata alla prossimità di picchi prominenti nella curva dei casi giornalieri, cosa che ha senso, data la struttura matematica del modello.

Altre discontinuità nette non si notano [Fig. 2:]-- discontinuità che ci si dovrebbe aspettare a fronte di una discontinuità netta nelle azioni, come un lockdown che entra in vigore ad una data data specifica. Una approssimazione esemplificativa della discontinuità che si dovrebbe notare è tratteggiata qui.

Anzi, osservando la curva di $R_t$ della zona lombarda estesa [Fig. 1:], si nota che essa stava scendendo da circa 25 giorni prima rispetto al momento del lockdown; e scendeva, nella zona lombarda, dal valore $R_t \approx 4.3$ di 25 giorni prima del lockdown, al valore $R_t \approx 1.2$ il giorno del lockdown, senza mostrare discontinuità per effetto di esso. Peciò, anche lo $R_t$ non pare influenzato dal lockdown. Osservando anche altre zone, nessuna discontinuità si nota che sia associabile alla azione di lockdown.

Osservando il grafico della trasformata anti-logistica [Fig. 3:], casi cumulati $\beta(t)$ e casi giornalieri $\beta^{\prime}(t)$, esso mostra una tendenza a curvare verso la riduzione dei contagi che precede di circa 10 giorni l'entrata in vigore del lockdown, mentre non mostra variazioni di andamento nei 25 giorni successivi al lockdown. Il fatto che questa curvatura non mostri discontinuità rispetto al lockdown sembra indicare che il lockdown non lasci traccia sulle curve epidemiche.

Al momento la variazione di curvatura di $\beta(t)$ e l'andamento di $\beta^{\prime}(t)$ sono debolmente prese in considerazione dal modello per fare la proiezione di andamento. Quando nel modello riuscirò a tenerconto di questo in modo più robusto, si potrà tentare di valutare meglio l'eventuale effetto di lockdown.

Fig. 1: Assenza di discontinutà sullo $R_t$ per effetto del lockdown. Lo $R_t$ stava scendendo da circa $25$ giorni prima del lockdown dal valore $R_t \approx 4.3$ al valore $R_t \approx 1.2$ il giorno del lockdown, per poi continuare a scendere anche se meno velocemente. L'unica cosa sensata che si può dire da questo grafico è che, se il lockdown ha avuro qualche effetto, esso è stato di aumentare i contagi, non di diminuirli. Non penso questo. Penso solo che il lockdown non mostra effetto.
Fig. 2: Assenza di discontinuità per effetto del lockdown sulle curve epidemiche. Il picco sui casi giornalieri, che si nota subito dopo il lockdown, corrisponde allo attraversamento di $1$ (epidemia in stato stazionario) sulla curva di $R_t$, in discesa costante durante i precedenti 25 giorni. Quel picco fa parte della dinamica naturale della curva epidemica, caratterizzata dall'andamento sigmoidale sui casi cumulati propria dei processi a diffusione-saturazione che il modello coglie ed evidenzia. D'altro canto, un lockdown non può avere un simile effetto a 6 giorni dalla sua entrata in vigore neppure in senso biologico: non è passato neppure il periodo di incubazione, che comunemente si stima in circa 15 giorni per SARS-CoV-2.
Fig. 3: Curve $\beta(t)$ (curva blu) $\beta^{\prime}(t)$ (curva rossa) nello spazio della trasformata anti-sigmoide. Assenza di discontinuità in prossimità del lockdown. L'inversione di direzione di $\beta^{\prime}(t)$ avviene prima del lockdown, coerentemente con il comportamento di $R_t$. Le curvature di $\beta(t)$ (curva blu) $\beta^{\prime}(t)$ (curva rossa) si manifestano indipendentemente dal lockdown.
Fig. 4: Possibile effetto del lockdown sulle curve epidemiche evidenziato dalla discontinuità della stima di $i_c$ fatta dal modello. Ma questa discontinuità è assente o non correlata al lockdown in altre zone, pur discretamente popolate (Piemonte, Sicilia, ec.). Questa discontinuità sembra essere più correlata alla prossimità di picchi prominenti nella curva dei casi giornalieri, cosa che ha senso per la struttura matematica del modello.

Domande

Il fatto che i lockdown finora fatti siano di dubbio effetto, fa sorgere alcune domande fondamentali:

Altre considerazioni qui.

Come si può immaginare una diffusione virale?

Da quanto abbiamo tutti visto, la dinamica di un'epidemia sembra seguire comportamenti imprevedibili e caotici. Siamo abituati a pensare alle popolazioni coinvolte in un'epidemia come un materiale isotropo, come l'acciaio, che ha un comportamento uguale in tutte le direzioni rispetto a tensioni e deformazioni.

Forse, un'epidemia può essere meglio rappresentata come agente su tessuti diversi di relazioni aggrovigliati tra loro. Un'esplosione di infezioni si verifica quando due o più tessuti aggrovigliati instaurano nuove connessioni che si fondono in un nuovo tessuto più esteso. I tessuti di partenza possono trovarsi in condizioni invettive molto diverse, alcune delle quali già sature e altre no.

Se questo è una immagine plausibile di un'infezione in una popolazione, non tutti i collegamenti in questo intreccio di reti hanno la stessa capacità di infezione e non tutti i nodi di queste reti sono connessi isotropicamente.

In altre parole, potrebbero esserci diverse reti di relazioni con connessioni scadenti tra l'una e l'altra, pur avendo una forte connessione tra i membri di ciascuna rete. Ad esempio, la rete di un insieme di famiglie con bambini che frequentano la stessa scuola può avere forti legami tra le famiglie di quegli insegnanti e compagni di classe, ma può avere connessioni deboli o nulle con altre reti non correlate di genitori-figli-insegnanti. Alcune di queste reti potrebbero eventualmente saturarsi, mentre altre potrebbero non essere state nemmeno infettate. La stessa cosa accade con altri tipi di reti relazionali. Questo indica un ambiente fortemente anisotropo.

Questo paesaggio mostra un oggetto non lineare molto ostico da indagare. Forse esso ha alcune regolarità emergenti a livello macroscopico. Ad esempio sequenze di forme sigmoidali sovrapposte nella curva dei casi cumulativi.


Sguardo ad altri paesi

Confrontando gli andamenti della pandemia da SARS-CoV-2 in differenti paesi del mondo, la cosa più evidente che qualitativamente emerge è la correlazione tra diffusione VS vivere in una metropoli.

La pandemia si direbbe in correlazione con lo stile di vita che si pratica nelle metropoli: alta densità di popolazione; la popolazione che ha uno stile di vita metropolitano specifico (trasporto collettivo; vita al chiuso con ventilazione forzata in ambienti affollati: ufficio, palestra, cinema, ristorante, ec.; tipologie edilizie con frequente ventilazione forzata; vita di relazione intensa; ec.)

Si nota anche che SARS-CoV-2 ha colpito in modo molto più attenuato i paesi dell'Asia estrema (dal Giappone al Laos). Questa differenza è stata attribuita ad una maggiore capacità di quei paesi di contenere l'infezione.

Tuttavia, questa ipotesi non mi convince. Temo che nessuno possa efficacemente contenere un virus così efficace a infettare. Penso invece che quei paesi abbiano uno spettro immunitario della popolazione già, in qualche modo, in grado di proteggere la popolazione di quella area del mondo. Probabilmente ciò avviene per pregressa esposizione a patogeni che presentano bersagli comuni al SARS-CoV-2. I seguenti articoli mi fanno propendere per questa ipotesi:

https://medicalxpress.com/news/2020-08-exposure-common-colds-people-covid-.html
https://www.nature.com/articles/s41577-020-0389-z
"As data start to accumulate on the detection and characterization of SARS-CoV-2 T cell responses in humans, a surprising finding has been reported: lymphocytes from 20-50% of unexposed donors display significant reactivity to SARS-CoV-2 antigen peptide pools."

In questo sito si trovano tutti i dati per capire meglio i confronti tra nazioni diverese: https://ourworldindata.org/

Per esempio, alcuni paesi a confronto: contagi morti

Altri confronti qui.


Nota sul rapporto $positivi/tamponi$

Dall'autunno 2020 ha preso piede considerare il rapporto $positivi/tamponi$ come indicatore dell'andamento della curva epidemica. In realtà si tratta di un indicatore estremamente fuorviante che porta a conclusioni sbagliate.

Infatti, i tamponi non vengono fatti su un campione random statisticamente rappresentativo della popolazione. Essi vengono fatti sulla base di un sospetto diagnostico, cosa molto sensata per individuare chi ha bisogno urgente di cura. La cosa però rende l'indice $positivi/tamponi$ estratto da un campione estremamente deviato, rispetto alla popolazione di riferimento.

In pratica, succede che quando si possono fare pochi tamponi, per le ragioni più varie, si fanno i tamponi a chi manifesta un sospetto diagnostico più forte; quindi più probabilmente viene individuato un positivo dal tampone fatto. Quando invece si possono fare molti tamponi, vengono fatti anche i tamponi giudicati meno urgenti; quindi si pescano meno positivi anche a parità di tamponi fatti. Inoltre, quando si possono fare molti tamponi, si aumenta il denominatore dell'indice e viceversa.

Si ha cioè un aumento più che proporzionale del numeratore congiunto a una dimunuzione del denominatore, quando si possono fare pochi tamponi. Viceversa, si ha una diminuzione più che proporzionale del numeratore congiunto ad un aumento del denominatore quando si possono fare molti tamponi.

Va inoltre detto che un positivo sfuggito un certo giorno al rilevamento viene catturato nei prossimi successivi giorni. Perciò non viene persa l'informazione per la formazione della curva epidemica. Il numero di contagi è comunque sempre una frazione piccola dei tamponi fatti (intorno a $10\%$), e non si rischia per nulla di perdere conteggi per saturazione ($100\%$ positivi); cioè quando tutti i tamponati sono positivi e chissà quanti altri sono sfuggiti alla pesca.

Quelli che sfuggono alla pesca sono sempre solo quelli che sfuggono ai setacci formulati. Ma se non si alterano i setacci in corso di rilevamento, la forma della curva epidemica resta ancorata con la stessa relazione alla realtà sottostante.

La conseguenza è che l'indice $positivi/tamponi$ dà una indicazione molto sbagliata dell'andamento epidemico. Ma piace molto ai catastrofisti.


Nota evoluzionistica

Meccanismi evolutivi fondamentali evidenziano che se un patogeno parassita è altamente letale per l'ospite, allora tende a diffondersi con difficoltà, in quanto tende a uccidere il suo ospite e di conseguenza a causare la propria difficoltà a diffondersi.

Viceversa, un patogeno parassita tendenzialmente innocuo per l'ospite può facilmente evolvere per avere alta e veloce diffusività, avvantaggiandosi sui suoi competitors meno veloci e meno inclini a diffondersi, a pari innocuità per l'ospite e a pari mobilità della popolazione degli ospiti. Non nuocere all'ospite genera un ambiente favorevole al patogeno più veloce e incline a diffondersi proprio perché non nuoce all'ospite.

Un virus non nasce dal nulla. Arriva da altri serbatoi in cui è evoluto. E per evolvere non li ha distrutti. Virus e batteri sono lì da alcuni miliardi di anni.

La distanza evolutiva tra ominidi e pipistrelli (o altro serbatoio di mammiferi) è molto piccola, se vista dal punto di vista del virus. Perciò un antenato prossimo di questo virus, così efficiente e veloce a contagiare, non può essere stato troppo nocivo per quei mammiferi, pena la sua estinzione conseguente. Molto improbabile che possa esserlo per noi.

Se si ragiona in termini evoluzionisti, la strategia del virus è molto sensata. O, meglio: il meccanismo di propagazione di questo virus mostra essere molto efficace, dato che attribuire intenzionalità al meccanismo evolutivo è profondamente sbagliato: il processo evolutivo si limita ad esplorare per tentativi il possibile chimico-fisico, tentativi setacciati dall'idoneità contingente all'ambiente.

Manifestarsi in patologia macroscopica con forte ritardo di fase --- insieme a infettare velocemente; insieme a fare pochi danni sull'ospite, soprattutto se giovane e femmina, cioè in modo tale da non danneggiare la potenzialità riproduttiva dell'ospite, dato che, almeno tra i mammiferi, non servono molti maschi per popolare un ambiente, mentre femmine sì; insieme a una probabile scarsa impronta a rapido decadimento sul sistema immunitario dell'ospite --- pare una strategia di successo, dal punto di vista del virus. Ed è probabilmente quello che succede nel serbatoio animale da cui si pensa provenga il Corona Virus di COVID-19. In fondo, dal punto di vista del virus, i pipistrelli non sono molto distanti dagli ominidi, come ambiente da colonizzare.

Tutto ciò avviene per fondamentali caratteristiche del meccanismo evolutivo scoperto da Charles Darwin e ulteriormente sviluppato dal pensiero evoluzionista: Ernst Mayr, Richard Dawkins, Daniel Dennett (per gli aspetti teorico/algoritmici), e molti altri notevoli pensatori.

Se l'epidemia evolve come sta tratteggiando il modello logistico (rapidità di contagio latente e infettante con scarsa impronta sull'ospite), avremo una ulteriore conferma di questa inferenza evoluzionista.

In ogni caso va tenuto a mente che nulla si può mai escludere in universo chimico-fisico indifferente alla sofferenza dei suoi prodotti, quali noi siamo. La cautela è d'obbligo. Così Charles Darwin ad Asa Gray:

"Mi sembra che ci sia troppa sofferenza nel mondo. Non riesco a persuadermi che un Dio benefico e onnipotente avrebbe potuto creare gli Ichneumonidæ con l'intenzione esplicita di farli alimentare dei corpi viventi dei bruchi dall'interno, o che un gatto debba giocare con i topi."
https://www.darwinproject.ac.uk/letter/DCP-LETT-2814.xml

Per approfondire l'aspetto evoluzionistico in proposito, è molto interessante l'articolo di Gilberto Corbellini, La pandemia è neodarwiniana, e i virus mancano di buon senso.

Comunque, da quanto si intravvede, questo virus non sembra l'avvento dell'Apocalisse. Quel genere letterario è molto amato. Infatti l'onda montante degli Apocalittici è in fermento.


Nota su mortalità COVID-19 e sua rilevanza sulla ”mortalità fisiologica”

Alcune premesse per inquadrare la rilevanza e la mortalità di COVID-19 sulla "fisiologia" di una popolazione sono d’obbligo.

Questo non cancella il fatto che la necessità inattesa e incognita di extra terapie intensive e sub-intensive, di ausili respiratori, farmaci e altro, in regime di alta e veloce contagiosità specifica del virus e pandemica, causi stress al limite della tenuta del sistema terapeutico di un paese. Inoltre il numero di quanti vanno a sviluppare il patologia macroscopica, stimabile sulla base del metodo attuale di identificazione COVID-19, sono imponenti e concentrate nel tempo. Le conseguenze sul sistema terapeutico sono immediatamente evidenti e pesanti.

Ecco le premesse:

  1. La ”mortalità fisiologica” media annua per l’Italia durante gli ultimi 10 anni si attesta intorno all’1.0% della popolazione totale ($\mu = 0.01026, \sigma = 0.000328$), pari a circa 620 mila persone/anno per l’Italia intera con 1 deviazione standard ($\sigma$) che vale circa 20 mila persone/anno (120 mila persone/anno considerando $\pm3\sigma$). Analoghe considerazioni si possono estendere agli altri paesi.
    https://it.wikipedia.org/wiki/Demografia_d%27Italia
  2. Questa ”mortalità fisiologica” è grossolanamente ripartibile: 1/3 per cause cardio-vascolari, 1/3 per patologie tumorali, 1/3 per il resto. Questo fa circa 52 mila morti/mese in Italia che, con incertezza pari a $\pm3σ$, fa una incertezza di $\pm5000$ morti/mese. Questa incertezza/fluttuazione statistica tra un anno e l’altro di quasi 10 mila morti ”fisiologici” al mese va raffrontata e congiunta (non sommata) ai morti CON Corona Virus durante lo stesso periodo, detti invece morti PER Corona Virus dai dati del Ministero della Salute.
  3. In altri termini, una rappresentazione riassuntiva della fluttuazione statistica a $\pm3\sigma$ della ”mortalità fisiologica” in Italia ci indica 10300 morti per milione all'anno con una banda di fluttuazione di circa 2000 morti per milione all'anno. I morti totali CON Corona Virus erano, ad Aprile 2020, intorno ai 300 per milione -- stimabili, dopo quasi un anno di epidemia da Marzo 2020, in 1500 per milione) da combinare (non sommare) e raffrontare con la fluttuazione statistica normale di 2000 morti per milione. È importante combinare, e non sommare, perché una quota importante dei morti per milione bollati COVID sarebbero, molto probabilmente, morti in ogni caso di qualcos'altro nello stesso periodo di tempo, se vogliamo stimare correttamente la rilevanza numerica del COVID sulla ”mortalità fisiologica” complessiva. Questo indica il fenomeno COVID quasi annegato nel rumore di fondo della ”mortalità fisiologica”, parlando dal punto di vista metrologico-statistico
  4. I morti conteggiati CON Corona Virus sono, prevalentemente, anziani pluri-70-enni e affetti da una o più patologie gravi, di quelle che caratterizzano la ”mortalità fisiologica”: oltre il 96% dei morti con CON Corona Virus ha almeno una patologia grave. Inoltre l’accelerazione relativa di mortalità di questo periodo (febbraio, marzo, aprile) potrebbe facilmente essere seguita da un rallentamento relativo di mortalità subito dopo per depauperamento del bacino di morituri (può sembrare cinico ragionare così, ma così è, che ci piaccia o no). Prime considerazioni sulla mortalità associata al Corona Virus si trovano sul sito ISS:
    https://www.epicentro.iss.it/coronavirus/sars-cov-2-decessi-italia
    https://www.epicentro.iss.it/coronavirus/bollettino/Report-COVID-2019_20_aprile.pdf
  5. Meccanismi evolutivi fondamentali evidenziano che se un patogeno parassita è altamente letale per l’ospite, allora tende a diffondersi con difficoltà, come descritto nella Nota Evoluzionistica sopra.
Queste considerazioni sembrano poter far dire che la mortalità PER Corona Virus, al momento, si presenta quasi annegata nel rumore di fondo della ”mortalità fisiologica”. Al momento, sembra di poter dire che solo attente e sofisticate analisi statistiche sulle anomalie della ”mortalità fisiologica” a fine epidemia potranno eventualmente evidenziare l’effetto di COVID-19 sulla mortalità, considerando la sovrapposizione delle co-morbidità. Altre indicazioni potranno venire da analisi patologiche sui deceduti e immunologiche sulla popolazione post-epidemia.

In altre parole, date le premesse fatte, al momento è molto difficile stimare con la necessaria accuratezza l’estensione delle sovrapposizioni degli effetti di patologie plurime in anziani morti CON Corona Virus per attribuire causa principale di morte a questa o quella causa. Per questo, anche il numeratore dell’indice di letalità $i_{l}$ (morti/contagiati) e dell’indice di mortalità $i_{m}$ (morti/popolazione) è molto incerto.

Per esempio:

  1. Se si decide di conteggiare come morti PER Corona Virus tutti quelli che alla morte hanno il Corona Virus, allora si ottiene un certo $morti_{ COVID19}$. Ma questo non chiarisce ancora la questione, perché lascia incerto il numero di tutti quelli che muoiono senza che venga fatto loro il tampone, per esempio.
  2. Se si decide invece di escludere dai morti PER Corona Virus chi invece è morto per almeno una patologia grave o ha più anni dell’aspettativa di vita alla nascita, allora si ottiene un $morti_{ COVID19}$ molto più piccolo, al limite dello statisticamente trascurabile, per come stiamo vedendo.
  3. Lì in mezzo ci stanno tutte le miscele di criteri che si desiderano adottare.

Le considerazioni precedenti sono state fatte ad Aprile 2020. Non era possibile allora alcuna valutazione comparativa sulle mortalità.

Tuttavia a febbraio 2021, la valutazione di Eccesso di Mortalità mostra un chiaro effetto del COVID-19 su un parte cospicua dei paesi europei (Russia e Israele compresi) e americani. Tuttavia è poco visibile l'effetto su Grecia e Germania (comparabile al 2018). Inesistente l'effetto su Danimarca, Norvegia, Finlandia, Estonia.

Inesistente è l'effetto del COVID-19 su paesi dell'estremo Est come Australia, Nuova Zelanda, Giappone, Sud Corea, Filippine, Taiwan, Mongolia. Per altri paesi dell'Asia non esistono dati per fare questa valutazione. Tuttavia lo scarso o nullo impatto del COVID-19 sui paesi dell'Asia fa pensare che non ci sia parimenti alcun effetto sull'Eccesso di Mortalità in quei paesi.

Strano il caso della Cina, dove il fenomeno COVID-19 semplicemente non esiste, salvo il clamoroso caso dello Hubei dell'inverno 2019-2020, senza seguito e con effetto quasi inesistente sulle statistiche cinesi.

La mia netta impressione è che, dopo la primavera 2021, SARS-CoV-2 sparirà anche dai paesi colpiti in Occidente lasciando una memoria immunitaria diffusa sullo spettro dei sistemi immunitari delle relative popolazioni, come paiono aver lasciato quella memoria SARS-CoV-1 e MERS sui paesi Orientali. Si tratta ovviamente di una mia congettura, ma che trovo complessivamente molto convincente, osservando i dati in modo comparato.


[ This link is also achived on: https://web.archive.org ]
[ Questo link è anche archiviato su: https://web.archive.org ]