I NUMERI MAGICI


Perché il 17 porta sfortuna? O il 13 fortuna?

I numeri magici, senza alcuna pretesa di conoscenza scientifica, hanno radici profonde ed estese.

Nella cultura primitiva, e, poi, nella cultura greca, romana, medievale, sino all’Umanesimo del XV secolo e al Rinascimento del secolo successivo, ai numeri, o meglio, ad alcuni di essi si riconoscono particolari virtù, positive o negative e, quindi, particolari forze che essi sarebbero in grado di esercitare sul mondo in generale e sull’uomo in particolare.

Di più: i numeri sono persino in grado – tramite una serie di elaborati calcoli fondati sulla corrispondenza che si ha in greco fra numeri e lettere dell’alfabeto – di consentire all’uomo che ne conosca i misteri di predire il futuro.

Fra i numeri magici occupano una posizione primaria il 3, il 4, il 5 ed il 7.

L’importanza del 3 è forse da far risalire al fatto che, essendo l’1 considerato dagli antichi non un numero, ma l’origine, la matrice di tutti i numeri (quindi non considerato né pari, né dispari), ed essendo, quindi, il 2 il primo numero, che è pari, cioè imperfetto- secondo le antiche teorie-, ne deriva che il 3 è il primo «numero perfetto», appunto perché è dispari.

L’importanza del 4, nonostante sia pari, è determinata dal fatto che, sommando le cifre dall’1 al 4 (1+2+3+4) si ottiene 10, che, a sua volta, è numero perfettissimo, è l’aurea decade dei pitagorici, in quanto è la somma del 3 e del 7, i numeri perfetti per eccellenza (il 7 è perfetto in quanto somma di 3 e di 4, che, fra l’altro, è il primo quadrato).

L’importanza del 5 è, forse, da ricondurre ai più antichi sistemi di numerazione e di computo, fondati sulle dita delle mani (e dei piedi, per cui l’espressione «più di un uomo» vale «più di venti», ossia una quantità che non si può contare perché supera la somma di tutte le dita del corpo umano).

L’importanza massima, infine, del 7 deriva, oltre che dal fatto di essere la somma di 3 e di 4, dall’essere esso il numero dei pianeti, ovviamente se si consideri la terra ferma al centro secondo la concezione che noi diciamo tolemaica, ma che è la più antica, la più universalmente diffusa e, sino almeno alle prime ardite ipotesi eliocentriche, ossia sino ad Aristareo di Samo (sec. IV a.C.), l’unica.

Una serie di elaborati calcoli fondati sulla corrispondenza fra numeri e lettere dell’alfabeto consentiva la predizione del futuro.
Questa forza profetica risiedeva, quin
di, nel numero stesso e poteva essere messa a profitto rapportando i numeri non solo con le lettere dell’alfabeto ma con ogni altro svolgimento di eventi, e, quindi, anche con il decorso delle malattie.

Nacque in tal modo la «teoria del numero 7» che fu uno dei pilastri della medicina (soprattutto per formulare la prognosi) dal trattato Peri hebdomadon (Sulle settimane) del Corpo ippocratico in poi, sino, praticamente, a tutto il sec. XVI e che, in parte, ancor oggi sopravvive a livello popolare.

Il settimo giorno è il giorno critico, ossia quello nel quale si risolve il caso o negativamente o positivamente.

Ma non basta il settimo: intervengono anche i multipli di 7, a loro volta computati in base a separazione o a continuità.
Nel primo caso l’ultimo numero del primo gruppo (il 7, appunto) chiude la settimana ed il numero seguente (8) ne apre un’altra, che si chiuderà con il 14.

Nel secondo caso, l’ultimo numero del gruppo (il 14) è anche il primo della settimana seguente la quale, quindi, si chiuderà non con il 21, ma con il 20.

Questo, a sua volta, è l’inizio di una nuova settimana computata anch’essa per continuità, ragion per cui essa si chiuderà con il 26, dal quale riprende una nuova sequenza per separazione.

I giorni critici, quindi, sono il 7°, il 14°, il 20°, il 26° ecc. E questi computi erano una delle più complesse e fondamentali parti dell’arte medica ed erano uno degli elementi più importanti che il medico doveva osservare non solo per formulare una diagnosi seria, ma anche per formulare un’altrettanto seria prognosi ed, infine, per gestire opportunamente gli interventi terapeutici che venivano regolati, appunto, sulla base del decorso della malattia nel susseguirsi delle settimane.

Cosa significa CONTAGIO VIVO?

Questa definizione è la teoria patogenetica formulata per la prima volta dal genio di Gerolamo Fracastoro nella sua opera De contagione et contagiosis morbis eorumque curatione (Del contagio e delle malattie contagiose e della loro cura), pubblicata a Venezia nel 1546.

Girolamo Fracastoro mostra al pastore Syphilus e al cacciatore Ilceus una statua di Venere per metterli in guardia contro il pericolo di infezione da sifilide

Nei tre libri di questo trattato si esprime chiaramente l’intuizione che gli agenti patogeni siano esseri viventi invisibili ad occhio nudo, i seminaria prima, i primi semi, che si trasmettono per infectio o contagio. Questo si realizza o per contatto diretto fra malato e sano, come nel caso della scabbia, della lebbra, della lue venerea quando la si contrae in conseguenza di rapporto sessuale; o per mezzo di veicoli, come vesti, biancheria intima o biancheria da letto usate da malati e maneggiate, poi, da sani (Fracastoro aveva osservato nei casi in cui si era contratta la sifilide pur senza aver avuto rapporto sessuale con il malato).

Fracastoro chiama questi veicoli fomites, ossia esche, quel preparato vegetale che trasmette alle foglie o alla legna secche il fuoco delle scintille prodotte dalla pietra focaia battuta dall’acciarino.

Infine le malattie si possono trasmettere senza contatto diretto e senza veicolo, ma attraverso l’aria, come nel caso della peste, del vaiolo, di tutte, insomma, le malattie epidemiche.

L’intuizione del contagio vivo e dei seminaria prima si opponeva decisamente alla tradizionale patologia umorale.

Confermata dalle scoperte di Redi, Spallanzani e di tutta la schiera dei grandi medici e biologi dal Seicento in avanti, ebbe la trionfale conferma dalle scoperte di Pasteur, di Koch e di tutta la patologia moderna, della quale essa può considerarsi la grande madre.

La storia della medicina può aiutarci a conoscere meglio il futuro?

È necessario conoscere la storia dell’uomo e della medicina per riflettere sulle evoluzioni della scienza medica nel corso della storia dell’umanità, dei tempi lunghi necessari per consolidare le basi delle conoscenze, consentendo, grazie a questo percorso, i recenti e attuali grandissimi passi che avvengono, invece, in tempi molto brevi.

Antoinette C. van der Kuyl autrice del recente “Historic and Prehistoric Epidemics: An Overview of Sources Available for the Study of Ancient Pathogens” (https://www.mdpi.com/2673-3986/3/4/34) si è chiesta come la conoscenza molecolare dei patogeni storici e preistorici può aiutarci a capire il passato e il presente e prepararci per le future epidemie.

In una interessante revisione, l’autrice sottolinea che per studiare le epidemie (pre)istoriche, i recenti progressi nel campo del DNA antico, applicati sia ai resti archeologici che a quelli storici, hanno contribuito enormemente a chiarire la traiettoria evolutiva dei patogeni. Questi studi hanno offerto nuove e inaspettate intuizioni sull’evoluzione, ad esempio, del virus del vaiolo, del virus dell’epatite B e del batterio che causa la peste Yersinia pestis. Nell’articolo evidenzia come i modelli di sepoltura e le pubblicazioni storiche possono aiutare a rintracciare i patogeni antichi.

L’autrice ricorda che i focolai causati da agenti patogeni “endemici”, e le epidemie causate da agenti patogeni “nuovi”, hanno creato caos e distruzione sin dalla preistoria.

La parola peste, dal latino plaga, che significa “ictus, o ferita”, un termine comune per una “epidemia con molte morti”, era dall’inizio del XVII secolo d.C. sempre più usata per descrivere specificamente le infezioni da Yersinia pestis.

Va notato che non tutti gli agenti patogeni antichi sono quindi patogeni epidemici in senso stretto, e che gli agenti patogeni epidemici possono persistere e quindi diventare endemici, mentre gli agenti patogeni endemici sono spesso in grado di causare piccoli focolai. Esempi di quest’ultimo sarebbero il virus dell’influenza, il virus del morbillo e Yersinia pestis nei tempi medievali e moderni.
Gli agenti patogeni endemici del ventunesimo secolo, che sono molto diffusi e che attualmente causano poche o nessuna epidemia, sono stati introdotti nella popolazione umana molto tempo fa, ad esempio le specie Plasmodium (che causano la malaria), i parassiti intestinali, i micobatteri (che causano la tubercolosi e lebbra), Helicobacter pylori, HBV e herpesvirus.

La peste a Leida nel 1574- un medico esamina una fiasca di urina circondata da malati, morenti e morti

Da quando si è sviluppata la vita sulla terra, i microbi parassiti hanno prosperato: la microbiologia ebbe inizio con l’invenzione del primo strumento, il microscopio ottico, che permise di visualizzare oggetti di dimensioni inferiori ai limiti delle normali capacità visive umane. La prima classificazione biologica degli organismi osservati al microscopio fu proposta verso la metà del Settecento dal naturalista danese Otto Friderich Müller (1730-1784) e nella prima parte del XIX sec. la fisica e la tecnologia ottica consentirono la costruzione di microscopi composti più raffinati, con lenti che correggevano le aberrazioni cromatiche e in parte anche quelle sferiche, permettendo un’osservazione più dettagliata del mondo dei microbi.
Al giorno d’oggi, le moderne tecniche di sequenziamento consentono il recupero di genomi di antichi patogeni parziali o completi. Inoltre, i dati genomici spesso contengono DNA patogeno, consentendo l’identificazione e l’assemblaggio di genomi virali e batterici, come esemplificato, ad esempio, dal DNA del virus dell’epatite B (HBV) in campioni di sequenze neolitiche, dell’età del bronzo e medievali.

«Per cercare una fonte facilmente accessibile dei patogeni più antichi, tutto ciò che dobbiamo fare per studiare quegli avanzi del passato accuratamente propagati è sequenziare e analizzare i corrispondenti tratti di DNA nei cromosomi moderni»

Sono numerosi e dettagliati gli esempi citati dall’autrice: dalla scoperta della presenza del DNA di Yersinia pestis confermata negli estratti di polpa dentale in 16 vittime della peste del XVII secolo nel centro di Ellwangen, in Germania, all’analisi del DNA antico dei resti di lebbrosari europei medievali che ha portato al recupero di genomi parziali e completi di Mycobacterium leprae (la lebbra), con una diversità genetica sorprendentemente elevata.

Un prerequisito per il progresso della nostra conoscenza delle malattie antiche è che le collaborazioni tra archeologi e biologi molecolari dovrebbero essere sempre più ricercate e perpetuate, poiché entrambi i campi hanno molto da guadagnare l’uno dall’altro, alla luce della digitalizzazione delle collezioni mediche e museali che può aprire queste fonti ai ricercatori globali.

L’epidemiologia

Lo studio della malattia nella popolazione

Uno degli aspetti del fenomeno malattia che da sempre ha suscitato curiosità e interesse è il dinamismo «misterioso» per il quale un morbo colpisce alcuni tipi di persone e non altre; è comune in certe terre e sconosciuto in altre; fa strage in certe circostanze ed è silente in altre. Da sempre si è anche cercato di svelare le leggi responsabili di questa ineguale distribuzione.

Gran parte dello sforzo di ricerca compiuto è andato perduto nel tempo organizzandosi e formalizzandosi una disciplina chiamata epidemiologia, cioè, secondo l’etimologia greca, studio(logos) (della malattia) nella (epi) popolazione (demos).

Oggetto specifico dell’osservazione dell’epidemiologia è la comunità, non l’individuo isolato; e il carattere peculiare della malattia indagato è il suo diffondersi, così come altre discipline mediche ne studiano caratteri morfologici e funzionali, manifestazioni sintomatologiche, ecc. l’epidemiologia è interessata allo stesso modo alle malattie infettive (come, ad esempio, il tifo) e a quelle non infettive (come le cardiopatie) e indaga i fattori che di esse determinano frequenza e distribuzione. Quando si siano identificati tali fattori, si hanno le basi per una possibile prevenzione.

Le «epidemie» comunemente intese sono soltanto un particolare campo di intervento e ricerca, come abbiamo ormai imparato a nostro malgrado con il Covid.

Inoltre, conoscere la prevalenza (proporzione di malati) e la incidenza (comparsa di nuovi casi in un dato tempo) delle malattie nelle popolazioni può essere molto importante anche se in termini assoluti il numero di casi è modesto. Meno di duecento casi di un raro tumore in tutto il mondo non rappresentano un fatto degno di menzione; lo diventano, e in modo clamoroso, se questi casi vengono riscontrati in persone similmente esposte ad una medesima sostanza chimica sul lavoro.

La prima trattazione sistematica del rapporto tra le malattie ed un contesto di fattori determinanti viene attribuito ad Ippocrate.  Nella sua opera Delle arie, delle acque e dei luoghi dà un preciso consiglio al medico che si reca in una nuova regione. Se vuole conoscere le malattie con le quali avrà a che fare, deve considerare bene le caratteristiche del luogo, il suo orientamento, i venti prevalenti, le acque usate dagli abitanti, le caratteristiche del terreno (brullo o boscoso), così come il modo di vita degli abitanti, le loro aspirazioni, cosa e quanto amano bere e mangiare, e anche se sono pigri e indolenti o dediti al moto e al lavoro. Anche nei suoi Aforismi descrive la diversa prevalenza di certe malattie nelle diverse stagioni ed età.

Ancora nell’antichità, è nel De Rerum Natura di Lucrezio (I sec. a.C.) che troviamo l’idea che le malattie possano trasmettersi dal malato al sano per mezzo di «semi». Verranno più tardi chiamati «germi», quando Girolamo Fracastoro  proporrà per la prima volta nella sua opera De Contagione et Contagiosis Morbis una sorprendentemente chiara teoria di malattia contagiosa, indicandone i responsabili in minute, invisibili particelle.

Prima che l’era batteriologica avesse inizio con le formidabili scoperte di Louis Pasteur e Robert Koch l’origine e la possibile prevenzione delle malattie infettive era già stata messa in luce da molte osservazioni.

Ne ricordiamo due tra le più istruttive.


La febbre puerperale rappresentava nel secolo scorso un vero flagello contro il quale la medicina era impotente. A Ignaz Philip Semmelweiss, tragica e geniale figura di medico, capitò di notare che la febbre era più frequente nelle corsie dove le donne venivano visitate dagli studenti di medicina rispetto alle corsie dove solo le ostetriche visitavano. La causa, ipotizzò Sammelweiss, stava nel fatto che gli studenti di medicina si recavano nella corsia ostetrica dopo la sala anatomica. Certo! Dovevano essere le loro mani a trasmettere alla gestante «particelle putrefatte di organismi viventi». Definire infette le mani dei medici fu considerato assurdo ed offensivo, com’era già capitato a Boston a Oliver Wendell Holmes (1809-94) qualche anno prima. Nonostante ciò, Sammelweiss riuscì pur tra scherni e critiche a far disinfettare le mani ai medici e studenti prima di entrare in corsia. Da una frequenza di 18 su 100, i casi di febbre puerperale scesero a quella di 1 su 100! Il risultato riuscì però a convincere soltanto pochi. Eppure, questo resta ancor oggi un esempio paradigmatico sia di osservazione epidemiologica che fornisce ipotesi, sia di sperimentazione epidemiologica che ne verifica la bontà e mostra l’efficacia di una prevenzione.

John Snow (1813-58) compì le sue osservazioni sulla natura del colera e sul suo modo di trasmissione circa trent’anni prima che Koch individuasse e isolasse il vibrione. Snow giunse a identificare in alcuni quartieri di Londra tutte le famiglie che erano servite da una o l’altra delle due compagnie che fornivano a quella zona della città l’acqua per usi domestici.

Sulla modalità di comunicazione del colera / di John Snow.
Snow, John, 1813-1858 Data: 1855

Fu allora in grado di accertare le morti per colera in ciascuna delle due popolazioni, di calcolare il tasso di mortalità che risultò 20 volte maggiore nell’una rispetto all’altra! Questo serviva a dimostrare che l’acqua era implicata nella propagazione del colera. E, in effetti, una delle due compagnie si riforniva nel Tamigi a valle di uno dei maggiori scarichi fognari della città.

Quanto all’epidemiologia delle malattie non infettive, le prime sistematiche osservazioni in età moderna le dobbiamo probabilmente a Bernardino Ramazzini.

Egli fornì tre contributi fondamentali. In primo luogo mise in luce, con un rudimentale ma efficacissimo metodo epidemiologico, che molte malattie erano caratteristicamente e casualmente associate al lavoro svolto. In secondo luogo redasse il resoconto del primo «disastro chimico», dovuto ai fumi di una fabbrica di sublimato sita accanto all’abitato di Finale nel modenese. Infine, notò e descrisse la elevata frequenza del tumore mammario tra le suore; la ragione ora è nota, dato che la parità si è rivelato fattore protettivo contro questo cancro.

L’epidemiologia quantitativa moderna aveva però già avuto in John Graunt (1620-74) un precursore. Per primo egli compì un’analisi dei tassi di mortalità che lo portò ad illuminare molti fenomeni come il più alto tasso di morti tra i maschi nel primo anno di vita, il maggior numero di morti per malattie croniche rispetto alle acute (esclusa la peste). Fu invece William Farr (1807-83) che introdusse per la prima volta in Inghilterra e Galles un sistema di registrazione delle cause di morte su scala nazionale. Questo sistema si dimostrò ben presto un’eccezionale fonte informativa per conoscere l’andamento nel tempo e nello spazio delle principali malattie, e come tale è ancora in uso oggi, con molti frutti, in tutti i paesi che posseggano un affidabile sistema di registrazione. Anche le osservazioni di Snow furono possibili grazie a questi dati.

Più recentemente, il capitolo più importante scritto dalla epidemiologia nel campo delle malattie non infettive riguarda il rapporto tra fumo di sigarette e danni alla salute, grazie in particolare al lavoro di Sir Richard Doll e Austin Bradford Hill iniziato negli anni Cinquanta. Ma tutte le cause ambientali di malattie nell’uomo, siano esse infettive o no, sono state messe in luce poco o tanto con metodi epidemiologici. Questo vale, ad esempio, per gli effetti delle radiazioni anche a distanza di generazioni dall’esposizione, per la cancerogenicità di molti composti chimici di vastissima diffusione come gli idrocarbuti aromatici o di fibre come l’amianto, per le nuove opportunità e modalità di diffusione di microorganismi patogeni con l’attuale mobilità e integrazione di popoli e non solo di individui.

L’epidemiologia si è rivelata strumento prezioso anche rispetto alle malattie, e non solo rispetto alle cause. Anzitutto indica i fattori verso i quali indirizzare l’attività di prevenzione e di profilassi. In secondo luogo valuta l’efficacia delle misure programmate; una delle esperienze più significative fu l’esperimento controllato che nel 1954 coinvolse in USA oltre un milione di bambini e che dimostrò l’efficacia e la innocuità del vaccino antipolio. Infine, nei principali ospedali di tutto il mondo, ogni giorno vengono impostati, grazie ai metodi dell’epidemiologia clinica, esperimenti per verificare l’accuratezza delle diagnosi e la efficacia delle terapie per le quali nuove possibilità vengono continuamente ritrovate.

L’epidemiologia è andata costituendo la sua individualità scientifica con il concorso di tantissime competenze, da quelle strettamente mediche e biologiche, a quelle matematiche, demografiche, fino a quelle della ricerca sociale. Oggi, e in prospettiva, la grande opportunità di avanzamento della epidemiologia sta nel rapidissimo sviluppo di metodi e tecniche di indagine biologica a livello molecolare.

La frenologia

Venne così definita da John Forster (1812-1876) la nuova teoria che Franz Joseph Gall formulò e sostenne tra la fine del sec. XVIII e l’inizio del XIX.
Secondo la frenologia ogni funzione psichica ha una sua specifica localizzazione nel cervello.

Carta frenologica con tre figure di una testa e schizzi delle teste di uomini famosi

A ciascuna particolare funzione e disfunzione corrisponderebbe un particolare sviluppo o sottosviluppo di questa o quella zona della materia cerebrale che, a sua volta, si riprodurrebbe sulla conformazione esterna della scatola cranica. In tal modo l’esame attento e la misurazione scrupolosa della forma esterna del cranio, delle sue protuberanze e rientranze consentirebbe con scientifica esattezza, secondo Gall ed i suoi seguaci, di tracciare un vero e proprio ritratto psichico dell’individuo, di diagnosticarne propensioni, tendenze, carattere.
Le dottrine di Gall vennero sistemate dal suo discepolo Johann Caspar Spurzheim (1776-1832) ed ebbero una rapidissima diffusione in Francia, in Inghilterra e negli Stati Uniti, raggiungendo il loro culmine con la pubblicazione del Phrenological Journal curata ad Edimburgo sino al 1847 da Andrew Combe.
Ad onor del vero, Gall non era un ciarlatano e diede anche importanti contributi alla conoscenza anatomo-fisiologica del cervello. In particolare, non era errata-e gli studi più recenti lo hanno confermato- l’intuizione di base, ossia che singole zone del cervello sono in relazione con singole parti del corpo. L’errore fu quello di ritenere che anche qualità astratte come il coraggio, la fermezza, il talento artistico, il misticismo, ecc. avessero una loro particolare localizzazione nel cervello.

Franz Joseph Gall conduce una discussione sulla frenologia con cinque colleghi, tra la sua vasta collezione di teschi e teste modello

Questa sua dottrina, quantunque impostata su ben più vaste conoscenze del cervello, del sistema nervoso e delle facoltà psichiche, si riallaccia all’antica teoria della fisionomia (detta anche fisiognomica e fisionomia) secondo la quale le caratteristiche psichiche di ciascun individuo sarebbero state desumibili dalla sua somiglianza con questo o quell’animale (il coraggioso somigliava al leone, il furbo alla volpe ecc.).
Gall certamente conosceva la tradizione fisiognomistica, rappresentata da numerosissimi trattati medievali in greco e in latino e soprattuto, in epoca moderna, dagli studi di Petrus Camper.

La tavola illustra le presumibili localizzazioni delle funzioni psichiche secondo Gall, fondatore della frenologia. Questa dottrina è assolutamente priva di ogni fondamento scientifico, ma in essa una notevole parte della cultura del tempo, specialmente inglese, credette fermamente, almeno per qualche tempo. Non si deve, tuttavia, credere che Gall fosse semplicemente un esaltato o un ciarlatano. Compì anche studi serissimi e diede contributi notevoli alla conoscenza del sistema nervoso, come, per esempio, la chiara e netta distinzione della sostanza bianca dalla sostanza grigia.
(I numeri si riferivano ai passi in cui Gall analizzava i vari «bernoccoli»).