Alieni: dove sono tutti quanti?



| introduzione |
|questione di probabilità- equazione di Drake – la scala Kardashev |
| perché non li vediamo | come li stiamo cercando |
| cosa dice la scienza | sono tra noi?|
| conclusione |



Se l’universo brulica di alieni… dove sono tutti quanti? Se ci sono 400 miliardi di stelle nella sola Via Lattea, e forse 500 miliardi di galassie nell’Universo, è ragionevole pensare che là fuori – 14 miliardi di anni dopo il Big Bang – esistano o siano esistite altre civiltà, avanzate almeno quanto la nostra.

Allora perché non abbiamo mai incontrato, se non specie aliene in carne e ossa, almeno qualche loro messaggio, artefatto o traccia? E’ questa la domanda che il premio Nobel Enrico Fermi pose.

Sono tra noi? Si nascondono in qualche galassia lontana? Ci sono già venuti a trovare?

Ammesso che le eventuali civiltà extraterrestri abbiano più o meno le nostre conoscenze o conoscenze più avanzate, cercheranno di mandarci segni della loro esistenza usando le radioonde. Inoltre, poiché fra le radioonde una delle più studiate è la riga di 21 centimetri dell’idrogeno, potrebbero scegliere proprio questa lunghezza d’onda per avere una maggiore probabilità che un osservatore terrestre si accorga di segnali modulati.
Eppure nulla.

A questo punto non vi aspettate che io vi faccia la solita elencazione sugli avvistamenti, Roswell, area 51, rapimenti, testimonianze, ecc.ecc..



Questione di probabilità

La ricerca di intelligenze extraterrestri basata su argomenti scientifici è cominciata verso la fine degli anni ’50.
Si conoscevano ormai abbastanza bene i meccanismi di formazione ed evoluzione delle stelle, per poter affermare che la formazione di un sistema planetario doveva essere un fenomeno comune. Inoltre, la tecnica radioastronomica era già abbastanza sviluppata per poter captare eventuali segnali radio emessi da altre civiltà distanti qualche decina di anni luce.

Attualmente l’esistenza della vita nell’universo è garantita soltanto dall’immensità dell’Universo, per motivi strettamente probabilistici.

Con 10 miliardi di (presunti) pianeti abitabili soltanto nella Via lattea e miliardi di galassie nell’Universo, è mai possibile che la vita si sia sviluppata solo su questo insignificante puntino roccioso che è la Terra? Se così fosse, per dirla con Carl Sagan“sarebbe davvero un enorme spreco di spazio”.

Equazione di Drake

Se vogliamo davvero parlare di scienza, e non di fantascienza, bisogna farsi coraggio e cominciare dalla matematica. E in particolare dall’equazione di Drake, una formula di tipo probabilistico formulata nel 1961 dall’astronomo statunitense Frank Drake e usata per stimare il numero di civiltà extraterrestri esistenti e in grado di comunicare nella nostra galassia.

N = R fp ni fv fi fc D

Dove: (N) è il numero delle civiltà presenti oggi nella Via Lattea, (R) è il tasso medio di formazione delle stelle durante tutta la vita della Via Lattea, e che si ottiene dividendo il numero di stelle galattiche (circa 300 miliardi) per l’età della Galassia (circa 15 miliardi di anni), (fp)) rappresenta la frazione di stelle con un sistema planetario, (ni) il numero di pianeti, in ciascun sistema, in condizioni adatte allo sviluppo della vita, (fv) la frazione di pianeti adatti in cui la vita si sviluppa effettivamente e si evolve verso forme molto complesse, (fi) la frazione di questi pianeti su cui si sviluppano forme di vita intelligente, (fc) la frazione di questi in cui le forme di vita intelligente sviluppano interesse per le comunicazioni interstellari, (D) la durata media di una civiltà tecnologicamente avanzata.

Il fattore (fc) dipende estremamente dalla durata di vita di una civiltà nel rimanere comunicativa utilizzando radiazioni elettromagnetiche, ovvero la frazione di quelle civiltà che possono inviare segnali elettromagnetici nello spazio per comunicare per un periodo di vita abbastanza lungo.

Detta in parole povere la equazione di Drake è un calcolo basato sulla probabilità del numero di stelle nella Via Lattea, il numero di pianeti che può ospitare un sistema solare, se questi pianeti sono nelle condizioni di favorire la vita, l’intelligenza, la capacità di sviluppare tecnologia, quante civiltà si sono estinte, la durata media di una civiltà.

Le ultime scoperte di pianeti extrasolari hanno però rivelato che probabilmente i pianeti sono molto più diffusi di quanto si potesse immaginare 50 anni fa di cui bisogna tenere conto.

E’ evidente che si possono inserire dati solamente probabilistici, diciamo a casaccio o secondo l’ottimismo o pessimismo.
Per esempio con R=20, fp=0,2, ni=fv=fi=1, fc=0,01, D=10.000
Si ha N=600.
Cioè nella Galassia esisterebbero 600 civiltà in grado di comunicare con noi.
E’ altrettanto plausibile mettere i fattori fv=fi=0 per avere N=0 per dire che non esistono civiltà aliene nella nostra Galassia.

E’ anche altrettanto vero che l’inserimento dei dati possono essere ottimistici o pessimistici. Mettendoci nel mezzo si può tranquillamente passare da 1 milione a 600.000, da 50 a 1.

La scala Kardashev

Successivamente Kardashev, astronomo sovietico, formulò una scala, che porta il suo nome, basandosi sull’energia che ciascuna specie sarebbe stata teoricamente in grado di immagazzinare.

Kardashev I
Il primo livello di questa scala viene raggiunto quando una data civiltà riesce a massimizzare tutto il potenziale energetico presente sul proprio pianeta di origine. La civiltà umana sarebbe pertanto una civiltà ancora di “Tipo 0”, in quanto utilizzerebbe solo una frazione dell’energia totale disponibile sulla Terra.

Kardashev II
Passando al secondo livello della scala Kardashev, si trovano quelle civiltà che sono in grado di catturare interamente l’energia prodotta dalla stella del proprio sistema solare.

Kardashev III
L’ultimo grado della scala Kardashev è ottenuto da quelle civiltà che sono in grado di sfruttare appieno il livello di energia fornito dalla propria galassia.



Perchè non li vediamo, perché non li sentiamo?

La equazione di Drake in fin dei conti ci dice che comunque la pensiamo ci sono forti probabilità di vita nell’universo anche se non quantizzabile. Le condizioni fondamentali sono la presenza dei pianeti nella fascia orbitale non tanto calda e non tanto fredda. Se poi gli elementi sulla Terra sono gli stessi nell’universo è ragionevole pensare che la vita si sia sviluppata su altri pianeti.
Il problema sta nel capire se ci sono civiltà intelligenti e qual’è il loro grado di civiltà. La risposta al perchè non siamo riusciti ancora a scoprire la loro presenza sta proprio nei fattori della stessa equazione di Drake e nella prima scala di Kardashev .

  1. Pianeti in cui non si è ancora sviluppata la vita.
  2. La vita è in fase di evoluzione.
  3. La intelligenza si è bloccata al pari dei nostri animali.
  4. Basso grado di civiltà.
  5. Mancanza di risorse economiche.
  6. Interesse alle comunicazioni interstellari
  7. Sviluppo di tecnologie per comunicazioni interstellari.
  8. Potenza energetica necessaria ad inviare messaggi nell’universo.
  9. Tecnologia per intraprendere viaggi interstellari.
  10. Capacità a gestire viaggi intergalattici per migliaia, milioni di anni.
  11. Non sono mai partiti. Sono ancora per strada. Non sono ancora arrivati.
  12. Civiltà estintesi anzitempo per fattori interni.
  13. Civiltà estinta per esaurimento per la durata della vita media della specie.

Soffermiamoci un attimo su alcuni punti appena elencati.
9). Le astronavi devono possedere propulsori adatti per viaggi nello spazio per esempio ad antimateria. Le astronavi devono possedere quella energia per garantire velocità sufficientemente elevate ma nettamente inferiori alla velocità della luce (per andare alla velocita prossima alla luce viene richiesta energia infinita). Scordatevi i Wormhole, per ora è solo roba per la fantascienza. Conoscenza approfondita di mappe interstellari.
10). La prima domanda da porsi è qual’è il fine di questi viaggi? Un pianeta che ha esaurito le materie prime, le fonti di alimentazioni, la fine prossima della loro stella?
Questi viaggi che richiedono migliaia e forse milioni di anni luce richiedono un alto livello di organizzazione sociale. E’ necessario garantire le nascite di un numero inimmaginabile di generazioni, educazione, istruzione, compiti. Il mantenimento dell’ordine sociale e il benessere mentale, fisico e di salute per viaggi così lungi.
Va aggiunta la produzione dei generi alimentati. la generazione di aria per respirare. La necessità di disporre di materia prima nuova sfruttando le risorse dei pianeti di passaggio.

Ma la domanda regina è cosa vengono a fare sul nostro pianeta Terra?
Se sono tra noi una cosa è certa, non sono venuti per annientarci, lo avrebbero già fatto. Allora? Sono venuti per un tour turistico? Per approvvigionarsi di materie prime? E se si sono mescolarsi tra noi perché non li riconosciamo? Che noi siamo gli eredi degli alieni che stiamo cercando?

I dubbi
Se per un attimo consideriamo valide le testimonianze dei numerosi avvistamenti Ufo, ci domandiamo perché non escono allo scoperto? Non vogliono farsi notare, ma poi stupidamente se ne vanno in giro di notte con le quattro luci accese. Come è possibile che civiltà così tecnologicamente evolute vengono a schiantarsi sul nostro pianeta. Come mai non hanno recuperato i loro corpi morti e le navicelle precipitate sulla Terra (quelle che presumibilmente sono nella famigerata area 51). Perché si fanno fotografare accanto ai nostri aerei. Perché gli avvistamenti sono più numerosi in prossimità di siti nucleari? O sono solo frutto di nostre illusioni?

Dal momento che non è possibile viaggiare nello spazio per milioni di anni in piccole navicelle, ci domandiamo dove sono le astronavi madri. Né radar, telescopi, e satelliti in orbita le hanno individuate pur avendo scandagliato a fondo il nostro sistema solare. Ma si fanno notare nella nostra atmosfera.
A questo va aggiunto le innumerevoli flotte di astronavi avvistate, dalla più svariata e stravagante forma: a disco (quella classica), a sigaro cubano, piatti da dessert, siluro, a cappello dei preti, sferiche, palle infuocate. Questo farebbe pensare che c’è più di una civiltà aliena interessata al nostro pianeta, ma se ne stanno buone lì ad osservarci come se fossimo un giardino zoologico spaziale.
Poi ogni tanto rapiscono un essere vivente per studiarlo, e lo rilasciano inspiegabilmente, così lo raccontano in giro.

Qualcuno dice che sono tra noi per salvare il pianeta. A conti fatti mi pare che non ci sono riusciti. Altri dicono che sono in contatto con i nostri governanti. Allora perché non approfittare magari per insegnarci a viaggiare nello spazio mentre noi perdiamo tempo con i nostri rudimentali missili a propulsione, le rudimentali navicelle spaziali? Potrei continuare all’infinito, ma credo di aver reso bene l’idea.



Come li stiamo cercando?

Qualunque sia il numero di civiltà presenti nella nostra galassia, esse devono essere almeno del tipo Kardashev I capaci di avere abbastanza energia per fare arrivare messaggi fino a noi.

Sostanzialmente cerchiamo gli alieni in due modi. Il primo, quello più diretto, è quello che prevede di scandagliare il cielo nell’attesa (nella speranza) che ci giungano dei segnali radio.
L’altro metodo prende la questione più alla larga. Anziché sperare di intercettare messaggi degli alieni, si cerca di scovare i posti in cui la vita potrebbe svilupparsi e proliferare. Ovvero dei pianeti simili alla Terra, vicini a stelle simili al Sole e che si trovino in sistemi simili al Sistema solare. Per esempio, Proxima b, un corpo roccioso che orbita intorno alla stella più vicina al nostro Sole: Proxima Centauri. a soli 4,3 anni luce.


Cosa dice la scienza

A confondere le idee ci si è messo il presidente Obama che, pressato sull’argomento, in una intervista rilasca una inopportuna dichiarazione: “Oggetti volanti non identificati, esistono ma non sappiamo cosa siano” gettando nello sconcerto la opinione mondiale.

Questo ha costretto la ‘intelligence statunitense’ ad uscire allo scoperto che parla molto chiaro.

Non ci sono prove di tecnologia aliena nei fenomeni aerei non identificati registrati dai militari negli ultimi venti anni. Anche se senza spiegazione, potrebbero avere un’origine molto terrestre

Tanto che la definizione di UFO ( Unidentified Flying Object, oggetti volanti non identificati) viene mutata in Uap, (Unidentified Aerial Phenomena, fenomeni aerei non identificati)

In pratica. Nessuna evidenza di veicoli alieni a spasso per il nostro pianeta: i funzionari dell’intelligence statunitense non hanno trovato alcuna prova che gli almeno 120 fenomeni aerei non identificati testimoniati dai piloti militari negli ultimi vent’anni abbiano origine o provenienza extraterrestre, ma non sono ancora in grado di spiegarne le traiettorie, le accelerazioni o le dinamiche di volo.

Insomma, nessuno sbarco di marziani o altri visitatori extraterrestri, almeno a giudicare dalle prove raccolte finora. Il cui numero, a onore del vero, è aumentato negli anni più recenti favorito dalla risonanza data dai media che favorisce le visioni.

In Italia il Cicap (il Comitato italiano per il controllo delle affermazioni sulle pseudoscienze) fa delle considerazioni più verosimili.

Dal punto di vista militare, la situazione è delicata: sarebbe un segno di debolezza ammettere, senza poter reagire, che droni di altre potenze sorveglino le proprie navi o violino uno spazio aereo di addestramento. Abbatterli innescherebbe invece un incidente diplomaticoMotivo per cui è sempre stato più conveniente far credere si trattasse di ufo*, o almeno non smentire chi ne fosse convinto. Da* Roswell in poi, c’è una ricca tradizione in questo senso. Spesso gli incidenti militari sono stati coperti lasciando credere si trattasse di qualche intrusione extraterrestre, in modo da evitare che indagini più approfondite scoprissero attività poco convenienti o semplicemente un’operazione segreta”.

Insomma, una ragione fin troppo terrestre e non extraterrestre.

Sono stati tra noi?

alieni2

Molte sono le testimonianze di presenze aliene nelle incisioni rupestri risalienti ad ere preistoriche, in civiltà come i Sumeri, Egizi, civiltà dell’India antica e civiltà precolombiane, ritrovamenti di oggetti raffiguranti presunti astronavi, racconti di presenze aliene nei poemi epici. Poi c’è tutta una letteratura su siti archeologici che ipotizzano la presenza di alieni (Mohenjo Daro, Tiahuanaco, Baalbek, GobekliTebe, Xochicalco). Perfino un’influenza aliena nello sviluppo della civiltà e della specie umana. E poi c’è la famosa area 51.

Queste teorie, diffusesi a partire dalla metà del XX secolo, non sono comunemente accettate dalla totalità della comunità scientifica e pertanto sono generalmente inquadrate nel più vasto e controverso campo pseudoscientifico della cosiddetta archeologia misteriosa o pseudoarcheologia.


Conclusione

La ricerca scientifica della vita extraterrestre è affidata al Seti (Search for Extra-Terrestrial Intelligence – Ricerca di Intelligenza Extraterrestre) . Per mezzo secolo gli scienziati del SETI hanno fatto solo questo: ascoltare, in attesa di segnali dal profondo dello spazio, usando enormi radiotelescopi.

I risultati sono deprimenti.
L’astrofisico Michael Hart, nel 1975 ha pubblicato un lavoro intitolato “Spiegazione dell’assenza di extraterrestri sulla Terra”, e il matematico Frank Tipler, autore di un saggio dal titolo ancora più esplicativo, “La vita extraterrestre intelligente non esiste”

Il fatto che le ricerche SETI non abbiano prodotto nulla di molto interessante fino ad ora non è di per sé causa di disperazione.

Nei prossimi dieci anni la NASA avvierà almeno un paio di missioni e nuovi telescopi verranno messi in uso (l’ultimo in ordine di tempo è il telescopio Webb). Forse questo è un momento di svolta per le probabilità di poter assistere nell’arco della nostra vita alla scoperta di forme di vita extraterrestre

Ovviamente ognuno è libero di farsi una propria opinione. Non ci sono prove concrete alla presenza di alieni in epoca preistoria come in quella attuale, ma è altrettanto vero che non ci sono prove concrete che le smentiscono.

homeansa Ritorna a
Misteri
homeansa Ritorna alla
Home Page

Pubblicato in Alieni, Attualità, Cosmologia, I misteri dell'universo, Scienza, Società, Ufo | Contrassegnato , | Lascia un commento

Velocità della luce, facile



| relazione, massa, velocità, energia | cosa dice la relatività ristretta |
| calcolo della velocità della luce | tachioni |
| anno luce | un po’ di storia |

299 792 458 m / s



Relazione tra velocità, massa e energia

Molti siti che trattano l’argomento iniziano a parlare della velocità della luce partendo dalla sua storia (io la farò in appendice). A me piace entrare subito nell’argomento.

Ho trovato interessante il ragionamento trovato per caso su un giornale on line che non è scientifico, che mi permetterà di rendere bene l’idea.
Immaginate di correre, partendo da fermi. Inizialmente aumentare la propria velocità è un gioco da ragazzi. Per arrivare a 5 km/h basta semplicemente camminare. Man mano che la velocità cresce, però, diventa sempre più difficile aumentarla ancora. È necessario un bello sforzo per passare da 20 a 25 km/h (ammesso di arrivarci), molto più di quello necessario per passare da 0 a 5 km/h.
Non importa quanto talento, allenamento ed energia ci mettiamo: esiste una velocità limite oltre la quale l’uomo non può correre per via delle caratteristiche strutturali del suo fisico.
Questo ragionamento vale per gli animali, le automobili e anche per la più veloce astronave.

Bene, fatta questa considerazione, immaginiamo la nostra ipotetica astronave che viaggia nello spazio e la vogliamo spingere fino alla velocità della luce e anche oltre.
E’ noto a tutti la famosa formula di Einstein:

Formula 1

Dove ‘E’ è la energia, ‘m’ la massa, ‘c’ la velocità della luce.

Ora quando si viaggia a grandi velocità si entra nel campo della relatività ristretta. Senza andare troppo per le lunghe diciamo che questa formula viene modificata aggiungendo un fattore, chiamato “fattore di Lorenz”.
Per cui la formula di Einstein diventa:

Formula 2
limite2

Si dimostra facilmente che per v=c (c è la velocità della astronave), v/c=1, la radice va a zero e la frazione a infinito.

Quindi:

LimiteEnergia

In altre parole, per accelerare la nostra navicella spaziale a velocità uguale o superiori alla luce, serve una quantità infinita di energia.

Questo ci porta a dire e confermare che la velocità della luce ha un limite finito impossibile da raggiungere perchè occorrerebbe una energia infinita.

In realtà ci sono oggetti molto leggeri con massa praticamente nulla che possono raggiungere velocità elevate prossime alla velocità della luce. Il fotone, che è il costituente della luce stessa viaggia, appunto, a velocità “c”.



Cosa dice la relatività ristretta

Faccio in passo indietro alla massima velocità che un essere vivente può raggiungere. Per esempio Marcel Jacobs può raggiungere i 43 km/h, mentre un ghepardo può raggiungere i 120 Km/h. Le velocità relative portano ad un velocità di 163 km/h. Vediamo cosa succede a un fotone e un elettrone che viaggiano entrambi alla velocità della luce, ovvero v1=v2=c.

Dalla relatività ristretta va rispettata questa uguaglianza.

Ore se sostituiamo v1=v2=c ecco quello che succede:

Ovvero nella relatività ristretta vr = v1+v2 = c+c = c, e non vr = 2c.
La velocità della luce è una costante e non si può superare.



Calcolo della velocità della luce

La velocità di propagazione del suono dipende dal mezzo che attraversa. Non sfugge a questa regola anche la luce che al contrario non ha bisogno di un mezzo come l’aria per propagarsi. La luce essendo contemporaneamente particella ed onda, la sua velocità nel propagarsi nello spazio dipende dal campo elettromagnetico che attraversa.

Partendo dalle equazioni di Maxwell e lasciando perdere i passaggi matematici, da queste si può ricavare la velocità della luce.

Velocità della luce nel vuoto

Dove co è la velocita della luce nel vuoto ed i termini al denominatore sono rispettivamente la permettività elettrica e la permettività magnetica nel vuoto.
µ0 : la permeabilità magnetica nel vuoto. (µ0 = 1.2566*10-6 m*kg/coulomb2)
ε0 : la costante dielettrica nel vuoto (ε0 =8.85*10-12 coulomb2/N*m2).

Con semplici calcoli si ricava:
c0 = 1/3,33563E-09 = 299.792.458. (calcolo che ho eseguito personalmente con excel)

La velocità della luce bisogna accettarla e basta perché le permettività sono delle costanti universali.


Oggi c non è più un valore che misuriamo: abbiamo scelto noi – o meglio la diciassettesima Conferenza Generale dei Pesi e delle Misure, nel 1983 – che il suo valore è 299.792.458 metri al secondo, esatti, senza virgole e senza incertezze.



Tachioni

Ora facciamo un giochino. Se guardate la formula 2 essa ci dice che a velocità prossime alla luce la massa ‘m’ è legata alla massa a riposo m0 tramite il fattore di Lorenz e viene chiamata massa relativista.

Formula 3

Dal momento che è una semplice espressione matematica nulla mi vieta di considerare v>c.
v2/c2 diventa maggiore di uno e il denominatore diventa la radice quadrata di un numero negativo (numero immaginario), ovvero la massa relativista diventa immaginaria.

Detta in altre parole, nel momento in cui la massa raggiunge la velocità delle luce diventa improvvisamente immaginaria facendo comparire le famose particelle “virtuali” chiamate tachioni, di massa immaginaria per l’appunto, che viaggerebbero indisturbate nell’universo a massa immaginaria ‘non infinita’ ad energia negativa.

Questa è una conseguenza della relatività ristretta in quanto il tachione, in teoria, per v>c ha una massa che elevata al quadrato “passa di colpo” a valori negativi.



Anno luce

L’anno luce o light year (ly o al) non è, contrariamente a quello che farebbe pensare il suo nome, una unità di misura del tempo: è invece un’unità di misura della lunghezza.

Anno luce: definizione
L’anno luce è definito come la distanza percorsa da un fotone (dalla luce, cioè una radiazione elettromagnetica) nel vuoto in assenza di campo gravitazionale o magnetico, nell’intervallo temporaneo di un anno giuliano (equivalente a 365,25 giorni, mediamente di 86 400 secondi ciascuno, in totale corrispondenti a 31 557 600 secondi).

Anno luce: a quanti km equivale?
Poiché la velocità della luce nel vuoto è pari a 299 792,458 chilometri al secondo (km/s), un anno luce corrisponde a…

299\,792\,,458\ {\mathrm  {km/s}}\cdot 365{{,}}25\ {\mathrm  {d}}\cdot 86\,400\ {\mathrm  {s/d}}\approx 9{{,}}461\cdot 10^{{12}}\ {\mathrm  {km}}

vale a dire 9 460 730 472 581 chilometri, che corrispondono a ben 63 241 volte la distanza fra la Terra e il Sole (nota come “unità astronomica”). La luce è quindi decisamente… veloce, riuscendo a percorrere nel vuoto quasi 9500 miliardi e mezzo di km in un anno.

Altre misure usate in astronomia
Un’altra unità dello stesso ordine di grandezza spesso utilizzata dagli astronomi è il parsec, che corrisponde a circa 3,26 anni luce. Altre unità di misura delle lunghezze accomunate con l’anno luce sono il minuto luce (pari a 17 987 547 480 metri), il secondo luce (pari a 299 792 458 metri), e così via; esse sono ottenute considerando la distanza percorsa dalla luce in una certa unità di tempo.

Ricapitolando:

  • 1 UA = 150 milioni di chilometri = distanza Terra-Sole1
  • anno luce = 63.067 UA = 9.460.000.000.000 di chilometri1
  • parsec = 3,26 anni luce = 205.597 UA = 30.840.000.000.000 (30.840 miliardi) di chilometri.

Alcuni esempi e curiosità

  • La luce impiega circa 1,28 s per coprire la distanza che separa la Terra dalla Luna.
  • In una scala in cui la Terra avesse un diametro di 1 cm, un anno luce corrisponderebbe a una distanza di 7 423,80 chilometri.
  • La luce impiega circa 8,33 minuti per viaggiare dal Sole alla Terra.
  • Un’ora luce corrisponde a circa 1,08 miliardi di chilometri (circa la distanza tra il Sole e Saturno).
  • Plutone è a circa 39 UA dalla Terra, il che significa che è a circa 5,4 ore (5 h 24 min) luce dalla Terra.
  • La stella più vicina alla Terra (escluso il Sole), Proxima Centauri, dista 4,23 anni luce dalla Terra.
  • Il disco della nostra galassia, la Via Lattea, ha un diametro di circa 100 000 anni luce.
  • La più vicina galassia di grandi dimensioni, la galassia Andromeda, si trova a una distanza di 2,5 milioni di anni luce.
  • Il Gruppo Locale ha un diametro di circa 10 milioni di anni luce.
  • Il quasar più vicino alla Terra (3C 273) si trova a circa 3 miliardi di anni luce.
  • Alla velocità attuale di circa 61 000 km/h la sonda Voyager I lanciata nel 1977, percorrerà la distanza di 1 anno luce in circa 17 700 anni.
  • Poiché si calcola che il Big Bang sia avvenuto circa 13 820 000 000 di anni fa, l’Universo osservabile, supposto sferico, ha un raggio di circa 13 820 000 000 anni luce.


Un po’ di storia

Si è ritenuto a lungo che la luce avesse una velocità infinita. L’esperienza quotidiana sembrerebbe confermarlo: appena si accende una lampada, la luce inonda all’istante lo spazio. Tuttavia, già nel XVII secolo l’astronomo danese Ole Rømer ipotizzava che la luce avesse una velocità enorme, ma non infinita.

Prima di lui si era cimentato anche Galileo Galilei, ma senza successo. L’esperimento di Galileo prevedeva di porre due lanterne a una distanza di un miglio e di calcolare il tempo che la luce impiegava ad arrivare da un punto all’altro.
L’esperimento non portò a nessun risultato: per percorrere un miglio, la luce impiega circa 0,000005 secondi, un valore immisurabile con gli strumenti a disposizione di Galileo.

Se però le distanze da far percorrere alla luce diventano più ampie, una misurazione è possibile anche con strumenti meno sofisticati. È proprio quanto fece Rømer nel 1676 osservando il moto di Io, una delle lune di Giove..

 Rømer, che aveva un valore impreciso del diametro dell’orbita terrestre, calcolò la velocità della luce in 220.000 km al secondo, una misura non corretta ma certamente la più precisa mai misurata fino ad allora.

Rømer comunicò la sua scoperta alla Accademia delle Scienze e la notizia venne poi pubblicata il 7 dicembre 1676, data che viene oggi comunemente ricordata come quella della prima determinazione della velocità della luce.

Ritorna a
Fisica e Astrofisica

Ritorna a
Home page

Pubblicato in Astrofisica, Astronomia, Attualità, Fisica, Scienza | Contrassegnato | Lascia un commento

I buchi neri, facile

| introduzione | un po’ di storia | il buco nero cos’è, come si forma |
| proprietà fisiche dei buchi neri |
| classificazione dei buchi neri | l’orizzonte degli eventi |
| forma dell’orizzonte degli eventi | cosa c’è dentro un buco nero |
| la radiazione di Hawking | oltre i buchi neri |



I buchi neri sono corpi celesti massivi, talmente massivi il cui campo gravitazionale è così intenso da non lasciare sfuggire né la materia, nè tutto ciò che gli capita a tiro. Nemmeno la radiazione elettromagnetica, la luce.
FINE

Vabbè che faccio, finisco qui? Certo che no.

Anche se i buchi neri non sono stati mai osservati direttamente la loro esistenza è stata rilevata dagli effetti che producono sullo spazio circostante.
La loro esistenza è credibile perché questi corpi sono previsti dalla relatività generale di Einstein formulata nel 1915.



Un po’ di storia

La prima soluzione delle equazioni di Einstein che descrive un buco nero fu trovata dall’astronomo tedesco Karl Schwarzschild sempre nel 1915 e per molto tempo si pensò che non avesse significato fisico. Nel 1939, invece, Robert Oppenheimer e Hartland Snyder mostrarono con calcoli teorici che una nube di gas, contraendosi a causa dell’attrazione gravitazionale, forma un buco nero.

Solo negli anni Sessanta le osservazioni astronomiche e gli studi teorici mostrarono che la vita di una stella di massa sufficientemente grande può culminare in una esplosione e nel successivo collasso della sua parte più interna.



Buco nero: cos’è e come si forma

In teoria un buco nero è ciò che resta di una Stella molto grande, caratterizzata da una massa dieci volte superiore a quella del Sole, che a fine del suo ciclo vitale si contrae, aumenta la sua densità e crolla sotto il proprio peso concentrando la propria massa in un unico punto detto, appunto, buco nero.

“Detta in maniera più scientifica la deformazione dello spaziotempo dovuta ad una massa così densa è tale che la luce subisce, in una simile situazione limite, un redshift gravitazionale infinito. In altre parole, la luce perde tutta la sua energia cercando di uscire dal buco nero e finisce per caderci dentro”.

Come giganteschi ‘imbuti cosmici’, i buchi neri ‘divorano’ la materia che li circonda, risucchiandola. Quando questo accade, la materia raggiunge temperature altissime ed emette raggi X. E’ attraverso questi segnali che è possibile accorgersi dell’esistenza di un buco nero.

I buchi neri non sono visibili direttamente, perché neanche la luce può sfuggire loro. Il buco nero, non essendo in grado di emettere radiazione, non può essere visto essendo totalmente oscuro. In pratica apparirà come una sfera nera nello spazio.

Le osservazioni astronomiche indicano che al centro di molte galassie, inclusa la nostra, si trovano buchi neri giganteschi: hanno massa di milioni (o centinaia di milioni) di volte maggiore di quella solare, e si sono formati e ingranditi catturando gas e stelle.



Proprietà fisiche dei buchi neri

I modelli matematici derivabili come soluzioni dell’equazione di campo della relatività generale si riconducono a quattro tipi di buchi neri.

1) – Buco nero di Schwarzschild. sono i buchi neri più semplici, sono caratterizzati da una massa M e dall’assenza di carica elettrica J. Sono anche piuttosto improbabili nella realtà, poiché un oggetto dotato anche di una minima rotazione una volta contratto in buco nero deve aumentare enormemente la sua velocità angolare in virtù del principio di conservazione del momento angolare.
2) – Buco nero di Kerr. Deriva da oggetti rotanti e privi di carica elettrica, caso che presumibilmente corrisponde alla situazione reale. Buco nero risultante dal collasso di una stella in rotazione nel quale la singolarità non è più un punto, ma assume la forma di un anello a causa della rotazione.
3) – Buco nero di Kerr-Newman. Riguarda la situazione in cui si ha sia rotazione sia la carica elettrica ed è la soluzione più generale.
4) – Buco nero di Reissner-Nordström. È il caso di un buco nero dotato di carica elettrica ma non rotante.



Classificazione dei buchi neri

I buchi neri vengono classificati in base alla loro massa M, indipendentemente dal loro momento angolare Q (rende conto della rotazione nello spazio di un corpo massivo).
1) – I buchi neri supermassicci sono i più grandi tipi di buchi neri caratterizzati da una massa milioni di volte superiore rispetto a quella del Sole.
2) – I buchi neri di massa intermedia si trovano al centro degli ammassi stellari. Hanno massa di circa mille masse solari. L’origine di questa tipologia di buchi neri è incerta: alcuni studiosi affermano che essi si siano formati in seguito al collasso gravitazionale di una stella, altri studi li ritengono il risultato della collisione di stelle massicce in ammassi stellari.
3) – I buchi neri stellari, come la maggior parte dei buchi neri, sono caratterizzati da tre grandezze fondamentali: massa (circa trenta volte superiore rispetto a quella del Sole), carica e momento angolare. Questa tipologia di buchi neri ha origine dal collasso gravitazionale di una Stella massiccia.
4) – I micro buchi neri sono anche chiamati buchi neri microscopici e sono caratterizzati da una massa circa uguale a quella del Sole. I micro buchi neri tendono ad evaporare velocemente a causa della loro piccola dimensione mediante un processo noto come radiazione di Hawking. Tale processo porta all’improvvisa emissione di particelle elementari nel momento in cui il buco nero improvvisamente esplode.



Perché anche la luce non sfugge ad un buco nero, l’orizzonte degli eventi

2022-01-03_19h01_35

Se lanciamo una palla da baseball in aria, per quanta velocità gli diamo, cadrà sempre per terra. Per mandarla fuori dalla atmosfera bisogna vincere l’attrazione gravitazionale della Terra. In altre parole è necessario imprimere una velocità limite oltre la quale la pallina sfugge alla attrazione terrestre. Questa velocità viene chiamata velocità di fuga e sulla terra è di 11,2 metri al secondo (circa 40,320 km/h) data dalla formuletta accanto. Dove G e’ la costante di gravitazione universale, M ed R sono la massa ed il raggio del pianeta. 

Questo significa cha a parità di massa M, Vf aumenta se il raggio del corpo diminuisce, quindi ci sarà un valore del raggio, che indicheremo con RS, per cui la velocità di fuga diventa uguale a quella della luce.
Se un oggetto celeste ha raggio inferiore a RS, neanche un segnale luminoso potrà essere inviato dalla sua superficie verso il mondo esterno, e quindi sarà letteralmente nero, un buco nero.

La superficie di raggio RS è l’orizzonte degli eventi.
L’orizzonte degli eventi è pertanto una superficie immaginaria caratterizzata dal fatto che in ogni suo punto la velocità di fuga e la velocità della luce si equivalgono.

Per completare il discorso va aggiunto che secondo la fisica teorica, affinché un corpo possa essere definito buco nero, il suo raggio deve essere inferiore al raggio di Schwarzschild. Rs = 2MG/c2. Dove c è la velocita della luce.



La forma dell’orizzonte degli eventi 

2022-01-04_20h34_23

La forma dell’orizzonte degli eventi è pressoché sferica e la sua posizione è fortemente influenzata dalla massa del buco nero: se la massa è il doppio di quella del Sole, il raggio della regione invisibile è circa 6 km.

Inoltre, se un raggio di luce passa abbastanza vicino all’orizzonte degli eventi, ma comunque al di fuori di esso, il raggio viene incurvato a causa dell’attrazione del campo gravitazionale del buco nero riuscendo a proseguire il suo percorso. Se invece entra all’interno dell’orizzonte degli eventi non potrà più uscire.



Cosa c’è dentro un buco nero? Che fine fanno gli oggetti che cadono nel buco nero?

Per scoprire cosa c’è dentro un buco nero bisognerebbe andarci dentro. Il fatto è che una volta entrati si viene stritolati, tutto quello che vi entra non ne esce più fuori.

Al centro di un buco nero, come descritto dalla relatività generale, si trova una singolarità gravitazionale, a temperatura e pressione infinita. Una regione in cui la curvatura dello spaziotempo diventa infinita.

La regione singolare ha volume pari a zero. Si può dimostrare che la regione singolare contiene tutta la massa del buco nero. La regione singolare può quindi essere pensata come avente densità infinita.

Dato che la singolarità è infinitamente piccola (nulla), non può avere una struttura. Perciò essa non può contenere alcuna informazione. Tutti i dati fisici relativi a eventuali particelle che rimangono intrappolate dal buco nero vanno persi per sempre.

Questa era la visione su cui si è basata da circa trenta anni l’astrofisica dei buchi-neri. Il punto è che la teoria dei quanti, che descrive lo spazio e la materia su scale atomiche, contraddice questa visione.
La teoria quantistica afferma che ogni processo fisico può evolvere al rovescio. Perciò le condizioni iniziali possono essere derivate dalle condizioni finali. Questo in parole povere significa che anche un buco nero può immagazzinare l’informazione dei processi fisici che rimangono intrappolati in esso.

Per superare questa contraddizione il famoso scienziato Stephen Hawking propone al suo posto un “orizzonte apparente“, in grado di bloccare la materia e l’energia solo temporaneamente, per rilasciarla poi in maniera più confusa.



La radiazione di Hawking

I buchi neri non sono immortali – dice Stephen Hawking – ma perdono particelle (e quindi massa), per colpa di una stranezza quantistica chiamata ”radiazione di Hawking“.
L’ingrediente principale della radiazione di Hawking non sarebbe costituito dal buco nero in sé, ma dalla curvatura dello spazio-tempo associata al suo “orizzonte degli eventi”.

In poche parole i buchi-neri “evaporerebbero” lentamente nello spazio circostante emettendo particelle nella regione dell’orlo, per così dire, del profondo precipizio gravitazionale favoriti dalla nuova idea dell’orizzonte degli eventi. Il buco-nero, alla fine di questo processo di evaporazione, finisce per diventare un piccolo nocciolo da cui fuoriesce radiazione, chiamata “radiazione di Hawking”, che potenzialmente porta con sé l’informazione in essa contenuta.

I buchi-neri non distruggono completamente la materia che vi rimane intrappolata. Piuttosto, i buchi-neri continuano a emettere radiazione per lunghi periodi di tempo e alla fine si “scoprono”, per così dire, rivelando l’informazione contenuta nella materia rimasta intrappolata in essi. Materia ed energia vengono alla fine rimessi dai buchi-neri in una altra forma alterata di materia ed energia. Tutto questo è stato dimostrato dallo stesso Hawkinb.



Oltre i buchi neri, il buco di tarlo

I buchi di tarlo sono un cunicolo, ovvero una specie di scorciatoia che permetterebbe di viaggiare da una parte all’altra dell’universo attraverso le pieghe dello spazio e del tempo superando i limiti imposti dalla velocità della luce.
Chiamati anche wormhole o più precisamente ponti di Einstein-Rosen sono contemplati nella teoria della relatività generale di Einstein, la stessa che ha contemplato i buchi neri.

L’idea è che ciò che entra in buco nero può poi uscire in una parte completamente diversa dell’universo. I buchi neri sarebbero l’ipotetico ingresso del tunnel spazio-temporale.
Inoltre, ipoteticamente consentirebbero anche l’invio di segnali nel passato e nel futuro. Peraltro, il termine wormhole (il buco del verme) rende bene l’idea. Se l’universo fosse una mela, normalmente ci si potrebbe spostare soltanto sulla sua superficie esterna. Ma se un verme scavasse un buco nel frutto – appunto il tunnel o wormhole – il percorso e il tempo per raggiungere punti distanti si abbrevierebbe.

Il problema è che questi cunicoli hanno una vita brevissima, non sufficiente per accogliere queste incursioni nello spazio-tempo.

La domanda è se i buchi di tarlo esistono realmente dal momento che non ci sono indizi nemmeno indiretti sulla loro esistenza.

Fuochi d’artificio vicino a un buco nero nella galassia NGC 4151 (HST)
Ritorna a
Fisica e Astrofisica

Ritorna a
Home Page

Pubblicato in Astrofisica, Astronomia, Attualità, Cultura, Fisica, I misteri dell'universo, Universo | Contrassegnato , , , | 1 commento

Petra

menù
| Petra | un po’ di storia | il tour |
| La tomba degli obelischi – case del Djin | il Siq |
| il Tesoro del Faraone – la leggenda |
| il Teatro – Tombe Reali | il Monastero |
| Trekking da Little Petra a Petra | Wadi Rum, la valle della Luna |
| conclusione |
 Ad Deir – il Monastero

Lo so che sapete tutto di Petra, forse l’avete anche visitata.  Ma forse qualcosa vi è sfuggito.

Seminascosta nel paesaggio spazzato dal vento della Giordania meridionale, è uno dei più celebri siti dichiarati dall’UNESCO Patrimonio dell’Umanità. Proclamata una delle ‘Sette Nuove Meraviglie del Mondo’.

Tanto per cominciare diciamo subito che Petra non pone i problemi sui misteri che circondano i siti megalitici in merito alla loro tecnica di costruzione e il trasporto per migliaia di chilometri di massi pesanti oltre 200 tonnellate.

Le tombe di Petra sono scavate nei canaloni e sui fronti rocciosi delle montagne, mentre l’area urbana, a causa della mancanza di vegetazione, è caratterizzata da un vasto affioramento di pietrame derivante dal crollo degli alzati degli edifici, sicché roccia e pietre sono visibili in ogni punto.
Le costruzioni funerarie sono in gran parte ricavate nell’arenaria policroma di età paleozoica, una roccia sedimentaria prodotta dalla sedimentazione e dall’accumulo di piccoli granelli di sabbia. Il risultato di questo processo è una roccia coerente e resistente, ma al contempo facile da scavare.
Una caratteristica particolare di queste arenarie è la variazione del colore, con sfumature dal giallo ocra al rosso fuoco al bianco, dovute alla diversa concentrazione degli ossidi durante il lungo processo di consolidamento.
L’ingresso della città è un antico letto fluviale, una profonda gola tagliata nelle alte pareti di arenaria che venne trasformata in trincea viaria deviando altrove il corso del torrente.


Un po’ di storia

Le radici storiche dell’area di Petra sono ancora oggi oggetto di dibattito.
Alcune ceramiche rinvenute fanno risalire la costruzione al secondo secolo avanti Cristo, quando l’area era la capitale dei Nabatei (mercanti dell’antica Arabia), che iniziarono la costruzione degli edifici che hanno reso famosa Petra in tutto il mondo, per arrivare poi al suo abbandono nel VII secolo d.C.
Gli unici scrittori che documentano la condizione di Petra in questo periodo sono Diodoro Siculo e Strabone, le cui narrazioni testimoniano la grande ricchezza che questo popolo ricavava dal commercio carovaniero tra Asia ed Europa, ma non concordano sul loro modo di vivere, descrivendoli sia come sedentari sia come nomadi, ora come cittadini ora come contadini.

Provenienti dall’Arabia antica, i Nabatei furono un popolo all’avanguardia dal punto di vista dell’intelligenza tecnologica.
Ancor oggi sono visibili impianti destinati a raccogliere e a distribuire l’acqua superando i forti dislivelli del terreno, in particolare sbarramenti, tunnel e cisterne, a cielo aperto e sotterranee, con cui costruirono un vero e proprio acquedotto: raccogliendo le poche piogge stagionali che davano tregua alla costante siccità, riuscirono a ridistribuire le risorse idriche alla città prosperando a lungo.

Petra fu soggetta per un certo periodo al dominio romano: le tracce di questo passaggio si leggono oggi soprattutto nella strada delle colonne, la via principale della città, costruita dopo la conquista del 106 d.C. secondo il modello urbanistico romano, scandita da grandi colonne di arenaria. In fondo della strada la Porta traiana indicava la fine del quartiere commerciale e l’inizio dell’area destinata ai culti.


Il tour

Se avete intenzione di visitare Petra mettetevi in testa due cose: un giorno non basta e non vi stancate nel camminare: c’è tanta roba da vedere sparpagliata lungo un lungo percorso.
A Petra si accede dal Visitor Center pagando il biglietto. Una volta entrati, ci si incammina lungo la strada che si insinua fra le alte rocce del Siq, il canyon che conduce nel cuore di Petra, e che si fa ad ogni passo più stretta: in alcuni punti non vi sono più di 2 metri fra una parete e l’altra. Si può procedere a piedi, ma anche con cammelli e somari.
All’uscita dal Siq vi troverete di fronte la facciata della Tesoreria. Proseguendo lungo la via delle Facciate vi imbattete nel Teatro, e le Tombe dei Reali, quindi la via del Colonnato. Proseguendo lungo il sentiero del Monastero siete arrivati al maestoso Monastero col fiatone e il cuore in gola, ma con almeno 500 foto scattate.


La tomba degli obelischi – case del Djin

Prima di arrivare al Siq, alcune rocce sparse introducono la monumentale città dei Nabatei. Enormi forme cubiche tagliate con i vivaci colori dell’arenaria, scolpite con motivi in bassorilievo. Vi sono quelle che vengono chiamate Case del Djinn, ovvero case dello spirito: tre monumenti massicci che potrebbero essere tombe o templi dedicati alla divinità nabatea Dushara.

La tomba degli obelischi con il Triclinio di Bab as-Siq è la prima vera bellezza che si incontra, il primo monumento che caratterizza Petra. Scolpita nella roccia, che qui è chiara, ha quattro obelischi che decorano la parte superiore della facciata. Al centro vi è rappresentata una figura antropomorfa, oggi erosa dalle intemperie, attorniata dai quattro obelischi, che nell’insieme rappresentano le cinque persone sepolte nella tomba. I Nabatei adottarono l’obelisco dagli Egizi e lo utilizzarono come simbolo funerario.


Il Siq

petra8

Il Siq ed è una gola di oltre un chilometro con pareti di roccia alte più di 200 metri che termina con lo scorcio mozzafiato sulla facciata.

È un viaggio serpeggiante nel cuore della montagna, una processione mistica e rigorosamente lenta attraverso secoli di storia che porta dritti alla fonte dello stupore.
Un viaggio in una fessura che contiene tombe e templi scavati nelle pareti di arenaria rosa, da cui deriva il suo nome “Città rosa”.

Lungo il Siq vi è un certo numero di locali sotterranei la cui funzione non è stata ancora chiarita. La possibilità che siano state tombe è stata esclusa e gli archeologi trovano difficile credere che fossero abitazioni. Secondo la maggioranza sarebbero stati dei rifugi delle guardie che difendevano l’ingresso principale di Petra


Il Tesoro del Faraone

Alla fine di questo incredibile percorso, che oltre che a piedi si può percorrere a cavallo o a dorso di asinelli, si sbuca in un ampio spiazzo dove improvvisamente ci si trova davanti uno dei più bei monumenti dell’intero sito di Petra, il Khasneh al Faroun o Tesoro del Faraone, la cui facciata è incisa nella roccia e che presenta l’ingresso di un’unica stanza, vuota.

La leggenda.
Secondo la leggenda, un faraone egizio, impegnato in una dura guerra con gli israeliti, nascose qui le sue ricchezze, precisamente nell’urna che vedi al centro della facciata.
In realtà la facciata della Tesoreria è “solo” la tomba del re nabateo Aretas III e anche al suo interno non aspettare di trovarci granché. Alla faccia di tutte le leggende, però, il vero tesoro sta tutto lì, nella perfezione della roccia scolpita dalla mano dell’uomo.


Il Teatrotombe dei Reali

Passato il Siq, e visitato il monumento del Tesoro c’è il Teatro . Il Teatro di Petra fu edificato dai Nabatei oltre due millenni fa, nel classico intaglio in pietra che caratterizza la maggior parte delle attrazioni monumentali che rendono famosa Petra a livello mondiale.
Dopo la conquista romana, nel 106 a.C, il teatro fu ampliato per un’accoglienza di circa 8000 spettatori. Questo ha comportato la distruzione delle tombe preesistenti su cui era stato edificata l’opera sin dall’epoca nabatea.

La strada si allarga e ai lati si allungano più di quaranta Tombe Reali di architettura assira e scavate nella roccia rossa. Di queste tombe, una ha la caratteristica di avere la camera mortuaria al piano superiore, mentre una seconda non è scavata nella roccia, ma è sormontata da una struttura simile ad un ziggurat, ovvero è caratterizzata da sette gradini che simboleggiano i sette livelli per raggiungere il più alto paradiso. 
È bello entrare nelle tombe e osservare il panorama sulla città. Si vede la zona centrale di Petra: immensa. Con un po’ di fantasia si può davvero immaginare cosa doveva essere questa città: le bancarelle, gli asinari ed i cammelli simbolo del commercio di oggi posso aiutare in questa ricostruzione di fantasia.


Il Monastero

Se alzi lo sguardo verso le colline di Petra, trovi il Monastero, un edificio anch’esso cesellato nella montagna, molto più grande della “facciata” e costruito tra il II e il I secolo a.C. per ospitare le spoglie del re nabateo Obotas. In lontananza su di un piccolo altopiano si intravede un modesto santuario. Lì si dice sia sepolto Arum, il fratello di Mosè.

Per arrivare al Monastero bisogna percorrere un lungo sentiero tutto in salita. il sentiero del Monastero.
Sono 800 gli scalini per arrivare al Monastero. Gradini scavati nella roccia, a volte consumati e un po’ sconnessi, altre ben riparati.  
Il Monastero è grandissimo, bello e impressionante
.

Quarantacinque metri di larghezza per cinquanta di altezza. Era un tempio per fedeli e sacerdoti, ma fu anche una tomba.
Le persone che sono davanti, da lontano, appaiono così piccine.

Avvicinatisi, è impressionante guardarlo dal basso mentre ancora ben conservato si erge verso l’alto. Il Monastero è piuttosto lontano da raggiungere, ma ne vale la pena a leggere chi ci è stato.
Per arrivare in cima occorrono circa 45 minuti, percorrendo salite e scalinate. Quindi gambe in spalla e non perdetevi d’animo.!


Trekking da Little Petra a Petra: l’ingresso a Petra dalla porta sul retro.

Visitare Petra significa immergersi nella storia di un luogo straordinario, fatto di incredibili monumenti scavate nelle gole di roccia.
Ma significa anche entrare in un luogo estremamente affollato, ovviamente pieno di turisti e di venditori ambulanti con le loro bancarelle. Se volete evitare tutto ciò, il sentiero di trekking da Little Petra a al Monastero vi permetterà di raggiungere questo splendido sito archeologico in splendida solitudine e lontani dalla folla.

Solitamente, infatti, l’ingresso principale a Petra al centro visitatori di Wadi Musa la città edificata vicino al sito. Da qui si raggiunge a piedi il Tesoro tramite l’affollato sentiero del Siq.

Piccola Petra invece situata a circa un quarto d’ora da Wadi Musa costituisce la porta d’accesso al sentiero del Siq fino al Tesoro.

Circa 8 chilometri a nord di Wadi Musa, una breve strada a ovest conduce al piccolo parcheggio non asfaltato dal quale si apre un canyon nella facciata rocciosa a sud-ovest ovest. Ci potete andare con un’auto noleggiata.
Il suo nome, letteralmente “canyon freddo” perchè non ci batte mai il sole. Il canyon si allarga dopo 400 metri per poi ristringersi di nuovo per altri 50 m, portando ad un’altra area aperta più piccola con numerose aree scoprite.

All’estremità occidentale del canyon una serie di gradini conducono alla cima della roccia da cui si vede l’intera regione di Petra. Un sentiero a piedi poco frequentato porta da lì ad Ad-Deir a Petra a 6 km a sud-ovest.

Tempo di percorrenza 4-5 ore per arrivare fino all’ingresso di Petra a Wadi Musa considerando varie soste e pranzo al sacco. Difficoltà medio/moderato. Il sentiero non presenta molte difficoltà. Si snoda tra strade sterrate nella prima parte e un sentiero scavato nella roccia nel tratto per arrivare al Monastero. Da qui in poi un tratto tutto in salita agevolato però da numerose scalinate fatte di gradini scavati nella roccia per una pendenza di circa 200 metri.
Per sicurezza conviene scaricare una applicazione per visualizzare la traccia Gps.


Wadi Rum, la valle della Luna

Al sud della Giordania, a 2 ore da Petra e a 1 ora da Aqaba, il deserto del Wadi Rum 

Il deserto del Wadi Rum è uno dei più belli del pianeta, fidatevi. Persino Lawrence d’Arabia lo definì “echeggiante e simile ad una divinità”. E in effetti, maestosi altopiani, ampie vallate sabbiose e rocce verticali dai colori cangianti rendono questo luogo un vero gioiello da scoprire. Non solo per i paesaggi: il Wadi Rum (che significa “valle alta”) accoglie un ecosistema fragilissimo e unico al mondo, inoltre è l’ultimo baluardo dove sopravvive ancora come un tempo la tradizione culturale dei beduini, le antiche tribù arabe di pastori nomadi.


Conclusione

Di Petra non si può non ricordare la sua gente. Forse è proprio questa a renderla così colorata. Sono parte stessa del sito, come i Nabatei lo erano in passato, anche se conviene sempre non dare troppa confidenza e stare attenti. Ma non si può mettere certo in dubbio il loro fascino.

E poi ci sono un sacco di animali sempre bellissimi. In particolare i dromedari, così carini quando avvicini la mano e loro ti annusano delicatamente con quel musetto tenero.

A questo punto potrei dire tante altre cose, tu però potresti farne una, la più importante: andarci.

Ritorna a
Pianeta Terra

Ritorna a
Home

Pubblicato in Ambiente, Attualità, Scienze naturali | Contrassegnato | Lascia un commento

Plutone – Il pianeta declassato a pianeta nano

Plutone ha una storia complicate alle spalle.

Ha sempre attirato le simpatie delle persone ed il suo declassamento il 24 agosto del 2006 a pianeta nano, da parte Unione Astronomica Internazionale, è stato visto come irrispettoso nei suoi confronti.

Il “ritardo” nella scoperta di Nettuno deriva dal fatto che esso, al pari di Urano (scoperto nel 1781), non è visibile a occhio nudo: di conseguenza è stato possibile individuarli solo dopo aver sviluppato una tecnologia adeguata, ovvero telescopi più potenti.

Allo stesso modo, in seguito all’osservazione di irregolarità nell’orbita di Urano, fu ipotizzata la presenza di un altro corpo celeste che ne influenzasse in qualche modo il movimento.
Si cercava un grande corpo celeste ai confini del Sistema Solare, delle dimensioni di Nettuno con una massa pari a 10 volte quella della Terra che provocherebbe anomalie su alcuni corpi celesti.

Solo nel 1930 fu scopeto un corpo di dimensioni più ridotte. Fu chiamato Plutone (Pluto, in inglese), come il dio romano degli Inferi (“Ade” per i Greci). La sua massa corrisponde allo 0,22 percento di quella terrestre, mentre il diametro sfiora i 2.400 chilometri, che è circa un ottavo di quella della Luna. Caratteristiche che ben si sposano con la definizione di pianeta nano.

La sua distanza media dal Sole (5,8 miliardi di km, circa 40 Unità Astronomiche) ne fa infatti un abitante dello spazio profondo oltre la fascia di Kuiper. Tanto lontano che la luce del sole impiega circa 5,5 ore per raggiungere Plutone.

Le origini

Lo studio si basa su simulazioni al computer eseguite dal planetologo Robin Canup, i cui risultati sono stati pubblicati sull’ Astronomical Journal.
Le simulazioni sono partite considerando le condizioni nel Sistema solare oltre 4 miliardi di anni fa: era un periodo caotico, con frequenti scontri tra i corpi rocciosi. La Luna si è probabilmente formata in quella fase dall’aggregazione dei frammenti prodotti dall’impatto tra la Terra e un altro corpo grande come Marte.

Secondo le simulazioni di Canup, sempre in quel periodo turbolento, da uno scontro tra piccoli corpi di dimensioni simili avrebbero avuto origine Plutone e il suo satelliti Caronte. Per l’esattezza inizialmente si sarebbero formati Plutone, Caronte e un insieme di piccoli frammenti ghiacciati che successivamente si sarebbero aggregati e compattati tra loro dando forma a altri piccoli corpi: Cerbero, Idra, Slige, Notte, scoperti nel 2005.
Abbiamo usato il condizionale perché si tratta solo di un possibile scenario: la validità deve ora essere confermata dai dati.

Basandosi sui dati raccolti da due storiche missioni di esplorazione planetaria: New Horizons della NASA e Rosetta dell’ESA, nel costruire il modello, gli studiosi hanno riscontrato una particolare coerenza tra l’ammontare dell’azoto nel ghiacciaio e quello che si sarebbe accumulato, se Plutone si fosse formato dalla fusione di un miliardo di comete o altri oggetti della Fascia di Kuiper.

Anche la composizione di Plutone sembrerebbe avvalorare questa tesi: a differenza dei pianeti esterni gassosi (Giove, Saturno, Urano e Nettuno), è costituito di roccia fino a circa il 70%. L’altro 30% sembrerebbe comprendere ghiaccio, similmente a uno dei satelliti di Nettuno, Tritone. L’alta quantità d’acqua ha portato alcuni scienziati a pensare che Plutone possa essere ciò che resta di una cometa.

Un giorno di Plutone è pari a 6,387 giorni terrestri. Come Urano, Plutone ruota sul suo “lato” nel suo piano orbitale, con un’inclinazione assiale di 120°, e quindi la sua variazione stagionale è estrema; nei suoi solstizi, un quarto della sua superficie è in continua luce diurna, mentre un altro quarto è in continua oscurità. All’equatore le temperature possono scendere a -240 ° C, causando il congelamento dell’azoto che compone in gran parte la sua superficie.

Tra le strutture più interessanti sulla sua superficie vi sono una vasta regione ghiacciata a forma di cuore e una giovane catena montuosa con picchi che arrivano a 3,5 chilometri di altezza. La debolissima atmosfera di Plutone è composta principalmente da metano, azoto e monossido di carbonio.

L’orbita eccentrica

Ad eccezione di Mercurio, la cui orbita ha un’inclinazione di 7 gradi , tutti i pianeti del Sistema solare orbitano praticamente sull’eclittica, mentre l’inclinazione dell’orbita di Plutone è di circa 17 gradi.

kuiper

L’orbita di Plutone intorno al Sole costituisce un ulteriore dato interessante, che lo discosta dagli altri pianeti del Sistema Solare. Plutone compie il proprio moto di rivoluzione in circa 247,9 anni terrestri (non ha quindi ancora compiuto un’orbita completa da quando è stato scoperto), con una distanza dal Sole che oscilla fra i 7,37 miliardi di km dell’afelio (il punto più lontano dal centro di gravità di un corpo in rivoluzione) e i 4,43 miliardi di km del perielio (il punto più vicino).

Quest’ultimo valore è curioso poiché mostra come in un certo periodo del suo anno, Plutone si trova più vicino al Sole rispetto a Nettuno (che ha una distanza media dal Sole di 4,5 miliardi di km): nulla di simile avviene fra gli altri pianeti del Sistema Solare, ed è quindi un’ulteriore “stranezza” di Plutone.

In pratica per questa ragione ogni 248 anni circa Plutone entra nell’orbita di Nettuno per restarci per venti anni, ma non sussiste alcun rischio di impatto tra i due corpi celesti. Anche questa caratteristica fa protendere per la collisioni con una altro corpo facendolo deviare dalla sua orbita originaria.

Durante la sua rotazione intorno al Sole, Plutone si avvicina alla periferia del Sistema Solare, in una zona ricca di asteroidi, comete e pulviscoli, chiamata fascia di Kuiper.

Sistema binario

plutone e caronte

Plutone ha dimensioni (1151 km di un raggio equatoriale) soltanto doppie di quelle di Caronte (603,6 km), mentre tendenzialmente un pianeta risulta essere molto più grande dei propri satelliti: per esempio il rapporto di grandezza tra Terra e Luna è di 5:1. Ciò implica che Plutone e Caronte non rappresentino un vero e proprio sistema “pianeta-satellite”, bensì una sorta di sistema binario pianeta-pianeta. Essi infatti risentono dell’attrazione gravitazionale reciproca, ruotando intorno a un comune centro di gravità che si trova nello spazio tra i due corpi, alla distanza di 950 km dalla superficie di Plutone.

A questo punto qualcuno potrebbe obiettare che anche il sistema Terra-Luna è un sistema binario. La differenza è che in questo sistema il baricentro cade all’interno della Terra, precisamente si trova ad una distanza di circa 4683 Km. Considerando che il raggio terrestre è 6378 Km, se ne conclude che il baricentro del sistema TerraLuna si trova al di sotto della superficie terrestre. Pertanto il sistema Terra –Luna è comunque considerato un sistema pianeta-satellite.
Anche il sistema solare ha un baricentro che cade all’interno dello stesso Sole che possiede il 99% dell’intera massa totale del sitema solare.

Tutto ciò ha dunque suggerito che Plutone non è un vero e proprio pianeta, ma potrebbe essere per esempio un satellite sfuggito alla forza gravitazionale di un altro pianeta o un asteroide.

Il tempo di rivoluzione di Caronte intorno a Plutone e quello di rotazione di Plutone stesso, inoltre, coincidono (6,4 giorni). Questo suggerisce che il satellite imponga a Plutone una forza gravitazionale tale da rallentarne sensibilmente il tempo di rotazione.

Declassazione difficile

Fin da subito Plutone lasciò perplessi gli astronomi per le sue dimensioni (sei volte più piccolo della nostra Luna). E a partire dagli anni Settanta si iniziò a mettere in discussione il suo status di pianeta che gli fu bruscamente tolto nel 2006, quando venne ufficialmente declassificato a pianeta nano.

Plutone è forse il più famoso dei corpi celesti che fu per breve tempo un pianeta.
Scoperto nel 1930 dall’astronomo statunitense Clyde Tombaugh, che in realtà cercava un oggetto molto più massiccio per spiegare le anomalie dell’orbita di Nettuno, fu chiamato il nono pianeta del sistema solare per molti decenni, finché intorno agli anni ’90 del secolo scorso iniziarono le scoperte di numerosi altri oggetti simili a Plutone.

Tra questi, l’oggetto della discordia, che venne appunto chiamato Eris, dal nome della dea Discordia, fu un corpo celeste più lontano da noi di Plutone, ma apparentemente più grande. Doveva essere definito anche questo un pianeta?

La questione fu risolta nel 2006: all’Assemblea Generale dell’Unione Astronomia Internazionale (IAU), il corpo internazionale a cui spettano tutte le decisioni generali, come per esempio la nomenclatura dei corpi celesti, venne portato in discussione un problema apparentemente mai affrontato nell’era moderna: cos’è un pianeta, come lo definiamo? 
Dopo una delle più accese diatribe della storia, più per un carattere sentimentale, fu votata a maggioranza la decisione di definire “pianeta del Sistema Solare” un oggetto che fosse “sufficientemente massiccio” da avere una forma quasi sferica ma anche “dominante dal punto di vista dinamico”. La definizione prevede infatti che il pianeta abbia “ripulito la propria orbita” da tutti quegli oggetti simili a lui e che perciò ne possono influenzarne la dinamica.

I pianeti putativi che erano stati portati alla ribalta, primo tra tutti Cerere (scoperta italiana), il primo e più grande oggetto della fascia principale degli asteroidi, divennero così per decisione della comunità astronomica pianeti nani.

C’è da dire che gli scienziati americani furono tra i più accesi oppositori al declassamento. Il “declassamento” di Plutone a pianeta nano faceva temere che l’opinione pubblica americana non avrebbe apprezzato le spese ulteriori per la missione, una delle più ardite mai pensate all’epoca. Un razzo potentissimo aveva infatti spedito la sonda a una delle velocità maggiori mai raggiunte dai satelliti artificiali: in meno di 10 anni infatti New Horizons ha raggiunto Plutone per scattare alcune delle più belle immagini che abbiamo di questo pianeta e della sua luna principale, Caronte e raccogliere una quantità formidabile di dati. La velocità era tale che la bassa gravità di Plutone non ha potuto arrestare la corsa della sonda che ora sta viaggiando verso la fascia di Kuiper e quindi l’esterno del Sistema Solare.

Conclusione

Cosa sappiamo quindi oggi di Plutone? È un corpo fatto per circa 2/3 di roccia e 1/3 di ghiaccio che fa supporre che sia una cometa proveniente dalla fascia di Kuiper, ha formazioni tettoniche molto simili a quelle della Terra e possiede anche una tenue atmosfera, composta principalmente da azoto, insieme a metano e monossido di carbonio. È molto più piccolo della nostra Luna: un terzo del volume e un sesto della massa.
La sua orbita è molto eccentrica e inclinata rispetto al piano dell’eclittica. Periodicamente, quando è al perielio, Plutone è più vicino al Sole di Nettuno, ma i due oggetti non sono mai fisicamente vicini (cioè non possono scontrarsi).
La sua luna principale, Caronte, scoperta nel 1978, è così grande rispetto a Plutone che è stato persino proposto di definirli un sistema binario. I due oggetti inoltre sono in rotazione sincrona, per effetto delle forze gravitazionali reciproche, e rivolgono perciò sempre la stessa faccia al compagno.

Le lune totali scoperte finora sono 5: oltre a Caronte, Stige, Notte, Cerbero e Idra. Idra e Notte scoperti nel 2005, Cerbero e Stige nel 2011 e 2012. Dalle misure, non ci sono altri satelliti di Plutone più grandi di 20 km di diametro.

Ritorna a
Astronomia

Ritorna  a
Home

Pubblicato in Astronomia | Contrassegnato | Lascia un commento

Hegra, la città nascosta nella roccia

Non solo Petra.
Una nuova meta compare sulla mappa dei viaggi da sogno: la regione di Al Ula in Arabia Saudita.
Situato nell’Arabia Saudita nordoccidentale, a più di 1000 km dalla capitale Riyadh, Al Ula è un luogo straordinario per la bellezza del suo patrimonio naturale e umano. Questa regione comprende oasi lussureggianti, montagne rocciose e maestosi siti archeologici risalenti ai regni di Dadan e Lihyan e dei Nabatei (dal VII secolo a.C. in poi).

Hegra è conosciuta anche con il nome di Al-Hijr o Mada’in Saleh che significa “luogo roccioso” ed è il più importante insediamento del regno arabo preislamico, dopo Petra.

Ciò che si sa di Hegra proviene principalmente dalle tombe, su cui sono incise numerose iscrizioni, e dalle pitture rupestri: Jabal Ikmah è uno dei siti epigrafici più significativi dell’Arabia Saudita, le sue iscrizioni sono una vera e propria biblioteca a cielo aperto che hanno contribuito a far luce sulle origini della lingua araba.
Alcune delle iscrizioni rinvenute in questo luogo sono state datate al I millennio a.C. Tutti gli altri elementi architetturali risalgono invece al periodo dei Thamudeni e dei Nabatei, tra il II secolo a.C. ed i II secolo d.C.
Il regno dei Nabatei in particolare fu uno dei più ricchi e fiorenti tra quelli che abitarono zona nell’epoca preromana: popolazione nomade che dominò il territorio tra il quarto secolo prima di Cristo e il primo secolo, era costituita da sudditi abituati a percorrere lunghe distanze nel deserto per portare spezie e incensi in terre lontane

Recentemente sono state scoperte evidenze dell’occupazione romana ai tempi di Traiano e forse di Adriano: l’area montuosa di Hijaz nell’Arabia nordoccidentale probabilmente era parzialmente fertile e fece parte della provincia romana dell’Arabia Petrea con capitale Petra.

Gli scavi continuano a svelare antichi manufatti e oggi è possibile visitare una vasta area del sito che comprende più di cento monumenti funebri ben conservati, senza dubbio la sezione più importante e significativa di questo sito archeologico.

Ogni tomba presenta una facciata scavata nella roccia di arenaria e decorata da figure mitiche: maschere, aquile, leoni e serpenti, dalle influenze assire, egizie, fenicie ed ellenistiche. La più imponente è quella di Qasr Farid, di dimensioni monumentali, espressione della grandezza della famiglia a cui era destinata; quella di Al Usud invece è famosa per il bassorilievo che rappresenta una coppia di leoni e il cui perfetto stato di conservazione lascia senza fiato. Anche il Diwan, un’ampia sala in cui si riunivano i capi del popolo nabateo, costituita da un’immensa stanza ricavata nel cuore della roccia, merita di essere scoperta oggi.

Le rovine della città vecchia, circondata da un’antica oasi, giacciono nella pianura a una certa distanza dalle tombe. Gli edifici, ancora per la maggior parte non scavati, erano un labirinto di strade costellate di edifici costruiti in fango e pietra. Un tempo la città ospitava quasi mille case, negozi e piazze e pare vi siano tutt’ora resti di alcuni edifici originali.

Per edificare Mada’in Saleh gli antichi costruttori si avvalsero di tecniche architettoniche simili a quelle che furono adoperate per scolpire la città di Petra, a 500 km di distanza. Questa misteriosa ed enigmatica cultura era in origine una tribù nomade, e fu circa 2.500 anni fa  che i loro insediamenti iniziarono a fiorire.

L’imponente città possiede mura, templi, torri, tutte decorate finemente con influenze assire, egizie, fenicie ed ellenistiche, oltre che molteplici condutture d’acqua, pozzi, cisterne ed acquedotti eseguiti con altissimo valore ingegneristico.

Oggi è possibile osservare nelle vaste distese desertiche della zona molteplici e spettacolari grandi strutture tutte perfettamente scavate e finemente intagliate nella roccia di pura arenaria.

Gli archeologi cercano ancora oggi di svelare la storia celata di questa civiltà dalle altissime capacità ingegneristiche, che purtroppo rimane ancora oggi avvolta nel mistero, malgrado le molte citazioni presenti nelle varie culture antiche che entrarono direttamente in contatto con loro.

Ritorna a
Pianeta Terra

Ritorna a
Home

Pubblicato in Ambiente, Scienze naturali | Contrassegnato | Lascia un commento

Le mura ciclopiche di Cuzco – L’incredibile fortezza di Sacsayhuaman

Cuzco è stato il sito della storica capitale dell’Impero Inca ed è stata dichiarata Patrimonio dell’Umanità nel 1983.

In un avvallamento di una collina che si affaccia sulla valle di Cuzco, in Perù, si trova la colossale fortezza di Sacsayhuaman, uno degli edifici più imponenti mai costruiti.

Nella valle di Cuzco, in Perù, è possibile visitare i resti di alcune strutture megalitiche composte da massi perfettamente levigati, dal peso individuale che può raggiungere e superare le 200 tonnellate. Le tecniche utilizzate per il taglio ed il trasporto dei megaliti delle Ande rimangono un mistero che gli studiosi moderni non riescono a spiegare. 

Sacsayhuaman consiste in una serie di tre o quattro cerchie di mura che formano terrazzamenti ascendenti verso la collina, nonché di rovine di entrate, scalinate e rampe. La fortezza è ubicata a circa 2 chilometri da Cusco, capitale dell’antico impero Inca, e si trova ad una altitudine di 3700 metri; ha una estensione di 3.093 ettari. Il nome significa letteralmente “falco soddisfatto”. 

Tutto il sito è costituito di blocchi di pietra giganteschi (megaliti) alcuni dei quali hanno un peso che supera le 200 tonnellate. Gli enormi blocchi sono tagliati, levigati ed incastrati così bene tra loro che anche oggi non è possibile introdurre la lama di un coltello né un sottile foglio di carta nelle fenditure tra l’uno e l’altro.

cuzco5


Non è stata utilizzata malta per tenere insieme i megaliti che sono tutti diversi ma perfettamente aderenti l’uno all’altro, tanto che alcuni ingegneri sostengono che nessun costruttore edile moderno riuscirebbe ad ottenere gli stessi risultati anche con l’ausilio dei più sofisticati strumenti oggi disponibili. La disposizione di ogni singola pietra doveva essere pianificata in precedenza perché nessun blocco di 20 tonnellate, per non parlare di quelli di 80 fino a 200 tonnellate, poteva essere stato lasciato cadere in maniera casuale con la speranza di ottenere una costruzione di tale precisione. I megaliti sono assemblati strettamente in una sorta di incastro a coda di rondine che li rende inattaccabili da parte dei movimenti tellurici.

La cosa incredibile è che le pietre non sono autoctone, bensì, a giudicare da alcuni documenti, sembrano provenire dall’Ecuador, da almeno 2.430 Km di distanza. Altri ricercatori hanno individuato delle cave più vicine, a poco più di 7 Km. Le pietre utilizzate nella costruzione di queste terrazze sono tra le più grandi utilizzate in qualsiasi edificio nell’America preispanica. Mostrano una precisione di taglio e montaggio che non ha eguali nelle Americhe.

Sebbene si ritenga che questa fortezza sia stata costruita dagli Inca alcune centinaia di anni fa, non sono stati ritrovati documenti che attestino la fondatezza di questa tesi, né gli stessi Inca ne parlano nel corpus delle loro leggende. Come è possibile che questa popolazione, che non avrebbe posseduto nozioni di matematica, né una lingua scritta o utensili di metallo, e che addirittura non utilizzava neanche la ruota, abbia potuto costruire un tale complesso ciclopico fatto di mura e palazzi?

Il dato storico è riportato dagli Amautas (filosofi e dottori) degli Inca. Secondo il loro racconto, la pietra fu trasportata sul posto da più di ventimila uomini che la trascinarono utilizzando enormi funi, seguendo un sentiero assai impervio. Lungo il cammino incontrarono molte alte colline da scalare e discendere. La metà degli addetti tirava la pietra tramite le corde legate alla parte anteriore, mentre l’altra metà la spingeva da dietro per timore che la pietra potesse slegarsi e scivolare giù dalle montagne in una gola, dalla quale poi sarebbe stato impossibile estrarla. Proprio nell’ascesa di una di queste colline, per mancanza di cautela e coordinazione, la massiccia pietra rotolò giù dal costone della collina, uccidendo dai 3.000 ai 4.000 uomini. Nonostante la disgrazia, la pietra fu recuperata e messa sulla pianura ove si trova ancora oggi.

Quando gli spagnoli arrivarono per la prima volta a Cuzco e videro queste costruzioni, le ritennero opera del diavolo in persona proprio per la loro monumentalità.
In alcune cronache dei conquistadores spagnoli si legge che gli Inca affermavano che le strutture megalitiche erano là da molto tempo prima di loro, costruite da un popolo più antico, ma anche le popolazioni Killke che erano stanziate in quell’area prima dell’arrivo degli Inca, non sembra che possedessero le tecnologie per poter realizzare una simile opera, che potrebbe dunque essere ancora più antica.

cuzco9

Al di là dei tentativi della scienza classica di far passare la costruzione delle mura del tutto normale per quelle popolazioni, è quasi sicuro nel ritenere che gli Inca non abbiano mai spostato questi enormi megaliti. Inoltre, anche la gigantesca città di Tiahuanaco, in Bolivia, è costituita di blocchi di pietra pesanti centinaia di tonnellate. Le cave sono a molti chilometri di distanza ed il sito è senza dubbio di origine preincaica. I sostenitori della tesi che il popolo Inca avesse trovato queste città tra le montagne e vi si fosse poi stabilito, affermano che i costruttori di Tiahuanaco, Sacsayhuaman ed altre strutture megalitiche nella zona di Cuzco appartenevano alla stessa popolazione.

Un’interessante teoria che circola sulla preparazione degli enormi megaliti dalla forma perfetta ad incastro è che furono utilizzate delle tecniche di ammorbidimento e modellazione della roccia, tecniche di cui oggi non rimane più traccia alcuna.

Gli autori di questa opera monumentale sono ufficialmente ritenuti gli Inca, ma, ancora oggi, non esiste nessuna spiegazione su come siano stati trasportati massi pesanti fino a 200 tonnellate da cave molto lontane fino a 3700 metri di altezza, né con quale tecnica siano stati lavorati in modo che si incastrassero perfettamente l’uno sull’altro, né come siano stati sollevati per collocarli uno sull’altro.

E’ curioso notare che una fortezza fortificata da enormi blocchi di pietre, con ben tre mura di cinta con tanto di torri che avevano funzione difensiva, eppure per la scienza ufficiale si tratta semplicemente della “Casa del Sole”, dedicata appunto al culto del dio Sole.

E’ altresì curioso ed anche offensivo che mentre popolazioni costruivano opere megalitiche in epoche preistoriche, la scienza ufficiale ci vuole far credere che quella imponente fortezza fu costruita tra il 1438 e il 1500 circa per venerare un Dio senza lasciare alcuna traccia scritta o una incisione.

Un’ultima osservazione interessante riguarda i segni di taglio visibili su alcuni massi e la loro somiglianza con quelli trovati ad Assuan, in Egitto, sulle pietre di un piccolo piramidon di un obelisco rimasto incompleto. Della somiglianza con lo stargate peruviano, la porta del Sole di Tiahuanaco, Si tratta forse di una coincidenza o esisteva un’antica civiltà che legava entrambi i luoghi?

Come mai la costruzione con megaliti terminò di colpo e non fu più ripresa?

Ancora oggi nessuno sa chi eresse in antichità questa mastodontica muraglia megalitica.

Ritorna a
Raccolta Misteri
Ritorna a
Home page

Pubblicato in Ambiente, Misteri | Lascia un commento

Quanto davvero sono ‘green’ le biomasse?


| a che punto siamo | le biomasse | legna da ardere |
| biogas da reflui alimentari e urbani |
| bio masse da carcasse di animali e liquame refluo da allevamento |
| alghe |
| conclusione |


A CHE PUNTO SIAMO

Sono decenni che se ne parla, se ne parlava già ai miei tempi di ingegneria nei primi anni del 1970. Ma stiamo ancora al palo. Ora dopo 50 anni a che punto siamo?

Diciamo che a quei tempi i giacimenti di energia fossile era stracolmi, la economia cominciava a tirare, bisognava avere energia in gran quantità, e soprattutto non c’era inquinamento. Insomma il probelma non esisteva o quanto meno non c’erano allarmismi sulle emissioni di CO2 nell’atmosfera.

Ora ci accorgiamo del ritardo e corriamo ai ripari. Bisogna eliminare i combustibili fossili a favore delle energia alternative rinnovabile e soprattutto green. Partono così proposte e incentivi per ogni iniziativa: eolico, fotovoltaico, biomasse. Delle prime due abbiamo già parlato in “Green Deal“.

Innanzi tutto chiariamo di cosa stiamo parlando.

Tutte le biomasse in Italia coprono circa il 5% del totale del fabbisogno energetico nazionale. Diciamo poca cosa, né si prevedono progressi.
Le biomasse vengono considerate energia alternativa nata sia per soddisfare il fabbisogno elettrico che il riscaldamento. Tuttavia pone seri problemi nella gestione sostenibile delle foreste e nella scarsa efficienza energetica. Inquinamento e l’irrisolto problema dei materiali di scarto..

L’utilizzo di biomassa per la produzione di energia (sia elettrica sia termica) divide più che mettere d’accordo: per alcuni può essere una valida alternativa ai combustibili fossili, per altri non conviene né in termini di costi né in termini di emissioni di polveri sottili e di altri inquinanti atmosferici, per lo scarso potere calorifero, la bassa resa degli impianti in ragione delle masse considerate.

Un altro dei motivi che fanno storcere più il naso, quando si parla di biomasse, è che non tutti i materiali bruciati provengono dalla natura: il combustibile solido secondario, ad esempio, è di origine plastica che rientra fra le biomasse per decreto ministeriale. 

Per quanto siano considerate fonti rinnovabili rispettose dell’ambiente abbiamo di fronte una tipologia di combustibile per il riscaldamento domestico ad alta emissione di Pm 2.5, uno degli agenti inquinanti più pericolosi per i nostri polmoni.

A tal proposito, l’Ispra (Istituto superiore per la protezione e ricerca ambientale) pubblicò nel 2010 un volume, dal titolo Rischi ambientali connessi all’uso di biomassa per produzione diretta di energia: valutazioni tecniche ed economiche,


BIOMASSE

Cosa sono le biomasse

  • Biomasse animali: le biomasse derivanti dall’allevamento di animali erbivori.
  • Biomasse da legname. E’ la tipologia maggiormente impiegata.
  • Biomasse liquide: questa tipologia di biomassa deriva dalla spremitura e dalla raffinazione di semi oleosi o da altre parti di piante particolari.
  • Biomasse da rifiuti urbani

Differenza tra biomasse e rifiuti

2021-12-07_13h45_37

Sia le biomasse che i rifiuti consentono di generare energia elettrica tramite il calore prodotto dalla combustione. In entrambi i casi si converte l’energia termica in energia meccanica con una turbina per produrre elettricità, oppure si sfrutta il calore.

Tuttavia, prima della conversione in energia, le biomasse devono subire dei processi di combustione: di qui i dubbi legati alla portata ‘green’ di queste fonti di energia.

Le biomasse comprendono:

  • legna da ardere
  • ramaglie e residui di attività agricole e forestali
  • scarti delle industrie alimentari
  • carcasse degli animali
  • rifiuti organici urbani (immondizia)
  • liquidi reflui derivanti dagli allevamenti (gli escrementi degli animali per essere chiari)
  • alghe marine

Cosa distingue le biomasse dai rifiuti?

differenza-biomasse-rifiuti

Le biomasse si distinguono dai rifiuti solidi urbani perché hanno caratteristiche chimiche più delimitate. Sono prevalentemente materie prime naturali di natura vegetale e ecocompatibile. Nei rifiuti solidi urbani, invece, sono presenti materiali di ogni tipo, organici e inorganici, che potrebbero avere un elevato impatto sull’ecosistema.


LEGNA DA ARDERE

La bufala verde della emissione zero di CO2 della legna

Se l’idea prominente è quella di ridurre fino ad azzerare la presenza di anidride carbonica nella atmosfera allora ricavare energia dalla legna, dal ramaglie, dagli sfalci, non è la direzione giusta.
I camini chiusi o con inserto emettono 2.401 tonnellate di polveri sottili all’anno. Le stufe tradizionali a legna producono 2.651 tonnellate di PM10 all’anno. Il gasolio produce 62 tonnellate di emissioni l’anno, mentre il GPL 1,2 tonnellate sempre su base annua.

Nella combustione vengono emessi composti organici volatilidiossine, metalli pesanti e particolato ultrasottile (nanopolveri). Sono sostanze contenute nel legno e sono la fonte di maggiori pericoli per gli esseri viventi, in quanto talmente piccoli da legarsi alle molecole, generando forme tumorali.

Inoltre  è stato dimostrato che le giovani foreste rimpiazzate alla deforestazione per ricavare legna per generare energia non sono in grado di sequestrare la stessa quantità di anidride carbonica delle precedenti generazioni di alberi, specie se, per esigenze industriali, le piante vengono abbattute prima che siano completamente cresciute.

Dal punto di vista energetico, inoltre, il legname è assai meno efficiente del carbone: il suo potere calorifico (che è un indicatore di quanta energia può fornire per ogni chilo di peso) è circa la metà del carbone. Per ottenere la stessa resa occorre quindi bruciarne molto di più. Generalmente occorrono sui 12-15 quintali l’anno giusto per tirare su qualche mezzo grado in più rispetto ai termosifoni. Inoltre  per riscaldare un’abitazione di 100 mq sono necessari 10-20 Kg di legna che oltre al coso bisogna tener conto dello stoccaggio.

Per far capire di cosa parliamo, faccio un esempio.
Nel caso della combustione della legna per ogni atomo di idrogeno sono presenti dieci atomi di carbonio (rapporto 10:1). Il carbone ha invece due atomi di carbonio per ogni atomo di idrogeno (rapporto 2:1). Il petrolio ha un rapporto carbonio-idrogeno pari a 1:2, ossia per ogni atomo di carbonio esistono due atomi di idrogeno, mentre quello del gas naturale è pari a 1:4 ed è il più basso tra le fonti d’energia fossile.
E’ evidente che bruciare legna non si fa altro che immettere nell’atmosfera CO2 più del carbone, il petrolio e del gas, oltre le altrettanto pericolose e inquinanti polveri sottili.

L’uso del legname per ricavare energia non fa ltro che aggravare il bilancio globale delle emissioni di CO2

Ve lo immaginate ora se è realistico che i condomini di un palazzo debbano sostituire le classiche caldaie a gas per caldaie a legna. Approvvigionarsi della legna per proprio conto, trasportarli per le scale o ascensori per poi stoccarle in un locale appropriato?

Perché, allora, si continua a tenerla in funzione? Per gli incentivi economici pubblici! 
Quella voce che trovate nella bolletta della luce che va sotto il nome di “Oneri di sistema” sono per l’appunto i soldi di noi consumatori, che anche a consumo zero di energia, paghiamo alle società fornitrice di energia per le ricerche sulle energia alternative. Sì, avete capito, siamo noi e non le Azienda a metterci i soldi per le ricerche. Nè c’è trasparenza dell’effettivo utilizzo di quei soldi.

Nel 2016, anno di entrata in funzione della centrale – dopo una vertenza durata quindici anni – la centrale ha fruttato ad ENEL 49 milioni di euro (come dichiarato dallo stesso Amministratore Delegato dell’Azienda elettrica), di cui solo 10 milioni di euro da produzione di energia elettrica e 39 milioni di euro (!) da incentivi pubblici.

A questo va detto che l’Enel ha costruito un impianto nel cuore del Parco Nazionale del Pollino, la più grande area “protetta” d’Italia, che è anche una Zona di Protezione Speciale (ZPS) dell’Unione Europea (UE) dalla potenza di  potenza (41 MWe), ma di scarso rendimento (25% circa) che brucia 350.000 tonnellate l’anno di biomasse da legno vergine, trasportate da oltre 100 camion che ogni giorno all’interno del Parco. Senza che nessuno naturalista protestasse.
Un vero oltraggio alla natura.

Lo sfruttamento intensivo delle foreste per una produzione di una energia sostenibile sarebe devastante per l’equilibrio della natura, nel momento in cui solleviamo dubbi sulla deforestazione per la produzione di soia, alimenti bio.

Abbandoniamo questa follia e lasciamo in pace le foreste.


BIOGAS DA RIFIUTI ALIMNETARI E URBANI

In estrema sintesi.

La definizione include una vastissima gamma di materiali, vergini o residuali di lavorazioni agricole e industriali, che si possono presentare in diversi stati fisici, con un ampio spettro di poteri calorifici. In funzione della tipologia di biomassa e quindi della tecnologia più appropriata per la relativa valorizzazione energetica.
Pertanto, per generare energia termica ed elettricità dalle biomasse e dai rifiuti sono necessari processi e tecnologie differenti.

I rifiuti sono prodotti di scarto, giunti alla fine del loro ciclo di vita, destinati comunque all’incenerimento o allo stoccaggio in discarica. La raccolta differenziata consente di distinguere gli scarti riciclabili ( vetro, metallo, carta, ecc. ) e gli scarti organici dalla spazzatura in generale.

Quindi, l’incenerimento dei rifiuti richiede molte altre fasi di selezione e lavorazione per ridurre il carico inquinante del combustibile.
Alla fine del processo di trattamento, soltanto una parte dei rifiuti potrà essere incenerita. La parte restante, invece, dovrà essere trattata in modo diverso e, a seconda delle proprietà chimiche, stoccata nelle discariche speciali o generali.

Nel grafico è riassunto l’utilizzo dei rifiuti in Italia. Come si può vedere solo una piccola percentuale di biomassa sarà utilizzata per produrre energia,

La resa

Un impianto di termovalorizzazione di rifiuti urbani richiede l’impiego essenzialmente di energia elettrica per il funzionamento delle sue apparecchiature principali, ausiliarie ed accessorie.

Una volta selezionata la parte dei rifiuti che può essere incenerita, il combustibile viene inviato ai termovalorizzatori dove avviene l’incenerimento finale. Il calore prodotto dalla combustione è sfruttato per generare l’energia elettrica.
Dalla fermentazione di prodotti e rifiuti organici in discariche o in appositi impianti di digestione sia in presenza che in assenza di ossigeno, si possono ottenere delle miscele di gas contenenti per la maggior parte metano che può essere sfruttato sia per essere immesso nella rete che per la produzione di energia.

Il biogas ha un buon potere calorifico dato l’elevato contenuto in metano, per cui si presta ad una valorizzazione energetica per combustione diretta, gassificazione, carbonizzazione, attuata in caldaia per sola produzione di calore, o in motori accoppiati a generatori per la produzione di sola elettricità o per la cogenerazione di elettricità e calore.

Le biomasse si segnalano per un alto tasso di umidità residua (dal 30 al 50% in peso), che comporta la necessità di trattamenti preliminari di essiccazione e densificazione prima dell’avvio a processi di combustione, pirolisi, o gassificazione.

Questo forte divario sulla quantità di calorie generabili per unità di peso (e di volume), rispetto ai tradizionali combustibili fossili, si riflette in modo negativo se si operano confronti a parità di calorie prodotte.

La combustione diretta della biomassa, in forni appositi, ne comporta una ossidazione totale ad alta temperatura.
Gassificazione, pirolisi e carbonizzazione sono processi che comportano invece una ossidazione parziale della biomassa, in modo da ottenere sottoprodotti solidi, liquidi e gassosi, più puri rispetto alla fonte di partenza, che possono poi essere combusti completamente in un passaggio successivo.

2021-12-06_18h01_15

Il grafico a lato mostra la differenza tra il biogas teoricamente producibile e il biogas effettivamente captabile, e la durata di un impianto.

La produzione di biogas da discarica ha un caratteristico andamento a campana che dipende alla quantità di rifiuti depositati in discarica annualmente. Il ciclo di vita con dimensioni medie è intorno a 30 anni, un impianto ha vita media intorno a 20.

Qualsiasi combustione genera materiali di scarto, CO2, H2, N2, H2O.

In Italia la termovalorizzazione di rifiuti segna il passo rispetto ai Paesi del Centro-Nord Europa.
Al 31.12.2010, secondo l’ultima indagine condotta da ENEA e Federambiente, la capacità complessiva di trattamento è pari 21.693 t/g, la potenza elettrica installata è 782 MW. La capacità media di trattamento risulta di poco superiore alle 400 t/g, corrispondenti a circa 135.000 t/a.
Le considerazioni e i dati di seguito riportati sono riferiti principalmente al caso dei rifiuti urbani, per i quali il ricorso all’incenerimento è molto più sviluppato che per gli speciali.
Occorre inoltre ricordare che negli impianti di incenerimento dei rifiuti urbani vengono attualmente trattati quantitativi significativi di rifiuti speciali (inclusi i pericolosi), mediamente dell’ordine del 15-20 % del totale trattato.

In aggiunta per rendere realmente utile alla produzione di energia pulita una centrale a biomasse, il legislatore, oltre a concedere incentivi, per gli alti costi degli impianti e di produzione, dovrebbe anche chiarire cosa ci possa finire dentro. Perché norme troppo vaghe sono altamente pericolose per la comunità, visto che, come detto, lì dentro ci finirebbero pure materiali che di bio non hanno proprio niente.

Utilizzare le biomasse dei rifiuti alimentari e urbani per generare elettricità e riscaldamento è vantaggioso solo per scopi ambientali. Diciamo che il reale vantaggio risiede nello smaltimento dei rifiuti e sfruttare al massimo il recupero di energia.



BIOMASSE DA CARCASSE DI ANIMALI, LIQUAME REFLUI DERIVANTI DAGLI ALLEVAMENTI

Cadono in questa categoria di biomasse:

• Gli effluenti dagli allevamenti bovini e bufalini,
• Gli effluenti dagli allevamenti suinicoli,
• Gli scarti di macellazione di bovini, suini e ovicaprini,
• La frazione organica dei rifiuti urbani,
• I fanghi derivanti dagli impianti di depurazione delle acque reflue.

Le problematiche

  • Determinare la produzione di ciascuna azienda zootecnica di deiezioni su base giornaliera, e quindi la producibilità di biogas nel caso in cui si voglia realizzare un impianto di DA, sono molteplici.
  • E’ necessario conoscere il numero di capi, il peso vivo, l’indirizzo produttivo (latte/carne/misto), la tecnica di tabulazione,
  • Il resoconto del numero delle carcasse da rimuovere, i sistemi di rimozione e stoccaggio delle deiezioni,
  • Necessità di un data base aziendale.
  • L’elevato contenuto di umidità rende necessaria una preventiva fase di essiccamento molto energivora per poter avviare a combustione tali scarti e sottoprodotti.
  • Il trasporto alle centrali.

Siamo praticamente fermi a 50 anni fa. Molti progetti, molte buone intenzioni. Ne riparliamo fra un ventina d’anni.




BIOENERGIA DALLE ALGHE

Enea: il futuro è nella bioenergia, nelle alghe. Affermazione alquanto ottimista.

Teoricamente le alghe presentano svariati vantaggi: proliferano a latitudini e in climi diversi; nel ciclo vitale rilasciano ossigeno, come qualsiasi pianta; hanno una crescita rapida.
La coltivazione di microalghe – in acqua salata o dolce, a seconda delle specie – può avvenire in vasche aperte non contaminate da agenti esterni ed esposte alla luce del sole o in impianti chiusi illuminati artificialmente a led.

In Italia, Eni dopo una sperimentazione effettuata nella sede di Ragusa, ha realizzato a Novara un impianto pilota. Tuttavia pur consultando il sito ufficiale dell’Eni non ho trovato un solo dato riguardarne di quanta energia può fornire un chilogrammo di alghe, quanto devono esser grandi le vasche per produsse per esempio un giga watt.

Per ora parliamo di aria fritta e soldi pubblici gettati al vento.



CONCLUSIONE

Biomasse da:

Legna, ramaglie, sfalci: Emissione di CO2 più elevata del carbone. Vengono emessi composti organici volatili, diossine, metalli pesanti e particolato ultrasottile (nanopolveri) che generano tumori.

Rifiuti alimentari e urbani. Processi di lavorazione complessi, costosi. Confusa politica di smaltimento dei prodotti di scarto. Scarsa percentuale di utilizzo dei rifiuti. Immissione di materiali inquinanti nell’atmosfera (CO2, H2, N2,). Bassi livelli di resa.

Carcasse animali, liquami reflui degli allevamenti: se ne parla a sproposito, ma nulla di serio e fattibile in termini concreti nel ricavare energia.

Alghe. solo soldi spesi inutilmente in ricerche per un progetto di nessuna efficacia.

Tutte le biomasse in Italia coprono circa il 5% del totale del fabbisogno energetico nazionale. E così resterà anche nel mondo fino al 2050 secondo uno studio della New Energy Outlook 2021 (Neo).

Siete proprio convinti del futuro delle biomasse come fonte alternativa al fossili e di riduzione dell’anidride carbonica nell’atmosfera?

Ritorna a
Green Deal

Ritorna a
Home Page

Pubblicato in Ambiente, Attualità | Contrassegnato , , , | Lascia un commento

Idrogeno liquido, conviene?

Sento parlare con estrema leggerezza il possibile utilizzo futuro dell’idrogeno liquido: “l’idrogeno liquido salverà il mondo”. “Hydrogen I love you”
Allora facciamoci una chiacchierata.

L’idrogeno è un gas composto da piccole molecole biatomiche. L’idrogeno liquido non è altro che lo stato liquido dell’idrogeno in forma naturale, cioè gassosa (H2)

Allo scopo di evitare una noiosa esposizione salterò a piè pari il processo industriale per la produzione dell’idrogeno liquido facendo una esposizione sommaria. La casalinga di Verona ne sarà più che contenta.

Ci sono tre modi di produzione di idrogeno liquido.
L’idrogeno Grigio viene estratto dal metano. Il processo libera però CO2.
L’idrogeno Blu quello ottenuto ancora da steam reforming del metano. Anche questo processo genera CO2.
L’idrogeno Verde che è prodotto per elettrolisi.

Parliamo di quest’ultimo.

2021-12-03_16h45_38

Per produrre l’idrogeno liquido bisogna partire dall’idrogeno gassoso, ad es. quello prodotto da un elettrolizzatore e intubato direttamente all’uscita dagli elettrodi. 

L”idrogeno gassoso viene fatto entrare in un contenitore, lontano da fonti di calore e da sorgenti elettriche, dopo averlo spurgato con un gas inerte (ad es. azoto o argon), per pulirlo ed evitare pericoli di esplosioni a causa dell’aria altrimenti presente.
A questo punto viene pressurizzato il serbatoio: la pressione del gas viene regolata al valore di quella atmosferica standard, pari a circa 1 atmosfera, ideale per formare idrogeno liquido.

Ora, la temperatura del serbatoio va abbassata a meno di -252 °C: una volta che è calata sotto questa soglia, il gas cambia stato trasformandosi in liquido, e giace sul fondo del contenitore.

Ovviamente tutto questo necessita di energia.

E’ più che evidente i rischi che si corrono. Chi vuol produrre idrogeno liquido deve stare molto attento ai rischi di incendio, esplosione, asfissia (da grandi rilasci di idrogeno nell’ambiente, essendo inodore), ustioni fredde (a contatto con la pelle o con gli occhi).

 Quando viene compresso questo gas può essere usato per una vasta quantità di applicazioni legate all’energia.
L’idrogeno liquido, ad esempio, è considerato uno dei tanti possibili sistemi futuri di accumulo dell’energia, utilizzabile anche come vettore di energia perché può essere facilmente trasportato.
L’idrogeno liquido può essere usato pure dall’industria automobilistica: in particolare, al posto dei combustibili fossili nelle auto a idrogeno.

Detta così sembra tutto facile. Che ci vuole.

L’idrogeno liquido è un elemento infiammabile, che brucia facilmente ed in modo violento se è a contatto con l’aria: in pratica, è sufficiente una piccola scintilla per farlo esplodere. Ora potete immagine le conseguenza anche per un piccolo incidente tra autovetture. Un vero disastro sarebbe un incidente in un centro abitato. In pratica è come portare una bomba in automobile.

2021-12-03_17h10_58Ad evitare seri rischi l’idrogeno liquido viene conservato in bombole o contenitori in grado di sopportare elevate pressioni e di mantenerlo alla corretta temperatura, altrimenti il liquido lentamente ritornerebbe allo stato gassoso.
In ogni caso, a causa delle piccole dimensioni delle sue molecole, l’idrogeno liquido anche se conservato in un contenitore ben chiuso tende ad evaporare dell’1% al giorno, per cui va conservato in un ambiente grande e ben areato.

In aggiunta bisogna tenere presente il problema dello stoccaggio e dei costi.

Stoccaggio

Per comprendere al meglio le difficoltà di stoccaggio, facciamo un confronto sul potere calorifico. Per unità di massa, ovvero un kg, l’idrogeno sviluppa ben 120 MJ, contro i 43,5 della benzina e i 50 del metano.
Questo significa che un chilo di idrogeno sviluppa tre volte l’energia di un chilo di benzina. Ma non è ancora finita: a causa della sua densità, a condizioni standard un m3 di idrogeno si traduce in appena 2,97 MJ.
In conclusione, l’idrogeno per essere utilizzato deve essere immagazzinato in modo tale da aumentarne considerevolmente la densità.

Chi ha un minimo di nozioni di fisica sa che, per aumentare la densità di un gas, o si aumenta la pressione, o si diminuisce la temperatura seconda questa equazione di stato che mette in relazione la pressione  p, la temperatura T (espressa in kelvin), il volume V e la quantità di sostanza n, dove R è la costante di Boltzmann.

La massima pressione all’interno del serbatoio, infatti, con le tecnologie attuali, si attesta intorno ai 5 – 6 bar. Siccome lo stato liquido, per l’idrogeno, non è stabile (vista la bassissima temperatura di ebollizione) per mantenerlo è necessario sottrargli calore, il che implica il consumo di una certa quantità di energia. In questo caso il consumo energetico, si identifica con una continua e controllata evaporazione dal serbatoio, ottenuta mediante lo scambiatore di calore.

Per dare un’idea, gli attuali serbatoi di metano per autotrazione, realizzati in lamiera d’acciaio, hanno pressioni di esercizio pari a 220 bar e, con una capacità di 85 litri – che equivalgono a circa 14-15 kg di metano immagazzinati – pesano quasi un quintale. Questo vuol dire che, per realizzare bombole capaci di lavorare in sicurezza a 700 bar, siamo obbligati a rivolgerci a materiali compositi: attualmente sono allo studio speciali resine rinforzate con fibre di carbonio.

Trasporto

Data la elevata pericolosità del trasposto su ruote e su rotaie, l’ideale sarebbe creare una rete per la distribuzione dell’idrogeno. Cosa non facile se guardiamo un precedente, la metanizzazione, iniziata oltre 50 anni fa e, oggi, ancora in corso in molte zone del Paese.
Lo sguardo dei ricercatori, quindi, è indirizzato sulla produzione in loco. Una volta prodotto, l’idrogeno dovrebbe essere distribuito in apposite stazioni “multifuel”, capaci di erogare in tutta sicurezza più tipologie di carburante nella stessa area.

Costo

Ecco un altro dei nodi del problema. Molti dicono di no, ma al di là delle belle parole della riduzione della CO2 emessa nell’atmosfera bisogna fare i conti con i costi. E produrre idrogeno (per elettrolisi, ovviamente, altri modi non sono presi neppure in considerazione) non può essere così tanto conveniente. Non entro nel dettaglio, l’argomento è complicato e dipende dal tipo di impianto, ma possiamo così sintetizzare:

  • Per produrre un KWh occorrono, in media, 78 litri di acqua. Questo significa che per produrre un Kg di idrogeno, lavorando con rendimenti del 75%, serviranno 4.000 litri d’acqua.
  • Oggi un impianto avrebbe un costo di produzione di H2 pari a 5/8 €/kg, a seconda della taglia dell’elettrolizzatore.

Ora ditemi voi.

Ritorna a
Green Deal

Ritorna a
Home Page

Pubblicato in Ambiente, Attualità, Tecnologia | Contrassegnato | Lascia un commento

L’intelligenza è quantizzata?

| l’intelligenza | intelligenza e computer | intelligenza quantistica | lucy |
| conclusione |


INTELLIGENZA

Sei un idiota, uno stupido, sei senza cervello, non capisci nulla.

Sono solo alcune delle tante espressioni ricorrenti sui social dove i frequentatori si fanno gentilmente i “complimenti”.
Basta poi leggeri i commenti su alcuni temi fondamentali della vita comune dove ognuno si arroga la patente di essere più intelligente degli altri, di saperne di più. Quindi a pensarci bene sui social le persone sono classificate in base al grado di intelligenza o imbecillità. In pratica sui social ci sarebbero due classi distinte: gli stupidi e gli intelligenti. E nel mezzo una massa di “livelli” di intelligenza/stupidità diversa.

Alcuni sostengono che l’intelligenza è un dono della natura, altri che è il risultato dell’ambiente in cui si è vissuti. Altri che la intelligenza si può acquisire dalla esperienza, dallo studio.
E’ innegabile tuttavia che alcune persone riescono a fare cose di cui la maggioranza è incapace.

L’intelligenza è considerata la capacità di un persona di affrontare e risolvere con successo situazioni e problemi nuovi o sconosciuti (il problem solving).

Per la Treccani la intelligenza è un complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente.

Tradizionalmente attribuita alle sole specie animali, oggi l’intelligenza viene da alcuni attribuita, in misura minore, anche alle piante.

Sebbene abbia sviluppato dei modelli per la valutazione dell’intelligenza, la comunità scientifica ancora non concorda universalmente su una definizione unica di cosa essa sia.

Da alcuni anni si sono diffusi diversi concetti d’intelligenza, come la tanto decantata Intelligenza Emotiva o le Intelligenze Multiple e l’Intelligenza Intuitiva. Tutte queste sono intervenute a salvare la reputazione di coloro che, storicamente, sono sempre stati considerati meno intelligenti. Ma oltre alla probabile esistenza di diversi tipi d’intelligenza è certo che la maggioranza delle persone continuano a valutare se stessi e gli altri secondo il criterio tradizionale.

  • Poi c’è la intelligenza linguistica-verbale, di chi è abile a esprimersi con le parole. Per esempio poeti, scrittori, giornalisti, avvocati e insegnanti.
  • Esistenziale-teoretica, la capacità di riflettere sui grandi temi dell’esistenza, dalla natura dell’Universo alla coscienza dell’uomo. Ciò che sanno fare molto bene sia i filosofi che i fisici.
  • Logico-matematica, di chi sa risolvere operazioni matematiche, individuare nessi logici, sperimentare le idee e sviluppare argomentazioni logiche. È quella di scienziati, ingegneri, programmatori.
  • Naturalista, Chi la possiede sa individuare, catalogare e trovare relazioni fra gli oggetti naturali. È il mestiere di biologi, geologi, allevatori, contadini.
  • Visivo-spaziale, Quella di chi sa ragionare in più dimensioni, rappresentare gli oggetti nello spazio, usare mappe, disegnare. Come fanno bene pittori, designer, artisti, architetti.
  • Interpersonale, Consente di entrare in contatto con gli altri, riconoscendone sentimenti, comportamenti, intenzioni. Come fanno i politici o i commercianti.
  • Musicale, che rende capaci di distinguere suoni, ritmi, tonalità, timbri musicali, di comporre musica e di suonare strumenti con facilità. La possiedono i cantanti, i compositori, gli strumentisti.
  • Corporea, È l’intelligenza tipica di chi ha una maggiore padronanza dei movimenti e sa esprimersi con il linguaggio del corpo. Quella che sfruttano gli sportivi e i danzatori.

Ma al di là di tutte queste classificazioni, cos’è realmente l’intelligenza? Cosa implica essere una persona intelligente? L’intelligenza è l’artefice del nostro posizionamento sociale?

Paradossalmente le risposte possono essere molto diverse, dato che storicamente il concetto d’intelligenza è stato relazionato con l’ambito scolastico, con il conoscimento, così che essere intelligenti viene associato all’esito, alla possibilità di trionfare e inserirsi facilmente nella società.

E’ stato sviluppato un test per calcolare il quoziente di intelligenza (QI quoziente intellettivo), ma non voglio parlarvi di questo, perché è fortemente influenzato dallo stesso tipo di domande non recepite nella stessa misura da tutti i soggetti.

Ora se la intelligenza è legata in qualche modo al ragionamento, alla apertura mentale, il fatto stesso che non c’è modo di far ragionare i no-vax, terrapiattisti, ambientalisti, vegani, seguaci delle sci chimiche, i complottisti, questo fa pensare che costoro vivono nel loro “livello” di intelligenza bloccata e che le opinioni, i pregiudizi compromettono seriamente il passaggio a livelli superiori.


INTELLIGENZA COME UN COMPUTER

Io mi sono fatto una mia opinione ragionando su alcuni esempi pratici. uno studente delle elementari, un operatore ecologico (per favore non lo chiamate spazzino), un avvocato, un fisico, un ingegnere, un medico, un artista.

Parto dal concetto di “tabula rasa” che vuol dire molte cose, fondamentalmente essere privo di ogni cognizione, un foglio bianco su cui scrivere.

Bene, all’atto della nascita la nostra mente è come una tabula rasa. Sono tabula rasa i nostri figli che iniziano la scuola dell’obbligo, lo siamo stati tutti noi. Eppure già dai primi anni si intravedono bambini con differente grado di apprendimento. E’ questa quella che definiamo intelligenza?

Faccio un passo indietro. Nel secondo dopoguerra si impose la teoria secondo cui l’intelligenza era determinata da famiglia, società, ambiente, luogo di nascita, scuola e dall’esperienza individuale.

Il fatto stesso che i bambini in tenera età sviluppano capacità cognitive differenti, che i cosiddetti “geni” siano nati in ogni parte del mondo, in differenti contesti sociali, sta a significare che sicuramente dipende da un fattore genetico.

2021-11-04_13h45_04

Per farmi capire ho paragonato il nostro cervello ad un computer.
Il nostro cervello è simile all’hardware del computer, l’uno fatto da componenti elettronici e circuiti elettrici, l’altro da sinapsi (dove i segnali cambiano faccia: da elettrici, diventano chimici).
Il nostro cervello non sarebbe altro che una sorta di “computer biologico”


L’analogia poi è più evidente nel fatto che il cervello è come se avesse dei programmi specifici demandati a presiede il controllo delle emozioni, le funzioni volontarie, il controllo delle funzioni sensoriali (udito, olfatto, vista, tatto e gusto), alla capacità di linguaggio e di comprensione del linguaggio, alla facoltà di memoria (stoccaggio delle informazioni), all’apprendimento e all’elaborazione dei ricordi.
Una sorta di programmi (software) installati nel nostro cervello

Quindi?
Nel computer la differenza la fa il livello avanzato del software, senza il quale un computer per quanto possa essere potente è solo uno stupido pezzo di ferro. Più intelligente è il computer quando più veloce è la interazione tra il software e la macchina.
La mente umana senza “il ragionamento” è solo un freddo archivio di nozioni. Come avviene la capacità di fare interagire tra loro queste informazioni attraverso il ragionamento è un mistero. E’ ancora un mistero la differente capacità umana tra gli individui di dare più velocemente soluzioni precise e rapide ai problemi (problem solving che abbiamo accennato poco sopra). Non dico una eresia nel dire che la capacità di ragionamento è innata. Per esempio la rapidità di apprendimento di nozioni complesse, di risolvere rapidamente un problemino di matematica e fare di conto.

Praticamente è come se ognuno di noi nascesse con un proprio livello di intelligenza che può essere aumentato dalla istruzione, dalla esperienza.

Per esempio un medico deve avere grandi capacità di immagazzinamento dei dati (memoria del computer) e capacità di metterli in relazione alla risoluzione dei problemi (software). Un ingegnere oltre ad possedere informazioni (un buon hardware) deve avere capacità proprie per risolvere problemi (sofisticati software). Un avvocato è considerato intelligente non per quello che sa, ma per la capacità della sua destrezza. Un artista, (pittore, scultore, musicista, atleta) ha capacità proprie indipendentemente dal suo grado di istruzione.
C’è forse un modo di attribuire loro un differente indice di intelligenza? E’ più intelligente chi più ha successo? Chi guadagna di più? E’ più intelligente chi è capace di memorizzare il 5 maggio di Manzoni in un colpo solo di lettura? Fare una moltiplicazione a due cifre?
Se così fosse come definire i “geni” sconosciuti nel campo della scienza vissuti anonimamente? Dobbiamo dire che sono stati poco intelligenti a dare poco valore alla propria intelligenza? Sono state più intelligenti le soubrette o attrici di successo che hanno sfruttato altre qualità che madre natura ha dato loro?
Quello che voglio dire è che forse il modo moderno di intendere la intelligenza è solo la capacità di sfruttare al massimo le proprie capacità.


INTELLIGENZA QUANTISTICA.

Tempo fa lessi ed anche pubblicai un articolo sulla coscienza che, secondo l’americano dott. Stuart Hameroff e l’insigne inglese Sir Roger Penrose, tra l’altro collaboratore di Stephen Hawking, l’anima umana è una delle strutture fondamentali dell’Universo e che la sua esistenza è dimostrabile grazie al funzionamento delle leggi della fisica quantistica. L’anima sarebbe contenuta all’interno delle nostre cellule cerebrali. Con la morte fisica, le informazioni quantistiche che formano l’anima non vengono distrutte ma rimangono nel dna e trasmesse ai discendenti.
La domanda è se questo vale anche per la intelligenza.

2021-11-05_13h36_48Il nostro corpo è fatto di materia, e la materia è fatta di atomi. Anche il nostro cervello è fatto di atomi.
Ora se solo pensiamo che gli atomi sono soggetti alla teoria quantistica, nessuno può negarci la considerazione che anche gli atomi del nostro cervello sono soggetti alla teoria quantistica.
Non c’è nessuna evidenza dimostrata ma ci deve essere una spiegazione. Qualcosa di diverso ci deve essere nel nostro cervello, nei legami chimici che compongono le molecole del nostro cervello che ci contraddistingue gli uni dagli altri, nel nostro DNA che fino a prova contraria è composto da atomi.

2021-11-05_12h53_10Gli elettroni, come sappiamo, girano attorno al nucleo su orbite (orbitali) quantizzate di energia, ovvero per quanti di energia ben precisa senza assumere valori di energia intermedi. Ogni elettrone ha il suo livello, il suo quanto di energia è descritto dell’equazione di Schrodinger. Più precisamente viene espresso dalla funzione d’onda Ψ = Ψ(n1)Ψ(n2)Ψ(n3)…Ψ(nx). Gli orbitali di un atomo sono pertanto distinti da quattro numeri quantici: nlml e ms. Dove il numero quantico ‘n’ sta ad indicare il livello più vicino al nucleo,
Il salto da un livello ad un livello superiore può avvenire solo fornendo energia.

Ora se il nostro cervello è un ammasso di atomi celebrali che devono rispondere alla leggi della fisica quantistica, ciascuno di noi deve avere un proprio livello di intelligenza quantizzata.

Ognuno di noi viaggia su una propria lunghezza d’onda Ψ(nx).

Ognuno di noi vive nella sua orbita quantizzata. Praticamente ognuno di noi ha il suo ‘quanto’ di energia d’intelligenza, dal più basso al più alto. E per saltare da un livello inferiore ad un altro superiore bisogna fornire energia, che tradotto in linguaggio comprensibile significa fornire più cultura, più istruzione, interazioni con il mondo esterno, esperienza.


LUCY

Lucy è un film del 2014. Lucy, una donna che acquisisce capacità mentali superiori quando una droga nootropica e psichedelica inserita nel suo corpo da trafficanti di droga viene assorbita nel suo flusso sanguigno.
L’idea si basa sul fatto che secondo una teoria (non confermata scientificamente) che il nostro cervello non è sfruttato al massimo, diciamo attorno al 10%. Gran parte del cervello umano non sarebbe utilizzata e se lo fosse al 100% consentirebbe all’individuo di godere di capacità straordinarie.

Man mano che il corpo di Lucy assorbe droga il suo cervello aumenta le sua potenzialità. Oltre il 10% fino al 50% aumenta la capacità dei ricordi fino all’infanzia, di memorizzare libri interi, la sua capacità di ragionamento. Sa tutto di fisica, di ogni cosa. All’aumentare dell’assorbimento della droga riesce a controllare il suo corpo e la mente altrui, la gravità, le onde elettromagnetiche entrando e manipolando tutti i dispositivi elettromagnetici, fino nei computer immagazzinando ogni informazione. La fine? Vedetevi il film.


CONCLUSIONE

Possiamo azzardare una conclusione. E’ evidente che le persone hanno intelligenze diverse, livelli di intelligenza diverse, quantizzate, dove ognuno vive nella sua funzione d’onda Ψ(nx) sintonizzata con pari livelli d’onda (come una stazione radio) ma non sincronizzati con livelli superiori (uno stupido non riuscirà mai a confrontarsi con livelli superiori). A meno che si somministra “droga” culturale per elevare il livello.

Non vi obbligo ad essere d’accordo, ma è innegabile che ognuno ha il suo livello di intelligenza “quantizzata”. Alcuni rimangono su questo livello per tutta la vita, altri per quanto si sforzino non riescono a raggiungere un livello superiore, altri si fermano a un livello appena superiore, solo pochissimi riescono a raggiungere il massimo livello quantizzato.

Ritorna a
Scienza e Filosofia

Ritorna alla
Home Page

Pubblicato in Attualità, Cultura, filosofia, Fisica, Società | Contrassegnato , , | Lascia un commento

Il tempio di Kailasa

Il Tempio di Kailasa è una delle più grandi strutture monolitiche del pianeta, scolpito da un’unica roccia. E’ stato definito l’ottava meraviglia del mondo.

C’è un tempio indù in India, non lontano da Aurangabad, nello stato del Maharashtra  dove si trovano le grotte di Ellora un importante sito archeologico che dai tempi antichi è meta di pellegrinaggio di tre grandi religioni: buddhismo, induismo e jainismo.

Tra queste grotte, splendidi esempi della migliore architettura rupestre indiana  si trovano  templi, santuari, affreschi di vario genere. Tra questi spicca il famoso Tempio di Kailasa o Kailasanatha, uno straordinario monumento induista tra i più spettacolari templi dell’India e del mondo, di fatto la più grande struttura scavata nella roccia.

Il Tempio di Kailasa, che ti stupirà per il suo design e la sua costruzione che sono al di là di qualsiasi cosa immaginabile.
Oltre alla bellezza incredibile del luogo, vi sorprenderà sapere che mentre gli archeologi sostengono che per costruire una struttura del genere sarebbero serviti secoli di lavoro umano, in realtà il tempio di Kailasa, che è stato commissionato nel 757d.C. e terminato nel 783d.C, è stato completato in soli 26 anni. Davvero affascinante.

Impressionanti i numeri: profondo 50 metri circa, largo 33 metri circa, alto 30 metri circa.

Un gigantesco santuario monolitico scolpito scavando dalla collina basaltica in pendenza due imponenti tranche, ciascuna lunga 90 m e unite da una trincea di collegamento di 53 m di lunghezza. Il tempio è stato quindi scolpito dalla restante porzione centrale.

Il Tempio di Kailasa fa parte di 32 templi rupestri e monasteri che sono noti collettivamente come le grotte di Ellora, questo occupa la grotta 16. Il tempio è impressionante, diverso, maestoso. La caratteristica che lo rende unico è che è stato intagliato verticalmente, i suoi intagliatori, cioè, iniziarono in cima alla montagna e scavarono verso il basso, utilizzando una tecnica diversa dalla tradizionale costruzione che parte dal basso. Uno degli elementi più noti del Tempio di Kailasa raffigura  Ravana che  scuote la  montagna. La scultura è riconosciuta come uno dei pezzi più belli dell’arte indù.

Stime sulla costruzione dicono che: più di 400.000 tonnellate di roccia furono rimosse dalla montagna, che circa 60 tonnellate di roccia siano state rimosse ogni giorno durante la fase iniziale di costruzione del tempio, che i costruttori lavorassero per più di dodici ore al giorno, trasportando circa 5 tonnellate di roccia in media fuori dalla montagna ogni ora.

Il percorso

Quando si passa attraverso il cancello, ci si trova un piccolo mandapa all’ingresso aperto che ospita un padiglione santuario di Nandi con il vitello sacro di Shiva che guarda in direzione del santuario interno dove si trova il grande mandapa. Procedendo verso l’interno si trova due colossali colonne dhvajastambha (pilastro indipendente) su entrambi i lati. Si entra quindi nel cuore del tempio costituito come al solito dal grande mandapa (sala del culto) e dal garbhagriha (sancta sanctorum). Nel grande mandapa di 18 metri per 18 destinato alle udienze, danze, cerimonie sono disposte 16 colonne monolitiche disposte in gruppi di quattro.
Il vimana (santuario principale) a forma di torre che contiene il santuario raggiunge un’altezza di 32 metri da terra, quindi tutti coloro che visitano qui trattengono il fiato nella sua magnificenza.

Non sappiamo ancora esattamente come i progettisti, gli architetti e i costruttori siano riusciti a ottenere tutto ciò con una tecnologia relativamente limitata e gli strumenti a loro disposizione in quel momento. Una quantità enorme di rocce da trasportare, una montagna da intagliare per costruire questa meraviglia architettonica. Ci sembra molto plausibile pensare che chiunque abbia costruito queste affascinanti caverne migliaia di anni fa aveva a disposizione sicuramente qualcosa in più di semplici martelli, scalpelli e picconi. E tanti, tanti uomini.

La storia

Il tempio di Kailasa rappresenta il sacro Monte Kailash, la dimora del dio Shiva, ed è chiamato Tempio KailashnathaKailash o Kailasa.

Questo magnifico tempio, situato a Ellora, Maharashtra, in India, è dedicato al culto indù ed è stato commissionato dal re Krishna I della dinastia Rashtrakuta. Il tempio è considerato uno dei più notevoli templi rupestri mai costruiti in India per le sue dimensioni, l’architettura e il trattamento scultoreo.

Il tempio vuole rappresentare la montagna cosmica il Monte Kailash, la mitica dimora di Shiva sull’ Himalaya e in effetti il tempio cerca di essere la replica del palazzo sulla terra e, a conferma di questo nel tempio si trova una scena scolpita di Ravana intrappolata sotto la montagna di Shiva.

Altri due elementi che supportano questa tesi arriva da due aspetti: il primo è che originariamente tutto il complesso aveva uno spesso strato di intonaco bianco per farlo sembrare ad una montagna innevata, e secondo elemento è che l’intero tempio è situato su un’alta piattaforma che i fedeli devono salire attraverso due scale monumentali, come salissero una montagna.

Un’antica leggenda indù parla della costruzione del Tempio di Kailasa. Secondo Katha-Kalpataru di Krishna Yajnavalki (1470-1535 circa), il re locale aveva sofferto di una terribile malattia. Sua moglie, la regina, decise di pregare il Dio Shiva affinché guarisse il marito. La regina promise di costruire un tempio se il suo desiderio fosse esaudito e promise anche di osservare un digiuno fino a quando sarebbe riuscita a vedere lo shikhara (cima) di questo tempio. Alla fine, il re fu guarito e la regina chiese che il tempio fosse costruito immediatamente.

Tuttavia, ogni architetto che ha presentato il progetto ha spiegato che ci sarebbero voluti molti mesi per costruire un tempio completo fino allo shikhara (cima). Ma, un architetto chiamato Kokasa spiegò al Re e alla Regina che avrebbero visto lo shikhara (cima) di un tempio entro una settimana. Alla fine, Kokasa iniziò la costruzione ma usando una tecnica diversa. Invece di scavare dal basso, si diresse verso la cima e scavò verticalmente la montagna, dall’alto. Alla fine, dopo una settimana, finì lo shikhara permettendo alla regina di concludere il suo digiuno.

Un tempio … sulla collina di Elapura, di una struttura meravigliosa, – nel vedere che il migliore degli immortali che si muovono in macchine celesti, colpito con stupore, pensando molto costantemente, va dicendo: “Questo tempio di Shiva è autoesistente; in una cosa fatta dall’arte tale bellezza non si vede, un tempio il cui architetto-costruttore, in conseguenza del fallimento della sua energia nei confronti di un’altra opera simile, fu lui stesso improvvisamente colpito dallo stupore, dicendo: “Oh, com’è stato che L’ho costruito.””

Harle, 181

ritorna a
Raccolta Misteri

ritorna a
Home page

Pubblicato in Ambiente, Misteri | Contrassegnato | Lascia un commento

La matematica che non puoi non conoscere, facile

Prima di imparare a parlare l’uomo ha imparato a fare i conti per risolvere situazioni o problematiche della vita corrente. Una volta imparato a scrivere l’uomo ha messo per iscritto i ragionamenti che hanno risolto i problemi pratici. La matematica deve essere nata così.

Vuoi o non vuoi, ti piaccia o non ti piaccia, la matematica ci circonda ovunque e comunque. Fa parte di noi, della società.

Nessun oggetto è stato realizzato senza l’utilizzo della matematica e delle sue formule, equazioni, teorie, assiomi, fin dagli albori della storia dell’uomo: l’insegnamento della matematica e della geometria ai bambini è uno strumento molto importante per la crescita personale e culturale.

Oggi la matematica è la scienza razionale dei numeri espressa in equazioni che portano ad uno o più soluzioni.

Ci sono numeri e numeri, formule e formule. Per alcune di esse si può affermare senza timore di smentita che hanno cambiato il mondo e anche la storia. Ma ci sono anche equazioni che sono importanti in sé e per sé.

LE QUATTRO OPERAZIONI ARITMETICHE

Vi potrà sembrare strano ma senza le 4 operazioni la matematica non esisterebbe.

E’ la prima cosa assieme alla lettura che viene insegnata nella scuola dell’obbligo.

Ma se le guardate bene introducono già il concetto della equazione. Infatti conoscendo due dati si può ricavare il terzo.

  • a = c – b
  • a = c + b
  • a = c / b
  • a = c * b

IL TEOREMA DI PITAGORA

In un triangolo rettangolo, il quadrato costruito sull’ipotenusa è uguale alla somma dei quadrati sui cateti. Tutti si ricordano il Teorema di Pitagora, anche se non è certo che sia stato proprio lui a provarne la validità per la prima volta. C’è chi ritiene che siano stati addirittura i Babilonesi a scoprirlo e sicuramente si sa che una prova chiara è stata fornita d Euclide.

I LOGARITMI

I logaritmi furono scoperti da Nepero, un proprietario terriero scozzese con la passione per la matematica, nel 1614. Furono rivoluzionari perché grazie anche alle tavole logaritmiche permisero per secoli di moltiplicare grandi numeri in modo facile e veloce. I logaritmi hanno permesso di fare dei salti da gigante nel dominio della matematica, della fisica, o ancora dell’ingegneria e dell’astronomia.

PI GRECO

3,14159 26535 89793 23846 26433 83279 50288 41971 69399 37510 58209 74944 59230 78164 06286 20899 86280 34825 34211 7067…

Non sono numeri battuti a caso sulla tastiera, ma le prime 100 cifre di π. Il Pi greco è una costante matematica, cioè un numero che ha un valore definito esattamente. La misura della circonferenza di un cerchio si trova con la formula C= π*d = 2*π*r.
Quindi pi greco è uguale al rapporto fra la misura della circonferenza e il diametro. È utilizzato in fisica, statistica e astronomia, tanto che Copernico e Galileo lo usarono per calcolare le infinite distanze tra i Pianeti.

NUMERI PRIMI

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97, ….

I numeri primi sono considerati i mattoni della-matematica perché tutti gli altri numeri sono loro multipli sono i numeri primi ossia tutti i numeri maggiori di 1 che sono divisibili solo per 1 e per se stessi esistono infiniti numeri primi. L’interesse dell’uomo per questi numeri speciali è antichissimo addirittura millenario. «Esistono infiniti numeri primi».

NUMERI COMPLESSI

Per numero complesso si intende un numero formato da una parte immaginaria e da una parte reale. Può essere perciò rappresentato dalla somma di un numero reale e di un numero immaginario (cioè un multiplo dell’unità immaginaria, indicata con la lettera i). I numeri complessi sono usati in tutti i campi della matematica, in molti campi della fisica (e notoriamente in meccanica quantistica), nonché in ingegneria, specialmente in elettronica, telecomunicazioni o elettrotecnica, per la loro utilità nel rappresentare onde elettromagnetiche e correnti elettriche ad andamento temporale sinusoidale.

NUMERO DI NEPERO

Il valore approssimato del numero e è 2,718281828459… 

Simbolo del numero irrazionale trascendente base dei logaritmi naturali. L’importanza per l’analisi matematica del numero e come base dei logaritmi discende dai numerosi limiti notevoli che a esso sono collegati.

LA IDENTITA’ DI EULERO

Definita la equazione più bella della matematica perché mette in relazione i numeri fondamentali della disciplina, 0,1,i,e,π.

dove:

  • Il numero 1 è l’elemento neutro della moltiplicazione (per ogni a,a⋅1=1⋅a=a);
  • Il numero 0 è l’elemento neutro dell’addizione (per ogni a,a+0=0+a=a);
  • e è il numero di Nepero e la base del logaritmo naturale;
  • i è l’unità immaginaria, il numero complesso tale che i2=−1. L’introduzione di questa unità, grazie al teorema fondamentale dell’algebra, rende risolvibili nel campo dei numeri complessi tutte le equazioni polinomiali non costanti.
  • π è il pi greco, il risultato del rapporto tra la lunghezza di una circonferenza e il suo diametro.

LA SERIE DI FOURIER

L’idea della serie di Fourier è quella di approssimare le funzioni periodiche per mezzo di funzioni più regolari come le funzioni trigonometriche.

IL CALCOLO DIFFERENZIALE


Il calcolo differenziale di una funzione serve a quantificare, in particolare nel calcolo infinitesimale, la variazione infinitesimale della funzione rispetto ad una variabile indipendente. E’ fondamentale per misurare aree, curve e solidi, si usa in tantissime aree della scienza dalla medicina alla fisica e all’ingegneria.

L’EQUAZIONE DI SECONDO GRADO

Un’equazione algebrica di 2° grado si presenta nella forma: a x 2 + b x + c = 0 , con a ≠ 0 . Il termine Δ = b 2 – 4 a c si chiama discriminante. L’equazione di secondo grado ci permette di trovare le due soluzioni della incognita x di secondo grado. I primi ideare un metodo per risolvere le equazioni quadratiche (anche se in forma diversa da quella usata attualmente) sono stati i babilonesi, ma pure gli indiani, i cinesi e gli arabi avevano messo a punto sistemi ad hoc per la soluzione tra il 600 e il 300 a.C.

LA LEGGE UNIVERSALE GRAVITAZIONALE DI NEWTON

La legge di gravitazione universale di Isaac Newton afferma che nell’Universo ogni punto materiale attrae ogni altro punto materiale con una forza che è direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. Dove G è la costante universale .

COSTANTE UNIVERSALE

La costante universale regola il calcolo della forza di attrazione gravitazionale tra due corpi.

Il valore è di 6,67×10⁻¹¹Nm²/kg². Un valore molto piccolo (pari al peso di un corpo di 6 millesimi di grammo) che ci fa capire che la forza di attrazione tra i corpi è molto debole. Sono necessarie masse molto grandi come quelle dei pianeti o delle stelle per poter osservare qualche effetto. Dove ƴ è la costante di Keplero.

FORMULA DI EULERO PER I POLIEDRI

In geometria solida, la formula di Eulero per i poliedri mette in relazione i numeri F (facce), E (spigoli) e V (vertici) di un poliedro semplice. La somma di vertici e spigoli meno le facce è sempre 2

LA DISTRIBUZIONE NORMALE DI GAUSS

E’ la base della statistica moderna, che non Esisterebbe senza questa formula.

Nella teoria della probabilità la distribuzione normale, o di Gauss (o gaussiana) dal nome del matematico tedesco Carl Friederich Gauss, è una distribuzione di probabilità continua che è spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. Il grafico della funzione di densità di probabilità associata è simmetrico e ha una forma a campana, nota come campana di Gauss (o anche come curva degli errori, curva a campana, ogiva).

EQUAZIONE DELLE ONDE DI D’ALEMBERT

Questa equazione differenziale descrive il comportamento delle onde, come il comportamento di una corda di violino che vibra. Serve per vedere come funziona il suono, come succedono i terremoti, e il movimento degli Oceani .

LA TRASFORMATA DI FOURUER

Elaborata nel 1822 dal matematico francese Jean Baptiste Joseph Fourier, permette di scrivere una funzione dipendente dal tempo nel dominio delle frequenze. Ha tantissimi usi nella scienza applicata: dalla compressione delle informazioni delle imagini Jpeg alla descrizione della struttura delle molecole.

TRASFORMATA DI LAPLACE

Laplace, regola di (per lo sviluppo di un determinante) fornisce una procedura per il calcolo del determinante di una matrice quadrata: il determinante di una matrice quadrata A di ordine n è uguale alla somma dei prodotti degli elementi aij di una riga (colonna) qualsiasi per i rispettivi complementi algebrici Aij.

LE EQUAZIONI DI MAXWELL

Descrivono la relazione tra campi elettrici e campi magnetici. Sono per l’elettromagnetismo quello che le leggi di Newton sul movimento sono per la meccanica. Jeames Clerk Maxwell ha tradotto in equazioni il lavoro di Michael Faraday sul rapporto elettricità/magnetismo. Sono fondamentali per la tecnologia elettronica e sono usate nei radar, nella televisione e in generale nei moderni sistemi di comunicazione.

IL SECONDO PRINCIPIO DELLA TERMODINAMICA

La formulazione più diffusa del secondo principio della termodinamica è quella di Clausius: «È impossibile realizzare una trasformazione il cui unico risultato sia quello di trasferire calore da un corpo più freddo a uno più caldo senza l’apporto di lavoro esterno». Il secondo principio della termodinamica è noto anche come entropia, cioè la misura del disordine di un sistema fisico isolato.

LA TEORIA DELLA RELATIVITA’ DI EINSTEIN

E’ la più famosa equazione della storia e mette in relazione energia e materia. Formulata nel 1915 (relatività generale) da Albert Einstein ha rivoluzionato il mondo della fisica. E’ l’equazione che stabilisce l’equivalenza e il fattore di conversione tra l’energia e la massa di un sistema fisico.

LA EQUAZIONE DI SCHROEDINGER

In meccanica quantistica è un’equazione fondamentale che determina l’evoluzione temporale dello stato di un sistema, ad esempio di una particella, di un atomo o di una molecola. Formulata dal fisico austriaco Erwin Schrödinger nel 1927 si basa sul principio che le particelle che costituiscono la materia, come l’elettrone, hanno un comportamento ondulatorio. L’equazione di Schrödinger ha avuto un ruolo determinante nella storia della meccanica quantistica che è alla base del nucleare e dei semiconduttori.

ENTROPIA

L’entalpia può essere espressa in joule (nel Sistema internazionale) oppure in calorie, ed esprime la quantità di energia interna che un sistema termodinamico può scambiare con l’ambiente.

ENTANGLEMENT

Quella che vedete è la equazione di Paul Adrien Maurice Dirac, una delle più belle equazioni della fisica,  che descrive il fenomeno dell’entanglement. “L’entanglement quantistico” è il fenomeno in cui due o più particelle che si sono trovate in interazione reciproca per un certo periodo, anche se separate spazialmente, rimangono in qualche modo legate indissolubilmente (entangled), nel senso che quello che accade ad una di esse, si ripercuote istantaneamente anche sull’altra, indipendentemente dalla distanza che le separa. Il quadrato di questa funzione d’onda (Ψ²) indica la massima probabilità che l’evento si verifichi in un determinato spazio.

IL PRINCIPIO DI INDETERMINAZIONE

Indissolubilmente legato al nome di Werner Karl Heisenberg, che infatti lo enunciò nel 1927, stabilisce che è impossibile determinare contemporaneamente la posizione e la velocità di una particella. h è la costante di Planck ridotta 1,0551·10-34 J·s.

EFFETTO DOPPLER

L’effetto Doppler è la variazione di frequenza del suono rilevato dal ricevitore dovuto al fatto che la sorgente sonora e il ricevitore hanno velocità diverse rispetto al mezzo in cui il suono si propaga. Dove fr è la frequenza del ricevitore e fs la frequenza della sorgente, v la velocità di spostamento, a la velocità del suono.

TRASFORMAZIONI DI LORENZ

Le trasformazioni di Lorenz prevedono correttamente il fenomeno della contrazione delle lunghezze e della dilatazione del tempo per sistemi di riferimento dove la velocità v del sistema è elevata e prossima alla velocità v delle luce.

LA COSTANTE DI PLANK

 (= 6,62606876 × 10−34 Js). Detta anche “quanto di azione di Plank” E’ è la dimensione minima dello spazio per vedere gli effetti della quantizzazione. 

Fu introdotto dal fisico omonimo nel 1900 e può essere definita come la costante di proporzionalità che lega la energia di una radiazione alla sua frequenza. Ne consegue che ad ogni frequenza p associata una ben determinata energia

LA COSTANTE DI HUBBLE

Nel 1929, Hubble, compie un’altra scoperta fondamentale in campo cosmologico: più le galassie sono distanti, più si allontanano velocemente dalla Terra. La costante di Hubble (Ho) determina la velocita di allontanamento (v) di una galassia dalla Terra in funzione della sua  luminosità (L). Nell’ottobre 2012 Freedman e altri, hanno ottenuto un valore per la costante pari a (74,3±2,1 km/s/Mpc) grazie alle misurazioni effettuate dal telescopio spaziale agli infrarossi Spitzer.


LA VELOCITA’ DELLA LUCE NEL VUOTO

In fisica la velocità della luce è la velocità di propagazione di un’onda elettromagnetica e di una particella libera senza massa. Nel vuoto ha un valore (limite massimo) di 299.792.458 m/s. Viene indicata normalmente con la lettera c.

ε =8.8544*10-12  coulomb2/N*m2. E’ la costante dielettrica nel vuoto. E’ un valore che descrive il comportamento del vuoto in presenza di un campo elettrico.

µ0 = 4π10-7 = 1.2566*10-6 m*kg/coulomb2. E’ la permeabilità magnetica nel vuoto. E’ la grandezza che esprime il comportamento del vuoto in presenza di un campo magnetico.

LA CARICA DELL’ELETTRONE

La unità di carica elettrica (e = 1.60219*10-19 coulomb). Integerrima, nel vero senso della parola, non si spezza e non se ne trovano sottomultipli. Stiamo parlando di qualcosa di minuscolo, che possiede una massa e una carica elettrica pur non avendo dimensioni né una struttura interna. Insomma, un concetto abbastanza astratto, che richiede una buona dose di immaginazione.

Ritorna a
Fisica e Astrofisica

Ritorna a
Home page

Pubblicato in Fisica | Contrassegnato , | 1 commento

Perché il cielo è azzurro, l’alba e tramonto rosso, facile.

San Benedetto del Tronto (mia foto)

Sicuramente vi sarete chiesti più volte perché il cielo sia azzurro. Perché all’alba o al tramonto il cielo diventi rosso, mentre di notte è buio, e non avete trovato la risposta giusta. La risposta non è semplice come potrebbe sembrare. Ho letto spiegazioni arraffate, complicate, anche molto banali.

La prima risposta sta nel fatto che se non ci fosse il Sole, il cielo non sarebbe né blu, né rosso, né turchino, sarebbe nero, come di notte.

LA LUCE SOLARE

Il Sole è un corpo che raggiunge temperature elevatissime (si parla di 5700 gradi della scala assoluta di Lord Kelvin) che emette luce sotto forma di onde elettromagnetiche di varie lunghezza d’onda. Di questa ampia gamma di onde elettromagnetiche i nostri occhi possono apprezzarne solo una piccola parte che è sostanzialmente quella che viene chiamata comunemente luce solare compresa tra 320 nm a 720 nm (nano metri 10-9). Si tratta di lunghezze d’onda che gli occhi percepiscono di colore viola, rosso, blu e giallo.  La radiazione di lunghezza d’onda più piccola dello spettro visibile (380nm) è quella che i nostri occhi percepiscono di colore viola, quella all’estremità opposta dello spettro visibile (720nm) è invece da noi percepita con colore rosso.

L’ATMOSFERA

Altro elemento fondamentale è l’atmosfera. I colori che vediamo sono il risultato dello “scontro” dei raggi solari contro un corpo, (l’atmosfera), senza la quale il cielo sarebbe nero. Il colore degli oggetti dipende da che luce questi sono in grado di assorbire e riflettere. Un oggetto che riflette luce di ogni colore risulterà bianco ai nostri occhi mentre un oggetto che la assorbe tutta risulterà nero.
Per quello che riguarda il cielo la questione è più complicata poiché l’atmosfera è trasparente, non possiamo quindi dire quale colore è assorbito e quale è riflesso.

È bene ricordare come l’atmosfera sia un insieme di gas che circondano un corpo celeste (la Terra in questo caso), le cui molecole lo avvolgono costantemente grazie alla forza di gravità esercitata dallo stesso corpo celeste.
E’ altresì importante ricordare che l’atmosfera terrestre è composta per il 78% da Azoto, da quasi il 21% di Ossigeno, dallo 0,9% di Argon e di altri gas in percentuali millesimali come l’Anidride carbonica, il Neon, l’Elio, il Metano e molti altri.

LO SCATTERING DI RAYLEIGH

Immaginate il sole che sorge. I suoi raggi hanno un angolo di incidenza molto basso con l’atmosfera, Man mano che il sole sale l’angolo di incidenza diminuisce fino a diventare perpendicolare alla Terra a mezzogiorno. Per poi diminuire ancora fino al tramonto. Praticamente all’alba e tramonto l’incidenza dei raggi del sole con l’atmosfera è la stessa. Quindi queste due situazioni estreme hanno sicuramente a che fare con la stessa colorazione del cielo.

Al sorgere del sole, in queste condizioni  i raggi solari attraversano uno spessore grandissimo di atmosfera terrestre e dunque incontrano un elevato numero di particelle.

Le frequenze della luce bianca del sole, quando entrano nell’atmosfera, rimbalzano tra le molecole d’aria venendo cioè diffuse in tutta la volta celeste facendola diventare rossa o blu a seconda la incidenza con le particelle dell’atmosfera.

 Il risultato è che, all’alba e al tramonto la luce solare viene privata di tutte le componenti dello spettro eccetto il rosso.
In parole povere il colore rosato visibile all’alba e al tramonto è dovuto al fatto che la luce deve attraversare uno spessore di atmosfera maggiore incontrando un gran numero di particelle.

Il cielo tuttavia rimane blu a causa del gran numero di fotoni blu sempre diffusi nell’alta atmosfera.

Mentre il sole sale diminuisce il numero di particelle che i raggi solari incontrano restituendo al cielo il colore azzurro dei fotoni blu.

Intuitivamente possiamo immaginare i raggi solari come portatori dei tre colori fondamentali, giallo, blu e rosso emessi dal sole sotto forma di luce bianca. Ad angoli di incidenza bassi dei raggi del sole con l’atmosfera le particelle assorbano tutti i colori tranne che il rosso, Una piccola parte di ciascun fascio viene deflessa e si allontana dal resto. Una parte del blu rimane diffuso nella parte alta del cielo,. Questa parte deflessa fa le veci della luce riflessa dagli oggetti e dà origine quindi al colore del nostro cielo.

Questo fenomeno si chiama scattering di Rayleigh. La teoria fu esposta da Lord  Rayleigh, fisico britannico, alla fine del XIX secolo. La legge di Rayleigh, si applica a particelle di diametro molto più piccolo della lunghezza d’onda della luce. 

Le cose, quindi, sono più complesse da quanto ho descritto. Si parla di frequenze o lunghezze d’onda.
La luce emessa dal Sole interagendo con i componenti della atmosfera può essere assorbita o diffusa. La diffusione della luce sui vari elementi presenti nei differenti strati dell’atmosfera, dipende sia dalle dimensioni dell’oggetto colpito che dalla lunghezza d’onda della luce medesima.

 Le particelle solide e le gocce d’acqua hanno dimensioni maggiori della lunghezza d’onda della luce e quindi la riflettono in tutte le direzioni (indipendentemente dalla lunghezza d’onda ). La luce bianca del Sole, in questo caso, è diffusa senza essere scomposta: ecco perché le nuvole ci appaiono bianche.

Le molecole dei gas (azoto e ossigeno), hanno dimensioni confrontabili con quelle delle lunghezze d’onda della luce. In questo caso la diffusione della luce è fortemente dipendente della sua lunghezza d’onda.

La luce di maggiore lunghezza d’onda (rossa arancione e gialla) riesce a superare questi minuscoli ostacoli e prosegue nella sua traiettoria rettilinea. La luce blu invece, che ha una lunghezza d’onda più piccola, viene diffusa in tutte le direzioni. Dopo una serie di diffusioni tutta la luce blu è diffusa. La luce azzurra è dunque in tutte le direzioni e oscura le stelle. Questo processo avviene negli stati più alti dell’atmosfera. In una giornata senza nubi quindi, in qualunque direzione volgiamo il nostro sguardo, la luce blu diffusa dai gas in alta atmosfera raggiunge i nostri occhi. Questo spiega il perché il cielo ci appare azzurro.

E’ sempre il processo di diffusione che spiega anche perché, all’alba e al tramonto, l’orizzonte si colora di rosso. I raggi solari sono radenti gli strati dell’atmosfera. La luce blu viene diffusa dai gas presenti negli strati più alti. La luce radente attraversa un grande spessore di atmosfera e solo la luce rossa penetra fino a raggiungere gli stati dove viene parzialmente diffusa dalle particelle solide presenti a queste altezze colorando quindi il cielo e le nubi, nella direzione del Sole, di arancio, rosso e talvolta viola.
Anche il Sole appare rosso e non più giallo poiché appunto solo la luce rossa riesce a penetrare e raggiungere il nostro occhio.

L’EFFETTO RAYLEIGH IN SINTESI

2021-11-20_09h28_15Lunghezza d’onda della luce maggiore della dimensione delle particelle sospese nella atmosfera. Alba e tramonto.

  • Le particelle nello strato basso della atmosfera (ad alta concentrazione) riflettono e diffondono la frequenza corrispondente alla luce rossa, mentre lasciano passare tutte le altre (non visibili).
  • Nella parte alta della atmosfera (bassa concentrazione di particelle) viene diffusa la frequenza blu corrispondente agli ioni presenti nella atmosfera che fa scomparire la luce nera della notte..

2021-11-20_09h29_37  Lunghezza d’onda della luce minore della dimensione delle particelle sospese nella atmosfera. Cielo di giorno.

  • La luce di maggiore lunghezza d’onda (rossa arancione e gialla) riesce a superare questi minuscoli ostacoli e prosegue nella sua traiettoria rettilinea. La luce blu invece, che ha una lunghezza d’onda più piccola, viene diffusa in tutte le direzioni.

In conclusione, se sulla nostra Luna – come su ogni pianeta o satellite senza atmosfera – il cielo è nero e il Sole assolutamente bianco, dall’alba al tramonto, possiamo ritenerci fortunati di avere una atmosfera che oltre a permetterci di respirare, di proteggerci dai raggi ultravioletti, ci premette di assistere a questo spettacolo.

Ritorna a
Fisica e Astrofisica

Ritorna a
Home page

Pubblicato in Attualità, Fisica, Natura | Contrassegnato , , | Lascia un commento

L’infrarosso, facile

Figura 1

Lo spettro visibile, in fisica, è quella parte dello spettro elettromagnetico che cade tra il rosso e il violetto includendo tutti i colori percepibili dall’occhio umano che danno vita dunque al fenomeno della luce, come ad esempio la gamma di colori che si osserva quando della luce bianca viene dispersa per mezzo di un prisma.
La lunghezza d’onda della luce visibile nell’aria va indicativamente dai 390 ai 700 nano metro

Oltre il rosso c’è infrarosso, che non ha colore e non è visibile dall’occhio umano, poiché nello spettro visibile dei colori il rosso è il limite della visione umana.

Gli infrarossi infatti sono onde elettromagnetiche la cui lunghezza d’onda è superiore ai 780 nano metri che è il valore che delimita il passaggio dello spettro della luce visibile, e precisamente dalla zona del rosso a quello della luce invisibile.
Il campo occupato dagli infrarossi I.R. è molto esteso per arrivare fino alla lunghezza d’onda massima di 1 milione di nano metri, cioè al confine delle micro onde.

La relazione che lega la lunghezza d’onda prevalentemente emessa da un corpo e la sua temperatura è la cosiddetta legge di Wien per cui:

Dove T è la temperatura assoluta e il numeratore è la costante di wien.

Lo spettro degli ultravioletti può essere diviso in più bande, a seconda della lunghezza d’onda.:
1)  La banda UVA è la radiazione caratterizzata da una lunghezza d’onda variabile tra i 320 e i 400 nanometri.
2) La banda UVB, di lunghezza d’onda variabile tra i 290 e i 320 nanometri, viene considerata la più dannosa per l’organismo umano.
3) La banda UVC ha una lunghezza d’onda tra i 200 e i 280 nanometri e potenzialmente si rivela dannosissima, letale. Non raggiunge la superficie terrestre.

INFRAROSSI E CORPO UMANO

Anche se non ce ne accorgiamo tutti noi siamo costantemente immersi in queste onde elettromagnetiche che sono di grande importanza perché senza la loro presenza la vita sul nostro pianete non sarebbe neppure immaginabile. Sono infatti i raggi infrarossi prodotti dalle eruzioni del nostro Sole che attraversando lo spazio assieme alla luce irradiano la Terra fornendo calore indispensabile al mantenimento degli organismi viventi. Ogni volta che attraversano un corpo i raggi infrarossi rilasciano al suo interno una quantità di energia che si trasforma in calore. E anche se sono invisibili al nostro occhio è proprio questa capacità di produrre calore che possono essere rilevate nello spettro delle radiazioni elettromagnetiche. E rilevare la loro presenza.

Oltre a produrre calore i raggi infrarossi sono loro stessi ad essere generati dai corpi riscaldati.

2021-11-11_18h18_49Tutti i corpi con una temperatura superiore allo zero assoluto (-273 °C) emettono radiazione infrarossa. Corpi a temperatura ambiente, animali ed esseri umani emettono radiazione infrarossa di lunghezza d’onda di circa 10 µm. Questo è dovuto alla agitazione termica degli atomi e delle molecole che compongono la materia. Questa perenne agitazione termica si accompagna sempre ad una emissione di una certa quantità di raggi infrarossi. Maggiore è la temperatura tanto maggiore è l’agitazione termica di atomi e molecole e di conseguenza maggiore emissione di raggi infrarossi.

Dalla misura della radiazione emessa da un corpo, di emissività nota, può quindi essere ricavata, senza contatto, la sua temperatura.

APPLICAZIONE DEGLI INFRAROSSI

La termografia sfrutta la capacità di alcuni dispositivi di rivelare l’intensità della radiazione nella zona termica dell’infrarosso. Per rilevare la radiazione infrarossa emessa da un corpo si utilizzano termocamere: questi strumenti (sensibili a radiazioni tra 0.9 e 14 µm) sono in grado di rilevare le temperature dei corpi analizzati attraverso la misura dell’intensità della radiazione emessa.

Numerose utilizzazioni in ambito industriale, militare, medico, scientifico, in edilizia, nel restauro, ecc..
Raggi infrarossi sono utilizzati per comunicazioni su distanze brevi nei telecomandi per televisori (per evitare interferenze con le onde radio del segnale televisivo), per palmari, smartphone, home theater system e altri dispositivi elettronici.

INFRAROSSI, CIELO E UNIVERSO

La luce infrarossa a lunghezza d’onda lunga penetra le nubi di gas e polvere.
Le onde a lunghezza corta delle luce visibile sono fermate e sparpagliate in particelle.
Pertanto dalla scoperta della luce infrarossa, possiamo guardare attraverso le nubi di gas e polvere gli oggetti caldi e all’interno delle stelle.

Possiamo vedere oggetti che non emettono alcuna luce visibile propria come i pianeti ma che sono tuttora caldi abbastanza da irradiare luce infrarossa.

2021-11-11_18h57_18Inoltre osservando come la luce infrarossa attraversa la loro atmosfera, noi acquistiamo indizi sulla composizione del pianeta. Il bagliore della polvere dispersa nel cosmo ci può aiutare a capire la nascita dei pianeti. Inoltre osservando come la luce infrarossa attraversa la loro atmosfera, noi acquistiamo indizi sulla composizione del pianeta. Il bagliore della polvere dispersa nel cosmo ci può aiutare a capire la nascita dei pianeti.

L’infrarosso quindi ci permette di osservare il cielo non visibile.
Ma ci può aiutare anche ad osservare i primi oggetti che si sono formati nell’universo dopo il Big Bang. L’unico modo per vedere questa luce mentre arriva nella nostra regione dell’universo è cercare quel debole bagliore infrarosso.
Per catturarlo dobbiamo essere capaci di creare le immagini di queste primitive galassie e dare forma all’universo.

Per questo la Nasa nella ricerca per dare dare risposte come il caos primordiale dell’universo si sia trasformato in strutture ordinate, sta costruendo il telescopio spaziale James Webb.

Questo enorme specchio per la cattura dei raggi infrarossi orbitante oltre la Luna ci permetterà di vedere il cosmo come non l’abbiamo mai visto prima.
Web cercherà tracce di vapore d’acqua su pianeti orbitanti attorno le stelle.
Prenderà le immagini della infanzia dell’universo.
Rileverà le stelle nascoste e i sistemi solari che si formano senza un bozzolo di polvere.

Ritorna a
Fisica e Astrofisica

Ritorna a
Home page

Pubblicato in Attualità, Fisica, Scienza | Contrassegnato | Lascia un commento

Effetto Doppler relativistico, Red Shift, facile

| le onde sonore | le onde elettromagnetiche | effetto Doppler | red shift |

L’effetto Doppler e lo red shift sono la stessa cosa? Non esattamente, sono qualcosa di simile.  La differenza è molto più affascinante e lo scopriremo insieme.

Prima di addentrarci diciamo qualcosa sulle onde.
Ci sono due tipi di onde: sonore e elettromagnetiche.


Onde sonore

2021-11-10_12h20_50Le Onde Sonore sono onde meccaniche e richiedono un mezzo trasmissivo (non si propagano nel vuoto). Sono onde con propagazione longitudinale, caratterizzate da compressione e rarefazione del mezzo. In un’onda longitudinale le particelle oscillano nella stessa direzione in cui si propaga l’onda.

Si considerano onde sonore quelle onde che abbiano una frequenza di oscillazione compresa tra 20 e 20 kHz. Un suono con frequenze inferiori si chiama infrasuono, con frequenze maggiori ultrasuoni.

Le caratteristiche dell’onda sonora sono la lunghezza d’onda, il periodo e la frequenza.

  • L’ampiezza A dell’onda è uguale alla distanza tra una cresta (il punto più alto) o un ventre (il punto più basso) e la posizione di equilibrio (sull’asse).
  • La lunghezza d’onda  è la lunghezza di un ciclo.
  • Il periodo T è l’intervallo di tempo in cui viene compiuta un’oscillazione completa, o anche: il tempo impiegato dall’onda per percorrere una distanza uguale alla lunghezza d’onda.

La velocità del suono nell’aria è proporzionale alla radice della temperatura assoluta:
C ≅ 20,05 T1/2 (m/s)
Nell’aria è di circa 343 m/s.


Onde elettromagnetiche

  • Le Onde Elettromagnetiche non richiedono un mezzo trasmissivo (si propagano anche nel vuoto). Sono onde con propagazione trasversale, date da una combinazione di campi elettrici e campi magnetici variabili. 
  • Le onde elettromagnetiche hanno la proprietà di manifestarsi in uno spettro in lunghezza d’onda e frequenza molto ampio. Ogni regione spettrale ha una sorgente differente.
  • Le onde elettromagnetiche si spostano nel vuoto a 299 mila km al secondo.
  • Un’onda elettromagnetica si muove nello spazio vuoto a forma di onda con un’oscillazione sinusoidale.
  • Esistono diverse tipologie di onde elettromagnetiche che si distinguono tra loro per carica e dimensione. L’insieme delle onde compone lo spettro elettromagnetico.

Questa rappresentazione mostra lo spettro per frequenza d’onda.


Effetto Doppler

Sarà capitato numerose volte di veder passare in strada un’ambulanza o una macchina della polizia e di aver avuto l’impressione che la loro sirena diventasse più grave man mano che si allontanava da noi.

L’impressione che traiamo da questa esperienza è spiegabile con un fenomeno fisico studiato nell’Ottocento dal fisico Christian Doppler, da cui tale effetto ha preso nome.

L’effetto Doppler è la variazione di frequenza del suono rilevato dal ricevitore dovuto al fatto che la sorgente sonora e il ricevitore hanno velocità diverse rispetto al mezzo in cui il suono si propaga.

2021-11-10_13h43_10Osserviamo la figura. È rappresentata una macchina ferma con la sirena accesa e una persona ferma. I cerchi concentrici rappresentano le zone di compressione dell’onda sonora generata dalla sirena. Le rarefazioni e le compressioni sono simmetriche quindi sia che la persona sia ferma davanti alla sirena sia che sia ferma dietro alla sirena riceverà lo stesso numero di compressioni in un certo intervallo di tempo, cioè sentirà un suono con la stessa frequenza.

Quando la sorgente è ferma, l’aria è ferma e il ricevitore è fermo il ricevente percepisce un suono che ha una frequenza  uguale alla frequenza  della sorgente:

RICEVITORE FERMO E SORGENTE IN MOVIMENTO

2021-11-10_13h47_19Appena l’auto comincerà a muoversi avremo la situazione rappresentata nella figura. 

Davanti all’auto le compressioni risultano più vicine, più frequenti e quindi si ha una diminuzione della lunghezza d’onda. Il motivo si spiega in modo molto semplice: l’auto percorre un certo spazio nella direzione di propagazione dell’onda, perciò “si avvicina” alla compressione appena emessa.

  • Se la persona è davanti all’auto in avvicinamento, essa riceverà un numero di compressioni maggiore di quando la sorgente era ferma e in termini di percezione sentirà un suono più acuto (ha frequenza maggiore).

  • Se la persona è dietro all’auto che si sta allontanando, essa percepirà meno compressioni quindi la frequenza sarà minore e il suono più grave, questo perché l’auto allontanandosi si lascia indietro le compressioni emesse e percorre un certo spazio nell’intervallo tra una compressione e la successiva.

    La differenza  è chiamata Spostamento Doppler.


Ora metto qualche formula che saranno esplicative di tutto quanto detto per chi ha pratica con le frazioni.

Quando la sorgente è in movimento e il ricevente è fermo:

formula 1

Da prendere con il segno (-) se la sorgente si sta avvicinando e col segno (+) se si sta allontanando.

Dove fr è la frequenza percepita dal rilevatore e fs la frequenza della sorgente, v la velocità di spostamento, a la velocità del suono.

Caso 1) Segno meno. Dato che il termine al denominatore è minore dell’unità ( la velocità di spostamento inferire alla velocità del suono (v<a) ) si deduce che la frequenza del suono percepito dalla persona è maggiore della frequenza della sorgente ferma fs .

Caso 2) Segno più. Dato che il denominatore aumenta, la frazione diminuisce. Quindi deduciamo che 

Il fatto che al denominatore della formula 1 la velocità di spostamento venga messo in relazione alla velocità del suono ( v/a ), l’effetto Doppler viene anche chiamato relativistico.

SORGENTE FERMA E RICEVITORE IN MOVIMENTO

In questo caso la sorgente è ferma e la persona (il ricevitore) si muove. L’effetto Doppler non è quindi prodotto dalla diversa lunghezza d’onda delle onde generate dalla sirena in movimento, ma dalla diversa frequenza percepita dal ricevente nel momento in cui, avvicinandosi alla sorgente o allontanandosi, attraversa più zone di compressione o meno zone di compressione di quante non ne incontrerebbe stando fermo.

IL CONO MACH

Abbiamo visto che nel caso in cui una sorgente sonora si muove, le onde sonore che si propagano nella direzione del movimento risultano avere una frequenza più alta (si “comprimono”). Vediamo in dettaglio cosa può comportare questo fenomeno se la velocità della sorgente supera la velocità del suono.

La figura rappresenta un aereo in viaggio. A sinistra l’aereo viaggia a una velocità inferiore a quella del suono v<a, mentre a destra con una velocità pari a quella del suono v=a.

Nel primo caso (a sinistra nella figura) osserviamo che i cerchi (che rappresentano le compressioni emesse) si spostano verso destra, nel secondo caso invece le onde si compattano nella direzione del movimento, annullando così la loro distanza.

Appena si verifica questo fenomeno si sente un botto. Nel linguaggio comune diciamo che l’aero ha abbattuto il muro del suono. Il boom sonico è proprio il suono prodotto dal cono di Mach generato dalle onde d’urto create da un oggetto (ad esempio un aereo) che si muove, in un fluido, con velocità superiore alla velocità del suono.


Il numero di Mach (Ma) è definito come il rapporto tra la velocità di un oggetto in moto in un fluido e la velocità del suono nel fluido considerato:

Dove il denominatore ci dice che la velocità del suono “a” dipende dal mezzo che attraversa e la sua temperatura.

Il numero di Mach è adimensionale, se ad esempio un aereo ha velocità Mach 2 significa che ha una velocità doppia del suono, mentre un Airbus 380 che ha una velocità di crociera Mach 0,87 significa che la sua velocità è minore di quella del suono.



Red Shift

Premessa

Lo spettro visibile, in fisica, è quella parte dello spettro elettromagnetico che cade tra il rosso e il violetto includendo tutti i colori percepibili dall’occhio umano che danno vita dunque al fenomeno della luce, come ad esempio la gamma di colori che si osserva quando della luce bianca viene dispersa per mezzo di un prisma. La lunghezza d’onda della luce visibile nell’aria va indicativamente dai 390 ai 700 nano metro; le lunghezze d’onda corrispondenti in altri mezzi, come l’acqua, diminuiscono proporzionalmente all’indice di rifrazione. In termini di frequenze, lo spettro visibile varia tra i 430 (rosso scuro) ed i 770 (violetto) THz.

L’occhio umano presenta in media la sua sensibilità massima attorno alla lunghezza d’onda di 556 nm (circa 540 THz) dello spettro elettromagnetico, corrispondente al colore giallo citrino.

RED SHIFT

Il fenomeno è un esempio dell’effetto Doppler. L’effetto Doppler si manifesta per qualsiasi fenomeno ondulatorio e anche per la luce, provocando in questo caso variazioni di colore. 

Il redshift dovuto all’effetto Doppler nelle onde elettromagnetiche si verifica ogni qualvolta una sorgente di luce si allontana da un osservatore.

La luce di una stella che si avvicina a noi ha una frequenza più elevata e si osserva quindi uno spostamento verso il violetto dello spettro luminoso (blue shift); la luce di una stella in allontanamento ha una frequenza minore e a essa corrisponde uno spostamento verso il rosso dello spettro (red shift).

L’astronomo americano Edwin Powell Hubble riferì nel 1929 che le galassie lontane si stavano ritirando dal sistema della Via Lattea , in cui si trova la Terra , e che i loro spostamenti verso il rosso aumentavano proporzionalmente all’aumentare della loro distanza. Questa generalizzazione è diventata la base di ciò che viene chiamato Legge di Hubble , che correla la velocità di recessione di una galassia con la sua distanza dalla Terra. Vale a dire, maggiore è il redshift manifestato dalla luce emanata da un tale oggetto, maggiore è la distanza dell’oggetto e maggiore è la sua velocità di recessione ( vedi anche costante di Hubble ). Tutte le galassie si allontanano da noi, con velocità tanto più alta quanto più sono lontane (legge di Hubble).

Questa legge dello spostamento verso il rosso è stata confermata da ricerche successive e fornisce la pietra angolare delle moderne teorie cosmologiche relativistiche che postulano che l’ universo si stia espandendo.

RED SHIFT RELATIVISTICO

Se l’osservatore si allontana dalla sorgente con velocità v tale che sia tanto minore della velocità della luce v<< c, il red shift è dato da:

Per velocità molto prossime a quella della luce entrano in gioco le regole della relatività ristretta. La formula va corretta con il fattore di Lorenz che porta alla formula:

dove ancora:

  • \lambda _{0} = lunghezza d’onda osservata
  • {\displaystyle \lambda _{s}} = lunghezza d’onda emessa
  • v = velocità della sorgente
  • c = velocità della luce

Cosa significa? Solo teoria, perchè nessuna galassia si allontana a velocità prossima alla luce. Oltre il rosso c’è infrarosso, che non ha colore e non è visibile dall’occhio umano, poiché nello spettro visibile dei colori il rosso è il limite della visione umana.
Ma gli scienziati sono come i bambini, piace giocare con la velocità della luce.

Ritorna a
Fisica e Astrofisica

Ritorna a
Home page

Pubblicato in Fisica | Contrassegnato , | Lascia un commento