Newsletter
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Aggiornamento: l'articolo è stato modificato nel numero dei passeggeri coinvolti (da 385mila a 400mila) alle 16.40.

400mila passeggeri potrebbero essere danneggiati dalle concellazioni dei voli decisi da Ryanair. Lo riferisce Bloomberg. Secondo il Corriere della Sera “saranno circa 2.000, alla fine di ottobre, i voli cancellati da Ryanair a partire da sabato 16 settembre”. Il titolo della compagnia ha perso fino al 3% in Borsa e attualmete cede poco più del 2% a Dublino. Venerdì scorso la compagnia aerea low cost irlandese ha annunciato l'intenzione di tagliare 40-50 tratte al giorno nelle prossime sei settimane, per un totale compreso tra 1.680 e 2.100 voli, per migliorare la propria puntualità.

La lista dei voli cancellati da Ryanair

L’azienda ha pubblicato sul sito una lista delle cancellazioni previste. Una scelta che appare obbligata, per la società, con l’obiettivo di garantire lo smaltimento ferie di tutto il personale, equipaggi di bordo inclusi naturalmente, dopo l’allineamento al calendario di lavoro gregoriano (Il Mattino), chiesto dall’Autorità irlandese del volo. In totale la compagnia regina del low cost cancellerà 50 voli al giorno per la prossima settimana. Il problema – dicono dalla società irlandese – sono le ferie arretrate degli equipaggi, che hanno portato a un crollo della puntualità. Per questo Ryanair ha deciso di ridurre del 2% i voli fino alla fine di ottobre

Su Twitter la protesta contro la compagnia irlandese

"Annullando meno del 2% dei nostri voli fino al debutto dell'orario invernale a novembre, possiamo riportare il nostro tasso di puntualità al livello del nostro obiettivo annuale del 90%", ha spiegato il capo della comunicazione della compagnia irlandese, Robin Kiely. La stessa aviolinea ha fatto sapere che il tasso di puntualità è precipitato sotto l'80% nelle prime due settimane di settembre. Le scuse della compagnia non sono bastate a calmare la rabbia dei clienti colpiti dalla misura che hanno scelto Twitter per manifestare la propria indignazione. Le autorità di Bruxelles hanno fatto sapere che Ryanair dovrà probabilmente rimborsare i clienti per le cancellazioni. 

Ryanair tonfo in borsa dopo la pubblicazione della lista dei voli cancellati

Secondo quanto riporta Il Sole 24 Ore le azioni di Ryanair sono finite in ribasso di quasi il 5% nel corso della mattinata, per poi recuperare leggermente (-1,8%). La compagnia low cost sta scontando il danno di immagine provocato dall’annuncio della cancellazione di una media di 40-50 voli al giorno (su 2.200 collegamenti quotidiani) fino a fine ottobre. 

 

 

Bisogna mettere al sicuro il Paese dal rischio idrogeologico e per farlo bisogna semplificare e razionalizzare interventi e procedure, ma anche istituire un Centro Meteo Nazionale per mettere a sistema i dati di tutte le regioni con quelli europei. Per il ministro dell'Ambiente Gian Luca Galletti, intervistato dall'AGI, la prevenzione per evitare il ripetersi di sciagure dovute al maltempo, passa attraverso un sistema di sinergie, collaborazione e semplificazione. 

Entro fine anno la strategia per il clima

"E' ormai chiaro che i cambiamenti climatici non siano qualcosa di lontano da noi, che riguarda solo il Polo Nord o qualche isola del Pacifico rischiano di condizionare sempre più e in peggio le nostre vite. Il fronte è doppio: da un lato l'impegno internazionale fortissimo sul negoziato per il Clima. Gli accordi raggiunti alla Cop 21 di Parigi sono indifferibili e non negoziabili. Non sono mai stato tra quelli che vogliono rompere il dialogo con gli Usa, lo dimostra il risultato del G7 Ambiente di Bologna in cui abbiamo condiviso un comunicato finale molto ambizioso. Però occorre essere chiari: fuori da Parigi c'è solo un impegno limitato e debole che non serve a nessuno. Dall'altro lato dobbiamo incidere sul fronte nazionale: entro fine anno saremo in grado di approvare, dopo la fase di consultazione pubblica, la Strategia di Adattamento ai Cambiamenti Climatici, che divide il Paese in macroregioni climatiche evidenziando le aree più vulnerabili, gli impatti e le azioni per conformare il territorio al clima che cambia. E poi ovviamente c'è il nostro piano contro il dissesto idrogeologico. 

"Il piano nasce per creare una fortissima collaborazione istituzionale per mettere al sicuro il Paese. Siamo all'opera dal primo giorno del governo Renzi. Abbiamo prima creato le condizioni migliori, semplificando e razionalizzando il sistema: oggi i presidenti di Regione sono commissari al dissesto e un loro atto sostituisce l'enorme mole di autorizzazioni prima necessarie. Abbiamo assicurato trasparenza negli appalti, puntato sulla collaborazione con i sindacati, sbloccato da giugno 2014 a oggi ben 1337 trovati bloccati per i motivi più vari. Oggi 891 di questi sono terminati. 

"E' partito il Piano per le Aree Metropolitane, il cui primo stralcio vale 650 milioni per 33 grandi interventi in nodi idrogeologici chiave come Genova, Milano, Firenze, Bologna e tanti altri. Per questo piano la cifra spesa finora e' di 114 milioni e le opere stanno andando avanti. Tra vecchia e nuova programmazione, nel biennio 2016-2017 abbiamo speso circa 1,1 miliardi. Dobbiamo correre sempre di piu', ma siamo finora in linea con i tempi previsti".

Creazione di una istituzione meteo nazionale

L'Italia ha bisogno di un Centro nazionale per l'elaborazione dei dati e le previsioni meteorologiche. Il tema non è togliere competenze alle Regioni, ma mettere a sistema i dati, saperli leggere insieme, in connessione con quelli europei. Questo Titolo V della Costituzione consente di avere venti meteo regionali. Cambiarlo sarebbe un modo per ridefinire le competenze, ma già oggi la nostra Carta attribuisce allo Stato il coordinamento informativo, statistico e informatico dei dati dell'amministrazione statale, regionale e locale.

"L'autonomia regionale sul meteo non è un problema in sè: tanto più sono capillari le previsioni, quanto più si riesce a prevenire tragedie o limitarne le conseguenze. Questi dati però non possono restare slegati tra loro, senza una visione complessiva: per questo serve un coordinamento nazionale. L'occasione può darcela la ratifica del provvedimento che istituisce a Bologna un nuovo centro dati del Centro europeo per le Previsioni meteorologiche di medio termine. E in Parlamento c'è una proposta di legge in Parlamento che istituisce il Servizio meteorologico nazionale distribuito".

Completare entro fine anno la legge sui parchi

"Stiamo lavorando sulla legge di Stabilità. Mi auguro innanzitutto che il Parlamento possa completare entro fine anno il suo lavoro per la legge sui Parchi, che è fondamentale nella nostra visione di un patrimonio naturale non più solo da custodire nella sua bellezza unica al mondo, ma anche da valorizzare come motore di crescita economica sostenibile. Poi ci attende naturalmente anche il completamento delle strategie, dalla Sen di cui proprio in questa settimana è terminata la consultazione, alla Strategia di Adattamento ai Cambiamenti Climatici. E presenteremo a breve quella sullo Sviluppo Sostenibile, che individua le politiche nazionali per il raggiungimento dei target Onu. Tutte queste, insieme, saranno in grado di comporre l'orizzonte eco-industriale italiano dei prossimi anni e oltre".

Dire pasta è come dire Italia ed è un amore che dura da secoli. Si consumava già ai primi del Medioevo e da allora molte cose sono cambiate, ma non il piacere di mangiare un buon piatto di pasta. A confermarlo sono i dati: oggi in media ogni italiano consuma 24 chili di pasta all’anno e la nostra produzione  di 3,2 milioni di tonnellate ci rende i leader mondiali nel settore. Ma ci sono da fare le dovute differenze: il consumo non è uguale su tutto il territorio. Al Sud si mangia più pasta che al Nord. Secondo l’elaborazione di Aidepi (Associazione delle industrie del Dolce e della Pasta Italiane) su dati IRI, nel 2016 nel Mezzogiorno sono state vendute oltre 378mila tonnellate di pasta, il 36% del totale. Il doppio rispetto al Nord Est e un terzo in più rispetto a Nord Ovest e al Centro. Nel solco di questa tradizione, la novità è il crescente gradimento per la pasta integrale: quasi la metà del campione (47%) dichiara di acquistarla, mentre 3 anni il consumo di fermava al 14%.

E’ l’alimento preferito dal 48% dei meridionali
 

Nel Mezzogiorno – secondo una ricerca Doxa-Aidepi – il 99% mangia pasta, in media 4-5 volte a settimana e per il 48% è l’alimento preferito. Molti intervistati hanno dichiarato di sceglierla essenzialmente per il gusto, ma non sono mancati quelli che invece la mangiano anche per ragioni di salute. Tra Nord e Sud c’è una differenza anche sulla tipologia acquistata: da Roma in giù viene preferita la pasta secca (4 pacchi su 10 sono venduti nel Mezzogiorno), mentre il Nord Ovest è leader per quella fresca.

Di conseguenza al sud il consumo di pasta è leggermente superiore alla media nazionale, circa 25-26 chili pro-capite all’anno. Lo scenario però sembra in evoluzione: i veri fan della pasta stanno spostando il baricentro geografico verso il Centro Italia – dove il 45% mangia la pasta tutti i giorni, contro il 32% del Meridione. E la porzione media di un piatto di pasta nel Sud è di circa 80 grammi a persona, registrando la percentuale più bassa del Belpaese.

50 anni fa la legge di ‘purezza della pasta’
 

Era il 1967, esattamente 50 anni fa, quando fu approvata la cosiddetta ‘legge di purezza sulla pasta, l'unica normativa del genere voluta dai produttori che, fissandone i limiti qualitativi, garantisce alla pasta italiana di essere la migliore al mondo. “Vogliamo rimettere al centro della pasta la mano del pastaio, ingrediente invisibile e spesso dimenticato del nostro piatto simbolo – spiega Mario Piccialuti, direttore di AIDEPI. Alcuni vogliono far credere che per fare una pasta buona servano solo materie prime eccellenti, ma c’è molto altro. È importante che gli italiani riscoprano la passione, la storia, la ricerca, i test sensoriali e di laboratorio, insomma tutto l’impegno dei produttori dietro una ottima forchettata di pasta.”

Liscia al Sud, rigata al Nord: ecco le preferenze degli italiani
 

Non c’è che l’imbarazzo della scelta sul formato della pasta, Aidepi ne ha censiti oltre 300 tipi. Ogni italiano ha il suo preferito, ma anche in questo caso il Paese si divide in due, con Roma a fare da spartiacque tra due mondi e due filosofie. Dalla Capitale (esclusa) in giù la pastasciutta piace liscia, che con il 13% delle preferenze tocca le punte più alte di gradimento a livello nazionale. “Da noi nel Sud d’Italia la pasta è quella liscia per antonomasia – commenta Giuseppe Di Martino, pastaio di Aidepi e presidente del Consorzio Pasta di Gragnano IGP – e c’è una ragione ben precisa. Storicamente a Napoli, la pasta rigata veniva prodotta solo per i mercati del Nord. Era venduta dai Gragnanesi sul mercato di Roma e chiamata per questo “uso Roma”, da cui i famosi Rigatoni romani, ottimi con la pajata.

Vengono invece indicate "uso Bologna" le farfalle, un formato che riproduce la tradizione emiliana della pasta sfoglia e che richiede, sia in produzione che in cottura, un buon equilibrio tra le ali e il nodo. Stile "Napoli" sono invece Ziti e Mafaldine insieme a tutte le variazioni di formati lisci.” Va detto che il 20% del campione sostiene che non esiste un formato migliore, ma tutto dipende dalle ricette. Lo conferma Di Martino: “Basta pensare al sugo alle vongole, impensabile senza uno spaghetto o una linguina. Sono formati perfetti per abbracciare il condimento e legarlo alla pasta grazie alla leggera perdita di amido dalle sue “alette”. Allo stesso modo, è impensabile abbinare gli spaghetti a un sugo importante come un ragù napoletano perché è troppo ‘pesante’ per essere catturato tra le spire di un formato così sottile. Molto meglio gli Ziti spezzati o lo spessore e la porosità di una fettuccina”.

Ma perché la pasta rigata veniva venduta al Nord e a cosa si deve il gradimento per questo formato da Roma in su?

“Al Nord questi formati sono diventati popolari per mascherare possibili difetti di produzione dovuti a tempi di essiccazione più lunghi. Con la sua texture di ‘picchi’ e ‘valli’, la pasta rigata in cottura espone all’acqua più superficie, resta più al dente nella sua parte spessa e rilascia più amido da quella più sottile – spiega ancora Di Martino. Dà la sensazione di una pasta tenace anche quando è per metà sovracotta, mascherando eventuali difetti di produzione. Ecco perché questi formati erano popolari al Nord, dove prima dell’’invenzione’ dell’essiccamento artificiale, l’assenza di un microclima prevedibile e stabile rendeva più lungo e problematico questo processo.

Nelle coste italiane del Sud, il clima temperato secco e prevedibile permetteva, invece, di asciugare all’aperto grandi quantità di pasta, con un basso rischio commerciale. Da noi i tempi dell’essiccazione variavano tra gli 8 e i 20 giorni d’estate, a seconda del formato e del livello di umidità. Al nord potevano durare mesi… Ancora oggi a Gragnano dopo l’ora di pranzo arriva puntualmente la brezza che dal mare si incanala nella nostra valle, portando con sé una percentuale di umidità che permetteva la produzione di pasta per 12 mesi all’anno, con risultato finale di qualità costante, uno dei segreti tramandati da secoli dai nostri pastai”.

I tre fattori che rendono buona la pasta
 

Per i meridionali di regioni come Campania, Abruzzo, Molise, Puglia, Sardegna e Sicilia gli indicatori di qualità della pasta sono:

  • il fatto che resti al dente e tenga la cottura (78%)
  • il tipo di grano (71%)
  • come riesce a legarsi al condimento (58%)

Le 10 curiosità sul piatto più amato dagli italiani
 

  1. In Sicilia è stata inventata la pasta secca – Le prime testimonianze relative alla produzione di pasta secca nel nostro Paese arrivano dalla Sicilia musulmana, in epoca medievale, nel corso del XII secolo. Il geografo arabo Idrisi parla di “un importante polo produttivo di pasta in forma di fili” a Trabia, vicino Palermo, mettendola in relazione con l’attività molitoria già preesistente. E’ da qui che la pasta secca di semola di grano duro ha conquistato lo Stivale, passando per Napoli e arrivando a Genova.
  2. Sardegna e Puglia fanno scuola nel XIV e XV secolo – Sotto la dominazione aragonese, Sicilia e Sardegna sono tra i principali centri di produzione di pasta secca del Mediterraneo. Da lì la pasta partiva per Barcellona, Maiorca e Valencia, ma anche Genova, Napoli e Pisa. E nel Quattrocento si hanno testimonianze dell’attività di produzione di pasta secca in Puglia: località come Acquaviva delle Fonti, Gravina, Ascoli Satriano e Brindisi diventeranno celebri nell’arte pastaria dando vita ad un ricco commercio tale da far concorrenza a quello napoletano nel corso del XIX secolo.
  3. La licenza “extraendi pastillos” concessa ai comandanti delle navi siciliane (e genovesi) – A dimostrare che la pasta ha sempre amato il mare e i porti: nel XV secolo, un’ordinanza delle autorità di Palermo concedeva ai comandanti delle navi l’autorizzazione (“licentia extraendi pastillos”) a prelevare durante i viaggi tra i 10 e i 30 rotoli di maccaroni e vermicelli “per uso personale”. La stessa consuetudine era in uso anche al porto di Genova.
  4. XVI e XVII secolo: estro e “ingegno” dei pastai napoletani – A cavallo tra questi due secoli si assiste ad un’importante evoluzione col passaggio ad un sistema di produzione più intensivo. La Campania applicherà per prima le innovazioni tecnologiche attraverso l’utilizzo della gramola a stanga, basata sul principio della leva per pressare l’impasto di acqua e farina, poi del torchio a trafila, un marchingegno che pressa la pasta lavorata su trafile modellate in varie fogge, dando vita a formati di pasta diversi tra loro. Senza il torchio a trafila, inoltre, non ci si poteva iscrivere alla corporazione dei pastai napoletani, come previsto negli statuti della corporazione del 1579. La pasta prodotta con questo macchinario verrà definita “pasta d’ingegno” e diventerà sinonimo di pasta secca di alta qualità.
  5. Nasce il mito di Gragnano e Torre Annunziata – In questo stesso periodo nasce l’industria manifatturiera della pasta di Torre Annunziata e di Gragnano che, grazie al sapere degli artigiani della pasta campani, all’ottimo grano duro a disposizione (importato soprattutto dalla Puglia e più avanti, dal Mar Nero, con la famosa varietà Taganrog) e ai capitali messi a disposizione dai primi mugnai-imprenditori locali, nel corso del XVIII secolo diventerà polo principale famoso in tutto il mondo.
  6. Pulcinella diventa simbolo della pasta – I napoletani, fino al Seicento chiamati “mangiafoglie”, si guadagnano a fine Settecento l’appellativo di “mangiamaccheroni”. A quei tempi il consumo procapite di pasta è di 14 chili l’anno. Da fine Settecento, la pasta secca da piatto delle tavole nobiliari diventa cibo popolare per eccellenza perché è buona e costa poco. Si afferma come piatto unico dei poveri e, più timidamente, come ‘primo piatto’ dei più benestanti, che la consumano 2 o 3 volte la settimana. E ‘incontra’ Pulcinella, la maschera più conosciuta della tradizione partenopea. Secondo Anton Giulio Bragaglia “il principale attributo di Pulcinella sono i maccheroni (…) che egli può portare anche in tasca, già conditi e fumanti”, tratteggiando un’immagine che sarebbe tornata in un celebre film di Totò.
  7. Il sistema di essiccazione “alla napoletana”- Il segreto della qualità della pasta secca napoletana e gragnanese in fase preindustriale? Il connubio di ottima semola di grano duro e l’abilità dei pastai di sfruttare e un clima favorevole per un’essiccazione perfetta. Scirocco e Tramontana, con la loro alternanza di umido e secco, erano considerati ingredienti fondamentali del processo produttivo, da saper dosare e miscelare allo stesso modo di semola e acqua, per ottenere una pasta di qualità.
  8. Da Napoli si impone la cottura ‘al dente’ (e il condimento al pomodoro) – Sono sempre i napoletani ad imporre nel XIX secolo l’abitudine di consumare la pasta ‘al dente’, cioè con il nerbo del grano ancora percettibile. Prima, infatti, la pasta veniva sempre stracotta per ore, soprattutto sulle tavole nobiliari del centro Nord, fin quasi a sfaldarsi. Sono contemporaneamente gli strati popolari e le famiglie benestanti napoletane, nei primi dell’Ottocento, ad introdurre la cottura al dente, o “vierd vierd”, gettando la pasta nell’acqua solo quando questa raggiungeva il bollore. Quasi contemporaneamente i “vermicelle con le pommodore” diventano un abbinamento quotidiano, fissato da Vincenzo Corrado nel suo “il cuoco galante”, dove trovano spazio anche altre ricette classiche come il timballo di maccheroni e il sartù di pasta.
  9. 7 dei 10 maggiori pastifici sono nel Sud – Anche dopo l’Unità d’Italia il Sud mantiene il suo primato nell’industria della pasta. Nel 1882 a Torre Annunziata viene introdotta la pressa idraulica a gotto montante per trafilare i maccheroni, realizzata dall’Officina Pattison. E qualche anno dopo fa il suo ingresso la gramola a coltelli. Si tratta delle innovazioni che renderanno i primi anni del Novecento l’epoca d’oro della produzione pastaia del Sud. Solo a Torre Annunziata questa industria faceva vivere ben 3000 famiglie. Nel 1870 un pastificio di Bari impiegava ben 5 torchi idraulici e, ancora all’inizio del XX secolo, 7 dei 10 maggiori pastifici italiani hanno sede nel Mezzogiorno.
  10. La pastasciutta nella valigia dell’emigrante – A cavallo tra la fine dell’Ottocento e i primi decenni del Novecento la pasta segue le rotte dell’emigrazione verso il nord d’Italia ma anche verso il resto del mondo. E’ una fase decisiva del processo di espansione e di conquista dei mercati da parte di questo alimento, vista la consistenza del numero degli emigranti meridionali (quasi 4 milioni, solo verso l’America, in appena 10 anni, dal 1901 al 1910) e il loro attaccamento nei confronti di questo alimento, diventato nel frattempo una delle principali fonti di sostentamento in anni di carestia e povertà. Sono, così, consueti i viaggi in treno con le scorte di spaghetti, formaggi, salumi, olio, pane e vino raccontati anche sul grande schermo dal cinema neorealistico e dalla commedia all’italiana.

Il 20% dei dipendenti pubblici sta per andare in pensione. Ma l’onda arriva alla vigilia del rinnovo dei contratti, in freezer dal 2010 – scrive il Sole 24Ore – e soprattutto dell’avvio operativo della riforma del pubblico impiego che prova a cambiare le regole su organici e assunzioni. Una congiuntura “ideale” per svecchiare organizzazioni e procedure, a patto di saperla cogliere. 

I numeri, prima di tutto

  • In quattro anni andranno in pensione 500mila dipendenti pubblici.
  • Con le uscite per altre cause (dimissioni e passaggi al privato) potrebbero essere 600mila
  • I dipendenti pubblici sono tre milioni 3.015mila

Le idee allo studio viaggiano sul sentiero già tracciato dalla riforma Madia, e fondato su due pilastri: 

  1. L’analisi dei fabbisogni, che dovrebbe sostituire la griglia rigida degli organici, con la definizione di spazi per le assunzioni differenziati a seconda dei profili professionali.
  2. Proporre a tutte le amministrazioni il 'concorso unico' già sperimentato dal 2013 per la Pa centrale.

Passare dalle strategie alla pratica non è semplice, anche perché il quadro cambia da settore a settore. Nell’attesa dei 'fabbisogni', negli enti locali le maglie del turn over hanno già cominciato ad allargarsi, dopo che la manovrina di primavera ha triplicato gli ingressi possibili permettendo a tutti i Comuni (a patto di rispettare i vincoli di finanza pubblica) di dedicare a nuove assunzioni il 75% dei risparmi prodotti dalle uscite. Nell’amministrazione centrale, dai ministeri agli enti pubblici nazionali (tranne quelli di ricerca), il ricambio resta per ora ancorato al 25% anche per il 2018, ma dovrebbe salire al 100% dall’anno successivo. In un quadro come questo, già con le regole attuali è possibile stimare almeno 80mila nuovi ingressi nel 2018, al netto della scuola. Nel flusso dovranno entrare anche i circa 50mila precari “storici”, concentrati soprattutto negli enti territoriali, al centro del piano triennale di stabilizzazione in partenza da gennaio.

È un’occasione straordinaria per far entrare i giovani e la legge di bilancio può essere uno strumento per coglierla

La quota più ampia di personale in uscita si incontra nei ministeri, l’unico settore nel quale più di un dipendente su cinque ha superato i 60 anni di età. Gli over60 sono pochi meno nelle agenzie fiscali, tra i tecnici delle università (e fra i docenti andrà in pensione un terzo degli ordinari nei prossimi tre anni, secondo i calcoli del governo), mentre l’età scende negli enti che si sono potuti muovere più liberamente nella gestione del personale, come le Regioni autonome, e in quelli più “giovani” come le Autorità indipendenti.

Le amministrazioni più 'vecchie'…

  • Ministeri
  • Agenzie fiscali
  • Università

…e quelle più giovani

  • Regioni autonome
  • Authority

Questa ondata di pensionamenti garantirà altrettante assunzioni? Non è detto. Perché deve fare i conti con la dinamica dei costi del personale pubblico che rappresentano l’unico aggregato di spesa corrente diminuito in questi anni in valore assoluto (dai 169,6 miliardi del 2011 ai 164,1 del 2016).

Pechino sta già pensando a un quadro normativo per il trading delle valute digitali. Proprio ieri, un alto funzionario dell'ente di supervisione della finanza su internet, la National Internet Finance Association of China, Li Lihui, in passato presidente del colosso bancario Bank of China, ha chiesto durante un forum a Shanghai alle autorità di regolamentazione finanziaria della Cina di creare un cornice di regolamentazione per le valute digitali "legali" e ha definito "un'azione necessaria" lo stop alle Ico deciso a inizio settembre da Pechino. Li ha poi chiesto la collaborazione delle autorità di regolamentazione finanziaria di tutto il mondo per la supervisione a livello globale delle valute virtuali. "Valute digitali come Bitcoin ed Ethereum, che sono senza patria, non hanno l'appoggio di uno Stato sovrano o un ente di emissione qualificato, non sono valute legali e non bisognerebbe considerarle valute digitali". Il rischio , ha sottolineato, è che possano diventare "strumenti per flussi di denaro o di investimenti illegali".

Leggi anche: Cosa muove davvero Bitcoin e perché è impossibile fermarlo

Molti utilizzatori di criprovalute sono passati a Telegram

Colpita dal giro di vite sul piano normativo è anche WeChat, la app di messaggistica istantanea cinese che conta 963 milioni di utenti. WeChat è sotto lo scrutinio delle autorità di regolamentazione di Internet dopo che il 7 settembre scorso erano state varate nuove regole sui gruppi di discussione on line, in base alle quali chi darà il via ai forum sarà ritenuto responsabile per il comportamento dei singoli membri del gruppo. Tra i primi a lasciare WeChat ci sarebbero proprio gli utenti delle piattaforme di scambio della criptovaluta, secondo l'agenzia Bloomberg, passati ad altre app di messaggistica che utilizzano sistemi di crittografia per proteggere i contenuti. In particolare, molti sarebbero passati a Telegram, accessibile in Cina tramite l'utilizzo di un vpn (virtual private network) che ha visto di recente nascere nuovi gruppi dedicati al Bitcoin e alle criptovalute, molti dei quali frequentati da utenti che scrivono in cinese.

Leggi anche: Cos'è Bitcoin, come funziona e perché è la moneta degli hacker

Un duro colpo per la piattaforma di messaggistica più utilizzata

La stretta sul Bitcoin e sulle valute digitali in Cina colpisce anche la più popolare piattaforma di messaggistica istantanea, WeChat, anch'essa alle prese con le ultime rigide regolamentazioni di Pechino. L'ultimo colpo alla valuta virtuale è arrivato da Btc China, la più grande delle piattaforme di scambio, che ha annunciato la decisione di terminare le operazioni di trading a partire dal 30 settembre. La stretta era cominciata nelle scorse settimane, quando le autorità finanziarie di Pechino, tra cui la banca centrale, avevano deciso di vietare le Ico (Initial Coin Offerings) uno dei metodi di raccolta fondi più utilizzato dalle startup, ma non regolamentato, sulle preoccupazioni di rischi finanziari. Il valore della criptovaluta è sceso sotto i 3.200 dollari, dopo che nella giornata di ieri era sceso sotto i quattromila. Dal primo settembre scorso, quando era al picco con un valore di 5.103,91 dollari secondo l'indice CoinDesk, il Bitcoin ha perso circa il 30% del suo valore. 

Leggi anche: La Cina vuole chiudere anche i cambiavalute di Bitcoin, che crolla

 

Questo articolo è il primo di una serie di approfondimenti (gli americani lo chiamano long form journalism) di Agi. Obiettivo: fare chiarezza, in modo semplice e il più esaustivo possibile, sui grandi temi di attualità (il prossimo sarà sul nucleare). Come metodologia di lavoro abbiamo scelto di mettere in campo le competenze che stiamo sperimentando ormai da un anno nei campi del data journalism e del fact-checking. Quello che vi apprestate a leggere è dunque un approfondimento condotto in pool dai nostri giornalisti con i colleghi di Formicablù (Marco Boscolo) e di Pagella Politica (Giovanni Zagni). L'articolo può essere letto dall'inizio alla fine, oppure, andando direttamente alle sezioni di interesse, cliccando sui titoli del sommario che trovate qui sotto.  La realizzazione di questo contenuto è sponsorizzata da Eni

Cosa sono gli uragani e come si formano 

Uragani sugli Usa, aumentano i più disastrosi

Cambiamenti climatici e uragani: un sospetto che non è certezza

I 'cacciatori di uragani', fegato e stomaco forte

Uragani & dollari, l'incerto effetto sull'economia

 
 

Cosa sono gli uragani e come si formano

 

I cicloni tropicali sono tra i fenomeni naturali più potenti e distruttivi. Quelli che si formano nell’Oceano Atlantico prendono il nome di uragani (compreso il Mar dei Caraibi e il Golfo del Messico). In Asia sono chiamati tifoni.

Sono prodotti da una complessa fenomenologia atmosferica, determinata da centri di minima pressione e aspirazione originati dalle elevate temperature equatoriali. E’ in questi centri che convergono i venti, con un moto spiraliforme suscitatore dei vortici. L’ampiezza dei cicloni può raggiungere un diametro di centinaia di chilometri.

Chiunque risieda in un’area interessata a questi fenomeni deve essere preparato a conviverci. Basti pensare – secondo la guida redatta dal National Weather Service della National Oceanic and Atmospheric Administration statunitense, aggiornata nel 2013 – che dal 1970 al 2010 il numero medio annuo di questi fenomeni è stato di 11 tempeste tropicali, di cui sei diventate uragani nell’area Atlantico-Caraibi-Golfo del Messico; di 15 tempeste tropicali, di cui otto diventate tifoni nell’Oceano Pacifico Orientale; di quattro tempeste tropicali, di cui due diventate tifoni nell’Oceano Pacifico Centrale.

I rischi da giugno a novembre

In un periodo medio di due anni, la costa degli Stati Uniti è colpita mediamente da tre uragani, di cui uno classificato “major hurricane”.  Sia gli uragani sia le tempeste tropicali mettono a rischio grave le vite e i beni, anche per i danni causati dalle piogge torrenziali e dalle inondazioni.

Un ciclone tropicale viene classificato uragano quando la velocità dei venti va da 74 miglia orarie (119 chilometri orari) in su. La stagione degli uragani va dal primo giugno al 30 novembre, con i fenomeni più intensi da metà agosto alla fine di ottobre. (Nel Pacifico Orientale dal 15 maggio al 30 novembre. Nel Pacifico nordoccidentale i cicloni possono colpire tutto l’anno).

Un disastro che ispirò Shakespeare

Memorie delle tempeste tropicali si ritrovano, naturalmente, in molte culture e da migliaia di anni. Probabilmente, la prima cronaca di un ciclone atlantico appare nei geroglifici Maya. In tempi moderni, memoria dei più devastanti uragani è rimasta viva negli Stati Uniti e si è trasfusa anche nella letteratura. Nel 1609, una flotta che trasportava coloni dalla Gran Bretagna alla Virginia fu colpita da un uragano. Alcune imbarcazioni trovarono riparo alle Bermuda e divennero, quei passeggeri, i primi abitatori delle Isole. La loro storia ispirò “La Tempesta” di William Shakespeare.

I cicloni hanno anche influito sulla storia: la Francia perse il controllo della costa atlantica del Nord America nel 1565, quando un uragano ne disperse la flotta permettendo agli spagnoli di conquistare Fort Caroline, vicino all’attuale città di Jacksonville in Florida. Nel 1640 un uragano distrusse parte di una grande flotta olandese che si accingeva ad attaccare Cuba, mentre un altro nel 1666 si abbatté sulle sorti del governatore britannico delle Barbados, Lord Willoughby, lasciando pochi superstiti di una flotta di 17 navi e circa duemila uomini, che furono catturati dai francesi.

Il vento soffia sulla storia

Secondo alcuni studiosi, le calamità del 1640 e del 1666 avrebbero contribuito a determinare il controllo degli spagnoli su Cuba e della Francia su Guadalupe. Più di due secoli dopo, durante la guerra con la Spagna, il presidente americano William McKinley dichiarò di temere più un uragano della flotta nemica. Fu difatti lui a favorire la nascita di un servizio di allerta sugli uragani, precursore dell’attuale NHC (National Hurricane Center).

Si riporta di seguito la Scala Saffir-Simpson, usualmente impiegata per stabilire la categoria degli uragani in base alla velocità e ai danni che possono produrre.

Irma tornerà nel 2023

Dal 1953, le tempeste tropicali atlantiche hanno un nome proprio secondo liste redatte dal NHC. Sono tenute e aggiornate secondo le procedure del comitato internazionale della World Meteorological Organization. Nel grafico sopra, la lista relativa a quest’anno. Gli elenchi sono sei in tutto e sono utilizzati a cadenza annuale ricorrente (quindi i nomi del 2017 saranno nuovamente utilizzati nel 2023). Ha fatto eccezione il nome di Katrina, che per la gravità dei disastri e delle vittime causate nel 2005 è stato abolito su richiesta del governo americano (e sostituito dall'appellativo Katia già nel 2011).

 

if(“undefined”==typeof window.datawrapper)window.datawrapper={};window.datawrapper[“RcAVx”]={},window.datawrapper[“RcAVx”].embedDeltas={“100″:446,”200″:360,”300″:343,”400″:300,”500″:300,”600″:300,”700″:300,”800″:300,”900″:300,”1000”:300},window.datawrapper[“RcAVx”].iframe=document.getElementById(“datawrapper-chart-RcAVx”),window.datawrapper[“RcAVx”].iframe.style.height=window.datawrapper[“RcAVx”].embedDeltas[Math.min(1e3,Math.max(100*Math.floor(window.datawrapper[“RcAVx”].iframe.offsetWidth/100),100))]+”px”,window.addEventListener(“message”,function(a){if(“undefined”!=typeof a.data[“datawrapper-height”])for(var b in a.data[“datawrapper-height”])if(“RcAVx”==b)window.datawrapper[“RcAVx”].iframe.style.height=a.data[“datawrapper-height”][b]+”px”});

 

Uragani sugli Usa, aumentano i più disastrosi

 

Con l’arrivo di Irma il computo totale degli uragani di categoria 4 e 5 che dal 1853 hanno colpito il territorio degli Stati Uniti sale complessivamente a 150. E il “tassametro” continuerà a correre, forse con maggiore velocità. I dati provengono dalla National Oceanic and Atmospheric Administration (NOAA), l’agenzia statunitense che si occupa della meteorologia, e in particolare dal National Hurricane Center, che tiene a precisare come si tratti dei soli uragani osservati e registrati: soprattutto per i periodi più lontani, altri uragani – e non si sa di che entità e in che quantità – mancano all’appello. I numeri comunque non raccontano alcuni aspetti della storia. Negli ultimi 17 anni, e la stagione degli uragani 2017 non è ancora terminata, sono dieci gli eventi di categoria 5, un numero già vicino ai 14 che hanno toccato il suolo americano tra 1950 e 1999.

Settembre è il mese più nero

Per rendersi conto dell’aumento della frequenza con cui questo tipo di eventi atmosferici estremi si presenta sulla costa atlantica americana abbiamo diviso il numero di uragani per il numero di anni presi in considerazioni, spezzettati a mezzo secolo alla volta. Il risultato generale è che rispetto al cinquantennio 1900-1949, nei diciassette anni dal 2000 a oggi il numero medio di uragani di categoria 4 o 5 è più che raddoppiato, passando da poco meno di uno all’anno (0,82) a due (2,06).

Arrivato all’inizio di settembre, Irma conferma che storicamente è questo il mese in cui si presentano più uragani di grande potenza. Dei 32 di categoria 5 registrati dal NOAA, infatti, ben 18 sono arrivati a settembre.

if(“undefined”==typeof window.datawrapper)window.datawrapper={};window.datawrapper[“M1NqX”]={},window.datawrapper[“M1NqX”].embedDeltas={“100″:354,”200″:302,”300″:276,”400″:276,”500″:250,”600″:250,”700″:250,”800″:250,”900″:250,”1000”:250},window.datawrapper[“M1NqX”].iframe=document.getElementById(“datawrapper-chart-M1NqX”),window.datawrapper[“M1NqX”].iframe.style.height=window.datawrapper[“M1NqX”].embedDeltas[Math.min(1e3,Math.max(100*Math.floor(window.datawrapper[“M1NqX”].iframe.offsetWidth/100),100))]+”px”,window.addEventListener(“message”,function(a){if(“undefined”!=typeof a.data[“datawrapper-height”])for(var b in a.data[“datawrapper-height”])if(“M1NqX”==b)window.datawrapper[“M1NqX”].iframe.style.height=a.data[“datawrapper-height”][b]+”px”});

 

Alle ore 12 del 12 settembre scorso, le vittime accertate di Irma erano 46, un numero relativamente basso rispetto a quello che raccontano i dati sugli uragani di categoria 5 degli ultimi vent’anni. C’è sempre da ricordare che quando una perturbazione atlantica si abbatte sugli Stati del Golfo del Messico, non vengono colpiti solamente gli Usa, ma diversi altri Paesi. Così il record di vittime spetta a Mitch, che nel 1998 si è abbattuto sulla Florida dopo avere già devastato, tra gli altri, Honduras (circa 7000 vittime) e Nicaragua (quasi 4000).

if(“undefined”==typeof window.datawrapper)window.datawrapper={};window.datawrapper[“6gdMm”]={},window.datawrapper[“6gdMm”].embedDeltas={“100″:588,”200″:485,”300″:485,”400″:468,”500″:468,”600″:468,”700″:468,”800″:468,”900″:468,”1000”:468},window.datawrapper[“6gdMm”].iframe=document.getElementById(“datawrapper-chart-6gdMm”),window.datawrapper[“6gdMm”].iframe.style.height=window.datawrapper[“6gdMm”].embedDeltas[Math.min(1e3,Math.max(100*Math.floor(window.datawrapper[“6gdMm”].iframe.offsetWidth/100),100))]+”px”,window.addEventListener(“message”,function(a){if(“undefined”!=typeof a.data[“datawrapper-height”])for(var b in a.data[“datawrapper-height”])if(“6gdMm”==b)window.datawrapper[“6gdMm”].iframe.style.height=a.data[“datawrapper-height”][b]+”px”});

 

Sul fronte dei danni economici causati da Irma, è ancora presto per avere delle stime affidabili. Come racconta un articolo di Bloomberg.com, la cifra potrebbe oscillare tra i 50 e i 200 miliardi di dollari. Per dare una prospettiva storica all’aspetto economico di eventi di questa portata, abbiamo raccolto i dati che riguardano gli ultimi 10 uragani di categoria 5, dove spicca uno degli uragani più mediatici di sempre, Katrina, che nel 2005 ha colpito in pieno una grande città come New Orleans.

if(“undefined”==typeof window.datawrapper)window.datawrapper={};window.datawrapper[“A8e4A”]={},window.datawrapper[“A8e4A”].embedDeltas={“100″:571,”200″:485,”300″:485,”400″:468,”500″:468,”600″:468,”700″:468,”800″:468,”900″:468,”1000”:468},window.datawrapper[“A8e4A”].iframe=document.getElementById(“datawrapper-chart-A8e4A”),window.datawrapper[“A8e4A”].iframe.style.height=window.datawrapper[“A8e4A”].embedDeltas[Math.min(1e3,Math.max(100*Math.floor(window.datawrapper[“A8e4A”].iframe.offsetWidth/100),100))]+”px”,window.addEventListener(“message”,function(a){if(“undefined”!=typeof a.data[“datawrapper-height”])for(var b in a.data[“datawrapper-height”])if(“A8e4A”==b)window.datawrapper[“A8e4A”].iframe.style.height=a.data[“datawrapper-height”][b]+”px”});

 

Sulla carta abbiamo mappato gli spostamenti degli stessi uragani. I dati provengono dal servizio Hurdat2 del National Hurricane Center che mette a disposizione i dati di tutti i rilevamenti. Ogni scia colorata rappresenta un diverso uragano e cliccando su ognuno dei pallini si possono conoscere velocità del vento e pressione atmosferica in un determinato momento della vita di questi fenomeni. La mappa mette ben in evidenza anche una caratteristica tipica degli uragani atlantici: il loro punto di origine sulla costa dell’Africa occidentale, dove i venti secchi che spirano dal Sahara incontrano l’aria umida dell’Atlantico.

 

Cambiamenti climatici e uragani: un sospetto che non è certezza

 

Esistono luoghi dove gli uragani si formano con maggiore frequenza? E se sì, sono gli Stati Uniti a essere i più colpiti?

Si è detto che la distinzione tra uragani, tifoni e cicloni è solo nel nome, ma si tratta dello stesso fenomeno atmosferico. Se si verifica nelle regioni dei Caraibi, nell’Atlantico settentrionale – come quelli che interessano gli Stati Uniti – e nel Pacifico nordorientale viene denominato “uragano”, da Huracan, una divinità centroamericana.

Nel Pacifico nordoccidentale – quando colpisce ad esempio la Cina, il Giappone o le Filippine – si chiama “tifone”, mentre nell’Oceano Indiano e nel Pacifico sudoccidentale (Australia, India, Bangladesh) la denominazione è “ciclone tropicale” o altre simili.

Quasi tutte le tempeste tropicali nel mondo si originano nelle zone dei Tropici, perché man mano che ci si avvicina ai Poli la superficie del mare è troppo fredda per la loro formazione. Per l’influsso di alcune correnti fredde, poi, ci sono zone oceaniche quasi non interessate dal fenomeno, soprattutto nell’emisfero australe.

Quella che ha visto gli uragani delle ultime settimane, l’area dell’Oceano Atlantico settentrionale, non è la zona più colpita: le tempeste più potenti nascono nel Pacifico occidentale, seguito dall’Oceano Indiano. L’Atlantico è solo al terzo posto per numero totale delle tempeste, e quelle che interessano Stati Uniti e Caraibi sono meno del 15 per cento del totale globale.

Tra il 2006 e il 2016 ci sono stati 121 eventi atmosferici paragonabili agli uragani nell’area del Pacifico orientale, contro i 70 dell’Atlantico settentrionale. E anche sul fronte delle tempeste tropicali da record, il Pacifico ha diversi primati dalla sua: se avete visto le simulazioni che sovrappongono l’uragano Irma alla mappa dell’Europa, e ne siete rimasti impressionati, pensate a cosa dovette essere il supertifone Tip, che nel 1979 passò nei pressi di Guam, e al suo massimo era largo circa 2.200 chilometri – più o meno metà degli Stati Uniti continentali.

Più segnalazioni con più traffico marittimo

Gli studi dicono che gli uragani nell’area dell’Atlantico, negli ultimi cento anni circa, non sono aumentati di numero in modo significativo. O meglio: quelli rilevati sono di più rispetto all’inizio del Novecento, ma con ogni probabilità questo dipende solo dal fatto che molte più navi, oggi, attraversano l’Oceano e quindi ne viene segnalato un numero maggiore. Se guardiamo a quelli che sono arrivati fino alla terraferma americana, ad esempio, alla fine dell’Ottocento ce ne furono leggermente di più.

Gli uragani, però, potrebbero essere diventati più grandi, più intensi, in una parola più distruttivi. Qui viene naturale il collegamento: le attività umane che modificano il clima, come l’emissione di gas serra, hanno già portato a un aumento nell’intensità degli uragani? Oppure la porteranno nel prossimo futuro? La risposta che danno oggi gli studi si può riassumere in modo molto semplice: è presto per dirlo, ma c’è qualche indizio che sia così. Il punto sulla questione lo fa il Laboratorio Geofisico di Fluidodinamica (GFDL) del NOAA, l’agenzia federale americana che si occupa di meteorologia.

I ricercatori scrivono che “è prematuro concludere che le attività umane – e in particolare le emissioni di gas serra che causano il riscaldamento globale – abbiano già avuto un impatto misurabile sugli uragani atlantici o i cicloni tropicali a livello globale”.

Ma se non ci sono ancora certezze sul presente, per il futuro le previsioni sono più cupe.

I danni aumenteranno del 30%

Se il riscaldamento globale continuerà al ritmo attuale, gli uragani più intensi probabilmente aumenteranno in frequenza e intensità di qui alla fine del XXI secolo, almeno in alcune aree. Queste previsioni sono state raggiunte non solo per la zona dell’Atlantico – gli uragani in senso stretto – ma per tutte le tempeste tropicali nel mondo, come ha concluso uno studio del 2010 dell’Organizzazione Meteorologica Mondiale.

Il cambiamento climatico influisce sulle tempeste tropicali, come gli uragani, in diversi modi: da un lato alza la temperatura alla superficie del mare, che favorisce la formazione e l’intensità degli uragani, mentre dall’altro riscalda la parte dell’atmosfera chiamata troposfera superiore e aumenta la variazione verticale dell’intensità e direzione del vento (un effetto chiamato wind shear). Questi ultimi due effetti contrastano la formazione di uragani.

Qual è l’effetto di queste spinte in senso contrario? Secondo i modelli elaborati dai meteorologi, nel complesso il numero degli uragani potrebbe perfino diminuire, ma diventando più intensi e con maggiori piogge. Uno studio del 2010 prevede un aumento del 30 per cento nei potenziali danni nell’area dell’Atlantico entro la fine del secolo, e un altro vede un raddoppio degli uragani di categoria 4 e 5 (le più alte) nello stesso periodo.

I "cacciatori di uragani", fegato e stomaco forte

 

“È come entrare in un autolavaggio con un gruppo di gorilla che saltano sopra la macchina”. Descrive così l’esperienza di volare dentro a un uragano Jim Hitterman, tenente colonnello dell’Air Force americana. Nel corso della sua ultraventennale carriera di pilota militare, è salito decine di volte su di un aereo speciale in dotazione a una particolare squadra di specialisti, gli Hurrican Hunters (letteralmente “cacciatori di uragani”) che portano gli strumenti di rilevazione scientifica dentro agli occhi dei cicloni per conoscerli da vicino. La loro storia è diventata un reportage di Reuters.

Anche in Italia ci sono scienziati che hanno fatto l’esperienza di Hitterman e colleghi. Uno di loro è Antonio Ricchi, ricercatore dell’Istituto di Scienze Marine (ISMAR-CNR) di Venezia. Solo qualche settimana fa ha partecipato a un training europeo congiunto a Shannon, la stessa città irlandese dove ha sede Ryanair, e per cinque giorni ha fatto voli di raccolta dati in un grande ciclone che si trova vicino all’Islanda. Volare dentro a un uragano, con venti e turbolenze fortissime non è un’esperienza per stomaci deboli e comporta alcuni rischi. “Durante uno dei voli”, racconta Antonio Ricchi, “stavamo attraversando il fenomeno a circa 30 metri di quota sul mare, con venti a circa 80 km/h e io ero addetto al doppler. Hanno vomitato tutti tranne il pilota e io ho avuto un mancamento”.

Il gioco vale la candela

Viste le difficoltà, allora, perché effettuare questo tipo di voli? Il punto fondamentale è che sull’Oceano c’è quello che in gergo tecnico viene chiamato “buco osservativo”: non ci sono che rilevazioni indirette di quello che avviene. Inoltre, durante una tempesta nessuna nave passa in quel tratto di mare. Senza gli aerei, si usano le immagini satellitari, ma non sono così precise come i dati che si possono raccogliere sul posto. Per esempio, per quanto riguarda la temperatura del mare, dal satellite si può dedurre quella dei primi millimetri di superficie, ma con un uragano che “provoca onde di 10 o 12 metri, si tratta di una misura di utilità limitata”, spiega Ricchi. “Anche la velocità del vento è calcolata indirettamente misurando dalle immagini del satellite lo spostamento delle nubi”.

Oltre a essere un limite alla conoscenza scientifica di questi fenomeni atmosferici, i dati indiretti rappresentano un problema per l’accuratezza dei modelli previsionali, le simulazioni che permettono di prevedere quando e con che intensità un uragano colpirà la terraferma. "Se ci basiamo solamente sulle immagini satellitari", spiega Ricchi, “torniamo alle previsioni meteo del colonnello Bernacca negli anni Settanta: buone per domani, ma non a più giorni. Sarebbe come continuare a osservare un fenomeno guardandolo solo in due dimensioni”, mentre i voli degli Hurricane Hunters aggiungono la terza dimensione.

L'occhio di Irma

Il 5 settembre scorso un aereo dell’Office of Marine and Aviation Operation della National Oceanic and Atmospheric Administration americana (NOAA) è volato dentro l’occhio di Irma. Le immagini del centro della tempesta, visibili soprattutto nella seconda parte di questo video, sono spettacolari: dopo aver attraversato strati di nuvole dense che provocano l’effetto autolavaggio di cui parlava Hitterman, la telecamera di bordo mostra una specie di anfiteatro bianco, con muri altissimi di nuvole che circondano un ovale di cielo azzurro. È l’occhio di Irma.

Ma oltre alle immagini spettacolari, questo tipo di missioni permette di raccogliere moltissimi dati. Non si tratta solo di informazioni dirette, di prima mano, rispetto a quelle dedotte dal satellite. Trovarsi sul posto permette di raccogliere anche altre informazioni. “Dentro all’uragano”, spiega Antonio Ricchi, “si raccolgono tutti i dati meteorologici: posizione geografica dell’occhio, elevazione sul livello del mare, altezza delle onde, pressione atmosferica, velocità del vento, temperatura”. Ma anche, per esempio, la velocità di rotazione delle particelle d’aria su scala millimetrica: “una precisione pazzesca”, che si traduce in migliori modelli di previsione del comportamento del singolo uragano.

Questi dati aiutano a migliorare anche le previsioni statistiche: con quale probabilità un certo tipo di fenomeno, con una certa energia, si verifica in un dato punto della costa? Conoscere meglio, con l’aiuto degli aerei, gli uragani aiuta a migliorare anche questi modelli previsionali di più lungo termine. “Servono anche a capire dove una centrale nucleare, per esempio, può essere costruita in sicurezza”, continua Ricchi. “Tutti ci ricordiamo di Fukushima, dove non ci si aspettava onde anomale di quelle dimensioni, ma lo stesso problema si potrebbe presentare anche con le centrali nucleari della Florida”.

Voli troppo salati

Nonostante l’utilità, questi voli di misurazione vengono usati relativamente poco perché hanno un costo molto elevato. Gli aerei impiegati sono modificati in modo da sopportare condizioni di volo estreme e spesso lunghe, perché gli uragani devono essere raggiunti in mezzo all’Atlantico. Tutto questo non fa che aumentare il costo. “Pensiamo solo alla manutenzione maniacale cui devono essere sottoposti gli aerei”, racconta Ricchi, “sia prima che dopo ogni volo per garantire la sicurezza”. Lo squadrone 53d della ricognizione meteorologica dell’aviazione americana, quella del tenente colonnello Jim Hitterman, è l’unica squadra militare operativa di questo tipo al mondo e ha una flotta di 10 aeroplani.

In Europa sono poche le realtà che si possono permettere di coprire i costi di mantenimento dei velivoli speciali che sono necessari. “Anche il training a cui ho partecipato”, specifica Ricchi, “è stato reso possibile solo dal fatto che più istituti europei hanno unito gli sforzi”. Costi elevati che limitano anche i voli dello squadrone americano, che infatti si attiva solamente quando determinati livelli di allerta vengono superati come nel caso di Irma.

Uragani & dollari, l'incerto effetto sull'economia

 

Se incommensurabile è l’impatto umano di un uragano, e il dolore che può lasciarsi dietro, misurabili e misurate sono le conseguenze di natura finanziaria, non foss’altro perché riguardano immediatamente le imprese di assicurazione e di riassicurazione, che devono quantificare i danni con la maggiore precisione possibile.

Sono immediati e misurabili, per Harvey, Irma e per simili calamità del passato, anche gli effetti sui listini di borsa: i titoli del comparto assicurativo registrano di solito sensibili variazioni negative. I prezzi di alcuni prodotti, sulle borse merci, segnalano variazioni più o meno spinte al rialzo. E’ il caso, per effetto dell’uragano Irma, dei future di novembre sul succo d’arancia, per i pesanti danni alle coltivazioni della Florida (secondo produttore mondiale di succo d’arancia e secondo produttore di arance negli Stati Uniti).

La crescita di un albero e il dilemma delle cifre

Misurabili sì, i costi di un uragano: ma bisogna avvertire che non c’è mai univocità sulle valutazioni preliminari. Cambia il 'quantum' a seconda dei criteri adoperati. La stima che farebbe di Irma l’uragano più costoso della storia americana, firmata dall’analista Barrie Cornes della Panmure Gordon, valuta il costo complessivo a 300 miliardi di dollari. Sarà solo in fase successiva che si potrà dargli o meno ragione. Più asseverabile appare il conto finale dell’uragano Harvey che ha flagellato il Texas ad agosto, attorno ai 100 miliardi di dollari. Una somma veramente enorme, ma ancora inferiore all’uragano Katrina del 2005 (se è nel giusto la stima di 176 miliardi, inclusi gli 82 sborsati dalle assicurazioni e a tanto calcolati da Swiss Re).

Ogni calcolo è tuttavia approssimazione: tornando all’esempio delle arance, i danni – rileva su “The Guardian” Alan Konn, di Price Asset Management – non sono soltanto immediati, come la devastazione di un raccolto. Se si pensa a quanto tempo ci vuole perché un albero di arancio piantato sia portato a produzione, si comprenderà, estendendo l’esempio a tutte le colture, che i danni dei cicloni risultano tenaci e più spalmati nel tempo.

E’ chiaramente fondamentale l’area dove impatta il disastro: la Federal Reserve di St. Louis, dopo Harvey, valuta (ma non quantifica) i danni sugli impianti produttivi energetici e chimici del Texas, prevedendo un rialzo dei prezzi dei carburanti maggiore di quello segnato dopo gli uragani Katrina e Rita.

Certo è che le stime economiche elaborate dalle compagnie assicurative non solo sono variabili e con ampio spread tra di loro, ma considerano solo, giustamente, i danni diretti, che impattano sul comparto: nel caso di Harvey si è assistito al balletto di cifre dai tre miliardi di dollari per le assicurazioni presunti da Hannover Re a una somma tra 10 e 20 miliardi presunta da JP Morgan.

Se l’algoritmo sbanda sui guardrail

Abbondano modelli di rischio, ma non hanno valore “profetico”: non basta stimare la velocità del vento e la quantità di acqua riversata sulla terra per ricavare un ammontare preciso dei danni. Ci sono fattori minori e circostanziali che sballano gli algoritmi, per cui tra un blocco immobiliare e il successivo, tra il tetto di un palazzo e l’altro, benché contigui, possono cambiare sostanzialmente le conseguenze.

Caso chiarificatore, l’uragano Sandy (2012), che causò costi aggiuntivi per decine di milioni di dollari perché impattò edifici che ospitavano nei piani terra server e documentazione finanziaria. Spesso – si nota su “The Atlantic” – si evidenziano costi che fanno sballare i forecast più accurati: gli analisti non si aspettavano che per sostituire i segnali stradali e i guardrail divelti dall’uragano Katrina, e che per rappezzare le strade, occorressero – quanti ce ne vollero effettivamente – ben 800 milioni di dollari.

Un capitolo a parte, e assai dibattuto, riguarda i costi indiretti delle calamità. Soprattutto gli impatti sulla macroeconomia. Gli analisti si dividono in tre categorie: chi crede – premettendo un ovvio “purtroppo” – che gli uragani abbiano un effetto propulsivo sull’economia; chi ritiene (per dirne uno, Nouriel Roubini) che i danni del dopo-Katrina siano stati sufficienti per la recessione; chi infine pensa, e questa terza categoria è forse la più numerosa, che le conseguenze positive e negative si compensino e in ogni caso non modifichino in misura significativa l’andamento economico. Si ascrive intanto alla prima scuola di pensiero il presidente della Fed di New York, William Dudley, quando dichiara che la fase di ricostruzione dopo Harvey e Irma darà una spinta al pil Usa: “Mi aspetto che tra la fine di quest’anno e la parte iniziale del 2018, i transitori effetti negativi dei cicloni saranno superati e cominceremo in realtà a vedere alcuni benefìci degli sforzi di ricostruzione in termini di stimolo dell’economia”.

La longeva parabola della “finestra rotta” 

Un’analisi svolta da First Trust (che tra l’altro sottoscrive la stima di circa 100 miliardi per i danni  di Harvey) sostiene che questi disastri non condizionino la crescita economica. Perlomeno, così non è stato finora: guardando ai grafici del pil nei periodi interessati da Katrina e Sandy, gli analisti non registrano una incidenza straordinaria. Nel primo trimestre 2006 (dopo Katrina) il prodotto interno lordo crebbe a un tasso annuo del 4,9% mentre non varcò il 3% nei primi due trimestri dopo Sandy:  “Nessuna di queste tempeste causò una recessione – notano a First Trust – e allo stesso tempo, i dati testimoniano che non vi fu una reale accelerazione della crescita in nessuno dei due casi”.

Insomma, non si sono fatti molti passi avanti dalla “parabola della finestra rotta” dell’economista francese ottocentesco Frédéric Bastiat (1801-1850), richiamato nelle sue lezioni di economia – First Trust lo cita nell’outlook – dallo studioso Henry Hazlitt (1894-1993). Se un vandalo, o un bambino, spacca il vetro di un negozio, il commerciante dovrà pagare un vetraio per sostituirlo. Il danno procurerà un guadagno al vetraio, ma lo sottrarrà magari a un sarto, da cui prima di sostenere la spesa straordinaria il negoziante progettava di andare a farsi un abito.

Ottobre 2016: il battesimo negli Stati Uniti. Novembre 2016: arrivo in Inghilterra e Germania. Adesso arriva anche in Italia Amazon Music Unlimited, lo Spotify secondo Jeff Bezos. Il servizio è simile a quello dei concorrenti: è una piattaforma di musica in streaming in abbonamento. L'ascolto di brani e album è affiancato da radio personalizzate e prive di contenuti pubblicitari, basate su diversi generi come pop e rap. Come su Spotify ed Apple Music, sarà possibile selezionare brani in base al proprio umore, scegliendo – ad esempio – quelli adatti all’allenamento o al relax. È disponibile anche l'opzione offline: canzoni, dischi e playlist possono essere scaricati sui propri dispositivi per ascoltarli anche senza connessione internet. Anche in questo caso, un servizio simile a Spotify (nella versione Premium) e Apple Music.

Leggi anche gli articoli su Corriere della Sera, Wired  

Prezzi e condizioni

Amazon arriva in Italia con prezzi in linea con quelli dei concorrenti: Amazon Music Unlimited non ha una versione gratuita ma, secondo la tipica prassi per i servizi del gruppo, consente 30 giorni di prova senza sborsare nulla. Dopo il periodo di test, si attiverà automaticamente l'abbonamento: 9,99 euro al mese o 99 euro all'anno. I clienti di Prime avranno un piccolo sconto: 10 euro. Il costo mensile è identico a quello di Apple Music e Spotify. La piattaforma di Cupertino offre un periodo di prova più lungo (tre mesi). Spotify è accessibile anche gratis (senza vincoli di tempo), a patto di accettare alcune limitazioni: pubblicità tra un brano e l'altro, un numero contenuto di salti, audio di qualità inferiore e niente ascolto offline. Amazon Music Unlimited offre anche l'opzione Family: fino a sei componenti della famiglia possono condividere lo stesso abbonamento, a 14,99 euro al mese o 149 euro l'anno. Anche Apple Music offre un servizio analogo, allo stesso prezzo.

Il catalogo

Il catalogo di Amazon Music Unlimited è ampio: 50 milioni di brani, tra i quali quelli di Fabio Rovazzi, Francesco Gabbani, Fedez, Baby K, Taylor Swift, Ed Sheeran, Katy Perry, Coldplay, Vasco Rossi, Tiziano Ferro, Zucchero, Fabrizio de André, Elvis Presley e David Bowie. La mole è simile a quella di Apple Music e superiore a quella di Spotify, che si ferma 30 milioni di brani. Anche se dalla sua la piattaforma svedese ha la presenza in 61 Paese. Amazon aggiunge Italia, Spagna e Francia a Stati Uniti, Regno Unito e Germania.

In attesa di Alexa

Amazon Music Unlimited arriva però (al momento) tronco. Perché sarà compatibile con iOS, Android, Mac e pc, Fire. Ma non potrà essere usato con Echo e Alexa (cioè hardware e software che costituiscono l'assistente digitale di Amazon). In altre parole: la gestione vocale dell'app non potrà essere sfruttata, per la semplice ragione che Echo non è ancora in vendita nel nostro Paese e Alexa non supporta ancora la lingua italiana. Al momento, la differenza con le versioni estere sta nella lingua scritta e, come ha sottolineato il responsabile di Amazon Music Steve Boom, “playlist e radio sono curate dai nostri esperti di musica italiani”. Quindi con una composizione ad hoc per il Paese. L'arrivo di Alexa ed Echo, però, è solo questione di tempo. Ed è un'integrazione su cui Bezos punta molto. Lo dimostra il fatto che, negli Stati Uniti, i proprietari di un assistente digitale possono attivare l'abbonamento a voce e con un prezzo di 3,99 dollari al mese (cioè con uno sconto del 50%).

Leggi anche: Gli assistenti vocali di Amazon e Microsoft si parleranno (per tramare contro Google)

La strategia di Amazon

Amazon Music Unlimited, quindi, non porta ancora in Italia il suo principale plus (l'integrazione con i suoi assistenti digitali, che peraltro sono compatibili anche con Spotify). Non porta rivoluzioni rispetto ai concorrenti e non spinge su un prezzo al ribasso. La diffusione di un servizio di questo tipo è però coerente con la strategia autarchica di Bezos. Amazon, come dimostrano gli sconti agli utenti Prime (ovunque) e ai possessori di Echo (per ora sole negli Stati Uniti) procede nella costruzione di un ecosistema il più possibile indipendente, che convogli produzione, logistica, e-commerce, retail, hardware e servizi. Con l'intelligenza artificiale degli assistenti digitali al centro.   

 

Il Tech Tour è una di quelle occasioni in cui gli investitori sbirciano nell'ecosistema italiano (qui il nostro colloquio con il suo organizzatore Marco Trombetti). Un'opportunità per le startup di casa nostra, anche perché questo evento itinerante non ha cadenza fissa: da qui è passato di rado (cinque volte in un ventennio) e mai per due anni consecutivi. Questa volta, invece, dopo l'edizione di novembre 2016, investitori internazionali, venture capital, imprese e business angel sono tornati a Roma l'11 e il 12 settembre. Davanti a loro si sono presentate 26 società (tra startup ai primissimi passi e scaleup), selezionate tra le 155 candidate per essere tra le più innovative e ricche di potenzialità del panorama nazionale. Le regioni rappresentate sono state sette: nove startup hanno sede nel Lazio, sei in Lombardia, tre in Campania e Veneto, due in Emilia-Romagna e Piemonte, una in Trentino Alto Adige. Ecco quali sono e che cosa fanno.

  1. Beintoo è una "mobile data company" che raccoglie informazioni e, grazie alla geolocalizzazione, permette ai clienti di misurare e ottimizzare le loro campagne. Delle startup selezionate, è quella che ha raccolto i round più ricchi: 7,55 milioni di dollari.
     
  2. BluImpression è una piattaforma che analizza il comportamento delle persone in ambienti fisici. Grazie a intelligenza artificiale e big data, può stimare il pubblico intercettato da uno spot o da un cartellone pubblicitario.
     
  3. Buzzoole è una piattaforma di Influencer Marketing con sede a Napoli. È in grado di connettere i brand ai giusti influencer della rete grazie all'utilizzo dei big-data. Assieme a Beintoo, è una delle due italiane tra le 15 scaleup europee selezionate per il programma Startup Europe Comes to Silicon Valley di Mind the Bridge ed EIT Digital. 
     
  4. Competitoor ha sviluppato uno strumento per il B2B dedicato ai negozi online. Consente ai marchi e ai responsabili delle vendite di tracciare i prezzi dei concorrenti e di essere avvisati in caso di variazioni.
     
  5. D-Eye, startup con sede a Padova e incubata da M31, sviluppa dispositivi e applicazioni medicali applicabili agli smartphone. Ha creato un sistema portatile che si aggancia ai dispositivi creando una fotocamera oftalmica per lo screening della vista.
     
  6. Direttoo è una piattaforma, fondata da Diego Pelle e Chiara Mastromonaco, che collega i ristoratori direttamente con fornitori e produttori. Facilita la gestione del business anche grazie a un sistema di monitoraggio delle spese.
     
  7. Enerbrain, fondata a Torino nel 2015, ha sviluppato una soluzione IoT per monitorare gli sprechi energetici di un edificio, indicando gli interventi per ottimizzare le risorse. E offrendo dati in tempi ridotti.
     
  8. Filo ha creato un portachiavi intelligente (che può essere agganciato anche a zaini, valigie o a qualsiasi cosa si voglia tenere sotto controllo). Grazie a un'app, consente di sapere dov'è l'oggetto. E, nella direzione opposta, basta schiacciare Filo per far squillare e ritrovare lo smartphone.
     
  9. Gr3n ha inventato un processo che permette di riciclare plastica in modo più profittevole, a vantaggio delle imprese del settore. È alla ricerca di 3 milioni di euro per passare dallo sviluppo del pilota all'applicazione industriale.
     
  10. Inventia sviluppa soluzioni di Customer Engagement multicanale che accompagnano gli utenti lungo tutto il percorso d'acquisto. Dall'assistenza (che miscela intervento umano e bot) fino alla transazione. È già stata selezionata da ScaleIT 2016 e da una call di GrowItUp.
     
  11. Manet, accelerato da Luiss Enlabs, è una soluzione mobile destinata agli hotel e ai loro clienti. I viaggiatori hanno a disposizione informazioni, chiamate e connessione illimitate. Le strutture ricettive possono offrire ai clienti un pacchetto personalizzato che enfatizzi i servizi proprie e dei partner commerciali.
     
  12. MioAssicuratore è un broker assicurativo online, che assiste gli utenti nella scelta, la comparazione e la sottoscrizione di polizze. Grazie a machine learning e a un algoritmo proprietario, MioAssicuratore calcola il premio in tempo reale.
     
  13. Nextwin (altra accelerata da Luiss Enlabs) si rivolge agli appassionati di sport e scommesse. Ha creato una piattaforma una piattaforma per puntare monete virtuale su singoli eventi (una sorta di fantacalcio del betting) e Invictus, uno strumento (su abbonamento, da usare per puntate reali) che analizza i big data e consiglia le giocate migliori.
     
  14. Oval, fondata dall'ex contry manager di Uber Benedetta Arese Lucini, è una piattaforma che aiuta gli utenti a gestire meglio i propri risparmi. Mettendo da parte piccole somme in automatico e monitorando le proprie spese. Ad aprile ha incassato un round da 1,2 milioni di euro partecipato da Intesa Sanpaolo e b-venture.
     
  15. Prestiamoci è una piattaforma di prestiti tra privati che consente di concludere l'intero processo online e in modo rapido. Fondata nel 2007, ha ottenuto 3,4 milioni e la fiducia di Innogest. Al momento, ha registrato 837 prestatori attivi e importi complessivi superiori ai 7 milioni.
  16. Sailsquare è stata battezzata come l'Airbnb delle barche. La startup, fondata da Simone Marini e Riccardo Boatti, mette in connessione skipper e proprietari di imbarcazioni con i turisti interessati a organizzazione un viaggi a vela.
     
  17. Scooterino si propone come la Uber degli scooter, la prima in Europa. Nata a Roma, si è estesa a Firenze, Genova e Milano. È un'app che mette in connessione chi ha bisogno di un passaggio con chi circola nelle vicinanze.
     
  18. Sellf è un assistente digitale, rivolto a professionisti e piccoli imprenditori, che facilita la gestione dei clienti e delle trattative e contribuisce a organizzare il tempo del team addetto alle vendite. Partecipata da H-Farm, a luglio ha vinto l'edizione 2017 di Edison Pulse.
     
  19. SpinVector elabora soluzioni in realtà aumentata per offrire esperienze immersive in settori diversi, dai videogiochi online agli eventi che “portino lo show dal palco all'audience”.
     
  20. Travel Appeal si rivolge a musei, hotel, ristoranti e località turistiche. Analizza in tempo reale le recensioni, le conversazioni sui social media, i prezzi, le tendenze di mercato ed il territorio e fornisce previsioni e suggerimenti per migliorare attività e reputazione online.
     
  21. Walliance è la prima piattaforma italiana di equity crowdfunding dedicata al mercato immobiliare. È nata in Trentino nel luglio 2016 e punta a rendere il real estate un'opportunità anche per piccoli investitori.
  22. Wanderio si rivolge ai viaggiatori per proporre le migliori soluzioni che consentano loro di raggiungere la loro meta (aerei, treni, bus). Gli utenti possono prenotare e pagare direttamente sulla piattaforma. Nel luglio 2016 ha chiuso un round guidato da Europcar.
     
  23. Wellness & Wireless sviluppa servizi digitali (web, app e software) rivolti a sport e benessere. Tra i prodotti offerti ci sono Yukendu, un coach personale e mobile per il dimagrimento, e SuperOp, app che migliora le performance sportive a partire dal monitoraggio della pressione sanguigna.
     
  24. Wiman è stata fondata da Massimo Ciuffreda nel 2012. È nata per semplificare l'accesso e la condivisione gratuita di connessioni wifi. Mappa e, grazie al machine learning, valuta la qualità delle connessioni libere.
     
  25. WinOwine è un “club” online dove i soci possono acquistare vini di qualità. I prodotti vengono selezionati dal team e, all'inizio, proposti per una sola settimana. Se apprezzati, sono ammessi stabilmente al catalogo, con spedizioni entro 48 ore.
     
  26. Yocabè è un distributore online per i brand della moda, focalizzato sui marchi italiani di medie dimensione che ambiscano a raggiungere clienti su scala globale. Yocabè si propone come unico interlocutore digitale delle aziende, perché in grado di occuparsi di vendite, logistica, assistenza clienti multi-lingua e spedizioni internazionali. 

Certo non gli fa difetto la chiarezza: Jamie Dimon, ceo di JP Morgan, ha definito i bitcoin “una frode”, una moneta adatta a “spacciatori e assassini” ed è convinto che si tratti di “una bolla peggiore di quella dei tulipani”. Ne è proprio convinto, da tanto da ripetere il concetto due volte nella stessa giornata: prima nel corso della Barclays Financial Services Conference e, poche ore dopo, in un'intervista a Cnbc.

Cosa c'entrano i Bitcoin con i tulipani

Ma che c'entrano i bitcoin con i fiori? Quella dei tulipani è l'esempio più classico di bolla speculativa. Gonfiatasi e scoppiata nei Paesi Bassi a metà nel XVII secolo. Intorno agli anni '30 del '600, l'Olanda incontrò una enorme domanda di tulipani. Il prezzo dei bulbi, di consenguenza, inizia a salire, rendendo il mercato talmente profittevole da spingere a migrare verso un settore (in apparenza) di grandi prospettive. La bolla inizia a gonfiarsi, anche perché i commercianti vendono non solo i fiori ma anche bulbi appena piantati o non ancora acquistati. Vendono cioè “allo scoperto”, scommettendo sul continuo rialzo dei prezzi. Quando ci si rende conto che domanda e valore non sarebbero stati sostenibili a lungo, iniziarono le vendite. Un'asta andata deserta fa scattare il panico, la bolla scoppia e i prezzi crollano. Chi produce tulipani non ha più compratori. Chi ha speculato si ritrova in mano con contratti inesigibili (anche perché erano vietati per legge). Cos'ha, tutto questo, in comune con i bitcoin?

Perché Jp Morgan è convinta che Bitcoin finirà male

Dimon è convinto che, prima o poi, “finirà male” e il valore si schianterà. È una previsione, in quanto tale non confutabile. Ma ci sono anche altri elementi da valutare. È vero che i prezzi fluttuano (nell'Olanda del '600 come sulla blockchain) su un mercato non regolamentato (il prezzo dei fiori si gonfiò sfruttando contrattazioni su mercati “informali”) ed che non può esserci l'intervento di istituti centrali. Ed è vero che esiste una certa instabilità. Ma, affermano i sostenitori del sistema bitcoin, c'è un fattore di equilibrio che i tulipani non avevano: il protocollo prevede un numero finito di bitcoin, la cui emissione rallenterà nel tempo fino al 2140 (data in cui verrà estratto l'ultimo). La loro disponibilità, quindi, sarà sempre più limitata.

Con due effetti: tenere a bada l'inflazione e promettere un apprezzamento strutturale nel lungo periodo. È questa la caratteristica che, da asset speculativo, renderebbe i bitcoin un bene rifugio, soggetto a variazioni ma al riparo dalle fluttuazioni economiche.

Jp Morgan vieta di usare Bitcoin ai suoi trader

Dalle parti di JP Morgan, maneggiare bitcoin è vietato: se un trader della banca cominciasse a farlo, ha detto Dimon, “lo licenzierei in un secondo, per due ragioni. È contro le regole ed è stupido”. Insomma, un tabù. Che però non viene imposto tra le mura di casa: “Mia figlia ha investito in bitcoin. Adesso li ha venduti e pensa di essere un genio”. Ma la visione di Dimon non è solo buia: è truce. La speculazione “finirà con l'uccidere qualcuno”. E ancora: “Conviene usare bitcoin anziché dollari americani se sei in Venezuela, Ecuador, Corea del Nord e in altri posti del genere. O se sei uno spacciatore o un assassino. Quindi sì, c'è un mercato, ma è molto limitato”.

"La speculazione finirà con l'uccidere qualcuno"

Il ceo di JP Morgan ha tenuto a sottolineare la distinzione tra bitcoin e blockchain, il cui utilizzo si annuncia promettente. D'altra parte la banca ha, già da un paio d'anni, avviato la sperimentazione della tecnologia per ridurre tempi e costi di transazione. E fa parte (e siede nel board) dell'Enterprise Ethereum Alliance, associazione che punta a sviluppare la piattaforma su cui viaggia Ether, l'altra grande criptovaluta. Decentralizzato o meno, regolamentato o no, quando parla il capo di JP Morgan, il mercato reagisce. Lo ha fatto anche quello dei bitcoin: dopo l'intervento di Dimon, il valore della criptovaluta ha perso poco meno di 150 dollari in pochi minuti.    

 

Samsung e Apple sono concorrenti. Ma non sempre avversari. Un eventuale successo dell'iPhone X non spaventa la casa coreana. Tutt'altro: Samsung è infatti l'unico fornitore di display della Mela. Per il suo smartphone del decennale, Cupertino ha optato per schermi Oled. Samsung non ne è l'unico produttore, ma ha una quota di mercato del 97,7% ed è il solo possibile interlocutore capace di sostenere i numeri imposti di Apple (tra due e quattro milioni di unità solo nel trimestre in corso).

Un problema di produzione, con pesanti riflessi sul mercato

Lo afferma un'analisi di KGI, riportata da AppleInsider, che ha ricostruito l'intera filiera produttiva. Insomma: una parte consistente del successo dell'iPhone dipende dalla produzione di un proprio concorrente. Ma quali sono i riflessi sul mercato? Essendo l'unico fornitore possibile, Samsung ha potuto giocare sul prezzo. KGI stima un costo tra i 120 e i 130 dollari per il solo display, contro i 45-55 dollari di uno schermo Lcd (come quelli usati dalla mela fino a ora). Ma non è solo una questione di prezzo.

La questione degli schermi Oled, prodotti da Samsung

Samsung ha dalla sua la primazia in un mercato in crescita. Se oggi gli schermi Oled rappresentano un quinto del mercato, secondo IHS varrano il 40% nel 2020. Un trend che vuole assecondare: proprio in vista dell'accordo con Apple, ha costruito un nuovo impianto produttivo, capace di produrre tra i 180 mila e i 270 mila pannelli al mese. L'investimento è stato corposo (tra impianto e primi materiali 21 miliardi di dollari), ma dovrebbe spingere la divisione che cresce di più: nella trimestrale chiusa a giugno, il fatturato dei semiconduttori (cioè le parti di dispositivi che Samsung vende come fornitore) è cresciuto del 46% rispetto allo stesso periodo del 2016. Ecco perché il gruppo ha continuato a macinare utili nonostante il ritiro del Note 7.

Comunque vada, per Samsung sarà un successo

Essere l'unico fornitore di display Oled pone Samsung in una posizione di forza: guadagnerà se l'iPhone X avrà successo. Ma se le vendite saranno al di sotto delle attese, avrà comunque di che gioire per l'insuccesso di un concorrente nel mercato degli smatphone. Dall'altra parte, Apple si ritrova in una posizione di debolezza. Prima o poi dovrà tentare di differenziare la filiera per non andare incontro a carenze produttive (nel caso in cui la domanda dovesse essere oltre le attese, gli utenti potrebbero dover attendere a lungo il proprio smartphone). La totale dipendenza è smorzata solo dal fatto che iPhone 8 e 8 Plus continueranno a usare display Lcd, per i quali Samsung non ha il monopolio. 

Flag Counter