La Fake News dei controlli sulle Fake News. La rete ci dice che non si puó e chi lo afferma é tecnologicamente ignorante.

Le Fake News non sono entrate nel panorama informativo da pochi anni ma sono sempre esistite da quando esiste l’informazione. Non voglio qui disquisire sulla vera definizione di Fake News: Che sia una pura notizia falsa o una notizia falsa creata ad hoc per colpire qualche personaggio pubblico poco importa.

Qualunque sia la natura della Fake News oggi giorno si discute sulla possibilitá di attuare qualche tipo di controllo o filtro per ridurne gli effetti “sociali”. Il fatto che ai giorni nostri le Fake news si presentino in gran numero attraverso la rete sembra motivare questa falsa convinzione che sia necessario attivare dei filtri per preservare la purezza dell’informazione. Questo concetto é se stesso una Fake News perché non é praticamente applicabile e chi lo afferma dice una falsitá.

Nelle scorse settimane prima il PD con Renzi e poi il M5S con Di Maio hanno dichiarato che servono dei controlli per verificare la veridicitá delle informazioni presenti in rete. Dicono che bisognerebbe responsabilizzare le aziende che convogliano le informazioni sul Web come Facebook, Google etc. in modo che attivino loro stesse dei controlli per poter verificare la veridicitá delle informazioni prima di pubblicarle. Di seguito alcuni numeri per capire perché queste teorie dirigiste non sono praticabili.

Fattore Economico

Le grandi aziende IT del Web (Service Internet Provider) hanno un modello di business abbastanza classico nonostante siano una realtá nuova nel panorama economico. I grandi Over The Top ovvero le aziende che offrono contenuti, applicazion e nuovi servizi IT senza possedere una vera e propria infrastruttura di rete, in gran parte si appoggiano su un modello di business basato sulla pubblicitá. Nella cosiddetta New Economy  il modello non é tanto diverso da quello che facevano le televisioni private negli anni 80. Le nuove aziende della New Economy hanno inoltre un modello semi-monopolistico. Il primo che arriva si prende tutto: Facebook per il social, Google per i motori di ricerca, Google-Youtube per il Video Social, WhatsApp per la messaggistica OTT, Twitter per il Social Messaging , Amazon per l’e-commerce etc. Questa posizione di monopolio porta ovviamente ad un enorme volume in termini di guadagni.

Qui sopra i Guadagni di Facebook in cui come si vede la pubblicitá conta quasi al 100%.

La corsa di Facebook e la sua posizione di monopolio ha portato l’azienda da un guadagno netto nel 2015 di 900Milioni di $ agli odierni quasi 5Miliardi. 5 volte il valore in 2 anni. Non male.

Questo per far capire che l’obiettivo di queste aziende é di far girare l’informazione qualunque essa sia, creare audience e vendere pubblicitá. Non c’é interesse né di veicolare informazione buona né informazione cattiva ma solo di far muovere le informazioni, generare “click” e guadagnare in pubblicitá.

Capiamo bene che accusare Facebook di mancati controlli é fuori da ogni logica perché non é responsabilitá dell’azienda controllare i contenuti condivisi dai propri utenti a meno di plateali infrazioni dell’ordinamento giuridico.

Per Facebook quello che é importante é l’utente non quello che condivide. L’importante é che l’utente faccia traffico. Infatti ogni utente ha un valore unitario di guadagno per Facebook (ARPU Average Revenue Per User). In Europa un utente Facebook vale 6.85$.

Qual’é il legame con l’informazione in questo caso? Queste aziende prendono i soldi della pubblicitá che prima era ad uso esclusivo dell’editoria ovvero dell’informazione certificata. Vedi sotto.

Il flusso delle informazioni e la pericolosa frammentazione digitale

Il grosso problema dell’informazione oggi non é tanto la Fake News in sé ma quanto il fatto che non si ha piú una chiara delimitazione fra fonti certificate/professionali con quelle scarse o addirittura false. Tutte le informazioni sono presentate alla persona attraverso nuovi canali (i social) che non sono canali ufficiali di propagazione dell’informazione né tantomeno come detto prima si propongono di sostituirli. La nuova comunicazione fra le persone ha preso la strada dei social per colpa delle persone stesse che hanno cambiato abitudini.

Nel grafico sotto si vede chiaramente qianto i Social siano diventati i luoghi in cui le persone acquisiscono la maggior parte delle informazioni (vere o false che siano). Non attraverso canali informativi professionali ma attraverso media che di norma non sono costruiti per informare ma solo per far muovere l’informazione. L’utente quindi, se non attento puó accedere a informazioni, parziali, scarse o addirittura false perché il social é diventato il nuovo contenitore senza filtri dove ognuno puó contribuire senza limiti.

Social media sites as pathways to news

Questo non implica che i Social debbano essere sottoposti a filtri o controlli “China Style”, ma semplicemente che la Fake News é il risultato di un fenomeno inarrestabile di diffusione delle informazioni attraverso canali non convenzionali.

Facile accusare il giornalismo di essere di parte o di pessimo livello ma resta il fatto che ogni giornalista gode di libertá di pensiero e opinione ma ha il dovere di riportare notizie vere e provate se non vuole incorrere in denunce. Il mondo editoriale invece é sotto forte pressione economica perché la sua fonte principale di guadagni (pubblicitá) si sta spostando altrove (vedi grafico precedente di Google). Gli incubatori di pubblicitá e guadagni basati sul flusso di informazioni sono proprio i nuovi canali che non certificano né controllano l’informazione stessa.

Pensare che l’informazione di rete sia la nuova via attraverso la quale il popolo oppresso finalmente conosce la veritá sempre nascosta dai poteri forti é semplicemente una falsitá . La rete é un grande mezzo di comunicazione ma per la sua assenza di controlli puó portare ad un inbarbarimento della societá se non viene preso con cautela. Quella che puó sembrare libertá di informazione puó essere invece il nuovo medioevo. Basta guardare cosa é successo negli ultimi tempi sulla discussione dei vaccini. La diffusione di notizie spesso troppo generiche hanno seriamente messo in discussione una delle piú grandi scoperte della medicina.

Questo di nuovo non vuol dire che servano i controlli perché sono impossibili ma semplicemente una nuova coscienza su quello che si legge che spesso deve essere accompagnato da accorgimenti minimi per non incappare in disinformazione.

Questo nuovo fenomeno di mega agglomerato di informazioni vere, scarse, false, non certificate nei nuovi contenitori sociali va sotto il nome di Frammentazione Digitale ed é spiegato in breve in questo video.

Filtrare o controllare é praticamente impossibile

Chi racconta che bisogna forzare i vari Facebook ad applicare dei filtri per il controllo delle informazioni non sa cosa sta richiedendo in termini di sforzo. Il filtraggio e controllo delle informazioni non é nelle prerogative dei Social e quindi la richiesta é di per se inutile. Ma se anche un Primo Ministro (primitivo) chiedesse che vengano applicate delle regole ai social qui sotto alcuni i numeri di cosa vorrebbe dire in termini di elaborazione:

Questo il numero giornaliero di utenti attivi su Facebook: 1,3 Miliardi di persone

Lo Facciamo ancora un filtro?

E gli altri OTT? Qui sotto la mappa completa del mondo Social. Certo non tutti hanno 1,3 Miliardi di utenti attivi al giorno ma il filtri e i controlli vanno fatti su tutti?

A Stunning Visual Map of the Social Media Universe

Lo Facciamo ancora un filtro?

Ma quante “transazioni informative” avvengono su internet ogni minuto?

Dobbiamo controllarle tutte caro Primo Ministro?

Internet Minute in 2017

E la domanda rimane sempre la stessa… lo facciamo ancora questo filtro?

La risposta mi sembra a questo punto ovvia, non é possibile. Non perché non si voglia ma perché non si puó. Non é praticabile il controllo di questo tsunami informativo che la rete porta ogni secondo. La mole di utenti e file da controllare é troppo grande. Lo sforzo richiederebbe un investimento difficilmente affrontabile per chiunque.

La questione é che esistono politici che essi stessi generano Fake News solo per il fatto che ne parlano in questi termini. Persone che non hanno le conoscenze tecniche necessarie per capire il fenomeno ma che legiferano. Personaggi che promuovono la rete come nuova fonte di veritá ma nello stesso tempo chiedono i controlli. Persone che invocano la rete senza nemmeno sapere come funzioni veramente.

L’onda dei social é inevitabile, le Fake News una conseguenza ma i controlli non applicabili. Quello che serve é la responsabilizzazione delle persone davanti ai nuovi strumenti, la consapevolezza di quello che puó nascondere l’informazione dai social. Questo é ancora  possibile, basta forse smetterla di guardare alle Fake News e alle Fake Person e concentrarsi su argomenti piú seri.

Perché agli Italiani non piacciono i vaccini? Viaggio fra falsi miti, paure e scarsa informazione

3877757097_07237ecf7a

Chiariamo subito: Credo fortemente nella Vaccinazione preventiva e la vedo come un diritto dei bambini che non puó essere negato ma in questo periodo mi sono trovato con mia grande sorpresa a dover “difendere” questo principio che pensavo fosse scontato.

In questo post cerco di riordinare le mie idee e fornire un pó di informazioni che secondo me possono essere utili a chiarire quelle che sono le mie convinzioni in maniera (spero) piú imparziale possibile anche se so che la discussione non avrá mai fine.

Ho discusso con molte persone che con la mia stessa fermezza difendevano il diritto a poter scegliere sulle vaccinazioni mettendo spesso in discussione la metodologia stessa. Scintilla della discussione é stato ovviamente il decreto legge varato dal Governo Gentiloni sull’obbligatorietá dei vaccini.

Qui la guida al decreto del Ministero della salute che spiega le novitá del nuovo decreto.

In pratica lo Stato forza la mano non lasciando la Vaccinazione alla decisione dei genitori ma obbligando tutti a vaccinare i propri figli previo accesso a servizi pubblici come l’istruzione. Qui sotto un sunto del decreto:

Il numero di Vaccini obbligatori passa da 4 a 10. Fino al decreto i vaccini (formalmente) obbligatori erano:

  •  Antidifterica
  • Antitetanica
  • Antipoliomelitica
  • Antiepatitevirale B

Con il nuovo decreto il numero sale a 10 con l’aggiunta di:

  •  anti-pertosse;
  • anti Haemophilusinfluenzae tipo B;
  • anti-morbillo;
  • anti-rosolia;
  • anti-parotite;
  • anti-varicella.

Per le ultime quattro, l’obbligo è soggetto a revisione triennale e potrà essere revocato in base ai dati epidemilogici e a quelli sulle coperture raggiunte.

Il decreto fissa l’obbligatorietá per tutti i 10 a meno di ...accertato pericolo per la salute, in relazione a specifiche condizioni cliniche documentate e attestate dal medico di medicina generale o dal pediatra di libera scelta.

Per assicurare l’obbligatorietá vengono introdotte delle sanzioni e dei divieti:

  • Le vaccinazioni obbligatorie divengono un requisito per l’ammissione all’asilo nido e alle scuole dell’infanzia (per i bambini da 0 a 6 anni)
  • in caso di violazione dell’obbligo é prevista la sanzione amministrativa pecuniaria da 100 € a 500 €. Sanzioni ridotte dalla versione precedente che le prevedeva da 500 a 7500. La ragione delle sanzioni é quello di evitare che le persone benestanti monetizzino il rifiuto alla vaccinazione. Purtroppo l’abbassamento delle sanzioni riduce questa garanzia. Nella prima versione era presente anche la possibile sospensione della potestà genitoriale. Questo punto sembrava essere molto critico per le conseguenze che ai molti sembravano eccessive. Il motivo di questo punto era nuovamente quello di evitare che le persone abbienti possano preferire il pagamento della sanzione senza ulteriori conseguenze. Purtroppo si é dato ascolto alle proteste che avevano interpretato male la sanzione.
  • Nella scuola dell’obbligo, il dirigente scolastico è tenuto a segnalare alla ASL competente la presenza a scuola di minori non vaccinati.

Perché si é fatto questo decreto?

Il motivo principale del decreto é il fatto che l’Italia misura delle coperture sotto la soglia (95%) indicate dall’Organizzazione Modiale della Sanitá (WHO) e poiché da qualche anno si stava misurando un aumento dei casi di morbillo con casi di decesso con una percentuale di 1/1000.

Qui il grafico indicato dal Ministero della Salute per il suo decreto.

Coperture Italia Guida al decreto

Il problema di fondo del decreto é il fatto che alcune vaccinazioni oltre ad essere giá sotto soglia mostravano dei segni di flessione. Le vaccinazioni per varicella e morbillo dal 2012 al 2015 hanno segnato un calo del 5% passando dal 90% all’85%. Il Morbillo nel 2017 ha misurato un aumento di 5 volte dei casi ovviamente risultato di questa diminuzione della copertura.

Insomma il sottostimato Morbillo é un pó la causa di queste forzature e rientra nelle malattie che possono avere conseguenze gravi quindi la sua eliminazione é un obiettivo. In Italia invece di una riduzione si era registrato un aumento con i valori peggiori in Europa. Negli Stati Uniti il vaccino del morbillo é obbligatorio dal 1962.

Questo decreto vuole correre ai ripari forzando l’obligatorietá semplicemente perché in Italia la volontarietá vaccinale non ha portato a miglioramenti rispetto agli altri paesi. Insomma se gli Italiani non capiscono l’importanza della vaccinazione la forziamo per legge.

Se date una lettura al “Piano Nazionale Prevenzione Vaccinale 2017-2019” potrete vedere quali sono state le pressioni che hanno spinto a questa scelta. In primo luogo gli obiettivi di vaccinazione di massa sono Globali ( Organizzazione Mondiale della Sanitá OMS in inglese WHO World Health Organization (Global Vaccine Action Plan 2011–2020, GVAP) e poi continentali con L’Europa (European Vaccine Action Plan 2015– 2020, EVAP) e poi nazionali. Insomma il piano mondiale dell’OMS fissa degli obiettivi di copertura vaccinale all’Europa che di conseguenza lo propaga agli stati membri che le mettono in pratica.

Questi gli obiettivi del programma EVAP:

  • Tutti i paesi riconoscono le vaccinazione come una priorità
  • Gli individui comprendono il valore dei servizi di immunizzazione e dei vaccini e richiedono attivamente le vaccinazioni
  • I benefici della vaccinazione sono equamente estesi a tutta la popolazione attraverso strategie mirate e innovative
  • Sistemi di immunizzazione forti sono parte integrante di sistemi sanitari efficienti
  • I programmi di immunizzazione hanno accesso sostenibile a una finanziamento stabile e a vaccini di elevata qualità industriale

Se il vostro problema é la fiducia verso le istituzioni Nazionali, Europee, Mondiali perché tutte parte di un grande complotto contro di voi che mira alla distruzione dell’umanitá, allora non troverete altre spiegazioni a riguardo in questo post e potete chiudere qui la vostra lettura. La popolazione mondiale cresce costantemente da quando esiste l’uomo quindi ad esclusione dei conflitti armati ad oggi non sono stati rilevati stermini di massa da parte di Enti Pubblici, Medici o Scientifici. 

La copertura Vaccinale per le diverse malattie nel mondo e in Italia

In questa infografica potete controllare per le diverse malattie quali sono le diverse coperture nel mondo e vedere come in Europa l’Italia non é mai nelle migliori posizioni rispetto agli altri paesi.

In questa invece le diverse soglie di copertura delle varie regioni italiane per le diverse malattie. Si puó notare come regioni quali il Veneto che hanno fatto della libertá vaccinale una bandiera in realtá hanno percentuali lontane dalle soglie consigliate. Ma si sa che se esiste la politica anche la salute puó essere fonte di scontro.

Ma perché la soglia del 95%?

Una delle critiche che ho sentito piú sovente é riferita a questa fantomatica soglia del 95% di copertura. La soglia del 95% deriva dalla cosiddetta immunitá di gregge (la spiegazione della versione inglese é piú completa) ovvero un meccanismo di protezione indiretta alla diffusione di malattie infettive. In pratica piú alto é il numero di persone immuni piú la protezione si allarga a tutto il “gregge” inclusi i soggetti non vaccinati. L’immunitá di gregge é parte integrante e fattore fondamentale per il successo della vaccinazione.

L’obiettivo primario della vaccinazione é l’eradicazione di una malattia ovvero la sua cancellazione da un paese/continente/intero pianeta. Le percentuali di copertura indicate servono appunto a questo scopo.

Questo é giá accaduto per malattie come la poliomelite e il vaiolo. In questi casi ovviamente le percentuali di copertura oggi giorno servono sostanzialmente a mantenere questa eliminazione dell’infezione ma i relativi valori di copertura possono essere piú bassi.

Il valore del 95% é effettivamente il valore piú alto e sicuro per l’estirpazione dei fattori patogeni ma vale solo per alcune malattie come per esempio morbillo e pertosse in quanto la trasmissione via etere é piú facile. Le percentuali di copertura per altre malattie puó essere effettivamente piú bassa.

La grande critica del mondo per l’obiezione sui vaccini é appunto basata su questo principio: Se la percentuale di copertura é diversa per le diverse malattie perché dovremmo per forza raggiungere il 95%?

I motivi sono diversi:

  • L’immunitá di gruppo viene calcolato su un territorio vasto che peró per ragioni demografiche non puó avere la stessa distribuzione per differenti fattori. Se guardiamo infatti alle coperture delle diverse regioni Italiane possiamo facilmente notare queste differenze. Se l’Italia avesse una copertura al 95% a livello nazionale potrebbe presentare una regione al 99% e una all’85% pur mantenendo il valore medio del 95%. Spesso si legge che per queste differenze territoriali per essere sicuri dell’estirpazione il valore dovrebbe essere il 100%. Se prendiamo per esempio la difterite che dovrebbe aver bisogno di una copertura all’86% e fissassimo questa come soglia, avremmo sicuramente delle regioni al di sotto e quindi tutti gli sforzi sarebbero inutili.
  • Una ragione a mio modo di vedere é anche l’impossibilitá pratica di un piano vaccinale con percentuali variabili. Come si puó vaccinare al 95% per una patologia e al 80% per un’altra? Facciamo un’estrazione per chi puó NON deve essere vaccinato? Come facciamo a ridurre il numero di iniezioni con le percentuali diverse (vedi punto successivo)?
  • La risposta secondo i gruppi antagonisti al decreto é il fatto che bisogna lasciare la libertá vaccinale a tutti e poter far scegliere quali vaccini somministrare ai propri figli. Anche se questa strada fosse percorribile e ci si accorgesse un giorno che siamo comunque vicini alla soglia minima diciamo l’80% come potrebbe lo Stato recuperare? Obbligando la vaccinazione comunque, ovvero applicherebbe quello che giá oggi sta facendo. In un modo o nell’altro quando le percentuali scendono non si puó che rendere la vaccinazione obbligatoria per legge considerando che é una protezione per l’intera societá che non puó dipendere dalle scelte dei singoli.
  • Come giá scritto la soglia del 95% é decisa dall’Organizzazione Mondiale della Sanitá, accettata dall’Europa e dai suoi paesi membri. Ridiscuterla significa semplicemente non avere fiducia per questi enti o peggio ancora pensare che la salute delle persone venga messa a rischio chissá per quali motivi.
  • É necessario considerare anche un fattore economico dei vaccini singoli rispetto a quelli polivalenti. La loro produzione sarebbe piú costosa senza avere nessun valore aggiunto poiché la scelta dei singoli vaccini non ha nessun valore medico/scientifico. Le aziende farmaceutiche sarebbero piú che contente di vaccini singoli perché porterebbero piú soldi. Se effettivamente tutte le teorie complottiste del Big Pharma avessero una radice fondata perché non spingere per vaccini singoli? Qui sotto alcune riflessioni dettagliate sul discorso costi.

Lo spettro del vaccino polivalente. 

Spesso viene insistentemente espresso il concetto che segue la libertá di vaccinazione ovvero quello di poter scegliere quali vaccini somministrare ai propri figli. Come scritto sopra considerato lo stretto legame fra copertura ed efficacia della vaccinazione, se la libertá di scelta in Italia ha portato a percentuali di copertura piú basse non resta che forzarla con l’obbligatorietá.

Ipotizzando la libera scelta molte persone si aspettano di avere singoli vaccini invece che quelli polivalenti (ovvero una singola iniezione per piú vaccini). Secondo la teoria non confermata da nessun dato, somministrare piú vaccini insieme ha conseguenze piú gravi sui bambini invece del singolo vaccino.

Facciamo due riflessioni:

  • 2 o 3 o 6 vaccini assieme quali differenze fanno? Al mondo esistono vaccini 10valenti o addirittura 13valenti ma ognuno di essi viene testato e garantito allo stesso modo. Non esiste un vaccino immesso sul mercato senza avere prima passato tutte le fasi di verifica. Il decreto Italiano prevede un Vaccino 4valente e uno 6valente ovvero le 10 vaccinazioni verranno offerte in due scaglioni. il Vaccino 4valente é quello giá attualmente utilizzato e sul quale nessuno ha mai protestato, Perché proprio adesso dovrebbe essere un problema? la logica mi dice che per quelli aggiuntivi é corretto avere un’iniezione unica con i 6 mancanti.
  •   I vaccini vengono accusati erroneamente di contenere sostanze dannose e ne scriveremo piú dettagliatamente a seguire. Se questo fosse vero perché aumentare il rischio con fialette singole per ogni vaccino? Se il problema sono le sostanze utilizzate per produrre il vaccino allora perché chiedere di avere iniezioni singole per ogni vaccino aumentando l’intossicazione dalle fantomatiche sostanze pericolose. La teoria contraddice se stessa, se da un lato si lamenta la pericolositá dall’altro si chiede di aumentare il dosaggio delle stesse “sostanze pericolose”.
  • “Per la salute non si bada a spese” é un concetto corretto ma fino ad un certo punto. Da un lato si accusano le aziende farmaceutiche di forzare la spesa degli Stati e nello stesso tempo si chiede di “non badare a spese”. Per i vaccini é giusto non badare a spese ma solo in termini di qualitá ovvero non cercare sconti su prodotti vaccinali scarsi.

L’ottimizzazione della somministrazione peró deve essere considerata evitando di sprecare soldi nella produzione di vaccini singoli che:

  • Aumentano i costi di produzione per dose, si pensi anche solo semplicemente alle fiale. Quando parliamo di vaccini si parla di decine di Milioni di dosi che se moltiplicate per i singoli vaccini porterebbero a numeri e costi ancora piú grandi.
  • Possibili sprechi nel momento in cui molte piú fiale potrebbero essere aperte e non usate interamente in caso di multidose
  • Obbligherebbero a molte piú iniezioni e quindi comunque ad un tempo maggiore per chi le opera.
  • I prezzi dei vaccini sono legati a scelte di mercato piuttosto che a costi veri e propri e per questo l’ente pubblico non ha grosso potere negoziale. Questo é dovuto al fatto che esiste un quasi monopolio farmaceutico che come ogni monopolio porta alla distorsione dei prezzi. Avere un programma preciso che preveda due iniezioni da 4 e 6 vaccini é sicuramente piú ottimizzato di avere 10 vaccini con libera scelta e quindi a volumi non certi. L’Ente pubblico deve cercare di ottimizzare la spesa anche in caso di salute, quello che non deve fare é ridurre la qualitá della salute per risparmiare ma questo come é detto non ha legami con i vaccini multivalenti.
  • Qui due link per chi vuole approfondire con alcune spiegazioni sui costi dei Vaccini:

Le solite lobby farmaceutiche e il Big Pharma?

Le aziende Farmaceutiche insieme alle Banche e alle aziende Petrolifere sono sempre presenti nella fantasia complottista. Recentemente anche grazie a nuovi protagonisti della politica Italiana queste fantasie si sono radicate sempre di piú nella mente di molti Italiani.

Non é mia intenzione discutere di complotti o lobby ma solo di fornire alcuni numeri per circoscrivere il fattore “aziende farmacologiche” e nello specifico quello dei vaccini.

La critica piú comune che ho sentito sull’obbligo vaccinale é il fatto che nasconde interessi economici e ha come obiettivo il danneggiamento della salute dei cittadini. Il solito discorso delle lobby farmaceutiche che fanno pressioni per alzare le soglie di allerta e poter vendere i propri prodotti.

Ritenendo questa tesi tutta da dimostrare non entro nel merito della questione perché non ci sono al mondo prove di questo complotto ed invito tutti quelli che accusano questo sistema di interessi a fornire le prove di quello che affermano invece di fermarsi al solito “Perché secondo te (stupido credulone) non ci sono interessi dietro?”.

La risposta é “certo che ci sono interessi economici, le aziende farmaceutiche ovviamente fanno soldi con i loro prodotti ma questo non vuol dire che riescano a controllare tutti i sistemi pubblici mondiali”

Con questo non voglio dire che non possono esistere gli scandali, ci sono, ci sono stati e ci saranno ma per questo esiste la legge e il sistema giudiziario. Non bisogna confondere la medicina con l’illegalitá. LA MEDICINA É CORRETTA NON CORROTTA. Se esiste (e purtroppo esiste) la corruzione questo é un problema del singolo che delinque ma non possiamo allargare il concetto a tutta la Medicina ed accusarla di essere parte dello stesso gruppo.

Questo é un concetto di base ma spesso viene dimenticato dalle menti povere che magari stufe di leggere ogni giorni casi di corruzione decidono di allargare il problema a qualsiasi scelta statale (a maggior ragione quelle sulla salute che suonano sempre piú vere delle altre).

Ma quanto vale il Business Farmaceutico?

l’85% del business farmaceutico é generato da 5 grandi aziende: GSK, Merck, Sanofi-Pasteur, Wyeth and Novartis. É indubbio che il mercato farmaceutico sia un mercato ricco ma vale la pena fare alcuni confronti:

  • Valore Globale nel 2015 del mercato farmaceutico mondiale 1072 Miliardi di dollari. Il Prodotto interno lordo Italiano é nel 2016 attorno ai 1850 Miliardi di dollari. Qundi vale meno del sistema Italia.
  • Lavorando nel settore IT/ICT faccio alcuni confronti. La spesa mondiale nell’Information Technology vale circa 3500 Miliardi di Dollari nel 2016 ovvero 3 volte la spesa farmaceutica mondiale.
  • La piú grande azienda farmaceutica al mondo ha dichiarato vendite nel 2016 pari a 50 Miliardi di dollari. Telecom Italia nel 2016 ha totalizzato (in forte crisi) circa 20 Miliardi, Deutsch Telekom  73 Miliardi, La Spagnola Telefonica 52 Miliardi, L’Americana AT&T 164 Miliardi, Amazon 134 Miliardi. Insomma BIG PHARMA o BIG TELCO? Se proprio vogliamo trovare i complotti troviamoli tutti.
  • I Vaccini non sono un business attrattivo per le aziende farmaceutiche poiché hanno un’alta componente di ricerca e sviluppo che costa. In generale i vaccini contano nell’intorno del 2-3% del fatturato totale e a livello mondiale contano per un 25 Miliardi , ovvero il fatturato di un anno di Telecom Italia.
  • L’Italia ha speso nel 2015 circa 29 Miliardi per spese farmaceutiche di cui 319 Milioni per le cure vaccinali (obbligatorie e incluse quelle singole e antiinfluenzali). La spesa vaccinale pesa quindi un 1,4% del totale della spesa farmaceutica. Lo stesso fervore che si ha contro i vaccini si dovrebbe avere contro l’abuso nell’utilizzo di antibiotici nelle cure dei piú piccoli ma cosí non é. I numeri dicono che circa il 30% delle prescrizioni antibiotiche sia sbagliato e inutile. Considerando che la spesa annua totale per farmaci antibiotici é di circa 900Milioni se il 30% delle prescrizioni é sbagliato vuole dire che esiste un problema ma non é nella spesa vaccinale che vale quanto le prescrizioni antibiotiche inutili.

Siamo ancora certi di tutto questo business sui vaccini? Siamo veramente sicuri che siano i vaccini il posto in cui le aziende farmaceutiche fanno affari d’oro. I dati smentiscono questa teoria mostrando che se ci sono (e ci sono) interessi delle aziende farmaceutiche questi si devono cercare altrove.

Se vogliamo trovare anomalie nella farmaceutica dobbiamo guardare al fatto che ad oggi il mercato é sbilanciato su 5 aziende che ne controllano l’85% del fatturato totale. Questo é un problema di semi-monopolio e come tutti i monopoli puó portare a distorsioni di mercato. Un’accusa del genere é piú che giustificabile ma questo é un problema di mercato non un problema di salute o una ragione per negare i principi fondamentali della medicina. Il settore farmacologico é per sua natura (alti costi di ricerca) aperto a pochi e questo semi-monopolio é la normale conseguenza. Oggi peró vediamo che i mercati emergenti iniziano ad affacciarsi nel panorama farmacologico e non possiamo che sperare in un’apertura della competizione e non solo al ribasso con degrado della qualitá.

I metalli pesanti nei vaccini.

Questa storia é molto gettonata nello stagno dell’ignoranza. Il concetto di partenza é abbastanza semplice, i metalli pesanti ci sono ovunque: Nella frutta, nella verdura nell’acqua, praticamente in tutto quello che ingeriamo. É impossibile evitare la contaminazione, il problema sono le percentuali della contaminazione. Nessuno fa verifiche tecniche sul cibo che mangiamo e nessuno si preoccupa del cibo che da hai propri bambini. Quando invece si parla di Vaccini invece il discorso cambia direzione.

Le nanoparticelle di metalli sono ovunque e dovute a qualunque meccanismo di produzione, impacchettamento, raccolta ed é impossibile evitarlo a meno di stare in camere sterili come per esempio quelle operatorie. Nella realtá di tutti i giorni non é cosí e tutto é sottoposto a contaminazione di nanoparticelle di metalli pesanti.

Ma partiamo da un caso vero di falsa informazione scientifica, ovvero lo studio della dottoressa Antonietta Gatti sulla contaminazione dei vaccini da naoparticelle. La D.ssa Gatti ha avuto purtroppo spazio anche in testate giornalistiche come il Fatto Quotidiano tanto per dimostrare la qualitá dell’informazione Italiana. La D.ssa é un fisico che si definisce esperta di guerra del golfo e Malattie misteriose (?) ed é focalizzata sulle nanoparticelle.

Un giorno un mio contatto su FB mi manda questo link che “rivela” la veritá sui vaccini. A parlare in questo video é il professore Stefano Montanari laureato in farmacia e specializzato in bio materiali, marito della Gatti.

Qui di seguito l’intervista al Professore che parla del suo studio fatto insieme alla moglie Antonietta Gatti.

In sostanza il video é un’accusa alla forte e pericolosa contaminazione di materiali pesanti nei vaccini. Si arriva anche a dire che i vaccini per animali sembrano piú sicuri rispetto a quelli per umani.

Ovviamente il video inquieta e come mia prassi cerco qualche informazione sul fantomatico laboratorio in cui il professor Montanari insieme alla D.ssa Gatti conducono le loro ricerche. Durante il filmato infatti si nomina il laboratorio come riconosciuto dalla comunitá Europea e quindi qualcosa che deve essere rilevante nel panorama scientifico.

Cerco nei siti della comunitá Europea ma del laboratorio Nanodiagnostics di Modena nessuna traccia. Il nome del Professor Montanari e della moglie Gatti non compaiono da nessuna parte. Nemmeno il loro sito della loro azienda di analisi fa riferimenti ad attivitá di collaborazione con gli enti Europei. I miei dubbi a questo punto aumentano.

La Nanodiagnostics srl si definisce un laboratorio di ricerca e un’azienda di consulenze tecniche e scientifiche nei settori della medicina, dell’industria e dell’ecologia. L’attività principale è il rilevamento tramite una tecnica innovativa di microscopia elettronica ambientale di micro- e nanoparticelle inorganiche in qualsiasi mezzo (tessuti biologici, alimenti, farmaci, cosmetici, campioni ambientali, reperti industriali, ecc.).

E a fondo descrizione

Nanodiagnostics effettua pure indagini ambientali per quanto riguarda l’inquinamento da micro- e nanoparticelle emesse soprattutto da impianti ad alta temperatura come inceneritori di rifiutiimpianti a biomassecementificifonderie, ecc. L’attività di Nanodiagnostics comprende consulenze sull’argomento, anche a supporto di azioni legali, prestate a comitati di cittadini, autorità locali (es. comuni), forze di polizia, tribunali, mezzi d’informazione, ecc.

Diciamo che forse…  “mi dici cosa vuoi trovare e io te lo trovo” (tanto le nanoparticelle sono ovunque)… ma forse sono il solito prevenuto.

Vado a leggere il loro report sulla contaminazione dei Vaccini e trovo frasi come:

  • Abbiamo verificato la composizione come descritta dal produttore
  • Abbiamo verificato la presenza di sostanze non dichiarate
  • La nostra ipotesi é che la contaminazione dei vaccini sia involontaria e dovuta alle procedure di produzione
  • Se la nostra ipotesi é corretta una corretta verifica degli ambienti di produzione puó ridurre questa contaminazione.

Diciamo che il report non scrive cose tragiche come invece il video del Prof Montanari dichiarava ma si limita a verificare le percentuali di materiali pesanti giá dichiarati dal produttore piú altri materiali che possono potenzialmente essere tossici ma non si trovano affermazioni decise sulla pericolositá ma solo sulla revisione delle procedure produttive.

I miei dubbi aumentano e continuo la ricerca in maniera piú estesa. Trovo questo link in cui proprio il Report Montanari-Gatti viene spiegato per quello che é ovvero una grande presa in giro. L’esperienza scientifica del sito medbunker mi aiuta a capire meglio quanto falso e deviante sia il report. Potete leggervi l’interessante post, qui di seguito le note piú interessanti:

  • La pubblicazione del report é stata fatta su un sito che non ha rilevanza scientifica e accetta qualunque pubblicazione
  • Non esistono descrizioni della metodologia di misura utilizzata che secondo le fondamentali metodolgie di misura confermi che la contaminazione non sia prodotta dal laboratorio/ misura stessa. “…Se in dieci flaconi di un farmaco qualsiasi si trovassero 100 nanoparticelle, trovarne 102 o 98 in uno di vaccini sarebbe stata la norma. Se in dieci flaconi di farmaci ne trovi 2, trovarne 100 nei vaccini sarebbe stato strano.” Non esistono riferimenti che escludano quindi la contaminazione di laboratorio e a pensar male sono bravi tutti…io specialmente. Questo fattore annulla per principio la misura.
  • Quasi la totalitá dei vaccini analizzati é scaduta e alcuni dal 2004 (il report data 2016). Ovviamente in 12 anni puó essere che il materiale stesso in cui é contenuto il vaccino per semplice degrado possa avere rilasciato nanoparticelle?
  • Si dice di trovare cloro, sodio e Aluminio… esattamente come da dichiarazione poiché sono utilizzati per per stimolare la risposta corporale. In pratica il vaccino contiene ció che dice di contenere. La scoperta dell’acqua calda.
  • Viene dichiarata la presenza di Globuli rossi solo per l’osservazione visiva nonostante la forma dei globuli rossi sia nettamente diversa ma se a leggerla sono io o un qualunque cittadino potremmo anche crederci.
  • Alcune immagini hanno degli errori/modifiche. A pensar male di nuovo.
  • “I pezzi di metallo” trovati. Le misure indicano valori estremamente piccole che peró vengono definite “pezzi”e in numero pari a 1821. Detta cosí puó sembrare preoccupante per i non addetti ma poi i valori indicano poche molecole per microlitri di vaccini . Le misure sono in mole ovvero l’unitá di misura delle particelle. Una molecola di acqua secondo l’equazione H2O contiene 2 mole di idrogeno e 1 mole di ossigeno. Il report ha trovato “pezzi” di metalli pari a un miliardesimo di milionesimo (10-15) di mole. Il nulla. In un vaccino sono stati trovati ben 0.000000000001 ng (nanogrammi) di Aluminio ovvero 0.000000000000000001 grammi. Vi convince che é il nulla?
  • La pericolositá dei metalli ha valori diversi:
    • Di media assumiamo 6 milligrammi di aluminio in 1 piatto di pasta
    • Il limite di sicurezza per l’alluminio è di 1 mg/kG per settimana
    • Il limite giornaliero di sicurezza per l’alluminio stabilito dall’OMS é di 60 milligrammi 
    • il limite di sicurezza giornaliero per i metalli pesanti nei farmaci é di 10 μg (microgrammi). Un microgrammo è un millesimo di milligrammo.10 microgrammi equivalgono a 10000 nanogrammi.
    •  In un’intera fiala, sono stati trovati 0,000000000001 nanogrammi di alluminio, il limite considerato sicuro dall’EMA per l’alluminio nei farmaci è di 1000 nanogrammi. Siamo assolutamente, pienamente, abbondantemente nella soglia di sicurezza. Dov’é la contaminazione? Dov’é il pericolo?

Questo esempio dimostra quanto l’informazione fai da te puó essere fuorviante se non si hanno i mezzi per capirla.

La cosa grave é che esistono persone che sollevano problemi che non esistono pur di pubblicizzarsi e farci dei soldi sopra.

La “ricerca” dei nostri due esperti di nanoparticelle non fa che confermare in pratica che NON esista una contaminazione a rischio secondo le normali soglie di sicurezza mediche. La cosa che dovrebbe invece scandalizzare é il fatto che si tralascino questi dettagli e si cerchi di convincere la gente dell’esistenza di un grosso problema.

Fortunatamente le critiche al report si sono diffuse anche nei canali ufficiali scientifici, qui potete leggerne alcuni:

Le misure del report nonostante tutti gli errori di misura non evidenziano criticitá ma le parole del Prof Montanari ci presentano un mondo diverso da quello da lui misurato. La domanda é perché bisogna prendere in giro cosí le persone su argomenti cosí delicati? Che differenza c’é fra questo farmacista e la Wanna Marchi?

Leggete i termini di ingaggio di questo Guru antivaccini e fatevi due domande prima di pensare alle lobby farmaceutiche. Ci sono molte piú lobby anti tutto ve lo assicuro.

Ecco una sintesi delle sue parole:

  • DA QUANDO è USCITO IL “Decreto Lorenzin” sono subissato di richieste di conferenze. Non scrivetemi e non telefonatemi per invitarmi se non siete disposti a PAGARE.
  • NON SCRIVETEMI PER CHIEDERMI CONSIGLI, PERCHE’ CONSIGLI NON NE DO A NESSUNO: LEGGETE I MIEI LIBRI E I MIEI ARTICOLI E TRAETENE LE CONSEGUENZE.
  • NON FACCIO PIU’ CONFERENZE SENZA ESSERE PAGATO E SENZA CHE I SOLDI ARRIVINO ALMENO 10 GIORNI PRIMA DELLA DATA PREVISTA. CHI NON E’ IN GRADO DI ACCETTARE LE CONDIZIONI SIA GENTILE E NON MI CONTATTI.
  • Per quanto riguarda le consulenze da effettuare su documentazione è indispensabile che io possa avere a disposizione TUTTI I DOCUMENTI per poter comunicare un preventivo di spesa. Resta inteso che non inizierò a lavorare se non mi sarà anticipato almeno il 50% della cifra richiesta. Il saldo dovrà essere versato PRIMA della consegna dell’eventuale relazione e, comunque, prima della conclusione dei lavori. QUESTO VALE ANCHE (E SOPRATTUTTO) PER GLI ENTI PUBBLICI CHE, SE PER MOTIVI CHE NON SOLLETICANO IL MIO INTERESSE NON SONO IN GRADO DI RISPETTARE QUESTE CONDIZIONI, SONO PREGATI DI NON FARMI PERDERE TEMPO.
  •  Io sarò l’unico relatore. Se la cosa non è gradita o si hanno altre intenzioni, s’interrompa qui la lettura.
  • Comunque, se, poco saggiamente, si pretenderà di aggiungere altri relatori, oltre al compenso pattuito mi si verseranno 500 Euro + IVA per ognuno di loro (il denaro andrà sempre a sostenere la ricerca) e il tempo a disposizione non dovrà in ogni caso superare i 30 minuti per ciascuno di essi.

Diciamo in sintesi che il professor Montanari sembra una persona aperta al confronto, educato e sopratutto non legato al vile denaro. Dicevamo delle lobby?

Fonte per la lettura completa del caso: Medbunker “I VACCINI INQUINATI? UN’ESPERTA DICE DI NO”

Nota: Mi dispiace evidenziare che in Italia anche a fronte di uno scritto che non ha valenza scientifica e giá nei suoi contenuti non presenta criticitá venga utilizzato per attivare procedure giudiziarie. Qui la Procura di Torino indaga sotto richiesta del Codacons a fronte dell’articolo della Sig.ra Gatti e del Sig. Montanari. Semplicemente incredibile.

…Al centro dell’esposto del Codacons, uno studio condotto da due specialisti in nanotecnologie, Antonietta Gatti e Stefano Montanari e pubblicato a gennaio scorso dall’International Journal of Vccines and Vaccination, che per l’associazione “ha analizzato i vaccini esavalenti della Glaxo rilevando una contaminazione da micro e nanoparticelle”.

I vaccini e l’autismo

Questo é un argomento che nonostante l’ultima sentenza della Cassazione che nega la correlazione e il relativo indennizzo é sempre in voga e continua ciclicamente a presentarsi. Non sono un medico e non posso che appoggiarmi ad altre fonti. Al mondo a differenza di quanto si continua a dire non esistono ricerche che dimostrino questa correlazione (ah giá dimenticavo le lobby nascondono i propri spettri nell’armadio) invece esiste un caso in cui la correlazione era stata falsificata per scopi di lucro. Mi riferisco al caso Wakefield nome del dottore che falsificó le misure per poi essere radiato. Qui, qui e qui alcuni link sulla vicenda.

Qui di seguito invece alcuni link con gli studi riconosciuti che smentiscono le varie correlazioni:

  • link 1
  • link 2
  • link 3
  • link 4
  • Studio su 1000000 di bambini
  • Studio su 96000 bambini
  • Studio che dimostra la mancanza di rischio di autismo legata al numero di vaccinazioni effettuate in età pediatrica.
  • Studi che mostrano come i vaccini siano sicuri
  • Un articolo che ripercorre i passi del falso collegamento tra vaccini ed autismo

Ovviamente per studi riconosciuti si intende validati dagli organi scientifici che ne riconoscono la metodologia, la procedura di misura e le conclusioni. Se ovviamente manca la fiducia degli organismi mondiali di sanitá vuol dire che il problema é molto piú grave e a questo punto qualunque ciarlatano puó avere la sua parola.

Non mi inoltro nell’argomento perché troppo tecnico, mi affido alla buona volontá di chi vuole approfondire su materiali riconosciuti.

Sul legame autismo e vaccini mi preme solo fare vedere un grafico del caso Giappone dove il vaccino trivalente MPR (MMR in inglese) era stato eliminato proprio a causa delle voci allarmanti che circolavano sul suo conto. Nonostante questo i casi di autismo aumentarono come previsto statisticamente (l’aumento è dovuto soprattutto all’affinamento delle diagnosi). Ecco un grafico che mostra l’aumento dei casi di autismo paragonati alla diminuzione delle vaccinazioni infantili:

noMMR

Riprendendo le parole del link MedBunker sull’argomento autismo e vaccini.

 Il vaccino è un farmaco e come qualsiasi sostanza esistente al mondo, può avere effetti collaterali. Il fatto che sia una delle poche sostanze somministrate a miliardi di individui diversi e di tutte le età, in tutto il mondo, ne fa probabilmente il farmaco più testato e provato al mondo. I suoi rischi sono infinitamente inferiori ai suoi benefici e nella stragrande maggioranza dei casi sono di minima gravità. Non vaccinarsi non solo espone chi lo fa al pericolo di malattia ma espone anche la sua comunità visto che è proprio la vaccinazione comune che protegge un gruppo dalle malattie infettive (più individui sono “scoperti” più la malattia rischia di ricomparire). Anche malattie considerate “banali” come il morbillo o la rosolia, possono causare gravi danni ed anche malattie che consideriamo “scomparse” (come la poliomielite) in realtà distano da noi poche ore di volo ed in un’epoca di globalizzazione e facilità di spostamenti, la possibilità di diffusione di un virus o un batterio sono molto elevate.Vaccinarsi è un diritto per tutti ed un dovere per vivere in una società civile e sana.

Le malattie infettive stavano giá scomparendo nonostante i vaccini

Sono riuscito anche a sentire questa storiella che ha bisogno di qualche figura per essere smentita.

Quando un grafico vale piú di 1000 parole.

Pertussis-1 measles incidence meas3 measle polio_benatti polio_benattimod polio_brd_ddr_1989 morbillo_uSa morbillo casi

A me i numeri e la scienza hanno sempre convinto di piú di mille concetti filosofici.

La comprovata pericolositá dei vaccini nei documenti ufficiali.

Durante alcune discussioni con un’amica fortemente anti decreto-vaccini ho ricevuto della documentazione che a suo modo di vedere era la prova della dannositá provata dei vaccini. Con piacere e interesse ho dedicato un (bel) pó di tempo alla loro lettura. I documenti erano lunghi ma avere finalmente qualcosa che rappresentava la stele di rosetta per gli anti-decreto (se la chiamo antiVax si arrabbia) mi sembrava un’ottima occasione per comprendere finalmente le loro granitiche convinzioni.

Entrambi i documenti si trovano nel sito informasalus che “..Da molti anni operiamo nel campo della salute, il nostro scopo è infatti quello di raggiungere il maggior numero di persone e fornire un’informazione il più possibile obiettiva e scientifica!”

Considerando che uno dei due documenti riporta la scritta Confidential riporto i link sul quale é possibile trovarlo evitando di condividere personalmente informazioni riservate.

I documenti si trovano allínterno dei seguenti post:

In pratica con questi due documenti si proverebbe che segretamente esistono delle reazioni collaterali all’uso dei vaccini e alcune estremamente gravi inclusi i casi di morte.

Chiariamo solo un concetto che a me pare chiaro ma cosí non é per molti. Al mondo non esiste nessun farmaco con ZERO probabilitá di effetti collaterali. Il motivo non é la superficialitá della produzione ma il fatto che non esiste al mondo una scienza perfetta al 100%. L’unico modo che la farmacologia ha per ridurre l’incidenza degli effetti collaterali é quella di fare innanzitutto ricerca e sviluppo e poi seguire molte fasi di test.

Il risultato finale é quello di garantire ZERO effetti collaterali misurati durante i test ma essendo i test condotti su un numero di soggetti limitato quando si estende l’utilizzo a milioni di persone nessuno puó escludere per le miliardi di differenze nelle condizioni di somministrazioni che ci possano essere effetti collaterali mai misurati in fase di test. Questo é semplicemente un discorso statistico che vale per qualunque scienza.

I vaccini nel caso specifico essendo medicinali piú sensibili e usati preventivamente su molti piú soggetti devono rispettare (chiaramente) regole di sicurezza molto piú stringenti rispetto ai normali farmaci.

In questo link trovate una descrizione delle diverse fasi di produzione dei vaccini (qui uno in Italiano ma piú generico).   É interessante notare come le prime due fasi di esplorazione e pre clinica possono durare dai 3 ai 6 anni e non prevedono test su persone.

Capite bene perché non sono proprio i vaccini il vero interesse delle aziende farmaceutiche poiché non portano grossi introiti e costano moltissimo nella fase di ricerca/test.

Quello che le aziende farmaceutiche sono obbligate a fare anche dopo la produzione e utilizzo di massa di un vaccino é il continuo controllo degli effetti collaterali e la trasmissione dei risultati alle autoritá competenti (Ministeri della salute, Organizzazioni Sanitarie etc.). Questo costante monitoraggio serve per aumentare il controllo sulla sicurezza dei vaccini ed é giusto che esistano questi tipi di report.

Questa é la natura dei 2 documenti SEGRETI della Glaxo che ho ricevuto. Sono prima di tutto documenti confidenziali e non segreti (la differenza é fondamentale). Un documento SEGRETO che rivela i “tragici” effetti collaterali dei vaccini perché dovrebbe essere inviato alle autoritá sanitarie competenti? Se davvero fosse un segreto perché la GSK lo invia alle autoritá? Per l’articolo Italiano si accusa invece l‘Agenzia Italiano del Farmaco (destinataria giustamente del report) di occultare le prove. Come se dopo aver ricevuto il documento il giorno seguente bisognasse fare una conferenza stampa per raccontare pubblicamente numeri che invece non rappresentano nessuna emergenza.

Questo sarebbe giá un buon motivo per non considerare l’articolo di Informasalus ma visto che le convinzioni degli antivax, anti decreto sono granitiche guardiamo i numeri.

Entrambi i documenti riportano per periodi diversi tutto il monitoraggio fatto dopo la somministrazione del Vaccino. Tutti i tipi di reazioni dei bambini vengono riportate (quelle comunicate ovviamente) .

Correttamente nulla va sottovalutate quando si tratta di somministrazione di farmaci su neonati ma nello stesso tempo chi legge dovrebbe fare attenzione ai contenuti, per esempio:

  • Nei “disturbi psichiatrici” la maggioranza dei casi é “l’agitazione”
  • Le reazioni piú comuni sono febbre, eritema, agitazione, pianto e gonfiore nella zona di somministrazione.

Non é mia intenzione sminuire le “complicazioni” ma solo evidenziare il fatto che come avviene per ogni farmaco nel suo bugiardino vengono indicate tutte le segnalazioni anche se non esiste una correlazione scientificamente provata.

Se guardiamo ai 5 (cinque) casi di decesso in 2 anni che ovviamente sono quelli su cui giustamente tutti si concentrano, vediamo che in nessuna delle descrizioni viene rilevato un legame col farmaco (referto ospedaliero e non giudizio dall’azienda produttrice che ovviamente non puó fare indagini). Le cause sono dichiarate diverse dal vaccino in 4 casi su 5 e nel quinto manca l’autopsia.

Anche ipotizzando che tutte le 5 morti siano dovute effettivamente ai vaccini si puó affermare che statisticamente la probabilitá é molto bassa quasi nulla. Questo non lo dice una persona che non ha a cuore la salute dei bambini e guarda solo i numeri ma una persona che legge che in Italia il tasso di mortalitá infantile (che non é purtroppo mai ZERO) vale il 3,3 per mille (0,4%) ovvero estremamente piú grande di questi 5 casi (che statisticamente potrebbero rientrarci).

Aprendo invece il report confidenziale SEGRETO della GSK (di 1271 pagine) ci si puó immergere in un report estremamente dettagliato che elenca tutti i diversi effetti collaterali segnalati a seguito della vaccinazione. Essendo impossibile fare un sunto del documento preferisco commentare l’articolo in salsa catastrofista del sito informasalus.

I numeri del report:

  • Report di  monitoraggio di ben 41 paesi in cui é stato somministrato il vaccino
  • Periodo di monitoraggio 23 Ottobre 2009 al 22 ottobre 2011.
  • 1.742 referti medici internazionali inviati “spontaneamente” durante due anni dai 41 paesi
  • 24.283.415 dosi di vaccino Infanrix Hexa
  • 825 casi differenti di complicazioni mediche
  • 559 casi gravi
  • Decesso di 14 bambini

Senza entrare nel merito dei diversi casi che come scrivevo prima includono qualunque reazione del bambino, concentriamoci sui numeri del report:

  • 825 casi di complicazione medica (ovvero qualunque segnalazione inclusa la febbre) su 24 Milioni equivalgono ha una percentuale dello 0,00343% ovvero 3000 casi su 1 Milione.
  • 559 casi gravi (che includono anche reazioni cutanee, difficoltá respiratorie, strabismo temporaneo, lentezza di reazione agli stimoli, gastrite) su 24 Milioni equivalgono ha una percentuale dello 0,00232% ovvero 2000 casi ogni Milione.
  • 14 Decessi equivalgono allo 0,000058% ovvero 58 casi su 1 Milione. In tutti questi casi non é verificata la correlazione con i vaccini. Questo non vuol dire che la si possa negare ma non esiste evidenza scientifica nemmeno dopo l’Autopsia. É giusto ribadire che in Italia il tasso di mortalitá infantile é pari al 3 per mille ovvero 3000 casi per Milione. Nel 2011 il numero di bambini morti nel primo anno di vita è stato pari a 1774. Sono puntualizzazioni che forse a molti non diranno molto ma credo sia importante avere questi numeri in mente quando si parla di tragedia dei vaccini.

Secondo questa teoria la vita per come la conosciamo sembra essere piú crudele del report della GSK.

Qui di seguito alcune statistiche relative alle malattie infettive per le quali é stata introdotta l’obbligatorietá vaccinale:

  • Pertosse: Ogni anno l’infezione da Burdetella pertussis è responsabile di circa 16 milioni di casi di malattia e di 195.000 casi di morte infantile nel mondo (0,012% ovvero 12000 casi su 1 Milione). In Italia la situazione é migliore, dal 2002 non sono stati piú rilevati casi di morte per pertosse, in generale nei paesi sviluppati le cause di morte sono dell’ordine del 0,01 ogni 1000. Nei bambini piccoli, le complicazioni più gravi sono costituite da sovrainfezioni batteriche, che possono portare a otiti, polmonite, bronchiti o addirittura affezioni neurologiche (crisi convulsive, encefaliti).
  • Haemophilus Influenzae tipo b: La letalità della meningite da Hib è del 2%-5% anche con una appropriata terapia antibiotica. Chi guarisce dalla meningite può avere però conseguenze neurologiche, che si verificano nel 15%-30% dei pazienti.
  • Morbillo: Le complicanze si verificano in circa il 30% dei casi. Morti 30/100 ogni 100000.
  • Rosolia: Tra il 1964 e il 1965, un’epidemia ha interessato oltre 12 milioni di persone, con 20mila casi di sindrome congenita e la morte conseguente di oltre 11mila feti, oltre 2000 nati morti, più di 3500 bambini nati ciechi e 1800 ritardati mentali.
  • Parotite: Nei bambini la malattia si risolve in pochi giorni nella maggior parte dei casi. Tra le complicazioni descritte vi sono encefaliti (0,02-0,3%), meningiti (0,5-15%), pancreatite (4%) e danni all’udito. Nei bambini, in 5 casi ogni 100.000 di malattia, la parotite causa perdita dell’udito: questa infezione rappresenta infatti la principale causa di sordità neurosensoriale infantile acquisita. L’encefalite porta raramente alla morte, ma si possono avere conseguenze permanenti come paralisi, epilessia, paralisi dei nervi facciali, stenosi acqueduttale e idrocefalia.
  • Varicella: mortalità dallo 0,29 allo 0,46 per milione di popolazione.

Il  motivo per cui ho riportato queste percentuali é semplicemente confrontare i rischi delle malattie infantili che si vogliono estirpare con i rischi (non tutti verificati) delle vaccinazioni e le loro conseguenze.

Esaminare numeri, statistiche e percentuali non é freddo o asettico é l’unico modo che ha la scienza di andare avanti per migliorarsi. Sapere che esistono rischi a fronte di malattie infettive che sono estremamente piú alti di possibili complicazioni da Vaccinazioni dovrebbe essere una buona motivazione per accettare le vaccinazioni ma cosí non sembra.

La visione della “libertá di scelta”.

La  mia comparazione numerica é l’unica lettura possibile dei dati a meno che i dati non siano falsati. Questo peró nessuno lo puó sapere e comunque non ci sarebbe un reale vantaggio per nessuno, nemmeno per le aziende farmaceutiche che con uno scandalo del genere avrebbero effetti negativi enormi sul loro business.

Quello che a me fa innervosire é la lettura cosí pressapochista del sito informasalus e in generale della nuova cultura del “Ueb”.

Questi i commenti del sito al documento della GSK:

  • Le milioni di dosi sembrano una catastrofe di sistema invece di essere considerate come un enorme numero di casi che ovviamente non fa che ridurre percentualmente il peso delle complicazioni.
  •  I casi in esame sono presi in numero assoluto senza nessuna correlazione percentuale con il totale dei casi
  • Nei casi di decesso questa la frase che dimostra la completa malafede e pressapochismo: “Durante il periodo in analisi, sono stati riportati 14 decessi di bambini vaccinati. La cosa sconcertante nei report sui decessi è la chiara correlazione temporale fra vaccinazione e decesso [ad es. il primo caso a pag. 1220 avvenuto 11 giorni dopo la vaccinazione, e il secondo caso ancora 11 giorni dopo la vaccinazione – morte in culla – ma in nessuno dei due è disponibile l’autopsia], mentre la GSK dichiara il contrario a sostegno della propria opinabile linea di condotta in cui gli eventi sono considerati seri solo se corrispondono ai criteri medici stabiliti da se stessa..” . LA CHIARA CORRELAZIONE TEMPORALE dove? Senza disporre di un’autopsia? (ovviamente il fornitore é riuscito a controllare anche i dottori di tutti questi opsedali evitandola). Qui ci sono signori che senza nemmeno avere delle benché minime nozioni di medicina e farmacologia si permettono di dire che la correlazione fra morte e vaccino é evidente? Superficialitá mi sembra un termine riduttivo. Con questo non voglio dire che si puó esclude al 100% la correlazione con il vaccino ma di evidente c’é solo il fatto che in alcune teste i neuroni non fanno bene contatto. Se io scrivessi che non c’é correlazione con la vaccinazione perché la morte é avvenuta 11 giorni dopo avrebbe lo stesso valore.

Sentirsi cavie.

La persona che mi ha inviato i documenti e che non accettava la mia visione statistica (non ho altri argomenti razionali in merito) evidenziava il rifiuto di essere trattati come cavie. Il concetto di base é che una cavia é parte di un processo di test mentre questo é un monitoraggio attivo. La complessitá delle reazioni dell’organismo sono cosí tante che non ci si puó mai sentire al sicuro. Sapere che tutto é monitorato dovrebbe confortare invece viene letto come un’informazione segreta non diffusa per motivi economici. Ma perché allora le aziende farmaceutiche dovrebbero trasmettere queste informazioni? Masochismo economico? Difficile capire la logica dietro alcuni ragionamenti.

Il diritto di conoscere questi dati

Secondo gli antiVax e anti-decreto i genitori devono essere informati di queste informazione per essere piú coscienti delle loro scelte. Queste informazioni non sono giustamente diffuse per non generare panico ingiustificato. La conferma sta proprio nelle reazioni a queste documentazioni. La domanda sorge spontanea “ma se non siete capaci di leggere i numeri perché qualcuno dovrebbe fornirveli?”

I bugiardini e l’Autismo

Se pensate o avete visto dei bugiardini di vaccini in cui é indicato l’autismo come possibile effetto collaterale sappiate che non é frutto di una ricerca medica ma di una protezione legale di fronte a possibili denunce. Qualcosa tipo “Il fumo fa male!” su un pacchetto di sigarette.

Se pensate di aver trovato il legame fra autismo e vaccini in un bugiardino allora vi consiglio di NON leggere questo articolo perché rimarrete estremamente delusi.

La scheda tecnica del vaccino nell’articolo oltre al fantomatico autismo riporta anche le  possibili cause di morte (tutte, pure troppe). Dalla traduzione “Le cause di morte includevano sette SIDS ed una delle seguenti: enterite, sindrome di Leigh, sindrome adrenogenitale, arresto cardiaco, incidente automobilisticoannegamento accidentale“.

Conclusioni

Non vado oltre e vi lascio alle vostre convinzioni, io ho solo provato a riportare i numeri senza inoltrarmi nella materia medica che non mi compete. Non voglio convincere nessuno perché non c’é nulla da convincere tutto é giá scritto in maniera chiara nei documenti “segreti”.

Solo una cosa vi raccomando se  volete evitare problemi seguite le istruzioni del bugiardino e non fate guidare vostro figlio.

Il lento broadband burocratico Italiano

Italian slow broadband Un interessante articolo di Massimo Russo apparso su La Stampa del 30 Novembre 2015 mette a nudo ancora una volta il vero freno Italiano alla crescita e all’innovazione: Lo Stato ovvero proprio il soggetto che promette di rilanciare l’economia.

In questo blog ne ho giá scritto in tempi non sospetti, l’Italia é poco competitiva nella creazione del business per via del suo sistema pubblico inerte che invece di aiutare lo sviluppo economico ne é la causa della sua lentezza.

Principalmente parlo di:

  • Giustizia lenta
  • Burocrazia Complessa
  • Spesa pubblica inefficiente
  • Tassazione asfissiante

Se guardiamo la classifica dopo circa 1 anno vediamo che l’Italia ha guadagnato delle posizioni. Siamo passati dal 56mo posto nella classifica OCSE al 45mo.

Doing Business ranking

Nello specifico l’influenza della burocrazia sui lavori di costruzione (soggetto di questo post) sono  migliorati e l’Italia in 1 anno é passata dalla 116ma posizione all’86ma.

Dealing with construction permits

Come vediamo i paesi che ci circondano nella classifica non sono propriamente quelli con cui dovremmo confrontarci, sí certo c’é la sorpresa negativa dell’Olanda ma globalmente il paese occupa la 28ma posizione quindi non starei troppo a puntare il dito dalla nostra 45ma. L’articolo dell’ottimo Massimo Russo parla appunto della negativa influenza della burocrazia sui tempi dell’espansione del broadband Italiano.

La vergognosa informazione che Russo ci presenta é il numero di permessi necessari per la posa della fibra ottica.

“..23 permessi ogni 10 chilometri di fibra ottica posata. Vale a dire un’autorizzazione ogni 432 metri di cavo.” 

Non accusatemi di negativitá, sono valori da paese in via di sviluppo e non da paese Europeo.

A queste velocitá di posa dell’infrastruttura gli obiettivi Italiani (promessi) per il 2020 sono per Russo difficilmente raggiungibili. Ricordiamo che il Governo si é dato come obiettivi 2020 velocitá di accesso >30Mbps per il 100% della popolazione e >100Mbps per il 50% della popolazione. Quando la fantasia supera ogni ragionevole ottimismo considerate la posizione dell’Italia in Europa.

Ma dove sta il problema per la posa della fibra? Come al solito nella burocrazia che invece di snellire appesantisce le procedure. Le velocitá di posa ci dice Russo cambiano molto da Comune a Comune perché ogni territorio chiede autorizzazioni diverse e condizioni diverse.

Russo ci dice:” … Per questo motivo (semplificare nda) due anni fa, con il cosiddetto regolamento scavi, si è semplificata radicalmente la procedura. Ma, poiché non ci sono sanzioni, i comuni non applicano il regolamento e domandano agli operatori la stessa documentazione necessaria per la posa dei tubi di gas e fognature. Sommate Anas, vari uffici comunali, Arpa, Asl, enti provinciali, privati, e arrivate a 23 permessi. Con un’aggravante. Per tutelarsi da possibili danni, le amministrazioni chiedono agli operatori fidejussioni che possono arrivare fino a 4 milioni di euro per 10 chilometri. Garanzie che – una volta svolti i lavori – non vengono sbloccate, trasformandosi così in pesanti fardelli finanziari.’ 

Abbiamo di fatto delle regole per semplificare ma non riusciamo ad applicarle e regna una completa anarchia locale, tanto valeva non fare regole se poi non ne forziamo l’applicazione.

L’Istituto per la competitivitá I-com ha rilasciato un report su Reti e Servizi di nuova generazione che ci presenta una completa ma deludente fotografia del broadband Italiano. Il confronto Europeo é imbarazzante anche se ci sono finalmente delle notizie positive come vedere che Campania e Calabria sono le regioni piú virtuose per la posa della fibra, finalmente una buona notizia per il Sud e per il suo sviluppo futuro. Questa notizia peró non é sufficiente per brindare ad un successo perché Il report ci presenta la solita fotografia di un paese che non riesce ad accelerare e continua ad essere fanalino di coda in un settore strategico per tutta l’economia.

Copertura delle abitazioni

Attualmente il 30% delle case non é ancora connessa alla rate in  Banda Larga (Incluso la mia abitazione a 30km da Torino) e qundi manca ancora molto agli obiettivi da raggiungere in 4 anni. In ogni caso la fibra anche se non portata a tutte le abitazioni dovrá arrivare comunque nelle vicinanze per poter sfruttare tecnologie su rame che possono avvicinarsi agli obiettivi di banda.

Abitazioni connesse

Copertura della Next Generation Access

La cosiddetta NGA rappresenta il futuro del Broadband ovvero l’Ultra Broadband ovvero velocitá di accesso >di 30Mbps. L’Italia fa meglio della sola Grecia.

Copertura NGA

Attualmente il 4% della popolazione ha una velocitá di accesso > 30Mbps. Quindi per il solo primo obiettivo abbiamo 4 anni per raggiungere il rimanente 96%.

Velocit'a di connessione

Copertura in Fibra

Attualmente solo il 3,8% degli abbonamento broadband é in fibra. Probabilmente con la proposta di ENEL il Governo riuscirá ad aumentare questo valore poiché ogni casa avrá una fibra che la collega all’Armadio stradale di ENEL. Questo non vuole dire che l’armadio stesso sará necessariamente collegato alla rete broadband ma statisticamente fa sembrare l’obiettivo centrato.

Connessioni in Fibra

L’Italia é uno dei paesi con l’aumento migliore anno su anno per l’allargamento della copertura broadband. Sembra un dato positivo ma non lo é, i paesi a cui dobbiamo confrontarci non crescono perché hanno risolto il problema della copertura con un certo anticipo e adesso sono concentrati nell’incremento delle velocitá di accesso. Gli unici paesi con i nostri valori di crescita sono i paesi Europei in via di sviluppo.

Crescita del Broadband

A fronte di numeri del genere, alle informazioni di Massimo Russo é ovvio che le affermazioni dell’Ad di ENEL sulla copertura in fibra risultano molto auto referenziali ma non sufficienti alla causa del Digital Divide. Anche se ENEL riuscisse ad evitare la burocrazia per il cablaggio fibra fino alle abitazioni (dal contatore alle cabine stradali ENEL) la stessa si ripresenterebbe dall’Armadio ENEL alla rete Broadband di qualunque operatore (casistica che rientra nei problemi citati dall’articolo di Russo).

Come giá scritto qui “La Fibra” é un mantra ossessivo del Governo che forse potrebbe essere rivisto. Se si considerano le attuali condizioni Italiane forse per accelerare si potrebbe anche pensare di partire con soluzioni ibride (Rame/Fibra) che garantirebbero velocitá attorno agli 80Mbps comunque molto migliori degli attuali 2 Mbps (o meno). Fissarsi sulla strategia fibra a tutti i costi per motivi propagandistici potrebbe essere negativo per lo sviluppo delle reti stesse. La fibra come sempre rimarrebbe abbondante nelle cittá dove comunque la competizione di mercato ha giá migliorato le condizioni di connettivitá. Nelle zone rurali o a bassa densitá il problema si presenterebbe comunque con costi e tempi burocratici poco sostenibili.

La giostra degli annunci si sa deve continuare a girare e le scadenze sono sempre piú vicine nel tempo ma lontane nella pratica. Spero di essere smentito nei prossimi anni ma va considerato che chi promette non sará piú sulla stessa poltrona nel 2020 ed eventuali ritardi rientreranno nel solito ping pong politico delle responsabilitá politiche sui fallimenti. Non sará mai colpa di nessuno ma noi dovremo trasferirci in cittá per vedere Netflix.

I tagli 2016 all’IT della Pubblica Amministrazione: Ma non dovevamo digitalizzarci?

Mentre ero occupato nella scrittura della mia critica agli sprechi pubblici derivanti dai nuovi regali elettorali mi é passata sotto gli occhi una notizia di cui non ero al corrente e relativa alla vera condizione del processo di digitalizzazione della Pubblica amministrazione.

Prima di arrivare al punto facciamo una lunga premessa:

La digitalizzazione della Pubblica Amministrazione (PA) é indubbiamente portatrice di grossi vantaggi sia per l’ottimizzazione dei servizi, sia per l’efficienza dei risultati di gestione, per l’accesso degli utenti e per un risparmio economico nei conti dello Stato.

Gli annunci sull’importanza della digitalizzazione e sulla sua prioritá nei programmi sono stati piú volte menzionati dall’attuale Governo. L’Italia é un paese che per mala gestione regolatoria e politica é molto in ritardo nell’ambito ICT e broadband rispetto al resto dell’Europa e del mondo. Non voglio entrare nel merito del broadband nonostante sia una parte fondamentale del processo di digitalizzazione del paese ma vorrei soffermarmi sul solo aspetto della pura informatizzazione della PA senza entrare nel merito della connettivitá in senso stretto.

La digitalizzazione era stata messa fra i primi posti nell’analisi sulla Spending review redatta dall’ottimo Carlo Cottarelli giá nel 2014. Qui alcuni numeri sui vantaggi dichiarati da Cottarelli stesso. Oggi come si sa Cottarelli non é piú il responsabile di questa attivitá per propria rinuncia. I motivi non sono mai stati chiaramenti espressi ma sta di fatto che adesso il comando della Spending Review é passato a Yoram Gutgeld meno tecnico e sicuramente piú politico di Cottarelli e qui mi fermo per non divergere in argomentazioni espressamente politiche. Il risultato del “nuovo” Cottarelli é comunque misurabile: dagli annunci su 20 Miliardi di risparmi, poi scesi a 10 poi a 5 siamo arrivati ad un non incerto 1,5 Miliardi nell’ultima legge di stabilitá. Una chiara defocalizzazione sull’obiettivo.

Ma cosa é stato fatto per l’ottimizzazione della PA in ambito digitale? Molte analisi dettagliate hanno evidenziato i limiti dell’attuale infrastruttura IT della PA e le possibili (e necessarie) ottimizzazioni.

Nelle mie ricerche sono capitato sul documento di Cottarelli in cui presentava tutte le possibili ottimizzazioni della Spesa Pubblica e a riguardo delle digitalizzazione indicava questi risparmi:

Risparmi della Digitalizzazione:  

  • Anno 2014 NA   
  • Anno 2015 1,1 Mld
  • Anno 2016 2,5 miliardi

e questo il dettaglio dei risparmi:

Risparmi (stime AGID per il 2016)

  • Fatturazione elettronica 936 mil
  • Pagamenti elettronici 1320 mil
  • Razionalizzazione CED (AC) 300 mil

TOTALE  2556 mil  

Da tecnico TLC/ICT mi soffermo sull’ultimo punto relativo alla Razionalizzazione dei CED ovvero in linguaggio tecnico burocratese Italico i Centri Elaborazione Dati noti al resto del mondo con il nome di Data Center. Una nota del report chiarisce che il risparmio nell’ottimizzazione dell’infrastruttura si riferiscono alla sola Amministrazione Pubblica Centrale.

..”Il risparmio derivante dalla razionalizzazione dei centri elaborazione dati (CED) si riferisce alla sola amministrazione centrale (AC) (da 78 a 4-5 CED); il risparmio sarebbe molto più alto se si concentrassero in circa 60 CED gli attuali 11000 CED di tutte le amministrazioni pubbliche. Il risparmio addizionale annuo stimato sarebbe di circa 1,6 mld ma si realizzerebbe solo al di là del 2016 (stime Agenzia per l’Italia Digitale, «Piano triennale di razionalizzazione dei CED delle amministrazioni pubbliche») e richiederebbe investimenti di 2,5 mld per il periodo 2014-20)”..

Cottarelli ci dice che un investimento aggiuntivo di 2,5 Miliardi per un periodo di 7 anni (350 Milioni all’anno) ci porterebbe ad un risparmio annuo di ben 1,6Mld (MILIARDI) solo con l’ottimizzazione di tutta l’infrastruttura dei Data Center di tutte le amministrazioni pubbliche Locali.

Se consideriamo che la cancellazione di TASI/IMU é valutata con un costo di circa 4-5 Mld all’anno é facile capire come le ” spese elettorali”  sono piú importanti dell’efficienza pubblica…. ma anche qui mi fermo (per il momento).

Visti gli imponenti numeri sull’ottimizzazione dei vari Data Center ho cercato qualche dettaglio in piú trovando un documento molto interessante redatto dall’Agenzia per l’Italia Digitale, un gruppo di lavoro che risponde direttamente alla Presidenza del Consiglio e che si occupa del processo di Digitalizzazione del paese. Da questo punto di vista certamente si é fatto qualcosa.

In questo documento si descrive l’attuale situazione dell’infrastruttura IT della Pubblica amministrazione Italiana e si elencano una serie di indicazioni (purtroppo solo) di massima per la sua ottimizzazione.

Di seguito un riassunto dell’attuale situazione dell’ICT Pubblico:

CED Censiti

In Totale sono stati censiti quasi 1000 diversi Data Center. Per rendere l’idea il colosso dell’ICT Google ha solo 14 Data Center sul territorio US e 5 in Europa (Riferimento). Considerando la scarsa informatizzazione dell’amministrazione pubblica Italiana, 1000 Data Center rappresentano un numero a dir poco sovradimensionato.

Questo il dettaglio sullo spazio utilizzato:

Occupazione dei CED PA censiti

Un grosso numero di piccoli spazi ma sopratutto un alto numero di Mq non utilizzati dimostrazione della crescita non controllata dei vari CED e di un coordinamento praticamente nullo.

Il mondo dell’ICT fa della condivisione delle risorse la sua regole principale per l’ottimizzazione. Le infrastrutture Data Center sono utilizzate per fornire servizi diversi e a soggetti diversi mentre come si vede nel grafico sotto le Pubbliche Amministrazioni usano in maniera quasi dedicata le proprie infrastrutture. In pratica non esiste ottimizzazione né tanto meno condivisione fra le varie amministrazioni segno indiscutibile di un’informatizzazione a strati senza un progetto comune.

Utilizzo dei CED PA censiti

La tipologia di Server presenti nei vari CED dimostra quanto le tecnologie siano vecchie e non allineate con le esigenze dei nostri tempi. Le amministrazioni Locali risultano le piú antiquate utilizzando ancora Server Tower ovvero macchine non piú utilizzate per le nuove tecnologie di virtualizzazione.

Tipologia Server CED PA

Giusto un dettaglio per i non addetti ai lavori senza entrare troppo nel merito della tecnologia. Con virtualizzazione si intende una serie di tecnologie ormai consolidate che trasformano i servizi IT prima staticamente istallati su un server fisico verso un’infrastruttura virtuale. Non esiste piú un hardware dedicato (Server) ma ogni servizio diventa un software che dinamicamente utilizza risorse di processamento (Cluster di server) disponibili nel Data Center (Virtual Machine). Queste tecnologie sono indirizzate all’ottimizzazione della gestione dei servizi e sopratutto al risparmio di spazio e di consumi elettrici dei Data Center. Queste tecnologie vengono normalmente indicate con il generico termine di CLOUD computing.

Nel caso della PA Italiana invece di CLOUD direi che FOG COMPUTING é un termine piú adeguato.

La connessione dei CED alla rete é un altro aspetto che dimostra l’arretratezza dell’infrastruttura ICT della PA.

Connessione dei CED PA

Difficile da credere ma nel 2015 la PA Italiana utilizza connessioni in rame xDSL per i propri Data Center. Lavorando nel mondo ICT da molti anni devo ammettere che questa opzione non verrebbe tenuta in considerazione nemmeno dalla piú piccola azienda che ha bisogno di costruirsi un proprio Data Center. L’ opzione ” rame”  sembra ancora una tradizione consolidata nel fantastico mondo IT Pubblico Italiano. Nelle amministrazioni locali questo tipo di connettivitá raggiunge un imbarazzante 50%. Ovviamente la distribuzione cosí capillare sul territorio porta necessariamente ad accontentarsi delle tecnologie a disposizione. Un’ ottimizzazione e razionalizzazione dei Data Center ad un numero massimo di 4-5 per l’Amministrazione Centrale e 60 per quelle locali (come indicato dalla Spending Review di Cottarelli) porterebbe la disponibilitá di velocitá di connessione adeguate allo scopo su infrastruttura ottica unica di garantire determinati livelli di servizio.

La via verso l’ottimizzazione

A differenza di quanto uno puó credere il documento contempla ed é conscio della direzione da prendere per le varie ottimizzazioni. L’obiettivo é sfidante, il tempo necessario é lungo ma sicuramente la direzione é chiara e condivisa. Allora perché non si é fatto praticamente nulla?

La Falsa digitalizzazione

Per concludere questa lunga premessa:

  • Situazione attuale critica ma nota
  • Analisi dettagliata e censimento abbastanza preciso delle condizioni
  • Obiettivi di razionalizzazione noti
  • Vantaggi e risparmi noti
  • Conoscenze tecnologiche sulle scelte da prendere per il consolidamento

Cosa ci manca per mettere in moto il tutto?

Come sempre la volontá di farlo. Non sono i soldi a mancare perché come quantificato da Cottarelli gli investimenti non sono altissimi e i vantaggi sono indubbiamente molto piú alti.

La classe politica come sempre nonostante si trovi di fronte a scelte indiscutibilmente giuste, economicamente vantaggiose e necessarie per allinearsi con i tempi preferisce chiudersi nei piccoli giardinetti del gioco politico e della pura propaganda che non ha altri risultati del raccogliere consensi.

Lo so che la conclusione si allontana dall’ambito tecnologico ma una volta che la PA é consapevole dei propri obiettivi, dei costi per raggiungerli ma cambia direzione o rallenta la sua marcia il discorso diventa solo e puramente politico. Vuol dire solo ed esclusivamente che i giochi politici come sempre hanno precedenza sui vantaggi per il paese.

Le promesse mancate

Mi riferisco a quanto detto all’inizio del post, dopo tutti questi bei discorsi sull’agenda digitale e sulla definizione degli obiettivi scopriamo che nell’attuale MEF 2016 gli enti locali sono stati invitati a dimezzare le spese informatiche del 50%.

Ma non dovevamo digitalizzare?

“…Il comma 2 stabilisce che la Consip o il soggetto aggregatore interessato acquisisca il parere vincolante dell’Agenzia per l’Italia Digitale sui parametri di prezzo e di qualità dei bei e servizi oggetto della richiesta di approvvigionamento. Tale disposizione consente un governo unitario e un maggior coordinamento dell’attuazione dei progetti informatici nella PA, in linea con quanto stabilito dal Codice dell’amministrazione digitale e dall’Agenda digitale italiana.

La disposizione prevista al comma 3 individua l’obiettivo di risparmio (che dovrà derivare dall’attuazione delle disposizioni dei primi due commi) quantificato nel 50% della spesa annua complessiva media nel settore informatico, relativa al triennio 2013-2015. A tal fine, le pubbliche amministrazioni e le società contenute nell’elenco Istat programmano i propri acquisti nel rispetto del suddetto limite di spesa. Le disposizioni contenute ai commi da 1 a 3 consentiranno una sostanziale riduzione della spesa di natura informatica, la cui quantificazione in valore assoluto, tuttavia, non può che avvenire a consuntivo.”

Vada per la razionalizzazione degli acquisti attraverso la CONSIP ovvero la centrale acquisti della Pubblica Amministrazione. Considerando che CONSIP dovrebbe garantire i cosiddetti ” Costi Standard”  é cosa buona e giusta seguirla e negli anni passati questo avveniva solo per il 50% degli acquisti.

Il problema di fondo é che l’esistente con un taglio del 50% diventa ingestibile poiché semplicemente CONSIP si prende cura dei nuovi acquisti hardware ma non delle correnti gestioni del software o dei contratti di assistenza. Se consideriamo il seguente grafico con i costi medi in un Data Center vediamo come un taglio del 50% riduce o annulla completamente l’operativitá.

costi CED

Gli acquisti tramite CONSIP possono migliorare ma non annullare le spese per Networking (10%), Storage (7%), Servers (11%) ovvero un totale del solo 28%. Tutto il resto é poco comprimibile e quindi il 50% non é semplicemente raggiungibile. Si tratta come al solito di un taglio lineare che nulla ha a che fare con l’ottimizzazione che sempre bisogno di spese aggiuntive (e Cottarelli ci ha dimostrato che non sono cosí alte).

Questo tipo di direttive governative dimostrano come gli annunci siano diversi dalla realtá ma spesso la realtá é piú pericolosa di quello che si crede.

Nel frattempo invece di investire qualche centinaio di milioni preferiamo.. o meglio preferiscono sprecare 280 Milioni sul finto Bonus Cultura, oppure 4 Miliardi per il taglio TASI/IMU o qualche altro miliardo per i famosi 80E. Tutti questi grossi capitoli di spesa non portano nessun beneficio né al paese e né alla sua economia ma solo un vantaggio elettorale per il governo.

Questo é il falso della politica Italiana e di uno sviluppo falso. Le conoscenze e la consapevolezza di cosa serve ci sono ma l’attuazione segue regole clientelari che in Italia prevalgono sempre.

E poi uno non si deve arrabbiare? Gli obiettivi si possono anche raggiungere in retromarcia ma sicuramente non si arriva né prima né veloci e l’Italia ha bisogno di una marcia diversa e non di pubblicitá ingannevole.

É arrivato StonexOne, il primo smartphone Italiano Made in China. Marketing ai confini della realtá.

Il primo Smartphone Italiano é in vendita da oggi. Si chiama StonexOne ed é stato promosso da una lunga campagna di marketing web guidata da DJ Francesco, creative director della societá.

StonexONE-1280x677Stonex-ONE-render-ufficiale-2

Non ho la presunzione di fare un’analisi tecnica dello smartphone principalmente perché solo ad Agosto partiranno le spedizioni e si potranno provare i primi modelli. In pratica chi lo compra oggi non ha sicuramente certezze sulle reali qualitá del dispositivo perché nessun modello é stato mai rilasciato in prova.

Ovvio mi fido dell’azienda e immagino che il prodotto sará buono anche rispetto al prezzo a cui verrá venduto di 299E. Un buon prezzo per le sue caratteristiche.

Schermo: 5,5” QHD (1.440 x 2.560 pixel) con vetro AGC Dragontrail
CPU MediaTek Helio X10 MT6795 64-bit octa-core a 2 GHz
RAM 3 GB LPDDR3 a 1.866 MHz
Memoria interna 32 GB eMMC 5.0 espandibile (con microSD fino a 64 GB)
Fotocamera posteriore Sony IMX230 da 21 megapixel con 192 punti di messa a fuoco, video in HDR, video e foto fino in 4K, 1080p 60fps, 720p 120 fps
Fotocamera frontale 8 megapixel
Connettività LTE, Bluetooth, NFC, Wi-Fi
Sensori prossimità, luminosità, bussola, giroscopio, accelerometro
Batteria 3.000 mAh removibile
OS Android 5.0 Lollipop

Che dire in linea con il mercato ma in generale i dati dicono poco o nulla perché il valore aggiunto di uno smartphone (sempre che esista) é la qualitá di tutti questi elementi e di come interagiscono fra di loro. I megapixel servono a poco se la qualitá del sensore é bassa. Ma in generale come detto prima mi fido dell’azienda.

Quello che é certo della Stonex é che ha puntato tutto su una campagna di marketing che per certi aspetti suona un pó esageranta e ridicola. Molto probabilmente i clienti a cui punta saranno proporzionali alla sua campagna di promozione.

Sono felicissimo che un’azienda Italiana entri nel mondo degli smartphone ma forse la comunicazione ha ecceduto in messaggi troppo banali:

Italianitá: Certo l’azienda é italiana ma il Made in Italy é qualcos’altro del personalizzare una versione di Android. I fornitori come per ogni brand sono cinesi e all’Italia sembra rimanere solo la personalizzazione di Android. Ci sta ma la trasparenza prima di tutto. Il nuovo sistema operativo si chiamerá “Ciao OS”… originale e promette una piattaforma open per ogni personalizzazione. Chissa poi cosa vorrá dire considerando che poche persone si dedicano alla personalizzazione del prioprio sistema operativo. Sembra inoltre che la versione Ciao OS non sia ancora pronta e quindi i primi modelli avranno un’android 5.0 standard con qualche piccola personalizzazione. E abbiamo giá perso  l’unico punto di Itaianitá oltre al marketing.

I Nomi: Ogni nome (dello stesso modello) sará ovviamente in “serie limitata” e rigorosamente preceduto da un # … perché fa gggiovane. Quindi modello unico illimitato offerto con nomi diversi e limitati. mah…

L’immagine, ovvero Facchinetti Jobs:  Ma perché si deve arrivare a questi livelli?

Facchinetti JobsPartiamo da questa immagine sintomatica e rappresentativa della clientela a cui aspira la Stonex.

Ma era il caso di mettersi gli occhiali rotondi alla Steve Jobs? Parlare di Smartphone etico? Magari anche Bio e Vegano? Dai su siamo seri. Perché l’etica? Cosa c’é di diverso nella produzione (cinese) rispetto a tutti gli altri modelli? Nulla e lo credo fortemente. Il vero valore aggiunto delle differenze (se ci sono) é spiegarle con chiarezza non semplicemente scrivere #Etico. Suona #ridicolo. Il sito Web inoltre  richiama insieme agli occhiali di Facchinetti altri e piú famosi luoghi del web con la differenza che sembra prodotto con la versione standard di wordpress e modificato in colore blu elettrico. I video caricati su Youtube/Facebook sono molto basici e dimostrano quanto oggi serva condividere senza grossa importanza su cosa si condivide.

In ogni caso ogni campagna di marketing si rivolge ad una certa fascia di clienti e fino ad adesso sembra aver funzionato molto bene. Complimenti anche se forse non sono nei loro target di cliente.

Investimenti: Come Berlusconi e i posti di lavori la Stonex ha investito 1 Milione di Euro. Ovviamente la cifra sembra molto alta. Probabilmente si voleva addirittura voler passare il concetto della produzione Made in Italy… probabilmente. O forse sono semplicemente prevenuto e mal pensante. Sicuramante una personalizzazione di Android e qualche video su Youtube mi fanno dubitare di queste cifre in investimenti.

HA I TASTI:

Stonex Tasti

Lo so é un dettaglio ma quasi tutti i modelli attualmente in circolazione li hanno persi da tempo. I 3 tasti sono diventati ormai software e visualizzati in maniera variabile sullo schermo il che ha una certa utilita perché cambiano a seconda della posizione dello schermo o dall’applicazione. Nello StonexOne no. Sará un piccolo dettaglio ma é a mio avviso un pó bruttino. Non esistono spiegazioni in merito alla loro utilitá o forse é solo un semplice gusto vintage (oppure un risparmio). Una cosa é certo “sono inguardabili”. 

La Open Community: Parte della campagna di marketing é l’effetto community che si dice “aiuterá a perfezionare lo StonexOne”. Che dire anche qui si spera di far leva sulla rete per promuovere il prodotto. Come per gli # davanti ai nomi il termine community tende a cercare la stessa reazione e a creare un effetto social ma se non si spiega in concreto cosa vuol dire serve a poco. #trasparenza

Funzionalitá: In questa figura qui sotto quello che il sito pubblicizza.

Funzionalita Stonex

Non mi sembra in elenco ci sia nulla di nuovo o particolarmente innovativo. D’altronde la produzione é abbastanza standard e concentrata in Cina il che non permette grosse personalizzazioni dell’HW per i piccoli produttori che si affidano ai cataloghi cinesi. Il Software puó essere l’unico mezzo per poter dare qualche funzionalitá in piú ma alla fine risultano solo modifiche estetiche di bassa entitá rispetto a quello che Apple e Google possono fare (ad un prezzo doppio e triplo di Stonex).

Queste sono alcune funzionalitá promesse dalla Stonex:

  • Double tap to wake (riattivare il terminale con un doppio tocco sul display)
  • Impostare la modalità silenziosa posizionando lo smartphone a schermo in giù
  • Orari di accensione e spegnimento programmati
  • Sveglia attiva anche a smartphone spento (quest’ultima funzionalità è legata alla possibilità di accendere il telefono ad un orario programmato)
  • Gesture a schermo spento (da confermare).

#Carine

Aspetti positivi della Stonex: Nonostante la campagna di marketing é a mio modo di vedere eccessivamente ridicola é comunque un progetto lodevole e sopratutto Italiano. Il prezzo del prodotto é molto buono e supera anche realtá cinesi che probabilmente hanno una qualitá del software peggiore.

Aspetti Negativi della Stonex: Nulla é chiaro ovviamente sulla qualitá del prodotto perché nessun modello é stato mai recensito. Si parla di #etica ma poi la trasparenza non é una prerogativa di partenza. Inoltre é difficile da creare una buona catena di assistenza e supporto per il prodotto. Questo dipende mediamente dalle dimensioni dell’azienda stessa e sicuramente la Stonex non é né Samsung, Apple o Huawei. Vengono pubblicizzati aggiornamenti software di Ciao OS per tutte le nuove versioni di Google che arriveranno. Speriamo, perché questo richiede un grosso sforzo che solo i grandi marchi riescono a fare ma quasi nessuno riesce a fare bene ad esclusione di Google col Nexus e ovviamente Apple.

Con la spesa di 300E (ma spero di sbagliarmi) non credo che l’utente potrá trovare grosse differenze rispetto a prodotti di pari livello. Sicuramente si porterá dietro alcune personalizzazioni Italiche proporzionali alla campagna di marketing e quindi mi aspetto molto tricolore.

Conclusioni: L’operazione di marketing sembra riuscita. Complimenti alla Stonex e a Facchinetti anche se forse il suo livello é stato troppo superficiale e banale (qui sotto il nuovo e inguardabile Steve Jobs Italiano).

Facchinetti Jobs 2

Ma come sempre l’importante é centrare l’obiettivo.

Tecnicamente non mi aspetto nessuna grossa differenza rispetto al mercato se non fosse per un prezzo valido.

La mia personale sensazione é che sará un prodotto che giocherá solo sull’immagine Italiana ma tecnicamente sono sempre e comunque i cinesi ad aiutarci a raggiungere l’obiettivo. Da utente Nexus posso dire che la grossa differenza fra smartphone sta molto nel software. Google ovviamente é il piú bravo a far funzionare omogeneamente i suoi dispositivi con il suo mondo di applicazioni. Tutto il resto dell’Android é mediocre rispetto a Google. I produttori cinesi infatti nonostante facciano uso di hardware migliore sulla carta poi si perdono nei dettagli del software che fanno la differenza. La Apple ovviamente non ha eguali come qualitá del software. Non mi aspetto che una piccola azienda come la Stonex possa fare miracoli. Considerando che alla base la produzione é cinese mi aspetto un livello di software leggermente migliore su un hardware standard. Spero di essere smentito dalle prime prove perché sappiamo bene che gli Italiani sono imprevedibili e pieni di risorse… ma in questo settore al momento é piú una battuta che una certezza.

In ogni caso

Buona fortuna Stonex

Perché le TV 4K non sono un un buon acquisto?

ultra-4

Il video a Ultra Definizione (UHD) meglio conosciuto come 4K é uno dei maggiori trend nel mondo della tecnologia. Il suo passo é ormai ben definito e solido, basta dare un’occhiata ad un qualunque rivenditore di elettronica di consumo per accorgersene.

Nonostante contenuti e fornitori di servizi video 4K siano rari e in molti paesi ancora inesistenti la voglia di Ultra definizione degli utenti sembra essere giá inarrestabile.

Ma tutta questa disponibilitá di TV 4K ha veramente un senso per l’utente?

Perché acquistare un Televisore 4K?

Ovviamente senza la possibilitá di usufruire di contenuti l’acquisto non ha senso ma sicuramente a breve i servizi saranno disponibili via satellite e in alcuni paesi anche via broadband (l’Italia per questo dovrá aspettare ancora qualche anno) e quindi l’acquisto sembra avere una ragione.

La mia convinzione da uomo tecnologico é ovviamente che il 4K é un inevitabile passo tecnologico ma sui Televisori 4K continuo a mantenere alcune riserve.

Non é mia intenzione negare l’innovazione tecnologica ma é necessario puntualizzare alcuni aspetti che spesso non vengono menzionati quando si parla di 4K. Questo post su CNET mi ha fatto riflettere molto su tutti quei fattori che nessuno tiene in considerazione quando parla di TV 4K ma che sono importanti per capire i suoi reali vantaggi.

Partiamo da questa semplice e nota rappresentazione grafica che confronta le dimensioni in termini di pixel dei vari servizi video. Dai vecchi formati a bassa risoluzione (DVD) fino al Full HD (1080p) e al 4K.

resolution-4k-ultra-hd-size

L’immagine mostra in maniera chiara la differenza di fondo fra i vari formati ovvero: “Qual’é la dimensione dello schermo necessaria per apprezzare le differenze fra il 4k e il semplice Full HD?”

In linea di massima il 4K ha una definizione quattro volte piú grande e quindi a paritá di dimensione dei pixel lo schermo potrá essere 4 volte piú grande.

Questo nella realtá non capita poiché le TV 4K sono mediamente piú grandi ma riflettono le stesse dimensioni dei formati Full HD. In termini di risoluzione cosa impone questo fattore secondo le riflessioni di Geoffrey Morrison autore del post rivelatore?

Impone una veritá indiscutibile ovvero che per poter notare le differenze fra una tecnologia 4K e un Full HD bisogna avere schermi di dimensioni molto maggiori oppure guardare lo schermo a distanza ravvicinata. Puó sembrare una battuta di cattivo gusto ma é proprio cosí per limiti fisici del nostro occhio. Il paragone piú calzante é “a quale distanza dalla sabbia riesco a notare i granelli di cui é composta?”

La fisica non é un’opinione nemmeno nel 4K e qui sotto il grafico che mostra la distanza a cui si ha il massimo beneficio della varie tecnologie video e relative dimensioni dello schermo.resolution_chart-4K-HD

Il grafico ci dice che per notare la migliore qualitá del video 4K bisogna essere piú vicini allo schermo rispetto alle risoluzioni piú basse. Se la distanza non puó essere aumentata (il salotto di casa) bisognerá comprare un televisore con dimensioni maggiori altrimenti il prezzo extra per il 4K non dará benefici visibili.

Per chiarezza di unitá di misure ho trasformato in metri l’interessante “Calcolatore 4K” che ci fornisce le distanze minime e massime in ogni risoluzione e per le diverse dimensioni di schermo che servono ad apprezzare la differenza di qualitá fra i diversi formati.

4K Calculator

Cosa ci dice questa tabella?

Che se un utente ha un Televisore HD da 49 Pollici dovrá guardare il suo video HD ad una distanza minima di 2 mt e massima di 3mt. Diciamo la distanza media fra divano e schermo. Nel momento in cui l’utente deciderá di passare al formato Ultra HD 4K mantenendo la stessa dimensione dello schermo (ma spendendo almeno un 20% in piú) per poter notare la differenza di risoluzione dovrá spostare il divano di un metro piú vicino allo schermo, esattamente ad un minimo di 1mt e ad un massimo di 2mt. Se mantiene la stessa distanza di prima NON potrá visivamente notare la differenza se non fosse per una pura suggestione di marketing o convinzione personale dovuta alla spesa appena sostenuta.

Se l’utente decide invece di godersi il 4K senza spostare il divano allora con la stessa distanza dovrá passare ad uno schermo di circa 100 pollici (il doppio) con il suo non indifferente costo (attorno ai 25.000 Euro) e relativo ingombro.

Sará questa la tendenza del mercato, i 100 pollici? Assolutamente no, gli utenti compreranno televisori 4K con le stesse dimensioni dell’esistente HD e molto probabilmente per la maggior parte con formati attorno ai 42/50 pollici. La teoria ci dice che con queste dimensioni dovrebbero guardare il video ad una distanza minima di 80 cm e massima di 1,5mt. Questo non accadrá mai perché gli utenti non sposteranno mai il divano cosí vicino (in questo caso eliminando anche il tavolino) e il vantaggio qualitativo non arriverá mai.

E allora perché si spinge per il 4K ?

Secondo l’autore (e concordo sulla visione) perché é una tecnologia relativamente facile da produrre partendo dal Full HD. I produttori possono con pochi aumenti di costi vendere un prodotto ad un prezzo piú alto. I produttori giocano solo sulla quantitá di pixel che puó essere semplicemente ricavata dagli esistenti Full HD. Se ho una grosso schermo da 84 pollici posso produrre 4 televisori a 42 pollici Full HD oppure un televisore ad 84 pollici 4k senza grosse differenze in termini di elettronica di controllo.

Cosa  NON fanno i produttori 4K?

Non investono in quelle innovazioni che invece darebbero valore aggiunto al 4K rispetto agli esistenti Full HD e quindi: il contrasto, il colore, la compressione, la risoluzione nel movimento etc ma che imporrebbero una nuova elettroica (e costi piú alti inizialmente). In pratica da un punto puramente qualitativo i prodotti 4K giocano solo sulla risoluzione ma non sulla vera qualitá dell’immagine. In ambito fotografico sarebbe come comprare una nuova macchina fotografica digitale con una risoluzione migliore ma con la stessa sensoristica. Nessun vantaggio se non la dimensione delle foto.

Altri limiti.

I televisori 4K hanno inoltre limiti nella connettivitá. L’interfaccia HDMI (High Definition Multimedia Interface) con cui si collega la sorgente 4K al televisore é giá al limite di utilizzo. La sua velocitá puó gestire al massimo una risoluzione di 4,096×2,160 pixels ad una veocitá di 24fps (Frame Per Second). Quindi con le attuali interfacce HDMI 1.4 siamo giá al limite di utilizzo del 4K e la versione HDMI 2.0 non sembra essere ancora pronta.

Conclusioni

Il 4K é una tecnologia inevitabile e il suo sviluppo é in atto. La corsa é giá frenetica senza peró avere i requisiti giusti per poter esaltare la sua differenze con le tecnologie HD esistenti.

I contenuti arriveranno ma inizialmente non avranno una risoluzione nativa a 4K. Tanti attori si stanno comunque affacciando a questo mercato vista la grande richiesta di video degli utenti. Anche le reti saranno fortemente impattate dall’arrivo del 4K che richiede investimenti per la qualitá piú alta (La banda richiesta per un singolo streaming 4K é di 45Mbps circa)

É il caso di comprare una TV 4K?

Se avete i soldi per permettervi un 100 pollici a 2 mt dal divano sí, altrimenti state col vostro HD e sarete soddisfatti della stessa qualitá.

Ma allora qual’é il reale utilizzo del 4K?

Nel momento in cui la reale qualitá dell’immagine e no solo la sua risoluzione verrá migliorata é indiscutibile che il 4K aprirá la strada ad una nuova e mai vista “Era del video”.

Come piú volte indicato dal post di CNET la dimensione fá la differenza. Immaginate in un prossimo futuro di avere uno schermo grande come tutta la parete. Immaginate di guardare un film oppure di giocare alla console con una risoluzione pari alla realtá e in quelle dimensioni.

Questo é il 4K e per questo ha un senso, tutto il resto é marketing inevitabile di un mercato che sta crescendo.

La rivoluzione arriverá ma non la vedrete di sicuro a 2 mt dal vostro 50 pollici.

La via verso l’Ultra Broadband Italiano a pessima guida pubblica.

Italian slow broadband  Partiamo da questi semplici numeri.

Banda media e di picco dell’accesso ad Internet con incrementi annuali

AvgPeakBWQ42014

Percentuali di utenti con accessi ad Internet sopra i 10Mbps.

BW10-4MbpsQ42014

Percentule di utenti con accesso oltre i 15 Mbps

15MbpsQ42014

I dati sono contenuti nel report “State of the Internet” (4o quadrimestre 2014) di Akamai.

Aggiungo anche il mio centesimo ai numeri. Il mio paese a 30km da Torino (non in cima all’ Everest quindi) ha esaurito gli accessi ADSL disponibili e quindi mi devo accontentare di un dongle 3G con relativa connettivitá “fluttuante” considerata la distanza dalla cella. Chi é riuscito ad avere il servizio si connette comunque a 640Kbps. Siamo nel 2015 ma i miei concittadini non se ne sono ancora accorti.

Cosa possiamo dedurre da questi numeri Italiani sul Broadband?

Semplicemente che la situazione Italiana per la “connettivitá Broadband” é disastrosa su tutti i fronti. Siamo all’ultimo posto in Europa e mal posizionati nel mondo.

Qui sotto la copertura NGN (Next generation Network) in Europa.

NGN EU

Le cause sono molte ma fra tutte la solita mancanza di competizione di mercato e inesistenti piani pubblici sono fra le prime che hanno portato a questa vergognosa situazione.

Il Governo Renzi ha messo il Broadband o meglio l’Ultra Broadband nelle sue proritá di programma e recentemente ha definito il suo piano.

Praticamente in 5 anni l’Italia secondo il Governo Renzi dovrebbe passare dal nulla ai vertici Europei. Si passerebbe dalle ridicole velocitá di accesso addirittura all’Ultra Broadband. In pratica oggi gli utenti Italiani navigano con una FIAT 500 mentre nel 2020 quasi tutti avranno una Ferrari: Un programma alquanto sfidante per essere educati.

La ragione di questa accelerazione é semplicemente dovuta all’agenda elettronica Europea che prevede per il 2020 il 50% della popolazione raggiunta da una velocitá di 100Mbps. Tutto qui, obiettivi definiti da qualcun altro da raggiungere senza riflessioni. L’importanza economica del Broadband é indubbia ma il voler a tutti i costi mantenere programmi altrui senza considerare le attuali condizioni puzza piú di  politica che di strategia industriale. Come scritto in questo condivisibile articolo di Leoni Blog, “Perché dobbiamo a tutti i costi dare 100Mbps al 50% della popolazione invece di dare 80Mbps al 75%?”.

Semplicemente perché il legislatore assente per un ventennio sull’argomento adesso vuole imporre senza se e senza ma il programma Europeo agli operatori fissi. Certo la situazione odierna é anche responsabilitá degli operatori stessi ma sicuramente il legislatore non ha mai cercato di migliorare la situazione.

Quello che fa riflettere sono le parole di Raffaele Tiscar, vice segretario generale di Palazzo Chigi e influente consigliere di Renzi nell’ambito del Broadband. La sua posizione si puó riassumere nei seguenti punti:

  • Il Governo vuole definire il piano industriale degli operatori. Tiscar dichiara  “è il piano industriale del governo che orienta quelli degli operatori, e non viceversa”. [non commento questa affermazione sconvolgente in un (quasi) libero mercato].
  • Gli operatori di telecomunicazioni devono essere degli attori che applicano le regole imposte dal regolatore senza tenere in considerazione le proprie possibilitá di investimento.
  • Non esiste nessuna relazione fra consumi, bisogni, benefici e costi.
  • Non esiste nessuna analisi sul prezzo di un possibile servizio (100Mbps) e la sua vendibilitá nel mercato Italiano. (Quale dovrebbe essere il suo prezzo e quanti utenti sarebbero disposti a pagarlo?).
  • I fondi pubblici sarebbero il metodo dirigistico per equilibrare un mercato.
  • Le reti di TLC dovrebbero essere gestite dallo Stato secondo Tiscar.

Come sempre in Italia la concorrenza va limitata per decreto.

Insomma il libero mercato e le sue regole sembrano non essere un elemento da tenere in considerazione. Esiste un obiettivo Europeo che deve essere raggiunto indipendentemente dalle condizioni economiche dell’Italia e degli operatori di Telecomunicazioni.

Questo atteggiamento del legislatore Italiano non é nuovo ed é forse uno dei grossi responsabili dei vari ritardi Italiani non solo nell’ambito delle TLC.

Quello che stupisce é il fatto che tecnicamente esistono delle possibilitá alternative alla fibra per fornire servizi a bande rilevanti (60Mbps, 70Mbps, 80 Mbps) appoggiandosi all’esistente infrastruttura in rame. Esistono poi ulteriori sviluppi dei servizi stessi che prevedono l’utilizzo ibrido di fibra e rame che possono raggiungere velocitá anche piú alte dei famosi 100Mbps. Il rame a differenza della fibra soffre la distanza quindi per poter raggiungere velocitá elevate necessita di un allungamento della tratta in fibra fino al cabinet stradale per poi usare il rame nell’ultima tratta verso l’utente (piú corta). Queste tecnologie ovviamente permettono agli operatori investimenti piú ragionevoli come spiegato qui da Alberto Calcagno Amministratore Delegato di Fastweb. Queste tecniche vanno sotto la denominazione di FTTC (Fiber To The Cabinet) o FTTS (Fiber To The Street). Wikipedia riassume cosí le varie tecnologie FTTx.

Alberto Calcagno dichiara che gli investimenti per il FTTH sarebbero di 15 Miliardi con tempi di realizzazione di 20 anni rispetto ai 3,5 Miliardi in 5 anni per il FTTC. Se questi numeri sono confermati dimostrerebbero che le affermazioni di Tiscar non sono basate su nessun piano tecnico-economico ma forse solo sulla fretta (politica) di raggiungere gli obiettivi Europei.

Paesi come Inghilterra, Svizzera, Germania hanno giá implementato questa tipologia di servizi ibridi. “I progetti di copertura in Fiber to the cabinet prevedono un 75% in Uk, un 50% in Germania al 50% e un 70% in Svizzera” dichiara nello stesso articolo Mario Mella (direttore IT di Fastweb).

In questo grafico le velocitá raggiungibili con relative tecnologie su rame.

Broadband Over Copper

Il Governo invece vuole andare verso il cosiddetto FTTH (Fiber To The Home) ovvero portare la fibra direttamente a casa degli utenti. Tiscar dichiara “A chi poi ci chiede perché la nostra scelta ricada sull’Ftth, rispondiamo che l’Fttc non consente di raggiungere gli obiettivi dell’agenda digitale Europea, e che se vogliamo portare a casa il risultato bisogna andare oltre il cabinet. Nelle aree urbane non ha senso fare l’Fttc, per poi superarlo e fare l’Ftth spendendo di più”.

Le tecnologie ibride rame/Fibra inoltre non escludono un evoluzione FTTH. Tutti gli apparati di comunicazioni che garantiscono l’accesso ad Internet sono tutti modulari e quindi un semplice aggiornamento delle schede (a volte nemmeno quello) trasformerebbe un FTTC in FTTH nel momento in cui la fibra fosse disponibile a casa dell’utente.

Quale sarebbe quindi il limite tecnologico nel partire con l’FTTC?

É necessario puntualizzare per corretteza tecnica che per raggiungere velocitá superiori ai 100Mbps attraverso tecnologie in rame é necessario utilizzare le tecnologie denominate vectoring. L’utilizzo di queste tecnologie richiederebbe peró una forte regolamentazione del cosiddetto ultimo miglio attualmente inesistente. Il motivo é da ricercarsi nei limiti fisici del segnale che impongono un’utilizzo aggregato delle risorse in rame. In pratica il cavo che contiene tutti i doppini telefonici deve essere collegato allo stesso apparato (o almeno appartenente allo stesso fornitore) e quindi allo stesso operatore. Questo limite  impatta direttamente le scelte tecnologiche degli operatori ma sopratutto elimina la possibilitá del cosiddetto Unbundling ovvero la possibilitá per gli operatori alternativi di affittare il doppino telefonico da Telecom Italia. In generale queste tecnologie su rame imporrebbero al regolatore la definizione delle regole sulla gestione dell’ultimo miglio. Queste scelte sono giá state prese in paesi come la Germania dove lo stato non ha escluso a priori la tecnologia FTTC per i suoi obiettivi broadband.

Perché in Italia no? perché si pensa di risolvere tutto con forzature e distorsioni pubbliche del mercato o attraverso sovvenzioni non ben chiare ma comunque scorrelate dai piani industriali degli operatori? Perché la competizione di mercato non viene mai considerata come via per lo sviluppo?

Domande a cui é difficile rispondere ma che forse hanno una radice comune nell’ignoranza economica delle istituzioni che non riescono a vedere quanto queste mentalitá abbiano portato l’Italia ad essere in coda agli altri paesi europei.

Cosa aspettarsi nel prossimo futuro? Sicuramente un incremento della pressione dell’Esecutivo sugli operatori considerato che i fondi dedicati al Broadband sembra possano essere svincolati dal Fiscal Compact secondo il piano Junker. Questo potrebbe mettere lo Stato in una posizione di forza rispetto agli operatori. Molto probabilmente ancora una volta lo Stato tenterá di controllare il mercato invece di sostenerne la libera concorrenza fra le aziende che il mercato lo conoscono meglio e lo sostengono da anni. Il risultato prevedibilmente sará come sempre un peggioramento non miglioramento drastico dell’offerta che peserá sulle tasche dei cittadini.

Nonostante la Pubblica Amministrazione sia agli ultimi posti in Europa come informatizzazione dei propri servizi (elemento che aumenterebbe la domanda di servizi broadband) si permette di insegnare come fare tecnologia e business a chi nel mercato c’é giá da molti anni e forse andrebbe ascoltato con attenzione invece di essere criticato senza un ragionevole motivo.

Buona fortuna Internauti Italiani mentre nel resto del mondo si forniscono servizi streaming  Ultra-HD 4k i nostri illuminati legislatori discutono su come costruire una Ferrari dal telaio di una 500. La gara si preannuncia difficile, l’arrivo estremamente lontano e non abbiamo nessuno dietro di noi da guardare allo specchietto.

Non so cosa fumino in Google ma di certo é roba buona: Il progetto Titan

Google-Titan-Aerospace-e1397540079815

Lo so che il titolo non é propriamente il migliore per un post che tratta di aspetti tecnologici ma oggi é la prima cosa che mi é saltata in testa guardando la presentazione del Senior Vice President dei prodotti Google al Mobile World Congress che si sta tenendo in questi giorni a Barcellona.

A questo link potete trovare i 13 minuti della presentazione.

Nonostante sia un Fan dei prodotti marchiati Google (qui i miei apprezzamenti sul Chromecast) e possessore di uno Smartphone Nexus che reputo il miglior Android sul mercato, continuo ad essere peró molto scettico sulla visione di Google del futuro.

Google a mio modo di vedere non é un’azienda che innova piú di tanto ma é semplicemente un monopolista con un budget quasi illimitato da investire in una enorme mole di progetti di ricerca. Tanti sono i progetti iniziati da Google e poi terminati perché non avevano un riscontro nel mercato. Anche il famoso Gmail é iniziato cosí ma per ovvi motivi di utilizzo del servizio mail non é mai stato chiuso. Penso invece a progetti come i Google Glasses che nonostante facciano parte di tecnologie “indossabili” molto in voga, non credo avranno vita lunga. Il mercato per il momento ha preferito fermarsi agli orologi o qualche misuratore da polso. Qui qualche mio commento piú dettagliato dei glasses scritto in tempi non sospetti.

Adesso al Mobile World Congress Google promuove un suo progetto per coprire zone del globo difficilmente cablabili utilizzando palloni aereostatici o piccoli droni alimentati ad energia solare. Il concetto é quello di creare una copertura dall’alto di segnali 3G o LTE in posti dove é difficile installare antenne.

In questo video la Bloomberg richiama l’annuncio

Il progetto sembra lodevole per poter portare copertura in paesi dove gli investimenti sono bassi ma il dubbio sulla sua applicabilitá e sopratutto sulla sua redditivitá rimane alto.

Redditivitá?

Eccolo qui il capitalista come potrebbero pensare gli amanti “del vogliamoce tutti bene” e “del mondo vive anche senza capitali”.

Ebbene Sí, redditivitá poiché come qualcuno forse sa i soldi non si creano dal nulla ma crescono se si investono. Certo si possono stampare ma con il grosso problema che poi se sono troppi si svalutano.

Quindi come in ogniddove accade in questo mondo per ogni investimento c’é sempre un capitale che deve rientrare con una rendita altrimenti nessuno lo farebbe. Nessuno va in perdita, anche un contadino che pianta pomodori, patate, zucchine lo fa investendo il suo tempo e i suoi soldi per poi rivendere il frutto del suo lavoro ad un prezzo che copra i costi e gli dia una rendita. Magia.

E quindi Google?

Google invece non segue queste regole ma ha semplicemente una quantitá di soldi che si puó permettere di “sprecare”. Eh sí perché Google ha un cosiddetto “Business model” tutt’altro che innovativo ma vecchio di almeno 40 anni. La pubblicitá, con la grossa differenza che ha praticamente il 90% del mercato On-Line. Avete idea di quanti dollari incassa Google ogni giorno per promuovere i suoi clienti su Internet? Quanti “click” vengono fatti ogni giorno su annunci gestiti da Google? Tanti vi assicuro… tanti.

Google investe in tanti progetti senza avere bene in mente dove sta il rientro economico, almeno mi danno quest’impressione. Voi etici dell’ultimo minuto direte: “Avanti cosí, innovazione senza capitalismo?” Invece no, é semplicemente una condizione fortunata (e monopolista) ma non standard. Gli altri lottano sul mercato mentre Google domina essendo quasi l’unico. Ti piace giocare facile, vero?

Ma torniamo agli “stupefacenti acquisti” del team di Google come da titolo. Il Senior Vice President elenca tutti i vantaggi del “cloud” di Google o del Sistema Operativo Android. Sono tutte veritá ma il concetto di investimento/rendita non torna. Android é nato dopo il boom di Apple su Smartphone. Apple ha rivoluzionato le telecomunicazioni inventando lo smartphone. Apple ha creato l’iPhone con una ben precisa idea di business e Google ha poi successivamente realizzato che le reti mobili avevano un grande potenziale. Chi é il vero innovatore? Quello che ha inventato qualcosa e con le rendite della sua innovazione ha continuato ad investire (e fare soldi: Il cattivone). Una strada un pó diversa rispetto a Google.

Adesso gli stupefacenti palloni in aria che garantirebbero una connettivitá universale mi sembrano una altro bel giochetto che suona Cool ma che vedo di difficile applicabilitá. Lavoro nelle TLC da quasi 20 anni, probabilmente sono invecchiato con loro ma ancora credo (e vedo) che la connettivitá la offrono solo gli operatori mobili e fissi non Google. Spero di sbagliarmi e nel prossimo futuro le reti saranno gestite dai Google baloon ma ho quanche dubbio sulla loro fattibilitá. Le aree mondiali non coperte sono spesso anche ambientalmente difficili e probabilmente hanno anche una densitá di popolazione che non garantisce un rientro degli investimenti. Anche spedendo in aria questi palloni aereostatici o droidi ad energia solare come posso garantire il servizio? Capisco che le aree possano essere un pó “sfigate” ma come posso dire ai clienti: “Scusate oggi non c’é connettivitá perché il vento era troppo forte”. Se proprio una connettivitá deve scendere dall’alto é piú probabile che capiti con tecnologie attualmente giá esistenti come i satelliti ma attraverso dei palloni gonfiati proprio non riesco a concepirla. Sará la vecchiaia che fossilizza i miei neuroni.

Aspetteró questo fantomatico futuro per capire chi ha ragione ma ho l’idea che se Google perderá parte del suo monopolio forse le cose cambieranno. I soldi da investire buttare in questi giochetti saranno drasticamente ridotti e forse capiremo qual’é la differenza fra investimenti per ricchi e la dura realtá del vero mercato delle telecomunicazioni, quello reale e non quello “campato in aria”.

Il Video Ultra HD in rete e l’Italia sempre in coda al broadband

4k-vortex-620x465Il futuro dell’alta definizione sembra avere grandi potenzialitá. L’attenzione per i servizi ad alta definizione diventa sempre piú grande e confermo personalmente che anche nelle comunicazioni interne della mia azienda vedo un sempre e piú crescente interesse per i servizi video ad alta definizione o Ultra HD e sopratutto l’analisi del loro impatto in rete.

Non é un argomento nuovo per questo blog il video su Internet sta negli ultimi anni misurando un incremento elevatissimo superando ormai l’utilizzo dei supporti tradizionali come i DVD. La gran parte del traffico Internet é video. Tutti usano YouTube e nuovi protagonisti dei contenuti Video On Line come Netflix stanno sbarcando anche in Europa (questo mese Netflix é atterrato in Germania).

YouTube giá da tempo fornisce contenuti video ad alta definizione e Netflix offre giá il servizio “4K Video”.

Il 4K video é un nuovo formato per la cosiddetta Ultra HD. Sono giá molti i prodotti (televisori e smart TV) disponibili nel mercato in questo formato e sempre di piú i contenuti disponibili in 4K.

Quando questa tipologia di formato viene trasmessa attraverso la rete, i requisiti di banda per gli streaming sono estremamente sfidanti:

  • Basic 4K da 15Mbps a 20Mbps
  • Standard 4K da 30Mbps a 50Mbps
  • Ultra 4K da 50Mbps a 100Mbps

Possiamo facilmente immaginare quali requisiti debba avere la rete se pensiamo che ogni utente Netflix che richiede un contenuto video 4K rimane collegato per tutta la durata del film generando un traffico medio e costante attorno ai 15-20Mbps, .

Se moltiplichiamo questa banda per tutti i possibli utenti Netflix ovviamente il carico inizia ad essere decisamente alto e soprattutto a velocitá costante. Mentre Il semplice traffico generato dal browsing con Facebook, Google era a picchi e mediamente basso, Il video ha invece un profilo quasi costante e di valore molto alto.

L’azienda Akamai ha da poco rilasciato il suo periodico report sullo “Stato di Internet” (dalla Home page potete scaricare la versione completa registrandovi sul sito).

Il report analizza svariati aspetti di rete come la sicurezza (analisi sugli attacchi informatici a livello mondiale), la geografia e la penetrazione dell’accesso ad Internet nel mondo e i dettagli per le varie zone: USA, Europa, Asia, Africa, Medioriente etc.

Per la prima volta in questo report, Akamai ha inserito un’analisi relativa al video 4K.

Akamai non fa altro che analizzare a livello mondiale quali operatori sono giá pronti per poter fornire il servizio video 4K ovvero quali sono i paesi dove la banda media di accesso é fra i 10 e i 20 Mbps.

In generale Akamai osserva che solo 47 paesi sono qualificati per questa analisi e di questi il 23 hanno una percentuale di accessi “4K ready” oltre il 10% mentre 6 sono sotto l’1%. La percentuale minore si osserva in India e Cina dove gli accessi sopra i 15Mps rappresentano rispettivamente lo 0,3% e 0,2%. Ovviamente i valori non stupiscono considerata la popolazione di questi due paesi.

Qui sotto la tabella dei primi paesi giá pronti per il 4K dove si vede straordinariamente la Corea del Sud con una percentuale del 60% di accessi ad oltre 15Mbps. L’Italia stranamente non risulta nemmeno     in questa classifica.

4k Readiness

I paesi Europei che si distinguono in questa classifica sono Svizzera, Olanda e i paesi scandinavi che seguono a ruota le prime tre posizioni asiatiche.

E l’Italia?

Nulla sembra cambiare nel nostro paese per le condizioni delle reti Broadband. La 3a/4a economia Europea é sempre di piú lontana da quello che il mercato delle telecomunicazione richiede per essere competitivi. Lo avevamo giá scritto qui a suo tempo e nulla sembra essere cambiato o in procinto di cambiare. Purtroppo.

A riguardo del “4K ready” L’Italia si piazza al 38o posto seguita in classifica solo da Turchia, Sud Africa e Emirati Arabi e molto distaccata dagli altri paesi Europei come si vede in tabella qui sotto.

4k Readiness-EMEA

Ma senza voler per forza essere i piú veloci qual’é la situazione dell’Italia in generale per quanto riguarda il Broadband?

Qui sotto alcune tabelle relative agli accessi Broadband in Europa/Medio Oriente/Africa (EMEA):

Velocitá Media di Accesso

Average Access Speed EMEA

L’Italia si posiziona Globalmente al 47 posto e in Europa/Medio Oriente/Africa fanno peggio solo Turchia, Emirati Arabi e Sud Africa.

Ma se la velocitá media non é il nostro forte anche quella di picco (ovvero il meglio misurato nel paese) é ancora peggio. Qui l’Italia va al 67o posto seguita solo dal Sud Africa.

Peak Access Speed EMEA

Se invece proviamo a guardare a velocitá piú alte verso i 10Mbps vediamo che la situazione continua a rimare stabilmente al fondo classifica e l’Italia risulta sempre e solo migliore di Turchia, Sud Africa e Emirati con un magro 3,2% di accessi oltre i 10Mbps. Il confronto con gli altri paesi Europei é vergognoso se si guarda ad una Svizzera don il 45%, una Germania al 21%, Francia e Portogallo al 12%, Spagna al 16%.

10Mbps Access Speed EMEA

Personalmente ritengo che questa percentuale cosí bassa é solamente frutto del servizio di Fastweb, unico in Italia a fornire fibra che arriva fino ai 100Mbps ma purtroppo il numero di clienti non riesce a spostare la media nazionale. Senza Fastweb la notrsa situazione sarebbe ancora peggiore.

Purtroppo non é una questione di velocitá perché se anche consideriamo accessi a velocitá piú basse (4Mbps) la situazione non riesce a decollare e rimaniamo sempre fanalini di coda e veniamo superati pure dalla Turchia.

4Mbps Access Speed EMEA

La situazione Italiana migliora leggermente nei servizi mobili ma questo non puó essere preso a giustificativo della penosa situazione degli accessi fissi. Io personalmente nell’anno 2014 (quasi 2015) continuo a non avere nemmeno un accesso fisso disponibile nel mio paese in provincia di Torino (a 20Km dalla cittá). Ridicolo e imbarazzante.

La strada é lunga ma sembra che per i Governi che ci gestiscono e gli operatori che offrono il servizio ci sia sempre tempo per gli investimenti. La mia personale esperienza lavorativa mi ha ovviamente sempre portato ad avere rapporti con il mercato Italiano e posso dire che le guerre politiche sono sempre il miglior sport nazionale dopo il calcio. Nessuno (grossa colpa va comunque a Telecom Italia) é mai riuscito a migliorare la situazione e gli enti preposti al controllo (AGCOM) invece di velocizzare il processo di sviluppo sono riusciti solo a demolirlo in partenza.

In Italia gli interessi politici sono sempre stati piú forti delle reali necessitá di un paese anche nel mondo delle telecomunicazioni e la situazione non sembra migliorare.

Nel 2014 l’accesso Broadband é un servizio parificabile ad acqua, luce e gas per il ruolo che ricopre ma nel nostro paese I burocrati non sembrano essersene accorti preferendo vivere sommersi dalle loro carte invece che provare a scrivere qualche mail in piú.

E il 4K in Italia?

4K cosa?

 

 

 

 

Il broadband ovvero la Banda Larga é un servizio che negli ultimi anni ha preso sempre piú spazio nella vita di ogni giorno. Un numero sempre piú elevato di attivitá anche sociali si sono spostati nel web. Molti servizi di telefonia tradizionali sono quasi scomparsi soppiantati da applicazioni. Io per esempio nonostante spenda tutta la mia attivitá lavorativa nell’ambito tecnologico delle telecomunicazioni mi sento spesso un pesce fuori d’acqua perché non utilizzo nessun servizio dati sul mio smartphone. Praticamente sono connesso solo quando sono a casa fra le mie quattro mura e pesno di essere uno dei pochi sopravvissuti che continua ad inviare SMS. La ragione principale per cui WhatsApp non é un mio strumento preferenziale forse é che non pago il traffico telefonico. Io peró non rappresento la media mentre la stragrande maggioranza delle persone ormai da tempo ha un contratto che gli consente di essere sempre connesso alla rete attraverso la rete mobile.

Il mondo delle telecomunicazione é fortemente cambiato dopo l’introduzione dell’iPhone e anche le abitudini delle persone si sono sempre piú legate alla “rete”.

Ma qual’é la situazione globale del mondo “broadband”?

Apple SIM: La nuova sorpresa della mela morsicata e probabile rivoluzione per gli operatori mobili

silver-apple-logoE ancora una volta la Apple ci stupisce di nuovo. Questa volta il passo é di nuovo molto ampio, non tanto per la tecnologia ma per l’impatto sul mercato della telefonia mobile.

Ieri 16 ottobre é stato presentato il nuovo modello dell’iPad Air 2. L’evento poteva passare tranquillamente alla memoria storica della tecnologia ma questa volta qualcosa di nuovo é stato introdotto. Non ha fatto direttamente parte della presentazione ufficiale ma é comunque parte della nuova offerta di Apple. Sto parlando della AppleSIM.

Non si tratta di una novitá tecnologica in senso stretto, personalmente non conosco nemmeno quali differenze qualitative questo nuovo iPad puó avere con quelli precedenti, immagino: Il piú sottile al mondo, il piú potente e blablabla. La vera e grossa novitá é invece relativa al rapporto con gli operatori mobili. Apple ha infatti introdotto l’Apple SIM ovvero quello che viene anche chiamata Software SIM.

Con la software SIM il dispositivo non ha piú bisogno di alloggiare fisicamente una SIM di un operatore specifico ma le sue funzionalitá sono nel dispositivo stesso che puó lavorare con differenti operatori semplicemente agendo su modifiche software.

Questa novitá é sicuramente qualcosa che puó radicalmente cambiare il mercato e in qualche senso far preoccupare gli operatori mobili. In questo caso il fornitore del dispositivo (Apple) é in grado con il suo marchio di attirare clientela e gestire le relazioni con gli operatori con un certo potere di negoziazione per  prezzi e tariffe. In pratica l’utente appartiene ad Apple e non all’operatore mobile.

Con la software SIM un utente puó spostarsi in un paese estero e invece di dover pagare alti costi di roaming (spesso anche non disponibili per tariffe dati) puó semplicemente acquistare pacchetti di accesso agli operatori che offrono compatibilitá con l’Apple SIM nel paese estero. Durante un viaggio negli Stati Uniti puoi comprare per esempio un pacchetto da 2Gb di traffico da AT&T scegliendolo semplicemente dal display del tuo iPad.

Pochi operatori hanno stretto un accordo con Apple al momento: negli US AT&T, Sprint and T-Mobile mentre in Europa solo EE in UK.

Attualmente gli operatori offrono i prodotti Apple facendo leva sulla durata obbligata del contratto di 18-24 mesi. In questo modo possono offrire un pagamento dilazionato ai clienti, offrire il marchio Apple e mantenere piú a lungo i clienti. Questo tipo di contratto non sará piú possibile perché con la Apple SIM é l’utente che decide liberamente di spostarsi da un operatore all’altro a seconda dei suoi gusti, interessi particolari o qualitá dei servizi offerti.

Insomma vedremo in quale tipo di contratto prenderá forma questa nuova interazione con gli operatori. Facile aspettarsi importanti cambiamenti nel rapporto con i clienti e un potere crescente per i fornitori di hardware con  marchi forti come Apple.

La Apple SIM non sembra peró essere disponibile per iPhone. Molto probabilmente sarebbe stato troppo distruttiva e controproducente per tutti o semplicemente il mercato dei Pad, piú ridotto in volumi, é quello che piú ha bisogno di nuove tipologie di contratti flessibile per migliorare la mobilitá e rilanciare le vendite.