28.8.11

Mr. Doonesbury?

COME OGNI DOMENICA, anche in trasferta (grazie a Blogsy), Garry B. Trudeau con Doonesbury.

Nuove professionalità: "specialista di slide show"

SE, VENTI ANNI fa, avessi saputo che questo era il futuro del giornalismo, sarei andato volentieri a lavorare in banca come suggeriva mio nonno.

Money quote: Per un giornalismo sostenibile emergono nuovi ruoli, oltre ai blogger e reporter multimediali.
1. «Ottimizzatore di titoli»: un tempo funzionavano le battute ad effetto, oggi devono invogliare il clic e contenere le parole chiave per finire su Google.
2. «Social media reporter»: naviga per intercettare le news (per esempio su Twitter) e verificarne l’attendibilità.
3. «Detective dei dati»: sa dove trovare le informazioni, le analizza e sceglie quando e come condividere le notizie che ne emergono (Wikileaks insegna).
4. «Curatore capo»: sostiene il caporedattore centrale facendo da filtro alle troppe informazioni che lo sommergono.
5. «Giornalista esplicativo»: risponde alle domande che restano inevase dalle notizie.
6. «Redattore virale»: promuove il proprio giornale, richiamandolo ovunque in Rete ed evidenziandone le parti più interessanti per aumentarne la visibilità.
7. «Specialista di slideshow»: crea gallerie fotografiche, bilanciando senso giornalistico e capacità tecniche.
8. «Crowdsourcer»: coinvolge gli internauti più inclini a fare giornalismo e li utilizza al meglio.
9. «Creatore di ebook»: perchè i giornali in formato iPad e simili è una delle poche forme di media digitali che la gente sembra disposta a voler pagare.
10. «Sviluppatore Web»: quelli esistenti sono autodidatti, ma è un ruolo sempre più necessario nei giornali per continuare a innovare le edizioni online.

26.8.11

Cebit, le fiere e la livella di Internet

VADO ALL'ENNESIMO CEBIT, la fiera dell'elettronica di Hannover. Non c'è una notizia a cercarla con il sonar. Gli annunci sono già stati tutti fatti. Addirittura Steve Jobs, che ha cancellato gli eventi di Apple (MacWorld) lo ha detto esplicitamente: le fiere sono morte. Mi si accende la lampadina: questa è la notizia! Interessante, soprattutto pensando che Milano sta scommettendo pesantemente sull'Expo 2015.

Abbandonate, svuotate, lasciate a loro stesse. Le grandi kermesse dell’elettronica mondiale stanno lentamente scivolando nell’oblio: adesso tocca al Cebit di Hannover, che si apre in questi giorni in Germania nell’indifferenza generale. Complice la crisi finanziaria, certo, quest'anno le stime dei visitatori sono al ribasso anche rispetto ai risultati peraltro deludenti della scorsa edizione. «La crisi finanziaria ha solo accelerato un processo che è autonomo e inarrestabile», spiega un espositore. «Il fenomeno è ben conosciuto nel settore», aggiunge un altro. Insomma, esplicitamente nessuno lo dice, ma molti temono che in realtà sia finita l’era delle fiere.

Non quelle di specializzate, aperte solo agli addetti ai lavori. No, sono finite quelle generaliste, in cui il pubblico paga il biglietto per entrare. Soprattutto nel cuore dell’elettronica di massa e dell’informatica di consumo. Colpa di Internet, si dice, ma anche delle grandi aziende. Queste, infatti, monopolizzano il settore e hanno deciso di investire le loro risorse in modo diverso. Le novità le lanciano altrove, la rete è il loro megafono e le fiere sono solo costosi cataloghi patinati destinati a scomparire.

Per trovare davvero le ultime novità, insomma, non bisogna andare al Cebit. Basta seguire su Internet gli eventi speciali organizzati dalle varie Sony, Samsung e Apple.

Prendete il Macworld di San Francisco dello scorso gennaio, ad esempio, organizzato da Idc. È stato definito come una convention di Star Trek senza Leonard Nimoy, perché Apple non c’era. L’evento clou degli appassionati della mela è stato abbandonato da Apple perché, ha dichiarato un anno e mezzo fa Steve Jobs, passano più persone nei 200 negozi monomarca dell’azienda in un giorno che non in tutta la settimana al Moscone Center. E quando bisogna annunciare qualcosa di nuovo, come l’iPad, Apple preferisce convocare stampa e pubblico Vip quando vuole lei, con annesse dirette su Internet.

Stessa filosofia per Samsung, che per presentare i nuovi televisori lanciati durante il Ces di Las Vegas a inizio gennaio, ha organizzato anteprime coreane per la stampa a dicembre e post-Ces a Vienna lo scorso febbraio. La rete l'ha premiata. E Sony, se vuole dire qualcosa di interessante ad esempio per la sua PS3, non organizza una conferenza stampa “affogata” nei saloni del Cebit: si è affidata a blogger e testate online convocate a Londra per presentare l’inedito multiplayer di massa “Mag”.

Non bisogna sbagliarsi, però: le fiere specializzate resistono; rimangono un luogo di incontro per gli operatori di settore. La crisi è tutta per quelle generaliste, ben più grandi e costose. Sono luoghi d’incontro col pubblico meno efficaci rispetto ai blog aziendali, alle reti di relazioni generate da Facebook, alle dirette su Twitter o agli atelier monomarca che i grandi brand dell’elettronica hanno costruito nei castelli della grande distribuzione organizzata.

Oggi è la grande fiera ad essere tagliata fuori dalla livella di Internet.

25.8.11

Steve Jobs

NON MANCA MOLTO, purtroppo. Il nuovo passo in avanti di Steve Jobs, che si è dimesso da Ceo di Apple, è un segnale chiaro che il suo tempo è agli sgoccioli. Ne scrivo su Macity.

23.8.11

Lynne Heitman

NON HA AVUTO successo in Italia. Peccato. Ma non è strano: Mondadori ci ha provato traducendo i primi due libri (dai rilegati sono fini anche nelle edizioni dei Gialli Mondadori) ma a quanto pare non è destino che Lynne Heitman sfondi da noi. Forse non ha sfondato neanche a casa sua, almeno a giudicare dalla mancanza di una voce su Wikipedia e dal trattamento non proprio di prima classe su Amazon o da parte dei suoi editori. Su quattro libri, infatti, due sono stati pubblicati in inglese con due titoli diversi (di solito succede nel passaggio dall'editore americano a quello britannico).

Ho trovato e letto i primi due in italiano (il primo comprato su una bancarella quasi due anni fa, il secondo poche settimane fa su eBay). Sono gialli, anzi thriller, ambientati nel mondo delle grandi compagnie aeree americane. La Heitman ha lavorato per un sacco di tempo nel settore, e ha tratto ispirazione da questo per scrivere il suo primo libro. È una specie di fantasia infantile ben sviluppata e strutturata: la protagonista è il suo alter ego (una giovane donna-manager che lavora per una grande compagnia aerea fittizia, single e ossessionata dallo sport) e si chiama Alex Shanahan. Indaga nel primo romanzo sull'omicidio della donna che l'aveva preceduta nel suo ruolo di manager della Majestic all'aeroporto di Boston, e nel secondo sulla morte di un amico a Miami.

Gli elementi ci sono tutti: rischio, emozione, indagine, sesso, aerei (tanti aerei) e colpi di scena in abbondanza, alle volte fin troppo truculenti. Vale la pena di leggere i due romanzi? Sotto l'ombrellone sicuramente. Sono quattrocento pagine a botta che se ne vanno via lisce lisce in tre giorni sulla sdraio. Non la candiderei al Nobel per la letteratura. Ma chiederei lo stesso a Mondadori di farci un pensierino, sui due volumi successivi. Almeno per risparmiarmi la fatica di ordinarli su Amazon e leggermeli in inglese.

Notte di decollo
438 pagine, gennaio 2001

Fuori controllo
402 pagine, settembre 2003

21.8.11

19.8.11

L'era della divergenza

VIENE FISSATA L'INTERVISTA con il co-fondatore di Akamai, Tom Leighton, e non posso non pensare alla storia del suo socio, il suo studente più brillante all'università, scomparso su uno degli aerei dell'11 settembre (era un ex corpo speciale dell'esercito israeliano e sedeva in business class accanto a uno dei dirottatori). Oppure pensare a quante volte ho visto il marchio negli streaming dei provini dei film diffusi da Apple sul suo sito. Mi aspetto una storia in cui la convergenza la fa da padrona. Invece no. Leighton è uno gentile ma tosto. Ha già fatto le sue previsioni e ha già astratto tutto: lo stigma di chi ha la matematica innervata alla base del suo cervello.

L’era della divergenza. Quella in cui le nicchie dominano: enormi, differenziate, autosostenibili. La rete, il nuovo modello del “distributed computing”, il cloud computing. La conseguenza è la fine della convergenza: protocolli, sistemi operativi, piattaforme, sistemi applicativi, apparecchi. Dopo trent’anni in cui il personal computer è stato la macchina totalizzate, si apre l’era della divergenza e della mobilità.

Tom Leighton lancia la provocazione e poi si ferma. Seduto dall’altra parte di un tavolo di una piccola sala per riunioni a Milano, di passaggio prima di visitare dei clienti, sorride: «Il modello del “distributed computing” - dice – cresce, non solo per chi vende apparecchiature di rete come fa Cisco, ad esempio, ma anche per chi fa accelerazione di applicazioni, streaming, proxy, distribuzione di “rich content” come noi».

“Noi” è Akamai Technologies, fondata nell’agosto del 1998, 860 milioni di dollari di fatturato nel 2009, 2mila dipendenti con 550 impegnati in attività di ricerca e sviluppo . «Noi – aggiunge Leighton, che è anche professore di matematica applicata al Mit di Boston, una autorità nello studio degli algoritmi di rete e una dei più rispettati membri della “Special interest group on algorithms and complexity theory” della prestigiosa Association of computer machinery – abbiamo ancora la stessa slide della presentazione usata durante i roadshow di undici anni fa, che descrive il nostro business: ci occupiamo di distribuire contenuti e accelerare le applicazioni con una piattaforma molto distribuita».

Leighton aveva fondato la sua società con il più brillante fra i suoi studenti, Daniel Lewin, insieme al quale aveva realizzato dei rivoluzionari algoritmi per l’ottimizzazione del traffico di dati su Internet. Lewin è scomparso tragicamente a bordo di uno degli aerei dell’11 settembre, mentre il business è andato avanti e Akamai è cresciuta diventando il motore “dietro” alla maggior parte delle trasmissioni attraverso la rete. Sono 73mila i server di Akamai in tutto il mondo che costituiscono la più grande piattaforma diffusa per l’instradamento dinamico dei contenuti via Internet. «La nostra azienda continua a crescere. La cosa che facciamo di più è fare in modo che i nostri clienti, soprattutto in ambito commerciale, non si debbano preoccupare di niente. Sistemi applicativi, piattaforme, sistemi operativi, framework e middleware: lavoriamo con tutto e facciamo funzionare tutto».

Proprio da questa posizione unica di Akamai è possibile avere uno sguardo diverso e più “profondo” sulla trasformazione in corso nella rete: «Internet è inerentemente insicura: lo sono i suoi protocolli. La criminalità lo ha capito e lo sfrutta. L’IPv6, la tecnologia di assegnazione degli indirizzi internet più ampia dell’attuale in esaurimento, è utile per questo. Non serve per dare un indirizzo IP alla spina elettrica o al frigo, ma per poter mantenere l’attuale stile di vita e anzi migliorarlo».

Nel mondo di Akamai Internet sta letteralmente esplodendo: cresce la rete, cresce il numero di server (50 milioni in tutto il mondo, un milione nelle mani della sola Google) e cresce il bisogno di affidabilità, flessibilità, continuità e scalabilità. Nella nuova stratificazione dei fornitori di servizi e di tecnologie, Akamai continua a mantenere un posto di rilievo: «Quel che sta succedendo oggi con il cloud computing noi lo facciamo dalla nostra nascita per missione sociale. Oggi bisogna mettere i server vicini ai clienti dei tuoi clienti. Noi mettiamo i nostri server ovunque. Collaboriamo con tutti, Apple, Google, Cisco, Hp e tutti gli altri. Siamo presenti più nello spazio consumer che non in quello enterprise, ma stiamo entrando anche nelle Intranet, con alleanze con Ibm tra gli altri».

Solo un esempio: il settore dell’editoria, dice Leighton, è innamorato di Akamai. «L’80% dei grandi gruppi usa la nostra tecnologia e servizi. Streaming e accelerazione in rete per giornali e televisioni. Non possiamo fare i nomi, ma parliamo dei quattro quinti dei primi 30 al mondo. Anche in Italia».

Il futuro? «Non ci sarà un apparecchio unico che fa tutto. Invece, ci sono molti fiori che fioriscono: fa parte delle opportunità che vengono con la diversità. Le nicchie producono mille idee. Ci danno più possibilità. Poi alcune tecnologie matureranno di più e dureranno più a lungo. Come Flash contro Html5. La cosa buona della diversità è che stimola la creatività. La cosa meno buona è che ha costi più alti».

18.8.11

Quella fregatura di Second Life

CICLICAMENTE SI TORNA a parlare di SecondLife, il socialnetwork/metaverso che avrebbe dovuto cambiarci la vita ma che a quanto pare non ce l'ha fatta. Il problema è che se ne torna a parlare male e con poche informazioni. Di solito i giornali italiani fanno pezzi tipo "Che fine ha fatto SecondLife?" e ci mettono dentro che è un posto squallido e deserto, privo di turisti virtuali, dedito al limite al racket della prostituzione, esibizionismo e varie amenità di questo tipo. Un ottimo esempio è questo su Wired nostrano.

Money Quote: Second Life è una bella metafora della decadenza. Viene lanciato nel 2003 con l’intenzione, quasi rinascimentale, di creare una società nuova. Il Web cambia, passano le mode e Second Life inizia a spopolarsi: isole deserte, scuole abbandonate, piazze abbacinanti che sembrano uscite da un quadro di De Chirico. Come in tutti i mondi post-apocalittici gli unici commerci che rimangono vitali sono quelli legati al vizio. Prostituzione, pornografia e chat proibite. E pensare che ai bei tempi c’era chi ci voleva spostare scuole e atenei.


Il punto è che, scorciatoie e furbizie come quelle di Wired a parte, poi arriva puntuale l'assalto delle Teste di Cuoio di SL. I partigiani che ti spiegano in maniera neanche sempre educata che SL va meglio adesso che non prima, che se volevi farti un giro glielo dovevi dire e ti avrebbero portato loro dove ci sono le cose belle e quando ci sono le cose belle, e via dicendo. Una reazione forte, dettata sicuramente da passione e frustrazione, ma un po' sopra le righe. Una cosa costruttiva viene fuori, ogni tanto. Ad esempio il link a un articolo di LeMonde.

Money Quote: Depuis le milieu des années 2000, les mondes virtuels résistent aussi plutôt bien à la concurrence des réseaux sociaux comme Facebook, qui revendique 750 millions d'inscrits. "Les réseaux sociaux sont plus gros, parce que les barrières à l'entrée sont très basses. Mais on peut aussi concevoir les univers virtuels comme des réseaux sociaux en trois dimensions", poursuit M. Mitham.

Pour M. Au, les "mondes virtuels ont également poussé les réseaux sociaux à évoluer". "Une grande partie des utilisateurs de Facebook se divertissent sur des jeux sociaux qui possèdent des avatars et des biens virtuels, comme dans les metavers", ajoute-t-il. IMVU, l'un des mondes les plus populaires, adopte la stratégie inverse, incluant désormais une dimension sociale dans son univers en trois dimensions.


A me era capitato di fare l'inviato speciale radiofonico su SL per Radio24, qualche anno fa. Un'epoca che non rimpiango. E ho provato la "spinta" dei partigiani di SL quando mi è capitato, più di recente, di scriverne. Nonostante tutto il fenomeno non mi appassiona: i social network 3D non sono la mia cosa.

17.8.11

Intercloud, la nuvola delle nuvole

DURANTE UNA INTERVISTA con Vinton Cerf, alcuni anni fa, il padre del Tcp/Ip (assieme a Bob Kahn) mi disse: la vera sfida del futuro non è il Cloud di per sé, ma il coordinamento tra le diverse nuvole: le varie private tra loro e con quelle pubbliche, comunitarie etc". Uno o due anni dopo ripresi questa idea assieme ad altre (l'informatica come scienza di astrazioni) per un fogliettoncino di prima.

L’informatica, si sa, è la scienza delle astrazioni. In un certo senso, è fatta tutta dai mattoncini del lego. Si definisce un concetto, si costruisce uno strumento, e la macchina diventa capace di eseguire il lavoro, lasciando al programmatore la libertà di occuparsi di problemi più complessi a un livello di astrazione superiore. Detto in un altro modo: si crea il mattoncino di lego, si capisce come unirlo ad altri mattoncini e si passa a costruire una struttura più complessa.

Gli esempi li abbiamo sotto gli occhi tutti i giorni. Dopo aver imparato a collegare due computer tra loro, si sono cominciate a costruire le reti locali. Dalla fine degli anni Sessanta la cosa più naturale, sulla spinta degli investimenti del governo americano, è stata quella di unire le reti locali costruendo una “rete di reti”, cioè Internet. Risolta la complessità dei singoli collegamenti, è stato possibile lavorare sull’architettura a un livello superiore di astrazione.

Con il Cloud computing, si torna ai mattoncini del lego: una erogato il primo servizio informatico (una risorsa di calcolo, uno spazio su disco condiviso), si è passati a unire questi nuovi mattoncini del lego costruendo la “nuvola”, che dal punto di vista dell’utente è un unico fornitore ma che al suo interno ha la complessità e la ricchezza di centinaia di server eterogenei.

Con il Cloud sempre più diffuso tra utenti consumer e le aziende, l’informatica è diventata, da risorsa strategica sulla quale operare pesanti investimenti, un servizio da acquistare on demand. Il software come servizio (SaaS) è una possibilità quotidiana. Secondo Gartner, tutto il mercato del SaaS nel 2010 vale 9,2 miliardi di dollari, in crescita del 15,7% rispetto all’anno scorso.

Ma la nuvola non è il punto di arrivo. Per quanto potente e ricca di risorse, la Cloud di un singolo fornitore è comunque una risorsa limitata. SalsesForce, Google, Microsoft, Amazon e tutti gli altri hanno comunque limiti di capacità e costi marginali crescenti che alla fine limitano il numero di centri di calcolo che possono costruire. Per questo la nuova frontiera, cioè il nuovo livello di astrazione, è “l’Intercloud”, la nuvola delle nuvole. Cioè la possibilità di coordinare tra loro le differenti Cloud di diversi fornitori, per rendere interoperabili i servizi e far scalare ulteriormente le risorse e la potenza di calcolo.

Il livello di complessità di questo traguardo, che è ancora da raggiungere, è enorme. Vuol dire ripensare il modo in cui sono strutturate le nuvole, inventarsi il modo in cui collegarle, far dialogare fra loro sistemi nati per essere in piena competizione e molto poco compatibili.

Insomma, niente di nuovo sotto il sole. Anche la nuvola sta diventando un mattoncino del lego digitale e gli informatici cominciano a progettare un oggetto digitale più complesso a un livello di astrazione superiore. Intercloud, la nuvola delle nuvole, è il livello superiore verso il quale andiamo.

15.8.11

Terry Pratchett

A ME PIACCIONO molto i romanzi di Terry Pratchett, uno scrittore inglese di fantasy umoristico (la saga di DiscWorld è la seconda più venduta dopo quella di Harry Potter), che purtroppo tre anni fa si è ammalato di una forma piuttosto grave di Alzheimer. Adesso scopro che qualche settimana fa ha iniziato le pratiche per il suicidio assistito in Svizzera.

Money Quote: He said he changed his mind “every two minutes” but added that if he did choose to die would prefer to do so in England and in the sunshine.
Sir Terry, creator of the Discworld novels, was 60 when he was diagnosed with terminal condition and has since campaigned passionately for a change in the law to allow assisted suicide in Britain.
He has complained that people who wish to undergo the procedure under the current system are forced to commit suicide earlier than necessary because they have to go to Switzerland before they are too ill to travel.

14.8.11

To think this was a once proud institution...

ANCHE DURANTE L'ESTATE c'è il nostro Doonesbury, portato ogni domenica da Garry B. Trudeau.

13.8.11

C'è una app per tutto

COSA SONO LE app, in realtà? Da dove vengono fuori? A cosa servono? Sono un po' come i podcast, cioè una distribuzione e gestione automatizzata degli mp3? Una volta ho provato a raccontare la storia dell'App Store di Apple partendo da un po' più lontano.

In principio fu il widget. Un pugno di codice javascript e html che doveva rispondere al fallimento dei micro-siti wap per i già vetusti cellulari Gsm. I widget erano delle applet, delle mini-applicazioni, capaci di fare una cosa sola o poco più: estrarre i dati da un sito web e mostrarli in modo più efficace sullo schermo bonsai del cellulare.

Era il 2000, sembra la preistoria. Dieci anni dopo le app dominano il nuovo mondo dei telefoni intelligenti. Al mondo esistono più di tre quarti di milione di app su diverse piattaforme, per un valore complessivo di 2,2 miliardi di dollari nel 2010, in netta crescita rispetto ai 1,7 miliardi dell’anno prima.

Non tutte le apps sono create uguali. Il termine stesso è ambiguo: è l’abbreviazione di “applicazione” ma si usa solo per il software scaricabile su telefono cellulare e, da pochi mesi, anche tablet evoluto. Le app possono essere scaricate da siti web, attraverso piattaforme proprietarie, da negozi indipendenti. Nella prima metà della vita di questo mercato, circa dal 2000 al 2006, le app erano fornite direttamente dai siti degli sviluppatori o da portali indipendenti. Bisognava sempre passare dal Pc, ma siti web come Handango (nato nel 2000 oggi con 190mila apps), GetJar (2004, con 68mila app) e MobileRated (2006, con 55mila app) contano insieme per più di un miliardo e mezzo di download complessivi. Hanno servito con onore piattaforme come Palm, Symbian, Java, Windows CE, addirittura Brew, Epoc e altre adesso dimenticate.

Poi Steve Jobs, dopo aver presentato a gennaio del 2007 l’iPhone con solo 11 applicazioni immodificabili e aver sostenuto che per il resto bastasse il web, a luglio del 2008 ha clonato la struttura dell’iTunes store (quello su cui si vende musica, film e telefilm) anche nel mondo delle applicazioni. Costruendo un sistema blindato: gli sviluppatori devono pagare 79 euro l’anno per sviluppare il software, aderire pienamente alle linee guida tecniche e anche di contenuto, sottoporre ad approvazione il loro lavoro e finalmente vederlo pubblicato e gestito grazie all’infrastruttura e al sistema di pagamento di Apple. Il successo è stato immane.

È diventata la storia dell’uovo e della gallina capire se è stato l’App Store a consolidare definitivamente il successo di iPhone o viceversa. Fatto sta che le 300mila app fiorite nel negozio di Apple in poco meno di 30 mesi sono state scaricate 7 miliardi di volte. I prezzi medi sono inferiori ai due euro, mentre due terzi delle app sono gratuite.

Apple si è talmente convinta della bontà di questo modello di business che ha deciso di sfruttarlo, accanto al sistema tradizionale, anche per Mac OS X. A partire dal 6 gennaio prossimo, aprirà infatti Mac App Store.

I punti di forza: sistema di pagamento e distribuzione semplificati, gestione degli aggiornamenti centralizzata, struttura a negozio con raccomandazioni e segnalazioni “social”. I limiti: la chiusura. Si installa solo quel che Apple ha prima approvato. I vantaggi per gli sviluppatori, soprattutto i più piccoli, sono però l’abbattimento dei costi di distribuzione e dei sistemi di pagamento. Il modello piace e si diffonde. Sony vende software in questo modo per Playstation Portable, mentre Microsoft lo fa su Xbox 360. Il sistema ci si è accorti che piace, tanto che tutti i grandi produttori di telefoni cellulari si sono costruiti il loro negozio digitale: da Nokia con Ovi su Symbian a Research In Motion per Blackberry fino ancora a Microsoft per Windows Phone. Per tutti, prezzi bassi e una valanga di app gratis.

Tra i tanti, dell’importanza del negozio digitale se n’è accorta soprattutto Google, che ha tratto ispirazione per sviluppare due modelli paralleli. Da un lato, un negozio “tradizionale” per Android, senza barriere di entrata né vincoli di approvazione: si compra, si scarica, si usa. Dall’altro, un negozio “all-in-the-cloud” per Chrome OS, che consente di acquistare e scaricare non sul Pc ma nella propria porzione di nuvoletta: le apps saranno poi raggiungibili nel browser da ovunque ci si connetta.

Insomma, i telefoni cellulari di oggi, gli apparecchi dell’era post-Pc, stanno insegnando anche ai “vecchi” personal computer come gestire il software, le relazioni con gli sviluppatori e i consumatori, la determinazione del prezzo. Ma non è finita qui.

Le dimensioni necessariamente ridotte delle app, la relativa facilità nel programmarle (spesso basta una sola persona) il prezzo basso e la facilità nel distribuirle, hanno creato un mercato fatto di tanti Davide, in cui anche i Golia si sono dovuti adattare alle nuove logiche. Le app hanno uno stile diverso, più casual, più snack. Dopotutto, se usare i nuovi apparecchi touch vuol dire mangiare a mani nude anziché con le posate di mouse e tastiera fisica, anche il consumo del software acquista caratteristiche diverse.

Si chiedono perciò meno funzioni e più contesto: bussola, Gps, giroscopi e accelerometro rendono il telefono “consapevole” dell’ambiente. Così, le app servono per giocare, per leggere libri “aumentati” e interattivi, per avere servizi dai propri fornitori (la compagnia aerea, i treni, il supermercato), o addirittura per correggere il daltonismo.

In una pubblicità dicevano: "C’è un’app per tutto". Forse no, ma ci manca poco.

10.8.11

Yujiapu CBD

COME SI COSTRUISCE una città oggi? E cosa penserebbe Italo Calvino? Guardate il master plan di questo complesso cinese e potete farvene un'idea.

9.8.11

Il sogno del figlio del tipografo

A DICEMBRE DELL'ANNO scorso sono riuscito finalmente a convincere uno degli editori per i quali scrivo a pubblicare una storia che secondo me è importante.
Nell'attuale rivoluzione digitale dell'editoria (di cui tutti vogliono tanto parlare) si tendono a dimenticare un po' di cose. Una di queste secondo me è il ruolo del mondo dell'open source, di quello della ricerca scientifica e di LaTeX in particolare.
Volevo raccontarla, questa storia, perché si intreccia parecchio con quella dell'arte tipografica convenzionale, molto più di quanto non si creda e da molto più tempo. Non è una storia perfetta, ci saranno sicuramente degli errori in quello che ho scritto, ma ci volevo provare lo stesso.


È il figlio di un piccolo tipografo di provincia, nato a Milwaukee nel Wisconsin, il padre dell'arte tipografica digitale open. Donald Knuth, 72 anni, è uno dei più importanti studiosi e docenti di informatica. Ha letteralmente dato forma all’analisi degli algoritmi e delle tecniche di programmazione scrivendo nel 1968 "The Art of Computer Programming", uno dei più importanti e influenti libri sull’argomento. Knuth è tutt’oggi al lavoro sulla sua opera formidabile e solitaria: finora ha pubblicato i primi tre volumi su sette previsti, il quarto è uscito nel 2005 e gli ultimi seguiranno.

Oltre ai nuovi testi, però, Knuth lavora sempre e con certosina precisione per aggiornare i precedenti. È stato proprio aggiornando il primo, nel 1976, che Knuth si è accorto che c'era un problema. Seguendo il gusto familiare, la prima edizione del suo tomo era stata stampata con la tecnologia dell'americana Lanson Monotype Machine Company basata su tipocomposizione a metallo caldo e carattere tipografico Modern Condensed. Ma nel 1976 la tecnologia tipografica era cambiata radicalmente e non erano più disponibili le ottocentesche macchine Monotype. Questo cambiamento per Knuth non aveva solo un impatto estetico. Introduceva invece un problema: la nuova edizione doveva essere "rimontata" da zero, reimpaginando i testi e soprattutto le formule matematiche, complesse e difficili da gestire nella pagina. Una scomodità insopportabile per un informatico figlio di tipografo, che richiedeva una soluzione.

Nei successivi dodici anni Knuth si dedicò così alla creazione di un programma di tipografia digitale specializzato per la creazione di testi matematici e scientifici, di un nuovo carattere di stampa (Computer Modern) e di un linguaggio di programmazione connesso, Metafont. Da questo linguaggio di marcatura, simile all'Html di cui è fatto il web, sono poi derivati dei linguaggi di più alto livello, tra i quali il più diffuso è LaTex.

LaTex è usato universalmente nelle università di tutto il mondo da matematici, fisici, ingegneri, filosofi, linguisti, e sempre più da medici, biologi, chimici, economisti, giuristi, sociologi. Non è una videoscrittura alternativa a Word di Microsoft, o ad OpenOffice, ma molto di più. È un sistema completo per la creazione, gestione, archiviazione, aggiornamento e diffusione multi-formato dei testi. Ha creato un esercito tipografico di riserva composto da centinaia di migliaia di persone in tutto il mondo, capaci di usare strumenti potenti e gratuiti basati su un progetto open source paragonabile a Linux, Apache e Firefox.

La scelta tecnologica al cuore è duplice. Da un lato, separare il testo dalla sua forma, con i fogli di stile. Questo permette, ad esempio, di scrivere un documento che può essere impaginato con standard diversi a seconda del foglio di stile preparato dal committente. Per dire: uno stesso rapporto di ricerca può essere formattato per diverse pubblicazioni cartacee od online, senza bisogno di operazioni aggiuntive.

Dall’altro, si progetta il contenuto non sulla base di “Quello che vedi è quello che ottieni” (il paradigma fondamentale della rivoluzione del desktop publishing negli anni Ottanta) ma con “Quello che vedi è quello che vuoi dire”. Una complessa formula matematica o una tabella adesso non devono essere reimpaginate ogni volta che si modificano le caratteristiche del testo (la dimensione della pagina, il tipo di carattere tipografico). Anche la bibliografia di un rapporto di ricerca, ad esempio, viene generata automaticamente per singolo documento, partendo da un unico “contenitore” sempre aggiornato.

Il sogno del figlio del tipografo di provincia diventa rivoluzionario pensando all’evoluzione dell’industria editoriale. LaTex e altri strumenti simili come DocBook offrono al singolo o alla piccola casa editrice la possibilità di trasformarsi in autore/editore completo, saltando tutta la filiera tradizionale e annullandone i costi. Si può semplificare la creazione e soprattutto la gestione dei contenuti. Gli sbocchi possibili diventano infiniti: da un testo si produce l’eBook, il libro stampato, il sito web, il Pdf per la distribuzione elettronica.

Tutto partendo dalla stessa fonte e tutto fortemente automatizzato ma sempre controllato. Mantenendo cioè il controllo sul testo e la sua forma, senza bisogno di comprare software commerciali da migliaia di euro, nati per fare solo alcune di queste funzioni e che richiedono molto più lavoro “manuale” di adattamento. L’eredità di Donald Knuth rischia di non essere solo quella dello studio degli algoritmi.

7.8.11

Oh, well...

TORNA COME OGNI domenica Garry B. Trudeau con Doonesbury

6.8.11

Visita sociale al centro di calcolo nostrano

COME SONO FATTI i datacenter? Cosa c'è dentro? Dove "vivono" i nostri dati con il cloud computing? Un anno fa sono andato a visitarne uno per raccontare poi come sono i caveau dei nostri tempi. Era prima del crash dei server di Amazon, degli incendi di Aruba, dei casini della Borsa italiana. Ma c'era già tutto.

La prima cosa che colpisce è la temperatura. Fredda. E il ronzio, costante, di generatori, trasformatori e condizionatori. Entrare in un centro di calcolo, in inglese datacenter, è un'esperienza frustrante a meno di non avere a disposizione una guida qualificata che sappia spiegare e far capire cosa succede dietro le quinte delle torri di alluminio dentro le quali sono impilati decine di server, switch, router e matasse apparentemente infinite e sempre più aggrovigliate di cavi.

Stefano (che preferisce non dare il suo nome completo) è praticamente nato dentro i centri di calcolo, fin dagli anni in cui era studente fuoricorso alla Statale di Milano e frequentava il Silab, il laboratorio di Scienze dell'informazione. Poi ha messo in piedi una sua azienda pioniera di Internet e adesso si occupa di Cloud computing. Indica la stanza, chiusa con una porta antincendio bloccata da un impianto di sicurezza: «Quando si arriva ai centri di calcolo, la sicurezza fisica dell'impianto diventa importante quanto quella digitale: dentro i dischi rigidi di queste macchine ci sono dati che possono valere un patrimonio. Ci sono livelli di qualità del servizio che devono essere certificati».

Il centro di calcolo che visitiamo è nei pressi di Milano. Per motivi di riservatezza non è possibile indicare né il numero dei server né la posizione esatta: «È un mercato molto piccolo e sarebbe troppo facile dare informazioni preziose ai nostri concorrenti», dice Stefano.

L'ambiente non è l'unico in cui sono presenti i server né l'unico in cui vengono tenuti i dati. I vari servizi sono distribuiti anche su altri centri di calcolo in Italia e all'estero, mentre i backup dei dati vengono tenuti off-site, utilizzando i servizi di grandi imprese del settore B2B che forniscono questi servizi ai partner tecnologici delle principali aziende informatiche.

«Il mercato è molto segmentato e i fornitori di tecnologia che arrivano al cliente spesso in realtà rivendono i nostri servizi o si appoggiano alle infrastrutture per parte del lavoro: è una delle possibilità che viene offerta oggi dall'informatica. Parametri come il numero e il tipo di server, il tipo di connessione, la capacità complessiva dell'impianto, da soli fanno il prezzo della fornitura di servizio per i grandi che poi rivendono queste capacità ai loro clienti e le fanno manutenere da piccole società che hanno gli appalti in outsourcing».

Più di metà del consumo elettrico dell'impianto, che è protetto da UPS e da una serie di gruppi di continuità, se ne va per il raffreddamento dei server. «Queste sono macchine poco efficienti da un punto di vista termico: dissipano tantissimo calore». La struttura di un centro di calcolo devoto al Cloud computing da un punto di vista fisico non è differente dalla maggior parte dei grandi centri di calcolo tradizionali. Google e Microsoft, come Hewelett Packard e Ibm, hanno realizzato grossi impianti dedicati, ma in sostanza lo schema è sempre quello.

«I centri di calcolo sono vicini ai grandi nodi della rete, Londra e Amsterdam in testa per l'Europa», dice Stefano.
Le macchine "ronfano", emettendo un rumore diffuso. Pavimenti e pareti sono puliti ma spogli, con grandi piastrelle che possono essere alzate e che celano nella soletta le canaline dei cavi. «Gli 80 centimetri di intercapedine servono anche per la circolazione dell'aria, soprattutto nei centri come questo che sono Tier 4, i più sofisticati e costosi».

La struttura del centro di calcolo è organizzata per garantire la circolazione più rapida possibile dei dati. «Per questo la parte critica sono router, switch, tipi di connessione e sistemi di filtraggio, che possono fare da collo di bottiglia più della velocità delle singole macchine». Una serie di computer dedicati alle funzioni di firewall, gateway per Vpn e sistemi di intrusion detection offre l'ultimo strato di questo livello dell'architettura.

«Da un punto di vista applicativo ci sono i database, i file server, gli application server, i middleware e i sistemi di backup. Le esigenze del Cloud sono particolari e il centro di calcolo replica nella nuvola parte della struttura logica di un centro di calcolo tradizionale. Anzi, c’è la logica di più di un centro di calcolo fisico, ma non tutta». Stefano vuol dire che alcune parti della struttura da un punto di vista logico si trovano altrove, collegate dalle dorsali di Internet, le super-autostrade in fibra ottica che fanno da portante per la rete e sulle quali corre a velocità irraggiungibile per i singoli utenti il grande volume del traffico digitale. È come se fossero sul rack accanto, ma sono a centinaia o migliaia di chilometri. L’importante è che la latenza del collegamento sia bassa.
Quale può essere il costo di una struttura del genere? Stefano sorride senza fare una piega: «Non penserà veramente che glielo dica, vero?».

1.8.11

La Cina, gli Usa e la Pearl Harbor digitale

NOVE ANNI FA scrivevo questa storia lunga sulla Cina e sulle sue prospettive digitali. Prima di Wikipedia, prima di Wikileaks. Prima dell’attenzione morbosa al tema della security applicato al CyberWarfare. A rileggerla adesso, mi pare sempre interessante: una lettura estiva passabile

È la notte tra sabato 31 marzo e domenica primo aprile 2001. Una telefonata butta giù dal letto il vicepresidente americano, Dick Cheney: è lo stato maggiore della marina. Un nostro aereo spia, spiega l'ammiraglio Houstbound, è stato abbattuto dai cinesi poche ore fa.

In realtà l'aereo, un grosso quadrimotore EP-3E, 24 uomini di equipaggio, dotato dei più aggiornati sistemi di sorveglianza elettronica (leggi: spionaggio) è stato intercettato 10 Km a sud dell'isola di Hainan (secondo i cinesi, 110 Km secondo gli americani), nel Golfo del Tonchino. Una ricognizione di routine partita dalla base dell'Air Force di Okinawa, in Giappone, che all'improvviso diventa un dramma. Due caccia cinesi Shenyang J-8 affiancano l'aereo americano, l'EP-3E tenta una manovra evasiva. Ma il velivolo "tocca" uno dei due caccia (che cade provocando la morte del pilota, Wang Wei) e - danneggiato - è costretto ad atterrare nella base militare cinese di Hainan.

Bush, neoeletto presidente degli Stati Uniti con buona esperienza della Cina dove suo padre era stato ambasciatore tra il '74 e il '75, fa subito fuoco e fiamme, ma la Cina non si lascia impressionare: dall'altra parte c'è qualcuno più "duro" del presidente texano. È Jiang Zemin, considerato un "duro" anche dai generali delle forze armate cinesi. Saranno 11 giorni di tensione: da una parte gli Usa che rivogliono indietro i loro uomini e – soprattutto – la tecnologia contenuta nel loro gioiello volante per lo spionaggio elettronico, dall'altra la Cina che pretende giustizia e risarcimenti per la violazione del proprio spazio aereo e per la morte del suo pilota (oltre a voler curiosare tra le tecnologie americane).

Mentre una flottiglia di tre navi americane da guerra si avvicina al Mar Cinese meridionale, sul tavolo diplomatico i cinesi calano l'asso: per riavere l'aereo gli Usa si devono impegnare a non vendere a Taiwan (la Cina nazionalista, in lotta contro la Cina continentale comunista dalla fine della Seconda guerra mondiale) le nuove tecnologie antimissile, che limiterebbero le capacità offensive cinesi in caso di conflitto con quel paese. Alla fine, sarà un compromesso diplomatico a sbloccare la situazione.

Tuttavia negli stessi giorni si sta svolgendo una guerra silenziosa che in pochi hanno documentato. Tra il 2 aprile e il 9 dello stesso mese, secondo un rapporto riservato della sezione per la sicurezza informatica del Dipartimento di Stato americano, avvengono circa 412 attacchi informatici "particolari". Da un lato, sconosciuti e abili esperti informatici americani compiono circa 387 intrusioni di "elevato livello e capacità tecnologica" all'interno di siti cinesi, per proclamare il proprio patriottismo. Dall'altro, "pirati cinesi hanno compiuto almeno 25 violazioni informatiche" di sistemi statunitensi, tra i quali il Dipartimento del Lavoro e quello della Sanità.

Non è la prima volta che la Cina diventa protagonista di quello che viene definito CyberWarfare, la guerra elettronica. È la temuta minaccia della "Pearl Harbor digitale", analizzata negli Stati Uniti dagli esperti militari di sicurezza e diventata presto la scusa ufficiale per la caccia agli hacker (soprattutto americani ed europei) in corso dalla fine degli anni ottanta.

Ma la Cina e gli altri paesi dell'Estremo Oriente rappresentano davvero un pericolo così grande? A giudicare dagli interessi economici che soprattutto gli Stati Uniti hanno in quell'area, si direbbe di no. Alla fine del 2001 la Cina è entrata nell'Organizzazione mondiale del commercio, l'organo internazionale che regola gli scambi tra i paesi democratici di tutto il mondo, ed è considerata il mercato destinato alla maggiore espansione anche e soprattutto in campo elettronico. Un intero continente, popolato da un quinto della popolazione mondiale (1,3 miliardi di persone), con soli 12 milioni di Pc venduti nel 2001 e 33,7 milioni di utenti Internet (il doppio dell'Italia) che crescono al notevole ritmo del 50 per cento all'anno. Una vera manna, rispetto agli agonizzanti mercati tecnologici occidentali. Non solo: nel campo della telefonia i cinesi hanno più di 90 milioni di apparecchi cellulari (davanti ci sono solo gli Stati Uniti), e circa 200 milioni di linee telefoniche fisse.

Anche da un punto di vista industriale la Cina è nell'occhio dell'Occidente: nel 1999 il 10% dei profitti di Motorola veniva dalla Cina (negli ultimi tre anni la percentuale è leggermente aumentata) e ad agosto del 2000 il colosso americano ha aperto una grande fabbrica per la produzione di microchip a Tianjin, il porto vicino a Pechino, del valore di quasi due miliardi di dollari. L'anno prossimo, secondo le stime degli analisti, il solo mercato dei microchip in Cina dovrebbe valere circa 32 miliardi di dollari, rubando lo spazio ai produttori di Taiwan e delle Tigri orientali (Giappone, Corea del Sud, Singapore, Malaysia e via dicendo) che fino ad oggi hanno fatto la parte da gigante nel settore dell'elettronica.

Per dare ancora un'idea del mercato delle telecomunicazioni mondiale, la Cina assorbe la percentuale superiore a quella degli Usa della produzione di switch, che sono gli elementi fondamentali delle moderne reti telefoniche digitali.

Insomma, considerando la cosa dal punto di vista industriale delle grandi aziende produttrici di tecnologia, la Cina vive una situazione unica: coesistono vecchie e nuove tecnologie, si incrociano satelliti, internet, telefonia cellulare, fibre ottiche e infrastrutture militari. Ma gli utenti sono ancora pochissimi e il costo del lavoro è estremamente basso. Chi vince la sfida del mercato cinese, vince in tutto il mondo. Chi perde, perde in tutto il mondo.

Tuttavia la Cina non si è aperta alle tecnologie occidentali e all'arrivo delle grandi multinazionali senza organizzarsi per difendere il suo regime interno.

La legislazione prevede limiti di vario genere all'apertura di nuove fabbriche con capitale occidentale, che devono avere il nulla-osta del governo di Pechino, e l'accesso a Internet da parte della popolazione è sottoposto a una serie di regolamentazioni che in Europa non sono neanche immaginabili.

Da due anni, infatti, c'è la pena di morte per chiunque sia riconosciuto colpevole di essersi appropriato o di avere divulgato documenti di stato - quindi coperti dal segreto - su Internet.

Inutile dire che il concetto di "documento di stato", ancorché coperto dal segreto, è interpretabile in modo abbastanza ampio, e qualunque cittadino cinese che mandi un email all'estero contenente informazioni considerate "segrete" (o magari "politiche" e "democratiche") rischi in effetti la pena capitale. Oltretutto in Cina, secondo Amnesty International, le esecuzioni non sono affatto un fenomeno raro.

Dal primo agosto di quest'anno, inoltre, in Cina è in vigore una legislazione che limita fortemente il numero e la struttura dei gestori di siti, portandoli direttamente sotto il controllo governativo.

Come se non bastasse, negli ultimi due anni si sono succeduti gli episodi di censura da parte del governo cinese nei confronti di Internet: i provider locali sono stati costretti a impedire l'accesso a fasci di indirizzi Ip, nel 2001 è stato impedito l'accesso a Freenet (servizio Ftp e di scambio informazioni senza censure) e ai principali motori di ricerca (Google, Altavista, Yahoo etc.). Ancora, in tre differenti riprese il governo ha chiuso gli Internet Café della capitale, punto di accesso per la grande massa di studenti che frequenta Pechino e che non può permettersi un Pc e un collegamento ad Internet. Senza contare l'installazione di sistemi analoghi a quello americano di Carnivore: box dedicate al filtraggio dei pacchetti Tcp/Ip installate per legge presso i server di tutti i fornitori di accesso. Negli Usa, nonostante l'11 settembre, la questione è ancora discussa; in Cina è una certezza matematica.

Insomma, il governo vorrebbe che la Cina si trasformasse in un'enorme Intranet chiusa da un Firewall e i cui contenuti siano strettamente controllati. Per fare questo, lotta anche contro le principali aziende produttrici di software: da circa un anno e mezzo sono in corso le sperimentazioni per basare le infrastrutture cinesi su server e desktop in ambiente Linux. L'idea è che in questo modo è possibile rendersi autonomi da Microsoft e dalle politiche di "sicurezza" che il sistema operativo di Microsoft sta realizzando sotto la spinta anche del governo statunitense. Avere una infrastruttura non basata su Windows significa non essere esposti, in caso di guerra commerciale o elettronica, al rischio che il potenziale nemico, gli Usa, sia anche il possessore di una delle risorse fondamentali: il sistema operativo dei propri computer.

Ma la scena hacker dell'Estremo Oriente non è per questo meno vitale di quelle occidentali, anche se fortemente inquinata dall'onnipresente governo, che cerca anche di arruolare i migliori talenti.

Difficili da individuare, spesso parte di movimenti politici antagonisti del regime di Pechino, gli hacker cinesi nascono soprattutto vicino ai grandi centri universitari del paese, come Hebei, Yenching, Tsinghua, Chaoyang, Soochow, Xiamen, Wuhan, Hunan, ma anche nelle aree di maggiore industrializzazione tecnologica, come Shangai e Hong Kong.

La loro presenza è avvertita come una minaccia nazionale, e abbiamo visto che in alcuni casi può anche tradursi in condanne durissime, persino nella pena capitale. Durante gli ultimi mesi sono stati arrestati almeno 15 "sospetti hacker", a partire dall'arresto nel distretto di Haidian (Pechino) a maggio dell'anno scorso di Lu Chun, un ventunenne colpevole di aver rubato un paio di account da un'azienda e averli utilizzati per navigare su Internet (e far navigare qualche suo amico), sino all'arresto del diciassettenne Chi Yongshu, studente di liceo nella provincia di Heilongjiang (nel nord-est del paese), colpevole questa volta di reati più complessi: diffusione di virus, furto di dati e traffici illeciti online. Infine, un 36enne impiegato di un istituto di credito (Banca della comunicazioni della Cina), accusato di aver rubato dai conti correnti dei propri clienti quasi due milioni di yuan (200 mila dollari) a partire dall'agosto del 1990, dopo che era fuggito in Canada solo per essere espulso dalle autorità di quel paese, è stato condannato a morte e giustiziato.

Gli hacker, anzi "heike", come viene tradotta foneticamente l'espressione inglese in cinese, comunque ci sono. E non sono solo ladruncoli, ragazzini che giocano con le password o soldati della cyberarmata di Pechino. Vari gruppi di hacker europei e statunitensi, che ultimamente hanno ribadito di non essere coinvolti con gli attacchi che dall'occidente vengono sferrati ai nemici degli Stati Uniti come Cina, Corea del Nord e Irak (l'ultima a dichiarare la sua estraneità è stata Legion of Underground), nel tempo hanno anche stabilito contatti forti con i loro colleghi cinesi. Alle volte, il contatto ha voluto dire un aiuto sostanziale.

La comunità hacker internazionale, infatti, sensibile - com'è ovvio - al tema di poter garantire la propria privacy nei confronti di regimi oppressivi, ha offerto soluzioni per chi vive in paesi come la Cina: software come Camera/Shy di Hacktivismo e Six/Four per la creazione di reti grassroot assolutamente anonime, sono regali pensati non per fornire nuove armi ad hacker "cattivi" e terroristi stranieri, ma per permettere l'esercizio dei più elementari diritti democratici anche a chi vive in paesi dove questo non è concesso.
Dalla Cina, a parte hacker etici e combattenti per la democrazia, arriva anche molto di più che non il solo virus dell'influenza autunnale. Ogni anno si contano almeno una decina di "ceppi" virali informatici provenienti (o presunti tali) dall'Estremo Oriente. Ad esempio, il worm 1i0n. I mass-media, abituati a fare di ogni erba un fascio già con il termine hacker, sul "pericolo giallo" ci sguazzano letteralmente. Eppure, la guerra sotterranea tra presunti hacker occidentali (soprattutto americani) e cinesi continua. Di dimensioni molto ridotte rispetto al conflitto tra "pirati" filo-israeliani e "pirati" filo-palestinesi, il bombardamento a colpi di defacement è tuttora in corso. Forse in Cina anche con l'approvazione governativa, se non proprio con il suo stesso impegno. Gruppi come The Honker Union of China (Honker è una delle espressioni slang cinesi per hacker) hanno dichiarato di voler combattere "l'arroganza anti-cinese" con tutti i mezzi. Anche con 80 defacement consecutivi e la compromissione di altri 400 server.

---
GRASSROOT

Fidonet e FredNet, ma anche le reti di base. La filosofia dietro alle grassroots non è nuova, ma si sviluppa dopo il 4 luglio 1989, il giorno dei massacri di Piazza Tiananman, una delle pagine più nere della storia cinese recente. Il gruppo di hacker Hacktivismo, spin-off del collettivo Cult of the Dead Cow, decide di realizzare un protocollo che permetta di navigare, chattare e scambiare file ed email senza lasciare alcuna traccia. Una forte minaccia per la sicurezza, si direbbe oggi, in realtà l'unica forma di sicurezza possibile per chi viva in un paese dove il regime cerca di intercettare e censurare tutte le forme di comunicazione, anche quelle elettroniche. Alla base tecnologica del protocollo, Six/Four, c'è un mix di Vpn, tunneling, approccio peer-to-peer e open-proxy. Il principale autore del protocollo è The Mixter, un hacker tedesco rintracciabile all'indirizzo mixter.void.ru. Mixter, che è un personaggio noto nell'ambiente hacker, è anche l'autore di Tribe FloodNet, un programma utilizzato spesso per effettuare Ddos.