Sulla violazione di Archive.org

Come forse saprete sul finire dello scorso settembre Archive.org è stato violato [1] ed ha subito l’esfiltrazione di 6.4 GB di dati. Il database sottratto (ia-users.sql) sembra contenga l’archivio degli account inclusi nome utente, email, hash delle password ed altre informazioni di contorno. In totale il database conterrebbe oltre 31 milioni di indirizzi email univoci. Uno di questi è il mio 🙂 Per di più il sito è da alcuni giorni irraggiungibile a causa di un attacco di tipo DDOS [2] che potrebbe essere strettamente collegato alla violazione precedente.

Ne parlo come di un dato assodato, ma la reale situazione è emersa solo da un paio di giorni e la trasparenza delle informazioni fin qui note lascia molto perplessi. La violazione dei server dello scorso settembre infatti non era stata resa pubblica e nulla era stato comunicato agli utenti prima che un messaggio beffardo inserito dagli stessi aggressori avvisasse i visitatori e che il successivo DDOS rendesse irraggiungibile il servizio. Non molto rassicurante…

Ma vi dicevo che uno dei milioni di indirizzi oramai alla mercé di chiunque su Internet è il mio, che su Archive.org ero iscritto da qualche tempo per coltivare la malsana passione di scandagliare tra documenti vetusti, libri antichi e vecchie pagine web. Ho potuto verificarlo direttamente su ‘;–have i been pwned? [3] dato che il database della violazione è stato già caricato sul sito.

Nel mio caso specifico lo user è insignificante la password è univoca, lunga e complessa, persino l’indirizzo email è solo un alias che alla peggio posso troncare. Eppure la situazione mi appare decisamente spiacevole. Da utenti possiamo mettere tutta la diligenza del caso nel costruire i nostri account, adeguarci alle regole più stringenti, attuare ogni possibile precauzione. Resta però l’altra parte dell’equazione che sta dal lato di chi quelle informazioni le dovrebbe custodire e che spesso non si dimostra all’altezza del ruolo che ricopre (stiamo parlando di Internet Archive, non del sito della bocciofila diamine!).

Un vecchio adagio dell’informatica dice: se non vuoi che diventi un leak, non salvarlo. Il problema di fondo è sempre lo stesso, la voracità di dati di chi gestisce un servizio. Informazioni spesso del tutto superflue, pretestuose, ridondanti che vengono richieste ed accumulate per prassi o per riservarsi usi futuri. Serve davvero un indirizzo email per creare un account? Ho in mente almeno un paio di alternative che eviterebbero questi scenari ma che hanno il difetto di non essere a prova di scemo e quindi vengono rigorosamente evitate. Non sia mai di responsabilizzare l’utente e renderlo consapevole del contesto.

Proprio ieri l’amministratore di un vecchio gruppo Yahoo mi ha inviato una mail. Anni fa rifiutò la mia iscrizione al gruppo per ragioni che mi sfuggono, ma da quel momento in poi avrebbe dovuto cancellare il mio indirizzo. Invece si è rifatto vivo ieri avvertendo tutti i poveri utenti rimasti impigliati nella sua rubrica della nascita di un nuovo gruppo a cui invitava ad iscriversi. Il regolamento allegato alla mail era una sintesi di protervia, incoscienza e narcisismo sia per l’arbitrarietà di ciò che imponeva sia per l’assurda quantità di dati che richiedeva agli iscritti. Per un attimo ho pensato di rispondere per le rime, poi ho optato per una reazione più sottotraccia marcando come spam il messaggio (e lasciando al mio provider il lavoro sporco).

La fame di dati è un male del nostro tempo. Difendersi è difficile, a volte impossibile. Se c’è concesso, proviamo almeno a limitare i danni [4].

~

1. Consulta l‘articolo di Bleeping Computer per i dettagli e per eventuali aggiornamenti · 2. DDSOS, Distributed Denial of Service, è una tipologia di attacco informatico che satura le risorse di un sistema fino a determinarne il collasso · 3. Consulta questa pagina · 4. Se foste nella mia stessa situazione, al momento con il sito irraggiungibile non c’è molto che possiate fare. Quando il quadro sarà più chiaro si potranno prendere eventuali misure di mitigazione. Nel frattempo si deve alzare la guardia su tutto ciò che arriva all’indirizzo compromesso, cambiarlo se usato su altri servizi rilevanti e modificare le password usate altrove se identiche a quella compromessa. Di mio penso che comunque rimuoverò l’account appena possibile.

La lettera agli hobbisti, il Free software e l’utente

L’italiano, inteso come lingua, non ha mai avuto probabilmente un sito di riferimento per il trittico Linux, Free software, Opensource; è mancato e manca l’equivalente che so di LWN.net o Phoronix.com in inglese. Non che i tentativi siano mancati ovviamente, ma esistono problemi strutturali difficili da superare per chi voglia trasformare un simile progetto in qualcosa di più di un semplice hobby. Da un lato c’è la vastità dell’argomento, dall’altro una platea non poi così estesa, da una parte c’è la concorrenza sempre più forte di AI e traduttori automatici, dall’altra la limitata redditività del lavoro editoriale online.

Sta di fatto che se ripenso agli ultimi 20 anni non mi vengono in mente molti ritrovi dove discutere di pinguini, gnu e creature affini. Forse potrei citare ZeusNews.it, ma da quelle parti la deriva su posizioni anti-Microsoft ha sempre avuto la meglio. Forse potrei citare Marco’s Box (marcosbox.com) che ci mette sicuramente grande passione ma rimane (per me, beninteso) troppo didascalico. C’è il tagliente Mia mamma usa Linux (miamammausalinux.org) che ha il grande pregio di far emergere temi che il pubblico italiano per lo più ignora (me compreso). C’è –ma dovrei usare il passatoLFFL.org che forse è quanto più si sia avvicinato ad un sito di informazione ampia e trasversale sui temi del software libero.

Un tempo verbale al passato dicevo, perché l’ultimo articolo organico del sito risale al maggio del 2022 seguito da un anno di silenzio. Nel maggio del 2023 la proprietà del sito è intervenuta direttamente a spiegare le cause e le ragioni dello stop agli aggiornamenti con un articolo intitolato LFFL è fermo da un anno: cos’è successo e perchè? È una lettura molto istruttiva a vari livelli che permette di ampliare il quadro della riflessione:

  • Il sito non ha mai generato utili
  • Non ha generato utili anche perché gran parte dei suoi lettori usava un adblocker
  • La pagina delle donazioni (non so quanto aggiornata) elenca solo 15 donatori in totale (ignota la cifra)
  • Gli inviti a contribuire (retribuiti) al sito sono quasi sempre caduti nel vuoto
  • Due soluzioni proposte per la ripartenza: un contributo dell’utenza tramite Patreon o la cessione del sito a qualcuno disposto a gestirlo senza snaturarlo.

In altre parole la nostra equazione ha una nuova variabile: l’utente. Che come spesso accade è parte del problema e non della soluzione. Scrivere in maniera costante, puntuale, precisa è una attività non banale che richiede tempo ed impegno. Magari per un tratto della propria vita lo si può fare gratuitamente per passione (a me è capitato) ma poi ad un certo punto si smette e ci si dedica ad altro.

I commenti all’articolo, in verità assai pochi, aggiungono qualche altro tassello. Qualcuno fortunatamente si dice disposto a contribuire direttamente. Il resto è un fiorire di distinguo: da quello che pur di non pagare vorrebbe bloccare gli adblocker, a quello che vorrebbe retribuire i redattori con i link di affiliazione, fino a quello che vorrebbe pagare coi bollini del supermercato (è una mia iperbole, ma il senso è un po’ quello).

Se più di un anno dopo il sito è ancora immobile, capirete che il problema insormontabile dell’informazione Linux-centrica è l’utenza. Vale a dire quella platea sufficientemente smaliziata da giocare con adblocker, DNS, VPN ed altre amenità pur di procurarsi comodamente i contenuti di proprio interesse, ma massivamente refrattaria a sostenere chi quelle informazioni le produce.

Nel 1976 un giovane Bill Gates prese carta e penna (più verosimilmente aprì un wordprocessor) e scrisse la celebre An Open Letter to Hobbyists indirizzata ai membri dell’Homebrew Computer Club ed agli hobbisti in genere. Con i toni spigolosi della sua giovane età, Gates poneva problemi concreti sulla sostenibilità del nascente mercato del software per PC: dalla richiesta di una giusta remunerazione per chi scrive software, alla scorrettezza di chi lo ricondivide allegramente, all’impossibilità di produrre software di qualità se con questa attività non si coprono neppure i costi. Per contestualizzare meglio bisogna ricordare che fino al 1974 negli USA (e a cascata nel resto del mondo) il software non godeva di alcuna protezione legale.

Il Linuxiano ortodosso ha sempre trattato la An Open Letter to Hobbyists come argomento anti-Microsoft, contrapponendovi la magnificenza di Linux, progetto completamente slegato dalle logiche di mercato e portato avanti per passione. Ragionamento che sicuramente faceva una certa presa sul pubblico ma che con il tempo è diventato sempre più fragile. Andate a verificare le retribuzioni dei dirigenti delle varie organizzazioni che promuovono il software libero, o quelle degli sviluppatori organici. Andate a spulciare i bilanci delle varie organizzazioni, le spese per consulenze, i viaggi pagati. Direste ancora che è tutto fatto per passione? In forma hobbistica? Appunto. Con parole forse sbagliate, Gates aveva detto cose corrette; ma state pur certi che non troverete molte persone disposte ad ammetterlo. Heartbleed è ancora li a ricordarcelo, e la più recente crisi economica della Gnome Foundation per altre vie ne è la dimostrazione definitiva.

Il software libero al pari dell’informazione indipendente esiste ed avrà futuro solo se sostenuto dai propri utenti. In caso contrario prepariamoci a vivere in un mondo di informazioni algoritmiche, pilotate, tutte identiche, tutte senz’anima.

È ora di chiudere i commenti su Internet

A cosa dovrebbero servire i commenti in coda ad un post o ad un articolo? Sembra una domanda banale ma quando provi a formulare una risposta coerente ti accorgi che così ovvia la questione non lo è proprio. Lo chiedeste a me vi direi che i commenti dovrebbero essere uno spazio per il lettore in cui esprimere la sua opinione, le sue valutazioni e perché no le sue critiche al contenuto principale. E forse all’alba di quello che è poi passato alla storia con l’etichetta di Web 2.0 è stato davvero così. Ma oggi? A me sembra che i commenti siano diventati semplicemente un altro social network, modello di cui ricalcano la vacuità e l’egocentrismo.

Complice la centralizzazione delle piattaforme, molti modelli tipici del social network si sono trasferiti anche nei commenti con profili, avatar, like, interazioni, citazioni, embedding e quant’altro. Alcuni degli ormai pochi siti che leggo con regolarità hanno ancora una sezione commenti attiva e mi capita, nonostante la mia diffidenza, di buttarci un occhio. L’esperienza -almeno per me- è disastrosa. Forse un commento su 10 ha una qualche correlazione con l’argomento della pagina, tutto il resto è, perdonatemi, immondizia. Molti commentatori non sembrano neppure aver letto l’articolo sotto cui scrivono e partono spediti con i loro anatemi, con il loro qualunquismo, con le frasi ripetute a cantilena. E poi ideologia spiccia, frasi fatte, lettura politica di ogni cosa si trattasse pure del peso specifico del semolino o del colore della carta da parati. E ancora chiavi complottiste, pretese di evidenza per cose che stanno solo nella testa del commentatore stesso, rabbia repressa. Tanti non sembrano neppure interessati a lasciare un commento quanto ad innescare una discussione attorno a se, nel più classico stile dei troll. Nella sparuta minoranza che l’articolo l’ha letto sono sempre più pochi a comprenderlo specie se la sintassi della frase ha più di un inciso e di una subordinata; e via ancora di incomprensioni, arrabbiature e polemiche. Davvero frustrante.

Dopo qualche minuto di lettura, la pressante sensazione di aver sprecato tempo prende il sopravvento assieme allo sconforto. A volte verrebbe voglia di replicare un commento alla volta, punto su punto, assurdità per assurdità. Ma sarebbe la proverbiale fatica di Sisifo oltre che una resa a quel modello inflazionato di comunicazione. Altre volte viene istintivo tallonare per un po’ qualche commentatore troppo ossessivo per scoprire che magari tutto ciò che millanta in pubblico è pura invenzione e quello spazio nel discorso pubblico è gran parte della sua quotidianità. Abissi nei quali sarebbe meglio non guardare, probabilmente.

Nella seconda metà degli anni ’90 il fenomeno passato alla storia come Eternal September (Settembre Eterno) innescò il rapido declino della rete Usenet. Al tempo l’arrivo in massa di utenti superficiali, impreparati e poco propensi ad approfondire destrutturò le basi di una comunità che si era invece fondata su ordine e voglia di apprendimento. Probabilmente lo stesso è accaduto ai commenti del Web, ma con una differenza non banale. Usenet era la più non-commerciale delle reti informatiche, mandata avanti con poche risorse e quasi solo per passione; la rete dei commenti invece ha oggi un valore commerciale per chi ne gestisce le piattaforme così come per chi la ospita nei propri siti. I comenti diventano visite, interazioni, engagement, metriche dunque che qualche esperto di marketing saprà sicuramente trasformare in un adeguato controvalore.  E questo basta a tenere in piedi la baracca, a tollerare gli eccessi, a fingere che tutte le idee abbiano lo stesso valore. Non sarà facile uscirne.

Truffe online tra ingenuità ed avidità

Oggi vorrei raccontarvi una storia su più livelli partendo da un passato abbastanza lontano per arrivare alla stretta attualità. Il tema di questo racconto sono le truffe online, o meglio gli schemi utilizzati per perpetrarle e gli errori sistemici che spesso commette chi ne è vittima.

La nostra vicenda inizia nell’informaticamente lontano maggio del 2006; se avrete la pazienza di seguirmi fino in fondo vi spiegherò anche come sia riemerso nella mia testa questo inconsueto ricordo. La diffusione di massa di Internet in Italia è nella sua prima fase, l’approccio degli utenti oscilla tra il misticismo e l’entusiasmo, l’informazione però è ancora largamente cartacea [1]. Computer Idea (nulla a che vedere con l’omonima attuale) era una delle tante pubblicazioni del periodo che aveva però il grande merito di sapersi far amare. Mi rendo conto della evanescenza di questa definizione, ma ci sono cose che non sempre si possono formalizzare. Senza contare che questo post si annuncia già abbastanza lungo anche senza entrare nel sentimentale. Seguendo le tendenze del momento, la rivista si era dotata di due blog online, uno di taglio generico e l’altro -chiamato Attenti al lupo– dedicato ai temi della sicurezza in rete e curato dal direttore Maselli. In quel maggio un post apparentemente di puro contenuto informativo scatenò una discussione-monstre che vide l’accumularsi di centinaia di commenti e che si protrasse incredibilmente per molti mesi [2]. L’articolo metteva in guardia dal proliferare di siti truffaldini o comunque inaffidabili che cavalcavano il falso mito dei prodotti di marca venduti direttamente dai terzisti asiatici e dunque incredibilmente convenienti.

Incredibile è proprio la parola chiave di tutto il discorso. Il più classico degli adagi di Internet è che se qualcosa è troppo bello per essere vero, allora semplicemente non è vero. Vale oggi quanto nel 2006. Ciò tuttavia non ha impedito a migliaia di persone di cadere nella trappola e perdere somme di denaro a volte modeste ed altre invece piuttosto cospicue. La singolarità di quel post, come accennato, sta tutta nei commenti. Dapprima emerge soprattutto l’ingenuità e la buona fede di molti utenti che semplicemente non si accorsero delle molte anomalie messe assieme da questi siti truffa (prezzi illogici, contatti evanescenti, metodi di pagamento insicuri, logiche spammatorie, etc.). Moltissime furono anche le richieste di persone che da sole non si sentivano in grado di valutare la serietà di un ecommerce o cercavano una soluzione per recuperare il denaro perso. Poi però lentamente emersero altri profili probabilmente minoritari ma fortemente rappresentativi di un mondo variegato in cui ciascuno si auto-convince di poter essere più astuto degli altri e di poter trarre un vantaggio dalla situazione (oggi definiremmo queste persone vittime dell’effetto Dunning-Kruger, ma nel 2006 eravamo tutti molto più carenti di terminologia spiccia…):

  • C’erano quelli convinti che grossisti cinesi di marchi famosi dovessero esistere per forza e che tutto stava nel trovarne l’indirizzo. Riconoscibili perché continuavano a chiedere ossessivamente il controllo di nuovi siti in cui si erano imbattuti nelle loro ricerche.
  • C’erano quelli che giustificavano il loro interesse verso questi siti con la necessità di risparmiare, salvo poi lanciarsi in acquisti stock da 10 pezzi per i quali spendevano cifre assurde. Gli stessi che poi nella maggior parte dei casi perdevano tutto il malloppo o si ritrovavano con paccottiglia inutile che del prodotto cercato aveva al più la sembianza estetica.
  • C’erano quelli convinti che i terzisti di un marchio celebre avessero la possibilità di vendere in proprio una parte della produzione, o addirittura di produrre repliche di prodotti di cui ormai conoscevano le caratteristiche. E che poi si stupivano se i loro acquisti finivano bloccati in dogana.
  • C’erano quelli che si lanciavano in lunghe filippiche sull’etica della contraffazione immaginando poveri artigiani impegnati a portare il pane a casa e non vere e proprie organizzazioni criminali che -semmai- l’artigiano asiatico lo sfruttavano a loro volta.
  • C’erano quelli talmente fissati con marchi e modelli precisi da accettare di buon grado l’evidenza che si trattasse di prodotti contraffatti e preoccupati solo che la merce acquistata arrivasse davvero e superasse indenne i controlli doganali.
  • C’erano quelli un po’ frustrati dal non venire a capo della situazione che invocavano la realizzazione di una lista di negozi fidati in cui comprare a buon prezzo. Gente che in sostanza chiedeva un elenco verificato di criminali affidabili
  • C’erano gli immancabili filosofi della guerra di classe che riconducevano tutto alla lotta contro le multinazionali brutte e cattive (dimenticando volutamente che esistono aziende che producono buoni prodotti senza i ricarichi dei marchi più noti, ma che inevitabilmente non destano lo stesso interesse perché assai meno modaioli).
  • C’erano anche quelli che in tutto ciò cercavano il tornaconto personale, convinti di poter acquistare prodotti di marca ad un terzo del loro valore per poi rivenderli a prezzi quasi normali e trattenere per se la differenza. A volte talmente spacciati da difendere ad oltranza l’indifendibile posizione in cui si mettevano.
  • E c’erano infine anche i più teneri della cucciolata, quelli che pensavano che un link sponsorizzato in Google fosse una sorta di sito raccomandato e certificato da Google e dunque non si rassegnavano all’idea che lo stesso fosse classificato come pericoloso.

Facciamo ora un lungo balzo temporale e portiamoci al 2021/2022. Per le complesse ragioni geopolitiche che credo tutti ricorderete, in questo periodo molti prodotti subirono un vorticoso aumento dei prezzi. Tra questi c’era anche il pellet il cui prezzo andò vicino al raddoppio in pochi mesi. Una seconda grande verità della rete è che se si può trarre vantaggio dalla difficoltà altrui, qualcuno sicuramente proverà a farlo. Accade sistematicamente ogni qualvolta una catastrofe naturale devasta qualche parte del mondo, accade quando emerge una qualsiasi difficoltà diffusa, accade sistematicamente quando un gruppo sufficientemente grande di persone è vulnerabile in qualche modo. Accadde anche con il pellet [3] in Italia. Lo schema della truffa è incredibilmente simile a quanto descritto sopra: Finti siti di vendita online che spuntavano come funghi; tutti caratterizzati da prezzi insostenibili, tutti realizzati con i medesimi template, tutti ottimamente indicizzati dai motori di ricerca. Certo rispetto al 2006 alcune cose erano diverse. La semplicità con cui oggi possiamo verificare una partita IVA o visualizzare un certo indirizzo fanno si che alcuni dettagli debbano essere più curati. Si trovavano ad esempio siti che inserivano come partita IVA e come recapito quelli di una attività legittima che ovviamente era all’oscuro di tutto e magari finiva anche subissata dalle proteste delle vittime della truffa.

D’altro canto però anche i sintomi della truffa erano evidenti. Se avete un’idea di come funzioni il pellet, sapete che si vende in pesanti sacchi da 15 kg e di solito si acquista in “pedane” da 50 a 100 sacchi. A livello logistico è quindi prodotto di prossimità ed è irragionevole pensare che un’azienda che sta a migliaia di chilometri possa consegnare a domicilio senza rimetterci. Allo stesso tempo la procedura di acquisto avrebbe dovuto far scattare più di qualche dubbio. Tutto semplicissimo finché si trattava di riempire il carrello, poi nelle fasi finali la richiesta di molti dati personali a precedere una procedura di pagamento insolitamente complicata che richiedeva quasi sempre il pagamento tramite bonifico bancario su banche estere. Un classico intramontabile.

Arrivati fin qui credo mi resti solo da svelarvi il perché di queste due storie. Un paio di mesi fa, casualmente ancora nel mese di maggio, una inchiesta [4] del quotidiano britannico Guardian, del tedesco Die Zeit e del francese Le Monde ha fatto emergere una rete di 76.000 finti negozi online nelle cui maglie sarebbero caduti almeno 800.000 utenti dall’Europa e dagli Stati Uniti. La truffa sarebbe avvenuta a vari livelli sia con la sottrazione di denaro sia con il furto di dati personali. Secondo l’inchiesta anche questa rete ricalca alla perfezione gli stereotipi di cui abbiamo parlato finora: venditori asiatici che trattano marchi del lusso o prodotti di fascia alta proposti a prezzi ridicolmente inferiori al valore di mercato. Di inedito c’è il fatto di aggredire direttamente i dati finanziari e di fare del furto di informazioni personali una sorta di business parallelo.

Dettagli a parte, lo schema si ripete. Ingenuità ed avidità restano grimaldelli straordinariamente efficaci per entrare nel privato delle persone fino a convincerle a cedere codici di carte di credito ed anagrafiche complete. Gli stessi dati che cercheremmo di proteggere adeguatamente in un contesto razionale che diventano una merce sacrificabile rispetto all’occasione di una vita [5].

~

1. Per voi “giovinastri” là fuori, è esistito un tempo in cui le notizie si leggevano su strani supporti di carta che andavano acquistati in altrettanto strane strutture chiamate “edicole” sparse per la città, spesso direttamente sui marciapiedi. Dovesse capitarvi di alzare lo sguardo dallo schermo del vostro smartphone, potreste persino ancora trovarne alcune funzionanti attorno a voi ~ 2. Il post intitolato Torna la minaccia dei “negozi-truffa”, non è più online da molto tempo, ma chi volesse farsi un’idea propria può recuperarne una copia abbastanza completa dalla Wayback Machine di Internet Archive ~ 3. Si veda questo articolo della Polizia Postale ~ 4. Si veda Chinese network behind one of world’s ‘largest online scams’ ~ 5. Se avete visto Shrek e vissero felici e contenti, sapete di che parlo 🙂

I Blog di Virgilio / MyBlog verso la chiusura. Tempo di migrare!

Dunque è ancora tempo di commiato. Poco più di un mese fa avevo descritto la mia non ottimistica visione sullo stato della blogosfera italiana; la conclusione, a tratti fosca, era quella di un mondo ormai residuale popolato di servizi ancora attivi quasi solo per inerzia ed in cui nessuno investe più. Non debbo essere andato molto lontano dalla realtà se a breve distanza uno dei maggiori servizi di hosting gratuito per blog ha ora annunciato la sua prossima chiusura.

Ho ricevuto oggi una mail informativa di Virgilio che annuncia la chiusura dei Blog di Virgilio / MyBlog per il prossimo 30 settembre. Nel breve messaggio si legge quanto segue:

desideriamo informarti che dopo tantissimi anni il 30 settembre 2024 chiuderemo il servizio MyBlog di Virgilio. Vogliamo assicurarci che tutti i nostri blogger abbiano il tempo necessario per salvare i propri contenuti. Noi faremo tutto il possibile per rendere facile questo passaggio

Il resto della mail descrive sinteticamente la procedura per esportare i contenuti del blog; non la riporto per esteso anche perché è disponibile in una forma più completa nelle pagine dell’aiuto di Virgilio [1].

La brutta notizia è ovviamente la chiusura di MyBlog che, grazie anche al dominio myblog.it, è stata per molto tempo una delle migliori soluzioni italiane per aprire un blog senza troppi sbattimenti. La non tanto buona notizia è che i tempi per la dismissione sono relativamente brevi e gli utenti avranno a disposizione poco più di due mesi per salvare i propri contenuti. La buona notizia -almeno credo- è che l’esportazione dei contenuti e la successiva importazione su una piattaforma alternativa dovrebbero essere abbastanza indolore. I Blog di Virgilio usano infatti la piattaforma WordPress per cui il file di esportazione in formato XML dovrebbe essere facilmente gestibile.

Considerando anche la recente chiusura di Xoom.it, sembrerebbe che in casa Virgilio si stia facendo un po’ di draconiana pulizia… Resta da capire invece se i Blog del portale Libero [2] seguiranno lo stesso destino o avranno maggior fortuna.

Una volta in possesso del prezioso file XML molti blogger si troveranno nella difficile situazione di doverne decidere il destino. A parte conservarlo come backup, dovrebbe essere relativamente semplice importarlo su una qualsiasi altra istanza del software WordPress. Limitandoci ai servizi gratuiti potrei suggerire di provare su WordPress.com [3] o sull’italiano Altervista.org. Se poi cercaste un ambiente più tranquillo e pulito e non foste maniaci della personalizzazione a tutti costi, date anche un’occhiata a Vivaldi.net [4] nella cui sezione Blog trovate proprio una istanza WordPress pulita ed essenziale a cui peraltro appartiene anche il modestissimo blog che state leggendo 🙂

~

1. Chiusura servizio Virgilio MyBlog (Virgilio.it) ~ 2. Da alcuni anni Libero e Virgilio, un tempo concorrenti, appartengono alla stessa società, hanno uniformato molti elementi e incrociano spesso contenuti e servizi ~ 3. Importa contenuti di un sito (WordPress.com) ~ 4. Per chi non lo sapesse, Vivaldi.net è lo spazio della community del browser Vivaldi.

OpenDocument 1.4, il sorpasso a destra di Microsoft

Come ogni buon vecchio bacucco dell’Internet mi è più facile criticare che non costruire. Mi conforta in questo decadimento un filo di coerenza che cerco sempre di preservare per non cadere nel professionismo del no che tanti danni crea e ben poco risolve. E nel mio piccolo mondo coerente la standardizzazione dei formati documentali è sempre stata una stella polare, una di quelle premesse imprescindibili per la libertà dell’utente e per la preservazione delle informazioni. Ho creduto nel potenziale di OpenDocument fin dalla sua nascita e, con tutti i limiti della mia irrilevanza, ho cercato di difenderne le basi quando la natura del progetto è stata piegata a logiche di convenienza.

Per dirvi, sono passati ormai più di quattro anni da quando scrissi un piccolo sfogo dal titolo fintamente interrogativo: OpenDocument ha fallito? Dicevo allora sostanzialmente due cose:

  • che l’universalità di OpenDocument era stata minata da un processo di estensione arbitrario che rendeva i file creati da un programma incompatibili con altre applicazioni
  • che il rilascio della nuova specifica OpenDocument 1.3 rischiava di aggravare la situazione date la difficoltà di implementazione ed il generale disinteresse

Quattro anni dopo mi spiace constatare di aver intuito correttamente la questione. OpenDocument 1.3 non è ancora stato standardizzato dall’ISO (il processo è in corso) e ne circolano già versioni estese non conformi allo standard proposto. La classica babele che rende quasi inutile la stessa standardizzazione.

Come se non bastasse è già in fase di sviluppo anche OpenDocument 1.4 [1] il cui evidente destino sarà quello di aumentare ancora l’entropia del sistema documentale opensource. Intendiamoci, è ovvio che ogni volta che si introduce una nuova funzionalità in un software è necessario trovare un modo perché questa possa essere memorizzata in un file. Per cui o si cercano soluzioni astratte e generalizzate come OLE [2] oppure si aggiunge la nuova funzione a quelle memorizzabili nel file. Dunque l’aggiornamento dei formati è quasi inevitabile. Il punto è un altro. Se OpenDocument è proposto come formato documentale di standardizzazione funzionale a liberare l’utilizzatore dai vincoli di un singolo fornitore, allora la frammentazione attuale fa sì che l’obiettivo sia completamente mancato.

Di questa debolezza di fondo sono in molti a poterne trarre vantaggio. Ad esempio è notizia di queste ore che Microsoft (si! proprio quella di Redmond) sta già abilitando OpenDocument 1.4 come formato di salvataggio nella sua suite Office 365 [3]. In breve tempo gli utenti di Office 365 che vorranno usare OpenDocument come formato di salvataggio utilizzeranno solo la versione 1.4, vale a dire una versione che neppure lo stesso consorzio OASIS ha ancora approvato. Questa accelerazione di Microsoft è giustificata dal fatto che la nuova specifica permetterà di salvare in OpenDocument caratteristiche che attualmente non sono supportate e che quindi si perdono durante la conversione. D’altro canto però nessun altro programma, neppure LibreOffice per quanto ne so, al momento gestisce OpenDocument 1.4 per cui vi lascio immaginare cosa accadrà e chi ne trarrà maggiore beneficio…

In questo senso OpenDocument sembra aver imboccato la strada già tracciata dal WHATWG per HTML5; un non-standard in perenne evoluzione adattato di volta in volta alle esigenze del momento. Nulla di male in se, basta essere chiari e smetterla di proporre OpenDocument come formato per l’interoperabilità documentale e per l’abbattimento del rischio di vendor lock-in [4]. Oppure, più semplicemente, essere onesti con i propri utenti è chiarire che -almeno per ora- l’ultima versione standardizzata ISO di OpenDocument è la 1.2, che quindi andrebbe adottata in tutti i contesti in cui è utile preservare interoperabilità e stabilità. OpenDocument 1.2 potrebbe in altre parole essere il PDF/A [5] della situazione, ma per fare questo occorrerebbe una comunicazione trasparente ed una generale convergenza di impegni tra tutti i soggetti coinvolti nel progetto. Per cui dubito che accadrà. Magari ne riparliamo tra altri 4 anni.

~

1. Le caratteristiche di OpenDocument 1.4 sono descritte qui dal consorzio OASIS ~ 2. Object Linking and Embedding, una tecnologia sviluppata da Microsoft che permette di creare documenti complessi in cui le singole parti possono essere realizzate da applicazioni differenti ~ 3. Vedi l’articolo Microsoft 365 apps now support OpenDocument Format 1.4 ~ 4. Il vendor lock-in indica la situazione di dipendenza dal fornitore; nel caso del software riguarda l’impossibilità di migrare dati e servizi ad un fornitore differente da quello in uso. I formati documentali sono stati spesso usati per creare lock-in tecnologici ~ 5. PDF/A è un sottoinsieme dello standard PDF pensato per la conservazione a lungo termine dei documenti.

Intelligenza Artificiale ed inversione dei ruoli

In un mondo che ama dividersi in fazioni, è sempre più frequente trovare chi pretende l’applicazione rigorosa delle regole per gli altri ed una comoda gamma di eccezioni per se o per la propria parte. Io non so quanto rilevante diverrà l’intelligenza artificiale nel prossimo futuro, ma ho l’impressione che si tratti di qualcosa di più solido dei molti hype tecnologici che abbiamo visto susseguirsi negli ultimi anni (uno su tutti la blockchain…). Noto però anche in questo settore uno strano bispensiero che vorrebbe tenere assieme cose mutualmente escludenti.

Fin dalle sue origini la Rete ha ribaltato alcuni paradigmi dell’editoria tradizionale a cominciare da quello più banale: la semplicità di copia. Il fatto stesso che voi ora stiate leggendo questa pagina implica che una copia della stessa è stata scaricata nella cache del vostro browser, senza contare che avreste comunque molti altri modi di duplicare queste mie parole (dal semplice copia-incolla, al salvataggio su file, alla conversione in PDF, etc.). È una cosa tanto ovvia da un punto di vista tecnico quanto astrusa da un punto di vista normativo. Gli Stati Uniti, proverbialmente molto più pragmatici di noi europei, sono usciti da questa ambiguità appoggiandosi al fair use [1]; altrove tutto è più sfumato ed incerto.

Assunto quindi che la copia digitale sfugge alle logiche molto più blindate dei supporti fisici, esiste da sempre un ampio movimento di utenti della Rete convinti che la copia non solo sia accettabile ma addirittura un diritto imprescindibile. Fenomeno che si è spesso tradotto nella mitizzazione del pirata informatico come difensore di libertà, preservatore di cultura, addirittura paladino dei più deboli. Sarà anche così, però non posso negare di aver visto spesso questi atteggiamenti come il classico alibi di chi vuole tutto, subito e gratis senza porsi mai il problema delle conseguenze.

Ma visto che da incongruenza era partito questo discorso, non posso non raccontarvi l’altra faccia della medaglia. Mi ha sempre sorpreso scoprire come chi pubblicamente sostiene la libertà di copia abbia ben altro atteggiamento verso qualsiasi cosa di propria produzione, fosse anche un elenco scopiazzato di cose lette in giro. Approcci diametrali in cui si inventano clausole di licenza assurde, si infarcisce ogni cosa di minacciosi avvisi di copyright, si inventano rudimentali sistemi DRM fai da te per impedire che altri possano riutilizzare il contenuto. Mi è rimasto particolarmente in testa un/una utente del fu Twitter che prendeva liberamente dalla Rete le immagini che accompagnavano i sui tweet limitandosi ad indicare come fonte un generico immagine dal web, e poi invece tempestava di avvisi di copyright e di tutti i diritti riservati quelle poche immagini che produceva in proprio. Le regole agli altri e le eccezioni per se, come si diceva all’inizio.

E qui arriviamo all’intelligenza artificiale. È ampiamente noto che le aree pubbliche del web sono state largamente utilizzate per l’addestramento dei modelli LLM [2]. Questo processo di scansione della Rete ha riguardato sia l’informazione distribuita e disomogenea sia quella meglio strutturata di grandi database di conoscenza quali possono essere ad esempio Wikipedia, Reddit o Stack Overflow. I modelli di AI hanno cioè fatto in modo massivo quel che ogni utente della rete fa nel suo piccolo, portare a casa ciò che di interessante incontra durante la sua navigazione. Il resto è conseguenziale, nel senso che una AI non ricopia banalmente ciò che ha appreso ma in una certa misura lo rielabora creando un nuovo contenuto in maniera non poi troppo diversa da chi scrive di un argomento dopo averlo studiato sui testi altrui.

Ritorniamo quindi al bispensiero delle regole variabili. Ci sono quelli che per anni hanno riadattato comunicati stampa, quelli che traducono più o meno spudoratamente articoli pubblicati in altre lingue, quelli che seguendo minuto per minuto i trend dell’attenzione li trasformano in pseudo-notizie. Ci sono quelli che fanno i video clickbait mettendo assieme materiali prodotti da altri e quelli che spacciano per creatività il disegnino ispirato alla produzione Disney o al manga di turno. Ci sono quelli che taroccano foto per professione e quelli che falsificano la realtà pur di piegarla ad una ideologia o più prosaicamente agli interessi del committente. Tutti questi, e probabilmente molti altri, hanno ora un nuovo nemico comune, quell’Intelligenza Artificiale che renderà superfluo il loro apporto. Gli stessi che saccheggiano senza ritegno il lavoro altrui ora si scagliano verso quei processi computazionali che potrebbero svolgere gli stessi compiti magari anche in maniera migliore.

Il punto focale è che il vero lavoro creativo non è in pericolo. Un corrispondente di guerra che racconta gli eventi dai luoghi in cui avvengono non ha molto da temere dalle AI. Il suo collega che dalla sua comoda scrivania riprende il lavoro fatto da altri invece è probabilmente destinato ad essere rimpiazzato da una AI. L’artista che crea opere uniche continuerà ad essere apprezzato; l’altro che ne copiava lo stile diverrà inutile.

Ma in tutto ciò non c’è nulla di veramente nuovo, nulla che non sia già successo migliaia di volte nella storia. Limitandoci alla sola informatica, avremmo dovuto impedire la diffusione delle pendrive per tutelare chi produceva floppy? Avremmo dovuto bandire le interfacce grafiche per non rendere obsoleti gli esperti della riga di comando? Avremmo dovuto bloccare gli editor WYSIWYG perché questi avrebbero tolto lavoro agli impaginatori? Avremmo dovuto vietare gli ebook per non danneggiare gli editori tradizionali? E potremmo proseguire all’infinito.

E si ritorna alle regole ed alle eccezioni. L’intellettuale autoproclamato ha avuto buon gioco per anni nello spiegare che quella o quell’altra professione sarebbe scomparsa e che era inevitabile per chi lavorava in quei settori riconvertirsi ad altre professioni. Lo faceva spesso con quella arroganza e supponenza tipica di chi pensa di essere intoccabile ed insostituibile, di chi dall’alto di un lavoro privilegiato guarda quasi con disgusto al lavoro manuale. Ora però forse per la prima volta i ruoli sacrificabili sono proprio quelli della finta-intellettualità, dell’autoreferenzialità, dell’io so’ io e voi non siete un… Ecco, il panico che vedete negli occhi di chi si affanna a demonizzare l’Intelligenza Artificiale è quello di chi sta vedendo il proprio piccolo mondo dorato implodere su se stesso.

~

1. Sul fair use vedi ad esempio l’articolo Il fair use in Italia ~ 2. LLM, acronimo di Large Language Model e traducibile in italiano come modello linguistico di grandi dimensioni; indica una serie di modellazioni computazionali a base statistica su cui si basano gli attuali servizi di Intelligenza Artificiale.

Cosa resta della Blogosfera italiana?

Home page di Splinder a Gennaio 2012

Confesso; questo su Vivaldi.net non è il mio primo blog. Anzi ho perso il conto di quanti ne abbia aperti in passato. Fortunatamente nessuno di essi ha raggiunto una qualche riconoscibilità per cui quando sono spariti dalla rete non se ne è accorto nessuno. Il nulla che si diluisce nel nulla.

Il più longevo di questi spazi è stato online per circa 8 anni, un enormità a pensarci oggi. Lo ospitava Blogger/Blogspot, la piattaforma creata da Pyra Labs che in quegli anni era già stata acquisita da Google. Ricordo che la mia scelta cadde su Blogger dopo una lunga selezione comparativa in cui avevo esaminato quasi tutte le piattaforme gratuite disponibili ed ero giunto alla conclusione che fosse quella con le minori restrizioni. Tutto sommato non avevo neppure torto visto che gran parte della concorrenza si è nel frattempo dissolta mentre i server di Blogger sono ancora attivi e funzionanti nonostante tiri una marcata aria di abbandono anche da quelle parti.

Per farla breve comunque, erano gli anni del boom della blogosfera ed era in corso una vera e propria gara ad offrire piattaforme di pubblicazione. C’era l’armoniosa community Italiana di Splinder [1], c’erano Clarence, Bloggers.it, Io Bloggo e i portali Libero e Virgilio. Ci si erano buttati anche grandi nomi, dai Blog de La Stampa [2] a Il Cannocchiale (Il Riformista), da Tim a Tiscali, da DiaBLOGando (RCS) ad Aruba. E c’erano ovviamente i grandi nomi internazionali: oltre al già citato Blogger c’erano LiveJournal, WordPress.com, Microsoft Live Space ed un infinità di altri. Insomma era impossibile girare in rete per più di 5 minuti senza che qualcuno ti offrisse di aprire un blog sulla propria piattaforma.  Se voleste cogliere meglio l’atmosfera di quegli anni non posso che consigliarvi il libro Come si fa un blog di Sergio Maistrello edito da Tecniche Nuove. Non credo sia più disponibile se non come remainders o nel mercato dell’usato, tuttavia sul sito dell’autore è possibile ancora recuperare una copia PDF [3].

A fronte di una offerta quanto mai ampia a mancare spesso clamorosamente erano invece i piani di sostenibilità; quei programmi chiamati nel medio termine a rendere profittevole e sostenibile un settore in cui i più si erano buttati solo per paura di restare esclusi da un nuovo e promettente mercato. Ed i risultati nefasti non si sono fatti attendere con i vari provider che uno ad uno si sono defilati dal campo, a volte in modo inatteso e clamoroso (come fu per Splinder) altre volte per inedia ed abbandono.

Fin qui però abbiamo parlato dello spirito del tempo e delle molte soluzioni tecnologiche, ma nulla di tutto questo avrebbe avuto senso se non ci fossero state milioni di persone pronte a cogliere quello spirito e a popolare di contenuti quelle piattaforme. Per alcuni era la semplice evoluzione delle pagine personali alla Geocities, per altri uno spazio privato per dare forma scritta al proprio pensiero, per altri ancora un modo per condividere passioni e conoscenza. Ciò che si può dire però è che davvero il blog era uno strumento sociale attraverso il quale si costruivano rapporti umani a volte ben più interessanti della blogosfera stessa. Alcune piattaforme come Splinder, LiveJournal e WordPress.com erano costruite apposta per mettere in comunicazione gli autori; altre come Blogger erano spazi confinati e stava alla volontà del tenutario andarsi a cercare l’interazione con il resto del mondo. Di buono c’era -almeno all’inizio- un assoluto candore che teneva lontani il culto della personalità e le mire commerciali. Si scriveva per comunicare, il resto era marginale.

Certo non era un arcipelago piano popolato da mille isole, anzi l’invisibilità era letteralmente all’ordine del giorno. Anche perché come sempre accade nei contesti sociali qualcuno decise che tanta democrazia non andasse bene. Nacquero così le blogstar, famose sul web per il fatto di essere famose. Che poi per la piccola community italiana si trattava per lo più di un ristretto gruppetto radical chic di persone tutte intente a citarsi e rilanciarsi a vicenda. Un insieme autoreferenziale di esaltati convinti di dover immancabilmente esprimere le proprie opinioni sul thème du jour ed intrinsecamente convinte di combattere dalla parte giusta di non si sa bene cosa. Ancora non lo sapevamo, ma avevamo a che fare con quello che poi sarebbe diventato noto come effetto Dunning-Kruger portato avanti da sparuti aspiranti social justice warrior

Ovviamente non durò a lungo. Che da quell’onda si potesse spremere denaro o se non altro visibilità divenne ben presto un mantra e molti saltarono sul nuovo carro vincente. Così piccole cose nate per hobby divennero aziende, le firme fantasiose divennero partite IVA, la pubblicità irruppe e devastò tutto come poche altre cose sanno fare in Rete. Complice l’ascesa dei social network, tutto rapidamente deperì e quella voglia di comunicazione semplicemente si spostò altrove.

Cosa resta dunque di quegli anni? Cosa resta della blogosfera italiana? Delle piattaforme ben poco: Blogger stagna da anni nella più assoluta marginalità nei piani di Google; WordPress.com è ormai costruito in ottica commerciale; le poche altre piattaforme ancora operative puntano solo a servire pubblicità tra articoli tutti uguali, scopiazzati e sempre più spesso generati algoritmicamente. Non va meglio ai blog in senso stretto. Certo alcuni sono ancora aggiornati ed attivi, ma sono eccezioni in un generale stato di abbandono. Molti di coloro che abbracciarono la svolta commerciale si limitano ormai a pubblicare cianfrusaglie scritte da autori sottopagati a loro volta pronti per essere sostituiti dall’AI. Le blogstar ovviamente hanno fatto carriera e continuano a raccontarci banalità spacciandole per profonde analisi del mondo.

E poi? E poi ci sono piccole nicchie dove si prova a costruire comunità digitali un po’ più salubri ed amichevoli. Lo si fa con strumenti nuovi come nel fediverso o con strumenti antichi come nel tildeverse. Ed è questo che mi sembra di trovare anche qui su Vivaldi.net dove si respira un po’ l’aria del vecchio MyOpera o della prima Mozilla. Vedremo come andrà 🙂

~

1. Splinder ha chiuso definitivamente il 31 gennaio del 2012 – 2. I blog dei lettori de La Stampa chiusero ad esempio nel 2010 – 3. Come si fa un blog.

Dell’idiosincrasia al 4K e dell’arroganza dei ricchi

4K è una di quelle siglette tanto care al marketing ma sostanzialmente vuote di valore proprio; un modo facile per caratterizzare prodotti altrimenti scialbi e tutti simili. I primi televisori 4K sono in giro da più di dieci anni e conosco più di una persona che ha letteralmente speso una fortuna per portarsene a casa uno dei primi esemplari. A volte, con un pizzico di cattiveria, mi diverte far notare loro come a due lustri di distanza quei due caratteri siano ben lontani dall’essere uno standard e che l’acquisto di quei televisori sia diventato una sorta di blocchetto di cambiali postdatate. Allo stato attuale infatti chi desideri davvero sfruttare la qualità del 4K deve necessariamente attingere ad un mercato di nicchia (dischi ottici Blu-Ray o paytv) a fronte di una offerta gratuita che è limitata a pochi canali sperimentali e a qualche youtuber desideroso di mostrare meglio i pori della propria faccia.

La questione riemerge puntuale ogni volta che un grande evento arriva sugli schermi televisivi. Ora è la volta degli europei di calcio 2024, ma lo stesso discorso si presenta ciclicamente. Chi ha investito in apparecchi 4K vive come una ingiustizia il semplice fatto che quello specifico contenuto sia disponibile [1] solo a risoluzioni inferiori, arrivando a teorizzare oscure macchinazioni ed invocando interventi normativi che impongano un passaggio forzato al nuovo standard. Un meccanismo già visto all’opera con il FullHD e con mille altre presunte innovazioni tecnologiche che i più hanno deciso beatamente di ignorare (qualcuno ha detto DAB? [2]).

Ma i limiti del 4K erano noti fin dall’inizio a cominciare da quello più ovvio, la maggior parte del materiale video esistente che costituisce i magazzini delle emittenti non è in Ultra HD, spesso anzi non è neppure il Full HD e nonostante ciò rimane interessante per un vastissimo pubblico magari più sintonizzato sul valore dell’opera che non sulla sua risoluzione. Di più, anche molta della produzione attuale non viene girata in 4K perché questo formato richiede ovviamente hardware dedicato e fa scalare verso l’alto i costi di produzione, trasmissione e memorizzazione. Può suonarvi strano che un broadcaster abbia difficoltà a realizzare quello che oggi sembra alla portata di molti smartphone di fascia alta. Ma in tal caso stareste ragionando su scale differenti. La catena di apparecchiature professionali necessarie a gestire un video 4K nel suo intero ciclo (acquisizione, elaborazione, trasmissione, archiviazione) ha costi enormi a fronte dei quali solo una piccola parte dell’utenza avrebbe significativi vantaggi. Indovinate quale… (ma ci ritorno a breve).

È un discorso che potremmo facilmente estendere anche allo streaming. Trasmettere in 4K significa far esplodere letteralmente la richiesta di banda e per ottenere un risultato decente anche la connessione del fruitore deve essere non solo veloce ma anche estremamente stabile. Fattibile certo, ma comunque costoso.

Dicevo che in tanti sembrano addossare la colpa dello scarso successo del 4K alla proverbiale lentezza del legislatore che avrebbe potuto forzare i tempi imponendo il passaggio al nuovo formato. Qui ci sarebbe davvero da discutere a lungo a cominciare dal fatto che 4K come accennato di per se significhi poco o nulla, che esistano molti formati differenti accomunati sono dalla medesima sigla e che non esiste standardizzazione neppure sui codec da impiegare. Ma la discussione è più generale e non riguarda tanto la parte tecnica quanto quella sociale.

Che aziende private in un settore libero facciano un po’ quel che vogliono è un dato che mi lascia abbastanza indifferente. Se interessante faccio le mie valutazioni, altrimenti mi limito ad ignorare. Non può però essere lo stesso per le aziende che offrono un servizio pubblico ne per quelle che hanno in gestione un bene pubblico come sono ad esempio le frequenze radio-televisive. In questo ambito il bene da tutelare non è il bilancio dell’azienda ne la soddisfazione dell’ego di chi ha speso cifre a cinque zeri per un televisore; il bene da tutelare è l’interesse pubblico e non dovrebbe esserci dubbio sul fatto che raggiungere nel modo migliore il maggior numero di persone sia prioritario rispetto al resto. Perché, è bene chiarirlo, le frequenze sono un bene limitato e quindi far spazio ai canali 4K significa inevitabilmente toglierne ai canali in HD o in SD. Anzi, il bene pubblico in questo caso è così limitato che al momento non c’è neppure spazio per trasmettere tutto in HD per cui anche grandi gruppi editoriali debbono scendere a compromessi sulla qualità o scalare in basso alcuni canali verso la risoluzione standard.

Un concetto che in passato era stato ottimamente assimilato dal legislatore italiano, dal servizio pubblico e dall’industria di settore. Nell’era analogica della televisione italiana è stata adottata una tecnica che potremmo definire additiva che ha permesso di introdurre grandi innovazioni come il colore, la stereofonia, il Televideo senza obbligare l’utenza a cambiare apparecchio; semplicemente il contenuto aggiuntivo veniva ignorato dai dispositivi più vecchi e gestito invece da quelli più nuovi. Semplice ed elegante come risultato ma complesso ed ingegnoso come realizzazione.

Dunque la chimera del 4K finisce per essere una delle prospettive per descrivere questo nostro tempo. Ennesimo esempio in cui una trasversale classe privilegiata che può accedere prima e meglio di altri ad una tecnologia pretende che il resto del mondo si adegui anche a costo di forzare il percorso attraverso la normativa. E quello che accade sistematicamente con l’auto elettrica da un po’ di anni, ed è quello che ogni buona lobby di potere si prefigge di raggiungere con la propria azione. Ma qui il discorso ci porterebbe troppo lontano.

~

[1] Vedi DDay.it, specie nella sezione commenti. [2] Vedi La radio DAB è già su un binario morto?

Cosa è stato ICQ (anche per chi non c’era)

Essere in rete da un po’ di tempo significa spesso ritrovarsi a scrivere mesti messaggi di commiato per ciò che fu. È un esercizio di solitudine consapevole di chi sa di attraversare temi ignoti alle nuove generazioni ed ormai marginali anche per quelle più vecchie. Ma è anche un percorso di memoria per fissare con le parole un ben più ampio ventaglio di sensazioni che per un tratto della nostra vita hanno significato qualcosa.

Oggi tocca ad ICQ1, una delle meraviglie più care a chi si affacciava alla rete alla fine degli anni ’90. Nato da una precoce start-up israeliana, Mirabilis, fu una vera rivoluzione copernicana per la messaggistica in tempo reale. Registrandosi si otteneva uno Unique Identification Number che era tutto ciò che era necessario far conoscere all’interlocutore per chiacchierare via tastiera. E poi la lista degli amici, lo stato dei propri contatti, lo scambio di file, i giochi. Niente a che vedere con le astruse logiche di Talk su Unix. E lontano anni luce anche dall’invadenza della messaggistica sugli smartphone dei nostri giorni.

Un successo travolgente che portò ben presto Mirabilis nel grande calderone di AOL in coabitazione con AIM, destinato a stagnare per poi essere rivenduto anni dopo. Ma nel frattempo erano arrivati tanti concorrenti, Yahoo! Messenger, MSN Messenger, i social, WhatsApp e tutto il resto. Una numerosa progenie che però molto deve a quell’intuizione iniziale: I seek you!

E se già parlare di ICQ nel 2024 è un soliloquio, forse ancora di più lo è ricordare Libero ICQ, una versione modificata di ICQ che per alcuni anni fu proposta dal portale Libero alla propria community e che, stranamente, è anche il più nitido dei miei ricordi sull’argomento.

~
[1] Uh-oh: ICQ chiude dopo 28 anni di servizio.

La chiusura di Xoom.it; echi della vecchia Internet

Per un breve periodo nel 1994 fu noto come Beverly Hills Internet per poi diventare più astrattamente Geocities. Parliamo di un sito pioniere tanto nel campo dell’hosting quanto in quello dei social network costruito sulla metafora della cittadina in cui ogni residente digitale ha modo di metter su casa (home page) e costruire la propria presenza virtuale. Fu un successo travolgente che inevitabilmente generò molti emuli. Tra questi ci fu anche Xoom, un progetto di hosting per pagine e siti personali che arrivò circa tre anni dopo Geocities nel pieno del boom delle dot-com.

A quella fase risale anche un accordo di licenza che permise il lancio della versione italiana sul dominio xoom.it. Mentre il progetto originario non ebbe vita molto lunga1, la versione italiana seguì varie vicende societarie fino ad accasarsi sul portale Virgilio.it che ha permesso al servizio di operare con continuità per più di un quarto di secolo, un’enormità per gli standard di Internet2.

Ora però anche questo eco della vecchia Internet sta per scomparire. Virgilio sta infatti informando i propri utenti della chiusura di Xoom.it dal 17 giugno 2024. Apposite procedure sono previste per scaricare una copia statica dei siti ospitati in un formato che eventualmente faciliterà anche la ripubblicazione in un diverso hosting3.

A parte l’immancabile velo di tristezza che accompagna queste dismissioni, la mail ricevuta da Virgilio mi ha riportato indietro di parecchi anni quando proprio su Xoom.it avevo caricato uno dei miei primi siti web. Come molte altre esperienze, il progetto era partito con grandi illusioni e con un piano di aggiornamenti continui tanto improbabile quanto fumoso… Alla fine quelle paginette stiracchiate si limitarono a contenere qualche guida e qualche manualetto che in quegli anni mi divertiva scrivere e condividere con la Rete.

C’è inevitabilmente anche un po’ di nostalgia non tanto per Xoom o per Geocities ma per quel livello della rete Internet in cui era ancora possibile tirare su un sito web da zero e popolarlo con il proprio pensiero. Non che non si possa fare anche oggi ovviamente, ma una goccia di originalità in un mare di contenuti generati algoritmicamente è inevitabilmente destinata all’oblio. Se in questi anni avete sentito parlare del protocollo Gemini, allora sapete che c’è un po’ di gente là fuori che non si è ancora rassegnata a questa deriva4.

~
[1] Attualmente anche il dominio originario del sito fa capo ad una società completamente differente che si occupa di trasferimenti monetari. [2] Geocities chiuse bruscamente nel 2009 dopo essere stata una delle più dispendiose acquisizioni da parte della vecchia Yahoo! [3] Qui tutti i dettagli. [4] Vedi: Protocollo Gemini: l’uscita di sicurezza da un web ipertrofico.

In Internet senza SLIP :)

Screenshot del browser SlipKnout

Agli inizi degli anni ’90, chiusa la fase militare e ridimensionata quella accademica, Internet sembra pronto ad aprirsi all’uso commerciale e a raggiungere le aziende e i singoli utenti. Rimane però un ostacolo non banale: Internet è nata su macchine Unix nativamente collegate all’infrastruttura di rete e progettate per integrarsi perfettamente con i protocolli di comunicazione che ne regolano il funzionamento. Portare tutto questo alle singole utenze appare fin da subito un processo lungo e costoso. D’altro canto però c’è già la rete telefonica che arriva capillarmente negli uffici e nelle case e su di essa esiste già un notevole traffico dati basato sulla comunicazione diretta tra modem all’interno ad esempio delle BBS (Bulletin board system).

La prima soluzione che viene messa a punto è la più semplice: riutilizzare quanto più possibile l’esistente. Alla Rete vengono collegati i computer dei provider che poi rivendono la banda disponibile ai clienti finali utilizzando connessioni da modem a modem ed accessi in emulazione di terminale. Le astrusità di Unix restano a carico del provider e l’utente può continuare ad utilizzare la linea telefonica esistente ed il proprio economico personal computer.

Negli stessi anni però il lavoro del CERN su WWW e l’arrivo di NCSA Mosaic rendono evidente il potenziale di Internet e strategico l’accesso diretto in modalità grafica. Nascono in quel contesto i protocolli Serial Line Internet Protocol (SLIP) prima e Point-to-Point Protocol (PPP) subito dopo che permettono ad un qualsiasi PC collegato alla rete telefonica di accedere direttamente ad Internet diventandone istantaneamente un nodo.

La transizione dall’accesso indiretto tramite emulazione di terminale all’accesso diretto tramite SLIP o PPP sarà incredibilmente rapida tanto che già alla fine del decennio la vecchia Internet testuale dei terminali sarà stata in gran parte fagocitata dalle interfacce grafiche di WWW.

C’è stato però un breve periodo transitorio in cui le due tipologie di accesso coesistevano sul mercato ed erano in parte sovrapponibili. L’accesso in emulazione di terminale risultava mediamente meno costoso e soprattutto consentiva di portare su Internet computer dall’hardware molto limitato o equipaggiati con sistemi operativi a caratteri (principalmente di tipo DOS). Nasce in questo contesto SlipKnot, un browser shareware rilasciato per la prima volta nel 1994 e sviluppato da Peter Brooks di MicroMind. La sua peculiarità era quella di riuscire a portare la multimedialità di WWW anche sui computer che non disponevano di un accesso SLIP o PPP.

Per ottenere questo risultato SlipKnot utilizzava una interfaccia grafica ispirata al modello di Mosaic mentre dietro le quinte traduceva le azioni dell’utente in altrettanti comandi testuali da inviare al computer del provider. In questo modo SlipKnot era in grado di scaricare i vari elementi di una pagina (per lo più testo e grafica) e mostrarli all’utente sotto forma di pagina web composta.

~
Una pagina storica di SlipKnot è ancora disponibile sul sito originale. Il nome SlipKnot è ovviamente alla base del non riuscitissimo gioco di parole utilizzato nel titolo. Ed a tal proposito non si può non notare come nominare sia SLIP che PPP in italiano faccia quasi sempre spuntare maliziosi sorrisini sul volto dell’interlocutore…

Vomitatori (Singolari perché senza memoria)

Con approccio semplicistico e scarso impegno di ricerca storica, molti sembrano convinti di vivere in una singolarità. È concetto ricorrente in molti campi dell’esistenza umana, ma lo è in particolare in quello tecnologico in cui fenomeni che risalgono agli albori delle reti informatiche -o addirittura le precedono- vengono spesso presentati come nuovi e caratteristici di questo tempo.

Di inedito in realtà c’è solo la stretta simbiosi che oggi abbiamo con i nostri dispositivi informatici e con la rete a cui sono perennemente collegati. Ma le dinamiche umane che popolano la parte abitata della rete sono in buona misura sempre le stesse, magari solo un po’ più compresse nei tempi e più trasversalmente diffuse.

La lente deformata che vorrebbe inedite situazioni e comportamenti in realtà quasi ancestrali, ha molte cause non ultima quella informativa. Viviamo un tempo in cui l’insulto di un mentecatto anziché stagnare nella fogna che lo ha generato viene elevato a notizia da presunti organi d’informazione e poi a vessillo da altrettanto presunte rappresentanze civili e politiche. Percepiamo oltraggioso e pericoloso ciò che spesso nulla è se non uno sfogo rabbioso di chi non ha trovato altro modo per esprimersi. Ma tant’è, l’odio e la paura vendono molto più del ragionamento. Ed anche questa non è certo una novità del nostro tempo.

Pensavo a questa cornice rileggendo un vecchio ebook dei primi anni ’90, la Guida a Internet della Electronic Frontier Foundation nella traduzione in Italiano di LiberLiber. Nel capitolo 4 vengono tracciati vari profili tipici dell’utenza dell’allora strategica rete Usenet, e tra questi si dà anche la definizione seguente:

I “vomitatori” (spewers) danno per scontato che le cose che stanno loro a cuore, quali che esse siano, risultino di interesse generale, o debbano essere propinate a forza alle persone che sembrano non interessate, il più frequentemente possibile. In genere si possono identificare i vomitatori dal numero di messaggi che scrivono ogni giorno sullo stesso argomento, e dal numero di newsgroup ai quali li inviano: in entrambi i casi, si può arrivare tranquillamente a numeri di due cifre. Spesso questi messaggi concernono uno dei vari conflitti etnici sparsi per il mondo, e non esiste alcuna connessione comprensibile fra il loro oggetto e gli argomenti discussi dal newsgroup al quale vengono inviati. Ma ciò non sembra avere alcuna importanza: se cerchi di farlo rilevare rispondendo a uno di questi messaggi, sarai inondato da repliche astiose, che ti accuseranno di essere un razzista insensibile, di non vedere al di là del tuo naso, o di qualcos’altro ancora, oppure ignoreranno del tutto i tuoi argomenti rispondendo con diverse centinaia di nuove righe dedicate a illustrare la perfidia di coloro, chiunque essi siano, che secondo il vomitatore tentano di distruggere il suo popolo.

Sostituite newsgroup con social network e si potrebbe mandare in stampa anche oggi.

~
Una vecchia edizione dell’EFF’s Guide to the Internet è disponibile qui. La versione tradotta da cui è presa la citazione è consultabile qui in vari formati. La parte abitata della rete è un libro di Sergio Maistrello.

Retrocomputing spiegato bene

Lo sguardo perso in una foto a cercare di coglierne i dettagli, di decifrare le scritte, di intuire le funzioni nascoste dietro ogni icona. Quasi una visione iperdimensionale in cui ogni blocco di pixel è il punto di ingresso di un nuovo mondo. Soggetto di questa immagine l’HP 200LX, uno strano ibrido degli anni ’90 a metà strada tra un laptop ed un organizer tecnicamente definito Palmtop PC.

Un processore Intel 80186 da 7.91 MHz, 640 kB di RAM e fino a 4 MB di memoria per far girare un DOS di Microsoft e sopra questo un ambiente grafico monocromatico con calendario, agenda, rubrica, calcolatrice e persino il leggendario Lotus 1-2-3. Il tutto alimentato da due comuni batterie AA.

Negli ordini di grandezza tutta la poesia di una informatica frugale: i processori con frequenze decimali sulla scala dei MHz, la RAM ancora in kB, una memoria dati che oggi non conterrebbe neppure una foto, due batterie da supermercato tanto economiche quanto universali. Eppure tanto bastava.

E mentre osservavo ammirato questo oggetto comparso sulla mia timeline fantasticando sui suoi molteplici utilizzi, d’improvviso realizzo di trovarmi di fronte al mio smartphone; di avere tra le mani un dispositivo che, tastiera QWERTY a parte, quelle funzioni le ha tutte assieme a mille altre e la cui potenza di calcolo è svariati ordini di grandezza superiore (pur essendo il mio uno smartphone molto modesto); e che nonostante ciò non sembra altrettanto significativo.

~
Immagine: HP 200LX – CC-BY-SA Tamie49 / Wikipedia