I Motori di ricerca ridotti ad inutili segnalibri

Pensavamo di essere noi ad esserci impigriti, a non riuscire più a formulare chiavi di ricerca adeguate alle risorse che bramavamo di trovare. Che abituati troppo bene dall’efficienza di Google avessimo perso memoria degli arcani incantesimi che rivolti al moderno oracolo di Mountain View ci aprivano le porte di nuovi universi del sapere. Che i nostri ricordi facessero clamorosamente cilecca e che in realtà nulla di quel mondo fosse mai esistito. Invece no, erano proprio i motori di ricerca ad aver intrapreso un percorso di inabissamento dal quale non riescono più a risalire. Conviene farsene una ragione, i motori di ricerca sono ormai pressoché inutili al netto di un paio di funzioni residue ancora non del tutto travolte dal decadimento.

Donna investigatrice

Google sembra aver perso quella che era la sua prerogativa migliore, la capacità di dare ordine ai risultati di ricerca dando priorità a quelli più rilevanti. Una caratteristica fondamentale quando si utilizza un motore di ricerca senza sapere preventivamente dove approdare. Con un progressivo deterioramento iniziato probabilmente attorno al 2010, la SERP [1] di Google è stata invasa da contenuti di qualità scadente, spesso perfino indecente. Qualsiasi ricerca non banale si traduce in una miriade di risultati inutili, tutti creati con lo stesso schema compositivo, tutti inutilmente prolissi, tutti di utilità pressoché nulla. Potremmo parlare di una vera e propria rivincita delle content farm [2] che sono ormai in grado di dominare le prime pagine dei risultati di qualsiasi motore di ricerca con investimenti via via sempre più marginali. Chi mette in piedi questo genere di contenitori non si fa grossi scrupoli a saccheggiare il contenuto originale della rete, ad assemblarlo in stile Frankenstein, a produrne mille combinazioni differenti, a tradurlo meccanicamente in ogni lingua con un minimo di seguito.

Tutto questo peraltro ben prima dell’esplosione dell’intelligenza artificiale, i cui effetti si vedranno ancora più nettamente da qui a qualche tempo. Con le AI verrà meno anche la necessità di procurarsi materiale originale e l’intero processo di invasione potrà essere gestito algoritmicamente.

Google, ma anche Bing non si scosta di molto, sembra incapace di individuare dei pattern in grado di riconoscere e penalizzare i contenuti generati dalle content farm. Le logiche di ordinamento che premiano il recentismo, l’ottimizzazione per il mobile, la struttura rigida del contenuto si sono rivelate un boomerang devastante per la qualità dei risultati relegando all’invisibilità tutto ciò che non è aggiornato, non è mobile-first, non fa uso di un ristretto e rigido vocabolario commerciale (gratis, migliore, alternativa, e via di questo passo).

Dal momento che parliamo di colossi dalle risorse quasi illimitate è tuttavia lecito chiedersi se detti pattern siano effettivamente impossibili da formalizzare o se viceversa non vi sia alcun interesse a farlo. Dopo tutto i grandi motori di ricerca sono diventati da tempo macchine pubblicitarie il cui scopo non è fornire informazioni all’utente ma condurlo opportunamente nelle mani degli inserzionisti, gli unici che come entità paganti hanno diritto a qualcosa.

Cosa resta dunque? Gli unici due contesti in cui ancora ha senso affidarsi ad un motore di ricerca sono tra loro diametrali. Chi conosce già la destinazione della sua ricerca (un servizio, una azienda, un nome) può usare un motore di ricerca per associare quella informazione nota con l’indirizzo URL a cui è raggiungibile. Ma è evidente in questo caso come il motore di ricerca sia di fatto declassato a poco più di un gestore di segnalibri; e d’altro canto il numero di persone che inseriscono un nome in Google per raggiungere siti abituali è incredibilmente più alto di quanto possa sembrare. L’altro scenario sono le chiavi di ricerca altamente specialistiche, quelle combinazioni di parole tipiche di gerghi tecnici e specialistici priva di un significativo interesse commerciale e per tanto poco presidiate dai generatori automatici di contenuti.

Conviene dunque entrare nella logica che la ricerca orizzontale su Internet sia morta e cominciare seriamente ad individuare strategie alternative. Ma di questo magari parleremo in un’altra occasione.

~

L’immagine in questo post è stata generata utilizzando una intelligenza artificiale · Commenti? · 1. search engine results page · 2. Le content farm sono aziende specializzate nel produrre contenuti ottimizzati per i motori di ricerca; in passato hanno spesso sfruttato il lavoro sottopagato di tanti freelance anche se ormai operano principalmente attraverso strumenti automatizzati a cui si è accennato sopra.

Phishing attraverso inviti di calendario ICS

Premessa: non so se la cosa sia inedita o -come probabile- sia io ad essermene accorto in ritardo. Sta di fatto che da un paio di settimane una delle mia caselle di posta sacrificali [1] sta ricevendo un buon numero di email phishing caratterizzate dalla presenza in allegato di un invito in formato ICS. Scrivo in queste breve righe le mie impressioni sulla questione, più come promemoria che come analisi.

  • Il nome del mittente apparente è quasi sempre una grande catena di elettronica o un importante sito di e-commerce. Il contenuto della mail parla generalmente di un premio conseguito in seguito agli acquisti fatti o vinto in fantomatici concorsi. Non c’è spoofing dell’indirizzo email che può essere visualizzato in chiaro e molto spesso si appoggia a domini .xyz
  • La mail in se non è nulla di speciale, anche se è scritta in un italiano accettabile. Con la scusa del premio si viene portati a cliccare su un link. Dopo qualche redirect si arriva a pagine tutte simili (stesso kit HTML probabilmente) che con qualche click pro-forma portano al premio. Unico intoppo è la necessità di pagare le spese di spedizione, generalmente per un valore ridicolo (0.5 euro). Peccato solo che per completare la procedura serva inserire l’anagrafica completa ed i dati della carta di credito. Del resto che phishing sarebbe altrimenti? 🙂
  • Come dicevo però c’è anche l’inedito allegato in formato ICS che, una volta scaricato e aperto si rivela essere esattamente ciò che sembra: un invito in formato iCalendar da aggiungere al proprio calendario.
  • Se si aggiunge l’invito, sul proprio calendario compare un nuovo evento con il nome del mittente apparente, un testo descrittivo (qualcosa del tipo: Conferma i tuoi dati e ricevi il tuo dispositivo) ed un link su cui fare click per procedere. Link che viene sovente ripetuto anche in altri campi dell’invito (URL e Location ad esempio). Ovviamente aprendo il link si ricade nel caso descritto sopra.
  • Qual è dunque la funzione di questo invito? Verosimilmente è solo un espediente per aumentare la superfice di attacco che in questo modo non si limita alla sola email ma può espandersi al calendario. In questo probabilmente concorre anche la forte integrazione tra webmail e calendario online, quel meccanismo per cui la presenza di un allegato in formato ICS attiva funzioni apposite per aggiungere l’invito al calendario. Funzioni che in alcuni casi sono addirittura del tutto automatizzate.
  • Il file ICS d’altro canto è una semplice sequenza di campi rispetto ai quali non c’è alcuna verifica di coerenza. Nell’invito è cioè possibile inserire come mittente un indirizzo fasullo, cosa che sistemi come DMARC rendono ormai quasi impossibile nelle email. Se l’utente distrattamente si accorge dell’invito direttamente nel calendario potrebbe essere più facilmente tratto in inganno dalla verosimiglianza del mittente.
  • C’è poi da considerare la questione dei calendari condivisi. Se un invito del genere finisce in condivisione può propagarsi rapidamente ad un gran numero di utenti, la maggior parte dei quali estranei all’attacco iniziale via email e quindi più impreparati ad interpretare la situazione.

~

Commenti? · [1] Dicesi casella di posta sacrificale, quell’account email nato con le migliori intenzioni ma poi rapidamente degenerato in un letamaio di spam, phishing e newsletter mai lette.

Pendrive ed SSD sono ancora prodotti distinti?

Un tempo amavo i titoli finto-interrogativi, ma questo avveniva ben prima che il clickbait svilisse questo genere di amorevole delicatezza dubitativa. Faccio una eccezione per questa breve riflessione solo perché davvero non so se esista una risposta ragionevolmente definitiva alla domanda da cui parto. Tra le mie molte insane-passioni vi è quella per i supporti di memoria, nata al tempo in cui un floppy disk era un piccolo miracolo di tecnologia formato sottiletta.

Se chiedessi in giro qual è la differenza tra una comune chiavetta USB ed un drive a stato solido (SSD), molto probabilmente assisterei alle classiche arrampicate sugli specchi. A buon ragione aggiungerei. Il fatto è che alla base di entrambe le tipologie ci sono tecnologie simili a cominciare dall’uso di memorie flash e di controller per l’ottimizzazione delle prestazioni. E d’altro canto le differenze in termini di capacità, velocità e dimensioni che un tempo consentivano una più netta separazione sono ormai in gran parte superate.

Kingston Datatraveler Max

Ci riflettevo guardando la Kingston DataTraveler Max [1], uno degli oggetti del desiderio che mi capita spesso di trovare nei siti di commercio elettronico che visito. Di questo prodotto ho letto una completa e dettagliata recensione su Tweakers.net [2]; una di quelle che una volta era possibile trovare anche sui siti italiani dedicati all’hardware e che adesso bisogna leggere in olandese col traduttore automatico. L’autore, Tomas Hochstenbach, con dati alla mano mostra come per prestazioni, capacità e componentistica interna la DataTraveler Max sia sostanzialmente sovrapponibile ad un SSD di buon livello, caratteristica sottolineata anche dalla presenza di un controller Silicon Motion SM2320G. In altri termini, scelte memorie flash NAND di qualità, adottate interfacce veloci ed aggiunto un controller di alto livello per la gestione dei cicli di scrittura, le differenze rispetto ad un SSD diventano marginali e legate per lo più al fattore di forma. Lo stesso Hochstenbach in un commento sintetizza che se il dispositivo si connette direttamente ad una porta USB lo si chiama ancora pendrive mentre se ha bisogno di un cavetto lo si identifica come SSD.

Ovviamente è un ragionamento con delle eccezioni, a cominciare dal fatto di essere limitato agli SSD con interfaccia USB. Similmente è fuori di dubbio che le molte chiavette USB da pochi euro che popolano il mercato sono molto lontane dalla fascia della DataTraveler Max e dei prodotti analoghi. Penso sia capitato un po’ a tutti di imbattersi in pendrive con controller scadenti che a volte faticano anche a gestire un semplice copia ed incolla di file. E simmetricamente non mancano gli SSD economici che per prestazioni ed affidabilità sono persino inferiori ad un pendrive.

La linea di demarcazione è così sottile da aver portato alla nascita di un fiorente mercato del non detto. Su certi siti di e-commerce spopolano infatti oggetti spacciati per SSD a prezzi irrisori che poi si rivelano essere tutt’altro. All’interno di case metallici di buona fattura infatti non si trova nulla della classica componentistica di un drive a stato solido ma solo una piastrina di silicio con un connettore USB da un lato ed una chiavetta USB o una scheda microSD saldata direttamente sul chip e proveniente da chissà quale scarto di lavorazione. Tecnicamente però si tratta pur sempre di memoria flash :). Poi ovviamente c’è chi esagera e modifica il chip per mostrare capacità inesistenti al sistema operativo, ma li si entra nel campo della truffa… Magari ne riparliamo.

~

Commenti? · [1] L’immagine usata in questo post è presa dal sito ufficiale Kingston · [2] Kingston DataTraveler Max Review ·

La truffa delle false visure automobilistiche

Marta decide di mettere in vendita la sua Lamborgotti Fasterossa [1] a biodiesel e pubblica una inserzione in uno dei più famosi siti per le vendite tra privati. Carica su un po’ di foto, descrive nei dettagli lo stato del suo veicolo e imposta un prezzo un po’ più alto delle sue aspettative per tenersi un margine di trattativa. Lascia ovviamente il suo contatto telefonico e gli altri recapiti utili a contattarla. Passano solo poche ore dall’annuncio e Marta viene contattata su WhatsApp da Noemi che le scrive di essere interessata all’auto, ma vivendo a diverse centinaia di chilometri di distanza, vorrebbe avere maggiori dettagli. La trattativa va avanti e Noemi si dice sempre più interessata, disposta a ritirare di persona la vettura e disposta ad accettare le scelte di Marta per la parte burocratica; non discute neppure sul prezzo proponendo una cifra appena inferiore a quella dell’annuncio. Le due si scambiano messaggi vocali ed almeno in una occasione si sentono anche telefonicamente.

Quando ormai l’accordo sembra in procinto di concludersi, Noemi chiede a Marta un’ultima cortesia: per evitare brutte sorprese ed incomprensioni chiede alla venditrice di inviarle uno storico completo dell’auto, una sorta di report che raccolga le informazioni note sul veicolo. Noemi è così gentile da proporre lei stessa un sito che fornisce questo servizio sostenendo di averlo già usato in passato e sottolineando come questo fornisca molte più informazioni di una normale visura al PRA.

Marta rimane un po’ sorpresa da questa ultima richiesta. Poi però dando fiducia alla sua interlocutrice e constatando il prezzo tutto sommato esiguo della visura automobilistica (una ventina di euro) decide di procedere. Inserisce i propri dati anagrafici, quelli della vettura e procede al pagamento inserendo anche i dati della propria carta di credito. Rapidamente il sito le fornisce via mail un PDF di alcune pagine che Marta gira immediatamente a Noemi.

Pochi istanti dopo, dal contatto WhatsApp di Noemi scompare la foto. Dal quel momento in poi tutti i messaggi inviati da Marta restano non letti ed anche ogni tentativo di contattare Noemi direttamente al telefono si concludono con il nefasto suono della linea che cade. La compravendita è fallita, ma ben altro è accaduto dietro le quinte.

Il retroscena

Quella che potrebbe sembrare una normale storia di inaffidabilità cela in realtà una vera e propria truffa [2]. La nostra Noemi non è mai stata realmente interessata all’acquisto dell’auto ma ha usato le proprie capacità di social engineering (in italiano antico diremmo la propria parlantina) per conquistare la fiducia di Marta. Il sito su cui effettuare la visura automobilistica è in realtà gestito dalla stessa Noemi o da qualcuno suo complice e l’obiettivo di tutta la vicenda è convincere la vittima ad utilizzare il servizio.

Potreste giustamente obiettare che avrebbe poco senso mettere su una truffa del genere che richiede tempo e pazienza per spillare venti euro. Ed avreste perfettamente ragione se non fosse che il sito su cui Marta inserisce i propri dati non offre realmente alcun servizio, il suo scopo ultimo è acquisire i dati sull’identità di Marta e sulla sua carta di credito, informazioni che messe assieme possono permettere raggiri molto più sofisticati e purtroppo anche ben più pesanti a danno della vittima. Lo stesso PDF che viene restituito a Marta dopo il pagamento non fa altro che proporre le informazioni che la stessa ha fornito aggiungendone altre totalmente inventate per dare maggiore credibilità al tutto.

Ad un occhio esperto il sito proposto da Noemi sarebbe apparso immediatamente sospetto:
– codice e grafica dilettanteschi
– nessuna informazione sulla società che eroga il servizio
– nessun intermediario per la transizione con carta di credito
– parti di testo e grafica chiaramente ripresi da altri siti che offrono legittimamente servizi simili

D’altro canto occorre appunto avere un po’ di esperienza per cogliere questi elementi. E tutto il contesto che vi sta attorno non aiuta. La gentilezza dell’interlocutore, l’aver avuto contatti diretti e ripetuti, la buona occasione che si presenta. Anche la serietà del sito di inserzioni rafforza la sensazione di sicurezza della trattativa, anche se in realtà già dal primo contatto il sito viene completamente bypassato a vantaggio di un colloquio diretto.

Come al solito dunque, state allerta e siate diffidenti!

~

I nomi usati in questo post sono ovviamente di fantasia · 1. Per chi non avesse colto il riferimenti simposoniano si veda qui · 2. Si veda questo alert della Polizia di Stato.

 

Il modello opensource e la realtà

Vorrei oggi ritornare sull’argomento di cui scrivevo poco più di due mesi fa nel post La lettera agli hobbisti, il Free software e l’utente. Con gli anni i miei entusiasmi verso l’opensource si sono nettamente smorzati anche se non fatico ad ammettere che per molto tempo non sono stato in grado di spiegare a me ed al mondo le ragioni di questo arretramento. All’origine mi pare di poter porre due elementi tipici del dibattitto del mondo opensource:

  • Gratis prima che libero. Vale a dire il porre sempre l’accento sull’assenza di costi più che sulla libertà di utilizzo del codice; con la conseguenza indiretta che della giusta retribuzione per chi scrive codice in fondo non importa nulla a nessuno. Se un programmatore del mondo opensource prova ad alzare un po’ la voce per rivendicare un adeguato compenso, la risposta è sistematicamente il fork ovvero il caricare lo sviluppo su qualche altro sfortunato disposto ad accontentarsi delle briciole e magari illuso dall’idea di avere alle spalle una grande comunità pronta a sostenerlo. Il caso delle librerie colors.js e faker.js [1] è emblematico di questa piramide rovesciata in cui colossi da miliardi di dollari di fatturato non si fanno problemi a basare il proprio business su piccoli progetti opensource che non solo non ricevono praticamente nulla ma rischiano anche di finire in tribunale se per caso provano a ribellarsi.
  • Vuoto retorico. Parlare con un sostenitore dell’opensource è spesso l’equivalente di provare a sfondare un muro a testate. Inizierà a vaneggiare di diritti fondamentali, di licenze auliche, di modello dalle nobili origini, di spirito di libertà; proseguirà poi con citazioni varie di guru ed affini e concluderà infine con una invettiva contro qualche società commerciale rea non si sa bene neppure di cosa. Ed alla fine non avrà detto nulla ne tanto meno avrà trovato soluzione al problema iniziale. Il dogma come risposta a tutto e zero capacità di analisi critica.

Mettere assieme questi elementi è un po’ come comporre un puzzle, solo alla fine riesci a vedere il quadro d’insieme. Ed in questo caso l’inquietante risultato è una ideologia applicata al software. E come tutte le ideologie anche quella opensource può solo degenerare: da un lato porta a demonizzare qualsiasi esperienza alternativa e dall’altro diventa il martello retorico con cui si costruiscono immense ricchezze private ammantate di buoni princìpi.

Se come me bazzicate nel variegato mondo di F-Droid, quasi sicuramente vi sarete imbattuti in passato in una o più applicazioni della famiglia Simple Mobile Tools. Riassumo per tutti gli altri: si tratta di una raccolta di applicazioni del programmatore slovacco Tibor Kaputa che permette di rimpiazzare la maggior parte delle app di base di un sistema Android (un lancher, un dialer, un calendario, una fotocamera, un gestore di SMS e via di questo passo). Per anni SMT ha permesso a milioni di utenti di liberarsi dalle imposizioni di Google o del produttore del proprio smartphone ed adoperare un set di strumenti di alto livello tra loro graficamente e tecnicamente coerenti. Il tutto sotto licenza opensource, gratuito per l’utente e con una opzione per raccogliere donazioni.

Un progetto di grande complessità sia da sviluppare che da mantenere che avrebbe sicuramente meritato un più congruo riconoscimento. Invece un anno fa emerge la notizia che l’autore ha ceduto la suite ad una società terza interessata a proporre le medesime applicazioni con un proprio modello di business. Su GitHub [2] ma anche su Reddit [3] è partita la solita litania degli adepti dell’opensource: chi si sente tradito (?), chi arrabbiato, chi deluso; c’è chi si è autoconvinto che un progetto opensource non possa essere venduto e non possa cambiare licenza e spera che la cosa finisca in tribunale [4]; c’è chi è convinto che il progetto abbia ricevuto chissà quali contributi in codice da parte della community e che quindi non possa essere ceduto senza il consenso di tutti [5]; c’è chi si lamenta per la scelta dell’acquirente e per il fatto che ora il nuovo proprietario voglia essere pagato; c’è che si aspettava di venire consultato in anticipo (a che titolo? boh…). E poi immancabilmente ci sono i fanatici del fork che auspicano, spingono, sollecitano affinché altri si facciano il mazzo a riprendere e ripubblicare il codice sotto altro nome e ovviamente… gratis. Pochi, davvero pochi, quelli che invece accettano la decisione dell’autore ed ancora meno quelli che lo ringraziano per anni di lavoro offerti gratuitamente a tutti.

I fork puntuali arrivano, i paladini del mondo libero se ne fanno garanti e promotori ed il ciclo riprende. Nessuno ovviamente azzarda una qualche forma di autocritica. Proviamoci qui. Se un progetto con milioni di download non porta di che vivere ad un programmatore, il problema è la sua scelta di vendere o l’assoluto menefreghismo degli utenti? Se le donazioni fossero state ragionevoli non ci sarebbe stato motivo di cedere il progetto; viceversa se portare avanti lo sviluppo diventa solo un onere è irragionevole pensare che qualcuno debba sentirsi obbligato a proseguire solo per permettere a te di de-googlizzare il tuo smartcoso e riempirti la bocca di opensource in salsa free.

Quando parlo di ideologia opensource è a questo genere di situazioni che guardo. E la sensazione di disagio che me ne deriva è forse ciò che più ha raffreddato la mia passione per questo spicchio del mondo del software.

20.12.2024 UPDATE · Mi pare opportuno un piccolo chiarimento: in questo articolo ho utilizzato la parola opensource in senso estensivo includendo al suo interno anche elementi più strettamente legati al modello del software libero. È vero a rigore che si tratta di concetti diversi e distinti tanto che fiumi di inchiostro sono stati versati negli anni per sviscerarne ogni più sottile distinzione. Ma è vero anche che si tratta di due insiemi con una altissima quota di sovrapposizione nei quali gli elementi comuni sono largamente prevalenti. In questo contesto mi sembrava ridondante dover ripetere ogni volta la doppia formulazione. Ma nel caso, se ne può sempre discutere in un’altra occasione.

~

1. Si veda Dev corrupts NPM libs ‘colors’ and ‘faker’ breaking thousands of apps · 2. GitHub · 3. Reddit · [4] Le più comuni licenze opensource inclusa la GPL permettono il riutilizzo del codice ma non azzerano il copyright che resta in mano ai singoli programmatori. Questi ultimi sono liberi di riutilizzare lo stesso codice sotto altre licenze, di concederne l’uso a terzi, di venderlo se desiderano · [5] È poi emerso che la quasi totalità del codice è da attribuire all’autore del progetto, a riprova di come il concetto di community sia più che altro retorica ben orchestrata.

Sulla violazione di Archive.org

Come forse saprete sul finire dello scorso settembre Archive.org è stato violato [1] ed ha subito l’esfiltrazione di 6.4 GB di dati. Il database sottratto (ia-users.sql) sembra contenga l’archivio degli account inclusi nome utente, email, hash delle password ed altre informazioni di contorno. In totale il database conterrebbe oltre 31 milioni di indirizzi email univoci. Uno di questi è il mio 🙂 Per di più il sito è da alcuni giorni irraggiungibile a causa di un attacco di tipo DDOS [2] che potrebbe essere strettamente collegato alla violazione precedente.

Ne parlo come di un dato assodato, ma la reale situazione è emersa solo da un paio di giorni e la trasparenza delle informazioni fin qui note lascia molto perplessi. La violazione dei server dello scorso settembre infatti non era stata resa pubblica e nulla era stato comunicato agli utenti prima che un messaggio beffardo inserito dagli stessi aggressori avvisasse i visitatori e che il successivo DDOS rendesse irraggiungibile il servizio. Non molto rassicurante…

Ma vi dicevo che uno dei milioni di indirizzi oramai alla mercé di chiunque su Internet è il mio, che su Archive.org ero iscritto da qualche tempo per coltivare la malsana passione di scandagliare tra documenti vetusti, libri antichi e vecchie pagine web. Ho potuto verificarlo direttamente su ‘;–have i been pwned? [3] dato che il database della violazione è stato già caricato sul sito.

Nel mio caso specifico lo user è insignificante la password è univoca, lunga e complessa, persino l’indirizzo email è solo un alias che alla peggio posso troncare. Eppure la situazione mi appare decisamente spiacevole. Da utenti possiamo mettere tutta la diligenza del caso nel costruire i nostri account, adeguarci alle regole più stringenti, attuare ogni possibile precauzione. Resta però l’altra parte dell’equazione che sta dal lato di chi quelle informazioni le dovrebbe custodire e che spesso non si dimostra all’altezza del ruolo che ricopre (stiamo parlando di Internet Archive, non del sito della bocciofila diamine!).

Un vecchio adagio dell’informatica dice: se non vuoi che diventi un leak, non salvarlo. Il problema di fondo è sempre lo stesso, la voracità di dati di chi gestisce un servizio. Informazioni spesso del tutto superflue, pretestuose, ridondanti che vengono richieste ed accumulate per prassi o per riservarsi usi futuri. Serve davvero un indirizzo email per creare un account? Ho in mente almeno un paio di alternative che eviterebbero questi scenari ma che hanno il difetto di non essere a prova di scemo e quindi vengono rigorosamente evitate. Non sia mai di responsabilizzare l’utente e renderlo consapevole del contesto.

Proprio ieri l’amministratore di un vecchio gruppo Yahoo mi ha inviato una mail. Anni fa rifiutò la mia iscrizione al gruppo per ragioni che mi sfuggono, ma da quel momento in poi avrebbe dovuto cancellare il mio indirizzo. Invece si è rifatto vivo ieri avvertendo tutti i poveri utenti rimasti impigliati nella sua rubrica della nascita di un nuovo gruppo a cui invitava ad iscriversi. Il regolamento allegato alla mail era una sintesi di protervia, incoscienza e narcisismo sia per l’arbitrarietà di ciò che imponeva sia per l’assurda quantità di dati che richiedeva agli iscritti. Per un attimo ho pensato di rispondere per le rime, poi ho optato per una reazione più sottotraccia marcando come spam il messaggio (e lasciando al mio provider il lavoro sporco).

La fame di dati è un male del nostro tempo. Difendersi è difficile, a volte impossibile. Se c’è concesso, proviamo almeno a limitare i danni [4].

~

1. Consulta l‘articolo di Bleeping Computer per i dettagli e per eventuali aggiornamenti · 2. DDSOS, Distributed Denial of Service, è una tipologia di attacco informatico che satura le risorse di un sistema fino a determinarne il collasso · 3. Consulta questa pagina · 4. Se foste nella mia stessa situazione, al momento con il sito irraggiungibile non c’è molto che possiate fare. Quando il quadro sarà più chiaro si potranno prendere eventuali misure di mitigazione. Nel frattempo si deve alzare la guardia su tutto ciò che arriva all’indirizzo compromesso, cambiarlo se usato su altri servizi rilevanti e modificare le password usate altrove se identiche a quella compromessa. Di mio penso che comunque rimuoverò l’account appena possibile.

La lettera agli hobbisti, il Free software e l’utente

L’italiano, inteso come lingua, non ha mai avuto probabilmente un sito di riferimento per il trittico Linux, Free software, Opensource; è mancato e manca l’equivalente che so di LWN.net o Phoronix.com in inglese. Non che i tentativi siano mancati ovviamente, ma esistono problemi strutturali difficili da superare per chi voglia trasformare un simile progetto in qualcosa di più di un semplice hobby. Da un lato c’è la vastità dell’argomento, dall’altro una platea non poi così estesa, da una parte c’è la concorrenza sempre più forte di AI e traduttori automatici, dall’altra la limitata redditività del lavoro editoriale online.

Sta di fatto che se ripenso agli ultimi 20 anni non mi vengono in mente molti ritrovi dove discutere di pinguini, gnu e creature affini. Forse potrei citare ZeusNews.it, ma da quelle parti la deriva su posizioni anti-Microsoft ha sempre avuto la meglio. Forse potrei citare Marco’s Box (marcosbox.com) che ci mette sicuramente grande passione ma rimane (per me, beninteso) troppo didascalico. C’è il tagliente Mia mamma usa Linux (miamammausalinux.org) che ha il grande pregio di far emergere temi che il pubblico italiano per lo più ignora (me compreso). C’è –ma dovrei usare il passatoLFFL.org che forse è quanto più si sia avvicinato ad un sito di informazione ampia e trasversale sui temi del software libero.

Un tempo verbale al passato dicevo, perché l’ultimo articolo organico del sito risale al maggio del 2022 seguito da un anno di silenzio. Nel maggio del 2023 la proprietà del sito è intervenuta direttamente a spiegare le cause e le ragioni dello stop agli aggiornamenti con un articolo intitolato LFFL è fermo da un anno: cos’è successo e perchè? È una lettura molto istruttiva a vari livelli che permette di ampliare il quadro della riflessione:

  • Il sito non ha mai generato utili
  • Non ha generato utili anche perché gran parte dei suoi lettori usava un adblocker
  • La pagina delle donazioni (non so quanto aggiornata) elenca solo 15 donatori in totale (ignota la cifra)
  • Gli inviti a contribuire (retribuiti) al sito sono quasi sempre caduti nel vuoto
  • Due soluzioni proposte per la ripartenza: un contributo dell’utenza tramite Patreon o la cessione del sito a qualcuno disposto a gestirlo senza snaturarlo.

In altre parole la nostra equazione ha una nuova variabile: l’utente. Che come spesso accade è parte del problema e non della soluzione. Scrivere in maniera costante, puntuale, precisa è una attività non banale che richiede tempo ed impegno. Magari per un tratto della propria vita lo si può fare gratuitamente per passione (a me è capitato) ma poi ad un certo punto si smette e ci si dedica ad altro.

I commenti all’articolo, in verità assai pochi, aggiungono qualche altro tassello. Qualcuno fortunatamente si dice disposto a contribuire direttamente. Il resto è un fiorire di distinguo: da quello che pur di non pagare vorrebbe bloccare gli adblocker, a quello che vorrebbe retribuire i redattori con i link di affiliazione, fino a quello che vorrebbe pagare coi bollini del supermercato (è una mia iperbole, ma il senso è un po’ quello).

Se più di un anno dopo il sito è ancora immobile, capirete che il problema insormontabile dell’informazione Linux-centrica è l’utenza. Vale a dire quella platea sufficientemente smaliziata da giocare con adblocker, DNS, VPN ed altre amenità pur di procurarsi comodamente i contenuti di proprio interesse, ma massivamente refrattaria a sostenere chi quelle informazioni le produce.

Nel 1976 un giovane Bill Gates prese carta e penna (più verosimilmente aprì un wordprocessor) e scrisse la celebre An Open Letter to Hobbyists indirizzata ai membri dell’Homebrew Computer Club ed agli hobbisti in genere. Con i toni spigolosi della sua giovane età, Gates poneva problemi concreti sulla sostenibilità del nascente mercato del software per PC: dalla richiesta di una giusta remunerazione per chi scrive software, alla scorrettezza di chi lo ricondivide allegramente, all’impossibilità di produrre software di qualità se con questa attività non si coprono neppure i costi. Per contestualizzare meglio bisogna ricordare che fino al 1974 negli USA (e a cascata nel resto del mondo) il software non godeva di alcuna protezione legale.

Il Linuxiano ortodosso ha sempre trattato la An Open Letter to Hobbyists come argomento anti-Microsoft, contrapponendovi la magnificenza di Linux, progetto completamente slegato dalle logiche di mercato e portato avanti per passione. Ragionamento che sicuramente faceva una certa presa sul pubblico ma che con il tempo è diventato sempre più fragile. Andate a verificare le retribuzioni dei dirigenti delle varie organizzazioni che promuovono il software libero, o quelle degli sviluppatori organici. Andate a spulciare i bilanci delle varie organizzazioni, le spese per consulenze, i viaggi pagati. Direste ancora che è tutto fatto per passione? In forma hobbistica? Appunto. Con parole forse sbagliate, Gates aveva detto cose corrette; ma state pur certi che non troverete molte persone disposte ad ammetterlo. Heartbleed è ancora li a ricordarcelo, e la più recente crisi economica della Gnome Foundation per altre vie ne è la dimostrazione definitiva.

Il software libero al pari dell’informazione indipendente esiste ed avrà futuro solo se sostenuto dai propri utenti. In caso contrario prepariamoci a vivere in un mondo di informazioni algoritmiche, pilotate, tutte identiche, tutte senz’anima.

È ora di chiudere i commenti su Internet

A cosa dovrebbero servire i commenti in coda ad un post o ad un articolo? Sembra una domanda banale ma quando provi a formulare una risposta coerente ti accorgi che così ovvia la questione non lo è proprio. Lo chiedeste a me vi direi che i commenti dovrebbero essere uno spazio per il lettore in cui esprimere la sua opinione, le sue valutazioni e perché no le sue critiche al contenuto principale. E forse all’alba di quello che è poi passato alla storia con l’etichetta di Web 2.0 è stato davvero così. Ma oggi? A me sembra che i commenti siano diventati semplicemente un altro social network, modello di cui ricalcano la vacuità e l’egocentrismo.

Complice la centralizzazione delle piattaforme, molti modelli tipici del social network si sono trasferiti anche nei commenti con profili, avatar, like, interazioni, citazioni, embedding e quant’altro. Alcuni degli ormai pochi siti che leggo con regolarità hanno ancora una sezione commenti attiva e mi capita, nonostante la mia diffidenza, di buttarci un occhio. L’esperienza -almeno per me- è disastrosa. Forse un commento su 10 ha una qualche correlazione con l’argomento della pagina, tutto il resto è, perdonatemi, immondizia. Molti commentatori non sembrano neppure aver letto l’articolo sotto cui scrivono e partono spediti con i loro anatemi, con il loro qualunquismo, con le frasi ripetute a cantilena. E poi ideologia spiccia, frasi fatte, lettura politica di ogni cosa si trattasse pure del peso specifico del semolino o del colore della carta da parati. E ancora chiavi complottiste, pretese di evidenza per cose che stanno solo nella testa del commentatore stesso, rabbia repressa. Tanti non sembrano neppure interessati a lasciare un commento quanto ad innescare una discussione attorno a se, nel più classico stile dei troll. Nella sparuta minoranza che l’articolo l’ha letto sono sempre più pochi a comprenderlo specie se la sintassi della frase ha più di un inciso e di una subordinata; e via ancora di incomprensioni, arrabbiature e polemiche. Davvero frustrante.

Dopo qualche minuto di lettura, la pressante sensazione di aver sprecato tempo prende il sopravvento assieme allo sconforto. A volte verrebbe voglia di replicare un commento alla volta, punto su punto, assurdità per assurdità. Ma sarebbe la proverbiale fatica di Sisifo oltre che una resa a quel modello inflazionato di comunicazione. Altre volte viene istintivo tallonare per un po’ qualche commentatore troppo ossessivo per scoprire che magari tutto ciò che millanta in pubblico è pura invenzione e quello spazio nel discorso pubblico è gran parte della sua quotidianità. Abissi nei quali sarebbe meglio non guardare, probabilmente.

Nella seconda metà degli anni ’90 il fenomeno passato alla storia come Eternal September (Settembre Eterno) innescò il rapido declino della rete Usenet. Al tempo l’arrivo in massa di utenti superficiali, impreparati e poco propensi ad approfondire destrutturò le basi di una comunità che si era invece fondata su ordine e voglia di apprendimento. Probabilmente lo stesso è accaduto ai commenti del Web, ma con una differenza non banale. Usenet era la più non-commerciale delle reti informatiche, mandata avanti con poche risorse e quasi solo per passione; la rete dei commenti invece ha oggi un valore commerciale per chi ne gestisce le piattaforme così come per chi la ospita nei propri siti. I comenti diventano visite, interazioni, engagement, metriche dunque che qualche esperto di marketing saprà sicuramente trasformare in un adeguato controvalore.  E questo basta a tenere in piedi la baracca, a tollerare gli eccessi, a fingere che tutte le idee abbiano lo stesso valore. Non sarà facile uscirne.

Truffe online tra ingenuità ed avidità

Oggi vorrei raccontarvi una storia su più livelli partendo da un passato abbastanza lontano per arrivare alla stretta attualità. Il tema di questo racconto sono le truffe online, o meglio gli schemi utilizzati per perpetrarle e gli errori sistemici che spesso commette chi ne è vittima.

La nostra vicenda inizia nell’informaticamente lontano maggio del 2006; se avrete la pazienza di seguirmi fino in fondo vi spiegherò anche come sia riemerso nella mia testa questo inconsueto ricordo. La diffusione di massa di Internet in Italia è nella sua prima fase, l’approccio degli utenti oscilla tra il misticismo e l’entusiasmo, l’informazione però è ancora largamente cartacea [1]. Computer Idea (nulla a che vedere con l’omonima attuale) era una delle tante pubblicazioni del periodo che aveva però il grande merito di sapersi far amare. Mi rendo conto della evanescenza di questa definizione, ma ci sono cose che non sempre si possono formalizzare. Senza contare che questo post si annuncia già abbastanza lungo anche senza entrare nel sentimentale. Seguendo le tendenze del momento, la rivista si era dotata di due blog online, uno di taglio generico e l’altro -chiamato Attenti al lupo– dedicato ai temi della sicurezza in rete e curato dal direttore Maselli. In quel maggio un post apparentemente di puro contenuto informativo scatenò una discussione-monstre che vide l’accumularsi di centinaia di commenti e che si protrasse incredibilmente per molti mesi [2]. L’articolo metteva in guardia dal proliferare di siti truffaldini o comunque inaffidabili che cavalcavano il falso mito dei prodotti di marca venduti direttamente dai terzisti asiatici e dunque incredibilmente convenienti.

Incredibile è proprio la parola chiave di tutto il discorso. Il più classico degli adagi di Internet è che se qualcosa è troppo bello per essere vero, allora semplicemente non è vero. Vale oggi quanto nel 2006. Ciò tuttavia non ha impedito a migliaia di persone di cadere nella trappola e perdere somme di denaro a volte modeste ed altre invece piuttosto cospicue. La singolarità di quel post, come accennato, sta tutta nei commenti. Dapprima emerge soprattutto l’ingenuità e la buona fede di molti utenti che semplicemente non si accorsero delle molte anomalie messe assieme da questi siti truffa (prezzi illogici, contatti evanescenti, metodi di pagamento insicuri, logiche spammatorie, etc.). Moltissime furono anche le richieste di persone che da sole non si sentivano in grado di valutare la serietà di un ecommerce o cercavano una soluzione per recuperare il denaro perso. Poi però lentamente emersero altri profili probabilmente minoritari ma fortemente rappresentativi di un mondo variegato in cui ciascuno si auto-convince di poter essere più astuto degli altri e di poter trarre un vantaggio dalla situazione (oggi definiremmo queste persone vittime dell’effetto Dunning-Kruger, ma nel 2006 eravamo tutti molto più carenti di terminologia spiccia…):

  • C’erano quelli convinti che grossisti cinesi di marchi famosi dovessero esistere per forza e che tutto stava nel trovarne l’indirizzo. Riconoscibili perché continuavano a chiedere ossessivamente il controllo di nuovi siti in cui si erano imbattuti nelle loro ricerche.
  • C’erano quelli che giustificavano il loro interesse verso questi siti con la necessità di risparmiare, salvo poi lanciarsi in acquisti stock da 10 pezzi per i quali spendevano cifre assurde. Gli stessi che poi nella maggior parte dei casi perdevano tutto il malloppo o si ritrovavano con paccottiglia inutile che del prodotto cercato aveva al più la sembianza estetica.
  • C’erano quelli convinti che i terzisti di un marchio celebre avessero la possibilità di vendere in proprio una parte della produzione, o addirittura di produrre repliche di prodotti di cui ormai conoscevano le caratteristiche. E che poi si stupivano se i loro acquisti finivano bloccati in dogana.
  • C’erano quelli che si lanciavano in lunghe filippiche sull’etica della contraffazione immaginando poveri artigiani impegnati a portare il pane a casa e non vere e proprie organizzazioni criminali che -semmai- l’artigiano asiatico lo sfruttavano a loro volta.
  • C’erano quelli talmente fissati con marchi e modelli precisi da accettare di buon grado l’evidenza che si trattasse di prodotti contraffatti e preoccupati solo che la merce acquistata arrivasse davvero e superasse indenne i controlli doganali.
  • C’erano quelli un po’ frustrati dal non venire a capo della situazione che invocavano la realizzazione di una lista di negozi fidati in cui comprare a buon prezzo. Gente che in sostanza chiedeva un elenco verificato di criminali affidabili
  • C’erano gli immancabili filosofi della guerra di classe che riconducevano tutto alla lotta contro le multinazionali brutte e cattive (dimenticando volutamente che esistono aziende che producono buoni prodotti senza i ricarichi dei marchi più noti, ma che inevitabilmente non destano lo stesso interesse perché assai meno modaioli).
  • C’erano anche quelli che in tutto ciò cercavano il tornaconto personale, convinti di poter acquistare prodotti di marca ad un terzo del loro valore per poi rivenderli a prezzi quasi normali e trattenere per se la differenza. A volte talmente spacciati da difendere ad oltranza l’indifendibile posizione in cui si mettevano.
  • E c’erano infine anche i più teneri della cucciolata, quelli che pensavano che un link sponsorizzato in Google fosse una sorta di sito raccomandato e certificato da Google e dunque non si rassegnavano all’idea che lo stesso fosse classificato come pericoloso.

Facciamo ora un lungo balzo temporale e portiamoci al 2021/2022. Per le complesse ragioni geopolitiche che credo tutti ricorderete, in questo periodo molti prodotti subirono un vorticoso aumento dei prezzi. Tra questi c’era anche il pellet il cui prezzo andò vicino al raddoppio in pochi mesi. Una seconda grande verità della rete è che se si può trarre vantaggio dalla difficoltà altrui, qualcuno sicuramente proverà a farlo. Accade sistematicamente ogni qualvolta una catastrofe naturale devasta qualche parte del mondo, accade quando emerge una qualsiasi difficoltà diffusa, accade sistematicamente quando un gruppo sufficientemente grande di persone è vulnerabile in qualche modo. Accadde anche con il pellet [3] in Italia. Lo schema della truffa è incredibilmente simile a quanto descritto sopra: Finti siti di vendita online che spuntavano come funghi; tutti caratterizzati da prezzi insostenibili, tutti realizzati con i medesimi template, tutti ottimamente indicizzati dai motori di ricerca. Certo rispetto al 2006 alcune cose erano diverse. La semplicità con cui oggi possiamo verificare una partita IVA o visualizzare un certo indirizzo fanno si che alcuni dettagli debbano essere più curati. Si trovavano ad esempio siti che inserivano come partita IVA e come recapito quelli di una attività legittima che ovviamente era all’oscuro di tutto e magari finiva anche subissata dalle proteste delle vittime della truffa.

D’altro canto però anche i sintomi della truffa erano evidenti. Se avete un’idea di come funzioni il pellet, sapete che si vende in pesanti sacchi da 15 kg e di solito si acquista in “pedane” da 50 a 100 sacchi. A livello logistico è quindi prodotto di prossimità ed è irragionevole pensare che un’azienda che sta a migliaia di chilometri possa consegnare a domicilio senza rimetterci. Allo stesso tempo la procedura di acquisto avrebbe dovuto far scattare più di qualche dubbio. Tutto semplicissimo finché si trattava di riempire il carrello, poi nelle fasi finali la richiesta di molti dati personali a precedere una procedura di pagamento insolitamente complicata che richiedeva quasi sempre il pagamento tramite bonifico bancario su banche estere. Un classico intramontabile.

Arrivati fin qui credo mi resti solo da svelarvi il perché di queste due storie. Un paio di mesi fa, casualmente ancora nel mese di maggio, una inchiesta [4] del quotidiano britannico Guardian, del tedesco Die Zeit e del francese Le Monde ha fatto emergere una rete di 76.000 finti negozi online nelle cui maglie sarebbero caduti almeno 800.000 utenti dall’Europa e dagli Stati Uniti. La truffa sarebbe avvenuta a vari livelli sia con la sottrazione di denaro sia con il furto di dati personali. Secondo l’inchiesta anche questa rete ricalca alla perfezione gli stereotipi di cui abbiamo parlato finora: venditori asiatici che trattano marchi del lusso o prodotti di fascia alta proposti a prezzi ridicolmente inferiori al valore di mercato. Di inedito c’è il fatto di aggredire direttamente i dati finanziari e di fare del furto di informazioni personali una sorta di business parallelo.

Dettagli a parte, lo schema si ripete. Ingenuità ed avidità restano grimaldelli straordinariamente efficaci per entrare nel privato delle persone fino a convincerle a cedere codici di carte di credito ed anagrafiche complete. Gli stessi dati che cercheremmo di proteggere adeguatamente in un contesto razionale che diventano una merce sacrificabile rispetto all’occasione di una vita [5].

~

1. Per voi “giovinastri” là fuori, è esistito un tempo in cui le notizie si leggevano su strani supporti di carta che andavano acquistati in altrettanto strane strutture chiamate “edicole” sparse per la città, spesso direttamente sui marciapiedi. Dovesse capitarvi di alzare lo sguardo dallo schermo del vostro smartphone, potreste persino ancora trovarne alcune funzionanti attorno a voi ~ 2. Il post intitolato Torna la minaccia dei “negozi-truffa”, non è più online da molto tempo, ma chi volesse farsi un’idea propria può recuperarne una copia abbastanza completa dalla Wayback Machine di Internet Archive ~ 3. Si veda questo articolo della Polizia Postale ~ 4. Si veda Chinese network behind one of world’s ‘largest online scams’ ~ 5. Se avete visto Shrek e vissero felici e contenti, sapete di che parlo 🙂

I Blog di Virgilio / MyBlog verso la chiusura. Tempo di migrare!

Dunque è ancora tempo di commiato. Poco più di un mese fa avevo descritto la mia non ottimistica visione sullo stato della blogosfera italiana; la conclusione, a tratti fosca, era quella di un mondo ormai residuale popolato di servizi ancora attivi quasi solo per inerzia ed in cui nessuno investe più. Non debbo essere andato molto lontano dalla realtà se a breve distanza uno dei maggiori servizi di hosting gratuito per blog ha ora annunciato la sua prossima chiusura.

Ho ricevuto oggi una mail informativa di Virgilio che annuncia la chiusura dei Blog di Virgilio / MyBlog per il prossimo 30 settembre. Nel breve messaggio si legge quanto segue:

desideriamo informarti che dopo tantissimi anni il 30 settembre 2024 chiuderemo il servizio MyBlog di Virgilio. Vogliamo assicurarci che tutti i nostri blogger abbiano il tempo necessario per salvare i propri contenuti. Noi faremo tutto il possibile per rendere facile questo passaggio

Il resto della mail descrive sinteticamente la procedura per esportare i contenuti del blog; non la riporto per esteso anche perché è disponibile in una forma più completa nelle pagine dell’aiuto di Virgilio [1].

La brutta notizia è ovviamente la chiusura di MyBlog che, grazie anche al dominio myblog.it, è stata per molto tempo una delle migliori soluzioni italiane per aprire un blog senza troppi sbattimenti. La non tanto buona notizia è che i tempi per la dismissione sono relativamente brevi e gli utenti avranno a disposizione poco più di due mesi per salvare i propri contenuti. La buona notizia -almeno credo- è che l’esportazione dei contenuti e la successiva importazione su una piattaforma alternativa dovrebbero essere abbastanza indolore. I Blog di Virgilio usano infatti la piattaforma WordPress per cui il file di esportazione in formato XML dovrebbe essere facilmente gestibile.

Considerando anche la recente chiusura di Xoom.it, sembrerebbe che in casa Virgilio si stia facendo un po’ di draconiana pulizia… Resta da capire invece se i Blog del portale Libero [2] seguiranno lo stesso destino o avranno maggior fortuna.

Una volta in possesso del prezioso file XML molti blogger si troveranno nella difficile situazione di doverne decidere il destino. A parte conservarlo come backup, dovrebbe essere relativamente semplice importarlo su una qualsiasi altra istanza del software WordPress. Limitandoci ai servizi gratuiti potrei suggerire di provare su WordPress.com [3] o sull’italiano Altervista.org. Se poi cercaste un ambiente più tranquillo e pulito e non foste maniaci della personalizzazione a tutti costi, date anche un’occhiata a Vivaldi.net [4] nella cui sezione Blog trovate proprio una istanza WordPress pulita ed essenziale a cui peraltro appartiene anche il modestissimo blog che state leggendo 🙂

~

1. Chiusura servizio Virgilio MyBlog (Virgilio.it) ~ 2. Da alcuni anni Libero e Virgilio, un tempo concorrenti, appartengono alla stessa società, hanno uniformato molti elementi e incrociano spesso contenuti e servizi ~ 3. Importa contenuti di un sito (WordPress.com) ~ 4. Per chi non lo sapesse, Vivaldi.net è lo spazio della community del browser Vivaldi.

OpenDocument 1.4, il sorpasso a destra di Microsoft

Come ogni buon vecchio bacucco dell’Internet mi è più facile criticare che non costruire. Mi conforta in questo decadimento un filo di coerenza che cerco sempre di preservare per non cadere nel professionismo del no che tanti danni crea e ben poco risolve. E nel mio piccolo mondo coerente la standardizzazione dei formati documentali è sempre stata una stella polare, una di quelle premesse imprescindibili per la libertà dell’utente e per la preservazione delle informazioni. Ho creduto nel potenziale di OpenDocument fin dalla sua nascita e, con tutti i limiti della mia irrilevanza, ho cercato di difenderne le basi quando la natura del progetto è stata piegata a logiche di convenienza.

Per dirvi, sono passati ormai più di quattro anni da quando scrissi un piccolo sfogo dal titolo fintamente interrogativo: OpenDocument ha fallito? Dicevo allora sostanzialmente due cose:

  • che l’universalità di OpenDocument era stata minata da un processo di estensione arbitrario che rendeva i file creati da un programma incompatibili con altre applicazioni
  • che il rilascio della nuova specifica OpenDocument 1.3 rischiava di aggravare la situazione date la difficoltà di implementazione ed il generale disinteresse

Quattro anni dopo mi spiace constatare di aver intuito correttamente la questione. OpenDocument 1.3 non è ancora stato standardizzato dall’ISO (il processo è in corso) e ne circolano già versioni estese non conformi allo standard proposto. La classica babele che rende quasi inutile la stessa standardizzazione.

Come se non bastasse è già in fase di sviluppo anche OpenDocument 1.4 [1] il cui evidente destino sarà quello di aumentare ancora l’entropia del sistema documentale opensource. Intendiamoci, è ovvio che ogni volta che si introduce una nuova funzionalità in un software è necessario trovare un modo perché questa possa essere memorizzata in un file. Per cui o si cercano soluzioni astratte e generalizzate come OLE [2] oppure si aggiunge la nuova funzione a quelle memorizzabili nel file. Dunque l’aggiornamento dei formati è quasi inevitabile. Il punto è un altro. Se OpenDocument è proposto come formato documentale di standardizzazione funzionale a liberare l’utilizzatore dai vincoli di un singolo fornitore, allora la frammentazione attuale fa sì che l’obiettivo sia completamente mancato.

Di questa debolezza di fondo sono in molti a poterne trarre vantaggio. Ad esempio è notizia di queste ore che Microsoft (si! proprio quella di Redmond) sta già abilitando OpenDocument 1.4 come formato di salvataggio nella sua suite Office 365 [3]. In breve tempo gli utenti di Office 365 che vorranno usare OpenDocument come formato di salvataggio utilizzeranno solo la versione 1.4, vale a dire una versione che neppure lo stesso consorzio OASIS ha ancora approvato. Questa accelerazione di Microsoft è giustificata dal fatto che la nuova specifica permetterà di salvare in OpenDocument caratteristiche che attualmente non sono supportate e che quindi si perdono durante la conversione. D’altro canto però nessun altro programma, neppure LibreOffice per quanto ne so, al momento gestisce OpenDocument 1.4 per cui vi lascio immaginare cosa accadrà e chi ne trarrà maggiore beneficio…

In questo senso OpenDocument sembra aver imboccato la strada già tracciata dal WHATWG per HTML5; un non-standard in perenne evoluzione adattato di volta in volta alle esigenze del momento. Nulla di male in se, basta essere chiari e smetterla di proporre OpenDocument come formato per l’interoperabilità documentale e per l’abbattimento del rischio di vendor lock-in [4]. Oppure, più semplicemente, essere onesti con i propri utenti è chiarire che -almeno per ora- l’ultima versione standardizzata ISO di OpenDocument è la 1.2, che quindi andrebbe adottata in tutti i contesti in cui è utile preservare interoperabilità e stabilità. OpenDocument 1.2 potrebbe in altre parole essere il PDF/A [5] della situazione, ma per fare questo occorrerebbe una comunicazione trasparente ed una generale convergenza di impegni tra tutti i soggetti coinvolti nel progetto. Per cui dubito che accadrà. Magari ne riparliamo tra altri 4 anni.

~

1. Le caratteristiche di OpenDocument 1.4 sono descritte qui dal consorzio OASIS ~ 2. Object Linking and Embedding, una tecnologia sviluppata da Microsoft che permette di creare documenti complessi in cui le singole parti possono essere realizzate da applicazioni differenti ~ 3. Vedi l’articolo Microsoft 365 apps now support OpenDocument Format 1.4 ~ 4. Il vendor lock-in indica la situazione di dipendenza dal fornitore; nel caso del software riguarda l’impossibilità di migrare dati e servizi ad un fornitore differente da quello in uso. I formati documentali sono stati spesso usati per creare lock-in tecnologici ~ 5. PDF/A è un sottoinsieme dello standard PDF pensato per la conservazione a lungo termine dei documenti.

Intelligenza Artificiale ed inversione dei ruoli

In un mondo che ama dividersi in fazioni, è sempre più frequente trovare chi pretende l’applicazione rigorosa delle regole per gli altri ed una comoda gamma di eccezioni per se o per la propria parte. Io non so quanto rilevante diverrà l’intelligenza artificiale nel prossimo futuro, ma ho l’impressione che si tratti di qualcosa di più solido dei molti hype tecnologici che abbiamo visto susseguirsi negli ultimi anni (uno su tutti la blockchain…). Noto però anche in questo settore uno strano bispensiero che vorrebbe tenere assieme cose mutualmente escludenti.

Fin dalle sue origini la Rete ha ribaltato alcuni paradigmi dell’editoria tradizionale a cominciare da quello più banale: la semplicità di copia. Il fatto stesso che voi ora stiate leggendo questa pagina implica che una copia della stessa è stata scaricata nella cache del vostro browser, senza contare che avreste comunque molti altri modi di duplicare queste mie parole (dal semplice copia-incolla, al salvataggio su file, alla conversione in PDF, etc.). È una cosa tanto ovvia da un punto di vista tecnico quanto astrusa da un punto di vista normativo. Gli Stati Uniti, proverbialmente molto più pragmatici di noi europei, sono usciti da questa ambiguità appoggiandosi al fair use [1]; altrove tutto è più sfumato ed incerto.

Assunto quindi che la copia digitale sfugge alle logiche molto più blindate dei supporti fisici, esiste da sempre un ampio movimento di utenti della Rete convinti che la copia non solo sia accettabile ma addirittura un diritto imprescindibile. Fenomeno che si è spesso tradotto nella mitizzazione del pirata informatico come difensore di libertà, preservatore di cultura, addirittura paladino dei più deboli. Sarà anche così, però non posso negare di aver visto spesso questi atteggiamenti come il classico alibi di chi vuole tutto, subito e gratis senza porsi mai il problema delle conseguenze.

Ma visto che da incongruenza era partito questo discorso, non posso non raccontarvi l’altra faccia della medaglia. Mi ha sempre sorpreso scoprire come chi pubblicamente sostiene la libertà di copia abbia ben altro atteggiamento verso qualsiasi cosa di propria produzione, fosse anche un elenco scopiazzato di cose lette in giro. Approcci diametrali in cui si inventano clausole di licenza assurde, si infarcisce ogni cosa di minacciosi avvisi di copyright, si inventano rudimentali sistemi DRM fai da te per impedire che altri possano riutilizzare il contenuto. Mi è rimasto particolarmente in testa un/una utente del fu Twitter che prendeva liberamente dalla Rete le immagini che accompagnavano i sui tweet limitandosi ad indicare come fonte un generico immagine dal web, e poi invece tempestava di avvisi di copyright e di tutti i diritti riservati quelle poche immagini che produceva in proprio. Le regole agli altri e le eccezioni per se, come si diceva all’inizio.

E qui arriviamo all’intelligenza artificiale. È ampiamente noto che le aree pubbliche del web sono state largamente utilizzate per l’addestramento dei modelli LLM [2]. Questo processo di scansione della Rete ha riguardato sia l’informazione distribuita e disomogenea sia quella meglio strutturata di grandi database di conoscenza quali possono essere ad esempio Wikipedia, Reddit o Stack Overflow. I modelli di AI hanno cioè fatto in modo massivo quel che ogni utente della rete fa nel suo piccolo, portare a casa ciò che di interessante incontra durante la sua navigazione. Il resto è conseguenziale, nel senso che una AI non ricopia banalmente ciò che ha appreso ma in una certa misura lo rielabora creando un nuovo contenuto in maniera non poi troppo diversa da chi scrive di un argomento dopo averlo studiato sui testi altrui.

Ritorniamo quindi al bispensiero delle regole variabili. Ci sono quelli che per anni hanno riadattato comunicati stampa, quelli che traducono più o meno spudoratamente articoli pubblicati in altre lingue, quelli che seguendo minuto per minuto i trend dell’attenzione li trasformano in pseudo-notizie. Ci sono quelli che fanno i video clickbait mettendo assieme materiali prodotti da altri e quelli che spacciano per creatività il disegnino ispirato alla produzione Disney o al manga di turno. Ci sono quelli che taroccano foto per professione e quelli che falsificano la realtà pur di piegarla ad una ideologia o più prosaicamente agli interessi del committente. Tutti questi, e probabilmente molti altri, hanno ora un nuovo nemico comune, quell’Intelligenza Artificiale che renderà superfluo il loro apporto. Gli stessi che saccheggiano senza ritegno il lavoro altrui ora si scagliano verso quei processi computazionali che potrebbero svolgere gli stessi compiti magari anche in maniera migliore.

Il punto focale è che il vero lavoro creativo non è in pericolo. Un corrispondente di guerra che racconta gli eventi dai luoghi in cui avvengono non ha molto da temere dalle AI. Il suo collega che dalla sua comoda scrivania riprende il lavoro fatto da altri invece è probabilmente destinato ad essere rimpiazzato da una AI. L’artista che crea opere uniche continuerà ad essere apprezzato; l’altro che ne copiava lo stile diverrà inutile.

Ma in tutto ciò non c’è nulla di veramente nuovo, nulla che non sia già successo migliaia di volte nella storia. Limitandoci alla sola informatica, avremmo dovuto impedire la diffusione delle pendrive per tutelare chi produceva floppy? Avremmo dovuto bandire le interfacce grafiche per non rendere obsoleti gli esperti della riga di comando? Avremmo dovuto bloccare gli editor WYSIWYG perché questi avrebbero tolto lavoro agli impaginatori? Avremmo dovuto vietare gli ebook per non danneggiare gli editori tradizionali? E potremmo proseguire all’infinito.

E si ritorna alle regole ed alle eccezioni. L’intellettuale autoproclamato ha avuto buon gioco per anni nello spiegare che quella o quell’altra professione sarebbe scomparsa e che era inevitabile per chi lavorava in quei settori riconvertirsi ad altre professioni. Lo faceva spesso con quella arroganza e supponenza tipica di chi pensa di essere intoccabile ed insostituibile, di chi dall’alto di un lavoro privilegiato guarda quasi con disgusto al lavoro manuale. Ora però forse per la prima volta i ruoli sacrificabili sono proprio quelli della finta-intellettualità, dell’autoreferenzialità, dell’io so’ io e voi non siete un… Ecco, il panico che vedete negli occhi di chi si affanna a demonizzare l’Intelligenza Artificiale è quello di chi sta vedendo il proprio piccolo mondo dorato implodere su se stesso.

~

1. Sul fair use vedi ad esempio l’articolo Il fair use in Italia ~ 2. LLM, acronimo di Large Language Model e traducibile in italiano come modello linguistico di grandi dimensioni; indica una serie di modellazioni computazionali a base statistica su cui si basano gli attuali servizi di Intelligenza Artificiale.

Cosa resta della Blogosfera italiana?

Home page di Splinder a Gennaio 2012

Confesso; questo su Vivaldi.net non è il mio primo blog. Anzi ho perso il conto di quanti ne abbia aperti in passato. Fortunatamente nessuno di essi ha raggiunto una qualche riconoscibilità per cui quando sono spariti dalla rete non se ne è accorto nessuno. Il nulla che si diluisce nel nulla.

Il più longevo di questi spazi è stato online per circa 8 anni, un enormità a pensarci oggi. Lo ospitava Blogger/Blogspot, la piattaforma creata da Pyra Labs che in quegli anni era già stata acquisita da Google. Ricordo che la mia scelta cadde su Blogger dopo una lunga selezione comparativa in cui avevo esaminato quasi tutte le piattaforme gratuite disponibili ed ero giunto alla conclusione che fosse quella con le minori restrizioni. Tutto sommato non avevo neppure torto visto che gran parte della concorrenza si è nel frattempo dissolta mentre i server di Blogger sono ancora attivi e funzionanti nonostante tiri una marcata aria di abbandono anche da quelle parti.

Per farla breve comunque, erano gli anni del boom della blogosfera ed era in corso una vera e propria gara ad offrire piattaforme di pubblicazione. C’era l’armoniosa community Italiana di Splinder [1], c’erano Clarence, Bloggers.it, Io Bloggo e i portali Libero e Virgilio. Ci si erano buttati anche grandi nomi, dai Blog de La Stampa [2] a Il Cannocchiale (Il Riformista), da Tim a Tiscali, da DiaBLOGando (RCS) ad Aruba. E c’erano ovviamente i grandi nomi internazionali: oltre al già citato Blogger c’erano LiveJournal, WordPress.com, Microsoft Live Space ed un infinità di altri. Insomma era impossibile girare in rete per più di 5 minuti senza che qualcuno ti offrisse di aprire un blog sulla propria piattaforma.  Se voleste cogliere meglio l’atmosfera di quegli anni non posso che consigliarvi il libro Come si fa un blog di Sergio Maistrello edito da Tecniche Nuove. Non credo sia più disponibile se non come remainders o nel mercato dell’usato, tuttavia sul sito dell’autore è possibile ancora recuperare una copia PDF [3].

A fronte di una offerta quanto mai ampia a mancare spesso clamorosamente erano invece i piani di sostenibilità; quei programmi chiamati nel medio termine a rendere profittevole e sostenibile un settore in cui i più si erano buttati solo per paura di restare esclusi da un nuovo e promettente mercato. Ed i risultati nefasti non si sono fatti attendere con i vari provider che uno ad uno si sono defilati dal campo, a volte in modo inatteso e clamoroso (come fu per Splinder) altre volte per inedia ed abbandono.

Fin qui però abbiamo parlato dello spirito del tempo e delle molte soluzioni tecnologiche, ma nulla di tutto questo avrebbe avuto senso se non ci fossero state milioni di persone pronte a cogliere quello spirito e a popolare di contenuti quelle piattaforme. Per alcuni era la semplice evoluzione delle pagine personali alla Geocities, per altri uno spazio privato per dare forma scritta al proprio pensiero, per altri ancora un modo per condividere passioni e conoscenza. Ciò che si può dire però è che davvero il blog era uno strumento sociale attraverso il quale si costruivano rapporti umani a volte ben più interessanti della blogosfera stessa. Alcune piattaforme come Splinder, LiveJournal e WordPress.com erano costruite apposta per mettere in comunicazione gli autori; altre come Blogger erano spazi confinati e stava alla volontà del tenutario andarsi a cercare l’interazione con il resto del mondo. Di buono c’era -almeno all’inizio- un assoluto candore che teneva lontani il culto della personalità e le mire commerciali. Si scriveva per comunicare, il resto era marginale.

Certo non era un arcipelago piano popolato da mille isole, anzi l’invisibilità era letteralmente all’ordine del giorno. Anche perché come sempre accade nei contesti sociali qualcuno decise che tanta democrazia non andasse bene. Nacquero così le blogstar, famose sul web per il fatto di essere famose. Che poi per la piccola community italiana si trattava per lo più di un ristretto gruppetto radical chic di persone tutte intente a citarsi e rilanciarsi a vicenda. Un insieme autoreferenziale di esaltati convinti di dover immancabilmente esprimere le proprie opinioni sul thème du jour ed intrinsecamente convinte di combattere dalla parte giusta di non si sa bene cosa. Ancora non lo sapevamo, ma avevamo a che fare con quello che poi sarebbe diventato noto come effetto Dunning-Kruger portato avanti da sparuti aspiranti social justice warrior

Ovviamente non durò a lungo. Che da quell’onda si potesse spremere denaro o se non altro visibilità divenne ben presto un mantra e molti saltarono sul nuovo carro vincente. Così piccole cose nate per hobby divennero aziende, le firme fantasiose divennero partite IVA, la pubblicità irruppe e devastò tutto come poche altre cose sanno fare in Rete. Complice l’ascesa dei social network, tutto rapidamente deperì e quella voglia di comunicazione semplicemente si spostò altrove.

Cosa resta dunque di quegli anni? Cosa resta della blogosfera italiana? Delle piattaforme ben poco: Blogger stagna da anni nella più assoluta marginalità nei piani di Google; WordPress.com è ormai costruito in ottica commerciale; le poche altre piattaforme ancora operative puntano solo a servire pubblicità tra articoli tutti uguali, scopiazzati e sempre più spesso generati algoritmicamente. Non va meglio ai blog in senso stretto. Certo alcuni sono ancora aggiornati ed attivi, ma sono eccezioni in un generale stato di abbandono. Molti di coloro che abbracciarono la svolta commerciale si limitano ormai a pubblicare cianfrusaglie scritte da autori sottopagati a loro volta pronti per essere sostituiti dall’AI. Le blogstar ovviamente hanno fatto carriera e continuano a raccontarci banalità spacciandole per profonde analisi del mondo.

E poi? E poi ci sono piccole nicchie dove si prova a costruire comunità digitali un po’ più salubri ed amichevoli. Lo si fa con strumenti nuovi come nel fediverso o con strumenti antichi come nel tildeverse. Ed è questo che mi sembra di trovare anche qui su Vivaldi.net dove si respira un po’ l’aria del vecchio MyOpera o della prima Mozilla. Vedremo come andrà 🙂

~

1. Splinder ha chiuso definitivamente il 31 gennaio del 2012 – 2. I blog dei lettori de La Stampa chiusero ad esempio nel 2010 – 3. Come si fa un blog.

Dell’idiosincrasia al 4K e dell’arroganza dei ricchi

4K è una di quelle siglette tanto care al marketing ma sostanzialmente vuote di valore proprio; un modo facile per caratterizzare prodotti altrimenti scialbi e tutti simili. I primi televisori 4K sono in giro da più di dieci anni e conosco più di una persona che ha letteralmente speso una fortuna per portarsene a casa uno dei primi esemplari. A volte, con un pizzico di cattiveria, mi diverte far notare loro come a due lustri di distanza quei due caratteri siano ben lontani dall’essere uno standard e che l’acquisto di quei televisori sia diventato una sorta di blocchetto di cambiali postdatate. Allo stato attuale infatti chi desideri davvero sfruttare la qualità del 4K deve necessariamente attingere ad un mercato di nicchia (dischi ottici Blu-Ray o paytv) a fronte di una offerta gratuita che è limitata a pochi canali sperimentali e a qualche youtuber desideroso di mostrare meglio i pori della propria faccia.

La questione riemerge puntuale ogni volta che un grande evento arriva sugli schermi televisivi. Ora è la volta degli europei di calcio 2024, ma lo stesso discorso si presenta ciclicamente. Chi ha investito in apparecchi 4K vive come una ingiustizia il semplice fatto che quello specifico contenuto sia disponibile [1] solo a risoluzioni inferiori, arrivando a teorizzare oscure macchinazioni ed invocando interventi normativi che impongano un passaggio forzato al nuovo standard. Un meccanismo già visto all’opera con il FullHD e con mille altre presunte innovazioni tecnologiche che i più hanno deciso beatamente di ignorare (qualcuno ha detto DAB? [2]).

Ma i limiti del 4K erano noti fin dall’inizio a cominciare da quello più ovvio, la maggior parte del materiale video esistente che costituisce i magazzini delle emittenti non è in Ultra HD, spesso anzi non è neppure il Full HD e nonostante ciò rimane interessante per un vastissimo pubblico magari più sintonizzato sul valore dell’opera che non sulla sua risoluzione. Di più, anche molta della produzione attuale non viene girata in 4K perché questo formato richiede ovviamente hardware dedicato e fa scalare verso l’alto i costi di produzione, trasmissione e memorizzazione. Può suonarvi strano che un broadcaster abbia difficoltà a realizzare quello che oggi sembra alla portata di molti smartphone di fascia alta. Ma in tal caso stareste ragionando su scale differenti. La catena di apparecchiature professionali necessarie a gestire un video 4K nel suo intero ciclo (acquisizione, elaborazione, trasmissione, archiviazione) ha costi enormi a fronte dei quali solo una piccola parte dell’utenza avrebbe significativi vantaggi. Indovinate quale… (ma ci ritorno a breve).

È un discorso che potremmo facilmente estendere anche allo streaming. Trasmettere in 4K significa far esplodere letteralmente la richiesta di banda e per ottenere un risultato decente anche la connessione del fruitore deve essere non solo veloce ma anche estremamente stabile. Fattibile certo, ma comunque costoso.

Dicevo che in tanti sembrano addossare la colpa dello scarso successo del 4K alla proverbiale lentezza del legislatore che avrebbe potuto forzare i tempi imponendo il passaggio al nuovo formato. Qui ci sarebbe davvero da discutere a lungo a cominciare dal fatto che 4K come accennato di per se significhi poco o nulla, che esistano molti formati differenti accomunati sono dalla medesima sigla e che non esiste standardizzazione neppure sui codec da impiegare. Ma la discussione è più generale e non riguarda tanto la parte tecnica quanto quella sociale.

Che aziende private in un settore libero facciano un po’ quel che vogliono è un dato che mi lascia abbastanza indifferente. Se interessante faccio le mie valutazioni, altrimenti mi limito ad ignorare. Non può però essere lo stesso per le aziende che offrono un servizio pubblico ne per quelle che hanno in gestione un bene pubblico come sono ad esempio le frequenze radio-televisive. In questo ambito il bene da tutelare non è il bilancio dell’azienda ne la soddisfazione dell’ego di chi ha speso cifre a cinque zeri per un televisore; il bene da tutelare è l’interesse pubblico e non dovrebbe esserci dubbio sul fatto che raggiungere nel modo migliore il maggior numero di persone sia prioritario rispetto al resto. Perché, è bene chiarirlo, le frequenze sono un bene limitato e quindi far spazio ai canali 4K significa inevitabilmente toglierne ai canali in HD o in SD. Anzi, il bene pubblico in questo caso è così limitato che al momento non c’è neppure spazio per trasmettere tutto in HD per cui anche grandi gruppi editoriali debbono scendere a compromessi sulla qualità o scalare in basso alcuni canali verso la risoluzione standard.

Un concetto che in passato era stato ottimamente assimilato dal legislatore italiano, dal servizio pubblico e dall’industria di settore. Nell’era analogica della televisione italiana è stata adottata una tecnica che potremmo definire additiva che ha permesso di introdurre grandi innovazioni come il colore, la stereofonia, il Televideo senza obbligare l’utenza a cambiare apparecchio; semplicemente il contenuto aggiuntivo veniva ignorato dai dispositivi più vecchi e gestito invece da quelli più nuovi. Semplice ed elegante come risultato ma complesso ed ingegnoso come realizzazione.

Dunque la chimera del 4K finisce per essere una delle prospettive per descrivere questo nostro tempo. Ennesimo esempio in cui una trasversale classe privilegiata che può accedere prima e meglio di altri ad una tecnologia pretende che il resto del mondo si adegui anche a costo di forzare il percorso attraverso la normativa. E quello che accade sistematicamente con l’auto elettrica da un po’ di anni, ed è quello che ogni buona lobby di potere si prefigge di raggiungere con la propria azione. Ma qui il discorso ci porterebbe troppo lontano.

~

[1] Vedi DDay.it, specie nella sezione commenti. [2] Vedi La radio DAB è già su un binario morto?