In un mondo che ama dividersi in fazioni, è sempre più frequente trovare chi pretende l’applicazione rigorosa delle regole per gli altri ed una comoda gamma di eccezioni per se o per la propria parte. Io non so quanto rilevante diverrà l’intelligenza artificiale nel prossimo futuro, ma ho l’impressione che si tratti di qualcosa di più solido dei molti hype tecnologici che abbiamo visto susseguirsi negli ultimi anni (uno su tutti la blockchain…). Noto però anche in questo settore uno strano bispensiero che vorrebbe tenere assieme cose mutualmente escludenti.
Fin dalle sue origini la Rete ha ribaltato alcuni paradigmi dell’editoria tradizionale a cominciare da quello più banale: la semplicità di copia. Il fatto stesso che voi ora stiate leggendo questa pagina implica che una copia della stessa è stata scaricata nella cache del vostro browser, senza contare che avreste comunque molti altri modi di duplicare queste mie parole (dal semplice copia-incolla, al salvataggio su file, alla conversione in PDF, etc.). È una cosa tanto ovvia da un punto di vista tecnico quanto astrusa da un punto di vista normativo. Gli Stati Uniti, proverbialmente molto più pragmatici di noi europei, sono usciti da questa ambiguità appoggiandosi al fair use [1]; altrove tutto è più sfumato ed incerto.
Assunto quindi che la copia digitale sfugge alle logiche molto più blindate dei supporti fisici, esiste da sempre un ampio movimento di utenti della Rete convinti che la copia non solo sia accettabile ma addirittura un diritto imprescindibile. Fenomeno che si è spesso tradotto nella mitizzazione del pirata informatico come difensore di libertà, preservatore di cultura, addirittura paladino dei più deboli. Sarà anche così, però non posso negare di aver visto spesso questi atteggiamenti come il classico alibi di chi vuole tutto, subito e gratis senza porsi mai il problema delle conseguenze.
Ma visto che da incongruenza era partito questo discorso, non posso non raccontarvi l’altra faccia della medaglia. Mi ha sempre sorpreso scoprire come chi pubblicamente sostiene la libertà di copia abbia ben altro atteggiamento verso qualsiasi cosa di propria produzione, fosse anche un elenco scopiazzato di cose lette in giro. Approcci diametrali in cui si inventano clausole di licenza assurde, si infarcisce ogni cosa di minacciosi avvisi di copyright, si inventano rudimentali sistemi DRM fai da te per impedire che altri possano riutilizzare il contenuto. Mi è rimasto particolarmente in testa un/una utente del fu Twitter che prendeva liberamente dalla Rete le immagini che accompagnavano i sui tweet limitandosi ad indicare come fonte un generico immagine dal web, e poi invece tempestava di avvisi di copyright e di tutti i diritti riservati quelle poche immagini che produceva in proprio. Le regole agli altri e le eccezioni per se, come si diceva all’inizio.
E qui arriviamo all’intelligenza artificiale. È ampiamente noto che le aree pubbliche del web sono state largamente utilizzate per l’addestramento dei modelli LLM [2]. Questo processo di scansione della Rete ha riguardato sia l’informazione distribuita e disomogenea sia quella meglio strutturata di grandi database di conoscenza quali possono essere ad esempio Wikipedia, Reddit o Stack Overflow. I modelli di AI hanno cioè fatto in modo massivo quel che ogni utente della rete fa nel suo piccolo, portare a casa ciò che di interessante incontra durante la sua navigazione. Il resto è conseguenziale, nel senso che una AI non ricopia banalmente ciò che ha appreso ma in una certa misura lo rielabora creando un nuovo contenuto in maniera non poi troppo diversa da chi scrive di un argomento dopo averlo studiato sui testi altrui.
Ritorniamo quindi al bispensiero delle regole variabili. Ci sono quelli che per anni hanno riadattato comunicati stampa, quelli che traducono più o meno spudoratamente articoli pubblicati in altre lingue, quelli che seguendo minuto per minuto i trend dell’attenzione li trasformano in pseudo-notizie. Ci sono quelli che fanno i video
Ma in tutto ciò non c’è nulla di veramente nuovo, nulla che non sia già successo migliaia di volte nella storia. Limitandoci alla sola informatica, avremmo dovuto impedire la diffusione delle pendrive per tutelare chi produceva floppy? Avremmo dovuto bandire le interfacce grafiche per non rendere obsoleti gli esperti della riga di comando? Avremmo dovuto bloccare gli editor WYSIWYG perché questi avrebbero tolto lavoro agli impaginatori? Avremmo dovuto vietare gli ebook per non danneggiare gli editori tradizionali? E potremmo proseguire all’infinito.
E si ritorna alle regole ed alle eccezioni. L’intellettuale autoproclamato ha avuto buon gioco per anni nello spiegare che quella o quell’altra professione sarebbe scomparsa e che era inevitabile per chi lavorava in quei settori riconvertirsi ad altre professioni. Lo faceva spesso con quella arroganza e supponenza tipica di chi pensa di essere intoccabile ed insostituibile, di chi dall’alto di un lavoro privilegiato guarda quasi con disgusto al lavoro manuale. Ora però forse per la prima volta i ruoli sacrificabili sono proprio quelli della finta-intellettualità, dell’autoreferenzialità, dell’io so’ io e voi non siete un… Ecco, il panico che vedete negli occhi di chi si affanna a demonizzare l’Intelligenza Artificiale è quello di chi sta vedendo il proprio piccolo mondo dorato implodere su se stesso.
~
1. Sul fair use vedi ad esempio l’articolo Il fair use in Italia ~ 2. LLM, acronimo di Large Language Model e traducibile in italiano come modello linguistico di grandi dimensioni; indica una serie di modellazioni computazionali a base statistica su cui si basano gli attuali servizi di Intelligenza Artificiale.