L’intelligenza artificiale è utile in molti settori e dannosa in altri. Tra questi ultimi c’è il fatto di addestrare le AI attraverso contenuti creati da persone che non hanno dato il loro consenso: è disonesto e la passano sempre liscia i più ricchi e potenti. Per fare un esempio concretissimo e attuale, c’è Meta – ma è una pratica che vale anche per le intelligenze artificiali sviluppate da OpenAI e da Google- che, per allenare i modelli linguistici di Meta AI, ha usato milioni di libri protetti dal diritto d’autore, senza chiedere il permesso a nessuno e in maniera totalmente gratuita. Lo ha fatto attingendo direttamente da LibGen, una delle biblioteche online che permettono di scaricare articoli e libri in modo non autorizzato. Solo che se a scaricare anche solo un libro sei tu, povero disgraziato che non hai i capitali per soddisfare tutte le tue voglie di lettura, rischi una multa salata, se lo fa una grande azienda va tutto bene e rientra nel fair use.
“Steal a little and they throw you in jail / Steal a lot and they make you king.” (“Ruba un pochino e ti ficcheranno in galera / Ruba tanto e ti faranno re”)
Poi c’è anche che ultimamente mi dà noia la moda di voler infilare l’intelligenza artificiale in tutte le occasioni possibili, di lavoro o meno, come se usarla fosse la cosa più ganza del mondo, a prescindere da tutto. Forse gli integrati, in questo caso, mi stanno sul culo più degli apocalittici perchè sono quelli che ne capiscono di più e, invece di spiegare pro e contro delle AI, spesso si arroccano su posizioni di bene assoluto – quasi apologetiche – difficili da sopportare. Quando succede mi verrebbe da reagire – e così sbaglio anch’io, lo so – con la stessa intransigenza. Per esempio, caricando immagini come quella in cima a questo post. E per concludere in stile rant: si può dire?
In raccordo di continuità con il post precedente, un altro esempio di come viene usata la tecnologia per raccontare la storia: siamo ancora dalle parti dei video interamente prodotti da intelligenze artificiali generative e diffusi su TikTok e YouTube.
Nelle ultime settimane su TikTok stanno ottenendo milioni di visualizzazioni alcuni video realizzati interamente con l’intelligenza artificiale che riproducono ambientazioni e situazioni storiche del passato: tra i più visti ci sono quelli realizzati da The POV Lab e Time Traveller POV – per chi, come me, non usa TikTok i sopracitati link puntano ai rispettivi profili YouTube.
I titoli dei video spiegano già tutto: per citarne due, “POV: You’re a kid in Egypt 1250 years before Christ” o “POV: You wake up in 1351 During the Black Plague”. Si tratta di video in stile POV (Point of view): per capirci, il punto di vista è lo stesso dei videogiochi sparatutto in prima persona o di quella categoria del porno in cui uno dei o delle performer regge direttamente la videocamera – e non fate finta di non sapere di cosa si tratta. Come spiegazione potrei anche citare il gonzo journalism di Hunter Stockton Thompson o la soggettiva nel linguaggio cinematografico, ma poi mi dicono che questo blog è troppo elitario* e allora vi bastino i primi due esempi e, anzi, per rimanere più sulla cultura di Internet contemporanea, vi lascio come riferimento anche l’apposita categoria dei meme. La durata dei video varia dai trenta secondi al minuto, il formato ideale per essere diffusi prima di tutto su TikTok e poi nella categoria “Shorts” di YouTube: ovvio che con minutaggi di questo genere, il loro scopo principale non può essere quello dell’approfondimento, quanto piuttosto quello emotivo. Yasmin Rufo della BBC ha sentito sia i creatori sia alcuni storici, evidenziando i pro e i contro che questo approccio comporta.
Tra gli storici intervistati la critica a questa tipologia di video è rivolta alle inesattezze e gli errori presenti nella rappresentazione visiva delle scene e, pur ammettendo che questo tipo di contenuti possono essere utii per stimolare e incuriosire le persone a interessarsi a un periodo storico, hanno sottolineato come le ricostruzioni storiche dovrebbero basarsi su ricerche approfondite e fonti verificabili. Tra le critiche mosse anche quella di non fornire nessuna fonte – un appunto sulla trasparenza delle fonti che avevo già evidenziato nel post precedente sul video dedicato alla memoria dei soldati neri nella guerra civile americana. Hogne, il ventisettenne norvegese creatore dei video di Time Traveller POV, ha ammesso che nei prossimi video potrebbe prendere in considerazione l’aggiunta dei link delle fonti da cui ha ottenuto le sue informazioni. Speriamo.
Tre miniature dei video dalla home del canale YouTube di The POV Lab
Altra considerazione è quella che, nonostante i video abbiano l’etichetta di contenuti creati da AI – come assicura Dan, il creatore inglese di POV Lab – leggendo i commenti, si osserva come ci siano persone non consapevoli di questo. Che questo dipenda dalla poca attenzione richiesta dalla fruizione dei contenuti TikTok o dalla pigrizia di chi guarda, non è comunque una critica campata in aria. L’attendibilità e la verifica delle fonti non sembra essere in cima alla lista di chi passa da un video a un altro, completamente diverso, nel giro di meno di pochi minuti: l’infinite scrolling promosso dalle piattaforme produce anche questo effetto, non è una novità e non finirà presto. La storica dell’architettura Amy Boyington, molto attiva nella diffusione della storia attraverso i social media, spiega come l’aspetto suggestivo e sensazionale prevalga su quello dell’accuratezza storica e sintetizza così la sua analisi: “Sembra qualcosa uscito da un videogioco perché mostra un mondo che dovrebbe sembrare reale ma che in realtà è falso.”
Ora, visto che è stato menzionato, sarebbe da parlare di come si possa studiare e approfondire la storia attraverso un videogioco, ma lo faccio la prossima volta perché il post è già abbastanza lungo e non vi voglio certo stancare le pupille o sfiancare le sinapsi. O non voglio che il mio critico misterioso possa rincarare la sua dose e tacciarmi ancora di più di elitarismo culturale.
* chi me lo ha detto per ora non voglio rivelarlo, ma proviene da una fonte insospettabile e non so ancora quanto affidabile.
(Immagine di testa: frame dai video dei due canali YouTube già linkati nel post)
Qualche giorno fa mi imbatto in un canale YouTube che sforna una decina di video al giorno, quasi tutti riguardanti la storia americana. La durata varia dai 5 minuti alla mezz’ora. La prima cosa che mi viene in mente, dopo aver visto lo stile grafico delle miniature dei singoli video, è che si tratti di contenuti prodotti da un’intelligenza artificiale generativa. Per averne conferma, clicco sul link delle informazioni del canale, ma non trovo niente: l’unico dato a disposizione è la Georgia – quella negli USA – come paese di provenienza. Su chi sia l’autore e sui motivi che lo spingono a produrre questi video non si riesce a sapere nulla. Il canale si chiama Unreal History e nel momento in cui sto scrivendo sta pubblicando un nuovo video ogni tre ore.
Un video di fact-checking
Sbollita la rabbia e svanito lo sconforto che mi erano presi – perché per un mio video che vorrei pubblicare sono dieci giorni che ci sto lavorando di notte – trovo, attraverso una ricerca su Bluesky, un post di Kevin M. Levin, storico e insegnante di Boston, esperto di guerra civile americana che sul suo blog – o meglio sul suo profilo Subastack* – ha scritto del canale “Unreal History” e ha analizzato uno dei 1.200 e passa video pubblicati: “The Forgotten Monument: The Unfulfilled Promise of Black Civil War Heroes”. L’argomento del video analizzato è la memoria della guerra civile americana e, in particolare, un monumento, mai realizzato, che avrebbe dovuto ricordare il consistente contributo dato dalle truppe di soldati neri alla vittoria degli unionisti sui confederati. Il video vuole ricostruire le vicende del veterano nero nel tentativo divedere realizzato questo monumento a Washington D.C..
Il professor Levin ha pubblicato un video di una mezz’ora in cui, prima di tutto, ricostruisce la genesi di “Unreal History”: si tratta, come avevo intuito, di un canale dai contenuti interamente creati da un’intelligenza artificiale generativa. La pagina web che ospita le informazioni a riguardo credo sia a sua volta generata da una AI. Questa la descrizione fornita – traduzione mia:
“Unreal History” è una piattaforma interattiva unica progettata per reimmaginare e visualizzare eventi storici in contesti contemporanei, mescolando il passato con la tecnologia moderna e le norme sociali (sic). Questo viaggio immaginario è reso possibile da una dettagliata creazione narrativa e da immagini visive, trasportando gli utenti in linee temporali storiche alternative in cui gli eventi hanno preso una piega diversa.
Al di là di ogni considerazione sull’utilità o l’importanza di uno strumento simile, nessuna di queste informazioni compare sul canale YouTube di “Unreal History”, così come non esiste nessun link alla pagina dell’intelligenza artificiale usata. Il rischio che chi fruisce di questi video non abbia la voglia o la capacità di cercare sulla Rete più informazioni credo sia molto alto. E questa non è una buona cosa, almeno secondo me.
Venendo al video analizzato, Kevin M. Levin mette in evidenza un errore marchiano già nei primi trenta secondi: per l’AI, il nome del protagonista, il veterano che si battè per la costruzione del monumento, sarebbe William Carney Williams. Solo che non esiste una persona che si chiama così. Questo nome, a chi studia la storia della guerra civile americana, ricorda quello di William Carney, soldato nero famoso per aver salvato la bandiera del suo reggimento nella seconda battaglia di Fort Wagner nel 1863 quando, anche se le forze dell’Unione furono sconfitte, Carney per quel gesto fu insignito della Medaglia d’onore, la più alta onorificenza miltare negli Stati Uniti. Sicuramente un personaggio importante, ma che non si è mai battuto per erigere il momumento in questione. Il nome del veterano nero che invece, a fine guerra, si adoperò per la costruzione del monumento è George Washington Williams, soldato dell’Unione, poi avvocato, giornalista, ministro della chiesa battista, storico e autore del primo libro sul contingente nero attivo nella guerra di secessione. In somma: sembra che l’AI abbia operato una sorta di crasi tra i due nomi in questione, inventandosene un terzo che però non è mai esisitito. Essendo il nome del protagonista della vicenda, non è proprio un errore marginale.
Abbagli visivi e scelta delle fonti
Non vado oltre nell’esporre le altre imprecisioni storiche che il video contiene, per chi vuole scoprirle tutte rimando all’utilissimo fact-checking del video del professor Levin. Le due cose che voglio sottolineare riguardano la parte visiva e il senso generale della narrazione. Per quanto riguarda la prima: l’AI, a corredo della narrazione e della voce off che la porta avanti, mostra una serie di immagini totamente inventate che, la maggior parte delle volte, sono inaccurate o molto fantasiose, per rimanere gentili. Alcune volte poi saltano fuori quelle che si chiamano allucinazioni, veri e propri svarioni dell’intelligenza artificiale che produce risultati inaccurati, anacronistici o semplicemente assurdi. Anche se esiste una soddisfacente collezione di fotografie autentiche della guerra di secessione, nel caso di questo video, l’AI non ne ha tenuto conto e ha inventato da zero immagini e situazioni che in diversi casi sono fuorvianti o puramente ridicole come nei due frame riportati qui sotto.
Un animale alquanto bislacco e un mitra parecchio anacronistico
Una bandiera americana inusuale e uniformi di un altro secolo
L’altra considerazione è sulla narrazione: secondo Levin la narrazione generale non è sballata, il racconto è tutto sommato ragionevole, sono presenti citazioni che sono corrette e ben poste. Per chi si interessa e studia la guerra civile americana, però, si evince con facilità che tipo di domande (prompt) e parole chiave sono state poste all’intelligenza artificiale che, nel suo successivo scandagliare siti e fonti, ha scelto quelli ritenuti più popolari. Per Levin e per chi studia questa materia, è facile riconoscere nel racconto di questo video le tesi di “Race and Reunion”, un libro dello storico americano David W. Blight che descrive come la rimozione della parte afro-americana e l’attenuazione e la minimizzazione del tema centrale della schiavitù siano stati volutamente usati per poter arrivare a una riconciliazione (reunion) tra Nord e Sud, ridipingendo in questo modo la guerra civile come un conflitto tra due schieramenti di soldati bianchi in lotta solo per la gloria e il valore militare. In “Race and Reunion” Blight ricorda come, per esempio, teorie negazioniste come quella della “Lost Cause” abbiano avuto per decenni una diffusione e un’influenza enorme, penetrando nella cultura, nei racconti e nei manuali di storia degli Stati Uniti del Sud.
Kevin M. Levin ci dice che il libro di David Blight è un’opera validissima, è il libro da cui partire per studiare l’argomento – ho scoperto che si è meritatamente aggiudicato il Frederick Douglass Book Prize per il miglior libro sulla schiavitù – ma è un’opera uscita nel 2001, quasi venticinque anni fa. Nel frattempo la letteratura sull’argomento si è arricchita di numerosi altri contributi. Altri studiosi e studiose hanno ampliato, rivisto e aggiornato analisi e ipotesi sia sulla riconciliazione, sia sulla cancellazione della memoria dei soldati neri. Di questa ricchezza della letteratura e della ricerca storica però l’intelligenza artificiale non ha tenuto conto, limitandosi a proporre la narrazione più diffusa sull’argomento. Questo non è avvenuto certo per colpa sua, ma perché chi ha posto le domande non ha ritenuto opportuno cercare e includere queste nuove fonti.
Questo post, voglio dirlo chiaramente, non è un atto d’accusa né tanto meno una demonizzazione delle intelligenze artificiali generative usate a fine di divulgazione storica. Questi strumenti possono essere molto utili, bisogna tuttavia vedere come vengono usati e per quali scopi. Quelli del canale in questione, a pensare male e vista la freqenza di pubblicazione, mi sembrano molto orientati a fare numeri, sia come visualizzazioni sia come abbonati. L’accuratezza e la trasparenza delle fonti mi sembrano lasciate in secondo piano. Faccio un esempio concreto: se la fonte principale usata per il racconto della guerra civile è il succitato libro di David Blight, non sarebbe stato utile e onesto inserirlo dentro i titoli di coda del video o lasciarne traccia nella descrizione? Prima ancora di questo, come già detto, il non scrivere nel proprio canale che si tratta di video interamente generati da AI mina fortemente l’autenticità della fonte e la sua attendibilità. E la responsabiltà di questa scelta è totalmente umana. È un discorso ripreso anche da Levin nella parte finale del suo video che cito, traducendolo al volo:
Questo è un chiaro promemoria del fatto che abbiamo davvero bisogno di dedicare un po’ di tempo, tutti noi, a pensare a quali fonti affidarci e perché. E penso che valga soprattutto per i nostri studenti. […] Se sei un insegnante, fai il possibile per aiutare i tuoi studenti a navigare su Internet. E ancora, come consumatori di storia, come consumatori di informazioni, stiamo attenti (let’s be vigilant – in originale). Perché qui stiamo parlando di che cosa significhi essere cittadini: viviamo in una democrazia e le democrazie prospererano solo quando riusciamo a raggiungere una sorta di accordo su cosa è affidabile e quali sono sono le informazioni degne di fiducia.
Un sano scetticismo anche di fronte alla magia dell’animazione
Munirsi di un sano scetticismo e di pensiero critico – per usare ancora le parole di Levin – ci aiuta nelle esplorazioni online nel verificare quello che, tra le millemila fonti digitali a nostra disposizione, leggiamo, ascoltiamo o vediamo,. E, a proposito di vedere, voglio chiudere questo post citando brevemente un altro canale YouTube scoperto in un altro post del professor Levin, ancora sulla guerra civile americana, ancora sull’intelligenza artificiale generativa: si chiama History in Motion. A differenza di “Unreal History”, questo canale dichiara l’uso dell’intelligenza artificiale per rendere animate alcune fotografie scattate in tempi in cui non esistevano le immagini in movimento. L’effetto finale è impressionante: in “Veterans Brought to Life | American Civil War” si osservano, seppur per pochi secondi, veterani unionisti della guerra civile americana mentre si stringono la mano, oppure tre prigionieri confederati parlare tra loro mentre aspettano di essere trasferiti in un campo di prigionia. O, ancora, un gruppo di soldati neri allineati in attesa di una foto o di partire per il fronte. Lo scopo, in questo caso, è puramente emotivo, non c’è nessun tipo di ricostruzione storica da raccontare, le immagini non sono inventate ma sono tratte da quelle originali. Grazie a una magia resa possibile da algoritmi complessi e reti neurali, acquistano una nuova dimensione capace di restituire momenti storici reali in un modo fluido colorizzato, vivo.
Anche in questo caso, come direbbe Kevin M. Levin, “esiste una linea sottile tra i miglioramenti che ci aiutano a esplorare fotografie come queste in modo più approfondito e creativo e i modi che trasformano la storia in pura finzione.” Sta sempre al nostro sano scetticismo e alla nostra capacità critica saper trovare la strada giusta per muoverci nel “brave new world” dell’intelligenza artificiale. Non abbiamo altra scelta: le AI generative non faranno che migliorare nella verosimiglianza e nelle loro capacità, a noi il compito di saperne fare un buon uso.
* su questa cosa che molti blog chiudono o vengono sospesi perché chi li scrive lancia una propria newsletter e si trasferisce su Substack è un po’ di tempo che vorrei scriverci qualcosa. Siccome seguo molte persone che prima scrivevano su un blog e adesso lo fanno lì, se trovo il tempo di chiedergli il motivo, ci faccio un post.
Premessa: l’immagine di questo post è un falso. È un rozzo fotomontaggio che ho creato manualmente, innestando le teste di Sergey Brin e Larry Page, i fondatori di Google, su quelle di Luca Marinelli e Alessandro Borghi, i due attori protagonisti di “Non essere cattivo”, l’ultimo film che è riuscito a fare il grande Claudio Caligari. Lo scrivo perché in questo post si parla anche di intelligenza arificiale e non vorrei che si prendesse come opera di Midjourney o di altre AI generative nemmeno una frazione di questi bit.
“Don’t be evil” è stato il motto del Codice di condotta aziendale di Google dal 2000 fino al 2018:
“Non essere cattivo”. I Googler in genere applicano queste parole al modo in cui trattiamo i nostri utenti. Ma “Non essere cattivo” è molto più di questo. Sì, si tratta di fornire ai nostri utenti un accesso imparziale alle informazioni, concentrandosi sulle loro esigenze e offrendogli i migliori prodotti e servizi che possiamo. Ma si tratta anche, in generale, di fare la cosa giusta: rispettare la legge, comportarsi in modo onorevole e trattare i colleghi con cortesia e rispetto. (testo recuperato via Wayback Machine | Internet Archive)
L’arrivo di Google sul Web agli inizi degli anni Zero sconvolse il modo di navigare e scoprire contenuti. L’algoritmo che permise questo si chiamava PageRank: ricordo ancora i bannerini che si potevano scaricare e apporre su siti e blog dopo aver testato sul motore di ricerca la loro posizione – il ranking – che ottenevi a seconda di quanti siti ti linkavano e da come questi venivano reputati. Il servizio non esiste più, ma se avete voglia di vedere come funzionava e quali erano i punteggi congelati al momento della sua scomparsa, potete provarlo qui. La cosa bella di Google degli esordi era il fatto che aveva come scopo quello di farti rimanere il meno possibile sulle proprie pagine perché questo significava che la tua ricerca aveva ottenuto in poco tempo il risultato desiderato e potevi continuare la tua navigazione. L’affidabilità dei risultati fu il motivo principale del suo uso e del suo impetuoso successo. In pochi anni Google ottenne il monopolio nel campo delle ricerche online: Altavista, Yahoo, Lycos, Excite, Arianna e Virgilio, per menzionarne solo alcuni internazionali e un paio italiani, divennero sempre meno usati e scomparvero o furono acquisiti cambiando lo scopo principale della loro esistenza.
Poi su Google arrivò la pubblicità, ormai vettore principale di molte attività del Web; arrivò il SEO con le relative linee guida che portò alla produzioni di contenuti mirati, nella maggior parte dei casi, a ottenere un ottimo posizionamento nelle ricerche al fine di generare più traffico e più introiti, spesso al di là della bontà e dell’accuratezza dei contenuti. Da qui in poi è tutta una storia che è l’esatto inverso del Google delle origini: la comparsa di ritagli speciali – i cosiddetti “featured snippet” – stridono enormemente con il fatto che dovresti lasciare il motore di ricerca il prima possibile. Questi estratti di contenuti sovrastano tutti i risultati sottostanti – la cosidetta posizione zero – perché sono già risposte alla domanda che si pone al motore di ricerca e l’erosione dei click alle fonti è diventato una delle conseguenze principali di questo nuovo tipo di interfaccia. È un po’ come se Google ti dicesse: non importa che tu vada sul sito dal quale abbiamo preso questa riposta – anche se l’url della fonte viene comunque menzionato – il succo della risposta te l’ho già messo a disposizione qui sopra, lascia perdere e continua a rimanere sulle nostre pagine.
E arriviamo molto, forse troppo sinteticamene a oggi e all’intelligenza artificiale. Con l’arrivo di ChatGPT e dei suoi simili credo che il motore di ricerca di Brin e Page si stia trovando a fare i conti, dopo anni di dominio quasi assoluto, con concorrenti che possono rivelarsi molto ostici. E così ha cercato di integrare l’intelligenza artificiale nel proprio sistema di ricerca con risultati che, fino a pochi mesi fa, sono risultati spesso imbarazzanti se non proprio pericolosi. Vi sarà capitato di incappare in qualche post, meme o articolo che prendeva in giro le allucinanti risposte di AI Overviews alle domande su quante pietre si dovessero mangiare al giorno (una sola, grazie) o su come riuscire a non far staccare la mozzarella dalla pizza (aggiungi della colla e sei a posto). Rusty Foster ha chiamato questo meccanismo plagio automatizzato: “Google estrae informazioni da pagine vagamente correlate riformulandole leggermente per occultarne la fonte. Ecco quello che fa. Plagio su larga scala senza nessuna comprensione dell’applicabilità delle informazioni. Sta facendo fracking nel Web.”
Sono sicuro che le ricerche attraverso l’intelligenza artificiale di Google e degli altri search engine miglioreranno e che a Mountain View stanno alacremente lavorando per rimuovere le risposte bislacche sopramenzionate. Quello che invece continua a preoccuparmi è il motivo principale per cui ho scritto questo post. Che arriva da un video dal titolo estremo e cattivissimo: “Generative AI is a Parasitic Cancer” ossia “L’intelligenza artificiale generativa è un cancro parassita”. Lo trovate su YouTube e l’ha creato Freya Holmér.
Freya per lavoro si occupa di strumenti di modellazione 3d per sviluppatori di videogame e stava cercando informazioni su un tipo particolare di file chiamati .glb. Analizzando la prima pagina di risultati di Googel è venuto fuori che la quasi totalità dei risultati sono contenuti generati da intelligenza artificiale. Sono per la maggior parte siti che hanno utilizzato l’intelligenza artificiale generativa per creare testi che presentano sia errori grammaticali e refusi, ma che specialmente hanno la struttura, le ripetizioni e una lunghezza ingiustificata che un editore umano difficilmente pubblicherebbe. Forse alcuni di questi potrebbero essere stati creati da quelle che si chiamano content farm che però, a loro volta, potrebbero aver usato AI generative. E questo tipo di risultati non si ottiene soltanto usando Google: Freya ha fatto la stessa ricerca su Duck Duck e su Bing (che usa l’intelligenza artificiale per le sue ricerche): i risultati sono quasi identici. L’80% della prima pagina di risultati è prodotto da intelligenza artificiale. E così non si può che condividere il suo senso di frustrazione per come si stia inondando Internet di spazzatura e per come per trovare qualcosa scritto da umani, da persone che ci tengono realmente a ciò che pubblicano, si debba fare uno sforzo enorme, spesso rifiutando la comodità dei motori di ricerca che considerano attendibili fonti solo per motivi pubblicitari. Freya, nella parte finale del video, dice esplicitamente che “se il futuro dell’arte, se il futuro dei contenuti online è generarli con l’intelligenza artificiale, penso che questo sia una perdita significativa per l’umanità. Il problema con l’intelligenza artificiale generativa è che non ha nulla dell’umanità, nulla delle storie umane che raccontiamo.” È il rischio di cui scrive Casey Newton quando afferma che con i risultati di ricerca basati sull’intelligenza artificiale resi disponibili alla massa dei navigatori, il web basato sull’umanità passa sempre più sullo sfondo:
E il nuovo slogan “Lascia che Google faccia Google per te” è una frase che etichetta il navigare sul web – un tempo un’attività divertente tanto da meritarsi il soprannome di “surfing” – come qualcosa di ingrato e noioso, qualcosa che è meglio lasciare a un bot. […] Negli ultimi venticinque anni, Google si è estesa in così tante parti diverse del Web da diventarne quasi un sinonimo. E ora che gli LLM promettono di far capire agli utenti tutto ciò che il Web contiene in tempo reale, Google ha finalmente ciò di cui ha bisogno per finire il lavoro: sostituire Internet con se stesso.
Ecco, di fronte a questo possibile scenario verrebbe da rammentare a Google quando prometteva di non essere cattivo. Perché la risposta potrebbe essere un piano B che non prevede la sua presenza. Almeno da parte di chi dal traffico di Internet trae il suo sostentamento o non vuole un Web in cui leggere le risposte alle proprie ricerche direttamente sulle sue pagine, senza preoccuparsi da dove arrivino. Se solo arrivasse il giorno in cui troveremo la forza e il coraggio di unirci come non avviene da molti anni. Se solo. Se.
Lavorare otto ore al giorno, quaranta ore a settimana per etichettare contenuti – tecnicamente si chiama data labeling – che consentono di addestrare, attraverso il machine learning, un’intelligenza artificiale. Solo che si viene pagati 2 dollari all’ora, attraverso un’agenzia di intermediazione che, nel contratto che ha con l’impresa che lo richiede, ha scritto che la paga oraria è di 12 dollari l’ora. Non solo: i tempi di consegna sono strettissimi, a volte questione di minuti o secondi. E anche i contratti che vengono utilizzati sono di tipo molto breve: possono essere di durata mensile, settimanale o giornaliera. Infine c’è il fatto che molti dei contenuti che devono essere etichettati sono di tipo violento: pornografia estrema, suicidi, massacri, abusi di generi nemmeno nominabili che i lavoratori e le lavoratrici devono guardare e annotare per ore, subendo danni enormi a livello psicologico: depressione, ansia, asocialità, disturbo da stress post-traumatico, solo per dirne alcuni. Tutto questo accade in una nazione che è lontana migliaia di chilometri dalla Silicon Valley: il Kenya, dove le leggi sul lavoro sono ferme a venti anni fa e la ricattabilità di chi lavora è resa ancora più grave dalla scarsità di lavoro – la percentuale di disoccupazione giovanile è quasi al 70%.
E quali sono le imprese che si avvalgono di questo tipo di manodopera altamente specializzata? Sono i colossi del Big-tech, le più ricche e potenti del mondo: Meta, OpenAI, Microsoft e Google. Ora un parte di questi lavoratori e lavoratrici digitali – chiamati humans in the loop – ha deciso di denunciare queste ottocentesche condizioni di sfruttamento, ennesima forma di divisione internazionale del lavoro e di neo-colonialismo. Spero che riescano a ottenere condizioni e paghe dignitose il prima possibile.
Di fronte a questa situazione, insopportabile per chi ha un minimo a cuore la giustizia sociale, stride chi invece fa astrologia per il capitalismo digitale – rubo l’espressione a Alberto Cappellaro da Bluesky. Leggo oggi sul blog di Bluebabbler che per qualcuno bisogna cominciare a considerare come si sente un’intelligenza artificiale a lavorare, e bisogna pensare al suo benessere. Sì, avete letto bene: il benessere dell’intelligenza artificiale. Bluebabber spiega in un paio di punti l’insensatezza di un’affermazione del genere e conclude evidenziando i motivi per i quali si arriva a questo livello di cialtroneria:
Perché tutta questa cialtroneria? Semplice: profitto. Anzi, peggio. Prima ancora del profitto, raccogliere finanziamenti miliardari. O farsi assumere per mansioni inesistenti.
Il profitto arriverà dopo, e se anche non arriverà in qualche modo vedrai che ci si aggiusterà.
Ecco cosa unisce i lavoratori digitali del Kenya alle balle di chi si preoccupa della salute di un’intelligenza artificiale. Forse sarà troppo manichea e sbrigativa come conclusione, ma credo che chi lo vuole vedere ce l’ha sotto gli occhi tutti i giorni, chi non vuole è perché o ci guadagna o pensa di guadagnarci in futuro. Come è stato detto tanto tempo fa pensando alle lotte dei minatori di Harlan County, Kentucky: tu da che parte stai?
Qui sotto incorporo il video dal canale YouTube di 60 Minutes sullo sfruttamento dei digitals workers di Nairobi da cui sono tratte tutte le informazioni della prima parte del post.
Privacy and Cookies Policy
Da queste parti si usano alcuni cookie. Si prende per buono che ti stia bene se clicchi OK o scrolli e navighi OKScopri di più
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.