menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Niente di vero tranne gli slogan: è “slopaganda”

5 0
previous day

Profili generati dall’Ia per diffondere contenuti pro-Maga: non autentici, ma soltanto utili

C’è un fenomeno che in queste ultime settimane ha attirato la nostra attenzione. Si chiama AI slop ed è stato oggetto di una interessante inchiesta del New York Times condotta con i ricercatori della Purdue University, prestigioso ateneo dell’Indiana, che ha analizzato e censito 304 profili social impegnati a diffondere slogan pro-Maga senza essere, in alcun modo, persone reali. Dall’indagine è emerso che non sono bot nel senso tradizionale, non sono troll, bensì identità sintetiche, generate dall’intelligenza artificiale, a volte senza volto umano. Sono profili che parlano, condividono, rilanciano e soprattutto ripetono sempre gli stessi slogan, le stesse parole d’ordine, provocando gli stessi riflessi condizionati a favore o contro una parte politica o un’ ideologia. In effetti all’apparenza sembrano utenti normali e invece non lo sono.

La ricerca ci rivela che non si tratta solo di una questione che riguarda la politica. Sarebbe riduttivo leggerlo come l’ennesimo capitolo della propaganda digitale a sostegno di Donald Trump. Il fenomeno è più profondo, più strutturale. Riguarda la trasformazione dell’ecosistema informativo in una distesa sempre più vasta di contenuti generati automaticamente, dove la qualità non è più un criterio e la verità – a questo punto – non è più un requisito.

Ci siamo documentati e abbiamo scoperto che la “slopaganda” – brutto neologismo derivato dalla crasi inevitabile tra slop e propaganda – si basa su produzione massiva, costo irrisorio, distribuzione capillare e ha invaso il web. Migliaia di video realizzati con pochissima spesa, pubblicati in poche settimane, testati in tempo reale dagli algoritmi. Quelli che funzionano e che generano reazioni vengono amplificati e diffusi capillarmente, mentre gli altri  scompaiono. In pratica  sopravvive non ciò che è vero, ma ciò che aggancia follower, che coinvolge l’utente. La conseguenza più grave è che in questo meccanismo la verità diventa irrilevante. Non è necessario che un video sia vero e credibile: basta che sia condivisibile. Non importa che un’immagine sia autentica: conta che sia utile. Studi recenti mostrano come gli utenti condividono contenuti anche sapendo che sono falsi, purché rafforzino la propria visione del mondo o offrano un’arma retorica contro quella altrui. A questo punto diventa inutile qualsiasi fact checking che tanto si è diffuso anche nelle testate giornalistiche italiane. E pensare che in questi anni la verifica aveva assunto anche un valore etico e sociale.

I numeri aiutano a capire la portata del fenomeno. Secondo alcune ricerche, tra il 30 e il 40% dei testi presenti online potrebbe già essere generato dall’intelligenza artificiale. Una soglia che segna un passaggio storico: per la prima volta, la produzione automatica di contenuti rischia, in un prossimo futuro, di superare quella umana. C’è chi ha azzardato una efficace metafora ambientale: la AI slop come plastica dei mari digitali. Economica da produrre, quasi impossibile da rimuovere, destinata ad accumularsi fino a soffocare l’ecosistema, colpendo tutti noi. Perché il vero rischio non è essere ingannati da un singolo contenuto falso. È perdere progressivamente la capacità di distinguere, di attribuire valore e di riconoscere una voce autentica in mezzo al rumore.

Archiviare tutto questo con una scrollata di spalle sarebbe un errore, perché la “sbobba”, traduzione efficace del termine AI slop, non è solo cattiva informazione, ma a lungo andare un vero e proprio attacco alla ricerca della verità.


© L'Espresso