AI: dalla black box al conformismo algoritmico
Pubblicato da Luca Oleastri in Politica e tecnologia · Venerdì 13 Feb 2026 · 14:15
Tags: intelligenza, artificiale, tecnologia, politica
Tags: intelligenza, artificiale, tecnologia, politica
di Luca Oleastri

lCome
l’AI e i Social Trasformano l’Umano in un Sensore Involontario
Negli
ultimi anni si è parlato di “intelligenza artificiale” come se
fosse un’entità superiore, un nuovo oracolo capace di risolvere
problemi, ottimizzare processi, sostituire il lavoro umano e
inaugurare un’era di efficienza senza precedenti.
Oggi, nel 2026, questa narrazione mostra crepe profonde. Non perché l’AI non funzioni, ma perché funziona troppo bene nel fare ciò che realmente è progettata per fare: estrarre dati, modellare comportamenti, prevedere reazioni.
L’AI non è un cervello. È un estrattore di valore cognitivo.
E per prevederti deve prima addestrarti.
Il risultato è un nuovo tipo di conformismo: non imposto dall’alto, ma generato dal basso, attraverso un ciclo di feedback continuo tra le tue emozioni e l’algoritmo che le monetizza.
Questo articolo esplora il cuore di questo meccanismo: la black box, l’engagement based ranking, la profilazione neurocognitiva, la monetizzazione del dissenso e le possibili forme di sabotaggio.
Oggi, nel 2026, questa narrazione mostra crepe profonde. Non perché l’AI non funzioni, ma perché funziona troppo bene nel fare ciò che realmente è progettata per fare: estrarre dati, modellare comportamenti, prevedere reazioni.
L’AI non è un cervello. È un estrattore di valore cognitivo.
E per prevederti deve prima addestrarti.
Il risultato è un nuovo tipo di conformismo: non imposto dall’alto, ma generato dal basso, attraverso un ciclo di feedback continuo tra le tue emozioni e l’algoritmo che le monetizza.
Questo articolo esplora il cuore di questo meccanismo: la black box, l’engagement based ranking, la profilazione neurocognitiva, la monetizzazione del dissenso e le possibili forme di sabotaggio.
1
. La Black Box: un potere che funziona proprio perché è
incomprensibile
- La “scatola nera” dell’AI è il paradosso centrale della tecnologia contemporanea: un sistema potentissimo, ma incomprensibile.
Quando parliamo di black box, parliamo di modelli, soprattutto reti neurali profonde, che hanno miliardi di parametri e che elaborano dati in modi non lineari, non osservabili, non ricostruibili.
- Opacità decisionale
Sappiamo cosa entra e cosa esce dal modello. Non sappiamo cosa accade dentro.
Non esiste un percorso logico ricostruibile.
Esiste solo una trasformazione matematica talmente complessa da risultare indecifrabile anche per chi ha progettato il sistema.
- Complessità algoritmica
Ogni livello della rete neurale modifica i dati in modo non intuitivo. Il risultato finale è un output che funziona, ma che non può essere spiegato.
La black box non è un “difetto”: è un meccanismo di potere.
- Fiducia, responsabilità, sicurezza
Se non puoi spiegare una decisione: - non puoi verificarla
- non puoi contestarla
- non puoi correggerla
- non puoi attribuire responsabilità
È
un problema etico, legale e politico.
- XAI: una trasparenza apparente
La Explainable AI cerca di rendere i modelli più interpretabili, ma spesso produce solo:
- XAI: una trasparenza apparente
La Explainable AI cerca di rendere i modelli più interpretabili, ma spesso produce solo:
- spiegazioni surrogate
- visualizzazioni parziali
- metafore ingegneristiche
Non
una vera comprensione.
La black box rimane oscura e opaca.
- L’algoritmo non vuole capire cosa pensi: vuole prevedere come reagisci
L’errore più grande è credere che l’AI “capisca”. L’AI non comprende: correla.
Il suo obiettivo non è interpretare il tuo pensiero, ma prevedere la tua prossima reazione. E per farlo deve prima modellare il tuo comportamento.
La black box rimane oscura e opaca.
- L’algoritmo non vuole capire cosa pensi: vuole prevedere come reagisci
L’errore più grande è credere che l’AI “capisca”. L’AI non comprende: correla.
Il suo obiettivo non è interpretare il tuo pensiero, ma prevedere la tua prossima reazione. E per farlo deve prima modellare il tuo comportamento.
- 2. L’economia dell’attenzione come infrastruttura cognitiva
Tutte le piattaforme non sono spazi neutri. Sono sistemi progettati per massimizzare: - tempo di permanenza
- frequenza di interazione
- intensità emotiva
Ogni
emozione è un dato. Ogni dato è un valore economico.
- Engagement based ranking: la logica che governa tutto
Il principio è semplice: l’algoritmo non distingue tra amore e odio.
Misura solo:
- Engagement based ranking: la logica che governa tutto
Il principio è semplice: l’algoritmo non distingue tra amore e odio.
Misura solo:
- intensità
- velocità
- propagazione
Un
contenuto che ti irrita vale più di un contenuto che ti piace. La
rabbia è un carburante.
- Il dissenso come asset
Quando segnali un contenuto, lo denunci, lo condividi “per criticarlo”, stai dicendo al sistema:
“Questo mi interessa. Mostramene di più.”
Il dissenso non è un problema: è un’opportunità.
- Il dissenso come asset
Quando segnali un contenuto, lo denunci, lo condividi “per criticarlo”, stai dicendo al sistema:
“Questo mi interessa. Mostramene di più.”
Il dissenso non è un problema: è un’opportunità.
- 3. Il feed personalizzato è il nuovo impianto di falsi ricordi
In Blade Runner, la replicante Rachael riceve ricordi artificiali per stabilizzare la sua identità. Oggi, il feed personalizzato svolge la stessa funzione.
- Il feed non ti informa: ti addestra
Il feed non è una finestra sul mondo. È un ambiente di addestramento.
Ogni contenuto è selezionato per: - mantenerti attivo
- prevederti
- modellarti
-
Profilazione neurocognitiva
Non
si tratta più solo di dati demografici. Si tratta di:
- trigger emotivi
- vulnerabilità cognitive
- pattern di reazione
- soglie di arousal
Il
sistema mappa ciò che ti attiva e lo usa per costruire un recinto
informativo.
- Conformismo algoritmico
Il sistema non vuole che tu sia una macchina. Vuole che tu sia prevedibile.
- Conformismo algoritmico
Il sistema non vuole che tu sia una macchina. Vuole che tu sia prevedibile.
- 4. Il dissenso è monetizzato: la rabbia è un carburante
La piattaforma non vede “la morale”. Vede solo “l’energia”.
Ogni interazione, anche negativa, è un voto a favore della diffusione del contenuto.
- Il ciclo di feedback - Vedi un contenuto irritante
- Reagisci
- L’algoritmo registra la reazione
- Amplifica contenuti simili
- Tu reagisci di nuovo
È
un circuito chiuso.
-
Il ruolo dei “difensori del sistema”
Ogni piattaforma ha utenti che reagiscono con:
Ogni piattaforma ha utenti che reagiscono con:
- insulti
- segnalazioni
- indignazione
Sono
i migliori alleati dell’algoritmo. Garantiscono visibilità fino a
100 volte superiore.
- Il dissenso come risorsa
Il sistema non reprime il dissenso: lo monetizza.
- Il dissenso come risorsa
Il sistema non reprime il dissenso: lo monetizza.
- 5. La sola difesa è rompere la prevedibilità: il sabotaggio del segnale
Non esiste un tasto “non mi piace” che penalizzi un contenuto. Ogni interazione è un segnale positivo.
L’unica forma di resistenza è rompere il ciclo di feedback.
- Noise Generation / Data Poisoning
Una tecnica efficace è generare rumore: - interagire con contenuti casuali (per esempio una ricetta culinaria afgana)
- commentare post incoerenti
- cliccare su temi non correlati ai propri interessi
Obiettivo: degradare il valore del proprio profilo
Se
il sistema non può prevederti:
- non può profilarti
- non può venderti
- non può addestrarti
Diventi
un asset
a bassa redditività.
- Sabotaggio come autodifesa cognitiva
Il sabotaggio non è vandalismo. È una forma di autodeterminazione.
6. Sabotaggio del segnale: piccolo manuale di guerriglia cognitiva per l'utente
Il Data Poisoning, ossia l'idea di inquinare i dataset con informazioni false è una battaglia tecnica asimmetrica, ma vi sono delle alternative che potrebbero essere più efficaci, per quanto la battaglia è appunto asimmetrica.
La vera resistenza non si gioca nella corruzione dei loro database, ma nel sabotaggio sistematico dell'unica cosa che da te regolarmente estraggono: il tuo segnale comportamentale.
Il potere dell'algoritmo si fonda sulla tua prevedibilità.
Il tuo potere quindi risiede nel diventare imprevedibile, nel ridurre il valore commerciale della tua attenzione. Ecco come farlo.
- Diventa un Profilo "Rumoroso" (Degrada il Tuo Valore Predittivo)
Non serve falsificare i dati. Basta renderli inutilizzabili.
Cosa fare: Introduci interazioni incoerenti nella tua navigazione. Se il tuo profilo parla di politica e tecnologia, dedicati per cinque minuti a cercare ricette di dolci vegani, tutorial di maglieria o documentari sulla migrazione delle gru. Clicca su annunci totalmente fuori target. Guarda video a metà e abbandonali.
Perché funziona: Costringi l'algoritmo a vederti come un segnale confuso. Un profilo "rumoroso" è un profilo a basso valore predittivo, quindi a bassa redditività pubblicitaria. Diventi un asset economico degradato.
- Affama il Mostro: Pratica il Disimpegno Strategico
Il carburante del sistema è la tua reazione emotiva misurabile (like, commenti, condivisioni, tempo di permanenza). Privane il sistema.
Cosa fare: Di fronte a un contenuto chiaramente progettato per suscitare indignazione, polarizzazione o semplicemente per intrappolarti (i "rabbia-click"), astieniti. Non commentare, non condividere nemmeno per criticare, non reagire. Limita l'uso passivo del feed infinito. Usa la piattaforma per ricerca attiva (cerca l'account che ti interessa, leggi, e esci).
Perché funziona: Ogni contenuto che non genera engagement è un fallimento dell'ottimizzazione algoritmica. Stai riducendo il ritorno sull'investimento della piattaforma nella tua attenzione.
- Rompi il Recinto del Feed: Inquina il Tuo Ambiente di Addestramento
Come già detto, il tuo feed non è informazione: è un ambiente di addestramento per renderti prevedibile. Devi forzarne i confini.
Cosa fare: Stabilisci una regola: per ogni notizia o tema caldo che incontri sul feed, cercane attivamente una versione da una fonte primaria esterna (un giornale, un sito istituzionale, una rivista accademica). Cerca manualmente parole chiave neutrali o che rappresentino il punto di vista opposto a quello che l'algoritmo ti sta spingendo.
Perché funziona: Introduci nel tuo circuito cognitivo dati "non autorizzati" dalla logica del feedback loop. Sottrai la tua formazione dell'opinione al controllo esclusivo dell'algoritmo-addestratore.
- Agisci in Collettivo: Sfrutta la tua Massa Critica
La coordinazione, anche minima, moltiplica esponenzialmente l'effetto del rumore.
Cosa fare: Organizzati con un gruppo (anche di poche decine di persone). Lanciate un hashtag deliberatamente assurdo e non commerciale (#IlPesceRossoCheLeggeFilosofia) e fategli fare tendenza per poche ore. Coordinatevi per inondare di like e interazioni positive una pagina d'arte oscura o un progetto culturale locale.
Perché funziona: Dimostrate che il coordinamento umano può sovrascrivere temporaneamente le logiche algoritmiche, dirottando le metriche di engagement verso fini non monetizzabili. È un atto dimostrativo di sovranità.
- La Postura Finale: Il Pensiero Critico come Atto Sovversivo
Queste tecniche sono tattiche. La strategia è una postura cognitiva che il sistema non può addestrare:
Sospendi il giudizio di fronte a ogni contenuto "caldo" del feed.
Chiediti sempre: "Perché questo mi appare ora? Quale mia reazione vuole estrarre?"
Ricorda: Il "profilo" che la piattaforma ha di te non sei tu. È un fantasma statistico utile solo al mercato. NON identificarti in esso.
L'utilizzo di strumenti per automatizzare il rumore non è pigrizia, ma il riconoscimento che la battaglia è asimmetrica.
Se il sistema automatizza l'estrazione, automatizzare la corruzione del segnale è una risposta logica.
Non si tratta di “barare”, ma di rifiutare la condizione di sensore umano a basso costo. Il sabotaggio automatizzato e l'organizzazione collettiva strutturata elevano la resistenza da gesto individuale a pratica politica: non più solo disturbare il segnale, ma iniziare a costruire, nella frattura creata da quel disturbo, protocolli alternativi di attenzione e comunicazione.
Estensioni operative: spostare il conflitto dall’algoritmo all’infrastruttura
Le tattiche precedenti agiscono sul livello del segnale: sono efficaci perché degradano la qualità predittiva del profilo e riducono la redditività dell’attenzione. Tuttavia, il potere delle piattaforme non risiede solo negli algoritmi di ranking, ma nell’intera infrastruttura che li sostiene: legale, amministrativa, temporale, narrativa.
- Sabotaggio come autodifesa cognitiva
Il sabotaggio non è vandalismo. È una forma di autodeterminazione.
6. Sabotaggio del segnale: piccolo manuale di guerriglia cognitiva per l'utente
Il Data Poisoning, ossia l'idea di inquinare i dataset con informazioni false è una battaglia tecnica asimmetrica, ma vi sono delle alternative che potrebbero essere più efficaci, per quanto la battaglia è appunto asimmetrica.
La vera resistenza non si gioca nella corruzione dei loro database, ma nel sabotaggio sistematico dell'unica cosa che da te regolarmente estraggono: il tuo segnale comportamentale.
Il potere dell'algoritmo si fonda sulla tua prevedibilità.
Il tuo potere quindi risiede nel diventare imprevedibile, nel ridurre il valore commerciale della tua attenzione. Ecco come farlo.
- Diventa un Profilo "Rumoroso" (Degrada il Tuo Valore Predittivo)
Non serve falsificare i dati. Basta renderli inutilizzabili.
Cosa fare: Introduci interazioni incoerenti nella tua navigazione. Se il tuo profilo parla di politica e tecnologia, dedicati per cinque minuti a cercare ricette di dolci vegani, tutorial di maglieria o documentari sulla migrazione delle gru. Clicca su annunci totalmente fuori target. Guarda video a metà e abbandonali.
Perché funziona: Costringi l'algoritmo a vederti come un segnale confuso. Un profilo "rumoroso" è un profilo a basso valore predittivo, quindi a bassa redditività pubblicitaria. Diventi un asset economico degradato.
- Affama il Mostro: Pratica il Disimpegno Strategico
Il carburante del sistema è la tua reazione emotiva misurabile (like, commenti, condivisioni, tempo di permanenza). Privane il sistema.
Cosa fare: Di fronte a un contenuto chiaramente progettato per suscitare indignazione, polarizzazione o semplicemente per intrappolarti (i "rabbia-click"), astieniti. Non commentare, non condividere nemmeno per criticare, non reagire. Limita l'uso passivo del feed infinito. Usa la piattaforma per ricerca attiva (cerca l'account che ti interessa, leggi, e esci).
Perché funziona: Ogni contenuto che non genera engagement è un fallimento dell'ottimizzazione algoritmica. Stai riducendo il ritorno sull'investimento della piattaforma nella tua attenzione.
- Rompi il Recinto del Feed: Inquina il Tuo Ambiente di Addestramento
Come già detto, il tuo feed non è informazione: è un ambiente di addestramento per renderti prevedibile. Devi forzarne i confini.
Cosa fare: Stabilisci una regola: per ogni notizia o tema caldo che incontri sul feed, cercane attivamente una versione da una fonte primaria esterna (un giornale, un sito istituzionale, una rivista accademica). Cerca manualmente parole chiave neutrali o che rappresentino il punto di vista opposto a quello che l'algoritmo ti sta spingendo.
Perché funziona: Introduci nel tuo circuito cognitivo dati "non autorizzati" dalla logica del feedback loop. Sottrai la tua formazione dell'opinione al controllo esclusivo dell'algoritmo-addestratore.
- Agisci in Collettivo: Sfrutta la tua Massa Critica
La coordinazione, anche minima, moltiplica esponenzialmente l'effetto del rumore.
Cosa fare: Organizzati con un gruppo (anche di poche decine di persone). Lanciate un hashtag deliberatamente assurdo e non commerciale (#IlPesceRossoCheLeggeFilosofia) e fategli fare tendenza per poche ore. Coordinatevi per inondare di like e interazioni positive una pagina d'arte oscura o un progetto culturale locale.
Perché funziona: Dimostrate che il coordinamento umano può sovrascrivere temporaneamente le logiche algoritmiche, dirottando le metriche di engagement verso fini non monetizzabili. È un atto dimostrativo di sovranità.
- La Postura Finale: Il Pensiero Critico come Atto Sovversivo
Queste tecniche sono tattiche. La strategia è una postura cognitiva che il sistema non può addestrare:
Sospendi il giudizio di fronte a ogni contenuto "caldo" del feed.
Chiediti sempre: "Perché questo mi appare ora? Quale mia reazione vuole estrarre?"
Ricorda: Il "profilo" che la piattaforma ha di te non sei tu. È un fantasma statistico utile solo al mercato. NON identificarti in esso.
L'utilizzo di strumenti per automatizzare il rumore non è pigrizia, ma il riconoscimento che la battaglia è asimmetrica.
Se il sistema automatizza l'estrazione, automatizzare la corruzione del segnale è una risposta logica.
Non si tratta di “barare”, ma di rifiutare la condizione di sensore umano a basso costo. Il sabotaggio automatizzato e l'organizzazione collettiva strutturata elevano la resistenza da gesto individuale a pratica politica: non più solo disturbare il segnale, ma iniziare a costruire, nella frattura creata da quel disturbo, protocolli alternativi di attenzione e comunicazione.
Estensioni operative: spostare il conflitto dall’algoritmo all’infrastruttura
Le tattiche precedenti agiscono sul livello del segnale: sono efficaci perché degradano la qualità predittiva del profilo e riducono la redditività dell’attenzione. Tuttavia, il potere delle piattaforme non risiede solo negli algoritmi di ranking, ma nell’intera infrastruttura che li sostiene: legale, amministrativa, temporale, narrativa.
Per
questo, alle pratiche di sabotaggio del segnale va affiancata una
seconda linea d’azione, meno visibile ma spesso più costosa per il
sistema: rendere
l’utente non solo imprevedibile, ma oneroso.
– Diventa un utente costoso: sfrutta l’asimmetria amministrativa
Le piattaforme sono progettate per gestire miliardi di utenti passivi, non individui attivi sul piano procedurale.
Io l'ho fatto e sto per presentare un ricorso di 9 pagine con molte prove documentali al Garante della privacy contro OpenAI e Microsoft come corresponsabile per la gestione dei dati per molteplici e palesi violazioni del GDPR.
Cosa fare: Richieste GDPR seriali e mirate. Esercita in modo sistematico i diritti che l’infrastruttura è obbligata a garantire: accesso ai dati, rettifica, limitazione del trattamento, opposizione alla profilazione, richiesta di chiarimenti sui criteri decisionali automatizzati. Non come gesto simbolico, ma come pratica reiterata, documentata, tecnicamente fondata.
Perché funziona: Ogni richiesta attiva una catena umana: DPO, legali, compliance, audit. È lavoro non scalabile, non automatizzabile, non monetizzabile. Se il segnale comportamentale è ciò che nutre l’algoritmo, la frizione amministrativa è ciò che consuma l’organizzazione. Qui il conflitto si sposta dalla macchina al back office.
– Disintermediare il feed: sottrai la sequenza, non la presenza
Non è necessario “uscire” dalle piattaforme. È sufficiente sottrarre loro il controllo della temporalità e della sequenza informativa.
Cosa fare: Privilegia canali laterali e asincroni: newsletter, RSS, siti personali, archivi consultabili, condivisione di link esterni invece di contenuti nativi. Usa i social come punti di accesso, non come ambienti di permanenza.
Perché funziona: Il potere del feed non è nei contenuti, ma nell’ordine in cui ti vengono presentati. Disintermediando la sequenza, l’algoritmo perde la capacità di addestrare progressivamente la tua attenzione. Resti visibile, ma meno addestrabile.
– Sabotare la temporalità: diventare irregolari
Il sistema predittivo ama la regolarità: orari, frequenze, cicli di attività.
Cosa fare: Alterna silenzi lunghi a presenze improvvise. Pubblica o interagisci in orari non ottimali. Evita pattern riconoscibili. Non costruire una “routine algoritmica”.
Perché funziona: La temporalità irregolare degrada la capacità di previsione del reach e rende costosa l’ottimizzazione del tuo profilo. Un utente temporalmente caotico è un utente difficile da valorizzare.
– Moltiplicare i registri: restare coerenti, ma non riducibili
Il sistema funziona meglio quando può assegnarti a una categoria stabile.
Cosa fare: Abita più registri legittimi: analitico, narrativo, tecnico, artistico, laterale. Non contraddirti, ma evita di essere sintetizzabile in un’unica identità funzionale.
Perché funziona: L’ambiguità semantica riduce la precisione della profilazione. Un soggetto non riducibile è un soggetto a bassa monetizzabilità simbolica.
– Esportare il conflitto: uscire dal recinto quando serve
L’algoritmo controlla ciò che avviene dentro la piattaforma. Fuori, perde presa.
Cosa fare: Porta temi, analisi e frizioni in contesti esterni: media tradizionali, documenti pubblici, incontri fisici, archivi consultabili. Usa la piattaforma come vettore, non come arena finale.
Perché funziona: Quando il conflitto esce dal feed, la piattaforma perde il controllo narrativo. Non può riorientare, diluire, o riassorbire ciò che non governa metricamente.
– Diventa un utente costoso: sfrutta l’asimmetria amministrativa
Le piattaforme sono progettate per gestire miliardi di utenti passivi, non individui attivi sul piano procedurale.
Io l'ho fatto e sto per presentare un ricorso di 9 pagine con molte prove documentali al Garante della privacy contro OpenAI e Microsoft come corresponsabile per la gestione dei dati per molteplici e palesi violazioni del GDPR.
Cosa fare: Richieste GDPR seriali e mirate. Esercita in modo sistematico i diritti che l’infrastruttura è obbligata a garantire: accesso ai dati, rettifica, limitazione del trattamento, opposizione alla profilazione, richiesta di chiarimenti sui criteri decisionali automatizzati. Non come gesto simbolico, ma come pratica reiterata, documentata, tecnicamente fondata.
Perché funziona: Ogni richiesta attiva una catena umana: DPO, legali, compliance, audit. È lavoro non scalabile, non automatizzabile, non monetizzabile. Se il segnale comportamentale è ciò che nutre l’algoritmo, la frizione amministrativa è ciò che consuma l’organizzazione. Qui il conflitto si sposta dalla macchina al back office.
– Disintermediare il feed: sottrai la sequenza, non la presenza
Non è necessario “uscire” dalle piattaforme. È sufficiente sottrarre loro il controllo della temporalità e della sequenza informativa.
Cosa fare: Privilegia canali laterali e asincroni: newsletter, RSS, siti personali, archivi consultabili, condivisione di link esterni invece di contenuti nativi. Usa i social come punti di accesso, non come ambienti di permanenza.
Perché funziona: Il potere del feed non è nei contenuti, ma nell’ordine in cui ti vengono presentati. Disintermediando la sequenza, l’algoritmo perde la capacità di addestrare progressivamente la tua attenzione. Resti visibile, ma meno addestrabile.
– Sabotare la temporalità: diventare irregolari
Il sistema predittivo ama la regolarità: orari, frequenze, cicli di attività.
Cosa fare: Alterna silenzi lunghi a presenze improvvise. Pubblica o interagisci in orari non ottimali. Evita pattern riconoscibili. Non costruire una “routine algoritmica”.
Perché funziona: La temporalità irregolare degrada la capacità di previsione del reach e rende costosa l’ottimizzazione del tuo profilo. Un utente temporalmente caotico è un utente difficile da valorizzare.
– Moltiplicare i registri: restare coerenti, ma non riducibili
Il sistema funziona meglio quando può assegnarti a una categoria stabile.
Cosa fare: Abita più registri legittimi: analitico, narrativo, tecnico, artistico, laterale. Non contraddirti, ma evita di essere sintetizzabile in un’unica identità funzionale.
Perché funziona: L’ambiguità semantica riduce la precisione della profilazione. Un soggetto non riducibile è un soggetto a bassa monetizzabilità simbolica.
– Esportare il conflitto: uscire dal recinto quando serve
L’algoritmo controlla ciò che avviene dentro la piattaforma. Fuori, perde presa.
Cosa fare: Porta temi, analisi e frizioni in contesti esterni: media tradizionali, documenti pubblici, incontri fisici, archivi consultabili. Usa la piattaforma come vettore, non come arena finale.
Perché funziona: Quando il conflitto esce dal feed, la piattaforma perde il controllo narrativo. Non può riorientare, diluire, o riassorbire ciò che non governa metricamente.
- Chiusura operativa
Il sabotaggio del segnale non è un atto isolato, ma una postura continuativa.
Non mira a “vincere” contro il sistema, ma a sottrarsi progressivamente alla sua efficienza.
Il sistema non teme l’utente arrabbiato, né quello critico.
Teme l’utente imprevedibile, poco monetizzabile e amministrativamente oneroso.
Quando l’attenzione smette di essere un flusso pulito,
quando il profilo smette di coincidere con l’identità,
quando l’utente smette di essere un sensore affidabile,
l’infrastruttura continua a funzionare — ma funziona peggio.
Ed
è in quella perdita di efficienza, non in una rivoluzione
spettacolare, che oggi si apre lo spazio reale della sovranità
cognitiva.
- 7. Il futuro: rinascita del pensiero critico o nuovo dominio?
Queste micro-pratiche di sabotaggio non sono la soluzione, ma sono la palestra. Allenano il muscolo atrofizzato del dubbio e della sovranità cognitiva, che sarà l'unico strumento utile per affrontare la frattura che si sta aprendo.
La crisi economica dell’AI - costi energetici insostenibili, modelli sempre più affamati di dati, ritorni economici ben inferiori alle promesse - sta aprendo una frattura.
Quando il mito dell’onnipotenza algoritmica prima o poi crollerà per motivi economici, resterà un vuoto.
Quel vuoto può essere riempito da: - una rinascita del pensiero critico
- oppure da una nuova forma di controllo, più brutale, basata sulla gestione delle risorse scarse (energia, acqua, dati)
La
scelta non è collettiva: è individuale. È una postura
cognitiva.
8. Conclusione: quando l’infrastruttura diventa potere politico
Il punto più inquietante non è che gli algoritmi modellino il comportamento individuale. È che, nel farlo, stanno ridefinendo le condizioni stesse della democrazia.
8. Conclusione: quando l’infrastruttura diventa potere politico
Il punto più inquietante non è che gli algoritmi modellino il comportamento individuale. È che, nel farlo, stanno ridefinendo le condizioni stesse della democrazia.
Le
piattaforme digitali non sono semplici intermediari: sono
infrastrutture
di governo del comportamento.
Decidono cosa vediamo, cosa ignoriamo, cosa ci indigna, cosa ci
rassicura. E nel farlo, spostano l’asse del potere fuori dai
processi democratici e dentro sistemi proprietari, opachi, non eletti
e non controllabili.
Non
è fantascienza. È già realtà.
Quando
un’infrastruttura:
- controlla l’attenzione collettiva
- amplifica o silenzia interi gruppi sociali
- orienta l’opinione pubblica attraverso metriche di engagement
- trasforma il dissenso in carburante
- sostituisce la deliberazione con la reazione
allora
non siamo più davanti a una tecnologia, ma a una forma
di governance parallela.
Una
governance che non ha bisogno di abolire la democrazia: le basta
renderla
irrilevante.
Il
progetto di chi possiede le AI - tutti umani, Nord Americani, pochi,
privi di controllo democratico - non è dichiarato, ma è evidente:
spostare
il potere decisionale dai cittadini agli algoritmi, e dagli algoritmi
ai loro proprietari.
Non per malvagità, ma per logica economica: l’AI richiede
prevedibilità,
non pluralismo; efficienza,
non conflitto; ottimizzazione,
non partecipazione.
La
democrazia è lenta, imperfetta, rumorosa. L’AI è veloce,
scalabile, silenziosa. E in questo attrito si gioca il futuro.
Il
sabotaggio del segnale non è una rivoluzione.
È un modo per non consegnare completamente la propria mente a un’infrastruttura che tende naturalmente a sostituire il processo democratico con un processo di addestramento.
È un modo per non consegnare completamente la propria mente a un’infrastruttura che tende naturalmente a sostituire il processo democratico con un processo di addestramento.
Ma
la posta in gioco è più ampia: non si tratta solo di proteggere
l’individuo dalla profilazione, ma di proteggere la società dalla
sostituzione
progressiva della decisione collettiva con la previsione algoritmica.
La
domanda non è più: “Come
possiamo usare l’AI in modo etico?”
La
domanda è: “Come
impediamo che l’AI diventi il nuovo criterio di legittimità
politica?”
Perché
quando la capacità di modellare il comportamento diventa più
efficace della capacità di convincere, la democrazia non viene
abolita: viene superata.
E
ciò che la sostituisce non ha bisogno di dichiararsi.
Gli basta funzionare.
Dovete mettervi in testa che la tecnologia non è neutrale perché non lo è chi la possiede.
La questione VERA non è “aggiustare l’AI”, ma capire che tipo di società i suo padroni Nord Americani vogliono che produca e perché.
Gli basta funzionare.
Dovete mettervi in testa che la tecnologia non è neutrale perché non lo è chi la possiede.
La questione VERA non è “aggiustare l’AI”, ma capire che tipo di società i suo padroni Nord Americani vogliono che produca e perché.
1
commento
danilo
Martedì 17 Feb 2026
Ho letto con attenzione e piacere il tuo articolo. Credo che non corrisponda alle aspettative di chi nulla sapendo delle AI avrebbe voluto qualche accessibile spiegazione sul loro funzionamento. La maggior parte delle persone hanno una relativa familiarità solo con le AI destinate alle chat (Chat GPT e simili). Invece tu hai puntato il focus su come le AI estraggono dati e indicazioni dal nostro modo di interagire coi social dando per scontato che tutti sappiano che i nostri comportamenti sui social sono analizzati dalle AI. Su questo aspetto avrei una domanda: al di là dell’insondabilità del modo di funzionamento della Blak Box, gli algoritmi in base ai quali deve filtrare i dati chi li scrive ? Poiché un algoritmo altro non è che una sequenza finita e ordinata di istruzioni non ambigue, simile a una ricetta, che permette di risolvere un problema o eseguire un calcolo specifico, mi pare che si possa dire che il potere di comandare il gioco rimane nelle mani di chi mantiene per sé questa prerogativa.
