Panopticon Emotivo: il potere che non guarda, deduce

“La disciplina ‘fa’ gli individui; è la tecnica specifica di un potere che considera gli individui sia come oggetti sia come strumenti del suo esercizio.”
Sorvegliare e punire. Nascita della prigione (1975), Michel Foucault

Quando l’algoritmo sa di te più di quanto tu sappia di te stesso

Hai mai notato come il tuo feed sappia esattamente cosa stai sentendo?
Non ci sono magia o empatia digitale, sei di fronte ad una predizione algoritmica.

Gli algoritmi di piattaforme social e streaming monitorano ogni tuo like, ogni scroll notturno, ogni canzone ascoltata.
Con pochi bit e un modello di apprendimento automatico, deducono il tuo stato d’animo.
Tre post sulla solitudine, Radiohead alle 3 di notte: sei già diventato un caso clinico digitale.

Non ti stanno guardando, stanno calcolando e la cosa più inquietante che può emergere è che potrebbero avere ragione prima di te.

In un mondo di dati, l’algoritmo diventa una lente deformante.
La tua attività viene trasformata in pattern: velocità di scroll, tempo speso su un contenuto, interazioni, orari, toni linguistici.
Il risultato? Un profilo emotivo invisibile, aggiornato in tempo reale, che prevede tristezza, ansia o depressione prima che tu lo percepisca.

Non è un bug.
È una conseguenza matematica di ciò che Foucault chiamerebbe sorveglianza interna: non devi essere osservato, basta che tu sia prevedibile.

L’origine: il panopticon digitale

Bentham immaginava il panopticon come una prigione in cui il detenuto si sente sempre osservato.
Foucault lo trasformò in metafora sociale: potere che disciplina senza dover ricorrere a sguardi diretti.

Oggi, il panopticon non ha muri, né guardie, ha algoritmi.
Ogni like, ogni click, ogni playlist diventa una finestra nella tua mente.
E tu modelli il tuo comportamento perché sai di essere misurato.

Il bug morale: quando la predizione diventa identità

Il problema non è tecnico: è etico.

Se un algoritmo sa che sei depresso, cosa dovrebbe fare?

  • Dirti “sei triste”?
  • Consigliare un terapeuta?
  • Vendere il dato a chi paga?

La predizione diventa vincolo morale: ciò che il sistema deduce influisce su ciò che fai, persino su ciò che pensi di te stesso; Il meccanismo è simile a quello della società: quando si crea un’immagine di te da cui non riesci a liberarti, finisci col diventare quella persona

In un certo senso, il bug invisibile è nella nostra delega di libertà e autonomia all’algoritmo.
Non è la macchina che sbaglia.
Siamo noi che cediamo il diritto di conoscere noi stessi.

Contesto sociale: l’illusione della privacy

Il panopticon emotivo funziona perché ci convinciamo di poterlo ignorare: accettiamo termini di servizio lunghi chilometri, ci abituiamo a raccomandazioni personalizzate, crediamo che “nessuno stia guardando davvero”.

Ma i dati sono lì, sempre e la loro analisi predittiva non richiede occhi: bastano la logica e la matematica.

Ogni algoritmo è un mini-Foucault che deduce chi sei, prima che tu lo sappia.

Filosofia: libertà vs predizione

La predizione algoritmica sfida l’idea stessa di autonomia.
Se un sistema anticipa i tuoi stati emotivi, il concetto di scelta libera diventa labile.

Bentham, Foucault, Byung-Chul Han: tutti parlano di disciplina, internalizzazione, controllo invisibile.
Oggi, non è più la società a disciplinarti: è il feed, che ordina e propone in base a ciò che sei previsto a sentire.

Sospeso tra un sistema ironico, quasi crudele: sei libero di scegliere tra opzioni già calcolate per te.

Epilogo: specchi neri

Il panopticon emotivo non è fantascienza.
È qui, tra le notifiche, i like e le playlist.

Gli algoritmi non guardano, capiscono, non giudicano, influenzano, non ti vedono, ma ti trasformano senza che tu te ne accorga.

E mentre scrolli, sorridi, ridi, o ascolti Radiohead alle 3 di notte, forse la cosa più inquietante non è il feed, è il silenzioso riflesso che ti restituisce di te stesso, prima ancora che tu lo sappia.

“Il panopticon non ha bisogno di occhi. Gli basta dedurre.”

Bug Survival Kit – Panopticon Edition

Libri consigliati

Tool utili / riferimenti tecnici

  • Analisi dei pattern emotivi nei social media
  • Studio di recommendation system (YouTube, Spotify, TikTok)
  • Privacy by Design & Data Ethics frameworks

Questo nodo della rete è alimentato da conoscenza libera e caffeina.
Se hai trovato qualcosa di utile, puoi supportarci con un caffè digitale.
👉 Offrimi un caffè

Powered by Buttondown

Lascia un commento