Intelligenza artificiale e persone trans

L’intelligenza artificiale non è neutra. Apprende da dati prodotti da esseri umani, riflette le strutture sociali in cui viene sviluppata e amplifica i pattern che trova nei dataset di addestramento. Per le persone trans, questo significa trovarsi di fronte a una tecnologia che può essere sia strumento di liberazione sia meccanismo di oppressione — spesso nello stesso momento, sulla stessa piattaforma, nello stesso algoritmo.
Uno studio del 2025 presentato alla ACM Conference on Fairness, Accountability, and Transparency (FAccT) ha misurato per la prima volta gli atteggiamenti verso l’AI nelle popolazioni marginalizzate degli Stati Uniti: le persone non binarie hanno ottenuto il punteggio più basso in positività verso l’AI (3,84 su 7), seguite dalle persone transgender (4,12), contro una media di 5,12 delle persone cisgender [1]. Non è sfiducia generica. È l’effetto cumulativo di esperienze concrete di discriminazione algoritmica.
Questa diffidenza ha basi fondate. Ma la storia dell’AI e delle persone trans non è solo una storia di danni.
I rischi: quando l’algoritmo misgendra
Riconoscimento facciale e classificazione binaria
La tecnologia di riconoscimento automatico del genere (Automated Gender Recognition, AGR) è forse l’esempio più evidente di come l’AI possa essere strutturalmente incompatibile con le identità trans. I sistemi AGR derivano il genere da tratti fisici — la forma della mascella, degli zigomi, la presenza o assenza di trucco — e lo riducono a una classificazione binaria: maschio o femmina. Un’indagine di Quartz del 2019 ha testato i servizi di riconoscimento facciale di Amazon, Microsoft e IBM su foto di persone trans e non binarie, trovando tassi di errore significativamente più alti rispetto alle persone cisgender [5].
Il problema non è un difetto tecnico risolvibile con dataset più diversificati. Come ha sottolineato Access Now in una campagna condotta con All Out e con il supporto della ricercatrice Os Keyes, l’obiettivo stesso di questi sistemi — classificare automaticamente il genere delle persone a partire dal volto — è incompatibile con i diritti fondamentali [2]. Non si può “aggiustare” una tecnologia che nega l’autodeterminazione per definizione. Non basta aggiungere una terza categoria: il principio stesso di dedurre il genere dall’aspetto fisico è sbagliato.
E le conseguenze non sono astratte. I sistemi AGR vengono utilizzati nella sorveglianza pubblica, nei controlli aeroportuali, nella verifica dell’identità per servizi finanziari. Una persona trans che viene misgendrata da un sistema automatico in aeroporto può essere sottoposta a controlli aggiuntivi, interrogatori, ritardi. Una persona trans che cerca di aprire un conto bancario con un sistema di verifica biometrica può essere bloccata perché il suo volto non “corrisponde” al genere indicato sui documenti.
Il binarismo nelle interfacce e nei dati
Il problema va oltre il riconoscimento facciale. La maggior parte dei sistemi informatici — dai moduli di registrazione online alle cartelle cliniche elettroniche, dai profili social ai database governativi — è costruita su un’architettura binaria del genere. Il campo “sesso” prevede due opzioni: M o F. Talvolta nessuna delle due.
Per le persone non binarie, genderqueer o genderfluid, questa architettura è una forma di cancellazione sistematica. Non è possibile esistere in un database che non ha un campo per te. E quando i sistemi AI vengono addestrati su questi dati, apprendono e rinforzano il binarismo: generano output che non contemplano la possibilità di un genere al di fuori di maschio e femmina.
Uno studio del 2025 su AI e medicina personalizzata, condotto con focus group di persone trans, ha evidenziato come i sistemi di AI sanitaria tendano a rinforzare stereotipi di genere binari e a marginalizzare le identità trans, con implicazioni concrete sulla qualità delle cure ricevute [8].
Moderazione dei contenuti: la censura invisibile
Se crei contenuti online e sei una persona trans, hai probabilmente sperimentato la rimozione automatica di un post, un video, una storia. Non perché violasse le regole della piattaforma, ma perché un algoritmo ha classificato il tuo contenuto come “sessualmente esplicito” o “per adulti”.
Uno studio accademico pubblicato su ACM nel 2021 ha documentato questo fenomeno con dati concreti: le persone transgender sono tra i tre gruppi di utenti dei social media che subiscono rimozioni di contenuti in modo sproporzionato (insieme a conservatori politici e persone nere) [4]. I contenuti trans vengono rimossi come “contenuto per adulti” nonostante rispettino le linee guida della piattaforma. Video educativi sull’identità di genere, racconti di esperienze di transizione, persino semplici selfie vengono classificati come “espliciti” dagli algoritmi di moderazione — mentre contenuti identici pubblicati da persone cisgender passano senza problemi.
La ricerca condotta dalla UCLA ha identificato pattern sistematici: i termini “transgender” e “non binario” attirano più segnalazioni automatiche rispetto ad altri termini [13]. Non si tratta di errori casuali, ma di un bias strutturale nei dati di addestramento dei modelli di moderazione. Il GLAAD Social Media Safety Index del 2024 ha raccomandato alle piattaforme di non affidarsi eccessivamente all’AI per la moderazione, suggerendo che i sistemi automatici siano usati per segnalare i contenuti a revisori umani, non per rimuoverli automaticamente [3].
Questa censura algoritmica ha effetti reali: riduce la visibilità delle persone trans online, limita l’accesso a informazioni e risorse, e contribuisce a un senso di isolamento digitale che si somma a quello fisico.
Deepfake e disinformazione automatizzata
L’AI generativa ha introdotto una nuova categoria di rischi. I deepfake — video, immagini e audio generati artificialmente — possono essere usati per creare contenuti non consensuali che colpiscono in modo sproporzionato le persone già vulnerabili. Le stime indicano che circa il 90% dei deepfake a sfondo sessuale riguarda donne, e le persone trans sono particolarmente esposte a questa forma di violenza digitale.
Ma il rischio non si limita ai deepfake pornografici. L’AI generativa può produrre disinformazione su larga scala: articoli falsi che attribuiscono dichiarazioni mai fatte, studi scientifici inventati, testimonianze fabbricate. In un contesto in cui la disinformazione sulle persone trans è già un fenomeno diffuso — come documentato nell’articolo sui miti comuni sulle persone trans — l’automazione rende la produzione di contenuti falsi più veloce, più economica e più difficile da identificare.
Un’indagine del GLAAD ha anche evidenziato come i sistemi di AI generativa tendano a rappresentare le persone LGBTQ+ in modo stereotipato — giovani, bianche, con i capelli viola — riproducendo e amplificando cliche invece di riflettere la reale diversità della comunità [3].
Algoritmi di assunzione e discriminazione lavorativa
I sistemi AI utilizzati nel reclutamento presentano un altro fronte di rischio. Uno studio dell’Università di Washington del 2024 ha dimostrato che i modelli linguistici di grandi dimensioni (LLM) favoriscono i nomi associati a persone bianche nell’85% dei casi e i nomi associati a donne solo nell’11% dei casi [10]. Molti sistemi di screening dei CV non riconoscono le identità di genere al di fuori del binario maschio/femmina, e possono declassare automaticamente le candidature di persone i cui profili non si conformano ai pattern storici di assunzione.
Per le persone trans, questo significa affrontare un ulteriore livello di discriminazione: non solo il pregiudizio umano del selezionatore, ma anche il pregiudizio codificato nell’algoritmo che filtra i CV prima ancora che un essere umano li veda. Una persona trans che ha cambiato nome legalmente può essere penalizzata da un sistema che rileva discontinuità nel curriculum. Una persona non binaria il cui genere non rientra nelle categorie previste dal software può essere semplicemente esclusa dal processo.
Le opportunità: quando la tecnologia apre porte
Telemedicina e accesso alle cure
Se i rischi dell’AI sono reali, lo sono anche le opportunità. La telemedicina assistita da AI sta cambiando l’accesso alle cure affermative di genere, specialmente per chi vive in aree geografiche dove i servizi specialistici sono assenti o in contesti dove la stigma sociale rende difficile recarsi fisicamente in una clinica.
Uno studio pubblicato su Nature Scientific Reports nel 2025 ha documentato come la telemedicina abbia espanso l’accesso ai servizi di Gender Expression Care da 24 codici postali concentrati in un’unica area urbana a 158 codici postali distribuiti su un’ampia regione geografica [11]. I dati mostrano anche una riduzione del 56% delle mancate presentazioni agli appuntamenti quando le visite avvengono in telemedicina [11] — un dato significativo, considerando che le barriere logistiche (distanza, trasporti, costi) sono tra i principali ostacoli all’accesso alle cure per le persone trans.
Piattaforme come QueerDoc offrono accesso a terapie ormonali affermative (testosterone, estradiolo, progesterone) tramite consulti in telemedicina, eliminando la necessità di viaggiare fino a centri specializzati che possono essere a centinaia di chilometri di distanza. Per le persone trans in contesti rurali o in regioni con legislazioni restrittive, la telemedicina può essere letteralmente l’unica opzione praticabile.
Voice training assistito da AI
La voce è un elemento centrale dell’espressione di genere, e il voice training — l’allenamento vocale per femminilizzare o mascolinizzare la voce — è un percorso lungo e spesso costoso quando seguito con un logopedista specializzato. L’AI sta rendendo questo processo più accessibile.
App come Genderfluent utilizzano reti neurali per fornire un feedback in tempo reale sulla percezione di genere della voce, permettendo agli utenti di monitorare i propri progressi durante gli esercizi [12]. Voice Whiz offre visualizzazione del pitch in tempo reale e analisi della percezione di genere tramite machine learning on-device. TruVox, sviluppata dall’Università di Cincinnati, è un’app open source che combina esercizi vocali con visualizzazioni dei componenti del parlato [12].
Queste applicazioni non sostituiscono il supporto professionale di un logopedista, ma abbassano la barriera di ingresso: sono gratuite o a basso costo, utilizzabili in autonomia, disponibili in qualsiasi momento. Per chi non può permettersi sedute regolari con uno specialista o per chi vive in contesti dove questi servizi non esistono, rappresentano un primo passo concreto.
Risorse informative e supporto
I chatbot basati su AI possono fornire informazioni di base su identità di genere, percorsi di transizione, diritti legali e risorse locali. Non sostituiscono il supporto di professionisti della salute mentale o di associazioni specializzate, ma possono essere un primo punto di contatto per chi sta esplorando la propria identità e non sa a chi rivolgersi.
In contesti dove l’accesso a informazioni accurate è limitato — per barriere linguistiche, geografiche o sociali — un sistema AI in grado di fornire risposte basate su fonti scientifiche, disponibile 24 ore su 24 e nella propria lingua, può fare una differenza concreta. Le capacità di traduzione dei modelli linguistici rendono inoltre accessibili risorse che altrimenti sarebbero disponibili solo in inglese.
Ricerca e analisi dei dati
L’AI accelera la ricerca sulla salute delle persone trans: analisi di grandi dataset clinici, identificazione di pattern negli esiti dei trattamenti, sviluppo di protocolli personalizzati. Gli strumenti di elaborazione del linguaggio naturale possono analizzare la letteratura scientifica per individuare lacune nella ricerca o sintetizzare evidenze da centinaia di studi.
Questo è particolarmente rilevante in un campo dove i dati sono storicamente scarsi. La ricerca sulla salute trans ha sofferto per decenni di campioni piccoli, follow-up brevi e bias di selezione. L’AI non risolve questi problemi strutturali, ma può contribuire a estrarre il massimo valore dai dati disponibili e a identificare priorità per la ricerca futura.
Il problema di fondo: chi progetta, chi decide
Alla radice di tutti questi problemi c’è una questione di rappresentanza. Chi progetta i sistemi AI? Chi decide quali categorie di genere includere in un database? Chi etichetta i dati di addestramento? Chi definisce cosa conta come “contenuto esplicito”?
La risposta, nella maggior parte dei casi, è: persone cisgender, in contesti accademici e aziendali dove le persone trans sono sottorappresentate. Uno studio del 2024 pubblicato sulla rivista AI and Ethics ha analizzato come il “hype” dell’AI impatti la comunità LGBTQ+, evidenziando una disconnessione fondamentale tra chi sviluppa la tecnologia e chi ne subisce le conseguenze [7].
Il catalogo di best practice per lo sviluppo di soluzioni AGR inclusive, pubblicato nel 2024 dall’ACM SIGAPP, propone linee guida concrete: eliminare la classificazione binaria obbligatoria, permettere l’autoidentificazione del genere, includere persone trans e non binarie nei team di sviluppo e nei processi di test [9]. Ma si tratta di raccomandazioni, non di obblighi. E in assenza di regolamentazione, l’adozione resta volontaria.
Il rapporto di Forbidden Colours del 2024 sull’impatto dell’AI sulle persone LGBTIQ+ ha proposto un quadro normativo europeo che tenga conto delle specificità delle comunità marginalizzate, sottolineando come l’AI Act europeo — pur rappresentando un passo avanti nella regolamentazione — non affronti esplicitamente i rischi per le persone LGBTQ+ [14].
Cosa si può fare
Non esiste una soluzione unica, ma esistono principi chiari.
Primo: vietare le tecnologie intrinsecamente dannose. Il riconoscimento automatico del genere basato su tratti fisici non può essere “migliorato” per diventare inclusivo. Il suo principio di funzionamento — dedurre il genere dall’aspetto — è incompatibile con l’autodeterminazione [2]. Deve essere vietato, non corretto.
Secondo: includere le persone trans nella progettazione. Non come soggetti di studio, ma come progettiste, sviluppatrici, tester. Lo studio su AI e medicina personalizzata del 2025 ha mostrato che i focus group con persone trans producono intuizioni e soluzioni che i team di sviluppo cisgender semplicemente non vedono [8].
Terzo: regolamentare la moderazione algoritmica. Le piattaforme devono essere trasparenti sui criteri dei loro algoritmi di moderazione, sottoporli a audit indipendenti e garantire meccanismi di appello efficaci quando i contenuti vengono rimossi erroneamente [3].
Quarto: investire nelle opportunità. La telemedicina, le app di voice training, le risorse informative basate su AI hanno un potenziale enorme per migliorare la vita delle persone trans. Ma questo potenziale si realizza solo se queste tecnologie vengono sviluppate con le persone trans, non per le persone trans.
Quinto: proteggere i dati sensibili. L’identità di genere, lo stato di transizione, i dati sanitari relativi a cure affermative sono informazioni particolarmente sensibili — come approfondito nell’articolo su privacy e identità di genere. I sistemi AI che trattano questi dati devono essere soggetti a standard di protezione rafforzati.
Un futuro da costruire
L’intelligenza artificiale non è né alleata né nemica delle persone trans. È uno strumento che amplifica ciò che trova: se trova dati distorti, produce risultati distorti; se trova dati rappresentativi, produce risultati più equi. La differenza la fanno le scelte umane — chi raccoglie i dati, chi progetta i modelli, chi decide come vengono utilizzati.
Le persone trans hanno ragione a essere scettiche. I dati dello studio FAccT 2025 riflettono esperienze concrete di discriminazione algoritmica, non un pregiudizio astratto [1]. Ma lo scetticismo non deve tradursi in rinuncia: le opportunità offerte dall’AI — accesso alle cure, strumenti di espressione, risorse informative — sono troppo importanti per essere lasciate esclusivamente nelle mani di chi non ha mai dovuto affrontare un sistema che non riconosce la tua identità.
Il futuro dell’AI per le persone trans dipende da una cosa sola: la partecipazione. Partecipare alla progettazione, alla regolamentazione, alla ricerca, alla critica. Non come eccezione da gestire, ma come prospettiva indispensabile per costruire tecnologie che funzionino per tutti.