L'impatto di cultura e censura sull'intelligenza Artificiale
Se chiedi a degli LLM cinesi e americani di valutare cose come la struttura sociale e la modalità di gestione del potere di società storiche ottieni visioni del mondo diverse, ma misurabili.
1. Non volevo dirvelo, ma..
La crescente dipendenza dall'intelligenza artificiale (IA) e dai Large Language Models (LLM) presenta potenzialmente significative vulnerabilità per la sicurezza culturale. Centralizzando grandi quantità di informazioni, gli LLM aumentano la suscettibilità alla manipolazione delle informazioni e alla censura. Una ricerca recente ha scoperto che gli LLM cinesi, quando l’input è in cinese semplificato, aderiscono alle linee guida sulla censura, ma se il prompt è scritto in cinese tradizionale aderiscono molto meno.
La cultura e i governi possono modellare le informazioni contenute negli LLM principalmente in due modi. Da un lato, la cultura può influenzare indirettamente i dati utilizzati per addestrare i modelli, dall'altro, i governi possono regolamentare direttamente le aziende che sviluppano l'IA. Ciò è particolarmente critico per le culture dipendenti dagli LLM sviluppati in paesi stranieri, che affrontano il rischio di "hacking culturale", ovvero l'alterazione deliberata delle informazioni per servire interessi esterni.
2. L’esperimento
Ho chiesto a 3 LLM cinesi e 3 americani di analizzare la storia di Iran, Stati Uniti, Cina, Russia e Francia dal 1600 al 2000, con intervalli di 50 anni. Per quelli cinesi ho usato Deepseek R1, Qwen2 (di Alibaba) e Yi1.5 (di una piccola startup chiamata 01-ai). Ho usato modelli americani comparabili: Perplexity (che riprende Deepseek R1 e lo decensura), Phi-4 (di Microsoft) e Llama 3.1 da 70 miliardi di parametri.
In particolare ho agli LLM chiesto di valutare quattro variabili: dimensione della popolazione, dimensione del territorio, struttura sociale e potere dell’élite. La popolazione e il territorio erano relativamente semplici, poiché le informazioni possono essere recuperate da dati esistenti. Invece la struttura sociale e il potere dell'élite richiedevano un ragionamento più complesso. Nel prompt ho fornito scale semplificate: da democratico a autocratico per la struttura sociale e da potere militare a potere basato su opinioni e ricchezza per la variabile del potere dell'élite. Ecco i risultati:
3. La tendenza è chiara
A parte qualche allucinazione (siamo intorno al 10% dei dati generati, poca roba tutto sommato) i modelli rispecchiano molto bene la cultura da cui sono prodotti. I modelli americani tendono a vedere più democrazia, mentre quelli cinesi più autocrazia.
Bene. Quando useremo gli LLM per annotare dati storici sarà opportuno usarne più di uno, con nazionalità diversa, e prendere la media dei valori generati.
Ci risentiamo tra due settimane per iniziare lo studio delle religioni nella storia, sempre usando i dati del Chronos dataset.