Le persone sono più preoccupate per i rischi immediati dell’intelligenza artificiale — come i pregiudizi nei sistemi e la perdita di lavoro — rispetto a scenari catastrofici futuri
I rischi attuali dell’IA sono più allarmanti degli scenari apocalittici futuri.
La maggior parte delle persone è generalmente più preoccupata per i rischi immediati dell’intelligenza artificiale che per un futuro teorico in cui l’IA minaccia l’umanità. Un nuovo studio, pubblicato su Proceedings of the National Academy of Sciences (1) dell’Università di Zurigo rivela che gli intervistati distinguono chiaramente tra scenari astratti e problemi concreti, prendendo questi ultimi molto sul serio.
Esiste un ampio consenso sul fatto che l’IA comporti dei rischi, ma ci sono differenze su come questi vengono compresi e classificati. Una percezione diffusa enfatizza i rischi teorici a lungo termine, come la possibilità che l’IA minacci la sopravvivenza dell’umanità. Un altro punto di vista comune si concentra su preoccupazioni più immediate, come il fatto che i sistemi di IA amplifichino i pregiudizi sociali o contribuiscano alla disinformazione. Alcuni temono che sottolineare i rischi “esistenziali” più drammatici possa distogliere l’attenzione dai problemi urgenti che l’IA già sta causando oggi.
Rischi dell’intelligenza artificiale presenti e futuri
Per analizzare questi punti di vista, un team di scienziati dell’Università di Zurigo ha condotto tre grandi esperimenti online con oltre 10.000 partecipanti negli Stati Uniti e nel Regno Unito. Alcuni soggetti hanno letto titoli che descrivevano l’IA come un rischio catastrofico. Altri hanno letto di minacce attuali come discriminazione o disinformazione, e altri ancora dei potenziali benefici dell’IA. L’obiettivo era verificare se gli avvertimenti su catastrofi future potessero ridurre l’attenzione verso i problemi reali del presente.
Maggiore preoccupazione per i problemi attuali
«I nostri risultati mostrano che gli intervistati sono molto più preoccupati per i rischi presenti posti dall’IA che per le possibili catastrofi future», afferma il professor Fabrizio Gilardi (2) del Dipartimento di Scienze Politiche dell’UZH. Anche se i testi sulle minacce esistenziali aumentavano le paure riguardo a tali scenari, le preoccupazioni maggiori restavano quelle per i problemi attuali, come il pregiudizio sistematico nelle decisioni dell'IA e la perdita di posti di lavoro. Tuttavia, lo studio dimostra anche che le persone sono capaci di distinguere tra pericoli teorici, problemi concreti e di come prendere entrambi sul serio.
Avviare un dialogo ampio sui rischi dell’intelligenza artificiale
Lo studio colma così un’importante lacuna di conoscenza. Nella discussione pubblica, spesso si teme che concentrarsi sugli scenari futuri sensazionalistici possa distrarre dai problemi urgenti del presente. È il primo studio a fornire dati sistematici che mostrano come la consapevolezza delle minacce attuali persista anche quando le persone sono esposte ad allarmi apocalittici. «Il nostro studio dimostra che il dibattito sui rischi a lungo termine non compromette necessariamente l’attenzione verso i problemi attuali», afferma la co-autrice Emma Hoes (3). Il professor Gilardi aggiunge: «Il dibattito pubblico non dovrebbe essere una scelta esclusiva. Serve una comprensione e un apprezzamento simultanei delle sfide immediate e future».
L’intelligenza artificiale, per quanto promettente, presenta già oggi diversi rischi concreti che meritano attenzione. Ecco i principali:
- Pregiudizi e discriminazione: gli algoritmi possono amplificare stereotipi sociali se addestrati su dati non bilanciati, portando a decisioni discriminatorie in settori come l’assunzione di personale, la giustizia o i prestiti bancari.
- Disinformazione e manipolazione: sistemi basati sull'IA possono generare fake news, immagini o video realistici (deepfake), con effetti potenzialmente destabilizzanti sulla società e sulla democrazia.
- Perdita di posti di lavoro: l’automazione di compiti svolti da esseri umani può causare disoccupazione, specialmente nei settori più esposti alla digitalizzazione.
- Sicurezza e privacy: l’uso massiccio di dati da parte dell’IA pone rischi per la protezione delle informazioni personali e può rendere più vulnerabili i sistemi informatici.
- Dipendenza tecnologica: affidarsi eccessivamente all’IA per prendere decisioni può ridurre la responsabilità umana e farci perdere competenze critiche.
Contro la disinformazione generata dall’intelligenza artificiale, si stanno adottando diverse misure su più fronti — tecnologico, normativo e culturale. Ecco le principali:
- Strumenti di verifica automatica: molte aziende stanno implementando sistemi basati sull'IA per rilevare contenuti falsi prima della pubblicazione. Questi strumenti analizzano testi, immagini e video per identificare manipolazioni o anomalie.
- Alfabetizzazione mediatica: si investe sempre più nella formazione del personale e del pubblico per riconoscere contenuti manipolati, migliorando il pensiero critico e la capacità di valutare le fonti.
- Collaborazione con fact-checker indipendenti: le piattaforme digitali e le aziende collaborano con organizzazioni specializzate nella verifica delle informazioni per contrastare la diffusione di fake news.
- Regolamentazione e trasparenza: iniziative come l’AI Act europeo mirano a stabilire regole chiare sull’uso dell’IA, promuovendo la trasparenza degli algoritmi e la responsabilità delle piattaforme.
- Tecnologie anti-deepfake: si stanno sviluppando strumenti per rilevare contenuti audio e video falsificati, che rappresentano una delle minacce più insidiose alla fiducia pubblica.
- Approccio integrato: secondo l’IRPA, è fondamentale unire regolamentazione, cooperazione internazionale e innovazione tecnologica per garantire un ecosistema informativo sicuro e pluralista.
Riferimenti:
(1) Existential risk narratives about AI do not distract from its immediate harms
(2) Fabrizio Gilardi
(3) Emma Hoes
Descrizione foto: I rischi attuali dell’IA sono più allarmanti degli scenari apocalittici futuri. - Credit: ChatGPT.
Autore traduzione riassuntiva e adattamento linguistico: Edoardo Capuano / Articolo originale: Current AI Risks More Alarming than Apocalyptic Future Scenarios