Se provate emozioni contraddittorie, non siete i soli. Ed è proprio questo che ho imparato accompagnando molte organizzazioni nel loro percorso verso un uso responsabile dell’IA: questa tensione non è un problema da risolvere. È consapevolezza. Rappresenta il punto di partenza da cui prende forma tutto il resto.
La tensione è reale — e vi sta dicendo qualcosa
Le organizzazioni della società civile avvertono la pressione. I finanziatori vi chiedono quale sia la vostra strategia in materia di IA. Il vostro team sta già utilizzando strumenti che non avete formalmente approvato. La tecnologia avanza più rapidamente delle politiche interne. E, alla base di tutto, persiste una domanda fondamentale: come possiamo usare strumenti così potenti senza perdere ciò che ci rende unici?
Questa tensione si manifesta in dilemmi concreti:
Efficienza vs. autenticità: L'IA può aiutarci a fare di più, ma quel "di più" giova davvero alla nostra missione o riempie solo le nostre agende?
Innovazione vs. sicurezza: Vogliamo guardare al futuro, ma non a discapito delle comunità che serviamo.
Accesso vs. privacy: L'IA potrebbe aiutarci a raggiungere più persone, ma quali dati stiamo cedendo in cambio?
Si tratta di domande che non hanno risposte univoche. Si inseriscono in uno spettro, e la posizione della tua organizzazione sarà diversa da quella di un'altra. Non è una debolezza. È la natura del lavoro basato sui valori.
Lo spettro dei dilemmi dell'IA
Metriche ristrette vs. Risultati equi
Profitto a breve termine vs. Redditività a lungo termine
Valore per gli azionisti vs. Valore per gli stakeholder
Velocità vs. Accuratezza
Trasparenza vs. Protezione della proprietà intellettuale
Responsabilità vs. Autonomia (es. responsabilità legale o morale)
Potenziamento vs. Dipendenza cognitiva
Scalabilità vs. Sfumature contestuali
Sicurezza vs. Privacy (es. telecamere dotate di IA)
Sovranità vs. Governance globale (geopolitica)
Arte umana vs. Creazione dell'IA (cultura, significato e redditività economica)
Progresso vs. Pianeta (impatto ambientale)
Provate disagio? È un segnale importante. Vi indirizza verso ciò che per voi conta davvero.
Perché le OSC dovrebbero guidare, non seguire
C’è un aspetto che il settore tecnologico spesso fraintende: nel momento in cui un algoritmo entra nel mondo reale - selezionando candidature di lavoro, consigliando contenuti, allocando risorse - smette di essere un sistema puramente tecnico. Si intreccia con le relazioni umane, le dinamiche del potere istituzionale e la fiducia della comunità.
Non si tratta di problemi ingegneristici. Sono invece sfide che le organizzazioni della società civile affrontano da decenni.
Sapete già come gestire la complessità. Sapete ascoltare le voci marginalizzate. Sapete prendere decisioni guidate dai valori in condizioni di incertezza, con risorse limitate, in contesti in cui la posta in gioco coinvolge profondamente le persone.
Il dibattito sulla governance dell'IA ha bisogno esattamente di queste competenze.
Eppure, troppo spesso, le OSC restano in disparte, pensando che si tratti di un tema per tecnologi, aziende e autorità di regolamentazione. Aspettare comporta un rischio reale: saranno altri a definire le regole, e quelle regole potrebbero non riflettere i vostri valori o le esigenze delle comunità che servite.
Ma esiste un'opportunità altrettanto reale: la società civile può contribuire a plasmare il modo in cui l'IA viene sviluppata, implementata e governata, non solo reagire alle decisioni prese altrove.
Non si tratta di diventare esperti di intelligenza artificiale. Si tratta di rivendicare il proprio ruolo come esperti di valori.
Le tensioni come porte d'accesso ai principi
Come si passa quindi dalla tensione alla chiarezza?
La risposta non è risolvere la tensione. È riconoscerla e darle un nome. Le tensioni rivelano i vostri valori. E i valori, una volta articolati, diventano i vostri principi.
Prendiamo ad esempio un'organizzazione non profit nel campo dell'istruzione, la Khan Academy. Quando ha lanciato Khanmigo, il proprio strumento di apprendimento basato sull'IA, non è partita dalle specifiche tecniche. È partita da alcuni principi guida, come "Raggiungimento degli obiettivi educativi", "Autonomia dell'apprendente" e "Trasparenza e responsabilità". Questi principi nascevano da una visione lucida di ciò che sarebbe potuto andare storto e di ciò si voleva proteggere.
Per il principio del "Raggiungimento degli obiettivi educativi", i membri dell'organizzazione hanno sviluppato specifici "guardrail". "Sono previsti meccanismi per impedire usi non educativi dell'IA". Valutando il rischio di un uso inappropriato come elevato, hanno elaborato conseguenti strategie di mitigazione: sistemi di moderazione, notifiche ai genitori, e termini di servizio chiari.
Prima sono arrivati i principi. Solo in un secondo momento le protezioni pratiche.
Un percorso simile è stato intrapreso da ChangemakerXchange (CXC), una rete internazionale a sostegno degli imprenditori sociali. Il loro viaggio nell'IA è iniziato con una riflessione franca a proposito delle tensioni. Nel loro Mindful AI Manifesto (Manifesto per un'IA consapevole) affermano: "Siamo profondamente critici, soprattutto nei confronti dell'IA generativa, riconoscendone i rischi: l'enorme impatto ambientale, la tendenza ad amplificare i bias e la sua potenziale capacità di appiattire quella creatività umana unica da cui dipende il nostro lavoro".
A partire da questa lucida valutazione, hanno sviluppato dei principi, come quello dell'"uso consapevole": "L'intelligenza artificiale non è la scelta predefinita. Prima di ogni potenziale utilizzo, in particolare nel caso dell'IA generativa, cerchiamo di fermarci e di chiederci: questo compito richiede davvero l'uso dell'IA? È davvero in linea con i nostri valori? Cosa perdiamo quando utilizziamo questo strumento?"
Entrambe le organizzazioni sono partite dalla medesima domanda: Cosa ci interessa proteggere? I loro principi sono diversi perché le loro missioni sono diverse. Varrà lo stesso anche per voi.
Non si parte da zero.
Se definire i principi per l'IA sembra un compito arduo, c'è una notizia rassicurante: una comunità globale ci sta lavorando da anni.
Dal 2019, organizzazioni come la Commissione Europea, l'OCSE, l'UNESCO e il National Institute of Standards and Technology (NIST) hanno sviluppato quadri di riferimento per un'IA affidabile. Dal loro lavoro sono emersi principi condivisi:
Intervento e supervisione umani: l'uomo mantiene il controllo delle decisioni cruciali
Privacy e governance dei dati: i dati personali sono protetti e utilizzati in modo responsabile.
Trasparenza: le persone comprendono il funzionamento dei sistemi IA e li influenzano
Equità e non discriminazione: l'IA non perpetua bias né crea risultati ingiusti
Responsabilità: esiste una chiara responsabilità per le decisioni e le loro conseguenze.
Benessere sociale e ambientale: l'IA dovrebbe portare benefici alle persone e alle comunità, riducendo al minimo i danni alla società e al pianeta.
Questi framework rappresentano un punto di partenza, non un modello da copiare. Il vero lavoro non consiste nell'adottare i principi di qualcun altro, ma nel capire quali principi sono realmente rilevanti per la vostra organizzazione, nel vostro contesto e per le vostre comunità.
Un principio come quello di "equità" ha un significato diverso a seconda della missione. Per un'organizzazione che lavora con i rifugiati, equità potrebbe significare assicurarsi che gli strumenti di traduzione automatica non forniscano risultati peggiori per lingue meno diffuse, o che sistemi automatizzati di selezione non penalizzino candidati provenienti da regioni teatro di conflitti. Per un'organizzazione di difesa dell'ambiente, equità potrebbe significare evitare che sistemi di targeting basati sull'IA non escludano comunità a basso reddito, spesso le più colpite dall'inquinamento, che hanno meno probabilità di essere identificate come "donatori di alto valore" da un algoritmo.
La parola è la stessa. Sta a voi definirne l'applicazione.
L'importanza di coinvolgere voci diverse
Uno degli errori più comuni delle organizzazioni è trattare la definizione dei principi come un esercizio riservato ai leader. Un piccolo gruppo redige un documento, lo condivide per raccogliere osservazioni e considera il lavoro concluso.
Questo approccio produce principi che sulla carta risultano convincenti, ma nella pratica faticano a tradursi in comportamenti concreti. Le persone più vicine alla missione - il personale dei programmi, i membri della comunità coinvolte, gli operatori in prima linea - spesso vedono rischi che i vertici non colgono. Al tempo stesso possiedono una comprensione profonda di ciò che l'organizzazione valorizza davvero, non solo di ciò che aspira a valorizzare.
Il manifesto di CXC è nato da un approfondito processo di ascolto interno. Il framework di Khan Academy è gestito da un gruppo di lavoro interfunzionale che coinvolge team di ricerca sui prodotti, sui dati e sugli utenti, per garantire che il loro approccio sia plasmato da prospettive diverse.
Il processo di creazione dei principi è importante quanto i principi stessi. Quando le persone partecipano alla loro definizione, diventano custodi di quei valori, non semplici destinatari di una policy.
Principi che vivono e respirano
C'è una verità rassicurante: la prima bozza non sarà perfetta. Non è necessario che lo sia.
I principi di IA responsabile sono documenti vivi. Si evolvono con l'evolversi della tecnologia, con l'approfondimento della comprensione, imparando ciò che funziona e ciò che non funziona.
CXC revisiona i propri documenti sull'IA ogni sei mesi. Khan Academy valuta continuamente il proprio framework attraverso dimostrazioni, feedback e coinvolgimento degli stakeholder. In entrambe le organizzazioni i principi non sono considerati un prodotto finito, ma un confronto continuo.
Ciò non significa che siano vaghi o non vincolanti. Significa che sono radicati nella realtà di un panorama tecnologico in continuo mutamento.
L'obiettivo non è scrivere la versione definitiva. L'obiettivo è iniziare, non essere perfetti.
Un invito a iniziare
Se la vostra organizzazione non ha ancora articolato i suoi principi sull'IA, questo è il momento di cominciare.
Non da un documento programmatico. Non da una checklist di conformità. Ma da una conversazione.
Riunite il vostro team. Create uno spazio in cui sia possibile esprimere con franchezza speranze, timori e tensioni. Chiedetevi: Cosa stiamo cercando di proteggere? Su cosa ci rifiutiamo di scendere a compromessi? Che cosa significa un'IA responsabile per un'organizzazione come la nostra?
Le risposte sono già presenti nella stanza. Il vostro compito è farle emergere, dar loro un nome e assumervi insieme l’impegno di rispettarle.
Questo è un lavoro che spetta ai leader. E le organizzazioni della società civile sono particolarmente adatte a svolgerlo.
Siete pronti a fare il passo successivo?
Nelle prossime otto settimane Hive Mind pubblicherà altri articoli della serie e guide approfondite sull'uso responsabile dell'IA per le OSC.
Per aiutarvi a passare dall'ispirazione all'azione, abbiamo creato un pratico complemento a questo articolo: "La roadmap per un'IA responsabile per le OSC".
La guida vi accompagnerà attraverso l'intero processo. Che si tratti di una piccola organizzazione non profit di advocacy o di una grande ONG internazionale, la guida offre un percorso chiaro per passare da "dovremmo fare qualcosa sull'IA" a "questi sono i principi che guideranno le nostre scelte".
Risorse e approfondimenti
Khan Academy's Framework for Responsible AI in Education (https://blog.khanacademy.org/khan-academys-framework-for-responsible-ai-in-education/) - Come un'organizzazione educativa non profit ha trasformato i propri principi guida in "guardrail" pratici
ChangemakerXchange Mindful AI Manifesto & Policy (https://changemakerxchange.org/mindful-ai/#manifesto) - Un approccio basato sui valori da parte di una rete globale di changemaker
Questo articolo è il primo della serie, "La roadmap per un'IA responsabile per le OSC", sviluppata nell'ambito del progetto IA for Social Change del Digital Activism Program di TechSoup, con il supporto di Google.org.
Informazioni sull'autrice
Ayşegül Güzel è architetta della governance dell'IA responsabile che aiuta le organizzazioni orientate a una missione a trasformare l'ansia da IA in sistemi affidabili e degni di fiducia. La sua carriera unisce ruoli di vertice nel settore sociale - tra cui la fondazione di Zumbara, la più grande rete di banche del tempo al mondo - a una solida esperienza tecnica maturata come auditor IA certificata ed ex data scientist. Accompagna le organizzazioni attraverso percorsi completi di trasformazione della governance dell'IA e conduce audit tecnici sull'intelligenza artificiale. Insegna presso ELISAVA e interviene a livello internazionale su approcci alla tecnologia incentrati sull'uomo. Per saperne di più: https://aysegulguzel.info oppure iscriviti alla sua newsletter AI of Your Choice su https://aysegulguzel.substack.com.