La nostra recente ricerca condotta in più paesi, che ha incluso sondaggi in nove nazioni e casi di studio approfonditi, ha rivelato una cruda realtà: solo l'8% delle OSC dispone attualmente di una policy sull'IA, mentre quasi il 40% incontra difficoltà a garantire la privacy dei dati quando utilizza questi strumenti. Come ci ha raccontato un rappresentante del Ghana, l'accesso a politiche e linee guida chiare non è semplicemente un lusso: è vitale per la sopravvivenza e per una crescita responsabile.

Questa roadmap è la nostra risposta: un processo passo dopo passo per le OSC pronte a passare dall'incertezza a un'azione intenzionale e guidata dai valori.

La guida "La roadmap per un'IA responsabile per le OSC" è pensata per le organizzazioni della società civile che vogliono trasformare l'ansia da IA in azione intenzionale.

Che si tratti di una piccola organizzazione non profit di advocacy, di una grande ONG internazionale o di una fondazione di comunità, il processo di definizione dei principi di IA responsabile è fondamentalmente il medesimo: inizia con una conversazione onesta e si conclude con un impegno condiviso.

Questa guida si basa su una metodologia sviluppata e testata dall'autrice attraverso il lavoro diretto con diverse organizzazioni, i cui casi vengono via via presentati come esempi pratici.

Cosa otterrete alla fine di questo processo:

  • Una chiara comprensione dell'attuale rapporto della vostra organizzazione con l'IA: gli strumenti che utilizzate, le tensioni che percepite, i valori in gioco

  • Una serie di 3-7 principi di IA responsabile ordinati per priorità e adattati alla vostra missione e al vostro contesto

  • Definizioni che rendano questi principi significativi e attuabili per il vostro team

  • Slancio verso strutture e le politiche di governance (che tratteremo nelle guide successive di questa serie) / (che troverete qui)

L'approccio: Osservare → Creare → Costruire

Questa guida segue una metodologia articolata in tre fasi:

  • OSSERVARE: Aprire uno spazio per osservare ciò che esiste: mappare il panorama attuale dell'IA nella vostra realtà, far emergere le tensioni, raccogliere le conoscenze già disponibili (normative, benchmark, valori già esistenti dell'organizzazione). Questa fase può essere svolta in gran parte come preparazione prima che il team si riunisca.

  • CREARE: Lo spazio collaborativo e spesso disordinato in cui sintetizzare gli insight in principi, definire le strutture di governance e documentare le policy. È la fase in cui il team lavora insieme.

  • COSTRUIRE: La fase di implementazione e operativizzazione, in cui i principi incontrano la pratica attraverso la valutazione dei rischi, le strategie di mitigazione e i controlli di governance continui. È qui che le strutture di governance che avete definito prendono le redini, con individui o team designati che si occupano del monitoraggio continuo e della responsabilità.

Una nota sui tempi: Questo lavoro non può essere affrettato. Definire dei principi in una sola riunione di un'ora produce documenti che rimangono lettera morta. Programmate del tempo per la preparazione (OSSERVARE) e almeno una sessione di 90 minuti per la creazione collaborativa, seguita da una fase dedicata alla sintesi e al perfezionamento. L'investimento vale lo sforzo: questi principi guideranno ogni decisione in materia di IA presa dalla vostra organizzazione.

Nelle prossime settimane, tornate a visitare Hive Mind per leggere le parti OSSERVARE, CREARE e COSTRUIRE della guida e aiutare la vostra OSC a definire i propri principi di IA responsabile.

Piano di pubblicazione della roadmap

Fase 1: OSSERVARE

Fase 2: CREARE

  • Parte 6: Tradurre i principi in regole – una guida pratica alla stesura del proprio manuale operativo interno.

Fase 3: COSTRUIRE

  • Parte 7: Introduzione alla valutazione dei rischi – comprendere il panorama della sicurezza.

  • Parte 8: Guida alla valutazione dei rischi – strumenti approfonditi per il monitoraggio continuo e la responsabilità.

Il tuo feedback è importante

Cosa ne pensi di questo testo? Dedica 30 secondi per condividere il tuo feedback e aiutarci a creare contenuti significativi per la società civile.

Modulo di feedback in arrivo!


Questo articolo introduce la serie "La roadmap per un'IA responsabile per le OSC", sviluppata nell'ambito del progetto AI for Social Change del Digital Activism Program di TechSoup, con il supporto di Google.org.