Simulazione Multi-Agente
ReferendumSim
275 agenti AI hanno simulato l'Italia dopo il referendum sulla giustizia. Ecco cosa hanno previsto.
Simulazione eseguita il Marzo 2026 — Riforma Costituzionale della Giustizia
275
agenti
2
piattaforme social
8
mesi simulati
3,152
post generati
22,893
interazioni
Caricamento Scenario A: Vince il SI...
Il Modello
Architettura tecnica della simulazione multi-agente
Knowledge Graph Seed
Il sistema parte da un'ontologia estratta da 5 documenti chiave sulla riforma della giustizia (testi di legge, analisi costituzionali, report parlamentari). Un LLM estrae entita, relazioni e gerarchie di potere, costruendo un grafo di conoscenza con ~50 nodi e ~70 archi che diventa il substrato semantico condiviso da tutti gli agenti.
Architettura Multi-Agente a 3 Tier
Tier 1 (Elite): 25 agenti con personalita completa, system prompt individuale, memoria conversazionale e chiamata LLM dedicata per round. Tier 2 (Istituzionali): 50 agenti processati in batch da 10 con prompt piu leggero. Tier 3 (Cittadini): 35 cluster demografici, ciascuno rappresenta 8-20 cittadini, simulati con una singola chiamata LLM per cluster.
Piattaforme Simulate
6 piattaforme digitali e fisiche: X-Sim (social media), Forum-Sim (discussioni), Stampa-Sim (editoriali/inchieste), TV-Sim (talk show/TG), Istituzionale-Sim (comunicati/atti), Piazza-Sim (bar/parrocchie/mercati). Ogni agente pubblica sulle piattaforme coerenti con il suo profilo. Il sistema genera engagement (like, repost, reply) basato sulla distanza di posizione tra autore e lettore.
Dinamiche di Opinione
Il modello Bounded Confidence governa l'evoluzione delle posizioni: gli agenti si influenzano reciprocamente solo se la distanza tra le loro opinioni e inferiore a una soglia di tolleranza. Agenti con alta rigidita si muovono poco; agenti con bassa rigidita sono piu permeabili. Questo produce polarizzazione emergente e formazione spontanea di coalizioni.
Eventi Emergenti via LLM
Nessun evento e pre-programmato. Ad ogni round, un LLM genera l'evento del mese basandosi sullo stato corrente: polarizzazione, sentiment dominante, narrative emergenti, coalizioni attive, post virali. Questo crea dinamiche non lineari e sorprese genuine nella simulazione.
Effetti Mondo Reale
Il sistema traccia conseguenze macro: stabilita di governo, spread BTP-Bund, fiducia imprese/consumatori, arretrato giudiziario, tensione sociale, proteste, dichiarazioni UE, Rule of Law score. Ogni indicatore evolve in funzione della polarizzazione e degli eventi, creando un digital twin della societa italiana.
Flusso di un Round
Specifiche Tecniche
LLM Engine
Google Gemini 3.1 Flash Lite
Agenti totali
344 cittadini + 75 elite/istituzionali
Cluster demografici
35 (digital twin della societa)
Piattaforme simulate
6 (social, forum, stampa, TV, istituzionale, piazza)
Round simulati
8 per scenario (Apr-Dic 2026)
Post generati
~2100 per scenario
Opinion dynamics
Bounded Confidence Model
Concorrenza
Semaphore(5), rate limit 0.5s
Costo per scenario
~$0.80 (Gemini Flash Lite)
Scenari
2 (Vince il SI / Vince il NO)
PAK4L
AI Document Intelligence — Non un altro chatbot
PAK4L e una piattaforma AI di document review che analizza contratti, gare d'appalto e normative identificando rischi legali, problemi di compliance e criticita che l'occhio umano puo trascurare.
Il nome e ispirato a Pakal, il re Maya che costrui sistemi capaci di durare secoli. Lo stesso principio guida PAK4L: costruire strumenti di analisi documentale solidi, affidabili e duraturi.
75+
Agenti AI
Minuti
Risultati in
€24/mese
Da
Funzionalita
75+ Agenti AI Specializzati
Legal Expert, Compliance Officer, Financial Analyst, EU Law Specialist, Data Protection Officer, Risk Assessor, Logic Checker e altri lavorano in parallelo su ogni documento.
Risk Scoring in Tempo Reale
Ogni clausola riceve un punteggio di rischio da 1 a 10 con suggerimenti di fix e capacita di redline diretto sul testo.
Portfolio Intelligence
Analisi cross-documento per identificare pattern, incongruenze e rischi sistemici su interi portafogli contrattuali.
Review Governance
Assegnazione issue, tracciamento delle revisioni e sign-off crittografico per audit trail completo.
API RESTful Pubblica
Integrazione diretta nei workflow esistenti. Export in DOCX, PDF e Markdown.
Privacy by Design
I documenti caricati non vengono mai usati per il training dei modelli AI. Completa riservatezza dei dati.
Il legame tra PAK4L e ReferendumSim
Entrambi i progetti nascono dalla stessa visione: usare agenti AI specializzati per analizzare sistemi complessi. PAK4L lo fa con i documenti legali (75+ agenti che analizzano ogni clausola). ReferendumSim lo fa con la societa (344 agenti che simulano il dibattito pubblico). La tecnologia di base — orchestrazione multi-agente, analisi parallela, sintesi intelligente — e la stessa.
Come Funziona
Il pipeline di simulazione in 5 fasi
01
Knowledge Graph
Estrazione ontologica da 5 documenti sulla riforma: entità, relazioni, gerarchie di potere.
02
Setup Agenti
275 agenti AI con personalità, posizioni, strategie comunicative e legami sociali.
03
Simulazione
8 round (mesi), eventi emergenti via LLM, generazione post, dinamiche di opinione, coalizioni.
04
Report
Analisi narrativa generata dall'AI con pattern ReACT: sintesi, timeline, insight strategici.
05
Interazione
Chat con gli agenti, Q&A sul report, analisi controfattuale.
Modello LLM
Google Gemini 3.1
Agenti totali
344 + 75
Piattaforme
6 (social, stampa, TV, piazza...)
Opinion dynamics
Bounded Confidence
Disclaimer: Questa simulazione utilizza agenti AI con profili ispirati a figure pubbliche reali. I risultati sono scenari plausibili, NON previsioni. I post attribuiti a figure reali sono generati artificialmente e non rappresentano dichiarazioni reali.
Disclaimer
Simulazione, Non Profezia
Questo progetto è un esercizio di simulazione, non una previsione
ReferendumSim utilizza modelli linguistici di grandi dimensioni (LLM) per generare comportamenti simulati di agenti artificiali. I risultati non hanno valore predittivo e non devono essere interpretati come proiezioni del futuro politico italiano.
Gli LLM possono allucinare, produrre contenuti incoerenti o amplificare bias presenti nei dati di addestramento. 275 agenti virtuali non rappresentano e non possono rappresentare 60 milioni di italiani. La simulazione non è stata sottoposta a validazione empirica.
Il valore del progetto risiede nell'esplorazione metodologica e nella dimostrazione delle potenzialità (e dei limiti) delle simulazioni multi-agente applicate alla politica, non nei risultati specifici.
Confronto con Precedenti Storici
La nostra simulazione modella le dinamiche sociali post-referendum — non il voto in sé. Nei referendum passati, le tensioni non si sono esaurite con il risultato ma hanno continuato a influenzare il dibattito pubblico nei mesi successivi.
Dopo la riforma Renzi
La vittoria del NO ha portato alle dimissioni di Renzi e a mesi di instabilità politica. La polarizzazione non si è riassorbita: il paese è rimasto diviso, il M5S ha capitalizzato il malcontento, portando al governo Conte nel 2018.
Dopo la riforma Berlusconi
Anche dopo il 2006 la tensione istituzionale è proseguita. Il governo Prodi II è durato meno di due anni, indebolito da una maggioranza frammentata. Le divisioni emerse durante la campagna hanno continuato a pesare sul dibattito pubblico.
Parallelo con la simulazione: In entrambi i casi storici, le dinamiche post-referendum hanno mostrato polarizzazione persistente, marginalizzazione dei moderati e instabilità politica prolungata — le stesse dinamiche che emergono nei nostri scenari simulati. Questo non valida il modello, ma suggerisce che cattura pattern strutturali reali.