Su GitHub è comparso un progetto che ha superato le 35.000 stelle in poche settimane:
Cos'è MiroFish e come funziona
MiroFish è un motore di intelligenza a sciame (swarm intelligence) che parte da "semi" del mondo reale — notizie, documenti, report finanziari, persino romanzi — e ci costruisce sopra un mondo digitale parallelo. In questo ambiente, migliaia di agenti con personalità distinte, memoria a lungo termine e logica comportamentale interagiscono liberamente.
Il flusso di lavoro è diviso in cinque fasi:
- Costruzione del grafo: estrazione delle informazioni di partenza, iniezione della memoria individuale e collettiva, costruzione di un GraphRAG
- Setup dell'ambiente: estrazione delle relazioni tra entità, generazione dei profili degli agenti, configurazione dei parametri di simulazione
- Simulazione: esecuzione parallela su due piattaforme, parsing automatico delle richieste predittive, aggiornamento dinamico della memoria temporale
- Report: un ReportAgent dedicato interagisce con l'ambiente post-simulazione usando un set di strumenti ricco
- Interazione profonda: possibilità di dialogare con qualsiasi agente nella simulazione o con il ReportAgent stesso
Il valore reale: dove serve un motore a sciame
I casi d'uso dimostrati sono due, molto diversi tra loro. Il primo è serio: previsione dell'opinione pubblica. L'Università di Wuhan ha usato MiroFish per simulare la reazione del pubblico a eventi di cronaca, generando report predittivi. Il secondo è più creativo: hanno alimentato il motore con gli 80 capitoli superstiti de Il Sogno della Camera Rossa (红楼梦) e gli hanno fatto prevedere il finale perduto del romanzo classico cinese.
Questo è il punto interessante. Non si tratta di un sistema di previsione statistica classico. È un approccio emergente: si lascia che il comportamento collettivo degli agenti faccia emergere pattern e tendenze, esattamente come succede nella swarm intelligence biologica. Il risultato è più simile a un "esperimento mentale automatizzato" che a una regressione.
Limiti e considerazioni pratiche
Prima di entusiasmarsi troppo, qualche nota. Il consumo di token è elevato — il README stesso avverte di iniziare con meno di 40 round di simulazione. Ogni agente chiama un LLM a ogni turno, quindi i costi scalano rapidamente. Il setup richiede Node.js 18+, Python 3.11-3.12 e uv come gestore pacchetti. C'è anche un deploy via Docker, che semplifica le cose.
Il motore di simulazione è basato su OASIS di CAMEL-AI, un framework open-source per simulazioni multi-agente. MiroFish ci aggiunge il layer di iniezione dei dati reali, il sistema di reporting e l'interfaccia interattiva. Il progetto è sostenuto da Shanda Group e rilasciato sotto licenza AGPL-3.0.
Una cosa che apprezzo: la possibilità di interagire con i singoli agenti dopo la simulazione. Non è solo "leggi il report". Puoi entrare nel mondo simulato e fare domande direttamente a un agente per capire il suo ragionamento.
FAQ
MiroFish funziona solo con LLM cinesi? No. Supporta qualsiasi API compatibile con il formato OpenAI SDK. Puoi usare GPT-4, Claude, Qwen, o modelli locali esposti con un server compatibile.
Quanto costa eseguire una simulazione? Dipende dal numero di agenti e round. Il progetto consiglia di partire con meno di 40 round per contenere i costi. Ogni agente genera almeno una chiamata LLM per turno.
Posso usarlo per previsioni finanziarie reali? Il progetto elenca il financial forecasting tra i casi d'uso, ma è uno strumento sperimentale. Non va usato per decisioni d'investimento senza validazione indipendente.
