La Saggezza della Folla in Machine Learning: Perché i Metodi Ensemble Funzionano

Avete mai sentito parlare della "saggezza della folla"? È quel fenomeno per cui l'opinione media di un gruppo di persone è spesso più accurata del parere di un singolo esperto.

Nel 1907, Francis Galton osservò che in una fiera di bestiame, la media delle stime di 800 persone sul peso di un bue si avvicinava sorprendentemente al peso reale - più di qualsiasi stima individuale.

Come sto scoprendo leggendo "The Book of Why" di Judea Pearl (citato in un mio post precedente), Galton fu anche uno dei primi studiosi, insieme a Karl Pearson, a sviluppare il concetto di correlazione statistica. Curiosamente, entrambi avevano difficoltà ad accettare o formalizzare adeguatamente il concetto di causalità, preferendo concentrarsi sulle relazioni statistiche osservabili piuttosto che sui meccanismi causali sottostanti. Una limitazione che la scienza dei dati moderna sta cercando di superare.

Cosa c'entra questo con il machine learning?

I metodi ensemble applicano esattamente questo principio agli algoritmi. Invece di affidarsi a un singolo modello predittivo, combinano più modelli per ottenere risultati superiori:

  1. Random Forest: aggrega decine o centinaia di alberi decisionali, ciascuno "addestrato" su sottoinsiemi diversi di dati e feature
  2. Gradient Boosting: costruisce modelli in sequenza, dove ogni nuovo modello corregge gli errori dei precedenti
  3. Stacking: combina modelli di diversa natura (SVM, reti neurali, kNN) facendo "votare" le loro previsioni

Perché funzionano così bene?

  1. Riducono la varianza: le fluttuazioni casuali dei singoli modelli si compensano a vicenda
  2. Limitano l'overfitting: diversi modelli "generalizzano" in modi diversi
  3. Aumentano la robustezza: il fallimento di un modello viene mitigato dagli altri

Proprio come nella folla di Galton, dove alcuni sovrastimavano e altri sottostimavano, gli errori tendono a cancellarsi reciprocamente.

La lezione per tutti noi

Che tu sia data scientist, manager o semplicemente interessato all'AI, c'è un insegnamento potente: nelle decisioni complesse, la diversità di prospettive è spesso la via migliore.

A meno che tu non sia Yoda con 900 anni di saggezza galattica alle spalle, probabilmente otterrai risultati migliori combinando diverse opinioni (o modelli) piuttosto che affidandoti a un singolo "esperto"… anche se quest'ultimo parla al contrario e ha le orecchie verdi a punta! 🧠👽

Yoda: Do. Or do Not. There is no Try

Related Post

Aprile 7, 2025
Mentre LLaMA 4 viaggia tra le galassie, io chunko ricette in cucina (con RAG e Streamlit)

Preparatevi a un viaggio nel futuro dell'intelligenza artificiale! Proprio quando pensavo di aver capito come funzionano i modelli linguistici, ecco che Meta decide di sconvolgere tutto con Llama 4. È come se avessi appena imparato a guidare una bicicletta e improvvisamente mi ritrovassi al volante di una navicella spaziale! Meta ha presentato non uno, non […]

Aprile 12, 2025
🌌 Come Goku nella stanza dello spirito e del tempo: cosa ho imparato costruendo agenti AI con AWS

Ogni tanto capita un progetto che ti cambia la prospettiva. Per me, questo è stato uno di quelli. Durante il corso Build AI Agents with AWS di Zero To Mastery, ho avuto la sensazione di aver sbloccato un nuovo livello: un po’ come Goku quando si allena nella stanza dello spirito e del tempo — […]

veronicaschembri
Copyright © Veronica Schembri

Privacy Policy
Cookie Policy