Tipo segnalazione: Segnala una innovazione
Oggigiorno, l’analisi e l’acquisizione di grandi quantità di dati è una pratica in uso in vari campi di studio, dalla finanza fino all’economia passando dall’industria, essa infatti è utilizzata per prevedere e analizzare tendenze ed eventi futuri.
Per rendere però queste predizioni affidabili l’analista deve acquisire una grande quantità di dati utili soprattutto se, come nel caso delle predizioni finanziarie, gli andamenti di questi dati sono affetti da una grande variabilità data dalla grandezza del sistema che si vuole studiare. Per esempio, quando si cerca di predire l’andamento del valore di una moneta si devono considerare una grande concomitanza di fattori ed eventi che possono influire sulla valuta di quella moneta, per questo per studiare questi grandi sistemi è necessario acquisire una grande quantità di dati.
Ma cosa succede nel caso in cui il sistema da analizzare sia molto più piccolo ed influenzato da solo un piccolo numero di fattori? Nel caso di piccoli sistemi come processi di produzioni o anche formulazione di prodotti esistono dei metodi statistici per l’acquisizione di dati dall’alto contenuto informativo con il quale si possono condurre diversi tipi di studi come ottimizzazione, predizione e studio della varianza o differenza significativa.
Questi metodi di analisi statistica che vengono definiti come “Design of Experiment” permettono da oltre un secolo (usato per la prima volta nel 1920 dallo scienziato inglese R.A. Fisher) a ricercatori e professionisti di pianificare esperimenti utili in maniera tale da acquisire più informazioni possibili con il minimo numero di misurazioni.
Usato per la prima volta in campo agricolo per lo studio dell’utilizzo di diverse varietà di patate per l’incremento produttivo, oggi è usato in quasi tutti i campi di studio diventando anche uno strumento di valutazione delle performance ai fini legislativi in campi come quello farmaceutico dove grazie a questo metodo strutturato per l’acquisizione di dati viene studiata l’affidabilità di prodotti e sistemi produttivi.
Ma anche se si tratta di uno strumento statistico con più di cento anni di storia, il suo utilizzo in Europa è rimasto per anni limitato ad industrie ad alta specializzazione ingegneristica mentre il suo utilizzo in settori come quello della produzione alimentare non è riuscito a sconfinare le aule universitarie.
Con questo e con altri articoli vorrei iniziare con i lettori di questa community un viaggio all’insegna della scoperta di questi metodi statistici per l’ottimizzazione e analisi di processi e formulazioni alimentari, mostrando ai lettori le possibilità che si nascondono dietro questi strumenti di analisi dati e come possono essere utilizzati per aggiungere obiettività ad un settore come quello alimentare che è affetto da una grande soggettività e variabilità delle risorse.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.