“Alcuni dei teorici dei big data pensano che questo profluvio di dati sia di per sé una scienza”. Elena Gagliasso, docente di Logica e Filosofia della scienza presso l’Università “La Sapienza” di Roma, crede invece che, per quanto numerosi, i dati da soli non possano mai fornire un calco fedele della realtà o della conoscenza. Al contrario, è sempre necessario definire dei vincoli sulla base delle nostre domande. Come fu per il microscopio nel ‘600, oggi i dati permettono di ottenere una quantità di informazioni di gran lunga maggiore rispetto al passato. Tuttavia, affinché possano essere realmente utili, queste informazioni devono essere selezionate, aggregate e interpretate.
Intervistata in occasione del convegno “Sliding doors: prediction and contingency in biosciences”, organizzato presso l’Università “La Sapienza” di Roma dal Centro Interuniversitario di Ricerche Epistemologiche e Storiche sulle Scienze del Vivente “Res Viva”, Elena Gagliasso ci ha parlato dei limiti dei big data in relazione alla loro “promessa di predittività”. Non è possibile infatti prevedere l’evolversi di un particolare sistema sulla base delle sole caratteristiche attuali, senza conoscerne la storia. Della stessa posizione di Paolo Vineis, Gagliasso crede invece che le scienze biologiche non possano prescindere dallo studio delle contingenze, degli eventi improvvisi e della storia delle interazioni tra gli organismi e i loro ambienti. I big data rappresentano quindi uno strumento descrittivo molto potente e in grado di reindirizzare la ricerca, anche sulla base delle necessità specifiche dei cittadini, ma è necessario prestare molta attenzione ai bias presenti nelle fasi di selezione, raccolta e interpretazione delle informazioni che vengono elaborate.