Nurse24.it
chiedi informazioni

tecnologie e sanità

Big Data in Sanità, verso un sistema sanitario data-driven

di Silvia Fabbri

Lo sviluppo tecnologico che ha portato alla nascita dei Big Data ha generato una significativa mutazione di paradigma in ogni campo scientifico e non. Ogni giorno viene generato, da fonti eterogenee (sanità, social networks, marketing, finanza, ecc.), un gargantuesco volume di dati ad un ritmo senza precedenti. Questo è dovuto allo sviluppo e alla continua evoluzione tecnologica cui ogni giorno assistiamo: Internet of Things, Cloud Computing e dispositivi smart in mano alla quasi totalità dei consumatori. Questi set di dati sono talmente voluminosi da non poter essere gestiti dai software di elaborazione dati tradizionali. Grazie ad un efficiente management, un’attenta analisi e una corretta interpretazione dei Big Data è possibile diventare spettatori di una drastica evoluzione nel mondo della sanità.

Il data overload e la nascita della Data Science

Ogni giorno, da ogni parte del mondo, viene generata una massiva quantità di dati. L’universo digitale è un termine che va a definire come questi dati vengono creati, replicati e utilizzati in un anno.

Le Big Tech come Google, Meta, Amazon, Apple e Microsoft ogni giorno immagazzinano un quantitativo massivo di informazioni come preferenze pubblicitarie, liste di applicazioni utilizzate, cronologie del browser, contatti, email, ecc.; la somma di tutti questi dati prende il nome di “Big Data”.

L’analisi di questi dati è diventata così cospicua da portare alla nascita di una nuova disciplina scientifica: la Data Science. La Data Science si occupa di vari aspetti, tra i quali l’analisi e il management dei dati, favorendo il miglioramento e l’evoluzione di sistemi complessi come quello della sanità.

Definizione di Big Data

I Big Data rappresentano un enorme ammontare di dati impossibili da gestire utilizzando software tradizionali o piattaforme internet-based, in quanto vanno ad utilizzare un quantitativo di energia di immagazzinamento, processo e analisi considerevole.

Grazie all’evoluzione tecnologica è possibile memorizzare e la gestire dataset di dimensioni crescenti in modo continuo, come enunciato dalla Legge di Moore: La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni).

Il termine “Big Data” è stato utilizzato per la prima volta da John Mashey, Chief Scientist in pensione alla Silicon Graphics, a metà degli anni Novanta in riferimento alla gestione e all’analisi di datasets massivi.

Nel 2001, l’analista Douglas B. Laney osservò che i big data crescevano in 3 diverse dimensioni e questo aspetto lo portò a definire un primo modello chiamato delle “3V”, dove le V stanno per:

  • Volume: quantità di dati (strutturati o non strutturati) generati al secondo da sorgenti eterogenee (sensori, log, email, social e database)
  • Variety: la quale si riferisce alla differente tipologia di dati che vengono generati, immagazzinati e utilizzati. Precedentemente alla nascita dei big data venivano presi in considerazione, principalmente, dati strutturati (tabella di un database), i quali venivano manipolati tramite database relazionali. Per rendere più accurata e profonda l’analisi oggi vengono presi in considerazione anche:

    A. Dati non strutturati (schede di anamnesi, referti, prescrizioni o dimissioni ospedaliere)

    B. Dati semi strutturati (atto notarile con frasi fisse/variabili)

  • Velocity: in riferimento alla velocità con cui vengono generati i nuovi dati, fondamentale è l’arrivo di queste informazioni in sistema real-time per poterli analizzare.

Ad oggi, i Big Data, possono essere caratterizzati da altre discriminanti, quali:

  • Variabilità: in riferimento all’inconsistenza possibile di dati analizzati
  • Complessità: la quale aumenta in modo proporzionale alla dimensione del dataset
  • Veridicità: relativa all’informazione che è possibile estrapolare dalle informazioni
Scopri i master in convenzione

Commenti (1)

Nataraja

Avatar de l'utilisateur

1 commenti

BigData e AI

#1

La mole di dati si presta non solo all’analisi umana per un rapido accesso alle informazioni, ma anche si sposa con i modelli alla base degli algoritmi di allenamento delle IA che sono fiorite nel corso del 2023.
I Big Data foraggeranno precise IA orientate all’anamnesi, diagnosi e prescrizione di cure ai pazienti. L’IA potrebbe agire in maniera predittiva e anticipare i marcatori che possono preludere ad una determinata patologia. I risvolti possono spaventare sul piano etico e professionale, porsi la domanda se la tecnologia possa mettere a rischio la professionalità non sarà di certo eresia anacronistica. A mio avviso un uso sistematico dei dati ed una raccolta puntuale, ben orientato, con un uso esperto e guidato dei risultati delle IA saranno domani un supporto eccezionale per i professionisti del settore medico sanitario.