L’elaborazione dei flussi di dati per una Smart City ideale
L’uso della tecnologia per migliorare la vita dei cittadini trasforma una città in una Smart City. Stiamo parlando di un contesto cittadino dove si applicano strategie di pianificazione urbanistica finalizzate all’ottimizzazione e all’innovazione dei servizi pubblici anche per ridurre l’impatto ambientale. Queste città acquisiscono dati tramite sensori e utilizzano tecniche di analisi dei Big Data per migliorare gli aspetti ambientali, finanziari e sociali della vita urbana.
La diffusa crescita dei Big Data e l’evoluzione delle tecnologie IoT consentono alle città di avere a disposizione dati e informazioni elaborati in tempo reale. In una Smart City infatti vari dispositivi IoT generano continuamente flussi di dati che devono essere analizzati nel più breve periodo di tempo possibile e rivelando anomalie in tempo reale. Per poter gestire l’elaborazione dei dati in tempo reale per le Smart Cities sono stati fatti alcuni studi, pubblicati sul portale Springer Link, e concentrati sulla valutazione delle prestazioni di tre piattaforme, ovvero Apache Storm, Apache Spark Streaming e Apache Flink.
Indipendentemente da dove sta avvenendo la processazione dei dati (ovvero se margine o al centro del livello di elaborazione), i risultati sperimentali possono essere presi in considerazione per determinare il miglior framework. Questo parametro si stabilisce in base ai requisiti di elaborazione delle applicazioni di streaming sempre in termini di prestazioni, produttività e scalabilità.
Questi esperimenti hanno mostrato che i framework Storm e Flink hanno prestazioni molto simili, mentre Spark Streaming che ha una latenza molto più elevata fornisce anche un throughput più elevato per elaborare elevati volumi di dati generati in Smart Cities.