Il Red Hat Summit Connect torna anche quest’anno, consolidandosi come il principale evento in Italia dedicato all'innovazione tecnologica e al mondo open source. Le due tappe italiane, che si terranno il 7 novembre a Roma e il 19 novembre a Milano, rappresentano...
Direttamente dagli stati generali di Elastic ecco le ultime informazioni e i feedback ricevuti sulla versione 2.0 di Logtash.
2.o Feedback
Alcuni utenti, forse anche qualcuno fra voi,hanno riscontrato alcuni problemi in fase di aggiornamento per entrambe le versioni Elasticsearch e Logtash 2.0. Questi problemi sono stati causati dalle importanti modifiche introdotte nella versione 20. vist che si tratta di un importante aggiornamento di versione.ù
Dots nei nomi di campo: anche se sono stati fissati dei parametri e filtri per non utilizzare i punti nei nomi di campo there are some filters out in the wild that still use dots. To help with this, we wrote a de_dot filter. Per far fronte a questo Elastic ha introdotto un de- dots filtro. Questo sostituisce i campi che hanno punti di sottolineatura di default(foo.bar diventa foo_bar). C’è anche una funzionalità per convertirli in campi reali nidificati [pippo] [bar]. Per maggiori dettagli vedi questo blog
Mapping issue: un aggiornamento Logtash non sovrascrive l’esistente template in Elasticsearch. Questo perchè gli utenti potrebbero aver personalizzato il mapping chancing.
Log Courier: si tratta di un fork diffuso di Logtash Forwarder. Le modifiche introdotte nella library JrJackson nella versione 2.0 hanno portato al malfunzionamento di delle APIs in uso in questo progetto. Jason, il creatore di Log Courier a rilasciato una versioen compatibile con la 2.0.
Qui potete trovare più informazioni relativamente agli aggiornamenti di Elasticsearch e Logtash alla versione 2.0
Java Event: il team di ELastic ha iniziato a scrivere la categori.a Event in Java. Event oggi è l’elemento principale che incapsula i dati e fornisce una API per i plugin per eseguire l’elaborazione sul contenuto dell’evento. Essendo l’oggetto Event realizzato interamente in Java migliorerà le prestazioni rendendo possibile una serializzazione più veloce evitando costose conversioni tra JRuby e Java, che a sua volta contribuirà con un implementazione di persistenza efficiente. Queste modifiche sono interne e non comportano nessun disagio per gli utenti.
Plug in Land
Twitter imput: in corso l’aggiunta di un proxy per supportare gli imput provenienti da twitter.
Multiline Codec: aggiungendo stream identity a questo codec in modo da poterlo usare per raccogliere i dati in sicurezza su più righe di file provenienti da fonti diverse.
Elasticsearch output: riscritto questo output per modularizzare i metodi esistenti. E’ stata modificata la retry logic in modo che non risultasse asincrona ed è stato rimosso l’utilizzo dell’extra Stud::Buffer. Questo è quello che faciliterà la transazione ad una struttura dati Persistent Queues. Attualmente l’output blocca tutti gli errori in massa che vengono ripetuti.