Blog

La nostra raccolta di articoli e approfondimenti tecnici

Video

Una raccolta di video dai nostri eventi, webinar e molto altro

Use case

Una raccolta dei nostri Casi di successo

Funzionalità e novità di questa ultima versione

OpenSearch 2.12 è ora disponibile, offrendo miglioramenti significativi nelle prestazioni di ricerca e analisi, arricchendo l’esperienza utente e ampliando le capacità di machine learning. L’aggiunta più rilevante è l’integrazione con Apache Spark, che facilita l’analisi dei dati operativi in maniera più efficiente e meno costosa.

Questa versione vanta una serie di innovazioni, come l’integrazione Apache Spark, che permette l’analisi completa dei dati operativi direttamente in OpenSearch, favorendo l’uso dei dati secondari senza il bisogno di importarli manualmente.

Le prestazioni di ricerca sono state ottimizzate ed è possibile procedere con la ricerca concorrente sui segmenti, l’ottimizzazione delle aggregazioni di istogrammi e query e l’introduzione del campo di testo “match-only” che riduce i costi di archiviazione fino al 20%.

E’ inoltre possibile monitorare le prestazioni delle query con la nuova funziona “top N queries”. Questa consente di identificare e analizzare le query più lente, con prospettive future di ampliamento delle metriche di prestazione.

OpenSearch 2.12 possiede altre funzionalità potenziate, capaci di migliorare la ricerca di monitoraggio su più cluster (interrogazione cross-cluster), l’interattività e l’usabilità grazie a un’interfaccia più intuitiva e funzionale (miglioramenti esperienza Discover). Tra le caratteristiche sperimentali è stato incluso l’OpenSearch Assistat Toolkit che consente di costruire esperienze basate su intelligenza artificiale generativa, un framework di agenti per semplificare l’uso dei LLM e un motore workflow per automatizzare le configurazioni delle risorse ML Commons. Questi, e molti altri argomenti, saranno affrontati durante il nostro webinar.

Questa versione ha anche funzionalità di ML avanzate, come:

  • Ricerca Conversazionale: offre un’esperienza di ricerca interattiva e migliora il recupero delle informazioni.
  • Processori di dati predefiniti per Amazon Bedrock: semplificano la creazione di applicazioni di ricerca semantica.
  • Ricerca vettoriale con chunking: consente una più semplice interrogazione di documenti lunghi come vettori multipli senza elaborazione personalizzata.

Se deesideri approfondire, guarda il nostro webinar cliccando qui.

IA Generativa: le capacità avanzate di OpenSearch 2.12

Nel contesto di OpenSearch 2.12, l’intelligenza artificiale generativa si riferisce alla capacità di generare automaticamente contenuti rilevanti e utili, come risposte a domande o nuovi testi, basandosi su grandi quantità di dati. Questa capacità è particolarmente preziosa per le applicazioni di ricerca e analisi dei dati, dove si possono sfruttare modelli di machine learning per estrarre insight e creare nuove forme di interazione con i dati. Scopri di più partecipando al nostro webinar.

Ecco gli aspetti salienti dell’approfondimento sull’intelligenza artificiale generativa in OpenSearch 2.12:

  • OpenSearch Assistant Toolkit: Questo set di strumenti è stato aggiunto come funzione sperimentale ed è progettato per permettere agli sviluppatori di costruire esperienze basate su AI generativa all’interno delle dashboard di OpenSearch. Utilizzando elaborazione del linguaggio naturale e funzionalità context-aware, gli sviluppatori possono ora integrare AI generativa per rendere le interazioni degli utenti con i dati più naturali e interattive.
  • Framework di flusso sperimentale: Un nuovo componente del toolkit che semplifica lo sviluppo di flussi di lavoro complessi, come quelli basati sul RAG (retrieval-augmented generation). Questi flussi di lavoro sono supportati da modelli JSON che possono essere utilizzati per costruire applicazioni più complesse e interattive.
  • Uso degli LLM (Large Language Models): L’Assistant Toolkit sfrutta modelli generativi di grandi dimensioni per potenziare le capacità di ricerca conversazionale. La pipeline di ricerca RAG utilizza connettori AI per integrare dati e modelli generativi, come ChatGPT e Claude2, per generare risposte conversazionali basate sui dati indicizzati in OpenSearch. Questo approccio mira a minimizzare le “allucinazioni” o gli errori di generazione, producendo informazioni più accurate.
  • Framework di agenti sperimentale: Una nuova aggiunta a ML Commons che utilizza LLM remoti per gestire problemi complessi e coordinare strumenti di ML. Questo framework supporta vari tipi di agenti, come agenti di flusso e agenti conversazionali, e permette agli utenti di costruire i propri strumenti per casi d’uso specifici.

Conclusione

La componente di AI generativa in OpenSearch 2.12 apre nuove possibilità per l’interazione con i dati e la creazione di esperienze utente immersive. Attraverso questi strumenti avanzati, gli sviluppatori possono ora costruire applicazioni che non solo rispondono in modo più umano e contestuale, ma che sono anche in grado di analizzare e interpretare i dati con metodi totalmente nuovi. Con il feedback continuo della comunità, possiamo aspettarci miglioramenti ancora più rivoluzionari in futuro.

Contattaci per saperne di più

Prenota un appuntamento con il nostro consulente OSAM o con gli esperti del nostro team.