Snowflake annuncia innovazioni e miglioramenti a Snowflake Cortex AI per rendere più semplice, efficiente e affidabile la creazione di applicazioni basate sull’AI, tra cui chat, che consentono alle organizzazioni di sviluppare in pochi minuti chatbot in grado di dialogare direttamente con i dati per ottenere le risposte necessarie più velocemente.
Snowflake sta ulteriormente democratizzando il modo in cui gli utenti possono personalizzare l’AI per casi d’uso specifici grazie a una nuova interfaccia interattiva senza codice, all’accesso a sofisticati modelli linguistici di grandi dimensioni (LLM) e a ottimizzazioni serverless, e accelera il percorso di operatività dei modelli con un’esperienza di apprendimento automatico (ML) integrata attraverso Snowflake ML, che consente agli sviluppatori di costruire, scoprire e governare modelli e funzionalità lungo tutto il ciclo di vita del machine learning. La piattaforma unificata Snowflake per ML e AI generativa offre la possibilità di estrarre più valore dai dati, garantendo al contempo massime sicurezza, governance e controllo per un’AI responsabile e affidabile su scala.
Parlare con i dati attraverso un’esperienza chat del tutto nuova
I chatbot alimentati da LLM sono un modo potente per consentire a qualsiasi utente di interrogare i dati utilizzando il linguaggio naturale al fine di accedere agli insight di cui le aziende hanno bisogno per prendere decisioni critiche con maggiore velocità ed efficienza. Snowflake presenta due nuove funzionalità di chat, Snowflake Cortex Analyst e Snowflake Cortex Search (entrambe presto in public preview), che consentono agli utenti di sviluppare in pochi minuti chatbot su dati strutturati e non, senza complessità operative. Cortex Analyst, basato sui modelli Llama 3 e Mistral Large di Meta, permette di creare applicazioni sicure sulla base di dati analitici in Snowflake, mentre Cortex Search sfrutta, per recuperare e classificare, l’avanzata tecnologia di Neeva (acquisita da Snowflake nel maggio 2023) insieme a Snowflake Arctic embed per creare applicazioni su documenti e altri set di dati testuali attraverso la ricerca ibrida – una combinazione di vettori e testi – as-a-service.
Snowflake rafforza le esperienze AI per accelerare la produttività
Oltre a consentire il facile sviluppo di esperienze chat personalizzate, Snowflake fornisce ai clienti esperienze AI precostituite, alimentate dai propri modelli avanzati. Con Document AI (disponibile a breve), gli utenti possono facilmente estrarre contenuti dai documenti, come importi delle fatture o condizioni contrattuali, avvalendosi del LLM multimodale Snowflake Arctic-TILT, che è più efficace di GPT-4 e ha ottenuto il massimo punteggio nel DocVQA benchmark test, lo standard per la risposta visiva alle domande sui documenti. Organizzazioni come Northern Trust sfruttano Document AI per elaborare in modo intelligente i documenti, riducendo i costi operativi e aumentando l’efficienza. Snowflake sta inoltre potenziando il suo rivoluzionario assistente text-to-SQL, Snowflake Copilot (disponibile a breve), che combina i punti di forza di Mistral Large con il modello di generazione SQL proprietario di Snowflake per accelerare la produttività di tutti gli utenti SQL.
Sbloccare lo sviluppo AI no code con il nuovo Snowflake AI & ML Studio
Snowflake Cortex AI offre ai clienti un robusto set di modelli di fornitori come Google, Meta, Mistral AI e Reka, oltre a Snowflake Arctic, LLM open source best-in-class di Snowflake, per accelerare lo sviluppo dell’AI. L’azienda sta ulteriormente democratizzando questa tecnologia con il nuovo Snowflake AI & ML Studio (private preview), un’interfaccia interattiva senza codice che consente di iniziare lo sviluppo e rendere disponibili le proprie app AI più rapidamente. Gli utenti possono inoltre facilmente testare e valutare questi modelli per casi d’uso specifici, accelerando così il percorso verso la produzione e ottimizzando i costi operativi.
Per migliorare ulteriormente le prestazioni dei LLM e offrire esperienze ancora più personalizzate, Snowflake sta introducendo Cortex Fine-Tuning (ora in public preview), accessibile attraverso AI & ML Studio o una semplice funzione SQL. Questa personalizzazione serverless è disponibile per un sottoinsieme di modelli Meta e Mistral AI. Questi modelli perfezionati possono essere facilmente utilizzati attraverso una funzione Cortex AI, con accesso gestito tramite i controlli basati sui ruoli di Snowflake.
Semplificare la gestione di modelli e funzionalità con MLOps unificati e governati attraverso Snowflake ML
Una volta sviluppati i modelli ML e LLM, la maggior parte delle organizzazioni fatica a gestirli in produzione su set di dati in evoluzione. Snowflake ML porta le funzionalità MLOps nell’AI Data Cloud, in modo che i team possano scoprire, gestire e governare agevolmente le loro funzionalità, i modelli e i metadati nell’intero ciclo di vita del ML, dalla pre-elaborazione dei dati alla gestione dei modelli. Queste funzionalità MLOps centralizzate si integrano con il resto della piattaforma Snowflake, compresi Snowflake Notebooks e Snowpark ML, per una semplice esperienza end-to-end.
La suite di funzionalità MLOps di Snowflake include lo Snowflake Model Registry (ora disponibile), che consente agli utenti di governare l’accesso e l’uso di tutti i tipi di modelli di intelligenza artificiale, in modo da offrire esperienze personalizzate e automazioni che consentono di risparmiare sui costi. Inoltre, Snowflake annuncia lo Snowflake Feature Store (ora in public preview), una soluzione integrata per i data scientist e gli ingegneri ML per creare, archiviare, gestire e servire funzioni ML coerenti per l’addestramento e l’inferenza dei modelli, e ML Lineage (private preview), per tracciare l’utilizzo di funzioni, data set e modelli lungo tutto il ciclo di vita ML.