L’Intelligenza artificiale privata e la sicurezza dei dati: un’analisi dettagliata

Condividi

Gli esegeti del principio antropico sono presenti su tutti i media -reali, virtuali o fittizi-, per anestetizzare la propria paura dell’intelligenza artificiale: la percepiscono come aliena, senza cercare di comprenderne veramente la struttura.

Per i miei 2c, l’IA introduce classificazioni non antropiche (con modi nuovi e imprevedibili per l’essere umano) e 8 miliardi di abitanti sono fuori dalla possibilità di gestione (antropica).

Ma questo editoriale è un articolo principalmente di divulgazione tecnica, e le riflessioni devono restare a margine. Ecco quindi alcuni elementi tecnici che ho letto poco sui media, spero non quelli fittizi.

Sto parlando delle intelligenze artificiali private, che in qualche modo ricordano il private cloud, e del serverless/FaaS applicato alle API dell’AI.

AI Privata, sicurezza e riservatezza dei dati

L’intelligenza artificiale (AI) privata si concentra sull’uso di tecnologie di intelligenza artificiale per mantenere i dati e le informazioni trattati in modo confidenziale e sicuro. Questo approccio è essenziale in settori dove la privacy e la sicurezza dei dati sono di massima importanza e inoltre è parte importante di un ecosistema completo e resiliente.

Solo da pochi anni si lavora sulle infrastrutture cloud specifiche per un’intelligenza artificiale privata. Dati e conoscenze restano in azienda, senza condividerli con altri soggetti che potrebbero sfruttarli in altro modo. Si tratta di un approccio di grande successo in ambienti particolarmente attenti alla riservatezza delle conoscenze, come nel farmaceutico, nel finanziario e in alcuni ambiti tecnologici. Si tratta di un approccio che va benissimo sul cloud, e anche in Italia abbiamo degli operatori che si sono mossi in questa direzione in anticipo sul mercato.

Nella protezione dei dati, l’AI privata è più attenta a esporre dati sensibili, conformandosi alle varie normative in maniera più morbida. L’elaborazione dei dati in loco, senza inviarli a server remoti, viene fatta direttamente sul dispositivo dell’utente (edge computing), riducendo i rischi di violazioni. Infine la personalizzazione (come i dati e il loro contenuto informativo) resta una proprietà aziendale.

FaaS AI, ideale per le GPTs

L’accesso alle AI con API che consentono di scrivere software on top e pagare le AI a consumo. L’approccio FaaS (function as a service) a parole è semplice ma nella realtà è complesso. Oltre alle complessità amministrative del paradigma serverless, le AI FaaS nascondono al loro interno anche il terribile mostro a n teste (con n che tende all’infinito) dei container e di Kubernetes. In un mondo di subappalti indentati, è roba da far tremare i polsi.

E’ quindi normale che in genere nel mondo (ma in particolare nel vecchio software italiano) non avesse finora riscosso grande interesse. La situazione è cambiata con l’arrivo di ChatGPT e la nuova ondata di applicazioni basate su di esso, le cosiddette GPTs, che come backend richiedono proprio funzioni. Anche in questo caso, il nostro vecchio Paese nasconde iniziative che vanno in questa direzione, con lodevole anticipo.

Una nuova generazione di AI più o meno efficaci è in arrivo con questa teecnologia della quale poco si parla. Se si mostrasse capaci di passare il filtro di legislatori e antropisti (neologismo da me or ora coniato), il FaaS avrebbe davanti a sé un futuro ancora maggiore di quello che comunque gli spetterà.

Come si diceva prima, queste iniziative (private AI ed AI FaaS) hanno finora suscitato scarso interesse nei media mainstream, siano essi virtuali, fittizi o reali. Tuttavia, entrambe contribuiranno alla costruzione di un’architettura di riferimento più agevole e resiliente per noi umani, in vista del futuro dell’intelligenza artificiale, un futuro che, come tutti i futuri, non è ancora noto.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Leo Sorge
Leo Sorge
Leo Sorge è laureato in ingegneria elettronica, ma ha preferito divulgare scienze e tecnologie reali o presunte. Ritiene che lo studio e l’applicazione vadano separate dai risultati attesi, e che l’ambizione sia il rifugio dei falliti. Ha collaborato a molte riviste di divulgazione, alle volte dirigendole. Ha collaborato a molti libri, tra i quali The Accidental Engineer (Lulu 2017), Lavoro contro futuro (Ultra 2020) e Internetworking (Future Fiction 2022). Copia spesso battute altrui, come quella sull’ambizione e anche l’altra per cui il business plan e la singolarità sono interessanti, ma come spunti di science fiction.

Altri Editoriali

Attenzione al pericolo dell’oracolo digitale

La diffusione delle tecnologie di intelligenza artificiale è come...

L’impatto dell’AI generativa nell’arte

L'uso dell'intelligenza artificiale nell'arte e nella creazione di immagini...

Italia leader per chip e cloud automotive: sogno o realtà?

Stufo di leggere le fantastiche corbellerie che si raccontano...

Aiuto arriva un messaggio Whatsapp

L’attenzione di tutti noi è una risorsa scarsa, spesso...

Vuoi vendere? Vienimi più vicino (CLOSER)

Ho avuto recentemente modo di approfondire il sales framework...

Gen AI al lavoro su allucinazioni e nuovi chip

Recentemente mi sono trovato a un incontro di grande...