Blog

La nostra raccolta di articoli e approfondimenti tecnici

Video

Una raccolta di video dai nostri eventi, webinar e molto altro

Use case

Una raccolta dei nostri Casi di successo

Ogni giorno, aziende e istituzioni europee scelgono su quale tecnologia AI costruire. Nella maggior parte dei casi, la scelta cade su API proprietarie americane (OpenAI, Anthropic, Google) o su modelli “aperti” che di aperto hanno poco (Meta LLaMA). Questi sistemi finiscono per gestire dati sensibili, processi critici, decisioni che impattano cittadini. Chi li controlla vive a Mountain View, Menlo Park o Palo Alto.

L’Europa non ha mai davvero giocato la partita dell’AI, non abbiamo un OpenAI europeo e probabilmente non lo avremo mai. Servirebbero capitali e infrastrutture che semplicemente non ci sono, ma esiste un’alternativa che sfrutta proprio questa debolezza apparente: puntare tutto sull’open source come vantaggio competitivo strategico.

Ad agosto 2025 OpenAI ha rilasciato gpt-oss-120b e gpt-oss-20b con licenza Apache 2.0, dopo anni di strategia closed source. Di contro, recentemente, circolano voci secondo cui Meta starebbe valutando di chiudere i modelli futuri di LLaMA, dopo aver costruito tutta la narrazione dell’apertura. Due direzioni opposte con una conseguenza chiara: quando costruisci su tecnologia che non controlli, sei ostaggio delle strategie altrui. E quelle strategie seguono logiche USA-Cina, non europee.

DeepSeek e la lezione cinese

Fine 2024, in Cina viene rilasciato DeepSeek-V3. Circa sei milioni di dollari di training costs (dicono), performance comparabili a GPT-4. Architettura Mixture-of-Experts ottimizzata, training procedure più efficienti. Quando i costi scendono così tanto, l’unico vero vantaggio competitivo duraturo è il controllo sulla tecnologia che usi.

DeepSeek sta facendo un percorso progressivo verso compliance OSAID (la definizione di AI Open Source proposta da OSI): ogni release include più componenti aperti, più dati, più documentazione. La Cina, per necessità, ha scelto l’open source massivo come strategia nazionale. Condividere ricerca accelera sviluppo interno, i lab cinesi si aiutano a vicenda.

L’Europa ha la stessa necessità della Cina, ma continua a dipendere da infrastrutture altrui.

Distinguere open vero da marketing

LLaMA di Meta: pesi aperti, ma licenza con restrizioni commerciali che la Open Source Initiative rifiuta di certificare come vera open source. I gpt-oss di OpenAI rilasciati ad agosto 2025: licenza Apache 2.0 sui pesi (open-weight), ma senza accesso ai dati di training completi necessari per riprodurre il modello. Entrambi violano l’OSAID.

L’OSAID richiede: pesi disponibili, architettura documentata, dati di training accessibili o riproducibili, codice di addestramento, licenza permissiva. La maggior parte dei modelli commercializzati come “open” fallisce almeno due di questi criteri. Questo fa la differenza tra avere vera ownership o essere ostaggio di scelte altrui.

Esempio pratico: costruisci un servizio sanitario pubblico su LLaMA. Se le voci su un cambio di strategia di Meta si concretizzassero, ti ritroveresti con tecnologia legacy che nessuno sviluppa più. Oppure costruisci su gpt-oss, sapendo che OpenAI ha scritto esplicitamente nel comunicato di rilascio: “Stiamo valutando se i punti di forza di questi modelli giustifichino investimenti futuri in questa direzione.” Dipendi da una valutazione futura che non controlli.

OSAID comunque non va inteso come un requisito binario o un dogma ideologico. Nell’AI l’apertura non è un interruttore acceso/spento, ma uno spettro. OSAID descrive il punto di massima verificabilità e riproducibilità, utile come riferimento e direzione, non come barriera all’adozione. Ciò che conta è distinguere tra chi ha limiti oggettivi ma una traiettoria di apertura chiara e chi usa l’etichetta ‘open’ come puro marketing.

OpenMDW: standard chiari per tempi confusi

La Linux Foundation ha creato OpenMDW (Open Model, Data, and Weights), licenza specifica per AI. Permissiva come MIT o Apache 2.0 ma con vincoli chiari su cosa devi rilasciare per chiamarti “open”. Ancora agli inizi, ma prova a portare certezza in un mercato dove oggi regna confusione terminologica voluta.

Le licenze software tradizionali non coprono dati di training e pesi del modello. OpenMDW specifica che questi componenti devono essere disponibili. Questo permette di distinguere open vero da open washing marketing.

Al momento i modelli veramente open sono pochi e quindi ci dobbiamo accontentare di quelli “abbastanza” open, stando però attenti ai vincoli, alla governance del progetto e alla strategia che c’è dietro. Dobbiamo sempre valutare la traiettoria possibile di Software e modelli open source.

Una proposta provocatoria sul copyright

Il nodo centrale per avere modelli open sono i dati di training e che questi sono essenziali per sviluppare modelli, ma uno degli ostacoli all’accesso è il copyright. Dall’altro lato, le violazioni del copyright (vedi cause legali in corso contro OpenAI) creano conflitti che rallentano tutto.

Proposta: alleggerire vincoli copyright – Fair Use stile USA o eccezioni TDM (Text and Data Mining) già presenti nella normativa europea – ma solo ed esclusivamente per modelli pienamente OSAID-compliant. Vuoi usare contenuti protetti per training? In cambio rilasci tutto secondo standard aperti verificabili.

Questo creerebbe incentivo economico: sviluppare in Europa diventa vantaggioso perché accedi a dati che altrove non puoi usare liberamente. Attrai laboratori di ricerca, startup, investimenti. In cambio hai garanzia che l’innovazione prodotta resta verificabile e modificabile.

Il meccanismo del copyleft (che già conosciamo dall’open source software) assicura che ogni contributo rimanga aperto. Chi usa deve restituire. Ecosistema sano, concorrenza vera.

👉 Vuoi restate aggiornato sui prossimi contenuti? Iscriviti alla newsletter.

AI Act: evitare l’autogol

L’AI Act europeo è legge dal 2024. Il rischio è che favorisca involontariamente i big player proprietari che volevamo regolare. Compliance onerosa la possono permettersi solo loro. Una startup europea con modello open-source deve affrontare obblighi burocratici simili a quelli di OpenAI, ma senza legal team da centinaia di avvocati.

Serve distinzione normativa: modelli open verificabili secondo OSAID dovrebbero avere percorsi semplificati nella compliance. Sono più facili da auditare (codice e dati disponibili), più facili da modificare per rispettare normative locali, riducono vendor lock-in sistemico.

Percorso semplificato per chi rispetta OSAID: meno burocrazia, tempi più rapidi. Finanziamenti pubblici (Horizon, fondi nazionali) condizionati ad apertura verificabile. Incentivi fiscali per aziende che rilasciano open secondo standard.

I vantaggi concreti dell’open verificabile

Con modelli OSAID-compliant puoi vedere come funziona il modello, cosa ha imparato, dove sbaglia. Essenziale per applicazioni critiche come sanità, giustizia, infrastrutture. Con modello closed sei nel buio totale.

Il GDPR europeo richiede specifiche protezioni dati. Con un modello open puoi modificarlo per rispettarle. Con API proprietaria dipendi dalla disponibilità del vendor americano.

Dati sensibili – cartelle cliniche, dati finanziari, segreti industriali – possono restare su infrastruttura europea controllata, senza transitare per server USA dove le leggi sono diverse. Con modelli proprietari cloud-based questo controllo non esiste.

USA e Cina stanno già limitando l’export di tecnologie AI considerate strategiche. L’Europa con infrastruttura proprietaria altrui rischia dipendenza mentre con open source OSAID hai autonomia reale.

Azioni concrete

Le aziende dovrebbero usare l’OSAID come checklist. Un modello che si definisce “open” ma non fornisce dati di training completi va trattato con attenzione ai fini della pianificazione strategica. Oltre alla non replicabilità per mancanza dei dati, dobbiamo stare attenti anche ai vincoli arbitrari sull’utilizzo.

Servono architetture che permettano di cambiare vendor senza riscrivere tutto – layer API che astrae il modello sottostante costa qualcosa in più all’inizio ma è un’assicurazione contro volatilità.

Per prototipazione veloce le API proprietarie funzionano bene, ma per l’ambiente di produzione dove controllo e compliance contano servono modelli OSAID-compliant self-hosted su infrastruttura europea.

Gli incentivi economici predicono comportamenti futuri meglio delle roadmap ufficiali. OpenAI manterrà gpt-oss solo se genera vantaggio strategico misurabile. Meta resterà open solo se i costi sono giustificabili.

Condizionare appalti IT e finanziamenti ricerca a compliance OSAID verificabile. Semplificare percorsi normativi per chi rispetta standard aperti. Investire in infrastruttura europea per hosting modelli open.

La finestra è stretta

Il mercato AI sta consolidando velocemente. Tra due anni sarà più difficile costruire alternative credibili ai big player USA-Cina. Ma se agiamo adesso con standard chiari, incentivi giusti e investimenti mirati, possiamo costruire un ecosistema AI europeo che compete su trasparenza, affidabilità e compliance.

E’ difficile per l’Europa vincere la gara sui miliardi investiti o sui datacenter costruiti, ma può vincere su standard, affidabilità, verificabilità. Può diventare il posto dove “AI open” significa qualcosa di concreto e misurabile, dove le aziende vengono perché trovano certezze contrattuali e normative chiare.

Chi controlla l’AI controlla pezzi sempre più grandi di economia e società. L’Europa può ancora scegliere di controllare anziché essere controllata. La strada passa dall’open source verificabile, dagli standard chiari, dagli incentivi giusti, non abbiamo molte altre alternative.