Chi siamo e cosa ci guida ogni giorno
Dal 2019 lavoriamo sulla sicurezza dei sistemi AI perché crediamo che questa tecnologia debba essere affidabile prima di essere potente. Non vendiamo soluzioni miracolose, ma aiutiamo aziende e professionisti a capire davvero dove sono vulnerabili.
	La nostra missione parte da un'osservazione semplice
"I sistemi intelligenti possono essere ingannati in modi che nessuno aveva previsto."
Abbiamo iniziato quando ancora poche persone si occupavano di adversarial attacks e prompt injection. Oggi questi termini sono più comuni, ma la maggior parte delle organizzazioni non sa da dove cominciare per proteggere i propri modelli.
Ci occupiamo di formazione tecnica perché pensiamo che la sicurezza AI non possa essere solo responsabilità di pochi esperti. Serve una cultura diffusa, serve che gli sviluppatori capiscano come testare i loro sistemi prima che qualcun altro lo faccia in modo meno amichevole.
I valori che non negoziamo
Trasparenza, rigore e realismo. Non promettiamo che diventerai un esperto in tre settimane, ma ti diamo gli strumenti giusti per crescere davvero.
Onestà tecnica
Ti diciamo quando qualcosa è complesso, quando serve tempo per capirlo bene, e quando non abbiamo tutte le risposte. La sicurezza AI è un campo in evoluzione rapida e nessuno può fingere di sapere tutto.
Pratica concreta
Ogni concetto che insegniamo viene accompagnato da esempi reali. Non ci interessano le teorie che restano sulla carta. Vogliamo che tu possa applicare subito quello che impari.
Accessibilità senza compromessi
Rendiamo accessibili temi tecnici complessi senza semplificarli troppo. Crediamo che chiunque abbia le basi giuste possa capire come funzionano gli attacchi ai modelli di machine learning.
Il team dietro i corsi
Siamo un gruppo piccolo ma specializzato. Ognuno di noi porta competenze diverse, ma condividiamo la stessa passione per la sicurezza e l'educazione tecnica di qualità.
	Eleonora Visentini
Responsabile Didattica
Con un background in crittografia applicata e dieci anni di esperienza nella formazione tecnica, Eleonora coordina la struttura dei nostri percorsi. Ha lavorato su progetti di sicurezza per infrastrutture critiche e ora si dedica a rendere questi temi comprensibili anche a chi parte da zero.
Esperienza sul campo
Il nostro team ha collaborato con aziende del settore finanziario, sanitario e della ricerca per identificare vulnerabilità nei loro sistemi AI. Abbiamo visto cosa funziona e cosa no quando si tratta di difendere modelli complessi. Questa esperienza diretta alimenta i nostri programmi formativi.
Approccio collaborativo
Non lavoriamo da soli. Manteniamo contatti con ricercatori universitari, partecipanti a conferenze internazionali e professionisti che affrontano quotidianamente problemi di sicurezza AI. Questo ci permette di aggiornare continuamente i contenuti e di portare casi recenti nelle nostre lezioni.
Cosa ci distingue
Molti corsi sulla sicurezza AI si limitano a spiegare la teoria degli attacchi. Noi andiamo oltre: ti mostriamo come costruire test di robustezza, come documentare le vulnerabilità trovate, come comunicare i rischi a team non tecnici. Perché la sicurezza non è solo trovare problemi, ma anche saperli gestire.
Come lavoriamo con te
Il nostro metodo si basa su tre pilastri: comprensione profonda dei concetti, pratica guidata su casi reali, e supporto continuo durante l'apprendimento. Non ti lasciamo solo con video registrati.
Percorsi modulari flessibili
I nostri programmi sono strutturati in moduli che puoi seguire secondo i tuoi ritmi. Iniziamo sempre dalle fondamenta e procediamo gradualmente verso scenari complessi. Ogni modulo include esercizi pratici che richiedono tempo, quindi non aspettarti di completare tutto in poche settimane.
Laboratori pratici supervisionati
Una volta al mese organizziamo sessioni pratiche online dove analizziamo insieme vulnerabilità reali. Puoi fare domande, condividere quello che hai scoperto, confrontarti con altri partecipanti. Questi momenti sono preziosi perché la sicurezza si impara anche dagli errori degli altri.
Aggiornamenti continui
Il panorama della sicurezza AI cambia rapidamente. Nuove tecniche di attacco emergono, nuove difese vengono proposte. Manteniamo i contenuti aggiornati e condividiamo regolarmente analisi di vulnerabilità recenti con la nostra comunità di studenti.
	Verso dove stiamo andando
Nel 2025 vogliamo espandere i nostri programmi su aspetti specifici come la sicurezza dei large language models e le tecniche di difesa contro data poisoning. Stiamo lavorando anche a partnership con università italiane per portare questi temi nei corsi accademici.
Il nostro obiettivo non è creare un'accademia enorme, ma costruire una comunità di professionisti preparati che possano affrontare con competenza le sfide della sicurezza AI. Se questo ti interessa, saremo felici di conoscerti nei prossimi mesi.
I nuovi percorsi formativi partiranno a settembre 2025, con iscrizioni aperte da giugno. Nel frattempo continuiamo a condividere contenuti gratuiti e analisi tecniche sul nostro sito.