AI Act e Modelli Affidabili: Normative e Pratiche per Costruire un’Intelligenza Artificiale di Fiducia
In un’era in cui l’intelligenza artificiale sta trasformando rapidamente le industrie, l’importanza di bilanciare privacy, proprietà intellettuale, affidabilità e business non può essere sottovalutata. Questo talk esplorerà l’AI Act dell’Unione Europea, analizzandone le implicazioni per lungo il ciclo di sviluppo e utilizzo dei sistemi di IA affidabili. Discuteremo le disposizioni chiave dell’AI Act, le sfide e le opportunità che presenta, e le strategie pratiche per la conformità di questo. Ai partecipanti saranno inoltre presentate le tecniche stato dell’arte e le ricerche in corso per lo sviluppo di sistemi di IA che non solo siano innovativi, ma anche etici e affidabili. Unitevi a noi per imparare come navigare nel panorama normativo e creare soluzioni di IA che conquistino e mantengano la fiducia degli utenti.
I relatori
Gabriele Ientile, avvocato specializzato in diritto dei dati e delle nuove tecnologie. Dal 2024 collabora con lo studio legale Villa&Associati di Bologna, dove dirige il dipartimento “Dati, Intelligenza Artificiale e Privacy” e insieme al quale ha lanciato OOBIK, uno spin-off dedicato a start-up e aziende che intendono investire nelle nuove tecnologie.
Dal 2024, Lorenzo Baraldi è Professore Associato presso l’Università di Modena e Reggio Emilia, dove si occupa di Deep Learning, integrazione tra Visione e Linguaggio, modelli su larga scala e Multimedia. Insegna nei corsi di “Computer Vision and Cognitive Systems”, Scalable AI e Architettura dei Calcolatori. I suoi interessi di ricerca spaziano in diverse aree, tra cui l’integrazione tra Visione e Linguaggio, il Retrieval Multimodale, la generazione di descrizioni di Immagini e Video, l’allineamento Visuale-Semantico, lo sviluppo di modelli su larga scala, il Calcolo ad Alte Prestazioni (HPC) e l’Embodied AI.