FAIR TP2 - Vision, Language and Multimodal Challenges

Benvenuti al workshop Ital-IA del Progetto Trasversale FAIR su "Vision, Language and Multimodal Challenges" (VLMC). L'obiettivo primario di questo incontro è quello di far incontrare la comunità accademica e industriale italiana e parlare dei più recenti sviluppi relativi al progetto VLMC. Il workshop comprende interventi da parte della comunità volti a fornire una panoramica della situazione e continuare la discussione sulle sfide presenti e future. Il workshop si tiene in concomitanza con Ital-IA, un convegno organizzato dal Laboratorio Nazionale "Artificial Intelligence and Intelligent Systems" (AIIS), creato dal CINI (Consorzio Interuniversitario Nazionale per l'Informatica).

Questo workshop è collegato a un Progetto Trasversale del progetto Future AI Research

Chairs

Rita Cucchiara
Università degli Studi di Modena e Reggio Emilia
Roberto Navigli
Università degli Studi di Roma "La Sapienza"

Programma

Location: Calipso
2:30 p.m. Introduzione al progetto

Rita Cucchiara, Università di Modena e Reggio Emilia e CNR
Roberto Navigli, Sapienza Università di Roma
2:35 p.m. Interventi dei Coordinatori dei Task FAIR

1.1/1.2: Textual Data Collection and Selection
Roberto Navigli & Edoardo Barba, Sapienza Università di Roma

1.5: Dataset Multimodali per Domini Specifici
Vincenzo Norman Vitale, Università degli Studi di Napoli Federico II

2.1: Addestramento e Analisi di Small-Scale Language Models
Felice Dell’Orletta, Istituto di Linguistica Computazionale "A. Zampolli" (CNR-ILC)

2.1: The Minerva LLM Family
Edoardo Barba, Sapienza Università di Roma

2.2: Large Language Models
Danilo Croce, Università degli Studi di Roma Tor Vergata
Simone Conia, Sapienza Università di Roma

2.3: Instruction Fine-Tuning
Simone Conia, Sapienza Università di Roma

2.4: Preference Modeling
Marco Polignano, Università degli Studi di Bari

3.1: Italian Benchmark
Roberto Navigli & Simone Conia, Sapienza Università di Roma

3.4: Benchmarking per Large Multimodal Models
Bernardo Magnini, Fondazione Bruno Kessler (FBK)

Invited talk: H2IOSC
Emiliano Degli’Innocenti, Consiglio Nazionale delle Ricerche

4:10 p.m. Coffee break

4:30 p.m. Interventi dei Coordinatori dei Task FAIR

4.3: Large Multimodal Models per Video: Dove Siamo?
Paolo Rota, Università di Trento

4.4 - Sviluppo di modelli RAG-based multimodali
Rita Cucchiara & Marcella Cornia, Università di Modena e Reggio Emilia

4.5: Vision-by-language: Trasformare Immagini e Video in Testo (e viceversa)
Massimiliano Mancini, Università di Trento

5.5/5.6: Progetto Phoné: Speech Understanding e Generation
Loredana Schettino, Libera Università di Bolzano
Francesco Cutugno, Università degli Studi di Napoli Federico II

6.1: Evaluation (NLP)
Simone Conia, Sapienza Università di Roma

5:15 p.m. Invited Panel

Tecnologie di LLM a confronto, modera Rita Cucchiara
Raniero Romagnoli, Almawave
Giovanni Germani (TBC), Fastweb
Michele Filannino, Prometeia

6:15 p.m. Chiusura

Roadmap e Ringraziamenti
Rita Cucchiara, University of Modena and Reggio Emilia and CNR
Roberto Navigli, Sapienza University of Rome

Fondazione FAIR