FAIR TP2 - Vision, Language and Multimodal Challenges
Benvenuti al workshop Ital-IA del Progetto Trasversale FAIR su "Vision, Language and Multimodal Challenges" (VLMC). L'obiettivo primario di questo incontro è quello di far incontrare la comunità accademica e industriale italiana e parlare dei più recenti sviluppi relativi al progetto VLMC. Il workshop comprende interventi da parte della comunità volti a fornire una panoramica della situazione e continuare la discussione sulle sfide presenti e future. Il workshop si tiene in concomitanza con Ital-IA, un convegno organizzato dal Laboratorio Nazionale "Artificial Intelligence and Intelligent Systems" (AIIS), creato dal CINI (Consorzio Interuniversitario Nazionale per l'Informatica).
Questo workshop è collegato a un Progetto Trasversale del progetto Future AI Research
Chairs
|
Programma
Location: Calipso2:30 p.m. |
Introduzione al progetto
Rita Cucchiara, Università di Modena e Reggio Emilia e CNR Roberto Navigli, Sapienza Università di Roma |
2:35 p.m. |
Interventi dei Coordinatori dei Task FAIR
1.1/1.2: Textual Data Collection and Selection 1.5: Dataset Multimodali per Domini Specifici 2.1: Addestramento e Analisi di Small-Scale Language Models 2.1: The Minerva LLM Family 2.2: Large Language Models 2.3: Instruction Fine-Tuning 2.4: Preference Modeling 3.1: Italian Benchmark 3.4: Benchmarking per Large Multimodal Models Invited talk: H2IOSC |
4:10 p.m. |
Coffee break
|
4:30 p.m. |
Interventi dei Coordinatori dei Task FAIR
4.3: Large Multimodal Models per Video: Dove Siamo? 4.4 - Sviluppo di modelli RAG-based multimodali 4.5: Vision-by-language: Trasformare Immagini e Video in Testo (e viceversa) 5.5/5.6: Progetto Phoné: Speech Understanding e Generation 6.1: Evaluation (NLP) |
5:15 p.m. |
Invited Panel
Tecnologie di LLM a confronto, modera Rita Cucchiara |
6:15 p.m. |
Chiusura
Roadmap e Ringraziamenti |