L’Avv. Marco Bona, in rappresentanza di PEOPIL (la Pan-European Organisation of Personal Injury Lawyers), il 9 ottobre 2020 ha partecipato quale relatore alla sessione –workshop su “AI and liability” della seconda edizione della European AI Alliance Assembly, evento chiave, organizzato dalla Commissione Europea, per il processo di elaborazione delle politiche della Commissione nel campo dell’intelligenza artificiale. Quest’anno l’edizione, tenutasi on-line per le note problematiche legate al Covid-19, si è focalizzata sull’iniziativa europea per costruire un “Ecosistema di Eccellenza e Fiducia nell’Intelligenza Artificiale” (AI). In occasione del forum sono stati discussi i risultati della consultazione, lanciata dalla Commissione Europea dal 19 febbraio 2020 al 14 giugno 2020, sul Libro Bianco sull’intelligenza artificiale (Bruxelles, 19.2.2020), COM(2020) 65 final, i risultati del lavoro dell’High-Level Expert Group sulla IA (AI HLEG) e le proiezioni future sulla European AI Alliance come forum multilaterale che riflette gli aspetti sociali, economici e tecnici dell’IA. Alla sessione su “IA e Responsabilità” hanno partecipato, quali relatori insieme a Marco Bona, Hans INGELS (Head of Unit Free Movement of Goods, Commissione Europea), Corinna SCHULZE (Director, EU Government Affairs SAP), Bernhard KOCH (University Professor, Department of Civil Law University of Innsbruck, Austria), Jean-Sébastien BORGHETTI (Professor Private law Université Paris II Panthéon-Assas, Francia) e Dirk STAUDENMAYER (Head of Unit Contract Law, Commissione Europea). Nel corso della sessione sono state affrontate le seguenti questioni: -) i problemi principali a livello di “direttiva responsabilità prodotti difettosi” (la direttiva 85/374/CEE) e di legislazioni nazionali in tema di IA; -) prospettive di riforma della “Product Liability Directive” in relazione all’Intelligenza Artificiale ed ai rishi posti da questi sistemi; -) scenari di adeguamento delle legislazioni nazionali alle sfide della IA. Marco Bona, muovendo dal documento di PEOPIL del settembre 2020 «Response to the EU consultation on Artificial Intelligence. Liability and insurance for personal injury and death damages caused by ai artefacts/systems» (https://www.peopil.com/document/3692), ha evidenziato diversi limiti della direttiva responsabilità prodotti difettosi (anche, in realtà, in relazione ai prodotti “tradizionali”) così come la necessità non solo di una revisione di tale disciplina, ma anche di un intervento legislativo a livello dell’Unione Europea per l’istituzione di un nuovo regime uniforme per la responsabilità civile di operatori ed utilizzatori di prodotti o sistemi connotati da IA, accompagnato da un sistema di assicurazione obbligatoria. Sia in merito ai limiti della Direttiva 85/374/CEE, sia in punto creazione di un nuovo sistema di responsabilità civile si sono registrati ampi consensi tra i relatori. Tra i suggerimenti di revisione della “Product Liability Directive” PEOPIL ha suggerito il superamento del termine decadenziale di 10 anni previsto dall’art. 11 della direttiva, oltre che la rimeditazione della nozione di prodotto difettoso (tanto in relazione al richiamo alla difettosità invece che alla sicurezza quanto all’estensione del concetto a software e “internet delle cose”), degli oneri probatori a carico del danneggiato (con superamento della prova della difettosità del prodotto) e del limite costituito dall’immissione del prodotto sul mercato. Marco Bona, altresì, ha espresso un giudizio positivo per la recente proposta emersa in seno alla procedura di iniziativa legislativa 2020/2014(INL) in pieno corso avanti il Parlamento Europeo, proposta in attesa di votazione avanti l’assemblea generale nella seconda metà di ottobre. Il riferimento, in particolare, è al Progetto di relazione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, che ha già ricevuto il 5 ottobre il beneplacito della Commissione giuridica. All’art. 4, para. 1, della proposta si prevede quanto segue: «L’operatore di un sistema di IA ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da un’attività, dispositivo o processo fisico o virtuale guidato da tale sistema di IA». Al contempo, però, Marco Bona ha delineato delle criticità in relazione a tale proposta, tra le quali, innanzitutto, la distinzione, decisamente problematica, tra sistemi di IA “ad alto rischio” e sistemi di IA “a basso rischio” (esclusi dall’ambito operativo della proposta di regolamento), nonché il mancato inserimento, all’art. 6 della proposta, del risarcimento dei danni non patrimoniali (o “immateriali”) tra i danni da risarcirsi nei casi di danni alla persona e danni da uccisione.