L'intelligenza artificiale non è più un fenomeno confinato ai laboratori di ricerca o alla narrativa fantascientifica. Negli ultimi anni essa è entrata prepotentemente nel quotidiano, incidendo su settori che spaziano dall'arte alla medicina, dalla mobilità alla finanza. Il diritto, da sempre costruito per regolare l'agire umano, si trova ora di fronte a una sfida inedita: come trattare entità non umane ma dotate di capacità di auto-apprendimento, creatività e decisione.La prima questione che si pone riguarda la titolarità delle opere create dagli algoritmi. La legge italiana sul diritto d'autore, così come l'art. 2575 c.c., immagina l'autore come una persona fisica, capace di esprimere il proprio pensiero creativo. Ma il dato normativo viene messo in crisi da opere come il Portrait of Edmond de Belamy, un ritratto generato da un algoritmo venduto all'asta da Christie's nel 2018 per oltre 400.000 dollari. Chi è, in questo caso, l'autore" Il programmatore che ha costruito l'architettura informatica" L'utilizzatore che ha fornito i dati" Oppure si tratta di un'opera senza autore, un prodotto "anonimo" della macchina"
Gli ordinamenti stranieri hanno risposto in modi differenti. Il Regno Unito, con il Copyright, Designs and Patents Act 1988, stabilisce che l'autore delle opere generate da computer sia chi ne ha predisposto la creazione. La Cina ha già riconosciuto protezione a opere algoritmiche dotate di originalità e valore economico. Gli Stati Uniti, al contrario, hanno negato la registrabilità di opere create esclusivamente da IA, come nel recente caso "Zarya of the Dawn", ritenendo indispensabile l'apporto umano. L'Italia, priva di una disciplina specifica, rischia di restare nel limbo, con ricadute economiche e culturali di rilievo.
Il secondo fronte problematico riguarda la responsabilità per i danni causati da sistemi di IA. Emblematico è il caso dell'auto a guida autonoma Uber che nel 2018, durante una fase di test in Arizona, ha investito un pedone. Più di recente, si discute dell'affidabilità degli algoritmi diagnostici in ambito medico, capaci di elaborare indicazioni terapeutiche poi rivelatesi errate, con gravi conseguenze per i pazienti. Nel settore finanziario, i cosiddetti flash crash, improvvisi crolli dei mercati generati da sistemi di trading automatico, hanno mostrato i rischi connessi all'affidamento a decisioni algoritmiche.
Chi risponde in tutti questi casi" La responsabilità dell'utilizzatore potrebbe essere giustificata, trattando l'IA come una cosa o un animale ai sensi degli artt. 2050 e 2052 c.c., ma la scelta non convince pienamente, specie quando l'errore dipende da processi di auto-apprendimento non prevedibili. Altra ipotesi è quella di estendere la disciplina del prodotto difettoso al software, attribuendo la responsabilità al produttore. Ma qui si pone il problema di distinguere il difetto originario dal comportamento evolutivo dell'algoritmo. Si è così avanzata l'idea di un fondo di garanzia, simile a quello previsto per le vittime della strada, capace di risarcire i danni nei casi in cui non sia possibile individuare un responsabile certo.
La materia diventa ancora più delicata sul piano penale. Come ricondurre un evento tipico – ad esempio un omicidio colposo commesso da un veicolo autonomo – a un soggetto umano" Alcuni propongono di imputare la responsabilità al programmatore, altri all'utilizzatore, ricorrendo alle categorie della colpa in eligendo e in vigilando. Nel 2017 il Parlamento europeo aveva addirittura ipotizzato la creazione di una personalità giuridica elettronica per i robot, ma la proposta è stata subito criticata perché incompatibile con il principio di colpevolezza personale sancito dall'art. 27 della Costituzione.
Nel frattempo, l'Unione europea ha adottato l'AI Act, che classifica i sistemi di intelligenza artificiale in base al rischio – inaccettabile, alto, basso – ma che non affronta ancora in modo compiuto la questione della responsabilità e della paternità delle opere. Parallelamente, la direttiva 85/374/CEE sul danno da prodotti difettosi è in fase di revisione, con l'obiettivo di adattarla alle peculiarità dei software e degli aggiornamenti algoritmici.
Il futuro appare dunque aperto. In tema di proprietà intellettuale, occorrerà stabilire se mantenere la centralità dell'apporto umano o se introdurre nuove categorie di diritti connessi, capaci di valorizzare economicamente le opere algoritmiche. Sul versante della responsabilità civile e penale, il legislatore potrebbe optare per regimi speciali, calibrati sul grado di autonomia del sistema e sulla prevedibilità del rischio, affiancati da fondi di compensazione per le vittime.
La vera sfida sarà trovare un equilibrio: evitare sia il rischio di lasciare zone d'ombra prive di tutela, sia quello di soffocare l'innovazione con regimi di responsabilità troppo gravosi. In fondo, la domanda è antica quanto l'uomo: come governare le nuove forze che egli stesso ha creato" L'intelligenza artificiale non chiede di essere umanizzata, ma di essere regolata. Sta al diritto, fedele ai suoi principi ma aperto al futuro, trovare la strada per trasformare questa rivoluzione in un'opportunità e non in una minaccia.