Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
previous arrow
next arrow

Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
previous arrow
next arrow

Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
Tavola-disegno-5-copia-7@8x-100-scaled
previous arrow
next arrow

Intelligenza artificiale tra Regolamentazione europea e Profili di Rilevanza penale

da | 22 Giu, 24 | Uncategorized

L’8 dicembre 2023 è una data storica nel mondo della tecnologia e della governance, poiché il Parlamento, il Consiglio e la Commissione dell’Unione Europea hanno raggiunto un accordo politico fondamentale: l’AI Act, il primo regolamento al mondo specificamente dedicato all’Intelligenza Artificiale (IA). Questo accordo ambizioso mira a plasmare lo sviluppo futuro dell’IA in Europa, assicurando al contempo la sicurezza, il rispetto dei diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale.

Nonostante il percorso verso l’entrata in vigore dell’AI Act sia inevitabilmente lungo e complesso, la Commissione si è impegnata a lanciare un “Patto per l’IA” che chiede agli sviluppatori di rispettare degli obblighi specifici prima ancora che diventi vincolante. Mentre il percorso verso l’attuazione completa potrebbe richiedere ulteriore tempo, la volontà di guidare l’evoluzione dell’IA in una direzione centrata sull’essere umano è un segno di responsabilità e lungimiranza da parte dell’Unione Europea. Sotto tale ultimo aspetto, tuttavia, la concreta utilizzazione dei software di Intelligenza Artificiale, come Chat GPT, sta infervorando il dibattito in ordine al rapporto tra l’eventuale condotta illecita umana e il contributo fornito dall’A.I. per la realizzazione di quest’ultima.

La pervasività dell’intelligenza artificiale, rappresentata, ad esempio, da Chat GPT e prodotti simili, che godono di un ampio
utilizzo potenziale, è ormai una caratteristica distintiva della nostra epoca. Questa diffusione pone l’urgente necessità di valutare se e in che misura tali applicazioni impongano o suggeriscano soluzioni giuridiche significativamente diverse da quelle tradizionalmente adottate per situazioni analoghe.

In primis, occorre sgomberare subito il campo da ogni eventuale equivoco, precisando come in situazioni in cui Chat GPT venga utilizzato per attività chiaramente e inequivocabilmente criminali, come la predisposizione di testi credibili per frodi informatiche, l’imputazione della responsabilità penale deve seguire gli ordinari criteri generali di attribuzione. Ad esempio, in caso di diffamazione online realizzata mediante la predisposizione di un testo ad hoc, generato da un software di Intelligenza Artificiale, la responsabilità penale deve ricadere inequivocabilmente sul soggetto che voluto tale output, poiché questo deve ritenersi il risultato di una sollecitazione umana volta a creare e utilizzare modalità espressive costituenti reato.

All’evidenza, infatti, l’Intelligenza Artificiale, in sé e per sé, non può essere considerata un soggetto agente, perfettamente riconducibile nell’alveo dell’omonima dicitura penalistica, poiché difetta dei requisiti di consapevolezza e volontà richiesti inderogabilmente ai fini di una compiuta imputazione di natura penale. Seppur realizzata mediante software di Intelligenza Artificiale, la responsabilità penale deve rimanere ancorata unicamente all’azione umana realizzata mediante l’utilizzo del programma.

Nel mare magnum delle molteplici interpretazioni in ordine alla responsabilità penale in tema di Intelligenza Artificiale, devono
puntualizzarsi due punti chiave: in primo luogo, vi è la necessità di trovare una nuova categoria di responsabilità che sia in grado di includere le tipicità di tale nuova tecnologia, al di là del codice penale esistente. Secondariamente – e ciò costituisce l’aspetto maggiormente pragmatico – la creazione della predetta categoria di responsabilità non deve ostacolare lo sviluppo e l’uso di tali programmi.

Autore

Condividi questo articolo

Categorie

Archivi

💬 Ciao come possiamo aiutarti?