Chatbot e AI: come sviluppare un prodotto a norma di legge

16 Ottobre 2024by Ellysse

Tra le rivoluzioni che l’avvento dell’Intelligenza Artificiale generativa sta portando con sé, ci sono quelle legate al potenziamento dei chatbot, specialmente nel settore del customer care. Queste applicazioni si traducono nello sviluppo di software sempre più efficienti, in grado di rispondere ad un numero maggiore di domande e con una maggiore precisione rispetto al passato.

Sebbene queste soluzioni presentino grandi vantaggi, la loro implementazione richiede un’attenta analisi delle implicazioni di natura legale. Difatti, l’utilizzo di sistemi di IA che interagiscono con esseri umani comporta l’innesco di alcune di normative legate all’utilizzo di dati e soluzioni tecnologiche innovative. Prima tra tutte figura il nuovo AI Act; oltre ad esso, non possono essere trascurate le implicazioni riguardanti le normative sul trattamento dei dati personali, la sicurezza informatica del prodotto e i pesi di proprietà intellettuale sulle informazioni utilizzate.

Chi intende acquistare un chatbot per implementarlo all’interno dei propri sistemi, deve prima verificare che il software sia compliant rispetto a tutte le norme applicabili e che le adeguate soluzioni tecniche siano state implementate by design. L’assenza di queste caratteristiche potrebbe comportare l’applicazione di sanzioni amministrative significative da parte delle Autorità di controllo competenti, le quali sono spesso proporzionate al fatturato.

Ma quindi, cosa fare prima dell’acquisto di un chatbot?

In primo luogo, occorre individuare un’azienda sviluppatrice che garantisca un adeguato livello di competenza sulla materia e che abbia intrapreso un programma di adeguamento interno con il supporto di consulenti specializzati.

Questa esperienza è il presupposto per effettuare le verifiche del caso, partendo da un assessment sul livello di rischio del sistema di Intelligenza Artificiale. La qualificazione di un sistema con “ad alto rischio” ai sensi dell’AI Act richiede l’applicazione di obblighi significativi, come quelli relativi alle istruzioni di utilizzo, alla gestione dei log e all’esecuzione di un Human Rights Impact Assessment.

Di fianco a ciò, dovranno essere valutate le misure in merito alla trasparenza: modalità di presentazione dell’informativa sul trattamento dei dati personali e disclaimer riguardante la natura “artificiale” del sistema che sta interagendo con l’utente. Oltre a ciò, assumono rilevanza le misure di sicurezza a livello informatico e l’eventuale interazione con minori o altri soggetti fragili.

Come anticipato, è indispensabile che, laddove l’adempimento dell’obbligo di legge richieda l’implementazione di funzionalità specifiche del sistema, questo avvenga by design e, dunque, a monte. L’assunzione di queste soluzioni in corso d’opera comporta costi maggiori per l’acquirente e, in molti casi, impedisce il raggiungimento di un livello soddisfacente di conformità.

Avv. Gabriele Ientile

L’avv. Gabriele Ientile, autore di questo articolo, supporta Ellysse nello sviluppo dei propri sistemi di Intelligenza Artificiale in un’ottica di conformità alla normativa applicabile sull’utilizzo dei dati. I chatbot di Ellysse sono sviluppati secondo criteri di compliance alla normativa applicabile e secondo logiche by design, secondo quanto previsto dalle pratiche di governance che caratterizzano il settore. Contatta Ellysse per scoprire come implementare soluzioni di IA all’avanguardia sotto ogni punto di vista.

Copyright © 2018 Ellysse srl – All Rights Reserved | N° RI e P.IVA: 01981770355 | Iscrizione REA: RE 240501 | Certificazioni | Sitemap | Privacy Policy | Cookie Policy

Inspired by Iconic Srl