Home » Privacy » Non abbiamo paura dell’Intelligenza Artificiale

Non abbiamo paura dell’Intelligenza Artificiale

I sistemi informatici di intelligenza artificiale sono stati studiati ed elaborati sin dagli anni ’50 del 1900 (Alan Turing, “Computing machinery and intelligence”), per riprodurre o emulare alcune funzioni dell’uomo. Essi trovano applicazione in svariati e molteplici ambiti tra i quali anche quelli particolarmente creativi come la scrittura, la fotografia, la grafica ecc.

Siccome mi occupo di scrittura e, in particolare, di produzione di contenuti giuridici, mi sono chiesta se il mio lavoro sia destinato ad essere svolto in modo più rapido ed economico da un sistema di intelligenza artificiale.

Infatti, sono state elaborate decine di software specializzati nella scrittura di testi di ogni genere tra i quali ChatGPT (Generative Pretrained Transformer) sviluppato da Open AI è solo il più noto. Attraverso tali strumenti che tecnicamente sono dei chatbot, chiunque può generare contenuti in tempo reale e a costi ridotti o nulli.

Chatbot

I chatbot sono software che permettono agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. I chatbot attualmente più usati e diffusi sono quelli dichiarativi, generano risposte automatizzate ma colloquiali alle richieste degli utenti e trovano applicazione soprattutto per le funzioni di assistenza e di servizi. Possono rispondere a domande comuni che, ad esempio, possono riguardare l’orario di lavoro, i contatti, la risoluzione di problemi basilari.

I chatbot predittivi o di conversazione basati sui dati, invece, sono molto più sofisticati, interattivi e personalizzati in quanto sono consapevoli del contesto di riferimento e sfruttano la comprensione della lingua naturale per imparare. Essi, dunque, attraverso una serie di domande, raccolgono i dati dell’utente, li analizzano, effettuano un’attività di profilazione e forniscono risposte.

ChatGPT

ChatGPT è, appunto, un chatbot di conversazione che utilizza una tecnologia di apprendimento automatico per generare un testo in modo autonomo. Si basa su un algoritmo che è stato alimentato con informazioni tratte da libri, articoli, conversazioni e raccolte da Wikipedia, Common Crawl, Google Books e dal web. ChatGPT, quindi, immagazzina una enorme quantità di dati e informazioni che gli consentono di fornire una risposta alle domande (prompt) degli utenti.

Quanto più la domanda è dettagliata, tanto più la risposta è narrativa e conforme alle esigenze dell’utente, adattandosi anche allo stile di scrittura eventualmente richiesto.

Appare evidente, dunque, che con uno strumento del genere, la creazione di testi sia notevolmente facilitata e non è un caso che secondo quanto riferito da Reuters, a Febbraio 2023 sul Kindle Store di Amazon attualmente sono presenti 200 o più libri scritti con l’impiego della ChatGPT.

Tale sistema di IA, naturalmente, può essere utilizzato per produrre contenuti di ogni genere, anche di tipo specialistico e tecnico, attingendo a una quantità notevolissima di dati e di informazioni liberamente accessibili sul web. Tuttavia, è evidente che non sia in grado di verificare le fonti. Pertanto, elabora testi corretti dal punto di vista grammaticale, ma dal contenuto che potrebbe essere anche falso oppure coperto dal copyright, quindi, non originale, e in ogni caso, appiattito sulle indicazioni fornite dall’utente nel momento in cui ha posto il quesito. Inoltre, attraverso appositi software di rilevazione è possibile stabilire se un testo è scritto dall’uomo o dall’IA.

Un uso legale ed etico dell’IA per la creazione di contenuti, dunque, richiede delle verifiche attente. Peraltro, è la stessa piattaforma ChatGPT che avverte gli utenti circa la possibilità che le informazioni fornite siano scorrette, discriminatorie, non aggiornate.

L’ IA può sostituire l’avvocato?

In ogni caso l’IA è senz’altro utile per la creazione di testi standardizzati e ripetitivi e non per la creazione di contenuti specialistici come, ad esempio, quelli legali. Peraltro, da un interessante esperimento riferito da Claudia Morelli  nell’articolo “La ChatGPT che scriveva come un avvocato” pubblicato da Altalex si evince con chiarezza che la stessa chatbot chiarisce di non poter sostituire l’avvocato nella redazione degli atti.

A maggior ragione, l’IA non può sostituire l’avvocato in udienza come, invece, ha immaginato di poter fare il fondatore della startup statunitense DoNotPay implementando un sistema che fornisce assistenza agli utenti mediante l’impiego di un auricolare con connettività Bluetooth.

Non si può sottovalutare, poi, il pericolo insito nel fatto che, l’utente, formulando la richiesta, fornisce al sistema dati che, in alcuni casi, sono sensibili. Pertanto, è a rischio, non solo, la tutela della privacy ma anche la sicurezza informatica.

Non a caso, il garante per la privacy con il provvedimento del 2 febbraio 2023 ha disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce il chatbot “Replika”, la limitazione provvisoria del trattamento dei dati avendo rilevato la violazione del Regolamento europeo sulla privacy e del principio di trasparenza e l’illiceità del trattamento di dati personali.

Inoltre, aziende come Amazon, Accenture e, da ultimo, JPMorgan hanno  deciso di porre dei limiti all’utilizzo di ChatGPT da parte dei propri dipendenti per il timore di illeciti trattamenti di dati bancari sensibili e riservati.

In conclusione

Non è certo il caso di demonizzare ChatGPT e, in generale, l’IA atteso che già da molti anni permettono oggettivamente di ottimizzare lo svolgimento di attività di routine. L’indubbia utilità fornita da tali strumenti, tuttavia, non esclude che si debba sempre usare il buon senso ricordando che la creazione di contenuti non si riduce alla semplice raccolta sul web di informazioni, peraltro, da fonti non verificate ma è un’attività creativa che richiede capacità critiche e competenze proprie della sola intelligenza umana.