Questo applicativo di intelligenza artificiale sta occupando uno spazio crescente sui mezzi di comunicazione di massa. Vediamo di chiarire alcuni aspetti preoccupanti ed anche oscuri di questa complessa rete artificiale neurale.

In Dicembre 2022 è stato reso pubblico questo applicativo di intelligenza artificiale, che può gestire quesiti posti dagli utenti e dare risposte accurate, almeno ad un primo esame. Oggi moltissimi utenti lo usano per scrivere lettere, preparare delle presentazioni, compilare delle tesi di laurea, rispondere a capitolati di gara e via dicendo. Ma, come non è tutto oro ciò che luccica, vi sono aspetti preoccupanti, che i dirigenti aziendali devono esaminare ed imparare a mettere sotto controllo.

Tanto per cominciare, questo applicativo non è molto diverso da altri già presenti sul mercato, se non per il fatto che le capacità embrionali di altri applicativi sono state potenziate al massimo.

Gli sviluppatori hanno prestato particolare attenzione all’utilizzo di applicativi in grado di generare testi formalmente corretti, anche se talvolta discutibili nei contenuti.

L’articolazione la complessità delle risposte fa sì che esistano due famiglie di applicazioni, di cui una ad accesso gratuito, ed una ad accesso a pagamento: GPT-4.

Proviamo a vedere come un dipendente di un’azienda potrebbe utilizzare questo applicativo, nell’ambito delle sue attività professionali.

Nell’applicazione a pagamento, il dipendente può introdurre una query composta da migliaia di parole, che aiutano l’applicativo ad esplorare il mondo del Web e reperire una vasta gamma di possibili risposte. Uno dei vantaggi dell’utilizzo del sistema a pagamento è che ogni accesso viene registrato e quindi è possibile conoscere chi ha utilizzato questo applicativo per attività lavorative.

Un altro aspetto da tener presente, a fronte di possibili responsabilità amministrative e penali, è legato al fatto che i gestori di questo applicativo non accettano contratti con aziende, ma solo con singole persone. Ciò fa sì che l’azienda possa in ogni caso declinare sue responsabilità, in caso di uso inappropriato delle risposte date dall’applicativo.

Occorre però fare attenzione al fatto che, quando il dipendente utilizza queste informazioni per attività lavorative, ad esempio inserendo le informazioni in un testo elaborato per rispondere ad un capitolato di gara, la responsabilità passa in carico all’azienda, in quanto il documento viene poi presentato dall’azienda, in fase di gara.

Ecco perché l’elaborazione di un documento, che regoli i rapporti fra il dipendente e l’azienda, in merito all’utilizzo di questo applicativo, rappresenta un aspetto fondamentale, perché ognuno si accolli le proprie responsabilità.

Un altro aspetto cui non si presta sufficiente attenzione riguarda l’analisi del testo sottoposto dall’applicativo. L’applicativo, anche se si chiama di intelligenza artificiale, in realtà non è poi tanto intelligente e bisogna che tutti i testi, che vengono poi recepiti e inseriti in documenti aziendali, siano attentamente riletti e validati da una persona con adeguate competenze. L’inserimento di testi in documenti aziendali, ad esempio in risposta ad un capitolato di gara, potrebbe portare a conseguenze nella migliore delle ipotesi imbarazzanti, nella peggiore delle ipotesi addirittura potrebbe attivare responsabilità civili e penali.

Tanto per fare un esempio di questo specifico problema, basti pensare al fatto che questi applicativi di intelligenza artificiale acquisiscono le informazioni, che poi trasmettono all’utente, dal mondo reale. Nel mondo reale le ingiurie, le brutte parole, le considerazioni offensive sono cose del tutto normali e certamente non è l’intelligenza artificiale quella che può essere in grado di filtrare questi aspetti negativi. Si deve quindi necessariamente coinvolgere un soggetto dotato di intelligenza naturale, in grado di rileggere tutti i testi e filtrarli in modo appropriato.

Un altro aspetto, cui bisogna prestare attenzione, è legato al fatto che non è affatto scontato che, proponendo due volte di fila lo stesso quesito, le due risposte siano fra loro identiche. È possibile che, anche a distanza di pochi minuti, l’applicativo di intelligenza artificiale possa recuperare nuove informazioni, che potrebbero indurlo a modificare la risposta precedentemente data.

Come ultimo elemento di attenzione, segnalo ai lettori il problema del copyright. Mentre nessuno dubita sul fatto che il copyright si applichi a documenti prodotti da un essere umano, come ad esempio l’autore di questo articolo, non si hanno oggi sufficienti elementi per poter affermare che un testo, prodotto da un applicativo di intelligenza artificiale, possa essere anch’esso coperto da copyright.

Non parliamo poi del rispetto del regolamento in materia di protezione dei dati personali. Come tutti i lettori sanno, l’autorità garante italiana ha temporaneamente proibito l’utilizzo di questo applicativo, per palesi violazioni in materia di trattamento di dati personali di specifici soggetti. Occorre pertanto sensibilizzare tutti i dipendenti aziendali sul fatto che questo applicativo non può essere utilizzato per acquisire informazioni personali su persone fisiche, senza aver rispettato gli obblighi di informativa e autorizzazione alla acquisizione di questi dati.

A questo punto, ben vengano gli applicativi di intelligenza artificiale, anche molto evoluta, ma da utilizzare sempre sotto il vigile controllo di un’intelligenza naturale!

Fonti: Puntosicuro.it