Sui pericoli legati all’intelligenza artificiale-e nello specifico all’uso di ChatGPT-software di proprietà di OpenAi in grado di simulare ed elaborare conversazioni, è arrivato anche il monito di C.NEXT. “L’intervento del Garante della Privacy per la violazione delle norme sul trattamento dei dati personali è ragionevole” ha commentato Stefano Soliano, amministratore delegato del sistema di poli dell’innovazione nazionale di cui fa parte anche Como Next. “Siamo di fronte a uno strumento di linguistica computazionale che supera il nostro perimetro di controllo e di gestione” e per questo motivo ha aggiunto “non possiamo avallare acriticamente tutto ciò che è tecnicamente fattibile sull’onda di un entusiasmo collettivo troppo spesso inconsapevole”.
In Italia, a fine marzo, è stata aperta un’indagine dall’Autorità amministrativa per la protezione dei dati personali che ha portato al blocco della piattaforma in via precauzionale. A non convincere, sono le procedure relative al trattamento dei dati degli utenti, secondo il Garante non conformi al regolamento europeo.
Per questo motivo, Soliano di C.Next ha definito “giustificato” il provvedimento del 31 marzo scorso che di fatto ha limitato la funzionalità del software americano. “Secondo la nostra esperienza” ha detto “non è mai da tralasciare la centralità della persona, che deve trarre vantaggio (e non difendersi) dalla “macchina”.
Il tema portato dall’Italia all’attenzione della comunità internazionale, sembra dunque secondo la società nata dall’innovation hub comasco “di enorme importanza” tanto da aprire un ”dibattito serio sulla necessità di definire le regole e rivestire di etica quegli algoritmi che sempre più influenzeranno le vite delle persone nei prossimi decenni”. “L’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma, crediamo sia il vulnus principale che il Garante abbia riscontrato nel software di OpenAI ”ha concluso Soliano. “Le informazioni fornite da ChatGPT non sempre corrispondono al dato reale e determinano quindi un trattamento di dati personali inesatto”.