Mamma mia l’AI!!

news Mar 30, 2023

Ormai tutti quanti conosciamo gli strumenti dell’intelligenza artificiale e le possibilità che ci offrono, dalla creazione di un testo più o meno dettagliato, alla realizzazione di immagini sempre più realistiche. Il tutto parte, sicuramente, dalla fantasia o dall’arguzia degli utenti, ma le elaborazioni sempre più realistiche e precise, iniziano a farci porre delle domande sull’effettiva potenza di questo strumento. 

Negli ultimi mesi molti scienziati, imprenditori, intellettuali e sviluppatori hanno posto l’accento sulla possibilità che l’intelligenza artificiale possa andare in qualche modo fuori controllo e creare qualche tipo di danno o problema, anche se non sappiamo esattamente di quale natura. Forse queste critiche dipendono dal fatto che queste tecnologie si stanno espandendo velocemente e sono sempre più aggiornate e precise.

Come abbiamo già detto, senza un’istruzione precisa nessuna AI è ancora in grado di ricreare un elaborazione (testo, codice sorgente, immagine) migliore del comando, come non è in grado di correggere un comando sbagliato, al massimo potrebbe avvertire. Anche le versioni più aggiornate non hanno queste capacità, né, probabilmente, le avranno mai. 

Possiamo dire che le critiche più concrete riguardano le tematiche legate alla privacy, la sicurezza, l’etica e il potenziale impatto sull’occupazione.

Per quanto riguarda la privacy, l’AI può raccogliere e analizzare grandi quantità di dati personali e, senza il consenso delle persone coinvolte, potrebbe portare a violazioni della privacy e dell’anonimato delle persone, o peggio, a un possibile uso improprio delle informazioni raccolte.

La sicurezza è un’altra preoccupazione importante quando si tratta di AI. L’AI può essere vulnerabile ad attacchi informatici e manipolazioni, il che potrebbe avere conseguenze negative per la sicurezza e, appunto, la privacy delle persone coinvolte.

L’etica è un altro aspetto critico dell’uso dell’AI. Ad esempio, l’AI potrebbe essere utilizzata in modo discriminatorio o a fini scorretti, come la sorveglianza di massa o la manipolazione delle opinioni delle persone. 

Infine, il potenziale impatto dell’AI sull’occupazione è stato oggetto di molte discussioni. L’automazione causata dall’AI potrebbe portare alla perdita di posti di lavoro in alcune industrie, il che potrebbe avere conseguenze sociali ed economiche significative.

Tuttavia, è importante notare che molte di queste critiche sono anche oggetto di attenzione e ricerca in corso da parte degli sviluppatori di AI e degli stakeholder interessati, con l’obiettivo di trovare soluzioni etiche e sicure per l’uso delle AI e degli strumenti che potrebbero essere implementati con loro.

È notizia fresca che il garante per la privacy italiana ha imposto uno stop a chat gpt, di fatto rendendola inaccessibile agli utenti italiani, sia nella versione gratuita che in quella a pagamento. La decisione ha subito suscitato un vespaio di opinioni e critiche, oltre a qualche sporadico apprezzamento e, di fatto, ha aperto un primo vero fronte di dibattito politico. Da un lato il garante della privacy e un’idea velata di proibizionismo in nome di una non meglio specificata salvaguardia dei dati (anche se i call center continuano a chiamare in barba a qualunque regola), dall’altra la consapevolezza, e le conseguenti critiche, degli addetti al settore che vedono in questo stop un freno a quella che forse sarà l’innovazione tecnologica del secolo.

Vero, le preoccupazioni sono motivate, non possiamo negarlo, ma i freni sono eccessivi. Sappiamo bene che politica e tecnologia, soprattutto web, non vanno d’accordo, ricordiamoci le imbarazzanti domande a Zuckerberg da parte del senato statunitense, perciò il rischio concreto è un lungo stop, che costringerà start up, università, laboratori, aziende, ecc…, a usare le vpn, per aggirare il divieto. 

È anche vero che l’Europa è da tempo all’avanguardia del diritto informatico, con strumenti come la privacy Gpdr, il Digital Services Act, l’European Digital Media Observatory, e tutti i più grandi paesi occidentali guardano all’esperienza europea per orientarsi tra web, algoritmi e giustizia. Per questo sembra così insensata la decisione del garante italiano, quasi presa con un’idea proibizionista, piuttosto che con la volontà di ragionare sull’argomento, almeno a prima vista.

Già, perché non è vietando che si risolvono i problemi, ma capendo, analizzando e ragionando. La miopia verso le innovazioni tecnologiche, la paura, forse ingiustificata, che questo strumento possa andare fuori controllo, la lentezza delle istituzioni a prendere una decisione, potrebbe bloccare a tempo indeterminato questa importante innovazione, facendola passare come uno strumento inutile, e facendoci uscire dal progresso tecnologico che, si dice, valga il 7% del pil. 

 

L’invito da chi con il web ci vive, che lo conosce ed è riuscito a farne una professione, come noi di yes-web, è quello di fermarsi, ragionare e cercare di capire dove queste società possano migliorare, in modo da offrire un servizio che non violi le regole nazionali degli stati e permetta agli utenti, soprattutto ai professionisti, di continuare a utilizzare questa innovazione, implementandola nel mondo del lavoro.

Per BwBA_0kJ