ChatGPT cambierà la nostra vita ma attenzione ai rischi

ChatGPT sembra proprio la novità che ci rivoluzionerà la vita: eppure come per tutti le cose, anche in questo caso i rischi non mancano.

Parliamoci chiaro, giorno dopo giorno, si va sempre di più vero una forma di tecnologia più avanzata: grazie ai nostri smartphone e ai computer ormai senza nemmeno più pensarci riusciamo immediatamente ad arrivare ad avere suggerimenti di una parola o di una frase, oppure anche per scrivere canzoni o poesie.

ChatGPT
ChatGPT, foto fonte web. Notizie.com

Insomma dei veri passi in avanti che sono resi possibili anche con gli algoritmi formati dai vari modelli linguistici presenti sui nostri sistemi: uno tra tutti che sta prendendo piede nell’ultimo periodo è il GPT3 o ChatGPT, un sistema davvero all’avanguardia in grado di aiutare chiunque nello svolgimento anche delle varie cose giornaliere, come ad esempio: la categorizzazione di documenti, la valutazione del sentimento, l’estrazione di informazioni o anche di cose più complesse, come: riassunti, la risposta a domande elaborate, il dialogo, e persino la generazione di testi a partire da delle istruzioni.

Praticamente la tecnologia più all’avanguardia che mai, che ci permette di ottenere un grande aiuto anche per il nostro lavoro o magari per chi studia, in pochissime semplici mosse. Ma cerchiamo di scoprire qualche cosa in più.

ChatGPT, quali sono però i rischi di questo tipo di tecnologia

Come accennato prima, insomma, questo avanzamento di tecnologia aiuta tutti anche nella normale attività quotidiana, l’intelligenza artificiale negli anni è infatti diventata un valido aiuto giornaliero per tantissime cose, come: lo sviluppo di contenuti per siti web, scrivere e-mail, elaborare notizie, redazione di  referti medici o articoli scientifici, e persino sviluppare codice.

Intelligenza artificiale, Notizie.com

Eppure, anche in questo caso, come per ogni cosa, non mancano dei rischi, infatti questi sistemi anche se all’apparenza perfetti e precisi, peccano come sempre in qualcosa: “I modelli linguistici, infatti, non hanno nozioni di logica, matematica, fisica, etica, chimica, legge, e nemmeno sono in grado di distinguere un fatto realmente accaduto da uno linguisticamente plausibile. Per imbrogliarli è sufficiente fare qualche gioco di parole. E se a questo si aggiunge poi la malizia, diventa evidente il rischio che ne consegue” questo si legge nella nota ufficiale. Un principio di cui è davvero impossibile non tenere conto.

E quindi importante tenere presente che per quanto la tecnologia si sia già molto evoluta, è comunque sempre molto difficile raggiungere la perfezione, ci vuole infatti ancora moltissimo tempo prima che gli algoritmi utilizzati, possano raggiungere un livello di affidabilità perfetto e quindi capire quale sia la cosa giusta o sbagliata da fare o quale quella corretta oppure no. Ad ogni modo, una cosa è certa, in qualsiasi moda la si metta, gli uomini e  le macchine saranno sempre destinati a collaborare.