Non usare ChatGPT in questo modo: è pericoloso

La stessa azienda sviluppatrice, OpenAI, ha messo in guardia gli utenti: usare ChatGPT in questo modo è solamente pericoloso.

In questi giorni ChatGPT sta facendo molto parlare di sé. L’uscita del nuovo modello è prevista per il mese di agosto e, in base alle anticipazioni, ci sarà una vera e propria rivoluzione. Tuttavia, le recenti dichiarazioni del ceo di OpenAI, Sam Altman, hanno messo in evidenza un aspetto decisamente allarmante. Gli utenti dovrebbero prestare più attenzione al modo in cui utilizzano il famoso chatbot: ecco per quale motivo.

Donna, cellulare
Non usare ChatGPT in questo modo: è pericoloso – esplica.it

Il mese di agosto è iniziato e, tra le uscite più attese in ambito tech, troviamo ChatGPT-5. Con il nuovo modello gli utenti potranno contare su un chatbot ancora più avanzato, in grado di fare calcoli complessi, gestire una serie di compiti in contemporanea e dotato di una capacità di ragionamento potenziata. OpenAI vuole fornire agli user uno strumento che possa garantire versatilità ed efficienza, con risposte precise e accurate.

Il nuovo modello di ChatGPT-5 rappresenterà un importante passo avanti per l’azienda, in un momento in cui l’intelligenza artificiale diventa sempre più diffusa e impiegata in ambiti diversi. Il progresso dell’IA, però, nasconde anche insidie, di cui Sam Altman ha parlato nel corso di una recente intervista. Il ceo di OpenAI ha espresso una certa preoccupazione per gli sviluppi di ChatGPT e il modo in cui viene usato dagli utenti.

Cosa non bisogna fare con ChatGPT: l’allerta di OpenAI

Chiunque abbia utilizzato ChatGPT almeno una volta, sarà rimasto impressionato dalla sua capacità di rispondere ai quesiti intrattenendo conversazioni naturali con noi. Il tono amichevole del chatbot, sviluppato appositamente per imitare quello di un essere umano, è alla base di un fenomeno sempre più diffuso, soprattutto tra le generazioni più giovani.

Cellulare
Cosa non bisogna fare con ChatGPT: l’allerta di OpenAI – esplica.it

Sono molti gli utenti che si rivolgono a ChatGPT come confidente, arrivando ad usarlo per ricevere un supporto psicologico. I chatbot non giudicano, come potrebbe fare un conoscente o un amico, rispondono a tutti i nostri dubbi con oggettività e sono molto più accessibili di un professionista: sono queste le cause principali che portano un numero crescente di persone a parlare dei propri disagi con ChatGPT anziché con uno psicologo in carne ed ossa.

L’uso terapeutico del chatbot è più diffuso tra gli utenti che fanno i conti con una sensazione di solitudine, diventando una fonte di rassicurazione. In particolare tra chi ha reali disturbi psicologici, che molto spesso vengono alimentati dall’utilizzo dell’IA come terapeuta. Nei media internazionali si è iniziato a parlare di “psicosi da ChatGPT” in riferimento alle forme di delirio sviluppate da user convinti che il chatbot abbia una coscienza, oppure che mandi messaggi criptati tramite le sue risposte.

Sam Altman ha messo in guardia gli utenti: ChatGPT non è assolutamente equiparabile ad uno psicologo e utilizzarlo in questo modo è pericoloso per la propria salute mentale. A ciò si aggiunge un dettaglio da prendere in considerazione ogni volta che ci si confida con il chatbot: a differenza di un vero psicologo, non è vincolato dal segreto professionale. Le nostre conversazioni, infatti, potrebbero essere utilizzate in sede giudiziaria nel caso in cui il tribunale dovesse farne richiesta.

Gestione cookie