Nel rumore di fondo generato a partire dal lancio di ChatGPT (Chat Generative Pre-trained Transformer) nel novembre 2022, spiccano le discussioni sulla possibile minaccia che questo modello di chatterbox costituisce. Particolarmente intense in ambito umanistico: sia perché più che in ogni altro ambito si è sensibili agli allarmi, sia perché si teme che possa compromettere la nostra possibilità di scrivere testi, giocando una concorrenza sleale a chi, dotato di coscienza, scrive un testo qualsiasi. Questo timore generalizzato di essere surclassati dall’intelligenza artificiale (per brevità AI) è stato discusso a profusione in saggi, articoli e interventi di varia natura. Ma curiosamente, se si sorvolano le discussioni infinite sul tema facendo una sintesi del dibattito non specializzato (cioè prodotto da chi non si occupa di AI e informatica, e nella lista dei colpevoli metto il mio nome per primo), colpisce la ricorrenza di toni meccanici e argomentazioni-fotocopia che a naso non mi paiono eccessivamente informate, bensì composte pescando da motori di ricerca e articoli online selezionati acriticamente qua e là. Tanto da far pensare in un vortice di immaginazione paranoica che questo micro-bailamme mediatico non sia altro che una gigantesca campagna pubblicitaria di OpenAI stessa (l’organizzazione no profit sviluppatrice di ChatGPT), che magari ha prodotto il novanta per cento degli articoli sul tema tramite ChatGPT stessa (con un input come “Descrivimi le preoccupazioni che ChatGPT può generare in chi oggi è capace di scrivere un testo”) e poi li ha attribuiti nel silenzio collettivo alla firma di una pletora di umani. 

Quindi conviene sgombrare il campo dagli equivoci, volontari o no, che sollecitano il consumatore d’informazioni. Per cominciare: ChatGPT – per ora – non è senziente.

Questo contenuto è visibile ai soli iscritti

Snaporaz è una rivista indipendente che retribuisce i suoi collaboratori. Per esistere ha bisogno del tuo contributo.

Accedi per visualizzare l'articolo o sottoscrivi un piano Snaporaz.