Come (non) utilizzare l’intelligenza artificiale

intelligenza artificiale

Un’estate di contenuti.

Una guida su 300 cose da leggere, mangiare e fare. Pubblicata su due autorevoli quotidiani americani: il Chicago Sun-Times e il Philadelphia Inquirer. Un titolo accattivante e apparentemente innocuo: “Heat Index”.

Fin qui, tutto normale. Ma poi un dettaglio insospettabile ha acceso il sospetto:

“Si consiglia di leggere Nightshade Market.”

Un romanzo mai scritto, attribuito a Min Jin Lee, autrice vera ma ignara. Alcuni utenti hanno indagato e la verità è venuta a galla: l’intera guida è stata generata quasi completamente con ChatGPT.

Il problema non è utilizzare l’intelligenza artificiale. È come la si utilizza.

Ecco cosa è emerso:

Gli esperti citati non esistevano. I riferimenti non erano verificati. Le citazioni erano false.

A peggiorare le cose, i giornali hanno messo il loro logo in copertina, come a prendersi la paternità di quei contenuti.

Online questo fenomeno ha già un nome: AI Slop.

“Slop” in inglese significa sbobba: qualcosa di insapore, sciatto, fatto solo per riempire. E questo è il punto: contenuti prodotti con l’intelligenza artificiale solo per riempire spazi, senza controllo, senza editing, senza responsabilità.

Non è colpa dell’AI. È il sistema che la usa male.

Il vero problema non è utilizzare l’intelligenza artificiale, ma sostituire il lavoro umano invece di potenziarlo.

Un meccanismo alimentato da:

la corsa a contenuti rapidi e a basso costo, la rincorsa ai click facili, la necessità di fare tanto e subito.

Il risultato? Un effetto domino tossico:

I giornali pubblicano articoli generati dall’AI, spesso senza verifica. Altri sistemi di intelligenza artificiale li leggono come se fossero fonti attendibili. Quei dati vengono riciclati in nuovi testi automatici. Gli utenti, davanti a contenuti “vuoti”, cliccano meno. I ricavi calano, e le redazioni si affidano ancora di più all’AI.

Un circolo vizioso. La qualità crolla, la fiducia evapora.

Verificare prima di fidarsi

In un panorama sempre più affollato da contenuti generati automaticamente, la regola non è più “Trust but verify”, ma il contrario: “Verify, then trust.”

Questa responsabilità vale per tutti:

Per chi crea contenuti amatoriali. Per chi investe in contenuti professionali. Per chi, semplicemente, legge.

Perché la verità richiede ancora occhi umani.

Richiede cura, senso critico, domande scomode:

Perché mi stanno dicendo questo? Chi lo ha scritto? È verificabile?

Utilizzare l’intelligenza artificiale nel modo giusto

Sì, utilizzare l’intelligenza artificiale può essere un vantaggio straordinario:

Può aiutare a scovare connessioni. Può potenziare la scrittura. Può arricchire un’inchiesta.

Ma non può – e non deve – sostituire la responsabilità, l’etica e il giudizio umano.

Un’AI può scrivere.

Ma non sa cosa vale la pena scrivere.

Non sa cosa merita di essere letto.

Il futuro si vince scrivendo meglio, non di più

Chi vuole distinguersi nel mondo dell’informazione non deve solo produrre contenuti. Deve scegliere cosa scrivere. Deve scrivere meglio. Anche – e soprattutto – se decide di utilizzare l’intelligenza artificiale

Torna in alto