Vai al contenuto

Laboratorio di Redazione Digitale: Editing e Anti-AI

Laboratorio di Redazione Digitale

Quando la scrittura tradisce l’algoritmo

C’è un momento, durante la lettura di molti testi online, in cui scatta un riflesso quasi automatico. Non serve arrivare in fondo. Bastano poche righe. Il cervello registra un tono uniforme, una sintassi troppo regolare, un uso sospetto di parole rassicuranti. Non è una questione di contenuto. È una questione di impronta.

La scrittura, come ogni attività cognitiva, lascia tracce. E l’intelligenza artificiale, per quanto sofisticata, tende a lasciarne sempre le stesse.

Per chi lavora con l’OSINT, con l’analisi dei dati aperti, con la verifica delle fonti e la costruzione di narrazioni affidabili, questo non è un dettaglio stilistico. È un problema strutturale. Perché un testo che “suona artificiale” perde credibilità prima ancora di essere verificato. E perché l’uniformità linguistica è, a tutti gli effetti, un segnale debole. Uno di quelli che chi fa intelligence impara a riconoscere presto.

Scrivere bene oggi non significa scrivere elegante. Significa scrivere in modo responsabile.

La prima regola, non scritta ma fondamentale, riguarda l’intenzione. Un testo giornalistico non deve accompagnare il lettore con gentilezza. Deve portarlo da qualche parte. Questo implica una rinuncia preventiva: quella ai preamboli. Le frasi introduttive vaghe, i “contesti generali”, le aperture filosofiche non aggiungono comprensione. Servono solo a guadagnare tempo. L’intelligenza artificiale li usa perché non conosce la priorità. L’essere umano dovrebbe evitarli proprio per questo.

Un buon attacco non prepara. Espone. Parte da un fatto, da una conseguenza, da un dato che costringe il lettore a fermarsi. Se la prima frase può essere eliminata senza che il testo perda senso, allora non è un attacco: è rumore.

Lo stesso vale per la struttura. La scrittura giornalistica non è narrativa in senso classico. Non costruisce suspense. Distribuisce informazioni in base alla loro importanza. Le notizie cruciali stanno in alto, quelle accessorie scendono. È una logica che nasce molto prima del digitale, ma che oggi torna centrale perché il tempo di attenzione è ridotto e la soglia di tolleranza per l’ambiguità è bassissima.

In questo contesto, il ritmo diventa una variabile strategica. I testi generati automaticamente tendono a mantenere una lunghezza media costante delle frasi. È una firma statistica. L’occhio umano la percepisce come monotonia. La mente la interpreta come distanza. La scrittura umana, invece, alterna. Stringe. Allunga. Spezza. Non per stile, ma per necessità cognitiva. Perché alcune informazioni richiedono precisione chirurgica, altre hanno bisogno di respiro.

Il problema non sono le frasi lunghe in sé, ma quelle lunghe senza motivo. Così come non sono le frasi brevi a fare qualità, ma la loro funzione. Una frase dovrebbe contenere un’idea. Se ne contiene due, una è di troppo.

Il nodo centrale resta il linguaggio. In particolare, la scelta dei verbi. L’AI predilige verbi neutri, accomodanti, che non prendono posizione. “Fornire”, “permettere”, “supportare”, “utilizzare” sono costruzioni che non descrivono un’azione, ma la sua possibilità astratta. Nella scrittura analitica, e ancora di più in quella OSINT, questo è un problema. Perché l’analisi non suggerisce: afferma. Non abilita: produce effetti. Non supporta: incide.

Ogni verbo dovrebbe rispondere a una domanda semplice: che cosa succede davvero? Se la risposta resta vaga, il verbo è sbagliato.

A indebolire ulteriormente i testi intervengono le cosiddette parole-cuscinetto. Avverbi e sostantivi che servono a “tenere insieme” il discorso, ma che in realtà lo diluiscono. “Inoltre”, “in generale”, “tuttavia”, “importante”, “significativo” sono segnali di prudenza lessicale. Funzionano quando chi scrive non è sicuro. Ma un testo informativo non deve proteggere chi scrive. Deve servire chi legge.

Lo stesso discorso vale per le transizioni. Se un passaggio è logico, non ha bisogno di essere annunciato. L’intelligenza artificiale lo fa perché ha bisogno di marcare la coerenza. L’essere umano può permettersi di lasciarla implicita. È una differenza sottile, ma riconoscibile.

C’è poi un aspetto decisivo, spesso sottovalutato: la responsabilità delle affermazioni. Le formule impersonali, così frequenti nei testi automatici, non sono solo un problema stilistico. Sono un problema etico. “Si ritiene che”, “secondo alcuni”, “è stato osservato” cancellano il soggetto. Ma senza soggetto non esiste verifica. E senza verifica non esiste OSINT.

Ogni affermazione dovrebbe poter rispondere a una domanda precisa: chi lo dice? Quando? In base a cosa? Se la frase non lo consente, va riscritta. O eliminata.

Anche gli elementi grafici, come il grassetto o i link, raccontano molto del modo in cui un testo è stato costruito. Il grassetto non serve a enfatizzare, ma a orientare. Usarlo per rafforzare concetti vaghi è un errore tipico della scrittura automatica. Allo stesso modo, un link che non dice cosa contiene è una promessa mancata. Nella scrittura informativa, ogni collegamento deve essere parlante. Deve anticipare il contenuto, non mascherarlo.

La chiusura, infine, è il punto in cui più facilmente emerge la mano dell’algoritmo. Le conclusioni annunciate, i riepiloghi didascalici, le frasi che segnalano la fine del discorso sono segnali evidenti di scrittura artificiale. Un buon testo non si chiude dicendo che sta per finire. Si chiude lasciando qualcosa in sospeso. Una conseguenza. Una domanda. Un possibile sviluppo.

Nel lavoro OSINT, questo è particolarmente vero. L’analisi non è mai definitiva. Ogni informazione apre scenari. Ogni dato genera nuove ipotesi. Una chiusura efficace non mette un punto. Cambia il piano.

In fondo, la regola più semplice resta anche la più difficile da applicare: se un testo scorre bene ma non dice nulla, è un testo fallito. E oggi, più che mai, dire qualcosa conta più che scrivere bene.