L’intelligenza artificiale sta cambiando il modo in cui produciamo, consumiamo e immaginiamo i contenuti culturali, e per gli scrittori questo cambiamento è particolarmente evidente. Un recente studio dell’Università di Cambridge, condotto su oltre 250 autori e decine di professionisti editoriali, mostra un clima di forte preoccupazione: molti temono che i romanzi generati dall’AI possano diventare la norma, mentre le opere scritte a mano dai narratori umani rischiano di essere relegate a nicchia di lusso, destinata a pochi lettori disposti a pagare di più.
Più della metà degli autori intervistati ritiene possibile che, in un futuro non troppo lontano, il proprio lavoro venga sostituito da sistemi di generazione automatica di testi. In parallelo, oltre un terzo segnala un calo del reddito, legato anche alla crescente presenza di strumenti di AI nel settore editoriale: software che redigono schede, propongono trame, generano bozze o persino interi racconti in pochi secondi.
Scrittori nel mirino dei modelli linguistici: l’ansia da rimpiazzo
Al centro delle paure c’è il ruolo dei Large Language Models (LLM), sistemi addestrati su miliardi di parole che possono imitare stili narrativi, strutture di trama e persino la voce di autori riconoscibili. Per molti scrittori, l’idea che questi sistemi possano produrre romanzi “abbastanza buoni” a costo marginale quasi zero rappresenta una minaccia diretta non solo al reddito, ma anche al riconoscimento sociale del mestiere.
La percezione diffusa è che le grandi piattaforme e gli editori potrebbero essere tentati di riempire il mercato con titoli generati in modo automatico, altamente ottimizzati per i gusti del pubblico e per gli algoritmi di raccomandazione, sacrificando la ricerca formale, la sperimentazione e il rischio creativo. In questo scenario, i libri “di catalogo” prodotti dall’AI diventerebbero l’equivalente dei maglioni industriali, mentre i romanzi scritti a mano sarebbero l’equivalente della sartoria su misura: preziosi, ma marginali.
Diritti degli scrittori e copyright nell’era dell’AI
Una delle questioni più spinose riguarda il modo in cui le opere esistenti vengono utilizzate per addestrare i modelli di intelligenza artificiale. Secondo il sondaggio, quasi il 60% degli autori sospetta – o sa con certezza – che i propri libri siano stati inglobati nei dataset di addestramento senza consenso né compenso. A molti appare paradossale che proprio i testi che hanno richiesto anni di lavoro siano usati per alimentare sistemi che potrebbero competere con loro sul mercato.
Il dibattito giuridico è in pieno fermento: chi detiene i diritti sulle opere generate dall’AI? Quali limiti dovrebbe avere l’uso di libri protetti da copyright come dati di addestramento? Un approfondimento della WIPO sul rapporto tra intelligenza artificiale e diritto d’autore, disponibile in questo articolo dedicato alla sinergia tra AI e creatività , evidenzia come molti esperti chiedano regole più chiare su licenze, trasparenza dei dataset e remunerazione degli autori, per evitare che l’innovazione tecnologica si traduca in espropriazione sistematica di contenuti creativi.
La “brutale ironia” dei dati di addestramento
La Dr. Clementine Collett, autrice del rapporto di Cambridge, parla di “brutale ironia”: gli stessi romanzi che gli scrittori faticano a vendere in un mercato sempre più competitivo vengono copiati, indicizzati e trasformati in numeri all’interno di modelli che non li riconoscono più come opere singole, ma come materiale grezzo. Spesso questi testi provengono da “biblioteche ombra” o archivi pirata, rendendo ancora più opaca la catena di responsabilità.
Nel frattempo, diverse cause legali avviate da autori contro aziende tecnologiche cercano di stabilire se l’uso di interi cataloghi per l’addestramento rientri nelle eccezioni di legge o costituisca violazione del diritto d’autore. L’esito di questi casi potrebbe influenzare per anni il rapporto tra case editrici, piattaforme di AI e comunità degli scrittori.
Scrittori, creatività e “dolore” della prima bozza
Oltre agli aspetti economici e giuridici, molti autori temono la perdita di qualcosa di più sottile: la specificità emotiva del processo creativo umano. Alcuni romanzieri sottolineano che il valore di una storia non sta solo nel risultato finale, ma anche nel percorso tortuoso che porta alla prima bozza, nei tagli, nei fallimenti e nelle revisioni infinite. È in questo “attrito” che spesso nascono le intuizioni più originali.
Quando un LLM genera venti trame alternative in pochi secondi, il rischio percepito è che il processo si trasformi da ricerca lenta e personale in ottimizzazione statistica: un prodotto che “funziona” perché è allenato sui gusti medi, ma che fatica a esplorare davvero l’inaspettato. Alcuni autori temono che editori e piattaforme possano privilegiare questa prevedibilità rispetto a voci più rischiose o spigolose.
AI come strumento, non come sostituto
Malgrado le preoccupazioni, il quadro non è solo negativo. Circa un terzo degli autori intervistati dichiara di usare già l’intelligenza artificiale come supporto: per ricerche preliminari, riassunti, brainstorming di idee, schede personaggi o gestione di aspetti amministrativi. L’80% riconosce i potenziali benefici sociali della tecnologia, purché sia regolata in modo da proteggere il lavoro creativo e la dignità professionale degli scrittori.
In questa prospettiva, l’AI diventa un amplificatore: uno strumento che accelera alcune fasi del lavoro, senza sostituire la voce dell’autore né la sua responsabilità artistica. Il nodo centrale resta quello di definire con chiarezza i confini: come garantire che gli autori vengano compensati quando le loro opere alimentano i modelli? Quali spazi vogliamo preservare per una narrativa che non sia dettata solo dai dati, ma anche dal rischio, dall’esperienza e dalla sensibilità di chi scrive?











