ATTUALITÀ
21 gennaio 2026

L’intelligenza artificiale e la frode stanno degradando la letteratura scientifica

Biancucci P.

Uno dei principali pilastri dell’EBD (Evidence-Based Dentistry) è l’evidenza scientifica di alta qualità, vale a dire dati ottenuti da studi clinici, revisioni sistematiche e metanalisi che valutano efficacia, sicurezza e risultati delle procedure. Eppure negli ultimi anni, e in particolare nel corso del 2025, l’integrità della letteratura scientifica è sotto pressione su due fronti principali: l’industrializzazione della frode scientifica da parte di paper mills e l’uso improprio dell’intelligenza artificiale generativa per creare contenuti apparentemente accademici, spesso senza trasparenza né controllo efficace.

Le paper mills sono diventate un problema sistemico, non più casi isolati. Queste organizzazioni, incluse reti sofisticate che vendono autorialità, manipolano dati o producono articoli “su commissione”, stanno inondando le riviste con lavori che sembrano accademici ma che possono contenere dati inventati o plagio. Il fenomeno è sempre più diffuso e gli studi accademici mostrano che gli articoli sospetti prodotti da paper mills stanno crescendo a un ritmo molto più rapido rispetto alla produzione scientifica legittima, suggerendo un aumento esponenziale della frode rispetto alla letteratura autentica.

Indagini indipendenti stimano che tra il 2% e il 20% dei lavori pubblicati in alcune aree, anche biomediche, possano originare da paper mills, seppure con variazioni per disciplina e campo. I paper mills non si limitano a generare testi: alcuni producono immagini manipolate, dataset fittizi o modelli statistici costruiti ad arte, rendendo la frode ancora più difficile da individuare durante il processo di peer review. Esiste infatti una rete di editori e intermediari compiacenti che facilitano queste pubblicazioni, sfruttando lacune nei processi editoriali e incentivi bibliometrici (come il conteggio delle pubblicazioni o delle citazioni).

In tutto questo qual è il ruolo dell’IA?
L’intelligenza artificiale generativa ha trasformato il modo in cui i manoscritti vengono prodotti, ma non sempre in senso positivo o etico. Dal 2022 si registra un forte aumento nell’uso di strumenti di IA per scrivere parti di articoli, sovente non dichiarato alle riviste. Alcuni dati indicano che il numero di autori che utilizzano l’IA è quattro volte superiore a quello di coloro che ne dichiarano l’uso nelle presentazioni dei manoscritti.

L’IA è ora utilizzata non solo per la stesura di testi, ma anche per generare commenti, lettere al direttore e altri contributi di scarso valore, finalizzati principalmente a “gonfiare” il curriculum scientifico. Questi contenuti, pur privi di rigore metodologico, possono comunque essere pubblicati se non adeguatamente filtrati. Strumenti di generazione automatica possono addirittura fabbricare riferimenti bibliografici inesistenti o dati non verificabili, contribuendo alla diffusione di informazione fuorviante o non riproducibile. La diffusione di IA nella produzione scientifica ha inoltre messo in luce limiti nelle politiche editoriali: studi recenti dimostrano che, nonostante circa il 70% delle riviste abbia adottato regole sull’uso dell’IA, questa non ha sostanzialmente frenato né migliorato la trasparenza nelle dichiarazioni d’uso.

Quali sono le conseguenze sulla qualità della scienza?
L’effetto combinato di frodi su larga scala, IA e debolezze nei meccanismi di controllo ha ripercussioni multiple:

  • Rischio di contaminazione del corpus scientifico affidabile, con articoli falsi o triviali che possono essere citati da lavori successivi.
  • Erosione della fiducia pubblica nella scienza e potenziale influenza indebita su decisioni politiche, pratiche cliniche o investimenti in ricerca.
  • Pressione sui ricercatori onesti, che possono trovarsi svantaggiati in una competizione artificiale basata su numeri di pubblicazioni più che su qualità reale.

Di fronte all’aumento delle frodi, alcuni editori stanno adottando contromisure più aggressive. È il caso della Taylor & Francis che ha sospeso temporaneamente gli invii a Bioengineered per indagare su circa 1.000 articoli sospetti di manipolazione o provenienza da paper mills. Riviste come PLOS e Frontiers hanno iniziato a rifiutare in massa articoli generati in modo problematico da set di dati sanitari pubblici, per mitigare l’inquinamento della letteratura. Alcune iniziative editoriali e gruppi di ricerca stanno implementando strumenti di rilevamento dell’IA e analisi dei metadati per identificare contenuti sospetti. Studi preliminari mostrano che algoritmi dedicati possono segnalare con alta accuratezza testi generati dall’IA, se integrati con l’analisi dei comportamenti di submission. Organizzazioni accademiche, come India Research Watch, e gruppi europei stanno promuovendo coalizioni di monitoraggio e standard di integrità per combattere la frode scientifica attraverso audit, educazione e politiche di responsabilità.

Purtroppo, nonostante i progressi, restano alcune criticità significative. Le politiche editoriali sull’IA spesso non hanno forza di enforcement sufficiente per garantire trasparenza reale. I meccanismi di peer review tradizionali faticano a stare al passo con la sofisticazione delle frodi e delle tecnologie di generazione automatica. La ricerca sull’uso etico dell’IA nella scienza, così come strumenti di identificazione delle frodi più robusti, sono ancora in evoluzione e richiedono collaborazione internazionale e standard condivisi.

Per concludere, il 2025 ha segnato un punto di svolta in cui l’uso improprio dell’intelligenza artificiale e la proliferazione delle paper mills non sono più fenomeni marginali, ma elementi strutturali che minacciano la credibilità della letteratura scientifica. Se da un lato l’IA può offrire strumenti per la scoperta e il miglioramento qualitativo della ricerca, dall’altro la sua diffusione incontrollata, combinata con incentivi bibliometrici inadeguati e lacune nei processi editoriali, sta favorendo una crescita rapida e potenzialmente dannosa di articoli banali, fraudolenti o ingannevoli. La comunità scientifica reagisce con nuove policy, strumenti tecnologici antifrode e cooperazione internazionale, ma resta fondamentale una cultura diffusa di responsabilità, trasparenza e controllo critico per preservare l’integrità della scienza.

Fonte science.org

Immagine di copertina by Artvibe/Adobe Stock.

Advertising
Advertising
Advertising
Advertising
Advertising

 

Copyright © 2026 management odontoiatrico Tutti i diritti riservati - P. Iva 09954760014
CREDITI