L’intelligenza artificiale nella scrittura di paper scientifici: c’è chi la usa e c’è chi mente
Scrivere un abstract, un paper o un articolo per una rivista scientifica può essere, per chi si occupa di ricerca, un compito noioso, difficile ed oneroso. Da quando ChatGPT si è svelata al grande pubblico l’intelligenza artificiale (AI) è diventata uno strumento pressoché indispensabile per chi si cimenta nella scrittura scientifica.
Tuttavia, c’è ancora molta reticenza da parte di autrici ed autori nell’ammettere di avvalersi di strumenti generativi. Tutti la usano. Nessuno lo ammette. O quasi.
Il motivo di questo mal celato riserbo è dato dal fatto che, come spesso accade in contesti di forte innovazione tecnologica, il dibattito sui pro e contro dell’utilizzo dell’AI si è subito eccessivamente polarizzato: da una parte gli entusiasti che mettono in luce le enormi capacità di elaborazione, automazione e accesso istantaneo a grandi moli di dati; dall’altra gli scettici, che vedono nell’intelligenza artificiale una verosimile causa di disoccupazione, atrofizzazione cerebrale, nonché una fonte di informazioni estrapolate da fonti incognite, che quindi potrebbero essere inattendibili e decontestualizzabili. Entrambe queste posizioni, rischiano di ingessare la discussione intorno all’utilizzo di uno strumento così potenzialmente utile ed efficiente, su posizioni radicali e fuorvianti.
Luciano Floridi, esperto di filosofia ed etica dell’informazione a Yale, sostiene che i grandi modelli linguistici, come ChatGPT, possono elaborare testi con straordinario successo, pur non avendo intelligenza, comprensione o capacità cognitive. Ciò implica quindi che il ruolo della persona che si occupa di ricerca non sia in alcun modo bypassabile: l’AI può aiutare a superare la “sindrome del foglio bianco”, che affligge gli autori e le autrici che non riescono a formulare un concetto, scrivendo una bozza o comunque una prima versione di un paragrafo. Ciò non significa che l’autore non debba attentamente poi ricontrollare il testo generato, esaminandone l’accuratezza e la comprensibilità. Nel contesto della scrittura tecnico-scientifica, precisione e chiarezza della terminologia sono cruciali. Ciò fa di questo contesto un ambito in cui le indicazioni editoriali per l’utilizzo dell’AI sarebbero fondamentali, sia per gli autori, sia per i comitati scientifici delle riviste. Ed invece tali indicazioni non vengono, al momento, fornite: una rivista rispettabile non accetterebbe un articolo scritto (totalmente o in parte) da un’intelligenza artificiale; allo stesso modo, ad oggi, risulterebbe difficile per un autore ammettere di aver scritto il proprio paper con ChatGPT. Si preferisce quindi non chiedere e non dire, “Don’t ask, Don’t tell”, relegando l’utilizzo di uno strumento così potenzialmente utile a innominabile tabù.
L’intelligenza artificiale ha il potenziale di rivoluzionare la scrittura (anche) dei paper scientifici, ma per mettere in atto questa rivoluzione è fondamentale un approccio equilibrato e consapevole. Le redazioni delle riviste scientifiche dovrebbero collaborare con gli autori e le autrici per stabilire linee guida chiare sull’utilizzo dell’AI in fase di scrittura, garantendo che i vantaggi per chi scrive non diventino svantaggi per chi legge.
Se la comunità scientifica e quella accademica si prenderanno questa responsabilità lo stigma nei confronti dell’intelligenza artificiale potrebbe essere fermato sul nascere, evitando di perpetrare atteggiamenti di inutile censura o scettiscismo, nei confronti di articoli scritti con l’ausilio dell’AI. Proprio come questo.