Încă de la lansarea ChatGPT 3 în noiembrie 2022, comunitatea academică s-a confruntat cu o serie de noi probleme privind modul de publicare a activității științifice prin articole de cercetare în revistele de specialitate ale unui domeniu. Modelele mari de limbaj (eng. Large Language Models) precum ChatGPT funcționează pe baza predicției unui set de cuvinte ca răspuns probabil la solicitarea utilizatorului [1]: un răspuns la o întrebare, continuarea unui paragraf deja existent sau chiar întocmirea unor eseuri, articole sau rezumate pe anumite teme. Acestea fiind spuse, este ușor de înțeles impactul vast pe care aceste soft-uri de Inteligență Artificială (IA) le pot avea asupra activității academice obișnuite de până acum.
În acest sens, mai multe reviste academice au luat sau doresc să ia măsuri privind actualizarea cerințelor de acceptare a articolelor spre publicare, astfel încât să prevină practica realizării unor articole sau părți dintr-un articol cu ajutorul IA. Important de menționat este faptul că aceste politici nu vizează utilizarea explicită a IA în articole cu un scop bine definit și precizat, ci doar utilizarea IA împotriva standardelor asumate de etică și integritate academică. Spre exemplu, revista Journal of University Teaching & Learning Practice (JUTLP) a introdus o serie de principii care stabilesc politica sa editorială privind generarea de text cu IA: se menționează cazurile în care este permisă utilizarea IA în cercetare, dar și avertizări privind limitările serioase pe care aceste modele de limbaj le pot avea (pot avea bias-urivalorice sau chiar pot genera informații false).
Mai mult, alte grupuri editoriale care includ reviste internaționale prestigioase, precum Elsevier, Nature sau Science, au politici editoriale clare privind utilizarea IA de către autorii articolelor. Condițiile pentru publicarea în cadrul revistelor Science menționează în mod clar că „instrumentele de IA nu pot fi autori” [2]. Grupul editorial Nature își bazează decizia de a nu considera textele și imaginile generate cu IA ca fiind eligibile pentru criteriul lor de autorat pe definiția responsabilității față de conținutul creat [3].
O idee comună tuturor acestor politici este că un instrument precum ChatGPT nu poate fi considerat cu adevărat autor al textelor sau imaginilor pe care le generează, deoarece IA nu își poate asuma responsabilitatea privind conținutul generat. Deși adeseori se menționează faptul că autorii pot folosi IA pentru scopuri precum corectarea gramaticală a textelor, reformularea unor exprimări sau chiar sistematizarea literaturii de specialitate, accentul este pus pe ideea transparenței față de editori prin menționarea explicită de către autori a modului de utilizare a IA generative.
Pe de altă parte, în ariile de cercetare în care se utilizează studii empirice, în literatura de specialitate se menționează în mod explicit interzicerea utilizării IA pentru „a fabrica date empirice sau a falsifica date deja existente” [4]. Editorii jurnalului Accountability in Research recomandă și celorlalți editori ai altor jurnale să introducă în timp util politici editoriale privind generarea de texte științifice cu IA, motivând acest demers prin observarea avansurilor rapide și imprevizibile ale acestei tehnologii [4].
Despre autoare
Maria Gațe este studentă a programului masteral „Etică Aplicată în Societate, Afaceri și Organizații” din cadrul Facultății de Filosofie a Universității din București.
Note
[1] Joseph Crawford, Michael Cowling, Sally Ashton-Hay, Jo-Anne Kelder, Rebekkah Middleton, and Gail S. Wilson. „Artificial Intelligence and Authorship Editor Policy: ChatGPT, Bard Bing AI, and beyond”. Journal of University Teaching & Learning Practice, (2023). https://doi.org/10.53761/1.20.5.01, 3.
[2] „In addition, artificial intelligence tools cannot be authors” în „Science Journals: Editorial Policies”, Science, accesat la 14 decembrie 2023, https://www.science.org/content/page/science-journals-editorial-policies#authorship.
[3] „Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs. Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript.” În „Nature Portfolio. Editorial Policies. Artificial Intelligence (AI)”, Nature, accesat la 14 decembrie 2023, https://www.nature.com/nature-portfolio/editorial-policies/ai.
[4] Mohammad Hosseini, Lisa M. Rasmussen și David B. Resnik. „Using AI to write scholarly publications”. Accountability in Research, (2023): 5, https://doi.org/10.1080/08989621.2023.2168535.
Bibliografie
ChatGPT, accesat la data de 14 decembrie 2023. https://chat.openai.com/auth/login
Crawford, Joseph, Michael Cowling, Sally Ashton-Hay, Jo-Anne Kelder, Rebekkah Middleton și Gail S. Wilson. „Artificial Intelligence and Authorship Editor Policy: ChatGPT, Bard Bing AI, and beyond”. Journal of University Teaching & Learning Practice, (2023). https://doi.org/10.53761/1.20.5.01 .
Elsevier. „The use of generative AI and AI-assisted technologies in writing for Elsevier” în Elsevier, accesat la data de 14 decembrie 2023. https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier.
Hosseini, Mohammad, Lisa M. Rasmussen și David B. Resnik. „Using AI to write scholarly publications”. Accountability in Research, (2023). https://doi.org/10.1080/08989621.2023.2168535.
Nature. „Authorship” în Nature, accesat la data de 14 decembrie 2023. https://www.nature.com/nature/editorial-policies/authorship#:~:text=Large%20Language%20Models,of%20the%20manuscript.
Nature. „Nature Portfolio. Editorial Policies. Artificial Intelligence (AI)” în Nature, accesat la data de 14 decembrie 2023. https://www.nature.com/nature-portfolio/editorial-policies/ai.
Science. „Science Journals: Editorial Policies” în Science, accesat la data de 14 decembrie 2023. https://www.science.org/content/page/science-journals-editorial-policies.
Sursa imagine: https://unsplash.com/photos/person-using-macbook-pro-npxXWgQ33ZQ?utm_content=creditShareLink&utm_medium=referral&utm_source=unsplash, accesat la data de 14 decembrie 2023.