Avec l’avènement de l’intelligence artificielle, le plagiat a pris une forme nouvelle. Des systèmes automatisés peuvent désormais générer du contenu à la place de véritables auteurs, mettant en question la notion même de plagiat. Alors que certains peuvent voir cela comme une opportunité de faciliter la création de contenu, d’autres s’inquiètent des conséquences pour les travailleurs de l’écriture et la qualité de l’information disponible sur Internet. Dans ce contexte, il est important de réfléchir aux enjeux éthiques liés à l’utilisation de l’IA et de prendre des mesures pour protéger les droits des auteurs et garantir une utilisation responsable de l’IA. En toute transparence, nous n’avons pas rédigé ce premier paragraphe ; c’est plutôt un algorithme d’intelligence d’artificielle proposé par OpenAI nommé ChatGPT qui nous l’a proposé lorsque nous avons envoyé une requête à savoir si l’utilisation de l’intelligence artificielle constituait du plagiat sur le plan éthique (Error: Reference source not found). ChatGPT est l’agent conversationnel utilisant l’IA qui a accueilli plus d’un million d’utilisateurs en 5 jours, représentant la croissance la plus importante pour un service en ligne (Harris, 2022). Le modèle a été entrainé sur un ensemble fermé de données, qui a été enregistré avant 2021. L’analyse du paragraphe à partir de trois outils de détection de plagiat indique que le texte est original dans tous les cas (Figure 1). Pourtant, l’est-il vraiment ? Le Larousse définit le plagiat comme « [l]’acte de quelqu’un qui, dans le domaine artistique ou littéraire, donne pour sien ce qu’il a pris à l’oeuvre d’un autre ». Sans précision sur cet « autre », on peut ainsi s’interroger sur la production d’un texte par un algorithme d’IA, mais qui s’alimente des centaines de milliers de textes en ligne. N’est-ce pas là le travail même du chercheur, du moins en partie, soit de s’approprier puis reprendre dans ses mots le travail d’autrui ? La qualité des textes générés par un algorithme d’IA s’améliore rapidement à un point tel que de faux articles scientifiques, rédigés par une IA, sont déjà parvenus à berner un processus d’évaluation par les pairs (Abd-Elaal et al., 2022) et pourront aisément berner les outils de détection. À partir de combien de mots considère-t-on un extrait comme ayant été plagié ? L’expression « lumière du jour » ne semble pas poser problème ; toutefois, celle « jardin de givre » devrait, en toute honnêteté, être attribuée à Nelligan (1898). Ces réflexions sur les paramètres techniques sont incontournables dans le contexte où l’on souhaite déterminer si ce qu’une IA produit est ou non du plagiat, car cette dernière peut également reprendre des extraits de texte en ligne, possiblement même de traductions. Comme l’IA est dépourvue d’intentionnalité, ce serait plutôt l’humain qui, en ayant recours à l’IA, serait le responsable du plagiat, ou au minimum, de s’assister d’un agent conversationnel comme aide à l’écriture, ce qui pourrait être aussi vu comme du plagiat. Les règlements académiques prévoient que l’exécution par autrui, l’utilisation totale ou partielle d’un texte rédigé en le faisant passer pour sien, mais aussi le recours à toute aide non autorisée sont reconnus comme du plagiat, copiage ou fraude. Pourrait-on voir l’IA comme un assistant d’aide à l’écriture comme Antidote, ou encore comme un coauteur du texte, à l’instar, par exemple, de O’Connor et ChatGPT (2022) ? Bien qu’on puisse s’imaginer que de jeunes enfants ne peuvent pas facilement mobiliser OpenAI Playground ou ChatGPT (sites Web en anglais, création d’un compte, certains services payants), des adolescents ou de jeunes adultes, quant à eux, pourraient être tentés de le faire. Les sites OpenAI ou ChatGPT peuvent proposer des résumés des oeuvres, nous …
Parties annexes
Bibliographie
- Abd-Elaal, E.-S., Gamage, S. H. P. W., et Mills, J. E. (2022). Assisting academics to identify computer generated writing. European Journal of Engineering Education, 47(5), 725‑745. https://doi.org/10.1080/03043797.2022.2046709
- Allouche, E. (2023, 4 janvier). Sens et finalités du numérique en éducation – Hors-série : Tests et simulations d’« entretien » avec ChatGPT (Open AI). Éducation, numérique et recherche. https://edunumrech.hypotheses.org/7635?fbclid=IwAR3u9pAVDzAwVCxdBWcIr-TsaUVmy_Sk_NccRg08EfL07RO3OxdR7ZhMovA
- Alphonso, C. (2004). Student rebel beats McGill in essay fight. Globe and Mail. https://www.theglobeandmail.com/news/national/student-rebel-beats-mcgill-in-essay-fight/article992417/
- Harris, R. (2022, 23 décembre). ChatGPT gains 1 million users within 5 days. AppDeveloper. https://appdevelopermagazine.com/Chatgpt-gains-1-million-users-within-5-days/
- O’Connor, S. et ChatGPT. (2022). Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Education in Practice. DOI: 10.1016/j.nepr.2022.103537.
- Simonnot, B. (2014). Le plagiat universitaire, seulement une question d’éthique ? Questions de communication, 26, 219‑233. https://doi.org/10.4000/questionsdecommunication.9304