Abstracts
Résumé
Le déploiement aujourd’hui de modèles sémantiques automatisés tels le BERT de Google ou le GPT-3 d’OpenAI se montre comme un remarquable défi pour l’inscription de l’herméneutique au coeur même du projet des sciences sociales. L’intelligence artificielle est bel et bien à la conquête du langage. Cela implique d’abord qu’il faille prendre au sérieux les possibilités et la puissance de tels modèles, en se penchant sur l’histoire récente des avancées technologiques en apprentissage profond et les modi operandi de ces machines interprétantes. Cela implique ensuite de s’attarder au type de compréhension mis en jeu, à savoir principalement comment le calcul de probabilité, de variation et de seuil par exemple vient vectoriser le langage pour le restituer à la manière d’un perroquet. Larticle aborde le renvoi par Google de la chercheure Timnit Gebru suivant la parution de « On the Danger of Stochastic Parrots » pour montrer comment la valeur du traitement automatisé du langage tient tant au monde qu’il met de l’avant qu’à sa référence à un contexte précis. Cela, enfin, doit permettre de circonscrire les apories économiques, politiques et éthiques autour de ces modèles, notamment le fait que les plateformes les développant font l’impasse sur la manière dont ils procèdent par extraction et instrumentalisation du sens. À terme, c’est ce lien étroit entre signification et déplacement des centres de pouvoir qui devient l’enjeu central des Critical AI Studies.
Mots-clés :
- Critical AI Studies,
- traitement automatique du langage naturel,
- GPT-3,
- BERT,
- Timnit Gebru,
- économie politique la signification
Abstract
The deployment of automated semantic models, such as Google’s BERT or OpenAI’s GPT-3, poses a serious challenge to hermeneutics and its centrality to the social sciences. Artificial intelligence is indeed conquering language. The technological advances associated with deep learning and the modi operandi of interpreting machines force us to seriously consider the possibilities and power of such models. More understanding is needed about the type of automated “comprehension” advanced by these models and how their calculations of probability, variation and threshold, for example, can vector language and render it as a form of “parroting.” In this paper and to this end, we examine Google’s dismissal of the researcher Timnit Gebru following the publication of “On the Danger of Stochastic Parrots,” to demonstrate how the value of automated language processing stems as much from the world it puts forward as from its reference to a specific context. Finally, this should allow us to circumscribe the economic, political and ethical aporias around these models, including the fact that the platforms developing them fail to consider the way in which they proceed by extracting and instrumentalizing meaning. In essence, it is the intimate relationship between meaning and the displacement of centres of power that is fundamental to Critical AI Studies and their evolution.
Keywords:
- Critical AI Studies,
- automatic natural language processing,
- GPT-3,
- BERT,
- Timnit Gebru,
- political economy of meaning
Resumen
El despliegue actual de modelos semánticos automatizados como el BERT de Google o el GPT-3 de OpenAI, está demostrando ser un desafío notable para la inscripción de la hermenéutica en el corazón mismo del proyecto de las ciencias sociales. De hecho, la inteligencia artificial va a la conquista de la lengua. Esto implica, en primer lugar, que sea necesario tomar en serio todas las posibilidades y el poder de tales modelos, es decir, lo que es particularmente la historia reciente de los avances tecnológicos en el aprendizaje profundo y el modus operandi de estas máquinas interpretadoras –la lectura bidireccional y los “transformadores”, en particular. Esto implica entender mejor el tipo de comprensión que está en juego, a saber, principalmente, cómo el cálculo de probabilidades, de variación y de umbral, por ejemplo, vienen a vectorizar el lenguaje para restituirlo a la manera de un loro. El artículo toma nota del caso de la referencia de Google, de la investigadora Timnit Gebru, autora del texto “On the Danger of Stochastic Parrots” (El peligro de los loros estocásticos), para mostrar cómo se encuentra el valor del procesamiento automatizado del lenguaje en el mundo que presenta, así como su referencia a un contexto específico. Esto, por último, debe permitir circunscribir las aporías económicas, políticas e incluso éticas en torno a estos modelos y, entre otros, el hecho de que las plataformas que las desarrollan ignoran la forma en que proceden mediante la extracción, mercantilización e instrumentalización del significado. En última instancia, es este estrecho vínculo entre el significado y el desplazamiento de los centros de poder lo que deviene el tema central de los Critical AI Studies (Estudios críticos de IA) y su futuro desarrollo.
Palabras clave:
- Critical AI Studies,
- procesamiento automático del lenguaje natural,
- GPT-3,
- BERT,
- Timnit Gebru,
- economía política del significado
Appendices
Bibliographie
- Amoore, L. (2019), « Doubt and the Algorithm : On the Partial Accounts of Machine Learning », Theory, Culture & Society, vol. 36, n° 6, p. 147-169.
- Andersen, J. (2020), « Understanding and Interpreting Algorithms : toward a Hermeneutics of Algortihms », Media, Culture & Society, vol. 42, n° 7-8, p. 1479-1494.
- Balpe, J.-P. (1991), « Macro-structures et micro-univers dans la génération automatique de textes à orientation littéraire », inMagné, B. et Balpe, J.-P. (dir.), L’imagination informatique de la littérature, Paris, Presses universitaires de Vincennes, p. 128-149.
- Bender, E. M., T. Gebru, A. McMillan-Majoret al. (2021), « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610-623.
- Bender, E. M. et A. Koller (2020), « Climbing towards NLU : On meaning, form, and understanding in the age of data », Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, p. 5185-5198.
- Bhardwaj, R., N. Majumder et S. Poria (2021), « Investigating gender bias in BERT », Cognitive Computation, p. 1-11.
- Bijker, W. (1995), Of Bicycles, Bakelites and Bulbs, Cambridge (MA), MIT Press.
- Biran, O. et C. V. Cotton (2017), « Explanation and justification in machine learning : A survey », IJCAI-17 Workshop on Explainable AI (XAI).
- Birch, K. et F. Muniesa (dir.) (2020), Assetization: Turning Things into Assets in Technoscientific Capitalism, Cambridge, MIT Press.
- Brown, T. B., B. Mann, N. Ryderet al. (2020), « Language models are few-shot learners », arXiv preprint, p. 1-75.
- Buchanan, B. G. (2005), « A (very) brief history of artificial intelligence », AI Magazine, vol. 26, n° 4, p. 53-60.
- Campolo, A. et K. Crawford (2020), « Enchanted determinism : Power without responsibility in artificial intelligence », Engaging Science, Technology, and Society, vol. 6, p. 1-19.
- Cardon, D., J. P.Cointet et A. Mazières (2018), « La revanche des neurones », Reśeaux, n° 5, p. 173-220.
- Crandall, J. (2010), « The Geospatialization of Calculative Operations : Tracking, Sensing and Megacities », Theory, Culture & Society, vol. 27, n° 6, p. 68-90.
- Crawford, K. (2021), The Atlas of AI, New Haven, Yale University Press.
- Cusin-Berche, F. (2003), Les mots et leurs contextes, Paris, Presses Sorbonne Nouvelle.
- Devlin, J., M.-W. Chang, K. Leeet al. (2018), « Bert : Pre-training of deep bidirectional transformers for language understanding », arXiv preprint, p. 1-16.
- Devlin, J. et M.-W. Chang (2018), « Open Sourcing BERT : State-of-the-Art Pre-training for Natural Language Processing » [en ligne], https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html, consulté le 15 juin 2021.
- Dietterich, T.-G. (2019), « What does it mean for a machine to “understand” ? » [en ligne], https://medium.com/@tdietterich/what-does-it-mean-for-a-machine-to-understand-555485f3ad40, consulté le 21 juillet 2021.
- Domingos, P. (2015), The Master Algorithm : How the Quest for the Ultimate Learning Machine Will Remake Our World, New York, Basic Books.
- Elish, M. C. et D. Boyd (2018), « Situating methods in the magic of Big Data and AI », Communication Monographs, vol. 85, n° 1, p. 57-80.
- Floridi, L. et M. Chiriatti (2020), « GPT-3 : Its nature, scope, limits, and consequences », Minds and Machines, vol. 30, n° 4, p. 681-694.
- Gadamer, H.-G. (1996 [1960]), Vérité et méthode. Les grandes lignes d’une herméneutique philosophique, Paris, Seuil.
- Gilpin, L. H., D. Bau, B. Z. Yuan, A. Baiwa, M. Specter et L. Kagal (2018), « Explaining explanations : An overview of interpretability of machine learning », 2018 IEEE 5th International Conference on Data Science and Advanced Analytics (DSAA), p. 80-89.
- Hanna, A. et M. Whittaker (2020), « Timnit Gebru’s Exit From Google Exposes a Crisis in AI », Wired [en ligne], https://www.wired.com/story/timnit-gebru-exit-google-exposes-crisis-in-ai/#:~:text=Google’s%20appalling%20treatment%20of%20Gebru,IBM%2C%20and%20yes%2C%20Google, consulté le 27 octobre 2022.
- Hao, K. (2020), « We read the paper that forced Timnit Gebru out of Google. Here’s what it says », MITTechnology Review [en ligne], www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/, consulté le 19 juillet 2021.
- Heaven, W. D. (2020), « OpenAI’s new Language Generator GPT-3 is shockingly good — and completely mindless », MIT Technological Review [en ligne], https://www.technologyreview.com/2020/07/20/1005454/openai-machine-learning-language-generator-gpt-3-nlp/, consulté le 27 octobre 2022.
- Helmond, A. (2015), « The Platformization of the Web : Making Web Data Platform Ready », Social Media + Society, vol. 1, n° 2, p. 1-11.
- Holton, R. et R. Boyd (2019), « “Where are the people ? What are they doing ? Why are they doing it ?” (Mindell) Situating artificial intelligence within a socio-technical framework », Journal of Sociology, vol. 7, n° 2, p. 179-195.
- Hongladorom, S. (2020), « Machine hermeneutics, postphenomenology, and facial recognition technology », AI & Society, p. 1-8.
- Horn, F. (2017), « Context encoders as a simple but powerful extension of word2vec », arXiv preprint, p. 1-5.
- Horowitz, M. C. (2018), « Artificial intelligence, international competition, and the balance of power », Texas National Security Review, p. 1-22.
- Hutchinson, B., V. Prabhakaran, E. Dentonet al. (2020), « Social biases in NLP models as barriers for persons with disabilities », arXiv preprint, p. 1-5.
- Janakiram, M. (2017), « How Google Turned Open Source Into A Key Differentiator For Its Cloud Platform », Forbes [en ligne], www.forbes.com/sites/janakirammsv/2017/07/09/how-google-turned-open-source-into-a-key-differentiator-for-its-cloud-platform/?sh=7a52302e646f, consulté le 15 juin 2021.
- Jobin, A., M. Ienca et E. Vayena (2019), « The global landscape of AI ethics guidelines », Nature Machine Intelligence, vol. 1, n° 9, p. 389-399.
- Keller, F. B., D. Schoch, S. Stier et J. Yang (2020), « Political Astroturfing on Twitter : How to Coordinate a Disinformation Campaign », Political Communication, vol. 37, n° 2, p. 256-280.
- Kilkenny, M. F. Et Robinson, K. M. (2018), « Data quality : “Garbage in—garbage out” », Health Information Management Journal, vol. 47, n° 3, p. 103-115.
- Kovic, M., A. Rauchfleisch, M. Sele et al. (2018), « Digital astroturfing in politics : Definition, typology, and countermeasures », Studies in Communication Sciences, vol. 18, n° 1, p. 69-85.
- Lebrun, T. (2018), « L’apprentissage machine est une appropriation », Les Cahiers de propriété intellectuelle, vol. 30, n° 3, 2018, p. 895-924.
- Lemoine, B. (2021, 17 mai), « The History of Ethical AI at Google », [en ligne], https://cajundiscordian.medium.com/the-history-of-ethical-ai-at-google-d2f997985233, consulté le 21 juillet 2021.
- Levy, S. (2021), « Prabhakar Raghavan Isn’t CEO of Google—He Just Runs the Place », Wired [en ligne], www.wired.com/story/prabhakar-raghavan-isnt-ceo-of-google-he-just-runs-the-place/, consulté le 15 juin 2021.
- Lipton, Z. C. (2016), « The mythos of model interpretability », 2016 ICML Workshop on Human Interpretability in Machine Learning, p. 1-9.
- Marcus, G. et E. Davis (2020), « GPT-3, Bloviator : OpenAI’s Langage Generator has no idea what it’s talking about », MIT Technology Review [en ligne], www.technologyreview.com/2020/08/22/1007539/gpt3-openai-language-generator-artificial-intelligence-ai-opinion/, consulté le 21 juillet 2021.
- Marcus, G. et E. Davis (2019a), « If computers are so smart, how come they can’t read ? », Wired [en ligne], www.wired.com/story/adaptation-if-computers-are-so-smart-how-come-they-cant-read/, consulté le 21 juillet 2021.
- Marcus, G. et E. Davis (2019b), Rebooting AI : Building artificial intelligence we can trust, New York, Vintage.
- Mikolov, T., K. Chen, G. Corrado et al. (2013), « Efficient estimation of word representations in vector space », Proceedings of Workshop at ICLR, p. 1-12.
- Miller, T. (2019), « Explanation in artificial intelligence : Insights from the social sciences », Artificial Intelligence, vol. 267, p. 1-38.
- Mittelstadt, B. (2019), « Principles alone cannot guarantee ethical AI », Nature Machine Intelligence, vol. 1, p. 501-507.
- Mittelstadt, B., C. Russell et S. Wachter (2019), « Explaining explanations in AI », Proceedings of the conference on fairness, accountability, and transparency, p. 279-288.
- Moore, H. (1990), « Paul Ricoeur : Action, Meaning and Text », in C. Tilley (dir.), Reading Material Culture. Structuralism, Hermeneutics and Post-Structuralism, Oxford, Basil Blackwell.
- National Intelligence Council (2021), Global Trends 2040 : A More Contested World [en ligne], https://www.dni.gov/files/ODNI/documents/assessments/GlobalTrends_2040.pdf, consulté le 27 octobre 2022.
- Nayak, P. (2019, 25 octobre), « Understanding searches better than ever before » [en ligne], https://blog.google/products/search/search-language-understanding-bert/, consulté le 4 juin 2021.
- Noble, S. U. (2018), Algorithms of oppression : How search engines reinforce racism, New York, NYU Press.
- Pasquinelli, M. et V. Joler (2020), « The Nooscope manifested : AI as instrument of knowledge extractivism », AI and Society, no 36, p. 1263-1280.
- Pavlus, J. (2019), « Machines Beat Humans on a Reading Test. But Do They Understand ? » [en ligne], www.quantamagazine.org/machines-beat-humans-on-a-reading-test-but-do-they-understand-20191017/, consulté le 21 juillet 2021.
- Peters, M. E., M. Neumann, M. Iyyer et al. (2018), « Deep contextualized word representations », arXiv preprint, p. 1-15.
- Ricoeur, P. (1984), Temps et récit. La configuration dans le récit de fiction, Tome II, Paris, Seuil.
- Ricoeur, P. (1986), Du texte à l’action. Essais d’herméneutique II, Paris, Seuil.
- Ricoeur, P. (1989), « L’homme comme sujet de philosophie », Anzeiger der philosophische-historische Klasse der Österreichischen Akademie der Wissenschaften, n° 126, p. 73-86.
- Ricoeur, P. (1960a), « L’antinomie humaine et le problème de l’anthropologie philosophique », Il Pensiero, vol. 5, n° 3, p. 283-290.
- Ricoeur, P. (1960b), L’homme faillible, Paris, Aubier.
- Ricoeur, P. (1977), « Phenomenology and the Social Sciences », The Annals of Phenomenological Sociology, n° 2, p. 145-159.
- Ricoeur, P. (1991), « L’herméneutique et les sciences sociales », in P. Amselek (dir.), Théorie du droit et science, Paris, Presses universitaires de France, p. 15-25.
- Roberge, J. (2008), Paul Ricoeur, la culture et les sciences humaines, Québec, Presses de l’Université Laval, coll. « Sociologie contemporaine ».
- Roberge, J. (2011), « What is Critical Hermeneutics ? », Thesis Eleven, vol. 106, no 1, p. 5-22.
- Roberge, J. et M. Castelle (2020), « Toward an End-to-End Sociology of 21st-Century Machine Learning », in Cultural Life of Machine Learning, New York, Palgrave McMillan, p. 1-29.
- Roberge, J., M. Senneville et M. Morin (2020), « How to Translate Artificial Intelligence ? Myths and Justifications in Public Discourse », Big Data and Society, vol. 7, no 1, [en ligne], https://journals.sagepub.com/doi/full/10.1177/2053951720919968, consulté le 27 octobre 2022.
- Romele, A., M. Severo, P. Furia (2020), « Digital hermeneutics : from interpreting with machines to interpretational machines », AI & Society, vol. 35, p. 73-86.
- Ruder, S. (2018), « NLP’s ImageNet moment has arrived » [en ligne], https://ruder.io/nlp-imagenet/, consulté le 19 juillet 2021.
- Schwartz, R. D. (1989), « Artificial intelligence as a sociological phenomenon », The Canadian Journal of Sociology/Cahiers canadiens de sociologie, vol. 14, n° 2, p. 179-202.
- Schwartz, H. A. et D. Hovy (2019), « Predictive biases in natural language processing models : A conceptual framework and overview », arXiv preprint arXiv : 1912.11078.
- Scott, K. (2020, 22 septembre), « Microsoft teams up with OpenAI to exclusively license GPT-3 language model », Official Microsoft Blog [en ligne], https://blogs.microsoft.com/blog/2020/09/22/microsoft-teams-up-with-openai-to-exclusively-license-gpt-3-language-model/, consulté le 4 juin 2021.
- Shaev, Y. (2019), « Machine Learning and the Problem of the Hermeneutic Gap », 2019 IEEE 2nd International Conference on Information and Computer Technologies (ICICT), Kahului, HI, USA, p. 41-45, [en ligne], https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8711093, consulté le 30 janvier 2023
- Simonite, T. (2021), « What Really Happened When Google Ousted Timnit Gebru », Wired [en ligne], www.wired.com/story/google-timnit-gebru-ai-what-really-happened/, consulté le 21 juillet 2021.
- Simonite, T. (2021), « It Began as an AI-Fueled Dungeon Game. It Got Much Darker », Wired [en ligne],www.wired.com/story/ai-fueled-dungeon-game-got-much-darker/, consulté le 4 juin 2021.
- Simonite, T. (2017), « AI and “Enormous Data” Could Make Tech Giants Harder to Topple », Wired [en ligne], www.wired.com/story/ai-and-enormous-data-could-make-tech-giants-harder-to-topple/, consulté le 21 juillet 2021.
- Srnicek, N. (2017), Platform Capitalism, Londres, Polity.
- Stilgoe, J. (2018), « Machine learning, social learning and the governance of self-driving cars », Social Studies of Science, vol. 48, n° 1, p. 25-56.
- Sutskever, I., O. Vinyals et Q. Le (2014), « Sequence to sequence learning with neural networks », arXiv preprint, p. 1-9.
- Thibout, C. (2019), « La compétition mondiale de l’intelligence artificielle », Pouvoirs, n° 3, p. 131-142.
- VanDijck, J. (2014), « Datafication, dataism and dataveillance : Big Data between scientific paradigm and ideology », Surveillance & Society, vol. 12, n° 2, p. 197-208.
- Vaswani, A., N. Shazeer, N. Parmar et al. (2017), « Attention is all you need », arXiv preprint, p. 1-5.
- Vincent, J. (2021), « Google is poisoning its reputation with AI researchers », The Verge [en ligne], www.theverge.com/2021/4/13/22370158/google-ai-ethics-timnit-gebru-margaret-mitchell-firing-reputation, consulté le 20 juillet 2021.
- Vinyals, O. et Q. Le (2015), « A neural conversational model », arXiv preprint, p. 1-8.
- Wagner, B. (2018), « Ethics as an Escape from Regulation : From Ethics-Washing to Ethics- Shopping ? », in M. Hildebrandt (dir.), Being Profiling. Cogitas Ergo Sum, Amsterdam, Amsterdam University Press, p. 1-7.
- Wakabayashi, D. (2020), « Google Chief Apologizes for A.I. Researcher’s Dismissal », TheNew York Times [en ligne], www.nytimes.com/2020/12/09/technology/timnit-gebru-google-pichai.html, consulté le 19 juillet 2021.
- Woolgar, S. (1985), « Why not a sociology of machines ? The case of sociology and artificial intelligence », Sociology, vol. 19, n° 4, p. 557-572.
- Zhang, J., D. Carpenter et M. Ko (2013), « Online astroturfing : A theoretical perspective », Proceedings of the Nineteenth Americas Conference on Information Systems, p. 1-7.