Résumés
Résumé
Dans cet article, nous explorerons une des facettes du phénomène de la captation de l’attention et de sa marchandisation en prenant comme exemple les assistantes personnelles virtuelles. Ces dernières seront présentées telle la personnification concrète des mécanismes abstraits de la domination capitaliste. Elles apparaîtront alors comme exemplum d’une pratique perverse du « faire attention », d’un détournement du soin (care) à des fins prédatrices. Seront mobilisées, afin d’étayer ce propos, les notions de dirty care et de phénoménologie de la proie développées par Elsa Dorlin dans Se défendre, une philosophie de la violence, ainsi que l’analyse du capitalisme numérique comme capitalisme de prédation déployé dans Techno-féodalisme, critique de l’économie numérique de Cédric Durand. Afin de bien comprendre le contexte dans lequel ces assistantes personnelles virtuelles se déploient, nous mobiliserons en amont le concept de « médiation algorithmique » à l’ère des données massives en identifiant quatre de ses modalités d’intervention dans le réel ; modalités qui s’inscrivent en tous points dans la logique du capitalisme de surveillance. Au terme de notre analyse, nous verrons que ce capitalisme de surveillance – tel qu’il se présente par le biais des assistantes personnelles virtuelles – a toutes les allures d’un capitalisme numérique « de prédation » dont la captation (voire l’appropriation) de l’attention est facilitée par le visage protecteur et attentionné par lequel il se manifeste.
Mots-clés :
- médiation algorithmique,
- assistante personnelle virtuelle,
- care,
- dirty care,
- prédation,
- capitalisme de surveillance
Abstract
In this paper, we will explore the phenomenon of attention capture and its commodification, using virtual personal assistants as an example. The latter will be presented as the concrete personification of the abstract mechanisms of capitalist domination. They will then appear as an example of a perverse practice of “taking care,” that of a diversion of care for predatory purposes. To support this statement, we will use the notions of “dirty care” and “phenomenology of the prey” developed by Elsa Dorlin in Se défendre, une philosophie de la violence, as well as the analysis of digital capitalism as predatory capitalism deployed in Techno-féodalisme, critique de l’économie numérique by Cédric Durand. To fully understand the context in which these virtual personal assistants are deployed, we will mobilize the concept of “algorithmic mediation” in the era of big data upstream by identifying four of its methods of intervention in reality; modalities that are fully in line with the logic of surveillance capitalism. At the end of our analysis, we will state that this surveillance capitalism—as it presents itself through virtual personal assistants—has all the appearances of a “predatory” digital capitalism whose capture (or even appropriation) of attention is facilitated by the protective and attentive face through which it manifests itself.
Keywords:
- algorithmic mediation,
- virtual personal assistant,
- care,
- dirty care,
- predation,
- surveillance capitalism
Parties annexes
Bibliographie
- Amazon. 2021. « Echo (4e génération) | Avec son de première qualité, concentrateur intelligent et Alexa. » https://www.amazon.ca/-/fr/echo-4th-gen/dp/B07XKF75B8/ref=sr_1_1?__mk_fr_CA=%C3%85M%C3%85%C5%BD%C3%95%C3%91&dchild=1&keywords=echo&qid=1614613673&sr=8-1. Consulté le 25 août 2022.
- Apple. 2021. « Siri en fait plus. Avant même que vous le demandiez. » https://www.apple.com/ca/fr/siri/. Consulté le 31 mars 2021.
- BBC News. 2021. « Alexa Tells 10-year-old Girl to Touch Live Plug with Penny. » 28 décembre 2021. https://www.bbc.com/news/technology-59810383. Consulté le 19 décembre 2021.
- Behavioral Design Lab. [n.d.). « The Ethical Use of Persuasive Technology. Our Lab’s View on Persuasive Technologies. » Stanford : Stanford University, n.p. https://behaviordesign.stanford.edu/ethical-use-persuasive-technology. Consulté le 26 mars 2021.
- Bosker, Bianca. 2013. « Why Siri’s Voice Is Now a Man (and a Woman). » HuffPost, 12 janvier 2013. https://www.huffingtonpost.com/2013/06/11/siri-voice-man-woman_n_3423245.html . Consulté le 31 mars 2021.
- Brouard, Benoît. 2017. « Chapitre 2. Utilisation des Big Data en santé : le cas des objets connectés. » Journal international de bioéthique et d’éthique des sciences 28 (3) : 27-20.
- Brunton Finn et Helen Nissembaum. 2015. Obsfucation, A User’s Guide for Privacy and Protest. Cambridge : MIT Press.
- Casilli, Antonio A. 2019. En attendant les robots. Enquête sur le travail du clic. Paris : Seuil.
- Casilli. Antonio A., Paola Tubaro, Clément Le Ludec, Marion Coville, Maxime Besenval et al. 2019. « Le micro-travail en France. Derrière l’automatisation, de nouvelles précarités au travail ? » Rapport de recherche. Projet de recherche DiPLab. hal-02139528. https://hal.archives-ouvertes.fr/hal-02139528/document. Consulté le 10 janvier 2022.
- Citton, Yves. 2014. Pour une écologie de l’attention. Paris : Seuil.
- Crawford, Kate. 2021. Atlas of AI. New Haven : Yale University Press.
- Dionne, Émilie et Julie Paquette. 2020. « Données massives, médiation algorithmique et savoirs à l’ère du numérique. Le rêve politique de la grippe : réflexions introductives en temps de pandémie et variations sur le thème d’un “réel” en faisance. » Global Media Journal 11 (2) : 1-17.
- Donald, Samara. 2019. Social Implications of Gendering AI. Tempe : Arizona State University.
- Dorlin, Elsa. 2005. « Dark care, de la servitude à la sollicitude. » Dans Le souci des autres. Éthique et politique du care. Sous la direction de Sandra Laugier et Patricia Paperman, 117-127. Paris : Éditions de l’EHESS (École de hautes études en sciences sociales).
- Dorlin, Elsa. 2017. Se défendre. Une philosophie de la violence. Paris : La Découverte.
- Durand, Cédric. 2020. Techno-féodalisme, critique de l’économie numérique. Paris : La Découverte.
- Ellis, Sean et Morgan Brown. 2017. Hacking Growth: How Today’s Fastest-growing Companies Drive Breakout Success. New York : Crown Business.
- Ellul, Jacques. 2014 [rééd.]. Théologie et technique, pour une éthique de la non-puissance. Genève : Labor et Fides.
- Eubanks, Virginia. 2018. Automating Inequality. New York : Macmillan.
- Fessler, Leah. 2017. « Siri, Defined Patriarchy. We Tested Bots Like Siri and Alexa to See Who Would Stand up to Sexual Harassment. » Quartz, 22 février 2012. https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/. Consulté le 10 janvier 2022.
- Foster, John Bellamy et Robert W. McChesney. 2014. « Surveillance Capitalism: Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age. » Monthly Review 66 (3) : 1-31.
- FranceInfo. 2018. « Quand un élu se fait interrompre par le Siri de son iPhone en plein parlement britannique. » FranceInfo, 4 juillet 2018. https://www.francetvinfo.fr/monde/revolte-en-syrie/video-quand-un-elu-se-fait-interrompre-par-le-siri-de-son-iphone-en-plein-parlement-britannique_2833985.html. Consulté le 30 mars 2021.
- GlobalData Technology. 2021. « Why Microsoft Custom Neural Voice Raises Ethical Concerns. » Verdict, 12 mars 2021. https://www.verdict.co.uk/microsoft-custom-neural-voice/. Consulté le 10 janvier 2022.
- Hardt, Michael et Toni Negri. 2004. Empire. Paris : 10/18.
- Kropf, Valentine. 2021. « Les chatbot en éducation. » Université Laval : Chaire de leadership en enseignement (CLE) sur les pratiques pédagogiques innovantes en contexte numérique. 7 mai 2021. https://pedagogienumerique.chaire.ulaval.ca/blogues/les-chatbots-en-education/. Consulté le 10 janvier 2022.
- Lanham, Richard A. 2006. The Economics of Attention. Chicago : The Chicago University Press.
- Löwy, Michael. 2018. Walter Benjamin : avertissement d’incendie. Paris : Éditions de l’éclat.
- Marcuse, Herbert. 1968. L’homme unidimensionnel. Paris : Minuit.
- Méda, Dominique. 2010. « Moisha Postpone. Temps, travail et domination sociale, 2009, Éditions Mille et une nuits, Paris, 587 p. » Revue française de Socio-Économie 2 (6) : 175-182.
- Microsoft. 2021. « Qu’est-ce que Cortana ? » Microsoft / Support technique. https://support.microsoft.com/fr-fr/topic/qu-est-ce-que-cortana-953e648d-5668-e017-1341-7f26f7d0f825. Consulté le 31 mars 2021.
- Monferrand, Frédéric. 2020. « Domination abstraite ? Sur quelques difficultés d’un concept critique. » Actuel Marx 67 (1) : 185-199.
- Morton, Timothy. 2013. Hyperobjects. Philosophy and Ecology after the End of the World. Minneapolis : University of Minnesota Press.
- Nass, Clifford, Youngme Moon et Nancy Green. 1997. « Are Machines Gender Neutral? Gender-stereotypic Responses to Computers with Voices. » Journal of Applied Social Psychology 27 (10) : 864-876.
- O’Neil, Cathy. 2016. Weapons of Math Destructions. New York : Crown.
- Ouellet, Maxime, Marc Ménard, Maude Bonenfant et André Mondoux. 2015. « Big Data et quantification de soi : La gouvernementalité algorithmique dans le monde numériquement administré. » Canadian Journal of Communication 40 : 597-613.
- Paquette, Julie. 2018. « De la société disciplinaire à la société algorithmique : Considérations éthiques autour de l’enjeu du Big data. » French Journal for Media Research 9 : n.p.
- Pharabod Anne-Sylvie, Véra Nikolski et Fabien Granjon. 2013. « La mise en chiffres de soi, une approche compréhensive des mesures personnelles. » Réseaux 177 (1) : 97-129.
- Postone, Moishe. 2009. Temps, travail et domination sociale. Paris : Mille et une nuits.
- Rangarajan, Sinduja. 2021. « Hey Siri—Why Don’t You Understand More People Like Me? » Mother Jones, 23 février 2021. https://www.motherjones.com/media/2021/02/digital-assistants-accents-english-race-google-siri-alexa/. Consulté le 10 janvier 2022.
- Rouvroy, Antoinette. 2015. « L’algorithme n’est “pas un système de prédiction mais d’intervention”. » Mediapart, 25 mai 2015. https://www.mediapart.fr/journal/france/250515/lalgorithme-nest-pas-un-systeme-de-prediction-mais-d-intervention?onglet=full. Consulté le 11 janvier 2022.
- Rouvroy, Antoinette et Thomas Berns. 2013. « Gouvernementalité algorithmique et perspectives d’émancipation. » Réseaux 177 (1) : 163-196.
- Sadin, Éric. 2018. L’intelligence artificielle ou l’enjeu du siècle, anatomie d’un antihumanisme radical. Paris : L’échappée.
- Specia, Megan. 2019. « Siri and Alexa Reinforce Gender Biais, U.N. Finds. » New York Times, 22 mai 2019. https://www.nytimes.com/2019/05/22/world/siri-alexa-ai-gender-bias.html. Consulté le 31 mars 2021.
- Taylor, Astra. 2014. Démocratie.com, pouvoir, culture et résistance à l’ère des géants de la Silicon Valley. Montréal : Lux.
- Thaler, Richard et Cass Sunstein. 2003. « Libertarian Paternalism. » The American Economic Review 93 (2) : 175-179.
- Thaler, Richard et Cass Sunstein. 2012. Nudge – La méthode douce pour inspirer la bonne décision. Paris : Pocket.
- UNESCO. 2020. « Je rougirais si je pouvais : réduire la fracture numérique entre les genres par l’éducation. » UNESCO: EQUALS Skills Coalition. https://fr.unesco.org/Je-rougirais-si-je-pouvais. Consulté le 10 janvier 2022.
- Université de Montréal. 2018. « Déclaration de Montréal pour un développement responsable d’une intelligence artificielle. » n.p. Montréal : Université de Montréal. https://www.declarationmontreal-iaresponsable.com/la-declaration. Consulté le 26 mars 2021.
- Veblen, Thornstein. 1978. Théorie de la classe de loisir. Paris : Gallimard.
- Véliz, Carissa. 2020. Privacy Is Power. Londres : Penguin Random House.
- Vredenburgh, Kate. 2021. « The Right to Explanation. » The Journal of Political Philosophy 0 (0) : 1-21.
- Weizenbaum, Joseph. 1966. « ELIZA – A Computer Program for the Study of Natural Language Communication between Man and Machine. » Communications of the Association for Computing Machinery 9 : 36-45.
- Williams, Alex, Nick Srnicek et Yves Citton. 2014. « Manifeste accélérationniste. » Multitudes 56 (2) : 23-35.
- Woods, Heather Suzanne. 2018. « Asking more of Siri and Alexa: Feminine Persona in Service of Surveillance Capitalism. » Critical Studies in Media Communication 35 (4) : 334-349.
- Wylie, Christopher. 2020. Mindfuck, le complot Cambridge Analytica pour s’emparer de nos cerveaux. Paris : Grasset.
- Yeung. Karen. 2016. « “Hypernudge”: Big Data as a Mode of Regulating by Design. » Information, Communication and Society 20 (1) : 1-19.
- Zuboff, Shoshanna. 2015. « Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. » Journal of Information Technology 30 (1) : 75-89.
- Zuboff, Shoshanna. 2019. The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power. New York : PublicAffairs.