Résumés
Résumé
L’article se concentre sur les implications théoriques et empiriques de la coprésence d’humains et de robots sociaux au sein des espaces de sociabilité numériques. Il explore les modalités de cette coprésence en examinant deux types de situations que sont les discours médiatiques relativement au trouble occasionné par les robots et la manière dont les chercheurs des computer studies analysent cette présence en ligne. L’article montre que ces processus d’identification et de catégorisation des robots sociaux participent simultanément d’un travail de redéfinition de ce qui est le propre de l’humain. Sur cette base, il défend la thèse qu’il devient difficile d’envisager une sociologie des usages du numérique qui s’exonère de l’examen de ces entités non humaines anthropomorphes.
Mots-clés :
- Robots sociaux,
- anthropomorphisation,
- sociabilité numérique
Abstract
The article focuses on the theoretical and empirical implications of humans and social bots copresence in digital social spaces. It examines how these entities are constructed trough media narratives and computer studies researches about the trouble they cause. The article shows how social robots’ identification and categorization processes are also redefinitions of what constitute humanness. On this basis, the article defends the thesis that it becomes difficult to imagine a digital sociology that is exempt from the examination of these anthropomorphic nonhuman entities.
Keywords:
- social bots,
- anthropomorphization,
- digital sociability
Resumen
Este artículo se centra en las implicaciones teóricas y empíricas de la copresencia de humanos y robots sociales dentro de los espacios de sociabilidad digitales. Aquí se explora las modalidades de esta copresencia, examinando dos tipos de situaciones que son los discursos mediáticos en relación con el trastorno causado por los robots y la forma como los investigadores de computer studies analizan esta presencia en línea. El artículo muestra que estos procesos de identificación y categorización de los robots sociales participan simultáneamente en un trabajo de redefinición de lo que es propio del ser humano. Sobre esta base, defiende la tesis por la cual resulta difícil imaginar una sociología de los usos de lo digital que se exonera del examen de estas entidades no humanas antropomorfas.
Palabras clave:
- Robots sociales,
- antropomorfización,
- sociabilidad digital
Parties annexes
Bibliographie
- Abokhodair, N., D. Yoo et D. W. Mcdonald (2015), « Dissecting a Social Botnet : Growth, Content and Influence in Twitter », in Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing (CSCW ’15), ACM, New York, p. 839-851.
- Akinori, A. et M. Hayashi (2016), « On communication assistance via bots — towards IMDJ », inProcedia Computer Science, vol. 96, p. 1657-1665.
- Akrich, M., M. Callon et B. Latour (dir.) (2006), Sociologie de la traduction : textes fondateurs, Paris, Presses des Mines, coll. « Sciences sociales ».
- Bakardjieva, M. (2015), « Rationalizing Sociality : An Unfinished Script for Socialbots », The Information Society, vol. 3, no 3, p. 244-256.
- Barbier, R. et J. Y. Trepos (2007), « Humains et non-humains : un bilan d’étape de la sociologie des collectifs », Revue d’anthropologie des connaissances, vol. 1, no 1, p. 35-58.
- Bollmer, G. et C. Rodley (2017), « Speculation on the sociality of Socialbot », inGehl, R. W. et M. Bakardjieva (dir.), Socialbots and their friends, Londres, Routledge, p. 147-163.
- Callon, M. (1986), « Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques dans la baie de Saint-Brieuc », L’Année sociologique, vol. 36, p. 169-208.
- Cardon, D. (2008), « Le design de la visibilité. Un essai de cartographie du web 2.0 », Réseaux, vol. 6, no 52, p. 93-137.
- Chew, M. K. et M. D. Laubichler (2003), « Natural Enemies — Metaphor or Misconception ? », ScienceMag, vol. 301, p. 52-53.
- Christian, B. (2011), The most Human Human. What Talking with Computers Teaches Us About What it Means to Be Alive, New York, Doubleday.
- Chu, Z., S. Gianvecchio, H. Wang et S. Jajodia (2010), « Who is tweeting on Twitter : Human, bot, or cyborg ? », Annual Computer Security Applications Conference (ACSAC), ACM, p. 21-30.
- Cooren, F. (2010), « Ventriloquie, performativité et communication. Ou comment fait-on parler les choses », Réseaux, vol. 5, no 163, p. 33-54.
- Davis, C. A., O. Varol, E. Ferrara, A. Flammini et F. Menczer (2016), « BotOrNot : A system to evaluate social bots ». Actes de la 25th International Conference Companion on World Wide Web (p. 273-274). 2016 ArXiv : 1602.00975 [cs].
- Dickerson, J. P., V. Kagan et V. S. Subrahmanian (2014), « Using sentiment to detect bots on Twitter : Are humans more opinionated than bots ? », International Conference on Advances in Social Networks Analysis and Mining (ASONAM), IEEE/ACM, août 2014, p. 620-627.
- Ferrara, E., O. Varol, C. Davis, F. Menczer et A. Flammini (2016), « The Rise of Social Bots », Communications of the ACM, vol. 59, no 7, p. 96-104.
- Finley, K. (2013), « Twitter “joke bots” shame human sense of humor », Wired, https://www.wired.com/2013/08/humor-bots/, consulté le 3 mars 2018.
- Floridi, L. (2014), The Fourth Revolution : How the Infosphere is Reshaping Human Reality, Oxford, Oxford University Press.
- Ford, H., E. Dubois et C. Puschmann (2016), « Automation, Algorithms, and Politics. Keeping Ottawa Honest — One Tweet at a Time ? Politicians, Journalists, Wikipedians and Their Twitter Bots », International Journal of Communication, vol. 10, no 24, p. 4891-4914.
- Freitas, C., F. Benevenuto, S. Ghosh et A.Veloso (2015), « Reverse engineering socialbot infiltration strategies in twitter », inAdvances in Social Networks Analysis and Mining (ASONAM), 2015 IEEE/ACM International Conference, IEEE, p. 25-32. arXiv : 1405.4927.
- Furnas, A. et D. Gaffney (2012), « Statistical probability that Mitt Romney’s new Twitter followers are just normal users : 0 % », The Atlantic, http://www.theatlantic.com/technology/archive/2012/07/statistical-probability-that-mitt-romneys-new-twitter-followers-are-just-normal-users-0/260539/, consulté le 13 juillet 2017.
- Gehl, R. W. et M. Bakardjieva (2017) « Sociabots and Their Friends », in Gehl, R.W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 1-16.
- Giddens, A. (1984), La Constitution de la société, trad. M. Audet, Paris, PUF.
- Glassey, O. (2015), « Des communautés virtuelles au Big Data : les formes sociales des promesses des technologies de l’information », in Audétat, M. (dir.), Sciences et technologies émergentes : pourquoi tant de promesses ?, Paris, Éditions Hermann, p. 115-130.
- Graham, T. et R. Ackland (2017), « Do socialbots dream of popping the filter bubble ? The role of socialbots in promoting deliberative democracy in social media », in Gehl, R. W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 187-206.
- Granjon, F. (2011), « De quelques pathologies sociales de l’individualité numérique. Exposition de soi et autoréification sur les sites de réseaux sociaux », Réseaux, vol. 167, p. 75-103.
- Guilbeault, D. (2016), « Automation, Algorithms, and Politics| Growing Bot Security : An Ecological View of Bot Agency », International Journal of Communication, vol. 10, no 19, http://ijoc.org/index.php/ijoc/article/view/6135, consulté le 3 mars 2018.
- Hern, A. (2015), « Randomly generated tweets by bot prompts investigation by Dutch police », The Guardian, 12 février, https://www.theguardian.com/technology/2015/feb/12/randomly-generated-tweet-by-bot-investigation-dutch-police, consulté le 13 juillet 2017.
- Hingston, P. F. (dir.) (2012), Believable Bots, Natural Computing Series, Berlin, Springer.
- Hofstadter, R. et R. Douglas (dir.) (1996), « The Ineradicable Eliza Effect and Its Dangers, Epilogue », inFluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanisms of Thought, New York, Basic Books, p. 157.
- Howard, P. N. et M. R. Parks (2012), « Social Media and Political Change : Capacity, Constraint, and Consequence », Journal of Communication, vol. 62, no 2, p. 359-362.
- Hughes, T. P. (1986), « The Seamless Web : Technology, Science, Etcetera, Etcetera », Social Studies of Science, vol. 16, no 2, p. 281-292.
- Hwang, T., I. Pearce et M. Nanis (2012), « Socialbots : Voices from the fronts », Interactions, vol. 19, no 2, p. 38-45.
- Jackson, R. R. et S. D. Pollard (2007), « Bugs with backpacks deter vision-guided predation by jumping spiders », Journal of Zoology, vol. 4, no 273, p. 358-363.
- Jones, S. (2015), « How I learned to stop worrying and love the bots », Social Media + Society, vol. 1, no 1, p. 1-2.
- Kaufmann, L., R. Luque et O. Glassey (2016), « Faire être « Anonymous » : figuration et dé-figuration d’un collectif impropre », Raison publique, vol. 20, p. 145-174.
- Laird, B. et O. Schwartz (n.d.), Bot or not. http://botpoet.com, consulté le 3 mars 2018.
- Latour, B. et S. Woolgar (1988), La Vie de laboratoire. La production des faits scientifiques, Paris, La Découverte.
- Latzko-Toth, G. (2017), « The Socialization of Early Internet Bots : IRC and the Ecology of Human-Robot Interactions Online », inGehl, R. W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 47-68.
- Leonard, A. (1997), Bots : The Origin of New Species, San Francisco, Wired Books.
- Li, S. (2015), « For spambots, flattery gets you everywhere », The Atlantic, 15 janvier. https://www.theatlantic.com/technology/archive/2015/01/for-spambots-flattery-gets-you-everywhere/384665/, consulté le 3 mars 2018.
- Licoppe, C. (2010), « Les apparitions médiatisées et leurs effets performatifs. Le cas des sonneries téléphoniques et la « crise de la sommation », Réseaux, vol. 5, no 163, p. 131-162.
- Madrigal, A. (2014), « That time 2 bots were talking, and Bank of America butted in », The Atlantic, 7 juillet.
- Maréchal, N. (2016), « Automation, Algorithms, and Politics| When Bots Tweet : Toward a Normative Framework for Bots on Social Networking Sites (Feature) », International Journal of Communication, vol. 10, no 10, p. 5022-5031.
- Marra, G. (2011), « Geppetto’s army : Creating international incidents with twitter Bots », SXSW, http://lanyrd.com/2011/sxsw/scryb/, consulté le 9 février 2015.
- Martosko, D. (2013), « Barack Obama is political king of the fake Twitter followers, with more than 19.5 MILLION online fans who don’t really exist », Mail Online, 24 septembre.
- Massanari, A. (2017), « Contested Play : The Culture and Politics of Reddit Bots », inGehl, R. W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 111-127.
- Mcmillan, R. (2012), « Twitter bots fight it out to see who’s the most human », Wired [Magazine], 7 novembre. https://www.wired.com/2012/11/twitterbots/, consulté le 3 mars 2018.
- Metz, R. (2016), « Why Microsoft Accidentally Unleashed a Neo-Nazi Sexbot », MIT Technology Review, 24 mars, https://www.technologyreview.com/s/601111/why-microsoft-accidentally-unleashed-a-neo-nazi-sexbot/, consulté le 10 juillet 2017.
- Middlebrook, S. T. et J. Muller (2000), « Thoughts on Bots : The Emerging Law of Electronic Agents », The Business Lawyer, vol. 56, no 1, p. 341-373.
- Mitter, S., C. Wagner et M. Strohmaier (2014), Understanding the impact of socialbot attacks in online social networks. arXiv Preprint arXiv : 1402.6289.
- Morozov, E. (2012), « Muzzled by the bots », Slate, 26 octobre, http://www.slate.com/articles/technology/future_tense/2012/10/disintermediation_we_aren_t_seeing_fewer_gatekeepers_we_re_seeing_more.html, consulté le 3 mars 2018.
- Muhle, F. (2017), « Embodied Conversational Agents as Social Actors ? », inGehl, R. W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 86-109.
- Murthy, D., A. Powell, R. Tinati, N. Anstead, L. Carr, S. Halford et M. Weal (2016), « Automation, Algorithms, and Politics. Bots and Political Influence : A Sociotechnical Investigation of Social Network Capital », International Journal of Communication, vol. 10, no 20, p. 4882-4890.
- Neff, G. et P. Nagy (2016), « Automation, Algorithms, and Politics| Talking to Bots : Symbiotic Agency and the Case of Tay », International Journal of Communication, vol. 10, no 17, p. 4915-4931.
- Qiu, X., D. F. M. Oliveira, A. S. Shirazi, A. Flammini et F. Menczer (2017), « Limited individual attention and online virality of low-quality information », Nature Human Behaviour, vol. 1, no 132, p. 1-7.
- Searle, J. R. (1980), « Minds, Brains and programs », The Behavioral and Brain Sciences, vol. 3, Cambridge University Press, 1980, traduction française : Searle, J. R. (1987) « Esprits, cerveaux et programmes », in D. Hofstadter et D. Dennett, Vues de l’esprit, Paris, Interéditions, p. 354-373.
- Seward, Z. (2014), « Twitter admits that as many as 23 millions of its active users are automated », Quartz, 11 août.
- Stein, T., E. Chen et K. Mangla (2011), « Facebook immune system », inWorkshop on Social Network Systems (SNS), ACM.
- Subrahmanian, V. S. etal. (2016), « The DARPA Twitter Bot Challenge », Computer [IEEE], vol. 49, no 6, p. 38-46.
- Tassin, J. et C. A. Kull (2012), « Pour une autre représentation métaphorique des invasions biologiques », inNatures Sciences Sociétés, vol. 20, p. 404-414.
- Tsvetkova, M., R. García-Gavilanes, L. Floridi et T. Yasseri (2017), « Even good bots fight : the case of Wikipedia », PLoS ONE, vol. 12, no 2, p. 1-13.
- Turing, A. (1950), « Computing Machinery and Intelligence », Mind, vol. 59, no 236, p. 433-460.
- Varol, O., E. Ferrara, C. A. Davis, F. Menczer et A. Flammini (2017), « Online Human-Bot Interactions : Detection, Estimation, and Characterization Computer Science, Eleventh International AAAI Conference on Web and Social Media, Montréal, 15-18 mai.
- Voirol, O. (2008), « Pluralité culturelle et démocratie chez John Dewey », Hermès, La Revue, 51(2), p. 23-28.
- Wang, A. H. (2010), « Detecting spam bots in online social networking sites : A machine learning approach », Conference on Dta and Applications Security and Privacy, ACM, p. 335-342.
- Weil, P. (2017), « The Blurring Test », inGehl, R. W. et M. Bakardjieva (dir.), Socialbots and Their Friends, Londres, Routledge, p. 19-46.
- Weizenbaum, J. (1966), « Eliza – a computer program for the study of natural language communication between man and machine », in Communication of the ACM, vol. 9, no 1, p. 36-45.
- Woolley, S. C. et P. N. Howard (2017), « Computational Propaganda Worldwide : Executive Summary », Working Paper n° 2017.11, University of Oxford, http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Casestudies-ExecutiveSummary.pdf, consulté le 3 mars 2018.