Abstracts
Résumé
Sous quelles conditions peut-on utiliser les traces – écrites, visuelles, sonores et autres – disponibles en ligne comme données de recherche sans s’inquiéter du consentement des individus qui en sont à l’origine ? Cette question, centrale dans les discussions sur les enjeux éthiques de la recherche en ligne, a largement été traitée par diverses instances normatives de la recherche sous l’angle du respect de la vie privée. Mais la transposition aux contextes numériques de la distinction privé/public soulève plusieurs problèmes résultant pour la plupart de confusions d’ordre conceptuel. Cet article s’efforce d’y remédier en proposant cinq clarifications portant sur : le statut public ou privé des traces numériques en regard de leur accessibilité, la conscience de cette accessibilité par les personnes qui génèrent ces traces, la distinction entre le privé et l’intime, les liens entre visibilité et publicité des contenus, et la manière dont cette publicité peut être amplifiée par la recherche.
Mots-clés :
- privacité,
- publicité,
- visibilité,
- données,
- traces numériques,
- éthique de la recherche
Abstract
Under what conditions can the written, visual, or audio traces of online activities be used as research data without the consent of the individuals who produced them? This question, central to discussions about online research ethics, has been addressed by norm-setting bodies from the perspective of privacy. Yet the transposition of the private/public distinction to digital contexts raises several issues, mostly resulting from conceptual confusion. Attempting to clear this confusion, this article proposes five clarifications concerning the public or private status of digital traces with regard to their accessibility; the awareness of this accessibility by the people who generate these traces; the distinction between private and intimate; the links between content visibility and publicity, and the way in which publicity can be amplified by research.
Keywords:
- privacy,
- publicness,
- visibility,
- data,
- digital traces,
- research ethics
Article body
De nombreuses questions de recherche peuvent être abordées en exploitant les données secondaires disponibles en ligne, autant dans les médias sociaux que les sites web et les différents espaces numériques participatifs. Il est de plus en plus fréquent que des chercheurs, à l’insu des auteurs des contenus, colligent des données à analyser. Sur le plan éthique, on se trouve alors souvent dans des zones grises quant à savoir ce qui est privé ou public et si l’on peut utiliser les traces accessibles en ligne comme matériaux de recherche sans s’inquiéter du consentement de ceux qui en sont à l’origine.
L’un des principes fondamentaux de l’éthique de la recherche est le respect de la vie privée, ce qui explique que la frontière entre espaces publics et privés soit au coeur des règles balisant la recherche. Mais cette distinction pose problème dans certains espaces numériques où le statut privé ou public des contenus est loin d’aller de soi. Les difficultés tiennent alors en large partie à l’impossibilité de transposer aux contextes numériques la distinction privé/public comme elle se présente habituellement dans d’autres contextes, et cela même si l’on a spontanément recours à des analogies comme celle comparant un forum en ligne à une agora publique, ou une session de clavardage à une discussion intime au café. Cette transposition pose plusieurs problèmes importants et conduit à occulter des enjeux de visibilité potentiellement lourds de conséquences d’ordre éthique. Il nous semble donc nécessaire de penser l’éthique de la recherche en ligne de façon telle qu’elle soit plus en phase avec les enjeux de publicité et de visibilité des contenus. Cet article entend y contribuer en proposant cinq clarifications concernant l’accès aux traces, les attentes des personnes qui les génèrent, les contenus intimes, le degré de publicité des contenus, et la manière dont la recherche peut l’affecter.
Première clarification : l’accès ne fait pas le statut
On envisage généralement le caractère privé ou public des contenus en ligne en fonction des modalités d’accès aux espaces, des attentes des utilisateurs ou du caractère intime des contenus. Or, quand on y regarde de près, chacun de ces critères pose problème. Concernant l’accès, on considère couramment qu’une analyse de traces ne devrait pas être effectuée sans le consentement des personnes qui les ont produites dès lors que l’accès à un espace est réservé à ses « membres ». On rattache alors le caractère public ou privé des données à leur accessibilité, par analogie avec des lieux physiques « ouverts » comme la rue ou des lieux situés derrière une porte close comme la chambre à coucher. C’est alors le fait d’utiliser ou non un mot de passe qui permettrait de statuer sur le caractère privé ou public des contenus. Cela semble raisonnable, dans la mesure où l’on protège des informations privées avec des mots de passe, mais ce n’est pas pour autant la seule raison d’être des mots de passe, qui permettent aussi de contrôler l’accès à des espaces qui ne sont pas pour autant privés. En effet, l’accès est parfois restreint à ceux qui se créent un compte (protégé par mot de passe) ou font une demande pour joindre un groupe ou une plateforme, mais sans que cela suppose un filtrage des individus qui se prévaudront de cet accès. Il est donc raisonnable de considérer que les contenus n’ont rien de privé dès que n’importe qui, à tout moment, peut obtenir – et bien souvent de manière automatique – un accès pour les consulter.
Dans d’autres contextes, notamment dans certaines communautés en ligne, l’usage d’un nom d’utilisateur et d’un mot de passe vise à s’assurer que personne ne puisse se connecter sous son pseudonyme et se faire passer pour soi (Donath 1999). C’est le cas dans la communauté des contributeurs de Wikipédia, dont les contenus n’ont évidemment rien de privé, mais également dans de nombreux forums spécialisés sur des sujets comme la santé, la sexualité, etc., dont les habitués acquièrent une crédibilité et un prestige pour leur expertise. Si Wikipédia rend ses contenus accessibles sans qu’il soit nécessaire de s’identifier, d’autres sites l’exigent comme préalable à l’accès aux contenus. Le web ouvert à tous vents des années 1990, hérité des universités et des grandes agences publiques, a connu un processus de « plateformisation » (Helmond 2015) de plus en plus poussé, dont l’un des aspects est l’enclosure des espaces d’interaction par les géants du numérique. Ce qu’on appelait naguère le « cyberespace » s’est morcelé en écosystèmes numériques distincts dont l’accès est subordonné à la détention d’un compte auprès de Google, Facebook, Apple ou Microsoft, impliquant que les contenus ne sont accessibles qu’à condition de s’authentifier. Nombre de plateformes imposent des procédures d’authentification qui permettent d’établir un profil des utilisateurs au moment de leur inscription (on les oblige à devenir membres pour mieux recueillir des données les concernant) et de faire ensuite le suivi de leurs activités, le plus souvent à des fins publicitaires ou en vue de monnayer les données recueillies. Dans certains espaces, restreindre l’accès à ceux qui font au préalable une demande d’adhésion vise essentiellement à filtrer post hoc les fauteurs de trouble invétérés, ce qui devient nécessaire dans un contexte de montée des actes d’incivilité en ligne (phénomène du trolling). On adopte ainsi couramment ce genre de précaution dans des groupes Facebook qui peuvent par ailleurs comporter des dizaines de milliers de membres. Certes, les contenus ne sont accessibles qu’aux membres, mais c’est pour des raisons qui n’ont rien à voir avec la protection de leur vie privée.
Si son accès restreint ne fait pas le caractère privé d’un contenu, réciproquement on pourrait arguer que son libre accès ne saurait constituer la preuve formelle de sa publicité. Ainsi, le fait que le collectif Anonymous ait diffusé les noms et adresses de centaines de pédophiles ne confère pas pour autant un caractère public à ces données. Bref, ni la restriction ni la liberté de l’accès ne peuvent à elles seules constituer un critère fiable pour déterminer le statut privé ou public des traces numériques.
Deuxième clarification : les « attentes » en matière de privacité[2]
Une autre approche considère qu’on devrait déterminer quels espaces sont privés ou publics en se fondant sur les attentes des personnes qui les fréquentent. Si elle a le mérite de respecter le point de vue des acteurs, cette approche soulève beaucoup de difficultés quand vient le moment de l’opérationnaliser. D’abord, les perceptions et les attentes varient d’un individu à l’autre, ne serait-ce que parce que les représentations des dispositifs sont liées à la diversité des degrés et des formes d’appropriation des technologies (voir Millerand 2003). Par exemple, les utilisateurs de Facebook ont une connaissance et une maîtrise inégales de la plateforme et n’en font pas tous les mêmes usages (Latzko-Toth, Pastinelli et Gallant 2017). Or, les attentes à l’égard de la privacité des échanges sont étroitement liées aux usages de la plateforme, qui varient d’une personne à l’autre et parfois chez les mêmes personnes selon les contextes et dans le temps. Il arrive ainsi couramment que des gens réalisent après coup les conséquences possibles d’une publication, ce qui explique les retraits et les modifications.
Un argument invoqué par les partisans de cette approche fondée sur les attentes des acteurs est qu’en ligne les gens n’auraient parfois pas conscience de s’exprimer en public, alors qu’il est souvent difficile, sinon impossible de prendre la mesure de l’audience réelle. Or, plusieurs indices permettent de croire que les usagers des espaces d’interaction en ligne sont conscients que leurs interventions seront accessibles à un nombre indéterminé de personnes. En effet, dans la quasi-totalité des forums, mondes virtuels et autres espaces collectifs de discussion, on trouve en pratique deux types de canaux de communication : des canaux « publics » dont les contenus sont visibles de tous et des canaux « privés » permettant de communiquer à l’insu des autres. Dans la plupart des dispositifs (Facebook, Twitter, IRC, liste de discussion...), on peut voir la combinaison de ces modalités, alors que régulièrement des utilisateurs annoncent au su et au vu des autres leur souhait de communiquer en privé avec un autre usager.
Rappelons par ailleurs que le recours au pseudonyme, s’il vise parfois à s’assurer qu’on ne pourra être retracé hors ligne, permet aussi – et peut-être avant tout – de cloisonner les contextes (Marwick et boyd 2011 ; van der Nagel et Frith 2015). Le pseudonyme permet ainsi de s’assurer qu’un proche, un voisin ou un collègue qui tomberait un jour sur les traces qu’on laisse en ligne ne puisse savoir qu’on en est l’auteur. Il est ainsi très courant (et socialement acceptable) d’omettre dans l’autodescription figurant sur son « profil d’utilisateur » certaines informations qui rendraient l’internaute trop facilement identifiable, ou d’éviter d’y montrer son visage. Dominique Cardon (2008), caractérisant les divers modes de visibilité proposés par les plateformes en ligne, parle de « paravent » pour décrire ces interfaces encourageant un dévoilement progressif de soi à mesure que s’établit un lien de confiance entre deux usagers. Si les internautes se croyaient à l’abri des regards dans ce type d’espace que sont les forums de discussion, les groupes Facebook et autres espaces collectifs d’échange, pourquoi prendraient-ils de telles précautions ? Il semble que les usagers de ces espaces comprennent assez bien la nature publique des contenus qu’ils y déposent. Les recherches analysant les interactions au sein des communautés en ligne montrent bien que les échanges qui ont lieu en privé sont bien différents de ceux, consultables par tous, qui ont lieu dans l’espace d’échange collectif.
Bref, si la posture constructiviste qui consiste à laisser aux acteurs le soin de déterminer le statut de leurs traces est séduisante en principe, en pratique elle comporte des écueils insurmontables puisque ces caractérisations sont le plus souvent implicites, plurielles et labiles dans le temps.
Troisième clarification : le privé et l’intime
Une autre source de confusion provient de l’exposition publique de l’intime qu’on ne sait trop comment aborder, alors qu’on assimile l’intime au « privé ». Or, ce sont deux notions bien distinctes, qu’il faut éviter de confondre. L’intimité se conçoit par opposition à l’extériorité (Ricoeur 1988) ; elle est ce qui, de l’expérience ou de la subjectivité, n’est pas saisissable de l’extérieur, par autrui, et donc qui appartient en propre à la conscience individuelle. La vie privée se définit plutôt par opposition avec la vie publique, soit cette part de notre vie qui, si elle n’est pas nécessairement d’intérêt public, est portée à la connaissance de tous. Du point de vue de l’éthique de la recherche, l’opposition entre vie privée et vie publique renvoie en fin de compte au contrôle qu’exerce l’individu sur les informations le concernant. On considère comme publique une information réputée connue de tous (« de notoriété publique ») ou rendue volontairement disponible et accessible à n’importe qui (« publiée »). À l’inverse, on considère comme privée une information que l’individu demeure libre de voiler ou de dévoiler comme bon lui semble. Par nature, l’intimité relève a priori de la vie privée, mais chacun peut choisir de la rendre publique, en l’exposant à la télévision ou dans un blogue par exemple. Ainsi, le contenu de la chaîne YouTube de Khate Lessard (que le public québécois a découvert dans la téléréalité Occupation double), où elle parle de son expérience de femme trans, de sa sexualité et de son rapport à son corps, est indiscutablement très intime. Or, cette chaîne comptant plus de 45 000 abonnés et plusieurs des vidéos qui y sont diffusées ayant été vues plus de 150 000 fois, on ne saurait, pour intime qu’il soit, considérer ce contenu comme « privé ».
Quatrième clarification : visibilité et degré de publicité
Ce n’est donc pas le caractère intime des informations qui fait que celles-ci peuvent porter atteinte à la vie privée, mais bien plutôt le fait qu’elles ne sont en principe pas visibles pour tous et qu’elles le deviennent. Respecter la vie privée d’un individu, c’est respecter son droit de contrôler ce qu’il dévoile ou non aux autres. Or, lorsque les traces d’activité recueillies sur Internet sont librement accessibles, elles sont de nature publique. Les problèmes éthiques qui se posent avec celles-ci ne sont pas liés à la frontière public/privé, mais plutôt à la visibilité des contenus. C’est pour cette raison que nous avons proposé (Latzko-Toth et Pastinelli 2013) un autre cadre d’analyse que la dichotomie privé/public pour penser l’éthique de la recherche dans ce genre de contexte.
Pour clarifier les enjeux éthiques, il nous paraît d’abord essentiel de bien distinguer le consentement des personnes à participer à une recherche et le consentement de ces mêmes personnes à ce que leurs traces numériques qui sont publiques soient l’objet d’une analyse scientifique. Confondre les deux reviendrait à proscrire toute analyse de la vie sociale dans les contextes où la recherche ne nécessite aucun accès à des informations privilégiées ou privées sur les personnes. Dans le même sens, il convient de distinguer le fait de consentir à participer à une recherche et celui de se reconnaître dans l’analyse produite par un chercheur et de l’avaliser. Il existe certes des paradigmes dans lesquels le fait que les acteurs se reconnaissent dans les analyses produites constitue un critère de validité de la recherche, mais il en existe également bien d’autres dans lesquels ce n’est pas le cas et où il est même inévitable que les acteurs ne soient pas toujours prêts à se reconnaître dans les analyses produites.
Dans la mesure où il peut y avoir un décalage entre l’analyse du chercheur et le point de vue des acteurs concernés, on conçoit bien que des gens puissent ne pas désirer être l’objet de la recherche et éventuellement qu’ils protestent devant l’entreprise du chercheur. Cela dit, le respect de la vie privée et l’obligation d’obtenir le consentement libre et éclairé de ceux qui participent à la recherche n’impliquent pas, il nous semble, que le chercheur doive obtenir l’autorisation des gens pour se pencher sur ce qu’ils font et disent publiquement et dont n’importe qui, au même titre que le chercheur, peut prendre connaissance. En revanche, cela ne veut pas dire pour autant que le chercheur soit exonéré de la responsabilité de veiller au bien-être des personnes qui sont l’objet de la recherche et, surtout, de se soucier de ne pas les exposer à des déceptions ou des souffrances inutiles.
À cet égard, la question qui se pose est plutôt celle du degré de publicité des informations et de l’effet qu’est susceptible d’avoir l’intervention du chercheur sur cette publicité. À partir du moment où les pratiques qu’on observe en ligne sont pensées et assumées comme publiques, la question qui se pose est : de quelle façon ces données sont-elles publiques ? Cette publicité est-elle susceptible d’évoluer, de se transformer ou d’être altérée ? Et avec quelles conséquences ?
Si les pratiques de communication en ligne brouillent la frontière entre privé et public, c’est notamment à cause du décalage que l’on observe sur Internet entre accessibilité et visibilité des contenus. En effet, un contenu numérique peut être librement accessible et donc consultable par tous, tout en étant, en pratique, consulté par un nombre très restreint de personnes. C’est ce que Cardon (2007, 57) appelle « l’architecture étagée de la visibilité sur le Web ». On s’expose ainsi dans des espaces comme des forums de discussion en sachant bien qu’on peut être lu par n’importe qui, mais qu’il est peu probable qu’on le soit par des personnes de son entourage. Or, l’intervention du chercheur, publiant dans ses travaux des extraits issus de ce genre d’espace de discussion, peut augmenter considérablement la visibilité de traces, qui étaient jusque-là publiques mais peu visibles. Dans un tel contexte, l’intervention du chercheur peut avoir pour effet de mettre en vedette un contenu, comme si l’on braquait un projecteur dessus. Ce qui est en jeu n’est alors pas une intrusion dans la vie privée, mais plutôt une augmentation inattendue (et possiblement non désirée) de la visibilité d’un contenu, de sa notoriété potentielle et conséquemment de son degré de publicité.
Il nous apparaît en somme que la publicité des traces qui sont largement accessibles doit être comprise non dans les termes d’une dichotomie privé/public, mais plutôt dans ceux d’une gradation de leur publicité, proportionnellement à leur visibilité[3]. Différentes actions peuvent ainsi contribuer à amplifier la publicité d’un contenu. L’exemple typique est ce qui se produit quand une séquence vidéo amateur, diffusée sur YouTube, se trouve soudainement relayée de manière virale par des milliers, ou même des millions de personnes, acquérant alors une audience beaucoup plus étendue. L’idée d’une gradation de la publicité prend ici tout son sens puisque le contenu est au départ public, mais que sa publicité effective augmente considérablement. Dans ce genre de situation, le contenu partagé peut se trouver exposé d’une façon inattendue, les personnes concernées tenant pour acquis, au moment où elles ont partagé ce contenu, que celui-ci demeurerait relativement obscur et peu consulté. Dans un tel contexte, l’embarras, voire le sentiment de « viol » de l’intimité éprouvé par les individus concernés ne découle pas d’une invasion de leur vie privée, mais simplement d’une amplification de la publicité des contenus publiés. Cette amplification peut bien sûr être le fait de toutes sortes d’acteurs : internautes ordinaires, chercheurs en sciences sociales, journalistes, etc.
Cinquième clarification : ce que l’on fait des données importe plus que leur statut
La notion de degré de publicité des traces numériques nous semble cristalliser les enjeux éthiques dont devraient se soucier les chercheurs dans le traitement de données publiques recueillies sur Internet. À notre avis, la recherche reposant sur l’analyse des traces numériques requiert une attention particulière lorsque l’intervention du chercheur risque d’augmenter le degré de publicité des traces numériques, notamment à l’étape de la diffusion des résultats. Il nous paraît souhaitable d’éviter l’effet « coup de projecteur » opéré par la recherche sur des contenus qui, bien que publics, sont a priori relativement obscurs. En somme, la question n’est pas de savoir si l’on doit s’abstenir de traiter ces données, mais plutôt de quelle manière le faire pour éviter que la recherche n’ait des conséquences négatives sur les personnes qui sont à l’origine des traces et des contenus analysés.
Puisque les contenus recueillis en ligne peuvent aisément être recontextualisés au moyen d’un moteur de recherche (les textes, mais aussi de plus en plus les images), et que, de surcroît, la plupart des productions scientifiques contemporaines circulent sous forme numérique, on ne peut se contenter de masquer l’identité des acteurs en remplaçant les noms ou les pseudonymes par d’autres pseudonymes. Plutôt que de renoncer au principe de l’exemple, certains chercheurs préconisent le recours à l’exemple composite, produit en assemblant des fragments issus de plusieurs cas (Barnes 2004). Annette Markham (2012) fait ainsi valoir que lorsque les données concernent des sujets sensibles ou des personnes vulnérables, l’invention d’exemples inspirés de cas réels est une manière de préserver la sécurité des acteurs concernés. Dans d’autres cas, les chercheurs peuvent aussi retoucher la forme du texte (remplacer des mots par des synonymes, inverser des portions de phrases, etc.) ou flouter les images pour rendre les exemples plus difficiles à retracer. En résumé, différents procédés permettent d’éviter d’attirer l’attention sur les contenus et les espaces analysés. Cela dit, il convient également de prendre en compte la visibilité des véhicules de diffusion de la recherche, et de mettre en balance les conséquences éventuelles de cette médiatisation relativement aux bienfaits pouvant découler de la recherche. Il nous semble que la diversité des situations et la singularité de chaque cas appellent une réflexion éthique ad hoc de la part des chercheurs, plutôt qu’une série de règles et de principes contraignants qui ne pourront jamais prendre en compte tous les cas de figure (voir Markham 2006).
Conclusion
La réflexion développée ici vise à dépasser certaines ambiguïtés liées à la catégorisation des contenus numériques selon la dichotomie « public/privé » en dissipant certains malentendus qui concernent non seulement ces catégories, mais aussi les principes éthiques eux-mêmes, alors que, par excès de précautions, on assimile l’un à l’autre certains de ces principes. Notre démarche vise à sortir de cette confusion et à mettre en lumière la spécificité des enjeux éthiques que soulève l’usage, comme données de recherche, des traces numériques disponibles en ligne. Loin de nous l’idée que la distinction public/privé serait impraticable dans le cas d’interactions en ligne (certaines ont lieu à l’abri des regards et l’attrait grandissant pour les applications promettant l’éphémérité des messages illustre bien que le contrôle de leur diffusion est une préoccupation largement partagée). Le respect de la vie privée des personnes demeure pour nous un principe éthique fondamental. En revanche, nous espérons avoir établi que le « principe de précaution » voulant que l’on considère comme privées des traces numériques du seul fait de leur caractère intime ou parce qu’elles ont été produites dans des contextes leur conférant une faible visibilité, n’est pas fondé. Il nous semble que l’essentiel pour les chercheurs est plutôt d’être attentif à la façon dont les données sont publiques, et de s’efforcer d’atténuer les conséquences que peut avoir la transformation du degré de publicité des traces numériques pour les acteurs concernés.
À travers cette réflexion, nous avons également voulu montrer le caractère dynamique des enjeux éthiques de la recherche en ligne, puisque ceux-ci évoluent constamment avec les dispositifs et les pratiques dont ils sont l’objet. Non seulement nous ne pouvons que réaffirmer l’intérêt d’une approche située de l’éthique fondée sur la réflexivité méthodologique des chercheurs, mais il importe également de réévaluer régulièrement les lignes directrices qui servent de repères dans ces réflexions, à l’instar des générations successives de l’Énoncé de politique des trois conseils au Canada ou encore des « ethical guidelines » de l’Association of Internet Researchers.
Appendices
Notes biographiques
Guillaume Latzko-Toth est professeur titulaire au Département d’information et de communication de l’Université Laval, codirecteur du Laboratoire sur la communication et le numérique (LabCMO) et membre régulier du Centre interuniversitaire de recherche sur la science et la technologie (CIRST). Ses recherches portent sur les usages et l’histoire des médias numériques, ainsi que sur les enjeux éthiques de l’utilisation des traces numériques.
Madeleine Pastinelli est ethnologue de formation, professeure titulaire au Département de sociologie de l’Université Laval et membre régulier du Centre de recherche Cultures Arts Sociétés (CELAT) et du Laboratoire sur la communication et le numérique (LabCMO). Elle a publié plusieurs articles sur les enjeux méthodologiques et éthiques de l’enquête en contexte numérique. Elle a également publié Des souris, des hommes et des femmes au village global (Presses de l’Université Laval, 2007) et codirigé l’ouvrage S’engager en ligne (UNESCO, 2019).
Notes
-
[1]
La réflexion présentée dans ce texte reprend, actualise et prolonge plusieurs des idées que nous avons exposées dans un article publié en 2013 dans la revue tic&société (Latzko-Toth et Pastinelli 2013).
-
[2]
Caractère privé d’un espace ou d’une information, à distinguer de la « vie privée ».
-
[3]
En ce sens, « privé » et « public » ne constituent pas les deux valeurs possibles d’une notion binaire, mais bien deux notions différentes. Un contenu privé peut avoir une grande visibilité sans nécessairement changer de statut, si ce n’est « par la force des choses » s’il fait l’objet de publications multiples dans les médias d’information, par exemple.
Bibliographie
- Barnes, Susan B. 2004. « Issues of Attribution and Identification in Online Social Research. » Dans Online Social Research: Methods, Issues, and Ethics. Sous la direction de Mark D. Johns, Shing-Ling Sarina Chen et G. Jon Hall, p. 203-222. New York : Peter Lang.
- Cardon, Dominique. 2007. « Le style délibératif de la “blogosphère citoyenne”. » Hermès (47) : 51-58.
- Cardon, Dominique. 2008. « Le design de la visibilité : un essai de cartographie du web 2.0. » Réseaux (152) : 93-137.
- Donath, Judith. 1999. « Identity and Deception in the Virtual Community. » Dans Communities in Cyberspace. Sous la direction de Marc A. Smith et Peter Kollock, 29-59. Londres : Routledge.
- Helmond, Anne. 2015. « The Platformization of the Web: Making Web Data Platform Ready. » Social Media + Society 1 (2) : n.p. https://journals.sagepub.com/doi/10.1177/2056305115603080. Consulté le 9 mai 2022.
- Latzko-Toth, Guillaume et Madeleine Pastinelli. 2013. « Par-delà la dichotomie public/privé : la mise en visibilité des pratiques numériques et ses enjeux éthiques. » tic&société 2 (7) : 149-175.
- Latzko-Toth, Guillaume, Madeleine Pastinelli et Nicole Gallant. 2017. « Usages des médias sociaux et pratiques informationnelles des jeunes Québécois : le cas de Facebook pendant la grève étudiante de 2012. » Recherches sociographiques 58 (1) : 43-64.
- Markham, Annette N. 2006. « Ethic as Method, Method as Ethic: A Case for Reflexivity in Qualitative ICT Research. » Journal of Information Ethics 15 (2) : 37-54.
- Markham, Annette N. 2012. « Fabrication as Ethical Practice: Qualitative Inquiry in Ambiguous Internet Contexts. » Information, Communication & Society 15 (3) : 334-353.
- Marwick, Alice E. et danah boyd. 2011. « I Tweet Honestly, I Tweet Passionately: Twitter Users, Context Collapse, and the Imagined Audience. » New Media & Society 13 (1) : 114-133.
- Millerand, Florence. 2003. « L’appropriation du courrier électronique en tant que technologie cognitive chez les enseignants chercheurs universitaires. Vers l’émergence d’une culture numérique ? » Thèse de doctorat en communication, Université de Montréal.
- Ricoeur, Paul. 1988. Philosophie de la volonté. Finitude et culpabilité. Paris : Aubier.
- van der Nagel, Emily et Jordan Frith. 2015. « Anonymity, Pseudonymity, and the Agency of Online Identity: Examining the Social Practices of r/Gonewild. » First Monday 20 (3). Consulté le 9 mai 2022. https://journals.uic.edu/ojs/index.php/fm/article/view/5615. Consulté en juin 2022.