Corps de l’article
« Nous ne faisons que nous entregloser », disait Montaigne, il y a fort longtemps. La culture a toujours été fondée sur la répétition. La transmission repose sur la reprise des paroles et des gestes. Et les pratiques dites artistiques, même si elles ont très tôt été portées par le mythe de la création, ont toujours été elles aussi fondées sur la répétition. Le classicisme s’est défini par l’imitation des Anciens, par la reprise de motifs et de formes, qui furent canonisés par le fait même de cette imitation. L’art moderne a centralisé le pastiche et la parodie, les avant-gardes et les néo-avant-gardes ont cultivé le collage, le photomontage, le ready-made, le found footage, etc. L’art dit postmoderne a pratiqué l’appropriation, la rephotographie, le remake, le remploi, le cinéma d’exposition, etc. (Sur tout cela, il faut relire Bakhtine, Kristeva, Compagnon, Genette, Buchloh, etc.).
De même, la pratique musicale n’a cessé de développer des régimes de répétition : dans la formation et dans la composition bien sûr, mais aussi dans la transcription et l’arrangement, dans l’interprétation et l’exécution. L’arrangeur, comme l’interprète, c’est celui qui fait entendre son écoute de l’oeuvre en répétant l’oeuvre en musique – et, par ce geste, il fait entendre la plasticité interne du matériau, il l’ouvre immédiatement sur l’altération et l’altérité[1]. Chaque fois, les notes sont dotées d’un nouveau poids, elles sont portées vers de nouveaux registres où elles gagnent en pesanteur ou en légèreté, elles se diffractent suivant une nouvelle orchestration[2]. Et jusqu’au 19e siècle, la tradition musicale a laissé libres ces remontages et ces remixages. Ce sont les notions modernes d’auteur et d’oeuvre qui vont les contenir, notamment par l’extension du droit d’auteur et de propriété[3]. Évidemment, la reproduction technique du son a transformé cette pratique musicale. Gagnant un caractère tangible par l’enregistrement, les morceaux de musique devenaient eux-mêmes de nouveaux objets musicaux pouvant être soumis à toutes les manipulations – et surtout à ces premières manipulations, essentielles au remixage contemporain, qui consistent à rassembler ces objets, à les collectionner, à repérer leurs qualités sonores et à les cataloguer (plutôt que de rassembler des instruments et des partitions). Devenant un objet matériel portable, la musique accroissait son pouvoir de circulation et d’échange, qui allait lui permettre de franchir les frontières géographiques, culturelles et artistiques – inscrivant le geste de remixage dans un rapport tendu avec la mondialisation[4]. Et la reproduction technique du son allait donner à la répétition un nouveau champ d’action en musique : on ne répèterait plus seulement l’oeuvre, mais aussi la performance ; non seulement la performance, mais aussi la sonorité de ses techniques et de ses contextes ; alors même que le morceau de musique enregistré se voyait décomposé dans ses plus petits éléments désormais soumis à toutes les variations paramétriques – le remixage y trouve encore aujourd’hui l’étendue de son pouvoir musical (chaque seconde du matériau musical pouvant être soumis à 65 536 altérations) et historique (rejouer et relier des époques de l’expression musicale : non pas tellement des oeuvres, mais des qualités musicales – textures, factures, motifs rythmiques, etc. – cataloguées sous des rubriques variées – titres, interprètes, labels, etc.[5]). C’est sans doute cette exploration et cette épreuve esthétiques et poétiques de la reproduction technique du son qui permettent au remixage de retracer et d’étendre des fractures que le montage avait déjà inscrites dans la musique et son écoute : caractérisation du matériau musical, de la constitution de figures à la structuration de séquences en passant par la citation de formes entières; refus de faire du matériau une entité homogène et globale, mais le transformer en réservoir pluriel duquel on peut extraire des facteurs de variation de la forme ou de la composition ; pression sur le temps musical, soumis à des superpositions de valeurs, à des changements de mesure ou de tempo, à des cassures du développement harmonique, etc.[6] Et si remixer en musique semble d’abord et avant tout un geste temporalisé et temporalisant, c’est sans doute qu’il trouve l’une de ses « origines », comme le rappelle Élie During, dans cette très particulière nécessité « pratique » (dans tous les sens du terme) : pour le plaisir d’une communauté circonstancielle de danseurs, faire durer le plus possible la musique en ré-enchaînant, grâce à deux tourne-disques, ses versions légèrement différentes (face A ; face B) ; replier la musique sur elle-même pour l’étirer sur la durée indéfinie d’un partage.
Enfin, la culture de masse – comme le cinéma et la musique populaire – a toujours été structurée par la reprise des formules à succès et par les genres, qui supposent la reproduction de figures, de formes et de structures. Ces pratiques ont souvent été conditionnées par l’apparition de certaines technologies (dont les propriétés vont bien au-delà de la simple « reproductibilité technique ») : l’imprimerie et la gravure, la presse illustrée et la photographie argentique, l’enregistrement sonore et le cinéma, l’enregistrement magnétique et la télédiffusion, etc.
Mais les technologies numériques – et notamment le développement de logiciels de compositing, de montage et de mixage, le déploiement du Web, qui est à la fois une archive infinie et un réseau social illimité, et leur démocratisation – ont multiplié les possibilités de production, de reproduction et de manipulation des données, les capacités de stockage et la circulation des textes, des images et des sons. Elles ont ainsi favorisé l’éclosion de nouvelles pratiques esthétiques, fondées sur le remontage et le remixage – comme le sampling, le shuffle, le remix, le mashup, le machinima, la fan fiction, le fan film, le VJing, le modding –, sur lesquelles les auteurs vont revenir ici.
N’importe qui peut aujourd’hui faire voir son regard, faire entendre ses écoutes flottantes. Nouvelle époque du regard et de l’écoute, qui est aussi une nouvelle responsabilité : ils ne répondent plus uniquement à des lois internes à l’oeuvre ; ce sont un regard et une écoute opératoires, qui font de tout spectateur un DJ ou un VJ potentiel.
Ces technologies et ces pratiques entraînent un brouillage des frontières entre les producteurs et les consommateurs : la création et la diffusion des « contenus » (l’information, le savoir, la culture, etc.) ne sont plus réservées aux professionnels, mais elles sont ouvertes aux amateurs de toutes sortes. Elles mettent en question le modèle communicationnel dominant, qui est monologique [monologic] et unidirectionnel, pour imposer un modèle dialogique [dialogic] et multidirectionnel fondé sur l’échange et le partage [sharing], sur la participation et la collaboration, dans de vastes communautés – ce que Jenkins a nommé la « participatory culture ». Comme l’écrit Jenkins : « the audience is dead[7] » et « if [content] doesn’t spread, it’s dead[8] ».
Cette culture participative est complexe et variée. Mais elle est animée par quelques principes récurrents : elle suppose souvent une participation libre et ouverte (tout le monde peut créer, informer, éduquer, etc.), une structure non hiérarchique et décentralisée (tous les participants sont égaux, du moins a priori), une transformation incessante (les contenus et les règles sont élaborés et modifiés en temps réel), une propriété commune et surtout publique (les résultats appartiennent à tout le monde, c’est-à-dire à personne), et une gestion et un mode d’évaluation communautaire (la légitimation passe par la délibération, le vote ou le consensus). Mais, paradoxalement, si cette culture participative peut parfois sembler mettre ainsi en question les notions traditionnelles d’auteur et d’oeuvre fermée, elle continue néanmoins de valoriser l’initiative individuelle, l’originalité et le nom propre.
Pour comprendre la portée de cette culture, il faut lire et relire (par exemple) Pierre Lévy sur L’intelligence collective (1994[9]), James Surowiecki sur The Wisdom of Crowds (2005[10]), Yochai Benkler sur la « commons-based peer production » (2002) et The Wealth of Networks (2006[11]), Don Tapscott et Anthony D. Williams sur la « mass collaboration » (2006[12]) et, bien sûr, Lawrence Lessig sur la Free Culture (2004[13]) et les Creative Commons. L’impact de cette culture participative est particulièrement manifeste lorsqu’elle est appliquée, non seulement à la production des « contenus », mais aussi au développement des outils logiciels, comme c’est le cas dans le free-software movement (qui a accompagné le développement des systèmes d’exploitation GNU et Linux, et du principe du copyleft) et dans la open source initiative.
Ainsi, au-delà de l’esthétique, ces pratiques de remontage, de remixage et de partage, cette culture participative ont aussi une portée épistémologique et même politique. Elles transforment non seulement les produits, les modes de production et de distribution, mais aussi, dans une certaine mesure, les rapports de production eux-mêmes et notamment les modes de légitimation (qui dépendent moins des pouvoirs et des institutions traditionnelles, et davantage de la délibération et du consensus). Il est facile de voir dans cette nouvelle culture participative l’incarnation parfaite des idéaux modernes et de la démocratie–et même le lieu de l’invention d’alternatives aux modèles économiques, sociaux et politiques dominants. Mais on sent resurgir ici de vieilles utopies, celle de la souveraineté populaire et de la démocratie directe, et en même temps, il faut le dire, de vieux fléaux, comme celui du tribunal populaire. Évidemment, tout en reconnaissant l’extraordinaire potentiel émancipatoire de cette culture, de ces outils, de ces pratiques, il faut se garder de romancer tout cela et rester vigilant, notamment en portant une attention particulière, en amont, à la question de l’accès, de la littératie médiatique, des genres (l’égalité formelle ne garantit pas l’égalité réelle des chances); en aval, à la question des usages et des effets (l’intelligence collective a des limites). Et, bien sûr, en développant des perspectives théorique, sociale et historique.
C’est à une telle réflexion que ce numéro voudrait contribuer en examinant les pratiques de remontage et de remixage dans divers champs – notamment dans les arts visuels, au cinéma, dans la création musicale et sonore et dans le jeu vidéo –, dans les milieux professionnels comme dans les réseaux amateurs, tant sur les plans technologique et esthétique que sur le plan politique.
Une partie des articles retenus pour cette publication trouve son origine dans le huitième Colloque international Max et Iris Stern: Remonter / remixer / partager : technologies, esthétiques, politiques (4 et 5 avril 2014), organisé conjointement par le Musée d’art contemporain de Montréal et le Département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal. Ce colloque était conçu en lien avec la présentation au musée de l’exposition Christian Marclay. The Clock (22 février – 20 avril 2014). Quelques articles soumis indépendamment complètent ce dossier thématique.
***
Si le cinéma est devenu toujours plus fondamentalement un art du montage, alors cet approfondissement devait inévitablement l’entraîner à se démonter et à se remonter lui-même. Mais à quelles expériences psychiques, matérielles et anthropologiques ce régime proliférant de la citation ou du remontage devait-il destiner le spectateur ? Pour répondre à cette question, Raymond Bellour s’engage dans la comparaison de trois oeuvres exemplaires de ce régime, avec pour critères de distinction et d’évaluation l’affect, la temporalité et les actes de spectature qu’impliquent 24 Hour Psycho (Douglas Gordon, 1993), The Clock (Christian Marclay, 2010) et Histoire(s) du cinéma (Jean-Luc Godard, 1987-1998). Si le « désir de voir ce qui est caché » est l’affect d’origine de 24 Hour Psycho, un affect inséparable d’une temporalité – ralentir, étirer, suspendre le défilement –, et qui anime un regard producteur d’images invisibles et de pensées improbables, c’est le désinvestissement des films et l’indifférence à l’art du cinéma qui affectent la chronométrie hypnotique de The Clock, et qui engloutissent le regard dans une base de données sans programme de lecture ni de recherche – alors que l’espoir crépusculaire de Godard (un accord ultime entre le moment de sa mort et la mort toujours déjà annoncée du cinéma) l’engage dans une réécriture élégiaque des histoires et des mémoires des films, du cinéma et des expériences spectatorielles.
Les oeuvres de Gordon et de Marclay évoquées par Bellour sont représentatives d’importants projets de réécriture de l’archive cinématographique développés dans le monde des arts visuels et médiatiques depuis les années 1990. Pour autant, elles préservent une forme circonscrite qui fait écho à la conception de l’oeuvre plastique ou cinématographique moderne. Christa Blümlinger propose pour sa part de voir dans la production de l’artiste autrichienne Constanze Ruhm un modèle d’extension du champ du remontage de la culture filmique. L’auteure décrit ici un processus de virtualisation, qui engage aussi bien une dématérialisation de type postconceptuel et numérique qu’une distension processuelle, transdisciplinaire et multimédiatique des limites de l’oeuvre. Cette virtualisation met en jeu diverses reconfigurations des composantes structurelles du film (script, mise en scène, montage, trailer) et des dispositifs qui lui sont propres, ou qui appartiennent à son redéploiement dans l’oeuvre médiatique (plateau de tournage, salle de projection, interfaces d’exposition). La production de Ruhm fait également intervenir une série de données spatiotemporelles (modèles historiques ou virtuels d’architecture, de perspective et de cartographie, théâtres de mémoire) et de correspondances entre les oeuvres, qui contribuent à ouvrir et à multiplier les possibilités de lecture. Exposant la dimension illusionniste et homogène du montage cinématographique ainsi que ses effets de subjectivation (plus particulièrement son codage de l’identité sexuelle), l’oeuvre tend à favoriser l’activation critique des modes de perception du spectateur.
De telles stratégies peuvent être mises en relation avec les propositions de Bastien Gallet, qui nous rappelle ici, en suivant les travaux de Walter Benjamin sur le montage, à quelle condition le remontage ou le remixage deviendront politiques : quelque chose du monde doit faire irruption dans l’oeuvre et menacer son intégrité. Cette irruption est la conséquence de deux grandes pratiques du montage – qui concernent encore le remixage. La première opère par prélèvement-recontextualisation ; la seconde opère par implantation recontextualisante. La fabbrica illuminata (1964), de Luigi Nono, oeuvre pour voix et bande sonore, est un dispositif de prélèvement-recontextualisation : prélèvement des sons d’une usine, de conversations des ouvriers, qui vont être recontextualisés dans la composition en trois mouvements où la voix isolée entre en rapport avec le choeur du peuple et les sons de l’usine pour révéler, entre autres, les conditions des ouvriers. Par cette étrange proposition : « Beuys recommande qu’on surélève le mur de Berlin de 5 cm (meilleure proportion) ! », Joseph Beuys allait déclencher, lui, un dispositif d’implantation recontextualisante : plutôt que de représenter le mur, Beuys recommande qu’on le surélève, autrement dit qu’on le transforme, qu’on agisse concrètement sur sa structure et ses proportions. Ce faisant, il entend changer la manière dont le mur est perçu : il le recontextualise.
Bref, si le remixage peut être politique, ce sera à la condition de recomposer et d’entrelacer non seulement des matériaux, mais les contextes qui y adhèrent. Et, comme le démontre Louisa Stein, c’est sans doute ce qui fait du remixage un acte inséparable des communautés de partage (des matériaux, des expériences, des interprétations). Les pratiques collectives de remixage des séries télévisées (« vidding » et « multisource remix video ») sont à cet égard exemplaires et emblématiques : les communautés de téléspectatrices y revendiquent le droit de jeter un regard interprétatif et critique sur leur série favorite, regard qui doit inévitablement mener à la production d’alternatives narratives, et plus encore à des représentations non stéréotypées de la figure féminine. Le remixage est alors tout entier une lecture-écriture guidée par un engagement affectif, une connaissance encyclopédique et un savoir-faire médiatique. En une sorte d’iconologie transmédiatique, des groupes de femmes ont ainsi mené depuis les années 1980 des critiques audiovisuelles de l’identité culturelle ou sexuelle, des représentations religieuses ou ethniques, qui, à travers les larges forums que sont YouTube ou Tumblr, ont été elles-mêmes reprises et remixées par une communauté virtuelle élargie – la tradition interprétative féminine et souvent féministe du « vidding » rencontrant dès lors les discours de toute la « sphère publique ».
Les pratiques du jeu vidéo sont elles aussi immédiatement collectives ; d’une manière ou d’une autre, elles impliquent un fondamental partage d’expériences ou d’expertises – et ce partage consiste inévitablement en une répétition ou une reprise qui ajuste, adapte, approprie une procédure, une méthode, une formule, une tactique, etc. Et ce partage collectif et répétiteur remixe toujours déjà des matériaux iconiques, figuratifs ou narratifs, mais aussi des logiciels et des programmes informatiques. En ce sens, comme le montre Michael Nitsche, les pratiques vidéoludiques télescopent l’histoire et entrent en rapport intempestif avec l’artisanat ou le bricolage. Les pratiques qu’on regroupe sous le terme de « machinima » – reprise créatrice non seulement des thèmes narratifs, des figures et des décors d’un jeu vidéo, mais aussi de son programme d’animation et de jouabilité – sont précisément des remixages de l’hétérogène. Dans The Tyrant (V R Productions, 2006), par exemple, l’armature 3D du célèbre personnage G-Man accueille maintenant le visage de G. W. Bush, tandis que l’univers du jeu vidéo Half Life 2 (Valve Corporation, 2004), d’où l’armature est tirée, devient la chambre d’écho d’un discours belliqueux du 43e Président des États-Unis (entièrement fabriqué à partir d’une multitude d’emprunts phonographiques). Par ce remixage, le joueur n’est plus seulement en interaction avec le jeu, il le bidouille, il démonte sa logique pour en remonter les représentations, le plaisir inhérent à la jouabilité devenant joie de fabriquer et désir de subvertir.
Pour penser cette culture du remixage et ses pratiques, Frédéric Dallaire propose trois déplacements du cadre théorique et analytique habituel : revenir au mixage comme pratique artistique, manière d’être à l’écoute (comme on dit « être au monde ») et de penser les interactions entre production, matière et sens ; ne plus rapporter le remixage au montage de fragments, mais plutôt à l’entrelacement de matériaux ; remettre la réalité génétique, technique et esthétique de certaines oeuvres singulières au coeur de la problématisation du remixage – plutôt que de traiter ces oeuvres comme des échantillons génériques pour un discours d’utopie mis en boucle. Partant d’une analyse de Love (George Martin, 2006) – remixage des bandes maîtresses de tous les albums des Beatles – et de Frankenstein Symphony – remixage, par l’électroacousticien Francis Dhomont, des oeuvres de ses élèves et amis (1997) –, il peut dégager trois principes de composition du remixage : la modulation (sélection et filtrage des matériaux, transformation continue des flux, des formes et des matières) et sa fonction heuristique (une musicologie en acte, par exemple) ; le chevauchement (passages, enchaînements ou tensions entre des strates sonores) et sa pédagogie de la perception (écoute d’un style, avec son histoire et son territoire esthétiques et politiques, par exemple) ; l’interférence (devenir mutuel des éléments en interaction) et son champ d’expérience (où le sujet et l’objet se constituent l’un et l’autre sous des conditions simultanées).
Parties annexes
Notes biographiques
Olivier Asselin est professeur titulaire au Département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal, où il enseigne l’art contemporain, le cinéma élargi et les arts médiatiques. Il s’intéresse actuellement aux usages artistiques des plateformes mobiles, du GPS et des applications de réalité augmentée, et notamment au déploiement de récits de fiction et de jeux dans l’espace physique. Il a codirigé Precarious Visualities: New Perspectives on Identification in Contemporary Art and Visual Culture (avec Johanne Lamoureux et Christine Ross, 2008), L’ère électrique. The Electric Age (avec Silvestra Mariniello et Andrea Oberhuber, 2011) et Menlo Park. Trois machines uchroniques (avec Suzanne Leblanc et David Tomas, 2014).
Serge Cardinal est professeur de cinéma à l’Université de Montréal où il dirige un laboratoire de recherche-création qui explore les dimensions sonores et musicales du cinéma et des arts médiatiques – http://www.creationsonore.ca. Il est membre de l’Observatoire interdisciplinaire de création et de recherche en musique – http://www.oicrm.org. Ses études sur le son et la musique sont parues dans Canadian Journal of Film Studies, Chimères, Cinémas, Intermédialités, Intersections, La Licorne, Liminalities, Music and the Moving Image, Protée, Revue des sciences humaines, Théâtre/Public, etc. Il a publié Deleuze au cinéma (2010) et termine un nouveau livre : Profondeurs de l’écoute et espaces du son. Cinéma, radio, musique.
François LeTourneux est conservateur adjoint au Musée d’art contemporain de Montréal et professeur invité au Département d’histoire de l’art et d’études cinématographiques de l’Université de Montréal. Docteur en histoire de l’art, il s’est intéressé aux pratiques de l’hétérogénéité stylistique dans l’art moderne et contemporain. Pour le Musée d’art contemporain, il a notamment organisé une rétrospective de l’oeuvre de Lynne Cohen, qui a circulé au Canada et aux États-Unis (2013-2015), et dirigé la présentation de nombreux Colloques internationaux Max et Iris Stern, parmi lesquels L’exposition mise en oeuvre (2011-2012) et Abstraction (2013).
Notes
-
[1]
Bernard Sève, L’altération musicale. Ou ce que la musique apprend au philosophe, Paris, Seuil, coll. « Poétique », 2002.
-
[2]
Voir Peter Szendy, Écoute. Une histoire de nos oreilles, Paris, Minuit, coll. « Paradoxe », 2001, p. 54 et 57.
-
[3]
Ibid, p. 38 à 46.
-
[4]
Voir Jean-Luc Nancy, À l’écoute, Paris, Galilée, coll. « La philosophie en effet », 2002, p. 29.
-
[5]
Voir Mark Katz, Capturing Sound: How Technology Has Changed Music, Berkeley, University of California Press, 2010 [2004], p. 10 à 55 et p. 148 ; voir aussi Élie During, « Appropriations. Mort de l’auteur dans les musiques électroniques », dans Christine van Assche (dir.), Sonic Process. Une nouvelle géographie des sons, Paris, Éditions du Centre Pompidou, 2002, p. 99-100.
-
[6]
Voir Jean-Paul Olive, Musique et montage. Essai sur le matériau musical au début du XXe siècle, Paris, L’Harmattan, coll. « Musique et musicologie », 1998, p. 107-114.
-
[7]
Henry Jenkins, Sam Ford and Joshua Green, Spreadable Media: Creating Value and Meaning in a Networked Culture, New York, New York Univeristy Press, 2013.
-
[8]
Ibid., p. 293.
-
[9]
Voir L’intelligence collective. Pour une anthropologie du cyberespace, Paris, Éditions La Découverte, 1994.
-
[10]
Voir The Wisdom of Crowds: Why the Many Are Smarter Than the Few and How Collective Wisdom Shapes Business, Economies, Societies, and Nations, New York, Double Day, 2004.
-
[11]
Voir « Coase’s Penguin, or, Linux and The Nature of the Firm », The Yale Law Journal, vol. 112, no 3, december 2002, p. 369-446 et The Wealth of Networks: How Social Production Transforms Markets and Freedom, New Haven, Yale University Press, 2006.
-
[12]
Voir Wikinomics: How Mass Collaboration Changes Everything, New York, Portfolio, 2006.
-
[13]
Voir Free Culture: How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York, Penguin Press, 2004.