Résumés
Résumé
Jamais les fonctions de pollinisation (déterritorialisation et reterritorialisation) de la traduction n’ont été plus importantes qu’aujourd’hui. Comment peut-on utiliser les technologies de l’information et de la communication au service de la traduction des textes culturels (humanités, sciences sociales) ? Cet article souligne le potentiel topologique de la traduction numérique participative, et en particulier du projet TraduXio (environnement collaboratif de traduction de précision), en insistant sur sa vocation de translocalisation culturelle. La constitution de collectifs transnationaux, la dissémination du savoir grâce à la traduction multilingue, la promotion de nouveaux biens communs et la valorisation du travail des communautés de traducteurs : tels sont les principaux enjeux de la traduction « littéraire » à l’ère de l’information et de la culture « libre ».
Mots-clés :
- traduction multilingue,
- traduction littéraire,
- collaboration,
- précision,
- translocalisation
Abstract
The cross-fertilization functions of translation have never been higher than today, in the digital age. How can we use Information and Communication Technologies for the translation of cultural texts (Humanities, Social Sciences)? In this article, we underline the topological potential of digital collaborative translation, and in particular of the TraduXio project (collaborative digital environment for precise translation), by insisting on its genuine vocation for cultural translocalization. Among the major issues at stake in the internet era of multlingualism and free culture, one could underline the constitution of transnational communities, the promotion of new commons and the valorization of the translators’ work.
Keywords:
- multilingual translation,
- literary translation,
- collaboration,
- precision,
- translocalization
Corps de l’article
Notre époque semble caractérisée par une double tendance. D’un côté, on constate une prise de conscience accrue de l’importance normative de la diversité linguistique et culturelle, autant sur les plans international (Convention de l’Unesco, signée en 2005, sur la protection et la promotion de la diversité des expressions culturelles[1], proclamation, par les Nations Unies [NU], de 2008 comme « Année internationale des langues »[2]), transnational (ratification de la Convention de l’Unesco par l’Union européenne [UE] en 2006[3], proclamation de 2008 comme l’Année du dialogue interculturel[4]) que national (ratification par les États membres de l’UE de la Convention de l’Unesco, et la prise de conscience du Congrès américain des effets négatifs de leur « monolinguisme » sur l’économie, et même la sécurité du pays[5]). D’un autre côté, on assiste à un extraordinaire essor des usages collaboratifs des technologies de l’information et de la communication (TIC), et à une démocratisation corrélative de l’accès au savoir, à l’éducation et à la culture, particulièrement sensible dans le domaine des humanités et des sciences sociales (Wikipédia, bibliothèques numériques, mouvement des « archives ouvertes », etc.). La révolution numérique a en effet profondément modifié les manières d’apprendre, d’enseigner et de conduire des recherches.
Ces deux mouvements peuvent-ils converger ? En fait, on commence seulement à imaginer les intersections possibles entre ces deux aspects de notre modernité, à envisager les usages des nouvelles technologies pour la préservation et le développement de cette richesse culturelle, en particulier en ce qui concerne la coopération internationale. Dans le domaine des langues, malgré l’existence d’un certain nombre de plateformes d’apprentissage, ou encore des réseaux de traducteurs (par excellence, vecteurs de diffusion du multilinguisme), les initiatives concrètes de promotion de la diversité culturelle (comme B@bel, à l’Unesco[6]) demeurent insuffisantes.
Pourtant, dans le Web contemporain, le multilinguisme augmente de manière inexorable[7] et la granularité prend une importance accrue, au point qu’on peut parler d’une sorte de « seconde » mondialisation, tendant vers le « plus que l’anglais », au-delà de la standardisation du « tout anglais ». Différents acteurs (commerciaux, institutionnels, de la société civile) portent en effet une attention particulière aux nuances spécifiques, au relief singulier des environnements symboliques, afin de mieux appréhender les aspérités du réel, et de capter les nuances de ses dynamiques polycentriques. Ce n’est d’ailleurs pas une coïncidence si une préoccupation similaire pour le développement durable des identités (et la dimension politique de leur reconnaissance réciproque) est au coeur de la plupart des théories contemporaines de la justice (voir par exemple Honneth 2000 et 2007 ; Forst 2007), au-delà des questions de distribution de biens.
De fait, le développement durable des systèmes symboliques culturels (Wismann et Judet de la Combe 2004) rejoint le souci d’une politique des langues, dont la formulation, encore balbutiante, est bouleversée par la prolifération contemporaine des biens communs informationnels et l’augmentation corrélative des pratiques de mutualisation. Le vecteur juridique d’une telle mutation est fondamental : l’usage massif des licences libres (de type Creative Commons) pour les biens informationnels permet de s’émanciper du droit traditionnel de la traduction (Basalamah 2009) et de redonner un rôle structurel aux aspects identitaires (Ost 2009), au-delà des préoccupations pour la juste répartition (Van Parijs 2010). On peine à imaginer les conséquences d’une telle lame de fond, en particulier pour le monde de l’éducation et de la recherche, à l’heure du capitalisme cognitif : incitation à apprendre et à écrire dans sa langue maternelle, constitution de nouveaux collectifs numériques transnationaux (cosmopolitisme numérique)…
Dans ce contexte particulier, les traducteurs sont amenés à jouer un rôle de plus en plus central. Le passage au « plus que l’anglais » implique, comme on l’a souligné, une augmentation sensible de la production multilingue des divers contenus culturels (journaux, revues, etc.) et s’accompagne d’une recrudescence des besoins de transfert. La fonction de déterritorialisation et de reterritorialisation de la traduction a été maintes fois soulignée, à commencer par la tradition herméneutique. Mais jamais n’a-t-elle été plus actuelle et plus proliférante qu’aujourd’hui, à l’heure d’Internet. Un tel processus de trans-localisation dépasse de beaucoup la simple déclinaison multilingue des interfaces Web et touche à tous les contenus mis en circulation. De fait, ces mêmes technologies offrent aux traducteurs (ainsi qu’à un public plus large) la possibilité de s’approprier des nouveaux outils de production et de partage de la connaissance, et donc d’accentuer le caractère « mutualiste » de l’activité par la pratique de la « pollinisation ». La constitution de collectifs transnationaux, la dissémination du savoir grâce à la traduction multilingue, la promotion de nouveaux biens communs (Aigrain 2010), la valorisation, enfin, du travail des communautés de traducteurs : tels sont les principaux enjeux de la traduction « littéraire » à l’ère de l’information et de la culture « libre »[8].
Cet article vise précisément à étudier la manière dont le mouvement code source libre (open source) dans les TIC peut apporter des solutions nouvelles pour faire face aux défis de ce nouvel âge de la traduction. Nous allons dans un premier temps exposer les enjeux de la « culture ouverte » et ses implications pour la traduction. Puis, nous présenterons la double philosophie du langage sous-jacente aux technologies contemporaines de la traduction. Nous tâcherons notamment de montrer comment le projet TraduXio permet d’incarner l’option, largement refoulée, en faveur d’une technologie de la précision. En soulignant sa triple originalité, nous décrirons le fonctionnement concret et évoquerons les défis auxquels il est confronté. Nous conclurons en insistant sur les promesses concrètes que représentent les nouveaux laboratoires numériques de traduction pour la culture libre, dans un contexte d’augmentation des échanges multilingues.
1. Les enjeux de la culture ouverte
C’est dans le contexte de la montée du multilinguisme sur le Web que les principaux enjeux de la traduction collaborative apparaissent le plus clairement, tout particulièrement concernant les textes littéraires. Convenons avant tout de comprendre ici l’idée de traduction (de textes) « littéraire(s) » en un sens large, défini, négativement, par opposition à la traduction dite « pragmatique » (les textes techniques, répétitifs, commerciaux, du type modes d’emploi d’appareil électroménager) ; et, positivement, par la difficulté de leur sémantique et leur teneur culturelle (textes poétiques, religieux, humoristiques, expressions idiomatiques…).
C’est d’abord le travail de valorisation des traducteurs qui peut être poursuivi et prendre, grâce au Web collaboratif, une nouvelle ampleur. L’idée peut sembler paradoxale : les technologies participatives n’inciteraient-elles pas tout un chacun à s’octroyer le titre de « traducteur » ? La Toile ne serait-elle pas alors le prétexte à un retour de l’amateurisme, au sens péjoratif du terme, et un nouvel alibi de la mauvaise qualité, à l’instar de très nombreuses productions actuelles du sous-titrage amateur ?
À cette objection traditionnelle, il faut opposer une réponse non moins classique : l’autopublication, inhérente aux pratiques du Web ainsi qualifié de « 2.0 » et né dans les années 2000[9], n’est pas nécessairement synonyme d’absence d’évaluation. Ainsi, dans les archives ouvertes, il existe un processus menant à une validation a posteriori (seals of approvals)[10]. On pourrait donc parfaitement imaginer un système de « réputation » équivalent pour les traducteurs : authentification des traducteurs, notation (non anonymes) par les pairs, mise en place de mécanismes de contrôle (a priori ou/et a posteriori) pour éviter certaines dérives. De ces technologies collaboratives permettant la traduction distribuée, le type de site web appelé wiki n’est que la forme la plus connue et la plus simple ; mais il reste à explorer un très grand nombre d’autres possibilités, y compris concernant le degré d’ouverture (on peut paramétrer la participation pour la rendre accessible à tout le monde, comme sur Wikipedia, ou à certaines personnes seulement). La démocratisation de l’accès à la traduction par la collaboration numérique ne condamne donc pas à la mauvaise qualité ou à la dilution du professionnalisme, mais diversifie les modes de valorisation des compétences impliquées (voir section 5).
Pour figurer les espaces d’échange multilingue par la traduction, peut-être est-ce l’image de l’échangeur autoroutier qui est la plus suggestive, ou encore celle du hub. On peut également recourir au terme de plateforme, à condition toutefois de souligner que le but n’est pas d’encourager la constitution de pratiques pseudo-amicales, qui n’attirent les utilisateurs par la gratuité que pour mieux les garder prisonniers, en conservant leurs données par une astuce légale (Stallman 2010). Au contraire, comme nous le montrerons plus loin par l’exemple du projet TraduXio (voir section 4), il s’agirait d’inscrire explicitement, et de façon durable, la traduction dans le mouvement de la culture ouverte : large mouvance qui inclut les logiciels (logiciel libre [free software] et code source libre), mais aussi l’accès aux contenus (libre accès [open access]), et au-delà, la non-exclusivité des publications (contenu libre [open content] : un même article pouvant légalement être publié sur plusieurs sites). L’époque semble particulièrement propice à l’invention d’outils collaboratifs de traduction assistée par ordinateur, gratuits et en code source libre, ayant vocation à disséminer le savoir et la culture de façon multilingue, grâce aux licences ouvertes de type Creative Commons[11] (voir section 7).
Ce n’est pas ici le lieu de détailler la mutation profonde que font subir ces licences au droit de propriété, en particulier dans le contexte économique des biens informationnels dits non rivaux. Rappelons simplement qu’elles désignent un degré intermédiaire (droits partiels réservés [some rights reserved]), entre le régime du domaine public (pas de droits réservés [no right reserved]) et du droit d’auteur intégral (tous droits réservés [all rights reserved]) et qu’elles garantissent, par contrat juridique, à la fois la reconnaissance du travail accompli par le ou les auteurs et le partage des créations produites (Soufron 2009).
Le public de telles plateformes de traduction pourrait être constitué de traducteurs littéraires et de chercheurs (sciences sociales et humanités) qui utilisent quotidiennement les concepts et langues de ces disciplines, et sont engagés dans des travaux empiriques où ils ressentent la nécessité de réfléchir théoriquement sur leur pratique. Mais beaucoup d’autres communautés sont également susceptibles d’être intéressées par de tels ateliers numériques : outre les institutions de recherche au sens large, les étudiants et les enseignants (Freitas et Lacour 2011), les acteurs politiques rencontrant des problèmes de traduction, les troupes de théâtre devant retraduire des pièces (pour les adapter), les diasporas d’immigrés et les ONG travaillant sur l’immigration…
De tels environnements collaboratifs de traduction assistée par ordinateur, surtout s’ils sont gratuits et en code source libre, auraient vocation à promouvoir de façon efficace la diversité linguistique dans la recherche, que ce soit en favorisant le plurilinguisme des chercheurs ou en encourageant le multilinguisme des événements et productions scientifiques (conférences, publications). Ils renforceraient par là même les communautés virtuelles d’enseignement et de recherche, en banalisant les expériences de mutualisation multilingues. Ils constitueraient en outre un instrument important au service d’une « politique linguistique » européenne et internationale. Enfin, ils pourraient contribuer à la valorisation institutionnelle de la traduction – encore trop déconsidérée –, notamment dans les cursus des chercheurs, par exemple en favorisant l’émergence d’un label européen de la traduction et d’un « passeport » européen de la traduction dans les domaines culturels.
C’est enfin le principe même de la traduction que de tels ateliers numériques auraient vocation à disséminer, de façon très largement transdisciplinaire, au-delà même du produit des collaborations. En particulier, les modèles intellectuels issus de la traduction peuvent permettre d’informer de nombreux secteurs connexes. Signe des temps, toute la problématique de l’enseignement de la traduction est, d’ailleurs, aujourd’hui en train de muter en direction d’une formation « aux métiers de la traduction », bref toutes les activités valorisant la diversité linguistique, des technologies de la langue au management interculturel, en passant par les activités plus traditionnelles d’interprétariat et de traduction « pragmatique » (terminologie, etc.).
2. Questions sémantiques
Il semble qu’on puisse aborder la question de la diversité linguistique de deux manières, qui chacune implique non seulement une philosophie de la traduction, mais aussi une solution technologique propre. Dans un premier cas, la diversité des langues, qu’on peut comparer à un paysage vallonné, est perçue comme une barrière, un obstacle à la communication rapide et efficace d’un message. La solution traductrice consiste alors, en quelque sorte, à tracer des autoroutes qui se jouent du relief du terrain et permettent d’aller très rapidement d’un point à un autre. Dans le second, la diversité est conçue comme les nuances d’un parcours qui font la joie des randonneurs qui l’empruntent. La traduction s’apparente alors au développement durable d’un environnement riche et diversifié. Il n’y a nulle contradiction entre ces deux approches, qui sont en effet complémentaires – on peut ainsi parfaitement prendre sa voiture pour aller se promener dans un parc naturel. Encore convient-il de bien les distinguer, afin de mieux comprendre la double orientation sémantique possible de la traduction, sensible jusque dans les prolongements technologiques actuels.
2.1. L’approche régulariste
La plupart des logiciels de traduction automatique et de traduction assistée par ordinateur sont en effet fondés sur une philosophie du langage implicite. Les postulats du traitement automatique du langage sont pourtant particulièrement lourds de conséquences. Aussi importe-t-il à une philosophie critique d’en révéler les attendus, et d’en expliciter les paralogismes, peut-être inévitables. La traduction, y compris littéraire, y est conçue comme une opération de transfert entre deux langues, baptisées pour l’occasion « couple » (ou « paire ») et distinguée en langue « source » et langue « cible » – et jamais plus de deux idiomes.
En outre, elle ne déploie son pouvoir d’articulation qu’au niveau de la phrase, considérée comme seule unité sémantique, à l’exclusion de considérations subphrastiques ou transphrastiques. Enfin, elle ne conçoit la construction du sens dans le langage que comme le produit d’application de règles, qu’il s’agisse de régularités grammaticales (comme dans le système Systran, à ses débuts) ou de fréquences d’utilisation. La dimension normative n’est en effet pas moins présente dans l’approche « statistique », popularisée par le traducteur automatique Google Translate, qui étaye ses opérations sur le repérage des usages les plus attestés. A fortiori cette limitation se retrouve-t-elle dans les systèmes mixtes, qui tendent aujourd’hui à se multiplier (comme le nouveau Systran). Cette orientation sous-jacente est largement imputable à la naïveté des premiers informaticiens qui, forts de leur réussite dans le chiffrement et le déchiffrement des messages durant la guerre, espéraient que la traduction serait du même ordre.
La traduction automatique continue aujourd’hui de progresser, dans certaines limites, et rend de nombreux services (compréhension rapide, lecture en diagonale, gain de temps) ; mais elle ne convient pas, bien entendu, pour les usages plus rares et complexes du langage, qui sont pourtant la norme dans les sciences de la culture.
2.2. L’approche herméneutique
L’approche alternative du langage est plus interprétative et réflexive. Singulariste, cette orientation conçoit la traduction comme une opération entre des individus – ou, plus exactement, comme une opération d’individualisation, procédant de texte singulier à texte singulier, et non de langue à langue. L’accent est donc immédiatement mis sur les aspérités des productions discursives, et sur le souci de précision. Historiquement, c’est le romantisme allemand qui s’est illustré dans cette attention idiographique, en soulignant l’unicité de l’oeuvre d’art poétique (Schleiermacher 2004). Mais, pathos romantique mis à part, l’humour (la saveur idiomatique d’une blague) et l’argot (le piquant culturel d’une insulte) appellent légitimement les mêmes analyses. Au-delà des poèmes, en effet, c’est la poéticité du langage qui est soulignée, sa vitalité même, dans une tradition humboldienne (Coseriu 2000), qu’on peut rapprocher des travaux poétiques de Ricoeur touchant le phénomène d’innovation sémantique, placés au coeur de sa théorie du discours (Lacour 2009).
Dans un tel cadre discursif, où domine la créativité (l’energeia de Humboldt), les généralisations sont toujours possibles, mais toujours (et seulement) relativement au contexte. Loin de toute trans-historicité illusoire, concevant le langage comme un bloc lisse, c’est aux concepts traditionnels de « genres », ou de « styles », qu’on peut faire appel, comme y appelle la linguistique « des normes » (Rastier 2008). La constitution des catégories de classification n’est jamais fixe et définitive (on peut parfaitement préférer ignorer les découpages traditionnels), mais relève au contraire d’un geste d’interprétation qui doit s’assumer comme tel – dans certaines limites à décider par le groupe des chercheurs, bien sûr. En ce sens, la réflexion linguistique relève du régime épistémologique de la « pensée par cas » (Passeron et Revel 2005), qui caractérise toutes les sciences de la culture (Rastier et Bouquet 2002). Les technologies numériques du texte peuvent parfaitement s’inscrire dans une telle tradition herméneutique (Bénel et Lejeune 2009), y compris celles qui concernent la traduction littéraire (Bénel et Lacour 2011).
2.3. Perspectives technologiques
Les deux approches du langage (par les régularités / par les singularités) sont légitimes, et nullement exclusives l’une de l’autre. Aussi bien ne s’agit-il pas ici de condamner l’orientation régulariste, mais plutôt de promouvoir la légitimité (et la fécondité) de la seconde voie, qui semble avoir fait l’objet d’un certain refoulement. De fait, la première a été beaucoup plus privilégiée que l’autre, dans les expérimentations technologiques du langage : traitement automatique des langues (TAL), traduction automatique… Et sans doute est-ce lié à l’oubli de la dimension clinique (connaissance interprétative de cas concrets) par la rationalité formelle (connaissance universelle de règles abstraites) – non sans que celle-ci n’en ressente, d’ailleurs, une insistante nostalgie (Lacour 2011).
Toutefois, l’idée d’utiliser la technologie pour la traduction dite « littéraire » (de textes culturels) ne suscite-t-elle pas légitimement un certain scepticisme, en particulier chez les praticiens blanchis par le métier ? En fait, il s’agit précisément d’éviter le caractère apparemment exclusif de l’alternative traditionnelle entre la traduction automatique (pour la traduction « utile », pragmatique ou de « masse ») et la traduction humaine (pour le rare et le difficile). Les machines ne sont en effet intelligentes qu’à proportion des questions qu’on leur pose : de ce point de vue, les technologies de la suggestion n’ont pas encore été suffisamment exploitées. Les sciences de l’information peuvent en particulier revisiter avec bonheur le vieux principe du concordancier. Non pas, toutefois, comme le fait la traduction assistée par ordinateur (TAO), avec des mémoires de traduction traditionnelles.
Au sens strict, une mémoire de traduction est en effet une sorte de base de données dans laquelle les traducteurs conservent des « segments » traduits pour les réutiliser ultérieurement. Ces segments doivent donc être suffisamment grands pour être indépendants de leur contexte et suffisamment petits pour être réutilisables tels quels ou avec de légères modifications (figure 1).
Or, si la théorie du langage sous-jacente aux mémoires de traduction est moins naïve que celle de la traduction automatique, elle reste cependant discutable. D’abord, sauf dans des textes très normés (courriers d’entreprise, textes de lois, manuels d’utilisation…) dont nous ne traiterons pas ici, il n’y a guère que dans les cas de citation que l’on retrouve de larges réemplois d’un texte à l’autre. Par ailleurs, les mémoires de traduction ont beau parfois faire allusion à un « domaine » pour le fragment, elles ne font d’ordinaire aucune mention de l’auteur, de la date et du genre du texte original. D’un impact limité sur la traduction de textes de la vie courante, ces informations sont pourtant capitales pour la traduction de textes. En outre ces mémoires ne permettent en rien la comparaison sur le même écran de deux traductions d’un même passage. Aussi bien sont-elles tout entières conçues pour réutiliser des phrases déjà traduites, indépendamment de leur contexte d’apparition (recherche dans le même couple de langue, indication du pourcentage de ressemblance, mise en évidence de ce qu’il faut changer) – ce qui peut sembler irréaliste si « le contexte, c’est tout le texte » (Rastier 1998), comme c’est le cas dans les sciences de la culture. Enfin, le nom du traducteur n’est en général ni affiché ni même conservé, comme si la traduction était une « donnée » et non le résultat d’une activité créative et interprétative.
C’est d’ailleurs la raison pour laquelle les traducteurs « littéraires » (de textes culturels) n’utilisent pas, en général, les mémoires de traductions, tandis qu’ils ont recours depuis longtemps aux dictionnaires bilingues et aux concordanciers[12]. En effet, ces deux outils, quand ils sont dédiés aux études classiques, comportent d’ordinaire des références précises au contexte, à l’auteur et parfois même à son courant (« néoplatonicien », « présocratique »…). De plus, les concordances sont construites sur des corpus homogènes : souvent les textes d’un même auteur ou d’une même période. Enfin, une approche comparative est encouragée par certaines éditions bilingues (destinées notamment à l’exégèse) dans lesquelles plusieurs traductions concurrentes sont imprimées sur la même page. Notons que, si les concordances numériques existent déjà[13], elles conservent un mode de publication classique, avec un temps très lent (il faut souvent attendre que les textes passent dans domaine public). Par ailleurs, il n’existe à l’heure actuelle aucune hybridation des concordances et des éditions et dictionnaires multilingues. C’est de l’identification de tels besoins qu’est né le projet de plateforme numérique nommé TraduXio.
3. Un nouveau laboratoire numérique : le projet TraduXio
Les problèmes de traduction sont notoires en poésie, et pour tous les textes réputés « difficiles ». Parmi d’autres, les sciences de la culture, au sens de la tradition allemande, comprenant à la fois les humanités traditionnelles et les sciences sociales (Rastier et Bouquet 2002), sont révélatrices d’un problème de précision sémantique. Dans ces disciplines, en effet, les difficultés de traduction naissent des asymétries et des phénomènes de diffraction du sens (lorsqu’un concept d’une langue ne peut être traduit que par plusieurs de l’autre langue). Le problème devient épineux avec les concepts clés de ces disciplines (domination, Trieb [pulsion], care [soin/sollicitude], gouvernementalité, Heimat [nation/patrie], etc.), qui ne peuvent être traduits littéralement, tant ils renvoient à des contextes culturels et sont pris dans des jeux d’intertextualité complexes. La solution à ces difficultés ne consiste pas à prétendre fixer la sémantique des concepts manipulés (selon le souhait vain d’une « Grande Théorie » définitive), mais plutôt à promouvoir les emprunts linguistiques et disciplinaires (Passeron 2006). Explorer les contextes de pensée et relever les asymétries sémantiques permet de promouvoir une intertraductibilité à la fois rigoureuse et opératoire des concepts élaborés dans les différentes traditions linguistiques (notamment nationales) des sciences de la culture. C’est le pari relevé par le Dictionnaire des concepts historiques de Reinhardt Koselleck (Koselleck, Brunner, etal. 2004) et le Vocabulaire européen des philosophies de Barbara Cassin (2004). Cette préoccupation existe aussi dans le monde anglo-saxon, et de façon insistante, encore que plus récente (Poncharal 2007). Ne pourrait-on aujourd’hui envisager de donner à ces tentatives un prolongement numérique, afin de promouvoir de nouvelles formes de réflexivité au sein de ces disciplines ? Le projet TraduXio est né du pari d’étendre cette idée à toutes les sciences de la culture, et d’utiliser à cette fin toutes les ressources de plasticité des technologies collaboratives contemporaines.
Projet pluridisciplinaire, TraduXio associe différents types de partenaires. La gestion du projet relève d’une association à but non lucratif (Zanchin, association loi 1901, basée à Paris), grâce à l’action de membres bénévoles. La direction scientifique du projet relève du laboratoire Tech-Cico de l’Université de Technologie de Troyes[14]. Un premier financement de quelques institutions publiques internationales[15] (UNESCO, Organisation internationale de la francophonie) a permis d’assurer le développement informatique[16]. Enfin, le projet a bénéficié d’une période d’incubation scientifique directe dans le milieu bilingue du Centre Marc Bloch de Berlin (séminaire « Traduire les sciences de la culture », en 2007)[17]. La rencontre d’informaticiens partageant des idées herméneutiques, par l’intermédiaire de la revue Texto !, fut décisive (en particulier les réflexions de Zacklad, Bénel, et al. [2007]), faisant écho à ceux de François Rastier [2004b] sur la question des ontologies). La constitution d’une maquette (2008), puis d’un prototype (2009), a été suivie par la confection d’une version 1.0 (bêta privée, depuis le printemps 2010 ; la version bêta publique est prévue pour 2011).
Les caractéristiques générales de l’environnement sont les suivantes : TraduXio est d’utilisation gratuite (gratuiciel) – de façon définitive, contrairement à une certaine tendance contemporaine du secteur des services en ligne, quelque peu trompeuse sur ses intentions. Le code de TraduXio est développé sous licence libre (GNU/GPL3). C’est un atelier numérique qui est basé sur le Web (il n’y a rien à installer sur les postes de consultation, hormis un navigateur) et qui fonctionne avec toutes les langues. L’originalité du projet TraduXio est triple : elle consiste à promouvoir la traduction multilingue, la recherche de suggestions pertinentes et une collaboration renforcée.
3.1. Au-delà des couples de langues
La quasi-totalité des outils numériques de traduction automatique ou d’assistance à la traduction fonctionnent de façon binaire, et traduisent d’une langue pivot vers une langue cible. Or, lorsqu’on va ainsi du chinois au français, du chinois à allemand, du chinois au japonais, ou encore du chinois à l’hindi, on obtient un schéma en étoile, puisque le chinois est toujours au centre du dispositif. On doit donc toujours repasser par le centre pour aller d’une deuxième à une troisième langue, ce qui est pour le moins discutable lorsque les langues sont proches, comme le néérlandais et l’afrikaans, par exemple. C’est un tel schéma en étoile qu’utilise notamment le système Google Translate (dont la langue centrale est l’anglais), et qui est également au coeur du Google Translator’s Toolkit (qui ajoute à la traduction automatique des possibilités de corrections humaines, et aussi certains outils : mémoires de traduction, glossaires[18]…).
Au contraire, TraduXio permet une gestion multilingue des contenus de traduction. En considérant une version originale et ses diverses traductions (différents textes singuliers, dans différentes langues), on obtient un schéma en séries. On peut ainsi passer des Misérables de Victor Hugo à ses différentes versions traduites : chinois, japonais, espagnol, italien, etc., interrogeables simultanément. Il est donc toujours possible de consulter une troisième, voire une quatrième langue, lorsqu’on traduit d’une première langue vers une deuxième. Cela est très utile lorsqu’on a besoin d’harmoniser les différentes traductions d’un texte original, par exemple en langues romanes, ou de les comparer – un traducteur connaît en général plus de deux langues. Il peut être également utile de vérifier une édition critique : ainsi, l’édition anglaise, dans le cas d’une traduction d’un ouvrage de Freud en français. Par ailleurs, les séries constituées sont susceptibles de ramification, de sorte qu’on peut toujours consulter une traduction dérivée, opérée à partir d’une première traduction, pour mieux comprendre l’histoire de la transmission et de la réception d’un texte. Pour prendre un exemple classique en philologie, il est particulièrement intéressant, pour la sémantique historique, de consulter les traductions de la Bible en français, opérées à partir d’une version latine, pour mieux les comparer avec les originaux grecs (ou hébreux).
3.2. La recherche affinée
La plupart des logiciels de traduction automatique et de traduction assistée par ordinateur conçoivent la langue comme un bloc unifié, sans histoire ni nuance. La recherche de règles, par l’analyse grammaticale ou celle des usages les plus fréquents (Google Translate), ne permet pas de paramétrer ses recherches par genres, siècles, ou registres de discours. La langue est prise comme un ensemble homogène, lisse, atemporel : c’est comme cela qu’on est censé traduire « en français » (en général).
Au contraire, TraduXio prête beaucoup d’attention à l’épaisseur historique du langage, à son évolution, et à ses tournures particulières : les expressions idiomatiques, l’humour, les genres littéraires, les registres de discours, les styles, etc., tout ce qui fait la tonalité particulière d’un texte singulier (à l’opposé d’une saisie générale de la langue). La recherche d’occurrences dans la mémoire de traduction fait donc intervenir des sous-catégories, déterminées de façon souple et ouverte (selon le choix du traducteur ou de la communauté de traducteurs). Ainsi, lorsqu’on traduit Hamlet en japonais, on pourra, dans la phase de compréhension (en amont de la réexpression proprement dite), chercher des suggestions dans la littérature théâtrale du xviie siècle anglais, pour trouver des équivalents chez Marlowe, par exemple, et non dans les articles de journaux de mode du xxe siècle. Les suggestions avancées gagneront ainsi fortement en pertinence et en précision, en évitant que le traducteur soit submergé par une masse d’informations sans véritable intérêt pour le travail de traduction engagé. En faisant intervenir ces sous-catégories dans la recherche elle-même, TraduXio veut donner une incarnation numérique à la linguistique des « normes » (Rastier 2008), qui insiste notamment sur la notion de genre. Se revendiquant en cela de la linguistique des textes (Rastier 2001), TraduXio cherche également à relier ainsi deux courants de la traductologie contemporaine (Rastier 2007) : la mouvance pratique et didactique (lexicographique et grammaticale) et l’approche critique et philosophique (philologique, stylistique et herméneutique).
3.3. L’esprit collaboratif
TraduXio souhaite également promouvoir certaines fonctions de participation, popularisées par le Web 2.0, et qui sont désormais bien connues : notification et historique des révisions (permettant en cas de conflit la discussion ou l’annulation d’une révision), paramétrage de l’accès à l’écriture et à la lecture (à déterminer selon des normes sociales et non informatiques), forums de discussion (échange de conseils…), comme sur Leo[19], les wikis et les réseaux sociaux. On ne saurait pour autant confondre le projet TraduXio avec un simple wiki, outil robuste et populaire, certes, mais degré zéro des technologies collaboratives. En effet, lorsqu’on peut y écrire des traductions, les wikis ne proposent pas, en effet, de concordances, et leur modèle reste celui du consensus, comme dans Wikipedia. Ainsi, sur Wikisource[20], une seule traduction est proposée, avec éventuellement une discussion cachée dans un autre onglet. Au contraire, TraduXio a vocation à incarner, dans le domaine de la traduction, la notion de « point de vue », classique dans les sciences humaines et les humanités, mais très hétérodoxe en sciences et dans le contexte des technologies de l’information. En ce sens, son modèle s’inspire de celui d’Hypertopic (Zacklad, Bénel, et al. 2007), qui permet de visualiser des points de vue concurrents, en donnant une incarnation concrète et dynamique au conflit des interprétations (Bénel, Zhou, et al. 2010).
4. Contenu et fonctionnement de TraduXio
Le site présente, sur sa page d’accueil (les captures d’écran ont été réalisées en août 2010[21]), différents textes en version publique (d’autres textes ne sont accessibles qu’une fois l’utilisateur identifié), classés par langue (« oeuvres »). L’interface, localisée en anglais, français et italien, permet à l’utilisateur de s’identifier (« accéder »), de consulter ses traductions, d’insérer un nouveau texte et de mobiliser le concordancier – il existe aussi une section délivrant les informations générales du projet et un formulaire de prise de contact.
Une fois l’utilisateur identifié par un mot de passe (login), celui-ci peut insérer dans le site un texte à traduire (Insert new text). Un menu apparaît alors à gauche de l’écran (figure 2) : en haut sont mentionnées, s’il y en a, les différentes traductions du texte accessibles sur le site (Translations). En bas, différentes options sont ensuite possibles : créer une traduction (Create a translation), continuer l’insertion du texte (Continue text insertion), modifier le texte (Edit the text), gérer les privilèges relatifs au texte (Manage text’s privilege), éliminer le texte (Delete this text), consulter l’historique des modifications (history of modifications). Par défaut, tous les textes insérés et les traductions opérées demeurent cachés (dans le Web dit « invisible »), mais les utilisateurs peuvent aussi choisir de les rendre publics, de façon simple ou personnalisée. Dans ce dernier cas, ils se voient conférer, de façon paramétrable et tout en respectant le régime des licences juridiques retenues, des privilèges plus détaillés que l’alternative public/privé, et leur permettant d’avoir accès, par exemple, à la lecture des traductions, à leur modification, à la possibilité de créer d’autres traductions… Enfin, tout en bas, les utilisateurs se voient offrir la possibilité (là encore paramétrable) d’insérer des métadonnées (tag) concernant le texte : auteur, siècle, genre, date de publication, autres commentaires…
La traduction est réalisée par les utilisateurs (selon les privilèges qui leur ont été accordés par la personne qui a inséré le texte), de façon purement humaine – à aucun moment n’intervient de traduction automatique, contrairement à ce que propose le kit du traducteur de Google. La dimension interprétative de l’acte traductionnel est illustrée par la segmentation manuelle (jamais automatique) du texte, sans restriction au seul niveau de la phrase, auquel se cantonnent la plupart des mémoires de traduction (y compris le kit du traducteur de Google ; figure 3). Il suffit pour cela de cliquer sur les petites flèches bleues. De la sorte, ce sont des morceaux de textes (ou de traductions) qui sont insérés dans une base de données personnalisée, par exemple des strophes de sonnets, et non de simples paires de phrases, rendues artificiellement indépendantes de leur contexte d’apparition.
Il est également possible de rechercher des concordances, pour stimuler la créativité du traducteur par des suggestions, par exemple, mais aussi pour harmoniser une traduction collective (figure 4). Certes, traditionnellement, un concordancier réalise l’alignement des fragments de texte contenant le mot recherché, celui-ci étant généralement centré. Mais si une concordance se définit par le fait de donner pour chaque mot (souvent présenté dans l’ordre alphabétique) l’ensemble des passages d’un texte (ou d’un ensemble de textes) le contenant, alors l’originalité de TraduXio est d’offrir une concordance multilingue. Et comme elle est, de plus, numérique, la liste alphabétique (qui est juste un dispositif de recherche sur papier) est remplacée par un champ de saisie et une liste de résultats : précis (correspondance exacte [exact match]) ou approchés (correspondance approchée [fuzzy match]).
Il est par ailleurs toujours possible d’affiner la recherche pour obtenir des résultats plus pertinents, en utilisant les molettes situées en haut de l’écran. En l’occurrence, on pourrait souhaiter sélectionner seulement une langue, ou certaines, par exemple à l’exclusion du roumain, pour se cantonner aux suggestions du français, de l’espagnol ou de l’allemand. La même opération peut être réalisée concernant toutes les sous-catégories introduites (de façon souple et paramétrable) par l’étiquetage : par exemple le siècle, l’auteur, le genre, la date d’édition…
À chaque étape du travail intervient une dimension d’interprétation, et les utilisateurs demeurent toujours libres de maîtriser les paramètres de publicité du processus collaboratif.
5. Les défis du multilinguisme collaboratif
Le principal défi qu’un tel projet doit relever consiste à affronter ce que l’on pourrait appeler « l’objection du commencement » : puisqu’un tel environnement ne semble avoir d’intérêt que dans la mesure où certains textes ont préalablement été déposés dans la base de données, il n’existe aucune incitation à « lancer le mouvement » – aucun résultat n’étant disponible pour les premiers utilisateurs. Autrement dit, personne n’a intérêt à utiliser un tel outil parce que sa mémoire est vide. Le cercle paraît bel et bien vicieux.
Une telle objection fait précisément fi de l’originalité profonde de TraduXio. Elle sous-entend en effet que le projet ne consiste qu’à construire une mémoire de traduction (une de plus) pour les textes littéraires. En réalité, d’une part, le projet TraduXio, parce qu’il s’attache précisément à des aspects textuels négligés (auteur, genre, contextualisation des segments), n’est pas, au sens strict, une mémoire de traduction (Bénel et Lacour 2011). D’autre part, TraduXio est une initiative inédite qui vise rien moins qu’à inventer, non pas un nouvel ensemble, mais une nouvelle manière de constituer des ensembles documentaires, en particulier pour les textes littéraires. L’entreprise ne paraît impossible qu’à ceux qui feignent d’ignorer les succès considérables des créations de communautés virtuelles de ces dix dernières années, et dont Wikipédia n’est que l’exemple le plus stupéfiant. Elle n’est pas pour autant facile, et c’est pourquoi le projet s’adresse en priorité aux communautés de recherche déjà fortement structurées et désireuses de s’engager dans un projet précis et limité (comparaison des traductions d’un corpus précis, pour l’évaluer, par exemple, voire le retraduire en commun). L’exercice est toutefois déjà largement utile au degré zéro de la collaboration (traduction en solitaire), lorsqu’il s’agit, par exemple, d’insister sur la cohérence de son propre travail en harmonisant la traduction de certains termes d’une page à l’autre. Il l’est a fortiori quand une communauté entend constituer un glossaire (pour une édition critique), ou tout simplement travailler de façon asynchrone, en tirant parti de l’heureuse ubiquité et uchronie virtuelle. À terme, c’est enfin la confrontation que promeut TraduXio : puisqu’on ne conteste une traduction qu’en en proposant une autre, l’enjeu est d’organiser et de visualiser les points de vue adverses, en les indexant sur des traductions concurrentes. Une fois qu’on a traduit, il faut encore retraduire.
Le deuxième défi concerne la question fondamentale de la rémunération des traducteurs, qui constitue une part importante de leur valorisation. Le Web 2.0 a certes mis la collaboration à la mode, mais sans nécessairement apporter les garanties requises à un développement effectivement durable des coopérations et des communautés. Le modèle économique de la traduction, comme celui de l’édition en général, est en crise ; et on ne voit pas très bien quel intérêt les traducteurs, déjà fortement isolés et précarisés, auraient à partager leur création, sans garanties. À cette objection forte on doit apporter une double réponse. D’abord, on peut parfaitement imaginer d’utiliser TraduXio de façon privée, en ne donnant accès à ses traductions que de façon limitée, et selon le « droit de citation courte » (à peu près équivalent au fair use device) : il s’agirait alors de donner à voir, mais pas trop, et suffisamment pour susciter l’intérêt et donner envie d’acheter l’ouvrage, par exemple. Ensuite, l’enjeu est précisément d’aider à constituer de nouvelles coopératives intellectuelles, sur le modèle de la mutualisation et de l’association. Sans être nécessairement lucratif, le but de tels groupes n’exclut nullement les profits marchands, selon une nuance caractéristique du quart-secteur (entrepreunariat social [for more than profit]).
Le dernier défi concerne les aspects juridiques des objets de traduction ainsi constitués, et pour lesquels il convient de distinguer les textes singuliers (items) et les groupements de textes (corpus). Dans chaque cas, l’approche préconisée est à la fois libérale et d’une grande souplesse. TraduXio encourage l’utilisation de licences libres (de type Creative Commons), qui permettent le recyclage du savoir et la valorisation du travail des traducteurs. Répétons-le, TraduXio est avant tout un atelier numérique et un projet d’encapacitation (empowerment) de communautés qui n’a pas (en tout cas, pas d’abord) une vocation éditoriale : les textes traduits peuvent parfaitement demeurer cachés, dans le « Web invisible » ; et, s’ils doivent être mis en ligne, c’est avec la licence juridique que choisit leur traducteur. Les utilisateurs conservent à tout moment le contrôle sur leurs documents : contrairement aux conditions d’utilisation (terms of use) du Google Translator’s Toolkit, la plateforme TraduXio ne se réserve pas de droits sur les textes versés dans la base de données, en dehors du droit de citation courte.
Le cas des ensembles de textes est résolu de façon similaire, même s’il pose des difficultés spécifiques. Nous préférons parler de bases documentaires plutôt que de bases de « données » – la notion de document-pour-une-certaine-action devant être substituée à celle, positiviste (et illusoire), de donnée « neutre » (Zacklad, Bénel, et al. 2007). Ces corpus doivent être compris au sens problématologique que leur donne la linguistique de corpus (corpus driven), et par opposition à l’orientation massivement positiviste de la linguistique sur corpus (corpus-based) qui, fascinée par les quantités d’informations disponibles, oublie qu’un corpus est nécessairement relatif à une certaine question (Rastier 2004a, Lacour 2010). Un tel assemblage de textes, en tant que création originale, regroupement inédit, ouvre des droits (de propriété intellectuelle). La question du droit des corpus multilingues, aujourd’hui complexe et fort débattue, est au coeur du renouveau contemporain des biens communs (« Commons »). La dispute oppose les arguments des avocats du domaine public[22] et ceux des défenseurs acharnés du droit d’auteur (ou du copyright « dur »). Là encore, des licences « ouvertes », qui ont le mérite (antipositiviste[23]) d’obliger à assumer la responsabilité de son acte de collecte, permettent tout à la fois de valoriser le travail des agents et de promouvoir la circulation (légitime) du savoir. Et à aucun moment la plateforme TraduXio ne réserve de droit sur les corpus, en dehors de celui de citation courte.
Conclusion
En soulignant la fonction culturelle fondamentale de transfert de la traduction littéraire, cet article a voulu insister sur le véritable foisonnement qu’augurent les TIC en termes de pollinisation et de translocalisation du sens. Bien des dialogues interculturels n’ont pas encore été noués, et l’ubiquité virtuelle est porteuse de nombreuses rencontres linguistiques fécondes. Combien de nouveaux « observables » les technologies de la comparaison vont-elles permettre de déceler ? Combien de territoires révéleront ainsi les différentes facettes de leurs paysages ? Combien, enfin, de communautés virtuelles en peupleront désormais les espaces ?
TraduXio est l’un des exemples concrets de ces technologies du métissage que la raison présente semble à la fois appeler et produire. Une telle transformation, contemporaine de la mutation anthropologique de grande ampleur induite par la culture numérique, n’est d’ailleurs pas sans impact sur la définition de la fonction de l’intellectuel (Lacour 2008), ainsi que sur le rôle des institutions universitaires[24], qui doivent désormais accepter de ne plus être le lieu exclusif de création et de dissémination du savoir (même si elles en restent le vecteur privilégié), et tisser avec les nouveaux acteurs (en particulier du monde associatif) de nouveaux partenariats[25].
C’est donc sans technophilie excessive, mais au contraire avec une grande mesure, qu’on peut annoncer un nouvel âge de la pollinisation culturelle – absolument sans équivalent dans notre histoire. À l’ère de l’information et de la culture libre, les traducteurs « littéraires » sauront-ils s’emparer de cette opportunité ?
Parties annexes
Notes
-
[1]
La Convention sur la protection et la promotion de la diversité des expressions culturelles, signée en 2005, constitue l’un des trois piliers de l’Unesco, avec la Convention de 1972 sur la protection de l’héritage culturel et naturel et la Convention de 2003 sur la préservation du patrimoine culturel intangible. Convention sur la protection et la promotion de la diversité des expressions culturelles. Consultée le 27 juillet 2010, <http://www.unesdoc.unesco.org/images/0014/001429/142919f.pdf>.
-
[2]
Proclamation de l’Assemblée Générale des Nations Unies, le 16 mai 2007. General Assembly GA 10592. Consultée le 27 juillet 2010, <http://bit.ly/d5CHgH>.
-
[3]
Ratification, le 18 décembre 2006, de la Convention pour la protection et la promotion des expressions culturelles par l’Union Européenne.
-
[4]
Le 5 décembre 2005, la Commission Européenne a proposé que 2008 soit l’année européenne du dialogue interculturel. The European Commission proposes that 2008 be “European Year of Intercultural Dialogue”. Consultée le 27 juillet 2010, <http://bit.ly/aMZHOX>.
-
[5]
Voir le site de l’Asia Society : <http://asiasociety.org/education-learning/policy-initiatives/national-initiatives>, notamment : Language-related Legislation in Congress. Consultée le 13 septembre 2010, <http://bit.ly/a3Rl9s> ; Congressional Briefing on Languages. Consultée le 20 juillet 2010, <http://bit.ly/9x9K2j>.
-
[6]
L’initiative B@bel veut contribuer à la réalisation de l’objectif de l’UNESCO (construire des sociétés du savoir, favoriser l’accès universel à l’information et le développement impulsé par l’information) par une triple stratégie incluant des actions dans les domaines des politiques, de la sensibilisation et de la mise en oeuvre de projets pilotes novateurs. Initiative B@bel. Consultée le 27 juillet 2010, <http://webworld.unesco.org/imld/babel_en.html>.
-
[7]
Voir par exemple les indicateurs de l’Union Latine : Portalingua. Observatoire des langues dans la connaissance. Consultée le 13 septembre 2010, <http://www.portalingua.info>.
-
[8]
Selon l’expression popularisée par le livre de Lawrence Lessig, publié en 2004. Free Culture. Consultée le 27 juillet 2010, <http://www.free-culture.cc/>.
-
[9]
L’appellation « Web 2.0 » a été forgée par Dale Dougherty en 2003 et largement diffusée par Tim O’Reilly. Le terme « Web 2.0 » ne fait pas référence à une innovation technique mais à une mutation des usages du Web (O’Reilly 2005). Quelques années après l’éclatement de la « bulle Internet », l’éditeur Tim O’Reilly constate que les sites Web qui ont le plus de succès partagent un certain nombre de caractéristiques. L’une d’entre elles est de « tirer parti de l’intelligence collective ». En effet, qu’il s’agisse des commentaires de livres sur Amazon, de sites « tagués » sur Del.icio.us, ou d’articles sur Wikipedia, les contenus sont produits non par le fournisseur du service mais par les usagers. En somme, la participation sur Internet, autrefois réservée à quelques communautés spécialisées (logiciels libres, Open Directory Project [le catalogue participatif du Web], archives ouvertes…), serait devenue le mode d’usage majoritaire.
-
[10]
Le terme d’« archive ouverte » fait référence (au départ) à la prépublication d’articles scientifiques sur Internet. ArXiv, la première archive ouverte, est créée en 1991 (à l’aide d’un serveur FTP et d’une liste de diffusion) afin de fluidifier la circulation des travaux de recherche des physiciens. Utilisées d’ordinaire en parallèle du processus de publication classique, les archives ouvertes pourraient, selon ses promoteurs, s’y substituer si l’on y intégrait des « cachets d’approbation » (seals of approval) matérialisant l’évaluation par les pairs.
-
[11]
Voir « Creative Commons ». Consultée le 3 septembre 2010, <http://www.creativecommons.org>.
-
[12]
La première concordance connue est celle réalisée à partir de 1235 par des dominicains sous la direction d’Hugues de Saint Cher. Le premier dictionnaire multilingue connu est le « calepin » (du nom de l’augustin qui le réalisa). En 1509, il comportait quatre langues : l’hébreu, le grec, le latin et l’italien.
-
[13]
Voir par exemple la bibliothèque numérique « Perseus », Perseus Digital Library. Consultée le 3 septembre 2010, <http://www.perseus.tufts.edu>.
-
[14]
La responsabilité scientifique directe du projet revient à Aurélien Bénel, Maître de Conférences en Informatique. Aurélien Bénel. Consultée le 27 juillet 2010, <http://tech-cico.utt.fr/fr/membres/benel.html>.
-
[15]
Liste complète des partenaires de TraduXio : Sourceforge.net : Project traduxio. Consultée le 27 juillet 2010, <http://sourceforge.net/apps/wordpress/traduxio/>.
-
[16]
Le développement informatique est assuré par Franck Eyraud et Diana Zambon.
-
[17]
Politique des langues et traduction des sciences de la culture. Consultée le 27 juillet 2010, <http://www.cmb.hu-berlin.de/cmb/main/index.php?cms_menu_id=506&language=fr>.
-
[18]
Voir le kit du traducteur, Google Translation Toolkit (à ne pas confondre avec Google Translate). Consultée le 3 septembre 2010, <http://translate.google.com/toolkit>.
-
[19]
Voir le site de l’entreprise allemande Leo GmbH, qui propose en ligne des dictionnaires de traduction consacrés à la langue allemande et notamment un dictionnaire franco-allemand, Leo. Consultée le 27 juillet 2010, <http://dict.leo.org/forum/>.
-
[20]
Voir « Wikisource ». Consultée le 3 septembre 2010, <http://wikisource.org>.
-
[21]
Le site est en évolution constante, et les versions ultérieures pourront éventuellement différer de celle de l’automne 2010.
-
[22]
Tel est le sens de la création récente de la licence Creative Commons « Zero » (au sens strict un dispositif juridique de renonciation aux droits d’auteur [waiver] plus qu’une licence), en 2010 : CC0. Consultée le 13 septembre 2010, <http://creativecommons.org/choose/zero/>. Voir également le « Manifeste pour le domaine public », dont la conception de la publicité est particulièrement large : The Public Domain Manifesto. Consultée le 13 septembre 2010, <http://publicdomainmanifesto.org>.
-
[23]
Le positivisme des « données » est un postulat fondamental des travaux de l’Open Linguistic Data Group, qui s’est réuni au MIT de Harvard en mars 2010.
-
[24]
Voir la conférence Communia, du 28 au 30 juin, Turin (Italie) : Reshaping Knowledge Institutions for the Networked Age. Consultée le 13 septembre 2010, <http://www.communia2010.org/>.
-
[25]
Voir par exemple le partenariat signé en 2010 entre Wikimedia France (association loi 1901) et la Bibliothèque Nationale de France, concernant le projet Wikisource : Wikimedia signe un partenariat avec la BNF. Consultée le 13 septembre 2010, <http://www.wikimedia.fr/wikim%C3%A9dia-france-signe-un-partenariat-avec-la-bnf>.
Bibliographie
- Aigrain, Philippe (2010) : La réinvention des communs physiques et des biens publics sociaux à l’ère de l’information. Multitudes. 41:42-49.
- Basalamah, Salah (2009) : Le droit de traduire. Une politique culturelle pour la mondialisation. Ottawa : Presses de l’Université d’Ottawa.
- Bénel, Aurélien, Zhou, Chao et Cahier, Jean-Pierre (2010) : Beyond Web 2.0… And Beyond the Semantic Web. In : David Randall et Pascal Salembier, dir. From CSCW to Web 2.0 : European Developments in Collaborative Design. London : Springer Verlag. Consultée le 1er juillet 2010, <http://benel.tech-cico.fr/publi/benel_SPRINGER_2010.pdf>
- Bénel, Aurélien et Lejeune, Christophe (2009) : Humanities 2.0 : documents, interpretation and intersubjectivity in the digital age. International Journal of Web Based Communities. 5(4):562-576.
- Bénel, Aurélien et Lacour, Philippe (2011, à paraître) : Towards a Collaborative Platform for Cultural Texts Translators. In : Pierre Maret, dir. Virtual Community Building and the Information Society : Current and Future Directions. Hershey : IGI Global.
- Cassin, Barbara, dir. (2004) : Vocabulaire européen des philosophies. Dictionnaire des intraduisibles. Paris : Seuil-Le Robert.
- Coseriu, Eugenio (2000) : L’homme et son langage. Paris : Vrin.
- Forst, Rainer (2007) : Das Recht auf Rechtfertigung. Elemente einer konstruktivistischen Theorie der Gerechtigkeit. Frankfurt : Surhkamp.
- Freitas, Any et Lacour, Philippe (2011, à paraître) : Managing Customization in Language Teaching through Collaborative Translation : Traduxio, an open source platform for Precise Translation. In : Michael Maerlein, dir. Proceedings of the First International Conference : “Mass Customization” for Language Teaching and Learning. (Dublin, 25-27 août 2010).
- Honneth, Axel (2000) : Das Andere der Gerechtigkeit. Aufsätze zur praktischen Philosophie. Frankfurt : Suhrkamp.
- Honneth, Axel (2007) : Pathologien der Vernunft. Geschichte und Gegenwart der Kritischen Theorie. Frankfurt : Suhrkamp.
- Koselleck, Reinhardt, Brunner, Otto et Conze, Werner, dir. (2004) : Geschichtliche Grundbegriffe-Historisches Lexikon zur politisch sozialen Sprache (Sonderausgabe). Stuttgart : Klett-Cotta.
- Lacour, Philippe (2008) : Portrait de l’intellectuel en DJ. Wikipédia face à l’expertise scientifique. La vie des idées. Consultée le 7 août 2010, <http://www.laviedesidees.fr/Portrait-de-l-intellectuel-en-DJ.html>.
- Lacour, Philippe (2009) : Diskursivität. Zur logischen Erklärung der Hemerneutik Ricoeurs. Energeia – Online Zeitschrift für Sprachwissenschaft und Sprachphilosophie. Consultée le 27 juillet 2010, <http://www.uni-tuebingen.de//uni/nrk/coseriu/energeia/zeitschrift/2009/diskursivitaet.html>.
- Lacour, Philippe (2010) : Discours, texte, corpus.In : Driss Ablali et Margareta Kastberg Sjöblom, dir. Linguistique & Littérature. Cluny, 40 ans après. Annales littéraires de l’université de Franche-Comté, Besançon. Consultée le 20 décembre 2010, <http://alufc.univ-fcomte.fr/index.php?page=15&o_cle=913>.
- Lacour, Philippe (2011, à paraître) : La nostalgie de l’individuel. Essai sur le rationalisme pratique de Gilles-Gaston Granger. Paris : Vrin.
- Ost, François (2009) : Traduire. Défense et illustration du multilinguisme. Paris : Fayard.
- Passeron, Jean-Claude (2006) : Le raisonnement sociologique. L’espace non-poppérien du raisonnement naturel. Paris : Albin Michel.
- Passeron, Jean-Claude et Revel, Jacques, dir. (2005) : Penser par cas. Paris : EHESS.
- Poncharal, Bruno (2007) : Le « Social Science Translation Project » et la traduction des sciences humaines. Hermès. Cognition. Communication. Politique. 49:99-106.
- Rastier, François (1998) : Sens et signification. Protée. 26(1):7-18.
- Rastier, François (2001) : Arts et sciences du texte. Paris : PUF.
- Rastier, François (2004a) : Enjeux épistémologiques de la linguistique de corpus. Texto ! Consultée le 27 juillet 2010, <http://www.revue-texto.net/Inedits/Rastier/Rastier_Enjeux.html>.
- Rastier, François (2004b) : Ontologie(s). Revue des sciences et technologies de l’information. 18(1):15-40. Consultée le 27 juillet 2010, <http://www.revue-texto.net/Inedits/Rastier/Rastier_Ontologies.html>.
- Rastier, François (2007) : La traduction : Interprétation et genèse du sens. Revue Texto ! Consultée le 10 avril 2010, <http://www.revue-texto.net/index.php?id=2202>.
- Rastier, François (2008) : Conditions d’une linguistique des normes, Texto ! Consultée le 27 juillet 2010, <http://www.revue-texto.net/index.php?id=1612>.
- Rastier, François et Bouquet, Simon, dir. (2002) : Une introduction aux sciences de la culture. Paris : PUF.
- Schleiermacher, Friedrich (2004) : Dialectique. (Traduit par Christian Berner). Paris : Cerf.
- Soufron, Jean-Baptiste (2009) : Standards ouverts, open source, logiciels et contenus libres : l’émergence du modèle du libre. Esprit. mars-avril : 128-137.
- Stallman, Richard (2010) : Who does this server really serve ? Consultée le 27 juillet 2010, <http://www.gnu.org/philosophy/who-does-that-server-really-serve.html>.
- Van Parijs, Philippe (2010) : Linguistic Justice and the Territorial Imperative. Critical Review of International Social and Political Philosophy. 13(1):181-201.
- Wismann, Heinz et Judet De La Combe, Pierre (2004) : L’avenir des langues. Repenser les humanités. Paris : Cerf.
- Zacklad, Manuel, Bénel, Aurélien, Cahier, Jean-Pierre, et al. (2007) : Hypertopic : une métasémiotique et un protocole pour le web socio-sémantique. In : Francky Trichet, dir. Actes de la conférence IC 2007 – 18e Journées Francophones d’Ingénierie des Connaissances, Grenoble, 4-6 juillet 2007. Toulouse : Cépaduès. Consultée le 7 août 2010, <http://publi.tech-cico.fr/files/zacklad_IC_07.pdf>, 217-228.