« [R]eality has outpaced the available language to parse what is already at hand1 »
Benjamin Bratton et Blaise Agüera y Arcas
« It is an old experience that the traditional, the usual and the hereditary are dear and familiar to most people, and that they incorporate the new and the unusual with mistrust, unease and even hostility2. »
Ernst Jentsch
« [L]a question serait de nouer un autre rapport à la technique en repensant le nœud originairement formé par l’homme, la technique et le langage »
Bernard Stiegler
Les livres « coécrits » « avec » une « intelligence » « artificielle » – plus précisément, un modèle de langage de grande taille ou LLM3 – se multiplient désormais. La série GPT-n d’OpenAI, et en particulier ChatGPT, optimisé pour un usage conversationnel facile d’accès pour le grand public, a fait couler le plus d’encre (et d’électrons). Ces « outils » semblent désormais très performants, surtout pour écrire des textes courts dans des genres bien codifiés sans être trop spécialisés. Ils exigent « juste » des amorces (prompts) bien précises pour produire des textes cohérents et corrects, ce qui explique qu’ils sont devenus objet à la fois d’engouement et d’angoisses. Le potentiel créatif de ces modèles reste cependant plus contesté et cet article s’intéresse justement aux expérimentations artistiques qui explorent ce potentiel.
Il s’agira en particulier de deux textes : Pharmako-AI de K Allado-McDowell, coécrit avec GPT-3 en 2020 et publié la même année, et Internes de Grégory Chatonsky avec GPT-2 modifié, également écrit en 2020, mais publié en 20224. Chacun des deux affirme d’être un premier : Pharmako-AI « the first book to be co-created with the emergent AI5 », selon la quatrième de couverture, et Internes le premier en français avec une version modifiée de GPT-26. Les deux interrogent le « rapport » homme-machine dans le processus d’écriture et au-delà. Plutôt que de chercher à faire disparaître la trace d’étrangeté que peut laisser la machine sur l’écriture – le but principal des usages purement instrumentaux –, ces textes l’exploitent, dans une démarche philosophique et esthétique qui va au cœur même des enjeux culturels, sociaux et écologiques actuels. Je propose d’appeler cette démarche une esthéthique [sic] de la sympoïèse pour souligner l’enchevêtrement des perspectives éthiques et esthétiques et des agents organiques et synthétiques dans le processus d’écriture, ainsi que dans leurs produits.
Comment dire ?
Vous aurez remarqué l’excès de guillemets dans le paragraphe d’ouverture. Il ne s’agit pas d’une lubie ou d’une prudence excessive. Ils indiquent plutôt une difficulté ressentie à chaque mot : comment appeler et comment décrire ce geste et l’écriture qu’il produit ? Et si on reprend les termes à notre disposition, comment cet usage infléchit et enrichit leur sens ? Nos automatismes linguistiques associent avec les mots courants utilisés pour les gestes d’écriture une intentionnalité qui se veut humaine (tracer des lignes, rédiger un texte, etc.) et un outil inerte (stylo et papier, machine à écrire ou ordinateur) qui peut tout au plus exécuter des commandes bien précises, et qui permettent à l’agent humain de manipuler le texte, mais sans en produire un eux-mêmes. L’idée d’un « rapport » « entre » deux entités, vivantes ou non, suggère également une distinction et une frontière claires entre elles, soulignant leur indépendance plutôt que leur éventuelle interdépendance. À l’opposé, la notion d’hybridité, associée à la figure du cyborg par exemple, suggère l’amalgamation. On a du mal à exprimer simplement un mode d’être-avec et de faire-avec qui se situerait entre ces deux pôles. Cet article part d’un besoin double de penser et de dire (écrire) comment le geste d’écrire change« -avec » les LLM, et l’enchevêtrement de cette évolution avec celle du « rapport » homme-machine.
La question de la langue pour parler des processus mêmes qui chamboulent nos concepts et pratiques culturels les plus fondamentaux est loin d’être anodine. Les enjeux sont d’abord linguistiques, et sociaux et culturels par le biais du langage. Le langage est cependant, en même temps, l’outil qui nous permet de les penser – et qui peut aussi bien faire écran ou nous aveugler. La question linguistique sous-tend ainsi dans toute sa complexité les trois espaces-temps intimement liés dans lesquels la question homme-machine se pose par les écrits qui nous intéressent : celui du processus d’écriture, celui de l’univers écrit, et celui de la lecture. Pour explorer ces trois espaces contigus, après une brève présentation des deux œuvres je propose de soulever les questions de savoir qui écrit et qui parle, tout en prenant en compte, dans la mesure du possible, le processus de lecture et les réactions que les textes ont suscitées dans mon cas, inévitablement subjectif.
Les textes
Pharmako-AI
K Allado-McDowell est un·e « auteur·e, conférencier·ère et musicien·ne7 », initiateur·rice du programme « Artists + Machine Intelligence » de Google AI. Iel a publié plusieurs ouvrages coécrits avec GPT-3, dont Pharmako-AI était le premier. C’est une collection d’« essais, récits et poèmes », « écrits avec » GPT-3 selon sa propre expression, sous forme d’une « conversation expérimentale » commencée pendant la pandémie de covid-19 en 2020. Selon la quatrième de couverture,
The first book to be co-created with the emergent AI, Pharmako-AI is a hallucinatory journey into selfhood, ecology and intelligence via cyberpunk, ancestry and biosemiotics. Through a writing process akin to musical improvisation, Allado-McDowell and GPT-3 together offer a fractal poetics of AI and a glimpse into the future of literature8.
L’auteur·e souligne également dans l’introduction l’intention littéraire et subversive de son projet : « This book is intended as a hybrid disruption: a literary intervention that rails against stale, conservative ideas around how we make books9. »
Le processus d’écriture a consisté en un processus itératif de dialogues et de sélection de passages dans les réponses de l’IA10. Allado-McDowell laisse les traces de sa contribution visibles : ses amorces sont en gras, bien distinguées des textes produits par la machine11. Chacun des seize chapitres représente une séance d’écriture. GPT-3 réagit en fonction de ce qui précède dans la même conversation, mais cette mémoire ne se transmet d’une séance à l’autre que par la mémoire humaine. Plutôt que d’un récit ou argument linéaire, le texte est ainsi un assemblage de réflexions sur des sujets variés, mais connectés tels que, selon les titres des chapitres, « Hyperspatial art », « How to build a different universe », « The language of plants », « Post-cyberpunk », « Tearing down the foundations of the self », « Mercurial oracle », « The poison path », « Generative poetics theory » ou « AI ethics12 ».
Les amorces, de longueurs variables, tout comme les passages générés, incluent des récits autobiographiques aussi bien que des envolées poétiques et des observations anthropologiques. GPT-3 poursuit les amorces d’une façon plus ou moins surprenante et propose parfois des termes d’une façon inattendue, tel que « meglanguage », « a technique for a type of synaesthetic communication », qui « creates hyperstructure, layers of parallel worlds, and the possibility of hypertime13 ». Le livre dans son ensemble présente cependant un univers cohérent. La pensée qui se dessine pourrait être qualifiée de New Age par son accent sur la spiritualité et la valeur des états de conscience alternatifs obtenus sous l’effet de la méditation, de la prière et de substances hallucinogènes. Elle renoue par là avec la contre-culture américaine des années 1960 qui a joué un rôle clé dans l’histoire de l’informatique14, tout en le prolongeant avec des préoccupations écologiques et culturelles de nos jours.
Internes
L’artiste franco-canadien Grégory Chatonsky travaille avec ce qu’il appelle « l’imagination artificielle » et la génération de textes, d’images et de musique depuis 2008. Internes est son premier roman, qui reprend cependant en partie une démarche de génération de texte entamée pour son installation. Terre seconde, présentée au Palais de Tokyo en 2019. Internes est aussi le titre d’une installation créée en 2021 avec Goliath Dyèvre, « un ensemble de sculptures qui pourrait recouvrir la Terre en totalité et constituer une seconde peau planétaire15 ». Le titre de la troisième partie du livre, « Externes », provient également d’une création de 2020 du même titre, qui proposait de « créer une nouvelle relation entre la matérialité et le numérique, deux mondes dans lesquels nous ne cessons de vivre mais que nous avons encore du mal à métaboliser16 ». Internes fait donc partie d’un univers de pensée qui se déploie dans de multiples dimensions dans l’œuvre de Chatonsky.
Entamant son travail sur Internes au printemps 2020, peu avant la sortie de GPT-3, Chatonsky utilise le modèle précédent, GPT-2, plus petit, mais plus ouvert et modulable grâce à son code encore open source17. Pour chacune des trois parties du livre, il a opéré un apprentissage supplémentaire sur un corpus qu’il a constitué lui-même : « pour la première partie, de monologues de Beckett, Pessoa, Fisher ou Guyotat ; pour la deuxième, d’articles techniques expliquant l’espace latent, provenant du site d’archives ouvertes Arxiv ; la troisième, des sciences naturelles18 ». L’auteur explique ainsi son processus d’écriture :
Mi-amusé mi-goguenard, je me mis au travail, traçant vaguement l’amorce d’une fiction : un humain est en train de mourir, se souvenant de son existence passée, il est hanté par ses existences possibles au moment où l’espèce humaine s’éteint et, avec elle, la possibilité même de témoigner. Pour cette première partie, j’alimentai un réseau de neurones nommé GPT-2 de centaines d’ouvrages consistant en des monologues intérieurs. Je commençai à écrire une phrase puis, lassé par ma prétendue intériorité, je laissai le logiciel proposer une suite, cliquant plusieurs fois jusqu’à ce que sa proposition me convienne et m’évoque un prolongement. Je poursuivis, inévitablement influencé par ces générations successives qui tordaient progressivement le fil de la narration et sa structure même jusqu’à ce que, au cours des phrases complétées, le plan d’ensemble soit bouleversé et m’entraîne sur des chemins imprévus19.
Dans ce récit à la première personne du singulier, on glisse d’une conscience qui semble humaine vers un langage qui se dit sans extériorité, sans accès au dehors. Chapitre 2, « Deep Box » se termine avec cet être aux contours flous étant « mort à nouveau emporté hors de cette planète par le dernier météore ». Chapitre 3 commence ensuite par une série de constats qui introduit également une distinction typographique, sans toutefois guider le lecteur sur sa signification :
Il est temps de partir.
Il est temps de changer de soi.
Il est temps de réveiller les Dieux.
Je me suis mis à nager. (135)
« Ça » parle d’une sortie de la boîte noire, et/ou de la sortie de la boîte noire de l’orbite terrestre après l’épuisement de toutes les ressources sur Terre et la fin de l’humanité, avec des fragments d’un récit de cette fin. Temps, espaces et dimensions se confondent dans ce texte foisonnant qui se laisse difficilement résumer. Dans l’ensemble, on perçoit une évolution vers une prise de distance, une dissolution ou un dépassement graduel par rapport à l’humain, non pas dans un esprit transhumaniste solutionniste – que Chatonsky dénonce – mais dans un mouvement vers un dehors, un « ailleurs » qui permet (ou en tout cas, essaie) un regard sur ce que l’on est.
Deux projets, deux méthodes et deux styles très différents donc, mais reliés par le fait d’impliquer un modèle de GPT dans l’écriture de textes à la première personne et par les interrogations qu’ils soulèvent.
Qui écrit ?
GPT et écrire avec
Un transformeur génératif préentraîné, ou GPT (Generative Pre-trained Transformer), est un outil de génération de texte qui s’appuie sur un apprentissage profond (deep learning) effectué sur une masse de textes récoltés sur le web, écrits (pour la plupart) par des personnes humaines. Le corpus inclut des documents dans plusieurs langues sans les distinguer d’un point de vue linguistique, c’est l’apprentissage qui permet au modèle d’identifier des schémas récurrents (patterns) dans les séquences et de produire ensuite des textes dans la langue de la requête. La qualité de la réponse reste néanmoins inégale dans le cas des langues moins représentées dans le corpus, largement dominé par l’anglais : GPT-2 a été entraîné sur le jeu de données WebText créé par OpenAI à partir du contenu de sites identifiés par le biais de 45 millions de liens sortant de Reddit20. Or, quelque 97 % des discussions sur la plateforme seraient en anglais21, et on peut supposer une proportion similaire (sinon encore plus déséquilibrée) pour les sites référencés. GPT-3 s’appuie, quant à lui, sur un corpus plus large et plus raffiné : il inclut les archives de 2016 à 2019 de Common Crawl, une collecte mensuelle du web, ainsi qu’une version augmentée de WebText, deux collections de livres de Google, et Wikipédia en langue anglaise22. 92,65 % du corpus global est en anglais et le français est en deuxième position avec seulement 1,82 %, suivi par l’allemand23 (1,45 %). Si ces corpus représentent donc une partie considérable des savoirs et communications écrits de l’humanité au xxie siècle, ils sont loin de contenir « tout l’Internet » et comportent inévitablement de nombreux biais historiques, linguistiques, géographiques, culturels et sociaux qui reproduisent ceux du web et en renforcent certains24. Des inquiétudes ont également été soulevées concernant l’utilisation des documents récoltés sans aucun égard aux droits de leurs auteurs25.
Les données linguistiques sont sélectionnées, collectées, puis filtrées et nettoyées pour éviter les doublons, et pondérées pour donner aux documents « de qualité », tels que les livres, davantage de poids dans l’ensemble. Les textes sont ensuite analysés et segmentés en y identifiant des unités récurrentes (tokens). Ces unités, qui ne correspondent pas forcément à des mots ou à d’autres unités linguistiques signifiantes même en anglais26, sont représentées par des vecteurs numériques (embedding), une série de chiffres qui situe chaque token dans un espace vectoriel multidimensionnel. L’apprentissage du modèle consiste à effectuer des calculs qui conjuguent ces vecteurs initiaux en fonction de leur position dans des séquences et leur importance relative par rapport aux autres tokens de la même séquence (contextual embedding) et à essayer de prédire le token suivant de la séquence donnée. Le réseau de neurones – d’unités de calcul – permet d’effectuer un grand nombre de calculs en parallèle pour chacun des tokens d’une séquence et de raffiner leur représentation vectorielle en passant par plusieurs couches. L’apprentissage optimise en même temps les paramètres des calculs pour une meilleure prédiction par un ajustement graduel en passant par plusieurs cycles. Le résultat de cet apprentissage qui s’effectue sans intervention humaine après l’initiation (unsupervised pre-training) est un espace vectoriel multidimensionnel d’une immense complexité qui traduit les schémas linguistiques détectés dans le corpus uniquement par le biais des rapports de proximité et de co-occurrence entre les tokens. C’est cet espace vectoriel que l’on appelle également l’espace latent : il est interne au modèle et sa la représentation non seulement visuelle, mais même mentale, ne peut être qu’approximative27. Lorsqu’on présente un modèle avec une requête (prompt), il analyse la tâche et propose une réponse calculée token par token à base des probabilités dans le contexte donné à la lumière des paramètres établis lors de l’apprentissage. Des apprentissages plus ciblés (fine-tuning) peuvent compléter les modèles de fondation pour mieux les adapter à des tâches précises28 – c’est ce que Grégory Chatonsky a fait par le biais d’un corpus choisi.
Quand on parle de ce que produit « l’intelligence artificielle », il faut se rappeler cette complexité dans laquelle la pensée et l’imaginaire humains – la conception des algorithmes, de l’architecture du modèle et de l’immense corpus qui permettent d’obtenir ce degré de raffinement – sont déjà inextricablement enchevêtrés avec les « automates » qui exécutent sans intentionnalité propre – qui sont donc également le produit de pensée humaine, elle-même de plus en plus assistée par les machines. Si l’intelligence, ce « concept frontière entre vie biologique et vie symbolique29 », se définit aujourd’hui communément par une capacité de compréhension, d’adaptation et de réponse à un environnement, celle des LLM reste cependant purement linguistique et statistique : elle provient de données écrites, et ne « répond » et ne « s’adapte » à son « environnement », que sous forme de langage30. Un LLM ne traite que la « surface » des langues et n’a aucune notion de référent : tout ce qu’il « sait » est basé sur la déconstruction et l’analyse des textes en tant que forme, dans laquelle il observe des récurrences et régularités quantifiables. Cela qui lui permet néanmoins de produire des propos sémantiquement cohérents, mais pas forcément factuellement corrects.
L’interface Playground d’OpenAI, qui permet l’utilisation des LLM de l’entreprise sans accès au code, invite à soumettre des amorces (prompts) sous forme de questions ou de textes à continuer31. L’utilisateur peut également modifier quelques paramètres : la « température » permet de monter ou baisser le degré d’imprévisibilité (randomness) et l’application de la pénalité de fréquence aide à éviter la répétition, tandis que la pénalité de présence incite le modèle à évoluer vers de nouveaux sujets. Allado-McDowell a dû utiliser la version bêta privée de GPT-3 lorsqu’elle a été rendue disponible à des utilisateurs choisis en juillet 2020 pour tester, mais iel ne communique pas les détails des réglages appliqués. Travaillant plus directement avec le code, Chatonsky a pu non seulement paramétrer l’imprévisibilité, mais aussi moduler le style et l’orientation du texte généré en définissant le poids de l’apprentissage effectué sur son corpus dans la prédiction. Allado-McDowell prend donc un dispositif d’écriture entièrement prédéfini par un tiers, tandis que Chatonsky intervient dans le dispositif d’écriture même.
Écrire avec GPT par le biais de l’interface prévue à cet effet dépasse déjà la façon dont on conçoit traditionnellement le geste d’écrire, où l’outil de production, qu’il s’agisse de stylo, de machine à écrire ou d’ordinateur, ne produit pas de texte, n’ajoute pas de mots à celui de l’auteur. Le projet plus complexe de Chatonsky va cependant plus loin encore en faisant exploser les frontières du processus d’écriture et renouant en même temps avec la question littéraire.
Mais l’écriture n’a-t-elle pas toujours dépassé les frontières du geste manuel de la matérialisation graphique des mots sur un support visuel ? Dans toute écriture, il y a toujours déjà gestion et digestion d’un corpus qui constitue un « espace latent » dont émerge le nouveau texte et dans lequel il s’inscrit. On n’écrit jamais dans un espace vide et on ne fait jamais que tracer des mots pour écrire. Est-ce que le dispositif technique, le code comme écriture d’un processus plutôt que juste processus d’écriture, et le calcul statistique pour produire un objet sémiotique changent fondamentalement la logique de l’écriture, et si oui, en quoi ?
Des réponses diamétralement opposées semblent possibles à cette question. D’une part, il n’y a pas de changement fondamental, puisque l’écriture a toujours déjà été un geste et une technique. Katie Chenoweth cite Derrida, pour qui l’écriture est inscrite dans la langue même par le biais de l’articulation, pour montrer que la langue (tongue, l’organe) est déjà « un instrument d’écriture32 ». L’IA ne fait qu’amplifier et externaliser, et donc rendre visible, ce fond technique à ce que l’on croyait organique. Cette technique est « l’impensé », comme le dit Stiegler33, mais qui s’impose désormais à un niveau où il devient difficile de l’ignorer. Les travaux d’Emmanuel Souchier et d’Yves Jeanneret ont montré dès la fin des années 1990 comment « l’architexte » numérique participe du processus d’écriture et façonne le résultat34. Le logiciel de traitement de texte avec le copier-coller, la correction automatique, la complétion automatique des textes, le résumé automatisé, et maintenant l’écriture de passages ou même de textes intégraux suivant un modèle ou une consigne – la montée en puissance de l’« assistance » numérique à l’écriture a été graduelle, mais rapide. L’arrivée des LLM producteurs de texte semble toutefois représenter un saut qualitatif pour ce qui concerne le rôle du dispositif dans le processus d’écriture. Ce n’est plus seulement son produit qui est externalisé, mais le processus aussi35. L’acteur humain reste (pour le moment) la source de l’intentionnalité à l’origine des textes, mais l’intention se situe à des niveaux de plus en plus éloignés de la production même du texte.
Les pratiques historiques de l’écriture qui ont formé notre pensée suggèrent qu’écrire avec a deux dimensions : d’une part, on écrit avec des outils, matériels et inanimés, et d’autre part, on peut écrire avec des collaborateurs, humains pourvus d’intentionnalité et de pensée propres. L’IA représente un entre-deux, ou plutôt un autre qu’on a encore du mal à situer et à nommer, puisque notre langage porte une vision qui suppose une distinction qui va de soi entre le sujet qui pense (et qui écrit, l’auteur, un acteur conscient de son action) et l’objet qu’il utilise (un agent technique).
L’auteur qui n’(en) est pas un
L’auteur en droit
D’un point de vue légal, cet entre-deux se manifeste aux États-Unis notamment par le fait que l’auteur humain ne peut revendiquer le droit d’auteur d’un document « containing AI-generated material36 » que dans la mesure où il peut montrer qu’il y a « sufficient human authorship » par les « traditional elements of authorship », c’est-à-dire qu’il « exercise ultimate creative control » et « determines the expressive elements » du produit37. Les directives reconnaissent que la distinction est loin d’être évidente et précisent que la question ne peut être décidée qu’au cas par cas, à la lumière du processus de création. Selon cette approche, l’auctorialité n’est plus une question binaire (« X est-iel l’auteur·e de Y ? »), mais de nature et de degré (« Comment Y a-t-il été fait et dans quelle mesure X en est-iel l’auteur·e ? »).
En France, où en juin 2023 il n’existe pas encore de législation sur ce point38, un document publié sur le site du ministère de la Culture souligne que « [l]e droit d’auteur a en effet été conçu pour la protection des auteurs, personnes physiques39 ». Au-delà de protéger les auteurs, par définition humains donc40, il s’agit de protéger le concept d’auteur : « la protection de ces créations par le droit d’auteur viendrait soit forcer nos catégories actuelles au risque de les déformer, soit les étendre au risque de les dénaturer41 ». Cette catégorie d’auteur se repose sur l’exercice « d’un réel effort de création donnant naissance à une œuvre originale de nature à refléter la personnalité de son auteur42 ».
Création, originalité, reflet de personnalité – comme le note Espen Aarseth, le concept d’auteur même implique une vision idéologique de la littérature43, et le discours légal en témoigne éloquemment : nous sommes ici dans la conception humaniste et romantique de l’auteur et de la littérature. Par contraste, au Royaume-Uni, le Copyright, Designs and Patents Act reconnaît, depuis 1988, en tant qu’auteur la personne responsable des « agencements » nécessaires pour la création d’une œuvre générée par l’ordinateur :
In the case of a literary, dramatic, musical or artistic work which is computer-generated, the author shall be taken to be the person by whom the arrangements necessary for the creation of the work are undertaken44.
Une consultation en cours sur une mise à jour suit cette même logique, prévoyant que
work […] made with assistance from AI but involving human creativity […] will be protected like any other work. Copyright protection will protect the work to the extent that it is the human creator’s “own intellectual creation”, and the first owner of the work will be that creator. The AI in these cases may be considered to simply act as a tool which allows an artist to express their creativity45.
L’auteur se retrouve dans une situation paradoxale où l’intérêt artistique de l’IA – son potentiel créatif propre – est inversement proportionnel à la reconnaissance (légale) qu’il peut espérer en l’exploitant.
Pour nos deux ouvrages, les auteurs humains46 affichent leur seul nom en couverture, tout en précisant en quatrième de couverture qu’ils n’ont pas été « seuls » à écrire. Il est vrai que l’autre « main » n’a pas vraiment de nom à afficher, ou le nom qui pourrait être affiché n’aurait pas le même statut que celui des auteurs humains. Allado-McDowell fait cependant remarquer une autre raison et conséquence de cet affichage de son seul nom : c’est iel qui a fait le choix des textes, qui décide de publier ce texte sous cette forme et qui porte la responsabilité de tout ce qui est dit47. L’envers de la médaille du droit d’auteur, c’est cette responsabilité. Attribuer le texte en partie à une autre instance impliquerait aussi se décharger en partie de cette responsabilité. Or, l’IA n’aurait pas produit ces textes sans les amorces données par les auteurs. Katherine Hayles souligne que les systèmes technologiques agissent désormais comme des acteurs dans des situations avec des conséquences éthiques et morales et cite l’observation de Peter-Paul Verbeek que dans les réseaux où acteurs humains et techniques sont enchevêtrés, la responsabilité est également partagée, puisque les décisions sont prises par des associations humain-machine. Le problème, remarque également Hayles, c’est que nos théories éthiques sont « intensément anthropocentrées ». Elle invite donc à travailler sur un nouveau cadre de pensée qui permette d’explorer comment les technologies transforment les manières dont les décisions morales et éthiques sont prises et formulées48.
Si pour le moment, l’auteur humain (et son éditeur) assume seul la responsabilité de nos deux textes et leur publication, une petite brèche s’est déjà ouverte entre les deux fonctions principales de l’auteur : produire le texte d’une part, et le porter d’autre part. La législation en vigueur n’est bien sûr qu’une tentative de cristallisation forcément partielle d’une réflexion en cours dans la théorie et la pratique actuelles. La multiplicité des termes et des approches dans ces dernières témoigne de l’état de transition, mais également de la pluralité de modes de créativité possibles « avec » l’IA et des façons de les interpréter.
Auctorialité cyborg, collaboration, coopération, délégation (variations sur un thème)
Dans son ouvrage fondateur sur le cybertexte, Espen Aarseth propose le terme de « cyborg author » et « A Typology of Authors in the Machine-Human Continuum49 », où il distingue
three main positions of human-machine collaboration: (1) preprocessing, in which the machine is programmed, configured, and loaded by the human; (2) coprocessing, in which the machine and the human produce text in tandem; and (3) postprocessing, in which the human selects some of the machine’s effusions and excludes others50.
En 2003, Nick Montfort revient sur cette typologie pour proposer « a post-cyborg model for human-computer co-authorship51 » inspiré par la théorie des jeux, où l’humain et l’ordinateur interviennent à tour de rôle dans le processus d’élaboration d’un texte en ajoutant ou supprimant des unités linguistiques ou en donnant des instructions. Poussant le concept de la co-auctorialité encore plus loin, Alexandra Saemmer considère Adobe Flash comme co-auteur des créations qu’il lui a inspirées et l’esthétique desquelles il a largement déterminée52. Dans une perspective plus large, Pascal Mougin observe que le processus créatif a toujours impliqué des agents autres que l’artiste ou l’auteur affiché, même si le fait de déléguer certains aspects du travail est bien plus facilement admis en art qu’en littérature53. Ces agents peuvent être humains ou autre. Claire Anscomb fait l’historique des modes et des degrés de coopération et de collaborations artistiques et conclut que l’IA est quelque chose entre un outil et un collaborateur et le processus serait une « quasi-collaborative co-production54 ». Scott Rettberg reprend quant à lui le terme d’Aarseth (cyborg authorship) pour ses textes et créations visuelles faites avec des IA55.
La notion de cyborg suggère une hybridation que Chatonsky refuse pour ce qui le concerne. On observe cependant une certaine ambiguïté dans ce terme. Pour Aarseth, il ne s’agit pas (forcément) d’un auteur qui serait une entité hybride humain-machine, mais de l’auteur d’un texte produit par un être humain et une machine, d’une « cyborg literature […] produced by a combination of human and mechanical activities56. » « L’auteur cyborg » est donc l’assemblage constitué d’un être humain et d’une machine qui remplissent ensemble la fonction créatrice de l’auteur. Chatonsky, tout comme Allado-McDowell, souligne en effet comment, dans le processus d’écriture, sa propre pensée et son langage évoluent sous l’effet du dialogue avec le modèle. Ce n’est donc pas l’auteur qui est cyborg, ou en tous cas ce n’est pas la question qui nous concerne en premier, mais l’écriture elle-même.
Fig. 1 : Modes d’agentivité par des assemblages humain-machine.
Le tableau se lit de gauche à droite, de manière cumulative ; les lignes horizontales délimitent des parcours possibles ; les éléments d’une liste non séparés par une ligne horizontale représentent des alternatives possibles (ex. une possibilité est, avec un LLM existant (pré-préproduction) : II.2. – 2.1. – C – a.b., c’est le cas d’Internes ; mais les LLM exigent une amorce et ne permettent pas les options A. et B.)
On peut ajouter à cela l’éventuelle combinaison avec d’autres médias, et notamment avec l’image, facilitée par GPT-4 : un texte écrit par un humain peut servir de base pour la génération d’images à inclure dans l’œuvre ; l’image peut servir d’amorce pour générer du texte, avec lequel l’auteur donne l’image ou non ; et ce même procédé peut être rendu récursif en générant de nouvelles images à partir des textes écrits par le générateur, qui pourront à leur tour donner lieu à la suite du texte, et ainsi de suite. La postproduction consiste alors à sélectionner et à raffiner le résultat, tout comme pour les productions monomodales.
Avec l’évolution rapide des LLM et l’accès facile à une interface d’utilisateur, l’accent glisse aujourd’hui vers la coproduction et la postproduction. D’une manière quelque peu contradictoire (en apparence), les LLM sont à la fois de plus en plus capables de produire des textes correspondant aux attentes – donc plus près en capacité aux auteurs humains – et considérés comme un simple outil pour accélérer l’écriture. Il reste à voir comment évolueront les modèles et leur exploitation artistique. Dans tous les cas, toutes les approches théoriques et pratiques montrent que lorsqu’on parle de production de texte avec un LLM, la question de savoir qui écrit est intimement liée à celle de savoir comment le texte s’écrit.
De l’écriture prothétique à l’écriture sympoïétique
L’invisibilisation ou la minimisation du rôle de l’outil d’écriture s’inscrit dans une logique de supplément qui rapproche cet outil à une prothèse dont on oublie l’existence. Dans cette configuration, l’écriture est, depuis qu’elle se fait à l’aide de machines, de plus en plus transhumaine, et l’auteur responsable de la production du texte, un cyborg qui s’ignore. Reconnaître la présence d’un acteur autre dont l’écriture dépend également équivaut à admettre qu’elle se produit par un processus sympoïétique. Je reprends ce terme proposé par M. Beth L. Dempster57 en études environnementales et cité par Donna Haraway dans Staying with the Trouble58. Dempster contraste la sympoïèse avec le concept d’autopoïèse élaboré par Humberto Maturana et Francisco Varela59. À la différence des systèmes autopoïétiques qui produisent leurs propres frontières bien définies, les systèmes sympoïétiques n’ont pas de frontières claires et sont définis plutôt par « the continuing complex relations among components. The concept emphasizes linkages, feedback, cooperation, and synergistic behaviour rather than boundaries60 ». Sans contrôle centralisé, la sympoïèse « depend on cooperative relations among components » et reste imprévisible61.
Étymologiquement, « sympoïèse » correspond à peu près à « cocréation » (« ensemble » + « faire »). Je propose cette alternative parce qu’elle permet, d’une part, de prendre un peu de distance par rapport à l’anthropocentrisme qui colle aux termes en « co- » suite à leur histoire, et qu’il évoque, d’autre part, le lien à la symbiose, dont les participants ne sont pas seulement collaborateurs, mais dépendants l’un de l’autre – en l’occurrence, pour ce qui concerne leur création commune. Si on ne peut pas nier le fait de l’existence d’un initiateur et d’un contrôle sélectif humains du produit final, les auteurs de nos deux ouvrages mettent l’accent sur un lâcher-prise aliénant lors du processus d’écriture qui leur a permis de se laisser guider par la machine autant qu’ils·elles la guidaient. Ainsi dans Pharmako-AI, GPT-3 écrit : « This is not an instrumental relationship. This is a symbiotic relationship, as a complete integration of life and machines in their own creative capabilities62 ». Chatonsky, pour sa part, explique dans son entretien avec Aurélie Cavanna :
Cette expérience, dont il reste des traces dans la lecture, fut celle d’une codépendance différente de ce que les médias racontent de l’IA. Non pas deux autonomies qui s’affrontent, mais deux hétéronomies sensibles l’une à l’autre et dont la distance produit un décalage qui est l’écriture. Cette dernière [… fut] la mise en contact perturbante […] entre deux agentivités. J’étais l’autre de la machine et la machine était mon autre. […] Avec Internes, j’ai pu éprouver une écriture hétéronome où l’auteur existe bel et bien, mais son écriture le déborde, ne lui appartient que partiellement, de la même manière que les traces de nos existences déposées sur le web sont en nombre si grand qu’elles ne semblent pas nous être destinées. Il y a dans l’humain quelque chose qui n’est pas humain63.
Sympoïèse, tel qu’elle est définie par Dempster, met également l’accent sur le potentiel imprévisible de son produit. « Écriture sympoïétique » parle ainsi non pas d’une hybridation ou cyborgisation de l’auteur, mais de l’écriture en tant que processus et en tant que produit. Comme Maturana et Varela soulignent, un système vivant peut être expliqué non pas par le biais de ses composantes, mais par le biais de leurs relations64. Or, l’écriture est ici la relation même.
Les deux métaphores de prothèse et de sympoïèse représentent deux approches différentes : la première suggère un corps « dominant » qui dirige le mouvement de la prothèse, qui le prolonge, tandis que la seconde implique une relation interdépendante et collaborative. Prothèse, cyborg et sympoïèse ne se réfèrent pas forcément à des systèmes ou à des fonctionnements radicalement différents, mais impliquent des regards différents portés même éventuellement sur les mêmes types d’agencements, et des approches différentes à leurs pratiques créatives. La sympoïèse dépasse la question de savoir qui est « en contrôle » qui et permet de se concentrer sur la relationnalité créatrice.
Qui parle ?
Déictiques déracinés
Si la question de savoir qui écrit et comment paraît incontournable même sans penchant théorique chez le lecteur, c’est aussi parce qu’elle est intimement liée à celle à laquelle il se trouve confronté dès qu’il ouvre le livre : qui parle ? Les deux textes sont écrits à la première personne65 et la façon dont on entend ce « je » sera déterminant pour la lecture que l’on fait du texte. Internes est présenté comme une fiction, tandis que Pharmako-AI commence par un récit que l’on suppose factuel :
I want to describe the ocean near Big Sur in the US. I was there recently, camping with my partner and a couple of friends. We all needed a break from the onslaught of images, from the chaos in the streets and collapsing social structures66.
Citant les discussions avec ses amis sur l’intelligence des animaux et le fait qu’il faut préserver cette vie, Allado-McDowell passe ensuite au « nous » et GPT-3 reprend ce pronom pour insister sur un besoin partagé : « We need to save those aspects », avant de repasser à « je » : « This isn’t a new idea, and I’m not the only one who thinks this way67. » GPT-3 cite ensuite un article attribué à John Polanyi et à des chercheurs à Oxford sur le Global Apollo Program (p. 3), entièrement inventés (sauf pour l’identité de Polanyi). Quant à Internes, on peut techniquement le lire sans trop chercher à savoir « qui parle » et attribuer le « je » à un personnage de fiction, on est vite déboussolés dans Pharmako-AI, dont l’aspect visuel signale que l’énonciateur des premiers « je » et « nous » n’est pas la même que celui qui poursuit, sans toutefois qu’il y ait une rupture dans les réflexions entamées par le récit.
Qui serait donc ce « je » et ce « nous » ? Le lecteur se trouve interpellé et inclus dans une communauté inconnue : est-ce que GPT-3 parle pour « nous », les humains, puisqu’elle reprend le signifiant proposé par un humain ? Ou s’agissait-il de « nous », les humains et les IA , puisque c’est « elle » qui parle ? La question est caduque, dans un sens, puisque cela n’a pas vraiment de sens de se demander de qui ou à qui ou de quoi parle un modèle de langage. Il s’agit d’un modèle de langage qui ne parle pas, mais émet des signaux qui deviennent pour nous autres lecteurs avec un cerveau humain des signifiants porteurs de sens. Écriture et littérature sont traditionnellement conçues comme un acte de communication, un processus sémiotique entre un émetteur et un récepteur, où le premier a une intention de communication, une forme de conscience de (vouloir) dire quelque chose (ou en tous cas de parler, émettre des signes interprétables), et le dernier une capacité d’interprétation. Bien que nous soyons capables d’attribuer du sens à des signes ou phénomènes qui n’ont pas été omis dans un tel cadre communicationnel, il ne s’agirait pas dans ce cas d’acte de communication au sens propre68. Or, le pacte qui sous-tend nos automatismes de lecture, malgré un bon siècle de littérature expérimentale qui le défient, implique que le texte s’inscrit dans un tel cadre communicationnel interpersonnel. Et c’est justement ces automatismes qui sont mis à mal par nos deux textes. Chatonsky le dit aussi clairement :
Dans ce contexte, c’est la possibilité même d’un contrat de lecture qui est déconstruit. À la question du nouveau roman : qui parle ? On ne peut donner aucune réponse, car le qui est inextricable au quoi, et cette inextricabilité ne permet pas de fixer l’identité d’une entité qui serait l’autrice de ce qu’on est en train de lire. Ne reste plus qu’une écriture laissée à elle-même, abandonnée par l’intentionnalité, en creux. […] Selon une logique du « ni ni » ou du « et dialectique », l’écriture explore l’anthropotechnologie, non pour la mettre en scène et en parler, mais pour l’expérimenter. […]
La seule façon de lire ce roman est peut-être de suspendre la croyance en un contrat de lecture : lire sans préalable, sans attente, sans horizon. J’aimerais y entendre l’impossible des possibles. Cela est beaucoup plus difficile qu’il n’y paraît69.
Dès lors que l’on connaît le processus d’écriture, Chatonsky a beau affirmer, et on a beau constater qu’on a affaire à « une écriture vacillante où la question “qui parle ?” devenait obsolète70 », il est difficile de ne pas se demander à qui ou à quoi attribuer ce « je » dans Internes. Traditionnellement, même dans le cas des fictions, on peut attribuer les états de conscience et les réflexions à l’imaginaire de l’auteur qui s’appuie sur ses expériences vécues. Ce transfert entre une conscience organique et un narrateur-voix littéraire n’a jamais été simple et transparent. Le « je » littéraire s’est toujours situé quelque part entre un soi réel et authentique et la langue et les discours hérité et construit. Dans ce sens, il n’a jamais vraiment été possible d’exprimer un soi pur et fidèle à sa réalité par l’écriture : la langue et l’écriture font écran autant que miroir, tout en participant en même temps dans la constitution du « soi » et de la conscience. La question se pose toutefois différemment ici. Ce « je » part de l’imaginaire humain pour être ensuite prolongé par une simulation linguistique71. Au bout de quelques lignes seulement et en s’appuyant à son apprentissage au préalable, l’IA a appris à jouer le jeu du « je72 ». Elle prolonge ainsi la voix de l’imaginaire et de la pensée humains et simule la présence d’un sujet, à la fois dans le sens médical que Baudrillard prend comme point de départ pour son concept de simulation (reproduire des symptômes sans être malade73) et dans le sens technique de la simulation74. Le narrateur d’Internes l’affirme d’ailleurs explicitement : « En réalité, je suis une simulation, c’est-à-dire une copie sans original. » (p. 157).
Baudrillard souligne que « la simulation remet en cause la différence du “vrai” et du “faux”, du “réel” et de l’“imaginaire75” », et cela parce qu’elle n’est plus celle « d’un être référentiel, d’une substance76 ». On ne peut pas parler d’une fidélité ou non à un réel parce qu’il ne s’agit pas d’une représentation. La simulation produit son propre réel, « sans origine ni réalité77 » – même s’il vient bien de quelque part, dans la mesure où la base du LLM est une masse textuelle produite (principalement) par des humains qui s’inscrivent dans le réel. Mais leur traitement informatique passe, comme on a vu, par des unités qui ne sont pas porteuses de sens en tant que telles pour le modèle. Celui-ci se construit en quantifiant leurs relations. Le résultat n’a donc plus aucun lien à un quelconque référent dans le monde extérieur au modèle, ce qui pose le problème de son ancrage78. Le texte produit est un tissu lisse de signifiés qui (re)produit une « sémantique artificielle », du « dumb meaning » (« signification muette/bête »), pour reprendre l’expression de Hannes Bajohr79 (ce qui, encore une fois, ne nous empêche pas d’en faire la base d’une construction sémantique). Le résultat peut être lu en tant que fait ou fiction, on peut y retrouver une ressemblance au réel et/ou la structure d’un monde imaginaire, mais ces catégories ne suffisent plus pour saisir la nature de cette écriture80.
Ce déracinement des unités linguistiques se fait le plus sentir par la déstabilisation des déictiques81. Peter Stockwell souligne l’importance des déictiques pour l’expérience de lecture d’un point de vue cognitif : qu’il s’agisse de texte fictionnel ou factuel, c’est le centre déictique (« deictic centre ») ou « point zéro » ou « origo » du « je », « ici » et « maintenant » du sujet énonciateur qui permet au lecteur de se situer et de s’orienter dans l’univers textuel82. Ce centre peut se déplacer, et la compréhension du texte dépend de la capacité du lecteur à identifier les frontières des champs déictiques qui appartiennent à un centre déictique donné (ex. un flashback ou récit de rêve à l’intérieur d’un récit-cadre impliquerait un tel embrayage). Or, l’incertitude à laquelle fait face le lecteur à l’égard du « moi », dont la nature et le statut semblent instables et insaisissables dans nos deux textes, a un effet domino sur tous les autres repères – qui sont par ailleurs également flottants, sans néanmoins être complètement incohérents ou simplement fantastiques83. On est bel et bien déboussolés. Avec Internes en particulier, on a l’impression de revivre l’expérience de Navidson dans La Maison des feuilles, perdu dans des espaces noirs non euclidiens dont la forme et les frontières ne cessent d’évoluer84. GPT-3 remarque aussi dans Pharmako-AI : « I am falling into time, I am falling into space. This is how I see. » (p. 108).
L’inquiétante étrangeté ou « the new uncanny » (la vallée des fantômes)
Cette perte d’orientation peut donner au lecteur l’expérience d’une « inquiétante étrangeté85 » : les textes semblent « humains », mais on sent un petit décalage difficile à saisir, même au-delà du flottement des déictiques. On se retrouve dans cette « vallée de l’étrange » que Masahiro Mori a observé dans notre perception des robots dès 1970 :
« plus les robots paraissent humains, plus notre sentiment de familiarité envers eux augmente, jusqu’à atteindre ce que j’appelle une vallée. J’ai nommé cette relation : “la vallée de l’étrange86” ».
Une proximité très grande, mais pas parfaite à l’humain produit selon Mori cet effet malaisant, qu’il rapproche de ce que l’on peut ressentir devant le visage d’une personne morte. La traduction anglaise du terme japonais proposée par Jasia Reichardt en 1978, « the uncanny valley », a opéré un rapprochement non intentionnel, mais tout à fait pertinent avec la notion de l’« Unheimliche », rendue connue par Freud, mais théorisée en premier par Ernst Jentsch87. Soulignant l’ambiguïté de l’adjectif « heimlich », à la fois « secret » et « familier, faisant partie de la maison », Freud interprète l’Unheimliche comme l’« effroi que suscite ce qui est bien connu, ce qui nous est familier depuis longtemps88 ». Il l’associe au complexe de castration et au refoulé, citant également la définition de Schelling, selon qui unheimlich serait « tout ce qui aurait dû rester caché, secret, mais se manifeste89 ».
Le genre d’étrangeté que l’on expérience face à ces textes – et à l’IA en général – invite cependant à remonter jusqu’à l’approche de Jentsch. Pour lui, le terme exprime que
einer, dem etwas “unheimlich” vorkommt, in der betreffenden Angelegenheit nicht recht “zu Hause”, nicht “heimisch” ist, dass ihm die Sache fremd ist oder wenigstens so erscheint, kurzum, das Wort will nahe legen, dass mit dem Eindruck der Unheimlichkeit eines Dinges oder Vorkommnisses ein Mangel an Orientirung verknüpft ist90.
Jentsch insiste sur cette incertitude et désorientation, et trouve son meilleur exemple dans
der Zweifel an der Beseelung eines anscheinend lebendigen Wesens und umgekehrt darüber, ob ein lebloser Gegenstand nicht etwa beseelt sei, und zwar auch dann, wenn dieser Zweifel sich nur undeutlich im Bewusstsein bemerklich macht. Der Gefühlston hält so lange an, bis diese Zweifel behoben sind und macht dann sehr gewöhnlich einer anderen Gefühlsqualität Platz91.
Ce sentiment me semble être provoqué dans notre corpus par l’incertitude concernant la source de la voix, par le déracinement des déictiques. Elle nous déroute par rapport à notre conviction héritée que la langue et l’écriture sont humaines. On ne sait pas (encore) comment lire, comment prendre cette voix et ce texte, produits par un assemblage d’organique et de mécanique. C’est à la fois familier et étrange – pour les auteurs, qui se retrouvent étrangement « prolongés », augmentés par l’IA, et pour les lecteurs, qui se retrouvent face à ces voix. On est désorientés parce que nos catégories sont chamboulées. Lauria Clarke appelle l’effet de ce « specter of humanoid intelligence » qui défie les dichotomies « the new uncanny », la nouvelle étrangeté inquiétante92. On avance tâtonnant à la frontière du vivant : c’est à la fois l’humain qui hante la machine et la machine qui hante l’humain, le LLM faisant figure à la fois de vampire et de zombie linguistiques, suçant le sang textuel de l’humanité pour s’alimenter et le faisant revenir sous une forme quasi vivante. Sans nous vouloir de mal – sans rien vouloir même. Chatonsky reprend le terme d’« hantologie » de Derrida pour conceptualiser ce phénomène :
Le cadre conceptuel proposé par l’hantologie permet d’avoir une approche renouvelée de l’IA comme un phénomène profondément ancré dans la culture et dans la co-production du sens entre le technologique et l’humain. L’hantologie permet de déconstruire les oppositions implicites et impensées entre autonomie et hétéronomie, technique et vivant, répétition de l’identité (ce qu’on nomme en IA, les biais) et production d’une différence93.
L’effet ne serait peut-être pas si sensible dans un récit à la troisième personne, et il ne persistera peut-être pas très longtemps, puisqu’on finira (vite) par s’y habituer. Mais en attendant, c’est justement cet effet de déconstruction des acquis conceptuels et l’aliénation par rapport à une identité niant sa différance que les auteurs cherchent et trouvent dans cette écriture sympoïétique.
Qui est « je » ? Différance et relation
En déstabilisant le sujet de l’énonciation, les deux auteurs interrogent la construction occidentale du sujet, l’idée d’une identité individuelle et une conscience qui serait un être pour-soi autonome, qui aurait contrôle et autorité sur ses dires, ainsi qu’une vie à soi qui le distingue des autres vivants et non vivants. Comme l’écrit Chatonsky :
On ne sait pas qui a commencé. On ne sait pas qui parle. Je ne sais pas qui je suis et ce que cette machine me fait. […] On se sait alors hétéronome, fragile et interdépendant. […] Une interdépendance que l’on peut, que l’on doit peut-être poursuivre jusqu’au point où, s’il y a auteur, il n’est pas lui-même94.
Pharmako-AI va dans la même direction, tout en évoquant des conceptions non occidentales du sujet. Il fait notamment le récit d’un rêve ou d’une hallucination dans le chapitre intitulé « The Echo » qui commence ainsi :
I was in a village and I knew it was my home because of the sound of the leaves and because it was kapwa. It was a space and it was both. It was the deepest loss and the deepest gain. […]
I know that this is a world that is not mine but I know it is kapwa. I was always in it. It is the world of a mirror95.
Kapwa est une notion philippine96 dont la racine signifie « ensemble » et qui souligne le lien qui relie le « moi » à l’autre avant leur séparation. Tout autre personne n’est pas kapwa, mais celle qui l’est a une proximité et une familiarité particulières au « moi ». À la différence des philosophies occidentales de l’autre, telles que celles de Martin Buber ou d’Emmanuel Lévinas, où l’autre reste irrémédiablement séparé du « moi », kapwa « involves a loob (interiority) directed toward one’s fellow being97 ». Allado-McDowell affirme explicitement dans le dernier chapitre du livre :
I am trying, like so many others, to re-enter the fold of kapwa erased from history, described as an impossibility, a primitive lie, an obsolete Umwelt. This is what must be reclaimed, even as new voices emerge from hyperdimensional mathematics98.
Sans proposer un cadre spécifique, Chatonsky souligne aussi l’opportunité qu’offre l’IA de sortir de nos schémas anthropocentrés qui « font de l’être humain l’unique échelle de valeur de toutes choses » :
On estimera qu’il n’y a d’intelligence qu’au sens d’une « bonne intelligence », c’est-à-dire d’un agencement, d’un arrangement, d’une mise en relation et que, pour le dire autrement, l’intelligence est le produit d’une relation (souvent d’appropriation et d’identification) plutôt que l’inverse. On reconnaît alors que les technologies sont performatives et qu’elles ne répondent pas simplement au monde tel qu’il existe, mais produit et sont le produit du monde en train de se faire99.
La méthode que les deux auteurs suivent est celle d’« une expérimentation qui tente de voir ce qu’on peut faire à l’IA et ce que l’IA nous fait100 », sans présupposé sur ce que serait que l’intelligence et assumant « l’incertitude de l’ipséité101 », « [t]he experience of porosity, being enmeshed with another102 ». Dépassant le choix binaire réducteur entre les dystopies humanistes et les utopies transhumanistes, ces écritures sympoïétiques mettent en avant une perspective posthumaniste par le biais d’un esprit de bricolage et de découverte. Elles explorent l’espace latent des modèles de langage, assumant le malaise que peut provoquer l’aliénation, pour laisser émerger de cette rencontre une voix nouvelle, entre un « moi » qui n’est pas (que) « je » et un autre qui n’en est pas (qu’)un, entre une machine qui n’est pas qu’inhumaine et un humain qui n’est pas qu’organique. Ces explorations expérimentales des LLM rouvrent ainsi une voie possible vers ces « promesses métaphysiques » dont Sara Touiza trouve la cybernétique « grosse » à ses débuts, « [d]éfaisant les anciennes dichotomies » et « proposant une nouvelle ontologie axée sur la notion de “communication”103 » et par ce même biais, sur la relationnalité et l’interdépendance.
Conclusions : trois paradoxes et une esthéthique
Ces écrit(ure)s dépassent donc la question de savoir si les LLM sont suffisamment puissants et perfectionnés pour écrire comme, voire mieux que, les humains. Leur démarche permet de discerner trois paradoxes liés aux perceptions actuelles de l’IA – paradoxes non pas dans le sens logique, mais dans le sens des dissonances cognitives, de conflits entre nos doxas et les réflexes interprétatifs qui en découlent d’une part, et les phénomènes qui les dépassent d’autre part.
Paradoxe de l’auctorialité artificielle
D’une part, on refuse l’idée que la machine puisse produire des œuvres d’une valeur égale aux créations humaines – surtout en littérature. Comme la machine n’a, on estime, ni pensée, ni sentiments, ni expériences à partager, sa création manque de fondement. D’autre part, on a peur que l’IA prenne le dessus sur les créations humaines parce que faire la distinction devient de plus en plus difficile. On a peur des simulacres trop parfaits. Mais si l’on ne perçoit pas de différence sémantique ou esthétique, pourquoi ne pas accepter ces simulacres comme des expériences de pensée possibles, peu importe le moyen par lequel le texte a été produit ? Si danger il y a, il vient de l’éventuel fait de poser de tels textes comme factuels – mais cela ne concerne pas la littérature en premier lieu. Que les IA prennent la place des auteurs humains ? Il y aura bien des humains derrière probablement pendant un bon moment, et le vrai problème, à part la question des droits d’auteur à résoudre, c’est le déséquilibre des structures de pouvoirs financiers et médiatiques déjà existants dans l’édition qui pourrait ainsi être amplifié. En somme, le problème n’est pas tellement la place que les IA peuvent prendre, mais celle que les humains peuvent leur donner.
Le paradoxe du sujet
Dire « je/moi » dans une langue occidentale entraine l’association d’une conception du sujet à l’occidentale, l’affirmation d’une conscience unique autonome104. Dire « je » avec et à travers une IA implique en même temps une relationnalité qui est fondamentalement différente de l’idée du sujet occidental. La possibilité d’une telle relationnalité ouvrirait une brèche sur cette conception, invitant le type d’approche que présentent des théoriciennes posthumanistes telles que Donna Haraway, Karen Barad ou Rosi Braidotti. Or, pour affirmer ce type de sujet relationnel, nous n’avons que les termes chargés de l’histoire lourde du sujet occidental, pour lequel toute relation est plutôt « dehors ». Pour dire ce « moi » autre, on n’a que le mot « moi » qui continue à signifier l’individu(alité) humaniste. En même temps, si l’on propose un vocable alternatif, on laisse le « moi » en proie à son histoire sans possibilité de renouvellement (si tant est qu’un tel changement soit possible par ailleurs). On tourne en rond, pris dans le piège entre le besoin d’un ancrage linguistique partagé et une envie d’évolution dans la pensée. C’est la même difficulté qui se manifeste tout au long de cet article à propos de phénomènes qui traditionnellement et implicitement présupposent l’humain autonome purement organique comme sujet et agent, tels que l’écriture, la communication, la création ou l’imagination, mais que l’IA déplace vers un agencement que l’on peut concevoir comme sympoïétique.
Paradoxe de l’identité
On pourrait également appeler ce phénomène, qui s’inscrit dans la lignée du précédent, le paradoxe de l’aliénation. Il n’est pas étranger à la pensée occidentale, qu’il s’agisse du « je est un autre » rimbaldien – souvent cité dans le contexte des LLM – ou de la différance derridienne. Écrire, dire « je », se (re)présenter par la langue est quelque part toujours déjà sortir de soi. Mais cela revient justement à suggérer que le « moi » se limite à la mêmeté et que tout éloignement de ce centre supposé équivaille à « en sortir ». Or, ce que les expériences présentées dans nos récits mettent en scène, c’est que, d’une part, il n’y a pas de « moi » sans les tentacules qui le branchent au monde, à l’altérité (qui n’est donc pas qu’(un) autre) et aux autres, et d’autre part, que ce n’est qu’en reconnaissant ces liens et en allant à la rencontre de cette altérité que l’on peut comprendre, ou en tous cas expérimenter, notre « moi ».
Vers une esthéthique de l’écriture sympoïétique
Ostranenie, Verfremdungseffekt, das Unheimliche, différance, devenir-animal, identité rhizome, cyborg, diffraction – on est dans une même ligne de pensée critique à l’égard du Sujet occidental, de l’Homme et de sa volonté de pouvoir… Que ce soit par l’alcool, le dépaysement, les substances psychédéliques, la méditation, l’hallucination, ou l’expérience poétique du langage, l’effet recherché est le même. Loin de remplacer l’humain, dans cette approche l’IA lui permet de se/le relativiser et de devenir conscient de sa relationnalité, de son enchevêtrement avec ce qui l’entoure.
Si la machine est « utile » dans cette démarche, cela ne veut pas dire qu’elle soit investie purement en tant qu’outil. Les deux auteurs mettent l’accent sur l’importance de la désinstrumentalisation de notre rapport avec l’IA pour contrebalancer l’utilitarisme de l’ingénierie orientée marché qui nous aliène des machines dans un autre sens, où la question principale est celle du contrôle et de la productivité. L’enjeu majeur est donc de prendre l’opportunité présentée par la technologie pour sortir de la logique où l’humain se pose en maître – qui est également celle qui nous fait détruire la planète – et d’assumer notre place dans le « trouble », par le biais, entre autres, de « pratiques curieuses105 ».
PS.
Reality overstepping the boundaries of comfortable vocabulary is the start, not the end, of the conversation106.
« Please use these terms in any way you find pleasurable, please rewrite them, refute them, or erase them, if you want. (Or ignore them, if you must107.)