Durant cette session, Kara et Atoll, deux systèmes qui utilisent régulièrement des intelligences artificielles (IA) text-to-image, développent les bases de quelques outils tels que Dall-E, Stable Diffusion ou encore Midjourney. Iels discutent ensuite de leur utilisation personnelle de ces IA: créativité mais surtout communication interne, mapping, auto-soins, aide contre l’aphantasie et la dysmorphophobie, etc…

Avertissements de contenu:

Mentions de dysmorphophobie, de grossophobie et de TCA

Transcription écrite:

[Kara] Bonjour et bienvenue dans cette vidéo pour la Plural Positivity World Conference. Ici, c’est Kara accompagné·e d’Atoll. Et aujourd’hui on a envie de vous parler d’une possibilité de représenter son système grâce aux intelligences artificielles. Je vais commencer par me présenter. Du coup, moi c’est Kara et vous me connaissez peut-être ou pas avec ce que je fais sur Partielles. Mais du coup, je suis un système d’une trentaine d’années et j’habite en Belgique.

[Atoll] Bonjour, on est Atoll et on est un système de douze/quinze/plus alters. On sait pas trop, mais voilà, à peu près. Et on est passionné·es par les IA, notamment les IA text-to-image dont on va parler et qui nous aident beaucoup à représenter notre système. Et c’est pour ça qu’on a eu envie de faire cette vidéo.

[K] Oui, à fond. On utilise tous les deux essentiellement MidJourney, mais on va vous parler un peu de tout ça et de ce que ça nous apporte et de ce que ça nous a apporté dans la représentation de nos systèmes et d’autres choses. C’est une vidéo qui est en partie scriptée et en partie de la discussion. Vous allez très vite sentir quand est ce qu’on sait ce qu’on raconte et quand est ce qu’on improvise [rires]. Mais du coup voila, c’est normal s’il y a des différences de rythmes à certains moments.

[A] En très bref, l’IA text-to-image est une forme d’intelligence artificielle qui permet de créer des images à partir de texte. En gros, on peut lui dire “un chat assis sur un toit au coucher du soleil” (mettre exemple à l’écran) et on obtient une image correspondante. Et ce sera une image unique, générée grâce à l’apprentissage via des vastes bases de données d’images et de textes, comme toutes les IA génératives le font à l’heure actuelle.
Les intelligences artificielles plus poussées ont vu le jour avec OpenAI, fondée en 2015, elles se développent de plus en plus surtout depuis 2021 avec entre autres l’ouverture au grand public de Dall-E 2. Les IA les plus connues pour la génération d’images à l’heure actuelle sont Dall-E 2, Stable Diffusion et MidJourney depuis 2022. D’ailleurs, les images d’illustration de cette vidéo ont été faites avec ces trois-là principalement et PixAI.com

[K] Pour nous, l’intérêt principal des IA text-to-image c’est évidemment le faceclaim. Et le faceclaim, c’est quoi ? Eh bien c’est la représentation personnelle des membres d’un système. Beaucoup d’alters aiment pouvoir s’identifier et se représenter aux autres. Évidemment, on n’a pas attendu les IA, beaucoup utilisent des banques d’images, des Picrew, des dessins personnels, des photos, etc… Les IA permettent potentiellement une représentation plus spécifique. Et tout ça peut aider au mapping d’un système. Le mapping, c’est définir un peu qui est qui, ça commence souvent par une simple liste, qui s’étoffe petit à petit avec un nom, un âge, des goûts et un faceclaim ^^
Petite note : évidemment le faceclaim n’est jamais une obligation et y a des alters qui n’en veulent pas, et c’est légitime, tout comme il y a des systèmes qui n’y arrivent pas même s’ils voudraient. C’est pas la façon dont on est capable de se visualiser ou se différencier qui fait notre légitimité ! C’est pour ça aussi qu’il est possible de faire plusieurs faceclaims avec l’apparence du corps avec des expressions, un détail qui change, une énergie, etc.
Bref, le faceclaim c’est un peu la base, mais on développera d’autres aspects utiles plus tard dans la vidéo.
Avant d’entrer dans le vif du sujet, il faut qu’on mentionne quand même des limites et des questions éthiques liées à l’utilisation des IA génératrices d’images.
Tout d’abord, nous ici dans le cadre de cette vidéo, on parle uniquement de l’utilisation des IA dans un contexte personnel et non-commercial, pour se donner un outil de mapping, pas pour en faire une activité commerciale ou quoi que ce soit.
Mais ça n’empêche pas par contre de vérifier à qui appartient la propriété intellectuelle de l’image que vous générez. Selon les IA, les droits d’auteur et la responsabilité vous reviennent pleinement ou reviennent à l’IA ou encore à d’autres personnes. Pensez toujours à vérifier les termes et conditions des IA que vous utilisez, même pour une utilisation non-commerciale de vos images, pour éviter tout problème de droits d’auteur.

[A] Ensuite, il y a une notion importante dont il faut avoir conscience et dont on a envie de parler : la question du vol des artistes. Et c’est dans les deux sens : le premier c’est utiliser une IA à la place de demander à des artistes de produire une oeuvre ; le second c’est que les IA basent leurs apprentissages sur des bases de données qui contiennent des oeuvres protégées pour lesquelles les artistes n’ont pas donné leur consentement.
Alors, le premier point, comme on l’a dit, on parle ici vraiment d’une utilisation personnelle et, bah faut se le dire, dans la plupart des cas, une personne qui fait un faceclaim avec une IA n’aurait de toute façon pas demandé à un ou une artiste de le faire ; tandis qu’une personne qui aurait demandé à un ou une artiste pour un faceclaim le fera de toute façon et n’aurait pas utilisé une IA. Globalement, le faceclaim, comme on le dit, c’est utiliser des photos, des Picrew, générer des personnages 3D par exemple avec Vroid, etc… Les IA sont un outil de plus, rien d’autre.
Selon nous, on peut critiquer des usages, pas des outils. Oui, les IA sont parfois utilisées pour faire du plagiat, cela a rendu peut-être plus simple la possibilité même de plagiat, mais le plagiat a toujours existé. De là, pour nous, deux routes sont possibles :
La première, c’est de considérer que, vivant dans un monde capitaliste, il est normal que les créateur·ices puissent gagner de l’argent avec leurs créations sans être plagiée par une IA. Dans ce cas, rendons le système judiciaire plus efficace pour lutter contre le plagiat, soutenons les initiatives militantes qui vont en ce sens. L’outil n’est pas le problème, il accentue simplement un problème déjà existant. Et puis, les créateur·ices qui vivent de leur art sont extrêmement minoritaires, et en cela privilégié.es. Quid des millions de créateur·ices qui n’ont jamais vécu de leur art, ou celleux n’ont jamais pu accéder au privilège et au plaisir de la création car opprimé.es sur un ou plusieurs axes (handicaps physiques comme mentaux ou psychologiques, pauvreté, etc.). L’IA permet un accès à la créativité qui n’est pas limitée par des aptitudes physiques (comme le dessin, la peinture, la photographie…), et cela ouvre le champ des possibles, y compris pour des communautés qui n’ont que peu de représentations auxquelles s’identifier.
Ensuite, de notre point de vue, la seconde route possible par rapport aux IA – et à la création de manière générale -, est de décorréler la création de sa valeur monétaire et individuelle. L’anarchie créative, en quelque sorte. Personne n’invente jamais rien, le cerveau humain agrège, mélange, recoupe, imagine et crée à partir de ce qu’il a vu, senti, lu, touché, goûté, etc. Faire quelque chose avec une IA est facile. Obtenir exactement ce que l’on veut avec une IA, c’est déjà une autre paire de manches. ^^ Et puis, la frontière entre l’influence et le plagiat est-elle si claire ? À quel moment ce qui est qualifié de plagiat pose un problème ? Souvent, cela va être dans un contexte financier, lorsqu’une personne vend des “faux” d’un.e artiste renommé.e, donc inscrit dans le système capitaliste. Si l’on enlève le monétaire de l’équation, il y a déjà bien moins de résistance. Alors une des voies possibles est peut-être le plaisir de la création, simplement, sans enjeu autre que le processus créatif et la joie du partage, de l’expérimentation, et l’enthousiasme individuel comme collectif. Analyser et jouer avec une œuvre existante peut être un très beau moment de création. Et puis, l’immense majorité de celleux qui utilisent les IA pour créer des visuels qui leurs parlent profondément vous le diront : utiliser le style d’un.e artiste renommé.e, c’est marrant 5 minutes, mais il y a tellement de choses plus personnelles et enthousiasmantes à faire avec les IA, comme avec les médias plus traditionnels !

[K] Le second point, c’est donc l’utilisation sans consentement des œuvres pour l’apprentissage des IA. Il y a des artistes qui enlèvent leurs créations des bases de données d’apprentissage, d’autres qui rendent leurs images illisibles, etc… C’est une question éthique importante qui nécessite vraiment que les personnes qui développent les outils d’IA adoptent des pratiques transparentes et responsables concernant la collecte, l’utilisation et le partage des données, y compris pour les utilisateur-ices d’ailleurs.

Bref dans tous les cas, on peut pas surveiller ce que vous faites chez vous de toute façon, c’est à chacun-chacune d’avoir une utilisation consciente et responsable des IA, et de checker les conditions, la transparence et l’éthique de tous les outils numériques.

Enfin un dernier point important à souligner, c’est que les IA sont à l’image de la société. Même si les personnes qui les développent cherchent à les rendre sécuritaires et non-discriminantes, bah les IA restent entrainées avec des bases de données récoltées dans la société, donc avec les mêmes biais que la société. C’est par exemple plus difficile de générer des images aussi créatives et variées avec des personnes racisées, grosses, handicapées, etc… Parce que bah la société est normative quoi. Et on espère vraiment que, comme dans les autres sphères de la société, tout ça finira par évoluer !
[A] Cela dit, de nombreuses communautés utilisent les IA pour créer des images leur permettant d’avoir des représentations auxquelles elles peuvent s’identifier, et que la société ne leur offre que peu, voire pas du tout. (Comme dans les groupes FB : Women in AI ou Afrofuturism Central) Il faut voir des versions de peintures classiques avec des personnages noirs, par exemple, pour comprendre instantanément l’intérêt majeur des IA pour la représentation des populations opprimées, dans une culture encore majoritairement blanche.
[K] Maintenant que c’est dit, parlons un peu des différentes IA génératrices d’images. Il y en a plein, pleiiin, plein, plein. Certaines sont complètement gratuites, d’autres sont complètement payantes, et d’autres encore fonctionnent avec un système de crédits qui permet de générer un certain nombre d’images par jour ou par mois et de payer pour en générer davantage. Il y en a qui ne proposent qu’un style d’image, d’autres pour lesquelles il est possible de préciser un style, par exemple plutôt photo, plutôt dessin, plutôt images de film d’animation, etc… Puis il y en a qui permettent de modifier certaines parties de l’image générée, ou qui permettent de partir d’une image, de faire des variations, et d’autres non. Et ainsi de suite.
Il y a vraiment beaucoup de possibilités et les résultats générés seront très différents en fonction de chaque IA, que ce soit en termes de style ou de résultat final. En effet, toutes les IA ne permettent pas de produire une image avec la même résolution et la même qualité par exemple.

[A] Un point important à souligner, c’est que la plupart fonctionnent mieux quand le texte pour générer l’image, qui s’appelle un prompt d’ailleurs, est écrit en anglais. Beaucoup d’IA ne comprennent d’ailleurs que l’anglais. Vous pouvez vous aider d’un traducteur en ligne pour traduire vos prompts si besoin, comme par exemple DeepL, Google Translate, ou même ChatGPT.
Bref, c’est à vous de tester l’intelligence artificielle qui convient le mieux à votre utilisation.
On va vous donner un peu plus de détails concernant les IA les plus connues, donc Stable Diffusion, Dall-E, Midjourney et PixAI.
Commençons par Stable Diffusion. Comme c’est une IA opensource, il y a Stable Diffusion et il y a plein de variantes qui se basent sur son fonctionnement avec un thème, une interface ou un fonctionnement plus précis.
Il est donc possible de générer gratuitement quelques images par jour directement via le site de Stable Diffusion, qui dispose aussi d’une version payante, et il est également possible de l’installer sur un ordinateur si celui-ci est suffisamment puissant pour générer des images, parce que c’est assez gourmand quand même.
Et il y a aussi de nombreux sites basés sur Stable Diffusion, qui fonctionnent souvent avec un système de crédits, et certains sont très limités tandis que d’autres sont plus souples. NightCafé par exemple propose quelques crédits par jour alors que Playground permet de faire 100 images par jour.
Idem, la vitesse de génération dépend soit du nombre de personnes en train d’utiliser l’IA soit du site spécifique.
En bref, Stable Diffusion est très complète, par contre il faut tester les différents sites pour voir la vitesse, les crédits, etc… ou encore l’installer sur ordinateur pour en profiter pleinement.

[K] Passons maintenant à Dall-E, l’IA text-to-image d’OpenAI. Alors il y a deux façons principales d’y avoir accès. La première, c’est via le site d’OpenAI en payant ChatGPT Plus, qui coûte 20$ par mois. Et la deuxième, c’est l’accès gratuit via le moteur de recherche Bing de Microsoft.
Il n’y a pas beaucoup de différences entre les deux, Dall-E via Bing est un peu plus lente et Dall-E via ChatGPT Plus, qui n’est pas toujours des plus rapides non plus, suivrait apparemment mieux les prompts que celle du moteur de recherche, mais tout ça évolue tellement vite que ce ne sera peut-être plus le cas dans quelques temps.
Bref, pour utiliser Dall-E gratuitement, il faut donc passer soit par Bing Chat ou par Bing Image Creator.
Dans l’ensemble, Dall-E propose de très belles images dans plein de styles possibles, par contre il est souvent difficile de faire une variation ou une modification précise de l’image. C’est très bien quand on n’a pas besoin d’un résultat très précis.

[A] Maintenant, parlons de Midjourney. Alors il faut savoir que cette IA fonctionne par Discord, comme un bot à installer sur un serveur, et elle est payante. Elle coûte 10$ par mois pour sa version la moins chère mais il faut compter au moins 30$ par mois pour avoir accès à la version qui permet de générer des images de façon illimitée.
Midjourney est par contre très complète, avec la possibilité de générer dans beaucoup de styles différents, et même avec différentes versions de l’IA, et qui permet de faire des variations, de modifier seulement une partie de l’image générée, etc… Les paramètres modifiables se comptent par centaines, les variations pour un même prompt sont infinies. Le tout assez vite, avec seulement des ralentissements vraiment aux heures de pointe.
En bref, Midjourney est vraiment très bien et très complet mais malheureusement cher.

[K] Enfin, il y a PixAI, qui est une IA qui permet de générer des images surtout dans un style manga/anime. Alors, attention, avertissements de contenu : PixAI utilise surtout des codes d’animations asiatiques, et elle est très normative… et parfois très suggestive. Elle propose des corps minces avec des attributs généreux si on ne lui précise pas que ce n’est pas ce qu’on veut. Comme on a dit, les IA apprennent avec ce que la société leur montre…
Bref, PixAI permet malgré tout de faire de très belles images mais uniquement dans son style ! Elle fonctionne avec un système de crédits et propose 10 000 crédits par jour, qui sont cumulatifs si on les récupère une fois par jour, contrairement à Playground par exemple qui remet les crédits à 100 chaque jour mais pas plus. Alors attention par contre de bien décocher les options qui feraient dépenser du crédit pour rien, comme la génération rapide. Et pour l’utiliser vraiment gratuitement, choisissez la génération en mauvaise qualité qui coûte 0 crédit et quand une image vous convient, utilisez vos crédits pour la générer en meilleure qualité. La génération est souvent assez lente, sauf si vous voulez dépenser des crédits pour que ça aille plus vite ^^
En résumé, PixAI demande un peu plus d’attention dans son utilisation pour éviter les désagréments et elle est plutôt lente mais elle est très, très bien dans son style.

[A] Voilà. Comme on vous le disait, il y a plein d’autres possibilités, n’hésitez pas à regarder des tops, suivre l’actualité, et à tester évidemment. Rien que pour la vitesse de génération, ça dépend à la fois des IA et aussi de l’heure à laquelle vous générez. Aux heures creuses, c’est souvent plus rapide.

[K] Ok maintenant qu’on a un peu parlé des IA, passons à l’utilité qu’elles peuvent avoir selon nous pour nous aider en tant que systèmes. On en a un peu parlé dans l’intro, mais je pense que le premier grand truc c’est d’aider au mapping en faisant des faceclaims et aussi pour représenter l’inner. Mais du coup le mapping c’est toutes les pratiques qui visent à cartographier un peu le système et ses membres. Donc à quoi ressemblent les alters, que ce soit physiquement mais pas que, le mapping on s’en sert au sens large, c’est aussi physique que mental : Quelles sont les affinités des alters ? Est ce que l’on peut communiquer tous les uns avec les autres ou est ce que par exemple, cet alter fait partie d’un sous système et du coup n’a la capacité de communiquer qu’avec telle partie de son sous système, etc. Le mapping c’est vraiment toutes les choses qui rentrent dans le grand groupe “apprendre à connaître son système” et donc apprendre à connaître son système, il y a évidemment parcourir et découvrir son inner et ça peut aussi être mapper son inner. Quelle zone il y a ? Qui vit où ? Est ce que la météo est pareille partout ? Est ce qu’il y a des zones où il y a un rythme de saison ? Et des zones qui sont figées ? Est ce que c’est la même temporalité partout ? À quoi ça ressemble ? Est ce qu’il y a des dominantes de couleur ? Voilà. Le mapping, c’est tout ça. Et les IA, ça peut servir pour nous, autant pour la représentation des alters que pour la représentation de l’inner.

[A] D’ailleurs au niveau de l’inner, si vous en avez un, que ce soit une pièce ou un univers entier, vous pouvez absolument tout créer comme visuel et c’est vraiment très large comme possibilité.

[K] Et ah oui, je voulais juste repréciser un truc encore. C’est qu’on n’est évidemment pas obligé·e·s de tout mapper et ne pas savoir exactement qui est où et qui fait quoi, à quel moment. C’est normal et c’est pas grave. C’est genre naturel en fait, c’est pas parce qu’il y a des zones d’ombre que c’est grave. On n’est pas obligé·e·s de se forcer à mapper. On n’est pas obligé·e·s- Enfin c’est même mieux de ne pas forcer les gens à se révéler s’il y a une résistance. Si ce n’est pas précis, c’est OK. Si c’est flou, c’est OK. Si ça vous fait flipper de commencer à mapper à un endroit, peut être qu’il ne faut pas le mapper tout de suite. C’est pas censé générer de l’inconfort de chercher à mapper et c’est pas non plus censé, et ça, je sais que ça peut être compliqué, c’est pas censé amener de problèmes de légitimité non plus. C’est pas parce qu’une partie est floue ou l’ensemble est flou que vous êtes moins un système ou moins légitime ou que vous- rien en fait. Juste tous les systèmes sont différents et les capacités de visualisation sont différentes, mais les capacités d’accès sont aussi différentes et par personne et par système et par alter et même par moment. Bref, il y a tellement de facteurs qui peuvent complexifier le mapping que c’est OK, en fait, vraiment.

[A] Et j’ai envie de rajouter aussi que c’est OK d’avoir parfois envie de mapper et de le faire et des fois de ne plus le faire ou de mettre de côté ou même de détruire s’il y a un accord là dessus. Voilà, c’est important, surtout qu’au sein du système vous puissiez en discuter et que vous trouviez vos solutions qui puissent convenir à peu près à tout le monde, même si on sait bien que ce n’est pas facile.

[K] Et moi, je voulais rajouter aussi que c’est OK d’avoir mappé un truc et de revenir en arrière ou de laisser en suspens. C’est assez fréquent d’avoir un truc, de se sentir vraiment en adéquation avec, d’avoir fait la représentation physique d’un alter, que l’alter ait l’air d’accord, que tout soit fluide et puis on retombe sur le truc cinq jours après on se fait “Trop bizarre… Je ne vois pas pourquoi ça serait comme ça. Et puis j’ai l’impression que c’est sorti de mon chapeau et que c’est pas vrai. Et na na na. Et puis je vois pas pourquoi ça serait comme ça.” Et il y a un espèce de doute qui vient se mettre. Et vraiment c’est commun, en fait. C’est ok de se dire “Ok là ça me parle pas, je vais le laisser là un peu et peut être j’y reviendrai plus tard.” Et peut être que plus tard, vous vous direz “Non, c’était pas vrai, c’était pas ça, c’est que ça match pas tant que ça au final.” Et c’est ok en fait de revenir en arrière, il n’y a pas de truc de “Ah j’ai mappé s’est taillé dans le marbre pour toujours.” Non on s’en fout, c’est un outil en fait le mapping, comme n’importe quel autre outil. Bref, c’est un peu long comme truc, mais c’est pour vous dire vous mettez pas la pression, c’est pas le concept. Voilà.

[A] Oui, voilà, la vidéo s’adresse aux systèmes qui ont envie de mapper et qui vraiment ressentent le besoin et cherchent des outils complémentaires pour ça ou pas. Voilà, c’est juste proposer une possibilité que nous, on utilise et qu’on aime énormément parce que ça nous permet tant de choses.

[K] Et du coup, ouais, moi je- Du coup, j’utilise Midjourney depuis pas très longtemps. Ça doit faire moins de six mois et c’est vraiment impressionnant à quel point ça m’a aidé·e. Pas que pour mapper mon système, mais c’est surtout- enfin aussi quoi, parce que j’ai vraiment une mauvaise visualisation. Du coup, je n’ai pas d’image mentale. Je suis aphantasique et donc j’imagine les choses en concept. Et donc pour moi, passer par du texte pour générer des images, c’est vraiment le truc qui manquait à mon existence, genre. C’est super bizarre à découvrir parce que c’est un truc que je savais depuis toujours, mais que je ne savais pas comment dire en mot, parce que je n’avais pas imaginé que le concept pouvait exister. Mais tu vois, je disais toujours des trucs comme “Mais je sais ce que je pense, mais je ne saurais pas te le dire, parce que je le vois pas.” Et j’ai vraiment beaucoup de problèmes entre la pensée en concept et n’importe quoi d’autre pour parler à quelqu’un, parce que je n’ai pas de capacités en dessin, enfin voila. J’avais aucun moyen de montrer des choses que je ne vois pas moi même, que du coup je ne savais pas décrire aux gens non plus et vraiment le fait de pouvoir écrire des textes, c’est vraiment trop ça. Et je sais d’ailleurs pas si j’ai une utilisation qui est exactement comme les autres, mais moi je tape jamais de prompt où je sais ce que je vais finir par avoir, parce que je ne sais pas ce que je cherche. Du coup moi je tape des prompts hyper génériques, genre par exemple si c’est pour un alter, je vais taper “Une fille aux cheveux roux.” Et puis je vais mettre par exemple une émotion ou un truc plutôt genre “Elle a l’air timide et elle sourit.” Je ne saurais pas par exemple dire “Elle a une robe, ses cheveux sont mi longs et bouclés et ses yeux sont bleus.” J’en sais rien, je sais pas du tout, mais par contre, je sais voir ce que je ressens comme oui ou comme non quand les images elles se génèrent. Je sais par où je vais et je sais par où je me dis que c’est bien d’aller par espèce d’intuition, mais pas en ayant une image au départ. Et du coup, mais donc ça, c’est mon cas spécifique de mauvaise visualisation, mais je pense que pour tout le monde, ça peut être vraiment cool, parce qu’il n’y a pas besoin d’avoir ni une idée précise, ni une très bonne communication pour que ça puisse marcher, parce qu’on peut vraiment se laisser porter au fur et à mesure des générations et de se dire “Ah oui, plutôt ça, ou plutôt pas ça.” Changer un petit mot dans le prompt pour essayer d’aller dans une autre direction et puis se faire “Ah non non, pas du tout, ça c’est vraiment trop pas ça.” Je trouve ça personnellement plus facile même que sur Picrew. Et je trouvais déjà que sur Picrew c’était tellement plus facile que n’importe quoi d’autre, comme par exemple moi je suis vraiment incapable de faire des moodboards par exemple sur Pinterest. Je sais qu’il y a des gens qui font ça, qui prennent des images de vibe, moi je sais que c’est trop abstrait pour moi et trop précis à la fois. Que les Picrew déjà choisir dans une quantité d’options, c’est plus facile. Et la Midjourney ouais, le fait de pouvoir prompter c’est vraiment trop bien.

[A] Pour ma part, j’ai une imagination très visuelle. J’utilise les IA text-to-image depuis plus de deux ans et pour nous ça a été vraiment une révolution totale, aussi importante que lorsqu’on a eu accès à Internet vers douze/treize ans et qu’on a découvert qu’on pouvait communiquer avec des gens à l’autre bout du monde. Et juste utiliser ce moyen là de communication, on est autiste et donc, du coup la communication IRL est parfois compliquée, avec plein d’indicateurs différents et donc la communication écrite a été- enfin voilà, écrite et instantanée, a vraiment été quelque chose d’incroyable pour nous, tout comme la découverte d’Internet en entier. Et lorsque on a découvert les IA il y a deux ans, ça a vraiment été “Wow” tout de suite, beaucoup, une immense créativité en fait, beaucoup de liberté. Et puis voir les évolutions incroyables de l’IA puisque j’utilise Midjourney depuis la V1 et ce que j’aime beaucoup avec les IA c’est qu’on peut être très précis, mais ça demande du travail et ça demande vraiment beaucoup de temps en général de maîtriser à peu près l’outil et de commencer à faire des choses qu’on veut. Comment dire ? C’est facile de faire quelque chose avec l’IA, il suffit juste de taper quelques mots et pouf, ça génère une image en général très jolie. Par contre, sur quelque chose qu’on veut faire, faire quelque chose de précis, une image mentale qu’on va avoir si on n’est pas aphantasique, ça demande souvent beaucoup de temps, plusieurs dizaines de minutes ou d’heures, avec des dizaines et même souvent des centaines de prompts. Ça m’arrive de passer plusieurs jours juste sur une illustration pour avoir exactement ce que je veux, dans le style que je veux créer, avec tous les paramètres que je veux, modifier des petites- pleins pleins de petites choses au fur et à mesure, voilà. Il y a beaucoup de personnes qui pensent que les IA c’est facile et à la fois c’est vrai et en même temps c’est faux. C’est comme faire une photo. Faire une photo, c’est facile. Il suffit d’appuyer sur un déclencheur et on peut faire plein de très belles photos juste en appuyant sur un déclencheur. Créer quelque chose qui nous ressemble et créer ce qu’on veut faire, ça demande une maîtrise des paramètres et aussi, ouais, simplement l’envie d’apprendre. Et moi, c’est ça que je trouve très chouette. L’IA, c’est tellement infini comme possibilité, parce que tout d’un coup, il y a plus de barrières physiques, plus de barrières de compétences physiques, de faire quelque chose avec ses mains. On utilise des mots et c’est totalement révolutionnaire comme façon de créer. Alors bien sûr qu’on crée avec les mots des textes, des chants, etc, déjà. Mais créer des images avec des mots, pour moi, ça a été incroyable comme découverte. Parce que justement, j’ai un intérêt spécifique sur les mots, sur le langage. J’avais une frustration quand même au niveau créatif, parce que je dessine un peu. Je peins un peu, je fais de la photo beaucoup et comment dire. L’AI n’a pas remplacé mes passions et les choses que je fais au niveau- avec mes mains. Simplement, ça m’a ouvert un canal de plus pour exprimer ma créativité et pour créer des choses que je n’ai pas les compétences de faire avec mes mains directement. Mais après, ça va aussi dans l’autre sens, parce qu’il y a des illustrations que j’ai faites avec une IA que maintenant j’ai très envie de faire en peinture et que je suis en train de faire en peinture. Parce que j’ai mis longtemps à élaborer un style qui m’est un peu plus personnel avec l’IA et ce style, j’ai envie de le faire, de le créer aussi sur des supports plus traditionnels.

[K] Moi, du coup, je pense que là encore l’aphantasie m’aide pas. Moi j’ai très peu de rêves et de cauchemars et moi ça me viendrait pas du tout à l’idée de prompter mes rêves, parce que vraiment moi je fais des rêves très basiques, genre j’essaie d’aller aux toilettes et il y a un évier au dessus de la toilette, tu vois. [rires] Moi je fais des rêves de casse-tête comme ça, tu vois, genre où genre une porte qui doit s’ouvrir, mais il n’y a pas de poignées, tu vois des trucs comme ça. Donc après, je pourrais en faire des illustrations, mais je n’y pense pas. Que toi plus.

[A] Oui, moi j’ai des rêves et des cauchemars extrêmement imagés et vivants et intenses, très très très intenses. Et beaucoup de cauchemars extrêmement intenses et de pouvoir au réveil, y compris de mon lit, parce que du coup, je peux prompter de mon téléphone. D’avoir ça en support tout de suite, juste après un rêve ou un gros cauchemar, ça m’a permis de mettre en images des choses que j’ai vécues et qui sont très intenses et qui souvent m’impactent pendant plusieurs heures, voire plusieurs jours, et qui partaient tout de suite en amnésie en fait. Que j’oubliais tout de suite, mais qui m’impactaient quand même. Du coup, oui, pouvoir personnaliser les rêves, les cauchemars, c’est- enfin les créer en images immédiatement ou presque immédiatement, c’est vraiment- ça m’a changé vraiment beaucoup de choses. Et il y a plein de moments où l‘IA devient une sorte de média de soutien par rapport à des émotions fortes ou des vécus sensoriels forts. Par exemple, lorsque j’ai des crises qu’elles soient dissociatives, les crises d’anxiété ou des crises autistiques, des choses comme ça, ça peut vraiment servir de support thérapeutique pendant et en dehors des crises. Ça m’est arrivé de traverser des crises d’anxiété en pomptant, en générant des images. Soit qui étaient des représentations de ce que j’étais en train de ressentir, soit qui était autre chose, pour m’ancrer sur autre chose. Et vraiment, c’est quelque chose qui me fait énormément de bien. Et en dehors des crises, ça me permet aussi de me créer des ancrages, des balises, en représentant les personnes de mon système ou des lieux dans l’inner qui sont safe. Voilà, j’ai très envie d’ailleurs d’imprimer certaines des illustrations de l’inner que j’ai faites pour me faire des visuels d’ancrages en cas de crise d’anxiété chez moi.

[K] Et moi, il m’arrive d’utiliser Midjourney comme remplaçant à Tiktok quand ce que je veux- enfin ce que je veux, c’est ce que je peux en fait, c’est juste être dissocié·e, scroller. Ça m’arrive de prompter dissocié·e et c’est pas très profond ce que je génère, c’est pas spécialement des illustrations que je vais garder ou qui me plaisent ou qui ont un fond, mais c’est quand même plus ancré dans une réflexion, même si c’est dissocié du moment présent, mais c’est plus dans ma tête que juster scroller mon Tiktok sans même- enfin tu vois ce moment où tu scroll pendant des plombes et tu sais même pas ce que t’as regardé deux secondes avant. Moi, ça m’arrive d’utiliser Midjourney en remplaçant à ça. Je dirais pas que ça m’aide à m’ancrer, mais ça me désancre moins que Tiktok, dans tous les cas.

[A] Oui, ça fait plein de petits shoots de dopamine, parce que c’est très satisfaisant. Et personnellement, voilà, ça me fait des shoots de dopamine et en plus il reste quelque chose. Je sais que des fois j’ai des moments où je me sens très mal après avoir dissocié pendant longtemps sur les réseaux sociaux et d’avoir juste scrollé, scrollé pendant des heures parce que j’étais juste en capacité de faire que ça émotionnellement et psychologiquement à ce moment-là. Et les moments où j’ai passé à fronter pendant des heures ou des dizaines d’heures parce que je n’étais capable que de ça, m’ont fait du bien, parce qu’au moins, il restait quelque chose à la fin. Et c’est vraiment très très personnel comme sentiment et comme, comment dire, je ne hiérarchise pas parce que, voilà, je ne pense pas que l’un soit mieux que l’autre, juste moi, ça me fait du bien d’avoir quelque chose à la fin qui reste.

[K] Oui c’est ça. Il y a plein de moments où je choisirais Tiktok plutôt que Midjourney, mais oui, je trouve que c’est exactement pareil que ce que tu disais sur les différents canaux. Ça m’a donné une possibilité de plus, tu vois, de qu’est ce que je peux faire quand je me sens dissociée à crever, que je sais pas quoi faire d’autre, ok, j’ai l’impression que ça a créé un nouveau chemin et pas juste je vais scroller parce que depuis dix ans, j’ai perdu toute autre possibilité de savoir ce que je faisais d’autre quand j’étais très dissocié·e que scroller. Je ne sais plus comment était le monde avant Tiktok. Au-delà du fait qu’il en ressorte quelque chose et qu’il en reste quelque chose, je trouve que c’est intéressant aussi de parfois pouvoir se dire à force en fait, c’est plus facile de se dire “OK, j’ai prompté ce genre de trucs. Peut être que c’est plutôt je ne savais pas qui j’étais. J’étais super mélangé·e et super bizarre. Je savais pas. Je savais que je ressentais d’être chelou, mais je savais pas ce que je ressentais.” Moi, je trouve qu’à force y a un peu moyen, en fonction des styles et des thématiques, de se dire, de relier en fait. De dire “Ah c’était peut être plutôt machin ou peut être que c’était plutôt truc. Et peut être que, en fait, je n’y avais pas décelé. Mais peut être qu’en fait j’avais été trigger par tel machin trois jours avant, mais que j’en avais pas conscience alors que ça faisait trois jours que ça se tramait.” Tu vois, ça me fait un peu ce même effet que- je sais pas si toi t’as ça, mais nous, on a beaucoup de playlists, un peu par mood, qui en fait pourraient être des playlists par alter, mais elles se sont pas faites comme ça, elles sont faites par mood. Et tu vois, c’est ces trucs où quand tu écoutes une chanson, t’as vraiment, en fonction des moments, un sentiment de confort ou un sentiment très genre “Mais pourquoi j’écouterai ça ?”

[A] Complètement. C’est clair. [rires]

[K] Je trouve vraiment que les façons de prompter, ça apporte ça.

[A] Oui, nous ça nous arrive souvent de ne pas du tout se souvenir de ce qu’on a prompté en fait et de remonter notre fil. On a fait ça, de temps en temps, il y a eu des alters qui ont eu envie de regarder un peu ce qu’on avait fait et on est remonté·es sur donc des mois, voire des années de prompt. Ça prend très très longtemps parce qu’on a des dizaines de milliers d’images, je crois vraiment maintenant. Et on voit les périodes et on arrive même aussi à savoir, pas toujours, mais à savoir quels alters ont prompté. Et il y a des fois des alters qui ont prompté et on s’en souvenait vraiment pas du tout. Et on a trouvé des illustrations qui étaient très parlantes de notre système, qui disait des choses même importantes sur nous et qu’on a découvert du coup un peu après coup. C’est aussi un support à l’amnésie, pour moi, le fait d’avoir des productions imagées de différents membres du système et aussi une façon de communiquer qui soit pas verbale du tout.

[K] Et pour les alters qui seraient non verbaux ou pour les personnes qui sont juste pas à l’aise avec le fait de passer par l’oral. Moi j’ai vraiment l’impression qu’il y a particulièrement une difficulté du conscient avec le verbal. J’ai l’impression que les trucs qui sont profonds et plus proches de l’inconscient, enfin tu vois dans cette barrière entre les deux là, dans cette zone floue, eh ben, j’ai l’impression que passer par la verbalisation, c’est une étape d’après. J’ai l’impression qu’il y a des stades avant d’être capable de dire. Et les images, elles permettent ça, moi je trouve. Elles permettent de faire passer des messages ou des émotions, ou des souvenirs ou des bribes en tout cas de trucs, avant que ce soit un fait factuel capable d’être dit.

[A] Oui, complètement. D’ailleurs, nous on a un alter, peut être plutôt un fragment, qui est vraiment sur ce qui est sur le dessin, c’est la seule chose qu’iel fait, c’est le dessin. Iel est souvent quand on prompte et j’ai trouvé des passages où c’est iel qui promptait et ou sinon d’autres moments où elle est juste derrière et où elle est en co-conscience et elle parle pas juste, elle est présente et ça fait aussi une façon de se relier, de communiquer. Voilà, de façon non-verbale, pas avec des mots, pas avec- peut être avant ça, de laisser de la place aussi à des alters qui ont pas envie d’un mode de communication aussi engageant que la parole ou les mots, ou ce genre de chose.

[K] A fond et peut être aussi dans des moments où c’est trop, tu vois. Ces moments où c’est trop overwhelmant que pour qu’il y ait de la place pour les mots. Mais ça m’est pas arrivé parce que je pense que j’y pense pas, mais je pense que j’aimerais, genre tu vois quand je suis en colère et que je sais pas pourquoi, de cette vieille colère que tu traînes en toi, tu vois, tu te réveilles comme ça, elle est là, t’es “Pourquoi t’es là toi ? Va te ranger !” Eh ben je le fais pas et je prends pas le temps. Mais tu vois ce que je fais, moi, dans ce genre de moment, c’est que j’essaye de faire, genre, tu vois les gens, ils font écriture automatique, mais moi je fais vocale automatique parce que je n’écris pas. Eh ben, parfois, je ne fais pas de vocal automatique parce que Epsi est là, parce que j’ai pas le temps, parce que je m’autorise pas à prendre ce temps où je fais que ça. Parce que pour parler automatiquement, il faut que je fasse que ça. Que peut être que je devrais essayer de prompter parce que je pourrais sûrement le hacher en plein de micro étapes dans ma journée. Tu vois, ça serait moins mobilisant de genre je me prends une demi heure, je pourrais générer deux images, continuer ma vie. Et ça pourrait peut être être exactement comme cette vieille colère que tu traînes en te levant le matin. Un truc qui est en tâche de fond derrière, mais pour lequel je pourrai quand même mettre de l’importance ou de la conscientisation. Mais j’ai pas encore essayé.

[A] En tout cas, il y a vraiment plein de façons différentes de prompter. Alors déjà sur le contenu en lui-même, les paramètres, tout ça, mais aussi dans le rapport au prompt, dans le rapport à la génération d’images. Personnellement, j’ai un petit peu deux moods, c’est soit la plongée en prompteur où je vais prompter pendant des heures d’affilée et ne faire que ça, parce que je vais être absorbée dans ce que je suis en train de faire. Bon, ça c’est évidemment les heures où les serveurs sont pas saturés, parce que sinon ça devient très frustrant.

[K] Moi je prends du plaisir à prompter des choses qui sont souhaitées, mais pas réelles. Je vais donner un exemple. Imagine, je m’imagine qu’il y a un problème relationnel entre moi et une personne, sauf que potentiellement, il y a de grande chose qu’il soit plutôt imaginé par moi que vrai, puis de toute façon, j’oserais pas en parler. Et du coup, prompter une espèce de résolution qui montre à un moment d’amitié. Eh bien, ça m’aide à passer à autre chose ou à retrouver du rationnel, où- tu vois ?

[A] Oui, oui, je vois bien le côté un peu aider à se raisonner soi même, à reprendre pied avec la réalité, parce que le scénario dans la tête peut partir en spirale.

[K] Oui, c’est ça et le fait de coucher sur image, eh ben genre je pense que ça aide mon cerveau à clôturer, à passer à l’étape d’après.

[A] Oui, c’est vrai, complètement. Moi, pour ce genre de choses, je fais souvent des images très abstraites, des choses qui vont pas être représentatif. Voilà, où va pas y avoir de représentations matérielles, d’objets, de personnes, etc, mais avec des choses très abstraites. Ou alors en faisant de la photographie IA, du coup parce qu’en fait, vraiment les possibilités sont tellement infinies. Comme je fais de la photo, ça m’arrive de nourrir l’IA avec une image et de faire des variations de cette image et de, comment dire, d’expérimenter en fait, juste d’expérimenter et c’est très satisfaisant. Et pareil aussi de jouer avec les autres sens, d’imaginer, comment dire, je fais de la synesthésie. J’imagine souvent le goût d’une image ou le parfum d’un toucher, ce genre de choses, etc. Et ça me permet de jouer à ça aussi un petit peu en images. À quoi ça ressemble le parfum du soleil en images, par exemple.

[K] Attends le soleil, il a pas d’image. Pourquoi veux-tu que son odeur elle ait une image ? [rires] Et je pense que toi tu m’as déjà dit aussi que les IA ça t’avait aidée dans ta dysmorphophobie.

[A] Ouais, complètement. Parce que le corps du système n’est pas du tout le corps de pas mal d’alters dans le système. Et puis même pour celles pour qui le corps de naissance est leur corps, il y a aussi de la dysmorphophobie, notamment à cause d’un TCA. Et du coup, travailler sur la représentation des différents corps du système, travailler sur la représentation du corps de naissance, ça nous a fait beaucoup de bien. Et on a commencé, maintenant, un travail, il y a un peu plus d’un an. Une série en fait d’illustrations qui sont sur les corps gros et qui sont sur, comment dire, c’est un outil thérapeutique pour nous, là dessus. Le fait de pouvoir représenter des corps gros, de pleins de façons différentes. Alors après, les IA sont bien évidemment grossophobes, classistes, racistes, etc, parce que ce sont des reflets de notre société. Elles se basent sur des créations déjà existantes, enfin voilà. Mais on peut orienter l’IA, bien sûr, on peut lui demander des choses spécifiques. Et après on apprend, on commence à trouver les termes qui vont dans les prompts pour permettre d’obtenir ce qu’on veut. Et j’ai pu créer des corps très très réalistes et des fois pas du tout réalistes, et de nous faire travailler aussi sur la fierté liée à la grosseur, notamment. Et travailler sur cette dysmorphophobie pour la voir d’une autre façon, alors que ben, on manque vraiment beaucoup de représentations.

[K] Je trouve vraiment que- mais c’est le problème du manque de représentations, en fait. Si tu vois pas de représentations, tu peux pas sortir du fait que ça ne peut pas être joli.

[A] Oui, c’est ça. Je sais qu’au début, je faisais vraiment des représentations très consensuelles de femmes grosses mais pas trop, qui correspondaient vraiment un petit peu à un corps en sablier, avec un beau visage et des poses jolies. Et puis, petit à petit, j’ai pu creuser plus loin et mettre les personnages dans des positions moins flatteuses, beaucoup plus grosses, à aller sur des physiques qui sont qualifiées de disgracieux, voire de moches, qui sont moqués et qui sont méprisés, et de les voir beaux quand même. De les rendre beaux quand même. Et du coup d’avoir une autre image aussi sur nous-mêmes et de, enfin, travailler sur notre grossophobie intériorisée, en fait.

[K] Et pareil dans un truc un peu euphorisant, partir d’une illustration qui pourrait ressembler relativement à mon corps, mais en changeant des paramètres, par exemple en plus masculin ou en plus grand, ou- tu vois.

[A] Oui, c’est clair. Et puis faire plein de choses comme se rajouter des écailles, une queue.

[K] Bref, nous on kiffe, c’est ça la conclusion.

[A] Oui, c’est très enthousiasmant et voilà.

[K] Et pour autant oui, ça n’a pas remplacé tout le reste. C’est juste un truc de plus.

[A] Non, du tout, au contraire même en fait. Même au contraire. Personnellement, ça m’a redonné envie. J’avais pas peint depuis douze ans et ça m’a redonné envie de peindre. Et pareil pour la photo. Le fait de pas réussir forcément à avoir exactement ce que je voulais avec l’IA quand je maîtrisais pas encore très bien les paramètres, ça m’a redonné envie de faire certains styles de photo et de creuser un peu plus, puis de mélanger tout, parce qu’on peut mélanger une image avec un prompt, plusieurs images ensemble, on peut- voilà. Il y a vraiment beaucoup de choses possibles, puis après, si on maîtrise aussi les outils comme Photoshop, et bien, pouvoir jouer avec les différents filtres et masques de fusion pour mélanger des images, pour faire des cadeaux aussi. Ça m’est arrivé de faire des créations spécifiques pour des personnes que j’aimais beaucoup et de les partager, voilà, de leur partager en cadeau. C’est aussi un moyen de communication avec d’autres personnes à l’extérieur du système.

[K] Je suis d’accord avec tout. Voilà. Est ce que tu as envie de rajouter quelque chose sur quelque chose ?

[A] Euh. Je crois que je pourrai en parler pendant des heures, mais je crois que non. Je crois que c’est bien, c’est chouette. Je crois que j’ai dis à peu près tout ce que j’avais envie de dire et c’est chouette d’en parler.

[K] OK, merci beaucoup, c’était trop cool comme discussion. Et nous on se retrouve en live dans un instant pour répondre à vos questions/réponses.

[A] A tout de suite !

Session présentée par:

Remerciements:

Atome