Lorsque Jen*, une amie de lycée de Sophia*, a déménagé à Washington, DC, Sophia était ravie de renouer contact. Elle a rapidement intégré Jen dans son cercle, lui faisant visiter la ville, visitant des musées et l’emmenant dans ses restaurants préférés. Maintenant, Jen quitte à nouveau la ville – mais c’est peut-être pour le mieux. Les choses sont devenues un peu bizarres depuis qu’elle a mentionné comment elle utilise ChatGPT.
«J’essaie d’éviter autant que possible d’utiliser (l’IA)», explique Sophia, 28 ans. Comme la majorité de son entourage, elle préfère s’en éloigner en raison de ses impacts environnementaux et cognitifs. « Un jour, nous marchions vers le métro en rentrant du brunch, et un autre ami racontait l’histoire de quelqu’un d’autre et (dit) : ‘Oh mon Dieu, et ils utilisent même ChatGPT à des fins thérapeutiques.' »
Jen a admis qu’elle le faisait aussi. « (Elle a dit) lorsqu’elle se sent très dépassée, elle trouve utile de vomir des mots dans ChatGPT et de le faire ensuite valider », explique Sophia. « (Elle est devenue) très sur la défensive, affirmant que c’était un moyen utile de traiter ses émotions et qu’elle connaissait beaucoup de gens qui l’utilisaient, y compris son petit ami et certains membres de sa famille. »
Jen ne voit aucun professionnel de la santé mentale agréé, ce qui inquiète Sophia, d’autant plus que de nombreux modèles d’IA sont formés pour valider les utilisateurs et ne peuvent pas comprendre pleinement la complexité des émotions humaines.
Il y eut un silence gênant. Dans un souci de maintien de la paix, Sophia traite désormais l’IA comme un sujet interdit.
«Je pense qu’il est facile pour moi d’éviter les sujets inconfortables», dit-elle. « J’ai (ai grandi) dans le Sud, et j’ai l’impression que cela rappelle beaucoup la façon dont la politique est traitée – ce compartimentage entre les personnes avec lesquelles vous pouvez parler de vos opinions et celles avec qui il est préférable de s’en tenir à d’autres sujets moins controversés. »
Depuis, leur amitié est superficielle.
Plus de 2 milliards de requêtes sont traitées quotidiennement sur ChatGPT. Avec 900 millions d’utilisateurs actifs hebdomadaires, c’est l’outil d’IA le plus populaire au monde. La technologie est nouvelle et controversée, et pour ceux qui ne l’aiment pas du tout, l’utilisation par un ami proche pourrait être un frein. D’autres reçoivent l’aide de l’IA lorsqu’ils ont besoin de conseils, mais elle peut, par nature, éliminer l’élément très humain à l’origine des liens intimes. Alors, où placer la limite ?
Ella, 31 ans, a reçu ce qui était censé être un texte sincère de sa meilleure amie depuis plus de deux décennies, même si cela semblait étrangement artificiel – et cela a changé à jamais leur relation de longue date. En 2020, Ella a connu plusieurs pertes familiales coup sur coup, ce qui a conduit à une période de deuil intense et de dépression. En 2023, elle a commencé à se sentir mieux et a dit à son amie Robyn* qu’elle n’avait pas ressenti suffisamment de soutien lorsqu’elle en avait vraiment besoin.
« Je voulais juste un ami qui me considérait, pas un ami qui avait une réponse parfaite. »
Robyn a admis qu’elle aurait aimé se présenter différemment à Ella. Au cours des deux années suivantes, le couple a tenté de reconstruire leur amitié. Ella a conduit une heure dans les embouteillages de Manhattan pour célébrer les fiançailles de Robyn et lui a envoyé des fleurs pour la fête des mères. Puis, à l’occasion de l’anniversaire du décès de la grand-mère d’Ella, elle a reçu un texte de Robyn qui semblait avoir été écrit par AI.
« Une chose qui était un révélateur mortel, ce sont les tirets em », dit Ella. « De plus, le verbiage était vraiment robotique. Quelque chose comme ‘Je pense à toi dans ton profond moment de deuil.’ Je pense que beaucoup de gens qui utilisent ChatGPT pour des raisons personnelles ont tendance à oublier qu’il n’y a pas un battement de cœur à cela.
Ella était abasourdie mais n’a rien dit à part « Merci pour vos aimables paroles. »
«Quand j’y ai repensé environ une semaine plus tard, je l’ai en quelque sorte utilisé comme un signe qu’il était temps de lâcher prise», dit-elle. Elle avait toujours été la plus émotive, mais l’apathie de Robyn la piquait toujours. « Je voulais juste une amie qui me considère, pas une amie qui ait une réponse parfaite. Je ne voulais pas de poème. Je ne voulais pas qu’elle joue pour moi. Je voulais juste savoir qu’elle pensait au moins à moi. Il y a une différence. »
Pour Ella, c’était la goutte d’eau qui a fait déborder le vase. Depuis, les deux hommes ont perdu contact.
Parfois, cependant, l’IA réussit. Whitney, 37 ans, peut parfois être honnête jusqu’à l’excès et utilise souvent ChatGPT pour l’aider à affiner son ton lorsqu’elle envoie des SMS. Récemment, sa meilleure amie lui a dit, apparemment sortie de nulle part, qu’elle ne savait pas vraiment comment Whitney la présentait aux autres dans son dos. Whitney avait l’impression d’être une amie fidèle et la mauvaise interprétation a touché une corde sensible. Au lieu de répondre dans le feu de l’action, ou d’impliquer une troisième personne en lui demandant son avis, Whitney s’est tournée vers le chatbot.
« Je supprime ces longs et laids tirets qui donnent l’impression que vous avez été sur ChatGPT. »
«En fait, j’ai décidé, sur la base de la conversation que j’ai eue avec Chat, que je n’allais rien dire, parce que j’ai réalisé qu’elle ne voulait peut-être pas dire cela de manière négative», dit-elle. « Cela m’a en quelque sorte fait sortir du rebord. »
D’autres fois, Whitney montrera des captures d’écran ChatGPT des textes de ses amis ou partagera une note vocale expliquant une situation et demandera au mode d’apprentissage des langues de l’aider à rédiger une réponse moins abrasive.
« C’est comme le vieil adage : « Réfléchissez avant de parler » », dit Whitney. « ChatGPT me donnera trois options de ce que je veux dire, je choisis la meilleure et je supprime ces longs et laids tirets qui donnent l’impression que vous avez été sur ChatGPT. Ensuite, je le zhuzh un peu pour « Whitney-fy », bien que l’IA apprenne comment vous parleriez au fil du temps. «
Pour Ella et Sophia, l’utilisation de ChatGPT a été le point de rupture de certaines amitiés déjà inconstantes. Pendant ce temps, pour Whitney, c’est l’outil même qui lui a permis de donner la priorité aux sentiments de ses meilleurs amis. Ce n’est peut-être pas l’IA elle-même qui menace les relations platoniques ; au contraire, cela expose des fissures qui existaient déjà.
Whitney sait que ses relations sont suffisamment fortes pour rebondir après un commentaire mal reçu, mais elle préfère éviter le drame si possible. Pour Sophia et Jen, cependant, ce lien étroit manquait. S’ils avaient été plus proches, ils auraient peut-être pu avoir des débats d’avocats du diable sur leurs points de vue divergents autour des apéritifs. Dans le cas d’Ella, si la relation avait été plus forte, Robyn aurait peut-être été plus à l’aise d’envoyer un texte imparfait – mais sérieux.
« Mes amis roulent ou meurent », dit Whitney. « Mais pourquoi blesser quelqu’un si ce n’est pas nécessaire ? »
*Les noms ont été modifiés.