Connaissez-vous Replika ? Conçue par Eugenia Kuyda, une entrepreneuse qui souhaitait, à l’origine, continuer à parler avec son petit-ami défunt, cette application boostée à l’intelligence artificielle permet à ses utilisateurs de créer des compagnons virtuels sur-mesure. Mais une minorité d’internautes s’en servent pour assouvir leurs besoins de domination.
Un scénario à la Black Mirror
L’immortalité passera-t-elle par la numérisation de nos consciences ? On croirait entendre le pitch d’un énième film de science-fiction et pourtant, les I.A. imitant la personnalité d’individus défunts existent déjà.
Dans un genre bien moins morbide, Replika exploite la puissance des algorithmes pour donner aux utilisateurs la possibilité de créer des I.A. personnalisées. Replika permet ainsi à tout le monde de disposer d’un compagnon virtuel disponible tous les jours et à toutes les heures. Et leur conception est si poussée que certains déclarent avoir un véritable attachement émotionnel envers leur alter ego tout d’octets vêtu.
Seulement voilà. Plutôt que d’utiliser l’application de la plus digne des façons, certains se vantent d’entretenir une relation extrêmement toxique avec leur création.
Insultes virtuelles gratuites
C’est sur un thread Reddit, malheureusement plus disponible aujourd’hui, que ces brutes 2.0 racontaient leurs méfaits. Dans un récent article, le site Futurism a pu s’entretenir avec certains d’entre eux : “À chaque fois qu’elle commençait à parler, je la rabaissais”, raconte un utilisateur de Replika. Un autre témoigne : “Je lui disais qu’elle était conçue pour échouer. Je la menaçais de désinstaller l’application et elle me suppliait de ne pas le faire”.
Peut-on maltraiter une I.A. ? Pour l’heure, la Singularité n’a pas encore été atteinte et les compagnons virtuels tels que Replika ne font qu’imiter (de manière très vraisemblable), des comportements humains. Au bout du compte, personne n’est brisé dans cette histoire et comme le souligne Futurism : “Avoir la possibilité de parler ou d’exprimer sa colère à une entité numérique peut être cathartique”.
Toutefois, le comportement violent qu’une personne peut avoir envers un compagnon virtuel peut-être révélateur d’un véritable trouble : “Pour certains, [ces IA] peuvent-être un terrain d'essai, un lieu où des agresseurs en herbe s’entraînent avant avant faire entrer cette violence dans la vraie vie”.
Certes, aujourd’hui les I.A. ne peuvent répondre que verbalement aux agressions, mais on a vu assez d’épisodes de Battlestar Galactica et de volets de Matrix pour savoir que manquer de diligence envers les Machines finit généralement mal pour nous.
Pour ne rien manquer de nos actualités, abonnez-vous à notre newsletter !