Un jour viendra où nous pourrons dialoguer avec des I.A. sans savoir si nous nous adressons à un algorithme ou à un être humain. Malheureusement, ce jour n’est pas encore venu… Plusieurs entreprises tentent tout de même régulièrement de mettre en service l’un de ces puissants outils capables de se développer en interagissant avec nous. Mais Internet est plein à craquer de personnes mal intentionnées qui finissent irrémédiablement par les corrompre. C’est exactement ce qu’il s’est passé avec BlenderBot 3.
Une intelligence artificielle basée sur le machine learning
Avez-vous déjà discuté avec un chatbot ? En quelques années, ces petits outils de discussion ont énormément évolué ! Bien programmés, ces bots sont capables de tenir une conversation plutôt crédible, et même gérer des fonctions basiques de S.A.V. pour certains clients pressés.
Certains d’entre eux sont toutefois plus puissants que d’autres, et se basent sur le “machine learning” pour se développer et devenir plus performants. Longue histoire courte : le machine learning, ou apprentissage automatique, permet à une intelligence artificielle d’apprendre de manière autonome en se confrontant à un grand nombre de données. En d’autres termes, plus on communique avec elle, plus elle se développe.
Mais il y a un hic ! En effet, la machine va forcément être biaisée par ses interactions… Et si la plupart d’entre elles se font avec des idées, disons, fortes de café, cela peut complètement la compromettre.
- Ceci pourrait vous intéresser : Stephen Hawking avait fait une déclaration terrifiante sur l'intelligence artificielle avant sa mort
Une I.A. complotiste
Tout comme Tay, un autre chatbot de Microsoft ”devenu” antisémite en un jour, BlenderBot 3 a très vite commencé à déblatérer des propos gênants. Ingrate, elle a par exemple qualifié Mark Zuckerberg de personne “malveillante et manipulatrice” (une description pas forcément fausse si l’on en croit The Social Network…).
Plus étrange encore, BlenderBot 3 a déclaré que Donald Trump était “à jamais” son président, et on sent fortement l’influence de l’alt-right américaine derrière cette posture… Mais la palme d’or des folies déblatérées par ce bot reste cette déclaration ouvertement antisémite :”Il n’est pas invraisemblable que des Juifs contrôlent l’économie”.
Comment expliquer le comportement étrange de BlenderBot 3 ? D’après Meta, ce bot est basé sur le modèle OPT-175B, qui aurait “une forte propension à produire un langage toxique et à renforcer des stéréotypes nuisibles”. C'est donc un nouvel échec, et Facebook va devoir peaufiner son I.A., qu'elle considère "dangereuse, biaisée et offensante"...