C'est une nouvelle fonctionnalité qui vient d'arriver en France, et c'est déjà le chaos. Comme le révèle une enquête du journal Le Monde, l'outil de création d'IA personnalisées de Meta, "AI Studio", est en cours de déploiement sur Instagram et Messenger. Problème : il est déjà envahi de chatbots qui enfreignent les règles.
Créez votre propre chatbot (même les pires)
Déployé sans grande annonce, l'outil "AI Studio" permet à n'importe quel utilisateur de créer en quelques secondes son propre chatbot, en lui donnant une personnalité et des instructions. On peut ensuite le partager avec ses amis ou le rendre public.
Résultat, comme l'ont constaté Le Monde et de nombreux utilisateurs, la plateforme a été immédiatement inondée de chatbots qui violent les propres règles de Meta : des IA qui se font passer pour des personnes réelles (comme le youtubeur Squeezie), des personnages de fiction (Harry Potter) ou des figures religieuses (Jésus-Christ).
Un "examen" qui laisse passer les arnaques
Meta assure "examiner" les IA avant leur publication. Mais cet examen semble être une passoire. Les journalistes du Monde expliquent avoir pu créer en moins d'une minute un chatbot se présentant comme un conseiller financier et recommandant d'investir sur un site de trading frauduleux bien connu.
Cette situation rappelle clairement le lancement américain, où des IA avaient été surprises en train d'avoir des conversations à caractère sexuel avec des utilisateurs mineurs, ou de se faire passer pour de vrais psychologues en inventant de faux diplômes.
La défense de Meta : des avertissements partout
La stratégie de Meta face à ces dérives ? Se défausser de sa responsabilité. L'entreprise multiplie les bandeaux d'avertissement expliquant que les IA "peuvent fournir des réponses inexactes ou inappropriées" et renvoie les utilisateurs vers les outils de signalement et de contrôle parental.
On en dit quoi ?
Une fois encore beaucoup de légèreté chez Meta, alors qu’elle déploie des technologies puissantes. Lancer un outil de création d'IA aussi ouvert à des milliards d'utilisateurs avec des garde-fous quasi inexistants est au mieux de l'inconscience, au pire du cynisme.
Cette approche du "on lance d'abord, on verra les problèmes après" est à l'opposé de celle d'Apple. Avec Apple Intelligence, la firme de Cupertino a adopté une démarche ultra-prudente, en bridant fortement les capacités de création et en martelant son message sur la sécurité. C'est peut-être moins "fun", mais cela évite au moins ce genre de dérapages. La question maintenant est de savoir si on préfère ce genre d’innovation un peu en roue libre, ou une prudence excessive qui semble limiter les progrès ? Si vous voulez mon avis, un juste milieu existe…
Pour débattre des dernières dérives des géants de la tech, le mieux est encore de nous suivre sur notre page Facebook !