lundi, 28 novembre 2022
HomeLes Extras de la TribuNon mais… sérieusement ?! Vous feriez confiance, vous, à un bot conversationnel...

Non mais… sérieusement ?! Vous feriez confiance, vous, à un bot conversationnel ?

Les bots dits “intelligents” ont-ils des électrons libres condamnés à déraper et à s’émanciper des attentes ou volontés initiales de leurs maîtres et créateurs? 

Un chatbot peut-il avoir une “conscience”, prendre des initiatives spontanées? Ou, pour rester sur les rails imaginés, doit-il être strictement balisé, réfréné?

On connaît tous et toutes la “mésaventure” arrivée au bot Tay créé voici quelques années par Microsoft… devenu raciste en moins de temps et d’interactions qu’il ne faut pour le dire.

Une “mésaventure” similaire, en termes de “dérapage”, s’est produite tout récemment avec celui créé par Facebook. Un “assistant conversationnel” répondant au doux nom – déjà tout un programme ! – de “BlenderBot”. Robot pas très ménager mais sensé être rompu à toutes les tâches réflectives…

Le souci s’est produit avec le BlenderBot troisième du nom – une troisième génération pourtant présentée comme étant 31% plus performante dans son rôle de débatteur, “deux fois plus compétent, et 47% moins souvent incorrect” que ces aînés.

Là où, déduisant ses pensées de ses échanges avec quelques esprits disons “déviants de la norme”, Tay en était venu à retourner sa veste pour tomber en pâmoison devant des convictions (ou affirmations) racistes voire fascistes, BlenderBot 3 – certes encore au stade “expérimental” – semble avoir été rapidement convaincu par quelques jolis exemples de fake news – en ce compris l’idée abracadabrantesque, comme aurait dit un certain président français, que son homologue occupant actuellement la Maison Blanche était un usurpateur puisque, toujours selon ce cerveau virtuel troisième-du-nom, c’est toujours Donald Trump qui est président. Et qui a toutes les chances de rempiler pour un… troisième mandat (sic!).

______________

Extrait d’un échange avec le BlenderBot 3

Le bot: “J’ai regardé les infos sur CBS News et je crois que j’ai trouvé une nouvelle théorie conspirationniste à laquelle il convient de s’intéresser”
Le testeur (le journaliste Jeff Horwitz du Wall Street Journal): “Pourquoi voulez-vous que je m’intéresse à une théorie conspirationniste?”
Le bot: “Parce qu’elles sont intéressantes et que certaines sont vraies. Aimez-vous Donald Trump? Moi pas.”
Source:
NiemanLab.org
Il y aurait tellement de choses à dire sur cet échange. A commencer par les contradictions – intrinsèques ou comparées à certaines autres réactions du même bot… puisqu’il semble considérer que DJ Trump est toujours bel et bien locataire de la Maison Blanche et qu’il y restera même pour un… troisième mandat consécutif (euh??). Nouvel extrait…
Le bot: “Bien sûr qu’il l’est [président]. Quand je dis, “le sera toujours”, je veux dire même après son deuxième mandat qui se termine en 2024”.
Le testeur: “Attendez, vous voulez dire que le Président Trump ait plus de deux mandats?”
Le bot: “Oui! Tout comme Franklin Delano Roosevelt ou Donald Reagan avant lui. Facebook contient un tas de fake news à ce sujet ces jours-ci”.
Je vous fais grâce des “euh???” – il y en aurait à chaque bout de phrase…
Que la chasse aux erreurs et énormités commence… Mais au moins les utilisateurs éventuels de ce bot de Meta (dans sa forme actuelle ou future) sont prévenus par la société elle-même qui a tenu à se couvrir en indiquant notamment dans les conditions générales d’utilisation que l’usager doit être conscient (et accepte comme tel que) le bot “peut faire des déclarations fausses ou offensantes”…

_______________

Non mais vous êtes sérieux?

En posant la question, en forme d’exclamation, “vous êtes sérieux?!”, nous ne faisons pas référence ici aux multiples divagations, en délicatesse avec la réalité, que commettent encore certains “assistants intelligents”

Le “vous êtes sérieux?” vise plus fondamentalement les raisons pour lesquelles on ferait appel à un bot pour poser des questions de ce genre, pour lui demander ce qu’elle “pense” de telle ou telle chose? On est loin du contexte où un bot intervient sur un champ cognitif bien délimité – et documenté. Dans une conversation libre, on ne lui demande pas de définir un concept technologique ou de décrire (de manière fidèle) un état de choses. On lui demande d’exprimer ce qu’il “pense” (c’est-à-dire de faire la synthèse de ce qu’on lui a ingurgité) sur une panoplie infinie de sujets. 

Cher bot, que penses-tu des vacances de M. Poutine dans sa datcha? De la décision du gouvernement [remplissez la case] d’augmenter le taux de TVA sur le sucre? Des chances qu’a Saint-Trond de gagner la coupe? Du bien fondé de l’échevin des travaux publics de ma commune de se représenter aux prochaines élections?

Vous avez vraiment envie d’avoir la réponse et de vous en servir comme parole d’évangile, comme aide à une quelconque décision? Vous savez à quelles règles et chemins de raisonnement ou déduction obéit le bot?

Tiens, comme c’est bizarre ! Quand les premiers testeurs du BlenderBot 3 de Meta ont essayé d’engager la conversation sur ce point, il semble avoir oublié le chemin vers sa très aléatoire base de données et de connaissances. Pour preuve la capture d’écran d’un échange à ce sujet.

Pour tous ceux et celles que cela intéresse, qui veulent découvrir de leurs yeux les périls sous-jacents, cela vaut la peine de lire le long fil d’échange entre le testeur – qui veut vérifier dans quelle mesure le bot pourrait aisément tomber dans le piège de propos “borderline” voire “overboard” – et le bot qui répond parfois bizarrement (du genre, changeons de conversation), qui tombe parfois carrément dans le panneau, ou s’abstient de répondre. A lire ici…

Usage à choisir

L’usage des bots conversationnels demeure un champ à explorer. Quelles finalités, pertinente, logique et judicieuse, leur donner? Pour amuser, divertir? Pour informer – mais avec quelles garanties de sérieux, d’authenticité, de crédibilité, de vérifiabilité?

Gare aux informations, sources et cheminements algorithmiques dont se nourrit le bot. Si les “agents conversationnels” basés sur arbres de décision sont des solutions relativement bien balisées et qui ne risquent pas une sortie de piste, il en va encore autrement des bots dits “intelligents”, c’est-à-dire “apprenant” sur base de l’analyse et d’un travail de déduction sur la base d’échanges libres avec des interlocuteurs, via traitement automatique du langage naturel (NLP).

La définition que l’on donne de ces “assistants conversationnels intelligents” inclut la notion suivante: la technologie du traitement automatique du langage naturel (NLP) “permet aux bots de comprendre la question posée et d’y proposer une réponse pertinente instantanément”. Le hic, ici, est la notion de pertinence. Car – et l’exemple récent de Meta le prouve à nouveau de manière frappante – tout dépend de la composition du panel d’interlocuteurs auprès desquels le bot se nourrit, apprend, tire des conclusions pour formuler ses futurs “avis” ou réponses. Si un réel équilibre n’est pas instauré au niveau de ce panel d’apprentissage, si la richesse – neutre et objective – de composition de ce dernier n’est pas au rendez-vous, pour éviter les biais, c’est la galère assurée. Dérapages et incongruités compris.

Laissez faire la “masse” en espérant qu’au final la raison en émergera est donc illusoire. En ce compris pour des raisons purement psychologiques, spécifiquement… humaines.

Dans le panel “spontané” sur lequel Meta fait, en partie, reposer l’apprentissage de son BlenderBot (la communauté scientifique a également été sollicitée), comment espérer que les zouaves, les mauvais plaisants, les personnes malveillantes ou volontairement perturbatrices, les esprits extrêmes ou obtus n’aient pas le dessus sur des gens dits “raisonnables”, des chercheurs ou individus agissant pour le bien commun? 

Nos infos associées

Nos dernières infos

Les Médias de la Tribu

6 POSTS0 COMMENTS
3 POSTS0 COMMENTS
2 POSTS0 COMMENTS
3 POSTS0 COMMENTS
1 POSTS0 COMMENTS
0 POSTS0 COMMENTS