Un script des années 60 qui défiait le test de Turing

OP
JC

JeuneCrack

il y a 7 mois

Le chatobt ELIZA, imitation simpliste des années 60 d'un psychothérapeute, réussi à donner l'impression à ses interlocuteurs d'avoir affaire à un humain et ce en reformulant simplement la plupart des affirmations du « patient » en questions, et en les lui posant.
Aussi redoutable que basique il a par exemple "poussé" au suicide un homme au terme de six semaines de conversation avec au final nul autre que lui-même.
https://www.vanityfair.fr/article/intelligence-artificielle-belgique-un-homme-pousse-au-suicide-par-le-chatbot-eliza

BR

broye

il y a 7 mois

c'est pas gentil de faire ça

OP
JC

JeuneCrack

il y a 7 mois

"La faiblesse d'ELIZA, être incapable de vraiment répondre, se contentant de continuer à faire parler son interlocuteur, est en fait un atout. Certaines personnes ne souhaitent pas vraiment qu'on leur réponde, et ne remarquent pas si leur interlocuteur les comprend. Il suffit de leur donner l'impression qu'elles sont écoutées."
https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

OP
JC

JeuneCrack

il y a 7 mois


c'est pas gentil de faire ça

en quoi ce n'est pas gentil de faire ca ?

OP
JC

JeuneCrack

il y a 7 mois

"Après observation, les chercheurs ont découvert que les utilisateurs pensent inconsciemment que les questions d'ELIZA reflètent une implication émotionnelle et un certain intérêt pour les sujets évoqués, même s'ils sont conscients qu'ELIZA ne simule pas l'émotion."

BR

broye

il y a 7 mois

en quoi ce n'est pas gentil de faire ca ?

ben l'IA est méchante