Les experts en IA, vous pensez que le forum est censuré grâce à un algo?
34 messages
Mise à jour: il y a 5 mois
Lopax
il y a 5 mois
Oui!
gdfghteryergeh
il y a 5 mois
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de message
à mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non
ANTI-BOT-55
il y a 5 mois
Ce sui est certain c'est qu'il y a une censure par mots clés évidemment. Mais c'est plus aussi évident qu'avant de savoir quel mot est censuré.
Il me semble qu'avec une IA il est possible de déterminer la teneur émotionnelle contenue dans une message, par exemple la colère, la joie, l'excitation ect... es ce que ce serait un système du genre ?
Comment le cartographier ?
Es ce que c'est légal d'utiliser de tels dispositifs sans en avertir les utilisateurs ?
gdfghteryergeh
il y a 5 mois
gdfghteryergeh
il y a 5 mois
Ce sui est certain c'est qu'il y a une censure par mots clés évidemment. Mais c'est plus aussi évident qu'avant de savoir quel mot est censuré.Il me semble qu'avec une IA il est possible de déterminer la teneur émotionnelle contenue dans une message, par exemple la colère, la joie, l'excitation ect... es ce que ce serait un système du genre ?
Comment le cartographier ?
Es ce que c'est légal d'utiliser de tels dispositifs sans en avertir les utilisateurs ?
bah bien sur que c'est possible tu debarque khey ...
et oui le forum c'est pas une infrastructure publique ils font leur lois, si demain ils veulent bannir 90% des pseudo sur un coup de tete tu pourras rien faire
VittelFraiche
il y a 5 mois
ANTI-BOT-55 a écrit :
Par exemple faire des comptes, poster différents trucs et voir comment elle filtre ? Parce que ca n'a aucun sens, des posts inoffensifs sont supprimés pendant que d'autres restent.
Ce serait pas justement la preuve que ce n'est pas une IA mais juste des humains un peu blasés et trop mal payés pour leur travail ?
ANTI-BOT-55
il y a 5 mois
je pense que non ca demanderai trop de ressources de faire tourner un llm avec toute cette quantité de messageà mon avis ils ont une liste de tigger words ce qui met en avannt les topics à risque et la peut etre qu'il y a une ia qui analyse vite fait mais je pense qu'ensuite le modo à juste à cliquer sur oui ou non
Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.
Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?
VittelFraiche
il y a 5 mois
ANTI-BOT-55 a écrit :
Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.
Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?
Y'a aucun intérêt à entrainer une IA sur un échantillon aussi "particulier".
C'est justement le fait que ce soit un tout petit forum qui fait que ce n'est pas vraiment intéressant.
ANTI-BOT-55
il y a 5 mois
Ce serait pas justement la preuve que ce n'est pas une IA mais juste des humains un peu blasés et trop mal payés pour leur travail ?
Quand tu te fais supprimer un message tu peux le voir dans ton historique, il y a un rectangle qui est bleu ou violet. Le bleue c'est la suppression via glados et DDB et avec un message d'avertissement.
Mais énormément de posts sont supprimés en violet, sans notif, avec un délai qui fait qu'on ne s'en rend pas compte à moins de regarder. Parfois c'est clairement des messages qui ne sont pas hors charte mais ont une teneur subversive. Sur des sujet politiques souvent. Mais parfois c'est des message qui n'ont rien à voir.
J'ai un doute sur le fait sue des gens se feraient chier à ca non ? C'est pour ca que je soupçonne un algo.
Si c'est du manuel c'est juste zinzin vu la quantité de messages. Parfois on sent une intension dans les suppressions, comme si c'était un avis qui devait disparaître sans notification. Toujours avec un petit délaie qui fait que c'est assez discret.
gdfghteryergeh
il y a 5 mois
Es ce qu'un petit forum comme ici ne serait pas justement bien plus utile pour entraîner ce type d'IA que de l'utiliser sur des réseaux avec une population encore plus grande ? Si on compare aux autres réseaux sociaux c'est un petit échantillon beaucoup plus gérable.
Es ce que le non sens de certaines suppressions viendrait du fait que l'IA est encore en entraînement et commet des erreurs?
entrainer quoi ?
webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..
les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..
par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)
mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia
autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employés
ANTI-BOT-55
il y a 5 mois
Y'a aucun intérêt à entrainer une IA sur un échantillon aussi "particulier".
C'est justement le fait que ce soit un tout petit forum qui fait que ce n'est pas vraiment intéressant.
Sauf que si l'échantillon particulier se trouve être assez représentatif d'une catégorie que tu veux censurer. Bah ce que tu définis comme un défaut devient une qualité non ? Tu as un échantillon bien plus pur sur lequel entraîner un outil de censure non ?
Ou alors j'y connais rien en IA et je divague ?
gdfghteryergeh
il y a 5 mois
Sauf que si l'échantillon particulier se trouve être assez représentatif d'une catégorie que tu veux censurer. Bah ce que tu définis comme un défaut devient une qualité non ? Tu as un échantillon bien plus pur sur lequel entraîner un outil de censure non ?
Ou alors j'y connais rien en IA et je divague ?
ANTI-BOT-55
il y a 5 mois
entrainer quoi ?
webedia à pas les ressources intelectuelles pour entrainer une ia ...
il y a que les gafam qui peuvent se payer des ingés +++ pour coucurencer l'existant..les ia qui choisisent de censurer du contenuu aussi bien qu'un humain ca le fait déja et mieux que nous d'ailleurs ..
par contre ca coute tres cher à en ressources, si c'est juste analiser les propos que tiennent 2 utilisateur parfait tu peux faire ca avec ton propre ordi et une 4080 en local (bien que la 4080 coutera 1000e)
mais 1000 utilisateurs en simultané vous ne comprenez pas les ressources monumentale que ca demande, il faut forcement inventer des stratagème ultra basique comme une selection de mot clefs pour limiter le nombre de message à faire traiter à l'ia
autrement si tu demande à un llm de traiter tous les message 1 à 1 en une seule journée webedia à déja plus de quoi payer ses employés
Webedia est une entreprise de médias rien de plus. Ils gèrent la modération et le site mais le propriétaire de webedia est extrêmement riche et possède des fonds d'investissement assez gros et possède beaucoup de gros sites Français, des boites qui emploient des youtubeurs...
Sans parler de la collaboration quasi certaine avec les voisins de l'immeuble Webedia
Donc pourquoi pas ? Tu as un empire web, pourquoi pas aussi faire un outil de modération algorithmique que tu peux revendre ? Ou carrément (complo) collaborer avec un gouvernement pour créer un tel outil en se servant du forum comme échantillon ?
Mais tout ca c'est de la théorie. Je reviens à la question originale, avec des tests est il possible de détecter si la modé est l'oeuvre d'une IA ou non ?
Fankine
il y a 5 mois
C'est certain car sur un certain sujet, il suffit de s'en approcher un tant soit peu pour être insta permaban et derrière si on fait une réclamation c'est regardé par un humain et on est unban
gdfghteryergeh
il y a 5 mois
Webedia est une entreprise de médias rien de plus. Ils gèrent la modération et le site mais le propriétaire de webedia est extrêmement riche et possède des fonds d'investissement assez gros.
Sans parler de la collaboration quasi certaine avec les voisins de l'immeuble Webedia
Donc pourquoi pas ? Tu as un empire web, pourquoi pas aussi faire un outil de modération algorithmique que tu peux revendre ? Ou carrément (complo) collaborer avec un gouvernement pour créer un tel outil en se servant du forum comme échantillon ?
Mais tout ca c'est de la théorie. Je reviens à la question originale, avec des tests est il possible de détecter si la modé est l'oeuvre d'une IA ou non ?
Donc tu crois qu'ils vont puiser dans toutes leurs ressources internes juste pour censurer un forum d'adulte prépubère ?
fait le calcul toi meme,
GPT4 turbo (pas la plus cher donc) coute 0,3$ au 1000 token.
ce qui fait 0,3$ pour 700mots environ
rajoute à cela qu'il faut qu'il ai à chaque fois un contexte de la conversation en entier donc potentiellement on peut dire que rien que ce topic de une page dois faire plus de 10K token
donc rien que pour ce topic de meme pas 1page on en aurais pour 3$ si on demandais de faire une analyse poussée du contexte de la conversation à chque post
donc 3$ pour ton topic juste, en 1h il y en a potentiellment plus de 200 qui se crées rien que sur le 18-25 et il font pas tous qu'une page ...
il y a aussi tous les forums de jvc et les forums des autres plateformes de webedia
ANTI-BOT-55
il y a 5 mois
Donc tu crois qu'ils vont puiser dans toutes leurs ressources internes juste pour censurer un forum d'adulte prépubère ?
![]()
fait le calcul toi meme,
GPT4 turbo (pas la plus cher donc) coute 0,3$ au 1000 token.
ce qui fait 0,3$ pour 700mots environ
rajoute à cela qu'il faut qu'il ai à chaque fois un contexte de la conversation en entier donc potentiellement on peut dire que rien que ce topic de une page dois faire plus de 10K tokendonc rien que pour ce topic de meme pas 1page on en aurais pour 3$ si on demandais de faire une analyse poussée du contexte de la conversation à chque post
donc 3$ pour ton topic juste, en 1h il y en a potentiellment plus de 200 qui se crées rien que sur le 18-25 et il font pas tous qu'une page ...
il y a aussi tous les forums de jvc et les forums des autres plateformes de webedia
Je vois, merci c'est super intéressant. Mais avec ton principe j'ai l'impression qu'entrainer une IA avec un réseaux social ne serait aucunement rentable non ? Pourtant ils le font, des particuliers comme des grosses structures.
Es ce que développer un modèle de modération de ce genre ne serait pas extrêmement rentable car il permet de remplacer des humains, ne rate rien, es facilement modifiable ?
C'est un service que tu peux revendre très cher, c'est un outil qui peut intéresser des gens dans la défense.
Après hors de la théorie que l'IA es entrainé par le forum, je reviens à la question originelle. C'est possible de faire des tests rigoureux pour palper les paramètres de cette IA ? Je répète, pas si elle s'entraine ou non mais en quelques sorte quelles sont les prompts ?
Ce serait intéressant de voir les prompts
cobaltbleu
il y a 5 mois
C'est certain car sur un certain sujet, il suffit de s'en approcher un tant soit peu pour être insta permaban et derrière si on fait une réclamation c'est regardé par un humain et on est unban
Oui j'ai déjà remarqué. Il y a certains topics à glissade où le simple fait de participer sans rien dire de répréhensible te fait ban instantanément.
gdfghteryergeh
il y a 5 mois
Je vois, merci c'est super intéressant. Mais avec ton principe j'ai l'impression qu'entrainer une IA avec un réseaux social ne serait aucunement rentable non ? Pourtant ils le font, des particuliers comme des grosses structures.
Es ce que développer un modèle de modération de ce genre ne serait pas extrêmement rentable car il permet de remplacer des humains, ne rate rien, es facilement modifiable ?
C'est un service que tu peux revendre très cher, c'est un outil qui peut intéresser des gens dans la défense.Après hors de la théorie que l'IA es entrainé par le forum, je reviens à la question originelle. C'est possible de faire des tests rigoureux pour palper les paramètres de cette IA ? Je répète, pas si elle s'entraine ou non mais en quelques sorte quelles sont les prompts ?
Ce serait intéressant de voir les prompts
les ia sont déja entrainés khey ...
enrainer une ia c'est lui injecter des connaissances pour qu'elle ai un contexte ...
n'importe quel modèle opensource sait déja ce qui est hors charte suffit de donner les regles principale du forum en prompt et de lui dire"cite moi les messages qu'il faut censurer"
essaie avec chat gpt si tu veux tu verra qu'il le fait tres bien.
et pense bien que des gens plus intelligent que toi et moi planche sur la question depuis bien 10ans ... c'est pas nouveau le problème c'est le cout du token, tu peux automatiser cela sur de petites communauté mais pas le 18-25...
cobaltbleu
il y a 5 mois
Quand tu te fais supprimer un message tu peux le voir dans ton historique, il y a un rectangle qui est bleu ou violet. Le bleue c'est la suppression via glados et DDB et avec un message d'avertissement.
Mais énormément de posts sont supprimés en violet, sans notif, avec un délai qui fait qu'on ne s'en rend pas compte à moins de regarder. Parfois c'est clairement des messages qui ne sont pas hors charte mais ont une teneur subversive. Sur des sujet politiques souvent. Mais parfois c'est des message qui n'ont rien à voir.
J'ai un doute sur le fait sue des gens se feraient chier à ca non ? C'est pour ca que je soupçonne un algo.
Si c'est du manuel c'est juste zinzin vu la quantité de messages. Parfois on sent une intension dans les suppressions, comme si c'était un avis qui devait disparaître sans notification. Toujours avec un petit délaie qui fait que c'est assez discret.
J'avais jamais remarqué, khey. Et j'ai vu qu'aujourd'hui plusieurs de mes posts ont été supprimés en violet par action de la modération sans notification.
Matt
il y a 5 mois
Bah ouais y a des bots qui modèrent pas la peine d'être un expext en IA
Dès que tu posts un cul sur un gros topic d'un événement en live tu te prends souvent une sanction donc ça le prouve
Or les gens n'ont pas que ça à foutre de DDB un cul où y a 50 messages à la minute
ANTI-BOT-55
il y a 5 mois
les ia sont déja entrainés khey ...
enrainer une ia c'est lui injecter des connaissances pour qu'elle ai un contexte ...
n'importe quel modèle opensource sait déja ce qui est hors charte suffit de donner les regles principale du forum en prompt et de lui dire"cite moi les messages qu'il faut censurer"
essaie avec chat gpt si tu veux tu verra qu'il le fait tres bien.
Donc cet outil est parfaitement possible mais y'a une limitation sur la quantité de message que tu peux traiter. Merci beaucoup des infos.
Es ce qu'on a déjà entrainé des IA qui savent comprendre le second degré ? Le troll ? Les IA galèrent avec l'humour non ?
Pourquoi pas sur le 18-25 ? Si tu compare à pleins de petites communautés c'est largement pas la plus massive non ? T'as un exemple de plus petite communauté sur un réseau social FR ? Des petits forums ? Des discords ?
Gabriel84
il y a 5 mois
je ne pense pas que c'est des IA ultra sophistiqués, il suffit juste de faire une blackliste de mots et le gros du travail est fait
ANTI-BOT-55
il y a 5 mois
je ne pense pas que c'est des IA ultra sophistiqués, il suffit juste de faire une blackliste de mots et le gros du travail est fait
Oui comme l'ancien Glados, la je parlerais plus d'une censure qui comprend le contexte et se fait sans notification comme j'ai dis avant. Donc en gros un travail plutôt humain... mais y'a autant d'humains sur la question ? C'est pour ca que je pensais à une sorte de mise à jour de l'outil de censure dont le but n'est pas de faire respecter la charte mais de censurer certaines opinions ou sentiment/émotion.
Mais c'est en théorie
RoyalMorangis62
il y a 5 mois
tres probable
il serait debile de ne pas le faire du point de vue de webedia
ANTI-BOT-55
il y a 5 mois
J'avais jamais remarqué, khey. Et j'ai vu qu'aujourd'hui plusieurs de mes posts ont été supprimés en violet par action de la modération sans notification.
C'est la répétition de ces étranges suppressions violettes qui me font tiquer oui ! Le reste c'est RAS, la modération a toujours été nulle.
ANTI-BOT-55
il y a 5 mois
tres probable
il serait debile de ne pas le faire du point de vue de webedia
Et encore plus débile de pas le faire pour ceux qui gèrent les différents sites de la Holding Fimalac qui possède webedia et beaucoup de sites FR comme Allociné
ANTI-BOT-55
il y a 5 mois
Up
jvc_la_honte
il y a 5 mois
C'est leur taf donc je vois pas ce qu'il y a d'incroyable
Ils sont une dizaine à se relayer
JVC_la_honte
il y a 5 mois
C'est leur taf donc je vois pas ce qu'il y a d'incroyable
Ils sont une dizaine à se relayer
ANTI-BOT-55
il y a 5 mois
C'est leur taf donc je vois pas ce qu'il y a d'incroyable
Sauf que comme j'ai dis ca dépasse le délire de faire respecter la charte. Je ne parle pas des messages supprimés en bleu avec un mp de glados.
Je parle des suppressions en violet, sans motifs, de message qui ne contreviennent pas vraiment à la charte. C'est très fréquent, plus que les suppressions en bleu (pour moi), sachant que les admins sont moins nombreux que les modos je trouve ca étrange qu'ils semblent bien plus actifs que les modos.
ANTI-BOT-55
il y a 5 mois