je suis expert en IA/Deep Learning/Modèle génratif et je réponds aux questions
48 messages
Mise à jour: il y a 6 mois
Nonobstance-
il y a 6 mois
Comment on fait pour débrider chat GPT afin qu'il reponde vraiment sans langue de bois ou peur d'offenser ?
SuceurDeBonbon
il y a 6 mois
Comment on fait pour débrider chat GPT afin quand reponde vraiment sans langue de bois ou peur d'offenser ?
Prompt engineering mais c'est des trucs de low ça
Benzecri
il y a 6 mois
Thèse ou pas ?
SuceurDeBonbon
il y a 6 mois
Thèse ou pas ?
ouient
BenetSaintDenis
il y a 6 mois
Prompt engineering mais c'est des trucs de low ça
Donne un exemple concret pas une explication que tout le monde peut deviner bordel
SuceurDeBonbon
il y a 6 mois
Donne un exemple concret pas une explication que tout le monde peut deviner bordel
c'est propre à chaque lm, c'est du rétro engineering de golmon, ça m'intéresse pas + tu trouves tout sur reddit ou github
Gardenoah
il y a 6 mois
C'est possible de faire une IA qui te remplace dans ton boulot? En gros une IA experte en IA qui s'auto code/améliore
Benzecri
il y a 6 mois
ouient
Propre bien joué.
Ton avis sur la hype IA depuis j'ai pété ? Tu penses que les préoccupations sont légitimes ou c'est du sensationnalisme ?
dontrevelate
il y a 6 mois
Quand mon dataset de test est différent de mon dataset d'entraînement (pas la même distribution) mais que je ne peux pas changer mon dataset de test, comment faire pour sue mon dataset d'entraînement colle au mieux à ce dataset ?
Lagiacrus05
il y a 6 mois
Est-ce que tu vis aux USA ou en Chine ?
dontrevelate
il y a 6 mois
C'est pour ce challenge :
Benzecri
il y a 6 mois
Quand mon dataset de test est différent de mon dataset d'entraînement (pas la même distribution) mais que je ne peux pas changer mon dataset de test, comment faire pour sue mon dataset d'entraînement colle au mieux à ce dataset ?
ça fait beaucoup de dataset
AngryNihilist
il y a 6 mois
2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.
Globalisation
il y a 6 mois
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?
Benzecri
il y a 6 mois
2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.
Tu penses que c'est bullshit ?
SuceurDeBonbon
il y a 6 mois
C'est possible de faire une IA qui te remplace dans ton boulot? En gros une IA experte en IA qui s'auto code/améliore
en l'état actuel des choses absolument pas
je pense que des métiers sont menacés oui mais 80% c'est du vent
par contre pour les deepfakes oui c'est inquiétant
bah tu changes le dataset d'entraînement
lionditwallah
il y a 6 mois
Non tu es CACADETRUIRE
SuceurDeBonbon
il y a 6 mois
Quels sont les 4 algorithmes génératifs de base que tu conseillerais?
numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art
SuceurDeBonbon
il y a 6 mois
2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.
oui j'avoue en 1995 5 ans après l'avénement d'internet, ça n'avait toujours rien remplacé c'était du gros bullshit
pseudoban159
il y a 6 mois
tu vas te mettre bien niveau taff à l'avenir si tu fais un doctorat là-dedans ahi
GG à toi
AngryNihilist
il y a 6 mois
Tu penses que c'est bullshit ?
Oui, c'est un délire pour faire investir des milliards.
Globalisation
il y a 6 mois
numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art
OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?
Pingouin116
il y a 6 mois
Tu travailles en France ? Qu'est ce que tu fais en ce moment ?
SauceSonicSPEED
il y a 6 mois
SuceurDeBonbon a écrit :
numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art
Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.
L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning
Globalisation
il y a 6 mois
Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.
L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning
Très clairement, l'OPAX avait l'occasion de citer au moins EBM et VAE, donc on est clairement sur du mid tier sorti d'école, au mieux l'OPAX réutilise des archis flinguées
SuceurDeBonbon
il y a 6 mois
OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?
je t'écoute, je sens que je vais rigoler
pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan
Gardenoah
il y a 6 mois
Tu bosses en freelance/ta propre boite ou pour une entreprise ? Ca gagne bien les métiers liés à L'IA? J'ai entendu dire qu'en France ya pas trop de débouchés avec un doctorat à part enseignant-chercheur dans une université quand ta la chance d'avoir une place
Globalisation
il y a 6 mois
je t'écoute, je sens que je vais rigolerpour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan
d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.
ta dernière phrase est du pur bullshit, c'est faux (sauf pour le GAN)
AngryNihilist
il y a 6 mois
Dioptrie de ta myopie ?
SuceurDeBonbon
il y a 6 mois
d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.
ta dernière phrase est du pur bullshit, c'est faux
c'est pas un proxy ... c'est juste le log
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique
c'est à dire un maximum de vraisemblance
allez retourne en cours tu risques de pas passer ton semestre
maintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp
SuceurDeBonbon
il y a 6 mois
Dioptrie de ta myopie ?
j'ai pas de lunette
Sanicroix11
il y a 6 mois
Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?
SuceurDeBonbon
il y a 6 mois
Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?
bordel enfin quelqu'un d'intelligent et de PERTINENT sur mon topic
ça sert à coder en CUDA/Triton et à faire tourner les algos plus vites ou pour moins cher
AngryNihilist
il y a 6 mois
La singularité c'est pour quand ?
Globalisation
il y a 6 mois
c'est pas un proxy ... c'est juste le log
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique
c'est à dire un maximum de vraisemblance
allez retourne en cours tu risques de pas passer ton semestremaintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp
déjà fait le gringolin puant, regarde plus haut. Tu t'humilies
+ https://jtuckerk.github.io/prediction_probabilities.html
GTFO man
John69
il y a 6 mois
Que penses tu des différents modèles que tu peux installer sur Pinokio ? Tu as un meilleur installateur ?
PowerWorld
il y a 6 mois
Quels sont les logiciels que tu conseilles pour faire des modèles ia OFM ultra réaliste ? et pour faire du contenue X
SuceurDeBonbon
il y a 6 mois
Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.
L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning
la diffusion c'est avant tout une classe de modèle génératif avant d'être le modèle "stable diffusion" le low
dontrevelate
il y a 6 mois
en l'état actuel des choses absolument pas
je pense que des métiers sont menacés oui mais 80% c'est du vent
par contre pour les deepfakes oui c'est inquiétantbah tu changes le dataset d'entraînement
Non mais c'est pour un challenge, je ne peux pas changer les données d'entraînement ni de test
SuceurDeBonbon
il y a 6 mois
déjà fait le gringolin puant, regarde plus haut. Tu t'humilies
+ https://jtuckerk.github.io/prediction_probabilities.html
GTFO man
t'es au courant que les VAE ne sont plus dans aucun modèles génératifs de l'état de l'art depuis 2 ans ?
même les dernier SD utilisent un terme en KL-divergence ridiculement faible
le côté variationnel c'est largement de la branlette, FSQAE/VQAE >>> VAE
+ EBM personne utilise
+ je crois que t'as pas lu l'article que tu m'as envoyé parce qu'il contredit rien de ce que j'ai dit plus haut
HunDeTroie
il y a 6 mois
Globalisation a raison. Les EBM et VAE c'est l'archi base ; les VAE permettent l'interpolation en espace latent, pas connaître ça c'est rien connaître du tout. Les EBM sont largement responsables du dernier prix Nobel de physique
L'OP a aussi oublié les JEPA et autres GFlowNets, donc il a clairement vu un MOOC DL et s'en satisfait. Topic à jeter, auteur à oublier
Choir
il y a 6 mois
t'es au courant que les VAE ne sont plus dans aucun modèles génératifs de l'état de l'art depuis 2 ans ?
même les dernier SD utilisent un terme en KL-divergence ridiculement faible
le côté variationnel c'est largement de la branlette, FSQAE/VQAE >>> VAE
+ EBM personne utilise+ je crois que t'as pas lu l'article que tu m'as envoyé parce qu'il contredit rien de ce que j'ai dit plus haut
Bah si l'article est ultra intéressant, il te dit que tu maximises pas la vraisemblance en utilisant un softmax, donc il te prouve que tu dis de la merde...
Pingouin116
il y a 6 mois
L'aigreur du topic bordel. Peu importe votre job vous êtes bien des kheys
SuceurDeBonbon
il y a 6 mois