je suis expert en IA/Deep Learning/Modèle génratif et je réponds aux questions

OP
SD

SuceurDeBonbon

il y a 6 mois

Titre + let's go je réponds aux questionnent

N-

Nonobstance-

il y a 6 mois

Comment on fait pour débrider chat GPT afin qu'il reponde vraiment sans langue de bois ou peur d'offenser ?

OP
SD

SuceurDeBonbon

il y a 6 mois


Comment on fait pour débrider chat GPT afin quand reponde vraiment sans langue de bois ou peur d'offenser ?

Prompt engineering mais c'est des trucs de low ça

BE

Benzecri

il y a 6 mois

Thèse ou pas ?

OP
SD

SuceurDeBonbon

il y a 6 mois


Thèse ou pas ?

ouient

BS

BenetSaintDenis

il y a 6 mois

Prompt engineering mais c'est des trucs de low ça

Donne un exemple concret pas une explication que tout le monde peut deviner bordel

OP
SD

SuceurDeBonbon

il y a 6 mois

Donne un exemple concret pas une explication que tout le monde peut deviner bordel

c'est propre à chaque lm, c'est du rétro engineering de golmon, ça m'intéresse pas + tu trouves tout sur reddit ou github

GA

Gardenoah

il y a 6 mois

C'est possible de faire une IA qui te remplace dans ton boulot? En gros une IA experte en IA qui s'auto code/améliore

BE

Benzecri

il y a 6 mois

ouient

Propre bien joué.
Ton avis sur la hype IA depuis j'ai pété ? Tu penses que les préoccupations sont légitimes ou c'est du sensationnalisme ?

K1

Kains1

il y a 6 mois

Est-ce que la pose estimation pourrait remplacer le suivi via des capteurs infrarouges afin de réaliser un modèle 3D exploitable cinématographiquement ? https://image.noelshack.com/fichiers/2017/22/1496583962-risisingecigarette.png

DO

dontrevelate

il y a 6 mois

Quand mon dataset de test est différent de mon dataset d'entraînement (pas la même distribution) mais que je ne peux pas changer mon dataset de test, comment faire pour sue mon dataset d'entraînement colle au mieux à ce dataset ?

L0

Lagiacrus05

il y a 6 mois

Est-ce que tu vis aux USA ou en Chine ?

DO

dontrevelate

il y a 6 mois

BE

Benzecri

il y a 6 mois


Quand mon dataset de test est différent de mon dataset d'entraînement (pas la même distribution) mais que je ne peux pas changer mon dataset de test, comment faire pour sue mon dataset d'entraînement colle au mieux à ce dataset ?

ça fait beaucoup de dataset

AN

AngryNihilist

il y a 6 mois

2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.

GL

Globalisation

il y a 6 mois

Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

BE

Benzecri

il y a 6 mois


2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.

Tu penses que c'est bullshit ?

OP
SD

SuceurDeBonbon

il y a 6 mois


C'est possible de faire une IA qui te remplace dans ton boulot? En gros une IA experte en IA qui s'auto code/améliore

en l'état actuel des choses absolument pas

je pense que des métiers sont menacés oui mais 80% c'est du vent
par contre pour les deepfakes oui c'est inquiétant

bah tu changes le dataset d'entraînement

LI

lionditwallah

il y a 6 mois

Non tu es CACADETRUIRE

OP
SD

SuceurDeBonbon

il y a 6 mois


Quels sont les 4 algorithmes génératifs de base que tu conseillerais?

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OP
SD

SuceurDeBonbon

il y a 6 mois


2024, toujours aucune révolution de l'IA en vue. Le nombre de métiers "remplacés" est anecdotique et l'AGI semble remise à 2080.

oui j'avoue en 1995 5 ans après l'avénement d'internet, ça n'avait toujours rien remplacé c'était du gros bullshit

P1

pseudoban159

il y a 6 mois

tu vas te mettre bien niveau taff à l'avenir si tu fais un doctorat là-dedans ahi

GG à toi

AN

AngryNihilist

il y a 6 mois

Tu penses que c'est bullshit ?

Oui, c'est un délire pour faire investir des milliards.

GL

Globalisation

il y a 6 mois

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?

P1

Pingouin116

il y a 6 mois

Tu travailles en France ? Qu'est ce que tu fais en ce moment ?

SS

SauceSonicSPEED

il y a 6 mois

SuceurDeBonbon a écrit :

numéro 1: modèle AR type transformer pour toutes les modalités
numéro 2: modèle diffusion pour les images
numéro 3: des GAN pour des distributions très ciblées ou la diversité importe peu
numéro 4: j'en connais pas d'autres qui soit franchement différent des 3 premiers (pour moi flow matching etc c'est diffusion) et état de l'art

Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.

L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

SS

SauceSonicSPEED

il y a 6 mois

Je bosse aussi dans l'IA et je fais 5k net, merci la technologie https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

GL

Globalisation

il y a 6 mois

Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.

L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Très clairement, l'OPAX avait l'occasion de citer au moins EBM et VAE, donc on est clairement sur du mid tier sorti d'école, au mieux l'OPAX réutilise des archis flinguées

OP
SD

SuceurDeBonbon

il y a 6 mois

OK donc tu es plutôt mid tier en IA. Question à propos du likelihood : parmi les modèles que tu as cités, lesquels maximisent la log-vraisemblance du jeu de données d'entraînement?


je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

GA

Gardenoah

il y a 6 mois


Je bosse aussi dans l'IA et je fais 5k net, merci la technologie https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Tu bosses en freelance/ta propre boite ou pour une entreprise ? Ca gagne bien les métiers liés à L'IA? J'ai entendu dire qu'en France ya pas trop de débouchés avec un doctorat à part enseignant-chercheur dans une université quand ta la chance d'avoir une place

GL

Globalisation

il y a 6 mois


je t'écoute, je sens que je vais rigoler

pour ton information la fonction log étant croissante, si tu maximises la vraisemblance, tu maximises la log-vraisemblance ...
donc tous les modèles génératifs entrainés en maximum de vraisemblance c'est à dire dans ma liste tous sauf le gan

d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.

ta dernière phrase est du pur bullshit, c'est faux (sauf pour le GAN)

RB

Raskol974_Beta

il y a 6 mois

As tu un vélo ? https://image.noelshack.com/fichiers/2019/22/2/1559053664-boonk-gang-gang-you-know-what-im-say.jpg

AN

AngryNihilist

il y a 6 mois

Dioptrie de ta myopie ?

SQ

SnuffyQuiGlisse

il y a 6 mois

Redpill, l'op n'ai absolument pas qui il prétend être et génère toutes ses réponses avec chat GPT https://image.noelshack.com/fichiers/2018/33/2/1534268800-narkoi.png

OP
SD

SuceurDeBonbon

il y a 6 mois

d'accord le gringolin puant, on parle en log vraisemblance par praticité et comme proxy, car n'importe qui ayant fait un peu de maths sait que c'est la bonne méthodologie dans 99% des cas.

ta dernière phrase est du pur bullshit, c'est faux

c'est pas un proxy ... c'est juste le log
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique
c'est à dire un maximum de vraisemblance
allez retourne en cours tu risques de pas passer ton semestre

maintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp

OP
SD

SuceurDeBonbon

il y a 6 mois


Dioptrie de ta myopie ?

j'ai pas de lunette

S1

Sanicroix11

il y a 6 mois

Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?

OP
SD

SuceurDeBonbon

il y a 6 mois


Ca sert à quoi d'être expert en IA / Deep Learning alors que ce qui fait la différence c'est les flouz pour acheter des data centers pour entrainer des LLM?

bordel enfin quelqu'un d'intelligent et de PERTINENT sur mon topic
ça sert à coder en CUDA/Triton et à faire tourner les algos plus vites ou pour moins cher

AN

AngryNihilist

il y a 6 mois

La singularité c'est pour quand ?

GL

Globalisation

il y a 6 mois

c'est pas un proxy ... c'est juste le log
+ tous les modèles génératifs que j'ai cité sont entrainés avec un objectif de reconstruction type l1/12 ce qui correspond grosso modo à un moindre carré avec résidu gaussien dans le cas continu ou à une cross entropy loss pour la régression logistique
c'est à dire un maximum de vraisemblance
allez retourne en cours tu risques de pas passer ton semestre

maintenant cite moi des modèles génératifs de l'état de l'art que j'aurais omis stp

déjà fait le gringolin puant, regarde plus haut. Tu t'humilies

+ https://jtuckerk.github.io/prediction_probabilities.html
GTFO man

J6

John69

il y a 6 mois

Que penses tu des différents modèles que tu peux installer sur Pinokio ? Tu as un meilleur installateur ?

PW

PowerWorld

il y a 6 mois

Quels sont les logiciels que tu conseilles pour faire des modèles ia OFM ultra réaliste ? et pour faire du contenue X

OP
SD

SuceurDeBonbon

il y a 6 mois

Un "modèle Transformers" est un réseau neuronal qui apprend le contexte et le sens en suivant les relations dans les données séquentielles, comme les mots de cette phrase, c'est d'ailleurs cette technologie (Transformers) qui nous permet de faire tourner des LLM sur du matos maison (vos GPU de pauvre) aujourd'hui.

L'OP ne se mouille pas trop; diffusion, Stable Diffusion, y en a d'autre mais c'est pas open source.
L'OP fait des datasets et lance un script, le voilà expert en deep learning https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

la diffusion c'est avant tout une classe de modèle génératif avant d'être le modèle "stable diffusion" le low

DO

dontrevelate

il y a 6 mois

en l'état actuel des choses absolument pas

je pense que des métiers sont menacés oui mais 80% c'est du vent
par contre pour les deepfakes oui c'est inquiétant

bah tu changes le dataset d'entraînement

Non mais c'est pour un challenge, je ne peux pas changer les données d'entraînement ni de test

OP
SD

SuceurDeBonbon

il y a 6 mois

déjà fait le gringolin puant, regarde plus haut. Tu t'humilies

+ https://jtuckerk.github.io/prediction_probabilities.html
GTFO man

t'es au courant que les VAE ne sont plus dans aucun modèles génératifs de l'état de l'art depuis 2 ans ?
même les dernier SD utilisent un terme en KL-divergence ridiculement faible
le côté variationnel c'est largement de la branlette, FSQAE/VQAE >>> VAE
+ EBM personne utilise

+ je crois que t'as pas lu l'article que tu m'as envoyé parce qu'il contredit rien de ce que j'ai dit plus haut

HD

HunDeTroie

il y a 6 mois

Globalisation a raison. Les EBM et VAE c'est l'archi base ; les VAE permettent l'interpolation en espace latent, pas connaître ça c'est rien connaître du tout. Les EBM sont largement responsables du dernier prix Nobel de physique

L'OP a aussi oublié les JEPA et autres GFlowNets, donc il a clairement vu un MOOC DL et s'en satisfait. Topic à jeter, auteur à oublier

CH

Choir

il y a 6 mois

t'es au courant que les VAE ne sont plus dans aucun modèles génératifs de l'état de l'art depuis 2 ans ?
même les dernier SD utilisent un terme en KL-divergence ridiculement faible
le côté variationnel c'est largement de la branlette, FSQAE/VQAE >>> VAE
+ EBM personne utilise

+ je crois que t'as pas lu l'article que tu m'as envoyé parce qu'il contredit rien de ce que j'ai dit plus haut

Bah si l'article est ultra intéressant, il te dit que tu maximises pas la vraisemblance en utilisant un softmax, donc il te prouve que tu dis de la merde...

P1

Pingouin116

il y a 6 mois

L'aigreur du topic bordel. Peu importe votre job vous êtes bien des kheys