[Deep Learning] Je suis introllabe (j'ai le niveau bac)

OP
19

19cmSur14cm

il y a 2 mois

Allez l'elite. Testez ma connaissance sur le DL

OP
19

19cmSur14cm

il y a 2 mois

Up

M1

mohame1115

il y a 2 mois

DL ? Rien compris, commence déjà par t'exprimer en français

OP
19

19cmSur14cm

il y a 2 mois

En bonne et due forme

RE

restedignesinge

il y a 2 mois


DL ? Rien compris, commence déjà par t'exprimer en français

Ça veut dire deep learning le low

OP
19

19cmSur14cm

il y a 2 mois


DL ? Rien compris, commence déjà par t'exprimer en français

T'es un low ou quoi ? Deep Learning (DL)

M1

mohame1115

il y a 2 mois

Ça veut dire deep learning le low

Toujours pas français

[O

[OwO]

il y a 2 mois

Quelle différence entre flow matching et diffusion?

M1

mohame1115

il y a 2 mois

T'es un low ou quoi ? Deep Learning (DL)

Oui, donc pas français le low

OP
19

19cmSur14cm

il y a 2 mois


Quelle différence entre flow matching et diffusion?

En gros, la diffusion repose sur un processus de bruit et de débruitage, tandis que flow matching implique l'apprentissage de transformations continues pour correspondre des distributions.

OP
19

19cmSur14cm

il y a 2 mois

Oui, donc pas français le low

Mais t'es un comique toi. Bon, ca veut dire apprentissage profond

OP
19

19cmSur14cm

il y a 2 mois

Allez up
M1

mohame1115

il y a 2 mois

Mais t'es un comique toi. Bon, ca veut dire apprentissage profond

Pourquoi employer des termes anglophones bordel, tu tes cru aux états-unis ? La prochaine fois parle français, ça évitera une perte de temps

GU

gusfringale

il y a 2 mois

Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectif

Quelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?

Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.

OP
19

19cmSur14cm

il y a 2 mois

Pourquoi employer des termes anglophones bordel, tu tes cru aux états-unis ? La prochaine fois parle français, ça évitera une perte de temps

T'es qui en fait? Que tu le veuilles ou non, le DL est le terme employé partout au monde. Arrête de faire ton molière

OP
19

19cmSur14cm

il y a 2 mois


Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectif

Quelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?

Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.

En quoi la batch normalization n'est qu'une utilisation des lois de probabilités ? En quoi c'est utile dans le deep learning (prends l'exemple de l'auto-encoder) ?

Classique:

ADAM optimise une seule fonction de perte, tandis que le multi-objectif implique plusieurs fonctions de perte simultanées, nécessitant des méthodes comme la combinaison pondérée ou l'optimisation par Pareto

La fonction de perte doit être différentiable (ou au moins dérivable) pour que les gradients puissent être calculés.

Un GCNN est plus adapté aux données 3D car il prend en compte la structure géométrique et spatiale des objets, contrairement au GNN qui est plus général et adapté aux graphes non structurés.

M1

mohame1115

il y a 2 mois

T'es qui en fait? Que tu le veuilles ou non, le DL est le terme employé partout au monde. Arrête de faire ton molière

Déjà non, pas partout dans le monde, ensuite, quand tu t'adresses a des français tu parles français, point, tu as déjà vu des américains ou anglais mettre des termes français dans leurs phrases ? Après des centaines de voyage dans le monde, je vois ça qu'en france

OP
19

19cmSur14cm

il y a 2 mois


Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectif

Quelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?

Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.

En quoi la batch normalization n'est qu'une utilisation des lois de probabilités ? En quoi c'est utile dans le deep learning (prends l'exemple de l'auto-encoder) ?

La Batch Normalization utilise les lois de probabilités pour normaliser les activations des neurones en calculant la moyenne et l'écart-type sur un mini-lot de données, en appliquant des transformations basées sur ces statistiques.

GU

gusfringale

il y a 2 mois

Question technique : avec Pytorch, je veux faire mon propre optimizer, mais je dois faire une opération barbare : contourner la règle de la chaine et prendre tous les poids du réseau en même temps. Comment stocker les gradients en une liste en 5 lignes de code ?

OP
19

19cmSur14cm

il y a 2 mois

Déjà non, pas partout dans le monde, ensuite, quand tu t'adresses a des français tu parles français, point, tu as déjà vu des américains ou anglais mettre des termes français dans leurs phrases ? Après des centaines de voyage dans le monde, je vois ça qu'en france

Mec arrête de te ridiculiser. Deep Learning, point barre

OP
19

19cmSur14cm

il y a 2 mois


Question technique : avec Pytorch, je veux faire mon propre optimizer, mais je dois faire une opération barbare : contourner la règle de la chaine et prendre tous les poids du réseau en même temps. Comment stocker les gradients en une liste en 5 lignes de code ?

Simple:

gradients = []
for param in model.parameters():
if param.grad is not None:
gradients.append(param.grad.view(-1))
gradients = torch.cat(gradients)

M1

mohame1115

il y a 2 mois

Mec arrête de te ridiculiser. Deep Learning, point barre

Tu n'as aucun argument, cela confirme bien mes propos donc, après oui, si tu veux parler anglais a longueur de journée ok, chacun son délire.

GU

gusfringale

il y a 2 mois

Classique:

ADAM optimise une seule fonction de perte, tandis que le multi-objectif implique plusieurs fonctions de perte simultanées, nécessitant des méthodes comme la combinaison pondérée ou l'optimisation par Pareto

Tu as pas répondu à ma question. Dans l'absolu tu peux utiliser ADAM pour le multi-objectif (faire la moyenne des loss), moi je veux que tu expliques techniquement pourquoi ça pose problème

En plus tu as pas donné l'algorithme classique.

Bonne réponse

Mauvaise réponse, ou très grossière, le GNN peut aussi stocker les données géométriques.

GU

gusfringale

il y a 2 mois

Simple:

gradients = []
for param in model.parameters():
if param.grad is not None:
gradients.append(param.grad.view(-1))
gradients = torch.cat(gradients)

Absolument pas wtf https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

C'est ca-ta-stro-phi-que

OP
19

19cmSur14cm

il y a 2 mois

Tu n'as aucun argument, cela confirme bien mes propos donc, après oui, si tu veux parler anglais a longueur de journée ok, chacun son délire.

En quoi est-ce qu'utiliser DL decredibilise une personne?

OP
19

19cmSur14cm

il y a 2 mois

Absolument pas wtf https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

C'est ca-ta-stro-phi-que

Bah je recup tout en une liste

[O

[OwO]

il y a 2 mois

Absolument pas wtf https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

C'est ca-ta-stro-phi-que

J'ai l'impression qu'il utilise chatgpt pour répondre

OP
19

19cmSur14cm

il y a 2 mois

Absolument pas wtf https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

C'est ca-ta-stro-phi-que

T'aurais fait quoi ?

GU

gusfringale

il y a 2 mois

La Batch Normalization utilise les lois de probabilités pour normaliser les activations des neurones en calculant la moyenne et l'écart-type sur un mini-lot de données, en appliquant des transformations basées sur ces statistiques.

Mais c'est pas possible de répondre autant à côté, c'est pas une réponse mathématique mais une réponse technique ça. Et tu as pas répondu pour l'utilité concrète. J'attendais que tu parles de la loi normale https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

L'OP est un troll

GU

gusfringale

il y a 2 mois

Bah je recup tout en une liste

Tu es absolument pas dans l'optimizer, tu as lu la consigne ou quoi ? https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

OP
19

19cmSur14cm

il y a 2 mois

J'ai l'impression qu'il utilise chatgpt pour répondre

Ca sert à rien de faire ça (bien sur j'aurais pu le faire)

GU

gusfringale

il y a 2 mois

J'ai l'impression qu'il utilise chatgpt pour répondre

justement je fais exprès de citer des questions de l'état de l'art que ChatGPT ne peut pas savoir https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

ça explique pourquoi c'est catastrophique https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

GU

gusfringale

il y a 2 mois

Ca sert à rien de faire ça (bien sur j'aurais pu le faire)

Quel algorithme basique pour le multi-objectif, j'attends https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
19

19cmSur14cm

il y a 2 mois

Mais c'est pas possible de répondre autant à côté, c'est pas une réponse mathématique mais une réponse technique ça. Et tu as pas répondu pour l'utilité concrète. J'attendais que tu parles de la loi normale https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

L'OP est un troll

T'es au courant que le batch normalization ne se limite pas à utiliser la loi normale (moyenne, ecart-type) ? Tu connais le box-cox, le log, le decimal scaling, ...?

LA

LAstrologue

il y a 2 mois

Mais c'est pas possible de répondre autant à côté, c'est pas une réponse mathématique mais une réponse technique ça. Et tu as pas répondu pour l'utilité concrète. J'attendais que tu parles de la loi normale https://image.noelshack.com/fichiers/2018/29/6/1532128784-risitas33.png

L'OP est un troll

Ou bien c'est chatgpt qui répond

OP
19

19cmSur14cm

il y a 2 mois

Quel algorithme basique pour le multi-objectif, j'attends https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Les plus évidents: les algos genetiques comme PSO ou SWOM

GU

gusfringale

il y a 2 mois

T'es au courant que le batch normalization ne se limite pas à utiliser la loi normale (moyenne, ecart-type) ? Tu connais le box-cox, le log, le decimal scaling, ...?

Arrête de tergiverser et réponds à ma question le médiocre, j'ai pris l'exemple académique de la batch normalization, je veux que tu m'expliques en quoi elle applique les lois de probabilité, je veux donc que tu me donnes les équations et que tu m'expliques l'utilité pour un auto-encoder, que tu me parles des outliers, etc. https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
19

19cmSur14cm

il y a 2 mois

justement je fais exprès de citer des questions de l'état de l'art que ChatGPT ne peut pas savoir https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

ça explique pourquoi c'est catastrophique https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Je n'ai aucun interet à faire ca

GU

gusfringale

il y a 2 mois

Les plus évidents: les algos genetiques comme PSO ou SWOM

Mais putain qu'est ce que tu racontes AAAAYAAAAAAAA https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

je lui demande un algorithme pour remplacer la descente de gradient et ADAM dans les réseaux de neurone et il me sort PSO https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

GU

gusfringale

il y a 2 mois

Je n'ai aucun interet à faire ca

Quel algorithme classique pour le multi-objectif, j'attends https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
19

19cmSur14cm

il y a 2 mois

Arrête de tergiverser et réponds à ma question le médiocre, j'ai pris l'exemple académique de la batch normalization, je veux que tu m'expliques en quoi elle applique les lois de probabilité, je veux donc que tu me donnes les équations et que tu m'expliques l'utilité pour un auto-encoder, que tu me parles des outliers, etc. https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Des ouf toi. Ecrire des équations sur JVC (déjà le latex n'est pas possible ici) et j'essaie de donner des reponses courte pour repondre aussi aux autres. C'est pas assez evident par exemple que qd tu utilises du z-score tu ajustes tes données à une loi normale ? Pq tu me parle des auto-encoder (algo non supervisé) pour la reduction de dimensionnalité. A moins que tu veuilles me dire que c'est pour eviter d'apprendre la fonction identité mais ca c'est evident

[O

[OwO]

il y a 2 mois

Quel algorithme classique pour le multi-objectif, j'attends https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

C'est quoi la réponse, jacobian descent ?

OP
19

19cmSur14cm

il y a 2 mois

Mais putain qu'est ce que tu racontes AAAAYAAAAAAAA https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

je lui demande un algorithme pour remplacer la descente de gradient et ADAM dans les réseaux de neurone et il me sort PSO https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png https://image.noelshack.com/fichiers/2016/24/1466366209-risitas24.png

Et en quoi c'est faux ? En fait tu n'y connais absolument rien en ML

GU

gusfringale

il y a 2 mois

Des ouf toi. Ecrire des équations sur JVC (déjà le latex n'est pas possible ici) et j'essaie de donner des reponses courte pour repondre aussi aux autres. C'est pas assez evident par exemple que qd tu utilises du z-score tu ajustes tes données à une loi normale ? Pq tu me parle des auto-encoder (algo non supervisé) pour la reduction de dimensionnalité. A moins que tu veuilles me dire que c'est pour eviter d'apprendre la fonction identité mais ca c'est evident

les fonctions sont simplissimes pour celles qui les connait, faut juste les connaitre https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

C'est très scolaire ce que je te demande, quand on introduit la batch normalization on fait l'hypothèse forte de la loi normale (par exemple sur le dataset MNIST pour l'auto-encoder), explique moi cet exemple https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
19

19cmSur14cm

il y a 2 mois

Quel algorithme classique pour le multi-objectif, j'attends https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

Je t'ai deja repondu. En fait tu connais rien au ML. Ca se voit

DS

DonutSaintDenis

il y a 2 mois

Est-ce que tu apprends profondément ?

OP
19

19cmSur14cm

il y a 2 mois

les fonctions sont simplissimes pour celles qui les connait, faut juste les connaitre https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

C'est très scolaire ce que je te demande, quand on introduit la batch normalization on fait l'hypothèse forte de la loi normale (par exemple sur le dataset MNIST pour l'auto-encoder), explique moi cet exemple https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

C'est pas possible. Mdr en fait j'ai compris t'es un troll. Je t'ai suffisamment expliqué precedemment que ce que tu racontes c'est de la merde.

GU

gusfringale

il y a 2 mois

C'est quoi la réponse, jacobian descent ?

C'est MGDA https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

https://inria.hal.scienceence/inria-00389811v2/document

Tout le multi-objectif jusqu'à aujourd'hui est un dérivé de MBDA, meta-learning mis à part https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

L'op est littéralement une fraude https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

GU

gusfringale

il y a 2 mois

Je t'ai deja repondu. En fait tu connais rien au ML. Ca se voit

Non tu n'as pas répondu, je t'ai demandé par quoi on remplaçait ADAM et tu me sors un algorithme GENETIQUE, immonde fraude https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
19

19cmSur14cm

il y a 2 mois


Est-ce que tu apprends profondément ?

L'humain apprend profondement, oui