[Deep Learning] Je suis introllabe (j'ai le niveau bac)
19cmSur14cm
il y a 2 mois
Up
mohame1115
il y a 2 mois
DL ? Rien compris, commence déjà par t'exprimer en français
19cmSur14cm
il y a 2 mois
En bonne et due forme
restedignesinge
il y a 2 mois
DL ? Rien compris, commence déjà par t'exprimer en français
Ça veut dire deep learning le low
19cmSur14cm
il y a 2 mois
DL ? Rien compris, commence déjà par t'exprimer en français
T'es un low ou quoi ? Deep Learning (DL)
mohame1115
il y a 2 mois
Ça veut dire deep learning le low
Toujours pas français
[OwO]
il y a 2 mois
Quelle différence entre flow matching et diffusion?
mohame1115
il y a 2 mois
T'es un low ou quoi ? Deep Learning (DL)
Oui, donc pas français le low
19cmSur14cm
il y a 2 mois
Quelle différence entre flow matching et diffusion?
En gros, la diffusion repose sur un processus de bruit et de débruitage, tandis que flow matching implique l'apprentissage de transformations continues pour correspondre des distributions.
19cmSur14cm
il y a 2 mois
Oui, donc pas français le low
Mais t'es un comique toi. Bon, ca veut dire apprentissage profond
19cmSur14cm
il y a 2 mois
mohame1115
il y a 2 mois
Mais t'es un comique toi. Bon, ca veut dire apprentissage profond
Pourquoi employer des termes anglophones bordel, tu tes cru aux états-unis ? La prochaine fois parle français, ça évitera une perte de temps
gusfringale
il y a 2 mois
Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectif
Quelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?
Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.
19cmSur14cm
il y a 2 mois
Pourquoi employer des termes anglophones bordel, tu tes cru aux états-unis ? La prochaine fois parle français, ça évitera une perte de temps
T'es qui en fait? Que tu le veuilles ou non, le DL est le terme employé partout au monde. Arrête de faire ton molière
19cmSur14cm
il y a 2 mois
Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectifQuelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?
Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.
En quoi la batch normalization n'est qu'une utilisation des lois de probabilités ? En quoi c'est utile dans le deep learning (prends l'exemple de l'auto-encoder) ?
Classique:
ADAM optimise une seule fonction de perte, tandis que le multi-objectif implique plusieurs fonctions de perte simultanées, nécessitant des méthodes comme la combinaison pondérée ou l'optimisation par Pareto
La fonction de perte doit être différentiable (ou au moins dérivable) pour que les gradients puissent être calculés.
Un GCNN est plus adapté aux données 3D car il prend en compte la structure géométrique et spatiale des objets, contrairement au GNN qui est plus général et adapté aux graphes non structurés.
mohame1115
il y a 2 mois
T'es qui en fait? Que tu le veuilles ou non, le DL est le terme employé partout au monde. Arrête de faire ton molière
Déjà non, pas partout dans le monde, ensuite, quand tu t'adresses a des français tu parles français, point, tu as déjà vu des américains ou anglais mettre des termes français dans leurs phrases ? Après des centaines de voyage dans le monde, je vois ça qu'en france
19cmSur14cm
il y a 2 mois
Explique moi pourquoi ADAM n'est pas applicable au multi-objectif et explique moi l'algorithme de base du multi-objectifQuelle est la condition sine qua non de la fonction loss qui rend l'algorithme de descente de gradient possible ?
Explique moi pourquoi utiliser un GCNN à la place du GNN pour les modèles 3D.
En quoi la batch normalization n'est qu'une utilisation des lois de probabilités ? En quoi c'est utile dans le deep learning (prends l'exemple de l'auto-encoder) ?
La Batch Normalization utilise les lois de probabilités pour normaliser les activations des neurones en calculant la moyenne et l'écart-type sur un mini-lot de données, en appliquant des transformations basées sur ces statistiques.
gusfringale
il y a 2 mois
Question technique : avec Pytorch, je veux faire mon propre optimizer, mais je dois faire une opération barbare : contourner la règle de la chaine et prendre tous les poids du réseau en même temps. Comment stocker les gradients en une liste en 5 lignes de code ?
19cmSur14cm
il y a 2 mois
Déjà non, pas partout dans le monde, ensuite, quand tu t'adresses a des français tu parles français, point, tu as déjà vu des américains ou anglais mettre des termes français dans leurs phrases ? Après des centaines de voyage dans le monde, je vois ça qu'en france
Mec arrête de te ridiculiser. Deep Learning, point barre
19cmSur14cm
il y a 2 mois
Question technique : avec Pytorch, je veux faire mon propre optimizer, mais je dois faire une opération barbare : contourner la règle de la chaine et prendre tous les poids du réseau en même temps. Comment stocker les gradients en une liste en 5 lignes de code ?
Simple:
gradients = []
for param in model.parameters():
if param.grad is not None:
gradients.append(param.grad.view(-1))
gradients = torch.cat(gradients)
mohame1115
il y a 2 mois
Mec arrête de te ridiculiser. Deep Learning, point barre
Tu n'as aucun argument, cela confirme bien mes propos donc, après oui, si tu veux parler anglais a longueur de journée ok, chacun son délire.
gusfringale
il y a 2 mois
Classique:
ADAM optimise une seule fonction de perte, tandis que le multi-objectif implique plusieurs fonctions de perte simultanées, nécessitant des méthodes comme la combinaison pondérée ou l'optimisation par Pareto
Tu as pas répondu à ma question. Dans l'absolu tu peux utiliser ADAM pour le multi-objectif (faire la moyenne des loss), moi je veux que tu expliques techniquement pourquoi ça pose problème
En plus tu as pas donné l'algorithme classique.
Bonne réponse
Mauvaise réponse, ou très grossière, le GNN peut aussi stocker les données géométriques.
19cmSur14cm
il y a 2 mois
Tu n'as aucun argument, cela confirme bien mes propos donc, après oui, si tu veux parler anglais a longueur de journée ok, chacun son délire.
En quoi est-ce qu'utiliser DL decredibilise une personne?
gusfringale
il y a 2 mois
La Batch Normalization utilise les lois de probabilités pour normaliser les activations des neurones en calculant la moyenne et l'écart-type sur un mini-lot de données, en appliquant des transformations basées sur ces statistiques.
19cmSur14cm
il y a 2 mois
J'ai l'impression qu'il utilise chatgpt pour répondre
Ca sert à rien de faire ça (bien sur j'aurais pu le faire)
19cmSur14cm
il y a 2 mois
T'es au courant que le batch normalization ne se limite pas à utiliser la loi normale (moyenne, ecart-type) ? Tu connais le box-cox, le log, le decimal scaling, ...?
gusfringale
il y a 2 mois
T'es au courant que le batch normalization ne se limite pas à utiliser la loi normale (moyenne, ecart-type) ? Tu connais le box-cox, le log, le decimal scaling, ...?
Arrête de tergiverser et réponds à ma question le médiocre, j'ai pris l'exemple académique de la batch normalization, je veux que tu m'expliques en quoi elle applique les lois de probabilité, je veux donc que tu me donnes les équations et que tu m'expliques l'utilité pour un auto-encoder, que tu me parles des outliers, etc.
19cmSur14cm
il y a 2 mois
Arrête de tergiverser et réponds à ma question le médiocre, j'ai pris l'exemple académique de la batch normalization, je veux que tu m'expliques en quoi elle applique les lois de probabilité, je veux donc que tu me donnes les équations et que tu m'expliques l'utilité pour un auto-encoder, que tu me parles des outliers, etc.
![]()
Des ouf toi. Ecrire des équations sur JVC (déjà le latex n'est pas possible ici) et j'essaie de donner des reponses courte pour repondre aussi aux autres. C'est pas assez evident par exemple que qd tu utilises du z-score tu ajustes tes données à une loi normale ? Pq tu me parle des auto-encoder (algo non supervisé) pour la reduction de dimensionnalité. A moins que tu veuilles me dire que c'est pour eviter d'apprendre la fonction identité mais ca c'est evident
gusfringale
il y a 2 mois
Des ouf toi. Ecrire des équations sur JVC (déjà le latex n'est pas possible ici) et j'essaie de donner des reponses courte pour repondre aussi aux autres. C'est pas assez evident par exemple que qd tu utilises du z-score tu ajustes tes données à une loi normale ? Pq tu me parle des auto-encoder (algo non supervisé) pour la reduction de dimensionnalité. A moins que tu veuilles me dire que c'est pour eviter d'apprendre la fonction identité mais ca c'est evident
DonutSaintDenis
il y a 2 mois
Est-ce que tu apprends profondément ?
19cmSur14cm
il y a 2 mois
C'est pas possible. Mdr en fait j'ai compris t'es un troll. Je t'ai suffisamment expliqué precedemment que ce que tu racontes c'est de la merde.
gusfringale
il y a 2 mois
C'est quoi la réponse, jacobian descent ?
https://inria.hal.scienceence/inria-00389811v2/document
Tout le multi-objectif jusqu'à aujourd'hui est un dérivé de MBDA, meta-learning mis à part
19cmSur14cm
il y a 2 mois
Est-ce que tu apprends profondément ?
L'humain apprend profondement, oui
19cmSur14cm
il y a 2 mois