[IA] C'est difficile à utiliser StableDiffusion ComfyUI FLux LORA etc ?

OP
GR

Grozouny

il y a 3 mois

Avec une 4060 16gb, ça suffit ?

C'est difficile pour devenir à peu près correct ? https://image.noelshack.com/fichiers/2017/18/1494048058-pppppppppppppppppppp.png

OP
GR

Grozouny

il y a 3 mois

up

AT

Athenax

il y a 3 mois

Très correct pour SDXL Et SD 1.5 et même avec Adetailer, tu auras un temps de génération très décent. Tu peux entraîner tes LoRas aussi. Pour FLUX, c'est le minimum par contre.

AK

AgentKen

il y a 3 mois

Up

RS

RequinShark

il y a 13 jours


Très correct pour SDXL Et SD 1.5 et même avec Adetailer, tu auras un temps de génération très décent. Tu peux entraîner tes LoRas aussi. Pour FLUX, c'est le minimum par contre.

Perso j'ai une 4060, 8go donc, et ça fonction très bien. J'utilise SwarmUI, le modèle est automatiquement réduit en fp8 et prends 6.5go de Vram et une vingtaine GO de ram.

De toutes manière le modèle de base est en fp16 et demande 24go de vram et +, donc il tournera forcément avec des optimisations sur 99% des cartes graphiques grand public.

RS

RequinShark

il y a 13 jours

En vérité seul la 5090 peut contenir le model entier (fp16) avec ses 32 go de Vram. Parce que au model il faut rajouter clip, T5 et d'autre petit truc + windows qui peut consommer jusqu'a 1go de vram, ce qui fait que avec une 4090 ça ne passe pas entièrement avec ses 24 go de Vram, a part peut être sur linux.

RS

RequinShark

il y a 13 jours

Une petite image pour le forum fait avec Flux
https://www.noelshack.com/2025-12-3-1742418031-2142-a-highly-realistic-photograph-taken-from-flux-dev-fp8-scaled-diffusion-model-69538292.jpg