[AI DREAM] Notez ma machine sur 20
33 messages
Mise à jour: il y a 9 mois
Kheyoken
il y a 9 mois
Non, je train Mistral Large le dernier bébé, https://huggingface.co/mistralai/Mistral-Large-Instruct-2407
trpo
il y a 9 mois
Non, je train Mistral Large le dernier bébé, https://huggingface.co/mistralai/Mistral-Large-Instruct-2407
T'as besoin d'autant de vram pour train un QLoRA bordel
Kheyoken
il y a 9 mois
trpo a écrit :
T'as besoin d'autant de vram pour train un QLoRA bordel
gradient_accumulation_steps: 4 => Chaque GPU train le modele 4x (en gros)
micro_batch_size: 1 => Il le fait qu'une fois par batch (1x4)
num_epochs: 3 => Il va train 3x mon dataset complet
Et j'utilise optimizer: paged_adamw_8bit pour utiliser moins de ressource pourtant mais non.
Faut pas oublier que le modèle a up à 128k context, donc il est plus gros à charger aussi
Cuckline3
il y a 9 mois
Je comprends rien pelo
FionMignon
il y a 9 mois
wtf le batch size 1?
Et tu fine-tune plus précisément, pour quelle application?
Kheyoken
il y a 9 mois
EricMonAmour
il y a 9 mois
Tu gagne combien ?
Kheyoken
il y a 9 mois
FionMignon a écrit :
RP/ERP : rien compris.
Tu arrives à renforcer llama avec claude wtf? quelle application encore?
Roleplay, Erotic Roleplay
Pour le train sur les dataset de Claude => https://huggingface.co/Unndi95/Meta-Llama-3.1-8B-Claude
FionMignon
il y a 9 mois
Tout ça pour ça
FionMignon
il y a 9 mois
Tu fais aussi de l'entrainement de 0 ou que du fine tune?
AVFVEE
il y a 9 mois
FionMignon
il y a 9 mois
J'imagine bien, mais je me demandais si vous pouviez pas avoir besoin de faire une IA sur mesure pour certaines fonctions simples, plutôt que de tout demander à un modèle de fondation qui coute une blinde comme des singes.
Kheyoken
il y a 9 mois
Kheyoken
il y a 9 mois