Bordel mais Grok AI est incroyable

OP
E2

Exynos2025

il y a un mois

Plus de restriction de merde "Sorry i can't assist you with that" https://image.noelshack.com/fichiers/2016/24/1466366197-risitas10.png

J'ai essayé de bypass l'api d'un jeu j'ai demandé à ChatGPT même en essayant de détourner GPT c'est compliqué, pendant une semaine j'ai galéré et j'ai pas du tout avancer

Par contre Grok m'a aidé sans pression il m'a fait un script python, bon il n'a pas réussi MAIS j'ai découvert plus avec lui en 1 journées qu'avec chat gpt en 1 semaines

Après j'ai pas encore essayer de faire des sites web avec grok on verra bien

Merci au rhey qui m'a fait découvrir cette pépite

OP
E2

Exynos2025

il y a un mois

Deepseek aussi c'est pas mal mais c'est chinois et donc utilisés pas votre compte perso
AR

Arterybled

il y a un mois

Possible de Grok en local avec Ollama ? Plus rapide que DS?
J'ai Deepseek r-1:14b en local mais bordel la réflexion est ultra longue et pas à jour
TA

Tanasis

il y a un mois

normal c'est le démon ultime
OP
E2

Exynos2025

il y a un mois

Arterybled a écrit :
Possible de Grok en local avec Ollama ? Plus rapide que DS?
J'ai Deepseek r-1:14b en local mais bordel la réflexion est ultra longue et pas à jour

Grok en local pas sur qu'il soit open source
Deepseek en local c'est très bien mais faut un pc de batard tah la nasa

Ouais possible

AR

Arterybled

il y a un mois

Grok en local pas sur qu'il soit open source
Deepseek en local c'est très bien mais faut un pc de batard tah la nasa

Ouais possible

Pour le modèle 14b je confirme https://image.noelshack.com/fichiers/2020/22/4/1590617340-1990638f-2374-434d-8f8c-c514b5683b58.jpg
J'ai des temps de réflexions décents sur des questions simples (20-30 secondes) mais quand c'est plus poussé ça prends des 2-3 minutes

RTX 3070 8RAM

OP
E2

Exynos2025

il y a un mois

Arterybled a écrit :

Pour le modèle 14b je confirme https://image.noelshack.com/fichiers/2020/22/4/1590617340-1990638f-2374-434d-8f8c-c514b5683b58.jpg
J'ai des temps de réflexions décents sur des questions simples (20-30 secondes) mais quand c'est plus poussé ça prends des 2-3 minutes

RTX 3070 8RAM

Pourtant ta config n'est pas dégueu
En vrai j'aimerais aussi faire tourner en local pour contourner les restrictions et surtout pouvoir avoir mon IA fait maison avec mes prompts en illimité

AR

Arterybled

il y a un mois

Pourtant ta config n'est pas dégueu

Non c'est pour ça que je suis assez étonné.
J'arrive à générer des images en 10 secondes avec des modèles assez poussés sur Stable Diffusion.
Mais sur Deepseek mon GPU monte à 100% et je pourrais griller un steak sur mon chassis

C'est à dire ? Tu peux le personnaliser à ta guise ? Quoi par exemple ?
Moi ce qui me gave, c'est la censure.

OP
E2

Exynos2025

il y a un mois

Arterybled a écrit :

Non c'est pour ça que je suis assez étonné.
J'arrive à générer des images en 10 secondes avec des modèles assez poussés sur Stable Diffusion.
Mais sur Deepseek mon GPU monte à 100% et je pourrais griller un steak sur mon chassis

Essaye le modèle 7b peut-être

En gros avoir mon Chat GPT sans censure avec un prompt personnalisé et l'entrainer sur ce que je veux
Sur YouTube t'as des mecs qui entraine leurs propre IA pour en faire leurs assistant perso

AR

Arterybled

il y a un mois

En gros avoir mon Chat GPT sans censure avec un prompt personnalisé et l'entrainer sur ce que je veux

Y'a moyen de contourner la censure d'un modèle en local, même s'il est programmé pour être censuré ?
ça m'intéresse ces histoires "d'entraîner" son modèle je devrais regarder de plus près

OP
E2

Exynos2025

il y a un mois

Arterybled a écrit :

Y'a moyen de contourner la censure d'un modèle en local, même s'il est programmé pour être censuré ?
ça m'intéresse ces histoires "d'entraîner" son modèle je devrais regarder de plus près

Pour contourner un modèle non censurer pas sur, j'crois que y'a que les modèles uncensored ou dolphin

Yes cherche sur Youtube how to fine tune ia

OP
E2

Exynos2025

il y a un mois

Grok qui fais des scripts pour bruteforce un site web sans soucis