les ETUDIANTS CODEURS/DEV sont dans une MERDE PAS POSSIBLE
spermedeblack
il y a 19 jours
Solare
il y a 19 jours
Il y a rien du tout d'en cours, le futur se tourne surtout vers des modèles multimodaux et/ou des modèles + légers. Il y a aussi le système des agents mais je vois pas comment ça pourrait être tenable avec ce que ça peut consommer
spermedeblack
il y a 19 jours
Il y a rien du tout d'en cours, le futur se tourne surtout vers des modèles multimodaux et/ou des modèles + légers. Il y a aussi le système des agents mais je vois pas comment ça pourrait être tenable avec ce que ça peut consommer
Neffa-Elle
il y a 19 jours
Solare a écrit :
Il y a rien du tout d'en cours, le futur se tourne surtout vers des modèles multimodaux et/ou des modèles + légers. Il y a aussi le système des agents mais je vois pas comment ça pourrait être tenable avec ce que ça peut consommer
Au56tic
il y a 19 jours
Il y a rien du tout d'en cours, le futur se tourne surtout vers des modèles multimodaux et/ou des modèles + légers. Il y a aussi le système des agents mais je vois pas comment ça pourrait être tenable avec ce que ça peut consommer
Hein ?
Rien du tout en cours : me cite 3 domaines de recherches actifs sur le sujet
Et bien sur que si, la fenêtre de contexte est un des problèmes majeur, il y a clairement des équipes dédiés a ce sujet dans les entreprises tels qu'OpenAI ou Anthropic
Pour le moment c'est très cher oui (pour les gros modèles), mais le prix est diviser par 4 chaque année, quelque chose comme ça.
PROSODIEmach35
il y a 19 jours
Ça ne va pas assez vite, j'attends avec impatience ma sexdoll avec ia implementée mais visiblement les informaticiens se touchent la nouille, vivement qu'ils soient remplacés par l'ia
Au56tic
il y a 19 jours
spermedeblack
il y a 19 jours
Solare
il y a 19 jours
Hein ?
Rien du tout en cours : me cite 3 domaines de recherches actifs sur le sujet
Et bien sur que si, la fenêtre de contexte est un des problèmes majeur, il y a clairement des équipes dédiés a ce sujet dans les entreprises tels qu'OpenAI ou AnthropicPour le moment c'est très cher oui (pour les gros modèles), mais le prix est diviser par 4 chaque année, quelque chose comme ça.
Je parlais du domaine code en général, les solutions de modèles specialisés en code sont juste une énorme blague. Prendre 1 milliard de tokens c'ets une chose, être capable de les utiliser correctement pour faire du code correct, c'est bien différent
Au56tic
il y a 19 jours
Je parlais du domaine code en général, les solutions de modèles specialisés en code sont juste une énorme blague. Prendre 1 milliard de tokens c'ets une chose, être capable de les utiliser correctement pour faire du code correct, c'est bien différent
On ne peut même pas tester le modèle frontière d'OpenAI, comment ose-tu dire ça ?
Évidemment que ce n'est pas encore suffisant mais je te rappel que ChatGPT c'est 2022 hein, il y a 3 ans
Imagine si on avait dit ça avec les ordinateurs en 1973
GPT-4 c'est 2023, les modèles de "raisonnement" 2024
Effectivement ça prend quelques années, et ça en prendra encore quelques unes
L'évolution technologique a été exponentielle depuis le début de l'humanité khey, mais aujourd'hui on peut le constater sans même regarder un graphique
Throwaway121212
il y a 19 jours