NVIDIA va REVOLUTIONNER la COMPRESSION des TEXTURES : Jusqu'à -96% de VRAM !
LeKheyNouveau3
il y a 3 mois
Nouvelle technologie Nvidia en 2025 on va compresser des textures.
Du jamais vu.
Tout ca pour jsutifier d'abberant prix.
Proutimus2
il y a 3 mois
LeKheyNouveau3
il y a 3 mois
Alors que c'est logiciel, et donc facilement intégrable aux precedentes versions.
Comportement Ultracapitalistique à vomir.
Ils savent qu'a terme ils priveront les gamers des pays pauvre de pouvoir jouer ?
Tu peux littéralement forcer le DLSS 4 sur des 3000 avec des filtres Reshade
Et pour les plus vieilles cartes y'a le FSR d'amd qui est justement fait pour ça
LeKheyNouveau3
il y a 3 mois
Ils poussent à la fainéantise des devs qui te pondent des jeux pas optimisés et qui usent et abusent de méthodes douteuses comme DLSS qui rends les mouvements de caméra dégueulasses et ajoute une tonne d'input lag
Nvidia detruisent le secteur...
LeKheyNouveau3
il y a 3 mois
Tu peux littéralement forcer le DLSS 4 sur des 3000 avec des filtres Reshade
Et pour les plus vieilles cartes y'a le FSR d'amd qui est justement fait pour ça
D'accord et pourquoi nvidia ne le fait pas ?
Une entreprise tierce doit s'en charger ?
Proutimus2
il y a 3 mois
LeKheyNouveau3
il y a 3 mois
D'accord et pourquoi nvidia ne le fait pas ?
Une entreprise tierce doit s'en charger ?
Car c'est une perte de temps et d'argent? De toute façon les vieilles cartes sont incapables de faire tourner les jeux qui ont besoin de DLSS
KermitDepressif
il y a 3 mois
Comme je l'ai dis page précédente tu ne loupes rien si tu n'as pas un écran 240Hz .
Pour un rendu correct, tu veux une base de 60 fps réels minimum pour du frame generation, sinon ton rendu est à chier, + d'artefact, de flou et input lag dégueu.
Donc pour FG X2 (RTX 4000 et au dessus) tu cherches un écran 120Hz
Pour le FG X4 = 240.
Et c'est encore à supposer que tu veuilles réellement 240FPS, ce qui est, on va bien l'admettre, useless à moins de faire du compétitif (et encore).
BanIstheWay11
il y a 3 mois
KermitDepressif
il y a 3 mois
Comme je l'ai dis page précédente tu ne loupes rien si tu n'as pas un écran 240Hz minimum.
Pour un rendu correct, tu veux une base de 60 fps réels minimum pour du frame generation, sinon ton rendu est à chier.
Donc pour FG X2 (RTX 4000 et au dessus) tu cherches un écran 120Hz
Pour le FG X4 = 240.Et c'est encore à supposer que tu veuilles réellement 240FPS, ce qui est, on va bien l'admettre, useless à moins de faire du compétitif (et encore).
ouai mais en compétitif ca te fait de la latence il me semble et puis les jeux compétitif ca tourne tout seul en général
KermitDepressif
il y a 3 mois
ouai mais en compétitif ca te fait de la latence il me semble et puis les jeux compétitif ca tourne tout seul en général
Exact aussi.
En MFGX4 sur 240 Hz, ton 240 fps aura une réactivité de 60fps réels. C'est simplement ton visu qui sera à 240.
Donc c'est effectivement totalement useless en pratique sur de l'ultra compétitif.
Donald_Kimball7
il y a 3 mois
Tu devrais plutôt prendre en exemple un jeu qui utilise bien le rtx plutôt que des portages foireux https://youtu.be/7NQqWlYZ2RA?si=1_KMRPVZ_1TTYYcf
Je pense que le savoir-faire en programmation se perds violemment, c'est tout..
Il y a 10 ans, il y avait des jeux aussi beau avec 4x moins de puissance GPU.
Proutimus2
il y a 3 mois
cametek
il y a 3 mois
Sauf que tes jeux ressemblent à une bouillie de pixels baveux
J'aime bien AMD mais le FSR c'est vraiment de la merde, c'est juste une issue de secours pour les kheys qui refusent de mettre à jour leur PC
D'ailleurs c'est finito les cartes sans DLSS https://youtu.be/mFWXpLLvt3g?si=j0ljEwDj7ahG_Jym&t=31
cametek
il y a 3 mois
Comme je l'ai dis page précédente tu ne loupes rien si tu n'as pas un écran 240Hz .
Pour un rendu correct, tu veux une base de 60 fps réels minimum pour du frame generation, sinon ton rendu est à chier, + d'artefact, de flou et input lag dégueu.
Donc pour FG X2 (RTX 4000 et au dessus) tu cherches un écran 120Hz
Pour le FG X4 = 240.Et c'est encore à supposer que tu veuilles réellement 240FPS, ce qui est, on va bien l'admettre, useless à moins de faire du compétitif (et encore).
aqualarmARN
il y a 3 mois
Certes, mais ils ne jouent pas le jeu.
Ils se devraient de proposer une alternative peu onéreuse et non se gaver comme des gros sacs.
Nvidia devrait être réquisitionner de toute urgence, ils detruisent la concurrence du secteur.
C'est à Intel et AMD (ou les constructeurs chinois) de les pousser à baisser les prix. Ils l'ont bien fait avec les RTX3000 quand les RX6000 étaient compétitives, ils ne sont pas la sécurité sociale.
Et à la différence d'Intel qui s'est reposé sur ses lauriers dans les années 2010 et ont repris le retour de karma depuis, Nvidia n'a pas l'air d'arrêter le train des nouvelles fonctions même si à des prix plus abusés parce que personne ne rivalise
Proutimus2
il y a 3 mois
Donald_Kimball7
il y a 3 mois
Je pense que le savoir-faire en programmation se perds violemment, c'est tout..
Il y a 10 ans, il y avait des jeux aussi beau avec 4x moins de puissance GPU.
Je suis bien d'accord, il suffit de comparer Monster hunter Wild et World, les jeux ont 7 ans d'écart et pourtant j'ai l'impression que World est celui qui vient de sortir
Le RTX et le DLSS sont des super technologies, mais ça pousse les dev à faire des jeux hideux en natif et à juste laisser nvidia s'occuper du reste
cametek
il y a 3 mois
Sauf que tes jeux ressemblent à une bouillie de pixels baveux
J'aime bien AMD mais le FSR c'est vraiment de la merde, c'est juste une issue de secours pour les kheys qui refusent de mettre à jour leur PC
D'ailleurs c'est finito les cartes sans DLSS https://youtu.be/mFWXpLLvt3g?si=j0ljEwDj7ahG_Jym&t=31
KermitDepressif
il y a 3 mois
Je sais que l'IA permet plein de choses mais pour ça y'aura jamais de miracle.
Tes périphériques et les signaux que tu envoies au CPU ne peuvent pas être captés par une image interstice de jonction IA qui ne fera jamais que A réel image générée B réel.
Cette image ne fait que calculer un point milieu entre les 2 images, elles n'a aucune prise sur le reste.
Si j'ai 30 images, j'aurai beau les multiplier visuellement X50 que j'aurais toujours seulement 30 points d'accroche réels calculés par mon CPU et les périphériques qui transmettent une information dessus
Mais ce qui fait peur c'est que comme le marketing fait beaucoup, on va finir par effectivement avoir des jeux qui focalisent 60 fps en MFG X4 soit 15fps réels avec un jeu absolument dégueulasse et injouable
Proutimus2
il y a 3 mois
HarryPottaire
il y a 3 mois
cametek
il y a 3 mois
Proutimus2
il y a 3 mois
cametek
il y a 3 mois
CommeUnDragon36
il y a 3 mois
Commeundragon36
il y a 3 mois
Okmagueule69
il y a 3 mois
cametek
il y a 3 mois
Bah la config est vieille mais les autres jeux fonctionnent à 60fps donc je vois pas l'intérêt d'upgrade, surtout que les nouvelles cartes se font tous scalped et sont maintenant au double du prix normal de vente
Il y a écrit 100% dans les stats mais elle ne chauffe pas autant que lorsqu'elle est à 100% sur les autres jeux, tu peux comparer la temperature avec le screen de cyberpunk
KermitDepressif
il y a 3 mois
Exactement le fonctionnement du Steam Deck clé
Perso j'aimerai vraiment qu'AMD se sorte les doigts car effectivement je serai le premier à passer à ça le jour où l'expérience sera meilleure
Il est pas impossible que je prenne un mini PC full APU, sans GPU dédié pour faire ce que tu décris
Donald_Kimball7
il y a 3 mois
Les larmes des AMDix
Vraiment le souci des cg AMD c'est la consommation en watts...
Bordel c'est chaudière + ultra bruyant du coup.. c'est vraiment dommage...
KermitDepressif
il y a 3 mois
Vraiment le souci des cg AMD c'est la consommation en watts...
Bordel c'est chaudière + ultra bruyant du coup.. c'est vraiment dommage...
Donald_Kimball7
il y a 3 mois
Oui clairement sur la parti APU ça fait au moins 10 ans qu'ils font de super produits.
J'ai encore mon Athlon 5350 de 2014 dans ma box de salon, fait largement le taf et ne chauffe pas du tout.
En fait je pense que pour leur partie CG, ils savent qu'ils sont toujours à la traine face à nVidia en terme de design, du coup ils bénéficient d'une haute qualité de fonderie, pour ensuite overclocker volontairement ensuite leur puces, pour que les perfs suivent.. alors la consommation et la chauffe s'envolent
Jejajajre
il y a 3 mois
Kalizo67
il y a 3 mois
Je pense que le savoir-faire en programmation se perds violemment, c'est tout..
Il y a 10 ans, il y avait des jeux aussi beau avec 4x moins de puissance GPU.
Le jeu était pas du tout aussi beau à sa sortie même si les effets de lumière avaient rien à envier à Cyberpunk (sans rtx)
DriftKing77
il y a 3 mois
GoddeurDanus
il y a 3 mois
Donald_Kimball7
il y a 3 mois
Meilleur que John Carmack ?
Compliqué en effet.. Michael Abrash ou Dierk Ohlerich très probablement ... il en reste si.. mais alors si peu...
ColvertAtomique
il y a 3 mois
Nvidia détruit notre passion en étant irrespectueux des gamers et en se GAVANT comme des gorets sur notre dos
Excuse qu'on ai les nerfs.
La "passion" : changer de carte graphique tous les ans pour afficher le meilleur score possible sur les benchmark
LeKheyNouveau3
il y a 3 mois