Para

Team | Admin
Team | Content
und da haben wir dann auch die neuen 5000er rtx gpus von nvidia,
qQ0VvcS.jpeg
bei uns wird es dann 2329€ für die 5090 sein, 1169€ für die 5080, 879€ für die 5070ti und 649€ für die 5070.

hZKEKwn.jpeg

DLSS Multi Frame Generation generates up to three additional frames per traditionally rendered frame, working in unison with the complete suite of DLSS technologies to multiply frame rates by up to 8X over traditional brute-force rendering. This massive performance improvement on GeForce RTX 5090 graphics cards unlocks stunning 4K 240 FPS fully ray-traced gaming.
DLSS 4 also introduces the biggest upgrade to its AI models since the release of DLSS 2.0 in 2020.

DLSS Ray Reconstruction, DLSS Super Resolution, and DLAA will now be powered by the graphics industry's first real-time application of 'transformers', the same advanced architecture powering frontier AI models like ChatGPT, Flux, and Gemini. DLSS transformer models improve image quality with improved temporal stability, less ghosting, and higher detail in motion.
75 DLSS games and apps featuring Frame Generation can be upgraded to Multi Frame Generation on GeForce RTX 50 Series GPUs.

For those same games, Frame Generation gets an upgrade for GeForce RTX 50 Series and GeForce 40 Series GPUs, boosting performance while reducing VRAM usage.

And on all GeForce RTX GPUs, DLSS games with Ray Reconstruction, Super Resolution, and DLAA can be upgraded to the new DLSS transformer model.
For many games that haven't updated yet to the latest DLSS models and features, NVIDIA app will enable support through a new DLSS Override feature. Alongside the launch of our GeForce RTX 50 Series GPUs, after installation of a new GeForce Game Ready Driver and the latest NVIDIA app update, the following DLSS override options will be available in the Graphics > Program Settings screen, under "Driver Settings" for each supported title.

nvidia-dlss-4-feature-chart-breakdown.jpg


bei 0:11 gibt es neues material zu doom: the dark ages, welches wie indy am pc mit path-tracing daherkommt.

mal schauen was die neutralen techseiten/youtuber so in den kommenden wochen über die karten zu berichten haben.
 
Zuletzt bearbeitet:

Cannibalpinhead

RETRO CRYPTKEEPER
mal schauen was die neutralen techseiten/youtuber so in den kommenden wochen über die karten zu berichten haben.

Hm... hab jetzt auch mal schnell über ein paar Techseiten gelesen... überall gehts nur um AI, DLSS, Frame Generation und den ganzen anderen Kram um Leistung aufzublasen.

Mich schreckt das Ganze so ziemlich ab... auch wenn die Lobgesänge für den Kram immer lauter und glorreicher werden... ich bleib da weiter skeptisch. Für mich zählt weiterhin erstmal nur die rohe Leistung. Alles andere bleibt für mich nice to have wenn die Leistung knapp wird... aber nichts was ich immer nutzen möchte.

Am VRAM wird aber wieder gegeizt... wer kauft sich denn bei einer neuen Generation ne Karte mit 12 GB? Auch die 16 finde ich da fast schon etwas knapp. Nur mal zum Vergleich: Meine olle RX 6800 hat jetzt schon 16GB. Und an Titeln wie Indiana Jones merk man ja wohin die Reise auch da geht... zu mehr VRAM.
Ich denke da kommen dann in Zukunft noch Modelle mit mehr Speicher... mit einem satten Aufpreis.

Preislich ist das Ganze natürlich wieder völlig drüber... knapp 2,5k für eine Grafikkarte... die haben echt den Knall nicht mehr gehört. Bemerkenswert dass die kleien Modelle einigermaßen im Rahmen bleiben (wobei sich auch da erstmal das Preis/Leistungs Verhältnis zeigen muss). Aber da gibt es ja auch Konkurrenz. Darüber wird jetzt ohne Zurückhaltung in die Tasche gegriffen. Und zweifelsfrei wird das gezahlt werden... wie soll man denn sonst vor seinem Social-Media-Publikum als elitärer Pro-Gamer dastehen. Der Apple-Faktor lässt grüßen.

Aber ich bin echt mal gespannt bis die üblichen Tech-Seiten das Zeuchs wirklich mal auseinander nehmen und im Detail anschauen.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Cycrow, Fox und Para

Cannibalpinhead

RETRO CRYPTKEEPER
Das Video fand ich recht interessant:


Der Typ (ich kenn den Kanal nicht) scheint ja jetzt nicht sonderlich begeistert zu sein. Bezüglich der rohen Leistung (sind ja anscheinend nur 20-30% mehr) und vor allem hinsichtlich des ganzen Frame-Generation-Krams.

Und ja... wenn man bedenkt dass da dann ein natives 1080p Bild auf 4K aufgeblasen wird... und für jeden nativen Frame 3 weitere hinzugerechnet werden.... das ist doch völlig verrückt.

Da gabs in den Kommentaren auch ein paar treffende Aussagen dazu:

Nvidia isn't selling cards that render your games
Nvidia is selling cards that imagine your games

Als jemand der gerne seine Spiele nativ spielt... sowohl hinsichtlich der Auflösung und der Frames ist das echt eine eigenartige Vorstellung. Ein Großteil der Bildinformationen und der Frames die man sieht sind "ausgedacht"! :ugly:
Für mich echt ne Horror-Vorstellung... und ich kann mir nach wie vor nicht vorstellen dass das ohne große Negative Auswirkungen daherkommt. Ob nun hinsichtlich Bildqualität/Artefakte und/oder der Latenz.

Auch lustig:

Fun fact: Jensen said the word "AI" around ~205 times in Nvidia keynote which was 60 more than AMD said in theirs. Looking at that we can deduce, the new Nvidia cards will be at least 30% better than AMD cards.

:dogge:
 
Zuletzt bearbeitet:

Para

Team | Admin
Team | Content
Nvidia unveiled the RTX 50-series range of GPUs at CES 2025, but we had the chance to take a quick look at DLSS 4 running on an RTX 5080 over the preceding holiday break. Here's a look at DLSS 4 super resolution and ray reconstruction improvements stacked up against the existing technology, plus a look at the new Frame-Gen 3x and 4x options and some frame-rate, consistency and latency comparisons.
A few notes: Super resolution and ray reconstruction comparisons taken with frame generation disabled and with CP2077 post-process features (chromatic aberration, film grain, motion blur etc) disabled on RT Overdrive mode. All b-roll uses frame-gen 3x, RT Overdrive mode but again with post-process features disabled for improved clarity. Frame-rate clips captured on RT Overdrive but with film grain disabled for better image quality on YouTube.
 
  • Like
Reaktionen: Cycrow und Fox

Bautinho

Endlich normale Leute
Bin ja echt am überlegen, meine fast neue 4080 super für 850-900€ zu verkaufen und mir die 5080 zu holen.
Denke aber, es wird noch eine super oder ti mit 24gb vram folgen
 
  • Like
Reaktionen: Cannibalpinhead

Cannibalpinhead

RETRO CRYPTKEEPER
Insbesondere zu diesen Preisen

Ich hoffe ja dass auch diese Generation AMD ein deutlich besseres P/L-Verhältnis hat wie Nvidia. Sollte ja eigentlich nicht schwer sein.

Für meine aktuelle RX 6800 mit 16GB VRAM, habe ich gerade mal 380€ gezahlt... und das ist auch heute noch keine schlechte Karte. Kein High-End, aber trotzdem mehr als brauchbar. Wenn ich jetzt sehe dass eine Next-Gen-Karte für 1000€ auch nicht mehr als 16GB-VRAM bietet, und das bei den aktuellen Anforderungen... dann komm ich mir schon etwas veräppelt vor.

Aber irgendwie scheint das der Trend zu sein... bei AMD scheinen ja auch die neuen Karten nicht mehr als 16GB zu haben... ich hoffe nach wie vor dass das so nicht stimmt. Ich weiß nicht in wie weit das wirklich offiziell ist.
 
  • Like
Reaktionen: Cycrow

Bautinho

Endlich normale Leute
Und darauf würde ich warten... ich finde 16 GB sind aktuell schon ein Minimum, und bei ner Karte die die nächsten Jahre aktuell sein soll finde ich das schon zu wenig.
Problem ist nur, die haben die 5090 nun so teuer gemacht, dass da ein Riesengap zur 5080 ist. Heißt eine super oder ti könnte ohne Probleme den Preis einer 4090 einnehmen mit um die 1700€. Und dann ist mir das schon wieder zu teuer.
 

Cannibalpinhead

RETRO CRYPTKEEPER
Ja... das ist ja der Mist an der Sache.

Aber mit einer 4080 super würde ich mir überhaupt keine Gedanken machen überhaupt was zu ändern. Das Teil hat doch aktuell eigentlich ausreichend Leistung. Da ist es doch Quatsch auf ne 5080 zu gehen die von der Rohleistung nicht viel besser ist und nur das gleiche an VRAM bietet.

Da würde ich mich jetzt erstmal entspannt zurücklehnen und schauen was so kommt... und dann spätestens bei der 6000er Reihe wirklich einzusteigen.

Aber sogar wenn man auf die aktuelle Serie aufrüsten möchte... ich würde da trotzdem erstmal abwarten was die 5000er-Reihe so für Editionen bringt... wie sich die Preise entwickeln und vor allem wie sich die Karten tatsächlich in der Praxis schlagen. Auch ob der ganze Krücken-Kram wie FrameGeneration oder DLSS 4 wirklich so der Heilsbringer sind oder eben trotzdem wieder die üblichen Nachteile mit sich bringen.

Aber auch hinsichtlich anderer Faktoren ist es sinnvoll erstmal zu schauen... in der Regel sind die ersten Karten auch die lautesten. Es kommen ja danach immer von anderen Herstellern erst leisere Systeme mit größerem Kühlkörper oder leiseren Lüftern. Early Adopter sind eigentlich immer die Gekniffenen.
 
  • Like
Reaktionen: Bautinho

Para

Team | Admin
Team | Content
Running on AMD's new Radeon 9070-series GPUs at CES 2025, a machine learning upscaling demo of Sony's Ratchet and Clank is almost certainly FSR 4 AI upscaling - and as it's running on Ratchet and Clank - our 'go to game' for AI upscaling quality tests, we could really put the tech through its paces. Oliver and Alex are at the show - and this is their report.
 
  • Like
Reaktionen: Fox und Cycrow

Cannibalpinhead

RETRO CRYPTKEEPER
Hm... ich weiß nicht. Wenn man z.B. die Szene bei der Treppe und dem Teppich anschaut... wenn man da auf die Ohren achtet... das hat wieder diesen Smearing-Effekt bei Bewegungen den ich überhaupt nicht ausstehen kann.
FSR 4 mag deutlich besser sein als FRS 3... aber es bleibt ein Upscaler... mit all den Nachteilen.
 

Cycrow

Cyt für Kantholz
Ich weiß, du bist da absoluter Purist.
Aber man müsste diese Upscaler und ihre Nachteile schon direkt mit einem traditionell gerenderten Frame (und seinen ganz eigenen Nachteilen) vergleichen und dann abwägen was da einem mehr zusagt. AMD machte da bisher mit FSR einfach keinen guten Job (stimme ich dir zu). Da ihr Upscaler noch immer viel zu viele Macken und extrem grobe Darstellungsfehler anzeigt.

Den von dir äußerst negativ beschriebenen Smearing-Effekt, den man da, sehr stark herangezoomt (ich erkenne da sogar schon einzelne Pixel des abgefilmten Monitors) und bei 50% Wiedergabegeschwindigkeit wahrnimmt, müsste man dann schon mit dem Gesamtbild vergleichen, das ohne Upscaler entstehen würde. Sprich mit einem, wie im Video beschriebenen, 1:4 Scale mit dem rohen 1080p Image vs dem upscaled 4k Output. Und da macht der gezeigte Upscaler doch schon nen verdammt guten Job.

Und das Vorteile/Nachteile-Spiel geht ja noch weiter, wenn man mal einen Blick zur Konkurrenz wagt und man die verdoppelten bis vervierfachten Frames mit in die Waagschale wirft. Dann wägt man dort wohl zukünftig ab, ob man ein Spiel mit Pathtracing, mit nahezu Artefaktfreiem Upcaling in 4K und 60-120 FPS spielt (jaja, alles fake und unecht) oder ohne Pathtracing in rasterisiert samt hässlichen altmodischen Screen-Space-Artefakten (für Reflections/Ambient Occlusion/Shadows) und dort trotzdem in geringerer Auflösung und FPS spielt.


Ich will damit nur sagen, dass die Vorteile (Performance Zugewinne die in Effekte, Auflösung und FPS gesteckt werden) stetig wachsen und zeitgleich die Nachteile (die unschönen Artefakte) mehr und mehr beseitigt und behoben werden. Und das, ob man es nun mag oder nicht, die Zukunft komplexerer Echtzeitberechnungen ist.
 
Zuletzt bearbeitet:

Cannibalpinhead

RETRO CRYPTKEEPER
Jep... da stimme ich dir ja zu.

Ich hab ja grundsätzlich auch nichts gegen Upscaler. Es ist mir eigentlich egal wie ein qualitativ gutes und flüssiges Bild auf meinen Screen wandert. Aber ich möchte eben keine Verschlechterung der Bildqualität.

Und ich bin dahingehend Purist weil ich, warum auch immer, da sehr empfindlich reagiere.

Mir ist jetzt z.B. bei God of War am PC was aufgefallen... nach 30 Std. im Endgame. Da fängt es ja plötzlich zu schneien an... und die Flocken ziehen da plötzlich auch nen Schweif hinter sich her. Nicht viel, aber merklich. Und das ohne Upscaler... kein Plan wo das jetzt herkommt. Kein Plan mit was das zusammenhängt. Kann evtl. sogar der TV sein... ich spiele ja nicht in nativen 4K sondern in 1440p... und das muss ja auch irgendwie auf die 4K gestreckt werden. Keine Ahnung...

Aber der Punkt ist: Es fällt mir auf... und jetzt kann ich das nicht mehr ungesehen machen.

Bei Robocop hab ich z.B. mal mit FSR rumprobiert... und das kam dabei raus:

20240819203323_1.jpg

Jede Bewegung hat massiv nen Schweif nach sich gezogen... auf dem Screenshot kommt das fast nicht zur Geltung... in Bewegung war das um Welten schlimmer.

Sowas macht mir dann ein komplettes Spiel madig.

Aber ist ja alles optional... von daher mir eigentlich auch wieder egal.

Mein Hauptsorge ist eigentlich dass sich die Entwickler noch weniger Mühe mit der Optimierung geben als jetzt schon... man kann ja einfach diverse Upscaler drüber laufen lassen und das noch per FrameGeneration aufblasen... dann passt das schon. Warum also ein Spiel überhaupt noch optimieren?
In die Richtung geht eigentlich mein Rant gegen das Zeuchs.

Schon jetzt finde ich kaum noch irgendwelche Game-Benchmarks die mal ohne DLSS oder FSR irgendwas aufzeigen.
Die gleiche Augenwischerei betreibt ja gerade Nvidia bei den Vergleichen ihrer neuen Grafikkarten-Generation. Da ist die Rede davon dass ne 5070 auf dem Niveau einer 4090 ist. Ist aber totaler Käse... DLSS 4 pushed das evtl. in die Richtung. Das hat mit Leistung nix zu tun.
 
  • Like
Reaktionen: Cycrow

Cycrow

Cyt für Kantholz
Nicht falsch verstehen, bin da bei den von dir kritisierten Punkten voll und ganz bei dir.
Keine Frage, dass FSR 3 (und darunter) sowie das PSSR auf der PS5 Pro bisher keine zufriedenstellende Leistung erbringen. Auch die Art wie Grafikkarten und ihre Möglichkeiten heutzutage miteinander vergleichen werden finde ich nicht Transparent genug und finde es auch ärgerlich, dass Spiele heutzutage leider immer öfter unoptimiert und fehlerhaft auf den Markt geschmissen werden.

Wollte nur anmerken, dass ich den von dir stark beschriebenen Smearing-Effekt, von dem ja auch noch nicht einmal klar ist, ob er nicht durch etwas anderes entstanden ist (irgendetwas Ingame-Mäßiges wie z.B. Motion Blur oder die Pixelreaktionszeit des Monitors, ein Nebeneffekt der Aufnahme etc.), für recht minimal halte, insbesondere wenn man bedenkt, wie tief hierfür ins Bild herangezoomt wurde und es sich zudem um ein 50% Playback handelt. Aber dazu hat jeder eine andere Empfindung. Wäre halt mal interessant zu sehen, ob man dieses Smearing auch noch unter realistischen Bedingungen erkennen würde und falls ja, ob das tatsächlich so massiv störend auffällt bzw. ob das überhaupt dem Upscaler geschuldet ist.

Insgesamt wollte ich aber einfach verdeutlichen, dass wir es bei in Echtzeit berechneten Computergrafiken immer mit Kompromissen zu tun haben werden. Das fängt schon bei Reflektionen, Beleuchtung, Schatten und Umgebungsverdeckung (aktuell oft gefakt durch Screen Space Effekte, samt oft auch recht hässlicher Artefakte) an und geht bei merkwürdig und völlig falsch beleuchteten Assets weiter, die dadurch wirken, als würden sie wie im Raum schweben. Und wenn Upscaler (die müssen selbst natürlich möglichst artefaktfrei arbeiten) dabei helfen können, all diese hässlichen rasterisierten Artefakte und Probleme durch den Wechsel auf Pathtracing zu beheben, nehme ich dafür das bisschen Smearing (der vllt ja auch gar nicht so doll auffällt) gerne in Kauf.

Wir haben aktuell ja auch nicht viele Möglichkeiten, weil wir gerade auf ein Plateau in Sachen rasterisierte Grafikdarstellung hinauslaufen (das Thema hatten wir ja schon mal). Dann heißt es, entweder 2000+ Euro für eine neue Grafikkarte auszugeben, um möglichst vieles noch nativ ohne Upscaler spielen zu können, oder zunehmend grafische Abstriche in Kauf zu nehmen, die dann anderweitig für ein unsauberes Bild und Artefakte sorgen.

Also dieses grunsätzliche Upscaler sind Schlecht und Böse teile ich nicht so ganz.
Es ist halt ein Kompromiss, einer der (Blick auf Nvidia) zunehmend funktioniert.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Cannibalpinhead

Cannibalpinhead

RETRO CRYPTKEEPER
Also dieses grunsätzliche Upscaler sind Schlecht und Böse teile ich nicht so ganz.
Es ist halt ein Kompromiss, einer der (Blick auf Nvidia) zunehmend funktioniert.

Ja, ich bin da ja voll bei dir.

Dass z.B. ein DLSS um Welten besser aussieht als FSR... und evtl. sogar mich überzeugen könnte (wenn ich es mal ausführlich hier testen könnte) bezweifle ich gar nicht.

Ich gehe eben immer von dem aus was ich hier vor mir sehe... und das sind bisher eben nur FSR und XeSS. Und beides ist einfach nicht ansatzweise akzeptabel.

Und grundsätzlich finde ich Upscaler und auch FrameGeneration ein gutes Tool um evtl. fehlende Hardware-Power auszugleichen. Es ist für mich da eine Option wie auch Auflösung oder Details runterdrehen eine Option ist um Leistung zu sparen. Aber eben auch nicht mehr. Beides verringert die Optik um die Leistung zu erhöhen.
Was ich nicht akzeptieren kann ist wenn das Ganze quasi unumgänglich wird... so wie ich auch nicht akzeptieren würde wenn man plötzlich nicht mehr als 1080p auswählen könnte.

Und da ist eben meine Angst. Bei den neuen Nvidia Karten kann man ja schon schon sehen in welche Richtung das geht. Die Karten haben weniger Rohleistung, dafür aber eben die Möglichkeit DLSS 4 zu nutzen. Das erklärt auch dass weniger Speicher verbaut wird. Man SOLL gar nicht mehr die Spiele nativ nutzen sondern mit DLSS 4 arbeiten. Wenn ich das aber nicht möchte hab ich Pech gehabt... für zukünftige Spiele gibts dann evtl. gar keine native Hardware mehr.

Dann heißt es, entweder 2000+ Euro für eine neue Grafikkarte auszugeben, um möglichst vieles noch nativ ohne Upscaler spielen zu können, oder zunehmend grafische Abstriche in Kauf zu nehmen

Ja... wenn da tatsächlich eine technische Grenze entsteht, bei der man einfach mit reiner Hardware nicht mehr weiterkommt ist das natürlich möglich.
Das glaube ich aktuell aber nicht... ich glaube dass es für Nvidia & Co. einfach günstiger ist quasi die Upscaler in Form eines Chips auf der Karte zu verkaufen als tatsächlich die Hardware. Ich vermute dass die Gewinnspanne da größer ist.
Und dann sind wir bei dem Punkt vor dem ich mich fürchte.

Auch mit der "physikalischen Grenzen von Hardware" hab ich so meine Probleme... vor zig Jahren wurde mal gesagt dass es technisch nicht möglich wäre eine HDD die größer ist als XY TB herzustellen. Das sei physikalisch nicht möglich. Heute gibt es HDDs die deutlich größer sind als die Grenze die damals genannt wurde. Das hab ich jetzt nur im Hinterkopf... da muss ich mal google dazu bemühen wie das genau war oder ob ich mich da falsch erinnere.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Cycrow

Cycrow

Cyt für Kantholz
Ja... wenn da tatsächlich eine technische Grenze entsteht, bei der man einfach mit reiner Hardware nicht mehr weiterkommt ist das natürlich möglich.
Das glaube ich aktuell aber nicht... ich glaube dass es für Nvidia & Co. einfach günstiger ist quasi die Upscaler in Form eines Chips auf der Karte zu verkaufen als tatsächlich die Hardware. Ich vermute dass die Gewinnspanne da größer ist.
Und dann sind wir bei dem Punkt vor dem ich mich fürchte.

Auch mit der "physikalischen Grenzen von Hardware" hab ich so meine Probleme... vor zig Jahren wurde mal gesagt dass es technisch nicht möglich wäre eine HDD die größer ist als XY TB herzustellen. Das sei physikalisch nicht möglich. Heute gibt es HDDs die deutlich größer sind als die Grenze die damals genannt wurde. Das hab ich jetzt nur im Hinterkopf... da muss ich mal google dazu bemühen wie das genau war.

Also Momentan ist das aber tatsächlich die auf Silizium basierende Realität, dass es kaum noch möglich ist gleichzeitig die Kosten zu Senken und noch dichtere (kleinere) Transistoren zu fertigen. Wir einen schleppenden DIE-Shrik erleben und die Chips daher eher größer und somit teuer werden (um mehr Leistung zu liefern). Aber auch so rein Physikalisch erreichen wir durch Quantum-Tunnel Effekte sehr bald die Grenzen des Machbaren, wenn es um das weitere Schrumpfen auf Silizium hergestellte Transitoren geht. Hatte ich auch schonmal erwähnt. Ein weiter so ist nicht. Da muss ein völlig neues Medium her oder die Daten nicht wie üblich via Strom (elektrisch) sondern per Licht (optisch) verarbeitet werden, weil das ohne große Abwärme deutlich höhere Taktfrequenzen (faktor 100-1000) erlauben würde. Das alles dann aber auch wieder bezahl- und skalierbar.

Daher wird ja aktuell mitunter soviel in Optimierungsverfahren und AI investiert.


Edit: die explodierenden Preise, bzw. der wechsel auf AI Lösungen hat auch nicht wirklich was mit purer Gier der Hersteller zutun.
Edit2: Zugegeben, auch wenn Nvidia ihre Vormachtstellung (wegen wenig Konkurrenz) in Sachen AI-Technologie sicherlich einige Dollar kosten lässt.
 
Zuletzt bearbeitet:
  • Hat
Reaktionen: Cannibalpinhead