Bericht Preis-Leistungs-Verhältnis: Die besten Gaming-Grafikkarten gemessen in FPS pro Euro

lynx007 schrieb:
@Maine
Bitte seht das nciht als "offens". Ihr macht euch eine heiden arbeit und ich bin dankbar dafür. Aber wer viel will, Zahlt unverschämt viel 4080/4090!
Du hast ja völlig Recht. Die Preise sind sehr hoch, aber man muss leider auch sagen, dass die Kunden sie ja zahlen. Schau dir einfach bei den Umfragen hier auf CB den Anteil der 4090-Besitzer an, dann weißt du, dass das Ende der Fahnenstange noch nicht erreicht ist.
Das kann man jetzt gut oder schlecht finden, es wird aber leider nichts ändern.

Floorp schrieb:
Nur eine Sache stört mich: "Drei Stunden Nutzung an jedem Tag des Jahres sind hierbei natürlich als für die meisten Spieler unrealistisch viel anzusehen".

Was ist daran unrealistisch?
Für die Berechnung werden 3 Stunden pro Tag angenommen und zwar JEDEN Tag des Jahres. Und da hoffe ich doch sehr, dass nur die wenigsten jeden verdammten Tag des Jahres 3 Stunden PC-Gaming praktizieren. ;)

Goatman schrieb:
ja, richtig kann ich (also für mich persönlich) auch bestätigen, vielleicht nicht jeden Tag, aber schon recht häufig die Woche, dass der PC 2-3 Std. an ist, heißt aber nicht zwangsläufig, dass man am PC "klebt". Manchmal lässt man ihn "mal laufen lässt", um z.B. Youtube-Playlists abszuspielen.
Stimmt, aber da verbraucht die Grafikkarte dann auch erheblich weniger Strom: https://www.computerbase.de/2024-01...nitt_leistungsaufnahme_spiele_youtube_desktop

Und damit kann diese Zeit nicht eingerechnet werden. Hier gehts ja darum "Was eine Stunde Spielen kostet", nicht was eine Stunde rumidlen kostet.


Clonedrone schrieb:
Zunächst einmal stellt sich hier die Frage welches Spiel getestet wurde.
Da müsstet du den Text auch lesen, da steht nämlich, dass es DOOM Eternal war.

Clonedrone schrieb:
Alles in allem habe ich große Zweifel am Wahrheitsgehalt des Tests.
Das steht dir frei und niemand verbietet dir, selbst Daten zu sammeln und es für dich auszuwerten.

Northstar2710 schrieb:
@Clonedrone ich sehe viele doom benches von anderen seiten. Zwecks vergleichbarkeit der Werte muss es aber ein bench von CB sein.
und das muss man leider CB vorwerfen, das diese Werte einfach fehlen.[/USER]
Wie schon gesagt: Alle Karten erreichen 144 FPS im Verbrauchstest, denn sonst wäre es ja sinnlos. Ich habe das auch in den Artikel hinzugefügt. Der Benchmark dazu sähe recht langweilig aus, da einfach alle Karten einen 144-FPS langen Balken hätten. Das kann man sich dann auch sparen denke ich ;)
 
  • Gefällt mir
Reaktionen: Goatman, SweetOhm, ProRateX und eine weitere Person
Northstar2710 schrieb:
@Maine ich meinte die max Fps daten zu Doom ohne limit für die neueren Karten. Damit man sehen wie die karten mit FPS limit skalieren.
DOOM Eternal ist nicht mehr Teil des Benchmark-Parcours, sondern wird nur noch für den 144-FPS-Limit Test verwendet. Eben WEIL dort alle Karten sicher die 144 FPS erreichen. Max-FPS-Daten gibt es dafür nicht mehr.
 
Zuletzt bearbeitet:
Svennc schrieb:
Realitätscheck: Für den Preis eines Athlon 64 von vor zwanzig Jahren kriegt man noch immer einen aktuellen Ryzen. Über Speicher- und Bildschirmpreise müssen wir gar nicht erst reden. Wenn also die x86-CPUs DESHALB (siehe oben) bald am Ende seien, dann wären GPUs in aktueller Form bereits seit Jahren Zombies, die nur mehr mit der Preis-Brechstange am Schlurfen gehalten werden können.
Realitätscheck 1:

Der AMD 64 3000+ kostete vor 20 Jahren 230 € (bzw. $218) zur Veröffentlichung (und lag nur wenige Prozentpunkte unter der Leistung des 3200+ )
https://www.computerbase.de/2003-12/test-amd-athlon-64-3000-plus/
https://www.anandtech.com/show/1211

Hier mal die Preise zur Veröffentlichung der aktuellen Ryzen-Serie:
https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/

ryzen preise.PNG

Nehmen wir mal den Ryzen 7700X aus dem Mittelfeld. Der hat 43x so viele Transistoren wie der Athlon und ungefähr die 100-fache Leistung.

Und das Topmodell (7950X3D) hat 87x so viele Transistoren wie der Athlon und ungefähr die 190-fache Leistung.

athlon64_ryzen_7xxx.png

Realitätscheck 2:

Bei Grafikkarten war die Entwicklung deutlich schneller.

Vor 20 Jahren waren Radeon X800 Pro/XT und GeForce 6800 GT/Ultra am Start. Damalige Preisvorstellungen:
https://www.computerbase.de/2004-05/vorschau-ati-radeon-x800-pro-und-x800-xt/5/

ATi gibt offizielle Preisvorstellungen von 399 US-Dollar für die X800 Pro und 499 US-Dollar für die X800 XT an. Darin sind noch keine Steuern enthalten und auch nicht der übliche Europa-Zuschlag, der auf dieser Seite des Atlantiks für jede Hardware gezahlt zu werden scheint.

Eine Radeon 7700 XT hat bereits 176x so viele Transistoren wie ein X800 Pro/XT und die 340-fache Leistung (bei Passmark; bei anderen Grafikbenchmarks vermutlich noch mehr).

Und das Topmodell (7900 XTX) hat 360x so viele Transistoren wie ein X800 Pro/XT und die 480-fache Leistung (bei Passmark; bei anderen Grafikbenchmarks vermutlich noch mehr).

x800_rx_7xxx.png
 
Clonedrone schrieb:
Zunächst einmal schafft die 7800 XT 144 fps.
Durchgehend?

Wenn sie bereits in 2560x1440 teilweise auf 180 fps absackt, wird sie bei dem 2,25-fachen Aufwand vermutlich nicht dauerhaft die 144 fps erreichen.

1716648166758.png
 
Cohen schrieb:
Realitätscheck 1:

Der AMD 64 3000+ kostete vor 20 Jahren 230 € (bzw. $218) zur Veröffentlichung (und lag nur wenige Prozentpunkte unter der Leistung des 3200+ )
https://www.computerbase.de/2003-12/test-amd-athlon-64-3000-plus/
https://www.anandtech.com/show/1211

Dafür kriegt man am aktuellen Markt noch immer einen aktuellen Ryzen 5. Bei den GPUs hingegen ein drei Jahre altes Auslaufmodell, das bereits in einigen Spielen von 2023 gerade so die VRAM-Minimumanforderung erfüllt. Und unter 200 Euro gibt es gar Karten, die mitunter nicht mal Mittelklasse-GPUs von vor acht Jahren schlagen können. Denn: Nicht vergessen, zum mit Ansage gecancelten Fortschritt gehört schließlich: "Sinking prices are a story of the past."

CPU-Preise haben sich nicht mal näherungsweise so entwickelt -- das ist bei den GPUs durch die Bank eine Vervielfachung innerhalb weniger Jahre und PC-historisch einmalig. Und CPU-Preise sinken auch noch deutlich nach Marktstart. Natürlich sind GPUs hochkomplexe Hardware heute. Aber man kann natürlich auch in Zukunft jede Leistungssteigerung immer weiter auf die Preise aufschlagen. Und die Preisspirale immer weiter drehen. Dann sollte es aber auch Forscher geben, die das infrage stellen. Die explodierende Transistorenzahl ist dafür übrigens ein Argument; schließlich wird hier offensichtlich ein immenser Mehraufwand betrieben. Wäre das mit allen relevanten Komponenten in der Frühzeit des PCs passiert, in dem in wenigen Jahren die Leistung explodiert ist, wäre er nie zu einem Spielgerät der Massen geworden. Oder um das Argument des Forschers zu zitieren: "Statt mehr Leistung für weniger Geld zu liefern, werden Prozessoren zunehmend teurer, weil der Fertigungsaufwand immer weiter steigt." Wenn DAS sein Argument gegen die x86-CPUs ist, trifft es auf GPUs offensichtlich mindestens genauso zu.

Aber ich verstehe auch, wenn man Buyer's Remorse vorbeugen will. Niemand würde vor sich selbst zugeben wollen, heute schlechtere Deals zu landen. Das ist normale menschliche Psychologie. :-) Letztlich brauchst du für aktuelle Spiele aktuelle Hardware -- damals wie heute. Und es sind diese Spiele bzw. Software, die bestimmt, ob eine Hardware genügt oder nicht. So leistungsfähig GPUs heute auch sein mögen; die entsprechende Software verputzt sie noch immer zum Frühstück. Selbst mit Upscaling.
 
Zuletzt bearbeitet:
Svennc schrieb:
Dafür kriegt man am aktuellen Markt noch immer einen aktuellen Ryzen 5. Bei den GPUs hingegen ein drei Jahre altes Auslaufmodell, das bereits in Spielen von 2023 gerade so die VRAM-Minimumanforderung erfüllt.
Also noch Mal:

Für ca. 200 € bekam man vor zwanzig Jahren einen Athlon 64 3000+ und heute einen (nur) 85x schnelleren Ryzen 5 7600X.

Für ca. 400 € bekam man vor zwanzig Jahren eine Ati X800 Pro und heute eine 340x schnellere RX 7700 XT.

athlon64-3000 ryzen7600x x800pro rx7700xt.png


Deine Darstellung, in den letzten 20 Jahren habe sich das Preis-Leistungs-Verhältnis bei CPUs besser entwickelt hat als bei GPUs, ist absurd!

Selbst bei einer (ca. 200 € teuren) Intel Arc A750 ist die Leistungssteigerung gegenüber der damaligen X800 Pro noch mehr als doppelt so hoch wie die Leistungssteigerung des Ryzen 5 7600X gegenüber des damaligen Athlon 64 3000+:

athlon64-3000 ryzen7600x x800pro arc750.png
 
Zuletzt bearbeitet:
Cohen schrieb:
Dass sich in den letzten 20 Jahren das Preis-Leistungs-Verhältnis bei CPUs besser entwickelt hat als bei GPUs, ist absurd!

Auch noch mal:

Mit der 200-Euro-CPU konntest du vor 20 Jahren alles ohne große Einschränkung spielen. Mit einer derart bepreisten CPU kannst du auch heute noch alles ohne große Einschränkung spielen. Mit einer 200-Euro (oder gar 100-Euro-) -GPU hingegen...
 
  • Gefällt mir
Reaktionen: Dogbrothers
Und wie lange konnte man vor 20 Jahren mit einer 200-Euro-Grafikkarte alles ohne große Einschränkung spielen? Selbst mit einer 400-Euro-Grafikkarte damals nicht lange.

Heutzutage reicht eine 400-Euro Grafikkarte deutlich länger aus... mit einer 7700 XT sollte man bis zur nächsten Konsolengeneration über die Runden kommen, da fast alle Spiele auch auf der PS5 laufen müssen.
 
Ich kann euch ja beide verstehen und ihr habt beide auch Recht - das ist ja gerade das etwas Paradoxe.

Das Problem ist nur: Die Situation wird sich erst einmal nicht ändern. Wenn es wirklich so kommt, dass AMD in der nächsten Generation auf den Highend-Sektor verzichtet und nur die Mittelklasse (in Punkto Leistung) bedient, dann kann Nvidia im Highendsegment völlig freidrehen - viele erwarten eine RTX 5090 ab mindestens 3.000 €. Und die 5080 wird dann auch die 1.500 € mehr als deutlich übersteigen.

Und wisst ihr was? Selbst wenn das dann keiner mehr kaufen sollte (was nicht der Fall sein wird, siehe https://www.computerbase.de/2024-04...-grafikkarten-hat-die-community-im-gaming-pc/ - 11 % der Teilnehmer angeblich mit RTX 4090 unterwegs), kann das Nvidia auch völlig egal sein! Die verdienen sich im Datacenter/KI-Bereich sowas von dumm und dämlich mit über 50 % Gewinnmarge, dass das Gaming-GPU-Geschäft für die nur noch ein lästiges Anhängsel ist.

Es würde mich überhaupt nicht wundern, wenn die Nvidia-Aktionäre irgendwann sagen "Hey Leute, trennt euch vom dem Peanutsgeschäft und steckt die Chips lieber in KI-Karten".
 
  • Gefällt mir
Reaktionen: SweetOhm
Maine schrieb:
Und da hoffe ich doch sehr, dass nur die wenigsten jeden verdammten Tag des Jahres 3 Stunden PC-Gaming praktizieren.

Wieso? Was ist falsch daran in den Abendstunden ca. 2-3 Stunden etwas zu machen? Und Sachen wie lesen oder spielen, ist wohl alle mal besser als passiv TV zu schauen.
 
  • Gefällt mir
Reaktionen: Oudenstekelig
Clonedrone schrieb:
Die 7800 XT mit mehr Recheneinheiten soll zudem deutlich ineffizienter als die 7600 XT und 7700 XT sein? Das klingt alles andere als schlüssig, zumal 7700 XT und 7800 XT technisch nicht weit auseinander liegen und der Verbrauch der 7700 XT bei deutlich weniger fps quasi identisch ist.
Ich glaube das ist wirklich so. Die 7700xt hat weniger und langsameren Ram( spart strom) und die 6CU weniger die befeuert werden. Bei dem 144fps limit kann man nicht sehen auf wieviel auslastung sie läuft. Wenn man aber Techpowerup dazu nimmt, hat die 7700XT (57%) u. die 7800XT (51% ~138watt) auslastung in WQHD. DA kann die 7700xt schon etaws sparsamer sein besonders wenn sie dazu noch etwas weniger strom benötigt.

Hier auf techpowerup wurde 60FPS limit in Cyberpunk(niedrig preset FHD) da ist die 7700xt auch effiezienter
Die 7800xt läuft dort mit ca 30-33% auslastung. mit 10% auslastung benötigt die 7800xt immer noch ~80-85watt
techpowerup.png


Die 7900xt hat ein chiplet design und unterscheidet sich halt deutlich von den Monolithen 7800xt.
 
Cohen schrieb:
Heutzutage reicht eine 400-Euro Grafikkarte deutlich länger aus... mit einer 7700 XT sollte man bis zur nächsten Konsolengeneration über die Runden kommen, da fast alle Spiele auch auf der PS5 laufen müssen.
Ich habe das Vergnügen in EAs WRC 2023 mit der Unreal Engine 4 in FullHD auf 35 fps in Schweden zu kommen, wohlgemerkt mit einer ausgelasteten 7800 XT. Das Versagen liegt da zu 100% beim Programmierer des Spiels, denn je nach Vielfältigkeit der Objekte am Straßenrand wurden es dann auch mal 120 fps.
Mit der Performance der GPUs wird so fahrlässig umgegangen, dass eine Mittelklassekarte eben nicht länger reicht wie 2004. Ich meine damals hatte ich eine 6800 LE freigeschaltet auf 16/6 für ca. 150€ und davor eine 5900 XT für 140€.
Sein wir ehrlich. Bis 2018 musste niemand mehr als 250€ für eine brauchbare GPU ausgeben. Da gab es dann die 580 mit 8 GB. Das ist ja die gleiche VRAM Menge wie bei der 4060 ti, die heute noch deutlich mehr kostet.
 
Zuletzt bearbeitet:
Cohen schrieb:
Für ca. 200 € bekam man vor zwanzig Jahren einen Athlon 64 3000+ und heute einen (nur) 85x schnelleren Ryzen 5 7600X.

Für ca. 400 € bekam man vor zwanzig Jahren eine Ati X800 Pro und heute eine 340x schnellere RX 7700 XT.

Das ist das Containerschiff Thema, Skalierbarkeit, es wäre kein Problem ne CPU zu bauen dessen Hardware auch 340x so stark wäre, nur wird beim Release genau 0 Software das ausnutzen und man kauft sich nen Briefbeschwerer, und schon musst irgendwelche Caches einbauen wo die Cores Daten untereinander aus tauschen und irgendwie Singlecore oder weniger cores simulieren und schon wird es nimmer effizient.

Das ist wie bei den Containerschiffen als man die auf was simples standardisieren konnte alle sind identisch und austauschbar eben wie unified Shader und so was, wurde Schifffahrt deutlich effizienter davor musste man mit irgendwelchen Kränen zwischen den Schiffen und den Lastwagen die Sachen aus tauschen.

Alleine wenn Singlecore wichtig ist aber du mit Takt nur so und so weit gehen kannst unter anderem wegen Temperatur auf kleinem Raum kommst bei CPU an ein Problem, bei GPUs die unendlich und fast verlustfrei Parallel skalierst kannst einfach ne Riesen Karte bauen und fertig, der einzige Faktor ist dort wenn die Wafer zu groß werden ist die Yield schlecht.

Das ist ungefähr so wie wenn du sagst das ein Wasserkocher effizienter wie ein Topf auf nem Herd ist (Induktion mal beiseite) oder könnten auch ne Microwelle nehmen ein hoch spezialisiertes Gerät wird immer ein Allrounder (CPU) schlagen was Effizienz an geht.

Man könnte auch sagen das GPUs damals teils auch extrem teuer waren, erinnere mich noch an meine erste PC Grafikkarte, eine Matrox hatte damals von PC keine Ahnung glaub Matrox Mystique hat glaub 500 dm damals gekostet ein unendlecher Wucher glaub halbes jahr später gabs ne 1000x bessere Riva TNT (2?) für 200 Mark.
 
Maine schrieb:
Und damit kann diese Zeit nicht eingerechnet werden. Hier gehts ja darum "Was eine Stunde Spielen kostet", nicht was eine Stunde rumidlen kostet.
Das ist nunmal alles relativ und abhängig vom Spiel und Einstellungen. Meine 7900xt hat eine Powerlimit von 330w, aber sie zieht selten 330w. In der Regel liegt sie bei den Games und Settings die ich spiele bei 200w. Wenn man 5 minuten investiert kann man einfach aber deutlich einsparen.
 
Ich hatte mir mal den Spass gemacht manuelle Powerlimits mit FPS Limits zu vergleichen*. Also welche Methode is effektiver beim Stromsparen. Tatsächlich konnte ich feststellen, dass es im Bereich 70-100% Powerlimit kaum Unterschiede gibt. Jedoch je weiter man runter geht, desto besser wird das manuelle Powerlimit.

Jetzt könnte man argumentieren, dass die Spannung-Takt-Kurve vielleicht Schuld ist - die sollte aber in beiden Szenarien gleich sein. Also bleibt ja nur noch die Energieverwaltung des Treiber als Schuldiger.

Außerdem kann man ja beides nutzen, um das Problem aus der Welt zu schaffen.

*Testprinzip: Spiel auswählen, feste Szene (Pause), dann Powerlimit z.b 90%, FPS notieren, dann mit gleichem FPS Limit gegentesten.
 
Simanova schrieb:
dann mit gleichem FPS Limit gegentesten.
und wie sieht der stromverbrauch aus?

ich würde dir aber raten dann einen 15sek aufzeichnung mit capframes zu machen. Ich gehe davon aus das du stabilere fps mit fps limit hast. beim Powertarget prinzip werden bestimmt nicht durchgehend deine fps erreicht.

frequenz vergleich währe auch interessant dabei wie sich diese verhalten.

bei meiner 7800xt ist die beste methode die max Mhz begrenzen.(hier 2400mhz) das ist ca der durschnitt aus dem Test des referenz modells. zusätzlich die spannung reduzieren (auf 1,045V) Das spart mir 40watt (214watt anstatt 256watt) bei 100% Auslastung,(bei cyberpunk) bei fast gleicher fps leistung +-1%. Selbst bei einer gpu Auslastung von 11-15% ist immer noch eine ersparnis 10%(7-8watt) drin.
 
Die GRE ist mal wieder im Angebot, falls man ein paar Euronen mehr übrig hat.(als Alternative zur 7800xt)

edit:
Inzwischen auf 539€ runter und die 7900xt @699€ ist auch net schlecht
(Letztere nur im Midnightshopping versandkostenfrei)
 

Anhänge

  • GRE@539€.JPG
    GRE@539€.JPG
    16,3 KB · Aufrufe: 4
  • 7900xt@699€.JPG
    7900xt@699€.JPG
    13,3 KB · Aufrufe: 4
  • 7800xt@499€.JPG
    7800xt@499€.JPG
    30,3 KB · Aufrufe: 1
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SIR_Thomas_TMC und Maine
Zurück
Oben