upgrade von 1060 auf 2070 sinnvoll?

Also nehme ich Mal mit:
1060 - > 2070 = 100% mehr Performance
100€ wäre auch noch ein guter Abschlag,da er ja meine 1060 kriegt
Xmp aktivieren (muss ich noch nachlesen )
Treiber und bios Mal updaten 😁

Danke für die hilfreichen Beiträge
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
  • Aktuelles BIOS aufspielen.
  • Dann den Ram korrekt einstellen.
  • Die RTX2070 einbauen.
  • Falls möglich / gewünscht die Karte neu mit Wärmeleitpaste versehen. Ggf. die Wärmeleitpads, passende dicke vorausgesetzt, erneuern.

Wird ein gesunder Boost für unter 100€ sein.
 
scsgamer1337 schrieb:
danke für die ganzen antworten.
...
zum thema gebraucht kaufen:
der kollege ...
Und zum schmalen Taler heisst irgendwas im bereich 50-100€. ich geb ihm meine 1060, weil er am pc eh nur surft etc.

Mach das. Auf spätere Aufrüstung/neuer Rechner zu sparen ist zwar immer nett, aber von der Mehrleistung hast du sofort etwas und es kostet kaum etwas.
 
Du meinst das Angebot aus dem Mindstar für 269 €? Mindstar-Angebote kann man nicht direkt verlinken. Wenn man auf deinen Link klickt, landet man beim Normalpreis von knapp 300 €.

Für eine 3060 mit 12 GB ist der Preis nicht sooo besonders. Normal kriegt man die ab 279 €.

Die RX 6600 ist in etwa genau so schnell, ist aber schon ab 200 € zu haben, im Angebot auch mal für 180 €. Die hat aber den Nachteil, dass sie nur mit PCIe 4.0 x8 angebunden ist. Da deine CPU nur PCIe 3.0 kann, wird die Anbindung zum Flaschenhals, wenn der VRAM nicht ausreicht...

In der Preisklasse ist es gerade ziemlich bescheiden beim Neukauf... Entweder isses verhältnismäßig teuer, oder man kauft mit gewissen Einschnitten.
 
Ja genau, das Mindstarangebot für 269€
Ich denke mir halt, das es für mich nicht soviel Sinn macht jetzt mehr als 250-300 auszugeben.
Für alles was ich grad so zocke, reicht es eig noch aber die Grafikregler mal etwas höher stellen zu wär schon top.
 
Jo, für FHD mit der CPU lohnt es sich nicht wirklich, da bin ich bei dir.

Ich find 270 € nur echt viel für eine 3060. Aber wie gesagt, Alternativen sind halt schwierig...
 
Ja merke ich Grad auch.
Bei eBay & eBay Kleinanzeigen wollen sie auch 200-250 fuer ne 3060 und 320+ für ne 3070
 
wrglsgrft schrieb:
Die hat aber den Nachteil, dass sie nur mit PCIe 4.0 x8 angebunden ist. Da deine CPU nur PCIe 3.0 kann, wird die Anbindung zum Flaschenhals, wenn der VRAM nicht ausreicht...
Die 6600 hat doch diesen "Infinity Cache" der angeblich zumindest bis Full HD gut funktionieren soll, würde der mit PCI-E 3.0 auch ausgebremst werden?

Also ich hab keine Ahnung ob dem so ist, ich frag nur weil mich das interessieren würde.^^
 
Gravlens schrieb:
würde der mit PCI-E 3.0 auch ausgebremst werden?
Nein. Hat damit aber auch nicht direkt was zu tun.

Durch den Infinity Cache kann die Anbindung des VRAM kleiner dimensioniert werden. Das ist ein sehr schneller Zwischenspeicher, in dem Daten aus dem VRAM abgelegt werden, bevor die GPU dann darauf zugreift.

Ist der VRAM zu klein wird bei per x8-angebundenen Grafikkarten die Anbindung der gesamten Grafikkarte an den RAM des Systems zum Flaschenhals. Wenn der VRAM voll ist, werden Daten in den RAM ausgelagert. Und genau da hakt es dann. Sicher bringt ein großer Cache auch in der Situation was, den Verlust von 8 GB/s kann der aber nicht auffangen. Ist ja selbst ziemlich klein.
 
wrglsgrft schrieb:
Sicher bringt ein großer Cache auch in der Situation was, den Verlust von 8 GB/s kann der aber nicht auffangen. Ist ja selbst ziemlich klein.
Es gibt ja eine Formel wie man den effektiven Datendurchsatz durch diesen Cache berechnen kann, auch wenn der Cache klein ist kann der Durchsatz laut AMD stark erhöht werden, zumindest im besten Fall.^^
To arrive at the correct AMD Infinity Cache memory bandwidth value for AMD RDNA™ 2 GPUs, you take the number of memory channels,multiple by 64 and then multiply that unit by the Infinity Fabric Clock (FLCK). The result is the delivered memory bandwidth.
512 (Regular) GB/s With NO AMD Infinity Cache™ Technology.Radeon™ PRO W6800, Current Generation GPU @ 250W Peak.
1986.56 (Effective) GB/s With AMD Infinity Cache™ Technology.Radeon™ PRO W6800, Current Generation GPU @ 250W Peak.
Das ist aber falls ich das richtig verstanden habe nur das theoretisch bestmögliche Ergebnis, also wird das Ergebnis in der Praxis wohl abweichen und schlechter ausfallen.^^

Aber wie bereits geschrieben, da habe ich keine Ahnung wie viel davon Marketing ist und was stimmt, hatte schon lange keine AMD Grafikkarte mehr.^^

Wäre aber interessant zu wissen wie groß der Unterschied zwischen 3.0 und 4.0 mit und ohne diesem Cache da tatsächlich wäre.^^
 
Klar schaffst du durch den Cache einen deutlich höheren Durchsatz. Der ist aber nur zwischen der GPU und dem Cache so hoch. Zwischen Cache und VRAM/RAM ist der Durchsatz ein ganz ein anderer. Deswegen bleiben die Flaschenhälse da auch mehr oder weniger so wie sie sind.

Gravlens schrieb:
Wäre aber interessant zu wissen wie groß der Unterschied zwischen 3.0 und 4.0 mit und ohne diesem Cache da tatsächlich wäre.^^
Aus o. g. Gründen glaube ich, dass der Unterschied gar nicht sooo groß ausfallen würde. Aber interessant wärs trotzdem.
 
Ich hab einfach mal danach gegoogled und CB hatte so einen Vergleich mit der 6600 XT gemacht, war der erste Treffer.^^
https://www.computerbase.de/2021-08/amd-radeon-rx-6600-xt-review-test/4/

Es gibt Aussagen das es sich mit der 6600 ähnlich verhält, hab aber keine Nachweise dazu gefunden, zu dem bezieht es sich sowieso auf ältere Spiele.^^

Aber zumindest bei der 6600 XT scheint es sich laut CB "nur" auf die FPS auszuwirken (in FullHD).^^
 
Ja gut einen Vergleich zwischen PCIe 3.0 und 4.0 wurde schon öfter gemacht. Aber ob und wie stark der Infinity Cache da rein spielt (und das ist ja letzten Endes die Frage) wurde mWn nie irgendwo getestet.
 
wrglsgrft schrieb:
Aber ob und wie stark der Infinity Cache da rein spielt (und das ist ja letzten Endes die Frage) wurde mWn nie irgendwo getestet.
Das stimmt natürlich, wobei man das meiner Meinung nach schon vermuten kann wenn bei dem verlinkten Test von CB geschrieben wird, das trotz zu wenig VRAM es zu keinen Aussetzern kommt oder zu ruckeln beginnt, sondern die FPS einfach nur sinken, zumindest in FullHD.^^
Das ändert sich jedoch, wenn die Einzelergebnisse betrachtet werden. Call of Duty: Black Ops Cold War war schon immer ein VRAM-Fresser, denn die genutzte Engine benötigt von Anfang an sehr viel Speicher.

Und hier zeigt sich, dass bereits in Full HD bei nur acht PCIe-3.0-Links größere Einbußen in Kauf genommen werden müssen. Die Durchschnitts-FPS fallen mit PCIe 3.0 gegenüber PCIe 4.0 um 10 Prozent ab, die Perzentil-FPS um 12 Prozent. Die gute Nachricht dabei ist, dass das Spiel einfach nur langsamer läuft – Ruckler oder ähnliche Probleme gibt es nicht.
 
Zurück
Oben