Bericht Bericht: 3DMark Vantage - Der Performance Report

der bench ist gut. wie sich manchmal vielleicht am zweiten oder dritten tag der nutzung erst zeigt.

- skaliert mit den cores und
- skaliert mit dem takt und
- skaliert mit der grakaleistung,

und zwar völlig logisch und einsichtig gemacht. und was wollen wir mehr?


- klare differenzierung nach cpu-takt (mhz) & anzahl der cores einerseits,

- sowie anzahl der gpu-kerne andererseits,

also einer karte oder 2-fach-sli oder 3-fach-sli (1, 2 oder 3 kerne, logo) oder
2-fach-graka (9800gx2) oder 2x zweifach ...



und eben das war bei den vorläufer-benches nicht so. von daher solten wir froh sein.


p.s.: man muss sich den ja nicht 2x anschauen. aber einen sinnvollen vergleichsmassstab mehr haben wir nun schon, wie mir scheint. also nicht so geizig: der bench in "advanced" kostet nur 15,99, in euro gerechnet.


und cb hatte die links zu den vielen schönen diagrammen, die die andere pages alle schon dazu gemacht hatten, schon vor 2 tagen verlinkt. mehr lesen halt.

http://www.pcgameshardware.de/aid,641615/News/3DMark_Vantage_im_PCGH-Benchmark-Test/&page=4

die drei hauptdiagramme da drin finde ich prima: weiß ich gleich, wo ich dran bin. macht sicherlich eine gute prognosemöglichkeit hinsichtlich der abzuschätzenden real-life gaming-power durch aufrüstenz.b.. und darum geht es doch auch?



ich finde das voll korrekt. schließlich weiß ich jetzt, dass ich mit einer quad-cpu @400x10 = 4000mhz und zwei 9800 gx2 im sli 16.400 punkte erwarten kann. und das kombinierte oc von cpu und gpu's einer solchen kiste rund 23.200 punkte in "performance"macht. (sagt der orb-browser)


hier: das ist doch auch sinnvoll gemacht von futuremark, oder? (denn "high" oder "extreme" wollen wir doch morgen schon zum gamen haben, nicht wahr?)

3dmarkvantage_16.jpg
 
Zuletzt bearbeitet:
Hier mein Resultat::cool_alt:

3Dmark Score:4146
GPU:4112
CPU:4252
GPU Test1:10,41 FPS
GPU Test2:13,74 FPS

Das Teil ist wirklich nicht berauschend, ohne starke Grafikhardware wird der Benchmark zur Diashow!:o
 
Nö -kein Quatsch- gibt von AMD-ATI Hotfixes für 32 und 64 Bit -Versionen hätt ich mir ja denken können:D
Komischer Weise sollen besonders Karten ab 2400er Serie betroffen sein:http://winfuture.de/news,39101.html
 
Zuletzt bearbeitet:
Salut

also hab nen Q6600 @3.2GHz
und 512MB GTS on SLI
eeem hab jetzt nicht alle 9 seiten gelesen aber hab da ein kleines problem & zwar irgendwie funktioniert mein SLI nicht so ganz. hab die gleichen FPS werte "+/- natürlich"ob ich SLI nun on oder off habe. der SLI-Balken wird auch nicht angezeigt bei den Test's.

weiss da jemand vieleicht warum?

thanks for answers.
 
@ "Ja. Wir sind geradezu begeistert... http://www.pcgameshardware.de/aid,64...Mikroruckelns/"


danke für den interessanten link. was bleibt für den moment

- ich habe nicht sli gebencht, sondern "nur" mit einzelkarte,
- soweit ich es sehe, sind nv und ati aufgefordert, neue, bessere treiber abzuliefern
- das kann man also nicht dem bench an sich anlasten, (oder?)
- sondern im gegenteil wird der bench uns nun endlich zu funktionierenden sli-treibern verhelfen:), so ist zu hoffen.

p.


(vielleicht machen die das mit den mikrorucklern sgar mit absicht "weil dann die hardware so richtig schön maximal gefordert wirkt"?:D)
.
 
Zuletzt bearbeitet:
hi,

hab den auch mal durchlaufen lassen, hier meine Werte (GraKa ist OC):

Score: 4714
GPU: 4751
CPU: 4606
 
Klexy schrieb:
Hm, so ein CPU-Score bei der CPU?

AvenDexx schrieb:
Es ist Schwasinn. Ruf den Link auf und die siehst, dass statt des E6750 ein Q6600 @ 3GHz zum Einsatz kam und statt der 8800 eine 9600 genutzt wurde.

Kein Plan was mit dem Link passiert ist und warum da jetzt ein System mit Q6600 und 9600er, es war mal mein Link so wie ihn 3DMV ausgespuckt hat.
Der hohhe CPU Score kam mir auch merkwürdig vor, er wurde mir aber genau so angezeigt, ich schiebs mal auf nen Bug im 3DMV bzw. ORB.
 
Was sind eigentlich die Standard Einstellungen für ne Nvidia Karte? Wie stelle ich sicher, dass das Program nicht seine eigenen Einstellungen verwendet?

Ziemlich banale Frage... natürlich im Nvidia Control Center. Doch wie kann man das eben einstellen, dass es bei mir gleich bencht wie bei CB?
 
Zurück
Oben