News Nvidia möchte Bildqualität erhöhen

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
8.847
In der Vergangenheit wurde immer wieder über die schlechte Bildqualität in 2D-Applikationen von Nvidia Grafikkarten berichtet. David Kirk, Chefentwickler von Nvidia, äußerte sich zu diesem Punkt nun in einem Interview bei den Kollegen von TecChannel.

Zur News: Nvidia möchte Bildqualität erhöhen
 
lol immer den anderen die schuld geben :D..sie sind doch selbst schuld..die bildqualitaet ist schon jahre schlecht und sie habn nichts dagegen unternommen :D:D
 
Ich könnte durchaus eine bessere Qualität in den 3D-Spielen vertragen, ist aber allerdings nur´ne Treibersache..
 
Ich finde die 2D-Qualität sehr sehr sehr wichtig und finde es gut das nVidia daran pfeilen will!
 
@Stan:
sollst dir auch keine billig Karten kaufen. Nvidia macht CHIPS und nicht _Karten_! Die GPU mit integrierten 350mhz RAMDAC produziert kein "schlechtes" Signal. Das machen wie in der news steht die Graka-Hersteller, wenn sie spezifikationen nicht einhalten und/oder Billigkomponenten verwenden.
@CBony: jaja ich weiss du willst ne ATI ;) aber es ging um 2d-qualitaet.

HtH
 
Was sind aber "billige" Karten ???
Ich hatte einmal eine Karte von Elsa (TNT2 Pro), mit einem grottenschlechten Lüfter, der zu allem Überfluß auch noch genietet war.
So kann man wirklich nie sicher sein, wann man eine "gute" Karte kauft, weshalb ich die Idee von Intel, sollte sie Wirklichkeit werden, gut fände.

pistol
 
Es hängt doch nur an den verwendeten Filtern. Bei OCZ zum Beispiel ist die Bildqualität der alten Geforce2-Ultra schon besser gewesen als heute bei den meisten auf dem Markt zu kaufenden Karten. Problem an der ganzen Geschichte ist ganz einfach, dass die Karte aufgrund einiger Modifikationen, vor allem besseren Bauteilen, einfach zu teuer geworden ist, wodurch die Verkaufszahlen sich im überschaubaren Rahmen blieben. Desweiteren muss man auch sagen, dass die Qualität auch von den Treibern abhängt. So ist es mir auch schon untergekommen, dass schlechtere Treiber (was Geschwindigkeit angeht) einfach viel bessere Grafikqualität hatten. Eine noch andere Sache ist der verwendete DAC (Digital to Analogue Converter), der sich mittlerweile ja zum Glück in der GPU befindet. Früher war der bei den alten TNT2 Karten ausschlaggebend für bescheidene Qualität. Ich selbst kann den Entwicklern von nVidia sicherlich zum Teil zustimmen, jedoch müssten die sich vielleicht auch mal Gedanken darüber machen, dass der MHz Hype mit schneller größer weiter auch dazu beiträgt, dass gewisse Probleme daraus erwachsen (siehe Geforce2-Ultra Bug, zurückzuführen auf zu hohe Kerntaktung). Alles in allem kann man nVidia nur raten, dass sie sich an ATI und Matrox orientieren sollten, denn die haben seit geraumer Zeit mit 2D/3D Qualität keine Probleme.
 
Ich hab da mal eine Frage: Ich hab die GF4 Ti4400 von Creative, also den 3dBlaster 4 Titanium 4400, ist das jetzt eine Karte mit guter oder mit schlechter Bildqualität? Wenn ich mir Testberichte anschaue, dann hab ich immer weniger Frames oder Punkte, wenn es um Benchmarks geht. Außerdem ist die Karte (in meinen Augen) schlecht gekühlt, denn der Speicher ist gar nicht und der Chip nur zu schwach gekühlt, was ich daran merke, dass mein PC abstürzt, wenn ich nach 3 Stunden Dauerbetrieb 3dMark 2001 SE mit den härtesten Einstellungen laufen lasse, die mein Monitor mitmacht (12x10x32 4xAntialiasing usw.) Mit Standarttaktraten (275MHz Chip, 550MHz DDR-Speicher)! Die Karte war im Vergleich zu anderen GF4Ti4400s relativ teuer, 380 hat sie gekostet, die billigste andere 330, aber die war bulk. Meine ist Retail mit Incoming Forces : Deliverance, E-Racer OEM und einer GOILEN Demo-CD. Sie hat SVHS-Out, DVI und "normalen" Monitorausgang. War die Karte vom Preis-Leistungsverhältnis her jetzt ein Flopp oder nicht? Kann mal einer GENAU erklären, was Trillineares Filtering und Antotropischer (oder so) Filter ist?
 
Ach ja, die GF2 Ultra ist doch eigentlich die GF2 GTS Ultra, oder? Früher hatte ich nämlich die GF2 GTS Pro (GTS Pro, nicht nur GF2 Pro!), und bei NVIDIA gibt es (eigentlich) immer Pro UND Ultra! Und auf wieviel MHZ läuft der Chip und der Speicher von der GTS Pro und der (GTS) Ultra?
 
Zurück
Oben