News Nvidia Blackwell: B200-GPU kommt als Dual-Die mit 208 Milliarden Transistoren

ThirdLife schrieb:
Wozu ? Wie gesagt, schon mit einem Die kommen sie auf 104 Mrd Transistoren ggü. 80 bei Ada/Hopper. Allein das sind schon 30% mehr. Evtl. noch 10-20% Takt on top und um die 30-50% mehr Memory-Bandbreite dank GDDR7 und man steht eh schon allein auf weiter Flur.
das ist eben die Frage, nur +30-50% Uplift oder NV gibt alles wie beim Sprung zur 4090, einfach nur weil man zeigen möchte, dass man einfach den Längsten hat, mit Abstand, uneinholbar, quasi als Ausdruck der eigenen "Dominanz".
Dann halt für einen Einstandspreis von 3000€+.

Aber ich gebe dir recht, das wäre ein Wunschtraum, so wird es mit Sicherheit auch nicht kommen, auch wenn jeden Tag irgendwelche Gerüchte sagen das wird der heftigste Sprung ever blabla...
 
  • Gefällt mir
Reaktionen: SweetOhm
Zanza schrieb:
Wer von denn " Gamer " haben damals die Aktie von Nvidia gekauft?
Wo wäre die Aktien 20 Jahre lang ohne Gamer gewesen die die Grafikkarten kaufen? Ohne Gamer kein Nvidia, so einfach ist das.
Ergänzung ()

Quidproquo77 schrieb:
Eine 4090 braucht hingegen niemand um zu zocken.

Schonmal auf 5120x1440@120hz gespielt? Da pfeifft ne 4090 aus'm letzten Loch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know, SweetOhm und lazsniper
Coeckchen schrieb:
Schonmal auf 5120x1440@120hz gespielt? Da pfeifft ne 4090 aus'm letzten Loch.
Niemand "braucht" diese Auflösung, genau wie eine 4090 ist das einfach etwas das man will. Mit weniger Auflösung kann man auch sehr gut zocken.
 
stefan92x schrieb:
Niemand "braucht" diese Auflösung, genau wie eine 4090 ist das einfach etwas das man will. Mit weniger Auflösung kann man auch sehr gut zocken.
können und wollen sind zwei paar schuhe. ich will zum beispiel nicht mehr unter 4k zocken, nie mehr.
 
  • Gefällt mir
Reaktionen: apfelfenster97
Das sind schon imposante Zahlen. Wenn man bedenkt, dass diese Leistung vor 20 Jahren einen ganzen Raum gefüllt hat. Und jetzt ist es auf einer Karte konzentriert. Der absolute Hammer!
 
  • Gefällt mir
Reaktionen: one2know
RogueSix schrieb:
Von AMD hört man per Leaks indirekt Ähnliches. Die sehr glaubhaften PS5 Pro Leaks deuten ja darauf hin, dass AMD der PS5 Pro einen NPU Co-Prozessor spendieren werden.
Das könnte ich mir bei Gaming Blackwell eventuell auch vorstellen, dass nVidia da neben dem B202 auch noch eine dedizierte NPU auf die Platine lötet.
Das ist etwas wo aber evtl. auch via CPU abgedeckt werden könnte, siehe die Anstrengungen seitens AMD und Intel hierbei. Dann wäre das auf der GPU evtl. weniger nötig ? Oder sie fassen alles was jetzt an Tensor und RT-Gedöns drauf ist zusammen in ein zweites Chiplet.

Wird spannend so oder so. Ich hoffe AMD überrascht auch mit was leckerem.
 
Ja die Aktie macht sich prächtig 😇und fangt schonmal an für die 5090 zu Sparen
 
  • Gefällt mir
Reaktionen: lazsniper
lazsniper schrieb:
können und wollen sind zwei paar schuhe. ich will zum beispiel nicht mehr unter 4k zocken, nie mehr.
Same. Meine zwei Bildschirme sind beide 4k. Aufgrund des geringen Abstandes in der Wohnung sind beide am Hauptrechner angeschlossen. Es wird eine Karte für Schreibtisch- als auch Couchaktivitäten verwendet.
24" 1080p war damals absolut toll. Zurück möchte ich allein wegen der Pixeldichte aber nicht mehr.
 
  • Gefällt mir
Reaktionen: lazsniper
Unti schrieb:
auch wenn jeden Tag irgendwelche Gerüchte sagen das wird der heftigste Sprung ever blabla...
Auf irgend was wird es schon zu treffen. Und wenn auch nur beim Strom verbraten oder beim Preis ... ;)
 
  • Gefällt mir
Reaktionen: Icke-ffm und Unti
Toll Aktien sind das einzig Wahre. Mit der Hardware kann ich nichts anfangen
 
  • Gefällt mir
Reaktionen: SweetOhm
Plonktroll schrieb:
Ja die Aktie macht sich prächtig 😇und fangt schonmal an für die 5090 zu Sparen
die sollte doch aus den gewinnen der aktie realisierbar sein ;)
Ergänzung ()

apfelfenster97 schrieb:
24" 1080p war damals absolut toll
das war es, zumindest bis 2010 😅
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: one2know
stefan92x schrieb:
Niemand "braucht" diese Auflösung, genau wie eine 4090 ist das einfach etwas das man will. Mit weniger Auflösung kann man auch sehr gut zocken.

Ja man kann auch mit ner FX5200 bei 640x480 auf dem CRT spielen.

Und in War Thunder reichen die 5120x1440 nicht mal wegen dem krassen aliasing. Mit DLSS wird's besser aber etwas schwummrig wenn man in die Distanz schaut. Also lass ich das ganze auf wahnwitzigen 7680x2160 pixeln berechnen. Damit ist das Spiel scharf und spielbar.
 
Draco Nobilis schrieb:
Diesen Chip seht ihr niemals im Konsumer Bereich
So hatte ich das gar nicht gemeint, auch wenn der GPU-Kochplatten-Witz amüsant ist.
Mir ging es eher um Energieknappheit, falls der KI-Hype den Mining-Hype noch übertrifft.

Ayo34 schrieb:
Am Ende zählt die Effizienz und die ist massiv angestiegen und das innerhalb von 2 Jahren! Ob der einzelne Chip 1 Watt, 1000 Watt oder 100.000 Watt verbraucht spielt keine Rolle.
Ich halte Effizienz für entscheidend, wenn man die Rechenleistung betrachtet Und Nvidia scheint dabei auch starke Fortschritte zu machen.

Aber KI ist ein Wachstumsmarkt bei dem mit stark steigendem Leistungsbedarf gerechnet werden sollte. Das könnte alle Effizienzgewinne übertreffen und trotzdem zu steigendem Stromverbrauch sorgen. In dieser Hinsicht ist der Verbrauch pro Chip bzw. der Gesamtverbrauch der Branche also durchaus relevant.
 
dev/random schrieb:
Ich halte Effizienz für entscheidend, wenn man die Rechenleistung betrachtet Und Nvidia scheint dabei auch starke Fortschritte zu machen.

Aber KI ist ein Wachstumsmarkt bei dem mit stark steigendem Leistungsbedarf gerechnet werden sollte. Das könnte alle Effizienzgewinne übertreffen und trotzdem zu steigendem Stromverbrauch sorgen. In dieser Hinsicht ist der Verbrauch pro Chip bzw. der Gesamtverbrauch der Branche also durchaus relevant.

Aber wie soll der Verbrauch pro Chip interessant sein? Ist doch egal ob ein Chip 1000 Watt oder 10 Chips jeweils 100 Watt brauchen, wenn am Ende die gleiche Leistung dabei herauskommt.

Wenn die Effizienz besser wird, dann ist es immer von Vorteil. Natürlich führt das nicht direkt auch zu weniger Stromverbrauch, wenn dafür die Aufgaben wachsen. Aber man muss ja stark davon ausgehen, dass der KI Markt rasant weiter wächst und das mit den alten Mitteln, ohne Effizienzsteigerung, wäre ja noch viel fataler.

Wenn man jetzt keine neuen GPUs bringen würde, dann würden mehr der alten eingesetzt werden. Und da habe ich lieber 100 neue 1000 Watt Chips im Verkauf als 300 neue alte 500 Watt Chips. Würde man auf die 1000 Watt Chips verzichten, würde das ja nicht bedeuten, dass der AI Hype vorbei ist.

Zusätzlich brauchen wir die Entwicklung und dessen Chancen. Auch das kann ja wieder dazu beitragen, dass wir in Zukunft weniger Energie verbrauchen oder z.B. ein Kernfusionskraftwerk viel eher hinbekommen.
 
Ayo34 schrieb:
Aber wie soll der Verbrauch pro Chip interessant sein? Ist doch egal ob ein Chip 1000 Watt oder 10 Chips jeweils 100 Watt brauchen, wenn am Ende die gleiche Leistung dabei herauskommt.
Physikalischer Raum ist endlich :)
Angenommen Du betreibst ein Rechenzentrum (oder mietest Rackspace). Dann kannst Du nur eine endliche Anzahl Chips/GPUs/Server/... unterbringen. Sagen wir zum Beispiel, Du kannst in einem Rack 100 GPUs betreiben.
Dann willst Du einerseits natürlich die effizientesten GPUs, um möglichst viel Leistung mit begrenztem PLatz zu erreichen.
Andererseits ist die Stromversorgung Deines Racks endlich und Du kannst vielleicht nicht auf die neuesten Chips setzen, wenn Du statt 10kW auf einmal 100kW Stromversorgung benötigst. Oder der höhere Strombedarf verursacht zu hohe Kosten, so dass es sich für Dich nicht mehr lohnt. Du könntest natürlich 90% Deines Racks leer lassen, aber das dann auch keine optimale Nutzung.
 
stefan92x schrieb:
Ist halt schon interessant, ob ein neuer Chip 500W oder 1000W verbrät, um auf seine Leistung zu kommen.
dev/random schrieb:
Physikalischer Raum ist endlich :)
Angenommen Du betreibst ein Rechenzentrum (oder mietest Rackspace). Dann kannst Du nur eine endliche Anzahl Chips/GPUs/Server/... unterbringen. Sagen wir zum Beispiel, Du kannst in einem Rack 100 GPUs betreiben.
Dann willst Du einerseits natürlich die effizientesten GPUs, um möglichst viel Leistung mit begrenztem PLatz zu erreichen.
Andererseits ist die Stromversorgung Deines Racks endlich und Du kannst vielleicht nicht auf die neuesten Chips setzen, wenn Du statt 10kW auf einmal 100kW Stromversorgung benötigst. Oder der höhere Strombedarf verursacht zu hohe Kosten, so dass es sich für Dich nicht mehr lohnt. Du könntest natürlich 90% Deines Racks leer lassen, aber das dann auch keine optimale Nutzung.

Ich verstehe es immer noch nicht...

Wenn ein Chip mit 1000 Watt 4x soviel Leistung wie ein Chip mit 500 Watt bringt, dann habe ich:

  • mehr Leistung
  • weniger Stromverbrauch
  • weniger Platzbedarf
Wer würde sich da lieber 4x 500 Watt Chips kaufen anstelle von 1x 1000 Watt Chip?

Also nur positive Dinge und keine negativen Dinge. Und wenn man sich vorstellt das da große Unternehmen dann 30.000 dieser Chips in ein Rechenzentrum packen, dann ist das doch ein gigantischer Fortschritt im Gegensatz zu 120.000 Chips, welche man bräuchte für die gleiche Leistung. Dann wäre aber der Stromverbrauch viel höher, der Platzbedarf viel größer und insgesamt einfach alles deutlich teurer.
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Wenn ein Chip mit 1000 Watt 4x soviel Leistung wie ein Chip mit 500 Watt bringt, dann habe ich:
Dann hast du ein Szenario, dass nichts mit unserer Überlegung zu tun hat ;)

Die Frage, die sich stellt, ist halt die ganze Auslegung eines Rechenzentrums. Nvidias Leistungssteigerungen sprengen die nämlich komplett, pro Rack werden jetzt deutlich leistungsfähigere Stromversorgungen und Kühlsysteme benötigt als in den letzten Jahren üblich war.

Das führt dazu, dass man bei Umrüstungen manchmal nur noch ein halbes Rack bestücken kann oder noch weniger, und dadurch einfach viel Platz ungenutzt bleibt, den man früher komplett ausgefüllt hat. Oder besagte Systeme massiv aufrüsten muss, um wieder den ganzen Rackspace nutzen zu können.
 
Zurück
Oben