News AMD Epyc mit Zen 5: Next-Gen-Server-CPU soll mit bis zu 600 Watt cTDP kommen

Ob früher ein vier Sockelsystem 600 W verbrauchte, oder jetzt ein "Ein-Sockelsystem" ist egal insofern die Effizienz die selbe ist, und die hohe Watt zahl nicht nur für den Taktboost drauf geht.

Interessanter finde ich an der Geschichte, dass sich Server CPUs immer mehr vom Desktop CPU entfernen. Selbst für eine Workstation wäre solch eine CPU wohl zu viel.
 
  • Gefällt mir
Reaktionen: Kandalfus
devVvon schrieb:
Wo sind die AMD-Fanboys die unter die Intel Beiträge immer schreiben das sie Zuviel Strom verbrauchen
Die benutzen höchstwahrscheinlich keine Epyc Server-CPUs, sondern die Ryzens aus dem Endkundensegment.
 
  • Gefällt mir
Reaktionen: Smartbomb, cbmik, Vladimir und 5 andere
devVvon schrieb:
Wo sind die AMD-Fanboys die unter die Intel Beiträge immer schreiben das sie Zuviel Strom verbrauchen, achja es ist ja AMD, deswegen ok.

Naja es ist ne Server CPU mit "bis zu" 256 Kernen...
AMD: 600W/256Kerne = 3W/Kern (ich Runde mal großzügig auf)
Intel: 240W/16Kerne = 15W/Kern (ebenfalls etwas gerundet)

Natürlich ist das ein Vergleich Server vs. Desktop. Aber wenn du Äpfel mit Birnen vergleichst, mach ich das auch mal ;-)

Unterschied wäre auch, beim AMD darf die CPU diese Leistung "Kurzzeitig" verbrauchen, bei Intel darf eine K CPU das dauerhaft...
 
  • Gefällt mir
Reaktionen: Smartbomb, CableGuy82, Sam Miles und 13 andere
@devVvon Mehr Verbrauch bei mehr Leistung ist ja OK, also wenn die Leistung stärker steigt, als Verbrauch.
Intels Skylake (spätere) und Icelake/Rocketlake und auch AMDs Bulldozer haben letzteres nicht befolgt und haben einen entsprechenden Ruf
 
  • Gefällt mir
Reaktionen: CableGuy82
PUNK2018 schrieb:
AMD: 600W/256Kerne = 3W/Kern (ich Runde mal großzügig auf)
Davon gehen locker 100~150W an den IO Die
 
Was INTEL und nVidia kann (Strom verbraten), kann AMD schon lange (Bulldozer/Vega) ... :evillol:

MfG Föhn.
 
@Rickmer : sicher, ich habe STARK vereinfacht... IO Die möchte etwas haben, bei Intel der Anteil an IO ebenfalls... es ist ne grobe überschlagsrechnung und soll einfach zeigen wie viel ein Kern schlucken "dürfte", ich gehe mal davon aus das bei Auslastung aller 256 Kerne der IO DIE auch am schwitzen ist...
Edit1:
Der Vergleich von mir ist halt einfach nur scheiße :D Aber eine Aussage aus dem Kontext zu reißen eben auch ;-) (du bist nicht gemeint).

Ich denke wir haben bei Serverprozessoren einer massiven steigerung der Effizienz von Generation zu Generation. Insbesondere da die Energiekosten beim Betrieb eben auch ein Faktor ist.

Anschaffungskosten (1Socket vs. nSocket)
Energiekosten (1 Effizienzkanone vs. x Effizienzversager)
Klimakosten = Energiekosten durch die HIntertür --> der Serverraum muss ja auch auf Temperatur gehalten werden...

Edit2:

die letzten Server die ich zusammengestellt habe waren alles nurnoch 1Socket Systeme, man brauch inzwischen nicht unbedingt mehr...
 
  • Gefällt mir
Reaktionen: CableGuy82
"Next-Gen-Server-CPU soll mit bis zu 600 Watt cTDP kommen".

Mit so einer Schlagzeile sollte man doch eigentlich für reichlich Shitstorm sorgen (können). Aber es scheinen ja doch deutlich mehr Leute zu verstehen, was das wirklich bedeutet. :D
 
  • Gefällt mir
Reaktionen: CableGuy82, Celinna, DonL_ und 2 andere
Wo ist das Problem? Milan hatte eine cTDP up to 400W bei max. 8 Chiplets.
Genoa hat up to 600W cTDP bei 12 chiplets.


Also alles im grünen Bereich
EDIT:
Upsi, da war ich wohl etwas zu voreilig.
Aber max. cTDP ist doch trotzdem soetwas wie OC?
Wohl ein Feature für die Leute die den in eine Workstation bauen?

Den Trend kann ich aber keinesfalls gutheißen. Hüben wie drüben.
 
Zuletzt bearbeitet: (Ergänzt + Korrigiert)
Im groben Vergleich wird die Kernzahl verdoppelt als auch die elektrische Leistungsaufnahme. Die Effizienzsteigerung hängt dann im Wesentlichen von IPC- und Taktsteigerung ab.

Die Data Center wird es freuen, es steigert sich die Zahl der CPU-Kerne pro Volumen bei steigender Energieeffizienz.
 
  • Gefällt mir
Reaktionen: CableGuy82
Ob CPU oder GPU, vom Leistungshunger geht das irgendwie in die falsche Richtung.

Klar können die 256 Kerne mehr als die 96 zuvor, aber ist das der richtige Weg. Ist es nicht sinnvoller eine maximale Stomaufnahme solcher Komponenten verbindlich zu Deckeln und die Ingenieure sind gezwungen alles daran zu setzen in diesem Limit das beste raus zu holen? Das zwingt zu Innovation.
 
Herdware schrieb:
Der Umwelt dürfte es realtiv egal sein, wie viel eine einzelne CPU maximal verbraucht.
Relevanter ist das Performance/Watt und darauf legen auch Server-Betreiber schon aus anderen Gründen als nur Liebe zur Natur großen Wert.
Es wäre überraschend, wenn die kommenden Epyc-CPUs sich dabei gegenüber den Vorgängern verschlechtern
Vor allem kommt es auf die Kühlung an. Wenn ich natürlich fette Klimas brauche ist das schlimmer als ne 700 Watt CPU
 
Hydrogenium schrieb:
Ob CPU oder GPU, vom Leistungshunger geht das irgendwie in die falsche Richtung.

Klar können die 256 Kerne mehr als die 96 zuvor, aber ist das der richtige Weg. Ist es nicht sinnvoller eine maximale Stomaufnahme solcher Komponenten verbindlich zu Deckeln und die Ingenieure sind gezwungen alles daran zu setzen in diesem Limit das beste raus zu holen? Das zwingt zu Innovation.
Das wäre doch echt der falsche Weg. Besser dafür sorgen, dass Strom immer klimaneutraler wird.
 
Server an! Licht aus! :D
 
  • Gefällt mir
Reaktionen: ArcherV
Esenel schrieb:
AMD macht alles für die Umwelt! :-)
Greta approves.
Ein R720 zieht im Standby etwa schon 100 W nur durch seine Kühlung und wenn durch eine derartige CPU mit sagen wir mal 256 Kernen Quad Socket Systeme ältere Baurt ersetzt werden können doch doch...
 
  • Gefällt mir
Reaktionen: CableGuy82
Volker schrieb:
Ja so funktioniert die Rechnung aber oft nicht.
Stimmt schon, aber man muss schauen, wo diese Rechnung durchaus stimmen kann. Bei uns in den Rechenzentren würde das zum Teil wunderbar hinauen, da wir nicht unbedingt mehr Leistung brauchen und ein oder zwei Server mit hier 128 oder gar 256 Kernen locker das halbe Rechenzentrum ablösen könnten, wäre da nicht ein kleiner Umstand. ;)

Deswegen schrieb ich ja auch: Allgemein sollten wir über die Umweltfreundlichkeit einer neuen CPU lieber nicht schreiben, denn das fängt ja bereits mit der Herstellung an.
LamaMitHut schrieb:
Was meinst du denn, welche Materialschlacht heute für so viel Leistung geführt werden müsste?
Das Problem ist, dass diese Materialschlacht auch mit den neuen CPUs geführt wird. Nur das diese Materialschlacht zu mehr Rechenleistung führt. Volker hat da schon recht. Nich jeder denkt da wie ich gerade oder andere in der IT, die nur eine gewisse Rechenleistung brauchen und damit eher Server ersetzen würden, weil uns das günstiger kommt am Ende.

Ich hab einen Betrag X pro Jahr, denn ich ausgeben darf, davon muss ich sehr viel abdecken und wenn ich da Geld sparen kann: Mach ich das! Wenn man aber wie die großen Unternehmen quasi immer mehr Rechenleistung braucht, dann versucht man nicht zu sparen, sondern gibt es einfach aus.
Herdware schrieb:
Wenn der Bedarf an Rechenleistung immer weiter wächst, kann man aber schlecht den CPU-Herstellern die Schuld dafür geben.
Nein, das stimmt schon, denen kann man nicht die Schuld geben. Allgemein sollte wir aber manche Sachen aktuell auch mal hinterfragen!
Salutos schrieb:
Naja, wenn der Stromverbrauch (dummer Client) in der Fläche, beim Verbraucher, in gleichem Maße zurückgeht wäre das ja kein Problem.
Geht er aber leider nicht und mit den ganze Cloud-Systemen wird zwar ein Teil der Rechenleistung verlagert, gleichzeitig hast du aber immer noch teilweise recht "mächtige" Thin-Clients die gut Strom verballern und da du nun vieles über die Datenleitungen schickst, hat man da auch gleich mehr Energie, die benötigt wird.
[wege]mini schrieb:
Die Softwareheinis sind schuld. Die sind unfähig.
Du glaubst nicht, wie nah du mit dieser Aussage der Wahrheit kommst. Wir haben doch hier mit der News zu ElevenClock schon so ein Beispiel. Ließ dir mal die Verbesserunghen der ElevenClock durch und was da für Ressourcen im Rechner aufgewendet werden müssen um auf dem 2, 3 oder 4. Display eine Uhr anzuzeigen.

Und warum? Weil der Schüler zwar das "Problem" der fehlenden Uhr lösen kann, dafür aber in dem Fall den schlechtesten Weg geht, den man da gehen kann: Skriptsprache, die über einen Interpreter läuft und damit viel Overhead erzeugt.

Und ähnlich sicht es auch heute auf den Servern teilweise aus, wenn es m Rechenleistung geht, da verpufft sehr viel Rechenleistung auch in den Skriptsprachen, weil die Skriptsprache hip und einfach ist, während eine andere Sprache besser geeignet wäre und weniger Overhead erzeugt.

Ich merke das ja an mir selbst auch immer etwas, dass ich manchmal aus Bequemlichkeit den einfachen weg gehe, damit aber auch Ressource verschenke, weil sie eben da sind.
 
  • Gefällt mir
Reaktionen: ColonelP4nic, CableGuy82, Hatch und 3 andere
[wege]mini schrieb:
Man könnte auch noch berechnen, dass 256 Kerne maximal 600 Watt verbrauchen.

Wenn man sich so diese Leistungsaufnahme anschaut wird auch klar, warum große Cloud Anbieter wie Amazon auf ARM migrieren.
 
Discovery_1 schrieb:
"Next-Gen-Server-CPU soll mit bis zu 600 Watt cTDP kommen".
Mit so einer Schlagzeile sollte man doch eigentlich für reichlich Shitstorm sorgen (können). Aber es scheinen ja doch deutlich mehr Leute zu verstehen, was das wirklich bedeutet. :D
Crysis remastered in 16k mit 240 fps :evillol:
 
  • Gefällt mir
Reaktionen: latexdoll
devVvon schrieb:
Wo sind die AMD-Fanboys die unter die Intel Beiträge immer schreiben das sie Zuviel Strom verbrauchen, achja es ist ja AMD, deswegen ok.
* L OO L * Alles wird gut :daumen:
 
  • Gefällt mir
Reaktionen: CableGuy82, devVvon und latexdoll
Zurück
Oben