News Intel: 50-fache Performance in sechs Jahren im HPC-Segment

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.413
Zum Auftakt der diesjährigen European Research & Innovation Conference (ERIC) im französischen Nizza betonte der Chef der Intel Labs in Europa die Wichtigkeit der Forschung und Entwicklung auf dem Kontinent. Ein Standbein sei die Exascale-Forschung, die in den kommenden Jahren imposante Ergebnisse zeigen soll.

Zur News: Intel: 50-fache Performance in sechs Jahren im HPC-Segment
 
in den letzten 3 Jahren hab ich bestenfalls 30% mehr Performance gesehen, jetzt heißt es dass man in 6 Jahren 5000% mehr Performance haben wird ? :p ( ich weiß Konsumer etc. variieren, aber warum mit Zahlen Prahlen wenn der Konsument davon nie etwas sehen wird ? )
, abgesehen davon, heißt es nicht dass man die Prozesse der CPU nciht endlos parallelisieren kann, ergo bringen auch mehr Kerne ncihts
 
Bin ja mal gespannt - Ich glaub Seagate meinte auch mal dass bis 2012 20 TB Festplatten absolut kein Problem seien.
Das gleiche läuft ja auch in der Fusionstechnologie - vor 50 Jahren hieß es - in 50 Jahren ist er betriebsbereit. Heute heißt es immernoch - in 50 Jahren ist er betriebsbereit.
 
Dann rüste ich meinen Pc besser noch nicht auf.

10 Mio Kerne, was nützt das wenn viele Programme den Rechenaufwand schon nicht auf 2 Kerne verteilen können?
 
Die reine Performance zu erreichen ist „locker“ machbar, wäre da nur nicht der Energiebedarf.

locker?

Wenn man pro Fertigungsnode die Packungsdichte verdoppeln kann, dann müßte 2020 ein "7nm Knights Corner" "nur" 1776mm² groß sein um die 50-fache Performance (angenommen als 50-fache Transistorzahl) zu bringen. Wenn man nicht noch hier und da was optimiert kann scheint das "locker" etwas optimistisch.

Ich bin gespannt.
 
sry scheissdreck.

tut mir leid das ich es so sagen muss.

ich kann heute schon den exaflop bauen wen ich einen 50 ma so großen supercomputer habe einfach 25 gebäude a 2x das vom aktuellen flagschiff ende.

die haben nicht gesagt in welcher größe also ob gleiche anzahl kerne oder karten oder selbe cpu zahl oder sonst was.
reine pr sache.

wen er mir jetzt zusichert das er mit doppelter hardware also 2x so viel cpu´s und 2 ma so viel gpu´´s das in 6 jahren hinbekommt dann sag ich glaub ich nicht das wäre eine rießen leistung.

wen man bedenk sie müssten in 6 jahren die leistung x25 schaffen. wen sich cpu größe und gpu größe nicht verändert gehn wir aber davon aus das es so ist müssten sie ca:

bei der doppelten größe heutiger super computer eine verfünfachung der leistung bringen.

was echt extreme gut währe.
wohl gemerkt wen sie regelmässig shrinken können und somit mehr transistoren auf ein immer leicht größer werdendes die bekommen.

ist also schon ein enges fenster das er sich da auferlegt.
gehe aber davon aus die rechnen das einfacher

die werden erst ma den wackstum der rechenzentren einrechnen wo man in 6 jahren ca bei der 3 fachen fläche heutiger ankommen wird.
dazu werden cpu´s nochma 60% transis zulegen karten werden etwas weniger geschätz zulegen da die dies dort recht am größen limit sind.

denke so ca wird er das sich vorstellen.
 
Zocker & Schnüfflerbranchen brauchen sowas um schneller zu werden indem was Sie tun , der Gesellschaft nützt das nur leider nichts, im Gegenteil.
 
Wirklich spannend wird das erst wenn die nächste Energierevolution kommt, also sowas wie der Sprung von Holz auf Kohle auf Öl auf Kernenergie.

Wie der Herr ausgeführt hat ist die Leistung technisch nicht das Problem, der Energieaufwand ist es bezogen auf unseren heutigen Output.

Vielleicht erleb ichs noch.

P.S. natürlich nutzt viel Rechenleistung ALLEN. Alle wichtigen Bereiche nutzen Simulation/Modelling um ihre Theorien zu entwickeln (Chemie Nobelpreis ging gerade an genau sowas), heute mehr den je notwendig. Woher glaubt ihr denn kommen die neuen Erkenntnisse?

@LundM
Bevor man motzt könnte man sich schon die Güte geben den Text zu lesen ja?
Das Kriterium: selber Energieverbrauch wie heutige Nr.1, nur eben 50x effizienter.
 
Zuletzt bearbeitet:
LundM schrieb:
sry scheissdreck.

tut mir leid das ich es so sagen muss.

[...]
Du hast mitbekommen, dass die die 50-fache Leistung bei gleichem Energieverbrauch erreichen wollen?
Denn damit ergibt mal mindestens die Hälfte deines Posts überhaupt keinen Sinn.
 
Intel und Leistungssteigerung? :D
Das hat man ja seit Sandy gesehen...
seeeehr groß diese Leistungssteigerung

Natürlich, dass ist möglich, aber die warten damit auf Amd :D
 
TNM schrieb:
Wirklich spannend wird das erst wenn die nächste Energierevolution kommt, also sowas wie der Sprung von Holz auf Kohle auf Öl auf Kernenergie.

Wie der Herr ausgeführt hat ist die Leistung technisch nicht das Problem, der Energieaufwand ist es bezogen auf unseren heutigen Output.

Vielleicht erleb ichs noch.

P.S. natürlich nutzt viel Rechenleistung ALLEN. Alle wichtigen Bereiche nutzen Simulation/Modelling um ihre Theorien zu entwickeln (Chemie Nobelpreis ging gerade an genau sowas), heute mehr den je notwendig. Woher glaubt ihr denn kommen die neuen Erkenntnisse?

@LundM
Bevor man motzt könnte man sich schon die Güte geben den Text zu lesen ja?
Das Kriterium: selber Energieverbrauch wie heutige Nr.1, nur eben 50x effizienter.

ich habs gelesen deswegen hab ich die energie aussen vor gelassen.
ja das mit heute exaflop ist etwas übertrieben meiner seits.

nur energie bedarf sinkt mir gehts eher darum wollen sie das nur über energie vergleichen oder auch an der größe sprich änliche hardware daten.

alleine auf grund der technologischen fertigung sinkt der energie bedarf weil du die vcore immer weiter runter machen musst je feiner das ganze wird.

also sinkt der verbrauch je core wird aber durch zb core oder thread erhöhung aufs alte target gepusht was leistungs zuwacks bringt.
 
hm naja die 50-fache Performance bezieht sich ja nicht auf das Desktop segment.

@BuffyYasha

Das gleiche läuft ja auch in der Fusionstechnologie - vor 50 Jahren hieß es - in 50 Jahren ist er betriebsbereit. Heute heißt es immernoch - in 50 Jahren ist er betriebsbereit.

Wikipedia
Am 9. November 1991 konnte am JET erstmals eine nennenswerte Energiemenge aus kontrollierter Kernfusion freigesetzt werden. Ein Deuterium-Tritium-Plasma lieferte zwei Sekunden lang eine Leistung von 1,8 Megawatt. 1997 wurde eine Fusionsleistung von 16 Megawatt erreicht, wobei allerdings 24 Megawatt für die Plasmaheizung erforderlich waren.[5]

Die Kernfusion funktioniert schon längst nur bekommt man eben weniger engergie raus als man reinsteckt.
 
LundM schrieb:
ich habs gelesen deswegen hab ich die energie aussen vor gelassen.
ja das mit heute exaflop ist etwas übertrieben meiner seits.

nur energie bedarf sinkt mir gehts eher darum wollen sie das nur über energie vergleichen oder auch an der größe sprich änliche hardware daten.

alleine auf grund der technologischen fertigung sinkt der energie bedarf weil du die vcore immer weiter runter machen musst je feiner das ganze wird.

also sinkt der verbrauch je core wird aber durch zb core oder thread erhöhung aufs alte target gepusht was leistungs zuwacks bringt.
Ich versteh einfach nicht worauf du raus willst.
Sie wollen 2018/2019 mit der gleichen Energie, wie jetzt die Nr. 1 verbraucht, eine 50-fache Leistung erreichen.
Dass das nicht mit der gleichen Hardware wie bisher erreicht wird, ist doch völlig logisch. Also warum sollten die sich auf Größe des Rechners / Anzahl Kerne oder sonstwas jetzt schon festlegen?
 
dann funktioniert sie aber nicht wie angekündigt :p

angepeilt war ja 1,25 facher ertrag der inwestierten leistung wen ich mich recht erinnere.

energie zu erzeugen beim energie verschwenden können wir heute schon bringt uns aber nicht weiter :)
holzkohle zb da verbrauchen wir beim herstellen mehr energie als sie nacher freisetzt.

ausser wir warten halt ewig und 3 tage bis mutter natur das produkt hergestellt hat:)
 
Fragesteller schrieb:
Die NSA wird es kaufen .... wenn die USA bis dahin nicht pleite sind.
Die NSA kauft nicht bei Intel?! Oh man, immer diese Kommentare....
 
Zurück
Oben