News IDF: PCIe-Switch ermöglicht 16 Grafikkarten

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.713
Auch wenn sich das Intel Developer Forum eigentlich eher mit ernsten Themen beschäftigt, so findet man durchaus von dem ein oder anderen Hersteller (nein, Intel ist es diesmal nicht) durchaus auch ein eher kurioses Produkt – zumindest aus der Sicht eines normalen Benutzern.

Zur News: IDF: PCIe-Switch ermöglicht 16 Grafikkarten
 
Hat jemand eine Ahnung, wozu solch ein Stück Hardware denn eingesetzt wird?
Ein paar Infos wären super.
 
Könnte man eventuell als internes Konkurenzprodukt von Monitorverteilern ansehen. Falls es so etwas nicht schon gibt...(?)

Oder zur schnelleren Berechnung von OpenGL basierenden Programmen wie CAD/... Obwohl man dafür eventuell wieder einen Verbund bräuchte.

XShocker22
 
ist mit sicherheit auch für grafikkarten gedacht, aber nicht unbedingt um darauf crysis & co laufen zu lassen. es sind ja bereits die ersten rechenzentren angekündigt, in denen GPUs mitwerkeln werden, um die gesamtrechenleistung zu erhöhen und ich denke genau da kann man so einen PCIe-switch auch sinnvoll nutzen.. entsprechend spezialisierte software (die CUDA & co nutzt) vorausgesetzt kann ich mir das ding in nem server richtig gut vorstellen.
 
Naja, ich weis nicht für wenn sich das rentieren soll ?!
Wie die meisten gesagt haben, Grafikkarte sind wohl das Einzigste was Sinn macht.
Aber bei Verwendung von einer einigermassen potenten Grafikkarte und dann voll bestückt
zieht die das "Ding" an die 3000 Watt = 3 kW = ~ 0,60 EUR/Std. aus der Dose.
Bisschen oversized und ziemlich weit von "Green IT" entfernt.
 
Was meinst du denn mit potenten Grafikkarten? Die Lanes sind begrenzt.... Da macht eine normale Karte wie z.B. 8800GTX eh keinen Sinn, wohl eher Matrox/Quadro/FireGL (glaube die hatten einen anderen Namen) oder untere Low-End karten. Obwohl es das auch schon ziemlich Ziel hinaus stößt

Zweite Möglichkeit wären Netzwerkkarten.

XShocker22
 
Netzteile für derart viele Grafikkarten sind wohl noch nicht erfunden. folding@home als Anwendungsvorschlag seid ihr ja von mir gewöhnt, auch über Linux lassen sich die CUDA-GPUs inzwischen als CPU-Ersatz einsetzen, siehe http://www.ps3grid.net bzw. http://www.gpugrid.net, folglich kann man alles damit recnen, was eine BOINC-Schnittstelle hat.

Kann mir beim besten Willen nicht vorstellen, daß von mit so einem Produkt hohe Absätze gelingen, für mich ein reines Show-Produkt für Machbarkeit.
 
Was ist denn auf dem Board (@CB: das ist übrigens keine "Steckkarte") mit den übrig bleibenden 16 PCIe Lanes? 48 gibt es, zwei gibt es (nach Aussage von CB) pro Karte und die restlichen 16, die bei 48-16*2 übrig bleiben? ...
 
Hmmm, 16x Matrox P690 mit jeweils 4 Anschlüssen... 64 Monitore... :evillol::evillol:

so wie diie Platine aussieht, wird die wohl in einem 19"-Gehäuse platz finden mit einer durchgehenden Slot-Backplane.

aber 16x wassergekühlte HD4870 X2 auf dem Ding und denn mal falten, der energieversorger wird euch lieben :D:D
 
Ich vermute mal, dass so ein Ding für größere Festplattenarrays in Servern genutzt wird. Praktisch könnte man in jedem Slot einen Controller verbauen. Wenn man 'nur' von einem 8-fach Controller ausgeht würde man auf 128 mögliche Massenspeicheranschlüsse kommen. Ist zwar selten dämlich, aber durchaus nicht unmöglich.
 
Marbus16 schrieb:
aber 16x wassergekühlte HD4870 X2 auf dem Ding und denn mal falten, der energieversorger wird euch lieben :D:D

Nö, eher sparsame HD3650/8800GS, welche CPU könnte denn 16 Grafikkarten mit Daten versorgen ? Immer noch günstiger als alles mit CPU alleine zu rechnen. :cool_alt:
 
ich glaube wie Stefan- auch das dieser switch für Controller eingesetzt wird...hier wären die 2 lans gar nicht mal so tragisch....und unternehmen brauchen vieell speicherplatz...und dafür nur einen server statt 10 zu nutzen is kostentechnisch gar nich mal sooo doof....;)
 
controller waren auch das erste was mir eingefallen ist, jedoch wüsste ich nicht wozu man in einem rechner >128HDDs (16Controller á 8 Ports) braucht....oder um massig monitoranschlüsse zu relaisieren, wozu auch immer :D

weiß jemand was diese kleine steckplätze in denen schon irgendwas drin sitzt, sind?
 
Hier wird dauernd über Spiele gesprochen. Wenn man da GraKas reintut dann doch wohl nur, um CUDA und so einen Kram drauf laufen zu lassen, oder spricht da irgendwas dagegen? Das wären dann theoretisch knapp 40TFlops (bei 4870X2s; für gut 4kW doch recht sparsam)
 
Ist wohl eine Machbarkeitsstudie. So viel Storage wird nicht an einem Server bereitgestellt, sondern in einem SAN, wo dann nach Belieben (oder Budget) viele Storage-Devices hängen.

Also:
- Storage scheidet aufgrund Sinnlosigkeit aus (SAN ist praktischer, redundanter und für alle gleich schnell)
- 64 Monitore auf einem Host ist völliger Irrsinn. Was will man denn da darstellen, ohne einen brutalen Powerrechner zu brauchen, der nicht wirklich leise zu kriegen ist, wo man dann wieder 64 Monitore nicht hinstellen kann? Lieber mehrere Einzelrechner nehmen; wäre wahrscheinlich auch billiger...
- Soviele Netzwerkkraten braucht kein Mensch. Entweder man nimmt einen gescheiten Switch oder man arbeitet mit VLANs oder beides.
- Selbst wenn mann in einem Rechner 4 HDD-Controller, 4 Grafikkarten, ein paar Messkarten, Soundbearbeitung, und noch eine Kamera-Controllerkarte einbauen könnte, wird kein Mensch so etwas machen, da man dann n Systeme hätte, die auf einer Maschine laufen. Wenn eine Funktion Mucken macht: Zwangstreiberupdate mit ungefragtem Neustart zum Bleistift... Dann sollte man lieber ein paar einzelne Systeme nehmen...
 
Zurück
Oben