News Nvidia kündigt viertägige Entwicklerkonferenz an

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.412
Ich werde die Tests wohl erst am Dienstag lesen können, ärgert mich jetzt schon!

@Topic
Das gute alte Fortran :) Da gibt es so viele moderne Programmiersprachen, aber Fortran77 / 90 ist halt nicht tot zu kriegen. Find ich toll!

Ohne gesucht zu haben, gibts die Paper nach der Konferenz eigtl irgendwo zum Download?
 
Klingt gut die Veranstaltung aber natürlich wird wieder alles exklusiv auf CUDA ausgelegt sein und den Umgang mit dem (angeblich) nativen C++ Support der Fermis. Die erwähnten Schnittstellen sind zwar alle auch für AMD "verfügbar" aber offensichtlich wird wieder versucht der GPU-Computing Vorteil auch auf den offenen Plattformen zu halten. Eigentlich ja auch logisch :-/
 
Die Tatsache, dass die Konversation, die mehr Inhalt hatte als die News selber, mal wieder ins Aquarium verschoben wurde, zeigt m. M. n. deutlich, wie wenig Sinn es macht, bei einer solchen News auf sinnvolle Kommentare zu achten BZW. überhaupt welche zu erlauben.

Guten Tag, die nächste Betriebsratssitzung wird am 19. Mai 2010 stattfinden. Es wird wie immer über das Unternehmen geredet, wie jedes mal. Hauptaugenmerk liegt vermutlich auf den Produkten des Unternehmens. Genaueres dann auf der Betriebsratssitzung.

Diese Meldung kommentieren


Schwachfug
 
@ Qbix

Das kennen wir doch, auch wenns traurig ist. Kaum steht nVidia in der Topic gehts los mit GTX470/480 blablabla. Dabei hat das Unternehmen mitlerweile bedeutend interssantere Sachen zu bieten. Was natürlich auch an der zweifelhaften Qualität bzw. dem Preis der neuen Consumer-Karten liegt.
In der News aber auch DirectX vor was im professionellen Bereich mal gar nichts zu tun hat. Fachbezogene Diskussionen zu GPU Computing in Spielen wären hier ganz gut beheimatet, aber das eignet sich wohl zu schlecht zum flamen ;-)
 
Hoffentlich wird wieder vieles Übertragen. Letztes Jahr war es ja selbst für Laien höchst interessant und beeindruckend zuglerich.
 
Ein Student hatte bei uns eine Arbeit geschrieben, bei der er mittels GPU Unterstützung Turbulenzberechnungen in der Fluiddynamik machen wollte (C++ und Fortran). Heute wird das meiste immer noch nur auf CPUs gerechnet, hauptsächlich auf Supercomputern. Wenn ich mich richtig erinnere, wurden die Berechnungen bis zu dreissig mal schneller gerechnet als nur alleine auf den CPUs der Workstation (Anmerkung: vernünftige Rechenzeiten liegen zwischen 8 Stunden und 3 Tagen, je nach Versuch und Modell!). Es freut mich zu hören, dass die zusätzliche Leistung immer mehr einzubinden versucht wird und sie nicht einfach nur brach liegt.
Btw: Sollte heute nicht eine andere Meldung bezüglich nVidia bekannt werden?
greetz
 
Zurück
Oben