PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Tesla K10 - "GTX 690" mit 2x4GiB


AnarchX
2012-05-15, 11:33:12
http://www.eetimes.com/ContentEETimes/Images/Tesla%20K10%20x%20420.jpg


Nvidia packs two Tesla K10s on a single PCI Express Gen 3 board to deliver 4.58 teraflops of single-precision floating point performance and 320 gigabytes per second of memory bandwidth. The board is available now from vendors including Appro, Dell, HP, IBM, SGI and Supermicro with a double precision version, the model K20, coming in the fall.

]Nvidia builds the Tesla boards itself, and sells them for prices ranging from $1,500-$2,500. They support ECC memory and parallel programming models such as the message passing interface (MPI) and are cooled by server chassis subsystems. By contrast Nvidia consumer graphics boards are built by third parties, sell for $99 to $1,000 and use their own fans but lack ECC memory and MPI support.

The Tesla chips are based on the same 28 nm Kepler core Nividia announced for consumer graphics chips in March. It sports 1,536 Nvidia proprietary Cuda rendering cores and 192 control logic cores on a GHz clock. That’s up from 512 and 32 cores in the 40 nm Fermi parts that ran at 772 MHz.


http://www.eetimes.com/electronics-news/4372936/Nvidia-upgrades-Tesla--eyes-cloud-gaming

Dural
2012-05-15, 11:36:01
:confused::confused::confused:

da muss GK104 im Desktop bereich ja richtig eingebremst werden, den mit dieser leistung würde man die kaum als Tesla verwenden :rolleyes:


Edit:
also ich bin jetzt gerade etwas sprachlos, GK104 scheint alles zuhaben wie eine *grosse* GPU :eek: :confused:

AnarchX
2012-05-15, 11:41:11
also ich bin jetzt gerade etwas sprachlos, GK104 scheint alles zuhaben wie eine *grosse* GPU :eek: :confused:
Wer sagt das?

Man bietet wohl hier eine Tesla Karte die mit 4,58 TFLOPs SP auftrumpfen kann, bei EETimes wird von 1,8-facher Leistung gegenüber einer M2090 (1xGF110) von einem Entwickler gesprochen.
Insgesammt ist die Karte wohl relativ günstig und eher für seichtes Computing (Cloud-Gaming,...) gedacht.

Dural
2012-05-15, 11:46:21
ECC, DP mit 1:2

schon das GK104 ECC hat überrascht mich schon etwas, obwohl das technisch wohl keine grosse sache ist.

Edit:
OK 1:2 scheint auf GK110 bezogen zu sein, was hat GK104 den jetzt?

AnarchX
2012-05-15, 11:49:06
Laut aktuellem Stand ist DP 1/24 SP und die K10 hätte damit weniger DP-Leistung als die GF110/100-Teslas.

Skysnake
2012-05-15, 12:36:14
Also ich raffs grad auch nicht....

Mal ne kleine Zusammenfassung:
1.1 Der Code soll 1,8x schneller sein??? DP oder SP? Das muss erst mal geklärt werden. Wenns SP ist, dann ist das nicht sonderlich toll, weil ja 2 Chips drauf sind
1.2 Muss eigentlich ne SP Anwendung sein, ansonsten hätte nVidia bei GK104 "gelogen", weil da ja gesagt wurde, DP sei 1/24, was dann ja wohl nur per Beschneidung sein dürfte, und nicht per Hardwarevorgabe. Sehr unschöne wäre so etwas
2.1 Ok, der Code ist 1,8x schneller bei gleichem Stromverbrauch: Das ist sehr schön erst mal. Wenn SP ist das auch Nachvollziehbar, wenn DP sehr sehr sehr nice.
2.2 Hier sind es nur 1,8x, wo sind denn die 2,5x Perf/W die versprochen wurden?
2.3 Die 2090 ist ja GF110, wenn ich mich richtig erinnere, also effizienter als die anderen, also schön, das man hier 1,8x bessere Perf/W hat.

Allgemein ist die Nachricht aber ziemlich bescheiden. :(

Einige freuen sich jetzt darüber, das man ne neue Tesla hat, aber man muss bedenken, das GK110 damit noch deutlich länger auf sich warten lassen wird, oder glaubt jemand, das nVidia schon in <6 Monaten ne neue Tesla raus bringt?

Vor allem, ne Dual-GPU für Compute...

Also sorry, ich versteh nVidia grad überhaupt nicht.

AnarchX
2012-05-15, 12:37:26
Tesla K20 wurde für den Herbst angekündigt.

Skysnake
2012-05-15, 12:53:53
Unverständlich, absolut unverständlich.

Welche Absicht/Plan verfolgen Sie bitte mit so einer Karte?

Sorry, aber ich raffs absolut nicht. Was will ich mit so nem Ding? Gut SP-Leistung ist super, aber da kann ich mir auch gleich ne Consumer-Karte holen...

Vor allem was den Speicher anbelant ist das ein massiver Rückschritt. 2 bzw 4 GB RAM. Bei den M20x0 gabs 3-6 GB ram.

Und vor allem, wenn K20(?) dann wirklich schon im Herbst kommen soll, warum sollte ich mir dann jetzt ein K10 besorgen? Das wäre ja nur für solche Cluster interessant, die wirklich sehr spezifische Anforderungsprofile haben. Für Cluster, wo viele unterschiedliche Sachen laufen, wäre K20 dann die deutlich bessere Wahl.

Nur die Preise finde ich für Teslas sehr! moderat.

Soll das jetzt ne low-cost Schiene werden? :ugly:

Sorry, ich verstehs wirklich nicht.

Btw.: Was ist denn mit MPI-Funktionalität von K10 gemeint?

boxleitnerb
2012-05-15, 13:02:11
Vielleicht weil BigK noch nicht da ist?

RLZ
2012-05-15, 13:06:52
Gut SP-Leistung ist super, aber da kann ich mir auch gleich ne Consumer-Karte holen...
- ECC Speicher
- Kühlsystem
- MPI (http://www.mcs.anl.gov/research/projects/mpi/) Support
- Kostet jetzt nicht wirklich viel. Als Informatiker ist man nur gewohnt, dass Gerätschaften quasi gar nichts kosten.

Skysnake
2012-05-15, 13:12:45
RLZ, was MPI ist, ist mir schon klar.....

Ich glaub du hast die Frage nicht verstanden. Wie soll ne GK104 MPI unterstützen?

Bzw. wie ist das gemeint, und welche Folgen ergeben sich daraus?

Es ist eher als hint gemeint, um sich da mal ein paar Fragen zu stellen. Mir ist noch nicht 100% klar, wie das gemeint ist, aber ich bin mir schon recht sicher, was damit gemeint ist, was mich doch etwas verwundern würde, dass das so unbedacht bleibt bis jetzt.

Hugo78
2012-05-15, 13:42:38
Unverständlich, absolut unverständlich.

Welche Absicht/Plan verfolgen Sie bitte mit so einer Karte?

Sorry, aber ich raffs absolut nicht. Was will ich mit so nem Ding?

Irgendwer wird ein haufen Rechenarbeit haben, wo man nicht "100 Stellen hinter dem Komma" genau sein muss, aber doch ECC braucht und für den wird K10 interessant sein.

Im Text gibt es die Beispiele der Videoanalyse und Auswertung von Geodaten zur Rohstoffsuche.

Wie stehts mit Suchanfragen in Datenbanken, oder was für HW braucht zb. Youtube um all die Millionen hochgeladenen Userclips in ihre Formate umzuwandeln?
Muss da jeder Farbwert ins kleinse Detail stimmen, oder kommt man mit einer Abweichung im 0,01% Bereich klar?

Leonidas
2012-05-15, 14:54:41
Hat die EETimes nicht was von CloudGaming gesagt? Das sind ja letztlich auch nur normale Grafikberechnungen, wichtig ist da die Virtualisierung (vorhanden) und ein gutes Performance/Watt-Verhältnis (wohl auch vorhanden). DP ist da nicht vonnöten - man könnte allerhöchstens fragen, weshalb da nicht normale Gamer-Karten verbaut werden. Aber da gibt es wohl keine Gewährleistung, wenn die 24h/365t im Betrieb sind.

Gipsel
2012-05-15, 15:03:04
http://www.eetimes.com/ContentEETimes/Images/Tesla%20K10%20x%20420.jpg

http://www.eetimes.com/electronics-news/4372936/Nvidia-upgrades-Tesla--eyes-cloud-gaming

Nvidia packs two Tesla K10s on a single PCI Express Gen 3 board to deliver 4.58 teraflops of single-precision floating point performance
[..]
The Tesla chips are based on the same 28 nm Kepler core Nividia announced for consumer graphics chips in March. It sports 1,536 Nvidia proprietary Cuda rendering cores and 192 control logic cores on a GHz clock. That’s up from 512 and 32 cores in the 40 nm Fermi parts that ran at 772 MHz.
Um das dann mal klar zu sagen, nur die Consumerchips (Geforce) laufen mit ~1GHz, die Tesla K10 offenbar mit deutlich weniger. Auf die angegebene Peakleistung kommt man mit 745MHz (1536 SPs * 2 Flops * 2 GPUs * 0,745GHz = 4,58 TFlop/s) oder die nehmen sogar die Salvage-Version dafür und takten das Teil auf immer noch sehr moderate 852 MHz (1344 SPs * 2 * 2 * 0,852GHz = 4,58 TFlop/s), um im 250W Power-Budget zu bleiben.

Pro GPU (also nicht pro Karte) wird man da schwerlich irgendwo deutlich über der M2090 liegen können (und bei DP geht man im Vergleich völlig unter), was sich ja auch schon bei den vermutlich ziemlich best case Zahlen von 1,8 fache Performance der Karte mit 2 GPUs gegenüber einem einzigen GF110 zeigt (und der Algo skaliert vermutlich recht perfekt).

Ich persönlich halte diese Dual-GPU-Dingens für maximal mittelprächtig. Für einige Sachen geht es ganz gut, aber im Prinzip hat man zwei getrennte GPUs pro Knoten, die auch entsprechend angesteuert werden wollen. Ist einfach eine zusätzliche Ebene und damit Komplikation für die Software (die bei einigen Problemen das Scaling behindern dürfte). Und man hat eben beim 8GB-Board auch nur 4 GB pro GPU (davon wohl nur 3,5 GB nutzbar, wenn ECC aktiv), da kann man wirklich auch die Consumer-Variante kaufen (etliche Unis werden das sicherlich auch tun, die haben kein Geld zu verschwenden), zumal das ECC-Feature für viele Sachen (ich würde sogar sagen die meisten) eher Placebo als wirklich notwendig ist (und es auch die Performance senkt). EDC (das Fermi noch nicht konnte) erschlägt die übergroße Anzahl der Speicherfehler (nämlich die Übertragungsfehler bei hochgetakteten Speicherschnittstellen, Bitflips durch kosmische Höhenstrahlung sind eigentlich ziemlich selten). Viele Teslas außerhalb großer professioneller Cluster laufen vermutlich mit abgeschaltetem ECC (zumindest außerhalb spezieller Anwendungsfelder und wenn die Nutzer ein wenig drüber nachdenken ;)) oder man nutzt gleich Consumerkarten. Mit dem K10 fällt noch die volle DP-Geschwindigkeit als Argument für Teslas weg, der Haupanwendungsbereich der K10 dürften also entsprechende Clusterlösungen werden. Kaum einer wird den Bedarf spüren, sich so ein Teil in eine Standalone-Kiste zu stecken.

Hugo78
2012-05-15, 16:32:53
@Gipsel

Ein paar Sachen kurz:
1. TDP - Bei Tesla doch sogar eher 225W, statt 250W.
2. Hast du pro GPU 2290 GFlops SP für K10 vs. 1331 GFlops SP für M2090.
Was davon ankommt und wie optimiert der Code jetzt schon ist, ist bis jetzt reine Spekulation.
Könnte auch sein, dass in Zukunft aus 1,8 dann > 2,5 wird. (4580 GFlops sind ja fat 3,5 mal mehr als ein M2090).
3. Dann der Preispunkt: 1500-2500 USD (K10) vs. 4000 USD M2090.
4. CUDA 4.0 zielte doch schon auf eine bessere Verwendung von mehreren GPUs ab. - http://www.golem.de/1102/81763.html
Mit GPUDirect 2.0 unterstützt Nvidias CUDA 4.0 Peer-to-Peer-Kommunikation zwischen GPUs, die in einem einzelnen Server oder einer Workstation verbaut sind. Dadurch soll die GPU-Programmierung einfacher werden.
5. Die GTX 690 wird ja bewusst nur mit 2*2GB ausgeliefert.
Ist natürlich kacke für HPC Leute die kein ECC brauchen aber noch mehr Speicher für noch weniger Kohle als ein K10, aber Nvidia ist ja auch nicht die Heilsarmee.
Und ob zb. ASUS doch noch eine 2*4GB GTX 690 Mars bringt, bleibt abzuwarten.
Mit Blick auf GK110, der mit 4-5 Monaten nicht so weit weg ist, aber eher unwarscheinlich.

6. Bringt nicht auch PCIe 3.0 grade im HPC Bereich, dem ein oder anderen Anwender einen Mehrwert?

Spasstiger
2012-05-15, 17:30:14
Hat was von einer Verzweiflungstat. Fermi ist out, da Kepler bevorsteht und Kepler selbst kann man in der eigentich geplanten Form noch nicht liefern.
Für den Preis könnten auch ein paar Gaming-Enthusiasten Gefallen finden (2*4 GiB RAM), wenn sich die Teile übertakten lassen.

Gipsel
2012-05-15, 17:34:35
1. TDP - Bei Tesla doch sogar eher 225W, statt 250W.Die paar Watt machen den Kohl auch nicht mehr fett (und bei den GF100 Teslas war es auch ein wenig mehr als bei den GF110-Varianten) und die Hälfte der Differenz ist schon der Lüfter. ;)
2. Hast du pro GPU 2290 GFlops SP für K10 vs. 1331 GFlops SP für M2090.
Was davon ankommt und wie optimiert der Code jetzt schon ist, ist bis jetzt reine Spekulation.Wenn es nur nach der theoretischen Peakleistung gehen würde, steckten in allen Clustern AMD-Karten. Kepler kann ganz offensichtlich meist weniger von seiner Peakleistung umsetzen.
3. Dann der Preispunkt: 1500-2500 USD (K10) vs. 4000 USD M2090.Wie Du richtig bemerkt hast, ist der Zielmarkt aber auch ein anderer. Für die HPC-Cluster aus der Top500-Liste sind die K10 schlicht vollkommen ungeeignet. Da kann man ganz einfach nicht das gleiche Geld für verlangen.
4. CUDA 4.0 zielte doch schon auf eine bessere Verwendung von mehreren GPUs ab. - http://www.golem.de/1102/81763.htmlNicht kommunizieren/synchronisieren zu müssen ist prinzipiell schneller und einfacher als besser kommunizieren zu können. ;)
Also nicht, daß das nicht wichtig und wünschenswert ist, aber einen Algorithmus über weniger Prozessoren skalieren zu lassen ist nun einmal einfacher. Das ist jetzt für sowas wie "Cloud-Gaming" uninteressant, aber für HPC ist das schon recht wichtig. Aber dafür gibt es dann ja sowieso K20.
5. Die GTX 690 ja wird bewusst nur mit 2*2GB ausgeliefert.
Ist natürlich kacke für HPC Leute die kein ECC brauchen aber noch mehr Speicher für noch weniger Kohle als ein K10, aber Nvidia ist ja auch nicht die Heilsarmee.
Und ob zb. ASUS doch noch eine 2*4GB GTX 690 Mars bringt, bleibt abzuwarten.Gibt es Einzelkarten nicht jetzt schon mit 4 GB? Die sind zudem durch den deutlich höheren Takt von der Peakleistung auch nur ~30% hinter der K10-Dual-Variante und man spart sich das Geraffel mit den 2 GPUs (ist von der Software her einfach mehr [im Zweifelsfall bremsender] Aufwand).

Hugo78
2012-05-15, 18:02:36
670 / 680 gibt als natürlich mit 4GB, die 690 soll meines Wissens aber nur mit 2*2GB kommen.
Und ebend der Formfaktor "Rack" fällt hier flach, ausser man bastelt...

Skysnake
2012-05-15, 19:07:17
Irgendwer wird ein haufen Rechenarbeit haben, wo man nicht "100 Stellen hinter dem Komma" genau sein muss, aber doch ECC braucht und für den wird K10 interessant sein.

Wenn ECC eine Rolle spielt, dann schon gleich 10 mal DP. Gerade bei numerischen Simulationen kommst du um DP oft einfach nicht rum wegen der Fehlerfortpflanzung. ECC ja, aber DP nein, das dürfte eine EXTREMST seltene Anforderung sein.


Im Text gibt es die Beispiele der Videoanalyse und Auswertung von Geodaten zur Rohstoffsuche.

Für Videoanalyse brauch ich aber kein ECC. Da kann ich auch einfach ne Consumerkarte nehmen, die deutlich billiger ist. Die 1,5k werden Sie ja nicht für die 4+4 GB Version aufrufen.


Wie stehts mit Suchanfragen in Datenbanken, oder was für HW braucht zb. Youtube um all die Millionen hochgeladenen Userclips in ihre Formate umzuwandeln?

Datenbankanfragen sind ints meistens. Ich seh da keinen großen Zweck drin, außer eben das man sehr viel schnell durchsuchen kann durch die hohe Bandbreite des Speichers. Da könnte man sich sogar die Notwendigkeit von ECC vorstellen, da die Daten ja da sehr lange in der GPU liegen bleiben. Das wird aber eher sehr unwahrscheinlich sein, vom Einsatzzweck her.

Was Videoumwandlung anbelangt, so macht man das normal nur einmal und das wars dann auch. Für google kann das ganz interessant sein wegen Youtube, oder für Online-Gaming-Streaming-Diensten. Bei beidem ist die Tesla aber wieder völlig fehl am Platz. Da kannste auch die GTX690 rein knallen und gut ist.


Muss da jeder Farbwert ins kleinse Detail stimmen, oder kommt man mit einer Abweichung im 0,01% Bereich klar?
Daher reicht auch die Consumerkarte....

670 / 680 gibt als natürlich mit 4GB, die 690 soll meines Wissens aber nur mit 2*2GB kommen.
Und ebend der Formfaktor "Rack" fällt hier flach, ausser man bastelt...
Wieso solltest du die GeForce nicht in ein Rack packen können :ugly: Da spricht absolut nichts dagegen.



2. Hast du pro GPU 2290 GFlops SP für K10 vs. 1331 GFlops SP für M2090.

Gipsel hats zwar schonmal gesagt, aber ich unterstreiche das nochmals:

GK104 Flops != M2090 Flops. Selbst bei SP. Je nach Anwendung solltest du bei GK104 selbst bei SP sogar langsamer sein, weil deine Caches insgesamt kleiner geworden sind.

Der einzige echte Vorteil ist halt, das man die doppelte Speicherbandbreite hat, was natürlich Anwender freut, deren Applikation an der Speicherbandbreite hängt, was gar nicht so selten ist. Bleibt aber weiterhin das Problem, dass du nur SP vernünftig nutzen kannst, was aber nicht sooo viele machen, und wenn doch, kannste dir die Consumer-Karte auch gleich holen.


Was davon ankommt und wie optimiert der Code jetzt schon ist, ist bis jetzt reine Spekulation.

Bei GK104 kann rein von der Architekturseite her schon gar nicht so viel ankommen wie bei GF110 im Verhältnis zwischen Rohleistung und Realerleistung.

Und der Code wird gut optimiert sein. Wenn man sowas als Vorzeigeprojekt her nimmt, dann sind da schon extrem viele Stunden an Manpower rein geflossen.


Könnte auch sein, dass in Zukunft aus 1,8 dann > 2,5 wird. (4580 GFlops sind ja fat 3,5 mal mehr als ein M2090).

Sehr unwahrscheinlich. Dafür wissen solche Leute einfach zu gut, was Sie machen, und stecken VOR so einem Event auch schon zu viel Manpower rein. Man will sich ja nicht lächerlich machen.


3. Dann der Preispunkt: 1500-2500 USD (K10) vs. 4000 USD M2090.

Ja, im Vergleich zu ner M2090 ist das viel billiger, aber du bekommst auch VIEL mehr dafür, vorallem ist das Ding jetzt schon ziemlich alt, was man nicht vergessen sollte.

Du stellst aber auch den falschen Vergleich an. Der richtige Vergleich würde wie folgt aussehen:

GTX690 1k$ K10 1,5-2,5k$ und was bekomm ich dafür?

Auf jeden Fall weniger Rechenleistung, im Topmodell 2GB mehr RAM je GPU und ähm ja, richtig ECC, das wars.

Das ist ziemlich bescheiden, vor allem mit der DP-Leistung. Wie gesagt, wer ECC braucht nimmt auch DP. Wer DP nimmt, brauch aber umgekehrt nicht zwingend ECC.

ECC ist eigentlich nur bei sehr großen Maschinen und solchen, die lange an einem Problem rechnen wichtig, und eben bei Anwendungen, wo absolut kein Fehler passieren darf.


6. Bringt nicht auch PCIe 3.0 grade im HPC Bereich, dem ein oder anderen Anwender einen Mehrwert?
Und das ist wo ein Argument? Die Consumerkarten haben auch PCI-E 3.0

Du darfst nicht nur zu Fermi-Teslas vergleichen, sondern auch zu den GeForce Keplers, UND! vor allem auch zu AMDs Karten! Und da siehts dann halt echt nicht mehr so rosig aus. Bei den Einschränkungen fasste dir einfach an den Kopf. Wer ist denn bitte da bereit so viel mehr Geld hin zu legen, wenn er auch ne Consumer-Karte haben kann.

Zudem sollte AMD in absehbarer Zeit auch mit ihren FirePros daher kommen, und da haste dann das deutlich rundere Paket.

EDIT:
Die Keynote fängt gerade an.

Mal schauen ob es weitere infos gibt...

http://smooth-las-akam.istreamplanet.com/live/demo/nvid1/player.html

Hugo78
2012-05-15, 19:44:27
Wieso solltest du die GeForce nicht in ein Rack packen können :ugly: Da spricht absolut nichts dagegen.

hier rein?
http://www.youtube.com/watch?v=iSbNMJLoFY8&hd=1

Es geht ja grade um den Server-Formfaktor beim K10, nicht um Workstations.

Skysnake
2012-05-15, 20:12:04
1. halt mal bitte Racks;Rackmount und 1U/2U "Blade"-Server auseinander.

2. Ja, da passt im Normalfall eine stink normale Consumer-Karte rein. Man spart sich halt nur den Lüfter. Sollte vom Platz her aber kein Problem sein. Man kann eventuell nur Probleme bekommen, da der Lüfter keine Luft bekommt. Ist aber auch kein Problem, weil man einfach das Gehäuse abbauen kann zur Not und den Lüfter entfernen kann. Dann haste so ziemlich das selbe Layout. Die Dinger sind ja genormt. Halt PCI-E Mechanical Norm.

3. Ist das, auf das du da anspielst reine Packdichte. Du kannst auch so einige "Workstation"-Gehäuse in ein Rack packen. Sind halt Rackmountible, und im Normalfall dann halt 4U oder gar 5U Gehäuse. Da ist aber absolut nichts besonderes dran. Zudem erkauft man sich die höhere Packdichte mit höheren Anforderung an die Kühlung/Klima des Serverraums. Ist also ein zweischneidiges Schwert.

EDIT:
Huang lässt grad was von konkurrierenden Workqueues. Gabs doch schon bei Fermi oder? Also zumindest erinnere ich mich, das Fermi schon mehr als ein Kernel parallel ausführen konnte.

Unterschlägt er hier grad das eine oder andere? :ugly:

Hugo78
2012-05-15, 21:50:33
Ok, nach der Keynote wird jetzt aber auch klar, wozu K10 dienen wird.
Es ist das Rückgrat für die erste Generation von GPU based VMs / Clouds. (edit: siehe auch http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9300794&postcount=3)

Mit Kühler Bastelei, aber weniger VRAM sicher auch in Form einer GTX 690 möglich und wenn man noch viel mehr Platz im Datacenter hat, auch mit GTX 670/680.

Aber ich glaub nicht das die Firmen, die sowas in Masse brauchen sich auf sowas einlassen wollen nur um ein paar tausend Dollar zusparen.
Im Servicefall kommt einem diese Bastelei, am ende sogar (vielleicht) teurer.

Skysnake
2012-05-16, 00:01:44
DAS ist eben immer die entscheidende Frage. Unternehmen haben nämlich nie überrauschende IT Budgets, in denen man halt einfach Geld rausballern kann. Es muss ein echter Mehrwert in den Mehrausgaben drin sein, und der wird bei K10 schwer zu finden sein abseits von Softwarelösungen, und da muss man eben dann der entsprechenden Niesche angehören, für die K10 interessant ist.

Das ist halt das Problem an K10. Das Ding ist auf Virtualisierung ausgelegt, es stellt sich aber die Frage, ob man so etwas braucht, und gerade bei "HyperQ" muss ich ganz ehrlich sagen, frag ich mich, wo der Mehrnutzen für HPC ist. Die sind ja schon darauf ausgelegt, das man so etwas wie HyperQ eben nicht braucht.

Für Virtualisierung von Desktops, Videoplayback, gestreames Onlinegameing usw. ist das nett, aber nicht so sehr für HPC, oder sollte zumindest dafür nicht so interessant sein.

Hatte aber nicht AMD vor 1-2 Jahren ein Virtualisierten GPU-Server gezeigt? Man hat darüber leider kaum was gehört.

Mir geht diese ganze Virtualisierungsausrichtung und gestreame etwas zu weit.

1. Die möglichen Konsequenzen für Gamer usw. passen mir gar nicht
2. Hat bei nVidia usw. überhaupt mal jemand an den Netzausbau in vielen Ländern gedacht? In den USA wars glaub ich, wo vor ner Weile ja schon Bandbreiten gedrosselt wurden, weil die ganzen Streamingdienste zu viel Last erzeugen, und auch in Deutschland gabs ja Diskussionen wegen Youtube und Musikstreaming usw.

Und jetzt generieren wir über solche Dienste mal noch schnell unglaubliche zusätzliche Datenmengen. :ugly:

Also für mich schreit das nach Volldampffahrt gegen ne Wand.

AnarchX
2012-05-16, 00:32:07
Ganz ohne Nachfrage durch Kunden hat man dieses Produkt wohl auch nicht entwickelt.

Skysnake
2012-05-16, 00:42:03
Das ne Nachfrage da ist, bestreitet ja auch niemand.

Die ganzen Publisher werden sich die Finger reiben, weil Sie damit die ganzen Raubmordkopierer und Raubmordgebrauchtspielekäufer effizienz ausrotten können, und dabei gleichzeitig noch ein monatliches Abbo-System einführen, bei dem die Leute auch noch die Füße still halten, weil man ja keine Hardware kaufen muss.

Das heißt aber noch lange nicht, dass die ganze Infrastruktur so etwas auch verkraftet.

Hugo78
2012-05-16, 10:00:07
Spannend ist ja auch dass NV die GTX 680 bewirbt bei ihrer Demo für Feuersimulationen.
http://www.pcgameshardware.de/aid,883997/Flamme-an-Feuersimulation-und-darstellung/Grafikkarte/News/

Kurzum, sGPU K10er wird es wohl so schnell nicht geben.