PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Duplex
2014-07-12, 19:19:08
ich sehe keinen grund wie so GM204 zu weihnachten keine 300.- kosten kann. Ist mit seinen 400mm2 zwar recht gross aber die Fertigung dürfte sehr ausgereift sein und das SI ist auch nur 256Bit gross.

NV hat schon 500mm2 Chips mit deutlich grösserem SI für diesen Preis verkauft.

Wenn AMD was vernünftiges liefern kann und NV in den Preiskampf einsteigen muss ist 300.- ganz klar möglich. Jedoch sehe ich seitens AMD leider nichts in diese Richtung. Und so muss man halt wieder mit 500.- rechnen.
Du hast keine Ahnung.

Gipsel
2014-07-12, 19:37:41
Ich bitte dringend darum, von Posts dieser Art abzusehen. Eine Diskussion funktioniert anders.

Edgecrusher86
2014-07-12, 21:35:55
Was vermutet ihr denn für einen GM200 in 28nm an SMMs?

Ich hab mal ein bisschen theor. Arbeit betrieben. GK110 war ja mit ~551mm² um die 87% größer als GK104 mit ~294mm² und hatte im Vollausbau auch 87% mehr SPs wie letzt genannter; trotz dem ganzen Compute-Kram.

Also als Basis GM204 kommt in ~430mm² und der Annahme, dass auch GM200 noch in 28nm kommt und etwas größer als GK110 wird. Ich hab jetzt einfach mal die alten 576mm² von GT200 und 600mm² (~34% bzw. ~40% mehr Size als ein ~430mm² GM204) als Maximum genommen und analog hochgerechnet.

Natürlich ist das alles in höchstem Maße theoretisch aufgrund der Unterschiede im Chipaufbau und der Unklarheit, dass GM200 evtl. doch in 20nm SoC im Laufe 2015 auf den Markt kommen könnte, wenn man Platz sparen will, aber wird sind ja in einem Spekulations-Thread. 16nm FinFET dürfte dann doch erst später marktreif sein, ich würde mich auch nicht wundern, wenn wir den erst bei einem kleinen Pascal-Chip serienfertig sehen. :)

GM204 Konservative Schätzung: 2304 SPs (18 SMM) für GM204-400-A1
GM200 Konservative Schätzung: 3072 - 3200 SPs (24 - 25 SMM) für GM200-400-Ax

GM204 Mittlere Schätzung: 2560 SPs (20 SMM) für GM204-400-A1
GM200 Mittlere Schätzung: 3328 - 3584 SPs (26 - 28 SMM) für GM200-400-Ax

GM204 Maximale Schätzung: 3072 SPs (24 SMM) für GM204-400-A1
GM200 Maximale Schätzung: 3840- 4096 SPs (30 - 32 SMM) für GM200-400-Ax

Ich persöhnlich denke ja, dass GM204 mit 2304 oder 2560 SPs (18 oder 20 SMM) kommen dürfte und wir in 28nm, sofern GM200 größer als GK110 wird, den großen Maxwell mit 3072 bis 3584 SPs (25 - 28 SMM) sehen dürften. Wobei GM204-400 vermutlich im A1-Stepping schon sinnvoll mit 20 SMM wäre, will man GK110 ablösen. ;)

Der Performance-Unterschied für das Gaming dürfte natürlich weit aus geringer wie GK104 zu GK110 ausfallen - vielleicht 30 - 40% auf GM204 bei 4K Downsampling/Nativ oder niedrigeren Auflösungen und SSAA, im Mittel (bis 1600p und MSAA) und zumindest bei default Targets dürften es nur um die 15 - 20% für einen 28nm GM200 sein.

Leonidas
2014-07-13, 06:18:25
Sieht nach einer guten, soliden Schätzung aus. Ich werde selber nochmal dranrumrechnen.


Interessant wird, wie groß GM206 nun wird, nachdem GM204 bis zu 3072 SP groß ist.

Cortana
2014-07-13, 10:06:52
3000-4000 SPs in 28nm? Ist das überhaupt wirtschaftlich sinnvoll?

Wie viel kriegt man dann in 20nm unter?

Unicous
2014-07-13, 11:05:55
Ich kann mir nicht vorstellen, dass GM204 größer als 400mm² wird. Wenn das geschieht kann man sich abschminken, dass eine 880 unter 450 Euro kostet. Ich denke, dass sich GM204 deutlich konservativer gestaltet als hier angenommen wird. 28nm bringt einfach nichts mehr. Das muss dann über Architekturveränderungen kompensiert werden.

Thunder99
2014-07-13, 11:06:10
So lange der Kunde die Mehrkosten übernimmt und zahlt ist es immer wirtschaftlich. Frage ist eher ist es technisch möglich und wie sind da die yields

Unicous
2014-07-13, 11:15:26
Um die Yields mache ich mir keine Sorgen. 28nm ist ausgereift und vielfach genutzt. Man kann aus verschiedenen Bereichen Verbesserungen implementieren, weil der Prozess ja vielfach genutzt wird und nicht nur für eine handvoll Desigens, wie früher. In diesem gereiften Stadium kann nur noch ein schlechtes Design zu schlechten Yields führen, aber das ist ja nicht TSMCs Problem. Andererseits hat ja Nvidia Erfahrung mit schlechten Designs.:tongue:

Ich denke wie einfach, dass wird deutlich konservativer als "gehofft" und der Preis dennoch happig.

Thunder99
2014-07-13, 11:17:02
Wo ich mir auch noch "Sorgen" mache ist das (auf Basis von GM107) geänderte TMU zu ALU Verhältnis von 1:6 nun zu 1:16. Bei GF1xx war das ja nicht so der Burner...

AffenJack
2014-07-13, 12:00:36
Es ändert sich von 1:12 bei Kepler auf 1:16 in Maxwell, nicht von 1:6. Das ist aber das gleiche, was auch GCN hat und wird wohl ausreichen. Es wird einfach immer mehr Shaderleistung nötig und GM107 läuft nun auch nicht schlecht damit.

Edgecrusher86
2014-07-13, 12:05:41
Niedrigere Preise ist sowieso relativ - landet GM204 im Gaming etwas über der GTX 780 Ti und TITAN Black, dann kann man sicher auch mit mindestens 550€ oder 600€ für die hypothetische GTX 880 Ti rechnen, was immer noch unter dem MSRP der GTX 780 und GTX 780 Ti zum Launch liegen dürfte. Unterhalb von 500€ geht bei High-End-Leistung vermutlich sowieso nichts, auch wenn der Fertigungsprozess ausgereift ist.

fondness
2014-07-13, 12:13:20
300EUR ist schon alleine deshalb unrealistisch, weil NV mit Sicherheit nicht die schnellste Karte am Markt um 300EUR verkaufen würde. Damit würde man sich nur selbst Konkurrenz machen.

AnarchX
2014-07-13, 12:26:14
Eventuell wieder $499/499€ wie die letzte 4er GTX x80. Gegenüber GTX 780 und 780 Ti wäre das ziemlich attraktiv.
Aber nach der Titan Z könnte man NV auch >499€ zutrauen.

AffenJack
2014-07-13, 12:37:00
Ich würde im Moment auch 500$ schätzen. Wären bei uns immerhin Strassenpreise von 450€, was schon in Ordnung ginge, wenn man 780TI +10% Leistung schaffen würde. Darüber dann für 650$ noch GM200 und Titan2 für 1k.

fondness
2014-07-13, 12:40:11
Oder GM204 kommt ähnlich wie GK104 erst mal als High-End-Ersatz mit 780Ti Preisen um dann mit erscheinen des GM200 im Preis zu fallen.

occ-kh@Mirko
2014-07-13, 13:04:54
Oder GM204 kommt ähnlich wie GK104 erst mal als High-End-Ersatz mit 780Ti Preisen um dann mit erscheinen des GM200 im Preis zu fallen.
Denke ich auch, wenns nicht sogar anfänglich 549$.

Das mit 16nm glaube ich irgendwie immer nch nicht. Wer war es bei TSMC, der mitteilte das bei Nutzung von 450Wafern von 20nm zu 16nm eine 37% höhere Effizienz und 25% Platzersparnis erzielt würde. Wenn man jetzt von 28 zu 16nm runterbricht wären das ja so um 50% Effizienzzugewinn. Denkt man an den GM107 und dessen Designänderungen müsste da ja noch mehr rauskommen.

Berichtigt mich wenn ich da falsch liege...:smile:

boxleitnerb
2014-07-13, 13:12:25
Du meinst 450mm Wafer? Das hat mit dem Prozess selbst eigentlich nichts zu tun.

Thunder99
2014-07-13, 13:17:15
Es ändert sich von 1:12 bei Kepler auf 1:16 in Maxwell, nicht von 1:6. Das ist aber das gleiche, was auch GCN hat und wird wohl ausreichen. Es wird einfach immer mehr Shaderleistung nötig und GM107 läuft nun auch nicht schlecht damit.
das dachte man Fermi auch und dann hat man die bei Kepler wieder erhöht

Unicous
2014-07-13, 13:54:37
450 mm Wafer sowie diverse tolle neue Fertigungstechniken wird es auf absehbare Zeit nicht geben. Zu kostenintensiv bzw. nicht marktreif. Und hinzukommt, dass die Industrie zu feige ist, da mal ein paar Milliarden springen zu lassen.:biggrin:

Aber das hat wie boxleitnerb sagt nichts mit dem Prozess zu tun.

occ-kh@Mirko
2014-07-13, 14:37:20
Ja klar, aber wenns um Kosen geht schon irgendwie wichtig, daher wollte ich es so weitergeben wie aufgeschnappt. Würde auch gerne was liefern, aber weiss nicht mehr wo ich es her habe. Könnte auch nur Gedröhne von TSMC gewesen sein.

Unicous
2014-07-13, 14:57:16
Es kann nur Gequatsche von TSMC sein, weil 450 mm Wafer noch Jahre weg sind, eingesetzt zu werden. Es wird gar gemunkelt, dass das noch bis 2020+ dauern könnte bis man dahingehend etwas Initiative zeigt.

Es gibt zwar alle paar Monate/Jahre eine tolle Neuigkeit, so auch erst vor ein paar Tagen:

World's First Fully Patterned 450mm Wafers Unveiled at SEMICON West (http://www.sunycnse.com/Newsroom/NewsReleases/Details/14-07-08/World_s_First_Fully_Patterned_450mm_Wafers_Unveiled_at_SEMICON_West.aspx)

Aber bis auf Grundlagenforschung passiert da nichts Spannendes. Die Vorteile überwiegen im Moment nicht den (finanziellen) Aufwand.

Gipsel
2014-07-13, 14:59:03
Noch nicht mal Intel führt (außerhalb einer Testinstallation in der D1X-Fab) 450mm Wafer ein, obwohl sie es lange propagiert haben. Die Kosten sind schlicht astronomisch (vermutlich an die 10 Milliarden Dollar pro großer Fab), man muß ja praktisch die komplette Ausrüstung einer Fab neu beschaffen (also mit deutlich teureren Versionen ersetzen) und die Erhöhung des Durchsatzes (die nicht proportional zur größeren Fläche der Wafer ist sondern deutlich kleiner) rechtfertigt das zur Zeit schlicht nicht, zumal intels Fabs im Moment sowieso nicht ausgelastet sind. Selbst bei einer neu zu bauenden Fab (Fab 42, wo die Ausrüstung theoretisch bei gleichem Durchsatz an Waferfläche ein paar Prozent billiger werden sollte als 300mm) hat Intel nach der Fertigstellung des Gebäudes die Ausrüstung mit den entsprechenden Tools gestoppt und die 450mm-Einführung auf breiter Front für's Erste auf Eis gelegt.

mczak
2014-07-14, 03:02:30
das dachte man Fermi auch und dann hat man die bei Kepler wieder erhöht
Kepler (ohne gk2xx) hat genau dasselbe TMU/ALU Verhältnis wie Fermi, mit Ausnahme von GF110/GF100. Jedenfalls wenn man den doppelten Takt der ALUs bei Fermi berücksichtigt :-). gk208 (und auch gk20a) haben bloss 1:24 und das scheint auch keinen grossen Unterschied zu machen.

Nightspider
2014-07-14, 03:08:37
Wenn ich mich nicht irre habe ich irgendwo gelesen das 450mm Wafer erst ~2030 in Masse zu finden sein werden, wenn nicht sogar später.

john carmack
2014-07-14, 10:23:33
450 mm Wafer sowie diverse tolle neue Fertigungstechniken wird es auf absehbare Zeit nicht geben. Zu kostenintensiv bzw. nicht marktreif. Und hinzukommt, dass die Industrie zu feige ist, da mal ein paar Milliarden springen zu lassen.:biggrin:

Aber das hat wie boxleitnerb sagt nichts mit dem Prozess zu tun.

:freak:;D:up:

Wäre echt sau geil wenn die 450er endlich mal Marktreif werden.


http://www.heise.de/ct/meldung/Intel-startet-Bau-der-ersten-Fab-fuer-450-mm-Wafer-1932811.html
"Wie bei den früheren Umstiegen der Branche auf größere Wafer üblich, sollen auch die 450-Millimeter-Scheiben pro Quadratzentimeter Siliziumfläche deutlich niedrigere Fertigungskosten bringen. Zuvor muss aber eine lange Entwicklungsphase erfolgreich gemeistert werden, um die zahlreichen technischen Schwierigkeiten zu meistern. Außerdem steigen die Investitionen pro wirtschaftlich sinnvoller Fertigungslinie deutlich weiter an, man schätzt auf mehr als 5 Milliarden US-Dollar."

occ-kh@Mirko
2014-07-14, 13:13:39
Noch nicht mal Intel führt (außerhalb einer Testinstallation in der D1X-Fab) 450mm Wafer ein...Intel nach der Fertigstellung des Gebäudes die Ausrüstung mit den entsprechenden Tools gestoppt und die 450mm-Einführung auf breiter Front für's Erste auf Eis gelegt.
Ja, aber nur weil sie jetzt mit IBM, TSMC etc. entwicklungstechnisch zusammenarbeiten (Kosten wären allein wohl zu hoch), Fab 12 und 15 in Taiwan werden für ca. 8-9 Billionen hergerichtet. Stimmt aber, 2019 war der voraussichtliche Termin, habs gefunden und gegengelesen...;). Stammte aus 2013. Daher wohl erstmal unrelevant für 16nm...und 20nm sowieso. Die Fertigungsstrukturen sind wohl doch noch zu groß für die Mehrkosten die enstehen.

Das Konsortitium aus INTEL, IBM, GlobalFoundries, TSMC und Samsung (seit 2011+) haben insgesamt (in die Entwicklung) bisher ca. 4,4 Billionen investiert...so jedenfalls Solid States Technologie...kann man ja nicht sagen die nehmen kein Geld in die Hand.

Leonidas
2014-07-14, 13:21:48
3DC: 450mm-Wafer auf das Jahr 2023 verschoben (http://www.3dcenter.org/news/450mm-wafer-auf-das-jahr-2023-verschoben)

Bezieht sich auf Intel. Die anderen werden später nachfolgen.

occ-kh@Mirko
2014-07-14, 13:27:53
Danke für den Link.

Undertaker
2014-07-14, 13:39:22
Ja, aber nur weil sie jetzt mit IBM, TSMC etc. entwicklungstechnisch zusammenarbeiten (Kosten wären allein wohl zu hoch), Fab 12 und 15 in Taiwan werden für ca. 8-9 Billionen hergerichtet. Stimmt aber, 2019 war der voraussichtliche Termin, habs gefunden und gegengelesen...;). Stammte aus 2013. Daher wohl erstmal unrelevant für 16nm...und 20nm sowieso. Die Fertigungsstrukturen sind wohl doch noch zu groß für die Mehrkosten die enstehen.

Das Konsortitium aus INTEL, IBM, GlobalFoundries, TSMC und Samsung (seit 2011+) haben insgesamt (in die Entwicklung) bisher ca. 4,4 Billionen investiert...so jedenfalls Solid States Technologie...kann man ja nicht sagen die nehmen kein Geld in die Hand.

Entweder du sprichst nicht von €/$ oder du solltest nochmal schauen, wie man "billion" auf deutsch übersetzt. ;)

occ-kh@Mirko
2014-07-14, 13:50:21
Wusste nicht das Euro da irgendwie eine Bedeutung hat, was ist bei dir eine Billion in deutsch..ähm = eine Billion?
Aber für dich gerne auch in deutsch = $ 4800000000

In September 2011, New York Governor Andrew M. Cuomo announced the establishment of the Global 450 Consortium (G450C) at CNSE’s Albany NanoTech Complex. This $4.8 billion, first-of-its-kind collaboration headquartered and housed at CNSE is comprised of five leading international companies working to create the next generation of computer chip technology: IBM, Intel, GlobalFoundries, Samsung and TSMC.

Google doch mal nach "Global 450 Consortium"...;).

/e: hatte sogar nur in 4,4 geschrieben...

Godmode
2014-07-14, 13:53:37
Das Konsortitium aus INTEL, IBM, GlobalFoundries, TSMC und Samsung (seit 2011+) haben insgesamt (in die Entwicklung) bisher ca. 4,4 Billionen investiert...so jedenfalls Solid States Technologie...kann man ja nicht sagen die nehmen kein Geld in die Hand.


Wusste nicht das Euro da irgendwie eine Bedeutung hat, was ist bei dir eine Billion in deutsch..ähm = eine Billion?
Aber für dich gerne auch in deutsch = $ 4.800.000.000



Google doch mal nach "Global 450 Consortium"...;).

/e: hatte sogar nur in 4,4 geschrieben...

Das sind 4,8 Milliarden und nicht 4,8 Billionen.

Das Konsortium hat Milliarden und nicht Billionen investiert. Bei einem Jahresumsatz von 50 Mrd. bei Intel wäre das gar nicht möglich. ^^

occ-kh@Mirko
2014-07-14, 14:03:28
Seit wann gibt man dort was in deutsch und in Euro an? Ich habs nach Aufforderung ins deutsche übersetzt und nun. Ich habe die Info unkommentiert weitergereicht. Wenn ihr es wisst warum fragt ihr. Billion bleibt aber Billion, (Bio vs. Bill) nur der Zahlenwert ist anders. Wortklauberei.

Dann sind es eben (zu deutsch) 4,8 mrd Dollar, ist trotzdem nicht wenig.

Unicous
2014-07-14, 14:05:55
@occ-kh@Mirko

"billion" ist Milliarde, "trillion" ist Billion.

Wenn man mal nicht recht hat einfach mal akzeptieren.


"one billion" ist nicht eine Billion.

HOT
2014-07-14, 14:14:12
3DC: 450mm-Wafer auf das Jahr 2023 verschoben (http://www.3dcenter.org/news/450mm-wafer-auf-das-jahr-2023-verschoben)

Bezieht sich auf Intel. Die anderen werden später nachfolgen.
Das ist ne genauso unendliche Geschichte wie EUV-Lithographie. Es gibt Banchenleute, die behaupten, dass es ebenfalls aus wirtschaftlichen Gründen einfach gar nicht möglich ist.

occ-kh@Mirko
2014-07-14, 14:17:41
Wenn man mal nicht recht hat einfach mal akzeptieren.
Musst du schreiben, lustig...

Auch für dich nochmal, ich habe es richtigerweise nach @Undertakers begründeter Aufforderung übersetzt:
4.800.000.000 (steht schon weiter oben)

Wo ist jetzt das Problem? Weiss nicht was du willst, einfach mal deinen Senf dazu geben?

Ailuros
2014-07-14, 14:21:25
OT aber es sollte dafuer sorgen dass etwas Dampf abgetrieben wird: Herzlichen Glueckwunsch fuer die wohlverdiente Fussball-Weltmeisterschaft :smile:

occ-kh@Mirko
2014-07-14, 14:32:55
Ja, 'ne coole Sache, Fete war lang, aber Kopf ist nicht dick...;). Nochmal danke an unsere Jungs.

Das andere einfach ein flüchtiger Übersetzungsfehler. Das kann doch jetzt nicht so schlimm sein wenn man weis wie es einzuordnen ist, sowieso nicht...:rolleyes:

Die deutsche Billion ist unter anderem ein falscher Freund der US-amerikanischen billion, die der deutschen Milliarde entspricht. Dies führt häufig zu Fehlübersetzungen, insbesondere im unwissenschaftlichen Journalismus bei der Angabe von Kosten oder Vermögen. Der Grund dafür liegt in den so genannten langen und kurzen Leitern. Im Deutschen, Französischen, Italienischen, Polnischen, Portugiesischen oder Spanischen hat es die Bedeutung von einer Million hoch 2 (daher die Vorsilbe bi) und ergibt 1012. Im US-Englisch steht die Zahl „billion“ jedoch für 109 (=10001+2), entspricht also der Milliarde in den Ländern, die das System der sogenannten „langen Leiter“ benutzen (die deutschsprachige Billion heißt im US-Englisch entsprechend trillion). Im britischen Englisch wird es aufgrund des Einflusses der USA sowohl für 109 als auch traditionell für 1012 gebraucht. Daher sind Übersetzungen aus dem Englischen nicht immer verlässlich.

Wer weiss denn, welches System ich kenne/nutze und wo meine Abstammung liegt? Demnächst halte ich mich an gewünschte Zahlenwerte, habs schon nach dem ersten Hinweis verstanden.^^

Das hat mit Recht und Unrecht aber nichts zu tun. Euro ist dort nunmal als Investionsangabe nicht relevant, die Info stammt aus dem amerikanischen Bereich.

Godmode
2014-07-14, 14:47:28
Das hat mit Recht und Unrecht aber nichts zu tun. Euro ist dort nunmal als Investionsangabe nicht relevant, die Info stammt aus dem amerikanischen Bereich.

Entweder du schreibst alles deutsch, dann musst du für 10^9 Milliarde schreiben. Wenn du alles englisch schreibst musst du für 10^9 Billion schreiben. Mischen tut nur Cruncher. ;D

occ-kh@Mirko
2014-07-14, 14:57:06
Mischen tut nur Cruncher. ;D
Ja, habs verstanden (mit meinen verkrüppeltem, amerikanischen, unjournalistischen Deutsch) aber bevor hier noch ein eigener Thread entsteht, lass uns lieber beim Maxwell weitermachen.^^

Godmode
2014-07-14, 14:58:27
Ja, habs verstanden (mit meinen verkrüppeltem, amerikanischen, unjournalistischen Deutsch) aber bevor hier noch ein eigener Thread entsteht, lass uns lieber beim Maxwell weitermachen.^^

Ich denke hier wird es über Wochen Still sein, bis es wieder mal Leaks gibt.

Btw. hat schon mal jemand versucht den Skalierungsfaktor von Diesize und Leistung von GK107 und GM107 auf GK104 anzuwenden? Ist zwar wieder nur eine Milchmädchenrechnung, aber besser als gar nichts zu haben.

occ-kh@Mirko
2014-07-14, 15:22:17
Meinst du..;). Bei dem regen Versand an 204 Sample muss doch bald was gehen...https://www.zauba.com/import-gm204-hs-code.html

GM200 wird wohl noch dauern.

hasebaer
2014-07-15, 21:20:09
Für AMDs kommende GPUs wird ja wieder 28HPM ins Spiel gebracht, wäre das bei Maxwell auch eine Option, auch wenn GM107 ja weiterhin in 28HP kommt?!

N0Thing
2014-07-16, 17:14:01
Da die Gerüchte damals falsch waren, stellt sich die Frage, warum diesmal etwas an den Gerüchten dran sein sollte.

Hübie
2014-07-16, 19:01:35
Das einzig denkbare wären kleine Volumenchips vom Schlage eines GF119. Große Kähne wird man damit sicher nicht vor Q2/3 2015 sehen.

Unicous
2014-07-16, 19:16:48
Das einzig denkbare wären kleine Volumenchips vom Schlage eines GF119. Große Kähne wird man damit sicher nicht vor Q2/3 2015 sehen.

Welcher Prozess? 16nm? Ich glaube nicht, Tim.

Die Serienproduktion dort soll zum Ende des dritten Quartals 2015 starten, größere Stückzahlen jedoch erst ab Anfang 2016 lieferbar sein.

Der Produktionsvorlauf für die Chips sind mehrere Wochen, bevor man überhaupt daran denken kann sie in den Channel zu lassen.

Godmode
2014-07-16, 20:08:23
Das heißt für mich das man GM200 kaufen kann, ohne fürchten zu müssen, dass er schon bald wieder ersetzt wird. Es hat sich ja doch recht stark nach bullshit angehört, dass man nach 5-6 Monaten GM204 neu in 20nm FF auflegt.

Ailuros
2014-07-17, 14:05:59
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546540&page=8

Die Prozess-relevante Diskussion wurde in den richtigen thread verschoben.

Loeschzwerg
2014-07-17, 18:42:27
Pfröpfleweise trudeln die GM200 Chips ein, gesamt weitere 8 Stück seit dem 11. Juli:
15-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 3 72,920 24,307
15-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 3 72,920 24,307
11-Jul-2014 84733010 GRAPHICS PROCESSOR INTEGRATED CIRCUITS, GM200-INT0-A1 Taiwan Banglore Air Cargo NOS 2 53,852 26,926

Beim GM204 zeigen sich weitere, bestückte Platinen:
15-Jul-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12724-0071-100 China Banglore Air Cargo NOS 3 191,218 63,739
9-Jul-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12724-0000-100 China Banglore Air Cargo NOS 36 2,062,282 57,286
4-Jul-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12724-0000-100 China Banglore Air Cargo NOS 14 1,006,079 71,863
30-Jun-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12724-0010-100 China Banglore Air Cargo NOS 12 560,548 46,712

Die Sache mit dem GM204 scheint sehr gut voran zu gehen, vom Typ 12724-0000-100 gibt es jetzt gesamt schon 107 Stück, laut Zauba.

Diese Teile könnten für GM200 sein:
14-Jul-2014 85437099 FUNCTIONAL TEST PCA, 699-12720-0000-200 China Banglore Air Cargo NOS 2 173,724 86,862
1-Jul-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12720-0000-200 China Banglore Air Cargo NOS 3 232,432 77,477
28-Jun-2014 84733030 COMPUTER GRAPHICS CARD, 699-12720-0000-200 China Banglore Air Cargo NOS 5 263,820 52,764
28-Jun-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12720-0072-300 China Banglore Air Cargo NOS 3 186,620 62,207
28-Jun-2014 85437099 FUNCTIONAL TEST PCA BOARDS, 699-12720-0000-200 China Banglore Air Cargo NOS 4 291,233 72,808

Man beachte den Unterschied zwischen 699-12720 und 699-12724. Die drei ersten Ziffer geben im Normalfall das Herstellungsland an: 699 für China und 690 für USA.

Cortana
2014-07-18, 20:35:31
http://wccftech.com/nvidia-release-date-gtx-880-gtx-870-october-november/

Im Okt/Nov gibts dann übrigens die 870/880.

Loeschzwerg
2014-07-22, 09:37:30
http://i1.minus.com/iqcj96pSAwzQp.jpg

http://forum.notebookreview.com/gaming-software-graphics-cards/757332-brace-yourself-new-maxwell-cards-incoming-19.html#post9726698

Echt oder fake?

So wären es in etwa 1000 Punkte mehr als bei einer 780Ti.

boxleitnerb
2014-07-22, 09:53:03
GPU Score zählt, also ca. 1500 Punkte mehr. Knapp 30% schneller als die 780 Ti.
Wobei mir das deutlich zu früh ist als Ergebnis, wenn die Karten erst in 2-3 Monaten kommen.

Dawn on Titan
2014-07-22, 09:54:15
Fake

Loeschzwerg
2014-07-22, 10:00:44
Also die "8" die dort leicht durchschimmert finde ich seltsam... passt nicht zum Rest der "Verwaschung".

Und ja, nüchtern betrachtet wäre der Bench wirklich sehr früh.

boxleitnerb
2014-07-22, 10:08:43
Fake

Möglich, aber hast du auch einen konkreten Grund, warum du das annimmst oder schreist du einfach so?

Panzerfaust
2014-07-22, 10:20:43
kann man vielleicht nachrechnen, ob sich der gesamte Score tatsächlich aus den 3 Werten ergibt?
Wenn die Rechnung nicht aufgeht, müsste es Fake sein.

Dawn on Titan
2014-07-22, 10:21:31
Möglich, aber hast du auch einen konkreten Grund, warum du das annimmst oder schreist du einfach so?

a. Bezug zur Gamescom im Originalpost
b. ein neuer User in einem Notebookforum postet einen solchen Screenshot
c. keine Schwingungen in den üblichen Foren

occ-kh@Mirko
2014-07-22, 11:22:34
Fake...GTX690?

L233
2014-07-22, 11:54:52
Von der GPU Score her wäre das quasi doppelt so schnell wie eine GTX 680.

Realistisch?

Wenn ja, dann her damit! http://www.f169bbs.com/images/smileys/tard.gif

Dural
2014-07-22, 12:08:51
GK104 wahr auch fast doppelt so schnell wie GF104 und das in einem neuen Prozess.

Hier haben wir den selben Prozess jedoch eine deutlich grössere Die, es ist schon möglich, glaube aber mehr an ca. 80%

fondness
2014-07-22, 12:39:12
Angeblich wird zur Gamescom irgendwas geszeigt:
http://videocardz.com/51078/nvidia-geforce-gtx-880-arrives-gamescom

Unicous
2014-07-22, 12:45:42
Dude, dieser Quatsch ist doch hier schon gelandet, siehe oben. VC macht sich nur noch lächerlich mit diesem Quatsch.

"Ja, wir haben schon länger von diesem Gerücht gehört und nun gibt es einen Post von einem neuen User, bei notebookreview.com den keiner kennt und der auch nur diesen einen Post bis jetzt geschrieben hat und sich gerader erst angemeldet hat... und jetzt sind wird uns so gut wie sicher. Und dann guckt euch doch bitte diese nichtssagenden Fotos vom letzten Jahr an die für Nvidia's Gamescom 2014 Seite genutzt werden. Gibt es noch mehr zu sagen als: rumor confirmed."

occ-kh@Mirko
2014-07-22, 13:01:24
Seit wann stellt man einen Benchmark von 3d-Mark ein ohne das die CPU was tun hat, Schwachsinn.... Das war irgendein Möchtegern und nix Professionelles und der hat sicherlich keine GM204 GPU zur Hand.

Hübie
2014-07-22, 13:28:50
Hä? Wo siehst du da Einstellungen? :|

@Unicous: ;D made my day!

occ-kh@Mirko
2014-07-22, 13:40:43
Mensch...:biggrin: die CPU läuft mit Idle Takt 8x, wer stellt solch einen Blödsinn ins Netz? Um zu verdecken das dort eine 7990 oder 690 läuft. Lächerlich.

Der CPU Takt wäre von erheblicher Bedeutung für einen professionellen Screenshot.

Hübie
2014-07-22, 13:43:35
Öhm. Nö. Selbst wenn du sämtliche Energiesparmechanismen deaktivierst liegen die Unterschiede im Messtoleranzbereich.
Professionell benchen... wenn ich das schon wieder lese :rolleyes:

Edit: Ich kenne Leute in Druckereien die eher wissen was in so einer GPU steckt als "professionelle Bencher"...

hasebaer
2014-07-22, 14:00:39
Was ist jetzt eigentlich mit dem Countdown der in einer Stunde abläuft?
http://ultimate.nvidia.eu/de-de

occ-kh@Mirko
2014-07-22, 14:00:42
@Hübie, eine 780Ti OC erreicht mehr...bis zu 8000 Score, hört auf jetzt. Mit einem Takt bis 1,35 dürfte jede ti diesen Wert locker erreichen und genau diese Daten wurden verdeckt, Temp.: GPU, CPU, fps...Da ist ein Spinner am Werk, der in einen Notebookbereich diesen Schwachsinn postet.

Was meinst du jetzt? Der I7 4770k läuft mit 802mhz...

Das ist eine 780 mit Standardtakt und hohem CPU OC.

http://www.overclock.net/content/type/61/id/1690332/flags/LL

Oben links steht schon was es ist, Multi GPU und OC. (unter FireStrike Extreme)

http://img5.fotos-hochladen.net/uploads/unbenannt8gx27ic3em4.png (http://www.fotos-hochladen.net)

Und denn ganz nebenbei, da stand "professioneller Screenshot" nicht professionell OC...den bescheuerten Bench liefer ich dir nach etwas Rechenarbeit in 10min, nur hab ich auf solchen Schei** einfach keinen Bock. :lol:

Hübie
2014-07-22, 14:33:20
Der 4770k taktet auf 800 MHz im Leerlauf. Warum soll er das nicht dürfen nachdem man gebencht hat?
Das ist für mich jedenfalls kein Indiz dass es ein fake ist. Eher aus Gründen die unicous genannt hat. Irgendwie hab ich das Gefühl du verbringst oft Zeit in Paralleluniversen X-D

HOT
2014-07-22, 14:35:05
Wer ernsthaft glaubt das wär echt, verbringt seine Zeit im Paralleluniversum ;).

PrefoX
2014-07-22, 14:38:51
Wer ernsthaft glaubt das wär echt, verbringt seine Zeit im Paralleluniversum ;).
Begründe dies bitte, aber nicht mit dem Koran :rolleyes:

occ-kh@Mirko
2014-07-22, 14:40:39
Du kannst glauben was du willst...dies hier ist aber Schrott. 3DMark speichert den Wert in einer Vergleichstabelle auf einem Server, daher ist es sinnlos die Daten zu schwärzen oder was auch immer und genau deshalb zeigt Firestrike auch an mit wem und welchem System verglichen wurde, "MultiGPU" (wie oft noch). Könnte auch eine Asus OC Mars sein, 760 Basis.

Wer auf solch einen Kram reinfällt, naja...du schreibst es...
Irgendwie hab ich das Gefühl du verbringst oft Zeit in Paralleluniversen...

Jetzt komm wieder runter, Wetter ist schön...natürlich, die Hoffung stirbt zuletzt. Sei Dir gegönnt. ;D

Unicous
2014-07-22, 14:56:39
Schrott sind aber auch deine Aussagen. Du markierst bei Firestrike Extreme das "For Multi-GPU systems and Overclocked PCs" als ob das irgendeine Bewandnis hätte und ein Indikator für den Benchmark-Wert wäre. Dabei ist das nur die normale Bezeichnung für FSX.:rolleyes:

Du konstruierst dir andauernd Beweise nur um Recht zu behalten, ich glaube du solltest vorher etwas mehr recherchieren und nachdenken bevor du dich zu diesen Behauptungen hinreißen lässt.

Und mit Allgemeinplätzen wie "Futuremark speichert die Ergebnisse auf ihren Servern" brauchst du auch nicht kommen. Das weiß hier geschätzt: jeder.

Ob das Fake ist oder nicht kann man nicht mit Sicherheit sagen. Die Indizien sprechen aber eindeutig für fake. Die GPU-Bezeichnung zu verpixeln und einen screenshot zu machen während der Validierung (mE kann es ja nur invalid sein, weil die GPU sicherlich noch nicht von Futuremark offiziell aufgenommen wurde, oder?) sind sehr starke Hinweise.

Hübie
2014-07-22, 15:01:12
Du kannst glauben was du willst...dies hier ist aber Schrott. 3DMark speichert den Wert in einer Vergleichstabelle auf einem Server, daher ist es sinnlos die Daten zu schwärzen oder was auch immer und genau deshalb zeigt Firestrike auch an mit wem und welchem System verglichen wurde, "MultiGPU" (wie oft noch). Könnte auch eine Asus OC Mars sein, 760 Basis.

Wer auf solch einen Kram reinfällt, naja...du schreibst es...


Jetzt komm wieder runter, Wetter ist schön...natürlich, die Hoffung stirbt zuletzt. Sei Dir gegönnt. ;D

Hä. Das steht da nur um zu zeigen wozu dieser Benchmark gedacht ist. So wie SkyDiver für Entry-Level ist, ist FireStrike Extreme für mGPU. Dennoch kann und darf ich dass doch auf den jeweils anderen System ausführen :rolleyes:

Und wenn ich die Internetverbindung kappe dann speichert 3DQuark erst mal gar nix. Bäm. :freak:

occ-kh@Mirko
2014-07-22, 15:09:59
Geht der Schwachsdinn mit dir schon wieder los, von hinten draufhaun mags du gerne?

...mach mal ein paar Benchmark, dann weisst du mehr. Die Validierungsliste ist einsehbar, denke meine erste Entscheidung war wohl doch besser, naja muss ich jetzt nochmal drüber nachdenken.

Nur weil du VC und andere aus dem Informationsgehalt nicht leiden kannst, blässt du dich hier andauernt auf. Lies dir mal dein Gebashe und die Forumsregeln selber durch, dann kommst du schon drauf.

Eine ungeclockte Karte oder ein System wird genauso erkannt...weil die Daten vorher an den Server übertragen werden. Dort steht Multi GPU und wenns dort steht ist's wohl auch MultiGPU+OC. Eine 7990, 690 oder was anderes die Z und 295x2 erreichen höhere Werte. Zudem sind wir mal wieder im Spekulationsbereich, was du nach mehren Beiträgen von mir immer noch nicht erkannt hast.

Und jetzt laber mich nicht mit deinem arroganten Scheiß voll.

@Hübie sieht dir mal den Sreenshot an den ich eingestellt habe! Eine ungeclockte einzelne Karte wird so angezeigt. "For Extreme Gaming PC". Ich glaube nicht das in der VALIDIERUNGSLISTE etwas wie eine 880ti hinterlegt ist. Macht euch nur weiter lächerlich...

Hübie
2014-07-22, 15:11:37
http://abload.de/thumb/3dmarkiio0i.png (http://abload.de/image.php?img=3dmarkiio0i.png)

http://abload.de/thumb/3dmark_extreme9spm2.png (http://abload.de/image.php?img=3dmark_extreme9spm2.png)

Meinst du mich Mirko? :(

Unicous
2014-07-22, 15:15:53
@occ-kh@Mirko

Wenn das Ding nicht validiert wurde brauche ich auch nicht extra nachzugucken. Ich habe übrigens trotzdem nachgeguckt und es gibt keine Ergebnisse der letzten Tage mit einem Gesamtscore von 6110 Punkten.

Dies Mühe hättest du dir auch machen können, anstatt rote Vierecke zu malen.

Einfach mal Kritik annehmen anstatt Arroganz zu vermuten.

Dawn on Titan
2014-07-22, 15:19:04
Und wie soll der Murks bitte die richtige GPU Bezeichnung erkennen. Es gibt bisher keinen öffentlichen Treiber für GM204 und afaik auch keinen inoffiziellen der Produktnahmen enthält.

Unicous
2014-07-22, 15:24:00
Und wie soll der Murks bitte die richtige GPU Bezeichnung erkennen. Es gibt bisher keinen öffentlichen Treiber für GM204 und afaik auch keinen inoffiziellen der Produktnahmen enthält.

Naja. Die Benchmark-Unternehmen und Tools-Schreiber (GPU-Z) bekommen ja sehr oft schon deutlich vorher Einträge entweder von den Herstellern selber oder über andere Kanäle. Die Namen könnten also schon vorhanden sein. Aber validiert bekommt man sie dadurch noch lange nicht.


edit: Außerdem kann ja auch sicherlich das BIOS ausgelesen werden und da steht ja dann auch die Bezeichnung bzw. der String drin.

Hübie
2014-07-22, 15:26:16
So sieht dass dann aus wenn man vor dem Benchmark die Internetverbindung kappt:

http://abload.de/thumb/3dmark_validating5vpwy.png (http://abload.de/image.php?img=3dmark_validating5vpwy.png)

Ich glaube nach wie vor nicht dass es echt ist, aber eben aus anderen Gründen.

@Dawn on Titan: Ich kann meine 770 auch zu einer 880 machen. Einfach in der inf ändern, Treibersignierung deaktivieren und dann installieren. Die Sysinfo von Futuremark liest das net aus dem BIOS aus.

Dawn on Titan
2014-07-22, 17:18:23
@Dawn on Titan: Ich kann meine 770 auch zu einer 880 machen. Einfach in der inf ändern, Treibersignierung deaktivieren und dann installieren. Die Sysinfo von Futuremark liest das net aus dem BIOS aus.

Das meine ich und mir ist kein legal beziehbarer NV Treiber bekannt der in der inf GM204 hat, ebenso kein inoffizieller der schon Produktnamen hat. Ist doch viel wahrscheinlicher, dass einer seine OC 780ti oder 690 mit ner modifizierten Inf beglückt hat.

Unicous
2014-07-22, 17:29:44
3DMark liest lediglich die .inf aus? Das ist ja vllt lame.

Hübie
2014-07-22, 17:32:59
Ja gut. Wenn du jetzt einer bist der schon so früh Zugriff auf solche Produkte hat, dann hast du auch den entsprechenden Treiber den es dann sicher nicht irgendwo im Netz gibt ;) Entweder auf CD oder eben mit entsprechendem link zum download.

Nein 3DMark liest die Registry aus. Und da steht drin was in der inf stand. Ich weiß gar nicht obs klappt wenn man alle Werte in der registry umbenennt, aber vermutlich nicht.

Edit: Siehe screenshot:

http://abload.de/thumb/fmsi9njez.png (http://abload.de/image.php?img=fmsi9njez.png)

occ-kh@Mirko
2014-07-22, 18:42:08
http://img5.fotos-hochladen.net/uploads/unbenannt30rhlc4bto1.png (http://www.fotos-hochladen.net)

Ein nicht validierter Bench ist nicht wert!

Dawn on Titan
2014-07-22, 18:51:44
Ja gut. Wenn du jetzt einer bist der schon so früh Zugriff auf solche Produkte hat, dann hast du auch den entsprechenden Treiber den es dann sicher nicht irgendwo im Netz gibt ;) Entweder auf CD oder eben mit entsprechendem link zum download.[/url]
Da steht dann aber eher GM204A1-405 in der Inf als GTX880ti.

Hübie
2014-07-22, 19:34:44
Da steht dann aber eher GM204A1-405 in der Inf als GTX880ti.


*hust*

[Strings]
DiskID1 = "NVIDIA Windows (64 bit) Driver Library Installation Disk 1"
NVIDIA = "NVIDIA"
NVIDIA_A = "NVIDIA"
NVIDIA_DEV.0040 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_DEV.0041 = "NVIDIA GeForce 6800"
NVIDIA_DEV.0042 = "NVIDIA GeForce 6800 LE"
NVIDIA_DEV.0043 = "NVIDIA GeForce 6800 XE"
NVIDIA_DEV.0044 = "NVIDIA GeForce 6800 XT"
NVIDIA_DEV.0045 = "NVIDIA GeForce 6800 GT"
NVIDIA_DEV.0046 = "NVIDIA GeForce 6800 GT "
NVIDIA_DEV.0047 = "NVIDIA GeForce 6800 GS"
NVIDIA_DEV.0048 = "NVIDIA GeForce 6800 XT "
NVIDIA_DEV.0049 = "NVIDIA NV40GL"
NVIDIA_DEV.004A = "NV40 (04Ah)"
NVIDIA_DEV.004B = "NV40 (04Bh)"
NVIDIA_DEV.004C = "NV40 (04Ch)"
NVIDIA_DEV.004D = "NVIDIA Quadro FX 3400"
NVIDIA_DEV.004E = "NVIDIA Quadro FX 4000"
NVIDIA_DEV.004F = "NV40 (04Fh)"
NVIDIA_DEV.0090 = "NVIDIA GeForce 7800 GTX"
NVIDIA_DEV.0091 = "NVIDIA GeForce 7800 GTX "
NVIDIA_DEV.0092 = "NVIDIA GeForce 7800 GT"
NVIDIA_DEV.0093 = "NVIDIA GeForce 7800 GS"
NVIDIA_DEV.0094 = "NVIDIA GeForce 7800SE/XT/LE/LT/ZT"
NVIDIA_DEV.0095 = "NVIDIA GeForce 7800 SLI"
NVIDIA_DEV.0098 = "NVIDIA GeForce Go 7800"
NVIDIA_DEV.0099 = "NVIDIA GeForce Go 7800 GTX"
NVIDIA_DEV.009C = "NVIDIA G70GL"
NVIDIA_DEV.009D = "NVIDIA Quadro FX 4500"
NVIDIA_DEV.009E = "NVIDIA G70 "
NVIDIA_DEV.00C0 = "NVIDIA GeForce 6800 GS "
NVIDIA_DEV.00C1 = "NVIDIA GeForce 6800 "
NVIDIA_DEV.00C2 = "NVIDIA GeForce 6800 LE "
NVIDIA_DEV.00C3 = "NVIDIA GeForce 6800 XT "
NVIDIA_DEV.00C4 = "NV41 (0C4h)"
NVIDIA_DEV.00C6 = "NV41 (0C5h)"
NVIDIA_DEV.00C6 = "NV41 (0C6h)"
NVIDIA_DEV.00C7 = "NV41 (0C7h)"
NVIDIA_DEV.00C8 = "NVIDIA GeForce Go 6800"
NVIDIA_DEV.00C9 = "NVIDIA GeForce Go 6800 Ultra"
NVIDIA_DEV.00CC = "NVIDIA Quadro FX Go1400"
NVIDIA_DEV.00CD = "NVIDIA Quadro FX 3450/4000 SDI"
NVIDIA_DEV.00CE = "NVIDIA Quadro FX 1400"
NVIDIA_DEV.00F0 = "NVIDIA Device ID 0x00F0"
NVIDIA_DEV.00F1 = "NVIDIA GeForce 6600 GT"
NVIDIA_DEV.00F2 = "NVIDIA GeForce 6600"
NVIDIA_DEV.00F3 = "NVIDIA GeForce 6200"
NVIDIA_DEV.00F4 = "NVIDIA GeForce 6600 LE"
NVIDIA_DEV.00F5 = "NVIDIA GeForce 7800 GS "
NVIDIA_DEV.00F6 = "NVIDIA GeForce 6800 GS/XT"
NVIDIA_DEV.00F8 = "NVIDIA Quadro FX 3400/4400"
NVIDIA_DEV.00F9 = "NVIDIA GeForce 6800 Series GPU"
NVIDIA_DEV.00FA = "NVIDIA GeForce PCX 5750"
NVIDIA_DEV.00FB = "NVIDIA GeForce PCX 5900"
NVIDIA_DEV.00FC = "NVIDIA GeForce PCX 5300"
NVIDIA_DEV.00FD = "NVIDIA Quadro PCI-E Series"
NVIDIA_DEV.00FE = "NVIDIA Quadro FX 1300"
NVIDIA_DEV.00FF = "NVIDIA GeForce PCX 4300"
NVIDIA_DEV.0100 = "NVIDIA GeForce 256"
NVIDIA_DEV.0101 = "NVIDIA GeForce DDR"
NVIDIA_DEV.0102 = "NVIDIA GeForce (102h)"
NVIDIA_DEV.0103 = "NVIDIA Quadro"
NVIDIA_DEV.0110 = "NVIDIA GeForce2 MX/MX 400"
NVIDIA_DEV.0111 = "NVIDIA GeForce2 MX 100/200"
NVIDIA_DEV.0112 = "NVIDIA GeForce2 Go "
NVIDIA_DEV.0113 = "NVIDIA Quadro2 Go / Quadro2 MXR/EX"
NVIDIA_DEV.0120 = "NV42 (120h)"
NVIDIA_DEV.0121 = "NV42 (121h)"
NVIDIA_DEV.0122 = "NV42 (122h)"
NVIDIA_DEV.0123 = "NV42 (123h)"
NVIDIA_DEV.0124 = "NV42 (124h)"
NVIDIA_DEV.0125 = "NV42 (125h)"
NVIDIA_DEV.0126 = "NV42 (126h)"
NVIDIA_DEV.0127 = "NV42 (127h)"
NVIDIA_DEV.0128 = "NV42 (128h)"
NVIDIA_DEV.0129 = "NV42 (129h)"
NVIDIA_DEV.012A = "NV42 (12Ah)"
NVIDIA_DEV.012B = "NV42 (12Bh)"
NVIDIA_DEV.012C = "NV42 (12Ch)"
NVIDIA_DEV.012D = "NV42 (12Dh)"
NVIDIA_DEV.012E = "NV42 (12Eh)"
NVIDIA_DEV.012F = "NV42 (12Fh)"
NVIDIA_DEV.0140 = "NVIDIA GeForce 6600 GT "
NVIDIA_DEV.0141 = "NVIDIA GeForce 6600 "
NVIDIA_DEV.0142 = "NVIDIA GeForce 6600 LE "
NVIDIA_DEV.0143 = "NVIDIA GeForce 6600 VE"
NVIDIA_DEV.0144 = "NVIDIA GeForce Go 6600"
NVIDIA_DEV.0145 = "NVIDIA GeForce 6610 XL"
NVIDIA_DEV.0146 = "NVIDIA GeForce Go 6600 TE/6200 TE"
NVIDIA_DEV.0147 = "NVIDIA GeForce 6700 XL"
NVIDIA_DEV.0148 = "NVIDIA GeForce Go 6600 "
NVIDIA_DEV.0149 = "NVIDIA GeForce Go 6600 GT"
NVIDIA_DEV.014A = "NVIDIA Quadro NVS 440"
NVIDIA_DEV.014B = "NVIDIA NV43"
NVIDIA_DEV.014C = "NVIDIA Quadro FX 540M"
NVIDIA_DEV.014D = "NVIDIA Quadro FX 550"
NVIDIA_DEV.014E = "NVIDIA Quadro FX 540"
NVIDIA_DEV.014F = "NVIDIA GeForce 6200 "
NVIDIA_DEV.0150 = "NVIDIA GeForce2 GTS/GeForce2 Pro"
NVIDIA_DEV.0151 = "NVIDIA GeForce2 Ti"
NVIDIA_DEV.0152 = "NVIDIA GeForce2 Ultra"
NVIDIA_DEV.0153 = "NVIDIA Quadro2 Pro"
NVIDIA_DEV.0160 = "NVIDIA GeForce 6500"
NVIDIA_DEV.0161 = "NVIDIA GeForce 6200 TurboCache(TM)"
NVIDIA_DEV.0162 = "NVIDIA GeForce 6200SE TurboCache(TM)"
NVIDIA_DEV.0163 = "NVIDIA GeForce 6200 LE"
NVIDIA_DEV.0164 = "NVIDIA GeForce Go 6200"
NVIDIA_DEV.0165 = "NVIDIA Quadro NVS 285"
NVIDIA_DEV.0166 = "NVIDIA GeForce Go 6400"
NVIDIA_DEV.0167 = "NVIDIA GeForce Go 6200 "
NVIDIA_DEV.0168 = "NVIDIA GeForce Go 6400 "
NVIDIA_DEV.0169 = "NVIDIA GeForce 6250"
NVIDIA_DEV.016A = "NVIDIA GeForce 7100 GS"
NVIDIA_DEV.016B = "NVIDIA NV44"
NVIDIA_DEV.016C = "NVIDIA NV44GLM "
NVIDIA_DEV.016D = "NVIDIA NV44GLM "
NVIDIA_DEV.016E = "NVIDIA NV44GL"
NVIDIA_DEV.016F = "NV44 (16Fh)"
NVIDIA_DEV.0170 = "NVIDIA GeForce4 MX 460"
NVIDIA_DEV.0171 = "NVIDIA GeForce4 MX 440"
NVIDIA_DEV.0172 = "NVIDIA GeForce4 MX 420"
NVIDIA_DEV.0173 = "NVIDIA GeForce4 MX 440-SE"
NVIDIA_DEV.0174 = "NVIDIA GeForce4 440 Go "
NVIDIA_DEV.0175 = "NVIDIA GeForce4 420 Go "
NVIDIA_DEV.0176 = "NVIDIA GeForce4 420 Go 32M"
NVIDIA_DEV.0177 = "NVIDIA GeForce4 460 Go "
NVIDIA_DEV.0178 = "NVIDIA Quadro4 550 XGL"
NVIDIA_DEV.0179 = "NVIDIA GeForce4 440 Go 64M "
NVIDIA_DEV.017A = "NVIDIA Quadro NVS"
NVIDIA_DEV.017B = "NVIDIA GeForce4 MX (17Bh)"
NVIDIA_DEV.017C = "NVIDIA Quadro4 500 GoGL "
NVIDIA_DEV.017D = "NVIDIA GeForce4 410 Go 16M "
NVIDIA_DEV.017E = "NVIDIA GeForce4 MX (17Eh)"
NVIDIA_DEV.017F = "NVIDIA GeForce4 MX (17Fh)"
NVIDIA_DEV.0180 = "NV18 (180h)"
NVIDIA_DEV.0181 = "NVIDIA GeForce4 MX 440 with AGP8X"
NVIDIA_DEV.0182 = "NVIDIA GeForce4 MX 440SE with AGP8X"
NVIDIA_DEV.0183 = "NVIDIA GeForce4 MX 420 with AGP8X"
NVIDIA_DEV.0184 = "NV18 (184h)"
NVIDIA_DEV.0185 = "NVIDIA GeForce4 MX 4000"
NVIDIA_DEV.0186 = "NVIDIA GeForce4 448 Go "
NVIDIA_DEV.0187 = "NVIDIA GeForce4 488 Go "
NVIDIA_DEV.0188 = "NVIDIA Quadro4 580 XGL"
NVIDIA_DEV.0189 = "NVIDIA GeForce4 MX with AGP8X (MAC)"
NVIDIA_DEV.018A = "NVIDIA Quadro NVS 280 SD"
NVIDIA_DEV.018B = "NVIDIA Quadro4 380 XGL"
NVIDIA_DEV.018C = "NVIDIA Quadro NVS 50 PCI"
NVIDIA_DEV.018D = "NVIDIA GeForce4 448 Go "
NVIDIA_DEV.018E = "NV18 (18Eh)"
NVIDIA_DEV.018F = "NV18 (18Fh)"
NVIDIA_DEV.0190 = "NVIDIA GeForce 8800"
NVIDIA_DEV.0191 = "NVIDIA GeForce 8800 GTX"
NVIDIA_DEV.0192 = "NVIDIA GeForce 8800 "
NVIDIA_DEV.0193 = "NVIDIA GeForce 8800 GTS"
NVIDIA_DEV.0194 = "NVIDIA GeForce 8800 Ultra"
NVIDIA_DEV.0197 = "NVIDIA Tesla C870"
NVIDIA_DEV.019A = "NVIDIA G80-875"
NVIDIA_DEV.019D = "NVIDIA Quadro FX 5600"
NVIDIA_DEV.019E = "NVIDIA Quadro FX 4600"
NVIDIA_DEV.01A0 = "NVIDIA GeForce2 Integrated GPU"
NVIDIA_DEV.01D0 = "NVIDIA GeForce 7350 LE"
NVIDIA_DEV.01D1 = "NVIDIA GeForce 7300 LE"
NVIDIA_DEV.01D2 = "NVIDIA GeForce 7550 LE"
NVIDIA_DEV.01D3 = "NVIDIA GeForce 7300 SE/7200 GS"
NVIDIA_DEV.01D4 = "NVIDIA GeForce Go 7350"
NVIDIA_DEV.01D5 = "NVIDIA Entry Graphics"
NVIDIA_DEV.01D6 = "NVIDIA GeForce Go 7200"
NVIDIA_DEV.01D7 = "NVIDIA GeForce Go 7300"
NVIDIA_DEV.01D8 = "NVIDIA GeForce Go 7400"
NVIDIA_DEV.01D9 = "NVIDIA GeForce Go 7450"
NVIDIA_DEV.01DA = "NVIDIA Quadro NVS 110M"
NVIDIA_DEV.01DB = "NVIDIA Quadro NVS 120M"
NVIDIA_DEV.01DC = "NVIDIA Quadro FX 350M"
NVIDIA_DEV.01DD = "NVIDIA GeForce 7500 LE"
NVIDIA_DEV.01DE = "NVIDIA Quadro FX 350"
NVIDIA_DEV.01DF = "NVIDIA GeForce 7300 GS"
NVIDIA_DEV.01F0 = "NVIDIA GeForce4 MX Integrated GPU"
NVIDIA_DEV.0200 = "NVIDIA GeForce3"
NVIDIA_DEV.0201 = "NVIDIA GeForce3 Ti 200"
NVIDIA_DEV.0202 = "NVIDIA GeForce3 Ti 500"
NVIDIA_DEV.0203 = "NVIDIA Quadro DCC"
NVIDIA_DEV.0210 = "NVIDIA NV48"
NVIDIA_DEV.0211 = "NVIDIA GeForce 6800 "
NVIDIA_DEV.0212 = "NVIDIA GeForce 6800 LE "
NVIDIA_DEV.0215 = "NVIDIA GeForce 6800 GT "
NVIDIA_DEV.0218 = "NVIDIA GeForce 6800 XT "
NVIDIA_DEV.021D = "NVIDIA NV48 "
NVIDIA_DEV.021E = "NVIDIA NV48 "
NVIDIA_DEV.0220 = "NVIDIA NV44 "
NVIDIA_DEV.0221 = "NVIDIA GeForce 6200 "
NVIDIA_DEV.0222 = "NVIDIA GeForce 6200 A-LE"
NVIDIA_DEV.0224 = "NV44"
NVIDIA_DEV.0228 = "NVIDIA NV44M"
NVIDIA_DEV.0240 = "NVIDIA GeForce 6150"
NVIDIA_DEV.0241 = "NVIDIA GeForce 6150 LE"
NVIDIA_DEV.0242 = "NVIDIA GeForce 6100"
NVIDIA_DEV.0243 = "NVIDIA C51 "
NVIDIA_DEV.0244 = "NVIDIA GeForce Go 6150"
NVIDIA_DEV.0245 = "NVIDIA Quadro NVS 210S / NVIDIA GeForce 6150LE"
NVIDIA_DEV.0246 = "NVIDIA C51"
NVIDIA_DEV.0247 = "NVIDIA GeForce Go 6100"
NVIDIA_DEV.0248 = "NVIDIA C51 "
NVIDIA_DEV.0249 = "NVIDIA C51 "
NVIDIA_DEV.024A = "NVIDIA C51 "
NVIDIA_DEV.024B = "NVIDIA C51 "
NVIDIA_DEV.024C = "NVIDIA C51 "
NVIDIA_DEV.024D = "NVIDIA C51 "
NVIDIA_DEV.024E = "NVIDIA C51 "
NVIDIA_DEV.024F = "NVIDIA C51 "
NVIDIA_DEV.0250 = "NVIDIA GeForce4 Ti 4600"
NVIDIA_DEV.0251 = "NVIDIA GeForce4 Ti 4400"
NVIDIA_DEV.0252 = "NVIDIA GeForce4 Ti"
NVIDIA_DEV.0253 = "NVIDIA GeForce4 Ti 4200"
NVIDIA_DEV.0254 = "NV25 (254h)"
NVIDIA_DEV.0255 = "NV25 (255h)"
NVIDIA_DEV.0256 = "NV25 (256h)"
NVIDIA_DEV.0257 = "NV25 (257h)"
NVIDIA_DEV.0258 = "NVIDIA Quadro4 900 XGL"
NVIDIA_DEV.0259 = "NVIDIA Quadro4 750 XGL"
NVIDIA_DEV.025A = "NV25 (25Ah)"
NVIDIA_DEV.025B = "NVIDIA Quadro4 700 XGL"
NVIDIA_DEV.025D = "NV25 (25Dh)"
NVIDIA_DEV.025E = "NV25 (25Eh)"
NVIDIA_DEV.025F = "NV25 (25Fh)"
NVIDIA_DEV.0280 = "NVIDIA GeForce4 Ti 4800"
NVIDIA_DEV.0281 = "NVIDIA GeForce4 Ti 4200 with AGP8X"
NVIDIA_DEV.0282 = "NVIDIA GeForce4 Ti 4800 SE"
NVIDIA_DEV.0283 = "NV28 (283h)"
NVIDIA_DEV.0284 = "NV28 (284h)"
NVIDIA_DEV.0285 = "NV28 (285h)"
NVIDIA_DEV.0286 = "NVIDIA GeForce4 4200 Go "
NVIDIA_DEV.0287 = "NV28 (287h)"
NVIDIA_DEV.0288 = "NVIDIA Quadro4 980 XGL"
NVIDIA_DEV.0289 = "NVIDIA Quadro4 780 XGL"
NVIDIA_DEV.028A = "NV28 (28Ah)"
NVIDIA_DEV.028B = "NV28 (28Bh)"
NVIDIA_DEV.028C = "NVIDIA Quadro4 700 GoGL "
NVIDIA_DEV.028D = "NV28 (28Dh)"
NVIDIA_DEV.028E = "NV28 (28Eh)"
NVIDIA_DEV.028F = "NV28 (28Fh)"
NVIDIA_DEV.0290 = "NVIDIA GeForce 7900 GTX"
NVIDIA_DEV.0291 = "NVIDIA GeForce 7900 GT/GTO"
NVIDIA_DEV.0292 = "NVIDIA GeForce 7900 GS"
NVIDIA_DEV.0293 = "NVIDIA GeForce 7950 GX2"
NVIDIA_DEV.0294 = "NVIDIA GeForce 7950 GX2 "
NVIDIA_DEV.0295 = "NVIDIA GeForce 7950 GT"
NVIDIA_DEV.0296 = "NVIDIA G71"
NVIDIA_DEV.0297 = "NVIDIA GeForce Go 7950 GTX"
NVIDIA_DEV.0298 = "NVIDIA GeForce Go 7900 GS"
NVIDIA_DEV.0299 = "NVIDIA GeForce Go 7900 GTX / Quadro NVS 510M"
NVIDIA_DEV.029A = "NVIDIA Quadro FX 2500M"
NVIDIA_DEV.029B = "NVIDIA Quadro FX 1500M"
NVIDIA_DEV.029C = "NVIDIA Quadro FX 5500"
NVIDIA_DEV.029D = "NVIDIA Quadro FX 3500"
NVIDIA_DEV.029E = "NVIDIA Quadro FX 1500"
NVIDIA_DEV.029F = "NVIDIA Quadro FX 4500 X2"
NVIDIA_DEV.02A0 = "NVIDIA NV2A GeForce 3 Integrated (XBOX)"
NVIDIA_DEV.02E0 = "NVIDIA GeForce 7600 GT"
NVIDIA_DEV.02E1 = "NVIDIA GeForce 7600 GS"
NVIDIA_DEV.02E2 = "NVIDIA GeForce 7300 GT"
NVIDIA_DEV.02E3 = "NVIDIA GeForce 7900 GS "
NVIDIA_DEV.02E4 = "NVIDIA GeForce 7950 GT "
NVIDIA_DEV.02E5 = "BR02-A04 (2E5h)"
NVIDIA_DEV.02E6 = "BR02-A04 (2E6h)"
NVIDIA_DEV.02E7 = "BR02-A04 (2E7h)"
NVIDIA_DEV.0300 = "NVIDIA NV30"
NVIDIA_DEV.0301 = "NVIDIA GeForce FX 5800 Ultra"
NVIDIA_DEV.0302 = "NVIDIA GeForce FX 5800"
NVIDIA_DEV.0308 = "NVIDIA Quadro FX 2000"
NVIDIA_DEV.0309 = "NVIDIA Quadro FX 1000"
NVIDIA_DEV.030A = "NVIDIA ICE FX 2000"
NVIDIA_DEV.0311 = "NVIDIA GeForce FX 5600 Ultra"
NVIDIA_DEV.0312 = "NVIDIA GeForce FX 5600"
NVIDIA_DEV.0313 = "NVIDIA NV31"
NVIDIA_DEV.0314 = "NVIDIA GeForce FX 5600XT"
NVIDIA_DEV.0316 = "NVIDIA NV31M "
NVIDIA_DEV.0317 = "NVIDIA NV31M Pro "
NVIDIA_DEV.0318 = "NVIDIA NV31GL"
NVIDIA_DEV.0319 = "NVIDIA NV31GL"
NVIDIA_DEV.031A = "NVIDIA GeForce FX Go 5600 "
NVIDIA_DEV.031B = "NVIDIA GeForce FX Go 5650 "
NVIDIA_DEV.031C = "NVIDIA Quadro FX Go 700 "
NVIDIA_DEV.031D = "NVIDIA NV31GLM "
NVIDIA_DEV.031E = "NVIDIA NV31GLM Pro"
NVIDIA_DEV.031F = "NVIDIA NV31GLM Pro "
NVIDIA_DEV.0320 = "NVIDIA GeForce FX 5200"
NVIDIA_DEV.0321 = "NVIDIA GeForce FX 5200 Ultra"
NVIDIA_DEV.0322 = "NVIDIA GeForce FX 5200 "
NVIDIA_DEV.0323 = "NVIDIA GeForce FX 5200LE "
NVIDIA_DEV.0324 = "NVIDIA GeForce FX Go 5200 64MB"
NVIDIA_DEV.0325 = "NVIDIA GeForce FX Go 5250/5500 "
NVIDIA_DEV.0326 = "NVIDIA GeForce FX 5500"
NVIDIA_DEV.0327 = "NVIDIA GeForce FX 5100"
NVIDIA_DEV.0328 = "NVIDIA GeForce FX Go 5200 32/64M "
NVIDIA_DEV.0329 = "NVIDIA GeForce FX 5200 (MAC)"
NVIDIA_DEV.032A = "NVIDIA Quadro NVS 55/280 PCI"
NVIDIA_DEV.032B = "NVIDIA Quadro FX 500/FX 600"
NVIDIA_DEV.032C = "NVIDIA GeForce FX Go 53x0 "
NVIDIA_DEV.032D = "NVIDIA GeForce FX Go 5100 "
NVIDIA_DEV.032E = "NV34"
NVIDIA_DEV.032F = "NVIDIA NV34GL"
NVIDIA_DEV.0330 = "NVIDIA GeForce FX 5900 Ultra"
NVIDIA_DEV.0331 = "NVIDIA GeForce FX 5900"
NVIDIA_DEV.0332 = "NVIDIA GeForce FX 5900XT"
NVIDIA_DEV.0333 = "NVIDIA GeForce FX 5950 Ultra"
NVIDIA_DEV.0334 = "NVIDIA GeForce FX 5900ZT"
NVIDIA_DEV.0338 = "NVIDIA Quadro FX 3000"
NVIDIA_DEV.033F = "NVIDIA Quadro FX 700"
NVIDIA_DEV.0341 = "NVIDIA GeForce FX 5700 Ultra"
NVIDIA_DEV.0342 = "NVIDIA GeForce FX 5700"
NVIDIA_DEV.0343 = "NVIDIA GeForce FX 5700LE"
NVIDIA_DEV.0344 = "NVIDIA GeForce FX 5700VE"
NVIDIA_DEV.0345 = "NVIDIA NV36"
NVIDIA_DEV.0347 = "NVIDIA GeForce FX Go 5700 "
NVIDIA_DEV.0348 = "NVIDIA GeForce FX Go 5700 "
NVIDIA_DEV.0349 = "NVIDIA NV36M Pro "
NVIDIA_DEV.034B = "NVIDIA NV36MAP "
NVIDIA_DEV.034C = "NVIDIA Quadro FX Go 1000 "
NVIDIA_DEV.034D = "NV36"
NVIDIA_DEV.034E = "NVIDIA Quadro FX 1100"
NVIDIA_DEV.034F = "NVIDIA NV36GL"
NVIDIA_DEV.038B = "NVIDIA GeForce 7650 GS"
NVIDIA_DEV.0390 = "NVIDIA GeForce 7650 GS "
NVIDIA_DEV.0391 = "NVIDIA GeForce 7600 GT "
NVIDIA_DEV.0392 = "NVIDIA GeForce 7600 GS "
NVIDIA_DEV.0393 = "NVIDIA GeForce 7300 GT "
NVIDIA_DEV.0394 = "NVIDIA GeForce 7600 LE"
NVIDIA_DEV.0395 = "NVIDIA GeForce 7300 GT "
NVIDIA_DEV.0396 = "G73 "
NVIDIA_DEV.0397 = "NVIDIA GeForce Go 7700"
NVIDIA_DEV.0398 = "NVIDIA GeForce Go 7600"
NVIDIA_DEV.0399 = "NVIDIA GeForce Go 7600 GT"
NVIDIA_DEV.039A = "NVIDIA Quadro NVS 300M"
NVIDIA_DEV.039B = "NVIDIA GeForce Go 7900 SE"
NVIDIA_DEV.039C = "NVIDIA Quadro FX 560M"
NVIDIA_DEV.039D = "G73 "
NVIDIA_DEV.039E = "NVIDIA Quadro FX 560"
NVIDIA_DEV.039F = "G73"
NVIDIA_DEV.03D0 = "NVIDIA GeForce 6150SE nForce 430"
NVIDIA_DEV.03D1 = "NVIDIA GeForce 6100 nForce 405"
NVIDIA_DEV.03D2 = "NVIDIA GeForce 6100 nForce 400"
NVIDIA_DEV.03D3 = "NVIDIA MCP61"
NVIDIA_DEV.03D4 = "NVIDIA MCP61 "
NVIDIA_DEV.03D5 = "NVIDIA GeForce 6100 nForce 420"
NVIDIA_DEV.03D6 = "NVIDIA GeForce 7025 / NVIDIA nForce 630a"
NVIDIA_DEV.03D7 = "NVIDIA MCP61 "
NVIDIA_DEV.03D8 = "NVIDIA MCP61 "
NVIDIA_DEV.03D9 = "NVIDIA MCP61 "
NVIDIA_DEV.03DA = "NVIDIA MCP61 "
NVIDIA_DEV.03DB = "NVIDIA MCP61 "
NVIDIA_DEV.03DC = "NVIDIA MCP61 "
NVIDIA_DEV.03DD = "NVIDIA MCP61 "
NVIDIA_DEV.03DE = "NVIDIA MCP61 "
NVIDIA_DEV.03DF = "NVIDIA MCP61 "
NVIDIA_DEV.0400 = "NVIDIA GeForce 8600 GTS"
NVIDIA_DEV.0401 = "NVIDIA GeForce 8600 GT"
NVIDIA_DEV.0402 = "NVIDIA GeForce 8600 GT "
NVIDIA_DEV.0403 = "NVIDIA GeForce 8600 GS"
NVIDIA_DEV.0404 = "NVIDIA GeForce 8400 GS"
NVIDIA_DEV.0405 = "NVIDIA GeForce 9500M GS"
NVIDIA_DEV.0406 = "NVIDIA GeForce 8300 GS"
NVIDIA_DEV.0407 = "NVIDIA GeForce 8600M GT"
NVIDIA_DEV.0408 = "NVIDIA GeForce 9650M GS"
NVIDIA_DEV.0409 = "NVIDIA GeForce 8700M GT"
NVIDIA_DEV.040A = "NVIDIA Quadro FX 370"
NVIDIA_DEV.040B = "NVIDIA Quadro NVS 320M"
NVIDIA_DEV.040C = "NVIDIA Quadro FX 570M"
NVIDIA_DEV.040D = "NVIDIA Quadro FX 1600M"
NVIDIA_DEV.040E = "NVIDIA Quadro FX 570"
NVIDIA_DEV.040F = "NVIDIA Quadro FX 1700"
NVIDIA_DEV.0410 = "NVIDIA GeForce GT 330"
NVIDIA_DEV.0414 = "NVIDIA G92"
NVIDIA_DEV.0420 = "NVIDIA GeForce 8400 SE"
NVIDIA_DEV.0421 = "NVIDIA GeForce 8500 GT"
NVIDIA_DEV.0422 = "NVIDIA GeForce 8400 GS "
NVIDIA_DEV.0423 = "NVIDIA GeForce 8300 GS "
NVIDIA_DEV.0424 = "NVIDIA GeForce 8400 GS "
NVIDIA_DEV.0425 = "NVIDIA GeForce 8600M GS"
NVIDIA_DEV.0426 = "NVIDIA GeForce 8400M GT"
NVIDIA_DEV.0427 = "NVIDIA GeForce 8400M GS"
NVIDIA_DEV.0428 = "NVIDIA GeForce 8400M G"
NVIDIA_DEV.0429 = "NVIDIA Quadro NVS 140M"
NVIDIA_DEV.042A = "NVIDIA Quadro NVS 130M"
NVIDIA_DEV.042B = "NVIDIA Quadro NVS 135M"
NVIDIA_DEV.042C = "NVIDIA GeForce 9400 GT"
NVIDIA_DEV.042D = "NVIDIA Quadro FX 360M"
NVIDIA_DEV.042E = "NVIDIA GeForce 9300M G"
NVIDIA_DEV.042F = "NVIDIA Quadro NVS 290"
NVIDIA_DEV.04C0 = "NVIDIA G78"
NVIDIA_DEV.04C1 = "NVIDIA G78 "
NVIDIA_DEV.04C2 = "NVIDIA G78 "
NVIDIA_DEV.04C3 = "NVIDIA G78 "
NVIDIA_DEV.04C4 = "NVIDIA G78 "
NVIDIA_DEV.04C5 = "NVIDIA G78 "
NVIDIA_DEV.04C6 = "NVIDIA G78 "
NVIDIA_DEV.04C7 = "NVIDIA G78 "
NVIDIA_DEV.04C8 = "NVIDIA G78 "
NVIDIA_DEV.04C9 = "NVIDIA G78 "
NVIDIA_DEV.04CA = "NVIDIA G78 "
NVIDIA_DEV.04CB = "NVIDIA G78 "
NVIDIA_DEV.04CC = "NVIDIA G78 "
NVIDIA_DEV.04CD = "NVIDIA G78 "
NVIDIA_DEV.04CE = "NVIDIA G78 "
NVIDIA_DEV.04CF = "NVIDIA G78 "
NVIDIA_DEV.0530 = "NVIDIA GeForce 7190M / nForce 650M"
NVIDIA_DEV.0531 = "NVIDIA GeForce 7150M / nForce 630M"
NVIDIA_DEV.0532 = "NVIDIA MCP67M"
NVIDIA_DEV.0533 = "NVIDIA GeForce 7000M / nForce 610M"
NVIDIA_DEV.053A = "NVIDIA GeForce 7050 PV / NVIDIA nForce 630a"
NVIDIA_DEV.053B = "NVIDIA GeForce 7050 PV / NVIDIA nForce 630a "
NVIDIA_DEV.053E = "NVIDIA GeForce 7025 / NVIDIA nForce 630a"
NVIDIA_DEV.053F = "NVIDIA MCP67M "
NVIDIA_DEV.05E0 = "NVIDIA GeForce GTX 295"
NVIDIA_DEV.05E1 = "NVIDIA GeForce GTX 280"
NVIDIA_DEV.05E2 = "NVIDIA GeForce GTX 260"
NVIDIA_DEV.05E3 = "NVIDIA GeForce GTX 285"
NVIDIA_DEV.05E4 = "NVIDIA GT200"
NVIDIA_DEV.05E5 = "NVIDIA GT200 "
NVIDIA_DEV.05E6 = "NVIDIA GeForce GTX 275"
NVIDIA_DEV.05E7 = "NVIDIA Tesla T10 Processor / C1060 / M1060"
NVIDIA_DEV.05E8 = "NVIDIA GT200 "
NVIDIA_DEV.05E9 = "NVIDIA GT200 "
NVIDIA_DEV.05EA = "NVIDIA GeForce GTX 260 "
NVIDIA_DEV.05EB = "NVIDIA GeForce GTX 295 "
NVIDIA_DEV.05EC = "NVIDIA GT200 "
NVIDIA_DEV.05ED = "NVIDIA Quadroplex 2200 D2"
NVIDIA_DEV.05EE = "NVIDIA GT200 "
NVIDIA_DEV.05EF = "NVIDIA GT200 "
NVIDIA_DEV.05F0 = "NVIDIA GT200 "
NVIDIA_DEV.05F1 = "NVIDIA GT200 "
NVIDIA_DEV.05F1 = "NVIDIA GTX 280"
NVIDIA_DEV.05F2 = "NVIDIA GT200 "
NVIDIA_DEV.05F2 = "NVIDIA GTX 260"
NVIDIA_DEV.05F3 = "NVIDIA GT200 "
NVIDIA_DEV.05F4 = "NVIDIA GT200 "
NVIDIA_DEV.05F5 = "NVIDIA GT200 "
NVIDIA_DEV.05F6 = "NVIDIA GT200 "
NVIDIA_DEV.05F7 = "NVIDIA GT200 "
NVIDIA_DEV.05F8 = "NVIDIA Quadroplex 2200 S4"
NVIDIA_DEV.05F9 = "NVIDIA Quadro CX"
NVIDIA_DEV.05FA = "NVIDIA GT200 "
NVIDIA_DEV.05FB = "NVIDIA GT200 "
NVIDIA_DEV.05FC = "NVIDIA GT200 "
NVIDIA_DEV.05FD = "NVIDIA Quadro FX 5800"
NVIDIA_DEV.05FE = "NVIDIA Quadro FX 4800"
NVIDIA_DEV.05FF = "NVIDIA Quadro FX 3800"
NVIDIA_DEV.0600 = "NVIDIA GeForce 8800 GTS 512"
NVIDIA_DEV.0601 = "NVIDIA GeForce 9800 GT"
NVIDIA_DEV.0602 = "NVIDIA GeForce 8800 GT"
NVIDIA_DEV.0603 = "NVIDIA GeForce GT 230"
NVIDIA_DEV.0604 = "NVIDIA GeForce 9800 GX2"
NVIDIA_DEV.0605 = "NVIDIA GeForce 9800 GT "
NVIDIA_DEV.0606 = "NVIDIA GeForce 8800 GS"
NVIDIA_DEV.0607 = "NVIDIA GeForce GTS 240"
NVIDIA_DEV.0608 = "NVIDIA GeForce 9800M GTX"
NVIDIA_DEV.0609 = "NVIDIA GeForce 8800M GTS"
NVIDIA_DEV.060A = "NVIDIA GeForce GTX 280M"
NVIDIA_DEV.060B = "NVIDIA GeForce 9800M GT"
NVIDIA_DEV.060C = "NVIDIA GeForce 8800M GTX"
NVIDIA_DEV.060D = "NVIDIA GeForce 8800 GS "
NVIDIA_DEV.060E = "NVIDIA GeForce 9850 X"
NVIDIA_DEV.060F = "NVIDIA GeForce GTX 285M"
NVIDIA_DEV.0610 = "NVIDIA GeForce 9600 GSO"
NVIDIA_DEV.0611 = "NVIDIA GeForce 8800 GT "
NVIDIA_DEV.0612 = "NVIDIA GeForce 9800 GTX/9800 GTX+"
NVIDIA_DEV.0613 = "NVIDIA GeForce 9800 GTX+"
NVIDIA_DEV.0614 = "NVIDIA GeForce 9800 GT "
NVIDIA_DEV.0615 = "NVIDIA GeForce GTS 250"
NVIDIA_DEV.0616 = "NVIDIA G92"
NVIDIA_DEV.0617 = "NVIDIA GeForce 9800M GTX "
NVIDIA_DEV.0618 = "NVIDIA GeForce GTX 260M"
NVIDIA_DEV.0619 = "NVIDIA Quadro FX 4700 X2"
NVIDIA_DEV.061A = "NVIDIA Quadro FX 3700"
NVIDIA_DEV.061B = "NVIDIA Quadro VX 200"
NVIDIA_DEV.061C = "NVIDIA Quadro FX 3600M"
NVIDIA_DEV.061D = "NVIDIA Quadro FX 2800M"
NVIDIA_DEV.061E = "NVIDIA Quadro FX 3700M"
NVIDIA_DEV.061F = "NVIDIA Quadro FX 3800M"
NVIDIA_DEV.0620 = "NVIDIA G94"
NVIDIA_DEV.0621 = "NVIDIA GeForce GT 230 "
NVIDIA_DEV.0622 = "NVIDIA GeForce 9600 GT"
NVIDIA_DEV.0623 = "NVIDIA GeForce 9600 GS"
NVIDIA_DEV.0624 = "NVIDIA G94 "
NVIDIA_DEV.0625 = "NVIDIA GeForce 9600 GSO 512"
NVIDIA_DEV.0626 = "NVIDIA GeForce GT 130"
NVIDIA_DEV.0627 = "NVIDIA GeForce GT 140"
NVIDIA_DEV.0628 = "NVIDIA GeForce 9800M GTS"
NVIDIA_DEV.0629 = "NVIDIA G94 "
NVIDIA_DEV.062A = "NVIDIA GeForce 9700M GTS"
NVIDIA_DEV.062B = "NVIDIA GeForce 9800M GS"
NVIDIA_DEV.062C = "NVIDIA GeForce 9800M GTS "
NVIDIA_DEV.062D = "NVIDIA GeForce 9600 GT "
NVIDIA_DEV.062E = "NVIDIA GeForce 9600 GT "
NVIDIA_DEV.062F = "NVIDIA GeForce 9800 S"
NVIDIA_DEV.0630 = "NVIDIA GeForce 9700 S"
NVIDIA_DEV.0631 = "NVIDIA GeForce GTS 160M"
NVIDIA_DEV.0632 = "NVIDIA GeForce GTS 150M"
NVIDIA_DEV.0633 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0634 = "NVIDIA G94 "
NVIDIA_DEV.0635 = "NVIDIA GeForce 9600 GSO "
NVIDIA_DEV.0636 = "NVIDIA G94 "
NVIDIA_DEV.0637 = "NVIDIA GeForce 9600 GT "
NVIDIA_DEV.0638 = "NVIDIA Quadro FX 1800"
NVIDIA_DEV.0639 = "NVIDIA G94 "
NVIDIA_DEV.063A = "NVIDIA Quadro FX 2700M"
NVIDIA_DEV.063B = "NVIDIA G94 "
NVIDIA_DEV.063C = "NVIDIA G94 "
NVIDIA_DEV.063D = "NVIDIA G94 "
NVIDIA_DEV.063E = "NVIDIA G94 "
NVIDIA_DEV.063F = "NVIDIA G94 "
NVIDIA_DEV.0640 = "NVIDIA GeForce 9500 GT"
NVIDIA_DEV.0641 = "NVIDIA GeForce 9400 GT "
NVIDIA_DEV.0642 = "NVIDIA GeForce 8400 GS "
NVIDIA_DEV.0643 = "NVIDIA GeForce 9500 GT "
NVIDIA_DEV.0644 = "NVIDIA GeForce 9500 GS"
NVIDIA_DEV.0645 = "NVIDIA GeForce 9500 GS "
NVIDIA_DEV.0646 = "NVIDIA GeForce GT 120"
NVIDIA_DEV.0647 = "NVIDIA GeForce 9600M GT"
NVIDIA_DEV.0648 = "NVIDIA GeForce 9600M GS"
NVIDIA_DEV.0649 = "NVIDIA GeForce 9600M GT / GeForce GT 220M"
NVIDIA_DEV.064A = "NVIDIA GeForce 9700M GT"
NVIDIA_DEV.064B = "NVIDIA GeForce 9500M G"
NVIDIA_DEV.064C = "NVIDIA GeForce 9650M GT"
NVIDIA_DEV.064D = "NVIDIA G96"
NVIDIA_DEV.064E = "NVIDIA G96 "
NVIDIA_DEV.064F = "NVIDIA GeForce 9600 S"
NVIDIA_DEV.0650 = "NVIDIA G96-825"
NVIDIA_DEV.0651 = "NVIDIA GeForce G 110M"
NVIDIA_DEV.0652 = "NVIDIA GeForce GT 130M"
NVIDIA_DEV.0653 = "NVIDIA GeForce GT 120M"
NVIDIA_DEV.0654 = "NVIDIA GeForce GT 220M"
NVIDIA_DEV.0655 = "NVIDIA GeForce 9500 GS / GeForce 9600 S"
NVIDIA_DEV.0656 = "NVIDIA GeForce 9500 GT / GeForce 9650 S "
NVIDIA_DEV.0657 = "NVIDIA G96 "
NVIDIA_DEV.0658 = "NVIDIA Quadro FX 380"
NVIDIA_DEV.0659 = "NVIDIA Quadro FX 580"
NVIDIA_DEV.065A = "NVIDIA Quadro FX 1700M"
NVIDIA_DEV.065B = "NVIDIA GeForce 9400 GT "
NVIDIA_DEV.065C = "NVIDIA Quadro FX 770M"
NVIDIA_DEV.065D = "NVIDIA G96 "
NVIDIA_DEV.065E = "NVIDIA G96 "
NVIDIA_DEV.065F = "NVIDIA GeForce G210"
NVIDIA_DEV.06A0 = "NVIDIA GT214"
NVIDIA_DEV.06B0 = "NVIDIA GT214 "
NVIDIA_DEV.06C0 = "NVIDIA GeForce GTX 480"
NVIDIA_DEV.06C1 = "NVIDIA D12U"
NVIDIA_DEV.06C2 = "NVIDIA D12U "
NVIDIA_DEV.06C3 = "NVIDIA D12U"
NVIDIA_DEV.06C4 = "NVIDIA GeForce GTX 465"
NVIDIA_DEV.06C5 = "NVIDIA D12U "
NVIDIA_DEV.06C6 = "NVIDIA D12U "
NVIDIA_DEV.06C7 = "NVIDIA D12U "
NVIDIA_DEV.06C8 = "NVIDIA D12U "
NVIDIA_DEV.06C9 = "NVIDIA D12U "
NVIDIA_DEV.06CA = "NVIDIA GeForce GTX 480M"
NVIDIA_DEV.06CB = "NVIDIA GeForce GTX 480 "
NVIDIA_DEV.06CD = "NVIDIA GeForce GTX 470"
NVIDIA_DEV.06D1 = "NVIDIA Tesla C2050"
NVIDIA_DEV.06D2 = "NVIDIA Tesla M2070"
NVIDIA_DEV.06D8 = "NVIDIA Quadro 6000"
NVIDIA_DEV.06D8 = "NVIDIA Quadro Q11U-3"
NVIDIA_DEV.06D9 = "NVIDIA Quadro 5000"
NVIDIA_DEV.06DA = "NVIDIA Quadro 5000M"
NVIDIA_DEV.06DD = "NVIDIA Quadro 4000"
NVIDIA_DEV.06DD = "NVIDIA Quadro 4000"
NVIDIA_DEV.06DE = "NVIDIA Tesla M2050"
NVIDIA_DEV.06DF = "NVIDIA Tesla M2070-Q"
NVIDIA_DEV.06E0 = "NVIDIA GeForce 9300 GE"
NVIDIA_DEV.06E1 = "NVIDIA GeForce 9300 GS"
NVIDIA_DEV.06E2 = "NVIDIA GeForce 8400"
NVIDIA_DEV.06E3 = "NVIDIA GeForce 8400 SE "
NVIDIA_DEV.06E4 = "NVIDIA GeForce 8400 GS "
NVIDIA_DEV.06E5 = "NVIDIA GeForce 9300M GS"
NVIDIA_DEV.06E6 = "NVIDIA GeForce G100"
NVIDIA_DEV.06E7 = "NVIDIA GeForce 9300 SE"
NVIDIA_DEV.06E8 = "NVIDIA GeForce 9200M GS"
NVIDIA_DEV.06E9 = "NVIDIA GeForce 9300M GS "
NVIDIA_DEV.06EA = "NVIDIA Quadro NVS 150M"
NVIDIA_DEV.06EB = "NVIDIA Quadro NVS 160M"
NVIDIA_DEV.06EC = "NVIDIA GeForce G 105M"
NVIDIA_DEV.06ED = "NVIDIA G98 "
NVIDIA_DEV.06EE = "NVIDIA G98 "
NVIDIA_DEV.06EF = "NVIDIA GeForce G 103M"
NVIDIA_DEV.06F0 = "NVIDIA G98 "
NVIDIA_DEV.06F1 = "NVIDIA GeForce G105M"
NVIDIA_DEV.06F2 = "NVIDIA G98 "
NVIDIA_DEV.06F3 = "NVIDIA G98 "
NVIDIA_DEV.06F4 = "NVIDIA G98 "
NVIDIA_DEV.06F5 = "NVIDIA G98 "
NVIDIA_DEV.06F6 = "NVIDIA G98 "
NVIDIA_DEV.06F7 = "NVIDIA G98 "
NVIDIA_DEV.06F8 = "NVIDIA Quadro NVS 420"
NVIDIA_DEV.06F9 = "NVIDIA Quadro FX 370 LP"
NVIDIA_DEV.06FA = "NVIDIA Quadro NVS 450"
NVIDIA_DEV.06FB = "NVIDIA Quadro FX 370M"
NVIDIA_DEV.06FC = "NVIDIA G98 "
NVIDIA_DEV.06FD = "NVIDIA Quadro NVS 295"
NVIDIA_DEV.06FE = "NVIDIA G98 "
NVIDIA_DEV.06FF = "NVIDIA HICx8 / HICx16 + Graphics"
NVIDIA_DEV.07E0 = "NVIDIA GeForce 7150 / NVIDIA nForce 630i"
NVIDIA_DEV.07E1 = "NVIDIA GeForce 7100 / NVIDIA nForce 630i"
NVIDIA_DEV.07E2 = "NVIDIA GeForce 7050 / NVIDIA nForce 630i"
NVIDIA_DEV.07E3 = "NVIDIA GeForce 7050 / NVIDIA nForce 610i"
NVIDIA_DEV.07E4 = "NVIDIA MCP73"
NVIDIA_DEV.07E5 = "NVIDIA GeForce 7050 / NVIDIA nForce 620i"
NVIDIA_DEV.07E6 = "NVIDIA MCP73 "
NVIDIA_DEV.07E7 = "NVIDIA MCP73 "
NVIDIA_DEV.07E8 = "NVIDIA MCP73 "
NVIDIA_DEV.07E9 = "NVIDIA MCP73 "
NVIDIA_DEV.07EA = "NVIDIA MCP73 "
NVIDIA_DEV.07EB = "NVIDIA MCP73 "
NVIDIA_DEV.07EC = "NVIDIA MCP73 "
NVIDIA_DEV.07ED = "NVIDIA MCP73 "
NVIDIA_DEV.07EE = "NVIDIA MCP73 "
NVIDIA_DEV.07EF = "NVIDIA MCP73 "
NVIDIA_DEV.0840 = "NVIDIA GeForce 8200M"
NVIDIA_DEV.0842 = "NVIDIA MCP77/78"
NVIDIA_DEV.0844 = "NVIDIA GeForce 9100M G"
NVIDIA_DEV.0845 = "NVIDIA GeForce 8200M G / GeForce 8200M"
NVIDIA_DEV.0846 = "NVIDIA GeForce 9200"
NVIDIA_DEV.0847 = "NVIDIA GeForce 9100"
NVIDIA_DEV.0848 = "NVIDIA GeForce 8300"
NVIDIA_DEV.0849 = "NVIDIA GeForce 8200"
NVIDIA_DEV.084A = "NVIDIA nForce 730a"
NVIDIA_DEV.084B = "NVIDIA GeForce 8200 / GeForce 9200"
NVIDIA_DEV.084C = "NVIDIA nForce 980a/780a SLI"
NVIDIA_DEV.084D = "NVIDIA nForce 750a SLI"
NVIDIA_DEV.084F = "NVIDIA GeForce 8100 / nForce 720a"
NVIDIA_DEV.0850 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0851 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0852 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0853 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0854 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0855 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0856 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0857 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0858 = "NVIDIA MCP77/78 "
NVIDIA_DEV.0859 = "NVIDIA MCP77/78 "
NVIDIA_DEV.085A = "NVIDIA MCP77/78 "
NVIDIA_DEV.085B = "NVIDIA MCP77/78 "
NVIDIA_DEV.085C = "NVIDIA MCP77/78 "
NVIDIA_DEV.085D = "NVIDIA MCP77/78 "
NVIDIA_DEV.085E = "NVIDIA MCP77/78 "
NVIDIA_DEV.085F = "NVIDIA MCP77/78 "
NVIDIA_DEV.0860 = "NVIDIA GeForce 9300 / GeForce 9400"
NVIDIA_DEV.0861 = "NVIDIA GeForce 9400 "
NVIDIA_DEV.0862 = "NVIDIA GeForce 9400M G"
NVIDIA_DEV.0863 = "NVIDIA GeForce 9400M"
NVIDIA_DEV.0864 = "NVIDIA GeForce 9300"
NVIDIA_DEV.0865 = "NVIDIA ION"
NVIDIA_DEV.0866 = "NVIDIA GeForce 9400M G "
NVIDIA_DEV.0867 = "NVIDIA GeForce 9400 "
NVIDIA_DEV.0868 = "NVIDIA nForce 760i SLI"
NVIDIA_DEV.0869 = "NVIDIA GeForce 9400 "
NVIDIA_DEV.086A = "NVIDIA GeForce 9400 "
NVIDIA_DEV.086B = "NVIDIA MCP7A-U"
NVIDIA_DEV.086C = "NVIDIA GeForce 9300 / nForce 730i"
NVIDIA_DEV.086D = "NVIDIA GeForce 9200 "
NVIDIA_DEV.086E = "NVIDIA GeForce 9100M G "
NVIDIA_DEV.086F = "NVIDIA GeForce 8200M G "
NVIDIA_DEV.0870 = "NVIDIA GeForce 9400M "
NVIDIA_DEV.0871 = "NVIDIA GeForce 9200 "
NVIDIA_DEV.0872 = "NVIDIA GeForce G102M"
NVIDIA_DEV.0873 = "NVIDIA GeForce G102M "
NVIDIA_DEV.0874 = "NVIDIA ION "
NVIDIA_DEV.0876 = "NVIDIA ION "
NVIDIA_DEV.0877 = "NVIDIA MCP7A-ATV"
NVIDIA_DEV.087A = "NVIDIA Quadro FX 470 / GeForce 9400"
NVIDIA_DEV.087B = "NVIDIA MCP7A-GL"
NVIDIA_DEV.087D = "NVIDIA ION "
NVIDIA_DEV.087E = "NVIDIA ION LE"
NVIDIA_DEV.087F = "NVIDIA ION LE "
NVIDIA_DEV.08A0 = "NVIDIA GeForce 320M"
NVIDIA_DEV.08A1 = "NVIDIA MCP89-MZT"
NVIDIA_DEV.08A2 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A2 = "NVIDIA MCP89-EPT"
NVIDIA_DEV.08A3 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A3 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A4 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A4 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A5 = "NVIDIA GeForce 320M "
NVIDIA_DEV.08A5 = "NVIDIA GeForce 320M"
NVIDIA_DEV.08B0 = "NVIDIA MCP83 MMD"
NVIDIA_DEV.08B1 = "NVIDIA GeForce 300M"
NVIDIA_DEV.08B2 = "NVIDIA GeForce 300M "
NVIDIA_DEV.08B2 = "NVIDIA GeForce 300M"
NVIDIA_DEV.08B3 = "NVIDIA MCP89 MM9"
NVIDIA_DEV.08B8 = "NVIDIA MCP89"
NVIDIA_DEV.0A00 = "NVIDIA GT212"
NVIDIA_DEV.0A10 = "NVIDIA GT212 "
NVIDIA_DEV.0A20 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0A21 = "NVIDIA D10M2-20"
NVIDIA_DEV.0A22 = "NVIDIA GeForce 315"
NVIDIA_DEV.0A23 = "NVIDIA GeForce 210"
NVIDIA_DEV.0A26 = "NVIDIA GeForce 405"
NVIDIA_DEV.0A27 = "NVIDIA GeForce 405 "
NVIDIA_DEV.0A28 = "NVIDIA GeForce GT 230M"
NVIDIA_DEV.0A29 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2A = "NVIDIA GeForce GT 230M "
NVIDIA_DEV.0A2B = "NVIDIA GeForce GT 330M "
NVIDIA_DEV.0A2C = "NVIDIA NVS 5100M"
NVIDIA_DEV.0A2D = "NVIDIA GeForce GT 320M"
NVIDIA_DEV.0A30 = "NVIDIA GT216"
NVIDIA_DEV.0A30 = "NVIDIA GeForce 505"
NVIDIA_DEV.0A32 = "NVIDIA GeForce GT 415"
NVIDIA_DEV.0A34 = "NVIDIA GeForce GT 240M"
NVIDIA_DEV.0A35 = "NVIDIA GeForce GT 325M"
NVIDIA_DEV.0A38 = "NVIDIA Quadro 400"
NVIDIA_DEV.0A3C = "NVIDIA Quadro FX 880M"
NVIDIA_DEV.0A3D = "NVIDIA N10P-ES"
NVIDIA_DEV.0A3F = "NVIDIA GT216-INT"
NVIDIA_DEV.0A60 = "NVIDIA GeForce G210 "
NVIDIA_DEV.0A61 = "NVIDIA NVS 2100"
NVIDIA_DEV.0A62 = "NVIDIA GeForce 205"
NVIDIA_DEV.0A63 = "NVIDIA GeForce 310 / NVIDIA NVS 3100"
NVIDIA_DEV.0A64 = "NVIDIA ION "
NVIDIA_DEV.0A65 = "NVIDIA GeForce 210 "
NVIDIA_DEV.0A66 = "NVIDIA GeForce 310 "
NVIDIA_DEV.0A67 = "NVIDIA GeForce 315"
NVIDIA_DEV.0A68 = "NVIDIA GeForce G105M "
NVIDIA_DEV.0A69 = "NVIDIA GeForce G105M "
NVIDIA_DEV.0A6A = "NVIDIA NVS 2100M"
NVIDIA_DEV.0A6C = "NVIDIA NVS 3100M"
NVIDIA_DEV.0A6E = "NVIDIA GeForce 305M"
NVIDIA_DEV.0A6F = "NVIDIA ION "
NVIDIA_DEV.0A70 = "NVIDIA GeForce 310M "
NVIDIA_DEV.0A71 = "NVIDIA GeForce 305M"
NVIDIA_DEV.0A72 = "NVIDIA GeForce 310M "
NVIDIA_DEV.0A73 = "NVIDIA GeForce 305M "
NVIDIA_DEV.0A74 = "NVIDIA GeForce G210M"
NVIDIA_DEV.0A75 = "NVIDIA GeForce 310M"
NVIDIA_DEV.0A76 = "NVIDIA ION "
NVIDIA_DEV.0A78 = "NVIDIA Quadro FX 380 LP"
NVIDIA_DEV.0A79 = "NVIDIA N12M-NS-S"
NVIDIA_DEV.0A7A = "NVIDIA GeForce 315M"
NVIDIA_DEV.0A7B = "NVIDIA GeForce 505 "
NVIDIA_DEV.0A7C = "NVIDIA Quadro FX 380M"
NVIDIA_DEV.0A7D = "NVIDIA GT218-ES"
NVIDIA_DEV.0A7E = "NVIDIA GT218-INT-S"
NVIDIA_DEV.0A7F = "NVIDIA GT218-INT-B"
NVIDIA_DEV.0CA0 = "NVIDIA GeForce GT 330 "
NVIDIA_DEV.0CA2 = "NVIDIA GeForce GT 320"
NVIDIA_DEV.0CA3 = "NVIDIA GeForce GT 240"
NVIDIA_DEV.0CA4 = "NVIDIA GeForce GT 340"
NVIDIA_DEV.0CA5 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0CA7 = "NVIDIA GeForce GT 330 "
NVIDIA_DEV.0CA8 = "NVIDIA GeForce GTS 260M"
NVIDIA_DEV.0CA9 = "NVIDIA GeForce GTS 250M"
NVIDIA_DEV.0CAC = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0CAD = "NVIDIA N10E-ES"
NVIDIA_DEV.0CAE = "NVIDIA GT215-INT"
NVIDIA_DEV.0CAF = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0CBC = "NVIDIA Quadro FX 1800M"
NVIDIA_DEV.0DC0 = "NVIDIA GeForce GT 440"
NVIDIA_DEV.0DC1 = "NVIDIA D12-P1-35"
NVIDIA_DEV.0DC2 = "NVIDIA D12-P1-35 "
NVIDIA_DEV.0DC4 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DC5 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.0DC6 = "NVIDIA GeForce GTS 450 "
NVIDIA_DEV.0DCA = "NVIDIA GF10x"
NVIDIA_DEV.0DCC = "NVIDIA N12E-GS"
NVIDIA_DEV.0DCD = "NVIDIA GeForce GT 555M"
NVIDIA_DEV.0DCE = "NVIDIA GeForce GT 555M "
NVIDIA_DEV.0DCF = "NVIDIA N12P-GT-B"
NVIDIA_DEV.0DD0 = "NVIDIA N11E-GT"
NVIDIA_DEV.0DD1 = "NVIDIA GeForce GTX 460M"
NVIDIA_DEV.0DD2 = "NVIDIA GeForce GT 445M"
NVIDIA_DEV.0DD3 = "NVIDIA GeForce GT 435M"
NVIDIA_DEV.0DD6 = "NVIDIA GeForce GT 550M"
NVIDIA_DEV.0DD8 = "NVIDIA Quadro 2000"
NVIDIA_DEV.0DDA = "NVIDIA Quadro 2000M"
NVIDIA_DEV.0DDE = "NVIDIA GF106-ES"
NVIDIA_DEV.0DDF = "NVIDIA GF106-INT"
NVIDIA_DEV.0DE0 = "NVIDIA GeForce GT 440"
NVIDIA_DEV.0DE1 = "NVIDIA GeForce GT 430"
NVIDIA_DEV.0DE2 = "NVIDIA GeForce GT 420"
NVIDIA_DEV.0DE3 = "NVIDIA GeForce GT635M"
NVIDIA_DEV.0DE4 = "NVIDIA GeForce GT 520"
NVIDIA_DEV.0DE5 = "NVIDIA GeForce GT 530"
NVIDIA_DEV.0DE8 = "NVIDIA GeForce GT 620M"
NVIDIA_DEV.0DE8 = "NVIDIA N13P-GLP-A1"
NVIDIA_DEV.0DE9 = "NVIDIA GeForce GT 630M"
NVIDIA_DEV.0DEA = "NVIDIA GeForce 610M"
NVIDIA_DEV.0DEB = "NVIDIA GeForce GT 555M "
NVIDIA_DEV.0DEC = "NVIDIA GeForce GT 525M"
NVIDIA_DEV.0DED = "NVIDIA GeForce GT 520M"
NVIDIA_DEV.0DEE = "NVIDIA GeForce GT 415M"
NVIDIA_DEV.0DEF = "NVIDIA NVS 5400M"
NVIDIA_DEV.0DF0 = "NVIDIA GeForce GT 425M"
NVIDIA_DEV.0DF1 = "NVIDIA GeForce GT 420M "
NVIDIA_DEV.0DF2 = "NVIDIA GeForce GT 435M"
NVIDIA_DEV.0DF3 = "NVIDIA GeForce GT 420M"
NVIDIA_DEV.0DF4 = "NVIDIA GeForce GT 540M"
NVIDIA_DEV.0DF5 = "NVIDIA GeForce GT 525M"
NVIDIA_DEV.0DF6 = "NVIDIA GeForce GT 550M"
NVIDIA_DEV.0DF7 = "NVIDIA GeForce GT 520M "
NVIDIA_DEV.0DF8 = "NVIDIA Quadro 600"
NVIDIA_DEV.0DF9 = "NVIDIA Quadro 500M"
NVIDIA_DEV.0DFA = "NVIDIA Quadro 1000M"
NVIDIA_DEV.0DFC = "NVIDIA NVS 5200M"
NVIDIA_DEV.0DFE = "NVIDIA GF108 ES"
NVIDIA_DEV.0DFF = "NVIDIA GF108 INT"
NVIDIA_DEV.0E21 = "NVIDIA D12U-25"
NVIDIA_DEV.0E22 = "NVIDIA GeForce GTX 460"
NVIDIA_DEV.0E23 = "NVIDIA GeForce GTX 460 SE"
NVIDIA_DEV.0E24 = "NVIDIA GeForce GTX 460"
NVIDIA_DEV.0E25 = "NVIDIA D12U-50"
NVIDIA_DEV.0E28 = "NVIDIA GeForce GTX 460 "
NVIDIA_DEV.0E30 = "NVIDIA GeForce GTX 470M"
NVIDIA_DEV.0E31 = "NVIDIA GeForce GTX 485M"
NVIDIA_DEV.0E32 = "NVIDIA N12E-GT"
NVIDIA_DEV.0E38 = "NVIDIA GF104GL"
NVIDIA_DEV.0E3A = "NVIDIA Quadro 3000M"
NVIDIA_DEV.0E3B = "NVIDIA Quadro 4000M"
NVIDIA_DEV.0E3C = "NVIDIA EXMF 104"
NVIDIA_DEV.0E3E = "NVIDIA GF104-ES"
NVIDIA_DEV.0E3F = "NVIDIA GF104-INT"
NVIDIA_DEV.0F00 = "NVIDIA GeForce GT 630"
NVIDIA_DEV.0F01 = "NVIDIA GeForce GT 620"
NVIDIA_DEV.0FC0 = "NVIDIA GeForce GT 640"
NVIDIA_DEV.0FC1 = "NVIDIA GeForce GT 640"
NVIDIA_DEV.0FC2 = "NVIDIA GeForce GT 630 "
NVIDIA_DEV.0FC4 = "NVIDIA D14P1-15"
NVIDIA_DEV.0FC5 = "NVIDIA D15M2-03"
NVIDIA_DEV.0FC6 = "NVIDIA GeForce GTX 650"
NVIDIA_DEV.0FCB = "NVIDIA EXK107"
NVIDIA_DEV.0FCD = "NVIDIA GeForce GT 755M"
NVIDIA_DEV.0FCE = "NVIDIA GeForce GT 640M LE"
NVIDIA_DEV.0FCF = "NVIDIA GEN3 ESI"
NVIDIA_DEV.0FD0 = "NVIDIA NB1G"
NVIDIA_DEV.0FD1 = "NVIDIA GeForce GT 650M"
NVIDIA_DEV.0FD2 = "NVIDIA GeForce GT 640M"
NVIDIA_DEV.0FD3 = "NVIDIA GeForce GT 640M LE"
NVIDIA_DEV.0FD4 = "NVIDIA GeForce GTX 660M"
NVIDIA_DEV.0FD5 = "NVIDIA GeForce GTX 650M"
NVIDIA_DEV.0FD8 = "NVIDIA GeForce GT 640M "
NVIDIA_DEV.0FD9 = "NVIDIA GeForce GT 645M "
NVIDIA_DEV.0FDA = "NVIDIA GK107-ES-A1"
NVIDIA_DEV.0FDB = "NVIDIA GK107-ESP-A1"
NVIDIA_DEV.0FDC = "NVIDIA GK107-INT22-A1"
NVIDIA_DEV.0FDF = "NVIDIA GeForce GT 740M"
NVIDIA_DEV.0FE0 = "NVIDIA GeForce GTX 660M "
NVIDIA_DEV.0FE1 = "NVIDIA GeForce GT 730M"
NVIDIA_DEV.0FE2 = "NVIDIA GeForce GT 745M"
NVIDIA_DEV.0FE3 = "NVIDIA GeForce GT 745M"
NVIDIA_DEV.0FE4 = "NVIDIA GeForce GT 750M"
NVIDIA_DEV.0FE5 = "NVIDIA GeForce K340 USM"
NVIDIA_DEV.0FE6 = "NVIDIA NVS K1 USM"
NVIDIA_DEV.0FE7 = "NVIDIA Generic K1 USM"
NVIDIA_DEV.0FE9 = "NVIDIA GeForce GT 750M"
NVIDIA_DEV.0FEA = "NVIDIA GeForce GT 755M"
NVIDIA_DEV.0FEF = "NVIDIA GRID K340"
NVIDIA_DEV.0FF0 = "NVIDIA NB1Q"
NVIDIA_DEV.0FF1 = "NVIDIA NVS 1000"
NVIDIA_DEV.0FF2 = "NVIDIA GRID K1"
NVIDIA_DEV.0FF5 = "NVIDIA Tesla K1 USM"
NVIDIA_DEV.0FF6 = "NVIDIA Quadro K1100M"
NVIDIA_DEV.0FF7 = "NVIDIA Quadro K1 USM"
NVIDIA_DEV.0FF8 = "NVIDIA Quadro K500M"
NVIDIA_DEV.0FF9 = "NVIDIA Quadro K2000D"
NVIDIA_DEV.0FFA = "NVIDIA Quadro K600"
NVIDIA_DEV.0FFB = "NVIDIA Quadro K200M"
NVIDIA_DEV.0FFC = "NVIDIA Quadro K100M"
NVIDIA_DEV.0FFD = "NVIDIA Quadro NVS 510"
NVIDIA_DEV.0FFE = "NVIDIA Quadro K2000"
NVIDIA_DEV.0FFF = "NVIDIA Quadro 410"
NVIDIA_DEV.1001 = "NVIDIA D15U-60"
NVIDIA_DEV.1003 = "NVIDIA GK110 DT Bringup"
NVIDIA_DEV.1004 = "NVIDIA D15U-50"
NVIDIA_DEV.1004 = "NVIDIA GeForce GTX 780"
NVIDIA_DEV.1005 = "NVIDIA GeForce GTX TITAN"
NVIDIA_DEV.1006 = "NVIDIA GeForce GTX 780 Ti"
NVIDIA_DEV.100A = "NVIDIA GeForce GTX 780 Ti "
NVIDIA_DEV.101F = "NVIDIA Tesla K20"
NVIDIA_DEV.1020 = "NVIDIA Tesla K20x"
NVIDIA_DEV.1021 = "NVIDIA Tesla K20Xm"
NVIDIA_DEV.1022 = "NVIDIA Tesla K20c"
NVIDIA_DEV.1023 = "NVIDIA Tesla K40m"
NVIDIA_DEV.1024 = "NVIDIA Tesla K40c"
NVIDIA_DEV.1026 = "NVIDIA Tesla K20s"
NVIDIA_DEV.1027 = "NVIDIA Tesla K40st"
NVIDIA_DEV.1028 = "NVIDIA Tesla K20m"
NVIDIA_DEV.1029 = "NVIDIA Tesla K40s"
NVIDIA_DEV.103A = "NVIDIA Quadro K6000"
NVIDIA_DEV.103B = "NVIDIA Q12U-1"
NVIDIA_DEV.1040 = "NVIDIA GeForce GT 520"
NVIDIA_DEV.1041 = "NVIDIA D13M1-45"
NVIDIA_DEV.1042 = "NVIDIA GeForce 510"
NVIDIA_DEV.1048 = "NVIDIA GeForce 605"
NVIDIA_DEV.1049 = "NVIDIA GeForce GT 620"
NVIDIA_DEV.104A = "NVIDIA GeForce GT 610"
NVIDIA_DEV.104B = "NVIDIA GeForce GT 625 (OEM)"
NVIDIA_DEV.1050 = "NVIDIA GeForce GT 520M"
NVIDIA_DEV.1051 = "NVIDIA GeForce GT 520MX"
NVIDIA_DEV.1052 = "NVIDIA GeForce GT 520M "
NVIDIA_DEV.1054 = "NVIDIA GeForce 410M"
NVIDIA_DEV.1055 = "NVIDIA GeForce 410M"
NVIDIA_DEV.1056 = "NVIDIA NVS 4200M"
NVIDIA_DEV.1057 = "NVIDIA NVS 4200M "
NVIDIA_DEV.1058 = "NVIDIA GeForce 610M"
NVIDIA_DEV.1059 = "NVIDIA GeForce 610M"
NVIDIA_DEV.105A = "NVIDIA GeForce 610M "
NVIDIA_DEV.105B = "NVIDIA GeForce 705M"
NVIDIA_DEV.107C = "NVIDIA NVS 315"
NVIDIA_DEV.107D = "NVIDIA NVS 310"
NVIDIA_DEV.107E = "NVIDIA GF119-INT"
NVIDIA_DEV.107F = "NVIDIA GF119-ES"
NVIDIA_DEV.1080 = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.1081 = "NVIDIA GeForce GTX 570"
NVIDIA_DEV.1082 = "NVIDIA GeForce GTX 560 Ti"
NVIDIA_DEV.1083 = "NVIDIA D13U "
NVIDIA_DEV.1084 = "NVIDIA GeForce GTX 560"
NVIDIA_DEV.1086 = "NVIDIA GeForce GTX 570 "
NVIDIA_DEV.1087 = "NVIDIA GeForce GTX 560 Ti"
NVIDIA_DEV.1088 = "NVIDIA GeForce GTX 590"
NVIDIA_DEV.1089 = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.108B = "NVIDIA GeForce GTX 580"
NVIDIA_DEV.108C = "NVIDIA D13U"
NVIDIA_DEV.108E = "NVIDIA Tesla C2090"
NVIDIA_DEV.1091 = "NVIDIA Tesla M2090/X2090"
NVIDIA_DEV.1094 = "NVIDIA Tesla M2075 "
NVIDIA_DEV.1096 = "NVIDIA Tesla C2075"
NVIDIA_DEV.1098 = "NVIDIA D13U "
NVIDIA_DEV.109A = "NVIDIA Quadro 5010M"
NVIDIA_DEV.109B = "NVIDIA Quadro 7000"
NVIDIA_DEV.10C0 = "NVIDIA GeForce 9300 GS "
NVIDIA_DEV.10C3 = "NVIDIA GeForce 8400GS"
NVIDIA_DEV.10C4 = "NVIDIA ION "
NVIDIA_DEV.10C5 = "NVIDIA GeForce 405"
NVIDIA_DEV.10D8 = "NVIDIA NVS 300"
NVIDIA_DEV.1140 = "NVIDIA GeForce GT 620M / GT710M / 820M / Quadro NVS 5200M"
NVIDIA_DEV.1141 = "NVIDIA GeForce 610M"
NVIDIA_DEV.1142 = "NVIDIA GeForce 620M"
NVIDIA_DEV.1143 = "NVIDIA N13P-GV"
NVIDIA_DEV.1144 = "NVIDIA GF117"
NVIDIA_DEV.1145 = "NVIDIA GF117"
NVIDIA_DEV.1146 = "NVIDIA GF117"
NVIDIA_DEV.1147 = "NVIDIA GF117"
NVIDIA_DEV.1149 = "NVIDIA GF117-ES"
NVIDIA_DEV.114A = "NVIDIA GF117-INT"
NVIDIA_DEV.114B = "NVIDIA PCI-GEN3-B"
NVIDIA_DEV.1150 = "NVIDIA N13M-NS"
NVIDIA_DEV.1180 = "NVIDIA GeForce GTX 680"
NVIDIA_DEV.1182 = "NVIDIA GK104"
NVIDIA_DEV.1183 = "NVIDIA GeForce GTX 660 Ti"
NVIDIA_DEV.1184 = “NVIDIA GeForce GTX 770"
NVIDIA_DEV.1185 = "NVIDIA GeForce GTX 660"
NVIDIA_DEV.1187 = “NVIDIA GeForce GTX 760"
NVIDIA_DEV.1188 = "NVIDIA GeForce GTX 690"
NVIDIA_DEV.1189 = "NVIDIA GeForce GTX 670"
NVIDIA_DEV.118A = "NVIDIA GRID K520"
NVIDIA_DEV.118B = "NVIDIA GeForce K2 USM"
NVIDIA_DEV.118C = "NVIDIA NVS K2 USM"
NVIDIA_DEV.118D = "NVIDIA Generic K2 USM"
NVIDIA_DEV.118E = "NVIDIA GeForce GTX 760 (192-bit)"
NVIDIA_DEV.118F = "NVIDIA Tesla K10"
NVIDIA_DEV.118e = "NVIDIA GeForce GTX 760 OEM"
NVIDIA_DEV.1192 = "NVIDIA GeForce GK104"
NVIDIA_DEV.1193 = "NVIDIA GeForce GTX 760 OEM"
NVIDIA_DEV.1198 = "NVIDIA N15E-GX-A2"
NVIDIA_DEV.1199 = "NVIDIA N15E-GT-A2"
NVIDIA_DEV.119A = "NVIDIA N15P-GX-B-A2"
NVIDIA_DEV.119D = "NVIDIA GeForce GTX 775M"
NVIDIA_DEV.119E = "NVIDIA GeForce GTX 780M"
NVIDIA_DEV.119F = "NVIDIA GeForce GTX 780M"
NVIDIA_DEV.11A0 = "NVIDIA GeForce GTX 680M"
NVIDIA_DEV.11A1 = "NVIDIA GeForce GTX 670MX"
NVIDIA_DEV.11A2 = "NVIDIA GeForce GTX 675MX"
NVIDIA_DEV.11A3 = "NVIDIA GeForce GTX 680MX"
NVIDIA_DEV.11A4 = "NVIDIA GK104-ESA"
NVIDIA_DEV.11A5 = "NVIDIA GK104-ESA "
NVIDIA_DEV.11A7 = "NVIDIA GeForce GTX 675MX "
NVIDIA_DEV.11AA = "NVIDIA GK104-INT"
NVIDIA_DEV.11AC = "NVIDIA GK104-CS"
NVIDIA_DEV.11B0 = "NVIDIA Quadro K2 USM"
NVIDIA_DEV.11B1 = "NVIDIA Tesla K2 USM"
NVIDIA_DEV.11B6 = "NVIDIA Quadro K3100M "
NVIDIA_DEV.11B7 = "NVIDIA Quadro K4100M"
NVIDIA_DEV.11B8 = "NVIDIA Quadro K5100M"
NVIDIA_DEV.11BA = "NVIDIA Quadro K5000"
NVIDIA_DEV.11BB = "NVIDIA Quadro 4100"
NVIDIA_DEV.11BC = "NVIDIA Quadro K5000M"
NVIDIA_DEV.11BD = "NVIDIA Quadro K4000M"
NVIDIA_DEV.11BE = "NVIDIA Quadro K3000M"
NVIDIA_DEV.11BF = "NVIDIA GRID K2"
NVIDIA_DEV.11C0 = "NVIDIA GeForce GTX 660"
NVIDIA_DEV.11C1 = "NVIDIA D14P2-30"
NVIDIA_DEV.11C2 = "NVIDIA GeForce GTX 650 Ti BOOST"
NVIDIA_DEV.11C3 = "NVIDIA GeForce GTX 650 Ti"
NVIDIA_DEV.11C4 = "NVIDIA GeForce GTX 645"
NVIDIA_DEV.11C6 = "NVIDIA GeForce GTX 650 Ti"
NVIDIA_DEV.11C7 = "NVIDIA GeForce GTX 760 SE/750 Ti"
NVIDIA_DEV.11C8 = "NVIDIA GeForce GTX 650 "
NVIDIA_DEV.11D0 = "NVIDIA GK106-INT353"
NVIDIA_DEV.11D1 = "NVIDIA GK106-INT343"
NVIDIA_DEV.11D2 = "NVIDIA GK106-INT232"
NVIDIA_DEV.11D3 = "NVIDIA GK106-ES"
NVIDIA_DEV.11E0 = "NVIDIA GeForce GTX 770M"
NVIDIA_DEV.11E1 = "NVIDIA GeForce GTX 765M"
NVIDIA_DEV.11E2 = "NVIDIA GeForce GTX 765M"
NVIDIA_DEV.11E3 = "NVIDIA GeForce GTX 760M"
NVIDIA_DEV.11FA = "NVIDIA Quadro K4000"
NVIDIA_DEV.11FC = "NVIDIA Quadro K2100M "
NVIDIA_DEV.11FF = "NVIDIA NB1Q "
NVIDIA_DEV.1200 = "NVIDIA GeForce GTX 560 Ti "
NVIDIA_DEV.1201 = "NVIDIA GeForce GTX 560 "
NVIDIA_DEV.1202 = "NVIDIA GeForce GTX 560 Ti "
NVIDIA_DEV.1203 = "NVIDIA GeForce GTX 460 SE v2"
NVIDIA_DEV.1205 = "NVIDIA GeForce GTX 460 v2"
NVIDIA_DEV.1206 = "NVIDIA GeForce GTX 555"
NVIDIA_DEV.1207 = "NVIDIA GeForce GTX 645"
NVIDIA_DEV.1208 = "NVIDIA GeForce GTX 560 SE"
NVIDIA_DEV.1210 = "NVIDIA GeForce GTX 570M"
NVIDIA_DEV.1211 = "NVIDIA GeForce GTX 580M"
NVIDIA_DEV.1212 = "NVIDIA GeForce GTX 675M"
NVIDIA_DEV.1213 = "NVIDIA GeForce GTX 670M"
NVIDIA_DEV.121F = "NVIDIA GF114-INT"
NVIDIA_DEV.1240 = "NVIDIA D13P1-35"
NVIDIA_DEV.1241 = "NVIDIA GeForce GT 545"
NVIDIA_DEV.1243 = "NVIDIA GeForce GT 640"
NVIDIA_DEV.1244 = "NVIDIA GeForce GTX 550 Ti"
NVIDIA_DEV.1245 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.1246 = "NVIDIA GeForce GT 550M"
NVIDIA_DEV.1247 = "NVIDIA GeForce GT 555M"
NVIDIA_DEV.1248 = "NVIDIA GeForce GT 555M"
NVIDIA_DEV.1249 = "NVIDIA GeForce GTS 450"
NVIDIA_DEV.124B = "NVIDIA GeForce GT 640"
NVIDIA_DEV.124D = "NVIDIA GeForce GT 555M "
NVIDIA_DEV.1250 = "NVIDIA GF116-INT"
NVIDIA_DEV.1251 = "NVIDIA GeForce GTX 560M"
NVIDIA_DEV.1280 = "NVIDIA GeForce GT 635"
NVIDIA_DEV.1281 = "NVIDIA D15M2-05"
NVIDIA_DEV.1282 = "NVIDIA GeForce GT 640 "
NVIDIA_DEV.1283 = "NVIDIA D15M2-10"
NVIDIA_DEV.1284 = "NVIDIA GeForce GT 630 "
NVIDIA_DEV.1285 = "NVIDIA GK208-100"
NVIDIA_DEV.1290 = "NVIDIA GeForce GT 730M "
NVIDIA_DEV.1291 = "NVIDIA GeForce GT 735M"
NVIDIA_DEV.1292 = "NVIDIA GeForce GT 740M"
NVIDIA_DEV.1293 = "NVIDIA GeForce GT 730M "
NVIDIA_DEV.1294 = "NVIDIA GeForce GT 740M "
NVIDIA_DEV.1295 = "NVIDIA GeForce 710M"
NVIDIA_DEV.1296 = "NVIDIA GeForce N15S-GV"
NVIDIA_DEV.1298 = "NVIDIA GeForce GT 720M"
NVIDIA_DEV.12A0 = "NVIDIA GK208"
NVIDIA_DEV.12AD = "NVIDIA GK208-ES"
NVIDIA_DEV.12AE = "NVIDIA GK208-CS1-C"
NVIDIA_DEV.12AF = "NVIDIA GK208-INT"
NVIDIA_DEV.12B0 = "NVIDIA GK208-CS-Q"
NVIDIA_DEV.12B1 = "NVIDIA GK208 INT"
NVIDIA_DEV.12B9 = "NVIDIA Quadro K610M"
NVIDIA_DEV.12BA = "NVIDIA Quadro K510M"

@occ-kh@Mirko: Auf dem "fakeshot" steht aber nix von invalid sondern eben wie bei mir "validating"

http://abload.de/img/3dmark_validating5vpwy.png (http://abload.de/image.php?img=3dmark_validating5vpwy.png)

occ-kh@Mirko
2014-07-22, 20:13:10
http://img5.fotos-hochladen.net/uploads/unbenannt4a0wvtxnp2q.png (http://www.fotos-hochladen.net)

Timbaloo
2014-07-22, 20:19:27
Irgendwie geil was für ein Drama durch so einen Screentshot (ob fake oder nicht) doch entstehen kann.

Hübie
2014-07-22, 20:22:00
Gratuliere. X-D

Man. Der vermeintliche Maxwell-Bencher hats Internet ausgeknipst. Hatte ich auch geschrieben. Der Beweis ist dass ichs nachgeäfft und hier gepostet habe. Deshalb steht nix in der Datenbank von Futuremark und deshalb gibts auch kein grünes Feld für "VALID RESULT". Wir sind uns also einig?

Das ist ein weiterer Punkt der vermuten lässt dass es sich hier um ein Fakeshot handelt.

Nur weil das nicht validiert ist heißts ja nicht dass es fake ist.

occ-kh@Mirko
2014-07-22, 20:37:54
Da kann man sich nicht sicher sein, daher spekulieren wir alle, hau rein...

http://img5.fotos-hochladen.net/uploads/unbenannt4jpe9ydnk6o.png (http://www.fotos-hochladen.net)

Thunder99
2014-07-22, 21:23:36
Bildbearbeitungsprogramme können das auch, oder? Also so ein "authentischen" Screen erstellen wie der User es gemacht hat.

@mirko: Wieso löscht du dein Account wieder? :D

Dawn on Titan
2014-07-23, 07:59:35
Naja, ich vermute mal nicht, dass jemand der Zugriff auf ein Bring-Up oder ES Sample hat sich in einem Notebookforum anmeldet um dort exakt einen 3DMurks Screen zu posten.

SamLombardo
2014-07-23, 13:17:17
Haltet ihr es für wahrscheinlich, dass eine GTX890, also eine dual GM 204 Karte kommen wird? Oder ist der Chip für sowas zu groß?

Dawn on Titan
2014-07-23, 13:18:19
Die haben ne Dual GK100 gebaut....

HOT
2014-07-23, 14:18:48
Ich bezweifel immer noch, dass NV das Ding überhaupt einer 800er Serie zuordnet. Der bekommt garantiert nen neuen Namen.
Die 800er Serie gibts im Notebookbereich bereits und besteht aus alten Chips.

Kartenlehrling
2014-07-23, 14:22:42
http://img5.fotos-hochladen.net/uploads/unbenannt30rhlc4bto1.png (http://www.fotos-hochladen.net)

Ein nicht validierter Bench ist nicht wert!


Die Meldung kommt auch wenn man eigentlich "Lucid Virtu MVP" deaktivert hat,
der Benchmark erkennt das Program auf dem Rechner und erklärt den Test für nicht gültig.

Aber der Wert ̶i̶̶s̶̶t̶ kann schon richtig sein, weil wenn "HyperFormance" wirklich aktiviert wär das Ergebnis noch höher.

john carmack
2014-07-23, 14:58:35
Ich bezweifel immer noch, dass NV das Ding überhaupt einer 800er Serie zuordnet. Der bekommt garantiert nen neuen Namen.
Die 800er Serie gibts im Notebookbereich bereits und besteht aus alten Chips.

Namen sind Schall und Rauch.........

Ok - Ich will auch nicht unbedingt das meine Karte "Mr. Pupsi" heißt :D
NV ist ja auch bald mit einer neuen NamensKonvention dran. Vielleicht auch schon mit der maxwel generation.

Bei GeForce und GTX wird sich aber mal nix ändern. Schade eigentlich die Namen haben ja auch schon viele, viele Jahre auf dem Buckel!

Thunder99
2014-07-23, 15:23:25
Namen sind Schall und Rauch.........

Ok - Ich will auch nicht unbedingt das meine Karte "Mr. Pupsi" heißt :D
NV ist ja auch bald mit einer neuen NamensKonvention dran. Vielleicht auch schon mit der maxwel generation.

Bei GeForce und GTX wird sich aber mal nix ändern. Schade eigentlich die Namen haben ja auch schon viele, viele Jahre auf dem Buckel!
Sowas nennt sich Markenmanagement was sie so weit ausgebaut haben das jeder der GTX liest was positives damit verbindet. Ergo behalten Sie das so lange sie es können bzw Profit abwirft. GT, G und LE haben sie ja im Desktop "gestrichen"

Loeschzwerg
2014-07-23, 17:25:26
"Ultra" war sowiso DAS Suffix.

Geforce 2 Ultra und Geforce 8800 Ultra waren beides "Naturgewalten". (Die Cine FX Serie blende ich mal aus ^^)

Hat sich bis jetzt nur keine weitere Karte verdient ;)

@HOT: Muss nix bedeuten, in der 700er Serie gibt es immerhin auch den Maxwell. Kommt immer darauf an welcher schlaue Marketingfuzzi gerade am Zug ist.

Hübie
2014-07-23, 17:39:00
Bei Ultra denke ich entweder an riiiesige Tampons oder miese Waschmittelwerbung X-D

Vor drei Jahren sagte ein Marketingfuzzi mal es sei gut möglich dass wir solche Bezeichnungen bald wiedersehen werden. Aber bis heute war das wohl nix ;)

Godmode
2014-07-23, 17:50:04
"Ultra" war sowiso DAS Suffix.

Geforce 2 Ultra und Geforce 8800 Ultra waren beides "Naturgewalten". (Die Cine FX Serie blende ich mal aus ^^)

Hat sich bis jetzt nur keine weitere Karte verdient ;)

@HOT: Muss nix bedeuten, in der 700er Serie gibt es immerhin auch den Maxwell. Kommt immer darauf an welcher schlaue Marketingfuzzi gerade am Zug ist.

Also ich fand Ultra immer gut. Ich denke da an was starkes, über drüber Ding,

ul·tra [uhl-truh]
adjective
1. going beyond what is usual or ordinary; excessive; extreme.

hasebaer
2014-07-23, 18:02:15
Ein Ultra werden wir nicht mehr sehen, weil heute die Perf./W wichtiger ist, als die letzten 5% längere Balken.

Loeschzwerg
2014-07-23, 18:11:23
Ein Ultra werden wir nicht mehr sehen, weil heute die Perf./W wichtiger ist, als die letzten 5% längere Balken.

Dann würde es auch keinen Sinn ergeben überhaupt OC Modelle anzubieten. Nö, für Enthusiasten gibt es immer einen Markt zu entsprechenden Preisen ;)

@Hübie: Dank der komischen Werbung bei PCGH denke ich mittlerweile auch eher da dran :freak:

Godmode
2014-07-23, 19:43:13
@Hübie: Dank der komischen Werbung bei PCGH denke ich mittlerweile auch eher da dran :freak:

OT: welche den? :biggrin:

Loeschzwerg
2014-07-23, 20:05:03
Always Ultra :freak: Ist bei mir mal ne Zeit lang eingeblendet worden in der Bannerwerbung im Forum. Warum auch immer, da müsste eigentlich Werbung von Bier, Hardware, RC Cars... angezeigt werden.
Werbung für Pferdenahrung war so ein anderes Kaliber :D Der Vermarkter von Computec hat das mit der Zielgruppe voll raus ^^

Raff
2014-07-23, 20:56:17
Ultra ist jetzt Titan.

MfG,
Raff

hasebaer
2014-07-23, 22:48:40
Dann würde es auch keinen Sinn ergeben überhaupt OC Modelle anzubieten. Nö, für Enthusiasten gibt es immer einen Markt zu entsprechenden Preisen ;)

AIB OC ja, aber nicht als Ref.Design, den in keinem Fazit wird NV solche Sätze mehr sehen wollen, wie diese damals zum 8800 Ultra.
Einen neuen Negativrekord stellt die GeForce 8800 Ultra beim Stromverbrauch auf. War uns die GeForce 8800 GTX in dieser Disziplin schon unangenehm aufgefallen, so verstärkt sich der Stromhunger bei der GeForce 8800 Ultra noch einmal.
- http://www.computerbase.de/2007-05/test-nvidia-geforce-8800-ultra/25/

Das zerstört mehr als es nutzt.

Raff
2014-07-23, 22:58:56
Wer sich damals ernsthaft für das lächerliche Leistungs-Upgrade gegenüber der 8800 GTX interessierte, den kümmerten 20 Watt nicht. Die 8800 Ultra war Mitte 2007 ein Biest, das erst im Sommer 2008 eingeholt wurde (HD 4850/4870). Nein, Dual-GPU-Unsinn zählt nicht. ;)

MfG,
Raff

hasebaer
2014-07-23, 23:13:48
Es geht nicht ums Geld. Es geht ums Image.

Schau dir doch an wie lange der Begriff "Thermi" im Zusammenhang mit NV gefallen ist, oder wie heute bei Tegra sofort unterstellt wird, Revision XY muss stromhunig sein, weil das immer schon so war.

Die erste Titan dagegen war keine Ultra, dafür hätte es 1100Mhz Basis und 1200MHz Boost @ 300W gebraucht, aber dann hätte NV wieder ganz schnell den Thermi 2.0 an der Backe gehabt.
So aber war die GTX Titan grad so die schnellste Karte, hatte den optimalen Per./W Punkt, + fettes OC Potential.

Rente
2014-07-23, 23:17:07
"Grad so die schnellste Karte" ist eine interessante Verniedlichung, der Titan konnte eine ganze Zeit nur ein SLi- oder Crossfire-Verbund das Wasser reichen, erst Hawaii bzw. die GTX780/Ti über ein halbes Jahr später sind vergleichbar - der Name Ultra hätte schon gepasst.

hasebaer
2014-07-24, 00:34:33
Ja, aber da waren noch 200+X Mhz Potential.
Nur nutzte man dies nicht weil Perf./W heute wichtiger ist für Image als Rohleistung.

Und so eine "kompromislose Ultra" wird es nicht mehr geben.

Loeschzwerg
2014-07-24, 07:05:11
Es geht nicht ums Geld. Es geht ums Image.

Schau dir doch an wie lange der Begriff "Thermi" im Zusammenhang mit NV gefallen ist, oder wie heute bei Tegra sofort unterstellt wird, Revision XY muss stromhunig sein, weil das immer schon so war.

Die erste Titan dagegen war keine Ultra, dafür hätte es 1100Mhz Basis und 1200MHz Boost @ 300W gebraucht, aber dann hätte NV wieder ganz schnell den Thermi 2.0 an der Backe gehabt.
So aber war die GTX Titan grad so die schnellste Karte, hatte den optimalen Per./W Punkt, + fettes OC Potential.

Die Bezeichnung Thermi war bei der GTX 480 auch völlig angebracht, dazu muss man nur die gebotene Leistung in Relation zur Temperatur, Leistungsaufnahme und Lautheit setzen.
Aber da haben halt die vielen Bugs und Designfehler durchgeschlagen.

Egal wie, eine Ultra hätte keinen Imageschaden zur Folge wenn man dies entsprechend bewirbt.

Das ist alles eine Marketingsache und Produkte mit besserem Perf./Watt Verhältnis hätte man so ja trotzdem im Portfolio.

Edit: Es ist wohl eher so das NV sich solche Stunts spart, weil diese unnötig sind bzw. die Kunden so oder so die überzogenen Preise zahlen. Warum also zusätzlich Arbeit in GPU Selektierung investieren. Da spielt natürlich die "schwächelnde" Konkurrenz ebenfalls eine Rolle.

Btt.

Ailuros
2014-07-24, 08:33:58
Eigentlich war auf GF10x der MC kaputt und wenn man den boesen Zungen glauben wuerde dann wurde es auch nicht zu 100% in GF11x gefixt, eben der Grund weil keiner der SKUs extravagante Speicherfrequenzen erreichen konnten.

Raff
2014-07-24, 09:06:33
Ich hatte gute GTX-500-Karten in den Händen, die 2.400 MHz Speichertakt schafften, während die beste GTX 480 gerade so 2.050 MHz gepackt hat und die meisten 470-er nicht über 1.900 hinaus kamen. Also gefixt haben sie im GF110B definitiv etwas. :D

MfG,
Raff

Ailuros
2014-07-24, 09:19:37
Ich hatte gute GTX-500-Karten in den Händen, die 2.400 MHz Speichertakt schafften, während die beste GTX 480 gerade so 2.050 MHz gepackt hat und die meisten 470-er nicht über 1.900 hinaus kamen. Also gefixt haben sie im GF110B definitiv etwas. :D

MfG,
Raff

Schon klar; aber wenn man dann wiedderum sieht wie aggresiv die Speicherfrequenzen seit Kepler wurden, ist die These auch nicht so absurd.

Dawn on Titan
2014-07-24, 09:31:15
Dürfen wir dann sagen, dass Hawaii auch einen kaputten MC hat? Oder kann es möglich sein, dass so hohe Takte einfach nicht Designziel waren?

Timbaloo
2014-07-24, 09:35:21
Oder kann es möglich sein, dass so hohe Takte einfach nicht Designziel waren?
Klingt logisch. AMD hat verglichen mit NV breitere SI, NV dafür tendenziell höher getaktete.

Hübie
2014-07-24, 09:54:57
Mir sagte man dass man den IMC nicht so hoch takten kann weil irgendein HSA-Zeugs mit drin sitzt und dass ganze schwierig macht. Was dran ist? Keine Ahnung. Müsste man im guru3d nachhaken.

HOT
2014-07-24, 09:58:53
Dürfen wir dann sagen, dass Hawaii auch einen kaputten MC hat? Oder kann es möglich sein, dass so hohe Takte einfach nicht Designziel waren?
Das könnte auch wie beim Pitcairn am PCB liegen.

Ph0b0ss
2014-07-24, 11:07:22
Ich hatte gute GTX-500-Karten in den Händen, die 2.400 MHz Speichertakt schafften, während die beste GTX 480 gerade so 2.050 MHz gepackt hat und die meisten 470-er nicht über 1.900 hinaus kamen. Also gefixt haben sie im GF110B definitiv etwas. :D

MfG,
Raff

Also meine 470er schafft seit Jahren 2.150 Mhz Speichertakt. Hat zwar Wakü, aber die ist nur GPU-Only. Speicher und Spawas haben nur die Metallplatte des Standardkühlers zur Kühlung. Der Speichertakt hängt aber auch etwas an der Vpgu, 1,125V reichen aber für die 2.150 Mhz.

Ailuros
2014-07-24, 11:28:26
Dürfen wir dann sagen, dass Hawaii auch einen kaputten MC hat? Oder kann es möglich sein, dass so hohe Takte einfach nicht Designziel waren?

Wenn ein design N Bandbreite braucht, je breiter der Bus desto geringer die Speicherfrequenz. Der 512bit bus auf Hawaii war eben spotbillig, ergo warum nicht?

Thunder99
2014-07-24, 11:32:55
Aber schon irgendwie lustig. Vorher war es genau andersrum. AMD mit dem kleinen SI und hohen Taktraten und nun nvidia :D

Ailuros
2014-07-26, 11:02:56
Fuer Fermi, Speichercontroller und co. geht es hier weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=555428&page=2

Fuer Prozess-Technologien, shrinks und sonst noch anderen Kaugummi:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546540&page=8

Und ich will hoffen dass wir uns hier irgendwann mal wieder mit Maxwell beschaeftigen koennen.

Dawn on Titan
2014-07-29, 12:40:50
Launch im Oktober?

http://www.kitguru.net/components/graphic-cards/anton-shilov/nvidia-to-release-three-geforce-gtx-800-graphics-cards-this-october/

Unicous
2014-07-29, 16:27:05
Juni, Juli, August, September, Oktober,...

Wieviele Monate hat das (Rest-)Jahr noch mal?:freak:

Godmode
2014-07-29, 17:24:12
Juni, Juli, August, September, Oktober,...

Wieviele Monate hat das (Rest-)Jahr noch mal?:freak:

Aug, Sep, Okt, Nov, Dez = 5

-/\-CruNcher-/\-
2014-07-29, 18:18:30
Also die 860 GTX kommt auch relativ schnell sehr schön :)

Loeschzwerg
2014-08-01, 07:08:37
http://videocardz.com/51117/exclusive-nvidia-geforce-gtx-880-released-september

NVIDIA GeForce GTX 880 to be released in September

Bla bla bla...

Cards are expected to hit stores shortly after (late September).

Also kann man auch gleich den Oktober als Release stehen lassen :freak: Wozu sollte NV einen Paper Launch bei dieser Karte hinlegen? Ein Launch und eine offizielle Ankündigung sind zudem zwei paar Stiefel...

September sehen wir bestimmt keine Karten, das ist zumindest meine Meinung.

Ailuros
2014-08-01, 12:09:51
Ich hab den link nichtmal durchgelesen. Sobald ich "WhyCry" ganz unten gesehen habe, sofort auf das kleine x in der Ecke rechts oben geklickt.

Hübie
2014-08-01, 13:27:41
X-D hast also schon deine Favoriten unter den "Journalisten"?
Ich sag: 50% stimmen 30% gedichtet und 20% Müll. Business as usual..

Ailuros
2014-08-01, 13:50:09
X-D hast also schon deine Favoriten unter den "Journalisten"?
Ich sag: 50% stimmen 30% gedichtet und 20% Müll. Business as usual..

Ist zwar verdammt OT aber spekulative Herumschreiberei stoert mich bei solchen trash tabloid Seiten kein bisschen. Sag mir was Du willst ueber SA aber man respektiert Infos hinter der paywall; wenn man jetzt die Infos als newsblurb fuer seine eigene Seite ausnutzt dann ist es schon ueberhalb der Grenze jeglicher Frechheit. So etwas macht man einfach nicht.

Mr.Ice
2014-08-01, 20:11:57
können diese Angaben hier stimmen ? http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-880/news-artikel/nvidia_geforce_gtx_880,723,3058174.html

wären 256 BIT nicht ein Rückschritt ?

erst hies es 880GTX wird 30% schneller sein als eine 780ti.

Timbaloo
2014-08-01, 20:14:04
Nachdem GK104 auch ein 256Bit SI hatte ist das jetzt nicht wirklich ein Rückschritt.

-/\-CruNcher-/\-
2014-08-01, 20:23:26
Sie wird eher weniger verbrauchen und genauso schnell sein das hat Nvidia auch so durchschauen lassen ganz am Anfang im Interview der PCGHH mit Peterson wobei sie diese Entscheidung ja offen gelasen haben so richtig geäusert haben sie sich nicht wie man den Effizienzgewinn einsetzen will ;)

Bessere effizientere Compute Leistung + Weniger verbrauch

darauf scheint es jetzt hinaus zu laufen :)

Auch nur mit der besseren Compute effizienz kriegt man mehr user rüber geswitched in der Zukunft meiner Meinung nach 30% gegenüber besserem visuellen ruckelfreien erlebniss in Compute lastigen spielen (bei weniger verbrauch) das werden sich viel mehr überlegen und macht Wirtschaftlich auch mehr sinn vor allem für Nvidias Ökosystem ;)

Höhnangst
2014-08-01, 23:21:59
Ich spekuliere mit und sage Maxwell (Performance / High-End) kommt in Q3/14 in 20 nm mit einer geringen Chance auf eine Veröffentlichung in Q2/14 oder alternativ in Q4/14 (spätestens). Dass der erst 2015 herstellbar sein soll, glaube ich nicht.
Dass 20 nm in 2014 praktisch nicht verfügbar sein wird, hätte ich zwar nicht gedacht, aber wenigstens habe ich den Zeitraum bei meiner Speku im Dezember 2013 recht gut getroffen. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10040880#post10040880)


Meine Performance- und Preiseinschätzung lautet wie folgt:
GTX 880
Preis: 599
Leistung: 780 Ti + ca. 20 %

GTX 870
Preis: 499
Leistung: +- 780 Ti

Raff
2014-08-01, 23:52:42
erst hies es 880GTX wird 30% schneller sein als eine 780ti.

GTX 880 (in dieser Reihenfolge), bitte. Eine 8800 GTX gab's schon, daher wird's Zeit, endlich alle Keute Nvidias seit Jahren umgestellten Bezeichnungen verwenden. ;)

MfG,
Raff

Hübie
2014-08-02, 01:16:40
Dass 20 nm in 2014 praktisch nicht verfügbar sein wird, hätte ich zwar nicht gedacht, aber wenigstens habe ich den Zeitraum bei meiner Speku im Dezember 2013 recht gut getroffen. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10040880#post10040880)

Meine Performance- und Preiseinschätzung lautet wie folgt:
GTX 880
Preis: 599
Leistung: 780 Ti + ca. 20 %

GTX 870
Preis: 499
Leistung: +- 780 Ti

Ey, du nennst in deinem Beitrag drei Quartale. Dass da n Treffer dabei is... Na ja aber kannst wenigstens Charlie's "told you so" vom Stapel lassen :freak:

Und woher kommt die Prognose 880=780 Ti+20%?

Cortana
2014-08-02, 07:00:00
20nm wird ja schon demnächst verfügbar sein, aber halt nicht für Nvidia. Apple & Samsung kommen zuerst dran.

Höhnangst
2014-08-02, 08:56:52
@ Hübie: Ja, und? Der Hauptfokus lag bei meiner Speku auf Q3. Man sieht ja auch, dass es sich vielleicht bis in den Oktober zieht, was schon wieder Q4 ist. Wenn man nicht gerade bei nV arbeitet, wie soll man dann bitte einen 100 % Treffer landen?

Die Prognose basiert zum Teil auf den vermutlichen Daten, die schon überall die Runde gemacht haben (auch in den 3DC News), die von den indischen Zollpapieren oder was das war. Außerdem betrachte ich dabei auch, wie es mit den letzten Generationen gelaufen ist (480 > 580 und 680 > 780). Dabei hat sich gezeigt, dass z.B. der Abstand von einer 580 zu einer 480 und von einer 680 zu einer 780 in ähnlichen Gefilden liegt (etwa 20 %). Die 570 entspricht dabei leistungsmäßig einer 480 und die 770 entspricht ganz gut einer 680, also dem letzten Top-Modell.

Dem Schema folgend bringt es mich zu dem Schluss, dass die 880 schneller als die 780 Ti wird und die 870 den Platz dieser einnehmen wird.


PS: Ich kenn nur den Namen "Charlie" und weiß, dass er zu irgendeiner Webseite gehört und gern Gerüchte / Spekulationen (?) schreibt. Aber damit endet auch mein Wissen über den Kerl.

ilibilly
2014-08-02, 09:30:10
Ich denk nicht das Nvidia die ti übertrumpfen wird,Imho wird die gtx 880 die gtx 780 ersetzen und nicht die ti,Performance dürfte allerdings Richtung Ti gehen aber sicher keine 20-30% drüber.

Schließlich wird ja mal eine 880ti erschein und ein neuer Titan :)

Hübie
2014-08-02, 10:57:43
Ich tippe mal auf 8 GPCs á 2 SMM mit 128 ALUs/CUDA-Cores, 32 ROPs, 128 TMUs und vielleicht 4 MB Cache. Wäre ne runde Sache ;D

Radeonfreak
2014-08-02, 11:40:52
Imho wird die gtx 880 die gtx 780 ersetzen

Glaub ich nicht. Warum zum Geier sollte man sich dann diese Karte holen? Da kann ich meine ja gleich behalten.

Hübie
2014-08-02, 11:46:42
Die 780 war afaik die effizienteste GK110-Karte. Macht schon Sinn ein Performance-Modell zum Highend-preis für deutlich gesteigerte Effizienz zu tauschen, meinst nicht?
Des weiteren gibt es so einige 780er welche eine Ti in Schach halten bzw
bzw. übertrumpfen.
Mir ist übrigens klar dass nVidia schon lange keine geraden Zahlen mehr nimmt, aber es klingt so verdammt gut :naughty:

reaperrr
2014-08-02, 12:16:13
Ich tippe mal auf 8 GPCs á 2 SMM mit 128 ALUs/CUDA-Cores, 32 ROPs, 128 TMUs und vielleicht 4 MB Cache. Wäre ne runde Sache ;D
Ich halte 4 GPCs à 4 SMM für wahrscheinlicher, ansonsten stimme ich zu.

Hübie
2014-08-02, 12:21:45
Hm. Ja macht Sinn, da die SMM geschrumpft sind. Okay dann 4x4 ;D

AnarchX
2014-08-02, 12:25:33
Ich tippe mal auf 8 GPCs á 2 SMM mit 128 ALUs/CUDA-Cores, 32 ROPs, 128 TMUs und vielleicht 4 MB Cache. Wäre ne runde Sache ;D

Bei >400mm² möglicherweise etwas zu wenig. Das ist vielleicht die GTX 860. ;D

Hübie
2014-08-02, 12:29:04
Wer sagt dass GM204 >400 sqmm ist? ;)

robbitop
2014-08-02, 12:30:04
Ich tippe darauf, dass die GTX 880 schneller wird als GTX 780 ti. Warum? Weil alles andere peinlich für NV wäre für die Bezeichnung. Sonst müssten sie sie 860 oder 870 nennen.

IIRC gab es in der NV Historie nicht ein einziges Produkt mit höherer Anfangsnummer (also 8 statt 7) bei gleicher Einordnung der Geschwindigkeitsklasse (GTX x80) des Vorgängerproduktes, welche am Ende langsamer oder nur gleichschnell war. Im Gegenteil. Ein gewisser Geschwindigkeitsabstand war auch immer da - sonst wäre es lächerlich.

Allein deshalb (wenn das Ding wirklich GTX 880 heißen wird), bin ich mir ziemlich sicher, dass sie schneller wird als die 780 ti.

Bei 400 sqmm sollte das kein Problem sein. Maxwell hat ja wesentlich mehr Punch pro Transistor, braucht nicht so viel Bandbreite und man hat den Compute Kram vermutlich wieder kurz gehalten.

Wer sagt dass GM204 >400 sqmm ist? ;)
Gab es nicht schon ein Bild, anhand dessen das ausgerechnet wurde, dass es ca. 400 sqmm sind?

Hübie
2014-08-02, 13:03:23
Ja da gab's n Bild, aber ob das präzise ausgerechnet wurde? Der mit abgelichtete GDDR5 ist ja ein BGA-170 als 135 sqmm (9x15). Wenn ich den als Maßstab nehme komme ich pi mal Auge auf 370-380 sqmm.

Edit: scheiß Autokorrektur am Blödphone :mad:

Dawn on Titan
2014-08-02, 13:18:22
780 Leistung für 680 Stromverbrauch wäre doch nett. Dazu ne 880ti bei der man die TDP hoch dreht und 10-20% vor der 780ti raus kommt.

hasebaer
2014-08-02, 13:39:43
Mag sein das es eine 880Ti mit + 20% geben wird, aber die 880 wird mindestens 780Ti Level erreichen, eher noch 780Ti + 5%. Die 870 ersetzt dann die 780 (+5%), und die 860 die 770 (+5%).

Wie gehabt, so wie das immer war.

maximus_hertus
2014-08-02, 13:59:26
[...]IIRC gab es in der NV Historie nicht ein einziges Produkt mit höherer Anfangsnummer (also 8 statt 7) bei gleicher Einordnung der Geschwindigkeitsklasse (GTX x80) des Vorgängerproduktes, welche am Ende langsamer oder nur gleichschnell war. Im Gegenteil. Ein gewisser Geschwindigkeitsabstand war auch immer da - sonst wäre es lächerlich[...]

Nun ja => 8800 Ultra - 9800 GTX. Die 9800 war durchgehend etwas bis dramatisch langsamer, da nur ein 256-Bit Interface mit 512MiB statt 384-Bit mit 768 MiB VRAM bzw "nur" 16 statt 24 ROPs.

Bei den AA bzw. High-Resolution-Benches sah man selbst gegen die 8800 GTX teilweise schwach aus.

Nakai
2014-08-02, 14:00:14
Falls 28HPM verwendet wird, wird auch eine Leistungsreduktion, wie bei 20SOC erreicht. Andere Effizienzverbesserungen sollten den Chip schon auf ein nettes Niveau heben. Jeglicher Gxxx4-Chip war bis jetzt schneller, als das LastGen-HighendModell.

robbitop
2014-08-02, 14:04:31
Nun ja => 8800 Ultra - 9800 GTX. Die 9800 war durchgehend etwas bis dramatisch langsamer, da nur ein 256-Bit Interface mit 512MiB statt 384-Bit mit 768 MiB VRAM bzw "nur" 16 statt 24 ROPs.

Bei den AA bzw. High-Resolution-Benches sah man selbst gegen die 8800 GTX teilweise schwach aus.
Wenn dann GTX gegen GTX. Und die 9800 GTX war außerhalb des VRAM Limits ein wenig schneller als die 8880 GTX.

Hübie
2014-08-02, 14:10:19
Wieviel Gxxx4 kennst du denn bisher Nakai? ;D

hardtech
2014-08-02, 14:11:33
Mag sein das es eine 880Ti mit + 20% geben wird, aber die 880 wird mindestens 780Ti Level erreichen, eher noch 780Ti + 5%. Die 870 ersetzt dann die 780 (+5%), und die 860 die 770 (+5%).

Wie gehabt, so wie das immer war.

Dass eine gtx880 schneller als die 780ti wird, bin ich mir sicher.
Dennoch ist es ein armutszeugnis: früher war 1. der abstand der veröffentlichung neuer gpus kleiner und 2. der leistungszuwachs höher.

Die meisten werden 20% mehr fps kaum bemerken. Eine karte, die mit 100% leistung am ruckellimit liegt (meinetwegen wegen 4k), wird es auch mit 120% leistung nicht unbedingt rausreissen!

Meine prognose:
Hohe preise der neuen karten, 880 schneller als 780ti, rechtfertigt nv durchs tolle marketing mit leistung pro watt! Und schon kaufen alle eine gpu mit +20% (um beim bsp zu bleiben) und rennen den karten hinterher. Ich finds erstaunlich, wie gut marketing heute funktioniert. Wundert mich immer wieder, wie fakten ignoriert werden und auf den zug aufgesprungen wird.

Ej wegen 20% das maul zerreissen?! Ist euch eure freizeit nicht zu schade?

Hübie
2014-08-02, 14:15:32
Na DU musst es ja wissen :rolleyes:

Radeonfreak
2014-08-02, 14:20:53
20% bei als eine GTX 780TI fänd ich jetzt als 680 Besitzerin schon einen guten Grund zum Umsteigen. Stromverbrauch ist mir jetzt eher egal.

Also gute Geschwindigkeit und als nette Dreingabe noch Featurelevel DX12 und Shut Up and take my Money.

Ailuros
2014-08-02, 14:22:48
Na DU musst es ja wissen :rolleyes:

Ach wie gut dass niemand weiss.... :popcorn:

:weg:

Hübie
2014-08-02, 14:31:11
Ach wie gut dass niemand weiss.... :popcorn:

:weg:

...dass er Rumpelheinzchen stieß? ;D

maximus_hertus
2014-08-02, 14:52:35
Wenn dann GTX gegen GTX. Und die 9800 GTX war außerhalb des VRAM Limits ein wenig schneller als die 8880 GTX.

Aber es gab halt ein VRAM Limit. 512 MiB waren für 2008 auch nicht High-End-würdig.

Ansonsten hast du ja geschrieben, dass die 880 die 780 ti (= ultra) schlägt - ergo sollte die 9800 gtx die 8800 ultra (=ti) schlagen. Ist aber nicht geschehen ;)

Aber genug der Erbsenzählerei, warten wir mal ab, was GM204 leistet.


Mal eine ganz andere Baustelle - nV wird nächstes Jahr wohl neue Bezeichnungen für die Grafikkarten raus geben. Die GeForce 900M Serie
kommt ja jetzt raus und danach wird es entweder die GTX 10x0 oder was ganz anderes geben. Man darf gespannt sein.

Mandalore
2014-08-02, 14:53:38
Viel zu wenig und viel zu spät wenn es sich bewahrheiten sollte. ICh hoffe AMD kann stark kontern, sodass Nvidia seine dämliche Preispolitik von Kepler hier nicht durchziehen kann...

Schaffe89
2014-08-02, 14:57:49
AMD ist allerdings etas im Zugzwang, wenn man sich den letzten Test bei CB ansieht.
Nvidia hat Treibermäßig aufgeholt und eine GTX 780 ist abgesehen vom Preis und des V-rams schon gleichgut wie die 290.

Nakai
2014-08-02, 15:34:25
Wieviel Gxxx4 kennst du denn bisher Nakai? ;D

GF104/GF114 und GK104. G92 geht ja in eine ähnliche Kerbe. ;)
Grundsätzlich muss man es ja so sehen, dass die Enthusiastenchips eher ein Konter gegen AMDs Small-Die-Taktik waren. Mit Hawaii/Tahiti ist diese Taktik bei AMD zwar auch wieder gestorben, aber es gibt mittlerweile mehrere Chips die gleichzeitig laufen. Man deckt den Markt mittlerweile mit vielen Chips ab.

Viel zu wenig und viel zu spät wenn es sich bewahrheiten sollte. ICh hoffe AMD kann stark kontern, sodass Nvidia seine dämliche Preispolitik von Kepler hier nicht durchziehen kann...

Als würde AMD soviel mehr drauflegen können.

HOT
2014-08-02, 16:04:24
GK104 vs. Tahiti war ein ungleicher Kampf, weil AMDs Chip auch als DP-Profichip diente. Dafür schlug sich Tahiti sogar ausgesprochen gut. Der Chip hatte ja in der Tat einige Nachteile, die durch die Treiberevolution ziemlich gut glattgebügelt wurden. Ich sehe Kepler vs. GCN 1.x auf gleicher Höhe technisch. Kepler hat eine bessere Texelleistung, dafür ist GCN einfach "kleiner". NV hat sich einen Treibervorsprung geschaffen, indem man den DX11-Treiber besser auf Multithreading optimiert hat, dieses steht bei AMD noch aus, aber ich würd mal darauf wetten, dass es da bei Zeiten wieder einen Gleichstand geben wird. Momentan hat sich AMD da softwaretechnisch ziemlich viel aufgeladen.
Maxwell ist ne andere Architektur, von der wir wissen, dass sie bei kleinen Chips sehr effizient zu Werke geht. Wie das bei großen Chips wirkt steht noch aus, aber man wird auch hier Kepler sicherlich deutlich übertrumpfen. Ich erwarte aber ähnliches für GCN2. Auch hier wird man sicherlich deutliche Optimierungen ggü. GCN 1.x sehen. GCN 1.1 bringt ja nur minimale Änderungen ggü. GCN 1.0 mit, das dürfte bei GCN 2 deutlich anders sein.

hardtech
2014-08-02, 16:26:10
@hot
deine aussage geht in die richtung:
ich erwarte, dass die nächste generation besser wird als die aktuelle.

meinst du das ernsthaft? oder ist da noch ein bisschen inhalt in deinem aufsatz?

hasebaer
2014-08-02, 16:57:04
Ej wegen 20% das maul zerreissen?! Ist euch eure freizeit nicht zu schade?

Das Maul was?!

Wie auch immer ... eine solche 880Ti hätte 90-100% Speed ggü. meiner 2,5 Jahre alten GTX 670 2G, bei +100-200% VRAM.

Man muss ja nicht sofort zuschlagen, aber spätestens wenn eine MSI Twin Frozr oder andere leise Partnerkarte im nächsten Frühjahr verfügbar ist, geht meine 670 in Rente.

Und wenn es denn mal endlich einen 120hz, WQHD / WQXGA, 27", IPS, G-Sync TFT mit mehr als einem Eingang gibt ... aber ach .... da muss ich wohl noch länger warten.

hardtech
2014-08-02, 17:25:43
Das Maul was?!

Wie auch immer ... eine solche 880Ti hätte 90-100% Speed ggü. meiner 2,5 Jahre alten GTX 670 2G, bei +100-200% VRAM.

Man muss ja nicht sofort zuschlagen, aber spätestens wenn eine MSI Twin Frozr oder andere leise Partnerkarte im nächsten Frühjahr verfügbar ist, geht meine 670 in Rente.

Und wenn es denn mal endlich einen 120hz, WQHD / WQXGA, 27", IPS, G-Sync TFT mit mehr als einem Eingang gibt ... aber ach .... da muss ich wohl noch länger warten.

da bin ich wiederum komplett bei dir :up:

Dawn on Titan
2014-08-02, 19:39:41
Sehe ich auch so 780(ti) Leistung für 680 Stromverbrauch und ich wäre dabei und meine 670 geht in Rente.

aufkrawall
2014-08-02, 20:08:35
Was ist denn euer Problem mit dem Stromverbrauch?
Ob eine Karte 200 oder 300W beim spielen verbrät, ist, mit gutem Kühler, doch relativ wumpe. Merkt man eh nicht bei der Stromrechnung, so lange man kein WoW-Suchti ist.
Ich hoffe, es gibt wieder Custom Designs mit standardmäßig richtig hoher TDP, wie etwa die Asus DCII 780 Ti (300W).
Die 750 Ti ist ja sehr taktfreudig. Die Chancen stehen wohl gut, dass was geht. Ist halt kein Riesen-Chip und nur 28nm.

Und zum Glück kommt sie wohl eher eher denn später. So kann man die 780 Ti noch gut vor den Blockbustern im Herbst verkloppen. :biggrin:

Hübie
2014-08-02, 20:24:55
Und zum Glück kommt sie wohl eher eher denn später.

;D;D;D Ist das sowas wie ein zues Fenster? :freak: scnr

robbitop
2014-08-02, 23:06:35
Aber es gab halt ein VRAM Limit. 512 MiB waren für 2008 auch nicht High-End-würdig.

Ansonsten hast du ja geschrieben, dass die 880 die 780 ti (= ultra) schlägt - ergo sollte die 9800 gtx die 8800 ultra (=ti) schlagen. Ist aber nicht geschehen ;)

Aber genug der Erbsenzählerei, warten wir mal ab, was GM204 leistet.


Meine Güte und selbst das (9800) war eine Ausnahme, die die Regel bestätigt.

Die 880 wird die 780 ti schon besiegen. Alles andere wäre nur peinlich.



Als würde AMD soviel mehr drauflegen können.
GCN 2.0, 550 sqmm, ggf etwas "Compute Ballast" von Board schmeissen. Da wäre noch etwas Luft.

Gipsel
2014-08-02, 23:27:31
GCN 2.0, 550 sqmm, ggf etwas "Compute Ballast" von Board schmeissen. Da wäre noch etwas Luft.Ja, falls AMD einen Highend-"Gamer"-Chip auflegen wollte, wäre tatsächlich noch Einiges an Luft. Man sollte nicht vergessen, daß Hawaii in seinen 438mm² doch etwas platzfressendes 1:2 DP drin hat (ECC kostet im Vergleich nicht soo viel Platz). Eine FirePro W9100 mit einem Hawaii schafft beinahe das Doppelte an DP-Durchsatz im Vergleich zum K20X mit einem ~550mm² GK110. Mit 1:16 DP (und ohne ECC) wie bei den kleineren GPUs ließe sich die Anzahl der Einheiten sicher deutlich erhöhen (64 SIMDs/4096 ALUs, 8fach Setup/Raster, 64ROPs, 512Bit-Speicherinterface, verdoppelte L2 und ROP-Caches in 520 bis 550mm²?). Da wäre dann auch ein Takt von nur ~900MHz (um den Stromverbrauch unter 300W zu halten) kein Drama. Für den Profi-Bereich würde man erstmal Hawaii weiterlaufen lassen (da hat man zumindest DP-rechenleistungstechnisch bis der Maxwell-Topdog kommt noch ordentlich Vorsprung) und dann später mit dem 20nm Topmodell ablösen.
Aber ob AMD so denkt, bezweifle ich ein wenig. Machbar wäre es aber prinzipiell.

Timbaloo
2014-08-02, 23:39:44
Was ist denn euer Problem mit dem Stromverbrauch?
Ob eine Karte 200 oder 300W beim spielen verbrät, ist, mit gutem Kühler, doch relativ wumpe. Merkt man eh nicht bei der Stromrechnung, so lange man kein WoW-Suchti ist.
Du hast trotzdem 100W mehr abzuführen und das wird bei gleichem Kühler dann halt lauter. Und man heizt die Umgebung auch um 100W mehr auf.

Oder um es wieder mehr auf Maxwell@28nm zu bringen: Wenn GM204 schon 225W@Stock ziehen würde, soll GM210 dann 275W@Stock ziehen? Und bei den Reviews wieder schön auf die Fresse kriegen, nur weil sich irgendjemand nicht an 300W stört?

aufkrawall
2014-08-03, 00:17:56
Du hast trotzdem 100W mehr abzuführen und das wird bei gleichem Kühler dann halt lauter.

Kann mich gar nicht erinnern, von "gleichem Kühler" gesprochen zu haben?


Und man heizt die Umgebung auch um 100W mehr auf.

Es wird in nem kleinen Raum sowieso wärmer. Die 100W zusätzlich fallen, den Menschen miteingerechnet, nicht so ins Gewicht.


Oder um es wieder mehr auf Maxwell@28nm zu bringen: Wenn GM204 schon 225W@Stock ziehen würde, soll GM210 dann 275W@Stock ziehen? Und bei den Reviews wieder schön auf die Fresse kriegen, nur weil sich irgendjemand nicht an 300W stört?
Ich kann mich schon wieder nicht erinnern, dass ich gesagt haben soll, das Referenzdesign solle 300W verbraten...
Außerdem hast du eine Milchmädchenrechnung aufgestellt, ein größerer Chip ist effizienter.

Timbaloo
2014-08-03, 01:03:52
Was ist dann deine eigentliche Aussage? Dass man auch 300W irgendwie kühlen kann? Erzähl das Mr Obvious? Dass es dich nicht interessiert ob eine Karte 300W zieht? Erzähl das Mr Wayne.

Marty98
2014-08-03, 07:36:46
100 Watt mehr ist viel mehr Lärm und für viele inakzeptabel. Oft Hauptgrund wieso man sich gegen AMD entscheidet, obwohl der Preis besser ist.

Höhnangst
2014-08-03, 08:27:05
Ich glaube, dass wir eine niedrigere Leistungsaufnahme im Bereich von etwa 25 % sehen werden. Karten, die also jetzt 200 W verbrauchen, schaffen dann mit 150 ähnliche Leistung oder bei 250 W liegen die dann um 200 und darunter.

Die Diskussion 8800 vs. 9800 halte ich für sinnlos, da die Konstellation so alt ist, dass sie meines Erachtens für die aktuelle Situation keine Rolle bei der Betrachtung spielt. Ich geh ja auch nicht her und sage, die GF 5800 war ein Fön und die neue wird auch wieder einer (laut, heiß und hoher Verbrauch). Ich denke, damit hat nV abgeschlossen. Viel wahrscheinlicher ist doch, dass nV die Strategie weiter verfolgt, die sie im Prinzip seit der 400er Reihe fahren und die ich in meinem letzten Beitrag kurz beschrieben habe (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10301189#post10301189).

Hübie
2014-08-03, 08:34:44
Ah noch ein "Told-you-so-kandidat" ;D scnr

Aber ich gebe dir bezüglich der 8800/9800 Recht. Ist doch völliger Quark daraus was ableiten zu wollen.
Übrigens muss nur eine 880 Ti eine 780 Ti schlagen. In Puncto Effizienz müssen die neuen Gens aber deutlich kontern sonst gibt's zu wenig Anreiz (oder halt über den Preis - wers glaubt...).

Cubitus
2014-08-03, 08:57:27
Übrigens muss nur eine 880 Ti eine 780 Ti schlagen. In Puncto Effizienz müssen die neuen Gens aber deutlich kontern sonst gibt's zu wenig Anreiz (oder halt über den Preis - wers glaubt...).

So sehe ich das auch!
Und Speed lässt sich Nvidia immer fürstlich bezahlen.

Selbst wenn der kleine Maxwell den jetzigen TopDog schlagen sollte,
dann will Jen-Hsun ordentlich Geld sehen. Das schließt aber dann den angepeilten Spekulations-Preis komplett aus.
Also schon von daher sollte man keine "Wunder" erwarten. Vs GK104, da wird die Peformance/Effektivität schon reichen.

robbitop
2014-08-03, 09:03:18
Ich tippe darauf, dass die 880 teuer wird. Da wird Ähnliches passieren wie beim GK104. Vieleicht nicht mit +30% zum GK110 (wie damals GK104 zum GF110).

AnarchX
2014-08-03, 11:29:22
Ja da gab's n Bild, aber ob das präzise ausgerechnet wurde? Der mit abgelichtete GDDR5 ist ja ein BGA-170 als 135 sqmm (9x15). Wenn ich den als Maßstab nehme komme ich pi mal Auge auf 370-380 sqmm.

Die Größe des Packages ist bekannt (40x40mm), wer rechnet da noch mit BGA-Vergleichen? :|

Hübie
2014-08-03, 12:50:18
40*40? :|

Awrack
2014-08-03, 12:51:49
Oha Gigabyte will direkt mit einer Custom kommen ende September, dann vielleicht die anderen auch, ich bin eher von ausgegangen das das erst nächstes Jahr geschieht.

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-880/news-artikel/nvidia_geforce_gtx_880,723,3058174.html

AnarchX
2014-08-03, 12:53:31
40*40? :|
Ja, 40x40mm Package. Pin-kompatibel zum GK104.

Oha Gigabyte will direkt mit einer Custum kommen ende September, dann vielleicht die anderen auch, ich bin eher von ausgegangen das das erst nächstes Jahr geschieht.

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-880/news-artikel/nvidia_geforce_gtx_880,723,3058174.html
Möglicherweise verwendet man gleich die GTX 770-Designs weiter.

Hübie
2014-08-03, 13:26:48
Das "package" hab ich eben erst gelesen ;D

hasebaer
2014-08-03, 13:34:26
Oh ha, Eigendesigns schneller als erwartet.
Ich hoffe Mr. Liu Mengzong wird jetzt nicht gefeuert für seinen NDA Bruch. :ugly:

Raff
2014-08-03, 13:48:41
"So soll der Windforce-Kühler in einer neuen Version bis zu 650 Watt abführen können."

LOL. Erstens glaube ich das nicht und zweitens klingt das in Zusammenhang mit der GTX 880 nicht nach guter PR. :ugly:

MfG,
Raff

Rente
2014-08-03, 13:58:26
"So soll der Windforce-Kühler in einer neuen Version bis zu 650 Watt abführen können."

LOL. Erstens glaube ich das nicht und zweitens klingt das in Zusammenhang mit der GTX 880 nicht nach guter PR. :ugly:

MfG,
Raff
Mit solchen vollkommen übertriebenen Werten hat doch Gigabyte bereits bei den bisherigen Windforce3X-Varianten geworben, bei annehmbarer Lautstärke wird auch dieses Modell wieder nur max. 250 Watt schaffen und damit passt es dann auch zu OC-Varianten der GTX880.

Raff
2014-08-03, 14:10:21
650 Watt ist ein ganz anderes Kaliber als die (ebenfalls zu hoch gegriffenen) 450 Watt der Vorgänger. Zusätzliche 200 Watt in Wärmeenergie ist enorm viel Holz. Vielleicht installieren Sie ja ein Pelztier. :ugly:

MfG,
Raff

hasebaer
2014-08-03, 14:14:21
Der Windforce 600 überzeugt auf der Titan Black.

http://www.tomshardware.de/gigabyte-gtx-titan-black-review,testberichte-241550-2.html

Skysnake
2014-08-03, 14:25:34
650 Watt ist ein ganz anderes Kaliber als die (ebenfalls zu hoch gegriffenen) 450 Watt der Vorgänger. Zusätzliche 200 Watt in Wärmeenergie ist enorm viel Holz. Vielleicht installieren Sie ja ein Pelztier. :ugly:

MfG,
Raff
Das sind doch immer total sinnfreie Angaben der Hersteller meiner Meinung nach...

Unter welchen Voraussetzungen denn die XY Watt?

Also 100°C auf der einen und 0°C auf der anderen Seite? Ha jo wa, das geht schon.

Dazu vielleicht noch nen drippel Slot Design, und gut ist.

ndrs
2014-08-03, 14:26:52
650 Watt ist ein ganz anderes Kaliber als die (ebenfalls zu hoch gegriffenen) 450 Watt der Vorgänger. Zusätzliche 200 Watt in Wärmeenergie ist enorm viel Holz. Vielleicht installieren Sie ja ein Pelztier. :ugly:

Vielleicht skalieren die Lüfter jetzt bis 230V mit over 9000 rpm :D

Mandalore
2014-08-03, 14:38:46
Also entweder hat WhyCry gut getippt oder er hat es wirklich gewusst:rolleyes:;D

TobiWahnKenobi
2014-08-03, 15:06:33
"So soll der Windforce-Kühler in einer neuen Version bis zu 650 Watt abführen können."

LOL. Erstens glaube ich das nicht und zweitens klingt das in Zusammenhang mit der GTX 880 nicht nach guter PR. :ugly:

MfG,
Raff

ja, der ist jetzt mGPU-tauglich und geht direkt über zwei karten. für die, die keine zweite karte wollen ist er per biegsamen heatpiperohren dahingehend anpassbar, dass er gleich noch CPUs mitkühlt. ;)


(..)

mfg
tobi

aufkrawall
2014-08-03, 15:28:27
100 Watt mehr ist viel mehr Lärm und für viele inakzeptabel. Oft Hauptgrund wieso man sich gegen AMD entscheidet, obwohl der Preis besser ist.
Dann ist man aber schlecht informiert, denn die OC-Custommodelle wie der Vapor-X 290 verbraten auch nicht mehr Strom bei Spielen als viele 780 Customs.
300W sind übrigens problemlos leise per Luft zu kühlen.

TobiWahnKenobi
2014-08-03, 15:46:34
Dann ist man aber schlecht informiert, denn die OC-Custommodelle wie der Vapor-X 290 verbraten auch nicht mehr Strom bei Spielen als viele 780 Customs.
300W sind übrigens problemlos leise per Luft zu kühlen.

problemlos sicher nicht. mein acceleroIV auf titan, der 300W wegkühlen will dominiert das ganze case und macht steckplätze unzugänglich.

das halte ich eher für das ende der fahnenstange und die hersteller sollten sich besinnen, ob es nicht fortschrittlicher wäre, zu schauen wohin respektive wie weit man mit 200W kommen kann. dieses ständige ausfahren im grenzwertigen bereicht ist schwachsinn²


(..)

mfg
tobi

aufkrawall
2014-08-03, 15:58:10
In einem gut durchlüfteten Case oder komplett offenem Aufbau bleibt die 290 Vapor-X arschleise und die DCII 780 Ti wird auch nicht laut.
OC mit 330W geht auch noch.

TobiWahnKenobi
2014-08-03, 16:22:30
wer weiss wo die reise hingeht - vllt. kredenzt uns die neigung zu 2,5 bis drei-slot-designs ja noch einen neuen formfaktor.


(..)

mfg
tobi

Leonidas
2014-08-03, 16:35:09
Ich tippe darauf, dass die 880 teuer wird. Da wird Ähnliches passieren wie beim GK104. Vieleicht nicht mit +30% zum GK110 (wie damals GK104 zum GF110).


Sehe ich vollkommen gleich. Jeder der mit 300$ rechnet, wird sein blaues Wunder erleben. Gerade wenn GM204 gut wird, bedeutet das immer auch: Teuer.

NV bekommt es doch durch die Marktanteile schwarz auf weiss präsentiert: Die Lemminge kaufen NV, selbst wenn AMD die konstant bessere P/L-Verhältnisse hat. In so einer Situation melkt man weiter, anstatt Preise herunterzufahren. Was will NV auch groß noch an Marktanteilen gewinnen, wenn man konstant bei 65% steht? Viel mehr kann man AMD nicht abnehmen, ansonsten geht AMD den Bach runter. Ergo besser Marge als Marktanteil mitnehmen.

Höhnangst
2014-08-03, 16:43:23
Stimme Tobi zu. Effizientere Designs FTW. Maxwell scheint zum Glück genau dahin zu steuern.

Bzgl. der Kühler: Ich habe mir letztens Jahr explizit eine GTX 780 mit Referenzkühler gekauft, weil diese sehr gelobt wurden. Natürlich gab es kurz nach Release auch keine wirklichen Alternativen (Eigendesigns), aber ich bin durchweg zufrieden mit dem, was nV da produziert hat. Unter Last ist sie zwar auch hörbar, aber zumindest ist es ein gleichmäßiges Rauschen ohne komische Nebengeräusche.

Ich zweifle nicht, dass andere Karten unter Last noch leiser sind, aber die Referenzkühler machen optisch und auch haptisch eine Menge her. Ich weiß nicht, wer von euch schon mal eine 780/Titan Referenzkarte in der Hand gehalten hat, jedoch fühlt die sich einfach unheimlich massiv und wertig an mit der Metallverkleidung. Aussehen tut sie auch top. Dagegen kommen mir viele der 3rd-Party-Designs wie Plastikbomber vor. Leider wird das Material der Verkleidung i.d.R. nicht bei der Produktbeschreibung genannt. Vielleicht sind die inzwischen auch zu Alu oder was auch immer übergegangen, wünschen würde ich es mir.

Vor der 780 hatte ich eine Radeon 5870 von Powercolor im Eigendesign (auch Plastikbomber). Im Leerlauf war der Kühler super, aber sobald Last auf die Karte kam, haben sich zwei nervige Eigenschaften offenbart: Der Lüfter drehte nicht stufenlos hoch und runter, sondern das passierte quasi schrittweise und das ist wesentlich auffälliger (störender). Selbst meine ganz alte GTS 8800 (512 MB) im Referenzdesign hatte damals schon eine stufenlose und angenehme Lüfterregelung. Das zweite ist, dass sie unter maximaler Last deutlich hörbar war. Die Referenz 780 macht das auch alles stufenlos.

Dawn on Titan
2014-08-03, 16:50:11
Dieses Gerade geht mir auf den Sack. "Lemminge kaufen NV". Sorry, aber AMD hat es sich zu großen Teilen selber zu verdanken, dass sie nicht gut verkaufen. Verkackte Referenzdesigns, exklusiv Partner mit schlechtem Service und zeitweise ziemlich schlechten Kühlerlösungen.

Die letzten versauten Launchs gehen zu 100% auf die Kappe von AMD. Und es ist nun einmal schwierig, wenn so etwas wie der 290(non X) Launch passiert und der Kühler völlig überfordert ist und die Karten den Referenztakt nicht halten, Kundne zu gewinnen, wenn die gegnerischen Referenzdesigns zwar nicht gerade silent tauglich sind, aber eben halb so laut wie die lächerlichen AMD Entwürfe.

hasebaer
2014-08-03, 17:11:44
Jeder der mit 300$ rechnet, wird sein blaues Wunder erleben.

Wo rechnet denn hier jemand mit $300?
Eine UVP von 500€, wie bei der 680 wären schonmal 150€ weniger als noch bei der GTX 780Ti und weniger würde auch am Status der "80" knabbern.

Hübie
2014-08-03, 17:13:55
Sehe ich vollkommen gleich. Jeder der mit 300$ rechnet, wird sein blaues Wunder erleben. Gerade wenn GM204 gut wird, bedeutet das immer auch: Teuer.

NV bekommt es doch durch die Marktanteile schwarz auf weiss präsentiert: Die Lemminge kaufen NV, selbst wenn AMD die konstant bessere P/L-Verhältnisse hat. In so einer Situation melkt man weiter, anstatt Preise herunterzufahren. Was will NV auch groß noch an Marktanteilen gewinnen, wenn man konstant bei 65% steht? Viel mehr kann man AMD nicht abnehmen, ansonsten geht AMD den Bach runter. Ergo besser Marge als Marktanteil mitnehmen.

Klingt ein wenig zu einseitig, Leonidas. Warum kaufen denn 65% lieber nVidia, muss man sich ja auch fragen.
@Höhenangst: Das Haptik-argument würde bei mir mal gar nicht ziehen weil ich nicht von morgens bis abends dran rumgrabbel. Und mein NZXT H630 ist zudem geschlossen also kann da auch n Stück Brot drin gammeln, ich sehs nicht also juckts mich nicht ;);)
GTX 690 hatte afaik Magnesium und danach wars Alu-Molybdän. Weiß gerade nicht mehr ob eloxiert oder gestrahlt.

Leonidas
2014-08-03, 18:06:45
Ich will gar nicht bestreiten, das AMD einige Fehler macht. Aber objektiv auch diese Fehler einbezogen, müsste beim nun inzwischen jahrelangen P/L-Vorteil von AMD der Markt nun langsam mal wenigstens in Richtung 45%/55% tendieren. Tut er aber nicht, teilweise hat NV zuletzt sogar noch hinzugewonnen.

Und nein, in der Masse der User zählt das P/L-Verhältnis elementar und all die Feinheiten, die Enthusiasten mit berücksichtigen, wenig bis gar nichts. Trotzdem keinerlei Effekt bei den Marktanteilen. Ich als AMD-Manager würde langsam verrückt werden.

aufkrawall
2014-08-03, 18:08:25
Wir paar Spinner zählen einen Witz im Vergleich zu etwa Notebook Design-Wins.
Nur zur Erinnerung.

Dawn on Titan
2014-08-03, 18:22:39
Und nein, in der Masse der User zählt das P/L-Verhältnis elementar und all die Feinheiten, die Enthusiasten mit berücksichtigen, wenig bis gar nichts. Trotzdem keinerlei Effekt bei den Marktanteilen. Ich als AMD-Manager würde langsam verrückt werden.

Und da täuscht Du Dich imho. Einige Euro mehr und einige FPS weniger, sind schnell vergessen bzw. fallen kaum auf. Ein Spiel das nicht funktioniert oder ein brüllender Lüfter, damit kommt der Kunde in den Laden und will umtauschen.

Hübie
2014-08-03, 18:23:13
Das liegt unter anderem auch am starken Marketing rund um die Produkte von nVidia. AMD hat in der Vergangenheit zu oft Baustellen eröffnet und nie (richtig) zu Ende gebracht.

aufkrawall
2014-08-03, 18:33:54
Das liegt unter anderem auch am starken Marketing rund um die Produkte von nVidia. AMD hat in der Vergangenheit zu oft Baustellen eröffnet und nie (richtig) zu Ende gebracht.
Tahiti war weniger effizient als GK104 und bei Hawaii haben sie wieder durch billigen Kühler die Effizienz versaut. Eine Todsünde, bei der Bedeutung, die Effzienz mitterweile zukommt.
Nvidia gilt seit GK104 halt als "green", den Boost setzen sie marketingwirksam unterstützend dafür in Szene.
Mit GM107 haben sie neue Effizienz-Bestwerte in dem Segment aufgestellt und AMD schafft es wieder ewig lange nicht, etwas Vergleichbares anzubieten.
GM204 wird wieder in seinem Segment neue Bestwerte erreichen.
NV hats momentan gut raus, sich das beste Image zu verschaffen.

Mantle kann das Bandbreitenproblem von AMDs APUs auch nicht lösen. Wenn Garden Warfare auf der schnellsten APU in 1080p mit niedrigsten Details nur mit 40fps läuft (laut Computerbase), reißts das halt nicht im Vergleich zu einer dGPU (die durch die ganzen Design Wins natürlich meist von NV ist ;) ).

AffenJack
2014-08-03, 18:33:59
Ich will gar nicht bestreiten, das AMD einige Fehler macht. Aber objektiv auch diese Fehler einbezogen, müsste beim nun inzwischen jahrelangen P/L-Vorteil von AMD der Markt nun langsam mal wenigstens in Richtung 45%/55% tendieren. Tut er aber nicht, teilweise hat NV zuletzt sogar noch hinzugewonnen.

Und nein, in der Masse der User zählt das P/L-Verhältnis elementar und all die Feinheiten, die Enthusiasten mit berücksichtigen, wenig bis gar nichts. Trotzdem keinerlei Effekt bei den Marktanteilen. Ich als AMD-Manager würde langsam verrückt werden.

AMDs größtes Problem sind auch Notebooks, da man dort kaum mehr existent ist. Intel wird sogut wie immer nur mit NV gepart und aufgrund der AMD CPU Schwäche hat man da nun kaum Marktanteil. Desktop sieht doch glaube ich gar nicht so schlecht aus. Aber generell muss man das Image ausbaden, was man sich über die Jahre aufgebaut hat.

Die Leute wollen einfach nicht nur billig, auch wenn du das sagst. Das Image was über die Jahre gewachsen ist, ist :Ich kauf AMD, wenn ich aufs Geld achte, Nvidia wenn ich was besseres will. Den Ruf hat sich NV mit den High-End GPUs und mit neuen Features erarbeitet, auch wenn die am Ende Rohrkrepierer waren. AMDs Small DIE Strategie war da Imagemäßig einfach ein Nachteil. AMD tut jetzt mit größeren Chips ala Hawai und Features wie Mantle/Trueaudio genau das richtige, aber es wird ne zeitlang dauern bis das Image sich ändert und das bei allen Normalos ankommt.

Skysnake
2014-08-03, 18:49:22
Und da täuscht Du Dich imho. Einige Euro mehr und einige FPS weniger, sind schnell vergessen bzw. fallen kaum auf. Ein Spiel das nicht funktioniert oder ein brüllender Lüfter, damit kommt der Kunde in den Laden und will umtauschen.
Wenns nur das wäre...

Geh mal in nen blöd markt zu den Notebooks, und warte 10 Minuten, bis sich einer beraten lässt.

Da kommen dann so Sprüche wie: "Also von AMD kann ich nur abraten, die harmonieren nicht so gut mit einer Intel CPU, sondern am Besten mit einer AMD CPU natürlich. Nehmen Sie lieber nVidia, das harmoniert gut mit Intel CPUs, die die beste sind. Hab ich auch daheim...."

:ufinger:

Da musste dich echt nicht mehr wundern... Vor allem, das passiert nicht in einem Markt, sondern scheint schon fast System zu haben, genau wie so Aussagen Marke: "Nehmen Sie Apple, da haben Sie keine Probleme mit Viren usw. Einen Virenscanner usw brauchen Sie da gar nicht. Das spart ihnen Geld wissen Sie. Am Ende zahlen Sie dann sogar weniger, wenn Sie alles dazu noch kaufen, wie Office, Virenscanner usw."

Da fasste dir echt an den Kopf.... :mad:

Cortana
2014-08-03, 18:57:28
Bitte nicht so abwertend.

Gibt auch Verkäufer, die schon bisschen Ahnung haben, wie ich :D

aufkrawall
2014-08-03, 18:58:24
Ach Gottchen. Dass Verkäufer nur Müll sülzen, hat nun wirklich wenig mit irgendwelchen Marktanteilen zu tun.

Edit: Eben war der Post noch nicht da. :D

-/\-CruNcher-/\-
2014-08-03, 19:15:04
Ich will gar nicht bestreiten, das AMD einige Fehler macht. Aber objektiv auch diese Fehler einbezogen, müsste beim nun inzwischen jahrelangen P/L-Vorteil von AMD der Markt nun langsam mal wenigstens in Richtung 45%/55% tendieren. Tut er aber nicht, teilweise hat NV zuletzt sogar noch hinzugewonnen.

Und nein, in der Masse der User zählt das P/L-Verhältnis elementar und all die Feinheiten, die Enthusiasten mit berücksichtigen, wenig bis gar nichts. Trotzdem keinerlei Effekt bei den Marktanteilen. Ich als AMD-Manager würde langsam verrückt werden.

Jep selbst die alten Nvidia Ökosystem hasen konnten das bis jetzt nicht ändern die Convergence kommt nur langsam voran und nun steht Nvidias effiziensgewinn vor der tür mit der sie vor allen ihre Mainstream Compute verluste gegenüber AMD ausgleichen wollen, gerade zur richtigen Zeit das Timing ist Perfekt.

maximus_hertus
2014-08-03, 19:15:31
Glaubt hier einer wirklich, dass die "Berater" bzw. "Verkäufer" ernsthaft kundenorientiert beraten? Schaut euch mal an, wie sich das monatliche Gehalt zusammen setzt. Ein kleiner Tipp: Verkaufsprämien werden immer wichtiger. Das Basisgehalt bei Computerhändlern sind meistens ein Riesenwitz (oftmals unter 8,50 Euro / Std). Die einzige Chance, da mehr rauszuholen sind die Verkaufsprämien.
nV ist da einfach meilenweit cleverer als AMD. Bei nV gibt es bei quasi jedem Launch Verkaufsschulungen, es gibt Flyer bzw. Werbematerial. Bei AMD.... nichts bzw. 1-2 x pro Jahr ein Paket mit 1-2 Postern und Kugelschreibern. Dazu gibt es für die Verkäufer regelmäßig Games umsonst (aus dem nV Programm) - bei AMD....Überraschung - nichts.

Die meisten Kunden fragen beim Zusammenstellen eines Spiele-PCs nicht nach der Grafikkarte, sondern direkt nach einer GeForce. Sprich GeForce = Grafikkarte. nV hat halt über einen sehr langen Zeitraum sich so in den Köpfen der potentiellen Kunden gehämmert, dass man mit einem leicht besseren P/L-Verhältnis kaum was erreicht.

Am schlimmsten sind jedoch die AMD APUs. Selbst für Gelegenheitsspieler kaum zu gebrauchen (wenn wenigstens alle Spiele in 1080p bei Medium Details mit ca. 40 fps laufen würden). Die liegen wie Blei in den Regalen - CPU Leistung bescheiden, aber noch ok. GPU nett, aber dann doch zu schwach. Für die rund 150 Euro ist das deutlich zu wenig und kaum günstiger als eine CPU + dGPU Kombination.

Noch eines zu den Prämien: Diverse Unternehmen bieten interrne Wettbewerbe an, sprich die Verkäufer / Filialen, die unser Produkt am meisten verkaufen, erhalten Bonus x und y. Es gibt eigentlich nur eine Firma, die meines Wissens nach noch nie sowas gebraucht hat: AMD.

Gute Produkte bringen nichts, wenn der Verkauf nicht funktioniert.

HOT
2014-08-03, 21:10:19
Kleiner Einwurf zu AMD vs. NV-Verkäufen in dem speziellen Fall 2013/2014. Man darf hierbei nicht außer Acht lassen, dass AMD nicht nur Grafikchips sondern auch haufenweise Konsolen SoCs bei TSMC produziert hat, wobei die Konsolen-SoCs allererste Priorität haben dürften. Dann kam später noch der Hawaii hinzu, der ja nicht klein ist und die Absatzmenge von Kabini im asiatischen Markt (bei uns kamen die Dinger ja gar nicht an) ist auch nicht zu verachten. Meiner Ansicht nach gab es bei AMD bei GPUs eher einen Produktionsengpass und das hatte gar nicht viel mit NV zu tun.
Ich glaube nicht, dass sich der Durchschnittskäufer an der VRM-Temperatur oder an den 300W-Verbrauch des Hawaii gestört hat, zumal die normalen Hawaii-Karten die ganze Zeit über deutlich billiger waren als die 780(TI)-Karten und im Quiet-Modus betrieben werden.
Dennoch hat meiner Ansicht nach Leo trotzdem recht, es gibt einen riesen Haufen Leute, die "wie die Lemminge" nur NV kaufen würden und AMD mit dem Arsch niemals angucken würden, egal, wie gut oder schlecht die Produkte beider Hersteller sind. Das gibts zwar auch umgekehrt, aber das ist ja kein Verhältnis. Sowas ist auch Statussymbol in einer sozialen Gruppe. Bei Evergreen vs. GF1x0 war das meiner Ansicht sehr sehr klar zu sehen, wie der Hase läuft, was das Thema angeht. Verbrauch/Leistung und meiner Ansicht nach auch Bauteilqualtität und Treiber waren bei AMD zu der Zeit nicht zu verachten oder überlegen. Dennoch kam AMD erst mit GCN und dem massiven Ausbau des Gaming-Evolved-Programms und vor allem Never-Settle etwas aus dem "Ruf-"Tief heraus. Mantle ist ein weiterer Baustein. Wenn jetzt noch die Produktionskapazität stimmt und AMD das mit den DX11-CPU-Optimierungen noch hinkriegt, siehts meiner Ansicht nach so gut aus wie nie zuvor in der AMD-GPU-Geschichte.

Meiner Ansicht nach hat der GM204 auch beim Speicherinterface seine Schwachstelle; deshalb bezweifel ich mittlerweile auch die 30%-mehr-als-GK110-These (hab ich bis vor kurzem auch geglaubt, dass das klar ist). Aber genauer reflektiert: NV würde es ja auch reichen, wenn der Chip (und PCB/Speicher) kaum schneller aber erheblich billiger ist als GK110. Das könnte auf UltraHD mit MSAA wieder ziemlich blöd aussehen mit nur 256Bit. Man darf nicht vergessen, wenn man mit 256Bit ähnliches erreicht wie mit 384Bit bei Kepler, wär das schon ein irrer Effizienzsprung, aber das wird sich dann erweisen. Bermuda wird sicherlich wieder 384Bit (und 6GB) mitbringen, wie ich AMD einschätze.

Maui("HawaiiXTX") <= GM204 == Bermuda

Dural
2014-08-03, 21:17:10
AMD will kein Mensch, da könnt ihr jeden der im Hardware Geschäft tätig ist fragen.

Die wenigen Karten die AMD verkauft gehen an Freaks oder Sparfüchse.

aufkrawall
2014-08-03, 21:27:24
Ahh, kann jetzt kaum noch warten auf das Ding. :freak:
Würde ganz gerne 1080p mit NNEDI3 64n auf 1440p skalieren. Das schafft der olle GK110 mit 1,25Ghz aber nicht, zumindest nicht mit den momentanen OpenCL-Treibern.
Die 880 wird hoffentlich die ideale madVR-Karte. Kann man mit dickem Kühler und Undervolting (per OC + PT) auch in HTPCs betreiben. Ist auch gar nicht so extreme Spinnerei, denn 4k mit TVs bringt das enorm was.

Ailuros
2014-08-03, 22:31:49
Das Thema ist hier Maxwell. Wer Novellen über die Marktlage von jeglichem IHV schreiben will gerne aber nicht hier.

Nakai
2014-08-03, 23:17:23
Ja, falls AMD einen Highend-"Gamer"-Chip auflegen wollte, wäre tatsächlich noch Einiges an Luft. Man sollte nicht vergessen, daß Hawaii in seinen 438mm² doch etwas platzfressendes 1:2 DP drin hat (ECC kostet im Vergleich nicht soo viel Platz). Eine FirePro W9100 mit einem Hawaii schafft beinahe das Doppelte an DP-Durchsatz im Vergleich zum K20X mit einem ~550mm² GK110. Mit 1:16 DP (und ohne ECC) wie bei den kleineren GPUs ließe sich die Anzahl der Einheiten sicher deutlich erhöhen (64 SIMDs/4096 ALUs, 8fach Setup/Raster, 64ROPs, 512Bit-Speicherinterface, verdoppelte L2 und ROP-Caches in 520 bis 550mm²?). Da wäre dann auch ein Takt von nur ~900MHz (um den Stromverbrauch unter 300W zu halten) kein Drama. Für den Profi-Bereich würde man erstmal Hawaii weiterlaufen lassen (da hat man zumindest DP-rechenleistungstechnisch bis der Maxwell-Topdog kommt noch ordentlich Vorsprung) und dann später mit dem 20nm Topmodell ablösen.
Aber ob AMD so denkt, bezweifle ich ein wenig. Machbar wäre es aber prinzipiell.

Aber ohne Effizienzverbesserungen wird das nichts. Hawaii ist jetzt schon mit seinen 438mm² und max über 300W an einem kritischen Punkt, der mit einem noch größeren und schnelleren Chip locker übersprungen wird. Also Takt und Spannung runter oder doch Effizienzverbesserungen.

Wenn bei Maxwell bald Custommodelle nach dem Launch erscheinen, könnte der Chip starke Übertaktungsmöglichkeiten besitzen. Das Standarddesign wird dann um die ~200W verbraten. GTX 770 verbraucht etwa 200W. Titan+20% sollte drin sein. Das 256Bit SI und der L2-Cache sind eher eine Unbekannte.

HOT
2014-08-03, 23:44:33
Ein 430mm²-Chip ist nicht vergleichbar mit einem 300mm² GK104. Dafür müsste man beim Takt Abstriche machen. Das ist sicher Unsinn zu erwarten, dass ein GM204 nur 200W braucht. Es ist sicherlich eher realistisch zu erwarten, dass Fiji und GM200 mehr als 300W brauchen (2 8-polige PCIe-Stecker werden dort Standard sein). GM204 und Bermuda werden sich sicherlich irgendwo zwischen 225W und 275W einordnen (8+6 polige PCIe).

Gipsel
2014-08-04, 02:29:34
Aber ohne Effizienzverbesserungen wird das nichts. Hawaii ist jetzt schon mit seinen 438mm² und max über 300W an einem kritischen Punkt, der mit einem noch größeren und schnelleren Chip locker übersprungen wird. Also Takt und Spannung runter oder doch Effizienzverbesserungen.Habe ich doch geschrieben. ;)

Dawn on Titan
2014-08-04, 07:09:00
Es gibt aber keinen Grund warum CGN2 nicht ebenso verbessert werden kann wie was NV mit GM2XX machen wird. Eher im Gegenteil, AMD hat mehr Reserve bei der Diefläche, das breitere SI undkann bei den großen Chip mehr Computezeug rauss werfen. Ich erwarte, dass AMD die 2014er Generation klar und deutlich gewinnt.

Edgecrusher86
2014-08-04, 08:34:04
Ein 430mm²-Chip ist nicht vergleichbar mit einem 300mm² GK104. Dafür müsste man beim Takt Abstriche machen. Das ist sicher Unsinn zu erwarten, dass ein GM204 nur 200W braucht. Es ist sicherlich eher realistisch zu erwarten, dass Fiji und GM200 mehr als 300W brauchen (2 8-polige PCIe-Stecker werden dort Standard sein). GM204 und Bermuda werden sich sicherlich irgendwo zwischen 225W und 275W einordnen (8+6 polige PCIe).

Bei über 300W müsste man sich aber vom Radiallüfter verabschieden - erst recht, wenn dieser für Referenz relativ leise zu werke gehen soll, wie bei den flotteren GK. Axial ist auch nicht unbedingt MGPU bis 4-way tauglich und das muss ja eigentlich out of the box gewährleistet sein, auch wenn das Ganze unter Wasser natürlich besser ist, keine Frage. ;)

und mehrere 120mm AiOs will man sicher auch nicht bei mehreren Referenz-Karten im System haben.

225W für GM204 wär auch schon relativ viel, wenn man davon ausgeht, dass er im Mittel ungefähr bei GK110-Level +xx% landen dürfte ingame.

http://abload.de/img/unbenanntnsuaw.png

Also bei der für den Effizienztest heruntergetakteten GTX 650 Ti Boost ist der Verbrauchsunterschied schon verdammt groß. Gut, GM204 wird wohl bald 3x so groß wie GM107, aber vielleicht könnte er bei gleicher Leistung wie GK110 auch um die 30 - 40W weniger verbrauchen. Ist die Leistung theor. bei der GTX 880 um die 10 - 20% vor GK110-425/430, sollte der Verbrauchsunterschied natürlich entsprechend kleiner ausfallen, aber 20W sind sicher möglich durch Maxwell.

Ich vermute, dass beide IHVs bestrebt sind, ihre SGPU-Flaggschiffe innerhalb der 300W-Grenze zu halten, auch mit verdammt großen 28nm-Chips.

Mal schauen - sollte sich Ende September für die offizielle Vorstellung von GM204 bewahrheiten, ist es weniger als zwei Monate hin. Man darf gespannt sein.

robbitop
2014-08-04, 09:17:37
Aber ohne Effizienzverbesserungen wird das nichts. Hawaii ist jetzt schon mit seinen 438mm² und max über 300W an einem kritischen Punkt, der mit einem noch größeren und schnelleren Chip locker übersprungen wird.
Das gleiche hat man bei Tahiti auch gesagt. Am Ende braucht ein breiterer Chip weniger Takt und ggf. weniger Spannung. Hast du ja selbst schon gesagt. Weiterhin wird GCN 2.0 mit ziemlicher Sicherheit effizienter. AMD schläft auch nicht.

HOT
2014-08-04, 11:54:39
Bei über 300W müsste man sich aber vom Radiallüfter verabschieden - erst recht, wenn dieser für Referenz relativ leise zu werke gehen soll, wie bei den flotteren GK. Axial ist auch nicht unbedingt MGPU bis 4-way tauglich und das muss ja eigentlich out of the box gewährleistet sein, auch wenn das Ganze unter Wasser natürlich besser ist, keine Frage. ;)

und mehrere 120mm AiOs will man sicher auch nicht bei mehreren Referenz-Karten im System haben.

225W für GM204 wär auch schon relativ viel, wenn man davon ausgeht, dass er im Mittel ungefähr bei GK110-Level +xx% landen dürfte ingame.

http://abload.de/img/unbenanntnsuaw.png

Also bei der für den Effizienztest heruntergetakteten GTX 650 Ti Boost ist der Verbrauchsunterschied schon verdammt groß. Gut, GM204 wird wohl bald 3x so groß wie GM107, aber vielleicht könnte er bei gleicher Leistung wie GK110 auch um die 30 - 40W weniger verbrauchen. Ist die Leistung theor. bei der GTX 880 um die 10 - 20% vor GK110-425/430, sollte der Verbrauchsunterschied natürlich entsprechend kleiner ausfallen, aber 20W sind sicher möglich durch Maxwell.

Ich vermute, dass beide IHVs bestrebt sind, ihre SGPU-Flaggschiffe innerhalb der 300W-Grenze zu halten, auch mit verdammt großen 28nm-Chips.

Mal schauen - sollte sich Ende September für die offizielle Vorstellung von GM204 bewahrheiten, ist es weniger als zwei Monate hin. Man darf gespannt sein.
Milchmädchenrechnung ftw. Der GM107 ist ein kleiner Chip. Ich sage nicht, dass GM204 nicht effizienter ist, er ist definitiv effizienter. Ich sage nur, dass man bei der Chipgröße mit einer gewissen Verlustleistung rechnen muss. Und ich sage auch, dass 1/3 Effizienzgewinn beim Speicherinterface schon verdammt viel ist, da noch 30% draufzurechnen ist doch schon extrem optimistisch. Wenn er bei 225W die Leistung vom GK110 mit 275W bringt wär auch das ein verdammt gewaltiger Sprung. etwas mehr Leistung ist schon durchaus drin ggü. GK110, aber ich glaub solche Riesensprünge sind da schwer zu bewerkstelligen mit den Voraussetzungen. In Sachen Verlustleistung ist der GK110 ja schon sehr gut, er ist nur verdammt groß. Der GM204 kommt mir da wie eine optimierte Variante vor, die etwas mehr leistet aber NV erheblich billiger kommt.
Bei AMDs Bermuda siehts ja denke ich ähnlich aus.

Dural
2014-08-04, 12:28:57
Ich sage mal:

880gtx
220Watt TDP
10% schneller als 780Ti

880gt
180Watt TDP
10% langsamer als 780Ti

;)

Nakai
2014-08-04, 14:58:20
Ein 430mm²-Chip ist nicht vergleichbar mit einem 300mm² GK104. Dafür müsste man beim Takt Abstriche machen. Das ist sicher Unsinn zu erwarten, dass ein GM204 nur 200W braucht. Es ist sicherlich eher realistisch zu erwarten, dass Fiji und GM200 mehr als 300W brauchen (2 8-polige PCIe-Stecker werden dort Standard sein). GM204 und Bermuda werden sich sicherlich irgendwo zwischen 225W und 275W einordnen (8+6 polige PCIe).

GM204 ist ja eigentlich kein Highend-Chip. Ich erwarte nicht viel Mehrverbrauch von GM204 gegenüber GK104. GM107 verbraucht nur 60W bei 1/3 der Performance eines Titan.

@robbitop:
Das gleiche hat man bei Tahiti auch gesagt. Am Ende braucht ein breiterer Chip weniger Takt und ggf. weniger Spannung. Hast du ja selbst schon gesagt. Weiterhin wird GCN 2.0 mit ziemlicher Sicherheit effizienter. AMD schläft auch nicht.

Naja Hawaii verbraucht im Quiet-Modus meistens nicht mehr als 250W. Tahiti war konnte damals schon die 300W sprengen, falls erwünscht. Hawaii erst recht. AMD hat mit Hawaii/Bonaire die Effizienz bereits gesteigert gehabt.

@Gipsel:
Habe ich doch geschrieben.

Welche Art von Effizienzverbesserungen sind denn möglich? Von Kepler -> Maxwell gab es ein paar Sachen die gefixt werden mussten(6 -> 4 SIMDs). Größerer L2-Cache ist eigentlich niemals schlecht, nur bei Streamingarchitekturen kaum effizienter einzusetzen.
Es gab die Spekulation, dass GCN2.0 16 SIMD4 Einheiten hat. Das würde die Effizienz drastisch steigern, vor allem bei Branches(weniger Verschnitt). Mehrverbrauch abseits der größeren Kontrolllogik sollte nicht auftreten.


€:
Ich sage mal:

880gtx
220Watt TDP
10% schneller als 780Ti

880gt
180Watt TDP
10% langsamer als 780Ti

Ich wäre den Topdog signifikant vor Titan. Der Salvage-Part sollte Titan in nichts nachstehen.

Ravenhearth
2014-08-04, 14:58:33
Ich schätze GM204/880(Ti) auf max. 200W ein.

Godmode
2014-08-04, 15:33:57
Ich sage mal:

880gtx
220Watt TDP
10% schneller als 780Ti

880gt
180Watt TDP
10% langsamer als 780Ti

;)

Nur 10% schneller als die 780Ti fände ich etwas wenig. Ich gehe eher von 30-40% aus.

Ailuros
2014-08-04, 15:39:18
Nur 10% schneller als die 780Ti fände ich etwas wenig. Ich gehe eher von 30-40% aus.

Ich hab nicht mal mehr ein Ahnung was wer und wie hoch einschaetzt mit dem Schlammasel :P Falls Du GM200 vs. GK110b meinen solltest, kannst Du locker noch etwas grosszuegiger sein. Kostet ja nichts :biggrin:

Edgecrusher86
2014-08-04, 15:46:24
Milchmädchenrechnung ftw. Der GM107 ist ein kleiner Chip. Ich sage nicht, dass GM204 nicht effizienter ist, er ist definitiv effizienter. Ich sage nur, dass man bei der Chipgröße mit einer gewissen Verlustleistung rechnen muss. Und ich sage auch, dass 1/3 Effizienzgewinn beim Speicherinterface schon verdammt viel ist, da noch 30% draufzurechnen ist doch schon extrem optimistisch. Wenn er bei 225W die Leistung vom GK110 mit 275W bringt wär auch das ein verdammt gewaltiger Sprung. etwas mehr Leistung ist schon durchaus drin ggü. GK110, aber ich glaub solche Riesensprünge sind da schwer zu bewerkstelligen mit den Voraussetzungen. In Sachen Verlustleistung ist der GK110 ja schon sehr gut, er ist nur verdammt groß. Der GM204 kommt mir da wie eine optimierte Variante vor, die etwas mehr leistet aber NV erheblich billiger kommt.
Bei AMDs Bermuda siehts ja denke ich ähnlich aus.

Natürlich ist es eine Mildmädchenrechnung, aber das ist in diesem Thread ja auch legitim. :D
Wenn ich jetzt mal die GTX 680 und die alte TITAN vergleiche, war das mit 87% mehr DIE-Size (abzüglich natürlich des deaktivierten SMX) bei jeweils 100% PT Default ein Unterschied von 175W (GK104 lag quasi immer über 170W) zu 250W, wobei man sagen muss, dass TITAN sich ingame meist zwischen 200 - 230W davon genehmigt hat. Klar, der Flächenunterschied ist in dem Fall von GM204 zu GK110 deutlich geringer (unter 30% vermutlich), aber ich denke nicht, dass sich die GTX 880 mehr im Mittel wie die alte TITAN verbrauchen dürfte - bei etwas Mehrleistung. Gut, 780 Ti und TITAN Black lagen dann ingame doch im 24xW Bereich knapp unter den 250W Default PT. 225W für GM204 wären z.B. 90% der 250W Marke - das sollte durchaus drin sein mit einem kleinen Vorsprung. 265W sind es ja maximal nur mit 106% PT bei GK110.


Ich hab nicht mal mehr ein Ahnung was wer und wie hoch einschaetzt mit dem Schlammasel :P Falls Du GM200 vs. GK110b meinen solltest, kannst Du locker noch etwas grosszuegiger sein. Kostet ja nichts :biggrin:


GM204 ist gemeint. ;)

aufkrawall
2014-08-04, 15:48:40
Wohl doch Mitte September Vorstellung und Ende erhältlich:
http://www.computerbase.de/2014-08/gigabyte-mit-gtx-800-g1-gaming-im-september/

Edit: Ach, war schon längst auf der Hauptseite...

Godmode
2014-08-04, 15:53:31
Ich hab nicht mal mehr ein Ahnung was wer und wie hoch einschaetzt mit dem Schlammasel :P Falls Du GM200 vs. GK110b meinen solltest, kannst Du locker noch etwas grosszuegiger sein. Kostet ja nichts :biggrin:

Nein ich meine schon GM204 in 28nm. Wenn GM204 nur 10% drauflegen würde, dann interessiert dass ja wohl kein Schwein, außer man verkauft ihn dann recht günstig, worin aber Nvidia wiederum kein Interesse haben wird.

Also: 30-40%, 4 GB, 650 €

Anfang 2015 dann GM200 mit 60-70%, 950 €

TobiWahnKenobi
2014-08-04, 15:55:32
ach egal.. einfach mal abwarten und kaufen wenn verfügbar. dann sehen wir es doch.


(..)

mfg
tobi

aufkrawall
2014-08-04, 15:55:47
Wie soll GM200 ohne Shrink so schnell sein können?

Godmode
2014-08-04, 16:02:18
Wie soll GM200 ohne Shrink so schnell sein können?

Es ist noch etwas Platz auf dem 28nm Die. Der Prozess müsste mittlerweile sehr gut sein, wodurch man vielleicht Optimierungen vornehmen kann, die es während der Designphase von GK110 noch nicht wirklich gab. Ich habe keine Ahnung ob das so funktioniert. :(

maximus_hertus
2014-08-04, 16:06:21
Um mal alles in Relationen zu bringen: GK110 liegt rund 45-50% vor GK104. Um auf GK110 nochmal 30-40% drauf zu legen, wären wir bei ca. 90-110% oberhalb des GK104. Bei gleicher Fertigung.

Das glaube ich nicht. Bei einem Shrink nicht unmöglich, aber ohne Shrink? Vor allem brachten neue Gens idR "nur" 60-70% (inklusive Shrinks!).

nV wird wohl die TDP deutlich erhöhen müssen (im Vergleich zur GTX 680) um die 780Ti zumindest knapp zu schlagen. Ich erwarte >225W TDP mit 8 und 6-Pin Anschlüssen.

Der Hauptvorteil zur 780 Ti ist wohl das Extra-GiB VRAM. Dafür tendenziell weniger Takt/OC-Reserven.

Aber bald wissen wir ja mehr....

aufkrawall
2014-08-04, 16:14:24
Es ist noch etwas Platz auf dem 28nm Die. Der Prozess müsste mittlerweile sehr gut sein, wodurch man vielleicht Optimierungen vornehmen kann, die es während der Designphase von GK110 noch nicht wirklich gab. Ich habe keine Ahnung ob das so funktioniert. :(
Die Meinung von Ail oder Gipsel fände ich dazu interessant.
Ich würde annehmen, dass etwa höhere Packdichte nicht so viel bringen würde. Hawaii ist trotz des ausgereiften Prozesses und des kleineren Dies eher ein Taktkrüppel. Wobei auch interessant wäre, in wie weit der breite Speichercontroller störanfälliger ist. Gibts dazu belastbare Hypothesen? Mir ist nur bekannt, dass mehr VRAM-OC mit mehr GPU-Spannung geht.

Titan@Stock lag übrigens in vielen Spielen auch nur ~30% vor der 680, trotz viel größeren Dies. Der Abstand mit der kommenden Generation müsste eigentlich noch kleiner sein, und mal angenommen, GM200 wär wegen Packdichte wirklich weniger taktfreudig als GK110 (siehe B1 Custom Designs)..
Wobei GK110 etwas mehr von Treiberupdates profitiert hat als 104.
GK110 kam auch deutlich später und hatte etwa schon einen neueren Compute-Pfad. Eventuell könnte das diesmal auch anders sein.

HOT
2014-08-04, 16:18:08
Nein ich meine schon GM204 in 28nm. Wenn GM204 nur 10% drauflegen würde, dann interessiert dass ja wohl kein Schwein, außer man verkauft ihn dann recht günstig, worin aber Nvidia wiederum kein Interesse haben wird.
[...]
Ist doch Unsinn. Das Teil heißt dann eben nur GTX880 und der Salvage GTX870, genau wie bei der 6xx-Serie. Mit GM200 macht NV sowieso wieder ne neue Serie auf.

aufkrawall
2014-08-04, 16:20:55
Mit GM200 macht NV sowieso wieder ne neue Serie auf.
Vielleicht, wenn AMD keinen GCN 2.0 Big Chip im Consumer Bereich bringt.
Sonst wird es wohl eher der Konter darauf, GTX 880 Ti oder 885 etc.

Edgecrusher86
2014-08-04, 16:40:23
30 - 40% auf GK110 sind wohl eher mit GM200 zu erwarten, viel mehr sind Fertigungsbedingt wohl nicht möglich, abgesehen vll. bei 4K oder SSAA-Settings - da könnten es vielleicht auch um die 50% sein.

Mal sehen, womit NV die Karte dann vergleicht, wenn man die alte GTX 680 als Vergleich nimmt, sind die Balken recht lang bei der GTX 880, bei der GTX 780 immer noch ausreichend.
Bei letzterer Konstellation sind es auch bei nur 10% auf 780 Ti um die 30% auf die 780. 15% über der GTX 780 Ti wären dann im Mittel der damalige Unterschied GTX 580 auf GTX 680, wenn man z.B. SSAA oder texelhungrige Anwendungen außen vor lässt - dann konnte GK104 doch auch mal 60% vor GF110 liegen.

Vermutlich also wird NV die GTX 880 mit der GTX 780 vergleichen - ordentlich Mehrleistung mit ähnlichem Verbrauch, auch wenn das für die Enthusiasten nur ein kleines Häppchen wäre. :)

NV wird den Fokus dieses mal wohl eher auf Effizienz und neuen Features wie DX12 in der HW legen. Erst mit 20nm SoC, so er denn überhaupt noch kommt, oder 16FF kann man dann wieder Leistungsunterschiede wie von GF110 zu GK110 erwarten, in diesem Fall also GM200 vs. einen großen Pascal in kleinerem Fertigungsprozess.

aufkrawall
2014-08-04, 16:53:10
30 - 40% auf GK110 sind wohl eher mit GM200 zu erwarten, viel mehr sind Fertigungsbedingt wohl nicht möglich, abgesehen vll. bei 4K oder SSAA-Settings.

GM204 ist so groß wie Hawaii und Hawaii bei 1Ghz kaum langsamer als GK110 bei 1Ghz.
GM204 muss wesentlich effizienter als Hawaii sein, auf 20% mehr als GK110 kann man schon kommen (bzw. kommt man ziemlich genau, wenn man von 30% besserer Effizienz ausgeht).

maximus_hertus
2014-08-04, 17:29:37
Aber bei einem großen Chip mit viel Takt (1 GHz+) explodiert auch die Leistungsaufnahme. Aber 20% sind realistischer als 30-40%, mMn aber immer noch zu optimistisch. 20-25% schneller als eine Non-Ti-780 und dabei Energiesparender sieht realistischer aus.

Dural
2014-08-04, 17:42:20
Ich sehe GM204 mehr als billig Chip für NV an. ähnlich wie damals G80/G92.

mehr als 20% über 780Ti würde ich sicher nicht erwarten. Es gibt ja noch GM200 ;)
und überhaupt, das ding hat nur 256Bit... Man sollte nicht vergessen das AMD in dieser Leistungsklasse sogar schon 512Bit benötigt.

aufkrawall
2014-08-04, 17:50:20
Ich sehe GM204 mehr als billig Chip für NV an. ähnlich wie damals G80/G92.

Der Vergleich hinkt, weil großer Architektursprung.


mehr als 20% über 780Ti würde ich sicher nicht erwarten. Es gibt ja noch GM200 ;)
und überhaupt, das ding hat nur 256Bit... Man sollte nicht vergessen das AMD in dieser Leistungsklasse sogar schon 512Bit benötigt.
Weil sie langsameren Speicher verbauen und bei Caches das Nachsehen haben (bisher).
GK110 ist mit viel OC ohne MSAA quasi gar nicht bandbreitenlimitiert (bei Spielen).

kunibätt
2014-08-04, 18:06:06
Wenn sie bei einem ähnlichen Shadercluster/L2-Verhältnis wie GM107 für die großen Chips bleiben, sehe ich da keine Probleme was Bandbreite angeht.

AffenJack
2014-08-04, 18:26:08
Nur skaliert der L2 doch glaube eher mit dem Speicherinterface oder?
Also kämen wir nur auf 4mb Cache und damit nen deutlich schlechteres Verhältnis als bei GM107.

mczak
2014-08-04, 19:53:50
Nur skaliert der L2 doch glaube eher mit dem Speicherinterface oder?
Also kämen wir nur auf 4mb Cache und damit nen deutlich schlechteres Verhältnis als bei GM107.
Richtig ist dass natürlicherweise der L2 bei nvidia mit dem Speicherinterface skaliert, weil der L2-Cache Teil jedes (64bit) Speichercontrollers ist.
Tatsache aber ist dass sich der Cache pro Speicherkanal relativ problemlos halbieren oder verdoppeln lässt, bei Kepler hat nvidia von 128kB bis 512kB pro Speicherkanal alles verbaut. Ob die alle dieselben Zugriffszeiten hatten oder nicht weiss ich nicht aber selbst falls nicht so ein Zyklus mehr oder weniger wäre wahrscheinlich nicht so entscheidend.
Kann aber gut sein dass GM204 "nur" 4MB L2 hat, der Chip soll ja vor allem wesentlich mehr Shaderleistung haben und bei den bandbreitenintensiven ROPs bleibt's ja wahrscheinlich beim Faktor 2 gegenüber GM107. (Ausserdem ist wohl der Cache beim GM107 auch noch extra ziemlich gross um den ddr3-Varianten des Chips etwas zu helfen.)

Ailuros
2014-08-04, 21:10:17
GM200 ist vergleichbar gross mit GK110. Ja etwas mehr Transistoren schon, aber nur ein bescheidenes Prozentual.

Beim Vrglech GM107 vs GK107 scheint wohl keiner zu bemerken dass der erste trotz kleinerer ALUs zufällig 2.5x Mal so viel clusters hat.

Godmode
2014-08-04, 22:33:53
Um mal alles in Relationen zu bringen: GK110 liegt rund 45-50% vor GK104. Um auf GK110 nochmal 30-40% drauf zu legen, wären wir bei ca. 90-110% oberhalb des GK104. Bei gleicher Fertigung.

Das glaube ich nicht. Bei einem Shrink nicht unmöglich, aber ohne Shrink? Vor allem brachten neue Gens idR "nur" 60-70% (inklusive Shrinks!).
Aber bald wissen wir ja mehr....

Schau dir GK107 vs GM107 an, die laufen auch im selben Prozess:
http://gpuboss.com/gpus/GeForce-GTX-750-Ti-vs-GeForce-GTX-650

Ist doch Unsinn. Das Teil heißt dann eben nur GTX880 und der Salvage GTX870, genau wie bei der 6xx-Serie. Mit GM200 macht NV sowieso wieder ne neue Serie auf.

Wenn sie nicht deutlich stärker als eine 780 Ti wird, kann man sie eher als GTX 870 verkaufen und GM200 dann eben als GTX880, falls er zeitlich nicht zu spät erscheint.

GM200 ist vergleichbar gross mit GK110. Ja etwas mehr Transistoren schon, aber nur ein bescheidenes Prozentual.

Beim Vrglech GM107 vs GK107 scheint wohl keiner zu bemerken dass der erste trotz kleinerer ALUs zufällig 2.5x Mal so viel clusters hat.

Wenn GM200 zu GK110 ähnlich skaliert wie GM107 zu GK107, dann haben wir ja eine ordentliche Leistungssteigerung was die Shaderleistung angeht. Ok, GM107 ist doch um einiges größer als GM107, also sollte GM200 nicht ganz so extrem zulegen können.