PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11

=Floi=
2010-09-04, 05:50:58
ich dachte bei einer mgpu karte spielt die anbindung eine untergeordnete rolle, weil durch das breite interne interface nichts ausgebremst wird?!

aths
2010-09-04, 13:49:20
Da beide GPUs ihre Daten brauchen, brauchen sie beide für sich eine Anbindung die breit genug ist.

Gast
2010-09-06, 16:32:31
Mit den OC-Versionen der GTS 450 mit bis ~900MHz wird man wohl auch die HD 5770 abdecken können:
http://www.techpowerup.com/130408/EVGA_GeForce_GTS_450_SuperClocked_Pictured_Detailed.html EVGA mit 880/950MHz

Fragt sich ob da Nvidia wirklich noch eine GTS/GTX 455 mit GF104@288SPs bringen wird, die könnte wohl höchstens für OEM interessant sein.

Leonidas
2010-09-06, 18:41:03
Denke nicht. Von der Performance her ist zwischen GTS450 und GTX460 ein Riesenloch, auch wenn sich das derzeit preislich noch nicht zeigt.

Aber vielleicht hast Du Recht: GTX455 als reines OEM-Produkt: Dort kann man einen billigeren Preis machen, ohne die GTS450 zu stören.

MadManniMan
2010-09-06, 23:18:11
Was mich irgendwie total anpisst: die 5770 verweilt seit nem knappen Jahr auf ein und dem selben Preis - und die 4850 hat kaum 60 % davon gekostet. Aber bei den ganzen neuen Tests sind die alten Karte lustigerweise nicht mehr mit aufgeführt - was damit wohl verschleiert werden soll?

Coda
2010-09-06, 23:18:59
AMD kann die Kohle gut gebrauchen. Lass sie doch ;)

Gast
2010-09-06, 23:27:42
Was mich irgendwie total anpisst: die 5770 verweilt seit nem knappen Jahr auf ein und dem selben Preis - und die 4850 hat kaum 60 % davon gekostet. Aber bei den ganzen neuen Tests sind die alten Karte lustigerweise nicht mehr mit aufgeführt - was damit wohl verschleiert werden soll?

Ist doch bei GTX460 vs GTX285/280/75 auch nicht anders.

MadManniMan
2010-09-07, 00:53:00
AMD kann die Kohle gut gebrauchen. Lass sie doch ;)
Ist doch bei GTX460 vs GTX285/280/75 auch nicht anders.

Aye und aye!

Dumm nur, dass die Mags das Spielchen mitspielen. Schon bemerkenswert, dass bei CB immer die Karten der vergangenen Generation gaaanz schnell aus den Vergleichen verschwinden ...

davidzo
2010-09-07, 01:34:15
man hat einfach keine lust die alten teilweise nicht mal mehr verfügbaren karten mit neuen treiber/softwareversionen nochmal durch den kompletten benchmarkparcours zu schicken.
Werte unterschiedlicher treiberversionen in einer tabelle, damit hat CB zum glück endlich aufgehört.

MadManniMan
2010-09-07, 01:44:53
Dumm nur, dass man plötzlich höchst seltsame Empfehlungen ausspricht - man bekommt das Gefühl, dass man mit einer 4890 nicht mehr richtig spielen kann, obschon die gar eine 5830 und teilweise eine 460 abzieht :(

san.salvador
2010-09-07, 01:46:44
Jetzt beginnst du zu fantasieren...
http://www.anandtech.com/bench/Product/180?vs=175

MadManniMan
2010-09-07, 07:57:41
Ich habe durchaus ein bisschen überzogen, aber letztlich spielen beide Karten grob in einer Performanceliga - mit deutlicheren Ausschlägen für die eine, aber eben auch solchen für die andere Karte.

Natürlich ist es so, dass für Neukäufer momentan kein Weg an einer 5770 oder 460 vorbei führt und dass diese empfohlen werden, ist auch komplett richtig. Aber mir fehlen die Hinweise darauf, dass man bereits vor zwei Jahren seit dem Launch der 4800 nicht viel mehr für ähnliche Performanceregionen bezahlen musste.

Dural
2010-09-07, 09:44:04
vorallem haben 5770 und GTX460 eine komplett andere käuferschicht als damals die 4890! mit anderen worten, wer damals eine 4890 gekauft hat zielt heute eher auf 5870/GTX470 ab ;)

GF104 ist ein toller chip, nur wo bleibt der voll ausbau... auf 384SP @ 800/1600MHz warten ;)

Gast
2010-09-07, 09:50:49
Was mich irgendwie total anpisst: die 5770 verweilt seit nem knappen Jahr auf ein und dem selben Preis - und die 4850 hat kaum 60 % davon gekostet. Aber bei den ganzen neuen Tests sind die alten Karte lustigerweise nicht mehr mit aufgeführt - was damit wohl verschleiert werden soll?

Natürlich, alles eine Verschwörung. AMD und NV kontrollieren sämtliche Magazine und wird dummen merken es nicht. Ich würde mal etwas gegen das Paranoia tun.

MadManniMan
2010-09-07, 10:00:07
Dural,
die Käuferschicht definiert sich letztlich über den Preis - und der lag bei den letzten 4890 noch deutlich unter der jetzigen 460.

Gast,
a) die Paranoia
b) ich HASSE Hofberichterstattung.

Dural
2010-09-07, 10:33:09
nö, die preise waren damals im keller da AMD keine andere wahl hatte als ihre karten zu verramschen, bei nur noch 15% marktanteil macht man halt sowas...

die heutigen preise gehen voll und ganz in ordnung!

Gast
2010-09-07, 10:42:23
nö, die preise waren damals im keller da AMD keine andere wahl hatte als ihre karten zu verramschen, bei nur noch 15% marktanteil macht man halt sowas...

die heutigen preise gehen voll und ganz in ordnung!

Die 15% hast du dir jetzt aus dem Popo gezoge? Die sind jedenfalls weit ab jeglicher Realität. Und die Preise kann man sich eben Leistung bei einem 250mm² Die, NV hatte schon damals die Probleme viel größere Chips für die gleiche Leistung zu benötigen.

Dural
2010-09-07, 10:54:00
nö, AMD hatte vor RV770 nur noch einen Marktanteil von 15%...

AMD hatte ja auch rein gar nichts mehr, RV670 und R600 war und ist nicht gerade viel ;)

wie auch immer, die heutigen Preise gehen in Ordnung, erst recht wenn man bedenkt was man dafür für karten bekommt

davidzo
2010-09-07, 11:09:12
ich dachte bei einer mgpu karte spielt die anbindung eine untergeordnete rolle, weil durch das breite interne interface nichts ausgebremst wird?!
Da beide GPUs ihre Daten brauchen, brauchen sie beide für sich eine Anbindung die breit genug ist.

das ganze ist sogar noch einen tick extremer. In der regel werden mGPUkarten aufgrund ihrer Leistungsreserven eher für höhere Details (Tess, Auflösung und Filter) eingesetzt als sGPU Karten. Wenn also 1GB an 256bit bei SingleGPU nicht unbedingt limitieren muss, da man sowieso nicht so hohe detaileinstellungen verwendet, kann eine mGPUkarte mit 2x 1Gb und 2x 256bit hier an ein Bandbreitenlimit kommen oder sogar der VRAM überlaufen. Eben weil man mit einer größeren SKU eher in die Versuchung kommt auch höhere Detailstufen zu testen. Mit einer 5850 spielt man ja auch nicht in den settings einer 5970. Ähnliche limitierungen gibt es auch beim Interface, ggf. ist der Bedarf von 2 GPUs, die ja beide die vollen Geometrie und Texturdaten erhalten, größer als 200% im vergleich zur singleGPUkarte (die eine leistungsmäßig passende, niedrigere detailstufe fährt), eben durch die unterschiedlichen Anwendungszwecke.

Gast
2010-09-08, 10:12:40
850MHz statt 783MHz GPU-Takt für die GTS 450?
http://www.chiphell.com/thread-121872-1-1.html

Dural
2010-09-08, 12:25:08
dürfte eine OC Version sein, oder es ist eine Aussage das man für 5770 Leistung 850MHz benötigt? Wie auch immer die 783MHz sind ja schon auf einer NV Folie aufgetaucht.

Thunder99
2010-09-09, 18:06:29
Sorry wenn es schon mal gesagt wurde, aber um wieviel wird ein G104 @ Vollausbau schneller sein als eine Standard GTX460?
Welchen Takt entspricht ein Vollausbau?

Mir brennen die Finger für ne neue Grafikkarte :D, und da möchte ich gerne wissen ob es sich lohnt zu warten, oder man die günstigen Preise der GTX460 nimmt (Preis/Leistung). Würde vermuten, dass die GTX46x Richtung 250€+ tendiert...

Gast
2010-09-09, 18:15:45
Das Warten lohnt alleine schon, weil nächsten Monat die HD 6000-Serie vorgestellt wird.

Leonidas
2010-09-09, 18:27:00
Ich könnte mir lebhaft vorstellen, daß NV den GF104 im Vollausbau erst dann final spezifiziert, wenn sich AMD mit der 6000er Serie offenbart hat.

Gast
2010-09-09, 18:33:59
Das wird NV auch müssen. Ich denke auch NV hat noch ein Ass im Ärmel der beim AMD 68XX release gezogen wird.

Black-Scorpion
2010-09-09, 18:40:06
Vielleicht wäre es besser endlich mal alles komplett auf die Reihe zu bekommen?
Mit dem Rückstand noch zu versuchen ein auf dicke Hose zu machen ist lächerlich. Die können sich gar nicht leisten zu warten was ATI macht.

Coda
2010-09-09, 18:42:14
Welcher Rückstand denn? NVIDIA verkauft derzeit mehr als genug GF104-Karten.

Black-Scorpion
2010-09-09, 18:51:37
Welcher Rückstand denn? NVIDIA verkauft derzeit mehr als genug GF104-Karten.
Das ganze Linup besteht ja auch nur aus GF104. :rolleyes:

Gast
2010-09-09, 19:02:21
Ich könnte mir lebhaft vorstellen, daß NV den GF104 im Vollausbau erst dann final spezifiziert, wenn sich AMD mit der 6000er Serie offenbart hat.

Und wo genau liegt der Sinn darin zu warten bis die Konkurrenz noch stärker wird. Ich würde jetzt absetzten was ich kann, denn wie es nachher aussieht ist fraglich.

Gast
2010-09-09, 19:04:44
Welcher Rückstand denn? NVIDIA verkauft derzeit mehr als genug GF104-Karten.

Ich sehe trotzdem keinen Vorsprung, sondern nur sehr niedrige Preise.

Coda
2010-09-09, 19:12:33
Wirklich von einem Rückstand kann man derzeit aber auch nicht reden. NVIDIA hat immer noch den schnellsten Chip, auch wenn er etwas heiß ist.

Iruwen
2010-09-09, 19:16:42
Das ganze Linup besteht ja auch nur aus GF104. :rolleyes:

Und das HD 6000 Lineup besteht bisher aus heißer Luft, also abwarten ;)

Black-Scorpion
2010-09-09, 19:16:49
Wie würdest du es denn nennen wenn der Konkurrent bereits kurz davor ist seine neue Serie auf den Markt zu bringen und Nvidia noch nicht eine komplette GPU der aktuellen Serie. Ja noch nicht mal die eine Serie komplett draußen hat.

y33H@
2010-09-09, 19:27:10
Selbst die "nicht komplette GPU" ist (deutlich) schneller als AMDs HD5870. Und ein teilaktivierter GF104 mit 800 MHz fast gleichauf.

Black-Scorpion
2010-09-09, 19:33:10
Selbst die "nicht komplette GPU" ist (deutlich) schneller als AMDs HD5870. Und ein teilaktivierter GF104 mit 800 MHz fast gleichauf.
Und was hat das mit meiner Aussage zu tun? Lesen und verstehen muss schon verdammt schwer sein.

Gast
2010-09-09, 19:40:03
Wirklich von einem Rückstand kann man derzeit aber auch nicht reden. NVIDIA hat immer noch den schnellsten Chip, auch wenn er etwas heiß ist.

Sie haben - verdammt viel später - zumindest im High-End nachgezogen, im Midrage und Lowend fehlt noch immer aktuelle Hardware. Sie sind aus Effizienzsicht (Leistung/mm²/Watt) abgeschlagen, es wird ein leichtes für AMD sein zu kontern. Ihr einziges Glück waren und sind die Lieferengpässe.

Dural
2010-09-09, 19:48:12
GF104 ist noch lange nicht weit abgeschlagen in sachen Leistung/mm²/Watt

Hört doch auf solche Lügen zu verbreiten! RV870 und GF104 nehmen sich da nicht wahnsinnig viel... In Wahrheit steht NV mit dem GF104 derzeit deutlich besser da als noch zur GT200 / RV770 Zeit, 580mm2 vs 260mm2 LOL

Das NV mit dem grossen GF100 und der missen 40nm Fertigung rissen Probleme hatte/hat ist schon lange kein Geheimnis mehr.... Deswegen gabs ja auch eine Verzögerung des GF100 der für Q4 2009 geplant war... Schon vergessen???

AMD soll es mal erst besser machen! Aber wenn der RV970 kommt und der für mehr Leistung auch sein gutes mehr an Verbraucht hat, ist es bei den AMD Boys wider komplett egal, Wetten???

NV wartet ab, eine andere erklärung gibt es schlicht nicht und das ist nicht einmal auf AMD bezogen... die ganzen GF100 448SP GPUs müssen ja auch irgend wie verkauft werden und das würde man mit einer "GTX468" komplett vernichten

Fetza
2010-09-09, 20:01:24
GF104 ist noch lange nicht weit abgeschlagen in sachen Leistung/mm²/Watt

Hört doch auf solche Lügen zu verbreiten! RV870 und GF104 nehmen sich da nicht wahnsinnig viel... In Wahrheit steht NV mit dem GF104 derzeit deutlich besser da als noch zur GT200 / RV770 Zeit, 580mm2 vs 260mm2 LOL

Das NV mit dem grossen GF100 und der missen 40nm Fertigung rissen Probleme hatte/hat ist schon lange kein Geheimnis mehr.... Deswegen gabs ja auch eine Verzögerung des GF100 der für Q4 2009 geplant war... Schon vergessen???

AMD soll es mal erst besser machen! Aber wenn der RV970 kommt und der für mehr Leistung auch sein gutes mehr an Verbraucht hat, ist es bei den AMD Boys wider komplett egal, Wetten???

NV wartet ab, eine andere erklärung gibt es schlicht nicht und das ist nicht einmal auf AMD bezogen... die ganzen GF100 448SP GPUs müssen ja auch irgend wie verkauft werden und das würde man mit einer "GTX468" komplett vernichten

Das ändert alles nichts daran, das die einzig gute karte von nvidia aktuell der gf104 ist. Die gf100 karten sind mist, was hilft mir, das die gtx 480 immernoch etwas schneller ist als die hd 5870, wenn sich die karte das mit ohrenbetäubender lautstärke und über 90 grad wärmeentwicklung erkauft?

Ati launcht bald schon seine nachfolgegeneration. Natürlich ist nv klar abgeschlagen. Egal ob sich der gf104 nun gut verkauft.

Gast
2010-09-09, 20:06:19
GF104 ist noch lange nicht weit abgeschlagen in sachen Leistung/mm²/Watt

Hört doch auf solche Lügen zu verbreiten! RV870 und GF104 nehmen sich da nicht wahnsinnig viel... In Wahrheit steht NV mit dem GF104 derzeit deutlich besser da als noch zur GT200 / RV770 Zeit, 580mm2 vs 260mm2 LOL

Das NV mit dem grossen GF100 und der missen 40nm Fertigung rissen Probleme hatte/hat ist schon lange kein Geheimnis mehr.... Deswegen gabs ja auch eine Verzögerung des GF100 der für Q4 2009 geplant war... Schon vergessen???

AMD soll es mal erst besser machen! Aber wenn der RV970 kommt und der für mehr Leistung auch sein gutes mehr an Verbraucht hat, ist es bei den AMD Boys wider komplett egal, Wetten???

NV wartet ab, eine andere erklärung gibt es schlicht nicht und das ist nicht einmal auf AMD bezogen... die ganzen GF100 448SP GPUs müssen ja auch irgend wie verkauft werden und das würde man mit einer "GTX468" komplett vernichten

RV870 ist nichts als ein leicht überarbeiteter RV770 und hat ein klares internes Bottleneck, deshalb kommen bei doppelter Rohleistung auch nur 50% mehr an ggü. dem Vorgänger. Dagegen vergleichst du, und selbst da gilt mehr Leistung, weniger Stromverbrauch, weniger mm² für AMD. Der Nachfolger mit deutlichen internen Verbesserungen kommt in einem Monat, NV hat noch nicht mal ihre unterlegene Architektur vollständig gelauncht. Wenn das nicht mies aussieht dann weiß ich auch nicht.

Gast
2010-09-09, 20:09:19
RV870 ist nichts als ein leicht überarbeiteter RV770 und hat ein klares internes Bottleneck, deshalb kommen bei doppelter Rohleistung auch nur 50% mehr an ggü. dem Vorgänger. Dagegen vergleichst du, und selbst da gilt mehr Leistung, weniger Stromverbrauch, weniger mm² für AMD. Der Nachfolger mit deutlichen internen Verbesserungen kommt in einem Monat, NV hat noch nicht mal ihre unterlegene Architektur vollständig gelauncht. Wenn das nicht mies aussieht dann weiß ich auch nicht.

Ja, bis jetzt hat man ja nur Konkurrenz zu Cypress. Es ist wohl anzunehmen das sie gegen die kleineren Chips von AMD noch mehr Probleme haben werden.

Gast
2010-09-09, 20:12:11
Aber wenn der RV970 kommt und der für mehr Leistung auch sein gutes mehr an Verbraucht hat
Won't happen ...
Tipp: Wer aktuell eine Karte von nv besitzt - nicht verkaufen! Die werden vlt. mal viel wert :D
Aus Asien hört man dazu folgendes:這是粉碎

Gast
2010-09-09, 20:34:48
Wirklich von einem Rückstand kann man derzeit aber auch nicht reden. NVIDIA hat immer noch den schnellsten Chip, auch wenn er etwas heiß ist.

Das erkläre mal den Aktionären, die freuen sich bestimmt riesig:

Der Aktienkurs von nVidia seit Fermi-Launch:

http://s7.directupload.net/images/100909/rajgvxtd.png

Zum Vergleich der Aktienkurs von AMD vom Zeitpunkt des Launches der HD 5000 bis zum Launch der GTX 460 von nVidia:

http://s10.directupload.net/images/100909/ck6jwi8q.png

Nur mal so als "fun fact". :biggrin:

Gast
2010-09-09, 20:49:22
Das erkläre mal den Aktionären, die freuen sich bestimmt riesig:

Der Aktienkurs von nVidia seit Fermi-Launch:

http://s7.directupload.net/images/100909/rajgvxtd.png

Zum Vergleich der Aktienkurs von AMD vom Zeitpunkt des Launches der HD 5000 bis zum Launch der GTX 460 von nVidia:

http://s10.directupload.net/images/100909/ck6jwi8q.png

Nur mal so als "fun fact". :biggrin:

Woher kommen die Charts wenn man fragen darf?

Gast
2010-09-09, 21:00:02
AMD steht Euro 4,70 aktuell. Da gings auch runter. Und ich mache mir um NV keine Sorgen. Zur Not werden die von Intel geschluckt. Aber das wird sicher nicht passieren und NV berappelt sich noch.

Gast
2010-09-09, 21:02:51
Woher kommen die Charts wenn man fragen darf?

Yahoo-Finanzen z. B.

Gast
2010-09-09, 21:05:30
Du hast vergessen das dein AMD Datum nicht stimmt. Nochmal: Der Kurs steht aktuell bei Euro 4,70. Da gings auch bergab. Aber das hast du wohl ignoriert.

Gast
2010-09-09, 21:15:14
AMD steht Euro 4,70 aktuell. Da gings auch runter. Und ich mache mir um NV keine Sorgen. Zur Not werden die von Intel geschluckt. Aber das wird sicher nicht passieren und NV berappelt sich noch.

Intel kann sie nicht schlucken aus Kartellrechtlichen Gründen, aber wenn es so weiter geht vielleicht irgend wann AMD. :D

Gast
2010-09-09, 21:16:22
Du hast vergessen das dein AMD Datum nicht stimmt. Nochmal: Der Kurs steht aktuell bei Euro 4,70. Da gings auch bergab. Aber das hast du wohl ignoriert.

Ich habe doch geschrieben, von wann bis wann die Kursdaten sind. Bei nVidia seit Fermi-Launch bis heute, bei AMD von HD 5000-Launch bis GTX 460-Launch, also Mitte Juli. Auf der Abszisse kann's doch auch jeder ablesen. Ich habe nichts vergessen oder ignoriert.

Gast
2010-09-09, 21:16:55
Und nach mal zum Aktienkurs. Hätte AMD nicht die Finanzspritze von Intel bekommen sehe es noch düsterer für AMD aus.

Black-Scorpion
2010-09-09, 21:16:56
Du hast vergessen das dein AMD Datum nicht stimmt. Nochmal: Der Kurs steht aktuell bei Euro 4,70. Da gings auch bergab. Aber das hast du wohl ignoriert.
Nein du hast die Überschrift nicht gelesen. Das Datum stimmt.

Gast
2010-09-09, 21:20:10
Gut. Dann sage ich vom 12.7 bis 9.9 ist die AMD Aktie von 6 Euro auf 4,70 gefallen. Also bitte nicht so tun als ob AMD keine Probleme hätte.

Sorkalm
2010-09-09, 21:26:36
Die Nvidia-Aktie mit der AMD-Aktie zu vergleichen, ist ohnehin dämlich, weil die Produktprioritäten doch sehr unterschiedlich sind. Vergleicht mal, welchen Umsatzanteil GPUs bei AMD und bei Nvidia haben ... das kann man so nicht übernehmen. Dazu gesehen sind verschiedene Zeiträume auch Schrott, man muss auch die Marktentwicklung dazunehmen um das ganze intepretieren zu können. Die aktuelle Gewinnwarnung von Intel (mit der Zusatzinfo das das Privatkundengeschäft schwächelt) deutet nun mal darauf hin, dass die Absätze da im Technologiesektor übergreifend nicht so gut sind.

Als Fun-Bild mags durchgehen, als mehr aber auch nicht. :p


Was man vergleichen könnte, wäre beispielsweise ein Nvidia-Chart mit typischen Technologiechart ... von mir aus auch Intel, AMD; möglichst halt Unternehmen die an Privatkunden verkaufen und verwandt sind. Dann kann man aber auch nur sagen, bei Nvidia läufts gut oder nicht gut, nichts über die anderen.

Gast
2010-09-09, 21:32:34
Als Fun-Bild mags durchgehen, als mehr aber auch nicht. :p

So habe ich es ja auch deklariert. Ich wollte hier keine seitenlangen Diskussionen anzetteln. :D

Bzgl. der Markt- bzw. Branchenentwicklung hast du den Nagel ja auch auf den Kopf getroffen. Sogar der Kurs von Intel ist in den letzten 3 Monaten 20 % gefallen. Dito Cisco und Co.

Leonidas
2010-09-10, 11:25:40
Und wo genau liegt der Sinn darin zu warten bis die Konkurrenz noch stärker wird. Ich würde jetzt absetzten was ich kann, denn wie es nachher aussieht ist fraglich.


Man wartet, weil dann die Konkurrenz ihre Taktraten nicht mehr ändern kann. Dann kann man die GTX468 punktgenau so takten, daß es AMD wehtut und NV Geld in die Kasse bringt.

Wenn man die GTX468 dagegen zuerst bringt, ist AMD in der Position, seine Taktraten so anzupassen, daß es umgedreht ausgeht.

Gast
2010-09-10, 11:35:16
Man wartet, weil dann die Konkurrenz ihre Taktraten nicht mehr ändern kann. Dann kann man die GTX468 punktgenau so takten, daß es AMD wehtut und NV Geld in die Kasse bringt.

Wenn man die GTX468 dagegen zuerst bringt, ist AMD in der Position, seine Taktraten so anzupassen, daß es umgedreht ausgeht.

Das klingt ja so als könnte man die Taktraten und die Leistung geradezu beliebig skalieren. Man sollte das Maximum ausloten was wirtschaftlich möglich ist und die Karte auf den Markt bringen und möglichst viel absetzen. Wenn das nicht reicht nützt es auch nichts zu warten. Ansonsten könnte man später noch immer etwas mehr Takt nachschieben, genauso wie die Konkurrenz im übrigen auch.

Gast
2010-09-10, 11:38:05
Zumal ein potentielle 1280SPs 32 ROPs 256-Bit HD 6770 mit spekulierten 700MHz Referenz-Takt in Form von OC-Versionen auch noch viel Luft nach oben haben könnte.
Während bei einem 384SPs GF104 mit ~800MHz da nicht soviel Luft ist, wenn man nicht die 225W TDP überschreiten will. :D

Sorkalm
2010-09-10, 12:14:42
Für Barts XT hatte ich neulich von einem GPU-Takt von nur 650 MHz gelesen. Weiß nicht mehr wo das war, gehört hier ja auch eigentlich nicht rein.

Jedenfalls: Wo wäre das Problem für AMD da wenns nötig wird, noch eins draufzusetzen? Also soll mal Nvidia lieber nicht ewig warten, sondern jetzt noch ein Modell bringen, solange man nicht mit Barts konkurrieren muss...

Gast
2010-09-10, 12:26:51
Verwechselst du das nicht mit dem gezeigten Caicos/HD6350 mit 650MHz?

Gegen eine entsprechende GF104-SKU spricht wohl immer noch vorhandene Lagerbeständen an GTX 465/470 GF100.
Wohl möglich gibt es pünktlich zum HD 6000 Launch die GeForce 500 Serie. ;D

DweF
2010-09-10, 12:37:59
Won't happen ...
Tipp: Wer aktuell eine Karte von nv besitzt - nicht verkaufen! Die werden vlt. mal viel wert :D
Aus Asien hört man dazu folgendes:這是粉碎
? wie bitte ?

Gast
2010-09-10, 14:37:32
? wie bitte ?

Das würde mich auch interessieren. Was soll wo zerbrechen?
Mal davon abgesehen, dass der chinesische Satz grammatikalisch völlig verkehrt ist...

DweF
2010-09-10, 14:45:06
Das würde mich auch interessieren. Was soll wo zerbrechen?
Mal davon abgesehen, dass der chinesische Satz grammatikalisch völlig verkehrt ist...
zerbrechen?, hä
Was soll dieser Satz, wenn auch grammatikalisch falsch, bedeuten?

SG

Gast
2010-09-10, 15:00:47
Wahrscheinlich gehört dieses "zerbrechen" zu dem lustigen Aktienkursbildchen. Wahrscheinlich einbrechen.

N0Thing
2010-09-10, 15:32:45
Vielleicht wurde auch einfach nur der Googleübersetzer benutzt: http://translate.google.de/?hl=de&tab=wT#zh-CN|de|%E9%80%99%E6%98%AF%E7%B2%89%E7%A2%8E

Der funktioniert ja nicht unbedingt fehlerfrei :D

Gast
2010-09-10, 21:23:16
Der Preis für die 768MB Version GTX460 stürzt in den Keller, eventuell wird nV die Karte auslaufen lassen? Die GTX455 Karten sollen ja im 130€ Segment sein, die GTX460 ist schon knapp bei 140€ angelangt.
Need GTX475 Full GF104

Leonidas
2010-09-11, 13:00:29
Das klingt ja so als könnte man die Taktraten und die Leistung geradezu beliebig skalieren. Man sollte das Maximum ausloten was wirtschaftlich möglich ist und die Karte auf den Markt bringen und möglichst viel absetzen. Wenn das nicht reicht nützt es auch nichts zu warten. Ansonsten könnte man später noch immer etwas mehr Takt nachschieben, genauso wie die Konkurrenz im übrigen auch.


Nein, so beliebig skalieren kann man nicht. Aber man kann durchaus auf biegen und brechen 10% mehr drauf geben, wenn das ganze Sinn macht.

Zur Theorie "Maximum ausloten und raushauen" -> wir leben im Kapitalismus, da tut niemand das Maximum raushauen, sondern nur das, was notwendig ist. Nicht nur aus wirtschaftlichen Gründen, sondern auch, um Reserven für später zu haben.

Dural
2010-09-11, 13:15:49
man kann nicht "das maximum wirtschaftlich mögliche ausloten" wenn man nicht weis was die konkurenz zu welchem preis bringt!

und das abwarten hat wohl nicht mal was mit AMD zutun, sondern viel mehr wegen GF100 im eigenen haus!

villeicht werden wir GF104 und GF100 "B" voll wirklich sogar erst als GTX5xx sehen, wer weis...

Gast
2010-09-11, 19:31:17
GTS 450 @ Newegg: http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&Description=gts+450&x=0&y=0

$139 und weniger, nur eine Karte mit Referenz-Takt.
Jetzt noch etwas Zeit vergehen lassen und eine 880MHz Palit gibt es wohl bald um die ~100€.

Gast
2010-09-12, 11:03:40
GF110 - High-End GPU auf GF10x-Basis?
http://translate.google.de/translate?u=http%3A%2F%2Fplaza.fi%2Fmuropaketti%2Fnvidian-geforce-gtx-490-huippumalli-peruttu-gf110-grafiikkapiiri-suunnitteilla&sl=fi&tl=en&hl=&ie=UTF-8

Wenn AMD mit Cayman XT ~10% über einer GTX 480 landet, sollte man hier schon um die 20% bei einer GF110-SKU erreichen.

Eine 3 GPC 576SPs 384-Bit GPU mit >800MHz GPU-Takt wäre da wohl mindestens nötig.

Spasstiger
2010-09-12, 11:22:56
Jetzt noch etwas Zeit vergehen lassen und eine 880MHz Palit gibt es wohl bald um die ~100€.
Denk ich nicht. Die Gainward GTS 450 GS mit 880 MHz ist bei Geizhals.at/de bislang ab 150€ gelistet: http://geizhals.at/deutschland/a568914.html.
Die Performance liegt schätzungsweise auf HD-5770-Niveau. Und die kostet mit 1 GiB Grafikspeicher schon mindestens 125€. Ich denke, da werden auch die OC-Varianten der GTS 450 mittelfristig landen.

Gast
2010-09-12, 11:31:31
Eine 460 768 gibt es schon ab 145€, wo sie bei ~189€ vorgestellt wurde.
Insofern halte ich knapp über 100€ doch für eine 880MHz Palit, die bei Newegg zum Launch schon nur $134 (~125€) kostet im Oktober durchaus möglich.

Vor allem AMD könnte mit ihrem deutlich kleineren Juniper hier ein wichtige Rolle spielen, zumal dessen Lagerbestände für den wohl bald kommenden Turks abgebaut werden müssen.
Weiterhin könnte wohl auch Barts nicht weit über den 230-240mm² des GF106 liegen, so dass ein stark deaktivierter LE-Part hier auch preislich konkurrieren könnte.

Spasstiger
2010-09-12, 11:34:00
Barts wird wohl gegen den GF104 gestellt, preislich und performancemäßig. Ich denke nicht, dass AMD da groß in einen Preiskampf gehen wird (außer NV bringt eine GF104-basierende GTS 455). Imo wird sich das Leistungsniveau der HD 5770 auch weiterhin im Preisbereich um die 125€ finden.

Gast
2010-09-12, 11:53:24
Vielleicht wurde auch einfach nur der Googleübersetzer benutzt: http://translate.google.de/?hl=de&tab=wT#zh-CN|de|%E9%80%99%E6%98%AF%E7%B2%89%E7%A2%8E

Der funktioniert ja nicht unbedingt fehlerfrei :D

Das ist ja ein Ding!

Da wird der deutsche Satz "Das ist ein Riesenerfolg" zuerst ins englische in "This is a smash" übersetzt und davon ausgehend wird falsch ins chinesische mit "Das ist zerbrechen" übersetzt.
Es wird bei einer deutsch-chinesischen Übersetzung mit Google anscheinend immer erst der Umweg über das Englische genommen!

Ich weiß schon warum ich das nie hernehme :D

Sorry fürs Offtopic ;)

Gast
2010-09-12, 17:54:17
was neues aus dem Beyond3D-Forum:

GTS450 Test:

http://img844.imageshack.us/img844/9740/351101.gif

http://img837.imageshack.us/img837/8280/351150.png

http://img707.imageshack.us/img707/7534/351142.png

Ouch!

Die GTS 450 muss massiv auf 888 MHz übertaktet werden um insgesamt so schnell zu sein wie die HD5770; hat dann aber den gleichen Verbrauch wie eine GTX 460. Mal sehen, ob sich das in den anderen Tests so bestätigt.

Link (da sind noch viel mehr Links zu Bildern): http://forum.beyond3d.com/showpost.php?p=1471046&postcount=6644

Gast
2010-09-12, 17:58:35
Das ist ja ein Ding!

Da wird der deutsche Satz "Das ist ein Riesenerfolg" zuerst ins englische in "This is a smash" übersetzt und davon ausgehend wird falsch ins chinesische mit "Das ist zerbrechen" übersetzt.
Es wird bei einer deutsch-chinesischen Übersetzung mit Google anscheinend immer erst der Umweg über das Englische genommen!

Ich weiß schon warum ich das nie hernehme :D

Sorry fürs Offtopic ;)

OT:

Yep! Deshalb benutze ich Google eigentlich immer so:
Fremdsprache -> Englisch.

Fremdsprache -> Deutsch funktioniert einfach nicht! Egal ob Niederländisch, Russisch, Japanisch oder eben auch Chinesisch.

Spasstiger
2010-09-12, 18:02:30
Hehe, ich hab ja schon vermutet, dass die OC-Varianten der GTS 450 mit 880 MHz gerade so schnell sind im Schnitt wie eine HD 5770. Denn irgendwas werden sich die Hersteller ja bei dem Takt gedacht haben. Und dass die GTS 450 mit Standardtakt nur leicht oberhalb der HD 5750 landet, war angesichts der technischen Daten und der Performance der GTX 460 im Vergleich absehbar.

Ich denke mal, dass eine GTS 455 auf GF104-Basis energieeffizienter sein wird als eine GTS 450 OC bei ähnlicher oder leicht besserer Performance. Evtl. 256 SPs + 192-Bit-SI mit niedrigen Taktraten.

Ich fürchte auch, dass einige Leute enttäuscht sein werden, wenn sie die GTS 250 und die GTS 450 im Vergleich sehen werden.

davidzo
2010-09-13, 20:28:12
interessant. gf 106 zeigt uns, dass nvidia mit der fermi revision b architektur also doch nicht so chancenlos ist wie wir hier angesichts der hd6800 serie so propagieren. Da wiederholten Gerüchten zufolge kein Full fermi, sowie keine dual GF104 karte kommt, erscheint ein GF100B nach den regeln des Gf104 bzw. ein GF110 nur logisch. GF100 ist ein Verlustleistungsdesaster, sehr teuer, die yields lassen zu wünschen übrig und man gibt damit bald den leistungstron auf unbestimmte Zeit wieder ab. GF104 scheint schnell und einfach zu skalieren zu sein, wie man an Gf106 sieht und mich sollte es nicht wundern, wenn man bereits vor einiger zeit im stillen kämmerlein damit begonnen hat einen GF100 Nachfolger auf GF104 basis zu basteln - nicht für den HPC markt, für den ist weiter fermi die erste wahl, sondern diesmal ausschließlich für den Konsumermarkt.

Ausgehend von GF104(1.95m) und GF106(1.17m) besteht ein GPC mit 192SMs sowie die dazugehörigen rops, l2 und zwei 64bit speicherkanäle jetzt nur noch aus 780mio Transistoren. Der Rest geht bei GF106 für videocodecs, interface etc. drauf.

512sp mit 384bit und 96tmus wären also mit nur 2.73m Transistoren möglich, deutlich weniger als GF100. Was die TDP und die Taktraten angeht kann man die Tendenz von GF100 über GF104 zu GF106 betrachten, dass nvidia und TSMC den Prozess zunehmend im Griff haben, es also eher höhere Taktraten als GF104 gibt als niedrigere. Eventuell wäre hier mit einer abgespeckten Variante auch eine DualGPUkarte möglich.

Möglicher GF110 vs GF100:
512sp vs 480(512)
96tmu vs 60 (64)
48Dispatch-Einheiten vs 32

768kib l2, 48 rops, 384bit bleibt gleich. Nur die Anzahl der Polymorph-Engines würde um 25% sinken, was sich aber in der Praxis wohl kaum auswirkt da GF100 dort gnadenlos überdimensioniert ist.

Das wäre zwar ein Update im Stile der G92 GTX, die Enthusiasten nie wirklich überzeugen konnte, welche sich aber eben als höchst wirtschaftlich für nvidia herausstelte.


Das reicht eventuell um die gemunkelten 30% mehr als die 5870 bzw. 10-20% mehr als GF100, der ATI6800 zu parieren. Mit einer DualGPUkarte hätte man dank der viel besserer SLI skalierung als ATI bei CF wohl auch wieder die Hosen an. Zudem sollte das die TDP senken und auch die rentabilität deutlich erhöhen. Bis Q3 20011 ist eben noch eine lange Zeit - zu lang um nur durch starke rabatte konkurrenzfähig zu bleiben für eine Firma die ihren Hauptumsatz in diesem kerngeschäft hat.

Nightspider
2010-09-13, 20:44:44
Und wie soll so ein möglicher GF110 dann von der Tessellation-Leistung aussehen?

Auch eher schwächer wie die GF104 Karten oder soviel wie GF100 ?

Black-Scorpion
2010-09-13, 20:58:13
interessant. gf 106 zeigt uns, dass nvidia mit der fermi revision b architektur also doch nicht so chancenlos ist wie wir hier angesichts der hd6800 serie so propagieren.
Was ist daran interessant? Die Karte muss hoch geprügelt werden um an eine 5770 heranzukommen und verbraucht dabei soviel wie eine 460er.

davidzo
2010-09-13, 20:59:30
Was ist daran interessant? Die Karte muss hoch geprügelt werden um an eine 5770 heranzukommen und verbraucht dabei soviel wie eine 460er.
Nicht die Karte an sich, die hat in ihrem preissegment keine berechtigung gegen die 5770. Aber wenn du mehr als den ersten Satz gelesen hast wüsstest du das es gar nicht um die Karte sonder die Fermi-Architektur an sich geht.
Es ging lediglich darum herauszufinden wieviel bei GF104 Architektur eine funktionale Einheit (GPCs, rops, SI, cache) aus 192 shadern und 128bit SI kostet. Da kann man eben nicht die 1,17milliarden transistoren nehmen die GF106 groß ist, da viel anderer schnickschnack enthalten ist, sondern nur die differenz zwischen GF104 und GF106 (780mio).
Anhand dessen kann man eben auf einen GF110 nach GF104prinzip interpolieren und sich damit vorstellen wieweit konkurrenzfähig das fermi lineup wäre, würde von unten bis zum GF100 alles auf aktuellem Stand sein.
Unten mag Fermi auch in der zweiten iteration nicht erfolgreich sein, aber das liegt daran dass die kleinen evergreenchips keine probleme mit der effizienz haben wie cypress. Dass cypress dreieckslimitiert ist und weit von der theoretischen Leistung entfernt, macht ihn verwundbar gegen GF104 und GF100.

Und wie soll so ein möglicher GF110 dann von der Tessellation-Leistung aussehen?

Auch eher schwächer wie die GF104 Karten oder soviel wie GF100 ?

Nur die Anzahl der Polymorph-Engines würde um 25% sinken, was sich aber in der Praxis wohl kaum auswirkt da GF100 dort gnadenlos überdimensioniert ist.

Die 25% differenz sind allerdings wahrscheinlich schon durch einen Taktunterschied auf unter 10% zu drücken. Ich denke nicht dass man dann in der Praxis einen Unterschied zwischen GF100 und GF110 messen könnte, vielleicht aber in Tesselationsbenchmarks. Da diese aber auch meistens heftig geshadet sind, wird die Leistung auch in der mehrzahl der DX11 demos deutlich genug vor GF100 liegen.
Die Stärke von GF110 würde aber klar in SSAA liegen, sowie superhohen auflösungen. 96TMUs sind eben doch ein deutlicher zuwachs gegenüber GF100. das würde man den Enthusiasten dann so verkaufen. Bei der 9800GTX ging die Bandbreite gegenüber dem Vorgänger ebenfalls in den Keller, aber man rechtfertigte sich mit der gestiegenen Rechenleistung. Irgendwas muss dran glauben, wieso also nicht das, wo nvidia am deutlichsten vorne liegt (was deswegen von der spieleindustrie wohl kaum umgesetzt wird weil es auch auf ATI gut laufen muss)?

Hauptargument für GF110 sind aber Kostenreduzierungen. Man wird nicht anderthalb Jahre einen Grafikchip verkaufen (GF100) dessen yields zu wünschen übrig lassen, der TDP probleme hat und mit dem man kaum Gewinn macht, wenn man eine neuere Architekturrevision bereits erfolgreich in einigen produktmodellen umgesetzt hat (GF104&GF106).

Fetza
2010-09-13, 22:30:18
Nicht die Karte an sich, die hat in ihrem preissegment keine berechtigung gegen die 5770. Aber wenn du mehr als den ersten Satz gelesen hast wüsstest du das es gar nicht um die Karte sonder die Fermi-Architektur an sich geht.
Es ging lediglich darum herauszufinden wieviel bei GF104 Architektur eine funktionale Einheit (GPCs, rops, SI, cache) aus 192 shadern und 128bit SI kostet. Da kann man eben nicht die 1,17milliarden transistoren nehmen die GF106 groß ist, da viel anderer schnickschnack enthalten ist, sondern nur die differenz zwischen GF104 und GF106 (780mio).
Anhand dessen kann man eben auf einen GF110 nach GF104prinzip interpolieren und sich damit vorstellen wieweit konkurrenzfähig das fermi lineup wäre, würde von unten bis zum GF100 alles auf aktuellem Stand sein.
Unten mag Fermi auch in der zweiten iteration nicht erfolgreich sein, aber das liegt daran dass die kleinen evergreenchips keine probleme mit der effizienz haben wie cypress. Dass cypress dreieckslimitiert ist und weit von der theoretischen Leistung entfernt, macht ihn verwundbar gegen GF104 und GF100.





Die 25% differenz sind allerdings wahrscheinlich schon durch einen Taktunterschied auf unter 10% zu drücken. Ich denke nicht dass man dann in der Praxis einen Unterschied zwischen GF100 und GF110 messen könnte, vielleicht aber in Tesselationsbenchmarks. Da diese aber auch meistens heftig geshadet sind, wird die Leistung auch in der mehrzahl der DX11 demos deutlich genug vor GF100 liegen.
Die Stärke von GF110 würde aber klar in SSAA liegen, sowie superhohen auflösungen. 96TMUs sind eben doch ein deutlicher zuwachs gegenüber GF100. das würde man den Enthusiasten dann so verkaufen. Bei der 9800GTX ging die Bandbreite gegenüber dem Vorgänger ebenfalls in den Keller, aber man rechtfertigte sich mit der gestiegenen Rechenleistung. Irgendwas muss dran glauben, wieso also nicht das, wo nvidia am deutlichsten vorne liegt (was deswegen von der spieleindustrie wohl kaum umgesetzt wird weil es auch auf ATI gut laufen muss)?

Hauptargument für GF110 sind aber Kostenreduzierungen. Man wird nicht anderthalb Jahre einen Grafikchip verkaufen (GF100) dessen yields zu wünschen übrig lassen, der TDP probleme hat und mit dem man kaum Gewinn macht, wenn man eine neuere Architekturrevision bereits erfolgreich in einigen produktmodellen umgesetzt hat (GF104&GF106).

Die frage ist doch, wann könnte nvidia mit so einem chipmonster aufwarten? Wenn sie s noch im ersten quartal schaffen, wäre es cool, ansonsten käme er zuspät.

Hugo
2010-09-14, 07:05:35
rein Spekulativ

wie wäre es wenn NV anstatt einer dual-GF104 mit einer "triple" oder "quad" Karte auf GF106 Basis antritt?
knowhow hätten sie ja von 3Dfx's legendärer Voodoo V6 6000 ;)
und vielleicht kostengünstiger herzustellen als eine Karte mit GF100

mapel110
2010-09-14, 07:11:49
rein Spekulativ

wie wäre es wenn NV anstatt einer dual-GF104 mit einer "triple" oder "quad" Karte auf GF106 Basis antritt?
knowhow hätten sie ja von 3Dfx's legendärer Voodoo V6 6000 ;)
und vielleicht kostengünstiger herzustellen als eine Karte mit GF100
Nö, desto mehr GPUs, desto teurer.

Deinorius
2010-09-14, 10:48:51
rein Spekulativ


Zumal mit 4 GPUs der Performanceverlust deutlich höher ist als mit 2.

Hugo
2010-09-14, 10:54:55
@mapel110
würd ich nicht sagen.
Die Herstellung kleiner GPU's ist doch auf Grund des besseren yield's günstiger oder?
Die Frage ist eher ob es performt oder nicht

Gast
2010-09-14, 10:57:59
Die AFR-Skalierung bei mehr als 2 GPUs ist doch eher unbrauchbar, zudem brauch jede GPU ihren eigenen VRAM, der zur erzielten Gesamtleistung passen muss.

Deinorius
2010-09-14, 11:18:46
Das PCB für 4 GPUs ist auch teurer als für 2. Die Kühlung kann auch nicht gerade billiger sein.

N0Thing
2010-09-14, 11:58:35
Die frage ist doch, wann könnte nvidia mit so einem chipmonster aufwarten? Wenn sie s noch im ersten quartal schaffen, wäre es cool, ansonsten käme er zuspät.

Und ob man extra einen neuen Chip bauen möchte, wo man doch sicher sowieso schon während der GF100-Entwicklung am Nachfolger gearbeitet hat.

davidzo
2010-09-14, 13:16:23
Die frage ist doch, wann könnte nvidia mit so einem chipmonster aufwarten? Wenn sie s noch im ersten quartal schaffen, wäre es cool, ansonsten käme er zuspät.

Sie könnten jederzeit. ich nehme an dass die pläne für GF110 spätestens als man das gf100 silizium hatte festgelegt wurden. man arbeitet also schon parallel zu gf104 106 und108 daran. Daher wäre ein vorstellungstermin gegen Ende des jahres (November-Dezember) nicht unrealistisch.
schließlich handelt es sich um einen 40nm chip mit bekannter architektur und weniger komplexität als GF100. Glaube kaum dass nvidia da jahre für braucht einen solchen refresh zu bringen. Da man aber weder weiß wie sich der refresh zur HD6k positionieren lässt noch große featureseterweiterungen bringt hält man lieber die klappe darüber... - es ist nicht ungewöhnlich erst wenige wochen vor dem launch über einen solchen chip zu hören.

DweF
2010-09-14, 13:24:06
Sie könnten jederzeit. ich nehme an dass die pläne für GF110 spätestens als man das gf100 silizium hatte festgelegt wurden. man arbeitet also schon parallel zu gf104 106 und108 daran. Daher wäre ein vorstellungstermin gegen Ende des jahres (November-Dezember) nicht unrealistisch.
schließlich handelt es sich um einen 40nm chip mit bekannter architektur und weniger komplexität als GF100. Glaube kaum dass nvidia da jahre für braucht einen solchen refresh zu bringen. Da man aber weder weiß wie sich der refresh zur HD6k positionieren lässt noch große featureseterweiterungen bringt hält man lieber die klappe darüber... - es ist nicht ungewöhnlich erst wenige wochen vor dem launch über einen solchen chip zu hören.
Ich wäre über einen GF110 schon sehr froh, denn ich halte den GF104 im Vollausbau nicht für einen guten Nachfolger der GTX470.

SG

Dural
2010-09-14, 13:27:57
GF104 ist auch kein GF100 nachfolger... aber wie so nicht? ich hätte viel lieber einen GF104 im voll ausbau als eine heutige GTX470!



Möglicher GF110 vs GF100:
512sp vs 480(512)
96tmu vs 60 (64)
48Dispatch-Einheiten vs 32



geht nicht:

GF110 dürfte wohl eher so aussehen:

576SP (12x48)
96TMUs (12x8)
48ROPs
12Polypmorph Engine

Das wäre bei 1:1 skalierung theoretisch seitens GF104 mit ca. 2.8Miliarden Tras. / 480mm2 möglich, also sogar knapp unter GF100. So ein Chip könnte man vieleicht sogar unter 300Watt bei 800MHz betreiben, was ca. 30% mehr Leistung als GTX480 bedeuten würde...

Gast
2010-09-14, 13:37:07
GF11x hat wohl möglich veränderte, optimierte SMs.
Im Best-Case vielleicht 128 TMUs + 1024SPs + 384-Bit bei unter 600mm².

GF119 bringt dann eben 8 TMUs + 64 SPs + 64-Bit mit.

Ailuros
2010-09-14, 13:38:29
Was ist ein "GF110" und unter welchem Herstellungsprozess soll dieses Wunderkind genau ankommen?

Dural
2010-09-14, 13:44:26
eher GF102 ;)

Ailuros
2010-09-14, 13:57:45
eher GF102 ;)

Man wirft eine wilde Nummer in der Lotterie-Kessel und wartet was raus kommt?

Dieses angebliche 12SM Dingsbums soll doch wohl nicht noch in 40G kommen oder?

Gast
2010-09-14, 14:08:13
Irgendetwas in Richtung High-End sollte Nvidia doch schon noch unter 40nm vorstellen, vor 2012 wird man wohl das übliche >500mm2 Monster unter 28nm nicht massenproduktionsreif bekommen.
AMD hingegen könnte mit einem "RV1070" unter 400mm² wohl noch 2011 den Start schaffen.

Aber vielleicht lässt Nvidia 2010 noch 2x GF104 ohne AFR aus der Kiste. ;D

davidzo
2010-09-14, 14:16:20
GF110 dürfte wohl eher so aussehen:

576SP (12x48)
96TMUs (12x8)
48ROPs
12Polypmorph Engine

Das wäre bei 1:1 skalierung theoretisch seitens GF104 mit ca. 2.8Miliarden Tras. / 480mm2 möglich, also sogar knapp unter GF100. So ein Chip könnte man vieleicht sogar unter 300Watt bei 800MHz betreiben, was ca. 30% mehr Leistung als GTX480 bedeuten würde...

Ups, hatte mich verrechnet, sind natürlich 576sps, 384+192 nicht 512, keine ahnung wie ich dadrauf gekommen bin. bei übrigens 2.73milliarden Trans/434mm². sonst stimmt das aber alles mit meinen angaben überein. 800mhz halte ich für sehr optimistisch, aber deutlich schneller als GF100 ist er auch so allemal. Die 20% mehr shader und 60% mehr tmus sollten für einen komfortablen vorsprung reichen, da braucht man nichtmal viel mehr takt (eventuell speicher?, 1,8Ghz sind bisher ziemlich mager).

Ailuros
2010-09-14, 14:16:53
Na ich will hoffen dass jemand die "kein AFR" These nicht irgendwo falsch mit irgendwelchem "dynamic tiling" verwuschtelt hat dass in neuesten Treibern auftauchen wird.

IMHO (und ja ich lass mich gerne eines besseren belehren) duerfte eine jegliche effektive "no AFR" These auch auf etwas zusaetzliche Logik auf GF104 deuten. Zumindest bis heute scheint niemand etwas diesbezueglich entdeckt zu haben und das Ganze klingt leider zunehmend nach einem "urban myth" den irgend jemand falsch aufgeschnappt hat.

V2.0
2010-09-14, 14:20:58
Ich verstehe gar nicht, warum ihr einen GF100B nun so vollständig abschreibt. Wenn sie alle Einheiten aktivieren können und den Stromverbrauch in den Griff kriegen und somit Spielraum bei den Taktraten gewinnen, dann haben sie da sicher hinreichend Potential zum GF100A.

davidzo
2010-09-14, 14:46:01
Was ist ein "GF110" und unter welchem Herstellungsprozess soll dieses Wunderkind genau ankommen?
40nm wie bisher.
Er könnte jeden moment erscheinen, vermutlich wartet man aber mit der finalisierung der SKUs bis AMD mit der HD6800 die messlatte setzt.



GF110 dürfte wohl eher so aussehen:

576SP (12x48)
96TMUs (12x8)
48ROPs
12Polypmorph Engine

Das wäre bei 1:1 skalierung theoretisch seitens GF104 mit ca. 2.8Miliarden Tras. / 480mm2 möglich, also sogar knapp unter GF100. So ein Chip könnte man vieleicht sogar unter 300Watt bei 800MHz betreiben, was ca. 30% mehr Leistung als GTX480 bedeuten würde...

Ups, hatte mich verrechnet, sind natürlich 576sps, 384+192 nicht 512, keine ahnung wie ich dadrauf gekommen bin. bei übrigens 2.73milliarden Trans/434mm². sonst stimmt das aber alles mit meinen angaben überein. 800mhz halte ich für sehr optimistisch, aber deutlich schneller als GF100 ist er auch so allemal. Die 20% mehr shader und 60% mehr tmus sollten für einen komfortablen vorsprung reichen, da braucht man nichtmal viel mehr takt (eventuell speicher?, 1,8Ghz sind bisher ziemlich mager).

Gast
2010-09-14, 14:51:52
In 40nm? Völliger unsinn zumal die zahlen nicht zueinander passen.

Es wäre eben SMs mit 4x 16SPs und 8 TMUs. Auf dieser Basis könnte man vielleicht auch die unsägliche Shaderdomain rauswerfen, den Platzbedarf der SPs deutlich reduzieren und den gesamten Chip in Richtung ~900MHz takten, was dann auch 1,8 TFLOPs ergäbe.

Ailuros
2010-09-14, 14:56:06
Obwohl ich mir auch nicht sicher bin, waere einziger Einwand dass NV schon jetzt einen GF11x Codenamen benutzt denn dieser war nach aelterem Stand eher fuer 28nm "reserviert". Nichts ist natuerlich in Stein gemetzelt und Codenamen sind tatsaechlich total nebenwichtig, aber die paar verstreuete Einzelheiten die ich fuer NV's naechsten chip in der Vergangenheit bekam deuteten eher auf einen leicht aufgeputzten GF100 und nicht mehr. So wie ich damals das Zeug verstanden habe, waere die Mehrzahl der "GF104 Ideen" erst im naechsten (ergo 28nm) Schub erscheinen.

Mit dem ganzen "kein 32nm" Schlammassel hab ich natuerlich auch den Durchblick verloren und dafuer kann es sich seit etlicher Zeit einiges geaendert haben ohne es zu wissen, aber das was fuer die naechste 40G GF10x zu Vorschein kam war ein umgetrottelter Design um Transistoren zu sparen und ja tatsaechlich 8 TMUs/SM aber sonst keine fundamentaleren Aenderungen. Im letzteren Fall ist es leichter so ein Ding "abzuschreiben" und eher einfach an ein GX2/GF104 Gestell zu glauben. Das dumme ist eben dass das letztere die billigste Loesung fuer NV sein koennte.

Iruwen
2010-09-14, 15:28:32
Manchmal klingt das hier als würde Nvidia alle nur verarschen um ATI in Sicherheit zu wiegen und in Wahrheit haben sie schon den Killerchip als HD 6000 Konter auf Halde liegen. GF100 haben sie verkackt und dass da in naher Zukunft noch etwas Beeindruckendes kommt wage ich mal zu bezweifeln, die kochen auch nur mit Wasser.

Fetza
2010-09-14, 17:24:24
Manchmal klingt das hier als würde Nvidia alle nur verarschen um ATI in Sicherheit zu wiegen und in Wahrheit haben sie schon den Killerchip als HD 6000 Konter auf Halde liegen. GF100 haben sie verkackt und dass da in naher Zukunft noch etwas Beeindruckendes kommt wage ich mal zu bezweifeln, die kochen auch nur mit Wasser.

Zumal ich auch eigentlich mehr den baldigen release eines g104 im vollausbau erwarte (oder zumindest erhoffe). Der müsste noch einmal gut zulegen bei der spiele leistung, wäre leise, effizient und würde wohl 200-220 euro kosten, also vergleichsweise günstig.

MadManniMan
2010-09-14, 17:35:21
Zumal ich auch eigentlich mehr den baldigen release eines g104 im vollausbau erwarte (oder zumindest erhoffe). Der müsste noch einmal gut zulegen bei der spiele leistung, wäre leise, effizient und würde wohl 200-220 euro kosten, also vergleichsweise günstig.

So geht es mir aber auch.

Ich habe mich inzwischen damit abgefunden, dass vor dem Schritt zu 28 nm keine Stromverbrauchswunder unter Last zu erwarten sind, was für mich bis zuletzt gegen einen GF104 gesprochen hätte. Jetzt spricht nur noch meine Abneigung gegen beschnittene Hardware gegen den Kauf der GTX 460 - die GTX 468 möge sich bitte schleunigst auf den Weg machen! Es muss doch inzwischen irgendetwas geleakt worden sein, oder nicht? Das gibt's doch nicht ...

Black-Scorpion
2010-09-14, 17:46:15
rein Spekulativ

wie wäre es wenn NV anstatt einer dual-GF104 mit einer "triple" oder "quad" Karte auf GF106 Basis antritt?
knowhow hätten sie ja von 3Dfx's legendärer Voodoo V6 6000 ;)
und vielleicht kostengünstiger herzustellen als eine Karte mit GF100
Du scheinst keine wirkliche Vorstellung zu haben was so ein PCB kosten würde?
Das die Karte in kein Gehäuse passen würde kommt auch noch dazu. Über den Verbrauch braucht man schon gar nicht nachzudenken.

Gast
2010-09-14, 17:53:27
So geht es mir aber auch.

Ich habe mich inzwischen damit abgefunden, dass vor dem Schritt zu 28 nm keine Stromverbrauchswunder unter Last zu erwarten sind, was für mich bis zuletzt gegen einen GF104 gesprochen hätte. Jetzt spricht nur noch meine Abneigung gegen beschnittene Hardware gegen den Kauf der GTX 460 - die GTX 468 möge sich bitte schleunigst auf den Weg machen! Es muss doch inzwischen irgendetwas geleakt worden sein, oder nicht? Das gibt's doch nicht ...

Es wird nichts geleaket weil es nichts gibt, auch wenn sich viele Fanboys etwas zusammen träumen. Und wie um alles in der Welt kommst du darauf das 28nm "keine Stromverbrauchswunder unter Last" bringt?

Black-Scorpion
2010-09-14, 17:56:49
Zumal der Verbrauch beim GF100 sicher nicht am Prozess liegt. Das geht auf Nvidias Kappe. Wer eben bis an die Grenze gehen muss braucht sich halt nicht zu wundern.

Fetza
2010-09-14, 18:03:30
Es wird nichts geleaket weil es nichts gibt, auch wenn sich viele Fanboys etwas zusammen träumen. Und wie um alles in der Welt kommst du darauf das 28nm "keine Stromverbrauchswunder unter Last" bringt?

Lerne bitte postings richtig zu lesen, bevor du sie kommentierst!

Deinorius
2010-09-14, 18:10:58
Der müsste noch einmal gut zulegen bei der spiele leistung, wäre leise, effizient und würde wohl 200-220 euro kosten, also vergleichsweise günstig.


Bist du nicht etwas zu optimistisch mit dem Preis? Bei einer Karte, die die GTX 470 ohne weiteres schlagen müsste, sofern man die Taktraten nicht zu niedrig wählt, wäre das zwar ein super Angebot, aber bei dem Preis ist ja schon die GTX 4601G zu haben.

Fetza
2010-09-14, 18:16:35
Bist du nicht etwas zu optimistisch mit dem Preis? Bei einer Karte, die die GTX 470 ohne weiteres schlagen müsste, sofern man die Taktraten nicht zu niedrig wählt, wäre das zwar ein super Angebot, aber bei dem Preis ist ja schon die GTX 4601G zu haben.

Naja, die preise sind jetzt natürlich eingedenk der konkurrenz durch barts. Die gtx 460 modelle, die über 200 euro liegen, sind doch allesamt übertaktete modelle.

Wenn barts rauskommt und tatsächlich die im unterstellt leistung bietet, kann nvidia eigentlich nicht anders, als die preise in dieser region anzusetzen.

Dural
2010-09-14, 19:51:07
Dieses angebliche 12SM Dingsbums soll doch wohl nicht noch in 40G kommen oder?

in was den sonst???

wenn 28nm bereit ist dürfte ein 512 oder 576SP Chip keiner mehr vom hocker reissen...

und noch mal, ein 576SP (12x48) Chip dürfte sogar kleiner als jetzt ein GF100 sein, was spricht denn dagegen ausser das dann der GF100 im Gamer bereich komplett EOL gehen kann?!?

und das GF110 für 28nm geplant war glaub ich NICHT, zuerst gab es noch 32nm was aber gestrichen wurde, also bleibt nur 40nm übrig oder auf 28nm warten... das wird NV aber garantiert nicht machen können, oder glaubst du ernsthaft das NV jetzt mit dem GF100A noch ca. ein jahr durchhalten will??? :freak:

Etwas in 40nm wird kommen (müssen)...

Zumal der Verbrauch beim GF100 sicher nicht am Prozess liegt. Das geht auf Nvidias Kappe. Wer eben bis an die Grenze gehen muss braucht sich halt nicht zu wundern.

schau GF104 an und du hast die antwort........

Gast
2010-09-14, 21:52:08
Muss nV nicht was an den Shadereinheiten ändern um mehr Rechenleistung pro Transistor rauszuhauen? Gut das theoretische und praktische Maximum liegen viel näher aneinander als bei AMD, trotzdem ist das Transistor Budget bei AMD ein Witz gegen die Schleuder von nV.
GF104 zeigt hoffentlich nV das es falsch war den großen GF100 zu entwickeln, den hätte es nicht gebraucht im Spielemarkt. Tesselation Leistung bietet GF104 für heute und die nächsten Jahre genug. Texturleistung mag gesunken sein, aber die Effizienz ist gut gestiegen und Taktfreudig ist das Design auch, nähert sich an den RV870 an.

Dural
2010-09-14, 22:16:46
NV hat die Cluster ja schon bei den GF104/106/108 überarbeitet

anstelle 32SP und 4TMUs sind es jetzt 48SP und 8TMUs! Leider hat sich damit aber auch etwas die Effizients verschlechtert, aber nicht viel... Jedenfalls bringt NV damit bei fläche X mehr einheiten rein als es noch beim GF100 mit 32SP/4TMUs möglich war!

Falls NV nichts anderes vor hat (zb. GF100B) wären sie dumm nicht so ein 12 Cluster Chip zu bringen, da die GF104 "Architektur" schon einige verbesserungen/neuerungen drin hat, zb. wurde auch sicher der Speicherkontroller überarbeitet... GF100 hatte da ja grosse probleme das die GF104 GPU deutlich verbessert hat.

Fetza
2010-09-14, 22:44:19
NV hat die Cluster ja schon bei den GF104/106/108 überarbeitet

anstelle 32SP und 4TMUs sind es jetzt 48SP und 8TMUs! Leider hat sich damit aber auch etwas die Effizients verschlechtert, aber nicht viel... Jedenfalls bringt NV damit bei fläche X mehr einheiten rein als es noch beim GF100 mit 32SP/4TMUs möglich war!

Falls NV nichts anderes vor hat (zb. GF100B) wären sie dumm nicht so ein 12 Cluster Chip zu bringen, da die GF104 "Architektur" schon einige verbesserungen/neuerungen drin hat, zb. wurde auch sicher der Speicherkontroller überarbeitet... GF100 hatte da ja grosse probleme das die GF104 GPU deutlich verbessert hat.

Wieso hat sich die effizienz verschlechtert? Meines wissens nach hat sich da nichts geändert. Die logik, welche für die verteilung der berechnungen zuständig sind, wurde ja sogar verdoppelt. Betrachtet man es auf "real world" applikationen, steht der gf104 doch viel besser da als der gf100.

Nachtrag: Alleine schon das fp16 texturen (hdr) jetzt in einem durchgang berechnet werden können ist ein riesen fortschritt, der gf100 braucht dafür zwei.

Black-Scorpion
2010-09-14, 22:48:42
schau GF104 an und du hast die antwort........
Werde dir mal einig was du willst.
Du redest von einem GF100b und sagst mir ich soll mir den GF104 ansehen. GF104 ist aber nicht gleich GF100. Und gerade wenn man sich den GF104 ansieht merkt man das Nvidia beim GF100 Mist gemacht hat.

Gast
2010-09-14, 22:49:23
rechnet ihr damit das Nvidia bei 28nm in richtung 1000 Shader geht?

Fetza
2010-09-14, 22:57:14
Und gerade wenn man sich den GF104 ansieht merkt man das Nvidia beim GF100 Mist gemacht hat.

Absolut, wie man sowas in den consumermarkt entlassen konnte, ist mir ein rätsel.

Dural
2010-09-14, 23:51:14
Wieso hat sich die effizienz verschlechtert? Meines wissens nach hat sich da nichts geändert. Die logik, welche für die verteilung der berechnungen zuständig sind, wurde ja sogar verdoppelt. Betrachtet man es auf "real world" applikationen, steht der gf104 doch viel besser da als der gf100.

Nachtrag: Alleine schon das fp16 texturen (hdr) jetzt in einem durchgang berechnet werden können ist ein riesen fortschritt, der gf100 braucht dafür zwei.

wie so keine ahnung, aber das es so ist sieht man ja gut an den GTX460 vs GTX465 vergleiche!

erst in hohen auflösungen und AF / AA kann sich der GF104 langsam absetzten, ohne AF / AA ist die theoretisch schnellere GTX460 sogar langsamer als die GTX465! OK da hat der GF100 natürlich auch einen vorteil bei der Tess. Leistung...

Werde dir mal einig was du willst.
Du redest von einem GF100b und sagst mir ich soll mir den GF104 ansehen. GF104 ist aber nicht gleich GF100. Und gerade wenn man sich den GF104 ansieht merkt man das Nvidia beim GF100 Mist gemacht hat.

was in alle in der welt hat das mit DEINER aussage zutun!?!

Der GF104 ist deutlich energieeffizienter als es GF100 ist, wie so auch immer... wenn es wirklich ein only GF100A Problem ist dürften wir ja bald ein GF100B mit weniger Verbrauch sehen...

und NEIN ich glaube nicht daran, der 40nm Prozess war/ist einfach schlicht zu schlecht für so ein grosses ding mit viel takt... so wie es derzeit aussieht wird auch AMD bei ihren grösseren Chips auch einen gewissen mehr verbrauch gegenüber den alten erreichen...

Bucklew
2010-09-15, 00:17:35
Absolut, wie man sowas in den consumermarkt entlassen konnte, ist mir ein rätsel.
Weil die Entwicklung/Fertigung für einen extra Chip für HTC/Profimarkt zu teuer ist.

Hugo
2010-09-15, 06:54:03
Es wäre eben SMs mit 4x 16SPs und 8 TMUs. Auf dieser Basis könnte man vielleicht auch die unsägliche Shaderdomain rauswerfen, den Platzbedarf der SPs deutlich reduzieren und den gesamten Chip in Richtung ~900MHz takten, was dann auch 1,8 TFLOPs ergäbe.


diesen Ansatz halte ich auch für interessant.
Das wären dann bei 4x16SP's = 64SP'je SM.
bei 10 oder 12 Clustern klingt es nach einer vernünftigste Lösung.
Ist die 4x 16 Anordung performanter als die jetzige?

@Ail
hattest du nicht mal was zu 16+16+16+16 gehört?

Fetza
2010-09-15, 09:16:03
Weil die Entwicklung/Fertigung für einen extra Chip für HTC/Profimarkt zu teuer ist.

Reputationsverlust auch, der recht sich nur vor allem im nachhinein.

Black-Scorpion
2010-09-15, 10:54:39
was in alle in der welt hat das mit DEINER aussage zutun!?!

Der GF104 ist deutlich energieeffizienter als es GF100 ist, wie so auch immer... wenn es wirklich ein only GF100A Problem ist dürften wir ja bald ein GF100B mit weniger Verbrauch sehen...

und NEIN ich glaube nicht daran, der 40nm Prozess war/ist einfach schlicht zu schlecht für so ein grosses ding mit viel takt... so wie es derzeit aussieht wird auch AMD bei ihren grösseren Chips auch einen gewissen mehr verbrauch gegenüber den alten erreichen...
GF104 ist nicht GF100 und ein GF100b kann nicht plötzlich auf dem GF104 basieren.
Beim GF104 wurde einiges geändert und er ist auch kleiner.
Wenn schon GF100b dann basierend auf GF100 und nicht GF104. Das sind verschiedene GPUs. Ob dir das gefällt oder nicht interessiert mich eigentlich reichlich wenig. Du träumst dir eh alles so zusammen wie du willst.

Hugo78
2010-09-15, 11:25:30
@Black-Scorpion

Weiß garnicht was du hast, er hat doch recht.

Ein um 50% aufgebohrter "GF104 Vollausbau" (576 Shader, 96 TMUs) wäre als "GF100 Refresh" im Gamingbereich durchaus ein Kandidat, und immernoch kleiner als ein original GF100.

Für den Profibereich kann man ja dann irgendwann noch mal ein besseres Stepping/Vollausbau des orginal Fermi bringen.
Die DP Performance ist hier ja wichtiger.

Aber zum zocken, wäre ein 50% größerer GF104 die bessere Alternative.

Black-Scorpion
2010-09-15, 11:31:20
Dann soll er das Ding, wenn es denn kommt, nicht GF100b nennen.
Ihr vermischt zwei GPUs.

Gast
2010-09-15, 11:36:46
Dann soll er das Ding, wenn es denn kommt, nicht GF100b nennen.
Ihr vermischt zwei GPUs.

wie wärs denn mit GF101

das wäre auch korrekt im stile von G70/71...

Black-Scorpion
2010-09-15, 11:44:52
wie wärs denn mit GF101

das wäre auch korrekt im stile von G70/71...
Würde auf jeden Fall besser passen.

Coda
2010-09-15, 12:00:30
das wäre auch korrekt im stile von G70/71...
G71 war ein Shrink. Das was jetzt kommen müsste wäre ein veränderter Chip auf dem selben Prozess.

Aber Codenamen sind eh nur Schall und Rauch.

Dural
2010-09-15, 12:21:18
Dann soll er das Ding, wenn es denn kommt, nicht GF100b nennen.
Ihr vermischt zwei GPUs.

Ich nenne das ding auch GF100 "B" oder GF102 ;) GF102 würde so wie so auch am bessten passen finde ich...

aber was sind schon namen... das wichtigste ist was dahinter steckt!



bei selben takt wäre so ein 12x48SP Chip gut ca. 20% schneller als eine GTX480 / GF100 mit 480SP und das auf gleich viel oder sogar weniger fläche!

Fetza
2010-09-15, 12:41:04
G71 war ein Shrink. Das was jetzt kommen müsste wäre ein veränderter Chip auf dem selben Prozess.

Aber Codenamen sind eh nur Schall und Rauch.

Genau, nennen wir diesen hypothetischen chip doch einfach zockertraum :)

Gast
2010-09-15, 14:35:20
768kib l2, 48 rops, 384bit bleibt gleich. Nur die Anzahl der Polymorph-Engines würde um 25% sinken, was sich aber in der Praxis wohl kaum auswirkt da GF100 dort gnadenlos überdimensioniert ist.

Hatte ganz vergessen dass bei der 480 ja sowieso nur 15 polymorphengines aktiv sind, bei der 470 nur 14. Die 25% gegenüber dem vollen GF100 würden nie zum tragen kommen, im Vergleich zur GTX480 sinds also nur 20%.

Damit erreicht GF110 dieselbe Tesselationsleistung wie eine GTX470 bei nur 700mhz und die der GTX480 bei 875mhz.

Veranschlagt man einen realistischen takt von 800mhz, so erreicht GF110 immerhin 91.5% der Tesselationsleistung eines GTX480 GF100.
Die Shaderleistung würde allerdings um 21% steigen, die Texelfüllrate um 82% und die Pixelfüllrate um 14%. Bei einer solchen SKU würde nvidia außerdem auch endlich den Speichertakt auf mindestens 2Ghz anheben (1,8 bisher), was in 192gb/s speicherbandbreite münden würde.

Das ding ist also nicht gerade gamers wet dream, aber mit durchschnittlich 20% mehrleistung gegenüber der GTX480 in hohen auflösungen und vor allem bei hohen filtereinstellungen, sollte man schon rechnen.

Und das alles wie gesagt mit einem kleineren billigeren und kühleren chip als GF100 ebenfalls in 40nm bei TSMC. GF110 braucht nach dem derzeitigen stand auch nicht gerade wunder um rechtzeitig und problemfrei zu tape outen, ist die GF104 architektur doch jetzt schon sehr ausgereift. Ein 434mm² GF110 chip wäre ein Kinderspiel gegenüber einem nachgebesserten 500mm² ++GF100.

Ailuros
2010-09-15, 15:38:38
@Ail
hattest du nicht mal was zu 16+16+16+16 gehört?

Noe. Jemand erzaehlte mir in einem Forum etwas ueber doppelt so fette ALUs fuer 104. Nachdem die letztere angekuendigt wurde und es klar wurde dass er mit "doppelt" die warp scheduler meinte hat sich das auch damit gedeckt.

Gast
2010-09-15, 15:51:15
GF101 wäre übel. man ist ja abergläubisch... VSA101 lässt grüssen.

Thunder99
2010-09-15, 22:59:50
GF101 wäre übel. man ist ja abergläubisch... VSA101 lässt grüssen.
Mit dem Unterschied dass es den VSA101 wirklich gab, auch wenn nur im Prototyp Stadium ;)

Wenn ein neuer Chip kommt, dann erst Mitte bis Ende des Jahres, sonst wäre doch längst irgendwelche Gerüchte von den bekannten Quellen gekommen :confused:

Hugo78
2010-09-16, 08:18:13
Wenn ein neuer Chip kommt, dann erst Mitte bis Ende des Jahres, sonst wäre doch längst irgendwelche Gerüchte von den bekannten Quellen gekommen :confused:

Oder Nvidia hat jetzt Apples "Wachschutz" angeheuert ... ;D

Hugo
2010-09-16, 11:13:27
dual GTS-450?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/september/dual-geforce-gts-450-bereits-im-november/

Gast
2010-09-16, 11:18:04
Mag ein Asia-Partner in seinen Laboren vielleicht bauen, aber wohl niemals als Referenzmodell von Nvidia.
Eine OC-GTX 460 1GB ~ 800MHz erreicht da ähnliche Geschwindigkeit, bei deutlich geringerem Materialeinsatz (1x 367mm² + 1GB vs 2x 240mm² vs 2x 1GB). Und bald steht wohl einen 384SPs-Karte an.

Kit-Guru ("GTX 465 ohne CUDA"...) sollte man einfach meiden.

Ailuros
2010-09-16, 11:37:14
Ok Zeit fuer meine eigene "Spekulation" fuer NV:

1. Falls es ueberhaupt dieses Jahr noch einen high end single chip Nachfolger fuer die GTX480 geben sollte, dann sehe ich nichts anderes als ein 512SP Dingsda mit besserem Stromverbrauch.

2. G10x@40G (ja immer noch 40G, war frueher wohl 32nm) duerfte (wenn alles nach Plan laeuft) irgendwo im Fruehling 2011 antanzen und wenn man nach NV's toller "execution" der letzten Jahre geht in Echtzeit dann Herbst 2011.

3. G20x@28HP mit einer originalen Projektion fuer Q4 2011 und in NV's neuer Execution-Realitaet wohl irgendwo Anfang 2012.

Meine 2 schentsch :freak:

Hugo78
2010-09-16, 12:06:49
dual GTS-450?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/september/dual-geforce-gts-450-bereits-im-november/

Vom kleinen GF108 könnte ich mir eine Dualkarte vorstellen, einfach nur um damit 4 Monitore betreiben zukönnen, bzw. 8, 12, 16 .. je nach dem wieviele PCI-E das Mobo hat.
Eine Dual GF108 kann man sicherlich mit einer Singleslotkühlung betrieben und Dank (mini)HDMI reicht auch eine Slotblende.

Naja mal abwarten was der GF108 bringt.
Aber mit dem GF106 jetzt, ist das doch bischen zu überdimensioniert, deshalb eher sinnlos.

Aber wie der Artikel bei CB zeigt, es gab ja zuletzt auch ne HD 4670 X2... wers braucht.

Gast
2010-09-16, 13:01:50
3. G20x@28HP mit einer originalen Projektion fuer Q4 2011 und in NV's neuer Execution-Realitaet wohl irgendwo Anfang 2012.

Meine 2 schentsch :freak:


Und TSMC's neuer 28nm Prozess funktioniert deiner Meinung nach also sofort super und ist für GPUs mit >500 mm² + ~1,5-2GHz hervorragend geeignet.... :freak:

Ich würde beim G20x die Probleme eher bei TSMC sehen als bei Nvidia.

igg
2010-09-16, 13:32:14
Ich würde beim G20x die Probleme eher bei TSMC sehen als bei Nvidia.
Das deprimierende ist, dass AMD dank GF wohl deutlich früher in 28 nm liefern kann und somit seine Marktanteile weiterhin ausbauen kann. Ich sehs kommen, meine nächste Grafikkarte wird eine rote und ich werd mich jeden Tag über die Treiber ärgern :mad:

Ailuros
2010-09-16, 13:33:15
Und TSMC's neuer 28nm Prozess funktioniert deiner Meinung nach also sofort super und ist für GPUs mit >500 mm² + ~1,5-2GHz hervorragend geeignet.... :freak:

So wie es momentan aussieht hat NV keine Plaene voruebergehend mit Glofo einen Vertrag abzuschliessen, ergo macht die Frage wohl wenig Sinn da AMD wohl nicht so leicht auf einen single high end chip setzen werden wenn sie schon das Risiko mit Glofo eingehen.

Wie sich Glofo als foundry bewaehren wird bleibt abzusehen, aber der eigentliche Schwerpunkt in einem NVIDIA Thread mit den vorerwaehnten Fakten liegt bei TSMC.

Ich würde beim G20x die Probleme eher bei TSMC sehen als bei Nvidia.

Im Fall wo ein Herstellungsprozess problematisch sein sollte bei hohen Chipkomplexitaeten und die foundry rechtzeitig warnt wie unter 40G, dann ist es nicht die Verantwortung der foundry wenn der IHV seinen chip zu kompliziert gestaltet.

Evergreen kam wann genau auf die Regale?

Gast
2010-09-16, 21:40:18
Mich würde mal der Stromverbrauch eines solchen Monsterchips interessieren.
Bei 40nm, wie will nVidia da mit 16 Shaderclustern fertig werden? Das Teil wäre ja gnadenlos überdimensioniert und würde wohl mehr als 400 Watt verbraten.
Ich glaube daher nicht, dass ein solcher Chip jemals kommen wird.
Wenn dann bringt nVidia was, dass auch wirtschaftlicher ist als der GF100.
12 Shadercluster klingen da schon eher wahrscheinlich, obwohl Ich glaube, dass das auch noch zu viel sein wird.

Ich denke, das alles ist nur ein Gerücht. Bis nVidia wieder mit AMD mithalten kann, wird dann wohl noch ne ganze Weile vergehn.
AMD wird den Markt erst mal weiter dominieren.

Fetza
2010-09-16, 21:48:24
Mich würde mal der Stromverbrauch eines solchen Monsterchips interessieren.
Bei 40nm, wie will nVidia da mit 16 Shaderclustern fertig werden? Das Teil wäre ja gnadenlos überdimensioniert und würde wohl mehr als 400 Watt verbraten.
Ich glaube daher nicht, dass ein solcher Chip jemals kommen wird.
Wenn dann bringt nVidia was, dass auch wirtschaftlicher ist als der GF100.
12 Shadercluster klingen da schon eher wahrscheinlich, obwohl Ich glaube, dass das auch noch zu viel sein wird.

Ich denke, das alles ist nur ein Gerücht. Bis nVidia wieder mit AMD mithalten kann, wird dann wohl noch ne ganze Weile vergehn.
AMD wird den Markt erst mal weiter dominieren.

Dominieren ist zuviel gesagt, letztlich hängt es jetzt davona b, wie gut der cypressnachfolger wirklich wird.

V2.0
2010-09-16, 22:06:21
Wenn NV die Fehler im GF100 beseitigt, dann sehe ich da relativ wenige Probleme. Vergleicht mal GF104 zu Cypress. Ähnliche Größe ähnlicher Verbrauch.

Je mehr sich ATI an die Größe des GF100 an nährt desto kleiner wird der Verbrauchsunterschied. Kriegt NV die Probleme mit der Taktung und dem Verbrauch in den Griff, dann sehe ich noch viel Leben in GF100/GF100B oder GF101.

Oberst
2010-09-16, 22:11:56
Hallo,
das Problem für NV ist, wenn sie einen "GF110" fertigen wollten, dann müssten sie auch wieder, wie beim GF100 oder GF104 mehr Shader einbauen als sie nutzen, weil es sicher wieder Ausfälle bei der Fertigung geben wird. Dann würde man auch wieder bei der Größe eines GF100 landen (oder sogar drüber) und der Verbrauch wäre auch wieder ähnlich (und damit auch die Temperatur und die Limitierung beim Takt).
Würde man das nicht machen, kann man den GF100 nur noch im Server-/Computingbereich einsetzen, was dessen Kosten treiben würde (was auch für NV ein Problem werden könnte).

Dass ein neuer NV Chip ein Tapeout hatte, war auch nicht in den News, entsprechend würde der Launch also auch noch ein wenig auf sich warten lassen. Und damit würde der zeitliche Abstand zur Nachfolgegeneration wohl knapp werden. Man will/muss ja auch schließlich Geld mit dem GF110 verdienen oder zumindest +/-0 raus kommen, sonst gibt's Ärger mit den Aktionären (das muss der GF100 ja auch noch erfüllen, daher kann NV den wohl auch nicht ausrangieren).
Daher würde ich dieser Lösung aktuell nicht zu viel Chancen einräumen.
Ich könnte mir eher vorstellen, dass der GF110 so etwas wie der Hemlock bei ATI ist, also ein SLI Verbund von 2x GF104.
Gruß Oberst.

Gast
2010-09-16, 22:17:43
Du hast schon mitbekommen das wir A2! Chips auf den GTX460 Karten draufhaben. Also die 2 Edition des GF104 der aus dem Backofen kam war mehr als gut. Die Verzögerung die GF100 und der 40nm Prozeß mit sich brachte, hat anscheinden sich positiv ausgewirkt. G80 war bei Release auch A2 Stadium aber lange nicht so taktfreudig (675MHz Standard Clock vs. min. 850MHz bei jeder GPU möglich).

Das mehr Einheiten dem G80 Design Probleme bereiten haben sie bei G200 gesehen, hoffen wir das zukünftige GF1xx mit weniger Einheiten und höheren Taktraten (der AMD Weg) nicht von Leaks und Hotpeaks überrascht werden.

Gast
2010-09-16, 22:25:25
Du hast schon mitbekommen das wir A2! Chips auf den GTX460 Karten draufhaben. Also die 2 Edition des GF104 der aus dem Backofen kam war mehr als gut.
Quelle?

master_blaster
2010-09-16, 22:49:15
Quelle?
Wollte ich auch gerade fragen, :wink:.

http://www.brightsideofnews.com/Data/2010_8_7/MSI-GTX-460-Hawk-to-Clock-at-1GHz/MSIHAWKPCB.jpg


http://www.ixbt.com/video3/images/gf104/gtx460-chip.jpg

Dural
2010-09-17, 00:29:48
nö:

GF100 A3

GF104 A1

GF106 A1

GF108 A1

Fetza
2010-09-17, 01:01:36
nö:

GF100 A3

GF104 A1

GF106 A1

GF108 A1

Cool, schon mit dem ersten stepping haben sie den gf104 so taktfreudig bekommen. Finde ich schon beeindruckend.

Zorn
2010-09-17, 02:50:21
Mich würde mal der Stromverbrauch eines solchen Monsterchips interessieren.
Du würdest das doch eh nicht kaufen (können)...

Jemand, der sich so anstellt, wegen den paar Watt XD


Bis nVidia wieder mit AMD mithalten kann, wird dann wohl noch ne ganze Weile vergehn.
Gibt viele Sachen, wo die besser sind....



AMD wird den Markt erst mal weiter dominieren.

Sicher nicht mit High-End...

V2.0
2010-09-17, 07:56:32
Cool, schon mit dem ersten stepping haben sie den gf104 so taktfreudig bekommen. Finde ich schon beeindruckend.

Was ist daran beeindruckend.Gf100 war der Testchip für die gesamte Serie. Bevor der nicht halbwegs lief ging keiner der anderen in Tape-Out. Man hat aber die Erfahrung aus GF100 trotzdem in die anderen einfliessen lassen.

Dural
2010-09-17, 08:56:09
naja GF104 ist ja nicht einfach einen kleineren GF100, da gibt es schon deutliche änderungen! aber ja die erkenntnis vom GF100 A3 flossen sicher in die anderen chips...

ehm wie so wird eigentlich behauptet das NV den GF100 für den Profi Markt weiterhin benötigt auch wenn sie so ein 12x48 ding hätten?

DP haben die GF10X doch auch die halben Shader Anzahl... oder ist das eine falsch info?

Black-Scorpion
2010-09-17, 09:29:14
Um Kohle mit Ding zu verdienen? Der war alles in allem so teuer das auf dem Gamermarkt nie was schwarzes zu holen ist. Da bleibt nur der Markt wo Kohle keine Rolle spielt.

Thunder99
2010-09-17, 17:11:00
Wo steht denn, dass der GF104 modular aufgebaut ist? :confused:

Wenn es so wäre/ist, dann hat nv wirklich gute Chancen mit wenig Aufwand einen größeren Chip zu realisieren (reine Speku ;) ). Anders halte ich das eher für Wunschdenken.

Gegenfrage, wie lange hat es vom ersten Erscheinen für Infos des RV790 bis zum TapeOut gedauert?

Coda
2010-09-17, 17:23:23
DP haben die GF10X doch auch die halben Shader Anzahl... oder ist das eine falsch info?
Nur GF100 hat bei half-speed DP. Die kleineren Chips sind deutlich langsamer.

Wo steht denn, dass der GF104 modular aufgebaut ist? :confused:
Das ist heutzutage standard, das braucht nirgends stehen.

Gast
2010-09-17, 17:28:48
Nur GF100 hat bei half-speed DP. Die kleineren Chips sind deutlich langsamer.

Müsste DP bei den neuen SMs nicht bei 1/3 des SP-Durchsatzes liegen, wenn man hier nicht drosselt?

GeForce GF100 DP=1/8*SP
GeForce GF10x DP=1/12*SP

Thunder99
2010-09-17, 17:30:03
Das ist heutzutage standard, das braucht nirgends stehen.
Hmm, stimmt, siehe GF104 ->GF106 ->GF108 :redface:

Dural
2010-09-17, 17:44:24
Nur GF100 hat bei half-speed DP. Die kleineren Chips sind deutlich langsamer.


Sagt wer? ;)

GF100 ist auch nur bei den Tesla Karten wirklich schnell und hat half-speed DP!

Aber der Gast könnte recht haben und die GF104/6/8 haben nur 1/3 DP

das würde beim GF100 vs GF102 vergleich bedeuten:

GF100 max 512 / 256 Power (derzeit nur max 224 / 515 Gflops)

GF102 max 576 / 192 Power (@ 1300MHz 500 Gflops)


GF104 max 384 / 128 Power

Gast
2010-09-17, 17:52:29
Sagt wer? ;)



One place where the GF104's SM is less capable is double-precision math, a facility important to some types of GPU computing but essentially useless for real-time graphics. Nvidia has retained double-precision support for the sake of compatibility, but only one of those 16-wide ALU blocks is DP-capable, and it processes double-precision math at one quarter the usual speed. All told, that means the GF104 is just 1/12 its regular speed for double-precision.

http://techreport.com/articles.x/19242

Das ist auch der Grund warum es nie einer GF104-Derivat im High-End geben wird.

Dural
2010-09-17, 17:54:53
ja die GTX460 hat 1/12 DP, das heist aber noch lange nicht das die GPU wirklich nur 1/12 hat! ;)

Siehe auch GTX480 mit 1/8 DP

aus den beiden Karten könnte man auch heraus lesen das die GF104/6/8 GPUs wirklich 1/3 haben müssen, was auch logisch wäre 3x16SP cluster und 1x16 davon vileicht DP ;)

Bucklew
2010-09-17, 17:56:17
GF100 ist auch nur bei den Tesla Karten wirklich schnell und hat half-speed DP!
Quadro auch ;)

Gast
2010-09-17, 17:57:01
ja die GTX460 hat 1/12 DP, das heist aber noch lange nicht das die GPU wirklich nur 1/12 hat! ;)

Siehe auch GTX480 mit 1/8 DP

Doch das heißt es, und die Erklärung warum nicht mehr möglich ist steht auch im zitiertem Text. Es hat schon seinen Grund warum es keinen GF104-Derivat im Professionellen Bereich gibt.

Bucklew
2010-09-17, 17:59:55
Es hat schon seinen Grund warum es keinen GF104-Derivat im Professionellen Bereich gibt.
Ja, der hat aber nichts mit der DP-Fähigkeit zu tun.

Dural
2010-09-17, 18:01:41
nö die Quadro haben glaub auch nicht 1/2 :confused:

Gast
2010-09-17, 18:03:25
Ja, der hat aber nichts mit der DP-Fähigkeit zu tun.

Das ist für das Thema völlig unerheblich und ist mir auch vollkommen egal. Tatsache ist das GF104 nur 1/12 der SP-Leistung bei DP erreicht und zwar nicht weil was gedrosselt ist, sondern ganz einfach weil nur eine der drei vec16 ALUs DP fähig ist und diese nur 1/4 des Durchsatzes von SP hat.

Dural
2010-09-17, 18:06:57
könnt ihr lesen? ;)

steht ja selber das pro Cluster ein 16 ALU Block DP fähig ist und die 2 weiteren 16 Blöcke nicht...

Ein Cluster bei den GF104/6/8 besteht somit aus 1x 16 SP/DP und 2x 16 SP das ergibt 16 DP / 48 SP pro Cluster und der der GF104 hat 8 davon ;)

16x8 = 128
48x8 = 384

wie auch immer, es sind 1/3

Coda
2010-09-17, 18:07:01
Sagt wer?
NVIDIA.

GF100 ist auch nur bei den Tesla Karten wirklich schnell und hat half-speed DP!
Es geht um die verbaute Hardware. Künstliche Beschränkungen tun doch überhaupt nichts zur Sache.

Aber der Gast könnte recht haben und die GF104/6/8 haben nur 1/3 DP
Es stimmt aber nicht.

wie auch immer, es sind 1/3
Nope. Eine Vec16-ALU eines GF104-Clusters kann zwar DP, aber nicht mit Full-Speed.

Dural
2010-09-17, 18:13:03
Ja klar sagt das NV selber, bis jetzt gibt es ja auch nur die GTX460 der auf dem GF104 basiert... und bei der hat man halt die 1/12 beschränkung ;)

Von der Hardware her dürfte der GF104 1/3 haben

Coda
2010-09-17, 18:16:27
Nein, hat er nicht. Full-Speed geht bei GF100 durch zusammenschalten von zwei Vec16 und braucht jede Menge Transistoren. Viel zu teuer für den Consumer-Markt.

1/3 ergibt auch überhaupt keinen Sinn. Das würde bedeuten dass die eine DP-ALU eines GF104-Clusters allein eine DP-Instruction ausführen kann. Das kann nichtmal GF100.

Gast
2010-09-17, 18:33:45
Ja klar sagt das NV selber, bis jetzt gibt es ja auch nur die GTX460 der auf dem GF104 basiert... und bei der hat man halt die 1/12 beschränkung ;)

Von der Hardware her dürfte der GF104 1/3 haben

Oh Mann... :facepalm:

Wenn man keine Ahnung hat sollte man vielleicht mal still sein. Da nur ein der drei vec16 ALUs DP fähig ist, ist 1/3 völlig abwegig. Sonst müsste diese full-speed DP können, das kann nicht mal GF100. Selbst mit half-speed wie bei GF100 wäre es somit nur 1/6, da es allerdings nur quarter-speed ist sind es eben eindeutig 1/12.

Hugo78
2010-09-17, 20:08:32
Ich würde mal gerne kurz das Thema weg von relativ (für zocker) unwichtigen DP Speed lenken, hin zu dem was wahrhaftig als nächstes ansteht.

GF108

Bisher steht ja mitte Oktober im Raum, als Releasedatum, aber gibt es hier eventuell Infos, die an mir vorbei gegangen sind?
Ich mein ob da was früher kommt?!

Ich such nämlich grad was passendes für paar Rechner die zu 50% als "HTPC" (im weitestem Sinne) und zu 50% als Semipro Photoshop herhalten sollen.
So Aussenwerbung und Photokunst.

Fetza
2010-09-17, 21:47:07
http://techreport.com/articles.x/19242

Das ist auch der Grund warum es nie einer GF104-Derivat im High-End geben wird.

Was interessiert einen gamer die dp-leistung? Im consumermarkt wird gaming performance gewünscht und da ist high-end was die höchste balkenlänge bei games bietet, dp-leistung wurscht.

Ailuros
2010-09-18, 10:23:28
Was interessiert einen gamer die dp-leistung? Im consumermarkt wird gaming performance gewünscht und da ist high-end was die höchste balkenlänge bei games bietet, dp-leistung wurscht.

Es interessiert NVIDIA aber, sonst haetten sie auch keinen Grund gehabt einen 520+mm2 Monsterchip zu entwickeln. http://www.xbitlabs.com/news/video/display/20100902165725_Nvidia_Solidifies_Positions_in_the_Professional_Graphics_Market_S egment_JPR.html

Und dass GF104 nie high end wird vom Gast ist auch Quark. Ich koennte mir locker vorstellen dass wenn es eine "GTX485" geben wird immer noch eine "GTX495" darueber hocken wird.

Fetza
2010-09-18, 11:23:10
Es interessiert NVIDIA aber, sonst haetten sie auch keinen Grund gehabt einen 520+mm2 Monsterchip zu entwickeln. http://www.xbitlabs.com/news/video/display/20100902165725_Nvidia_Solidifies_Positions_in_the_Professional_Graphics_Market_S egment_JPR.html

Und dass GF104 nie high end wird vom Gast ist auch Quark. Ich koennte mir locker vorstellen dass wenn es eine "GTX485" geben wird immer noch eine "GTX495" darueber hocken wird.

Genau das meinte ich ja damit, für uns gamer ist die dp-leistung wurscht, daher ist ein gf104 der voll freigeschaltet wäre high-end, in sofern er eine gtx 470 schlägt.

Das nvidia in den profimarkt bzw in den gpgpu markt drängt ist klar. Aber dafür werden sie in zukunft hoffentlich auf zwei verschiedene schienen fahren.

Gast
2010-09-18, 11:35:21
Das nvidia in den profimarkt bzw in den gpgpu markt drängt ist klar. Aber dafür werden sie in zukunft hoffentlich auf zwei verschiedene schienen fahren.

Machen sie ja eigentlich schon heute.

Black-Scorpion
2010-09-18, 11:44:20
Mit was denn? GF, Tesla und Quadro alles eine GPU.

Gast
2010-09-18, 12:45:40
Was interessiert einen gamer die dp-leistung? Im consumermarkt wird gaming performance gewünscht und da ist high-end was die höchste balkenlänge bei games bietet, dp-leistung wurscht.

Es ging darum das hier einige auf einen GF104-Derivaten mit 576 SP setzen.

Gasti
2010-09-18, 12:58:51
Mit was denn? GF, Tesla und Quadro alles eine GPU.

Ja Highend ist GF100(bei den Teslas ist die DP-Rate doppelt soch, aber das ist afaik eine Frage des Bios)

Ailuros
2010-09-18, 14:44:40
Machen sie ja eigentlich schon heute.

Wie Black-Scorpion schon sagte GF100 bedient desktop high end, Quadros und Tesla. Ein einziger chip fuer alle drei Segmente; wo genau soll das ganz auf mehreren Schienen laufen?

Was Fetza wohl meinte ist dass NV in Zukunft getrennt fuer die Profi-Maerkte chips entwickeln sollte. Wird aber IMO nicht so leicht passieren weil eben 2 Schienen doppelt so teuer sind wie 1.

Nakai
2010-09-18, 14:59:57
Was Fetza wohl meinte ist dass NV in Zukunft getrennt fuer die Profi-Maerkte chips entwickeln sollte. Wird aber IMO nicht so leicht passieren weil eben 2 Schienen doppelt so teuer sind wie 1.

Mhh, wirklich?! Ich denke, das kann man nicht so leicht sagen.

Die Entwicklung der Architektur sollte nicht sonderlich viel mehr kosten. NV hat mit dem G104 gezeigt, dass das Design sehr flexibel ist.
Darauf basierend einen Chip zu entwickeln, welcher 1.5xG104 ist(576SPs 96TMUs), sollte kleiner und schon deutlich schneller als ein GF100 sein(zwischen 20 und 40%).
Die Margen für so einen Chip sind deutlich höher, als es die beim GF100 wären.

Natürlich würden die Kosten hochgehen, aber die Margen und die Konkurrenzfähigkeit ebenso.



mfg

Gast
2010-09-18, 16:26:43
Wäre wohl ein chip mit 768 SP und 128 TMUs zu realisieren? Weil 576 wäre performance mässig jetzt auch nicht der Kracher von einer GTX 480 ausgehend...

master_blaster
2010-09-18, 16:38:58
... Weil 576 wäre performance mässig jetzt auch nicht der Kracher von einer GTX 480 ausgehend...
Wenn der Chip höher getaktet wäre und auch noch ein 512Bit-Speicherinterface hätte, wäre die Performance nicht so der Kracher? Um NI zu schlagen, könnte das ausreichend sein und dass ist doch das, was (für nV) entscheidend ist.

Nakai
2010-09-18, 16:58:55
Wenn der Chip höher getaktet wäre und auch noch ein 512Bit-Speicherinterface hätte, wäre die Performance nicht so der Kracher? Um SI zu schlagen, könnte das ausreichend sein und dass ist doch das, was (für nV) entscheidend ist.

Man muss noch mit 480SPs für Fermi nehmen. Da ist die theoretische Mehrleistung schon bei 20%. Leicht höherer Takt könnte es sogar auf um die 40% bringen. Und 50% mehr Textureinheiten sind auch nicht ohne. Das wäre ein Fermi für Spieler DoneRight. Dieser Chip wäre Ideal für einen NI-Konter. Ebenso sollte die Größe für eine Dualkarte auch iO sein.

Gast
2010-09-18, 17:20:05
Ein neues Design wäre besser, was weniger Verlustleistung mit sich bringt, höhere Rechenpower bei weniger Transistor Count. GF104 ist nur ein kleiner Schritt, nV sollte den Refresh des GF1xx Designs vorziehen, auf 28nm brauch man nicht warten. 512Bit SI brauch auch keiner, schaut euch doch die RAM Taktrate der Radeons an.

Gast
2010-09-19, 11:51:03
Wäre wohl ein chip mit 768 SP und 128 TMUs zu realisieren? Weil 576 wäre performance mässig jetzt auch nicht der Kracher von einer GTX 480 ausgehend...

Realisierbar wäre er wohl, die Verlustleistung dürfte aber mindestens in GF100-Regionen sein

Gast
2010-09-19, 13:24:53
Wenn der Chip höher getaktet wäre und auch noch ein 512Bit-Speicherinterface hätte, wäre die Performance nicht so der Kracher? Um NI zu schlagen, könnte das ausreichend sein und dass ist doch das, was (für nV) entscheidend ist.

512bit SI ist fürn arsch. GF104 knabbert kaum am 256bit bus, sonst hätte nvidia nicht so konservative speichertaktraten angesetzt. fermi hat anscheinend ein sehr gutes speichermanagement, die 172gb/s der GTX480 lassen sich mit leichtem anheben des speichertakts auf das niveau einer 5850 schon auf 192gb/s steigern, dass ist mehr als genug für einen 1,5fachen GF104.

Ein neues Design wäre besser, was weniger Verlustleistung mit sich bringt, höhere Rechenpower bei weniger Transistor Count. GF104 ist nur ein kleiner Schritt, nV sollte den Refresh des GF1xx Designs vorziehen, auf 28nm brauch man nicht warten. 512Bit SI brauch auch keiner, schaut euch doch die RAM Taktrate der Radeons an.

nvidia hatte noch kein design was eine bessere performance pro watt mit sich bringt als gf104. ergo sollte man auch von einer neukonstruktion keine wunder erwarten, erst recht nicht wenn man dazu nocheinmal zurück zum originalen Thermi geht.

Der Speichercontroller von nv ist wohl nicht annähernd so taktfreudig wie der von ATI, hier spielt eventuell doch AMDs beteiligung bei der Entwicklung von GDDR5 und die expertise aus dem CPUbereich eine kleine Rolle. Jedenfalls hat ATi derzeit deutlich bessere Speichercontroller und nvidia mehr oder weniger Probleme die Taktraten von GDDR5 mit ihrem Design zu erreichen. Sonst hätte man GF106 garantiert nur mit 128bit Interface gebracht und höher getaktet, denn der GDDR5 den man derzeit verbaut ist sowieso mit mindestens 2Ghz spezifiziert. Dass man den chip aber auf 192bit ausgelegt hat ist eine art rückversicherung die auf schlechte interne testergebnisse zurückzuschließen ist. Höhere Speichertakte kann man häufig durch OC stabil erreichen, aber das ist wohl nicht bei allen Chips möglich.

Dural
2010-09-19, 14:39:19
naja die Fermi Speicherkontroller hat seine eigene Geschichte... aber zu behaupten NV kann keine vernünftige GDDR5 Speicherkontroller bauen ist schon sehr gewagt, zudem die ganzen GT21x GPUs solche krassen Probleme mit dem takt nicht so hatten! ;)

Interessant ist aber sicher das deutlich mehr takt mit steigenter VGPU möglich ist... ATi erreicht locker 1200MHz mit 1Volt VGPU, das kann man derzeit bei den Fermi vergessen!

kann es sein das der Cache im Fermi zusammen mit dem Speicher taktet? der müsste eigentlich mitem Core takt takten...

Gast
2010-09-19, 14:56:59
naja die Fermi Speicherkontroller hat seine eigene Geschichte... aber zu behaupten NV kann keine vernünftige GDDR5 Speicherkontroller bauen ist schon sehr gewagt, zudem die ganzen GT21x GPUs solche krassen Probleme mit dem takt nicht so hatten! ;)

Hä, die ganzen GT21x GPUs? habe ich da was verpasst?
Von denen haben sowieso nur die top speedbins von GT215 GDDR5 speicher und das nur mit läppischen 1700mhz.
2Ghz sind derzeit unterer standard bei ATI, selbst eine mainstreamkarte wie die 5750 hat 2,3Ghz GDDR5. Nvidia kommt mit der ersten 40nm Generation nicht über 1,7Ghz und mit der derzeitigen nicht über 1,8Ghz hinaus. Verbaut wird aber speicher der laut Spezifikation mindestens 2Ghz schafft. Nvidia hat gewusst dass man speichertakte von 2Ghz und mehr nur mit selektierten chips erreichen würde und verbaut daher bei allen Chips ein eher zu großes SI. Vermutlich sind die 1,8Ghz die wir derzeit haben schon etwas mehr als nvidia anhand der ernüchternden GT215 Ergebnisse erwartet hat, sonst hätten wir GF106 192bit auch im desktop gesehen. Man baut einen 64bit speichercontroller ja nicht aus spaß ein, sondern weil man befürchtet dass der chip bandbreitenlimitiert ist.

Interessant ist aber sicher das deutlich mehr takt mit steigenter VGPU möglich ist...

Und die Streuung ist ebenfalls sehr groß. Würde man mehr selektieren wäre sicherlich noch einiges drinnen. 1,8Ghz scheinen alle Chips mittlerweile zu schaffen, ein GTX475 refresh auf GF110basis hätte also diesen defaultakt, während man bei der top-sku wohl endlich 2Ghz oder mehr rausholt. Klar ist das optimistisch, aber der Speichercontroller scheint sich seit GT215 zwar sehr sehr langsam aber merklich zu verbessern.

kann es sein das der Cache im Fermi zusammen mit dem Speicher taktet? der müsste eigentlich mitem Core takt takten...
hm, glaube eher dass der cache mit coretakt taktet wenns hochkommt mit shadertakt, die speicherfrequenz hat ja nicht allzuviel mit dem onchip cache zutun...

Gast
2010-09-19, 16:13:21
nvidia hatte noch kein design was eine bessere performance pro watt mit sich bringt als gf104.

Aber schon deutlich bessere Performance/Transistor.

Spasstiger
2010-09-19, 16:22:14
Aber schon deutlich bessere Performance/Transistor.
Kommt drauf an, auf was man die Performance bezieht. Der Geometriedurchsatz der GTX 460 ist locker doppelt so hoch wie bei der GTX 285. Und Tessellation kann die GTX 285 überhaupt nicht.
Auch die Texelfüllrate bei fp16-Filtering ist weit höher als bei der GTX 285.
Und dann ist die GTX 460 noch nichtmal eine Karte mit dem GF104 im Vollausbau. Man kann nochmal 15-20% auf die Performance der GTX 460 draufschlagen (mehr SPs, höhere mögliche Taktraten), wenn man die Performance des GF104 im Vergleich zum GT200b auf der GTX 285 beurteilen will.

ATI hat beim Wechsel auf DX11 definitiv das Verhältnis Performance/Transistor verschlechtert. Vom RV790 (959 Mio. Transistoren) auf Cypress (2150 Mio. Transistoren) gab es nur eine Leistungssteigerung von max. 100% und rund 60% im Schnitt.

Coda
2010-09-19, 16:33:06
Auch die Texelfüllrate bei fp16-Filtering ist weit höher als bei der GTX 285.
Das ist als Argument nicht verwendbar. Nichtmal ansatzweise.

Sorkalm
2010-09-19, 17:03:50
Aber schon deutlich bessere Performance/Transistor.

Wer interessiert sich eigentlich für Performance/Transistor? Der Wert ist doch für sich alleine genommen wenig aussagekräftig, und wenn wir die Packdichte hinzunehmen, können wir das wieder auf einen Performance/Fläche-Wert vereinfachen (der für die Kosten und selten vllt. auch noch wegen dem Platzverbraucht relevant ist).
Insofern ist ein schlechterer Performance/Transistor-Wert gar nicht so schlimm, wenn ich dadurch auch die Packdichte erhöhen kann...

Dural
2010-09-19, 17:55:30
Von denen haben sowieso nur die top speedbins von GT215 GDDR5 speicher und das nur mit läppischen 1700mhz.


GT240 test computerbase:

Der 512 MB große GDDR5-Speicher macht dagegen eine Steigerung von guten 340 MHz (2.040 MHz) mit. Weiter lässt sich der Takt aufgrund einer Limitierung des Treiber-internen Tools nicht erhöhen.

;) die gt21x chips hatten damit definitiv weniger probleme!

Gast
2010-09-19, 18:02:41
Bei GF10x hat man doch auch teilweise über 2,4GHz gesehen.

=Floi=
2010-09-19, 19:44:33
das erste post könnte mal geupdated werden...

Gasti
2010-09-19, 20:27:55
Wer interessiert sich eigentlich für Performance/Transistor? Der Wert ist doch für sich alleine genommen wenig aussagekräftig, und wenn wir die Packdichte hinzunehmen, können wir das wieder auf einen Performance/Fläche-Wert vereinfachen (der für die Kosten und selten vllt. auch noch wegen dem Platzverbraucht relevant ist).
Insofern ist ein schlechterer Performance/Transistor-Wert gar nicht so schlimm, wenn ich dadurch auch die Packdichte erhöhen kann...

Benötigt man denn mehr Transistoren um die Packdichte zu erhöhen?

davidzo
2010-09-19, 21:13:35
Aber schon deutlich bessere Performance/Transistor.

Diese vergleiche lassen sich sowieso nur bei identischem featureset treffen, alles andere ist hinfällig. und da gibt es nichts besseres derzeit als GF104


Bei GF10x hat man doch auch teilweise über 2,4GHz gesehen.
In Einzelfällen. Das ist bei ATI aber schon der defaultakt für highendkarten seit bald einem jahr. übertaktung des rams bei ATI wird eher vom speicher selber limtiert, nicht vom controller.
GT240 test computerbase:

;) die gt21x chips hatten damit definitiv weniger probleme!

Streuung...

Ich denke er ist weder besser noch schlechter geworden, nur die Streuung ist jetzt geringer weshalb man sich 1,8Ghz durch die bank erlaubt statt 1,7ghz bei gt215.

Ailuros
2010-09-20, 09:22:37
Mhh, wirklich?! Ich denke, das kann man nicht so leicht sagen.

Die Entwicklung der Architektur sollte nicht sonderlich viel mehr kosten. NV hat mit dem G104 gezeigt, dass das Design sehr flexibel ist.
Darauf basierend einen Chip zu entwickeln, welcher 1.5xG104 ist(576SPs 96TMUs), sollte kleiner und schon deutlich schneller als ein GF100 sein(zwischen 20 und 40%).
Die Margen für so einen Chip sind deutlich höher, als es die beim GF100 wären.

Natürlich würden die Kosten hochgehen, aber die Margen und die Konkurrenzfähigkeit ebenso.



mfg

Es bleibt die Frage warum sie einen zusaetzlichen chip entwickelt haben sollen, wenn es mit 2*104@GX2 zeitlich schneller, um einiges billiger und mit um einiges mehr Leistung geht.

NV spart seit Sommer 2009 wo sie ueberhaupt sparen koennen und die temporaere $1 Loehne die Jensen angab waren alles andere als ein harmloser Witz.

NV muss die Profi-Maerkte weiterhin mit GF100-wasauchimmer fuettern, welches wohl heisst dass sie entweder den heutigen chip weiter herstellen werden oder sie haben das Ding durch einen re-spin getrieben. Ein re-spin ist aber ziemlich teuer und dass sie damit hypothetisch irgendwelche Probleme beseitigt haetten ist auch nicht garantiert.

Die einzige Tatsache ist dass sie nach aussen todstill geworden sind. Entweder haben sie einen Ass im Aermel den keiner vorhersehen konnte oder es gibt eben nichts wirklich besonderes auf ihrer road-map bis zu 28nm. Die Chancen fuer die erste These sind geringer als fuer die zweite.

Hugo78
2010-09-20, 10:14:49
Da klar ist, dass man noch über 1 Jahr mit dem 40nm klar kommen muss, wird Nvidia sicherlich schauen, wo sie im Rahmen ihre Möglichkeiten noch Leistung rausholen können.
Ob nun rein über bessere Steppings, oder per erweiterem Design bestehender Chips.
Also ein "1.5x GF104", als 485, 475 und als Neuauflage der 465 (ähnlich der 260 216cores), dürfte sich über die Zeit bis ende 2011 durchaus bezahlt machen.
Die orginal GF104 kann man ja weiterhin als 460 und mögliche 490/495 verkaufen.

Und mit Blick auf de Verschiebung des 55nm GT200b damals und der aktuellen 40nm Chips, wird so ein "1.5x Chip" eventuell auch noch bis Frühjahr 2012 verkauft werden müssen.
Nvidia tut sich ja immer etwas schwer, mit kleineren Prozessen.
Aber gut, sie bauen ja nicht schon seit 1969 Chips, wie das Intel und AMD tun.

Ailuros
2010-09-20, 11:04:11
Nochmal NV braucht chips fuer die Profi-Maerkte. Wie manche von Euch sich vorstellen wollen dass NV ploetzlich nur wafer fuer weitergehende GF100 Produktion nur die Profi-Maerkte verschwenden wird ist mir persoenlich fremd.

Ich lass mich gerne eines besseren belehren aber so wie GF104 ausgelegt ist ist dieser und auch jeglicher Ableger eben nicht geeignet fuer die Profi-Maerkte. Ausser sie haben einen anderen chip entwickelt der mit 104 nichts direkt zu tun hat und mit 3*16 wird es wohl auch nichts zu tun haben, was dann wieder auf einen GF100-Nachfolger zurueckkommt.

Ab Q3 haetten Tesla 2070/6GB Loesungen erscheinen sollen. Bisher scheinen weder die C2070 noch S2070 Loesungen (wenn's ueberhaupt eine solche geben wird) erhaeltlich zu sein. Die Quadros 6000 haben schon 6GB framebuffer und wohl die gleichen Frequenzen wie die Teslas; beim letzteren ist der TDP bei 225W und wenn dieses nicht gelogen ist, dann ist es gutes Stueck runter von den 238W TDP eines Tesla 2050/3GB.

Aber fuer Tesla's da die Dinger auf 24/7 Basis laufen muss NV die chips dafuer mit der Hand aussuchen fuer die hoechstmoegliche Hitze-Toleranz ueberhaupt. Eine zukuenftige nur begrenzte Herstellung von GF100 chips waere daher u.a purer Bloedsinn.

Hugo78
2010-09-20, 12:35:35
Tja, ist die Frage was wichtiger ist.
Überarbeiten muss NV den GF 100 so oder so.

Gasti
2010-09-20, 12:49:25
Tja, ist die Frage was wichtiger ist.
Überarbeiten muss NV den GF 100 so oder so.

Den Teslamarkt zu vernachlässigen währe tödlich.
Dort wird langfristig gedacht/entwickelt und dort hat man jetzt den Vorteil so lange INTEL/AMD dort keine richtige Konkurrenz sind, was sich in Zukunft ändern kann und wird.
Im Spielermarkt ist es Das nicht der Fall und ob man jetzt dort Marktführer ist oder nicht hat auf die Zukunft einen weit kleineren Einfluss

Fetza
2010-09-20, 13:01:26
Tja, ist die Frage was wichtiger ist.
Überarbeiten muss NV den GF 100 so oder so.

Die frage läßt sich aber äußerst leicht beantworten, der profi markt. Warum? Ganz einfach, dort spielt geld keine rolle. Wieviel leute kaufen sich grakas über 300? Einen tesla beschleuniger verkauft nv für mehrere tausend euro.

Ein gf104 im vollausbau und mit 800 mhz coretakt schlägt eine gtx 470 deutlich. Demzufolge wäre das ein idealer chip um gegen atis refresh anzutreten. Für das high-end nimmt man dann die gx2 version des gf104. Und für die absolute performancekrone im single chip design kommt dann ein gf100 im vollausbau als respin.

Dural
2010-09-20, 13:01:33
da die GF10x so wenig DP power haben werden wir sicher keinen 12x48 Chip sehen da NV den GF100 für den Tesla markt benötigt.

also gibt es nur GF100b oder nächstes jahr den nachfolger in form von GF110...


Streuung...

Ich denke er ist weder besser noch schlechter geworden, nur die Streuung ist jetzt geringer weshalb man sich 1,8Ghz durch die bank erlaubt statt 1,7ghz bei gt215.

hab selber eine GT240 und die macht 2300MHz bei 1,000Volt VGPU, so was kann man beim Fermi bis jetzt vergessen!

(ich hätte es bis jetzt jedenfalls noch nie gesehen)

Die Fermi Karten die ich bis jetzt hatte (GF100, GF104, GF106) machen alle so um die 1900-2100MHz bei geringer VGPU und der GF100 ist immer am unteren ende, kann natürlich auch einfach an der Grösse des Chips liegen oder die in der regel deutlich höhere Chip Temperatur... Es ist so wie so sehr beeidruckent das man durch höhere Temperaturen auch sehr negative auswirkungen auf den Verbrauch hat. nur zb. mit einer GTX470 unter Furmark gemessen:

70°C GPU Temp. 810Watt

90°C GPU Temp. 840Watt

Idle 450Watt

(Eine GTX470 @ 810/2000MHz / 1,087Volt)

Gasti
2010-09-20, 13:09:52
Die frage läßt sich aber äußerst leicht beantworten, der profi markt. Warum? Ganz einfach, dort spielt geld keine rolle. Wieviel leute kaufen sich grakas über 300? Einen tesla beschleuniger verkauft nv für mehrere tausend euro.

Ein gf104 im vollausbau und mit 800 mhz coretakt schlägt eine gtx 470 deutlich. Demzufolge wäre das ein idealer chip um gegen atis refresh anzutreten. Für das high-end nimmt man dann die gx2 version des gf104. Und für die absolute performancekrone im single chip design kommt dann ein gf100 im vollausbau als respin.

Das sehe ich ähnlich.
Damit währe man zwar kein Marktführer im Spielerbereich mehr, aber hätte auch keine zusätzlichen R&D kosten durch einen neuen Chip(das währe Geldverbrennung)

Im HPC-Markt spielt der Preis natürlich auch eine Rolle inform von Preis/Leistung im Anwendungsgebiet und Leistung/Abzuführende Wärme und da ist NV eben reinen x86-CPU Systemen in vielen Fällen sehr weit voraus.

Spasstiger
2010-09-20, 13:10:48
Die PCGH konnte im Releasetest die GTX 480 mit 2300 MHz Speichertakt (write clock) bzw. 4,6 Gbps betreiben: http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=16.

Gast
2010-09-20, 17:03:02
ATI hat beim Wechsel auf DX11 definitiv das Verhältnis Performance/Transistor verschlechtert. Vom RV790 (959 Mio. Transistoren) auf Cypress (2150 Mio. Transistoren) gab es nur eine Leistungssteigerung von max. 100% und rund 60% im Schnitt.

Bei NV war es eben schon früher der Fall, beim Wechsel von G8x/G9x auf G2xx hat sich die (Spiele)Performance/Transistor deutlich verschlechtert. Klar dass es dann für die DX11-Karten im Verhältnis besser aussieht, vor allem GF104 ist ja fast auf G200-niveau.

Thunder99
2010-09-20, 18:14:16
Ein gf104 im vollausbau und mit 800 mhz coretakt schlägt eine gtx 470 deutlich. Demzufolge wäre das ein idealer chip um gegen atis refresh anzutreten. Für das high-end nimmt man dann die gx2 version des gf104. Und für die absolute performancekrone im single chip design kommt dann ein gf100 im vollausbau als respin.

Wie soll das gehen, wenn die GTX470 mehr ROP und Shader hat? Die GTX470 könnte man ja auch noch hoch takten (700-800Mhz)...

Black-Scorpion
2010-09-20, 19:00:01
Und für die absolute performancekrone im single chip design kommt dann ein gf100 im vollausbau als respin.
Was habt ihr nur alle mit einen GF100 im Vollausbau? Es gibt von der gesamten GF10x Serie nicht eine GPU im Vollausbau. Selbst der beste in der Serie der GF104 ist es nicht. Meint ihr Nvidia macht das aus Langeweile? Träumen ist ja schön und gut, aber man sollte die Realität nicht aus den Augen verlieren.

Hugo78
2010-09-20, 19:08:35
Also ich versteh beim besten Willen nicht, was an den R&D Kosten so gewaltig sein soll, das man hier nicht getrennt den HPC und High End Gaming Bereich bedienen können soll.
Zum mal das Design für den "1.5x GF104" schon quasi vorhanden ist.

Die Teslas und Quadros sind stark beschnitten (448, 352 & 256 Cores) großartig weiter selktieren sollte hier nicht nötig sein.
Eher doch ein verbessertes Stepping, für weniger Ausschuß.

Und wie schon richtig bemerkt wurde, im HPC Bereich macht man mit den großen Chips noch Kohle, ganz im Gegensatz zu einer GTX 470 ab 240€ oder einer 465 ab 172€.
Die HTP Gegenstücke kosten 4000€, bzw. 2000€ ...

Ich glaub kaum das die R&D kosten für ein beinah fertig entwickeltes Design höher sind, als die Verluste mit der 470 und 465. :rolleyes:

Coda
2010-09-20, 19:17:05
Was habt ihr nur alle mit einen GF100 im Vollausbau? Es gibt von der gesamten GF10x Serie nicht eine GPU im Vollausbau. Selbst der beste in der Serie der GF104 ist es nicht. Meint ihr Nvidia macht das aus Langeweile? Träumen ist ja schön und gut, aber man sollte die Realität nicht aus den Augen verlieren.
Auf welcher Basis meinst du das so genau einschätzen zu können?

HOT
2010-09-20, 19:18:09
Den Teslamarkt zu vernachlässigen währe tödlich.
Dort wird langfristig gedacht/entwickelt und dort hat man jetzt den Vorteil so lange INTEL/AMD dort keine richtige Konkurrenz sind, was sich in Zukunft ändern kann und wird.
Im Spielermarkt ist es Das nicht der Fall und ob man jetzt dort Marktführer ist oder nicht hat auf die Zukunft einen weit kleineren Einfluss
Dort gibt es aber keine Konkurrenz für NV. Warum also grade da was neues bringen? Ich finde, das ist genau falsch herum gedacht. Den Markt muss man solange melken mit vorhandenen Produkten wie es geht, da auf absehbare Zeit auch keine richtige Konkurrenz zu erwarten ist. Tesla zu erweitern macht erst dann Sinn, wenn man auch einen neuen Fertigungsprozess zur Verfügung hat. Eine neue Rev. wird es vom GF100 nur dann geben, wenn sich damit die Ausbeute verbessern lässt. Wunder in Sachen Leistungsaufnahme braucht man da sowieso nicht erwarten. Das Teil ist nunmal so gross und schluckt nunmal soviel. Man hat versucht die Märkte mit dem Chip zu kombinieren und hat schnell gesehen, dass das nicht funktioniert. Deshalb braucht man überhaupt einen High-End-Consumer-Chip.
I.Ü. kommen jetzt auch tatsächlich mal wieder richtig grafiklastige Spiele wie Black Prophecy oder Gothic4 auf den Markt. Das hats ja schon lange nicht mehr gegeben.

Leonidas
2010-09-20, 19:18:10
Naja, das beschnittene Speicherinterface der GTS450 zählt nicht - das ist sicher nicht wegen der Verbesserung der Produktionsausbeute beschnitten. Somit sind GTS450 und zukünftig GT430 schonmal Vollausbau.

Und machbar ist Vollausbau bei GF104 auf jeden Fall aufgrund der Massen an abgesetzten GTX460 (wenn nur 1% der Chips voll funktionstüchtig sind, kommt man aufgrund der produzierten Menge trotzdem auf eine gangbare Zahl). Wenn NV clever ist, sammelt man die ganze Zeit voll funktionstüchtige GF104-Dies, die 850 MHz auf vernünftiger TDP schaffen ;)

Viel was anderes kann man ja sowieso nicht machen, da man keine neue Architektur vor 28nm hat und daher Fermi über das nahezu komplette Jahr 2011 retten muß. Wahrscheinlich wird NV im Winter/Frühjahr eine Refresh-Generation auf Basis der aktuellen Chips, aber mit mehr freigeschaltete HW-Einheiten und mehr Takt als SI-Antwort auflegen. Oder wenigstens (mehrere) punktuelle Ergänzungen in Preisbereichen, wo NV schlecht aussieht.

Gast
2010-09-20, 19:20:43
Auf welcher Basis meinst du das so genau einschätzen zu können?

Auf Basis der vorliegenden Fakten? Oder glaubst du NV deaktiviert aus Spaß bei jedem Chip Einheiten?

Dural
2010-09-20, 19:21:37
für selektieren sind die GeForce GF100 Karten sicher nicht nötig.... ganz im gegenteil die GTX480 verwendet ja sogar die höchste ausbaustuffe!

Die Produktions-Menge wäre aber nur mit den Tesla / Quadro Karten so extrem gering... Keine ahung ob das noch rentabel wäre...

Was habt ihr nur alle mit einen GF100 im Vollausbau? Es gibt von der gesamten GF10x Serie nicht eine GPU im Vollausbau. Selbst der beste in der Serie der GF104 ist es nicht. Meint ihr Nvidia macht das aus Langeweile? Träumen ist ja schön und gut, aber man sollte die Realität nicht aus den Augen verlieren.

GF106 M mit allen 192SP und 24ROP

und sorry, aber du musst wohl träumen wenn du tatsächlich denkst das NV keine vollen Fermi Chips ausliefern kann! beim GF100 mag dies vieleicht stimmen, aber sicher nicht bei den GF104/6/8 Chips!!!

und bis jetzt gibt es nur eine GF104 Karte und die dürfte aus kosten gründen nur 336SP haben, wie so sollte NV auch einen vollen GF104 für eine 140.- Euro Karte verscherbeln??? zudem die Leistung völlig ausreicht... oder sollen sie eine Konkurenz gegen ihr eigenes Produkt in form der GTX470 hinstellen?!?

NV macht das sehr bewusst und logisch

Coda
2010-09-20, 19:22:40
Es gibt auch strategische Überlegungen, beispielsweise nicht im Bereich der GF100-Karten zu wildern und sich Spielraum für später freizuhalten. War doch bei G92 nicht anders.

Die sehr gute Übertaktbarkeit der GF104-Chips spricht ziemlich gegen die Theorie von schlechten Yields. Das hängt direkt miteinander zusammen.

Gast
2010-09-20, 19:25:24
Es gibt auch strategische Überlegungen, beispielsweise nicht im Bereich der GF100-Karten zu wildern und sich Spielraum für später freizuhalten. War doch bei G92 nicht anders.

Die sehr gute Übertaktbarkeit der GF104-Chips spricht ziemlich gegen die Theorie von schlechten Yields. Das hängt direkt miteinander zusammen.

Auch GF100 lässt sich sehr gut übertakten. Und ich wüsste nicht was defekte Einheiten mit dem Takt der funktionierenden Einheiten zu tun haben.

aylano
2010-09-20, 19:26:41
Und machbar ist Vollausbau bei GF104 auf jeden Fall aufgrund der Massen an abgesetzten GTX460. Wenn NV clever ist, sammelt man die ganze Zeit voll funktionstüchtige Dies, die 850 MHz auf vernünftiger TDP schaffen ;)

Was macht das für einen Sinn, diese gesammelten GF104 in Vollausbau nach der der HD 6x00-Serie einzuführen, die in Sachen Performance sowie Performance-pro-Watt in der GTX460 Gegend zulegen soll?

Wirtschaftlich sinnvoller wäre es wennschon gewesen, die gesammelten GF104-Voll vor HD 6x00 zu bringen.

Coda
2010-09-20, 19:29:02
Auch GF100 lässt sich sehr gut übertakten. Und ich wüsste nicht was defekte Einheiten mit dem Takt der funktionierenden Einheiten zu tun haben.
Binning. Wenn ein SM den Takt nicht schafft ist der ganze Chip für eine bestimmte SKU nicht geeignet.

Defekt ist so spät in der Produktion bei einem so kleinen Chip eigentlich wenig.

Wirtschaftlich sinnvoller wäre es wennschon gewesen, die gesammelten GF104-Voll vor HD 6x00 zu bringen.
Das überall doch mal den BWLern von NVIDIA. Die werden schon wissen was sie tun.

Gast
2010-09-20, 19:29:55
Es gibt auch strategische Überlegungen, beispielsweise nicht im Bereich der GF100-Karten zu wildern und sich Spielraum für später freizuhalten. War doch bei G92 nicht anders.


NV hat aber nicht den Luxus den sie damals hatte wo die Konkurrenz praktisch nicht vorhanden war. Ganz im Gegenteil, sie sind erheblich zu spät und deutlich unter Druck. Da hält man sicherlich nichts aus solchen Gründen zurück, dondern setzt ab was irgendwie geht.

=Floi=
2010-09-20, 19:30:31
es gibt auch noch den quadro markt.


es ist einfach schade, dass NV bisher keinen vollausbau des GF104 gebracht hat.
Ein respin des GF100 könnte sich aber schon lohnen, wenn man dann auf das liveau des GF104 kommen würde und die leckströme besser in den griff bekommen würde. Es passt ja vieles, nur ist die umsetzung des chips einfach verbesserungswürdig.

kann man ungefähr abschätzen wie viel einheiten von einem GF100 abgesetzt werden müssen um auf eine schwarze null zu kommen? wo verdient NV eigentlich das geld für das R&D der chiparchitekturen? sind das die teuren und großen chips mit der marge, welche auch als erstes auf den markt kommen, oder wird das geld dafür mit der massenware gemacht?


edit
der GF104 IST bereits die konkurrenz für die 470er. kein normaler mensch kauft sich jetzt noch nen GF100, wenn ich ein eck günstiger auch einen GF104 haben kann und ggf. beim GF100 refesh dort zuschlagen kann.
aktuell fährt man mit dem GF100 einfach besser.

edit2
vielleicht bringt man den vollen GF104 auch auf 950-1000mhz und taktet den GDDR5 speicher auch noch wesentlich schneller um die kleinere GF6850 angreifen zu können. für möglich halte ich das schon.
nv kommt durch die masse an GF104 chips einfach in den genuss auch sehr gute chips selektieren zu können.

Coda
2010-09-20, 19:31:37
NV hat aber nicht den Luxus den sie damals hatte wo die Konkurrenz praktisch nicht vorhanden war. Ganz im Gegenteil, sie sind erheblich zu spät und deutlich unter Druck. Da hält man sicherlich nichts aus solchen Gründen zurück, dondern setzt ab was irgendwie geht.
GF104 ist in seinem Marktsegment sehr erfolgreich und darüber haben sie die GF100-Linie, die sie auch verkaufen müssen. Wenn sie das nicht mehr tun dann lohnt sich der Chip für die Teslas nicht und der ist strategisch wichtig.

Sorry, aber die "in jedem GF10x-Chip ist mindestens irgendwas kaputt" These ist einfach unsinnig. Das wird dir jeder bestätigen der sich mit Chipdesign etwas auskennt.

Dural
2010-09-20, 19:32:46
Massenware in form von GF106 und GF108 und vieleicht noch was mit den GF104

Ein GF100 könnte alleine nie und nimmer die kosten rein holen!

Und ja, wir werden solange keinen vollen GF104 sehen solange es die GTX470 gibt / NV die verkaufen muss...

Gast
2010-09-20, 19:34:45
Binning. Wenn ein SM den Takt nicht schafft ist der ganze Chip für eine bestimmte SKU nicht geeignet.

Defekt ist so spät in der Produktion bei einem so kleinen Chip eigentlich wenig.

Sehe ich nicht so. Es ist offensichtlich das es kein Taktproblem gibt, ganz im Gegenteil. Es braucht nur am von AMD schon mehrmals ins Spiel gebrauchte via Problem des 40nm Prozesses liegen, wenn NV das nicht berücksichtigt hat haben sie eben ein Problem.

David Wang, ATI’s VP of Graphics Engineering at the time, had concerns about TSMC’s 40nm process that he voiced to Carrell early on in the RV740 design process. David was worried that the metal handling in the fabrication process might lead to via quality issues. Vias are tiny connections between the different metal layers on a chip, and the thinking was that the via failure rate at 40nm was high enough to impact the yield of the process. Even if the vias wouldn’t fail completely, the quality of the via would degrade the signal going through the via.

http://www.anandtech.com/show/2937/9

Coda
2010-09-20, 19:38:20
Als ob man das inzwischen nicht im Griff hätte, vor allem nach der Erfahrung mit GF100. Bei AMD funktioniert's doch auch.

Zudem dürfte 40nm TSMC inzwischen auch weit weniger problematisch sein.

Gast
2010-09-20, 19:40:39
Als ob man das inzwischen nicht im Griff hätte, vor allem nach der Erfahrung mit GF100. Bei AMD funktioniert's doch auch.

Zudem dürfte 40nm TSMC inzwischen auch weit weniger problematisch sein.

AMD hat bei jedem 40nm Chip laut eigenen Aussagen die vias verdoppelt. Das kostet Transistoren und das kann man nicht mal eben so einbauen.

aylano
2010-09-20, 19:45:02
Das überall doch mal den BWLern von NVIDIA. Die werden schon wissen was sie tun.
Sicher wissen sie was sie tun. Aber es zeigt, dass sie gar nicht so viele Möglichkeiten haben.
Schließlich brachten sie ja auch viele unterschiedliche GTX260 raus.

Nochmal NV braucht chips fuer die Profi-Maerkte. Wie manche von Euch sich vorstellen wollen dass NV ploetzlich nur wafer fuer weitergehende GF100 Produktion nur die Profi-Maerkte verschwenden wird ist mir persoenlich fremd.
Ich sehe kein Problem einen GF100 bzw. Nachfolger für den Profi-Markt und einen für GF zu entwickeln.

Nur müsste Nvidia neben dem Spitzen-Modell auch ein Masse-Modell (niedriger Takt und eventuell höherer Spannung) und ein Drittes Modell (defekte einheiten werden Teildeaktiviert) anzubieten.

Zuest halt nur das Spitzen-Modell (GF 100 & Nachfolger), was sowohl im Tesla als auch im Quadro-Markt verwendet werden kann.
Immerhin macht Nvidia da jetzt 200 Mio. $ Umsatz. Das ist fast so viel wie AMD zu schlechten Zeiten, wo sie die vollständige R&D-Kosten sowie 3-4 Die-Designs auf den Gesamten Umsatz-Umlegen mussten.

Coda
2010-09-20, 19:45:41
Vias kosten keine Transistoren sondern Platz in den Verdrahtungslayern.

Spielt auch alles keine Rolle. Letztendlich kann hier keine wissen was wirklich Sache ist. Ich halte Absicht jedenfalls für mindestens genauso wahrscheinlich wie Produktionsprobleme.

Bucklew
2010-09-20, 19:55:06
Ich sehe kein Problem einen GF100 bzw. Nachfolger für den Profi-Markt und einen für GF zu entwickeln.
Dafür ist der Markt nicht groß genug.

Gast
2010-09-20, 19:55:09
Vias kosten keine Transistoren sondern Platz in den Verdrahtungslayern.

Spielt auch alles keine Rolle. Letztendlich kann hier keine wissen was wirklich Sache ist. Ich halte Absicht jedenfalls für mindestens genauso wahrscheinlich wie Produktionsprobleme.

Ich sehe wenig Gründe das man absichtlich Chips deaktiviert. Bei GF100 gibt es da schonmal genau 0. Bei GF104 könnte man höchstens die GTX470 ins Feld führen, aber auch hier muss man sagen das wusste man auch schon vorher. Und dann hätte es auch keine GTX460 geben dürfen, denn die macht der GTX465 ebenso Konkurrenz.

Black-Scorpion
2010-09-20, 20:00:00
Der Vergleich mit ATI dürfte auch hinken. Wie AIL geschrieben hatte, hat ATI vorher auf die Probleme reagiert. Und das hat Nvidia wohl nicht getan.

Dural
2010-09-20, 20:14:02
und noch mal, GF106 und GF108 gibt es schon jetzt als voll version...

http://www.nvidia.com/object/product-geforce-gtx-460m-us.html

http://www.nvidia.com/object/product-geforce-gt-435m-us.html

und wie so es kein voller GF104 derzeit gibt dürfte mitlerweilen JEDER begriffen haben, das würde mit einem schlag die GTX470 EOL machen... und eine GTX475 müsste her, die aber der GTX480 gefährlich nahe kommen müsste was nichts anderes bedeutet das NV einen GF100 512SP und 700MHz + benötigen würde was derzeit wohl gar nicht möglich wäre (verbrauch) und zurfolge einen GF100b braucht (den es noch nicht gibt!) der da abhilfe schafft....

entlich geschnallt? ;)

Coda
2010-09-20, 20:17:34
Bei GF100 gibt es da schonmal genau 0.
Das ist auch ein anderer, und vor allem viel größerer Chip.

Gast
2010-09-20, 20:25:12
und noch mal, GF106 und (GF108) gibt es schon jetzt als voll version...

http://www.nvidia.com/object/product-geforce-gtx-460m-us.html

und wie so es kein voller GF104 derzeit gibt dürfte mitlerweilen JEDER begriffen haben, das würde mit einem schlag die GTX470 EOL machen... und eine GTX475 müsste her, die aber der GTX480 gefährlich nahe kommen müsste was nichts anderes bedeutet das NV einen GF100 512SP und 700MHz + benötigen würde was derzeit wohl gar nicht möglich wäre (verbrauch) und zurfolge einen GF100b braucht (den es noch nicht gibt!) der da abhilfe schafft....

entlich geschnallt? ;)

Nein, weil es keine Sinn ergibt. Wenn man mit Gf104 GTX470-Leistung erreicht dann wird die GTX470 eben EOL. Und? Gf104 ist eh wesentlich billiger für NV. Die defekten GF100-Chips verscherbelt man ohnehin im Profibereich und bei den Notebooks.

Gast
2010-09-20, 20:26:44
Nein, weil es keine Sinn ergibt. Wenn man mit Gf104 GTX470-Leistung erreicht dann wird die GTX470 eben EOL. Und? Gf104 ist eh wesentlich billiger für NV. Die defekten GF100-Chips verscherbelt man ohnehin im Profibereich und bei den Notebooks.

Die GTX465 wurde aus genau dem selben Grund EOL, weil eben die GTX460 kam. Die Argumentation widerspricht sich schon selbst.

Dural
2010-09-20, 20:26:51
jo und die ganzen GF100 448SP Chips wirft man auf den Müll und ersetzt die durch einen vollen GF104, kommt so natürlich viel billiger alles klar! ;)

es gibt sogar eine GTX465... wie so gab es die wohl? doch nur um irgend welche ramsch GF100 Chips noch los zuwerden...

Gast
2010-09-20, 20:28:37
jo und die ganzen GF100 448SP Chips wirft man auf den Müll und ersetzt die durch einen vollen GF104, alles klar ;)


Schade das du nicht lesen kannst. Teildeaktivierte GF100 werden bei den Quadros, bei den Teslas, bei den Notebooks verkauft.

Gasti
2010-09-20, 20:29:41
Dort gibt es aber keine Konkurrenz für NV. Warum also grade da was neues bringen? Ich finde, das ist genau falsch herum gedacht. Den Markt muss man solange melken mit vorhandenen Produkten wie es geht, da auf absehbare Zeit auch keine richtige Konkurrenz zu erwarten ist. Tesla zu erweitern macht erst dann Sinn, wenn man auch einen neuen Fertigungsprozess zur Verfügung hat. Eine neue Rev. wird es vom GF100 nur dann geben, wenn sich damit die Ausbeute verbessern lässt. Wunder in Sachen Leistungsaufnahme braucht man da sowieso nicht erwarten. Das Teil ist nunmal so gross und schluckt nunmal soviel. Man hat versucht die Märkte mit dem Chip zu kombinieren und hat schnell gesehen, dass das nicht funktioniert. Deshalb braucht man überhaupt einen High-End-Consumer-Chip.
I.Ü. kommen jetzt auch tatsächlich mal wieder richtig grafiklastige Spiele wie Black Prophecy oder Gothic4 auf den Markt. Das hats ja schon lange nicht mehr gegeben.

So würde eine Firma agieren, die bereits hohe Umsätze in diesem Markt generiert.
Das ist aber nicht der Fall und dass ein Grafikchip mit HPC "Image" derart viel FF-HW besitzt die im HPC-Bertrieb unnötig Energie verbraucht wird wohl in Zukunft auch nicht tragbar sein.

Dural
2010-09-20, 20:29:55
Schade das du nicht lesen kannst. Teildeaktivierte GF100 werden bei den Quadros, bei den Teslas, bei den Notebooks verkauft.

in welchem verhältnis zum Desktop bereich??? 1:100? 1:1000? 1:10000? denkt mal drüber nach! ;)

Leonidas
2010-09-20, 20:31:41
Naja, so wie es aussieht ist nur die GeForce GTX 480M im Notebook-Bereich GF100-basiert. Die wird wohl weniger verbaut werden als NV Mitarbeiter hat, einfach schon aufgrund der TDP-Klasse.

Mit dem Profibereich haste aber Recht. Irgendwie müssten die 200 Mio Umsatz damit doch ausreichend sein, GF100 nur dafür laufen zu lassen. Teildeaktivierte Chips oder mal 20W mehr TDP interessieren dort doch niemanden.


PS zur Absatzmenge zwischen Profi und Desktop: 1:10000 mag ja für den gesamten Desktop-Markt stimmen - aber absolute Spitzenprodukte wie eine GTX480 haben auch nur Marktanteile von 1-3%, sind also keinesfalls so weit weg von der Absatzsumme der Profi-Beschleuniger wie der Gesamtmarkt.

Gast
2010-09-20, 20:33:10
LOL

in welchem verhältnis zum Desktop bereich??? 1:100? 1:1000? 1:10000? denkt mal drüber nach! ;)

Als ob man so viele GF100 brauchen würde. Wenn die GTX470 EOL wird bleibt eh nur mehr die GTX480. Selbst wenn die Yields schlecht sind sollte das wohl reichen.

Wenn man natürlich für eine GTX480 zehn noch mehr defekte Chips bekommt ist das blöd, aber dann sollte man das Design ohnehin schleunigst überarbeiten.

Gast
2010-09-20, 20:33:44
Naja, so wie es aussieht ist nur die GeForce GTX 480M im Notebook-Bereich GF100-basiert. Die wird wohl weniger verbaut werden als NV Mitarbeiter hat, einfach schon aufgrund der TDP-Klasse.

Mit dem Profibereich haste aber Recht. Irgendwie müssten die 200 Mio Umsatz damit doch ausreichend sein, GF100 nur dafür laufen zu lassen. Teildeaktivierte Chips oder mal 20W mehr TDP interessieren dort doch niemanden.

Sicher nicht.
Die R&D Kosten für GF100 waren ganz sicher deutlich höher als 200Mio.

Dural
2010-09-20, 20:37:32
offensichtlich macht GF100 immer noch probleme
und NV hat massenhaft 448SP< Chips

ehm hallo wann gab es schon mal das von einem Chip bis zur hälfte (von 512 auf 256SP) Deaktiviert wurde?

Die GTX465 beweisst das nur zu gut... und die GTX460 dürfte sich sehr gut verkaufen lassen, NV hätte genügend mengen um zu selektieren!

und wenn man GTX470 EOL gehen lässt, hätte NV noch genügend mengen um GTX480 GPUs zu selektieren? das zieht sich endlos weiter...

Hugo
2010-09-20, 20:41:45
ich denk auch, dass sich die GF104/GF106/GF108'er sehr gut fertigen lassen da sie ja schließlich im A1 Stepping verbaut wird. Was auf wenig Probleme schließen läßt

Gast
2010-09-20, 20:42:20
Das ist auch ein anderer, und vor allem viel größerer Chip.

Welten liegen da auch nicht gerade dazwischen. GF104 ist mit den 370mm² noch immer sehr groß, wohl zu groß.

Gast
2010-09-20, 20:44:06
ich denk auch, dass sich die GF104/GF106/GF108'er sehr gut fertigen lassen da sie ja schließlich im A1 Stepping verbaut wird. Was auf wenig Probleme schließen läßt

Könnte auch ganz einfach auf einen dezenten Zeitdruck schließen lassen. ;)
Und damit hat man dann auch gleich die Erklärung warum keine vollen Chips. Würde mich nicht wundern wenn der volle GF104 erst mit A2 Stepping kommt. ;)

Dural
2010-09-20, 20:44:11
ist die GTX465 übrigens schon EOL? hätte davon noch nie was gehört und lieferbar sind sie noch in grösseren mengen!

Zeigt ja nur das NV eben doch sehr viele minderwertige GF100 Chips haben muss, den dieses Produkt kann unter normalen umständen NIE rentabel sein!!! Wenn da jetzt noch der GTX470 absatz einbrechen würde...

Langer text kurzer sinn, ich glaube nicht das es irgend welche ausbeutungs probleme beim GF104 gibt!

deekey777
2010-09-20, 20:44:21
Wenn sie sich gut fertigen lassen, warum werden die GF104 und GF106 nur teildeaktivert verbaut? A1 sagt eher, dass Nvidia keine andere Wahl hatte, als teildeaktivierte GPUs fertigen zu lassen.

V2.0
2010-09-20, 20:48:51
Ich denke man hebt sich die vollen Chips für den Launch der SI Serie bei ATI auf. So gut wie die Lieferbarkeit ist, halte ich es für völlig unwahrscheinlich, dass NV keine vollen Chips verbauen könnte.