Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 200 @ 40nm - GT21x (und DX10.1?)


Seiten : 1 [2] 3

Nakai
2009-03-05, 12:58:12
Zwar stimmt der zweite Satz, aber den ersten wuerde ich mir etwas besser ueberdenken an Deiner Stelle.

Das interessiert mich eh mal. Bei einem Chip versucht man eh erst die Architektur lauffähig zu machen, d.h. man fängt von ganz unten an. Aber wie läuft das genau? Nehmen wir mal den G80. Bei dem hat man bestimmt auch erst mit einem Cluster angefangen, oder so, und dann hat man den Chip nach oben skaliert. Mich würde es tierisch interessieren, wie die Entwicklung eines Chips abläuft.

Design problems became evident, since the GT200 was originally designed for the 65nm node.

Ein 40nm-Shrink ist wohl genau deswegen nicht so gut gelaufen. Der GT300 muss hier imo wohl deutlich besser abschneiden.


mfg Nakai

Ailuros
2009-03-05, 13:13:58
Das interessiert mich eh mal. Bei einem Chip versucht man eh erst die Architektur lauffähig zu machen, d.h. man fängt von ganz unten an. Aber wie läuft das genau? Nehmen wir mal den G80. Bei dem hat man bestimmt auch erst mit einem Cluster angefangen, oder so, und dann hat man den Chip nach oben skaliert. Mich würde es tierisch interessieren, wie die Entwicklung eines Chips abläuft.

Haette NVIDIA den G80 von einer 1 cluster aufwaerts entwickelt waere es vielleicht nie ein high end Design gewesen und wir wuerden heute keinen Tegra sondern einen mini-G80 in handhelds sehen.

G80 wurde so ausgelegt wie Du ihn kennst; das letzte Stadium ist dann stets die Festlegung der Frequenzen.

Ein 40nm-Shrink ist wohl genau deswegen nicht so gut gelaufen. Der GT300 muss hier imo wohl deutlich besser abschneiden.

Es gibt einen fundamentalen Unterschied zwischen einem shrink und einer Architektur die von Anfang an fuer Herstellungsprozess X ausgelegt wurde. Ich hab zwar nicht die geringste Ahnung wie es mit den groesseren 40nm Gt21x0 momentan aussieht, aber anstatt endlos Moneten in etliche respins eines chips zu stecken, ist es momentan weiser das Ganze einfach bleiben zu lassen, ueberhaupt wenn das Resultat nicht so stark der Rede wert ist.

Es sind sowieso verschiedene Design-Teams die an Projekt A, B oder C arbeiten. Wenn NV jetzt z.B. irgendwo Ende Sommer 2008 den GT212 storniert hat, hat man auch eventuell das Personal fuer dieses Projekt woanders eingelegt.

reunion
2009-03-05, 13:19:02
Zwar stimmt der zweite Satz, aber den ersten wuerde ich mir etwas besser ueberdenken an Deiner Stelle.

Ohne Tapeout kein Silizium?!

Ailuros
2009-03-05, 13:22:37
Ohne Tapeout kein Silizium?!

Kein Produktionsreifes Silizium ja. Will aber der IHV etwas von dem Zeug momentan vorzeigen um es einem Hersteller "anzudrehen" bekommt er momentan mit Sicherheit keinen Simulator vor die Nase geknallt und dieses gilt fuer alle 3 D3D11 GPUs.

AnarchX
2009-03-05, 13:23:57
Ohne Tapeout kein Silizium?!
Vielleicht via Shuttle?

Hugo
2009-03-05, 14:08:44
Ohne Tapeout kein Silizium?!

Das Tapeout heißt, dass der Chip fertig entickelt (Produktionsreif für die Massenproduktion) in die Produktion geht.
Vorher gibts Engineering-Wafer um die Produktion einzufahren und Fehler im Design zu finden.
Ich denke schon dass es Muster vom GT300 gibt.

AnarchX
2009-03-05, 22:24:34
Fudo: Nvidia's 40nm generation should be a killer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12422&Itemid=1)

Ailuros
2009-03-07, 07:56:57
Fudo: Nvidia's 40nm generation should be a killer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12422&Itemid=1)

Dass NV ziemlich euphorisch darueber ist, ist wirklich nichts Neues und ja es kann alles oder gar nichts heissen. Auf jeden Fall scheint bis jetzt alles nach Plan gehen. Es wird bald einen Artikel von einer zuverlaessigen Seite geben ueber etwas dass nichts mit NV oder AMD zu tun hat, aber wichtige Parallelen zum GT3x0 geben koennte.

Falls ich alle Indizien nicht falsch deuten sollte liegt der groesste positive Punkt in der Leistung/Watt Relation. Wenn ich Huang's Geblubber ueber Ion's Zukunft nicht falsch deuten sollte, wird der GT218 Nachfolger kein besonderer Kopfschmerz sein.

IMHLO zielt NV gerechtfertigt auf die Schwaechen die sich schon seit einiger Zeit fuer Intel LRB erraten konnten: Stromverbrauch und Treiber-kompatibilitaet.

reunion
2009-03-07, 10:48:17
Fudo: Nvidia's 40nm generation should be a killer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12422&Itemid=1)

Leider wird man überhaupt nicht schlau daraus was er damit überhaupt meint. Vermutlich eher GT300 als die 40nm Skrinks. GT218 wird hier als Performance-Chip statt als Lowend-Chip bezeichnet der allerdings erst im Q3 kommen soll und damit schon gegen AMDs D3D11-Chips antreten soll. Ob die Euphorie gerechtfertigt ist wird sich zeigen, bei GT200 sprachen auch alle im Vorfeld von einem Monster gegen das ATi keine Chance haben wird.

IMHLO zielt NV gerechtfertigt auf die Schwaechen die sich schon seit einiger Zeit fuer Intel LRB erraten konnten: Stromverbrauch und Treiber-kompatibilitaet.

Auf den Stromverbrauch würde ich nicht wetten.

Ailuros
2009-03-09, 08:07:51
Leider wird man überhaupt nicht schlau daraus was er damit überhaupt meint. Vermutlich eher GT300 als die 40nm Skrinks. GT218 wird hier als Performance-Chip statt als Lowend-Chip bezeichnet der allerdings erst im Q3 kommen soll und damit schon gegen AMDs D3D11-Chips antreten soll. Ob die Euphorie gerechtfertigt ist wird sich zeigen, bei GT200 sprachen auch alle im Vorfeld von einem Monster gegen das ATi keine Chance haben wird.

Euphorie vor der Veroeffentlichung ist fuer beide (wenn nicht alle IHVs generell) normal. Es kann tatsaechlich alles oder gar nichts heissen, dieses gilt aber fuer beide IHVs (entschuldige alle 3) momentan.

Auf den Stromverbrauch würde ich nicht wetten.

Bei der Chipkomplexitaet des GT200@65nm haelt sich das Leistungs pro Watt Niveau ziemlich gut ueberhaupt gegen RV770. Ich verglich erstmal ausdruecklich gegen LRB und zweitens hat sich im Bereich Stromverbrauch sowieso nichts besonderes in GT200 im Vergleich zu G80 geaendert. GT200's eigentliches Problem ist dass sich Leistung pro Transistor oder pro mm2 (umberechnet) nicht analog gegenueber G80 in Spielen gesteigert hat. Waere diese Analogie besser auf GT200, wuerde das Leistung/Watt Niveau noch besser aussehen.

Ich kann Deine Vorbehaltungen schon verstehen, aber es wird nicht lange dauern bis ich auf Basis einiger Details die bald erscheinen werden, eine ziemlich naive Erklaerung geben kann wie man sehr hohe ALU-Frequenzen mit weit weniger Leckstroemen verbauen kann. Hab es also bitte nicht so eilig bevor die fette Dame ausgesungen hat.

V2.0
2009-03-09, 08:24:23
Die schlechten Nachrichtenzu GT21X beziehen sich nur auf den Chip, der gemeinhin als GT212 bezeichnet wurde. Dieser 10.1 Chip in 40nm macht Probleme und es gibt wohl Anzeichen, dass seine Marktspanne zwischen den heutigen Chips und G300 zu gering ist, als dass NV das Projekt noch verfolgt.

Der Rest der GT21X liegt auf Kurs.

Ailuros
2009-03-09, 08:30:08
Die schlechten Nachrichtenzu GT21X beziehen sich nur auf den Chip, der gemeinhin als GT212 bezeichnet wurde. Dieser 10.1 Chip in 40nm macht Probleme und es gibt wohl Anzeichen, dass seine Marktspanne zwischen den heutigen Chips und G300 zu gering ist, als dass NV das Projekt noch verfolgt.

GT212 und jeglicher GT21x sind afaik nur D3D10 chips. Zweitens wenn das erste storniert wurde dann eher wegen interner Sparmassnahmen seit Q3 2008 und nichts anderes.

reunion
2009-03-09, 08:48:21
Oder weil der 40nm Prozess ganz einfach noch nicht in der Lage ist mehr als Lowcost-Chips mit anständigen Yieldrate zu produzieren. Zumindest könnte man den Eindruck bekommen wenn man solche Dinge ließt:

According to our sources, NVIDIA's attempts to produce a die-shrunk 40nm GT200 chip were "disastrous at best". Design problems became evident, since the GT200 was originally designed for the 65nm node. Two shrinks in a row without a major redesign was just too much for NVIDIA, and our most recent information from Taiwan is that the first 40nm chips from NVIDIA will be in the GeForce 300 series.

http://www.dailytech.com/article.aspx?newsid=14480

V2.0
2009-03-09, 08:48:51
Ja, natürlich sind alle GT21X D10. Ich bin mir bei dem Topmodell der GT21X zwischenzeitlich ziemlich sicher, dass er gestrichen wurde, weil

a) die 55nm Serie spät war
b) GT300 gut liegt
c) durch die Wirtschaftskrise kein "Platz" mehr für "GT212" war

Noch gehe ich aber davon aus, dass andere Mitglieder der GT21X Familie doch das Licht der Welt erblicken werden.

Ailuros
2009-03-09, 09:17:33
Ja, natürlich sind alle GT21X D10. Ich bin mir bei dem Topmodell der GT21X zwischenzeitlich ziemlich sicher, dass er gestrichen wurde, weil

a) die 55nm Serie spät war

55nm sah etliche respins IMHLO um den Stromverbrauch auf dem bestmoeglichen Niveau zu halten.

b) GT300 gut liegt

Bei seiner Erscheinung brauchen sie aber auch eine Performance GPU und aus GT3x0@40nm wird ohne kleineren Herstellungsprozess daraus nichts.

c) durch die Wirtschaftskrise kein "Platz" mehr für "GT212" war

Noch gehe ich aber davon aus, dass andere Mitglieder der GT21X Familie doch das Licht der Welt erblicken werden.

Bingo fuer beide. Ich hab erst in der letzten Woche erfahren dass sie neben Entlassungen auch zum Unschaufeln von Personal Ende Sommer 08 gegriffen haben. Wurde GT212 storniert, dann haben sie auch logischerweise das gesamte Team umgeschaufelt und man pruegelt wohl am Ende das Ganze mit der 285 durch. Es ist ja nicht so dass AMD ihren RV790 auf 40nm hergestellt hat am Ende.

***edit:

OT aber die JPR Resultate fuer den Profi Markt fuer 2008:

http://www.xbitlabs.com/news/other/display/20090306232423_Workstation_Market_Also_Suffers_Economic_Crisis__Jon_Peddie_Resea rch.html

V2.0
2009-03-09, 10:17:51
Ja, der Perfromancemarkt ist die große Frage. Erstmal hat man sich ja mit der GT250 Luft verschafft. Nur ob man mit G92b bis zum Performancederivat der GT300-Serie durchhalten will. Andererseits kann diese Variante evtl. auch schnell kommen, wenn man das ganze Line-Up möglichst schnell auf DX11 umstellen will und Resourcen entsprechend umverteilt hat. Theoretisch könnte man ja das GT212/214 Team auf GT300 Performance ansetzen und den so nach vorne bringen.
Kommt der Performance GT300 Q4/09 ist das besser,als ein DX10 GT21X in 3Q/09.

Ailuros
2009-03-11, 08:21:01
Ja, der Perfromancemarkt ist die große Frage. Erstmal hat man sich ja mit der GT250 Luft verschafft. Nur ob man mit G92b bis zum Performancederivat der GT300-Serie durchhalten will. Andererseits kann diese Variante evtl. auch schnell kommen, wenn man das ganze Line-Up möglichst schnell auf DX11 umstellen will und Resourcen entsprechend umverteilt hat.

Fuer Performance bzw. Mainstream-Varianten des GT3x0 braeuchten sie logischerweise etwas <40nm.

Theoretisch könnte man ja das GT212/214 Team auf GT300 Performance ansetzen und den so nach vorne bringen.
Kommt der Performance GT300 Q4/09 ist das besser,als ein DX10 GT21X in 3Q/09.

GT21x (ausser 212 die IMHLO gestrichen wurde) werden G92b spaeter ersetzen (ohne dass ich irgendwelche besondere Leistungs-aenderungen fuer diese gegenueber G92b erwarte). RV740 fuer AMD ist alles andere als ein echter "hard launch" momentan.

Zum GPGPU Zeug generell:

http://www.nvidia.com/object/io_1236688777098
http://www.xbitlabs.com/news/video/display/20090310150300_Nvidia_to_Provide_Incentives_to_Developers_of_Non_Game_Applicatio ns_for_Graphics_Processors.html

V2.0
2009-03-11, 08:36:51
Das ist imho nicht sicher, dasss man für Performance <40nm braucht. DX11, 40nm und 4Q/09 können im Performancesegment imho durchaus Sinn machen.

Zumindest kann ich da einen gewissen Reiz in der Lösung erkennen.

Ailuros
2009-03-11, 08:57:31
Das ist imho nicht sicher, dasss man für Performance <40nm braucht. DX11, 40nm und 4Q/09 können im Performancesegment imho durchaus Sinn machen.

GT21x@40nm zuerst, GT3xx@32nm spaeter. GT3x0 wird IMHLO ueber 500qmm gross sein; ergo wuerde ich mir die Wirtschaftlichkeit eines GT3x0 Performance chips unter 40nm etwas besser ueberdenken.

Zumindest kann ich da einen gewissen Reiz in der Lösung erkennen.

Finanziell gesehen sicherlich nicht.

V2.0
2009-03-11, 09:26:14
Es wäre hatl die Frage wie groß die Performancevariante wäre. 500qmm ist ja das Topmodell.

AnarchX
2009-03-11, 09:43:47
Zumal sich wohl auch die Frage stellt, inwiefern man für die Performance-Variante (Gamer-Markt) das volle Featureset eines GT300 benötigt.

Wenn die >500mm² stimmen sollte, reden wir hier über fast 3 Mrd. Transitoren, die sich wohl nicht nur aus D3D11 und der höhren Leistung zusammensetzen, sondern wohl wieder eine gehörige Portion an GPGPU-Technologie um Larrabee im HPC-Markt in die Schranken zu weisen.

V2.0
2009-03-11, 09:47:04
Geht man von eimem etwas G92 großen Chip aus, könnte ein solcher D3D11 Chip in 40nm durchaus interessant positioniert sein. Der Markt für G92 Aufrüster ist ziemlich groß.

Denkt man auch noch an die zunehmende Bedeutung von GreenIT, so könnte ein TDP<150W DX11 Performancechip schon reizvoll sein. Entschlackt man ihn entsprechend ist es schon denkbar ein hinreichendes Speedupgrade gegenüber G92 zu realisieren und ihn zwischen 220-275qmm groß zu machen.

Ailuros
2009-03-11, 09:48:00
Es wäre hatl die Frage wie groß die Performancevariante wäre. 500qmm ist ja das Topmodell.

G80@90nm = 681M, 484mm2
G92@65nm = 754M, 324mm2

Kein besonders gutes Beispiel, denn das 2.5x ALU:TMU Ratio war nicht umsonst, aber ich kann mir auch schwer vorstellen dass ein vergleichbarer GT21x@40nm mit einer GT200b nicht um die 210-230mm2@40nm liegen wuerde.

1. Kann ich mir nicht vorstellen dass ein Performance Gt3x0@40n kleiner als 350mm2 waere.

2. Wo zum Henker soll NV die Entwicklungsunkosten fuer die GT200 Familie wieder reinholen? Es gibt momentan nur high end SKUs von der Architektur; das Zeug wurde bis jetzt weder in den Schlepptop noch in niedrigere desktop Segmente skaliert.

V2.0
2009-03-11, 10:02:42
G92 war aber leistungsmäßig >= G80. Ein GT30X der theoretisch im Q4/09 käme, müßte eigentlich "nur" GT200 Leistungswerte erreichen um einen hinreichend Abstand (inkl Dx11 Feature) zu G92b zu haben.

Wie aber schon gesagt, glaube ich auch nicht an einen solchen Chip, aber ich kann da schon einen Reiz drinne sehen. Auch wenn man die GT2XX Investitionen schlechter refinanziert, wenn GT21X nur für Mainstream und Low-End käme. Andererseits beginnt die Refinanzierung der GT300 Kosten schneller, wenn kleinere Derivate früher erscheinen.

Ailuros
2009-03-11, 10:38:17
G92 war aber leistungsmäßig >= G80.

Bei welcher Aufloesung genau schneller?

Ein GT30X der theoretisch im Q4/09 käme, müßte eigentlich "nur" GT200 Leistungswerte erreichen um einen hinreichend Abstand (inkl Dx11 Feature) zu G92b zu haben.

Wie viele Faelle kennst Du genau (ausser ein paar Aussnahmen wo sich der high end chip um etliche Monate verspaetet hat) dass high end mit niedrigeren Varianten zur gleichen Zeit erscheint?

Wie aber schon gesagt, glaube ich auch nicht an einen solchen Chip, aber ich kann da schon einen Reiz drinne sehen. Auch wenn man die GT2XX Investitionen schlechter refinanziert, wenn GT21X nur für Mainstream und Low-End käme. Andererseits beginnt die Refinanzierung der GT300 Kosten schneller, wenn kleinere Derivate früher erscheinen.

Noch mehr in Zeiten wie die heutigen ist man nicht so bloed und bohrt ein nutzloses Loch in die GT2x0 Rechnung fuer etwas was GT3x0 spaeter (2010/2011) sowieso wieder hereinholen wird.

deekey777
2009-03-11, 12:32:04
Nur so eine Idee: Wenn die mit dem 185er Treiber bekannt gewordene AO-Option im Treiber bleibt, was eine extrem shaderlastige Angelegenheit ist und sehr viel Rechenleistung verlangt, braucht man eine Grafikkarte, die ausreichend Rechenleistung hat und sich von der aktuellen Generation absetzen kann.

AnarchX
2009-03-11, 12:37:22
Vielleicht sind ja Ursache und Wirkung in diesem Fall vielleicht auch gerade umgekehrt. ;)

Für den mittlerweile wohl begrabenen GT212, mit einem deutlichen Zuwachs an arithmetischer Leistung, wäre das sicherlich eine nette Anwendung gewesen, mit der man diese Leistung sinnvoll und zeitnah in der Praxis hätte umsetzen können.

Ailuros
2009-03-11, 13:24:01
Nur so eine Idee: Wenn die mit dem 185er Treiber bekannt gewordene AO-Option im Treiber bleibt, was eine extrem shaderlastige Angelegenheit ist und sehr viel Rechenleistung verlangt, braucht man eine Grafikkarte, die ausreichend Rechenleistung hat und sich von der aktuellen Generation absetzen kann.

Dumme (aber ehrliche) Frage: was zum Henker ist diese AO-Option?

Gast
2009-03-11, 13:34:14
was zum Henker ist diese AO-Option?

ambient oclusion.

Ailuros
2009-03-11, 14:02:47
ambient oclusion.

Ambient occlusion ist eher im Experiment Stadium und ist eigentlich fuer die naechste Generation gedacht.

AffenJack
2009-03-11, 14:31:18
Wie will nv dann aber den rv870 bekämpfen, wenn man nur gt300 im highend bringt?
Du hast ja selber gesagt, dass in 40nm vorm gt300 nur noch ne performance gpu kommen wird. So wenn das ding nun etwas über g200b leistung mit deutlich kleinerer diefläche bringt, hilft das nv zwar erstmal, sobald rv870 erscheint ist hat man aber in dem bereich nen großes problem. Denn der sollte doch deutlich schneller als nen g2xx sein. Selbst wenn gt300 dann der hammer ist, bringts dann nicht soviel, wenn man im unteren bereich nix hat.

Gast
2009-03-12, 00:31:01
Hm? RV870 wird doch DX11 Derivat, warum sollte der vor GT300 kommen.
Die G9x Serie wird alles unter einer GTX260 abdecken müssen. In 40nm geht das sicher, da kann man einen G96 (GF9400) takten und als neue 9600GT/GT130 verschachern.

pervert
2009-03-12, 04:41:05
Kann mir keiner Erzählen, dass der GT212 nicht kommt und das ganze Jahr nichts besseres als GTX285 erhältlich sein wird und dann zum Ultrahighend GT300 ne riesige Lücke klafft. Nonsens.

Was bitteschön soll diese Lücke schließen, wenn nicht GT212?? Abgespeckte GT300er erst in einem Jahr??

Der GT200b wurde auch 1000x für tot erklärt, und dann ganz still und heimlich war er da...

Ailuros
2009-03-12, 08:02:13
Wie will nv dann aber den rv870 bekämpfen, wenn man nur gt300 im highend bringt?

Genauso wie sie mit GT200 gegen RV770 gewarkelt haben. Es waere natuerlich ideal wenn beide IHVs mit einer ganzen D3D11 GPU Familie von low bis high end zur gleichen Zeit ankommen koennte, aber es steht nicht im Raum des moeglichen ausser es gibt irgendwelches Missgeschick mit dem high end und dieses kommt sehr verspaetet.

Du hast ja selber gesagt, dass in 40nm vorm gt300 nur noch ne performance gpu kommen wird.

Eine Performance GT3x0 klingt verdammt unrentabel unter 40nm.

GT300 vs. RV870-X2
GT300 (kastriert) vs. RV870
GT200b vs. RV790 usw.

So wenn das ding nun etwas über g200b leistung mit deutlich kleinerer diefläche bringt, hilft das nv zwar erstmal, sobald rv870 erscheint ist hat man aber in dem bereich nen großes problem. Denn der sollte doch deutlich schneller als nen g2xx sein. Selbst wenn gt300 dann der hammer ist, bringts dann nicht soviel, wenn man im unteren bereich nix hat.

Siehe oben.

Gast
2009-03-12, 08:05:02
Kann mir keiner Erzählen, dass der GT212 nicht kommt und das ganze Jahr nichts besseres als GTX285 erhältlich sein wird und dann zum Ultrahighend GT300 ne riesige Lücke klafft. Nonsens.

Was bitteschön soll diese Lücke schließen, wenn nicht GT212?? Abgespeckte GT300er erst in einem Jahr??
Ist es nötig die Lücke zu schliessen?

Der +300€ Markt wird jetzt schon erheblich von MGPU beherscht.

pervert
2009-03-12, 10:36:48
Klar ist das nötig, man will ja wohl alle Märkte bedienen und in allen Bereichen auch führend sein. Man stelle sich mal vor, HD4890 wäre schneller als GTX285 oder hätte ein deutlich besseres P/L, was dann?? Das ganze Jahr womit Geld verdienen?

Nene, das Loch ist zu groß, da muss was her! Wann immer der GT212 kommt, er kommt bestimmt. Oder sollen abgespeckte GT300 etwa auch schon im Q4 da sein?

Ailuros
2009-03-12, 10:39:26
Etwas Humor hilft:

http://www.theinquirer.net/img/11862/charliemeetsNvidia.JPG

hahahahahahaha ;D

http://www.theinquirer.net/inquirer/news/369/1051369/charlie-meets-nvidian-pictured-

Gast
2009-03-12, 10:56:38
Etwas Humor hilft:

http://www.theinquirer.net/img/11862/charliemeetsNvidia.JPG

hahahahahahaha ;D

http://www.theinquirer.net/inquirer/news/369/1051369/charlie-meets-nvidian-pictured-

Rechts Charlie nehme ich an ;P ? Der sieht echt aus wieder der typische Nerd -.-

pervert
2009-03-12, 11:09:00
Was will der Psycho dort überhaupt? Warum liegt er nicht betend vor dem ATI Stand? ;)

Ailuros
2009-03-12, 11:36:50
Rechts Charlie nehme ich an ;P ? Der sieht echt aus wieder der typische Nerd -.-

Ich wuerde sagen dass Charlie wohl eher schwer ein T-shirt mit dem NVIDIA Logo tragen wuerde :biggrin:

Was will der Psycho dort überhaupt? Warum liegt er nicht betend vor dem ATI Stand? ;)

In Echtzeit plaudert er genauso gerne mit beiden; egal ob es eher aussieht auf dem Photo dass er dem NV Kerl gerne eine fette Ohrfeige verpassen wuerde :P

AnarchX
2009-04-01, 11:05:01
Und er lebt doch noch:

http://img24.imageshack.us/img24/2410/kecxlgh73z7ns6530605.jpg (http://img24.imageshack.us/my.php?image=kecxlgh73z7ns6530605.jpg)
http://img23.imageshack.us/img23/2161/13ev8m88ev6fs.jpg (http://img23.imageshack.us/my.php?image=13ev8m88ev6fs.jpg)
http://img23.imageshack.us/img23/6450/1p19qmbvo4a5s6566230.jpg (http://img23.imageshack.us/my.php?image=1p19qmbvo4a5s6566230.jpg)
http://translate.google.ch/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fvga%2F414%2F8778914.shtml&sl=zh-CN&tl=de&hl=de&ie=UTF-8

:D

reunion
2009-04-01, 11:06:01
Am 1. April wird fast alles tot geglaubte zum Leben erweckt.

Spasstiger
2009-04-01, 11:24:39
Sogar an 8 ROPs pro ROP-SI-Cluster wurde gedacht. Ganz schön umfangreicher April-Scherz.
Die Benchmarks sind allerdings unrealistisch, so eine Karte wäre keine 40-50% schneller als eine GTX 285.

AnarchX
2009-04-01, 11:26:50
Die Benchmarks sind allerdings unrealistisch, so eine Karte wäre keine 40-50% schneller als eine GTX 285.
Das "Sample":D dort taktet jedenfalls mit 750/1800/1000MHz und hat 2GiB GDDR5:
http://diy.yesky.com/imagelist/2009/090/b3p0v1c6k995.jpg

Was sagt dazu deine Simulation?

dargo
2009-04-01, 11:28:52
Sogar an 8 ROPs pro ROP-SI-Cluster wurde gedacht. Ganz schön umfangreicher April-Scherz.
Die Benchmarks sind allerdings unrealistisch, so eine Karte wäre keine 40-50% schneller als eine GTX 285.
Schade, denn damit hätten wir endlich GTX260x2. :D
Aber, dass gerade heute sowas durchsickert. ;)

AnarchX
2009-04-01, 11:30:27
Schade, denn damit hätten wir endlich GTX260x2. :D

Im April 2010 sollte es diese rein statistisch für 150€ geben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7199286&postcount=647 (88GT und GTX260 gleichen sich in etwa aus)
;)

dargo
2009-04-01, 11:34:30
Im April 2010 sollte es diese rein statistisch für 150€ geben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7199286&postcount=647 (88GT und GTX260 gleichen sich in etwa aus)
;)
Im April 2010 will ich schon irgendwas mit GTX260*4 haben. ;)

Sorkalm
2009-04-01, 11:40:25
Im April 2010 sollte es diese rein statistisch für 150€ geben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7199286&postcount=647 (88GT und GTX260 gleichen sich in etwa aus)
;)

Aber nur wenn man bedenkt, dass die Chips unendlich lange soviel größer werden (bei gleichen Preisen) wie es seit einigen Jahren läuft (betrifft alle Marktsegmente).

AnarchX
2009-04-01, 11:45:54
Aber nur wenn man bedenkt, dass die Chips unendlich lange soviel größer werden (bei gleichen Preisen) wie es seit einigen Jahren läuft (betrifft alle Marktsegmente).
Was heißt unendlich größer, jedenfalls April 2010 sind schon GPUs in 32nm realistisch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199656#post7199656
Also wohl min. doppelte Packdichte gegenüber 55nm und wenn NV mit GT300 mal etwas aufräumt, sollte da 2x GTX 260 doch mit einem recht wirtschafltichen Die und auch günstigeren GDDR5-PCB erreichbar sein. Auch bei ATi sehe ich für diesen Zeitraum wenig Probleme für eine solche SKU.
Und momentan sieht eine 4870 mit 260mm² Die mit etwa ~260-Leistung im Gesamtbild auch nicht so schlecht aus.

Spasstiger
2009-04-01, 11:47:17
Was sagt dazu deine Simulation?
Kann ich grad nicht testen, bin an der Uni. Aber man könnte es grob abschätzen über das geometrische Mittel.
"GTX 290 April 1st Edition" vs. GTX 285
Speicherbandbreite: 4 Gbps * 256 Bit = 128 GB/s vs. 159 GB/s (Faktor 0,81)
Rechenleistung: 1800 MHz * 384 SPs * 3 Flops/SP = 2074 GFlops vs. 1063 GFlops (Faktor 1,95)
Texelfüllrate: 750 MHz * 96 TMUs => 72 GTexel/s vs. 51,84 GTexel/s (Faktor 1,39)
Pixelfüllrate: 750 MHz * 32 ROPs => 24 GPixel/s vs. 20,7 GPixel/s (Faktor 1,16)
Geometrisches Mittel: (0,81*1,95*1,39*1,16)^0,25=1,26
Mein Skript berücksichtigt auch noch andere Leistungsfaktoren und gewichtet die Faktoren vorher. Aber grob um die 30% Vorteil müssten hinkommen.

Die 2 GiB VRAM sollten in den aufgeführten Benchmarks - wenn überhaupt - nur einen geringfügigen Einfluss haben.

V2.0
2009-04-01, 12:17:19
Natürlich immer nur, wenn Effizienz insg. unverändert blieb.

KonKorT
2009-04-01, 12:23:25
Am Ende des Artikels wird ausdrücklich darauf hingewiesen, dass es sich um einen April-Scherz handelt. Die Seite hat heute auch einen ersten Core i7 in 32 nm zeigen können. :)

AnarchX
2009-04-06, 15:20:36
The GT218 is supposed to debut next month, the GT216 shortly after, i think these are mainly intended as oem parts. The GT215(a 192 bit G92) is delayed till they can clear the G92/G94 stock, it is approx the same cost to produce as current 55m parts so nvidia are not going to hurry with it.
http://forum.beyond3d.com/showpost.php?p=1284507&postcount=298

Spasstiger
2009-04-07, 12:29:23
Was ist mit GDDR5, wird Nvidia auf den Zug mit dem GT215/GT216 aufspringen?

AnarchX
2009-04-07, 12:34:42
Wenn die Info oben stimmt und sich hinter GT215 wirklich ein G92 mit 192-Bit verbirgt, der durch 40nm wohl die 800/2000MHz GPU erklimmen könnte, dann sollte doch auch hier GDDR5 an Board sein, vielleicht 800MHz GDDR5 wie bei der 4770, womit man knapp über der Bandbreite einer GTS 250 wäre.

Immerhin brauch man ja doch für das H2 2009/Q1(?) 2010 wohl noch einen brauchbaren HD 4770 Gegenspieler, bei der AMD wohl mit besseren Yields auch die Option auf einer höher getaktete Version mit ~1GHz GDDR5 hat.

GeneralHanno
2009-04-07, 17:25:11
ich würde mal tippen auf:

GT212/214 - gecancelt, GT200b macht den job
GT215 - G92@40nm, 192bit SI
GT216 - G94@40nm, 128bit SI
GT218 - G96@40nm, 64bit SI

damit könnte man weiterhin auf die "transistoreneffizienten" cluster der G8x/9x reihe setzen, weil die "fetten" shader des GT200 im entry/mainstream bereich nicht besonders sinnvoll wären. durch den 40nm prozess spart man im vergleich zum 55nm prozess bis zu 50% diesize, man hat viel rohpower auf dem papier (immerhin 32SP im low-end markt) und durch die kleineren SIs spart man PCB kosten. bandbreite wird dann durch schnelleren speicher (GDDR5 im mainstream, im entry markt (G)DDR3 ) reingeholt.

wenn man mal etwas weiter blickt, dann sammelt man schonmal erfahrung mit 40nm und GDDR5 für den GT300. zudem würde ich mit einem GT3xx-mainstreamableger NICHT vor Q2/2010 rechen.

pervert
2009-04-09, 21:59:11
ich würde mal tippen auf:

GT212/214 - gecancelt, GT200b macht den job
[...]
zudem würde ich mit einem GT3xx-mainstreamableger NICHT vor Q2/2010 rechen.
Und den Job macht der GT200b in 55nm dann ein ganzes Jahr lang? Wers glaubt...
Hat Nvidia Geld zu verschenken und somit keinen Grund etwas Vergleichbares in 40nm rauszubringen?

Der GT200b wurde auch 100x totgesagt, irgendwann kam er dann doch und keiner beschwert sich darüber.

Gaestle
2009-04-10, 13:05:09
Möglicherweise würde die Umstellung auf 40nm (aus verschiedenen Gründen) mehr Geld kosten, als sie in der kurzen Zeit (bis G300 und Derivate kommen) einspielen kann.

pervert
2009-04-10, 15:38:56
So kurz ist die Zeit aber nicht, da gab es schon größere "Eintagsfliegen" und wer weiß wie lange diese Chips dann im Handel wären. Ich meine das alles ist doch langfristig geplant und in Entwicklung. Vielleicht kommt er ja wirklich nicht, aber ich sehe keine absolut zwingend logischen Gründe warum der GT212 immer wieder totgeredet wird, als sei das absolut sicher.

clockwork
2009-04-10, 16:05:41
Die Karten mit dem GT212 sollen, falls sie denn kommen, die GTX260 ersetzen, oder wie sieht das aus?

AnarchX
2009-04-10, 16:16:43
Die Karten mit dem GT212 sollen, falls sie denn kommen, die GTX260 ersetzen, oder wie sieht das aus?

Mit entsprechender Taktung könnte ein 96TMU-384SPs-GT212 auch eine GTX 285 ersetzen.

Da bleibt wirklich die Frage, ob Nvidia bis zu den kleineren GT300-Ablegern, die ich im späten H1 2010 @32nm erwarten würde, einen fast 500mm² GT200b gegen RV790 und später RV870Pro stellen will.:|

Gaestle
2009-04-10, 16:27:22
Wenn Sie genug Chips auf Halde haben und die Nachfrage nicht steigt, warum nicht?
Vielleicht kommen die G300-Derivate dieses mal auch eher?

Sorkalm
2009-04-10, 22:19:15
Naja, jenachdem wie groß RV870 wird, kann man wohl auch gegen die RV870Pro mit dem GT300 anrennen...

Insgesamt halte ich aber einen Performance-Chip @ 40 nm auch für Nvidia für sinnvoll.

Spasstiger
2009-04-10, 23:52:13
Insgesamt halte ich aber einen Performance-Chip @ 40 nm auch für Nvidia für sinnvoll.
Auf GT300-Basis wird da auch sicherlich was kommen. Und gegen den RV740 hat man nach wie vor den G92, der ja evtl. in Form des GT215 ein 40-nm-Revival erlebt.

Sorkalm
2009-04-10, 23:53:43
Auf GT300-Basis wird da auch sicherlich was kommen. Und gegen den RV740 hat man nach wie vor den G92, der ja evtl. in Form des GT215 ein 40-nm-Revival erlebt.

Auf GT300-Basis ist man nur halt schon, wie AnarchX andeutet, im späten 1H/2010, wenn alles klappt.
Das ist eine ganz schön lange Strecke die GT200b überwinden muss, als ein so Riesen-Chip...

Der_Korken
2009-04-11, 00:06:24
Ich könnte mir vorstellen, dass man einen reinen Shrink des GT200 in 40nm nachschiebt, wahrscheinlich dann mit kleinerem SI und dafür GDDR5. Ich halte es für unwahrscheinlich, dass Nvidia noch was schnelleres als die GTX285 bringen wird (höchstens noch durch höhere Taktraten), weil man damit auch dem GT300 ein wenig das Wasser abgraben würde.

Die werden schon wissen, was sie tun. Wenn der GT300 wirklich noch dieses Jahr kommt, lohnt sich ein überarbeiteter/geshrinkter GT200b vielleicht wirklich nicht mehr.

=Floi=
2009-04-11, 00:27:57
GT212 wird gebraucht. Daran wird nv nicht vorbeikommen.

pervert
2009-04-11, 00:53:59
Ich halte es für unwahrscheinlich, dass Nvidia noch was schnelleres als die GTX285 bringen wird (höchstens noch durch höhere Taktraten), weil man damit auch dem GT300 ein wenig das Wasser abgraben würde.

Wieso abgraben? Hier würde eine Lücke geschlossen für die es zahlende Kundschaft gibt! Nvidia möchte alle Märkte abdecken, es gibt heute für absolut jeden Geldbeutel die passende Grafikkarte und es kommen scheinbar immer feinere Abstufungen. Es gibt nicht nur Ultra High End und dann kommt die Mittelklasse. Und angenommen kleinere GT300 kommen erst spät (Verspätungen und etliche Respins sind wir alle gewohnt in den letzten Jahren), dann macht eine GT212 o. ä. (noch schneller als GTX285) umso mehr Sinn. Hier lässt sich Geld verdienen, oder wenigstens einsparen.

G92 macht auch heute noch die Mittelklasse, warum soll nicht ein geshrinkter G200b (auf Niveau einer GTX285 oder besser) noch lange dazu taugen? Lange genug, dass sich die Umstellung lohnt.

Eine riesige Lücke zum GT300 über längere Zeit, halte ich von allen Szenarien am unwahrscheinlichsten.

Lassen wir uns überraschen, ist noch nicht Q3 ;) Vorher kommt da sowieso nichts...

Spasstiger
2009-04-11, 01:42:41
Der größte Umsatz wird doch eh im Mainstream-Segment gemacht und bislang kann NV mit dem GT200b offenbar ja auch gegen den RV770 und RV790 kontern. Im Mainstream haben schon 40-nm-Chips von NV ihr Tapeout hinter sich, gegen den RV740 wird man also sicherlich gewappnet sein. Und im oberen Segment macht man halt weniger Gewinn.
Sobald der GT300 da ist, kann man mit abgespeckten Variante auch die Lücke zum GT200b schließen.

Ailuros
2009-04-11, 02:05:13
Lassen wir uns überraschen, ist noch nicht Q3 ;) Vorher kommt da sowieso nichts...

Wuerde Gt212 noch leben, haetten wir schon seit Wochen von seinem tapeout gehoert. Nur so nebenbei GT3x0 finales tapeout ist fuer Juni vorgesehen.

dargo
2009-04-11, 11:24:37
Der größte Umsatz wird doch eh im Mainstream-Segment gemacht und bislang kann NV mit dem GT200b offenbar ja auch gegen den RV770 und RV790 kontern.
GT200b ist heute Mainstream, zumindest auf einer GTX260. ;)

pervert
2009-04-11, 13:15:49
Wuerde Gt212 noch leben, haetten wir schon seit Wochen von seinem tapeout gehoert. Nur so nebenbei GT3x0 finales tapeout ist fuer Juni vorgesehen.
Sind das nicht eigentlich Geschäftsinterna, müssen diese immer hinausposaunt werden?
Wusste man eigentlich davon beim G200b? Der wurde doch bis kurz vor Erscheinen auch immer totgesagt.

Gaestle
2009-04-11, 14:31:40
Sind das nicht eigentlich Geschäftsinterna, müssen diese immer hinausposaunt werden?
Wusste man eigentlich davon beim G200b? Der wurde doch bis kurz vor Erscheinen auch immer totgesagt.


Wahrscheinlich sind zu viele Seiten in einem solchen Prozess infolviert, als dass man den einfachen Fakt, dass ein bestimmter Chip ein Tape-Out hatte, verheimlichen könnte.

AnarchX
2009-04-16, 10:14:24
Die OEM-Roadmap von Nvidia für das 2. bis 3. Quartal und das Back to school Line-up:

http://img177.imageshack.us/img177/9901/rm1i.jpg
http://img18.imageshack.us/img18/8792/rm2z.jpg
http://img19.imageshack.us/img19/8256/rm4p.jpg

http://pao.pcpop.com/showtopic-2794.html

Höchstwahrscheinlich sind hier schon ein paar 40nm GPUs dabei.

Interessant auch die Performance GTS 2xx im 3. Quartal die NV über der GTS 250 einordnet, wohlmöglich ein GT215 mit höheren Taktraten und entsprechend schnellem GDDR5.

Zudem wird wohl die GTX 260 bald nur noch mit einem 6-Pin daherkommen (150W), vielleicht auch ein kürzeres PCB. Mit einem 1.06V G200b sollte das absolut kein Problem sein, selbst bei FurMark ist man hier nur knapp über 150W.

Ansonsten im High-End wie schon länger berichtet bis zum 4. Quartal (GT300) gähnende Leere...

reunion
2009-04-16, 10:45:49
Bleibt die Frage wieviel davon tatsächlich neue 40nm Chips sind und wieviel nicht bloß weiterer Rebrandingaktionen.

Sorkalm
2009-04-16, 11:21:45
Bleibt die Frage wieviel davon tatsächlich neue 40nm Chips sind und wieviel nicht bloß weiterer Rebrandingaktionen.

Kann eigentlich nur die GTS 2xx sowie die GT 240/230 aus dem dritten Quartal sein.

AnarchX
2009-04-16, 11:28:45
In gewissen Punkten scheint die Roadmap wohl auch nicht mehr so aktuell zu sein: GTS 240 wurde ja fallen gelassen.
Wobei man im OEM-Bereich vielleicht daran fest hält?

Hinter GT 210/220 könnte sich imo auch GT218 verbergen, Fudo hatte das ja vor längerem schon angedeutet (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11868&Itemid=1). Auch sieht der DDR3-Einsatz bei der GT 220 doch etwas danach aus.

Interessant ist auch noch die GTX 260 mit der Bezeichnung D10U-15, die sich von der Bezeichnung und auch graphisch in der Roadmap unter der D10U-20 GTX 260 einordnet.
Vielleicht ein mögliches Comeback der 192SPs GTX 260 @ 55nm um diese sicher in eine 150W TDP unterbringen zu können? Zudem würde man auch hier wieder einen vernünftigeren Abstand zur GTX 275 schaffen.

reunion
2009-04-16, 11:30:23
Kann eigentlich nur die GTS 2xx sowie die GT 240/230 aus dem dritten Quartal sein.

Mhm, vor den Q3 scheinen bei nV wohl keine neuen 40nm Chips zu kommen.

/Edit: Achso GT210/220 im Mainstream könnte tatsächlich 40nm Chips sein.

AnarchX
2009-04-16, 11:37:41
Mhm, vor den Q3 scheinen bei nV wohl keine neuen 40nm Chips zu kommen.
Diese Aussage sieht aber anders aus:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7218921#post7218921

GT218 -> GT 210/220 (die GT 120 die hier ersetzt wird ist immerhin ein voller G96 @ 500/1400/500MHz (http://www.nvidia.com/object/product_geforce_gt_120_us.html), die von VR-Zone gezeigte(PCB-Schema) D10M1-30 ist übrigens G210, da wird wohl ein GT218 @ 16SPs zum Einsatz kommen, damit hätte diese doppelt soviel Shader-Leistung wie der Vorgänger G100, der auch auf 576/1400MHz taktet, aber eben nur einen 8TMU-8SPs-G98 besitzt)

GT216 -> GT 230 (löst die 192-Bit 48SPs 9600GS ab, mit laut der Roadmap wohl 128-Bit @ DDR2, sodass hier die höhere GPU-Leistung (64SPs?) offenbar einen Ausgleich gegenüber dem reduzierten SI bringt, später wohl mit DDR3 als GT240)

GT215 -> GTS 2xx (in dem Forum wo die Roadmaps herkommen, nennt man GTS 255 (128SPs) und GTS 245 (112/96SPs), aber wie im B3D schon verkündet wohl erst im 3. Quartal, wie es auch die Roamap sieht)

igg
2009-04-18, 10:21:16
Weiß man eigentlich wieso der GT212 gecancelled wurde?
We won't bring up why the GT212 was canned and the GT214 became the GT215, that would simply be impolite. We have no reason to badmouth TSMC like some greener folk who really should read DFM rules.
(Quelle (http://www.theinquirer.net/inquirer/news/818/1051818/nvidia-gt300-promised-october)) Wenn ich Charlie richtig verstehe soll TSMC daran Schuld sein?

N1truX
2009-04-18, 11:26:14
Da kann vieles dran schuld sein. Denkbar wäre auch die WWK, sinkende R&D Gelder und damit eine Fokussierung auf den GT300 - siehe hier (http://www.hardware-infos.com/news.php?news=2892)

LovesuckZ
2009-04-18, 11:36:30
Hardware-Infos schreibt viel, wenn der Tag lang ist. Weder hatten sie Informationen zu irgendwelchen Chips, noch haben sie wissen über Beweggründe. Aussagen, dass solch ein Chip erstmal entwickelt werden müsste und deswegen jetzt abgesagt wurden wäre oder das AMD darauf reagiert hätte und deswegen den rv790 nicht in 40m fertigen ließ, sind kompletter unsinn. Man sollte die Seite und dem xxx bezüglich Vorhersagen einfach nicht wahrnehmen.

AnarchX
2009-04-18, 11:44:04
Zumal GT212 Silizium schon existierte, wie der 185.20er Treiber zeigte.
Im Endeffekt wird Charlie mit seiner letzten Andeutung in Richtung Problemen bei TSMC wohl am nächsten dran sein, die dann wohl ziemlich massiv gewesen sein müssen, wenn man nach einen initialen Tape-Out ein Design cancelt.

N1truX
2009-04-18, 11:49:17
Zumal GT212 Silizium schon existierte, wie der 185.20er Treiber zeigte.
Im Endeffekt wird Charlie mit seiner letzten Andeutung in Richtung Problemen bei TSMC wohl am nächsten dran sein, die dann wohl ziemlich massiv gewesen sein müssen, wenn man nach einen initialen Tape-Out ein Design cancelt.
Obwohl das eh in die HWI These mit reinspielt. Bei AMD scheint der 40 nm Prozess ja zu funktionieren und so scheint man eben nicht das geld zu haben/nutzen zu wollen um den GT212 voranzutreiben. Die Probleme waren also sicherlich schon entsprechend groß.

KonKorT
2009-04-18, 12:16:46
Hardware-Infos schreibt viel, wenn der Tag lang ist.
Wir geben unser bestes.

Weder hatten sie Informationen zu irgendwelchen Chips, noch haben sie wissen über Beweggründe.
Na klar. Von wem kommen noch mal die ganzen Grafikkarten und Prozessoren? Gut...

Man sollte die Seite und dem xxx bezüglich Vorhersagen einfach nicht wahrnehmen.
Eher sollte man deine Postings nicht mehr wahrnehmen. Du hast es echt super drauf, stets ohne irgendwelche Argumente, gegen AMD und Hardware-Infos abzuziehen.

Zur Newsmeldung. In der werden folgende Fakten dargelegt:
1.) unerwartete Wirtschaftskrise
2.) zwei Verlustquartale für Nvidia in 2008
3.) Fokussierung auf Next-Generation
4.) Probleme beim 40 Nanometer-Verfahren

Das alles sind gut überprüfte Fakten! Ich habe keine Lust mehr, mich für sämtliche News, die hier verlinkt werden, rechtfertigen zu müssen, daher bitte ich die Moderation, gegen Beiträge vorzugehen, die bewusst und ohne jede Argumente den Ruf einer Seite schädigen wollen.

PS: Lieb wäre mir, wenn wir auf Grundlage der oben genannten Fakten weiterdiskutieren könnten.

MartinRiggs
2009-04-18, 12:31:35
Gewisse Member hier kann man einfach nicht für voll nehmen, davon würde ich mich nicht ärgern lassen.:wink:
Hr. L..... haut immer auf die Pauke wenn es um NV oder NV-Produkte geht:rolleyes:

=Floi=
2009-04-18, 12:39:49
seiten die zu viel spekulieren und nichts handfestes bringen sind auch nicht gerade der hit. damit ist uns auch nicht wirklich geholfen!
Die lage wird sich für NV sicherlich nicht verbessern, wenn sie keine neuen karten bringen. Das ist ein trugschluß und erst durch diese stümperhafte umbenennerei und aufwärmerei haben sie sich erst in diese lage gebracht. ich hätte mir den GT212 sicherlich gekauft, wenn sich die technischen gegebenheiten bewahrheitet hätten. Beim GT300 hätte ich dann auf einen refresh gewartet...

LovesuckZ
2009-04-18, 12:41:50
Eher sollte man deine Postings nicht mehr wahrnehmen. Du hast es echt super drauf, stets ohne irgendwelche Argumente, gegen AMD und Hardware-Infos abzuziehen.

Wie solle ich gegen haltlose Behauptungen argumentieren können? Eure Spekulationen sind haltlos, da ihr keine Quellen besitzt.


Zur Newsmeldung. In der werden folgende Fakten dargelegt:
1.) unerwartete Wirtschaftskrise
2.) zwei Verlustquartale für Nvidia in 2008
3.) Fokussierung auf Next-Generation
4.) Probleme beim 40 Nanometer-Verfahren

Das sind keine Fakten, dann sind Thesen für die Aussage, dass der GT212 abgesagt wurde. Woher willst du wissen, dass es Probleme beim 40nm Prozeß gäbe? Woher willst du wissen, dass man sich nur auf die nächste Generation konzentriere? Woher willst du wissen, dass die Absage durch die Wirtschaftskrise erfolgt?


Das alles sind gut überprüfte Fakten! Ich habe keine Lust mehr, mich für sämtliche News, die hier verlinkt werden, rechtfertigen zu müssen, daher bitte ich die Moderation, gegen Beiträge vorzugehen, die bewusst und ohne jede Argumente den Ruf einer Seite schädigen wollen.

Ich kann euren Ruf nicht beschädigend, indem ich behaupte, dass eure Spekulationen nicht eintreffen und ihr deswegen nicht beachtet werden solltet. Ich schreibe weder die Spekulationen noch verbreite ich sie im Netz. Und solange wie ihr nicht belegen könnt, dass ihr über diese Informationen von einer Quelle verfügt, seid ihr in der Beweispflicht.

Das Spekulieren eines jeden einzelnen aufgrund eigener Annahmen ist willkommen. Das Spekulieren aufgrund von erdachten Quellen und das verkaufen dieser als imperative Behauptungen dagegen ist das schlimme. Ich kann über vieles spekulieren, aber ich würde nie als Fakt darstellen - und dann noch mit "Quellen" beweisen, die ich as Geheim einstufe. Das ist falsch und ziemlich widersprüchlich.

KonKorT
2009-04-18, 12:59:37
Wie solle ich gegen haltlose Behauptungen argumentieren können? Eure Spekulationen sind haltlos, da ihr keine Quellen besitzt.
[...]
Und solange wie ihr nicht belegen könnt, dass ihr über diese Informationen von einer Quelle verfügt, seid ihr in der Beweispflicht.
Was erwartest Du denn, was da als Quelle steht? Den Vollnamen, von dem wir die Information haben? Diejenige, von denen wir die Informationen bekommen, wollen verständlicherweise unbekannt bleiben.
Wenn es von offizieller Seite, einem Pressesprecher kommt, kennzeichnen wir das auch immer entsprechend.

Das sind keine Fakten, dann sind Thesen für die Aussage, dass der GT212 abgesagt wurde.
Doch das sind ansich Fakten! Ich nutze sie, um eine These aufzubauen. Das sollte deutlich werden.

Woher willst du wissen, dass es Probleme beim 40nm Prozeß gäbe? Woher willst du wissen, dass man sich nur auf die nächste Generation konzentriere? Woher willst du wissen, dass die Absage durch die Wirtschaftskrise erfolgt?
Weil ich mich in den entsprechenden Kreisen bewege. Wenn man sich täglich mindestens vier Stunden mit Hardware beschäftigt, Kontakt zu Herstellern pflegt etc. entwickeln sich solche Kontakte. Aber das habe ich dir auch schon mal breit und lang erklärt. Denke, Du erinnerst dich.

Letzteres weiß ich aber in der Tat nicht. Das ist nur ein Faktum, das ich in die These eingebaut habe. Als solches ist es aber auch in der News kenntlich.

LovesuckZ
2009-04-18, 13:15:06
Was erwartest Du denn, was da als Quelle steht? Den Vollnamen, von dem wir die Information haben? Diejenige, von denen wir die Informationen bekommen, wollen verständlicherweise unbekannt bleiben.
Wenn es von offizieller Seite, einem Pressesprecher kommt, kennzeichnen wir das auch immer entsprechend.[/quote|

Quellen müssen einsehbar sein - Primärquellen. Sind sie es nicht, muss man auf die sich daraufbeziehenden Sekundärquellen beziehen.
Und der Begriff "Presssprecher" hat die selbe Aussagekraft wie der "Weihnachtsmann", wobei zweitens noch gekärt werden muss, ob er wirklich nicht existiert. Ohne Name und Belege der Aussagen, ist die Seriosität der Behauptung nicht vorhanden.

[quote]
Doch das sind ansich Fakten! Ich nutze sie, um eine These aufzubauen. Das sollte deutlich werden.

Ein Fakt ist belegbar und für jeden einsehbar. Der Fakt, dass der GT212 abgesagt wurde, ist ein Widerspruch, da es keinen Fakt gibt, dass es solch einen Chip in irgendeiner Form gegeben hätte. Eure Spekulationen, dass er wegen a), b), c) und d) abgesagt wurden, sind genauso nicht belegbar, wie die Existenz des GT212 mit


Man wollte mit dem Chip zum einen die Shaderanzahl von 240 auf 384 um 60 Prozent erhöhen und zum anderen das Shader-TMU-Verhältnis auf 4:1 verbessern. Schließlich sollte auch noch das Speicherinterface von 512 auf 256 Bit halbiert werden, stattdessen aber auf GDDR5- statt GDDR3-Speicher gesetzt werden.

http://www.hardware-infos.com/news.php?news=2892

KonKorT
2009-04-18, 13:25:05
Quellen müssen einsehbar sein - Primärquellen. Sind sie es nicht, muss man auf die sich daraufbeziehenden Sekundärquellen beziehen.
Und der Begriff "Presssprecher" hat die selbe Aussagekraft wie der "Weihnachtsmann", wobei zweitens noch gekärt werden muss, ob er wirklich nicht existiert. Ohne Name und Belege der Aussagen, ist die Seriosität der Behauptung nicht vorhanden.
Bei vermeintlichen Gerüchten und Spekulationen wird aus gutem Grund kein Name genannt. Diejenigen wollen nicht namentlich genannt werden.
Das ist aber bei ALLEN Seiten so, die über künftige Dinge berichten. Von daher verstehe ich auch eben nicht dein ganz spezielles Gebashe gegen Hardware-Infos.

Ein Fakt ist belegbar und für jeden einsehbar. Der Fakt, dass der GT212 abgesagt wurde, ist ein Widerspruch, da es keinen Fakt gibt, dass es solch einen Chip in irgendeiner Form gegeben hätte. Eure Spekulationen, dass er wegen a), b), c) und d) abgesagt wurden, sind genauso nicht belegbar, wie die Existenz des GT212 mit
Ein paar Posts vor diesen hat AnarchX doch schon folgendes festgehalten:

Zumal GT212 Silizium schon existierte, wie der 185.20er Treiber zeigte.

LovesuckZ
2009-04-18, 13:34:12
Bei vermeintlichen Gerüchten und Spekulationen wird aus gutem Grund kein Name genannt. Diejenigen wollen nicht namentlich genannt werden.
Das ist aber bei ALLEN Seiten so, die über künftige Dinge berichten. Von daher verstehe ich auch eben nicht dein ganz spezielles Gebashe gegen Hardware-Infos.

Andere Seiten verlinken sich selbst nicht im Netz - diese Art der Profilierung ist schrecklich. Gleichzeitig wird mit der penetranten Behauptung, man verfüge über Quellen in Firmen und Dokumente der Eindruck erweckt, man verfüge über Informationen.


Ein paar Posts vor diesen hat AnarchX doch schon folgendes festgehalten:

Ja, dass bedeutet aber nicht, dass er existiert hat. Es ist jedoch ein nachvollziehbares Faktenargument für die These, dass es ein GT212 geben könnte.

N1truX
2009-04-18, 13:35:46
Quellen müssen einsehbar sein - Primärquellen. Sind sie es nicht, muss man auf die sich daraufbeziehenden Sekundärquellen beziehen.
Na wenn das so ist dann geh zu Nvidia, hol dir einen Mitarbeiter der bereit ist was über den GT212 zu berichten und beim vollen Namen genannt zu werden und veröffentliche das als News mit seinem Namen. Es wird keiner machen weil er entlassen und verklagt wird.
Also kann man für Sachen die intern sind nie Namen angeben.

Gast
2009-04-18, 13:42:32
Wer hat den 185.20 Treiber eigentlich geleakt?
Die .inf-Datei ist sehr untypisch und macht tw. überhaupt keinen Sinn. Scheint mir eher so, als hätte die jemand nachbearbeitet, um ein paar Speculationen anzuheizen. :)

LovesuckZ
2009-04-18, 13:44:36
Na wenn das so ist dann geh zu Nvidia, hol dir einen Mitarbeiter der bereit ist was über den GT212 zu berichten und beim vollen Namen genannt zu werden und veröffentliche das als News mit seinem Namen. Es wird keiner machen weil er entlassen und verklagt wird.
Also kann man für Sachen die intern sind nie Namen angeben.

Und jetzt denke weiter. Wie kann man jemanden als Quelle angeben, der eigentlich garnicht Existenz ist? Wie kann ich von jemanden sprechen, der weder greifbar noch ansehbar ist?
Oder anders gefragt: Gibt es einen Gott? ;)

deekey777
2009-04-18, 13:59:04
Wie wär's damit, LS: Wenn dir die Diskussion hier nicht passt, dann bleibe einfach fern. Aber dieses "Oh, HWI schreibt malwieder, jetzt gehe ich denen auf den Sack" nervt gewaltig.

LovesuckZ
2009-04-18, 14:20:47
Wie wär's damit, LS: Wenn dir die Diskussion hier nicht passt, dann bleibe einfach fern. Aber dieses "Oh, HWI schreibt malwieder, jetzt gehe ich denen auf den Sack" nervt gewaltig.

Wenn es dir nicht aufgefallen sein sollte: Ich kritisiere, dass die Aussagen nicht der Wahrheit entsprechen und begründe dies durch die nicht vorhandene Seriösität der Seite. Würden wir jetzt zusammen diskutieren, dann müsstest du - ja, der, der anscheinend so gerne diskutiert - erstmal mit Gegenargumenten kommen, dass die Aussagen stimmen. Diskussion bedeutet nicht, dass bloße verlinken auf Seiten.
Also komm deekey777, bring Gegenargumente, die meine These widerlegen.
Ansonsten, wie wär's damit D777: Wenn dir die Diskussion hier nicht passt, dann bleibe einfach fern. Aber dieses "Oh, LZ schreibt malwieder, jetzt gehe ich ihm auf den Sack" nervt gewaltig.

pervert
2009-04-18, 15:39:37
Könnt Ihr das vielleicht privat ausdiskutieren, interesiert nicht wirklich. Wäre auch schön wenn der Thread ein bisschen bereinigt würde.

AnarchX
2009-04-18, 21:16:52
Here's a funny rumour: I've heard that NV already "shrunk" GT200 to 40G (512-bit GDDR3 remains, yeah). Sounds fishy, I know.
But maybe they've decided to scrap all new GT212 in favour of this "quick'n'dirty GT200@40nm" GPU PLUS bring some GT30x middle closer to GT300 launch? I guess we'll know something more solid about what's going on in a couple of months.
http://forum.beyond3d.com/showpost.php?p=1287562&postcount=708

Etwas um die 300mm² wäre auf jeden Fall besser als 500mm², bleibt der Nachteil des größeren SIs, aber hier reicht bei der GTX 260 aber mittlerweile auch ein 8-Layer-PCB und bei 512Mbit GDDR3-Chips gibt es neben NV wohl auch nicht mehr soviel Abnehmer.

Coda
2009-04-18, 21:55:48
GDDR3 wird noch in Massen auf Low-Cost-Karten verbaut. Das ist der größte Markt.

AnarchX
2009-04-18, 22:12:54
GDDR3 wird noch in Massen auf Low-Cost-Karten verbaut. Das ist der größte Markt.
In den meisten OEM-PCs wird doch DDR2 verbaut und bei HD4600/HD4500 setzt man auf DDR3-Speicher, welchen Nvidia auf ihren Karten auch bald verwenden wird.

Ailuros
2009-04-19, 02:43:59
Es gab einen GT212 der tatsaechlich storniert wurde und es wird stattdessen einen einfachen GT2x0-shrink auf 40nm geben.

Was Degustator nicht andeutet ist dass das 212 tatsaechlich ~Ende Q2 08' aufgeloest wurde und das Personal neu verteilt wurde. Er hat aber recht dass viele von dem Team auf ein GT3x0 Projekt verschickt wurden.

KonKorT
2009-04-19, 12:07:38
Es gab einen GT212 der tatsaechlich storniert wurde und es wird stattdessen einen einfachen GT2x0-shrink auf 40nm geben.
... der dann für welchen Zeitraum geplant sein soll?

Es klingt, wie DegustatoR schon schrieb, "fishy" ;)

AffenJack
2009-04-19, 12:32:12
Anfang Q4, bzw etwas nach rv870 - ende q2 2010 wo dann mainstream gt3xx kommen sollte würde ich vorschlagen. Man braucht etwas gegen rv 870, von oben kann das nen abgespeckter gt300 sein, von unten braucht man aber wohl was etwas schnelleres und kleineres als den g200b. In 40nm mit erhöhten taktraten hätte man dann nen gegner für nen kleineren rv870

AnarchX
2009-04-19, 12:38:59
Anfang Q4, bzw etwas nach rv870 - ende q2 2010 wo dann mainstream gt3xx kommen sollte würde ich vorschlagen.
Ailuros' zweiter Satz klingt eher danach, als ob man Ressourcen umverteilt hat, damit man eher einen kleineren GT30x präsentieren kann, der dann wohl gegen RV870 konkurrieren soll.

Wenn dann könnte ein 40nm GT200 wohl eher erscheinen als erwartet.
Nvidia wird übrigens auch als 40nm Kunde bei UMC von Digitimes genannt, wohlmöglich ist man dort etwas verschlossener als bei TSMC. :D

KonKorT
2009-04-19, 12:56:16
@ AnarchX

Lass mich gerne überraschen, aber von einem GT200 @ 40 nm war mir bisher nichts bekannt und auch die jüngste Roadmap, die bis in Q3/2009 reicht, nennt ja hier noch keine entsprechenden Infos.
Q4 zeitgleich mit dem GT300 wäre möglich. Bin dann mal gespannt auf die Bezeichnung ;)

@ LovesuckZ

Waren meine vier Argumente wohl doch nicht so falsch. :cool:

AffenJack
2009-04-19, 12:59:28
@ AnarchX
Ailuros hat aber noch vor kurzem gesagt, dass keine kleineren gt30x in 40nm kommen, sondern erst in 32nm. Deshalb hab ich gerade eher angenommen, dass man mit den zusätzlichen Kräften da einen sehr aggressiven Kurs mit 32nm fahren wird und vll recht schnell nen kompletes 32nm lineup rausbringen wird.

Nakai
2009-04-19, 12:59:59
NV muss den aber schnellstens bringen. Wenn der RV870 im Juli schon kommt, dann wird der 40nm GT200 nicht mehr soviel reissen können, vor allem wenn der RV870 unter 300mm² kommen könnte. Wenn der GT300 noc länger dauert, dann hat NV noch mehr Probleme.

Ailuros' zweiter Satz klingt eher danach, als ob man Ressourcen umverteilt hat, damit man eher einen kleineren GT30x präsentieren kann, der dann wohl gegen RV870 konkurrieren soll.

Wäre imo sehr sinnvoll von NV.


mfg Nakai

=Floi=
2009-04-19, 13:09:40
was ist daran sinnvoll noch mehr aufgewärmte (scheiße) zu veröffentlichen? ich habe einen G92 und werde mir selbst für 99€ KEINEN GT200c kaufen. Ich will eine wesentlich schnellere grafikkarte.

Sorkalm
2009-04-19, 13:13:27
was ist daran sinnvoll noch mehr aufgewärmte (scheiße) zu veröffentlichen? ich habe einen G92 und werde mir selbst für 99€ KEINEN GT200c kaufen. Ich will eine wesentlich schnellere grafikkarte.

Sinnvoll für das Unternehmen muss nicht unbedingt sinnvoll für (jeden) Kunden sein.

Es geht halt darum, ein ordentliches Konkurrenzprodukt zu RV790/RV870 zu haben, mit dem man auch von der Kostenstruktur mithalten kann.
Abgesehen davon dürfte der GT200 @ 40 nm wohl auch etwas höhere Taktraten aushalten.

Gast
2009-04-19, 13:20:29
was ist daran sinnvoll noch mehr aufgewärmte (scheiße) zu veröffentlichen? ich habe einen G92 und werde mir selbst für 99€ KEINEN GT200c kaufen. Ich will eine wesentlich schnellere grafikkarte.
Du hast bereits "aufgewärmte Scheisse".

Nach deiner Aussage zu urteilen bist du vom R300 gleich auf G80 gesprungen, hast deine Regel mit G92 gebrochen und wartest jetzt auf GT300.

V2.0
2009-04-19, 14:31:07
GT200 Leistung beim Stromverbrauch und Preis von G92b, das wäre schon ein Angebot.

=Floi=
2009-04-19, 15:13:17
ich habe damals noch einen G92 auf der GF8800GTS512 gekauft ;)
ich kaufe mir lieber die refreshchips, weil diese normalerweise besser sind.

Gast
2009-04-19, 15:20:21
GT200b/c ist ein Refresh wie G92.

Gaestle
2009-04-19, 15:56:00
Nicht jeder hat aktuell einen G92. Nicht jeder sieht einen G200 als Scheiße an. Nicht jeder hält den Leistungsvorsprung des G200 ggü. dem G92 für pille-palle.

reunion
2009-04-19, 16:06:34
@ AnarchX

Lass mich gerne überraschen, aber von einem GT200 @ 40 nm war mir bisher nichts bekannt und auch die jüngste Roadmap, die bis in Q3/2009 reicht, nennt ja hier noch keine entsprechenden Infos.
Q4 zeitgleich mit dem GT300 wäre möglich. Bin dann mal gespannt auf die Bezeichnung ;)


So oder so kann man damit keine Blumentopf gewinnen IMO, denn der Chip hätte nur DX10.0. Und nachdem nV DX11 mit GT300 und AMD mit Rv870 massiv pushen wird wäre ein geshrinkter GT200, welcher durch das 512-bit SI auch noch relativ teuer sein dürfte bestenfalls eine Notlösung, der zudem auch leistungsmäßig IMHO nicht reichen dürfte gegen RV870. Vermutlich hat man nicht mit einer so frühen Planung von RV870 gerechnet und musste jetzt noch ein paar Leute umschichten um hier nicht viel später zu kommen.

Gast
2009-04-19, 16:29:46
Was hat denn DX10.1 in dem Zusammenhang damit zu tun ?

Gaestle
2009-04-19, 16:39:45
Es ist Wurst. Auf dem Papier sind nach dem DX11-Release sowohl DX10 als auch DX10.1 veraltet. in der Praxis wird DX9 (evtl. mit angepappten DX10-"Sondereffekten") erstmal weiter dominieren.

N0Thing
2009-04-19, 17:28:28
DX11 ist eine Hilfe beim Marketing. Ich denke jeder kennt Leute im Bekanntenkreis, die die DX11 Grafikkarte mit 1024MB der DX10 Grafikkarte mit 1024MB vorziehen würden.

=Floi=
2009-04-19, 17:29:25
GT200b/c ist ein shrink und kein refresh. Ein richtiger refresh brachte auch meistens eine leistungssteigerung um die 40% und andere verbesserungen.
Ich finde den GT200(abcdefghijk) nicht scheiße, sondern eine neue 40nm version von diesem ist schlicht und ergreifend unnötig. An der performance tut sich auch nichts mehr und ansonsten ist es nach gut einem jahr nicht mehr sinnvoll die gleiche karte nochmal zu bringen.
Ich kaufe mit ja auch keinen neu aufgelegten 3er golf mit tfsi motor.
Daran scheitert es und darin wird und wurde sinnsols geld verschwendet. Das R&D des GT212 muß übrigens auch bezahlt werden und diesen chip könnte man auch erfolgreich gegen die 4870X2 stellen.

Persönlich fand ich die daten des GT212 ganz gut und habe mich auf diesen gefreut. Der chip hätte richtig viel shaderleistung gehabt und wäre wohl knapp unter einer GTX295 gewesen. DX11 ist mir eigentlich nicht so wichtig und in 40nm wäre der chip auch ansonsten ganz brauchbar gewesen.

edit:
die neue DX11 generation wird auch bei DX9,10 und 10.1 erheblich schneller sein als die alte generation...

Hugo
2009-04-19, 17:50:58
GT200b/c ist ein shrink und kein refresh. Ein richtiger refresh brachte auch meistens eine leistungssteigerung um die 40% und andere verbesserungen.
Ich finde den GT200(abcdefghijk) nicht scheiße, sondern eine neue 40nm version von diesem ist schlicht und ergreifend unnötig. An der performance tut sich auch nichts mehr und ansonsten ist es nach gut einem jahr nicht mehr sinnvoll die gleiche karte nochmal zu bringen.
Ich kaufe mit ja auch keinen neu aufgelegten 3er golf mit tfsi motor.
Daran scheitert es und darin wird und wurde sinnsols geld verschwendet. Das R&D des GT212 muß übrigens auch bezahlt werden und diesen chip könnte man auch erfolgreich gegen die 4870X2 stellen.

Persönlich fand ich die daten des GT212 ganz gut und habe mich auf diesen gefreut. Der chip hätte richtig viel shaderleistung gehabt und wäre wohl knapp unter einer GTX295 gewesen. DX11 ist mir eigentlich nicht so wichtig und in 40nm wäre der chip auch ansonsten ganz brauchbar gewesen.

edit:
die neue DX11 generation wird auch bei DX9,10 und 10.1 erheblich schneller sein als die alte generation...



NV würde den GT200@40nm schon nutzen weil er billiger herzustellen ist ;-)

Ich persönlich hätte mir auch gewünscht dass GT212 erscheint, aber wer brauch ihn eigentlich wirklich?
die 4870X2 hat die GTX295 als Gegenstück, 4890 die GTX275, usw

Nen schnellerer Singlechip ist unnötig.
Ein Zwischenschritt zu G92 wäre da wesentlich Sinnvoller

dargo
2009-04-19, 17:54:39
Und nachdem nV DX11 mit GT300 und AMD mit Rv870 massiv pushen wird ...
So wie aktuell DX10? X-D

Wo sind denn die ganzen nativen DX10.x Games? Ich kenne kein Einziges. Im schlimmsten Fall wird der DX11 Generation genau das selbe passieren was heute mit der DX10 Generation geschieht. Es fehlt an Software. Solange keine neuen "High-End" Konsolen kommen (und die lassen noch einige Zeit auf sich warten) sehe ich ziemlich schwarz für die neue DX11 Generation. Ist aber auch nicht weiter schlimm, in meinen Augen sind der GT300/RV870 in erster Linie eins - sehr schnelle DX9/DX10.x Beschleuniger.


Ich persönlich hätte mir auch gewünscht dass GT212 erscheint, aber wer brauch ihn eigentlich wirklich?

Ich. :)

Hugo
2009-04-19, 17:59:38
Ich. :)


aber nur eine Karte für dich wird bissel teuer in der Entwicklung ;-)

Nee Spaß bei Seite.
Ich kann NV verstehen. Wer kauft denn heut ne Karte >350€ ?

Warum verkauft sich die 4890 so gut? --> weil sie billiger ist als GTX275
schneller is sie ja nicht.
Ich halte die GTX275 für die bessere Karte gegenüber der 4890

reunion
2009-04-19, 18:03:49
So wie aktuell DX10? X-D

Wo sind denn die ganzen nativen DX10.x Games? Ich kenne kein Einziges. Im schlimmsten Fall wird der DX11 Generation genau das selbe passieren was heute mit der DX10 Generation geschieht. Es fehlt an Software. Solange keine neuen "High-End" Konsolen kommen (und die lassen noch einige Zeit auf sich warten) sehe ich ziemlich schwarz für die neue DX11 Generation. Ist aber auch nicht weiter schlimm, in meinen Augen sind der GT300/RV870 in erster Linie eins - sehr schnelle DX9/DX10.x Beschleuniger.


Mag sein, aber darum gehts gar nicht. DX11 wird zum Megafeature erklärt und schon bald wird sich niemand mehr eine neue Grafikkarte kaufen wollen ohne dem. Das Schema ist doch bekannt.

Gast
2009-04-19, 18:05:41
Warum verkauft sich die 4890 so gut? --> weil sie billiger ist als GTX275
schneller is sie ja nicht.
Warum verkauft sich die 4890 überhaupt, den den Aufpreis ist sie keineswegs schneller.


Ich kann NV verstehen. Wer kauft denn heut ne Karte >350€ ?Viele, der MGPU Wahn hat erst so richtig begonnen.
Nur um den Preis haben es High-End Singlekarten schwer, zusammengeklebte Mittelklasse ist doch billiger.

dargo
2009-04-19, 18:07:42
Ich kann NV verstehen. Wer kauft denn heut ne Karte >350€ ?

Hmm... irgendwie treffen deine Fragen immer auf mich zu. :biggrin:
Gib mir eine NV-Karte (wegen SSAA ;)) die doppelt so schnell ist wie die GTX260 mit dem Stromverbrauch der GTX260 65nm und ich lege sofort 351€ auf den Tisch. :D

Gast
2009-04-19, 18:08:04
GT200b/c ist ein shrink und kein refresh. Ein richtiger refresh brachte auch meistens eine leistungssteigerung um die 40% und andere verbesserungen.
Dann kannst du auch nicht behaupten, das du auf Refreshes setzt.
G92 ist demnach ein Shrink, kein Refresh.

Identisch wie GT200abc, sind auch nur Shrinks.

Hugo
2009-04-19, 18:14:38
Dann kannst du auch nicht behaupten, das du auf Refreshes setzt.
G92 ist demnach ein Shrink, kein Refresh.

Identisch wie GT200abc, sind auch nur Shrinks.


G92 ist kein einfacher shrink ;-)

Hmm... irgendwie treffen deine Fragen immer auf mich zu. :biggrin:
Gib mir eine NV-Karte (wegen SSAA ;)) die doppelt so schnell ist wie die GTX260 mit dem Stromverbrauch der GTX260 65nm und ich lege sofort 351€ auf den Tisch. :D


Ja ich kann dich gut verstehen, aber der Großteil will oder braucht diese Karte einfach nicht.
Dieser Bereich wird leider von den SLI/Crossfire Gespannen abgedeckt.
Die GT212 würde vielleicht die Existens der GTX295 in Frage stellen.
Also noch ein Grund für NV den GT212 zu streichen.

Gast
2009-04-19, 18:19:25
G92 ist kein einfacher shrink ;-)
Wenn G92 als Refresh des G80 durchgeht, dann muss G200 erst recht als G80 Refresh durchgehen, immerhin hat sich dort noch mehr getan.

Hugo
2009-04-19, 18:22:21
Warum verkauft sich die 4890 überhaupt, den den Aufpreis ist sie keineswegs schneller.



Ich frag mich auch warum die 4890 sich so gut verkauft. Gibt eigentlich keine Grund bei nur ca. 10% Mehrleistung


Viele, der MGPU Wahn hat erst so richtig begonnen.
Nur um den Preis haben es High-End Singlekarten schwer, zusammengeklebte Mittelklasse ist doch billiger.

Genau da ist es Kostengünstiger zwei Chips auf ein PCB zu kleben, als nen fetten Highendchip zu entwickeln.
Bestes Bsp. ist der RV770, nicht der schnellste aber viel Leistung fürs Geld
Genau so einen chip bräuchte NV --> G92@40nm wäre da genau das richtige bis GT300

Außerdem wir die Kohle mit den kleinen chips verdient

Hugo
2009-04-19, 18:23:17
Wenn G92 als Refresh des G80 durchgeht, dann muss G200 erst recht als G80 Refresh durchgehen, immerhin hat sich dort noch mehr getan.


GT200 is auch ein Refresh
GT200b ist der Shrink ;-)

so und jetzt back to Topic
wird es im Sommer einen schnelleren Chip als G92@40nm geben, oder gar nen GT200@40nm?
Meine GF7900GT will in ihren wohlverdienten Ruhestand :-)

pervert
2009-04-19, 22:50:51
GT200 is auch ein Refresh
GT200b ist der Shrink ;-)

so und jetzt back to Topic
wird es im Sommer einen schnelleren Chip als G92@40nm geben, oder gar nen GT200@40nm?
Meine GF7900GT will in ihren wohlverdienten Ruhestand :-)
Nein, frühestens im Q4.

Kauf dir eine GTX285 bei Ebay, wenn Du Glück hast ab 230 Euro, sonst ca. 250 Euro. Was Besseres gibt es dieses Jahr bis zum (späten?) Q4 nicht mehr.

Eine GTX260 hat natürlich mit 100 Euro weniger auch einen sehr attraktiven Preis und ist immer noch deutlich schneller.

Es gibt jedenfalls genug interessante Karten um eine 7900 Gurke zu entsorgen ;)

V2.0
2009-04-20, 07:13:01
Ich frag mich auch warum die 4890 sich so gut verkauft. Gibt eigentlich keine Grund bei nur ca. 10% Mehrleistung


Fanboy-Hype. Gibt genug Foren wo NV der letzte Dreck ist und nur ATI roxxort.

Ailuros
2009-04-20, 09:30:56
Ailuros' zweiter Satz klingt eher danach, als ob man Ressourcen umverteilt hat, damit man eher einen kleineren GT30x präsentieren kann, der dann wohl gegen RV870 konkurrieren soll.

Ich bin gerade dabei Einzelheiten herauszufischen und es wird etwas dauern bis ich ein klares Bild habe:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7246640&postcount=423

Es gab anscheinend schon ein tape out, nur von was genau ist die eigentliche Frage jetzt.....

KonKorT
2009-04-20, 13:47:26
Noch in diesem Quartal soll Nvidia mit der Massenprodukten von GT21x starten. Interessant ist, wie Digitimes den GT215 einordnet:

- GT218: Entry level
- GT215: High-End mobile
- GT216/GT214: Mainstream

Quelle: Digitimes (http://www.digitimes.com/news/a20090420PB205.html)

reunion
2009-04-20, 17:08:27
Noch in diesem Quartal soll Nvidia mit der Massenprodukten von GT21x starten. Interessant ist, wie Digitimes den GT215 einordnet:

- GT218: Entry level
- GT215: High-End mobile
- GT216/GT214: Mainstream

Quelle: Digitimes (http://www.digitimes.com/news/a20090420PB205.html)

Zwischen dem Start der Massenproduktion und der Verfügbarkeit im Handel dürfte aber schon noch einige Zeit vergehen.

Gast
2009-04-21, 13:42:52
Herbst bzw. werden sie die Back to School Zeit wohl erwischen wollen.

Ailuros
2009-04-21, 18:24:48
Zwischen dem Start der Massenproduktion und der Verfügbarkeit im Handel dürfte aber schon noch einige Zeit vergehen.

Klingt verdammt nach RV740 :P (und nein ich meine damit nicht dass 40nm immer noch Probleme macht).

Gast
2009-04-23, 11:19:24
Die NVidia GT218 Grafikkarten Modele sollen ja recht sparsam sein
wann rechnet ihr mit im Handel käuflich zuerwerbendene GT218 Grafikkarten noch im Mai , anfang/ende Juni oder was ?

.

Ailuros
2009-04-23, 11:44:52
Die NVidia GT218 Grafikkarten Modele sollen ja recht sparsam sein
wann rechnet ihr mit im Handel käuflich zuerwerbendene GT218 Grafikkarten noch im Mai , anfang/ende Juni oder was ?

.

Etwas potentere Office-Beschleuniger sind verstaendlicherweise ziemlich sparsam. Es koennte etwas davon schon im Mai erscheinen, wenn sie nicht gleich in Massen OEM Vertraege damit bedienen.

Gast
2009-04-23, 12:06:41
Etwas potentere Office-Beschleuniger sind verstaendlicherweise ziemlich sparsam. Es koennte etwas davon schon im Mai erscheinen, wenn sie nicht gleich in Massen OEM Vertraege damit bedienen.
Der Witz war gut etwas potentere Office-Beschleuniger,
die GT218 Grafikkarten sollen doch Leistungsmässig im bereich der Geforce 9400 GT / Geforce 9500 GT liegen
und diese sind auch selbst im Multimediabereich (HD Video,Bild bearbeitung u.s.w.) nicht schlecht !

Gast
2009-04-23, 12:11:02
[...] und diese sind auch selbst im Multimediabereich (HD Video,Bild bearbeitung u.s.w.) nicht schlecht !
Die genannten Multmediafeatures gehören bei "besseren Officebeschleunigern" längst zum guten Ton, da wirst du bei beiden großen Herstellern keine Karte mehr finden, die hier passen muss. :)

Gast
2009-04-23, 12:21:42
Ein Office-Beschleuniger ist für Büroaufgaben (Microsoft Office,OpenOffice) also z.b. Dokumente schreiben berechnen,presentieren und ähnliches !

Das hat mit den kleineren NVidia Grafikkarten wenig zutun,
die haben auch genug leistung für einfachere richtige Multimediaaufgaben :)

Ailuros
2009-04-23, 13:20:34
Der Witz war gut etwas potentere Office-Beschleuniger,
die GT218 Grafikkarten sollen doch Leistungsmässig im bereich der Geforce 9400 GT / Geforce 9500 GT liegen
und diese sind auch selbst im Multimediabereich (HD Video,Bild bearbeitung u.s.w.) nicht schlecht !

Kein Zweifel; die offensichtliche Uebertreibung in der Form eines Witzes konntest Du ja selber entziffern :wink:

Du sagst selber dass die 9400/9500 nicht schlecht mit Multimedia sind; um wieviel genau kann ein GT218 dieses genau aendern?

Gast
2009-04-23, 13:49:20
Du sagst selber dass die 9400/9500 nicht schlecht mit Multimedia sind; um wieviel genau kann ein GT218 dieses genau aendern?
Im Multimedia wird oft ein leises sparsames System gewünscht und da ist doch eine GT218 klar im vorteil oder ?

Die bisherigen passiven Kühler in diesen Bereich sind teilweise recht 'Abendteuerlich' oder benötigt eine GT218 ähnliche Kühlerlösungen
zum beispiel :)

http://www.gainward.de/main/product/vga/pro/p00126-pic3.jpghttp://de.msi.com/uploads/5_pictures/five_pictures4_7d1d1a4d97e412927cfa11bbe8eca474.jpg

Ailuros
2009-04-23, 13:57:09
Im Multimedia wird oft ein leises sparsames System gewünscht und da ist doch eine GT218 klar im vorteil oder ?

Im Vergleich zu einer groesseren GPU ja.

Die bisherigen passiven Kühler in diesen Bereich sind teilweise recht 'Abendteuerlich' oder benötigt eine GT218 ähnliche Kühlerlösungen
zum beispiel :)


Falls tatsaechlich GT218 doppelt so viele SPs haben sollte als sein Vorgaenger, aendert sich generell nichts besonderes dank 40nm, da die Chipkomplexitaet gleich mitsteigt.

reunion
2009-04-24, 18:39:51
Nvidia Preparing 40nm GeForce GT 240M & G210M: http://vr-zone.com/articles/nvidia-preparing-40nm-geforce-gt-240m--g210m/6954.html?doc=6954

Now, VR-Zone has learned that Nvidia is preparing GeForce GT 240M and GeForce G210M for launch somewhere between May-June. However, there is still no sign of 40nm desktop parts yet but only the 40nm mobile parts. GeForce GT 240M is codenamed N10P-GS, a performance part which could be GT215 based while GeForce G210M is codenamed N10M-GS, a mainstream GT216 part.

Gast
2009-04-25, 12:31:48
Mit welchen NVidia Produktbezeichnungen ist den zurechnen ?

- GT218 --> Geforce ?

- GT216 --> Geforce ?

- GT214 --> Geforce ?

Sorkalm
2009-04-25, 13:04:03
Nvidia Preparing 40nm GeForce GT 240M & G210M: http://vr-zone.com/articles/nvidia-preparing-40nm-geforce-gt-240m--g210m/6954.html?doc=6954

Das man einen GT215 unter einen G92 einordnen würde (hab ich jetzt per Mobil-Bezeichnungen geschätzt, denn GTX 260M und 280M sind ja G92) wäre aber ein sehr schlechtes Zeichen. Würde daher nicht schätzen, dass die auf GT215 basieren...

AnarchX
2009-04-25, 13:05:45
Auch eine G210M mit GT216 hört sich etwas seltsam an, da hätte ich doch eher GT218 vermutet.

Digitimes hat ja auch GT215 als "high-end mobile"(#1) bezeichnet.

Gast
2009-04-25, 13:28:54
Also:

Geforce GT218 --> Entry level

Geforce GT214 --> Mainstream


Das verstehe ich jetzt nicht ?

Gast
2009-04-25, 13:36:45
Das verstehe ich jetzt nicht ?
Warum nicht?
Das Namensschema ist schon uralt.

Gast
2009-04-25, 14:59:03
Geforce GT218 --> Entry level

Geforce GT214 --> Mainstream

Seid wann haben die nomalen preiswerten die höhere Nummer (218)
und die teueren eine niedrigere Nummer (214) in der Produktbezeichnung ?

AnarchX
2009-04-25, 15:00:35
GT21x ist keine Produktbezeichnung, sondern der Codename der GPU wie GT200 oder G92.

y33H@
2009-04-25, 15:06:18
Und je kleiner der Codename, desto flotter die die Karte in der Regel.

Gast
2009-04-25, 15:18:36
Bisher war es doch so oder?

Geforce GT218 --> Entry level ~ Geforce 9400 GT

Geforce GT214 --> Mainstream ~ Geforce 9500 GT / Geforce 9600 GT

Gast
2009-04-25, 18:27:12
Und wie heissen die neuen jetzt im Handel ?

mapel110
2009-04-25, 18:29:54
Und wie heissen die neuen jetzt im Handel ?
Das weiß noch nicht mal nvidia.

Gast
2009-04-25, 19:34:44
Das weiß noch nicht mal nvidia.
Wieso das sollen doch schon nächsten Monat zukaufen sein ?

Gast
2009-04-25, 20:06:24
Wieso das sollen doch schon nächsten Monat zukaufen sein ?
Dann wirst du es spätestens nächsten Monat wissen.

Werden unter GTS 250 eingeordnet, entsprechend wird der Name ausfallen.
Zb. GT 240 oder G 210.

GeneralHanno
2009-04-25, 22:33:34
exakt, die bekommen vermutlich namen zwischen GT100 und GT240 ;)

Gast
2009-04-27, 18:48:06
Wieviel werden die ersten in 40nm gefertigiten Geforce 2x0 GT preiswerten Modele nächsten Monat im Handel wohl kosten ?

:)

Gast
2009-04-29, 11:54:17
Wäre die NVidia GT218 mit einen 64 Bit Speicherinterface nicht ein grosser Rückschritt
gegenüber den Vorgängermodel GeForce 9400 GT mit 128 Bit Speicherinterface ?

igg
2009-04-29, 13:05:53
@gast: Durch den Wechsel von GDDR3 zu GDDR5 denke ich nicht

KonKorT
2009-04-29, 13:34:51
Der GT218 wird aller Voraussicht nach auf GDDR3 setzen und somit in der Tat gegenüber der 9400 GT etwas beschnitten in puncto Speicherbandbreite sein.

Man sollte sich allerdings vor Augen führen, dass er den G98 beerbt, der bspw. auf der 8400 GS Verwendung findet. Und dieser ist ebenfalls mit einem nur 64 Bit breiten Speicherinterface ausgestattet.

Spasstiger
2009-04-29, 13:43:33
Der GT218 dürfte auch die zukünftige IGP-Variante sein.

GeneralHanno
2009-04-29, 14:09:44
für den GT218 dürfte GDDR3 die "luxus"-bestückung sein ;)
für GT216 und GT214 könnten die spitzenmodelle wohl mit GDDR5@128bit kommen (um sich gegen die ATi 4770 zu positionieren).

Gast
2009-04-29, 16:12:07
Dann würde also eine einfache Geforce GT214 der Geforce 9400 GT endsprechen und die GT218 der Geforce 8400 GS oder wie ?

:)

Gast
2009-04-30, 12:18:35
Werden von der Geforce GT214 wohl auch leise passiv gekühlte Modele erscheinen.

Spasstiger
2009-04-30, 12:31:02
Dann würde also eine einfache Geforce GT214 der Geforce 9400 GT endsprechen und die GT218 der Geforce 8400 GS oder wie ?

:)
Der GT214 wird wohl eher ein G92 in 40 nm sein. Vielleicht auch nur mit einem 128-Bit-Speicherinterface und dafür GDDR5-Speicher wie bei der Radeon HD 4770. Da bei Nvidia mit der aktuellen Architektur die ROPs und das SI gekoppelt sind, wäre auch ein 192-Bit-SI denkbar, dann leidet die Pixel- und z-Füllrate nicht so sehr.

Gast
2009-04-30, 13:04:37
Ich brauche innerhalb der nächsten 3 Monate eine neue Grafikkarte (für etwa 50 bis 80 Euro)
sollte schön leise also passiv gekühlt sein für meinen kleinen Wohnzimmer PC das wäre dann die neue Geforce GT216 oder ?

Spasstiger
2009-04-30, 14:31:22
Ich brauche innerhalb der nächsten 3 Monate eine neue Grafikkarte (für etwa 50 bis 80 Euro)
sollte schön leise also passiv gekühlt sein für meinen kleinen Wohnzimmer PC das wäre dann die neue Geforce GT216 oder ?
Mal abwarten, könnte schon hinkommen. Ich vermute, dass die Karten mit GT216 die GeForce-9600-Reihe ersetzen und ähnliche Performancedaten aufweisen werden. Allerdings gehe ich davon aus, dass es beim GT216 auf ein 128-Bit-Speicherinterface hinauslaufen wird.

AnarchX
2009-05-01, 10:13:43
Wohlmöglich auch ein Grund warum sich NV bei den 40nm GPUs noch etwas Zeit lässt:
During a conference call with analysts, Rick Tsai, president and chief executive of TSMC (Hsinchu, Taiwan), acknowledged that the company had some ''yield'' issues with its new 40-nm process. He also provided some predictions for 2009. [...]
http://www.eetimes.com/rss/showArticle.jhtml?articleID=217201043&cid=RSSfeed_eetimes_newsRSS

Sorkalm
2009-05-01, 10:34:22
Wohlmöglich auch ein Grund warum sich NV bei den 40nm GPUs noch etwas Zeit lässt:

Tja, kommt sicher auf die Verträge an, die man hat (wenn man pro GPU bezahlt ist das dtl. weniger problematisch als pro Wafer). Ich schätze mal, so ganz klassisch per Wafer werden weder Nvidia noch AMD bestellen, das Risiko wäre wohl zu groß.

AnarchX
2009-05-01, 19:24:33
Allerhand interessante Einträge in den infs des 185.81 Notebook:
[DEV_0A3D&SUBSYS_214317AA] NVIDIA N10P-ES
[DEV_0A6C&SUBSYS_38A417AA] NVIDIA N10M-NS
[DEV_0A74&SUBSYS_38CE17AA] NVIDIA GeForce G210M
[DEV_0A74&SUBSYS_10511462] NVIDIA GeForce G210M
[DEV_0A7D&SUBSYS_215D17AA] NVIDIA GT218-ES
[DEV_0A28&SUBSYS_365C103C] NVIDIA GeForce GT 230M
[DEV_0A34&SUBSYS_10311462] NVIDIA GeForce GT 240M
[DEV_0CAD&SUBSYS_1521103C] NVIDIA N10E-ES
[DEV_0CBC&SUBSYS_1521103C] NVIDIA N10P-GLM4
[DEV_061D&SUBSYS_070A103C] NVIDIA N10E-GLM


Die N10E-Devices dürften wohl Notebook 10 Enthusiast GPUs sein - GT215?

AnarchX
2009-05-06, 06:47:51
Und hier noch ein paar Desktop-Treiber-Einträge, vom Anfang April:
NVIDIA_DEV.0A20.01 = "NVIDIA GeForce GT 220 "
NVIDIA_DEV.0A21.01 = "NVIDIA D10M2-20"
NVIDIA_DEV.0A22.01 = "NVIDIA D10M2-10"
NVIDIA_DEV.0A28.01 = "NVIDIA N10P-GE"
NVIDIA_DEV.0A30.01 = "NVIDIA GT216"
NVIDIA_DEV.0A3D.01 = "NVIDIA N10P-ES"
NVIDIA_DEV.0A3F.01 = "NVIDIA GT216-INT"
NVIDIA_DEV.0A60.01 = "NVIDIA GeForce G210 "
NVIDIA_DEV.0A74.01 = "NVIDIA N10M-GS"
NVIDIA_DEV.0A7D.01 = "NVIDIA GT218-ES"
NVIDIA_DEV.0A7E.01 = "NVIDIA GT218-INT-S"
NVIDIA_DEV.0A7F.01 = "NVIDIA GT218-INT-B"
NVIDIA_DEV.0CA3.01 = "NVIDIA D10P1-30"
NVIDIA_DEV.0CA4.01 = "NVIDIA D10P-40"
NVIDIA_DEV.0CA5.01 = "NVIDIA D10P2-50"
NVIDIA_DEV.0CAD.01 = "NVIDIA N10E-ES"
NVIDIA_DEV.0CBC.01 = "NVIDIA N10P-GLM4"

Die GT 220 und GT 230 gibt es im Treiber jedoch auch unter einen G94 und bzw. einer G92 Device-ID:
http://www.xfastest.com/redirect.php?tid=21837&goto=newpost

Wer die hier genannten SKU-Codenamen einordnen will:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788

Gast
2009-05-19, 12:03:17
Wann sollen den nun endlich die NVidia Geforce 220 GT und Geforce 230 GT im Handel zukaufen sein ?

.

AnarchX
2009-05-19, 19:42:36
Bei ALDI Dänemark gibt es einen PC mit GeForce GT 230:
http://www.medion.com/ms/aldi/md8848/dk/

Aber wohl eher etwas auf G9x-Basis.

Ailuros
2009-06-01, 13:14:36
http://www.fudzilla.com/content/view/13972/1/

Nvidia’s 40nm notebook stuff is DirectX 10.1

Wie bitte? :| (klingt nach nem typo)

Psychopat
2009-06-02, 14:05:37
Ich bin jetzt kein Fudzilla-experte, aber nachdem das 10.1 in der Überschrift steht und im Text nochmal, gab's wenn dann in der Quelle von Fuad einen typo.
Is jetzt die Frage ob er da nochmal nachgefragt hat oder blind abgeschrieben...

AnarchX
2009-06-02, 17:49:37
Q: Just to finish can we talk briefly about the manufacturing side at Nvidia. You're currently in the process of moving to Taiwan Semiconductor Manufacturing Company's (TSMC's) 40nm process, how is that going?

A: We're moving to TSMC's 40nm node with our OEM products first. This is mainly due to capacity; TSMC is not building up their 40nm capacity until the second half of this year, probably close to the fourth-quarter, so based on the type of volumes we do in the channel, millions and millions of units per quarter, it doesn't make sense for us to move those products to 40nm just yet. But for the tons of OEM design wins we have on desktops and notebooks, we need to support those, and so we're using TSMC's limited 40nm capacity to supply those customers first. We'll transition to 40nm for our channel products probably at the end of this year.
http://www.digitimes.com/news/a20090602VL201.html

Sorkalm
2009-06-03, 13:36:47
Fudzillas nächste DirectX 10.1 Meldung mit Nvidia - jetzt kommt die API auch in Desktops-Chips (die ja wohl die selben wie die Mobil-Chips sein werden)... ;)

Nvidia will start with mobile chips and afterwards, towards Q3 and later, it will release discrete desktop chips that will support DirectX 10.1 API.

After years of preaching how bad this is, Nvidia finally decided to include this API and this proves the fact which ATI has been stating for a while now - that DirectX 10.1 is actually better than DirectX 10.

http://www.fudzilla.com/content/view/14034/1/

Klingt dann aber langsam nicht mehr nach einem Tippfehler.

igg
2009-06-03, 14:05:49
Hm... ich hätte jetzt erwartet, dass sie außer im Mobile-Bereich DX10.1 mit GT300 Abkömmlingen anbieten.

reunion
2009-06-03, 14:21:29
Ich sehe nicht wirklich einen Sinn darin so kurz vor den DX11-Chips, es sei denn kleinere DX11-Ableger brauchen bei NV noch einige Zeit.

Gaestle
2009-06-03, 15:58:47
DX11-Chips beherrschen auch DX10.1. Vielleicht ist auch NVs erste DX11-Generation auch "nur" DX10.1 + DX11 Add-On.

Oder es ist alles Quatsch.

Ailuros
2009-06-03, 16:26:31
DX11-Chips beherrschen auch DX10.1. Vielleicht ist auch NVs erste DX11-Generation auch "nur" DX10.1 + DX11 Add-On.

Oder es ist alles Quatsch.

Es ist wahrscheinlicher dass tatsaechlich NV D3D10.1 GT21x veroeffentlicht, als dass es irgend eine GPU mit "X11 add-ons" gibt. Der Abstand zwischen X10 und X11 ist so oder so viel zu gross.

nagus
2009-06-03, 19:20:41
DX11-Chips beherrschen auch DX10.1. Vielleicht ist auch NVs erste DX11-Generation auch "nur" DX10.1 + DX11 Add-On.

Oder es ist alles Quatsch.

vielleicht ist der g300 nur dx 10.1 ;)

Ailuros
2009-06-03, 19:24:33
vielleicht ist der g300 nur dx 10.1 ;)


ROFL :biggrin: Natuerlich ist er X11 kompliant.

deekey777
2009-06-04, 02:13:31
Fudzillas nächste DirectX 10.1 Meldung mit Nvidia - jetzt kommt die API auch in Desktops-Chips (die ja wohl die selben wie die Mobil-Chips sein werden)... ;)



http://www.fudzilla.com/content/view/14034/1/

Klingt dann aber langsam nicht mehr nach einem Tippfehler.
http://twitter.com/IanMcNaughton/status/2022328468

"DirectX 10.1 is actually better than DirectX 10 " says FUDO and NV http://bit.ly/a6E7A

Who the fuck is Ian McNaughton?
http://blogs.amd.com/play/category/bloggers/ian/

Ian McNaughton is senior manager of advanced marketing at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions. Links to third party sites are provided for convenience and unless explicitly stated, AMD is not responsible for the contents of such linked sites and no endorsement is implied.

Das schreit nach einem Katzenfight...

Coda
2009-06-04, 03:01:43
NVIDIA hat glaube ich auch nie behauptet, dass D3D10.1 schlecht sei. Sie haben es einfach nicht unterstützt.

S940
2009-06-04, 04:24:14
NVIDIA hat glaube ich auch nie behauptet, dass D3D10.1 schlecht sei. Sie haben es einfach nicht unterstützt.
Da hab ich andre Sachen in Erinnerung, wenn mich mich die nicht trügt, dann haben sie ATi verspottet, da die ja immer (nur) die .1 Anhängselstandards unterstützen würden, aber trotzdem langsamer seien.

Irgendwie so um den Dreh war das, der nV Chef ist doch ein bekannter Dampfplauderer.

Coda
2009-06-04, 05:00:11
Ich verfolg so Zeug nicht so genau, kann also sein. Worte sind eh nur Schall und Rauch.

crux2005
2009-06-04, 12:19:01
offiziel sagte man beim GT200 launch:

http://s11.directupload.net/images/090604/luh6yz96.png

deekey777
2009-06-05, 12:37:06
Upcoming Nvidia 40nm desktop parts are DirectX 10.1 (http://www.fudzilla.com/content/view/14085/1/)
ATI has been preaching that DirectX 10.1 is a good thing for years now and Nvidia jumping on the DirectX 10.1 bandwagon just months before Microsoft is set to reveal DirectX 11 is quite strange. Nvidia was a very opponent of DirectX 10.1 since all of its currently shipping generation doesn’t have support for DirectX 10.1 and all the sudden, they are announcing a new generation that will completely support DirectX 10.1
Das macht schon Sinn. Ua fehlte Nvidia die Unterstützung von gather4, die für DX11 Pflicht ist. Ich könnte mir vorstellen, dass die DX10.1-Unterstützung "Abfallprodukt" der DX11-Entwicklung ist, den Mehraufwand aber wollte man durch die 40nm-Fertigung ausgleichen.
Der GT216 konkurriert mit dem RV740, oder?

nagus
2009-06-05, 13:07:33
ich halte das für einen ausgemachten blödsinn. wieso sollte nvidia 3 monate vor DX11 plötzlich DX10.1 chips bringen? noch dazu gibts diese dinger ja auch noch nicht! das würde bedeutet, dass die ersten dx10.1 chips vielleicht 2 monate vor dx11 kommen. was soll das bitte bringen?????


was ich mir allerdings schon vorstellen kann ist, dass sich die dx11 parts so sehr verspäten, dass nvidia glaubt, noch einen lückenfüller zu benötigen.

... aber ich halte diese ganze meldung von dx10.1 für kompletten BS. wenn das wirklich jetzt so kommt dann hat nvidia ziemlich einen ander "waffel".

ich mein... vorher dx10.1 herunterspielen und dann plötzlich kurz vor dx11 noch nachschieben? :crazy:

Ailuros
2009-06-05, 13:25:16
Es ist tatsaechlich sinnlos so spaet 10.1 Komplianz zu liefern, jedoch deuteten schon seit einiger Zeit die internen Geruechte auf moegliche GT21x 10.1 Komplianz. Und nein es absolut nichts mit der naechsten Generation zu tun.

Das dumme an der ganzen Affaere ist dass wenn es tatsaechlich stimmt mainstream und low end 10.1 GT21x chips und high end 10.0 GT200 bis GT300 erscheint und dann erst womoeglich im naechsten Jahr kleinere X11 chips.

=Floi=
2009-06-05, 14:33:58
wo bleiben den eigentlich die kleinen dx11 chips? normalerweise würden die ja auf dem GT300 aufbauen und ca. 6 monate nach diesem kommen. wäre das nicht sinnvoller?

Gast
2009-06-05, 15:38:15
Wäre es Nvidia zuzutrauen den Teilen schon dx11 Fähigkeiten zu spendieren (als Erweiterung der „alten“ Architektur) und das später im Treiber freizuschalten? Bis dahin könnten sie es als dx10.1 vermarkten und hätten später eine fertige dx11 Mainstream Serie.

nagus
2009-06-05, 15:41:44
wo bleiben den eigentlich die kleinen dx11 chips? normalerweise würden die ja auf dem GT300 aufbauen und ca. 6 monate nach diesem kommen. wäre das nicht sinnvoller?

ich kann mir schon sehr gut vorstellen was dann wieder kommt um dieses problem zu umgehen: die neue G300 wird zur 398GTX, die alte 275/285 linie wird einfach umbenannt auf 375 und 385. so macht man das bei nvidia. statt neue Chips zu entwickeln wärmt man einfach die liegengebliebenen neu auf.

nagus
2009-06-05, 15:42:26
Wäre es Nvidia zuzutrauen den Teilen schon dx11 Fähigkeiten zu spendieren (als Erweiterung der „alten“ Architektur) und das später im Treiber freizuschalten? Bis dahin könnten sie es als dx10.1 vermarkten und hätten später eine fertige dx11 Mainstream Serie.


guter witz.

Ailuros
2009-06-05, 16:08:16
ich kann mir schon sehr gut vorstellen was dann wieder kommt um dieses problem zu umgehen: die neue G300 wird zur 398GTX, die alte 275/285 linie wird einfach umbenannt auf 375 und 385. so macht man das bei nvidia. statt neue Chips zu entwickeln wärmt man einfach die liegengebliebenen neu auf.

G300 wird bei seinem Launch GT200 abloesen. NVIDIA's eigentliches Problem wird wohl sein dass sie wieder keine Antwort bzw. Performance GPU gegen RV870 haben werden.

Alles unter D3D11 wird bei GT2x0 bleiben. Es ist uebrigens fuer X11 GTX380 und 360.

AnarchX
2009-06-06, 11:15:38
GT216 aka D10M2 - opvolger van G96
Streamprocessors: 48
MC: 128-bit
Memory: 800Mhz DDR3
Engine clock: 600-650Mhz
Shader clock: 1300-1400MHz
Vantage scores: E ~13K, P ~3K, H < 2K

GT218 aka D10M1 - opvolger van G98
Streamprocessors: 24
Memory: 500MHz DDR2
MC: 64-bit
Engine clock: ~600MHz
Shader clock: 1300-1400MHz
Vantage scores: E ~5.5, P <1K, H ~500
http://gathering.tweakers.net/forum/view_message/32054382
(zum Vergleich 9500GT ~ P2000, 9400GT ~P900, G98-8400GS ~P300)

Also wohlmöglich doch GT2xx-Cluster (ohne DP-ALUs?) und keine geshrinkten G9x.

LovesuckZ
2009-06-06, 11:19:12
Edit: Es müssen GT2xx CLuster sein, denn 24 wären nicht mit vollen G9x Cluster erreichbar.

AnarchX
2009-06-06, 11:24:58
Edit: Es müssen GT2xx CLuster sein, denn 24 wären nicht mit vollen G9x Cluster erreichbar.

Natürlich, anfangs gab es jedoch Gerüchte, dass die Basis wohl G9x sei.

Aber nun scheint man wohl von GT200 ausgegangen zu sein und hat eben noch D3D10.1 implementiert für eine gute Win7 Featureliste, was wohl dann primäre die TMUs betraff, die SPs wurden schon seit Anfang 2007 als D3D10.1 tauglich bezeichnet.

Imo sehen jedoch die Shaderdomain-Taktraten etwas enttäuschend aus, gerade bei GT216 ist das doch ein Niveau, was man schon seit Anfang 2007 mit dem 80nm G84 besessen hat.

AnarchX
2009-06-06, 11:39:44
GT 240M und G210M @ Computex:
(http://www.4gamer.net/games/086/G008634/20090605058/)http://img193.imageshack.us/img193/2148/0061107918.jpg (http://img193.imageshack.us/my.php?image=0061107918.jpg)

GT216 ohne D3D10.1 Treiber oder ein 3 Cluster G94b@128-Bit?

LovesuckZ
2009-06-06, 11:41:00
Imo sehen jedoch die Shaderdomain-Taktraten etwas enttäuschend aus, gerade bei GT216 ist das doch ein Niveau, was man schon seit Anfang 2007 mit dem 80nm G84 besessen hat.

Bei diesen Karten ist die letzliche Leistung von keiner Bedeutung und da sie sowieso für den mobilen Sektor gedacht sind, muss man auch die Stromaufnahme betrachten.
Eine GT216 wäre somit auf dem Niveau einer 9700m und könnte wohl auch aufgrund des geringen Stromverbrauches in <14" Books eingesetzt werden. Dadurch würde sich schlagartig die Leistung dieser deutlich erhöhen.

AnarchX
2009-06-06, 11:45:15
Bei diesen Karten ist die letzliche Leistung von keiner Bedeutung und da sie sowieso für den mobilen Sektor gedacht sind, muss man auch die Stromaufnahme betrachten.
Eine GT216 wäre somit auf dem Niveau einer 9700m und könnte wohl auch aufgrund des geringen Stromverbrauches in <14" Books eingesetzt werden. Dadurch würde sich schlagartig die Leistung dieser deutlich erhöhen.

Da hast du recht, es sind ja mobile GPUs, wo 2007 mit 950MHz SD @ G84M begonnen wurde. Also durchaus eine beachtliche Rechenleistungssteigerung wenn man die +50% SPs noch mit einbezieht.

KonKorT
2009-06-06, 11:54:09
Damit steht jetzt auch fest, dass Nvidia nicht nur GT212 mit 32 SPs pro Cluster fallen hat lassen, sondern auch die gesamten Derivate.
Einfache GT200-Kost in 40 nm kommt deutlich zu spät - nein, da würde ich nicht nur TSMC die Schuld für geben, wenngleich die dieser Tage gerne für alles verantwortlich gemacht werden...

AnarchX
2009-06-06, 12:01:02
Aber der Verdacht kommt doch ziemlich nah, wenn man gesehen hat das es wohl funktionierende Samples schon im Q4 2008 gab (185.20er Treiber) und die Veröffentlichung erst im 3. Quartal 2009 statt findet.
Sicher mag der Überbestand durch den Verkaufsrückgang in 2008 auch eine Rolle gespielt haben.
Aber momentan spricht vieles für Probleme bei TMSC.

Generell wird man sich wohl langsam Gedanken über die Partnerschaft zu diesen machen, 65 und 55nm lief ja auch nicht so wie gewünscht. Da könnte man sich wohl langfristig in Richtung UMC und GF orientieren.

reunion
2009-06-06, 12:02:17
Macht auch deutlich mehr Sinn die DX11 Derivate zu pushen anstatt jetzt noch leicht überarbeitete GT200-Kost zu bringen. IMO hat man die Dinger fallen gelassen da AMD sehr bald mit DX11 kommt und man lieber hier möglichst anschließen kann anstatt irgendwelche andere Kost zu bringen die ohnehin nur eine sehr kurze Zeitspanne am Markt hätten.

reunion
2009-06-06, 12:06:30
Generell wird man sich wohl langsam Gedanken über die Partnerschaft zu diesen machen, 65 und 55nm lief ja auch nicht so wie gewünscht. Da könnte man sich wohl langfristig in Richtung UMC und GF orientieren.

Was lief an 65/55nm nicht wie gewünscht? Vielleicht hatte nV auch ganz einfach unrealistische Erwartungen. Eine bessere Foundry als TSMC muss man erst einmal finden. Vielleicht GF, aber die haben auch keine Erfahrung mit bulk-Prozessen und Auftragsfertigungen.

KonKorT
2009-06-06, 12:14:17
Aber der Verdacht kommt doch ziemlich nah, wenn man gesehen hat das es wohl funktionierende Samples schon im Q4 2008 gab (185.20er Treiber) und die Veröffentlichung erst im 3. Quartal 2009 statt findet.
Ich habe in Q4 2008 noch kein GT21x-Sample laufen sehen!
Und wie schnell kann man mal eben ein neues Produkt in den Treiber (vorsorglich) einpflegen, sofern hier nicht einfach nur an der Ini-Datei geschraubt wurde?

Da könnte man sich wohl langfristig in Richtung UMC und GF orientieren.
Mittelfristig heißt dann hier aber wohl frühestens 2010, wenn man sich noch einmal die Meldung von Digitimes zu Gemüte führt.

Gast
2009-06-06, 13:33:11
GT216 aka D10M2 - opvolger van G96
Streamprocessors: 48
MC: 128-bit
Memory: 800Mhz DDR3
Engine clock: 600-650Mhz
Shader clock: 1300-1400MHz
Vantage scores: E ~13K, P ~3K, H < 2K

GT218 aka D10M1 - opvolger van G98
Streamprocessors: 24
Memory: 500MHz DDR2
MC: 64-bit
Engine clock: ~600MHz
Shader clock: 1300-1400MHz
Vantage scores: E ~5.5, P <1K, H ~500

die GT216 hat ja gerade AMD 4650m Niveau, die GT218 nur AMD 4570m Niveau. Hoffentlich sind das schon die Taktraten und Leistungswerte für die Notebook-Chips, ansonsten sieht es noch schlechter aus.

Gast
2009-06-06, 13:36:11
Macht auch deutlich mehr Sinn die DX11 Derivate zu pushen anstatt jetzt noch leicht überarbeitete GT200-Kost zu bringen. IMO hat man die Dinger fallen gelassen da AMD sehr bald mit DX11 kommt und man lieber hier möglichst anschließen kann anstatt irgendwelche andere Kost zu bringen die ohnehin nur eine sehr kurze Zeitspanne am Markt hätten.

Nvidia ist insgesamt zu spät dran mit den 40nm Chips. Wenn die wirklich erst im Aug/Sept. kommen und Ende Okt. kommt schon Win7 + DX11 für Vista. Da werden sie wohl nicht mehr so viel verkaufen.

AnarchX
2009-06-06, 13:38:02
die GT216 hat ja gerade AMD 4650m Niveau, die GT218 nur AMD 4570m Niveau. Hoffentlich sind das schon die Taktraten und Leistungswerte für die Notebook-Chips, ansonsten sieht es noch schlechter aus.

Siehe oben, die GT 240M die auf einem GT216 basieren könnte, liegt bei 550/1210/790MHz.

Wobei GT216 und GT214 deutlich kleiner als RV740 und so auch RV730 sein sollen:
The RV740 - again, a part already on the market - is rumored to be notably larger than either the GT216 or 218, and more or less the same size as the GT215 that Nvidia can't seem to make.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Wenn man die GT 240M zum Preis der DDR2 4650 anbieten kann, dann könnte man wohl hier durchaus konkurrieren.
Aber in der Tat könnte das etwas besser aussehen.

Gast
2009-06-06, 13:41:29
Nvidia ist insgesamt zu spät dran mit den 40nm Chips. Wenn die wirklich erst im Aug/Sept. kommen und Ende Okt. kommt schon Win7 + DX11 für Vista. Da werden sie wohl nicht mehr so viel verkaufen.
40nm hat mit D3D11 nichts zu tun. Das GT21x spät kommen liegt vor allem an der beschissenen Yield.

Ob sich eine High-End GTX 3xx gut verkauft hängt nicht am erscheinen eines Win7.
Es hängt an der Leistung im Vergleich zu anderen Karten am Releasezeitpunkt, bzw danach.

LovesuckZ
2009-06-06, 13:46:14
Nvidia ist insgesamt zu spät dran mit den 40nm Chips. Wenn die wirklich erst im Aug/Sept. kommen und Ende Okt. kommt schon Win7 + DX11 für Vista. Da werden sie wohl nicht mehr so viel verkaufen.

Wieso ist nVidia zu spät dran, wenn die Konkurrenz nach über einem Monat nach dem Launch physikalisch fast keine Karte liefern kann? Die Cebit ist 3 Monate vorbei und von einem Paperlaunch bezüglich des mobilen Parts des rv740 zu reden wäre noch untertrieben. Fakt ist, nVidia ist nicht zu spät dran, da TSMC generell nicht liefern kann.

mapel110
2009-06-06, 14:05:49
http://www.hardware-infos.com/news.php?news=2996

reunion
2009-06-06, 14:08:41
Wieso ist nVidia zu spät dran, wenn die Konkurrenz nach über einem Monat nach dem Launch physikalisch fast keine Karte liefern kann? Die Cebit ist 3 Monate vorbei und von einem Paperlaunch bezüglich des mobilen Parts des rv740 zu reden wäre noch untertrieben. Fakt ist, nVidia ist nicht zu spät dran, da TSMC generell nicht liefern kann.

Aber die Konkurrenz hat anscheinend auch schon Dx11 Chips fertig und wartet nur noch auf die Fertigung, während nV mit irgend welche Gt200-Aufgüssen herum hantiert.

mapel110
2009-06-06, 14:11:14
Aber die Konkurrenz hat anscheinend auch schon Dx11 Chips fertig und wartet nur noch auf die Fertigung, während nV mit irgend welche Gt200-Aufgüssen herum hantiert.
Inwiefern war jetzt RV740 kein Aufguss?!

reunion
2009-06-06, 14:17:02
Inwiefern war jetzt RV740 kein Aufguss?!

RV740 ist schon ewig fertig.

AnarchX
2009-06-06, 14:20:13
http://www.hardware-infos.com/news.php?news=2996
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7344133#post7344133
+ Unsinn wie 12 TMUs auf 24SPs, CJ schreibt doch klar dass er zu den TMUs nichts weiß, ausser das er eine Verdopplung sich auf 16 TMUs pro Cluster vorstellen könnte.
Aber das bezweifele ich, da die D3D10.1 TMUs schon so teurer sein dürften und man wohl kaum das ALU:Tex-Verhältnis gegenüber G9x senken wird.

LovesuckZ
2009-06-06, 14:31:23
Aber die Konkurrenz hat anscheinend auch schon Dx11 Chips fertig und wartet nur noch auf die Fertigung, während nV mit irgend welche Gt200-Aufgüssen herum hantiert.

Soso, du weißt also, dass nVidia noch nichts fertig hat? :rolleyes:
Und das der rv740 kein Aufguss wäre - ist schon ziemlich gewagt.

reunion
2009-06-06, 14:43:40
Soso, du weißt also, dass nVidia noch nichts fertig hat? :rolleyes:

Es sieht jedenfalls so aus als ob AMD hier deutlich vorne wäre während nV noch mir irgend welchen DX10-Chips herum hantiert.


Und das der rv740 kein Aufguss wäre - ist schon ziemlich gewagt.

Ach lass stecken. Dein hineininterpretieren von Dingen welche niemand gesagt hat nerven einfach nur. Ich bezog mich einzig und alleine auf die zeitliche Komponente.

Gast
2009-06-06, 14:47:14
Und das der rv740 kein Aufguss wäre - ist schon ziemlich gewagt.
So ist das, reunion darf bei nvidia immer wieder das Wort aufguss verwenden, bei AMD jedoch wird es wehement abgestritten.
Gut das er die Mods auf seiner Seite hat, derartige Entdeckungen werden immer schön gelöscht.

nagus
2009-06-06, 14:50:13
Aber die Konkurrenz hat anscheinend auch schon Dx11 Chips fertig und wartet nur noch auf die Fertigung, während nV mit irgend welche Gt200-Aufgüssen herum hantiert.

stimmt. und außerdem: @LovesuckZ: definiere bitte "nicht lieferbar (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&bl1_id=30&xf=132_512~891_Radeon+HD+4770)" und "paper launch" :crazy2:

LovesuckZ
2009-06-06, 15:01:33
Es sieht jedenfalls so aus als ob AMD hier deutlich vorne wäre während nV noch mir irgend welchen DX10-Chips herum hantiert.

So wie 2006 - gell? :rolleyes:

Ach lass stecken. Dein hineininterpretieren von Dingen welche niemand gesagt hat nerven einfach nur. Ich bezog mich einzig und alleine auf die zeitliche Komponente.

"Zeitliche Komponente"? Der rv740 wurde Anfang März veröffentlicht, wurde Ende April gelauncht und ist ein Monat nach der Vorstellung kaum verfügbar. Natürlich wäre dies bei nVidia negativ - Paperlaunch und so, aber wenn das AMD macht, ist es natürlich ganz wunderbar. Komisch ist irgendwie, warum man dann rv770 Chips benötigt, um Karten unter dem Label 47xx anbieten zu können? :|
Deine "zeitliche Komponente" zeigt, dass anscheinend nVidia zu einer Zeit mit ihrem "Aufguss" auf dem Markt sein wird, indem AMD quantitativ ihren rv740 zur Verfügung stellen. Aber schon in Ordnung, es ist von AMD, da ist es kein Aufguss und natürlich haben sie einen "zeitlichen Vorteil", da sie jede Woche 2 Karten nach Deutschland bringen.

stimmt. und außerdem: @LovesuckZ: definiere bitte "nicht lieferbar (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&bl1_id=30&xf=132_512~891_Radeon+HD+4770)" und "paper launch" :crazy2:

Cool, 5 Läden in ganz Europa haben Karten. Und das 3 Monate nach dem Paperlaunch auf der Cebit. Wo sind eigentlich die Mobile-Varianten? :lol:

KonKorT
2009-06-06, 15:02:05
[...] Unsinn wie 12 TMUs auf 24SPs. [...]
Klar ist das Unsinn. Aber man sollte News am Wochenende um die Uhrzeit sowieso nicht für voll nehmen, da ist häufig noch Restalkohol im Spiel. =)

Gast
2009-06-06, 15:04:26
stimmt. und außerdem: @LovesuckZ: definiere bitte "nicht lieferbar (http://geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&bl1_id=30&xf=132_512~891_Radeon+HD+4770)" und "paper launch" :crazy2:
8 Händler für 4 Karten. Guter Wert, die anderen Karten sind zwar bei 0 Händlern, naja.

Vor 2 Tagen warens noch 8 Händler bei 3 Karten. Macht eine Veränderung um 0 Händler.


Zu deinem Problem mit dem Namen Paperlaunch:
Release 4770: 28. 04. 2009
Heute: 5. 06. 2009

Differenz: Fast 1,5 Monate.
Lieferstatus war nie gut, das schlechte Ergebniss heute ist jedoch weit besser als es am Release war.


Definition hardlaunch:
Zum Releasezeitpunkt sind genügend Karten vorhanden, mindestens der erste Ansturm kann befriedigt werden. Im Besten Falle bleibt der Lieferstatus auch später sehr gut.

nagus
2009-06-06, 15:16:10
8 Händler für 4 Karten. Guter Wert, die anderen Karten sind zwar bei 0 Händlern, naja.

Vor 2 Tagen warens noch 8 Händler bei 3 Karten. Macht eine Veränderung um 0 Händler.


Zu deinem Problem mit dem Namen Paperlaunch:
Release 4770: 28. 04. 2009
Heute: 5. 06. 2009

Differenz: Fast 1,5 Monate.
Lieferstatus war nie gut, das schlechte Ergebniss heute ist jedoch weit besser als es am Release war.


Definition hardlaunch:
Zum Releasezeitpunkt sind genügend Karten vorhanden, mindestens der erste Ansturm kann befriedigt werden. Im Besten Falle bleibt der Lieferstatus auch später sehr gut.

definiere "genug karten" wieviel sind "genug" ab wann ist genug "genug"?? ah ich verstehe. bei nvidia wär diese situation genug, bei amd nicht. vollkommen klar.

LovesuckZ
2009-06-06, 15:18:29
definiere "genug karten" wieviel sind "genug" ab wann ist genug "genug"?? ah ich verstehe. bei nvidia wär diese situation genug, bei amd nicht. vollkommen klar.

Soso, ein paar Karten bei 5 Händler sind drei Monate nach dem Paperlaunch "genug"? Ja, bei Tarkin, ach verdammt, ich meine Nagus, sind das "genug".
Ich warte darauf, dass du beim G(T)300 bestimmt der erste sein wird, der nach einem Paperlaunch schreit - in genau der selben beschissenen Verfügbarkeitsposition. Aber da geht es um nVidia - und da ist dann plötzlich "nicht genug".

reunion
2009-06-06, 15:21:56
So wie 2006 - gell? :rolleyes:


Nein.

"Zeitliche Komponente"? Der rv740 wurde Anfang März veröffentlicht, wurde Ende April gelauncht und ist ein Monat nach der Vorstellung kaum verfügbar. Natürlich wäre dies bei nVidia negativ - Paperlaunch und so, aber wenn das AMD macht, ist es natürlich ganz wunderbar. Komisch ist irgendwie, warum man dann rv770 Chips benötigt, um Karten unter dem Label 47xx anbieten zu können? :|
Deine "zeitliche Komponente" zeigt, dass anscheinend nVidia zu einer Zeit mit ihrem "Aufguss" auf dem Markt sein wird, indem AMD quantitativ ihren rv740 zur Verfügung stellen. Aber schon in Ordnung, es ist von AMD, da ist es kein Aufguss und natürlich haben sie einen "zeitlichen Vorteil", da sie jede Woche 2 Karten nach Deutschland bringen.


Du bist nicht fähig eine Diskussion zu führen also lass es einfach. RV740 wurde im März vorgestellt, ist also spätestens seit Ende 2008 fertig. Seit dem konzentriert sich alles auf die DX11-Chips, welche offenkundig auch schon weit fortgeschritten sind. Warum die Chips nicht in größeren Volumen kommen ist bekannt. Den anderen Mist hast du dir wie üblich aus dem Anus gesaugt. Niemand hat sich an einem Aufguss gestört, sondern an der späten Veröffentlichung dessen.

Gast
2009-06-06, 15:28:32
definiere "genug karten" wieviel sind "genug" ab wann ist genug "genug"?? ah ich verstehe. bei nvidia wär diese situation genug, bei amd nicht. vollkommen klar.
Mehr hast du nicht zu schreiben? :rolleyes:

Nein, 8 Angebote bei 5 Händlern über 4 Karten ist nicht genug, nicht nach so langer Zeit.

Am Releasetag kann das noch als genug durchgehen, wenn danach die Händlerregale noch befüllt werden.


Selbst AMD schreibt ihnen sind die 40.000 bisher ausgelieferten Karten nicht genug, da brauchst du dich nicht hinstellen und behaupten die Nachfrage wird locker befriedigt.


Fakt ist, die Verfügbarkeit war noch deutlich schlechter als jetzt, besonders an den ersten Tagen. Somit = Paperlaunch.
Jetzt ist die Verfügbarkeit sehr dürftig. Selbst wenn die Verfügbarkeit jetzt gut wäre, was sie nicht ist, änderte es nichts an der Verfügbarkeit am Anfang.

LovesuckZ
2009-06-06, 15:29:03
Du bist nicht fähig eine Diskussion zu führen also lass es einfach. RV740 wurde im März vorgestellt, ist also spätestens seit Ende 2008 fertig. Seit dem konzentriert sich alles auf die DX11-Chips. Warum die Chips nicht in größeren Volumen kommen ist bekannt. Den anderen Mist hast du dir wie üblich aus dem Anus gesaugt. Niemand hat sich an einem Aufguss gestört, sondern an der späten Veröffentlichung dessen.

So, dich stört eine "späte Veröffentlichung" der GT21x Ableger in 40nm, wenn der Konkurrent zwar früher etwas gezeigt hat, es aber bis zum GT21x nichtmal in anständiger Stückzahl produzieren kann? Nein, es ist doch nur deswegen schlecht, weil es bei nVidia passiert. Dich scheint es nicht zu stören, dass es bald mehr rv770 Chips in 47xx Karten gibt als rv740. Außerdem scheint es dich genauso wenig zu stören, dass es 3 Monate nach der Cebit immernoch keine rv740 Ableger in Notebooks gibt.
Das einzige, wo du wirklich gut bist, sind deine persönlichen Anfeindungen, weil du denkst, dass dein Mist der einzig wahre ist. Ich hoffe für dich wirklich, dass man in einem Notebook früher einen rv740 als einen GT21x Ableger sieht. Denn ansonsten bist du der Idiot, der "sich alles aus dem Anus" zieht. :rolleyes:

=Floi=
2009-06-06, 15:32:49
warum nein?
bis jetzt schaut es schon so aus, dass ati einfach klar eine stufe darunter ist. aufgrund der breite skaliert dann der GT300 auch noch besser mit dem takt und wenn mal neue spiele kracher kommen, dann könnte ganz schnell der ofen aus sein für ati mit ihrem kleinen chip.
nebenbei kennen wir von beiden chips keine benchmarkwerte und deshalb sollte man auf beiden seiten vorsichtig sein.

zum thema:
nv sollte den ganzen mist jetzt einstampfen und komplett auf DX11 setzen. schade ist es vor allem um den GT212, aber hier hat man auch den schritt gewagt und nun sollte man einen kompletten schnitt ziehen.

Gast
2009-06-06, 15:36:41
In der Schweiz kriegt man die Karte (HD 4770) erstaunlich gut, sogar im Media Markt.

derguru
2009-06-06, 15:45:04
Fakt ist, die Verfügbarkeit war noch deutlich schlechter als jetzt, besonders an den ersten Tagen. Somit = Paperlaunch.


unter papierlaunch verstehe ich gar keine karten und nicht schlecht verfügbar.
apropo meine karte habe ich schon seit mehr als einem monat.


zum thema:
nv sollte den ganzen mist jetzt einstampfen und komplett auf DX11 setzen. schade ist es vor allem um den GT212, aber hier hat man auch den schritt gewagt und nun sollte man einen kompletten schnitt ziehen.

was bedeutet das es noch dauern wird.

V2.0
2009-06-06, 16:20:14
Momentan sehen doch beide schlecht aus. NV hat keine 40nm Chips im Handel, ATI kann ihren einzigen nicht in ausreichenden Stückzahlen liefern.

Nakai
2009-06-06, 18:38:55
So oder so. Wenn NV die GT21x-Karten mit DX10.1 ausliefert, heißt das nur, dass man nichts besonderes im unteren Segment liefern wird. AMD wird wohl zwei DX11-Chips bis Ende 2009 liefern. Von NV weiß man nicht viel, jedoch, dass alles unter dem GT300 für die GT21x-Karten vorgesehn is.


mfg Nakai

deekey777
2009-06-06, 18:56:46
Thema: GeForce 200 @ 40nm - GT21x (und DX10.1?). Ende (das gilt für die Diskussionsteilnehmer über die Verfügbarkeit des RV740)

=Floi=
2009-06-06, 19:06:18
lieber noch 6 monate verzögerung und dann mit DX11, wie ein weiteres jahr dx10.0 mit GT2XX. nvidias trumpf bei cuda war bisher immer die gleicheit der ganzen architektur und die komplette abwertskompatibilität. die breite masse kauft im unteren segment und deshalb wären solche low und performance karten mit dx11 ganz gut.
das featureset ist bei den kleineren karten wohl noch wichtiger wie bei den großen...

Gast
2009-06-06, 20:12:15
Nvidia ist insgesamt zu spät dran mit den 40nm Chips.Wären da nicht die Fertigungsprobleme in TSMCs 40-nm-Prozess könnte NV den Markt längst mit entsprechenden Produkten (inklusive D3D11-Highend) überschwemmen. Gleiches gilt für ATI.

Tarkin
2009-06-06, 23:48:22
CJ auf Beyond3d:

http://forum.beyond3d.com/showpost.php?p=1301140&postcount=654

Next news they'll post is that GT216 has 48 SPs and GT218 has 24 SPs. And then it's the clockspeeds (600-650 for GT216 and ~600 for GT218)... and finally a newsarticle with the Vantage scores (~P3xxx & ~P1xxx)... that way they'll have news and hits for the next couple of days.

Spasstiger
2009-06-07, 04:15:59
Next news they'll post is that GT216 has 48 SPs and GT218 has 24 SPs.
Interessante Zahlen, daran habe ich bislang überhaupt nicht gedacht. Dann hat man sich womöglich am Shadercluster-Design des GT200 orientiert.
Das hieße dann 8 TMUs beim GT218 und 16 TMUs beim GT216. Der GT216 wäre somit deutlich schwächer als ein G94, den ich bislang als Zielrichtung für den GT216 vermutet habe.
Was ist eigentlich der dritte Chip, den NV in 40 nm bei TSMC fertigen lässt? /EDIT: Oder war da außer dem GT300 gar nix mehr? Ich hatte irgendwie drei GT2xx @ 40 nm mit einem Tapeout im Hinterkopf.

Ailuros
2009-06-07, 06:49:23
lieber noch 6 monate verzögerung und dann mit DX11, wie ein weiteres jahr dx10.0 mit GT2XX. nvidias trumpf bei cuda war bisher immer die gleicheit der ganzen architektur und die komplette abwertskompatibilität. die breite masse kauft im unteren segment und deshalb wären solche low und performance karten mit dx11 ganz gut.
das featureset ist bei den kleineren karten wohl noch wichtiger wie bei den großen...

Es ist wohl kein Fehler seitens Fuad letztenendes; Grund der Entscheidung fuer 10.1 ist dass sie sich hauptsaechlich mit dem GT21x Zeug auf OEM Schlepptopp deals konzentriert haben. Hierbei haben die Hersteller wohl 10.1 verlangt welches auch zeigt dass es von Anfang an eine doofe Entscheidung war 10.1 nicht in GT2xx zu unterstuetzen.

***edit:

Spasstiger,

Ich glaube es gibt noch eine GT215 aber ich bin mir auch nicht mehr sicher darueber. Auf jeden Fall bedeutet selbst die Ankuendigung von GT218 bzw. 216 dass die Dinger in Schlepptops auf Regalen eher zur Zeit der G300 Veroeffentlichung sein werden.

AnarchX
2009-06-07, 08:21:15
Spasstiger,

Ich glaube es gibt noch eine GT215 aber ich bin mir auch nicht mehr sicher darueber.
Dieser wurde von Digitimes als Mobile-High-End bezeichnet und auf der OEM-Roadmap für die BTSS taucht auch ein GTS 2xx über der GTS 250 auf (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788).

Hier gibt es die CJ-Daten zu GT216/218 noch etwas genauer:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7344133#post7344133

AnarchX
2009-06-07, 20:06:25
Last I heard about GT215 was four clusters of 24, so 96 SPs and 32 textures.
http://forum.beyond3d.com/showpost.php?p=1301292&postcount=663

Sofern man hier nicht entsprechende Taktraten auffahren kann, ist das doch nicht wirklich "Mobile-High-End".

Ailuros
2009-06-08, 14:24:01
Eben.

KonKorT
2009-06-08, 21:50:05
Nvidia GT21x-Reihe doch mit DirectX 10.1

"[...] Inzwischen haben uns mehrere Quellen bestätigt, dass die Gerüchte stimmen, die GT21x-Reihe tatsächlich mit DirectX 10.1 ausgestattet würde. Wir konnten sogar erste Details ausmachen:
Demnach war der Hauptgrund, warum man nachträglich noch DirectX 10.1 implementiert hat, dass die Chips vorzugsweise im OEM-Markt vertrieben werden sollen und hier ein aufgewertetes DirectX durchaus etwas hermachen kann.[...]"

"[...] Unklar ist, ob sich mit der nachträglichen DirectX 10.1-Implementierung auch die Verspätung der Chips erklären lässt oder TSMC hier erneuter Sündenbock ist. Möglicherweise ist es auch eine Mischung: Nvidia hat von TSMCs Problemen beim 40 Nanometer-Prozess gehört und die Zeit genutzt, DirectX 10.1 noch einzupflegen.[...]"

"[...] Wie wir weiter in Erfahrung bringen konnten, waren die Änderungen allerdings sehr überschaubar. Bereits der GT200 hatte einige DirectX 10.1-Funktionen intus, so dass das Angleichen an die Microsoftschen Spezifikationen nur noch kosmetischer Natur gewesen sein soll.[...]"


http://www.hardware-infos.com/news.php?news=2998

crux2005
2009-06-08, 21:52:47
also morgen/übermorgen am 16. wird es nur so Regnen mit news/previews über 40nm mobile GPUs ;)