PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

LovesuckZ
2009-09-11, 00:52:41
"late - we talking month you can problely measure on a few fingers. It's not a significant delay"

David White, als er auf der Citi Investment Research auf D3D11 und Konkurrenz angesprochen wurde.

Ich rufe mal in den Raum: 3 Monate - ergo Produkte im Dezember.

Und zu 40nm:
Man erwartet im 4.Q einen bedeutenden Anteil am Umsatz und irgendwann im 1. Halbjahr 2010 sollen die 40nm Produkte mehr als 50% ausmachen. Imo ist vorallen das zweite Ziel nur mit D3D11 Produkte machbar, da ION2 kaum so schnell adaptiert wird.

w0mbat
2009-09-11, 00:57:54
"a few fingers" sind für mich 3, also wären wir im Dezember.

Knuddelbearli
2009-09-11, 01:41:01
naja oem macht stückzahlenmässig sicherlich weit über 50% aus und dort ist der Gt212 doch schon grossteils im einsatz.

würde da in den 40nm Anteil nit zuviel rein interpretieren

LovesuckZ
2009-09-11, 08:52:52
naja oem macht stückzahlenmässig sicherlich weit über 50% aus und dort ist der Gt212 doch schon grossteils im einsatz.

würde da in den 40nm Anteil nit zuviel rein interpretieren

Er sprach nicht von Stückzahlen sondern vom Umsatz - und mit G210/GT220 Karten wird man kaum mehr als 50% erreichen.
Im letzten Quartal machte Desktop und Notebook 45% des Gesamtumsatzes aus. Die stärksten Wachstumzweige werden Chipsatz und Tegra/Tesla sein. Imo benötigt es es den GT300 und Konsorten, um das Ziel zu erreichen.

Ailuros
2009-09-11, 12:41:02
"a few fingers" sind für mich 3, also wären wir im Dezember.

Wieso gerade 3? Es koennte jegliche Zahl zwischen 2 und 5 sein.

w0mbat
2009-09-11, 13:02:28
Ja, könnte. Aber ich hab so das Gefühl, dass man hier 3 meint.

LovesuckZ
2009-09-11, 13:05:04
Mehr als 3 würden ein Quartal bedeuten und das ist schon nicht mehr unbedeutend.

AnarchX
2009-09-11, 13:15:33
Fake: http://www.coolehardware.de/Ebay/35146_0.jpg
Das Design der GTX 380?
http://img22.imageshack.us/img22/3688/1252666037890.jpg
http://itbbs.pconline.com.cn/diy/10559603.html

reunion
2009-09-11, 13:16:35
Mehr als 3 würden ein Quartal bedeuten und das ist schon nicht mehr unbedeutend.

Schon drei würde ein Quartal bedeuten.

derguru
2009-09-11, 13:17:03
ein triple radi drauf gepackt,lol;D

reunion
2009-09-11, 13:17:32
Das Design der GTX 380?
http://img22.imageshack.us/img22/3688/1252666037890.jpg
http://itbbs.pconline.com.cn/diy/10559603.html

Was ist denn das? Sieht aus wie ein Radiator einer Wakü.

LovesuckZ
2009-09-11, 13:20:48
Schon drei würde ein Quartal bedeuten.

3 Monate entsprechen ein Quartal, bei 4 ist man eins später am Markt. ;)

reunion
2009-09-11, 13:44:35
3 Monate entsprechen ein Quartal, bei 4 ist man eins später am Markt. ;)

Nein.

Ailuros
2009-09-11, 14:29:59
Ja, könnte. Aber ich hab so das Gefühl, dass man hier 3 meint.

Und ich sage 4 nur weil ich allergisch gegen ungerade Zahlen bin :freak:

Daredevil
2009-09-11, 14:33:01
ein triple radi drauf gepackt,lol;D
Mit Verschraubungen für.... ja wofür denn eigentlich?:freak:
Was ein Schmarn.

Sorkalm
2009-09-11, 16:08:40
3 Monate entsprechen ein Quartal, bei 4 ist man eins später am Markt. ;)

Ein Quartal hat drei Monate. Also ist Monat x, Monat x+1 und Monat x+2 im Quartal, wenn man mit x den ersten Monat des Quartals bezeichnet.
Selbst wenn man im Monat x ursprünglich den Launch anvisiert hatte, ist x+3 eben schon nicht mehr in diesem Quartal. ;)

Oder mit "Namen": wenn man Oktober anvisiert hatte (Q4), sind drei Monate später eben schon Januar (Q1).

LovesuckZ
2009-09-11, 16:14:55
Ein Quartal hat drei Monate. Also ist Monat x, Monat x+1 und Monat x+2 im Quartal, wenn man mit x den ersten Monat des Quartals bezeichnet.
Selbst wenn man im Monat x ursprünglich den Launch anvisiert hatte, ist x+3 eben schon nicht mehr in diesem Quartal. ;)

Oder mit "Namen": wenn man Oktober anvisiert hatte (Q4), sind drei Monate später eben schon Januar (Q1).

Ja - doofe Sprache, ist mir auch aufgefallen.
Ich meine, dass sie innerhalb von 3 Monaten - also spätesten am 21/22.12 - Produkte auf dem Markt haben und so im Quartal bleiben.

Ailuros
2009-09-11, 16:19:04
Tja dass sie versuchen werden dieses Jahr noch zu veroeffentlichen ist mir schon klar. Was mir nicht klar ist ist ob sie es auch wirklich schaffen werden. Auf jeden Fall sollte so langsam durch indirekte Kanaele mehr ueber die Architektur durchfliessen.

V2.0
2009-09-11, 16:28:57
Die "griffigen" Zahlen hört man ja doch öfters mal gerüchteweise, aber die entscheidenden Details kann eigentlich nur ein Briefing von NV verraten und wer das hatte wird nicht plaudern.
Und selbst für die üblichen Gerüchtequellen dürfte GT300 schwer zu fassen sein. Schon die Angabe der Taktung dürfte schwer sein, wenn man kein Sample hat oder ein NV-Briefing.

mboeller
2009-09-11, 18:26:48
"late - we talking month you can problely measure on a few fingers. It's not a significant delay"

David White, als er auf der Citi Investment Research auf D3D11 und Konkurrenz angesprochen wurde.



Na hoffentlich zählt Nvidia wirklich anders als zB. Boeing. Die wollten im Juni auch in ein "paar Wochen" einen neuen Terminplan bringen und dann hat es bis Anfang September gedauert.

ein paar Finger...also bis zu 10 ;)

Coda
2009-09-11, 19:04:27
Wie auch immer, jedenfalls tut sich endlich mal wieder ordentlich was an der Performance.

RV870 ist schneller als ich erwartet habe und GT300 wird wohl nochmal eins drauflegen. Zumindest sollte NVIDIA dies tunlichst tun.

LovesuckZ
2009-09-11, 19:18:15
Doppelte GTX280 Leistung sollte man wohl angestrebt haben - alles andere wäre dann wie beim GT200, nur viel schlimmer.

Coda
2009-09-11, 19:53:38
Doppelte GTX280 Leistung sollte man wohl angestrebt haben
Imho mehr. Aber ob sie es nach den ganzen Problemmeldungen auch schaffen - langsam schwindet da meine Zuversicht.

tombman
2009-09-11, 20:11:09
Meine Kugel sagt:

Kaufbar: Jänner/Februar
Leistung: 2x GTX280, allerdings superstark bei GPGPU...

mictasm
2009-09-11, 20:24:26
Huuhaa! Ich glaube an tombmans Kugel und hoffe trotzdem auf früher.

Blaire
2009-09-11, 20:26:54
2xGTX280 wäre fast schon zuwenig, ich glaube eher 2,5x oder mehr, ähnlich wie damals von G70 zu G80...

AnarchX
2009-09-11, 20:38:27
Wenn das neue Taktmanagement die TMUs wirklich in Richtung 1GHz bringen kann, wenn sie benötigt werden, dann wäre ein Leistung über dem Faktor 2 im Durchschnitt durchaus denkbar.

Gerade durch die Gather()-Funktionen in D3D10.1/D3D11 kann man diese dann wohl noch weiter entlasten, sodass die ALUs ihre Leistung voll ausspielen können.

Das Problem für GT300 Anfang 2010 könnte wohl wirklich sein, dass AMD hier schon erste Daten zu einem Refresh ala RV790 oder einem 32nm Shrink über bestimmte Kanäle verbreitet, sodass der Enthusiast hier wohl möglich noch weiter wartet.

igg
2009-09-11, 21:05:10
Zu Nvidia fällt mir ein: "Am dunkelsten ist die Nacht vor der Dämmerung".

Es würde mich wundern, wenn Nvidia das nicht kommen sah. Sie haben viele erfahrene Ingeneure und konnten einiges sicher antizipieren.

Ailuros
2009-09-11, 21:07:18
Wenn das neue Taktmanagement die TMUs wirklich in Richtung 1GHz bringen kann, wenn sie benötigt werden, dann wäre ein Leistung über dem Faktor 2 im Durchschnitt durchaus denkbar.

Gerade durch die Gather()-Funktionen in D3D10.1/D3D11 kann man diese dann wohl noch weiter entlasten, sodass die ALUs ihre Leistung voll ausspielen können.

Theoretisch wenn alles bisherige stimmen sollte koennte es schon ueber dem Faktor 2x liegen, aber zwischen Theorie und Realitaet gibt es meistens grosse Unterschiede. Man kann in die Richtung schaetzen aber ich will diesmal absolut sicher sein.

Das Problem für GT300 Anfang 2010 könnte wohl wirklich sein, dass AMD hier schon erste Daten zu einem Refresh ala RV790 oder einem 32nm Shrink über bestimmte Kanäle verbreitet, sodass der Enthusiast hier wohl möglich noch weiter wartet.

Wie lange dauerte es denn zwischen 770 und 790 und wie oft meckerte das Publikum dass es zu lange dauerte fuer so "kleine" Aenderungen? Eine 770 hatte auch keinen ~190W TDP.

Gast
2009-09-11, 21:42:30
Frage ist doch eher, ob man die "custom" Schaltungen der Arithmethikeinheiten auf die hohe angestrebte Taktfrequenz nun bringen konnte oder wieder an der 1,6GHz Marke scheidert. Denn es wird hier wohl teurer sein, die Architektur zu verbreiten, als höhere Taktbarkeit durch % weniger Transistoren zu erreichen. Als G92 herauskam hoffte man das die 2GHz endlich fallen würden für die Shaderdomain, aber die sind wohl mit nem TDP von 250Watt damals im Simulator abgefackelt...

LovesuckZ
2009-09-11, 21:44:31
Das Problem für GT300 Anfang 2010 könnte wohl wirklich sein, dass AMD hier schon erste Daten zu einem Refresh ala RV790 oder einem 32nm Shrink über bestimmte Kanäle verbreitet, sodass der Enthusiast hier wohl möglich noch weiter wartet.

Es gibt laut Arun keinen 32nm Prozeß. Und 28nm soll erst im 4.Q 2010 produktionsreif sein - und je kleiner sie werden, umso schwieriger ist die Entwicklung.

Frage ist doch eher, ob man die "custom" Schaltungen der Arithmethikeinheiten auf die hohe angestrebte Taktfrequenz nun bringen konnte oder wieder an der 1,6GHz Marke scheidert. Denn es wird hier wohl teurer sein, die Architektur zu verbreiten, als höhere Taktbarkeit durch % weniger Transistoren zu erreichen. Als G92 herauskam hoffte man das die 2GHz endlich fallen würden für die Shaderdomain, aber die sind wohl mit nem TDP von 250Watt damals im Simulator abgefackelt...

Man geht angeblich vo 240 -> 512 SP. Das ist mehr als bei AMD. Selbst bei 1476Mhz hätte man die Rechenleistung zur GTX285 mehr als verdoppelt. Und 1476MHz muss das Minimalziel sein.

Gast
2009-09-11, 21:52:28
Meine Kugel sagt:

Kaufbar: Jänner/Februar
Leistung: 2x GTX280, allerdings superstark bei GPGPU...

jo für 600€+ und für was?
Du bist doch der Redner von Konsolenquark....fürn PC...

Nv hat verschissen..nicht mit dem GT300--wern brauch... sondern viel früher mit der Kundenverarsche...refresh vom refresh und 3 tage später für 200€ minus..denkende Käufer vergessen das nicht!

Und was willste mit ssaa ect pp bei den "neuen" games...genau deine Worte Konsolen....

Gast
2009-09-11, 22:09:05
Frage ist doch eher, ob man die "custom" Schaltungen der Arithmethikeinheiten auf die hohe angestrebte Taktfrequenz nun bringen konnte oder wieder an der 1,6GHz Marke scheidert. Denn es wird hier wohl teurer sein, die Architektur zu verbreiten, als höhere Taktbarkeit durch % weniger Transistoren zu erreichen. Als G92 herauskam hoffte man das die 2GHz endlich fallen würden für die Shaderdomain, aber die sind wohl mit nem TDP von 250Watt damals im Simulator abgefackelt...

2GHz Shader Takt ist doch für die 9800GTX+ in der regel mit etwas OC kein Problem, die takten ja bereits default mit 1.836MHz! also nix mit abfackeln und 250Watt...

Die richtige takt probleme kammen ja auch erst mit dem G200, wohl einfach zubreit und zu gross

Gipsel
2009-09-11, 23:06:31
Leistung: 2x GTX280, allerdings superstark bei GPGPU...
In dem Bereich profitiert nv momentan extrem von der besseren Umgebung. Da müssen die schon ordentlich was in der ALU-Leistung draufpacken (am besten Faktor 3) bzw. deutliche Vorteile in der Flexibilität aufweisen (Stichworte z.B. MIMD, Branching), damit das mit OpenCL und DirectXCompute nicht vielleicht zugunsten von AMD kippt.

Denn von der Rohleistung, steht nv im Moment deutlich schlechter da. Selbst mit 512 Shadereinheiten @1.6GHz würde ein GT300 nur auf 1.6TFlop MADD-Leistung kommen, das ist die Marke einer 1GHz HD4890, die 5870 liegt ja bekanntermaßen bei ~2.7 TFlops. Soo schlecht sind die Slots sehr selten gefüllt, als daß das reichen würde. Und nicht immer hat man so viele Speicherzugriffe, damit es das für nv herausreißen kann. Außerdem sind die RV7x0 in dem Bereich meist effizienter (sprich, die nutzbare Bandbreite ist sehr hoch und mit weniger Restriktionen verbunden als bei nv).

Und von DP muß ich gar nicht anfangen. Da klafft zwischen einer GTX285 und der HD5870 momentan ein Faktor 6 (544 GFlops vs. 88.5 GFlop), den es für GT300 aufzuholen gilt. Und da ist das AMD-Design nicht durch den Füllgrad der VLIW-Slots prinzipiell im Nachteil (eher im Gegenteil, ATI schafft die Peakleistung z.B. auch nur mit Additionen, nicht nur mit MADDs).

Also ich habe sehr hohe Erwartungen an GT300.

Slipknot79
2009-09-12, 03:03:24
2xGTX280 wäre fast schon zuwenig, ich glaube eher 2,5x oder mehr, ähnlich wie damals von G70 zu G80...


2x kommt hin, war bisher so gut wie immer bei den Generationssprüngen ab der 6er Reihe.

Coda
2009-09-12, 03:15:50
Es wäre aber zu wenig, vor allem bei der Chipgröße.

Ailuros
2009-09-12, 08:48:53
In dem Bereich profitiert nv momentan extrem von der besseren Umgebung. Da müssen die schon ordentlich was in der ALU-Leistung draufpacken (am besten Faktor 3) bzw. deutliche Vorteile in der Flexibilität aufweisen (Stichworte z.B. MIMD, Branching), damit das mit OpenCL und DirectXCompute nicht vielleicht zugunsten von AMD kippt.

Ich bin mir so sicher wie ich sein kann dass es sich nicht um MIMD Einheiten handelt; dass soll aber nicht heissen dass sie woemoeglich die existierenden SIMD Einheiten nicht weiter optimiert haben.

Stur auf GT200 Ebene berechnet (und auch angenommen die Frequenz-ziele werden erreicht) liegt die Relation ungefaehr auf 2.5x.

Denn von der Rohleistung, steht nv im Moment deutlich schlechter da. Selbst mit 512 Shadereinheiten @1.6GHz würde ein GT300 nur auf 1.6TFlop MADD-Leistung kommen, das ist die Marke einer 1GHz HD4890, die 5870 liegt ja bekanntermaßen bei ~2.7 TFlops.

Noch etwas Geduld was die Evergreen Einzelheiten betrifft, denn sture Zahlen erzaehlen meistens nicht die gesamte Geschichte.

Ich sag es nochmal IMHO liegt D12U's Staerke nicht so stark in der insgesamten Leistung sondern im perf/Watt Bereich. Man baute diesmal einen schlankeren chip und investierte hoechstwahrscheinlich in eine fortschrittliche Frequenzverwaltung dass die jeweiligen Anteile des chips so getaktet werden wie er es wirklich braucht. Da wo mein Laien-Verstaendnis zu Ende kommt ist wie ein normaler IMR den workload im voraus genau erkennt.

Aber spielen wir mal mit der folgenden hypothetischen These: wir haben einen Fall der verdammt Textur-limitiert ist und arithmetik liegt auf absolut minimalem Nivaeu. TMUs werden auf eine ziemlich hohe Frequenz geschaltet und man goennt den ALUs im Gegensatz eine verdammt moderate Frequenz.


Soo schlecht sind die Slots sehr selten gefüllt, als daß das reichen würde. Und nicht immer hat man so viele Speicherzugriffe, damit es das für nv herausreißen kann. Außerdem sind die RV7x0 in dem Bereich meist effizienter (sprich, die nutzbare Bandbreite ist sehr hoch und mit weniger Restriktionen verbunden als bei nv).

Tja hier hat hoffentlich NV einiges geaendert; die crossbar auf GT200 soll ja unveraendert seit G80 sein und allein dieses soll den ersten ziemlich stark aufhalten.

Und von DP muß ich gar nicht anfangen. Da klafft zwischen einer GTX285 und der HD5870 momentan ein Faktor 6 (544 GFlops vs. 88.5 GFlop), den es für GT300 aufzuholen gilt. Und da ist das AMD-Design nicht durch den Füllgrad der VLIW-Slots prinzipiell im Nachteil (eher im Gegenteil, ATI schafft die Peakleistung z.B. auch nur mit Additionen, nicht nur mit MADDs).

Dieses Feld ist und bleibt das grosse Fragezeichen fuer mich. Ich kann bei bestem Willen nicht schlucken dass sie DP throughput um zich Male erhoeht haben und immer noch dedizierte DP Einheiten benutzen. Dally sagte selber dass die heutige 8:1 Relation (SP/DP) besser werden soll und das ultimate Ziel der Zukunft 2:1 ist. Wenn ich jetzt also auf 4:1 tippe und an dedizierte DP Einheiten glauben wuerde nehmen diese mehr als die Haelfte der die area ein.

Es ist immer wieder dumm wenn man fuer die wichtigsten Einzelheiten keine Antwort hat.

Also ich habe sehr hohe Erwartungen an GT300.

Ich glaube mehr und mehr an die dual chip/single SKU These damit sie Hemlock schlagen koennen. Denn egal was fuer Effizienz-Steigerung in D12U stecken ich kann mir bestenwillens NICHT vorstellen dass ein solcher angeblicher 512SP chip einen ~5.4 TFLOP Hemlock schlagen koennte. Die GTX295 schlaegt die 4870X2 um eine relativ kleine Marge, aber die letztere hat auch grob um die 40% mehr FLOPs (und ja natuerlich rechne ich auch moegliche Fuellraten im Hinterkopf mit...).

AnarchX
2009-09-12, 09:32:01
Ob man bei Hemlock wirklich 2x2,7 TFLOPs schafft? Immerhin liegt man mit 1x 2,7 TFLOPs schon bei 188W, da würde ich einen 300W Hemlock doch eher bei <=5 TFLOPs sehen.

Dadurch sieht es für GT300 wohlmöglich gar besser aus als noch bei GT200 vs RV770X2:
- etwa gleiche Bandbreite (RV770X2 hatte 60% mehr)
- FLOPs-Leistungsunterschied im Faktor 2, statt 2,5
- Texturleistung wohlmöglich gleich bzw. höher als bei Hemlock (RV770X2 hatte 25% mehr)

Da könnte der Unterschied vernachlässigbar gering werden und NV könnte punkten durch eine bessere Frameverteilung, einer 2GiB Version und eben einem niedrigen Verbrauch.

Ailuros
2009-09-12, 09:36:32
Ob man bei Hemlock wirklich 2x2,7 TFLOPs schafft? Immerhin liegt man mit 1x 2,7 TFLOPs schon bei 188W, da würde ich einen 300W Hemlock doch eher bei <=5 TFLOPs sehen.

Kann sein. Aber keiner weiss momentan ob und was ATI bei Hemlock leicht kastrieren koennte.

Dadurch sieht es für GT300 wohlmöglich gar besser aus als noch bei GT200 vs RV770X2:
- etwa gleiche Bandbreite (RV770X2 hatte 60% mehr)
- ALU-Leistungsunterschied im Faktor 2, statt 2,5
- Texturleistung wohlmöglich gleich bzw. höher als bei Hemlock (RV770X2 hatte 25% mehr)

Da könnte der Unterschied vernachlässigbar gering werden und NV könnte punkten durch eine bessere Frameverteilung, einer 2GiB Version und eben einem niedrigen Verbrauch.

Etwa gleiche Bandbreite zwischen D12U und Hemlock?

reunion
2009-09-12, 09:37:34
Wie sicher ist das eigentlich mit der TMU-Domain? Bisher hieß es immer man braucht eine Shaderdomain weil man TMUs nur äußerst schwer hoch takten kann. Jetzt auf einmal soll eine angebliche TMU-Domain die Dinger auf 1Ghz hochziehen? Ist das realistisch?

AnarchX
2009-09-12, 09:39:50
Etwa gleiche Bandbreite zwischen D12U und Hemlock?
2x256-Bit @ 2,4 GHz (307GB/s) vs 512-Bit@2,2-2,4GHz(281-307GB/s), wobei natürlich D12U den Vorteil hat eine höhere Pro-Frame-BW zu haben.
Bei GTX 280 vs 4870X2 waren es ja noch: 140GB/s vs 230GB/s.

Wie sicher ist das eigentlich mit der TMU-Domain? Bisher hieß es immer man braucht eine Shaderdomain weil man TMUs nur äußerst schwer hoch takten kann. Jetzt auf einmal soll eine angebliche TMU-Domain die Dinger auf 1Ghz hochziehen? Ist das realistisch?
Dauerhaft hoher Takt macht wohl Probleme, bei GT300 sind das ja wohl eher "bis zu Taktraten". Dass man wenigere TMUs bei kleineren Designs auf 1GHz bringen kann, haben ja bisher schon einige GPUs gezeigt.

reunion
2009-09-12, 09:44:51
Ob man bei Hemlock wirklich 2x2,7 TFLOPs schafft? Immerhin liegt man mit 1x 2,7 TFLOPs schon bei 188W, da würde ich einen 300W Hemlock doch eher bei <=5 TFLOPs sehen.

Dadurch sieht es für GT300 wohlmöglich gar besser aus als noch bei GT200 vs RV770X2:
- etwa gleiche Bandbreite (RV770X2 hatte 60% mehr)
- FLOPs-Leistungsunterschied im Faktor 2, statt 2,5
- Texturleistung wohlmöglich gleich bzw. höher als bei Hemlock (RV770X2 hatte 25% mehr)

Da könnte der Unterschied vernachlässigbar gering werden und NV könnte punkten durch eine bessere Frameverteilung, einer 2GiB Version und eben einem niedrigen Verbrauch.

Ja, ich sehe Leistungstechnisch auch kein Problem für NV. Den GDDR5 Vorteil wird AMD diesmal nicht mehr haben und nochmal wird man sich nicht so ein "verunglücktes" Design wie bei GT200 leisten. GT300 ist halt doch ein High-End-Chip und kein AFR-Dingsbums wie Hemlock. Das Problem bei NV ist die time-to-market. Wenn GT300 erst 2010 kommt wäre das doch ein beachtenswerter Vorteil für AMD, wo man zuerst abkassieren kann und später wieder die Preise runter ziehen kann und ev. schon kurz vor einem Refresh bis GT300 kommt, oder zumindest eine Version mit schnelleren Speicher nachschieben wird können. Auch ist GT300 ja im Grunde Hemlock-Material, die kleineren Chips werden wohl noch eine ganze Zeit länger konkurrenzlos dastehen und damit speziell auch im Notebookmarkt abräumen.

LovesuckZ
2009-09-12, 10:29:48
nVidia's Lineup im Notebookmarkt wäre sehr gut, wenn man die Chips auch liefern könnte...
AMD sehe ich garnicht mal so stark, da bei ihnen die TDP doch ziemlich limitieren wird. Und wenn es ganz schlimm kommt, wird nVidia einfach mit den Preisen der GT218/216/215 Karten spielen und AMD unterbieten. Kleiner als 56/100/125mm^2 wird AMD nichtmal annährend sein, wenn man auch D3D11 bieten will.

Gast
2009-09-12, 10:35:38
Und wenn es ganz schlimm kommt, wird nVidia einfach mit den Preisen der GT218/216/215 Karten spielen und AMD unterbieten.
Mit dem Launch der RV8xx-Reihe sind DX10(.1)-Chips Ladenhüter. Wenn GT300 tatsächlich erst Anfang des Jahres kommt und die Mainstreamableger sogar noch später, dann kann das richtig bitter werden. Notebooks mit DX11-Sticker und EyeFinity für hübsche Projektorpräsentationen kann man mit angestaubten G80-Abkömmlingen kaum noch kontern und den guten Leumund hat man mit defekten Heatspreadern und Entschädigungsgezicke womöglich auch bereits überstrapaziert.

AnarchX
2009-09-12, 10:38:36
Dafür hat man mit der Mobility 5870 aber auch ein entsprechendes Flagschiff, was fast 2 TFLOPs in die Notebooks bringen wird.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7436309#post7436309
http://global.hkepc.com/4007

D3D11 und die Bedeutung von Eyefinity für die Notebookhersteller, auf dessen Wunsch dieses Feature wohl erst Einzug in die GPUs hielt, würde ich auch nicht unterschätzen.

Da sollte NV doch wirklich zeitig GT3xx Samples abgeben um deren möglichen Vorteil im Bezug auf die Pro-Watt-Leistung zu verdeutlichen, sodass man sie in den 2010er NBs verbaut.

Cpl. Dwayne Hicks
2009-09-12, 10:40:14
Ja, ich sehe Leistungstechnisch auch kein Problem für NV. Den GDDR5 Vorteil wird AMD diesmal nicht mehr haben und nochmal wird man sich nicht so ein "verunglücktes" Design wie bei GT200 leisten. GT300 ist halt doch ein High-End-Chip und kein AFR-Dingsbums wie Hemlock. Das Problem bei NV ist die time-to-market. Wenn GT300 erst 2010 kommt wäre das doch ein beachtenswerter Vorteil für AMD, wo man zuerst abkassieren kann und später wieder die Preise runter ziehen kann und ev. schon kurz vor einem Refresh bis GT300 kommt, oder zumindest eine Version mit schnelleren Speicher nachschieben wird können. Auch ist GT300 ja im Grunde Hemlock-Material, die kleineren Chips werden wohl noch eine ganze Zeit länger konkurrenzlos dastehen und damit speziell auch im Notebookmarkt abräumen.


Rein aus Interesse.... was ist denn am GT200 Design verunglückt? Die Platz verschwendung für die doch relativ nutzlosen DP ALUs?

LovesuckZ
2009-09-12, 10:47:55
Mit dem Launch der RV8xx-Reihe sind DX10(.1)-Chips Ladenhüter. Wenn GT300 tatsächlich erst Anfang des Jahres kommt und die Mainstreamableger sogar noch später, dann kann das richtig bitter werden. Notebooks mit DX11-Sticker und EyeFinity für hübsche Projektorpräsentationen kann man mit angestaubten G80-Abkömmlingen kaum noch kontern und den guten Leumund hat man mit defekten Heatspreadern und Entschädigungsgezicke womöglich auch bereits überstrapaziert.

Und wer kauft dann noch Intel? :confused:
D3D11 spielt - wie jede andere API - dort mal überhaupt keine Rolle. Mir ist auch kein Mainstream-Notebook bekannt, dass mit D3D10 wirbt. Die Leute achten auf andere Dinge als auf die Unterstützung einer Grafik-API. Und so bedeutend kann D3D10 für den Notebook auch nicht gewesen sein, denn Vista und D3D10 wurden seit fast zwei Jahren immer gebündelt...
Und EyeFinity gibt es doch jetzt auch schon - zwei externe und einen internen Monitor. Und das hat bis jetzt schon kaum einer nutzt. Selbst die dauerhafte Nutzung von einem digitalen Monitor ist dort kaum gegeben...
Oh und schlussendlich muss AMD erstmal Notebookchips bringen und wie die Vergangenheit zeigt, dauert es sehr lange von Vorführung zu ersten kaufbaren Produkten.

Dafür hat man mit der Mobility 5870 aber auch ein entsprechendes Flagschiff, was fast 2 TFLOPs in die Notebooks bringen wird.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7436309#post7436309
http://global.hkepc.com/4007
D3D11 und die Bedeutung von Eyefinity für die Notebookhersteller, auf dessen Wunsch dieses Feature wohl erst Einzug in die GPUs hielt, würde ich auch nicht unterschätzen.

Ich will den Hersteller sehen, der in sein Notebook eine 100Watt GPU einbaut...
Spieleleistung ist doch vorallen heute uninteressiert, wenn man sieht, was für Notebooks sich verkaufen. Und dann soll genau dort D3D11 irgendwas rausreizen? Die Leute spielen nicht aufgrund von D3D10, sondern weil sie sich unterhalten möchten. Das wird sich mit D3D11 nicht ändern.
CS und OpenCL werden wesentlich bedeutender sein - vorallen in Bezug auf die Notebooks mit den schwächeren CPUs.

Gast
2009-09-12, 10:50:10
Oh und schlussendlich muss AMD erstmal Notebookchips bringen und wie die Vergangenheit zeigt, dauert es sehr lange von Vorführung zu ersten kaufbaren Produkten.
Was dann aber wohl für beide Hersteller gilt. ;)

AnarchX
2009-09-12, 10:51:44
Rein aus Interesse.... was ist denn am GT200 Design verunglückt? Die Platz verschwendung für die doch relativ nutzlosen DP ALUs?
Zum einen scheinen die DP-ALUs wohl etwa Platz benötigt zu haben und nebenbei noch die Taktbarkeit der ALUs eingeschränkt haben, sodass man gar geringer takten musste als beim 90nm G80.

Dann hatte GT200 eben noch Probleme seine Rohleistung auf die Strasse zu bringen, da die Speichercrossbar seit G80 nicht skaliert wurde und wohl auch der Rasterizer, was man auch gerade im Vergleich zu den G9x-GPUs sieht.
Gerade hier sollte man beim GT300 doch hoffentlich deutlich nachgebessert haben.


Oh und schlussendlich muss AMD erstmal Notebookchips bringen und wie die Vergangenheit zeigt, dauert es sehr lange von Vorführung zu ersten kaufbaren Produkten.
Die umfangreichen Infos zu Mobility HD 5000 sprechen doch, dass diese schon zur Validierung bei den Herstellern vorliegen, sodass sie in Geräten Anfang 2010 wohl verbaut werden. Im Bezug auf die bald vorstelligen Clarksfield-Notebooks hat wohl NV ein paar größere Design-Wins eingefahren, aber darauf kann man sich nicht wirklich ausruhen.

Gast
2009-09-12, 10:52:56
Lovesuckz,

Intel kauft, wer auf Grafik keinen Wert legt. Dieser Markt wird fest in Intels Hand bleiben. AMD und Nvidia streiten sich über den Markt darüber: Und dort ist, ob du es wahrhaben willst oder nicht, ein Sticker ein Argument - besonders bei den Entscheidern der OEMs sodass selbst aufgeklärte Kunden oft gar keine Wahl haben, auch wenn sie selbst keinen großen Wert auf DX10/+0.1/+1.0 legen würden.

Gast
2009-09-12, 10:54:10
Zum einen scheinen die DP-ALUs wohl etwa Platz benötigt zu haben und nebenbei noch die Taktbarkeit der ALUs eingeschränkt haben, sodass man gar geringer takten musste als beim 90nm G80.
Wie kommst du darauf? Wenn es wirklich ein Problem dieser Art gegeben hätte, hätte Nvidia doch einfach DP auf den Consumer-Karten abschalten und den Takt durch die Decke jagen können.

LovesuckZ
2009-09-12, 11:10:25
Lovesuckz,
Intel kauft, wer auf Grafik keinen Wert legt. Dieser Markt wird fest in Intels Hand bleiben. AMD und Nvidia streiten sich über den Markt darüber: Und dort ist, ob du es wahrhaben willst oder nicht, ein Sticker ein Argument - besonders bei den Entscheidern der OEMs sodass selbst aufgeklärte Kunden oft gar keine Wahl haben, auch wenn sie selbst keinen großen Wert auf DX10/+0.1/+1.0 legen würden.

Intel GPUs gibt es auch bei teuren Produkten. Der Notebookmarkt ist komplett anders als der Desktopbereich. Dort spielen andere Faktoren eine wesentlich gewichtigere Rolle. Mit D3D kann doch nur ein geringer Teil an Käufer etwas anfangen und selbst dort wird sich nicht nach D3D entschieden, sondern z.B eher nach Stromverbrauch.
Da kannst du gerne an solche "Urban Legend" glauben. Die Leute kaufen Notebooks nicht, um dort mit allem zu spielen. Im Gegensatz zum Desktopmarkt, wo es D3D11 schon schnell und billig gibt, muss man im Notebookmarkt kompromisse eingehen.


Die umfangreichen Infos zu Mobility HD 5000 sprechen doch, dass diese schon zur Validierung bei den Herstellern vorliegen, sodass sie in Geräten Anfang 2010 wohl verbaut werden. Im Bezug auf die bald vorstelligen Clarksfield-Notebooks hat wohl NV ein paar größere Design-Wins eingefahren, aber darauf kann man sich nicht wirklich ausruhen.

2. Quartal 2010 ist nun nicht gerade die Zeit zum abkassieren. Abgesehen davon warte ich hier erstmal die Ankündigungen ab. Denn eine 5870 wird man wohl kaum in Notebooks finden...

Gast
2009-09-12, 11:14:23
Im Gegensatz zum Desktopmarkt, wo es D3D11 schon schnell und billig gibt, muss man im Notebookmarkt kompromisse eingehen.
Was du weißt und was die Marketingabteilungen der Notebookhersteller verkünden, sind aber zweierlei und wo überhaupt AMD bzw. Nvidia in Frage kommen, da zählt der Sticker, der Rest ist mit Intel auf der sicheren Seite.

AnarchX
2009-09-12, 11:19:01
Denn eine 5870 wird man wohl kaum in Notebooks finden...
Zu der gibt es doch schon konkrete Infos (siehe Links oben), da wird man wohl wieder den Takt auf 550MHz senken und schon ist man auf dem Verbrauchsniveau der Mobility HD4870. Teilweise wird der Takt bei einige Modellen wohlmöglich gar etwas weniger gesenkt, sodass die (Pro-Watt-)Leistung um die versprochen 135-145% steigt.

Am Markt sollen die Mobility HD 5000 laut Tweakers schon gegen Ende des Jahres sein, sodass einige Hersteller mit Notebook-Barebones wohlmöglich hier noch Geräte 2009 verkaufen. ;)

LovesuckZ
2009-09-12, 11:30:11
Zu der gibt es doch schon konkrete Infos (siehe Links oben), da wird man wohl wieder den Takt auf 550MHz senken und schon ist man auf dem Verbrauchsniveau der Mobility HD4870. Teilweise wird der Takt bei einige Modellen wohlmöglich gar etwas weniger gesenkt, sodass die Pro-Watt-Leistung um die versprochen 135-145% steigt.

Wieviele 4870 Chips hast du schon in Notebooks gefunden? :confused:
Ironischerweise bietet nur Asus mit der x2 ein Notebook an.
Die Vorstellung erfolgte im Januar 2009 - jetzt ca. 9 Monate später gibtes nur bei MSI 4850 Chips. AMD selbst gibt "<75 Watt" an und anscheinend ist das schon soviel. nVidia'S GTX280m soll auch 75 Watt verbrauchen - AMD muss also über 115 Watt einsparen, um an diese Marke zu kommen? Das klingt alles sehr unglaubwürdig.

Ailuros
2009-09-12, 12:57:46
2x256-Bit @ 2,4 GHz (307GB/s) vs 512-Bit@2,2-2,4GHz(281-307GB/s), wobei natürlich D12U den Vorteil hat eine höhere Pro-Frame-BW zu haben.
Bei GTX 280 vs 4870X2 waren es ja noch: 140GB/s vs 230GB/s.

Kommt ganz drauf wie der Preis einer G300 aussehen soll und wieviel das Ding wirklich braucht. Besonders aggressiv mit ihren Speicherfrequenzen war NV auf jeden Fall nie bis jetzt.

Wie sicher ist das eigentlich mit der TMU-Domain? Bisher hieß es immer man braucht eine Shaderdomain weil man TMUs nur äußerst schwer hoch takten kann. Jetzt auf einmal soll eine angebliche TMU-Domain die Dinger auf 1Ghz hochziehen? Ist das realistisch?

Wie sicher war ich mir bis jetzt fuer die rasterizer Aenderungen bzw. SS support auf Evergreen? Im Grunde stimmt es schon dass Einheiten wie TMUs eine kleinere Toleranz haben im Vergleich zu ALUs, aber erstens hat selbst RV790 kein besonderes Problem wenn es auf ueber 900MHz unter 55nm jagt und zweitens redet auch hier keiner ueber equivalente ALU Frequenzen.

Gipsel
2009-09-12, 14:06:41
Ich bin mir so sicher wie ich sein kann dass es sich nicht um MIMD Einheiten handelt; dass soll aber nicht heissen dass sie woemoeglich die existierenden SIMD Einheiten nicht weiter optimiert haben.

Stur auf GT200 Ebene berechnet (und auch angenommen die Frequenz-ziele werden erreicht) liegt die Relation ungefaehr auf 2.5x.
Das wären dann so 1,75GHz als Ziel, klingt halbwegs realistisch. Dann hätte man knapp 1,8 TFlop MADD-Leistung (+ die SFUs), eine GTX285 steht ja bei 708 GFlop. Das wäre schon ansehnlich, wenn andere Sachen ebenfalls verbessert werden und kann bei der theoretischen Peakleistung (MADD + MUL von den SFUs). mit 2,7 TFlop einen Gleichstand zur HD5870 behaupten (auch wenn das je nach Workload schlecht vergleichbar ist). Alles vorausgesetzt natürlich, da ändert sich nichts Wesentliches am Aufbau.

Dieses Feld ist und bleibt das grosse Fragezeichen fuer mich. Ich kann bei bestem Willen nicht schlucken dass sie DP throughput um zich Male erhoeht haben und immer noch dedizierte DP Einheiten benutzen. Dally sagte selber dass die heutige 8:1 Relation (SP/DP) besser werden soll und das ultimate Ziel der Zukunft 2:1 ist. Wenn ich jetzt also auf 4:1 tippe und an dedizierte DP Einheiten glauben wuerde nehmen diese mehr als die Haelfte der die area ein.
Die 8:1 bezieht sich übrigens nur auf die MADD-Leistung, legt man den beworbenen MADD+MUL-Peak zugrunde, ist es sogar nur 1/12 ;)

Die Frage ist, wieviel hat nv denn nun wirklich beim GT300 umgekrempelt? Ist es nur ein aufgebohrter GT200 mit besserem Frequenzmanagement, der aber vom Aufbau her im Prinzip GT200 entspricht und nur an den wichtigen Stellen ein paar Bremsen löst, so kann er trotzdem (je nachdem wie gut nv das hinbekommen hat) meiner Meinung nach den Abstand zu RV870 im Vergleich zu GT200 vs RV770 im Optimalfall etwas vergrößern.

Aber es gibt natürlich solche Unsicherheiten, wie Du sie bechreibst. Hat nv vielleicht doch den Aufbau der TPCs ordentlich geändert? Die Gerüchte mit MIMD mögen ja Blödsinn sein, genau wie die dynamische Warp-Formation beim Branching, festzuhalten bleibt aber, daß sie alle in die Richtung einer flexibleren Organisation der SMs bzw. TPCs gehen.

Ich hatte auch schon daran gedacht, die 4 SMs in einem TPC bei Bedarf kooperativ arbeiten zu lassen, um die extra-DP-Einheiten zu sparen. Allerdings wäre so eine Konfiguration von 16 TPCs, die dann effektiv aus 8 Vierer-VLIWs (statt 4 SMs mit 8 skalaren Einheiten) bestehen würden, nicht dynamisch zu erreichen, sprich, man müßte das statisch für einen komplettes Shaderprogramm festlegen. Und was vielleicht noch schwerer wiegt, könnte so eine Konfiguration zwar eine 4:1 SP/DP Relation erreichen, allerdings nicht für FMA, daß von nv ja doch sehr stark beworben wird (und auch ganz nett ist, nur eben langsam), sondern nur für die üblichen MADDs. Das läßt jetzt natürlich noch die SFUs heraus, in denen auch noch ein paar Multiplier stecken (8 pro SM). Wenn nv das geschickt anstellt, könnte das klappen, da 8 Multiplier reichen, um die volle Mantisse bei einem FMA zu berechnen. Das Problem daran ist, daß die einzelnen SMs in einem TPC dazu extrem eng verzahnt sein müßten. Ein TPC wäre also eher ein Cluster aus 8 128Bit (+SFUs) Einheiten, die man bei Bedarf in 4 Gruppen von 8 32 Bit-Einheiten trennen kann. Wenn die 4 Gruppen (die heutigen SMs) für single precision Shader dann noch unabhängig arbeiten (insbesondere branchen) können sollen, ist das schon ein großes Unterfangen mit vielen Problemen. So richtig dran glauben kann ich da nicht.

Ailuros
2009-09-12, 14:33:59
Das wären dann so 1,75GHz als Ziel, klingt halbwegs realistisch. Dann hätte man knapp 1,8 TFlop MADD-Leistung (+ die SFUs), eine GTX285 steht ja bei 708 GFlop. Das wäre schon ansehnlich, wenn andere Sachen ebenfalls verbessert werden und kann bei der theoretischen Peakleistung (MADD + MUL von den SFUs). mit 2,7 TFlop einen Gleichstand zur HD5870 behaupten (auch wenn das je nach Workload schlecht vergleichbar ist). Alles vorausgesetzt natürlich, da ändert sich nichts Wesentliches am Aufbau.

Das Ziel ist 1.6GHz und es ist dann:

512 * 3 * 1.6 = 2458 / 933 (GTX280) = 2.6x

Die 8:1 bezieht sich übrigens nur auf die MADD-Leistung, legt man den beworbenen MADD+MUL-Peak zugrunde, ist es sogar nur 1/12 ;)

Ja.

Die Frage ist, wieviel hat nv denn nun wirklich beim GT300 umgekrempelt? Ist es nur ein aufgebohrter GT200 mit besserem Frequenzmanagement, der aber vom Aufbau her im Prinzip GT200 entspricht und nur an den wichtigen Stellen ein paar Bremsen löst, so kann er trotzdem (je nachdem wie gut nv das hinbekommen hat) meiner Meinung nach den Abstand zu RV870 im Vergleich zu GT200 vs RV770 im Optimalfall etwas vergrößern.

Wenn man deren Geblubber glauben wuerde waere es eine tabula rasa. Kann es aber keinesfalls sein wenn ich als Laie von 512SPs hoere die weiterhin MADD+MUL sein sollen.

Moegliche Aenderungen die mir Sinn machen (aber ich mich gerne eines besseren belehren lasse):

a) SIMD bestimmte Optimierungen die innerhalb eines clusters einen effizientere Datenverwaltung erlauben und am liebsten besseres branching.

b) Man behaelt die gleiche Anzahl an DP Einheiten pro cluster wie auf GT200 mit zumindest den gleichen Faehigkeiten und die herkoemmlichen SPs erlauben auch wie jegliche andere Architektur eine ~5:1 SP/DP Relation. So kommt man natuerlich auf die angebliche 7x-10x hoehere DP Werte auf so einem Ding da man mit dem einfachsten Zeug auch theoretisch ~ 700 GFLOPs DP erreichen koennte.

Aber es gibt natürlich solche Unsicherheiten, wie Du sie bechreibst. Hat nv vielleicht doch den Aufbau der TPCs ordentlich geändert? Die Gerüchte mit MIMD mögen ja Blödsinn sein, genau wie die dynamische Warp-Formation beim Branching, festzuhalten bleibt aber, daß sie alle in die Richtung einer flexibleren Organisation der SMs bzw. TPCs gehen.

So was wie die dynamischen warps koennte ich auf Anhieb glauben; MIMD eben nicht. Ausser natuerlich Dally hat von Kirk's USC Masche gelernt und fuehrt uns alle an der Nase herum.

Ich hatte auch schon daran gedacht, die 4 SMs in einem TPC bei Bedarf kooperativ arbeiten zu lassen, um die extra-DP-Einheiten zu sparen. Allerdings wäre so eine Konfiguration von 16 TPCs, die dann effektiv aus 8 Vierer-VLIWs (statt 4 SMs mit 8 skalaren Einheiten) bestehen würden, nicht dynamisch zu erreichen, sprich, man müßte das statisch für einen komplettes Shaderprogramm festlegen. Und was vielleicht noch schwerer wiegt, könnte so eine Konfiguration zwar eine 4:1 SP/DP Relation erreichen, allerdings nicht für FMA, daß von nv ja doch sehr stark beworben wird (und auch ganz nett ist, nur eben langsam), sondern nur für die üblichen MADDs. Das läßt jetzt natürlich noch die SFUs heraus, in denen auch noch ein paar Multiplier stecken (8 pro SM). Wenn nv das geschickt anstellt, könnte das klappen, da 8 Multiplier reichen, um die volle Mantisse bei einem FMA zu berechnen. Das Problem daran ist, daß die einzelnen SMs in einem TPC dazu extrem eng verzahnt sein müßten. Ein TPC wäre also eher ein Cluster aus 8 128Bit (+SFUs) Einheiten, die man bei Bedarf in 4 Gruppen von 8 32 Bit-Einheiten trennen kann. Wenn die 4 Gruppen (die heutigen SMs) für single precision Shader dann noch unabhängig arbeiten (insbesondere branchen) können sollen, ist das schon ein großes Unterfangen mit vielen Problemen. So richtig dran glauben kann ich da nicht.

Moment gib mir ne halbe Stunde Zeit bis ich es 7 Mal durchlesen kann und ich bin mir selbst dann nicht sicher dass ich es kapiere....

***edit: ok so schlimm ist es nicht wie es auf Anhieb klang....wie waere es mit meinem Laien-Zeug oben?

Gipsel
2009-09-12, 14:54:59
wie waere es mit meinem Laien-Zeug oben?
Müßte natürlich auch gehen. Ich war wahrscheinlich etwas darin gefangen, daß das Loopen in einer SP-Einheit um DP zu rechnen prinzipiell ineffizienter und langsamer ist, als eine breitere Einheit. Aber vom Änderungsaufwand natürlich geringer, was es dann wahrscheinlicher macht.

Das läuft dann darauf hinaus, daß FMA (weiter in der DP-Einheit) nur relativ zur SP-Leistung steigt, aber einfache Additionen und Multiplikationen bekommen eine größere Steigerung. Eine Variante wäre noch, die DP-Einheit in die SFUs zu integrieren. Da könnte man wohl ein bißchen Hardware mitbenutzen (z.B. die Multiplier dort).

Ailuros
2009-09-12, 15:01:53
So oder so konnte ich gestern sichern dass der chip tatsaechlich nicht ein GT200 aehnliches Monstrum ist. Ob es jetzt 495 oder 533mm2 sind kann ich mit Sicherheit noch nicht sagen, denn auch fuer GT200 gab NV 575mm2 an und ich habe nach diversen Messungsschwankungen mich entschieden das Ding auf 583mm2 abzuschliessen (stets ohne NVIO sollte man sagen).

Kurz: sie haben sicher an manchen Stellen gespart und manchen Transistor "umgekrempelt" nur bleibt die Frage was genau. In den naechsten Tagen koennte so einiges durchsickern denn obwohl ich einen Papierlaunch nicht als moeglich halte, werden sie trotz allem versuchen hier und da Infos indirekt zu verstreuen.

Gast
2009-09-12, 15:19:23
Intel GPUs gibt es auch bei teuren Produkten. Der Notebookmarkt ist komplett anders als der Desktopbereich. Dort spielen andere Faktoren eine wesentlich gewichtigere Rolle. Mit D3D kann doch nur ein geringer Teil an Käufer etwas anfangen und selbst dort wird sich nicht nach D3D entschieden, sondern z.B eher nach Stromverbrauch.
Da kannst du gerne an solche "Urban Legend" glauben. Die Leute kaufen Notebooks nicht, um dort mit allem zu spielen. Im Gegensatz zum Desktopmarkt, wo es D3D11 schon schnell und billig gibt, muss man im Notebookmarkt kompromisse eingehen.
Ja, sag ich doch. Intel kauft, wer auf Grafik keinen Wert legt.

Und "die Leute" kaufen im Notebook-Markt nach Gesamtpaket, weil man im Gegensatz zum Desktop nicht so einfach Komponenten tauschen kann.

Dieses Gesamtpaket wird von IT-Entscheidern bei den OEMs festgelegt, und die stehen neben 3DMark vor allem auf Windows-7-, DirectX- und andere Sticker, wobei höhere Zahlen besser sind.

Gast
2009-09-12, 15:39:02
Um die SP-Einheiten DP machen zu lassen, müsste man deren MULs und ADDs erweitern - das kostet nochmal extra.

mboeller
2009-09-12, 15:39:29
Ob es jetzt 495 oder 533mm2 sind kann ich mit Sicherheit noch nicht sagen, denn auch fuer GT200 gab NV 575mm2 an und ich habe nach diversen Messungsschwankungen mich entschieden das Ding auf 583mm2 abzuschliessen (stets ohne NVIO sollte man sagen).


sind die mm² wirklich so wichtig? Der G(T)300 soll doch ca. 2,4 Mrd. Transistoren haben, oder? Wenn ja, dann ist der Unterschied zu den 2,15 Mrd des RV870 nicht wirklich groß. Sie sparen zwar dadurch, das die ALUs eine eigene Taktdomäne haben aber IMHO scheint das ja nicht so viel zu bringen.

LovesuckZ
2009-09-12, 15:44:01
Laut den Gerüchten verdoppelt nVidia hardwaretechnisch wohl nur die SPs und verbessert den Rasterizer deutlich. Ansonsten gehen die TMUs nur von 80 auf 128 (60%), die ROPs werden gleichbleiben und das Speicherinterface ebenso. AMD verdoppelte ja fast alles - bis auf das Speicherinterface. Ergo investiert nVidia nicht soviel Transistoren wie AMD. D3D11 und so werden von beide implentiert.

AnarchX
2009-09-12, 15:46:49
@ mboeller
Im Worst-Case für den RV870 ist die MADD-Leistung des GT300 3-mal so hoch.

Wenn das Verhältnis der Transistordichte zwischen RV870 und GT300, das gleiche wie bei GT200b und RV770 ist, dann sollte GT300 schon über 2,4Mrd. Transitoren liegen. Aber eigentlich sollte NV eher hier noch nachbessern.

Ailuros
2009-09-12, 15:54:06
sind die mm² wirklich so wichtig?

Kommt ganz auf die Perspektive an.

Der G(T)300 soll doch ca. 2,4 Mrd. Transistoren haben, oder? Wenn ja, dann ist der Unterschied zu den 2,15 Mrd des RV870 nicht wirklich groß.

Siehst Du aus dieser Perspektive sind die Quadratmillimeter ueberhaupt nicht unwichtig, ueberhaupt nicht was Einzelheiten wie Packdichte betrifft oder noch weiter den Stromverbrauch.

Am wichtigsten waere eigentlich zu wissen ob es waschreine D12U Transistoren sind oder ob sie lediglich zu einer equivalenten "GT200 Familie" gehoeren. Denn wenn man die Mehrzahl der existierenden Transistoren umkrempelt hat man auch mehr Chancen fuer einen weniger evolutionaeren Design.


Sie sparen zwar dadurch, das die ALUs eine eigene Taktdomäne haben aber IMHO scheint das ja nicht so viel zu bringen.

Nur auf ALUs bereinigt sehe ich auf einer GTX295 1788 GFLOPs und auf einer 4870X2 2400 GFLOPs/s; und wenn ich jetzt auf single issue der 295 gehe sind es lediglich 1192 MADD FLOPs. Ich bin grosszuegig und nehme den ersten Fall bei ca. 30% weniger FLOPs.

Natuerlich bringt es nichts wenn man annimmt dass FLOP = = FLOP ist in allen Faellen. Und damit es etwas pfiffiger wird Evergreen GPUs haben eine noch kleinere per FLOP Effizienz im Vergleich zu ihren Vorgaengern.

AnarchX
2009-09-12, 16:15:02
Und damit es etwas pfiffiger wird Evergreen GPUs haben eine noch kleinere per FLOP Effizienz im Vergleich zu ihren Vorgaengern.
Im Bezug auf das Gesamtpaket oder wirklich rein die ALU-Leistung?

crux2005
2009-09-12, 17:03:57
Die GTX295 schlaegt die 4870X2 um eine relativ kleine Marge, aber die letztere hat auch grob um die 40% mehr FLOPs (und ja natuerlich rechne ich auch moegliche Fuellraten im Hinterkopf mit...).

ich will dir ja nicht widersprechen, aber die GTX 295 war in meinen Messungen @ 19x12 und 25x16, mit 4xMSAA, 16xAF, im Durchschnitt relativ deutlich (~30%) vor der HD 4870 X2. Hängt auch von den Games ab. In 25x16 mit 8xMSAA wird sie aber von der Radeon regelrecht in den Boden gestampft. Wir wissen ja wieso.

reunion
2009-09-12, 18:05:21
D3D11 spielt - wie jede andere API - dort mal überhaupt keine Rolle. Mir ist auch kein Mainstream-Notebook bekannt, dass mit D3D10 wirbt. Die Leute achten auf andere Dinge als auf die Unterstützung einer Grafik-API.

Warum glaubst du bringt NV so kurz vor den D3D11-Chips noch DX10.1-Chips? Laut inoffiziellen Angaben war eine Bedingung für den Einsatz der NV-GPUs in ihren Notebooks eben DX10.1. Ich geben dir zu einem gewissen Teil recht, wenige Käufer werden auf die DX-Version achten, da sie sich schlicht nicht damit auskennen. Auch wenn das doch was ist das vielen noch ein begriff ist. Aber die Notebokkhersteller verbauen ungern "alte" Hardware. Und was kaum verbaut wird kann nicht gekauft werden.


Und EyeFinity gibt es doch jetzt auch schon - zwei externe und einen internen Monitor. Und das hat bis jetzt schon kaum einer nutzt. Selbst die dauerhafte Nutzung von einem digitalen Monitor ist dort kaum gegeben...


Apple wollte angeblich mehr als zwei Monitore.


Ich will den Hersteller sehen, der in sein Notebook eine 100Watt GPU einbaut...

45W-60W.

reunion
2009-09-12, 18:08:49
Laut den Gerüchten verdoppelt nVidia hardwaretechnisch wohl nur die SPs und verbessert den Rasterizer deutlich. Ansonsten gehen die TMUs nur von 80 auf 128 (60%), die ROPs werden gleichbleiben und das Speicherinterface ebenso. AMD verdoppelte ja fast alles - bis auf das Speicherinterface. Ergo investiert nVidia nicht soviel Transistoren wie AMD. D3D11 und so werden von beide implentiert.

NV legte immer viel wert auf die ROPs. Mit DX11 sollen die an Bedeutung gewinnen. 64ROPs halte ich für sehr wahrscheinlich.

AnarchX
2009-09-12, 18:18:23
Jensen verkauft schon seine Aktien? (http://www.gurufocus.com/news.php?id=69204)

Gipsel
2009-09-12, 18:20:21
Um die SP-Einheiten DP machen zu lassen, müsste man deren MULs und ADDs erweitern - das kostet nochmal extra.
Nicht so viel. ATI hat das beim Schritt von R600 auf RV670 gemacht, und da sind die ALUs nicht wirklich größer geworden. Als Minimalanforderung müssen die Multiplier mit einer 27Bit Mantisse (statt 24Bit) arbeiten können (da doppelte single precision Genauigkeit etwas weniger ist als double precision), das ist jetzt nicht sooo viel mehr Aufwand. Die Addierer sind kein Problem, die beherschen jetzt schon volle 32Bit, da sie auch Integer addieren können. Da fällt nur der Mehraufwand für die zusätzliche Möglichkeit des DP-Exponenten an. Das sollte transistormäßig sehr billig sein.
sind die mm² wirklich so wichtig? Der G(T)300 soll doch ca. 2,4 Mrd. Transistoren haben, oder? Wenn ja, dann ist der Unterschied zu den 2,15 Mrd des RV870 nicht wirklich groß. Sie sparen zwar dadurch, das die ALUs eine eigene Taktdomäne haben aber IMHO scheint das ja nicht so viel zu bringen.
Für die Produktionskosten ist die Fläche deutlich wichtiger als die Transistorzahl.
Durch den höheren Takt benötigt man für die ALUs aber auch mehr Fläche fürs Layout, wenn es funktionieren soll, irgendwas ist immer ;). Außerdem benutzt nvidia für die ALUs deutlich mehr Pipelinestufen als ATI (fast 3 mal so viele), was auch Transistoren kostet. Für eine SP-MADD-Einheit verbaut nv also mehr Transistoren als ATI, die zudem nicht so dicht gepackt werden können.

Das ist eine ziemlich knifflige Angelegenheit das so auszutarieren, daß man damit mehr Performance/Fläche erreicht als einfach mit mehr und dafür dichter gepackten ALUs, die niedriger getaktet sind. Beim GT200 vs RV770 hat ATI das bessere Ende in dieser Beziehung gehabt, was aber nicht sagt, daß das bei GT300 vs RV870 immer noch so ist, da muß man noch ein wenig abwarten ;)

Gast
2009-09-12, 18:22:35
Is doch gut, ordentlich Asche machen, sobald AMD liefert, fallen die NV Aktien ein wenig und wenn dann Dezember/Jänner der GT300 kommt steigt der Preis wieder.

LovesuckZ
2009-09-12, 18:23:38
NV legte immer viel wert auf die ROPs. Mit DX11 sollen die an Bedeutung gewinnen. 64ROPs halte ich für sehr wahrscheinlich.

Sie haben zur Zeit 32 ROPs - das reicht komplett aus. So wie ich es sehe, ist die ROP Anzahl bei den GT21x Karten genauso wie bei Speichergleichen G9x Karten.

][immy
2009-09-12, 18:26:24
Jensen verkauft schon seine Aktien? (http://www.gurufocus.com/news.php?id=69204)

hmm.. befürchtet er verluste in den nächsten monaten?
warum sonst sollter er gerade jetzt aktien abstoßen?

nagus
2009-09-12, 18:26:45
Jensen verkauft schon seine Aktien? (http://www.gurufocus.com/news.php?id=69204)


... ob er seine NVDA aktien in AMD umgetauscht hat? :devil:

LovesuckZ
2009-09-12, 18:31:58
[immy;7528127']hmm.. befürchtet er verluste in den nächsten monaten?
warum sonst sollter er gerade jetzt aktien abstoßen?

Warum hätte er seine Aktien vor 2/4 Wochen verkaufen sollen?

V2.0
2009-09-12, 18:32:03
... ob er seine NVDA aktien in AMD umgetauscht hat? :devil:
Wäre clever- So hat er sie wohl verkauft bevor sie ihren Wert verlieren. So wie AMD vorgelegt hat, sehe ich selbst mittelfristig keine Chance für NV wieder aus den roten Zahlen zu kommen.

LovesuckZ
2009-09-12, 18:34:48
Sie schaffen es sogar kurzfristig - nämlich in diesem Quartal.
Warum trollst du eigentlich manchmal und manchmal nicht?

][immy
2009-09-12, 18:47:00
Warum hätte er seine Aktien vor 2/4 Wochen verkaufen sollen?

unter umständen weil er "damals" schon wusste das sie so sobald ati nichts neues entgegenstellen können (produktion fährt ja nicht an) und daher die aktien rutschen werden.


btw. wenn die trasistorzahlen sich "kaum" unterscheiden zu ATIs top-modell, dann sollte ati aber nicht in der lage sein wieder einen derartig extrem preiskampf auszutragen. es sei denn die ausbeute wäre beim GT300 sehr viel schlechter als bei ati.

V2.0
2009-09-12, 18:49:26
Sie schaffen es sogar kurzfristig - nämlich in diesem Quartal.
Warum trollst du eigentlich manchmal und manchmal nicht?

Momentan wird es schwer für sie. ION ist natürlich ein Pfund, aber im Desktopmarkt sehen sie bis ins Q1/09 schlecht aus, im Mobilemarkt wird es davon abhängen wie schnell AMD sparsame DX11 Chips liefern kann. GT21X ist wirtschaftlich ein Pfund, aber wenn Dx11 verfügbar ist kriegen sie ein Problem.

GT300 sehe ich gar nicht als ihr Problem, GT30X kann es sein.

Trollen würde ich es nicht nennen, manchmal muss einfach mal Erwartungen erfüllen.

LovesuckZ
2009-09-12, 18:50:04
[immy;7528175']unter umständen weil er "damals" schon wusste das sie so sobald ati nichts neues entgegenstellen können (produktion fährt ja nicht an) und daher die aktien rutschen werden.

Ich bezweifel, dass ein CEO von heut auf morgen Aktien verkaufen darf. Wahrscheinlich liegt hier eine gewisse Zeitspanne zwischen Ankündigung und tatsächlichen Verkauf.


btw. wenn die trasistorzahlen sich "kaum" unterscheiden zu ATIs top-modell, dann sollte ati aber nicht in der lage sein wieder einen derartig extrem preiskampf auszutragen. es sei denn die ausbeute wäre beim GT300 sehr viel schlechter als bei ati.

Es ist alles relativ. AMD hat den kleineren Chip, kann ihn also billiger fertigen lassen. Interessant wird der Kampf GT21x mit AMD's Chips sein - nicht, weil AMD schneller sein wird und D3D11 unterstützt, sondern ob sie einen Preiskampf mit nVidia eingehen - immerhin sind sie hier teurer. Und D3D11 lässt sich nicht beliebig anpreisen und als Aufschlag verkaufen.

Momentan wird es schwer für sie. ION ist natürlich ein Pfund, aber im Desktopmarkt sehen sie bis ins Q1/09 schlecht aus, im Mobilemarkt wird es davon abhängen wie schnell AMD sparsame DX111 Chips liefern kann. GT21X ist wirtschaftlich ein Pfund, aber wenn Dx11 verfügbar ist kriegen sie ein Problem.

D3D11 wird im Notebook nichts ausmachen. Hier ist es wichtig für die neue Intelplattform überhaupt sparsame und billig-herzustellen GPUs zu haben. Desktopmarkt wird erst im 1Q.2010 sich bemerkbar machen. Es dauert seine Zeit, bis OEMs die neuen Karten in Massen adaptieren und Systeme damit bauen.
Bei nVidia sollte man nie vergessen, dass Workstation wohl in Zukunft stärker wachsen als Desktop/Notebook und dass Tegra immer bedeutend werden wird.


Trollen würde ich es nicht nennen, manchmal muss einfach mal Erwartungen erfüllen.

nVidia hat aus dem operativen Geschäft 10-15 Millionen Gewinn erreicht. Sie wären im Plus gewesen.

reunion
2009-09-12, 18:56:08
Ich bezweifel, dass ein CEO von heut auf morgen Aktien verkaufen darf. Wahrscheinlich liegt hier eine gewisse Zeitspanne zwischen Ankündigung und tatsächlichen Verkauf.


Er muss es nachher bekannt geben wenn er verkauft hat. Wenn er es vorher Ankündigen müsste wäre das ja eine Marktmanipulation deluxe. :)

LovesuckZ
2009-09-12, 19:01:31
Er muss es nachher bekannt geben wenn er verkauft hat. Wenn er es vorher Ankündigen müsste wäre das ja eine Marktmanipulation deluxe. :)

Ich meine bei der Börsenaufsicht. Das dieses das dann nachträglich veröffentlicht, steht außer Frage.

Ailuros
2009-09-12, 19:09:25
Sie haben zur Zeit 32 ROPs - das reicht komplett aus. So wie ich es sehe, ist die ROP Anzahl bei den GT21x Karten genauso wie bei Speichergleichen G9x Karten.

Nur verbauen IHVs nicht mehr weil ihnen die ROPs nicht mehr ausreichen. Es ist zwar nicht direkt damit verbunden aber mehr als 16 Pixel/Takt bei einem dual rasterizer auf Cypress machen schon Sinn.

Godmode
2009-09-12, 19:10:06
Ich denke nicht das Verkauf was mit AMD zu tun hat. Die Börsen haben jetzt seit Anfang des Jahres eine massive Ralley hingelegt und die scheint nun bald ihr Ende zu haben.

Ailuros
2009-09-12, 19:19:09
Momentan wird es schwer für sie. ION ist natürlich ein Pfund, aber im Desktopmarkt sehen sie bis ins Q1/09 schlecht aus, im Mobilemarkt wird es davon abhängen wie schnell AMD sparsame DX111 Chips liefern kann. GT21X ist wirtschaftlich ein Pfund, aber wenn Dx11 verfügbar ist kriegen sie ein Problem.

GT300 sehe ich gar nicht als ihr Problem, GT30X kann es sein.

Trollen würde ich es nicht nennen, manchmal muss einfach mal Erwartungen erfüllen.

Wir haben schon so oft gesehen dass sich das Blatt innerhalb eines Jahres auf die eine und dann wieder auf die andere Seite wendet. So lange sich die beiden mit diversen Schwankungen innerhalb einer Generation (ca. 4 Jahre jedesmal) abwechseln macht es mir auch keine Sorgen. Es belehbt die Konkurrenz, wir haben eine konstant bessere Auswahl und die Preise halten sich auch auf relativ logischem Nivaeu.

bans3i,

Die Anzahl von Jensen's Aktien sind ein Vermoegen wert. Ich weiss es zwar nicht aber es kann auch sein dass der Herr sich endlich ausruhen will und in Rente geht. Das timing des Verkaufs laesst auf jeden Fall Platz fuer diverse Spekulationen.

LovesuckZ
2009-09-12, 19:27:30
Jensen auch letztes Jahr im selben Zeitraum 960K Aktien verkauft. Da wird wohl jemand einfach seine Teilvergütung zu Geld machen.

Gast_mboeller
2009-09-12, 20:16:48
Jensen verkauft schon seine Aktien? (http://www.gurufocus.com/news.php?id=69204)

Das ist momentan nichts ungewöhnliches. Viele, sehr viele Insider verkaufen momentan Aktien ihrer Firmen. Nur Vollidioten oder Spekulanten kaufen momentan Aktien.

zB. Links:

http://www.chrismartenson.com/blog/throwing-caution-wind/27393

http://money.cnn.com/2009/09/10/news/economy/insider.sales/index.htm?postversion=2009091107

Gast_mboeller
2009-09-12, 20:20:52
auch wenn es OT ist. Ich hab noch ein schönes Bild von Anfang August gefunden,

link: http://www.zerohedge.com/sites/default/files/images/Insider%20Transactions.jpg

Die Relation von 145 Verkäufen zu 5 Käufen ist schon coool. ;)

LovesuckZ
2009-09-13, 00:49:57
Und am 31.08.2009 (http://finance.yahoo.com/q/ir?s=nvda) kaufte Jensen 20 Millionen Aktien.

Gast
2009-09-13, 01:10:15
Mal sehen,ob NV vorm NDA-Ende von ATI mal Werbung macht und um Kunden kämpft.

reunion
2009-09-13, 12:41:29
Es gibt laut Arun keinen 32nm Prozeß. Und 28nm soll erst im 4.Q 2010 produktionsreif sein - und je kleiner sie werden, umso schwieriger ist die Entwicklung.


Nicht von TSMC, aber von Globalfoundries.

Die 32 nm Technologie (bulk als auch SOI) wäre die erste Generation an "high-K metal gate" Transistoren von Globalfoundries. Aufträge für den 32 nm bulk Prozess werden ab dem 2.Halbjahr 2009 entgegengenommen.

http://www.pcgameshardware.de/aid,685874/Globalfoundries-zeigt-erste-45-nm-32-nm-und-28-nm-Wafer/Technologie/News/

Und es gab nicht nur Gerüchte, sondern schon offizielle Aussagen das ATi auf Globalfoundries umsteigen wird. Einen 32nm Refresh im H1/2010 würde ich nicht für unwahrscheinlich halten.

Coda
2009-09-13, 13:10:58
Bevor Globalfoundries keine CPUs in 32nm fertigt ist auch nicht mit GPUs zu rechnen.

reunion
2009-09-13, 13:28:03
Bevor Globalfoundries keine CPUs in 32nm fertigt ist auch nicht mit GPUs zu rechnen.

Ist in meinen Augen nicht vergleichbar. Der bulk Prozess könnte früher zur Verfügung stehen als SOI. Zumindest spricht man oben explizit nur von bulk für H2/09. Die Anforderungen an den Takt sind bei CPUs ganz andere. Auch soll die erste 32nm CPU nicht irgend ein Shrink sein sondern Bulldozer. Und da muss es nicht unbedingt am Prozess liegen das dieser erst 2011 auf der Roadmap steht. Globalfoundries gab vor kurzem offiziell bekannt das man den Rückstand auf Intel in 32nm auf drei Monate reduzieren wolle. Und Intel kommt wohl noch Ende des Jahres mit 32nm.

Coda
2009-09-13, 13:45:03
Ist in meinen Augen nicht vergleichbar.
Ja stimmt. GPUs enthalten noch viel mehr Logik als CPUs und sind dementsprechend sogar schwieriger zu fertigen.

Vergiss es.

reunion
2009-09-13, 13:53:50
Ja stimmt. GPUs enthalten noch viel mehr Logik als CPUs und sind dementsprechend sogar schwieriger zu fertigen.

Vergiss es.

Deswegen werden GPUs jetzt schon regelmäßig in kleineren Half-Nodes gefertigt als CPUs. Ich werde dich bei bedarf noch mal daran erinnern. Ende 2010 will GF schon 28nm für die Massenproduktion fertig haben. Und wer weiß ob AMD nicht doch noch auf die schnelle einen 32nm CPU Shink bringt.

V2.0
2009-09-13, 17:09:55
Naja, Neliz spricht von 9 Moante und mehr bis GT300 erscheint, das wäre Juni 2010. Angeblich soll nun GT212 doch noch erscheinen, weil die ganze GT30X Generation "fucked-up" ist.

LovesuckZ
2009-09-13, 17:21:39
Es gibt kein GT212. Und wenn es einem gäbe, kommt dieser bestimmt nicht in den nächsten 6 Monaten...

tombman
2009-09-13, 17:27:47
Nene, wenn Nvidia nicht spätestens nach Weihnachten mit GT300 anrückt haben sie den Zug verpaßt, weil dann jeder nerd auf RV870 umsteigen wird ;)

LovesuckZ
2009-09-13, 17:30:51
Und sollte nVidia nach Weihnachten schneller sein, werden die selben wieder wechseln. ;)

tombman
2009-09-13, 17:35:19
Und sollte nVidia nach Weihnachten schneller sein, werden die selben wieder wechseln. ;)
Nicht wenn AMD einen Refresh heraushaut ;)

LovesuckZ
2009-09-13, 17:36:09
Dann müsstest du trotzdem neue Karten kaufen...
Abgesehen davon bezweifel ich, dass es Refresh im Januar gibt - denn der wird noch mehr verbrauchen als 188 Watt...

=Floi=
2009-09-13, 17:39:42
wer von nv anhängern kauft sich denn freiwillig die olle ati? da habe ich dann CF gratis und werde auch noch vom treiber entmündigt.

reunion
2009-09-13, 17:45:19
wer von nv anhängern kauft sich denn freiwillig die olle ati? da habe ich dann CF gratis und werde auch noch vom treiber entmündigt.

Wer von den ATi-Anhängern kauft sich denn freiwillig eine olle NV? Was soll der Trollversuch jetzt hier bringen?

=Floi=
2009-09-13, 17:46:43
das argument der schnelleren karte zieht doch auch nicht wirklich. die karten werden entsprechend kostenen und die nachteile der karte sid nicht von der hand zu weisen.

nagus
2009-09-13, 17:50:41
das argument der schnelleren karte zieht doch auch nicht wirklich. die karten werden entsprechend kostenen und die nachteile der karte sid nicht von der hand zu weisen.

aha, du scheinst dich ja total super auszukennen mit den neuen karten obwohl die dinger noch niemand getestet hat. kannst du uns sagen welche "nachteile" nicht von der hand zu weisen sind?

Raff
2009-09-13, 17:54:05
Hrhr, was würde ich lachen, wenn Nvidia in Kürze einen HD-5800-Counter-Launch mit sofortiger Verfügbarkeit aus dem Boden stampft. ;D Die Anzeichen stehen jedoch schlecht. Das kann für astreine Arbeit oder aber ernsthafte Probleme sprechen. Letzteres ist wahrscheinlicher. Aber wie war das noch Ende 2006? Nvidia hat keine Unified Shader Architecture ... Dennoch glaube ich, dass einige hier Nvidia unterschätzen. Jedes Mal aufs Neue wird der jeweils andere Hersteller schon abgeschrieben, nur weil der Konkurrent ein schnelleres, weil viel neueres Produkt angekündigt hat.

aha, du scheinst dich ja total super auszukennen mit den neuen karten obwohl die dinger noch niemand getestet hat. kannst du uns sagen welche "nachteile" nicht von der hand zu weisen sind?

Ich werfe da mal Flimmer-AF und hohe Lautstärke unter Last (über 5 Sone) in den Raum. Mal sehen, ob das stimmt.

MfG,
Raff

Gast
2009-09-13, 18:00:11
Es gibt kein GT212. Und wenn es einem gäbe, kommt dieser bestimmt nicht in den nächsten 6 Monaten...

Wen gibt es nicht? Den GT212. --> Es gibt keinen GT212.
Und wenn es einem..... MÖÖP.... Akkusativ --> Und wenn es einen gäbe, käme dieser.....

Gast
2009-09-13, 18:00:12
die ganzen gerüchte um einen viel späteren G300 sprechen gerade dazu das der G300 früher kommt als alle denken. NV wäre ja ganz schön blöd die gerüchteküche nicht mit einem frühen start des G300 zu überzeugen wenn sie wirklich grosse probleme damit hätten...

Der kommt Q4 bin ich mir recht sicher

incM
2009-09-13, 18:00:25
sollte es nicht am 16. ne ankuendigung/paperlaunch geben? oder ist das mittlerweile wieder abgesagt worden?

Nakai
2009-09-13, 18:02:11
Hrhr, was würde ich lachen, wenn Nvidia in Kürze einen HD-5800-Counter-Launch mit sofortiger Verfügbarkeit aus dem Boden stampft. Die Anzeichen stehen jedoch schlecht. Das kann für astreine Arbeit oder aber ernsthafte Probleme sprechen. Letzteres ist wahrscheinlicher. Aber wie war das noch Ende 2006? Nvidia hat keine Unified Shader Architecture ... Dennoch glaube ich, dass einige hier Nvidia unterschätzen. Jedes Mal aufs Neue wird der jeweils andere Hersteller schon abgeschrieben, nur weil der Konkurrent ein schnelleres, weil viel neueres Produkt angekündigt hat.

Ja, NV ist da eh immer etwas ruhiger. Das Problem ist nur, dass AMD sehr froh ist, was bedeutet, dass die eigenen GPU in einer gewissen Hinsicht bessersind. Sei es sie sind deutlich früher da oder sie sind schneller. IMO macht AMD genau das Gegenteil, als wenn sie unterlegen sind, was ein schlechtes Zeichen für NV ist.
Ich hoffe, dass der GT300 reinhaut, also so nah wie möglich an Hemlock, wie es nur geht.

Naja, Neliz spricht von 9 Moante und mehr bis GT300 erscheint, das wäre Juni 2010. Angeblich soll nun GT212 doch noch erscheinen, weil die ganze GT30X Generation "fucked-up" ist.

Das hoffe ich nicht, das wäre wieder ein FX oder R600-Desaster.



mfg Nakai

reunion
2009-09-13, 18:03:44
das argument der schnelleren karte zieht doch auch nicht wirklich. die karten werden entsprechend kostenen und die nachteile der karte sid nicht von der hand zu weisen.

Na dann kaufe dir doch deine NV-Karte. Die wird ganz bestimmt nicht teurer und nur Vorteile bieten. Aber bitte verschone uns mit deinen herumgetrolle. Wieder mal ein schönes Beispiel wie man eine sachliche Diskussion ruinieren kann.

Ich werfe da mal Flimmer-AF und hohe Lautstärke unter Last (über 5 Sone) in den Raum. Mal sehen, ob das stimmt.


Wird das jetzt hier ein Ratespiel?

AnarchX
2009-09-13, 18:04:53
Neliz hält D12U für GT212. ;)

derguru
2009-09-13, 18:06:49
eigentlich sollte man mit diesem jahr rechnen allein aus dem grund weil oktober/november amd mit der x2 kommen will.mir wäre lieber das nv so schnell es geht kommt,um so besser für uns;)
ohne konkurrenz ist es ja langweilig.:wink:

Raff
2009-09-13, 18:10:11
X2 ... dass ich nicht lache. Nirgends wird herumposaunt, dass Ati das Mikroruckeln eindämmen oder beseitigen konnte, ergo wird auch "Hemlock" nur ein heißes, lautes, stromfressendes, mikroruckelndes Benchmarkwunder. Das gilt eingeschränkt auch für eine kommende "GTX 395". Interessant für Enthusiasten-Spieler sind nur Cypress und Nvidias GT300. Andererseits würde es mich natürlich freuen, wenn es doch anders (= mikroruckelfrei) kommt ... aber daran glaube ich nicht. ;(

MfG,
Raff

reunion
2009-09-13, 18:12:25
eigentlich sollte man mit diesem jahr rechnen allein aus dem grund weil oktober/november amd mit der x2 kommen will.mir wäre lieber das nv so schnell es geht kommt,um so besser für uns;)
ohne konkurrenz ist es ja langweilig.:wink:

Wer kauft bevor die Karten auf dem Tisch liegen ist ohnehin selbst Schuld. :)

V2.0
2009-09-13, 18:16:02
Neliz hält D12U für GT212. ;)

Nein, er hat klar gesagt, dass GT212 reaktiviert wurde, weil GT300 völlig "fucked-up" ist.

reunion
2009-09-13, 18:18:46
Nein, er hat klar gesagt, dass GT212 reaktiviert wurde, weil GT300 völlig "fucked-up" ist.

Glaube ich zwar nicht, würde aber zu den AMD-Folien passen wo man ausdrücklich von der einzigen DX11-GPU spricht.

derguru
2009-09-13, 18:29:08
9 monate bis zum 300gt launch wäre aber heftig,hensen sollte all seine aktien verkaufen wenn das stimmt. :lol:

Knuddelbearli
2009-09-13, 21:17:54
Mit was sonst? Wenn beide Hersteller mit <200$ Produkte verluste machen, mit welchen verdient man dann Geld?



Schade, dass manche den Sinn eines Diskussionsforum nicht verstehen. Aber die Ignore-Liste hilft immer - um jedenfalls nicht zu diskutieren.

geld wird im Bereich 150$-50$ gemacht alles andere ist prestige und läuft häufig auf +/- 0 raus da die Entwicklung dort auch mit Abstand die teuerste ist.


NV muss die 260 ja bereits mit dicken Verlust je Karte verkaufen und die 285 auch fast ein +/- Geschäft. Solche Zeiten wie GT 8800 Ultra usw sind die Ausnahme.




@ =Floi=

nur doof das Nv trotz ATIs Furemark Problem ne viel höhere Sterblichkeit rate hat, und auch große Qualitätsprobleme wie extremes SpulenFiepen.

Jeder Hersteller hat seine Problemchen im großen und ganzen nehmen sich ATI und NV absolut gar nix.

LovesuckZ
2009-09-13, 21:23:02
geld wird im Bereich 150$-50$ gemacht alles andere ist prestige und läuft häufig auf +/- 0 raus da die Entwicklung dort auch mit Abstand die teuerste ist.

Warum machen AMD und nVidia dann verluste?


NV muss die 260 ja bereits mit dicken Verlust je Karte verkaufen und die 285 auch fast ein +/- Geschäft. Solche Zeiten wie GT 8800 Ultra usw sind die Ausnahme.

Also macht man dort nicht das meiste Geld? nVidia hat 70-80% Margen im Workstationbereich. nVidia erwirtschaftete mit 1/3 des Desktopumsatzes 40 Millionen Gewinn, der Desktop/Notebookbereich lag bei 20 Millionen Verlust.
Gewinn erwirtschaftet man dort, wo man die beste Marge erreicht.

mapel110
2009-09-13, 21:24:28
geld wird im Bereich 150$-50$ gemacht alles andere ist prestige und läuft häufig auf +/- 0 raus da die Entwicklung dort auch mit Abstand die teuerste ist.


NV muss die 260 ja bereits mit dicken Verlust je Karte verkaufen und die 285 auch fast ein +/- Geschäft. Solche Zeiten wie GT 8800 Ultra usw sind die Ausnahme.
Hast komische Vorstellungen von Grafikchips. Man entwickelt nur einmal für alle Chips. Dann wird über die Breite skaliert und auf den jeweiligen Fertigungsprozess angepasst.
Und der ganze Rest ist Spekulation. Dazu hat wohl noch nie ein IHV Zahlen veröffentlicht.
Es gibt nur Schätzungen.
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten
113 Dollar für GTX 260. Dürfte locker bei 120 € gedeckt sein plus Händlermargen.

aylano
2009-09-13, 21:25:35
zitat
der ati-chip ist ein zusammengepappter RV790. was bitteschön ist daran gut oder fortschrittlich? das mußt du mir mal näher erklären? daran scheitert es einfach. das ist einfach ein zu simpler und schlechter weg.

Die Innovation liegt oft in der simplen Einfacheit, womit schneller bzw. einfacher bzw. flexibler gearbeitet werden kann.

Warum sollte ATI wie NV komplizierte GPUs machen, die man schwerer & später am Markt bekommt bzw. generell bei neue Features eventuell mehr Manpower braucht, wenn sie einen einfacheren Weg gefunden haben?

Und wenn RV870 wirklich nur ein zusammengepappter RV790 ist, dann ist der RV790 noch innovativer als wir vorher dachten.
Da darf man RV870 nicht schlecht reden.
ATI ist sicher froh, dass RV870 ein RV790- und nicht R600-Nachfolger wird.

Mal sehen, was dann das Architektur-Team des RV770 dann in der 800er-Architektur später zusammenbringen.


damit hast du schöne balken und niedriges R&D aber der spieler bleibt auf der strecke. nebenbei möchte ich hier mal erwähen, dass ATI eben auch anders kann und durchaus auch sehr gute produke bauen kann, nur hier sicherlich nicht. man geht wohl dazu über die design viel länger zu nützen und so entwicklungskosten zu sparen.

Das Gerücht der geringern Entwicklungskosten entstand ja, weil sich inquirer das eine englische Wort mit Abschreibungen verwechselte,was beide Bedeutungen hat.
Komischerwesie glaubten damals viele an dieser starken Reduktion.
Dass diese ca. 40% R&D-Einsparung z.B. mindestens die ganze Grafikkartensparte entsprochen hätte, dachte kaum jemand.

Nach steigenden R&D-Kosten sanken sie in letzter Zeit, aber da wurde die Multimedia & Handy-Sparte verkauft und dazu gibts seit der Wirtschaftskrise temporär eine Gehaltskürzung im Ganzen Unternehmen.

Und wie gesagt.
"Billige" & Einfache GPUs zu machen, hat nicht gleich was mit schlecht zu tun.
Was zählt ist, was am Schluss rauskommt (Qualität, Leistung, Zeitpunkt des Erscheinen (& Preis))
Und wer das Beste für die Masse zusammenbringt, macht das meiste Geld.

Knuddelbearli
2009-09-13, 21:28:10
@ LovesuckZ ...

bisschen logisch denken reicht auch meinte antürlich den privaten endkunden markt + oem also desktop rechner

@ mapel110 ja es gibt wie fast imemr bei solchen Themen nur schätzungen ( deshalb gibts auch solche Spekus foren wie das hier ... ) sogut wie alle gehen aber beim chip selbst von Verlusten für NV aus beim 260er

und dein link hat nix mit NV zu tun mapel110, das sind die Preisefür die Assembler wie zB EVGA. und selbst das ist eher unwahrscheinlich da die Kühllösung niemals so teuer sein kann.

Coda
2009-09-13, 21:29:33
Also soweit ich es mitbekommen hat enthält RV870 schon ein paar durchaus wichtige technische Neuerungen. Unter anderem wurde das Rasterizer-Bottleneck ziemlich aufgeweitet. Deshalb kann er auch in der Praxis wohl tatsächlich fast den doppelten RV770-Speed erreichen.

Ein reines RV7xx + D3D11 ist es nicht, aber natürlich ein Evolutionsschritt. Es kommt darauf an was NVIDIA mit GT300 bringt. Gerüchteweise ja mal wieder eher Revolution statt Evolution. Das ist natürlich ein riskanterer Weg, der nun eben leider in einer Verzögerung geendet hat.

Wir werden sehen ob sich das Risiko und die Verzögerung am Ende auszahlen.

LovesuckZ
2009-09-13, 22:02:37
@ LovesuckZ ...
bisschen logisch denken reicht auch meinte antürlich den privaten endkunden markt + oem also desktop rechner


Den gibt es für AMD und nVidia nicht und ändert nichts an der Tatsache, dass beide Verluste einfahren - nVidia im Desktop/Notebookbereich und AMD im Gesamtbereich.

N0Thing
2009-09-13, 22:25:04
Nein, er hat klar gesagt, dass GT212 reaktiviert wurde, weil GT300 völlig "fucked-up" ist.

Wer ist dieser neliz?

Wolfram
2009-09-13, 23:35:35
Könnt ihr diesen Trash wie auf den letzten Seiten bitte lassen? Danke!

][immy
2009-09-14, 00:06:07
Also soweit ich es mitbekommen hat enthält RV870 schon ein paar durchaus wichtige technische Neuerungen. Unter anderem wurde das Rasterizer-Bottleneck ziemlich aufgeweitet. Deshalb kann er auch in der Praxis wohl tatsächlich fast den doppelten RV770-Speed erreichen.

Ein reines RV7xx + D3D11 ist es nicht, aber natürlich ein Evolutionsschritt. Es kommt darauf an was NVIDIA mit GT300 bringt. Gerüchteweise ja mal wieder eher Revolution statt Evolution. Das ist natürlich ein riskanterer Weg, der nun eben leider in einer Verzögerung geendet hat.

nv30 sollte auch eine revolution werden ;)
aber so schief kann es eigentlich bei nv diesmal nicht laufen, außer das der chip durch eine zu starke verspätung keine chance mehr auf dem markt hat.

also rein von der roh-power ist der rv870 schonmal das doppelte des rv770. wenn jetzt noch hier und da ein paar technische verbesserungen mit hineinspielen, könnte es durchauaus auch mehr als das doppelte des rv770 sein. besonders beim speicherzugriff muss sich wohl was verbessert haben. denn die 4870 hatte zwar speicherbandbreite im übermaß, aber mit der doppelten hardware dürfte es schon wieder etwas eng werden bei der kommenden 5870. daher kann ich mir nich vorstellen, das sie hier nicht auch wieder wege gefunden haben die speicherbandbreite zu entlasten.

was wäre z.B. mit einem cache wie beim xbox 360 chip. würde so ein cache an der richtigen stelle nicht massiv speicherbandbreite schonen können?

Gipsel
2009-09-14, 01:19:06
[immy;7530935']daher kann ich mir nich vorstellen, das sie hier nicht auch wieder wege gefunden haben die speicherbandbreite zu entlasten.

was wäre z.B. mit einem cache wie beim xbox 360 chip. würde so ein cache an der richtigen stelle nicht massiv speicherbandbreite schonen können?
Moderne GPUs besitzen bereits eine Menge (verschiedener) Caches. Und ja, es ist nicht nur möglich sondern sehr wahrscheinlich, daß ATI was an den Caches im Vergleich zu RV770 geändert hat. In dem Bereich hat auch schon der RV770 gegenüber dem RV670 deutlich zugelegt.

=Floi=
2009-09-14, 02:32:44
mich stört eben die tatsache, dass nach den alten spekulationen auch ein halber R870 verwendet werden kann und dafür müsste der chip manche einheiten doppelt haben. für ati wäre es einfach der leichtestete weg CF einzusetzen und hier über den treiber die sache zu regeln. das dürfte weitaus günstiger sein. ich finde den weg durchaus mutig und in einer gewissen weise intelligent, aber für mich persönlich kann ich darin keine vorteile erkennen, da MGPU noch immer nicht dort angekommen ist wo es sein sollte. Solange hier ati keinen komplett neuen chip baut sehe ich hier einfach schwarz.

Beim GT300 kann man nur die einheiten abschalten und so den unteren markt bedienen. Das mag durchaus größere nacheile haben, dafür ist hier der treiber pfelegeleicher. beim vollen GT300 ist die performance sicherlich auch ausgewogener und von spiel zu spiel nicht so schwankend. das störte mich auch schon beim R600 und von mir auch kann man hier sli und cf auch hinzuzählen, weil manchmal die performance dadurch einfach zu stark schwankt. ich habe lieber weniger theoretische rechenleistung und dafür eine bessere ausnutzung derer. wie weit man damit kommt zeigt der G80. DAS sollte man durchaus auch bedenken.

Coda
2009-09-14, 03:21:48
[immy;7530935']was wäre z.B. mit einem cache wie beim xbox 360 chip. würde so ein cache an der richtigen stelle nicht massiv speicherbandbreite schonen können?
Funktioniert beim PC nicht. Der müsste viel zu groß sein. So ungefähr im Bereich von >100MiB. Das packst du nicht als Cache auf den Chip ;)

Nightspider
2009-09-14, 03:24:51
Funktioniert beim PC nicht. Der müsste viel zu groß sein. So ungefähr im Bereich von >100MiB. Das packst du nicht als Cache auf den Chip ;)

Wäre das vllt später mal eine alternative wenn die Chips in die 3. Dimension gehen, also immer mehr Schichten "gestapelt" werden ?

Irgendwann sollen ja auch diese Dreidimensionalen Transistoren einzug halten, die Frage ist nur wann.

Coda
2009-09-14, 03:46:30
3D-Transistoren dienen dazu auch bei kleineren Prozessen noch Transistoren überhaupt bauen zu können. Am Aufbau eines Chips ändert das nichts.

Außerdem steigen die Auflösungen auch kontinuierlich.

Ailuros
2009-09-14, 07:22:34
Die Innovation liegt oft in der simplen Einfacheit, womit schneller bzw. einfacher bzw. flexibler gearbeitet werden kann.

Nur haelt sie nicht fuer lange. Das warum kommt dann erst ab 28nm.

Warum sollte ATI wie NV komplizierte GPUs machen, die man schwerer & später am Markt bekommt bzw. generell bei neue Features eventuell mehr Manpower braucht, wenn sie einen einfacheren Weg gefunden haben?

Es gab eben keinen einzigen Grund dazu. Nuechtern gesehen man steht zuerst da mit einer neuen API Generation, kapituliert mit aller Wahrscheinlichkeit OEM deals fuer Schlepptopps frueher und man hat einen enormen Vorsprung was DevRel betrifft.

Und wenn RV870 wirklich nur ein zusammengepappter RV790 ist, dann ist der RV790 noch innovativer als wir vorher dachten.
Da darf man RV870 nicht schlecht reden.
ATI ist sicher froh, dass RV870 ein RV790- und nicht R600-Nachfolger wird.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7531097&postcount=4049


Das Gerücht der geringern Entwicklungskosten entstand ja, weil sich inquirer das eine englische Wort mit Abschreibungen verwechselte,was beide Bedeutungen hat.
Komischerwesie glaubten damals viele an dieser starken Reduktion.
Dass diese ca. 40% R&D-Einsparung z.B. mindestens die ganze Grafikkartensparte entsprochen hätte, dachte kaum jemand.

Nach steigenden R&D-Kosten sanken sie in letzter Zeit, aber da wurde die Multimedia & Handy-Sparte verkauft und dazu gibts seit der Wirtschaftskrise temporär eine Gehaltskürzung im Ganzen Unternehmen.

Die handheld Sparte zu verkaufen war eine miserable Idee; erstmal hat man tonnenweise Partner und Boden fuer den Markt abgekackt und es wird nicht leicht sein theoretisch nochmal mit Fusion in der Zukunft damit anzufangen.

In dem Fall geht es gar nicht um Umsatz denn weder NV noch AMD wuerden irgendwelchen Gewinn aus der Sparte machen. Das dumme ist eben an der Angelegenheit dass die beiden handheld Sitze fuer Nintendo und Sony fuer die zukuenftige Generation schon belegt sind.

Und wie gesagt.
"Billige" & Einfache GPUs zu machen, hat nicht gleich was mit schlecht zu tun.
Was zählt ist, was am Schluss rauskommt (Qualität, Leistung, Zeitpunkt des Erscheinen (& Preis))
Und wer das Beste für die Masse zusammenbringt, macht das meiste Geld.

AMD wird IMHO mit kleineren Herstellungsprozessen nachholen. So oder so war es eine Einbahnsstrasse fuer sie genauso wie auch im Gegensatz fuer NVIDIA. Man kann es nicht oft genug erwaehnen dass solches Zeug vor etlichen Jahren schon festgelegt wurde und man kann daran nicht besonders viel selbst 2 Jahre vor der Veroeffentlichung aendern.

Wie schon mal erwaehnt dieser "tick-tock" Verlauf zwischen den beiden IHVs ist das beste was uns Verbrauchern passieren koennte. Es gewinnt nie nur einer und beide wechseln sich innerhalb Generation ab.

Soundwave1983
2009-09-14, 09:36:39
Das dumme ist eben an der Angelegenheit dass die beiden handheld Sitze fuer Nintendo und Sony fuer die zukuenftige Generation schon belegt sind.

Darf man fragen, von wem? :)

aylano
2009-09-14, 10:27:49
Nur haelt sie nicht fuer lange. Das warum kommt dann erst ab 28nm.
...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7531097&postcount=4049
Mit Simple & Einfach meine ich nicht zu simple & einfach.

Sondern, wenn ein Nachfolger single-GPU mit Doppelten Einheiten und neuen Features entworfen wird, dass dieser mit weniger Manpower, schneller & Problem-loser eingeführt werden kann.
Statt eben Dual-Core-GPU

Nvidia hatte schon mit GT200 & GT200b große Probleme mit der Einführung und erhebliche Verbesserungen. Es scheint, als ob sie seit der 200er-Serie eine Kompliziertere GPU-Architektur haben.
Man wird sehen, ob sie es vielliecht diesemal im Griff bekommen und in aktzeptablen Abstand zu RV870 rausbringen oder die Architektur ist noch immer zu kompliziert iund kommt wieder mit erheblichen Verspätungen.

Komplizierte & Innovative Architekturen sind schön und gut, aber sie müssen auch in diwersen Jahren in der geplanten Zeit am Markt zu bringen sein.
---
Und wahrscheinlich gibts bei 28nm dann schon wieder eine 2. Versuch von der 800er bzw.DX11-Serie.

Ailuros
2009-09-14, 11:06:01
Darf man fragen, von wem? :)

NVIDIA Tegra IP und IMG SGX IP.

Ailuros
2009-09-14, 11:12:46
Mit Simple & Einfach meine ich nicht zu simple & einfach.

Sondern, wenn ein Nachfolger single-GPU mit Doppelten Einheiten und neuen Features entworfen wird, dass dieser mit weniger Manpower, schneller & Problem-loser eingeführt werden kann.
Statt eben Dual-Core-GPU

Ach und was beschreibst Du gerade dass man nicht im Diagramm sehen kann oder ich nicht genauso meinte? Es ist so einfach wie es auf dem Bild aussieht und es kostet auch dementsprechend an Transistoren und auch an Effizienz. Haetten sie einen X11 chip von Grund auf gebaut bin ich mir gar nicht so sicher dass sie 2.15M Transistoren verprasselt haetten um nur so viel zu erreichen.

Nvidia hatte schon mit GT200 & GT200b große Probleme mit der Einführung und erhebliche Verbesserungen. Es scheint, als ob sie seit der 200er-Serie eine Kompliziertere GPU-Architektur haben.
Man wird sehen, ob sie es vielliecht diesemal im Griff bekommen und in aktzeptablen Abstand zu RV870 rausbringen oder die Architektur ist noch immer zu kompliziert iund kommt wieder mit erheblichen Verspätungen.

Und G300 ist als Architektur noch um einiges komplizierter. Die Transistoren-Anzahl liegt aber nicht hoeher als 2.4M. Du etwas merken? ;)

Komplizierte & Innovative Architekturen sind schön und gut, aber sie müssen auch in diwersen Jahren in der geplanten Zeit am Markt zu bringen sein.

Hab ich was anderes behauptet? Ich sagte lediglich dass AMD es nicht umgehen wird mit 28nm auf einen effizienteren Design zu gehen, denn sie hocken praktisch schon seit 2006 auf dem gleichen Fundamenten. Fuer immer haelt das gleiche Zeug nicht aus und es verliert schon mit Evergreen etwas an seinem Glanz. AMD hat es auch zwischen den Linien schon mehr als einmal erwaehnt, nur scheint keiner aufzupassen...
---
Und wahrscheinlich gibts bei 28nm dann schon wieder eine 2. Versuch von der 800er bzw.DX11-Serie.

Thank you captain obvious :P

Gast_mboeller
2009-09-14, 11:15:00
Gewinn erwirtschaftet man dort, wo man die beste Marge erreicht.

Dann sollten also alle Autohersteller nur noch Phaeton's, Bentley's, Royce Rolls, Ferrari etc.. herstellen, oder?

Leider kann man von solchen Produkten mit geringer Stückzahl und hoher Marge nicht leben. Diese Produkte lohnen sich nur, weil sie durch die normalen Produkte quersubventioniert werden.

Das trifft auch auf GPUs zu. Man entwickelt eine GPU und verkauft sie 1x als normale Highend-Karte mit niedriger Marge und 1x als Workstation-Karte mit besseren Support, anderen Treibern und sehr hoher Marge. Ohne die normale Highend-Karte mit hoher Stückzahl und niedriger Marge hat der Hersteller gar kein Geld um die Workstation-GPU zu entwickeln. Deshalb gibt es einige Hersteller von Workstation GPUs, wie zB. 3DLabs nicht mehr.

Ailuros
2009-09-14, 11:33:15
Ist zwar OT aber 3DLabs existiert sehr wohl noch. Nur entwickeln sie heutzutage nur noch multimedia relevantes eingebettetes Zeug ohne besonderen Erfolg.

LovesuckZ
2009-09-14, 13:04:51
Leider kann man von solchen Produkten mit geringer Stückzahl und hoher Marge nicht leben. Diese Produkte lohnen sich nur, weil sie durch die normalen Produkte quersubventioniert werden.


Sehr unsinnig. AMD und nVidia zeigen, dass man eben nicht Geld verdienen kann, wenn man seine Produkte schon fast verschenkt. Das sollte doch langsam klar sein. nVidia's Desktop/Notebookbereich machte nur noch 45% des Gesamtumsatzes aus und die Marge liegt unter dem Unternehmensdurchschnitt von ca 36%. Man muss dazu aber auch sagen, dass der PC Markt sich verändert und immer mehr in Low-End geht. Und genau hier fehlen einfach margenreiche Produkte. nVidia's Chipsatzbereich ist z.B zum letzten Jahr um 43% gewachsen. Desktopwachstum war der minimal im Vergleich zum Chipsatzbuisness und auch zum Workstationbereich.
AMD hat ihre Notebookschip wohl verschenkt, anders ist ein Kostenanstieg von 40 Millionen $ und somit ein negatives Ergebnis bei 83% Marktwachstum nicht zu erklären.
Man hat früher in diesem Bereich viel Geld verdient, weil man billig herstellte und relativ teuer verkaufte. Das existiert jetzt nicht mehr.

V2.0
2009-09-14, 13:06:11
Mehr info von Neliz, der sehr neutrla ist und gute Quellen hat:


GT212 will come out, maybe this year.. probably next year.
GT215/6/8 will have a very hard time competing (would've been different if they launched in Q209 as intended and not Q409) and GT300 is not set for another 9 months.
This is not the Apocalypse, it's the result of a design decision made way back when 40nm wasn't available. Tables can turn in 2010.

LovesuckZ
2009-09-14, 13:13:21
Wann hat eigentlich AMD ihr "design decision" gemacht? Neliz merkt garnicht, dass er bald auf Charlie Niveau liegt...

aylano
2009-09-14, 13:21:12
Ach und was beschreibst Du gerade dass man nicht im Diagramm sehen kann oder ich nicht genauso meinte? Es ist so einfach wie es auf dem Bild aussieht und es kostet auch dementsprechend an Transistoren und auch an Effizienz.
Ich dachte, das Diagramm ist schon alt und die native Dual-GPU Sache ist schon Verworfen.


Und G300 ist als Architektur noch um einiges komplizierter. Die Transistoren-Anzahl liegt aber nicht hoeher als 2.4M. Du etwas merken? ;)
Merken schon, aber ich kann in meiner Lage gewisse Sachen eben nicht als Tatsachen hinstellen.
Vor allem, wenn die Architekturen noch nicht mal veröffentlicht sind und wir noch nicht die ganzen Infos für die neue Architekturen haben.

Hab ich was anderes behauptet? Ich sagte lediglich dass AMD es nicht umgehen wird mit 28nm auf einen effizienteren Design zu gehen, ...
Ich deutete wennschon auf den GT300 bzw. GT200(b), ob sie vielleicht für das Jahr 2009 bzw. 2008 nicht noch etwas zu kompliziert sind, wodurch sich GT200 sich schon erheblich verspätete und GT300 eventuell sich noch erheblich verspäten könnte.


Thank you captain obvious :P
Dass du damit den 2.Versuch meinst, hatte man nicht so easy rauslesen können.

MuLuNGuS
2009-09-14, 13:24:51
kein G300 um die jahreswende, das wäre aber bitter gewitter...

LovesuckZ
2009-09-14, 13:28:29
Das steht noch nicht fest. ;)
Der Plan für die nächsten Monate sieht doch folgendermaßen aus: Diese Woche gibt es wieder Investment Calls, da könnten weitere Fragen bezüglich D3D11 und Konkurrenz fallen. Bei der GPU Conference hält nVidia ein 2h Tutorial über D3D11 ab. Sollten dort keine Andeutungen gemacht werden, wird es wohl dieses Jahr nichts mehr. Spätesten bei der CC zum 3.Q werden wir wissen, was Sache ist, da Fragen nach D3D11 aufjedenfall kommen werden.

X.Perry_Mental
2009-09-14, 13:51:42
Mehr info von Neliz, der sehr neutrla ist und gute Quellen hat:
Ist dieser "GT212" denn wirklich der eingestampfte Chip von neulich? Irgendwie begreife ich den Sinn dahinter nicht, den jetzt wieder auszugraben.

Ailuros
2009-09-14, 13:53:32
Mehr info von Neliz, der sehr neutrla ist und gute Quellen hat:

Neutral? Nicht im geringsten. Und seine "Quellen" sind CJ und Charlie. Soll ich weitererzaehlen oder reicht das?

Ailuros
2009-09-14, 13:57:33
Das steht noch nicht fest. ;)
Der Plan für die nächsten Monate sieht doch folgendermaßen aus: Diese Woche gibt es wieder Investment Calls, da könnten weitere Fragen bezüglich D3D11 und Konkurrenz fallen. Bei der GPU Conference hält nVidia ein 2h Tutorial über D3D11 ab. Sollten dort keine Andeutungen gemacht werden, wird es wohl dieses Jahr nichts mehr. Spätesten bei der CC zum 3.Q werden wir wissen, was Sache ist, da Fragen nach D3D11 aufjedenfall kommen werden.

Dann mach Dir gefaelligst die Muehe und frag nach ob wenigstens EIN NV Partner ein D12U sample hat. Den Rest darfst Du Dir selber ausdenken.

V2.0
2009-09-14, 13:57:40
Ist dieser "GT212" denn wirklich der eingestampfte Chip von neulich? Irgendwie begreife ich den Sinn dahinter nicht, den jetzt wieder auszugraben.

Wenn der GT300 fucked up ist, dann muss eine Notlösung her.

Neutral? Nicht im geringsten. Und seine "Quellen" sind CJ und Charlie. Soll ich weitererzaehlen oder reicht das?

Ich denke Neliz ist doch fast ein spezieller NV Fanboy, wie der gute Nagus. Und ob er die Quelle von Charlie, oder Charlie seine Quelle ist, das kann man sicher auch diskutieren.

Ailuros
2009-09-14, 14:00:36
Ich denke Neliz ist doch fast ein spezieller NV Fanboy, wie der gute Nagus. Und ob er die Quelle von Charlie, oder Charlie seine Quelle ist, das kann man sicher auch diskutieren.

Ich meine einen neliz vom B3D Forum (der noch aggressiver pro ATI postet als jeglicher hier) der unter anderem Namen (unter den restlichen 4-5 anderen Kerlen) in Charlie's Forum posten. Und ja falls Du den meinen solltest ist Charlie eine seiner "Quellen".

Coda
2009-09-14, 15:04:06
Wenn der GT300 fucked up ist, dann muss eine Notlösung her.
Jetzt noch mit D3D10 ankommen das nichtmal mithalten kann wäre ein noch größerer Gesichtsverlust als NV30 damals.

Das wird nicht passieren. Dann kommt eher ein halbes Jahr gar nichts neues.

igg
2009-09-14, 15:13:19
Dann mach Dir gefaelligst die Muehe und frag nach ob wenigstens EIN NV Partner ein D12U sample hat.
Das würde bedeuten, dass Charlie die Scheiße richtig gerührt hat :(

Gast
2009-09-14, 15:17:03
Neutral? Nicht im geringsten. Und seine "Quellen" sind CJ und Charlie. Soll ich weitererzaehlen oder reicht das?


ahhh....Phantom Z ist also Charlie. Na sowas. ;)

reunion
2009-09-14, 15:20:35
Jetzt noch mit D3D10 ankommen das nichtmal mithalten kann wäre ein noch größerer Gesichtsverlust als NV30 damals.


Naja, ein GT212 war als 384SPs-Chip konzipiert. Das sollte schon ungefähr reichen um mit Cypress gleichzuziehen. Aber ich glaube auch nicht daran. Wenn man darauf jetzt Ressourcen verschwendet dann müsste GT300 schon extrem viel später kommen das sich das aus Sicht von NV lohnt.

Dann mach Dir gefaelligst die Muehe und frag nach ob wenigstens EIN NV Partner ein D12U sample hat. Den Rest darfst Du Dir selber ausdenken.

Das es noch keine GT300-Samples für irgend jemanden gibt ist ein offenes Geheimnis. Bei Partnern würde ich mir weniger denken, aber anscheinend sieht es da auch bei Entwicklern schlecht aus.

LovesuckZ
2009-09-14, 15:22:16
GT212 ging nie zum Tape-Out. Würde man ihn also bringen wollen, käme er in 6 Monaten oder später.

reunion
2009-09-14, 15:29:37
GT212 ging nie zum Tape-Out. Würde man ihn also bringen wollen, käme er in 6 Monaten oder später.

Naja, wenn man das wirklich plant dann wohl nicht erst seit gestern. Sollte GT300 wirklich kurzfristig unlösbare Probleme verursachen dann weiß man das wohl spätestens seit dem ersten Tapeout. Man weiß auch nicht wie weit ein GT212 nicht schon fortgeschritten war. Aber das macht wirklich nur Sinn wenn mit GT300 auf längere Sicht nicht zu rechnen wäre, und alle offiziellen Aussagen von NV deuten auf etwas anderes hin. Auch die D3D11 Präsentation in kürze wäre dann arg fragwürdig.

Gast
2009-09-14, 15:48:49
Das würde bedeuten, dass Charlie die Scheiße richtig gerührt hat :(


...und IMHO auch, dass das posting auf chiphell gestimmt hat, dass das 2. od. 3. Tape-out Ende Juli leider wieder schief gelaufen ist.

V2.0
2009-09-14, 15:54:19
GT212 ging nie zum Tape-Out. Würde man ihn also bringen wollen, käme er in 6 Monaten oder später.

Fing man im Juni/Juli an, dann kann Anfang 2010 für GT212 durchaus stimmen. Nur dann ist GT300 hoffnungslos verloren. Naja, bald wird NV sich dazu äußern müssen, denn Fragen zu Dx11 werden sicher kommen, wenn der nächste CC ist.

Gast
2009-09-14, 15:57:00
Jetzt noch mit D3D10 ankommen das nichtmal mithalten kann wäre ein noch größerer Gesichtsverlust als NV30 damals.

Das wird nicht passieren. Dann kommt eher ein halbes Jahr gar nichts neues.
Das glaube ich nicht.
Wenn NV nichts einfällt, dann geht die Umbenennungsaktion in die nächste Runde.
Gibt ja genug Deppen, die bei einem neuen Namen an etwas Neues glauben.
Und Nvidia nutzt dieses Unwissen aus.

X.Perry_Mental
2009-09-14, 16:00:31
Fing man im Juni/Juli an, dann kann Anfang 2010 für GT212 durchaus stimmen. Nur dann ist GT300 hoffnungslos verloren. Naja, bald wird NV sich dazu äußern müssen, denn Fragen zu Dx11 werden sicher kommen, wenn der nächste CC ist. Ich hoffe auf ein baldiges Lebenszeichen, die Ruhe während der Radeon-5xxx-Vorstellung war schon unheimlich. Hoffen wir mal, dass der GT300 mehr oder weniger im Plan liegt.

igg
2009-09-14, 16:14:24
An all diejenigen, welche an D12U = GT212 glauben: Was präsentiert dann NV auf der GPU Conference im Rahmen des Tutorial über D3D11?

Nakai
2009-09-14, 16:14:56
Keiner hier weiß was hinter den Kulissen richtig läuft. Das was einige sogenannte Quellen immer sagen, kann man nur unter Auflagen als halb-unwahr bezeichnen.

Dann mach Dir gefaelligst die Muehe und frag nach ob wenigstens EIN NV Partner ein D12U sample hat. Den Rest darfst Du Dir selber ausdenken.

Naja das muss nicht bedeuten, dass es eine extreme Verschiebung gibt.

Dass "dieser" GT212 nochmal herausgekramt wird, glaube ich nicht. IMO spricht es eher dafür, dass ein GT212-artiger Chip kommt. Der GT300 wurde wohl ziemlich heftig nach hinten verschoben, stattdessen kommt ein Chip auch im Performancesegment mit DX11-Fähigkeiten um dem RV870 das Fürchten zu lehren. GT300 kann ja immer noch kommen, nur nicht so bald.


mfg Nakai

V2.0
2009-09-14, 16:16:06
An all diejenigen, welche an D12U = GT212 glauben: Was präsentiert dann NV auf der GPU Conference im Rahmen des Tutorial über D3D11?
PP-Slides, die zeigen wie man die wesentlichen Elemente von DX11 auch mit DX10.1 nachbilden kann und warum DX10.1 völlig ausreicht. :biggrin:

Dazu DX10.1+Physix gegen DX11 Benches.*

(wenn man fies wäre, könnte man das glauben)

Gast
2009-09-14, 16:38:58
http://forum.beyond3d.com/showpost.php?p=1334705&postcount=2144

reunion
2009-09-14, 16:44:41
http://forum.beyond3d.com/showpost.php?p=1334705&postcount=2144

Wer oder was ist Slappi?

LovesuckZ
2009-09-14, 16:46:27
Wer oder was ist Slappi?

Wer oder was ist Neliz?

Da gibt es noch mehr:
http://rage3d.com/board/showpost.php?p=1336005947&postcount=62

Im Xtremesystem-forum hat jemand geschrieben, dass nVidia zwischen dem 8-17th November den GT300 bringen will.

Ailuros
2009-09-14, 16:47:14
Wer oder was ist Slappi?

Komischer Name gell? Ich weiss zwar nichts aber es klingt mir nicht nach jemand der nichts mit NV zu tun hat.

Gast
2009-09-14, 16:47:18
Wer oder was ist Slappi?

Egal er hat Recht. :)

Ailuros
2009-09-14, 16:56:52
Egal er hat Recht. :)

Mich jucken die Finger jedesmal wenn ich so einen bestandlosen und anonymen Post lesen muss ihn einfach zu loeschen. Es bleibt meine Frage wie auf B3D ob damit eine Architektur-Vorstellung oder ein hard launch gemeint ist. Denn wenn es sich ums zweite handeln sollte (welches mir diesmal als wahrscheinlicher gilt damit NV nicht von Analysten und stockholders in der Luft zerrissen wird) ist Ende November nichtmal von NVIDIA selber gesichert.

igg
2009-09-14, 17:18:31
Wer oder was ist Slappi?
Seine Post History ist recht interessant. Er taucht häufig in der Nähe von Launches (sowohl ATI als auch NV) auf und Macht Stimmung für Nvidia bzw. gegen ATI.

LovesuckZ
2009-09-15, 00:08:10
Hoffentlich hat mapel nichts dagegen:
A Source near the German magazine Ct says that nvidia will launch the DX11-Chip in October with availability in November.

http://forum.beyond3d.com/showpost.php?p=1334961&postcount=369

Wenn die Quelle genauso gut ist, wie die von AMD, dann können wir wohl von November/Dezember ausgehen. :freak:

Gast
2009-09-15, 00:18:30
je früher desto besser,dann kann man beide Marken vergleichen und zuschlagen.

mapel110
2009-09-15, 00:18:31
Hoffentlich hat mapel nichts dagegen:


http://forum.beyond3d.com/showpost.php?p=1334961&postcount=369

Wenn die Quelle genauso gut ist, wie die von AMD, dann können wir wohl von November/Dezember ausgehen. :freak:
Hab nix dagegen, aber es hat auch schon jemand hier im Thread geschrieben. Oder wars im Radeon-Thread?! :confused:
Da hab ICH schließlich die Info her.

Wenns wirklich in der CT steht, sollte es auch stimmen. Imo hauen die sonst so was nicht raus.

/edit
und selbst wenns nicht stimmen sollte, ein bisschen Gegenwind kann dieser Neliz wohl gebrauchen. :)

LovesuckZ
2009-09-15, 00:21:08
Sie haben so etwas zum rv870 gesagt - man werde im August veröffentlichen. Mal sehen, was dran ist.

je früher desto besser,dann kann man beide Marken vergleichen und zuschlagen.

Es ist vorallen für D3D11 wichtig. Nur ein IHV mit der Unterstützung wird zum selben Ergebnis führen wie bei D3D10. nVidia wird dort erstmal nicht viel investieren und der Markt bleibt leider kleiner als nötig. Vorallen in einer Zeit, indem der Markt immer mehr in den Low-End abdriftet.

Knuddelbearli
2009-09-15, 02:32:12
glaube nciht das der gt300 sobald kommt sonst hätte Nv bereits versucht das Rv870 Preview bisl zu stören mit paar kleinen info happen

Gast
2009-09-15, 02:34:25
Wieso? Ist doch noch genug Zeit das zu tun.

Knuddelbearli
2009-09-15, 03:12:15
ja nur dort bringts nicht soviel so haben sie der AMD ATI PR Abteilung das komplette feld überlassen was ne menge wert ist für AMD ATI

Sorkalm
2009-09-15, 03:18:30
ja nur dort bringts nicht soviel so haben sie der AMD ATI PR Abteilung das komplette feld überlassen was ne menge wert ist für AMD ATI

Bis jetzt sind die einzigen die sich über die PR-Folien von AMD "freuen" User die die Spekulatius-Foren im 3DCenter oder ähnlichen Foren weltweit lesen. Sicher keine unwichtige Käuferschaft, da sie auch mit Marktempfehlungen gibt, aber die größere Käuferschichte selbst für High-End-Grafikkarten liegt wo anders. Und diese wissen noch nicht so viel über die neuen Produkte. ;)

Knuddelbearli
2009-09-15, 04:17:32
naja sogut wie jede seite haat inzwischen drüber berichtet ( oki computerbild will ich jetzt nit gucken denke aber mal die auch ) sobald man im inet ist wurde man jetzt also damit berieselt

Sorkalm
2009-09-15, 04:42:24
Einzelne Berichte ja, OK. Benchmarks habe ich da aber bisher kaum gesehen, eher so ungefähre Erwartungen zu den Produkten. Das wäre aber wichtig, denn so technisch versiert was die Architektureinschätzung von GPUs angeht sind die wenigsten. Und dann machts auch die Menge.

Schau mal auf so Seiten wie Computerbase was so über die Serie berichtet wird...

Und vergiss nicht: Viele Käufer sind zu dem Thema gar nicht so akktiv im Internet, sondern lesen eher kurz vor einer Kaufentscheidung mehr oder weniger quer - in Magazinen, im Netz o. ä.

Ailuros
2009-09-15, 07:18:31
Die Situation ist keineswegs ideal fuer NVIDIA. Zumindest wissen sie jetzt genauer wo die Konkurrenz steht.

Als Fudo den newsblurb brachte dass jemand von AMD sagte dass man kurzfristig nichts mehr an roadmaps bzw. Architekturen besonderes aendern kann, gab es fast einen Aufstand der ATI fanboys gegen Fudo. Diese Tatsache die dort erwaehnt wird gilt fuer alle IHVs und nicht nur NVIDIA.

NVIDIA konnte sagen wir mal selbst nach der RV770 Veroeffentlichung nichts mehr am Projekt X11 fundamentales aendern. Es waere interessant zu sehen ob sie etwas an ihrer generellen Strategie mit "G400" aendern werden; ein konservativer Fall waere eine Performance GPU zuerst zu veroeffentlichen und dann spaeter das high end Teil nachzuladen. Und nein ich weiss nichts diesbezueglich sondern mach mir lediglich Gedanken.

Ein anderer Fall waere dass wenn schon AMD's chips zunehmend groesser werden und NVIDIA's chips zunehmend kleiner mit der Zeit dass sie sich in der Zukunft irgendwo in der Mitte "treffen" und quasi mehr oder weniger mit der gleichen Strategie operieren.

igg
2009-09-15, 09:30:16
Täuscht mich mein Eindruck oder ließ Nvidia bereits NDAs unterzeichnen?

Ailuros
2009-09-15, 09:32:38
Täuscht mich mein Eindruck oder ließ Nvidia bereits NDAs unterzeichnen?

Fuer was denn? In naechster Zeit wird irgend ein stereo relevanter Quark angekuendigt und eine weitere GT21x afaik (nein nicht 212 LOL).

igg
2009-09-15, 09:42:40
Für die GT300 Pressevorstellung im Oktober?

Ailuros
2009-09-15, 09:49:57
Für die GT300 Pressevorstellung im Oktober?

Ehrliche Frage: weisst Du genaueres oder ist es nur typisches hoeren-sagen?

reunion
2009-09-15, 09:57:55
Täuscht mich mein Eindruck oder ließ Nvidia bereits NDAs unterzeichnen?

Für was denn? Es gibt noch nicht mal Samples und du willst schon die NDA unterzeichnen lassen?

igg
2009-09-15, 10:01:04
Ich bin kein Insider und weiß nichts näheres, habe mich nur über eine kryptische PM eines Mods in einem anderen Forum gewundert. Die ließ vermuten, dass es ein NDA gibt.

Ailuros
2009-09-15, 10:11:16
Ich bin kein Insider und weiß nichts näheres, habe mich nur über eine kryptische PM eines Mods in einem anderen Forum gewundert. Die ließ vermuten, dass es ein NDA gibt.

Nochmal sie hoffen momentan dass sie es bis Ende November schaffen und falls nicht wird es Januar.

tombman
2009-09-15, 10:15:04
Wird sicher Jänner- ist ein typischer Nvidia Release Monat ;)

AnarchX
2009-09-15, 10:20:00
Wird sicher Jänner- ist ein typischer Nvidia Release Monat ;)
Typisch? GTX 285 und 295 waren wohl die einzigen High-End-Lösungen, die in den letzen Jahren im Januar präsentiert wurden.
Aber das wohl auch nur, da man den 2008er Release verpasst hat. An sich ist wohl ein Release vor dem Weihnachtsgeschäft um einiges besser, weshalb es auch die 295 Previews gab.

Wenn NV wirklich erst im Januar mit GT300 daherkommt, kann man doch nur hoffen, dass dann auch das komplette Line-up bishin zum Low-End steht, denn bei AMD wird es das zu diesem Zeitpunkt.

Ailuros
2009-09-15, 10:23:07
Typisch? GTX 285 und 295 waren wohl die einzigen High-End-Lösungen, die in den letzen Jahren im Januar präsentiert wurden.
Aber das wohl auch nur, da man den 2008er Release verpasst hat. An sich ist wohl ein Release vor dem Weihnachtsgeschäft um einiges besser, weshalb es auch die 295 Previews gab.

Wenn NV wirklich erst im Januar mit GT300 daherkommt, kann man doch nur hoffen, dass dann auch das komplette Line-up bishin zum Low-End steht, denn bei AMD wird es das zu diesem Zeitpunkt.

http://www.theinquirer.net/inquirer/news/1533207/tsmc-increase-300mm-wafer-production


***edit:

so und jetzt um AMD's slides etwas auf die Palme zu nehmen:

------------------------------------------

GTX280:

***

GF 380:

************************
------------------------------------------

Die Anzahl der Sterne haben mit keiner logischen mathematischen Skala etwas gemeinsam :P

igg
2009-09-15, 10:51:06
Und für die Parodie einer sinnlosen Darstellung opferst du 9 Leerzeilen?

Nakai
2009-09-15, 11:06:20
Und für die Parodie einer sinnlosen Darstellung opferst du 9 Leerzeilen?

Wieso sollte er das tun? Wenn man das auf AMDs Folien bezieht. Ergibt sich für den GTX380 eine Leistung von 240% gegenüber den 100% des GTX280.

Außerdem spricht es für einen früheren Launch des GT300.

Außer AIL verarscht uns alle.^^;D


mfg Nakai

Gast
2009-09-15, 11:31:54
Die Anzahl der Sterne haben mit keiner logischen mathematischen Skala etwas gemeinsam :P
Was aber trotzdem die Frage aufwirft, ob Q oder HQ gebencht wurde, 8xAA kann man sicher voraussetzen und TAA existiert ja nun mal nicht.

Danke für den Leak, wollte schon eine HD5870 kaufen, aber jetzt warte ich doch besser ab.

V2.0
2009-09-15, 11:36:23
Ich darf übrigens erwähnen, dass der von mir gerne zitierte Neliz definitiv Quark erzählt, wenn es um Gt212 und GT12U geht. Besonders beim Launchtermin.

igg
2009-09-15, 11:37:15
Wieso sollte er das tun? Wenn man das auf AMDs Folien bezieht. Ergibt sich für den GTX380 eine Leistung von 240% gegenüber den 100% des GTX280.
Er hat doch bereits mehrmals betont, dass quasi keiner irgendwas weiß. 140 % Mehrleistung wäre etwas mehr als eine Verdopplung, quasi Faktor 2.5.

Toppas:-)
2009-09-15, 12:46:39
Man sollte erstmal abwarten was Nvidia wirklich macht. Ich denke das Sie diesmal wohl ATI den First Launch gelassen haben um selbst festzustellen wo sie mit dem GT300 wirklich sind. Hier und da werden nun die Specs entsprechend ausgereizt. Und wenn es stimmt das Nvidia Probleme mit dem Chip hatte, dann wird es höchstens ein Paperlaunch bzw. vor Weihnachten mit einigen Karten zu rechnen sein. Denke mal das Sie dann im Januar wirklich mit einer breiten Palette dann auf dem Markt kommen werden.
Allzu lange werden wir auf irgendwelche Leaks nicht mehr warten müssen, denn Nvidia muss spätestens am Launchday von ATI auch was ankündigen für die OEMs und System-Builder zwecks DX11-Karten um im Geschäft für Weihnachten zu bleiben auf der Masse.
Es wird ein netter Herbst, spannend seid langem mal wieder!!

nagus
2009-09-15, 12:56:47
Ich darf übrigens erwähnen, dass der von mir gerne zitierte Neliz definitiv Quark erzählt, wenn es um Gt212 und GT12U geht. Besonders beim Launchtermin.

erklärung?

Ailuros
2009-09-15, 13:07:27
Wieso sollte er das tun? Wenn man das auf AMDs Folien bezieht. Ergibt sich für den GTX380 eine Leistung von 240% gegenüber den 100% des GTX280.

Außerdem spricht es für einen früheren Launch des GT300.

Außer AIL verarscht uns alle.^^;D


mfg Nakai

Es war lediglich ein Scherz ohne jegliche Prozentuale im Hinterkopf.

Ich darf übrigens erwähnen, dass der von mir gerne zitierte Neliz definitiv Quark erzählt, wenn es um Gt212 und GT12U geht. Besonders beim Launchtermin.

Er musste brav wie jeder andere warten bis die meisten Teile der AMD Praesentation geleakt wurden. Was jetzt GT212 betrifft wuerde der chip afaik Ende Sommer 2008 aufs Eis gelegt bevor es je zum tape out kam und die Mannschaft wurde woanders eingesetzt (wo genau kann ich nicht wissen nur schaetzen).

1. Waere GT212 zum tape out gekommen haette man das Ding auch veroeffentlicht.
2. Waere es der absurdeste Schachzug ueberhaupt das Projekt so spaet nochmal aufzugreifen und die dementsprechende Mannschaft wieder zurueckzurufen.

Es gibt tatsaechlich noch keine D12U samples bei NV's Partnern; ergo kommt gleich danach die Frage ob NV's Partner wenigstens einen Schimmer von etwas groesserem als GT215 momentan haben.

Was ich jetzt ueber den D12U Launchtermin bis jetzt weiss hab ich schon erwaehnt.

V2.0
2009-09-15, 13:57:34
erklärung?

DieErklärung hat was mit der Kühllösung zu tun, wenn Dir das hilft.

crux2005
2009-09-15, 15:49:49
Was aber trotzdem die Frage aufwirft, ob Q oder HQ gebencht wurde, 8xAA kann man sicher voraussetzen und TAA existiert ja nun mal nicht.

Danke für den Leak, wollte schon eine HD5870 kaufen, aber jetzt warte ich doch besser ab.

Danke, der Tag fängt sehr gut an. Erst 376W TDP für HD 5870 X2 und jetzt das. Vieleicht wird der Hemlock ja auch gleich mit einem Radiator ausgeliefert wie die GTX 380.

;D

ergo kommt gleich danach die Frage ob NV's Partner wenigstens einen Schimmer von etwas groesserem als GT215 momentan haben.

Ist das jetzt der Joke thread geworden? ;D
Jetzt aber ernst, ich wundere mich, das diese GT212 Spekulation schon so lange lebt. Können die nicht etwas neues bringen?

Ailuros
2009-09-15, 15:53:11
crux2005,

Verzweiflung ist eine ueble Sache.

[fu]121Ah,

Ich hab nicht die geringste Ahnung um was es sich handelte, aber beim naechsten Mal wird nicht nur ein aehnlicher Beitrag geloescht.

Gast
2009-09-15, 16:45:15
Nochmal sie hoffen momentan dass sie es bis Ende November schaffen und falls nicht wird es Januar.

Dezember gibts wohl nicht? :D

Soundwave1983
2009-09-15, 17:18:04
Dezember gibts wohl nicht?

Wahrscheinlich gibts wohl -sollten sie es im Nov. nicht schaffen- nen Respin der entsprechend Zeit braucht.
Mittlerweile frage ich mich ernsthaft ob es überhaupt schon laufende Samples vom G300 in Santa Clara gibt, oder ob die da nicht eine Ladung defekter Chips nach der anderen in die Labors schmeißen um entsprechende fixes einzustreuen.

LovesuckZ
2009-09-15, 17:24:31
Hätten sie heutzutage keine Samples, käme auch im Januar keine Karte.

nagus
2009-09-15, 17:48:12
DieErklärung hat was mit der Kühllösung zu tun, wenn Dir das hilft.

und was hat die kühllösung mit dem launchtermin zu tun??? ich check den zusammenhang irgendwie nicht...

V2.0
2009-09-15, 18:12:07
und was hat die kühllösung mit dem launchtermin zu tun??? ich check den zusammenhang irgendwie nicht...

Was braucht man um eine Karte in den Laden zu bringen GPU, PCB, Speicher und ....

igg
2009-09-15, 18:27:56
Willst du damit sagen, dass Nvidia GT300 Kühler bestellt oder keine GT212 Kühler?

tombman
2009-09-15, 18:28:47
Typisch? GTX 285 und 295 waren wohl die einzigen High-End-Lösungen, die in den letzen Jahren im Januar präsentiert wurden.
Aber das wohl auch nur, da man den 2008er Release verpasst hat. An sich ist wohl ein Release vor dem Weihnachtsgeschäft um einiges besser, weshalb es auch die 295 Previews gab.

Wenn NV wirklich erst im Januar mit GT300 daherkommt, kann man doch nur hoffen, dass dann auch das komplette Line-up bishin zum Low-End steht, denn bei AMD wird es das zu diesem Zeitpunkt.
Für mich zählt nur "kaufbar"- und da würde mich Jänner bei Nvidia echt nicht wundern ;)

crux2005
2009-09-15, 19:19:49
Die meisten Grafikkarten die so viel später als die direkte Konkurrenz kamen, wurden nur "lauwarm" oder als ein flop empfangen. Auch deshalb sollte sich nVidia beeilen. Mal sehen ob der Optimismus der PRs auch gerechtfertigt ist.

LovesuckZ
2009-09-15, 19:32:36
Es ist das erste mal seit Ewigkeiten, dass beide "gleichzeitig" auf dem selben Fertigungsprozeß kommen wollten. Es ist also komplett anders als bei NV30 <> r300, G70 <> r520 und G80 <> r600. Eine Verzögerung heißt nicht, dass diesmal ein Flop entstünde.

reunion
2009-09-15, 19:41:42
Vorallem war R5xx wohl kaum ein Flop. Eine Verzögerung hat nichts damit zu tun ob ein Design überzeugen kann. Es ist aber natürlich ein nicht zu verachtender, marktwirtschaftlicher Nachteil. Der Unterschied zu damals ist vorallem das man es diesmal nicht auf den Prozess schieben kann wenn die Konkurrenz hier schon fleissig ausliefert.

LovesuckZ
2009-09-15, 19:49:56
Der Unterschied zu damals ist vorallem das man es diesmal nicht auf den Prozess schieben kann wenn die Konkurrenz hier schon fleissig ausliefert.

Ich sehe nirgendwo AMD Produkte. :rolleyes:

crux2005
2009-09-15, 19:50:35
Es ist das erste mal seit Ewigkeiten, dass beide "gleichzeitig" auf dem selben Fertigungsprozeß kommen wollten.

Ja, ändert aber nichts an dem was ich geschrieben habe.

Es ist also komplett anders als bei NV30 <> r300, G70 <> r520 und G80 <> r600. Eine Verzögerung heißt nicht, dass diesmal ein Flop entstünde.

Sicher, aber je länger es dauern wird, desto mehr werden die meisten erwarten und dann ist ein lauwarmer Empfang mehr als vorprogrammiert.

Vorallem war R5xx wohl kaum ein Flop.

Nur haben ihn* viele als solchen empfunden.

*R520

nagus
2009-09-15, 21:29:12
Was braucht man um eine Karte in den Laden zu bringen GPU, PCB, Speicher und ....

den kühler. aber könntest du bitte dieses kindische "ich weiß etwas was du nicht weißt und ich will, dass dus mir aus der nase ziehst" - spiel lassen? entweder du weißt was und sagst es oder du sagst nicht. wozu die leute auf die volter spannen? ich schätze mal nicht, dass dich das "aufgeilt", oder?

ist nicht böse gemeint, ich finds nur sinnlos kindisch


also sag uns bitte einfach ohne umwege was du weißt. danke.

PS: und dass nvidia jetzt kühler bestellt muss auf nicht zwangsläufig heißen, dass da jetzt was kommt. wer weiß schon wofür die dinger sind bzw. wann die eingesetzt werden sollen. vielleicht sinds ja vertraglich irgendwie verpflichtet kühler jetzt zu kaufen oder die dinger sind grad im sonderangebot oder whatever... KEINE AHNUNG

V2.0
2009-09-15, 21:37:23
Dann sage ich nichts, Vergiss den Einwurf.

y33H@
2009-09-15, 21:39:20
Wäre mir neu, dass Coolermaster Kühler anliefert, die dann wochenlang auf Halde liegen.

nagus
2009-09-15, 21:56:16
Dann sage ich nichts, Vergiss den Einwurf.

deine entscheidung ist akzeptiert. tut mir leid, sollte ich dich beleidigt haben.

nagus
2009-09-15, 22:01:28
Wäre mir neu, dass Coolermaster Kühler anliefert, die dann wochenlang auf Halde liegen.

für eine angebliche "phantom (http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/)"-grafikkarte aber schon?

Nvidia GT300 yields are under 2% (http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/)

y33H@
2009-09-15, 22:05:15
Charlie ;D Such dir ne andere Quelle, aber nicht "Mr. NV-Hate himself".

nagus
2009-09-15, 22:08:51
Charlie ;D Such dir ne andere Quelle, aber nicht "Mr. NV-Hate himself".

offensichtlich stimmst du dem nicht zu. vielleicht willst du uns auch sagen wieso? oder spielen wir jetzt wieder das lustige "ich wills mir aus der nase ziehen lassen"-spiel?

LovesuckZ
2009-09-15, 22:10:02
Charlie ;D Such dir ne andere Quelle, aber nicht "Mr. NV-Hate himself".

Charlie's "Quelle" ist ein asiatischer Blog...
Und dieser sagt per babelfish folgendes:
NVIDIA makes Engineering sample of GT300 COMPLETE in September, with most speed starts of shipment in December of this year.
http://northwood.blog60.fc2.com/blog-entry-3105.html

Google spuckt was anderes aus* - deswegen denkt Charlie auch, dass es sich um 9 Chips handelt oder so. Aber dann hat Charlie nachgehakt (...) und es sind dann plötzlich nur noch 4. Ist schon ein witziges Kerlchen.

*NVIDIA GT300 is an Engineering sample of nine will be completed in January of this year's fastest 12 to begin shipping in January.

Gast
2009-09-16, 01:11:33
nun, seine Quelle ist angeblich eben nicht dieses Blog sondern eine andere.

Rum wie num, auch wenn es 9 wären-> grottige yields.

LovesuckZ
2009-09-16, 01:16:16
nun, seine Quelle ist angeblich eben nicht dieses Blog sondern eine andere.

Rum wie num, auch wenn es 9 wären-> grottige yields.

Oder 90 - wer weiß das schon, wenn die Quelle ein googleübersetzter Blogeintrag ist. :rolleyes:
Hardware-Infos hat auch angebliche Quellen - und trotzdem treffen sie nie. Charlie hat keine. Weder zu nVidia noch zu TSMC. Wieso sollte also Charlie der einzige auf der Welt sein, der so tief graben kann, dass er aus "9" plötzlich nur noch "7" Chips machen kann? :confused:

N0Thing
2009-09-16, 01:41:29
Was mir Sorgen in Bezug auf den GT300 macht: Wenn ATI schon mit ihrem wohl deutlich kleineren Chip mit gut 1V Spannung scheinbar recht hohe Leckströme hat, wie muß es dann erst bei dem deutlich größeren GT300 aussehen? Der Fertigungsprozess ist ja der selbe.

mapel110
2009-09-16, 01:51:37
Was mir Sorgen in Bezug auf den GT300 macht: Wenn ATI schon mit ihrem wohl deutlich kleineren Chip mit gut 1V Spannung scheinbar recht hohe Leckströme hat, wie muß es dann erst bei dem deutlich größeren GT300 aussehen? Der Fertigungsprozess ist ja der selbe.
So viel größer wird er wohl nicht sein. 2.15 zu 2.4 Milliarden Transistoren. Das Chipdesign spielt dabei sicher auch noch eine ganz entscheidende Rolle.

Knuddelbearli
2009-09-16, 07:09:59
Wieso sollte er das tun? Wenn man das auf AMDs Folien bezieht. Ergibt sich für den GTX380 eine Leistung von 240% gegenüber den 100% des GTX280.

Außerdem spricht es für einen früheren Launch des GT300.

Außer AIL verarscht uns alle.^^;D


mfg Nakai

und 240% entspricht fast genau der Shader rohleistung von 4870 ( 800 und 750 mhz ) auf 5870 ( 1600 und 850Mhz ) da sinds 226% man kann also gespannt sein.

reunion
2009-09-16, 07:50:05
Ich sehe nirgendwo AMD Produkte. :rolleyes:

RV740 anyone?
http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&pixonoff=on&xf=891_Radeon+HD+4770

Aber wenn AMD sogar genug Kapazitäten zur Verfügung hat das sie neben der Produktion der DX11-Chips auch noch die Stückzahlen des RV740 anheben können erwarte ich hier ebenso keine Engpässe.

Undertaker
2009-09-16, 07:54:59
RV740 anyone?
http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&pixonoff=on&xf=891_Radeon+HD+4770

Aber wenn AMD sogar genug Kapazitäten zur Verfügung hat das sie neben der Produktion der DX11-Chips auch noch die Stückzahlen des RV740 anheben können erwarte ich hier ebenso keine Engpässe.

Die HD4770 dürfte sich ebenfalls stapeln, weil die leicht schnellere HD4850 günstiger angeboten wird. Ich denke nicht, dass es momentan ein großes Käuferinteresse am RV740 gibt, so lange dieser über den Preis unattraktiv gemacht wird.

reunion
2009-09-16, 08:05:33
Die HD4770 dürfte sich ebenfalls stapeln, weil die leicht schnellere HD4850 günstiger angeboten wird. Ich denke nicht, dass es momentan ein großes Käuferinteresse am RV740 gibt, so lange dieser über den Preis unattraktiv gemacht wird.

LovesuckZ sah nirgends AMD-Produkte in 40nm, oben sind sie. Wenn man nach dem billigsten lagernden Modell geht ist die 4850 keine 7€ günstiger. Wenn man dann noch das enorme Übertaktungspotential und den geringen Stromverbrauch berücksichtigt würde ich die 4770 jeder 4850 vorziehen. Aber das muss dann wohl jeder selbst entscheiden. So oder so steigen die lagernden Stückzahlen seit September praktisch täglich an, und die 4850 ist nicht erst seit September billiger. Das deutet allemal auf eine deutliche Entspannung mit den 40nm Prozess hin, gerade da die höchste Priorität momentan sicherlich bei den DX11-Chips liegt. TSMC gab ja auch selbst bekannt das man die Stückzahlen in 40nm im Q3 erheblich erhöht.

Gast
2009-09-16, 08:37:04
Das war wirklich nicht dumm von AMD mit dem RV740 Erfahrungen mit 40nm zu sammeln. Haben die wohl bein Intel abgeschaut, Stichwort Tick-Tock ... ^^
Womöglich hatte AMD damals sehr ähnliche Probleme wie jetzt nV, nur dass sie damals nicht so dramatische Auswirkungen hatten und nicht auf die große Glocke gehängt werden mussten.

Ailuros
2009-09-16, 09:17:14
Was mir Sorgen in Bezug auf den GT300 macht: Wenn ATI schon mit ihrem wohl deutlich kleineren Chip mit gut 1V Spannung scheinbar recht hohe Leckströme hat, wie muß es dann erst bei dem deutlich größeren GT300 aussehen? Der Fertigungsprozess ist ja der selbe.

Na endlich jemand bei dem es ein bisschen waermer wird. Denk an sehr hohe ALU Frequenzen und eine verdammt komplizierte Frequenzverwaltung insgesamt. Warum sollte ein <500mm2 chip nochmal NVIO haben? NV's Problem waere gleich gross selbst wenn sie momentan an einem 250mm2@40nm chip arbeiten wuerden.

Ailuros
2009-09-16, 09:23:53
offensichtlich stimmst du dem nicht zu. vielleicht willst du uns auch sagen wieso? oder spielen wir jetzt wieder das lustige "ich wills mir aus der nase ziehen lassen"-spiel?

Keine schlechte Idee. Je laenger Du und andere Eure Vorfreude geniessen koennt desto besser. :freak:

igg
2009-09-16, 10:29:09
Das hört sich aber sehr nach einem "Design"-Fehler des GT300 im Hinblick auf Prozesskompatibilität an, der nicht so leicht zu fixen ist...

Ailuros
2009-09-16, 10:31:29
Das hört sich aber sehr nach einem "Design"-Fehler des GT300 im Hinblick auf Prozesskompatibilität an, der nicht so leicht zu fixen ist...

So gesehen machen sie den "Design-Fehler" schon seit G80. Nur ist diesmal die Frequenz-Verwaltung um einiges komplizierter. Selbst wenn das Ding heute in Massen verfuegbar waere bezweifle ich dass der Treiber schon jetzt launchreif waere.

nagus
2009-09-16, 10:47:17
Die HD4770 dürfte sich ebenfalls stapeln, weil die leicht schnellere HD4850 günstiger angeboten wird. Ich denke nicht, dass es momentan ein großes Käuferinteresse am RV740 gibt, so lange dieser über den Preis unattraktiv gemacht wird.

angebot / nachfrage? die werden jetzt sicher nicht anfangen massenhaft 4770er zu produzieren wenn die 5xxx generation vor der tür steht. das teil wird vielleicht gar nicht mehr in höheren stückzahlen produziert sondern langsam aufgelassen.

igg
2009-09-16, 11:38:08
Was soll denn das nagus? Hier y33h@s identität preiszugeben

LovesuckZ
2009-09-16, 11:40:54
Viel schlimmer ist doch: Warum kommt Kyle erst nach Charlie mit der Story? Oder hat er schnell mal ein paar Telefonanrufe getätigt? Um zu wissen wie die Yields wären, müsste er direkten Kontakt zu nVidia haben - also direkt in die Labors rein. Wir können wohl davon ausgehen, dass von dort zur jetzigen Zeit niemand etwas ausplaudert.

Ailuros
2009-09-16, 11:43:32
nagus,

...und jeglicher andere der bei dem laecherlichen Spielchen mitspielt: beim naechsten Mal gibt's Urlaub und keinen kurzfristigen.

Spasstiger
2009-09-16, 11:45:37
Was soll denn das nagus? Hier y33h@s identität preiszugeben
Die kennt doch eh jeder, der in den deutschen PC-Hardware-Foren überdurchschnittlich aktiv ist.
Wieso sollte Nvidia soviel schlechter mit dem 40-nm-Prozess zurecht kommen als AMD? Wenn AMD beispielsweise mit dem RV870 (338 mm²) rund 40-50% Yield erzielt (anders wäre eine HD 5870 wohl nicht bezahlbar), dann müsste Nvidia mit dem rund 500 mm² großen GT300 immer noch auf 0,4^(500/338)=26% Yieldrate kommen. Also deutlich mehr als 9 Dice aus einem 300-mm-Wafer.

reunion
2009-09-16, 11:47:08
Viel schlimmer ist doch: Warum kommt Kyle erst nach Charlie mit der Story? Oder hat er schnell mal ein paar Telefonanrufe getätigt? Um zu wissen wie die Yields wären, müsste er direkten Kontakt zu nVidia haben - also direkt in die Labors rein. Wir können wohl davon ausgehen, dass von dort zur jetzigen Zeit niemand etwas ausplaudert.

Es reicht schon wenn er Quellen bei TSMC hat. Und diese werden ihm ja durchaus nachgesagt.

LovesuckZ
2009-09-16, 11:48:15
Das kann nur passieren, wenn nVidia sich nicht an die Richtlinien von TSMC hält. Sozusagen ihre Chips so designen, wie sie es wollen und nicht wie TSMC es vorgibt.

reunion
2009-09-16, 11:53:52
Das kann nur passieren, wenn nVidia sich nicht an die Richtlinien von TSMC hält. Sozusagen ihre Chips so designen, wie sie es wollen und nicht wie TSMC es vorgibt.

Oder AMD hat sich ganz einfach auch nicht an die Richtlinien gehalten weil diese aktuell noch nicht ausreichend sind und NV muss eben auch erstmal die optimalen "Parameter" für ihren Chip finden.

Ailuros
2009-09-16, 11:55:14
Spasstiger,

Die spekulative Mathe hilft hier gar nichts; NV braucht schon seit G80 vergleichsmaessig viel die area pro Transistor wegen den clock domains und den grossen Frequenz-Unterschieden. Fuer jegliche yields auf diesen chips auszurechnen wird NV wohl nur selber ihre eigene komplizierte Formel haben und diese wird auch nicht gleich sein fuer D12 und D10.

Gast
2009-09-16, 11:55:54
Wieso sollte Nvidia soviel schlechter mit dem 40-nm-Prozess zurecht kommen als AMD? Wenn AMD beispielsweise mit dem RV870 (338 mm²) rund 40-50% Yield erzielt (anders wäre eine HD 5870 wohl nicht bezahlbar), dann müsste Nvidia mit dem rund 500 mm² großen GT300 immer noch auf 0,4^(500/338)=26% Yieldrate kommen. Also deutlich mehr als 9 Dice aus einem 300-mm-Wafer.
Viele wünschen sich einfach es wäre so und reiten auf der Welle mit das es so ist.

Rechnen kann man viel, deine einfache Rechnung ist bereits beeindruckend. Selbst wenns 26% wären, Charlie würde niemals gleichzeitig schreiben das RV870 bei 40-50% liegt.
Die 26% kann man durch Taktsenkung, Spannungsenkung, Einheitenbeschneidung weiter erhöhen, würde Charlie auch nie schreiben.

Einfach Bild Niveau auf Englisch, Sponsor ist nicht die CDU sondern AMD.

LovesuckZ
2009-09-16, 11:58:42
Oder AMD hat sich ganz einfach auch nicht an die Richtlinien gehalten weil diese aktuell noch nicht ausreichend sind und NV muss eben auch erstmal die optimalen "Parameter" für ihren Chip finden.

Soso - AMD weiß also besser als TSMC, wie man Chips für die TSMC 40nm Fertigung designen muss...
Wenn AMD so überlegen wäre, wieso haben sie dann ihre eigenen Fabs abgestoßen und bauen nicht zusätzlich noch welche für die GPUs? Dann müssten sie sich auch nicht mit Stümpern wie TSMC herumschlagen, die den 40nm Prozeß mal eben um 2 Q. versauen...

reunion
2009-09-16, 12:06:15
Soso - AMD weiß also besser als TSMC, wie man Chips für die TSMC 40nm Fertigung designen muss...
Wenn AMD so überlegen wäre, wieso haben sie dann ihre eigenen Fabs abgestoßen und bauen nicht zusätzlich noch welche für die GPUs? Dann müssten sie sich auch nicht mit Stümpern wie TSMC herumschlagen, die den 40nm Prozeß mal eben um 2 Q. versauen...

*seufz* Genau deshalb nervt mich eine Diskussion mit dir, du sagst einfach irgend was, gehts aber nur selten auf das ein was ich gesagt habe. Es ist völlig normal das Chips auf den jeweiligen Fertigungsprozess optimiert werden und umgekehrt. Du glaubst doch selbst nicht das man TSMC das Design hinklatsch, die Vorgaben übernimmt und das wars. Deshalb kann man auch nicht von einem Chip auf einen anderen schließen. Was den Rest betrifft, traurig dass du das überhaupt fragst. Die Fabs wurden abgestoßen weil sie nicht mehr finanzierbar waren. Und die GPUs werden eh auch auf Globalfoundries umgestellt, so gesehen machen sie das sogar.