Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Hübie
2009-09-23, 03:29:14
Gerüchteweise wurde das immer wieder erwähnt. Gebe bei google einfach mal GT300 und december ein ;)

igg
2009-09-23, 12:40:59
So, die ATI Katze ist aus dem Sack. Etwas enttäuschend, nach der Hornet-Präsentation hat man sich mehr erhofft.

Jetzt heißts wohl bis zum 30.9. zu warten...

w0mbat
2009-09-23, 13:06:52
30.9.?

Ailuros
2009-09-23, 13:16:27
30.9.?

Selbst wenn dem so waere, wuerde etwas hinter geschlossenen Tueren vorgezeigt. Anders viel wird davon das Publikum sowieso nicht erfahren.

igg
2009-09-23, 14:33:07
Selbst wenn dem so waere, wuerde etwas hinter geschlossenen Tueren vorgezeigt. Anders viel wird davon das Publikum sowieso nicht erfahren.
Das wäre aber unklug. Dann kann NV zuschauen, wie die 5870 wie warme Semmeln über die Ladentheke und OEM Markt gehen.

Gast
2009-09-23, 16:45:55
Das wäre aber unklug. Dann kann NV zuschauen, wie die 5870 wie warme Semmeln über die Ladentheke und OEM Markt gehen.

Klar, gerade OEM Rechner werden immer mit der teuersten Hardware ausgestattet. :freak:

igg
2009-09-23, 17:09:17
Klar, gerade OEM Rechner werden immer mit der teuersten Hardware ausgestattet. :freak:
Aus dem RV870 Thread: http://channel.hexus.net/content/item.php?item=20337

LovesuckZ
2009-09-23, 20:17:32
"That's it? Time to wait for NVIDIA" (http://forum.beyond3d.com/showpost.php?p=1338934&postcount=2339)

:freak:

cipoint
2009-09-23, 20:30:11
"That's it? Time to wait for NVIDIA" (http://forum.beyond3d.com/showpost.php?p=1338934&postcount=2339)

:freak:

War ja klar, was sollen die sonst sagen?

Crazy_Chris
2009-09-23, 22:20:00
War ja klar, was sollen die sonst sagen?

Ich würd ja lachen wenn dann im Endeffekt eine Geforce FX² dabei herauskommen würde. :ulol: Also entweder sie brauchen wirklich noch viel länger oder irgendetwas liegt im Argen. Gerade jetzt wo die 5870 raus ist müßte man doch meinen das Nvidia zumindest konkrete Infos herausrückt. Es gibt doch keinen Grund mehr für die Geheimhaltung. (außer der Chip ist ein Rohrkrepierer)

Gast
2009-09-24, 01:51:55
Nun ja, vor dem Launch des G80 hat man auch fast nichts gehört, es hieß sogar, der Chip wäre noch DX9. Erst beim Launch ließ NV die Katze aus dem Sack, mal sehen, ich glaube auch diesesmal wirds eine Überraschung geben.

Ansonsten bin ich auch der Meinung NV könnte wenigstens mal sagen wann der Chip kommt, damit man weiß ob man warten soll oder nicht.

tombman
2009-09-24, 01:56:25
Ich sage: Im Jänner kaufbar in kleinen Stückzahlen.

DrFreaK666
2009-09-24, 06:12:13
Nun ja, vor dem Launch des G80 hat man auch fast nichts gehört, es hieß sogar, der Chip wäre noch DX9. Erst beim Launch ließ NV die Katze aus dem Sack, mal sehen, ich glaube auch diesesmal wirds eine Überraschung geben.

Ansonsten bin ich auch der Meinung NV könnte wenigstens mal sagen wann der Chip kommt, damit man weiß ob man warten soll oder nicht.

Was für eine Überraschung erwartest du? eine DX12-Karte? :freak:
Das Teil wird sicher schneller als die 5870.
Eine Überraschung wäre für mich eine GT 386 für den Preis um 300€, Leistungsmäßig bei der 5870 angesiedelt

Ailuros
2009-09-24, 10:22:39
Das wäre aber unklug. Dann kann NV zuschauen, wie die 5870 wie warme Semmeln über die Ladentheke und OEM Markt gehen.

Und warum sollten sie gerade am 30/09 reagieren und warum haben sie keinen ramtamtam am 22/09 gemacht?

Ich würd ja lachen wenn dann im Endeffekt eine Geforce FX² dabei herauskommen würde. :ulol: Also entweder sie brauchen wirklich noch viel länger oder irgendetwas liegt im Argen. Gerade jetzt wo die 5870 raus ist müßte man doch meinen das Nvidia zumindest konkrete Infos herausrückt. Es gibt doch keinen Grund mehr für die Geheimhaltung. (außer der Chip ist ein Rohrkrepierer)

Natuerlich gibt es Grund fuer die Geheimhaltung. Ich sag jetzt mal 2.2x ohne zu sagen im Vergleich zu was und ob es sich um eine maximales oder durchschnittliches "etwas" handelt.

mapel110
2009-09-24, 10:52:56
Ich sag jetzt mal 2.2x ohne zu sagen im Vergleich zu was und ob es sich um eine maximales oder durchschnittliches "etwas" handelt.
Du bist so gemein. ;(

240 x 2,2 = 528 -> 512 SPs

Ich tippe auf etwa 2,2 x GT200-Performance, maximal.

AnarchX
2009-09-24, 10:55:14
Vielleicht meint er auch Vantage Extreme, die Chinesen meinen X13xxx - X14xxx (~2,2x GTX285) für die große GT300 SKU. :D

igg
2009-09-24, 10:55:32
Und warum sollten sie gerade am 30/09 reagieren und warum haben sie keinen ramtamtam am 22/09 gemacht?
Das frage ich mich auch. Aber müssen sie wissen... Ist vielleicht für den Wettbewerb ganz gut, wenn AMD eine Zeit lang den Markt mit höheren Preisen abschöpfen kann.

Gast
2009-09-24, 11:18:20
Du bist so gemein. ;(

240 x 2,2 = 528 -> 512 SPs

Ich tippe auf etwa 2,2 x GT200-Performance, maximal.
Ich tippe auf etwa 2,2 x GTX275 Preis und 2,2 x Anzahl Transistoren GT200.

Eine bloße Zahl sagt nichts aus. Am Besten nicht auf so Anspielungen eingehen.

LovesuckZ
2009-09-24, 11:46:38
Und warum sollten sie gerade am 30/09 reagieren und warum haben sie keinen ramtamtam am 22/09 gemacht?


Am 30. fängt die von nVidia geführte GPU Conference an - mit einem 90min D3D11 Tutorial.
Es macht auch keinen Sinn jetzt anzufangen zu spoilern, denn das würde nur Verzweiflung bedeuten. Und die kommt nie gut an.

igg
2009-09-24, 12:04:15
Laut CJ strebt Nvidia ein Dezember Release an. Das gabs auch in der aktuellen c't zu lesen.

neliz behauptet weiterhin März.

Ailuros
2009-09-24, 12:12:41
Laut CJ strebt Nvidia ein Dezember Release an. Das gabs auch in der aktuellen c't zu lesen.

Und ich hab ihm gerade zu seinem GT212 Mist geantwortet. Anstatt dass manche ehrlich genug sind und zugestehen dass man etwas falsch verstanden hat, heisst es ploetzlich dass 212 storniert, irgendwann wiederbelebt wurde und neuestens wieder storniert. Gott sei Dank trinken die NV engineers nicht das gleiche Zeug wie manche andere.

Die Ankuendigung koennte zwischen spaet Oktober und Anfang Dezember kommen.

neliz behauptet weiterhin März.

Falls er problemlose Verfuegbarkeit meinen sollte stimmt es auch.

Vielleicht meint er auch Vantage Extreme, die Chinesen meinen X13xxx - X14xxx (~2,2x GTX285) für die große GT300 SKU. :D

Nein.

Ailuros
2009-09-24, 12:17:53
Ich tippe auf etwa 2,2 x GTX275 Preis und 2,2 x Anzahl Transistoren GT200.

Eine bloße Zahl sagt nichts aus. Am Besten nicht auf so Anspielungen eingehen.

Och die meisten sind so Zahlengeil dass es tatsaechlich manche aufrecht sitzen laesst und dabei warst Du auch nicht die gerade die Aussnahme. D12U = 2.8Mio Transistoren.

tombman
2009-09-24, 12:21:52
WTF im MÄRZ??? 6 Monate nach RV870? Da geht sich ja noch ein refresh seitens AMD aus :eek:

LovesuckZ
2009-09-24, 12:25:44
Refresh? Einen rv890 mit 15% mehr Leistung und 10% höhreren Stromverbrauch?
Ich bezweifel, dass wir im nächsten Jahr ein Refresh ala GT200 bzw. rv770 sehen werden.

Ailuros
2009-09-24, 12:26:57
WTF im MÄRZ??? 6 Monate nach RV870? Da geht sich ja noch ein refresh seitens AMD aus :eek:

Da Dich das dual gpu Gespann wohl eher interessieren wuerde, waere es so oder so nie vor Maerz gewesen ;)

[dzp]Viper
2009-09-24, 12:28:38
Eine 5890 wird es sicher noch geben ;)

tombman
2009-09-24, 12:31:17
Da Dich das dual gpu Gespann wohl eher interessieren wuerde, waere es so oder so nie vor Maerz gewesen ;)
Wenn die Leistung von einer GT300 paßt, würden auch 2 oder maximal 3 Stück reichen- mein X58 mobo hat NF200 und damit 3x Pci-e 16x- alles schon vorgesorgt ;) Dual-Gpu wäre dann nicht mehr notwendig :)

Sag schon, wann kommt die Single-Variante? Ich will Jänner :(

Wenn ich bis Hemlock nix anständiges von Nvidia höre, könnte es leicht sein, daß ich wechsle :mad:

dargo
2009-09-24, 12:40:05
Wenn die Leistung von einer GT300 paßt, würden auch 2 oder maximal 3 Stück reichen- mein X58 mobo hat NF200 und damit 3x Pci-e 16x- alles schon vorgesorgt ;) Dual-Gpu wäre dann nicht mehr notwendig :)

Ich frage mich gerade - gibt es überhaupt ein Spiel welches außerhalb von SSAA/DS 3x GTX380 benötigt? :freak:
Ich meine, selbst in 2560x1600 4xMSAA/16xHQAF dürfte Crysis und Stalker: Clear Sky @max. kein Problem sein. X-D

V2.0
2009-09-24, 12:41:15
Wenn a=Okt dann b=Januar
Wenn a= Dez dann b=März

reunion
2009-09-24, 12:44:11
WTF im MÄRZ??? 6 Monate nach RV870? Da geht sich ja noch ein refresh seitens AMD aus :eek:

RV870 kam "earlier than expected", ich erwarte einen 32nm Refresh Ende H1/2010. Davor kommt maximal noch eine 5890.

Ailuros
2009-09-24, 12:44:54
Viper;7553130']Eine 5890 wird es sicher noch geben ;)

Wann ist wohl eher die Frage.

Tombman,

Dass sie noch dieses Jahr ankuendigen duerfte Tag fuer Tag in der sicheren Raum ruecken. Wie es mit der generellen Verfuegbarkeit aussehen wird kann noch keiner genau wissen, auf jeden Fall hoert es sich nich danach an als ob alle Laeden mit solchen GPUs von Anfang an ueberstroemt werden.

Soundwave1983
2009-09-24, 12:47:03
Dass sie noch dieses Jahr ankuendigen duerfte Tag fuer Tag in der sicheren Raum ruecken. Wie es mit der generellen Verfuegbarkeit aussehen wird kann noch keiner genau wissen, auf jeden Fall hoert es sich nich danach an als ob alle Laeden mit solchen GPUs von Anfang an ueberstroemt werden.

Gut, bei den Gerüchten zum Thema "Yields" ist das nicht weiter verwunderlich.
Die Frage wird wohl sein obs dieses Jahr überhaupt noch G300 befeuerte Ware zu kaufen geben wird.

V2.0
2009-09-24, 12:47:12
RV870 kam "earlier than expected", ich erwarte einen 32nm Refresh Ende H1/2010. Davor kommt maximal noch eine 5890.
Da müßte 32nm aber perfekt laufen. Und vor allem 32nm @ GF oder TSMC?

Gut, bei den Gerüchten zum Thema "Yields" ist das nicht weiter verwunderlich.
Die Frage wird wohl sein obs dieses Jahr überhaupt noch G300 befeuerte Ware zu kaufen geben wird.
Vergiss die Gerüchte.

Ailuros
2009-09-24, 12:47:38
RV870 kam "earlier than expected",

Wer erzaehlt denn den Scheiss schon wieder?

ich erwarte einen 32nm Refresh Ende H1/2010. Davor kommt maximal noch eine 5890.

Ergo muesste so ein Ding schon den ersten tape out hinter sich haben. Irgend etwas dass zumindest darauf deutet momentan?

Ailuros
2009-09-24, 12:48:25
Da müßte 32nm aber perfekt laufen. Und vor allem 32nm @ GF oder TSMC?

Vergiss die Gerüchte.

32nm @GF :confused:

Gut, bei den Gerüchten zum Thema "Yields" ist das nicht weiter verwunderlich.
Die Frage wird wohl sein obs dieses Jahr überhaupt noch G300 befeuerte Ware zu kaufen geben wird.

>40% das letzte Mal dass ich nachfragte und obwohl es immer noch weit entfernt vom optimalen ist, sind es auf jeden Fall nicht die 2% die andere aus ihrem *ahem* gezogen haben.

Soundwave1983
2009-09-24, 12:52:13
>40% das letzte Mal dass ich nachfragte und obwohl es immer noch weit entfernt vom optimalen ist, sind es auf jeden Fall nicht die 2% die andere aus ihrem *ahem* gezogen haben.

Das klingt um einiges positiver. Wann hast du den nachgefragt? :biggrin:

V2.0
2009-09-24, 12:52:47
32nm @GF :confused:

.

http://www.brightsideofnews.com/news/2009/3/24/global-foundries-gets-ready-to-take-32nm-orders-in-q4.aspx

Komm, wenn schon müssen die neusten guten Nachrichten aus dem Hause AMD wengistens abgestimmt sein. Manche sagen, dass sie bald zu GF wechseln, andere sagen RV890 in 32nm kommt Q2/10.

reunion
2009-09-24, 12:56:59
Wer erzaehlt denn den Scheiss schon wieder?


AMD. Mal sehen ob ich das noch finde...


Ergo muesste so ein Ding schon den ersten tape out hinter sich haben. Irgend etwas dass zumindest darauf deutet momentan?

Bis dahin sind es noch drei ganze Quartale. Globalfoundies will jedenfalls ab dem Q4 32nm Orders entgegen nehmen.

tombman
2009-09-24, 12:58:14
Wann ist wohl eher die Frage.

Tombman,

Dass sie noch dieses Jahr ankuendigen duerfte Tag fuer Tag in der sicheren Raum ruecken. Wie es mit der generellen Verfuegbarkeit aussehen wird kann noch keiner genau wissen, auf jeden Fall hoert es sich nich danach an als ob alle Laeden mit solchen GPUs von Anfang an ueberstroemt werden.
Überströmt müssen sie ja nicht werden, aber wenn ein paar Stück in meinen Lieblingsladen kommen (und das werden sie), dann kriege ich welche- war immer so :) Eine kräftige Abzock+Deppensteuer wird zwar fällig, aber das kenne ich ja schon :freak:

Wie gesagt, bis Hemlock hat Nvidia bei mir Zeit, vielleicht sogar weniger, wenn ich ungeduldig werde :)

Wenn gar nix mehr hilft, haue ich 3x HD5870 "six" mit 2Gb rein, und die Sache ist gegessen :eek:

LovesuckZ
2009-09-24, 12:59:52
Du wechselt doch dann sowieso zu nVidia, wenn sie schneller wären. Also wo ist das Problem?

Ailuros
2009-09-24, 13:01:54
AMD. Mal sehen ob ich das noch finde...

Spar Dir die Muehe. So weit zurueck wie ich mich ins Jahr 2008 erinnern kann war das Ding stets fuer ungefaehr den Zeitpunkt projeziert. Nachtraeglich kann jeder PR Furz seinen eigenen Mist erzaehlen.

Bis dahin sind es noch drei ganze Quartale. Globalfoundies will jedenfalls ab dem Q4 32nm Orders entgegen nehmen.

Es dauerte wieviel Monate von RV770@55nm auf RV790@55nm?

tombman
2009-09-24, 13:22:36
Du wechselt doch dann sowieso zu nVidia, wenn sie schneller wären. Also wo ist das Problem?
1.) Jeder Wechsel ist mit einem Geldverlust verbunden
2.) Ich will nicht zu ATI CF, ist grottig

LovesuckZ
2009-09-24, 13:25:28
1.) Jeder Wechsel ist mit einem Geldverlust verbunden

Spielt das eine Rolle, wenn man das schnellste haben will?

tombman
2009-09-24, 13:27:33
Spielt das eine Rolle, wenn man das schnellste haben will?
Geld spielt immer eine Rolle....

MoC
2009-09-24, 13:29:00
Es dauerte wieviel Monate von RV770@55nm auf RV790@55nm?

Ich kann mir sehr gut vorstellen das die Saudis paar sehr gute "Konditionen" geben werden :)

Wer weiß vll haben sie sich auch schon bei Nvidia eingeschmeichelt.

Aber für Ati kann es doch derzeit nur heißen soviel wie möglich Karten loszu werden...solange kein GT300 aufn Markt ist.

Und Marketing-technisch sollte sich der RV870 gut verkaufen können.

LovesuckZ
2009-09-24, 13:32:06
Geld spielt immer eine Rolle....

Geldverlust entstünde nur, wenn du dich bei gleichzeitiger Verfügbarkeit für das falsche Produkt entscheidest. So hast du für den Zeitraum x das schnellste. Der Wertverlust ist der natürliche Vorgang.

Ailuros
2009-09-24, 13:38:36
Ich kann mir sehr gut vorstellen das die Saudis paar sehr gute "Konditionen" geben werden :)

Wer weiß vll haben sie sich auch schon bei Nvidia eingeschmeichelt.

Aber für Ati kann es doch derzeit nur heißen soviel wie möglich Karten loszu werden...solange kein GT300 aufn Markt ist.

Und Marketing-technisch sollte sich der RV870 gut verkaufen können.

Und was hat das obrige im geringsten mit meiner Frage vom zeitlichen Abstand zwischen RV770 und RV790 zu tun?

Damit der Groschen leichter faellt, beide vorerwaehnten chips haben eine sehr hohe Packdichte und beide wurden unter dem gleichen Herstellungsprozess hergestellt.

Nur kommen jetzt bei theoretischem RV870@40nm --> RV890@32nm noch die Aenderungen fuer 32nm noch dazu.

tombman
2009-09-24, 13:38:44
Geldverlust entstünde nur, wenn du dich bei gleichzeitiger Verfügbarkeit für das falsche Produkt entscheidest. So hast du für den Zeitraum x das schnellste. Der Wertverlust ist der natürliche Vorgang.
Wenn X aber sehr klein ist, der Wertverlust aber nicht linear steigt, gibts ein Problem. Selbst wenn du eine Schachtel nur entsiegelst zahlen die Leute auf ebay gleich spürbar weniger. Die Rechnung geht nicht auf.

LovesuckZ
2009-09-24, 13:42:42
Wenn X aber sehr klein ist, der Wertverlust aber nicht linear steigt, gibts ein Problem. Selbst wenn du eine Schachtel nur entsiegelst zahlen die Leute auf ebay gleich spürbar weniger. Die Rechnung geht nicht auf.

Wenn nVidia nicht deutlich schneller sein wird, werden sie auch nicht deutlich teurer. Je schneller nVidia wird, umso höher ist der mögliche Wertverlust deiner gekauften AMD Hardware. Um also keinen Wertverlust hinnehmen zu müssen, müsstest du auf nVidia warten oder eben mit der früher gekauften und eventuell (deutlich) langsameren AMD Hardware vorlieb nehmen.

Gipsel
2009-09-24, 14:25:59
32nm @GF :confused:
Nun, zumindest hat AMD/ATI einen Vertrag mit GF, der besagt, daß sie ab der 32nm Node einen Mindestanteil ihrer GPUs bei GF fertigen lassen müssen, sobald der Prozeß zur Verfügung steht. Wäre meiner Vermutung nach zwar zuerst ein kleiner Chip, aber es zeigt, daß zumindestens bei Vertragsabschluß vor einem knappen Jahr noch mit einem 32nm bulk-Prozeß geplant wurde. Irgendwelche 32nm bulk-Wafer wurden doch auch schon gezeigt (nicht nur 28nm).

In den letzten Monaten ist 32nm bulk allerdings ein wenig aus dem Blickfeld verschwunden. Insofern ist es gut möglich, daß sich das jetzt komplett auf 28nm verschoben hat (Produkte für Q2 2011 geplant, ist also noch ein wenig hin). Aber noch vor einem halben Jahr, war der 32nm bulk Production Ramp für Q1/Q2 2010 geplant.

aylano
2009-09-24, 17:08:19
Es dauerte wieviel Monate von RV770@55nm auf RV790@55nm?
RV790 wurde AFAIK spontan/kurzfristig eingeführt, weil es Verzögerungen wegen den 40nm-Problemen gab, um die Zeitliche Lücke RV770 --> RV870 zu füllen.

Wenn ein RV890@55nm geplant ist, dann hat die Arbeit schon längst begonnen.

Da die Yield-Rate auch nicht die besten sind, wird AMD den RV870 wahrscheinlich weiteroptimieren. Das "wusste" ATI höchstwahrscheinlich auch länger und wenn sie den RV870(-Kern) später sowieso weiteroptimieren "müssen", dann könnten sie das auch gleich beim einem RV890 machen.

Auch ohne Entstör-Transistoren (oder so) könnte ich mir "kleinere" Taktsteigerungen vorstellen.
Siehe RV670, die am Anfang mit 775 Mhz und 3 Monate später mit 825 Mhz ausgeliefert wurden.

mapel110
2009-09-24, 17:14:07
RV790 wurde AFAIK spontan/kurzfristig eingeführt

Nö, nicht möglich. Der Chip ist die Antwort auf GTX 285 und einkalkuliert gewesen. Man wusste, dass nvidia ein Taktupdate bringen würde bzw. andersrum genau so.

Ailuros
2009-09-24, 17:54:20
RV790 wurde AFAIK spontan/kurzfristig eingeführt, weil es Verzögerungen wegen den 40nm-Problemen gab, um die Zeitliche Lücke RV770 --> RV870 zu füllen.

Ja und? GT212 wurde in Q2 2008 storniert was nichts anderes heisst dass es beiden IHVs schon seit geraumer Zeit bewusst war was ihnen mit 40nm zukommt.

Wenn ein RV890@55nm geplant ist, dann hat die Arbeit schon längst begonnen.

40nm (war wohl ein typo). Laengst wann denn?

Da die Yield-Rate auch nicht die besten sind, wird AMD den RV870 wahrscheinlich weiteroptimieren.

Auf 40nm mit Sicherheit; ob ein dumb shrink auch wirklich notwendig ist bleibt abzusehen.

Auch ohne Entstör-Transistoren (oder so) könnte ich mir "kleinere" Taktsteigerungen vorstellen.
Siehe RV670, die am Anfang mit 775 Mhz und 3 Monate später mit 825 Mhz ausgeliefert wurden.

Was soll es bei RV670 genau vergleichbares geben? Ueber ein Drittel weniger Komplexitaet vielleicht?

Nö, nicht möglich. Der Chip ist die Antwort auf GTX 285 und einkalkuliert gewesen. Man wusste, dass nvidia ein Taktupdate bringen würde bzw. andersrum genau so.

RV790 war als GT212 Konkurrenz gedacht. Haette ihn NV nicht storniert waere es spaetens Q2 auf Regalen gewesen.


In den letzten Monaten ist 32nm bulk allerdings ein wenig aus dem Blickfeld verschwunden. Insofern ist es gut möglich, daß sich das jetzt komplett auf 28nm verschoben hat (Produkte für Q2 2011 geplant, ist also noch ein wenig hin). Aber noch vor einem halben Jahr, war der 32nm bulk Production Ramp für Q1/Q2 2010 geplant.

Ich will ja auch nichts ausschliessen aber manche haben leider den Eindruck dass ein dumb shrink:

a) Im Handumdrehen geht.
b) Billiger in Herstellung ist wenn es sich um einen neuen Prozess handelt
c) Dass sich das Ganze auch immer ohne Ausnahme lohnen muss.

Die richtige Antwort zu einer solchen Frage waere Ja unter X Bedingungen und Nein unter Y Bedingungen.

aylano
2009-09-24, 18:37:19
Ja und? GT212 wurde in Q2 2008 storniert was nichts anderes heisst dass es beiden IHVs schon seit geraumer Zeit bewusst war was ihnen mit 40nm zukommt.

So wie ich es in Erinnerung habe, "sagtes" du mir, die RV790 wurde in Sommer 2008 begonnen.


40nm (war wohl ein typo). Laengst wann denn?

Vor 3 oder 6 Monate.
Keine Ahnung wann genau. Schließlich gibts ja noch 3 andere DX11 GPUs.
ATI wusste früh genug über die 40nm-Probleme und deshalb konnten sie damals schon wissen, dass die Yieldrate bei der Einführung nicht top sein wird und noch länger an der RV870-GPU arbeiten werden und da macht es dann Sinn gleich eine RV890 zu machen.

Die RV770 hatte schon eine Sehr gute Yield-Rate. Somit war es nicht so wichtig, schnell einen RV790 zu bringen.

Was soll es bei RV670 genau vergleichbares geben?
Das war auch die erste 55nm-GPU und auch nicht ganz ausgereift, wodurch man später noch 50Mhz-Takt rausgeholt hat.

Gast
2009-09-24, 20:57:29
Dass sie noch dieses Jahr ankuendigen duerfte Tag fuer Tag in der sicheren Raum ruecken. Wie es mit der generellen Verfuegbarkeit aussehen wird kann noch keiner genau wissen, auf jeden Fall hoert es sich nich danach an als ob alle Laeden mit solchen GPUs von Anfang an ueberstroemt werden.
Naja, ankündigen könnens ja ruhig. Den Paperlaunch hat AMD ja ebenfals hingelehgt.

S940
2009-09-24, 21:22:11
Ich will ja auch nichts ausschliessen aber manche haben leider den Eindruck dass ein dumb shrink:

a) Im Handumdrehen geht.
b) Billiger in Herstellung ist wenn es sich um einen neuen Prozess handelt
c) Dass sich das Ganze auch immer ohne Ausnahme lohnen muss.

Die richtige Antwort zu einer solchen Frage waere Ja unter X Bedingungen und Nein unter Y Bedingungen.
Naja, magst ja recht haben, aber wenns den Vertrag gibt, dann gibts den ...
Ergo das kommt. Die Chipdesigner sind seit dem 40nm TapeOut verfügbar, das war schon vor ein paar Monaten. Letztens stand irgendwo, dass GF 32nm bulk ab Ende Q4/09 (an)fahren kann (als high-risk wafer). Die Designer haben also noch ca. 1-2 Monate für den Tape-Out, falls AMD die risk-wafer Option nützen will.

Insgesamt läuft das auf mehr als ein halbes Jahr Designzeit für den 40 -> 32nm Shrink raus. Zur Computex im Juni gabs ja bereits Wafer -> TapeOut war im April. Seitdem stehen die Designer - falls sie nichts andres zu tun haben - zur Verfügung. Die Zeit sollte doch für einen 32nm Shrink reichen, oder wie siehst Du das ?

ciao

Alex

Jake Dunn
2009-09-24, 21:24:14
Naja, ankündigen könnens ja ruhig. Den Paperlaunch hat AMD ja ebenfals hingelehgt.

Hardwareversand/Atelco hat heut schon versendet ->kein Paperlauch ;)

ShadowXX
2009-09-24, 21:33:49
Hardwareversand/Atelco hat heut schon versendet ->kein Paperlauch ;)
Nö....haben Sie nicht. Da steht zwar immer noch "Anlieferung ab 25.09", aber wenn man sich dann mal die Verfügbarkeit anguckt, kommt das hier:


Verfügbarkeit
Aachen Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Berlin-Wedding Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Bochum-Wattenscheid Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Braunschweig Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Bremen Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Dortmund-Kley Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Dresden Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Duisburg Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Düsseldorf Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Frankfurt/Main (Ost) Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Frankfurt/Main (West) Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Hamburg Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Hannover Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Kaiserslautern Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Kiel-Raisdorf Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Köln Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Köln-Marsdorf Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Leipzig-Rückmarsdorf Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Mannheim Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Möhnesee Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Mönchengladbach Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Mülheim-Kärlich Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Nürnberg Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Oldenburg-Wechloy Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Siegen-Weidenau Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Wiesbaden Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.
Wuppertal Es gibt keinen festen Liefertermin. Eine Lieferzeit von über einer Woche ist möglich.

http://www3.atelco.de/stocknotification.jsp?aid=28599&agid=1004

Jake Dunn
2009-09-24, 21:41:39
Nö....haben Sie nicht. Da steht zwar immer noch "Anlieferung ab 25.09", aber wenn man sich dann mal die Verfügbarkeit anguckt, kommt das hier:


Die Vorbesteller haben ihre Versandbestättigung, steht hier ;)

Morgen auch auf der HP

http://www.hardwareluxx.de/community/showthread.php?t=646005&page=27

aylano
2009-09-24, 21:53:06
Bis dahin sind es noch drei ganze Quartale. Globalfoundies will jedenfalls ab dem Q4 32nm Orders entgegen nehmen.
Bei AMD würde ich solche Fertigungs-Aussagen trotzdem mit vorsicht genießen bzw. nicht ganz genau nehmen.

Denn a) die sagte ja auch, die 45nm-Produktion beginnt in 1H2008.
War wahrscheinlich auch, aber eher am letzten Tag, da die CPUs Mitte November kamen.

Und b) heißt es ja nicht, dass man mit der neuen Fertigung gleich GPUs (=relativ große Dies) damit fertigen kann. Oder doch?

und c) würde es mich doch etwas überraschen, wenn es mit der ersten GPU keine/kaum Probleme gibt und somit die ersten eigenproduzierte AMD-GPUs zeitlich nicht von der Best-Case seite betrachte.

Es wäre sehr gscheit, wenn AMD so einen "RV740" in der zumindest in der AMD-Fabrik macht.

S940
2009-09-24, 22:18:18
Denn a) die sagte ja auch, die 45nm-Produktion beginnt in 1H2008.
War wahrscheinlich auch, aber eher am letzten Tag, da die CPUs Mitte November kamen.
Da muss man genau hinschauen. Wenn der Prozess angefahren wird, dann dauert das 2 Quartale bis der fertig ist. Die Massenproduktion erfolgt dann erst *danach*. Bis daraus wiederum fertige Dies kommen dauert das nochmal 2 Monate und bis die dann getetstet und in Chips verpackt sind kannst Du nochmal einen Monat rechnen, insgesamt also 3 Quartale, ab Prozessstart.

Aktuell ist ja immernoch das Bildchen hier:
http://www.planet3dnow.de/photoplog/file.php?n=3413&w=l

Das kommt dann doch gut hin.

Im aktuellen Fall gilt für 32nm bulk die Testphase von Q4/09 bis Q1/10. Für die Wagemutigen bietet GF auch High-risk Wafer ab Ende Q4 an, also nach der Mitte der Einlaufphase. Die Yield werden schlecht sein, aber wenn man genügend Dies zum Testen herausbekommt, und am Ende damit ein Quartal früher auf dem Markt ist, würde es sich rentieren.

Und b) heißt es ja nicht, dass man mit der neuen Fertigung gleich GPUs (=relativ große Dies) damit fertigen kann. Oder doch?
Siehe oben, nach den ersten beiden Monaten kannst Du alles fertigen.

und c) würde es mich doch etwas überraschen, wenn es mit der ersten GPU keine/kaum Probleme gibt und somit die ersten eigenproduzierte AMD-GPUs zeitlich nicht von der Best-Case seite betrachte.
Ausschließen kann man das nicht, aber die GF Fab in DD ist immernoch eine der besten weltweit und bulk ist einfacher als SOI.
Es wäre sehr gscheit, wenn AMD so einen "RV740" in der zumindest in der AMD-Fabrik macht.Hmmm, naja, wenn man das high-risk Risiko eingeht, dann gleich richtig mit dem 1600er Chip ^^

ciao

Alex

MR2
2009-09-24, 22:41:55
Nach langer Zeit kann AMD mit dem ATI Radeon HD 5870 wieder den ersten Platz in der Benchmark-Liga übernehmen. Diesen wird man dieses Jahr auch nicht mehr abgeben, da Konkurrent Nvidia erst im Januar mit dem GT 300 kontern will.

Achso? :-)

http://www.zdnet.de/arbeitsplatzrechner_peripherie_in_unternehmen_ati_radeon_hd_5870_erste_directx_1 1_grafikkarte_im_test_story-20000002-41503066-4.htm

Winter[Raven]
2009-09-24, 22:44:22
Da von Nvidia seit Monten NIX handfestes gibt, sind solche News eigentlich für die Tonne.... Man wäre schön dumm bis Jan.2010 das Feld an AMD zu überlassen.

mapel110
2009-09-24, 22:48:27
;7554308']Da von Nvidia seit Monten NIX handfestes gibt, sind solche News eigentlich für die Tonne.... Man wäre schön dumm bis Jan.2010 das Feld an AMD zu überlassen.
Naja, wenn Ailuros recht behält, stehen jetzt erstmal eine Reihe Performance-Treiber für GT200 an. ^^

][immy
2009-09-24, 22:51:47
;7554308']Da von Nvidia seit Monten NIX handfestes gibt, sind solche News eigentlich für die Tonne.... Man wäre schön dumm bis Jan.2010 das Feld an AMD zu überlassen.

aber eben weil nichts von nv kommt (aber auch so absolut gar nichts) wird es immer unwahrscheinlicher das wir dieses jahr noch irgendwas von nvidia sehen werden. vielleicht noch die ankündigung mit eigentests, aber an unabhängige tests kann man inzwischen wohl nicht mehr wirklich glauben. Ansonsten würde sie wohl auch nicht so extrem gegen directx 11 wettern. würde nicht sehr gut ankommen wenn man dieses jahr noch directx11 karten in den markt schickt aber gleichzeitig sagt, "Directx 11 ist zu noch gar nichts gut". andererseits machen sie sich jetzt vielleicht sorgen um ihr CUDA was durch directx 11 ein stückchen mehr überflüssiger wird (so wie seinerzeit Glide).

aylano
2009-09-24, 22:53:45
Da muss man genau hinschauen. Wenn der Prozess angefahren wird, ...
Was heißt Prozess anfahren.
Ich dachte, wenn sie von Produktions-Start reden, dann kommen 3 Monate später fertige CPUs raus?

Aktuell ist ja immernoch das Bildchen hier:
http://www.planet3dnow.de/photoplog/file.php?n=3413&w=l
Das kommt dann doch gut hin.

Auf diesen Bilder sieht es immer gut & einfach aus. Außerdem ist das Bildchen schon 1 Jahr alt und 45nm sollte kurz vorm Produktionstart stehen und 32nm soll in kürze Fertig entwickelt sein. Ist das tatsächlich so?

Die Yield werden schlecht sein, aber wenn man genügend Dies zum Testen herausbekommt, und am Ende damit ein Quartal früher auf dem Markt ist, würde es sich rentieren.
Wenn die Yield so schlecht ist wie der RV740, dann mag sich zwar die Marketing-Abteilung aufgeilen und neue Diskussionen in Forum anzettel, aber es wird ATI im 2Q 2010 nicht so viel bringen. (Außer, es gibt unerwartet einen "Mega-"Takt-Sprung)
Beim RV740 sah man dann im Geizahls, dass das Interesse eine Zeit nach dem Start dann beim HD4890 und AFAIK HD4850 lag. Erst als mit guter Verfügbarkeit kehhrte wieder etwas Interesse zurück.

Gast
2009-09-24, 23:55:40
;7554308']Da von Nvidia seit Monten NIX handfestes gibt, sind solche News eigentlich für die Tonne.... Man wäre schön dumm bis Jan.2010 das Feld an AMD zu überlassen.

Warum, die sollen ihre G200 Karten im Preis halbieren und schon wird wieder verkauft :)

S940
2009-09-25, 00:06:24
Was heißt Prozess anfahren.
Ich dachte, wenn sie von Produktions-Start reden, dann kommen 3 Monate später fertige CPUs raus?Naja, kommt drauf an, wer damals gesprochen hat. Wenn dass eine Aussage der jetzige GF Sparte war, dann meinten sie den Produktionsstart des Prozesses :)


Auf diesen Bilder sieht es immer gut & einfach aus. Außerdem ist das Bildchen schon 1 Jahr alt und 45nm sollte kurz vorm Produktionstart stehen und 32nm soll in kürze Fertig entwickelt sein. Ist das tatsächlich so?
Ähh ... ja 45nm bulk sollte nach dem Bild fertig sein. Richtig. Aber wie kommst Du bei 32nm auf "fertig in Kürze" ? Die fangen da jetzt erst an ...

Wenn die Yield so schlecht ist wie der RV740, dann mag sich zwar die Marketing-Abteilung aufgeilen und neue Diskussionen in Forum anzettel, aber es wird ATI im 2Q 2010 nicht so viel bringen. (Außer, es gibt unerwartet einen "Mega-"Takt-Sprung)
Beim RV740 sah man dann im Geizahls, dass das Interesse eine Zeit nach dem Start dann beim HD4890 und AFAIK HD4850 lag. Erst als mit guter Verfügbarkeit kehhrte wieder etwas Interesse zurück.
Naja, das ist wieder ein Äpfel mit Birnen Vergleich. TSMC hat den 40nm Prozess grandios verbockt. Erste Meldungen des RV740 Produktionsstartes stammen vom November 2008:
http://74.125.77.132/search?q=cache:LOuzFPJ4_6AJ:www.fabtech.org/news/_a/tsmc_starts_40nm_gpu_production_for_amd/+http://www.fabtech.org/news/_a/tsmc_starts_40nm_gpu_production_for_amd/&cd=1

http://www.electronicsweekly.com/Articles/2008/11/17/44936/tsmc-runs-first-40nm-wafers-for-amd-altera-and-nvidia.htm

Das sowas bei 32nm (anderes Node) GF (andere Firma) passiert ist unwahrscheinlich, die haben auch noch die IBM Allianz im Rücken, das sind ganz andere Kaliber. Vor allem aber läuft 32nm bei IBM schon:
http://www.commonplatform.com/pdf/MicrosoftPowerPoint-32nm-28nm-LunchFinal.pdf

Bis da 32nm Probleme bei AMD überhaupt auftauchen, hat IBM die schon gelöst. Das wird wohl auch der Grund sein, wieso GF risk-wafer bereits ein Quartal früher anbietet.

ciao

Alex

LovesuckZ
2009-09-25, 00:27:17
[immy;7554320']Ansonsten würde sie wohl auch nicht so extrem gegen directx 11 wettern. würde nicht sehr gut ankommen wenn man dieses jahr noch directx11 karten in den markt schickt aber gleichzeitig sagt, "Directx 11 ist zu noch gar nichts gut". andererseits machen sie sich jetzt vielleicht sorgen um ihr CUDA was durch directx 11 ein stückchen mehr überflüssiger wird (so wie seinerzeit Glide).

Bitte erkundige dich, was nVidia zu D3D11 sagt.

Gast
2009-09-25, 01:47:33
Warum wird Cuda überflüssig? Und warum PhysX? ATI hat jetzt den DX11 Vorsprung aber NVidia arbeitet schwer mit den Spieleschmieden zusammen. PhysX ist für mich wichtig und wird es in naher Zukunft (Wie in der Gegenwart) bleiben. So isses und so wirds trotz DX11 bleiben. Achso, ich hoffe immer noch das Nvidia sich erbarmt und PhysX Treiber auch dann für ATI-Karten Besitzer bereit/lauffäig macht. Denke daran meine 260 als PHYSX Karte laufen zu lassen.

Gast
2009-09-25, 01:52:22
Und nochwas. Es gibt wissenschaftliche Institute die werden von Nvidia gesponsert. Da wird mit Cuda gearbeitet. Das ist gut denn da wird gegen Krebs z.B. gekämpft. Da kannst du mit einer CPU Jahre rechnen was Cuda kann. Ich finde durchaus gut was Nvidia da leistet!

mapel110
2009-09-25, 01:54:59
Cuda wird auf jeden Fall weiter bestehen. Da sind die Anwendungsmöglichkeiten ja sehr vielfältig und nvidia supportet das auch sehr gut.

PhysX wird mittel bis langfristig verschwinden, aber bis dahin dauerts noch ein Weilchen. Und anscheinend steckt nvidia auch nicht allzu viele Resourcen in die Entwicklung der PhysX-Treiber, wenn so eine Peinlichkeit wie die Slow-Downs in Mirrors Edge passieren. Da gibts schon nur eine handvoll Games mit Physx-Support und dann werden die nicht alle durchgetestet?!

Gast
2009-09-25, 02:03:49
Ob PhysX über kurz oder lang verschwindet warten wir doch erstmal ab . Daran wird gearbeitet. Klar sind es "bisher "nur" ein "paar" Effekte, aber sowas macht ein Spiel kinoreif. Ich möchte nicht drauf verzichten, aber NVidia tut alles dagegen:( (Möchte jetzt ne ATI)

Gast
2009-09-25, 02:05:16
Wegen Nvidia-PhysX und ATI-Hauptkarte. Allles Plan, alles Plan..:(

tombman
2009-09-25, 02:11:17
Wenn nVidia nicht deutlich schneller sein wird, werden sie auch nicht deutlich teurer. Je schneller nVidia wird, umso höher ist der mögliche Wertverlust deiner gekauften AMD Hardware. Um also keinen Wertverlust hinnehmen zu müssen, müsstest du auf nVidia warten oder eben mit der früher gekauften und eventuell (deutlich) langsameren AMD Hardware vorlieb nehmen.
Damit hast du mir gerade Recht gegeben, daß dein "mal eben so wechseln" Blödsinn ist- genau das, was ich gesagt habe ;)

Gast
2009-09-25, 02:14:42
Und nochmal weil es so schön ist. PhysX ist jetzt schon eine Verbesserung der Optik, nur die Physik wird (noch) nicht einbezogen. Das liegt an den Entwicklern weil die Scheu haben die ATI`ler zu prellen. PhysX in Aktion ist GEIL! und Fortschritt.

StefanV
2009-09-25, 02:26:19
Warum wird Cuda überflüssig? Und warum PhysX?
Weils nur von einem Hersteller unterstützt wird und nicht von allen.
Damals, als Cuda eingeführt wurde, gab es nicht anderes, das ist jetzt anders, OpenCL gibts und auch M$ hat die Compute Shader eingeführt.
Hier brauchts nur noch ein passendes SDK und die Tage von Cuda sind gezählt.

Gleihces Problem auch bei PhysX, das es auch nur von einem Hersteller unterstützt wird.
AMDs Bullet hat hier prinzipiell recht gute Chancen, da kostenlos und offen, GPU Physik Effekte sind via OpenCL möglich.


ATI hat jetzt den DX11 Vorsprung aber NVidia arbeitet schwer mit den Spieleschmieden zusammen.
Ja, aber früher oder später wird eh jeder auf D3D11 umsteigen, auch D3D11 Patches für aktuelle Spiele kann man durchaus hin und wieder erwarten.

D3D11 jetzt wegreden zu wollen, ist einfach Blödsinn - es wird sich durchsetzen, PUNKT.


PhysX ist für mich wichtig und wird es in naher Zukunft (Wie in der Gegenwart) bleiben. So isses und so wirds trotz DX11 bleiben.Nein, das wird verschwinden - wenn es nicht auf D3D11 CS oder OpenCL umgeschrieben wird!
Bzw nur die reine Physikengine, ohne Beschleunigung wird wohl weiter leben und auch genutzt werden...


Achso, ich hoffe immer noch das Nvidia sich erbarmt und PhysX Treiber auch dann für ATI-Karten Besitzer bereit/lauffäig macht. Denke daran meine 260 als PHYSX Karte laufen zu lassen.
Das hat man doch letztens erst 'deaktiviert', mit alten Treibern geht das unter NT 6.1 (bis 180 oder so müssts sein).

Gast
2009-09-25, 02:36:37
Ja, warum hat Nvidia blos den Support als Nebenkarte gestrichen (Für ATI`ler). Warum.....WARUUUUM? HEUL;)

tombman
2009-09-25, 02:37:47
D3D11 jetzt wegreden zu wollen, ist einfach Blödsinn - es wird sich durchsetzen, PUNKT.
.
Aber WIE wird es sich durchsetzen? Spiele, die genauso aussehen und das gleiche können, wie ihre DX9 Konsolenversionen, aber groß DX11 draufschreiben haben für uns ja keinen Zusatzwert.

Wer schreibt den content für DX11? Wo ist die DX11 ONLY Engine mit Tesselation- und Physik-PFLICHT?

Ich will PC-Spielepackungen, wo draufsteht: "DX11 Graphics Card REQUIRED!"

Wirds ned spielen...

StefanV
2009-09-25, 02:38:04
Offiziell aus technischen Gründen.

Inoffiziell: weil du dann eine ATi Karte im Rechner hast und keine Geforce, ergo hast du 'ne Karte der Konkurenz, ergu weniger Einnahmen für nV...

Gast
2009-09-25, 02:39:39
Ist mir schon klar das Nvidia PhysX pushen/Trumpf hat. Das ist ein klares AS;)

tombman
2009-09-25, 02:43:56
Offiziell aus technischen Gründen.

Inoffiziell: weil du dann eine ATi Karte im Rechner hast und keine Geforce, ergo hast du 'ne Karte der Konkurenz, ergu weniger Einnahmen für nV...
Aus technischen Gründen, LOL. Haben sie bei SLI auch gesagt, war auch ne glatte Lüge.
Es gibt bereits Anleitungen, wie man SLI auf jedem Chipset mit 2x 16x pcie aktivieren kann- auch auf AMD Chipsets ;)

Gast
2009-09-25, 02:50:15
Dann sollen die es endlich mal machen und net dauernd schwafeln. Alles Politik da;)

Gast
2009-09-25, 02:51:42
Ich will doch "nur" ne Graka die alle Standards beherrscht. Mehr will ich doch net...:)

tombman
2009-09-25, 03:03:03
Ich will doch "nur" ne Graka die alle Standards beherrscht. Mehr will ich doch net...:)
Dann wirst wohl auf GT300 warten müssen: DX11+ Phys-X

AnarchX
2009-09-25, 10:07:38
Laut Fuad hatte GT300 sein finales Tapeout und die Yields sollen wohl auch für die Größe stimmen:
http://www.fudzilla.com/content/view/15688/34/
http://www.fudzilla.com/content/view/15689/34/

Das passt wohl auch zu anderen Gerüchten, dass in UK nächsten Monat die Partner Design Kits für GT300-Karten verfügbar sein sollen:
http://www.pcdvd.com.tw/showthread.php?t=869069&page=5&pp=10

Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D

Gast
2009-09-25, 10:17:06
Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D

Logisch, wenn man selbst nicht einmal den Zündschlüssel hat und die Konkurrenz vorneweg fährt.

Gast
2009-09-25, 10:27:45
Logisch, wenn man selbst nicht einmal den Zündschlüssel hat und die Konkurrenz vorneweg fährt.

Wen der "Zündschlüssel" fertig ist, wird man von der Konkurrenz nix mehr sehen.

LovesuckZ
2009-09-25, 10:39:43
Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D

Gibt es dafür auch eine Quelle?

AnarchX
2009-09-25, 10:41:15
Gibt es dafür auch eine Quelle?
46. Post im 3. Link.

Ailuros
2009-09-25, 11:02:00
So wie ich es in Erinnerung habe, "sagtes" du mir, die RV790 wurde in Sommer 2008 begonnen.

Wo ist der Widerspruch zu all dem dass ich gerade erwaehnte? Oder hat Q2 keinen Sommermonat?

Vor 3 oder 6 Monate.
Keine Ahnung wann genau. Schließlich gibts ja noch 3 andere DX11 GPUs.

Bingo zum dritten Satz und des noch nicht veroeffentlichten Hemlock.

ATI wusste früh genug über die 40nm-Probleme und deshalb konnten sie damals schon wissen, dass die Yieldrate bei der Einführung nicht top sein wird und noch länger an der RV870-GPU arbeiten werden und da macht es dann Sinn gleich eine RV890 zu machen.

Ach und es garantiert Dir wer momentan dass die yields bei 32nm egal ob GF oder TSMC in X Zeitraum besser sein werden als 40G@TSMC zu diesem gleichen X Zeitraum?

Die RV770 hatte schon eine Sehr gute Yield-Rate. Somit war es nicht so wichtig, schnell einen RV790 zu bringen.

Siehe oben.

Das war auch die erste 55nm-GPU und auch nicht ganz ausgereift, wodurch man später noch 50Mhz-Takt rausgeholt hat.

666 M vs. 2.15 B Transistors.

cipoint
2009-09-25, 11:02:02
Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D

Bei der Arroganz, die nVidia früher vorgelegt hat, sollte man solchen Sprüchen nicht mehr all zu viel Bedeutung schenken. Ob sie aus dem GT300 ein insgesamt attraktives Produkt - statt nur die schnellste Grafikkarte - zaubern, ist nochmal eine andere Frage. Wäre es wirklich so, dass der GT300 z.B. 50% schneller wärte als der RV870, dann hätte nVidia ja schon deutlich offensiver Stimmung gemacht, oder? Welche Gründe hätten sie denn sonst zu schweigen und potentielle Kunden, die auf den GT300 warten, an ATI zu verlieren? Die meisten, die sich jetzt eine Karte auf RV870-Basis kaufen, werden so bald nicht mehr upgraden.

reunion
2009-09-25, 11:06:42
Ich erwarte schon das GT300 erheblich schneller wird wie RV870. NV steckt wohl einen Großteil der Ressourcen in eine neue Generation und versucht mit dieser relativ lange auszukommen, während AMD eher gleichmäßig weiterentwickelt. GT300 bringt sicherlich wieder einiges an Innovationen und Mehrperformance. Nur muss er halt auch halbwegs zeitgerecht kommen, sonst werden viele Käufer schon eine entsprechende AMD-Karte haben.

Ailuros
2009-09-25, 11:07:18
Laut Fuad hatte GT300 sein finales Tapeout und die Yields sollen wohl auch für die Größe stimmen:
http://www.fudzilla.com/content/view/15688/34/
http://www.fudzilla.com/content/view/15689/34/

Das passt wohl auch zu anderen Gerüchten, dass in UK nächsten Monat die Partner Design Kits für GT300-Karten verfügbar sein sollen:
http://www.pcdvd.com.tw/showthread.php?t=869069&page=5&pp=10

Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D

Gott sei Dank hab ich mit Fudo nicht die gleichen Quellen und ja es gibt oefters in letzter Zeit eine beschissene Kommunikation zwischen PR/marketing und engineering bei NV.

Wie dem auch sei ich halte mich weiterhin konservativ was die finale Leistung betrifft, denn das mit den Ruecklichtern betrifft nicht einen chip ;)

Ailuros
2009-09-25, 11:14:14
Ich erwarte schon das GT300 erheblich schneller wird wie RV870. NV steckt wohl einen Großteil der Ressourcen in eine neue Generation und versucht mit dieser relativ lange auszukommen, während AMD eher gleichmäßig weiterentwickelt.

Falls Du mit gleichmaessig meinst dass RV870 ein quasi RV670 und ein "RV770-artiger - RV970" folgen wird dann koennte ich Dir zustimmen. Insgesamt ist die Masche auch besser so IMHO was execution betrifft. Von Anfang an sehr hoch anzuschlagen (siehe G80) und mit der Zeit auf GT200 Nivaeu zu landen ist nicht unbedingt die bessere Strategie.

GT300 bringt sicherlich wieder einiges an Innovationen und Mehrperformance. Nur muss er halt auch halbwegs zeitgerecht kommen, sonst werden viele Käufer schon eine entsprechende AMD-Karte haben.

Mit dem ersten Satz im Hinterkopf beweiss mir dass nur die Minderwertigkeit NICHT auf die Erscheinung von D12U warten wird bevor sie sich fuer eine X11 Aufruestung entscheiden. Und in dem Fall geht es auch den meisten ueber die finale Leistung als dem Komplianzkleber auf dem Karton.

Naja, magst ja recht haben, aber wenns den Vertrag gibt, dann gibts den ...
Ergo das kommt. Die Chipdesigner sind seit dem 40nm TapeOut verfügbar, das war schon vor ein paar Monaten. Letztens stand irgendwo, dass GF 32nm bulk ab Ende Q4/09 (an)fahren kann (als high-risk wafer). Die Designer haben also noch ca. 1-2 Monate für den Tape-Out, falls AMD die risk-wafer Option nützen will.

Fuer welches Marktsegment benutzt man denn eher einen high risk wafer? Klingt es Dir logischer mit Cypress anzufangen oder mit Cedar?

Insgesamt läuft das auf mehr als ein halbes Jahr Designzeit für den 40 -> 32nm Shrink raus. Zur Computex im Juni gabs ja bereits Wafer -> TapeOut war im April. Seitdem stehen die Designer - falls sie nichts andres zu tun haben - zur Verfügung. Die Zeit sollte doch für einen 32nm Shrink reichen, oder wie siehst Du das ?

ciao

Alex

Nochmal ein RV890 wird angedeutet als leicht hoeher getakter RV870. Ein vergleichbares Nivaeu zu RV790 <-> RV770 waeren runde 950MHz fuer den hypothetischen 890 mit etwas schnellerem Speicher. Was beweisst mir nochmal genau dass ich fuer lediglich 100MHz mehr einen dumb shrink brauche auf einem noch unausgereiftem Herstellungsprozess mit unbekannten yields, mit einer "neuen" foundry usw und so fort und ja man schickt sofort sein schnellstes Pferd zum Opfer. Halloechen RV770 war was genau und wurde wieso mit wieviel Komplexitaet als erstes ins 40nm Rennen geschickt?

Bei der Arroganz, die nVidia früher vorgelegt hat, sollte man solchen Sprüchen nicht mehr all zu viel Bedeutung schenken. Ob sie aus dem GT300 ein insgesamt attraktives Produkt - statt nur die schnellste Grafikkarte - zaubern, ist nochmal eine andere Frage. Wäre es wirklich so, dass der GT300 z.B. 50% schneller wärte als der RV870, dann hätte nVidia ja schon deutlich offensiver Stimmung gemacht, oder? Welche Gründe hätten sie denn sonst zu schweigen und potentielle Kunden, die auf den GT300 warten, an ATI zu verlieren? Die meisten, die sich jetzt eine Karte auf RV870-Basis kaufen, werden so bald nicht mehr upgraden.

*bitte tief einatmen* schoen *ausatmen bitte* wunderbar.... :) Egal ob sie gar nichts sagen, erwaehnen dass ihr kommendes Produkt um so und so viel schneller ist oder jeglicher anderer Moeglichkeit gaebe es stets Grund zur Kritik. Potentielle Kunden fuer G300 die auf eine Aufruestung warten sollten gefaelligst brav die ersten unabhaengigen Messungen der Architektur abwarten und sich NICHT ueber jegliche subjektive Marketing-Halbluege (siehe 250% AMD BULLSHIT) aufregen.

Ja das Ding ist schneller. Ach Du willst wissen um wie viel? Siehe oben und einen schoenen Tag auch an Dich..... :naughty:

Gast
2009-09-25, 11:41:58
Wen der "Zündschlüssel" fertig ist, wird man von der Konkurrenz nix mehr sehen.

Richtig, weil sie schon über alle Berge ist.

Gast
2009-09-25, 11:54:49
Dann wirst wohl auf GT300 warten müssen: DX11+ Phys-X
Falsch.
Es gibt keine Grafikkarte, die alle Standards beherrscht.
Oder seit wann beherrschen die NV-Karten ATI´s Stream? :freak:

Ailuros
2009-09-25, 12:02:15
Falsch.
Es gibt keine Grafikkarte, die alle Standards beherrscht.
Oder seit wann beherrschen die NV-Karten ATI´s Stream? :freak:

Wenn jemand die Frage von Anfang an richtig formuliert haette, wuerde es auch nicht zu so einer bloedsinnigen Antwort kommen. Bei dem Durchbruch den momentan CUDA geniesst kann NV locker auf Stream pfeiffen. Es gibt natuerlich auch die analoge Gegenfrage aber wir wissen wohl warum jeglicher IHV seine eigenen GPGPU Brei momentan kocht oder?

cipoint
2009-09-25, 12:06:45
@Ailuros: Du meinst, dass der GT300 ALLEINE die Hemlock toppen wird? Dass ich nicht lache!

AnarchX
2009-09-25, 12:09:25
Was ist daran so unrealistisch?

Die Position für den aktuell spekulierten GT300 ist deutlich besser, als für GT200 gegenüber RV770X2: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7527032#post7527032

cipoint
2009-09-25, 12:11:38
Na ja, ich würde die Erwartungen einfach nicht so hoch ansetzen. ISt ja immer dasselbe ...

reunion
2009-09-25, 12:13:37
Man könnte es auch so verstehen das NV zwei Chips benötigt für die Rücklichter. Gerade wo er vorher von konservativen Schätzungen spricht.

LovesuckZ
2009-09-25, 12:17:52
Wenn man mit 2 Chips deutlich schneller wäre, wäre man mit einem nur leicht hinter Hemlock.

aylano
2009-09-25, 12:23:45
Wo ist der Widerspruch zu all dem dass ich gerade erwaehnte? Oder hat Q2 keinen Sommermonat?

Sommerbeginn ist Ende Juni, also Ende 2Q.
Ich interpredierte es als August, so quasi bzw. 3 Monate nach 2Q.

Und plus minus 1Q finde ich nicht unbedeutend.


Bingo zum dritten Satz und des noch nicht veroeffentlichten Hemlock.

??
Hemlock ist kein eigener Chip.


Ach und es garantiert Dir wer momentan dass die yields bei 32nm egal ob GF oder TSMC in X Zeitraum besser sein werden als 40G@TSMC zu diesem gleichen X Zeitraum?
Um das ging es nicht.
Sondern, dass die GPU rechtzeitig geplant wird und falls 32nm ausgereift ist, dann auch produziert werden kann.
Außerdem sagte ich ja, dass man mit AMDs-32nm-Produktionsangaben etwas vorsichtig nehmen soll bzw. die erste Bulk-Fertigung von AMD ist, welche vielleicht nicht 100% hinhaut.

666 M vs. 2.15 B Transistors.[/QUOTE]
Jupp, es kommen seit jahren immer mehr Transistoren auf die GPU und trotzdem schaffen sie es mal planmäßig und mal nicht.

Ähh ... ja 45nm bulk sollte nach dem Bild fertig sein. Richtig. Aber wie kommst Du bei 32nm auf "fertig in Kürze" ? Die fangen da jetzt erst an ...
Jupp, hatte mich falsch ausgedrückt. Mal sehen, vielleicht gibts GF-Meldungen über einen 45nm-Bulk-Produktionsstart und 32nm-Entwicklungs/Orderstart. Bisher redeten sie sehr gerne um etwas im Rampenlicht zu stehen.


Das sowas bei 32nm (anderes Node) GF (andere Firma) passiert ist unwahrscheinlich, die haben auch noch die IBM Allianz im Rücken, das sind ganz andere Kaliber. Vor allem aber läuft 32nm bei IBM schon:
Gutes Argument

cipoint
2009-09-25, 12:45:35
Wenn man mit 2 Chips deutlich schneller wäre, wäre man mit einem nur leicht hinter Hemlock.

Ach Leute, das ist hier alles VIEL zu waage. Deutlich schneller, etwas schneller ... jeder versteht darunter etwas Anderes. Letztendlich sind aber selbst das nur Gerüchte.

Für realistisch halte ich, dass nVidia die rohe Rechenleistung und die Bandbreite gegenüber einer GTX285 etwa verdoppeln wird. In der Praxis wird dann vielleicht 90% davon ankommen, also etwa 1,8 x GTX285. 80% schneller als die Top-Karte der letzten Generation ist schon sehr gut. Aber wir wissen jetzt schon, dass HD5870 = 1,3 * GTX285. Wenn das alles mehr oder weniger zutrifft, wird der GT300 etwa 40% schneller sein als der jetzige RV870. Natürlich ist das sehr viel, wird eine Hemlock aber kaum beeindrucken können. Wenn nVidia dann mit diesem Moster-Chip eine Hemlock-Konkurrenz auf die Beine stellen möchte, wird der GT300 höchstwahrscheinlich gedrosselt werden müssen, während ATI irgendwann im selben Zeitraum einen Refresh parat haben sollte. Mit diesem Refresh-Chip ist durchaus eine x2 denkbar. Es gab ja auch schon bei dem RV790 Spekulationen in diese Richtung, wurde von ATI aber wohl als nicht rentabel eingestufft (womöglich weil die nächste Generation schon vor der Tür stand). Davon ausgehend wird selbst eine GTX395 irgendwo auf dem Niveau einer spekulativen HD5890x2 sein. Aber das ist ja noch alles ferne Zukunft.

AnarchX
2009-09-25, 12:58:22
Für realistisch halte ich, dass nVidia die rohe Rechenleistung und die Bandbreite gegenüber einer GTX285 etwa verdoppeln wird.
240SPs@1,5GHz vs 512SPs @ ~1,6GHz sind doch schon etwas mehr als eine Verdopplung.
Und für eine vernünftige GPGPU-Architektur die NV für die nächsten >2 Jahre erhalten bleibt, kann man wohl annehmen das die Pro-FLOP-Effizienz eher nicht sinkt.

Ein wichtiger Punkt dürfte wohl der spekulierte "Turbo-Mode" für die TMUs sein, mit dem GT300 hier auch einen Faktor 2 gegenüber GT200 setzen könnte.

Mit einem vernünftig skalierten Setup, ist da ein Faktor 2+ schon ziemlich wahrscheinlich.

btw.
http://golubev.com/about_cpu_and_gpu_2_en.htm
And now it's easy to estimate speed of upcoming GT300 and HD5800 series as their peak performance already known and there no difference at architecture for integer calculations.


Really?


While major GT300 feature is MIMD (multiple instructions multiple data) for embarrassingly parallel problem like hash cracking MIMD doesn't matters at all as most of the time we're executing one instruction for all data we have.
:huh:

Results on existing hardware:

http://img8.imageshack.us/img8/4030/empirical.png

Estimates:

http://img269.imageshack.us/img269/3641/estimates.png
http://forum.beyond3d.com/showpost.php?p=1340055&postcount=2405

Spekulation oder hat Nvidia der CUDA-Community schon einen Ausblick gegeben?

reunion
2009-09-25, 13:02:20
Wenn man mit 2 Chips deutlich schneller wäre, wäre man mit einem nur leicht hinter Hemlock.

Ja, natürlich.

LovesuckZ
2009-09-25, 13:06:41
Spekulation oder hat Nvidia der CUDA-Community schon einen Ausblick gegeben?

Würde dort nur die GTX380 stehen, hätte man nur die Spekulationen aufgefasst. Aber bei einer angeblichen GTX350...
Wobei nVidia in diesem Fall wenigsten Luft nach oben lässt und bei besseren Yields dann sogar eine GTX360 mit 13/14/15 Cluster nachschieben könnte.

igg
2009-09-25, 13:08:22
Falsch.
Es gibt keine Grafikkarte, die alle Standards beherrscht.
Oder seit wann beherrschen die NV-Karten ATI´s Stream? :freak:
Stream ist praktisch bedeutungslos im Vergleich zu CUDA. Eher relevant ist OpenCL und ComputeShaders, und das wird IMO beides mit GT300 unterstützt.

reunion
2009-09-25, 13:10:02
$279 für eine solche Karte wäre aber schon ganz schön wenig. Das ist selbst heute nur 5850-Niveau.

AnarchX
2009-09-25, 13:10:48
Würde dort nur die GTX380 stehen, hätte man nur die Spekulationen aufgefasst.


"GeForce + dreistellige Zahl" scheint wohl in der Tat das neue Bezeichnungschema zu sein, wenn man im letzten Treiber schaut, wo neben der GeForce G210 nun auch eine GeForce 210 aufgetaucht ist.


Aber bei einer angeblichen GTX350...
Wobei nVidia in diesem Fall wenigsten Luft nach oben lässt und bei besseren Yields dann sogar eine GTX360 mit 13/14/15 Cluster nachschieben könnte.
Entweder wirklich eine SKU um das Yield aufzubessern oder das ehemalige GT212 Team hat sich hier mehr Mühe gegeben und der "GT302" ist schon greifbar.

$279 für eine solche Karte wäre aber schon ganz schön wenig.
Bei einem Launch im Q1 2010 wäre er aber gerade richtig. Wobei es wohl nur eine Schätzung auf Basis der Rechenleistung ist.

MiamiNice
2009-09-25, 13:33:30
Wen NV das wirklich schafft und die neuen Karten mehr als doppelt so schnell als das aktuelle High End werden, wer kauft dann nach erscheinen noch ATI Karten? Mir gefällt die Strategie von ATI irgendwie nicht. Statt ordentlich Leistung zu bringen, bauen die mittelmässige Karten und versemmeln die zu Spottpreisen. Wen NV den bisherigen Weg weitergeht und über die Jahre immer mehr Leistung als ATI bringt, was soll da aus ATI im High End werden. Selbst der dickste Fanboy wird irgendwann lieber zu einer NV Karte greifen, wen die deutlich schneller ist. Bildqualitätstechnisch sind die Karten für den normalo User auf einer Höhe, was also auch kein Kaufargument mehr für die eine oder andere Karte ist. Ich fand die Zeiten damals besser wo sich beide Hersteller sich kaum was geschenkt haben, heute habe ich den Eindruck das ATI mehr Preis/Leistung anpeilt und gar nicht mehr auf die High End Krone scharf ist. Das macht imho die ganze Warterei, Spekulation etc. völlig uninteressant da man eh schon vorher weiss was für eine Karte den Weg in den eigenen PC finden wird.

LovesuckZ
2009-09-25, 13:42:21
Stream ist praktisch bedeutungslos im Vergleich zu CUDA. Eher relevant ist OpenCL und ComputeShaders, und das wird IMO beides mit GT300 unterstützt.

Stream ist tot. AMD konzentriert sich jetzt voll auf OpenCL und DirectCompute.

Aquaschaf
2009-09-25, 13:42:35
Wen NV das wirklich schafft und die neuen Karten mehr als doppelt so schnell als das aktuelle High End werden, wer kauft dann nach erscheinen noch ATI Karten?

Leute die nicht ganz so viel Geld für Grafikkarten ausgeben wollen. Ich denke über die Strategie wurde in der Vergangenheit schon genügend diskutiert.

cipoint
2009-09-25, 13:50:11
Wen NV das wirklich schafft und die neuen Karten mehr als doppelt so schnell als das aktuelle High End werden, wer kauft dann nach erscheinen noch ATI Karten? Mir gefällt die Strategie von ATI irgendwie nicht. Statt ordentlich Leistung zu bringen, bauen die mittelmässige Karten und versemmeln die zu Spottpreisen. Wen NV den bisherigen Weg weitergeht und über die Jahre immer mehr Leistung als ATI bringt, was soll da aus ATI im High End werden. Selbst der dickste Fanboy wird irgendwann lieber zu einer NV Karte greifen, wen die deutlich schneller ist. Bildqualitätstechnisch sind die Karten für den normalo User auf einer Höhe, was also auch kein Kaufargument mehr für die eine oder andere Karte ist. Ich fand die Zeiten damals besser wo sich beide Hersteller sich kaum was geschenkt haben, heute habe ich den Eindruck das ATI mehr Preis/Leistung anpeilt und gar nicht mehr auf die High End Krone scharf ist. Das macht imho die ganze Warterei, Spekulation etc. völlig uninteressant da man eh schon vorher weiss was für eine Karte den Weg in den eigenen PC finden wird.

Für geschätzte 99% der Käufer von PCs und Grafikkarten zählt Preis/Leistung. In Foren wie diesen tummeln sich überproportional viele aus diesem einen Rest-Prozent. ATIs Strategie ist darauf ausgelegt Geld mit attraktiven Produkten zu verdienen. nVidia versucht das über das Image und den Namen. Dafür müssen sie immer die Top-Karte im Angebot haben und eben viel Geld in R&D pumpen. Den größten Gewinn macht aber auch nVidia mit deutlich günstigeren Karten. Ob dir nun ATIs Strategie gefällt, juckt die natürlich nicht. Dahinter stehen Wirtschaftliche Interessen. Manche betrachten das alles hier scheinbar als eine Art Sport ... Als ob es nVidia oder ATI um die Ehre gehen würde.

Was ich eigentlich sagen möchte, ist, dass beide Firmen zwar andere Strategien verfolgen, insgesamt aber konkurrenzfähig sind. Selbst wenn der GT300 zweimal schneller sein wird als GTX285, bleiben ATI noch viele Handlungsmöglichkeiten. Was das "über die Jahre immer mehr Leistung als ATI bringt" angeht: So weit in die Zukunft zu spekulieren und schon das Versagen für die übernächste Generation zu proklamieren, ist lächerlich.

LovesuckZ
2009-09-25, 13:59:46
Word I am getting is that next week nVidia will be announcing specs opf the new card and review samples hsould be following shortly. (http://www.rage3d.com/board/showpost.php?p=1336025154&postcount=206)
Crisler

Den größten Gewinn macht aber auch nVidia mit deutlich günstigeren Karten.

Bitte keine Lügen erzählen. Sonst glauben es die Leute noch. :)

tombman
2009-09-25, 14:00:52
Laut Fuad hatte GT300 sein finales Tapeout und die Yields sollen wohl auch für die Größe stimmen:
http://www.fudzilla.com/content/view/15688/34/
http://www.fudzilla.com/content/view/15689/34/

Das passt wohl auch zu anderen Gerüchten, dass in UK nächsten Monat die Partner Design Kits für GT300-Karten verfügbar sein sollen:
http://www.pcdvd.com.tw/showthread.php?t=869069&page=5&pp=10

Neben bei gibt es wohl Folien, auf denen Nvidia behauptet, dass keine der aktuellen Karten in der Lage sei, überhaupt die Rücklichter eines GT300 zu sehen. ;D
http://www.mtg-images.de/hf/t_80402.jpg

Soviel zu Charlies 2% ;D

Im Ernst: alles über 2x GTX285 sollte mich doch sehr wundern...

cipoint
2009-09-25, 14:03:27
Word I am getting is that next week nVidia will be announcing specs opf the new card and review samples hsould be following shortly. (http://www.rage3d.com/board/showpost.php?p=1336025154&postcount=206)
Crisler



Bitte keine Lügen erzählen. Sonst glauben es die Leute noch. :)

Ist das ernst gemeint?

tombman
2009-09-25, 14:14:09
Es werden hier oft Forenquellen zitiert, daher eine Bitte:

Wenn ihr wen zitiert, von dem ihr glaubt, daß er glaubhaft ist, dann BITTE ERKLÄRT WER DAS IST UND WARUM SEIN WORT IRGENDWAS ZÄHLT!

Nicht jeder kennt jeden Wichtigen in jedem Forum...

Ende der Durchsage :)

MiamiNice
2009-09-25, 14:36:12
Was ich eigentlich sagen möchte, ist, dass beide Firmen zwar andere Strategien verfolgen, insgesamt aber konkurrenzfähig sind. Selbst wenn der GT300 zweimal schneller sein wird als GTX285, bleiben ATI noch viele Handlungsmöglichkeiten. Was das "über die Jahre immer mehr Leistung als ATI bringt" angeht: So weit in die Zukunft zu spekulieren und schon das Versagen für die übernächste Generation zu proklamieren, ist lächerlich.

Das meinte ich auch gar nicht. Was ich eigendlich sagen wollte ist, das für High-End Käufer die Luft und Spannung aus dem Markt raus ist. Was interessiert mich das noch ob ATI ne Karte bringt wen es eh "nur" mittelklasse Karten werden. Es macht einfach keinen Spass mehr auf Infos zu warten, da am Ende eh die NV Karte in den PC wandert. Das kunkurenz da ist bestreite ich ja nicht, nur halt im High End nicht und das finde ich, als Käufer dessen, einfach schade. Ich würde mir wünschen das ATI seine Strategie ändert und wieder Spannung in den Markt zu bringt.

S940
2009-09-25, 14:42:29
Na endlich mal ein Gerücht, dass nV was präsentiert ... ich rechnete eigentlich 100% damit, dass nV irgendeinen Presseevent am Mittwoch durchzieht, um ATi den Start zu vermießen.

Na wollen wir mal schauen was kommt.

Zur Aussage von nV zur Yield:
Das glaub ich dem erst, wenns ausreichend Karten gibt. Wenn alles in Butter wäre, hätte sein Kollege nicht erst kürzlich DX11 als "unwichtig" einstufen müssen.

ciao

Alex

tombman
2009-09-25, 14:43:04
Jo, ich stimme zu. Ewig nur diese Performance-Schiene fahren macht echt keinen Spaß. Eine Dual-Gpu Karte ist eben kein echtes HighEnd, sondern trotzdem nur 2x performance.

Vielleicht sind 2 Sportwagen, wo einer den anderen antaucht, auch 400Km/h schnell, aber ein Bugatti Veyron wird daraus dann eben doch nicht ;)

Hugh, der ANALogiemeister hat gesprochen :)

Armaq
2009-09-25, 14:59:24
Für mich sieht es so aus, als ob Nvidia gerade nicht in der komfortablen Lage ist irgendwelche Prunkstücke in der Hinterhand zu haben. Machen wir uns nichts vor, G80 und seiner Nachfolger waren sehr sehr gut. Man kann nicht immer richtig liegen.

Undertaker
2009-09-25, 15:03:09
Ich denke nicht, dass man daraus überhaupt etwas zur Situation des GT300 sagen kann. Allein der zeitliche Versatz bedingt, dass man mögliche Kunden über Positivmeldungen hinhalten will/muss, egal ob die Produktion nach Plan oder nicht läuft. Entscheidend wird auch, wie schnell der RV870 überhaupt in Stückzahlen lieferbar ist.

Ailuros
2009-09-25, 15:04:19
Sommerbeginn ist Ende Juni, also Ende 2Q.
Ich interpredierte es als August, so quasi bzw. 3 Monate nach 2Q.

Und plus minus 1Q finde ich nicht unbedeutend.

Ach Sommer ist bei Dir nur der August? Alles klar.....:rolleyes:

??
Hemlock ist kein eigener Chip.

Braucht aber 2 Cypress chips.

Um das ging es nicht.
Sondern, dass die GPU rechtzeitig geplant wird und falls 32nm ausgereift ist, dann auch produziert werden kann.

Kein IHV ist so bloed und spielt mit den Herstellungsprozessen russische Roulette. Wenn es fuer X Herstellungsprozess ausgelegt wurde wird es auch trotz Y Problemen hoechstwahrscheinlich hergestellt um die R&D Kosten erstmal wieder reinzuholen. Probleme bemerkt sowieso nicht VOR dem ersten tape out. Hast Du ueberhaupt eine Vorstellung was ein einziger tape out in so einem Fall bei TSMC kostet?

Außerdem sagte ich ja, dass man mit AMDs-32nm-Produktionsangaben etwas vorsichtig nehmen soll bzw. die erste Bulk-Fertigung von AMD ist, welche vielleicht nicht 100% hinhaut.

Es bleibt aber meine Frage ob es den Aufwand und die Kosten wert ist. Ich hab einen fertigen chip heute names Cypress und ich sage mal rein theoretisch ich hab heute ungefaehr 60% yields. Alles was ich brauche ist eine zukuenftige revision die mir garantiert um einiges hoehere yields geben wird und um ca. 10% hoehere Frequenz-toleranz. DURCHAUS MACHBAR UND DURCHAUS MOEGLICH AUF 40nm ohne dass man ueber ein Halbjahr X Leute beschaeftigt die libraries fuer 32nm umzuschreiben, X mehr Moneten pro 32nm wafer hinzublechen und keine ueber 3x mal so hohe tape out Kosten.

Wuerde mir jemand von Euch etwas ueber 1GHz erzaehlen dann waere es ein ganz anderes Kapitel. Fuer eine sehr moderate 100MHz Steigerung reicht eine weitere Revision; vor allem geht es schneller und ist um einiges billiger.


Jupp, es kommen seit jahren immer mehr Transistoren auf die GPU und trotzdem schaffen sie es mal planmäßig und mal nicht.

Sagt Dir 3.23x mehr Chip-komplexitaet etwas?

Ailuros
2009-09-25, 15:05:02
@Ailuros: Du meinst, dass der GT300 ALLEINE die Hemlock toppen wird? Dass ich nicht lache!

Nicht mein Fehler wenn Du nicht lesen kannst. Anders: ich meinte dass irgend ein Depp wohl mit den Schlusslichtern das moegliche dual chip Dingsda meinte.

Ach Leute, das ist hier alles VIEL zu waage. Deutlich schneller, etwas schneller ... jeder versteht darunter etwas Anderes. Letztendlich sind aber selbst das nur Gerüchte.

Für realistisch halte ich, dass nVidia die rohe Rechenleistung und die Bandbreite gegenüber einer GTX285 etwa verdoppeln wird. In der Praxis wird dann vielleicht 90% davon ankommen, also etwa 1,8 x GTX285. 80% schneller als die Top-Karte der letzten Generation ist schon sehr gut. Aber wir wissen jetzt schon, dass HD5870 = 1,3 * GTX285. Wenn das alles mehr oder weniger zutrifft, wird der GT300 etwa 40% schneller sein als der jetzige RV870. Natürlich ist das sehr viel, wird eine Hemlock aber kaum beeindrucken können. Wenn nVidia dann mit diesem Moster-Chip eine Hemlock-Konkurrenz auf die Beine stellen möchte, wird der GT300 höchstwahrscheinlich gedrosselt werden müssen, während ATI irgendwann im selben Zeitraum einen Refresh parat haben sollte. Mit diesem Refresh-Chip ist durchaus eine x2 denkbar. Es gab ja auch schon bei dem RV790 Spekulationen in diese Richtung, wurde von ATI aber wohl als nicht rentabel eingestufft (womöglich weil die nächste Generation schon vor der Tür stand). Davon ausgehend wird selbst eine GTX395 irgendwo auf dem Niveau einer spekulativen HD5890x2 sein. Aber das ist ja noch alles ferne Zukunft.

NV behauptet dass es sich um eine tabula rasa als Architektur handelt. Das es sich aber wohl doch nicht um einen aufgewaermnten GT200 handelt liegt die Wahrheit irgendwo dazwischen und ja gesamte Teile der Architektur wurden von Grund auf neue entwickelt und als erster der Speichercontroller der sich zwischen G80 und GT200 nie geaendert hat. Haetten sie diesen fuer den letzteren geaendert waere GT200 auch um ca. 20% schneller gewesen und wuerde auch nicht so an seiner eigenen Bandbreite erdrosseln.

Von dem Punkt ab etwas mehr Geduld. Was GPGPU betrifft ist die Tabelle die AnarchX vorher postete kein Zufall.

V2.0
2009-09-25, 15:28:33
Entweder wirklich eine SKU um das Yield aufzubessern oder das ehemalige GT212 Team hat sich hier mehr Mühe gegeben und der "GT302" ist schon greifbar.

Den beschnitten Cypress und die große Version von Juniper konnte man auch schlecht ignorieren. Und es ist ja nicht nur 212 sonder auch 214 aufgegeben worden.

Ailuros
2009-09-25, 15:30:37
Den beschnitten Cypress und die große Version von Juniper konnte man auch schlecht ignorieren. Und es ist ja nicht nur 212 sonder auch 214 aufgegeben worden.

Viel mehr als nur 212/214.

igg
2009-09-25, 15:46:51
Jetzt sind es schön zwei mysteriöse Posts, die andeuten, dass GeForce 380 wenige Wochen als wenige Monate entfernt ist:
http://www.rage3d.com/board/showpost.php?p=1336025154&postcount=206
http://forum.beyond3d.com/showpost.php?p=1338934&postcount=2339
Von dem Punkt ab etwas mehr Geduld. Was GPGPU betrifft ist die Tabelle die AnarchX vorher postete kein Zufall.
Für mich als Laie sieht GT300 da langsamer aus...

Sorkalm
2009-09-25, 15:48:34
Absolute GFLOPs (darum gehts da) hatte Nvidia schon immer weniger als AMD.

LovesuckZ
2009-09-25, 16:11:52
Jetzt sind es schön zwei mysteriöse Posts, die andeuten, dass GeForce 380 wenige Wochen als wenige Monate entfernt ist:
http://www.rage3d.com/board/showpost.php?p=1336025154&postcount=206
http://forum.beyond3d.com/showpost.php?p=1338934&postcount=2339


Man ging immer von November aus als normalen Termin. Das sind noch ca. 2 Monate. Passt doch alles.

Cubitus
2009-09-25, 16:19:35
Man ging immer von November aus als normalen Termin. Das sind noch ca. 2 Monate. Passt doch alles.

Japp, ich denke das sogar der Termin am 30.09 auf der Technology Konferenz in San Jose steht und Nvidia lauffähige GT300 Chips+ Techdemos zeigen wird.

Ailuros
2009-09-25, 16:20:38
Für mich als Laie sieht GT300 da langsamer aus...

While major GT300 feature is MIMD (multiple instructions multiple data) for embarrassingly parallel problem like hash cracking MIMD doesn't matters at all as most of the time we're executing one instruction for all data we have

Nicht dass ich an reine MIMD Einheiten glaube, aber bei einer Instruktion ist seine Spekulation schon korrekt (egal ueber was fuer Einheiten es sich eigentlich handelt).

Hugo
2009-09-25, 16:21:00
Wenn alles in Butter wäre, hätte sein Kollege nicht erst kürzlich DX11 als "unwichtig" einstufen müssen.

ciao

Alex

Ich glaub du verstehst die Aussage nicht.
Als NV mit dem G80 kam war es auch entscheident dass er unter DX9 der schnellste Chip war. Zu der Zeit gabs auch kein Game für DX10

Genauso meint es NV auch mit DX11
Nur ein Bruchteil der DX11-Games wird für RV870/GT300 relavant sein.
Was zählt is der Moment und das is klar DX10

Cubitus
2009-09-25, 16:23:26
Ich glaub du verstehst die Aussage nicht.
Als NV mit dem G80 kam war es auch entscheident dass er unter DX9 der schnellste Chip war. Zu der Zeit gabs auch kein Game für DX10

Genauso meint es NV auch mit DX11
Nur ein Bruchteil der DX11-Games wird für RV870/GT300 relavant sein.
Was zählt is der Moment und das is klar DX10

Imo ist es sogar immer noch DX9.
Spiele gab es damals auch schon, wie etwa einige U3E Games und Lost Planet.

Ailuros
2009-09-25, 16:36:48
Imo ist es sogar immer noch DX9.
Spiele gab es damals auch schon, wie etwa einige U3E Games und Lost Planet.

Haengt von der Perspektive ab. Wenn man ein Spiel mit einem DXx path auch als DXx anerkennt dann ja klar aendert sich einiges. Ich als Laie bin da ein bisschen strenger in meiner Perspektive und bin jetzt mal so "frech" und behaupte dass Crysis ein um einiges "vollbluetigeres" DX9 Spiel ist als FarCry im Vergleich.

Je ambitionsreicher ein jegliches Projekt ist, desto laenger dauert es. Fuer mich braucht ein solcher AAA Titel fuer heutige Verhaeltnisse nicht unter 4 Jahre Entwicklung nach der Erscheinung von relevanter hw.

***edit: und um Missverstaendnissen zu entgehen ich befuerworte keineswegs jeglichen Marketingfurz dass X oder Y nicht "wichtig" ist weil IHV A es nicht zum Zeitpunkt Z verfuegbar hat. Manche sollten reif genug sein zu verstehen dass der Unsinn zu erwarten ist von allen Seiten, egal wie laecherlich es klingt.

LovesuckZ
2009-09-25, 16:38:02
Zur Aussage von nV zur Yield:
Das glaub ich dem erst, wenns ausreichend Karten gibt. Wenn alles in Butter wäre, hätte sein Kollege nicht erst kürzlich DX11 als "unwichtig" einstufen müssen.

ciao

Alex

Leider hat der Kollege dies nicht getan. :(
Also läuft wohl alles nach Butter. :)

aylano
2009-09-25, 16:39:01
Kein IHV ist so bloed und spielt mit den Herstellungsprozessen russische Roulette. Wenn es fuer X Herstellungsprozess ausgelegt wurde wird es auch trotz Y Problemen hoechstwahrscheinlich hergestellt um die R&D Kosten erstmal wieder reinzuholen. Probleme bemerkt sowieso nicht VOR dem ersten tape out. Hast Du ueberhaupt eine Vorstellung was ein einziger tape out in so einem Fall bei TSMC kostet?
...
Es bleibt aber meine Frage ob es den Aufwand und die Kosten wert ist.
Wahrscheilich zahlt sich der Aufwand eben aus. ATIC hat schon genug Mrd. in AMD & Fabriken investiert und gab zusätzliche Forschungsgelder her um diverse Prozesse zu beschleunigen.
Also, da gehts um Mrd. und nicht um paar Milliönchen.

Und da ATI die RV740-40nm-Probe-GPU machte, dürfte sich so Probe-GPUs ab und zu auszahlen.


Sagt Dir 3.23x mehr Chip-komplexitaet etwas?
Und was ist bitte daran neu, dass ein Nachfolger-Chip komplexer ist als der Vorgänger?????
Wichtig ist nur, dass sich eine Firma mit der Komplexität im jeweiligen Jahr nicht übernimmt und das hat AFAIK 3dfx

V2.0
2009-09-25, 16:46:24
GT216 und GT218 waren auch Probe-GPUs

Ailuros
2009-09-25, 16:48:08
Wahrscheilich zahlt sich der Aufwand eben aus. ATIC hat schon genug Mrd. in AMD & Fabriken investiert und gab zusätzliche Forschungsgelder her um diverse Prozesse zu beschleunigen.
Also, da gehts um Mrd. und nicht um paar Milliönchen.

AMD ist nicht Intel wo man mit Resourcen einfach nur so herumschmeissen kann. Die R&D Kosten fuer die gesamte Evergreen Familie sollen angeblich irgendwo um die Viertelmillion $ liegen und da sind im Vergleich ca. 5 Mio$ fuer jeglichen einzelnen tape out schon eine vergleichsmaessige Summe.

Und da ATI die RV740-40nm-Probe-GPU machte, dürfte sich so Probe-GPUs ab und zu auszahlen.

RV740 ist auch nicht vergleichbar in Komplexitaet mit einem Cypress, was aber wohl noch etliche Seiten an Forum-Bandbreiten-Verschwendung gehen kann bis Du endlich kapierst was ich die ganze Zeit sagen will.

Und was ist bitte daran neu, dass ein Nachfolger-Chip komplexer ist als der Vorgänger?????
Wichtig ist nur, dass sich eine Firma mit der Komplexität im jeweiligen Jahr nicht übernimmt und das hat AFAIK 3dfx

Weil je hoeher die Komplexitaet DESTO HOEHER DAS RISIKO BEI EINEM NOCH NICHT GESTESTEN HERSTELLUNGSPROZESS. Man schickt normalerweise entweder einen chip mit der kleinsten oder mittleren Komplexitaet in solch ein Rennen zuerst bevor man ein groesseres Risiko eingeht.

Coda
2009-09-25, 17:22:58
Deshalb hat NVIDIA wohl auch die 40nm-GT2xx nicht gecancled.

Ailuros
2009-09-25, 17:24:54
Deshalb hat NVIDIA wohl auch die 40nm-GT2xx nicht gecancled.

Du meinst GT212? Ausser mich hat jemand auf die Palme getrieben, wurde das Ding noch vor seinem originalem tape out storniert.

=Floi=
2009-09-25, 17:32:53
zitat
Sagt Dir 3.23x mehr Chip-komplexitaet etwas?

erklär mir das mal bite genauer. woran achst du das fest und wie stark spielt das wirklich mit ein, wenn schon heute designs sehr komplex und undurchschaubar sind.

Coda
2009-09-25, 17:36:44
Du meinst GT212?
Nein.

LovesuckZ
2009-09-25, 18:32:27
Theo* bestätigt Fuad's Story mit seiner eigenen Quelle (http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx)
It seems that the GT300 has been taped out long ago and that yields are fine. This statement comes from a senior product manager for the GT300, but we also have this from our own sources [who have been saying this all along].

Fehlt nur noch der übliche Hassaritkel von Charlie.

*Normalerweise schreibt Theo Valich solche News, heute ist es jedoch Sean Kalinich.

CrazyIvan
2009-09-25, 20:00:55
Die R&D Kosten fuer die gesamte Evergreen Familie sollen angeblich irgendwo um die Viertelmillion $ liegen und da sind im Vergleich ca. 5 Mio$ fuer jeglichen einzelnen tape out schon eine vergleichsmaessige Summe.
Zwar verfüge ich über keinerlei Insiderwissen und bin sicher auch nicht so dicke in dem Business drin wie Du, aber das kann ich einfach nicht glauben. Mit 250.000 US-$ (in Worten: Zweihunderfünfzigtausend) entwickelt man heutzutage in der IT-Industrie vielleicht ein neues Mousepad, aber sicher keine hochkomplexe GPU.

Gast
2009-09-25, 20:04:26
Ailuros hat sich verschrieben - es war eine Viertelmilliarde.
Aber auch davon machen 5M$ für ein Tapeout schon einen beträchtlichen Teil aus.

incM
2009-09-25, 20:28:08
Theo* bestätigt Fuad's Story mit seiner eigenen Quelle (http://www.brightsideofnews.com/news/2009/9/25/nvidia-says-gt300-on-schedule-for-q4-20092c-yields-are-fine.aspx)


Fehlt nur noch der übliche Hassaritkel von Charlie.

*Normalerweise schreibt Theo Valich solche News, heute ist es jedoch Sean Kalinich.

halte ich ehrlich gesagt fuer unglaubwuerdig.
wir sind techpartner von nv und ich hab bisher nix an karten gesehen.
ne ati flattert hier schon seit monaten rum.
ich mutmasse mal das es dieses jahr nichts mehr wird.
paperlaunch im oktober.
erste auslieferung fruehestens im jannuar/februar

=Floi=
2009-09-25, 20:28:49
aber das idst eben R&D. je weniger desto besser, aber soetwas lässt sich auch nicht vermeiden. da gibt es schlimmere szenarien.

Gast
2009-09-26, 00:55:44
http://www.mtg-images.de/hf/t_80402.jpg

Soviel zu Charlies 2% ;D

Im Ernst: alles über 2x GTX285 sollte mich doch sehr wundern...

AMD’s competitive analysis team FAIL

ShadowXX
2009-09-26, 02:14:24
halte ich ehrlich gesagt fuer unglaubwuerdig.
wir sind techpartner von nv und ich hab bisher nix an karten gesehen.
ne ati flattert hier schon seit monaten rum.
ich mutmasse mal das es dieses jahr nichts mehr wird.
paperlaunch im oktober.
erste auslieferung fruehestens im jannuar/februar
Natürlich sehen die 08/15 Techpartner (sorry, no offense) von nV davon nichts...

Wir sind auch "Techpartner" von MS....haben trotzdem unser Windows 7 auch erst gleichzeitig mit den normalen MSDN Abonnenten bekommen (was immer noch wesentlich früher als der Rest der Welt war :P)

Davon mal abgesehen das ich dir nicht glaube das ne 5870 schon seit Monaten bei dir "rumflattert" wenn nicht mal EA solche Karten hat/hatte.

tombman
2009-09-26, 03:19:32
Natürlich sehen die 08/15 Techpartner (sorry, no offense) von nV davon nichts...

Naja, Crytek würde ich nicht gerade als 08/15 bezeichnen, denn dort arbeitet er ;)

Nightspider
2009-09-26, 04:30:03
halte ich ehrlich gesagt fuer unglaubwuerdig.
wir sind techpartner von nv und ich hab bisher nix an karten gesehen.
ne ati flattert hier schon seit monaten rum.
ich mutmasse mal das es dieses jahr nichts mehr wird.
paperlaunch im oktober.
erste auslieferung fruehestens im jannuar/februar

Weniger in Foren surfen sondern lieber nen ordentlichen DX11 Modus bei Crysis 2 integrieren! Also husch husch ab ans Werk nicht das wieder so eine Blamage rauskommt wie mit dem gefakten DX10 Modus bei Crysis. ;D

:tongue:

Ailuros
2009-09-26, 07:16:36
Ailuros hat sich verschrieben - es war eine Viertelmilliarde.
Aber auch davon machen 5M$ für ein Tapeout schon einen beträchtlichen Teil aus.

Merci bien monsieur ;)

incM
2009-09-26, 07:54:12
dem gefakten DX10 Modus

:tongue:

rein hypothetischer fall:

angenommen NVidia zahlt 1 Million an codemasters fuer nen zukuenftigen exklusiven DX12 pfad von Grid
und DX12 ist (vereinfacht gesagt) architektonisch so angelegt das du nicht allzuviel neue visuelle features hast weil die aenderungen eher unter der oberflaeche passierten.
dann wird codemasters irgendwelche features nehmen die es sowieso gegeben haette und packt die mit ein paar exklusiven aber eher unscheinbaren richtigen dx12 sachen in grid.
danach haben sie die wahl entweder alles so zu locken das es wirklich nur in dem jeweiligen dxpfad laeuft und die 80% der user die solche karten nicht haben erbost aufschreien oder einfach eine exe die sich mit konsolen/ini settigns tweaken laesst.
falls sich dann codemasters aus freundlichkeit fuer letzteres entscheidet
kannst du darauf wetten das hunderte forenleute meinen sie waeren besonders schlau und der dev besonders daemlich weil sie ein paar eintraege in der "streng geheimen" ini vornehmen.
und nun back to topic

reunion
2009-09-26, 09:21:54
Natürlich sehen die 08/15 Techpartner (sorry, no offense) von nV davon nichts...

Wir sind auch "Techpartner" von MS....haben trotzdem unser Windows 7 auch erst gleichzeitig mit den normalen MSDN Abonnenten bekommen (was immer noch wesentlich früher als der Rest der Welt war :P)

Davon mal abgesehen das ich dir nicht glaube das ne 5870 schon seit Monaten bei dir "rumflattert" wenn nicht mal EA solche Karten hat/hatte.

Das wurde eh schon öfter angesprochen das noch niemand Karten hat. Kein Partner, kein Kartenhersteller. Wenn NV nicht ein Vorzeigestudio wie Crytec mit Karten versorgen kann, kann man davon ausgehen das es noch keine brauchbaren Karten gibt. Da werden auch nicht selten stark heruntergetaktete Karten verteilt, Hauptsache die Programmierer optimieren auch etwas auf die eigenen Architektur. Und natürlich sind entsprechende AMD DX11-Karte (AFAIK allerdings nicht Cypress sondern Juniper) schon seit Monaten bei den Spieleprogrammierern, oder mit was glaubst du werden die in den nächsten Monaten erscheinenden Dx11-Spiele genau geproggt?

igg
2009-09-26, 10:03:10
Das wurde eh schon öfter angesprochen das noch niemand Karten hat. Kein Partner, kein Kartenhersteller. Wenn NV nicht ein Vorzeigestudio wie Crytec mit Karten versorgen kann, kann man davon ausgehen das es noch keine brauchbaren Karten gibt.
Wieso sollte NV Crytek jetzt eine geben? Soweit ich weiß basteln die fleißig an Crysis 2 (CryEngine 3?) wo es wohl wenig GT300 zu optimierendes geben dürfte.

reunion
2009-09-26, 10:24:17
Wieso sollte NV Crytek jetzt eine geben? Soweit ich weiß basteln die fleißig an Crysis 2 (CryEngine 3?) wo es wohl wenig GT300 zu optimierendes geben dürfte.

Weil NV daran interessiert sein wird das Crytec auch auf ihre Architektur optimiert bei der Cryengine 3 und nicht nur auf die neuen AMD-Karten. Spieleprogrammierer sind immer die ersten neben den Partner welche solche Karten bekommen. Aber wenn es nur Crytec wäre. Frag mal Demirug ob sie für ihre DX11 Version von Battleforg eine DX11 Karte von NV hatten, frag mal irgend einen Spieleprogrammierer. Die Antwort wird immer dieselbe sein.

igg
2009-09-26, 10:29:45
Wie war das denn beim G80? Mein letzter Stand ist, dass nur vermutet wurde, dass Spieleentwickler eine hatten.

AnarchX
2009-09-26, 10:52:32
Wie war das denn beim G80? Mein letzter Stand ist, dass nur vermutet wurde, dass Spieleentwickler eine hatten.

Natürlich gab es G80 Samples, bei diesen waren dann 64SPs, 192-Bit, 384MiB aktiv, wohl um die Leistung etwas zu verschleiern. Später sind davon sogar welche hier im Forum aufgetaucht, die bei Ebay verkauft wurden.

Auch von R600 gab es damals einige "MHz = Watt"-Prototypen.

Nightspider
2009-09-26, 11:08:17
rein hypothetischer fall:

angenommen NVidia zahlt 1 Million an codemasters fuer nen zukuenftigen exklusiven DX12 pfad von Grid
und DX12 ist (vereinfacht gesagt) architektonisch so angelegt das du nicht allzuviel neue visuelle features hast weil die aenderungen eher unter der oberflaeche passierten.
dann wird codemasters irgendwelche features nehmen die es sowieso gegeben haette und packt die mit ein paar exklusiven aber eher unscheinbaren richtigen dx12 sachen in grid.
danach haben sie die wahl entweder alles so zu locken das es wirklich nur in dem jeweiligen dxpfad laeuft und die 80% der user die solche karten nicht haben erbost aufschreien oder einfach eine exe die sich mit konsolen/ini settigns tweaken laesst.
falls sich dann codemasters aus freundlichkeit fuer letzteres entscheidet
kannst du darauf wetten das hunderte forenleute meinen sie waeren besonders schlau und der dev besonders daemlich weil sie ein paar eintraege in der "streng geheimen" ini vornehmen.
und nun back to topic

Naja das stimmt schon aber wo waren denn bei Crysis unter der Haube die DX10 Optimierungen ?
Es lief unter DX9 und XP schneller und alle optischen Effekte konnte man auch unter XP+DX9 aktivieren.
Einige hatten sich bestimmt deswegen Vista zugelegt und waren erbost über den Reinfall.
Dann lieber gar kein neuen DX Modus, wenn der nur so oberflächlich integriert werden kann.

Battleforge hat zB. durch den DX11 Patch einen 20%igen Performance-Vorteil bekommen laut neuester Meldungen. Das wäre immerhin etwas was wirklich an DX11 liegt und nichts herbeigezaubertes.
Auch erste Tessellation-Effekte in Stalker CoP sind, wenn auch wohl erst wenige, aber immerhin einige optische Verbesserungen. ;)

Warum habt ihr euch nicht für den Geometrie-Shader der DX10 Karten was hübsches ausgedacht wie in Lost Planet das Fell.

mkh79
2009-09-26, 14:48:35
Wie wichtig ist das, den Entwicklern Karten frühzeitig vor Release zukommen zu lassen, bzw. wie sehr hält das nvidia davon ab, wenn jetzt tatsächlich nicht genug Zeit für eine Optimierung war, vielleicht noch dieses Jahr die Karten auf den Markt zu bringen?

mboeller
2009-09-26, 14:50:41
halte ich ehrlich gesagt fuer unglaubwuerdig.
wir sind techpartner von nv und ich hab bisher nix an karten gesehen.
ne ati flattert hier schon seit monaten rum.
ich mutmasse mal das es dieses jahr nichts mehr wird.
paperlaunch im oktober.
erste auslieferung fruehestens im jannuar/februar


Danke für die Info.

Damit ist wohl klar was Sache ist. Die ganzen "News" zum GT300 sind nichts weiter als FUD von Nvidia/Nvidia Fanboys gegen die neuen 58x0.

Ich hatte mir sowas schon gedacht als Ailuros geschrieben hat das das Treiberteam momentan Überstunden macht um die jetzige Generation besser aussehen zu lassen. Wenn das Treiberteam (nahezu?) die gesamte Energie in Treiber für die GT2xx Generation steckt dann doch wohl nur weil GT3xx noch so weit weg ist das man für diese Karten keine Treiber schreiben muss bzw. kann.

tombman
2009-09-26, 14:58:38
Bis Jänner (inkl.) sinds 4 Monate - genug Zeit ;)

Gast
2009-09-26, 15:10:18
ist ja auch klar das es von NV die Entwickler noch keine DX11 karten bekommen haben, als Termin wird ja immer frühestens Dezember genannt und ich glaube kaum das ATI schon vor 4 Monate oder länger ihre DX11 Karten verteilt hat...

Ailuros
2009-09-26, 15:13:56
Danke für die Info.

Damit ist wohl klar was Sache ist. Die ganzen "News" zum GT300 sind nichts weiter als FUD von Nvidia/Nvidia Fanboys gegen die neuen 58x0.

Ich hatte mir sowas schon gedacht als Ailuros geschrieben hat das das Treiberteam momentan Überstunden macht um die jetzige Generation besser aussehen zu lassen. Wenn das Treiberteam (nahezu?) die gesamte Energie in Treiber für die GT2xx Generation steckt dann doch wohl nur weil GT3xx noch so weit weg ist das man für diese Karten keine Treiber schreiben muss bzw. kann.

Hab ich Dich auch versichert dass mit diesem selber Treiber keine D12U bearbeitet wird? :rolleyes:

Gast
2009-09-26, 15:16:48
Januar, ja toll, dann ist das gesamte Weihnachtsgeschäft gelaufen.

mictasm
2009-09-26, 15:18:14
Gibt es auch nur ein Treiberteam?

LovesuckZ
2009-09-26, 15:23:59
Wahrscheinlich - der Rest wurde abgezogen, um Fuad mit Fud zu versorgen.

Ailuros
2009-09-26, 15:23:59
Gibt es auch nur ein Treiberteam?

Fuer welchen Treiber genau? :D

Black-Scorpion
2009-09-26, 16:14:51
ist ja auch klar das es von NV die Entwickler noch keine DX11 karten bekommen haben, als Termin wird ja immer frühestens Dezember genannt und ich glaube kaum das ATI schon vor 4 Monate oder länger ihre DX11 Karten verteilt hat...
Und weil der Termin der Dezember sein soll bekommen die Entwickler die Karten natürlich auch erst im Dezember.
Selten so einen Schwachsinn gelesen.
Und ja, von ATI schwirren die Karten schon Monate bei den richtigen Leuten rum.

Gast
2009-09-26, 16:28:36
Und weil der Termin der Dezember sein soll bekommen die Entwickler die Karten natürlich auch erst im Dezember.
Selten so einen Schwachsinn gelesen.
Und ja, von ATI schwirren die Karten schon Monate bei den richtigen Leuten rum.

blöd rum motzen aber anscheinend nicht mal richtig lesen können...

und NEIN, ich kann mir nicht vorstellen das schon ca. vor Mai DX11 Karten Verteilt wurden.

Chris2CB
2009-09-26, 16:51:01
blöd rum motzen aber anscheinend nicht mal richtig lesen können...

und NEIN, ich kann mir nicht vorstellen das schon ca. vor Mai DX11 Karten Verteilt wurden.


Hmm....4870X2...:D......Eine Karte zu besitzen bedeutet nicht gleich das sie mit den finalen Taktraten zu einem Entwickler kommt. Bekommst ne 5870 mit 250/800 mit nem Zettel wo drauf steht das man 850/1200 anstrebt 100mHz+-. Bei NV scheint man wohl etwas im leeren zu stehen was dies betrifft. Da man hier wohl stärkere Abweichungen hat derzeit.

Auf der einen Seite muss die Karte schnell sein, auf der anderen braucht man viele funktionsfähige Chips.

aylano
2009-09-26, 17:31:37
RV740 ist auch nicht vergleichbar in Komplexitaet mit einem Cypress, was aber wohl noch etliche Seiten an Forum-Bandbreiten-Verschwendung gehen kann bis Du endlich kapierst was ich die ganze Zeit sagen will.
Ich vermute, du glaubsts dass ich mit einem RV870 @ 32nm als erste Probe-GPU in Dresden rechne. Anders kann ich deine Posting nicht erklären.
Aber das hatte ich nie geschrieben.

Da Globalfoundries jedes Quartal 100 Mio. $ Verlust macht, wäre es nicht schlecht, wenn ATI so recht schnell dort produzieren kann.

Wie eine eventuelle Probe-GPU bei Dresden aussieht, ist fraglich.
Denn es gibt ja noch (32 und) 28nm bei TSMC.

V2.0
2009-09-26, 20:57:35
Danke für die Info.

Damit ist wohl klar was Sache ist. Die ganzen "News" zum GT300 sind nichts weiter als FUD von Nvidia/Nvidia Fanboys gegen die neuen 58x0.

Ich hatte mir sowas schon gedacht als Ailuros geschrieben hat das das Treiberteam momentan Überstunden macht um die jetzige Generation besser aussehen zu lassen. Wenn das Treiberteam (nahezu?) die gesamte Energie in Treiber für die GT2xx Generation steckt dann doch wohl nur weil GT3xx noch so weit weg ist das man für diese Karten keine Treiber schreiben muss bzw. kann.
Neliz sagt 2Q10.

cipoint
2009-09-26, 22:13:47
Bitte keine Lügen erzählen. Sonst glauben es die Leute noch. :)

Falls du diesen Artikel noch nicht kennst:
http://www.3dcenter.org/artikel/analyse-durchschnittliche-grafikkarten-verkaufspreise

mictasm
2009-09-26, 23:12:05
Fuer welchen Treiber genau? :D

Danke, du hast mich verstanden^^ ;D

pervert
2009-09-26, 23:41:34
Danke für die Info.

Damit ist wohl klar was Sache ist. Die ganzen "News" zum GT300 sind nichts weiter als FUD von Nvidia/Nvidia Fanboys gegen die neuen 58x0.

Ich hatte mir sowas schon gedacht als Ailuros geschrieben hat das das Treiberteam momentan Überstunden macht um die jetzige Generation besser aussehen zu lassen. Wenn das Treiberteam (nahezu?) die gesamte Energie in Treiber für die GT2xx Generation steckt dann doch wohl nur weil GT3xx noch so weit weg ist das man für diese Karten keine Treiber schreiben muss bzw. kann.

Neliz sagt 2Q10.
Dieses ganze Dumme Geschwafel und die völlig willkürlichen Mutmaßungen über den Release nerven langsam finde ich!

Wenn Nvidia selbst extra nochmal bestätigt, dass es Q4 2009 wird, dann sollten wir DAS vielleicht erst einmal als den warscheinlichsten Release Termin ansehen!!! Ich persönlich glaube an eine Vorstellung Ende Nov/ Anfang Dez mit vermutlich geringer Verfügbarkeit im Dez. sowie brauchbaren Stückzahlen im Januar und das ist genau das, was die seriöseren Gerüchteküchen verbreiten.

Was die weitreichende Verfügbarkeit angeht, das steht sowieso auf einem anderen Blatt. HD5870 ist auch nicht verfügbar!

Wer Geld hat und fleissig Vorbestellt, wird schon seine Karte unter dem Weihnachtsbaum wiederfinden, alle Anderen warten sowieso darauf, dass sich der Preis erst einmal auf humanem Niveau einpendelt (Stichwort GTX280).

Worauf wir doch alle viel geiler sind, sind FAKTEN und BENCHMARKS!

Gast
2009-09-27, 01:02:26
Dieses ganze Dumme Geschwafel und die völlig willkürlichen Mutmaßungen über den Release nerven langsam finde ich!
Locker bleiben :)
Das hier ist das Spekulationsforum. ;)

Wenn Nvidia selbst extra nochmal bestätigt, dass es Q4 2009 wird, dann sollten wir DAS vielleicht erst einmal als den warscheinlichsten Release Termin ansehen!!!
Wäre ich Nvidia und müsste zusehen wie ATI mit der neuen Generation kommt, dann würde ich auch einen möglichst nahen Termin nennen, um ATI etwas einzubremsen. ;)
Wenn etwas von NV mit einem konkreterem Datum kommt, dann können wir ja nochmal drüber reden.

Ich persönlich glaube an eine Vorstellung Ende Nov/ Anfang Dez mit vermutlich geringer Verfügbarkeit im Dez. sowie brauchbaren Stückzahlen im Januar und das ist genau das, was die seriöseren Gerüchteküchen verbreiten.

Ist eine Spekulation deinerseits.
Kann genauso falsch sein wie von den anderen Membern, die Q2/10 sagen. ;)

Was die weitreichende Verfügbarkeit angeht, das steht sowieso auf einem anderen Blatt. HD5870 ist auch nicht verfügbar!
Es ist aber ein riesen Unterschied, ob wir von 2 Wochen oder von 4 Monaten sprechen... ;)

Ailuros
2009-09-27, 08:24:14
mictasm,

Keine Ahnung ob wir uns wirklich verstanden haben. Fuer desktop windows z.B. ja ist es nur ein Treiberteam. Aber es gibt dann noch andere Maerkte (siehe z.B. Tegra) oder andere Platformen die ihre eigene Teams haben.

--------------------------------------------------------------------------------------------------------------------------

Black-Scorpion und Gast,

Beim naechsten mal knallt's ok?

Ich vermute, du glaubsts dass ich mit einem RV870 @ 32nm als erste Probe-GPU in Dresden rechne. Anders kann ich deine Posting nicht erklären.
Aber das hatte ich nie geschrieben.

Da Globalfoundries jedes Quartal 100 Mio. $ Verlust macht, wäre es nicht schlecht, wenn ATI so recht schnell dort produzieren kann.

Wie eine eventuelle Probe-GPU bei Dresden aussieht, ist fraglich.
Denn es gibt ja noch (32 und) 28nm bei TSMC.

Damit wir mit dieses OT Thema endlich ein Ende nimmt: ja es ist ein hoeher getakteter Refresh fuer H1 geplant und nein nicht auf 32nm.

Neliz sagt 2Q10.

Und noch einiges mehr. Wenn Du im glauben willst dann ist D12U nur 20% schneller als 5870.

----------------------------------------------------------------------------

pervert,

Fakten und Benchmarks kommen erst nachdem man alles andere Notwendige angestellt hat. Sachen wie dass man hinter geschlossen Tueren wichtige Partner einweiht, samples an X und Y verschickt, Launch-events plant und der ganze Ramtamtam der dazu gehoert. Das alles muss noch erstmal passieren und wenn dann die ersten marketing technisch verdrehten slides fertig sind haben wir eine Ahnung was uns NVIDIA erstmal andrehen wird und keine unabhaengigen und objektivere Daten.

NV protzt von Schlusslichtern, moechtegern-machmichzumAMDpRfritzen-Kerle wie ein vorerwaehnter sprechen von nur 20% vor der 5870. Glaub beide einfach und gut ist es.

Mensch Leute es sind nur GPUs keine Religion um Himmel's Willen.

Gast
2009-09-27, 21:27:37
für alle glauben, die gerüchte um einen baldigen G300 start verdichten sich.... bitte hier lesen: Kyle Bennett von [H]ardOCP schreibt in einem foren-beitrag:

http://www.hardforum.com/showthread.php?p=1034667865#post1034667865

"... I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so..."

und etwas weiter darunter auf die frage, ob er seine infos von "Charlie" hat: "... No I am not. I am taking my information from people that have tremendously stable working relationships with TSMC... "

crux2005
2009-09-27, 21:31:28
ich glaube, diese Woche werden noch mehr Infos zu "GT300" veröffentlicht ^^

Gast
2009-09-27, 21:34:35
er ist ja wohl auch nur max. 20% vorne ATM :roll:
schonmal drüber nachgedacht dass die target clocks evtl. noch nicht ganz erreicht wurden?

LovesuckZ
2009-09-27, 21:36:45
für alle glauben, die gerüchte um einen baldigen G300 start verdichten sich.... bitte hier lesen: Kyle Bennett von [H]ardOCP schreibt in einem foren-beitrag:

http://www.hardforum.com/showthread.php?p=1034667865#post1034667865

"... I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so..."

und etwas weiter darunter auf die frage, ob er seine infos von "Charlie" hat: "... No I am not. I am taking my information from people that have tremendously stable working relationships with TSMC... "

Sry, aber Kyle hat also Kontakte zu Leute, die Kontake zu TSMC haben? Also doch Charlie. ;D

Gast
2009-09-27, 21:38:43
Nvidia bietet noch keine DirectX-11-kompatiblen Grafikkarten an – was sich zumindest auch in den nächsten Monaten nicht ändern dürfte.

heise

pervert
2009-09-28, 04:23:36
Genau. Und Heise ist so blöd die glauben bis heute an den Müll von Charlie! Kein Scherz! Die haben das immer noch nicht gerafft bzw richtiggestellt!

Habe ich auch schon im Forum zu dieser dämlichen Newsmeldung auf Heise zum Besten gegeben. :rolleyes:

Ganz große Peinlichkeit für Heise.

san.salvador
2009-09-28, 04:27:59
Passt vielleicht grad.


AMDs Radeon HD 5870 ist locker doppelt so schnell wie ihre Vorgängerin und steuert bis zu sechs Monitore gleichzeitig an. Die Tessellation-Engine steigert automatisch den Detailgrad von 3D-Objekten – so werden aus Dachtapeten richtige Ziegeldächer. (Seite 20)

Highlights (http://www.heise.de/ct/inhalt/2009/21/6/) der aktuellen Ausgabe. Ich mag die c't, aber manchmal...

pervert
2009-09-28, 06:58:50
Wow, das ist ja neuer Niedrigniveau Rekord bei der C'T. Naja, Grafikkartentests waren nie deren Stärke.

Gast
2009-09-28, 08:46:55
für alle glauben, die gerüchte um einen baldigen G300 start verdichten sich.... bitte hier lesen: Kyle Bennett von [H]ardOCP schreibt in einem foren-beitrag:

http://www.hardforum.com/showthread.php?p=1034667865#post1034667865

"... I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so..."

und etwas weiter darunter auf die frage, ob er seine infos von "Charlie" hat: "... No I am not. I am taking my information from people that have tremendously stable working relationships with TSMC... "

Der früheste Zeitpunkt für die GT300 wäre demnach der Januar mit wahrscheinlich geringer Verfügbarkeit. Es könnte aber auch bis zum April dauern bis wir die GT300 sehen. Wenn's stimmt....ouch

Tja, mal sehen was die jetzt gerade umlaufenden GPGPU FUD-Slides von Nvidia so bringen. Die werden sicher diese Woche noch geleaked (sollen sie ja auch).

tombman
2009-09-28, 09:12:22
Ich sag euch wie das laufen wird: genauso wie bei GTX295.
Im Jänner die ersten Karten in homöopatischen Dosen + Deppensteueraufschlag von mindestens 50€. Wenn man eine kiegen kann: sofort kaufen oder Pech.
Nächster Schub dann in 2 bis 4 Wochen ohne Deppenaufschlag, dafür immer noch in geringen Dosen :ugly:

desert
2009-09-28, 09:48:41
Mal schauen was noch passiert im november:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/nvidias_antwort_atis_hd5k-serie_ende_november/

Hier sieht es eher so aus wie der start der 8800 gt, zwar start mit karten ende november/anfang dezember.

Nvidia wird aber auf keinen fall den Win7 start ohne eigene DX11 Karten begleiten. Und wenn es nur ein test ende Oktober werden wird,besser als kampflos das feld dem konkurrenten zu überlassen

igg
2009-09-28, 09:54:39
Was mich an dem CB Artikel wundert:
Analysten, Investoren und Partnern seien die Chips angeblich bereits Anfang September gezeigt worden, die Massenproduktion soll Mitte bis Ende Oktober anlaufen können.
Gerade das war doch, soweit ich weiß, nicht der Fall?

tombman
2009-09-28, 10:01:48
Mir gefällt der Satz am besten ;)
Auch ComputerBase liegen bereits Informationen vor, teilweise jedoch unter NDA, weshalb wir die Gerüchte offiziell weder bestätigen noch dementieren können bzw. dürfen. Es scheint in jedem Fall aber noch das Jahr 2009 und nicht wie von vielen Lesern angesichts des fulminanten Einstands der neuen Karten von AMD und der in diversen Gerüchten erwarteten Verspätung bis ins Jahr 2010 zu werden.
Sie sind unter NDA, sagen aber "2009" ;D;D

LovesuckZ
2009-09-28, 10:03:04
Alleine, dass sie erwähnen, dass sie unter NDA stehen, reicht schon, um das NDA zu brechen.
Ich denke, dass nVidia für ihre GPU Technology Conference wartet und dann irgendwas zeigt. In zwei Tagen sind wir schlauer.

Gast
2009-09-28, 10:03:50
GPGPU Event:

http://www.nvidia.com/object/gpu_technology_conference.html

Deshalb laufen wohl momentan die GPGPU Slides um. Mal sehen wann wir die ersten im forum sehen.

S940
2009-09-28, 10:04:17
Was mich an dem CB Artikel wundert:

Gerade das war doch, soweit ich weiß, nicht der Fall?
War das nicht cb mit dem von nV "bestellten" Grafikkartentest ?
Würde darauf auf alle Fälle ersteinmal nicht viel geben.

So oder so - falls die Meldung stimmt - dann gibts fertige Grafikkarten spätestens ca. zwei Monate später, bestenfalls 7 Wochen.

Mitte / Ende Oktober hieße also Mitte / Ende Dezember. Aber das werden dann ähnlich viele Grafikkarten sein, wie jetzt zum ATi Start.

Breite Verfügbarkeit wirds dann erst im Januar geben - wenn alles klappt und die Yields einigermaßen sind.

In zwei Tagen sind wir schlauer.
Jo, schlauer an vielen markigen nV Sprüchen ;-)

ciao

Alex

LovesuckZ
2009-09-28, 10:05:32
War das nicht cb mit dem von nV "bestellten" Grafikkartentest ?
Würde darauf auf alle Fälle ersteinmal nicht viel geben.


Ja und vergessen wir den AMD "bestellten" nicht. ;D

desert
2009-09-28, 10:06:52
Mir gefällt der Satz am besten ;)

Sie sind unter NDA, sagen aber "2009" ;D;D

Ich glaube weichnachten ist gerettet ;) Obwohl jetzt zum risen start würde sich ein gt300 sehr wohl bei mir fühlen ;)

S940
2009-09-28, 10:07:13
Ja und vergessen wir den AMD "bestellten" nicht. ;D
Welchen ? Davon hab ich nichts mitbekommen.

V2.0
2009-09-28, 10:08:47
Man kann auch PP-Slides unter NDA stellen.

tombman
2009-09-28, 10:11:19
Ich glaube weichnachten ist gerettet ;) Obwohl jetzt zum risen start würde sich ein gt300 sehr wohl bei mir fühlen ;)
Rechenleistung habe ich genug, ich habs ned eilig ;)
Nur 2GB Ram würde ich brauchen, aber das wird im Jänner ja hoffentlich 2x GT300 2Gb richten ;)

Ailuros
2009-09-28, 10:18:39
GPGPU Event:

http://www.nvidia.com/object/gpu_technology_conference.html

Deshalb laufen wohl momentan die GPGPU Slides um. Mal sehen wann wir die ersten im forum sehen.

Das Zeug liegt unter NDA und keiner ist so bloed diese mir nichts dir nichts zu veroeffentlichen.

LovesuckZ
2009-09-28, 10:25:06
Welchen ? Davon hab ich nichts mitbekommen.

Dann hast du wohl diesen Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_5_spiele_direct3d_101_test/) verpasst. :(

S940
2009-09-28, 10:51:35
Dann hast du wohl diesen Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_5_spiele_direct3d_101_test/) verpasst. :(
*Lach* ja, Danke für den Link ^^
Na dann herrscht also ausgleichene Ungerechtigkeit bei cb, Fazit ist dann wohl:
Die schreiben alles, hauptsache man kommt "auf sie zu" :freak:

Gast
2009-09-28, 11:04:46
Fudzilla "news":

The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.

The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.

The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.

Of course, the chip supports DirectX 11 and Open GL 3.1

cu,
Korv

Noebbie
2009-09-28, 11:10:05
Vor kurzem hab ich doch hier einen GPU-Z Screen gesehen.
GDDR5 und 512bit Anbindung... also wenn die das braucht dann wird die Leistung wohl um einiges brachialer als die der 58xx ?

tombman
2009-09-28, 11:19:26
Cryengine 3 :massa: (paßt nur indirekt, aber das wird ja wohl GT300 Spielwiese sein)

http://www.fudzilla.com/images/stories/2009/September/General%20News/cryengine3_hd_5870_x2.jpg

reunion
2009-09-28, 11:20:15
Das passt überhaupt nicht, das Bild wurde auf einer 5870 X2 vorgeführt.

tombman
2009-09-28, 11:25:53
Das passt überhaupt nicht, das Bild wurde auf einer 5870 X2 vorgeführt.
Und? Das wird auch die Spielwiese des GT300 sein...

Btw, diese letzte Fuzilla Info macht Sorgen. Hört sich so an, als ob GT300 gut in number crunshing für die Wissenschaft und GPGPU sein wird, aber nur "so lala" in Games :|

Undertaker
2009-09-28, 11:47:14
Du meinst vermutlich die News?

http://www.fudzilla.com/content/view/15713/1/

Die Formulierung "The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games." ist aber recht nichtssagend, da unklar, auf welche Modelle konkret bezogen - generell ist der Newsgehalt äußerst gering: Von "billions of transistors" oder "bigger and faster than Radeon HD 5870" hätte ich auch schreiben können...

Hoffentlich bezieht sich zumindest die Ankündigung eines "very late 2009 launch" auf eine handfeste Quelle.

AnarchX
2009-09-28, 11:50:53
Der Teil ist interessant:
The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.

Also wohlmöglich doch ein paar schnellere TMUs, jedenfalls wenn entsprechende Tex-Leistung benötigt wird.

tombman
2009-09-28, 11:54:24
@undertaker
Naja, definiere "handfeste Quelle". Nvidia selbt darf es nicht sein, weil die ja lügen könnten aus wirtschaftlichen Gründen, und einzelne Forenquellen haben zuwenig Gewicht.
Bleiben eigentlich nur noch die Hersteller wie zb Asus und co.- und die stehen, schätze ich mal, unter schwerstem NDA :ugly:

S940
2009-09-28, 12:21:04
Btw, diese letzte Fuzilla Info macht Sorgen. Hört sich so an, als ob GT300 gut in number crunshing für die Wissenschaft und GPGPU sein wird, aber nur "so lala" in Games :|
Keine Bange, nV bencht ein paar PhysiX Games und alles ist gut :biggrin:

Warüber ich mir bei den Taktangaben Gedanken mache, ist die Verlustleistung. Die Evergreens sind schon keine Kostverächter unter Last. Jetzt noch mehr Transistoren und vermutlich auch mit höheren Shaderclock ... wo soll das hinführen ? Der Prozess ist ja auch noch der gleiche wie bei ATi.

Kein Wunder, wenn das Ding dann "Fermi" heißen würde, wahrscheinlich setzt die Karte soviel Hitze frei, wie ein Kernreaktor ^^

AnarchX
2009-09-28, 12:29:19
Warüber ich mir bei den Taktangaben Gedanken mache, ist die Verlustleistung. Die Evergreens sind schon keine Kostverächter unter Last. Jetzt noch mehr Transistoren und vermutlich auch mit höheren Shaderclock ... wo soll das hinführen ? Der Prozess ist ja auch noch der gleiche wie bei ATi.

Momentan stehen immernoch GTX 285 -15% im Raum, die man wohl über dynamische Taktraten und noch agressiveres Clockgating erreichen will.

Gast
2009-09-28, 12:51:59
Das Zeug liegt unter NDA und keiner ist so bloed diese mir nichts dir nichts zu veroeffentlichen.

<lach>

Es gibt NDA und es gibt "NDA". Ich erwarte eigentlich das es sich hier um ein "NDA" handelt und leaks gewünscht sind.

Gast
2009-09-28, 12:53:26
Fudzilla "news":

The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.


Uii...eine GPGPU-Karte die auch Spiele spielt. Wo hab ich sowas schon mal gehört?

Ailuros
2009-09-28, 12:56:09
<lach>

Es gibt NDA und es gibt "NDA". Ich erwarte eigentlich das es sich hier um ein "NDA" handelt und leaks gewünscht sind.

Dann lach beruhigt weiter denn von mir wird es keinen pieps diesbezueglich geben.

igg
2009-09-28, 13:11:44
Du stehst doch eigentlich ohnehin nicht unter NDA sondern kriegst die Folien so zugespielt?

desert
2009-09-28, 13:25:12
Du stehst doch eigentlich ohnehin nicht unter NDA sondern kriegst die Folien so zugespielt?

Weisst du das? Vielleicht ist er noch in irgendeiner nvida related gruppe.

san.salvador
2009-09-28, 13:26:53
Ich glaub er wird schon wissen was er tut. ;)

Ailuros
2009-09-28, 13:34:26
Nein ich bin zu 100% unabhaengig. Und ich fang nur an zu singen - wie auch immer in der Vergangenheit - wenn jemand vor mir in den sauren Apfel beisst. Ich hab den Inhalt von der AMD Launch Praesentation auch hier in den Foren erwaehnt aber es nachdem die ersten Einzelheiten links und rechts auftauchten.

In der Zwischenzeit habt ihr Fudo's newsblurb und das ist erstmal gut genug.

desert
2009-09-28, 13:59:42
Nein ich bin zu 100% unabhaengig. Und ich fang nur an zu singen - wie auch immer in der Vergangenheit - wenn jemand vor mir in den sauren Apfel beisst. Ich hab den Inhalt von der AMD Launch Praesentation auch hier in den Foren erwaehnt aber es nachdem die ersten Einzelheiten links und rechts auftauchten.

In der Zwischenzeit habt ihr Fudo's newsblurb und das ist erstmal gut genug.

Ne das reicht nicht, will von nvida wissen ob sich das warten lohnt oder nicht.

Mich juckt es in den fingern nach etwas neuem.

Ailuros
2009-09-28, 14:05:10
Ne das reicht nicht, will von nvida wissen ob sich das warten lohnt oder nicht.

Mich juckt es in den fingern nach etwas neuem.

Gut dann wende Dich an einen der Herren hier: http://www.nvidia.com/page/press_room.html die auch fuer solches Zeug zustaendig sind. Noch genauer:

Jens Neuschaefer
Product PR, Germany, Austria, Switzerland
jneuschaefer@nvidia.com
+49 896 2835 0015

xiao didi *
2009-09-28, 14:09:17
Nein ich bin zu 100% unabhaengig. Und ich fang nur an zu singen - wie auch immer in der Vergangenheit - wenn jemand vor mir in den sauren Apfel beisst. Ich hab den Inhalt von der AMD Launch Praesentation auch hier in den Foren erwaehnt aber es nachdem die ersten Einzelheiten links und rechts auftauchten.

In der Zwischenzeit habt ihr Fudo's newsblurb und das ist erstmal gut genug.
Ich möchte nicht wissen wie viele PNs der Marke "Erzähl mal was, ich verrats auch keinem weiter!1einself" du bekommst...

Ailuros
2009-09-28, 14:11:09
Keine einzige. So und jetzt bitte zurueck zum Dingsbums mit dem bloeden Namen.

igg
2009-09-28, 14:32:18
Ich find Fermi toll. Radeon 7 hätte ich auch schöner gefunden als Radeon 58xx

AnarchX
2009-09-28, 14:58:42
Fermi wird wohl eher der Name für >=GT3xx HPC-Produkte sein, wie es eben momentan Tesla ist.
Im Endkundenmarkt bleibt es wohl bei GeForce, nur das man nun endlich die Kürzel fallen lässt und sich auf eine Ziffernfolge "Generation"+"Leistungsklasse" beschränkt.

Ailuros
2009-09-28, 15:04:55
Tesla erinnerte mich an eine Bratpfanne und jetzt Fermi an ein Kuscheltier. Jemand fehlt es einfach gewaltig an Phantasie wenn es zu Codenamen kommt.

AnarchX
2009-09-28, 15:08:07
Namen berühmter Physiker für Produkte, die physikalische Berechnungen durchführen.

Tarkin
2009-09-28, 15:33:20
Gut dann wende Dich an einen der Herren hier: http://www.nvidia.com/page/press_room.html die auch fuer solches Zeug zustaendig sind. Noch genauer:

Jens Neuschaefer
Product PR, Germany, Austria, Switzerland
jneuschaefer@nvidia.com
+49 896 2835 0015

Na was wird der Herr wohl sagen.... dass man jetzt ruhig eine von den neuen Radeons kaufen kann weil sich das warten eh nicht lohnt - gaaaanz bestimmt.

Das wäre ungefähr so als würde man bei BMW anrufen und dort fragen, warum man sich keinen Audi kaufen soll.

Toller Ratschlag :freak:

tombman
2009-09-28, 15:38:04
Naja, Tesla hört sich gut an, aber mit Fermi assoziiert man irgendwie FURBY! OMG :)

Raff
2009-09-28, 15:41:39
Ne das reicht nicht, will von nvida wissen ob sich das warten lohnt oder nicht.

Mich juckt es in den fingern nach etwas neuem.

Kauf dir einfach eine HD 5870 und erfreu dich daran. Wenn das GT300-Topmodell noch mehr herrscht, verkloppst die Radeon einfach wieder (oder behältst sie). So mach ich's auch. Dem Herrn Neuschäfer werden Interessenten auch nix Genaues entlocken. ;)

MfG,
Raff

AnarchX
2009-09-28, 15:42:12
Der Name richtet sich eben an eine Community die mit dem Namen Fermi und dessen Arbeit etwas anfangen kann. ;)

Ailuros
2009-09-28, 15:50:08
Na was wird der Herr wohl sagen.... dass man jetzt ruhig eine von den neuen Radeons kaufen kann weil sich das warten eh nicht lohnt - gaaaanz bestimmt.

Dafuer haette ich ihn gleich zu Dir geschickt, weil Du eben um Lichtjahre objektiver bist als er. Das dumme ist dass Neubauer zumindest fuer diesen Mist bezahlt wird und Du eben nicht :comfort:

Das wäre ungefähr so als würde man bei BMW anrufen und dort fragen, warum man sich keinen Audi kaufen soll.

Toller Ratschlag :freak:

Es gab nichts krummes am Ratschlag wenn man die Anfrage erstmal durchliest:

Ne das reicht nicht, will von nvida wissen ob sich das warten lohnt oder nicht.

Er will ja nichts von mir hoeren sondern NVIDIA direkt. Von Objektivitaet war ja nie die Rede und Du hast ja mit dem Sport sowieso nichts zu tun, ergo lass lieber die Finger von solcher Kritik.

Ailuros
2009-09-28, 16:02:41
Ok ein bisschen herumspielen darf ich wohl schon. Was ist besser:

[16*(4*8)]

oder:

2*[8*(2*16)] ?

Gast
2009-09-28, 16:07:25
[16*(4*8)]

LovesuckZ
2009-09-28, 16:08:00
Das untere - weil man dann wohl zwei Setup-Engine hätte.

Gast
2009-09-28, 16:08:18
oder noch besser: [20*(4*8)] :-)

Ailuros
2009-09-28, 16:12:29
U.a. ja LS.

oder noch besser: [20*(4*8)] :-)

Macht 640 :rolleyes:

Gast
2009-09-28, 17:34:55
Dann lach beruhigt weiter denn von mir wird es keinen pieps diesbezueglich geben.

Ok ein bisschen herumspielen darf ich wohl schon. Was ist besser:

[16*(4*8)]

oder:

2*[8*(2*16)] ?
Kaum akzeptieren alle dass du nichts sagen darfst, musst du anfangen an der NDA zu "piepsen".

G!ZMo
2009-09-28, 18:00:04
Der Name richtet sich eben an eine Community die mit dem Namen Fermi und dessen Arbeit etwas anfangen kann. ;)
Irgendwie kommt mir da sofort das Fermi-Niveau bei beispielsweise IGBTs in den Sinn. ;D
Aber ich glaube Leistungshalbleiter haben hier dann doch nix verloren. :p

Gast
2009-09-28, 18:33:00
wenn wir hier schon bei besser-schlechter spielchen sind ... was ist besser:
a) xx.09.2009
b) xx.03.2010
?
mit der beantwortung könnt ihr euch ruhig zeit lassen, viiiiiiiiiiieeeeeel zeit ...
:D

Ailuros
2009-09-28, 18:41:25
Kaum akzeptieren alle dass du nichts sagen darfst, musst du anfangen an der NDA zu "piepsen".

Es juckt halt zu stark in den Fingern. Tatsache ist aber dass ich es Gott sei Dank bis jetzt geschafft habe niemand in eine unangenehme Situation zu bringen mit dem Zeug.

Die Zahlenspielerei ist ja auch momentan nirgends deutlich vorhanden, ausser jemand hat die Zahlen in der Hand und glotzt unendlich auf primitive fast bedeutungslose Diagramme.

|MatMan|
2009-09-28, 20:43:32
hm die äußere Klammer kann ja noch Sinn machen, aber wieso wäre 2*16 eigentlich besser als 4*8?

Coda
2009-09-28, 21:31:49
Wäre es nicht. Ersteres würde die Warp Size auf 64 Threads erhöhen.

Gipsel
2009-09-28, 22:42:16
Wäre es nicht. Ersteres würde die Warp Size auf 64 Threads erhöhen.
Was bei dynamischer Warp-Formation vielleicht kein großes Problem wäre?

Und zu Fermi, also Leute, das wird schon seit mindestens einem halben Jahr als Codename für die Tesla-Nachfolge gehandelt. Da habe ich das zumindest das erste Mal gehört.

AnarchX
2009-09-29, 08:40:54
GeForce Fermi 100?
http://img25.imageshack.us/img25/1263/gf100.jpg

http://forum.beyond3d.com/showpost.php?p=1341596&postcount=2552

Ailuros
2009-09-29, 08:44:00
GeForce Fermi 100?
http://img25.imageshack.us/img25/1263/gf100.jpg

http://forum.beyond3d.com/showpost.php?p=1341596&postcount=2552

Es schreit zum Himmel dass es sich um einen Witz handelt.

igg
2009-09-29, 10:33:44
Den scheint auf beyond3d nicht jeder zu verstehen ;)

mapel110
2009-09-29, 11:19:47
Den scheint auf beyond3d nicht jeder zu verstehen ;)
http://vr-zone.com/articles/-rumour-nvidia-gt300-architecture-details-revealed/7763.html?doc=7763
und hier auch nicht. ^^