Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
reunion
2009-08-27, 11:31:05
Schon mal ueberlegt dass Du oefters laecherlicher klingst als Charlie?
Was soll der Mist? Weißt du wo das Problem bei GT300 liegt? Nein? Dann erspare dir solche Bemerkungen. Danke. Es könnte genau so gut Probleme mit dem Chipdesign, mit den Taktraten, Stromverbrauch, Takdomainen, oder whatever geben falls sich diese Verschiebung überhaupt bestätigt. Nicht immer ist der Fertigungsprozess selbst Schuld.
LovesuckZ
2009-08-27, 11:37:41
Schon mal überlegt das es auch am Chip liegen kann und nicht der Prozess Schuld sein muss?
Darüber können wir reden, wenn die Zeit reif ist.
Die Grenzen sind wohl ganz einfach die 300mm Wafern. Genauso wie bei 200mm Wafern bei um die 300mm² Schluss war dürften bei etwas über 500mm² die Grenze dessen sein was man auf 300mm Wafer noch halbwegs kostengünstig produzieren kann. Für wesentlich mehr als 500mm² Chips braucht es wohl größere Wafer, bei Intel sollen 2012 450mm Wafer kommen, bei den anderen wohl etwas später. Immerhin bekommt man aus einer 300mm Wafer kaum mehr als 100 Chips in der Größenordnung 500mm² heraus, die Yields noch gar nicht berücksichtigt.
Das ist eine wirtschaftliche und keine Möglichkeitsbetrachtung. Individualprodukte in der Anfertigung auch teurer als Massenprodukte. Haben aber dementsprechend auch einen höhreren Preis.
Wenn du nur nach dem wirtschaftlichen Aspekt geht, dann ist es für die Firma erstmal egal, wie groß der Chip ist, wenn sie wissen, dass sie ihm mit den bestimmten Vorstellungen absetzen können.
AMD z.B produzierte den r520 auf 300mm wafers und das vor 4 Jahren. Und wahrscheinlich wird der rv870 ähnlich groß sein.
Ailuros
2009-08-27, 11:49:01
Was soll der Mist? Weißt du wo das Problem bei GT300 liegt? Nein? Dann erspare dir solche Bemerkungen. Danke.
Wenn Du schon von ihm abschreibst, dann erwarte auch dementsprechende Bemerkungen. Ja natuerlich weiss ich es und ich weiss um einiges mehr daruber als Du oder Charlie.
reunion
2009-08-27, 11:57:14
Wenn Du schon von ihm abschreibst, dann erwarte auch dementsprechende Bemerkungen.
Ich habe überhaupt nichts von ihm abgeschrieben, so ein Blödsinn, sorry. Das war eine Antwort auf LovesuckZ das der Prozess vermutlich nicht mehr mitmacht. Es muss eben nicht zwangsläufig am Prozess liegen. Darf man da jetzt nichts anderes mehr dazu sagen weil Charly schon seit Monaten von Problemen trommelt? Lächerlicher gehts ja wohl kau mehr.
Ja natuerlich weiss ich es und ich weiss um einiges mehr daruber als Du oder Charlie.
Ja dann entweder heraus mit der Sprache oder still sein. Aber mich hier blöd anzumachen weil ich spekuliere ist ja wohl in einem Spekulationsforum mehr als daneben.
Ailuros
2009-08-27, 12:13:07
Ich habe überhaupt nichts von ihm abgeschrieben, so ein Blödsinn, sorry. Das war eine Antwort auf LovesuckZ das der Prozess vermutlich nicht mehr mitmacht. Es muss eben nicht zwangsläufig am Prozess liegen. Darf man da jetzt nichts anderes mehr dazu sagen weil Charly schon seit Monaten von Problemen trommelt? Lächerlicher gehts ja wohl kau mehr.
Normalerweise sollte der Vergleich mit jemand wie Charlie eher eine Ehre sein :P
Ja dann entweder heraus mit der Sprache oder still sein. Aber mich hier blöd anzumachen weil ich spekuliere ist ja wohl in einem Spekulationsforum mehr als daneben.
Spiel mir jetzt bloss nicht das unschuldige "Opfer". Ich und ich alleine werde entscheiden was ich wann und wo ins Licht setze. Dein PM Kasten wird von mir mit solchem Zeug oefters besucht als vielen anderen. Und nein es hat gar nichts mit dem Thema hier zu tun.
Und nein Dir und Lovesuck geht es nicht mehr um ehrlich zu spekulieren sondern eher wer dem anderen besser auf dem Nacken hockt. Ich reagiere genauso auf jeglichen anderen BS egal von wo es kommt.
Gipsel
2009-08-27, 12:20:59
Weißt du wo das Problem bei GT300 liegt?Ja natuerlich weiss ich es und ich weiss um einiges mehr daruber als Du oder Charlie.
???
Wie paßt das denn dazu?
Es tut mir leid aber entweder ueberrascht uns NVIDIA regelrecht in der letzten Minute oder es stimmt tatsaechlich etwas nicht an der ganzen Geschichte. Ich will ja gern an Wunder glauben aber zumindest eine Traene will ich aber dann schon von Madonna's Gesicht laufen sehen. So langsam geht mir die Geduld mit der insgesamten Todstille aus...
Ailuros
2009-08-27, 12:26:43
Es passt schon; denn die Todstille bezieht sich auf irgendwelche zuverlaessige Infos die auf irgend einen launch deuten sollten. Im August 2006 sah das Bild damals radikal anders aus obwohl so mancher damals angenehm ueberrascht wurde.
Ich und ich alleine werde entscheiden was ich wann und wo ins Licht setze.
Nichtmal ne Andeutung ;) ? Targeted Clockspeeds verfehlt oder so.. ?
LovesuckZ
2009-08-27, 12:34:38
Die müssten aber dann deutlich verfehlt worden sein - immerhin hatte nVidia auch keine Probleme den GT200 mit einem deutlich geringeren Shadertakt zu bringen...
/edit: GTX280: 1296 - 9800gtx: 1688
Vom 80% ALU Vorteil blieben am Ende erstmal nur ca. 44% übrig. Und gegenüber der 9800gtx+ waren es nur ca. 33%...
AnarchX
2009-08-27, 12:40:32
Das aber wohl nur nach unzähligen Diskussionen und fast ein halbes Jahr später.
Ailuros
2009-08-27, 12:42:17
Nichtmal ne Andeutung ;) ? Targeted Clockspeeds verfehlt oder so.. ?
Man koennte eventuell die Frequenzen reduzieren um leicht bessere yields zu erreichen, aber es waere dann eher das Resultat als der Grund.
LovesuckZ
2009-08-27, 12:56:14
Das aber wohl nur nach unzähligen Diskussionen und fast ein halbes Jahr später.
Nur ist der GT300 viel zu wichtig, um auf die gewünschten Taktraten zu setzen. Im Gegensatz zum GT200 sollen ja fast jegliche Teile einer deutlichen Einheitenerhöhung unterliegen - so dass selbst GT200 Taktraten eine deutliche Leistungssteigerung ermöglichen.
Ailuros
2009-08-27, 13:05:58
Es sind so oder so "bis zu" Frequenzen auf dem Ding, ergo erstmal ueberhaupt nicht mit heutigem Zeug vergleichbar.
Es sind so oder so "bis zu" Frequenzen auf dem Ding
Das würde ich jetzt als "dynamischen" Takt interpretieren.
Armaq
2009-08-27, 17:18:24
Das wäre wiedermal eine technische Innovation, mit der man so nicht gerechnet hat.
Falls das wirklich stimmt, dann könnte man dadurch enorm viel Performance rausholen, weil die Last zwischen TMU, ALUs und ROPs in einem Frame extrem schwankt.
Z.B. wird bei Z-Fill-Passes praktisch nur ROP-Leistung gebraucht. Wenn man deren Takt erhöht und den der ALUs verringert kann man bei gleichem Energieverbrauch deutlich mehr Füllrate haben.
AnarchX
2009-08-27, 17:30:02
Ob das wirklich soviel bringt?
Teillast mit geringer Leistungsaufnahme in diesen Bereichen gibt es ja auch jetzt schon und bei diesem dynamischen Konzept bleibt immernoch der Prozess, der den einzelnen Taktdomänen Grenzen auferlegt.
Im mobilen Sektor dürfte dieser Ansatz wohl um einiges erfolgreicher sein, als im High-End-Desktop Sektor, wo die meisten Enthusiasten wohl nicht unbedingt interessieren würde, ob G300 nur eine 183W TDP hat oder 250W, solang die Leistung deutlich steigt.
LovesuckZ
2009-08-27, 17:31:42
Im mobilen Sektor dürfte dieser Ansatz wohl um einiges erfolgreicher sein, als im High-End-Desktop Sektor, wo die meisten Enthusiasten wohl nicht unbedingt interessieren würde, ob G300 nur eine 183W TDP hat oder 250W, solang die Leistung deutlich steigt.
Je höher der Verbrauch, umso lauter die Kühllösung. Ich finde selbst alles über 150 Watt lässt sich nichtmal annährend leise kühlen, da will ich mir keine 250 Watt vorstellen.
AnarchX
2009-08-27, 17:37:18
Hmmm...
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
Ob das nicht ganz unbeabsichtigt ist, dass diese GPUs im WHQL drin sind? ;)
Sind vermutlich G92b oder GT21x Abkömmlinge, Nvidia trau ich da alles zu...
AnarchX
2009-08-27, 17:46:07
Sieht in der Tat etwas nach GT21x Device-IDs aus.
=Floi=
2009-08-27, 17:48:04
anarch hat recht. die dynamischen taktraten ähnlich dem des intel turbo modus sind unterm strich auch nichts wert, weil man den chip gleich mit voller taktrate betreiben kann. Damit wäre mann dann auch auf dem papier wesentlich stärker und in der praxis erspart man sich eine menge arbeit für die logik. das ist schon bei intel totaler mist und nv kann sich soetwas auch sparen.
reunion
2009-08-27, 17:53:30
Das würde ich jetzt als "dynamischen" Takt interpretieren.
Das kann man auch als einfaches Powerplay verstehen. Falls es so kommen sollte mit dynamischen Takt je nach Auslastung wäre das wie schon erwähnt vorallem eine nette Stromsparfunktion und damit im mobile Markt interessant.
anddill
2009-08-27, 18:01:24
Und dann kommt einer und startet den Furmark :devil:
deekey777
2009-08-27, 18:06:07
Es sind so oder so "bis zu" Frequenzen auf dem Ding, ergo erstmal ueberhaupt nicht mit heutigem Zeug vergleichbar.
Oder Nvidia hat Overdrive entdeckt (auch wenn es nach "umgekehrtem" Overdrive klingt).
LovesuckZ
2009-08-27, 18:11:28
Hmmm...
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
Ob das nicht ganz unbeabsichtigt ist, dass diese GPUs im WHQL drin sind? ;)
Macht bestimmt jetzt schon Sinn die 3xx Mobile-Parts zu bringen - immerhin überschwemmt man ja gerade den Markt mit kaufbaren GT2xx Produkten. ;D
/edit: Wobei - es gibt keinen offiziellen Treiber für de GT21x Karten...
Armaq
2009-08-27, 18:20:13
Wenn es wahr ist, dann wäre es mMn. ein guter Schritt. Dynamische Last hat nur einen gravierenden Nachteil. Wie erkenne ich die Last? Opfere ich Transistoren, oder macht es der Treiber? Wenn es der Treiber macht, dann wird es keine adäquate Lösung.
Und dann kommt einer und startet den Furmark :devil:
Dann taktet sich der Chip auch innerhalb des TDP-Rahmen entsprechend. Das ist doch nichts anderes als Intels Overdrive.
anarch hat recht. die dynamischen taktraten ähnlich dem des intel turbo modus sind unterm strich auch nichts wert, weil man den chip gleich mit voller taktrate betreiben kann.
So ein Blödsinn. Die Taktraten von GPUs werden enorm durch die Abwärme limitiert. Vor allem kann man ziemlich gut festlegen ob eine Schaltung mehr Performance oder weniger Abwärme erzeugen soll. Das kann man dann auch entsprechend anders auslegen.
reunion
2009-08-27, 18:21:44
Wenn es wahr ist, dann wäre es mMn. ein guter Schritt. Dynamische Last hat nur einen gravierenden Nachteil. Wie erkenne ich die Last? Opfere ich Transistoren, oder macht es der Treiber? Wenn es der Treiber macht, dann wird es keine adäquate Lösung.
Vorallem kostet es nach allen Regeln der Kunst auch etwas Performance. Deshalb wird soetwas aktuell nur in Notebooks stark verwendet.
Wie erkenne ich die Last? Opfere ich Transistoren, oder macht es der Treiber? Wenn es der Treiber macht, dann wird es keine adäquate Lösung.
Natürlich nicht der Treiber. Das muss wenn es irgend etwas bringen soll für jeden State-Change anders gesteuert werden.
=Floi=
2009-08-27, 18:28:27
zitat
Vor allem kann man ziemlich gut festlegen ob eine Schaltung mehr Performance oder weniger Abwärme erzeugen soll. Das kann man dann auch entsprechend anders auslegen.
hä? anhand vom takt oder was meinst du jetzt?
mboeller
2009-08-27, 18:42:06
funktioniert die dynamische Taktanpassung dann so gut wie bei den Phenom? Also ruckeln bis der Funktionsblock hochgetaktet hat und wieder ruckeln wenn er dynamisch unter Last runtertaktet. :confused:
Ich stelle mir das sehr schwierig vor, das ganze wirklich im Spiel durchzuziehen.
StefanV
2009-08-27, 18:46:58
Naja, das ist aber auch wieder eine gewaltige Fehlerquelle, die massig Probleme machen könnte (und dementsprechend auch wird), naja, mal abwarten und Tee rauchen, wie das realisiert wird...
PS: warum soll das nicht der Treiber regeln können?
@mboeller
Da kannst dich aber eher bei M$ bedanken, denn eigentlich ist die Idee gut gewesen.
Problem ist der Windows Scheduler, der die Threads auf die Kerne nicht fest verteilt sondern alle Kerne mal etwas arbeiten lässt...
Armaq
2009-08-27, 18:51:11
Auf dem PII gehts doch prima? Ruckeln duch die C-States kenn ich nicht.
hä? anhand vom takt oder was meinst du jetzt?
Es gibt innerhalb einer Prozess-Node Transistoren mit hoher Leakage die schnell sind und solche die weniger leaken, dafür aber langsamer schalten.
Wenn man durch dynamische Taktanpassung Strom spart kann man entsprechend auch Schaltungen verbauen die davon mehr brauchen.
funktioniert die dynamische Taktanpassung dann so gut wie bei den Phenom? Also ruckeln bis der Funktionsblock hochgetaktet hat und wieder ruckeln wenn er dynamisch unter Last runtertaktet. :confused:
Ich stelle mir das sehr schwierig vor, das ganze wirklich im Spiel durchzuziehen.
Nochmal: Das ganze bringt nur etwas, wenn man innerhalb eines Frames (wenige ms) die Anpassung mehrere hundert mal durchführt. Die States von CPUs werden (bis auf die neuen von Intel) vom Betriebssystem gesteuert. Das funktioniert hier prinzipbedingt nicht.
PS: warum soll das nicht der Treiber regeln können?
Weil man die Last eines Shaders nicht kennt ohne ihn auszuführen.
mboeller
2009-08-27, 19:16:20
Auf dem PII gehts doch prima? Ruckeln duch die C-States kenn ich nicht.
das mit dem ruckeln war natürlich ein wenig übertrieben. Aber die PII haben durch C&Q ja öfters Probleme mit der Performance gehabt. Zumindest gibt es einige Reviews die das gezeigt haben.
Bei einer Grafikkarte könnte das dann zu einem Ruckeln führen wenn die Leistung nicht schnell genug zur Verfügung steht weil dieser Teil der GPU gerade "geruht" hat.
Sagt mal lest ihr überhaupt was ich schreibe?
mboeller
2009-08-27, 19:18:05
Nochmal: Das ganze bringt nur etwas, wenn man innerhalb eines Frames (wenige ms) die Anpassung mehrere hundert mal durchführt. Die States von CPUs werden (bis auf die neuen von Intel) vom Betriebssystem gesteuert.
Also machen das dann die Treiber, oder? Nur die "wissen" was gebraucht wird.
mboeller
2009-08-27, 19:18:37
Sagt mal lest ihr überhaupt was ich schreibe?
In dem Fall nicht, sorry. Hab ein wenig zu schnell geantwortet
Also machen das dann die Treiber, oder? Nur die "wissen" was gebraucht wird.
Bei CPUs oder dem was hier für GT300 spekuliert wird?
StefanV
2009-08-27, 19:22:47
Auf dem PII gehts doch prima? Ruckeln duch die C-States kenn ich nicht.
Öhm, nein, nicht mehr.
Beim P2 hat AMD das CnQ 2.0 wieder entsorgt, man taktet jetzt wieder alle Cores gleich, im Gegensatz zum Phenom1, wo die Kerne je nach last einzeln runter getaktet wurden.
Weil man die Last eines Shaders nicht kennt ohne ihn auszuführen.
Kennen nicht, aber man kanns ev. erahnen.
Erahnen nützt nichts, das muss man relativ genau wissen.
Ich nehme an dass der Chip nach einem State-Change erstmal alles auf volle Pulle stellt und dann relativ schnell feststellen könnte wo er "sparen" kann oder muss.
Gaestle
2009-08-27, 19:28:37
@Coda
Hältst Du das bei all den Problemen für möglich, dass sowas in dieser Extremform beim G(T)300 kommt?
LovesuckZ
2009-08-27, 20:12:31
Hmmm...
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
Ob das nicht ganz unbeabsichtigt ist, dass diese GPUs im WHQL drin sind? ;)
Ich muss nochmal darauf zurückkommen: Das würde nur Sinn machen, wenn zur selben Zeiten der Name 3xx eingeführt wurde. Selbst im Notebook macht es keinen Sinn mit Midrange zu kommen, wenn die GTX260/280 Chips in Notebooks noch deutlich schneller sind.
Ich spekukaliere daher: Umbenennung nur, wenn Desktop 3xx erscheint/erschienen ist.
Was ich mich gerade frage: Wenn der Release des GT200 so lange diskutiert wurde, muss doch neues besseres Highend absehbar gewesen sein?
reunion
2009-08-27, 22:10:50
Was ich mich gerade frage: Wenn der Release des GT200 so lange diskutiert wurde, muss doch neues besseres Highend absehbar gewesen sein?
Es ging angeblich nur darum ob man GT200 in 65nm noch bringt oder sich gleich auf GT200b in 55nm konzentriert.
KonKorT
2009-08-27, 23:41:39
Hmmm...
http://forums.laptopvideo2go.com/topic/24989-nvidia-forceware-186-82-released/
Ob das nicht ganz unbeabsichtigt ist, dass diese GPUs im WHQL drin sind? ;)
Was machen da denn noch GT und GTS. Dachte, die entfallen mit der Geforce 300-Reihe. ;)
Sorkalm
2009-08-28, 00:26:16
Was machen da denn noch GT und GTS. Dachte, die entfallen mit der Geforce 300-Reihe. ;)
Das wurde von irgendeiner anderen Seite/Person (weil die Quellenart nicht mehr) bereits dementiert. Steht jetzt also Aussage gegen Aussage.
=Floi=
2009-08-28, 03:41:05
zitat:
Es gibt innerhalb einer Prozess-Node Transistoren mit hoher Leakage die schnell sind und solche die weniger leaken, dafür aber langsamer schalten.
Wenn man durch dynamische Taktanpassung Strom spart kann man entsprechend auch Schaltungen verbauen die davon mehr brauchen.
dann bekomme ich einen chip wie bei ati. (1600 gflop, die ich in der praxis nicht nützen kann) ich bin von dieser idee nicht begeistert.
Ailuros
2009-08-28, 06:48:28
Falls das wirklich stimmt, dann könnte man dadurch enorm viel Performance rausholen, weil die Last zwischen TMU, ALUs und ROPs in einem Frame extrem schwankt.
Z.B. wird bei Z-Fill-Passes praktisch nur ROP-Leistung gebraucht. Wenn man deren Takt erhöht und den der ALUs verringert kann man bei gleichem Energieverbrauch deutlich mehr Füllrate haben.
Es schwirrt ja auch noch die eher merkwuerdige These herum der Vereinigung von TMUs und ROPs (fuer alle X11 GPUs); glauben kann ich es persoenlich aber noch nicht.
reunion,
Ich lass mich gerne korrigieren aber fuer mich ist Powerplay eine fortschrittliche Form von clock gating (welches in primitiveren Formen schon immer auf GPUs gab); der neueste und beste "Schrei" fuer alle GPUs waere power gating, ie man schaltet Einheiten im idle Modus komplett ab und da ich fuer weder/noch genaueres habe bleibt abzuwarten wofuer Powerplay2 genau steht.
Was jetzt mobiles und eingebettes Zeug betrifft siehe Tegra2 und ION2 bis zu einem Mass und dann spaeter echte 3xx Abkoemmlinge.
Oder Nvidia hat Overdrive entdeckt (auch wenn es nach "umgekehrtem" Overdrive klingt).
Nein. Legen wir mal die Tatsache zur Seite dass jegliche GPU clock domains hat, hat keine GPU ausser GFs so radikale Taktunterschiede wie ab G80. Bei den heutigen sind diese Frequenzen aber quasi festgenagelt unter Last; bei der neuen Generation sollen diese je nach Bedarf variieren wobei natuerlich die wichtigste Frage bleibt wie der jeweilige Bedarf genau erkannt wird (stets theoretisch).
Was machen da denn noch GT und GTS. Dachte, die entfallen mit der Geforce 300-Reihe. ;)
Wenn es sich erstmal bei dem Mist ueber echte 3xx GPUs handelt. Falls das Geruecht stimmt dass NV wieder GT21x auf GT3xx umbenennt haben sie tatsaechlich nicht mehr alle Tassen im Schrank.
horn 12
2009-08-28, 07:20:31
Wenn doch wird es nichts mehr mit dem "echten" GT300 dieses Jahr, und soll wohl ne Kundentäuschung werden... Grrr!
Ailuros
2009-08-28, 07:24:45
Wenn doch wird es nichts mehr mit dem "echten" GT300 dieses Jahr, und soll wohl ne Kundentäuschung werden... Grrr!
Och einige werden sich schon darueber freuen koennen ;) Wie dem auch sei mir persoenlich ist es lieber wenn sie in ihrer Ecke steckenbleiben und gar nichts tun als dass sie mir mit irgend einem faulen Paperlaunch antanzen. Wenn mich jemand auf etwas Neues heiss machen will, sollte ich auch innerhalb logischer Zeit faehig sein es zu kaufen.
mboeller
2009-08-28, 08:06:20
Wenn es sich erstmal bei dem Mist ueber echte 3xx GPUs handelt. Falls das Geruecht stimmt dass NV wieder GT21x auf GT3xx umbenennt haben sie tatsaechlich nicht mehr alle Tassen im Schrank.
Betrifft das auch deine Einschätzung bzw. deine Informationen, das Nvidia viel schneller als gedacht Mainstream + Performance DX11 Karten auf den Markt bringen wird?
Wenn man jetzt renamed GT2xx(m) als GT3xx(m) Karten bringt kann man ja in einem halben Jahr nicht richtige GT3xx(m) Karten bringen, oder?
Werden dann die richtigen DX11-Karten GT4xx(m) heißen, oder was erwartest du?
Laut charly kommen ja dieses jahr GT300 Karten, insofern...
LovesuckZ
2009-08-28, 10:24:16
Betrifft das auch deine Einschätzung bzw. deine Informationen, das Nvidia viel schneller als gedacht Mainstream + Performance DX11 Karten auf den Markt bringen wird?
"Viel schneller"? Wann sollte denn eine Veröffentlichung "ursprüngliche" vorgesehen gewesen sein? Wenn wir G80 und G84 zum Vergleich nehmen, dann müssten die Karten sich vom April auf früher vorziehen. Glaube ich nicht.
Wenn man jetzt renamed GT2xx(m) als GT3xx(m) Karten bringt kann man ja in einem halben Jahr nicht richtige GT3xx(m) Karten bringen, oder?
Ein Umbenennen in GT3xx macht ohne High-End keinen Sinn. Wieso lohnt sich denn ein "rebranden"? Man nimmt den meist positiven Eindruck mit. Und sind wir ehrlich: Wenn nVidia in GT3xx umbenennt, dann werden sie dafür ziemliche Kritik ernten, da jeder Reviewer darauf zu sprechen kommt.
Laut charly kommen ja dieses jahr GT300 Karten, insofern...
Nein, er geht weiterhin von 2010 aus.
Nein, er geht weiterhin von 2010 aus.
Zuletzt hat er was über metal layers und pr stunt in 2009 geblubbert
Ailuros
2009-08-28, 10:41:59
"Viel schneller"? Wann sollte denn eine Veröffentlichung "ursprüngliche" vorgesehen gewesen sein? Wenn wir G80 und G84 zum Vergleich nehmen, dann müssten die Karten sich vom April auf früher vorziehen. Glaube ich nicht.
Hypothese: je mehr sich high end verspaetet desto naeher ruecken die kleineren Modelle einer neuen Generation.
Ein Umbenennen in GT3xx macht ohne High-End keinen Sinn. Wieso lohnt sich denn ein "rebranden"? Man nimmt den meist positiven Eindruck mit. Und sind wir ehrlich: Wenn nVidia in GT3xx umbenennt, dann werden sie dafür ziemliche Kritik ernten, da jeder Reviewer darauf zu sprechen kommt.
Das dumme ist eben:
http://forum.beyond3d.com/showpost.php?p=1326680&postcount=56
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
NVIDIA_DEV.0A20.01 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0A28.01 = "NVIDIA GeForce GT 230M"
NVIDIA_DEV.0A29.01 = "NVIDIA N11P-GE1"
NVIDIA_DEV.0A2A.01 = "NVIDIA GeForce GT 230M "
NVIDIA_DEV.0A2B.01 = "NVIDIA N11P-LP1"
NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"
NVIDIA_DEV.0CB1.01 = "NVIDIA N11E-GS1"
NVIDIA_DEV.0CBC.01 = "NVIDIA N10P-GLM4"
http://forum.beyond3d.com/showpost.php?p=1326702&postcount=58
http://forum.beyond3d.com/showpost.php?p=1326749&postcount=62
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
the same board in 186.42:
NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"
According to HWiNFO, N11P is GT216:
new GT216 models: GeForce GT 220, D10M2-10, D10M2-20, GeForce GT 230M, GeForce GT 240M, N11P-ES, GT216-INT.
GeForce GT 220/GT 230M/GT 240M (GT216, D10M2, N10P, N11P)
Ich will hoffen dass es sich nur um einen harmlosen Fehler handelt.
LovesuckZ
2009-08-28, 10:52:18
Hypothese: je mehr sich high end verspaetet desto naeher ruecken die kleineren Modelle einer neuen Generation.
Aber das führt ja nicht dazu, dass andere Chips sich automatisch vorverlegen. Ich sehe keinen Grund, warum die Mainstream-GPUs z.B früher als im April kommen sollten.
Das dumme ist eben:
http://forum.beyond3d.com/showpost.php?p=1326680&postcount=56
http://forum.beyond3d.com/showpost.php?p=1326702&postcount=58
http://forum.beyond3d.com/showpost.php?p=1326749&postcount=62
Ich will hoffen dass es sich nur um einen harmlosen Fehler handelt.
GT230 ist non-existent für nVidia. Weder über die Produkt- noch die über Treiberseite ist die Karte aufrufbar noch wird auf sie verwiesen. Und die Informationen auf dieser komischen Seite sind genauso "erdacht" wie auf jeder Gerüchteseite.
Ich bleibe dabei: Umbenennen ohne High-End und D3D11 ist nicht durchführbar, weil einfach der Hype vom High-End fehlt.
GT230 ist offiziell - aber nur für OEM
http://ht4u.net/news/20803_geforce_gt_230_offiziell_bestaetigt_-_aber_nur_fuer_oem/
http://www.nvidia.de/object/geforce_family_de.html
LovesuckZ
2009-08-28, 11:04:57
GT230 ist offiziell - aber nur für OEM
http://ht4u.net/news/20803_geforce_gt_230_offiziell_bestaetigt_-_aber_nur_fuer_oem/
http://www.nvidia.de/object/geforce_family_de.html
Ein deutsches "Produkt" also. Auf der amerikanischen Seite ist die GT230 nichtmal erwähnt. Es wäre es natürlich mal interessant, ob Medion und HP extra Treiber bereitstellen - immerhin wird in den offiziellen Treibern keine GT230 unterstützt...
mboeller
2009-08-28, 11:24:52
ich habe die Medion GT230 eigentlich nicht mit einbezogen sondern nur das (mögliche) Renaming der neuen 40nm Karten/GPUs:
http://www.nordichardware.com/news,9681.html [GT230 im Dezember]
Nach den Postings auf Beyond3D könnte Nvidia diese GPUs dann als GT3xx(m) auf den Markt bringen. Wenn gleichzeitig der G300 zumindest als Paperlaunch kommt würde es sehr gut passen. Mit richtigen DX11 Mainstream+Performance Karten wäre dann aus meiner Sicht von Nvidia erst in Q3/2010 zu rechnen. Das wäre IMHO sehr spät.
Deshalb meine Frage, ob sich Ailuros immer noch so sicher ist, das die DX11 Mainstream+Performance Karten von Nvidia schneller kommen werden als wir alle denken (oder ob er durch das Renaming in die Irre geführt worden ist).
Deshalb meine Frage, ob sich Ailuros immer noch so sicher ist, das die DX11 Mainstream+Performance Karten von Nvidia schneller kommen werden als wir alle denken (oder ob er durch das Renaming in die Irre geführt worden ist).
So wie ich in verstanden habe:
- Release des Highend zum zeitpunkt x
- Release Mainstream zeitpunkt x+3
- Verschiebt sich nun Highend um zwei monate (y=x+2), kommt mainstream in y+1, also nur noch 1 monat nach highend
reunion
2009-08-28, 11:48:39
So wie ich in verstanden habe:
- Release des Highend zum zeitpunkt x
- Release Mainstream zeitpunkt x+3
- Verschiebt sich nun Highend um zwei monate (y=x+2), kommt mainstream in y+1, also nur noch 1 monat nach highend
Das ist ohnehin klar. Nur da die DX10.1-Chips noch nicht mal erhältlich sind und es danach aussieht als ob man sie Ende des Jahres in die GT3xx-Serie eingliedert wirkt das für mich nicht danach als ob die DX11-Chips so schnell kommen würden. Vielleicht für einen Performancechip als Konkurrenz zu RV870 wäre Platz, denn da hat man sonst nichts.
LovesuckZ
2009-08-28, 12:13:07
Natürlich sind die 10.1 Chips erhältlich - Notebook wie OEM.
Ailuros
2009-08-28, 12:14:21
Aber das führt ja nicht dazu, dass andere Chips sich automatisch vorverlegen. Ich sehe keinen Grund, warum die Mainstream-GPUs z.B früher als im April kommen sollten.
Die Entwicklung dieser wurde schon seit einiger Zeit vorgezogen; ausser Du glaubst dass die gesamten GT212 und 214 Teams seit Mitte 2008 auf Barbados in Haengematten ihre Hintern braeunen. Und damit ich nicht falsch verstanden werde ich glaube immer noch dass selbst wenn G300 selbst im Oktober auf Regalen hocken wird dass es nicht 6 Monate bis zur Verfuegbarkeit kleinerer X11 GPUs dauern wird.
GT230 ist non-existent für nVidia. Weder über die Produkt- noch die über Treiberseite ist die Karte aufrufbar noch wird auf sie verwiesen. Und die Informationen auf dieser komischen Seite sind genauso "erdacht" wie auf jeder Gerüchteseite.
Ich bleibe dabei: Umbenennen ohne High-End und D3D11 ist nicht durchführbar, weil einfach der Hype vom High-End fehlt.
Ich sagte lediglich dass ich hoffe dass es sich um einen bloeden Fehler handelt. Falls es je zu einer solcher Umbennenung kommen sollte gilt Dein letzter Satz sowieso nicht weil es sich nie um echte X11 GPU Varianten handeln wuerde. Und nein unmoeglich ist es ueberhaupt nicht.
reunion
2009-08-28, 12:16:53
Natürlich sind die 10.1 Chips erhältlich - Notebook wie OEM.
Das bezog sich natürlich auf den Retailmarkt. Man wird diese wohl kaum Ende des Jahres Launchen und dann ein paar Wochen später schon wieder was neues bringen.
LovesuckZ
2009-08-28, 12:17:23
Ich sagte lediglich dass ich hoffe dass es sich um einen bloeden Fehler handelt. Falls es je zu einer solcher Umbennenung kommen sollte gilt Dein letzter Satz sowieso nicht weil es sich nie um echte X11 GPU Varianten handeln wuerde. Und nein unmoeglich ist es ueberhaupt nicht.
Eine Umbenennung von heutigen Karten in 3xx ohne echtes neues High-End ist einfach unsinnig. Das Problem ist, dass es keinen Hype gibt, der die Karten mitzieht.
Das bezog sich natürlich auf den Retailmarkt. Man wird diese wohl kaum Ende des Jahres Launchen und dann ein paar Wochen später schon wieder was neues bringen.
Warum nicht? Der Zeitplan sah nie vor, dass die Karten erst im 4.Q kommen. Und ich glaube nicht, dass das Volumen im Retailmarkt so groß sein wird, dass hier Probleme auftreten. Die karten sehen für außerdem als reine Billiglösungen aus - D3D11 Mainstream wäre wesentlich höhrerpreisiger.
Ailuros
2009-08-28, 12:23:16
Eine Umbenennung von heutigen Karten in 3xx ohne echtes neues High-End ist einfach unsinnig. Das Problem ist, dass es keinen Hype gibt, der die Karten mitzieht.
Erzaehl mir dass alles was NVIDIA's marketing Abteilung anstellt immer Sinn macht und wir koennen dann auf der Basis diskuttieren.
Zurueck zu etwas anderem nicht direkt relevant zum Thread:
http://www.fudzilla.com/content/view/15266/1/
reunion
2009-08-28, 12:27:23
Eine Umbenennung von heutigen Karten in 3xx ohne echtes neues High-End ist einfach unsinnig. Das Problem ist, dass es keinen Hype gibt, der die Karten mitzieht.
Leute welche sich rein von der Nummer blenden lassen kaufen ohnehin auch nur nach der Nummer. Wer einen Test eines GT3xx High-End-Chips gesehen hat der ihn überzeugt hat wird wohl auch wissen wie gut oder schlecht die kleineren Ableger sind.
LovesuckZ
2009-08-28, 12:31:02
Leute welche sich rein von der Nummer blenden lassen kaufen ohnehin auch nur nach der Nummer. Wer einen Test eines GT3xx High-End-Chips gesehen hat der ihn überzeugt hat wird wohl auch wissen wie gut oder schlecht die kleineren Ableger sind.
Darum geht es doch: Wenn es kein High-End gibt, macht eine Umbenennung bzw. Eingliederung in ein 3xx Schema keinen Sinn. Und wenn es jetzt schon Gerüchte gibt, dass G210 und GT240 in den Retailmarkt kommen, dann sollten 3xx Umbenennungen kaum der Rede wert sein.
reunion
2009-08-28, 12:32:49
Zurueck zu etwas anderem nicht direkt relevant zum Thread:
http://www.fudzilla.com/content/view/15266/1/
So kann man sich als NV auch einem Konkurrenten entledigen, wenn man einfach die halbe Mannschaft abwirbt. Wenn das so weiter geht gibt es bei AMD bald kein Management mehr. Das halbe Management würde inzwischen schon von anderen Firmen abgeworben oder ist nach dem Zusammenschluss mit AMD gegangen. Für gewöhnlich kein gutes Zeichen.
Ailuros
2009-08-28, 12:53:42
So kann man sich als NV auch einem Konkurrenten entledigen, wenn man einfach die halbe Mannschaft abwirbt. Wenn das so weiter geht gibt es bei AMD bald kein Management mehr. Das halbe Management würde inzwischen schon von anderen Firmen abgeworben oder ist nach dem Zusammenschluss mit AMD gegangen. Für gewöhnlich kein gutes Zeichen.
Dass es kein gutes Zeichen fuer AMD ist sollte klar sein. Sonst wuerde jeder IHV ein erfahrenes Talent einstellen fuer eine Luecke die man so oder so fuellen wuerde und es ist dann auch egal wo er frueher arbeitete. Es ist ja nicht gerade so dass es einen Unmenge von IHVs dort draussen gibt die sich mit Grafik beschaeftigen.
Abwirbt? Die sind doch vorher schon gegangen (worden).
[fu]121Ah@work
2009-08-28, 13:50:11
pff, die managementfuzzys sind doch egal, die entwickeln ja eh nix sondern quatschen nur den lieben langen tag rum.
aehmkei
2009-08-28, 14:17:24
Genau und jetzt Stammtischniveau oder wie?
=Floi=
2009-08-28, 14:46:29
kommt es bei den kleineren ablegern auch zu einer verdreifachung/verdopplung der leistung? wäre auch ganz nett.
Lenon
2009-08-28, 19:45:32
121Ah@work;7498817']pff, die managementfuzzys sind doch egal, die entwickeln ja eh nix sondern quatschen nur den lieben langen tag rum.
Ui ... du hast ja voll den Plan oder ?
Aber wie verhält es sich denn, wenn NVidia jemanden aus dem "engineering operations" abwirbt. Hat der nicht "Insiderinfos" über zb RV870 oder sogar die Richtung von RV970 ? Gibts da keine Sperrfristen ? Ich weiß noch was das für ein heck meck war, als ich in ein Branchennahes Unternehmen wechselte und ich bin nur popliger Entwickler und kein "vice president"
Gruß
mboeller
2009-08-28, 20:04:04
Demo's oder mehr?
http://www.brightsideofnews.com/news/2009/8/28/nvidia-plans-gt300-demos-for-late-september.aspx
Dann wird der doch Oktober vieleicht schon erhältlich sein? :)
nagus
2009-08-28, 23:43:51
Dann wird der doch Oktober vieleicht schon erhältlich sein? :)
oder was auch möglich wäre: ein "ablenkungsmanöver" zu AMDs 58xx serie
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http://news.mydrivers.com/1/143/143284.htm&prev=hp&rurl=translate.google.com
http://news.mydrivers.com/Img/20090829/S04151351.jpg
Das Bild ist ein bekannter Fake.
[fu]121ah@home
2009-08-29, 03:36:36
Ui ... du hast ja voll den Plan oder ?
Aber wie verhält es sich denn, wenn NVidia jemanden aus dem "engineering operations" abwirbt. Hat der nicht "Insiderinfos" über zb RV870 oder sogar die Richtung von RV970 ? Gibts da keine Sperrfristen ? Ich weiß noch was das für ein heck meck war, als ich in ein Branchennahes Unternehmen wechselte und ich bin nur popliger Entwickler und kein "vice president"
Gruß
zynismus ahoi?
Ailuros
2009-08-29, 06:50:23
Demo's oder mehr?
http://www.brightsideofnews.com/news/2009/8/28/nvidia-plans-gt300-demos-for-late-september.aspx
Es kann sein dass ich mich verdammt verzettelt habe aber afaik hat Tegra2 keine Verwandschaft mit der X11 Generation; es duerfte eher GT21x basierendes Material sein. Einfache Logik: es waere schon ein ziemliches Wunder wenn nach seinem eigenen Geblubber schon im Februar 2010 ein eingebetteter G3xx core erscheinen wuerde:
http://www.brightsideofnews.com/news/2009/8/13/2nd-gen-nvidia-tegra-will-be-40025-faster-than-tegra-650!.aspx
Von dem heutigem getrennten PS-VS Tegra Zeug bis zu einem theoretischen GT21x basierendem USC kann man schon einiges an Leistung dazugewinnen egal ob ihre Marketingmaschine bis jetzt behaupten wollte dass USC bis DX9 keinen Sinn macht.
Sonst muss Theo wirklich sehr gute "Quellen" haben die sich sogar ueber mehrere Kontinente verstreuen. Entweder liegt etwas daran oder er hat einfach ein ueberfuettertes Koala in Australien befragt. Wenn man zu viel Eukalyptus kaut sind Halluzinationen normal.
In den naechsten Tagen wird sich das Ganze wohl schon klaeren und wir werden sehen ob was daran liegt. Damit ich nicht falsch verstanden werde: NV hat seit Anfang Sommer strengstens zu allen Seiten dicht gehalten und jetzt ploetzlich plaudert die halbe Welt aber nur mit Theo....
Ui ... du hast ja voll den Plan oder ?
Aber wie verhält es sich denn, wenn NVidia jemanden aus dem "engineering operations" abwirbt. Hat der nicht "Insiderinfos" über zb RV870 oder sogar die Richtung von RV970 ? Gibts da keine Sperrfristen ? Ich weiß noch was das für ein heck meck war, als ich in ein Branchennahes Unternehmen wechselte und ich bin nur popliger Entwickler und kein "vice president"
Gruß
Du meinst einen waschechten hardware engineer z.B. oder? Neben den NDAs wird bei IHVs heutzutage jede gute Idee patentiert. Ein Patent kann man nicht "mitnehmen" wenn man vom einen zum anderen IHV huepft. Das einzige was sie normalerweise mitnehmen ist ihre Erfahrung.
Dass mit dem "vice president" kommt auf den Fall an; es gibt in der Branche genug hochrangige Angestellte die als engineers angefangen haben und auch einige Patente fuer ihre Firma eingereicht haben. Hier gilt zwar IMO das Gleiche wie oben, aber es kommt eben auf den Fall an und was jeder in der Vergangenheit anstellte. Ex-ATI Dave Orton kam aus der vorigen ArtX Schmiede und wurde zu ATI Zeiten hochrangig eingesetzt obwohl er fuer ArtX aktiv entwickelte als Beispiel. Ein Gegenbeispiel waere Brian Burke ex-3dfx PR Fritze und heutzutage NV PR, ohne jegliche engineering Aktivitaet in der Vergangenheit afaik.
In den naechsten Tagen wird sich das Ganze wohl schon klaeren und wir werden sehen ob was daran liegt.
So bald schon? Die Frage wird wohl sein, wie lange die Zeitspanne zwischen Voraninfo + NDA (jetzt wohl September) und Launch/Vorstellung liegt.
Aber irgendwas scheint sich geändert zu haben. Vor kurzem (kann den Post leider nicht mehr finden) hast du irgendeine Ankündigung im Sep noch ausgeschlossen.
Naja, Theos Quellen sind wirklich über mehrer Kontinente verstreut: rwt, chiphell, b3d und bestimmt noch ein paar andere Webseiten.
Was steht in dem Blurb jetzt eigentlich substantiell neues?
Ailuros
2009-08-29, 10:47:38
So bald schon? Die Frage wird wohl sein, wie lange die Zeitspanne zwischen Voraninfo + NDA (jetzt wohl September) und Launch/Vorstellung liegt.
Aber irgendwas scheint sich geändert zu haben. Vor kurzem (kann den Post leider nicht mehr finden) hast du irgendeine Ankündigung im Sep noch ausgeschlossen.
Es hat sich gar nichts geaendert ausser dass Theo hoechstwahrscheinlich mal wieder ein paar hits mehr brauchte.
***edit: zwar sind unter jeglicher Situation die Faktoren unterschiedlich die zu jeglichem strategischem Zug beitragen, aber falls es helfen sollte erinner Dich dran wie und wann GT200 angekuendigt wurde.
gt200 wurde unspekrakulaer in muechen angekuendigt
Ailuros
2009-08-29, 11:33:52
gt200 wurde unspekrakulaer in muechen angekuendigt
...und es gab auch guten Grund dazu. Bleibt jetzt abzusehen warum noch keiner etwas weiss knapp 1 Monat vor dem angeblichem "grossen Tag"....
ich fand es merkwuerdig, kam doch der g200 zwei wochen vor ati
Ailuros
2009-08-31, 07:31:50
Wenn man Theo glauben sollte deutet er auf den 30/09 auf die GPU conference an. Ich hab keine Ahnung ob sie dort irgendetwas vorzeigen, andeuten oder sogar vorankuendigen werden aber ich glaube eher dass ihr momentanes Ziel eher kurz vor der Hemlock Vorstellung liegen koennte als alles andere.
LovesuckZ
2009-08-31, 09:20:08
Es gibt laut der Agenda ein 2 stündiges Tutorial über D3D11. Ich glaube nicht, dass sie die Präsentation von der nVision 08 nochmal ausgraben.
Die Entwicklung dieser wurde schon seit einiger Zeit vorgezogen; ausser Du glaubst dass die gesamten GT212 und 214 Teams seit Mitte 2008 auf Barbados in Haengematten ihre Hintern braeunen.
Ich hab das vergestern zu kommentieren: Selbst wenn sie die Produkte von z.B. April auf Februar vorverlegen könnten, wäre es einfach zu spät, da AMD die potentiellen Käufer schon längst abgegrast hätte. Man sollte sich im Grunde die Entwicklung schenken und auf die nächsten Karten gehen, um wieder einen zeitlichen Vorteil zu haben.
Aus meiner Sicht sollte sich nVidia überlegen, ob man den Desktopmarkt nicht nur noch halbsherzig begegnen sollte und sich verstärkt auf andere Märkte konzentrieren. Man muss sich einfach nur vorstellen, dass nVidia mit 1/3 des Umsatzes- aus Desktop und Notebookbereich im Workstationbereich fast 60 Millionen mehr Gewinn erwirtschaftet. Workstation- und Chipsatzgeschäft erwirtschaften beim selben Umsatz fast 100 Millionen $ Gewinn - die Desktopsparte ca. 20 Millionen Verlust. Desktop ist zZ einfach tot.
Ailuros
2009-08-31, 13:45:53
Ich hab das vergestern zu kommentieren: Selbst wenn sie die Produkte von z.B. April auf Februar vorverlegen könnten, wäre es einfach zu spät, da AMD die potentiellen Käufer schon längst abgegrast hätte. Man sollte sich im Grunde die Entwicklung schenken und auf die nächsten Karten gehen, um wieder einen zeitlichen Vorteil zu haben.
Dann haetten sie sich auch gleich GT21x@40nm komplett sparen koennen.
Aus meiner Sicht sollte sich nVidia überlegen, ob man den Desktopmarkt nicht nur noch halbsherzig begegnen sollte und sich verstärkt auf andere Märkte konzentrieren. Man muss sich einfach nur vorstellen, dass nVidia mit 1/3 des Umsatzes- aus Desktop und Notebookbereich im Workstationbereich fast 60 Millionen mehr Gewinn erwirtschaftet. Workstation- und Chipsatzgeschäft erwirtschaften beim selben Umsatz fast 100 Millionen $ Gewinn - die Desktopsparte ca. 20 Millionen Verlust. Desktop ist zZ einfach tot.
Wuerde NV vollherzig den Desktop-Markt bedienen haetten sie schon seit langem vielleicht ihre Strategie dieser von AMD angepasst. Uebrigens ist es ein Frevel das Kerngeschaeft aufzugeben mit dem eigentlich angefangen hat....
***edit: ich denke die meisten haben mitbekommen dass es mit FW 190.62 ziemlich gravierende Probleme mit der Frequenzverwaltung von GT200 boards unter Vista gibt oder? Tja wenn unter Druck steht richtet man X und f*x0red auf Versehen Y....klingt mir absolut normal LOL ;)
aylano
2009-08-31, 15:16:56
Ob Februar oder April ist aus OEM-Sicht eh fast wurscht.
Ein wichtiger Meilenstein ist Anfang 2010, wenn Clarkdale & Allendale daherkommt.
Und da dürfte Nvidias Mainstream zu spät kommen.
Genau dieses Problem hatte ATI ziemlich die ganze R6x0-(inkl. RV7x0) Archiktur, die häufig kurz nach den wichtigen Meilensteine (=Neue Plattform --> viele neue Modelle) eingeführt wurden, während Nvidia damals von Anfang an sie Zeitlich gut einführte.
Dadurch war Nvidia am Anfang voll dabei, und ATI tröpfelte in den nächsten Monate bis zum nächsten Meilenstein langsam in den Markt.
Wobei ATI die DX11-Mobil Maintream wieder nur im 1H 2010 einführen soll, was momentan auch nicht optimal für die Allendale-Einführung ausieht.
Ailuros
2009-08-31, 15:26:35
Unter der Vorraussetzung dass es bei Intel keine einzige Verspaetung geben wird ;)
=Floi=
2009-09-01, 03:04:40
zitat
Dann haetten sie sich auch gleich GT21x@40nm komplett sparen koennen.
diese chips hat bis jetzt noch keiner befürwortet und nach dem G92 GF8 --> GF9 --> GT1XX hätte man sich das auch sparen können. den laptop markt gräbt auch der chip nicht mehr um.
irgendo ist das ganze rausgeworfenes geld.
mapel110
2009-09-01, 03:19:35
1. Testlauf für 40nm
2. OEM-Deals -> Checklistenfeature D3D 10.1
3. Es wird so schnell in dem Bereich nichts Neues nachrücken
Irgendwas wird sich NV schon dabei gedacht haben. Aber ist ja eh schon alles genannt worden.
interessant das in vielen Foren geglaubt wird,dass weil NV später kommt,dass sie dann schnellere Karten haben müssen.Wer Erfahrung hat,weiß dass das garnichts heißt.
Ailuros
2009-09-01, 06:36:41
zitat
Dann haetten sie sich auch gleich GT21x@40nm komplett sparen koennen.
diese chips hat bis jetzt noch keiner befürwortet und nach dem G92 GF8 --> GF9 --> GT1XX hätte man sich das auch sparen können. den laptop markt gräbt auch der chip nicht mehr um.
irgendo ist das ganze rausgeworfenes geld.
Ein Grafik IHV sollte unter normalen Bedigungen alle Maerkte die mit Grafik zu tun haben bedienen, egal ob bei A oder B geringer oder gar kein Gewinn ankommt. Ausser Du glaubst NV macht seit Jahren irgendwelchen Gewinn aus der chipset-Sparte.
interessant das in vielen Foren geglaubt wird,dass weil NV später kommt,dass sie dann schnellere Karten haben müssen.Wer Erfahrung hat,weiß dass das garnichts heißt.
Ein Flop bleibt ein Flop egal wenn er ankommt so viel ist wahr. Es heisst aber nicht dass wenn X spaeter ankommt dieser mir nichts dir nichts ein Flop sein muss.
pervert
2009-09-01, 09:00:02
interessant das in vielen Foren geglaubt wird,dass weil NV später kommt,dass sie dann schnellere Karten haben müssen.Wer Erfahrung hat,weiß dass das garnichts heißt.
Wenn RV870 wirklich nur 60% schneller als RV770 ist (http://www.fudzilla.com/content/view/15287/34/), dann glaube ich mittlerweile sogar daran, dass GT300 möglicherweise mit ner 5870X2 mithalten könnte. (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet)
Cpl. Dwayne Hicks
2009-09-01, 09:35:32
Nun mal abwarten... beim RV770 hat auch niemand mit 800 SPs gerechnet und er hat auch besser performed als erwartet.
Undertaker
2009-09-01, 10:23:02
Mit einem 256Bit SI sind möglichen Performancesprüngen aber Grenzen gesetzt, womit sollten >1600 SPs gefüttert werden?
reunion
2009-09-01, 10:23:28
Wenn RV870 wirklich nur 60% schneller als RV770 ist (http://www.fudzilla.com/content/view/15287/34/), dann glaube ich mittlerweile sogar daran, dass GT300 möglicherweise mit ner 5870X2 mithalten könnte. (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet)
Die 60% beziehen sich laut AiL auf die 5850 und sind vorallem nur ca. die theoretische TFLOP-Erhöhung. Also von 1.2TFLOPs auf 2TFLOPs mit der 5850. Die 5870 könnte damit durchaus >2.5 TFLOPs liegen.
Tarkin
2009-09-01, 13:38:47
http://www.digitimes.com/news/a20090901PD204.html
Nvidia and AMD readying for DirectX 11
Monica Chen, Taipei; Joseph Tsai, DIGITIMES [Tuesday 1 September 2009]
... Nvidia is scheduled to complete engineering samples of its DirectX 11-based GT300 GPU at the end of September in order to start shipping in December at the earliest, the sources noted....
Somit sollten "Überraschungen" ziemlich ausgeschlossen sein. Es gibt noch nicht mal ordentlich lauffähige Engineering Samples
deekey777
2009-09-01, 13:48:06
Vielleicht hat man aber genügend unordentlich laufende ES?
mapel110
2009-09-01, 13:48:41
Vielleicht hat man aber genügend unordentlich laufende ES?
Hat man sicher, auf irgendwas muss man ja die Treiber schreiben.
Tarkin
2009-09-01, 14:21:13
Vielleicht hat man aber genügend unordentlich laufende ES?
Wie auch immer... jedenfalls nicht gut genug :wink:
Spasstiger
2009-09-01, 14:30:18
Wenn RV870 wirklich nur 60% schneller als RV770 ist (http://www.fudzilla.com/content/view/15287/34/), dann glaube ich mittlerweile sogar daran, dass GT300 möglicherweise mit ner 5870X2 mithalten könnte. (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/18/#abschnitt_performancerating_qualitaet)
Du darfst die Taktraten nicht außer Acht lassen.
Eine HD 5870 soll Gerüchten zufolge deutlich höher takten als eine HD 4870 und die HD 5870 X2 nochmal ein Stück höher.
Wenn man davon spricht, dass ein Chip um x% schneller ist als ein anderer, dann bezieht man sich dabei auf identische Taktraten.
Armaq
2009-09-01, 14:35:51
Du darfst die Taktraten nicht außer Acht lassen.
Eine HD 5870 soll Gerüchten zufolge deutlich höher takten als eine HD 4870 und die HD 5870 X2 nochmal ein Stück höher.
Wenn man davon spricht, dass ein Chip um x% schneller ist als ein anderer, dann bezieht man sich dabei auf identische Taktraten.
Seit wann bezieht man sich bei der Performance auf die Taktrate? Man bezieht sich einzig auf die Performance. Wie die erreicht wird ist einfach egal.
LovesuckZ
2009-09-01, 14:38:35
Vielleicht hat man aber genügend unordentlich laufende ES?
Die selben Aussagen gab es auch beim GT200 - dort wurde noch im April von einem späten Q3 Launch gesprochen. Es gibt sogar Gerüchte, dass der GT200 sein Tape-Out erst im März 2008 gehabt haben sollte - drei Monate später konnte man Karten kaufen.
James Ryan
2009-09-01, 14:43:51
Wenn man davon spricht, dass ein Chip um x% schneller ist als ein anderer, dann bezieht man sich dabei auf identische Taktraten.
Wann hat man dies in der Vergangenheit jemals getan? :freak:
MfG :cool:
Spasstiger
2009-09-01, 14:50:14
Seit wann bezieht man sich bei der Performance auf die Taktrate? Man bezieht sich einzig auf die Performance. Wie die erreicht wird ist einfach egal.
Wann hat man dies in der Vergangenheit jemals getan? :freak:
MfG :cool:
Was soll denn die Performance des RV870 und des RV770 genau sein? Ihr unterstellt, dass es genau einen RV770 und einen RV870 gibt mit jeweils exakt festgelegten Taktraten. D.h. dass alle RV770-basierenden Karten genau gleich takten. Und das ist ja nicht der Fall. Ergo macht eine Aussage, dass der RV870 um 60% schneller ist als der RV770, nur dann Sinn, wenn man bei gleichen Taktraten vergleicht.
Oder steh ich jetzt auf dem Schlauch und hab was verpasst?
James Ryan
2009-09-01, 14:55:31
Eigentlich heißt der Vergleich RV770 vs. RV870:
Die schnellste RV770 Version (also die HD 4870/1G) vs. schnellste RV870 Version (HD 5870/1G).
Das wurde in der Vergangenheit auch schon so gemacht, alles andere macht auch nur bedingt Sinn. ;)
MfG :cool:
crux2005
2009-09-01, 15:12:28
aber laut Ail hat Fudo die HD 4870 mit der HD 5850 Verglichen
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7505355&postcount=2930
Armaq
2009-09-01, 15:19:59
Was soll denn die Performance des RV870 und des RV770 genau sein? Ihr unterstellt, dass es genau einen RV770 und einen RV870 gibt mit jeweils exakt festgelegten Taktraten. D.h. dass alle RV770-basierenden Karten genau gleich takten. Und das ist ja nicht der Fall. Ergo macht eine Aussage, dass der RV870 um 60% schneller ist als der RV770, nur dann Sinn, wenn man bei gleichen Taktraten vergleicht.
Oder steh ich jetzt auf dem Schlauch und hab was verpasst?
60% schneller absolut. Wenn eine HD4870 in 3DMark genau 10000 Punkte schafft, dann sollte der HD5870 16.000 bringen. Natürlich nur, wenn er um 60% schneller ist. Warum er 60% schneller ist war ja nicht gefragt und ist auch nicht fragwürdig (es ist natürlich Gegenstand der Diskussion).
Hätte man gesagt: Taktbereinigt ist die 5870 der 4870 um 60% überlegen; stellt sich deine Frage.
Eggcake
2009-09-01, 15:25:28
Natürlich kann man bei den vergleichen nicht immer sagen ob nun die 5850 oder 5870 herangezogen wurde, aber die Taktrate ist imho trotzdem immer "fest". Die einzige Frage die sich jeweils stellst ist eben 5850 oder 5870, aber dass dabei auch der erhöhte Takt (oder auch nicht) mitgenommen wird, dürfte klar sein. Taktratenbereinigt sind solche vergleiche doch nie!?
Spasstiger
2009-09-01, 15:36:38
Was haltet ihr von dieser Kalkulation meinerseits? Als Spezifikationen habe ich folgendes angenommen:
RV870 = 1600 SPs, 80 TMUs, 32 ROPs, 256-Bit-SI, GDDR5
GT300 = 512 SPs, 128 TMUs, 32 ROPs, 512-Bit-SI, GDDR5
Die Taktraten stehen in der Grafik.
http://www.abload.de/img/new_gpusc1my.png
Demnach ist die GTX 380 rund ein Drittel schneller als die HD 5870 in diesem Lastszenario. Bei der GTX 395 kann ich mir wieder ein eher konservatives Vorgehen wie bei der GTX 295 vorstellen, während die HD 5870 X2 mit höheren Taktraten als die HD 5870 kommt, so dass im Endeffekt der Abstand zwischen der GTX 395 und der HD 5870 X2 gar nicht so groß sein wird.
AnarchX
2009-09-01, 15:40:45
Bei der GTX 380 fehlen aber wohl die spekulierten TMUs @~1GHz? Und das es 32 ROPs bleiben bzw. an deren Effizienz sich gegenüber GT200 nichts ändert, kann man wohl eher auch bezweifeln, bei der massiven Bandbreitenerhöhung.
LovesuckZ
2009-09-01, 15:41:52
Der GTX380 wird auf jedenfall mehr als 32 ROPS besitzen, wenn nVidia die Speicherbandbreite verdoppeln will.
Spasstiger
2009-09-01, 15:50:53
Die ROPs habe ich beim GT300 in meiner Kalkulation schon etwas aufgebohrt, indem sie doppelt soviele Zixel wie beim GT200 berechnen können.
Das mit der eigenständigen TMU-Taktdomäne war mir neu. Um eine neue Taktdomäne in mein Programm einzufügen, müsste ich einige Änderungen vornehmen.
Armaq
2009-09-01, 16:51:33
Insgesamt finde ich dein Rating komisch. :D
Warum liegen zwischen GTS250 1GB und 4870 nur 20 Punkte? Bei 800 MB VRam bekommt eine 9800GTX+ 512 noch 62? Das ist Blödsinn. Den VRam überfährst du um 300 MB und die Auswirkung sind 18 Punkte? Kann nicht stimmen. Ansonsten finde ich die Ergebnisse sogar sehr plausibel.
Spasstiger
2009-09-01, 17:22:44
Den VRam überfährst du um 300 MB und die Auswirkung sind 18 Punkte?
Ich kann das Penalty auch größer einstellen, aber dann motzen wieder alle ich sei AMD-biased.
HD 4870 1024 MiB zu GTS 250 1024 MiB finde ich in meiner Grafik plausibel. Schau mal die Benchmarks der GTS 250 1024 MiB an, so schlecht ist die nicht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet
Was haltet ihr von dieser Kalkulation meinerseits?
Nichts. Weil solche Zahlenspielereien rein gar nichts aussagen.
Du kannst doch nicht von aktuellen Architekturen auf die von GT300 schließen. Das Problem momentan ist nicht die Einheitenanzahl sondern diese effizient auszunutzen. Das wird überhaupt nicht in deiner Rechnung berücksichtigt.
StefanV
2009-09-01, 17:53:15
Was haltet ihr von dieser Kalkulation meinerseits?
Nichts, da 1. zu viele Unbekannte, 2. hast du sehr viele Parameter nicht berücksichtigt, z.B. das die nV Karten quasi zusammenbrechen, wenn der Speicher knapp wird bzw auch einen höheren Speicherverbrauch haben...
Nichts, da 1. zu viele Unbekannte, 2. hast du sehr viele Parameter nicht berücksichtigt, z.B. das die nV Karten quasi zusammenbrechen, wenn der Speicher knapp wird bzw auch einen höheren Speicherverbrauch haben...
Kannst du mal mit dem Scheiß aufhören *stöhn*
Spasstiger
2009-09-01, 18:02:24
2. hast du sehr viele Parameter nicht berücksichtigt, z.B. das die nV Karten quasi zusammenbrechen, wenn der Speicher knapp wird bzw auch einen höheren Speicherverbrauch haben...
Hab ich. Die NV-Karten haben bei mir ein deutlich größeres Penalty, wenn über PCIe geladen werden muss, als AMD-Karten. Nur Extremsituationen kann ich nicht realistisch abbilden. Dazu müsste ich mein Modell weit komplexer gestalten.
Und wer sagt dir, dass das bei GT300 immer noch so sein wird?
Mr. Lolman
2009-09-01, 18:03:24
Kannst du mal mit dem Scheiß aufhören *stöhn*
Zumindest beim Prä-GT200-Karten hat er aber recht: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet
Und wer sagt dir, dass das bei GT300 immer noch so sein wird?
Ist ja bei GT200 Karten auch nicht mehr (so extrem). Außerdem: Ausgehend von 800MB VRAM Verbrauch wird die Penalty ohnehin nicht zum Tragen kommen.
Spasstiger
2009-09-01, 18:04:51
Und wer sagt dir, dass das bei GT300 immer noch so sein wird?
Niemand. Spielt in der obigen Grafik auch keine Rolle.
Was haltet ihr von dieser Kalkulation meinerseits? Als Spezifikationen habe ich folgendes angenommen:
RV870 = 1600 SPs, 80 TMUs, 32 ROPs, 256-Bit-SI, GDDR5
GT300 = 512 SPs, 128 TMUs, 32 ROPs, 512-Bit-SI, GDDR5
Nichts, Architektur bei beiden GPUs falsch angenommen... Reines "habe den längeren Balken" Show Diagram ^^
Armaq
2009-09-01, 21:22:30
Ich kann das Penalty auch größer einstellen, aber dann motzen wieder alle ich sei AMD-biased.
HD 4870 1024 MiB zu GTS 250 1024 MiB finde ich in meiner Grafik plausibel. Schau mal die Benchmarks der GTS 250 1024 MiB an, so schlecht ist die nicht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet
Ich kenne ja eine 9800GTX+ und die 250 ist ja nicht soweit weg (bis auf den VRAM). Ich hab mit der 4870 irgendwie deutlichere Sprünge als 20%.
Nichts, Architektur bei beiden GPUs falsch angenommen... Reines "habe den längeren Balken" Show Diagram ^^
Öh TMUs und ALUs sollten bei GT300 stimmen.
StefanV
2009-09-01, 21:47:49
Zumindest beim Prä-GT200-Karten hat er aber recht: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet
Genau, bei den G80 und G92(b) Karten hatte ichs im Hirn, das sie richtig wegbrechen oder gar abstürzen...
Sieht man besonders toll bei den 256/320MiB Karten, die 512MiB Karten sind davon auch noch recht stark betroffen.
Die 1024MiB Karten sind hier schon deutlich besser...
Ist ja bei GT200 Karten auch nicht mehr (so extrem). Außerdem: Ausgehend von 800MB VRAM Verbrauch wird die Penalty ohnehin nicht zum Tragen kommen.
Die G200 Karten haben aber auch entsprechend viel Speicher ;)
896MiB minimum, 2GiB Maximum, entsprechend bricht die Performance nicht ganz so schnell weg - noch nicht.
y33H@
2009-09-01, 21:50:00
Der "VRAM-Bug" ist auch beim GT200(b) noch existent.
mapel110
2009-09-01, 21:51:10
Der "VRAM-Bug" ist auch beim GT200(b) noch existent.
Eben, nur alles abgeschwächt durch neue Treiber und kaschiert durch mehr Rohleistung.
B2T
san.salvador
2009-09-01, 21:51:10
Der "VRAM-Bug" ist auch beim GT200(b) noch existent.
Erzähl mal, was macht dieser Bug genau?
StefanV
2009-09-01, 21:55:10
Erzähl mal, was macht dieser Bug genau?
Kurzfassung: das SPeichermanagment ist kaputt, so dass man mehr Speicher braucht, wenn der aus geht, bricht die Performance zusammen oder es schmiert ab.
y33H@
2009-09-01, 21:55:50
Erzähl mal, was macht dieser Bug genau? Die Fps brechen gnadenlos ein (unter 10) oder die Karte schmiert samt einem Blackscreen ab. Die "harmlose" Version ist ein Treiber-Reset.
896MiB minimum, 2GiB Maximum, entsprechend bricht die Performance nicht ganz so schnell weg - noch nicht. Seh ich etwas anders ;D
http://www.abload.de/thumb/asus-mars-f3-1680-16xsrdvp.png (http://www.abload.de/image.php?img=asus-mars-f3-1680-16xsrdvp.png) http://www.abload.de/thumb/asus-mars-fc2-1920-16xldb2.png (http://www.abload.de/image.php?img=asus-mars-fc2-1920-16xldb2.png)http://www.abload.de/thumb/asus-mars-scs-1280-16xaf7h.png (http://www.abload.de/image.php?img=asus-mars-scs-1280-16xaf7h.png)
Bei gescheiter BQ (16xS samt 16:1 HQ-AF) kannst du alles unter/um 1G in die Tonne treten und die Reste vom Stiefel lecken - und das teils in 1.680 x 1.050 :freak: GT300 bitte mit 4G ...
san.salvador
2009-09-01, 21:56:08
Kurzfassung: das SPeichermanagment ist kaputt, so dass man mehr Speicher braucht, wenn der aus geht, bricht die Performance zusammen oder es schmiert ab.
Ich hab das bisher als intensivere Speichernutzung empfunden.
derguru
2009-09-01, 22:04:19
Bei gescheiter BQ (16xS samt 16:1 HQ-AF) kannst du alles unter/um 1G in die Tonne treten und die Reste vom Stiefel lecken - und das teils in 1.680 x 1.050 :freak: GT300 bitte mit 4G ...
für stalker cs reicht ja nicht mal 1792mb speicher und das bei 1680*1050.;D
y33H@
2009-09-01, 22:05:15
Jupp, epic fail. Speicherkrüppel ;D
san.salvador
2009-09-01, 22:06:48
Jupp, epic fail. Speicherkrüppel ;D
Dann muss der Rest aber fanntastisch sein, wenn der Speicher so verkrüppelt ist.
Fanboy?
zum glück sind die einstellungen spielbar, 22FPS mit SLI ja klar...
y33H@
2009-09-01, 22:11:35
@ san.salvador
VRAM-Fanboy, ja. Voller Speicher sucks.
Und btw ich wurde seit G80 als NV-Fanboy bezeichnet ;)
@ Gast
Es geht ums Prinzip. Und 22 Fps im Fallout 3 sind ok.
ShadowXX
2009-09-01, 22:24:32
Seh ich etwas anders ;D
http://www.abload.de/thumb/asus-mars-f3-1680-16xsrdvp.png (http://www.abload.de/image.php?img=asus-mars-f3-1680-16xsrdvp.png) http://www.abload.de/thumb/asus-mars-fc2-1920-16xldb2.png (http://www.abload.de/image.php?img=asus-mars-fc2-1920-16xldb2.png)http://www.abload.de/thumb/asus-mars-scs-1280-16xaf7h.png (http://www.abload.de/image.php?img=asus-mars-scs-1280-16xaf7h.png)
Bei gescheiter BQ (16xS samt 16:1 HQ-AF) kannst du alles unter/um 1G in die Tonne treten und die Reste vom Stiefel lecken - und das teils in 1.680 x 1.050 :freak: GT300 bitte mit 4G ...
Da hast du aber sehr sehr "sinnige" Benchmarks rausgesucht um gegen die ATIs zu vergleichen:rolleyes:
16xS beinhaltet 2x2 Supersampling.....ich möchte gerne mal die 1GB ATIs bei einer Auflösung von 3300x2100 mit 4xMSAA sehen.
Da wird denen auch der Speicher ausgehen.
y33H@
2009-09-01, 22:26:30
Es geht nichts ums Speicher ausgehen, sondern um den prozentualen Fps-Einbruch bei vollem VRAM bis hin zum Absturz. Letzteres gibts bei AMD nicht und der Impact ist geringer.
Und es gibt wohl weltweit (bis vll auf HisN) niemanden, der sich mehr mit dem Thema VRAM in Spielen auseinander setzt als ich ;)
derguru
2009-09-01, 22:26:59
Da hast du aber sehr sehr "sinnige" Benchmarks rausgesucht um gegen die ATIs zu vergleichen:rolleyes:
16xS beinhaltet 2x2 Supersampling.....ich möchte gerne mal die 1GB ATIs bei einer Auflösung von 3300x2100 mit 4xMSAA sehen.
Da wird denen auch der Speicher ausgehen.
wo ist denn der vergleich zur ati,sehe ich nicht.
die stürzen aber nicht ab oder werden urplötzlich noch langsamer als erwartet.
Wobei Abstürze eigentlich nur von einem an der Stelle nicht optimal arbeitenden Treiber liegen können.
Ich würde gerne mal wissen, ob das tatsächlich irgendwas mit Hardware zu tun hat oder NVIDIA darauf im Treiber einfach keinen Wert legt, weil sie davon ausgehen dass es eh zu lahm wird wenn der Speicher ausgeht.
Evtl. liefert das Nouveau-Projekt da ja antworten.
y33H@
2009-09-01, 22:36:52
Sie haben es zum Teil gefixt, aber eben nicht komplett. Ist ein Work-Around, aber keine Lösung. Angesichts der Tatsache, dass das Problem seit der GTS/320 zum Teil hohe Wellen geschlagen hat und NV kräftig nachgebessert hat, ists imo eine HW-Geschichte - vor allem zieht es sich von G80 über G92 bis hin zum GT200.
Spasstiger
2009-09-01, 22:36:55
Ich kenne ja eine 9800GTX+ und die 250 ist ja nicht soweit weg (bis auf den VRAM). Ich hab mit der 4870 irgendwie deutlichere Sprünge als 20%.
In meiner Grafik ist die HD 4870 1024 MiB um 61% schneller als die 9800 GTX+ 512 MiB, nicht 20%.
Sie haben es zum Teil gefixt, aber eben nicht komplett. Ist ein Work-Around, aber keine Lösung. Angesichts der Tatsache, dass das Problem seit der GTS/320 zum Teil hohe Wellen geschlagen hat und NV kräftig nachgebessert hat, ists imo eine HW-Geschichte - vor allem zieht es sich von G80 über G92 bis hin zum GT200.
Ich suche aber bis heute in meinem Kopf nach einer Idee wie sowas ein Hardware-Problem sein kann.
Der Speicher wird vom Treiber aus ja ganz normal linear adressiert und es gibt - wenn nicht etwas sehr ungewöhnlich ist - auch keine Einschränkungen wo Texturen dort liegen können.
Was soll dann also ein Hardwareproblem sein?
y33H@
2009-09-01, 22:43:55
Ich kenne keine technische Erklärung und mir wurde auch keine kommuniziert. Da es sich seit Generationen (die technisch stark verwandt sind) durchschleppt, bin ich der Meinung, es sei ein HQ-Problem. Oder eben Software und NV sieht keinen Sinn drin, es ganz zu fixen oder der Aufwand ist es nicht wert.
derguru
2009-09-01, 22:45:03
kann es nicht daran liegen das nv karten erst mit dem entleeren des speichers beginnen wenn der speicher voll ist und bei amd eigentlich durchgehend die entleerung stattfindet egal ob voll oder halbleer?
Niemand. Spielt in der obigen Grafik auch keine Rolle.
du hast doch bestimmt bei den einzelnen komponenten die möglichkeit nen linearen faktor einzubauen, um die effizienz einfach nachzubilden?
ich finde dein modell gut :wink: (auch wenn ich nicht weiß wie's geht)
y33H@
2009-09-01, 22:47:49
@ derguru
Das ist nicht korrekt, NV die AMD werfen Texturen raus. NV nutzt nur generell etwas mehr Speicher.
reunion
2009-09-01, 22:50:36
Ich kenne keine technische Erklärung und mir wurde auch keine kommuniziert. Da es sich seit Generationen (die technisch stark verwandt sind) durchschleppt, bin ich der Meinung, es sei ein HQ-Problem. Oder eben Software und NV sieht keinen Sinn drin, es ganz zu fixen oder der Aufwand ist es nicht wert.
Es hängt definitiv mit der G8x Hardware zusammen. Bis G8x gab es dieses Problem ja auch nicht. Und so etwas nicht zu fixen wenn man es via Treiber könnte wäre wohl extrem dämlich angesichts der nicht gerade charmant wirkender Balken in solchen Fällen. Und wir alle wissen das solche Balken nach wie vor eine großen Einfluss auf das Kaufverhalten auswirken.
y33H@
2009-09-01, 22:52:17
Ich kann nur vermuten, da ich wie gesagt keine offizielle zitierfähige Aussage seitens NV habe und nicht genügend Kenntnisse über Treiber/HW habe und definitiv sagen zu können, wo das Problem liegt :(
Spasstiger
2009-09-01, 23:04:53
du hast doch bestimmt bei den einzelnen komponenten die möglichkeit nen linearen faktor einzubauen, um die effizienz einfach nachzubilden?
Klar, das geht immer und ist simpel umzusetzen. Aber ich versuche, nur mit Gewichtungsfaktoren/-exponenten zu arbeiten.
Die unterschiedlichen VRAM-Größen berücksichtige ich in meinem Modell nicht unbedingt realistisch. Ich berechne eine effektive Speicherbandbreite, die sich aus der Grafikspeicherbandbreite und der PCIe-Bandbreite zusammensetzt (gewichtetes geometrisches Mittel). Wie stark die PCIe-Bandbreite mit einfließt, hängt vom VRAM-Defizit und von einem architekturabhängigen Gewichtungsfaktor ab. Besteht kein VRAM-Defizit, dann entspricht die effektive Bandbreite der Grafikspeicherbandbreite.
Okay ich habe gerade mal einen der Nouveau-Leute gefragt, und es scheint so als könne G80-Hardware nur aus dem VRAM texturieren und auch nur im HW-Format.
D.h. es muss immer kopiert werden wenn eine Textur verwendet wird anstatt diese einfach aus dem PCIe-System-Speicher zu verwenden.
Aber ich versuche, nur mit Gewichtungsfaktoren/-exponenten zu arbeiten.
ein (linearer) faktor ist doch ein gewicht?
Ich berechne eine effektive Speicherbandbreite, die sich aus der Grafikspeicherbandbreite und der PCIe-Bandbreite zusammensetzt (gewichtetes geometrisches Mittel).
warum geometrisch? das produkt der bandbreiten ist doch nicht interpretierbar
Wie stark die PCIe-Bandbreite mit einfließt, hängt vom VRAM-Defizit und von einem architekturabhängigen Gewichtungsfaktor ab. Besteht kein VRAM-Defizit, dann entspricht die effektive Bandbreite der Grafikspeicherbandbreite.
das finde ich gut
=Floi=
2009-09-02, 01:10:00
die vor G80 generation hatte imho aber auch nicht die leistung um so viel vram auszulasten. Es gab dazu auch keine so großen texturen. imho
pervert
2009-09-02, 04:16:20
Du darfst die Taktraten nicht außer Acht lassen.
Eine HD 5870 soll Gerüchten zufolge deutlich höher takten als eine HD 4870 und die HD 5870 X2 nochmal ein Stück höher.
Wenn man davon spricht, dass ein Chip um x% schneller ist als ein anderer, dann bezieht man sich dabei auf identische Taktraten.
Das steht da aber nirgendwo, genausowenig wie eine 5850 genannt wird, obwohl ich das auch realistischer finden würde.
Dort steht hingegen, dass RV870 IM BESTFALL diese 60% erreicht.
Naja, dauert ja nicht mehr lange, dann sind wir alle schlauer ;)
Armaq
2009-09-02, 08:00:30
In meiner Grafik ist die HD 4870 1024 MiB um 61% schneller als die 9800 GTX+ 512 MiB, nicht 20%.
Ich meinte damit auch eher die Unterschiede von 9800 512 MB zu GTS 250 1 GB. Die sind gleich schnell, bis der Speicher dicht ist. 20%/Punkte mehr ist mir da nicht ersichtlich, oder resultiert das nur aus der Strafe für den Speicher?
AnarchX
2009-09-02, 08:32:07
Charlie will wohl ein paar Roadmap von Mitte August haben:
http://www.semiaccurate.com/2009/09/01/nvidia-roadmaps-turn/
D12U/GT300 laut diesem erst im Q1 2010, daneben auch noch ein paar D11-Chips(GT21x) als GeForce 300, bis ins Q2 2010.
Wobei man anmerken sollte, dass die Roadmap auf Grund der Speicherbestückungen eher nach einer OEM-Roadmap aussieht und nicht unbedingt mit den Retail-Launches übereinstimmen muss.
Dural
2009-09-02, 10:07:05
Es hängt definitiv mit der G8x Hardware zusammen. Bis G8x gab es dieses Problem ja auch nicht.
und wo ist der Beweis dazu?
Es könnte doch einfach daran liegen das die Leistung einer 7900GTX mit 512MB schon einfach viel zugering ist um in den Bereich zu kommen! Zudem heutige Spiele da doch eindeutig mehr Speicher benötigen als zu G71 zeiten!
Das Problem wurde ja erst durch die 8800GTS 320MB richtig bekannt, die schon deutlich mehr Leistung hatte als eine 7900GTX plus weniger Speicher! Vor dieser Karte hörte man im www nirgends was von Speicher Probleme auf G8x bezogen!
mekakic
2009-09-02, 10:21:34
Okay ich habe gerade mal einen der Nouveau-Leute gefragt, und es scheint so als könne G80-Hardware nur aus dem VRAM texturieren und auch nur im HW-Format.
D.h. es muss immer kopiert werden wenn eine Textur verwendet wird anstatt diese einfach aus dem PCIe-System-Speicher zu verwenden.Ich dachte das muß sowieso passieren - das der PCIe Speicher nur so eine Art Memory Mapped File ist und wenn man was aus dem Pool braucht, wird das in den VRAM geladen und dort adressiert. D.h. normalerweise sollte das eine direkte Erweitung des VRAM Adressraums sein auf die man direkt adressieren kann? Nur der G80 muß eben umkopieren?
Was bedeutet für die Texturen in diesem Fall HW-Format?
LovesuckZ
2009-09-02, 11:20:36
We received a word from several colleagues that nVidia is making an "Editor's Day" on the September 10th, the same date that AMD will held the public part of its Evergreen launch on afore mentioned USS Hornet aircraft carrier in Oakland, California.
When we asked nVidia about the event, the answer was that this has nothing to do with ATI's launch,[...]
http://www.brightsideofnews.com/news/2009/9/1/nvidia-schedules-an-event-on-the-same-day-as-atis-evergreen-launch.aspx
Theo stellt es in der Überschrift in Frage... Errinnert einen irgendwie an das letzte Jahr, wo nVidia aus dem nichts sozusagen im April freizügig über den Chip redet und im Mai ihn der Presse vorführt.
Abwarten, das Jahr hat ja nur noch 4 Monate, dann sind wir alle wieder ein Stückchen schlauer.
Ich dachte das muß sowieso passieren
Nene, die Hardware kann seit AGP aus sogenannten AGP-Memory (das was man mit der AGP aperture size einstellt) Daten direkt verwenden.
Bei PCIe gibt's das auch, nur dass da die Größe im System-RAM dynamisch verändert wird. G80 kann das nun offenbar bei Texturen nicht.
Die HW will die Texturen in einem Format das besser für den Cache ist. Die Anordnung entspricht z.B. sowas (http://en.wikipedia.org/wiki/Space-filling_curve).
Ailuros
2009-09-02, 13:23:19
Charlie will wohl ein paar Roadmap von Mitte August haben:
http://www.semiaccurate.com/2009/09/01/nvidia-roadmaps-turn/
D12U/GT300 laut diesem erst im Q1 2010, daneben auch noch ein paar D11-Chips(GT21x) als GeForce 300, bis ins Q2 2010.
Wobei man anmerken sollte, dass die Roadmap auf Grund der Speicherbestückungen eher nach einer OEM-Roadmap aussieht und nicht unbedingt mit den Retail-Launches übereinstimmen muss.
Was zum Teufel ist eine GTX280 1792MB genau nochmal?
Gipsel
2009-09-02, 13:37:14
Die HW will die Texturen in einem Format das besser für den Cache ist. Die Anordnung entspricht z.B. sowas (http://en.wikipedia.org/wiki/Space-filling_curve).
Bei ATI sieht es wohl so aus (http://www.planet3dnow.de/photoplog/file.php?n=6091&w=l).
LovesuckZ
2009-09-02, 13:39:09
Was zum Teufel ist eine GTX280 1792MB genau nochmal?
Das geht ja noch - aber glaubt Charlie wirklich, dass nVidia noch G80 Chips auf Lager hat und damit eine GT230 zu bestücken? :freak:
Aus dem Forum dort (-> sehr lustig, weil dort immer die selben 5 Leute posten)
I agree, but the roadmap I was shown clearly said GTX280 1792. I would think that they meant the 280-class parts, but who knows for sure? The other thing it could be is a power issue.
-Charlie
http://www.semiaccurate.com/forums/showpost.php?p=3566&postcount=9
StefanV
2009-09-02, 13:58:26
Eine GTX275?? (oder 260) :ugly:
Ailuros
2009-09-02, 14:54:49
Ich hab den newsblurb dreimal durchgelesen und ich kann den Zusammenhang immer noch nicht verstehen:
http://www.semiaccurate.com/static/uploads/2009/09_september/NV_quarter_roadmap.jpg
Was hat das hier jetzt mit dem hier zu tun?
http://www.semiaccurate.com/static/uploads/2009/09_september/NV_season_roadmap.jpg
http://www.semiaccurate.com/2009/09/01/nvidia-roadmaps-turn/
Ich bin momentan ueberarbeitet und aber selbst wenn ich akzeptiere dass unter "GTX280" eigentlich die GTX295 gemeint ist, muesste im zweiten die "GTX280" mit D12U ersetzt werden.
Dass D10 = GT200b@55nm, D11 = GT21x@40nm und D12 = G3xx@40nm sind ist nichts Neues, aber das angebliche Fruehling Zeug macht von vorne und hinten keinen Sinn....
KonKorT
2009-09-02, 15:26:09
[...] GT300 bitte mit 4G ...
Beim GT300 hat man sich in jedem Fall dem Speichermanagement angenommen. Ich habe zwar noch keine Einsicht darüber, welche Änderungen genau vorgenommen wurden, aber die Beseitigung des VRAM-Bugs könnte dazugehören.
Zurzeit deutet alles daraufhin, dass die Referenzkarte im High-End mit 2 GiB GDDR5 ausgestattet sein wird, was auch mit Blick auf Preis/Leistung die sinnvollste Lösung ist.
Dass D10 = GT200b@55nm, D11 = GT21x@40nm und D12 = G3xx@40nm sind ist nichts Neues, aber das angebliche Fruehling Zeug macht von vorne und hinten keinen Sinn....
Bei Mainstream A, B und Performance A scheint man auf GT21x-Basis etwas neues zu basteln. Eine reine Umbenennung scheint es nicht zu sein, weil er ja schreibt: "The bottom three, the GT330/320/310 chips, are simply shrunk versions of their 230/220/210 predecessors. Nvidia is listing the performance gains from the 230 to the 330 as +20%, 220 to 320 as +60%, and 210 to 310 as 30%. For Performance B and Enthusiast, there are no gains listed because the parts don't change at all." Der Shrink kann aber nur so verstehen werden, dass sie in 32 nm gefertigt werden, weil Geforce G210, GT 220, GT 230 ja schon in 40 nm gefertigt werden. Hier wäre zum einen der doch recht frühe Zeitraum fragwürdig und zum anderen, dass Nvidia bei der Umstellung auf 32 nm nicht direkt GT3xx-Produkte mit DirectX 11-Kompilanz bringt.
Bei Performance B sieht er keine Änderung und bei Enthusiast glaubt er weiter, dass die GTX 295 im Frühling da steht, weil sich GT300 ja noch mal kräftig verspäten könnte. :D "To give you an idea of how confident it is of this plan working out, the roadmaps for the Spring 2010 season still list the GTX280 with 1792MB as the lead card. If GT300 doesn't work perfectly and it needs to do a second spin, Nvidia is literally out of the high end graphics game. If that does work out, it gets to promote a card that it can't make at the expense of the products it can produce. Great choices there."
y33H@
2009-09-02, 15:46:19
Beim GT300 hat man sich in jedem Fall dem Speichermanagement angenommen.Aha. Dir wurden also gesicherte Informationen zugetragen, wonach extreme Fps-Einbrüche und Blackscreens bei vollem VRAM mit dem GT300 nicht mehr auftreten, verstehe ich das richtig? ;)
Ich bin momentan ueberarbeitet und aber selbst wenn ich akzeptiere dass unter "GTX280" eigentlich die GTX295 gemeint ist, muesste im zweiten die "GTX280" mit D12U ersetzt werden.
GTX295 mit 150 Watt?
Neee, da hat Charlie einfach alles, was ihm so einfiel ins Excel gehackt und als "Screenshot" einer Roadmap verkauft. Dumm, sowas.
G210 gibt's btw schon jetzt, nicht er "Holiday".
@Konkort: Ich bin mal gespannt, wie G210 noch weiter geschrumft werden soll...
[fu]121Ah
2009-09-02, 15:59:13
@Konkort: Ich bin mal gespannt, wie G210 noch weiter geschrumft werden soll...
jo, das grid area dürfte da noch riesig sein *lach*. echt, auf was die uber-checkers da oft kommen, sehr sehr lustig *popcornkino*.
Ailuros
2009-09-02, 16:10:33
@Konkort: Ich bin mal gespannt, wie G210 noch weiter geschrumft werden soll...
Jetzt blick ich zumindest ein bisschen besser durch mit all dem Unsinn der in dem newsblurb steht.
Ach wie man einen G210 weiter schrumpft? Gib mir einen Hammer und ich erklaer es gerne LOL :D
Konkort,
Danke fuer die Muehe.
Ailuros
2009-09-02, 16:12:30
Beim GT300 hat man sich in jedem Fall dem Speichermanagement angenommen. Ich habe zwar noch keine Einsicht darüber, welche Änderungen genau vorgenommen wurden, aber die Beseitigung des VRAM-Bugs könnte dazugehören.
Zurzeit deutet alles daraufhin, dass die Referenzkarte im High-End mit 2 GiB GDDR5 ausgestattet sein wird, was auch mit Blick auf Preis/Leistung die sinnvollste Lösung ist.
Wie waere es mit einem umgekrempelten crossbar? ;)
LovesuckZ
2009-09-02, 19:10:27
So what do you do if you are nVidia and have not yet demoed your own DX11 hardware? Well you schedule an event on the same date and hint that you might show your own DX11 hardware. At least that is the rumor right now. This, if true, will nicely split the press. After all do you want to cover the launch of something that has already been in the news or something entirely new?
http://www.tweaktown.com/news/13100/nvidia_to_show_off_its_own_dx11_hardware_on_september_10th/
Endlich kommt der Spaß in die Sache.
mapel110
2009-09-02, 19:49:46
http://www.tweaktown.com/news/13100/nvidia_to_show_off_its_own_dx11_hardware_on_september_10th/
Endlich kommt der Spaß in die Sache.
Ja, hat BSON ja auch schon geschrieben gestern oder heute?!
Bin so gespannt. Endlich gibts wieder was Neues.
Ailuros
2009-09-02, 20:10:49
http://www.tweaktown.com/news/13100/nvidia_to_show_off_its_own_dx11_hardware_on_september_10th/
Endlich kommt der Spaß in die Sache.
Was soll so toll an einer eher laecherlichen Andeutung genau sein?
LovesuckZ
2009-09-02, 20:13:33
Die ganzen Gerüchte und Verschwörungen sind so toll. ChrisRay hat es ja schon im Beyond.com Forum aufgeklärt, dass daran nichts wahres ist. Aber das ist doch wesentlich spannender als im letzten Jahr.
Ailuros
2009-09-03, 07:14:01
Die ganzen Gerüchte und Verschwörungen sind so toll. ChrisRay hat es ja schon im Beyond.com Forum aufgeklärt, dass daran nichts wahres ist. Aber das ist doch wesentlich spannender als im letzten Jahr.
Dass nichts daran liegt ist mir schon klar. Chris hat womoeglich einen gemeinsamen Freund aus der PR Abteilung darueber nachgefragt, damit er so antwortet und solch eine Antwort bekomm ich auch wenn ich nachfrage. Zwar OT aber Chris ist hauptsaechlich zustaendig fuer support und "spezialisiert" mehr auf SLi configs. Eigentlich das Resultat des originalen Konzepts der damaligen Focus Gruppe und nicht die Leser in Foren zu beinflussen wie man damals beweisen wollte. Fuer die 2 Jahre die wir zusammenarbeiteten, hatten wir ein Privat-forum wo wir Erfahrungen austauschten und wir bekamen nie jegliche Info ueber zukuenftiges unangekuendigtes Zeug bis zum Punkt wo die Presse unter NDA eingeweiht wurde. Das und der Zugang zu NV's extranet fuer unveroeffentlichte Treiber zum herumfunkeln war mehr oder weniger alles was daran lag.
Und ich erwaehne es nur weil die PR Abteilung selbst off the record nichts aussagt was die naechste Generation betrifft. Dass es kein Zufall ist dass diverse Seiten ab und zu erwaehnen werden dass es dieses Jahr keine X11 Spiele geben wird als Gegenbeispiel ist ein anderes Kapitel. 10 Minuten mit jemand aus der Abteilung privat zu plaudern ist schon genug um fuehlen zu koennen wie die kommende PR-Strategie aussehen wird. Als ich aber darauf genau antwortete dass der Vorteil von G80 eher war dass sie eine verdammt schnelle DX9.0 (und die DX10 Komplianz eher nebensaechlich war) fuer ihre Zeit wurde es schnell still.
nagus
2009-09-03, 08:00:05
Was soll so toll an einer eher laecherlichen Andeutung genau sein?
frage ich mich auch. das ganze ist nur ein PR-Streich... ein Ablenkungsmanöver weil sie AMD nichts entgegenzusetzen haben. Wenns wirklich was in der Hand hätten würdens das Event eher davor ansetzen um AMD in die "Parade zu fahren". So find ich das ziemlich lächerlich ... aber typisch.
aber solche meldungen von werden sich jetzt bestimmt häufen. es fängt ja schon an … (http://www.fudzilla.com/content/view/15316/1/)
Ailuros
2009-09-03, 09:42:37
frage ich mich auch. das ganze ist nur ein PR-Streich... ein Ablenkungsmanöver weil sie AMD nichts entgegenzusetzen haben. Wenns wirklich was in der Hand hätten würdens das Event eher davor ansetzen um AMD in die "Parade zu fahren". So find ich das ziemlich lächerlich ... aber typisch.
Es wird NICHTS am 10/09 angekuendigt, vorgestellt oder was auch immer seitens NV.
Hmm, was soll man denn jetzt davon halten?
http://www.semiaccurate.com/forums/showpost.php?p=4098&postcount=95
Neliz behauptet das nV wieder "alte" GT2xx-Versionen rausgekramt hat?
Ailuros
2009-09-07, 13:16:27
Hmm, was soll man denn jetzt davon halten?
http://www.semiaccurate.com/forums/showpost.php?p=4098&postcount=95
Neliz behauptet das nV wieder "alte" GT2xx-Versionen rausgekramt hat?
Es macht keinen Sinn.
X.Perry_Mental
2009-09-07, 13:21:05
Hmm, was soll man denn jetzt davon halten?
http://www.semiaccurate.com/forums/showpost.php?p=4098&postcount=95
Neliz behauptet das nV wieder "alte" GT2xx-Versionen rausgekramt hat?
Ich verstehe die Logik dahinter nicht. Warum sollte man den GT200 mit DX10.1 neu auflegen wenn sich der GT300 verspätet?
Ailuros
2009-09-07, 13:57:14
Ich verstehe die Logik dahinter nicht. Warum sollte man den GT200 mit DX10.1 neu auflegen wenn sich der GT300 verspätet?
Entweder fuehrt NV sehr viele Leute an der Nase herum seit Mitte 2008 oder man sollte eben nicht gleich alle Charlie's feuchte Traeume auf Anhalt glauben.
Afaik wurde das GT212 Ende Sommer 2008 storniert und es kam nie zum finalen tapeout damit NV dieses Team woanders (irgend ein G30x Projekt) investieren kann. Diese enginneers bewegen sich also wie ein Ping-pong Ball je nach belieben zwischen einem GT21x0 und einem G30x Projekt.
Naja, evtl. ist es ja "GT302" - das Perfromcemodell des GT300. Unmöglich ist das imho nicht.
mboeller
2009-09-07, 14:44:37
Entweder fuehrt NV sehr viele Leute an der Nase herum seit Mitte 2008 oder man sollte eben nicht gleich alle Charlie's feuchte Traeume auf Anhalt glauben.
Afaik wurde das GT212 Ende Sommer 2008 storniert und es kam nie zum finalen tapeout damit NV dieses Team woanders (irgend ein G30x Projekt) investieren kann. Diese enginneers bewegen sich also wie ein Ping-pong Ball je nach belieben zwischen einem GT21x0 und einem G30x Projekt.
IMHO: Selbst wenn das ganze stimmen sollte würde es nicht heißen, das der GT300 sich verschiebt sondern nur, das Nvidia einen 40nm GT2xx als Juniper Konkurrenten braucht. So ein GT212 in 40nm Technologie könnte ja nur 250-260mm² groß sein. Das ist zwar größer als ein Juniper aber immer noch im Rahmen um vernünftig gegen einen Juniper "anstinken" zu können. Das ganze würde aber IMHO heißen, das sich die GT3xx Performance-GPUs verschieben.
Nakai
2009-09-07, 14:49:07
Naja, evtl. ist es ja "GT302" - das Perfromcemodell des GT300. Unmöglich ist das imho nicht.
Mhh, imo nicht. NV braucht eine gute Karte fürs Midrange, welche den Juniper in den meisten belangen gut schlagen kann. Das würde ATI am meisten schaden, vorallem zwischen Juniper und Cypress eine große Lücke klafft.
Ein Chip der Leistungsmäßig dazwischen liegt, wäre in allen Bereichen ein durchschlagender Erfolg. Für die RV870XT-Modelle reicht ein beschnittender GT300 locker aus. Im Highend könnte NV dann zwei Modelle ihrer Dualkarte vorstellen. Eine welche den Hemlock in den Boden stampft und eine andere, welche mit dem Hemlock gut konkurrieren könnte.
Viele Leute meinten ja, dass NV eine Performancekarte gegen den Cypress bräuchte. Wieso sollte Highend durch den Hemlock festgelegt werden? NV muss nur mit dem GT300 eine Stufe höher gehen.
mfg Nakai
Finch
2009-09-07, 15:25:47
Nakai, kann es sein dass du im GT300 mehr siehst als am ende überhaupt entstehen könnte?
...kann es sein dass du im GT300 mehr siehst als am ende überhaupt entstehen könnte?
Nvidia hat viele der talentiertesten Grafikspezialisten, seit dem GT200 kam nichts bewegendes und seit dem G80 gar nichts revolutionäres. IMO wäre es eher abwegig da nichts zu erwarten.
Nakai
2009-09-07, 15:33:09
Nakai, kann es sein dass du im GT300 mehr siehst als am ende überhaupt entstehen könnte?
Wieso? Mit 512SPs, welche schon genannt wurde, wäre bei der derzeitigen Architektur eine Steigerung von 113%! Wenn dann noch Gerüchte auftreten, dass der GT300 ein revolutionäres Design wird, dann erwarte ich hier mindestens eine 100%ige Leistungssteigerung. Eigentlich erwarte ich hier mehr.
mfg Nakai
Nvidia hat viele der talentiertesten Grafikspezialisten, seit dem GT200 kam nichts bewegendes und seit dem G80 gar nichts revolutionäres. IMO wäre es eher abwegig da nichts zu erwarten.
allerdings kochen die nv engineers auch nur mit wasser, wieso dass sie besser als atis leute sein sollten, kann ich nicht verstehen. ich denke einfach, man hat ein gewisses level erreicht wo es schwierig wird, die designs zu verbessern, komplexität und technischer detailverliebtheit sei dank. nicht immer wird eine g80 entworfen.
allerdings kochen die nv engineers auch nur mit wasser, wieso dass sie besser als atis leute sein sollten, kann ich nicht verstehen.
Nun, zumindest haben sie das weit höhere Budget und wohl auch mehr Leute - was nichts heißen muss.
Nun, zumindest haben sie das weit höhere Budget und wohl auch mehr Leute - was nichts heißen muss.
du sagst es - ich will ja nicht sagen dass sie weniger können, sondern nur, dass man die extreme erwartungshaltung mal relativieren sollte. jedes geschäft kennt die schlechten zeiten, jede firma kennt demotivierte mitarbeiter etc.
nV baut noch irgendwas anderes. in 2003-2005 wurden der geniale G80, der RSX und diverse Chipsätze parallel entwickelt, seitdem nurnoch monate- und jahrelang verschobene GPUs. die zweite dx10-generation wurde komplett gecancelt, dafür die G80-Basis mit DP und dx10.1 erweitert.
entweder wird der G300 bombastisch (was aber nach dem offensichtlichen Strecken von Entwicklerressourcen unwahrscheinlich ist) oder sie arbeiten an was, was gegen Larrabee in Stellung gebracht werden wird:
Entweder eine GPU die statt proprietären Opcodes vektorisierten x86 Code ausführt, was aber einen Nachbau von Larrabee bedeuten würde, oder:
Sie bauen eine CPU. Die einzige Komponente, die neben Chipsatz, Sound und Grafik, was sie schon haben, noch fehlt für ein komplettes System. nV ist groß genug und hat vA genug Einfluß auf die Publisher und Developer, um sowas durchzuziehen. Und zwischen den beiden Vollsortimentern Intel und AMD, das durch das amerikanische Kartellrecht geschützt ist, wäre eine komlplette eigene Plattform langfristig die einzige Möglichkeit, ein Überleben aus eigener Kraft sicherstellen zu können. Heute reichen schon bessere 50€ CPU's für alle Games aus, durch Physx und co werden CPU's für gaming und highquality multimedia noch unwichtiger werden, so daß nV eine hinreichende CPU durchaus selber bauen kann.
Sowohl INtel als auch AMD wollen ihre GPUs immer näher an die CPU ranbringen, die Konsequenz ist längerfristig, daß beiden den gleichen Code ausführen und die harte Trennung in Grafikspeicher mit proprietären GPU-Befehlen und RAM mit x86 Code fällt. Wenn dann nV irgendwann nurnoch Zusatzbescheluniger anbietet, so wie eins 3dfx, dann kann ein Punkt kommen, an dem sie sich aus eigener Kraft nicht mehr am Leben erhalten können. Nur durch eine eigene, komplette Plattform, können sie das - und wenn man sieht, daß selbst MS und Sony an der Grenze sind, die Entwicklung von Highend-Konsolen überhauptnoch finanzieren zu können, dann sieht man auch die Lücke, die nV besser als jeder andere bedienen könnte...
Drum, zurück zum Topic:
IMO wird G300 ein besserer G80/G200 Refresh mit dx11 features, mehr nicht. bis larrabee in 2, vllt 3 jahren auf dem markt einen starken einfluß haben KÖNNTE, brauchen sie nix stärkeres und müssen nicht unnötig eine komplett neue shadercore-technik entwickeln, die in 3-4 jahren komplett obsolet sein KÖNNTE...
@Gast: Sie bauen doch auch fleißig, siehe z.B. Ion (2?)
Vielleicht sollte man den Chip auch erstmal abwarten, bevor man irgendwelche Verschwörungstheorien spinnt.
Imho braucht sich NVIDIA vor Larrabee nicht wirklich zu fürchten. Der einzige große Vorteil von ihm ist die virtuelle Speicherverwaltung inkl. Page-Misses etc. Die könnten sie mit GT300 und CUDA 3.0 aber auch schon haben.
Heute reichen schon bessere 50€ CPU's für alle Games aus
Nein, auch wenn Computerbase sich nicht entblödet, diesen Eindruck immer wieder zu erwecken. Natürlich wird immer mehr auf die GPU verlagert, aber ganz ohne leistungsfähigen x86-kompatiblen Prozessor (dank Wintel-Kartell) hängen Nvidia-GPUs in der Luft. Tesla bietet immerhin einen Ansatz, sich von der PC-Plattform zu lösen und neue Märkte sowie Anwendungsfelder zu erschließen.
50 Euro? Du willst wohl verarschen. Das reicht vielleicht für alte Spiele, aber bei halbwegs aktuellen Titeln hast du damit keine Freude, glaub mir!
w0mbat
2009-09-07, 17:38:54
Ein X2 240 der locker 3GHz+ schafft reicht für aktuelle Spiele nicht aus? Es gibt auch andere Spiele als GTA4.
aylano
2009-09-07, 17:41:01
Mal eine Frage
Soviel ich weiß, soll GT300 32Shader pro Cluster haben und soll MIMD ähnlich arbeiten.
Was erwartet / spekuliert / weiß man?
So etwas wie:
Von den 32Shader & 8 TMU pro Cluster bezieht sich das MIMD-Ähnliche Arbeiten auf 4x8 Shadergruppen im Cluster mit 8 TMUs.
Also, so eine 8er-Shadergruppe arbeitet SIMD und die 4 Gruppen wie MIMD?
Nvidia hat viele der talentiertesten Grafikspezialisten, seit dem GT200 kam nichts bewegendes und seit dem G80 gar nichts revolutionäres. IMO wäre es eher abwegig da nichts zu erwarten.
Ja.Talent merkt man an schlechter Lüftersteuerung der GTX280 Serie,zu hohe Standby Verbrauch,zu hohe Produktionskosten....
dargo
2009-09-07, 17:42:37
50 Euro? Du willst wohl verarschen. Das reicht vielleicht für alte Spiele, aber bei halbwegs aktuellen Titeln hast du damit keine Freude, glaub mir!
Die 50€ sind natürlich etwas zu tief angesetzt. Mit 85€ (http://geizhals.at/deutschland/a399923.html) sieht die Sache schon deutlich besser aus. :)
Ein X2 240 der locker 3GHz+ schafft reicht für aktuelle Spiele nicht aus? Es gibt auch andere Spiele als GTA4.
Gibts eine Definition für "reicht"? 30, 40, 50, 60, 70, 80 oder gar 120fps... such dir was aus. Ersteres wirst du wohl noch in vielen (nicht allen) Games einhalten können. Aber wollen wir uns wirklich mit nur 30fps zufrieden geben?
Also, so eine 8er-Shadergruppe arbeitet SIMD und die 4 Gruppen wie MIMD?
Dann hätte sich nichts geändert.
Ja.Talent merkt man an schlechter Lüftersteuerung der GTX280 Serie,zu hohe Standby Verbrauch,zu hohe Produktionskosten....
Welcher zu hohe Standby-Verbrauch? Da wurde GT200 massivst verbessert und liegt soweit ich weiß auch unter RV770 und RV790. Die Lüftersteuerung hat nichts mit dem Chip an sich zu tun.
Und was deine hohen Produktionskosten angeht: ATI konnte von RV670 zu RV770 die Transistoren sehr viel dichter packen. Da kann man von GT200 überhaupt keine Aussage für die Zukunft ablesen.
crux2005
2009-09-07, 19:08:58
Afaik wurde das GT212 Ende Sommer 2008 storniert und es kam nie zum finalen tapeout damit NV dieses Team woanders (irgend ein G30x Projekt) investieren kann.
kann ich bestätigen
der G300 wird schon gut, da mach ich mir dank G80 + G200 basis keine gedanken.
die frage ist nur wann er den jetzt endlich kommt und ob er wirklich richtig viel leistung hat.
mictasm
2009-09-07, 22:12:25
der G300 wird schon gut, da mach ich mir dank G80 + G200 basis keine gedanken.
die frage ist nur wann er den jetzt endlich kommt und ob er wirklich richtig viel leistung hat.
Zwei Persönlichkeiten in einem Beitrag :)
Ich entscheide mich nach den ersten Tests...
naja eine neue GPU kann auch ganz gut sein ohne gleich 300% mehr leistung zu haben ;-)
und ich denke das die meisten änderungen und erweiterungen in DX11 und Cuda geflossen sind... da her wäre ich noch vorsichtig...
mboeller
2009-09-08, 07:21:43
Entweder eine GPU die statt proprietären Opcodes vektorisierten x86 Code ausführt, was aber einen Nachbau von Larrabee bedeuten würde,
Ich hab auf Beyond3D mal scherzhaft gesagt, das Nvidia die Überbleibsel von Transmeta aufgekauft hat um sich die Compiler zu sichern damit sie X86-code auf ihrer GPU laufen lassen können. Leider geht das nicht mehr, da die Patente verkauft wurden. Intel hat übrigens Zugriff auf die Patente und sogar den Transmeta-Gründer unter Vertrag. Es würde mich deshalb nicht wundern wenn die nächsten Larrabee-Generationen deshalb nur VLIW-cores haben werden und X86 mit Software und Hardware emuliert laufen lassen werden.
Eine spezielle GPU für X86 benötigt also imho niemand, wie Transmeta gezeigt hat, um X86 drauf laufen zu lassen. Ein normaler VLIW core reicht aus. Nur die Software muss entsprechend gut sein. Der Efficion (sp?) hatte zum Schluss anscheinend die gleiche proMHz Leistung wie ein Atom. Und das mit nur 1 256bit VLIW core. Eine GPU könnte hier wesentlich schneller sein, da einfach mehr Hardware auf das Problem angesetzt werden kann. Heutige GPUs sind zwar noch nicht soweit, da noch so einiges an Hardware fehlt (MPU zB) aber die nächste Generation könnte schon soweit sein.
robbitop
2009-09-08, 08:51:24
IIRC hatte der Efficeon eine K7 ähnliche IPC gehabt. Ich glaube, das Ding hatte auch intern einen recht ähnlichen Aufbau wie der K7. BBSR weiß dazu wesentlich mehr...
Ailuros
2009-09-08, 09:37:49
du sagst es - ich will ja nicht sagen dass sie weniger können, sondern nur, dass man die extreme erwartungshaltung mal relativieren sollte. jedes geschäft kennt die schlechten zeiten, jede firma kennt demotivierte mitarbeiter etc.
Ich sehe keine NV Angestellten die nach AMD auswandern sondern eher das exakte Gegenteil. Du wolltest sagen?
Ailuros
2009-09-08, 09:40:32
Ich hab auf Beyond3D mal scherzhaft gesagt, das Nvidia die Überbleibsel von Transmeta aufgekauft hat um sich die Compiler zu sichern damit sie X86-code auf ihrer GPU laufen lassen können. Leider geht das nicht mehr, da die Patente verkauft wurden. Intel hat übrigens Zugriff auf die Patente und sogar den Transmeta-Gründer unter Vertrag. Es würde mich deshalb nicht wundern wenn die nächsten Larrabee-Generationen deshalb nur VLIW-cores haben werden und X86 mit Software und Hardware emuliert laufen lassen werden.
Eine spezielle GPU für X86 benötigt also imho niemand, wie Transmeta gezeigt hat, um X86 drauf laufen zu lassen. Ein normaler VLIW core reicht aus. Nur die Software muss entsprechend gut sein. Der Efficion (sp?) hatte zum Schluss anscheinend die gleiche proMHz Leistung wie ein Atom. Und das mit nur 1 256bit VLIW core. Eine GPU könnte hier wesentlich schneller sein, da einfach mehr Hardware auf das Problem angesetzt werden kann. Heutige GPUs sind zwar noch nicht soweit, da noch so einiges an Hardware fehlt (MPU zB) aber die nächste Generation könnte schon soweit sein.
Wo sind Arun's besoffene Affen noch gleich mal? :freak:
IMHO: Selbst wenn das ganze stimmen sollte würde es nicht heißen, das der GT300 sich verschiebt sondern nur, das Nvidia einen 40nm GT2xx als Juniper Konkurrenten braucht. So ein GT212 in 40nm Technologie könnte ja nur 250-260mm² groß sein. Das ist zwar größer als ein Juniper aber immer noch im Rahmen um vernünftig gegen einen Juniper "anstinken" zu können. Das ganze würde aber IMHO heißen, das sich die GT3xx Performance-GPUs verschieben.
Und wieso bitteschoen waere NV so bloed storniert Mitte 2008 ein Gt21x0 Projekt um es irgendwann in 2009 wieder anzufassen und nicht statdessen gleich auf eine G30x greift? Wuerde meines Wissens nach ein GT212 noch unter Entwicklung liegen (was eigentlich total absurd waere denn es gibt bei TSMC nicht ein einziges Anzeichen von so einem Ding) dann ja koennte das Ganze Sinn machen. Aber man ist nicht so verrueckt um anstatt gleich das richtige zu waehlen irgendwelche vergessene Leichen auszugraben. Charlie will lediglich die Welt ueberzeugen dass NVIDIA gigantische Probleme mit dem D12U chip-design hat; das ultra bloede an seinem Scheisshaufen ist eben dass er auch gleichzeitig behauptet dass jeglicher NV 40nm chip (GT21x/G3xx) serioese hw-Probleme haben soll.
Um es klar zu machen ich bestehe momentan auf gar nichts denn die generelle Geheimnis-tuerei gilt sowohl fuer NV als auch fuer AMD; zu 100% sicher ist sich heute keiner mehr. Wenn NV wirklich so serioese chip Design Probleme haben sollte wie es Charlie glauben will, wird es NV nicht lange verstecken koennen. Der Ironie zu Liebe versuchte er vor dem G80 Launch den genau gleichen Scheiss der Welt zu verkaufen und das nur weil ihm NV (wie einem zweiten Thomas Papst Nachfolger) nicht den Hintern geleckt hat wie er es gerne haben wollte. Kurz: ich hab keinen einzigen Anlass dem Spinner zu glauben.
reunion
2009-09-08, 11:27:34
Um es klar zu machen ich bestehe momentan auf gar nichts denn die generelle Geheimnis-tuerei gilt sowohl fuer NV als auch fuer AMD; zu 100% sicher ist sich heute keiner mehr. Wenn NV wirklich so serioese chip Design Probleme haben sollte wie es Charlie glauben will, wird es NV nicht lange verstecken koennen. Der Ironie zu Liebe versuchte er vor dem G80 Launch den genau gleichen Scheiss der Welt zu verkaufen und das nur weil ihm NV (wie einem zweiten Thomas Papst Nachfolger) nicht den Hintern geleckt hat wie er es gerne haben wollte. Kurz: ich hab keinen einzigen Anlass dem Spinner zu glauben.
Und Ailuros, weißt du zumindest ungefähr ob es Probleme gibt bei GT300 oder nicht? Ist ein Launch in 2009 noch realistisch? Um NV ist es ja erstaunlich ruhig, und wir haben schon September.
Ich glaube, das Ding hatte auch intern einen recht ähnlichen Aufbau wie der K7.
Nein. Ganz bestimmt nicht ;)
Wenn GT300 so spät wäre, dann hättren sich die NV-Partner imho längest gerührt und man hätte davon gehört.
reunion
2009-09-08, 14:20:50
Wenn GT300 so spät wäre, dann hättren sich die NV-Partner imho längest gerührt und man hätte davon gehört.
Komische Argumentation. Inwiefern sollen sie sich denn "rühren"? Wenn GT300 in Kürze kommen würde dann hätte man schon was hören müssen.
Wenn GT300 in Kürze kommen würde dann hätte man schon was hören müssen.
Naja, beim RV870 hat man ja auch nichts von AIBs gehört. Erst letzte Woche der Powercolor (?) Screenshot.
Charlie hört ja angeblich bei allen Telefonkonferenzen zwischen Huang, Analysten & Partnern mit. Da wäre mit Sicherheit das eine oder andere Wort gefallen. Wenn ich als NV (Groß)aktionär oder Partner nicht über eine so wichtige Sache informiert wäre (und die Partner würden dann nun mit Alternativstrategien beginnen), wäre ich ziemlich erbost.
reunion
2009-09-08, 14:43:55
Naja, beim RV870 hat man ja auch nichts von AIBs gehört. Erst letzte Woche der Powercolor (?) Screenshot.
V2.0 war ja der Meinung sie müssten sich rühren wenn etwas nicht stimmt, das fand ich etwas seltsam. Von RV870 gibt es schon ziemlich lange Bilder von Karten. Das Design muss ja auch erstmal entwickelt und an die AIBs und auch Spieleentwickler verteilt werden, ich kann mir kaum vorstellen das da keinerlei Bilder ins Netz kommen.
Charlie hört ja angeblich bei allen Telefonkonferenzen zwischen Huang, Analysten & Partnern mit. Da wäre mit Sicherheit das eine oder andere Wort gefallen. Wenn ich als NV (Groß)aktionär oder Partner nicht über eine so wichtige Sache informiert wäre (und die Partner würden dann nun mit Alternativstrategien beginnen), wäre ich ziemlich erbost.
Laut CJ scheint ja GT300 nicht auf der Roadmap für 2009 auf. Wieviele Infos brauche ich denn noch als Partner und warum genau sollte ich mich dann erbosen? Glaubst du das deshalb jemand öffentlich gegen NV rebelliert? Nützt ja eh nichts.
Laut CJ scheint ja GT300 nicht auf der Roadmap für 2009 auf.
War der G80 auf dieser Roadmap?
Auf einer Elsa Roadmap Ende 2008 war auch mal GT212?
reunion
2009-09-08, 15:04:59
War der G80 auf dieser Roadmap?
Keine Ahnung. Ist anzunehmen. Sonst brauche ich eh keine Roadmap.
Auf einer Elsa Roadmap Ende 2008 war auch mal GT212?
Ja, der wurde ja dann gecancelt.
Wäre GT300 extrem verspätet würden die Boardpartner sich entwender bemühen auch bei ATI anzudocken, oder eben andere Kompensation fodern. Das wäre längst aufgefallen.
Ailuros
2009-09-08, 15:27:43
Und Ailuros, weißt du zumindest ungefähr ob es Probleme gibt bei GT300 oder nicht? Ist ein Launch in 2009 noch realistisch? Um NV ist es ja erstaunlich ruhig, und wir haben schon September.
Nein. Ja und AMD ist auch nicht besonders plauderfreudig obwohl sie offensichtlich sehr kurz vor ihrem Launch sind.
Laut CJ scheint ja GT300 nicht auf der Roadmap für 2009 auf. Wieviele Infos brauche ich denn noch als Partner und warum genau sollte ich mich dann erbosen? Glaubst du das deshalb jemand öffentlich gegen NV rebelliert? Nützt ja eh nichts.
Rede mir bloss nicht ein dass Leute wie CJ oder Charlie total neutral sind oder keine Interessen dahinter stecken. Und damit ich nicht falsch verstanden werde: ich hab Charlie mit Papst verglichen aus dem Grund weil mir seine Geschichte stark an die Vergangenheit erinnert. Herr Thomas Papst (ja der Herr mit den variablen Haarfarben von Tomshardware....) wurde in der 3dfx Steinzeit von dem letzteren IHV eingeladen fuer eine neue Produktvorstellung. Herr Papst bestand auf freie A' Class Flugtickets und natuerlich auch kostenlose 5-sterne Unterkunft. Da 3dfx nie so etwas jemand anderem von der Presse bereitstellte, erklaerte man ihm dass es nicht moeglich sei. Bei dem Telefonat damals donnerte er ziemlich gewaltig ueber 3dfx und er wuerde alles tun was er koennte um sie so tief wie moeglich als Firma zu begraben. Es kam auch danach tatsaechlich nicht ein einziges positives Wort von Tomshardware.
Jemand sollte mal Charlie fragen warum er so angepisst gegen NV ist (nicht dass ich es persoenlich weiss) und warum er den Eindruck hat dass er etwas besonderes ist und besondere Behandlung generell haben sollte (und nein das obrige Beispiel gleicht sich nur auf der besonderen Behandlung und nicht gleiche Forderungen).
Laut X welches von Y kommt, wobei beide zum entourage von Phantom Z gehoeren usw usw. irgendwann koennte ich gerne die Luecken ausfuellen, aber ich hab ernsthaft keinen Bock noch mehr Messer aus meinem Buckel zu ziehen.
Als positives Signal deute ich, dass Charly sich irgendeine abstruse Story über Metal Layers aus den Fingern gezogen hat, um einen Launch 2009 zu erklären. Jaja, unser Charly...
ShadowXX
2009-09-08, 15:33:31
Nein. Ja und AMD ist auch nicht besonders plauderfreudig obwohl sie offensichtlich sehr kurz vor ihrem Launch sind.
Könnte es sein das es diesmal so ist das nicht mal ATI bzw. nV jeweils vom anderen wissen was für Karten er auf der Hand hält?
Also die beiden ebenfalls im Dunkeln tappen?
Als positives Signal deute ich, dass Charly sich irgendeine abstruse Story über Metal Layers aus den Fingern gezogen hat, um einen Launch 2009 zu erklären. Jaja, unser Charly...
Das ist aber fast zu technisch als ob er sich das ausgedacht haben könnte. Das Verfahren wird nämlich durchaus angewendet.
Ailuros
2009-09-08, 15:42:10
Könnte es sein das es diesmal so ist das nicht mal ATI bzw. nV jeweils vom anderen wissen was für Karten er auf der Hand hält?
Also die beiden ebenfalls im Dunkeln tappen?
Ich kann Dir sagen dass NV's engineers mehr als 1600SPs pro single chip GPU erwartet haben und deswegen auch ihr Ziel ziemlich hoch angelegt haben; was ich Dir momentan nicht sagen kann ist ob sie es erreicht haben.
mboeller
2009-09-08, 16:38:18
Phantom Z
Phantom Z ???????
aylano
2009-09-08, 17:26:25
Ich kann Dir sagen dass NV's engineers mehr als 1600SPs pro single chip GPU erwartet haben und
Vor oder nach der RV770-Ära Zeit??
Gipsel
2009-09-08, 17:53:54
Ich kann Dir sagen dass NV's engineers mehr als 1600SPs pro single chip GPU erwartet haben
Was natürlich erklärt, daß sie mit den 512SPs und vielleicht 1.6GHz Takt grob einen Faktor 2,5 angepeilt haben. Eine äquivalente Steigerung bei ATI wären ja 2000 SPs, die momentan eher unwahrscheinlich aussehen. Aber wie wir ja schon öfter festgestellt haben, die nackten Zahlen sind nicht alles ;)
Ailuros
2009-09-09, 09:17:40
Vor oder nach der RV770-Ära Zeit??
Glaubst Du ehrlich dass sie selbst vor der RV770 Vorstellung noch Zeit hatten irgend etwas besonderes an dem D12U Konzept aendern konnten?
Was natürlich erklärt, daß sie mit den 512SPs und vielleicht 1.6GHz Takt grob einen Faktor 2,5 angepeilt haben. Eine äquivalente Steigerung bei ATI wären ja 2000 SPs, die momentan eher unwahrscheinlich aussehen. Aber wie wir ja schon öfter festgestellt haben, die nackten Zahlen sind nicht alles ;)
IMHO liegt der "revolutionaerste" Punkt der Architektur in der insgesamten Frequenz-Verwaltung (falls natuerlich alles bisherige stimmt).
Glaubst Du ehrlich dass sie selbst vor der RV770 Vorstellung noch Zeit hatten irgend etwas besonderes an dem D12U Konzept aendern konnten?
Je nachdem, wie skalierbar die Architektur ausgelegt war - ja.
LovesuckZ
2009-09-09, 09:43:34
"Skalierbar" bedeutet nicht, dass ein fertiges Chipdesign einfach mal geändert werden kann. Der Entwicklungsprozeß war letztes Jahr im vollen Gange und erst mit den GT400 könnten Änderungen im Bezug auf die Konkurrenz einziehen.
Ailuros
2009-09-09, 10:25:54
Je nachdem, wie skalierbar die Architektur ausgelegt war - ja.
Nur deuten die bisherigen Daten keinesfalls auf einen zusaetzlich aufgepumpten chip; eher das Gegenteil.
***edit: damit es klarer wird; man kann in dem Fall leider nur auf GT200 Basis spekulieren obwohl es sich tatsaechlich um eine neue Generation handelt. Von dieser eher verkorksten Perspektive aus hast Du falls alle bisherigen Geruechte stimmen etwa 1Mrd. Transistoren um 272 mehr SPs, 48 mehr TMUs, X11 und was der Geier was noch reinquetschen. Bei zumindest insgesamt 3.5Mrd Transistoren wuerde ich sofort daran denken dass man hier clusters dazugeschoben hat und somit keinesfalls die Chance haette selbst unter 40nm auf ein dual-chip Gespann zu gehen. So wie es aussieht besteht die Moeglichkeit diesmal schon.
aylano
2009-09-09, 10:31:44
Glaubst Du ehrlich dass sie selbst vor der RV770 Vorstellung noch Zeit hatten irgend etwas besonderes an dem D12U Konzept aendern konnten?
Ich wollte sichergehen.
Interessant am GT300-Chip ist auch, dass dieser nicht größer ist als sein Vorgänger.
Deshalb die komische Frage.
Bzw. ich hab noch eine.
War der GT300 immer schon in 40nm um diese Zeit geplant?
Nun ja, damals wusste man ja noch nichts von ATIs Packdichte, wodurch bis RV770 eine schnelle Strukturverkleinerung im High-End nicht so extrem nötig war.
LovesuckZ
2009-09-09, 10:34:03
Ich wollte sichergehen.
Interessant am GT300-Chip ist auch, dass dieser nicht größer ist als sein Vorgänger.
Deshalb die komische Frage.
Bzw. ich hab noch eine.
War der GT300 immer schon in 40nm um diese Zeit geplant?
Nun ja, damals wusste man ja noch nichts von ATIs Packdichte, wodurch bis RV770 eine schnelle Strukturverkleinerung im High-End nicht so extrem nötig war.
480mm^2 in 55nm. Wie weit würdest du da noch höher gehen?
Ailuros
2009-09-09, 10:39:43
Ich wollte sichergehen.
Interessant am GT300-Chip ist auch, dass dieser nicht größer ist als sein Vorgänger.
Deshalb die komische Frage.
Bzw. ich hab noch eine.
War der GT300 immer schon in 40nm um diese Zeit geplant?
Nun ja, damals wusste man ja noch nichts von ATIs Packdichte, wodurch bis RV770 eine schnelle Strukturverkleinerung im High-End nicht so extrem nötig war.
G71= 90nm (Generationswechsel) G80 = 90nm, GT200 = 65nm, GT200b= 55nm, GT212= 40nm (Generationswechsel) G300= 40nm
Wieviel Chancen hatte NV 2.4Mrd. in 55nm zu packen und macht es ueberhaupt Sinn auf 55nm zu bleiben wenn auf den alten roadmaps noch ein high end GT21x unter 40nm geplant war?
Neocroth
2009-09-09, 10:50:52
@aylano
Naja, nVidia war früher ja bekannterweise sehr konservativ, was neue Fertigungstechniken betrifft. Ich denke, dass sie durch die 55nm des RV770 unter Zugzwang geraten sind. Sie können es sich nicht erlauben, in der Fertigungstechnik zurückzuliegen, da diese ja ein wesentlicher Schlüssel für kleinere und leistungsfähigere Dies sind. Vermutlich hat nVidia die Taktik von AMD übernommen, einen kleinen Chip in einem neuen Fertigungsverfahren vorraus zu schieben, im Sinne des GT216/218 und des RV740. Auf die Weise kann man Risiken minimieren und neue Technologie im Vorraus testen und das Design optimieren.
Lange Rede, kurzer Schluss: ich denke, dass nVidia die Strategie relativ kurzfristig geändert hat. Der GT300 war vermutlich nicht immer schon in 40nm geplant, das dürfte erst vor relativ kurzer Zeit entschieden worden sein. Dazu würde auch das Entfallen der Midrange-Ableger des GT200 passen.
LovesuckZ
2009-09-09, 10:55:16
@aylano
Naja, nVidia war früher ja bekannterweise sehr konservativ, was neue Fertigungstechniken betrifft. Ich denke, dass sie durch die 55nm des RV770 unter Zugzwang geraten sind. Sie können es sich nicht erlauben, in der Fertigungstechnik zurückzuliegen, da diese ja ein wesentlicher Schlüssel für kleinere und leistungsfähigere Dies sind. Vermutlich hat nVidia die Taktik von AMD übernommen, einen kleinen Chip in einem neuen Fertigungsverfahren vorraus zu schieben, im Sinne des GT216/218 und des RV740. Auf die Weise kann man Risiken minimieren und neue Technologie im Vorraus testen und das Design optimieren.
Das haben sie seit dem NV30 immer getan.
Lange Rede, kurzer Schluss: ich denke, dass nVidia die Strategie relativ kurzfristig geändert hat. Der GT300 war vermutlich nicht immer schon in 40nm geplant, das dürfte erst vor relativ kurzer Zeit entschieden worden sein. Dazu würde auch das Entfallen der Midrange-Ableger des GT200 passen.
Nein, das ist falsch. Man kann solch eine Strategie nicht kurzfristig ändern, da das Chipdesign auf den fertigungsprozeß angepasst sein muss.
Neocroth
2009-09-09, 11:07:37
Nein, das ist falsch. Man kann solch eine Strategie nicht kurzfristig ändern, da das Chipdesign auf den fertigungsprozeß angepasst sein muss.
Das wäre meine Begründung für das Ausbleiben der kleineren GT200-Ableger.
Mir ist bewusst, dass sich ein Chipdesign nicht so schnell ändern lässt. Andererseits sind über 1 Jahr seit Erscheinen des GT200 und der mobilen Varianten verstrichen. Das sollte eigentlich reichen, um das Design auf einen Fertigungsprozess anzupassen.
LovesuckZ
2009-09-09, 11:27:30
Das wäre meine Begründung für das Ausbleiben der kleineren GT200-Ableger.
Die 40nm Ableger verspäteten sich aufgrund des 40nm Prozesses. Außerdem hätten GT200 Ableger auf 55nm keinen Sinn gemacht, da das Leistungs/mm^2 Verhältnis nicht über dem des G92(b) liegt.
Mir ist bewusst, dass sich ein Chipdesign nicht so schnell ändern lässt. Andererseits sind über 1 Jahr seit Erscheinen des GT200 und der mobilen Varianten verstrichen. Das sollte eigentlich reichen, um das Design auf einen Fertigungsprozess anzupassen.
Der Chip wird auf 40nm und den Tools zur Fertigung angepasst. Ein Ändern des Chipdesigns von 55nm auf z.B 40nm ist überhaupt nicht möglich. nVidia wusste, wann 40nm zur Verfügung stünde und der GT300 war immer für das 4.Q 2009 geplant - also zu einer Zeit, in der man Annahm, dass 40nm schon längst produktionsreif wäre.
Ailuros
2009-09-09, 12:08:19
Ich kann zwar nicht wissen ob sich seit dem Kreidetafel-Design vom X11 chip sich etwas geaendert hat, aber ich bin mir relativ sicher dass 40nm schon vor 2008 als Ziel festlag.
http://img398.imageshack.us/img398/4585/nvidiaroadmapgt212gt206wz6.jpg
Links unten steht 2008.
aylano
2009-09-09, 12:40:15
480mm^2 in 55nm. Wie weit würdest du da noch höher gehen?
Na ja, wie z.B. GT300@45nm mit fast 600mm² (siehe GT200-65nm)
Ailuros
2009-09-09, 13:17:27
Na ja, wie z.B. GT300@45nm mit fast 600mm² (siehe GT200-65nm)
Na dann zeig mir mal einen high performance 45nm Herstellungsprocess bei TSMC und lass Dich bloss nicht von der bloeden ersten Namensgebung irrefuehren. Es war stets nur 40nm bei TSMC und es wurde auch NIE fuer eine andere foundry ausgelegt. Und um ganz genau zu sein fuer D12U ist es afaik 40G@TSMC.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.