PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv48 gecancelt, nv50 gecancelt ...?


saaya
2004-12-03, 21:55:11
nanü? :confused:



weiss jemand genaueres?

war nv50 eigentlich fuer 110nm oder fuer 90nm geplant?

reunion
2004-12-03, 21:59:12
Schau mal eine thread weiter nach untern. :ugly:

mapel110
2004-12-03, 22:00:04
ich denke, hier kanns zum NV50 weitergehen. Daher bleibt er erstmal offen.

deekey777
2004-12-03, 22:18:12
Fudo hat unüberlegt in etwa den gleichen Titel gewählt, wie schon bei dem NV48. Nur ist aus dem "Nvidia has canned NV48" (http://www.theinq.com/?article=19992)-Artikel deutlich herauszulesen, dass der NV48 gecancelt wurde, im "Nvidia's NV50 canned" (http://www.theinq.com/?article=20034)-Artikel steht dagegen nicht eindeutig, ob er (NV50) gecancelt wurde oder nicht.

Gast
2004-12-03, 22:26:48
es ändert sich halt nur der name aber es wird nicht zu verspätungen kommen

hoffe das ati,nv nicht immer zur gleichen zeit ihr chips vorstellen,da halte ich garnix von
wie können die beiden nur so ängstlich sein

wird der nächste nv50 ersatz zur cebit vorgestellt ?

saaya
2004-12-03, 23:27:45
also fuer mich hoert sich das eindeutig so an als ob nv50 gecancelt wurde...

er sagt doch "canned just like nv48" ...

[ncp]EasyChiller
2004-12-03, 23:36:06
das würde alles in allem bedeuten (wenns wahr ist) das nvda ihr nv40-design entweder enstampft und was komplett neues entwickelt .. oder den nv40 großteils neu designt (also nicht nur kleine Änderungen und Verbesserungen)

Was könnte dazu geführt haben?! Zu viele Fehler, welche nicht ohne weiteres korregierbar sind im nv40? :confused:

Aqualon
2004-12-03, 23:54:10
http://dict.leo.org/?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&relink=on&sectHdr=on&spellToler=std&search=canned

Wo bitte schön, lässt sich aus der Bedeutung von canned rauslesen, dass der NV50 komplett gestrichen worden ist? Für mich klingt das eher danach, dass man sich die Technik des NV50 für später aufhebt, weil anscheinend momentan kein Bedarf besteht, diese zur Marktreife zu entwickeln.

Oder hat canned noch eine Bedeutung, die nicht bei dict.leo.org erfasst ist?

Aqua

Godmode
2004-12-04, 00:01:12
canned: adj 1. eingemacht, eingedost, Büchsen- 2. mechanisch konserviert, Konserven 3. serienmäßig hergestellt 4. (sl) besoffen; ~ meat Büchsenfleisch n; ~milk Büchsenmilch f;....

wärs nicht besser im andern Thread weiterzumachen?

saaya
2004-12-04, 00:05:46
canned heisst eher verworfen als konserviert in der hardware industrie so weit ich weiss.

wenn man es fuer spaeter aufgehoben haette wuerde dort delayed stehen oder pushed back, canned heisst schon das es den nv50 so wie er eigentlich geplant war nicht geben wird.

nixe nv50, shoice nv50, kaputt... :D

also entweder heisst dass man ist einen schritt zurueck zu nv40 gegangen und baut darauf nochmal was neues auf, oder man ist einen schritt nach vorne gegangen und baut auf dem nv60 auf. letzteres halte ich eher fuer wahrscheinlich.

wärs nicht besser im andern Thread weiterzumachen?
mir egal...

Thunder99
2004-12-04, 00:10:49
Ich finds komisch, da ja der NV48 ein Refresh für den NV40 wahr und nun gegancelt wurde.

Beim NV50 handelt es sich doch um eine neue Architektur, da ja Shader 4.0 oder WGF beinhaltet (denk ich mal) :redface: .

Nebenbei sollte dieser erst Ende 2005, Anfang 2006 rauskommen sonst kommen sie doch in Teufelsküche mit den Kosten (fast jedes 1,5 Jahr neue Arhictekur? :crazy2: )

Monger
2004-12-04, 00:32:36
Tja, was heißt "canned" wirklich? Wortwörtlich heißt es ja "eingedost". Im Sinne von konservieren macht das aber irgendwie keinen Sinn... "zu Dosen verarbeiten=Schrott" hört sich in dem Zusammenhang tatsächlich deutlich logischer an.


Irgendwie kann ich mir gar nichts unter dieser Meldung vorstellen. Gibt es irgendeinen Grund, den NV50 zurückzuhalten? ATI ist selbst dann ein ernstzunehmender Gegner wenn sie mal nicht die besseren Karten produzieren. Eigentlich kann das doch nur heißen, dass es mit dem NV50 nicht so vorwärts geht wie man sich das wünscht. So oder so halte ich das für kein gutes Zeichen für nVidia.

Godmode
2004-12-04, 00:36:16
Vielleicht hat Nvidia was das gut genug ist um es gegen den R520 zu stellen und deshalb den NV50 erst später vorstellen will.

ironMonkey
2004-12-04, 00:53:18
Vielleicht hat Nvidia was das gut genug ist um es gegen den R520 zu stellen und deshalb den NV50 erst später vorstellen will.


Vieleicht lässt sich der NV50 aber auch nicht realisieren wie gewollt, wie es beim R400 der Fall war/ist und wird aus diesem Grund verschoben und umbenannt, das könnte ich mir schon vorstellen. Im Grunde kann der NV40 alles was man bis 06/07braucht.

Allerdings muss man sich ja auch immer wieder vor Augen halten welche Seite die Meldungen geschrieben hat............


Gruß

saaya
2004-12-04, 01:17:23
Vielleicht hat Nvidia was das gut genug ist um es gegen den R520 zu stellen und deshalb den NV50 erst später vorstellen will.

nochmal, dann haette da delayed oder pushed back gestanden...

canned=futsch, weg, nix nv50...

da das kurz nach dem nv48 cancel kommt koennte es auch sein dass sie beim nv40 optimieren zum nv48 auf etwas gestossen sind wie sie den nv48 haetten ordentlich beschleunigen koennen, so viel dass nv50 dagegen nicht mehr wirklich gut aussah, also verschieben sie jetzt nv48 an die stelle von nv50...

waere moeglich, wuerde mich aber schon wundern...

ich glaub eher die haben durch die kuerzlich an xbox2 entwickler ausgelieferte r500 prototypen gesehen und ordentliches muffensausen gekriegt, und daher den nv50 gecancelt da sie damit schlecht gegen einen r5xx angekommen waeren.

Plasmafusion
2004-12-04, 01:20:27
Wozu auch vor dem Release von LH was neues bringen ?
Es bleiben ATI & Mitläufern ~2 Jahre um ordentlich Geld zu scheffeln nur durch Takterhöhungen etc. Vor LH brauchts keine neue Architektur.

saaya
2004-12-04, 01:27:42
Wozu auch vor dem Release von LH was neues bringen ?
Es bleiben ATI & Mitläufern ~2 Jahre um ordentlich Geld zu scheffeln nur durch Takterhöhungen etc. Vor LH brauchts keine neue Architektur.

und genau da liegt der knackpunkt!
welche takterhoehung? nvidia bringt ja nichtmal eine hoeher getaktete 130nm 6800 karte raus, geschweigedenn eine 110nm karte die sie sicher um einiges hoeher takten koennten... ausserdem koennten sie den stromverbrauch reduzieren, ein einfacheres pcb benutzen, vieleicht sogar keinen molex plug, billigeren kuehler, leisen kuehler...

das ist gerade das ding, kein refresh? ok, also gleich zum next gen brummer... :)
next gen brummer gecancelt... :confused:

Gast
2004-12-04, 03:04:57
Quark, um den nv50 komplett zu canceln hätten sie das schon vor nem halben Jahr machen müssen, wenn sie denn einen Ersatzkonkurrenten zum R520 machen wollen, vom Tapeout zum Release sinds ja mehrere Monate, der NV50 hätte/wird (wer weis ob er wirklich gecancelt wurde) gegen Juni sein Tapeout haben, wenns bei Release Winter2005 bleiben sollte.
Man backt ja nicht ausm Stehgreif was neues, selbst verbesserungen wie vom NV30 zum NV35 haben Zeit gebraucht.

[ncp]EasyChiller
2004-12-04, 05:38:36
Mir erscheint das alles sehr dubios! ... Die ham ne ganzen haufen Leute be NV die sich alle besser auskennen als wir. Falls sie wirklich den 48 UND den 50 GECANCELT haben sollten ... was bitte könnten die Gründe dafür sein?!

Ich glaub nicht das der NV40 auf dauer gut gegen die ATI-Produkte dastehen wird ... NV wird wenns stimmt im nächsten Jahr mehr als ordentlich Federn und Marktanteile lassen müssen! (High End als Zugpferd)

Vielleicht versucht man wirklich viel mehr auf SLI zu setzten ... die Kartenpreise soweit zu drücken das ein NV40 SLI dann beispielsweise preiswerter ist als eine R5xx :rolleyes:

Also ich könnt mir denken das NV SLI küftig als die "HIGH-END-LÖSUNG" propagieren wird. ... Featuremässig hätten sie wohl sowieso nicht mehr soooo viel neues bringen können ... also alle Desings die noch nicht WGF2 erfüllen einstampfen und alles auf die Fertigstellung vom mutmaßlichen NV60 setzten ...

nur so meine Gedanken ...

Godmode
2004-12-04, 06:53:56
nochmal, dann haette da delayed oder pushed back gestanden...

canned=futsch, weg, nix nv50...

da das kurz nach dem nv48 cancel kommt koennte es auch sein dass sie beim nv40 optimieren zum nv48 auf etwas gestossen sind wie sie den nv48 haetten ordentlich beschleunigen koennen, so viel dass nv50 dagegen nicht mehr wirklich gut aussah, also verschieben sie jetzt nv48 an die stelle von nv50...

waere moeglich, wuerde mich aber schon wundern...

ich glaub eher die haben durch die kuerzlich an xbox2 entwickler ausgelieferte r500 prototypen gesehen und ordentliches muffensausen gekriegt, und daher den nv50 gecancelt da sie damit schlecht gegen einen r5xx angekommen waeren.

canned heißt aber anscheinend soviel wie eingemacht,konserviert was auch bedeuten könnte, dass der Markt den Chip noch nicht braucht!

Demirug
2004-12-04, 09:46:03
Wenn der NV50 ein WGF (WGF 2.0 nach ATIs aussagen) Chip ist könnte es durchaus sein das nVidia diesen von der Liste gestrichen hat nachdem sich Longhorn ja verzögert hat. Da sie ja einen weitgehend kompletten DX9 Chip haben könnten sie wie ATI beim R420 ein NV40 derivat bringen um die Zeit bis zu Longhorn zu überbrücken um dann mit der NV50 Technologie einen Chip zu bringen welcher dem aktuellen technischen Möglichkeiten entspricht.

Die Hauptfrage dabei ist aber ob einer der beiden einen WGF Chip ohne Longhorn auf den Tisch legen möchte. Aus rein technischer Sicht kein Problem aber es besteht die Gefahr dem "Gegner" zu früh zu veraten was Sache ist.

gruntzmaker
2004-12-04, 09:53:12
Wenn der NV50 ein WGF (WGF 2.0 nach ATIs aussagen) Chip ist könnte es durchaus sein das nVidia diesen von der Liste gestrichen hat nachdem sich Longhorn ja verzögert hat. Da sie ja einen weitgehend kompletten DX9 Chip haben könnten sie wie ATI beim R420 ein NV40 derivat bringen um die Zeit bis zu Longhorn zu überbrücken um dann mit der NV50 Technologie einen Chip zu bringen welcher dem aktuellen technischen Möglichkeiten entspricht.

Die Hauptfrage dabei ist aber ob einer der beiden einen WGF Chip ohne Longhorn auf den Tisch legen möchte. Aus rein technischer Sicht kein Problem aber es besteht die Gefahr dem "Gegner" zu früh zu veraten was Sache ist.

Wenn die beiden Gegner sein sollen, dann erklär mir doch mal diese Preisunterschiede zwischen 68GT und X800Pro, die ja immer noch 50€ betragen, bei Erzkonkurrenten wie diese beiden Firmen vorgeben es zu sein müssten doch Verfügbarkeit und Preise stimmen, oder nicht?

Demirug
2004-12-04, 10:01:08
Wenn die beiden Gegner sein sollen, dann erklär mir doch mal diese Preisunterschiede zwischen 68GT und X800Pro, die ja immer noch 50€ betragen, bei Erzkonkurrenten wie diese beiden Firmen vorgeben es zu sein müssten doch Verfügbarkeit und Preise stimmen, oder nicht?

Nein, bei der Preibildung spielt der Konkurrent nur eine indirekte Rolle indem er die Bereitschaft der Kunden für meine Produkte einen bestimmten Preis zu bezahlen beeinflusst.

Da sowohl nVidia wie auch ATI Fabless sind haben sie auch bei der Verfügbarkeit nicht die volle Kontrolle. Sie müssen daher mit dem was sie haben versuchen das Maximum herauszuholen.

ShadowXX
2004-12-04, 10:06:07
Wenn der NV50 ein WGF (WGF 2.0 nach ATIs aussagen) Chip ist könnte es durchaus sein das nVidia diesen von der Liste gestrichen hat nachdem sich Longhorn ja verzögert hat. Da sie ja einen weitgehend kompletten DX9 Chip haben könnten sie wie ATI beim R420 ein NV40 derivat bringen um die Zeit bis zu Longhorn zu überbrücken um dann mit der NV50 Technologie einen Chip zu bringen welcher dem aktuellen technischen Möglichkeiten entspricht.

Die Hauptfrage dabei ist aber ob einer der beiden einen WGF Chip ohne Longhorn auf den Tisch legen möchte. Aus rein technischer Sicht kein Problem aber es besteht die Gefahr dem "Gegner" zu früh zu veraten was Sache ist.

An sowas in der Richtung habe ich auch gedacht.

Vor Longhorn/WGF(2) werderm wir von nV wohl keine grossartig neue Architektur sehen und ich glaube auch nicht, dass der r520 mehr bieten wird, als er absolut muss um SM3.0 zu erfüllen (wenn er es denn überhaupt erfüllen wird).

Aber, was glaubst du, wie lange braucht nV um Quasi seinen eigene "r420"-Version der nV40 zu bauen.....

Veilleicht war ja doch was an den Gerüchten um den "nV47" mit 24Pipes dran???
Wenn der r520 "nur" 16 Pipes haben sollte (Wovon ich ausgehe), müsste ein 24Pipe nv40 (mit ein paar kleinen Tweaks) durchaus als Konkurenz reichen.

Wobei man sich bei einem 24Pipe Chip wohl zumindest nochmals dem Speicherinterface etwas genauer zuwenden müsst....

Demirug
2004-12-04, 10:13:32
An sowas in der Richtung habe ich auch gedacht.

Vor Longhorn/WGF(2) werderm wir von nV wohl keine grossartig neue Architektur sehen und ich glaube auch nicht, dass der r520 mehr bieten wird, als er absolut muss um SM3.0 zu erfüllen (wenn er es denn überhaupt erfüllen wird).

Aber, was glaubst du, wie lange braucht nV um Quasi seinen eigene "r420"-Version der nV40 zu bauen.....

Veilleicht war ja doch was an den Gerüchten um den "nV47" mit 24Pipes dran???
Wenn der r520 "nur" 16 Pipes haben sollte (Wovon ich ausgehe), müsste ein 24Pipe nv40 (mit ein paar kleinen Tweaks) durchaus als Konkurenz reichen.

Wobei man sich bei einem 24Pipe Chip wohl zumindest nochmals dem Speicherinterface etwas genauer zuwenden müsst....

Gerade die Anzahl der Shadereinheiten kann nVidia bei der NV4X Technologie scheinbar recht leicht verändern. Ich halte es soagr für durchaus möglich das sich nVidia willentlicht eines Missverhältnisses Bandbreite zu TMUs aussetzen wird. Da die meisten Spiele heute ja sowieso auf DXT Kompression setzten gibt es da ja etwas Spielraum jenseitzt der üblichen Füllraten Test.

Gast
2004-12-04, 10:22:43
http://dict.leo.org/?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&relink=on&sectHdr=on&spellToler=std&search=canned

Wo bitte schön, lässt sich aus der Bedeutung von canned rauslesen, dass der NV50 komplett gestrichen worden ist? Für mich klingt das eher danach, dass man sich die Technik des NV50 für später aufhebt, weil anscheinend momentan kein Bedarf besteht, diese zur Marktreife zu entwickeln.

Oder hat canned noch eine Bedeutung, die nicht bei dict.leo.org erfasst ist?

Aqua

Hahaha *gggg*

Wenn jemand bessere TEchnik hätte würde er sofort launchen!

Was für ein Argument!

Könnte ne Signatur werden!

ShadowXX
2004-12-04, 10:30:29
Hahaha *gggg*

Wenn jemand bessere TEchnik hätte würde er sofort launchen!

Was für ein Argument!

Könnte ne Signatur werden!

Nicht unbedingt..,.ein WGF-Fähiger Chip, selbst wenn sofort Launchbar, würde einfach Wirtschaftlich keinen Sinn machen, da er nur Transistorverschwendung wäre.

Man könnte ohne die WGF-API nämlich keine der neuen Funktionen nutzen...

Gast
2004-12-04, 11:19:03
Nicht unbedingt..,.ein WGF-Fähiger Chip, selbst wenn sofort Launchbar, würde einfach Wirtschaftlich keinen Sinn machen, da er nur Transistorverschwendung wäre.

Man könnte ohne die WGF-API nämlich keine der neuen Funktionen nutzen...

Und man würde der Konkurrenz Einblicke in seine Architektur gewähren, welche er nützen könnte um die Schwachstellen dieser zu finden und "zu seinen Gunsten" ausmerzen.

Das heißt NV würde die Drecksarbeit machen und ATi würde diese kopieren und weiterverbessern.

Gast

Dancer
2004-12-04, 11:25:03
Hahaha *gggg*

Wenn jemand bessere TEchnik hätte würde er sofort launchen!

Was für ein Argument!

Könnte ne Signatur werden!

nein ohne den Softwarestandard darunter ist das sinnlos und Geld sowie Ressourcenverschwendung.
Beim NV40 mit SM3.0 macht es noch Sinn, da das aktuelle DX Release diese Funktionalität bereits unterstützt. Die große Masse der Entwickler wird derzeit NV40 Karten im Rechner haben.
Bei einem WGF Chip macht das aber gar keinen Sinn, da es keine Softwarebasis dafür gibt. Man knallt sich unmengen an Transistoren für nichts rein, denn niemand kann damit gescheit entwickeln.
Man kann sich also auch keine Basis im Vorfeld schaffen, die dann später eigene Produkte bevorteilt.
Vor allem läuft man aber auch ähnlich wie beim NV30 Gefahr, dass M$ wieder in letzter Minute einen Anfall von Spec-Änderungen bekommt, und dann ist man angeschissen.

Ich glaube beide harren mit ihren WGF Prodjekten bis zur letztmöglichen Minute aus um bloß nicht neben der Spec zu liegen.
Bis dahin wird SM3 den Ton angeben. Dort besteht bei Nvidia nicht wirklich handlungsbedarf.
In diversen Pressekonferenzen hat man auch erwähnt, dass man beim NV4x darauf geachtet hat diesen so gut wie es geht modular zu gestalten, so dass man ihn möglichst einfach und kostengünstig abspecken und auch aufwerten kann.
Ich tippe auf eine aufgebohrte NV40 Variante um die Zeit bis LH zu überbrücken. Vielleicht vorher nochmal ein kurzer Taktrefresh und dann eine Version mit mehr Pipes oder aber man macht sich daran die Kosten für NV40 so zu drücken, dass man voll auf SLI setzen kann.
Das erscheint mir durchaus möglich.

Gast
2004-12-04, 11:26:03
Nicht unbedingt..,.ein WGF-Fähiger Chip, selbst wenn sofort Launchbar, würde einfach Wirtschaftlich keinen Sinn machen, da er nur Transistorverschwendung wäre.

Man könnte ohne die WGF-API nämlich keine der neuen Funktionen nutzen...
über ogl aber;)

Demirug
2004-12-04, 11:56:52
über ogl aber;)

Keine ausreichende Relevanz um als Motivation herzuhalten.

Gast
2004-12-04, 12:51:04
Keine ausreichende Relevanz um als Motivation herzuhalten.

leider, heißt es doch nichts anderes als daß Microsoft mit ihrer 3D API die Entwicklung im Chipbereicht bremst.

ShadowXX
2004-12-04, 12:55:58
leider, heißt es doch nichts anderes als daß Microsoft mit ihrer 3D API die Entwicklung im Chipbereicht bremst.

Ja und Nein...selbst wenn man über OGL die jeweiliger "spezialitäten" des Chips anspechen kann, würde dies bedeuten, das GAME X nur auf Karte Y laufen würde oder die Entwickler für jeden Chip extra einen Pfad schreiben müssten.

Das wäre für die ENtwickler einfach zu teuer....

saaya
2004-12-04, 13:03:40
EasyChiller']Mir erscheint das alles sehr dubios! ... Die ham ne ganzen haufen Leute be NV die sich alle besser auskennen als wir. Falls sie wirklich den 48 UND den 50 GECANCELT haben sollten ... was bitte könnten die Gründe dafür sein?!

Ich glaub nicht das der NV40 auf dauer gut gegen die ATI-Produkte dastehen wird ... NV wird wenns stimmt im nächsten Jahr mehr als ordentlich Federn und Marktanteile lassen müssen! (High End als Zugpferd)

Vielleicht versucht man wirklich viel mehr auf SLI zu setzten ... die Kartenpreise soweit zu drücken das ein NV40 SLI dann beispielsweise preiswerter ist als eine R5xx :rolleyes:

Also ich könnt mir denken das NV SLI küftig als die "HIGH-END-LÖSUNG" propagieren wird. ... Featuremässig hätten sie wohl sowieso nicht mehr soooo viel neues bringen können ... also alle Desings die noch nicht WGF2 erfüllen einstampfen und alles auf die Fertigstellung vom mutmaßlichen NV60 setzten ...

nur so meine Gedanken ...

ja, dass da was im busch ist ist ziemlich eindeutig :D

aber ueberleg mal, wenn nvidia den nv40 in sli billiger machen will, dann wuerden sie was machen? ihn billiger produzieren, und das hiesse 110nm... das waere ja nv48 gewesen!

es macht einfach im moment null sinn was nvidia da abzieht... (fuer uns! :D)

canned heißt aber anscheinend soviel wie eingemacht,konserviert was auch bedeuten könnte, dass der Markt den Chip noch nicht braucht!
zum 4ten mal, dann haetten sie doch delayed oder pushed back geschrieben wie sies sonst auch schreiben!

so, und fuer die die es immernoch nicht glauben koennen jetzt von fuad persoehnlich:

Hi sascha,

...as for NV50 canned means trashed - they are doing some other chip...


Wenn der NV50 ein WGF (WGF 2.0 nach ATIs aussagen) Chip ist könnte es durchaus sein das nVidia diesen von der Liste gestrichen hat nachdem sich Longhorn ja verzögert hat. Da sie ja einen weitgehend kompletten DX9 Chip haben könnten sie wie ATI beim R420 ein NV40 derivat bringen um die Zeit bis zu Longhorn zu überbrücken um dann mit der NV50 Technologie einen Chip zu bringen welcher dem aktuellen technischen Möglichkeiten entspricht.

Die Hauptfrage dabei ist aber ob einer der beiden einen WGF Chip ohne Longhorn auf den Tisch legen möchte. Aus rein technischer Sicht kein Problem aber es besteht die Gefahr dem "Gegner" zu früh zu veraten was Sache ist.

nein, nv50 wurde nicht verschoben, und so weit ich weiss sollte es kein sm4.0 chip sondern ein sm3.0 chip werden. aber sicher bin ich mir da nicht... aber dass klonghorn spaeter kommt war doch schon wirklich lange bekannt, und nvidia wusste das bestimmt sogar noch laenger als wir, also wieso sollten sie sich jetzt auf einmal umentscheiden? und wie gesagt, nicht verschoben sondern gecancelt haben sie das design!

Gast
2004-12-04, 13:09:46
Ja und Nein...selbst wenn man über OGL die jeweiliger "spezialitäten" des Chips anspechen kann, würde dies bedeuten, das GAME X nur auf Karte Y laufen würde oder die Entwickler für jeden Chip extra einen Pfad schreiben müssten.

Das wäre für die ENtwickler einfach zu teuer....

man könnte sich ja mal etwas schneller auf gemeinsame opengl extensions einigen, das würde helfen....

Demirug
2004-12-04, 13:10:08
leider, heißt es doch nichts anderes als daß Microsoft mit ihrer 3D API die Entwicklung im Chipbereicht bremst.

sehe ich anders. Werden durch DX und dann WGF die IHVs doch gezwungen sich auf eine einheitliche API festzulegen. Ich weiss das diese Beispiel abgetroschen ist aber unter OpenGL haben es die IHVs bis heute nicht geschafft sich für die DX8 Generation (NV2X, R2XX) auf eine einheitliche Extension festzulegen.

Als jemand der noch unter DOS programmiert hat kenne ich die Schrecken des Hardware Wildwuchses. Dadurch entsteht zwar ein kurzfristiger Entwicklungsschub da sich die Softwareentwickler aber nur sehr zögerlich auf die unterschiedlichen Systeme einlassen und vorzugsweise warten bis sich jemand durchgesetzt hat wirkt es dann eher bremsend.

Ich wage jetzt mal zu behaupten das ohne DX nVidia in iherer Hochphase alle anderen dermassen an die Wand hätte drücken können das diese nicht mehr hochgekommen wären.

IVN
2004-12-04, 13:23:14
sehe ich anders. Werden durch DX und dann WGF die IHVs doch gezwungen sich auf eine einheitliche API festzulegen. Ich weiss das diese Beispiel abgetroschen ist aber unter OpenGL haben es die IHVs bis heute nicht geschafft sich für die DX8 Generation (NV2X, R2XX) auf eine einheitliche Extension festzulegen.

Als jemand der noch unter DOS programmiert hat kenne ich die Schrecken des Hardware Wildwuchses. Dadurch entsteht zwar ein kurzfristiger Entwicklungsschub da sich die Softwareentwickler aber nur sehr zögerlich auf die unterschiedlichen Systeme einlassen und vorzugsweise warten bis sich jemand durchgesetzt hat wirkt es dann eher bremsend.

Ich wage jetzt mal zu behaupten das ohne DX nVidia in iherer Hochphase alle anderen dermassen an die Wand hätte drücken können das diese nicht mehr hochgekommen wären.

OT@

What i really like about nv is they struggle to help develpers with their work,just look at those books,tools that thay released (CG,shader perf,Atlas tool,FXcomposer,nvPerfHud,Melody,GPU Gems,Gems II that will soon be released,CG tutorial ect.) and white paper that are more easy to learn than that marketing ATI s*it,which only promotes their GPUs and looks far more like a commercial than anything else i ever seen.

saaya
2004-12-04, 13:31:01
Wenn die beiden Gegner sein sollen, dann erklär mir doch mal diese Preisunterschiede zwischen 68GT und X800Pro, die ja immer noch 50€ betragen, bei Erzkonkurrenten wie diese beiden Firmen vorgeben es zu sein müssten doch Verfügbarkeit und Preise stimmen, oder nicht?

die wollten sich gegenseitig ueberbieten, sind jedoch mit den taktraten und pipelines so hoch gegangen dass sie arge probleme haben diese karten jetzt auch zu liefern....

und solange beide lieferprobleme haben hat keiner einen vorteil... und solange der eine nicht auf einmal ueber deutlich bessere verfuegbarkeit kommt, seiht der andere auch keinen drang zum handeln, denn handlen ist aufwand und kostet geld :D

alles ein grosses pokerspiel und wir kriegen die chips kruemel die vom tisch fallen :D

An sowas in der Richtung habe ich auch gedacht.

Vor Longhorn/WGF(2) werderm wir von nV wohl keine grossartig neue Architektur sehen und ich glaube auch nicht, dass der r520 mehr bieten wird, als er absolut muss um SM3.0 zu erfüllen (wenn er es denn überhaupt erfüllen wird).

Aber, was glaubst du, wie lange braucht nV um Quasi seinen eigene "r420"-Version der nV40 zu bauen.....

Veilleicht war ja doch was an den Gerüchten um den "nV47" mit 24Pipes dran???
Wenn der r520 "nur" 16 Pipes haben sollte (Wovon ich ausgehe), müsste ein 24Pipe nv40 (mit ein paar kleinen Tweaks) durchaus als Konkurenz reichen.

Wobei man sich bei einem 24Pipe Chip wohl zumindest nochmals dem Speicherinterface etwas genauer zuwenden müsst....

ich gehe davon aus das r520 32 pipelines hat.
davon werden aber bestimmt nur 24 bis 28 aktiv sein. dazu ein neues speicherinterface, ich gehe von xdr von rambus aus :)

Gerade die Anzahl der Shadereinheiten kann nVidia bei der NV4X Technologie scheinbar recht leicht verändern. Ich halte es soagr für durchaus möglich das sich nVidia willentlicht eines Missverhältnisses Bandbreite zu TMUs aussetzen wird. Da die meisten Spiele heute ja sowieso auf DXT Kompression setzten gibt es da ja etwas Spielraum jenseitzt der üblichen Füllraten Test.
also ich glaub nvidia und ati werden jetzt beide erstmal an einer neuen speicher technologie arbeiten, nv40 ist ja deutlich spuerbar bandbreiten hungrig! ein nv40 mit 16 pipelines ist unter 800mhz speichertakt so stark bandbreiten limitiert dass man die gpu noch so hoch takten kann und es bringt kaum extra performence!

OT@

What i really like about nv is they struggle to help develpers with their work,just look at those books,tools that thay released (CG,shader perf,Atlas tool,FXcomposer,nvPerfHud,Melody,GPU Gems,Gems II that will soon be released,CG tutorial ect.) and white paper that are more easy to learn than that marketing ATI s*it,which only promotes their GPUs and looks far more like a commercial than anything else i ever seen. naja.. sie tuns doch nur weil sie dacvon einen vorteil haben ;)
es ist sogesehen einfach nur schlau und nicht nett :D

Leonidas
2004-12-04, 13:36:41
Wenn jemand bessere TEchnik hätte würde er sofort launchen!



Nö! Wenn WGF fehlt, nützt Dir Dein WGF-kompatibler Chip gar nix.

IVN
2004-12-04, 13:36:55
naja.. sie tuns doch nur weil sie dacvon einen vorteil haben ;)
es ist sogesehen einfach nur schlau und nicht nett :D

Yes,i know,but ATI isn't doing that.No boks,no good tools (ok i must be honest there are some that are good).And nv also invests a lot in new tehnolody,where ATI looks to get the chip surface small.Just look how thay are slowing down the process of development with their Flinstons card.

saaya
2004-12-04, 13:49:56
Yes,i know,but ATI isn't doing that.No boks,no good tools (ok i must be honest there are some that are good).And nv also invests a lot in new tehnolody,where ATI looks to get the chip surface small.Just look how thay are slowing down the process of development with their Flinstons card.
we all know that your biased, but try to hide it a bit better :p :D hehehe

Demirug
2004-12-04, 14:11:34
also ich glaub nvidia und ati werden jetzt beide erstmal an einer neuen speicher technologie arbeiten, nv40 ist ja deutlich spuerbar bandbreiten hungrig! ein nv40 mit 16 pipelines ist unter 800mhz speichertakt so stark bandbreiten limitiert dass man die gpu noch so hoch takten kann und es bringt kaum extra performence!

Was Speicherhardware angeht können sie nicht viel tun. Caches bringen nur begrenzt etwas bei Grafikchips. Bleibt also nur noch Kompression und da draf man IMHO auch keine grossen Wunder erwarten.

saaya
2004-12-04, 14:17:24
da gibts qdr2 gddr4 und xdr... ich halte xdr fuer am wahrscheinlichsten...

IVN
2004-12-04, 15:27:11
we all know that your biased, but try to hide it a bit better :p :D hehehe

Of cours i am.I like ice cream more then hot chocolate ;D



P.S. At first you spoke German,and now you are speaking English.What's wrong? Split personality or what? ;D

marco42
2004-12-04, 16:10:04
Ich wage jetzt mal zu behaupten das ohne DX nVidia in iherer Hochphase alle anderen dermassen an die Wand hätte drücken können das diese nicht mehr hochgekommen wären.

Da will ich nicht wiedersprechen, ich glaube aber auch, das MS DX nicht mehr so schnell weiter entwickeln wird, wenn OpenGL weg ist. Eigentlich ist die Situation, wie sie sich im Moment darstellt, gar nicht so schlecht. Wenn MS keine Konkurrenz mehr hat, waere es irrational sehr viele Ressourcen in der Entwicklung zu binden. Dies sieht man sehr schon an Linux, dass hat sehr viel bei MS in Bewegung gesetzt, und bei Office(wo ist da eigentlich ein wirklicher Fortschritt, ich halte das ganze WYSIWIG-direct manipulation Paradigma in diesem Bereich fue Overkill. MS ist eine hohest rationelles Unternehmen(in spieltheoretischen Sinne), so lange sie starken Wettbewerb haben, leisten sie wirklich interessante Sachen, aber ohne stellen sie ihre Bemuehungen auf das noetigste ein.

MechWOLLIer
2004-12-04, 16:10:37
also ich glaub nvidia und ati werden jetzt beide erstmal an einer neuen speicher technologie arbeiten, nv40 ist ja deutlich spuerbar bandbreiten hungrig! ein nv40 mit 16 pipelines ist unter 800mhz speichertakt so stark bandbreiten limitiert dass man die gpu noch so hoch takten kann und es bringt kaum extra performence!

Theoretisch gesehen gebe ich dir da durchaus recht, nur ich Frage mich ständig, warum der NV40 deutlich stärker auf einen höheren Chiptakt als auf einen höheren Speichtakt reagiert?
Zumindest bei meiner Karte lohnt es sich deutlich mehr den Chiptakt zu erhöhen als den Speichertakt.

saaya
2004-12-05, 00:14:07
Theoretisch gesehen gebe ich dir da durchaus recht, nur ich Frage mich ständig, warum der NV40 deutlich stärker auf einen höheren Chiptakt als auf einen höheren Speichtakt reagiert?
Zumindest bei meiner Karte lohnt es sich deutlich mehr den Chiptakt zu erhöhen als den Speichertakt.

das ist natuerlich alles relativ, von welchen taktraten reden wir hier denn?

du kannst ja selbst mal ausprobieren wie es bei 800mhz und niedrigerem speichertakt und verschiedenen gpu takten aussieht, ich wuerde es gerne testen bin aber zu arm fuer ne 6800 karte LOL :D

ich hab nur oft gelesen dass leute mit ihren ergebnissen nicht zufreiden waren als sie die gpu uebertaktet haben, und es stellte sich meistens heraus das der speicher zu lahm war (<800;=800) da sie eine 6800NU oder SE auf 16 pipes gemoddet haben, und mit nur 8 oder 12 pipes hat eine gpu takterhoehung prozentual viel mehr gebracht als mit 16 pipes.

wo genau die bandbreitengrenze liegt wuerd mich selbst auch interessieren, waere cool wenn das jemand testen kann :)

dann kann man naehmlich inetwa berechnen wieviel bandbreite die naechsten karte inetwa brauchen wird (nv49?nv52?)

Of cours i am.I like ice cream more then hot chocolate ;D



P.S. At first you spoke German,and now you are speaking English.What's wrong? Split personality or what? ;D

i speak many languages and as soon as somebody speaks to me ain a language i know it goes "flip" and i reply in that language as well :D

meh, been speaking english too much in the last weeks, im starting to get into trouble finding the correct german word sometimes and keep comming up with english words ;D

MechWOLLIer
2004-12-05, 09:46:43
das ist natuerlich alles relativ, von welchen taktraten reden wir hier denn?
du kannst ja selbst mal ausprobieren wie es bei 800mhz und niedrigerem speichertakt und verschiedenen gpu takten aussieht, ich wuerde es gerne testen bin aber zu arm fuer ne 6800 karte LOL :D
ich hab nur oft gelesen dass leute mit ihren ergebnissen nicht zufreiden waren als sie die gpu uebertaktet haben, und es stellte sich meistens heraus das der speicher zu lahm war (<800;=800) da sie eine 6800NU oder SE auf 16 pipes gemoddet haben, und mit nur 8 oder 12 pipes hat eine gpu takterhoehung prozentual viel mehr gebracht als mit 16 pipes.
Von einer 12 Pipes GPU die auf 16Pipes gemoddet wurde ohne den Speichertakt zu erhöhen kann ich nicht sprechen, da ich keine entsprechende Karte haben. Allerdings kann man sich das in dem Fall auch denken. Man hat due Füllrate deutlich erhöht, die Speicherbandbreite aber gleich gelassen. Wo dann dort der Flaschenhals ist, sollte klar sein:)

Ich kann nur von einer 6800U sprechen. Dort reagiert die Karte deultlich mehr auf einen höheren Chiptakt, als Speichertakt.

Ailuros
2004-12-05, 10:24:24
Von einer 12 Pipes GPU die auf 16Pipes gemoddet wurde ohne den Speichertakt zu erhöhen kann ich nicht sprechen, da ich keine entsprechende Karte haben. Allerdings kann man sich das in dem Fall auch denken. Man hat due Füllrate deutlich erhöht, die Speicherbandbreite aber gleich gelassen. Wo dann dort der Flaschenhals ist, sollte klar sein:)

Ich kann nur von einer 6800U sprechen. Dort reagiert die Karte deultlich mehr auf einen höheren Chiptakt, als Speichertakt.

Also wenn Du wirklich Zeit zum verschwenden hast, koenntest Du so manches Experiment via Rivatuner ausfuehren. Das eine ist aber nicht relevant mit dem anderen und Du hast natuerlich auch recht dass wenn man die Fuellrate zu radikal erhoeht (von 3 auf 4 quads als Beispiel) wird das board automatisch viel zu viel Bandbreiten-hungrig. Nichtdestominder komme ich auf =/>30% Leistungs-aufschwung nur wenn ich den Core um ca. 10% und den Speicher um satte 25% uebertakte.

Was nun die 6800U betrifft, wie hoch kannst Du eigentlich Core und Speicher uebertakten? Mehr als 10% jeweils? Wenn Du in diesem Bereich experimentiert hast, dann sind die Resultate auch normal IMHO. Es haengt aber auch natuerlich davon ab mit welchen genau Applikationen man testet. Bezieht sich so was z.B. auf den PS2.0 Test in 3dmark03, dann ist der Speichertakt eigentlich schnuppe.

Gast
2004-12-05, 11:23:27
Leonidas hat doch schon gute Arbeit geleistet ^^
http://www.3dcenter.org/artikel/nv40_benchmarks/index11.php

300/300 MHz: 63,7 fps
300/400 MHz: 72,6 fps
400/300 MHz: 72,3 fps
400/400 MHz: 86,8 fps

(default 400/550 MHz: 98,3 fps)
(maximaler Takt 467/618 MHz: 113,0 fps)

saaya
2004-12-07, 11:54:50
ne, das reicht doch nicht aus um zu sehen ab wann der nv40 bandbreiten limitiert ist, ausserdem hat er nur mit 16p getestet

Ailuros
2004-12-08, 06:50:48
ne, das reicht doch nicht aus um zu sehen ab wann der nv40 bandbreiten limitiert ist, ausserdem hat er nur mit 16p getestet

NV40 wurde mit 4 quads entwickelt; 6800nonU ist ja nur ein Modell um auch die leicht verkorksten chips auch verkaufen zu koennen.

Von dem abgesehen bezweifle ich dass man eine 6800Ultra hoeher als das unter normalen Bedingungen uebertakten kann und ueberhaupt den Speicher.

Waere es moeglich gewesen den Speicher mit mehr als 20-25% zu uebertakten, waere das Bild womoeglich ganz anders.

Was natuerlich absolut klar ist und Leo es auch erwaehnt, ist dass NV40@400MHz keinen schnelleren Speicher braucht.

Quasar
2004-12-08, 08:33:25
Leonidas hat doch schon gute Arbeit geleistet ^^
http://www.3dcenter.org/artikel/nv40_benchmarks/index11.php

300/300 MHz: 63,7 fps
300/400 MHz: 72,6 fps
400/300 MHz: 72,3 fps
400/400 MHz: 86,8 fps

(default 400/550 MHz: 98,3 fps)
(maximaler Takt 467/618 MHz: 113,0 fps)

Dazu:
"Als Benchmark diente uns dabei wieder das Suntemple-Flyby von Unreal Tournament 2003 unter 16x anisotropen Filter mit 4x Anti-Aliasing."

Wie hoch der VRAM-Verbrauch der Suntemple-Demo ist, weiß ich grad aus dem Kopfe nicht, aber mit 4xAA in 1600x1200 (auch wenn es ein Heimatgebiet solcher Karten im Spielegebrauch ist), läßt sich IMO kein brauchbarer Skalierungstest durchführen.