PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: Alles rund um die neue Generation, Teil 5


Seiten : 1 2 3 [4]

Nakai
2007-03-09, 16:55:34
Die wenigsten wissen von den Filteroptimierungen durch AI, ATI wird da so schnell nichts ändern. Schlußendlich ist die Balkenlänge entscheidend, die BQ nicht immer.

mfg Nakai

Gast
2007-03-09, 17:03:13
Das passiert aber nicht solange der AI-Schalter ATI auch noch Vorteile bringt, weil der Großteil der Reviewer mit AI-Standard bencht. Wenn jeder mit AI-Off testet, wird ATI ganz schnell mit diesem Mist aufhören.
Ist sowieso egal, wer beste IQ haben stellt A.I. off. Welche Games produzieren dann Fehler oder welche verlieren dann Performance, die nicht ausschließlich auf Filteroptimierungen zurückgeht. Bei Doom waren's angeblich Shaderreplacements. Müsste man mal genauer betrachten, was da wirklich dran ist.

dargo
2007-03-09, 17:12:31
Wenn man ATI-Karten gegen einen G80 bencht, gehört AI auf jeden Fall abgeschaltet.

Ich sehe das wieder anders. Die User die mit AI standard zufrieden sind werden sicherlich kein AI off nutzen wenn es Performance kostet. ;)
Das selbe könnte man auch auf den G7x übertragen. Wenn einem User die BQ reicht warum sollte er es nicht so lassen?

Um fair mit dem G80 zu vergleichen sollte man natürlich AI off nehmen. Ich würde aber nie behaupten, die G8800GTS ist zb. um 70% (Fantasiewert) schneller als eine X1900XT nur weil die ATI mit AI off BQ mäßig vergleichbar ist. Wo bei AI standard der Vorsprung vielleicht nur noch bei 50% liegt. Oder anders gesagt, ich würde mir die G80 Karte nicht mit der Erwartung von 70%+ holen sondern eher 50%+. Weil ich eben mit AI standard zufrieden bin.


1xAF-Tests fallen weg, da das G80 zu stark benachteiligen würde, da dieser seine volle Leistung erst bei Nutzung von AF bringt. Und wer zockt schon auf einem G80 ohne AF?

1xAF bezog sich auf R5x0 vs. G7x. Wenn du mich fragst ist das die einzige Alternative um die Performance beider Grakas bei den ganzen Filterspielereien fair zu vegleichen.


Welchen vernünftigen Grund gibt es AI anzulassen?
Ähm, weil es mehr Leistung vielleicht bringen kann? :|

horn 12
2007-03-09, 17:51:16
Wenn dies stimmen sollte von Fudzilla kann dies nur bedeuten:

A) der R600 ist doch recht schwach unterwegs und somit muss sich die nun zusammengelegte XT auf nun XTX mehr als gut verkaufen, aber die ursprünglichen XTX Taktraten konnten nicht gehalten werden, und der gddr4- Speicher kommt erst gegen Ende April

B) Bereits die X2900 XL ist in etwa +5 -10% gleich schnell wie die 8800 GTX und man will mit der XTX 512 MB GDDR3 zu einem "Wahnsinnspreis" das High End erobern und ist bedeutend schneller als die 8800 GTX
und die 2-te XTX kommt für Enthusiasten mit 1GB DDR4 aber selben Taktraten. Ist halt zukunftssicherer.
Jedoch den finalen Takt würde ich nicht unter 800-820 Mhz einordnen, erreichen wollte man wohl 850 Mhz und mehr, was wohl nicht machbar war.
Somit hat man in etwa gleiche Performance und die XL deckt das untere High End ab, und es gibt nur mehr 2 karten XL + XTX /1x512 1x1GB
Hoffe stark auf diese Version.

StefanV
2007-03-09, 18:42:42
Das ist aber eine sehr gewagte Behauptung von dir. Sag das den Leuten die kein Geld für eine neue Graka haben bzw. je 2-3 Jahre diese wechseln.
Oder war das jetzt auf NV (Treiberabteilung) bezogen?
Wieso?!

Ist doch bisher bei nVidia immer so gewesen, das der 'alte Shit' nur mehr schlecht supportet wird, wenn eine neue Generation erschienen ist, wenn sie denn überhaupt noch weiterentwickelt werden, treibermäßig...

r3ptil3
2007-03-09, 21:42:44
Schon vorgekommen?

http://www.overclockers.ru/images/news/2007/03/02/r600_04.jpg

StefanV
2007-03-09, 21:51:16
yap, mehrmals....

Raff
2007-03-09, 23:15:44
Ich sehe das wieder anders. Die User die mit AI standard zufrieden sind werden sicherlich kein AI off nutzen wenn es Performance kostet. ;)
Das selbe könnte man auch auf den G7x übertragen. Wenn einem User die BQ reicht warum sollte er es nicht so lassen?

Es gibt auch User, die mit dem Karzinogen Nvidia Quality mit aktivierten "Optimierungen" zufrieden sind. Das ist aber nicht objektiv. Letzteres ist, mit weitgehend gleicher BQ zu benchen. Wenn Ati meint, unbedingt die unsichtbaren (ich sah noch keine negativen Effekte) Shaderreplacements daran zu koppeln, dann ist das deren Bier.

MfG,
Raff

robbitop
2007-03-10, 00:22:38
Nvidia: Vertexshader 5D*3 Flops*6Units. Habe ich neulich aus einer GF6-Präsenation herauskopiert - frag jetzt bitte nicht, welche.
Ja die NV40 hat auch 5D VS (eigentlich 4D +1 skalar fuer die Beschleunigung einiger weniger Dinge) Units. Das sagt aber ueber den Shadercode. Und natuerlich behaupten Hersteller immer, dass das was sie verwenden auch gut ist. So behauptete NV zum NV40, dass nach tausenden Shaderanalysen der Shadercode im Mittel MUL Lastig ist. ATI behauptet mit dem gleichen Argument das Gegenteil (ADD Lastig). Immer so wie mans braucht. :)




Demirug meinte IIRC, dass 2D-lookups für Normal-Mapping und dergleichen immer populärer wird.
In Zukunft kann das sich weiter ausbreiten. Siehe dynamic branching/looping. Obs auch so schnell passiert, ist die andere Frage.

Gut, wenn man die Transistoren ueberhat, bzw der 5. Kanal eh guenstig ist, und es in Zukunft mehr vorkommen koennte...warum nicht?

reunion
2007-03-10, 09:19:17
Der FSX-Mensch hat neulich ja geblogged, dass die GS-Performance des R600 deutlich über der der G80 läge. Nur so als Beispiel.

War ja fast zu erwarten, dass nV Dinge, die bei dieser Generation eher weniger Verwendung finden, wieder nur auf dem Papier unterstützt. Ich bin schon gespannt, wie es mit anderen D3D10-Features aussieht. So viel jedenfalls zum perfekten G80.

mapel110
2007-03-10, 09:36:53
War ja fast zu erwarten, dass nV Dinge, die bei dieser Generation eher weniger Verwendung finden, wieder nur auf dem Papier unterstützt. Ich bin schon gespannt, wie es mit anderen D3D10-Features aussieht. So viel jedenfalls zum perfekten G80.
ATI hat auch schon Dinge nur auf dem Papier angeboten. Siehe FP-texture Filtering, siehe vertextexturing.

reunion
2007-03-10, 09:46:41
Die hat man besser gesagt gar nicht angeboten.

StefanV
2007-03-10, 10:34:38
ATI hat auch schon Dinge nur auf dem Papier angeboten. Siehe FP-texture Filtering, siehe vertextexturing.
Naja, bei AMD sehe ich eher, das sie etwas richtig anbieten oder eben garnicht.

Was du hier angesprochen hast, fällt unter den Punkt garnicht, ersteres ist zwar äußerst unschön, da man das 'zurechtpatchen' musste, letzteres noch viel unschöner, da man eine Lücke der Spec kreativ ausgenutzt hat...

Die Checklist Features mit schlechter Performance find ich auch nicht soo prickelnd, gibts bei nV ja leider auch immer wieder, zuletzt dyn. Branching auf deren SM3 Karten, was von der Performance nicht sonderlich schön war...
Gut, die Architektur war veraltet und daher ist dieser Haken bauartbedingt...

Gast
2007-03-10, 10:54:03
War ja fast zu erwarten, dass nV Dinge, die bei dieser Generation eher weniger Verwendung finden, wieder nur auf dem Papier unterstützt. Ich bin schon gespannt, wie es mit anderen D3D10-Features aussieht. So viel jedenfalls zum perfekten G80.

Zieh mal keine voreilligen Schlüsse aus irgendwelchem FUD. ;)

Nakai
2007-03-10, 10:55:48
Nun es war bis jetzt immer so...^^:rolleyes:

mfg Nakai

Hvoralek
2007-03-10, 11:02:37
Ist doch bisher bei nVidia immer so gewesen, das der 'alte Shit' nur mehr schlecht supportet wird, wenn eine neue Generation erschienen ist, wenn sie denn überhaupt noch weiterentwickelt werden, treibermäßig...Hast Du dafür vlt. Beispiele? Ältere Karten mit neuen Treibern werden zwar nur selten untersucht, aber z.B. der NV25 ist zu NV4x- Zeiten gut unterstützt worden (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).

Winter[Raven]
2007-03-10, 11:07:25
Ich sag mal so ... mir ist ein "langsammeres" feature lieber als garkeine...

Demirug
2007-03-10, 11:07:26
Zieh mal keine voreilligen Schlüsse aus irgendwelchem FUD. ;)

Die GS Performance des G80 ist derzeit wirklich nicht prickelnd. Allerdings sind das die ganzen D3D10 Treiber auch nicht.

Gast
2007-03-10, 11:23:03
War ja fast zu erwarten, dass nV Dinge, die bei dieser Generation eher weniger Verwendung finden, wieder nur auf dem Papier unterstützt. Ich bin schon gespannt, wie es mit anderen D3D10-Features aussieht. So viel jedenfalls zum perfekten G80.
Wie kann man einen GS "nur auf dem Papier" unterstützen? Bitte direkt mit Belegen...

Armaq
2007-03-10, 11:30:31
Irgendwie kommen die Jungs mit D3D10 alle noch nicht wirklich klar.
Die realen Möglichkeiten werden uns wohl noch eine Weile verschlossen bleiben.
Mir ist es erstmal egal, da meine Lieblingsgames eh alle Dx9 beinhalten und wunderbar laufen. Wobei Supreme Commander sich ruhig mal die Graka zur Unterstützung heranhohlen könnte. Die langweilt sich zu Tode während der Prozessor den Marathon im Sprint bewältigen muss.

edit: Und ich hab bisher nur die Demo von SC am Wickel.

Gast
2007-03-10, 12:16:16
War ja fast zu erwarten, dass nV Dinge, die bei dieser Generation eher weniger Verwendung finden, wieder nur auf dem Papier unterstützt. Ich bin schon gespannt, wie es mit anderen D3D10-Features aussieht. So viel jedenfalls zum perfekten G80.


selbst wenn es momentan so ist kann es sich eigentlich nur um treiberprobleme handeln, schließlich sind es die gleichen ALUs die GS, VS und PS rechnen, wäre irgendwie unlogisch wenn 2 dinge davon schnell und 1 langsam laufen würde.

Nakai
2007-03-10, 12:23:00
selbst wenn es momentan so ist kann es sich eigentlich nur um treiberprobleme handeln, schließlich sind es die gleichen ALUs die GS, VS und PS rechnen, wäre irgendwie unlogisch wenn 2 dinge davon schnell und 1 langsam laufen würde.

Ist es aber nicht. Geometrie und Vertexberechnungen brauchen eher 5D-Berechnungen während Pixelberechnungen nicht auf diese setzen.

mfg Nakai

Gast
2007-03-10, 12:36:40
Ist es aber nicht. Geometrie und Vertexberechnungen brauchen eher 5D-Berechnungen während Pixelberechnungen nicht auf diese setzen.



bei skalaren ALUs ist es egal wieviele komponenten der vektor hat, sie arbeiten immer mit fast voller effizienz.

robbitop
2007-03-10, 12:47:50
reunion,
weil irgendjemand etw bloggt, muss es nicht gleich unbedingt wahr sein.
Ein Seitenhieb dieser Art schuert wieder nur die Gemueter und ist absolut unnoetig und unsachlich.

Nakai
2007-03-10, 12:52:31
bei skalaren ALUs ist es egal wieviele komponenten der vektor hat, sie arbeiten immer mit fast voller effizienz.

Schon klar, aber für Vertexberechnungen müssten theoretisch 5 ALUs rechnen, wobei es beim G80 eigentlich nur 16 Vec8-ALUs sind.

mfg Nakai

robbitop
2007-03-10, 12:57:35
Naja, bei AMD sehe ich eher, das sie etwas richtig anbieten oder eben garnicht.

Was du hier angesprochen hast, fällt unter den Punkt garnicht, ersteres ist zwar äußerst unschön, da man das 'zurechtpatchen' musste, letzteres noch viel unschöner, da man eine Lücke der Spec kreativ ausgenutzt hat...

Die Checklist Features mit schlechter Performance find ich auch nicht soo prickelnd, gibts bei nV ja leider auch immer wieder, zuletzt dyn. Branching auf deren SM3 Karten, was von der Performance nicht sonderlich schön war...
Gut, die Architektur war veraltet und daher ist dieser Haken bauartbedingt...
Ja leider bringt NVIDIA die Features recht frueh, wovon leider die Spielergemeinde profitiert indem Effekte von Entwicklern relativ frueh erprobt und implementiert werden koennen, so dass bereits in der naechsten Generation die Effekte nutzbar sind. Wirklich furchtbar.
ATI hat bisher einfach mit dem Geld geknausert und gewisse Features erst spaeter eingebaut, als sie in Spielen schon implementiert wurden. Henne Ei Problem. Nur fand sich mit NV eben diese Henne oftmals recht frueh.

robbitop
2007-03-10, 12:59:19
Ist es aber nicht. Geometrie und Vertexberechnungen brauchen eher 5D-Berechnungen während Pixelberechnungen nicht auf diese setzen.

mfg Nakai
Ich habe bisher noch keine 5D Matrix fuer VS Code gesehen, du?

robbitop
2007-03-10, 13:02:53
bei skalaren ALUs ist es egal wieviele komponenten der vektor hat, sie arbeiten immer mit fast voller effizienz.
Das ist sehr vaage. Das kommt auf die Granularitaet der Kanaele an. Das kommt auf die Reihenfolge des Shadercodes und der Texturops an und und und. Wirklich 100%ige Auslastung (oder "fast" volle Effizienz) wird man nie haben.

reunion
2007-03-10, 13:09:07
reunion,
weil irgendjemand etw bloggt, muss es nicht gleich unbedingt wahr sein.


Warum sollte so ein Mann lügen?
Demirug hat es ja im Grunde schon bestätigt, möglich, dass es nur ein Treiberproblem ist, aber es würde mich aufgrund der Strategie von nV in den vergangenen Jahren auch kein bisschen wundern, wenn sich die GS auf G80 als Papiertiger entlarven.

Ja leider bringt NVIDIA die Features recht frueh, wovon leider die Spielergemeinde profitiert indem Effekte von Entwicklern relativ frueh erprobt und implementiert werden koennen, so dass bereits in der naechsten Generation die Effekte nutzbar sind. Wirklich furchtbar.
ATI hat bisher einfach mit dem Geld geknausert und gewisse Features erst spaeter eingebaut, als sie in Spielen schon implementiert wurden. Henne Ei Problem. Nur fand sich mit NV eben diese Henne recht frueh.

Niemand regt sich darüber auf, wenn nV ein neues Feature exklusiv anbietet, und dieses dann nur relativ langsam läuft. Auch wenn man davon dann als Spieler nur wenig hat, aber solange man es bei der Konkurrenz gar nicht bekommt, ist alles bestens. Nicht so toll ist es hingegen, wenn man dieses Feature bei der Konkurrenz auch bekommt, und dann auch noch in ausreichender Geschwindigkeit. Denn dann, lieber robbitop, bremst eben nV den Einsatz dieses Features.

Gast
2007-03-10, 13:09:10
Schon klar, aber für Vertexberechnungen müssten theoretisch 5 ALUs rechnen, wobei es beim G80 eigentlich nur 16 Vec8-ALUs sind.

mfg Nakai
Nein, sie müssen fünf Takte rechnen - 20% länger, als für Vec4.

Das ist der große Unterschied zu einem Vektor-basierten Design. Hier müsste der Compiler/Scheduler einen freien Slot in einer Alu im selben PP finden, um das zusätzliche Skalar zur Bearbeitung zu schicken. Das läßt sich in einem Vec8-SIMD mit 1:1:1:1:1:1:1:1-Split ;) wesentlich einfacher handhaben - man "verschwendet" immer nur soviel Leistung, wie auch wirklich benötigt wird - solange man genug Arbeit für bsw. mind. 8 Pixel findet.

Gast
2007-03-10, 14:11:04
aber es würde mich aufgrund der Strategie von nV in den vergangenen Jahren auch kein bisschen wundern, wenn sich die GS auf G80 als Papiertiger entlarven.


das kann eben nicht sein, da die shader unified sind.

robbitop
2007-03-10, 14:27:41
Nicht so toll ist es hingegen, wenn man dieses Feature bei der Konkurrenz auch bekommt, und dann auch noch in ausreichender Geschwindigkeit. Denn dann, lieber robbitop, bremst eben nV den Einsatz dieses Features.
Meist kam ATI mit dem Feature erst eine Generation spaeter. Zu der Zeit hatte dann NV das Feature dann auch fullspeeded eingebaut. Ich sehe den Nachteil nicht.

Hvoralek
2007-03-10, 14:43:31
Meist kam ATI mit dem Feature erst eine Generation spaeter. Zu der Zeit hatte dann NV das Feature dann auch fullspeeded eingebaut.Vernünftiges dynamisches Branching gab es bei Nvidia erst gut ein Jahr später (G80 ggü. R520). Es ist auf G7x zwar besser schon als auf NV4x, aber immer noch alles andere als "fullspeed".

reunion
2007-03-10, 14:52:27
Vernünftiges dynamisches Branching gab es bei Nvidia erst gut ein Jahr später (G80 ggü. R520). Es ist auf G7x zwar besser schon als auf NV4x, aber immer noch alles andere als "fullspeed".

Gleiches galt zB für das gesamte SM2.

das kann eben nicht sein, da die shader unified sind.

IMO lässt sich das nicht so einfach begründen. Mir fehlt sicher das notwendige Wissen, um das jetzt plausibel zu begründen, aber die ALUs müssen ja irgendwelche Zusatzfunktionen haben, damit sie auch mit GS umgehen können. Hier gibt es sicherlich Einsparungspotential auch bei einem USC. Aber man wird es ja früher oder später ohnehin sehen. Momentan weiß man um die D3D10-Performance ja noch sogut wie gar nichts. Bis jetzt muss sich G80 ausschließlich mit Dx9-Code abfinden.

Gast
2007-03-10, 15:07:54
Vernünftiges dynamisches Branching gab es bei Nvidia erst gut ein Jahr später (G80 ggü. R520). Es ist auf G7x zwar besser schon als auf NV4x, aber immer noch alles andere als "fullspeed".

Und gibt es heute irgend eine Anwendung in der sich das "zeigt"? Außer theoretischen Benchmarks...
Viele Features kommen und gehen, in der Masse hat nV "mehr" Angeboten, was aber viele Entwickler eher zum ausprobieren genutzt haben da ja immer ungewiss war, ob die anderen 50% des Grakamarktes das dann unterstützen...

Mit DX10 soll das ja endlich der Vergangenheit angehören da man sich nicht um die Spec herum mogeln kann.

reunion
2007-03-10, 15:12:06
Und gibt es heute irgend eine Anwendung in der sich das "zeigt"? Außer theoretischen Benchmarks...


Da sämtliche nV-Chips bis zum G80 dieses Feature faktisch ad absurdum geführt haben, da die Chips dadurch nicht schneller, sondern langsamer wurde, ist es wenig verwunderlich, dass es bis heute kaum eingesetzt wird.

Gast
2007-03-10, 15:41:11
Also doch nur gewäsch und keine stichhaltigen Beweise...

Bzgl. DX10 Software, da gibts es wohl nur das Developer Kit von nV http://developer.nvidia.com/object/sdk_home.html das DX10 Vorraussetzt, als 1. Software überhaupt.
Theoretisch müssten teile davon auch auf einer R600 laufen (einiges im Kit ist ja OpenGL, das wird nie auf ner R600 laufen).

Gast
2007-03-10, 16:29:16
Da sämtliche nV-Chips bis zum G80 dieses Feature faktisch ad absurdum geführt haben, da die Chips dadurch nicht schneller, sondern langsamer wurde, ist es wenig verwunderlich, dass es bis heute kaum eingesetzt wird.

Ich möchte dich nicht enttäuschen, aber ATi hat doch DB und SM3.0 "ad absurdum geführt", da sie erst 1 1/2 Jahre nach dem NV40 auf den Markt kamen.
nVidia beim DB den schwarzen Peter zu zu schieben, ist doch mehr als lächerlich, da ATi ein Produkt mit besserer Leistung früher auf den Markt hätte bringen können.

reunion
2007-03-10, 16:58:15
Ich will überhaupt niemanden den "schwarzen Peter" zuschieben. Es ist nur wenig verwunderlich, dass dB aktuell kaum eingesetzt wird.

mapel110
2007-03-10, 17:05:24
Ich will überhaupt niemanden den "schwarzen Peter" zuschieben. Es ist nur wenig verwunderlich, dass dB aktuell kaum eingesetzt wird.
hm, dürfte eher an ATI liegen als an NV. FP-Filtering und Vertextexturing hats ja in einige Spiele geschafft, obwohl es nur nv anbot. Vielleicht kriegt ATI einfach nicht den Hintern hoch beim dev-support?!

Gast
2007-03-10, 17:10:38
Ich will überhaupt niemanden den "schwarzen Peter" zuschieben. Es ist nur wenig verwunderlich, dass dB aktuell kaum eingesetzt wird.

Warum wäre es wenig verwunderlich? Immerhin hat doch ATi den SM3.0 Zug verpasst und nicht nVidia. Jetzt nVidia dafür zu belangen, dass DB kaum eingesetzt wird, ist dann schon eine komische Ansicht.

reunion
2007-03-10, 17:12:34
NV bot bis zum G80 kein vernünftiges dB an. Was du jetzt mit dem SM3-Zug willst, weiß ich wirklich nicht.

hm, dürfte eher an ATI liegen als an NV. FP-Filtering und Vertextexturing hats ja in einige Spiele geschafft, obwohl es nur nv anbot. Vielleicht kriegt ATI einfach nicht den Hintern hoch beim dev-support?!

Vertextexturing unterstützt AFAIK nur ein einziges Spiel (was auch daran liegt, dass das VT von nVs NV4x/G7x nicht unbedingt das gelbe vom Ei ist), und FP-Filtering wird natürlich unterstützt, wenn es der Chip anbietet, denn ohne Filter gehts sowieso nicht. Ist ja viel einfacher, als es wie bei ATi per Shader nachzustellen.

Gast
2007-03-10, 17:17:27
NV bot bis zum G80 kein vernünftiges dB an. Was du jetzt mit dem SM3-Zug willst, weiß ich wirklich nicht.


DB ist erst mt einem SM 2.x verfügbar. Da es aber kein Shadermodell gibt, welches nicht 3.0 ist und über DB verfügt, wäre DB immer nur unter dem SM3.0 verfügbar - in Spielen. Und wann hat ATi nochmal ihre SM3.0 Hardware auf den Markt gebracht? Richtig 1 1/2 Jahr nach nVidia. Wenn du jemand wegen DB ans Bein pissen willst, dann doch bitte ATi.

Hauwech
2007-03-10, 17:21:04
Also kommt Leute, beide Seiten haben irgendwie Recht. Die DB Performance von Nvidia war bis zum G80 im Vergleich zu ATI ist sicherlich nicht so wie man sich das gewünscht hätte. Die Vorarbeit von Nvidia bzgl SM3 kann aber auch nicht von der Hand gewiesen werden. Der eine ist da besser, der andere dort.

Allerdings sich jetzt an einem Blog aufzuhängen ist in der jetzigen Situation ja wohl ein wenig lächerlich. Die Treiber beider Seiten sind bis jetzt anscheinend eher besch....eiden, wird sich aber in der Zukunft ändern. Bis auf ein bisschen Eye Candy wird man imho durch Patches und sogenannten "DX10-Titeln" dieses und vielleicht bis Mitte nächsten Jahres auch nicht viel mehr sehen. Viele Verbesserungen wird man wahrscheinlich gar nicht sehen da diese unter der Haube passieren.

Geht man ein bisschen den Aussagen von einigen Leuten nach, sieht es doch folgendermaßen aus. Bis jetzt gibt es auch nur Gerüchte das Nvidia einen "Wundertreiber" im Ärmel hat, eine 88 Ultra ist auch aufgetaucht.

Von ATI weiss man bis jetzt bis auf solche Blogs und F@H Vorführungen noch gar nichts wie es letztendlich mit der Leistung aussehen wird. Solche "News" wie das Zusammenlegen von XT und XTX kann man auch nach Lust und Laune auslegen. Der R600 soll bis jetzt die Leute auch nicht vom Hocker gerissen haben.

Was bleibt sind 3 Möglichkeiten:
- Die 29XTX ist (deutlich) schneller.
- Die 29XTX ist in der Leistung ungefähr gleich
- Die 29XTX ist (deutlich) langsamer was ich für allerdings für ziemlich unwahrscheinlich halte.

Meine 2 Cent

reunion
2007-03-10, 17:22:40
DB ist erst mt einem SM 2.x verfügbar. Da es aber kein Shadermodell gibt, welches nicht 3.0 ist und über DB verfügt, wäre DB immer nur unter dem SM3.0 verfügbar - in Spielen. Und wann hat ATi nochmal ihre SM3.0 Hardware auf den Markt gebracht? Richtig 1 1/2 Jahr nach nVidia. Wenn du jemand wegen DB ans Bein pissen willst, dann doch bitte ATi.

Ja toll, nV hat ein dB angeboten, welches die Performance in 99% der Fällen nicht erhöht, sondern verringert. Warum wird das wohl nicht eingesetzt? Da hilft es dann auch wenig, dass man eineinhalb Jahre früher dran war. Erst ATi brachte dann vernünftiges dB. Aber wir drehen und ohnehin nur im Kreis, deshalb EOD.

Gast
2007-03-10, 17:28:41
Ja toll, nV hat ein dB angeboten, welchen die Performance in 99% der Fällen nicht erhöht, sondern verringert. Warum wird das wohl nicht eingesetzt? Da hilft es dann auch wenig, dass man eineinhalb Jahre früher dran war. Erst ATi brachte dann vernünftiges dB. Aber wir drehen und ohnehin nur im Kreis, deshalb EOD.

Wir drehen uns nicht im Kreis, und einfach EOD zu machen ist natürlich sehr fein...
Dann beantworte mir doch bitte eine Frage: Wäre nVidia auch schuld über eine nicht vorhandene Verbreitung von DB in heutigen Spielen, wenn der NV40 über kein Flow Control in den PS verfügt hätte (somit die Karte nicht SM3.0 wäre)?
Wie man es wendet: Für dich wäre nVidia nur mit einem vernünftigen DB nicht schuld.

The_Invisible
2007-03-10, 17:35:39
Was bleibt sind 3 Möglichkeiten:
- Die 29XTX ist (deutlich) schneller.
- Die 29XTX ist in der Leistung ungefähr gleich
- Die 29XTX ist (deutlich) langsamer was ich für allerdings für ziemlich unwahrscheinlich halte.

Meine 2 Cent

bei möglichkeit 2 und 3 braucht ATI den R600 erst garnicht releasen

mfg

desert
2007-03-10, 17:39:07
Wir drehen uns nicht im Kreis, und einfach EOD zu machen ist natürlich sehr fein...
Dann beantworte mir doch bitte eine Frage: Wäre nVidia auch schuld über eine nicht vorhandene Verbreitung von DB in heutigen Spielen, wenn der NV40 über kein Flow Control in den PS verfügt hätte (somit die Karte nicht SM3.0 wäre)?
Wie man es wendet: Für dich wäre nVidia nur mit einem vernünftigen DB nicht schuld.

Auch dann wäre nvida schuld, weil nvidia sowieso immer schuld ist, weil nvidia ist böse und ati gut. so einfach ist das für reunion.

Das ist doch wieder das totale desaster für ati. ein halbes jahr nach dem konkurrenten auf dem markt. nicht mal andeutungsweise irgendwelche benches in sicht. Ausser irgendwelche komische blogs ala r600 wird g80 vernichten. Glauben die ernsthaft das irgendwelche normale user solange warten? also jetzt ausser die hardcore fanboys?

Da musst doch was sehr schief gelaufen sein, wenn sie erst im ende april oder anfang mai auf dem markt kommen. Und mal ehrlich wer glaubt das sie das nur machen damit sie die ganze produktfamilie auf einmal anbieten können, der glaubt auch wahrscheinlich an den weichnachtsmann.

Hauwech
2007-03-10, 17:49:10
bei möglichkeit 2 und 3 braucht ATI den R600 erst garnicht releasen

mfg

Die schon produzierten Karten wegwerfen macht aber auch keinen Sinn.

robbitop
2007-03-10, 17:53:42
Vernünftiges dynamisches Branching gab es bei Nvidia erst gut ein Jahr später (G80 ggü. R520). Es ist auf G7x zwar besser schon als auf NV4x, aber immer noch alles andere als "fullspeed".
Und hast du es bisher vermisst? Das full speed dB? Nein weils nicht eingesetzt wurde. Aber es konnten die Entwickler schonmal darauf ueben und warten bis sich dB Karten am Markt durchsetzen. Bis zu diesem Punkt hatte NV immer ein Produkt, mit dem es fullspeeded war.

dargo
2007-03-10, 17:53:50
bei möglichkeit 2 und 3 braucht ATI den R600 erst garnicht releasen

Was ist das denn für ein Quatsch? Soll man jetzt alle GPUs wegwerfen oder wie?
Wenn der R600 nicht schneller wird muss man halt es über den Preis richten. Ist immerhin besser etwas weniger Gewinn zu machen als gar keinen.

reunion
2007-03-10, 17:53:50
Wie man es wendet: Für dich wäre nVidia nur mit einem vernünftigen DB nicht schuld.

Natürlich. Und was ist daran verwerflich? Die Unterstützung auf nV40 war zwar sehr löblich, aber ohne das der Sinn dieses Features, nämlich die Performance zu erhöhen, erfüllt wird, wird es wohl kaum jemand einsetzen.

Auch dann wäre nvida schuld, weil nvidia sowieso immer schuld ist, weil nvidia ist böse und ati gut. so einfach ist das für reunion.


Ich argumentieren wenigstens, und kommen nicht mir irgendwelchen persönlichen Vorurteilen. Aber man kann sichs natürlich auch einfach machen.

robbitop
2007-03-10, 17:54:43
Gleiches galt zB für das gesamte SM2.
Ja beim NV3x hat NV Mist gebaut. Das ist ja nun bekannt. Aber dennoch kam der NV40 zur rechten Zeit, als sich SM2 durchzusetzen begann.
[/QUOTE]

reunion
2007-03-10, 17:57:46
Ja beim NV3x hat NV Mist gebaut. Das ist ja nun bekannt. Aber dennoch kam der NV40 zur rechten Zeit, als sich SM2 durchzusetzen begann.


Das habe ich auch nie bestritten. NV40 war der richtige Chip zum richtigen Zeitpunkt. Leider war G70 dann nur ein Aufguss.

robbitop
2007-03-10, 17:59:15
Refreshes sind immer Aufguesse. ;)

Gast
2007-03-10, 18:02:35
NV bot bis zum G80 kein vernünftiges dB an. Was du jetzt mit dem SM3-Zug willst, weiß ich wirklich nicht.

Definiere "vernünftig". Funktioniert hat es seit April 2004 - je höher der Rechenaufwand pro Pixel, desto eher hat es sich gelohnt. Natürlich war die Schwelle dafür deutlich höher als bei der Radeon X1K-Reihe, das stellt keiner in Frage.

Nur die Frage ist: Bremse ich eher eine Technologie aus, wenn ich sie "langsam" implementiere oder bremse ich sie aus, wenn ich sie schnell, aber dafür rund 18 Monate später implementiere.

Wie weit sind denn Spiele gediehen, die von vornherein auf die zugegebenermaßen superbe Branching-Granularität des R520 (später hat Ati dies ja auch wieder relativ verschlechtert) hin entwickelt worden sind? Die dürften wir IMO nicht vor Ende des Jahres zu Gesicht bekommen.

All die Games, die aktuell auf Atis deutlich runder laufen als auf den GF7ern haben ihre "Fallen" für Nvidia woanders.

Gast
2007-03-10, 18:04:40
Das habe ich auch nie bestritten. NV40 war der richtige Chip zum richtigen Zeitpunkt. Leider war G70 dann nur ein Aufguss.
Ist doch immer so: Ein guter Chip (aus Sicht des Herstellers) wird solange ausgeschlachtet wie es geht. Hat Ati mit dem R300 auch nicht anders gemacht - R4xx waren auch nur Aufgüsse.

Gast
2007-03-10, 18:12:23
Natürlich. Und was ist daran verwerflich? Die Unterstützung auf nV40 war zwar sehr löblich, aber ohne das der Sinn dieses Features, nämlich die Performance zu erhöhen, erfüllt wird, wird es wohl kaum jemand einsetzen.


Soll das bedeutet, dass Technologie erst dann implementiert werden soll, wenn es sich wirtschaftlich (Chipgröße) auszahlt?
Dieser Weg würde aber nicht zu deinem "Ziel" führen, da db sich auch nicht schneller durchgesetzt hätte.

reunion
2007-03-10, 18:22:29
Ist doch immer so: Ein guter Chip (aus Sicht des Herstellers) wird solange ausgeschlachtet wie es geht. Hat Ati mit dem R300 auch nicht anders gemacht - R4xx waren auch nur Aufgüsse.

R4XX war eine Notlösung, da der USC R400 baden ging. nV hat mindestens seit der TNT die Angewohnheit, jeden neuen Chip über zwei und mehr Generationen mitzuschleifen, während ATi mit Ausnahme des R4XX eigentlich immer einen mehr oder weniger "neuen" Chip brachte. Daher implementiert nV neue Features auch immer sehr früh, da man über längere Phasen planen muss, während ATi eher kurzfristiger planen kann.

Soll das bedeutet, dass Technologie erst dann implementiert werden soll, wenn es sich wirtschaftlich (Chipgröße) auszahlt?
Dieser Weg würde aber nicht zu deinem "Ziel" führen, da db sich auch nicht schneller durchgesetzt hätte.

Hä? Dreh mir nicht irgendwelche Worte im Mund um. Ich sage das jetzt glaube ich mindestens zum dritten mal: Ein Feature, welches dazu da ist, die Leistung zu erhöhen, dies aber aus welchen Gründen auch immer nicht schafft, ist nutzlos. Was anderes ist es da schon bei Features, welche die BQ verbessern, da kann auch eine sehr langsame Implementation Sinn machen.

Gast
2007-03-10, 18:33:13
Ein Feature, welches dazu da ist, die Leistung zu erhöhen, dies aber aus welchen Gründen auch immer nicht schafft, ist nutzlos.

Also wäre es besser bestimmte Features nicht zu implementieren, wenn diese keine Leistungsverbesserung bringen?
Du findest es also für die Verfügbarkeit vom DB gut, dass ATi mit dem r4xx die Hardwarebasis für <SM3.0 (vorallen db) vergrößert und ihre erste SM3.0 Hardware (vorallen db) erst 1 1/2 nach de Konkurrenten auf den Markt gebracht hat? Das ist zwar auch eine Ansicht, aber die widerspricht sich mit deiner Aussage

Da sämtliche nV-Chips bis zum G80 dieses Feature faktisch ad absurdum geführt haben, da die Chips dadurch nicht schneller, sondern langsamer wurde, ist es wenig verwunderlich, dass es bis heute kaum eingesetzt wird.

dass nVidia "dieses Feature faktisch ad absurdum geführt" hätte.

Gast
2007-03-10, 18:36:23
R4XX war eine Notlösung, da der USC R400 baden ging.
Das ist eine Ausrede - beim NV-Marketing bist du doch auch so kritisch. Wie kommt's, dass du von Ati alles schluckst?

Diese "Notlösung" hat man sicherlich auch nicht ein drei Monaten zusammengebacken.

reunion
2007-03-10, 18:54:59
Das ist eine Ausrede - beim NV-Marketing bist du doch auch so kritisch. Wie kommt's, dass du von Ati alles schluckst?

Diese "Notlösung" hat man sicherlich auch nicht ein drei Monaten zusammengebacken.

Ich denke über die Existenz des R400 braucht man wirklich nicht zu streiten.

Also wäre es besser bestimmte Features nicht zu implementieren, wenn diese keine Leistungsverbesserung bringen?
Du findest es also für die Verfügbarkeit vom DB gut, dass ATi mit dem r4xx die Hardwarebasis für <SM3.0 (vorallen db) vergrößert und ihre erste SM3.0 Hardware (vorallen db) erst 1 1/2 nach de Konkurrenten auf den Markt gebracht hat?


Wo habe ich irgendetwas davon gesagt? Es gibt nicht unfaireres, als Leute, die einem ständig die Worte im Mund umdrehen.

Wie schon mehrmals gesagt, war es löblich von nV, dB schon mit NV40 zu bringen, wenn auch mangels Leistung nur als reine Spielerei für die Entwickler. Nur kam eben dann die performante Implementierung etwas spät im Vergleich zu Konkurrenz. Und dB, welche die fps drückt, bringt nunmal nichts (für den Spieler).


Das ist zwar auch eine Ansicht, aber die widerspricht sich mit deiner Aussage, dass nVidia "dieses Feature faktisch ad absurdum geführt" hätte.

Inwiefern widerspricht sich hier was?
Ein Feature, welches verspricht die Leistung zu erhöhen, dies aber nicht tut, wird nunmal "faktisch ad absurdum geführt".

Und da wir jetzt bereits mehrer Seiten OT sind, und du ohnehin nicht besseres zu tun hast, als mir irgendetwas zu unterstellen, war das jetzt definitiv mein letzter Beitrag zu diesem Thema.

horn 12
2007-03-10, 18:57:36
Es gibt nunr mehr schwarz oder weiss...
Entweder wird der R600 eine Bombe oder ATI will uns mit den Fehlinfos veräppeln, was ich aber nicht denke,- und der Schuss eher nach hinten losgehen sollte. Langsam zweifle selbst ich an der Oberhand der Performance gegenüber der 8800 GTX.
Wenn zur Cebit (Donnerstag/ Freitag) nicht´s konkretes durchsickert aus "irgendeiner" Quelle, so wird es dies mit dem R600 wohl gewesen sein für mich und ich hole mir ein Konkurrenzprodukt.

Gast
2007-03-10, 19:00:34
Ich denke über die Existenz des R400 braucht man wirklich nicht zu streiten.
Was meinst du damit? Dass Ati den R600 eigentlich schon 2004 hätte bringen wollen?

reunion
2007-03-10, 19:02:35
Was meinst du damit? Dass Ati den R600 eigentlich schon 2004 hätte bringen wollen?

Nein, dass ATi anstatt R420 ursprünglich einen US-Core names R400 mit SM3 bringen wollte, dieser allerdings aus welchen Gründen auch immer gecancelt wurde. Deshalb musste eben ein doppelter R300 herhalten. Jeder, der etwas Insiderwissen mitbringt, wird dir das bestätigen.

Nerothos
2007-03-10, 19:12:58
Könnt ihr bitte wieder auf's Ausgangsthema zurückkommen? Ist echt müßig hier eure NVIDIA vs. ATI Sticheleien ertragen zu müssen ...

Gast
2007-03-10, 19:40:31
Nein, dass ATi anstatt R420 ursprünglich einen US-Core names R400 mit SM3 bringen wollte, dieser allerdings aus welchen Gründen auch immer gecancelt wurde. Deshalb musste eben ein doppelter R300 herhalten. Jeder, der etwas Insiderwissen mitbringt, wird dir das bestätigen.
"Jeder mit etwas Insiderwissen" ist eine gute Quelle - bestreite ich das, bin ich halt kein Insider. Sei's drum. ;)

Wie gesagt - eine Marketingausrede für den Innovationsmangel des R420. Vielleicht hatte man sogar mal vor, einen R400 als Ablösung zu bringen, aber der wurde sicherlich nicht zwei Monate vor Launch gecancelt.


Was den R600 angeht:
Ich werde das Gefühl nicht los, dass wir unter den "OEM"-Designs, die vermutlich als Firestreams verkloppt werden, einen anderen Chip finden werden, als im R600 wie er im Endkundenregal liegen wird.

|MatMan|
2007-03-10, 22:14:43
R4XX war eine Notlösung, da der USC R400 baden ging. nV hat mindestens seit der TNT die Angewohnheit, jeden neuen Chip über zwei und mehr Generationen mitzuschleifen, während ATi mit Ausnahme des R4XX eigentlich immer einen mehr oder weniger "neuen" Chip brachte. Daher implementiert nV neue Features auch immer sehr früh, da man über längere Phasen planen muss, während ATi eher kurzfristiger planen kann.

Ich sehe es eher umgedreht, von ATI kamen seit dem R300 nur Aufgüsse/ Weiterentwicklungen. Ja auch die R5xx sehe ich als R300-verwandt.

Normalerweise gab es bei nVidia pro neuer Generation immer nur einen Refresh, nur vom NV40 gab es 2, was wohl an der Verspätung des G80 lag und an der fehlenden Konkurenz von ATI.

Was heißt eigentlich "gecancelt" in Bezug auf den R400 (an die Leute mit Insider-Wissen)? Firmen schmeißen Entwicklungsgeld ,-zeit und -resultate im Normalfall nicht einfach auf den Müll. Ist es vielleicht nicht eher so, dass aus dem ursprünglichen R400 Projekt jetzt der R600 geworden ist? (und für Xenos ist wohl auch noch was abgefallen)

Wie dem auch sei, am Ende zählt nur, was "hinten raus kommt", egal wie umgesetzt... ;)

Gast
2007-03-11, 00:11:19
R4XX war eine Notlösung, da der USC R400 baden ging. nV hat mindestens seit der TNT die Angewohnheit, jeden neuen Chip über zwei und mehr Generationen mitzuschleifen, während ATi mit Ausnahme des R4XX eigentlich immer einen mehr oder weniger "neuen" Chip brachte.

Lol? Von R300 über R420 auf R520 sind es technisch gesehen mit Sicherheit nicht mehr/weniger Technologie Lvl als zwischen nV40 und G70... Les dich mal bei Beyond3d ein, und stolper nicht mit "meiner Ansicht nach..." im Forum umher...

Das jede 2. Generation ein echter Technologie Schritt ist/sein wird, bahnt sich nunmal nicht immer an. nV fährt nunmal eine andere Timetable als ATI, deswegen ziehen sich Unterschiede nun mehr oder weniger in die Länge...

Gast
2007-03-11, 00:25:15
Lol? Von R300 über R420 auf R520 sind es technisch gesehen mit Sicherheit nicht mehr/weniger Technologie Lvl als zwischen nV40 und G70...
Naja, R5xx ist schon ein bissel was neues, nicht einfach nur verbreitert und zugeschustert.

StefanV
2007-03-11, 00:29:48
Lol? Von R300 über R420 auf R520 sind es technisch gesehen mit Sicherheit nicht mehr/weniger Technologie Lvl als zwischen nV40 und G70...
Doch, R5x0 ist um einiges mehr als nV40 zu nV48 aka G70.
G70 ist ja nicht mehr als ein breiterer nV4x, grob vergleichbar mit R300 zu R420.

Hvoralek
2007-03-11, 00:39:53
G70 ist ja nicht mehr als ein breiterer nV4x, grob vergleichbar mit R300 zu R420.Naja, nicht viel mehr (Umbauten an den ALUs, TAA, etwas besseres dyn. Branching). R520 war natürlich ein viel größerer Schritt ausgehend von R420.

Coda
2007-03-11, 01:44:31
Das Branching von G7x ist schlechter. TAA ist eine Softwaresache.

Gmax
2007-03-11, 01:44:56
Es gibt nunr mehr schwarz oder weiss...
Entweder wird der R600 eine Bombe oder ATI will uns mit den Fehlinfos veräppeln, was ich aber nicht denke,- und der Schuss eher nach hinten losgehen sollte. Langsam zweifle selbst ich an der Oberhand der Performance gegenüber der 8800 GTX.
Wenn zur Cebit (Donnerstag/ Freitag) nicht´s konkretes durchsickert aus "irgendeiner" Quelle, so wird es dies mit dem R600 wohl gewesen sein für mich und ich hole mir ein Konkurrenzprodukt.

Ich fürchte nach der Cebit werden wir auch nicht mehr wissen, da ATI nur handerlesenen Kunden die Karte zeigen wird :frown:

reunion
2007-03-11, 09:54:29
ATi RV610 Series & Performance: http://www.vr-zone.com/?i=4757

RV610PRO uses a 6 layers PCB with a TDP of 35W. It has 256MB GDDR3 memory clocked at 700MHz. RV610PRO support Crossfire and hardware H.264 decode. RV610LE on the other hand uses a 4 layers PCB with TDP at 25W. It has 128MB GDDR2 memory clocked at 400MHz and sports HyperMemory Technology.

Also, we have gotten hold of an early performance test of the RV610LE running on 965 board with Core 2 Extreme X6800 processor. At 1024x768 resolution, 3DMark05 scores stood at 20xx and at 1280x1024 resolution, 3DMark06 scores stood at 12xx. The performance suffers largely due to its 64-bit memory interface and also drivers aren't optimized yet.

Ailuros
2007-03-11, 11:18:33
Bei $50-100 GPUs sollte man auch keine besondere Leistung erwarten. Fuer multimedia orientierte PCs sind budget GPUs ausgezeichnet.

reunion
2007-03-11, 11:27:27
Vorallem war das nur das langsamste Modell, nämlich die LE.

AnarchX
2007-03-11, 11:28:32
Die Werte sehen ja eigentlich recht ordentlich dafür aus, dass es die R610LE ist mit unoptimierten Treibern.

James Ryan
2007-03-11, 11:33:46
Woher kommt eigentlich dieses Märchen bezüglich "unoptimierte Treiber"?
ATi entwickelt schon Ewigkeiten den R600, da sollten die Treiber schon längst optimiert sein.

MfG :cool:

AnarchX
2007-03-11, 11:38:58
Woher kommt eigentlich dieses Märchen bezüglich "unoptimierte Treiber"?
ATi entwickelt schon Ewigkeiten den R600, da sollten die Treiber schon längst optimiert sein.


Bei Vista ist dies eher kein "Märchen" und richtig optimiert wird ja eh meist erst wenn das Produkt den Markt erreicht hat und plötzlich viele Probleme bekannt werden, die man so im Labor nicht hatte.

The_Invisible
2007-03-11, 11:44:23
Woher kommt eigentlich dieses Märchen bezüglich "unoptimierte Treiber"?
ATi entwickelt schon Ewigkeiten den R600, da sollten die Treiber schon längst optimiert sein.

MfG :cool:


außerdem optimiert man für 3dmark immer gleich als erster ;)

mfg

deekey777
2007-03-11, 11:46:18
Doch, R5x0 ist um einiges mehr als nV40 zu nV48 aka G70.
G70 ist ja nicht mehr als ein breiterer nV4x, grob vergleichbar mit R300 zu R420.
NV48 ist ein geshrinkter NV40 (und nciht ein NV40, der mit 512 MB umgehen kann). NV47 war der ursprüngliche Name des G70.

Und jetzt Schluss mit der Geschichtsstunde!

Gast
2007-03-11, 11:52:08
Die Performance-Werte - insbesondere einer Low-End-Karte auf einer High-End-CPU machen mich nicht gerade besonders heiß.

Wenn ich das Anhand von Bitbreite der Interface und TDP mal hochrechne lande ich bei um die 10k 3DMarks06 für den R600. Das ist zwar gut und auch schneller als der G80, aber von den Socken haut mich das nicht.

robbitop
2007-03-11, 12:47:45
R4XX war eine Notlösung, da der USC R400 baden ging. nV hat mindestens seit der TNT die Angewohnheit, jeden neuen Chip über zwei und mehr Generationen mitzuschleifen, während ATi mit Ausnahme des R4XX eigentlich immer einen mehr oder weniger "neuen" Chip brachte. Daher implementiert nV neue Features auch immer sehr früh, da man über längere Phasen planen muss, während ATi eher kurzfristiger planen kann.

Fakt ist nur, was auch passiert ist. R300 basierte sehr stark auf R200. R350 und R360 vergisst du anscheinend. Gefolgt von R420 und R480.
Dann kam mit dem R520 mal was neues und wurde mit dem R580 auch nur aufgekocht. Das nennt sich Refresh. Ich sehe den Sinn deiner Aussage noch nicht so ganz. (ganz davon ab kostet es viel zu viel R&D jedes Jahr eine voellig neue Architektur hochzuziehen, als dass es dann noch rentabel waere.)

robbitop
2007-03-11, 12:52:00
Bei $50-100 GPUs sollte man auch keine besondere Leistung erwarten. Fuer multimedia orientierte PCs sind budget GPUs ausgezeichnet.
Selbst mein S3 Chrome S27 holt im 3DM05 3300 Punkte. Und der kostete bei Newsegg schon vor einem Jahr nur 60 Maeuse.

reunion
2007-03-11, 13:10:29
Fakt ist nur, was auch passiert ist. R300 basierte sehr stark auf R200. R350 und R360 vergisst du anscheinend. Gefolgt von R420 und R480.
Dann kam mit dem R520 mal was neues und wurde mit dem R580 auch nur aufgekocht. Das nennt sich Refresh. Ich sehe den Sinn deiner Aussage noch nicht so ganz. (ganz davon ab kostet es viel zu viel R&D jedes Jahr eine voellig neue Architektur hochzuziehen, als dass es dann noch rentabel waere.)

Ich habe nicht ohne Grund von Generationen gesprochen. Dass es dazwischen noch die üblichen Refreshes gibt, ist klar. Nur verkauft nV eben auch einen Refresh mal gerne als neue Gen, es gibt also seltener einen wirklich "neue" Core: TNT1/TNT2, GF1/GF2, GF3/GF4, GF-FX/GF6XXX/GF7XXX, GF8XXX/GF9XXX(?),...

Bei ATi gab es das in der Form eigentlich nur bei R4XX, und das war auch nicht so geplant. Die Behauptung, dass R300 sehr stark auf R200 basiert, halte ich für sehr gewagt. Immerhin gab es ein neues SM, stark verbesserte IQ-Features, stark verbesserte Performance, etc. Wenn jeder Refresh so aussehn würde, dann wär das ja mal was. Klar dürfte einiges davon übernommen worden sein, aber wer erfindet schon das Rad mehrmals neu?

Selbst mein S3 Chrome S27 holt im 3DM05 3300 Punkte. Und der kostete bei Newsegg schon vor einem Jahr nur 60 Maeuse.

SM2 vs. D3D10. Dass die Leistung im Lowend-Bereich nur sehr langsam wächst, ist nicht neu. Hier ist man eben auf Wirtschaftlichkeit aus, und neue Features kosten Geld. Eine X300 schafft auch schon seit Ewigkeiten ähnliche Punktzahlen.

Gast
2007-03-11, 13:16:56
Nur verkauft nV eben auch einen Refresh mal gerne als neue GenIst es nicht egal wie die Produkte nun heißen? Fakt ist, dass sowohl NV als auch ATI die gleiche Technik gerne zweimal verkaufen. Wenn man bedenkt, was die Entwicklung einer Architektur an Geld kostet, kann man ihnen das nichtmal übel nehmen. Immerhin wird ja meist die Leistung ganz ordentlich gesteigert, wenn man mal von so Dingern wie R420 -> R480 absieht.

reunion
2007-03-11, 13:19:33
Ist es nicht egal wie die Produkte nun heißen? Fakt ist, dass sowohl NV als auch ATI die gleiche Technik gerne zweimal verkaufen. Wenn man bedenkt, was die Entwicklung einer Architektur an Geld kostet, kann man ihnen das nichtmal übel nehmen. Immerhin wird ja meist die Leistung ganz ordentlich gesteigert, wenn man mal von so Dingern wie R420 -> R480 absieht.

Natürlich ist das letztendlich alles egal. Was zählt ist was hinten rauskommt. Das war nur ein möglicher Ansatzpunkt, mit dem ich begründen wollte, warum nV neue Features immer sehr früh einsetzt, während ATi dies meist immer erst tut, wenn es schnell genug ist. nV hat eben längere Entwicklungszyklen.

Gast
2007-03-11, 13:21:52
Nur verkauft nV eben auch einen Refresh mal gerne als neue Gen, es gibt also seltener einen wirklich "neue" Core.


Ach, und bei ATi gibt es öfters "wirlich neue Cores"?
Mal sehen: r300-r580. Wenn ich das so betrachte, hat ATi seit dem r300 keinen "wirklich neuen Core" hervorgebracht.
Aber immer auf nVidia, gell?

robbitop
2007-03-11, 13:27:45
einen Refresh mal gerne als neue Gen, es gibt also seltener einen wirklich "neue" Core: TNT1/TNT2, GF1/GF2, GF3/GF4, GF-FX/GF6XXX/GF7XXX, GF8XXX/GF9XXX(?),...
Radeon 9000/9100/9200/9250. Radeon X8xx.
Namen sind Schall und Rauch. Wen interessiert das? Fakt ist nur was an Hardware kam.

Die Behauptung, dass R300 sehr stark auf R200 basiert, halte ich für sehr gewagt. Immerhin gab es ein neues SM, stark verbesserte IQ-Features, stark verbesserte Performance, etc. Wenn jeder Refresh so aussehn würde, dann wär das ja mal was. Klar dürfte einiges davon übernommen worden sein, aber wer erfindet schon das Rad mehrmals neu?
Ich bin natuerlich kein Chiparchitekt, aber die Aussage stammt von solchen Leuten und ist absolut nachvollziehbar. PS1.4 war schon verdammt nah an PS 2.0 dran und musste praktisch nur noch auf FP umgestellt werden. Die Pipelines aehneln einander wohl auch ziemlich. Fuer R200 war sogar 6x sparse MS geplant und lief aufgrund eines Bugs nicht (auch ein Indiz).
R200 war eine kluge Investition in die Zukunft.

Ich will ja gar nicht behaupten, dass R300 nur ein R200 Refresh war. Das waere in der Tat vermessen. Da musste noch einiges reifen und ausgebaut und weiterentwickelt werden (pendant NV3x - NV4x). Das kostet Geld und Zeit und ist schon fast eine neue Generation (wer definiert das eigentlich? ^^)



SM2 vs. D3D10. Dass die Leistung im Lowend-Bereich nur sehr langsam wächst, ist nicht neu. Hier ist man eben auf Wirtschaftlichkeit aus, und neue Features kosten Geld. Eine X300 schafft auch schon seit Ewigkeiten ähnliche Punktzahlen.
Dagegen sage ich ja nichts. Ich wollte damit nur sagen, dass die Leistung nicht beeindruckend ist.

reunion
2007-03-11, 13:29:43
Ach, und bei ATi gibt es öfters "wirlich neue Cores"?
Mal sehen: r300-r580. Wenn ich das so betrachte, hat ATi seit dem r300 keinen "wirklich neuen Core" hervorgebracht.
Aber immer auf nVidia, gell?

Also wenn R520 kein neuer Chip war, dann gibt es überhaupt keine "neuen" Chip. Auch sollte da ja ursprünglich etwas anderes als R420/R520 kommen. Im übrigen sollte das keine Kritik an nV sein. Man fährt damit bis jetzt ja sehr gut. Aber manche Gäste springen ja auf jeden Beitrag, bei dem ich nV nicht ausdrücklich lobe, mittlerweile auf die Barrikaden.

Gast
2007-03-11, 13:30:49
Naja der Grund warum man möglichst "früh" neue Features in eine GPU einbauen sollte ist das sie auch dann von der Software genutzt werden, WENN der Refresh Chip oder die nächste Generation auf den Markt kommt.

So sollte man es als informierter User sehen, da ja Spiele eine Dev Zeit von ~2,5-3 Jahren haben, Blockbuster auch gerne mehr. Dadurch das der Konsolen Markt jetzt wieder eine größere Bedeutung für viele Hersteller hat, ist das natürlich so eine Sache, da nur exclusiv Entwicklungen für den PC in 2-3 Jahren rein auf DX10 setzen werden.

Was bringt mir z.b. FP16 Texture Fähigkeit wenn ich erst in 3 Jahren Software habe die diese Features zeigen...

Aber das sollte ja mit DX10 und den weiteren Versionen DX10.1 .2 .3 ja hinfällig sein oder?

puntarenas
2007-03-11, 13:32:22
Ich fürchte nach der Cebit werden wir auch nicht mehr wissen, da ATI nur handerlesenen Kunden die Karte zeigen wird :frown:
Ist ja nicht auszuhalten, langsam wäre es wirklich höchste Zeit für wohldosierte Teaser in Form von technischen Spezifikationen und ersten Benchmarks. Sogar in diesem Thread erfährt man mehr über r5xx gegen G70 und Nvidia allgemein als über den R600, dazu darf man dann die immer gleichen alten Fotos und Fakecharts auf wechselnden Seiten neu begutachten. Ich kündige morgen meinen Internetanschluss und suche mir ein altbewährtes Hobby wie Holzfiguren schnitzen oder Origami, Kamasutra soll ja auch ganz nett sein :(

reunion
2007-03-11, 13:43:04
Radeon 9000/9100/9200/9250. Radeon X8xx.
Namen sind Schall und Rauch. Wen interessiert das? Fakt ist nur was an Hardware kam.


Natürlich, nur wurden die neuen Generationen der beiden Hersteller ja immer mehr oder weniger zeitgleich veröffentlicht. Oder besser gesagt gab es zumindest seit R100 von beiden Herstellern gleich viele neue Generationen laut Marketingabteilung. Und da haben eben beide Hersteller IMHO andere Philosophien. Während ATi die Chips eigentlich (mit Außnahme von R420) kontinuierlich weiterentwickelt, hat nV eine art "Zwei-Gen-Zyklus". Radeon 9000/9100/9200/9250 ist hier deshalb unpassend, weil es ja da auch schon R300-Chips gab, und es mir hier nur um das ging.

robbitop
2007-03-11, 13:45:22
Was willst du damit ausdruecken? Es klingt immer ein wenig nach einem Seitenhieb ggue NVIDIA. Ich sehe den Sinn dahinter ehrlich gesagt nicht.
Am Ende kommt in etwa dasselbe raus.

Gast
2007-03-11, 13:45:49
Also wenn R520 kein neuer Chip war, dann gibt es überhaupt keine "neuen" Chip.

Du zählst den NV40 zum NV30. es verhälst sich jedoch genauso:
Statt große Featureverbesserungen (r420 zum r520) wurde hier in erster Linie die Leistung vervierfacht und die Featurebasis leicht erweitert.
Wenn der NV40 kein "neuer" Core wäre, dann wäre dies auch kein r520.

reunion
2007-03-11, 13:49:38
Was willst du damit ausdruecken? Es klingt immer ein wenig nach einem Seitenhieb ggue NVIDIA. Ich sehe den Sinn dahinter ehrlich gesagt nicht.
Am Ende kommt in etwa dasselbe raus.

Wie schon gesagt, deshalb ist nV immer sehr früh dran mit neuen Features, da man eben über längere Zeitspannen plant. Am Ende kommt in etwa dasselbe raus, richtig.

Du zählst den NV40 zum NV30. es verhälst sich jedoch genauso:
Statt große Featureverbesserungen (r420 zum r520) wurde hier in erster Linie die Leistung vervierfacht und die Featurebasis leicht erweitert.
Wenn der NV40 kein "neuer" Core wäre, dann wäre dies auch kein r520.

Also zwischen R420 und R520 liegen featuremäßig Welten, denn R420 ging nicht über SM2.0 hinaus, bis auf die max. Instuctionlänge, während NV30 eigentlich nurnoch wenige Dinge für SM3 fehlten, und bei nV40 vorwiegend die Leistung erhöht wurde.

Gast
2007-03-11, 13:56:59
Also zwischen R420 und R520 liegen featuremäßig Welten, denn R420 ging nicht über SM2.0 hinaus, bis auf die max. Instuctionlänge, während NV30 eigentlich nurnoch wenige Dinge für SM3 fehlten, und bei nV40 vorwiegend die Leistung erhöht wurde.

Richtig. Für dich macht es anscheinend einen Unterschied.
Objektiv gesehen, ist der Nv40 genauso "neu", da die Leistung vervierfacht werden musste zum NV35.

robbitop
2007-03-11, 14:00:12
Zwischen NV30 und NV40 liegt in etwa soviel wie zwischen R200 und R300 (vermutlich mehr R&D Aufwand, da die Gesamtkomplexitaet natuerlich hoeher ist)

reunion
2007-03-11, 14:02:38
Richtig. Für dich macht es anscheinend einen Unterschied.
Objektiv gesehen, ist der Nv40 genauso "neu", da die Leistung vervierfacht werden musste zum NV35.

Wenn du das so siehst, dann wäre auch R420 "neu", da auch hier die Leistung im Vergleich zu R360 zumindest fast verdreifacht wurde. Aber schön, dass du die Objektivität anscheinend gepachtet hast. Aber meinetwegen ist auch NV40 "neu", ist ja im Grunde nur eine Erbsenzählerei. Ich habe eben durch die CineFX-Architektur alle als eine Gen gezählt.

Zwischen NV30 und NV40 liegt in etwa soviel wie zwischen R200 und R300 (vermutlich mehr R&D Aufwand, da die Gesamtkomplexitaet natuerlich hoeher ist)

Was wurde auf NV40 verbessert, bis auf die wenigen, noch fehlenden SM3-Features (die tw. auch eher mangelhaft implementiert wurden), und eben die Leistung? Ich sehe hier zumindest als einfacher Kunde keine solch gravierenden Verbesserungen wie bei R200 vs. R300.

Gast
2007-03-11, 14:10:13
Wenn du das so siehst, dann wäre auch R420 "neu", da auch hier die Leistung im Vergleich zu R360 zumindest fast verdreifacht wurde.

Ich verstehe dich nicht.
Führt dich ist ein "neuer" Core wohl nur einer, der neue Features bringt. Jedoch beschwerst du dich dann wieder, wenn diese neuen Features dann zu langsam wären. Und schlussendlich ist es irgendwie nur bei nVidia ein Problem, bei ATi wird dezent über das eine bzw. das andere hinweggesehen...
Fakt ist, wenn du die Du vom NV30 bis zum G71 von einem "Core" sprichst, dass dies auch vom r300 bis zum r580 zu trifft.
Der r420 brachte hauptsächlich Leistung. Featuremäßig war dies im Vergleich zum NV40 zu NV30 sehr marginal. Den NV40 nicht als "neuen" Core zu bezeichnen wäre sehr anmassend.

robbitop
2007-03-11, 14:15:31
Wenn du das so siehst, dann wäre auch R420 "neu", da auch hier die Leistung im Vergleich zu R360 zumindest fast verdreifacht wurde. Aber schön, dass du die Objektivität anscheinend gepachtet hast. Aber meinetwegen ist auch NV40 "neu", ist ja im Grunde nur eine Erbsenzählerei. Ich habe eben durch die CineFX-Architektur alle als eine Gen gezählt.
Aber gerade dafuer war mehr noetig als reines Duplizieren von Einheiten. Dazu musste enorm viel umgestrickt werden (beim R300 passierte so viel mehr ja auch nicht). DB ist btw auch nicht so einfach umzusetzen. Vieles ist im NV40 auch von Grund auf neu (z.B. die ROPs, der Controller)

Was wurde auf NV40 verbessert, bis auf die wenigen, noch fehlenden SM3-Features (die tw. auch eher mangelhaft implementiert wurden), und eben die Leistung? Ich sehe hier zumindest als einfacher Kunde keine solch gravierenden Verbesserungen wie bei R200 vs. R300.
Lies die bitte unsere NV40 Artikel Reihe. :)

horn 12
2007-03-11, 14:16:07
Was sind dies welche Ausschweifungen.
Bleibt dem R600 TREU, und kommt nicht mit R420 / 480 NV40
dies interessiert in diesem Thread wirklich niemanden!! :tongue: :mad:
Fakt ist der R600 soll hier bewertet/ spekuliert werden.:smile:

Gast
2007-03-11, 14:17:43
Zur Zeit gibt es nichts, worüber man spekulieren könnte. Daher finde ich, stört es niemanden, wenn man jetzt ein bisschen abschweift.

reunion
2007-03-11, 14:18:36
Ich verstehe dich nicht.


Ich dich auch nicht.


Führt dich ist ein "neuer" Core wohl nur einer, der neue Features bringt.


Ja, ist das nicht nachvollziehbar? Bei einer reine Leistungserhöhung braucht es ja im Grunde keine neue Entwicklungen.


Jedoch beschwerst du dich dann wieder, wenn diese neuen Features dann zu langsam wären. Und schlussendlich ist es irgendwie nur bei nVidia ein Problem, bei ATi wird dezent über das eine bzw. das andere hinweggesehen...


Was hat das eine mit dem anderen zu tun? Wäre schön, wenn du nicht immer, wenn dir die Argumente ausgehen, mit der Fanboy-Keule kommen würdest.


Fakt ist, wenn du die Du vom NV30 bis zum G71 von einem "Core" sprichst, dass dies auch vom r300 bis zum r580 zu trifft.
Der r420 brachte hauptsächlich Leistung. Featuremäßig war dies im Vergleich zum NV40 zu NV30 sehr marginal. Den NV40 nicht als "neuen" Core zu bezeichnen wäre sehr anmassend.

Letztendlich ist das eine reine Definitionssache. Zumindest featuremäßig hat sich eben von NV30 zu G71 kaum etwas getan, während es von R300 bis R580 einen größeren Sprung gab.

Lies die bitte unsere NV40 Artikel Reihe. :)

Habe ich natürlich - mehrmals.

laser114
2007-03-11, 14:19:01
Kann man diese Diskussion ob der NV40 ein "neuer" Core ist oder nicht eventuell auslagern? Die Argumente wurden doch nun gebracht ... und darum geht es hier ja eigentlich nicht.

Eventuell liesen sich ja Differenzen auch per PN klären, wenn du als Benutzer angemeldet wärst, Gast. ;)

Gast
2007-03-11, 14:26:31
Ja, ist das nicht nachvollziehbar? Bei einer reine Leistungserhöhung braucht es ja im Grunde keine neue Entwicklungen.

Die Leistungserhöhung des NV40 benötigte weitreichende Änderungen am Aufbau von CineFX. Es ist nicht annährend vergleichbar wie vom r300 zum r420 bzw. G70 zum G71.

Was hat das eine mit dem anderen zu tun? Wäre schön, wenn du nicht immer, wenn dir die Argumente ausgehen, mit der Fanboy-Keule kommen würdest.

Du tust alles dafür, dass es gerechtfertigt ist :(


Letztendlich ist das eine reine Definitionssache. Zumindest featuremäßig hat sich eben von NV30 zu G71 kaum etwas getan, während es von R300 bis R580 einen größeren Sprung gab.

Es hat sich einiges an Features getan, nur eben nicht annährend. Wenn du es jedoch von dieser Seite betrachtest, dann muss man r200 - r480 als einen Core betrachten.
Schlussendlich läuft es darauf hinaus, dass ATi ebenso wie nVidia nur alle 2-3 Jahre etwas annährend neues auf den Markt bringt.

robbitop
2007-03-11, 14:40:20
Habe ich natürlich - mehrmals.
Dann musst du sie eben nochmal lesen. ;)

Gast
2007-03-11, 14:57:54
Was wurde auf NV40 verbessert, bis auf die wenigen, noch fehlenden SM3-Features (die tw. auch eher mangelhaft implementiert wurden), und eben die Leistung? Ich sehe hier zumindest als einfacher Kunde keine solch gravierenden Verbesserungen wie bei R200 vs. R300.


Hm, mal schauen:

- AF wurde "nutzbar" ((tm) reunion), sprich schnell gemacht. Für NV-Nutzer war das allerdings in Sachen Qualität ein Rückschritt, da man hier anderes gewöhnt war.
- AF wurde auf 16:1 erhöht
- VTF
- 4xRGMSAA
- sehr gute FP-Shaderleistung ("nutzbar" (tm)reunion)
- Transparenz-AA


Aber hast schon recht:

Nvidia: Alles laue Aufgüsse seit NV1
Ati: Jeder Schritt ein neuer heiliger Gral.
[/sarkasmus]
Bei mir verstärkt sich das Gefühl, dass du eine sehr sehr selektive Wahrnehmung besitzt.

robbitop
2007-03-11, 15:07:05
Das was alles an der Pipeline umgestrickt wurde, ist schon enorm gewesen.

Winter[Raven]
2007-03-11, 15:14:17
Können wir bitte die Vergangenheit ruhen lassen? Wir sind hier im R600 Thread und nicht im NV40 vs R3-4xx ...!!!

Es nervt einfach ... und damit meine ich insbesondere dich reunion, wenn du was diskuttieren willst, tue das per PM, danke ... man verliert den Überblick hier im Thread.

Gast
2007-03-11, 15:14:59
Das was alles an der Pipeline umgestrickt wurde, ist schon enorm gewesen.
Nein nein, R420 zu R480 - das war enorm!

reunion
2007-03-11, 15:30:11
;5317738']Es nervt einfach ... und damit meine ich insbesondere dich reunion, wenn du was diskuttieren willst, tue das per PM, danke ... man verliert den Überblick hier im Thread.

Ich will über nichts in diesem Zusammenhang diskutieren. Nur wenn ich kurz mal einen möglichen Grund nenne, warum sich dB bis jetzt nicht sonderlich durchgesetzt hat, dann müssen ja mindestens gleich fünf Leute darauf aufspringen, und mir alles mögliche unterstellen, und das will, kann und werde ich nicht so stehen lassen.

Die Leistungserhöhung des NV40 benötigte weitreichende Änderungen am Aufbau von CineFX. Es ist nicht annährend vergleichbar wie vom r300 zum r420 bzw. G70 zum G71.



Du tust alles dafür, dass es gerechtfertigt ist :(



Es hat sich einiges an Features getan, nur eben nicht annährend. Wenn du es jedoch von dieser Seite betrachtest, dann muss man r200 - r480 als einen Core betrachten.
Schlussendlich läuft es darauf hinaus, dass ATi ebenso wie nVidia nur alle 2-3 Jahre etwas annährend neues auf den Markt bringt.

->
Aber meinetwegen ist auch NV40 "neu", ist ja im Grunde nur eine Erbsenzählerei. Ich habe eben durch die CineFX-Architektur alle als eine Gen gezählt.


Dann musst du sie eben nochmal lesen. ;)

Ich bilde mir schon ein verstanden zu haben, was dort steht. Nur habe ich mich eben auf die Features bezogen, und nicht auf performaceverbesserungen.

Gast
2007-03-11, 15:56:40
Ich bilde mir schon ein verstanden zu haben, was dort steht. Nur habe ich mich eben auf die Features bezogen, und nicht auf performaceverbesserungen.
Features habe ich dir genannt - entweder du hast die Artikel wirklich nicht verstanden oder dein Gedächtnis hat dir einen Streich gespielt.

reunion
2007-03-11, 16:18:24
Features habe ich dir genannt - entweder du hast die Artikel wirklich nicht verstanden oder dein Gedächtnis hat dir einen Streich gespielt.

Tja, und jetzt kann man ewig darüber streiten, ob diese Features, von denen ich natürlich sehr wohl bescheid wusste, das Prädikat einer neuen Generation rechtfertigen. Aber darüber werde ich in diesem Thread sicherlich nichts mehr schreiben.

StefanV
2007-03-11, 16:30:46
Aber hast schon recht:

Nvidia: Alles laue Aufgüsse seit NV1
Ati: Jeder Schritt ein neuer heiliger Gral.
[/sarkasmus]
Bei mir verstärkt sich das Gefühl, dass du eine sehr sehr selektive Wahrnehmung besitzt.
So falsch ist deine Aussage nicht ;)

Wenn man mal Rage Pro -> R100 -> R200 -> R300 -> R5x0 anschaut, sind die Änderungen größer als bei den G-Forces...
TNT -> GF -> GF2 -> GF3 -> GF4 -> GF FX (bis auf TNT haben alle 4x2, außer die GF1, da war was kaputt, hatte 4x1 Tri)

Gast
2007-03-11, 16:37:18
Wenn man mal Rage Pro -> R100 -> R200 -> R300 -> R5x0 anschaut,War es Absicht, dass du sämtliche Refreshes in deiner Aufzählung vergessen hast? Was ist mit R350/R360, R420 und R480?

Winter[Raven]
2007-03-11, 16:39:01
Wäre es möglich das irgendein Mod hier mal eingreift? Entweder den Teil der "Aufgüße" auslagern oder löschen.

Gast
2007-03-11, 16:44:24
;5317909']Wäre es möglich das irgendein Mod hier mal eingreift? Entweder den Teil der "Aufgüße" auslagern oder löschen.Solange es keine neuen Infos für den R600 gibt, stört diese Diskussion doch niemanden.

Gast
2007-03-11, 16:52:50
So falsch ist deine Aussage nicht ;)

Wenn man mal Rage Pro -> R100 -> R200 -> R300 -> R5x0 anschaut, sind die Änderungen größer als bei den G-Forces...
TNT -> GF -> GF2 -> GF3 -> GF4 -> GF FX (bis auf TNT haben alle 4x2, außer die GF1, da war was kaputt, hatte 4x1 Tri)
Äh, ja Stefan. Du hast Recht, Stefan. Ich fahr schonmal den Wagen vor Stefan.

Nur dass du recht selektiv, wie der andere Gast schon beschreibst, sämtliche Zwischenschritte bei Ati gekonnt vergessen hast. BEIDE verkaufen jeden möglichst kleinen Technologieschritt an die Kunden - alles andere würden ihnen ihre Aktionäre auch übelnehmen, dazu sind Firmen nunmal da: Gewinn erwirtschaften.


mfg,
Harry K.

Gast
2007-03-11, 16:55:27
Tja, und jetzt kann man ewig darüber streiten, ob diese Features, von denen ich natürlich sehr wohl bescheid wusste, das Prädikat einer neuen Generation rechtfertigen. Aber darüber werde ich in diesem Thread sicherlich nichts mehr schreiben.
Sehr gut, dann können wir uns ja endlich wieder den wichtigen Dingen widmen.

Du hast nach Features gefragt, dir wurden Features genannt (eines hab ich noch vergessen: Filterung von FP-Texturen...). Wenn die dir nicht reichen, ist das deine Sache. Die Mitleser werden sich jetzt aber sicherlich ein differenzierteres Bild machen können, als nur anhand deiner einseitigen Darstellung - ob sie dabei mit mir oder dir übereinstimmen oder irgendwo anders liegen, ist mir dabei egal. Hauptsache sie bilden sich ihre Meinung nicht auf der Grundlage mangelhafter Information.

Gruß,
Q

Gast
2007-03-11, 22:34:33
Das Branching von G7x ist schlechter. TAA ist eine Softwaresache.


zumindest gibt es ein paar spiele die mit TAA auf dem NV4x artefakte zeigen, auf dem G7x aber einwandfrei funktionieren, ich denke schon dass der G7x da irgendwelche hardwareveränderungen für TAA hat.

Gast
2007-03-11, 22:54:57
Solange es keine neuen Infos für den R600 gibt, stört diese Diskussion doch niemanden.

Es stört keinen MOD ;)

Ailuros
2007-03-11, 23:40:05
Eine nette Sackgasse habt Ihr Euch in den letzten paar Seiten eingebrockt; dass die oede Debatte zu nichts fuehrt sollte verstaendlich sein.

ATI entwickelt IMHO zu umstaendlich, geht zu viele Risikos ein und hat immer noch nicht gelernt ihre R&D Unkosten zu minimalisieren.

Eine wahre Innovation von ATI waere eine Wiederholung des R300 Erfolgs ohne dass aber NV so flach auf die Nase faellt wie mit dem NV30.

Es ist eben leider mal so in diesem Markt dass wenn man sich konstant verspaetet dass man eben jedes Mal den ersten Zug verpasst. Und bei ATI wiederholt sich diese Geschichte viel zu oft fuer meinen Geschmack in letzter Zeit.

Mir hilft die eher sinnlose Debatte gar nichts, so lange ATI sich nicht endlich wendet und ihre gesamte Strategie von Grund auf aendert. Ich will bezweifeln dass es ueberhaupt zu 100% bug-freie chips gibt im 3D Markt, nicht jeder merkt eben manche Kleinigkeiten und man kann auch in solchen Faellen ein oder sogar beide Augen zudruecken. Die minimalste Anzahl an Bugs hatte R300; dessen Vorgaenger und R5x0/R6x0 hatten mehr als nur ernsthafte Bugs fuer die man stets mehr Zeit braucht um sie auszubuegeln.

Komischerweise war R300 auch der einzige chip der nicht mit einer extravaganten Taktrate ankam. Ich weigere mich zu glauben dass wenn man die Taktrate zu hoch treibt, dass man auch demenstrechend hoehere Risikos eingeht. Beim R200 stammte Orton den Fuss auf den Boden und bestand darauf dass man das Ding so oder so veroeffentlicht und das Publikum meckerte eben ueber angebliche miserable Treiber.

Beim R520 war der angebliche "Suendenbock" 3rd party IP und jetzt beim R600 das eher zickige 80nm. Es ist zwar schon so dass wahres am obrigen liegt, nur sind es nicht die eigentliche Gruende jeglicher Verspaetung. Eine jegliche Architektur wird von Anfang an fuer 4 quads oder 4 clusters ausgelegt und fuer eine XYZ Taktrate; dass diese durch jegliche Verspaetungen nochmal erhoeht wird ist nur ein Nebeneffekt. Man plant von Anfang an fuer hohe Frequenzen und dieses ist und bleibt IMHLO ATI's groesstes Problem.

Keiner kann mir einreden dass ATI nicht theoretisch alle Vorraussetzungen hat NVIDIA wirklich in die Ecke zu treiben.

K4mPFwUr$t
2007-03-12, 00:01:19
full ack, leider schaut zum zeitpunkt aus.

Coda
2007-03-12, 00:27:41
zumindest gibt es ein paar spiele die mit TAA auf dem NV4x artefakte zeigen, auf dem G7x aber einwandfrei funktionieren, ich denke schon dass der G7x da irgendwelche hardwareveränderungen für TAA hat.
Hm okay - Das war mir neu. Danke für die Info.

robbitop
2007-03-12, 10:56:57
Ich bilde mir schon ein verstanden zu haben, was dort steht. Nur habe ich mich eben auf die Features bezogen, und nicht auf performaceverbesserungen.
Und das ist eben ein Stueck weit zu kurz gedacht. :)

robbitop
2007-03-12, 11:02:57
Keiner kann mir einreden dass ATI nicht theoretisch alle Vorraussetzungen hat NVIDIA wirklich in die Ecke zu treiben.
Das klingt ein wenig seltsam. Ich glaube aber ich weiss was du meinst.
Beide haben das Potenzial einander in die Ecke zu treiben. Wirtschaftlich laeuft es im Moment leider einseitig.

seahawk
2007-03-12, 11:18:14
Keiner kann mir einreden dass ATI nicht theoretisch alle Vorraussetzungen hat NVIDIA wirklich in die Ecke zu treiben.

Nein, imho können beide den jeweils anderen nur in die Ecke treiben, wenn dieser einen fetten Fehler macht. Die Kombination AMD/ATI hätte natürlich schon das Potential NV mehr in die Ecke zu drängen, aber dafür müßte man mehr Resourcen aufwenden, als man imho zur Verfügung hat, da AMD/ATI eben nicht nur mit NV konkurriert sondern auch mit Intel.

Armaq
2007-03-12, 11:31:36
Nein, imho können beide den jeweils anderen nur in die Ecke treiben, wenn dieser ein fetten Fehler macht. Die Kombination AMD/ATI hätte natürlich schon das Potential NV mehr in die Ecke zu drängen, aber dafür müßte man mehr Resourcen aufwenden, als man imho zur Verfügung hat, da AMD/ATI eben nicht nur mit NV konkurriert sondern auch mit Intel.

Dem kann man nur zustimmen. AMD hat sich die zwei stärksten Konkurrenten in zwei HighTech Märkten gesucht. Respekt.

K4mPFwUr$t
2007-03-12, 12:02:33
was anderes würde ja auch keinen sinn ergeben, VIA oder S3 ;D
von daher hat das nichts mit respekt zu tuen, sondern ist der markt.

Winter[Raven]
2007-03-12, 12:19:27
Zitat von Londo aus Babylon 5:

"Only an idiot fights a war on two fronts."

Armaq
2007-03-12, 12:55:54
was anderes würde ja auch keinen sinn ergeben, VIA oder S3 ;D
von daher hat das nichts mit respekt zu tuen, sondern ist der markt.
Sicher, aber sich zwei mal im HighEnd aufzubäumen kostet natürlich einiges.
Man hätte auch nur noch IGP entwickeln können mit einem anderen Einkauf, oder würde sich auf Server konzentrieren, was auch immer. Die derzeitige Ausrichtung von AMD ist nunmal ein Kampf gegen zwei hochklassige Gegner.

Der Markt bietet immer Möglichkeiten, das nur am Rande.

seahawk
2007-03-12, 13:59:33
was anderes würde ja auch keinen sinn ergeben, VIA oder S3 ;D
von daher hat das nichts mit respekt zu tuen, sondern ist der markt.

Die einfache Frage ist nur, was für AMD leichter hinnehmbar ist.

a) Abgabe des High-End-Grafikkarten-Marktes an NV und Konzentration auf IGP und Mainstreamangebote

b) Abgabe des High-End CPU Markts an Intel und Konzentration auf das Value Segment.

robbitop
2007-03-12, 14:10:07
Beides wuerde das Unternehmen erheblich zusammenschrumpfen.
Da wir nicht im Krieg sind, muss auch nichts gewonnen werden. Man muss genuegend Margen erwirtschaften, um die Deckungsbeitraege fuer die Nebenkosten und zusaetzlich Gewinne zu erwirtschaften. Dies gelang beiden Unternehmen idR in der Vergangenheit. Wenn man ein paar Dinge verbessert (z.B. die Risikophilosophie bei ATI), sollte es mittelfristig auch besser aussehen.

Gast
2007-03-12, 14:16:15
Beides wuerde das Unternehmen erheblich zusammenschrumpfen.
Da wir nicht im Krieg sind, muss auch nichts gewonnen werden. Man muss genuegend Margen erwirtschaften, um die Deckungsbeitraege fuer die Nebenkosten und zusaetzlich Gewinne zu erwirtschaften. Dies gelang beiden Unternehmen idR in der Vergangenheit. Wenn man ein paar Dinge verbessert (z.B. die Risikophilosophie bei ATI), sollte es mittelfristig auch besser aussehen.


Der erste sinnvolle Beitrag zum Thema seit vielen Seiten.

Armaq
2007-03-12, 14:31:02
Beides wuerde das Unternehmen erheblich zusammenschrumpfen.
Da wir nicht im Krieg sind, muss auch nichts gewonnen werden. Man muss genuegend Margen erwirtschaften, um die Deckungsbeitraege fuer die Nebenkosten und zusaetzlich Gewinne zu erwirtschaften. Dies gelang beiden Unternehmen idR in der Vergangenheit. Wenn man ein paar Dinge verbessert (z.B. die Risikophilosophie bei ATI), sollte es mittelfristig auch besser aussehen.
Nur gerade um diese Margen steht es zZ. schlechter denn je. Auf beiden Seiten bekommt man Gegenwind ohne Ende.

robbitop
2007-03-12, 14:58:04
Ja da muss man die Produkte eben verbessern.
Ich denke ab R700 geht ATI einen risikoaermeren Weg. Auch der K10 koennte die Margen wieder verbessern. Gerade im Servermarkt kann man gute Margen holen und das soll ja die Domaene dieser CPU sein.

AnarchX
2007-03-12, 15:26:33
R600 with 1024 MB has lower priority
Comes in mid May (http://www.fudzilla.com/index.php?option=com_content&task=view&id=118&Itemid=34)
ATI decided to focus its May launch on the 512 MB DDR 3 cards rather than 1024 MB GDDR4. This is the key message from the new revamped R600 launch schedule.[...]

FUD in Reinform, aber leider ist meist da immer etwas wahres dran. ;)
Wenn es so kommt, dann wird es wohl eher nichts damit das der R600 mit seiner hohen Bandbreite den G80 in hohen Auflösungen mit 8xTSAA blamiert.

reunion
2007-03-12, 15:30:54
Ich bleibe dabei, dass ist so wahrscheinlich, wie dass morgen die Sonne nicht mehr aufgeht. Man hält nicht ausgerechnet das Prestigeobjekt, mit dem man die Benchmarks gewinnen soll, zurück. Das ist total unlogisch, schon gar nicht wegen max. zwei Wochen. Da verschiebt man eher alle anderen Karten, wenn es damit Probleme geben sollte, wie schon mehrmals geschehen.

Dem kann man nur zustimmen. AMD hat sich die zwei stärksten Konkurrenten in zwei HighTech Märkten gesucht. Respekt.

Ich sehe darin nicht das geringste Problem. Es war ja vorher auch nicht anders. Nur weil man jetzt unter gemeinsamer Flagge auftritt, ändert das genau gar nichts. Problematisch würde es höchstens werden, wenn eine Sparte langfristig nicht mehr rentabel ist, aber das wäre bei einem eigenständigem Unternehmen auch nicht anders.

AnarchX
2007-03-12, 15:35:12
Vielleicht wird sie ja doch schon Anfang Mai gelauncht, immerhin spricht ja Fuad von Samples zu diesem Zeitpunkt, was aber wiederrum bedeuten würde, dass es ein Paperlaunch für die GDDR4-Karte wäre.
Zwar nicht sonderlich fein, aber irgendwann muss man ja sein D3D10-Portfolio dem Markt vorstellen. NV wird ja zu diesem Zeitpunkt schon 5-6 D310-Karten am Markt haben.

PCGH_Carsten
2007-03-12, 15:37:38
R600 with 1024 MB has lower priority
Comes in mid May (http://www.fudzilla.com/index.php?option=com_content&task=view&id=118&Itemid=34)


FUD in Reinform, aber leider ist meist da immer etwas wahres dran. ;)
Wenn es so kommt, dann wird es wohl eher nichts damit das der R600 mit seiner hohen Bandbreite den G80 in hohen Auflösungen mit 8xTSAA blamiert.
Klingt für mich eher einleuchtend: 1 GiB GDDR4 kostet halt und Ati wird wissen, dass sich Nivida in den vergangenen fünf Monaten den G80 hat vergolden lassen.

Sobald der R600 draussen ist, wird der G80 billiger und wenn 1 GiB GDDR4 eingesetzt werden, hat Ati da wirtschaftlich vermutlich schlechte Karten gegen 768 MiB GDDR3 auch im Preis zu bestehen.

Das ganze gilt natürlich nur, wenn der R600 die G80 nicht Fps-seitig ziemlich demoliert: Was ich aufgrund dieser Meldung mal ausschließen würde.

Vorausgesetzt, sie trifft zu.

reunion
2007-03-12, 15:38:40
Vielleicht wird sie ja doch schon Anfang Mai gelauncht, immerhin spricht ja Fuad von Samples zu diesem Zeitpunkt, was aber wiederrum bedeuten würde, dass es ein Paperlaunch für die GDDR4-Karte wäre.
Zwar nicht sonderlich fein, aber irgendwann muss man ja sein D3D10-Portfolio dem Markt vorstellen.


Ein Paperlaunch wäre natürlich möglich. Auf jeden Fall wird man sich den schnellsten Chip mit Sicherheit nicht zum großen Launch entgehen lassen. Immerhin will man damit die Benchs gewinnen.


NV wird ja zu diesem Zeitpunkt schon 5-6 D310-Karten am Markt haben.

Und nach diesem Zeitpunkt dürfte ATi locker >10 D3D10-Karten am Markt haben. Oder sagen wir mal besser vorgestellt haben. :)

Gast
2007-03-12, 15:48:19
Und nach diesem Zeitpunkt dürfte ATi locker >10 D3D10-Karten am Markt haben. Oder sagen wir mal besser vorgestellt haben. :)

Mehr als 10?
Aus dem r600 kommen 2 Abkömmlinge, aus dem rv610 3, so wie aus dem rv630. Wo sollen die restlichen 3 herkommen?

reunion
2007-03-12, 15:58:21
Es gibt in den Treibern alleine vier Einträge zu R600, dazu auch vier für RV610 und AFAIK drei für RV630. Muss mal schauen ob ich die Beiträge noch finde.

AnarchX
2007-03-12, 16:22:11
Es gibt in den Treibern alleine vier Einträge zu R600, dazu auch vier für RV610 und AFAIK drei für RV630. Muss mal schauen ob ich die Beiträge noch finde.

Würde man nach irgendwelchen Treibereinträgen auch bei NV gehen, da wäre man auch jenseits der 10... ;)

Ich würde Mitte Mai auch um die 6 Karten bei ATi schätzen.

seahawk
2007-03-12, 17:28:01
Es gibt in den Treibern alleine vier Einträge zu R600, dazu auch vier für RV610 und AFAIK drei für RV630. Muss mal schauen ob ich die Beiträge noch finde.

Und NV hat 3 8800 im Markt und ich gehe mal davon aus , dass es 3 8600/8500er geben wird. Mit der kleinen 8300 (?) kommt man auch auf min. 8 Karten. Die anzahl an kArten ist irrelevant, wichtig ist wie die KArten sich im Konkurrenzumfeld behaupten.

Der spekulierte Verzicht auf die 1MB Vairante legt nahe, dass ATI weiss, dass NV sie in einen Preiskampf verwickeln wird.

Edit für leichtere Verständlichkeit : 7XXX gegen 8XXX ersetzt

Nakai
2007-03-12, 20:25:11
Wohl eher 8600 und 8300...^^:rolleyes:

mfg Nakai

laser114
2007-03-12, 20:35:58
Wohl eher 8600 und 8300...^^:rolleyes:

Ich glaub er hat von der 7er-Generation auf die 8er-Generation spekuliert.

Und in der 7er gibts 3 G73-Karten (7600 GT, 7600 GS und 7300 GT), da könnte das mit den 3 G84er ebenfalls gut passen (8600 GTS, 8600 GT, 8500 GT?).
Auch im Low-End hat man 3 Karten platziert (zzgl. der Produktionen für die OEM-Hersteller), also ich kann ihm schon folgen. :)

Auch wenn die Formulierung teilweise etwas verworren erscheint, mit der Vermischung von neu und alt.

Gast
2007-03-12, 20:36:43
Ich bleibe dabei, dass ist so wahrscheinlich, wie dass morgen die Sonne nicht mehr aufgeht. Man hält nicht ausgerechnet das Prestigeobjekt, mit dem man die Benchmarks gewinnen soll, zurück. Das ist total unlogisch, schon gar nicht wegen max. zwei Wochen. Da verschiebt man eher alle anderen Karten, wenn es damit Probleme geben sollte, wie schon mehrmals geschehen.


hat man auch mit cer X800PRO/XT so gemacht, die XT kam auch erst einige wochen später und in extrem geringen stückzahlen.

reunion
2007-03-12, 20:46:21
hat man auch mit cer X800PRO/XT so gemacht, die XT kam auch erst einige wochen später und in extrem geringen stückzahlen.

Ja, nur musste die XT sehr wohl bei den Tests herhalten, und das wird sicher diesmal mit der XTX nicht anders sein.

Gast
2007-03-12, 20:55:44
Ja, nur musste die XT sehr wohl bei den Tests herhalten, und das wird sicher diesmal mit der XTX nicht anders sein.

aber auch erst mit verspätung, ich könnte mir durchaus vorstellen dass man das auch diesesmal so anlegt, fallst noch zeit gebraucht wird um das spitzenmodell auf entsprechende taktraten zu bringen.

für die leistung heißt das aber nix gute.

Armaq
2007-03-12, 20:58:02
Ich sehe darin nicht das geringste Problem. Es war ja vorher auch nicht anders. Nur weil man jetzt unter gemeinsamer Flagge auftritt, ändert das genau gar nichts. Problematisch würde es höchstens werden, wenn eine Sparte langfristig nicht mehr rentabel ist, aber das wäre bei einem eigenständigem Unternehmen auch nicht anders.
Eben nicht. Ein eigenständiger Konzern, der nur den Grafikmarkt bedient, wird viel mehr Aufwand um seinen Erhalt betreiben, als ein Großkonzern, der eine Sparte auslagert. Es passiert jeden Tag. Eine 5Mrd Unternehmen geht nicht jeden Tag Bankrott. Da haben zuviele reiche Geldgeber Interesse an einem Fortbestand und würden sich dort anders einsetzen.

Kleine unabhängige Zellen waren schon immer flexibler und auf Dauer durchsetzungsfähiger.

reunion
2007-03-12, 21:03:07
aber auch erst mit verspätung, ich könnte mir durchaus vorstellen dass man das auch diesesmal so anlegt, fallst noch zeit gebraucht wird um das spitzenmodell auf entsprechende taktraten zu bringen.

für die leistung heißt das aber nix gute.

Was meinst du mit auch erst später? AFAIK hatte alle wichtige Tester zum Launch eine XT oder gar 'ne XT-PE. In den Handel kam die Karte erst später, das stimmt - aber sie kam wenigstens. Und ein R420 war deutlich schneller als ein NV40, deshalb sehe ich hier keinen direkten Zusammenhang mit der Leistung.

Eben nicht. Ein eigenständiger Konzern, der nur den Grafikmarkt bedient, wird viel mehr Aufwand um seinen Erhalt betreiben, als ein Großkonzern, der eine Sparte auslagert. Es passiert jeden Tag. Eine 5Mrd Unternehmen geht nicht jeden Tag Bankrott. Da haben zuviele reiche Geldgeber Interesse an einem Fortbestand und würden sich dort anders einsetzen.

Kleine unabhängige Zellen waren schon immer flexibler und auf Dauer durchsetzungsfähiger.

Damit hast du sicherlich nicht unrecht. AMD kann natürlich nicht so lange warten, bis eine Sparte das gesamte Unternehmen in den Konkurs treibt. Aber so weit ist es ja noch lange nicht.

Gast
2007-03-12, 21:20:34
Was meinst du mit auch erst später? AFAIK hatte alle wichtige Tester zum Launch eine XT oder gar 'ne XT-PE.

nö, die ersten tests hatten alle nur ne X800Pro, die X800XT kam erst ein wenig später zu den testern und viel später in den handel.


Und ein R420 war deutlich schneller als ein NV40, deshalb sehe ich hier keinen direkten Zusammenhang mit der Leistung.


allerdings nur in einem der vielen marktsegmente, die x800xt war schneller als die 6800ultra, die x800pro aber langsamer als die 6800GT und die X600er serie langsamer als die 6600er serie.

umgemünzt auf die jetzigen gerüchte der R600-serie klingt es am ehesten so als wenn ATIs spitzenmodell zwar einen gesunden vorsprung vor der 8800GTX hat, aber kaum verfügbar ist, die "kleineren" modelle aber gerade mal so mithalten können mit dem G80, was für bald 6-7monate verspätung schon ziemlich wenig ist.

dargo
2007-03-12, 23:00:16
Was spricht eigendlich dagegen den Plan zu ändern und eine X2900XT einmal mit 512MB und einmal mit 1GB GDDR3 zu veröffentlichen? Für die X2900XT 1GB könnte man doch das PCB der XTX verwenden um alle Speicherchips unterzubringen. Oder passen auf dieses PCB nur GDDR4 Chips?

Gast
2007-03-12, 23:11:23
Was spricht eigendlich dagegen den Plan zu ändern und eine X2900XT einmal mit 512MB und einmal mit 1GB GDDR3 zu veröffentlichen? Für die X2900XT 1GB könnte man doch das PCB der XTX verwenden um alle Speicherchips unterzubringen. Oder passen auf dieses PCB nur GDDR4 Chips?
GDDR3 und GDDR4 sind nicht pinkompatibel -> brauchen jeweils eigene PCBs.

AnarchX
2007-03-12, 23:27:11
Da es 512Mbit GDDR3 Chips gibt, sollte eigentlich eine 1GB Karte mit dem GDDR3-PCB kein Problem sein.
Fragt sich nur ob da ATi mitspielt.

dargo
2007-03-12, 23:46:22
Da es 512Mbit GDDR3 Chips gibt, sollte eigentlich eine 1GB Karte mit dem GDDR3-PCB kein Problem sein.
Fragt sich nur ob da ATi mitspielt.
Das wären aber immer noch 16 Chips auf einer Seite, ist leider nicht machbar.

AnarchX
2007-03-12, 23:54:04
Das wären aber immer noch 16 Chips auf einer Seite, ist leider nicht machbar.

Wird es aber, da ja das 512Bit SI des R600 sich vorrausichtlich aus 16x32Bit zusammensetzen wird.

deekey777
2007-03-12, 23:56:15
Das wären aber immer noch 16 Chips auf einer Seite, ist leider nicht machbar.
Darum kann man die Speicherchips auf beiden Seiten des PCB verteilen, siehe X1800 GL.

StefanV
2007-03-12, 23:57:56
Darum kann man die Speicherchips auf beiden Seiten des PCB verteilen, siehe X1800 GL.
Besser: 7800GTX, die sollte bekannter sein.

Ädit:
Bild von Fire GL V7350 (http://www.fcenter.ru/img/article/videocards/ATI_FireGL_V7350/81365.jpg)

Gast
2007-03-13, 00:02:31
Oder Radeon 9700 Pro oder Radeon 8500/128 oder oder oder. Es geht, das reicht.

dargo
2007-03-13, 00:03:28
Darum kann man die Speicherchips auf beiden Seiten des PCB verteilen, siehe X1800 GL.
Ja, das ist schon klar. Die XTX sollte auch je Seite 8 Speicherchips verwenden.

AnarchX meinte aber, man könnte 1GB Vram auf einer Seite unterbringen. Das PCB ist aber zu klein für 16 Speicherchips wenn man sich an die Norm halten will. Will man also 1GB auf eine Seite unterbringen bräuchte man 1024Mbit Chips, die es afaik nicht gibt oder etwa doch?

AnarchX
2007-03-13, 00:05:14
Aber die FireGL mit 1GB hat ja auch 8 Chips pro Seite(8x32Bit).
Kann man die Kanäle denn zu unterschiedlichen Seiten ausführen, der R600 soll ja 16 davon haben?

StefanV
2007-03-13, 00:05:31
Oder Radeon 9700 Pro oder Radeon 8500/128 oder oder oder. Es geht, das reicht.
Diese Beispiele hinken aber, da sie nur 8 Chips gesamt haben, einzig die erste 256MiB 9800 mit DDR-II SDRAM (http://www.tomshardware.pl/graphic/20030604/radeon_9800-01.html) würde auch hier passen.

dargo
2007-03-13, 00:12:13
Aber die FireGL mit 1GB hat ja auch 8 Chips pro Seite(8x32Bit).

Dagegen spricht auch nichts. :)

Ich versuche es nochmal zu verdeutlichen:
Ich hatte mir gedacht, ATI könnte einfach eine X2900XT auch mit 1GB GDDR3 Vram veröffentlichen (ausgehend davon, dass es Probleme mit GDDR4 gibt). Dazu bräuchte ATI aber das PCB der XTX (ich gehe mal davon aus, dass das PCB der XT nur 8 Speicherchips auf einer Seite aufnehmen kann, die andere Seite braucht man auch nicht für max. 512MB Vram), denn dieses PCB ist für 8 Speicherchips je Seite ausgelegt (gesamt 16 Chips). Da aber GDDR3 nicht zu GDDR4 pinkompatibel ist hat sich das eigendlich schon erledigt.

Wäre es eigendlich sehr teuer ein GDDR4 PCB in GDDR3 zu ändern?

AnarchX
2007-03-13, 00:16:22
Wenn der Ringbus sich beim R600 nicht groß verändert hat->32Bit pro Stop(AFAIK wurde das ja auch mal bei B3D geschrieben), so müssen es eben bei 512Bit 16 Speicherchips sein.
Und bisher habe ich noch keine Karte gesehen, die weniger Module auf einer PCB-Seite hatte, als sie aktive Speicherkanäle hat.

deekey777
2007-03-13, 00:25:54
Wenn der Ringbus sich beim R600 nicht groß verändert hat->32Bit pro Stop(AFAIK wurde das ja auch mal bei B3D geschrieben), so müssen es eben bei 512Bit 16 Speicherchips sein.
Und bisher habe ich noch keine Karte gesehen, die weniger Module auf einer PCB-Seite hatte, als sie Speicherkanäle hat.
Gigabytes X800GT 128 MB mit 128-bit breitem SI. Wie die das gemacht haben? Man nehme von der X800GT 256 einfach die Hälfte der Speicherbausteine weg.

dargo
2007-03-13, 00:27:43
Wenn der Ringbus sich beim R600 nicht groß verändert hat->32Bit pro Stop(AFAIK wurde das ja auch mal bei B3D geschrieben), so müssen es eben bei 512Bit 16 Speicherchips sein.
Und bisher habe ich noch keine Karte gesehen, die weniger Module auf einer PCB-Seite hatte, als sie Speicherkanäle hat.
Du meinst also die XTX hätte alle 16 Chips auf einer Seite :confused:
Das geht doch vom Platz her gar nicht.

AnarchX
2007-03-13, 00:31:05
Gigabytes X800GT 128 MB mit 128-bit breitem SI. Wie die das gemacht haben? Man nehme von der X800GT 256 einfach die Hälfte der Speicherbausteine weg.

Und bisher habe ich noch keine Karte gesehen, die weniger Module auf einer PCB-Seite hatte, als sie aktive Speicherkanäle hat
:wink:

Du meinst also die XTX hätte alle 16 Chips auf einer Seite :confused:
Das geht doch vom Platz her gar nicht.
Das werden wir uns wohl erst beantworten können, wenn wir eine R600-Karte ohne Kühler sehen.

deekey777
2007-03-13, 00:35:15
:wink:
.
Und sie hatte aktive, aber unbenutzte Speicherkanäle. Auch die X1600Pro HM hat nur die Hälfte des Arbeitsspeichers (128 MiB) und somit 64-bit breites SI.
Alles andere wäre doch gaga.:)

AnarchX
2007-03-13, 00:43:27
Und sie hatte aktive, aber unbenutzte Speicherkanäle. Auch die X1600Pro HM hat nur die Hälfte des Arbeitsspeichers (128 MiB) und somit 64-bit breites SI.
Alles andere wäre doch gaga.:)

Was alles aber nicht unbedingt bei der Frage weiterhilft, wo beim R600(512Bit) die wohlmöglich 16 Speichermodule auf dem Karten-PCB untegebracht sind um alle Kanäle zu benutzen.
Aber vielleicht kann ja Ailuros dazu einen kleinen Hinweis geben.

Ailuros
2007-03-13, 05:45:17
Nein, imho können beide den jeweils anderen nur in die Ecke treiben, wenn dieser einen fetten Fehler macht. Die Kombination AMD/ATI hätte natürlich schon das Potential NV mehr in die Ecke zu drängen, aber dafür müßte man mehr Resourcen aufwenden, als man imho zur Verfügung hat, da AMD/ATI eben nicht nur mit NV konkurriert sondern auch mit Intel.

Mit so grossen Verspaetungen gibt ATI eigentlich NVIDIA nur konstant ein freies Feld zum spielen. ATI muss IMHLO zumindest zeitgleich in der Zukunft vorstellen.

Der CPU Markt ist momentan sowieso ein ganz anderes Kapitel und keiner weiss ob und wie sich der gesamte Markt in der Zukunft dazu anpassen koennte.

Ailuros
2007-03-13, 05:56:05
Beides wuerde das Unternehmen erheblich zusammenschrumpfen.
Da wir nicht im Krieg sind, muss auch nichts gewonnen werden. Man muss genuegend Margen erwirtschaften, um die Deckungsbeitraege fuer die Nebenkosten und zusaetzlich Gewinne zu erwirtschaften. Dies gelang beiden Unternehmen idR in der Vergangenheit. Wenn man ein paar Dinge verbessert (z.B. die Risikophilosophie bei ATI), sollte es mittelfristig auch besser aussehen.

Genau. Wie waere es wenn ATI es schafft in der Zukunft (sagen wir mal spaetestens bis R7x0), 2-3 Monate frueher als NV ihre high end GPUs auf die Regale zu bringen und dann auf NV's Antwort wartet um den "back-up"-Refresh aus der Schublade zu ziehen?

Wieviel Gewinn machte denn ATI als sie noch unabhaengig waren? Sich gerade noch ueber Wasser zu halten hilft wohl nicht besonders viel. Was IMHLO angebrachter waere, ist eine fundamentale Aenderung der gesamten Strategie.

Etwas zu stark OT: sie wedeln gerade mit dem neuen OGL-ES2.0 SDK Dingsbums fuer den PDA/mobile Markt. Ach und wo ist die vorzeigbare HW? In der Zwischenzeit zeigt IMG schon auf jeder Messe ihren SGX vor und kaschiert Lizenz nach Lizenz. Glaubst Du wirklich dass IMG die gleichen Chancen haette wenn sie um einiges spaeter als die Konkurrenz ankommen wuerden, TBDR oder nicht? Mit TI bzw. Nokia unterm Aermel hat sich diese Runde sowieso wieder ausgespielt.

seahawk
2007-03-13, 07:07:28
Mit so grossen Verspaetungen gibt ATI eigentlich NVIDIA nur konstant ein freies Feld zum spielen. ATI muss IMHLO zumindest zeitgleich in der Zukunft vorstellen.

Der CPU Markt ist momentan sowieso ein ganz anderes Kapitel und keiner weiss ob und wie sich der gesamte Markt in der Zukunft dazu anpassen koennte.

Ja, aber ATI/AMD haben momentan eben nicht nur Baustellen im High-End-Grafiksegment, sondern auch im PDA-Segment als auch im Chipsetmarkt. Und gerade die Situation im Chipsetmarkt kann denen doch nicht gefalllen.

AnarchX
2007-03-13, 09:41:05
Dailytech hat alle Infos zu RV610 und RV630 zusammengefasst und mit paar eigenen Infos ergänzt:
AMD "RV610" and "RV630" Details Unveiled
http://img155.imageshack.us/img155/4575/4128largeamdrv610rv630mc5.png
http://www.dailytech.com/article.aspx?newsid=6451

dargo
2007-03-13, 10:10:06
Kohinoor und Orloff sollen schon PCIe 2.0 unterstützen?

X.Perry_Mental
2007-03-13, 12:46:43
Dailytech hat alle Infos zu RV610 und RV630 zusammengefasst und mit paar eigenen Infos ergänzt:
Was bedeutet beim RV630 das "Power Type internal/External"? Externe Grafikkarten-PSUs oder Bus-Powered bzw. Power-Stecker vom Netzteil?

dargo
2007-03-13, 12:48:31
Was bedeutet beim RV630 das "Power Type internal/External"? Externe Grafikkarten-PSUs oder Bus-Powered bzw. Power-Stecker vom Netzteil?
External = externer PCIe Stromanschluss
Internal = PCIe Slot

deekey777
2007-03-13, 12:53:28
Dass die stärkeren RV630-Modelle nicht nur über PEG mit Strom versorgt werden, sondern auch über einen externen Anschluss. :)

Ailuros
2007-03-13, 13:24:23
Ja, aber ATI/AMD haben momentan eben nicht nur Baustellen im High-End-Grafiksegment, sondern auch im PDA-Segment als auch im Chipsetmarkt. Und gerade die Situation im Chipsetmarkt kann denen doch nicht gefalllen.

Der PDA/mobile Markt operiert hauptsaechlich mit IP Verkauf; wozu soll AMD eine FAB genau nutzvoll sein wenn grosse Semiconductor Hersteller das Zeug selber bauen und in ihren eigenen SoCs integrieren wollen? Der OGL-ES 2.0 Imageon soll ja als IP verkauft werden.

Das Zeug ist ja sowieso OT hier; es ging lediglich darum dass sie auch hier zu spaet angekommen sind und somit wichtige Vertraege versaeumt haben. TI's OMAP3 liegt schon unter Entwicklung; es fragt sich noch zusaetzlich wieso zumindest der erwaehnte OpenVG core der aus der vorigen Bitboys Schmiede stammt nicht auch schon in praesentablem Silizium existiert pffff....

Ailuros
2007-03-13, 13:27:34
Viel neues gibt die Tabelle ja auch nicht unbedingt an. Das einzig interessante sind die angegebenen 121W des groessten RV630. Fuer eine midrange GPU auf 65nm klingt das auch nicht gerade wenig.

seahawk
2007-03-13, 13:47:25
Wäre er ein halber R600 ....

AnarchX
2007-03-13, 13:51:56
In anbetracht der spekulierten Taktraten für den R600 und dieser TDP, würde es mich nicht wundern wenn der RV630XT mit ~1GHz taktet.

Ailuros
2007-03-13, 14:14:15
Wäre er ein halber R600 ....

Und 65nm vs. 80nm.

seahawk
2007-03-13, 14:17:56
Yep, sieht gar nicht gut aus imho

AnarchX
2007-03-13, 14:23:38
Yep, sieht gar nicht gut aus imho

Solang der Stromverbrauch ordentlich gekühlt wird und der 2D-Modus ordentlich funktioniert...
Bei B3D hat man dies ausgerechnet:
http://img181.imageshack.us/img181/3466/r6xxvg8xzr0.png

Ein halber R600(ausgenommen das SI) mit vielleicht 0.9-1GHz Core-Takt mit GDDR4, wäre imo keine schlechte Midrange-Lösung.

Gast
2007-03-13, 14:32:13
Solang der Stromverbrauch ordentlich gekühlt wird und der 2D-Modus ordentlich funktioniert...
Bei B3D hat man dies ausgerechnet:
http://img181.imageshack.us/img181/3466/r6xxvg8xzr0.png
Ein halber R600(ausgenommen das SI) mit vielleicht 0.9-1GHz Core-Takt mit GDDR4, wäre imo keine schlechte Midrange-Lösung.
So schnell wie eine X1900XT in 90 nm sollte das beste Mainstreammodell in 65 nm schon sein, wenn der Stromverbrauch wirklich stimmt, denn die braucht auch nicht viel mehr. Allerdings sieht's für den R600 wirklich nicht gut aus, der würde dann bei doppelter Performance wirklich mehr als 240 W brauchen. Sowas kann man unmöglich zum jetzigen Zeitpunkt auf die "Menschheit loslassen".

Gast
2007-03-13, 14:41:37
Ich bin immer noch der Meinung, das sie aufgrund von einen oder mehreren der folgenden Punkten den Launch verschieben mussten:

- GDDR4, generell Speichertaktraten und Verfügbarkeit
- GPU Taktraten
- Stromverbrauch
- Crossfire / PCIe2.0

Bin mir nicht mehr 100pro sicher, war nicht mal die rede davon, das es eine art neues crossfire geben soll (nur über den bus)? da käme pcie 2.0 gerade recht, bei 3DC stand mal was dazu, das deutlich über 10 % verloren gingen, wenn man dies so handhaben würde mit heutigen boards.

deekey777
2007-03-13, 14:44:31
Der RV630 in seiner schnellsten Version soll die X1900GT schlagen, ein würdiger Nachfolger der X1950Pro kommt erst im Spätsommer. Oder so.
Man darf nicht vergssen, dass die X1900XT/XTX eine sehr starke Grafikkarte ist.
Dass die 8600GTS die 7950GT schlagen soll, ist nicht überraschend. ;) :biggrin:

Ailuros
2007-03-13, 14:49:09
Solang der Stromverbrauch ordentlich gekühlt wird und der 2D-Modus ordentlich funktioniert...
Bei B3D hat man dies ausgerechnet:
http://img181.imageshack.us/img181/3466/r6xxvg8xzr0.png

Ein halber R600(ausgenommen das SI) mit vielleicht 0.9-1GHz Core-Takt mit GDDR4, wäre imo keine schlechte Midrange-Lösung.

Auch nicht wenn der direkte Konkurrent doppelt so viel ROPs/TMUs haben koennte?

Ailuros
2007-03-13, 14:51:33
Ich bin immer noch der Meinung, das sie aufgrund von einen oder mehreren der folgenden Punkten den Launch verschieben mussten:

- GDDR4, generell Speichertaktraten und Verfügbarkeit
- GPU Taktraten
- Stromverbrauch
- Crossfire / PCIe2.0

Bin mir nicht mehr 100pro sicher, war nicht mal die rede davon, das es eine art neues crossfire geben soll (nur über den bus)? da käme pcie 2.0 gerade recht, bei 3DC stand mal was dazu, das deutlich über 10 % verloren gingen, wenn man dies so handhaben würde mit heutigen boards.

Ja zum zweiten Punkt, nein zu allen anderen oben. Plus eben die "Kleinigkeit" dass ihre Vista Treiber nicht in einem gerade besseren Zustand momentan sind wie bei G80.

Gast
2007-03-13, 15:23:11
Du siehst beim Speicher keinen Zusammenhang?

Also irgendwie passt alles sehr gut zusammen...

Ich fass mal kurz zusammen, jeder bilde sich seine Meinung:
Der 1GB R600 kommt vielleicht später. Die Rede ist immer vom Mai, vielleicht noch mit weiterer Verzögerung...

Doch, was ist das? http://www.heise.de/newsticker/meldung/84659
Intels Mainstream Linie schon Ende Mai?

Dazu die hohe Verlustleistung. 225W sind eigentlich das derzeitige maximum. Mehr soll eigentlich erst mit PCie2.0 erlaubt sein! Denn Netzteile mit dem passenden Anschluss gibts erst wenige und Boards die auf PCIe2.0 setzen eigentlich keine.

Dazu der Kunde... dem es nicht gefällt, das ein Strommonster auf ihn zukommt.
Dazu würde widerum passen, das Ati versucht, High End in 80nm und Low End in 65nm zu bringen... somit hat auch das High End Segment ne kürzere Zeit bis 65nm zu überbrücken. Man stelle sich vor, der Chip wäre Dezember gekommen! Das wäre ne halbe Ewigkeit...

Wenn die da jetzt für ein paar Monate ein Strommonster am Markt haben, dafür aber die Performancekrone holen und es kurz danach besser machen, dann kräht keiner mehr danach. Aber wenn es ein ganzes Jahr so wäre, dann siehts sicherlich ein wenig anders.

Gast
2007-03-13, 16:37:52
Der R600 frißt nur etwas mehr Strom als die von NV,kein Ahnung wer solche Märchen erzählt,und noch schlimmer glaubt.

Gast
2007-03-13, 16:48:46
Der R600 frißt nur etwas mehr Strom als die von NV

Beweise?

Gast
2007-03-13, 16:49:24
Wenn die da jetzt für ein paar Monate ein Strommonster am Markt haben, dafür aber die Performancekrone holen und es kurz danach besser machen, dann kräht keiner mehr danach. Aber wenn es ein ganzes Jahr so wäre, dann siehts sicherlich ein wenig anders.
An die Performancekrone glaube ich beim R600 nicht mehr. Ich rechne eher mit dem Schlimmsten und hoffe auf das Beste. Im Extremfall wird kein R600 gelaunched, jedenfalls nicht der Form. Das ist aber auch nicht so tragisch. Schlimmer wäre es, wenn ATi/AMD den Launch ihrer Mid- und Lowendrange Modelle auch versauen, indem sie später als die Konkurrenz liefern oder ihre Produkte technisch wesentlich unterlegen sind. Das wäre imo wirklich ein Gau.

Gast
2007-03-13, 16:57:38
Im Extremfall wird kein R600 gelaunched, jedenfalls nicht der Form. Das ist aber auch nicht so tragisch. Gau.

Das habe ich auch im Hinterkopf... wenn es noch ne Verschiebung geben sollte, dann glaube ich langsam, das die auf PCIe 2.0 oder 65nm warten um den Stromhunger zu stillen. Bei den kleinen Modellen ist das weniger ein Problem, aber man muss sich jetzt und heute zumindest an 225 W halten.

Dazu würde u.a. die Verschiebung des 1GB Modells passen... man speckt die Karte so lange ab um im Rahmen des erlaubten zu bleiben. :)

PCGH_Carsten
2007-03-13, 17:02:59
Der RV630 in seiner schnellsten Version soll die X1900GT schlagen, ein würdiger Nachfolger der X1950Pro kommt erst im Spätsommer. Oder so.
Oder so?
Wie groß ist deiner Meinung nach der Unterschied zwischen der GPU-Leistung eines auf 3 PPs gedrosselten R580 und eines mit 3 PPs ausgestatteten RV570, die beide mit 575 MHz laufen?

deekey777
2007-03-13, 17:12:46
Oder so?
Wie groß ist deiner Meinung nach der Unterschied zwischen der GPU-Leistung eines auf 3 PPs gedrosselten R580 und eines mit 3 PPs ausgestatteten RV570, die beide mit 575 MHz laufen?
Ich habe nur geschrieben, dass der würdige Nachfolger der X1950Pro erst im Spätsommer kommen soll, sprich ein Grafikchip "RV670", der den Platz einnimmt, den heute die X1950Pro hat: schneller als die Konkurrent wie 7600GT/7900GS und zT 7900GT.
Der RV630 soll "nur" die X1900GT schlagen (als diese Aussage kam, war die X1900GT "Rev. 2" mit 512/660 MHz aktuell (http://www.vr-zone.com/?i=4695) und nicht die schnellere Version mit 575 MHz).

reunion
2007-03-13, 17:41:23
Aber die FireGL mit 1GB hat ja auch 8 Chips pro Seite(8x32Bit).
Kann man die Kanäle denn zu unterschiedlichen Seiten ausführen, der R600 soll ja 16 davon haben?

Und weiter? Was spricht dagegen, die Kanäle durch das PCB zu verbinden?

Wenn der Ringbus sich beim R600 nicht groß verändert hat->32Bit pro Stop(AFAIK wurde das ja auch mal bei B3D geschrieben), so müssen es eben bei 512Bit 16 Speicherchips sein.
Und bisher habe ich noch keine Karte gesehen, die weniger Module auf einer PCB-Seite hatte, als sie aktive Speicherkanäle hat.

Da es bis jetzt max. acht Speicherkanäle gab, ist es auch irgendwo logisch, dass du noch keine solche Karte gesehen hast. Eins steht jedenfalls IMO fest: Auf eine Platine mit ziemlich genau der Länge einer X1900 bringst du nie und nimmer 16 Speicherbausteine auf eine Seite.

Viel neues gibt die Tabelle ja auch nicht unbedingt an. Das einzig interessante sind die angegebenen 121W des groessten RV630. Fuer eine midrange GPU auf 65nm klingt das auch nicht gerade wenig.

Das sind doch wieder mal nur völlig übertriebene TDP-Angaben. Das kleinste RV630-Modell kommt sogar ohne ext. Stromanschluss aus.

Auch nicht wenn der direkte Konkurrent doppelt so viel ROPs/TMUs haben koennte?

Das wird im High-End-Bereich nicht anders sein. Zählen tut, was hinten rauskommt.

Dailytech hat alle Infos zu RV610 und RV630 zusammengefasst und mit paar eigenen Infos ergänzt:
AMD "RV610" and "RV630" Details Unveiled
http://img155.imageshack.us/img155/4575/4128largeamdrv610rv630mc5.png
http://www.dailytech.com/article.aspx?newsid=6451

"Integrated HDMI with support for HDCP joins the next-generation AVIVO video processing for protected high-definition video playback. Unlike current HDMI implementations on PCIe graphics cards, RV610 and RV630 integrate audio functionality into the GPU. Instead of passing a PCM or Dolby Digital signal from onboard audio or a sound card, RV610 and RV630-based graphics cards can directly output audio – removing the need of a separate sound card."

Wie kann man sich das vorstellen, ist da faktisch ein Soundchip eingebaut?

Gast
2007-03-13, 18:22:18
Wie kann man sich das vorstellen, ist da faktisch ein Soundchip eingebaut?

nur digital =wenig aufwand =ja

Gast
2007-03-13, 18:22:53
kann aber auch sein das dort nur streams von hd dvd ankommen und pc sound nicht? ka

Ailuros
2007-03-13, 20:13:16
Der R600 frißt nur etwas mehr Strom als die von NV,kein Ahnung wer solche Märchen erzählt,und noch schlimmer glaubt.

Nur ca. 20% mehr.

Ailuros
2007-03-13, 20:17:11
Das wird im High-End-Bereich nicht anders sein. Zählen tut, was hinten rauskommt.

Nur war leider RV530 nicht so konkurrenzfaehig wie R580. An was haperte es denn Deiner Meinung nach beim ersten genau?

Hvoralek
2007-03-13, 20:39:33
Das sind doch wieder mal nur völlig übertriebene TDP-Angaben. Das kleinste RV630-Modell kommt sogar ohne ext. Stromanschluss aus.Bei einem Stromverbrauch "< 75 watts" ist das auch irgendwie logisch.

reunion
2007-03-13, 20:40:22
Nur war leider RV530 nicht so konkurrenzfaehig wie R580. An was haperte es denn Deiner Meinung nach beim ersten genau?

RV530 ist eben nur 1/4 R580, da beide mit 90nm gefertigt werden mussten, und sonst die Margen zu niedrig geworden wären. Durch 65nm sollte man bei RV630 aber nicht dasselbe Problem haben.

reunion
2007-03-13, 20:43:29
Bei einem Stromverbrauch "< 75 watts" ist das auch irgendwie logisch.

Und was willst du mir jetzt damit sagen? Der tatsächliche Stromverbrauch wird deutlich unter diesen 75W liegen, da man wie immer eine relativ große Knautschzone lassen wird müssen. Auch bei der 8600-Serie kommt AFAIK nur das kleine Modell ohne ext. Stromanschluss aus.

w0mbat
2007-03-13, 21:39:43
*Exclusive GECUBE Product with the ATI World’s most powerful Chipset
GECUBE will be unveiling at CeBIT its secret weapon (NDA) for the second quarter of 2007. Using the latest ATI core with support for the new generation DX10 technology, don’t miss this chance to witness its jaw-dropping performance for yourself at CeBIT!


Soso, also bis übermorgen :)

Gmax
2007-03-13, 21:59:00
Das liest sich ja wie eine offizielle Vorstellung.
Und ich dachte, diese findet eben nicht zur CeBit statt:confused:

Raff
2007-03-13, 22:00:24
Nach HIS nun der zweite Proll-Hersteller. Wetten, dass die das schon am Freitag nicht mehr vorführen werden? ;)

MfG,
Raff

mapel110
2007-03-13, 22:02:41
Nach HIS nun der zweite Proll-Hersteller. Wetten, dass die das schon am Freitag nicht mehr vorführen werden? ;)

MfG,
Raff
:confused:
Wie meinst du das? Dass sie ohne Genehmigung von ATI was zeigen und ATI sie dann zurückpfeift?!

deekey777
2007-03-13, 23:01:14
Vielleicht ist GeCube extrem angepisst und versucht's mit dem Brecheisen.
Ich bin mir nicht ganz sicher, aber es gab Meldungen, dass einige Hersteller die neue Generation hinter verschlossenen Türen zeigen werden. Der Öffentlichkeit werden nur aktuelle Produkte gezeigt, die wiederum irgendwie verbessert wurden.

Knacki99
2007-03-13, 23:14:40
FYI, die Quelle: http://www.gecube.com/press-release-detail.php?id=65433

dargo
2007-03-13, 23:18:18
Das einzig interessante sind die angegebenen 121W des groessten RV630. Fuer eine midrange GPU auf 65nm klingt das auch nicht gerade wenig.
Wie kommst du eigendlich auf 65nm für den RV630? Ich denke mal, an den 121W TDP sieht man deutlich, dass es sich um 80nm handelt.

deekey777
2007-03-13, 23:24:34
Wie kommst du eigentlich auf 65nm für den RV630? Ich denke mal, an den 121W TDP sieht man deutlich, dass es sich um 80nm handelt.
Wer sagt, dass diese Angabe von 121 W stimmt? Der Chip kommt in 65 nm gefertigt, da muss sich doch jeder fragen, wie es sein kann, dass der RV610 so wenig und der RV630 so viel verbraucht?

dargo
2007-03-13, 23:27:53
Wer sagt, dass diese Angabe von 121 W stimmt? Der Chip kommt in 65 nm gefertigt, da muss sich doch jeder fragen, wie es sein kann, dass der RV610 so wenig und der RV630 so viel verbraucht?
Eben darum geht es. Sollten diese Angaben stimmen kommen der RV610 in 65nm, der RV630 und R600 in 80nm. Ansonsten stimmen die TDP Angaben vom RV630 nie im Leben.

horn 12
2007-03-13, 23:31:02
Oder aber die ganze Welt wird von A/A aufs Glatteis geführt und die launchen doch Anfang April die ganze Palette der R600 Grafikkarten.
Somit wäre man erstaunt und NV müsste gewaltig nachlegen, wenn der R600 eine Bombe werden sollte. Die werden es durch die Verschiebung Ati´s etwas ruhiger angegangen sein..... und falls !! der R600 gar voll gut werden sollte, braucht NV eine längere Zeit um was dagegenzustellen als spekuliert.
Glaube zwar nicht daran, aber eine Sensation wäre es.
Ähnlich NV eins auszuwischen da auch NV nichts von UN Shader gasagt haben.

dargo
2007-03-13, 23:41:07
Wenn ich mir die Tabelle so angucke und die TDP Angaben wirklich stimmen sollten kann der RV630 nur in 80nm kommen. Und wenn man weiter denkt und die ~120W TDP auf den R600 überträgt könnte man meinen der RV630 wird ein halber R600 (240W TDP für den R600) mit einem Viertel SI.

Gast
2007-03-13, 23:54:04
Wenn ich mir die Tabelle so angucke und die TDP Angaben wirklich stimmen sollten kann der RV630 nur in 80nm kommen. Und wenn man weiter denkt und die ~120W TDP auf den R600 überträgt könnte man meinen der RV630 wird ein halber R600 (240W TDP für den R600) mit einem Viertel SI.

Genau, vergleichbar mit G86 als Beispiel, dessen Spec kann man ja vom RV630 ebenfalls erwarten. Frage ist nur wann kommen die Chips in die "Aldi" PCs dieser Welt.

Gast
2007-03-13, 23:58:39
FYI, die Quelle: http://www.gecube.com/press-release-detail.php?id=65433

Also kalter Kaffee... to its VIP business partners in its confidential (NDA) room

War doch schon vorher bekannt das einige Hersteller hinter verschlossenen Türen die Karten zeigen werden, und das interessiert kein Mensch wenn die nicht in einem PC stecken, erst wenn der Lüfter sich dreht und ein Bildschirm dran ist wirds interessant.

Gast
2007-03-14, 00:10:39
Also kalter Kaffee... to its VIP business partners in its confidential (NDA) room

War doch schon vorher bekannt das einige Hersteller hinter verschlossenen Türen die Karten zeigen werden, und das interessiert kein Mensch wenn die nicht in einem PC stecken, erst wenn der Lüfter sich dreht und ein Bildschirm dran ist wirds interessant.
Findet die Vorführung in schalldichten Räumen statt? ;D
Ich nehme an, dass da der R600 mit dem Monsterlüfter vorgeführt wird. Da man kann natürlich kein feinhöriges öffentliches Publikum gebrauchen. Angeblich soll die Karte mit dem Riesenkühler nur für OEM Zwecke bestimmt sein und die Retailkarte um einiges zierlicher sein. Wie sie mit einem kleineren Kühler die Verlustleistung von ca. 240W gebändigt kriegen wollen, ist mir allerdings ein Rätsel. Selbst wenn es niedriger getaktete Versionen wie XL und Konsorten gibt, wird die Verlustleistung trotzdem um die 200W liegen. Da wird es höchste Zeit für eine Tripleslotlösung, ansonsten seh ich da schwarz.

Ailuros
2007-03-14, 00:15:52
RV530 ist eben nur 1/4 R580, da beide mit 90nm gefertigt werden mussten, und sonst die Margen zu niedrig geworden wären. Durch 65nm sollte man bei RV630 aber nicht dasselbe Problem haben.

Welche Margen ueberhaupt? :confused:

Was genau soll der kleinere Herstellungsprozess genau daran aendern? Lass mich mal sehen R600 ist auf 80nm, verbratet mehr Strom als der direkte Konkurrent fuer nicht allzu ueberheblich mehr Leistung. Kein Wunder dass man dann selbstverstaendlich 65nm auch unbedingt braucht.

Von dem abgesehen ist G84 und in etwa gleich gross und von dem was ich schaetze werden sie in etwa den gleichen Strom verbrauchen.

Ailuros
2007-03-14, 00:20:48
Wie kommst du eigendlich auf 65nm für den RV630? Ich denke mal, an den 121W TDP sieht man deutlich, dass es sich um 80nm handelt.

RV630 ist auf 65nm und einen Schuss Sarkasmus sollte man schon erkennen koennen.

http://forum.beyond3d.com/showpost.php?p=946271&postcount=54

Ferengie
2007-03-14, 00:22:41
DMS-59 mit einer neunschwänzigen (Kabel-)Peitsche oder wie?

kruemelmonster
2007-03-14, 00:49:03
Findet die Vorführung in schalldichten Räumen statt? ;D
Ich nehme an, dass da der R600 mit dem Monsterlüfter vorgeführt wird. Da man kann natürlich kein feinhöriges öffentliches Publikum gebrauchen. Angeblich soll die Karte mit dem Riesenkühler nur für OEM Zwecke bestimmt sein und die Retailkarte um einiges zierlicher sein. Wie sie mit einem kleineren Kühler die Verlustleistung von ca. 240W gebändigt kriegen wollen, ist mir allerdings ein Rätsel. Selbst wenn es niedriger getaktete Versionen wie XL und Konsorten gibt, wird die Verlustleistung trotzdem um die 200W liegen. Da wird es höchste Zeit für eine Tripleslotlösung, ansonsten seh ich da schwarz.

Diese Zahlenwerte sind TDP Angaben und haben nicht wirklich viel mit der realen Stromaufnahme zu tun. Kleine Analogie: der Athlon FX 60 hat ne TDP von 110w und real 80w stromaufnahme, der 3800+ SC 85w TDp 37w real. Quelle @ HardTecs4u.com (http://www.hardtecs4u.com/reviews/2006/intel_conroe_leistungsaufnahme/index5.php)

seahawk
2007-03-14, 07:10:41
Oder aber die ganze Welt wird von A/A aufs Glatteis geführt und die launchen doch Anfang April die ganze Palette der R600 Grafikkarten.
Somit wäre man erstaunt und NV müsste gewaltig nachlegen, wenn der R600 eine Bombe werden sollte. Die werden es durch die Verschiebung Ati´s etwas ruhiger angegangen sein..... und falls !! der R600 gar voll gut werden sollte, braucht NV eine längere Zeit um was dagegenzustellen als spekuliert.
Glaube zwar nicht daran, aber eine Sensation wäre es.
Ähnlich NV eins auszuwischen da auch NV nichts von UN Shader gasagt haben.

NV wird seine Entwicklungsgeschwindigkeit nicht an ATI ausrichten.

Sphinx
2007-03-14, 08:19:38
Oder aber die ganze Welt wird von A/A aufs Glatteis geführt und ...

Genau deswegen sind wir ja in einem Spekulationsthread um jeden vom lichten Pfad abzubringen.
Schon lustig was einige hier für interpretationen haben bis hin zum Konkurs...

Der Markt wird nicht alleine von Nvidia oder Ati bedient jeder von ihnen leistet seinen teil einen Marksegment/~bedarf abzudecken.

James Ryan
2007-03-14, 08:35:40
Ähnlich NV eins auszuwischen da auch NV nichts von UN Shader gasagt haben.

Das ist so nicht ganz korrekt: NVIDIA hat gesagt, US kommt wenn NVIDIA es für nötig hält. Was ein paar "Experten" daraus gebastelt haben, war eben falsch. NVIDIA hat niemals gesagt "G80 ist kein US-Design!".

MfG :cool:

dargo
2007-03-14, 09:09:37
RV630 ist auf 65nm und einen Schuss Sarkasmus sollte man schon erkennen koennen.

Wenn dem wirklich so ist dann sind diese ~120W TDP für den RV630 in 65nm imho totaler Blödsinn. Oder die 25-35W des RV610 in 65nm passen nicht. :ugly:

seahawk
2007-03-14, 09:58:24
Kennst Du die Daten von RV610 ? Ein reiner 64Bit-Chip, ohne Ringbus und 1/5 der Rechenpower von R600, niedriger getaktet in 65nm.

RV630 wäre 1/3 R600, 128Bit, Ringbus, hoch getaktet.

AnarchX
2007-03-14, 10:57:08
Wenn dem wirklich so ist dann sind diese ~120W TDP für den RV630 in 65nm imho totaler Blödsinn.

Wenn man in den Taktregionen des R600 oder darüber ist und dafür entsprechenden Spannung benötigt, könnte vielleicht durchaus etwas dran sein.
RV530(X1600) verbrauchte auch schon mehr (http://www.xbitlabs.com/images/video/radeon-x1650xt/1650xt_power.gif) bei fast gleichem Takt als G73(7600), obwohl ersterer weniger Transistoren hat.

btw.
Die 8600GTS soll einen durchschnittlichen Verbrauch von 71W haben. ;)

Gast
2007-03-14, 11:17:50
blöde Frage, aber was spricht eigentlich gegen einen Fertigungsprozeß von 65nm beim R600? Würde doch imo den Verschub des Release noch am besten erklären. Um vielleicht noch etwas weiter zu gehen: Vielleicht ist ja der OEM-R600 in 80nm gefertigt und der Retail-R600 dann eben in 65nm. Kann ja sein, daß die Frage völlig abwegig ist, aber so würde A/A nicht die komplette Marche an R600@80nm verlieren und gleichzeitig doch noch etwas Druck auf NV aufbauen können. Der Vorteil seitens eines Fertigungsprozeß von 65nm wären imo höhere Taktraten, billigerer Fertigsprozeß, weniger Abwärme, da vermutlich geringere Leistungsaufnahme.

seahawk
2007-03-14, 11:20:10
In 4-6 Wochen überträgt niemand einen so komplizierten Chip von 80nm nach 65nm. Man muss bedenken, dass R600 nun bald min. 4 Monate überfällig ist, zu dem geplanten Zeitraum war 65nm sicher noch nicht reif für einen High-End-Chip.

Gast
2007-03-14, 11:27:05
Der Refresh des R600 stand imo doch als Konter zum G81 schon in den Startlöchern. Vielleicht ist der Retail-R600 bereits der Refresh des eigentlich angeprangerten R600. Daher vielleicht auch die Namesgebung X2900?!

James Ryan
2007-03-14, 11:28:03
Wird wohl so sein, was anderes würde auch kaum Sinn ergeben!

MfG :cool:

AnarchX
2007-03-14, 11:31:28
Der Refresh des R600 stand imo doch als Konter zum G81 schon in den Startlöchern. Vielleicht ist der Retail-R600 bereits der Refresh des eigentlich angeprangerten R600. Daher vielleicht auch die Namesgebung X2900?!

700M Transistoren in 65nm werden wir im H1 noch nicht sehen.;)
Aber man kann davon ausgehen, dass der R600 den wir im Mai präsentiert bekommen durchaus stärker(höherer Takt) als jener ist der für Anfang 2007 bzw. Ende 2006 geplant war, das ist auch ein Grund warum ihn wohl X2900 nennt, wozu noch kommt das man hier mit andeuten will, dass man nicht zu spät ist.

dargo
2007-03-14, 11:35:48
btw.
Die 8600GTS soll einen durchschnittlichen Verbrauch von 71W haben. ;)
Die G8600GTS kommt aber in 80nm. ;)

AnarchX
2007-03-14, 11:40:32
Die G8600GTS kommt aber in 80nm. ;)

Umso schlimmer, wenn die Angaben für RV630XT stimmen sollten. ;)

dargo
2007-03-14, 11:43:21
Kennst Du die Daten von RV610 ? Ein reiner 64Bit-Chip, ohne Ringbus und 1/5 der Rechenpower von R600, niedriger getaktet in 65nm.

RV630 wäre 1/3 R600, 128Bit, Ringbus, hoch getaktet.
1. Es soll auch afaik einen RV610 mit 128Bit SI geben, und auf diesen beziehen sich wohl die genannten ~35W TDP.

2. Wenn der RV610 1/5 an Performance des R600 haben soll dann kommt das ungefähr hin. 5x35W ergeben 175W. Der RV610 hat aber den Fertigungsprozess mit 65nm als Vorteil. Würde der RV610 in 80nm kommen würde die TDP auch irgendwo bei 45W liegen, also einem 1/5 des R600.

3. Wenn der RV630 1/3 des R600 leisten soll dann erwarte ich auch ca. 1/3 der Verlustleistung. Das wären dann ~80W TDP, bei 80nm wohlgemerkt. Da der RV630 aber in 65nm kommen soll müsste die TDP bei max. 65-70W liegen. Ich frage mich nur wie man da an 121-128W TDP kommt?

Umso schlimmer, wenn die Angaben für RV630XT stimmen sollten. ;)
Warum schlimmer? Oder weißt du schon was die X2600XT(?) leisten wird?
Aber ich glaube immer noch nicht an diese TDP Angaben wenn der RV630 wirklich in 65nm kommen soll.

Gast
2007-03-14, 12:16:19
Warum schlimmer? Oder weißt du schon was die X2600XT(?) leisten wird?


Etwa X1950Pro Niveau, wenn man VR-Zone glaubt.
Was durchaus zu 4ROPs/8TMUs/32ALUs@900MHz+ passen könnte.

dargo
2007-03-14, 12:21:49
Etwa X1950Pro Niveau, wenn man VR-Zone glaubt.
Was durchaus zu 4ROPs/8TMUs/32ALUs@900MHz+ passen könnte.
Etwa X1950Pro Niveau und dann eine TDP von 121-128W? Dann konnte sich ATI gleich den 65nm Fertigungsprozess sparen. Zumindest was die Verlustleistung angeht, dass man mit der kleineren Fertigung mehr Chips verkaufen kann sollte klar sein.

deekey777
2007-03-14, 12:56:53
Ich habe so ein Gefühl, dass weder Anandtech noch vr-zone zwischen TDP und dem realen Verbrauch unterscheiden.
http://www.hkepc.com/bbs/news.php?tid=748386 (ist vom 26. Februar)

Gast
2007-03-14, 16:38:50
3. Wenn der RV630 1/3 des R600 leisten soll dann erwarte ich auch ca. 1/3 der Verlustleistung. Das wären dann ~80W TDP, bei 80nm wohlgemerkt. Da der RV630 aber in 65nm kommen soll müsste die TDP bei max. 65-70W liegen. Ich frage mich nur wie man da an 121-128W TDP kommt?Ein kleinerer Prozess muss nicht unbedingt weniger Abwärme bedeuten. Auch lässt sich die Verlustleistung nicht so berechen, wie du es tust. ;)

Gast
2007-03-14, 17:08:51
Ein kleinerer Prozess muss nicht unbedingt weniger Abwärme bedeuten.


Bei gleichem Chip-Layout schon, weil man die Spannung senken muss für die kleineren Strukturen.

Gast
2007-03-14, 17:40:14
Bei gleichem Chip-Layout schon, weil man die Spannung senken muss für die kleineren Strukturen.

Nein, der Gast hat recht.

Der Verbrauch ist unmöglich zu berechnen. Selbst wenn fast alles beinahe unverändert bleibt und nur von 90 auf 65nm geshrinkt wird, so ist nicht absehbar, wie sich beispielweise Leckströme entwickeln.

Die 80nm X1950 Pro konnte sich auch nicht im geringsten von anderen Karten dieser Art absetzen.
Mir scheint, da liegt noch der Wurm drin, bei allem was sich 80 und 65nm schimpft... denn besser takten ging auch noch nicht. :)

Anarchy-HWLUXX
2007-03-14, 17:43:58
Bei gleichem Chip-Layout schon, weil man die Spannung senken muss für die kleineren Strukturen.

Unfug.

Die AMD 65nm CPUs bekommen nicht nennenswert weniger Spannung als die 90nm Modelle ... ansonsten braucht man sich nur an das Prescott Fiasko erinnern - kleinerer Prozess und Verbrauch/Wärmeabgabe explodieren geradezu ...

BlackBirdSR
2007-03-14, 18:40:00
Unfug.
ansonsten braucht man sich nur an das Prescott Fiasko erinnern - kleinerer Prozess und Verbrauch/Wärmeabgabe explodieren geradezu ...

kleinerer Prozess + Leckströme, und eine bedeutend größere Anzahl an Logiktransistoren machen den Vergleich mit Northwood fast unmöglich.

Vielleicht lässt es sich aber mit dem R600 vergleichen.
Hoher Takt und ein sehr komplexes Design.

reunion
2007-03-14, 18:47:36
Welche Margen ueberhaupt? :confused:

Was genau soll der kleinere Herstellungsprozess genau daran aendern?


Du hast doch gefragt, warum RV530 nicht so gut wie R580 war. Und ich habe geantwortet, dass RV530 eben nur 1/4 R580 ist, da das Die sonst zu groß geworden wäre, da beide in 90nm gefertigt werden mussten. Dieses Problem hat man aber mit RV630 nicht mehr, da hier ein kleinerer Herstellungsprozess wie bei R600 zum Einsatz kommt, und man den Midragechip deshalb wohl nicht so weit abspecken muss wie RV530.


Lass mich mal sehen R600 ist auf 80nm, verbratet mehr Strom als der direkte Konkurrent fuer nicht allzu ueberheblich mehr Leistung. Kein Wunder dass man dann selbstverstaendlich 65nm auch unbedingt braucht.

Die Taktraten sind auch nicht gerade unerheblich höher. Aber das man auf 65nm nicht verzichtet, wenn es möglich ist, sollte klar sein.


Von dem abgesehen ist G84 und in etwa gleich gross und von dem was ich schaetze werden sie in etwa den gleichen Strom verbrauchen.

Wenn RV630 wirklich genau so groß wie G84 ist, dann bedeutet das, dass diese deutlich mehr Transistoren wie G84 haben wird, also im Vergleich zum Highend-Chip weniger stark abgespeckt wurde.

Gast
2007-03-14, 18:50:17
Wenn RV630 wirklich genau so groß wie G84 ist, dann bedeutet das, dass diese deutlich mehr Transistoren wie G84 haben wird, also im Vergleich zum Highend-Chip weniger stark abgespeckt wurde.War es nicht so, dass Nvidia zumindest bei der GF7 die Transistoren auch dichter packen konnte als ATI bei R5x0?
--------------------------------------
Da geht's weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=353547