PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 2


Seiten : 1 [2] 3 4 5

seahawk
2006-12-15, 13:11:57
Die Frage ist nun wofür braucht man soviel Bandbreite, wenn es kein MSAA ist.

Gast
2006-12-15, 13:12:46
Nur die Randbedingungen ändern sich. Aber ansonsten ist das für eine Simulation kein Problem.

ShadowXX
2006-12-15, 13:14:05
Da ich aber persoenlich stets zumindest auf wenigstens eine Anzeige warte bevor ich langsam meine eigenen Karten aufmache, sag ich Dir jetzt dass es gesichert ist. Und als kleiner Bonus das MSAA ist nichts besonderes. :P
Aber mehr als 6xMSAA ist es doch schon geworden, oder?

Nur frage ich mich dann auch wofür ATI diese unglaubliche Speicherbandbreite benötigt, ausser um Sie auf die Verpackung drucken zu können?

Ailuros
2006-12-15, 13:16:10
Die Frage ist nun wofür braucht man soviel Bandbreite, wenn es kein MSAA ist.

D3D10 in der Zukunft. Es mag zwar merkwuerdig klingen aber ATI plante anscheinend etwas aggressiver voraus.

Gast
2006-12-15, 13:19:31
Die Frage ist nun wofür braucht man soviel Bandbreite, wenn es kein MSAA ist.

Komplett spinnerte Theorie: Hohe Bandbreite und feine Unterteilung um das Registerfile nicht in der GPU lagern zu müssen.


Q

P.S.: Ich habe nur wenig geschlafen - bitte nicht allzu ernst nehmen ;) ;) ;)

Gast
2006-12-15, 13:20:25
D3D10 in der Zukunft. Es mag zwar merkwuerdig klingen aber ATI plante anscheinend etwas aggressiver voraus.FP64? Daher dann wohl auch die Gerüchte, der R600 wäre "DX10.1" - welches ja, schwammig, >FP32 fordern soll.


Q

Coda
2006-12-15, 13:21:24
Es stellt isch auch die Frage, ob nach dem Zusammenschluss AMD/ATI sich nicht für ATI neue Möglichkeiten der Optimierung eines Layouts ergeben haben. AMD sollte die deutlich besseren Tools haben, genauso wie Intel. Dadurch könnte der Takt wesentlich höher geworden sein, als es ATI alleine jemals hinbekommen hätte. Damit könnte auch die Speicherbandbreite viel besser ausgenutzt werden.

Der Chip ist viel zu alt, dass AMD da noch wesentlichen Einfluss darauf gehabt haben könnte.

seahawk
2006-12-15, 13:22:09
Plötzlich fängt es dann an Sinn zu machen. ATI dürfte, ähnlich wie deim guten alten R300 eine Speicheranbingung für dein DX-Generation vorgesehen haben.

NV dürfte sich aus Gründen der Komplxität und der Kosten für einen Zwischenschritte entschieden haben, was ihnen preislich sicher mehr Spielraum läst.

Und da der Memorycontroller bei NV imho weniger bedeutend ist könnten sie ihn wahrscheinlich bei Bedarf recht einfach erweitern, wenn sie die Zeit für gekommen halten.

Ailuros
2006-12-15, 13:27:09
Aber mehr als 6xMSAA ist es doch schon geworden, oder?


Es gab vor Monaten eine D3D10 slide wo man von 4x,8x usw. AA plauderte und da stand drin "einige chips sogar mit 16xAA". 16x ist zwar nicht Multisampling auf G80, aber 16xAA ist es schon ;)

Ailuros
2006-12-15, 13:27:44
Plötzlich fängt es dann an Sinn zu machen. ATI dürfte, ähnlich wie deim guten alten R300 eine Speicheranbingung für dein DX-Generation vorgesehen haben.

NV dürfte sich aus Gründen der Komplxität und der Kosten für einen Zwischenschritte entschieden haben, was ihnen preislich sicher mehr Spielraum läst.

Und da der Memorycontroller bei NV imho weniger bedeutend ist könnten sie ihn wahrscheinlich bei Bedarf recht einfach erweitern, wenn sie die Zeit für gekommen halten.

:biggrin: ;)

seahawk
2006-12-15, 13:34:54
Das leuchtet furchtbar ein. NV konnte mt dem alten prozess, dem einfacheren PCB und GDDR3 mit hoher Sicherheit eher am MArkt seiin und kann auf den R600 mit einer Preissenkung reagieren. Danach könnte man einen G80 Shrink in 80nm bringen und diesen mit GDD4 kombinieren um diesen dann mit einem 65nm Chip zu beerben der 512bit nutzt.

Ailuros
2006-12-15, 13:41:03
Das leuchtet furchtbar ein. NV konnte mt dem alten prozess, dem einfacheren PCB und GDDR3 mit hoher Sicherheit eher am MArkt seiin und kann auf den R600 mit einer Preissenkung reagieren. Danach könnte man einen G80 Shrink in 80nm bringen und diesen mit GDD4 kombinieren um diesen dann mit einem 65nm Chip zu beerben der 512bit nutzt.

Manchmal leuchten merkwuerdige Fragezeichen erst Jahre spaeter ein. Vor dem G71 launch gab es mehr als nur ein paar Indizien dass sie an einem 8-quad Teil experimentieren. Es hiess damals dass das Resultat auf dem Simulator bei 550MHz schon so ueberheiss wuerde dass es nicht mehr schoen war.

Jetzt nach dem G80 launch plaudern sie froehlich in aller Oeffentlichkeit herum dass sie G80 frueher vorstellen wollten (schon vor einem Jahr) aber die Chipkomplexitaet es einfach nicht erlauben wollte. Rein zufaelligerweise alles auf 90nm und mit Frequenzen die sich zu stark aehneln (550 vs. 575MHz).

Ich bin mir zwar noch nicht sicher, aber ich hab das Gefuehl dass der G8x Nachfolger (stets high end) nicht auf 80nm sein wird ;)

robbitop
2006-12-15, 13:41:12
B3D hat es kein bisschen noetig etwas dazuzudichten und schon gar nicht auf Tabloid-Niveau zu spielen.


Dazugedichtet heißt ja nicht, dass es nicht stimmen würde. Jedoch haben sie keine Quelle für eine eindeutige offizielle Bestätigung des 512 Bit SI genannt. Sie haben es geschlussfolgert. (und da sie vermutlich so gute Quellen haben wie du, stimmt diese Schlussfolgerung offenbar)


zumindest auf wenigstens
Doppelt gemoppelt. X-D


Ich bin mir zwar noch nicht sicher, aber ich hab das Gefuehl dass der G8x Nachfolger (stets high end) nicht auf 80nm sein wird
Darauf tippe ich auch schon lange. 80nm wäre kein wirklich großer Sprung. Ich vermute, dass man erstmal mit einer höher getakteten GDDR4 Version auf R600 reagieren wird (und den Preis) und im Sommer dann einen G81/85 bringen wird mit 65 nm, evtl breiterem SI und doppelter MAD Leistung.

NV scheint seit NV40 mehr auf Marge als auf reine Leistung zu pochen. Das geht bisher auch klasse auf.

Ailuros
2006-12-15, 13:54:13
Das gute an der D3D10 Generation ist, dass wir innerhalb des naechsten Jahres schon bei Vorstellung mainstream GPUs@250$ mit 40-50GB Bandbreite sehen werden.

Armaq
2006-12-15, 13:55:30
Dazugedichtet heißt ja nicht, dass es nicht stimmen würde. Jedoch haben sie keine Quelle für eine eindeutige offizielle Bestätigung des 512 Bit SI genannt. Sie haben es geschlussfolgert. (und da sie vermutlich so gute Quellen haben wie du, stimmt diese Schlussfolgerung offenbar)


Doppelt gemoppelt. X-D


Darauf tippe ich auch schon lange. 80nm wäre kein wirklich großer Sprung. Ich vermute, dass man erstmal mit einer höher getakteten GDDR4 Version auf R600 reagieren wird (und den Preis) und im Sommer dann einen G81/85 bringen wird mit 65 nm, evtl breiterem SI und doppelter MAD Leistung.

NV scheint seit NV40 mehr auf Marge als auf reine Leistung zu pochen. Das geht bisher auch klasse auf.

Ich behaupte einfach mal dreist, dass bei NV jemand sehr weit oben sitzt der von Zahlen mehr Ahnung hat als von Transistoren und diese Strategie auch daher kommt.
NV Berichte sehen ja auch dementsprechend aus. HighEnd ist halt nicht alles.

Ailuros
2006-12-15, 14:06:00
Ich behaupte einfach mal dreist, dass bei NV jemand sehr weit oben sitzt der von Zahlen mehr Ahnung hat als von Transistoren und diese Strategie auch daher kommt.
NV Berichte sehen ja auch dementsprechend aus. HighEnd ist halt nicht alles.

Huang ist aber leider genauso ein wahrer Engineer wie Orton. NVIDIA hat von ihren eigenen Fehlern der Vergangenheit gelernt das ist alles.

Gouvernator
2006-12-15, 14:13:36
NV scheint seit NV40 mehr auf Marge als auf reine Leistung zu pochen. Das geht bisher auch klasse auf.
Das ist doch nicht deine Einstellung? Sind wir hier NV/ATi Aktionäre oder was? Was für uns zählt ist nur Leistung unter besten HQ Einstellungen. Aber hey, von mir aus kann Nvidia gerne zum Mainstream Anbieter absteigen... hehe.

seahawk
2006-12-15, 14:19:28
Manchmal leuchten merkwuerdige Fragezeichen erst Jahre spaeter ein. Vor dem G71 launch gab es mehr als nur ein paar Indizien dass sie an einem 8-quad Teil experimentieren. Es hiess damals dass das Resultat auf dem Simulator bei 550MHz schon so ueberheiss wuerde dass es nicht mehr schoen war.

Jetzt nach dem G80 launch plaudern sie froehlich in aller Oeffentlichkeit herum dass sie G80 frueher vorstellen wollten (schon vor einem Jahr) aber die Chipkomplexitaet es einfach nicht erlauben wollte. Rein zufaelligerweise alles auf 90nm und mit Frequenzen die sich zu stark aehneln (550 vs. 575MHz).

Ich bin mir zwar noch nicht sicher, aber ich hab das Gefuehl dass der G8x Nachfolger (stets high end) nicht auf 80nm sein wird ;)

Sicher bin ich mir da auch keineswegs. Ich würde es aber im Hinblick auf NV gegenwärtige Strategie für denkbar halten. Man hatte 1 Jahr "Spielraum", sicher genug Zeit um einen Shrink auf 80nm zu planen. 65nm ist gerade für große Chips noch eine gewisse Unbekannte und NV scheint ja momentan sich zu scheuen der erste zu sein der den Schritt macht.

robbitop
2006-12-15, 14:19:35
Das ist doch nicht deine Einstellung? Sind wir hier NV/ATi Aktionäre oder was? Was für uns zählt ist nur Leistung unter besten HQ Einstellungen. Aber hey, von mir aus kann Nvidia gerne zum Mainstream Anbieter absteigen... hehe.

Habe ich behauptet, dass ich das gut finde? Nein. Aber wirtschaftlich ist's für NV gut, was deren Überleben sichert. Der Trend zeigt das. Als Wirtschaftsingenieur interessieren mich solche Dinge nunmal auch.

seahawk
2006-12-15, 14:20:31
Das ist doch nicht deine Einstellung? Sind wir hier NV/ATi Aktionäre oder was? Was für uns zählt ist nur Leistung unter besten HQ Einstellungen. Aber hey, von mir aus kann Nvidia gerne zum Mainstream Anbieter absteigen... hehe.

Es kommt auch auf den Zeitpunkt der Verfügbarkeit der Leistung an. Und eigentlich ist es für den Kunden nur wichtig, dass es Wettbewerb gibt, wer jetzt 10-15% schneller ist, ist eigentlich unbedeutend.

Gast
2006-12-15, 14:37:34
Eben. Es gibt nichts schlimmeres als ein Monopol. Aber wie richtet man es ein, dass man nicht zuviel Leistung- und Preisunterschiede erzeugt, ohne den anderen so zu schaden, das er vielleicht langfristig aus dem Markt scheidet? Da kann es sein, dass man sich kurzschließen muss, was dann auf einmal die Kartellbehörden auf den Plan ruft. Die sollen ja sowas verhindern. Haben sie das dann erfolgreich verhindert, führt das dann eventuell dazu, dass doch einer vom Markt verschwindet und dann hat man das Monopol, welches die Kartellbehörden verhindern wollten. Dumme Situation, so ein Duopol ;).

LovesuckZ
2006-12-15, 15:17:20
Das ist doch nicht deine Einstellung? Sind wir hier NV/ATi Aktionäre oder was? Was für uns zählt ist nur Leistung unter besten HQ Einstellungen. Aber hey, von mir aus kann Nvidia gerne zum Mainstream Anbieter absteigen... hehe.

Hehe, Höhö, Hähä.
Welche Firma wurde nochmal aufgekauft? :rolleyes:

Black-Scorpion
2006-12-15, 15:30:16
Den Smiley kannst du dir sparen.
Wenn ATI nicht gewollt hätte, hätte es AMD auch nicht geschafft.

Gast
2006-12-15, 15:30:23
Darauf tippe ich auch schon lange. 80nm wäre kein wirklich großer Sprung. Ich vermute, dass man erstmal mit einer höher getakteten GDDR4 Version auf R600 reagieren wird (und den Preis) und im Sommer dann einen G81/85 bringen wird mit 65 nm, evtl breiterem SI und doppelter MAD Leistung.

Ich habe es bereits gesagt, wiederhole mich aber nochmal - auch wenn es nur eine Meinung ist: Das gesamte G80-Design sieht so stark nach absoluter Skalierbarkeit aus, dass ich nicht glaube, dass Nvidia die einzelnen Einheiten nochmal groß ändern wird, sondern einfach nur mehr davon dranklatschen.


Q

Gast
2006-12-15, 15:32:09
Den Smiley kannst du dir sparen.
Wenn ATI nicht gewollt hätte, hätte es AMD auch nicht geschafft.

Hm?

Gast
2006-12-15, 15:35:03
Das ist doch nicht deine Einstellung? Sind wir hier NV/ATi Aktionäre oder was? Was für uns zählt ist nur Leistung unter besten HQ Einstellungen. Aber hey, von mir aus kann Nvidia gerne zum Mainstream Anbieter absteigen... hehe.
Aber momentan bietet NV das beste im High End. Was nützt mir R600 im März. Ich brauche die Power hier und jetzt; im März kann ich vielleicht schon die Radieschen von unten sehen.
Desweiteren hst Nv SLI. ATi müsste dann schon Crossfire stark verbessern, um SLI 8800 GTX Besitzer zum Wechsel zu animieren. Und es sind prozentual viele 8800 GTX Nutzer gleichzeitig SLI Nutzer wie man hier schön im Forum sieht.
Anonsten bleibt für den Chip nur die Klientel der Single GPU User, ATi-Sympathisanten und Leute, die sehr viel Geld und Spaß am Experimentieren haben. Es sei denn, der R600 wird um die 60% Mehrleistung als G80 erreichen.

LovesuckZ
2006-12-15, 15:35:17
Wenn ATI nicht gewollt hätte, hätte es AMD auch nicht geschafft.

Jo, eine Firma verliert natürlich gerne ihre Selbstständigkeit. :rolleyes:

deekey777
2006-12-15, 15:39:53
Wäre es möglich, diesen Thread von der Diskussion "AMD übernimmt ATi" freizuhalten? Danke.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=310606

Armaq
2006-12-15, 16:33:35
Huang ist aber leider genauso ein wahrer Engineer wie Orton. NVIDIA hat von ihren eigenen Fehlern der Vergangenheit gelernt das ist alles.

Der CEO legt alleine keine Langzeitstrategie fest. Ich bin mir sicher, dass NV Paket um einiges skalbierbarer sein wird und den Markt durch diese Fähigkeit noch stärker dominieren wird als bisher.

Zugegeben liegt es auch daran, dass ATI bisher nichts gezeigt hat. So etwas macht mich immer skeptisch.
Marketingregel 1: Tue Gutes und rede darüber. Das weiss ATI. Das weiss Nvidia.

Warum redet ATI also nicht?

seahawk
2006-12-15, 16:42:05
Naja, die praktische Bestätigung des 512bit Buses dürfte man als Reden werten und man hat nicht ohne Hintersinn gerade dieses detail praktisch bestätigt.

robbitop
2006-12-15, 17:34:49
Marketingregel 1: Tue Gutes und rede darüber. Das weiss ATI. Das weiss Nvidia.

Warum redet ATI also nicht?
Das ist eine Marketing Regel aus dem Marketing Mix (IIRC).
Dir ist schon aufgefallen, dass generell kein IHV vor der Veröffentlichung über seine Produkte redet oder?
Und selbst nach der Veröffentlichung ist man mit Details absolut sparsam.

Ich habe es bereits gesagt, wiederhole mich aber nochmal - auch wenn es nur eine Meinung ist: Das gesamte G80-Design sieht so stark nach absoluter Skalierbarkeit aus, dass ich nicht glaube, dass Nvidia die einzelnen Einheiten nochmal groß ändern wird, sondern einfach nur mehr davon dranklatschen.


Q
Die Meinung habe ich erst letztens im B3D Forum gelesen (aber es war keines deiner Postings). Meinst du, NV lässt die Cluster ewig so wie sie sind?
Klar ist man unwillig, etwas daran zu machen, da es ja custom transistors sind. Aber spätestens zum 65nm Shrink muss man das ganze sowieso nochmal von vorne machen. Ein effektiverer Cluster ist möglicherweise günstiger als eine Erhöhung dieser (bzgl der Steuerlogik).
Letztendlich ist weder das eine noch das andere vorausehbar und es heißt wieder: abwarten :(

Armaq
2006-12-15, 17:43:38
Das ist eine Marketing Regel aus dem Marketing Mix (IIRC).
Dir ist schon aufgefallen, dass generell kein IHV vor der Veröffentlichung über seine Produkte redet oder?
Und selbst nach der Veröffentlichung ist man mit Details absolut sparsam.

Ich dachte Marketing Mix war Product, Price, Placement, Promotion. Also vll. unter Promotion. Hast dich also richtig erinnert.

Es ist vor allem in der Tech-Branche einfach die wichtigste Regel(imho).
Warum?
Schau dir Apple an. Die hatten PDAs da wussten selbst Topmanager nicht mal, dass sie die gebrauchen könnten. Jetzt wo Steve Jobs aus jedem Launch ne Megashow macht ist Apple sowas von "gut".

Will sagen, wenn ich technisch innovative Produkte vermarkten will, muss diese Innovation vor dem Augen des Kunde sichtbar werden. Mein Firma hat nichts davon, wenn meine Ings allesamt einen Orgasmus bekommen, wenn sie nur an ihr neuestes Baby denken.

edit: Das du an technische Details denkst ist ja wieder klar. TYPISCH Eng.

Gast
2006-12-15, 17:50:07
Die Meinung habe ich erst letztens im B3D Forum gelesen (aber es war keines deiner Postings). Meinst du, NV lässt die Cluster ewig so wie sie sind?
Nein, nicht ewig, aber IMO bis zum G90, also der nächsten, echten Generation, mit der auch ein erweiterter Funktionsumfang Einzug halten wird.


Q

Gast
2006-12-15, 17:52:23
Naja, die praktische Bestätigung des 512bit Buses dürfte man als Reden werten und man hat nicht ohne Hintersinn gerade dieses detail praktisch bestätigt.
Welche? Hab ich was verpasst?

BTW, auch die X1800 hatte bereits einen 512-Bit-Controller - den internen Teil des Ringbusses angeblich.


Q

Gast
2006-12-15, 17:54:14
Wenn das Leben so einfach wäre, wie man es in den Vorlesungen beigebracht bekommt, dann wären wir alle Millionäre. Es sind nur einfache Werkzeuge und es kommt auf das Geschäftsmodell, Konkurrenz und Kundschaft an, obs anwendbar ist und wie.
Man solls kaum glauben, aber es gibt auch Geschäftsmodelle, die kommen fast ohne Marketing aus, da wird das sogar als Schwäche ausgelegt um Produktmängel zu kaschieren.

robbitop
2006-12-15, 17:54:41
Es ist vor allem in der Tech-Branche einfach die wichtigste Regel(imho).
Warum?
Schau dir Apple an. Die hatten PDAs da wussten selbst Topmanager nicht mal, dass sie die gebrauchen könnten. Jetzt wo Steve Jobs aus jedem Launch ne Megashow macht ist Apple sowas von "gut".

Will sagen, wenn ich technisch innovative Produkte vermarkten will, muss diese Innovation vor dem Augen des Kunde sichtbar werden. Mein Firma hat nichts davon, wenn meine Ings allesamt einen Orgasmus bekommen, wenn sie nur an ihr neuestes Baby denken.


Das tut NV doch. Und zwar m.E. verdammt gut. Zum Launch, zu Messen, generell. Aber nicht vor dem Launch. Und das ist normal ;)


edit: Das du an technische Details denkst ist ja wieder klar. TYPISCH Eng.
Hast du was gegen Ingenieure? ;)


Nein, nicht ewig, aber IMO bis zum G90, also der nächsten, echten Generation, mit der auch ein erweiterter Funktionsumfang Einzug halten wird.
Dann schauen wir mal, was am Ende herauskommt. Vieleicht hast du ja Recht und NV verdoppelt einfach die Cluster im NV55. :)

Gast
2006-12-15, 17:56:11
Ein effektiverer Cluster ist möglicherweise günstiger als eine Erhöhung dieser (bzgl der Steuerlogik).
Noch eines: Ich glaube nicht an das verlorene MUL - daher betrachte ich die 128 SPs als MADD-ALUs - und da wird's dann wieder eine weitere "Unterauslastung" geben, wenn die beiden spekulierten MADDs für die nächste Generation nicht komplett unabhängig ansteuerbar sind - und mehr Arbeit für den Treiberkompiler.

Und wenn sie komplett unabhängig sind, spricht IMO nichts dagegen, auch den Rest direkt mit einzubauen, und so die Skalierung nicht nur der MADD, sondern auch der SF zu erwirken.


Q

Gast
2006-12-15, 17:57:53
Dann schauen wir mal, was am Ende herauskommt. Vieleicht hast du ja Recht und NV verdoppelt einfach die Cluster im NV55. :)
Ja, schaun wir mal. Aber von verdoppeln habe ich nichts gesagt. Es reicht ja, wenn Sie eine oder zwei Einheiten dazubasteln - je nachdem, was der R600 erfordert.


Q

Gast
2006-12-15, 18:03:41
Aber Sinn sehe ich in der großen Bandbreite nicht. Oder ATI hat sehr hohe AA-Modi implementiert?!

Hallo....was seht besser auf der verpackung aus 512 oder 216??

Gast
2006-12-15, 18:11:12
Nur frage ich mich dann auch wofür ATI diese unglaubliche Speicherbandbreite benötigt, ausser um Sie auf die Verpackung drucken zu können?

Vielleicht kann man diese Grafikkarte dann länger als 6 monate zum zocken, in hohen Auflösungen und AA, AF Modi, gebrauchen.

kami
2006-12-15, 18:15:26
Gibt es eigentlich Neuigkeiten bzgl. des Redesigns? Speziell würde mich hier die Länge der Karte interessieren, da die 8800 GTX leider nicht in mein Gehäuse passt. Wäre schon nett wenn die ATI-Karte ein klein wenig kürzer ausfallen würde.
Die letzten Gerüchte sprachen ja davon, dass die Karte vor dem Redesign länger als die GTX war.

robbitop
2006-12-15, 18:23:13
Ja, schaun wir mal. Aber von verdoppeln habe ich nichts gesagt. Es reicht ja, wenn Sie eine oder zwei Einheiten dazubasteln - je nachdem, was der R600 erfordert.


Q

Ich erwarte den echten NV55 deutlich später. (Sommer wenn 65 nm bereit für solche Komplexität ist).

Zu den Clustern: der B3D G80 Report sieht das etwas anders als du. Ist nur die Frage, wie abhängig das MUL generell ist oder ob's eben nur ne Art MiniALU bleibt.

seahawk
2006-12-15, 18:26:29
Welche? Hab ich was verpasst?

BTW, auch die X1800 hatte bereits einen 512-Bit-Controller - den internen Teil des Ringbusses angeblich.

Q

Naja, was wäre wenn der 512bit Bus und die daraus resultierende Menge Bandbreite, die einzige "Zahl" aus der R600 Spezifikation wäre bei der man mehr hat als NV, ohne kreatives Rechnen.

Gibt es eigentlich Neuigkeiten bzgl. des Redesigns? Speziell würde mich hier die Länge der Karte interessieren, da die 8800 GTX leider nicht in mein Gehäuse passt. Wäre schon nett wenn die ATI-Karte ein klein wenig kürzer ausfallen würde.
Die letzten Gerüchte sprachen ja davon, dass die Karte vor dem Redesign länger als die GTX war.

Die reine Karte soll etwas kürzer als die 8800GTX sein.

Gast
2006-12-15, 18:37:20
Welche? Hab ich was verpasst?

BTW, auch die X1800 hatte bereits einen 512-Bit-Controller - den internen Teil des Ringbusses angeblich.


Q

Bezogen auf die News von beyond3d: http://www.beyond3d.com/#news36695

Allerdings wird der R600 die Bandbreite gar nicht brauchen da er wohl Füllratentechnisch auf GTX Niveau sein wird, wenn man noch von ROPs und TMUs sprechen darf.
Ein etwas unausgewogenes Bild irgendwie, vieleicht nutzt man aber die SI Bandbreite in Verbindung mit billigen Chips, ~100GB/s passen zur Architektur.

Hauwech
2006-12-15, 18:37:56
Hallo....was seht besser auf der verpackung aus 512 oder 216??

Naja, die Kundschaft vom HighEnd weiss das entweder sowieso (technisch interessiert) oder kaufen es nur weil es das schnellste ist; wieso, weshalb, warum interessiert nicht.

Gast
2006-12-15, 18:42:43
Die Frage die sich für das Marketing aber eher stellt, was auser der Bandbreite bietet der Chip dem Käufer? Denkt daran das der "Massenmarkt" USA einen schlechteren Leistungsdurchschnitt hat als der Europäische Markt. 17" TFTs und Röhre sind dort weitläufig im Einsatz. Kann man in 1600*1200 4xAA/16AF sich schon von einer GTX absetzen oder sind höhere Auflösungen nötig, was aber wirklich nur noch Leute anspricht die aber gleich mit SLI/Crossfire liebäugeln.
Es gibt kein D3D10 Titel der als Zugpferd eingesetzt werden kann, eigentlich nur Megahohe Auflösungen und die AA-Modi, mit Temporal AA kann man nicht gegen 16xQ ankämpfen.

reunion
2006-12-15, 19:02:00
Hallo....was seht besser auf der verpackung aus 512 oder 216??

Das ist kein Argument. Man hat nichts zu verschenken, schon gar nicht im High-End-Markt.

reunion
2006-12-15, 19:11:07
Bezogen auf die News von beyond3d: http://www.beyond3d.com/#news36695

Allerdings wird der R600 die Bandbreite gar nicht brauchen da er wohl Füllratentechnisch auf GTX Niveau sein wird, wenn man noch von ROPs und TMUs sprechen darf.
Ein etwas unausgewogenes Bild irgendwie, vieleicht nutzt man aber die SI Bandbreite in Verbindung mit billigen Chips, ~100GB/s passen zur Architektur.

Schon interessant, was hier schon alles gesichert zu sein scheint. Falls R600 tatsächlich einen externen 512-bit Memorycontroller haben sollte, wird sich ATi mit Sicherheit was dabei gedacht haben. Und da B3D normalerweise keine Seite ist, die irgendetwas als Fakt hinstellt, was nicht auch wirklich Hand und Fuß hat, erscheint mir das mittlerweile durchaus möglich. Möglicherweise waren die acht Controller des R520 nur die Vorbereitung auf einen zu diesem Zeitpunkt noch zu teuren 512-bit Bus. "New levels of memory bandwidth" wird man jedenfalls nicht mit einer 256-bit Bus erreichen.

Nur frage ich mich dann auch wofür ATI diese unglaubliche Speicherbandbreite benötigt, ausser um Sie auf die Verpackung drucken zu können?

Eine GPU kann prinzipiell nicht zu viel Bandbreite haben. Zwar wird der Leistungsgewinn irgendwann nurnoch marginal ausfallen, so dass kein vernüftiges Kosten-/Nutzenverhältnis mehr gegeben ist, allerdings tritt dieser Punkt nicht abrupt, sondern fließend ein. Selbst ein R580 kann bsw. trotz seiner relativ bescheidenen Texelfüllrate noch von hochgetaktetem GDDR4-RAM profitieren, wenn auch nicht mehr übermäßig. Falls R600 auch nur 32TMUs haben sollte, benötigt ATi, um ein ähnliches Füllraten-/Bandbreitenverhältnis wie bei R580 zu erreichen, fast einen 512-bit Bus.

Zudem: Mit 1,4 GHz GDDR4 hat man selbst gegenüber der X1950 XTX satte 40% Luft nach oben - da haben Marketing-Leute schon größere Elefanten aus kleineren Mücken aufgeblasen. ;)

Q

Naja, angesichts der Bandbreite des G80 wäre es geradezu absurd, dass Orton dies bei R600 extra herausstreicht, um sich dann von der Konkurrenz vorführen zu lassen.

deekey777
2006-12-15, 21:00:02
Was anderes:
Falls R600 auch nur 32 TMUs haben sollte, benötigt ATi, um ein ähnliches Füllraten-/Bandbreitenverhältnis wie bei R580 zu erreichen, fast einen 512-bit Bus.
Da ergibt sich ein Problemchen, das ATi sich selbst geschaffen hat. Wenn man sich an den Launch der 1900er erinnert, dann weiß man, dass ATi davon ausgeht, dass das Verhältnis TMUs <-> ALUs (TEX-Ops gegen MATH) sich weiterhin in Richtung ALUs verändert. Aktuell ist es bei 1:3 bzw. 1:3,5. Die nächste Steigerung wäre 1:4. Das sollte nicht unberücksichtigt bleiben,


Greetings an Demirug

Gast
2006-12-15, 21:03:57
Die nächste Steigerung wäre 1:4. Das sollte nicht unberücksichtigt bleiben,


Das würde bei 64 ALUs 16 "TMUs" ergeben. Ein bisschen wenig, vorallem im Vergleich zum G80 mit seinen "32".

deekey777
2006-12-15, 21:09:19
Das würde bei 64 ALUs 16 "TMUs" ergeben. Ein bisschen wenig, vorallem im Vergleich zum G80 mit seinen "32".
Jepp, seine 32 TMUs sind 32 "Monster-TMUs".
Und da stellt sich die Frage: Wie werden die TMUs des R600 so aussehen?

Gast
2006-12-15, 21:17:45
Denke das man da auf die alte Generation viel Rücksicht nehmen muss. Das Konzept des R600 ist schließlich 4 Jahre alt, wie es Ursprünglich aussah weis niemand, allerdings besagt ja allein die hohe Taktrate das es in Bezug auf TMUs und Rops wohl ein "schlankerer" Chip als der G80 sein wird. 32TMUs bei z.b.: 800MHz geben sicher viel Wärme ab, selbst wenn sie 1:1 aus dem R5xx Desing übernommen wurden. Von daher gehe ich davon aus das es 16 oder 24 sind, selbiges gilt für ROPs, wenn diese noch als einzelne Einheit vorhanden sind.
Wieviel "Unified Architecture" der R600 in sich birgt werden wir wohl erst im März erfahren. da lass ich mich nicht von den vielen Gerüchten verrückt machen, 2GHz und ko.

Armaq
2006-12-15, 21:54:49
Das tut NV doch. Und zwar m.E. verdammt gut. Zum Launch, zu Messen, generell. Aber nicht vor dem Launch. Und das ist normal ;)


Hast du was gegen Ingenieure? ;)



Der Titel heißt aber R600. ATI tut es nicht. Vor dem Launch werden meiner Meinung nach nicht genug Gerüchte gestreut, Andeutungen gemacht. Auch die Werbung ist für mich nicht präsent (wobei ich das auch bei Nv sehe). Ich rede nicht vom Buisness-Sektor.
Ich rede vom Consumer. Wenn er dem Handel gegenüber formuliert ich möchte den PC nur mit ATI, dann hat die Marke einen großen Sprung gemacht. Angeblich plant AMD ja eine solche Offensive zusammen mit Microsoft 2007.

Ich weiss nicht inwieweit die Devs. so etwas geprüft haben. Aber bei teuren Investitionen ist eine solche Markenbindung durch die Branchen vertreten und erfolgreich.
Ing. kaufen halt Audi ;) (@robbitop).

p.s.: Ich habe natürlich nichts gegen Ing. aber einige Vorurteile sind halt doch wirklich wahr. Bei mir als angehenden Juristen heißt es auch in 90% der Fälle; Es kommt darauf an. :redface:

Gast
2006-12-15, 22:03:40
Denke das man da auf die alte Generation viel Rücksicht nehmen muss. Das Konzept des R600 ist schließlich 4 Jahre alt, wie es Ursprünglich aussah weis niemand, allerdings besagt ja allein die hohe Taktrate das es in Bezug auf TMUs und Rops wohl ein "schlankerer" Chip als der G80 sein wird. 32TMUs bei z.b.: 800MHz geben sicher viel Wärme ab, selbst wenn sie 1:1 aus dem R5xx Desing übernommen wurden. Von daher gehe ich davon aus das es 16 oder 24 sind, selbiges gilt für ROPs, wenn diese noch als einzelne Einheit vorhanden sind.
Wieviel "Unified Architecture" der R600 in sich birgt werden wir wohl erst im März erfahren. da lass ich mich nicht von den vielen Gerüchten verrückt machen, 2GHz und ko.

Wir wissen ja garnicht was die Einheiten alles können...

Womöglich werden diese TMUs sehr viel mehr als normale TMUs, wie wir sie kennen, können.

Gmax
2006-12-15, 22:11:47
Ich kann mich erinnern gelesen zu haben, daß man dieses Frühjahr noch von einer komplett neuen Architektur des R600 ausgegangen ist.
Nun lese ich Sätze, daß der R600 vom Ansatz her schon 4 Jahre alt ist.

Was soll denn nun stimmen? Komplett neu, nur teilweise oder ist er einfach nur ein modernisierter R580 :confused:

Gast
2006-12-15, 22:13:09
Ich kann mich erinnern gelesen zu haben, daß man dieses Frühjahr noch von einer komplett neuen Architektur des R600 ausgegangen ist.
Nun lese ich Sätze, daß der R600 vom Ansatz her schon 4 Jahre alt ist.

Was soll denn nun stimmen? Komplett neu, nur teilweise oder ist er einfach nur ein modernisierter R580 :confused:

Alles drei zusammen wäre richtig....^^

Armaq
2006-12-15, 22:13:28
Ich kann mich erinnern gelesen zu haben, daß man dieses Frühjahr noch von einer komplett neuen Architektur des R600 ausgegangen ist.
Nun lese ich Sätze, daß der R600 vom Ansatz her schon 4 Jahre alt ist.

Was soll denn nun stimmen? Komplett neu, nur teilweise oder ist er einfach nur ein modernisierter R580 :confused:

Nvidia hat den G80 auch vor 4 Jahren begonnen. :)

Gmax
2006-12-15, 22:41:05
Nvidia hat den G80 auch vor 4 Jahren begonnen. :)

:| Also für 4 Jahre Entwicklung etwas entäuschende Leistung, nicht wahr.
Wie es scheint, schafft keiner der Beiden sich vom anderen
mit einer überschnellen Performance absetzen zu können, irgendwie verwunderlich, wie nahe ATI und nVidia immer liegen....

Meine Vermutung zum Ram des R600:
512 sind rein marketingmäßig zu wenig (nVidia hat mehr)
und 1 gig sind zu teuer. Was haltet ihr von 768mb? :rolleyes:

AnarchX
2006-12-15, 22:44:09
Wie es scheint, schafft keiner der Beiden sich vom anderen
mit einer überschnellen Performance absetzen zu können, irgendwie verwunderlich, wie nahe ATI und nVidia immer liegen....

Das hat sich auch die Wettbewerbsbehörde in der USA gefragt und deshalb gab es vor kurzem eine Vorladung für beide (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336544).;)


Meine Vermutung zum Ram des R600:
512 sind rein marketingmäßig zu wenig (nVidia hat mehr)
und 1 gig sind zu teuer. Was haltet ihr von 768mb? :rolleyes:
768MB sind aber nur mit einem 384bit SI möglich.

robbitop
2006-12-15, 22:45:52
Beide sind an die DirectX Anforderungen, Budget, Produktkostenbereich und an den Fertigungsprozess gebunden. Beide haben verdammt gute Ingenieure an Board. Wieso sollte ein IHV bei soziemlich gleichen Voraussetzungen ein signifikant stärkeres Produkt bringen? Was passieren kann, ist dass ein IHV sich völlig verschätzt und deshalb das andere Produkt so gut darsteht (R300-NV30).
Worauf die IHVs aussind, sind sowieso nur Umsätze und dabei möglichst gute Margen. Die versaut man sich nicht mit unnöitig viel Ressourceneinsatz. Ein tick schneller als der Konkurrent sein, genügt ja.

Das hat sich auch die Wettbewerbsbehörde in der USA gefragt und deshalb gab es vor kurzem eine Vorladung für beide (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=336544).;)



Da ging's aber nur um Preisabsprachen.

Gast
2006-12-15, 22:48:39
Wie es scheint, schafft keiner der Beiden sich vom anderen
mit einer überschnellen Performance absetzen zu können, irgendwie verwunderlich, wie nahe ATI und nVidia immer liegen....


nachdem sich beide an die gesetze der physik halten müssen irgendwie logisch.

reunion
2006-12-15, 22:55:25
Was anderes:

Da ergibt sich ein Problemchen, das ATi sich selbst geschaffen hat. Wenn man sich an den Launch der 1900er erinnert, dann weiß man, dass ATi davon ausgeht, dass das Verhältnis TMUs <-> ALUs (TEX-Ops gegen MATH) sich weiterhin in Richtung ALUs verändert. Aktuell ist es bei 1:3 bzw. 1:3,5. Die nächste Steigerung wäre 1:4. Das sollte nicht unberücksichtigt bleiben,


Greetings an Demirug

Ich sehe da nicht wirklich ein "Problem", da man hier sehr kreativ zählen kann, wenn es sein muss.

Ailuros
2006-12-15, 23:53:05
Reunion hat recht; kommt ganz drauf an wie man zaehlt. Beim G80 waeren es je nach Perspektive:

128:64 = 2:1
128:32 = 4:1

Ich sehe da nicht wirklich ein "Problem", da man hier sehr kreativ zählen kann, wenn es sein muss.

Notier aber trotzdem dass sowohl die Pixel, Zixel und Texelfuellrate auf G80 hoeher ist. Relevant ist es ueberhaupt nicht zur finalen Leistung des chips (siehe R5x0 vs. G7x), es macht lediglich die verfuegbare Bandbreite auf R600 noch fraglicher.

Ailuros
2006-12-15, 23:57:30
Zu den Clustern: der B3D G80 Report sieht das etwas anders als du. Ist nur die Frage, wie abhängig das MUL generell ist oder ob's eben nur ne Art MiniALU bleibt.

Uttar fragte Bob in aller Oeffentlichkeit ob er mit zukuenftigen Treibern seine Tests konstant wiederholen soll und die Antwort war dass es keine schlechte Idee ist mit einem ;)

BlackBirdSR
2006-12-16, 07:16:59
Wenn ich Ailuros Posts zusammenzähle kommt für mich Folgendes raus:

R600 wird erstmal durch hohe Bandbreite und einige Merkmale überraschen, im Design aber erstmal etwas nüchterne Gesichter zaubern.
Wahrscheinlich hat man auf der ersten Seite jedes Reviews noch ein "Boah Geil" im Kopf, ein paar Seiten darauf dann ein "Was nur so?"

Die Benchmarks fallen dann wohl mehr oder weniger gut aus, aber keinesfalls vernichtend. Die G80 wird wohl Preis/Leistung und Abwärme/Strom-technisch günstiger sein.

Bisher gehe ich von genau diesem Szenario aus. Mich kann ja jemand berichtigen, wenn ich falsch liege.

(Edit: Gehe auch davon aus, dass ATI wieder auf Performancegeil macht, während Nvidia das wirkliche Geld einsteckt)

reunion
2006-12-16, 09:43:12
768MB sind aber nur mit einem 384bit SI möglich.

Das Topmodell wird mit Sicherheit ein GB VRAM haben, da man für einen 512-bit Bus ohnehin 16 Speicherbausteine benötigt.

Snoopy1978
2006-12-16, 13:14:08
Die Frage wäre dann nur noch GDDR4 oder GDDR3 Speicher,vielleicht aber auch beides in Form von unterschiedlichen Modellen.

crux2005
2006-12-16, 13:44:48
Die Frage wäre dann nur noch GDDR4 oder GDDR3 Speicher,vielleicht aber auch beides in Form von unterschiedlichen Modellen.

das denke ich auch

Palpatin
2006-12-16, 15:08:20
Wenn das Topmodell mit 512bit 1GB GDDR 4 kommt dann braucht man sich zummindest Speicherseitig eigentlich keine Sorgen machen selbst GDDR 3 sollte bei 512 bit genügen um den G80 Performance mäsig zu schlagen. Es kommt halt auf den CHIP an.
Ich Tipp das es bei den Ollen Kamellen (Fear Q4 BF etc) die zum Teil noch von vielen Seiten gebencht werden Gleichstand gibt. Bei einigen neuren Titel (Anno 1701, SPDA, NFSC, TopSpin2, RainbowSixVegas etc etc etc) kann ich mir gut vorstellen das der R600 gut davonzieht sprich in den Tests werden sich beide Karten nicht viel nehmen wie halt auch bei X1900XT vs 7900 GTX in der Realität wird aber bei den entscheidenden Hardwarefressern der R600 die Nase vornhaben.
Das klingt jetzt nach ner dreisden Behauptung ist aber nur ein Tipp Vermutung Vorahnung. Ich las mich bei Release (un)gern eines besseren belehren.

StefanV
2006-12-16, 15:21:41
768MB sind aber nur mit einem 384bit SI möglich.
Nicht zwangsläufig, 768MB sind auhc mit 512bit durchaus möglich, zwar unschön aber möglich ;)

Gouvernator
2006-12-16, 15:45:07
Wenn das Topmodell mit 512bit 1GB GDDR 4 kommt dann braucht man sich zummindest Speicherseitig eigentlich keine Sorgen machen selbst GDDR 3 sollte bei 512 bit genügen um den G80 Performance mäsig zu schlagen. Es kommt halt auf den CHIP an.
Ich Tipp das es bei den Ollen Kamellen (Fear Q4 BF etc) die zum Teil noch von vielen Seiten gebencht werden Gleichstand gibt. Bei einigen neuren Titel (Anno 1701, SPDA, NFSC, TopSpin2, RainbowSixVegas etc etc etc) kann ich mir gut vorstellen das der R600 gut davonzieht sprich in den Tests werden sich beide Karten nicht viel nehmen wie halt auch bei X1900XT vs 7900 GTX in der Realität wird aber bei den entscheidenden Hardwarefressern der R600 die Nase vornhaben.
Das klingt jetzt nach ner dreisden Behauptung ist aber nur ein Tipp Vermutung Vorahnung. Ich las mich bei Release (un)gern eines besseren belehren.

Es wird wahrscheinlich UT2007 sein an das sich ATi orientiert anstatt auf ältere Titel.

robbitop
2006-12-16, 16:39:10
Nicht zwangsläufig, 768MB sind auhc mit 512bit durchaus möglich, zwar unschön aber möglich ;)
Wie denn (mit verfügbaren Speicherbausteinen)?

Gast
2006-12-16, 16:55:25
Wie denn (mit verfügbaren Speicherbausteinen)?

es müssen nicht zwangsläufig alle verbauten speicherbausteine die gleiche kapazität besitzen ;)

deekey777
2006-12-16, 17:02:53
Wie denn (mit verfügbaren Speicherbausteinen)?

unschön
es müssen nicht zwangsläufig alle verbauten speicherbausteine die gleiche kapazität besitzen ;)
8x512 MBit und 8x256 MBit?
Geht das ohne großen Aufwand? Wenn es eine 768-MiB-Version geben wird, dann eher mit 384-bit-SI.

StefanV
2006-12-16, 17:08:12
8x512 MBit und 8x256 MBit?
Geht das ohne großen Aufwand?
Hängt vom Speichercontroller ab, je nach dem...
Unschön ists aber auf jeden Fall...

Wenn es eine 768-MiB-Version geben wird, dann eher mit 384-bit-SI.
Und die 512MiB Version mit 256bit? ;)

seahawk
2006-12-16, 17:08:46
Guckt euch die Benches und die OC Ergebnisse der 8800GTX and, eine starke Bandbreitenlimitierung ist nicht festzustelllen.

deekey777
2006-12-16, 17:13:11
Und die 512MiB Version mit 256bit? ;)

Mit 16 256-Mbit-Chips.:tongue:
Wenn es eine 768-MiB-Version geben wird, dann eher mit 384-bit-SI.
Sonst wird es 3 PCBs für je eine Version geben, und ich glaube, das war robbitops Einwand.
Guckt euch die Benches und die OC Ergebnisse der 8800GTX and, eine starke Bandbreitenlimitierung ist nicht festzustelllen.
"Weltweit erste Grafikkarte mit externer 512-bitiger Anbindung" klingt doch sehr gut? :)
Darum würde es mich nicht wundern, wenn es zunächst beim GDDR3 bleibt. Mit 900 MHz hat man schon über 112 GiB Bandbreite, mit 800 MHz 100 GiB, selbst mit 700 MHz mehr als bei der 8800GTX.

AnarchX
2006-12-16, 17:47:50
Darum würde es mich nicht wundern, wenn es zunächst beim GDDR3 bleibt. Mit 900 MHz hat man schon über 112 GiB Bandbreite, mit 800 MHz 100 GiB, selbst mit 700 MHz mehr als bei der 8800GTX.

Aber wenn man Ailuros' Andeutung und auch andere Gerüchte im Netz betrachtet, sieht es aber eher nach GDDR4 aus, also das ATi gleich in die Vollen geht.
Wenn auch der Sinn momentan noch fraglich ist...

deekey777
2006-12-16, 17:54:54
Aber wenn man Ailuros' Andeutung und auch andere Gerüchte im Netz betrachtet, sieht es aber eher nach GDDR4 aus, also das ATi gleich in die Vollen geht.
Wenn auch der Sinn momentan noch fraglich ist...
Nein, eben nicht, Geo geht von GDDR4 aus, weil einfach nichts dagegen spricht (Verfügbarkeit, Preis etc), eine unbestätigte Bestätigung hat er nicht.
http://www.beyond3d.com/forum/showpost.php?p=891887&postcount=1525
Was aber dagegen spricht ist: Wozu braucht man gleich GDDR4 und nicht später?
Und wo hat Ail irgendwas von GDDR4 angedeutet?

AnarchX
2006-12-16, 18:09:57
Und wo hat Ail irgendwas von GDDR4 angedeutet?

Ich halt mal vorsichtshalber noch meine Klappe denn es ist noch viel zu frueh und zwei Monate sind eine lange Zeit um Treiber auszubuegeln. Bis jetzt lassen mir die hereinfliessenden Daten eher gemischte Gefuehle; einmal ein quasi "hoppla" und einmal ein niederlassendes "hmmm".

Irgendwie vermute ich dahinter doch seine Reaktion auf die Bandbreite die der R600 haben soll und so eine Reaktion würde ich doch bezweifeln bei gerade mal etwas über 100GB/s.;)

Dann noch diese Aussagen:

D3D10 in der Zukunft. Es mag zwar merkwuerdig klingen aber ATI plante anscheinend etwas aggressiver voraus.
Das gute an der D3D10 Generation ist, dass wir innerhalb des naechsten Jahres schon bei Vorstellung mainstream GPUs@250$ mit 40-50GB Bandbreite sehen werden.

Irgendwie deutet das doch darauf hin, dass der R600 wohl die Bandbreiten-Latte massiv nach oben legen wird und sich kommende D3D10-Produkte daran orientieren werden.

Ailuros
2006-12-16, 18:09:58
Ich schliesse GDDR4 fuers seltene Protzmodell (LOL) nicht aus. Ob dieses nun Sinn macht oder nicht werden wir wohl sehen. Irgendwo zwischen 700-900MHz GDDR3@512bit erscheint mir mehr als genug fuer einen solchen chip, ausser ich hab irgendwo eine sehr wichtige Kleinigkeit uebersehen.

AnarchX:

Schon 800MHz@512bit sind knapp ueber 100GB/s. Was jetzt die Mainstream Produkte und 256bit Busse betrifft, war es auf beide IHVs gezielt.

StefanV
2006-12-16, 18:10:28
Mit 16 256-Mbit-Chips.:tongue:

Wie bei der 7800GTX/256MB bzw echte 5900 mit 128MB? ;)


Sonst wird es 3 PCBs für je eine Version geben, und ich glaube, das war robbitops Einwand.
Nö, nicht zwangsläufig.
Nur eine andere Bestückungsvariante...

Alle R5x0 hatten bisher ja auch alle nur EIN PCB (ok, wenn man mal von dieser einen FireGL absieht)...

][immy
2006-12-16, 18:14:27
Was aber dagegen spricht ist: Wozu braucht man gleich GDDR4 und nicht später?


vielleicht weil ati weiß das nvidia mehr oder minder direkt ein refresh entgegenstellen kann und man somit versucht schon direkt schneller zu sein als der refresh. aus marketinggründen kann es sich schonmal lohnen wirklich die schnellste karte zu haben, auch wenn vielleicht kaum verfügbar.
zudem könnte man so direkt versuchen verlorene marktanteile zurück zu holen, ohne das man nachher wieder in zugzwang gerät.

würde doch wirklich gut für amd/ATI aussehen, wenn selbst nvidias refresh nicht mithalten könnte. also mir würde diese idee dahinter gefallen ^^

Gast
2006-12-16, 18:15:12
eine unbestätigte Bestätigung

was ist denn eine unbestätigt bestätigung? :D

Ailuros
2006-12-16, 18:17:26
Wenn ich Ailuros Posts zusammenzähle kommt für mich Folgendes raus:

R600 wird erstmal durch hohe Bandbreite und einige Merkmale überraschen, im Design aber erstmal etwas nüchterne Gesichter zaubern.
Wahrscheinlich hat man auf der ersten Seite jedes Reviews noch ein "Boah Geil" im Kopf, ein paar Seiten darauf dann ein "Was nur so?"

Die Benchmarks fallen dann wohl mehr oder weniger gut aus, aber keinesfalls vernichtend. Die G80 wird wohl Preis/Leistung und Abwärme/Strom-technisch günstiger sein.

Bisher gehe ich von genau diesem Szenario aus. Mich kann ja jemand berichtigen, wenn ich falsch liege.

(Edit: Gehe auch davon aus, dass ATI wieder auf Performancegeil macht, während Nvidia das wirkliche Geld einsteckt)

Nicht schlecht ;) Eine 100% "Verantwortung" trage ich auch nicht im Grunde, denn es passiert mehr als oefters dass man falsche Infos bekommt. Es gab nur einen kleinen Fehler den ich bis jetzt in meinem R600-Mist entdecken konnte und diese ist wohl eher auf ATI's kreative Zaehlweise zurueckzufuehren. Es gibt keine "halben" ALUs die man mit 2 multipliziert und diese dann zu den eigentlichen Einheiten addiert ;)

AnarchX
2006-12-16, 18:19:30
Ich schliesse GDDR4 fuers seltene Protzmodell (LOL) nicht aus. Ob dieses nun Sinn macht oder nicht werden wir wohl sehen. Irgendwo zwischen 700-900MHz GDDR3@512bit erscheint mir mehr als genug fuer einen solchen chip, ausser ich hab irgendwo eine sehr wichtige Kleinigkeit uebersehen.

AnarchX:

Schon 800MHz@512bit sind knapp ueber 100GB/s. Was jetzt die Mainstream Produkte und 256bit Busse betrifft, war es auf beide IHVs gezielt.

Hab ich deine Aussagen wohl doch falsch gedeutet oder weißt du in diesen Belangen auch noch nicht viel mehr?;)

Aber wie DK777 auch schon sagt, GDDR4 wäre nicht unbedingt preislich ein Nachteil gegenüber GDDR3 und würde wohl der Karte in bestimmten Belangen doch eine etwas längere Lebensdauer beschaffen, auch wenn die GPU wohl die Bandbreite nicht wirklich sinnvoll auslasten kann.

Undertaker
2006-12-16, 18:24:36
Hab ich deine Aussagen wohl doch falsch gedeutet oder weißt du in diesen Belangen auch noch nicht viel mehr?;)

Aber wie DK777 auch schon sagt, GDDR4 wäre nicht unbedingt preislich ein Nachteil gegenüber GDDR3 und würde wohl der Karte in bestimmten Belangen doch eine etwas längere Lebensdauer beschaffen, auch wenn die GPU wohl die Bandbreite nicht wirklich sinnvoll auslasten kann.

ist denn das wirklich schon absehbar? wenn der r600 nun deutlich mehr als 100% schneller ist als die x1950xtx, könnte er sie evntl. doch sinnvoll nutzen...

Ailuros
2006-12-16, 18:29:51
Hab ich deine Aussagen wohl doch falsch gedeutet oder weißt du in diesen Belangen auch noch nicht viel mehr?;)
Aber wie DK777 auch schon sagt, GDDR4 wäre nicht unbedingt preislich ein Nachteil gegenüber GDDR3 und würde wohl der Karte in bestimmten Belangen doch eine etwas längere Lebensdauer beschaffen, auch wenn die GPU wohl die Bandbreite nicht wirklich sinnvoll auslasten kann.

Das mit der laengeren Lebensdauer soll ich jetzt wie verstehen? Wuerde G80 so wie er momentan ist eine laengere Lebensdauer haben mit GDDR4? Koennte man den core oder ausschliesslich die SPs an die 20% uebertakten dann vielleicht schon. Nochmal fuer 11% mehr Bandbreite gewinnt G80 nur schaebige 4% in 2048*1536 mit 4xAA.

Ailuros
2006-12-16, 18:42:45
ist denn das wirklich schon absehbar? wenn der r600 nun deutlich mehr als 100% schneller ist als die x1950xtx, könnte er sie evntl. doch sinnvoll nutzen...

X1950XTX@Crossfire hat 60GB/sec Bandbreite pro Frame verfuegbar in AFR.

Gast
2006-12-16, 18:54:39
Reunion hat recht; kommt ganz drauf an wie man zaehlt. Beim G80 waeren es je nach Perspektive:

128:64 = 2:1
128:32 = 4:1

Wenn man statt Skalar nen Vec4 ansetzt wie bisher kommt man sogar auf 1:2, bzw 1:1.
Klar, durch die bessere Auslastung tendiert es noch etwas staerker in Richtung Rechenleistung. Aber ob ATI sich vorerst noch weiter in diese Richtung bewegt?
Was spricht eigentlich gegen 2x Xenos mit aufbebohrten + mehr TMUs und angeflanschten ROPs?

LovesuckZ
2006-12-16, 18:57:07
Wenn man statt Skalar nen Vec4 ansetzt wie bisher kommt man sogar auf 1:2, bzw 1:1.


Den hohen Takt (1350Mhz) vs. 575Mhz nicht vergessen.

Ailuros
2006-12-16, 19:02:25
Wenn man statt Skalar nen Vec4 ansetzt wie bisher kommt man sogar auf 1:2, bzw 1:1.

Ich koennte auch kinderleicht behaupten dass G80 "nur" 8 Renderoutputs oder "nur" 8 "TMUs" hat. Es soll eigentlich nur zeigen wie sinnlos diese Rechnerei sein kann.

Klar, durch die bessere Auslastung tendiert es noch etwas staerker in Richtung Rechenleistung. Aber ob ATI sich vorerst noch weiter in diese Richtung bewegt?

4:1, 2:1 oder jegliche andere Kombination, je nachdem wie kreativ die Rechenweise.

Was spricht eigentlich gegen 2x Xenos mit aufbebohrten + mehr TMUs und angeflanschten ROPs?

R600 ist ein hybride zwischen Xenos und R5x0. Deine These mit nur dem dazupappen von zusaetzlichen Einheiten fliegt schnell zum Fenster raus wenn ich frage ob G80 "nur" 2x mal so schnell ist als Xenos; und die Antwort ist selbstverstaendlich nein und abermals nein.

Gast
2006-12-16, 19:03:30
Den hohen Takt (1350Mhz) vs. 575Mhz nicht vergessen.
Den kann man rausrechnen, da Skalare ja auch als ALUs gelten und Xenos neben dem Vec4 ja noch ein Skalar berechnen kann X-D.

Die Zaehlweise ALU/Tex ist reichlich sinnlos. ;)

reunion
2006-12-16, 19:17:23
Notier aber trotzdem dass sowohl die Pixel, Zixel und Texelfuellrate auf G80 hoeher ist. Relevant ist es ueberhaupt nicht zur finalen Leistung des chips (siehe R5x0 vs. G7x), es macht lediglich die verfuegbare Bandbreite auf R600 noch fraglicher.

Auch auf R300 war der 256-bit Bus overkill für die 2600MTexel/s Füllrate, trotzdem konnte der Chip in Extremsituationen durchaus davon profitieren. Wie schon gesagt, eine GPU kann im Grunde nicht genügend Bandbreite haben. Zumindest 32 bi gefilterte Texel sollte R600 pro Takt schon rendern können, das wäre immerhin doppelt soviel wie R580. Dazu noch den höheren Takt, und schön wäre ein 512-bit Bus pflicht, um ein ähnliches Bandbreiten-/Füllratenverhältnis wie auf R580 zu erreichen. Im übrigen sollte FP16 HDR + MSAA nunmehr durch die Unterstützung von nV auch eine wesentlich höhere Akzeptanz unter Spieleentwicklern finden, und das benötigt ja bekanntlich massiv Bandbreite. In Zukunft wird der Bandbreitenverbrauch durch höhere Genauigkeit, höhere AA-Modi, höherer Füllrate, etc. auch weiter steigen. Dieser Schritt ist also über kurz oder lang ohnehin unausweichlich, man kann jetzt natürlich (ähnlich wie bei R300) darüber streiten, ob das jetzt schon nötig ist, oder ob nicht auch wie bei nV ein Zwischenschritt gereicht hätte. So oder so, ein Fehler ist es auf jeden Fall nicht.

dargo
2006-12-16, 19:21:19
Nochmal fuer 11% mehr Bandbreite gewinnt G80 nur schaebige 4% in 2048*1536 mit 4xAA.
War bei diesem Test HDR im Spiel?

Ich glaube, ich hatte diese Frage schon einmal an dich gerichtet. Ob sie beantwortet wurde weiß ich nicht mehr.

reunion
2006-12-16, 19:23:46
Was spricht eigentlich gegen 2x Xenos mit aufbebohrten + mehr TMUs und angeflanschten ROPs?

Die hohe Transistorenanzahl. X-D

Nochmal fuer 11% mehr Bandbreite gewinnt G80 nur schaebige 4% in 2048*1536 mit 4xAA.

4% sind 4%, und noch dazu verdammt billige 4%. Dass ein Chip linear mit der Bandbreite skaliert, ist äußerst selten, da eben nicht immer gleich viel Bandbreite benötigt wird. Dazu müsste man schon extremst an der Bandbreite hängen.

LovesuckZ
2006-12-16, 19:25:57
Den kann man rausrechnen, da Skalare ja auch als ALUs gelten und Xenos neben dem Vec4 ja noch ein Skalar berechnen kann X-D.


Es ging um das Verhältnis beim G80.
Und wenn man schon Vergleichen will, müsste es 304:64(4:1)/32(8:1) bzw. 76:64(1,19:1)/32(2,35:1) sein...


4% sind 4%, und noch dazu verdammt billige 4%.

Es zeigt auch, dass eine Steigerung der Leistung nur mit einem vielfachen Aufwand verbunden ist.
Es ist daher schwer noch von "verdammt billig" zu reden.

seahawk
2006-12-16, 19:42:29
4% sind 4%, und noch dazu verdammt billige 4%. Dass ein Chip linear mit der Bandbreite skaliert, ist äußerst selten, da eben nicht immer gleich viel Bandbreite benötigt wird. Dazu müsste man schon extremst an der Bandbreite hängen.

Das komplexe und dicke PCB dürfte alles andere als billig sein.

Gast
2006-12-16, 19:43:16
4% sind 4%, und noch dazu verdammt billige 4%. Dass ein Chip linear mit der Bandbreite skaliert, ist äußerst selten, da eben nicht immer gleich viel Bandbreite benötigt wird. Dazu müsste man schon extremst an der Bandbreite hängen.

wenn die bandbreitenerhöhung durch eine verbreiterung des interfaces zustande kommt ist dies alles andere als billig.

Ailuros
2006-12-16, 19:48:52
Auch auf R300 war der 256-bit Bus overkill für die 2600MTexel/s Füllrate, trotzdem konnte der Chip in Extremsituationen durchaus davon profitieren.

Nur ist leider der Grund des NV30-Flops eben nicht die Busbreite bzw die dadurch gelieferte Bandbreite.

Wie schon gesagt, eine GPU kann im Grunde nicht genügend Bandbreite haben.

Wenn sie 64xAA unterstuetzen wuerde unter Bedingungen ja. Eine Bedingung hier waere TBDR :P

Zumindest 32 bi gefilterte Texel sollte R600 pro Takt schon rendern können, das wäre immerhin doppelt soviel wie R580. Dazu noch den höheren Takt, und schön wäre ein 512-bit Bus pflicht, um ein ähnliches Bandbreiten-/Füllratenverhältnis wie auf R580 zu erreichen.

Nur haben die R600 ROPs/TMUs rein gar nichts mit R5x0 zu tun und schon gar nicht die generellen Ansprueche einer D3D10 GPU. Hingegen ist auf G80 mit 32bi oder 64bilerp samples auch kein 512bit bus "Pflicht".


Im übrigen sollte FP16 HDR + MSAA nunmehr durch die Unterstützung von nV auch eine wesentlich höhere Akzeptanz unter Spieleentwicklern finden, und das benötigt ja bekanntlich massiv Bandbreite.

Den Kaugummi hab ich schon so oft von ATI in letzter Zeit gehoert, dass es eher von irgendwo abgeschrieben klingt. Mir geht die Bandbreite bis jetzt mit float HDR selbst in 2048 auf jeden Fall nicht aus.

In Zukunft wird der Bandbreitenverbrauch durch höhere Genauigkeit, höhere AA-Modi, höherer Füllrate, etc. auch weiter steigen.

Wie hoch ist denn die interne Genauigkeit, die maximale MSAA sample Anzahl, eigentliche Fuellrate auf R600 Deiner Meinung nach? Denn waehrend ich hier herumhocke und mich um ein paar Kleinigkeiten wundere, heisst es auch dass mir ein paar wichtige diesbezuegliche Einzelheiten bewusst sind.

Dieser Schritt ist also über kurz oder lang ohnehin unausweichlich, man kann jetzt natürlich (ähnlich wie bei R300) darüber streiten, ob das jetzt schon nötig ist, oder ob nicht auch wie bei nV ein Zwischenschritt gereicht hätte. So oder so, ein Fehler ist es auf jeden Fall nicht.

Leicht (nein besser viel zu leicht) gesagt. Ich hab Dir vor mehr als einem Jahr in einer aehnlichen Debatte gesagt dass es R5x0 verdammt schwer haben wird im Schlepptop Markt. Alles was auf hoehere Chipkomplexitaet, hoeheren Stromverbrauch bzw. schlechtere Margen am Ende deutet, heisst in meinem Buch zumindest fragliche Design-Entscheidungen. Komischerweise hiess es mit SM2.0 dass man SM3.0 nur auftischt wenn man es braucht; jetzt muss ich also glauben dass bei den X-MSAA samples und dem Chip-aufbau =/>120GB Bandbreite auch unbedingt "noetig" sind.

ATI soll endlich aufwachen und sich mehr auf ihre Margen konzentrieren. Ich sehe nicht ein dass NVIDIA so schmerzlos das NV30-Disaster ueberleben konnte und sich seither so stark aufkrempeln konnte. Der eigentliche Trick ist hier dass NV ganz einfach von ihren eigenen Fehlern gelernt hat. Dass ATI nicht dazu faehig ist kann ich bei bestem Willem nicht einsehen. Nicht mit ATI's Potential, Resourcen und Engineering Talenten.

Ailuros
2006-12-16, 19:54:45
4% sind 4%, und noch dazu verdammt billige 4%. Dass ein Chip linear mit der Bandbreite skaliert, ist äußerst selten, da eben nicht immer gleich viel Bandbreite benötigt wird. Dazu müsste man schon extremst an der Bandbreite hängen.

4% sind zwei laecherliche fps ueber 54fps.

reunion
2006-12-16, 19:57:43
Es zeigt auch, dass eine Steigerung der Leistung nur mit einem vielfachen Aufwand verbunden ist.
Es ist daher schwer noch von "verdammt billig" zu reden.

Was kosten schon 11% mehr Speichertakt? Ein Klax, im Vergleich zu dem, was eine adiquate Veränderung am Chip(takt) kosten würde IMO.

Das komplexe und dicke PCB dürfte alles andere als billig sein.
wenn die bandbreitenerhöhung durch eine verbreiterung des interfaces zustande kommt ist dies alles andere als billig.

Ein High-End-Chip wie R600 muss nicht billig, sondern vorallem schnell sein. Die Margen holt man sich woanders.

LovesuckZ
2006-12-16, 20:01:41
Was kosten schon 11% mehr Speichertakt? Ein Klax, im Vergleich zu dem, was eine adiquate Veränderung am Chip(takt) kosten würde IMO.


Es muss garantiert werden, dass die Einstellung reibungslos funktioniert.
Entweder wird "billiger" Speicher übertaktet und somit die Gefahr erhöht, Rückläufer und ein schlechtes Image zu erhalten oder es muss mehr Geld für teuren Speicher, ein teures PCB oder sogar beides ausgegeben werden.
Es ist daher nicht gerade "billig" nur 1/3 Leistung zu erhalten.


Ein High-End-Chip wie R600 muss nicht billig, sondern vorallem schnell sein. Die Margen holt man sich woanders.

Wo?
ATI's r520 war schneller und nicht billig. ATi's r580 war nochmal schneller und nicht billig. Das die unteren Marktsegmente mit Karten gefüllt werden, welche auf dem "High-End" Design aufbauen, belegt nicht deine These.
Trotzdem fährt Nvidia Gewinne ein und holt sich Marktanteile.
Notebookmarkt ist wohl das Synonym, welches die Vorgehensweise von ATi als falsch bezeichnet.

robbitop
2006-12-16, 20:19:29
Was kosten schon 11% mehr Speichertakt? Ein Klax, im Vergleich zu dem, was eine adiquate Veränderung am Chip(takt) kosten würde IMO.
meinst du "adäquat"?



Ein High-End-Chip wie R600 muss nicht billig, sondern vorallem schnell sein. Die Margen holt man sich woanders.
Du scheinst das ganze sehr locker einzuschätzen. Die Karte muss mehr als kostendeckend verkauft werden. Der HighEnd Markt zeichnet sich zwar nicht durch hohe Umsätze aber dafür durch hohe Margen aus. Auch hier ist jeder cent oftmals entscheident. Schau dir mal die R5xx Spannungswandlung an: die wurde ziemlich am Limit konstruiert. Alles andere wäre auch ziemliche Geldverschwendung gewesen. Es gilt nunmal Kosten zu optimieren. F&E Gelder wollen auch wieder reingeholt werden. High End ist nicht nur für's Prestige wichtig.

reunion
2006-12-16, 20:25:09
Nur ist leider der Grund des NV30-Flops eben nicht die Busbreite bzw die dadurch gelieferte Bandbreite.



Das ist mir bewusst. Trotzdem würde niemand den 256-bit Bus des R300 als Fehler ansehen. Ganz im Gegenteil, nV zog innerhalb kürzester Zeit nach, und ich glaube, dass wird auch diesmal der Fall sein.


Wenn sie 64xAA unterstuetzen wuerde unter Bedingungen ja. Eine Bedingung hier waere TBDR :P

Nur haben die R600 ROPs/TMUs rein gar nichts mit R5x0 zu tun und schon gar nicht die generellen Ansprueche einer D3D10 GPU. Hingegen ist auf G80 mit 32bi oder 64bilerp samples auch kein 512bit bus "Pflicht".

Den Kaugummi hab ich schon so oft von ATI in letzter Zeit gehoert, dass es eher von irgendwo abgeschrieben klingt. Mir geht die Bandbreite bis jetzt mit float HDR selbst in 2048 auf jeden Fall nicht aus.


Deine Aussage, wonach G80 bei deinem Beispiel aus 11% mehr Speichertakt noch 4% mehr Leistung herausholen kann, beweißt, dass G80 eben hin und wieder doch die Bandbreite zu knapp wird. Und es gibt mit Sicherheit noch wesentlich gravierendere Szenen. Wieviel schneller wäre man wohl mit 1.4Ghz GDDR4, oder gar einem 512-bit Bus? 10%? 20%?


Wie hoch ist denn die interne Genauigkeit, die maximale MSAA sample Anzahl, eigentliche Fuellrate auf R600 Deiner Meinung nach? Denn waehrend ich hier herumhocke und mich um ein paar Kleinigkeiten wundere, heisst es auch dass mir ein paar wichtige diesbezuegliche Einzelheiten bewusst sind.


Ich weiß es nicht.


Leicht (nein besser viel zu leicht) gesagt. Ich hab Dir vor mehr als einem Jahr in einer aehnlichen Debatte gesagt dass es R5x0 verdammt schwer haben wird im Schlepptop Markt. Alles was auf hoehere Chipkomplexitaet, hoeheren Stromverbrauch bzw. schlechtere Margen am Ende deutet, heisst in meinem Buch zumindest fragliche Design-Entscheidungen. Komischerweise hiess es mit SM2.0 dass man SM3.0 nur auftischt wenn man es braucht; jetzt muss ich also glauben dass bei den X-MSAA samples und dem Chip-aufbau =/>120GB Bandbreite auch unbedingt "noetig" sind.

ATI soll endlich aufwachen und sich mehr auf ihre Margen konzentrieren. Ich sehe nicht ein dass NVIDIA so schmerzlos das NV30-Disaster ueberleben konnte und sich seither so stark aufkrempeln konnte. Der eigentliche Trick ist hier dass NV ganz einfach von ihren eigenen Fehlern gelernt hat. Dass ATI nicht dazu faehig ist kann ich bei bestem Willem nicht einsehen. Nicht mit ATI's Potential, Resourcen und Engineering Talenten.

Tja, wenn der 512-bit Bus wirklich total nutzlos wäre, hätte man ihn mit Sicherheit nicht implementiert. Man sollte hier IMHO erstmal ausgiebige Leistungsmessungen abwarten, bevor man urteilt.

4% sind zwei laecherliche fps ueber 54fps.

Das ist doch völlig irrelevant.

Juerg
2006-12-16, 20:27:35
Das höchst Beachtenswerte weshalb die X2 (R600) eine 512 Bit breite Anbindung an den Speicher aufweisen wird, ist Folgendes: 256 Bit breite Anbindungen werden "Mainstream" :)

Ailuros
2006-12-16, 20:27:57
Was kosten schon 11% mehr Speichertakt? Ein Klax, im Vergleich zu dem, was eine adiquate Veränderung am Chip(takt) kosten würde IMO.

Es geht hier um Busbreite. Im Fall von 512bit kannst Du mir die extra pins/traces und benoetige layers nicht nur so unter den Teppich kehren.

Ein High-End-Chip wie R600 muss nicht billig, sondern vorallem schnell sein. Die Margen holt man sich woanders.

Woher denn genau, wenn die Konkurrenz Dir in Maerkten die Du in der Vergangenheit gefuehrt hast aus der Hand wegreist, ohne einen effektiven Gegenangriff in Maerkten wo der Konkurrent Vorsprung hat?

reunion
2006-12-16, 20:34:30
Es muss garantiert werden, dass die Einstellung reibungslos funktioniert.
Entweder wird "billiger" Speicher übertaktet und somit die Gefahr erhöht, Rückläufer und ein schlechtes Image zu erhalten oder es muss mehr Geld für teuren Speicher, ein teures PCB oder sogar beides ausgegeben werden.
Es ist daher nicht gerade "billig" nur 1/3 Leistung zu erhalten.


Wenn man um eine adäquate (Thx @ robbitop) Leistungssteigerung beim Chip zu erreichen mehr zahlen muss als der nächstteurere Speicherbaustein kostet, dann hat sich das gelohnt. Wieviel dabei die Leistung im Vergelich zur Takterhöhung steigt, ist völlig nebensächlich.


Wo?
ATI's r520 war schneller und nicht billig. ATi's r580 war nochmal schneller und nicht billig. Das die unteren Marktsegmente mit Karten gefüllt werden, welche auf dem "High-End" Design aufbauen, belegt nicht deine These.
Trotzdem fährt Nvidia Gewinne ein und holt sich Marktanteile.
Notebookmarkt ist wohl das Synonym, welches die Vorgehensweise von ATi als falsch bezeichnet.

nVs G80 Chip ist mit AFAIK 484mm² Die-Fläche der mit Abstand dickste Grafikchip aller Zeiten. Dass hier viele Margen zu holen sind, wage ich zu bezweifeln. ATi musste mit R5xx einen Kompromiss eingehen, da R400 nicht die erhoffte Leistung lieferte, während nV mit dem größtenteils auf NV40 basierenden G70 sehr billig produzieren konnte - das wirkt sich natürlich auch auf den Gewinn aus. Der 512-bit Bus wird ohnehin nur im High-End-Markt verwendet, ich sehe hier also keinen Zusammenhang was die Margen in anderen Sektoren betrifft.

Ailuros
2006-12-16, 20:36:38
Das ist mir bewusst. Trotzdem würde niemand den 256-bit Bus des R300 als Fehler ansehen. Ganz im Gegenteil, nV zog innerhalb kürzester Zeit nach, und ich glaube, dass wird auch diesmal der Fall sein.

Nur ist trotzdem Dein Beispiel total verkorkst weil NV30 ein problematischer Chip war, waehrend G80 den Pegel ziemlich hoch gesetzt hat.

Deine Aussage, wonach G80 bei deinem Beispiel aus 11% mehr Speichertakt noch 4% mehr Leistung herausholen kann, beweißt, dass G80 eben hin und wieder doch die Bandbreite zu knapp wird. Und es gibt mit Sicherheit noch wesentlich gravierendere Szenen. Wieviel schneller wäre man wohl mit 1.4Ghz GDDR4, oder gar einem 512-bit Bus? 10%? 20%?

Laecherlicher kannst Du Dich gar nicht machen mit der Aussage. G80 ist nicht bandbreiten-limitiert. Wenn eine G8x mit einem breiteren Bus ankommt gibt es dann auch mehr clusters und hoehere Frequenzen. Wenn Dir das jetzt nicht eintickt warum hat es keinen Sinn weiterzudiskuttieren, denn die Debatte ist genauso alt wie die damalige ueber G70 der ja angeblich auch Bandbreiten-limitiert war. Hingegen liefert ja X1950XTX gegen X1900XTX einen monstroesen Leistungsunterschied dank 1.0GHz GDDR4....yeahrightsureok :rolleyes:

Ich weiß es nicht.

Du bist Dir aber "sicher" dass ein 512bus eine "Pflicht" sein muss ja?

Tja, wenn der 512-bit Bus wirklich total nutzlos wäre, hätte man ihn mit Sicherheit nicht implementiert.

Fuer die Zukunft ist er sicher nicht nutzlos. Die Margen lassen aber trotzdem gruessen ;)

Man sollte hier IMHO erstmal ausgiebige Leistungsmessungen abwarten, bevor man urteilt.

:biggrin:

Das ist doch völlig irrelevant.

Genauso irrelevant dass man den Unterschied in Echtzeit nicht bemerken kann vielleicht? :|

seahawk
2006-12-16, 20:54:44
Ein High-End-Chip wie R600 muss nicht billig, sondern vorallem schnell sein. Die Margen holt man sich woanders.

Das Mark für die absolute Topversion evtl. gelten, aber die gängigsten High-End-Chips sind die kleineren Brüder (also XL,XL,GT,GTS) und sie sind preissensibel. Und da sehe ich momentan riesige Vorteile für NV in ihren Möglichkeiten.

Bis der R600 im Laden liegt nähert sich G80 dem Ende seines Lebenszykluses und es ist sicher wahrscienlich, dass NV da noch einige Varianten in der Hinterhand hat.

Das PCB der GTS könnte ja auch einen vollen (niedriger getakteten) G80 aufnehmen. Nun stellen wir uns mal einen 8800GT vor. Voller G80 Chip, 50mhz weniger Takt als GTX, 768MB 100Mhz weniger Takt als GTX. Hohe Wahrscheinlichkeit das Ding auf GTX Niveau zu bekommen und für 300-350 Euro.

ATI wird mehr Probleme haben ihre R600 Varianten abzugrenzen. Die GDDR3 Variante dürfte nämlich bei gleichen Chiptakt und einem unbeschnittenen Chip keine relevanten NAchteile zum Topmodell haben. .

reunion
2006-12-16, 20:55:50
Nur ist trotzdem Dein Beispiel total verkorkst weil NV30 ein problematischer Chip war, waehrend G80 den Pegel ziemlich hoch gesetzt hat.


Darum ging es in meinen Beispiel aber nicht. Es ging darum, dass R300 auch mit einem 128-bit Bus ausreichend bestückt gewesen wäre, trotzdem hat ATi ihm einen 256-bit Bus verpasst. Damals hat sich niemand über die möglichen Margen gesorgt, sondern über den zusätzlichen Leistungsgewinn gefreut.


Laecherlicher kannst Du Dich gar nicht machen mit der Aussage. G80 ist nicht bandbreiten-limitiert. Wenn eine G8x mit einem breiteren Bus ankommt gibt es dann auch mehr clusters und hoehere Frequenzen. Wenn Dir das jetzt nicht eintickt warum hat es keinen Sinn weiterzudiskuttieren, denn die Debatte ist genauso alt wie die damalige ueber G70 der ja angeblich auch Bandbreiten-limitiert war. Hingegen liefert ja X1950XTX gegen X1900XTX einen monstroesen Leistungsunterschied dank 1.0GHz GDDR4....yeahrightsureok :rolleyes:


Ja, G80 ist nur selten bandbreitenlimitiert, was anderes habe ich auch nirgends behauptet. R580 ist noch weit weniger bandbreitenlimitiert, trotzdem konnte er von 1Ghz GDDR4 RAM profitieren, wenn auch nicht übermäßig. Es geht mir schlicht darum, dass eine Bandbreitenlimitierung eben nicht abrupt, sondern fließend verläuft.


Du bist Dir aber "sicher" dass ein 512bus eine "Pflicht" sein muss ja?


Das habe ich nirgends gesagt. Ich habe nur gesagt, dass es eine Pflicht wäre, falls ATi dasselbe Füllraten/Bandbreitenverhältnis wie bei R580 anstrebt.


Genauso irrelevant dass man den Unterschied in Echtzeit nicht bemerken kann vielleicht? :|

Es ist irrelevant im Bezug auf die Messung selbst.

seahawk
2006-12-16, 20:57:37
R300 hatte einen 256Bit Bus, weil man wußte, dass dieser über die Lebenszeit von DX9 notwendig ist. Man konnte so die Refreshs und sogar die Nachfolger unverändert lassen.

reunion
2006-12-16, 21:06:27
Das Mark für die absolute Topversion evtl. gelten, aber die gängigsten High-End-Chips sind die kleineren Brüder (also XL,XL,GT,GTS) und sie sind preissensibel. Und da sehe ich momentan riesige Vorteile für NV in ihren Möglichkeiten.


Ich nicht.


Bis der R600 im Laden liegt nähert sich G80 dem Ende seines Lebenszykluses und es ist sicher wahrscienlich, dass NV da noch einige Varianten in der Hinterhand hat.


Das macht den Chip auch nicht billiger.


ATI wird mehr Probleme haben ihre R600 Varianten abzugrenzen. Die GDDR3 Variante dürfte nämlich bei gleichen Chiptakt und einem unbeschnittenen Chip keine relevanten NAchteile zum Topmodell haben. .

Warum sollte ATi bei kleiner Variaten nicht auch den Speicherbus beschneiden, oder gewisse Teile deaktivieren können?

R300 hatte einen 256Bit Bus, weil man wußte, dass dieser über die Lebenszeit von DX9 notwendig ist. Man konnte so die Refreshs und sogar die Nachfolger unverändert lassen.

Das könnte man genauso auf R600 ummünzen. Wobei ich es für fraglich halte, ob dieser für DX9 wirklich notwendig war.

Winter[Raven]
2006-12-16, 21:07:49
Das Mark für die absolute Topversion evtl. gelten, aber die gängigsten High-End-Chips sind die kleineren Brüder (also XL,XL,GT,GTS) und sie sind preissensibel. Und da sehe ich momentan riesige Vorteile für NV in ihren Möglichkeiten.

Ack ... Nvidia sollte derzeit mehr als fieses Grinzen im Gesicht haben... derzeit läuft alles shcon fast wie am Schnürchen.

@ Ailuros

Nicht mit ATI's Potential, Resourcen und Engineering Talenten.

Du spielst ja nicht zum ersten Mal auf eine "mögliche" Überlegenheit seitens ATi an, Nvidia richtig ins Schwitzen zu bringen. Kannste mal bitte es klären? Danke :)

LovesuckZ
2006-12-16, 21:08:58
Wenn man um eine adäquate (Thx @ robbitop) Leistungssteigerung beim Chip zu erreichen mehr zahlen muss als der nächstteurere Speicherbaustein kostet, dann hat sich das gelohnt.

Diese Betrachtung zieht nicht den Kostenfaktor mit ein.
Abgesehen davon, dass es nur gelten würde, wenn eine es eine vollständige Speicherlimitierung geben würde.
Imo ist es aber beim G80 nicht so, da er vom höheren Takt ("Systemtakt") immernoch stärker profitiert.

Wieviel dabei die Leistung im Vergelich zur Takterhöhung steigt, ist völlig nebensächlich.

Es muss wirtschaftlich sein, den nächsten Schritt zu gehen.
Natürlich wäre es logischer, die Bandbreite zu erhöhen, wenn die Kosten geringer wären. Aber wenn selbst diese eine gewissen Punkt überschreiten, müsste sich überlegt werden, ob nicht auf einen anderen Zeitpunkt gewartet wird.

nVs G80 Chip ist mit AFAIK 484mm² Die-Fläche der mit Abstand dickste Grafikchip aller Zeiten. Dass hier viele Margen zu holen sind, wage ich zu bezweifeln.

Ich denke, Nvidia wird eher konservativ an den G80 gegangen sein wird und ihn mit einem guten Gewissen produzieren. Natürlich ist der Gewinn geringer als beim G71, aber er wird wohl hochgenug sein, dass die Chefs sich beruhigt zurücklehnen können.

Der 512-bit Bus wird ohnehin nur im High-End-Markt verwendet, ich sehe hier also keinen Zusammenhang was die Margen in anderen Sektoren betrifft.

Es ist das Design, welches auch in den größeren Märkten verwendet wird. So baut der NV43 auf dem NV40 auf, sowie der G73 auf den G70. Beide Karten haben ein sehr gutes Preis/Leistungsverhältnis für Nvidia gehabt und ATi das Leben schwer gemacht. Deren Lösungen waren nicht nur teurer, sondern auch nicht viel schneller.
Und der Mobilemarkt: Seit dem NV40 hat ATi kaum HighEnd Chips geliefert bzw waren sie verfügbar. 6800U, 7800, 7900. Von ATi gab es vereinzelnte X800 Karten und einen Hersteller mit einer 12-PP X1800 Karte.
Das r5xx Design war nicht konkurrenzfähig als es in Märkte ging, wo nicht abseits aller Wirtschaftlichkeit gearbeitet werden kann.

robbitop
2006-12-16, 21:09:51
Beide IHVs verfügen über sehr ähnlich starkes Know How, Man Power und F&E Ressourcen. Lediglich die Strategien unterscheiden sich derzeit.

Ailuros
2006-12-16, 21:21:47
Darum ging es in meinen Beispiel aber nicht. Es ging darum, dass R300 auch mit einem 128-bit Bus ausreichend bestückt gewesen wäre, trotzdem hat ATi ihm einen 256-bit Bus verpasst. Damals hat sich niemand über die möglichen Margen gesorgt, sondern über den zusätzlichen Leistungsgewinn gefreut.

Wobei die Margen fuer NV30 miserabel bis unterirdisch waren, wie schwer ist es genau diese Kleinigkeit zu verstehen? Natuerlich hat sich keiner um die R300 Margen gesort wenn man in einem 80:20 Verhaeltnis im high end zur Konkurrenz verkauft :|

Ja, G80 ist nur selten bandbreitenlimitiert, was anderes habe ich auch nirgends behauptet. R580 ist noch weit weniger bandbreitenlimitiert, trotzdem konnte er von 1Ghz GDDR4 RAM profitieren, wenn auch nicht übermäßig.

Er zeigt ueberhaupt keine Anzeichen von Bandbreiten-limitierung; wenn ich den chip zu stark stresse kommen andere Flaschenhaelse zum Vorschein und zusaetzliche Bandbreite wuerde gleich gar keinen Unterschied machen.

Es geht mir schlicht darum, dass eine Bandbreitenlimitierung eben nicht abrupt, sondern fließend verläuft.

Nochmal G80 zeigt keine Anzeichen eines unbalancierten chips was die Bandbreite betrifft. Der Treiber ist der groesste Flaschenhals momentan und da schlummern noch einige Blasen rum.


Das habe ich nirgends gesagt. Ich habe nur gesagt, dass es eine Pflicht wäre, falls ATi dasselbe Füllraten/Bandbreitenverhältnis wie bei R580 anstrebt.

Ich kann Dir leider nicht sagen wie die Fuellrate auf R600 aussieht, aber ich werde schon Grund haben mich zu wundern.

Es ist irrelevant im Bezug auf die Messung selbst.

Es ist eben nicht irrelevant; nur weil Du 4% als eine wichtige Nummer aus welchem Grund auch immer empfindest heisst es immer noch nicht dass so ein Unterschied ueberhaupt der Rede Wert ist. Da der ca. 3:1 Trend sich auf G80 wiederholt, heisst es eben dass mit 20% mehr Bandbreite die Leistung um 6+% steigt.

Weder 2 fps noch 4 oder sogar 7% garantieren Dir Spielbarkeit wenn diese nicht von Anfang vorhanden ist und schon gar nicht einen spuerbaren Unterschied in Echtzeit. Fehlt diese "irrelevant" Kleinigkeit, ist die Steigerung auch total nutzlos, egal ob Du es jetzt mit Absicht uebersehen willst oder nicht.

Ailuros
2006-12-16, 21:26:59
Das macht den Chip auch nicht billiger.

4 Monate Vorsprung ergibt bessere yields, tonnenweise mehr OEM Deals, respin Moeglichkeiten und weiss der Geier was noch. Was billiger sein wird, was mehr Strom verbraucht und was besser skalieren kann und warum werden wir schon sehen.

Warum sollte ATi bei kleiner Variaten nicht auch den Speicherbus beschneiden, oder gewisse Teile deaktivieren können?

Je kleiner die Anzahl der Einheiten, desto nachteiliger wird jegliche Beschneidung. Der RV530 laesst gruessen.

dargo
2006-12-16, 21:35:42
Das PCB der GTS könnte ja auch einen vollen (niedriger getakteten) G80 aufnehmen. Nun stellen wir uns mal einen 8800GT vor. Voller G80 Chip, 50mhz weniger Takt als GTX, 768MB 100Mhz weniger Takt als GTX. Hohe Wahrscheinlichkeit das Ding auf GTX Niveau zu bekommen und für 300-350 Euro.

Sorry, aber deine Preisvorstellung ist Quatsch. Dann müsste eine GTS bei 250-300€ liegen.


Es muss wirtschaftlich sein, den nächsten Schritt zu gehen.

Schon mal an den Refreshchip vom R600 gedacht?
Da muss ATI nichts am SI ändern, er reicht einfach 1,4Ghz GDDR4 draufzuklatschen und gut ist - beachtliche 179,2GB/s.

Coda
2006-12-16, 21:46:25
Da muss ATI nichts am SI ändern, er reicht einfach 1,4Ghz GDDR4 draufzuklatschen und gut ist - beachtliche 179,2GB/s.

Also wenn man den Speichercontroller skalierbar macht wie nVIDIA bei G80 dann ist das ändern der SI-Breite in Rahmen eines Refreshes absolut kein Problem ;) (*hint*)

LovesuckZ
2006-12-16, 21:50:16
Da muss ATI nichts am SI ändern, er reicht einfach 1,4Ghz GDDR4 draufzuklatschen und gut ist - beachtliche 179,2GB/s.

Ähm, ja...
Das ist aber nicht wirklich praktisch, da ein Refresh meisten Änderungen beinhaltet, die ein Redesign benötigen oder sinnvoll machen. Warum also nicht hier das Speicherinterface verbreiten?
ATi hat doch auch nicht den r520 zwei Recheneinheiten pro Pipeline deaktiviert, um sie beim Refresh einfach auf "1" setzen zu müssen.

Ailuros
2006-12-16, 21:50:35
Also wenn man den Speichercontroller skalierbar macht wie nVIDIA bei G80 dann ist das ändern der SI-Breite in Rahmen eines Refreshes absolut kein Problem ;) (*hint*)

ROFL :D Dabei imponieren bis jetzt komischerweise keinem die sehr merkwuerdigen 320bit der 8800GTS ;)

Ailuros
2006-12-16, 21:51:46
Ähm, ja...
Das ist aber nicht wirklich praktisch, da ein Refresh meisten Änderungen beinhaltet, die ein Redesign benötigen oder sinnvoll machen. Warum also nicht hier das Speicherinterface verbreiten?
ATi hat doch auch nicht den r520 zwei Recheneinheiten pro Pipeline deaktiviert, um sie beim Refresh einfach auf "1" setzen zu müssen.

Weil das ring-stop-dingsbums nicht so flexibel ist wie der memory controller von NV?

dargo
2006-12-16, 21:53:26
Also wenn man den Speichercontroller skalierbar macht wie nVIDIA bei G80 dann ist das ändern der SI-Breite in Rahmen eines Refreshes absolut kein Problem ;) (*hint*)
Was heißt hier skalierbar?

PS: Was mich hier an der ganzen Diskussion ärgert ist, dass einige ständig das 512Bit SI mit super hohen Kosten gleichsetzen. Mich würde mal interessieren woher sie das wissen? Oder haben wir hier Mitarbeiter von NV und ATI? :|

Ailuros
2006-12-16, 21:57:08
Mein NDA laeuft in 2009 aus ;)

Was heißt hier skalierbar?

Das man beliebig zwischen 1*64 und 8*64 spielen kann vielleicht?

Coda
2006-12-16, 21:57:54
Was heißt hier skalierbar?

nVIDIA kann G8x-Chips wohl mit n*64 bit-SIs bauen ohne viel rumpfuschen zu müssen. Das Design sieht zumindest so aus.

dargo
2006-12-16, 21:58:00
Das ist aber nicht wirklich praktisch, da ein Refresh meisten Änderungen beinhaltet, die ein Redesign benötigen oder sinnvoll machen. Warum also nicht hier das Speicherinterface verbreiten?


Auf der einen Seite sagt du ständig wie teuer ein breiteres SI ist und jetzt das. :|

Ich bin mir jetzt nicht sicher, aber war es nicht so, dass das PCB der G7800GTX 512MB verdammt ähnlich der G7900GTX war?
Ich denke mal, der Sprung auf die G7900GTX war so für NV relativ billig.

Was spricht also dagen etwas ähnliches beim R680 zu praktizieren?

Ailuros
2006-12-16, 22:01:07
Alle G7x GPUs hatten ein 256SI. Keine Ahnung auf was Du hinaus willst.

Demirug
2006-12-16, 22:03:46
nVIDIA kann G8x-Chips wohl mit n*64 bit-SIs bauen ohne viel rumpfuschen zu müssen. Das Design sieht zumindest so aus.

Ja aber wenn die Crossbar wirklich eine echte Crossbar ist steigt die Komplexität nicht linear. Damit wird jeder weitere Speicherkanal immer teurer.

Coda
2006-12-16, 22:03:53
PS: Was mich hier an der ganzen Diskussion ärgert ist, dass einige ständig das 512Bit SI mit super hohen Kosten gleichsetzen. Mich würde mal interessieren woher sie das wissen? Oder haben wir hier Mitarbeiter von NV und ATI? :|

Das Problem bei PCBs ist dass man dort im Gegensatz zum Chip die Leiterbahnen nicht einfach kleiner machen kann. D.h. es gibt keine Fertigungsprozesse mit denen man skalieren könnte. Wenn man mehr Pins nach außen führen will braucht man einfach ein komplexeres PCB und das kostet mehr. Wieviel steht ja erstmal nicht zur Diskussion. Zudem habe ich mitbekommen dass ab einer bestimmten Layer-Anzahl Massenfertigung nicht mehr so einfach möglich ist, weil die Maschinen nicht darauf ausgelegt sind.

Entweder die PCB-Fertigung hat soviel Preisdruck und Konkurenzkampf dass es inzw. wirklich so billig ist dass es sich lohnt, oder man verkauft das High-End einfach teurer als bisher. Eine 8800 GTX ist ja auch nicht billig.

Inzw. bin ich alledings so weichgekocht dass ich DAAMIT für verrückt genug halte R600 mit 512-Bit-SI zu bringen.

Ja aber wenn die Crossbar wirklich eine echte Crossbar ist steigt die Komplexität nicht linear. Damit wird jeder weitere Speicherkanal immer teurer.

Das ist halt die Frage... nVIDIA hat sich dazu ja nicht explizit geäußert. Vielleicht haben sie ja nen Bus implementiert und grinsen sich wieder insgeheim einen ;)

Demirug
2006-12-16, 22:06:03
Das ist halt die Frage... nVIDIA hat sich dazu ja nicht explizit geäußert. Vielleicht haben sie ja nen Bus implementiert und grinsen sich wieder insgeheim einen ;)

Vielleicht haben sie sich den Ring von CELL „geklaut“

LovesuckZ
2006-12-16, 22:08:11
Ich bin mir jetzt nicht sicher, aber war es nicht so, dass das PCB der G7800GTX 512MB verdammt ähnlich der G7900GTX war?
Ich denke mal, der Sprung auf die G7900GTX war so für NV relativ billig.

Die 512MB 7800GTX war ja ein "No-Go", abgesehen von den paar Stück, welche in den Handel kam.
Und hier war nicht das PCB der Übeltäter sondern die selektierten G70 Chips mit dem teuren Speichersteinen (immerhin 1,1ns Speichersteine, welche auch auf den G80 zur Vrwendung kommen).

Was spricht also dagen etwas ähnliches beim R680 zu praktizieren?

Ich finde das Argument von Ailuros sehr schlüssig. Wenn das Design keine so gute Skalierbarkeit wie beim G80 zulässt, wird man wohl einige Dinge von vornerein festlegen müssen. Vielleicht auch das Speicherinterface.
Ansonsten hat Nvidia den Sprung vom NV30 -> NV35 auch das Speicherinterface verbreitet. Hier hat man also erst den Refreshchip mit dem breiteren Speicherinterface ausgestattet.

Coda
2006-12-16, 22:08:57
Vielleicht haben sie sich den Ring von CELL „geklaut“

Möglich wärs. War der Ring in Cell eigentlich wirklich ein Novum, oder wurde das einfach nur so aufgeplustert in den Medien von IBM/Sony?

Irgendwie finde ich dass das Konzept dahinter recht eingängig ist...

Was spricht also dagen etwas ähnliches beim R680 zu praktizieren?

Wieso eigentlich immer R680? Nachdem ATI es endlich geschafft hat wieder zu ihrem "normalen" Codenamenschema zurückzufinden wird der Refresh wohl eher R650 getauft :)

dargo
2006-12-16, 22:12:24
Alle G7x GPUs hatten ein 256SI. Keine Ahnung auf was Du hinaus willst.
Ich meine das PCB und nicht SI. Das war bezogen auf:
Das ist aber nicht wirklich praktisch, da ein Refresh meisten Änderungen beinhaltet, die ein Redesign benötigen oder sinnvoll machen. Warum also nicht hier das Speicherinterface verbreiten?
LovesuckZ meinte - wieso sollte NV das SI beim Refresh vom G80 nicht verbreitern.
Warum ist NV nicht direkt auf 512Bit SI beim G80 gegangen wenn man für den Refresh 512Bit SI plant?

Coda
2006-12-16, 22:13:13
Weil das PCB eben nicht nur Centbeträge sind...

Gast
2006-12-16, 22:15:41
Warum ist NV nicht direkt auf 512Bit SI beim G80 gegangen wenn man für den Refresh 512Bit SI plant?
Möglicherweise die gleiche Strategie wie bei der 7800GTX. Aufgrund des zeitlichen Vorsprungs ist es einfach nicht nötig alles zu geben und man spart lieber Geld. Hinterher kann man ja immer noch an die Grenzen gehen.

dargo
2006-12-16, 22:16:55
Ansonsten hat Nvidia den Sprung vom NV30 -> NV35 auch das Speicherinterface verbreitet. Hier hat man also erst den Refreshchip mit dem breiteren Speicherinterface ausgestattet.
Bitte keine Vergleiche von NV30 -> NV35.
NV30 war eine Gurke und ich hoffe sowas sehen wir nie wieder.

Demirug
2006-12-16, 22:17:01
Möglich wärs. War der Ring in Cell eigentlich wirklich ein Novum, oder wurde das einfach nur so aufgeplustert in den Medien von IBM/Sony?

Die Grundidee ist schon wesentlich älter. Letzten Endes ist ja auch ATIs Ringbus eine wenn auch inkonsequente Variante davon. Ich erinnere mich an eine Beschreibung aus einem alten Elektronikmagazin. Dabei gibt es übrigens noch eine Interessante Nebenwirkung. Neben der Verwendung innerhalb eines Chips wurde dort auch beschrieben wie man damit mehrere Chips und sogar Platinen verbinden kann.

Gast
2006-12-16, 22:18:13
Der HighEnd Markt zeichnet sich zwar nicht durch hohe Umsätze aber dafür durch hohe Margen aus.

umgekehrt, die margen sind im highend sehr gering, die anteile am umsatz aber gar nicht so wenig.

LovesuckZ
2006-12-16, 22:18:43
Bitte keine Vergleiche von NV30 -> NV35.
NV30 war eine Gurke und ich hoffe sowas sehen wir nie wieder.

Es geht nicht um die Leistung sondern um die Änderung, welche beim Refreshchip vorgenommen wurden sind.

dargo
2006-12-16, 22:19:05
Wieso eigentlich immer R680? Nachdem ATI es endlich geschafft hat wieder zu ihrem "normalen" Codenamenschema zurückzufinden wird der Refresh wohl eher R650 getauft :)
Sorry, ich habe keine Ahnung wie der R600 Refresh heißen soll. Habe einfach eine Zahl <R700 genannt. :)

Coda
2006-12-16, 22:19:11
Die Grundidee ist schon wesentlich älter.

Hab ich mir gedacht.

dargo
2006-12-16, 22:21:16
Weil das PCB eben nicht nur Centbeträge sind...
Ja, aber das ist doch meine Rede.
Ich sehe das so - ATI geht direkt auf 512Bit SI um am PCB vom (von mir aus) R650 Geld zu sparen.

Möglicherweise die gleiche Strategie wie bei der 7800GTX. Aufgrund des zeitlichen Vorsprungs ist es einfach nicht nötig alles zu geben und man spart lieber Geld. Hinterher kann man ja immer noch an die Grenzen gehen.
Wieso die gleiche Strategie?
Sowohl die G7800GTX 512MB als auch die G7900GTX haben beide ein 256Bit SI.

Es geht nicht um die Leistung sondern um die Änderung, welche beim Refreshchip vorgenommen wurden sind.
Jetzt seien wir mal ehrlich - hatte NV eine andere Wahl? :rolleyes:
Deswegen bitte keine Vergleiche mit NV30.

seahawk
2006-12-16, 22:24:00
Sorry, aber deine Preisvorstellung ist Quatsch. Dann müsste eine GTS bei 250-300€ liegen.

Wo lag die 7800GTO ?

Winter[Raven]
2006-12-16, 22:25:27
Ja, aber das ist doch meine Rede.
Ich sehe das so - ATI geht direkt auf 512Bit SI um am PCB vom (von mir aus) R650 Geld zu sparen.

?
Darf ich mir die Logik bitte ausleihen? Warum sollte ATI am PCB des R650 im Vergleich zum R600 sparen?

Coda
2006-12-16, 22:26:58
Er meint wohl die Entwicklungskosten. Die tragen zwar auch zu den höheren Kosten eines komplexen PCBs bei sind aber sicher nicht das Hauptproblem wenn man Chips mit 700 Mio. Transistoren entwickeln kann ;)

Ja, aber das ist doch meine Rede.
Ich sehe das so - ATI geht direkt auf 512Bit SI um am PCB vom (von mir aus) R650 Geld zu sparen.

Sorry ich komm auch nicht mit. Außer ihr Chipdesign ist so unflexibel, dass sie das nicht so einfach ändern können - Mag sein. Spricht aber nicht gerade für sie.

dargo
2006-12-16, 22:34:29
Wo lag die 7800GTO ?
Eine G7800GTO ist aber ein schlechter Vergleich:

1. Gabs sie nur von MSI.
2. Verdammt kurz verfügbar (man hatte wohl zuviele G71 Chips auf Lager).

Er meint wohl die Entwicklungskosten. Die tragen zwar auch zu den höheren Kosten eines komplexen PCBs bei sind aber sicher nicht das Hauptproblem wenn man Chips mit 700 Mio. Transistoren entwickeln kann ;)

Das war eigendlich mein Gedanke. Gehen wir davon aus, der R650 ist pinkompatibel zum R600. Dann könnte ATI halt dann das "alte" PCB weiterverwenden. Man müsste eventuell halt nur noch einen schnelleren GDDR4 Vram verbauen.

Coda
2006-12-16, 22:40:12
GDDR4 ist nur leider nicht pinkompatibel zu GDDR3 ;)

dargo
2006-12-16, 22:42:26
GDDR4 ist nur leider nicht pinkompatibel zu GDDR3 ;)
Wie sicher ist es, dass der R600 mit GDDR3 überhaupt kommt? ;)

Gast
2006-12-16, 23:32:36
in den kommenden 3 monaten kommt neue generation von games raus (Crysis)
und wenn dann eine ATI R600 doppelt so schnell ist wie die 8800Gtx (welche dann bandbreiten limitiert ist) dann haben die alles richtig gemacht, dann werden alle im chor sagen: man kann nicht genug bandbreite haben...

Coda
2006-12-16, 23:34:21
Genau so wirds sein :up:

Gast
2006-12-16, 23:43:10
Genau so wirds sein :up:
*g :)

deekey777
2006-12-16, 23:52:43
Wie sicher ist es, dass der R600 mit GDDR3 überhaupt kommt? ;)
Wie sicher ist es, dass der R600 mit GDDR4 kommt?;)

dargo
2006-12-17, 00:16:16
Wie sicher ist es, dass der R600 mit GDDR4 kommt?;)
Sicher ist gar nichts. Aber unwahrscheinlich halte ich den GDDR4 mit 1000Mhz für den R600 nicht. So teuer kann er gar nicht mehr sein wenn es eine X1950XTX ab ~330€ gibt.

Ailuros
2006-12-17, 00:17:02
in den kommenden 3 monaten kommt neue generation von games raus (Crysis)
und wenn dann eine ATI R600 doppelt so schnell ist wie die 8800Gtx (welche dann bandbreiten limitiert ist) dann haben die alles richtig gemacht, dann werden alle im chor sagen: man kann nicht genug bandbreite haben...

Crysis? ATI kann froh sein dass dieses erst im April kommen soll LOL ;)

deekey777
2006-12-17, 00:21:17
Crysis? ATI kann froh sein dass dieses erst im April kommen soll LOL ;)
Ich als Far-Cry-Kiddie wäre glücklich, wenn das Spiel in den nächsten sechs Monaten kommt. Näheres im Crysis-Thread.

robbitop
2006-12-17, 00:42:26
Die Grundidee ist schon wesentlich älter. Letzten Endes ist ja auch ATIs Ringbus eine wenn auch inkonsequente Variante davon. Ich erinnere mich an eine Beschreibung aus einem alten Elektronikmagazin. Dabei gibt es übrigens noch eine Interessante Nebenwirkung. Neben der Verwendung innerhalb eines Chips wurde dort auch beschrieben wie man damit mehrere Chips und sogar Platinen verbinden kann.
Welche Bandbreite wäre bei so einer Chip oder auch Platinenverbindung möglich? Wenn es mehrere 100 GB/s wären... ;)


umgekehrt, die margen sind im highend sehr gering, die anteile am umsatz aber gar nicht so wenig.
Da erzählte man mir bei Sapphire ganz andere Dinge.

StefanV
2006-12-17, 00:49:55
Sicher ist gar nichts. Aber unwahrscheinlich halte ich den GDDR4 mit 1000Mhz für den R600 nicht. So teuer kann er gar nicht mehr sein wenn es eine X1950XTX ab ~330€ gibt.
Und woher weißt du nun, was EIN GDDR4 Chip MEHR kostet als EIN GDDR3 Chip??

Bedenke:
Ein gesparter Cent sind bei 100 Exemplaren nur ein Euro.
Bei Einer Million exemplaren ist das schon a bisserl mehr...


@robbitop
Schonmal was von Hyper Transport gehört? ;)

Coda
2006-12-17, 01:06:31
Hypertransport macht auch "nur" 20GiB/s bei einer Land-Width von 32 Bit.

Fetza
2006-12-17, 01:12:51
Und woher weißt du nun, was EIN GDDR4 Chip MEHR kostet als EIN GDDR4 Chip??

Bedenke:
Ein gesparter Cent sind bei 100 Exemplaren nur ein Euro.
Bei Einer Million exemplaren ist das schon a bisserl mehr...


@robbitop
Schonmal was von Hyper Transport gehört? ;)

du meinst wohl gddr4 vs gddr3.;)

robbitop
2006-12-17, 01:24:47
@robbitop
Schonmal was von Hyper Transport gehört? ;)
Hypertransport ist lächerlich langsam für die Zwecke, die mir gerade vorschweben.

desert
2006-12-17, 02:40:42
Crysis? ATI kann froh sein dass dieses erst im April kommen soll LOL ;)

diese aussage finde ich viel interessanter, wenn ich nur wüsste wie sie deuten soll ;)

Gast
2006-12-17, 03:11:45
Hypertransport macht auch "nur" 20GiB/s bei einer Land-Width von 32 Bit.
Das hast du schön formuliert :)

Gast
2006-12-17, 06:13:06
Crysis? ATI kann froh sein dass dieses erst im April kommen soll LOL ;)

Ich als Ati Fan (und schwarzmaler) bekomme bei solchen Aussagen immer Augenzucken :D
Also wenn Ati bei Crysis Probleme bekommt, dann ärgere ich mich grün :D

Ailuros
2006-12-17, 07:23:34
Ich als Ati Fan (und schwarzmaler) bekomme bei solchen Aussagen immer Augenzucken :D
Also wenn Ati bei Crysis Probleme bekommt, dann ärgere ich mich grün :D

Ich erwarte natuerlich keine Probleme fuer R600; aber wenn ich schon lese dass angeblich R600 zweimal so schnell laufen soll dank so und so viel mehr Bandbreite als G80, muss ich natuerlich lachen.

Crysis wurde bei der G80 launch party auf der 8800GTX vorgezeigt; waere es zur gleichen Zeit mit der GPU auf Regalen erschienen, haette NV so manche mehr GPU verkaufen koennen.

***edit: nur ganz so nebenbei:

http://www.beyond3d.com/forum/showpost.php?p=767373&postcount=118

http://www.beyond3d.com/reviews/ati/r580/int/

Gast
2006-12-17, 08:35:56
Ich erwarte natuerlich keine Probleme fuer R600; aber wenn ich schon lese dass angeblich R600 zweimal so schnell laufen soll dank so und so viel mehr Bandbreite als G80, muss ich natuerlich lachen.

Ach so meintest Du das. Da hat der Schwarzmaler wieder missinterpretiert :)

2 mal so schnell wie G80 ist natürlich unsinn.

seahawk
2006-12-17, 08:41:20
Eine G7800GTO ist aber ein schlechter Vergleich:

1. Gabs sie nur von MSI.
2. Verdammt kurz verfügbar (man hatte wohl zuviele G71 Chips auf Lager).

.

Nein, die GTO ist ein guter Vergleich. Zu dem Zeitpunkt ist bei NV das Midrangeangebot in den Regalen und der Refresh der G80 um die Ecke. Im Low- und Midrangebreich gibt es keine Konkurrenz von ATI und der G80 läuft aus. Man muss es nicht so extrem wie bei der GTO machen, aver eine GT mit vollem Chip auf dem GTS PCB könnte ATI fies in Verlegenheit bringen.

reunion
2006-12-17, 09:48:18
Diese Betrachtung zieht nicht den Kostenfaktor mit ein.
Abgesehen davon, dass es nur gelten würde, wenn eine es eine vollständige Speicherlimitierung geben würde.
Imo ist es aber beim G80 nicht so, da er vom höheren Takt ("Systemtakt") immernoch stärker profitiert.

Es muss wirtschaftlich sein, den nächsten Schritt zu gehen.
Natürlich wäre es logischer, die Bandbreite zu erhöhen, wenn die Kosten geringer wären. Aber wenn selbst diese eine gewissen Punkt überschreiten, müsste sich überlegt werden, ob nicht auf einen anderen Zeitpunkt gewartet wird.


Natürlich hast du recht, dass man das nicht beliebig fortsetzten kann.


Ich denke, Nvidia wird eher konservativ an den G80 gegangen sein wird und ihn mit einem guten Gewissen produzieren. Natürlich ist der Gewinn geringer als beim G71, aber er wird wohl hochgenug sein, dass die Chefs sich beruhigt zurücklehnen können.


Ich sehe einen verdammt dicken G80, dazu noch einen NVIO-Chip, welcher aufgrund seiner Größe auch nochmal gut 50-100M Transitoren verschlingen dürfte. IMHO wird nV froh sein, wenn der 65nm Prozess einsetzbar ist.


Es ist das Design, welches auch in den größeren Märkten verwendet wird. So baut der NV43 auf dem NV40 auf, sowie der G73 auf den G70. Beide Karten haben ein sehr gutes Preis/Leistungsverhältnis für Nvidia gehabt und ATi das Leben schwer gemacht. Deren Lösungen waren nicht nur teurer, sondern auch nicht viel schneller.


Richtig, nur sehe ich den zusammhang mit dem High-End-Chip hier nicht. ATi war schlicht und einfach immer viel zu spät dran. So war einen X700 mit Sicherheit billiger zu produzieren wie ein NV43, dafür war man zu langsam und zu spät. RV570/RV560: Erst jetzt, wo nV schon die Nachfolgegeneration liefert, kommt ATi mit den Midragechips an - logisch, dass da ein großer Markt lange verloren ging. Dafür war ein RV350 nichtnur deutlich billiger, sondern auch deutlich schneller als vergleichbare nV-Produkte.

Wie es bei der R6xx-Generation sein wird, lässt sich jetzt nur spekulieren. Was man aufgrund der Die-Shots aber schon ziemlich sicher sagen kann, ist, dass R600 flächenmäßig kleiner als G80 sein wird.


Und der Mobilemarkt: Seit dem NV40 hat ATi kaum HighEnd Chips geliefert bzw waren sie verfügbar. 6800U, 7800, 7900. Von ATi gab es vereinzelnte X800 Karten und einen Hersteller mit einer 12-PP X1800 Karte.
Das r5xx Design war nicht konkurrenzfähig als es in Märkte ging, wo nicht abseits aller Wirtschaftlichkeit gearbeitet werden kann.

Es ist richtig, dass man bei der R5xx-Generation für dieselbe Leistung einen höheren Transitorenaufwand betreiben musste, als nV bei der G7x-Serie. Im Mobilmarkt wirkte sich das durch den höheren stromverbrauch natürlich besonders gravierend aus. Dafür hatte man eben auch einige mit Sicherheit sehr transitorenintensive Dinge implementiert, welche bei nV fehlten. Auf jeden Fall blieb ATi auch während der R5xx-Generation stets in der Gewinnzone AFAIK, hier also von nicht wirtschaftlich zu reden, halte ich für etwas hochgegriffen.

Ähm, ja...
Das ist aber nicht wirklich praktisch, da ein Refresh meisten Änderungen beinhaltet, die ein Redesign benötigen oder sinnvoll machen. Warum also nicht hier das Speicherinterface verbreiten?
ATi hat doch auch nicht den r520 zwei Recheneinheiten pro Pipeline deaktiviert, um sie beim Refresh einfach auf "1" setzen zu müssen.
Sorry ich komm auch nicht mit. Außer ihr Chipdesign ist so unflexibel, dass sie das nicht so einfach ändern können - Mag sein. Spricht aber nicht gerade für sie.

Warum sollte man den 512-bit Bus nicht schon bei R600 verwenden, wenn es Sinn macht? Weil nV noch nicht so weit ist? :|

nVIDIA kann G8x-Chips wohl mit n*64 bit-SIs bauen ohne viel rumpfuschen zu müssen. Das Design sieht zumindest so aus.

Es gab schon R300-Karten bei denen nur 128, der möglichen 256-bit aktiviert wurden. Was hier so besonders sein soll, verstehe ich wirklich nicht.

Iwan
2006-12-17, 10:58:53
Wie es bei der R6xx-Generation sein wird, lässt sich jetzt nur spekulieren. Was man aufgrund der Die-Shots aber schon ziemlich sicher sagen kann, ist, dass R600 flächenmäßig kleiner als G80 sein wird.


Dazu müsste man aber auch wissen, wie die Chipausbeute bei der Produktion ist. Es bringt ja nichts einen kleineren Die zu haben wenn viele davon nicht die gewünschten Eigenschaften mitbringen.

Winter[Raven]
2006-12-17, 11:09:38
Warum sollte man den 512-bit Bus nicht schon bei R600 verwenden, wenn es Sinn macht? Weil nV noch nicht so weit ist?

Anders gefragt, was soll am R600 so besonders sein, das es einen 512Bit SI erfordert? Schließlich reicht ein 384 Bit SI bei NV für alles, bzw. für die volle Kompatibilität zu Direct3d 10.

Gast
2006-12-17, 11:09:49
Es ist richtig, dass man bei der R5xx-Generation für dieselbe Leistung einen höheren Transitorenaufwand betreiben musste, als nV bei der G7x-Serie. Im Mobilmarkt wirkte sich das durch den höheren stromverbrauch natürlich besonders gravierend aus. Dafür hatte man eben auch einige mit Sicherheit sehr transitorenintensive Dinge implementiert, welche bei nV fehlten. Auf jeden Fall blieb ATi auch während der R5xx-Generation stets in der Gewinnzone AFAIK, hier also von nicht wirtschaftlich zu reden, halte ich für etwas hochgegriffen.


Das Problem ist aber die Tendenz. In der Gewinnzone konnte man bleiben aber die Tendenz ging abwärts und so ganz 100% stimmt deine Aussage dann auch nicht mehr. ATI verkauft noch immer die R5xx/RV5xx Serie und wird nach AMDs Schätzungen im laufenden Quartal in die roten Zahlen rutschen. War auf der AMD Investor Konferenz zu hören. ATI hat in wichtige Märkten ganz klar den Kürzeren gezogen - vor allem im Mobile. Darf ich daran erinnern, dass Nvidia seit dem letzten Quartal dort jetzt deutlich vor ATI liegt. Früher sah es eher so aus 70% ATI 30% Nvidia.
Das ist schon ein ziemich grandioser Abstieg innerhalb von 12 Monaten. Sie werden das selbe Problem mit der R6xx/RV6xx Serie wieder erleiden. Davon gehe ich schon fast aus. Die Vorzeichen sind wieder genau die gleichen. Wahrscheinlich 4 bis 5 Monate hinter Nvidia bei High End. 4 Monate zu spät mit Midrange. Hoher Aufwand bei R600 um einen 5 Monate alten Chip zu schlagen, was letztlich auch wieder in Zeitverzögerungen resultiert hat. Das wird seine dicken Auswirkungen im Mainstream, Low End und Mobile haben - verlass dich drauf. Diesmal aber mit einem entscheidenden Unterschied: <b> Jetzt führt Nvidia in allen discrete Segmenten vor ATI einschliesslich Mobile.</b>. Die Position lässt sich leichter ausbauen, als jemand anderen als Marktführer abzulösen.
Mir schwahnt böses für ATIs Geschäft und das finde ich schade. Das wird AMD nur mehr darin bestärken das Kostenspielige High End Segment fallen zu lassen.

Warum sollte man den 512-bit Bus nicht schon bei R600 verwenden, wenn es Sinn macht?
Weil nV noch nicht so weit ist? :|

Es gab schon R300-Karten bei denen nur 128, der möglichen 256-bit aktiviert wurden.
Was hier so besonders sein soll, verstehe ich wirklich nicht.

dargo
2006-12-17, 11:10:58
Und woher weißt du nun, was EIN GDDR4 Chip MEHR kostet als EIN GDDR3 Chip??

Bedenke:
Ein gesparter Cent sind bei 100 Exemplaren nur ein Euro.
Bei Einer Million exemplaren ist das schon a bisserl mehr...

Hmm, die Frage wäre halt - was ist billiger?

1. Der schnellste GDDR3 Speicher (900Mhz)
2. Der langsamste GDDR4 Speicher (1100Mhz, eventuell @1000Mhz)

Gast
2006-12-17, 11:11:47
Sorry die letzten 2 Sätze hatte ich beim Quoten vergessen herauszunehmen. Die sind nicht von mir.

Gast
2006-12-17, 11:27:46
']Anders gefragt, was soll am R600 so besonders sein, das es einen 512Bit SI erfordert? Schließlich reicht ein 384 Bit SI bei NV für alles, bzw. für die volle Kompatibilität zu Direct3d 10.

nv macht immer nur das nötigste

nv moto : min leistung,max preis

reunion
2006-12-17, 11:33:30
Das Problem ist aber die Tendenz. In der Gewinnzone konnte man bleiben aber die Tendenz ging abwärts und so ganz 100% stimmt deine Aussage dann auch nicht mehr. ATI verkauft noch immer die R5xx/RV5xx Serie und wird nach AMDs Schätzungen im laufenden Quartal in die roten Zahlen rutschen. War auf der AMD Investor Konferenz zu hören. ATI hat in wichtige Märkten ganz klar den Kürzeren gezogen - vor allem im Mobile. Darf ich daran erinnern, dass Nvidia seit dem letzten Quartal dort jetzt deutlich vor ATI liegt. Früher sah es eher so aus 70% ATI 30% Nvidia.
Das ist schon ein ziemich grandioser Abstieg innerhalb von 12 Monaten.

Dir ist aber schon klar, dass der Hauptgrund dafür die Übernahme von AMD ist? Im Vorquartal musste ATi nur minimale Einbußen im Mobilemarkt hinnehmen (http://www.xbitlabs.com/news/video/display/20060522074653.html), und auch Umsatz und Gewinn gingen in die Höhe. Es gab AFAIK sogar einen neuen Rekordumsatz (http://www.computerbase.de/news/wirtschaft/unternehmen/2006/juni/ati_rekordumsatz_3_quartal/) für das traditionell schwache 3. Quartal. Durch die Übernahme von AMD hat Intel nichtnur den kompletten Chipsatzmarkt für ATi im Intelsegment abgeschnitten, sondern offensichtlich auch viele Notebookhersteller dazu bewogen, auf ein Centrinogerät mit ATi-Grafik zu verzichten. Das sollte sich allerdings in Zukunft dadurch, dass man jetzt seinen Chipsätze unter dem AMD-Label verkaufen darf, sowie durch die stetig steigenden Markanteile von AMD in allen Segmenten IMO langsam wieder einpendeln.

Gouvernator
2006-12-17, 11:37:01
Wenn UT2007 in etwa wie Gears aussehen soll da wird man alle Leistung brauchen die man zusammenkratzen kann, im Vergleich zu Xbox360 werden PC Leute mit 720p ohne AA nicht zufrieden. Bei Ati war es in letzter Zeit so das man ein neues Highend Modell kaufte um alle danach erscheinende Spiele flüssig zu spielen, inklusive 1600x1200. Bei r600 wirds nicht anders sein deshalb die Bandbreite ect.

Gast
2006-12-17, 13:40:16
Bei r600 wirds nicht anders sein deshalb die Bandbreite ect.

Du hast nicht verstanden worums hier eigentlich geht. Für was brauch der R600 die spekulierte extrem hohe Bandbreite, wenn er von der Texel Leistung her ~G80 Niveau erreicht. Viel hilft nunmal nicht viel, deswegen wird die Speicherbandbreite ~100GB/s betragen, ob mit oder ohne 512Bit SI.
Es macht keinen Sinn 150GB/s zur Verfügung zu stellen wenn keine Einheiten vorhanden sind die daraus nutzen ziehen... einfach mal nen Schritt weiterdenken...

BlackBirdSR
2006-12-17, 13:47:26
Du hast nicht verstanden worums hier eigentlich geht. Für was brauch der R600 die spekulierte extrem hohe Bandbreite, wenn er von der Texel Leistung her ~G80 Niveau erreicht. Viel hilft nunmal nicht viel, deswegen wird die Speicherbandbreite ~100GB/s betragen, ob mit oder ohne 512Bit SI.
Es macht keinen Sinn 150GB/s zur Verfügung zu stellen wenn keine Einheiten vorhanden sind die daraus nutzen ziehen... einfach mal nen Schritt weiterdenken...

Ich verstehe auch nicht ganz.
Vielleicht liegt es daran, dass G80 und R600 im Vorraus schon als Gottheiten betrachtet werden, die einfach grandios sein müssen.

deekey777
2006-12-17, 14:11:35
GDDR4 ist nur leider nicht pinkompatibel zu GDDR3 ;)
Die 512-Mbit-Module im 136 Ball FBGA scheinen miteinander pinkompatibel zu sein.

Neos
2006-12-17, 14:15:44
Darüber mach ich mir auch schon die ganze zeit gedanken. Wieso sollten sie ein 512bit SI verbauen und eine doch recht große bandbreite damit schaffen wenn sie sie nicht nutzen? Ich denke das mit dem R600 eine gute grafikkarten generation auf uns zu kommt. Ich glaube nicht das AMD/Ati den preis der Karte unnötig hoch treibt nur um am ende in einer tabelle eine größere zahl an speicherbandbreite dazu schreiben zu können. Vieleicht is es auch wunschdenken und ich bin ein Ati fanboy ;) Ich denke unter anderem auch das ATI sich darauf einstellt mit dem G81 verglichen zu werden und nicht vollkommen in den boden gestampft zu werden.

Coda
2006-12-17, 14:16:48
Du hast nicht verstanden worums hier eigentlich geht. Für was brauch der R600 die spekulierte extrem hohe Bandbreite, wenn er von der Texel Leistung her ~G80 Niveau erreicht. Viel hilft nunmal nicht viel, deswegen wird die Speicherbandbreite ~100GB/s betragen, ob mit oder ohne 512Bit SI.

Vor allem sollte man auch bedenken, dass 512 Bit auch "nur" 1,33x so viel ist wie 384 Bit.

33%. Nicht 100% wie damals NV30 vs. R300. Das sind ganz andere Dimensionen.

dargo
2006-12-17, 14:26:06
Vor allem sollte man auch bedenken, dass 512 Bit auch "nur" 1,33x so viel ist wie 384 Bit.

33%. Nicht 100% wie damals NV30 vs. R300. Das sind ganz andere Dimensionen.
Denke mal ein wenig weiter.

GDDR3@900Mhz mit 384Bit SI
GDDR4@1350Mhz mit 512Bit SI

Und schon hast du deine 100%.

Gast
2006-12-17, 14:26:25
']Anders gefragt, was soll am R600 so besonders sein, das es einen 512Bit SI erfordert? Schließlich reicht ein 384 Bit SI bei NV für alles, bzw. für die volle Kompatibilität zu Direct3d 10.

Ich denk mal für Dx10 compliance reichen auch 64 bit.

2. Ist ja das evtl. Vorhandensein eines 512bit SI ein Fingerzeig auf die Bandbreite die der R600 benötigt/ benötigen könnte.

Coda
2006-12-17, 14:32:44
Denke mal ein wenig weiter.

GDDR3@900Mhz mit 384Bit SI
GDDR4@1350Mhz mit 512Bit SI

Und schon hast du deine 100%.

So wirds aber nicht sein ;)

R600 würde mit der Bandbreite auch nichts anzufangen wissen.

Winter[Raven]
2006-12-17, 14:53:21
2. Ist ja das evtl. Vorhandensein eines 512bit SI ein Fingerzeig auf die Bandbreite die der R600 benötigt/ benötigen könnte.

Nochmal:

Was "kann" ATI den so haben, das solchen Unmengen an Bandbreite bräuchte?

Hvoralek
2006-12-17, 14:59:08
']Nochmal:

Was "kann" ATI den so haben, das solchen Unmengen an Bandbreite bräuchte?Ich sehe da nur zwei Möglichkeiten, etnweder eine brachiale Texelfüllrate oder sehr hohe AA- Modi.

reunion
2006-12-17, 15:03:36
FP32 blending + MSAA

deekey777
2006-12-17, 15:03:38
']Nochmal:

Was "kann" ATI den so haben, das solchen Unmengen an Bandbreite bräuchte?
Ohne zu wissen, welcher Speichertakt verwendet wird?
Ich sehe da nur zwei Möglichkeiten, etnweder eine brachiale Texelfüllrate oder sehr hohe AA- Modi.
Oder weil es besser auf der Verpackung aussieht.
Auch wenn das Beispiel bescheuert ist: Der Xenos hat auch 256 GB/s (Backbuffer-)Bandbreite. Nutzt er diese mit seinen 8 ROPs und 4xMSAA vollständig aus?

reunion
2006-12-17, 15:15:52
Ohne zu wissen, welcher Speichertakt verwendet wird?


Dass das Topmodell GDDR4 haben wird, sollte nach dem Umstieg von R580 klar sein.


Oder weil es besser auf der Verpackung aussieht.


Niemand hat etwas zu verschenken, schon gar nicht im High-End-Sektor, wo jeder Quentchen Leistung Gold wert sein kann.


Auch wenn das Beispiel bescheuert ist: Der Xenos hat auch 256 GB/s (Backbuffer-)Bandbreite. Nutzt er diese mit seinen 8 ROPs und 4xMSAA vollständig aus?

Der Vergleich hinkt gewaltig. Wenn man schon eDRAM einsetzt, dann geht man hier natürlich keine Kompromisse ein. Vorallem da die Kosten dadurch im Gegensatz zum einem externen Interfance kaum steigen.

Coda
2006-12-17, 15:19:00
FP32 blending + MSAA

Wozu in aller Welt braucht man FP32-Rendertargets? Das ist ja wohl maßlos übertrieben für alles in den nächsten zwei Jahres.

deekey777
2006-12-17, 15:20:44
Der Vergleich passt einwandfrei. Wozu 150 GB/s Bandbreite, wenn diese unnötig ist? Warum denken alle, dass es umbedingt GDDR4 mit höchsten Takt ist? Mit 900 MHz GDDR3 hat man schon über 112 GB/s, wozu mehr? Das verursacht nur unnötige Kosten, und der R600 wird nicht billig sein. Genau wie ein PCB mit 512-bitiger Speicheranbindung.
Man darf auch nicht vergessen, dass man auch etwas für den Refresh im Ärmel haben muss. Oder kommt gleich externes 768 bit SI?

reunion
2006-12-17, 15:31:50
So wie du argumentierst, könnte man gleich fragen, wozu überhaupt ein 512-bit Interfance. IMHO ist über R600 nach wie vor viel zu wenig bekannt, um beurteilen zu können, wieviel Bandbreite dieser "benötigt". Bis zum Refresh gibt es längst höher getakteten Speicher. Aber reden wir weiter, wenn R600 vorgestellt wurde, dann wird man ja sehen, wer recht behält.

Wozu in aller Welt braucht man FP32-Rendertargets? Das ist ja wohl maßlos übertrieben für alles in den nächsten zwei Jahres.

Natürlich. Das war nur eine Möglichkeit, wofür man diese "Unmenge an Bandbreite" benötigen könnte.

Coda
2006-12-17, 15:38:49
Evtl. war man ja bei ATI auch der Ansicht das 512-Bit einfach der nächste Schritt ist und 384 gar nicht zur Debatte stand und man es jetzt halt für nötig hielt diesen zu gehen.

Wäre gar nicht soo abwegig.

Gast
2006-12-17, 15:40:45
Evtl. war man ja bei ATI auch der Ansicht das 512-Bit einfach der nächste Schritt ist und 384 gar nicht zur Debatte stand und man es jetzt halt für nötig hielt diesen zu gehen.Ja, ATI hält ja bekanntlich nichts von non-power-of-2. ;D

Gast
2006-12-17, 15:43:25
Ja, ATI hält ja bekanntlich nichts von non-power-of-2. ;D

Verstehe ich nicht.

boxleitnerb
2006-12-17, 15:57:42
naja, ist 384 ne Zweierpotenz? Glaube eher nicht...

StefanV
2006-12-17, 15:59:20
R600 würde mit der Bandbreite auch nichts anzufangen wissen.
HDR + FSAA? :|

Coda
2006-12-17, 15:59:41
Ja, ATI hält ja bekanntlich nichts von non-power-of-2. ;D

You made my day ;D

HDR + FSAA? :|

Da ist auch G80 mit "nur" 384 Bit nicht Bandbreitenlimitiert. Framebuffer-Bandbreite wird eh immer unwichtiger.

Ailuros
2006-12-17, 16:01:50
......

Da Du mich mehr als einmal darueber gefragt hast:

Oblivion alles max, Aussenszene mit 4xAA/16xHQAF, TMAA in 2048*1536. Nur der Speicher wurde uebertaktet um ca. 17% was eine rohe Bandbreite von 100.8GB/sec ergibt:

http://www.3declipse.com/images/stories/ailN/Oblivion.jpg

Bloom = +8%
HDR = +6%

Coda
2006-12-17, 16:02:54
Massivst Bandbreitenlimitiert... ;D

Ailuros
2006-12-17, 16:05:26
HDR + FSAA? :|

Nur ein Klick weiter oben; waehrend Bloom merkwuedigerweise etwas mehr von der zusaetzlichen Bandbreite profitiert, ist der Unterschied mit HDR und 17% Bandbreite genauso hoch wie in Fear oder anderen Spielen. Es gibt andere Flaschenhaelse und nicht die Bandbreite. Erhoehe ich die Taktrate und Bandbreite um 17% bekomm ich auch ca. 17% mehr Leistung.

Mein Fall war ein klein bisschen strenger als XbitLabs', aber mal kurz ein kleiner Vergleich:

http://www.xbitlabs.com/images/video/gf8800-games/tesout_hdr.gif

http://www.xbitlabs.com/articles/video/display/gf8800-games_17.html

http://www.xbitlabs.com/images/video/gf8800-games/tesout_4x.gif

http://www.xbitlabs.com/articles/video/display/gf8800-games_18.html

-----------------------------------HDR/1xAA----------HDR/4xAA

8800GTX/86.4GB----------------56.1 fps-------------48.6 fps--------------13%
X1950XTX/60.0GB---------------34.0 fps-------------27.7 fps--------------18.5%
X1950XTX@CF/120.0GB---------48.0 fps-------------42.9 fps--------------11%

Natuerlich ist die Bandbreiten-Angabe des CF setups etwas verkorkst, aber trotz allem bei AFR hat jede GPU pro Frame 60 GB zur Verfuegung. Und...errrr...natuerlich ist R600 hier schneller als CF, nur eben nicht wegen der Bandbreite :P

seahawk
2006-12-17, 16:06:53
Ob ein Chip billiger ist als der andere hängt nicht primär von der Chipgröße ab, sondern auch davon wieviele nutzbare Chips man erhält und was ein Waffer kostet.

Gast
2006-12-17, 17:25:56
Da ist auch G80 mit "nur" 384 Bit nicht Bandbreitenlimitiert. Framebuffer-Bandbreite wird eh immer unwichtiger.

allerdings hat der G80 CSAA, vielleicht hat der R600 nur "normales" MSAA?

Armaq
2006-12-17, 17:39:30
Das maximal Mögliche ist nie! das wirtschaftlich Gesündeste.

Wer echt an 512Bit+1400 GDDR4 denkt ist einfach ein Träumer, oder ATI total auf dem Tripp. Es wäre nicht nur die höchstmögliche Performance, sondern auch die höchstmöglichen Kosten.
Was mache ich dann 6 Monate später? Fortschritt in Ehren, aber so eine Bombe würde die Refreshgeneration ziemlich in Bedrängnis bringen.

Wie könnten die kalkulierenden Kräfte des Unternehmens so etwas zulassen?

Ailuros
2006-12-17, 18:09:29
allerdings hat der G80 CSAA, vielleicht hat der R600 nur "normales" MSAA?

Wobei CSAA je nach modus ziemlich sparsam mit der Speichermenge und der Bandbreite umgeht, weil eben die zusaetzlichen coverage samples auf die jeweils 4x oder 8x multisampling samples dazugepappt wurden. Die Antwort zu Deiner Frage ist ja und das sollte vorruebergehend reichen, bis jemand anders oeffentlich die Klappe darueber aufmacht ;)

up¦²
2006-12-17, 18:39:39
Und was sagte Ex-ATI CEO Dave Orton dazu? :rolleyes:
Viel mit wenig Worten:
He appears to still have confidence in their products, he slides his speech entitled "R600 : Why we lead in GPU" It is not difficult to find from the title that ATI R600 performance will exceed G80. Orton: "Even the name ATI has changed. However, the performance of ATI GPU products leading position will not change." He said AMD will be an all-out attack against the new GPU is the performance leader position.
http://translate.google.com/translate?sourceid=navclient-menuext&hl=en&u=http%3A%2F%2Fwww%2Epcpop%2Ecom%2Fdoc%2F0%2F169%2F169147%2Eshtml
Der Mann ist noch nie als Hochstapler in Erscheinung getreten, also da kommt noch was :wink:

Sehr vernünftig, dass er sich weiter nicht festlegt: warum auch?

Gouvernator
2006-12-17, 19:20:02
Massivst Bandbreitenlimitiert... ;D
Du hast eben keine Ahnung. Bei so Einstellungen ist das normal, das man sehr wenig FPS rausholt. Um bedeutend mehr FPS zu haben muss man auch bedeutend mehr hineinstecken, so wie ATi 512bit+1400mhz, erst dann kommst du statt auf 38 fps gleich auf 68fps. Ich habe es schon länger gemerkt das bei steigender Qualität/Auflösung man wesentlich mehr übertakten muss, da kriegt man höchstens +10fps wo hingegen unter 1024 gleich das doppelte rauskommt (im Standbild als Save Stelle).
Könnt ihr mich verstehen? Also, wenn ich bei 1024x768@default 70fps habe und durch übertakten 90 fps bekomme, ist unter 2048x1536 bei sagen wir mal 35 fps@default nur 45fps durch overclocking möglich.

eXodia
2006-12-17, 19:30:09
Du hast eben keine Ahnung.

LOL, sry, aber das sagst DU Coda ... made my day

Ailuros
2006-12-17, 19:43:05
Du hast eben keine Ahnung.

Na mal sehen ob Du mehr Ahnung hast und von was genau...

Bei so Einstellungen ist das normal, das man sehr wenig FPS rausholt.

Erstens ist Oblivion kein FPS (as in first person shooter) dass man extravagante Frameraten braucht und zweitens handelte es sich um einen Test um zu sehen ob die Bandbreite limitiert. Logischerweise nimmt man hier die hoechstmoegliche Aufloesung und dabei wurde der Zweck des Benchmarks im gegebenen Fall erfuellt.

Wobei der Zweck war herauszufinden ob die Bandbreite auf G80 limitiert. So viel wird man ja wohl noch verstehen koennen oder?

Um bedeutend mehr FPS zu haben muss man auch bedeutend mehr hineinstecken, so wie ATi 512bit+1400mhz, erst dann kommst du statt auf 38 fps gleich auf 68fps.

In welchem verkorksten Fall hast Du denn persoenlich durch nur der Steigerung der Speicherfrequenz eine Leistungssteigerung von glatten 79% erreichen koennen? Da es sich sowieso um eine bestand- und beweislose Hypothese Deinerseits handelt, kannst Du ja wohl verstehen wie wertlos sie eigentlich ist.

Damit man solche Unterschiede erstmal erreichen kann, muesste die eine Vergleichs-GPU verdammt Bandbreiten-limitiert sein und die zweite ein um viel hoeheres Prozentual an Bandbreite haben als sich die Leistung (79%) steigert, denn GPU Leistung steigerts sich NIE linear zur zusaetzlichen Bandbreite ausser es stimmt was nicht.


Ich habe es schon länger gemerkt das bei steigender Qualität/Auflösung man wesentlich mehr übertakten muss, da kriegt man höchstens +10fps wo hingegen unter 1024 gleich das doppelte rauskommt (im Standbild als Save Stelle).

Wer spielt den heutzutage noch auf high end GPUs in 1024*768?

Könnt ihr mich verstehen? Also, wenn ich bei 1024x768@default 70fps habe und durch übertakten 90 fps bekomme, ist unter 2048x1536 bei sagen wir mal 35 fps@default nur 45fps durch overclocking möglich.

Auf jeden Fall hat sich Coda nicht gerade laecherlich gemacht; dreimal darfst Du raten wer es sein koennte ;)

Gast
2006-12-17, 19:44:51
Du hast eben keine Ahnung. Bei so Einstellungen ist das normal, das man sehr wenig FPS rausholt. Um bedeutend mehr FPS zu haben muss man auch bedeutend mehr hineinstecken, so wie ATi 512bit+1400mhz, erst dann kommst du statt auf 38 fps gleich auf 68fps. Ich habe es schon länger gemerkt das bei steigender Qualität/Auflösung man wesentlich mehr übertakten muss, da kriegt man höchstens +10fps wo hingegen unter 1024 gleich das doppelte rauskommt (im Standbild als Save Stelle).
Könnt ihr mich verstehen? Also, wenn ich bei 1024x768@default 70fps habe und durch übertakten 90 fps bekomme, ist unter 2048x1536 bei sagen wir mal 35 fps@default nur 45fps durch overclocking möglich.

Irgendwie hast du die nur das gelesen was du wolltest und aus dem zusamenhang gezogen!

Aber das mit dem 512bit ist witzig wen die rohleistung für die bandbreite nicht vorhanden ist bringt sie 0.nix ;)

Schau ich mir mal den g80 an, ist es leicht für nv dort auch ein 512 bit interface zu integrieren. Allerdings wen die geschiet wird es zwangsläufig 2 zusätzliche Quads geben also 10, womit die rohleistung des chips wieder steigt und man auch nutzen aus einem 512 bit interface ziehen kann/wird.

Ob dies kommt wird allerdings davon abhängen was der r600 zu leisten im stande ist!
Falls r600 und g80 wieder eine ca pat situation haben werden wird bei nv sicher erst mit dem g80 nachfolger (nicht respin) ein 512 bit inrweface sehen!

Gouvernator
2006-12-17, 19:47:56
LOL, sry, aber das sagst DU Coda ... made my day
Ja, der hat weder Anhung wie Graka sich unter 2048 verhält noch besitzt er eine die sowas im Ansatz kann. Da soll er sich mal schön raushalten im einschätzen und kommentieren.
@ Ailuros
Du bist auch nicht gerade der klügste von allen. Mir etwas zu unterstellen :rolleyes: Ich habe ziemlich jedes Game unter 2560x1920 + AA gehabt mit und ohne Übertaktung, und jedes mal mit FPS Anzeige im Auge.

Ailuros
2006-12-17, 19:54:51
@ Ailuros
Du bist auch nicht gerade der klügste von allen. Mir etwas zu unterstellen :rolleyes: Ich habe ziemlich jedes Game unter 2560x1920 + AA gehabt mit und ohne Übertaktung, und jedes mal mit FPS Anzeige im Auge.

Du hast wohl alles als eine halbwegs logische Antwort zum obrigen. Und ich frage nochmal: ist die G80 Bandbreiten-limitiert oder nicht?

Ja, der hat weder Anhung wie Graka sich unter 2048 verhält noch besitzt er eine die sowas im Ansatz kann. Da soll er sich mal schön raushalten im einschätzen und kommentieren.

Moment da Du keine 8800GTX hast, duerftest Du die obrige Frage auch nicht beantworten oder? :biggrin:

Gouvernator
2006-12-17, 19:55:14
Ich hab nur gesagt das Coda sich über + 2fps unter 2048 @100Gb/s nicht wundern soll weil es normal ist. Unter anderen Umständen mit 256bit hätte man wahrscheinlich nur +0,5 fps mehr bekommen. +2fps nur durch +150mhz Speichertakt ist in meinen Augen ein gutes Ergebniss.

Moment da Du keine 8800GTX hast, duerftest Du die obrige Frage auch nicht beantworten oder?
So leicht kommt ihr mir nicht davon... ich habe eine in Reichweite wenn es nötig wird :D

LovesuckZ
2006-12-17, 19:55:15
Die Antwort zu Deiner Frage ist ja und das sollte vorruebergehend reichen, bis jemand anders oeffentlich die Klappe darueber aufmacht ;)

Als nächtest müsste danngeklärt werden, ob ATi's AA genauso effektiv ist wie das vom G80.
Immerhin gibt es keinen relevanten Leistungsabfall von 2AA->4AA, selbst bei einem Speichertakt von 300MHz (getestet im Naturetest vom 3DMark2001).


Könnt ihr mich verstehen? Also, wenn ich bei 1024x768@default 70fps habe und durch übertakten 90 fps bekomme, ist unter 2048x1536 bei sagen wir mal 35 fps@default nur 45fps durch overclocking möglich.

Weil eine x-relative Erhöhung des Taktes auch nur eine x-relative Erhöhung der FPS bewirken kann.
Hoffe du verstehst das...:rolleyes:

Ailuros
2006-12-17, 20:00:01
Ich hab nur gesagt das Coda sich über + 2fps unter 2048 @100Gb/s nicht wundern soll weil es normal ist. Unter anderen Umständen mit 256bit hätte man wahrscheinlich nur +0,5 fps mehr bekommen. +2fps nur durch +150mhz Speichertakt ist in meinen Augen ein gutes Ergebniss.

Dann haettest Du aber vorsichtiger die vorigen Beitraege lesen soll; es ging NUR darum ob G80 Bandbreiten limitiert ist und ich kann die sichersten Resultaten nur in der hoechstmoeglichen Aufloesung durchlaufen lassen. Und dabei hatte mich dargo 2-3 Mal nach relevanten Resultaten gefragt.

Und nein das mit dem halben fps stimmt auch nicht. Das 4:1 (mehr oder weniger) Verhaeltnis zwischen mehr Speicherbandbreite und mehr Leistung (z.B. 11% mehr Speichertakt ergibt ca. 3.8% mehr Leistung) ist auf meisten GPUs genauso und es war auch so auf der 256-bittigen G70.

So koennen wir jetzt zurueck zum Thema kommen? ;)

So leicht kommt ihr mir nicht davon... ich habe eine in Reichweite wenn es nötig wird

Ja und?

Gouvernator
2006-12-17, 20:05:55
Eben getestet GTA:SA @2560x1920@2xAA+ASBT
730 mhz GPU 900mhzMem = 34fps
730mhz GPU 750mhz mem = 29 fps

und unter 4xAA hab ich noch weniger es schwankt dann zwischen 9-11fps und 11-13fps. Deshalb ist so viel mehr Bandbreite nötig für deutlich mehr FPS unter 2048. Jetzt sind wir doch beim Thema :tongue: Warum man bei r600 512bit und schnellen DDR4 verwenden muss wird

Demirug
2006-12-17, 20:09:37
Zwei Worte: "Amdahl Law"

Gouvernator
2006-12-17, 20:24:15
Der Trend geht halt dahin das man unter höheren Settings immer schneller sein muss und je höher das Setting um so schwieriger wird es annähernd das doppelte zu liefern deshalb solche drastische Maßnamen wie 512bit@2800DDR. In meinem Beispiel würden 4xAA unter 1400mhz etwa mit 20fps laufen wenn man davon ausgeht das ~100hz +2fps bringen und dann nochmal mal zwei wegen 512bit würde das nur lächerliche 40fps bedeuten. Gar nicht mal soviel um jemanden zu beindrucken oder? Und 2560x1920 ist gaaaar nicht so weit von den 2560x1600 Monitoren angesiedelt, und das nur GTA:SA...

deekey777
2006-12-17, 20:24:46
So leicht kommt ihr mir nicht davon... ich habe eine in Reichweite wenn es nötig wird :D
Ach schon. Meine PM entfaltet somit ihre Wirkung.

dargo
2006-12-17, 20:38:26
Warum denken alle, dass es umbedingt GDDR4 mit höchsten Takt ist? Mit 900 MHz GDDR3 hat man schon über 112 GB/s, wozu mehr? Das verursacht nur unnötige Kosten, und der R600 wird nicht billig sein.
Nochmal - wenn ihr alle so gut über die Kosten informiert seit dann könnt ihr mir bestimmt verraten was ein 64MB GDDR3@900Mhz und 64MB GDDR4@1000Mhz Chip kostet.

Armaq
2006-12-17, 20:38:50
Eben getestet GTA:SA @2560x1920@2xAA+ASBT
730 mhz GPU 900mhzMem = 34fps
730mhz GPU 750mhz mem = 29 fps

und unter 4xAA hab ich noch weniger es schwankt dann zwischen 9-11fps und 11-13fps. Deshalb ist so viel mehr Bandbreite nötig für deutlich mehr FPS unter 2048. Jetzt sind wir doch beim Thema :tongue: Warum man bei r600 512bit und schnellen DDR4 verwenden muss wird
17% weniger Bandbreite und 15%% weniger Performance. Hm. Was sagt uns das? D.h. die Bandbreite war anscheinend nicht doch so entscheidend. :)
Oder wie erklärst du die 2% die nicht linear skaliert haben?


750/900*100= 83,33333%
29/34*100 = 85,294%

p.s.: danke für die netten Hinweise. Zu meiner Entschuldigung war ich heute schon 8 Std. arbeiten. :D

dargo
2006-12-17, 20:45:23
Da Du mich mehr als einmal darueber gefragt hast:

Oblivion alles max, Aussenszene mit 4xAA/16xHQAF, TMAA in 2048*1536. Nur der Speicher wurde uebertaktet um ca. 17% was eine rohe Bandbreite von 100.8GB/sec ergibt:

http://www.3declipse.com/images/stories/ailN/Oblivion.jpg

Bloom = +8%
HDR = +6%
Welche CPU wurde hier verwendet?
Oder besser gesagt - wenn du die CPU bei dieser BQ um 10% übertaktest hast hat sich an den Frames was geändert?

Edit:
Ist Oblivion das Mass der Dinge?
Wie siehts bei Call of Juarez aus? Wie es später bei Crysis aussieht würde mich dann auch mal interessieren?

reunion
2006-12-17, 21:10:16
83% weniger Bandbreite und 85% der Performance. Hm. Was sagt uns das? D.h. die Bandbreite war anscheinend nicht doch so entscheidend. :)
Oder wie erklärst du die 2% die nicht linear skaliert haben?

750/900*100= 83,33333%
29/34*100 = 85,294%

Nicht dein ernst, oder?

StefanV
2006-12-17, 21:22:13
83% weniger Bandbreite und 85% der Performance. Hm. Was sagt uns das? D.h. die Bandbreite war anscheinend nicht doch so entscheidend. :)
Oder wie erklärst du die 2% die nicht linear skaliert haben?

750/900*100= 83,33333%
29/34*100 = 85,294%
Öhm, Armaq, die Rechnung ist durchaus richtig nur der erste Teil des ersten Satzes stimmt nicht soo ganz, siehe DEN Thread.

dargo
2006-12-17, 21:29:59
Nochwas zum Sinn oder Unsinn der hohen Speicherbandbreite vom R580+.
Die X1950XTX hat eine um 29% höhere Speicherbandbreite wie die X1900XTX. Laut CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/) kommen im Durchschnitt bei 1600x1200 4xAA/16xAF davon noch 12% und bei 2560x1600 4xAA/16xAF 14% an.

Also so ineffizient sehe ich eine hohe Bandbreite auch wieder nicht. Bei 2560x1600 4xAA/16xAF beträgt die Effizienz immerhin knapp 50%!

Sollte die "Rohleistung" des R600 um mindestens 100% gegenüber dem R580+ steigen was spricht dann gegen eine Speicherbandbreite von 128GB/s?

reunion
2006-12-17, 21:30:55
Massivst Bandbreitenlimitiert... ;D

Da er durch höhere Bandbreite offensichtlich an Leistung gewinnt, ist er in gewissen Szenen bandbreitenlimitiert. :|
Niemand behauptet, dass G80 an der Bandbreite verhungert. Auch bei R580 brachten die 30% mehr Bandbreite des GDDR4-RAMs nur einen Performancevorteil von 5-10%, nur kann das eben am Ende den Unterschied ausmachen. Man wird kaum Szenen finden, in denen eine GPU linear mit der Bandbreite skaliert, da sich eben der Bandbreitenverbrauch je nach Frame stark unterscheiden kann. Genauso wird G80 nicht linear mit dem Chiptakt an Performance zulegen, wenn man den Speichertakt nicht ebenso erhöht. Aber was solls, bei manchen ist einen Bandbreitenerhöhung offensichtlich nur dann gerechtfertigt, wenn bei einer 10%igen Takterhöhung exakt 10% mehr Leistung rausspringen - andere hoffen anscheinend auf eine überpropotionale Steigerung. :rolleyes:

up¦²
2006-12-17, 21:31:27
Spekulieren wir doch mal :rolleyes:
Flashback: Rambus XDR :biggrin:


Also warum ein sauteures 512bit PCB, wenn ein 256er reicht?

Info:
http://www.rambus.com/us/products/xdr_xdr2/

Dazu Anton Shilov schon 2004:

Challenges on Rambus’ Path

Current GDDR3 that is used for high-end graphics cards nowadays may be clocked at up to 2.00GHz, providing bandwidth of 64GB/s for an application with 256-bit memory bus. The next incarnation of GDDR memory will be GDDR4 that is likely to be out next year and is expected to allow memory frequencies of up to 2.80GHz and effective bandwidth of about 89GB/s.

Today’s graphics processors require computing power more than memory bandwidth and developers of graphics chips will consider whether possibly more expensive XDR will deliver tangibly higher performance compared to GDDR4.

It is also not clear whether XDR supports 256-bit operation, but if it does, and with no substantially higher pricing, graphics processing units developers may bid on astonishing 102.4GB/s or higher bandwidth. In case it does not, 3.20GHz XDR devices are unlikely to become serious rivals for GDDR4 DRAMs able to work in 256-bit mode, a crucial feature for modern memory for graphics cards.

Officials for Rambus did not comment on the news-story.
http://www.xbitlabs.com/news/memory/display/20040718141458.html

reunion
2006-12-17, 21:34:27
Nochwas zum Sinn oder Unsinn der hohen Speicherbandbreite vom R580+.
Die X1950XTX hat eine um 29% höhere Speicherbandbreite wie die X1900XTX. Laut CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/) kommen im Durchschnitt bei 1600x1200 4xAA/16xAF davon noch 12% und bei 2560x1600 4xAA/16xAF 14% an.

Also so ineffizient sehe ich eine hohe Bandbreite auch wieder nicht.

Sollte die "Rohleistung" des R600 um mindestens 100% gegenüber dem R580+ steigen was spricht dann gegen ein Speicherbandbreite von 128GB/s?

Genau davon schreibe ich mir jetzt mittlerweile mehrere Seiten die Finger wund. Bei IMHO mindestens zu erwartenden 32 bi Samples pro Takt und deutlich höheren Taktraten wie bei R580 wäre eine Bandbreitenerhöhung in ähnlichem Ausmaß nur logisch.

Armaq
2006-12-17, 21:37:14
Nicht dein ernst, oder?
Umformuliert. Wie peinlich.

reunion
2006-12-17, 21:44:32
Erhoehe ich die Taktrate und Bandbreite um 17% bekomm ich auch ca. 17% mehr Leistung.


Das ist auch das logischte der Welt. Wenn man sämtliche Leistungsindikatoren um 17% beschleunigt, und andere Flaschenhäls ausschießen kann, dann muss die Leistung auch um 17% steigen.

Ob ein Chip billiger ist als der andere hängt nicht primär von der Chipgröße ab, sondern auch davon wieviele nutzbare Chips man erhält und was ein Waffer kostet.

Ein kleinerer Chip erlaubt mehr Chips pro Wafer und kann damit eine schlechtere Yield ausgleichen. Zudem bessert sich die Ausbeute im laufe der Zeit kontinuierlich, während die Chipgröße ein dauerhaftes Problem bleibt.

Demirug
2006-12-17, 21:45:26
Spekulieren wir doch mal :rolleyes:
Flashback: Rambus XDR :biggrin:

Interessante Idee aber unwahrscheinlich nachdem ATI bei der GDDR Entwicklung dermaßen aktiv war.

reunion
2006-12-17, 21:58:11
Umformuliert. Wie peinlich.

Es ging mir um deine Schlussfolgerung.

Armaq
2006-12-17, 22:09:52
Es ging mir um deine Schlussfolgerung.

Was ist daran falsch? 2% waren nicht auf seine Taktveränderungen zurückzuführen. Takt sank um 17% die Performance um 15%.
Klärt mich auf, ich bin kein Techniker. :biggrin:

reunion
2006-12-17, 22:29:56
Was ist daran falsch? 2% waren nicht auf seine Taktveränderungen zurückzuführen. Takt sank um 17% die Performance um 15%.
Klärt mich auf, ich bin kein Techniker. :biggrin:

Falsch ist daran gar nichts. Nur ist die Schlussfolgerung daraus, wonach sinngemäß "die Bandbreite anscheinend doch nicht so entscheidend war" doch wohl bestenfalls als Ironie zu sehen.

Armaq
2006-12-17, 22:58:30
Falsch ist daran gar nichts. Nur ist die Schlussfolgerung daraus, wonach sinngemäß "die Bandbreite anscheinend doch nicht so entscheidend war" doch wohl bestenfalls als Ironie zu sehen.

Was denn sonst?

Hauwech
2006-12-17, 23:48:50
...

Ein kleinerer Chip erlaubt mehr Chips pro Wafer und kann damit eine schlechtere Yield ausgleichen. Zudem bessert sich die Ausbeute im laufe der Zeit kontinuierlich, während die Chipgröße ein dauerhaftes Problem bleibt.

Da spielen aber soviele andere Faktoren rein, das es am Ende doch günstiger sein kann, einen größeren Chip zu haben. Das kann man so pauschal eben gar nicht sagen.

Gast
2006-12-18, 01:09:21
Edit:
Ist Oblivion das Mass der Dinge?
Wie siehts bei Call of Juarez aus? Wie es später bei Crysis aussieht würde mich dann auch mal interessieren?

Also momentan ist Oblivion mit FEAR das Mass der Dinge würde ich behaupten. Kennst du sonst noch ein Spiel das superbe Grafik mit FP16 HDR+AA zu lässt?
Die CPU dürfte relativ egal sein in der hohen Auflösung. Man könnte auch ne niedrigere Auflösung wählen, die Leistung sollte dann um den gleichen Faktor ansteigen. Dann sieht man das die Bandbreite des G80 in Auflösungen für normalsterbliche nicht limitiert ;)
Wenn der R600 kommt werden wirs ja sehen, jede Wette das er nicht mehr als ~100GB/s auf die Waage wirft. Aber wird sicher jmd geben der OC Benchmarks machen wird, auch rein mit dem Speicher und dann wirds wie bei fast jedem Chip sein, da gehn +3% maximal, was schon fast Meßtolleranz ist.

up¦²
2006-12-18, 01:30:28
R600: Why we lead in graphics

Performance Leadership
• New levels of parallelism – latest process technology
• Raw power to drive today’s and tomorrow’s games

Dynamic Game Computing
• New levels of visual realism
− Enabling significantly more immersive user experiences

Technology Leadership
• Expanding the role of a GPU - new platform for the future of gaming
− Second generation Unified Shader Architecture
− Comprehensive DX10/Shader Model 4.0 support

Dave Orton
Executive VP, Visual and Media Businesses
December 14, 2006
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/Dec-06A-DayDaveOrton.pdf

BTW, ein paar interessante Details gibt es zu entdecken!

Fetza
2006-12-18, 05:15:25
Was denn sonst?

Naja meinst du nicht, das 17% weniger speichertakt, der in einem performance drop von 15% mündet, ein ganz deutlicher indikator dafür ist, das hier eben doch bandbreiten limitierung herrscht?

Ailuros
2006-12-18, 06:37:12
Welche CPU wurde hier verwendet?
Oder besser gesagt - wenn du die CPU bei dieser BQ um 10% übertaktest hast hat sich an den Frames was geändert?

Was soll Dir die CPU noch ausmachen in 2048 mit AA? Es ist ein FX-53 und ich unterliege in der Aufloesung einem ~3.0GHz Core 2 Duo zwischen 2 und 5% je nach Fall.

Edit:
Ist Oblivion das Mass der Dinge?
Wie siehts bei Call of Juarez aus? Wie es später bei Crysis aussieht würde mich dann auch mal interessieren?

Zuerst gab ich Fear Resultate die nicht genug waren, dann Oblivion ist anscheinen auch nicht ausprechend....errr ja wenn ich Zeit genug haette wuerde ich gleich ein ganzes Review darueber schreiben. Sei froh dass ich ueberhaupt die Zeit fuer das Zeug hatte.

Crysis? Bei der Unterstuetzung die Crytek fuer Crysis bekommen hat, wuerde es mich nicht wundern wenn sie enorme Hilfe fuer den shadercode von NV bekommen haben.

Ailuros
2006-12-18, 06:42:19
Also momentan ist Oblivion mit FEAR das Mass der Dinge würde ich behaupten. Kennst du sonst noch ein Spiel das superbe Grafik mit FP16 HDR+AA zu lässt?
Die CPU dürfte relativ egal sein in der hohen Auflösung. Man könnte auch ne niedrigere Auflösung wählen, die Leistung sollte dann um den gleichen Faktor ansteigen. Dann sieht man das die Bandbreite des G80 in Auflösungen für normalsterbliche nicht limitiert ;)
Wenn der R600 kommt werden wirs ja sehen, jede Wette das er nicht mehr als ~100GB/s auf die Waage wirft. Aber wird sicher jmd geben der OC Benchmarks machen wird, auch rein mit dem Speicher und dann wirds wie bei fast jedem Chip sein, da gehn +3% maximal, was schon fast Meßtolleranz ist.

Da 512bit mehr Sinn mit 1GB Framebuffer machen kann es durchaus sein dass in ein paar extremen Faellen dieser einen Unterschied zeigen koennten; dann schreien natuerlich alle "Bandbreite".

Uebrigens und bitte mit grosser Vorsicht lesen:

http://www.beyond3d.com/forum/showpost.php?p=893172&postcount=1671

Einiges stimmt und einiges eben nicht. Die Chinesen leaken eben wieder mal zu frueh zu viel raus.

Ailuros
2006-12-18, 07:07:56
Da er durch höhere Bandbreite offensichtlich an Leistung gewinnt, ist er in gewissen Szenen bandbreitenlimitiert. :|

Haettest Du erwartet dass ich keinen einzigen Fetzen an Leistung dazugewinnen wuerde, durch 17% mehr Speicherfrequenz?

Niemand behauptet, dass G80 an der Bandbreite verhungert. Auch bei R580 brachten die 30% mehr Bandbreite des GDDR4-RAMs nur einen Performancevorteil von 5-10%, nur kann das eben am Ende den Unterschied ausmachen.

Nur welchen Unterschied genau? Was einige von Euch hartnaeckig NICHT verstehen wollt ist dass Bandbreite von sich alleine zu keinen grossen Unterschieden fuehren kann.

Genau wie auf G7x; wenn ich sagen wir mal den core um 15% uebertakte bekomm ich ca. 9-10% mehr Leistung und wenn ich nur den Speicher uebertakete ca. 5% mehr. Uebertakte ich beide komm ich dann irgendwo in die Naehe von +15%.

Da der core genauso wie auf allen GPUs besser skaliert mit steigender Frequenz, besteht kein Anzeichen fuer jegliche Bandbreiten-Limitierung.

Man wird kaum Szenen finden, in denen eine GPU linear mit der Bandbreite skaliert, da sich eben der Bandbreitenverbrauch je nach Frame stark unterscheiden kann.

Also bleibt das Ganze im Bereich der Theorie oder was? Es wird wohl nicht allzu schwer sein ein paar Flecken zu finden wo sich dieses auch zeigen wuerde.

Genauso wird G80 nicht linear mit dem Chiptakt an Performance zulegen, wenn man den Speichertakt nicht ebenso erhöht.

Aha! Bingo. Nur legt der G80 ca. zweimal so viel Leistung dazu mit hoeherer Taktrate als Speicherfrequenz. :P

Aber was solls, bei manchen ist einen Bandbreitenerhöhung offensichtlich nur dann gerechtfertigt, wenn bei einer 10%igen Takterhöhung exakt 10% mehr Leistung rausspringen - andere hoffen anscheinend auf eine überpropotionale Steigerung. :rolleyes:

Das eigentliche Thema ist ob R600 so und so viel Bandbreite wirklich braucht. Ein Fall wo es vielleicht einen Unterschied machen koennte waere 8x MSAA in sehr hohen Aufloesungen, aber das dumme ist dann eben dass es nicht alleine auf Bandbreite zurueckzufuehren sein wird und dass sich das Ganze dann nicht unbedingt im Raum der Spielbarkeit bewegen wird.

ATI ist sofort auf den 512bit Bus gesprungen erstens weil es am einfachsten ist mit dem ring-stop-Dingsbums und zweitens weil sie ihn sowieso bald brauchen werden. Das ist ja schoen und gut, aber man braucht etwas mehr als den 512bit Kleber auf der Schachtel um Eindruecke zu gewinnen.

Gast
2006-12-18, 08:14:25
Hm, also wenn man das 512bit SI einbaut, nur um 5-10% Performance zu gewinnen, dann sieht das mehr nach Verzweiflung aus, weil man auf offenbar auf diese Mehrperformance angewiesen ist. Sonst hätte man ja ein günstigeres Interface genommen.

seahawk
2006-12-18, 09:30:33
Verzweifelung würde ich nicht sagen. Zum einen kommt der Ring-Bus mit einer einfachen Verdoppelung woohl besser klar, als mit ungerade Schritten, zum anderen kann man das Speicherinterface erstmal auch für kommende Refresh-Chips unangetastet lassen. Evtl. hat man auch aus Marketinggründen vor diesne unrunden Speichermengen auf dem G80 zurückgeschreckt und wollte lieber gleich mit 1GB Speicher antreten. Denn das wird die Zahl sein, die dicvk auf den Kartons stehen wird, ein Speicherinterface sagt kaum einem Käufer etwas. (oder anders gesagt, dem Kunden, dem es was sagt, den beeindrucken große Zahlen auf dem Karton nicht mehr)

Man muss sich nur vom Glauben lösen, dass man 512bit GDDR4 wirklich braucht, also der Chip wirklich ähnlich balanciert ist wie heute bekannte Chips.

Langfristig würde ich sagen, dass sich NV als Frima besser entschieden hat, auch wenn der R600 langfristig evtl. doch von dem 512bit profitieren könnte. Die Frage ist nur, ob die Karte dann noch High-End ist und in den dort üblichen Auflösungen >1600x1200 noch spielbare FPS liefern wird.

Gast
2006-12-18, 10:07:21
Naja, angesichts der Bandbreite des G80 wäre es geradezu absurd, dass Orton dies bei R600 extra herausstreicht, um sich dann von der Konkurrenz vorführen zu lassen.
Sind immerhin noch mehr, als 384 Bit bei 900 MHz.


Q

Gast
2006-12-18, 10:19:22
Die Frage ist nur, ob die Karte dann noch High-End ist und in den dort üblichen Auflösungen >1600x1200 noch spielbare FPS liefern wird.
Nein!
war (bislang) immer so, dass Grafikkarten zuletzt den Füllratentot sterben als den Bandbreitentot.

LovesuckZ
2006-12-18, 10:28:33
Uebrigens und bitte mit grosser Vorsicht lesen:
http://www.beyond3d.com/forum/showpost.php?p=893172&postcount=1671
Einiges stimmt und einiges eben nicht. Die Chinesen leaken eben wieder mal zu frueh zu viel raus.

Im Grunde sollte der r600 wohl einem 1.5xr580 entsprechen.
24 Bi-Samples, 24 Rops, 64 ALUs, 8xMSAA.
Dazu hohe Taktraten und ein Stromverbrauch, der wohl leicht über dem vom G80 liegt.

LovesuckZ

Armaq
2006-12-18, 11:44:17
Naja meinst du nicht, das 17% weniger speichertakt, der in einem performance drop von 15% mündet, ein ganz deutlicher indikator dafür ist, das hier eben doch bandbreiten limitierung herrscht?
Von Messungenauigkeiten abgesehen heißt es, dass man die ganze Nummer nochmal mit 20% weniger Speichertakt testen müsste, um zu sehen, ob der Drop bei 15% bleibt. Tut er das, dann ist die Karte in diesem Fall auf 15% Mehrperformance des Speichers angewiesen.

Mancko
2006-12-18, 11:56:07
Evtl. hat man auch aus Marketinggründen vor diesne unrunden Speichermengen auf dem G80 zurückgeschreckt und wollte lieber gleich mit 1GB Speicher antreten. Denn das wird die Zahl sein, die dicvk auf den Kartons stehen wird, ein Speicherinterface sagt kaum einem Käufer etwas. (oder anders gesagt, dem Kunden, dem es was sagt, den beeindrucken große Zahlen auf dem Karton nicht mehr)


Grundsätzlich gebe ich dir recht. Das Speicherinterface sagt niemandem etwas. Die Menge an RAM aber schon. Aber glaubst du wirklich, dass eine so große Zahl der R600/G80 Käufer uninformiert sind? Also das halte ich für recht unwahrscheinlich. Die meissten die 600 Euro in die Hand nehmen nur für eine Grafikkarte sind echte Freaks - Enthusiasten eben und die kennen sich meisst doch schon recht gut aus und lesen auch Hardwaremagazine (sowohl Print- als auch Onlinemedien).
Den Vorteil würde ich als marginal erachten. Im Midrange und Low-End Bereich sieht es schon wieder anders aus. Hier gebe ich dir vollkommen Recht. Da machen sich dicke Zahlen auf dem Karton gut. Deswegen sieht man auch immer wieder Mainstream und Low End Grakas mit Unmengen an Speicher, der zu keinem nennenswerten Zugewinn an Leistung führt. Da ist es dann pures Marketing. Aber im High End Bereich wird der Vorteil eher sehr klein sein.

seahawk
2006-12-18, 13:27:25
Grundsätzlich gebe ich dir recht. Das Speicherinterface sagt niemandem etwas. Die Menge an RAM aber schon. Aber glaubst du wirklich, dass eine so große Zahl der R600/G80 Käufer uninformiert sind? Also das halte ich für recht unwahrscheinlich. Die meissten die 600 Euro in die Hand nehmen nur für eine Grafikkarte sind echte Freaks - Enthusiasten eben und die kennen sich meisst doch schon recht gut aus und lesen auch Hardwaremagazine (sowohl Print- als auch Onlinemedien).
Den Vorteil würde ich als marginal erachten. Im Midrange und Low-End Bereich sieht es schon wieder anders aus. Hier gebe ich dir vollkommen Recht. Da machen sich dicke Zahlen auf dem Karton gut. Deswegen sieht man auch immer wieder Mainstream und Low End Grakas mit Unmengen an Speicher, der zu keinem nennenswerten Zugewinn an Leistung führt. Da ist es dann pures Marketing. Aber im High End Bereich wird der Vorteil eher sehr klein sein.

Gucke ich mir die Duiskussion hier so an, dann scheint die größere Zahl erstmal schon beeindruckend.