Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
Ronny145
2005-06-07, 23:42:45
Laut http://www.tecchannel.de/hardware/1384/3.html aber .........NVIDIA schraubte den Core-Takt von 400 auf 450 MHz, der Speicher arbeitet unverändert mit 550 MHz. Die Messungen an den externen Stromstecker ergeben eine elektrische Leistungsaufnahme von etwa 81 Watt. Addiert man noch die vorgeschriebenen 25 Watt des AGP-Slot, erreicht die Grafikkarte eine Leistungsaufnahme von fast 110 Watt. Alle Details zum GeForce 6800 Ultra finden Sie in .......
Das mit den 70-75W bei dem xbitlabs Test kommt wirklich hin. Ein Beispiel, bei dem thg Stresstest zur Zeit kam zusammen ein AMD und Intel System auf 770W. Nach einigen Problemen mussten die ein anderes Board nehmen, das nicht Sli konnte. Der Verbrauch war dann nur noch bei ~700W. Später hatten die auch beim AMD die 2. Karte ausgebaut. Der Verbrauch liegt jetzt nur noch bei 625-630W. Also 70-75W für eine Karte unter Last.
Ailuros
2005-06-08, 00:59:41
Also beide :biggrin:
Nein :P Einer der beiden wird in relativem Sinn in den vorerwaehnten Situationen vielleicht sogar total blamiert werden.
Ailuros
2005-06-08, 01:05:12
Ich schätzte mal eher was in die Richtung 16 x 2.....wobei die 2 IMO nicht für TMUs steht.
//Edit:
@Demi:
vielleicht doch 2 TMUs?? Oder eher in die Richtung "Z-writes".
16+16+16+16+8 = 72 :D
Quasar
2005-06-08, 07:41:16
16 ALU
16 TMU
16 ROPs
16 ROPs (bei MSAA)
8 VS.
________
R420 + 2 VS. :)
seahawk
2005-06-08, 07:41:25
Nein :P Einer der beiden wird in relativem Sinn in den vorerwaehnten Situationen vielleicht sogar total blamiert werden.
Ich meinte auch eher den teil mit mehr als eine ALU pro Pipe. Wenn man Mini-ALUs mitzählt. ;)
wuzetti
2005-06-08, 09:20:50
32 pixel units (each with multiple ALU's)
http://www.penstarsys.com/editor/company/ati/r520/index.html
ob der herr schon weiss, wovon er redet?
seahawk
2005-06-08, 09:31:56
Zumindest die geschilderten Probleme mit den neuen Prozess hören sich sinnig an. Wobei man ganz klar sagen muss, dass hoher Takt und 32 Pipes sich von der Logik (und vom Marktbedarf) gegenwärtig eher ausschliessen.
wuzetti
2005-06-08, 09:58:21
ja, einiges in dem artikel klingt zumindest interessant bzw. nicht ganz unlogisch. was die 32 pipes betrifft bin ich bei dir.
reunion
2005-06-08, 10:34:54
Aktuell geht keine zuverlaessige Quelle auf solchen Quark aus.
****edit: das letzte Wort auf der Strasse spricht ueber ziemlich groesseren "throughput" in puren Shader-limitierten Situationen. Fuer welchen der Beiden? Derjenige der nicht nur eine ALU pro SIMD Kanal hat *vaporizes back to the shadows* :D
Also beide :biggrin:
Nein :P Einer der beiden wird in relativem Sinn in den vorerwaehnten Situationen vielleicht sogar total blamiert werden.
Das wäre dann R520?
Warum?
DjDino
2005-06-08, 10:42:40
Es ist also ein komplexes Zusammenspiel aus Fehlerdichte, Produktionskosten, Fixkosten und Marktnachfrage das entscheidet welche Chipkonfigurationen in der Fertigung sinnvoll sind.
WOW, Da gehen mir ja einige neue Lichte der Erkenntnis auf...da müssen die Firmen ja irrsinnig komplex kalkulieren, hatte mir das simpler vorgestellt. Danke.
wuzetti
2005-06-08, 10:49:54
auch nicht uninteressant.....
http://www.forbes.com/markets/2005/06/07/0607automarketscan10.html?partner=yahootix&referrer=
Crushinator
2005-06-08, 11:33:02
Zumindest die geschilderten Probleme mit den neuen Prozess hören sich sinnig an. Wobei man ganz klar sagen muss, dass hoher Takt und 32 Pipes sich von der Logik (und vom Marktbedarf) gegenwärtig eher ausschliessen.
Sie schließen sich technisch nicht aus. Es ist immer die Frage, ob man die Kosten scheut oder nicht. Was den Marktbedarf angeht, verhält es sich wie mit den Multi-Chip/Multi-Karten, sprich er wäre da. Die Gefahr besteht nur darin, mit eigenen Produkten konkurrieren zu müssen.
seahawk
2005-06-08, 11:56:19
Sie schließen sich technisch nicht aus. Es ist immer die Frage, ob man die Kosten scheut oder nicht. Was den Marktbedarf angeht, verhält es sich wie mit den Multi-Chip/Multi-Karten, sprich er wäre da. Die Gefahr besteht nur darin, mit eigenen Produkten konkurrieren zu müssen.
Ich sagte ja auch von der Logik her. Technisch ist es sicher möglich, auch wenn die Yields wahrscheinlich vollkommen daneben wären.
Wir wissen dass der R520 einen Sign-off-speed von >600mhz hatte. Dazu kommt definitv SM3.0 und damit zwangsweise eine FP32 Genauigkeit. Und das alles bei einer doppelten Strukturbreite im Vergleich zum R480 ?
Crushinator
2005-06-08, 12:05:54
Um das zu beantworten, müßte man wissen, was alles im besagten Spin-Off bereits geschaltet war. ;)
seahawk
2005-06-08, 12:34:02
Naja, FP32 und SM3.0 muss ja. Ob man allerdings einen Chip in Produktion nimmt, der nicht mal den Sign-off Speed mit allen Features und Pipelines erreicht ?? Besonders wenn ein 32Pipechip @ 300mhz ähnlichschnell wäre wie ein 24P @452 Mhz oder ein 16P @ 600mhz. Wenn man also sowieso den 32P baut, dann wäre es imho sinniger die Taktrate zu reduzieren, bis man brauchbare Yields erreicht, anstatt bei hohem Takt einen schlechten Yield zu fahren und den Yield durch deaktivierte Pipes künstlich zu verbessern.
Eine einzige Ausnahme wäre, dass man das Chipdesign versaut hat und deshalb 2 oder gar mehr Quads deaktivieren muss. Es also ein Designfehler ist und kein Problem in der Fertigung.
Naja, FP32 und SM3.0 muss ja. Ob man allerdings einen Chip in Produktion nimmt, der nicht mal den Sign-off Speed mit allen Features und Pipelines erreicht ?? Besonders wenn ein 32Pipechip @ 300mhz ähnlichschnell wäre wie ein 24P @452 Mhz oder ein 16P @ 600mhz. Wenn man also sowieso den 32P baut, dann wäre es imho sinniger die Taktrate zu reduzieren, bis man brauchbare Yields erreicht, anstatt bei hohem Takt einen schlechten Yield zu fahren und den Yield durch deaktivierte Pipes künstlich zu verbessern.
Du vergleichst hier Äpfel mit Birnen. Defekte Teile auf dem Chip sind eine Sache, erreichbare Taktraten eine andere. Du kannst einen Chip, der einen Defekt hat, nicht generell mit niedrigen Taktraten lauffähig machen, mit dem Deaktivieren einer Einheit schon.
ATI wird schon wissen was sinnig ist, da sie a) Profis sind und b) weil sie wissen wie die Produktion aussieht.
Konsolenfreund
seahawk
2005-06-08, 12:58:49
Ich kann aber eine Chip auf niedrige Taktraten auslegen, dadurch ist er weniger Fehleranfällig.
Ich kann aber eine Chip auf niedrige Taktraten auslegen, dadurch ist er weniger Fehleranfällig.
Und wie funktioniert das?
Konsolenfreund
DrumDub
2005-06-08, 13:07:10
Ich kann aber eine Chip auf niedrige Taktraten auslegen, dadurch ist er weniger Fehleranfällig. richtig. aber das muss ich schon beim design machen. wenn das design vermurkst ist, dann bringen auch niedrigere taktraten nix.
Crushinator
2005-06-08, 13:07:27
Das wäre dann R520?
Warum?
Die erste Annahme muß nicht zwingend zutreffen.
Das "Warum" hängt AFAIK davon ab, was für Instruktionen benutzt würden. Wenn eine ALU alle Instruktionen unterstützt, kann es durchaus vorkommen, daß man mehr "throughput" erzielt, als wenn man 2 ALUs hat, die aber nicht parallel die gleichen Typen von Instruktionen verarbeiten können.
Crushinator
2005-06-08, 13:16:18
(...) Eine einzige Ausnahme wäre, dass man das Chipdesign versaut hat und deshalb 2 oder gar mehr Quads deaktivieren muss. Es also ein Designfehler ist und kein Problem in der Fertigung.
Eine weitere Annahme wäre, daß der Chip nicht dafür gedacht war, von Anfang an mit so vielen Einheiten in Massenproduktion zu gehen. Ein Spin-Off von Ende letzten Jahres schließt nicht aus, daß man die Pläne ungeworfen haben könnte. Ich denke, man war überrascht wie gut das mit den Taktraten geklappt hat und wollte mehr. In diesem Zusammenhang wäre nicht auszuschließen, daß man sogar zu weit gegangen ist.
Ailuros
2005-06-08, 14:20:05
32 pixel units (each with multiple ALU's)
http://www.penstarsys.com/editor/company/ati/r520/index.html
ob der herr schon weiss, wovon er redet?
Nein Josh spekuliert hier nur und er erwaehnt es auch. Den Artikel haben wir uebrigens schon mal besprochen. Es gibt auch ein paar kleine Fehler in dem Ding was NVIDIA betrifft, aber mit spekulativen Artikeln wandelt man stets auf sehr gefaehrlichen Pfaden; zu streng darf man da nicht sein beim lesen.
Ailuros
2005-06-08, 14:29:46
Eine weitere Annahme wäre, daß der Chip nicht dafür gedacht war, von Anfang an mit so vielen Einheiten in Massenproduktion zu gehen. Ein Spin-Off von Ende letzten Jahres schließt nicht aus, daß man die Pläne ungeworfen haben könnte. Ich denke, man war überrascht wie gut das mit den Taktraten geklappt hat und wollte mehr. In diesem Zusammenhang wäre nicht auszuschließen, daß man sogar zu weit gegangen ist.
Crushinator,
Der Plan war von Anfang das existierende Portofolio mehr oder weniger zu behalten (R3xx/4xx) mit den notwendigen Aenderungen fuer SM3.0.
Man waehlte low-k 90nm fuer R520 von Anfang an weil man auch von Anfang auf sehr hohe Taktraten zielen wollte.
Ich wuerde eher mal bedenken wie Crossfire die roadmap von ATI beinflusst hat und das nicht nur auf R4xx begrenzt; es wird wohl keiner glauben dass ATI multi-board configs so frueh wie NVIDIA geplant hatte. Fuer mich war es eine klare marketing-technische Gegenreaktion. Ergo war die Zeit hier knapper fuer Crossfire. Falls Crossfire-R520 eine besser gerundete und reifere Loesung sein wird als Crossfire-R420 in der absehbaren Zukunft, waere das vielleicht dann eher einer der Stellen wo man nach moeglichen Gruenden (oder besser einer der Gruende) fuer jegliche Verzoegerungen suchen koennte.
So lange aber die Veroeffentlichung/Verfuegbarkeit von R520 keinen besonderen Abstand von G70 haben wird, ist es dann eigentlich nicht mehr so wichtig. Auf jeden Fall handelt es sich nicht um den "G70-Killer" den sich manche erhofft hatten.
***edit:
Seriously - how can anyone expect pipeline counts to double as well as adding SM3.0 support whilst extending the ALU's and register space to support full speed, single precision FP32?
http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=160&sid=0b8ccdeb197c74d00a6be17bd07064f7
Xenos is "three" pipelines, yet consumes 200M+ transistors, is there something wrong there?
Number of pipes means very little without knowing what is going on underneath them.
reunion
2005-06-08, 15:08:56
Ich sagte ja auch von der Logik her. Technisch ist es sicher möglich, auch wenn die Yields wahrscheinlich vollkommen daneben wären.
Wir wissen dass der R520 einen Sign-off-speed von >600mhz hatte. Dazu kommt definitv SM3.0 und damit zwangsweise eine FP32 Genauigkeit. Und das alles bei einer doppelten Strukturbreite im Vergleich zum R480 ?
90nm erlaubt eine doppelt so hohe Transistorendichte wie 130nm und auch >600Mhz sollten damit kein Problem sein. Warum deshalb die Yield 'vollkommen daneben' sein soll leuchtet mir nicht ein.
reunion
2005-06-08, 15:11:50
Eine einzige Ausnahme wäre, dass man das Chipdesign versaut hat und deshalb 2 oder gar mehr Quads deaktivieren muss. Es also ein Designfehler ist und kein Problem in der Fertigung.
Glaubst du wirklich, man macht vorher ein Tapeout und schaut dann, ob dass Chipdesign passt?
Für soetwas gibt es Simulatoren.
reunion
2005-06-08, 15:13:40
Ich kann aber eine Chip auf niedrige Taktraten auslegen, dadurch ist er weniger Fehleranfällig.
Warum soll ein Chip, welcher auf niedrige Taktraten ausgelegt ist weniger Fehleranfällig sein?
Exxtreme
2005-06-08, 15:27:50
richtig. aber das muss ich schon beim design machen. wenn das design vermurkst ist, dann bringen auch niedrigere taktraten nix.
Kommt darauf an, was vermurkst ist. Kann sein, daß sich irgendwo ein langer Pfad eingeschlichen hat und man tatsächlich nur niedrige Taktfrequenzen fahren kann. Ansonsten schafft es der Strom nicht schnell genug um von einem Ende zum nächsten zu gelangen.
Crushinator
2005-06-08, 15:32:23
(...) Der Plan war von Anfang das existierende Portofolio mehr oder weniger zu behalten (R3xx/4xx) mit den notwendigen Aenderungen fuer SM3.0.
Man waehlte low-k 90nm fuer R520 von Anfang an weil man auch von Anfang auf sehr hohe Taktraten zielen wollte.
Wenn das der Plan war, schließt er nicht aus, daß sich die Zahl der Quads/ALUs zum Vorgänger verändert haben könnten. Ich sprach i.Ü. mit keiner Silbe von absoluten Zahlen für Pipelines.
Ich wuerde eher mal bedenken wie Crossfire die roadmap von ATI beinflusst hat und das nicht nur auf R4xx begrenzt; es wird wohl keiner glauben dass ATI multi-board configs so frueh wie NVIDIA geplant hatte. Fuer mich war es eine klare marketing-technische Gegenreaktion. Ergo war die Zeit hier knapper fuer Crossfire. Falls Crossfire-R520 eine besser gerundete und reifere Loesung sein wird als Crossfire-R420 in der absehbaren Zukunft, waere das vielleicht dann eher einer der Stellen wo man nach moeglichen Gruenden (oder besser einer der Gruende) fuer jegliche Verzoegerungen suchen koennte.
Wenn dem so wäre, wo wäre dann der Sinn, Crossfire R4XX vorher - gerade im Hinblick auf G70 - vorzustellen? Wer soll das dann noch kaufen? Allein die vorgestellte R4XX-Variante läßt vermuten, daß zumindest die Realisierung dieses Multikarten-Config nicht all zu viel Zeit gekostet hat. Ich bin in dem Punkt weitaus bessere Lösungen gewöhnt. Aber wie es so schön heißt, liegt hinter jedem Gerücht natürlich auch einwenig Wahrheit.
So lange aber die Veroeffentlichung/Verfuegbarkeit von R520 keinen besonderen Abstand von G70 haben wird, ist es dann eigentlich nicht mehr so wichtig. Auf jeden Fall handelt es sich nicht um den "G70-Killer" den sich manche erhofft hatten.
Die schlaue Frage lautet eher, ob die Verfügbarkeit tatsächlich keinen besonderen Abstand zum G70 haben wird. Hat den schon ein AIB ansatzweise einen Plan, wann er was von ATi bekommen wird? Ich rechne jedenfalls nicht vor August/September damit, und bis dahin sind schon etliche Monate seit dem ursprünglichen Spin-Off vergangen, was so viel heißt, daß ich auch beim besten Willen nicht an die Realisierung der ursprünglichen Planung glaube.
***edit:
http://www.beyond3d.com/forum/viewtopic.php?t=23600&start=160&sid=0b8ccdeb197c74d00a6be17bd07064f7
Siehe meinen ersten Absatz.
Ailuros
2005-06-08, 15:36:55
90nm erlaubt eine doppelt so hohe Transistorendichte wie 130nm und auch >600Mhz sollten damit kein Problem sein. Warum deshalb die Yield 'vollkommen daneben' sein soll leuchtet mir nicht ein.
Beides zur gleichen Zeit eben nicht, ausser man will einen Mikrowellen-Herd bauen der mit seinem privaten Kuehschrank verkauft wird.
Das Maerchen wird leider noch etwa 2 Monate dauern, aber als manche von uns in der Vergangenheit sagten dass selbst R500 nicht so gross wie erwartet ist (was die Transistoren-Anzahl betrifft) glaubte es auch keiner. Wenn man jetzt eDRAM noch dazurechnet, kommt man natuerlich irgendwo knapp unter die 300M.
Ailuros
2005-06-08, 15:44:18
Wenn das der Plan war, schließt er nicht aus, daß sich die Zahl der Quads/ALUs zum Vorgänger verändert haben könnten. Ich sprach i.Ü. mit keiner Silbe von absoluten Zahlen für Pipelines.
Der Plan sah aber keine besondere Aenderungen was die Anzahl betrifft vor und nach allen Indizien (manche Entwickler blubbern halt doch selbst wenn unter NDA) hat sich auch nichts daran geaendert.
Wenn dem so wäre, wo wäre dann der Sinn, Crossfire R4XX vorher - gerade im Hinblick auf G70 - vorzustellen? Wer soll das dann noch kaufen? Allein die vorgestellte R4XX-Variante läßt vermuten, daß zumindest die Realisierung dieses Multikarten-Config nicht all zu viel Zeit gekostet hat. Ich bin in dem Punkt weitaus bessere Lösungen gewöhnt. Aber wie es so schön heißt, liegt hinter jedem Gerücht natürlich auch einwenig Wahrheit.
Ganz im Gegenteil ;)
Man hoffte ja auch dass es einfacher sein wird und dass man frueher damit fertig wird ;) Man fuchtelt immer noch an der oeden Southbridge rum und die Partner sind mit dem ganzen Master/Slave Schlammasel auch nicht gerade froh (siehe anandtech fuer southbridge).
Die schlaue Frage lautet eher, ob die Verfügbarkeit tatsächlich keinen besonderen Abstand zum G70 haben wird. Hat den schon ein AIB ansatzweise einen Plan, wann er was von ATi bekommen wird? Ich rechne jedenfalls nicht vor August/September damit, und bis dahin sind schon etliche Monate seit dem ursprünglichen Spin-Off vergangen, was so viel heißt, daß ich auch beim besten Willen nicht an die Realisierung der ursprünglichen Planung glaube.
Digitimes berichtete Bestellungen fuer Massenproduktion etwa zur gleichen Zeit; reicht mir aus fuer diese Spekulation momentan.
wuzetti
2005-06-08, 15:59:52
Nein Josh spekuliert hier nur und er erwaehnt es auch..
ich muss was auf den augen haben. er spricht doch eindeutig von informationen, die er bekommen hat.
Den Artikel haben wir uebrigens schon mal besprochen.
tatsächlich? ich kann mich an einen artikel von Josh erinnern, allerdings ist das schon ein paar wochen her. und er spricht hier ATI's bericht von den "lower than expected revenues" an, und das ist meines wissens erst seit wenigen tagen bekannt.
Crushinator
2005-06-08, 16:00:46
Der Plan sah aber keine besondere Aenderungen was die Anzahl betrifft vor und nach allen Indizien (manche Entwickler blubbern halt doch selbst wenn unter NDA) hat sich auch nichts daran geaendert.
Sprichst Du von Software-Entwicklern oder HW-Ingenieuren? Desweiteren sollen die 4 Quads von R4xx bei ~650 MHZ und SM3 ausreichen um gegen die 6 plus mehr Drehmomment der Konkurrenz anzukämpfen? Warum will es nicht so recht in meinen Kopf rein?
Ganz im Gegenteil ;)
Man hoffte ja auch dass es einfacher sein wird und dass man frueher damit fertig wird ;) Man fuchtelt immer noch an der oeden Southbridge rum und die Partner sind mit dem ganzen Master/Slave Schlammasel auch nicht gerade froh (siehe anandtech fuer southbridge). (...)
Du meinst ernshaft Crossfire R4XX hätte sie in der Entwicklung eines Single-Core R520 solange aufgehalten, und sie haben es nicht rechtzeitig bemerkt, obwohl sie hätten einen seit Monaten fertigen Chip Produktionsreif bekommen können? Eher glaube ich ehrlich gesagt an Ressourcenkanppheit wegen Xenon als daran.
robbitop
2005-06-08, 16:13:12
Dieser Josh scheint mir über einige Aspekte, die in seinem Artikel stehen, nicht viel zu wissen, beschreibt sie jedoch trotzdem. Ich würde nicht all zu viel auf den Artikel geben.
robbitop
2005-06-08, 16:15:13
ich muss was auf den augen haben. er spricht doch eindeutig von informationen, die er bekommen hat.
Ach komm, in den letzten Tagen meint jeder Spinner, irgendwelche Infos zu besitzen. Zumal diese "Informationen" komplett nutzlos sein könnten, da viel zu viel absichtlich an falschen Infos geleakt wird.
robbitop
2005-06-08, 16:20:48
Sprichst Du von Software-Entwicklern oder HW-Ingenieuren? Desweiteren sollen die 4 Quads von R4xx bei ~650 MHZ und SM3 ausreichen um gegen die 6 plus mehr Drehmomment der Konkurrenz anzukämpfen? Warum will es nicht so recht in meinen Kopf rein?
Weil IHV's Fehler machen. Wenn ATI wirklich >600MHz braucht, dann haben sie nur 4 Quads. Hätten sie 6 oder mehr Quads könnten sie bei ~500MHz bleiben, hätten bessere Yields und weniger Verzögerungen und könnten NVIDIA immernoch an die Wand nageln.
Mit R400/500 hat man viele viele Ressourcen vertan (ok R500 landete in der XBOX360). Zwei SM3 Designs nebenher zu entwickeln erscheint verschwenderisch und wenig sinnvoll. Was übrig bleibt ist ein Aufbohren des R3xx/4xx Cores. Dieser ist allerdings nicht so wirklich fein skallierbar wie das NV4x Design. Mal eben zwei Quads anzuschrauben kostet wirklich Arbeit. Zumal echte FP32 Rechenwerke und die dazugehörigen Änderungen für dynamisches Branching/looping/flow controll sind sehr transistorintensiv. Man vermutet hier, dass R300 @SM3 nicht so transistoreffektiv wie NV40 ist.
Letztendlich sieht es nach aussen so aus, als hätte sich da jemand gewaltig verschätzt.
Das Tapeout war vor 9 Monaten und anscheinend brauchen sie trotz gutem Prozess immer neue Respins. Da scheint der Takt nicht zu reichen, um einem 6 Quad NV4x @430 MHz gleichzukommen oder ihn zu besiegen.
Crushinator
2005-06-08, 16:21:38
Dieser Josh scheint mir über einige Aspekte, die in seinem Artikel stehen, nicht viel zu wissen, beschreibt sie jedoch trotzdem. Ich würde nicht all zu viel auf den Artikel geben.
Dann schau' Dir an, was Goldman Sachs (http://www.forbes.com/markets/2005/06/07/0607automarketscan10.html) sagt. "Design Issue" läßt grüßen. ;)
robbitop
2005-06-08, 16:27:12
Dann schau' Dir an, was Goldman Sachs (http://www.forbes.com/markets/2005/06/07/0607automarketscan10.html) sagt. "Design Issue" läßt grüßen. ;)
Ich meinte beispielsweise wo er (IMO recht unglücklich und verzweifelt) über Halbleiter und Ursachen für Leckströme und Taktraten zu sprechen versucht.
Crushinator
2005-06-08, 16:28:18
(...) Das Tapeout war vor 9 Monaten und anscheinend brauchen sie trotz gutem Prozess immer neue Respins. Da scheint der Takt nicht zu reichen, um einem 6 Quad NV4x @430 MHz gleichzukommen oder ihn zu besiegen.
Eben hieß es von Auliros noch, daß Crossfire dran schuld sein soll, jetzt sollen die unfähig sein den Chip ordentlich zu konstruieren. Was denn nun? :D
robbitop
2005-06-08, 16:32:57
Eben hieß es von Auliros noch, daß Crossfire dran schuld sein soll, jetzt sollen die unfähig sein den Chip ordentlich zu konstruieren. Was denn nun? :D
Crossfire? *lol* wer's glaubt. Crossfire ist eine recht "billige" Entwicklung. Konnte man nebenher machen und eigentlich nur eine Reaktion auf SLI. Ich glaube nicht, dass das große Auswirkungen hatte. Composition Engine hatte man ja bereits von E&S, die Samples waren programmierbar und Teilbilder konnte R3xx/4xx auch schon immer ausgeben. Es war hauptsächlich etwas Arbeit am Treiber und ein bisschen am PCB. Nichts Weltbewegendes.
Ich persönlich glaube, dass ATI sich etwas verschätzt hat und nicht genug Performance auf die Straße bringt bei derzeitigem Takt.
Sweeny deutete ja schon sowas in einem Interview an.
wuzetti
2005-06-08, 16:33:47
Ach komm, in den letzten Tagen meint jeder Spinner, irgendwelche Infos zu besitzen. Zumal diese "Informationen" komplett nutzlos sein könnten, da viel zu viel absichtlich an falschen Infos geleakt wird.
ich komm aber nicht :D
es sind mit mittlerweile einfach zu viele quellen, die in das gleiche horn stossen. noch dazu macht das ja auch sinn, denn sonst würde ATI nicht erst am 26. Juli - wenn überhaupt - vorstellen.
und dass es nur an ressourcen liegt, beispielsweise Crossfire, naja. eher glaub ich noch, dass sie zu viel ressourcen in R500 buttern mussten und immer noch müssen.
nochmal: wenn es nur ein 4 quad design mit taktfrequenz am absoluten anschlag ist, dann wünsch ich ATI viel spass.
wuzetti
2005-06-08, 16:38:12
Ich meinte beispielsweise wo er (IMO recht unglücklich und verzweifelt) über Halbleiter und Ursachen für Leckströme und Taktraten zu sprechen versucht.
da hast du sicher recht, aber das ist genau der teil des artikels, von dem ich NICHT gesprochen habe.
robbitop
2005-06-08, 16:43:14
ich komm aber nicht :D
es sind mit mittlerweile einfach zu viele quellen, die in das gleiche horn stossen. noch dazu macht das ja auch sinn, denn sonst würde ATI nicht erst am 26. Juli - wenn überhaupt - vorstellen.
und dass es nur an ressourcen liegt, beispielsweise Crossfire, naja. eher glaub ich noch, dass sie zu viel ressourcen in R500 buttern mussten und immer noch müssen.
nochmal: wenn es nur ein 4 quad design mit taktfrequenz am absoluten anschlag ist, dann wünsch ich ATI viel spass.
Zu viele Quellen? Die schreiben alle voneinander ab. Die Sign Off Speeds sind AFAIK 600MHz. Die sind auch verlässlich. Die bräuchte man bei 6 oder mehr Quads nicht. Das würde nur die Yields und damit den Gewinn versauen.
Ein Chip mit hohem Takt gegen einen Chip mit niedrigem Takt surgeriert, dass der Chip mit niedrigem Takt eine signifikant geringere pro Taktleistung inne hat. Andernfalls wären hohe Taktraten nicht notwendig.
Was bliebe ihnen denn jetzt noch anderes übrig? Es ist viel zu spät, um an einem Design etwas zu verändern. Das war es Okt 2004 auch schon.
NVIDIA konnte ja auch eine ganze Weile nichts gegen die NV30 Schande tun, ausser das Teil hochzutakten.
robbitop
2005-06-08, 16:44:05
da hast du sicher recht, aber das ist genau der teil des artikels, von dem ich NICHT gesprochen habe.
Wissen und Sicherheit ist aber IMO ein Indikator für Verlässlichkeit einer Quelle.
Godmode
2005-06-08, 16:45:50
ich komm aber nicht :D
es sind mit mittlerweile einfach zu viele quellen, die in das gleiche horn stossen. noch dazu macht das ja auch sinn, denn sonst würde ATI nicht erst am 26. Juli - wenn überhaupt - vorstellen.
Das könnte davon kommen weil alle vom gleichen falsch informiert werden ;)
Naja ich bin schon gespannt wann die 1. Benchmarks vom R520 und G70 geleaked werden und ich hoffe für ATI dass der R520 nicht deren NV30 wird, weil sie haben sich mit der R3xx/R4xx Serie einen wirklich tollen Ruf erarbeitet und der ist schnell wieder im Arscht, wie man ja bei Nvidia gesehen hat!
Crushinator
2005-06-08, 16:47:06
(...) Ich persönlich glaube, dass ATI sich etwas verschätzt hat und nicht genug Performance auf die Straße bringt bei derzeitigem Takt. (...)
Ich persönlich glaube an 3 Dinge: a) R520 war von Anfang an darauf ausgelegt bei Bedarf noch breiter zu werden, b) diese Verbreiterung zu früh fällig wurde, oder auch c) es sind gezielt verbreitete Gerüchte, um wen auch immer irre zu führen.
Weil IHV's Fehler machen. Wenn ATI wirklich >600MHz braucht, dann haben sie nur 4 Quads. Hätten sie 6 oder mehr Quads könnten sie bei ~500MHz bleiben, hätten bessere Yields und weniger Verzögerungen und könnten NVIDIA immernoch an die Wand nageln.
Mit R400/500 hat man viele viele Ressourcen vertan (ok R500 landete in der XBOX360). Zwei SM3 Designs nebenher zu entwickeln erscheint verschwenderisch und wenig sinnvoll. Was übrig bleibt ist ein Aufbohren des R3xx/4xx Cores. Dieser ist allerdings nicht so wirklich fein skallierbar wie das NV4x Design. Mal eben zwei Quads anzuschrauben kostet wirklich Arbeit. Zumal echte FP32 Rechenwerke und die dazugehörigen Änderungen für dynamisches Branching/looping/flow controll sind sehr transistorintensiv. Man vermutet hier, dass R300 @SM3 nicht so transistoreffektiv wie NV40 ist.
Letztendlich sieht es nach aussen so aus, als hätte sich da jemand gewaltig verschätzt.
Das Tapeout war vor 9 Monaten und anscheinend brauchen sie trotz gutem Prozess immer neue Respins. Da scheint der Takt nicht zu reichen, um einem 6 Quad NV4x @430 MHz gleichzukommen oder ihn zu besiegen.
Muss auch nicht unbedingt sein. Imho spielt MS da auch noch eine Rolle. Je nachdem was sie zahlen bzw gezahlt haben, kann es sich für ATI auch durchaus gerechnet haben den R520, sollte er wirklich recht schlapp gewesen sein, zurück zuhalten und ihn erst reifen zu lassen um sich stattdessen auf den R500 zu konzentrieren.
wuzetti
2005-06-08, 17:19:20
Zu viele Quellen? Die schreiben alle voneinander ab.
das mag für dich gegeben sein, für mich ist es das (vorerst) nicht.
Die Sign Off Speeds sind AFAIK 600MHz. Die sind auch verlässlich. Die bräuchte man bei 6 oder mehr Quads nicht. Das würde nur die Yields und damit den Gewinn versauen.
Ein Chip mit hohem Takt gegen einen Chip mit niedrigem Takt surgeriert, dass der Chip mit niedrigem Takt eine signifikant geringere pro Taktleistung inne hat. Andernfalls wären hohe Taktraten nicht notwendig.
ich habe meines wissens bis jetzt nichts anderes behauptet. wenn du um einiges weiter oben im thread schaust, wirst du sehen, dass ich ein "anhänger" des 4 quad lagers bin. aber es reden derzeit so viel leute über eine mögliche verbreiterung herum, dass es mich etwas stutzig macht. vielleicht ist das ding ja dafür vorgesehen, bei bedarf verbreitert werden zu können und das ist früher notwendig geworden als geplant. oder sie schmeissen R520 über bord und bringen gleich R580. dann schaun sie halt beim nächsten refreshzyklus alt aus, wenn NV ihren G70@90nm bringt.
oder allesamt sitzen derselben falschen info auf. wir werden es sehen.
Was bliebe ihnen denn jetzt noch anderes übrig? Es ist viel zu spät, um an einem Design etwas zu verändern. Das war es Okt 2004 auch schon.
NVIDIA konnte ja auch eine ganze Weile nichts gegen die NV30 Schande tun, ausser das Teil hochzutakten.
ack, siehe oben!
Sunrise
2005-06-08, 17:40:47
oder sie schmeissen R520 über bord und bringen gleich R580.
...bzw. sie haben es schon Monate im Voraus getan. Ich glaube nämlich nicht an Prozess-Probleme. Es sind entweder Design-technische Probleme, d.h. zu hoher, angestrebter Sign-Off, oder Verzögerungen, die hinsichtlich anderer Faktoren maßgeblich beeinflusst wurden. Crossfire ist in diesem Zusammenhang, für mich auch nur ein Lückenfüller, um ATI und deren neue MB-Schiene noch einmal ins rechte Licht zu rücken und noch einmal größeres Interesse an den aktuellen Karten zu wecken. ATI ist in letzter Zeit überhaupt etwas passiv, wenn es um "Innovationen" geht. In wieweit sich dies hält, bleibt abzuwarten.
deekey777
2005-06-08, 17:54:04
Trouble for ATI? R520 Issues (http://www.penstarsys.com/editor/company/ati/r520/index.html)
Zwar habe ich Bahnhof verstanden, aber so, wie er schreibt, hat man wieder den Spruch vor Augen, der R520 wird ATis NV30, was sich nicht auf die Performance bezieht.
An die Poster unter mir: Ich hab nur die Meinung zu diesem "Schreiben" niedergelegt. Und eine Bitte: Editiert die Quotes bezeiht -> bezieht. :biggrin:
Sunrise
2005-06-08, 17:58:41
Trouble for ATI? R520 Issues (http://www.penstarsys.com/editor/company/ati/r520/index.html)
Zwar habe ich Bahnhof verstanden, aber so wie er schreibt, hat man wieder den Spruch vor Augen, der R520 wird ATis NV30, was sich nicht auf die Performance bezeiht.
Siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3123766#post3123766
Crushinator
2005-06-08, 18:01:40
Trouble for ATI? R520 Issues (http://www.penstarsys.com/editor/company/ati/r520/index.html)
AAAA... err... Unneu™ (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3123766#post3123766)
Zwar habe ich Bahnhof verstanden, aber so wie er schreibt, hat man wieder den Spruch vor Augen, der R520 wird ATis NV30, was sich nicht auf die Performance bezeiht.
Da ist viel wahres dran. Die Frage ist nur wo genau dran! ;D
reunion
2005-06-08, 18:03:32
Beides zur gleichen Zeit eben nicht, ausser man will einen Mikrowellen-Herd bauen der mit seinem privaten Kuehschrank verkauft wird.
Die Transistorenanzahl hat AFAIK keinen Einfluss auf die Taktraten.
Crushinator
2005-06-08, 18:05:59
Die Transistorenanzahl hat AFAIK keinen Einfluss auf die Taktraten.
Ich befürchte, daß sie sogar einen sehr großen Einfluß darauf hat.
Die Transistorenanzahl hat AFAIK keinen Einfluss auf die Taktraten.
Warum AFAIK?
Ist korrekt. :)
Ich befürchte, daß sie sogar einen sehr großen Einfluß darauf hat.
Erkläre Prescott und A64. :)
dildo4u
2005-06-08, 18:08:11
Die Transistorenanzahl hat AFAIK keinen Einfluss auf die Taktraten.
Verlustleistung muss ihm rahmen bleiben von daher begrenzt der Transistorcount schon die Taktrate indirekt.
wuzetti
2005-06-08, 18:08:27
...bzw. sie haben es schon Monate im Voraus getan. Ich glaube nämlich nicht an Prozess-Probleme. Es sind entweder Design-technische Probleme, d.h. zu hoher, angestrebter Sign-Off, oder Verzögerungen, die hinsichtlich anderer Faktoren maßgeblich beeinflusst wurden. Crossfire ist in diesem Zusammenhang, für mich auch nur ein Lückenfüller, um ATI und deren neue MB-Schiene noch einmal ins rechte Licht zu rücken und noch einmal größeres Interesse an den aktuellen Karten zu wecken. ATI ist in letzter Zeit überhaupt etwas passiv, wenn es um "Innovationen" geht. In wieweit sich dies hält, bleibt abzuwarten.
Yap, Crossfire war wohl nicht riesig viel aufwand und diente dazu, die lücke bis zum R5X0 etwas zu schliessen und die nachfrage an den R4xx karten nochmal anzukurbeln.
die passivität ist mit ausnahme von R500 nicht zu übersehen - kann ich mir nur so erklären, dass sich manche herrschaften bei ATI mit den ressourcen vergalloppiert/verrechnet/verschätzt haben und möglicherweise noch (massive?) technische probleme in mehreren bereichen dazukamen. who knows....
auf jeden fall würde ich mir wünschen, wenn man von ATI wieder mehr in die richtung sehen würde. ansonsten könnte sehr schnell der eindruck entstehen, dass R3XX lediglich ein zufallstreffer war.
robbitop
2005-06-08, 18:10:13
Ich befürchte, daß sie sogar einen sehr großen Einfluß darauf hat.
Die Transistoranzahl und der Takt sind beide nur indirekt über den Yield verbunden. Allerdings schließt ein komplexes Design nicht hohe Taktraten aus. Beides allerdings verschlechtert die Yields.
Eher maßgeblich beteiligt am möglichen Takt ist das Design und der Fertigungsprozess.
Siehe R300/350/360 @150nm.
Eher maßgeblich beteiligt am möglichen Takt ist das Design und der Fertigungsprozess.
Design ist imo der wichtigste Punkt.
Crushinator
2005-06-08, 18:17:31
Verlustleistung muss ihm rahmen bleiben von daher begrenzt der Transistorcount schon die Taktrate indirekt.
Korrekt, denn er zitierte Auliros' Post, der wiederum schrieb: "außer man will einen Mikrowellen-Herd bauen, der mit seinem privaten Kühlschrank verkauft wird."
Korrekt, denn er zitierte Auliros' Post, der wiederum schrieb: "außer man will einen Mikrowellen-Herd bauen, der mit seinem privaten Kühlschrank verkauft wird."
Der besser Fertigungsprozess bei ATI?
Crushinator
2005-06-08, 18:28:07
Eher maßgeblich beteiligt am möglichen Takt ist das Design und der Fertigungsprozess. (...)
Zuerst möchte man in der Regel eine bestimmte Leistung erreichen und das auf einem begrenztem Platz. (DIE/Wafer) Das heißt, daß man sich vorher in etwa einig sein sollte, ob man eher tiefe Pipelines braucht oder hohen Takt. In sofern hat die Taktrate einen sehr großen Einfluß auf das Transistorbudget oder eben andersrum.
seahawk
2005-06-08, 18:41:45
90nm erlaubt eine doppelt so hohe Transistorendichte wie 130nm und auch >600Mhz sollten damit kein Problem sein. Warum deshalb die Yield 'vollkommen daneben' sein soll leuchtet mir nicht ein.
Also bedeutet eine Verdoppelung der Strukturbreite schon mal, dass die Transisotrdichte gleich bleiben muss, wenn man eine gleiche Die-Fläche erzielen will. Nun ist aber das Problem, dass dichter gepackte Transistoren anfälliger für Leckströme werden. Je höher der Takt desto größer das Problem.
Bei dem 0,09nm Prozess bei TSMC handelt es sich mit dem R520 um den ersten hochkomplexen und hochtaltenden Chip. Weiterhin steht da nur low-k aber nicht die anderen Techniken (Strained Silicon etc.) zur Verüfgung, die Intel und AMD in ihren eigenen Foundries nutzen.
Wie ich schon sagte, es ist nicht unmöglich, aber imho sehr unwahrscheinlich.
Glaubst du wirklich, man macht vorher ein Tapeout und schaut dann, ob dass Chipdesign passt?
Für soetwas gibt es Simulatoren.
Leckstöme kann man nicht simulieren. Wird ein langer Signalwegda z.B. gestört, dann wird man das erst am fertigen Chip merken.
Warum soll ein Chip, welcher auf niedrige Taktraten ausgelegt ist weniger Fehleranfällig sein?
Weil er den Fertigungsprozess weniger belastet. Je höher der Takt, desto sauberer muss die Signalübertragung sein.
Ich gehe übrigens davon aus, dass ATI den R520 ursprünglich nicht in der Planung hatte. Sowohl er, als auch Crossfire, sind kurzfristige Lösungen. ATI wollte imho nie mit einem SM3.0 Chipdesign in den PC-Markt eintreten. Der Erfolg von NV und die Verzögerung bei Longhorn zwangen sie aber dazu. Zusätzlich mußte man auf den überraschenden Erfolg von SLI reagieren.
Xenon ist zu speziell um für den PC fertig gemacht zu werden, muss aber in jedem Falle pünktlich fertig werden und dürfte Resourcen gebunden haben.
Also entschied man imho R420 auf SM3.0 zu trimmen und durch die möglichen Taktzuwächse im 0,09 Prozess eine hinreichende Leistungssteigerung zu erreichen. Das muss ja auch reichen. NV hat gesagt, dass sie mit ihrem nächsten High-End-Produkt nicht auf 0,09nm wollen, als können die nur 0,13nm low-k oder den billigen 0,11nm Prozess verwenden. 0,11nm ist aber laut TSMC nichs für High-End-Chips und eigene Erfahrungen mit der X700XT lassen an dem Prozess zweifeln.
Für mich bis dahin alles eine sehr verständliche und logische Entscheidungsfindung. (wenn es so gewesen wäre).
Crushinator
2005-06-08, 18:46:18
Der besser Fertigungsprozess bei ATI?
Nehmen wir doch einfach mal R480 (~160M Transistoren) und bauen Register für FP32 ein, sind schon mal schätzungsweise ~210M dann alle möglichen Units zum Branchen etc. ppp dann sind wir bei ca. 240M oder evtl. mehr. Wieviel Transistoren möchtest Du nun noch dazu packen, damit die doppelte Menge an herkömmlichen Quads bei rauskommt? Wenn wir dann bei über 350M ankommen sollten und immer noch 600+ MHz schaffen, wäre es zwar eine wahrliche Meisterleistung ohne ihres Gleichen, aber auch puncto Stromverbrauch und Kühlungsbedarf und zwar im negativen Sinne.
robbitop
2005-06-08, 18:50:57
Zuerst möchte man in der Regel eine bestimmte Leistung erreichen und das auf einem begrenztem Platz. (DIE/Wafer) Das heißt, daß man sich vorher in etwa einig sein sollte, ob man eher tiefe Pipelines braucht oder hohen Takt. In sofern hat die Taktrate einen sehr großen Einfluß auf das Transistorbudget oder eben andersrum.
Von tiefen Pipelines ist hier abzuraten aufgrund der Latenzen. Bei hoch paralell arbeitenden Prozessoren wie GPUs spielt die Tiefe der Pipeline für den Takt keine allzugroße Rolle. Ich glaube du verwechselst hier etwas.
Wie gesagt, der Transistorcount hängt nicht direkt mit der maximal erreichbaren Taktrate zusammen. Beispiele hierfür gibt es genug (R3xx, Intels Prescott usw).
Was sinnvoll ist und was nicht ist eine andere Sache.
Zusammenhang zwischen Taktrate und Transistoren ist nur der Yield.
Will man einen möglichst hohen Yield sollte man die Faktoren, die diesen beeinflussen gut wählen.
Nehmen wir doch einfach mal R480 (~160M Transistoren) und bauen Register für FP32 ein, sind schon mal schätzungsweise ~210M dann alle möglichen Units zum Branchen etc. ppp dann sind wir bei ca. 240M oder evtl. mehr. Wieviel Transistoren möchtest Du nun noch dazu packen, damit die doppelte Menge an herkömmlichen Quads bei rauskommt? Wenn wir dann bei über 350M ankommen sollten und immer noch 600+ MHz schaffen, wäre es zwar eine wahrliche Meisterleistung ohne ihres Gleichen, aber auch puncto Stromverbrauch und Kühlungsbedarf und zwar im negativen Sinne.
Erklärung logisch und auch akzeptiert. :)
Allerdings verbraucht ein Quad vielleicht nicht so viel, wie Du es Dir vorstellst...;)
Ich rechne mit 300-350 Mio Transis. Ob da bei 32 Pipes noch 600 Mhz möglich sind...
Keine Ahnung. Wir wissen ja nicht, wie gut/schlecht der 0,09nm-Prozess ist.
Das ist für mich die grossen Frage. :)
ShadowXX
2005-06-08, 18:56:35
Ich gehe übrigens davon aus, dass ATI den R520 ursprünglich nicht in der Planung hatte. Sowohl er, als auch Crossfire, sind kurzfristige Lösungen. ATI wollte imho nie mit einem SM3.0 Chipdesign in den PC-Markt eintreten. Der Erfolg von NV und die Verzögerung bei Longhorn zwangen sie aber dazu. Zusätzlich mußte man auf den überraschenden Erfolg von SLI reagieren.
Xenon ist zu speziell um für den PC fertig gemacht zu werden, muss aber in jedem Falle pünktlich fertig werden und dürfte Resourcen gebunden haben.
Also entschied man imho R420 auf SM3.0 zu trimmen und durch die möglichen Taktzuwächse im 0,09 Prozess eine hinreichende Leistungssteigerung zu erreichen. Das muss ja auch reichen. NV hat gesagt, dass sie mit ihrem nächsten High-End-Produkt nicht auf 0,09nm wollen, als können die nur 0,13nm low-k oder den billigen 0,11nm Prozess verwenden. 0,11nm ist aber laut TSMC nichs für High-End-Chips und eigene Erfahrungen mit der X700XT lassen an dem Prozess zweifeln.
Für mich bis dahin alles eine sehr verständliche und logische Entscheidungsfindung. (wenn es so gewesen wäre).
So in der Richtung waren bis jetzt auch immer meine Gedanken.
ATI wollte SM3.0 sehr wahrscheinlich auslassen und gleich zur auslieferung Longhorns einen WGF2.0-Chip vorstellen.
Man hat sich da wohl etwas zu stark auf ein sehr pünktliches Erscheinen von LH verlassen......wobei man IMHO vorraussehen hätte können, das MS das nie pünktlich hinbekommt (haben Sie überhaupt schon mal ein OS "pünktlich" released??)
Nur bei 0,11nm Prozess scheint uns nV jetzt eines besseren zu belehren.
Viele Transistoren die dafür auch noch "relativ" hoch getaktet werden....
reunion
2005-06-08, 19:05:40
Das Tapeout war vor 9 Monaten und anscheinend brauchen sie trotz gutem Prozess immer neue Respins. Da scheint der Takt nicht zu reichen, um einem 6 Quad NV4x @430 MHz gleichzukommen oder ihn zu besiegen.
Da das erste Tapeout schon mit >600Mhz gelaufen ist, scheint es in punkto Takt keine Probleme zu geben. Zum Vergleich, R420 lief zu beginn nur mit knapp über 400Mhz.
reunion
2005-06-08, 19:10:07
Weil IHV's Fehler machen. Wenn ATI wirklich >600MHz braucht, dann haben sie nur 4 Quads.
Warum braucht?
Wenn es möglich ist, warum nicht?
Hätten sie 6 oder mehr Quads könnten sie bei ~500MHz bleiben, hätten bessere Yields und weniger Verzögerungen und könnten NVIDIA immernoch an die Wand nageln.
Und nochmal, warum sollte man auf 500Mhz gehen, wenn schon das erste Tapeout mit über 600Mhz lief?
Also bedeutet eine Verdoppelung der Strukturbreite schon mal, dass die Transisotrdichte gleich bleiben muss, wenn man eine gleiche Die-Fläche erzielen will. Nun ist aber das Problem, dass dichter gepackte Transistoren anfälliger für Leckströme werden. Je höher der Takt desto größer das Problem.
Bei dem 0,09nm Prozess bei TSMC handelt es sich mit dem R520 um den ersten hochkomplexen und hochtaltenden Chip. Weiterhin steht da nur low-k aber nicht die anderen Techniken (Strained Silicon etc.) zur Verüfgung, die Intel und AMD in ihren eigenen Foundries nutzen.
Wie ich schon sagte, es ist nicht unmöglich, aber imho sehr unwahrscheinlich.
Leckstöme kann man nicht simulieren. Wird ein langer Signalwegda z.B. gestört, dann wird man das erst am fertigen Chip merken.
*snip*
Leckströme spielen bei Grafikkarten eher eine kleine Rolle.
robbitop
2005-06-08, 19:11:18
Also bedeutet eine Verdoppelung der Strukturbreite schon mal, dass die Transisotrdichte gleich bleiben muss, wenn man eine gleiche Die-Fläche erzielen will.
Was? Wenn die Größe der Transistoren schrumpft, dann passen doch pro (bsw) Quadratzentimter mehr Transistoren. Die Transistorendichte nimmt also mit kleinerwerdenden Strukturen zu. Du meinst hier wohl einen Shrink der Strukturbreite?
Nun ist aber das Problem, dass dichter gepackte Transistoren anfälliger für Leckströme werden.
Das liegt an der Größe der Transistoren und nicht an ihrer Dichte.
Es fließt ein Strom zw. Drain und Gate, obwohl der Transistor gerade nicht schaltet. Das ist bei GPUs übrigens kein großes Problem wie bei CPUs (sonst hätte man schon längst zu SOI gegriffen). Denn GPUs sind hochparallel, dh ein sehr großer Anteil der Transistoren schaltet immer. Es gibt also weniger Leckstromanteil.
Je höher der Takt desto größer das Problem.
Bei dem 0,09nm Prozess bei TSMC handelt es sich mit dem R520 um den ersten hochkomplexen und hochtaltenden Chip. Weiterhin steht da nur low-k aber nicht die anderen Techniken (Strained Silicon etc.) zur Verüfgung, die Intel und AMD in ihren eigenen Foundries nutzen.
Was haben strained und lowk mit Leckströmen zu tun?
low k ist ein Dielektrikum zwischen den Verdrahtungsebenen. Ein geringes Dielektrika wie bei lowk isoliert sogar noch schlechter, aber es verringert auch die Kapazität. Somit sinkt der Kapazitative Widerstand, der ja von dI/dt abhängig ist. Bei hohem Takt macht dieser die schönen Signalflanken zunichte, so dass die Optokoppler (macht man das heute noch so?) diese nicht mehr identifizieren können. Je geringer der Kapazitative Widerstand, desto sauberer die Signalflanken. Dem könnte man auch durch Spannungserhöhung etwas beikommen (was wie du weißt die Verlustleistung erhöt). Das machen die Übertakter gern *gg*.
Strained hingegen sorgt dafür, dass die Transistoren schneller schalten können. Aber AFAIK nicht dafür, dass weniger Leckströme fließen.
Leckstöme kann man nicht simulieren. Wird ein langer Signalwegda z.B. gestört, dann wird man das erst am fertigen Chip merken.
Was hat das Eine mit dem Anderen zu tun?
Lange Signalwegen geht der Floorplaner im Vorhinein aus dem Weg. Deswegen ist es wichtig, gute Floorplaner und Tools zu besitzen.
Leckströmen kann man mit etwas gutem Design ein wenig beikommen (schau dir mal den Pentium M an. Da hast du relativ wenig Leckstromanteil relativ zu anderen CPUs).
Weil er den Fertigungsprozess weniger belastet. Je höher der Takt, desto sauberer muss die Signalübertragung sein.
jap :)
Ich gehe übrigens davon aus, dass ATI den R520 ursprünglich nicht in der Planung hatte. Sowohl er, als auch Crossfire, sind kurzfristige Lösungen. ATI wollte imho nie mit einem SM3.0 Chipdesign in den PC-Markt eintreten. Der Erfolg von NV und die Verzögerung bei Longhorn zwangen sie aber dazu. Zusätzlich mußte man auf den überraschenden Erfolg von SLI reagieren.
Xenon ist zu speziell um für den PC fertig gemacht zu werden, muss aber in jedem Falle pünktlich fertig werden und dürfte Resourcen gebunden haben.
Also entschied man imho R420 auf SM3.0 zu trimmen und durch die möglichen Taktzuwächse im 0,09 Prozess eine hinreichende Leistungssteigerung zu erreichen. Das muss ja auch reichen. NV hat gesagt, dass sie mit ihrem nächsten High-End-Produkt nicht auf 0,09nm wollen, als können die nur 0,13nm low-k oder den billigen 0,11nm Prozess verwenden. 0,11nm ist aber laut TSMC nichs für High-End-Chips und eigene Erfahrungen mit der X700XT lassen an dem Prozess zweifeln.
Für mich bis dahin alles eine sehr verständliche und logische Entscheidungsfindung. (wenn es so gewesen wäre).
Eine durchaus denkbare Möglichkeit IMO. ATI hat ursprünglich mit dem R400 einen SM3 Chip entwickelt. Wie du ja weißt, wurde dieser gecancled. Er war wie sein Nachfolger, der jetzt in der XBOX360 sitzt, vermutlich zu langsam für den PC Markt. Somit hatte man 2003 als dies entschieden wurde nicht mehr viele Alternativen: Aus R400 -> R500 bauen für die XBOX
Aus R300 -> R420 bauen für den PC.
Ich glaube die SM3 Entscheidung ist nicht erst zum NV40 Erfolg gekommen. Da wäre zu wenig Zeit noch übrig gewesen. Dass man R420 nochmals aufbohrt (was ich für wahrscheinlich halte) wurde sicher auch 2003 vieleicht Anfang 2004 entschieden. Ich weiß nicht wie aufwändig das ist, aber es gibt laut Demirug schon ein paar Möglichkeiten das hinzubekommen.
Man sagt sich, dass NV40 transistoreffektiver als ein R420 @SM3 bei gleicher Anzahl von Ausführungseinheiten wäre.
Für mich ist der hohe Sign Off Speed, die Verzögerungen, der vermeintlich gute 90nm Prozess und die Vorstellung von X-Fire ein Zeichen für eine GPU, die Probleme haben könnte
wuzetti
2005-06-08, 19:11:48
Da das erste Tapeout schon mit >600Mhz gelaufen ist, scheint es in punkto Takt keine Probleme zu geben. Zum Vergleich, R420 lief zu beginn nur mit knapp über 400Mhz.
das muss aber noch nicht zwangsläufig heissen, dass auch die leistung dem entspricht, was man sich erwartet hat bzw. die notwendig ist, um mit besagtem G70 zumindest gleichzuziehen. das bringt einen ausserdem unweigerlich zur vermutung, dass man vielleicht NV bzw. die möglichkeiten des 110nm prozesses unterschätzt hat.
robbitop
2005-06-08, 19:12:31
Warum braucht?
Wenn es möglich ist, warum nicht?
Und nochmal, warum sollte man auf 500Mhz gehen, wenn schon das erste Tapeout mit über 600Mhz lief?
Yields? Gewinne?
Und wenn das Teil mit 600MHz bei guten Yields gelaufen wäre, dann würde es diesen schon viel eher in Massen geben. Denn TSMC hat massig 90nm NexSys Kapazität.
robbitop
2005-06-08, 19:13:36
So in der Richtung waren bis jetzt auch immer meine Gedanken.
ATI wollte SM3.0 sehr wahrscheinlich auslassen und gleich zur auslieferung Longhorns einen WGF2.0-Chip vorstellen.
Man hat sich da wohl etwas zu stark auf ein sehr pünktliches Erscheinen von LH verlassen......wobei man IMHO vorraussehen hätte können, das MS das nie pünktlich hinbekommt (haben Sie überhaupt schon mal ein OS "pünktlich" released??)
Nur bei 0,11nm Prozess scheint uns nV jetzt eines besseren zu belehren.
Viele Transistoren die dafür auch noch "relativ" hoch getaktet werden....
Für Longhorn waren NV50 und R600 geplant. Beide wären AFAIK längst noch nicht fertig gewesen.
robbitop
2005-06-08, 19:14:55
Da das erste Tapeout schon mit >600Mhz gelaufen ist, scheint es in punkto Takt keine Probleme zu geben. Zum Vergleich, R420 lief zu beginn nur mit knapp über 400Mhz.
Wer sagt, dass der Signoff vom ersten Tapeout >600MHz war?
Das ist laut AiL der aktuelle Signoff.
reunion
2005-06-08, 19:15:08
Sweeny deutete ja schon sowas in einem Interview an.
Unter den Umständen, unter denen das Interview entstanden ist, würde ich auf diese Aussage nicht viel geben. :rolleyes:
Warum braucht?
Wenn es möglich ist, warum nicht?
Und nochmal, warum sollte man auf 500Mhz gehen, wenn schon das erste Tapeout mit über 600Mhz lief?
1. Wenn ein Design ineffizient ist, braucht es viel Takt um Leistung zu bringen (Hallo NV30!!). Je höher der anfängliche Takt, desto geringer die Chance für einen Refresh noch ordentlich MHz rauszuholen. Oder fandest du den 'Refresh', der den Namen Refresh eigentlich gar nicht verdient hat, von R420 auf R480 mit seinen 20MHz mehr toll?
2. robbitop hat 6 Quads gemeint = 24 Pipelines. Warum sollte ATI den R520 auf über 600MHz mit 6 Quads prügeln wenn Nvidia bei ca. 430 MHz stehen bleibt und somit, sofern der R520 nicht wirklich grottenlahm ist, 500MHz schon reichen?
Crushinator
2005-06-08, 19:18:15
(...) Zusammenhang zwischen Taktrate und Transistoren ist nur der Yield. Will man einen möglichst hohen Yield sollte man die Faktoren, die diesen beeinflussen gut wählen.
Mehr Trasistoren == mehr Strom wird gebraucht, gleichzeitig erzeugt man mehr Verlustleistung, und in Zusammenhang mit ungünstiger Taktung auch tödlich für Yields.
reunion
2005-06-08, 19:20:25
Ich befürchte, daß sie sogar einen sehr großen Einfluß darauf hat.
Nein, wenn man das Teil ausreichend kühlen kann bzw. eine außreichend hohen Yield erziehlt, sollte dies egal sein.
Siehe z.B. RV360 vs. R420.
robbitop
2005-06-08, 19:21:28
Mehr Trasistoren == mehr Strom wird gebraucht, gleichzeitig erzeugt man mehr Verlustleistung, und in Zusammenhang mit ungünstiger Taktung auch tödlich für Yields.
Abwärme kann man kühlen. Eine R300 kannst du auch höher takten als eine Geforce4. Trotz mehr Transistoren und gleichem Fertigungsprozess.
Du siehst, dass beides nur indirekt über den Yield verbunden ist, hm? :)
Ich sage ja nichts gegen einen indirekten Zusammenhang. Nur gegen einen Direkten ;)
Mehr Trasistoren == mehr Strom wird gebraucht, gleichzeitig erzeugt man mehr Verlustleistung, und in Zusammenhang mit ungünstiger Taktung auch tödlich für Yields.
Wenn man Äpfel mit Birnen vergleicht, ja.
Mit einem besseren Fertigungsprozess kann man das aber kompensieren. :)
robbitop
2005-06-08, 19:22:50
Unter den Umständen, unter denen das Interview entstanden ist, würde ich auf diese Aussage nicht viel geben. :rolleyes:
Meinst du, Sweeny lügt? :)
seahawk
2005-06-08, 19:23:10
Was? Wenn die Größe der Transistoren schrumpft, dann passen doch pro (bsw) Quadratzentimter mehr Transistoren. Die Transistorendichte nimmt also mit kleinerwerdenden Strukturen zu. Du meinst hier wohl einen Shrink der Strukturbreite?
Mit Strukturbreite meinte ich jier die Anzahl der Pipelines. Verdoppel ich die Pipelines dann verdoppele ich (vollkommen vereinfacht) die Anzahl der Transistoren. Geht man also von 16 zu 32 und fügt SM3.0 hinzu, dann würde man wahrscheinlich die höhere Packungsdichte brauchen um die gleiche Diefläche zu erzielen.
Das liegt an der Größe der Transistoren und nicht an ihrer Dichte.
Es fließt ein Strom zw. Drain und Gate, obwohl der Transistor gerade nicht schaltet. Das ist bei GPUs übrigens kein großes Problem wie bei CPUs (sonst hätte man schon längst zu SOI gegriffen). Denn GPUs sind hochparallel, dh ein sehr großer Anteil der Transistoren schaltet immer. Es gibt also weniger Leckstromanteil.
Das wußte ich nicht. Aber verwendet die GPU Branche nicht noch "Standardtransisotren" wöhrend AMD und Intel da auch schon eigene Lösungen nutzen ?
Was haben strained und lowk mit Leckströmen zu tun?
low k ist ein Dielektrikum zwischen den Verdrahtungsebenen. Ein geringes Dielektrika wie bei lowk isoliert sogar noch schlechter, aber es verringert auch die Kapazität. Somit sinkt der Kapazitative Widerstand, der ja von dI/dt abhängig ist. Bei hohem Takt macht dieser die schönen Signalflanken zunichte, so dass die Optokoppler (macht man das heute noch so?) diese nicht mehr identifizieren können. Je geringer der Kapazitative Widerstand, desto sauberer die Signalflanken. Dem könnte man auch durch Spannungserhöhung etwas beikommen (was wie du weißt die Verlustleistung erhöt). Das machen die Übertakter gern *gg*.
Strained hingegen sorgt dafür, dass die Transistoren schneller schalten können. Aber AFAIK nicht dafür, dass weniger Leckströme fließen.
Da habe ich wieder was gelernt. :smile:
Wobei sorgen low-k und Strained nicht für eine saubere Signalqualität, die wiederum weniger anfällig gegen Leckströme ist ?
Was hat das Eine mit dem Anderen zu tun?
Lange Signalwegen geht der Floorplaner im Vorhinein aus dem Weg. Deswegen ist es wichtig, gute Floorplaner und Tools zu besitzen.
Leckströmen kann man mit etwas gutem Design ein wenig beikommen (schau dir mal den Pentium M an. Da hast du relativ wenig Leckstromanteil relativ zu anderen CPUs).
Jo. Allerdings sollen doe Tools für 0,09 ja doch etwas stärker von den alten Prozessen abweichen, als bsiher üblich. Ein Fehler im Design ist imho wahrscheinlicher.
Eine durchaus denkbare Möglichkeit IMO. ATI hat ursprünglich mit dem R400 einen SM3 Chip entwickelt. Wie du ja weißt, wurde dieser gecancled. Er war wie sein Nachfolger, der jetzt in der XBOX360 sitzt, vermutlich zu langsam für den PC Markt. Somit hatte man 2003 als dies entschieden wurde nicht mehr viele Alternativen: Aus R400 -> R500 bauen für die XBOX
Aus R300 -> R420 bauen für den PC.
Ich glaube die SM3 Entscheidung ist nicht erst zum NV40 Erfolg gekommen. Da wäre zu wenig Zeit noch übrig gewesen. Dass man R420 nochmals aufbohrt (was ich für wahrscheinlich halte) wurde sicher auch 2003 vieleicht Anfang 2004 entschieden. Ich weiß nicht wie aufwändig das ist, aber es gibt laut Demirug schon ein paar Möglichkeiten das hinzubekommen.
Man sagt sich, dass NV40 transistoreffektiver als ein R420 @SM3 bei gleicher Anzahl von Ausführungseinheiten wäre.
Für mich ist der hohe Sign Off Speed, die Verzögerungen, der vermeintlich gute 90nm Prozess und die Vorstellung von X-Fire ein Zeichen für eine GPU, die Probleme haben könnte
Wäre für mich zumindest eine Erklärung. Und natürlich gehe auch ich nur davon aus, dass R520 Probleme haben könnte. Wobei ich nicht an Probleme im Chip glaube, sondern höchstens an Probleme die jetzt als notwendig erscheinende Leistung zu erreichen.
Ich glaube, dass nicht nur wir über die Anzahl der Pipes und die dabei erreichten Taktraten vom G70 überrascht waren. (wobei wir dies sicher später erfahren haben)
seahawk
2005-06-08, 19:24:39
Nein, wenn man das Teil ausreichend kühlen kann bzw. eine außreichend hohen Yield erziehlt, sollte dies egal sein.
Siehe z.B. RV360 vs. R420.
Wobei die Kühlmöglichkeiten bei Grafikkarten im Hinblick auf Kosten, Geiwcht und Lautstärke begrenzt sind.
ShadowXX
2005-06-08, 19:29:58
Für Longhorn waren NV50 und R600 geplant. Beide wären AFAIK längst noch nicht fertig gewesen.
Wenn nv50 und r600 denn überhaupt noch das sind, für was diese Codenamen damals standen.....
Im Allerbesten falle, wäre LH incl. WGF2.0 nämlich in Q1/2006 fällig gewesen.
AiL hat schon öfter mal erwähnt, das gerade die Verzögerung und Änderungen von/an WGF2.0 (und LH) den Fahrplan der IHVs gehörig durcheinander gebracht haben.
Die Entscheidung von ATI doch noch SM3.0 zu bringen mag früher gefallen sein, als ich selber dies vermute, aber ich glaube trotzdem, dass diese nicht ganz "freiwillig" gefallen ist.
Der r420 war zu 90% ein Notnagel, aber selbst der r520 kommt mir momentan nicht wesentlich unnotnageliger (TM) vor.
Warum der r520 sich momentan so verzögert kann 1001 Gründe haben, aber ich gehe momentan nicht davon aus, das es daran liegt das ATI keine Lust hat ihn zu releasen und lieber erst mal Crossfire für die x8x0-Serie auf den Markt schmeisst obwohl die Yield, die Takraten etc. doch alle so gigantisch sein sollen....
Nach den vielen Seitenbemerkungen in letzter Zeit von verschiedensten Personen bin ich inzwischen sehr gespannt auf das Design des r520.....erwarten tu ich da allerdings momentan nicht mehr sehr viel.
Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Sunrise
2005-06-08, 19:33:17
Da das erste Tapeout schon mit >600Mhz gelaufen ist, scheint es in punkto Takt keine Probleme zu geben. Zum Vergleich, R420 lief zu beginn nur mit knapp über 400Mhz.
Die unsichere Variable ist, dass niemand weiß, ob dieser Takt auch serienreif zur Verfügung steht/stand. "Gelaufen" ist relativ. Denn ob es klug ist, diesen Chip mit schlechten Yields vorzustellen, diese Frage kann dir der Takt alleine nicht beantworten. Siehe übrigens G70. Da kann eine Verzögerung von Monaten schon eine dramatische Verbesserung hinsichtlich der Yields darstellen. Aber wie gesagt, ich glaube weniger an Probleme, die direkt mit dem Prozess verbunden sind. Das Design von R520 muss sich wohl in einigen Punkten (gänzlich) vom R420 unterscheiden.
robbitop
2005-06-08, 19:33:44
Mit Strukturbreite meinte ich jier die Anzahl der Pipelines. Verdoppel ich die Pipelines dann verdoppele ich (vollkommen vereinfacht) die Anzahl der Transistoren. Geht man also von 16 zu 32 und fügt SM3.0 hinzu, dann würde man wahrscheinlich die höhere Packungsdichte brauchen um die gleiche Diefläche zu erzielen.
Die GPU ist deutlich mehr als nur Summe seiner Pixelprozessoren. Schau dir mal R420 ggü R300 an. Das sind 160Mio Transistoren vs 107 Mio.
SM3 wird allerdings teuer.
Die Packungsdichte ist bei jedem Hersteller spezifisch und nicht veränderbar innerhalb eines Produktionsprozesses. Ich wüßte aber nicht, dass ausserhalb von SRAM sich da so große Unterschiede ergeben würden.
Das wußte ich nicht. Aber verwendet die GPU Branche nicht noch "Standardtransisotren" wöhrend AMD und Intel da auch schon eigene Lösungen nutzen ?
Das ist so ja. Das lohnt idR nur, bei eigenen Fertigungsstätten und wenn man das nötige R&D besitzt. Ist nämlich sehr aufwändig. Der Yield und die Taktbarkeit steigen aber beträchtlich. Ich bin gespannt, was ATI aus Fast14 macht...
Da habe ich wieder was gelernt. :smile:
Wobei sorgen low-k und Strained nicht für eine saubere Signalqualität, die wiederum weniger anfällig gegen Leckströme ist ?
Irgendwie hängt vieles zusammen. Aber die Signalqualität beeinflußt nicht die Leckströme oder umgekehrt. Leckströme sind bei relativ wenig schaltenden Transistoren, wie es bei CPUs vorkommt, sehr ärgerlich, da man dann trotzdem relativ hohe Leistungsaufnahmen hat.
Jo. Allerdings sollen doe Tools für 0,09 ja doch etwas stärker von den alten Prozessen abweichen, als bsiher üblich. Ein Fehler im Design ist imho wahrscheinlicher.
Möglich. Ein Respin und ein weiteres TapeOut wären nötig, um das zu korrigieren. Das kostet wieder > drei Monate.
reunion
2005-06-08, 19:34:57
Weil er den Fertigungsprozess weniger belastet. Je höher der Takt, desto sauberer muss die Signalübertragung sein.
Das ist prinzipiell richtig, nur siehst du die Kehrseite der Medaille nicht.
Denn ein niedrig getakteter Chip bedeutet auch immer, dass man diesen dafür breiter machen muss, um auf dieselbe Leistung zu kommen als bei einem höher getakteten. Was genauso den Fertigungsprozess belastet, ect.
robbitop
2005-06-08, 19:35:22
Wenn nv50 und r600 denn überhaupt noch das sind, für was diese Codenamen damals standen.....
Im Allerbesten falle, wäre LH incl. WGF2.0 nämlich in Q1/2006 fällig gewesen.
AiL hat schon öfter mal erwähnt, das gerade die Verzögerung und Änderungen von/an WGF2.0 (und LH) den Fahrplan der IHVs gehörig durcheinander gebracht haben.
Die Entscheidung von ATI doch noch SM3.0 zu bringen mag früher gefallen sein, als ich selber dies vermute, aber ich glaube trotzdem, dass diese nicht ganz "freiwillig" gefallen ist.
Der r420 war zu 90% ein Notnagel, aber selbst der r520 kommt mir momentan nicht wesentlich unnotnageliger (TM) vor.
Warum der r520 sich momentan so verzögert kann 1001 Gründe haben, aber ich gehe momentan nicht davon aus, das es daran liegt das ATI keine Lust hat ihn zu releasen und lieber erst mal Crossfire für die x8x0-Serie auf den Markt schmeisst obwohl die Yield, die Takraten etc. doch alle so gigantisch sein sollen....
Nach den vielen Seitenbemerkungen in letzter Zeit von verschiedensten Personen bin ich inzwischen sehr gespannt auf das Design des r520.....erwarten tu ich da allerdings momentan nicht mehr sehr viel.
Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Zu allen Aspekten dieses Posts: Ack :)
Sunrise
2005-06-08, 19:36:49
Yields? Gewinne?
Und wenn das Teil mit 600MHz bei guten Yields gelaufen wäre, dann würde es diesen schon viel eher in Massen geben. Denn TSMC hat massig 90nm NexSys Kapazität.
So sieht es aus.
robbitop
2005-06-08, 19:36:59
Die unsichere Variable ist, dass niemand weiß, ob dieser Takt auch serienreif zur Verfügung steht/stand. "Gelaufen" ist relativ. Denn ob es klug ist, diesen Chip mit schlechten Yields vorzustellen, diese Frage kann dir der Takt alleine nicht beantworten. Siehe übrigens G70. Da kann eine Verzögerung von Monaten schon eine dramatische Verbesserung hinsichtlich der Yields darstellen. Aber wie gesagt, ich glaube weniger an Probleme, die direkt mit dem Prozess verbunden sind. Das Design von R520 muss sich wohl in einigen Punkten (gänzlich) vom R420 unterscheiden.
Die Rede war IIRC vom Signoff speed. Diesen hat AiL zum R520 eingeworfen. Diesen Takt empfiehlt die Foundry dem Hersteller für die Massenproduktion für einen guten Yield. (AFAIK)
ShadowXX
2005-06-08, 19:38:16
Ich glaube, dass nicht nur wir über die Anzahl der Pipes und die dabei erreichten Taktraten vom G70 überrascht waren. (wobei wir dies sicher später erfahren haben)
Wirklich überrascht war ich von der Quad-Anzahl des G70 nicht, eher von der gewählten Strukturbreite.
nV hatte keine anderen grossen Möglichkeiten ausser ein weiters Quad anhängen, da Sie nicht auf 0,09nm wechseln wollten.
Diskutator
2005-06-08, 19:38:32
ATI ist in letzter Zeit überhaupt etwas passiv, wenn es um "Innovationen" geht. In wieweit sich dies hält, bleibt abzuwarten.
Hallo,
R420 mit 3DC ist definitiv eine Innovation gewesen, letztendlich verwendet es nv ja jetzt auch.
..Notebook-Markt!!!! 70% ATI 30% nv, wenn mann Intel nicht berücksichtigt!
Crossfire ist die Innovation 2005, im Vergleich zu SLI einen Meilenstein!
Nicht zu vergessen was ATI im HDTV -Markt so alles macht. Ihr Xillion Chip hat einige Vorzüge.
Das Motorola Handy (Razor) ist mit ATI Imageon bestückt.
Das sind alles Bereiche in denen nv schwächelt bzw. nicht anwesend ist.
XBOX mit R500
Der PC wird spät. 2007 den Schritt in's Wohnzimmer gemacht haben, warten wir ab wer die besseren Karten für die Zukunft auf der Hand hat.
Zum Thema R520: Das was Josh sagt ist ohne Beleg, letztendlich sind die R520 Launchdaten bestätigt und ich sehe keine Probleme!
Grüsse
Crushinator
2005-06-08, 19:40:04
Abwärme kann man kühlen. Eine R300 kannst du auch höher Takten als eine Geforce4. Trotz mehr Transistoren und höherem Fertigungsprozess.
Du meinst sicher bei gleichem Fertigungsprozeß und größerem DIE und mehr Stromverbrauch. (beide 150nm)
Du siehst, dass beides nur indirekt über den Yield verbunden ist, hm? :)
Ich sage ja nichts gegen einen indirekten Zusammenhang. Nur gegen einen Direkten ;)
Ich sehe eigentlich nur Eines, nämlich Ailuros' Anmerkung, daß so ein Transistormonster bei der angepeilten Taktung eine übertriebene Kühlung bräuchte, worauf geantwortet wurde, daß die Transistorzahl keine Auswirkung auf den Takt hätte.
Warum der r520 sich momentan so verzögert kann 1001 Gründe haben, aber ich gehe momentan nicht davon aus, das es daran liegt das ATI keine Lust hat ihn zu releasen und lieber erst mal Crossfire für die x8x0-Serie auf den Markt schmeisst obwohl die Yield, die Takraten etc. doch alle so gigantisch sein sollen....
Ich denke dass es am Speicher liegt. Lassen wir uns (positv) überraschen..
Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Die Vorstellung ist mir ehrlich gesagt unwichtig. Der Punkt ist es doch, wann die Karten für die breite Masse verfügbar werden.
reunion
2005-06-08, 19:41:32
Wer sagt, dass der Signoff vom ersten Tapeout >600MHz war?
Das ist laut AiL der aktuelle Signoff.
Richtig, mein Fehler.
reunion
2005-06-08, 19:44:03
1. Wenn ein Design ineffizient ist, braucht es viel Takt um Leistung zu bringen (Hallo NV30!!).
Was heißt hier ineffizient?
Vielleicht ist es auch einfach nur schlanker, bzw. auf einen höheren Takt ausgelegt.
2. robbitop hat 6 Quads gemeint = 24 Pipelines. Warum sollte ATI den R520 auf über 600MHz mit 6 Quads prügeln wenn Nvidia bei ca. 430 MHz stehen bleibt und somit, sofern der R520 nicht wirklich grottenlahm ist, 500MHz schon reichen?
Warum sollte man vorhandene Leistung herschenken?
Crushinator
2005-06-08, 19:45:18
Meinst du, Sweeny lügt? :)
Auf die Frage, ob er lieber G70 oder R520 nehmen würde, antwortete er "natürlich G70". Daß das für einen TWIMTBP-Partner die Weisheit des Jahrhunderts darstellt, war uns natürlich entgangen. :D
robbitop
2005-06-08, 19:48:21
Du meinst sicher bei gleichem Fertigungsprozeß und größerem DIE und mehr Stromverbrauch. (beide 150nm)
Ich sehe eigentlich nur Eines, nämlich Ailuros' Anmerkung, daß so ein Transistormonster bei der angepeilten Taktung eine übertriebene Kühlung bräuchte, worauf geantwortet wurde, daß die Transistorzahl keine Auswirkung auf den Takt hätte.
Nun ich sprach von keiner direkten Auswirkung. Und es gibt genug Beispiele in der Branche, um das zu belegen ;)
reunion
2005-06-08, 19:49:42
Meinst du, Sweeny lügt? :)
Freeman: Okay, one more question: R520 or G70?
Sweeney: [laughs] Oh, G70 for sure.
Quelle: nVNews
Sagen wirs mal so, Sweeny ist beeinflussbar. :D
r3ptil3
2005-06-08, 19:50:15
Der r420 war zu 90% ein Notnagel, aber selbst der r520 kommt mir momentan nicht wesentlich unnotnageliger (TM) vor.
Warum der r520 sich momentan so verzögert kann 1001 Gründe haben, aber ich gehe momentan nicht davon aus, das es daran liegt das ATI keine Lust hat ihn zu releasen und lieber erst mal Crossfire für die x8x0-Serie auf den Markt schmeisst obwohl die Yield, die Takraten etc. doch alle so gigantisch sein sollen....
Nach den vielen Seitenbemerkungen in letzter Zeit von verschiedensten Personen bin ich inzwischen sehr gespannt auf das Design des r520.....erwarten tu ich da allerdings momentan nicht mehr sehr viel.
Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Ein Notnagel wird der R520 sicher nicht sein. Einen Notnagel nennt man z.B. Geforce 5950 Ultra und ich denke auch nicht das der R420 zu 90% eine Notnagel war weil eher Nvidia gezwungen war was richtig konkurrentfähiges auf den Markt zu bringen.
Es liegt eher nicht daran das ATI den R520 jetzt wegen Crossfire @ X800-X850 releasen will sondern da wirklich so Probleme wie beim NV30 auftreten können wegen den Umtrieg auf 90nm.
robbitop
2005-06-08, 19:50:33
Hallo,
R420 mit 3DC ist definitiv eine Innovation gewesen, letztendlich verwendet es nv ja jetzt auch.
..Notebook-Markt!!!! 70% ATI 30% nv, wenn mann Intel nicht berücksichtigt!
Crossfire ist die Innovation 2005, im Vergleich zu SLI einen Meilenstein!
Nicht zu vergessen was ATI im HDTV -Markt so alles macht. Ihr Xillion Chip hat einige Vorzüge.
Das Motorola Handy (Razor) ist mit ATI Imageon bestückt.
Das sind alles Bereiche in denen nv schwächelt bzw. nicht anwesend ist.
XBOX mit R500
Der PC wird spät. 2007 den Schritt in's Wohnzimmer gemacht haben, warten wir ab wer die besseren Karten für die Zukunft auf der Hand hat.
Zum Thema R520: Das was Josh sagt ist ohne Beleg, letztendlich sind die R520 Launchdaten bestätigt und ich sehe keine Probleme!
Grüsse
Nette Brille ;) Was hat das alles zum Thema R520 zu tun? (zumal du deine Aussagen begründen könntest)
3Dc ist lediglich eine 4 Kanal Normalmapkompression. Ein leicht aufgebohrtes DXT5. Eine Innovation? Naja.
robbitop
2005-06-08, 19:51:38
Ein Notnagel wird der R520 sicher nicht sein. Einen Notnagel nennt man z.B. Geforce 5950 Ultra und ich denke auch nicht das der R420 zu 90% eine Notnagel war weil eher Nvidia gezwungen war was richtig konkurrentfähiges auf den Markt zu bringen.
Es liegt eher nicht daran das ATI den R520 jetzt wegen Crossfire @ X800-X850 releasen will sondern da wirklich so Probleme wie beim NV30 auftreten können wegen den Umtrieg auf 90nm.
Es liegt anscheinend nicht am Prozess. Es gibt aus der Branche viele Aussagen, die den 90nm Prozess als gut und stabillauffähig betrachten. R500 macht sich auch recht gut laut diesen Aussagen.
Quasar
2005-06-08, 19:52:40
Eine R300 kannst du auch höher Takten als eine Geforce4. Trotz mehr Transistoren und höherem Fertigungsprozess.
Gleicher Fertigungsprozess. Erst nV30 wurde in 0,13µ gefertigt.
robbitop
2005-06-08, 19:52:51
Freeman: Okay, one more question: R520 or G70?
Sweeney: [laughs] Oh, G70 for sure.
Quelle: nVNews
Sagen wirs mal so, Sweeny ist beeinflussbar. :D
@crushi&reunion
got it :)
robbitop
2005-06-08, 19:53:23
nV hatte keine anderen grossen Möglichkeiten ausser ein weiters Quad anhängen, da Sie nicht auf 0,09nm wechseln wollten.
Meinst du nicht 2 zusätzliche Quads?
Sunrise
2005-06-08, 19:53:41
Hallo,
R420 mit 3DC ist definitiv eine Innovation gewesen, letztendlich verwendet es nv ja jetzt auch.
Crossfire ist die Innovation 2005, im Vergleich zu SLI einen Meilenstein!
Nicht zu vergessen was ATI im HDTV -Markt so alles macht. Ihr Xillion Chip hat einige Vorzüge.
Das Motorola Handy (Razor) ist mit ATI Imageon bestückt.
Das sind alles Bereiche in denen nv schwächelt bzw. nicht anwesend ist.
XBOX mit R500
Der PC wird spät. 2007 den Schritt in's Wohnzimmer gemacht haben, warten wir ab wer die besseren Karten für die Zukunft auf der Hand hat.
Zum Thema R520: Das was Josh sagt ist ohne Beleg, letztendlich sind die R520 Launchdaten bestätigt und ich sehe keine Probleme!
Ich meinte insbesondere Innovationen im PC-Bereich. CrossFire beispielsweise, funktioniert technisch auf eine Art und Weise, wie es sie schon seit Jahren gibt, Verbesserungen an dieser Funktionsweise sind zwar auszumachen, jedoch vom Grundgedanke her immer noch der gleiche Ansatz. Es ist also rein ein Mittel, um sich von der Konkurrenz zu unterscheiden und dem Markt zu sagen: "Wir können es besser". Bei allen anderen Punkten, exklusive R500, hat ATI schon Jahre Erfahrung und nutzt diese natürlich auch in anderen Bereichen des Marktes um "bekannter" zu werden und die eigene Produktpalette zu diversifizieren. Denn der PC-Markt alleine, ist stark getrieben von saisonalen Bedingungen und in den niederen Sektoren starken Preiskämpfen, die die Gewinne stark unter Druck setzen.
robbitop
2005-06-08, 19:54:28
Gleicher Fertigungsprozess. Erst nV30 wurde in 0,13µ gefertigt.
Meinte ich ja ...habe mich vertippelt im Kopf. :)
Crushinator
2005-06-08, 19:55:15
(...) Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Es gibt einen klitzekleinen Unterschied zum NV30: Es sind bereits Samples im Umaluf, und das nicht erst seit gestern. ;)
Quasar
2005-06-08, 19:55:46
Es gibt aus der Branche viele Aussagen, die den 90nm Prozess als gut und stabillauffähig betrachten.
Das hat aber noch nicht viel zu sagen - ATi hat aus 0,15µ einen 110M-Chip mit 412+ MHz geholt. Bei nVidia war bei ~60M und 300 (bzw. ~45M und 350) MHz Schluss. Der RV360 lief kühl und schnell, während der nV36 zwar schnell, aber ziemlich hitzig lief. Andersrum bei nV43 vs. RV410. Hier hat ATi das hochtaktende Modell wieder abgekündigt, während die 6600 GT anscheinend gut verfügbar ist.
reunion
2005-06-08, 19:56:08
Die Rede war IIRC vom Signoff speed. Diesen hat AiL zum R520 eingeworfen. Diesen Takt empfiehlt die Foundry dem Hersteller für die Massenproduktion für einen guten Yield. (AFAIK)
Und R420 ließ sich mit einem Signoff-speed von knapp über 400MHz mit über 500Mhz takten.
Quasar
2005-06-08, 19:57:56
Es gibt einen klitzekleinen Unterschied zum NV30: Es sind bereits Samples im Umaluf, und das nicht erst seit gestern. ;)
Vom nV30 waren auch seit Oktober 2002 Samples im Umlauf, wenn auch aufgrund der Produktionsprobleme bzw. den späteren Aufblähen der Taktraten, mit non-finalem Takt.
robbitop
2005-06-08, 19:59:34
Das hat aber noch nicht viel zu sagen - ATi hat aus 0,15µ einen 110M-Chip mit 412+ MHz geholt. Bei nVidia war bei ~60M und 300 (bzw. ~45M und 350) MHz Schluss. Der RV360 lief kühl und schnell, während der nV36 zwar schnell, aber ziemlich hitzig lief. Andersrum bei nV43 vs. RV410. Hier hat ATi das hochtaktende Modell wieder abgekündigt, während die 6600 GT anscheinend gut verfügbar ist.
Das liegt am Design. NV scheint bei der GF6 das toll hinbekommen zu haben. Offenbar hat man wieder gute Tools gekauft.
NV36 auf der NU war auch ziemlich kühl (ich errinnere an die GF2U/GF3 ähnliche Karte) @425MHz. Und das ohne lowk!
r3ptil3
2005-06-08, 19:59:50
Es liegt anscheinend nicht am Prozess. Es gibt aus der Branche viele Aussagen, die den 90nm Prozess als gut und stabillauffähig betrachten. R500 macht sich auch recht gut laut diesen Aussagen.
Vielleicht (hoffentlich) überrascht ATi wieder so wie beim R300 und auch letztes jahr wurde der R420 erst nach der Vorstellung des NV40 vorgestellt.
robbitop
2005-06-08, 20:01:19
Und R420 ließ sich mit einem Signoff-speed von knapp über 400MHz mit über 500Mhz takten.
Beim R420 hat ATI wegen des NV40 auch bis ans äußerste gehen müssen. Die haben ja im Vorfeld angekündigt, dass die Margen darunter leiden werden. Sonst wäre man nie konkurzenzfähig gewesen (man stelle sich NV40 und R420 mit gleichem Takt vor ...böse..).
Quasar
2005-06-08, 20:05:03
Das liegt am Design. NV scheint bei der GF6 das toll hinbekommen zu haben. Offenbar hat man wieder gute Tools gekauft.
NV36 auf der NU war auch ziemlich kühl (ich errinnere an die GF2U/GF3 ähnliche Karte) @425MHz. Und das ohne lowk!
Ich erinnere mich in dieser Hinsicht eher an das CoolFX-Monster von Gainward und die schlanke 9600XT Ultimate von Sapphire.
Aber richtig - es hängt vom Design ab. Genau darauf wollte ich hinaus. Niemand hindert auch ATi daran, mal einen suboptimalen Chip was Leistungsaufnahme-Leistungsabgabe-Relation angeht, zu designen.
Diskutator
2005-06-08, 20:08:13
Nette Brille ;) Was hat das alles zum Thema R520 zu tun? (zumal du deine Aussagen begründen könntest)
3Dc ist lediglich eine 4 Kanal Normalmapkompression. Ein leicht aufgebohrtes DXT5. Eine Innovation? Naja.
Wenn du meinen Beitrag gelesen hättest (Vollständig) wäre dir nicht entgangen das ich mich auf den Vorwurf von keine Innovation bei ATI bezogen hatte ;)
Crushinator
2005-06-08, 20:08:31
Vom nV30 waren auch seit Oktober 2002 Samples im Umlauf, wenn auch aufgrund der Produktionsprobleme bzw. den späteren Aufblähen der Taktraten, mit non-finalem Takt.
Ich wollte mit "klitzeklein" auch nur darauf hinaus, daß die Samples nicht erst einen Monat vor einem möglichen Launch an Mannen gebracht wurden.
reunion
2005-06-08, 20:08:52
Sonst wäre man nie konkurzenzfähig gewesen (man stelle sich NV40 und R420 mit gleichem Takt vor ...böse..).
Takte mal R420 und NV40 auf die identische Frequenz und du wirst sehen, dass der Unterschied minimal ist.
Crushinator
2005-06-08, 20:12:58
Takte mal R420 und NV40 auf die identische Frequenz und du wirst sehen, dass der Unterschied minimal ist.
Der Balken, Mensch!!!11 Der rutscht doch mindestens 2 Millimeter unter den des NV40. ;(
[Edit]
Lieber (wuddu)Gast, Du möchtest Deine Wortwahl bitte überdenken. Humorvolle Diskussionen, ja! Persönlich werden, Nein!
reunion
2005-06-08, 20:21:54
Dieses "its gonna be their nv30 and they know it" geht mir inzwischen nicht mehr aus dem Kopf. Ich wäre nicht mal mehr verwundert, wenn er doch nicht am 26 Juli vorgestellt werden würde.
Ich gehe weiterhin von einer annähernd zeitgleichen Verfügbarkeit von G70 und R520 aus. Erste Samples waren fast gleichzeitig bei den Entwicklern, die Massenproduktion bei ASE soll auch zeitgleich über die Bühne gegangen sein und beide hatten auf der E3 die ersten Chips präsentiert, so what?
ShadowXX
2005-06-08, 20:23:51
Meinst du nicht 2 zusätzliche Quads?
Jupps...natürlich 2 zusätzliche Quads nicht einer.
robbitop
2005-06-08, 20:28:01
Takte mal R420 und NV40 auf die identische Frequenz und du wirst sehen, dass der Unterschied minimal ist.
Ich würde mich wundern, wenn das bei Shaderlastigen Spielen ebenfalls der Fall wäre. Pro Takt kann NV40 im schlechtesten Falle genausoviele Operationen raushauen wie R420. Im besten Falle doppelt so viele (wenn viel MUL auftritt oder ADD und MUL oder oder oder oder). Und wenn man noch ein bisschen optimiert, kann man das NRM16 auch noch nutzen.
Bei einem hohem AF Grad hängt man vermutlich eher an der Füllrate. Mit viel AA an der Bandbreite. Deswegen würde mich ein sehr sehr Shaderlastiges Game interessieren.
Lieber (wuddu)Gast, Du möchtest Deine Wortwahl bitte überdenken. Humorvolle Diskussionen, ja! Persönlich werden, Nein!
Sorry :)
reunion
2005-06-08, 20:34:04
Ich würde mich wundern, wenn das bei Shaderlastigen Spielen ebenfalls der Fall wäre. Pro Takt kann NV40 im schlechtesten Falle genausoviele Operationen raushauen wie R420. Im besten Falle doppelt so viele (wenn viel MUL auftritt oder ADD und MUL oder oder oder oder). Und wenn man noch ein bisschen optimiert, kann man das NRM16 auch noch nutzen.
Bei einem hohem AF Grad hängt man vermutlich eher an der Füllrate. Mit viel AA an der Bandbreite. Deswegen würde mich ein sehr sehr Shaderlastiges Game interessieren.
Erstens denke ich, dass die Shaderperformance in den seltensten Fällen limitiert und zweitens sollten die Optimierungen auf die R300/420-Architektur wesentlich ausgereifter sein als auf die NV40-Architektur.
Was heißt hier ineffizient?
Vielleicht ist es auch einfach nur schlanker, bzw. auf einen höheren Takt ausgelegt.
Warum sollte man vorhandene Leistung herschenken?
1. Blase den R420 um ca. 1/3 auf (FP24->FP32), zusammen mit anderen Kleinigkeiten kommst du locker auf NV40 Niveau an Transistoren.
2. Warum sollte man höher takten wenn die Leistung auch so ausreicht um den Wettbewerb zu übertrumpfen?
a) Sollte Nvidia eine 7800 Ultra nachschieben, haben sie immer noch die Möglichkeit eine Hassenichgesehen-PE rauszubringen
b) Taktreserven für die Zukunft zu haben kann auch nie schaden (G70@90nm Q4/2005)
reunion
2005-06-08, 20:52:20
Warum sollte man vorhandene Leistung herschenken?
2. Warum sollte man höher takten wenn die Leistung auch so ausreicht um den Wettbewerb zu übertrumpfen?
Warum sollte man vorhandene Leistung herschenken?
(Und fertig ist das Paradoxon. :D)
Quasar
2005-06-08, 20:54:51
Das ist kein Paradoxon.
pF3NG
2005-06-08, 21:02:47
Erkläre Prescott und A64. :)
Beim Prescott hat Intel das mit der hohoen Taktrate über Pipeline "geregelt" zwischen FX und Prescot sind doch nur 30(?) M Transistoren unterschied :|
robbitop
2005-06-08, 22:24:42
Erstens denke ich, dass die Shaderperformance in den seltensten Fällen limitiert und zweitens sollten die Optimierungen auf die R300/420-Architektur wesentlich ausgereifter sein als auf die NV40-Architektur.
Es geht nicht um Optimierungen. Der NV40 hat einfach mehr Ausführungseinheiten. Das schlägt sich selbst im Worstcasefall auf die Shaderleistung. Zumal die Units noch flexibler sind und NRM16 zusätzlich Performance bringt. Das kommt natürlich auch auf den Code an.
robbitop
2005-06-08, 22:26:33
1. Blase den R420 um ca. 1/3 auf (FP24->FP32), zusammen mit anderen Kleinigkeiten kommst du locker auf NV40 Niveau an Transistoren.
2. Warum sollte man höher takten wenn die Leistung auch so ausreicht um den Wettbewerb zu übertrumpfen?
a) Sollte Nvidia eine 7800 Ultra nachschieben, haben sie immer noch die Möglichkeit eine Hassenichgesehen-PE rauszubringen
b) Taktreserven für die Zukunft zu haben kann auch nie schaden (G70@90nm Q4/2005)
ack :)
@reunion
nein ist es nicht.
reunion
2005-06-08, 22:48:42
Das ist kein Paradoxon.
@reunion
nein ist es nicht.
Wie peinlich, da hat sich in meinem Hirn wohl irgendetwas falsch verknotet. :D
Sry. ;(
reunion
2005-06-08, 22:50:06
Es geht nicht um Optimierungen. Der NV40 hat einfach mehr Ausführungseinheiten. Das schlägt sich selbst im Worstcasefall auf die Shaderleistung. Zumal die Units noch flexibler sind und NRM16 zusätzlich Performance bringt. Das kommt natürlich auch auf den Code an.
Dies mag ja alles zutreffend sein, allerdings merkt man davon im Spielealltag recht wenig.
robbitop
2005-06-08, 23:26:37
Dies mag ja alles zutreffend sein, allerdings merkt man davon im Spielealtag recht wenig.
Der Spielealltag ist derzeit mit hohem AA/AF Grad auch nicht shaderlimitiert.
Der Spielealltag ist derzeit mit hohem AA/AF Grad auch nicht shaderlimitiert.
Könnte man also sagen: Der NV40/G70 - Chips an der Realität vorbei?
Konsolenfreund
reunion
2005-06-08, 23:36:14
Der Spielealltag ist derzeit mit hohem AA/AF Grad auch nicht shaderlimitiert.
Davon rede ich ja die ganze Zeit. :)
Ailuros
2005-06-09, 00:09:35
ich muss was auf den augen haben. er spricht doch eindeutig von informationen, die er bekommen hat.
Genauso wie er offizielle Informationen bekam dass G70 auf 90nm sein wird?
tatsächlich? ich kann mich an einen artikel von Josh erinnern, allerdings ist das schon ein paar wochen her. und er spricht hier ATI's bericht von den "lower than expected revenues" an, und das ist meines wissens erst seit wenigen tagen bekannt.
Nicht hier *hust* sorry mein Fehler ;)
Zu den Margen zwischen den beiden Firmen wird sich hoffentlich bald jemand aeussern; ich verbrenne mir meine Finger momentan nicht, aber man kann mit ein paar Schachzuegen und extremen Sparmassnahmen so manches erreichen und nein ich meine hier nicht ATI.
Ailuros
2005-06-09, 00:12:54
Sprichst Du von Software-Entwicklern oder HW-Ingenieuren? Desweiteren sollen die 4 Quads von R4xx bei ~650 MHZ und SM3 ausreichen um gegen die 6 plus mehr Drehmomment der Konkurrenz anzukämpfen? Warum will es nicht so recht in meinen Kopf rein?
ISVs. Und es tut mir leid Leute aber Sweeney hat nicht gelogen. Was Shader-limitierte Situationen betrifft gibt es diesmal einen klaren Gewinner.
Du meinst ernshaft Crossfire R4XX hätte sie in der Entwicklung eines Single-Core R520 solange aufgehalten, und sie haben es nicht rechtzeitig bemerkt, obwohl sie hätten einen seit Monaten fertigen Chip Produktionsreif bekommen können? Eher glaube ich ehrlich gesagt an Ressourcenkanppheit wegen Xenon als daran.
Wer sagt dass Crossfire nur auf R4xx limitiert ist? Nehmen wir an multi-board R520 hat ein paar sehr wichtige "kleine" Aenderungen, hilft das?
Resourcen-knappheit ja aber insgesamt.
Ailuros
2005-06-09, 00:14:44
Crossfire? *lol* wer's glaubt. Crossfire ist eine recht "billige" Entwicklung. Konnte man nebenher machen und eigentlich nur eine Reaktion auf SLI. Ich glaube nicht, dass das große Auswirkungen hatte. Composition Engine hatte man ja bereits von E&S, die Samples waren programmierbar und Teilbilder konnte R3xx/4xx auch schon immer ausgeben. Es war hauptsächlich etwas Arbeit am Treiber und ein bisschen am PCB. Nichts Weltbewegendes.
Ich persönlich glaube, dass ATI sich etwas verschätzt hat und nicht genug Performance auf die Straße bringt bei derzeitigem Takt.
Sweeny deutete ja schon sowas in einem Interview an.
Danke. Kein weiterer Kommentar.
Danke. Kein weiterer Kommentar.
Könntest Du deine Postings etwas ausführlicher gestalten, damit jeder hier am Inhalt teilhaben kann? Mir ist jetzt nicht ganz klar, ob das Ironie ausdrückt oder nicht.
Konsolenfreund
Ailuros
2005-06-09, 00:39:48
Könntest Du deine Postings etwas ausführlicher gestalten, damit jeder hier am Inhalt teilhaben kann? Mir ist jetzt nicht ganz klar, ob das Ironie ausdrückt oder nicht.
Konsolenfreund
Robbi hat ein PM dafuer bekommen. Wenn ich Ironie ausdruecken will, dann bin ich mehr als nur faehig dazu.
mapel110
2005-06-09, 00:49:55
ISVs. Und es tut mir leid Leute aber Sweeney hat nicht gelogen. Was Shader-limitierte Situationen betrifft gibt es diesmal einen klaren Gewinner.
Oje, wo ist die decent Performance?! ;( Dann stimmt der Satz also "R520 gonna be ATIs NV30." ;(
3Dc ist lediglich eine 4 Kanal Normalmapkompression.
2-Kanal bitte.
In Shader-lastigen Situationen wird der G70 wohl etwa 2x NV40 entsprechen, mal mehr, mal weniger. ATI sollte also eine ähnliche Steigerung gegenüber R420 hinlegen, um nicht ins Hintertreffen zu geraten. Nur über den Takt geht das nicht.
Diskutator
2005-06-09, 04:53:45
Oje, wo ist die decent Performance?! ;( Dann stimmt der Satz also "R520 gonna be ATIs NV30." ;(
Ne, das sehe ich nicht so, da will nur jemand dafür sorgen das alle Ihren optimismus verlieren und ATI schon als jetzt als Verlierer sehen. Am besten lassen wir die ganzen Reviews einfach sausen und hören nur noch auf Swane :eek: :biggrin:
Ich ruf schon mal die :cop: 's an !
seahawk
2005-06-09, 08:26:19
Ne, das sehe ich nicht so, da will nur jemand dafür sorgen das alle Ihren optimismus verlieren und ATI schon als jetzt als Verlierer sehen. Am besten lassen wir die ganzen Reviews einfach sausen und hören nur noch auf Swane :eek: :biggrin:
Ich ruf schon mal die :cop: 's an !
Trotzem gibt es durchaus Ansätze die dies als möglich erscheinen lassen.
1. Selbst der NV40 hat eine taktnormierte bessere Shaderleistung als der R420
2. Wenn der R520 SM3.0 auf die R300 Architektur bringt, ist es möglich, dass Effizienz verloren geht, während der G70 eine optimierte Version des NV40 ist, der schon ursprünglich für SM3.0 ausgelegt wurde.
Die Frage wird allerdings sein, ob es während der Lebensdauer die Karten Anwendungen gebe nwird, die den nmöglichen Vorteil von NV auch aufzeigen.
PS. Grundsätzlich kann auch ATI mal einen Fehler machen.
Exxtreme
2005-06-09, 08:45:35
2. Wenn der R520 SM3.0 auf die R300 Architektur bringt, ist es möglich, dass Effizienz verloren geht, während der G70 eine optimierte Version des NV40 ist, der schon ursprünglich für SM3.0 ausgelegt wurde.
Naja, um von SM2.0 auf SM3.0 zu kommen sind grössere Änderungen nötig. Das geht nicht so ohne weiteres mit einem HW-Hack wie dem F-Buffer oder per Treiber etc.
FP24 -> FP32
Texturgrösse 2048x2048 -> 4096x4096
Dann noch IIRC Zugriff der Vertexshader-Units auf Texturen etc.
Viel wird ATi wohl nicht verwenden können aus dem R4xx.
robbitop
2005-06-09, 09:08:29
Könnte man also sagen: Der NV40/G70 - Chips an der Realität vorbei?
Konsolenfreund
@Betareverse
Für Leute mit viel (zu viel) Geld, die sich alle halbe Jahre eine neue Spielekarte holen, vieleicht schon. Für jemanden, der eine Karte mal 1-2 Jahre behalten will oder länger auf keinen Fall. Im Gesamtmarkt überwiegen letztere deutlich. :)
robbitop
2005-06-09, 09:10:59
2-Kanal bitte.
In Shader-lastigen Situationen wird der G70 wohl etwa 2x NV40 entsprechen, mal mehr, mal weniger. ATI sollte also eine ähnliche Steigerung gegenüber R420 hinlegen, um nicht ins Hintertreffen zu geraten. Nur über den Takt geht das nicht.
Du glaubst also daran, dass man die Pipeline aufgebohrt hat?
Winter[Raven]
2005-06-09, 09:11:07
Meinst du, Sweeny lügt?
Um was geht'S? Welches Zitat oder Interview?
//EDIT:
Ok Ok, habs übersehen welches Zitat Ihr meint ;) :D
robbitop
2005-06-09, 09:14:36
Naja, um von SM2.0 auf SM3.0 zu kommen sind grössere Änderungen nötig. Das geht nicht so ohne weiteres mit einem HW-Hack wie dem F-Buffer oder per Treiber etc.
FP24 -> FP32
Texturgrösse 2048x2048 -> 4096x4096
Dann noch IIRC Zugriff der Vertexshader-Units auf Texturen etc.
Viel wird ATi wohl nicht verwenden können aus dem R4xx.
Diese Dinge sind gar nicht mal soo schwer zu verändern AFAIK.
Schlimmer wird dynamic flowcontroll/branching/looping. Aber vieleicht klappt das ja mit dem F-Buffer.
Exxtreme
2005-06-09, 09:21:59
Diese Dinge sind gar nicht mal soo schwer zu verändern AFAIK.
Schlimmer wird dynamic flowcontroll/branching/looping. Aber vieleicht klappt das ja mit dem F-Buffer.
Ich schätze mal, daß sich gerade das noch am ehesten per Treiber realisieren lässt. Gerade solche Dinge wie Loops/Branching etc. liessen sich noch am besten per Treiber "emulieren". Es wäre zwar langsam aber gehen würde es.
wuzetti
2005-06-09, 09:22:38
und weiter gehts mit onkel FUAD
http://www.theinquirer.net/?article=23822
Exxtreme
2005-06-09, 09:27:12
und weiter gehts mit onkel FUAD
http://www.theinquirer.net/?article=23822
ROFL. X-D
Some sites on the net are claiming that R520 is the next NV30, has leakage problems and is pretty much falling apart. You can check such claims here. We know that information comes from Nvidia as it wants this kind of FUD about its competitor component out.
Also die FUD-Schlacht beginnt jetzt langsam aber sicher. Da werden wohl noch mehr solcher Spässle kommen.
Winter[Raven]
2005-06-09, 09:30:07
Die Frage wird allerdings sein, ob es während der Lebensdauer die Karten Anwendungen gebe nwird, die den nmöglichen Vorteil von NV auch aufzeigen.
Abwarten und Tee trinken ... *pfeif*
@Betareverse
Für Leute mit viel (zu viel) Geld, die sich alle halbe Jahre eine neue Spielekarte holen, vieleicht schon. Für jemanden, der eine Karte mal 1-2 Jahre behalten will oder länger auf keinen Fall. Im Gesamtmarkt überwiegen letztere deutlich. :)
Also hätte es sich bis jetzt schon gelohnt aus deiner Sicht eine 6800GT zu besitzen als normaler Gamer und bei Auflösung und AA abstriche zu machen? Ich wüsste übrigens garnicht, welche Karte man sich ein halbes Jahr später hätte kaufen sollen. ;)
Wieso quotest Du mich und nennst mich Betareverse? :|
Konsolenfreund
Godmode
2005-06-09, 09:31:25
Der Spielealltag ist derzeit mit hohem AA/AF Grad auch nicht shaderlimitiert.
Wie wird das dann mit Unreal3 aussehen? Da haben wir wieder die gleiche Situation, ok wir haben beim G70 zwar mehr Füllrate, aber die Bandbreite hinkt immer noch hinterher. Also könnte man vielleicht nur mehr AA limitiert sein und nicht mehr AA und AF limitiert. Oder werden die Shader dort sooo lang sein dass es wirklich Shader limitiert ist?
reunion
2005-06-09, 09:39:08
und weiter gehts mit onkel FUAD
http://www.theinquirer.net/?article=23822
So Nvidia wants you all to believe that G70 is the winner and ready and R520 is a bad leaky product, not ready, not good, late and not here. This is the Mandy Rice Davies refrain. She was more attractive in many ways than marketing types.
We still have strong reason to believe that ATI will shock you all, but Nvidia announcement still comes first just less than a two weeks now
FU(A)D at his best. :uup:
reunion
2005-06-09, 09:47:02
ISVs. Und es tut mir leid Leute aber Sweeney hat nicht gelogen. Was Shader-limitierte Situationen betrifft gibt es diesmal einen klaren Gewinner.
Wer sagt dass Crossfire nur auf R4xx limitiert ist? Nehmen wir an multi-board R520 hat ein paar sehr wichtige "kleine" Aenderungen, hilft das?
Resourcen-knappheit ja aber insgesamt.
Gehts auch etwas genauer? :massa:
wuddu
2005-06-09, 09:47:46
ROFL. X-D
Also die FUD-Schlacht beginnt jetzt langsam aber sicher. Da werden wohl noch mehr solcher Spässle kommen.
Entschuldigung bitte - aber dieser Artikel ist für mich nicht minder schlüssig, als das was hier in diesem Fred dem R520 angedichtet wird. Das der R520 wohl aus diversen Gründen einen Re-Tape erleben mußte, erscheint in Bezug @z.B. FC_Patch 1.31 irgendwie logisch. Imo war die Performance hierbei nie das Problem, viel mehr denke ich an gewisse architektonische Mängel, welche ATI treibertechnisch nicht in den Griff bekam.
In dieser Hinsicht imo wohl der R520 - NV´s NV3x
seahawk
2005-06-09, 09:58:42
Langsam trägt der gute FUAD aber ne ziemliche ATI-Brille.
Entschuldigung bitte - aber dieser Artikel ist für mich nicht minder schlüssig, als das was hier in diesem Fred dem R520 angedichtet wird. Das der R520 wohl aus diversen Gründen einen Re-Tape erleben mußte, erscheint in Bezug @z.B. FC_Patch 1.31 irgendwie logisch. Imo war die Performance hierbei nie das Problem, viel mehr denke ich an gewisse architektonische Mängel, welche ATI treibertechnisch nicht in den Griff bekam.
möglich...
In dieser Hinsicht imo wohl der R520 - NV´s NV3x
Nicht ganz, der NV3x bot einfach eine unterirdische Shaderperformance. Die Performance sollte beim R520 nicht das Problem sein...
seahawk
2005-06-09, 10:00:16
möglich...
Nicht ganz, der NV3x bot einfach eine unterirdische Shaderperformance. Die Performance sollte beim R520 nicht das Problem sein...
Performance allgemein wahrscheinlich nicht. Shaderperformance unter SM3.0 with loops /branching evtl. schon.
Nicky
2005-06-09, 10:14:55
Woher kommt eigentlich die ueberall vorherrschende Erkenntnis dass R520 schon frueher haette erscheinen sollen? IMO war der Chip nie zu einem weit frueheren Zeitpunkt geplant, weil
- ansonsten R480 nach nur 2 Monaten abgeloest worden waere und ergo oekonomischer Harakiri
- R430 und RV410 ebenfalls kurz nach der Vorstellung aus dem Portfolio haetten fliegen muessen, da Ati ab dem R520 sm3.0 hypen wird
- x300/600 mit welchen man ordentlich Boni macht noch mehr wie Oldies aussehen wuerden.
Kann es nicht eher sein dass R520 eher bewusst zurueckgehalten wird um den Gap bis zur Vorstellung der kleineren Derivate (welche immerhin die Cash Cow sein werden) zu verkleinern?
Godmode
2005-06-09, 10:15:53
Langsam trägt der gute FUAD aber ne ziemliche ATI-Brille.
Weist du noch wie er immer vom NV30 geschwärmt hat?
wuddu
2005-06-09, 10:26:18
[QUOTE=Nickyda ...Ati ab dem R520 sm3.0 hypen wird...
[/QUOTE]
Glaube ich nicht. Hier wurde bereits glänzende Vorarbeit seitens NV gemacht. ATI kann imo nur die Performance für sich sprechen lassen, ohne das Gesicht zu verlieren. Daher ist es imo nötig das der R520, wie auch immer, dem G70 in der Performance überlegen ist.
seahawk
2005-06-09, 10:51:33
Weist du noch wie er immer vom NV30 geschwärmt hat?
Jo, aber jetzt zíeht er die gleiche Nummer für Fudo ab.
:eek: - da kann einem ja Angst und Bange werden ;) (ist ein Scherz !)
ShadowXX
2005-06-09, 11:01:59
Woher kommt eigentlich die ueberall vorherrschende Erkenntnis dass R520 schon frueher haette erscheinen sollen? IMO war der Chip nie zu einem weit frueheren Zeitpunkt geplant, weil
- ansonsten R480 nach nur 2 Monaten abgeloest worden waere und ergo oekonomischer Harakiri
- R430 und RV410 ebenfalls kurz nach der Vorstellung aus dem Portfolio haetten fliegen muessen, da Ati ab dem R520 sm3.0 hypen wird
- x300/600 mit welchen man ordentlich Boni macht noch mehr wie Oldies aussehen wuerden.
Kann es nicht eher sein dass R520 eher bewusst zurueckgehalten wird um den Gap bis zur Vorstellung der kleineren Derivate (welche immerhin die Cash Cow sein werden) zu verkleinern?
Doch doch....die Vorstellung war ürsprünglich mal für April geplant.
Und das das unsinnig wäre, haben mehere auch schon damals gesagt.....die dann allerdings ausgelacht wurden (aber im Endeffekt recht behielten).
Viel interesanter finde ich, das ATI hier von vielen scheinbar als unfehlbar gesehen wird, scheinbar nie Fehler in der Planung/Design machen kann und immer schneller als nV sein muss.
Selbst wenn der G70 in shaderlastigen Situationen den r520 um 10-20% schlagen sollte (und da gehts dann wohl auch eher um PS3.0), gibt es noch genug andere Diszipline wo er dem G70 überlegen sein könnte.
Da er höher getaktet ist und beide nur 8VS haben werden, wird er den G70 z.B. wohl in allen Vertexlastigen Dingen schlagen (also dem 3DMark05 z.B.).
Und wenn ATI intelleigent genug ist, verpassen Sie ihm 700MHz-SPeicher, damit schlägt er den G70 dann mit ziemlicher wahrscheinlichkeit in hohen Auflösungen + AA.
Gönnt nV doch den PS-Speedvorteil. Bei den momentanen Games wird das nicht so extrem viel bringen....und bis zum ersten Game das die UT3-Engine PS-Lastig ausreizt gibts sowieso die nächste generation Karten....
ShadowXX
2005-06-09, 11:04:21
Jo, aber jetzt zíeht er die gleiche Nummer für Fudo ab.
:eek: - da kann einem ja Angst und Bange werden ;) (ist ein Scherz !)
Vielleicht bekommt er keine Infos aus nV-Richtung mehr und ist deshalb sauer......ausserdem freut er sich doch einen Ast, das der ATI "seinen" Codenamen trägt.
Mit ihren jetzigen Karten kommt ATI anscheinend nicht so recht auf einen grünen Zweig wie die letzten Zahlen zeigen. Von daher wäre es ATI nur dienlich gewesen den R520 und die kleinen Versionen früher zu bringen. Warum wieso weshalb nicht weiss nur ATI selber.
reunion
2005-06-09, 11:17:21
Doch doch....die Vorstellung war ürsprünglich mal für April geplant.
Und das das unsinnig wäre, haben mehere auch schon damals gesagt.....die dann allerdings ausgelacht wurden (aber im Endeffekt recht behielten).
Von April weiß ich nichts (Quelle?), jedenfalls sprach Dave Orton von "first half of 2005", was dann doch etwas zu optimistisch war.
Viel interesanter finde ich, das ATI hier von vielen scheinbar als unfehlbar gesehen wird, scheinbar nie Fehler in der Planung/Design machen kann und immer schneller als nV sein muss.
Persöhnliche Einschätztung, die IMHO nur auf die Wenigsten zutrifft.
Und wenn ATI intelleigent genug ist, verpassen Sie ihm 700MHz-SPeicher, damit schlägt er den G70 dann mit ziemlicher wahrscheinlichkeit in hohen Auflösungen + AA.
So einfach ist das nicht, wäre 700Mhz GDDR3 in außreichenden Mengen verfügbar, würde nV wohl kaum 600Mhz Speicher verwenden.
Gönnt nV doch den PS-Speedvorteil. Bei den momentanen Games wird das nicht so extrem viel bringen....und bis zum ersten Game das die UT3-Engine PS-Lastig ausreizt gibts sowieso die nächste generation Karten.
"Gönnt nV doch den PS-Speedvorteil" ist gut. Die Frage ist, ob dies auch zutreffend ist.
ShadowXX
2005-06-09, 11:19:19
Glaube ich nicht. Hier wurde bereits glänzende Vorarbeit seitens NV gemacht. ATI kann imo nur die Performance für sich sprechen lassen, ohne das Gesicht zu verlieren. Daher ist es imo nötig das der R520, wie auch immer, dem G70 in der Performance überlegen ist.
Kennst du den Marketingspruch "Was interessiert mich mein Gewäsch von gestern...."?
ATI wird schon von sich aus SM3.0 mithypen....und Sie werden sich für Präsis auch schon Benche aussuchen, wo man vorteile für ATIs Lösung sehen kann.
Davon abgesehen gibts bestimmt auch schon ein "Krieg und Frieden" dickes Skript mit Ausreden/Ausflüchten/nichtsagenden Aussagen.
(Oben gesagtes gilt im Prinzip für beide IHVs.....)
tRpii
2005-06-09, 11:20:02
Mit ihren jetzigen Karten kommt ATI anscheinend nicht so recht auf einen grünen Zweig wie die letzten Zahlen zeigen. Von daher wäre es ATI nur dienlich gewesen den R520 und die kleinen Versionen früher zu bringen. Warum wieso weshalb nicht weiss nur ATI selber.
nicht ganz korrekt
http://www.heise.de/newsticker/meldung/60322
ShadowXX
2005-06-09, 11:26:01
Persöhnliche Einschätztung, die IMHO nur auf die Wenigsten zutrifft.
Dann lies dir mal die letzten 10-15 Seiten des Threads durch.....da triffst du diese Meinung ziemlich oft...
(Das fängt an mit "ATI ist doch nicht so blöd....." und hört auf mit "ATI muss schneller als der G70 sein")
So einfach ist das nicht, wäre 700Mhz GDDR3 in außreichenden Mengen verfügbar, würde nV wohl kaum 600Mhz Speicher verwenden.
Ich gehe immer noch davon aus, das man beiden Karten nicht gleichzeitig wird kaufen können.....und 1-2 Monate können schon den unterschied zwischen verfügbaren 600MHz SPeicher und 700MHz Speicher ausmachen...
"Gönnt nV doch den PS-Speedvorteil" ist gut. Die Frage ist, ob dies auch zutreffend ist.
Eine Wertung ob dies zutrifft, wollte ich nicht damit vornehmen (obwohl inzwischen so viele Leute davon sprechen und ich nicht glaube das alle von nV bezahlt werden), sondern nur darauf hinweisen, das es mehr als nur "PS-Speed" gibt.
ShadowXX
2005-06-09, 11:28:02
nicht ganz korrekt
http://www.heise.de/newsticker/meldung/60322
Wenn wir uns nur auf DX9-Karten beziehen, stimmt es schon. (Und darum sollte es hier im Thread eigentlich gehen und nicht darum ob ATI im Notebookmarkt tolle Gewinne einfährt)
Langsam trägt der gute FUAD aber ne ziemliche ATI-Brille.Das ging mit dem NV40 los, dem er eine 8-Pipe-Architektur bescheinigte, als alle, die das NDA unterzeichnet hatten, es schon besser wussten. Fuad wurde angeboten das NDA zu unterschreiben, er lehnte ab und ging zu ATI um sich mit FUD abfüllen zu lassen.
Als er sich mal was zu Vertexshadern zusammenfaselte, schrieb ich ihm eine gar nicht mal so unhöfliche Mail, die offenbar einer Antwort vom Fuad unwürdig war. An Tatsachen scheint er mir nicht interessiert. Hauptsache, er wird zitiert, egal was er schreibt. Man sollte nicht groß über ihn reden oder mit Bezeichnungen wie "Salz in der Suppe" rechtfertigen. Entweder hat man Infos, dann muss man leider die Schnauze halten (da NDA.) Oder man hat keine Infos, aber ein Gerücht aufgeschnappt. Das sollte man mit dem gebotenen journalistischen Abstand bewerten.
Glaube ich nicht. Hier wurde bereits glänzende Vorarbeit seitens NV gemacht. ATI kann imo nur die Performance für sich sprechen lassen, ohne das Gesicht zu verlieren. Daher ist es imo nötig das der R520, wie auch immer, dem G70 in der Performance überlegen ist.Warum ist das nötig? Ich sehe nicht ein, dass ein Chip immer der schnellste sein muss. Wenn ATI mit dem R520 eine nicht überlegene, aber preiswerte SM3-Lösung anbieten sollte, wäre das doch auch was.
Klar strahlt vom Flaggschiff auch ein bisschen Glanz auf die anderen Produkte. Doch ich schätze den Käufer von Grafikkarten (wenns nicht gerade Entry-Level ist) als immer informierter ein (nicht zuletzt dank 3DCenter) und dann interessiert es doch einen Sch..., ob ein G70 GTX schneller ist wenn man ohnehin nur was auf 6800 GT-Niveau kaufen wollte, nur halt von ATI.
Nette Brille ;) Was hat das alles zum Thema R520 zu tun? (zumal du deine Aussagen begründen könntest)
3Dc ist lediglich eine 4 Kanal Normalmapkompression. Ein leicht aufgebohrtes DXT5. Eine Innovation? Naja.DXT5 besteht aus DXT1 plus einem Alpha-Teil. Der DXT1-Part hat mit 3Dc nichts zu tun. 3Dc ist eine Zweikanal-Komprimierung.
R420 mit 3DC ist definitiv eine Innovation gewesen, letztendlich verwendet es nv ja jetzt auch.Da habe ich was in der Pipeline :)
Die Entwicklung von 3Dc ist eine gute Sache, aber keine besonders herausragende Leistung. NV verwendet kein 3Dc, aber einen Gedanken, der schon vor 3Dc genutzt wurde. Per Treiber wird Kompatibilität hergestellt wobei natürlich der eigentliche 3Dc-Vorteil, nämlich die 2:1-Komprimierung, nicht geboten werden kann.
seahawk
2005-06-09, 12:16:11
Das ging mit dem NV40 los, dem er eine 8-Pipe-Architektur bescheinigte, als alle, die das NDA unterzeichnet hatten, es schon besser wussten. Fuad wurde angeboten das NDA zu unterschreiben, er lehnte ab und ging zu ATI um sich mit FUD abfüllen zu lassen.
Als er sich mal was zu Vertexshadern zusammenfaselte, schrieb ich ihm eine gar nicht mal so unhöfliche Mail, die offenbar einer Antwort vom Fuad unwürdig war. An Tatsachen scheint er mir nicht interessiert. Hauptsache, er wird zitiert, egal was er schreibt. Man sollte nicht groß über ihn reden oder mit Bezeichnungen wie "Salz in der Suppe" rechtfertigen. Entweder hat man Infos, dann muss man leider die Schnauze halten (da NDA.) Oder man hat keine Infos, aber ein Gerücht aufgeschnappt. Das sollte man mit dem gebotenen journalistischen Abstand bewerten.
Alos muss man davon ausgehen, das er momentan gar nichts weiss. Über NV scheint er ekine Infos zu bekommen und bei ATI hat er imho schon zu viel erzählt, wenn unter NDA wäre.
robbitop
2005-06-09, 12:50:21
Also hätte es sich bis jetzt schon gelohnt aus deiner Sicht eine 6800GT zu besitzen als normaler Gamer und bei Auflösung und AA abstriche zu machen? Ich wüsste übrigens garnicht, welche Karte man sich ein halbes Jahr später hätte kaufen sollen. ;)
Wieso quotest Du mich und nennst mich Betareverse? :|
Konsolenfreund
Nun eine 6800GT ist ähnlich schnell wie eine X800XL oder eine X800pro (gleicher Preis). Und ich persönlich halte den NV40 für die bessere Investition.
Zumindist wenn ich das Produkt ein paar Jahre behalten will.
Die Frage kannst du dir vermutlich selbst beantworten, beta ;)
robbitop
2005-06-09, 12:51:31
DXT5 besteht aus DXT1 plus einem Alpha-Teil. Der DXT1-Part hat mit 3Dc nichts zu tun. 3Dc ist eine Zweikanal-Komprimierung.
xmas korrigierte mich diesbezüglich bereits :)
robbitop
2005-06-09, 12:52:52
Wie wird das dann mit Unreal3 aussehen? Da haben wir wieder die gleiche Situation, ok wir haben beim G70 zwar mehr Füllrate, aber die Bandbreite hinkt immer noch hinterher. Also könnte man vielleicht nur mehr AA limitiert sein und nicht mehr AA und AF limitiert. Oder werden die Shader dort sooo lang sein dass es wirklich Shader limitiert ist?
AFAIK sollte das beim NV40/R420 shaderlimitiert sein. Und dort wird keine Performance mehr über sein für AA/AF denke ich.
robbitop
2005-06-09, 12:58:30
Man sollte nicht groß über ihn reden oder mit Bezeichnungen wie "Salz in der Suppe" rechtfertigen. Entweder hat man Infos, dann muss man leider die Schnauze halten (da NDA.) Oder man hat keine Infos, aber ein Gerücht aufgeschnappt. Das sollte man mit dem gebotenen journalistischen Abstand bewerten.
Über gute Kontakte, kommt man auch ohne NDA mal an recht brauchbare Informationen. Nur ist Fuad offensichtlich Opfer von FUD seitens der IHVs und merkt es selbst nicht mal.
Ich habe ihm auch schon mal eine kritische Mail geschrieben hinsichtlich einer Meldung von ihm, welche viele Fehler und Ungereimtheiten hinterließ. Ich forderte ihn auf etwas kritischer zu überlegen und mehr zu hinterfragen.
Als Antwort kam nur (sinngemäß): "ich schreibe nur das was ich auf den Dokumenten sehe".
Offensichtlich unverbesserlich.
Ailuros
2005-06-09, 12:58:53
2-Kanal bitte.
In Shader-lastigen Situationen wird der G70 wohl etwa 2x NV40 entsprechen, mal mehr, mal weniger. ATI sollte also eine ähnliche Steigerung gegenüber R420 hinlegen, um nicht ins Hintertreffen zu geraten. Nur über den Takt geht das nicht.
Manche sprechen sogar ueber mehr, aber dann auf naechster Generation Spiele bezogen.
deekey777
2005-06-09, 12:59:09
Alos muss man davon ausgehen, das er momentan gar nichts weiss. ...
Er schreibt ab, zitiert andere Seiten, verändert alles und hat eine "eigene" News.
Ailuros
2005-06-09, 13:04:21
Doch doch....die Vorstellung war ürsprünglich mal für April geplant.
Und das das unsinnig wäre, haben mehere auch schon damals gesagt.....die dann allerdings ausgelacht wurden (aber im Endeffekt recht behielten).
Viel interesanter finde ich, das ATI hier von vielen scheinbar als unfehlbar gesehen wird, scheinbar nie Fehler in der Planung/Design machen kann und immer schneller als nV sein muss.
Selbst wenn der G70 in shaderlastigen Situationen den r520 um 10-20% schlagen sollte (und da gehts dann wohl auch eher um PS3.0), gibt es noch genug andere Diszipline wo er dem G70 überlegen sein könnte.
Da er höher getaktet ist und beide nur 8VS haben werden, wird er den G70 z.B. wohl in allen Vertexlastigen Dingen schlagen (also dem 3DMark05 z.B.).
Und wenn ATI intelleigent genug ist, verpassen Sie ihm 700MHz-SPeicher, damit schlägt er den G70 dann mit ziemlicher wahrscheinlichkeit in hohen Auflösungen + AA.
Gönnt nV doch den PS-Speedvorteil. Bei den momentanen Games wird das nicht so extrem viel bringen....und bis zum ersten Game das die UT3-Engine PS-Lastig ausreizt gibts sowieso die nächste generation Karten....
Nicht schlecht illustriert; nur ist der Vorteil vielleicht etwas groesser als das obrige Prozentual. Geht es theoretisch darum mehr Entwickler dazu zu ueberreden eigene HW als Entwicklungs-Platform zu benutzen, handelt es sich nicht unbedingt um einen Erfolg.
PS. Grundsätzlich kann auch ATI mal einen Fehler machen.
Natürlich, aber dessen unbenommen glaube ich nichtmal, daß wir es mit einem Fehler zu tun haben.
Man könnte höchstens weniger Speed/Yield aus 0,09µ gewonnen haben, als man sich das erhofft hatte.
Ein Designfehler wird der R520 sicherlich nicht sein, aber es könnte sich jetzt rächen, daß man jahrelang sich auf der hochperformanten R300-Architektur ausgeruht hat, während nV schon mit dem mißglückten nV30 in Richtung SM3 vorgearbeitet hatte und die Crux beim nV40 weiterschleppte - Technik mitzuschleppen, die nicht unbedingt nötig war, aber eben den Weg für später ebnete.
Eventuell, ganz eventuell sehen wir jetzt deshalb auch einen R520 in 0,09µ, nachdem wir schon auf einen R400 in 0,13µ verzichten mussten, weil ATi jetzt langsam in Zugzwang gerät, endlich auch mal technologisch nachzulegen und nicht nur FPS-technisch. Vielleicht, weil sie manchen Devs seit einem Jahr SM3-Kompatibilität versprechen, sie aber "nur" für die XBox 360 erfüllen, damit aber gleichzeitig die Verbreitung von SM3-Games auch auf dem PC vorantreiben.
Es scheint die Zeit gekommen, in den sauren Apfel zu beißen und sich einmal wieder der Qualität statt der reinen FPS-Leistung zu widmen. Evtl. hatte man gehofft, direkt einen WGF-2.0-Chip platzieren zu können und den Umweg SM3.0 überspringen zu können?
DrumDub
2005-06-09, 14:46:19
Evtl. hatte man gehofft, direkt einen WGF-2.0-Chip platzieren zu können und den Umweg SM3.0 überspringen zu können? interessante überlegung. da hat aber ms ati mit der verzögerung von longhorn eine strich durch die rechnung gemacht (und nv mit dem nv40).
ShadowXX
2005-06-09, 14:52:07
interessante überlegung. da hat aber ms ati mit der verzögerung von longhorn eine strich durch die rechnung gemacht (und nv mit dem nv40).
Diese Überlegung haben schon mehrere (auch ich) angebracht.....nur wurde meistens drüberweggelesen.
Es wurde schlichtweg verneint, weil viele der Meinung sind, dass ATI solche Planungsfehler nicht unterlaufen.
DrumDub
2005-06-09, 14:59:22
Diese Überlegung haben schon mehrere (auch ich) angebracht.....nur wurde meistens drüberweggelesen.
Es wurde schlichtweg verneint, weil viele der Meinung sind, dass ATI solche Planungsfehler nicht unterlaufen. nun ja, der fehler liegt ja auch in diesem (theoretischen) fall nicht zwangsläufig bei ati. bis ende 2005 wäre man ja mit sm 2.0(b) noch ausgekommen.
übrings kann man das gleiche ja auch für den nv30 sagen. solche probleme sind nie monokausal, sondern werden durch sehr viele faktoren beeinflusst. eine wirklich sichere planung ist deshlab auch gar nicht möglich.
ShadowXX
2005-06-09, 15:04:39
nun ja, der fehler liegt ja auch in diesem (theoretischen) fall nicht zwangsläufig bei ati. bis ende 2005 wäre man ja mit sm 2.0(b) noch ausgekommen.
übrings kann man das gleiche ja auch für den nv30 sagen. solche probleme sind nie monokausal, sondern werden durch sehr viele faktoren beeinflusst. eine wirklich sichere planung ist deshlab auch gar nicht möglich.
Da hast du natürlich recht....nur sollte man gerade wenn man sich auf MS verlässt (fast ein wiederspruch in sich, bei Terminen triffts aber fast immer zu) einen Plan B in der Tasche haben (Und sicherheitshalber auch noch Plan C).
DrumDub
2005-06-09, 15:22:27
Da hast du natürlich recht....nur sollte man gerade wenn man sich auf MS verlässt (fast ein wiederspruch in sich, bei Terminen triffts aber fast immer zu) einen Plan B in der Tasche haben (Und sicherheitshalber auch noch Plan C). tjo, war 2002 bei nv nicht so und scheint auch 2005 bei ati nicht der fall zu sein. ;)
ich denke, dass hat auch eben viel mit den produktions/entwicklungszyklen zu tun und den sich daraus ergebenden zeitproblemen. die verkettung von falschen einschätzungen, technischen- und produktionsproblemen, designentscheidungen, investitionen in neue tools, konsolendeals etc. kann die situation der beiden großen grafik-ihvs innerhalb nur eines jahres drehen.
das macht die sache ja auch so spannend. ;)
jungs, ihr driftet mMn viel zu sehr ab, wir haben noch keine ahnung was am ende herauskommen wird und ob ati sich überhaupt verkalkuliert hat...
der sieger steht hier noch lange nicht fest
robbitop
2005-06-09, 17:30:52
jungs, ihr driftet mMn viel zu sehr ab, wir haben noch keine ahnung was am ende herauskommen wird und ob ati sich überhaupt verkalkuliert hat...
der sieger steht hier noch lange nicht fest
Thema ist R520 und ich sehe nicht, wo man davon abweicht...
(Anfang 2005 ist eh schon lange vorbei somit ist Originalthema eh obsolet)
Nun eine 6800GT ist ähnlich schnell wie eine X800XL oder eine X800pro (gleicher Preis). Und ich persönlich halte den NV40 für die bessere Investition.
Zumindist wenn ich das Produkt ein paar Jahre behalten will.
Die Frage kannst du dir vermutlich selbst beantworten, beta ;)
Jetzt vielleicht, weil die 6800GTs extrem im Preis gefallen sind. Eine X800XT erlaubt aber in quasi allen Spielen (bis auf DoomIII) eine höhere Auflösungstufe, was für Leute, die gerne hohe Res´und AA Filterstufen nehmen, ein sehr wichtiger Faktor ist. Und abseits des Mainstreams trifft das sogar auch X800Xl vs. 6800GT zu, denn bei realtiv schlecht optimierten Spielen wird dieses Bild noch deutlicher. Trotzdem ist die 6800GT ATM ein bestbuy, aber das war am Anfang garnicht so, als man noch zwischen X800XT und 6800GT entscheiden musste.
Na, aber ich signiere ja nicht ohne Grund mit ....
Konsolenfreund ;)
seahawk
2005-06-09, 18:54:50
Jetzt vielleicht, weil die 6800GTs extrem im Preis gefallen sind. Eine X800XT erlaubt aber in quasi allen Spielen (bis auf DoomIII) eine höhere Auflösungstufe, was für Leute, die gerne hohe Res´und AA Filterstufen nehmen, ein sehr wichtiger Faktor ist. Und abseits des Mainstreams trifft das sogar auch X800Xl vs. 6800GT zu, denn bei realtiv schlecht optimierten Spielen wird dieses Bild noch deutlicher. Trotzdem ist die 6800GT ATM ein bestbuy, aber das war am Anfang garnicht so, als man noch zwischen X800XT und 6800GT entscheiden musste.
Na, aber ich signiere ja nicht ohne Grund mit ....
Konsolenfreund ;)
Diu meisnt X800PRO gegen 6800GT, denn die lagen am Anfang innerhalb eines Marktsegmentes.
reunion
2005-06-09, 19:16:04
ATI Fights for Next-Gen R520 GPU Yields: ATI’s Next-Gen Product May Not Yet Be in Production
http://www.xbitlabs.com/news/video/display/20050609093014.html
Diu meisnt X800PRO gegen 6800GT, denn die lagen am Anfang innerhalb eines Marktsegmentes.
Ja, auch. Die 6800GT war zwischen X800Pro und X800XT angesiedelt. Aber ist ja jetzt auch egal, denn das ist Vergangenheit und jetzt aktuell ist die 6800GT unschlagbar bei dem Preis. Ich jedenfalls fand meine X800Xt besser als meine 6800GT, einfach weil sie in nahezu jedem Spiel eine Res.Stufe oder/und eine AA Stufe mehr zuließ, was für Leute, die 1600*1200 nutzen wollen ziemlich wichtig ist.
Hoffentlich wird der R520 keine Krücke in Form eines NV30 Nachfolgers. Ansonsten werden wir keine so tollen Preise sehen, wie jetzt bei der 6800GT. ;(
Konsolenfreund
Ich habe heute bei der Arbeit nebenbei mitbekommen dass TSMCs 90nm nicht wirklich gut läuft. Ich denke mal ATi haben echt ihr "NV30 Desaster" beim Herstellungsprozess...
Ich habe heute bei der Arbeit nebenbei mitbekommen dass TSMCs 90nm nicht wirklich gut läuft. Ich denke mal ATi haben echt ihr "NV30 Desaster" beim Herstellungsprozess...
Vielleicht nicht in dem Ausmaße wie Nvidia mit dem NV30, aber scheint doch was Wahres dran zu sein.
Solange es keinen 800 Mhz Speicher gibt, finde ich es aber nicht tragisch.
Was soll die neue Generation mit 600 Mhz Speicher bringen?
In 1600x1200 mit 4xAA dürfte der G70 kaum schneller als eine 6800Ultra sein.
Wenn man mit geringeren Einstellungen spielt, braucht man auch keine G70 Karte. :)
robbitop
2005-06-09, 19:36:12
Jetzt vielleicht, weil die 6800GTs extrem im Preis gefallen sind. Eine X800XT erlaubt aber in quasi allen Spielen (bis auf DoomIII) eine höhere Auflösungstufe, was für Leute, die gerne hohe Res´und AA Filterstufen nehmen, ein sehr wichtiger Faktor ist. Und abseits des Mainstreams trifft das sogar auch X800Xl vs. 6800GT zu, denn bei realtiv schlecht optimierten Spielen wird dieses Bild noch deutlicher. Trotzdem ist die 6800GT ATM ein bestbuy, aber das war am Anfang garnicht so, als man noch zwischen X800XT und 6800GT entscheiden musste.
Na, aber ich signiere ja nicht ohne Grund mit ....
Konsolenfreund ;)
@Betareverse
Das mag bei den ersten Treiber so gewesen sein, aber seit den relativ neuen Treiber ist der NV40 relativ durchgehen so schnell wie eine X800XL (vieleicht minimal langsamer). Raff hat in letzter Zeit viel mit den Treibern herumexperimentiert und diesen Eindruck verifiziert.
robbitop
2005-06-09, 19:38:05
Vielleicht nicht in dem Ausmaße wie Nvidia mit dem NV30, aber scheint doch was Wahres dran zu sein.
Solange es keinen 800 Mhz Speicher gibt, finde ich es aber nicht tragisch.
Was soll die neue Generation mit 600 Mhz Speicher bringen?
In 1600x1200 mit 4xAA dürfte der G70 kaum schneller als eine 6800Ultra sein.
Wenn man mit geringeren Einstellungen spielt, braucht man auch keine G70 Karte. :)
Was ist mit AF und massiven Shadern? Da sollte man schon merken wo die Leistung bleibt.
@Coda
wo hast du denn die Informationen her? AFAIK sollen die Yields für R500 bsw recht gut sein.
Infos habe ich von meinem Chef, der erst letztens in Taiwan war. Anscheinend sind schon Firmen bankrott gegangen weil sie auf 90nm TSMC gesetzt, diese aber keine Chips geliefert haben.
reunion
2005-06-09, 19:43:04
@Coda
wo hast du denn die Informationen her? AFAIK sollen die Yields für R500 bsw recht gut sein.
Naja, über R500 hört man zurzeit eigendlich gar nichts in punkto Yields.
Im übrigen hat der R500 ohne eDRAM, ROPs, ect. (die ja auf eine extra Chip untergebracht sind) mit Sicherheit eine deutlich niedrigere Transistorenanzahl als R520 und auch die Taktrate ist mit 500Mhz ziemlich bescheiden.
Was ist mit AF und massiven Shadern? Da sollte man schon merken wo die Leistung bleibt.
In 1600x1200 und 4xAA dürfte das nebensächlich sein, da die Bandbreite limitiert...
Ailuros
2005-06-09, 19:49:55
Evtl. hatte man gehofft, direkt einen WGF-2.0-Chip platzieren zu können und den Umweg SM3.0 überspringen zu können?
R500 waere zu lahm gewesen (oder Ur-R400 falls es besser klingt) und fuer R600 haette man Probleme gehabt denn das Ding waere zu gross gewesen (fuer die heutigen Verhaeltnisse).
reunion
2005-06-09, 19:52:52
R500 waere zu lahm gewesen (oder Ur-R400 falls es besser klingt) und fuer R600 haette man Probleme gehabt denn das Ding waere zu gross gewesen (fuer die heutigen Verhaeltnisse).
Was will man eigendlich an R600 ändern, dass dieser nichtmehr zu lahm ist?
Bzw. inwiefern ist/war R400 zu lahm?
Ailuros
2005-06-09, 19:53:39
Vielleicht nicht in dem Ausmaße wie Nvidia mit dem NV30, aber scheint doch was Wahres dran zu sein.
Solange es keinen 800 Mhz Speicher gibt, finde ich es aber nicht tragisch.
Was soll die neue Generation mit 600 Mhz Speicher bringen?
In 1600x1200 mit 4xAA dürfte der G70 kaum schneller als eine 6800Ultra sein.
Wenn man mit geringeren Einstellungen spielt, braucht man auch keine G70 Karte. :)
Wenn man vorraussetzt dass jegliche NV4x Einheit = G70 Einheit sein sollte dann wuerde das obrigen zwar auch nicht ganz zustimmen, aber darum geht es nicht.
Wer mit geringeren Einstellungen spielt sollte sich sein Geld sparen und eine mainstream Karte entweder von ATI oder NVIDIA kaufen.
Ailuros
2005-06-09, 19:56:06
Was will man eigendlich an R600 ändern, dass dieser nichtmehr zu lahm ist?
Bzw. inwiefern ist/war R400 zu lahm?
"R400" < R500 und der letztere ist auch nicht gerade das Wunderkind fuer den PC; fuer eine Console durchaus ausreichend und performant.
R500 hat drei 16-way SIMDs und zaehlt etwas mehr als 200M Transistoren + eDRAM.
Was ist mit AF und massiven Shadern? Da sollte man schon merken wo die Leistung bleibt.
Und wo gibt es massive Shader, die in 1600*1200 mit AA, den Banbreitenmangel überschatten würden? ;)
Konsolenfreund
Wenn man vorraussetzt dass jegliche NV4x Einheit = G70 Einheit sein sollte dann wuerde das obrigen zwar auch nicht ganz zustimmen, aber darum geht es nicht.
Kannst du es mal näher erläutern, was du meinst? :)
Ich gehe schon davon aus, dass Nvidia etwas geändert hat, z.B. early-Z/Oculling, deswegen schrieb ich ja auch kaum. :)
Ailuros
2005-06-09, 20:12:31
Und wo gibt es massive Shader, die in 1600*1200 mit AA, den Banbreitenmangel überschatten würden? ;)
Konsolenfreund
Je hoeher die Grundleistung insgesamt, desto hoeher die finale Leistung selbst in 1600 mit 4xAA. Ich wuerde mich lieber derzeit auf jegliche moegliche Aenderungen konzentrieren was die ROPs betrifft, als mich nur stur auf Zahlen zu begrenzen.
Klar ist G70 nur eigentlich ein refresh zu NV40, aber identische Leistung in Situation X zu behaupten ist ein bisschen gewagt IMO. Minimal sind uns momentan folgende Steigerungen von Einheiten bekannt:
16-->24 TMUs
16-->24 ALUs (ja aber mit vielen ALU ops/Takt?)
16--> 16 ROPs (wobei aber ROP=! ROP)
6-->8 VS MIMDs
Gewinnt jetzt G70 sagen wir mal 50% in Situation X, dann heisst dass auch NV40 Leistung + 50% selbst in 16 mit AA. Oder willst Du mir weissmachen dass wenn NV40 sagen wir mal 40% in 16 mit AA verliert, dass G70 dann 60 oder 70% in der gleichen Situation mit AA verliert?
16--> 16 ROPs (wobei aber ROP=! ROP)16 ROPs reichen beim nV Design bei 256bit absofort sowieso immer.
Je hoeher die Grundleistung insgesamt, desto hoeher die finale Leistung selbst in 1600 mit 4xAA.
Wie soll das gehen, wenn die Speicherbandbreite limitiert?
Ailuros
2005-06-09, 20:20:07
16 ROPs reichen beim nV Design bei 256bit absofort sowieso immer.
Es blieb tatsaechlich bei 16c/32z, aber eben mit Effizienz-Erhoehungen was die OPs betrifft.
Ailuros
2005-06-09, 20:23:25
Wie soll das gehen, wenn die Speicherbandbreite limitiert?
Beispiel
Chip A :
80 fps in 1600 ohne AA
48 fps in 1600 mit 4xAA
Chip B:
120 fps in 1600 ohne AA
immer noch 48 fps in 1600 mit 4xAA?
Klingt =/>60 fps nicht wahrscheinlicher? Was genau ist jetzt an Deiner Spekulation fehl am Platz?
pF3NG
2005-06-09, 20:31:18
ATI Fights for Next-Gen R520 GPU Yields: ATI’s Next-Gen Product May Not Yet Be in Production
http://www.xbitlabs.com/news/video/display/20050609093014.html
Glaub ich nicht, wenn es jedoch so wäre, dann :eek: :mad: :frown:
Beispiel
Chip A :
80 fps in 1600 ohne AA
48 fps in 1600 mit 4xAA
Chip B:
120 fps in 1600 ohne AA
immer noch 48 fps in 1600 mit 4xAA?
Jain, ich habe doch geschrieben, dass durch Optimierungen der GPU etwas mehr drin ist. Aber lohnt es sich für die paar FPS eine G70 zu kaufen, wenn eine 6800Ultra nur die Hälfte kostet?
Das P/L Verhältnis bleibt auf der Strecke...:)
Klingt =/>60 fps nicht wahrscheinlicher?
Doch, vielleicht 55. ;)
Was genau ist jetzt an Deiner Spekulation fehl am Platz?
Du wirst sicherlich so freundlich sein es mir zu sagen. =)
Quasar
2005-06-09, 20:57:51
Das P/L Verhältnis bleibt auf der Strecke...:)
Das war und ist im UHE sowieso nie gegeben. :)
Das war und ist im UHE sowieso nie gegeben. :)
Beim Wechsel von 9800PRO auf X800XT war das aber so. :)
Bei Nvidia sah es noch extremer aus. ;)
Der Unterschied zwischen R200 und R300 war auch gewaltig.
Das sieht bei der neuen Generation, zumindest mit 600 Mhz Speicher, ganz anders aus.
Kurz gesagt. Miserabler Vorteil. Es lohnt sich kaum über einen Kauf nachzudenken. =)
pF3NG
2005-06-09, 21:14:59
Ja, ich für meinen Teil werd wohl von beiden (G70/R520) die Finger lassen weil mir
a) im Moment meine GraKa noch genügt
b) ich mir falls [a)] nicht mehr zutrifft Crossfire zulege
c) ich warte auf R600/NV50
robbitop
2005-06-10, 00:02:58
Und wo gibt es massive Shader, die in 1600*1200 mit AA, den Banbreitenmangel überschatten würden? ;)
Konsolenfreund
Unreal 3, Splinter Cell 3 und viele mehr die kommen werden.
Selbst Doom 3 dank dynamischer Beleuchtung ist relativ shaderintensiv. Dahin geht einfach der Trend.
robbitop
2005-06-10, 00:16:08
Je hoeher die Grundleistung insgesamt, desto hoeher die finale Leistung selbst in 1600 mit 4xAA. Ich wuerde mich lieber derzeit auf jegliche moegliche Aenderungen konzentrieren was die ROPs betrifft, als mich nur stur auf Zahlen zu begrenzen.
Klar ist G70 nur eigentlich ein refresh zu NV40, aber identische Leistung in Situation X zu behaupten ist ein bisschen gewagt IMO. Minimal sind uns momentan folgende Steigerungen von Einheiten bekannt:
16-->24 TMUs
16-->24 ALUs (ja aber mit vielen ALU ops/Takt?)
16--> 16 ROPs (wobei aber ROP=! ROP)
6-->8 VS MIMDs
Gewinnt jetzt G70 sagen wir mal 50% in Situation X, dann heisst dass auch NV40 Leistung + 50% selbst in 16 mit AA. Oder willst Du mir weissmachen dass wenn NV40 sagen wir mal 40% in 16 mit AA verliert, dass G70 dann 60 oder 70% in der gleichen Situation mit AA verliert?
Angeblich hat man was an den ALUs gemacht. Laut NV sollen die Pipes 50% schneller sein. Kann aber auch PR Gewäsch sein.
Dass man etwas an den ROPs geändert hat, glaube ich kaum. Die wurden nie zum Flaschenhals. Ich hoffe aber inständig, dass man die interne Bandbreite aufgebohrt hat für schnelleres HDR und dass man mehr temp Register für die ALUs hat.
BTW die ROPs scheinen mit Speichertakt und nicht mit Chiptakt zu laufen. 16x ROPs @600MHz ist mehr als genug um einen 400MHz Chip mit 6 Quads zu versorgen.
Wenn die Bandbreite der Flaschenhals ist und NV40 Bandbreite = ungefähr G70 Bandbreite, dann verliert der G70 natürlich im relativen Sinne mehr Performance.
Unreal 3, Splinter Cell 3 und viele mehr die kommen werden.
Selbst Doom 3 dank dynamischer Beleuchtung ist relativ shaderintensiv. Dahin geht einfach der Trend.
Der Trend ist immer so, nur wann solche Trends real werden, ist ne andere Sache. ;) Unreal3 ist in nicht fassbarer Ferne. Ende 2006 wurde unverbindlich gesagt, wobei man wohl eher mit 2007 rechnen muss, gerade weil Unreal3 wohl erstmal PS3 exklusiv erscheinen wird.
Doom3 mag zwar shaderlastig sein, wie auch FarCry, aber so massiv ist die Last nun auch nicht, wenn ich FarCry mit einer 6800GT oder X800Pro locker in 1600*1200 zocken kann bei max. Details. und bei DoomIII sind die Shatten der Blutsauger.
Splintercell finde ich optisch schrecklich. Völlig überzogene Oberflächen - ein Beispiel, dass hohe Shaderlast und SM3.0 ungleich tolle Optik sind. Aber ok, rein technisch gesehen ist das Spiel schon fordernt, wenn auch ein Negativbeispiel rein visuell für den hohen Techlevel.
Ich hoffe der Trend kommt schnell, denn bisher sehe ich nur die UE3 und wann da mal was auf dem PC kommt, ist ne andere Frage.
Konsolenfreund
In 1600x1200 und 4xAA dürfte das nebensächlich sein, da die Bandbreite limitiert...
Warum so versteift auf hohe Auflösung? MSAA, ok, das kostet mehr Bandbreite pro Pixel. Aber eine hohe Auflösung erhöht die Bandbreiteneffizienz, verringert also die benötigte Bandbreite pro Pixel (relativ gesehen weniger Kantenpixel, mehr komplette Tiles, häufiger Textur-Magnification).
Gut, die benötigte Scanout-Bandbreite steigt einerseits durch höhere Auflösung, fällt aber auch wieder durch die wahrscheinlich geringere Bildwiederholfrequenz.
robbitop
2005-06-10, 00:58:35
Der Trend ist immer so, nur wann solche Trends real werden, ist ne andere Sache. ;) Unreal3 ist in nicht fassbarer Ferne. Ende 2006 wurde unverbindlich gesagt, wobei man wohl eher mit 2007 rechnen muss, gerade weil Unreal3 wohl erstmal PS3 exklusiv erscheinen wird.
Doom3 mag zwar shaderlastig sein, wie auch FarCry, aber so massiv ist die Last nun auch nicht, wenn ich FarCry mit einer 6800GT oder X800Pro locker in 1600*1200 zocken kann bei max. Details. und bei DoomIII sind die Shatten der Blutsauger.
Splintercell finde ich optisch schrecklich. Völlig überzogene Oberflächen - ein Beispiel, dass hohe Shaderlast und SM3.0 ungleich tolle Optik sind. Aber ok, rein technisch gesehen ist das Spiel schon fordernt, wenn auch ein Negativbeispiel rein visuell für den hohen Techlevel.
Ich hoffe der Trend kommt schnell, denn bisher sehe ich nur die UE3 und wann da mal was auf dem PC kommt, ist ne andere Frage.
Konsolenfreund
Da ich meine HW bsw für ein paar Jahre kaufe, wird sich das vieleicht auszahlen. :-)
pF3NG
2005-06-10, 06:51:15
Angeblich hat man was an den ALUs gemacht. Laut NV sollen die Pipes 50% schneller sein. Kann aber auch PR Gewäsch sein.
Dass man etwas an den ROPs geändert hat, glaube ich kaum. Die wurden nie zum Flaschenhals. Ich hoffe aber inständig, dass man die interne Bandbreite aufgebohrt hat für schnelleres HDR und dass man mehr temp Register für die ALUs hat.
BTW die ROPs scheinen mit Speichertakt und nicht mit Chiptakt zu laufen. 16x ROPs @600MHz ist mehr als genug um einen 400MHz Chip mit 6 Quads zu versorgen.
Wenn die Bandbreite der Flaschenhals ist und NV40 Bandbreite = ungefähr G70 Bandbreite, dann verliert der G70 natürlich im relativen Sinne mehr Performance.
Vielleicht ist der R520 dadurch verzögert worden; ATi wollte nach G70 Launch schnell noch ein paar weitere Pipelineänderungen vornehmen, da R520 sonst zu langsam im vergleich mit G70 wäre
hi,
ich habe diesen tread nicht ganz mitverfolgt ist mir auch jetzt viel zu unübersichtlich!
könnte mir noch einmal einer kurz zusammenfassen , welche technischen daten der R520 hat wie viel er ca kosten wird und eventuell ein bild von der karte?
thx..
ps: gstern stand glaub ich auf hardware-mag.de das der r520, 10k im 3dmark 05 haben soll^^
seahawk
2005-06-10, 08:03:32
Vielleicht ist der R520 dadurch verzögert worden; ATi wollte nach G70 Launch schnell noch ein paar weitere Pipelineänderungen vornehmen, da R520 sonst zu langsam im vergleich mit G70 wäre
Mal schnell solche Änderungen vorzunehmen dürfte nicht gehen. Wenn überhaupt, dann hätten sie wahrscheinlich die Zieltakt angehoben.
Dunkeltier
2005-06-10, 08:10:57
ATI Fights for Next-Gen R520 GPU Yields: ATI’s Next-Gen Product May Not Yet Be in Production
http://www.xbitlabs.com/news/video/display/20050609093014.html
Kannst du mal kurz anreißen was da drinsteht, denn ich kann überhaupt kein Englisch. :frown:
Warum so versteift auf hohe Auflösung?
Weil ich für geringere Auflösungen keine Spitzenkarte benötige. =)
MSAA, ok, das kostet mehr Bandbreite pro Pixel. Aber eine hohe Auflösung erhöht die Bandbreiteneffizienz, verringert also die benötigte Bandbreite pro Pixel (relativ gesehen weniger Kantenpixel, mehr komplette Tiles, häufiger Textur-Magnification).
Ähm, ja! Hier hast du natürlich Recht.
Trotzdem behaupte ich, dass der G70, mit 600 Mhz Speicher, kaum schneller als eine 6800Ultra in hohen Auflösungen und AA sein wird.
Mal sehen wer Recht haben wird... :)
Gut, die benötigte Scanout-Bandbreite steigt einerseits durch höhere Auflösung, fällt aber auch wieder durch die wahrscheinlich geringere Bildwiederholfrequenz.
Wahrscheinlich geringere Bildwiederholfrequenz?
:confused:
Ich zocke immer mit 85 Hertz, egal welche Auflösung.
Oder was wolltest du mir damit sagen?
robbitop
2005-06-10, 09:05:56
Vielleicht ist der R520 dadurch verzögert worden; ATi wollte nach G70 Launch schnell noch ein paar weitere Pipelineänderungen vornehmen, da R520 sonst zu langsam im vergleich mit G70 wäre
Das würde zu viel Verzögerung bedeuten. Außerdem sollen wohl schon die ROPs im NV40 mit RAM Takt angesteuert worden sein. Und so viel machen die ROPs auch nun wieder nicht aus.
@AiL
wie kommst du eigentlich auf 8xVS beim G70?
Wenn 860MTri/sek stimmt, sinds nur 6xVS.
reunion
2005-06-10, 09:33:25
Kannst du mal kurz anreißen was da drinsteht, denn ich kann überhaupt kein Englisch. :frown:
Im wesentlich steht drinnen, dass ATi ein Re-spin des R520 machen musste, da die Ausbeute miserabel war und dadurch sich der R520 noch nicht in Massenproduktion befindet. Bei G70 soll es hingegen keinerlei Probleme geben und dieser soll auch in kürze Vorgestellt bzw. Verfügbar sein.
Außerdem soll es sich bei R520 um eine komplett neue Architektur handeln, welche den Chip extrem komplex macht. Über die Pipelineanzahl wisse man noch nicht bescheid, der Chip wird allerdings in 90nm gefertigt und SM3.0 unterstützten.
Crushinator
2005-06-10, 09:34:49
Kannst du mal kurz anreißen was da drinsteht, denn ich kann überhaupt kein Englisch. :frown:
Zusammengefasst in etwa: R520 funktioniert wie gedacht, ATi ist jedoch mit der Chipausbeute unzufrieden. Deshalb wird noch am Chip-Design dahingehend gearbeitet, um die Ausbeute zu verbessern, während man mit dem Konkurrenten das übliche "Warte ab und reagiere"-Spiel bezüglich finalem Takt spielt. Man soll sich auch nicht auf die Gerüchte verlassen, die puncto "Pipelines" im Umlauf sind, weil sie nur eine relativ geringe Aussagekraft auf erzielbare Endleistungen haben.
[Edit]
...und darausfolgend, daß mit Massenproduktion noch nicht begonnen worden ist.
wuddu
2005-06-10, 09:37:50
Kannst du mal kurz anreißen was da drinsteht, denn ich kann überhaupt kein Englisch. :frown:
Kurz übersetzt: ATI kämpft zwecks Yield (Ertrag)-Ausbeute. Und das es noch nicht so in der Form in Serie geht.
seahawk
2005-06-10, 09:50:05
Wobei da nur steht, dass der Chip voll funktionstüchtig (fully functional) ist. Das heißt imho ausdrücklich nicht, dass er die gewünschte Leistung bringt.
Außerdem sehe ich da auch einen Hinweis, dass die spekulierten 32 Pipes falsch sind. Was aber niemanden überraschen sollte.
wuddu
2005-06-10, 09:57:53
Wobei in diesem Artikel erneut der Hinweis eines erneuten Tape-Out (oder Re-Spinn) hervorgeht. Langsam frage ich mich ob der R520 nicht viel mehr ATIs R400 wird ???. Natürlich immer vorausgesetzt, die Informationen entsprechen in etwa der Wahrheit.
Wenn sie jetzt noch am Yield herumdoktorn wird es imho kurz nach dem Launch Ende Juli aber nicht viele Karten zu kaufen geben, zumindest nicht für die angedachten Preise. Sollte die 100 Tage Regel noch gelten dann wird es vor Oktober nichts mit R520 in grossen Mengen.
Positiv ist, dass sie den Respin schon vorher machen und nicht wie beim R420 -> R480 erst später.
Crushinator
2005-06-10, 10:10:41
Wobei da nur steht, dass der Chip voll funktionstüchtig (fully functional) ist. Das heißt imho ausdrücklich nicht, dass er die gewünschte Leistung bringt.
Wenn man in dem Zusammenhang von Unzufriedenheit mit Yields spricht, würde ich nicht zwangsläufig davon ausgehen, daß die Leistung nicht stimmt. Eher davon, daß die angepeilte Leistung zu teuer erkauft wurde.
Außerdem sehe ich da auch einen Hinweis, dass die spekulierten 32 Pipes falsch sind. Was aber niemanden überraschen sollte.
In gewisser Weise sind solche Spekulationen logisch. Man muß sich meist nur eine Eselsbrücke bauen, um zu verstehen, wie man auf die Zahlen kommt. "The return of extreme pipes" ist in diesem Zusammenhang gar nicht mal so falsch ausgedrückt.
seahawk
2005-06-10, 10:23:30
Wenn man in dem Zusammenhang von Unzufriedenheit mit Yields spricht, würde ich nicht zwangsläufig davon ausgehen, daß die Leistung nicht stimmt. Eher davon, daß die angepeilte Leistung zu teuer erkauft wurde.
Wobei das wahrscheinlich zwei Seiten einer Medaille sind.
In gewisser Weise sind solche Spekulationen logisch. Man muß sich meist nur eine Eselsbrücke bauen, um zu verstehen, wie man auf die Zahlen kommt. "The return of extreme pipes" ist in diesem Zusammenhang gar nicht mal so falsch ausgedrückt.
Ja, aber eben nicht im Sinne von 32x1 im koventionellen Sinne.
Ailuros
2005-06-10, 10:31:25
Angeblich hat man was an den ALUs gemacht. Laut NV sollen die Pipes 50% schneller sein. Kann aber auch PR Gewäsch sein.
Dass man etwas an den ROPs geändert hat, glaube ich kaum. Die wurden nie zum Flaschenhals. Ich hoffe aber inständig, dass man die interne Bandbreite aufgebohrt hat für schnelleres HDR und dass man mehr temp Register für die ALUs hat.
BTW die ROPs scheinen mit Speichertakt und nicht mit Chiptakt zu laufen. 16x ROPs @600MHz ist mehr als genug um einen 400MHz Chip mit 6 Quads zu versorgen.
Wenn die Bandbreite der Flaschenhals ist und NV40 Bandbreite = ungefähr G70 Bandbreite, dann verliert der G70 natürlich im relativen Sinne mehr Performance.
Stimmt alles schon mehr oder weniger.
Dass ROPs auf Speichertakt laufen sagte mir Xmas vor einiger Zeit auf B3D.
reunion
2005-06-10, 10:37:16
Wobei da nur steht, dass der Chip voll funktionstüchtig (fully functional) ist. Das heißt imho ausdrücklich nicht, dass er die gewünschte Leistung bringt.
Das heißt, dass er voll funktionsfähig ist.
Hier irgendetwas anderes hinein zu interpretieren bringt uns auch nicht weiter.
Ailuros
2005-06-10, 10:37:41
Jain, ich habe doch geschrieben, dass durch Optimierungen der GPU etwas mehr drin ist. Aber lohnt es sich für die paar FPS eine G70 zu kaufen, wenn eine 6800Ultra nur die Hälfte kostet?
Das P/L Verhältnis bleibt auf der Strecke...:)
Doch, vielleicht 55. ;)
Du wirst sicherlich so freundlich sein es mir zu sagen. =)
Und was wenn es in naechster Generation Spiele selbst eine NV40 in den Schatten stellt (und nein nicht nur um 50%)? Oder kauft sich vielleicht jemand eine G70 um Quake3 zu spielen? Also bitte....
Ich hab schon viel zu viel gesagt; bevor ich noch Stunk bekomme muss Du Dich voruebergehend mit dem begnuegen was ich indirekt nach aussen lassen kann.
Ailuros
2005-06-10, 10:40:02
Das heißt, dass er voll funktionsfähig ist.
Hier irgendetwas anderes hinein zu interpretieren bringt uns auch nicht weiter.
Ich hab mich dazu schon geaeussert und nur Spott kassiert bis jetzt. Wuerde es wenigstens einen Schnipsel an Wahrheit an der Crossfire-Theorie geben, dann koennte ich mir leicht einen respin fuer die benoetigten Anpassungen vorstellen.
Ailuros
2005-06-10, 10:43:07
Vielleicht ist der R520 dadurch verzögert worden; ATi wollte nach G70 Launch schnell noch ein paar weitere Pipelineänderungen vornehmen, da R520 sonst zu langsam im vergleich mit G70 wäre
Zu spaet; innerhalb so einer kleinen Zeitspanne kommt man nicht zu so radikalen Aenderungen. Respins sind nur gut fuer sehr kleine Aenderungen u.a. auch fuer hoehere Frequenzen wenn noetig. Ein Frequenz-Problem erscheint mir R520 bis jetzt nicht zu haben.
Ailuros
2005-06-10, 10:57:58
Der Trend ist immer so, nur wann solche Trends real werden, ist ne andere Sache. ;) Unreal3 ist in nicht fassbarer Ferne. Ende 2006 wurde unverbindlich gesagt, wobei man wohl eher mit 2007 rechnen muss, gerade weil Unreal3 wohl erstmal PS3 exklusiv erscheinen wird.
Quake4, Serious Sam2, STALKER usw.
Doom3 mag zwar shaderlastig sein, wie auch FarCry, aber so massiv ist die Last nun auch nicht, wenn ich FarCry mit einer 6800GT oder X800Pro locker in 1600*1200 zocken kann bei max. Details. und bei DoomIII sind die Shatten der Blutsauger.
So shaderlastig ist Doom3 eigentlich nun auch wieder nicht. Far Cry in 1600 mit 4xAA oder was? Na dann schalt mal lieber die particles auf low, denn es wird wohl so einige Stellen fuer alle GPUs geben wo die Leistung nach unten purzelt weil sich eben FC viel zu bekloppt in manchen Situationen verhaelt.
Splintercell finde ich optisch schrecklich. Völlig überzogene Oberflächen - ein Beispiel, dass hohe Shaderlast und SM3.0 ungleich tolle Optik sind. Aber ok, rein technisch gesehen ist das Spiel schon fordernt, wenn auch ein Negativbeispiel rein visuell für den hohen Techlevel.
Bei SC3 war SM3.0 aber auch ein Nachgedanke, deshalb gibt es auch nur einen alternativen SM1.1 path. Dass ich von dem Ding auch nichts halte ist eine andere Geschichte, aber wenn G70 jetzt um einiges schneller als NV40 mit float HDR zum Tag kommt dann sind es nicht nur ein paar fps.
Ich hoffe der Trend kommt schnell, denn bisher sehe ich nur die UE3 und wann da mal was auf dem PC kommt, ist ne andere Frage.
Konsolenfreund
Falls beide IHVs ihre neuen GPUs nur mit Far Cry, Doom3, HL2 und dergleichen verkaufen wollen, sieht es eher schwarz aus. Wie oft kann man das Zeug eigentlich durchspielen?
Ailuros
2005-06-10, 11:03:15
@AiL
wie kommst du eigentlich auf 8xVS beim G70?
Wenn 860MTri/sek stimmt, sinds nur 6xVS.
400MHz * 6 VS / 4 = 600MTris/sec
430MHz * 8 VS / 4 = 860MTris/sec
:P
Hauwech
2005-06-10, 11:18:29
Wie sicher ist jetzt eigentlich der Vorstellungstermin Ende Juli?
seahawk
2005-06-10, 11:23:29
Das heißt, dass er voll funktionsfähig ist.
Hier irgendetwas anderes hinein zu interpretieren bringt uns auch nicht weiter.
Da ist gar nichts hinein interpretiert, das ist exakt was da steht. Der Chip läuft mit voller Funktionalität, das hat nichts mit dem erreichten Speed zu tun. Man erinnere sich ab wann einige Devs schon R520s hatten oder damals beim NV30 gab es schon lange vor dem Launch auch voll funktionstüchtige Chips.
reunion
2005-06-10, 11:51:50
Ich hab mich dazu schon geaeussert und nur Spott kassiert bis jetzt. Wuerde es wenigstens einen Schnipsel an Wahrheit an der Crossfire-Theorie geben, dann koennte ich mir leicht einen respin fuer die benoetigten Anpassungen vorstellen.
Falls man für R520 etwas an Crossfire ändert, wäre dies durchaus möglich.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.