PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R700 im Q1 2008, multicore und 55 nm?


Seiten : 1 [2] 3 4 5

GeneralHanno
2007-12-04, 16:18:52
die folien widersprechen sich: in folie 1 ist bei R700 nur ein kern über PCIe angebunden, in folie 2 sind beide kerne via PCIe angebunden (ähnlich wie beim R680)

reunion
2007-12-04, 16:19:33
http://multipics.net/img_small/1180620,d1c2e785-e872-414b-a.jpg (http://multipics.net/?img=1180620,d1c2e785-e872-414b-a.jpg) http://multipics.net/img_small/1180619,abe3936b-59c2-4fbe-8.jpg (http://multipics.net/?img=1180619,abe3936b-59c2-4fbe-8.jpg)

http://www.hardspell.com/doc/hard/64303.htm

Interessant. Hier nochmal mit Imageshark hochgeladen, die Seite ist extrem zäh:

http://img102.imageshack.us/img102/6000/d1c2e785e872414ba7d0febrb6.jpg (http://imageshack.us)

http://img255.imageshack.us/img255/9049/abe3936b59c24fbe880f118ge8.jpg (http://imageshack.us)

robbitop
2007-12-04, 16:22:32
Alle Spatzen pfeifen es mittlerweile von den Dächern, und auch AMD-Mitarbeiter geben dazu mehr oder weniger eindeutige Antworten. So groß kann das Problem nicht sein, sonst würde man darauf verzichten. Die Vorteile überwiegen.
Ja vieleicht bekommt man das perfekt in den Griff. Oder man hat eine Kompromisslösung. Oder es ist Hoax. Gerüchte über ein Produkt, dessen Launch der mehr als 2 Monate voraus ist, sind oftmals hoax.

Beispiele:

-die "extremen Pipes" beim R420
-die 24 Pipes beim R520
-das 6+2 Setup des NV40
-PPP, Multichip, TBDR beim NV30
-Vertex/Pixelshadertrennung beim G80
-die 8600GT mit 4 Clustern
...
die Liste ist endlos...

Ein paar mit Paint fix gemalte, äußerst triviale Schaltbilder ändern daran erstmal nichts.

Ich sage nicht, dass es unmöglich ist. Ich äußere einfach nur gesunde Skepsis, anstatt alles blind zu glauben.

AnarchX
2007-12-04, 16:22:42
Da hat Hardspell mal wieder schön sich bei PCwatch, der originalen Quelle bedient:
http://pc.watch.impress.co.jp/docs/2007/1205/kaigai405.htm

Ist aber alles auch eher Speku.

reunion
2007-12-04, 16:26:25
Was jetzt die 2 TFLOPs betrifft, was besonderes ist es auch nicht wenn man bedenkt fuer was "R700" stehen koennte ;)

Warum sollte das dann weniger "besonders" sein, als wenn der Chip aus einem Die besteht? Es geht darum eine möglichst schnelle, bezahlbare Karte zu entwickeln. Wie so oft führen auch hier mehrere Wege nach Rom.

AnarchX
2007-12-04, 16:36:09
Das Problem ist, dass R700XT eine Leistung in Spielen bringen soll, die mit AFR wohl weniger erreichbar wäre, wenn man hier nicht entsprechende starke GPUs kombiniert und das Konzept wohl unsinnig machen würde.

Naja, mal sehen was sich nun dahinter verbirgt, bin jedenfalls gespannt auf die Umsetzung.

reunion
2007-12-04, 16:36:30
Ja vieleicht bekommt man das perfekt in den Griff. Oder man hat eine Kompromisslösung. Oder es ist Hoax. Gerüchte über ein Produkt, dessen Launch der mehr als 2 Monate voraus ist, sind oftmals hoax.

Beispiele:

-die "extremen Pipes" beim R420
-die 24 Pipes beim R520
-das 6+2 Setup des NV40
-PPP, Multichip, TBDR beim NV30
-Vertex/Pixelshadertrennung beim G80
-die 8600GT mit 4 Clustern
...
die Liste ist endlos...

Ein paar mit Paint fix gemalte, äußerst triviale Schaltbilder ändern daran erstmal nichts.

Ich sage nicht, dass es unmöglich ist. Ich äußere einfach nur gesunde Skepsis, anstatt alles blind zu glauben.

Niemand glaubt alles blind. Nur wenn bsw. ein Richard Huddy beim "AMD Tech Day 2007" zu B3D offen davon spricht, dass es Ati satt hätte, "large monolithic GPUs" zu bauen, sondern stattdessen über multi-GPU die Leistung skalieren will, dann wird er das wohl nicht ganz ohne Grund vorgebracht haben:

Huddy says that AMD simply aren't interested in building large monolithic GPUs any more, instead preferring to scale their offerings via multi-GPU.

http://www.beyond3d.com/content/articles/89/2

Ich sage ja auch nicht, dass es definitiv so kommt, doch momentan spricht wirklich vieles dafür.

LovesuckZ
2007-12-04, 16:37:34
Ist in jedem Core die gleiche Logik verbaut?

AnarchX
2007-12-04, 16:41:30
Ist in jedem Core die gleiche Logik verbaut?
Wenn "ein Die = LowEnd-Entry, dann wohl schon.

robbitop
2007-12-04, 16:42:08
Niemand glaubt alles blind. Nur wenn bsw. ein Richard Huddy beim "AMD Tech Day 2007" zu B3D offen davon spricht, dass es Ati satt hätte, "large monolithic GPUs" zu bauen, sondern stattdessen über multi-GPU die Leistung skalieren will, dann wird er das wohl nicht ganz ohne Grund vorgebracht haben:



http://www.beyond3d.com/content/articles/89/2

Ich sage ja auch nicht, dass es definitiv so kommt, doch momentan spricht wirklich vieles dafür.
Und Nvidia repräsentative haben groß und breit davon gesprochen, dass man nicht so schnell zu nem USC geht, während ATI das propagiert hat.
Am Ende des Tages lieferte NV, während ATI noch drüber sprach. So krass kann der Unterschied zwischen irgendwelchem Blubbern und der Realität sein. Selbst wenns vom IHV selbst kommt.

Ich darf dich daran erinnern, dass die IHVs absichtlich Fehlinformationen streuen, damit die Konkurrenz verwirrt wird. Und das seit Jahren immer mehr.

Außerdem äußerte Huddy nur seine Meinung. Dass er es präferieren würde, wenn man Cores skalieren würde. Nicht, dass ATI das definitiv zum R700 vor hat.

reunion
2007-12-04, 16:42:42
Ist in jedem Core die gleiche Logik verbaut?

Woher soll das heute irgendjemand wissen? Man weiß ja noch nicht mal, ob es überhaupt so kommt. Möglich ist alles, von lauter identischen Dice (was natürlich zu erheblichen Verschnitt führen würde, aber dafür die Tapeout- und Entwicklungskosten sehr niedrig halten würde) bis zu einem extra "2D-Kern", der die trivialsten Funktionen bietet, und über diesen als Basis dann noch mittels anderer "Shader-Kerne" skaliert wird.

reunion
2007-12-04, 16:49:13
Und Nvidia repräsentative haben groß und breit davon gesprochen, dass man nicht so schnell zu nem USC geht, während ATI das propagiert hat.
Am Ende des Tages lieferte NV, während ATI noch drüber sprach. So krass kann der Unterschied zwischen irgendwelchem Blubbern und der Realität sein. Selbst wenns vom IHV selbst kommt.

Ich darf dich daran erinnern, dass die IHVs absichtlich Fehlinformationen streuen, damit die Konkurrenz verwirrt wird. Und das seit Jahren immer mehr.

Außerdem äußerte Huddy nur seine Meinung. Dass er es präferieren würde, wenn man Cores skalieren würde. Nicht, dass ATI das definitiv zum R700 vor hat.

Natürlich gibt es immer wieder Beispiele von absichtlich gestreuten Fehlinformationen, nur deshalb muss ja nicht jede Information falsch sein. Wie schon gesagt: Ich sage nicht, dass es so kommt, nur spricht momentan vieles dafür. Huddy ist kein zweitklassiger Clown, er weiß ganz genau, wie die Roadmaps von AMD aussehen. Wenn er so etwas präferiert, dann sicher nicht ohne Hintergedanken. Aber abwarten, das wird noch früh genug an die Öffentlichkeit kommen.

deekey777
2007-12-04, 16:51:35
Ja vieleicht bekommt man das perfekt in den Griff. Oder man hat eine Kompromisslösung. Oder es ist Hoax. Gerüchte über ein Produkt, dessen Launch der mehr als 2 Monate voraus ist, sind oftmals hoax.

Beispiele:

-die "extremen Pipes" beim R420
-die 24 Pipes beim R520
.
32 Pipes, bitte, von denen 24 aktiv waren, um die Ausbeute zu erhöhen.
:weg:

LovesuckZ
2007-12-04, 16:52:58
Wenn "ein Die = LowEnd-Entry, dann wohl schon.

Das wäre für teure Produkte ja nicht gerade gut.
Welche theoretischen Vorteile hätten denn mehrere kleinere Cores gegenüber einem sehr skalierbaren größeren - abgesehen von der günstigeren Fertigung eines Core?

reunion
2007-12-04, 16:57:41
Welche theoretischen Vorteile hätten denn mehrere kleinere Cores gegenüber einem sehr skalierbaren größeren - abgesehen von der günstigeren Fertigung eines Core?

Das man daraus mit einem einzigen sehr kleinen Die in unterschiedlicher Anzahl alle Marktsegmente von Low- bis Highend abdecken kann zB. Das spart enorm R&D.

robbitop
2007-12-04, 17:02:16
Und es bringt Yield und Tapeout-Kosten.
Allerdings geht es mit erhöten Packagingkosten und Redundanz im Kern einher.

Es ist nur eine Frage der Zeit, bis jeder einzelne Kern wieder die Entwicklung der einzelnen Kerne mitmacht (schneller wachsen als es die Shrinks zulassen).

Dann muss man wieder mehr Kerne auf ein Package tun...es ist alles nicht mehr als nur ein "stall" dieser Entwicklung.

reunion
2007-12-04, 17:09:15
Es ist nur eine Frage der Zeit, bis jeder einzelne Kern wieder die Entwicklung der einzelnen Kerne mitmacht (schneller wachsen als es die Shrinks zulassen).

Dann muss man wieder mehr Kerne auf ein Package tun...es ist alles nicht mehr als nur ein "stall" dieser Entwicklung.


Natürlich, physikalische Gesetzte kann man nicht außer Karft setzen, man kann deren Eintreten nur immer weiter hinauszögern. Das so ein mittlerweile fast schon 500mm² Die, das zu >95% aus Logik besteht nur mehr mit enormen Aufwand zu fertigen ist, und nicht mehr besonders hohe Yieldraten erreicht, sollte auf der Hand liegen.

Coda
2007-12-04, 17:09:35
Übrigens ist auch die Verlustleistung automatisch höher. Signale nach außen zu führen ist relativ teuer in dem Zusammenhang.

LovesuckZ
2007-12-04, 17:22:55
Und es bringt Yield und Tapeout-Kosten.
Allerdings geht es mit erhöten Packagingkosten und Redundanz im Kern einher.


Demnach wird diese Entwicklung wohl auf eine Verlagerung in das untere Segment hindeuten und das High-End wohl nur das Abfallprodukt darstellen.
Wird interessant zu beobachten, ob das funktioniert.

reunion
2007-12-04, 17:28:30
Demnach wird diese Entwicklung wohl auf eine Verlagerung in das untere Segment hindeuten und das High-End wohl nur das Abfallprodukt darstellen.
Wird interessant zu beobachten, ob das funktioniert.

Die Stückzahlen im Lowend-Segment sind nunmal um Größenordnungen höher als im High-End-Segment. Ein Abfallprodukt ist High-End deshalb noch lange nicht. Ganz im Gegenteil, man ist enorm Flexibel, da man über die Anzahl der Kerne auch noch sehr spät auf die Konkurrenz reagieren kann, und die Leistung entsprechend beinahe beliebig skalieren kann.

LovesuckZ
2007-12-04, 17:51:16
Die Stückzahlen im Lowend-Segment sind nunmal um Größenordnungen höher als im High-End-Segment.

Dafür sind die Margen wesentlich geringer. Schon kleine Preisrutsche haben einen wesentlich stärkeren Einbruch der Margen zur Bedeutung als im High-End Markt.

Ein Abfallprodukt ist High-End deshalb noch lange nicht. Ganz im Gegenteil, man ist enorm Flexibel, da man über die Anzahl der Kerne auch noch sehr spät auf die Konkurrenz reagieren kann, und die Leistung entsprechend beinahe beliebig skalieren kann.

Flexbile ist man nur unten, da die Kosten der Fertigung besser sind. Im High-End sehe ich dagegen keine richtige Flexbilität. Die Platine muss feststehen, das Problem der Speicherverwaltung muss in den Griff bekommen werden. Ich sehe hier für den High-End Bereich viel mehr Probleme als mit der jetzigen Vorgehensweise. Vorallen die Margen werden wohl ziemlich geringer werden, wenn High-End nicht mehr für 500$+ verkauft werden kann.

Nakai
2007-12-04, 18:00:32
Flexbile ist man nur unten, da die Kosten der Fertigung besser sind. Im High-End sehe ich dagegen keine richtige Flexbilität. Die Platine muss feststehen, das Problem der Speicherverwaltung muss in den Griff bekommen werden. Ich sehe hier für den High-End Bereich viel mehr Probleme als mit der jetzigen Vorgehensweise. Vorallen die Margen werden wohl ziemlich geringer werden, wenn High-End nicht mehr für 500$+ verkauft werden kann.

Da wohl alles auf einem Package ist, sehe ich nicht mehr als 4 Cores auf einem Package. Womöglich wird man später noch einen stärkeren Core nachschieben um das Problem mit dem PCB zu entgehen...


mfg Nakai

J0ph33
2007-12-04, 23:34:54
warum sollte man HighEnd nicht mehr für 500+ verkaufen können?

LovesuckZ
2007-12-04, 23:50:05
warum sollte man HighEnd nicht mehr für 500+ verkaufen können?

Weil du einen gewissen Vorteil benötigst: Mehr Features, mehr Speicher... oder die Leistung wesentlich höher sein muss.
Ausgehen von einer HD3870 für 199$ kann AMD für eine HD3870^2 eben nicht mehr als 398$ verlangen. Es steht man vor dem Problem, dass jeder Mehraufwand wesentlich schwieriger zu erreichen wird - vorallen finanziell. Jedoch ist es für AMD schwer bei der HD3870 noch Mehrleistung aus der Karte herauszuholen. Stromverbrauch unter Last und die schlechte Verfügbarkeit zeigen sehr schön die Grenzen der Karte.
Deswegen bin ich gespannt, wie man das High-End mit solch einer zukünftigen herangehensweise bedienen will.
Immerhin geht man hier von unten nach oben - statt bisher von oben nach unten. Interessanter Strategiewechsel.

Hvoralek
2007-12-05, 00:11:19
Weil du einen gewissen Vorteil benötigst: Mehr Features, mehr Speicher... oder die Leistung wesentlich höher sein muss.
Ausgehen von einer HD3870 für 199$ kann AMD für eine HD3870^2 eben nicht mehr als 398$ verlangen.Was ATI dafür verlangen kann hängt, schlicht davon ab, was Nvidia zu welchem Preis auf die Beine stellt.

LovesuckZ
2007-12-05, 00:20:13
Was ATI dafür verlangen kann hängt, schlicht davon ab, was Nvidia zu welchem Preis auf die Beine stellt.

Nein, da es innerhalb des eigenen Angebotes auch Konkurrenzdruck gibt. Der Kunde ist - vorallem im hochpreisigen Angebot - sehr bestärkt darauf sich zu informieren.
Und wenn er sieht, dass er ausgehend bei 100% für den 250% Preis nur 180% Mehrleistung erhält, wird er sich zu einem sehr hohen Teil das billigere Produkt kaufen. Dabei ist die Konkurrenz erstmal egal.
Natürlich spielt hier nVidia oder wer auch immer eine Rolle, aber der Druck durch das eigene Angebot ist in dieser Strategie doch sehr viel höher als andersrum. Hier kann ich die Abstufung und somit die Attrativität stärker beeinflussen. Das ist bei einer Unten nach Oben Strategie nicht mehr so stark gegeben.
Der Worst-Case Fall liegt ja dann vor, wenn man bei dem Verkauf des unteren Produktes plötzlich die besseren Margen erhält.

Hvoralek
2007-12-05, 01:05:02
Es ist doch eher ungewöhnlich, dass man im High- End- Bereich für den n- fachen Preis gegenüber Mittelklassemodellen auch die n- fache Leistung bekommt.

Palpatin
2007-12-05, 01:05:29
Naja grad bei High-End Markt ist das net so tragisch auch wenn 80% Mehr Leistung 120% mehr kosten wirds gekauft solangs das schnellste ist was auf dem Markt verfügbar ist........ Bei Prozis wurd ja z.t für 30% mehr Power 500% mehr verlangt.

Ailuros
2007-12-05, 06:17:42
Warum sollte das dann weniger "besonders" sein, als wenn der Chip aus einem Die besteht? Es geht darum eine möglichst schnelle, bezahlbare Karte zu entwickeln. Wie so oft führen auch hier mehrere Wege nach Rom.

Erstens ist MCM nicht umsonst und kommt nicht nur mit Vorteilen und zweitens koenntest Du ueber die Bilder die Du selber vergroessert hast etwas besser ueberdenken.

R700 ist lediglich ein weiterer Schritt in die Richtung die RV670 schon zeigt; kurz gefasst ein Refresh der die problematischen Stellen des R600 bekaempft u.a. auch den enormen Stromverbrauch.

Resolve soll wieder zurueckkommen in die ROPs (obwohl dieses ja kein Problem sein soll...hier kratzt sich wohl jeder den Kopf) und das entgueltige Resultat ist wieder zu kurz geschnitten da wo es schon seit einiger Zeit etwas fehlt.

Entschuldige wenn ich nicht vom Hocker falle bei zweifacher arithmetischer Leistung pro Core, denn daran fehlte es bis jetzt auf keinem ATI chip; ganz das Gegenteil. Und wenn Du endlich erfahren wirst wie die Raten erreicht werden, lach ich mich als erster krank :P

mapel110
2007-12-05, 06:41:34
Und wenn Du endlich erfahren wirst wie die Raten erreicht werden, lach ich mich als erster krank :P
Clockdomains?!
Oder tatsächlich "Crossfire on Die"?

robbitop
2007-12-05, 07:37:16
Clockdomains kosten ja. Das wäre nicht zum Lachen sondern zu bewundern. :)
Entweder spielt AiL auf eine möglicherweise völlig lächerliche Zählweise der Flops seitens ATI an oder auf Multi GPU Zeugs. (IMO)

mapel110
2007-12-05, 07:44:21
Clockdomains kosten ja. Das wäre nicht zum Lachen sondern zu bewundern. :)
(IMO)
Wenn man damit eine Verdoppelung der Taktrate erreichen kann, sollten sich die Kosten dafür ja relativieren.

K4mPFwUr$t
2007-12-05, 07:45:48
das clockdomains von fortteil sind, sieht man ja bei nV ganz deutlich.
frag mich eh warum ATi seit langem nur den ganzen chip stück für stück höher takten und dabei die "schwächeren" teile dies limitieren.

AnarchX
2007-12-05, 08:16:40
Erreicht wird dies laut David Nalasco durch eine höhere Taktrate des „Shader-Cores“. Genauere Details konnten wir bis jetzt leider noch nicht in Erfahrung bringen. Ob die Shadereinheiten tatsächlich mit einer höheren Frequenz als die restlichen GPU-Komponenten arbeiten, können wir derzeit nur vermuten.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/3/#abschnitt_technik_im_detail_part_1

RV670 scheint wohl schon in diese Richtung zu gehen.

Aber Clockdomains gibt es ja eigentlich bei fast jedem Chip, die Besonderheit bei G8x/G9x ist wohl eher das deutlich hohe Delta und die Möglichkeit der Regelung von außen.


Entschuldige wenn ich nicht vom Hocker falle bei zweifacher arithmetischer Leistung pro Core, denn daran fehlte es bis jetzt auf keinem ATI chip; ganz das Gegenteil. Und wenn Du endlich erfahren wirst wie die Raten erreicht werden, lach ich mich als erster krank
Aber das Verhältnis ist AFAIK zu den restlich Einheiten/Leistung von diesen doch deutlich besser?

Gast
2007-12-05, 08:51:36
Erstens ist MCM nicht umsonst und kommt nicht nur mit Vorteilen und zweitens koenntest Du ueber die Bilder die Du selber vergroessert hast etwas besser ueberdenken.

R700 ist lediglich ein weiterer Schritt in die Richtung die RV670 schon zeigt; kurz gefasst ein Refresh der die problematischen Stellen des R600 bekaempft u.a. auch den enormen Stromverbrauch.

Resolve soll wieder zurueckkommen in die ROPs (obwohl dieses ja kein Problem sein soll...hier kratzt sich wohl jeder den Kopf) und das entgueltige Resultat ist wieder zu kurz geschnitten da wo es schon seit einiger Zeit etwas fehlt.

Entschuldige wenn ich nicht vom Hocker falle bei zweifacher arithmetischer Leistung pro Core, denn daran fehlte es bis jetzt auf keinem ATI chip; ganz das Gegenteil. Und wenn Du endlich erfahren wirst wie die Raten erreicht werden, lach ich mich als erster krank :P

Warum so aggresiv? Du machst einen Haufen Andeutungen, ohne irgendetwas konkretes zu sagen. Wenn ich dich richtig verstehe, dann besteht R700 aus nur zwei Dice und die Leistung pro Die wird im Vergleich zu RV670 zumindest auf dem Papier verdoppelt. Allerdings erreicht man das wohl nur durch einen "Trick"(?). Dazu werden natürlich die Schwachstellen von R6xx ausgebessert, also mehr TMUs und bessere ROPs, ohne nV in dieser Hinsicht überholen zu können. Wenn das mit dem gesharten VRAM/SI ohne Einschränkungen funktioniert, hört sich das doch nicht schlecht an. Wobei natürlich auch nV nicht schläft.

reunion

Gast
2007-12-05, 09:00:38
Aber das Verhältnis ist AFAIK zu den restlich Einheiten/Leistung von diesen doch deutlich besser?

R7xx kommt irgendwann 2008 und die Architektur muss mindestens bis 2009, ev. 2010 herhalten. Die ALU-Last wird weiter stärker steigen als die TMU/ROP-Last. Ich denke das zu dieser Zeit das ALU/TEX-Verhältnis von R6xx nicht mehr so verkehrt ist. Man sieht ja jetzt schon an neueren Spielen, wohin der Weg geht, und nV erhöhte ja bei G92 auch nicht ohne Grund die ALU-Leistung wesentlich stärker als die Chiptaktrate. 32TMUs und etwas Tunig bei den ROPs, vorallem was die Z-Füllrate betrifft, plus behobenes Resolving-Problem und 1TFLOP pro Chip wäre denke ich keine schlechte Mischung.

reunion

AnarchX
2007-12-05, 09:19:57
Tex-Fill ist und bleibt wichtig, vorallem bei einer High-End-Lösung, die 16x AF mit hoher Qualität darstellen soll.

Und das sieht auch wohl AMD mittlerweile so, wenn gewisse Zahlen in Roh- und Spieleleistung stimmen.;)

Wobei man natürlich nicht das Verhältnis von G8x/G9x erreichen wird bzw. übertreffen, insofern hast du schon recht mit einer leichten Verschiebung, nur ging R6xx im Bereich Tex:ALU-Verhältnis und Shader-Resolve einen Schritt zu weit, der selbst für 2008 übertrieben wäre.

Ailuros
2007-12-05, 09:35:28
Clockdomains kosten ja. Das wäre nicht zum Lachen sondern zu bewundern. :)
Entweder spielt AiL auf eine möglicherweise völlig lächerliche Zählweise der Flops seitens ATI an oder auf Multi GPU Zeugs. (IMO)

Clock-domains kosten, aber bei weitem nicht so viel als doppelt so viel Einheiten ;)

AnarchX
2007-12-05, 09:46:05
Clock-domains kosten, aber bei weitem nicht so viel als doppelt so viel Einheiten ;)
Deren gesparte Transistoren man in bessere/skalare ALUs investieren könnte, wenn man wöllte ;)

Aber dank den Clockdomain-Hint kann ich mir nun einen Punkt mehr erklären. :D

Ailuros
2007-12-05, 09:46:58
Warum so aggresiv? Du machst einen Haufen Andeutungen, ohne irgendetwas konkretes zu sagen.

Ich will auch nichts konkretes sagen, aus verstaendlichen Gruenden.

Wenn ich dich richtig verstehe, dann besteht R700 aus nur zwei Dice und die Leistung pro Die wird im Vergleich zu RV670 zumindest auf dem Papier verdoppelt. Allerdings erreicht man das wohl nur durch einen "Trick"(?).

Es ist kein Trick, aber auch keine besondere Innovation.

Dazu werden natürlich die Schwachstellen von R6xx ausgebessert, also mehr TMUs und bessere ROPs, ohne nV in dieser Hinsicht überholen zu können. Wenn das mit dem gesharten VRAM/SI ohne Einschränkungen funktioniert, hört sich das doch nicht schlecht an. Wobei natürlich auch nV nicht schläft.



Bugfreie ROPs ja; fuer die "mehr TMUs" wuerde ich nicht unbedingt auf irgend eine fundamentale Aenderung wetten. Bei dem Zeug dass momentan hinter den Kulissen herumschwirrt (was man bei weitem noch nicht zuverlaessig nennen kann), hoert es sich nicht nach mehr clusters an.

Uebrigens ganz nebenbei haette ich erwartet dass jemand aufgepasst hat und in der Zwischenzeit bemerkt hat dass es eher R7x0 und nicht mehr "R700" ist ;)

Ailuros
2007-12-05, 09:50:49
Deren gesparte Transistoren man in bessere/skalare ALUs investieren könnte, wenn man wöllte ;)

Aber dank den Clockdomain-Hint kann ich mir nun einen Punkt mehr erklären. :D

Die brennende Frage ist ja eben ob es sich um Clock-domains mit den gleichen oder neu entwickelten ALUs handelt. Die bisherige ALU Konstellation koennte IMHLO um einiges umstaendlicher sein auf extravagante Frequenzen zu jagen.

AnarchX
2007-12-05, 09:54:58
Die brennende Frage ist ja eben ob es sich um Clock-domains mit den gleichen oder neu entwickelten ALUs handelt. Die bisherige ALU Konstellation koennte IMHLO um einiges umstaendlicher sein auf extravagante Frequenzen zu jagen.

Wobei 2 TFLOPs (MADD?) für Mitte 2008 doch schon für eine Vektor-Architektur sprechen, ein Peak von skalaren MADD-SPs in diesem Bereich wäre wohl etwas übertrieben und würde wohl enorm an Transistoren kosten.

robbitop
2007-12-05, 09:58:11
Wenn man damit eine Verdoppelung der Taktrate erreichen kann, sollten sich die Kosten dafür ja relativieren.
Das kostet Transistoren und einen enormen Aufwand. Ergo nicht lächerlich im Sinne von AiL. :)

Gast
2007-12-05, 10:20:35
Die brennende Frage ist ja eben ob es sich um Clock-domains mit den gleichen oder neu entwickelten ALUs handelt. Die bisherige ALU Konstellation koennte IMHLO um einiges umstaendlicher sein auf extravagante Frequenzen zu jagen.

Also doch clock domains. Warum lachst du dich deshalb krank?

reunion

Gast
2007-12-05, 10:26:08
Ich will auch nichts konkretes sagen, aus verstaendlichen Gruenden.


Natürlich. Aber Andeutungen machen und dann nichts konkretes sagen ist gemein. :P


Bugfreie ROPs ja; fuer die "mehr TMUs" wuerde ich nicht unbedingt auf irgend eine fundamentale Aenderung wetten. Bei dem Zeug dass momentan hinter den Kulissen herumschwirrt (was man bei weitem noch nicht zuverlaessig nennen kann), hoert es sich nicht nach mehr clusters an.


Mhm, mal abwarten.


Uebrigens ganz nebenbei haette ich erwartet dass jemand aufgepasst hat und in der Zwischenzeit bemerkt hat dass es eher R7x0 und nicht mehr "R700" ist ;)

Das wurde schon lange bemerkt, dass es keinen R700 Chip mehr geben wird.

reunion

robbitop
2007-12-05, 10:26:31
Mich wundert, dass ATI nicht sogar der erste war, der solch eine Technologie nutzt.
Schließlich kaufte man mit Pauken und Trompeten eine solche Lizenz vor 5 Jahren von Intrinsity. Nvidia liefert. (ähnlich wie mit dem USC Konzept)

Gast
2007-12-05, 10:31:18
Mich wundert, dass ATI nicht sogar der erste war, der solch eine Technologie nutzt.
Schließlich kaufte man mit Pauken und Trompeten eine solche Lizenz vor 5 Jahren von Intrinsity. Nvidia liefert. (ähnlich wie mit dem USC Konzept)

Naja, ein USC steckt schon in der Xbox mit ATi-Chip. Für den Desktopmarkt machte dieses Konzept vorher wohl keinen Sinn, sonst hätte man eine Abwandlung von Xenos auch hier gebracht.

reunion

robbitop
2007-12-05, 10:34:49
Ich spielte damit eher auf die enorme Verzögerung des R600 an. :)

Ailuros
2007-12-05, 10:50:53
Also doch clock domains. Warum lachst du dich deshalb krank?

reunion

Sicher ist noch nichts; es spricht sich lediglich herum. Wenn ich darueber lachen werde, dann eben nur weil ATI nach anderen immer sooo fortschrittliche Designs entwickelt.

Siehe auch robbi's Kommentar weiter oben; man war sich einfach viel zu selbstsicher dass man sich nicht weiter anstrengen muss.

Naja, ein USC steckt schon in der Xbox mit ATi-Chip. Für den Desktopmarkt machte dieses Konzept vorher wohl keinen Sinn, sonst hätte man eine Abwandlung von Xenos auch hier gebracht.

Es machte keinen Sinn weil das Resultat die absolute Blamage gewesen waere was die Leistung betrifft. Xenos ist um einiges staerker als der damalige R400.

Mhm, mal abwarten.

Pro cluster sind ist es bei heutigen Architekturen jeweils ein 4-TMU array.

Das wurde schon lange bemerkt, dass es keinen R700 Chip mehr geben wird.

Was aber jegliche Projektion fuer die wahre Veroeffentlichung des R7x0 (und nicht R700) in ein ganz anderes Licht setzt.

Gaestle
2007-12-05, 14:45:08
Was aber jegliche Projektion fuer die wahre Veroeffentlichung des R7x0 (und nicht R700) in ein ganz anderes Licht setzt.

Kommt R7x0 (nach aktueller Prognose) früher als (bei Existenz des R700) geplant?

Gast
2007-12-05, 17:58:33
Wie einfach sich das so mancher vorstellt. ;)
Die Latenzen kommen als Problem hinzu, wenn der Arbiter Quadbatches verteilt. Die Bandbreiten für die Arbeitsaufteilung und die Speicher und Cachezugriffe müssen enorm breit sein.
Ob das bezahlbar möglich ist, weiß ich nicht. Sowas wurde bisher so noch nie umgesetzt. Es ist jedenfalls ein erhebliches Problem


schau mal auf die AMD 4X cores... ;)

K4mPFwUr$t
2007-12-05, 18:19:48
das kann man wohl kaum vergleichen. wenig logik vs viel logik. das sind ganz andere dimensionen an daten die da ausgetauscht werden müssen. zumal AMDs QC nativ ist, spich on die. und der r700 wird höchstens on package sein.

ein kleiner aber feiner unterschied.

robbitop
2007-12-05, 18:23:37
schau mal auf die AMD 4X cores... ;)
Äh...nicht vergleichbar? :|

Coda
2007-12-05, 18:56:16
Aber mal überhaupt nicht.

Gast
2007-12-05, 20:14:26
Äh...nicht vergleichbar? :|


geht um deren anbindung untereinander!

Gast
2007-12-05, 20:15:06
das kann man wohl kaum vergleichen. wenig logik vs viel logik. das sind ganz andere dimensionen an daten die da ausgetauscht werden müssen. zumal AMDs QC nativ ist, spich on die. und der r700 wird höchstens on package sein.

ein kleiner aber feiner unterschied.


du scheinst dir sehr sicher zu sein!

K4mPFwUr$t
2007-12-05, 20:25:56
@gast
es ist wie apfel und birne und da bin ich mir nicht nur sicher, sondern dem anschein nach mehrere :rolleyes:

Iwan
2007-12-05, 21:56:02
du scheinst dir sehr sicher zu sein!

Weil alles andere sinnlos ist? Sollen 2 eigentändige Kerne auf ein Die gepflanzt werden? Da kann man auch einen Kern nehmen und diesen verbreitern.

Ailuros
2007-12-06, 06:13:50
Kommt R7x0 (nach aktueller Prognose) früher als (bei Existenz des R700) geplant?


Spaeter.

Gast
2007-12-06, 08:52:57
Ein sehr aufschlussreicher Artikel von xbitlabs:
http://www.xbitlabs.com/news/video/display/20071205202014_ATI_May_Be_Considering_Multi_Die_GPUs_for_R700_Family_Rumours.htm l

Nakai
2007-12-06, 17:11:18
Spaeter.

Nichts neues...;)


mfg Nakai

Ailuros
2007-12-06, 18:41:35
Nichts neues...;)


mfg Nakai

Nur wollte es mir keiner glauben als ich es schon seit der G80 Vorstellung andeutete :P

Nakai
2007-12-06, 18:46:24
Nur wollte es mir keiner glauben als ich es schon seit der G80 Vorstellung andeutete :P

Seit dem R600 ist es wirklich nichts Neues. Naja wenn man das zum RV670 zur Relation sieht, welcher eigentlich erst im Frühjahr geplant war, dann ist der derzeitige R700-Termin zu früh.


mfg Nakai

LovesuckZ
2007-12-06, 18:53:34
Seit dem R600 ist es wirklich nichts Neues. Naja wenn man das zum RV670 zur Relation sieht, welcher eigentlich erst im Frühjahr geplant war, dann ist der derzeitige R700-Termin zu früh.
mfg Nakai

Er war klar für den Herbst geplant. Alles andere wäre Fehlkalkulation gewesen.

reunion
2007-12-06, 18:59:27
Er war klar für den Herbst geplant. Alles andere wäre Fehlkalkulation gewesen.

Das sehen alle AMD-Roadmaps älter September aber anders:

http://img524.imageshack.us/img524/9291/02r680yd4.jpg

Wäre wie ursprünglich geplant erst A12 und nicht schon das A11 Silizium in die Massenproduktion gegangen, dann hätte es wohl auch noch bis 2008 gedauert.

Nakai
2007-12-06, 19:00:06
Er war klar für den Herbst geplant. Alles andere wäre Fehlkalkulation gewesen.

Nach AMD-Folien sollte der Launch im Q4 2007 gewesen sein, die eigentlich Verfügbarkeit erst im Frühjahr 2008 eintreten.

Diesmal lief es jedoch besser, die HD3870 X2 wird jedoch auf einer besseren Revision des RV670 basieren und deswegen erst im Frühjahr gelauncht.


mfg Nakai

€: Zu langsam!

dildo4u
2007-12-06, 19:06:08
Diesmal lief es jedoch besser, die HD3870 X2 wird jedoch auf einer besseren Revision des RV670 basieren und deswegen erst im Frühjahr gelauncht.

Angeblich kommt die Karte wegen den Treibern noch nicht bei dem Rumgebugge mit Crossfire zur Zeit kein Wunder.

http://www.hardtecs4u.com/news/899

LovesuckZ
2007-12-06, 19:06:54
Wäre wie ursprünglich geplant erst A12 und nicht schon das A11 Silizium in die Massenproduktion gegangen, dann hätte es wohl auch noch bis 2008 gedauert.

Die Folien müssen nicht gestimmt haben. Ansonsten kann es sein, dass der die 3870 erst im nächstes Jahr flächendeckend verfügbar sein werde - was dann wiederum für die Richtigkeit der Folien sprechen könnte.
Jedoch sehe ich dann eher eine vorgezogene Panikaktion von AMD und kein vorangezogenen Launch - wenn nVidia wahrscheinlich jetzt schon mehr 8800GTS512 verkauft hat als AMD 3870.

Nakai
2007-12-06, 19:07:16
Angeblich kommt die Karte wegen den Treibern noch nicht bei dem Rumgebugge mit Crossfire zur Zeit kein Wunder.

http://www.hardtecs4u.com/news/899

Naja nichts neues. Jedoch läuft CF, wenn man es richtig einstellt schon recht ordentlich. Wie es bei der neuen Karte dann aussieht, ist was anderes...


mfg Nakai

reunion
2007-12-06, 19:30:52
Die Folien müssen nicht gestimmt haben. Ansonsten kann es sein, dass der die 3870 erst im nächstes Jahr flächendeckend verfügbar sein werde - was dann wiederum für die Richtigkeit der Folien sprechen könnte.

Die Folien stammen von AMD, natürlich stimmen sie. Außerdem deckt sich das auch mit dem geleakten Infos von VR-Zone, die vorher schon an die Öffentlichkeit kamen. Und auch auf der 3850 ist ein RV670 verbaut.


Jedoch sehe ich dann eher eine vorgezogene Panikaktion von AMD und kein vorangezogenen Launch - wenn nVidia wahrscheinlich jetzt schon mehr 8800GTS512 verkauft hat als AMD 3870.

Lol, das glaubst du doch selbst nicht. Die 8800GT, welche fast drei Wochen früher vorgestellt wurde, ist noch genau so schlecht zu bekommen. Bei AMD bekommt man wenigstens die 3850 flächendeckend.

Nakai
2007-12-06, 19:49:27
Die Folien stammen von AMD, natürlich stimmen sie. Außerdem deckt sich das auch mit dem geleakten Infos von VR-Zone, die vorher schon an die Öffentlichkeit kamen. Und auch auf der 3850 ist ein RV670 verbaut.

Nicht nur VR-Zone hat darüber Infos geleakt.

Jedoch sehe ich dann eher eine vorgezogene Panikaktion von AMD und kein vorangezogenen Launch - wenn nVidia wahrscheinlich jetzt schon mehr 8800GTS512 verkauft hat als AMD 3870.

Das war ein Launch keine Panikaktion.
Aber eigentlich kann man das so oder so auslegen.


mfg Nakai

Coda
2007-12-06, 19:50:32
Ich bin ja gespannt wie die Lieferbarkeit der 8800GT aussieht nachdem die 3870 mal lieferbar ist - ich müsste ja grinsen...

Nakai
2007-12-06, 19:56:00
Ich bin ja gespannt wie die Lieferbarkeit der 8800GT aussieht nachdem die 3870 mal lieferbar ist - ich müsste ja grinsen...

Seit wann ist HD3870 lieferbar?

Wenn man es wirklich will, kann man beide Karten bekommen.


mfg Nakai

reunion
2007-12-06, 20:06:16
Ich bin ja gespannt wie die Lieferbarkeit der 8800GT aussieht nachdem die 3870 mal lieferbar ist - ich müsste ja grinsen...

Wenn man es umgekehrt sieht wird ein Schuh draus. Es gibt für beide keinen Grund hier irgendetwas zurückzuhalten.

Gast
2007-12-06, 20:13:38
Es gibt immer Gründe das eine so oder so zu machen. Wir sind hier nur ganz kleine Würmer....

LovesuckZ
2007-12-06, 20:16:51
Die Folien stammen von AMD, natürlich stimmen sie. Außerdem deckt sich das auch mit dem geleakten Infos von VR-Zone, die vorher schon an die Öffentlichkeit kamen. Und auch auf der 3850 ist ein RV670 verbaut.

Auf der 8800GT ist auch ein vollwertiger G92 verbaut. So wie es zur Zeit aussieht, scheint die Version - deine A11 - nicht für die 3870 Karten geeignet sein. Anders lässt sich die nicht vorhandene Verfügbarkeit nicht erklären.


Lol, das glaubst du doch selbst nicht. Die 8800GT, welche fast drei Wochen früher vorgestellt wurde, ist noch genau so schlecht zu bekommen. Bei AMD bekommt man wenigstens die 3850 flächendeckend.

Die 8800GT ist fast durchgehend zum Kauf angeboten wurden. Wenn man heute eine Karte kaufen will, kann man es. Eine 3870 ist dagegen nicht verfügbar - drei Wochen nach dem Launch!
Die flächendeckende Verfügbarkeit der 3850 zeigt doch sehr schön, dass es an Chips nicht mangelt. Wo sind dann die 3870 Karten? Hier scheint die Version nicht genügend zu sein.

laser114
2007-12-06, 20:27:52
Diese Behauptung ist falsch, LovesuckZ. Es wurden immer wieder Karten von großen Online-Händlern ausgeliefert (auch zum Launchtermin) und auch zur Zeit sind Karten verfügbar. Gleichzeitig sind aktuell auch welche verfügbar.

Die Knappheit an 3870 kann man in der schlechten Verfügbarkeit von GDDR4-Speicher, PCB-Elementen, oder einfach nur der falsch eingeschätzten Nachfrage begründen, nun gerade nicht aber mit der GPU.

Coda
2007-12-06, 20:29:16
Wenn man es umgekehrt sieht wird ein Schuh draus. Es gibt für beide keinen Grund hier irgendetwas zurückzuhalten.
Für nVIDIA gibt es sehr wohl einen Grund. Abverkauf von G80 und hochhalten der Preise von GTX und GTS.

reunion
2007-12-06, 20:32:12
Für nVIDIA gibt es sehr wohl einen Grund. Abverkauf von G80 und hochhalten der Preise von GTX und GTS.

Dann hätte man die 8800GT gar nicht vorstellen und ausliefern dürfen. Als ob jetzt noch irgendjemand einen G80 kaufen würde. Außerdem könnte man dasselbe Motiv genau so gut auf AMD beziehen: Abverkauf von R600 und hochhalten der Preise von XT und PRO.

Nakai
2007-12-06, 20:37:34
Dann hätte man die 8800GT gar nicht vorstellen und ausliefern dürfen. Als ob jetzt noch irgendjemand einen G80 kaufen würde.

Ein scheinbarer Konkurrent ist immer noch besser als gar keiner.

Aber du irrst dich etwas:
http://geizhals.at/deutschland/a224909.html
Billigste 8800GTX
http://geizhals.at/deutschland/a237961.html
Billigste 8800GTS
http://geizhals.at/deutschland/a291565.html
Billigste verfügbare 8800GT

Unter hohen Einstellungen ist die 8800GTX immer noch performanter als die 8800GT.
Wenn das bei ~380€ kein Kaufgrund ist.


mfg Nakai

reunion
2007-12-06, 20:37:48
Auf der 8800GT ist auch ein vollwertiger G92 verbaut.

Nein, da ein Cluster deaktiviert ist. Im übrigen ist auch die 8800GT schlecht bis gar nicht zu bekommen.


So wie es zur Zeit aussieht, scheint die Version - deine A11 - nicht für die 3870 Karten geeignet sein. Anders lässt sich die nicht vorhandene Verfügbarkeit nicht erklären.


Es könnte dafür dutzende Gründe geben. Im übrigen geht so wie es aussieht fast jede 3850 auf 70er Taktraten.


Die 8800GT ist fast durchgehend zum Kauf angeboten wurden. Wenn man heute eine Karte kaufen will, kann man es. Eine 3870 ist dagegen nicht verfügbar - drei Wochen nach dem Launch!

Es werden ständig Karte geliefert, wenn auch offensichtlich in zu geringen Mengen. In kaufte meine Karte bei Peluga.at, welche laut Shopangaben kurzzeitig 39 Karte hatte. Und auch bei der 8800GT kann bei weitem nicht von durchgehender Verfügbarkeit gesprochen werden. Sie ist verfügbar - aber nur zu solch hohen Preisen, das die Nachfrage entsprechend gering ist.


Die flächendeckende Verfügbarkeit der 3850 zeigt doch sehr schön, dass es an Chips nicht mangelt. Wo sind dann die 3870 Karten? Hier scheint die Version nicht genügend zu sein.

Wie schon gesagt, dafür kann es dutzende Gründe geben. Laut AMD wurde die Nachfrage nach der 3870er unterschätzt. Man rechnete mit einem größeren Boom auf die 3850.

Ein scheinbarer Konkurrent ist immer noch besser als gar keiner.

Aber du irrst dich etwas:
http://geizhals.at/deutschland/a224909.html
Billigste 8800GTX
http://geizhals.at/deutschland/a237961.html
Billigste 8800GTS
http://geizhals.at/deutschland/a291565.html
Billigste verfügbare 8800GT

Unter hohen Einstellungen ist die 8800GTX immer noch performanter als die 8800GT.
Wenn das bei ~380€ kein Kaufgrund ist.


mfg Nakai

Die GTS ist völlig unintressant (noch dazu die von dir gewählte Karte mir 320MB) - langsamer, teurer, höherer Stromverbrauch. Die GTX/Ultra hat zwar noch ansatzweise ihre Berechtigung, das P/L-Verhältnis ist angesichts der 8800GT aber denkbar schlecht. Nein, ich glaube nicht, dass noch viele bewusst zu einem G80 greifen.

Nakai
2007-12-06, 20:50:10
Die GTS ist völlig unintressant (noch dazu die von dir gewählte Karte mir 320MB) - langsamer, teurer, höherer Stromverbrauch. Die GTX/Ultra hat zwar noch ansatzweise ihre Berechtigung, das P/L-Verhältnis ist angesichts der 8800GT aber denkbar schlecht. Nein, ich glaube nicht, dass noch viele bewusste zu einem G80 greifen.

Naja bei der GTS stimm ich zu. Die GTX ist aber in den letzten Tagen sehr stark im Preis gefallen.

Und wenn man sich mal ein Performancerating anschaut:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3850_rv670/23/#abschnitt_performancerating_qualitaet

Da liegt die 8800GT bei höheren Einstellungen bis zu 30% hinter der 8800GTX.

Also verfügbare 8800GT liegt bei 320€, die 8800GTX bei 380€.
320€*1,20(prozentuale Vorteil) = 384€

Coda hat da schon irgendwie recht, NV wird wohl den G92 extra zurückhalten.


mfg Nakai

Gast
2007-12-06, 20:57:43
Für nVIDIA gibt es sehr wohl einen Grund. Abverkauf von G80 und hochhalten der Preise von GTX und GTS.

Macht keinen Sinn, weil die Stückzahlen viel zu gering sind in dieser Preisklasse.

LovesuckZ
2007-12-06, 21:35:37
Diese Behauptung ist falsch, LovesuckZ. Es wurden immer wieder Karten von großen Online-Händlern ausgeliefert (auch zum Launchtermin) und auch zur Zeit sind Karten verfügbar. Gleichzeitig sind aktuell auch welche verfügbar.

Die Verfügbarkeit der Karten ist im Gegensatz zu den 8800GT deutlich schlechter. Selbst wenn ich bei Ebay schaue, kann man dort zur Zeit 12 Karten kaufen - bei der 8800GT sind es alleine bei einem Händler 30 Stück.
Und die tröpfchenweise Verfügbarkeit im Gegensatz zur 3850 sollte doch ersichtlich werden, dass es eher an der GPU als an anderen Dingen liegt.


Die Knappheit an 3870 kann man in der schlechten Verfügbarkeit von GDDR4-Speicher, PCB-Elementen, oder einfach nur der falsch eingeschätzten Nachfrage begründen, nun gerade nicht aber mit der GPU.

Warum sollte es ausgerechnet nicht an der GPU liegen?

Nein, da ein Cluster deaktiviert ist. Im übrigen ist auch die 8800GT schlecht bis gar nicht zu bekommen.

Sie ist schlecht bis mäßig erhältlich. Jedoch wesentlich besser als es das Konkurrenzprodukt ala 3870 ist. Denn hier erhält man zur Zeit über Geizhals.at/deutschland keine Karte.
Nur weil ein Cluster deaktiviert ist, handelt es sich trotzdem um einem vollwertigen G92. Oder ist auf den 3850 Karten kein vollwertiger rv670 drauf? Immerhin haben die Karten ja nicht die Taktraten wie die 3870.

Es könnte dafür dutzende Gründe geben. Im übrigen geht so wie es aussieht fast jede 3850 auf 70er Taktraten.

Nur auf das Niveau ist nicht ausreichend. Es muss immer noch leicht Luft nach oben sein.


Es werden ständig Karte geliefert, wenn auch offensichtlich in zu geringen Mengen. In kaufte meine Karte bei Peluga.at, welche laut Shopangaben kurzzeitig 39 Karte hatte. Und auch bei der 8800GT kann bei weitem nicht von durchgehender Verfügbarkeit gesprochen werden. Sie ist verfügbar - aber nur zu solch hohen Preisen, das die Nachfrage entsprechend gering ist.

Die Lieferungen sind wesentlich geringer als bei der 8800GT. Custom-Karten fehlen zur Zeit völlig - ebenso auch die angekündigten Herstellerübertaktungen.


Wie schon gesagt, dafür kann es dutzende Gründe geben. Laut AMD wurde die Nachfrage nach der 3870er unterschätzt. Man rechnete mit einem größeren Boom auf die 3850.

Sry, aber das ist selbst für einen Laien eine schlechte Ausrede. Das bedeutet entweder, AMD hat den Markt vollkommen falsch eingeschätzt (höhrere Nachfrage in der Preiskategorie über 200€+) oder die jetzige Version des CHips ist einfach für eine mäßige Versorgung nicht ausreichend. Die 3870 war nie wirklich in solchen Stückzahlen im Handel, dass man von einem "größeren Boom" sprechen könnte. Denn dafür benötigt es erstmal etwas zum Verkaufen.

laser114
2007-12-06, 22:36:37
Und die tröpfchenweise Verfügbarkeit im Gegensatz zur 3850 sollte doch ersichtlich werden, dass es eher an der GPU als an anderen Dingen liegt.
Warum sollte es ausgerechnet nicht an der GPU liegen?

Muss ich die Erklärung verstehen? Die GPU für die 3850 ist gut verfügbar, die Taktraten sind bis ~ 750 MHz auch mit der Standardspannung der 3850 & und auf ihrer Platine machbar, manchmal sogar noch höher (und der BIOS-Bug trägt dazu auch noch bei!). Aber nein, bei der höheren Spannung für die 3870 sind garantiert nur wenig GPUs dabei, die dann mit dem 3870-Takt laufen. Wo vorallem die GPUs auf den Boards praktisch immer bis 850 MHz+ gehen... ;D

LovesuckZ
2007-12-06, 23:51:36
Muss ich die Erklärung verstehen? Die GPU für die 3850 ist gut verfügbar, die Taktraten sind bis ~ 750 MHz auch mit der Standardspannung der 3850 & und auf ihrer Platine machbar, manchmal sogar noch höher (und der BIOS-Bug trägt dazu auch noch bei!). Aber nein, bei der höheren Spannung für die 3870 sind garantiert nur wenig GPUs dabei, die dann mit dem 3870-Takt laufen. Wo vorallem die GPUs auf den Boards praktisch immer bis 850 MHz+ gehen... ;D

Karten müssen nicht nur mit dem Takt laufen, sondern auch Luft nach oben haben. Was bringt es mir GPUs zu verwenden, die nur mit hohen Aufwand auf diesen Takt laufen? AMD muss anscheinend sehr deutlich selektieren, um vernünftige GPUs für die 3870 zu erhalten. Die Unterschiede in der Leistungsaufnahme sind beachtlich. Das ist immer ein Zeichen für höhrere Ansprengungen für ein bisschen Mehrleistung somit für schlechter zutaktete GPUs.
Bei den 8800GT sieht man dagegen, dass die Karten für 15% Mehrleistung nichtmal annährend so einen starken Mehrverbrauch aufweisen*.


*Mir sind die Unterschiede der Karten bewusst. Aber ich zweifel, dass 256mb Mehrspeicher und höher getakteter GDDR4 den Größteil ausmachen.

deekey777
2007-12-07, 00:57:38
http://forum.beyond3d.com/showthread.php?p=1101760#post1101760
Except the whispers on the wind from multiple directions are suggesting whatever was originally R700 isn't anymore. Less sure if the R700 codename itself has been dumped for R720 or the likes.

Ist das schön... :hammer:

Jetzt verstehe ich, was Ail die ganze Zeit zu sagen versucht.

Hvoralek
2007-12-07, 02:18:27
http://forum.beyond3d.com/showthread.php?p=1101760#post1101760


Ist das schön... :hammer:

Jetzt verstehe ich, was Ail die ganze Zeit zu sagen versucht.Man bringt statt des ursprünglich mal geplanten R700 einen aufgemöbelten R600 (R400, Ick hör Dir trapsen)? Was ist denn bei R700 schiefgelaufen, wenn man der Meinung ist, mit einer noch weiter reparierten R400/600- Architektur immer noch besser zu fahren?

Winter[Raven]
2007-12-07, 08:25:06
http://forum.beyond3d.com/showthread.php?p=1101760#post1101760


Ist das schön... :hammer:

Jetzt verstehe ich, was Ail die ganze Zeit zu sagen versucht.

Wie "GEIL" ist das den? Ich glaube mich haut ne Bär, was läuft eigentlich bei ATI falsch, dass die es nicht gebacken bekommen ein Chipdesign soweit durchzuziehen...

Machen sich etwa die wenigen Investitionen in R&D bemerkbar?

Gast
2007-12-07, 08:32:42
Man bringt statt des ursprünglich mal geplanten R700 einen aufgemöbelten R600 (R400, Ick hör Dir trapsen)? Was ist denn bei R700 schiefgelaufen, wenn man der Meinung ist, mit einer noch weiter reparierten R400/600- Architektur immer noch besser zu fahren?

Man hat es satt, große Dice zu bauen. Deshalb vermutlich der Schwenk weg von original geplanten R700 zu einem Multi-Chip.

;6091039']Wie "GEIL" ist das den? Ich glaube mich haut ne Bär, was läuft eigentlich bei ATI falsch, dass die es nicht gebacken bekommen ein Chipdesign soweit durchzuziehen...

Machen sich etwa die wenigen Investitionen in R&D bemerkbar?

Als ob das nicht völlig normal wäre. Auch bei Intel oder nV kommt er garantiert immer wieder vor, dass Designs im Nachhinein stark geändert oder gar verworfen werden müssen. Man muss eben heutzutage schon sehr früh mit dem Design beginnen, sodass sich der Markt nicht immer so entwickelt, wie ursprünglich gedacht. Nur weil da nichts an die Öffentlichkeit dringt, heißt das gar nichts.

reunion

deekey777
2007-12-07, 08:55:38
Man bringt statt des ursprünglich mal geplanten R700 einen aufgemöbelten R600 (R400, Ick hör Dir trapsen)? Was ist denn bei R700 schiefgelaufen, wenn man der Meinung ist, mit einer noch weiter reparierten R400/600- Architektur immer noch besser zu fahren?
Ob da wirklich was schiefgelaufen ist? reunion könnte Recht haben: weg von Riesendice. Ail deutet ja die ganze Zeit an, dass der "neue" R700 (oder nennen wir ihn R720) Evolution des RV670-Gedanken (?) ist. Es gibt eh keinen besonderen Grund, eine ganz neue Architektur zu entwickeln, aber die vorhandene aufzumotzen (zB mehr als 4 "irgendwas").

Gast
2007-12-07, 09:15:11
Ob da wirklich was schiefgelaufen ist? reunion könnte Recht haben: weg von Riesendice. Ail deutet ja die ganze Zeit an, dass der "neue" R700 (oder nennen wir ihn R720) Evolution des RV670-Gedanken (?) ist. Es gibt eh keinen besonderen Grund, eine ganz neue Architektur zu entwickeln, aber die vorhandene aufzumotzen (zB mehr als 4 "irgendwas").

Eben. Genausogut könnte der ursprüngliche R700 schon als D3D11-Chip geplant gewesen sein, und jetzt wird mangels "Vienna" noch ein Refresh zwischengeschoben. Auch darüber gab es Gerüchte, und sowas kommt ja immer wieder vor. Es macht jedenfalls keinen Sinn eine neue Architektur zu entwickeln, wenn schon RV670 die höchte Ausbaustufe von D3D10 unterstützt. Stattdessen werden eben fehler ausgebessert, und Schwachstellen beseitigt. Nicht jede Roadmapänderung muss gleich eine Panikreaktion sein, bei der irgendwas schief gelaufen ist.

reunion

Hvoralek
2007-12-07, 14:57:32
Man hat es satt, große Dice zu bauen. Deshalb vermutlich der Schwenk weg von original geplanten R700 zu einem Multi-Chip. Ich dachte, der (ursprünglich geplante) R700 sollte eben dieser Universalchip sein, bei dem die Leistung der Karten einfach über die Anzahl der Chips skaliert wird. Demnach wären dann die (jetzt geplanten) R7xx zumindest ein Schritt weg von dem Konzept. Es würde mich nicht wundern, wenn man den früheren R700 komplett eingestampft hätte und einen wie auch immer umgebauten R600 bringt.

w0mbat
2007-12-07, 16:24:51
Die ganzen Angaben mit 4+ cores und den ~2 TeraFLOPS sind anscheinend falsch. Mehr kann ich gerade leider nicht sagen.

deekey777
2007-12-07, 16:26:09
Ich dachte, der (ursprünglich geplante) R700 sollte eben dieser Universalchip sein, bei dem die Leistung der Karten einfach über die Anzahl der Chips skaliert wird. Demnach wären dann die (jetzt geplanten) R7xx zumindest ein Schritt weg von dem Konzept. Es würde mich nicht wundern, wenn man den früheren R700 komplett eingestampft hätte und einen wie auch immer umgebauten R600 bringt.
Die Frage ist:
Um welchen R700 handelte es sich, als dieser Thread eröffnet wurde: um den ursprünglichen R700 (ganz neue Architektur) oder diesen neuen R"720" mit der Idee, mehrere kleine(-re) Grafikkerne zu verbauen?
Es ist ja nicht so, dass der Alt-R700 erst mit der Eröffnung dieses Threads erdacht wurde. Die Entwicklung des G80 soll vier Jahre vor dem Launch begonnen haben, die Entwicklung des R400-Designs wohl deutlich früher, der ursprüngliche R700 sollte gerade kein R400-Abkömmling werden, der "Neu-R700" dagegen schon.
Apropo Shader-Clock: DAAMITs R600/RV670 leiden bestimmt nicht an der fehlenden Rechenleistung (klingt das doof), sondern an der Tex-Leistung (und doch schwachen ROPs). Vielleicht gibt's Tex-Clock. :biggrin:

laser114
2007-12-07, 16:40:37
Apropo Shader-Clock: DAAMITs R600/RV670 leiden bestimmt nicht an der fehlenden Rechenleistung (klingt das doof), sondern an der Tex-Leistung (und doch schachen ROPs). Vielleicht gibt's Tex-Clock. :biggrin:

Wenn sich Shader-Clocks aber einfacher umsetzen lassen, kann man das einfache einbauen, bei den Shadern auf den aktuellen Stand bleiben und hat dadurch Transistoren für z. B. TMUs frei.

4 Vitamins
2007-12-07, 17:32:22
Eine 3870 ist dagegen nicht verfügbar - drei Wochen nach dem Launch!
.

Und warum habe ich eine im rechner???

gruss

K4mPFwUr$t
2007-12-07, 17:39:36
der 8800GT wird ja auch nachgesagt das sie nicht verfügbar ist und einige haben sie verbaut ;)

Hvoralek
2007-12-07, 19:39:07
Es ist ja nicht so, dass der Alt-R700 erst mit der Eröffnung dieses Threads erdacht wurde. Die Entwicklung des G80 soll vier Jahre vor dem Launch begonnen haben, die Entwicklung des R400-Designs wohl deutlich früher, der ursprüngliche R700 sollte gerade kein R400-Abkömmling werden, der "Neu-R700" dagegen schon.Dieses "Ein Chip für alle Segmente"- Modell gehört/e offensichtlich zu wenigstens einem R700- Konzept. Die Frage ist, zu welchem. Bei Eröffnung dieses Threads war schon die rede davon, zudem scheint die letzte Kursänderung dazu zu führen, dass es eben nicht mehr einen R700 gibt, sondern mehrere R7xx- Chips. Man hat also dieses Vorhaben offenbar mit den neuesten Änderungen aufgeweicht oder ganz aufgegeben. Ich würde vermuten, dass noch der letzte geplante Allein- R700 ein architektonischer Neuanfang (mit den für so ein Konzept erforderlichen komplett anderen Multi- GPU- Ansätzen) werden sollte, die jetzt wohl kommenden R7xxer aber mehr oder weniger auf R600 aufbauen.

Ailuros
2007-12-08, 14:43:08
Die ganzen Angaben mit 4+ cores und den ~2 TeraFLOPS sind anscheinend falsch. Mehr kann ich gerade leider nicht sagen.

Wer hat denn mehr als 2 cores maximal erwartet?

Ailuros
2007-12-08, 14:55:56
Die Frage ist:
Um welchen R700 handelte es sich, als dieser Thread eröffnet wurde: um den ursprünglichen R700 (ganz neue Architektur) oder diesen neuen R"720" mit der Idee, mehrere kleine(-re) Grafikkerne zu verbauen?
Es ist ja nicht so, dass der Alt-R700 erst mit der Eröffnung dieses Threads erdacht wurde. Die Entwicklung des G80 soll vier Jahre vor dem Launch begonnen haben, die Entwicklung des R400-Designs wohl deutlich früher, der ursprüngliche R700 sollte gerade kein R400-Abkömmling werden, der "Neu-R700" dagegen schon.

Jeglicher R7x0 war afaik schon von Anfang an als multi-core gedacht; der eigentliche Unterschied zwischen dem kommenden R7x0 und dem originalem R700 sind die paar Effizienz-Verbesserungen die die Architektur braucht.

Was hat "R400" genau mit all dem zu tun? Das originale Dingsbums war ein 4 cluster chip mit sehr schwachen ALUs und man krempelte das Ding schnell in 3 cluster Dingsbums mit um einiges staerkere ALUs. Das einzige dass R600 und R400 gemeinsam haben sind die 4 cluster, dass beide USCs und dann eben die ROP bzw. TMU Anzahl; nur eben dass das ALU:TEX Verhaeltnis um einiges balancierter war auf R400.

Apropo Shader-Clock: DAAMITs R600/RV670 leiden bestimmt nicht an der fehlenden Rechenleistung (klingt das doof), sondern an der Tex-Leistung (und doch schwachen ROPs). Vielleicht gibt's Tex-Clock. :biggrin:

Eine Antwort hast Du darauf schon bekommen; anders man halbiert die ALU-Anzahl pro core und erhoeht die ALU-Frequenz dementsprechend. Wuerde AMD pro chip die heutigen 320 SPs auf 1.5GHz schiessen lassen, wuerde bei einem multi-chip Dingsbums das Transistoren-budget durch die Decke schlagen.

Gaestle
2007-12-08, 15:58:38
Eine Antwort hast Du darauf schon bekommen; anders man halbiert die ALU-Anzahl pro core und erhoeht die ALU-Frequenz dementsprechend. Wuerde AMD pro chip die heutigen 320 SPs auf 1.5GHz schiessen lassen, wuerde bei einem multi-chip Dingsbums das Transistoren-budget durch die Decke schlagen.

Für wie konkurrenzfähig (im Blick auf HighEnd) würdest Du so eine Lösung mit halbierter ALU-Zahl (dafür aber zwei Cores + höher getaktet) schätzen? Wie stehen nach Deinen Schätzungen die Chancen auf sehr deutliche Verbessungen der TEX-Leistung?

laser114
2007-12-08, 16:56:07
Wer hat denn mehr als 2 cores maximal erwartet?

Fudzilla?

deekey777
2007-12-09, 01:20:20
Jeglicher R7x0 war afaik schon von Anfang an als multi-core gedacht; der eigentliche Unterschied zwischen dem kommenden R7x0 und dem originalem R700 sind die paar Effizienz-Verbesserungen die die Architektur braucht.

Was hat "R400" genau mit all dem zu tun? Das originale Dingsbums war ein 4 cluster chip mit sehr schwachen ALUs und man krempelte das Ding schnell in 3 cluster Dingsbums mit um einiges staerkere ALUs. Das einzige dass R600 und R400 gemeinsam haben sind die 4 cluster, dass beide USCs und dann eben die ROP bzw. TMU Anzahl; nur eben dass das ALU:TEX Verhaeltnis um einiges balancierter war auf R400.

Kann man den "R720" als zweiten Loki bezeichnen?

Hvoralek
2007-12-09, 01:36:57
Kann man den "R720" als zweiten Loki bezeichnen?"Loki" war R420, oder?

deekey777
2007-12-09, 12:58:17
"Loki" war R420, oder?
Genau. :)

Winter[Raven]
2007-12-09, 15:48:11
LOL

Wieder aufgewärmtes Essen? Das ging damals mit dem R420 schief, hoffentlich bekommen die es besser gebacken.

AnarchX
2007-12-09, 15:55:13
;6096681']LOL

Wieder aufgewärmtes Essen? Das ging damals mit dem R420 schief, hoffentlich bekommen die es besser gebacken.

Nur wird man aber diesmal wohl nicht beim Featureset hinterherhängen, was doch das einzige Problem am R4xx war.

Und besser eine große Portion aufgewärmtes Essen, die einen erstmal für einige Zeit satt macht, also nur ein kleiner Feinschmeckerhappen. :D ;)

Hvoralek
2007-12-09, 16:05:38
;6096681']LOL

Wieder aufgewärmtes Essen? Das ging damals mit dem R420 schief, hoffentlich bekommen die es besser gebacken.R420 war doch i.O. Auf jeden Fall war wohl damals ein aufgebohrter R300 besser als der geplante R400.

Ich mache mir eher Sorgen über die R700- Grundarchitektur, wenn AMD meint, selbst mit einem aufgebohrten R600 (der anders als R300 nicht gerade ein Geniestreich war) besser zu fahren als mit dem eigentlich Geplanten.

LovesuckZ
2007-12-09, 16:14:49
R420 war doch i.O. Auf jeden Fall war wohl damals ein aufgebohrter R300 besser als der geplante R400.


Es war technischer Stillstand - so richtig. Wenn man überlegt, dass die Karte fast 2 Jahre nach dem r300 auf den Markt kam, war sie doch eher enttäuschend.

reunion
2007-12-09, 16:15:55
;6096681']LOL

Wieder aufgewärmtes Essen? Das ging damals mit dem R420 schief, hoffentlich bekommen die es besser gebacken.

Und ich stelle nochmal eine Behauptung auf: Dieses "aufgewärmte Essen" unterstützt die höchste Ausbaustufe von D3D10. Ursprünglicher R700 = D3D11. Eine neue Architektur mit demselben Featureset zu entwickeln, ist reine Ressourcenverschwendung. Oder erwartet hier irgendjemand von nV eine neue Architektur 2008? Der jetzige R700 ist wohl nicht mehr als ein Zwischenschieber bis Vienna kommt.

R420 war doch i.O. Auf jeden Fall war wohl damals ein aufgebohrter R300 besser als der geplante R400.

Eben, zumal das einzige Problem von R420, nämlich das mangelnde Featureset diesmal nicht eintreten wird.


Ich mache mir eher Sorgen über die R700- Grundarchitektur, wenn AMD meint, selbst mit einem aufgebohrten R600 (der anders als R300 nicht gerade ein Geniestreich war) besser zu fahren als mit dem eigentlich Geplanten.

Ohne zu wissen, wie die R700 "Grundarchitektur" überhaupt aussah, führt das zu nichts. Vielleicht gab es auch nur kleinere Tweaks, was AiL ja oben andeutete.

Hvoralek
2007-12-09, 16:32:38
Es war technischer Stillstand - so richtig. Wenn man überlegt, dass die Karte fast 2 Jahre nach dem r300 auf den Markt kam, war sie doch eher enttäuschend.Diese fehlenden Features wurden für R420 nur in Einzelfällen mal ein Problem. Wenn Du das als "schiefgehen" bezeichnen möchtest, bitte. Jedenfalls wird R7xx nicht nennenswert technisch rückständig sein.


Ursprünglicher R700 = D3D11. Eine neue Architektur mit demselben Featureset zu entwickeln, ist reine Ressourcenverschwendung.Wie kommst Du darauf? Was sollte AMD Mitte 2008 (Also 1 1/2 bis 2 Jahre vor Vienna) mit einem D3D11- Chip gewollt haben?

Ich würde auch mehrere Architekturen mit demselben Featureset nicht in jedem Fall als Ressourcenverschwendung ansehen. Es wäre wohl sinnvoller, größere Architekturwechsel zu vollziehen, wenn sie nützlich und machbar sind, und nicht, wenn es sich gut mit DXxy auf Marketingfolien macht. Z.B. hätte es sich wohl gelohnt, wenn Nvidia nicht bis 2004 für NV3x rumgekrebst wäre. Wenn es zeitlich machbar gewesen wäre, hätte man da wahrscheinlich gerne einen vernünftigen SM2- Chip zwischengeschoben.

Featuresets kann man bei Bedarf auch nachträglich ausbauen (vgl. R300/R420 --> R520 oder R400/Xenos --> R600). Insofern ist eine Koppelung nicht zwingend.

Ohne zu wissen, wie die R700 "Grundarchitektur" überhaupt aussah, führt das zu nichts. Vielleicht gab es auch nur kleinere Tweaks, was AiL ja oben andeutete.Auch wenn ein früherer R700 "nur" ein wie auch immer auf Multi- GPU getrimmter R600 gewsen sein mag: Wenn man lieber auf R600 bzw. einen geringfügiger umgebauten R600 zurückkommt, war es offenbar kein Geniestreich. Ich hatte eigentlich sogar gehofft, dass ATI sich ziemlich bald wieder von der Architektur verabschieden würde, was ja anscheinend nun erst mit R800 passieren wird.

Dann mal schauen, wie der zum dritten Mal generalüberholte R400 aussehen wird.

reunion
2007-12-09, 16:41:22
Wie kommst Du darauf? Was sollte AMD Mitte 2008 (Also 1 1/2 bis 2 Jahre vor Vienna) mit einem D3D11- Chip gewollt haben?


Ist natürlich nur eine Möglichkeit unter vielen.


Ich würde auch mehrere Architekturen mit demselben Featureset nicht in jedem Fall als Ressourcenverschwendung ansehen. Es wäre wohl sinnvoller, größere Architekturwechsel zu vollziehen, wenn sie nützlich und machbar sind, und nicht, wenn es sich gut mit DXxy auf Marketingfolien macht. Z.B. hätte es sich wohl gelohnt, wenn Nvidia nicht bis 2004 für NV3x rumgekrebst wäre. Wenn es zeitlich machbar gewesen wäre, hätte man da wahrscheinlich gerne einen vernünftigen SM2- Chip zwischengeschoben.

Featuresets kann man bei Bedarf auch nachträglich ausbauen (vgl. R300/R420 --> R520 oder R400/Xenos --> R600). Insofern ist eine Koppelung nicht zwingend.


Eine Koppelung ist vielleicht nicht zwingend, aber allemal sinnvoll, da eine neue Architektur spätestens mit einem neuen Featureset erforderlich ist. Zwei D3D10.1-Architekturen so kurz hintereinander zu entwickeln ist Luxus, den man sich kaum leisten kann. Aber ein an den entscheidenden Stellen verbesserter R600 muss ja nicht schlechter sein.


Auch wenn ein früherer R700 "nur" ein wie auch immer auf Multi- GPU getrimmter R600 gewsen sein mag: Wenn man lieber auf R600 bzw. einen geringfügiger umgebauten R600 zurückkommt, war es offenbar kein Geniestreich. Ich hatte eigentlich sogar gehofft, dass ATI sich ziemlich bald wieder von der Architektur verabschieden würde, was ja anscheinend nun erst mit R800 passieren wird.

Dann mal schauen, wie der zum dritten Mal generalüberholte R400 aussehen wird.

Wie kommst du darauf? Wer sagt, dass man jetzt nur auf eine "geringfügiger umgebauten R600 zurückkommt" bzw. wo steht, dass dies nicht schon immer so geplant war? Alles was man glaubt zu wissen, ist, dass der ursprünglich mal geplante R700 geändert oder verworfen wurde, wie der neue R700 aussieht, steht in den Sternen.

LovesuckZ
2007-12-09, 16:42:54
Diese fehlenden Features wurden für R420 nur in Einzelfällen mal ein Problem. Wenn Du das als "schiefgehen" bezeichnen möchtest, bitte. Jedenfalls wird R7xx nicht nennenswert technisch rückständig sein.


Du findest also richtigen technischen Stillstand in Ordnung? :eek:
AMD hat die Marktdurchdringlichkeit vom SM3.0 und HDR-L mit FP Genauigkeit mit dem r420 um 1 - 2 Jahre verzögert. nVidia war es zu verdanken, dass PC User noch vor den neuen Konsolen Software mit HDR-L zu Sicht bekamen. Auch die Entwicklung von neuen Engines konnte durch den NV40 früher begonnen werden.
Das wird beim r720 hoffentlich nicht so stark eintreffen, aber der r420 war aus technischer Sicht klar eine Enttäuschung.

Spasstiger
2007-12-09, 17:05:30
Der R700 wird doch ein topaktuelles Featureset haben. Schon der RV670 unterstützt Features, die mangels API noch gar nicht genutzt werden können.
Und selbst der R600 hatte eine Tesselationseinheit, die erst unter DX11 wirklich nutzbar wird. DX11-Karten machen jetzt allerdings noch keinen Sinn, es ist ja noch nichtmal DX10.1 erschienen.

Und von ATI schon nach einem Jahr eine neue Architektur zu erwarten, ist wirklich anmaßend. Auch Nividia lässt sich 3-4 Jahre Zeit mit Architekturwechseln (GeForce 1 bis GeForce 4, GeForce FX bis GeForce 7, GeForce 8 bis ?).

Hvoralek
2007-12-09, 17:49:46
Eine Koppelung ist vielleicht nicht zwingend, aber allemal sinnvoll, da eine neue Architektur spätestens mit einem neuen Featureset erforderlich ist.Wieso das? Man kann Featuresets durchaus erweitern (siehe meine Bsp.e oben).

Zwei D3D10.1-Architekturen so kurz hintereinander zu entwickeln ist Luxus, den man sich kaum leisten kann.Das tut man doch gar nicht. RV670 basiert immer noch auf einer D3D9- Architektur, die auf D3D10 und später D3D10.1 aufgebläht wurde.

Aber ein an den entscheidenden Stellen verbesserter R600 muss ja nicht schlechter sein.AMD wird von den Alternativen, die sie haben, die wählen, die sie für die beste halten. R600 hat offensichtlich einige Probleme. Hältst Du es nicht für wahrscheinlich, dass man mit einem Neuanfang ein besseres Ergebnis erhalten könnte als durch Herumdoktorrn daran?

Wie kommst du darauf? Wer sagt, dass man jetzt nur auf eine "geringfügiger umgebauten R600 zurückkommt" bzw. wo steht, dass dies nicht schon immer so geplant war? Alles was man glaubt zu wissen, ist, dass der ursprünglich mal geplante R700 geändert oder verworfen wurde, wie der neue R700 aussieht, steht in den Sternen.Soweit ich das verstanden habe, hat man den ursprünglich geplanten R700 komplett aufgegeben und das, was nun als R7xx erscheint, hat damit wenig bis gar nichts mehr zu tun. Man wird nicht in 1 - 2 Jahren eine neue Architektur aus dem Ärmel schütteln können, also müsste es dann irgendetwas auf R600- Basis sein. Es sei denn, man bastelt etwas frühzeitig auf Basis der R800- Konzepte zusammen. Das halte ich aber für weniger wahrscheinlich als einen Rückgriff auf R600.

Mit "geringfügiger umgebaut" meinte ich nicht einen R600 ohne große Änderungen. Ich bezog mich auf die Annahme, dass auch der alte R700 auf R600 basieren sollte, und nahm/ nehme an, dass R7xx jetzt weniger stark umgebauten R6xx sind als vorher geplant. Selbst dann würde ich erhebliche Änderungen erwarten, nur eben weniger als nach dem alten Ein- Chip- für- alles- Konzept. "Geringfügiger" ist im Sinne eines Vergleichs zu verstehen, nicht als absoluter Komparativ.

Du findest also richtigen technischen Stillstand in Ordnung? :eek:Wo habe ich das denn geschrieben? Ich sehe nur nicht, wo für ATI damals etwas groß "schief gegangen" sein soll, abgesehen von den Marketingnachteilen durch fehlende Features. Und das hatte nicht damit zu tun, dass man auf einer alten Architektur aufbaute, sondern lag daran, dass man sie nur halbherzig modernisiert hatte.


Und von ATI schon nach einem Jahr eine neue Architektur zu erwarten, ist wirklich anmaßend. Auch Nividia lässt sich 3-4 Jahre Zeit mit Architekturwechseln (GeForce 1 bis GeForce 4, GeForce FX bis GeForce 7, GeForce 8 bis ?).R600 basiert auf R400/ Xenos. Die Architektur wird 2008 auch schon vier Jahre alt sein.

reunion
2007-12-09, 18:58:46
Wieso das? Man kann Featuresets durchaus erweitern (siehe meine Bsp.e oben).

Da stehen wir vor dem Problem was man als "neue" Architektur ansieht.


Das tut man doch gar nicht. RV670 basiert immer noch auf einer D3D9- Architektur, die auf D3D10 und später D3D10.1 aufgebläht wurde.


Im Grunde basiert jeder Chip auf seinen Vorgängern.


AMD wird von den Alternativen, die sie haben, die wählen, die sie für die beste halten. R600 hat offensichtlich einige Probleme. Hältst Du es nicht für wahrscheinlich, dass man mit einem Neuanfang ein besseres Ergebnis erhalten könnte als durch Herumdoktorrn daran?


Warum? Ja, R600 hatte Probleme, nur schon RV670 zeigt, dass es deutlich besser geht. Das anscheinend defekte shaderresolving wieder in die ROPs, etwas höhere Z-Füllrate, etwas mehr TMUs, und ich sehe keine Grund, warum ein solcher Chip schlecht sein sollte. Auch gibt es Gerüchte um clockdomains.


Soweit ich das verstanden habe, hat man den ursprünglich geplanten R700 komplett aufgegeben und das, was nun als R7xx erscheint, hat damit wenig bis gar nichts mehr zu tun. Man wird nicht in 1 - 2 Jahren eine neue Architektur aus dem Ärmel schütteln können, also müsste es dann irgendetwas auf R600- Basis sein. Es sei denn, man bastelt etwas frühzeitig auf Basis der R800- Konzepte zusammen. Das halte ich aber für weniger wahrscheinlich als einen Rückgriff auf R600.

Mit "geringfügiger umgebaut" meinte ich nicht einen R600 ohne große Änderungen. Ich bezog mich auf die Annahme, dass auch der alte R700 auf R600 basieren sollte, und nahm/ nehme an, dass R7xx jetzt weniger stark umgebauten R6xx sind als vorher geplant. Selbst dann würde ich erhebliche Änderungen erwarten, nur eben weniger als nach dem alten Ein- Chip- für- alles- Konzept. "Geringfügiger" ist im Sinne eines Vergleichs zu verstehen, nicht als absoluter Komparativ.


Vielleicht gibt es auch stärkere Änderungen als zunächst geplant, da der ursprüngliche R700 ähnliche wie R600 ein zu hohes ALU/Tex-Verhältnis hatte oder sonst irgendwie die Anforderungen nicht erfüllte? Bis so ein Chip verkauft werden kann, vergehen eben gleich mal einige Jahre, da ist es nicht immer leicht, die dann bestehenden Marktbedürfnisse entsprechend vorauszusagen. Solche Änderungen sind IMO völlig normal.

Hvoralek
2007-12-09, 19:39:35
Im Grunde basiert jeder Chip auf seinen Vorgängern.Ich würde R600 oder G80 nicht als auf R580 bzw. G71 basierend bezeichnen.

Warum? Ja, R600 hatte Probleme, nur schon RV670 zeigt, dass es deutlich besser geht. Das anscheinend defekte shaderresolving wieder in die ROPs, etwas höhere Z-Füllrate, etwas mehr TMUs, und ich sehe keine Grund, warum ein solcher Chip schlecht sein sollte. Auch gibt es Gerüchte um clockdomains.Ich weiß nicht, ob das so einfach ist. Anscheinend kann man etwa die Anzahl der TMU- Blöcke und Arithmetikeinheiten doch nicht so frei variieren wie anfangs gedacht (Sonst hätte ATI das wahrscheinlich auch noch gemacht). Auch mit den ROPs scheint man sich ja schon länger herumzuschlagen. Auch wenn man das repariert bekommt, liegt es nicht ganz fern, dass dieses Flickwerk zumindest vergleichsweise aufwändig wird. Ich bin aber auch bei der R400- Grundarchitektur inzwischen prinzipiell etwas skeptisch, nachdem R400 selbst ja anscheinend viel zu langsam gewesen wäre, um konkurrenzfähig zu sein, und auch R600 (nochmal: nach zwei Generalüberholungen) nur über den Preis konkurrenzfähig gemacht werden konnte.

Im Endeffekt hat keiner von uns das Hintergrundwissen, um sagen zu können, was nun genau warum nicht funktioniert und ob und wie man es beheben könnte. Nach den bisherigen Erfahrungen mit R400 würde ich aber nicht darauf vertrauen, dass die nächste Neuauflage der große Bringer wird.

Vielleicht gibt es auch stärkere Änderungen als zunächst geplant, da der ursprüngliche R700 ähnliche wie R600 ein zu hohes ALU/Tex-Verhältnis hatte oder sonst irgendwie die Anforderungen nicht erfüllte? Bis so ein Chip verkauft werden kann, vergehen eben gleich mal einige Jahre, da ist es nicht immer leicht, die dann bestehenden Marktbedürfnisse entsprechend vorauszusagen. Solche Änderungen sind IMO völlig normal.Das einzige, was man wohl sicher über den alten R700 sagen kann, ist das deutlich erweiterte Multi- GPU- Konzept. Wenn nun mehrere Chips kommen sollen, hat man zumindest das (was ja eine erhebliche Änderung wäre) eingeschränkt oder ganz aufgegeben. Ich bin mal gespannt, ob noch bekannt wird, wie dieser Chip geplant war. Ich glaube aber nicht, dass wir das erfahren werden.

Spasstiger
2007-12-09, 19:55:58
R600 basiert auf R400/ Xenos. Die Architektur wird 2008 auch schon vier Jahre alt sein.
Der R400 erblickte nie das Tageslicht und Xenos kam vor zwei Jahren auf den Markt, allerdings nicht für den PC, von dem wir hier aber eigentlich reden.

Hvoralek
2007-12-09, 21:59:08
Der R400 erblickte nie das Tageslicht und Xenos kam vor zwei Jahren auf den Markt, allerdings nicht für den PC, von dem wir hier aber eigentlich reden.Ich sehe nicht, warum jede Architektur zwingend eine gewisse Zeit in aktuellen Modellen zu finden sein müssen soll. Angenommen, Nvidia hätte NV30 noch gestoppt, einen SM2- NV25 als Lückenfüller gebracht und die Architektur erst Sommer 2004 mit NV40 in den Markt entlassen: Meinst Du, man hätte G80 auf 2008 verschoben, damit auch ja NV30/40- Ableger ihre Zeit am Markt bleiben?

Sicherlich gibt es langfristige Planungen, wie lange was halten soll. Es mag auch sein, dass man da gewöhnlich mit etwa vier Jahren für eine Architektur rechnet. Dann mag R400 für einen Zeitraum von 2004 - 2008 oder so eingeplant gewesen sein. Man wird wohl kaum die drei Jahre, in denen sich Desktopmodelle mit der (fertigen) Architektur nicht gelohnt haben, an deren Lebenszeit anhängen, damit die auch ja auf ihre vier Jahre kommt.

Bei ATI sehe ich übrigens auch keinen Hinweis auf einen 4- Jahres- Rhythmus. R300 sollte eigentlich nach zwei Jahren von R400 abgelöst werden. Dass er samt Anhang insgesamt fünf Jahre blieb, lag an Problemen beim geplanten Nachfolger.

Um das noch einmal klarzustellen: Ich rechne schon damit, dass die R7xxer, die jetzt wohl im Herbst 2008 oder so erscheinen werden, mehr oder weniger auf R600 aufbauen. Ich bezweifle aber, dass ATI das schon immer so geplant hatte.

laser114
2007-12-09, 22:16:02
Wobei sich ATI aber wohl auch nicht leisten kann, alle 18 Monate eine neue Architektur auf den Markt zu werfen, die R&D-Kosten dafür wären wohl zu hoch.

deekey777
2007-12-09, 22:26:59
Hvoralek:
Lies mal diesen Thread durch: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=106027 (einer der besten dieses Forums). Nvidia hat den ursprünglichen NV30 gestoppt.
Der R400 war spätestens für das Jahr 2004 geplannt, aber schon Mitte 2003 (oder früher) war es klar, dass man zu diesem Zeitpunkt das gewünschte Ergebnis nicht erreichen wird, so kam das Projekt "Loki" aka R390 aka R420.
Beim bisherigen R700 hieß es: keine Evolution des R400-Designs (wie Xenos oder R600), sondern eine neue Architektur. Aber ohne wirkliches Insiderwissen sind das nur Vermutungen (ob der R700 wirklich was Neues werden sollte).

Toppas:-)
2007-12-10, 00:27:47
ich gehe auch mal davon aus der der R700 mittlerweile eher ein Multi-GPU R600 wird mit einigen Verbesserungen. Doch das Multi-Chip-Design wird wohl weiterverfolgt werden. Da dies wesendlich mehr fexibilitat bringt.

Hvoralek
2007-12-10, 00:35:36
ich gehe auch mal davon aus der der R700 mittlerweile eher ein Multi-GPU R600 wird mit einigen Verbesserungen. Doch das Multi-Chip-Design wird wohl weiterverfolgt werden. Da dies wesendlich mehr fexibilitat bringt.Wenn es jetzt statt eines R700 mehrere R7xx gibt, kann man wohl sicher sagen, dass man zumindest nicht in dem Umfang auf eine Skalierbarkeit über die GPU- Anzahl setzt wie im alten Konzept vorgesehen.

Gaestle
2007-12-10, 14:01:04
Also erstmal sehe ich es nicht als Problem, wenn R7X0 ein überarbeiteteter R600 ist. Die Frage ist IMHO doch, ob sie die entscheidenden Schwächen des R600 beseitigen konnten und inwieweit das "pseudo-skalar" (dessen Behebung sicherlich ein zu große Design-Änderung wäre) tatsächlich in der Realität zutrifft und zum Hemmschuh wird.

Letztlich hatte der R420 nur EIN Manko, nämlich das Featureset im Vergleich zu NV40. Der Speed war ja voll in Ordnung. Dieses Manko wird aber ein R7x0 im Vergleich zu "G200 / G92E / weiß der Geier" nicht haben, da das Featureset generell nicht weiterentwickelt wird (siehe MS). Somit stehen beim R600 die Vorzeichen andersrum als beim R420, das Featureset ist okay, nur der Speed fehlt bei AA. Ein (deutliches) Speed-Upgrade (auch mit AA) würde IMHO also reichen.

GeneralHanno
2007-12-10, 14:44:55
das problem sehe ich weniger beim AA, sondern mehr bei AF. da fehlt es einfach an füllrate - und zwar gewaltig!

Exxtreme
2007-12-10, 15:46:19
;6096681']LOL

Wieder aufgewärmtes Essen? Das ging damals mit dem R420 schief, hoffentlich bekommen die es besser gebacken.
Der R420 war ein Erfolg und in den meisten Fällen die bessere Wahl als die Konkurrenz. Ausser man stand drauf 3DMark zu zocken.

Ein anderer Punkt ist, jetzt ist es wayne ob R700 oder ein R720 wie es der R420 war. Die AMD-GPUs sind von den Features her auf der Höhe der Zeit. Als der R700 in der Entwicklung war, hat ATi wohl nicht gedacht, daß sich Vista so entwickelt wie es jetzt ist denn damals sahen die Roadmaps ganz anders aus als das Teil in die Entwicklung ging.

Der aktuelle Stand ist D3D10.1 und das erfüllen die GPUs von AMD.

Gaestle
2007-12-10, 16:11:45
das problem sehe ich weniger beim AA, sondern mehr bei AF. da fehlt es einfach an füllrate - und zwar gewaltig!

Was ja aber das grundsätzliche Argument nicht schmälert.

GeneralHanno
2007-12-10, 16:24:42
stimmt. was die arithmetikleistung angeht, ist der R600 ein monster. seine schwächen liegen halt bei den füllraten.

deekey777
2007-12-10, 16:37:43
Also erstmal sehe ich es nicht als Problem, wenn R7X0 ein überarbeiteteter R600 ist. Die Frage ist IMHO doch, ob sie die entscheidenden Schwächen des R600 beseitigen konnten und inwieweit das "pseudo-skalar" (dessen Behebung sicherlich ein zu große Design-Änderung wäre) tatsächlich in der Realität zutrifft und zum Hemmschuh wird.
.
Die superskalare Architektur des R600 ist definitiv keine Schwäche.

GeneralHanno
2007-12-10, 17:17:57
die architektur ist nicht superskalar, sondern pseudo-skalar. das thema hatten wir schon vor recht langer zeit ;)

zwar kann eine Vec5 ALU auch 5 getrennte skalaroperationen durchführen, sie müssen aber aus ein und dem selben thread sein. dieser umstand kann zu auslastungsproblemen führen.

deekey777
2007-12-10, 17:47:06
die architektur ist nicht superskalar, sondern pseudo-skalar. das thema hatten wir schon vor recht langer zeit ;)

zwar kann eine Vec5 ALU auch 5 getrennte skalaroperationen durchführen, sie müssen aber aus ein und dem selben thread sein. dieser umstand kann zu auslastungsproblemen führen.
Sie ist superskalar. Superskalar bedeutet, dass in der Pipeline mehr als eine Instruktion ausgeführt werden kann. Jede SIMD-Einheit kann pro Durchgang bis zu 5 unabhängige Instructions (+Branch) ausführen.

http://www.beyond3d.com/content/reviews/16/8

Nakai
2007-12-10, 18:24:45
Sie ist superskalar. Superskalar bedeutet, dass in der Pipeline mehr als eine Instruktion ausgeführt werden kann. Jede SIMD-Einheit kann pro Durchgang bis zu 5 unabhängige Instructions (+Branch) ausführen.

http://www.beyond3d.com/content/reviews/16/8

Schön und gut, jedoch würde ich gern wissen in wieweit der R600 dadurch ausgelastet wird.


mfg Nakai

deekey777
2007-12-10, 19:12:24
Schön und gut, jedoch würde ich gern wissen inwieweit der R600 dadurch ausgelastet wird.


mfg Nakai
Was heißt hier "schön und gut"? Es ist die Aufgabe des Compilers den Code so anzupassen, dass alle 5 Einheiten ausgelastet werden. Wenn du Ergebnisse haben willst, bitte sehr:
http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm

Nakai
2007-12-10, 20:35:35
Was heißt hier "schön und gut"? Es ist die Aufgabe des Compilers den Code so anzupassen, dass alle 5 Einheiten ausgelastet werden. Wenn du Ergebnisse haben willst, bitte sehr:
http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm

Super vielen Dank!


mfg Nakai

Gast
2007-12-10, 21:41:32
Die Frage, welche man sich bei dem Test für die Shaderperformance anschaut ist:
-wird heutzutage so wenig Shaderleistung gefordert, dass die Mehrperformance von R600 in diesem Bereich fast nicht relevant zum tragen kommt?
-wenn doch, wie kommt es, dass dieser Flaschenhals, welcher nur bei serieller Bearbeitung des Codes bei NV nicht zum tragen, bei aktuellen Spielen nicht zum tragen kommt?
- wenn doch, sind die Enginedesigner nur gewöhnt, seriell dem Ding die Befehle an den Kopf zu werfen?
- kann durch Beeinflussung der Entwickler solch eine Verzerrung hervorgerufen werden?
- weiß jemand, wie das in aktuellen Spieleengines aussieht und wohin der Zug zur Zeit fährt?

Gast
2007-12-10, 21:59:45
Was heißt hier "schön und gut"? Es ist die Aufgabe des Compilers den Code so anzupassen, dass alle 5 Einheiten ausgelastet werden. Wenn du Ergebnisse haben willst, bitte sehr:
http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm

Hier haben jedoch eher die Entwickler von AMD als der Compiler den Code angepasst.

deekey777
2007-12-11, 01:26:59
Hier haben jedoch eher die Entwickler von AMD als der Compiler den Code angepasst.
Ja. Diese Tests sollen ja veranschaulichen, wie es mit der Auslastung aussieht, wenn der Code nicht schmeckt. Ein weiteres Beispiel wäre zB Rightmark3D, der "einige häßliche skalare" Instructions nutzt.
http://www.digit-life.com/articles2/video/rightmark2-page1.html
http://www.digit-life.com/articles3/video/rv670-part2-page7.html

Mir ging um das Mißverständnis: Wegen der "superskalaren" Architektur samt VLIW (man kann diese Begriffe aus der CPU-Welt nicht einfachso übernehmen, wobei es vollkommen legitim ist, die R600-Architektur als superskalar zu bezeichnen) ist die HD-Serie in einem theoretischen Nachteil, dass die Einheiten nicht vollausgelastet werden. Einen praktischen Test konnte ich bisher nicht sehen (abgesehen von Rightmark3D).
Das Problem des R600 ist in erster Linie die geringe Texelfüllrate, dazu kommt der Einbruch beim MSAA (Shader-Resolve ist kein Problem). Ob die Threadgröße von 8x8 ein großer Nachteil ist? Glaube ich kaum.

Ailuros
2007-12-11, 06:00:46
Hvoralek:
Lies mal diesen Thread durch: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=106027 (einer der besten dieses Forums). Nvidia hat den ursprünglichen NV30 gestoppt.
Der R400 war spätestens für das Jahr 2004 geplannt, aber schon Mitte 2003 (oder früher) war es klar, dass man zu diesem Zeitpunkt das gewünschte Ergebnis nicht erreichen wird, so kam das Projekt "Loki" aka R390 aka R420.

R400 waere viel zu lahm gewesen, selbst im Vergleich zu R3xx. Alternative Entschuldigungen kann jeder finden und keiner gibt gerne zu dass man etwas auf Eis gelegt oder verspaetet hat weil es zu lahm war. Gleiches galt fuer den originalen "G80"; man schob G71 in die roadmap und man ueberarbeitete durch hoehere Frequenzen die ALUs dass so ein Ding auch wirklich einen grossen Unterschied machen wird.

R420 hat wie viele wissen nur "manhours" gebraucht was die Entwicklung betrifft. Sonst ist keine andere Generation seither zeitig angekommen. Waere ATI halb so gross wie NVIDIA gewesen koennte ich das Ganze ja noch verstehen; bei der Unzahl an Personal und Resourcen frag ich mich schon seit Jahren was fuer eine Arbeits-philosophie sie in dem Schuppen haben.

Beim bisherigen R700 hieß es: keine Evolution des R400-Designs (wie Xenos oder R600), sondern eine neue Architektur. Aber ohne wirkliches Insiderwissen sind das nur Vermutungen (ob der R700 wirklich was Neues werden sollte).


Niet. Es gab R700/D3D10.1 und R7x0/D3D10.2; 10.2 gibt es nicht mehr aber es haette wohl auch keine "Generation" gerechtfertigt. Irgendjemand hat Euch mit den Codenamen verwirrt; dass was Du meinst hoert auf den Codenamen R800.

Ailuros
2007-12-11, 06:03:38
Was heißt hier "schön und gut"? Es ist die Aufgabe des Compilers den Code so anzupassen, dass alle 5 Einheiten ausgelastet werden. Wenn du Ergebnisse haben willst, bitte sehr:
http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm

Unter idealen Situationen hat man nur einen Compiler fuer alle Anwendungsbereiche und man muss auch nichts mit der Hand zusaetzlich anpassen ;)

Ailuros
2007-12-11, 06:18:19
Und ich stelle nochmal eine Behauptung auf: Dieses "aufgewärmte Essen" unterstützt die höchste Ausbaustufe von D3D10. Ursprünglicher R700 = D3D11. Eine neue Architektur mit demselben Featureset zu entwickeln, ist reine Ressourcenverschwendung. Oder erwartet hier irgendjemand von nV eine neue Architektur 2008? Der jetzige R700 ist wohl nicht mehr als ein Zwischenschieber bis Vienna kommt.

Als den IHVs bewusst war wie D3D10 aussehen wird, erwarteten alle D3D10, 10.1 und 10.2 und D3D10 sollte ja auch ueber 4-5 Jahre aushalten. So lange wird es ja auch werden mit den ueblichen M$ Verspaetungen am Ende, nur wurde eben 10.2 erstmal gestrichen.

Was hiess denn vor so langer Zeit D3D11 ueberhaupt? Oder glaubst Du dass der originale R400 tatsaechlich ohne Aenderungen D3D10 Komplianz erreicht haette? Die Tesselations-Einheit steckte im R400 sowohl auch in Xenos und R6x0 drin. Obwohl diese eine Vorraussetzung fuer D3D11 sein wird, ist selbst Xenos einen guten Schritt unter der D3D10 Komplianz.

Exxtreme
2007-12-11, 08:47:35
R400 waere viel zu lahm gewesen, selbst im Vergleich zu R3xx. Alternative Entschuldigungen kann jeder finden und keiner gibt gerne zu dass man etwas auf Eis gelegt oder verspaetet hat weil es zu lahm war.
Zugegeben haben sie es, daß sie mit der Leistung des originalen R400 nicht zufrieden waren. Irgendwo gab's mal ein Interview. :D

Ailuros
2007-12-11, 12:40:37
Zugegeben haben sie es, daß sie mit der Leistung des originalen R400 nicht zufrieden waren. Irgendwo gab's mal ein Interview. :D

Mit dem Unterschied dass manche in letzter Zeit den Eindruck hinterlassen, dass der Grund der Stornierung war dass das Ding nicht rechtzeitig angekommen waere. Der Verlauf der Einheiten war afaik 4*4 (R400)-->3*16 (Xenos)-->4*16 (R600).

AnarchX
2007-12-13, 19:05:47
http://img221.imageshack.us/img221/6093/attachment1e71f9dxd6.jpg (http://imageshack.us)

Also R7xx erst 2009...

Adam D.
2007-12-13, 19:07:13
Autsch. Und bis dahin? :usad:

Gmax
2007-12-13, 19:17:45
Autsch. Und bis dahin? :usad:

In der Tat! ;( Ich habe mir öfters gedacht, was wäre wenn sich ATI aus dem High End Bereich für einige Zeit zurückzieht, um was ordentliches zu entwickeln. Das scheint wohl zuzutreffen. Aber über ein ganzes jahr nichts neues ist heftig, 09 würde aber den bisherigen Verspätungen seitens ATI nach sehr gut passen.

Und jetzt rein menschlich: Was zum Teufel ist los mit denen? Kriegen die den Arsch nicht mehr hoch?

Gast
2007-12-13, 19:22:20
da wäre ja dann doch noch genug zeit einen r680 (keinex2) zu bringen.

dargo
2007-12-13, 19:23:02
http://img221.imageshack.us/img221/6093/attachment1e71f9dxd6.jpg (http://imageshack.us)

Also R7xx erst 2009...
:| :eek: :usad:

GeneralHanno
2007-12-13, 19:23:27
Was mag denn dieses R6xxTM bedeuten :confused:

K4mPFwUr$t
2007-12-13, 19:36:39
na toll, damit besteht bis 2009 keine richtige konkurrenz für nV. kein grund eine GF9 zu launchen.
wer ist das opfer? der kunde mal wieder -.-

damit kann ich mir den gedanken ersparen mir eine GF9 oder HD4000 2008 zu kaufen.

Super Grobi
2007-12-13, 19:38:47
na toll, damit besteht bis 2009 keine richtige konkurrenz für nV. kein grund eine GF9 zu launchen.
wer ist das opfer? der kunde mal wieder -.-

damit kann ich mir den gedanken ersparen mir eine GF9 oder HD4000 2008 zu kaufen.

Wieso guckt ihr alle nur auf die jeweils stärkste Karte? Wem interessiert den dieser überteuertern Quatsch? Mit den Teilen verdient man eh kein Geld.

SG

K4mPFwUr$t
2007-12-13, 19:40:48
@super grobi
damit hast du recht, ABER ich brauch leistung. wollte eigentlich die x1950pro gegen eine HD4000 oder GF9 eintauschen, aber das kann ich mir sparen. wenn das wirklich so kommt werd ich wohl zu einer HD3800 oder 8800er greifen müssen.

Super Grobi
2007-12-13, 19:44:27
@super grobi
damit hast du recht, ABER ich brauch leistung. wollte eigentlich die x1950pro gegen eine HD4000 oder GF9 eintauschen, aber das kann ich mir sparen. wenn das wirklich so kommt werd ich wohl zu einer HD3800 oder 8800er greifen müssen.

Oder einer 3870X2. Kein Plan ob die Karte mit 1024MB kommt, aber diese sollte nun wirklich genug Leistung bieten.

Auch versteh ich nicht, warum alle zusammen zucken, wenn eine Hardware verschoben wird. Ich lach mich eher immer über diese Thread kaputt, wo im Topic steht "XY im 2Q 2008 bla bla". Da kann man sich IMMER an fünf Finger abzählen, das man da eh min. 9 Monate nochmal draufzählen darf. Das gleiche gilt auch für die tollen ankündigungen von Games.

Aber das ist alles ein anders Thema. Wollte ich einfach mal los werden.

SG

RoNsOn Xs
2007-12-13, 19:54:04
endlich hört aber damit auch mal der hardwarepush auf

Gmax
2007-12-13, 19:55:09
Wieso guckt ihr alle nur auf die jeweils stärkste Karte? Wem interessiert den dieser überteuertern Quatsch? Mit den Teilen verdient man eh kein Geld.

SG


Schon klar, aber wenn man High End will, dann muß man zu nV greifen und das werden sie sich künftig noch viel teurer bezahlen lassen.

Super Grobi
2007-12-13, 20:00:14
endlich hört aber damit auch mal der hardwarepush auf

Ja! Das ist positiv an der Sache. Irgentwie geht das eh alles zu schnell und brauchen tut man es eh nicht! Kein Mensch braucht heute für Games ein 4 Kern Prozi, 8800 Ultra etc.

Die Spieleentwickler sollte sich einfach mal wieder mehr mühe geben und Spiele besser optimieren, statt sich einfach auf die nächste Generation von Hardware zu verlassen. Den ganzen High-End Krempel bräuchten wir nämlich eigentlich nicht!

Ich warte darauf, das es die ersten 8 Kern CPUs gibt und sich die bekannten User wie doof auf diese stürzen ;)

Nichts für ungut, aber ich hätte nichts dagegen, wenn es in den nächsten 5 Jahren NICHTS neues gäbe.

SG

dargo
2007-12-13, 20:01:14
Oder einer 3870X2.
Ich wollte eigendlich SLI/CF meiden. Ich hoffe nur NV launcht im Februar 2008 wirklich noch eine High-End Graka die 80-100% schneller ist als eine G8800GTX. Und selbst wenn diese wieder ~500-600€ kostet wird man wohl die Investition nicht bereuen. Ich rieche hier eine Wiederholung vom G80. :usad:

K4mPFwUr$t
2007-12-13, 20:05:07
@super grobi
man kann optimieren, aber irgendwann ist auch der grad des möglichen erreicht. und 5 jahre keine neue graka gen, hmm ich weiss nicht. das wäre dann der absolute stillstand und ob das so gut ist.

LovesuckZ
2007-12-13, 20:05:16
80-100% scheller? ;D
Manche scheinen ihre Realität als die Wahrheit anzusehen...

dargo
2007-12-13, 20:06:31
Ja! Das ist positiv an der Sache. Irgentwie geht das eh alles zu schnell und brauchen tut man es eh nicht!

Was ist bitte daran positiv, dass sich eine G8800GTX praktisch fast ein Jahr relativ preisstabil halten konnte?


Kein Mensch braucht heute für Games ein 4 Kern Prozi, 8800 Ultra etc.

Sorry, aber das ist vollkommender Unsinn. Für Crysis reichen selbst 3 Ultras für einen 24" TFT User und DX10 nicht aus.


Nichts für ungut, aber ich hätte nichts dagegen, wenn es in den nächsten 5 Jahren NICHTS neues gäbe.

Um gottes Willen, Stillstand im PC-Sektor? :| Nein, danke. :down:

Der_Korken
2007-12-13, 20:07:09
Oh, das ist bitter, dass der richtige R700 erst 2009 kommt ...

Aber eventuell bringt ATI einfach einen guten Refresh raus, ähnlich dem Sprung R300 --> R420 mit doppelt so vielen Funktionseinheiten. Denkbar wäre es.

reunion
2007-12-13, 20:07:24
Naja, wer weiß was mit diesem R6xxTM gemeint ist. Featuremäßig geht bereits RV670 über die D3D10.1-Specs hinaus, es fehlt nur an Leistung. Vielleicht kommt ja doch noch ein 640SP-Chip oder mehr. Jedenfalls frage ich mich, was am R700 schief gelaufen ist, das Ding hatte bis vor kurzem noch ein offizielles Releasingdatum im Q2 2008. Eine Verschiebung um ein Jahr ist ja nicht gerade wenig.

laser114
2007-12-13, 20:10:33
Hier mal noch zum Vergleich die gleiche Folie vom Sommer:

http://s1.directupload.net/images/user/071213/pv9j2a5h.jpg (http://www.directupload.net)

Coda
2007-12-13, 20:10:35
Ja! Das ist positiv an der Sache. Irgentwie geht das eh alles zu schnell und brauchen tut man es eh nicht! Kein Mensch braucht heute für Games ein 4 Kern Prozi, 8800 Ultra etc.
Doch ich. Selbst auf der läuft Crysis nicht gescheit.

Die Spieleentwickler sollte sich einfach mal wieder mehr mühe geben und Spiele besser optimieren, statt sich einfach auf die nächste Generation von Hardware zu verlassen. Den ganzen High-End Krempel bräuchten wir nämlich eigentlich nicht!
Blafasel...

dargo
2007-12-13, 20:11:16
80-100% scheller? ;D

Warum sollten ~950GFLOPS im ersten/zweiten Quartal 2008 nicht möglich sein? Schon eine übertaktete G8800GTS@G92 (ich meine 730Mhz) kommt auf ~700GFLOPS. ;)

LovesuckZ
2007-12-13, 20:11:23
Naja, wer weiß was mit diesem R6xxTM gemeint ist. Featuremäßig geht bereits RV670 über die D3D10.1-Specs hinaus, es fehlt nur an Leistung. Vielleicht kommt ja doch noch ein 640SP-Chip oder mehr. Jedenfalls frage ich mich, was am R700 schief läuft, das Ding hatte bis vor kurzem noch ein offizielles Releasingdatum im Q2 2008.

Wenn AMD nichtmal 320SP mit 775MHz Takt liefern kann, werden sie bestimmt nicht den Chip verdoppeln.
Anscheinend ist das Design nicht auf hohe Taktraten ausgelegt - wohl der größte Unterschied zu nVidia. Deren Design kann fast mit dem selben Takt be ROPs und TMUs aufwarten wie AMD.

reunion
2007-12-13, 20:13:09
Hier mal noch zum Vergleich die gleiche Folie vom Sommer:

http://s1.directupload.net/images/user/071213/pv9j2a5h.jpg (http://www.directupload.net)

2009 sollte schon die übernächste Generation da sein. Vielleicht wurden auch nur die Codenamen geändert, und da sich an den Specs nichts ändert wurde aus R700 irgendein R6xx.

Gast
2007-12-13, 20:15:02
ich denke da wird sicher noch ein Refresh des r600 als high-end dazwischen kommen. Ein echter r680. Sonst macht das alles für mich keinen Sinn.
Was ähnliches wie von r520 zu r580 fände ich schon fein.....

puntarenas
2007-12-13, 20:15:14
Nichts für ungut, aber ich hätte nichts dagegen, wenn es in den nächsten 5 Jahren NICHTS neues gäbe.
Schön und gut, wenn man überlegt, wie das früher war. Da konnte man einer bestehenden Plattform beim Reifen zuschauen (C64, Amiga, DOS mit VESA :uroll:). Ich hätte nichts dagegen, auch damals konnte man sich über immer beeindruckendere Spiele freuen, die mehr und mehr aus dem gegebenen Unterbau herausgeholt haben.

Zurück in die Gegenwart. In der Roadmap (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6108790#post6108790)sieht es ja so aus, als ob die 3870X2 erst gegen Mitte nächsten Jahres und der R700 sogar eher erst 2009 erscheint. Gibt es dann nochmal Refreshversionen der bestehenden Karten oder will man diese Zeiträume mit kontinuierlich sinkenden Preisen überbrücken?

reunion
2007-12-13, 20:15:29
Wenn AMD nichtmal 320SP mit 775MHz Takt liefern kann, werden sie bestimmt nicht den Chip verdoppeln.

NV kann noch nichtmal einen 65nm Chip liefern. :rolleyes:
Können wir jetzt wieder aufhören mit diesem Kindergartenniveau? Ein doppelter RV670 wäre in 55nm nicht das geringste Problem. Selbst R580 war da größer.


Anscheinend ist das Design nicht auf hohe Taktraten ausgelegt - wohl der größte Unterschied zu nVidia. Deren Design kann fast mit dem selben Takt be ROPs und TMUs aufwarten wie AMD.

Du bist wirklich ulkig, wenn ich nicht wüsste, das du das ernst meinst, würde ich es als Scherz auffassen. Ich sehe bis heute keinen NV-Chip, der auch nur annähernd 775Mhz Coretakt erreicht. Die ALUs sind als custom-Transistoren hier nicht vergleichbar.

laser114
2007-12-13, 20:18:00
Roadmap (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6108790#post6108790)sieht es ja so aus, als ob die 3870X2 erst gegen Mitte nächsten Jahres

Hmm, ich denke in R6xxTM sollte man nicht zu viel über die 3870 X2 hineininterpretieren. Die Chips sind jetzt schon da, laut Fudzilla ist sogar schon die Hardware fast auslieferungsbereit, nur Treiberoptimierungen müssen noch sein. Und selbst zum Spider-Launch sprach AMD von einer Auslieferung der 3870 X2 zu Beginn von 2008, momentan deutet alles auf Januar hin.

K4mPFwUr$t
2007-12-13, 20:24:18
eine X2 3870 ist eh für die meisten uninteressant. das problem ist einfach die ewige fummelei mit den treibern und der niedrigeren effizenz gegenüber einer hardwarelösung.

eine hardwarelösung kommt ja scheinbar mit dem r700 auf uns zu. nur scheint diese probleme zu machen. denn einen minicore zu entwerfen dürfte jetzt nicht das größte problem sein, sondern das verbinden.

puntarenas
2007-12-13, 20:35:13
Hmm, ich denke in R6xxTM sollte man nicht zu viel über die 3870 X2 hineininterpretieren.
Könnte natürlich sein, dass sie im Januar erscheinen und dann eben zur Mitte des Jahres immer noch als Teil der "Leo" Plattform agieren. Das hieße dann ein Jahr mit 3870X2 und darunter im Markt, also ich weiß nicht.

Nakai
2007-12-13, 20:43:17
Könnte natürlich sein, dass sie im Januar erscheinen und dann eben zur Mitte des Jahres immer noch als Teil der "Leo" Plattform agieren. Das hieße dann ein Jahr mit 3870X2 und darunter im Markt, also ich weiß nicht.

Da der R600 praktisch ausgebucht ist, also die Codenamen, werden wir wohl nicht soviel nächstes Jahr sehen...

Vll kommt Mitte des Jahres noch ein R600 Refresh...


mfg Nakai

Gast
2007-12-13, 20:44:24
80-100% scheller? ;D
Manche scheinen ihre Realität als die Wahrheit anzusehen...
Denke 50 % sind ein realistischer Wert. Vielleicht nen Tick mehr aber 100 % halte ich für abwegig.
Amd lässt sich wahrscheinlich auch soviel Zeit mit ihrem R700 bis Fertigungen kleiner 55 nm für GPUs bereit sind. Und 2008 wird da wohl 55 nm das höchste der Gefühle bleiben. Für nen finanzierbaren Paukenschlag taugt der Prozess nix.

laser114
2007-12-13, 20:47:17
Könnte natürlich sein, dass sie im Januar erscheinen und dann eben zur Mitte des Jahres immer noch als Teil der "Leo" Plattform agieren. Das hieße dann ein Jahr mit 3870X2 und darunter im Markt, also ich weiß nicht.

Stimmt, das kann natürlich auch sein.
Mal schauen wie AMD da plant.

LovesuckZ
2007-12-13, 20:53:07
NV kann noch nichtmal einen 65nm Chip liefern. :rolleyes:
Können wir jetzt wieder aufhören mit diesem Kindergartenniveau? Ein doppelter RV670 wäre in 55nm nicht das geringste Problem. Selbst R580 war da größer.

AMD kann keine verfügbarkeit der 3870 selbst 4 Wochen nach der Präsentation realisieren und dann behauptest du, dass "ein doppelter Chip nicht das geringste Problem" wäre? Der Stromverbrauch der 3870 ist für den Chip viel zu hoch unter Last. Verfügbarkeit und Stromverbrauch sind zwei gute Indikatoren für ein Design, das nicht auf so hohe Taktraten ausgelegt ist.


Du bist wirklich ulkig, wenn ich nicht wüsste, das du das ernst meinst, würde ich es als Scherz auffassen. Ich sehe bis heute keinen NV-Chip, der auch nur annähernd 775Mhz Coretakt erreicht. Die ALUs sind als custom-Transistoren hier nicht vergleichbar.

Meine 8800GT läuft mit 740Mhz bzw. 756Mhz@100% Fanspeed. Die Recheneinheiten limitieren eher als die TMUs und ROPs. Fast alle 8800GTS Karten sollten um die 750MHz schaffen, da sie eine höhrere Spannung besitzen.

w0mbat
2007-12-13, 21:08:15
Es gab anscheinend eine Änderung am R700. Der "alte" R700 würde verschoben und der "neue" R700 wird wohl weiterhin R6xx heißen. Ich würde nicht so viel auf eine AMD-Folie geben. Die HD2900 hieß kurz vor dem Launch noch X2800 und die HD3800 noch HD2950.

laser114
2007-12-13, 21:11:51
Vielleicht helfen zur Beurteilung ja auch die restlichen Folien zum Financial Analyst Day. Gibts die schon irgendwo; bzw. wo hat AnarchX die Folie her?

AnarchX
2007-12-13, 21:15:50
Hier gibt es die Präsentationen:
http://www.amd.com/us-en/Corporate/InvestorRelations/0,,51_306_15401,00.html?redir=IRAD01

laser114
2007-12-13, 21:22:39
Hier gibt es die Präsentationen:
http://www.amd.com/us-en/Corporate/InvestorRelations/0,,51_306_15401,00.html?redir=IRAD01

Muss man sich da anmelden? Ich finde jedenfalls keine. :|

Edit: Ah, ich habs gefunden. ;)

AnarchX
2007-12-13, 21:29:33
Muss man sich da anmelden? Ich finde jedenfalls keine. :|

Eigentlich nicht, ist doch bei jedem Vortraghaltenden ein Link z.B. Mario Rivas mit Computing Products:
http://download.amd.com/Corporate/MarioRivasDec2007AMDAnalystDay.pdf
... hieraus ist auch die Folie.

Gast
2007-12-13, 21:30:54
Euch ist schon klar dass der neue R700 jetzt als R6xx geführt wird, da dieser auf diesem aufbaut? Der "alte" R700 wurde ja verschoben, was auch gut so ist, 2008 wär doch ein wenig zu früh für ihn bzw würde man Transistoren verschwenden ;)

reunion
2007-12-13, 21:38:07
Es gab anscheinend eine Änderung am R700. Der "alte" R700 würde verschoben und der "neue" R700 wird wohl weiterhin R6xx heißen. Ich würde nicht so viel auf eine AMD-Folie geben. Die HD2900 hieß kurz vor dem Launch noch X2800 und die HD3800 noch HD2950.

Das ist auch die einzig logische Erklärung in meinen Augen. Ein Chip, der erst irgendwann 2009 kommt, muss fast schon D3D11 unterstützen. Das ist nicht der R700, den wir 2008 erwarten, hier wurde wohl wiedermal was umgeworfen. 2008 wird schon noch ein neuer High-End-Core (Multicore) kommen, wie immer das Ding dann auch heißen mag.

reunion
2007-12-13, 21:41:30
AMD kann keine verfügbarkeit der 3870 selbst 4 Wochen nach der Präsentation realisieren und dann behauptest du, dass "ein doppelter Chip nicht das geringste Problem" wäre?

Sorry, aber nV kann selbiges bei der seit 7 Wochen vorgestellten 8800GT nicht erreichen. Es ist noch gar nicht lange her, da musste man Monate nach der Vorstellung noch auf die erste verfügbare Karte warten. Der Chip wurde eben früher vorgestellt, als nötig, um eine ausreichende Verfügbarkeit zu gewährleisten, genau wie bei der 8800GT auch. Aber das du hieraus wieder ein Drama veranstaltest, war ja klar. Ja, ich behaupte auch weiterhin das ein doppelter Chip fertigungstechnisch nicht das geringste Problem wäre, was auch für jeden klar denkenden Menschen nachvollziehbar sein sollte.


Der Stromverbrauch der 3870 ist für den Chip viel zu hoch unter Last.


Nein ist er nicht. Das Ding taktet mit 775Mhz und benötigt dafür 1.25V Corespannung. Der G92 ist zwar wesentlich "breiter" aber taktet deutlich niedriger und mit weniger Spannung. Es ist bekannt, dass dies energieeffizienter ist. Ein kleineres Die mit höheren Taktraten/Spannung ist allerdings billiger zu fertigen.


Meine 8800GT läuft mit 740Mhz bzw. 756Mhz@100% Fanspeed. Die Recheneinheiten limitieren eher als die TMUs und ROPs. Fast alle 8800GTS Karten sollten um die 750MHz schaffen, da sie eine höhrere Spannung besitzen.

Meine 3870 läuft mit 890Mhz bei 100% Fanspeed. 860Mhz schaffe ich ohne Probleme bei unregulierten Lüfter. Was sagt und das jetzt?

GeneralHanno
2007-12-13, 21:42:40
der R700 scheint ja gemäß der Präsentation Mitte 2009 zu kommen, also wird er wohl DX11 unterstützen. Und bis dahin werden die GPUs den Codenamen R6xx tragen.

Ansonsten sind in der Präsentation ganz nette Informationen zu Griffin und Fusion, aber das ist ja OT :wink:

reunion
2007-12-13, 22:02:41
Also wenn ich das lese wird mit schlecht:

http://www.orthy.de/images/stories/bokill/AMD/AMD-Financial-Analyst-Day-2007/amd_financial-analyst-day-2007_cautionary-statement.jpg

Gast
2007-12-13, 22:04:05
http://www.planet3dnow.de/vbulletin/showthread.php?p=3436774#post3436774

planet3dnow hat schon einige Folien. Hier sieht man eindeutig einen r680. Ist aber wohl ein x2 wie man auf einem Bild erkennen kann.

Gast
2007-12-13, 22:06:42
was meinen die wohl mit tripple and quad gpu bei dem r680?

K4mPFwUr$t
2007-12-13, 22:12:30
AMD hätte sich ganz einfach die sache mit ATI sparen sollen. weil so reisst AMD ATI noch mit in den abgrund.

langsam müsste AMD echt eine umbennung ihres slogens in "dealdy choice" in betracht ziehen.

LovesuckZ
2007-12-13, 22:21:08
Sorry, aber nV kann selbiges bei der seit 7 Wochen vorgestellten 8800GT nicht erreichen.

:confused:
Karten sind wesentlich besser verfügbar als die 3870.

Nein ist er nicht. Das Ding taktet mit 775Mhz und benötigt dafür 1.25V Corespannung. Der G92 ist zwar wesentlich "breiter" aber taktet deutlich niedriger und mit weniger Spannung. Es ist bekannt, dass dies energieeffizienter ist. Ein kleineres Die mit höheren Taktraten/Spannung ist allerdings billiger zu fertigen.

Von welcher "Breite" redest du? nVidia hat nur noch mehr Textureinheiten. AMD hat bei den Recheneinheiten die breitere Architektur und bei den ROPs herrscht gleichstand.
Ansonsten kann vielleicht AMD billiger fertigen, aber das bringt ihnen nichts, wenn sie weniger für ihre Chips erhalten. Und durch die katastrophale Verfügbarkeit der 3870 schaden sie ihren finanzen nochmal, da man nur die 3850 als wirkliches Produkt auf den Markt hat. Mit der 8800GTS hat nVidia gezeigt, dass sie immer noch Luft nach oben haben. Und das Gefühl hat man bei AMD zur Zeit nicht.


Meine 3870 läuft mit 890Mhz bei 100% Fanspeed. 860Mhz schaffe ich ohne Probleme bei unregulierten Lüfter. Was sagt und das jetzt?

Das die 3870 näher am limit getaktet ist als die 8800gt.
Und wenn man die 8800gt mit der 3850 vergleicht - beide SingleSlot und ähnliche Spannung, dann zeigt es, wer näher am Limit arbeitet.

urbi
2007-12-13, 22:26:06
Ich würde sagen AMD sollte darüber nachdenken ATI (und damit meine ich nur noch die Grafikkarten) weitestgehend out-zu-sourcen. Das wird natürlich einiges an Kosten nach sich ziehen (doppeltes Personal, etc.) aber es würde, wenn es ganz dick kommt, einen weitestgehend schmerzlosen Verkauf von ATI ermöglichen.
Vielleicht gibt es ja Interessenten...

Spasstiger
2007-12-13, 23:51:45
Gegen eine vernünftige Dual-Chip-Karte mit shared memory, Hardware-Crossfire (auf Softwareebene nur ein Chip sichtbar) und gezügelter Verlustleistung (< 150 Watt Last, < 50 Watt idle) hätte ich auch nichts einzuwenden.

Gast
2007-12-13, 23:53:26
Also wenn ich das lese wird mit schlecht:

http://www.orthy.de/images/stories/bokill/AMD/AMD-Financial-Analyst-Day-2007/amd_financial-analyst-day-2007_cautionary-statement.jpg

wieso wird Dir da schlecht? Das ist ein ganz normales Cautionary Statement das eine börsennotierte Firma als Warnung an den Investor abliefern muss.
Das Teil in Kurzform wird seid Jahren zu beginn eines jeden Conference Call verlesen. Machen andere Unternehmen übrigens auch so - ist also absolut nix neues.

Hvoralek
2007-12-13, 23:57:50
Ich wollte eigendlich SLI/CF meiden. Ich hoffe nur NV launcht im Februar 2008 wirklich noch eine High-End Graka die 80-100% schneller ist als eine G8800GTX.Wie stellst Du Dir D8E denn vor? 12 Cluster@800 MHz?

Ich glaube nicht, dass wir mehr als ~50% über der GTX sehen werden.


ich denke da wird sicher noch ein Refresh des r600 als high-end dazwischen kommen. Ein echter r680. Sonst macht das alles für mich keinen Sinn.Ausgehend von Folie #11 hier (http://www.planet3dnow.de/vbulletin/showthread.php?p=3436774#post3436774) ist R680 die Bezeichnung für eine Doppelchipplatine, wohl die mit 2x RV670. Ich denke aber auch, dass nächstes Jahr noch etwas über der 3870 X2 kommen wird. Ansonsten stünde bei der Leo- Plattform wohl immer noch Die 38xx- Reihe und nicht "R6xx".

Was ähnliches wie von r520 zu r580 fände ich schon fein.....Dreifache Arithmetikleistung bei gleicher Filterleistung und Füllrate? :|

Ailuros
2007-12-14, 06:14:09
Wie stellst Du Dir D8E denn vor? 12 Cluster@800 MHz?

Ich glaube nicht, dass wir mehr als ~50% über der GTX sehen werden.

Fuer 50% ueber einer GTX braucht man aber zumindest 12 cluster (oder 2*6).

Ausgehend von Folie #11 hier (http://www.planet3dnow.de/vbulletin/showthread.php?p=3436774#post3436774) ist R680 die Bezeichnung für eine Doppelchipplatine, wohl die mit 2x RV670. Ich denke aber auch, dass nächstes Jahr noch etwas über der 3870 X2 kommen wird. Ansonsten stünde bei der Leo- Plattform wohl immer noch Die 38xx- Reihe und nicht "R6xx".

Die letztere ist aber auch fuer Anfang 2009 angelegt. Die Roadmaps auf den Folien sind ja auch ziemlich undeutlich denn sie blubbern hier von Platformen bzw. System-loesungen. Man kann darauf nicht schliessen dass R7x0 erst in 2009 kommt, obwohl es keinen mit ATI's execution-trends beindrucken wuerde.

Dreifache Arithmetikleistung bei gleicher Filterleistung und Füllrate? :|

Die Fuellraten skalieren diesmal mit.

AnarchX
2007-12-14, 08:51:03
Im Endeffekt passen aber die Leistungsdaten zum R700 mit 2 TFLOPs wohl wirklich eher in einen späten 2008 Release oder eben Anfang 2009.

Ob man in der Zwischenzeit mehr als die 3870 X2 liefern wird bleibt fraglich, mehr als ein kleines Taktupgrade und ein Upgrade auf 2x1GiB würde ich bei der aktuellen Lage eher nicht erwarten.

Spasstiger
2007-12-14, 09:41:10
und ein Upgrade auf 2x1GiB würde ich bei der aktuellen Lage eher nicht erwarten.
2*1 GB GDDR4 werden schon zu teuer und ATI hat auch keine Probleme mit dem VRAM. Nehmen wir mal Computerbase-Benchmarks der zwei VRAM-Fresser Crysis (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis) und CMR:Dirt (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/9/#abschnitt_colin_mcrae_dirt) heran und gehen von Einstellungen mit mäßigem VRAM-Bedarf über zu Einstellungen mit hohem VRAM-Bedarf; die Prozentzahlen geben jeweils das absolute Verhältnis der Frameraten an:

Dirt, 1600x1200, noAA, noAF
---
Radeon HD 3870 512 MiB (22 fps)
vs. 8800 GTX 768 MiB: 74% (30 fps)
vs. 8800 GTS 512 MiB: 76% (29 fps)

Dirt, 2560x1600, noAA, noAF
---
Radeon HD 3870 512 MiB (13 fps)
vs. 8800 GTX 768 MiB: 72% (18 fps)
vs. 8800 GTS 512 MiB: 122% (11 fps)

Dirt, 1600x1200, 4xAA, 16:1AF
---
Radeon HD 3870 512 MiB (16 fps)
vs. 8800 GTX 768 MiB: 64% (25 fps)
vs. 8800 GTS 512 MiB: 359% (4 fps)

+++

Crysis, 1600x1200, noAA, noAF
---
Radeon HD 3870 512 MiB (20 fps)
vs. 8800 GTX 768 MiB: 70% (28 fps)
vs. 8800 GTS 512 MiB: 73% (27 fps)

Crysis, 1600x1200, 4xAA, 16:1AF
---
Radeon HD 3870 512 MiB (11 fps)
vs. 8800 GTX 768 MiB: 61% (18 fps)
vs. 8800 GTS 512 MiB: 131% (8 fps)

Crysis, 2560x1600, noAA, noAF
---
Radeon HD 3870 512 MiB (9 fps)
vs. 8800 GTX 768 MiB: 97% (9 fps)
vs. 8800 GTS 512 MiB: 135% (7 fps)

Zwei Radeon HD 3870 512 MiB sollten bei guter Crossfire-Effizienz (Faktor 1,7 bis 1,8) nach diesen Benchmarks die 8800 GTX 768 MiB auch bei sehr VRAM-fordernden Einstellungen schlagen. Eine SLI-Verbund aus zwei 8800 GTS 512 MiB würde hier dagegen alt aussehen und auch einer einzelnen 8800 GTX unterliegen.

Ailuros
2007-12-14, 12:59:51
Zwei Radeon HD 3870 512 MiB sollten bei guter Crossfire-Effizienz (Faktor 1,7 bis 1,8) nach diesen Benchmarks die 8800 GTX 768 MiB auch bei sehr VRAM-fordernden Einstellungen schlagen. Eine SLI-Verbund aus zwei 8800 GTS 512 MiB würde hier dagegen alt aussehen und auch einer einzelnen 8800 GTX unterliegen.

Erstens sind beide Spiele bei weitem nicht spielbar ab 1280*1024. Auf einer 8800GTX sind die beiden natuerlich spielbarer mit AA aber nur zu einem Anteil dank der 768MB Speichermenge. Und nein die beiden Spiele werden auch nicht in 1600 spielbar auf 2*8800GTX@SLi.

Bleiben wir also ausnahmsweise im spielbaren Bereich in DIRT, sollten 2*3870 oder 2*8800GT schon spielbar sein in 1280 mit 4xAA. Wieso jetzt die letztere hier versagen sollte, und die 2*3870 hier Wunder schaffen sollte ist mir ein Raetsel.

Frag Dich ob bei diesen Spielen wo einstellige Frameraten auftreten der VRAM Verbrauch nicht rein zufaellig der einzige Flaschenhals sein koennte; ach ja Crysis in 2560*1600 ROFL :D

N0Thing
2007-12-14, 14:23:26
Also wenn ich das lese wird mit schlecht:


wieso wird Dir da schlecht? Das ist ein ganz normales Cautionary Statement das eine börsennotierte Firma als Warnung an den Investor abliefern muss.
Das Teil in Kurzform wird seid Jahren zu beginn eines jeden Conference Call verlesen. Machen andere Unternehmen übrigens auch so - ist also absolut nix neues.


Die Stellen, die hauptsächlich markiert wurden, listen ja nur die Situationen auf, die unvorhersehbarer Weise auftreten könnten (!) und die bestehende Prognose deshalb nicht erreichbar sein könnte.
Der Text liest sich sowieso wie eine juristische Absicherung, damit man im nächsten Jahr von den Anlegern nicht verklagt werden kann, wenn man die Erwartungen nicht erfüllt hat. Sowas wie einen Ausschluß von höherer Gewalt in einer Versicherung.

Gast hitcher
2007-12-14, 14:33:30
moin zusammen,

vielleicht sind die lächerlichen 20MB eDRAM ja mit 1024Bit angebunden. Könnte mich an die Zahl in Verbindung mit eDRAM noch gut erinnern.
Glaube jedoch kaum, dass man einen 2GHz taktenden Speicher noch mit 1024Bit-Speicherinterface anbinden würde. Man sieht ja jetzt schon, dass es bei der HD2900 komplett überdimensioniert ist. 2GHz @512Bit wären wohl eher denkbar.

MfG,
VivaLaHarry

hat man vielleicht nur vor als schnellen Framebuffer, Z-Buffer und Cache zu verwenden. Und wenn es in den Chip integriert ist, sind 1024 BIT Anbindung doch schon eher realisierbar als auf einem PCB.

Hvoralek
2007-12-14, 18:08:11
Fuer 50% ueber einer GTX braucht man aber zumindest 12 cluster (oder 2*6).Oder 10 Cluster mit höherem Takt.

Ailuros
2007-12-14, 18:32:40
Oder 10 Cluster mit höherem Takt.

~25% hoeherer Takt fuer die ALUs; um ehrlich zu sein erwartete ich eine um einiges agressivere Frequenz fuer G92.

G92 kam wohl nicht nur mit 7 cluster an um besser mit RV670 konkurrieren zu koennen; ich werde das Gefuehl nicht los dass NV ihre originalen Frequenz-ziele fuer G92 nicht erreichen konnte. Sooo besonders ist die ALU-Frequenz auf der G92/GTS nun auch wieder nicht, obwohl es einen gesunden Preisunterschied zur GT gibt.

112@1.5
128@1.625

Ob jetzt 160@=/>1.95GHz wirklich ein Kinderspiel sind unter 65nm?

Alternative:

2*96@1.6

laser114
2007-12-14, 18:39:50
Ähm, hat hier jemand die Titel vertauscht?

Im R700-Thread gehts um neue Nvidia-Karten und im G90-Thread um neue ATI-Karten. Irgendwie kurios. ;)

Hvoralek
2007-12-14, 18:49:12
Ob jetzt 160@=/>1.95GHz wirklich ein Kinderspiel sind unter 65nm?

Alternative:

2*96@1.68800 GTs lassen sich anscheinend selbst mit Referenzkühler meist gut übertakten. Ich sehe nicht, dass die gerade am Limit laufen. 10C @ 750/1900 hielte ich im High- End für vorstellbar.

Deine Alternative wäre aber auch nur auf dem Papier gleich schnell. Um mit einer GX2 in der Praxis die gleiche Leistung zu bringen, bräuchte man auch entweder noch mehr Cluster (D9P hat aber nur 6?) oder höheren Takt.

Ähm, hat hier jemand die Titel vertauscht?

Im R700-Thread gehts um neue Nvidia-Karten und im G90-Thread um neue ATI-Karten. Irgendwie kurios. ;)Wie wäre es mit einem Übersammelthread für alle kommenden Grafikchips zusammen? :D

reunion
2007-12-14, 18:49:35
Die Stellen, die hauptsächlich markiert wurden, listen ja nur die Situationen auf, die unvorhersehbarer Weise auftreten könnten (!) und die bestehende Prognose deshalb nicht erreichbar sein könnte.
Der Text liest sich sowieso wie eine juristische Absicherung, damit man im nächsten Jahr von den Anlegern nicht verklagt werden kann, wenn man die Erwartungen nicht erfüllt hat. Sowas wie einen Ausschluß von höherer Gewalt in einer Versicherung.

Ja danke. Habe es mittlerweile auch schon bemerkt.

Ailuros
2007-12-14, 18:59:39
8800 GTs lassen sich anscheinend selbst mit Referenzkühler meist gut übertakten. Ich sehe nicht, dass die gerade am Limit laufen. 10C @ 750/1900 hielte ich im High- End für vorstellbar.

Damit Du lieferbare 1.9GHz bekommst, laesst sich das Resultat dann auch locker auf ueber 2.1GHz uebertakten. Die Uebertaktungs-Toleranz eines G92 mit ~750M ist keine Indizie fuer einen hypothetischen chip der locker die 1000M Grenze sprengen wuerde. Jeder chip laesst sich normalerweise um X Prozent uebertakten, weil IHVs eine Unmenge an Sicherheitsmassnahmen fuer GPUs anlegen.

Deine Alternative wäre aber auch nur auf dem Papier gleich schnell. Um mit einer GX2 in der Praxis die gleiche Leistung zu bringen, bräuchte man auch entweder noch mehr Cluster (D9P hat aber nur 6?) oder höheren Takt.

Schneller oder langsamer als "R680"; darum duerfte es hauptsaechlich gehen und eben dass NVIDIA die R&D Unkosten in ein potentielleres Projekt investiert hat als einen Mega-Brummer gegen R680 zu setzen.

dargo
2007-12-14, 19:00:48
Fuer 50% ueber einer GTX braucht man aber zumindest 12 cluster (oder 2*6).

Warum denn das? :confused:
Rein rechnerisch sollten selbst 8 Cluster mit 800Mhz reichen. Die Frage ist nur ob man an die 800Mhz rankommt? Oder halt 10 Cluster mit ~700Mhz.

Gast
2007-12-14, 19:03:59
Ähm, hat hier jemand die Titel vertauscht?

Im R700-Thread gehts um neue Nvidia-Karten und im G90-Thread um neue ATI-Karten. Irgendwie kurios. ;)

Meinetwegen hätten sie den ganzen Thread einäschern können, denn nichts davon stimmt mehr so richtig. ;)

und auch die GPUs der ATI-R700-Familie verortet Rivas erst 2009.
http://www.heise.de/newsticker/meldung/100574

Wenn der 1 Jahr später kommt, als der Threadtitel hier suggeriert, dann wärs wohl besser, sich erstmal um die Dinge zu kümmern, die 2008 anstehen. ;)

Gast
2007-12-14, 19:40:45
Warum denn das? :confused:
Rein rechnerisch sollten selbst 8 Cluster mit 800Mhz reichen. Die Frage ist nur ob man an die 800Mhz rankommt? Oder halt 10 Cluster mit ~700Mhz.
Mit reiner erhöhung der ROP/TMU Leistung wirst du eine 8800GTX nicht um
50% übertreffen können. Da brauch es brachial mehr Arithmetische Power.

Ironischerweise kann das der R680/2x3870 zwar theoretisch bringen, aber er kommt nicht auf die Gasse damit.

dargo
2007-12-14, 20:00:52
Da brauch es brachial mehr Arithmetische Power.

Was meinst du damit? :) Sorry, ich kenne mich auf diesen Gebiet nicht so aus.

AnarchX
2007-12-14, 20:07:03
Was meinst du damit? :) Sorry, ich kenne mich auf diesen Gebiet nicht so aus.

Na eben wohl x GFLOPs ( x Milliarden Fließkomma-Operationen pro Sekunde), welche die ALUs erledigen.

Da brauch es für 50% mehr auf dem Papier(777GFLOPs) eben 128SPs@2.02GHz (128*3*2.02).

Aber warum man, dass mit einer entsprechenden GPU bzw. gar G92-Revision Anfang 2008 nicht erreichen sollte, frage ich mich auch.
Immerhin bietet MSI jetzt schon 700GFLOPs(1,825GHz) an und mit LuKü erreichen die G92-GTS meist 2GHz Shadertakt. ;)

dargo
2007-12-14, 20:15:16
Na eben wohl x GFLOPs ( x Milliarden Fließkomma-Operationen pro Sekunde), welche die ALUs erledigen.

Da brauch es für 50% mehr auf dem Papier(777GFLOPs) eben 128SPs@2.02GHZ.

Ja, aber ich habe doch nichts anderes behauptet. Die GFLOPS steigen sowohl mit dem Shadertakt als auch mit dem GPU-Takt. Deswegen sagte ich ja entweder ~800Mhz mit 128SPs (8 Cluster) oder eben ~700Mhz mit 160SPs (10 Cluster), mit entsprechenden Shadertaktraten.


Aber warum man, dass mit einer entsprechenden GPU bzw. gar G92-Revision Anfang 2008 nicht erreichen sollte, frage ich mich auch.
Immerhin bietet MSI jetzt schon 700GFLOPs(1,825GHz) an und mit LuKü erreichen die G92-GTS meist 2GHz Shadertakt. ;)
Eben das frage ich mich auch. Ok, die Verlustleistung dürfte schon die 200W TDP sprengen (bei der oben genannten, möglichen GPU).

Hvoralek
2007-12-14, 20:23:03
Damit Du lieferbare 1.9GHz bekommst, laesst sich das Resultat dann auch locker auf ueber 2.1GHz uebertakten. Die Uebertaktungs-Toleranz eines G92 mit ~750M ist keine Indizie fuer einen hypothetischen chip der locker die 1000M Grenze sprengen wuerde. Jeder chip laesst sich normalerweise um X Prozent uebertakten, weil IHVs eine Unmenge an Sicherheitsmassnahmen fuer GPUs anlegen.Die Toleranzen scheinen bei den bisherigen G92ern vergleichsweise hoch angesetzt zu sein.

Wie kommst Du eigentlich bei einem Chip mit 1/4 mehr Cluster auf locker mehr als 1/3 mehr Transistoren?


Eben das frage ich mich auch. Ok, die Verlustleistung dürfte schon die 200W TDP sprengen (bei der oben genannten, möglichen GPU).200W TDP wird die 3870X2 auch erreichen (und eine GX2 würde wohl auch in dem Bereich liegen), wenn man nicht scharf selektierte Chips verwendet.

Gast
2007-12-15, 05:48:20
Wird ne 3870x2 also die dual graka die im januar kommt als "eine" karte erkannt oder läuft das über cFire?

Ailuros
2007-12-15, 05:59:00
Die Toleranzen scheinen bei den bisherigen G92ern vergleichsweise hoch angesetzt zu sein.

Wie kommst Du eigentlich bei einem Chip mit 1/4 mehr Cluster auf locker mehr als 1/3 mehr Transistoren?

Je hoeher die ALU Frequenzen desto mehr Transistoren kostet es und ich wuerde von einem neuen einzelnen high end chip auch D3D10.1 erwarten.

Und das letztere ist hauptsaechlich der Grund der mich an merkwuerdige Zwischenschieber denken laesst.

reunion
2007-12-15, 10:10:46
Sieht schlecht aus mit AMD:

The reasons behind the delay of ATI R700 are unclear, but are believed to be related to AMD’s intention to cut down the research and development (R&D) expenses. The consequences of the decision may be dramatic, if not fatal, to AMD’s graphics product group, as state-of-the-art graphics technologies not only enable graphics cards that retail for the price as high as $849, but also open the door to video game consoles, which sell in hundreds of millions quantities.

http://www.xbitlabs.com/news/video/display/20071214153406_AMD_Delays_Introduction_of_Next_Generation_ATI_R700_Graphics_Chip s.html

Jetzt muss bei den Entwicklungskosten gespart werden, und das geht in den seltensten Fällen gut. AMD will diese von 1.86Mrd $ in 2007 auf 1.1Mrd $ in 2008 drücken. Damit geschieht leider genau das, was keiner wollte, nämlich dass AMD jetzt ATi auch mit runter zieht.

Gast
2007-12-15, 10:28:49
Damit geschieht leider genau das, was keiner wollte, nämlich dass AMD jetzt ATi auch mit runter zieht.

Damit geschieht genau das, was viele schon zur Übernahme von ATI durch AMD vorhergesagt haben.

dargo
2007-12-15, 10:51:58
Damit geschieht genau das, was viele schon zur Übernahme von ATI durch AMD vorhergesagt haben.
Jepp, dass AMD den Geldhahn zudreht bzw. reduziert wußten vorher schon Einige.

Gast
2007-12-15, 15:01:40
1,86 Mrd NUR für dedizierte Grafikchips... wo verschwindet da das Geld hin. Schaut euch mal an was Nvidia Ausgabe für alles hat...
Kein Wunder das AMD da mal eingreift.

Gast
2007-12-15, 16:58:29
Sind die Entwicklungsgelder nur für die Grafiksparte oder AMD Gesamt? Und btw, ATI gibt es so nicht mehr, es ist nun AMD...

Ein schlechtes Zeichen auch für die Konsolen Hersteller, die Nachfolger der Wii und der Box sind sicher in der Planung, und nun hört man das der Lieferant der GPUs der alten Konsolen mal so eben die R&D um 40% senkt...

reunion
2007-12-15, 17:12:48
Nein, schon AMD gesamt.

Ailuros
2007-12-16, 06:14:02
Damit geschieht genau das, was viele schon zur Übernahme von ATI durch AMD vorhergesagt haben.

Dazu brauchte man auch kein Hellseher sein. Dass AMD insgesamt Probleme haben wird war schon damals klar und ich befuerchte dass wenn es nicht besser wird in vorhersehbarer Zeit einen Anteil der Grafiksparte wieder verkaufen wird und nur noch chipset und Kleinkram behaelt.

So und dann kann NVIDIA uns jeglichen Mist ungestoert unter die Nase reiben und wir sehen bis zu 2010 nur noch unendliche 8800 Varianten. So "toll" war wohl die damalige Entscheidung seitens ATI die Firma zu verkaufen.

Stellt Euch vor Ihr arbeitet bei einem anderen grossen Semikonduktor und wollt X IP oder chips einkaufen; wuerdet Ihr leichten Herzens einen grossen Vertrag abschliessen wenn man nicht mehr sicher ist in welchen Haenden "ATI" morgen landen wird?

Gast
2007-12-16, 11:46:17
Dazu brauchte man auch kein Hellseher sein.

Einfach mal in Ruhe die 2 Threads dazu lesen (ist wirklich witzig, was da manche Leute so von sich geben):

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&t=310606

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&t=310718


Da findet man dann so Vorhersagen wie:


Demnach kann man heute sagen ist NVIDIA langfristig tot! Falls es Ihnen nicht gelingt von Intel gekauft zu werden, das wäre demnach die einige Möglichkeit ab 2008 noch ERFOGREICH zu sein!

Ailuros
2007-12-17, 06:16:40
R700 wurde IMHLO storniert, weil man sehen konnte dass das Ding wieder verspaetet ankommen wuerde; hingegen kann man vorhersehen dass NV wieder mehr oder weniger zeitig antanzt und die Geschichte wiederholt sich wieder. Insgesamt kein Grund also Resourcen zu verschwenden und innerhalb Monaten wieder einen neuen chip zu veroeffentlichen (siehe R520-->R580).

Persoenlich ist mir so eine Loesung lieber, wenn man weiss dass man nicht zeitig ankommen kann.

Und natuerlich wird im Hintergrund schon gefluestert dass AMD schon in Verhandlungen eines moeglichen Weiterverkaufs liegen koennte, aber erstens ist das Zeug hier Fehl am Platz und zweitens sind die bisherigen "Quellen" so unzuverlaessig dass es momentan noch nicht der Rede wert ist. AMD wird natuerlich versuchen so viel Moneten wie moeglich aus der Grafiksparte zu quetschen. Mit dem Kleinkram ala Imageon geht es auch nicht besonders gut, da sowohl PDA/mobile als auch UMPC SoCs schon zu tief unter Entwicklung liegen.

Gast
2007-12-17, 11:37:54
R700 is 2008: No delays

We got a confirmation that R7xx generation is on schedule for 2008 and it won't be shifted to 2009 as many journalist believes. Many journos made the assumption based on Mario Rivas presentation at Investor days and Mario was talking about platforms and showed the slide with R7xx based platform in 2009.

According to current plans R7xx parts in a platform are scheduled for 2009. This doesn’t mean that the discrete products will be late, but at least toady it looks that ATI can delved them on time, at least at some point of 2008.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4762&Itemid=1

Gmax
2007-12-17, 16:50:43
R700 is 2008: No delays



http://www.fudzilla.com/index.php?option=com_content&task=view&id=4762&Itemid=1

Hoffentlich stimmts. Wobei, Ende 08 wäre auch nicht gut.

laser114
2007-12-17, 16:59:03
Ob nun Ende 2008 oder Anfang 2009 macht doch auch keinen Unterschied. AMD scheint inzwischen öffentlich lieber die konserativen Daten zu wählen, demnach Anfang 2009. Wäre zu hoffen das sie zumindest die einhalten können. ;)

reunion
2007-12-17, 17:13:22
Ob nun Ende 2008 oder Anfang 2009 macht doch auch keinen Unterschied. AMD scheint inzwischen öffentlich lieber die konserativen Daten zu wählen, demnach Anfang 2009. Wäre zu hoffen das sie zumindest die einhalten können. ;)

Ruiz sagen ja auf dem Analyst Day u.a. auch dass das primäre Ziel von AMD nun sei Design-Risiken zu minimieren und Produkte rechtzeitig anzubieten.

san.salvador
2007-12-17, 17:15:46
Ruiz sagen ja auf dem Analyst Day u.a. auch dass das primäre Ziel von AMD nun sei Design-Risiken zu minimieren und Produkte rechtzeitig anzubieten.
Klingt wie das Ende der High-End-Sparte.

laser114
2007-12-17, 17:22:35
Klingt wie das Ende der High-End-Sparte.

Na ob das lange gut geht bezweifle ich. Aber zur genaueren Einschätzung muss man wohl erstmal abwarten...

robbitop
2007-12-17, 17:32:00
Glaube ich kaum, dass man die High End Sparte begraben will. Man würde keine X2 im Januar releasen, wenn das so wäre. Außerdem sind die nicht blöd. Ohne High End-sparte fallen die Verkäufe aller Sparten und das weiß ATI.

Ich denke eher, dass Hector damit etwas ähnliches meinte, was NVIDIA seit dem NV30 gelernt hat:
- auf Margen konzentrieren
- auf Nummer sicher Spielen

Bisher nutzte NVIDIA immer einen sehr konservativen Prozess für die High End Chips und man brachte keine Überambitionierten GPUs mehr. Man machte, was sicher ging. Die Strategie ging auf.

MadManniMan
2007-12-17, 17:47:05
Bitterböse Ironie:

Ruiz erhöht sein eigenes Gehalt um 7% - dabei verdient er dann mit 1.124.000 $ im Monat mit Abstand am meisten von allen Halbleiterhersteller CEOs ... :usad:

puntarenas
2007-12-17, 17:49:18
Bitterböse Ironie:

Ruiz erhöht sein eigenes Gehalt um 7% - dabei verdient er dann mit 1.124.000 $ im Monat mit Abstand am meisten von allen Halbleiterhersteller CEOs ... :usad:
Das wage ich zu bezweifeln, erfolgsabhängige Prämienzahlungen dürften anderswo höher ausfallen. Schickes Grundgehalt, aber eine Nullrunde hätte auch zusätzlich für Irritationen sorgen können.

laser114
2007-12-17, 17:52:18
Naja, mit Prämien kommt er auf irgendwas bei 12 Millionen; Ottellini z. B. nur auf 9 Millionen bei ~ 700.000$ Grundgehalt.
Allerdings gibts ja auch noch Aktien und da dürfte Ruiz zur Zeit nicht so gut aussehen.

Aber das ist ein anderes Thema. ;)

Hvoralek
2007-12-17, 23:34:28
Bisher nutzte NVIDIA immer einen sehr konservativen Prozess für die High End Chips und man brachte keine Überambitionierten GPUs mehr. Man machte, was sicher ging. Die Strategie ging auf.Findest Du G80 nicht schon zumindest ambitioniert? Allerdings hat man da keinen riskanten Fertigungsprozess verwendet und das Teil wohl auch deshalb gut stemmen können.

robbitop
2007-12-17, 23:41:11
Findest Du G80 nicht schon zumindest ambitioniert? Allerdings hat man da keinen riskanten Fertigungsprozess verwendet und das Teil wohl auch deshalb gut stemmen können.
Nunja wenn man bedenkt, dass die ALUs erst später ein custom design bekamen, die den hohen Takt ermöglichen, was auch wichtig für den Erfolg des G80 war, nicht mehr all zu sehr. Man hatte dafür angeblich eine ganze Weile Zeit.
Ein sehr sehr gutes Design. Aber dennoch hat es viele Bodenständige Elemente. Allerdings ist G80 partiell nur so schnell, weil ATI R6xx ziemlich daneben war.

Gast
2007-12-18, 08:11:57
Nunja wenn man bedenkt, dass die ALUs erst später ein custom design bekamen, die den hohen Takt ermöglichen, was auch wichtig für den Erfolg des G80 war, nicht mehr all zu sehr. Man hatte dafür angeblich eine ganze Weile Zeit.


Die clock-domains müssen zumindest schon von Anfang an geplant gewesen sein, denn ohne wäre die Shaderleitung von G80 ziemlich unterirdisch.

HOT
2007-12-18, 08:27:12
Bitterböse Ironie:

Ruiz erhöht sein eigenes Gehalt um 7% - dabei verdient er dann mit 1.124.000 $ im Monat mit Abstand am meisten von allen Halbleiterhersteller CEOs ... :usad:
Die Meldung war ne Ente:
http://www.computerbase.de/news/wirtschaft/unternehmen/amd/2007/dezember/amd_ceo_ruiz_gehaltserhoehung/
Da wurd kaum was erhöht (verhältnismässig :D).

robbitop
2007-12-18, 09:24:18
Die clock-domains müssen zumindest schon von Anfang an geplant gewesen sein, denn ohne wäre die Shaderleitung von G80 ziemlich unterirdisch.
Dachte ich mir auch. Allerdings ist das ja auch nicht meine Behauptung sondern verweise ich lediglich auf die Aussage von Ailuros. In der Regel stimmen seine Storys.

AnarchX
2007-12-18, 09:27:01
Unser G80 soll ja eher dem ursprünglichen G90 entsprechen, für Anfang 2006 wäre wohl G80 mit einem weit niedrigen Delta bei der Shaderfrequenz wohl ausreichend gewesen, aber es kam nunmal anders.

robbitop
2007-12-18, 10:17:49
Wo hast du das mit dem G90 denn her? Zumal der Unterschied zw "ursprünglichen" G80 und G90 nicht nur der Shadertakt sein kann.

AnarchX
2007-12-18, 10:19:26
Kam mal in einer Diskussion im B3D auf.

robbitop
2007-12-18, 10:32:00
Nicht alles was bei B3D steht ist wahr. ;)

AnarchX
2007-12-18, 10:41:29
Nicht alles was bei B3D steht ist wahr. ;)

Natürlich, aber wir spekulieren ja hier auch nur.
Wäre aber durchaus passend, wenn man annimmt, dass der G80 schon irgendwann Mitte 2006 antanzen sollten und von mehreren Seiten kam, dass für die hohe Shaderdomain Custom-Transistor dazukamen.
Ein Delta von 100-300MHz wäre wohl auch ohne diese theoretisch möglich gewesen oder?

robbitop
2007-12-18, 10:51:23
G80 sollte Anfang 2006 kommen. Da wurde G71 eingeschoben. Mitte 2006 bis November wäre ja jetzt nicht mehr so die Differenz geworden. Was für Deltas da geplant waren, weiß ich nicht.

DrumDub
2007-12-18, 11:33:38
Ein Delta von 100-300MHz wäre wohl auch ohne diese theoretisch möglich gewesen oder? ich denke schon. wenn man bedenkt, das beim g70 schon die vertexshader höher getaket waren, könnte das sogar ein testlauf gewesen sein für die unterschiedlichen clock domains, die mit dem g80 geplant wurden. siehe: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/juli/wie_g70-chip/

MadManniMan
2007-12-18, 15:12:28
G80 sollte Anfang 2006 kommen. Da wurde G71 eingeschoben. Mitte 2006 bis November wäre ja jetzt nicht mehr so die Differenz geworden. Was für Deltas da geplant waren, weiß ich nicht.

Schon traurig, dass wir zwei Jahre nach dem avisierten Termin immernoch jene Quasi-High-End-Leistung haben ... selbst die Halbwertzeit vom R300 war geringer :|

robbitop
2007-12-18, 15:21:08
Naja der "originale" G80 war ja nicht so stark wieder finale.

MadManniMan
2007-12-18, 15:32:08
Naja der "originale" G80 war ja nicht so stark wieder finale.

Ja, natürlich - für den R300 hab ich aber auch noch den R350 miteinbezogen.

Ich hätte Leistung auf Höhe der GTS für Anfang 2006 durchaus erwartet, die GTX wäre dann Anfang dieses Jahres das Refresh gewesen.