PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RV670 - Radeon HD 2900 Pro im Anmarsch//ohne RV670


Seiten : [1] 2

MadManniMan
2007-05-08, 05:28:03
Fuad erzählt was davon, daß es zur Computex (5. - 9. Juni) bereits Betas vom 8800 GTS 320 MB Konkurrenten (meine Interpretation; eigentlich: preislich gewiß < 250 Ocken, wo sonst) zu sehen geben soll.
So wird etwas von 256bit Interface bei 512 MB gemunkelt, aber ansonsten alles Weitere offen gehalten.


Ich selbst lehne mich mal ganz weit aus dem Fenster und behaupte kühn, daß uns 240 Stream-Prozzis (= 3/4 R600) erwarten, während die beiden Taktdomänen wohl den XT-Geschwistern ganz ähnlich sein sollten.

Es wäre nur konsequent jetzt schnell nachzuholen, was in den letzten Monaten nicht geschafft wurde.

=Floi=
2007-05-08, 06:09:39
entweder eine vollwertige karte oder garkeine

MadManniMan
2007-05-08, 06:17:46
Was willst Du damit sagen?

AMD würde sehr schnell liefern, was wir von nV als 8600 erwartet hatten - ist doch toll!

=Floi=
2007-05-08, 06:26:26
bevor ich mir eine abgespekte karte kaufe, kaufe ich mir garkeine
ICH will nur vollwertige chips

ich gebe zu ich habe auch von der 8600GTS mehr erwartet aber es hat sich eben nicht so ergeben und hauptsache die 8800GTX hat genug power

die HD2900Pro wird sicherlich in der nähe der 8800GTS liegen

Gaestle
2007-05-08, 19:34:05
bevor ich mir eine abgespekte karte kaufe, kaufe ich mir garkeine
ICH will nur vollwertige chips

ich gebe zu ich habe auch von der 8600GTS mehr erwartet aber es hat sich eben nicht so ergeben und hauptsache die 8800GTX hat genug power

die HD2900Pro wird sicherlich in der nähe der 8800GTS liegen



Ich wäre prinzipiell an einer Pro interessiert. Mal sehen was da kommt, wann es kommt und wo es sich platziert.



AMD würde sehr schnell liefern, was wir von nV als 8600 erwartet hatten - ist doch toll!

Hofft man.

Der_Korken
2007-05-08, 20:22:10
bevor ich mir eine abgespekte karte kaufe, kaufe ich mir garkeine
ICH will nur vollwertige chips


Versteh ich nicht, diese Einstellung.

@Topic: Interessant. Vielleicht ein baldiger Nachfolger für meine 8800GTS 320, falls ich die Lust an ihr doch verlieren sollte. Wenn das ein Kracher wie die X1950Pro wird, komm ich da vielleicht doch in Verlegenheit^^

seahawk
2007-05-08, 20:45:39
Das wären doch gute Nachrichten, wenn ATI dann auch den Stromverbrauch, zumindest in 2D im Griff hat, dann wäre das eine tolle Karte. Allerdings bezweifele ich, dass sich diese Karte mit der 8800GTS 320 rumschlagen muss.

Nakai
2007-05-08, 20:47:30
Sie wird etwa auf dem Niveau einer GTS 320 sein, eher darunter. Wenn es Speicherlastig wird, dann gewinnt wohl der RV670.

mfg Nakai

Gast
2007-05-08, 20:49:48
Sie wird etwa auf dem Niveau einer GTS 320 sein, eher darunter. Wenn es Speicherlastig wird, dann gewinnt wohl der RV670.
mfg Nakai

Weil kleine Marsmännchen an roten Hebeln ziehen?
Warum sollte denn ein fiktiver r670 in speicherlästigen Anwendungen schneller sein?

Nakai
2007-05-08, 20:51:01
Weil eine GTS 320 nur 320MB hat?
Der RV670 wird dann schon 512MB haben.

Der Rv670 wird in ein paar Benches die Oberhand gewinnen, jedoch wohl meistens drunter liegen.

mfg Nakai

Gmax
2007-05-08, 21:32:04
Ich glaube fast sie wird so aussehen:

http://666kb.com/i/ao69ncngyxvn8ey7o.jpg

http://666kb.com/i/ao69nsshvly028dkk.jpg

seahawk
2007-05-08, 21:52:18
Zu lang uns zu großer Kühler

Gast
2007-05-08, 21:57:08
Zu lang uns zu großer Kühler

Ein Kühler kann nie groß und lang genug sein.
Dadurch steigt die Kühlleistung an und die Lautstärke lässt sich im Umkehrschluss weiter reduzieren.

Am besten ist es, die ganze Karte mit einer Heatpipe abzudecken und darüber einen Lüfter zu platzieren, welche die Luft in einem Lufttunnel durch zwei Slotbleche nach außen befördert. So stelle ich mir das vor!
Diese mini-Lüfterlösungen haben noch nie was getaugt!

Gmax
2007-05-08, 22:03:39
Zu lang uns zu großer Kühler


Wieso, die aktuellen X1950 Pros sehen dieser relativ ähnlich.

Gast
2007-05-09, 00:19:34
Vorallem sind 250€ ne andere Preisklasse als die -180€ Karten. Und wer jetzt meint von 180 zu 250€ isses nicht mehr weit, der kann auch nochmal ein wenig drauflegen und 300€ für ne GTS640 ausgeben ^^

seahawk
2007-05-09, 07:14:37
Wieso, die aktuellen X1950 Pros sehen dieser relativ ähnlich.

Kein Dualslot, keine Full Coverage der Karte.

AtTheDriveIn
2007-05-13, 08:33:18
Wieso, die aktuellen X1950 Pros sehen dieser relativ ähnlich.

Die Karte sieht meiner x1950pro überhaupt nicht ähnlich, bis auf das rote PCB.

Squall2010
2007-05-13, 10:01:12
Wo ist die den Lang?

Die wird ihre 24cm haben, wie so viele andere Karten.

Länger als ne X1800 oder X1900 ist die mit sicherheit nicht.

Zu lang uns zu großer Kühler

Immer wieder lustig solche sätze.

Ist der Kühler zu gross und zu lang, hat der Hersteller scheisse gebaut.
Dann ist er auf einmal zu Gross und zu Lang.

Ist der Kühler klein, ist er zu Laut und Kühlt scheisse.

Manche Menschen können sich einfach nicht entscheiden.

Am besten die Karte kostet 200€uro, ist 20% schneller als ne 8800GTX und es wird ne Komplette Wasserkühlung mitgeliefert! Aber dann gibt es auch wieder welche denen irgentwas an der Kühlung nicht past:rolleyes:

Headman
2007-05-13, 16:44:17
Wenn man bedenkt das eine 2600 XT mit 800 Mhz nicht mehr als 45 Watt zu schlucken scheint glaube ich nicht das der Rv670 mit vorraussichtlich 50%-100% mehr Recheneinheiten mehr als 80-90 Watt brauchen wird.
Gut möglich das die Karte auf dem Verbrauchsniveau der 1950 Pro liegen wird.

VooDoo7mx
2007-05-19, 16:18:17
X1950Pro 256MB braucht aber ca 65-70W. :rolleyes:

reunion
2007-05-19, 16:22:13
Hier werden schon wieder TDP und reale Verbrauchswerte vermischt. Die TDP der HD2600XT liegt bei 45W laut AMD. Der 65nm Prozess scheint einiges zu bringen, ich glaube auch nicht, dass so ein RV670 wesentlich mehr Strom benötigt als ein RV570.

laser114
2007-05-19, 16:33:00
Hier werden schon wieder TDP und reale Verbrauchswerte vermischt. Die TDP der HD2600XT liegt bei 45W laut AMD. Der 65nm Prozess scheint einiges zu bringen, ich glaube auch nicht, dass so ein RV670 wesentlich mehr Strom benötigt als ein RV570.

Dürfte auch daran liegen, dass die neuen Chips wohl nicht durch hohe Taktraten (inkl. höherer Spannung) den Stromverbrauch ausgestattet werden müssen, um nvidia etwas entgegen zu setzen. Mit dem G84 hat man im Mainstreambereich leistungsmäßig ja auch nicht besonders toll vorgelegt, hier hat AMD wohl mehr erwartet.

OBrian
2007-05-19, 19:25:19
ich glaube auch nicht, dass so ein RV670 wesentlich mehr Strom benötigt als ein RV570.das darf er auch nicht, die angepeilte Käuferschicht ist ja nicht bereit, sich eben zusätzlich noch ein neues NT zu kaufen. Also wird er so zugeschnitten, daß man mit dem Strom hinkommt, optimalerweise ist die Leistung dann auch passend. Wenn nicht, wird die Karte eher zeitlich verschoben (bis die Fertigungstechnik es packt) als verkleinert oder mit mehr Strombedarf losgelassen.

Bei den High-End-Karten ist das was anderes, aber nicht bei den RVxxx.

Radeonator
2007-05-23, 12:39:24
Wenn die Treiber und evtl HW Probleme, so es diese denn gibt, damit behoben sind, ich würde Sie mir kaufen.
Theoretisch ein gutes Stück HW, aber hoffentlich kein Rohrkrepierer...

Sry, aber die wenigsten Gamer besitzen HighEnd, max als upper End User (wie ich).
Da sind starke Mainstream Karten gefragt und es wird auch mal ein neues NT gekauft etc.
Du beziehst dich eher auf die 2600er und 2400er Käuferschicht. Genau wie die x1950Pro, wird die 2900pro
hoffentlich (!!!) eine preisgünstige HighEnd Alternative werden.

AnarchX
2007-07-30, 08:01:18
Wohlmöglich basiert nun die 2900Pro doch nicht auf dem RV670:

"ATI Radeon HD 2900 PRO" = ati2mtag_R600, PCI\VEN_1002&DEV_9403
http://www.chilehardware.com/foro/amd-hd-2900-t106198.html

Zudem will man wissen, dass sie zwischen 8600GTS und 8800GTS 320MB liegt und mit einem Preis von $200 starten wird.

:|

James Ryan
2007-07-30, 08:33:00
Ich denke anfangs verkauft ATi teildefekte R600er, was natürlich für den Verbrauch nicht gerade gut ist.
Würde mich auch wundern wenn jetzt schon der RV670 fertig wäre!

MfG :cool:

AnarchX
2007-07-30, 08:36:42
Würde mich auch wundern wenn jetzt schon der RV670 fertig wäre!

Jetzt soll ja die 2900Pro auch noch nicht gelauncht werden, sondern laut CHW erst im Q4.

Nicht nur der Verbrauch macht mir ehrlich gesagt Sorgen, eher sehe ich das Problem, dass man hier weiter den verbugten R600 einsetzen will und kein repariertes Design.

James Ryan
2007-07-30, 08:45:46
Es muss erst noch bewiesen werden dass der R600 wirklich "kaputt" ist und das man dies mal eben so fixen kann.
Ich befürchte, dass beim R600 alles so ist wie es soll und ATi einfach von einem zu starken G80 überrascht wurde und der R600 nun wie der NV30 enden wird.

MfG :cool:

PapercutGT
2007-07-30, 08:53:10
ich verstehe nicht warum sie keine 850mhz XTs gebracht haben. Dann würde es wenigesten einen ~ GTX gegenspieler geben.

MartinRiggs
2007-07-30, 08:53:18
Hä?
Der R600 ist kein Überflieger aber eine gute 8800GTS-Alternative.
Der NV30 war einfach unterirdisch und ging für gar nix, das ist schon noch ein Unterschied.

Gast
2007-07-30, 08:54:46
verbugten R600 einsetzen will und kein repariertes Design.
Was ist am R600 verbugt?

AnarchX
2007-07-30, 08:59:39
Was ist am R600 verbugt?

Bei ROPs und Speicherinterface ist es offensichtlich, dass es hier Probleme gibt.

Deshalb würde ich es begrüßen, dass die 2900Pro mit einem RV670 daherkommt bei dem dies gefixt wird und dieser mit dem doch gut funktionierenden 256Bit SI der R5xx-Serie wieder ausgestattet wird, da der "fully distributed ringbus" nicht wirklich zu funktionieren scheint.

PCGH_Carsten
2007-07-30, 09:08:31
Bei ROPs und Speicherinterface ist es offensichtlich, dass es hier Probleme gibt.

Deshalb würde ich es begrüßen, dass die 2900Pro mit einem RV670 daherkommt bei dem dies gefixt wird und dieser mit dem doch gut funktionierenden 256Bit SI der R5xx-Serie wieder ausgestattet wird, da der "fully distributed ringbus" nicht wirklich zu funktionieren scheint.
Ich glaube nicht, dass das Problem - wenn es ein Hardware-Problem ist - am SI liegt.

AnarchX
2007-07-30, 09:22:13
Ich glaube nicht, dass das Problem - wenn es ein Hardware-Problem ist - am SI liegt.

Und warum skaliert dann der R600 so schlecht (http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/) mit steigendem Speichertakt?

Gast
2007-07-30, 09:26:25
Und warum skaliert dann der R600 so schlecht (http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/) mit steigendem Speichertakt?

Weil er davon mehr als genug hat. Bis zu ca. 500Mhz Speichertakt verliert er auch kaum Leistung bei weniger Takt.

reunion

Gast
2007-07-30, 09:29:29
Ich befürchte, dass beim R600 alles so ist wie es soll und ATi einfach von einem zu starken G80 überrascht wurde und der R600 nun wie der NV30 enden wird.


Es kann nicht ATis Ziel gewesen sein, dass R600 teilweise vom Vorgänger geschlagen wird. Auch der viel zu starke Einbruch beim MSAA ist ziemlich ungewöhnlich. Nene, da ist IMHO einiges nicht so wie es sein sollte.

reunion

Gast
2007-07-30, 09:33:04
ich verstehe nicht warum sie keine 850mhz XTs gebracht haben. Dann würde es wenigesten einen ~ GTX gegenspieler geben.

Der Stromverbauch war wohl nicht mehr akzeptabel, und ob es wirklich für die GTX gerreicht hätte wage ich auch zu bezweifeln. Dazu ist die Leistung viel zu inkonstant.

reunion

robbitop
2007-07-30, 09:53:13
Hä?
Der R600 ist kein Überflieger aber eine gute 8800GTS-Alternative.
Der NV30 war einfach unterirdisch und ging für gar nix, das ist schon noch ein Unterschied.
Zu seiner Lebenszeit (also abgesehen von 5 laecherlichen SM2 Spielen) war der NV30 nicht so schlecht wie man ihn darstellt. Die 5800Ultra war sogar schneller als die R9700pro beim Launch. Erst als die SM2 Spiele kamen, ging das Design so brutal unter.
Das wird beim R600 zwar nicht passieren, aber das Teil hat pro Transistor und Takt einen geringen Punch und einfach zu viel Leistungsaufnahme (naja der 80HS Prozess ist nunmal durch Leckstroeme geplagt).

James Ryan
2007-07-30, 10:01:35
Der NV30 war einfach unterirdisch und ging für gar nix, das ist schon noch ein Unterschied.

Der NV30 war beim Release durchaus perfomant und in DX8 und OpenGL Spielen sogar einer Radeon 9700 Pro teilweise überlegen.

MfG :cool:

PCGH_Carsten
2007-07-30, 10:15:08
Und warum skaliert dann der R600 so schlecht (http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/) mit steigendem Speichertakt?
Die texturbezogene Rohleistung, also nicht die Shader-FLOPs, liegt 14 Prozent über R580. Die Bandbreite liegt mind. 65 Prozent darüber. Was soll da denn noch bandbreitenlimitiert sein?

Problematisch sind meisten auch die Tests, die dazu durchgeführt werden. MSAA hat auf der R6xx sehr hohe "Einstiegskosten" - höhere Level sind dann aber vergleichsweise günstig, manchmal günstiger als auf dem G80.

MegaManX4
2007-07-30, 10:23:24
Zu seiner Lebenszeit (also abgesehen von 5 laecherlichen SM2 Spielen) war der NV30 nicht so schlecht wie man ihn darstellt. Die 5800Ultra war sogar schneller als die R9700pro beim Launch. Erst als die SM2 Spiele kamen, ging das Design so brutal unter.
Das wird beim R600 zwar nicht passieren, aber das Teil hat pro Transistor und Takt einen geringen Punch und einfach zu viel Leistungsaufnahme (naja der 80HS Prozess ist nunmal durch Leckstroeme geplagt).

Yager z.b. hat damals viele DX8 Shader verwendet für die Zeit. Da war der NV30 nur halb so schnell wie eine 9700Pro.

Gast
2007-07-30, 10:32:52
In DX8 ist ein NV30 genauso schnell wie ein R300.

BlackBirdSR
2007-07-30, 11:21:46
Trotzdem wird (ist) die NV30 in den Geschichtsbüchern als Fehltritt und Flop vermerkt werden. Ganz im Gegenteil zur R300.
Hierbei zählt einfach auch, wie der Großteil der User und die Reviewer die NV30 gesehen haben.

Und ich habe das Gefühl, dass es beim R600 nicht anders sein wird. Die Stimmung wird immer schlechter. Jeder neue Benchmark, und jedes neue Puzzle-Stück DX10 Software bringt immer schlechtere Neuigkeiten.
Jetzt muss ich sehen, dass eine 8600GTS gegen eine R600 in der World of Conflict Beta gewinnt....

Klar, es ist eine Beta, klar die Treiber sind noch relativ frisch. Und es hat sich keiner die Mühe gemacht für R600 zu optimieren. Aber hat das für NV30 jemand gemacht?

Jetzt ist die Zeit in der sich AMDs Image um die R600 bildet. Und es sieht einfach sehr schlecht aus was eben jenes angeht.

Coda
2007-07-30, 11:26:59
ich verstehe nicht warum sie keine 850mhz XTs gebracht haben. Dann würde es wenigesten einen ~ GTX gegenspieler geben.
Stromverbrauch.

Weil er davon mehr als genug hat. Bis zu ca. 500Mhz Speichertakt verliert er auch kaum Leistung bei weniger Takt.
Der "Knick" in den Kurven ist trotzdem sehr verdächtig.

Bokill
2007-07-30, 11:43:42
... Nicht nur der Verbrauch macht mir ehrlich gesagt Sorgen, eher sehe ich das Problem, dass man hier weiter den verbugten R600 einsetzen will und kein repariertes Design. Abgesehen von der Vista-Treiberproblematik und der Ankündigung von der Hardwarebeschleunigung für HD-Videoformate ...

Was soll denn da genau "verbugt" sein?

Ich denke, ATI wurde überrascht von der Leistungsstärke der G80 und ATI hat eine andere Gewichtung in dem Feature-Set gelegt: "Supercomputing mit GPUs (http://www.pcgameshardware.de/?article_id=603747)"

http://www.pcgameshardware.de/screenshots/medium/2007/06/Ati-GPU_vs_Nvidia-GPU_Matrix_simple-precision.JPG
Mal Nvidia vorne

http://www.pcgameshardware.de/screenshots/medium/2007/06/Ati-GPU_vs_Nvidia-GPU_Matrix_double-precision.JPG
Mal ATI vorne

Weil zur Zeit bis sicherlich Weihnachten 2007/2008 jedoch vowiegend Direct-X-9 am Spielemassenmarkt dominieren wird liegt Nvidia eindeutig in Vorhand, zumal die G80 bei Direct-X-10 ja auch nicht wirklich langsam ist.

Ich stimme da voll und ganz BlackBirdSRs Meinung zu. Der R600 wird daher in der Reputation so bewertet werden wie damals der G30, zumal der R600 in meinen Augen viel zu warm und zu viel Strom benötigt. Genaugenommen untergräbt damit AMD sein mühsam aufgebautes Images einer Halbleiterschmiede mit stromgenügsamen Chips und Prozessoren ... und daran wird AMD noch lange daran zu knabbern haben. "Cool Threads" (Sun Slogan zum UltraSPARC T1) sieht da anders aus ...

MFG Bobo(2007)

Gast
2007-07-30, 12:32:24
Zu seiner Lebenszeit (also abgesehen von 5 laecherlichen SM2 Spielen) war der NV30 nicht so schlecht wie man ihn darstellt. Die 5800Ultra war sogar schneller als die R9700pro beim Launch. Erst als die SM2 Spiele kamen, ging das Design so brutal unter.


Es gab auch immer wieder aussetzer bei Spielen die nicht auf SM2 setzten. Die Rohleistung war bei füllratenlimitierten Spielen zwar oft höher, aber der Einbruch mit AF (Stichwort nicht entkoppelte TMUs) und speziell MSAA war teils deutlich höher als auf R300. Aber verbockt hat es NV ohnehin hauptsächlich mit der Lüfter, welcher IMO auch der Hauptgrund für das extrem schlechte Image der Ultra ist. Man hat wohl tatsächlich geglaubt, die Freaks würden auf ein solches Monstrum stehen.

reunion

desert
2007-07-30, 12:49:38
willst jetzt aber nicht fx af gegen r300 af stellen und behaupten das die beiden gleich sind?

PapercutGT
2007-07-30, 13:03:47
Stromverbrauch.





der ist auch so schon untragbar.

robbitop
2007-07-30, 13:42:35
Yager z.b. hat damals viele DX8 Shader verwendet für die Zeit. Da war der NV30 nur halb so schnell wie eine 9700Pro.
Yager hat nicht viele Shader verwendet. Ausserdem konnte der NV30 auf FX12 Basis einige Operationen mehr als R300 pro Takt durchdruecken (pro Pipeline waren ja 2 FX12 Combiner an Board, die splittbar waren).

R300 konnte der enorme Fuellrate des NV30 oftmals nur durch das billige WA-AF standhalten. Nur scherte sich damals niemand um AF-Qualitaet und auch die Levelgeometrie war damals eine andere als heute.

robbitop
2007-07-30, 13:45:54
Es gab auch immer wieder aussetzer bei Spielen die nicht auf SM2 setzten. Die Rohleistung war bei füllratenlimitierten Spielen zwar oft höher, aber der Einbruch mit AF (Stichwort nicht entkoppelte TMUs) und speziell MSAA war teils deutlich höher als auf R300. Aber verbockt hat es NV ohnehin hauptsächlich mit der Lüfter, welcher IMO auch der Hauptgrund für das extrem schlechte Image der Ultra ist. Man hat wohl tatsächlich geglaubt, die Freaks würden auf ein solches Monstrum stehen.

reunion
Stichwort AF-Algoritmus. (siehe oben) TMU Entkopplung wurde hier im Forum sowieso total ueberhyped. Ausserdem litt NV30 noch nicht an dem Rampage Prinzip. Das Phasenprinzip ist in dieser Hinsicht auch recht effizient. Weiterhin waren die Shader damals (2002) laecherlich.

NV30 war ein Fehlschlag. Aber zu seiner Lebenszeit war es keine lahme Kruecke. Ich hatte bis Anfang 2004 eine NV35, die jenseits von Shaderintensiven Spielen verdammt stark war.

Coda
2007-07-30, 13:48:25
der ist auch so schon untragbar.
Damit wäre er aber gut über 200W gelandet, weil man auch noch die Corespannung erhöhen müsste.

Es gab ja Prototypen dieser Karten die Full-Length waren.

deekey777
2007-07-30, 14:36:18
Wohlmöglich basiert nun die 2900Pro doch nicht auf dem RV670:


http://www.chilehardware.com/foro/amd-hd-2900-t106198.html

Zudem will man wissen, dass sie zwischen 8600GTS und 8800GTS 320MB liegt und mit einem Preis von $200 starten wird.

:|
"ATI Radeon X1950 GT" = ati2mtag_R580, PCI\VEN_1002&DEV_7288
"Radeon X1900 Series " = ati2mtag_R580, PCI\VEN_1002&DEV_7249
X1950 = RV570, X1900 = R580
"ATI Radeon HD 2900 XT " = ati2mtag_R600, PCI\VEN_1002&DEV_9400
"ATI Radeon HD 2900 PRO" = ati2mtag_R600, PCI\VEN_1002&DEV_9403

Fällt was auf?
Ein beschnittener R600 als 2900pro? Was soll da überhaupt noch beschnitten werden? Da ist nichts, was man entfernen kann. Entweder ist auf der vermeintlichen 2900Pro ein vollständiger R600 oder ein neuer Chip.

Gast
2007-07-30, 15:09:58
Yager hat nicht viele Shader verwendet. Ausserdem konnte der NV30 auf FX12 Basis einige Operationen mehr als R300 pro Takt durchdruecken (pro Pipeline waren ja 2 FX12 Combiner an Board, die splittbar waren).

Ja, auf dem Papier war er oft stark, in der Praxis bleib davon nur wie so oft nicht viel übrig.


R300 konnte der enorme Fuellrate des NV30 oftmals nur durch das billige WA-AF standhalten.

Auch von der enormen Füllrate bleib trotz erzwungener bri-Filterung (die sicher mehr Füllrate sparte als das AF des R300) meist nicht viel übrig.


Nur scherte sich damals niemand um AF-Qualitaet und auch die Levelgeometrie war damals eine andere als heute.

Du widersprichst dir. Wenn die Levelgeometrie (was damals zweifellos der Fall war) noch größtenteils auf rechten Winkeln basiert, dann ist das AF des R300 kein großer Nachteil, und dadurch auch kein Leistungsvorteil. Außerdem wurde R300 dafür ohnehin meist mit 16xAF gebencht. Man sah ja auch später an R5xx, als die Levelgeometrie schon viel weiter war, dass der Leistungsverlust durch WU-AF lächerlich gering war.

Gast
2007-07-30, 15:13:41
Weiterhin waren die Shader damals (2002) laecherlich.


Mit meinem R300 war ich noch bis 2005 glücklich. Warum wird immer nur von der Zeit ausgegangen, in der die Karte aktuell ist? Viele Leute behalten ihre Karten wesentlich laenger.


NV30 war ein Fehlschlag. Aber zu seiner Lebenszeit war es keine lahme Kruecke. Ich hatte bis Anfang 2004 eine NV35, die jenseits von Shaderintensiven Spielen verdammt stark war.

Er war sicher brauchbar, aber bis auf das AF gab es für den Spieler nicht wirklich eine Grund ihn zu bevorzugen.


reunion

PCGH_Carsten
2007-07-30, 15:24:53
Man sah ja auch später an R5xx, als die Levelgeometrie schon viel weiter war, dass der Leistungsverlust durch WU-AF lächerlich gering war.
"Später" wurde ja nur noch mit Spielen getestet, die nicht mehr so stark an der MT-Füllrate hingen, wie noch 2003/2004 der Fall. Versuch mal einen beliebten Benchmark aus der damaligen Zeit mit WU-AF: UT2003-Antalus-Flyby.

AnarchX
2007-07-30, 15:31:34
X1950 = RV570, X1900 = R580
Fällt was auf?
Oha, sehr verwirrend...


Ein beschnittener R600 als 2900pro? Was soll da überhaupt noch beschnitten werden? Da ist nichts, was man entfernen kann.
Das SI könnte man bestimmt auf 256Bit reduzieren um so beim PCB zu sparen.
Und ich wüsste nicht, warum man nicht auch die Funktionseinheiten deaktivieren können sollte.

seahawk
2007-07-30, 15:49:23
Oder einfach den Takt senken.

MegaManX4
2007-07-30, 15:51:36
Yager hat nicht viele Shader verwendet. Ausserdem konnte der NV30 auf FX12 Basis einige Operationen mehr als R300 pro Takt durchdruecken (pro Pipeline waren ja 2 FX12 Combiner an Board, die splittbar waren).

R300 konnte der enorme Fuellrate des NV30 oftmals nur durch das billige WA-AF standhalten. Nur scherte sich damals niemand um AF-Qualitaet und auch die Levelgeometrie war damals eine andere als heute.

Wie auch immer, Ich erinnere mich da nur an PCGH Benchmarks. Da lief ein NV30 mit Yager gerademal halb so schnell wie mit einem R300. Woran das nun liegt, und ob da FX12 beim NV30 schneller war oder nicht, ist mir da herzlich egal. Ich denke man kann sagen das die R300 damals einfach das bessere Paket hatte.

AnarchX
2007-07-30, 15:53:21
Oder einfach den Takt senken.

Dann wäre es ja aber eine 2900XL. ;)

Odal
2007-07-30, 15:58:56
Dann wäre es ja aber eine 2900XL. ;)

in 65nm :eek:

AnarchX
2007-07-30, 16:17:03
in 65nm :eek:

R600@65nm soll es nicht geben, also würde die 2900XL, deren PCB übrigens vor langer Zeit mal in diversen Folien stand, auf dem R600@80nm basieren.

Wird wohl wie DK777 schon angedeutet hat wohlmöglich doch RV670 sein, dessen Fertigung schon 55nm sein soll.

MegaManX4
2007-07-30, 16:23:40
R600@65nm soll es nicht geben, also würde die 2900XL, deren PCB übrigens vor langer Zeit mal in diversen Folien stand, auf dem R600@80nm basieren.

Wird wohl wie DK777 schon angedeutet hat wohlmöglich doch RV670 sein, dessen Fertigung schon 55nm sein soll.

Fragt sich nur was das Ding dann noch reißen soll. Die 8800GTS 320 dürfte doch dann schwer zu erreichen sein.

AnarchX
2007-07-30, 16:31:13
Fragt sich nur was das Ding dann noch reißen soll. Die 8800GTS 320 dürfte doch dann schwer zu erreichen sein.

Kommt ganz darauf an, was sich hinter dem RV670 genau verbirgt.
16 TMUs, 3 SIMDs a 80SPs, vernünftige ROPs, verbesserter 256Bit Kontroller mit 1GHz+ GDDR4 und 700-800MHz Chiptakt, wäre wohlmöglich leistungs- als auch preismäßig sehr konkurrenzfähig.
Das einzige Problem könnte aber der G92 sein -> ~ höher getaktete 8800GTS mit 256Bit SI.

PCGH_Carsten
2007-07-30, 16:41:37
vernünftige ROPs

Ich glaube nicht, dass AMD wieder einen Schritt zurück gehen wird. Eigentlich kann man schon froh sein, dass nicht auch noch die Blender per Shader ersetzt werden.

Prinzipiell ist das aber der Weg in die Zukunft: Möglichst keine festverdrahteten Einheiten mehr und alles programmierbar halten.

deekey777
2007-07-30, 16:41:50
Fragt sich nur was das Ding dann noch reißen soll. Die 8800GTS 320 dürfte doch dann schwer zu erreichen sein.
Wenn es ein dreifacher RV630 ist, dann werden sich alle darum reißen. :biggrin:

robbitop
2007-07-30, 16:42:16
Ja, auf dem Papier war er oft stark, in der Praxis bleib davon nur wie so oft nicht viel übrig.
Was nichts mit FX12 shadern zu tun hat. Auch war das Teil in damaligen Spielen nicht unterlegen.
Das kam erst mit SM2. Und genau das machte ihn hauptsaechlich zu einem Fehlschlag



Auch von der enormen Füllrate bleib trotz erzwungener bri-Filterung (die sicher mehr Füllrate sparte als das AF des R300) meist nicht viel übrig.
UT2003 (Fuellratenlimitiert) war die 5800U deutlich schneller als die 9700pro (wenn nicht gerade 4xMS aktiv war).



Du widersprichst dir. Wenn die Levelgeometrie (was damals zweifellos der Fall war) noch größtenteils auf rechten Winkeln basiert, dann ist das AF des R300 kein großer Nachteil, und dadurch auch kein Leistungsvorteil. Außerdem wurde R300 dafür ohnehin meist mit 16xAF gebencht. Man sah ja auch später an R5xx, als die Levelgeometrie schon viel weiter war, dass der Leistungsverlust durch WU-AF lächerlich gering war.
Nein ich widerspreche mir nicht. Oftmals fallen gewisse Dinge nicht auf, die trotzdem kosten.
Das R5xx AF ist so kaputt optimiert, dass es flimmert. Das war beim NV30 nicht der Fall. Werden die Optimierungen ausgemacht, bricht auch der R5xx sehr stark ein.

Gutes AF muss kosten, das ist nunmal so. (es sei denn das Design hat ueberdimensionierte Fuellrate)

Mit meinem R300 war ich noch bis 2005 glücklich. Warum wird immer nur von der Zeit ausgegangen, in der die Karte aktuell ist? Viele Leute behalten ihre Karten wesentlich laenger. Du verwechselst Symptom und Ursache.
Der R300 blieb nur so lange jung, weil das NV3x Design in FP Shadern eine Niete war. Da der Marktanteil so gross war, mussten die Programmierer darauf achten.



Er war sicher brauchbar, aber bis auf das AF gab es für den Spieler nicht wirklich eine Grund ihn zu bevorzugen.

Das habe ich weder behauptet, noch ging es darum. (btw SSAA ^^)
Es geht mir nur darum, dass ein NV30 zu seiner Lebenszeit (1,5 - 2 Jahre) nicht so schlecht war, wie ihn viele darstellen.

robbitop
2007-07-30, 16:51:35
Wie auch immer, Ich erinnere mich da nur an PCGH Benchmarks. Da lief ein NV30 mit Yager gerademal halb so schnell wie mit einem R300. Woran das nun liegt, und ob da FX12 beim NV30 schneller war oder nicht, ist mir da herzlich egal. Ich denke man kann sagen das die R300 damals einfach das bessere Paket hatte.
1. Einzelbeispiel (auch habe ich da gegenspruechliche Messungen gemacht)
2. ging es nie darum, dass R300 nicht besser war. NV30 wird jedoch (gerade 2002/2003) schlechter dargestellt als er war.

robbitop
2007-07-30, 16:55:26
Ich glaube nicht, dass AMD wieder einen Schritt zurück gehen wird. Eigentlich kann man schon froh sein, dass nicht auch noch die Blender per Shader ersetzt werden.
Ausser dem downsampling muessen die ROPs ja noch Z und Color Values in den Framebuffer schreiben/lesen. Gerade das ist u.A. eine limitierende Komponente im R600.

Prinzipiell ist das aber der Weg in die Zukunft: Möglichst keine festverdrahteten Einheiten mehr und alles programmierbar halten.
Klar. Teure flexible Rechenwerke mit Aufgaben ueberlasten, die FF mit extrem wenigen Transistoren in einem Takt erledigt werden koennen (z.B. Texturfilterung). Das ist der Weg.

Wixi
2007-07-30, 17:51:37
bin ich hier im richtigen thread? HD2900pro im anmarsch oder kommt der r300 zurück?

seahawk
2007-07-30, 20:58:03
Dann wäre es ja aber eine 2900XL. ;)

Namen sind in dem Geschäft Schall und Rauch. PRO hat auf Grund der 1950PRo und evtl. der 9700PRO einen guten Klang, XL eher weniger. XL klingt nach Aldi-Rechner.

PCGH_Carsten
2007-07-31, 08:55:08
Ausser dem downsampling muessen die ROPs ja noch Z und Color Values in den Framebuffer schreiben/lesen. Gerade das ist u.A. eine limitierende Komponente im R600.
Ja - aber Blender sind nicht dasselbe wie ROPs. Sie sitzen noch in den ROPs. Natürlich weißt du das, aber ich sehe ansonsten keinen Bezug zu dem, was du von mir gequotet hast.

Klar. Teure flexible Rechenwerke mit Aufgaben ueberlasten, die FF mit extrem wenigen Transistoren in einem Takt erledigt werden koennen (z.B. Texturfilterung). Das ist der Weg.
Genau. Freut mich, dass wir übereinstimmen.

Für den Fall, das jemand die Ironie nicht erkannt hat:
Teure, flexible Vertex-Shader anstelle von billigem FF-TnL einzusetzen war auch der Weg. Teure, flexible Pixel-Shader anstelle von billigen Reg-Combinern einzusetzen war auch der Weg.

AMD ist halt nur etwas früh dran dieses Mal - Programmierbarkeit ist der weg in die Zukunft: GPUs machen mehr, als nur Grafik zu berechnen und jede Einheit, die in einem solchen Fall unnütz herumsitzt, weil sie eben nicht flexibel genug ist, ist eine verschwendete Einheit. 100%-Utilization heißt das Zauberwort (dem man sich natürlich nur annähern kann).

Ansonsten sieht's nämlich gegen die Many-Core-CPUs ziemlich finster aus, wenn diese erscheinen.

robbitop
2007-07-31, 09:48:55
Für den Fall, das jemand die Ironie nicht erkannt hat:
Teure, flexible Vertex-Shader anstelle von billigem FF-TnL einzusetzen war auch der Weg. Teure, flexible Pixel-Shader anstelle von billigen Reg-Combinern einzusetzen war auch der Weg.

AMD ist halt nur etwas früh dran dieses Mal - Programmierbarkeit ist der weg in die Zukunft: GPUs machen mehr, als nur Grafik zu berechnen und jede Einheit, die in einem solchen Fall unnütz herumsitzt, weil sie eben nicht flexibel genug ist, ist eine verschwendete Einheit.


Das ist nicht das gleiche. (uebrigens sind Combiner keine FF Einheiten) Denn hier erfolgte eine Entwicklung, die noetig war. Und zwar in Richtung Programmierbarkeit. Viele Dinge muessen jedoch nicht flexibel programmierbar sein. Dazu gehoert Texturfilterung als auch Dinge wie Blending, Z Compares oder stupides Downsampling.

100%-Utilization heißt das Zauberwort (dem man sich natürlich nur annähern kann).
Nicht zu den Kosten. Gewisse Dinge machen aus Kosten/Nutzen Verhaeltnis keinen Sinn. The right tool for the right job.

Ansonsten sieht's nämlich gegen die Many-Core-CPUs ziemlich finster aus, wenn diese erscheinen.
Meinst du Fusion und Cell artige Dinger? Glaub ich kaum. Auf dem Mainboard hast du aus Kostengruenden gar nicht die Bandbreite vorraetig, die fuer ordentliches 3D Rendering benoetigt ist. Ausserdem kosten Dinge wie Texturfilterung einfach zu viele Takte auf normalen ALUs. Nimm dir mal einen Stift und Zettel und schreibe dir eine einfache billige bilineare Interpolation auf. Und dann zaehle die Anzahl von benoetigten Operationen. Und da du ja weisst, wie billig das jede Uraltkarte kann, wirst du sehen, was ich meine.:)

Gast
2007-07-31, 10:19:05
Das ist nicht das gleiche. (uebrigens sind Combiner keine FF Einheiten) Denn hier erfolgte eine Entwicklung, die noetig war. Und zwar in Richtung Programmierbarkeit. Viele Dinge muessen jedoch nicht flexibel programmierbar sein. Dazu gehoert Texturfilterung als auch Dinge wie Blending, Z Compares oder stupides Downsampling.


Es wird aber so kommen, warte ab. Oder glaubst du wirklich ATi hat aus Transistorengründen am resolving gespart? Auch nVidia hat AFAIK vor längerer Zeit ein Patent angemeldet, welches noch wesentlich weiter geht und die ROPs komplett in die Shader integrieren soll. Mal sehen ob ich das noch finde.

reunion

robbitop
2007-07-31, 10:27:33
Es wird aber so kommen, warte ab. Oder glaubst du wirklich ATi hat aus Transistorengründen am resolving gespart? Auch nVidia hat AFAIK vor längerer Zeit ein Patent angemeldet, welches noch wesentlich weiter geht und die ROPs komplett in die Shader integrieren soll. Mal sehen ob ich das noch finde.

Es wird so kommen...weil du es sagst? ;)
Klar werden billige Dinge von den ALUs uebernommen.
Das Resolving ist (wenn du die Flops nachzaehlst) nicht so teuer. Ob das jedoch so geplant war, oder an eventuellen defekten ROPs liegt, vermag keiner zu sagen. Vorteil des Resolvings im Shader sind die neuen CF Modi.

Teure FF Dinge, die so bleiben, wohl eher nicht. Siehe Texturfilterung.

Gast
2007-07-31, 10:51:48
Es wird so kommen...weil du es sagst? ;)

Wir sind doch hier im Speku-Forum, oder nicht? ;)
PCGH_Carsten hat das ja schon sehr gut ausgeführt.


Klar werden billige Dinge von den ALUs uebernommen.
Das Resolving ist (wenn du die Flops nachzaehlst) nicht so teuer. Ob das jedoch so geplant war, oder an eventuellen defekten ROPs liegt, vermag keiner zu sagen. Vorteil des Resolvings im Shader sind die neuen CF Modi.

Teure FF Dinge, die so bleiben, wohl eher nicht. Siehe Texturfilterung.

Natürlich werden zuerst nur simple Dinge in die Shader wandern. Momentan ist es vielleicht noch unvorstellbar, dass Dinge wie die Texturfilter kompliziert berechnet werden, doch die Arithmetikleistung der GPUs wird weiter rasant zunehmen und irgenwann ist das auch nicht mehr der rede wert. FF-Einheiten sind unnötiger Ballast, da sie die Hälfte der Zeit nur Däumchen drehen können. Die Verschmelzung von GPU und CPU wird weiter voranschreiten und irgendwann wird auch für extra TMUs kein Platz mehr sein.

robbitop
2007-07-31, 11:01:08
CPUs und Hochleistungs GPUs werden nie verschmelzen. Bandbreite, Chipgroesse ahoi. Das Mainboard in einem Desktop PC ist fuer sowas nicht gedacht und eher Gebiet der Sparsiaten ;)

Texturleistungsansprueche werden auch weiterhin wachsen. (schau dir mal die Entwicklung der Fuellrate an ... die stieg ebenso rasant wie die Rechenleistung)

Reden wir hier von einem Zeitraum von 10 Jahren? Gut soweit ist eine Schaetzung dessen nur schwer machbar.
Aber in einem absehbaren Zeitraum (fuer IT Verhaeltnisse) wird das nicht geschehen.

Gast
2007-07-31, 11:31:48
CPUs und Hochleistungs GPUs werden nie verschmelzen. Bandbreite, Chipgroesse ahoi. Das Mainboard in einem Desktop PC ist fuer sowas nicht gedacht und eher Gebiet der Sparsiaten ;)


Auch das sehe ich anders. Natürlich nicht in den nächsten paar Jahren, aber langfristig ist das denke ich unvermeidbar. CPUs und GPUs nähern sich immer mehr an, und irgendwann wird es einfach keine Sinn mehr machen, dezidiertes Silizium zu entwicklen.


Texturleistungsansprueche werden auch weiterhin wachsen. (schau dir mal die Entwicklung der Fuellrate an ... die stieg ebenso rasant wie die Rechenleistung)


Nichtmal annähernd. Schon ein NV10 hatte 4 tri-TMUs, ein G80 erreicht 32 tri Samples pro Takt, ein R600 gar nur 8. Klar ist auch der Takt gestiegen, und klar können die Einheiten heute mehr als damals, aber im Vergelich zur arithemtischen Leistung, die bis zum SM1.4 eigentlich noch gar nicht existierte und heute trotz ständig steigender Anforderungen bereits die 500GFLOPs überschitten hat, ist das gart nichts. Und laut Aussagen von nV soll bereits ein G90 das TFLOP sprengen.

PCGH_Carsten
2007-07-31, 11:55:36
Viele Dinge muessen jedoch nicht flexibel programmierbar sein. Dazu gehoert Texturfilterung als auch Dinge wie Blending, Z Compares oder stupides Downsampling.

Wart's ab...

robbitop
2007-07-31, 11:55:49
2xG92 soll 1 TFlop sprengen.

Vieleicht wird das, was du sagst, in 20 Jahren einmal so sein (wenn ueberhaupt). Aber nicht in einem absehbaren Zeitrahmen.


Wart's ab...

Was fuer ein Argument X-D

Gast
2007-07-31, 12:09:14
2xG92 soll 1 TFlop sprengen.


Spielt keine Rolle, da reine Kostenoptimierung. nV wird das Teil ähnlich wie bei der 7950GX2 als eine Karte verkaufen und der nächsten Chip wird sich daran messen müssen.


Vieleicht wird das, was du sagst, in 20 Jahren einmal so sein (wenn ueberhaupt). Aber nicht in einem absehbaren Zeitrahmen.


Vielleicht wird es tatsächlich solange dauern, vielleicht wird es aber auch (was ich glaube) wesentlich schneller gehen.


Was fuer ein Argument X-D

Beweise kannst du ja schlecht einfordern. Man kann nur auf die Vergangenheit verweisen und daraus seine Schlüsse ziehen.

robbitop
2007-07-31, 12:15:45
Spielt keine Rolle, da reine Kostenoptimierung. nV wird das Teil ähnlich wie bei der 7950GX2 als eine Karte verkaufen und der nächsten Chip wird sich daran messen müssen.
Ja aber die Fuellrate wie auch alles skaliert dann mit.



Vielleicht wird es tatsächlich solange dauern, vielleicht wird es aber auch (was ich glaube) wesentlich schneller gehen.
Man braucht sich doch nur ein bisschen die Kostenmodelle anzuschauen. Enthusiast GPUs brauchen (und das wird sich sicher nicht aendern) eine Menge DIE Space und einen riesen Batzen Bandbreite. Wie willst du all das auf Mainstream Mainboards realisieren? Das wuerde niemand zahlen.



Beweise kannst du ja schlecht einfordern. Man kann nur auf die Vergangenheit verweisen und daraus seine Schlüsse ziehen.
Die Vergangenheit zeigte nur, dass aehnliche Dinge zusammengefasst werden und programmierbare noch flexibler wurden. Texturfilterung hingegen wird immer benoetigt werden und aendert sich nicht grossartig. Insofern sehe ich den Punkt hier nicht (in den naechsten Jahren meine ich). Um die Funktion einer TMU (welche extrem billig ist) nachzubilden braeuchte man millionen von Transistoren fuer eine ALU.

In einer langen Zeitspanne wird die ALU Leistung sicher irgendwann so viel wichtiger sein als die TMU Leistung, dass dessen Funktion in die ALU wandern werden wird. Aber sicher nicht in den naechsten Jahren. Darauf wuerde ich mich einigen. ;)

Gaestle
2007-07-31, 12:34:58
Um die Funktion einer TMU (welche extrem billig ist) nachzubilden braeuchte man millionen von Transistoren fuer eine ALU.



frisch aus der Laien-Ecke:

Wen interessieren ein paar hundert mio. Transistoren, wenn der Chip insegsamt bei zwei/drei Milliarden ist?
Vielleicht kann man AF auch flexibilisieren, dass z.B. bis zu einem bestimmten LOD-Grad X-fach AF angewandt wird und bei einem anderen LOD-Grad so Y-Fach AF, innerhalb einer Szene, eines Games? Oder sonst irgendwas abgefahrenes? Vielleicht kann man dann "offene" TMUs bei Arithmetik-lastigen Sachen auch als "Hilfs-Shader-Recheneinheit" verwenden?

Ich denke, Quasar liegt richtig.

StefanV
2007-07-31, 12:48:14
1. Einzelbeispiel (auch habe ich da gegenspruechliche Messungen gemacht)
2. ging es nie darum, dass R300 nicht besser war. NV30 wird jedoch (gerade 2002/2003) schlechter dargestellt als er war.
Nö, eigentlich wird der nur von dir zu gut dargestellt.
Denn wenn man sich die NV30 und nV35 anschaut, dann sieht man eigentlich das es ein 1 Quad Design ist.

Und was war der Konkurent dafür?!
Richtig, die RV350, da können auch beide einigermaßen mithalten, strange, nicht wahr?

Aber so ists halt, wenn man gepannt hat und sein 1 Quad Design mit einem 2 Quad Design irgendwie mithalten muss, da hilft die 2. TMU auch nicht mehr wirklich...

Hauwech
2007-07-31, 12:49:01
frisch aus der Laien-Ecke:

Wen interessieren ein paar hundert mio. Transistoren, wenn der Chip insegsamt bei zwei/drei Milliarden ist?
Vielleicht kann man AF auch flexibilisieren, dass z.B. bis zu einem bestimmten LOD-Grad X-fach AF angewandt wird und bei einem anderen LOD-Grad so Y-Fach AF, innerhalb einer Szene, eines Games? Oder sonst irgendwas abgefahrenes? Vielleicht kann man dann "offene" TMUs bei Arithmetik-lastigen Sachen auch als "Hilfs-Shader-Recheneinheit" verwenden?

Ich denke, Quasar liegt richtig.

Die "paar hundert Mio. Transistoren" interessieren Nvidia und AMD sehr wohl was den Preis pro Chip angeht. Intel mag bezüglich CPUs vielleicht ein wenig anders sein, zumindest waren sie es bei der P4 Linie.

Ich bin auch Laie aber ich denke, das ist eher eine Content- als Technikfrage. Wenn der Content sh1ce ist, nützt imho auch das beste AA/AF nichts mehr.

StefanV
2007-07-31, 12:49:31
Wart's ab...
Ich denke auch, das wir bald 'programmierbare' Texturfilter und ähnliches sehen werden, erhöht (theoretisch) die Bildqualität, die Möglichkeiten der 'Erschaffer' und so weiter.

AnarchX
2007-07-31, 12:51:56
Sicherlich bewegen wir uns dahin, dass die FF-Units langsam in programmierbare Einheiten übergehen.
Nur muss aber auch der Zeitpunkt und die Umsetzung richtig gewählt werden, was imo bei R600 wohl nicht der Fall zu sein scheint und auch wieder die Theorie stärkt, dass es wohl eine Notlösung sein könnte.
Und dass im Enthusiastenbereich es wohl noch länger bei dedizierten GPUs auf eigenen Steckkarten mit entsprechender Bandbreite bleibt, gab ja auch AMD bei der letzen Investorenkonferrenz von sich.

Um das Topic nicht ganz abdriften zu lassen, wäre vielleicht ein Split des "Wie lange noch FF?"-Topics sinnvoll und die Einstellung der R300 vs NV30 Nebendiskussion. ;)

PCGH_Carsten
2007-07-31, 13:02:31
Was fuer ein Argument X-D
Die Argumente habe ich bereits genannt – die wolltest du nicht hören. Wenn du dich weigerst, die Trends der Vergangenheit zu sehen und auf die Zukunft anzuwenden, ist das deine Sache.

Ich habe weder Zeit noch Lust, jetzt zigmal dasselbe zu schreiben, nur um das letzte Wort zu behalten. Da ändert auch dein netter Smiley nichts dran.

Sicherlich bewegen wir uns dahin, dass die FF-Units langsam in programmierbare Einheiten übergehen.
Nur muss aber auch der Zeitpunkt und die Umsetzung richtig gewählt werden, was imo bei R600 wohl nicht der Fall zu sein scheint...
Das habe ich ja auch gesagt.

Gast
2007-07-31, 13:34:36
Vollkommen richtig. Vor allem in Anbetracht der Tatsache, dass wir hier im Spekulationsteil des Forums sind.

Gast
2007-07-31, 13:35:54
Nur muss aber auch der Zeitpunkt und die Umsetzung richtig gewählt werden, was imo bei R600 wohl nicht der Fall zu sein scheint und auch wieder die Theorie stärkt, dass es wohl eine Notlösung sein könnte.


Halte ich für BS. Nur mangels besseren Wissens glaubt jeder, das resolving im Shader wäre Schlud an der mießen MSAA-Leistung. Tatsächlich kann das laut Eric Demers höchsten bei dreistlligen Framraten ev. etwas Leistung kosten, erlaubt allerdings im Gegenzug eine viel besser programmierbares AA. Auch Xmas hat das AFAIK schonmal vorgerechnet. Das macht man nicht mal eben weil die ROPs kaputt sind, sondern das ist ein völlig logischer und nachvollziehbarer Schritt. Das Problem liegt ganz wo anders.

reunion

up¦²
2007-07-31, 13:37:15
R600-Skeptiker, denkt bitte dran, daß der Knoten ja noch platzen könnte mit dem nächsten oder übernächsten Treiber... also abwarten!
Vermutlich ist die pro schon 65nm (TSMC?) und relativ kostengünstig in der Herstellung.
Klingt irgendwie nach ... UFO :biggrin:

robbitop
2007-07-31, 13:40:22
Wen interessieren ein paar hundert mio. Transistoren, wenn der Chip insegsamt bei zwei/drei Milliarden ist?
Vielleicht kann man AF auch flexibilisieren, dass z.B. bis zu einem bestimmten LOD-Grad X-fach AF angewandt wird und bei einem anderen LOD-Grad so Y-Fach AF, innerhalb einer Szene, eines Games?

Warum meinst du, dass es anisotropes Filtern heisst? Lies dir bitte entsprechende Artikel dazu nochmal durch. Sachen wie LOD, und LoA bitte abdecken.

Wen interessieren ein paar hundert mio. Transistoren, wenn der Chip insegsamt bei zwei/drei Milliarden ist?
Weil eine TMU ein bi-sample in einem Takt schafft. Eine heutige skalare ALU braeuchte eine zweistellige Zahl an Takten dafuer. Fuehre mal eine bilineare Interpolation auf dem Papier durch und zaehle die Operationen. Du wirst Augen machen.

Klar vieleicht in langer Zeit, wenn das ALU:Tex sich extrem verschoben hat und wir extrem viele ALUs haben. Aber das ist nicht in absehbarer Zeit der Fall.

robbitop
2007-07-31, 13:45:44
Die Argumente habe ich bereits genannt – die wolltest du nicht hören. Wenn du dich weigerst, die Trends der Vergangenheit zu sehen und auf die Zukunft anzuwenden, ist das deine Sache.
Auf deine Argumente bin ich bereits eingegangen. Du dann widerum nicht auf meine Gegenargumente, big guy ;)

Ausserdem habe ich eingeraeumt, dass es in langer Zeit sicher so kommen koennte, jedoch nicht in "absehbarer" Zeit.

robbitop
2007-07-31, 13:46:57
Nö, eigentlich wird der nur von dir zu gut dargestellt.
Denn wenn man sich die NV30 und nV35 anschaut, dann sieht man eigentlich das es ein 1 Quad Design ist.

Und was war der Konkurent dafür?!
Richtig, die RV350, da können auch beide einigermaßen mithalten, strange, nicht wahr?

Aber so ists halt, wenn man gepannt hat und sein 1 Quad Design mit einem 2 Quad Design irgendwie mithalten muss, da hilft die 2. TMU auch nicht mehr wirklich...
Was genau hat die Anzahl von Quads mit der Endleistung zu tun? (du sprichst btw von SM2)

Gast
2007-07-31, 13:48:49
Ja aber die Fuellrate wie auch alles skaliert dann mit.

Nicht im selben Maße IMO, die ALU-Leistung wird weiter überproportional zulegen. Ich glaube jedenfalls nicht an 64 tri Samples/Takt bei 2xG92.


Man braucht sich doch nur ein bisschen die Kostenmodelle anzuschauen. Enthusiast GPUs brauchen (und das wird sich sicher nicht aendern) eine Menge DIE Space und einen riesen Batzen Bandbreite. Wie willst du all das auf Mainstream Mainboards realisieren? Das wuerde niemand zahlen.


Dass das nicht von heute auf morgen so sein wird, sollte klar sein. Es spricht ja auch nichts dagegen, dass sich Spieler weiterhin eine Zusatzkarte kaufen müssen, nur glaube ich nicht an die dauerhafte Trennung von CPU und GPU.


Die Vergangenheit zeigte nur, dass aehnliche Dinge zusammengefasst werden und programmierbare noch flexibler wurden. Texturfilterung hingegen wird immer benoetigt werden und aendert sich nicht grossartig. Insofern sehe ich den Punkt hier nicht (in den naechsten Jahren meine ich). Um die Funktion einer TMU (welche extrem billig ist) nachzubilden braeuchte man millionen von Transistoren fuer eine ALU.

In einer langen Zeitspanne wird die ALU Leistung sicher irgendwann so viel wichtiger sein als die TMU Leistung, dass dessen Funktion in die ALU wandern werden wird. Aber sicher nicht in den naechsten Jahren. Darauf wuerde ich mich einigen. ;)

TMUs sind nicht flexibel genug und werden irgendwann ganz einfach überflüssig werden und durch programmierbare Einheiten ersetzt. Ähnlich wie bei vielen anderen dezidierten FF-Einheiten in der Vergangenheit.

reunion

PCGH_Carsten
2007-07-31, 13:56:49
Auf deine Argumente bin ich bereits eingegangen. Du dann widerum nicht auf meine Gegenargumente, big guy ;)

Ausserdem habe ich eingeraeumt, dass es in langer Zeit sicher so kommen koennte, jedoch nicht in "absehbarer" Zeit.
Einen Zeitrahmen habe ich bereits vorgegeben, innerhalb dessen ich weitere Flexibilisierung für möglich halte.

Deine Argumente sind btw. nicht sehr stichhaltig. Bei bisher jedem Schritt der Programmierbarkeit einzelner Einheiten wurde zunächst kaum die Performance von FF-Einheiten in einem vergleichbaren Chip erreicht. Davon ausgehend zu argumentieren, dass sowas Transistor-Verschwendung sei, zeugt von wenig Weitblick. Ich dachte eigentlich, diese Zusammenhänge wären dir bekannt, sodass ich sie nicht weiter erläutern müsste.

Gaestle
2007-07-31, 14:26:57
Warum meinst du, dass es anisotropes Filtern heisst? Lies dir bitte entsprechende Artikel dazu nochmal durch. Sachen wie LOD, und LoA bitte abdecken.


Weil eine TMU ein bi-sample in einem Takt schafft. Eine heutige skalare ALU braeuchte eine zweistellige Zahl an Takten dafuer. Fuehre mal eine bilineare Interpolation auf dem Papier durch und zaehle die Operationen. Du wirst Augen machen.

Klar vieleicht in langer Zeit, wenn das ALU:Tex sich extrem verschoben hat und wir extrem viele ALUs haben. Aber das ist nicht in absehbarer Zeit der Fall.

Na das war ja jetzt die ganz große Fachwissen-Keule.

Nichts desto trotz könnte es doch möglich sein, dass sich das AF bzw. adäquate Technologien weiterentwickelt. Dafür wiederum sind flexiblere Einheiten möglicherweise doch ganz nützlich. Was weiß ich denn? Mein Job liegt in einem anderen Bereich (in den mir auch permanent Laien reinquatschen ;) ) .

Es scheint sich aber abzuzeichnen, dass ATis-Design-Entscheidung kein heiß gestrickter "BUG-Workaround" war, sondern eine bewusste Entscheidung. Die werden sich schon was dabei gedacht haben. Quasars Erklärung dazu klingt für mich logisch. Ich finde, dass Deine Erklärungen zu stark vom JETZT und HIER ausgehen und die Dynamik von Entwicklungen im Hard- und Softwarebereich zu sehr vernachlässigen. Aber das ist ja auch Quasars Rede. Als vor 6 Jahren die GF3 rauskam, gab es sicher auch Widerstände, einen 700Mio-Chip mit dieser Flexibilität für 5 Jahre in die Zukunft zu denken.

robbitop
2007-07-31, 15:21:36
TMUs sind nicht flexibel genug und werden irgendwann ganz einfach überflüssig werden und durch programmierbare Einheiten ersetzt. Ähnlich wie bei vielen anderen dezidierten FF-Einheiten in der Vergangenheit.

reunion
Warum sind sie nicht flexibel genug?

robbitop
2007-07-31, 15:27:03
Einen Zeitrahmen habe ich bereits vorgegeben, innerhalb dessen ich weitere Flexibilisierung für möglich halte.
Den habe ich ueberlesen.

Deine Argumente sind btw. nicht sehr stichhaltig. Bei bisher jedem Schritt der Programmierbarkeit einzelner Einheiten wurde zunächst kaum die Performance von FF-Einheiten in einem vergleichbaren Chip erreicht.
Was auch nicht schlimm war, da diese Dinge bis dato nie limitierten. Das wird irgendwann auch mit Texturfilterung der Fall sein. Aber m.E. nicht all zu bald.
Man koennte es sicher abschaetzen, wenn man nach Moores Law geht, was die Transistoranzahl der naechsten Jahre angeht, wenn man anhand der Vergangenheit schaetzt, wie viel hoeher der Aritmetikbedarf in Zukunft wird und anhand dessen wieviele Ops ein Bi Sample kostet.

Davon ausgehend zu argumentieren, dass sowas Transistor-Verschwendung sei, zeugt von wenig Weitblick. Ich dachte eigentlich, diese Zusammenhänge wären dir bekannt, sodass ich sie nicht weiter erläutern müsste.
Weitblick ist eine Frage des Zeitraumes. Fuer heute und fuer die naechste Zeit ist die beste Variante, TMUs zu verbauen. Fuer die etw fernere Zukunft mag es sein, dass dieser Schritt geschieht.
Es ist eine Frage der Relation, wieviele Recheneinheiten dazu kommen und wie hoch der Bedarf an Fuellrate sein wird. Noch ist es nicht abzusehen, dass das Verhaeltnis so rasch kippen wird.

robbitop
2007-07-31, 15:33:56
Na das war ja jetzt die ganz große Fachwissen-Keule.

Sorry. :(
Aber die Artikel sind wirklich lesenswert und einleuchtend.

Nichts desto trotz könnte es doch möglich sein, dass sich das AF bzw. adäquate Technologien weiterentwickelt.
Filterung basierend auf linearer Interpolation sind schon ganz gut fuer ihren Zweck. Es gibt sicher noch bessere Methoden, die dann aber deutlich mehr Takte fressen.

Es scheint sich aber abzuzeichnen, dass ATis-Design-Entscheidung kein heiß gestrickter "BUG-Workaround" war, sondern eine bewusste Entscheidung. Die werden sich schon was dabei gedacht haben.
Ich vermute, es ist eine Mischung aus beidem. Wie das Tex:ALU verhaeltnis zeigt, hat ATI sich mitunter aber auch noch etwas verschaetzt.

Quasars Erklärung dazu klingt für mich logisch. Ich finde, dass Deine Erklärungen zu stark vom JETZT und HIER ausgehen
Eben. Quasar hat im Prinzip recht. Es wird langfristig kommen. Aber man darf nicht den Fehler machen und Dinge uebereilen. (Resultatansaetze kennt jeder NV30 und R600 Besitzer)

Aber das ist ja auch Quasars Rede. Als vor 6 Jahren die GF3 rauskam, gab es sicher auch Widerstände, einen 700Mio-Chip mit dieser Flexibilität für 5 Jahre in die Zukunft zu denken.
So lange Texturfilterung noch (relativ zum Aritmetikbedarf) einen so grossen Bedarf hat, aendert sich das nicht.

PCGH_Carsten
2007-07-31, 16:12:10
Es wird langfristig kommen. Aber man darf nicht den Fehler machen und Dinge uebereilen. (Resultatansaetze kennt jeder NV30 und R600 Besitzer)
Sag' ich doch auch die ganze Zeit:


AMD ist halt nur etwas früh dran dieses Mal - Programmierbarkeit ist der weg in die Zukunft:[…]
Ansonsten sieht's nämlich gegen die Many-Core-CPUs ziemlich finster aus, wenn diese erscheinen.
Und drunter ist auch gleich der Zeitrahmen, bis wann es m.E. weitergegangen sein muss mit der Programmierbarkeit. Cell meine ich damit noch nicht - eher in Richtung Serien-Polaris.

seahawk
2007-07-31, 17:02:05
Gut, aber auch Polaris muss beweisen, dass er mit weniger Aufwand mehr lesiten kann, als ein Chip mit programmierbaren und FF Einheiten. Bei vergliechbaren Transistorbudget hat man dann nämlich Wahl einer hohen Nummer gleicher Einheiten oder einer Mischung aus komplexen und einfachen Einheiten. Auf Dauer sind sicherlich die vielen flexibelen Einheiten die Zukunft, aber ich bin mir nicht sicher wann dies wirklich der Fall sein wird.

robbitop
2007-07-31, 17:04:48
Sag' ich doch auch die ganze Zeit:


Und drunter ist auch gleich der Zeitrahmen, bis wann es m.E. weitergegangen sein muss mit der Programmierbarkeit. Cell meine ich damit noch nicht - eher in Richtung Serien-Polaris.
Ok. Dann habe ich dich lediglich falsch verstanden. Mea culpa. :)

Gaestle
2007-07-31, 17:11:02
Na dann hätten sich ja alle wieder lieb. Wo ist eigentlich das "Bier-anstoß-Smiley" geblieben?

Hier ein Fremdimport:
http://www.ortskontrollfahrt.de/images/smilies/bier.gif

deekey777
2007-08-02, 13:20:59
http://www.nordichardware.com/news,6654.html
Die Aussage, dass der RV670 bloß ein Shrink ist, ergibt irgendwie keinen Sinn.

AnarchX
2007-08-02, 13:23:40
http://www.nordichardware.com/news,6654.html
Die Aussage, dass der RV670 bloß ein Shrink ist, ergibt irgendwie keinen Sinn.
a better proportion between shader processors and TMUs and ROPs

Ich würde auf RV630 x 2 tippen: 16 TMUs und 240SPs. Weshalb man ihn vielleicht teilweise als "R600-Shrink" ansieht.

up¦²
2007-08-02, 14:02:51
Die 2900pro sieht eher aus wie Restverwertung/Lückenbüßer... auser preis, nicht heiß...
Erst die 2950pro wird scheinbar wieder interessant! (1Q/08)
AMD official data showed it (2900pro, R.) used 80nm process and the price is about 200$. AMD has announced that the RV670 chip used 55nm process will come in Q1, 2008 and the graphic card used RV670 was named Radeon HD 2950 Pro now.

http://www.hardspell.com/english/doc/showcont.asp?news_id=1142

w0mbat
2007-08-02, 15:35:21
@up¦²: Das ist witzig. Hardspell sagt also in ihrem Artikel, der am 2. August 2007 geschrieben wurde, das im 1. Quartal 2008 eine HD2950 Pro auf Basis des RV670 in 55nm kommen wird.

Fudzilla schreibt am 11. Mai 2007 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=948&Itemid=34):

[...]ATI will introduce RV670 the Radeon HD 2950 PRO[...]


Damals zwar noch mir mehreren Falschmeldungen vermischt (z.B. RV670 im Q3 & HD2950 XTX aka R650), aber Fudzilla hatte recht.

Am 11. Juli 2007 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1881&Itemid=34) (ja, die Infos zum RV670 kommen wohl immer zum 11. ;D) schrieb Fudo:

AMD sales machine is telling everyone that they will have a 55 nanometre version of RV670 chip ready in Q4 but we can confirm that this chip is going to slip in next quarter.


Jetzt hat Fudzilla den Fertigungsprozess (55nm) und den Launch bekannt gegeben. Auch wenn damals ATI noch vom 4. Quartal 2007 redet schreibt Fudo das der RV670 aka HD2950 Pro ins 1. Quartal 2008 rutschen wird.

Wie man sieht hatte man die Infos, die Hardspell jetzt als neu verkauft, schon vor mehreren Monaten. Nur eben umwurschtelt von Falschmeldungen und dem üblichen Fudzilla Slang. Und da sage noch einer Fudzilla würde falsch liegen :)

deekey777
2007-08-02, 16:08:24
Ich würde auf RV630 x 2 tippen: 16 TMUs und 240SPs. Weshalb man ihn vielleicht teilweise als "R600-Shrink" ansieht.
Das wären weiterhin nur vier TAUs und nur zwei RBEs. Ein dreifacher RV630 (Analogie RV530 <-> RV570) würde mehr Sinn ergeben.

AnarchX
2007-08-02, 16:16:15
Das wären weiterhin nur vier TAUs und nur zwei RBEs.
Naja, RBEs könnte man ja auch noch auf vier erhöhen.


Ein dreifacher RV630 (Analogie RV530 <-> RV570) würde mehr Sinn ergeben.
Und R680 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5709748#post5709748) ist dann ein vierfacher RV630? ;)

Mit 55nm sollte man diese Transitormonster eigentlich auf vernünftige Die-Sizes bekommen.

Aber wie Ailuros schon oft angedeutet hat, wäre es wohl klüger mehr Manpower in R7xx zu investieren, als noch ins suboptimale R6xx-Design.

up¦²
2007-08-02, 18:09:46
w0mbat,
Hardspell mit Futzi zu vergleichen, grenzt ja an Beleidigung... :biggrin:
BTW, Kleiner Spaß.... (http://www.hardspell.com/english/doc/showcont.asp?news_id=1068)

Headman
2007-08-02, 18:45:58
Ist eigentlich gar nicht mal so unrealistisch das der Rv670 ein leicht überarbeiteter R600 in 55 nm mit 256 Bit Speicherinterface wird.
Natürlich wär es für Ati billiger wenn man nur einen 2/3 oder 3/4 R600 bringen würde, aber was soll so ein Chip noch gegen einen (wahrscheinlich) starken G92 ausrichten?
Die Size wäre mit 55nm auch nicht mehr so groß.

deekey777
2007-08-02, 18:50:48
Ist eigentlich gar nicht mal so unrealistisch das der Rv670 ein leicht überarbeiteter R600 in 55 nm mit 256 Bit Speicherinterface wird.
Natürlich wär es für Ati billiger wenn man nur einen 2/3 oder 3/4 R600 bringen würde, aber was soll so ein Chip noch gegen einen (wahrscheinlich) starken G92 ausrichten?
Die Size wäre mit 55nm auch nicht mehr so groß.
Der R600 hat einiges vom Xenos geerbt und zwar seine schlechte Skalierbarkeit. Man kann bei ihm nicht einfach ein Viertel wegrationalisieren (oder dazu addieren?). Wenn es einen RV670 geben wird, dann entweder als geschrinkten R600 oder einen x-fachen RV630.

AnarchX
2007-08-02, 19:03:55
Der R600 hat einiges vom Xenos geerbt und zwar seine schlechte Skalierbarkeit. Man kann bei ihm nicht einfach ein Viertel wegrationalisieren (oder dazu addieren?). Wenn es einen RV670 geben wird, dann entweder als geschrinkten R600 oder einen x-fachen RV630.

Sicher? Wenn ich ich mir die bisherigen R6xx Chips anschaue, sehe ich jedenfalls Angriffspunkte wo man skalieren könnte:
-Shader-SIMDs, so könnte man beim "RV670" nur drei anstatt der vier beim R600 verbauen
-Die TU-Anzahl scheinen auch recht skalierbar zu sein, genauso wie die RBEs

Oder wollen dass die Blockschaltbilder einem nur vorgauckeln und in der Realität sieht es dann nicht so schön mehr aus?

Gast
2007-08-02, 19:13:34
Der R600 hat einiges vom Xenos geerbt und zwar seine schlechte Skalierbarkeit. Man kann bei ihm nicht einfach ein Viertel wegrationalisieren (oder dazu addieren?). Wenn es einen RV670 geben wird, dann entweder als geschrinkten R600 oder einen x-fachen RV630.

Wie kommst du denn darauf? Die bisherigen R6xx-Chips beweisen genau das Gegenteil. Sowohl ALU-, TMU-, als auch ROP-Anzahl scheine sich völlig unabhängig voneinander skalieren zu lassen.

reunion

Gast
2007-08-02, 19:31:45
Der R600 hat einiges vom Xenos geerbt und zwar seine schlechte Skalierbarkeit. Man kann bei ihm nicht einfach ein Viertel wegrationalisieren (oder dazu addieren?). Wenn es einen RV670 geben wird, dann entweder als geschrinkten R600 oder einen x-fachen RV630.

Hm, mal schauen.

RV610 beweist: ROPs können geviertel werden, Quad-TMUs können geviertel werden, Speicherinterface und ALUs können geachtelt werden, 2-Level-Cache und separate Textur und Vertex-Cache sind nicht zwingend.

RV630 beweist: ROPs können geviertelt werden, Quad-TMUs können halbiert werden, Speicherinterface kann geviertel werden, ALUs können asymmetrisch/in zwei Dimensionen verringert werden.

Wo liegt das Problem deiner Meinung nach?

Hvoralek
2007-08-02, 20:30:43
Nichtmal annähernd. Schon ein NV10 hatte 4 tri-TMUs, ein G80 erreicht 32 tri Samples pro Takt, ein R600 gar nur 8. Klar ist auch der Takt gestiegen, und klar können die Einheiten heute mehr als damals, aber im Vergelich zur arithemtischen Leistung, die bis zum SM1.4 eigentlich noch gar nicht existierte und heute trotz ständig steigender Anforderungen bereits die 500GFLOPs überschitten hat, ist das gart nichts. Und laut Aussagen von nV soll bereits ein G90 das TFLOP sprengen.Nehmen wir als Vergleich mal R300 als erste GPU mit nennenswerter FP- Arithmetikleistung. Die 9700 Pro hatte 8 * 325 / 2 = 1300 MTexel Trifüllrate und 8 * 0,325 * 12 = 31,2 GFLOPS Arithmetikleistung. Bei einer 8800 GTX hat man 18,4 GTexel, also gut die 14- fache Füllrate, und 518,4 GFLOPS (bzw. 345,6, wenn man das zweite MUL nicht mitzählt), also etwa die 16,6- fache (bzw. 11- fache) Arithmetikleistung. Bezogen auf R600 sehe das zwar noch etwas anders aus, aber es ist nicht so, dass in den letzten Jahren das Verhältnis von Arithmetik- zu Texturleistung gerade explodiert wäre.

RV610 beweist: ROPs können geviertel werden, Quad-TMUs können geviertel werden, Speicherinterface und ALUs können geachtelt werden, 2-Level-Cache und separate Textur und Vertex-Cache sind nicht zwingend.

RV630 beweist: ROPs können geviertelt werden, Quad-TMUs können halbiert werden, Speicherinterface kann geviertel werden, ALUs können asymmetrisch/in zwei Dimensionen verringert werden.

Wo liegt das Problem deiner Meinung nach?Ich habe auch den Eindruck, dass R6xx die bisher flexibelste Architektur ist. Ich würde z.B. nicht darauf wetten, dass man bei G8x auch die Anzahl an TMUs und SPs unabhängig voneinander variieren kann.

Naja gut, der Tessalator scheint praktisch nicht entfernbar zu sein :biggrin:

deekey777
2007-08-02, 20:38:19
Hm, mal schauen.

RV610 beweist: ROPs können geviertel werden, Quad-TMUs können geviertel werden, Speicherinterface und ALUs können geachtelt werden, 2-Level-Cache und separate Textur und Vertex-Cache sind nicht zwingend.

RV630 beweist: ROPs können geviertelt werden, Quad-TMUs können halbiert werden, Speicherinterface kann geviertel werden, ALUs können asymmetrisch/in zwei Dimensionen verringert werden.

Wo liegt das Problem deiner Meinung nach?
RV610 und RV630 sind eigenständige Chips. Dagegen sieht man beim G80GTX->G80GTS->G84->G86 eine "Skalierbarkeitskette": Man schneidet einfach eine Einheit nach der anderen - horizontal, wenn man's so will.
Es ging aber um den R600: Du kannst beim R600 nichts einfachso deaktivieren wie beim G80. Darum schrieb ich: entweder ein geshrinkter R600 oder ein mehrfacher RV630. Natürlich wäre denkbar, dass einfach ein Shadercluster deaktiviert wird (sprich 3 Shadercluster, aber das wäre der falsche Weg, insbesondere wenn Shader zusätzlich für Downsampling zuständig sind, andererseits ist die Shaderpower aktuell immernoch nicht so wichtig, wie es ATi seit dem R580 tut; kann der R600 mehrere Threadtypen pro Shadercluster verwalten?).

robbitop
2007-08-02, 20:48:09
Wieso kann man den R6xx nicht skalieren? Nach RBEs, Quad TMUs und ALUs (sowie SIMD Anzahl als auch SIMD Tiefe) kann relativ einfach skaliert werden. R600 ist eine Architektur die auf flexible Skalierung ausgelegt ist. (zumindest betonte Eric das im Interview und Dave Bauman das in der Telefonkonferenz)

Beim G8x muss man TMUs und ALUs abhaengig skalieren, wenn man die ganze Handarbeit an den Gates nicht in Gefahr bringen will.

reunion
2007-08-02, 20:49:22
RV610 und RV630 sind eigenständige Chips.


Die alle auf R600 basieren.


Es ging aber um den R600: Du kannst beim R600 nichts einfachso deaktivieren wie beim G80.

Steht wo? Bereits bei R300 konnte man "etwas" einfach so deaktivieren wie bei G80. Es gab sowohl Chips mit teil-deaktiviertem SI, als auch Chips mit deaktivierten Quad. G80 ist in dieser Hinsicht alles andere als flexibel, da sogar die Crossbar zwischen ROPs und MC eingespart wurde.

Gast
2007-08-02, 20:49:32
Es ging aber um den R600: Du kannst beim R600 nichts einfachso deaktivieren wie beim G80.
Dass du das geschrieben hast, haben wir gesehen. Allein: Wie kommst du darauf? Man konnte ja auch problemlos ein viertes SIMD an Xenos anflanschen.

Gast
2007-08-03, 08:57:00
R670 has two RV670 on a PCB: http://www.fudzilla.com/index.php?option=com_content&task=view&id=2277&Itemid=1

AnarchX
2007-08-03, 09:10:43
R670 has two RV670 on a PCB: http://www.fudzilla.com/index.php?option=com_content&task=view&id=2277&Itemid=1

Das war ja abzusehen, der Codenamen hat es ja schon in gewisser Weise vermuten lassen.
Hoffentlich bastelt ATi aber dann für die X2X eine eigene PCIe-Bridge und ist nicht wieder auf teueren Zukauf angewiesen.

w0mbat
2007-08-03, 13:08:59
single RV670 = HD2950 Pro
dual RV670 = HD2950 X2X

??

Mal sehen. Wenn der RV670 wirklich richtig gut wird könnte das eine hammer Karte werden.

up¦²
2007-08-03, 14:18:13
Das war ja abzusehen, der Codenamen hat es ja schon in gewisser Weise vermuten lassen.
Hoffentlich bastelt ATi aber dann für die X2X eine eigene PCIe-Bridge und ist nicht wieder auf teueren Zukauf angewiesen.

Oder sie haben eine PCIe-Bridge ganz einfach im RD790 integriert? :wink:
http://m1.freeshare.us/164fs294362.jpg

StefanV
2007-08-03, 14:36:28
∆@uphoch2
Du solltest dir mal 'ne neue Straßenkarte zulegen, die wo du gepostet hast, ist völlig veraltet!!

Den RX790 und RS790 gibts z.B. nicht, heißt jetzt RX780 und RS780...

up¦²
2007-08-03, 14:45:16
∆@uphoch2
Du solltest dir mal 'ne neue Straßenkarte zulegen, die wo du gepostet hast, ist völlig veraltet!!

Den RX790 und RS790 gibts z.B. nicht, heißt jetzt RX780 und RS780...
Komisch, hier ist er nch da :rolleyes:
Early pictures of the AMD RD790 board (http://www.ocworkbench.com/2007/ati/amd_rd790/p1.htm)
aber egal wie er heißt. ein Chipset mit CF wird sowieso kommen...
Würde auch in das R700-Konzept passen, die GPU z.B auch wieder direkt auf das Mobo zu pflastern... abwarten!

PS:
für Stefan ex-P:
was'n das?
mein nächstes Mobo: Gigabyte GA-M790-DQ6 (http://my.ocworkbench.com/bbs/showthread.php?t=65529):biggrin:

AnarchX
2007-08-03, 14:55:58
Oder sie haben eine PCIe-Bridge ganz einfach im RD790 integriert? :wink:


Schränkt dann aber den möglichen Nutzerkreis erheblich ein. ;)

up¦²
2007-08-03, 15:02:28
Schränkt dann aber den möglichen Nutzerkreis erheblich ein. ;)
Allerdings - und das reimt sich ja mit den Gerüchten zum QC, der ja angeblich momentan nur mit AMD-Chipsets (problemlos/optimal?) laufen soll...
AMD plant scheinbar den Eigenweg(Totalpaket-satz für PC/Ntebooks), ähnlich dem "Centrino-Konzept" von weilen Intel :wink:

AnarchX
2007-08-03, 17:25:11
Allerdings - und das reimt sich ja mit den Gerüchten zum QC, der ja angeblich momentan nur mit AMD-Chipsets (problemlos/optimal?) laufen soll...
AMD plant scheinbar den Eigenweg(Totalpaket-satz für PC/Ntebooks), ähnlich dem "Centrino-Konzept" von weilen Intel :wink:

Das bezweifele ich doch sehr...

AnarchX
2007-08-03, 17:42:12
kann der R600 mehrere Threadtypen pro Shadercluster verwalten?).

Offensichtlich nicht:

Coming back to the R6 family, Richard made note of various current properties of their shipping hardware range. Notes like L2 cache sizes for the GPUs (256KiB on R600, half that on RV630 and no L2 texel cache on RV610), that each SIMD can only run one program type per clock group,[...]
http://www.beyond3d.com/content/articles/89/2

btw.
http://img457.imageshack.us/img457/3503/r600promf9.jpg
:uponder:
Quelle (http://forum.beyond3d.com/showpost.php?p=1043811&postcount=22)

reunion
2007-08-03, 18:45:32
Offensichtlich nicht:


http://www.beyond3d.com/content/articles/89/2

btw.
http://img457.imageshack.us/img457/3503/r600promf9.jpg
:uponder:
Quelle (http://forum.beyond3d.com/showpost.php?p=1043811&postcount=22)

Wow, mal was ganz was neues. 256-bit SI, 8 ROPs, volle 16 TMUs, und 160 ALUs. Beweist einmal mehr die enorme Flexibilität der R6xx-Architektur. Man wird sehen müssen, wie sehr die deaktivierten Einheiten fehlen werden.

Nakai
2007-08-03, 19:12:26
Beweist einmal mehr die enorme Flexibilität der R6xx-Architektur. Man wird sehen müssen, wie sehr die deaktivierten Einheiten fehlen werden.

Naja es ist eben der RV570-Ersatz.
Der Takt wird wohl etwa bei 650Mhz liegen, dann wäre das Ding von der Performance etwas unterhalb einer X1950XTX.
Wenn dann das Verhältnis zur Texelfüllrate umschwenkt sogar etwas darüber.
Von der aritmethischen Rechenleistung bleibt dann nicht mehr soviel übrig.

mfg Nakai

deekey777
2007-08-03, 19:27:20
Wie kommst du denn darauf? Die bisherigen R6xx-Chips beweisen genau das Gegenteil. Sowohl ALU-, TMU-, als auch ROP-Anzahl scheine sich völlig unabhängig voneinander skalieren zu lassen.

reunion
Man kann beim R600 einen Shadercluster abschalten, ohne dass die Anzahl der TAUs verändert wird. Will man dagegen nur drei TAUs (von mir aus Texturensamplereinheiten), dann wird auch jedes SIMD ein Quad verlieren, sprich es werden dann 60 "SPs" pro SIMD sein. Der RV630 hat deswegen je 40 SPs in den drei SIMDs (2 TAUs).
Scheinbar ist die Anzahl der RBEs an die Busbreite gekoppelt.

PCGH_Carsten
2007-08-03, 20:04:12
Deine Argumentation leuchtet mir nicht ganz ein... vielleicht kannst du das erklären, ohne dir jedes einzelne Wort aus der Nase ziehen zu lassen? Und vielleicht auch mit Belegen für Dinge, die nicht allgemein akzeptiert sind? Bitte.

Man kann beim R600 einen Shadercluster abschalten, ohne dass die Anzahl der TAUs verändert wird.
Sagt wer und wie hat er das gemacht?


Will man dagegen nur drei TAUs (von mir aus Texturensamplereinheiten), dann wird auch jedes SIMD ein Quad verlieren, sprich es werden dann 60 "SPs" pro SIMD sein. Der RV630 hat deswegen je 40 SPs in den drei SIMDs (2 TAUs).
Machst du das Ganze lediglich an der horizontalen Ausrichtung der Quads zu den Quad-TMUs fest?


Scheinbar ist die Anzahl der RBEs an die Busbreite gekoppelt.
Aber wirklich nur scheinbar… RV610 <-> RV630.

deekey777
2007-08-03, 20:23:04
Deine Argumentation leuchtet mir nicht ganz ein... vielleicht kannst du das erklären, ohne dir jedes einzelne Wort aus der Nase ziehen zu lassen? Und vielleicht auch mit Belegen für Dinge, die nicht allgemein akzeptiert sind? Bitte.


Sagt wer und wie hat er das gemacht?


Machst du das Ganze lediglich an der horizontalen Ausrichtung der Quads zu den Quad-TMUs fest?


Aber wirklich nur scheinbar… RV610 <-> RV630.

If you wanted to turn off a SIMD, with R600, you'd still be at 16 textures. If you wanted 12 textures then you'd be turning off a Quad in each SIMD.
http://forum.beyond3d.com/showpost.php?p=1042812&postcount=15

Kann es sein, dass der R600 wirklich nicht für mehr als 4 TAUs designed ist?

PCGH_Carsten
2007-08-03, 21:08:58
http://forum.beyond3d.com/showpost.php?p=1042812&postcount=15

Kann es sein, dass der R600 wirklich nicht für mehr als 4 TAUs designed ist?
Hm, interessant. Der Thread ist mir entgangen.


Schlimmstenfalls könnte man horizontal etwas wegnehmen und dafür vertikal hinzufügen. Anstelle von 4 SIMD/4 QTMUs dann bsw. 3 SIMD/6 QTMU. Wenn diese Skalierrichtung möglich ist, dann hat AMD wirklich ein extrem flexibles Design - flexibler als Nvidia, wo an eine QTMU auch immer ein 16er-Shadercluster gebunden ist.

Die starre Bindung der SIMD an die TMU bei AMD ließe sich eventuell mit Buffer-to-Memory-Überläufen und Kommandoströmen über die Point-Sampler erklären.

Richtig interessant wäre es, wenn die Zahl der SIMDs nicht auf vier begrenzt wäre. Dann könnte man mit relativ wenig Aufwand später transistor-günstig einen echten Stream-Prozessor mit bsw. 6 SIMDs pro Q-TMU nachschieben. Das würde dann auch die AA-Performance verbessern.

Ailuros
2007-08-04, 06:55:57
Wow, mal was ganz was neues. 256-bit SI, 8 ROPs, volle 16 TMUs, und 160 ALUs. Beweist einmal mehr die enorme Flexibilität der R6xx-Architektur. Man wird sehen müssen, wie sehr die deaktivierten Einheiten fehlen werden.

Angenommen die Einheiten haben keine besondere Aenderungen im Vergleich zu R6xx, klingt mir das Ding uebermaessig schwach.

32*10 FLOPs (und ich bin mal sehr grosszuegig) * 1GHz = 320 GFLOPs/s

8 * 1GHz = 8 GPixels/s

16 * 1GHz = 16 GPixels/s

G92 (wenn alle Thesen stimmen):

96 * 3 FLOPs * (und ich bin mal hier geizig) * 1.5GHz = 432 GFLOPs/s

16 * 675MHz = 10.8 GPixels

24 * 675MHz = 16.2 GPixels/s / 32.4 GPixels/s (bi-AF)

So und jetzt muss man hoffen dass RV670 auch tatsaechlich 1GHz erreichen kann, dass man nicht auf die idiotische "resolve through shader" (nennen wir es mal...) "Idee" besteht und dass die TMUs und ROPs diesmal um einiges flexibler sind.

Ebenso sollte man hoffen dass alle bisherigen G92 "Infos" uebertrieben sind und die Anzahl der Einheiten bescheidener als oben und dass NV nie im Leben Frequenzen der Art 675/1500 MHz auf 65nm erreichen wird.

Was jetzt vom hypothetischen "Wow-Faktor" der Flexibilitaet uebrig bleibt, ist eigentlich nur dass man zu anderen Kombinationen kommen kann. Unterm Strich hat aber dann stets einen Cluster, eine ROP partition zu wenig und eben bis zu 16 TMUs stets begrenzt. Flexibler? Nein. Die obrige Kombination erlaubt zwar ein anderes ALU:TEX ratio, opfert aber dann wieder zu viel an Shader-Fuellrate.

reunion
2007-08-04, 09:31:46
Angenommen die Einheiten haben keine besondere Aenderungen im Vergleich zu R6xx, klingt mir das Ding uebermaessig schwach.

32*10 FLOPs (und ich bin mal sehr grosszuegig) * 1GHz = 320 GFLOPs/s

8 * 1GHz = 8 GPixels/s

16 * 1GHz = 16 GPixels/s

G92 (wenn alle Thesen stimmen):

96 * 3 FLOPs * (und ich bin mal hier geizig) * 1.5GHz = 432 GFLOPs/s

16 * 675MHz = 10.8 GPixels

24 * 675MHz = 16.2 GPixels/s / 32.4 GPixels/s (bi-AF)

So und jetzt muss man hoffen dass RV670 auch tatsaechlich 1GHz erreichen kann, dass man nicht auf die idiotische "resolve through shader" (nennen wir es mal...) "Idee" besteht und dass die TMUs und ROPs diesmal um einiges flexibler sind.

Ebenso sollte man hoffen dass alle bisherigen G92 "Infos" uebertrieben sind und die Anzahl der Einheiten bescheidener als oben und dass NV nie im Leben Frequenzen der Art 675/1500 MHz auf 65nm erreichen wird.

Was jetzt vom hypothetischen "Wow-Faktor" der Flexibilitaet uebrig bleibt, ist eigentlich nur dass man zu anderen Kombinationen kommen kann. Unterm Strich hat aber dann stets einen Cluster, eine ROP partition zu wenig und eben bis zu 16 TMUs stets begrenzt. Flexibler? Nein. Die obrige Kombination erlaubt zwar ein anderes ALU:TEX ratio, opfert aber dann wieder zu viel an Shader-Fuellrate.

Das ist doch nur eine 2900 PRO in Form eines teildeaktiviertem R600, wie das Blockschaltbild mit den ausgegrauten Einheiten sehr schön zeigt. RV670 wird vermutlich völlig anders aussehen. Das "wow" kam nur wegen der unausgeglichenen Anzahl an deaktivierten Einheiten.

w0mbat
2007-08-04, 13:11:32
@Ailuros: Die HD2900 Pro soll sich auch zwischen einer 8600GTS und einer 8800GTS 320 positionieren und nicht einen künftigen G92 angreifen. Kannst du die imaginäre HD2900 Pro mal gegen eine 8600GTS und eine 8800GTS 320 vergleichen?

PCGH_Carsten
2007-08-04, 14:17:49
@Ailuros: Die HD2900 Pro soll sich auch zwischen einer 8600GTS und einer 8800GTS 320 positionieren und nicht einen künftigen G92 angreifen. Kannst du die imaginäre HD2900 Pro mal gegen eine 8600GTS und eine 8800GTS 320 vergleichen?

Was macht dich so sicher, dass G80GTS/320 und G92 coexistieren werden?

Gast
2007-08-04, 14:31:16
Wenn diese Skalierrichtung möglich ist, dann hat AMD wirklich ein extrem flexibles Design - flexibler als Nvidia, wo an eine QTMU auch immer ein 16er-Shadercluster gebunden ist.

ich würde ein design, in dem man das ALU:TEX-verhältnis über clockdomains steuern kann als deutlich flexibler bezeichnen, als eines indem man das "nur" über unterschiedliche hardwareinheiten kann.

w0mbat
2007-08-04, 14:47:54
Was macht dich so sicher, dass G80GTS/320 und G92 coexistieren werden?

Nichts, aber dann positioniert sich die HD2900 Pro eben zwischen der 8600GTS und dem G92. Der Gegner des G92 soll der RV670 (R670) werden.

deekey777
2007-08-04, 15:02:40
Angenommen die Einheiten haben keine besondere Aenderungen im Vergleich zu R6xx, klingt mir das Ding uebermaessig schwach.

32*10 FLOPs (und ich bin mal sehr grosszuegig) * 1GHz = 320 GFLOPs/s

8 * 1GHz = 8 GPixels/s

16 * 1GHz = 16 GPixels/s

G92 (wenn alle Thesen stimmen):

96 * 3 FLOPs * (und ich bin mal hier geizig) * 1.5GHz = 432 GFLOPs/s

16 * 675MHz = 10.8 GPixels

24 * 675MHz = 16.2 GPixels/s / 32.4 GPixels/s (bi-AF)

So und jetzt muss man hoffen dass RV670 auch tatsaechlich 1GHz erreichen kann, dass man nicht auf die idiotische "resolve through shader" (nennen wir es mal...) "Idee" besteht und dass die TMUs und ROPs diesmal um einiges flexibler sind.

Ebenso sollte man hoffen dass alle bisherigen G92 "Infos" uebertrieben sind und die Anzahl der Einheiten bescheidener als oben und dass NV nie im Leben Frequenzen der Art 675/1500 MHz auf 65nm erreichen wird.

Was jetzt vom hypothetischen "Wow-Faktor" der Flexibilitaet uebrig bleibt, ist eigentlich nur dass man zu anderen Kombinationen kommen kann. Unterm Strich hat aber dann stets einen Cluster, eine ROP partition zu wenig und eben bis zu 16 TMUs stets begrenzt. Flexibler? Nein. Die obrige Kombination erlaubt zwar ein anderes ALU:TEX ratio, opfert aber dann wieder zu viel an Shader-Fuellrate.

Wenn man zB AF 8° haben will, wird die fehlende Shaderfüllrate nicht so gravierend. Aber ATi hat es seit dem R580 (und eigentlich schon seit dem RV530) geschafft, dass wir die GLOP-Zahlen für das A und O halten.

Interessant: http://forum.beyond3d.com/showpost.php?p=1020463&postcount=99, aber mit zwei SIMDs?

PCGH_Carsten
2007-08-04, 15:04:42
ich würde ein design, in dem man das ALU:TEX-verhältnis über clockdomains steuern kann als deutlich flexibler bezeichnen, als eines indem man das "nur" über unterschiedliche hardwareinheiten kann.

Ich nicht. Denn auch mit unterschiedlichen Taktdomänen musst du trotzdem Transistoren aufwenden.

PCGH_Carsten
2007-08-04, 15:05:55
Nichts, aber dann positioniert sich die HD2900 Pro eben zwischen der 8600GTS und dem G92. Der Gegner des G92 soll der RV670 (R670) werden.

Und der RV670 (V= Value!) wird schneller als eine 2900 Pro? Das wäre ein ziemlicher Bruch mit all dem, was wir in der Vergangenheit gesehen haben.

reunion
2007-08-04, 15:20:41
Und der RV670 (V= Value!) wird schneller als eine 2900 Pro? Das wäre ein ziemlicher Bruch mit all dem, was wir in der Vergangenheit gesehen haben.

Ein RV570 ist auch schneller als eine X1900GT, wenn auch nur marginal. Und da bei der 2900PRO laut dem Diagramm weiter hinten doch einiges deaktiviert wird, spricht nichts dagegen, dass ein voller RV670 vielleicht sogar deutlich schneller ist. Durch den 65nm Prozess (oder gar 55nm?) sollten die Taktraten jedenfalls nochmal deutlich steigen im Vergleich zur 2900pro, die vermutlich unter den Taktraten der XT liegen wird.

w0mbat
2007-08-04, 15:29:12
Und der RV670 (V= Value!) wird schneller als eine 2900 Pro? Das wäre ein ziemlicher Bruch mit all dem, was wir in der Vergangenheit gesehen haben.

Ich denke schon, sieht man ja schon an den angeblich vorgesehenen Namen:
HD2900 Pro (beschnittener R600, 80nm) < HD2950 Pro (RV670, 55nm)

Ein gut bestückter RV670 könnte dank 55nm an die 1,2GHz takten und das mit einem noch "vernünftigen" Stromverbrauch. Und bei der HD2900 Pro ist so viel deaktiviert worden das sie meiner Meinung nach sich eher etwas über einer 8600GTS platzieren soll.

Ich denke das sich ATi ihr Portfolio Anfang 2008 so vorstellt:

HD2950 X2X, R670 (dual RV670), 55nm
[HD2950 XT(X), R680, 55nm] - Was ist eigentlich mit dem R680 los? Bringt ATi wirklich einen R600 in 55nm?
HD2900 XT, R600, 80nm - Wenn ein R680 aka HD2950 XT(X) kommt wird die HD2900 XT wohl wegfallen.
HD2950 Pro, RV670, 55nm
HD2900 Pro, beschnittener R600, 80nm - Könnte auch wegfallen wenn der RV670 nicht deutlich schneller ist.
[HD2750 XT, RV660, 55nm
HD2750 Pro, RV660, 55nm] - Wo soll sich eigentlich der RV660 platzieren der schon öfters genannt wurde? Führt ATi eine HD27xx-Reihe ein?
HD2650 XT, RV635, 55nm
HD2650 Pro, RV635, 55nm
HD2450 XT, RV620, 55nm
HD2450 Pro, RV620, 55nm

PCGH_Carsten
2007-08-04, 15:34:57
Ein RV570 ist auch schneller als eine X1900GT, wenn auch nur marginal. Und da bei der 2900PRO laut dem Diagramm weiter hinten doch einiges deaktiviert wird, spricht nichts dagegen, dass ein voller RV670 vielleicht sogar deutlich schneller ist. Durch den 65nm Prozess (oder gar 55nm?) sollten die Taktraten jedenfalls nochmal deutlich steigen im Vergleich zur 2900pro, die vermutlich unter den Taktraten der XT liegen wird.
Ich kann mir nicht vorstellen, dass AMD einen 429mm²-Chip, welcher eh schon ziemlich mit der 8800GTS zu kämpfen hat, halb* deaktiviert und dann samt teurem PCB und Kühler für 200 Dollar/Euro auf den Markt bringt.

Damit hätte man lediglich in Sachen Texturing und evtl. ROP die HD2600 XT etwas hinter sich - und die spielt preislich nochmal in einer ganz anderen Liga. Bei 160 ALUs mit sagen wir 700 MHz bleiben noch schlappe 224 GFLOPs über - das ist kein gesundes Produkt. RV630 hat schon 192 GFLOPs ohne Gemini-Variante!

Ich denke, dass mindestens drei SIMDs aktiv bleiben sollten und auch mindestens drei QROPs sowie ein möglichst großer Teil des Interfaces, damit das Produkt eine Nische finden kann.

Ein gut bestückter RV670 könnte dank 55nm an die 1,2GHz takten

Der 55er-Halfnode bringt 50% mehr Takt bei gleichzeitig deutlich komplexerem Chip gegenüber 65nm? Das glaube ich erst, wenn ich es sehe.


*Die Hälfte der Shader und des Interfaces zumindest.

w0mbat
2007-08-04, 15:41:43
[...]
Der 55er-Halfnode bringt 50% mehr Takt bei gleichzeitig deutlich komplexerem Chip gegenüber 65nm? Das glaube ich erst, wenn ich es sehe.


Der R600 ist ein 80nm Produkt und komplexer als ein RV670. Aber eine HD2900 XT rennt auch mit 900MHz und mehr. Ein Guter RV670 in 55nm könnte da locker 1-1,2GHz schaffen (meiner Meinung nach).

PCGH_Carsten
2007-08-04, 15:46:00
Der R600 ist ein 80nm Produkt und komplexer als ein RV670. Aber eine HD2900 XT rennt auch mit 900MHz und mehr. Ein Guter RV670 in 55nm könnte da locker 1-1,2GHz schaffen (meiner Meinung nach).

Ich rede vom existenten 65nm-Produkt RV630.

reunion
2007-08-04, 15:56:33
Ich rede vom existenten 65nm-Produkt RV630.

Naja, hier sollte man schon noch anmerken, dass sowohl bei RV610 als auch bei RV630 TSMCs 65G+ Prozess zum Einsatz kommt, welcher auf eine niedrige Verlustleistung, aber nicht auf maximale Performance auslegt ist. Deshalb gibt es hier auch keine Taktvorteile zum 80HS Prozess laut ATi. Ein spekulierter RV670 dürfte dann doch etwas aggressiver gefertigt werden.

Ich kann mir nicht vorstellen, dass AMD einen 429mm²-Chip, welcher eh schon ziemlich mit der 8800GTS zu kämpfen hat, halb* deaktiviert und dann samt teurem PCB und Kühler für 200 Dollar/Euro auf den Markt bringt.

Damit hätte man lediglich in Sachen Texturing und evtl. ROP die HD2600 XT etwas hinter sich - und die spielt preislich nochmal in einer ganz anderen Liga. Bei 160 ALUs mit sagen wir 700 MHz bleiben noch schlappe 224 GFLOPs über - das ist kein gesundes Produkt. RV630 hat schon 192 GFLOPs ohne Gemini-Variante!

Ich denke, dass mindestens drei SIMDs aktiv bleiben sollten und auch mindestens drei QROPs sowie ein möglichst großer Teil des Interfaces, damit das Produkt eine Nische finden kann.

*Die Hälfte der Shader und des Interfaces zumindest.

Du hast natürlich recht, doch auch hier gilt: Besser als den Chip wegzuschmeißen. Das Diagramm wirkt auf mich jedenfalls nicht gefaked, aber warten wir ab.

PCGH_Carsten
2007-08-04, 16:37:44
Naja, hier sollte man schon noch anmerken, dass sowohl bei RV610 als auch bei RV630 TSMCs 65G+ Prozess zum Einsatz kommt, welcher auf eine niedrige Verlustleistung, aber nicht auf maximale Performance auslegt ist. Deshalb gibt es hier auch keine Taktvorteile zum 80HS Prozess laut ATi. Ein spekulierter RV670 dürfte dann doch etwas aggressiver gefertigt werden.
Mag sein - "Keine Taktvorteile laut AMD" bezieht sich aber nicht etwa auf die HD2000-Launch-Präsentationen?


Du hast natürlich recht, doch auch hier gilt: Besser als den Chip wegzuschmeißen. Das Diagramm wirkt auf mich jedenfalls nicht gefaked, aber warten wir ab.
Das Diagramm hat doch jemand im B3D-Forum beispielhaft selbst gebastelt, oder? Wie dem auch sei: Bei all der Redundanz in großen Designs glaube ich, dass die Rate an Chips mit nur einem defekten SIMD größer ist, als die mit zwei defekten SIMDs. Die könnte man dann ja irgendwann an einen OEM verscherbeln und eine exklusive 2700 XT draus machen.

reunion
2007-08-04, 16:51:47
Mag sein - "Keine Taktvorteile laut AMD" bezieht sich aber nicht etwa auf die HD2000-Launch-Präsentationen?


Doch, wo liegt das Problem? AMD sprach AFAIK davon, dass bereits der 80HS Prozess dieselben Schaltgeschwindigkeiten wie der 65G+ Prozess erreicht.


Das Diagramm hat doch jemand im B3D-Forum beispielhaft selbst gebastelt, oder?


Tatsächlich? - Das kommt davon, wenn man den Kontext nicht ließt. Das wirft natürlich meine vorherigen Überlegungen über Board.


Wie dem auch sei: Bei all der Redundanz in großen Designs glaube ich, dass die Rate an Chips mit nur einem defekten SIMD größer ist, als die mit zwei defekten SIMDs. Die könnte man dann ja irgendwann an einen OEM verscherbeln und eine exklusive 2700 XT draus machen.

Mögliches Szenario, ja.

seahawk
2007-08-04, 16:55:14
Die 2900pro wird ein Nischenprodukt, eine Restverwertung für OEMs. Erst die 2950PRo wird eine echte Hammerkarte in der Tradition der X1950Pro werden.

deekey777
2007-08-04, 16:58:49
Mag sein - "Keine Taktvorteile laut AMD" bezieht sich aber nicht etwa auf die HD2000-Launch-Präsentationen?



Das Diagramm hat doch jemand im B3D-Forum beispielhaft selbst gebastelt, oder? Wie dem auch sei: Bei all der Redundanz in großen Designs glaube ich, dass die Rate an Chips mit nur einem defekten SIMD größer ist, als die mit zwei defekten SIMDs. Die könnte man dann ja irgendwann an einen OEM verscherbeln und eine exklusive 2700 XT draus machen.
Wenn ich ehrlich bin, kam ich bis jetzt nicht auf die Idee, dass dieses Diagramm ein Hirngespenst ist. :redface::weg:
Mit drei SIMDs würde das Ding Sinn ergeben.

PCGH_Carsten
2007-08-04, 17:04:04
Tatsächlich? - Das kommt davon, wenn man den Kontext nicht ließt. Das wirft natürlich meine vorherigen Überlegungen über Board.

Wenn ich ehrlich bin, kam ich bis jetzt nicht auf die Idee, dass dieses Diagramm ein Hirngespenst ist. :redface::weg:


Ich weiß es ja auch nicht genau, aber aus dem Zusammenhang bei B3D sieht es so aus, da fellix ein Posting vorher noch Zusammenhänge erfragte.

AnarchX
2007-08-04, 17:04:22
Erst die 2950PRo wird eine echte Hammerkarte in der Tradition der X1950Pro werden.
Aber hoffentlich übernimmt sie nicht deren Launchverspätung und die Eigenschaft eines miesen Referenzlüfters. ;)

@ 2900Pro Diagramm:

Wie Carsten schon sagt ist es die Idee eines B3D-User auf der Basis der Aussagen über die Skalierbarkeit des Designs von Baumann und der Aussage von OCW über die SPs:
and slightly more than 120 stream processors.

deekey777
2007-08-04, 17:43:20
Ich weiß es ja auch nicht genau, aber aus dem Zusammenhang bei B3D sieht es so aus, da fellix ein Posting vorher noch Zusammenhänge erfragte.
Hm, dann drehen wir mal die Zeit zurück:
Die erste Meldung war die von Chile Hardware: http://www.chilehardware.com/foro/amd-hd-2900-t106198.html
Da ist nur ein neuer Eintrag im Treiber zu sehen: "ATI Radeon HD 2900 PRO" = ati2mtag_R600, PCI\VEN_1002&DEV_9403
(Das Geschreibe von Inq lassen wir mal außen vor.)
Dann gibt es diese Meldung: http://www.nordichardware.com/news,6654.html
2900Pro und RV670 haben miteinander nichts zu tun. Keine eindeutige Aussage über die 2900Pro.
OCW: http://my.ocworkbench.com/bbs/showthread.php?p=418498#post418498
From what we understand, the Radeon HD 2900 Pro will feature a 256 bits memory bandwidth and slightly more than 120 stream processors. It will have a lower core clk and memory clk as compared to 8800GTS.
Auch hier nur eine Schätzung, was die 2900Pro sein kann, "slightly more than 120 SPs" sind eher zweifelhaft.
+
http://www.hardspell.com/english/doc/showcont.asp?news_id=1142
AMD is going to release Radeon HD 2900Pro in Q4 2007. It is between 2900XT and 2600XT. It uses the same R600 core with Radeon HD 2900XT but reduced
Meiner Meinung nach spricht das für eine Art "X1900GT" (weniger Takt+weniger aktive Einheiten) oder "X1800XL" (nur weniger Takt). 256bit-SI wären keine Überraschung.

Hvoralek
2007-08-04, 18:05:46
Wenn die Aussage "It will have a lower core clk [...] as compared to 8800GTS" stimmt, hoffe ich mal, dass nicht auch noch die Hälfte der RBEs und SPs deaktiviert wurden. Dann wären höchstens noch 1/3 der Arithmetikleistung und Pixelfüllrate der 2900XT übrig und auch nur 2/3 der Texelfüllrate.

AnarchX
2007-08-04, 18:51:43
Wenn die Aussage "It will have a lower core clk [...] as compared to 8800GTS" stimmt, hoffe ich mal, dass nicht auch noch die Hälfte der RBEs und SPs deaktiviert wurden. Dann wären höchstens noch 1/3 der Arithmetikleistung und Pixelfüllrate der 2900XT übrig und auch nur 2/3 der Texelfüllrate.

Wodurch sie unter einer 2600XT liegen würde und nicht mehr wirklich Sinn machen würde. Dann sollte es schon eher ein ganzer R600@256Bit sein.

Winter[Raven]
2007-08-05, 20:28:37
Die 2900pro wird ein Nischenprodukt, eine Restverwertung für OEMs. Erst die 2950PRo wird eine echte Hammerkarte in der Tradition der X1950Pro werden.

Es seih denn, Nvidia spuckt AMD noch in die Suppe, und Ailuros scheint ja schon wie in diesem Posting (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5686269&postcount=412) angemerkt, nicht gerade begeistert zu sein vom RV670 ...

Da NV mit dem G92 laut Ailuros auch noch früher kommt, wird der MArkt sowieso zum Zeitpunkt eines RV670 gesättig sein.

sklave_gottes
2007-08-06, 00:34:13
Wodurch sie unter einer 2600XT liegen würde und nicht mehr wirklich Sinn machen würde. Dann sollte es schon eher ein ganzer R600@256Bit sein.

Das wäre sowieso mal eine sehr gute idee.
Ich denke das die Karte mit gddr4@1100mhz auch nur knapp unter r600@512bit wäre!

AnarchX
2007-08-06, 15:27:00
AMD selbst leakt Daten zur 2900Pro?
http://img485.imageshack.us/img485/2500/r600pro2yv1.jpg
http://ati.amd.com/products/workstation/fireglmatrix.html

edit:
Und hier noch der Stromverbrauch:
http://img402.imageshack.us/img402/8759/atifiregllineup021c13f5av3.jpg

Also doch ein ganzer (RBEs?) R600 mit niedrigerem Takt, für $200 könnte das eine ordentlich Performance geben, wenn nicht da noch der Stromvebrauch und der G92 wäre. ;)

Hvoralek
2007-08-06, 16:20:13
Also doch ein ganzer (RBEs?) R600 mit niedrigerem Takt, für $200 könnte das eine ordentlich Performance geben, wenn nicht da noch der Stromvebrauch und der G92 wäre. ;)Ein leicht niedriger getakteter R600 mit 256- bit- SI für $200? :|

deekey777
2007-08-06, 16:29:20
Ein leicht niedriger getakteter R600 mit 256- bit- SI für $200? :|
Warum nicht? Es wird möglicherweise auch ein modifiziertes oder schon verfügbares PCB verwendet (weniger Layer usw).

seahawk
2007-08-06, 16:48:46
Wenn, das Dingen kommt und halbwegs perfromt, dann ist das die öffentliche Eingestehung, dass der 512Bit-Bus reine Zahlenspielerei war.

up¦²
2007-08-06, 16:56:42
Brilliant gefunden AnarchX! :wink:
Steht noch eine pdf herum: da ist die V7600 auch schon drin
http://ati.amd.com/products/brochures/FireGL-PCIe-Brochure.pdf

deekey777
2007-08-10, 17:29:07
SIGGRAPH 2007: FireGL V5600 pictured (http://www.beyond3d.com/content/news/405)
You can see in the shot of the FireGL V5600 that the rear of the board has DRAM devices -- Samsung GDDR4 K4U52324QE-BC09s rated to 1100MHz -- unlike the Radeon HD 2600 XT we reviewed recently. That confirms the 512MiB on the V5600, and AMD run the devices at the rated speed

Wie man sieht, hat die FireGL V5600 einen Single-Slot-Kühler. Gut ist das IMHO nicht, da werden gleich die Erinnerungen an den überforderten Kühler der X1900GT wach.

AnarchX
2007-08-10, 17:35:06
Ähmm.... die V5600 basiert auf dem RV630XT:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5729563#post5729563 :deal: ;)

deekey777
2007-08-10, 17:41:39
Ähmm.... die V5600 basiert auf dem RV630XT:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5729563#post5729563 :deal: ;)
Arghhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhhh

UltraXFX-92
2007-08-10, 18:15:41
Wenn die HD 2900 PRO volle 320 Shader bekommt und für einen Preis von 199$-249$ erscheint, wäre sie wirklich interessant für mich.

Aber wenn die HD 2900 PRO nur die Hälfte der Shader hat, kommt sie mir nicht ins Haus, auch wenn sie trotzdem noch schneller als die 8600 GTS ist.

Nakai
2007-08-10, 18:46:10
Solange sie für einen angemessenen Preis daherkommt, dann ist die Karte trotzdem ne Empfehlung wert.
Ich denke, dass sie eher mit 160 Shadern kommt, da dadurch defekte Chips entsorgt werden können.

Vll kommen 2 Versionen, eine HD2700PRO mit 160 Shadern und eine HD2900PRO mit 320 Shadern.:tongue:

mfg Nakai

Gast
2007-08-10, 20:07:05
PRO.Willst du uns eigentlich veräppeln?

UltraXFX-92
2007-08-10, 20:52:07
Solange sie für einen angemessenen Preis daherkommt, dann ist die Karte trotzdem ne Empfehlung wert.
Ich denke, dass sie eher mit 160 Shadern kommt, da dadurch defekte Chips entsorgt werden können.

Vll kommen 2 Versionen, eine HD2700PRO mit 160 Shadern und eine HD2900PRO mit 320 Shadern.:tongue:
1. Für 199$ ist sie nicht schlecht, wäre ja schließlich einiges besser als die 8600 GTS bei gleichem Preis. Nur für mich nicht interessant, da ich mir keine Karten mehr mit hohem Stromverbrauch und hoher Wärmeentwicklung kaufe.

2. Das glaube ich eher nicht. Aber so lang dauert es auch nicht mehr bis zum RV670/R680, wenn es keine Verschiebung gibt.:)

AnarchX
2007-08-11, 01:26:10
2900Pro (320SPs) und 2900GT (240SPs)? (http://www.tcmagazine.com/comments.php?shownews=15701&catid=2)
The first, and more powerful card, the Radeon HD 2900 Pro is said to have 320 SPs (or should we say shader units?) working at a yet to be determined clock and it will be brought in September to take some fame and fortune from Nvidia's GeForce 8800 GTS 320MB. The 2900 Pro will have 512 MB of GDDR3 memory and will draw a pretty hefty 150W. Performance should be just under the 320 MB 8800 GTS, but the card will also have a lower price tag.

The second card should be the sweetest offer of the 2000 series as the GT will have 240 SPs (still no clocks) and 256 MB of memory. Although its power draw is also supposed to be close to the 150W mark, the upcoming GT will still be very appealing due to its price that should not go over $220. Production of the Radeon HD 2900 GT is set to start in September with mass availability planned for October. And all this, only if AMD won't miss any new deadlines.

Da will man wohl die Lager räumen, um für die im Q4 07 bzw. Q1 08 geplanten 55nm GPUs Platz zu machen... ;)

w0mbat
2007-08-11, 02:12:22
Ja, AMD haut alles raus.

Gast
2007-08-11, 04:04:53
Erstmal muss man sehen wie das Design performt. Wenn hier jmd mal bei seiner X2900XT den RAM runtertaktet so dass er auf ~60GB/s SI Bandbreite kommt und bissl den Chiptakt runterdreht hat er ja in etwa die Performance der X2900Pro. Allerdings sticht in das Preissegment das momentan ja mit alten Karten gefüllt is auch nVidia noch dieses Jahr ein (bzw. wird die 8800GTS da reinrutschen zum abverkauf und die wird die X2900Pro sicher nicht im Zaum halten können).

Interessant wirds wenn die X2900Pro ein eigenes Design und vieleicht sogar "Fehlerbereinigt" ist.

Gast
2007-08-11, 04:34:45
Interessant wirds wenn die X2900Pro ein eigenes Design und vieleicht sogar "Fehlerbereinigt" ist.
Sie wird aber kein eigenes Design bekommen, da sie auf dem R600 basiert. Und wer sagt, dass der R600 größere Fehler in der Architektur hat? Das sind alles treiberbedingte Fehler, welche mit dem Catalyst 7.8 behoben werden.

Gnomoru
2007-08-11, 04:37:49
Sie wird aber kein eigenes Design bekommen, da sie auf dem R600 basiert. Und wer sagt, dass der R600 größere Fehler in der Architektur hat? Das sind alles treiberbedingte Fehler, welche mit dem Catalyst 7.8 behoben werden.

Entschuldigung, den Beitrag habe ich geschrieben, ich war nicht eingeloggt.:frown:

Ailuros
2007-08-11, 06:27:24
2900Pro (320SPs) und 2900GT (240SPs)? (http://www.tcmagazine.com/comments.php?shownews=15701&catid=2)


Da will man wohl die Lager räumen, um für die im Q4 07 bzw. Q1 08 geplanten 55nm GPUs Platz zu machen... ;)

*ahem* deshalb sagte ich auch dass die vorige These mit den angeblichen 2 cluster viel zu schwach klingt.

Der Stromverbrauch ist zu hoch fuer eine Performance GPU.

AnarchX
2007-08-11, 08:48:23
*ahem* deshalb sagte ich auch dass die vorige These mit den angeblichen 2 cluster viel zu schwach klingt.
Bis auf die Andeutung von OCW: "slightly more than 120 SPs" und dann halt das Bild der B3D-Users hatte diese Theorie ja auch keinen wirklichen Hintergrund.


Der Stromverbrauch ist zu hoch fuer eine Performance GPU.
Für die 160SP Phantasie-Pro oder für die von TC genannten 2900Pro/GT?

Ailuros
2007-08-11, 14:42:33
Für die 160SP Phantasie-Pro oder für die von TC genannten 2900Pro/GT?

Fuer die echte 2900 Performance GPU natuerlich und stets im Vergleich zur direkten Konkurrenz (Leistung/Stromverbrauch-Verhaeltnis).

deekey777
2007-08-11, 15:01:22
Fuer die echte 2900 Performance GPU natuerlich und stets im Vergleich zur direkten Konkurrenz (Leistung/Stromverbrauch-Verhaeltnis).
Was eh nur für Reviews und eingefleischte Fanboys relevant ist. ;)

seahawk
2007-08-11, 15:09:21
Naja, wenn Du mit 420-470W Netzteilen an die Grenze kämst, wäre das für die Kunden relevant.

Gast
2007-08-11, 15:09:35
*ahem* deshalb sagte ich auch dass die vorige These mit den angeblichen 2 cluster viel zu schwach klingt.

Der Stromverbrauch ist zu hoch fuer eine Performance GPU.

Das glaube ich nicht.

Du hast ein ganz entscheidendes Detail vergessen: Ein Fertigungsprozess reift mit der Zeit.

Zudem bleibt ATI immer noch die Möglichkeit offen, die Hardwareinheiten beizubehalten und die Taktraten (und somit Spannung) etwas abzusenken, was schon einen sehr großen Effekt hat.

Besser als eine Karte deren Recheneinheiten halbiert wurden, ist das allemal.

deekey777
2007-08-11, 15:12:30
Naja, wenn Du mit 420-470W Netzteilen an die Grenze kämst, wäre das für die Kunden relevant.
Und kommt man mit solchen Netzteilen an die Grenze? Nehmen wir an, es werden 150 W sein - da ist die X1950XTX nicht weit entfernt.

Nakai
2007-08-11, 16:31:24
Nehmen wir an, es werden 150 W sein - da ist die X1950XTX nicht weit entfernt.

Naja die HD2900XT verbraucht etwa 150 Watt. Die HD2900PRO ist wohl taktreduziert und wird dann niemals 150 Watt verbrauchen.
Die HD2900GT könnte sogar unter 100 Watt komen, wenn sie deaktivierte Einheiten und einen niedrigeren Takt hat.

mfg Nakai

Gast
2007-08-11, 16:39:14
Naja die HD2900XT verbraucht etwa 150 Watt. Die HD2900PRO ist wohl taktreduziert und wird dann niemals 150 Watt verbrauchen.


wohl eher 175W. wenn die 150W allerdings als TDP zu verstehen sind, ist man dabei ungefähr auf 8800GTS-niveau (148W), und die braucht ja real auch "nur" ~100W.

Nakai
2007-08-11, 16:47:01
Worauf beruhst du dich?
Fast alle Energieverbrauchsmessungen zeigen, dass die Karte etwa 20 Watt mehr als eine 8800GTX verbraucht.
Die 8800GTX verbraucht auch etwa 140Watt.

mfg Nakai

Gast
2007-08-11, 16:51:12
xbitlabs haben die karten doch vermessen und da kommt die 2900 auf ~175W die 8800GTX auf ~150W und die GTS auf ~100W.

Nakai
2007-08-11, 17:08:31
xbitlabs haben die karten doch vermessen und da kommt die 2900 auf ~175W die 8800GTX auf ~150W und die GTS auf ~100W.

161 Watt für die HD2900XT.
Außerdem gehe ich vom Durchschnitt aller Tests aus. Und bei manchen Tests verbraucht die Karte mehr und manchmal weniger.
(€: Ich weiß, das Xbitlabs sehr gute Messverfahren hat, aber die anderen Tests dann als falsch darzustellen, würd ich nicht machen.)
Deswegen denke ich, dass die HD2900PRO vom Verbrauch her zwischen GTS und GTX angesiedelt sein wird...aber das sollte man auf Reviews warten.

mfg Nakai

deekey777
2007-08-11, 18:21:41
xbitlabs haben die karten doch vermessen und da kommt die 2900 auf ~175W die 8800GTX auf ~150W und die GTS auf ~100W.
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0
Xbitlabs kam auf etwas über 161 W. Viel wichtiger ist aber der Verbrauch im Idle-Modus, und da gibt's für ATi keine Blumen.

Blinx123
2007-08-12, 01:13:33
Mich würde mal interessieren,ob AMD auch noch ein High-End Modell der neuen Reihe für AGP veröffentlicht. Ich will mir nämlich einen zweit PC zusammenbauen,aber leider finde ich kein Mainboard,welches: 4xDDR400 Slots hat,Unterstützung vom Pentium4 bis zum Quad Core Kentsfield bietet und eben PCIe 16x anbindet. Das Featureset scheints wohl leider nur bei älteren Chipsets zu geben,die noch DDR400 unterstützen aber eben dafür kein PCIe 16x. Oder kann mir jemand einen Tipp geben? Gibt es vielleicht doch irgendwo ein Board,was alle meine Anforderungen erfüllt?

Gnomoru
2007-08-12, 07:56:09
Es wird wahrscheinlich keine High-End-AGP-Karte mehr erscheinen.

Aber kauf dir doch DDR2-Speicher, der ist zur Zeit sehr günstig.

Hvoralek
2007-08-12, 09:54:17
Aber kauf dir doch DDR2-Speicher, der ist zur Zeit sehr günstig.Wenn er unbedingt DDR1 verbauen möchte, hat er wahrscheinlich noch Module davon.

Mit weiteren High- End- Karten auf AGP rechne ich aber auch nicht.

Ronny145
2007-08-12, 10:35:39
161 Watt für die HD2900XT.
Außerdem gehe ich vom Durchschnitt aller Tests aus. Und bei manchen Tests verbraucht die Karte mehr und manchmal weniger.
(€: Ich weiß, das Xbitlabs sehr gute Messverfahren hat, aber die anderen Tests dann als falsch darzustellen, würd ich nicht machen.)
Deswegen denke ich, dass die HD2900PRO vom Verbrauch her zwischen GTS und GTX angesiedelt sein wird...aber das sollte man auf Reviews warten.

mfg Nakai


Die neueste c't hat 5 verschiedene Karten getestet. Der Mittelwert lag zwischen 146W bis 160W je nach Karte. Die kann aber durchaus noch mehr verbrauchen, wenn die Anwendung anspruchsvoller als der 3dmark06 (Grand Canyon) ist. In der Spitze schaffen die es auf rund 200W.

Adam D.
2007-08-12, 10:48:13
Die neueste c't hat 5 verschiedene Karten getestet. Der Mittelwert lag zwischen 146W bis 160W je nach Karte. Die kann aber durchaus noch mehr verbrauchen, wenn die Anwendung anspruchsvoller als der 3dmark06 (Grand Canyon) ist. In der Spitze schaffen die es auf rund 200W.
Das ist 'ne Menge, aber da bräuchte man auch mal die Spitzenwerte einer GTX, könnte mir vorstellen, dass die an einigen Stellen sicher auch ähnlich hoch kommt.

Ronny145
2007-08-12, 10:56:54
Das ist 'ne Menge, aber da bräuchte man auch mal die Spitzenwerte einer GTX, könnte mir vorstellen, dass die an einigen Stellen sicher auch ähnlich hoch kommt.


Die schafft es auf 188W.

Nakai
2007-08-12, 13:16:51
Die schafft es auf 188W.

Da merkt man wieder, dass die HD2900XT auch "nur" 12 Watt mehr verbrät als die 8800GTX, was bei Gegenden von fast 200 Watt weniger als 10% Unterschied ist. Aber das ist nicht das Thema hier...

mfg Nakai

seahawk
2007-08-12, 13:30:16
VielReduktion kann es bei der PRO nicht geben. Durch dne halbierten Bus wird man gezwungen sein schnellen Speicher zu verwenden. Da auch keien Einheiten deaktiviert sind dprfte die Taktreduzierung nicht zu sehr durchschlagskräftig sein.

Hvoralek
2007-08-12, 13:38:34
VielReduktion kann es bei der PRO nicht geben. Durch dne halbierten Bus wird man gezwungen sein schnellen Speicher zu verwenden. Da auch keien Einheiten deaktiviert sind dprfte die Taktreduzierung nicht zu sehr durchschlagskräftig sein.Wenn man schnelleren Speicher verwendet, wird es wohl GDDR4 sein. Eine Taktreduzierung könnte für den Stromverbrauch sogar besser sein als das Abschalten von Einheiten, weil man so auch noch die Spannung verringern kann.

Gast
2007-08-12, 13:45:57
Das sind alles treiberbedingte Fehler, welche mit dem Catalyst 7.8 behoben werden.Das glaubst du doch selbst nicht. ;D
Mich würde mal interessieren,ob AMD auch noch ein High-End Modell der neuen Reihe für AGP veröffentlicht.Och nee.
Da merkt man wieder, dass die HD2900XT auch "nur" 12 Watt mehr verbrät als die 8800GTX, was bei Gegenden von fast 200 Watt weniger als 10% Unterschied ist.Naja, dafür ist der R600 aber auch deutlich langsamer. Mit MSAA und AF kommt er nichtmal auf 8800GTS-Niveau und die verbraucht gerade mal 100 Watt.

Blinx123
2007-08-12, 14:41:24
Es wird wahrscheinlich keine High-End-AGP-Karte mehr erscheinen.

Aber kauf dir doch DDR2-Speicher, der ist zur Zeit sehr günstig.

Naja,dann werde ich wohl hoffen und bangen,dass sich doch noch einer erbarmt und eine AGP Karte veröffentlicht oder ich werde zur Mainstream Klasse greifen müssen:(

Ich habe noch 2GB (4 Module) guten DDR400 Ram da,der hat damals viel Geld gekostet und ist noch nicht sehr alt,daher wäre ein Board mit 4x DDR400 Slots,PCIe16x und QuadCore Kompatibilität schon schön. Aber leider finde ich eben nur ein Board mit aufgebohrtem 865PE Chipset mit QuadCore Kompatbilität (bis einschliesslich QX6700), 4xDDR400 Slots und AGP8X.

AnarchX
2007-08-12, 14:45:53
Dann verkauf ihn halt, wenn es guter DDR-RAM ist, da sollten locker 2GB guter DDR2 rausspringen und du musst dich nicht mit ASRock-Frickellösungen rumschlagen und hast die Möglichkeit einer großen Auswahl durch PCIe.

Aber das ist nun doch hier eher OT, wenn noch Fragen da sind, bitte einen Thread in der Kaufberatung eröffnen. ;)

Blinx123
2007-08-12, 14:54:56
Ne,den Ram behalte ich. Das ist mein Schatz,Gollum,Gollum:)

Aber gerade jetzt wäre das ziemlich blöd. Ich würde vielleicht gerade mal ein Viertel des Preises bekommen,den ich gezahlt habe. Wenn überhaupt.

Naja,aber ist wirklich OT. Ich geh dann mal in den ATI 2600er Thread und informiere mich da über die Gemini Karten.Vielleicht wird davon ja auch eine AGP Variante veröffentlicht.

Gast
2007-08-12, 15:21:04
Ich würde vielleicht gerade mal ein Viertel des Preises bekommen,den ich gezahlt habe. Wenn überhaupt.

Das ist völlig egal, wenn du 1:1 auf DDR2 wechseln kannst, was kein Problem sein sollte. Verkauf das Dingen und fertig. Was du vorher gezahlt hast, ist irrelevant, vernünftiger DDR2-RAM ist auf jeden Fall schneller.

Gast
2007-08-12, 16:08:20
Da merkt man wieder, dass die HD2900XT auch "nur" 12 Watt mehr verbrät als die 8800GTX, was bei Gegenden von fast 200 Watt weniger als 10% Unterschied ist. Aber das ist nicht das Thema hier...



wäre es nicht wenn die 2900XT auch entsprechende performance liefern würde, nur ist diese mit AA/AF blöderweise gerade mal hoch genug um die 8800GTS zu überholen (manchmal nicht mal das), und die braucht schon deutlich weniger.

Gast
2007-08-12, 16:09:51
Mich würde mal interessieren,ob AMD auch noch ein High-End Modell der neuen Reihe für AGP veröffentlicht.

kaum, mit dem stromverbrauch bräuchte man bei AGP ja schon 3 zusatzstecker, da wird das PCB wohl ziemlich kompliziert werden.

Ailuros
2007-08-13, 12:59:18
Was eh nur für Reviews und eingefleischte Fanboys relevant ist. ;)

...und natuerlich ist der Stromverbrauch fuer den Schlepptopmarkt total unwichtig, der Markt ist uebermaessig klein und der Anteil AMDs in diesem Markt was GPUs betrifft ist rein zufaelligerweise gerade bei einem imaginaeren Zuwachs?

Als Moderator kann man auch etwas vorsichtiger sein mit der Wortwahl hm? ;)

DerKleineCrisu
2007-08-13, 17:32:00
kaum, mit dem stromverbrauch bräuchte man bei AGP ja schon 3 zusatzstecker, da wird das PCB wohl ziemlich kompliziert werden.

AMD braucht doch jetzt schon 3 stecker, oh sind ja nur 2 sorry . ;D

wenigstens sind die AMD graka´s sparsam mit der Grafikleistung :D .

deekey777
2007-08-13, 17:33:51
...und natuerlich ist der Stromverbrauch fuer den Schlepptopmarkt total unwichtig, der Markt ist uebermaessig klein und der Anteil AMDs in diesem Markt was GPUs betrifft ist rein zufaelligerweise gerade bei einem imaginaeren Zuwachs?
Darum haben die mobilen Versionen nicht zuletzt niedrigeren Takt als die Desktopversionen und oft auch einige Beschneidungen.

Als Moderator kann man auch etwas vorsichtiger sein mit der Wortwahl hm? ;)
Du hast da was falsch verstanden: Es gibt eine bestimmte Sorte Leute (du gehörst definitiv nicht dazu), die ein Produkt über deren Stromverbrauch niederzumachen versuchen, wenn ihnen die Argumente ausgehen. Lieblingsbeispiel ist die 8800GTX: Sie ist ein sehr gutes Produkt, da kann man machen, was man will, bis der fehlende 2D-Takt einfällt.

Gmax
2007-08-14, 16:29:46
Ist die ATI FireGl V7600 der Pendant zur 2900Pro?

http://ati.amd.com/products/workstation/fireglmatrix.html

Gast
2007-08-14, 16:52:35
Danach sieht es zumindest aus. Ob ATI bei der 1900pro für den Consumermarkt dann auch einen unbeschnittenen R600 verwendet, bleibt abzuwarten. Die Chancen stehen imho aber nicht so schlecht, da man anders kaum konkurrenzfähig wäre.

Ailuros
2007-08-14, 22:25:53
Darum haben die mobilen Versionen nicht zuletzt niedrigeren Takt als die Desktopversionen und oft auch einige Beschneidungen.

Das aendert aber nichts an moeglichen Stromverbrauch-differenzen. Verbraucht desktop-GPU A 100W im Vergleich zu desktop-GPU die 120W verbraucht, aendert es wieviel genau am vorigen Unterschied wenn man bei beiden Takt und/oder Einheiten beschneidet? (Zahlen sind rein erfunden fuer's Beispiel).

Lieblingsbeispiel ist die 8800GTX: Sie ist ein sehr gutes Produkt, da kann man machen, was man will, bis der fehlende 2D-Takt einfällt.

Die Debatte gab es schon zu Zeiten wo noch wild ueber R600 vor deren Vorstellung spekuliert wurde. So manchen ging natuerlich dann die Spucke aus, als man den 2D Stromverbrauch von der finalen 2900XT sehen konnte.

Ich hab hier die 8800GTX momentan im 2D bei 350/900MHz via Rivatuner; der Gewinn an Temperatur und Stromverbrauch ist nahezu laecherlich im Vergleich zu den normalen Taktungen.

Wir sind zwar im falschen Thread fuer so was, aber NVIO war keine Eintagsfliege und man wird noch mehr davon (ueberhaupt im Profi-Markt) aus gutem Grund davon sehen.

AnarchX
2007-08-20, 11:13:43
2900Pro
320 SPs
256Bit
512MB GDDR3
600/800MHz
$249

2900GT
240SPs
256Bit
256MB GDDR3
x/x MHz
$159
Nur für AIBs (?)

Release beider im Oktober.

http://www.chiphell.com/viewthread.php?tid=8222&extra=page%3D1&page=1

Für $159 (~120€) könnte die 2900GT durchaus ein Midrange-Killer werden. ;)

seahawk
2007-08-20, 11:28:41
Ja, ein Margenkiller für ATI.

AnarchX
2007-08-20, 12:10:43
Ja, ein Margenkiller für ATI.
:lol:

Ist man ja schon bei ATi gewöhnt, dass man bei ATi High-End-GPUs im Mid-Range verschleudern muss. Aber was solls, der Kunde freut sich über (hoffentlich) hohe Leistung zum kleinen Preis.

Nakai
2007-08-20, 12:52:41
Womöglich gutes Übertaktungspotential.
Der R600 ist nur schlappe 25% schneller.^^

mfg Nakai

AnarchX
2007-08-20, 12:54:26
Womöglich gutes Übertaktungspotential.
Der R600 ist nur schlappe 25% schneller.^^


Fragt sich nur ob Lüfter, PCB und Stromversorgung dafür ausgelegt sind.

AFAIK kommt beim R600Pro ein 12-Layer-PCB zum Einsatz (R600XT 14).

Nakai
2007-08-20, 13:05:05
Für 256Bit ist das auch völlig in Ordnung.

Der Chip könnte sogar nur die Hälfte der ROPs haben.

mfg Nakai

Gmax
2007-08-24, 17:44:25
Bei der GC gabs eine kleine FireFireV7600 Vorstellung:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=2651&Itemid=1

AnarchX
2007-08-24, 17:45:42
Ein Bild der Karte wäre interessanter, als dieser Lexus.

AnarchX
2007-09-09, 20:19:46
Im 7.9 Hotfix Cat. taucht die 2900Pro wiedermal auf:
http://www.tcmagazine.com/comments.php?shownews=15986&catid=6

laser114
2007-09-09, 20:30:53
Ist das schon der neue Chip?

AnarchX
2007-09-09, 20:34:58
Ist das schon der neue Chip?

Möglich, RV570 versteckt sich auch hinter eine R580-Device-ID.
Aber wahrscheinlicher wäre der Abverkauf von R600 als R600Pro.

laser114
2007-09-09, 20:43:08
Möglich, RV570 versteckt sich auch hinter eine R580-Device-ID.
Aber wahrscheinlicher wäre der Abverkauf von R600 als R600Pro.

Tja, die Spezifikationen eines R600-basierenden Modells kann man ja der FireGL 7600 entnehmen.
Ich hoffe sie bekommen die Spannung weit genug herunter.

Wäre aber etwas enttäuschend wenn das wieder erstmal alles wäre. Irgendwie tut sich im Performance-Markt seit Ewigkeiten nichts...

Die gelbe Eule
2007-09-14, 13:02:54
Laut CB 2900pro ab Oktober für ~235€.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/september/erste_radeon_hd_2900_pro_235_euro/

Wohl keine ernsthafte Konkurrenz zur GTS, weil bestimmt beschnitten.

Gast
2007-09-14, 13:04:40
Laut CB 2900pro ab Oktober für ~235€.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/september/erste_radeon_hd_2900_pro_235_euro/

Wohl keine ernsthafte Konkurrenz zur GTS, weil bestimmt beschnitten.
Steht doch alles im Text:
Das Speicherinterface soll bei 256-Bit liegen. Der Preis, vor allem für das 512-MB-Modell, dürfte jedoch genau passend zum Weihnachtsgeschäft ein äußerst interessanter sein, gerade dann, wenn sich noch diverse weitere Shops zu den Anbietern gesellen.

AnarchX
2007-09-14, 13:32:15
Nicht schlecht, aber imo sollte man doch die 8700GTS im November abwarten, die gleich/mehr leisten könnte bei deutlich niedrigerem Verbrauch, dank 65nm. ;)

Wohl keine ernsthafte Konkurrenz zur GTS, weil bestimmt beschnitten.
Bis auf das SI, wird es wohl ein vollwertiger R600 sein, weniger macht auch bei den 600MHz kein Sinn.

Die gelbe Eule
2007-09-14, 13:38:48
Dann sind aber trotzdem 230€ zuviel. Gerade weil mit dem G92 die Preise der 640er und 320er nach unten rücken werden, denke kaum das man so wenige produziert hat. R520/G71 bekommt man ja heute noch neu, nur als Beispiel.

AnarchX
2007-09-14, 13:41:08
Dann sind aber trotzdem 230€ zuviel. Gerade weil mit dem G92 die Preise der 640er und 320er nach unten rücken werden, denke kaum das man so wenige produziert hat. R520/G71 bekommt man ja heute noch neu, nur als Beispiel.

Aber G92 kommt erst Anfang November, also sind die 235€, die vielleicht auch noch bis 200€ mit mehr Anbietern heruntergehen, doch durchaus angemessen, vorallem da hier auch 512MB verbaut sind. Im November kann ja der Preis noch weiter fallen bzw. kommt dann später(Dezember/Januar) besserer Ersatz mit RV670=2950Pro/GT. ;)

Die gelbe Eule
2007-09-14, 13:46:15
200€ halte ich für gewagt, weil das hier schon die Lite Retail ist und Sapphire immer mit am günstigsten. Und wie ist das hier noch im Forum? Es wird immer gewartet, nicht sofort gekauft. Gerade dann wenn der Preis sich eingependelt haben sollte, steht der Hardlaunch der NV Karte bevor. Nicht vergessen sollte man, daß dort auch 512MB verbaut werden, der Straßenpreis bei 199-249$ liegt. NV kann sich einen Preiskampf leisten, ATi hingegen macht ja kaum noch Gewinn, also müssen die Preise stabil bleiben. Und ob die Karten wirklich im Oktober kommen, man kennt es ja mit Launchterminen bei ATi. 100 verfügbar machen und der Rest kommt mochen später, so stellt sich das keiner vor.

dargo
2007-09-14, 13:50:17
Dann sind aber trotzdem 230€ zuviel. Gerade weil mit dem G92 die Preise der 640er und 320er nach unten rücken werden, denke kaum das man so wenige produziert hat. R520/G71 bekommt man ja heute noch neu, nur als Beispiel.
Sag mal, denkst du auch ab und zu nach bevor du was kontra AMD/ATI schreibst? Die Karte gibs noch nirgendwo zu kaufen und ich sehe gerade mal einen deutschen Händler. :|
Bei normaler Verfügbarkeit wird diese Karte locker unter 200€ kosten. Würde mich nicht wundern wenn da ~170€ drin sind.

VooDoo7mx
2007-09-14, 13:56:06
Trotzdem keine Konkurrenz zur 8800GTS.

Weniger Speicherbandbreite und weniger Füllrate und Texelleistung als die erstgenannte.
Mit 600MHz hat das Teil wohl weniger Füllrate und Texeleistung als ne X1950XTX und mit 150Watt so viel Stromverbrauch wie ne 8800Utra.
Bravo ATi/AMD. :uclap:

Leistung dürfte so zwischen 8800GTS und 8600GTS liegen aber eben mehr zur 8800GTS hin.
Auf lange Sicht ist die Karte eher ein Konkurrent der 8700GTS aka G92.

dargo
2007-09-14, 13:58:49
Trotzdem keine Konkurrenz zur 8800GTS.

Warum zur G8800GTS? Ich kenne keine GTS die unter 200€ kostet. Außerdem hat die GTS 320 zu wenig Speicher um einen direkten Vergleich zur HD2900pro anzustellen.

AnarchX
2007-09-14, 14:05:57
Auf lange Sicht ist die Karte eher ein Konkurrent der 8700GTS aka G92.

Imo wird die Lebensdauer bei der 2900Pro relativ kurz geplant sein, wie auch bei der X1900GT, die wegen RV570s Verzögerung noch etwas länger lebte.
Hauptsinn wird wohl der Ausverkauf von R600 sein, zu einem Zeitpunkt wo viele an den PC zurückkehren und aufrüsten, um dann Ende07/Anfang08 Platz für die 55nm GPUs zu haben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355

VooDoo7mx
2007-09-14, 16:00:03
Warum zur G8800GTS? Ich kenne keine GTS die unter 200€ kostet. Außerdem hat die GTS 320 zu wenig Speicher um einen direkten Vergleich zur HD2900pro anzustellen.

Solange man nicht sehr hohe Auflösungen fährt ist das absolut kein Nachteil.
Und obwohl der R600 im Vergleich bis zu 1GB Speicher auftrumpfen kann hilft ihn das auch nichts.
Die Rohleistung ist einfach mickrig und wird bei der 2900Pro noch mickriger sein.

Trotz Mehrspeicher wird die 2900Pro sicher schon bei 1280 +AA/AF mehr einbrechen als 8800GTS 320.

AnarchX
2007-09-14, 16:09:47
ATi geht wohl auf Dau-Fang... X-D
Sapphire Radeon HD 2900 Pro, 1024MB GDDR3, 2x DVI, ViVo, PCIe, full retail (21119-01-40)
ATI Sapphire HD2900Pro T2D PCI-E 1GB DDR4
Also ich Arbeit bei einem Distri, und bei und sind von Sapphire 2 Karten gelistet.

Einmal Sapphire HD2900Pro PCI-E 512MB DDR3
und Sapphire HD2900Pro PCI-E 1GB DDR4
http://geizhals.at/deutschland/a280300.html

Wobei die 1GB GDDR4-Karte, wenn man die Pro gut übertakten kann für vielleicht ~250€ gar nichtmal so verkehrt wäre... ;)

sklave_gottes
2007-09-14, 16:16:54
Trotzdem keine Konkurrenz zur 8800GTS.

Weniger Speicherbandbreite und weniger Füllrate und Texelleistung als die erstgenannte.
Mit 600MHz hat das Teil wohl weniger Füllrate und Texeleistung als ne X1950XTX und mit 150Watt so viel Stromverbrauch wie ne 8800Utra.
Bravo ATi/AMD. :uclap:

Leistung dürfte so zwischen 8800GTS und 8600GTS liegen aber eben mehr zur 8800GTS hin.
Auf lange Sicht ist die Karte eher ein Konkurrent der 8700GTS aka G92.

Die Karte wird bestimmt keine 150Watt verbrauchen bei 600mhz. Den wenn die karte mit 600mhz core takt kommt wird die gpu spannung bestimmt um einiges gesenkt sein. Also halt mal bissel den ball flach.

Die reduzierung von 740 auf 600 mhz gpu takt wird wiederum der karte doch einiges an leistung kosten, da es aber zu 99% der selbe r600 ist, wie auf der XT und man die Spannung über ati tool anheben kann, ist es vieleicht eine gute Alternative für OC. Zumal die Speicherbandbreite sowieso kaum auschlag auf die Leistungfähigkeit haben sollte. Da die XT bei 512bit@600mhz kaum mehr an speed zunimmt, wieso auch bei "nur" 16 TMUs.

Wenn die karte unter die magische 200€ marke fählt hat sie meiner meinung nach gute karten gegenüber der 8600GTS.

mfg martin

edit:
Wobei die 1GB GDDR4-Karte, wenn man die Pro gut übertakten kann für vielleicht ~250€ gar nichtmal so verkehrt wäre...
Wobei eher wegen dem GDDR4 als dem 1GB. Es hängt halt davon am wie hoch der GDDR3 Speicher von der 512MB getaktet ist.

AnarchX
2007-09-14, 16:22:16
Wobei eher wegen dem GDDR4 als dem 1GB. Es hängt halt davon am wie hoch der GDDR3 Speicher von der 512MB getaktet ist.

Wird wohl 800MHz sein, genau wie bei der FireGL V7600.

Hier sind auch noch welche gelistet:
http://www.overclockers.co.uk/productlist.php?&groupid=701&catid=56&sortby=priceAsc&subid=922&mfrid

laser114
2007-09-14, 16:39:10
Kommen die mit nur einem Stromstecker?

AnarchX
2007-09-14, 16:42:47
Kommen die mit nur einem Stromstecker?

Höchstwahrscheinlich:
http://img250.imageshack.us/img250/9859/atifireglv7600straightwei4.gif
-> FireGL V7600
http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV7600/V7600Pt2.htm

Also wird es wohl eher nichts mit dem auf XT übertakten... Ist doch ein 8 Pin... ;)

sklave_gottes
2007-09-14, 16:43:19
Wird wohl 800MHz sein, genau wie bei der FireGL V7600.

Hier sind auch noch welche gelistet:
http://www.overclockers.co.uk/productlist.php?&groupid=701&catid=56&sortby=priceAsc&subid=922&mfrid

Ok

Da steht bei der GDDR4 version auch 800mhz. ---> Wohl eher tip Fehler.
Ja 800mhz bei 256Bit , das wird dann auch nochmal was an leistung kosten. Imoment wäre wohl noch eine GDDR4 version mit 512MB interesannt bei 1,1GHZ. Die 1GB variante ist natürlich eine gute idee, da viele einfach nur auf den speicherausbau achten siehe dargo :-)

mfg martin

laser114
2007-09-14, 16:48:19
Also wird es wohl eher nichts mit dem auf XT übertakten...

Naja gut, aber dann dürfte der Stromverbrauch aber auch wirklich erträglich sein, da wohl sicherlich bei der Stromversorgung auch noch Luft gelassen wird.

@sklave_gottes:
800 MHz @ 256 Bit machen ja auch immer noch 51,2 GB/s. Ist zwar kein Hammer, da die Karte aber eher auf Preis-Leistung getrimmt ist, sollte das reichen. So große Unterschiede sehe ich da auch nicht.

AnarchX
2007-09-14, 16:50:52
Das Teil scheint doch ein 8 Pin Connector zu sein, also mit PCIe-Slot 225W, das doch für leichteres OCing reichen sollte... :D

Die gelbe Eule
2007-09-14, 16:52:25
Sag mal, denkst du auch ab und zu nach bevor du was kontra AMD/ATI schreibst? Die Karte gibs noch nirgendwo zu kaufen und ich sehe gerade mal einen deutschen Händler. :|
Bei normaler Verfügbarkeit wird diese Karte locker unter 200€ kosten. Würde mich nicht wundern wenn da ~170€ drin sind.

Wenn es sie noch nichtmal zu kaufen gibt, warum bist Dir dann so sicher das sie 170€ kosten wird?

Kaum jemand wird die Marge so heftig drücken, nur damit man hier im 3DC zufrieden ist. Der Straßenpreis ist 250 USD, nicht 200.

laser114
2007-09-14, 16:56:43
Das Teil scheint doch ein 8 Pin Connector zu sein, also mit PCIe-Slot 225W, das doch für leichteres OCing reichen sollte... :D

Naja OK, aber die meisten werden eher ein 6-Pin-Anschluss nutzen.

sklave_gottes
2007-09-14, 17:25:32
Wenn es sie noch nichtmal zu kaufen gibt, warum bist Dir dann so sicher das sie 170€ kosten wird?

Kaum jemand wird die Marge so heftig drücken, nur damit man hier im 3DC zufrieden ist. Der Straßenpreis ist 250 USD, nicht 200.

Also manchmal glaube ich das du das extra machst, ich meine so kurzsichtig kann man doch garnicht sein oder ?

Wie kann man denn hier von einem Straßenpreis reden wenn die Karten noch nicht mal auf der "Straße" sind ?

Als Anhaltspunkt = die Geforce 8800GTS 320MB hat einen Listenpreis von 300€

Straßenpreis liegt bei 240€, somit liegt dargo mit seinen unter 200€ gold richtig!

Die gelbe Eule
2007-09-14, 17:53:18
Also bitte, diejenigen die sich die Karte für 170€ wünschen kaufen sie trotzdem nicht. Und was hat es für einen Vorteil die Karten so günstig anzubieten? AMD kann es sich nicht leisten, mit Intel haben sie schon einen Preiskampf angefangen, wo sie bluten mussten. Das Speicherinterface halbieren macht die Karte bestimmt nicht fast 50% günstiger als die 2900XT.

Gast
2007-09-14, 17:57:55
Da sich die meisten User eh nur für Bildchen interessieren, sollte es niemanden stören, dass die schwarzen Zeichen kyrilische Buchstaben sind:
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/

PS: Ja, der Artikel wurde schonmal im Grafikchipsbereich verlinkt.