PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)


Seiten : 1 2 [3] 4 5 6

Gast
2007-11-02, 16:33:30
Kosteneinsparungen sind oftmals der primäre Grund für Shrinks.

Wäre 55nm nicht billiger so hätte AMD/ATI ja ganz einfach bei 65nm bleiben können. Man verspricht sich also doch irgendwas.



Vielleicht braucht AMD auch die 55nm, um den Stromverbrauch in akzeptable Regionen zu senken, die 65nm 2400 & 2600 sind ja noch richtige Stromfresser, wenn man sie mal gegen NVs 8400/8600 in 90nm vergleicht.

dargo
2007-11-02, 16:37:22
Ich find's insgesamt etwas schade. Gut, der Kunde kann sich dank 8800GT kaum beschweren, aber AMD kann so echt keinen Fuss mehr fassen.
Hast du was anderes erwartet? Es wurde doch schon oft genug gesagt, dass innerhalb der gleichen Architektur nur "Feintuning" möglich ist. Die Karten werden erst mit dem R700 neu gemischt (hoffen wir es).

sklave_gottes
2007-11-02, 16:51:58
Vielleicht braucht AMD auch die 55nm, um den Stromverbrauch in akzeptable Regionen zu senken, die 65nm 2400 & 2600 sind ja noch richtige Stromfresser, wenn man sie mal gegen NVs 8400/8600 in 90nm vergleicht.

8400/8600 sind 80nm.
Ein 55nm Prozess ist auf dauer bestimmt biliger als ein 65nm.
Ausserdem sollte man nicht vergessen das der RV670 nichtmal halb soviel Platz einnimmt wie ein G92 auf dem wafer, mit anderen worten da passen mehr als 2 mal soviele drauf.

mfg martin

Adam D.
2007-11-02, 17:01:15
Hast du was anderes erwartet? Es wurde doch schon oft genug gesagt, dass innerhalb der gleichen Architektur nur "Feintuning" möglich ist. Die Karten werden erst mit dem R700 neu gemischt (hoffen wir es).
Ich hatte es ehrlich gesagt erwartet, ja. Mir war klar, dass kein Wunder kommt, aber dass man den RV670 durchaus pushen könnte. Wenn der jetzt bissl über der R600 liegt, sieht's ja nicht so schlecht aus ... oder? ;)

laser114
2007-11-02, 17:11:18
Ist ATi nicht der erste mit 55nm? Hmm ... So gut wird das wohl nicht laufen.

Ja. Wobei ATI diese Strategie ja schon länger fährt und relativ schnell auf die neusten Fertigungsprozess umsteigt. Meines Wissens haben die auch irgendeinen Vertrag mit TSMC, dass sie bei Verfügbarkeit auch Produkte stellen (sprich Abnahmegarantien der Prozesses stellen) und gleichzeitig in der Anfangszeit des Prozesses einen Preisnachlass bekommen. Habe ich zumindestens irgendwo mal gelesen.

Nakai
2007-11-02, 17:46:17
Naja eigentlich war der Rv670 erst fürs erste Quartal 2008 geplant, ich denke die Yields sind besser als erwartet. Soviel Verlust wegen der schlechten Fertigung sollte es dann nicht geben.


mfg Nakai

seahawk
2007-11-02, 18:01:29
Naja eigentlich war der Rv670 erst fürs erste Quartal 2008 geplant, ich denke die Yields sind besser als erwartet. Soviel Verlust wegen der schlechten Fertigung sollte es dann nicht geben.


mfg Nakai

Oder ein frühes Tape-Out hat mal geklappt und man konnte dem G92 nun wirklich nicht das ganze Quartal vor Weihnachten alleine überlassen.

Man stelle sich mal vor G96 wäre ein 64SP 16ROP 256Bit 65nm Chip, zum Preis der 8600er.

reunion
2007-11-02, 18:02:25
Sieht so aus, als würde die XT nur mit 775Mhz/1200Mhz und die PRO nur mit 668Mhz/828Mhz takten. Zumindest sind dies die Angaben von Diamond:

http://img219.imageshack.us/img219/729/diamondviperradeonhd387sj1.jpg

http://img126.imageshack.us/img126/6053/diamondviperradeonhd385dg6.jpg (http://imageshack.us)

http://www.tcmagazine.com/comments.php?shownews=16657&catid=2

Positiv ist, dass die XT 16 Speicherbausteine bekommt, und damit ohne Probleme 1024MB Versionen möglich sind.

SavageX
2007-11-02, 18:03:02
Ist ATi nicht der erste mit 55nm? Hmm ... So gut wird das wohl nicht laufen.


Sie hätten ja im Zweifelsfall einfach bei 65nm bleiben können. Wäre nicht der erste Grafikchip, den man aufgrund miserabler Ergebnisse mit einem "fortschrittlichen" (aber neuen) Prozess bei Testserien auf einen "bewährten" Prozess umgesattelt hätte.

Ist aber nicht passiert, so dass AMD wohl halbwegs zufrieden sein dürfte.

SavageX
2007-11-02, 18:05:14
Vielleicht braucht AMD auch die 55nm, um den Stromverbrauch in akzeptable Regionen zu senken, die 65nm 2400 & 2600 sind ja noch richtige Stromfresser, wenn man sie mal gegen NVs 8400/8600 in 90nm vergleicht.

Es sind doch gerade die 2400 und 2600, die beim Stromverbrauch ganz gut dastehen. Insbesondere der 2400 knackt doch selbst im Peak kaum die 20 Watt (edit: Die ganze Karte, wohlgemerkt).

AnarchX
2007-11-02, 18:08:32
Sieht so aus, als würde die XT nur mit 775Mhz/1200Mhz und die PRO nur mit 668Mhz/828Mhz takten. Zumindest sind dies die Angaben von Diamond:

http://img219.imageshack.us/img219/729/diamondviperradeonhd387sj1.jpg

http://img126.imageshack.us/img126/6053/diamondviperradeonhd385dg6.jpg (http://imageshack.us)

http://www.tcmagazine.com/comments.php?shownews=16657&catid=2

Da scheint wohl 55nm wohl doch nicht so gut zu laufen, wie man es sich erhofft hat.

Positiv ist, dass die XT 16 Speicherbausteine bekommt, und damit ohne Probleme 1024MB Versionen möglich sind.
Macht aber die 512MB Version unnötig teuerer in der Herstellung...
16Mx32 deutet auf den Aufbau des Speicherchips hin, also 8x 512MBit, alles andere hätte mich auch gewundert. ;)

w0mbat
2007-11-02, 18:09:59
775MHz für die XT, was nur 25MHz über der ursprünglich geplanten PRO liegt, wären schon schwach.

reunion
2007-11-02, 18:16:52
Da scheint wohl 55nm wohl doch nicht so gut zu laufen, wie man es sich erhofft hat.


Scheint so. Überhaupt wenn man sich ansieht, dass schon viele R600 auf 80nm an die 900Mhz gehen mit OC. Ich hätte mir da deutlich mehr erwartet. Aber da man jetzt die Karten deutlich billiger verkaufen muss, muss man wohl auch mit den Taktraten runter gehen.


Macht aber die 512MB Version unnötig teuerer in der Herstellung...

Sollte vernachlässigbar sein, ob man jetzt acht mal 64MB oder 16 mal 32MB verbaut. Die 16 Speicherbausteine braucht man vermutlich für die FireGLs.

16Mx32 deutet auf den Aufbau des Speicherchips hin, also 8x 512MBit, alles andere hätte mich auch gewundert. ;)

Ich verstehe nur Bahnhof.

laser114
2007-11-02, 18:20:57
Und die 3870 wird immer noch per Dual-Slot gekühlt? Oder ist man da jetzt auch auf Single-Slot umgesattelt?

AnarchX
2007-11-02, 18:34:26
Ich verstehe nur Bahnhof.

Eben Speicherchips mit 32 Speicherzellen je 16MBit -> 16Mx32, bei der 3850 sind es dann Chips mit halber Kapazität.

16 Speicherchips wird man auf einer 256Bit Karte nur sehen, wenn sie mit 1GiB bestückt werden muss, ansonsten wäre es purer Unsinn.

Übrigens scheint es bei GDDR4 wohl auch schon 1024MBit Chips zu geben.

Gast
2007-11-02, 18:51:06
DX 10.0?! Merkwürdig ...

Außerdem wieso steht bei den Specifications im ersten Bild dann doch wieder 3850? Das ist irgendwie nicht stimmig ... Könnte es sein, dass es 3 Versionen geben wird?

Och Mensch ... wenn der 55nm Prozess jetzt doch wieder Probleme macht, wieso ist man dann nicht gleich auf 65nm geblieben? ...

Gast
2007-11-02, 18:59:34
DX 10.0?! Merkwürdig ...

Außerdem wieso steht bei den Specifications im ersten Bild dann doch wieder 3850? Das ist irgendwie nicht stimmig ... Könnte es sein, dass es 3 Versionen geben wird?

Och Mensch ... wenn der 55nm Prozess jetzt doch wieder Probleme macht, wieso ist man dann nicht gleich auf 65nm geblieben? ...
Wer sagt denn, dass der Prozess Probleme macht? Die niedrigen Taktraten können auch daraus resultieren, dass die TDP möglichst niedrig sein soll und somit die Bauteile des PCB und der Kühler günstiger/einfacher sind.
Die Performancekrone ist eh schon weg, jetzt geht es nur noch darum, ein abgerundetes günstiges Allroundangebot anzubieten.

Gast
2007-11-02, 19:03:44
Vorher waren aber ganz andere Taktraten geplant ...

Und ich glaub nicht, dass ATI die Taktraten einfach weiter reduziert, wenn man mir den ursprünglichen von der 88GT leicht überflügelt wird ... nach dem Motto "wird eh nix mehr - aber Hauptsache wir halten den Stromverbrauch noch geringer"

Das macht keinen Sinn

dargo
2007-11-02, 19:05:23
Übrigens scheint es bei GDDR4 wohl auch schon 1024MBit Chips zu geben.
Ist das nur bei GDDR4 der Fall? Ich dachte immer GDDR3 würde es auch schon bieten.

reunion
2007-11-02, 19:08:09
Vorher waren aber ganz andere Taktraten geplant ...

Und ich glaub nicht, dass ATI die Taktraten einfach weiter reduziert, wenn man mir den ursprünglichen von der 88GT leicht überflügelt wird ... nach dem Motto "wird eh nix mehr - aber Hauptsache wir halten den Stromverbrauch noch geringer"

Das macht keinen Sinn

Es macht schon Sinn, da AMD den Verkaufspreis beträchtlich senken wird müssen, wodurch man natürlich auch die Kosten möglichst niedrig halten muss. Würde mich nicht wundern, wenn neben den niedrigeren Taktraten auch der Dual-Slot-Kühler gestrichen wird.

reunion
2007-11-02, 19:09:57
Eben Speicherchips mit 32 Speicherzellen je 16MBit -> 16Mx32, bei der 3850 sind es dann Chips mit halber Kapazität.

16 Speicherchips wird man auf einer 256Bit Karte nur sehen, wenn sie mit 1GiB bestückt werden muss, ansonsten wäre es purer Unsinn.


Achso, danke.


Übrigens scheint es bei GDDR4 wohl auch schon 1024MBit Chips zu geben.

Also wäre ev. trotzdem 1024Mb möglich. Acht Bausteine braucht man ja sowieso wegen dem 256-bit SI.

AnarchX
2007-11-02, 19:12:08
Ist das nur bei GDDR4 der Fall? Ich dachte immer GDDR3 würde es auch schon bieten.
Da hast du recht:
HYB18H1G321AF-11 1Gb, 32Mx32, 900MHz, 1.8V, available 3Q07
http://www.qimonda.com/graphics-ram/gddr3/index.html

Damit wäre auch eine 1GiB 8800GT/HD3850 ohne aufwendiges 16-Chip-PCB möglich. ;)

Aber scheint wohl Qimonda momentan der einzige Anbieter zu sein.

dargo
2007-11-02, 19:15:55
Damit wäre auch eine 1GiB 8800GT/HD3850 ohne aufwendiges 16-Chip-PCB möglich. ;)
Ja, immer her damit. :D
Wobei, eine neue G92GTS mit 1GB Vram wäre mir lieber, oder noch besser neue GTX. :D

Gast
2007-11-02, 19:50:57
.. und die Diamond Seite ist wieder weg. Scheinen ja richtige Angaben gewesen zu sein.

Henroldus
2007-11-02, 21:20:06
Ja, immer her damit. :D
Wobei, eine neue G92GTS mit 1GB Vram wäre mir lieber, oder noch besser neue GTX. :D
mit der G92GTS 1GB @ 300Eur wären alle nachteile der 8800GT vom Tisch :smile:



Also wäre ev. trotzdem 1024Mb möglich. Acht Bausteine braucht man ja sowieso wegen dem 256-bit SI.
Genitivalarm :cop:

Gast
2007-11-02, 21:25:49
...
Genitivalarm :cop:
In diesem Forum gibt es schlimmere Sache.

Geht bei der HD-Serie das Overdrive nicht? Seit der 9800XT sind die Taktangaben bei ATi eigentlich zB 412+ MHz (aber nur wenn die Hersteller nichts einsparen, wie es Powercolor bei meiner 9600XT genacht hat).

reunion
2007-11-02, 21:51:57
Genitivalarm :cop:

Bei gängigen Präpositionen wie z.B. wegen oder während wird der Genitiv in der Umgangssprache zunehmend durch den Dativ ersetzt. Ich habe das also bewusst so geschrieben, aber du hast natürlich recht.

Gast
2007-11-03, 00:40:07
Topic?

http://img408.imageshack.us/img408/1546/quadslion79013524378bq3.jpg
http://www.theinquirer.net/gb/inquirer/news/2007/11/02/crossfirex

~ 2 TFLOPs MADD-Leistung...
Mein Gott, dann muss man eben eine vernünftige Platine nehmen wie das MSI K9A2 Platinum:

http://img152.imageshack.us/img152/5223/1m269e3defv2.jpg

http://www.fudzilla.com/images/stories/2007/October/General%20News/k9a2p-quad.jpg
Und jetzt das Gleiche mit vier Grafikkarten mit Dual-Slot-Kühlern.

StefanV
2007-11-03, 01:01:53
Und jetzt das Gleiche mit vier Grafikkarten mit Dual-Slot-Kühlern.
= -1 Slot.

Um das ganze mal zu visualisieren:
http://www.alternate-b2b.de/pix/faq/case/case_atx_midi.jpg

Ailuros
2007-11-03, 06:40:58
Zusätzliche Cluster "mal eben" hinzuzufügen kannst du vergessen.

Die originale GT war garantiert nicht mit 7 cluster geplant ;)

Ailuros
2007-11-03, 06:45:18
Sieht so aus, als würde die XT nur mit 775Mhz/1200Mhz und die PRO nur mit 668Mhz/828Mhz takten. Zumindest sind dies die Angaben von Diamond:



Tja als ich Dir sagte dass die yields fuer die angezielten 825MHz miserabel bis unterirdisch sind, sagtest Du dass es kein Problem sein wird, da NV auch erst mit der GT angetanzt ist ;)

Ist nicht boes gemeint, aber mit einem so jungen Herstellungsprozess sollte man stets vorsichtiger sein mit sehr hohen Frequenzen.

GeneralHanno
2007-11-03, 09:59:26
kolumne 88GT vs RV670:
http://www.hardware-infos.com/kolumnen.php?kolumne=6

letzlich kann man die niedrigeren taktraten auf 3 weisen deuten:
1. der 55nm prozess macht probleme (schlechte yield für 825mhz), (hier kann man nur auf A12 hoffen ...)
2. ATi will die preise unter 200$ ansetzen (gerüchte!!!) und dafür muss die ausbeute(yield) maximiert werden, damit die marge stimmt
3. (siehe folie) Ati will einen sehr guten stromverbrauch erreichen (was ja lobenswert wäre *freu*) und durch niedrigere taktraten sackt die spannung nochmal ein gutes stück ab

letztlich ist es vermutlich eine kombination aus allen 3 gründen ...

reunion
2007-11-03, 10:31:47
Tja als ich Dir sagte dass die yields fuer die angezielten 825MHz miserabel bis unterirdisch sind, sagtest Du dass es kein Problem sein wird, da NV auch erst mit der GT angetanzt ist ;)

Ist nicht boes gemeint, aber mit einem so jungen Herstellungsprozess sollte man stets vorsichtiger sein mit sehr hohen Frequenzen.

Für den ursprünglichen Verkaufspreis von 299$ wären die 825Mhz vermutlich drin gewesen. Aber nachdem nV vom RV670 Wind bekommen hat, der noch dazu viel früher als erwartet fertig wurde, kam mit der aufgebohrten 8800GT natürlich der Todesstoß für RV670. Jetzt kann man nur noch den Preis und die Herstellungskosten möglichst niedrig halten. Niedrigere Taktraten erhöhen die Yieldraten und machen das PCB billiger. Außerdem sollte jetzt auch der Single-Slot Kühler der PRO, die ja ursprünglich nur 25Mhz niedriger takten sollte verwendbar sein. Da das Die ohnehin sehr klein ist, steht einem preis von um die 200$ nichts mehr im Wege.

robbitop
2007-11-03, 10:36:55
Die originale GT war garantiert nicht mit 7 cluster geplant ;)
Istdie Frage, bis wann es eine "originale" GT gab. Ansonsten hat man vieleicht mehr cluster aktiviert. Meine Entstehungstheorie von der GT hab ich ja schonmal dargelegt. Geplant war's bei der Chipgröße sicher nicht.

PCGH_Carsten
2007-11-03, 11:10:59
reunion,

Meinst du wirklich, man hat in der Kürze der Zeit noch ein neues, kostenoptimiertes PCB für den RV670XT designed?

Gerade im Hinblick darauf: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5992893#post5992893

laser114
2007-11-03, 11:18:24
Meinst du wirklich, man hat in der Kürze der Zeit noch ein neues, kostenoptimiertes PCB für den RV670XT designed?

Kann man nicht das des RV670Pro nehmen?
Bei den jetzt nochmal gesenkten Taktraten sollte das doch laufen, immerhin war die PRO ganz am Anfang scheinbar mal für 750 MHz vorgesehen. Und 8 Speicherplätze reichen auch. Spricht sonst etwas gegen dieses PCB?

3DoMan
2007-11-03, 11:24:26
Kann man nicht das des RV670Pro nehmen?
Bei den jetzt nochmal gesenkten Taktraten sollte das doch laufen, immerhin war die PRO ganz am Anfang scheinbar mal für 750 MHz vorgesehen. Und 8 Speicherplätze reichen auch. Spricht sonst etwas gegen dieses PCB?

Ohne Doppelslotkühler wird die XT für mich und mein kommendes HTPC Gehäuse uninteressannt. Da sparen sie am falschen Ende, so denken nicht wenige.

laser114
2007-11-03, 11:25:53
Ohne Doppelslotkühler wird die XT für mich und mein kommendes HTPC Gehäuse uninteressannt. Da sparen sie am falschen Ende, so denken nicht wenige.

Auch wenn der Lüfter so läuft wie der der 8800 GT?
Mal abgesehen davon, sind Doppelslotkühler dann ja nicht vollständig vom Tisch, sondern Karten mit diesen wären nur teurer als andere 3870er.

reunion
2007-11-03, 11:48:03
reunion,

Meinst du wirklich, man hat in der Kürze der Zeit noch ein neues, kostenoptimiertes PCB für den RV670XT designed?

Gerade im Hinblick darauf: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=5992893#post5992893

Kommt darauf an, wie kurzfristig AMD von der 8800GT erfuhr. Ev. kann man auch das PRO-PCB nehmen, diese sollte ja ursprünglich kaum niedriger takten als die jetzige XT. Allerdings wird man hier wegen des GDDR4 wohl auch nicht ohne Modifikationen auskommen. Mal sehen wie die finalen Karte dann aussehen. So ein Vollkupfer Dual-Slot-Kühler, der bis jetzt mit der XT in Verbindung gebraucht wurde, dürfte jedenfalls in diesem Preisbereich auch nicht ganz billig sein.

GeneralHanno
2007-11-03, 11:51:12
vll gibt es ja neben der xt für 199$ (pro-PBC / singelslot) noch eine "xtx special edition" mit dem alten xt-PBC / dualslot / 1GB

Gast
2007-11-03, 12:08:44
Tja als ich Dir sagte dass die yields fuer die angezielten 825MHz miserabel bis unterirdisch sind, sagtest Du dass es kein Problem sein wird, da NV auch erst mit der GT angetanzt ist ;)

Ist nicht boes gemeint, aber mit einem so jungen Herstellungsprozess sollte man stets vorsichtiger sein mit sehr hohen Frequenzen.
Wenn Quad-CF auch mit der RV670XT funktionieren soll, dann geht das nur mit Single-Slot-Kühlern. Vielleicht liegt da das Problem, dass mit so einem Kühler eine RV670XT mit 825 nicht ausreichend gekühlt werden kann. Oder sägt man für Quad-CF das Gehäuse auf?

reunion
2007-11-03, 12:13:32
Wenn Quad-CF auch mit der RV670XT funktionieren soll, dann geht das nur mit Single-Slot-Kühlern. Vielleicht liegt da das Problem, dass mit so einem Kühler eine RV670XT mit 825 nicht ausreichend gekühlt werden kann. Oder sägt man für Quad-CF das Gehäuse auf?

Für Quad-CF ist wohl eher die später kommende Dual RV670-Karte vorgesehen.

GeneralHanno
2007-11-03, 12:42:35
wieso? es gibt doch screens mit 4 AMD-SKUs auf einem mobo ;)

die R670X2 soll doch ein gemeinsames PBC haben.

deekey777
2007-11-03, 12:44:09
wieso? es gibt doch screens mit 4 AMD-SKUs auf einem mobo ;)

die R670X2 soll doch ein gemeinsames PBC haben.
Mit vier Grafikkarten und jede mit Dual-Slot-Kühlern?

Schlammsau
2007-11-03, 12:50:59
grad gefunden.......
@ ComputerBase 03.11.07
Einmal mehr ist einer der Boardpartner vorgeprescht und hat quasi alle Einzelheiten (bereits wieder offline) zu den kommenden Grafikkarten von AMD preisgegeben. Im Detail zeigen sich dabei die beiden Modelle Radeon HD 3850 und HD 3870.

Das kleine Modell hört auf die Bezeichnung Radeon HD 3850. Ihm stehen 256 MB GDDR3-Speicher zur Seite, der mit 828 MHz (effektiv 1.656 MHz) getaktet ist. Auch der Chiptakt besitzt keinen runden Zahlenwert – 668 MHz stehen hier auf dem Papier. Wie bei dem Topmodell, stehen auch dem kleinen Ableger 320 Stream-Prozessoren zur Verfügung, das Speicherinterface ist ebenfalls wie bei der HD 3870 256 Bit breit. Der Vorteil der HD 3870 liegt in den 512 MB GDDR4-Speicher, der mit 1.200 MHz (effektiv 2.400 MHz) taktet. Auch geht der Chip mit 775 MHz deutlich schneller zu Werke, liegt aber von den bisher erwarteten 825 MHz ein ganzen Stück entfernt. Aber auch die HD 3850 liegt in einigen Bereich deutlich unter dem bisher erwarteten Takt. Beide Modellen, die in 55 nm gefertigt werden, bieten Unterstützung für PCI Express 2.0 und DirectX 10.1. Auch die neuen erweiterten CrossFire-Varianten mit bis zu vier Karten finden in den beiden Grafikkarten erstmals passende Vertreter. Voraussetzung für einen Einsatz von vier dieser Karten ist jedoch ein neues Mainboard mit dem AMD-Chipsatz „790FX“. Preisangaben oder die Verfügbarkeit der Modelle sind derzeit noch nicht bekannt.
http://666kb.com/i/at7f1y5svso12exk4.jpg
------------------------------------------------------------------------------------------
http://666kb.com/i/at7f2bnywz1bi5en8.jpg

w0mbat
2007-11-03, 12:57:03
Rate mal über was wir die letzte(n) Seiten diskutieren :)

Schlammsau
2007-11-03, 13:00:20
28 seiten sind einfach zu unübersichtlich :redface:

GeneralHanno
2007-11-03, 13:14:07
Mit vier Grafikkarten und jede mit Dual-Slot-Kühlern?

http://www.fudzilla.com/images/stories/2007/October/General%20News/k9a2p-quad.jpg

singelslot ...

DrumDub
2007-11-03, 13:16:11
28 seiten sind einfach zu unübersichtlich :redface: also du findest das ganze schon auf seite 26: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5991403#post5991403

bitte demnächst ruhig mal die letzten drei bis vier seiten des threads überfliegen, bevor man "alte" news postest... ;)

MadManniMan
2007-11-03, 13:40:28
bitte demnächst ruhig mal die letzten drei bis vier seiten des threads überfliegen, bevor man "alte" news postest... ;)

Du bist für Sammelfreds, right?

GeneralHanno
2007-11-03, 13:52:30
eigentlich werden solch wichtige news/folien in dem sammelthread bei #1 von anarchX eingefügt ...

Gast
2007-11-03, 14:09:54
also du findest das ganze schon auf seite 26

Das solltest du als Moderator eigentlich wissen: Je nach Benutzereinstellung haben die User hier mehr oder weniger Postings pro Seite.

Deine Angabe ist daher nutzlos, da es auch Seite <20 oder Seite >30 sein könnte... je nachdem.

Bokill
2007-11-03, 14:41:17
... Aber nachdem nV vom RV670 Wind bekommen hat, der noch dazu viel früher als erwartet fertig wurde, kam mit der aufgebohrten 8800GT natürlich der Todesstoß für RV670. Jetzt kann man nur noch den Preis und die Herstellungskosten möglichst niedrig halten.

Niedrigere Taktraten erhöhen die Yieldraten und machen das PCB billiger. Außerdem sollte jetzt auch der Single-Slot Kühler der PRO, die ja ursprünglich nur 25Mhz niedriger takten sollte verwendbar sein. Da das Die ohnehin sehr klein ist, steht einem preis von um die 200$ nichts mehr im Wege. Also TSMC sprach von dem "Herbst 2007" für die Nachfolgegeneration des RV600 in 55 nm.

Ich sehe da keine eigentlichen voreiligen Markteintritt, sondern eher eine unerwartete Einhaltung des Zeitplanes. Im Bezug zu den ewigen Verzögerungen bei AMD im Jahr 2007 ist das mal was neues.

Fragt sich nun, ob der RV670 nun nicht doch noch nur ein früher Paperlaunch war, oder tatsächlich in den nächsten Wochen tatsächlich die Ladentheken der Welt noch vor Weihnachten 2007 damit in höherer Stückzahl damit bestückt werden.

Solange da nur mal wieder bunte Bilder im Internet lanciert werden und nur wenige Testredaktionen den Mund mit Benchmarks wässrig machen, solange betrachte ich das Treiben von AMD/ATI und Nvdia vorsichtig gespannt.

Eines scheint aber sicher zu sein, endlich kommen Einzel-Slotkarten auf den Markt, mit denen man sogar anspruchsvoll spielen kann.

MFG Bobo(2007)

reunion
2007-11-03, 14:51:45
Also TSMC sprach von dem "Herbst 2007" für die Nachfolgegeneration des RV600 in 55 nm.

Ich sehe da keine eigentlichen voreiligen Markteintritt, sondern eher eine unerwartete Einhaltung des Zeitplanes. Im Bezug zu den ewigen Verzögerungen bei AMD im Jahr 2007 ist das mal was neues.

Fragt sich nun, ob der RV670 nun nicht doch noch nur ein früher Paperlaunch war, oder tatsächlich in den nächsten Wochen tatsächlich die Ladentheken der Welt noch vor Weihnachten 2007 damit in höherer Stückzahl damit bestückt werden.

Solange da nur mal wieder bunte Bilder im Internet lanciert werden und nur wenige Testredaktionen den Mund mit Benchmarks wässrig machen, solange betrachte ich das Treiben von AMD/ATI und Nvdia vorsichtig gespannt.

Eines scheint aber sicher zu sein, endlich kommen Einzel-Slotkarten auf den Markt, mit denen man sogar anspruchsvoll spielen kann.

MFG Bobo(2007)

Die Karte kommt schon früher als geplant. Alte ATi-Roadmaps sehen die gesamte R680-, RV670-, RV635-, RV620-Riege im Q1 2008. RV670 wurde offensichtlich vorverlegt. nV änderte nicht ohne Grund im September die Roadmap und brachte eine 8800GT.

/Edit:
http://img524.imageshack.us/img524/9291/02r680yd4.jpg

laser114
2007-11-03, 14:52:12
Also TSMC sprach von dem "Herbst 2007" für die Nachfolgegeneration des RV600 in 55 nm.

Auf den früheren Roadmaps war der RV670 immer mit 1Q 2008 geführt. Das der 55nm-Prozess etwas eher verfügbar war, kann ja sein. ;)

Hvoralek
2007-11-03, 15:50:15
Das solltest du als Moderator eigentlich wissen: Je nach Benutzereinstellung haben die User hier mehr oder weniger Postings pro Seite.

Deine Angabe ist daher nutzlos, da es auch Seite <20 oder Seite >30 sein könnte... je nachdem.Er hatte selbst von 28 Seiten gesprochen, verwendet also insoweit wohl die Standardeinstellungen.

AnarchX
2007-11-03, 16:02:57
eigentlich werden solch wichtige news/folien in dem sammelthread bei #1 von anarchX eingefügt ...
Richtig, diese "Finalen Taktraten?" sind seit gestern im ersten Post.


Hmmm... im Nachhinein war die Karte, die ein User im XS hatte mit 600/600MHz vielleicht doch eine finale HD3830(aka 2950GT).

Gast
2007-11-03, 20:51:47
http://www.hardwareschotte.de/hardware/preise/proid_9142430/preis_ATI+Radeon+HD3870

Schon gelistet. Aber mit ursprünglichem Takt. Ich traue da aber eher den Diamond Werten.

laser114
2007-11-03, 20:55:20
Sind für mich auch nur abgeschriebene Gerüchte, Insider-Infos haben die nicht.

AnarchX
2007-11-03, 20:55:25
Aber kein Shop dahinter, also im Endeffekt auch nur ein Mitarbeiter dieses Preisvergleiches der sich an die Spekus hält. ;)

Eine Frage ist natürlich, ob die Verbrauchswerte mit den geringeren Taktraten sinken oder ob diese Senkung nötig war um die TDP-Richtlinien der Board-Designs einzuhalten...

Gast
2007-11-03, 20:56:31
Hui, die muss aber nun _deutlich_ billiger werden als die 88GT wennse jemand kaufen soll...

laser114
2007-11-03, 21:33:54
Eine Frage ist natürlich, ob die Verbrauchswerte mit den geringeren Taktraten sinken oder ob diese Senkung nötig war um die TDP-Richtlinien der Board-Designs einzuhalten...

Fall auch der 3870 jetzt mit RV670PRO-Platine kommt, macht letzteres sogar Sinn.

AnarchX
2007-11-03, 21:38:39
Fall auch der 3870 jetzt mit RV670PRO-Platine kommt, macht letzteres sogar Sinn.

Imo ist der einzige Unterschied zwischen Revival und Gladiator, dass letzere auf GDDR4 setzt von der Stromversorgung sollte es eigentlich keinen Unterschied geben.

Gast
2007-11-03, 21:58:57
http://www.hardwareschotte.de/hardware/preise/proid_9142430/preis_ATI+Radeon+HD3870

Schon gelistet. Aber mit ursprünglichem Takt. Ich traue da aber eher den Diamond Werten.
Bei HW-Schotte konnte man Sommer 2005 auch eine X900XT finden.

laser114
2007-11-03, 22:15:19
Imo ist der einzige Unterschied zwischen Revival und Gladiator, dass letzere auf GDDR4 setzt von der Stromversorgung sollte es eigentlich keinen Unterschied geben.

Nach Diamond hat die Revival nur 8 Speicherchipplätze, Gladiator aber 16. Da muss es also einen weiteren Unterschied geben.

AnarchX
2007-11-03, 22:32:48
Nach Diamond hat die Revival nur 8 Speicherchipplätze, Gladiator aber 16. Da muss es also einen weiteren Unterschied geben.
Was Diamond angibt ist die Größe der Speichermodule und nicht die Anzahl...

reunion
2007-11-03, 22:44:37
Imo ist der einzige Unterschied zwischen Revival und Gladiator, dass letzere auf GDDR4 setzt von der Stromversorgung sollte es eigentlich keinen Unterschied geben.

Das PCB ist schon unterschiedlich. Hier ein Gladiator-Board "nackt":
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5909578#post5909578

-/\-CruNcher-/\-
2007-11-03, 23:28:36
Hi, was meint ihr hierzu wäre dies nicht eine plausibele Erklärung wieso der RV670XT nun doch ein wenig underclocked auf den Markt kommen wird :)


HD 3850 RV670 686/828 = 10245 ?? 3Dmark 06 (PCB TDP 95W inklusive 10W Overclocking buffer = 105W Max)
HD 3850 RV670 700/828 = ????? 3Dmark 06 (PCB TDP 95W inklusive 10W Overclocking buffer = 105W Max)

HD 3870 RV670XT 775/1200 = ????? 3Dmark 06 (PCB TDP 105W inklusive 30W Overclocking buffer = 135W Max)
HD 3870 RV670XT 825/1200 = 12000 ?? 3Dmark 06 (PCB TDP 105W inklusive 30W Overclocking buffer = 135W Max)

GF 8800GT G92 600/900 /1500 = 11400 3Dmark 06 (PCB TDP 100W inklusive 10W Overclocking buffer = 110W Max)
GF 8800GT G92 720/1000/1800 = 13100 3DMark 06 (PCB TDP 110W inklusive 10W Overclocking buffer = 110W Max)


Mir kommt es so vor als bauen die Hersteller in jedes Karten Design (inklusive Lüftung) seit kurzem so etwas wie einen Overclock buffer ein, was meint ihr dazu ? (siehe auch ganze pre Overclocked 8800 GT Karten releases mit standard Reference Boards bis zu 700mhz)
Bei den 3dmark 06 werten bin ich mir nicht ganz sicher da selbst mit vielen Quellen dort immernoch die CPU mit reinspielt, besser währe es wenn die ganzen leaks die Shader scores aufzeigen würden tun sie aber leider nicht man nimmt immer den Haupt 3Dmark 06, was aus meiner sicht absoluter quatsch ist um die reine Grafikpower beurteilen zu können.
Nun stellt sich natürlich die Frage wie groß ist der Overclocking Buffer der HD 3870er, es ist schwer dies momentan festzulegen, ich würde allerdings sagen er muss sehr groß ausfallen also mehr als wie bei Nvidias 8800 GT (10W) wenn wir uns mal die TDP anschauen die das Ati board Maximal supportet (dann davon ausgehen das wir hier nen 55nm GPU haben), ergo nehme ich an sind es ca 20-25W mit einem takt von 775 (was aber nur anscheinend der reale Release takt zu sein scheint) also kommt die HD 3870 wohlmöglich auf den selben W verbrauch mit diesen Releasedaten wie die 8800 GT bei 700mhz nämlich 110W + dann noch 25W overclock buffer (ATI).
Jap sicherlich alles nur Spekulation aber ich glaube (nein ich bin sogar fest davon überzeugt) das der RV670XT dem G92 in der GT version in nichts nach stehen wird (in der Hoffnung das sie bei AA nicht extreme einbricht aber selbst wenn hauptsache sie erreicht Fluid Motion results) er wird sicher nicht sehr erheblich langsamer sein, dafür aber hoffentlich kostengünstiger die geleakten 199$€ scheinen da sehr realistisch zu sein.
Nun greif ich mal tief in die Spekulationstasche bei einem Takt von 825mhz gehe ich davon aus das sie im Vergleich zur normal getakteten 8800 GT höchstwahrscheinlich 1-2fps langsamer sein wird (Crysis) (bedingt durch die Shaderoptimierungen seitens Nvidia laut Ati slides sollte sie denoch schneller sein (nur bei welchem takt wurde das ermittelt ??) ).
Eine andere frage bleibt da natürlich noch (bis zum 15) ungeklärt nämlich bei der Anahme eines 25W großen buffer fürs overclocking wie hoch würde die Karte dann kommen, wenn wir davon ausgehen das bei 825mhz nicht schluss sein sollte, das könnten dann doch gut an die 900mhz werden (135W) das sollte theoretisch selbst eine maximum 700mhz GT einholen (110W) :D

K4mPFwUr$t
2007-11-04, 00:18:26
@-/\-CruNcher-/\-
hoffe nur für die entwickler das sie den flaschenhals gefunden haben, der bei einigen games mit aktiven AA massive einbrüche an FPS bringt gegenüber keinem AA.

was dem OC buffer angeht bin ich geteilter meinung. wenn es OC buffer gibt, dann schon länger. auch wenn diese je nach karte sich sehr unterschieden. die 88GT scheint eine gute steigerung von clocks zu vertragen (außgenommen den 1.0ns qimonda) aber besitzt durch die stromversorgung nur wenig OC buffer. würde man der karte noch ein spawa + PCIe stromconnector zufügen, wäre der OC buffer sicherlich noch besser.
bei der GTS/GTX ist es so, sie haben viel luft nach oben durch die spawas und stromversorgung an sich, aber nur seit kürze durch die A3 revision lassen sie sich doch etwas takten.

-/\-CruNcher-/\-
2007-11-04, 01:06:06
Jep der OC buffer existiert sicher schon länger Anfangs war er sicher nicht dafür gedacht sondern als Schutz für das PCB vor dem Abrauchen.
Wenn man sich das PCB Layout der Gladiator anschaut sind das doch 4 Phasen daher scheint auch der maximale Verbrauch von 135W zu kommen, aber wie gesagt ich bezweifele das die HD 3870 dies mit dem momentanen veröffentlichten release Takt (775mhz) selbst voll belastet ausnutzen wird (das passt einfach nicht zum ATI marketing (more performance per watt) und zu den 55nm und schon garnicht zu den im Vorfeld geleakten 825mhz (50mhz unterschied), genauso wie die 8800 GT (65nm) voll belastet mit Standardtakt das PCB nicht voll an die Grenze bringt, erst bei erhötem Takt von 100mhz scheint das so. Deshalb bezweifele ich wirklich das die Ati Karten sich nicht höher als 100mhz übertakten lassen werden sollten (ob da der Kühler mitmacht ist eine andere Frage aber das sollte ein kleineres Problem darstellen als wie bei den 65nm Nvidias), zudem wenn ich mir über Monate anschaue wie die Releases von Nvidia und Ati abgelaufen sind verwundert mich ein wenig das es so verdamt schwer war an ATI informationen heran zu kommen es war eine regelrechte Verwirrungskampagne seitens AMD/ATI bei Nvidia überhaupt nicht da kamm alles so wie geleaked es verwundert nichts (absicht ?). Man könnte nun vermuten das ATI es genauso machen wird wie Nvidia sprich pre Overclocked Karten seitens der AIBs aber irgendwie kann ich es nicht glauben das bei 825mhz dann schon schluss sein soll (50mhz mehr bei 55nm im Vergleich zu Nvidias 100mhz mehr bei 65nm scheint wirklich ein Rückschritt, es sei den man kann mit den 825mhz Nvidia schlagen das würde dann wieder zum Marketing "more performance per watt" passen).
Übrigens wechsele ich von ner 7600GS zu einer der beiden und weiss das der unterschied enorm ausfallen wird egal welche von den beiden es sein wird, aber ich möchte am liebsten zurück zu ATI da ich nicht überzeugt von Nvidias Treiberarchitektur bin, das porten alleine von PV2 zu XP hat schon zu lange gedauert (das war bei ATI mit UVD bei release schon fertig) und mich nerft es immernoch das Nvidia sich nicht um dieses Problem hier http://forums.nvidia.com/index.php?showtopic=15184&st=0 gekümmert hat und dann wäre da noch dies hier http://www.theinquirer.net/en/inquirer/news/2007/09/18/nvidia-cynically-fiddled-video-benchmarks http://www.fudzilla.com/index.php?option=com_content&task=view&id=2777&Itemid=34 ;)

Das hier ist denke ich auch interesant für einen RV670XT Rückschluss

http://www.expreview.com/img/news/071103/nfs_benchmark.png

natürlich ist es möglich das hier viele texturen herumgeschaufelt werden und deshalb die 2900XT mit ihrem 512bit speicherinterface und den 1GB profitiert aber im Vergleich zum Refresh (RV670XT) und was Nvidia mit ihrem Refresh geschaft hat doch wie ich finde sehr interessant, zumal es sich hier auch um einen "The Way it's meant to be played" Titel handelt,mit 700mhz würde die 8800GT vorausichtlich auch noch drunter liegen nur der Shadertakt könnte ihr einen erheblichen boost verpassen aber bei allen overclocks die ich in reviews gelesen hab waren mehr als 4 fps nicht drin (2 bei Crysis) :)

Also ich glaube Nvidia hat nun ein Problem (vorausgesetz die neue Ati behebt die AA einbrüche) sie können nichts fix aus dem Hut zaubern preislich gesehen und die 8800 GTS (G92) können sie nicht einfach mal so billiger als die GT releasen aber anscheinend bereiten sie sich damit auf die RV670XT vor, das würde dann aber nicht mehr zum geleakten Ati preis von 199$ passen sondern eher zu dem angepeilten von 299$ (wobei im Vergleich mit dem Performance Gewinn dann die GT wieder vom Preis/Leistungsverhältnis günstiger wäre oder vieleicht sogar die RV670Pro) sehr merkwürdig was will Nvidia mit der 8800 GTS (G92) covern ?

Das war wohl sehr voreilig von Nvidia und passt ganz und garnicht zu ihrem jetzigen 8800 GTS (G92) verhalten :D, hm selbst Leadtek benutzt das ja als Werbung auf ihrer 8800 GT verpackung oh junge wenn die sich da mal nicht geirrt haben (ich hoff mir das ja innerlich soooo sehr) dann würden sich aber am 15 eine menge 8800 GT Early adopters dumm vorkommen (werden sie vom Preis/Leistungsverhältnis sowieso)

http://www.expreview.com/img/news/071030/88vs670.jpg

hier der Boxshot von Leadtek, dort wurde übrigens das RV670 XTX in XT upgedated
http://www.leadtek.com/eng/3d_graphic/image/winfast_px9900_gt_1.jpg

Eh alles übertrieben selbst bei 10% langsamer wären das bei Crysis wen man von Nvidia 30 fps ausgeht 3 fps weniger wenn der Preis dann bei 199$ liegt also ganz klar was dann gekauft wird, vor allem das man die 10% dann locker mit OC wieder rausholen sollte können (ich stell mir das ja dann so vor 199€ + anderen kühler und dann rauf auf die vollen 135W TDP da sollte aber die 8800 GT mit 110W TDP alt aussehen aber man darf wiederum ja nicht vergessen es kommen noch die 3 Phasen Karten ala Palit/Xpertvision 8800 GT Sonic TDP wird da voraussichtlich bei 12xW liegen nehm ich an) :D


Auch sehr schön zum vergleichen

http://www.abload.de/img/crysisbenchx8e.jpg

Also ich denke mal schon man kann hier sagen das 600 mhz (G92) in etwa 800 mhz (R600,RV670) entsprechen bei Crysis zumindestens

Bilder einer fertigen Revival (RV670Pro oder vieleicht doch XT) von yeston

http://www.hartware.de/media/news/43000/43387_1b.jpg http://www.hartware.de/media/news/43000/43387_2b.jpg

Was ich überhaupt nicht verstehe ist das die keinen Adapter machen, so eine art Lüftertunnel Erweiterung so das benutzer die es wollen die Lüftung über zweiten slot nach aussen führen können, vorausgesetz sie möchten es (kann man sich aber auch selber basteln).

Ailuros
2007-11-04, 07:28:30
Istdie Frage, bis wann es eine "originale" GT gab. Ansonsten hat man vieleicht mehr cluster aktiviert. Meine Entstehungstheorie von der GT hab ich ja schonmal dargelegt. Geplant war's bei der Chipgröße sicher nicht.

Die Chipgroesse wird NV auch die 8800M Dingsbumse liefern und ich bin mir gar nicht so sicher dass das Ding auch 7 cluster haben wird, bei dem von NV angegebenen Stromverbrauch.

Bis zum August hatte ich keine Ahnung mehr was los sein koennte, bis (war es jetzt der INQ oder Fudo?) eine der Trash-tabloid Seiten vermerkte dass die AIBs ziemlich angepisst gegen NV sind mit dem ganzen SP-count Wirrwarr. Dass die G80-GTS ploetzlich auch mit bis zu 7 cluster ankommen seit neuestem hast Du wohl mitbekommen oder? Dabei schreiben die Hersteller in ihren Specs seit neuestem 96+ SPs auf ihren Seiten.

Irgendwo durch den Sommer tauchte in irgendeinem Treiber eine angebliche 8800GS auf; auf direkte Anfrage mit dem PR Team hiess es dass es ein Tippfehler sei und es fuer den Desktop nie eine solche GPU geben wird.

Und was soll uebrigens mit der Chip-groesse denn ueberhaupt sein? Hat es NVIDIA davon abgehalten von einem 484mm^2 zwei Cluster fuer die urspruenglichen 8800GTS zu deaktivieren oder haben sie Dank diesem weniger Gewinn gemacht? Bei einem um einiges kleinerem die ist es noch um einiges einfacher.

Ailuros
2007-11-04, 07:40:08
Für den ursprünglichen Verkaufspreis von 299$ wären die 825Mhz vermutlich drin gewesen. Aber nachdem nV vom RV670 Wind bekommen hat, der noch dazu viel früher als erwartet fertig wurde, kam mit der aufgebohrten 8800GT natürlich der Todesstoß für RV670. Jetzt kann man nur noch den Preis und die Herstellungskosten möglichst niedrig halten. Niedrigere Taktraten erhöhen die Yieldraten und machen das PCB billiger. Außerdem sollte jetzt auch der Single-Slot Kühler der PRO, die ja ursprünglich nur 25Mhz niedriger takten sollte verwendbar sein. Da das Die ohnehin sehr klein ist, steht einem preis von um die 200$ nichts mehr im Wege.

Die original angezielten 825MHz haben sehr wenig mit all dem obrigen zu tun wenn ueberhaupt etwas. Es gibt einen Unterschied wenn man chips per wafer zaehlt und wafer per chip, falls diese Kleinigkeit vielleicht einleuchtet ueber was fuer yields ich genau gehoert habe.

Ailuros
2007-11-04, 07:44:29
Wenn Quad-CF auch mit der RV670XT funktionieren soll, dann geht das nur mit Single-Slot-Kühlern. Vielleicht liegt da das Problem, dass mit so einem Kühler eine RV670XT mit 825 nicht ausreichend gekühlt werden kann. Oder sägt man für Quad-CF das Gehäuse auf?

Dabei frage ich mich immer noch was alles ueber dual CF oder dual SLi am Ende genau bringen wird, als nur eine fette Rechnung fuer den Verbraucher.

Anders ein quad CF System mit GPUs die in etwa $800 kosten werden, muesste ein 2*8800GT@SLi combi fuer ~$500 regelrecht versaegen.

AnarchX
2007-11-04, 08:48:59
Das hier ist denke ich auch interesant für einen RV670XT Rückschluss

http://www.expreview.com/img/news/071103/nfs_benchmark.png

Die 8800 GT ist hier im Verhältnis zu 8600GTS eindeutig zu langsam, da lief wohl etwas schief bzw. wird es der nächste FW richten. ;)

Die Chipgroesse wird NV auch die 8800M Dingsbumse liefern und ich bin mir gar nicht so sicher dass das Ding auch 7 cluster haben wird, bei dem von NV angegebenen Stromverbrauch.

Aber wie schon eher erwähnt, dürfte doch die Variante aus mehr Einheiten + niedrigeren Takt weniger verbrauchen als weniger Einheiten + mehr Takt mit der gleichen Endleistung?
Zudem könnte man ja auch mit einer hohen SP-Zahl entsprechend werben. ;)

Werni58
2007-11-04, 10:50:58
Das PCB ist schon unterschiedlich. Hier ein Gladiator-Board "nackt":
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5909578#post5909578

Werden die R 600 Wasserkühler passen oder ist das Layout sehr starx verändert??

dargo
2007-11-04, 11:04:45
Das hier ist denke ich auch interesant für einen RV670XT Rückschluss

http://www.expreview.com/img/news/071103/nfs_benchmark.png

Warum wurde hier zwei mal das gleiche mit unterschiedlichen Ergebnissen gebencht, oder übersehe ich hier was?

Und vorallem warum ohne AA/AF(?)? ;)

PCGH_Carsten
2007-11-04, 11:14:41
Warum wurde hier zwei mal das gleiche mit unterschiedlichen Ergebnissen gebencht, oder übersehe ich hier was?

Und vorallem warum ohne AA/AF(?)? ;)
Möglicherweise die beiden verschiedenen Strecken der Demo?

-/\-CruNcher-/\-
2007-11-04, 11:18:28
HEHE


ATI Slides

2900XT = 11435
RV670XT = 12000+
Differenz = 565


CB latest test

GF 8800 Ultra = 11978
RV670XT = 11623 ??
GF 8800GT = 11347
2900XT = 11058 + 565 = 11623


Tada :D, aber ehrlichgesagt bin ich nicht so nen 3Dmark Score freak Shader Scores ermittelt mit 3Dmark oder Shadermark wären mir lieber gewesen von ATI, wir wissen aber immernoch nicht mit welchem Takt diese ermittelt wurden ich gehe mal davon aus noch mit den 825mhz

dargo
2007-11-04, 11:18:36
Möglicherweise die beiden verschiedenen Strecken der Demo?
Ja ok, das macht Sinn. Mein chinesisch ist leicht angerostet. :D

HEHE


ATI Slides

2900XT = 11435
RV670XT = 12000+
Differenz = 565


CB latest test

GF 8800 Ultra = 11978
RV670XT = 11623 ??
GF 8800GT = 11347
2900XT = 11058 + 565 = 11623


Tada :D
Oh man, jetzt kommt wieder die 3DFurz Lachnummer. :usad:

reunion
2007-11-04, 12:30:00
Und was soll uebrigens mit der Chip-groesse denn ueberhaupt sein? Hat es NVIDIA davon abgehalten von einem 484mm^2 zwei Cluster fuer die urspruenglichen 8800GTS zu deaktivieren oder haben sie Dank diesem weniger Gewinn gemacht? Bei einem um einiges kleinerem die ist es noch um einiges einfacher.

Ein G80 wurde auch weit teurer verkauft, selbst die GTS lag bei 399$/349$ (640/320MB). Ein derart großes Die gab es jedenfalls noch nie im einem solchen Preisbereich zu kaufen.

James Ryan
2007-11-04, 12:30:48
Werden die R 600 Wasserkühler passen oder ist das Layout sehr starx verändert??

Die R600 Wakühler werden wohl nicht passen, die Speicher und Spawas sind komplett anders angeordnet als bei R600 Karten.

MfG :cool:

Hvoralek
2007-11-04, 12:56:10
Ein derart großes Die gab es jedenfalls noch nie im einem solchen Preisbereich zu kaufen.Die 7800 GT war afair ähnlich teuer und G70 sogar noch größer als G92. Die 7800 GS lasse ich mal raus, da war noch ein etwas größerer Anteil deaktiviert.

laser114
2007-11-04, 13:47:32
Die 7800 GT war so billig? Kann ich mich nicht errinern. Die 7600 GT wurde doch bei ~ 200€ eingeführt.

Das Die lag übrigens bei ~ 333 mm^2.

Hvoralek
2007-11-04, 14:11:08
Die 7800 GT war so billig? Kann ich mich nicht errinern. Die 7600 GT wurde doch bei ~ 200€ eingeführt.Soweit ich mich erinnere, lag die GT bei 250 - 300€. Gift nehmen würde ich darauf allerdings nicht.

Ailuros
2007-11-04, 14:16:51
Ein G80 wurde auch weit teurer verkauft, selbst die GTS lag bei 399$/349$ (640/320MB). Ein derart großes Die gab es jedenfalls noch nie im einem solchen Preisbereich zu kaufen.

"Gross" ist stets relativ fuer jeden Zeitpunkt. Neben all den anderen schon aufgefuehrten Beispielen, um wieviel wurde denn damals die erste 9500PRO genau verschelpelt?

Jeder von Euch weiss dass es besser ist etwas defekte chips mit deaktivierten Einheiten zu verkaufen, als diese in den Abfalleimer zu werfen.

Das einzige was es fuer NVIDIA heisst einen so grossen die zu haben, ist dass da noch mehr Leistung drin steckt der garantiert bei hoeherem Preis verkauft wird bei zukuenftigen Revisionen des chips.

NVIDIA kann G92/512MB locker zwischen $250-300 ohne sich darueber sorgen zu machen dass sie irgendwelche R&D Unkonsten der vergangenen Familie nicht abgedeckt haben, dass die Konkurrenz irgend etwas leistungsfaehigeres in der Schublade haben koennte als RV670 oder letztenendes dass die Dinger nicht wie warme Semmeln von den Regalen gerissen werden.

Du willst mir wohl nicht einreden dass NV mit dem Quark wieder keine verrueckte Gewinne machen wird oder? Ob der Gewinn groesser sein koennte bei einem hypothetisch kleinerem die? Nein und abermals nein; G92 skaliert dafuer von oben nach unten verdammt gut und muss nicht nur auf die Frequenz beruhen um die Leistung erstmal zu skalieren.

Ailuros
2007-11-04, 14:18:45
Soweit ich mich erinnere, lag die GT bei 250 - 300€. Gift nehmen würde ich darauf allerdings nicht.

7900GT wenn ich mich jetzt richtig erinnere. Ich glaube die 7800GT war schon etwas teurer.

laser114
2007-11-04, 14:37:41
Soweit ich mich erinnere, lag die GT bei 250 - 300€. Gift nehmen würde ich darauf allerdings nicht.

Zur Einführung der 7900 GT, also dem EoL der 7800 GT, waren es noch 290€:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/28

Ailuros
2007-11-04, 14:56:15
Zur Einführung der 7900 GT, also dem EoL der 7800 GT, waren es noch 290€:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/28

Die 7900GT war bei Einfuehrung bei $299 angesetzt und die 7900GS bei $200. Wie viele deaktivierte Einheiten hatte denn die letztere im Vergleich zur ersten?

Bei der NV4x Produktreihe war es die NV42 die fuer $249 anfangs verkauft wurde.

***edit: da wir schon dabei sind, NV42 ergab zwei Produkte fuer NVIDIA: GeForce Go 6800 Ultra & 6800GS.

AnarchX
2007-11-04, 15:08:36
Zur Einführung der 7900 GT, also dem EoL der 7800 GT, waren es noch 290€:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/28

Die 7800 GT gab es eine Zeit lang für ca. ~260€ Anfang 2006. ;)


***edit: da wir schon dabei sind, NV42 ergab zwei Produkte fuer NVIDIA: GeForce Go 6800 Ultra & 6800GS.
Die 6800XT basierte doch auch zum Teil auf NV42.

StefanV
2007-11-04, 15:22:47
nV42??
War das nciht der bei IBM gefertigte NV40?
Oder war das der nV41?

Ailuros
2007-11-04, 15:25:37
nV42??
War das nciht der bei IBM gefertigte NV40?
Oder war das der nV41?

NV42= 110nm TSMC
NV41= 130nm IBM
NV40= 130nm IBM

laser114
2007-11-04, 15:31:02
Die 7900GT war bei Einfuehrung bei $299 angesetzt und die 7900GS bei $200. Wie viele deaktivierte Einheiten hatte denn die letztere im Vergleich zur ersten?

Ja, aber der G71 war doch auch verhältnismäßig klein.

Die 7800 GT gab es eine Zeit lang für ca. ~260€ Anfang 2006. ;)

Ach ja? Na gut, dann gab es doch mal solche großen Chips in dem Preisbereich.

Ailuros
2007-11-04, 15:48:46
Ja, aber der G71 war doch auch verhältnismäßig klein.

196mm^2@90nm vs. 334mm^2@110nm (G70). Um 40% kleiner als G70 also.

484mm^2 * 40% = 290mm^2

G71 hatte aber auch weniger Transistoren als G70. Ergo?

laser114
2007-11-04, 15:50:37
G71 hatte aber auch weniger Transistoren als G70. Ergo?

Ich kann zwar deine Rechnung nachvollziehen, aber was willst du mir sagen?

4711
2007-11-04, 17:32:47
R680>PCI-E 2.0 heißt das auch neues Netzteil?

Gast
2007-11-04, 17:40:55
Nö, wie kommst du darauf? :confused:

Ailuros
2007-11-04, 19:02:43
Ich kann zwar deine Rechnung nachvollziehen, aber was willst du mir sagen?

Dass der die mit ~10% mehr Transistoren als beim G80 bei 324mm^2 normal ausgefallen ist fuer 65nm.

G80-->G92
+ etwas L1 cache
+ VP2
+ TAs
- ROPs/Busbreite
+ weitere ALU Modifikationen fuer hoehere Frequenzen
+ extra Kompressions-Logik & Z-culling fuer AA

up¦²
2007-11-04, 19:04:50
7900GT wenn ich mich jetzt richtig erinnere. Ich glaube die 7800GT war schon etwas teurer.
... wenn man bedenkt, dass es die GX2 als Schnäppchen gab :smile:
Hoffentlich wird Multi-GPU von Ati mal soo bezahlbar...

reunion
2007-11-04, 19:05:19
Dass der die mit ~10% mehr Transistoren als beim G80 bei 324mm^2 normal ausgefallen ist fuer 65nm.

G80-->G92
+ etwas L1 cache
+ VP2
+ TAs
- ROPs/Busbreite
+ weitere ALU Modifikationen fuer hoehere Frequenzen
+ extra Kompressions-Logik & Z-culling fuer AA


Sind die zwei fehlenden ROP-Cluster fix, oder spekulierst du nur?

laser114
2007-11-04, 19:07:51
Dass der die mit ~10% mehr Transistoren als beim G80 bei 324mm^2 normal ausgefallen ist fuer 65nm.

Ich habe doch die Die-Größe nicht als unrealistisch bezeichnet?
Btw: Wie sicher ist die 324 mm^2 Angabe jetzt eigentlich?

4711
2007-11-04, 21:44:10
Nö, wie kommst du darauf? :confused:
weil die es hier zb.so hervorheben...
http://h1124473.serverkompetenz.net/index.php?id=55&cat=2&subcat=6&product=156&L=0

AnarchX
2007-11-04, 21:47:18
Da geht es um den 8 Pin-Strom-Stecker, der aber wohl nur auf der HD3870 X2 wieder Verwendung finden wird.
Aber natürlich kann man hier auch Adapter einsetzen und sein bisheriges NT weiternutzen.

4711
2007-11-04, 21:56:03
Alles klar Danke.

-/\-CruNcher-/\-
2007-11-04, 22:24:16
Hoffentlich können wir bald die RV670XT dagegen antretten lassen, wobei da dies ein TWMTBP Titel ist und wie es ausschaut Crytek exzessiv PerfHUD zur Optimierung eingesetzt haben ich mir nicht sicher bin ob es ein gerechter Vergleich gegen ATis RV670XT wäre, was meint ihr ?.

http://www.abload.de/img/crysisbenchx8e.jpg

Ich spekuliere mal um diese Werte bei 730mhz (1825mhz Shader) GT zu erreichen brauchen wir mindestens 900 mhz mit der RV670XT


Nvidia
600mhz = 19 fps
730mhz = 22 fps (+130mhz = 3fps)

Ati
600mhz = 14 fps
800mhz = 18 fps (+200mhz = 4fps)
900mhz = 20 fps (+300mhz = 6fps)


Da die RV670XT effektiver sein soll nehme ich mal an nicht mehr als 1-2 fps sollten 22 fps bei 900mhz hinkommen, ob das bei Stock cooler möglich ist sei mal dahingestellt, und ob der R670 sich überhaupt so weit übertakten lässt auch aber vieles spricht dafür, auch wenn die Gerüchte und das plötzliche absenken des Releasetakts dagegen sprechen.

das wären gegenüber dem angeblichen Releasetakt von 775mhz + ca. 125mhz die zusätzlich gebraucht werden würden um GT Framerates zu erreichn, nun liegt die Vermutung nahe das ATI es geschaft hat aber die 50 mhz einzusparen und deshalb sich für einen 775 mhz Takt entschieden hat dann könnte das ganze in etwa so aussehen


ATI RV670XT
775mhz = 19 fps
875mhz = 22 fps (+100mhz = 3fps)


Crysis Simuliertes Taktverhalten R600 vs RV670

R600 = 100mhz = + 2 fps
R670 = 100mhz = + 3 fps


Es gibt 4 möglichkeiten über die man spekulieren kann

1. RV670XT wird genauso schnell wie die GT und bricht bei AA nicht mehr ein
2. "" "" und bricht bei AA genauso ein wie der R600
3. "" wird langsamer (1-2 fps Crysis) als die GT (mit Releasetakt) und bricht bei AA nicht mehr ein
4. "" wird langsamer (1-2 fps Crysis) als die GT (mit Releasetakt) und bricht bei AA genauso ein wie der R600

Seitens ATI Reaktionen scheinen 3 und 4 am Wahrscheinlichsten bei 1 und 3 kann ich jedem raten für 199€ kaufen wer denoch die 1-2 fps mehr braucht sollte zur GT greifen (man sollte sich aber auch vor Augen halten das dies durchaus durch die Optimierungen im Zuge von Nvidias TWMTBP programm kommen kann (gezielte PerfHUD Optimierungen auf Nvidia Karten) )
bei 1 und 4 wird es hariger, je nachdem wie die Einbrüche ausschauen (sollte sich da das selbe Bild wie beim R600 zeigen dann ganz klar GT für nur Gamer)

][immy
2007-11-04, 22:30:06
Hoffentlich können wir bald die RV670XT dagegen antretten lassen, wobei da dies ein TWMTBP Titel ist und wie es ausschaut Crytek exzessiv PerfHUD zur Optimierung eingesetzt haben ich mir nicht sicher bin ob es ein gerechter Vergleich gegen ATis RV670XT wäre, was meint ihr ?.

http://www.abload.de/img/crysisbenchx8e.jpg

Ich spekuliere mal um diese Werte bei 730 Mhz GT zu erreichen brauchen wir mindestens 950 mhz mit der RV670XT aber das sollte selbst mit Stock Cooler kein Problem sein :)

warum gibt es eigentlich bei dem CPU-benchmark unterschiede. schließlich sollte man von einem CPU benchmark erwarten das auch wirklich nur die CPU gemessen wird. und da diese immer die gleiche war, kann man den cpu-bench wohl vergessen.

horn 12
2007-11-04, 22:34:29
Also für eine 2900 Pro @XT gar nicht mal so schlecht.
Fast gleichauf mit der GT Stock und da sind ja bereits die NV Treiber optimiert.
Denk mit neuen ATI Treibern geht noch einiges an Mehrleistung bei den 2900-er Karten. Und die Pro´s sind ja im Grunde auch XT Karten.
Aber warten wir mal ab!

-/\-CruNcher-/\-
2007-11-04, 23:44:32
Also für eine 2900 Pro @XT gar nicht mal so schlecht.
Fast gleichauf mit der GT Stock und da sind ja bereits die NV Treiber optimiert.
Denk mit neuen ATI Treibern geht noch einiges an Mehrleistung bei den 2900-er Karten. Und die Pro´s sind ja im Grunde auch XT Karten.
Aber warten wir mal ab!

Naja mit dem kleinen Unterschied das die GT/RV670 weniger Strom brauchen um das zu erreichen was die GTS/XT mit extrem höheren Verbrauch erreichen, sicher für einige kein Grund zu wechseln aber wenn man seine Karte quasi 1zu1 eintauschen kann und das 512 bit SI nie in Anspruch nimmt (oder einfach zu selten das es sich nicht rechnet), sollte man da schon mal einen wechsel in Erwägung ziehen.
Auf Jedenfall ist das von beiden Herstellern die richtige Richtung, weil man somit auch wieder den Grundstein für eine neue Generation High End gelegt hat.
Mit Voltmod (1.3v) hat einer seine G92 schon auf 850 mhz stable geprügelt (da sollte man das PCB aber richtig gut kühlen bessonders die Spawa), und wenn man schaut das ATI gleich die ersten batch an Chips ausliefert die Hergestellt wurden dann scheint da auch massig potential drin zu stecken was das angeht :D (spekulation)

Aber es gibt auch noch andere Faktoren die eine Rolle spielen (jedenfalls für mich) darunter gehört die Treiberarchitektur, Videoqualität/Performance (T(S)NR,HD-RMAD,IVTC), CUDA vs CTM (GPGPU Performance) genauso dazu wie der Preis und etwaige IQ unterschiede die sich momentan ja schon bei Crysis erkennbar machen seitens Nvidia und natürlich auch bessonders wie man Feedback des Users verarbeitet sprich es auch ernst nimmt, viele Hersteller ändern momentan was dran da sie sehen das das Internet diesbezüglich schon einiges geändert hat (man kann die User nicht mehr so einfach veräppeln) aber Nvidia nimmt das immernoch zu locker (Leider) andere Firmen wiederum kämpfen sogar dagegen siehe Sony und Co wobei da auch schon einige zugeständnise gemacht worden sind, diesen Kampf im Cyberspace können sie einfach nicht gewinnen aber nun gut das geht sehr weit Oftop :D

Ailuros
2007-11-05, 05:30:29
Sind die zwei fehlenden ROP-Cluster fix, oder spekulierst du nur?

Bei Anfrage sagte man mir dass G92 bis zu 4*64 sei; kann sein dass jemand mir nicht alles sagen wollte, mich mit Absicht irrefuehren wollte oder weiss der Geier was noch.

Zu meiner GX2 These passt das Ganze auf jeden Fall *schulterzuck*.

Ailuros
2007-11-05, 05:34:14
[immy;5997765']warum gibt es eigentlich bei dem CPU-benchmark unterschiede. schließlich sollte man von einem CPU benchmark erwarten das auch wirklich nur die CPU gemessen wird. und da diese immer die gleiche war, kann man den cpu-bench wohl vergessen.

Interessant waere noch ein weiterer Durchlauf in einer niedrigen Aufloesung um zu sehen ob die GPU von den CPU Resultaten einen groesseren Abstand nehmen.

Sonst ist es eigentlich wahrscheinlicher dass das Ding mehr das System insgesamt misst bei den Werten als einzelne Komponenten.

Gast
2007-11-05, 11:24:03
RV680 = RV670x2
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4023&Itemid=34

Gmax
2007-11-05, 11:30:16
RV680 = RV670x2
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4023&Itemid=34

Wird der Chip nur als einer erkannt, oder soll er im CF Modus laufen?

seahawk
2007-11-05, 11:32:26
Wenn das stimmt, dann wird der Takt sehr niedrig ausfallen müssen.

AnarchX
2007-11-05, 11:32:41
Wird der Chip nur als einer erkannt, oder soll er im CF Modus laufen?

Wohl nur CF, sonst hätte AMD nicht 2x512MB angegeben und richtige Dual-Die-GPUs, die also als eine erkannt werden, würde ich nicht vor 2009 erwarten.

Wenn das stimmt, dann wird der Takt sehr niedrig ausfallen müssen.
Das mit dem Stromverbrauch kann wohl imo definitiv nicht stimmen, wenn man für eine 2600 X2 150W TDP annimmt.

Gast
2007-11-05, 11:39:03
also wenn fudo mal recht haben sollte dann stimmt aber hoffentlich an diesen AMD folien was nicht

800$ für ne RV670x2 ist dann ja wohl etwas unrealistisch oO

Nakai
2007-11-05, 15:03:25
Der RV680 hat eine modernere RV670-TapeOut. Womöglich könnte dadurch etwas an Stromverbrauch gespart werden.

mfg Nakai

HOT
2007-11-05, 17:17:48
Die Meldungen zum R680 sind irgendwie sehr undurchsichtig. Ich denke, dass da bisher wirklich nur rumspekuliert wird. Das Prototypenstadium machte mich da etwas stuzig, war damit die Karte gemeint? Wenn ein Chip gemeint ist, vergehts bis April bis das Ding kommt und das wäre dann ganz sicher kein RV670 mehr (auch nicht 2).
Überhaupt finde ich diese 2-Chips-Speku käse, ich bezweifle ernsthaft, dass man den 2 Chips dann einen Namen geben würde. Ich denke, dass man die 38x0 X2 und den R680 trennen muss. Das sind meiner Meinung nach zwei unterschiedliche Produkte.

laser114
2007-11-05, 17:23:21
Überhaupt finde ich diese 2-Chips-Speku käse, ich bezweifle ernsthaft, dass man den 2 Chips dann einen Namen geben würde. Ich denke, dass man die 38x0 X2 und den R680 trennen muss. Das sind meiner Meinung nach zwei unterschiedliche Produkte.

Es sind auch verdammt viele Codenamen für diese Dual-GPU im Umlauf. Von R670 über RV680 bis R680 habe ich alles schon gelesen. Kann sein, dass da mal wieder absichtlich gestreut wird.

HOT
2007-11-05, 17:42:55
Kann sein. Den R680 hab ich aber glaube ich schonmal in irgendnem Zusammenhang von AMD selber gelesen, alles andere bisher noch nicht. Jedenfalls gibt es von AMD keinerlei echte Stellungnahme, um was es sich hierbei eigentlich handelt, nur dass er irgendwann Anfang 2008 erscheinen soll (ich denke mal mit QuadFX (FASN8)). Bis dahin wird wohl weitergerätselt, was es ist. Ich denke, dass die 38x0 X2 relativ zeitig kommen wird (wahrscheinlich als 3850 X2), aber ich denke nicht, dass es sich hierbei um den R680 handelt.

reunion
2007-11-05, 18:27:00
Der neue Riva-Tuner bringt Unterstützung für den RV670 mit, und mit diesem einige interessante Features:

Hardware monitoring module now properly detects DPM (Dynamic Power Management), a key feature of upcoming RV670 chips. Riva Tuner can monitor dynamically changing RV670 GPU and memory clock frequencies, adjusted in real-time.

As far as we know, RV670 chips will change their clock and power consumption according to 3D load. So, if you're running a highly demanding scene in a game, the GPU will be clocked at maximum, speed, while running cut-scenes or any lower-GPU intensive scene will cut down the clock of the card and decrease the power consumption.

This is something that Nvidia cannot offer with its GeForce 8800GT, at least according to Daamit's marketing slides.

http://www.theinquirer.net/gb/inquirer/news/2007/11/05/riva-tuner-supports-radeon-hd

Wenn die Karte wirklich je nach Auslastungsgrad dynamisch die Taktraten und Spannung ändert, wäre das IMO ein absolutes Killerfeature. Denn dann wird wirklich nur noch so viel Strom verschleudert, wie unbedingt nötig, um die Leistung nicht zu beeinträchtigen.

AnarchX
2007-11-05, 18:35:29
Nett, dann müssen aber die Reviewer mal die Stromaufnahme über einen längeren Zeitraum in einem Szenario mit verschiedenen Limitierungen messen. ;)
Aber ein Killerfeature im Desktop-Bereich eher weniger...

@HOT
Auf dem letzten mir bekannten Dokument, welches schon den RD790 als 790FX kennt, wird ein R680-DDK genannt, wo DDK imo eindeutig für Dual-Die-Kit steht.
Zudem die Meldung eben von Digitimes über einen RV680. ;)

An einen Super-Single-Chip in 55nm glaube ich nicht, wenn dann kommt höchstens eine RV670-512Bit für FireGL-Refreshes...

Gast
2007-11-05, 18:37:08
Der neue Riva-Tuner bringt Unterstützung für den RV670 mit, und mit diesem einige interessante Features:



http://www.theinquirer.net/gb/inquirer/news/2007/11/05/riva-tuner-supports-radeon-hd

Wenn die Karte wirklich je nach Auslastungsgrad dynamisch die Taktraten und Spannung ändert, wäre das IMO ein absolutes Killerfeature. Denn dann wird wirklich nur noch so viel Strom verschleudert, wie unbedingt nötig, um die Leistung nicht zu beeinträchtigen.

Super! endlich unter 2D ein vernünftiger Stromverbrauch, dazu ein besserer Videoprozessor als 8800 GT und dann noch hoffentlich ein Dual-Slot Kühler, das währe die perfekte Karte für mein HTPC!!!!

Daredevil
2007-11-05, 18:38:29
Wenn es gescheit läuft.....
Also ich mag das nicht wenn der mal hoch und mal runtertaktet, da bekomm ich das Gefühl das alles irgendwie "unrund" läuft, deswegen hab ich auch immer Max Speed beim zocken mit RMClock.

@horn12
Das mit den Treibern...... hatten wir das nicht schon im Mai ? ^^

Hvoralek
2007-11-05, 18:43:23
Es sind auch verdammt viele Codenamen für diese Dual-GPU im Umlauf. Von R670 über RV680 bis R680 habe ich alles schon gelesen. Kann sein, dass da mal wieder absichtlich gestreut wird.Vlt. gibt es ja zwei Chips namens RV670 und RV680, deren Doppelvarianten dann jeweils den gleichen Namen ohne "V" tragen. Oder R670 sind zwei RV670 und R680 ein doppelter RV670. Oder so ähnlich :crazy:

Wenn die Karte wirklich je nach Auslastungsgrad dynamisch die Taktraten und Spannung ändert, wäre das IMO ein absolutes Killerfeature. Denn dann wird wirklich nur noch so viel Strom verschleudert, wie unbedingt nötig, um die Leistung nicht zu beeinträchtigen.Gute Idee. Bleiben zwei Fragen: Wie erkennt man den aktuellen Auslastungsgrad und wie lange dauert der Umschaltvorgang?

Gast
2007-11-05, 19:05:20
Wenn die Karte wirklich je nach Auslastungsgrad dynamisch die Taktraten und Spannung ändert, wäre das IMO ein absolutes Killerfeature. Denn dann wird wirklich nur noch so viel Strom verschleudert, wie unbedingt nötig, um die Leistung nicht zu beeinträchtigen.

Und wann wird Leistung im "3D" Modus nicht benötigt?

GeneralHanno
2007-11-05, 19:15:19
jetzt wurde schon in verschiedenen RV670 folien von besonderen stromsparfeatures gesprochen. d.h. an dem gerücht könnte etwas dran sein.

und weniger stromverbrauch heißt auch langsam drehende lüfter :D
wenn damit zukünftig alle ATi kraten ausgestattet würden, wäre das so ne revolution wie Cool 'n' Quiet ;) und nvidia müsste auf dauer nachziehen!

LovesuckZ
2007-11-05, 19:18:06
Äh, "Cool 'n' Quiet" gibt es schon lange bei Grafikkarten...
AMD's "dynamische" Anpassung ist daher mehr eine Spielerei denn vom besonderem Nutzen.

Nakai
2007-11-05, 19:18:41
jetzt wurde schon in verschiedenen RV670 folien von besonderen stromsparfeatures gesprochen. d.h. an dem gerücht könnte etwas dran sein.

Ob es das Erhoffte bringt, will ich bezweiflen.


mfg Nakai

reunion
2007-11-05, 19:23:08
Und wann wird Leistung im "3D" Modus nicht benötigt?

Wann etwas anderes als die Grafikkarte limitiert?

James Ryan
2007-11-05, 19:35:15
Äh, "Cool 'n' Quiet" gibt es schon lange bei Grafikkarten...
AMD's "dynamische" Anpassung ist daher mehr eine Spielerei denn vom besonderem Nutzen.

Das gibts schon seit der Geforce FX 5800, also fast 6 Jahre! ;D
Verstehe aber ehrlich gesagt nicht was so toll sein soll, wenn sich die Graka im 3D-Modus(!) munter hoch und runter taktet. :|
Naja, die ATiler müssen es wissen, FSAA ist ja auch unwichtig geworden.

MfG :cool:

Gast
2007-11-05, 19:38:55
und weniger stromverbrauch heißt auch langsam drehende lüfter :D
wenn damit zukünftig alle ATi kraten ausgestattet würden, wäre das so ne revolution wie Cool 'n' Quiet ;) und nvidia müsste auf dauer nachziehen!

Also wenn bei der aktuellen Generation die Lüfter noch langsamer/leiser drehen, stehen sie still... auch bei Highend Karten.
Unter Last ist wichtig, und da hat "Cool n Quiet" keinerlei Nutzen.

Nakai
2007-11-05, 19:48:03
Das gibts schon seit der Geforce FX 5800, also fast 6 Jahre!
Verstehe aber ehrlich gesagt nicht was so toll sein soll, wenn sich die Graka im 3D-Modus(!) munter hoch und runter taktet.
Naja, die ATiler müssen es wissen, FSAA ist ja auch unwichtig geworden.

Wenn es gut umgesetzt wird, würde ich dieses Stromsparfeature gut schätzen.
Bei ATI und deren Treiberspielereien kann da nichts gutes dabei rauskommen.^^;D
Naja wenns wirklich was bringt, wäre dieses System sehr gut.

Wann etwas anderes als die Grafikkarte limitiert?

Oder wenn die Frames exorbitante Ausmaße erreichen.
Ergo sehe ich dieses Feature nur bei recht alten oder cpu-limitierten Spielen als sinnvoll an.


mfg Nakai

GeneralHanno
2007-11-05, 19:50:14
ich sagte NICHT: das ist wie CnQ (ich weis selber, dass aktuelle grakas sich unter 2d runtertakten), sondern ich sagte: das wird so eine revolution WIE CnQ. denn ab AMDs CnQ technologie (im A64) ging man bei CPUs zu performence/watt über. und DAS erhoffe ich mir auch für GPUs.

was bringen mir (kurzzeitige) 100 fps, wenn dafür der lüfter leiser drehen könnte. interessanter wäre auch sowas wie temporäres AA/AF, das je nach belastung mehr oder weniger filtert!

Ailuros
2007-11-05, 20:20:12
ich sagte NICHT: das ist wie CnQ (ich weis selber, dass aktuelle grakas sich unter 2d runtertakten), sondern ich sagte: das wird so eine revolution WIE CnQ. denn ab AMDs CnQ technologie (im A64) ging man bei CPUs zu performence/watt über. und DAS erhoffe ich mir auch für GPUs.

CoolnQuiet ist zwar ganz nett fuer einen Schlepptop wo der Stromverbrauch im Batterie-betrieb auch ziemlich kritisch ist, aber auf dem PC hab ich persoenlich den Mist abgeschaltet, denn ich hab nicht nur fuer anstaendige Kuehlung des Prozessors und der Kiste gesorgt ich hab auch keine Lust dass der Prozessor selber trottelt wenn es ihm gerade passt.

Ein anstaendiger heatsink von Thermalright fuer GPUs als Beispiel kostet knapp ueber 40 Euros.

was bringen mir (kurzzeitige) 100 fps, wenn dafür der lüfter leiser drehen könnte. interessanter wäre auch sowas wie temporäres AA/AF, das je nach belastung mehr oder weniger filtert!

Temporaer kannst Du das Zeug auf jeden Fall nicht nennen. AF ist schon seit Jahren hoechst adaptiv angelegt und wenn Du glaubst dass wenn Du im Treiber 16xAF einschaltest, dass Du dann auch 16x samples auf allen Texturen bekommst hast Du Dich verdammt verzettelt.

AA ist natuerlich eine andere Geschichte; momentan gibt es nur adaptives AA fuer Transparenzen und coverage sampling. Fuer wahres adaptives AA braeuchte man eher einen TBDR, und selbst da bin ich mir nicht so sicher ob der Aufwand fuer so einen komplizierten Algorithmus es wirklich wert sein koennte fuer die heutigen Verhaeltnisse.

AMD ist zwar auf dem richtigen Pfad mit den custom AA Filtern, aber die zeitige Implementierung ist IMHLO nicht weniger naiv als der Quincunx-Mist der Vergangenheit.

w0mbat
2007-11-05, 20:33:32
Wegen 8800GT vs. HD3870:

ATi sagt ja selbst das der RV670 R600-Performance bieten soll, ein RV670@775MHz wäre also sogar etwas schneller als eine HD2900 XT. Und jetzt schaut euch mal das CB-Performancerating aus dem 8800GT-Test an (mit AA/AF!):

http://www.hochladen.info/bilder/1588abbd5e11d8fe1d801b9eb907d81d/bild.JPG

laser114
2007-11-05, 20:37:01
Wegen 8800GT vs. HD3870:

ATi sagt ja selbst das der RV670 R600-Performance bieten soll, ein RV670@775MHz wäre also sogar etwas schneller als eine HD2900 XT. Und jetzt schaut euch mal das CB-Performancerating aus dem 8800GT-Test an (mit AA/AF!):

Beruhig dich mal wieder. ;)
Solltest übrigens auch sehen, dass die ATI-Karten bei 8x AA gegenüber 4x AA viel aufholen.

w0mbat
2007-11-05, 20:40:34
Aber auch bei 4xAA ist die HD2900 XT nur gering hinter der 8800GT, zumal die HD2900 XT ja extrem mit AA an Leistung verlieren soll (aber nicht so viel wie die 8800GT). Ich denke eine HD3870 könnte schon einen Gleichstand erreichen und wäre mit DX10.1, UVD und weniger Stromverbrauch wohl besser gerüstet.

dildo4u
2007-11-05, 20:41:00
Komisch das das Fazit bei CB ganz anders ausfällt und 8XAA ist mit keiner Karte in hohen Auflösungen bei modernen Games zockbar.

"Mit den beiden qualitätssteigernden Features ist die Leistung der GeForce 8800 GT in 1280x1024 immer noch den meisten anderen Konkurrenten überlegen. Die GeForce 8800 GTX muss man um 13 Prozent ziehen lassen, während die GeForce 8800 GTS auf 20 Prozent heran kommt. Die Radeon HD 2900 XT hat man mit einem Vorsprung von 23 Prozent unter Kontrolle. In 1600x1200 wird die GeForce 8800 GT aufgrund des kleineren Speichers und der geringeren Speicherbandbreite erstmals spürbar langsamer. Die GeForce 8800 GTX zieht mit 27 Prozent auf und davon, während die GeForce 8800 GTS nur noch 13 Prozent zurück liegt. Die Radeon HD 2900 XT hält man mit einer 20 Prozent besseren Performance auf Abstand."

"Acht-faches Anti-Aliasing ist nicht mehr sinnvoll, selbst in 1600x1200 gibt es bereits des Öfteren Probleme."

"Die Direct3D-10-Performance ist ohne Anti-Aliasing sowie der anisotropen Filterung ebenso sehr gut und erreicht in etwa die Verhältnisse der älteren API. Mit den qualitätssteigernden Features fällt die GeForce 8800 GT aber stärker zurück. Die GeForce 8800 GTS ist nun in etwa gleich schnell, während die Radeon HD 2900 XT noch etwa 18 Prozent langsamer ist."

"Davon abgesehen ist die GeForce 8800 GT die drittschnellste Grafikkarte auf dem Markt, kostet allerdings nur die Hälfte des Top-Modells und ist in den meisten Qualitätseinstellungen nicht viel langsamer als das GTX-Modell. Falls die Einstellungen nicht höher als 1600x1200 mit vier-fachem Anti-Aliasing sowie 16-facher anisotroper Filterung sein müssen, können wir die GeForce 8800 GT jedem Käufer wärmstens empfehlen."

laser114
2007-11-05, 20:41:29
Bei einem Gleichstand für AMD aber auch passende Preise nehmen. Eventuell einen Tick billiger, ja, aber nicht so deutlich darunter. Zu verschenken haben die nichts. ;)

Die_Allianz
2007-11-05, 20:45:00
Wegen 8800GT vs. HD3870:

ATi sagt ja selbst das der RV670 R600-Performance bieten soll, ein RV670@775MHz wäre also sogar etwas schneller als eine HD2900 XT. Und jetzt schaut euch mal das CB-Performancerating aus dem 8800GT-Test an (mit AA/AF!):

http://www.hochladen.info/bilder/1588abbd5e11d8fe1d801b9eb907d81d/bild.JPG

hier mal das eher populäre setting!
http://img87.imageshack.us/img87/2016/unbenanntpy4.png

UND jetzt?

warst du nicht der, der von ATI für die werbung hier bezahlt wird? (falls ich mich täusche bitte ich um entschuldigung)

w0mbat
2007-11-05, 20:46:34
[...]
UND jetzt?
[...]

Wird mir AMD wohl das Gehalt kürzen :mad:

Gast
2007-11-05, 20:55:05
hier mal das eher populäre setting!
http://img87.imageshack.us/img87/2016/unbenanntpy4.png

UND jetzt?

warst du nicht der, der von ATI für die werbung hier bezahlt wird? (falls ich mich täusche bitte ich um entschuldigung)

Ach was lieber Fanboy!
Lass gefälligst die Leute entscheiden in welchen Auflösungen sie spielen. Ich und ein paar Freunde sind schon bei 22 Zöllern angelangt, also gehe bitte nicht immer von Dir aus.

Ailuros
2007-11-05, 20:55:26
Wegen 8800GT vs. HD3870:

ATi sagt ja selbst das der RV670 R600-Performance bieten soll, ein RV670@775MHz wäre also sogar etwas schneller als eine HD2900 XT. Und jetzt schaut euch mal das CB-Performancerating aus dem 8800GT-Test an (mit AA/AF!):

http://www.hochladen.info/bilder/1588abbd5e11d8fe1d801b9eb907d81d/bild.JPG

Erstens hat die 2900XT einen doppelt so breiten Bus als eine RV670 und zweitens ist der Vergleich von Dir mit 8xAA in 1600 absolut laecherlich fuer Performance-GPUs. Schlag mal Spiel fuer Spiel nach und erzaehl mir bis zu welcher Aufloesung und mit wieviel AA eine G92 bzw. RV670 noch spielbar sein kann.

Lass mich mal sehen 2900XT 8xAA/16xAF in 1600*1200:

Anno 1701 = 29.1 fps
Clive Barker's Jericho = 14.5 fps
CLMR Dirt (nur 4xAA) = 3.9 fps
Company of heroes = 54.7 fps
FEAR = 38 fps
Oblivion = 35.1 fps
Prey = 39.6 fps
Call of Juarez (nur 4xAA) = 14.6 fps
Company of Heroes (D3D10) = 18.2 fps
Lost Planet = 14 fps
World in Conflict (nur 4xAA) = 26.6 fps

Nun ja die scores sind ja umwerfend und definitiv spielbar; den Graph wuerde ich so als Dokumentation nicht in eine solche Debatte werfen.

Ailuros
2007-11-05, 20:59:30
Ach was lieber Fanboy!
Lass gefälligst die Leute entscheiden in welchen Auflösungen sie spielen. Ich und ein paar Freunde sind schon bei 22 Zöllern angelangt, also gehe bitte nicht immer von Dir aus.

Ich hab auch einen 21 Zoller mit maximal 2048*1536 aber ich hab keine Lust auf slideshows mit 8xMSAA in 1600 und das sogar auf einer 8800GTX. Ihr koennt beruhigt auf dem Boden bleiben und erstmal genau nachlesen wofuer die vorigen Prozentuale in fps pro Spiel stehen. Slideshows mag keiner gern und ausser CoH (D3D9.0) ist keine heutige GPU heutzutagte in 1600 mit 8xAA spielbar ausser man nimmt ein dual-GPU Gespann.

Die_Allianz
2007-11-05, 21:03:28
Ach was lieber Fanboy!
Lass gefälligst die Leute entscheiden in welchen Auflösungen sie spielen. Ich und ein paar Freunde sind schon bei 22 Zöllern angelangt, also gehe bitte nicht immer von Dir aus.
bitte nicht ausgeloggt solche anfeindungen!

ich gehe nicht von mir aus:
http://www.steampowered.com/status/survey.html

Primary Display Resolution (1092679 Users)
800 x 600 23,152 2.12 % ##
1024 x 768 400,597 36.66 % #####################################
1152 x 864 65,831 6.02 % ######
1280 x 800 446,804 40.89 % #########################################
1440 x 900 55,387 5.07 % #####
1600 x 1200 19,078 1.75 % ##
1680 x 1050 53,623 4.91 % #####
1920 x 1200 14,970 1.37 % #
Other 13,237 1.21 % #

OT: habe im übrigen A64 und ATI-Graka in benutztung und bin sehr zufrieden

GeneralHanno
2007-11-05, 21:12:09
unter extremen settings wird irgendwann alles bandbreitenlimitiert. und das ist nunmal die stärke der 2900xt ;)

dildo4u
2007-11-05, 21:15:27
Nur gehts hier um den RV670 und der hat den Vorteil nicht mher bin sher auf die noch schlechteren AA Benches von ATI gespannt.

LovesuckZ
2007-11-05, 21:21:10
Nur gehts hier um den RV670 und der hat den Vorteil nicht mher bin sher auf die noch schlechteren AA Benches von ATI gespannt.

So siehts aus. Warum sollte eine Karte mit 50% weniger Speicherbandbreite mit einem nur geshrinkten Chip plötzlich so schnell sein wie die 2900XT?
Man sollte daher erstmal abwarten und nicht enttäuscht werden. Die angebliche preisliche Orientierung wäre bei Eintreffen ja sehr zielweisend. 199$ für das Top-Modell sprechen Bänder.

AnarchX
2007-11-05, 21:28:04
So siehts aus. Warum sollte eine Karte mit 50% weniger Speicherbandbreite mit einem nur geshrinkten Chip plötzlich so schnell sein wie die 2900XT?

Weil diese teilweise hinter der Pro-MHz-Leistung eines R580 mit MSAA liegt? ;)

Imo wird wohl was das Shader-Resolve im RV670 wohl besser funktionieren, aber riesige Gewinne würde ich auch nicht erwarten, eher dass man sich endlich in allen Situationen vom R580 deutlich absetzt mit 2xZ und 70GB/s, es wird ja sicherlich bei 16 TMUs und der Vektorarchitektur bleiben.

reunion
2007-11-05, 21:32:52
So siehts aus. Warum sollte eine Karte mit 50% weniger Speicherbandbreite mit einem nur geshrinkten Chip plötzlich so schnell sein wie die 2900XT?

Weil sie höher taktet, weil es zumindest kleinere Änderungen an der Architektur gibt (AMD spricht explizit von höherer AA-Leistung), weil der 2900XT der höhere Speichertakt kaum nützt? Und die Bandbreite ist dank 1.2Ghz GDDR4 natürlich nicht mal annähernd 50% niedriger. Ganz davon abgesehen glaubst du doch wohl selbst nicht, dass eine HD3870 von einer HD2900 geschlagen wird? Das wäre ein marketingtechnisches Fiasko.


Man sollte daher erstmal abwarten und nicht enttäuscht werden. Die angebliche preisliche Orientierung wäre bei Eintreffen ja sehr zielweisend. 199$ für das Top-Modell sprechen Bänder.

Sämtlichen geleakte AMD-Folien sprechen von einem VK von 299$, einzig Fuadzilla kam mit den 199$. Sicher ist etwas anderes.

LovesuckZ
2007-11-05, 21:37:41
Ganz davon abgesehen glaubst du doch wohl selbst nicht, dass eine HD3870 von einer HD2900 geschlagen wird? Das wäre ein marketingtechnisches Fiasko.


Tja, preislich wird sie niedriger als die 2900XT angesetzt. 25% (blabla) niedrige Speicherbandbreite und 4,4% höhrere Coretaktung sprechen nicht gerade für eine leistungstärkere Karte. Die Transistorzahl von 666 Millionen lässt auch nicht auf wesentliche Verbesserung an den Funktionseinheiten schließen.

reunion
2007-11-05, 21:38:33
unter extremen settings wird irgendwann alles bandbreitenlimitiert. und das ist nunmal die stärke der 2900xt ;)

Wie kommst du darauf? Unter extremen Settings ist die Bandbreitenlimitierung in Relation gesehen auch nicht höher. Die Sache ist ganz einfach zu erklären: Erstens erleidet die HD2X00-Serie zwar einen enormen Einbruch schon mit 2xMSAA, verliert dann allerdings prozentual weniger Leistung beim Schritt auf 4X bzw. 8X MSAA als ein G80. Zweitens profitiert die HD2X00-Serie von niedrigen Frameraten. Eric Demers hatte das auf B3D schonmal angedeutet. Umso höher die Framerate, umso eher ist das Shaderresolve ein Nachteil. Bei niedrigen Frameraten macht das hingegen kaum was.

dildo4u
2007-11-05, 21:39:52
Wenn nix grundlegendes geändert wurde werden die 35mhz mher Coretakt dem RV670 bei den AA Benches kein Stück gegen die 2900XT helfen.Und alles über 199$ für den größten RV670 mit 512mb Ram wär ein Witz wenn man den Preis/Leistungs Maßstand der 8800GT ansetzt.

LovesuckZ
2007-11-05, 21:42:16
Eric Demers hatte das auf B3D schonmal angedeutet. Umso höher die Framerate, umso eher ist das Shaderresolve ein Nachteil. Bei niedrigen Frameraten macht das hingegen kaum was.

Äh, je unspielbarer die Szene, umso geringer der Verlust? :confused:
Ja, eine Technik für die Zukunft... :ugly:
AMDs geringerer Verlust bei 8AA liegt zum großen Teil an der Speicherbandbreite. Vergleicht einfach mal die 2600XT gegen die 8600GTS mit 4AA. Die Karte verliert wesentlich mehr an Leistung als die 8600GTS.

reunion
2007-11-05, 21:48:00
Tja, preislich wird sie niedriger als die 2900XT angesetzt.

Reaktion auf nV. Die 2900XT ist ihren Preis spätestens seit der 8800GT in keinster Weise mehr wert. Zudem sind natürlich auch die Herstellungskosten entsprechend geringer.


25% (blabla) niedrige Speicherbandbreite und 4,4% höhrere Coretaktung sprechen nicht gerade für eine leistungstärkere Karte. Die Transistorzahl von 666 Millionen lässt auch nicht auf wesentliche Verbesserung an den Funktionseinheiten schließen.

Bugfixes kosten nicht zwingend mehr Transistoren.

Äh, je unspielbarer die Szene, umso geringer der Verlust? :confused:
Ja, eine Technik für die Zukunft... :ugly:


Hat niemand behauptet, dass das toll ist. Es ist nunmal so.


AMDs geringerer Verlust bei 8AA liegt zum großen Teil an der Speicherbandbreite. Vergleicht einfach mal die 2600XT gegen die 8600GTS mit 4AA. Die Karte verliert wesentlich mehr an Leistung als die 8600GTS.

Der geringe Verlust mit 8AA liegt am hohen Verlust mit 2AA: Hier liegt eindeutig ein Problem vor. Zudem ist der Verlust mit weniger Speicherbandbreite laut mehreren Aussagen kaum höher. Du kannst genau so gut eine 2900XT mit einer 8800GTS vergleichen, auch hier verliert die AMD-Karte mit 4AA wesentlich mehr Leistung, trotz exorbitant mehr Bandbreite. Ich sehe also keinen direkten Zusammenhang mit der Speicherbandbreite. Ganz im Gegenteil, eine 2600XT hat das gleiche Problem wie die 2900XT, die GDDR4-Version ist kaum schneller.

LovesuckZ
2007-11-05, 21:56:08
Bugfixes kosten nicht zwingend mehr Transistoren.

Nur solange es sich um Defekte handelt, welche nicht im Design auftreten. Da 2400/2600 Karten über das selbe Problem beim Einsatz von AA verfügen, ist es eine gewollte Methode zur Realisierung.

Der Verlust mit weniger Speicherbandbreite ist laut mehreren Aussagen kaum höher.

Aussagen sind keine Belege. Bis jetzt hat sich niemand mit diesem Thema beschäft und es in Zahlen gezeigt.

Ganz im Gegenteil, eine 2600XT hat das gleiche Problem wie die 2900XT, die GDDR4-Version ist kaum schneller. Was bei der geringen Füllrate der gesamtem Generation eigentlich auch wenig verwundert.

Warum sollte die Füllrate vorallen beim AA einen so großen Effekt haben?

reunion
2007-11-05, 22:04:43
Nur solange es sich um Defekte handelt, welche nicht im Design auftreten. Da 2400/2600 Karten über das selbe Problem beim Einsatz von AA verfügen, ist es eine gewollte Methode zur Realisierung.


Nicht jeder "Defekt" ist im Handumdrehen behoben.


Aussagen sind keine Belege. Bis jetzt hat sich niemand mit diesem Thema beschäft und es in Zahlen gezeigt.


Die 2600XT GDDR4 ist trotz 57% mehr Speicherbandbreite kaum schneller als die GDDR3 Version. Und diese hat nicht die exorbitant hohe Bandbreite eines R600. Wenn das kein Beleg ist, dass das Design von hoher Bandbreite kaum profitiert.


Warum sollte die Füllrate vorallen beim AA einen so großen Effekt haben?

Warum vorallem beim AA? Ohne AA ist es natürlich nicht besser. Auch AA kostet Füllrate. Die ROPs schaffen nur max. 2AA-Samples pro Takt. Eine 2600XT hat nur 4 ROPs. Bevor die Bandbreite ausgeht, limitiert wohl schon was ganz anderes.

Gast
2007-11-05, 22:05:46
Imo wird wohl was das Shader-Resolve im RV670 wohl besser funktionieren, aber riesige Gewinne würde ich auch nicht erwarten, eher dass man sich endlich in allen Situationen vom R580 deutlich absetzt mit 2xZ und 70GB/s, es wird ja sicherlich bei 16 TMUs und der Vektorarchitektur bleiben.
Was genau soll daran besser funktionieren?

Du musst immer noch:
- Samples durch die TMUs fetchen, womit du deinen Cache für Texturen trashst, besonders, wenn es ein Unified Cache ist
- Samples in den Shadern verrechnen, was dich in den entsprechenden Takten mindestens die Shader-Netto-Leistung kostet

Zudem hast du das Problem des Schedulings: Wie gut können die ALUs beim Verrechnen der Samples ausgelastet werden? Vier Samples bei fünf ALUs? Was ist mit den Gewichtungen, wenn sie unterschiedlich sind?

Gast
2007-11-05, 22:08:15
Die ROPs schaffen nur max. 2AA-Samples pro Takt. Eine 2600XT hat nur 4 ROPs.
Das ist es ja: Wenn die ROPs denn mal AA machen dürften...

Gast
2007-11-05, 22:20:10
Äh, je unspielbarer die Szene, umso geringer der Verlust? :confused:
Ja, eine Technik für die Zukunft... :ugly:
AMDs geringerer Verlust bei 8AA liegt zum großen Teil an der Speicherbandbreite. Vergleicht einfach mal die 2600XT gegen die 8600GTS mit 4AA. Die Karte verliert wesentlich mehr an Leistung als die 8600GTS.
Pauschalisiere nicht. Es ibt auch Spiele, wo es anders ausieht und die shaderpower der ATis ueberlegen ist.
Crysis z.B...

reunion
2007-11-05, 22:20:17
Noch was von DailyTech:
http://www.dailytech.com/AMD+Platform+Launch+Imminent+RV670+Details+Solidified/article9542.htm

laser114
2007-11-05, 22:27:11
Jetzt alles am 19. November?

Na gut, so ein Plattform-Launch macht schon Sinn.

Hvoralek
2007-11-06, 00:55:03
Temporaer kannst Du das Zeug auf jeden Fall nicht nennen. AF ist schon seit Jahren hoechst adaptiv angelegt und wenn Du glaubst dass wenn Du im Treiber 16xAF einschaltest, dass Du dann auch 16x samples auf allen Texturen bekommst hast Du Dich verdammt verzettelt.

AA ist natuerlich eine andere Geschichte; momentan gibt es nur adaptives AA fuer Transparenzen und coverage sampling. Fuer wahres adaptives AA braeuchte man eher einen TBDR, und selbst da bin ich mir nicht so sicher ob der Aufwand fuer so einen komplizierten Algorithmus es wirklich wert sein koennte fuer die heutigen Verhaeltnisse.

AMD ist zwar auf dem richtigen Pfad mit den custom AA Filtern, aber die zeitige Implementierung ist IMHLO nicht weniger naiv als der Quincunx-Mist der Vergangenheit.Er meinte glaube ich, dass AA- /AF- Grade abhängig von der Framerate automatisch hoch- oder heruntergeschraubt werden sollten.

Zu Deinem letzten Absatz: Warum appliziert eigentlich ATIs Edge- Detect- CFAA lediglich diesen Schmierfilter nur an Polygonkanten? Wenn man diese Kantenerkennung sowieso durchführt, könnte man nicht gleich nur dort multisampeln? Das wäre dann ein Ansatz wie bei Matrox' FAA. Naja, vlt. funktioniert die Kantenerkennung ja auch bei ATI nicht richtig, nur fällt ein bisschen Geschmiere mehr oder weniger an den Kanten nicht so krass auf wie komplett fehlendes AA :ugly:

Hmm, vlt. erwartet uns ja beim verbesserten AA des RV670 eine Überraschung :uponder:

-/\-CruNcher-/\-
2007-11-06, 01:00:32
Argh hab garnicht mitbekommen das die 2900GT vor 3 Tagen bei XS aufgetaucht ist laut Forum user kostet sie 195$ ok hier ist sie mit 150€ (Euro kurs scheint es momentan doch zu beinflussen ??) gelistet das könnte bedeuten die AIBs hauen zusammen mit ATI wirklich so kurz vor Launch noch die alten R600 raus und es ist ihnen egal wie die Käufer danach reagieren wenn die HD3850/70 für den (fast) selben Preis am 15 Launcht (oder Paper launcht :D).
Aber ehrlichgesagt ist das schwer vorzustellen also denke ich mal kann man sich auf einen Preis von 250$ schon einstellen (siehe unten) für die GDDR3 HD3870 und für die GDDR4 HD3870 wird man wohl etwas tiefer in die Tasche greifen müssen (dabei waren GDDR4 versionen ja schon früher den Aufpreis von 50$ meines erachtens nicht wert).


HD2900 GT = 150€ (Lagerabverkauf R600)
HD3850 PRO = 170€ ??
8800 GT 265 = 200€ ??
HD2900 PRO = 200€ (Lagerabverkauf R600)
HD3870 GDDR3 = 200€ ??
8800 GT = 250€
HD3870 GDDR4 = 250€ ??
HD2900XT = 300€


So denke ich mal passt das ganz gut zur jetzigen Situation :)
Man scheint die 512 mb Pro (die 256er Pro tritt gegen Nvidias 8800 GT 256 an) gekilled (logisch kann der 8800 GT 512mb nichts anhaben mit dem niedrigen Takt) und an ihrer Stelle die GDDR3 XT angesetzt zu haben (Man scheint sich bei ATI also ziemlich sicher das die 775 Mhz aussreichend sind, muss wohl einige interne Tests gegen die 8800 GT mit 600 mhz gegeben haben und den Rest was mal 825mhz werden sollten stellt man den AIBs frei also 50mhz für offiziele Overclockerkarten (vergleichbar mit 8800 GT status meisten AIBs pendeln sich so bei 660 ein) mehr scheint dann wohl nicht mehr versichert zu sein seitens ATI, heist aber nicht das nicht noch mehr geht ;) )
Siehe dazu auch : http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5997747&postcount=604

Also diese Abverkaufsorgien die da momentan auf beider seiten statfinden sind ja mal echt verarsche an uninformierten Käufern (und ja das mein ich auch mit 512 si es ist trotzdem alte Technik), bei einem Händler ist die 2900 GT ab 3.12 verfügbar (möglicherweise so schlecht verfügbar da eh schon fast Abverkauft (Asien)) ehhh halllo das heist doch nicht etwa 3870 paper launch ??

Also ich weiss nicht aber das sieht Super aus :) wenn man sich vorstellt das sie mit den 775mhz wirklich vergleichbar sein sollte und nur 100 mhz fehlen um die Geschwindigkeit einer 8800 GT bei 730mhz zu erreichen ja dann bin ich sehr zuversichtlich bei den 55nm das das mit weniger abwärme verlust erreichbar sein sollte alles spricht dafür (allerdings sagt ATI offiziel sie ist langsamer hmm warum takten sie aber dann nicht gleich auf die 825mhz, vieleicht weil die AIBs dann nichts mehr hätten was sie als Overclocked verkaufen könnten, oder sie sagen aber "Was wir meinten doch die Pro mit langsamer nicht die XT" ;) ?) :)

Gast
2007-11-06, 02:35:05
Kurze Frage an die Gurus von einem Laien und ich hoff hier an der richtigen Stelle. Also ich hab irgendwo gehört, die 600er Reihe sei ein "aufgekauftes" Design und deswegen so schlecht. Stimmt das? Wenn ja, wie kann ein Design das so komplex ist gekauft werden und wo? Heißt das auch, dass bald eine 700er Reihe kommt die sehr viel besser wird?

Ailuros
2007-11-06, 05:49:55
Er meinte glaube ich, dass AA- /AF- Grade abhängig von der Framerate automatisch hoch- oder heruntergeschraubt werden sollten.

Passiert doch bei heutigen AF Algorithmen; was genau verpasse ich hier? Algorithmus analysiert Texturen und wendet je nach Bedarf dieser zwischen 1x und 16xAF an.

Zu Deinem letzten Absatz: Warum appliziert eigentlich ATIs Edge- Detect- CFAA lediglich diesen Schmierfilter nur an Polygonkanten? Wenn man diese Kantenerkennung sowieso durchführt, könnte man nicht gleich nur dort multisampeln? Das wäre dann ein Ansatz wie bei Matrox' FAA. Naja, vlt. funktioniert die Kantenerkennung ja auch bei ATI nicht richtig, nur fällt ein bisschen Geschmiere mehr oder weniger an den Kanten nicht so krass auf wie komplett fehlendes AA :ugly:

Hmm, vlt. erwartet uns ja beim verbesserten AA des RV670 eine Überraschung :uponder:

Ich hab mich nie richtig damit beschaeftigt wie das edge-detect Zeug genau vorlaeuft, aber es wuerde mich kein bisschen wundern wenn das Ganze hauptsaechlich auf SW beruht (ist ja auch schneckenlangsam), ebenso wie das eher nutzlose sogenannte "temporal AA".

Der Aufwand fuer wahres analytisches/adaptives AA duerfte IMO ziemlich gross sein und wie gesagt ich bezweifle dass es auf einem IMR so leicht geht, ausser vielleicht man greift zu zusaetzlichem macro-tiling und puffert die Geometrie mehrmals durch damit man auch schoen Resourcen verschwenden kann.

James Ryan
2007-11-06, 05:54:50
Ganz davon abgesehen glaubst du doch wohl selbst nicht, dass eine HD3870 von einer HD2900 geschlagen wird? Das wäre ein marketingtechnisches Fiasko.


Die X1950 XTX war zum R600 Release auch in einigen Benches schneller als eine HD 2900 XT!
Wundern würde es mich nicht wenn gerade unter hohen Auflösungen die HD 3870 einbricht gegenüber der HD 2900 XT.
Davon mal abgesehen, die HD 3870 ist laut ATi für 199$ gelistet, erwartet da jetzt jemand deutlich mehr als R600-Perfomance? :|

MfG :cool:

-/\-CruNcher-/\-
2007-11-06, 06:36:39
Die X1950 XTX war zum R600 Release auch in einigen Benches schneller als eine HD 2900 XT!
Wundern würde es mich nicht wenn gerade unter hohen Auflösungen die HD 3870 einbricht gegenüber der HD 2900 XT.
Davon mal abgesehen, die HD 3870 ist laut ATi für 199$ gelistet, erwartet da jetzt jemand deutlich mehr als R600-Perfomance? :|

MfG :cool:

Wo steht das ATI die HD3870 (XT) für 199$ Launcht das war bezogen auf die HD3850 (PRO), solltest du die News von Fudzilla meinen.
Die Pro kann aber der 8800 GT 512mb nicht das Wasser reichen (nicht mit dem niedrigen Takt von 660mhz und mit 256mb ist sie auch unterdimensioniert was hohes AA und hohe Auflösungen angeht bei so Resourcenfressern wie Crysis z.b), ich würde es mir ja selbst gerne wünschen aber das wird mit ziemlicher Sicherheit nicht so eintreffen und das ist auch gut so, weil es deutet daraufhin das ATI sich ziemlich sicher ist das es die HD3870 (XT) in der GDDR3 Version, mit ihrem Launchtakt von 775mhz gegen die 8800 GT 512mb mit 600mhz aufnehmen kann (und da die R600 das nicht kann mit diesem Takt ist die logische Schlussfolgerung das die HD3870 schneller sein wird jedenfalls solange es nicht in Richtung 2xxx Auflösung geht, weil dann macht sich das größere Speicherinterface der HD2900XT bemerkbar, es ist hargenau die selbe Situation wie bei Nvidia, siehe Test von Demoria sie brauch min 800mhz um es mit den 600mhz der GT aufnehmen zu können ergo ATI hat 25mhz mit Optimierungen gut gemacht, wenn sie die AA einbrüche auch in den Griff gekriegt haben einfach SUPER) :) <-(btw das ist alles nur Spekulation und ich werde sicher am 15 entäuscht sein *einredentut*)

MadManniMan
2007-11-06, 06:38:30
könnte man nicht gleich nur dort multisampeln?

Da beißt sich die Maus in den Schwanz:

Wie soll ein Algorithmus greifen, der auf sich selbst beruht?

seahawk
2007-11-06, 07:36:50
Cruncher,

ich würde mir mal überlegen was eine Firma wie ATI veranlassen kann den Takt zu senken.

a) der Chip ist auch mit weniger Takt weit schneller als G92 (in jeder Form)
b) auch mit mehr Takt schlägt er G92 (selbst als GT) nicht zuverlässig
c) man kann mit dem geplanten Takt den Yield in Wafer pro Chip messen

Und eine HD3870 die 300$ kostet wird sich mit der 8800GTS (G92) prügeln müssen.

-/\-CruNcher-/\-
2007-11-06, 07:40:43
Die 200€ für die GDDR3 version könnten tatsächlich zu stande kommen ich hab eben mal die leaked prices der Phenom CPUs verglichen zum US retailer sind das 40€ unterschied :D würde bedeuten listed als 250$ kommt sie hier für ca 200€ (exkl Mwst) :D das scheint auch plausibel da die 2900 GT mit 190$ von dem XS Forumler angegeben wurde und hier in den listen mit 150€ (billigste) geführt wird (allerdings sind die Karten noch nicht da) offiziel EVP ist z.b bei Sapphire 178€ und bei der 8800 GT ist es momentan auch so das die Nachfrage das Angebot übersteigt und daher einige sehr überteuert sind da kommt man bei einigen auch unter 250€ hin selbst mit Nachnahme, bei der HD3870 wird der Ansturm hoffentlich nicht so groß werden :D

@Seahawk
Jep die HD3870 XT GDDR4 wird offensichtlich gegen die 8800 GTS (G92) ins rennen geschickt bzw ist das Nvidias Antwort die aber dann erst am 3 Dez erfolgt.

a) möglich wäre es und sogar noch besser für den user aber gleich schnell reicht doch schon + die anderen goodies (DPM,Xileon mit full VC-1) wäre das schon ein netter Mehrwert gegenüber der 8800 GT :D
b) kann ich mir nicht vorstellen aber du hast recht so ein Benchmark sagt nicht viel aus das ist nen AVG wert und hat nix mit dem Empfinden während des benutzens der Applikation (in diesem Fall Game) zu tun deswegen werde ich mir das HardOCP review ganz genau anschauen :D
c) mag sein kenn ich mich nicht aus aber das wäre ja ein bischen abwegig, es sei den a) trift zu :D

seahawk
2007-11-06, 08:14:27
Der Vergleich ist gegen ne 2900PRO die höher taktet als die HD3870 wird und massiv mehr Bandbreite mit bringt.

-/\-CruNcher-/\-
2007-11-06, 08:26:29
Ja die PRO (R600) Taktet mit 800mhz und kommt so an die 8800 GT mit 600mhz, deshalb kann ich mir einfach nicht vorstellen das der RV670 mit 775mhz nicht auch daran kommen sollte, im Hinblick allein schon darauf was Nvidia gegen ihren G80 packt (Ati soll da schlechter bei ihrem Refresh Design sein, glaub ich einfach nicht)

BTW den Beta Treiber den Demoria benutzt hat ist Buggy beinhaltet meiner Meinung nach eine fehlgeschlagene HVS Optimierung (HVS Optimierungen sind so lange gut bis sie nicht entdeckt werden ;) ) die auch nochmal mit 7-10% die 8800 GT pushed das sind fast 2 fps.
Und man darf auch nicht vergessen das Crysis Nvidia optimiert ist und da muss ich sagen schlägt sich ATIs GPU Architektur hervoragend Objektiv gesehen :)
Eigentlich war ich ja überzeugt davon das AMD/ATI erst nächstes jahr ihr Comeback starten nach den ganzen negativen Leak Meldungen, nu muss ich sagen ich könnte mich geirrt haben und AMD/ATI
starten es noch dieses Jahr, die reviews werden es zeigen (Comeback bedeutet für mich sie stehen auf einer Stuffe mit dem G92, bei der empfundenen Performance) :D

Lol was ist den das hier für ein spielchen, eben war auf der Sapphire Page die 3800 serie gelisted http://www.sapphiretech.com/us/products/browseproducts.php?pcat=3

K4mPFwUr$t
2007-11-06, 08:42:25
@-/\-CruNcher-/\-
sry aber dein 2. abschnitt ist unfug.
crysis hat einen bug wo die medium texturen die high texturen sind.
das liegt ganz allein an einem cvar das die berge verwaschen wirken, selbst bei high settings.
aber wenn man es so nimmt, schummelt auch ATI z.b bei meiner x1950pro :rolleyes:

HL² ist auch ATI optimiert und lost zur zeit massivst mit seiner HD2000 serie.

Ailuros
2007-11-06, 08:53:43
Cruncher,

ich würde mir mal überlegen was eine Firma wie ATI veranlassen kann den Takt zu senken.

a) der Chip ist auch mit weniger Takt weit schneller als G92 (in jeder Form)
b) auch mit mehr Takt schlägt er G92 (selbst als GT) nicht zuverlässig
c) man kann mit dem geplanten Takt den Yield in Wafer pro Chip messen

Und eine HD3870 die 300$ kostet wird sich mit der 8800GTS (G92) prügeln müssen.

Das Loch in der ganzen Logik waere warum man den Preis gleichzeitig zum Takt senkt.

-/\-CruNcher-/\-
2007-11-06, 09:15:33
Leute ich hab nen 3Dcenter Exclusive anzukündigen ;) einen moment

http://www.sapphiretech.com/us/products/products_overview.php?gpid=200&grp=3 (habs gesaved zur sicherheit ;) )

Gast
2007-11-06, 09:17:18
Leute ich hab nen 3Dcenter Exclusive anzukündigen ;) einen moment
was was was ?

Schlammsau
2007-11-06, 09:25:20
???

-/\-CruNcher-/\-
2007-11-06, 09:28:21
@-/\-CruNcher-/\-
sry aber dein 2. abschnitt ist unfug.
crysis hat einen bug wo die medium texturen die high texturen sind.
das liegt ganz allein an einem cvar das die berge verwaschen wirken, selbst bei high settings.
aber wenn man es so nimmt, schummelt auch ATI z.b bei meiner x1950pro :rolleyes:

HL² ist auch ATI optimiert und lost zur zeit massivst mit seiner HD2000 serie.

Das mein ich nicht ich meine das hier http://www.hardforum.com/showthread.php?t=1237999

Schlammsau
2007-11-06, 09:32:46
so was `ähnliches`wird auch hier diskutiert....
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=389190

-/\-CruNcher-/\-
2007-11-06, 09:43:43
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

"Normally, Crysis updates the reflections on the water's surface after every few frames, so that the reflections constantly show what you are actually seeing on-screen at that time. This doesn't happen after every frame as a compromise between burning up lots of GPU cycles and making the image that you see in-game look realistic, with an update every three frames or so proving to be more or less adequate in keeping the reflection in the water looking as it should.

However, the 'stretching' effect we are seeing in the screenshots above are due to the water reflections, with any of NVIDIA's ForceWare 169.0x series of drivers in use, being updated far more infrequently - Around every ten frames or so by my calculation. This means that although your viewpoint changes, the reflections don't, thus you actually see them stretch and distort as the camera pans and changes position. Like I say, it's quite difficult to explain without seeing it in action, but believe me, it's not pretty."

K4mPFwUr$t
2007-11-06, 10:11:19
@-/\-CruNcher-/\-
hmm, ok dann meinen wir zwei verschiedene sachen.
ist denn was bekannt das wirklich nur bei crysis optimiert wurde oder z.b auch bei cod4?

-/\-CruNcher-/\-
2007-11-06, 10:11:40
So leute hier ist SIE 3DCenter Exclusive :)
http://www.sapphiretech.com/us/products/products_overview.php?gpid=198&grp=3

J0ph33
2007-11-06, 10:18:20
n1 dualslot-kühler =)

AnarchX
2007-11-06, 10:20:49
Wohl schon wieder weg?

Taktraten waren leider nicht angegeben.

edit:
wenigstens das Bild aus dem Cache:

http://img205.imageshack.us/img205/4436/198specimage13fba856sn1.jpg

-/\-CruNcher-/\-
2007-11-06, 10:21:18
hehe funy alles wieder wech als wär es nie dagewesen was für ein Marketing ;D



Sapphire Radeon 3800 Series

Product Spec
320 stream processing units
PCI Express 2.0 x16 bus interface
256-bit GDDR4 memory interface
512-bit Ring Bus Memory Controller
Microsoft® DirectX® 10.1 support
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
ATI PowerPlay™
ATI CrossFireX™ Multi-GPU Technology
Integrated HD audio controller with multi-channel (5.1) AC3 support
ATI Avivo™ HD Video and Display Platform

http://img406.imageshack.us/img406/582/200specinq7.jpg

http://img205.imageshack.us/img205/4436/198specimage13fba856sn1.jpg


Delivering Mayhem to the Mainstream


Long thought to be the market of the conservative gamer, the affordable mainstream products, which use to suffer only adequate performance, now experiences a frame rate revival with the SAPPHIRE HD 3850. Built upon the award winning Radeon HD 3850 core, the SAPPHIRE 3850 offers a comprehensive feature-set that eclipses previous and current mainstream offerings. Unleash the enthusiast inside you with support for advanced technologies such as DirectX® 10.1 and Shader Model 4.1 support, integrated HDMI and HDCP support for Blu-ray™/HD DVD decoding and for the extreme enthusiast,pair two together for the ultimate gaming experience with CrossFire X™ support! Jam a SAPPHIRE HD 3850 into your rig and still have some coin left over to buy that title you have been waiting for!


Hardware processed 1080p video playback of Blu-ray™ and HD DVDs
CrossFire X™ support
HDMI with 5.1 surround sound audio
(Important Information for Windows XP & Windows Vista users)
ATI PowerPlay™
DirectX® 10.1 support



ATI RADEON™ HD 3850


666 million transistors on 55nm fabrication process
PCI Express 2.0 x16 bus interface
256-bit GDDR3 memory interface
Ring Bus Memory Controller
Fully distributed design with 512-bit internal ring bus for memory reads and writes
Microsoft® DirectX® 10.1 support
Shader Model 4.1
32-bit floating point texture filtering
Indexed cube map arrays
Independent blend modes per render target
Pixel coverage sample masking
Read/write multi-sample surfaces with shaders
Gather4 texture fetching
Unified Superscalar Shader Architecture
320 stream processing units
Dynamic load balancing and resource allocation for vertex, geometry, and pixel shaders
Common instruction set and texture unit access supported for all types of shaders
Dedicated branch execution units and texture address processors
128-bit floating point precision for all operations
Command processor for reduced CPU overhead
Shader instruction and constant caches
Up to 80 texture fetches per clock cycle
Up to 128 textures per pixel
Fully associative multi-level texture cache design
DXTC and 3Dc+ texture compression
High resolution texture support (up to 8192 x 8192)
Fully associative texture Z/stencil cache designs
Double-sided hierarchical Z/stencil buffer
Early Z test, Re-Z, Z Range optimization, and Fast Z Clear
Lossless Z & stencil compression (up to 128:1)
Lossless color compression (up to 8:1)
8 render targets (MRTs) with anti-aliasing support
Physics processing support
Dynamic Geometry Acceleration
High performance vertex cache
Programmable tessellation unit
Accelerated geometry shader path for geometry amplification
Memory read/write cache for improved stream output performance
Anti-aliasing features
Multi-sample anti-aliasing (2, 4, or 8 samples per pixel)
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
Adaptive super-sampling and multi-sampling
Temporal anti-aliasing
Gamma correct
Super AA (ATI CrossFire™ configurations only)
All anti-aliasing features compatible with HDR rendering
Texture filtering features
2x/4x/8x/16x high quality adaptive anisotropic filtering modes (up to 128 taps per pixel)
128-bit floating point HDR texture filtering
Bicubic filtering
sRGB filtering (gamma/degamma)
Percentage Closer Filtering (PCF)
Depth & stencil texture (DST) format support
Shared exponent HDR (RGBE 9:9:9:5) texture format support
OpenGL 2.0 support
ATI Avivo™ HD Video and Display Platform
Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats
High definition (HD) playback of both Blu-ray and HD DVD formats
Hardware MPEG-1, MPEG-2, and DivX video decode acceleration
Motion compensation and IDCT
ATI Avivo Video Post Processor
Color space conversion
Chroma subsampling format conversion
Horizontal and vertical scaling
Gamma correction
Advanced vector adaptive per-pixel de-interlacing
De-blocking and noise reduction filtering
Detail enhancement
Inverse telecine (2:2 and 3:2 pull-down correction)
Bad edit correction
Two independent display controllers
Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscan support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor
Two integrated dual-link DVI display outputs
Each supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)
Each includes a dual-link HDCP encoder with on-chip key storage for high resolution playback of protected content
Two integrated 400 MHz 30-bit RAMDACs
Each supports analog displays connected by VGA at all resolutions up to 2048x1536
HDMI output support
Supports all display resolutions up to 1920x1080
Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution
Integrated AMD Xilleon™ HDTV encoder
Provides high quality analog TV output (component/S-video/composite)
Supports SDTV and HDTV resolutions
Underscan and overscan compensation
MPEG-2, MPEG-4, DivX, WMV9, VC-1, and H.264/AVC encoding and transcoding
Seamless integration of pixel shaders with video in real time
VGA mode support on all display outputs
ATI PowerPlay™
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required
ATI CrossFireX™ Multi-GPU Technology
Scale up rendering performance and image quality with two, three, or four GPUs
Integrated compositing engine
High performance dual channel bridge interconnect
Dual channel interconnect is not required for ATI CrossFire, and may not be included in all product configurations
Some custom resolutions require user configuration
HDCP support for playback of protected content requires connection to a HDCP capable display

System Requirement:
PCI Express based PC is required with one X16 lane graphic slot available on the motherboard.
1GB or greater system memory for better performance.
450Watt or greater power supply with 75 Watt 6-pin PCI Express power connector recommended.
For ATI CrossfireX: 550 watt power supply or greater with two 6-pin connectors.
Certified power supplies are recommended. Refer to http://ati.amd.com/certifiedPSU for a list of Certified products
Installation software requires CD-ROM drive.
DVD playback requires DVD driver
Blu-ray/HD DVD playback requires Blu-ray/HD-DVD drive and playback software.
For a complete ATI CrossFireX™ system, a second ATI Radeon™ HD 3850 graphics card, an ATI CrossFireX Ready motherboard and one ATI CrossFireX Bridge Interconnect cable per board are required.



More Carnage For Your Coin!


Unshackle your PC's performance from the coin in your pocket as the SAPPHIRE HD 3870 liberates your inner gamer without compromising your wallet. Hard pressed to find a comparable product on the market for the price, the SAPPHIRE HD 3870 extinguishes all doubt that the Radeon HD 3870 core is a mid-range performing product. With features such as: DirectX® 10.1 and Shader Model 4.1 support, integrated HDMI and HDCP support for Blu-ray™/HD DVD decoding and for the extreme enthusiast, CrossFire X™ support, the SAPPHIRE incarnation of the HD 3870 will own your imagination and accelerate your performance on the virtual battlefield of your desktop! Reinvent the way you engage your gaming experience with every LOAD!



PCI Express 2.0 x16 bus interface
DirectX® 10.1 support
CrossFire X™ support
ATI PowerPlay™
Hardware processed 1080p video playback of Blu-ray™ and HD DVDs



ATI RADEON™ HD 3870


666 million transistors on 55nm fabrication process
PCI Express 2.0 x16 bus interface
256-bit GDDR4 memory interface
Ring Bus Memory Controller
Fully distributed design with 512-bit internal ring bus for memory reads and writes
Microsoft® DirectX® 10.1 support
Shader Model 4.1
32-bit floating point texture filtering
Indexed cube map arrays
Independent blend modes per render target
Pixel coverage sample masking
Read/write multi-sample surfaces with shaders
Gather4 texture fetching
Unified Superscalar Shader Architecture
320 stream processing units
Dynamic load balancing and resource allocation for vertex, geometry, and pixel shaders
Common instruction set and texture unit access supported for all types of shaders
Dedicated branch execution units and texture address processors
128-bit floating point precision for all operations
Command processor for reduced CPU overhead
Shader instruction and constant caches
Up to 80 texture fetches per clock cycle
Up to 128 textures per pixel
Fully associative multi-level texture cache design
DXTC and 3Dc+ texture compression
High resolution texture support (up to 8192 x 8192)
Fully associative texture Z/stencil cache designs
Double-sided hierarchical Z/stencil buffer
Early Z test, Re-Z, Z Range optimization, and Fast Z Clear
Lossless Z & stencil compression (up to 128:1)
Lossless color compression (up to 8:1)
8 render targets (MRTs) with anti-aliasing support
Physics processing support
Dynamic Geometry Acceleration
High performance vertex cache
Programmable tessellation unit
Accelerated geometry shader path for geometry amplification
Memory read/write cache for improved stream output performance
Anti-aliasing features
Multi-sample anti-aliasing (2, 4, or 8 samples per pixel)
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
Adaptive super-sampling and multi-sampling
Temporal anti-aliasing
Gamma correct
Super AA (ATI CrossFire™ configurations only)
All anti-aliasing features compatible with HDR rendering
Texture filtering features
2x/4x/8x/16x high quality adaptive anisotropic filtering modes (up to 128 taps per pixel)
128-bit floating point HDR texture filtering
Bicubic filtering
sRGB filtering (gamma/degamma)
Percentage Closer Filtering (PCF)
Depth & stencil texture (DST) format support
Shared exponent HDR (RGBE 9:9:9:5) texture format support
OpenGL 2.0 support
ATI Avivo™ HD Video and Display Platform
Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats
High definition (HD) playback of both Blu-ray and HD DVD formats
Hardware MPEG-1, MPEG-2, and DivX video decode acceleration
Motion compensation and IDCT
ATI Avivo Video Post Processor
Color space conversion
Chroma subsampling format conversion
Horizontal and vertical scaling
Gamma correction
Advanced vector adaptive per-pixel de-interlacing
De-blocking and noise reduction filtering
Detail enhancement
Inverse telecine (2:2 and 3:2 pull-down correction)
Bad edit correction
Two independent display controllers
Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscan support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor
Two integrated dual-link DVI display outputs
Each supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)
Each includes a dual-link HDCP encoder with on-chip key storage for high resolution playback of protected content
Two integrated 400 MHz 30-bit RAMDACs
Each supports analog displays connected by VGA at all resolutions up to 2048x1536
HDMI output support
Supports all display resolutions up to 1920x1080
Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution
Integrated AMD Xilleon™ HDTV encoder
Provides high quality analog TV output (component/S-video/composite)
Supports SDTV and HDTV resolutions
Underscan and overscan compensation
MPEG-2, MPEG-4, DivX, WMV9, VC-1, and H.264/AVC encoding and transcoding
Seamless integration of pixel shaders with video in real time
VGA mode support on all display outputs
ATI PowerPlay™
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required
ATI CrossFireX™ Multi-GPU Technology
Scale up rendering performance and image quality with two, three, or four GPUs
Integrated compositing engine
High performance dual channel bridge interconnect
Dual channel interconnect is not required for ATI CrossFire, and may not be included in all product configurations
Some custom resolutions require user configuration
HDCP support for playback of protected content requires connection to a HDCP capable display

System Requirement:
PCI Express based PC is required with one X16 lane graphic slot available on the motherboard.
1GB or greater system memory for better performance.
450Watt or greater power supply with 75 Watt 6-pin PCI Express power connector recommended.
For ATI CrossfireX: 550 watt power supply or greater with two 6-pin connectors.
Certified power supplies are recommended. Refer to http://ati.amd.com/certifiedPSU for a list of Certified products.
Installation software requires CD-ROM drive.
DVD playback requires DVD driver.
Blu-ray/HD DVD playback requires Blu-ray/HD-DVD drive and playback software.
For a complete ATI CrossFireX™ system, a second ATI Radeon™ HD 3870 graphics card, an ATI CrossFireX Ready motherboard and one ATI CrossFireX Bridge Interconnect cable per board are required.

Gast
2007-11-06, 10:41:27
hehe funy alles wieder wech als wär es nie dagewesen was für ein Marketing ;D


Sapphire Radeon 3800 Series

Product Spec
320 stream processing units
PCI Express 2.0 x16 bus interface
256-bit GDDR4 memory interface
512-bit Ring Bus Memory Controller
Microsoft® DirectX® 10.1 support
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
ATI PowerPlay™
ATI CrossFireX™ Multi-GPU Technology
Integrated HD audio controller with multi-channel (5.1) AC3 support
ATI Avivo™ HD Video and Display Platform

http://www.sapphiretech.com/en/productfiles/200specimage.jpg


http://www.sapphiretech.com/en/productfiles/198specimage.jpg


Delivering Mayhem to the Mainstream


Long thought to be the market of the conservative gamer, the affordable mainstream products, which use to suffer only adequate performance, now experiences a frame rate revival with the SAPPHIRE HD 3850. Built upon the award winning Radeon HD 3850 core, the SAPPHIRE 3850 offers a comprehensive feature-set that eclipses previous and current mainstream offerings. Unleash the enthusiast inside you with support for advanced technologies such as DirectX® 10.1 and Shader Model 4.1 support, integrated HDMI and HDCP support for Blu-ray™/HD DVD decoding and for the extreme enthusiast,pair two together for the ultimate gaming experience with CrossFire X™ support! Jam a SAPPHIRE HD 3850 into your rig and still have some coin left over to buy that title you have been waiting for! Hardware processed 1080p video playback of Blu-ray™ and HD DVDs

CrossFire X™ support
HDMI with 5.1 surround sound audio
(Important Information for Windows XP & Windows Vista users)
ATI PowerPlay™
DirectX® 10.1 support



ATI RADEON™ HD 3850


666 million transistors on 55nm fabrication process
PCI Express 2.0 x16 bus interface
256-bit GDDR3 memory interface
Ring Bus Memory Controller
Fully distributed design with 512-bit internal ring bus for memory reads and writes
Microsoft® DirectX® 10.1 support
Shader Model 4.1
32-bit floating point texture filtering
Indexed cube map arrays
Independent blend modes per render target
Pixel coverage sample masking
Read/write multi-sample surfaces with shaders
Gather4 texture fetching
Unified Superscalar Shader Architecture
320 stream processing units
Dynamic load balancing and resource allocation for vertex, geometry, and pixel shaders
Common instruction set and texture unit access supported for all types of shaders
Dedicated branch execution units and texture address processors
128-bit floating point precision for all operations
Command processor for reduced CPU overhead
Shader instruction and constant caches
Up to 80 texture fetches per clock cycle
Up to 128 textures per pixel
Fully associative multi-level texture cache design
DXTC and 3Dc+ texture compression
High resolution texture support (up to 8192 x 8192)
Fully associative texture Z/stencil cache designs
Double-sided hierarchical Z/stencil buffer
Early Z test, Re-Z, Z Range optimization, and Fast Z Clear
Lossless Z & stencil compression (up to 128:1)
Lossless color compression (up to 8:1)
8 render targets (MRTs) with anti-aliasing support
Physics processing support
Dynamic Geometry Acceleration
High performance vertex cache
Programmable tessellation unit
Accelerated geometry shader path for geometry amplification
Memory read/write cache for improved stream output performance
Anti-aliasing features
Multi-sample anti-aliasing (2, 4, or 8 samples per pixel)
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
Adaptive super-sampling and multi-sampling
Temporal anti-aliasing
Gamma correct
Super AA (ATI CrossFire™ configurations only)
All anti-aliasing features compatible with HDR rendering
Texture filtering features
2x/4x/8x/16x high quality adaptive anisotropic filtering modes (up to 128 taps per pixel)
128-bit floating point HDR texture filtering
Bicubic filtering
sRGB filtering (gamma/degamma)
Percentage Closer Filtering (PCF)
Depth & stencil texture (DST) format support
Shared exponent HDR (RGBE 9:9:9:5) texture format support
OpenGL 2.0 support
ATI Avivo™ HD Video and Display Platform
Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats
High definition (HD) playback of both Blu-ray and HD DVD formats
Hardware MPEG-1, MPEG-2, and DivX video decode acceleration
Motion compensation and IDCT
ATI Avivo Video Post Processor
Color space conversion
Chroma subsampling format conversion
Horizontal and vertical scaling
Gamma correction
Advanced vector adaptive per-pixel de-interlacing
De-blocking and noise reduction filtering
Detail enhancement
Inverse telecine (2:2 and 3:2 pull-down correction)
Bad edit correction
Two independent display controllers
Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscan support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor
Two integrated dual-link DVI display outputs
Each supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)
Each includes a dual-link HDCP encoder with on-chip key storage for high resolution playback of protected content
Two integrated 400 MHz 30-bit RAMDACs
Each supports analog displays connected by VGA at all resolutions up to 2048x1536
HDMI output support
Supports all display resolutions up to 1920x1080
Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution
Integrated AMD Xilleon™ HDTV encoder
Provides high quality analog TV output (component/S-video/composite)
Supports SDTV and HDTV resolutions
Underscan and overscan compensation
MPEG-2, MPEG-4, DivX, WMV9, VC-1, and H.264/AVC encoding and transcoding
Seamless integration of pixel shaders with video in real time
VGA mode support on all display outputs
ATI PowerPlay™
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required
ATI CrossFireX™ Multi-GPU Technology
Scale up rendering performance and image quality with two, three, or four GPUs
Integrated compositing engine
High performance dual channel bridge interconnect
Dual channel interconnect is not required for ATI CrossFire, and may not be included in all product configurations
Some custom resolutions require user configuration
HDCP support for playback of protected content requires connection to a HDCP capable display

System Requirement:
PCI Express based PC is required with one X16 lane graphic slot available on the motherboard.
1GB or greater system memory for better performance.
450Watt or greater power supply with 75 Watt 6-pin PCI Express power connector recommended.
For ATI CrossfireX: 550 watt power supply or greater with two 6-pin connectors.
Certified power supplies are recommended. Refer to http://ati.amd.com/certifiedPSU for a list of Certified products
Installation software requires CD-ROM drive.
DVD playback requires DVD driver
Blu-ray/HD DVD playback requires Blu-ray/HD-DVD drive and playback software.
For a complete ATI CrossFireX™ system, a second ATI Radeon™ HD 3850 graphics card, an ATI CrossFireX Ready motherboard and one ATI CrossFireX Bridge Interconnect cable per board are required.



More Carnage For Your Coin!


Unshackle your PC's performance from the coin in your pocket as the SAPPHIRE HD 3870 liberates your inner gamer without compromising your wallet. Hard pressed to find a comparable product on the market for the price, the SAPPHIRE HD 3870 extinguishes all doubt that the Radeon HD 3870 core is a mid-range performing product. With features such as: DirectX® 10.1 and Shader Model 4.1 support, integrated HDMI and HDCP support for Blu-ray™/HD DVD decoding and for the extreme enthusiast, CrossFire X™ support, the SAPPHIRE incarnation of the HD 3870 will own your imagination and accelerate your performance on the virtual battlefield of your desktop! Reinvent the way you engage your gaming experience with every LOAD!



PCI Express 2.0 x16 bus interface
DirectX® 10.1 support
CrossFire X™ support
ATI PowerPlay™
Hardware processed 1080p video playback of Blu-ray™ and HD DVDs



ATI RADEON™ HD 3870


666 million transistors on 55nm fabrication process
PCI Express 2.0 x16 bus interface
256-bit GDDR4 memory interface
Ring Bus Memory Controller
Fully distributed design with 512-bit internal ring bus for memory reads and writes
Microsoft® DirectX® 10.1 support
Shader Model 4.1
32-bit floating point texture filtering
Indexed cube map arrays
Independent blend modes per render target
Pixel coverage sample masking
Read/write multi-sample surfaces with shaders
Gather4 texture fetching
Unified Superscalar Shader Architecture
320 stream processing units
Dynamic load balancing and resource allocation for vertex, geometry, and pixel shaders
Common instruction set and texture unit access supported for all types of shaders
Dedicated branch execution units and texture address processors
128-bit floating point precision for all operations
Command processor for reduced CPU overhead
Shader instruction and constant caches
Up to 80 texture fetches per clock cycle
Up to 128 textures per pixel
Fully associative multi-level texture cache design
DXTC and 3Dc+ texture compression
High resolution texture support (up to 8192 x 8192)
Fully associative texture Z/stencil cache designs
Double-sided hierarchical Z/stencil buffer
Early Z test, Re-Z, Z Range optimization, and Fast Z Clear
Lossless Z & stencil compression (up to 128:1)
Lossless color compression (up to 8:1)
8 render targets (MRTs) with anti-aliasing support
Physics processing support
Dynamic Geometry Acceleration
High performance vertex cache
Programmable tessellation unit
Accelerated geometry shader path for geometry amplification
Memory read/write cache for improved stream output performance
Anti-aliasing features
Multi-sample anti-aliasing (2, 4, or 8 samples per pixel)
Up to 24x Custom Filter Anti-Aliasing (CFAA) for improved quality
Adaptive super-sampling and multi-sampling
Temporal anti-aliasing
Gamma correct
Super AA (ATI CrossFire™ configurations only)
All anti-aliasing features compatible with HDR rendering
Texture filtering features
2x/4x/8x/16x high quality adaptive anisotropic filtering modes (up to 128 taps per pixel)
128-bit floating point HDR texture filtering
Bicubic filtering
sRGB filtering (gamma/degamma)
Percentage Closer Filtering (PCF)
Depth & stencil texture (DST) format support
Shared exponent HDR (RGBE 9:9:9:5) texture format support
OpenGL 2.0 support
ATI Avivo™ HD Video and Display Platform
Dedicated unified video decoder (UVD) for H.264/AVC and VC-1 video formats
High definition (HD) playback of both Blu-ray and HD DVD formats
Hardware MPEG-1, MPEG-2, and DivX video decode acceleration
Motion compensation and IDCT
ATI Avivo Video Post Processor
Color space conversion
Chroma subsampling format conversion
Horizontal and vertical scaling
Gamma correction
Advanced vector adaptive per-pixel de-interlacing
De-blocking and noise reduction filtering
Detail enhancement
Inverse telecine (2:2 and 3:2 pull-down correction)
Bad edit correction
Two independent display controllers
Drive two displays simultaneously with independent resolutions, refresh rates, color controls and video overlays for each display
Full 30-bit display processing
Programmable piecewise linear gamma correction, color correction, and color space conversion
Spatial/temporal dithering provides 30-bit color quality on 24-bit and 18-bit displays
High quality pre- and post-scaling engines, with underscan support for all display outputs
Content-adaptive de-flicker filtering for interlaced displays
Fast, glitch-free mode switching
Hardware cursor
Two integrated dual-link DVI display outputs
Each supports 18-, 24-, and 30-bit digital displays at all resolutions up to 1920x1200 (single-link DVI) or 2560x1600 (dual-link DVI)
Each includes a dual-link HDCP encoder with on-chip key storage for high resolution playback of protected content
Two integrated 400 MHz 30-bit RAMDACs
Each supports analog displays connected by VGA at all resolutions up to 2048x1536
HDMI output support
Supports all display resolutions up to 1920x1080
Integrated HD audio controller with multi-channel (5.1) AC3 support, enabling a plug-and-play cable-less audio solution
Integrated AMD Xilleon™ HDTV encoder
Provides high quality analog TV output (component/S-video/composite)
Supports SDTV and HDTV resolutions
Underscan and overscan compensation
MPEG-2, MPEG-4, DivX, WMV9, VC-1, and H.264/AVC encoding and transcoding
Seamless integration of pixel shaders with video in real time
VGA mode support on all display outputs
ATI PowerPlay™
Advanced power management technology for optimal performance and power savings
Performance-on-Demand
Constantly monitors GPU activity, dynamically adjusting clocks and voltage based on user scenario
Clock and memory speed throttling
Voltage switching
Dynamic clock gating
Central thermal management – on-chip sensor monitors GPU temperature and triggers thermal actions as required
ATI CrossFireX™ Multi-GPU Technology
Scale up rendering performance and image quality with two, three, or four GPUs
Integrated compositing engine
High performance dual channel bridge interconnect
Dual channel interconnect is not required for ATI CrossFire, and may not be included in all product configurations
Some custom resolutions require user configuration
HDCP support for playback of protected content requires connection to a HDCP capable display

System Requirement:
PCI Express based PC is required with one X16 lane graphic slot available on the motherboard.
1GB or greater system memory for better performance.
450Watt or greater power supply with 75 Watt 6-pin PCI Express power connector recommended.
For ATI CrossfireX: 550 watt power supply or greater with two 6-pin connectors.
Certified power supplies are recommended. Refer to http://ati.amd.com/certifiedPSU for a list of Certified products.
Installation software requires CD-ROM drive.
DVD playback requires DVD driver.
Blu-ray/HD DVD playback requires Blu-ray/HD-DVD drive and playback software.
For a complete ATI CrossFireX™ system, a second ATI Radeon™ HD 3870 graphics card, an ATI CrossFireX Ready motherboard and one ATI CrossFireX Bridge Interconnect cable per board are required.


Ich kauf sie mir! Einen Dual-Slot Kühler brauch ich zwingend für mein HTPC (es sei denn ich möchte meine Hardware grillen). Den HD-Audio Controller für HDMI ist auch genial, so kann ich mein HTPC direkt über HDMI an den Fernseher anschließen.

robbitop
2007-11-06, 11:01:59
Aber auch bei 4xAA ist die HD2900 XT nur gering hinter der 8800GT, zumal die HD2900 XT ja extrem mit AA an Leistung verlieren soll (aber nicht so viel wie die 8800GT). Ich denke eine HD3870 könnte schon einen Gleichstand erreichen und wäre mit DX10.1, UVD und weniger Stromverbrauch wohl besser gerüstet.
Grund: Bandbreite (hat R600 mehr davon) und Speicher (R600 hat ein besseres Speichermanagement). Ich bin auf die RV670 gespannt. Gerade in Crysis kann sie ihre einzige größere Stärke ausspielen: Shaderleistung.

Gast
2007-11-06, 11:04:17
Kann mal jemand vielleicht eine tabelle erstellen, wo alle technischen daten gegenüber gestellt werden. So etwa:

____ATI_____ _____NIVIDIA___
Microsoft® DirectX® 10.1 support YES NO
Shader Model 4.1 YES NO
All AA-features compatible with HDR rendering YES NO

usw.

dildo4u
2007-11-06, 11:05:11
Gerade in Crysis kann sie ihre einzige größere Stärke ausspielen: Shaderleistung.
Aber die dürfte sich nicht deutlich vom Hauptkonkurrenz der 8800GT absetzen oder? viel mher als 500GFlops sind sicher nicht drinn.

Nicht mal ohne AA und AF steht die 2900XT gut da im Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis

robbitop
2007-11-06, 11:15:06
Aber die dürfte sich nicht deutlich vom Hauptkonkurrenz der 8800GT absetzen oder? viel mher als 500GFlops sind sicher nicht drinn.

Nicht mal ohne AA und AF steht die 2900XT gut da im Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis
In der Praxis hat eine R6xx nicht mehr Shaderleistung als eine G8x/9x, auch wenn die MAD-OPs auf dem Papier höher sind.
Die ALUs sind ineffizienter und sie müssen ausserdem noch TEX OPs und SFUs erledigen. Ich gehe aufgrund der relativ geringen Füllrate davon aus, dass es wieder irgendwelche Texturfilterungsoptimierungen gibt.

up¦²
2007-11-06, 11:17:40
Aber die dürfte sich nicht deutlich vom Hauptkonkurrenz der 8800GT absetzen oder? viel mher als 500GFlops sind sicher nicht drinn.

Nicht mal ohne AA und AF steht die 2900XT gut da im Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis

Abwarten!
Auch wenn es schon 1000x gesagt wurde: der nächste Treiber könnte einen Turbo haben, mal sehn ob der Knoten endlich platzt! ;)

Obendrein hat Ati mit Sicherheit am Core "getuned", also ich bin jedenfalls gespannt, wie das Rennen ausgeht!

Die Karte sieht gigantisch cool aus, danke an die Leute, die auf Zack waren!

dildo4u
2007-11-06, 11:25:39
Abwarten!
Auch wenn es schon 1000x gesagt wurde: der nächste Treiber könnte einen Turbo haben, mal sehn ob der Knoten endlich platzt! ;)


Ich glaub das warten auf "den" Wundertreiber haben selbst die treuesten ATIler satt.

Ailuros
2007-11-06, 11:34:40
Abwarten!
Auch wenn es schon 1000x gesagt wurde: der nächste Treiber könnte einen Turbo haben, mal sehn ob der Knoten endlich platzt! ;)


Kein Treiberteam auf dieser Welt hat einen Zauberstab.

up¦²
2007-11-06, 11:37:14
Kein Treiberteam auf dieser Welt hat einen Zauberstab.
Aber auch im 3d-Bizz muss man pokern können: der R600 war wohl eher ein Klotz am Bein, denn ein 7-Meilenstiefel. Das war doch ziemlich schnell klar.
Die Crew wird sich schon was einfallen lassen und aus Fehlern gelernt haben: diese Chance muss man ihnen lassen, ich halte es für nicht ausgeschlossen.
Gerade die SW-lastigkeit der HW scheint wahnsinnig kompliziert zu sein, aber hat vermutlich auch Potenzial, aber: Speku - ok

War die "Racheaktion" (nicht von Ati eingeladen...) des INQ schon bekannt, ansonsten:
http://www.theinquirer.net/gb/inquirer/news/2007/11/05/amd-hd3800-pricing-shock

Gmax
2007-11-06, 12:01:41
Wohl nur CF, sonst hätte AMD nicht 2x512MB angegeben und richtige Dual-Die-GPUs, die also als eine erkannt werden, würde ich nicht vor 2009 erwarten.


Yo, scheint zu stimmen. Und laut Kung Fudo soll diese sogar schneller als eine Ultra sein (falls die Treiber ok sind)

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4043&Itemid=1

Ailuros
2007-11-06, 12:03:59
Aber auch im 3d-Bizz muss man pokern können: der R600 war wohl eher ein Klotz am Bein, denn ein 7-Meilenstiefel. Das war doch ziemlich schnell klar.

Es dauerte eine geraume Zeit durch die grosse R600 Verspaetung bis dieses das Publikum geschnallt hat, bis natuerlich der Launch und die ersten Leistungszahlen eingeflossen sind.

Tut mir leid aber alle Indizien deuten momentan auch auf keine Wunder hin. Definitiv ist zwar nichts, aber es ist besser die Hoffnung konservativ zu halten als sich unangenehm am Ende ueberraschen zu lassen.

Die Crew wird sich schon was einfallen lassen und aus Fehlern gelernt haben: diese Chance muss man ihnen lassen, ich halte es für nicht ausgeschlossen.
Gerade die SW-lastigkeit der HW scheint wahnsinnig kompliziert zu sein, aber hat vermutlich auch Potenzial, aber: Speku - ok

Und wie zaubert man zusaetzliche Faehigkeiten aus 16 TMUs bzw. ROPs wenn diese nur auf X,Y,Z begrenzt sind? Oder glaubst Du vielleicht dass es irgend eine SW Loesung gibt die Dir single cycle 4xMSAA auf einer single cycle 2xMSAA ROP geben (oder 96Z gegen 32Z samples)?

Ailuros
2007-11-06, 12:05:45
Yo, scheint zu stimmen. Und laut Kung Fudo soll diese sogar schneller als eine Ultra sein (falls die Treiber ok sind)

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4043&Itemid=1

Bleibt die Frage um wieviel genau; nur um ein kleines Prozentual Vorsprung und man drueckt eben mal wieder mit dem Preis nach unten.

up¦²
2007-11-06, 12:10:53
Tja - so sieht's momentan aus...
This is what will sell as Radeon HD 3850:

55nm RV670PRO GPU at 668 MHz (why not 666?)
256MB GDDR3 memory at 828 MHz DDR (1.66 GT(/s)
10.69 GPixel/s fillrate
52.99 GB/s memory bandwidth
320 Unified Stream Processors
24x Custom Filter Anti-Aliasing support
ATI Avivo HD
ATI PowerPlay power saving technology
Game Physics processing capability (this belongs to fairy tale land, but you know – marketing...)
HDMI support

As far as higher performing part, the 3870 is considered, specs are following:

55nm RV670XT GPU clocked to 775 MHz
512MB GDDR4 memory clocked at 1.2 GHz DDR (2.4 GT/s)
12.40 GPixel/s fill-rate
76.80 GB/s memory bandwidth
320 Unified Stream Processors
24x Custom Filter Anti-Aliasing support
55nm process
ATI Avivo HD
ATI PowerPlay power saving technology
Game Physics processing capability
HDMI support

http://www.theinquirer.net/gb/inquirer/news/2007/11/05/amd-hd3800-pricing-shock

BTW...
Ati sollte den nächsten großen Wurf Odysseus nennen, nach diesem Sisyphos-Projekt:
Wen's interessiert, warum:
http://www.physiologus.de/sisyph.htm

AnarchX
2007-11-06, 12:25:18
Mit den Taktraten scheinen wohl auch die TDPs gesunken zu sein:

HD3870 -> 105W
HD3850 -> 95W

Zudem gibt es auch eine Einschätzung zur Leistung:

HD3870 110%
HD2900XT 100%
HD3850 87%

http://translate.google.com/translate?u=http%3A%2F%2Fchiphell.com%2Fviewthread.php%3Ftid%3D11822%26extra%3Dp age%253D1&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Ailuros
2007-11-06, 12:28:50
BTW...
Ati sollte den nächsten großen Wurf Odysseus nennen, nach diesem Sisyphos-Projekt:
Wen's interessiert, warum:
http://www.physiologus.de/sisyph.htm

Bleibt abzusehen wie lange die arme Penelope dann wohl warten muss ;D

up¦²
2007-11-06, 12:49:32
Bleibt abzusehen wie lange die arme Penelope dann wohl warten muss ;D
LOL
aber mal sehn, wie sich die 320 Spartaner schlagen! :smile:

Gast
2007-11-06, 12:56:32
Mit den Taktraten scheinen wohl auch die TDPs gesunken zu sein:

HD3870 -> 105W
HD3850 -> 95W


Logisch, dass mit dem Takt auch die Leistungsaufnahme sinkt. 105W TDP sind jedenfalls für einen Dual-Slot Kühler sehr wenig und lassen auf einen sehr leisen betrieb hoffen.


Zudem gibt es auch eine Einschätzung zu Leistung:
2900XT 100%
HD3870 110%
HD3850 87%

http://translate.google.com/translate?u=http%3A%2F%2Fchiphell.com%2Fviewthread.php%3Ftid%3D11822%26extra%3Dp age%253D1&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

10% mehr Leistung als eine 2900XT sollten zumindest reichen, um mit einer 8800GT annähernd gleichzuziehen.

reunion

Gast
2007-11-06, 12:58:21
10% mehr Leistung als eine 2900XT sollten zumindest reichen, um mit einer 8800GT annähernd gleichzuziehen.

reunion
Was auf einen starken Preiskampf hoffen lässt. Nur gut für uns Endkunden :up:

Ailuros
2007-11-06, 13:08:00
LOL
aber mal sehn, wie sich die 320 Spartaner schlagen! :smile:

Ω ξείν', αγγέλλειν Λακεδαιμονίοις, ότι τήδε κείμεθα τοίς κείνων ρήμασι πειθόμενοι.

Fremder, teil den Lakedaimonen (Spartanern) mit, dass wir hier liegen stets treu zu ihren Gesetzen....

Ob 320 besser verrecken als 300? LOL

Ailuros
2007-11-06, 13:10:30
10% mehr Leistung als eine 2900XT sollten zumindest reichen, um mit einer 8800GT annähernd gleichzuziehen.

reunion

Ich wuerde zuerst fragen mit was das Ding schneller sein sollte als eine R600.

Hvoralek
2007-11-06, 13:28:11
Passiert doch bei heutigen AF Algorithmen; was genau verpasse ich hier? Algorithmus analysiert Texturen und wendet je nach Bedarf dieser zwischen 1x und 16xAF an.Hängt der applizierte AF- Grad nicht vom Winkel ab, in dem die Textur liegt? Mir ist zumindest nicht aufgefallen, dass bei geringen fps plötzlich der maximale AF- Grad reduziert worden wäre. Plötzlich unscharf werdende Texturen wären aber wohl auch unschöner als leichte Ruckler :ugly:

Da beißt sich die Maus in den Schwanz:

Wie soll ein Algorithmus greifen, der auf sich selbst beruht?Inwiefern beruht der auf sich selbst? Bei normalem MSAA werden für jeden Pixel mehrere Geometriesamples genommen. Bei EDCFAA werden darüber hinaus Polygonkanten ermittelt (wohl per Shader) und dann geblurrt. Wieso sollte man nicht - nach Umbauten an den ROPs natürlich - MSAA überhaupt nur an Polygonkanten anwenden können?

seahawk
2007-11-06, 13:40:26
Yo, scheint zu stimmen. Und laut Kung Fudo soll diese sogar schneller als eine Ultra sein (falls die Treiber ok sind)

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4043&Itemid=1


Akso wenn 2 RV670 nicht eine 8800 Ultra schlagen könnnten (in üblichen Benchmarks wo CF funktioniert), dann sollte AMD den ATI-Laden ernsthaft dicht machen.

Ich wuerde zuerst fragen mit was das Ding schneller sein sollte als eine R600.

Du meinst unter welchen Bedingungen. :D

K4mPFwUr$t
2007-11-06, 13:56:25
@seahawk
wieso dicht machen?
es ist einfach übertrieben, bei der Geforce FX serie sah es auch nicht gerade rosig aus für nVidia.
da war die 9600/9700/9800 einfach zu schnell und zu gut in der BQ.

zeiten ändern sich halt, zumal der markt nicht nur aus high end besteht sondern auch low-end und mainstream.

zumal ja AMD ATI nur aufgekauft hatte um eine komplette eigene plattform anbieten zu können, wie es intel tut. den da legen viele buesnis leute viel wert drauf.

Gast
2007-11-06, 14:21:50
zumal ja AMD ATI nur aufgekauft hatte um eine komplette eigene plattform anbieten zu können, wie es intel tut. den da legen viele buesnis leute viel wert drauf.


Und genau das ist ein eindeutiges Zeichen dafür, dass man in Zukunft keine Highend Grafiklösungen mehr anbieten wird. Tut Intel ja auch nicht.

SavageX
2007-11-06, 14:29:28
Und genau das ist ein eindeutiges Zeichen dafür, dass man in Zukunft keine Highend Grafiklösungen mehr anbieten wird. Tut Intel ja auch nicht.

Nicht alles, was hinkt, ist ein Vergleich.

Zumal Intel ja bemüht ist, das Leistungsangebot der eigenen 3D-Lösungen zu verbessern. Es sind ja zum ersten Mal seit vielen Jahren wieder dezidierte Intel-Grafikchips angekündigt.

up¦²
2007-11-06, 14:40:18
Und genau das ist ein eindeutiges Zeichen dafür, dass man in Zukunft keine Highend Grafiklösungen mehr anbieten wird. Tut Intel ja auch nicht.

Vielleicht überschätzen wir den Impact der High-End GPU's :wink:
Gut für die Tribune, aber viel Geld wird scheinbar nicht damit verdient.
AMD versucht doch nun - notgezwungen - neue 3d-PC-Titel wieder massenfähig zu machen!
Sonst können die Gamer gleich eine Konsole kaufen - was die meisten sowieso schon längst machen...
Die PC-Zukunft im 3d geht über die Massenschiene, und nicht über exklusive Preisraketen (allzu oft nur teure Laden-Dekoration... unverkäuflich :|)
Am Ort verkauft kaum einer eine 2900XT oder 8800GTX :biggrin: marginale "Marktpenetration"
Deswegen reißt AMD das Ruder rum: redliche Massenware zu bezahlbaren Preisen: man könnte es "Subtopper" nennen, die grad so reichen

Gast
2007-11-06, 14:51:54
Vielleicht überschätzen wir den Impact der High-End GPU's :wink:
Gut für die Tribune, aber viel Geld wird scheinbar nicht damit verdient.
AMD versucht doch nun - notgezwungen - neue 3d-PC-Titel wieder massenfähig zu machen!
Sonst können die Gamer gleich eine Konsole kaufen - was die meisten sowieso schon längst machen...
Die PC-Zukunft im 3d geht über die Massenschiene, und nicht über exklusive Preisraketen (allzu oft nur teure Laden-Dekoration... unverkäuflich :|)
Am Ort verkauft kaum einer eine 2900XT oder 8800GTX :biggrin: margiale "Marktpenetration"
Deswegen reißt AMD das Ruder rum: redliche Massenware zu bezahlbaren Preisen: man könnte es "Subtopper" nennen, die grad so reichen

Genauso sehe ich das auch! Kein Wunder, das sich so viele PC-Spieler Konsolen zugewendet haben, nachdem versucht wurde, SLI Massenmarkt-tauglich zu machen. Mainstreamkarten braucht das Land (bis max. 250€), darüber hinaus interessiert es nur eine kleine, fast schon unbedeutende Klientel. Meinetwegen soll sich AMD/ATI nur noch auf den unteren, bis mittleren Preisbereich konzentrieren. Preise über 300€ spielen nur den Konsolen in die Hand.

Gast
2007-11-06, 14:53:48
Genauso sehe ich das auch! Kein Wunder, das sich so viele PC-Spieler Konsolen zugewendet haben, nachdem versucht wurde, SLI Massenmarkt-tauglich zu machen. Mainstreamkarten braucht das Land (bis max. 250€), darüber hinaus interessiert es nur eine kleine, fast schon unbedeutende Klientel. Meinetwegen soll sich AMD/ATI nur noch auf den unteren, bis mittleren Preisbereich konzentrieren. Preise über 300€ spielen nur den Konsolen in die Hand.

Man muss sich das mal reinziehen: Eine Playstation 3 gibt es schon ab 399€, und Nvidia verlangt für ne einzelne Grafikkarte (Ultra) knapp 600 :-(

Gast
2007-11-06, 15:02:51
[...]The R680 is the only part planned for next year (January), but we would not be surprised if it appears as a Yuletide present to the hardware community.

The HD 3850 will exist primarily as a 256MB part, while the 3870 will bring 512MB to the table. Some 3850 parts may come with 512MB and some 3870 parts with 1GB of memory -for 20 and 50 USD/EUR above current asking price.

Pricing for both launch parts is very aggressive, and AMD claims it is all due to 55nm process working like a clockwork and achieving excellent yields. Radeon HD 3850 should retail for between $149 to 179 (USD), while 3870 should be between 200 to 230. This is brilliant pricing, going way below 8800GT.

The real truth is that AMD started running into clocking walls (with a selected heatsink-fan combo) and again decided to crash the prices instead of gunning for a better cooling setup that will enable those 800 MHz+ clocks we saw earlier in development.

AMD is touting DirectX 10.1, UVD and PowerPlay checkbox features as key features for selling the RV670 chips.[...]

http://www.theinquirer.net/gb/inquirer/news/2007/11/05/amd-hd3800-pricing-shock

Gast
2007-11-06, 15:26:29
[...]Whoever is on Nvidia's or Intel's payrole inside AMD, we have to congratulate that person on a job well done.[...]

:D :D

MadManniMan
2007-11-06, 15:47:25
Inwiefern beruht der auf sich selbst? Bei normalem MSAA werden für jeden Pixel mehrere Geometriesamples genommen. Bei EDCFAA werden darüber hinaus Polygonkanten ermittelt (wohl per Shader) und dann geblurrt. Wieso sollte man nicht - nach Umbauten an den ROPs natürlich - MSAA überhaupt nur an Polygonkanten anwenden können?

Wenn es eine günstigere Variante gäbe, Polygonkanten zu erkennen um diese dann zu AAen, als MSAA, warum sollte die nicht schon lang jemand verwenden? ;)

Gast
2007-11-06, 15:54:40
Aber die dürfte sich nicht deutlich vom Hauptkonkurrenz der 8800GT absetzen oder? viel mher als 500GFlops sind sicher nicht drinn.

Nicht mal ohne AA und AF steht die 2900XT gut da im Verhältniss.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis

Toller Vergleich mit dem 7.9 CCC, sagt nichts aus. Ich hab die XT OC mit der GT verglichen und bei 1920 Res. war die GT 1FPS langsamer unter XP.

Zitat

"Aufgrund eines Bugs im Catalyst 7.10 konnten wir in Crysis leider weder die Auflösung 1280x1024 noch 1600x1200 einstellen. Deswegen haben wir diese beiden Auflösungen mit dem Catalyst 7.9 getestet."

PCGH_Carsten
2007-11-06, 15:57:07
Man muss sich das mal reinziehen: Eine Playstation 3 gibt es schon ab 399€, und Nvidia verlangt für ne einzelne Grafikkarte (Ultra) knapp 600 :-(
Einzelne Grafikkarten gibt es bis hinunter zu ~30-40 Euro. Playstations auch?

Darüber hinaus ist allgemein bekannt (also vermutlich falsch...*g*), dass Sony deftig draufzahlt bei seinen PS3-Verkäufen und sich die Gewinne über Zubehör, Lizenzen und Spiele reinholt. Das funktioniert bei Grafikkarte nicht so gut.

PCGH_Carsten
2007-11-06, 15:59:20
Inwiefern beruht der auf sich selbst? Bei normalem MSAA werden für jeden Pixel mehrere Geometriesamples genommen. Bei EDCFAA werden darüber hinaus Polygonkanten ermittelt (wohl per Shader) und dann geblurrt. Wieso sollte man nicht - nach Umbauten an den ROPs natürlich - MSAA überhaupt nur an Polygonkanten anwenden können?
Verwechselst du gerade Polygon- und Objekt-Kanten?

MSAA wird natürlich nur auf Polygonkanten angewandt; immer schon. Das, was für jeden Pixel mehrere Samples nutzt, ist Supersampling.

Gast
2007-11-06, 16:10:58
Einzelne Grafikkarten gibt es bis hinunter zu ~30-40 Euro. Playstations auch?

Darüber hinaus ist allgemein bekannt (also vermutlich falsch...*g*), dass Sony deftig draufzahlt bei seinen PS3-Verkäufen und sich die Gewinne über Zubehör, Lizenzen und Spiele reinholt. Das funktioniert bei Grafikkarte nicht so gut.

Das ist mir schon klar, allerdings müssen die Grafikkartenpreise immer irgendwie in Relation zu den Konsolen sein, sonst verabschieden sich noch mehr PC-Spieler Richtung Konsole, und die paar Enhusiasten werden wohl kaum einen Hardware- oder auch PC-Spiele-Markt am Leben erhalten können. Der Mainstream sollte bestimmen wo's langeht, alles andere ist mittelfristig wirtschaftlicher Selbstmord.

Gast
2007-11-06, 16:19:37
Noch was zu SLI und Co. Mittlerweile kann ja niemand mehr abstreiten, das viele Spieleentwickler schlampig programmieren/optimieren, wie es die aktuelle Hardware zulässt. Hätte sich also SLI und Co. durchgesetzt, würden die Spiele nicht besser darauf laufen, sondern würden einfach noch schlechter programmiert sein als sonst, damit sie überhaupt darauf laufen. Ich hab das Gefühl, es wird nur solange optimiert, wie es nötig ist, damit aktuelle Hardware vernünftig damit läuft.
Ergo: SLI und Co hätte letztendlich nur eine Verdoppelung der Preise bedeutet, statt einen reellen Gewinn an Leistung (vorausgesetzt SLI hätte den Durchbruch geschafft).
Ich kenne viele Ex-Pc-Spieler, die gerade wegen dem SLI-Hype dem PC als Spielegerät den Rücken gekehrt haben.

[MK2]Mythos
2007-11-06, 16:22:37
Die Story, dass Konsolen den PC als Spieleplattform verdrängen, gibts schon seit Ewigkeiten und wird im Laufe der Jahre nicht richtiger, ganz im Gegenteil. Konsolen werden immer teurer und dem PC ähnlicher. Davon abgesehen sind Konsolen Spiele fast doppelt so teuer wie PC Spiele.

Gast
2007-11-06, 16:22:50
Toller Vergleich mit dem 7.9 CCC, sagt nichts aus. Ich hab die XT OC mit der GT verglichen und bei 1920 Res. war die GT 1FPS langsamer unter XP.

Zitat

"Aufgrund eines Bugs im Catalyst 7.10 konnten wir in Crysis leider weder die Auflösung 1280x1024 noch 1600x1200 einstellen. Deswegen haben wir diese beiden Auflösungen mit dem Catalyst 7.9 getestet."

Wenn man noch das hier liest http://www.hardtecs4u.de/news/750
ist die Leistung der GT in Crysis garnich so überragend.

Gast
2007-11-06, 16:26:50
Mythos;6002516']Die Story, dass Konsolen den PC als Spieleplattform verdrängen, gibts schon seit Ewigkeiten und wird im Laufe der Jahre nicht richter, ganz im Gegenteil. Konsolen werden immer teurer und dem PC ähnlicher. Davon abgesehen sind Konsolen Spiele fast doppelt so teuer wie PC Spiele.

Das ist es ja, sie werden dem PC immer ähnlicher, bieten aber im Gegensatz zum PC eine einheitliche Plattform, Spiele lassen sich also sehr viel leichter auf diese "nur" eine Plattform optimieren, vom Preis ganz zu schweigen. Hätte die aktuelle Konsolengeneration es gewagt, Festplatten und einen Maus/Tastaturersatz vernünftig einzusetzen, würden noch viel mehr abwandern.
Die PC-Hardwareindustrie muss mit vernünftigen Preisen kontern, spätestens bei der nächsten Konsolengeneration könnte es sonst zu spät sein.

HOT
2007-11-06, 16:28:46
Noch was zu SLI und Co. Mittlerweile kann ja niemand mehr abstreiten, das viele Spieleentwickler schlampig programmieren/optimieren, wie es die aktuelle Hardware zulässt. Hätte sich also SLI und Co. durchgesetzt, würden die Spiele nicht besser darauf laufen, sondern würden einfach noch schlechter programmiert sein als sonst, damit sie überhaupt darauf laufen. Ich hab das Gefühl, es wird nur solange optimiert, wie es nötig ist, damit aktuelle Hardware vernünftig damit läuft.
Ergo: SLI und Co hätte letztendlich nur eine Verdoppelung der Preise bedeutet, statt einen reellen Gewinn an Leistung (vorausgesetzt SLI hätte den Durchbruch geschafft).
Ich kenne viele Ex-Pc-Spieler, die gerade wegen dem SLI-Hype dem PC als Spielegerät den Rücken gekehrt haben.
Was hat SLI mit der Programmierung des Games zu tun? Seit wann sind Games schlampig programmiert? Hast du dafür Belege? Du setzt da Sachen voraus die kompletter Unsinn sind. Der letzte Satz ist noch schwachsinniger, da SLI bei der Spieleentwicklung keine Rolle spielt und, wenn überhaupt, nur also Zusatzoption in Betracht gezogen wird. 99% des Marktes nutzt kein SLI und darauf müssen die Games grösstenteils laufen (tun sie auch). Crysis usw. sind Ausnahmen, da Crysis gleichzeitig Demo für die Cry-2 Engine sein muss, gleiches gilt für UT03. Ich bezweifle ernsthaft, dass jemand wegen SLI die Plattform wechselt.

Das ist es ja, sie werden dem PC immer ähnlicher, bieten aber im Gegensatz zum PC eine einheitliche Plattform, Spiele lassen sich also sehr viel leichter auf diese "nur" eine Plattform optimieren, vom Preis ganz zu schweigen. Hätte die aktuelle Konsolengeneration es gewagt, Festplatten und einen Maus/Tastaturersatz vernünftig einzusetzen, würden noch viel mehr abwandern.
Die PC-Hardwareindustrie muss mit vernünftigen Preisen kontern, spätestens bei der nächsten Konsolengeneration könnte es sonst zu spät sein.

Jetzt wirds noch blödsinniger. Der PC ist genau eine Plattform, da muss nix grossartig optimiert werden. Es muss beim PC weniger auf RAM Bedarf geachtet werden, und beide IHVs müssen beachtet werden, das wars dann aber auch schon. Für eine Konsole programmieren ist schwieriger, da man hier optimieren muss, was bei Konsolengames ziemlich schmerzhaft werden kann. Man muss auf den RAM der Konsole achten, was aber nichts mit höherer Effizienz zu tun hat. Hier wird dann eben der Rotstift angesetzt, z.B. die Spielwelt partitioniert, Details weggelassen, Texturen verkleinert usw. Der PC hat diese Limitierung einfach nicht und ist "gutmütiger" in Sachen Ressourcen. Die Konsolen werden immer von der PC Technik abhängen und den PC niemals überholen können, da die IHVs ihre Erfahrungen mit PC Chips machen und diese auf die Konsolen übertragen und nicht umgekehrt. Konsolen hinken technisch immer hinterher, alles andere ist Wunschdenken.

Gast
2007-11-06, 16:30:24
Was hat SLI mit der Programmierung des Games zu tun? Seit wann sind Games schlampig programmiert? Hast du dafür Belege? Du setzt da Sachen voraus die kompletter Unsinn sind. Der letzte Satz ist noch schwachsinniger, da SLI bei der Spieleentwicklung keine Rolle spielt und nur also Zusatzoption in Betracht gezogen wird.

colin McRae Dirt.

Gast
2007-11-06, 16:34:11
Was hat SLI mit der Programmierung des Games zu tun? Seit wann sind Games schlampig programmiert? Hast du dafür Belege? Du setzt da Sachen voraus die kompletter Unsinn sind. Der letzte Satz ist noch schwachsinniger, da SLI bei der Spieleentwicklung keine Rolle spielt und, wenn überhaupt, nur also Zusatzoption in Betracht gezogen wird. 99% des Marktes nutzt kein SLI und darauf müssen die Games grösstenteils laufen (tun sie auch). Crysis usw. sind Ausnahmen, da Crysis gleichzeitig Demo für die Cry-2 Engine sein muss, gleiches gilt für UT03. Ich bezweifle ernsthaft, dass jemand wegen SLI die Plattform wechselt - das war wohl eher Wunschdenken.

Ich kenne einige PC-Spieler, die über SLI und Co. müde lächeln und sich klammheimlich wünschen, das diese Technologie endlich stirbt.

HOT
2007-11-06, 16:41:31
colin McRae Dirt.
Scheiss Beispiel. Es gibt wohl kein Spiel, was so schlecht performt - Ausnahmen bestätigen die Regel. Normalerweise reicht ein 2GHz X2 um mit allem klarzukommen, was sich sonst noch so auf dem Markt tummelt. Einige XBox360 Umsetzungen sind hier noch zu erwähnen, welche ziemlich bescheiden auf dem PC performane, Lost Planet z.B.

HOT
2007-11-06, 16:43:06
Ich kenne einige PC-Spieler, die über SLI und Co. müde lächeln und sich klammheimlich wünschen, das diese Technologie endlich stirbt.
Das mag ja sein, ist aber total unverständlich. Ich bin kein Fan von SLI, aber es ist ganz sicher kein Nachteil für den Kunden, dass es die Option gibt. Wie gesagt, SLI hat sowieso keinen Einfluss auf die Spieleentwicklung, dazu ist es zu wenig verbreitet. Es wird SLI Kompatibilität sichergestellt (wenn überhaupt), das wars dann aber auch. Crysis wäre genau so wie es ist, selbst wenn es SLI nicht geben würde.

Gast
2007-11-06, 17:23:07
Crysis wäre genau so wie es ist, selbst wenn es SLI nicht geben würde.


Yep, zumal es hervorragend skalierbar ist, ich spiel die Demo grad auf einer 6600GT, 1024x768, low (muss noch austesten, was ich alles auf medium stellen kann damit es spielbar bleibt).

robbitop
2007-11-06, 17:35:56
Hängt der applizierte AF- Grad nicht vom Winkel ab, in dem die Textur liegt?
Nein, die Anzahl der verrechneten Samples pro Texel hängt von der Verzerrung des Texels ab. Die Anzahl der Samples werden über die Line of Anisotropy berechnet, welches eine Art Diagonale durch das verzerrte Texel darstellt.

-/\-CruNcher-/\-
2007-11-06, 18:47:30
:D :D
[...]Whoever is on Nvidia's or Intel's payrole inside AMD, we have to congratulate that person on a job well done.[...]

http://www.rivastation.com/lara.jpg

got ya folks (kleiner scherz nicht ernst nehmen) ;)

why because that's what Nvidia had to offer
http://www.rivastation.com/borstiinheaven.jpg

Hvoralek
2007-11-06, 19:22:39
MSAA wird natürlich nur auf Polygonkanten angewandt; immer schon. Das, was für jeden Pixel mehrere Samples nutzt, ist Supersampling.Okay. Was war dann das Besondere an FAA? :confused:

Ich bezweifle ernsthaft, dass jemand wegen SLI die Plattform wechselt.Es gibt die Möglichkeit, alle paar Monate 2x500€ für neue Grafikkarten auszugeben und solche Konstruktionen tauchen auch in Benchmarks immer wieder auf. Bei manchen Leuten mag das einen psychischen Druck auslösen. Ein Gefühl, selbst so ein Geschoss zu brauchen, um richtig dazuzugehören, ebenbürtig zu sein. Das bekommt man bei Konsolen eben mit 500€ Anfangsinvestition alle 5 fünf Jahre.

Nein, die Anzahl der verrechneten Samples pro Texel hängt von der Verzerrung des Texels ab. Die Anzahl der Samples werden über die Line of Anisotropy berechnet, welches eine Art Diagonale durch das verzerrte Texel darstellt.Dann von der Verzerrung des Texels (Hängt die nicht von dem Winkel ab, in der das Polygon zum Betrachter steht?), jedenfalls hängt der AF- Grad nicht von der Framerate ab.

Gast
2007-11-06, 19:31:24
Okay. Was war dann das Besondere an FAA? :confused:
... dass es Dreiecksschnittkanten nicht berücksichtigte, IIRC.

robbitop
2007-11-06, 19:39:08
Dann von der Verzerrung des Texels (Hängt die nicht von dem Winkel ab, in der das Polygon zum Betrachter steht?), jedenfalls hängt der AF- Grad nicht von der Framerate ab.
Ja und z.B. noch von der Entfernung.

FAA erzeugt tatsächlich nur auf Pixeln, die Polygonkanten enthalten, mehrere Samples an Z und Farbe die in den Framebuffer kommen. Auf andere Pixel nicht. Ich vermute, dass die Samples, die dann tatsächlich auf Polyedges anfallen vor dem eigentichen Framebufferzugriff verrechnet werden. Ob das stimmt, weiß ich jedoch nicht.
Wegen der wenigen Anzahl an Pixeln, die Subsamples enthielten, brauchte man damals im Parhelia also keine Farbkompression.

MSAA hingegen berücksichtigt zwar das ganze Bild (also hat pro Pixel auch jeweils n Samples die es in den Framebuffer schreiben muss) schreibt aber nur dann unterschiedliche Z und Farbwerte in den Z-Buffer sofern eine Polygonkante im betrachteten Pixel abgetastet wird.
Die Farb und Z-kompression fängt das allerdings sehr gut ab, da sich n gleiche Samples pro Pixel sehr gut komprimieren lassen.
Auf diese Eigenart von MSAA reagiert die edge Detection von ATI. Diese prüft, ob der betrachtete Pixel gleiche Z und Farbwerte im Framebuffer hat oder unterschiedliche. Wenn letzteres der Fall ist, "weiß" er also, dass CFAA angewendet wird (Polyedge).

Hvoralek
2007-11-06, 20:45:44
Auf diese Eigenart von MSAA reagiert die edge Detection von ATI. Diese prüft, ob der betrachtete Pixel gleiche Z und Farbwerte im Framebuffer hat oder unterschiedliche. Wenn letzteres der Fall ist, "weiß" er also, dass CFAA angewendet wird (Polyedge).Ach so. Dann hatte MadManniMan (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6001000#post6001000) vorhin doch recht.

robbitop
2007-11-06, 21:22:03
Ach so. Dann hatte MadManniMan (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6001000#post6001000) vorhin doch recht.
MMM liest halt 3DC-Artikel ... und das ist gut so. ^^

Gast
2007-11-06, 21:24:45
das es noch immer keine Reviews gibt! ich will endlich Reviews!

Sk_Antilles
2007-11-06, 21:27:28
das es noch immer keine Reviews gibt! ich will endlich Reviews!

Reviews (Nachbetrachtungen) kann es nur von Sachen geben die schon erschienen sind....:wink:

MadManniMan
2007-11-06, 21:37:37
MMM liest halt 3DC-Artikel ... und das ist gut so. ^^

Danke für die Blumenwiese :D

Aber eigentlich heißt es ja "MMM ist gut. Und halt, er liest 3DC-Artikel" :|


Schön, daß wir uns verstehen :up:

Juerg
2007-11-06, 22:01:15
Yep, zumal es hervorragend skalierbar ist, ich spiel die Demo grad auf einer 6600GT, 1024x768, low (muss noch austesten, was ich alles auf medium stellen kann damit es spielbar bleibt).:eek: Und welche CPU im Einsatz. Ich habe mal hier mit einer 6600GT getestet:

Ob man hier jetzt GPU oder CPU Benchmark Batch verwendet spielt keine entscheidenden Rolle...

AMD XP 2.1GHz, 6600GT, Vista x86

800x600, all time low
min: 3 fps
max: 28 fps
average 17 fps

dafür siehts aber extremst sch....e aus.



1280x1024, 4AA, all high
min: 0.0 fps ;D
max: 1.7 fps ;D:biggrin::rolleyes:
avg: 0.76 fps

Standbilder sehen zwar geil aus, die Anzeige kommt aber ungefähr 30 Sekunden nach dem Ton.


Alles in allem würde ich behaupten, dass ein durchschnittlich begabter Strassenmaler mit schwarzer Kreide die Bilder schneller auf A3 gemalt hätte als eine 6600 GT auf meinem Bildschirm.

Ailuros
2007-11-07, 05:41:33
Hängt der applizierte AF- Grad nicht vom Winkel ab, in dem die Textur liegt? Mir ist zumindest nicht aufgefallen, dass bei geringen fps plötzlich der maximale AF- Grad reduziert worden wäre. Plötzlich unscharf werdende Texturen wären aber wohl auch unschöner als leichte Ruckler :ugly:

Eben und somit ist AF adaptiv da wo es sein muss; wieso sollte man hier den maximalen AF Grad noch weiter reduzieren (und auch noch der Leistung anpassen igittigitt) wenn der Durchschnitt in heutigen Spielen nicht ueber 3x samples liegt? Man verliert wenig Leistung mit AF gerade weil es so flexibel ist. Nimm mal einen Fall den Du als radikal empfindest und vergleiche die 4x gegen 16xAF Leistung.

Inwiefern beruht der auf sich selbst? Bei normalem MSAA werden für jeden Pixel mehrere Geometriesamples genommen. Bei EDCFAA werden darüber hinaus Polygonkanten ermittelt (wohl per Shader) und dann geblurrt. Wieso sollte man nicht - nach Umbauten an den ROPs natürlich - MSAA überhaupt nur an Polygonkanten anwenden können?

Ich verstehe Dich jetzt nicht; MSAA behandelt so oder so nur polygon edge/intersections. Oder willst Du die letzteren weglassen? Glaub mir es sieht uebel aus ;)

Was wuenschenswert waere aber schwer zu realisieren auf heutiger HW, waere ein analytischer Algorithmus der Polygonkanten analysieren kann und bestimmt ob man fuer Kante A 1xAA (also kein AA), fuer Kante B 4xAA, fuer Kante C 16xCS usw. braucht und dies auch demenstprechend anwendet.

Heutzutage haben wir nur sture Algorithmen wo bei 4xMSAA eben 4x samples aufgezwongen werden fuer alles dass nicht durch culling verworfen wurde.

-/\-CruNcher-/\-
2007-11-07, 06:04:38
Also ich komm mit Demorias werten und den letzten veröffentlichten Daten immer bei Crysis auf das gleiche Ergebniss, die HD3780 wird im Benchmark jedenfals schneller (oder gleich schnell) sein wenn man bei den GT@stock werten die die 7%-10% für Nvidias HVS Optimierungen abrechnet :)
Wie es allerdings um das Objektive Spielempfinden (Min/Max Balance mit der HD3870) beschert ist ist momentan schwer zu sagen :D (und Demorias Werte sind eine Simulierte etwas bessere XT (800mhz) mit ner PRO mit niedrigerem Speichertakt als die HD3870 da scheint sich einiges hier und da auszugleichen)

HD3870: (GDDR4) 775/1200MHz , power 105 W 110%
HD2900XT: 740/825MHz, power 215 W 100%
HD3850: 670/828MHz, power 95 W 82%

im AVG sollten die Karten also identisch sein oder aber die HD3870 ist schneller als die Stock GT, eine andere Schlussfolgerung lässt es nicht zu :)

Naja ich bin gespannt ob es so kommt aber wenn das mit den 10% HVS Optimierung in Crysis bis dahin im Treiber nicht gefixed ist vergesst nicht die bei einigen Reviews dann zu berücksichtigen, ich hoffe ja mal die Reviewer werden so schlau sein nochmal die GT zu benchen und die Crysis.exe umbennen :D

Henroldus
2007-11-07, 07:17:52
HD3870: 775/2250MHz, power 105 W 110%
HD2900XT: 740/825MHz, power 215 W 100%
HD3850: 670/1660MHz, power 95 W 82%

nana, entweder geben wir die speicherwerte effektiv oder marketingwirksam an, aber bitte nicht gemischt :wink:

mirp
2007-11-07, 07:32:03
nana, entweder geben wir die speicherwerte effektiv oder marketingwirksam an, aber bitte nicht gemischt :wink:

Du meinst wohl "real". Der Effektivtakt ist der marketingwirksame.

-/\-CruNcher-/\-
2007-11-07, 07:33:04
nana, entweder geben wir die speicherwerte effektiv oder marketingwirksam an, aber bitte nicht gemischt :wink:

oops fixed :D

AnarchX
2007-11-07, 07:54:35
Gigabyte mit Zalman-Kühler:
http://img140.imageshack.us/img140/3935/gigabytegvrx295p51229a2bl2.th.jpg (http://img140.imageshack.us/my.php?image=gigabytegvrx295p51229a2bl2.jpg)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4060&Itemid=34

Für die meisten wohl definitiv vorzuziehen gegenüber der SL-Referenz-Kühlung der 3850.

seahawk
2007-11-07, 08:00:19
Vor allem sollte man auch die Busbreite angeben und dadurch hat eben die X2900 rund 50% mehr Bandbreite als X3870.

-/\-CruNcher-/\-
2007-11-07, 08:28:03
Die Busbreite scheint nicht sehr ausschlagebend zu sein genau wie bei der 8800 GT die Optimierungen scheinen da einiges aufzufangen sicherlich für Super Hohe Auflösungen und massig AA intressant aber wer spielt schon wirklich so Hohe Aufößungen mit Mega AA ? Das ist schon manchmal der reinste überwahn ich war mit meiner 7600 GS schon mit AA 2x zu frieden und ATI macht da sehr gute Fortschritte Edge Detected AA z.b im Prinzip nutzen sie hier das gleiche Prinzip was man auch im Signalprocessing fürs Motion Adaptive Deinterlacing nutzt das auf AA zu übertragen ist genial innovativ, habs allerdings noch nicht in Aktion gesehen, nur was man liest hört sich äusserst gut an. Funktioniert das im Catalyst 7.10 mit ner Radeon2900XT jetzt eigentlich 1A ? :D

Gast
2007-11-07, 09:06:05
Die Busbreite scheint nicht sehr ausschlagebend zu sein genau wie bei der 8800 GT die Optimierungen scheinen da einiges aufzufangen sicherlich für Super Hohe Auflösungen und massig AA intressant aber wer spielt schon wirklich so Hohe Aufößungen mit Mega AA ? Das ist schon manchmal der reinste überwahn ich war mit meiner 7600 GS schon mit AA 2x zu frieden und ATI macht da sehr gute Fortschritte Edge Detected AA z.b im Prinzip nutzen sie hier das gleiche Prinzip was man auch im Signalprocessing fürs Motion Adaptive Deinterlacing nutzt das auf AA zu übertragen ist genial innovativ, habs allerdings noch nicht in Aktion gesehen, nur was man liest hört sich äusserst gut an. Funktioniert das im Catalyst 7.10 mit ner Radeon2900XT jetzt eigentlich 1A ? :D

Ich auch, bei einer Auflösung von 1680 x 1050 brauch ich nicht mehr als 2AA und 8AF. Maximal 4AA, ist mir aber nicht wichtig.