PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 8


Seiten : 1 [2] 3 4

Gast
2007-04-22, 17:10:16
Glaubst du diese diese 200 Watt oder höher Geschichten, die im Umlauf waren?

Ja. Bis jetzt gibt es keine anderen Spekulationen.


Wenn AMD eine TDP von 200Watt angibt, wird der reelle Verbrauch weit drunter liegen. Die TDP-Angaben sind für die Hersteller der Komponenten nur Richtwerte.
Der reelle Verbrauch liegt weit drunter.


Das weißt du nicht. Nur weil es anscheinend bei nVidia so ist, muss dies auch nicht bei AMD sein.

Gast
2007-04-22, 17:13:17
Man munkelt nun zwischen 150-160 Watt unter Last, bei Idle soll man weit unter NV liegen. Dies wäre schon mal alles andere als schlecht.

Nakai
2007-04-22, 17:16:17
Ja. Bis jetzt gibt es keine anderen Spekulationen.



Das weißt du nicht. Nur weil es anscheinend bei nVidia so ist, muss dies auch nicht bei AMD sein.

Nein, es ist so, daran kannst du nichts ändern. ;D

Denkst du dass ATI die Realwerte den Herstellern von Kühlungsmethoden und Energieversorgung übergibt?
Nein, die Werte die ATI übergeben hat, waren stark übertriebene Werte sodass die speziellen Komponenten genug Pufferraum haben.

mfg Nakai

robbitop
2007-04-22, 17:22:22
G
Hoffentlich bekommt die PCGH ein Sonder-NDA und schreibt wenigstens einen Techartikel.

Und ich hoffe, dass sowas nie wieder passiert. Das ist eine Frechheit gegenueber anderen Magazinen. Worueber sollen die schreiben, wenn das beste schon bekannt ist. Wir und andere Magazine haben ggue NV darueber schon unseren Unmut geaeussert.

Gast
2007-04-22, 17:40:47
Nein, es ist so, daran kannst du nichts ändern. ;D

Nenn mir doch bitte die TDP Werte vom r580. Dann wissen wir ja, was man unter "weit darunter" verstehen kann.


Nein, die Werte die ATI übergeben hat, waren stark übertriebene Werte sodass die speziellen Komponenten genug Pufferraum haben.


Welche Karten, welche Kühler?
Bitte Beispiele, ansonsten geht dein Geschreibsel gleich in Dev\Null.

Nakai
2007-04-22, 17:44:55
Nenn mir doch bitte die TDP Werte vom r580. Dann wissen wir ja, was man unter "weit darunter" verstehen kann.

Ach komm, hast du jemals einen R580 mit einem anderen Kühler als den Standartkühler gesehen, außer HIS?


Welche Karten, welche Kühler?
Bitte Beispiele, ansonsten geht dein Geschreibsel gleich in Dev\Null.

Ich sprech von Netzteilen, Mainboards, Kühlungen wie von Zalman usw. Sie alle unterliegen gewissen Spezifikationen.

mfg Nakai

DerKleineCrisu
2007-04-22, 18:14:51
Man munkelt nun zwischen 150-160 Watt unter Last, bei Idle soll man weit unter NV liegen. Dies wäre schon mal alles andere als schlecht.

ich kann mich noch an zeiten erinnern da hat die ganze welt geschrien wie es
nvidia nur wagen kann ne graka herzustellen die 100 w verbraucht.

wie sieht es nun aus von einem " verbrauch " von 100 w im Highend bereich kann man nur träumen.

solange sich diese Stromfresser verkaufen wie warme würstchen im schlafrock wird sich daran nix ändern.

Gast
2007-04-22, 18:20:05
Ach komm, hast du jemals einen R580 mit einem anderen Kühler als den Standartkühler gesehen, außer HIS?


Welchen Bezug hat deine Antwort mit meiner Frage? Wenn du weißt, dass die "realen" Werte immer "weit unter" dem TDP lagen, dann kannst du auch den TDP Wert der X1900XTX sagen.

reunion
2007-04-22, 18:24:04
Ja. Bis jetzt gibt es keine anderen Spekulationen.


Vom RV630 gab und gibt es auch nichts anderes bis auf den 128W/93W/75W TDP Mist der XT/Pro/LE. Nur wenn ein RV630XT zumindest nicht mehr verbraucht wie eine 8600GTS, warum sollte dann ein R600 mehr verbrauchen wie eine 8800GTX? Wo noch dazu die Möglichkeit besteht, dass RV630 nicht so stark abgespeckt ist wie G84. Aber wie immer gilt: Time will tell.

Welchen Bezug hat deine Antwort mit meiner Frage? Wenn du weißt, dass die "realen" Werte immer "weit unter" dem TDP lagen, dann kannst du auch den TDP Wert der X1900XTX sagen.

Es gibt von ATi AFAIK nur für die mobilen Chips eine TDP-Angabe.

dargo
2007-04-22, 18:41:19
Nur wenn ein RV630XT zumindest nicht mehr verbraucht wie eine 8600GTS (eher weniger), warum sollte dann ein R600 mehr verbrauchen wie eine 8800GTX? Wo noch dazu die Möglichkeit besteht, dass RV630 nicht so stark abgespeckt ist wie G84.

Ganz einfach:
RV630 = 65nm
R600 = 80nm
G84 = 80nm
G80 = 90nm

Fetza
2007-04-22, 19:07:08
nV kann schließlich auch an der Preisschraube drehen, falls nötig und hat zusätzlich den Vram-Vorteil.

Und genau hier ist der r600 interessant, wenn nicht als hardware die man kauft, dann als preis dumper. Vorrausgesetzt es stimmt, das ati den kampf auch preislich aufnimmt (was sie wohl tun müssen, schließlich haben sie es vorher schonmal gesagt) Wird auch die gtx bald für knapp über 400 euro über den ladentisch gehen. Ich habe auf den r600 gewartet, weil ich erstmal keinen grund sah umzurüsten, und sich der chip ja 2-3 mal nach dem ersten verschieben, weiter verschob :) Mit dem jetztigen wissen, hätte ich mir mit sicherheit vor 2 monaten die 8800gts für 319 euro besorgt. Aber jetzt kann ich wirklich noch die paar tage warten^^

Und ich hoffe, dass sowas nie wieder passiert. Das ist eine Frechheit gegenueber anderen Magazinen. Worueber sollen die schreiben, wenn das beste schon bekannt ist. Wir und andere Magazine haben ggue NV darueber schon unseren Unmut geaeussert.

Stimmt. Für welches magazin schreibste denn?

reunion
2007-04-22, 19:17:15
Ganz einfach:
RV630 = 65nm
R600 = 80nm
G84 = 80nm
G80 = 90nm

Ob die Differenz in punkto Leistungsaufnahme von 80nm auf 65nm wirklich soviel gravierender ist wie von 90nm auf 80nm? Wo noch dazu RV630 im Gegensatz zu G80 vs. R600 eine wesentlich höhere Transistorenanzahl haben sollte als G84, und bei R600 ja schon von utopischen 270W gesprochen wird.

Gast
2007-04-22, 19:23:16
Wenn du es so betrachtest, bringt der 80nm Prozeß für den Stromverbrauch keinen Vorteil, da eine 7900GT im alten 90nm Verfahren mit ähnlicher Transistorenzahl und einem größeren DIE genauso viel verbraucht wie eine 8600GTS.
Es kommt also darauf an, wie hoch der Coretakt beim r600 sein wird und welche Spannung zur Erreichung benötigt wird.

Coda
2007-04-22, 20:06:16
Ob die Differenz in punkto Leistungsaufnahme von 80nm auf 65nm wirklich soviel gravierender ist wie von 90nm auf 80nm?
Da 65nm nicht nur ein lithografischer Shrink ist, sondern auch der Prozess an sich mit verbesserten Materialen erneuert wurde, ist schwer davon auszugehen.

dargo
2007-04-22, 20:47:12
Ob die Differenz in punkto Leistungsaufnahme von 80nm auf 65nm wirklich soviel gravierender ist wie von 90nm auf 80nm?
Oh ja, das ist sie. Zumindest wenn sich die damaligen max. 128W TDP des RV630 auf einen 80nm Fertigungsprozess bezogen haben. Wenn die HD 2600XT ohne externen Stromanschluss auskommt kann die Karte max. 75W TDP haben (eher weniger). Das sind höchstens ~60% Stromverbrauch im Vergleich zu 80nm.

Gast
2007-04-22, 20:50:18
Es gab keine HD 2600 Karten im 80nm Prozeß. Warum sollte man so etwas entwickeln und produzieren, wenn es nie verkauft wird?
Oder wollte AMD einfach nur soviel MInus wie möglich machen? Dann wäre es verständlich.
Bilder von Karten von der Cebit (PCGH und Computerbase) zeigen den 6 Pin Anschluss. Daher einfach abwarten, was in einem Monat präsentiert wird.

reunion
2007-04-22, 21:40:03
Oh ja, das ist sie. Zumindest wenn sich die damaligen max. 128W TDP des RV630 auf einen 80nm Fertigungsprozess bezogen haben. Wenn die HD 2600XT ohne externen Stromanschluss auskommt kann die Karte max. 75W TDP haben (eher weniger). Das sind höchstens ~60% Stromverbrauch im Vergleich zu 80nm.

Wie der Gast schon sagte macht das wohl kaum Sinn. Was nur einen Schluss zulässt, nämlich dass die 128W TDP BS sind, und schon immer BS waren. Möglicherweise gezielte Falschinformationen. Was den Schluss nahe legt, dass auch die bis zu 270W TDP für den R600 BS sein könnten.

san.salvador
2007-04-22, 21:42:35
Wie kommt man auch auf 270W? mit zwei Stromsteckern komm ich grad mal auf 225W.

Gast
2007-04-22, 21:54:02
Wie kommt man auch auf 270W? mit zwei Stromsteckern komm ich grad mal auf 225W.
Es befindet sich ein 6 Pin Stecker und ein 4 Pin Stecker auf der Karte. Der 6er muss nur voll genutzt werden, wenn overclocked werden soll. Also wird sich im Normalzustand die TDP maximal um die 200W bewegen. Verbrauch könnte dann in Games um die 180W liegen. Das würde mit normalen Kühlern gerade noch so gehen.

Gast
2007-04-22, 21:56:08
Wie kommt man auch auf 270W? mit zwei Stromsteckern komm ich grad mal auf 225W.

75W(PCIe) + 75W(6Pin) + 150W(8Pin) ;)

san.salvador
2007-04-22, 22:00:13
Den 8Pinling kenn ich noch garnicht. :D

Gast
2007-04-22, 23:51:46
Ich glaube Quasar/PCGH Carsten hat es hier oder in einem anderen Thread irgendwo schon mal gepostet das es eventuell sein könnte, das die PCB Version ohne Stecker das Standardmodell mit 256MB sein könnte und die PCB Version mit Stecker für 512MB und eventuell OC Karten von diversen Herstellern.

Kann natürlich auch sein, dass das Bild mit dem Anschluss einfach noch ein recht frühes Sample war und man damit sichergehen wollte.

deekey777
2007-04-23, 00:17:18
Es würde mich nicht wundern, wenn es von der HD2600XT Versionen mit und ohne zusätzliche Stromversorgung geben wird, denn es wäre nicht das erste Mal. Bei X800/GTO war das so, wenn ich mich nicht täusche.
Edit: Ein externer Stromanschluss gewährleistet in erster Linie stabile Stromversorgung der Grafikkarte. Bei meinem ASRock 939DUAL-VSTA wurde die PEG-Stromversorgung eingespart (normaler 20-Pin-Anschluss, obwohl 24 Pins vorgeschrieben sind).

Gast
2007-04-23, 01:11:31
http://www.hardwareschotte.de/hardware/preise/proid_8039259/preis_ATI+Radeon+HD+X2900XTX#price

deekey777
2007-04-23, 01:23:11
http://www.hardwareschotte.de/hardware/preise/proid_8039259/preis_ATI+Radeon+HD+X2900XTX#price
Da wurde schon im Sommer 2005 eine X900XT gelistet. :wink:

deekey777
2007-04-23, 13:18:00
http://seekingalpha.com/article/32901


Just a question on your R600 launch. Can you provide us more details in terms of timing, whether it will be a hard launch or a soft launch, how much product do you expect to have and in what categories? Would there be a performance product or a performance mainstream product?



We are going to announce those products in the second part of May. The location has been picked. It is a series of 10 products covering the entire stack with DX10 capabilities, leading edge performance and more importantly, a solution that works with [WECO] qualified drivers.
Passt wie aufs Auge: Techdays diese Woche, Vorstellung in der zweiten Mai-Hälfte, PCGH kriegt kein Sonder-NDA. :biggrin:

Godmode
2007-04-23, 13:26:35
http://seekingalpha.com/article/32901

Passt wie aufs Auge: Techdays diese Woche, Vorstellung in der zweiten Mai-Hälfte, PCGH kriegt kein Sonder-NDA. :biggrin:

Ob da wohl auch der Barcelona Kern vorgestellt wird? Wäre schon ne Schande den R600 auf nem K8 oder nem C2D zu Testen.

Anarchy-HWLUXX
2007-04-23, 13:30:32
Ob da wohl auch der Barcelona Kern vorgestellt wird? Wäre schon ne Schande den R600 auf nem K8 oder nem C2D zu Testen.

Also wenn dann wird es ein Agena FX ;)

bzw. ich rechne fest damit das es ein Agena FX wird denn sonst müssten se ein C2Q als untersatz nehmen was mal Marketingtechnisch net gerade gerngesehn ist bei AMD ... bei nem A64 X2 wär einfach die Performance im 3DQuark net gut genug - und darauf schaun eben die nixchecker als erstes/einziges.

deekey777
2007-04-23, 13:30:40
Es wäre sehr wünschenswert, wenn der K10 nicht unbedingt vorgestellt, aber mit diesem getestet wird.

up¦²
2007-04-23, 13:35:45
Futzi mal wieder:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=640&Itemid=34

Nakai
2007-04-23, 13:37:59
Nur das es diesmal stimmt.

Bei 800Mhz, wird er nicht ein halber R600, sondern wesentlich weniger.

mfg Nakai

deekey777
2007-04-23, 13:39:15
Futzi mal wieder:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=640&Itemid=34
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/radeon_hd_2600xt_128-bit-controller/
doch wird sich erst in einem Test zeigen, wie sich auch dort die 128-Bit-Anbindung auswirkt. Zu erwarten ist aber, wie bei den Konkurrenzmodellen, dass bei höheren Auflösungen und dem Einsatz von AA/AF die Leistung massiv einbricht.
Öhm, wer bei höheren Auflösungen mit AA und AF spielen will, sollte auch zur nächsthöheren Klasse greifen. Verkehrte Welt.

up¦²
2007-04-23, 13:50:23
Ich glaube nicht an einen ausschließlichen "128 bit memory controller" des 630.
Die gelekte 630-PCB (Radeon HD2600XT) sah auch recht "teuer" aus - vielleicht wieder 256/128er PCB (wie bei der 9700pro) um die Preise zu staffeln?

Nakai
2007-04-23, 13:57:28
Hat der R600 einen Ringbus? Das ist die wichtigste Frage, ebenso wieviele Speicherchips pro ROP dranhängen oder ob der Controller hier flexibeler geworden ist?

mfg Nakai

Godmode
2007-04-23, 14:25:42
Hat der R600 einen Ringbus? Das ist die wichtigste Frage, ebenso wieviele Speicherchips pro ROP dranhängen oder ob der Controller hier flexibeler geworden ist?

mfg Nakai

Warum ist der Ringbus interessant? War doch nur ein ein Marketing Aufmacher! IIRC wäre ne Crossbar besser, aber teurer als ein Ringbus.

Nakai
2007-04-23, 14:30:00
Mir geht es eigentlich eher darum, wie die Speicherchips zu den ROPs hängen. Beim G80 sind es 2 für 4 ROPs, wie siehts beim R600 aus?

mfg Nakai

DrumDub
2007-04-23, 14:30:53
Warum ist der Ringbus interessant? War doch nur ein ein Marketing Aufmacher! nein, denn er hat schon einen hardwaretechnischen sinn: Die Kanadier haben auch an anderen Stellen die Effizienz erhöht: Der Speicher-Controller des Radeon X1800 arbeitet mit acht statt vier Kanälen, was die Performance bei Zugriffen auf zufällig im Speicher verteilte Daten unter Umständen verdoppelt. Der Treiber kann den Controller zudem an das Anforderungsprofil verschiedener Applikationen anpassen. Innerhalb des Grafikchips leitet ein Ringbus die eintreffenden Daten zu ihrem Bestimmungsort. Dadurch verdichten sich die Datenleitungen nicht mehr am Speicher-Controller, was die Verlustwärme im Chip gleichmäßiger verteilt und höhere Taktfrequenzen ermöglicht. http://www.heise.de/ct/05/22/024/

Undertaker
2007-04-23, 14:57:39
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/radeon_hd_2600xt_128-bit-controller/

Öhm, wer bei höheren Auflösungen mit AA und AF spielen will, sollte auch zur nächsthöheren Klasse greifen. Verkehrte Welt.

kann sich aber nicht jeder leisten - habe einige kumpel, die sich im zuge der letzten preissenkungen nen 22" tft geholt haben, aber noch mit 9700-x800 zocken

san.salvador
2007-04-23, 15:00:21
kann sich aber nicht jeder leisten - habe einige kumpel, die sich im zuge der letzten preissenkungen nen 22" tft geholt haben, aber noch mit 9700-x800 zocken
Das ist nicht schlau. ^^

Botcruscher
2007-04-23, 15:07:59
Bei CS 1.6 ist das sowas von ...;)

Gast
2007-04-23, 15:08:10
kann sich aber nicht jeder leisten - habe einige kumpel, die sich im zuge der letzten preissenkungen nen 22" tft geholt haben, aber noch mit 9700-x800 zocken
Bei so einem Monitor kann aber mal 260€ Minimum für ne Graka locker machen. Dafür gibt's ne schöne 8800 GTS 320 MB. Die ist zwar auch handicapped durch den Vram aber immer noch besser als das, was nV und ATi gehobene Mainstreamklasse schimpft. Das sind ja absolute überteuerte Rohrkrepierer, die taugen maximal für nen 17'' CRT - CRT wegen den flexiblen Auflösungen.

up¦²
2007-04-23, 15:18:41
Bei so einem Monitor kann aber mal 260€ Minimum für ne Graka locker machen. Dafür gibt's ne schöne 8800 GTS 320 MB. Die ist zwar auch handicapped durch den Vram aber immer noch besser als das, was nV und ATi gehobene Mainstreamklasse schimpft. Das sind ja absolute überteuerte Rohrkrepierer, die taugen maximal für nen 17'' CRT - CRT wegen den flexiblen Auflösungen.
BTW...
8600GT ist doch moderat gepreist, oder?
ab €113,48 ist man stolzer Besitzer: hätte ich nicht so schnell erwartet! :wink:
http://geizhals.at/eu/?fs=8600GT&in=&x=25&y=10

und: ...maximaler Verbrauch: 43W!
http://geizhals.at/eu/a251003.html

hehe gähnende Leere:
http://www.xpertvision.eu/uploads/karten/1024x768/8600GT_pcie/PM8184B_F067_8600GT_256MBDDR3-03.jpg
http://www.xpertvision.eu/index.php?area=1&p=static&page=8600gt

reunion
2007-04-23, 15:33:57
Warum ist der Ringbus interessant? War doch nur ein ein Marketing Aufmacher! IIRC wäre ne Crossbar besser, aber teurer als ein Ringbus.

Natürlich, deshalb hat auch der Billigchip X1300 als einziger eine Crossbar, während alles >=X1600 auf einen Ringbus setzt. :rolleyes:

Coda
2007-04-23, 15:36:50
Das ist aber so. Eine Crossbar ist in jedem Fall die schnellste n:m-Verbindung.

ATi hat mit dem Ringbus Transistoren gespart und es dann als großes Feature verkauft.

reunion
2007-04-23, 15:39:32
Das ergibt aber keinen Sinn. Wenn ich mit etwas Transistoren sparen will, dann verzichte ich nicht ausgerechnet beim Low-End-Core, beim dem die Geschwindigkeit fast egal ist darauf, und verbaue es bei den Chips bei denen die Leistung relevant ist.

Gast
2007-04-23, 15:40:24
nein, denn er hat schon einen hardwaretechnischen sinn: http://www.heise.de/ct/05/22/024/


Klar doch, so etwas vom ct-Hardware-Guru Manfred B. und dann muss das ja mehr als Marketing sein. :rolleyes:

Coda
2007-04-23, 15:44:18
Das ergibt aber keinen Sinn.
Eine Crossbar ist in jedem Fall die schnellste Verbindung. Das kannst du in jeglicher Literatur nachlesen.

Es ist eine Konfigurierbare NxM-Matrix-Verbindung wo jede Leitung mit jeder anderen dynamisch verbunden werden kann und die Daten somit von jedem Punkt zum anderen in einem Takt gebracht werden können.

Das kann man akzeptieren oder auch nicht. ATi hat mit dem Ringbus Transistoren gespart. Wenn Controller A etwas von Memory-Partition C lesen will braucht das 2 Ringstops und somit auf jeden Fall mehr Takte als wenn man von der Crossbar ließt.

Das es beim Low-End nicht gemacht wurde ist ganz einfach damit zu erklären, weil es nur noch 2 memory partitions sind, was willst da noch mit nem Ring?

Andererseits wurde damit natürlich wohl möglich, dass man 8 statt 4 memory partitions haben kann. Da wäre eine Crossbar natürlich ziemlich fett geworden. Aber dennoch ist ein Ringbus nichts was man hypen muss. Bei Cell das gleiche. Eine Crossbar zwischen den 8 SPUs und der PPE wäre definitiv schneller als der Ring. Dann wäre das Ding aber wohl um einiges breiter ;)

Ach und in die Write-Richtung ist es übrigens immer noch eine Crossbar. Nur die Reads gehen über den Ringus - weil da Latenzen wohl eh ziemlich egal sind.

Godmode
2007-04-23, 15:44:43
Das ergibt aber keinen Sinn. Wenn ich mit etwas Transistoren sparen will, dann verzichte ich nicht ausgerechnet beim Low-End-Core, beim dem die Geschwindigkeit fast egal ist darauf, und verbaue es bei den Chips bei denen die Leistung relevant ist.

Was weis ich, vielleicht gibts dort weniger Kanäle und dann wird die Crossbar wieder billiger? Ich habe nicht die notwendigen Detailinformationen!

edit: Coda war schneller!

reunion
2007-04-23, 15:51:45
Eine Crossbar ist in jedem Fall die schnellste Verbindung. Das kannst du in jeglicher Literatur nachlesen.

Es ist eine Konfigurierbare NxM-Matrix-Verbindung wo jede Leitung mit jeder anderen dynamisch verbunden werden kann und die Daten somit von jedem Punkt zum anderen in einem Takt gebracht werden können.

Das kann man akzeptieren oder auch nicht. ATi hat mit dem Ringbus Transistoren gespart. Wenn Controller A etwas von Memory-Partition C lesen will braucht das 2 Ringstops und somit auf jeden Fall mehr Takte als wenn man von der Crossbar ließt.


Deshalb muss ein Ringbus auf jeden Fall kontraproduktiv sein? Vielleicht stimmt die Begründung von DrumDub und der Ringbus erlaubt höhere Taktraten, etc.


Das es beim Low-End nicht gemacht wurde ist ganz einfach damit zu erklären, weil es nur noch 2 memory partitions sind, was willst da noch mit nem Ring?

Eine X1300 hat vier 32-bit Kanäle, genau wie eine X1600, welche sehrwohl einen Ringbus hat. Auch ist der Transistorenunterschied zwischen einer X1300 und einer X1600 ziemlich groß, wenn man sich ansieht, dass dort nur die dreifache ALU-Anzahl plus der Ringbus zusätzlich verbaut ist, welche ja angeblich sogar Transistoren sparen soll.

IMHO machst du es dir mit dieser Begründung etwas einfach. ATi hat das Teil sicher nicht aus Langeweile eingebaut, und die Transistorenspar-Theorie hinkt hinten und vorne.

Coda
2007-04-23, 15:53:37
Ich führ solche Diskussionen nicht mehr mit dir wenn's um dein heiliges Spielzeug geht.

san.salvador
2007-04-23, 15:54:23
Bei so einem Monitor kann aber mal 260€ Minimum für ne Graka locker machen. Dafür gibt's ne schöne 8800 GTS 320 MB. Die ist zwar auch handicapped durch den Vram aber immer noch besser als das, was nV und ATi gehobene Mainstreamklasse schimpft. Das sind ja absolute überteuerte Rohrkrepierer, die taugen maximal für nen 17'' CRT - CRT wegen den flexiblen Auflösungen.
Grad die 50€, die man im Vergleich zur 640er spart, sollten es einem hier wert sein.

reunion
2007-04-23, 16:03:09
Ich führ solche Diskussionen nicht mehr mit dir wenn's um dein heiliges Spielzeug geht.

So kann man sich natürlich auch elegant verabschieden. Was bleibt ist die schiefe Optik, dass man es beim Lowend-Core offensichtlich nicht für nötig hielt Transistoren zu sparen, während man dies bei den leistungsrelevanten Chips sehr wohl gemacht hat. Ich lasse mich gerne korrigieren, wenn ich falsch liege, nur ergibt das so IMHO keinen Sinn.

Gast
2007-04-23, 16:04:26
ATi hat das Teil sicher nicht aus Langeweile eingebaut, und die Transistorenspar-Theorie hinkt hinten und vorne.Warum? Coda hat schon Recht. Allerdings dürfte der Ringbus wohl trotzdem eine sinnvolle Lösung gewesen sein, weil eine Crossbar evtl. zu fett gewesen wäre.

reunion
2007-04-23, 16:11:54
Warum?

Habe ich schon geschrieben. Warum verbaut man bei der X1300 dann eine Crossbar, wenn eine Ringbus weniger Transistoren benötigen würde, und die Leistung gerade im Lowend-Bereich ohnehin fast egal ist? Warum spart man ausgerechnet bei den leistungsrelevanten Chips X1600/X1800/X1900 die angeblich schnellere Crossbar ein?+

Coda hat schon Recht. Allerdings dürfte der Ringbus wohl trotzdem eine sinnvolle Lösung gewesen sein, weil eine Crossbar evtl. zu fett gewesen wäre.

Wie schon gesagt, dass würde Sinn ergeben, wenn da nicht die Crossbar der X1300 wäre.

laser114
2007-04-23, 19:34:29
wombat weiß garnix

Seine Posts sind sinnvoller als dieser hier. Eine solche Diskussion gehört hier nämlich nicht hin, abgesehen davon dass du das ohne irgendwelche weitere Informationen schreibst. Sehr sinnvoll.

Gast-Core
2007-04-23, 19:38:46
http://www.fudzilla.com/index.php?option=com_content&task=view&id=657&Itemid=34

http://www.fudzilla.com/index.php?option=com_content&task=view&id=656&Itemid=1

http://www.it-review.net/index.php?option=com_content&task=view&id=1288&Itemid=1

LovesuckZ
2007-04-23, 19:45:01
Seine Posts sind sinnvoller als dieser hier. Eine solche Diskussion gehört hier nämlich nicht hin, abgesehen davon dass du das ohne irgendwelche weitere Informationen schreibst. Sehr sinnvoll.

Doch, das gehört hier hin.
Schaut euch doch mal andere Foren an, wo Wombat vertreten ist. Dort nehmen sie sein geschreibsel als wahr. Die ganzen Spekulationshreads sind dadurch zum Scheichtern verurteilt, weil seine Anhängerschaft(...) wie Fanatiker auftreten und ihn verteidigen.*
Und solange wie er keine Fakten bringt, sind seine Postings genauso sinnvoll wie die des Gastes.

*Ich glaube ja, dass Wombat und Nakai eine Person sind.

Gast
2007-04-23, 19:46:06
wenn das mit dem

ATI Radeon HD 2900 XT TURBO SILENT Heatpipe 512MB GDDR3 VIVO TV-Out/Dual DVI (PCI-Express) - Retail " this one comes from HIS.

stimmen sollte und das eine passive Kühlung sein soll, wie erklärt man sich dann die 270W Stromverbrauch?

LovesuckZ
2007-04-23, 19:49:32
Diese 270 Watt beziehen sich höchsten auf die OEM Version und sind durch den vollkupfer Kühler berechtigt.
Die normale XT Version sollte weniger verbrauchen, da hier wohl eine andere Chiprevisions zum Einsatz kommt.

Black-Scorpion
2007-04-23, 19:51:13
Es gibt keine Bestätigung für diese ominösen 270W.
Wo kommen die überhaupt schon wieder her?
Vor kurzem waren es noch 240W.
Wenn das so weitergeht sind es bei erscheinen der Karten 1KW. :rolleyes:

Nakai
2007-04-23, 19:58:42
*Ich glaube ja, dass Wombat und Nakai eine Person sind.

Yeah, mach meinen Ruf auch noch nieder. ;)


Es gibt keine Bestätigung für diese ominösen 270W.

Es sind auch keine 270 Watt, wobei wir diese Diskussion eigentlich erst beim Launch bestätigt bekommen werden.

mfg Nakai

Low Rider
2007-04-23, 20:02:12
wenn das mit dem



stimmen sollte und das eine passive Kühlung sein soll, wie erklärt man sich dann die 270W Stromverbrauch?
Wer sagt denn, daß eine "Silent Heatpipe" passiv ist? ;)
Und wie gesagt - was den Verbrauch angeht - abwarten! Viel mehr interessiert mich der Idle Stromverbrauch.

Nakai
2007-04-23, 20:04:12
Vor kurzem waren es noch 240W.

Das fällt und steigt wie ein Kurs bei der Börse. Gestern 200 Watt, heute 240 bis 270 und morgen 160.

Ob was von den Techdays raussickert, halte ich für fraglich. Die Gerüchte die derzeit umgehen, kann man nur schwer glauben.


http://www.it-review.net/index.php?o...=1288&Itemid=1

Auch nur Speku.

Gast
2007-04-23, 20:16:54
wieder was neues?!

http://it-review.net/index.php?option=com_content&task=view&id=1289&Itemid=1

Gast
2007-04-23, 20:31:20
Hört sich alles ganz nett an, aber ich hoffe, es läuft nicht so ab wie beim R520, der zwar technologisch vor dem G70 stand, aber sich nicht gegen dessen Rohpower durchsetzen konnte.

Steve1
2007-04-23, 20:41:42
Den o.g. Link kann man leider nicht mehr öffnen.

reunion
2007-04-23, 20:41:59
270W TDP HD 2900 XTX OEM
240W TDP HD2900 XTX Retail
200W TDP HD2900 XT
180W TDP HD2900 XL
128W TDP HD2600 XT
93W TDP HD2600 PRO
75W TDP HD2600 LE
35W TDP HD2400 PRO
25W TDP HD2400 LE

So sahen die angeblichen TDP-Werte der R6xx-Generation aus. Aber da sich das zumindest bei der HD2600 schon definitiv in Luft aufgelöst hat, würde es mich auch nicht wundern, wenn die anderen auch nur FUD sind.

AnarchX
2007-04-23, 20:45:44
[...]
So sahen die angeblichen TDP-Werte der R6xx-Generation aus. Aber da sich das zumindest bei der HD2600 schon definitiv in Luft aufgelöst hat, würde es mich auch nicht wundern, wenn die anderen auch nur FUD sind.


Nur ist der OEM-Kühler mit seinem massiven Kupferanteil und dem extrem leistungsstarken Lüfter kein FUD. ;)

Sk_Antilles
2007-04-23, 20:48:36
128W TDP HD2600 XT
93W TDP HD2900 PRO
75W TDP HD2600 LE

Soll da tatsächlich eine 2900 Pro zwischen den 2600ern sein oder ist das jetzt ein Schreibfehler?

€: Ok alles klar :)

laser114
2007-04-23, 20:49:50
Soll da tatsächlich eine 2900 Pro zwischen den 2600ern sein oder ist das jetzt ein Schreibfehler?

Das soll sicher 2600 Pro heißen, denke ich mal...

Nakai
2007-04-23, 20:50:13
Nun ja, das spricht wohl dagegen.

Jedoch sind die Retailkarten kleiner und haben einen kleineren Lüfter und Kühler.
;)

Ob es dann 200 Watt werden, halte ich für sehr zweifelhaft.


mfg Nakai

reunion
2007-04-23, 20:51:47
Nur ist der OEM-Kühler mit seinem massiven Kupferanteil und dem extrem leistungsstarken Lüfter kein FUD. ;)

Nur weiß man bis jetzt noch nicht mal gesichert, ob diese Karte überhaupt mehr als ein Vorserienmodell war. Es gab ja durchaus glaubwürdige Berichte, wonach die ersten R600-Chips trotz sehr niedriger Taktraten richtige Hitzeschleudern waren. Wie es bei der finalen Karte aussieht, bleibt abzuwarten. Der Retailkühler ist jedenfalls kürzer als der einer 8800GTX.

Soll da tatsächlich eine 2900 Pro zwischen den 2600ern sein oder ist das jetzt ein Schreibfehler?

Ja Schreibfehler.

Gast
2007-04-23, 21:10:46
Nun ja, das spricht wohl dagegen.

Jedoch sind die Retailkarten kleiner und haben einen kleineren Lüfter und Kühler.
;)

Ob es dann 200 Watt werden, halte ich für sehr zweifelhaft.


mfg Nakai
200 Watt TDP können es schon sein. Der Kühler des Retailprototypen? war ähnlich der einer 8800 GTX, die ca. 185 Watt TDP hat. Der typische Lastverbrauch könnte sich dann bei 180 Watt einpendeln, das wäre für so eine Konstruktion noch machbar, wenn man bedenkt wie leise der GTX Kühler ist. Man könnte ohne weiteres die Lüfterdrehzahlen anheben, ohne dass es extrem laut wird.

Nakai
2007-04-23, 21:23:00
Nun gut, 180 Watt sind nach meinem Ermessen nicht die Welt, ich gehe aber von weniger aus. Ob es stimmt, werden wir sehen. Sogar der Rv630 wird weniger verbrauchen als angenommen. Es sind wohl 65Watt und daher siedelt sich der Verbrauch in 8600GTS Niveau an. Was der R600 haben wird, ist nicht abschätzbar. Hier kann man noch mit den Gedanken spielen, 180 Watt scheint aber ein guter Anfang zu sein.

mfg Nakai

Coda
2007-04-23, 21:50:40
So kann man sich natürlich auch elegant verabschieden.
Was würde denn die Diskussion mit dir bringen? Du hast was ATI angeht eh immer deinen festen Standpunkt.

Ich kenn dich nur zu gut, und hab einfach keinen Bock mehr drauf, dafür ist mir die Zeit zu schade. Du könntest z.B. mal nachlesen was eine Crossbar ist, aber das wird ja gar nicht erst in Erwägung gezogen, weil das große heilige ATI macht ja sicher nix womit sie etwa kleinere Chips und mehr Geld verdienen könnten, weil sie ja nur zum wohle des Kunden landen.

Und dann immer dieser pseudohalbwissenschaftliche Ton in deinen Post in denen du so tust als groß die Ahnung zu haben. Kotz.

Eod.

reunion
2007-04-23, 22:06:44
Was würde denn die Diskussion mit dir bringen? Du hast was ATI angeht eh immer deinen festen Standpunkt.

Ich kenn dich nur zu gut, und hab einfach keinen Bock mehr drauf, dafür ist mir die Zeit zu schade.


Für so ein Post ist dir deine Zeit offenbar nicht zu schade, denn das kommt bei dir schon fast im Wochenrhythmus. Aber ich habs dir schon mehrmals gesagt, ich zwinge niemanden auf meine Ergüsse einzugehen. Wenn du bei jedem zweiten Beitrag ohnehin nicht besseres zu tun hast, als mich zu beschimpfen, dann ignoriere mich. Da du andere Standpunkte als deinen nicht akzeptieren kannst, ist das wohl das Beste.


Du könntest z.B. mal nachlesen was eine Crossbar ist, aber das wird ja gar nicht erst in Erwägung gezogen,


Das habe ich.


weil das große heilige ATI macht ja sicher nix womit sie etwa kleinere Chips und mehr Geld verdienen könnten, weil sie ja nur zum wohle des Kunden landen.


Du hast offenbar nichtmal verstanden, warum ich deine Begründung für zweifelhaft erachte. Würden sie mit den "kleineren Chips mehr Geld verdienen wollen" dann müsste eine X1300 laut dir einen Ringbus haben.


Und dann immer dieser pseudohalbwissenschaftliche Ton in deinen Post in denen du so tust als groß die Ahnung zu haben. Kotz.

Eod.

Hu? Also da spricht ja mal wirklich der richtige. :rolleyes:

Gast
2007-04-23, 22:19:33
Ob es dann 200 Watt werden, halte ich für sehr zweifelhaft.
mfg Nakai

Jetzt zweifelst du also schon, vor nicht alszulanger Zeit warst du dir sicher...

reunion
2007-04-23, 22:21:23
Was heißt schon sicher sein? Wer hier mitspekuliert, kann sich nicht sicher sein.

Coda
2007-04-23, 22:24:12
Hu? Also da spricht ja mal wirklich der richtige. :rolleyes:
Ich hab es nun wirklich nicht nötig, meien Fähigkeiten hier im öffentlichen zu präsentieren. Aber glaub was du willst.

reunion
2007-04-23, 22:33:32
Ich hab es nun wirklich nicht nötig, meien Fähigkeiten hier im öffentlichen zu präsentieren. Aber glaub was du willst.

Und ich habe es nicht nötig in "pseudohalbwissenschaftliche Ton" zu argumentieren, um "so zu tun als ob ich groß Ahnung hätte". Ich bin ein absoluter Laie, und ich argumentiere als Laie, und mir fällt sicher kein Zacken aus der Krone, wenn ich das zugebe. Deine Aussage war meiner bescheidenen Meinung nach völlig deplatziert und unfair.

Gmax
2007-04-23, 22:45:54
Können wir mit ersten Reviews in 2 Wochen rechnen?

Gast
2007-04-23, 22:46:10
Ich hab es nun wirklich nicht nötig, meien Fähigkeiten hier im öffentlichen zu präsentieren. Aber glaub was du willst.


;) ;) was ein Kind

Ailuros
2007-04-23, 23:01:36
270W TDP HD 2900 XTX OEM
240W TDP HD2900 XTX Retail
200W TDP HD2900 XT
180W TDP HD2900 XL
128W TDP HD2600 XT
93W TDP HD2600 PRO
75W TDP HD2600 LE
35W TDP HD2400 PRO
25W TDP HD2400 LE

So sahen die angeblichen TDP-Werte der R6xx-Generation aus. Aber da sich das zumindest bei der HD2600 schon definitiv in Luft aufgelöst hat, würde es mich auch nicht wundern, wenn die anderen auch nur FUD sind.


Hergott weiss was diese Werte ueberhaupt darstellen und wann und wie sie gemessen wurden. Selbst wenn die Werte unter irgend einer verkorksten Formel irgend etwas aussagen konnten, dann aber nur in der Vergangenheit.

Ich hab nur einmal nachgefragt wie es mit dem Stromverbrauch von R600 aussieht und die Antwort war 40-50W ueber G80. Sollte es die XT betreffen ist es fuer mich halb so schlimm, einen relevanten Unterschied wird es dann wohl auch zwischen der "TBD" XTX vs. G80 Ultra geben.

Das einzige Fazit dass ich aus der ganzen Geschichte ziehen kann ist dass die XTX und Ultra reiner Ueberfluss sein werden und das Preis-/Leistungs-/Stromverbrauch-Verhaeltnis eher idiotisch im Vergleich zu einer stinknormalen 2900XT bzw. 8800GTX. Es ist aber auch nicht erste Mal dass so was vorkommt; von beiden IHVs gab es mehrere Male sinnlose, seltene und sehr teure Benchmark-Protz-Modelle.

dr_mordio
2007-04-23, 23:07:37
HardTecs4U meint die 2900XT langweilt eine 8800 Ultra....

http://www.hardtecs4u.de/?id=1177352560,86918,ht4u.php

Ich hoffe mal das die karte halbwegs was taugen wird.

MfG
A

[dzp]Viper
2007-04-23, 23:09:57
HardTecs4U meint die 2900XT langweilt eine 8800 Ultra....

http://www.hardtecs4u.de/?id=1177352560,86918,ht4u.php

Ich hoffe mal das die karte halbwegs was taugen wird.

MfG
A


Warte... 400$ (2900xt) vs 900$ (8800gtx ultra)

Oh ja :hammer:

Gouvernator
2007-04-23, 23:17:44
wieder was neues?!

http://it-review.net/index.php?option=com_content&task=view&id=1289&Itemid=1


You can even use displays up to 2560x2048
Hört sich wieder an nach diesem bescheuertem Limit von 2880 horizontal Zeilen. Warum nicht 3840? :confused: dann halten wenigstens die Matrox Tripple2Go User die Klappe . Unverständlich ATI.

Gast
2007-04-23, 23:17:57
HardTecs4U meint die 2900XT langweilt eine 8800 Ultra....

http://www.hardtecs4u.de/?id=1177352560,86918,ht4u.php

Ich hoffe mal das die karte halbwegs was taugen wird.

MfG
A
Natürlich wird die was taugen. Die wird ca. doppelt so schnell wie eine X1900 sein und wenn man den anvisierten Preis von ca. 430€ betrachtet, zwischen GTX und GTS Speed rangieren. Die Karte wird aber kein Dominator sein. Das einzige was mir sorgen macht ist die Kühlung. Warum hat die OEM Version so einen martialischen Kühler mit den fingerdicken Heatpipes? Ok, sie hat afaik 1024 Vram und die Retailversion wird nur 512 und vielleicht etwas niedrigere Taktraten haben, aber kann das so einen gewaltigen Unterschied in der Leistungsaufnahme machen? Denn die Retailversion soll ja einen "gemäßigten" Kühler spendiert bekommen.

Gast
2007-04-23, 23:20:59
Natürlich wird die was taugen. Die wird ca. doppelt so schnell wie eine X1900 sein und wenn man den anvisierten Preis von ca. 430€ betrachtet, zwischen GTX und GTS Speed rangieren.

Wer sagt, dass nVidia den Preis nicht senken wird?
Sollte die Karte nicht schneller als eine 8800GTX sein, dann ist sie einfach sinnlos und wird AMD nur noch weiter Sorgen machen.

[dzp]Viper
2007-04-23, 23:26:31
Wer sagt, dass nVidia den Preis nicht senken wird?
Sollte die Karte nicht schneller als eine 8800GTX sein, dann ist sie einfach sinnlos und wird AMD nur noch weiter Sorgen machen.

Sinnlos sicher nicht - denn nur Mitbewerber bescheren uns einen guten Preis. Und wenn sie aktuell genauso schnell ist, dann hat der Kunde die qual der Wahl. Warum auch nicht?

Der Refresh in 65µm kommt dann wohl im Spätsommer und die werden Taktmäßig sicher nochmal ne ganze latte drauflegen. Wir werden ja sehen wie gut sich die neuen "midrange" Karten von ATI übertakten lassen werden ;)

Mancko
2007-04-23, 23:31:55
Viper;5433769']Warte... 400$ (2900xt) vs 900$ (8800gtx ultra)

Oh ja :hammer:

Woher hast du denn diese Preise? Ich habe werder die eine noch die andere Karte in einer offiziellen Preisliste gesehen.
Aber wenn die Information zur Performance stimmt, dann hat ATI ein dickes Problem. Nvidia senkt nach 6 Monaten und mehr Abkassieren mit der 8800GTX den Preis auf genau die 400$ und dann ist ATI gelinde gesagt im Arsch und darf es mit dem R700 nochmal neu versuchen.

Gast
2007-04-23, 23:40:12
Viper;5433808']Sinnlos sicher nicht - denn nur Mitbewerber bescheren uns einen guten Preis. Und wenn sie aktuell genauso schnell ist, dann hat der Kunde die qual der Wahl. Warum auch nicht?


Weil die 8800GTX immer noch mehr Speicher hat.
Und mehr Speiche rist eben nicht durch Übertakten auszugleichen. Die Karte muss also schon deutlich schneller sein, um diesen schwerwiegenden Nachteil ausgleichen zu können.

Gmax
2007-04-23, 23:49:16
Warum soll der RV630 denn nur ein 128Bit Interface bekommen? Wären 256Bit nicht logisch verglichen mit den 512 im High End Segment?

deekey777
2007-04-23, 23:56:06
Warum soll der RV630 denn nur ein 128Bit Interface bekommen? Wären 256Bit nicht logisch verglichen mit den 512 im High End Segment?
War der G84 logisch im Vergleich zum G80? :wink:
Speicher wird billiger, das PCB und der Chip bzw. der Speichercontroller nicht. Es ist günstiger höher getakteten Speicher und 128-bit-SI und somit ein einfacheres PCB zu verwenden.
256-bit-SI bedeutet auch ein komplexeres PCB mit mehr Layern.

dr_mordio
2007-04-23, 23:57:19
Warum hat die OEM Version so einen martialischen Kühler mit den fingerdicken Heatpipes? Ok, sie hat afaik 1024 Vram und die Retailversion wird nur 512 und vielleicht etwas niedrigere Taktraten haben, aber kann das so einen gewaltigen Unterschied in der Leistungsaufnahme machen? Denn die Retailversion soll ja einen "gemäßigten" Kühler spendiert bekommen.

Ich denke das liegt daran, weil OEM systembuilder besser mit solchen monsterkarten zurecht kommen.
die können von vornherrein die abmessungen mit einplanen.

der homeuser dagegen nicht. ich denke die OEM-karten haben alle die ersten chips bekommen und die home produkte eine neuere generation.

und die GTX hat ja auch einen sehr großen kühler, ist aber nicht laut.
vielleicht wird die OEM version auch nicht so laut. die 24Watt am Lüfter sagen ja nichts aus.
ein sportwagen kann auch 8-10 zylinder und eine menge PS haben... deshalb fährt er aber nicht nur 300 sondern kann auch 30 fahren :smile:

MfG
Alex

Gast
2007-04-24, 00:09:24
Ich denke das liegt daran, weil OEM systembuilder besser mit solchen monsterkarten zurecht kommen.
die können von vornherrein die abmessungen mit einplanen.

der homeuser dagegen nicht. ich denke die OEM-karten haben alle die ersten chips bekommen und die home produkte eine neuere generation.

und die GTX hat ja auch einen sehr großen kühler, ist aber nicht laut.
vielleicht wird die OEM version auch nicht so laut. die 24Watt am Lüfter sagen ja nichts aus.
ein sportwagen kann auch 8-10 zylinder und eine menge PS haben... deshalb fährt er aber nicht nur 300 sondern kann auch 30 fahren :smile:

MfG
Alex
Aber irgendwann fährt der Sportwagen doch seine 300, jedenfalls auf der Rennstrecke. Das einzige was sein kann, ist dass vielleicht die Retailversion eine neuere Revision hat und dadurch weniger Saft braucht. Die "OEM-Version" wird noch eine ältere haben. Glaube aber nicht, dass die jemals offiziell bzw. von Dell oder sonstwem verkauft wird. Sowas würde nie vom Markt aktzeptiert werden, wenn es bessere Alternativen gibt.

Gast
2007-04-24, 00:30:20
Weil die 8800GTX immer noch mehr Speicher hat.
Und mehr Speiche rist eben nicht durch Übertakten auszugleichen. Die Karte muss also schon deutlich schneller sein, um diesen schwerwiegenden Nachteil ausgleichen zu können.

speicher is unwichtig,marketingopfer

Knacki99
2007-04-24, 00:36:42
speicher is unwichtig,marketingopfer
Wie wichtig der Speicher ist, werden wir sehen wenn die ersten DX10 Titel kommen und wir Crysis mit 16xHQAF und 8xAA+HDR in High Res spielen (und benchen).

Gast
2007-04-24, 02:09:14
speicher is unwichtig,marketingopfer
Und du bist jemand der keine Ahnung von nix hat, echt!

Speicher ist verdammt wichtig weil wenn der nicht recht, plättet 'ne x1950 PRO mit 512MB eine 320MB 8800 und das sowas von!

san.salvador
2007-04-24, 02:11:20
Korrekt, mehr muss man dazu nicht sagen.

Fetza
2007-04-24, 03:03:06
Hört sich wieder an nach diesem bescheuertem Limit von 2880 horizontal Zeilen. Warum nicht 3840? :confused: dann halten wenigstens die Matrox Tripple2Go User die Klappe . Unverständlich ATI.

Denke mal ati hat gerade andere sorgen, als sich um die paar user mit tripple2go zu kümmern.

Wie wichtig der Speicher ist, werden wir sehen wenn die ersten DX10 Titel kommen und wir Crysis mit 16xHQAF und 8xAA+HDR in High Res spielen (und benchen).

Du glaubst doch nicht, das die 8800gtx das mit guten frames auf high-detail packt? Ich find die 512mb variante völlig ok, wenn crysis erst gegen ende des jahres kommen sollte, braucht man eh wieder ne neue karte. Und ob das game wirklich so viel vram frisst wage ich zu bezweifeln.

greetz

no_surrender
2007-04-24, 06:41:56
Du glaubst doch nicht, das die 8800gtx das mit guten frames auf high-detail packt?

klar wird sie das, Crytek sind keine Russen, die habens ganz schön auf Tasche und ich denke die werden das richtig geil Programmieren, ich hab es in DX9 und mit ner x1900XTX gesehen, lief ohne zu zucken im grossen und ganzen.
Wie es in der Final aussieht wird sich zeigen:smile:

Knacki99
2007-04-24, 08:01:24
Du glaubst doch nicht, das die 8800gtx das mit guten frames auf high-detail packt? Ich find die 512mb variante völlig ok, wenn crysis erst gegen ende des jahres kommen sollte, braucht man eh wieder ne neue karte. Und ob das game wirklich so viel vram frisst wage ich zu bezweifeln.

greetz

Eigentlich ging es mir viel mehr darum, den Denkanstoss zu geben, dass auch "zu wenig" VRAM limitieren kann. Die Frage die sich mir stellt ist, warum ATI nicht die XTX launcht. Es heisst jetzt Juni.

Aber mal ehrlich, wer jetzt 'ne 1950XT oder wie ich ne X1800XT (PE) mit 512MB hat und hohe Anforderungen an Bildqualität und HDR+AA Rendering stellt, der wird sich keine R600 mit 512MB kaufen.

Sicher wird die R600 512MB im Vergleich schön schnell sein, aber wenn AMD mich vor die Frage stellt und die R600XTX vielleicht sogar cancelled (Stichwort "TBD") dann würde ich wohl eher eine 768MB GTX OC oder Ultra kaufen.

Zum Glück muss ich im Moment gar nichts kaufen, auch wenn die Versuchung gross ist. Aber ich werde mich entspannt zutücklehnen und mir das ganze erstmal aus der Ferne betrachten.

Gast
2007-04-24, 08:36:03
Warum soll der RV630 denn nur ein 128Bit Interface bekommen? Wären 256Bit nicht logisch verglichen mit den 512 im High End Segment?

IMHO;

wegen 65nm. Der Chip ist wahrscheinlich zu klein um die vielen Pins die 256bit brauchen würden unterzubringen. Außerdem GDDR4 ist "just around the corner" und damit steht fast so viel Bandbreite zur Verfügung wie mit einem 256bit GDDR3 Speicher.

Anarchy-HWLUXX
2007-04-24, 09:20:31
2900XTX evtl. erst in Q3 ? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=661&Itemid=1)



UNd hia mal was zum lachen :D (http://www.digitimes.com/mobos/a20070423PD213.html)

Klar, nen 700m Transitor Monster mal eben aus dem Hut zaubern ... sicha ;)

Gast
2007-04-24, 09:49:42
und hier R650 vs G90 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=660&Itemid=34)

R600 ünterstützt 24x AA (http://www.fudzilla.com/index.php?option=com_content&task=view&id=662&Itemid=34)

James Ryan
2007-04-24, 09:50:26
2900XTX evtl. erst in Q3 ? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=661&Itemid=1)


Sollte das stimmen... :rolleyes:
Im dritten Quartal kräht niemand mehr nach einer XTX!

MfG :cool:

Grestorn
2007-04-24, 09:52:52
und hier R650 vs G90 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=660&Itemid=34)

R600 ünterstützt 24x AA (http://www.fudzilla.com/index.php?option=com_content&task=view&id=662&Itemid=34)

Dieser Abschnitt von Fudzilla:

"It can support 8X MSAA (Multi Sampling Anti Aliasing) and combined with FSAA can result with Anti aliasing up to 24X. This should be exciting part as G80 can do only 16X and even the 16X kills the performance. ATI might be better off due to its 512 bit memory controller. "

Ist völlig sinnfrei.

Auch 8x MSAA ist eine Form von FSAA (Full Screen AA). Was soll dann mit "FSAA" kombiniert werden, um 24x zu ergeben?

Und seit wann killt bei der G80 16x AA die Performance? Das Gegenteil ist der Fall.

Und zu guter letzt: Man kann sich schon streiten, ob das 8xQ ggü. dem normalen 4x noch wirklich erkennbar etwas bringt. Was dann mehr als 8 Multisamples bringen sollen, ist mir absolut schleierhaft. Aber hauptsächlich man hat nen längeren...

Lawmachine79
2007-04-24, 09:58:00
Dieser Abschnitt von Fudzilla:

"It can support 8X MSAA (Multi Sampling Anti Aliasing) and combined with FSAA can result with Anti aliasing up to 24X. This should be exciting part as G80 can do only 16X and even the 16X kills the performance. ATI might be better off due to its 512 bit memory controller. "

Ist völlig sinnfrei.

Auch 8x MSAA ist eine Form von FSAA (Full Screen AA). Was soll dann mit "FSAA" kombiniert werden, um 24x zu ergeben?

Und seit wann killt bei der G80 16x AA die Performance? Das Gegenteil ist der Fall.

Und zu guter letzt: Man kann sich schon streiten, ob das 8xQ ggü. dem normalen 4x noch wirklich erkennbar etwas bringt. Was dann mehr als 8 Multisamples bringen sollen, ist mir absolut schleierhaft. Aber hauptsächlich man hat nen längeren...
Vielleicht ist mit FSAA Supersampling gemeint und ATI führt auch so etwas wie NVs Hybridmodi ein. Wenn 8xMSAA unter Kombination mit SSAA (falls das gemeint ist) zu 24xAA führen soll wäre folgendes denkbar:
8xMSAA+1,5x1,5SSAA

Grestorn
2007-04-24, 10:02:41
Vielleicht ist mit FSAA Supersampling gemeint und ATI führt auch so etwas wie NVs Hybridmodi ein. Wenn 8xMSAA unter Kombination mit SSAA (falls das gemeint ist) zu 24xAA führen soll wäre folgendes denkbar:
8xMSAA+1,5x1,5SSAA

Das wäre ja ganz was neues und lässt sich aus dem Artikel nicht ableiten.

Außerdem sage ich dann natürlich sofort, dass der G80 ja 32x AA beherrscht (32xS).

deekey777
2007-04-24, 10:06:01
Dieser Abschnitt von Fudzilla:

"It can support 8X MSAA (Multi Sampling Anti Aliasing) and combined with FSAA can result with Anti aliasing up to 24X. This should be exciting part as G80 can do only 16X and even the 16X kills the performance. ATI might be better off due to its 512 bit memory controller. "

Ist völlig sinnfrei.

Auch 8x MSAA ist eine Form von FSAA (Full Screen AA). Was soll dann mit "FSAA" kombiniert werden, um 24x zu ergeben?

Und seit wann killt bei der G80 16x AA die Performance? Das Gegenteil ist der Fall.

Und zu guter letzt: Man kann sich schon streiten, ob das 8xQ ggü. dem normalen 4x noch wirklich erkennbar etwas bringt. Was dann mehr als 8 Multisamples bringen sollen, ist mir absolut schleierhaft. Aber hauptsächlich man hat nen längeren...
Fudo darf das. :biggrin:
Malsehen, was Catalyt 7.5 bringt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349363). Auch gab's mal ein anderes Versprechen: http://www.firingsquad.com/news/newsarticle.asp?searchid=12508 (was auf einen Hybrid-Modus deutet).

Anarchy-HWLUXX
2007-04-24, 10:07:52
und hier R650 vs G90 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=660&Itemid=34)

R600 ünterstützt 24x AA (http://www.fudzilla.com/index.php?option=com_content&task=view&id=662&Itemid=34)

Die beiden meldungen sind so sinnfrei, die hab ich erst garnicht verlinkt im Post weiter oben ... das die 65nm Chips gegeneinander antreten ist klar und oberhalb von 16* noch sichtbare Quali steigerunegn ? Normalerweise zock ich ja ohne lupe und vergleichsscreens ...

Adam D.
2007-04-24, 10:12:45
Mensch, die halten ihre NDA aber wirklich gut ein - es kommt ja praktisch nix durch. Dabei wollen wir doch endlich mal was sehen :uup:

Henroldus
2007-04-24, 10:32:10
IMHO;

wegen 65nm. Der Chip ist wahrscheinlich zu klein um die vielen Pins die 256bit brauchen würden unterzubringen.
ja klar und bei künftigen chips in 32nm haben wir dann nur noch ein 64Bit SI weil kein platz ist!? :|

robbitop
2007-04-24, 10:43:57
24xAA hoert sich an als bliebe man maximal bei 6xSGMS und ruestet das nun mit 2x2 OG auf (das koennte sogar schon R300). So kann man zahlenmaessig mit NV einigermassen mithalten. Hat NV ja auch lange gemacht.

James Ryan
2007-04-24, 10:44:47
Mensch, die halten ihre NDA aber wirklich gut ein - es kommt ja praktisch nix durch. Dabei wollen wir doch endlich mal was sehen :uup:

In der Situation in der A/A momentan sind, ist es das dümmste überhaupt das NDA so strikt einzuhalten.
NVIDIA weiß über den R600 sowieso schon Bescheid und der Konter liegt schon lange bereit. Aber nein, AMD und ATi müssen wieder mal ihre Unfähigkeit bezüglich Marketing beweisen und der Otto-Normal-User wird quasi gezwungen zur Konkurrenz zu greifen. ;D

MfG :cool:

Grestorn
2007-04-24, 10:47:57
24xAA hoert sich an als bliebe man maximal bei 6xSGMS und ruestet das nun mit 2x2 OG auf (das koennte sogar schon R300). So kann man zahlenmaessig mit NV einigermassen mithalten. Hat NV ja auch lange gemacht.

Denkbar ... :)

Die Folge wäre, dass nV die Hybridmodi wohl wieder offiziell anbieten muss. Also Gewinn für alle.

up¦²
2007-04-24, 11:09:44
Tja, was soll man dazu sagen :confused:
Wie aus für gewöhnlich gut unterrichteten Kreisen in Taiwan verlautet?
AMD R600 to be available in May
Yen Ting Chen, Taipei; Rodney Chan, DIGITIMES [Monday 23 April 2007]


The DirectX 10-supporting AMD R600 graphics chip made on 65nm will be available on the market on May 19 after months of delay, according to sources with Taiwan's graphics card distributors.

The R600 had originally been scheduled for release in the second half of 2006. A rescheduled launch for March this year was again delayed by a serious shortage of GDDR4 memory, the sources said.

The sources pointed out that AMD will skip the 80nm process and make the R600 at 65nm. The R610 and R630, which will also adopt a 65nm process, will also be released in June, the sources added.
http://www.digitimes.com/mobos/a20070423PD213.html

Godmode
2007-04-24, 11:31:30
Tja, was soll man dazu sagen :confused:
Wie aus für gewöhnlich gut unterrichteten Kreisen in Taiwan verlautet?

http://www.digitimes.com/mobos/a20070423PD213.html

Ich glaube momentan gar nichts mehr, aber vielleicht konnte der 80nm r600 mit dem 90nm G80 einfach nicht mithalten(Leistung zu Stromverbrauch). Könnte gut sein dass der Shrink schon im November begonnen worden ist, da so etwas ja bekanntlich nicht von heute auf morgen gemacht werden kann.

Adam D.
2007-04-24, 11:38:35
In der Situation in der A/A momentan sind, ist es das dümmste überhaupt das NDA so strikt einzuhalten.
NVIDIA weiß über den R600 sowieso schon Bescheid und der Konter liegt schon lange bereit. Aber nein, AMD und ATi müssen wieder mal ihre Unfähigkeit bezüglich Marketing beweisen und der Otto-Normal-User wird quasi gezwungen zur Konkurrenz zu greifen. ;D

MfG :cool:
Oder sie haben halt wirklich nichts zu zeigen. Ich verstehe diesen harten Kurs auch nicht.

Anarchy-HWLUXX
2007-04-24, 11:40:06
Tja, was soll man dazu sagen :confused:
Wie aus für gewöhnlich gut unterrichteten Kreisen in Taiwan verlautet?

http://www.digitimes.com/mobos/a20070423PD213.html

Zuspät - hab ich schon auf der Letzten seite durch den Kakao gezogen ...

Lawmachine79
2007-04-24, 11:54:14
24xAA hoert sich an als bliebe man maximal bei 6xSGMS und ruestet das nun mit 2x2 OG auf (das koennte sogar schon R300). So kann man zahlenmaessig mit NV einigermassen mithalten. Hat NV ja auch lange gemacht.
Auch denkbar - für den Fall, daß Du 2x2 SSAA meinst.

up¦²
2007-04-24, 11:55:56
Zuspät - hab ich schon auf der Letzten seite durch den Kakao gezogen ...

Aja, aber so komisch klingt das garnicht!

Glaskugelblick:
Ati bringt erst den R600 mit Gddr3 und "3 Monate*+*" später den R650 (Radeon HD 2900 XTX mit 1k GDDR4)
Vom timing her genau richtig: eher gibt es sowieso kein DX10/D3D10 Futter...

deekey777
2007-04-24, 11:57:48
Auch denkbar - für den Fall, daß Du 2x2 SSAA meinst.
Er meint 2x2 OGSSAA, die Verdopplung der Auflösung in die vertikale und die horizontale Richtung. Das Ergebniss wäre suboptimal - wie alle Hybrid-Modi mit OGSSAA.

AnarchX
2007-04-24, 11:58:07
@up¦²
Bei solchen HighEnd-Karten ist aber nicht das Hauptargument das Techlevel, sondern die Leistung in aktuellen Games und da wird die 512MB XT so manchen Enthusiasten der mit seinem 24-30" WS TFT spielen will eher entäuschen.

btw.
Schon gepostet?
http://img241.imageshack.us/img241/3841/66666kk4.jpg (http://imageshack.us)

Lawmachine79
2007-04-24, 12:06:09
Das Ergebniss wäre suboptimal - wie alle Hybrid-Modi mit OGSSAA.
Deiner SIG entnehme ich, daß Dir keine Hybridmodi zur Verfügung stehen - sei Dir gewisse, das Ergebnis ist alles andere als supoptimal - sondern Bildqualität pur - und wie ineffizient es ist, ist uninteressant solange es flüssig spielbar ist.

@up¦²
Bei solchen HighEnd-Karten ist aber nicht das Hauptargument das Techlevel, sondern die Leistung in aktuellen Games und da wird die 512MB XT so manchen Enthusiasten der mit seinem 24-30" WS TFT spielen will eher entäuschen.

btw.
Schon gepostet?
http://img241.imageshack.us/img241/3841/66666kk4.jpg (http://imageshack.us)
"Custom Filter" allerdings klingt für mich interessant. Stell ich mir als eine Art "AA Baukasten" vor.
Als wenn man bei NV MSAA+CSAA+SSAA beliebig kombinieren könnte. Sowas wünsche ich mich schon lange.

Adam D.
2007-04-24, 12:12:34
Hmm, dieses "Custom Filter" wär mal echt sehr geil, könnte man das AA für jedes Spiel perfekt abstimmen.
Und diese "Black Box" ... Was da wohl drin sein mag? 'N Gutschein für HL³? ;D

up¦²
2007-04-24, 12:17:10
@up¦²
Bei solchen HighEnd-Karten ist aber nicht das Hauptargument das Techlevel, sondern die Leistung in aktuellen Games und da wird die 512MB XT so manchen Enthusiasten der mit seinem 24-30" WS TFT spielen will eher entäuschen.


Man sieht ja an der 8800/320MB sehr schön, wie sie dann erheblich einbricht ...
Aber vielleicht sind 520MB "gerade so genug" - vorläufig :|

deekey777
2007-04-24, 12:18:12
Deiner SIG entnehme ich, daß Dir keine Hybridmodi zur Verfügung stehen - sei Dir gewisse, das Ergebnis ist alles andere als supoptimal - sondern Bildqualität pur - und wie ineffizient es ist, ist uninteressant solange es flüssig spielbar ist.


Kann es sein, dass du nicht verstanden hast, was "suboptimal" ist? (OG)SSAA bedeutet nur, dass die Auflösung zB vertikal und/oder horizontal vergrößert und dann wieder auf die Zielauflösung heruntergerechnet. MSAA ist nur eine Verbesserung oder auch Verschlechterung des Supersamplings, nur dass hier Kanten erfasst werden, dass "Innere" der Polygone bleibt unangetastet. Die Hybrid-Modi sind Langeweile pur, wenn ein OG-Muster verwendet wird: Die Kanten bekommen zB 4xMSAA, im Inneren der Polygone bleibt es bei zB 1x2 OGSSAA. Was soll daran optimal sein?
Also halt den Ball flach. Wenn ich häßliches 2x2OGSSAA sehen will, nutze ich DXTweaker.

AnarchX
2007-04-24, 12:19:20
ATI Radeon HD 2900 XT Performance Benchmarks
ATI Radeon HD 2900 XT puts up some impressive numbers in benchmarks
@Dailytech (http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm)

Naja, ein Vergleich zur GTS in 1280x1024...
Der Vergleich zur non-USA QFX5500 ist auch eher daneben, wie es wohl gegen QFX 4600 bzw. 5600 aussehen würde. ;)

Lawmachine79
2007-04-24, 12:20:37
Kann es sein, dass du nicht verstanden hast, was "suboptimal" ist? (OG)SSAA bedeutet nur, dass die Auflösung zB vertikal und/oder horizontal vergrößert und dann wieder auf die Zielauflösung heruntergerechnet. MSAA ist nur eine Verbesserung oder auch Verschlechterung des Supersamplings, nur dass hier Kanten erfasst werden, dass "Innere" der Polygone bleibt unangetastet. Die Hybrid-Modi sind Langeweile pur, wenn ein OG-Muster verwendet wird: Die Kanten bekommen zB 4xMSAA, im Inneren der Polygone bleibt es bei zB 1x2 OGSSAA. Was soll daran optimal sein?
Also halt den Ball flach. Wenn ich häßliches 2x2OGSSAA sehen will, nutze ich DXTweaker.
Achsooo Dir geht es nicht um Supersampling sondern darum, ob das Raster gedreht wird? Ich weiß ja nicht ob Du schon mal ein Spiel mit 16xS in einer Auflösung von 1680x1050 gesehen hast...

Superheld
2007-04-24, 12:21:53
yuhu endlich Benchmarks:O

dargo
2007-04-24, 12:25:01
ATI Radeon HD 2900 XT Performance Benchmarks
ATI Radeon HD 2900 XT puts up some impressive numbers in benchmarks
@Dailytech (http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm)

Naja, ein Vergleich zur GTS in 1280x1024...
Ich würde eher sagen, der Gegner ist ganz klar die GTX. ;)
Wenn man davon ausgeht, dass nur 1280x1024 genommen wurde herrscht oft ein CPU-Limit. Bin gespannt ob sich die HD 2900 XT beim GPU-Limit stark absetzen kann.

Aber:
Half Life 2: Episode 1 112.0 FPS 57.4 FPS (XT vs. GTS)

:|

Edit:
1,65Ghz GDDR3 :| :| :|

Edit²:
Ach die rechnen wieder doppelt. :uhammer:
Es sind 825Mhz Speichertakt.

deekey777
2007-04-24, 12:25:03
Achsooo Dir geht es nicht um Supersampling sondern darum, ob das Raster gedreht wird? Ich weiß ja nicht ob Du schon mal ein Spiel mit 16xS in einer Auflösung von 1680x1050 gesehen hast...
Tust du nur so oder willst du nicht verstehen, worum es geht? Nochmal: Wenn man einen Hybrid-Modus nutzt, der wiederum OGSSAA nutzt, ist das Ergebnis suboptimal.
Durch einen Fehler in DXTweaker habe ich HL2 mit 4xMSAA+2*2 OGSSAA gesehen.

Adam D.
2007-04-24, 12:26:19
Aber:
Half Life 2: Episode 1 112.0 FPS 57.4 FPS (XT vs. GTS)

:|

Our benchmarks for Half Life 2: Episode 1 showed an abnormal framerate for the NVIDIA 8800 GTS card that scaled with lower resolutions -- we are still investigating what occurred there.

Da haben die wohl irgendwas verpeilt.

Aber gute Zahlen, ich würde aber immer noch gerne wissen, woher diese ATi-Dominanz bei Call of Duty 2 kommt, da machen die ja Generation für Generation die Nvidias platt :redface:

AnarchX
2007-04-24, 12:26:40
Aber:
Half Life 2: Episode 1 112.0 FPS 57.4 FPS (XT vs. GTS)

:|

edit: OK, Dailytech hat es auch angemerkt.

1,65Ghz GDDR3
Marketing-MHz, in echt sind es 825MHz, also 105.6GB/s.

Lawmachine79
2007-04-24, 12:29:57
edit: OK, Dailytech hat es auch angemerkt.

Da steht eine kleine Anmerkung drunter auf der Seite, daß da irgendwas schiefgelaufen ist und man nach der Ursache sucht.
Zum Benchmark: das KANN nur ein schlechter Scherz sein. Die G80 sind ein halbes Jahr alt und man traut sich nichtmal an eine GTX ran. ATI hatte ein halbes Jahr Zeit, das heisst, ATI's Topmodel sollte mindestens durch die Bank weg 20-30% schneller als eine GTX sein. Alles andere wäre eine Enttäuschung.

Vertigo
2007-04-24, 12:32:06
Da steht eine kleine Anmerkung drunter auf der Seite, daß da irgendwas schiefgelaufen ist und man nach der Ursache sucht.
Zum Benchmark: das KANN nur ein schlechter Scherz sein. Die G80 sind ein halbes Jahr alt und man traut sich nichtmal an eine GTX ran. ATI hatte ein halbes Jahr Zeit, das heisst, ATI's Topmodel sollte mindestens durch die Bank weg 20-30% schneller als eine GTX sein. Alles andere wäre eine Enttäuschung.
Abwarten. Die XTX kommt ja noch und die paar Benchmarks, die zum Teil auch CPU-limitiert sind, sagen bisher gar nichts aus.

dargo
2007-04-24, 12:33:08
Zum Benchmark: das KANN nur ein schlechter Scherz sein. Die G80 sind ein halbes Jahr alt und man traut sich nichtmal an eine GTX ran.
Naja, so schlimm ist es auch nicht. Schau dir man den 3DMark06 Wert an. Was wird zu erst beim Treiber optimiert? Richtig, der 3DMark.
Will sagen, die Treiber haben noch Luft.

Grestorn
2007-04-24, 12:33:40
Da steht eine kleine Anmerkung drunter auf der Seite, daß da irgendwas schiefgelaufen ist und man nach der Ursache sucht.
Zum Benchmark: das KANN nur ein schlechter Scherz sein. Die G80 sind ein halbes Jahr alt und man traut sich nichtmal an eine GTX ran. ATI hatte ein halbes Jahr Zeit, das heisst, ATI's Topmodel sollte mindestens durch die Bank weg 20-30% schneller als eine GTX sein. Alles andere wäre eine Enttäuschung.

Die XT ist aber tatsächlich gegen die GTS platziert.

Das Topmodell ist ja die XTX, welche dann gegen die GTX antreten soll.

Adam D.
2007-04-24, 12:36:12
Die XT ist aber tatsächlich gegen die GTS platziert.

Das Topmodell ist ja die XTX, welche dann gegen die GTX antreten soll.
So lange es die aber nicht gibt, muss sich die XT wohl mit der GTX messen. Und so wie es aussieht, braucht ja das Monster noch deutlich länger als der Rest.

[dzp]Viper
2007-04-24, 12:36:23
Die Werte sehen doch sehr gut aus.

Scheinbar wird die 2900xt wieder in Shaderlastigen Anwendungen/Spielen merklich stärker sein (wie es bereits bei der 1900xt war)

Bin auf Benchmarks neuerer Spiele gespannt :)

James Ryan
2007-04-24, 12:37:11
Die XT ist aber tatsächlich gegen die GTS platziert.

Das Topmodell ist ja die XTX, welche dann gegen die GTX antreten soll.

OMG, die XTX kommt aber erst im Juni! :rolleyes:
Bis dahin gibt es die Ultra...

Das wichtigste ist aber: Endlich mal richtige Bilder!

MfG :cool:

up¦²
2007-04-24, 12:42:14
(y) Eine Klasse-Interimkarte!
Glückwunsch an die Ati-Crew!

dargo
2007-04-24, 12:42:29
Viper;5434739']Die Werte sehen doch sehr gut aus.

Finde ich auch. In Oblivion sind es ~21% mehr als die GTS. Wenn man jetzt noch den teilweise vorhandenen CPU-Limit berücksichtigt und möglicherweise die noch unausgereiften Treiber von ATI könnte ich mir durchaus vorstellen, dass die HD 2900XT an die GTX rankommt.

deekey777
2007-04-24, 12:43:20
btw.
Schon gepostet?
http://img241.imageshack.us/img241/3841/66666kk4.jpg (http://imageshack.us)
Nein, aber gehofft, dass dieses Bild hier nicht gepostet wird.

Superskalare USA. Wow. Das hat der G80 auch. Und die Recheneinheiten meiner X1950GT sind auch superskalar.
Was für "24x Custom Filter AA"? Was für Filter? Blur?
Dynamic geometry acceleration? Was soll das denn sein?
Und Black Box von VALVe...
Ich tippe auf Fake, wäre nicht das erste Mal.

[dzp]Viper
2007-04-24, 12:44:41
OMG, die XTX kommt aber erst im Juni! :rolleyes:
Bis dahin gibt es die Ultra...

Das wichtigste ist aber: Endlich mal richtige Bilder!

MfG :cool:

Nur steht das noch nicht wirklich fest.. zwar isses wahrscheinlich, aber eben für 900$ und das ist krank. Die Anzahl der verfügbaren Karten kann man dann wohl an einer Hand abzählen. Was NV da bereit ist einfach schwach - mit Ach und Krach eine Karte rausbringen wollen die schneller ist als die XT(X) aber eben in so geringen Stückzahlen, dass zu 90% nur Presseleute eine Ultra bekommen werden - tolle Taktik und damit für mich garnicht erwähnenswert die Karte..

robbitop
2007-04-24, 12:47:19
Nein, aber gehofft, dass dieses Bild hier nicht gepostet wird.

Superskalare USA. Wow. Das hat der G80 auch. Und die Recheneinheiten meiner X1950GT sind auch superskalar.
Was für "24x Custom Filter AA"? Was für Filter? Blur?
Dynamic geometry acceleration? Was soll das denn sein?
Und Black Box von VALVe...
Ich tippe auf Fake, wäre nicht das erste Mal.
Bereits die R300 ALUs arbeiten superskalar.
Ich tippe auf CF-AA pro Karte oder Hybriden wie bei NV.
Vertexshader im USC ;) (passen sich ja dynamisch der Last an)

James Ryan
2007-04-24, 12:47:40
Viper;5434762']Nur steht das noch nicht wirklich fest.. zwar isses wahrscheinlich, aber eben für 900$ und das ist krank. Die Anzahl der verfügbaren Karten kann man dann wohl an einer Hand abzählen. Was NV da bereit ist einfach schwach - mit Ach und Krach eine Karte rausbringen wollen die schneller ist als die XT(X) aber eben in so geringen Stückzahlen, dass zu 90% nur Presseleute eine Ultra bekommen werden - tolle Taktik und damit für mich garnicht erwähnenswert die Karte..

1. Die 900$ für die Ultra sind pure Fantasie!
2. Die Ultra wird noch vor der XTX kommen.
3. Die Ultra wird es in normalen Stückzahlen geben.

MfG :cool:

[dzp]Viper
2007-04-24, 12:48:41
1. Die 900$ für die Ultra sind pure Fantasie!
2. Die Ultra wird noch vor der XTX kommen.
3. Die Ultra wird es in normalen Stückzahlen geben.

MfG :cool:

Ja deswegen hat Dell ja die 900$ auch garnicht bestätigt ;D

Deine Quellen will ich mal sehen/Lesen...

deekey777
2007-04-24, 12:49:25
Bereits die R300 ALUs arbeiten superskalar.
Ich tippe auf CF-AA pro Karte oder Hybriden wie bei NV.
Vertexshader im USC ;) (passen sich ja dynamisch der Last an)
Das ist jetzt nicht dein Ernst? Ich dachte eher an die auferstandene Tesselationseinheit. ;D

Adam D.
2007-04-24, 12:53:27
1. Die 900$ für die Ultra sind pure Fantasie!
2. Die Ultra wird noch vor der XTX kommen.
3. Die Ultra wird es in normalen Stückzahlen geben.

MfG :cool:
Was, wenn ich alles 3 als Pure Fantasie bezeichne?

Gast
2007-04-24, 12:54:14
Schwach, sehr schwach. Denk aber dies waren auch die alten 8.3 Treiber und nicht der neue 8.361 oder gar 8.5 Treiber. Diesen wird man wohl fùr den Launch einsetzen. Kann man 15-20% mehr erwarten denk ich mal.

Super Grobi
2007-04-24, 13:01:41
Seh ich das richtig, daß die Karte genauso lang ist, wie die 8800gts? Natürlich MIT Kühler! Wenn ich mir bei Alternate eine 8800gts anguck und das Bild dort und anhand der PCIe Schnittstelle guck, sieht es so aus, als wenn diese exakt gleich lang wären.

WENN dem so ist, werde ich mir die Karte holen und auf ein 2D-Stromsparmodus hoffen ;)

SG

Gast
2007-04-24, 13:05:30
Mir leuchtet nicht ganz ein, warum bei dieser Karte kein 900-1000 MHz GDDR3 Speicher zum Einsatz kommt!?

Wenn nvidia schon bei Mainstreamkarten bis zu 1,1GHz GDDR3 vorweisen kann, warum wird dann bei einer High End Lösung daran gespart ? Das wäre die Chance, der GTS die Show zu stehlen!

dargo
2007-04-24, 13:06:24
Mir leuchtet nicht ganz ein, warum bei dieser Karte kein 900-1000 MHz GDDR3 Speicher zum Einsatz kommt!?

Wenn nvidia schon bei Mainstreamkarten bis zu 1,1GHz GDDR3 vorweisen kann, warum wird dann bei einer High End Lösung daran gespart ? Das wäre die Chance, der GTS die Show zu stehlen!
GTS = 320Bit SI
XT = 512Bit SI

;)

AnarchX
2007-04-24, 13:06:33
Weil man so den Kampfreis erreicht und schnellerer Speicher verhältnismässig bringen würde, immerhin sind es ja schon so über 100GB/s. ;)

deekey777
2007-04-24, 13:08:46
Krampfpreis:
The ATI Radeon HD 2900 XT is poised to have a street price approximately the same as the GeForce 8800 GTS, which currently has a suggested retailer price of $499.
http://www.dailytech.com/article.aspx?newsid=7043
Schwach, sehr schwach. Denk aber dies waren auch die alten 8.3 Treiber und nicht der neue 8.361 oder gar 8.5 Treiber. Diesen wird man wohl fùr den Launch einsetzen. Kann man 15-20% mehr erwarten denk ich mal.
Liest irgendjemand auch den Text?
Onto the benchmarks, the tests were conducted on an Intel D975XBX2 BadAxe2, Intel Core 2 Extreme QX6700 and 2x1GB DDR2-800 MHz. The operating system on the test system was Windows XP, with a fresh install before benchmarking each card. Testing of the AMD ATI Radeon HD 2900 XT was performed using the 8.361 Catalyst RC4 drivers, while the GeForce 8800 GTS used ForceWare 158.19 drivers

seahawk
2007-04-24, 13:09:16
Man sollte die heitigen NV Preise vergessen, wenn ATI endlich ausliefert. Die XT trifft auf die GTX.

[dzp]Viper
2007-04-24, 13:13:32
Krampfpreis:

Die Textpassage hat mich auch gewundert - warum da aufeinmal wieder 499$ steht obwohl doch die 399$ schon so gut wie fest standen?
Hoffe mal das ist nur ein Tippfehler ;(

James Ryan
2007-04-24, 13:16:19
Seh ich das richtig, daß die Karte genauso lang ist, wie die 8800gts? Natürlich MIT Kühler! Wenn ich mir bei Alternate eine 8800gts anguck und das Bild dort und anhand der PCIe Schnittstelle guck, sieht es so aus, als wenn diese exakt gleich lang wären.


Es ist schon länger bekannt dass die HD 2900 XT(X) genauso lang sein werden wie eine GTS. ;)

MfG :cool:

up¦²
2007-04-24, 13:16:33
Na dann fragt sich nur gegen welche GeForce 8800 GTS sie preislich antritt?
Womöglich die 320er? :tongue:
Laßt euch überraschen!

AnarchX
2007-04-24, 13:16:39
$399?
Wenn dann waren 399 € im Umlauf, die in Fuads letzer News auf 434€ stiegen.

Aber naja der anstehende Preiskamp wird daran wohl auch noch etwas ändern können. ;)

Adam D.
2007-04-24, 13:21:59
Bin sehr auf Nvidias Preissenkung gespannt, im Zuge der Veröffentlich des R600 müsste da doch sicher was zu machen sein ... oder?

Gaestle
2007-04-24, 13:22:59
XT was performed using the 8.361 Catalyst RC4 drivers


Nach ATi-Namensgebung dürfte der Cat8.3 doch erst im März 2008 erscheinen, oder? IMHO unglaubwürdig.

Winter[Raven]
2007-04-24, 13:28:56
Bin sehr auf Nvidias Preissenkung gespannt, im Zuge der Veröffentlich des R600 müsste da doch sicher was zu machen sein ... oder?

Wenn der R600 kommt, dann wird Nv auch ihre Preise anpassen ;), und wenn der R600 schneller sein, was man von einem Chip erwarten kann, der so viel später kommt. Werden die Preise bei NV vielleicht etwas niedriger liegen.

Wie gesagt, Nv hat bis heute >500k G80 ausgeliefert... da kann es sich Nv leisten auch billiger zu sein.

Blutmaul
2007-04-24, 13:29:53
Nach ATi-Namensgebung dürfte der Cat8.3 doch erst im März 2008 erscheinen, oder? IMHO unglaubwürdig.

Die 8,3irgendwas ist eine interne Versionsnummer, der Cat 7.4 hat auch schon 8,3er Treiberbestandteile:
"Driver Packaging Version 8.36-070314a3-044985C-ATI"

[dzp]Viper
2007-04-24, 13:31:03
Nach ATi-Namensgebung dürfte der Cat8.3 doch erst im März 2008 erscheinen, oder? IMHO unglaubwürdig.

/edit unsinn

Gaestle
2007-04-24, 13:31:13
Die 8,3irgendwas ist eine interne Versionsnummer, der Cat 7.4 hat auch schon 8,3er Treiberbestandteile:
Driver Packaging Version 8.36-070314a3-044985C-ATI

Ah... Danke.

Blutmaul
2007-04-24, 13:32:39
Ah... Danke.

Gern geschehn.

Gouvernator
2007-04-24, 13:35:13
Denke mal ati hat gerade andere sorgen, als sich um die paar user mit tripple2go zu kümmern.



Du glaubst doch nicht, das die 8800gtx das mit guten frames auf high-detail packt? Ich find die 512mb variante völlig ok, wenn crysis erst gegen ende des jahres kommen sollte, braucht man eh wieder ne neue karte. Und ob das game wirklich so viel vram frisst wage ich zu bezweifeln.

greetz

ja aber das sagt was aus über ihre kundenfreundlichkeit. ich glaube die Leute die solche Auflösung spielen kaufen bestimmt nicht die low-end Grafik und dann so ignorant zu sein einen klitze kleinen schalter nicht umzulegen... ich sage das weil ich weiss wie ihre vertikale auflösung funktioniert die geht bis 4000 Zeilen.

Adam D.
2007-04-24, 13:36:07
;5434920']Wenn der R600 kommt, dann wird Nv auch ihre Preise anpassen ;), und wenn der R600 schneller sein, was man von einem Chip erwarten kann, der so viel später kommt. Werden die Preise bei NV vielleicht etwas niedriger liegen.

Wie gesagt, Nv hat bis heute >500k G80 ausgeliefert... da kann es sich Nv leisten auch billiger zu sein.
Sollte die GTX billiger werden als der R600XT, dann wär das doch wirklich sehr fein. Aber noch ist ja der Preis der XT net geklärt, wenn der wirklich bei 399$ läge, wär das schon 'n mächtiger Kampfpreis, glaube nicht, dass Nvidia die GTX so weit runterdrückt.

Cubitus
2007-04-24, 13:39:05
Mal eine grobe Abschätzung zwischen der 2900XT & der 8800GTX
die GTX werte stammen von der Computer Base

FEAR:

84 FPS 2900XT
134FPS 8800GTX

Oblivion:

47,9 FPS 2900XT
74,8 FPS 8800GTX

Company of Heros:

92,1 FPS 2900XT
129,5 FPS 8800GTX

Call of Duty 2

73,5 FPS 2900XT
63 FPS 8800GTX

Wenn NV die Preisschraube auf ~ 450$ für die GTX setzt hat es die 2900XT verdammt schwer..

Henroldus
2007-04-24, 13:40:03
ne HD 1900XT mit einer Leistung zwischen 8800GTS und 8800GTX zum Preis einer 8800GTS(momentan ca 350eur) wäre eine option, die viele Käufer finden würde denke ich.

der Stromverbrauch und die PCB Länge schreckt mich neben dem Preis langfristig vom Kauf eine highendkarte ala 8800GTX ab.

highend ala XTX und GTX findet sowieso nicht viele Käufer und dient nur der Performancekrone.
512MB RAM sollten auch länger ausreichen als die teilweise beschränkende 320MB der kleinen GTS

no_surrender
2007-04-24, 13:41:32
mal abwarten was neue Treiber bringen, am Anfang hat ne x1950XTX ne 8800 GTS auch weggeputzt, wo dann die neunen Treiber raus gekommen sind sah es dann wieder anders aus.

Wechselbalg
2007-04-24, 13:47:53
Mal eine grobe Abschätzung zwischen der 2900XT & der 8800GTX
die GTX werte stammen von der Computer Base...


Das bringt mMn aber so nichts da Werte von vermutlich doch sehr unterschiedlichen Szenen bzw. Timedemos zu vergleichen. Da die GTS auf Computerbase auch unterschiedliche Werte ausgibt, ist das nämlich sehr vermutlich nicht der Fall.

Adam D.
2007-04-24, 13:50:46
Also ich behaupte mal, dass eine XT eine GTS schlagen muss, sonst ist es einfach nach so einer langen Zeit ein kompletter Reinfall. Und da zwischen GTS und GTX keine Welten liegen, halte ich es für wahrscheinlich, dass die XT zumindest an der GTX kratzt, höhere Performance definitiv nicht ausgeschlossen. ATi wird das Ding schon so getaktet haben, dass sie die Performancekrone holen - Zeit genug hatten sie.

Cubitus
2007-04-24, 13:56:00
Kann schon sein, ich sage ja es ist eine Abschätzung.

Aber bei solchen Vorzeige Benches wie die auf DailyTech,
versucht man imo schon ziemlich gut auszusehen.

Auch das jetzt die GTS als Vergleich hergeholt wird, macht mich stutzig.
vor allem da damals eine X800XT oder eine X1800XT eigentlich eher mit der
6800 Ultra oder mit der 7800GTX vergleichbar, wenn nicht sogar besser waren

Entweder ist der Treiber noch zu schlecht, das die Leistung nicht umgesetzt werden kann, oder die X2900XT kann wirklich nicht soo viel mehr..

Henroldus
2007-04-24, 13:58:28
Und da zwischen GTS und GTX keine Welten liegen, halte ich es für wahrscheinlich, dass die XT zumindest an der GTX kratzt, höhere Performance definitiv nicht ausgeschlossen.
Der Abstand bei CB beträgt unter Performance Rating 1600x1200 4xAA/16xAF
immerhin 32% und das ist die Zielauflösung von gehobenen Ansprüchen.
ein HD2900XT würde da also gut reinpassen.
XTX dann von mir aus auf 8800Ultra niveau zum preis einer GTX und ATI wäre wieder dabei.

san.salvador
2007-04-24, 13:59:17
Ich glaub nicht, dass der Treiber so unausgereift ist, schließlich hatten sie dafür wirklich sehr lange Zeit.
Und offenbar hat man ja auch einige Mitarbeiter vom normalen Treiberteam zur Entwicklung der Treiber für die neuen Karten abgestellt, wenn man sich die Qualität der letzten paar Catalysts ansieht - da wurden einige Böcke geschossen.

K4mPFwUr$t
2007-04-24, 14:01:46
es wurde doch vion ATI diesmal mehr abstand zwischen XT und XTX haben will, als bei den vorherigen gens.

Adam D.
2007-04-24, 14:03:17
Der Abstand bei CB beträgt unter Performance Rating 1600x1200 4xAA/16xAF
immerhin 32% und das ist die Zielauflösung von gehobenen Ansprüchen.
ein HD2900XT würde da also gut reinpassen.
XTX dann von mir aus auf 8800Ultra niveau zum preis einer GTX und ATI wäre wieder dabei.
Hmm, hab's mir auch nochmal angeschaut, dachte, es wär etwas weniger.
Wie gesagt, letztendlich wird der Preis entscheiden. Dass der R600 kein Reinfall wird, davon kann man wohl ausgehen. Nach der langen Wartezeit muss jetzt der Preis überzeugen :up:

robbitop
2007-04-24, 14:04:18
Das ist jetzt nicht dein Ernst? Ich dachte eher an die auferstandene Tesselationseinheit. ;D
Eine Tesslationseinheit ist in D3D10 nicht vorgesehen. Also Verschwendung von Transistoren. Da man von dynamischer Geometriebeschleunigung redet, gehe ich davon aus, dass man die Eigenheit von Unified Shader Cores meint. ;) (PR Gelaber halt)

Wechselbalg
2007-04-24, 14:07:43
@Cubitus: Ich meinte auch nur, dass man es eben rein zur GTS beurteilen kann.

Bei Oblivion könnte ich z.B. die Daten dann insgesamt hervorholen, die zeigen, dass man es nicht direkt gegeneinander stellen kann, sondern die GTS eher als Orientierungspunkt setzen könnte.

Oblivion:

74,8 FPS 8800GTX (Computerbase)
66,1 FPS 8800GTS (Computerbase)

47,9 FPS 2900XT (Daily Tech)
39,5 FPS 8800 GTS (Daily Tech)

Insofern kann man sagen, dass innerhalb der Tests sich z.B. bei Oblivion schon andeutet, dass es zwar durchaus an eine 8800GTX heranreichen kann, aber diese sicherlich nicht durchgängig schlagen wird. (Ist ja auch je nach Szene eine ganz andere Belastung)

Vermutlich wird es aber wohl eher irgendwo zwischen GTS und GTX liegen, was ja nicht unbedingt schlimm sein muss, je nachdem wo man es im Markt einordnet.

Henroldus
2007-04-24, 14:08:28
Hmm, hab's mir auch nochmal angeschaut, dachte, es wär etwas weniger.
Wie gesagt, letztendlich wird der Preis entscheiden. Dass der R600 kein Reinfall wird, davon kann man wohl ausgehen. Nach der langen Wartezeit muss jetzt der Preis überzeugen :up:
Schade, dass AMD/ATI derzeit nur über den Preis konkurieren kann.
Gestern haben sie 1,8Mrd :eek: Dollar neue Schulden aufgenommen, wenn jetzt kein Knaller ala K10 plus R600 @Hardlaunch kommt wird es schwer für die Jungs.

Adam D.
2007-04-24, 14:13:03
Schade, dass AMD/ATI derzeit nur über den Preis konkurieren kann.
Gestern haben sie 1,8Mrd :eek: Dollar neue Schulden aufgenommen, wenn jetzt kein Knaller ala K10 plus R600 @Hardlaunch kommt wird es schwer für die Jungs.
Jo, hab's auch grad gelesen - sie riskieren irgendwie schon 'ne Menge. Die Aussichten auf den K10 sehen ja nicht so schlecht aus und auch der R600 wird zu überzeugen wissen, wenn man ihn den Kaufen kann und wenn man zumindest zur Vorstellung mit dem R600XTX posen kann ;D

Cubitus
2007-04-24, 14:14:39
@Cubitus: Ich meinte auch nur, dass man es eben rein zur GTS beurteilen kann.

Bei Oblivion könnte ich z.B. die Daten dann insgesamt hervorholen, die zeigen, dass man es nicht direkt gegeneinander stellen kann, sondern die GTS eher als Orientierungspunkt setzen könnte.



Insofern kann man sagen, dass innerhalb der Tests sich z.B. bei Oblivion schon andeutet, dass es zwar durchaus an eine 8800GTX heranreichen kann, aber diese sicherlich nicht durchgängig schlagen wird. (Ist ja auch je nach Szene eine ganz andere Belastung)

Vermutlich wird es aber wohl eher irgendwo zwischen GTS und GTX liegen, was ja nicht unbedingt schlimm sein muss, je nachdem wo man es im Markt einordnet.
über 26, FPS Differenz:D ja gut ok, ist schon etwas zu viel Toleranz..

Mal abwarten bis die ersten richtigen Vergleiche auftauchen:)
und dann wäre ja da noch die XTX

Aber wenn der Preis XT wirklich so niedrig angesetzt wird,
wird sich das Teil auch verkaufen.. stimmt.

Godmode
2007-04-24, 14:24:04
Jo, hab's auch grad gelesen - sie riskieren irgendwie schon 'ne Menge. Die Aussichten auf den K10 sehen ja nicht so schlecht aus und auch der R600 wird zu überzeugen wissen, wenn man ihn den Kaufen kann und wenn man zumindest zur Vorstellung mit dem R600XTX posen kann ;D

Mit dem K10 werden sie in eine Preisschlacht mit dem 45nm Prenryn verwickelt werden. Der K10 wird laut aktuellen Leaks in 65nm gefertigt und daher IMHO für AMD teurer als für INTEL der Penryn. Man kann nur hoffen dass der K10 wirklich gut wird und den Penryn in Schach halten kann.

Zu den R600 XT Zahlen: Ohne Angaben darüber, welche Savegames oder Timedemos verwendet wurden, kann darüber schwer eine Aussage gemacht werden. Es lässt allerdings auf mehr hoffen. Ich denke in den nächsten zwei Wochen werden wir sicherlich noch mehr Zahlen bekommen.

Gast
2007-04-24, 14:29:38
Sorry, aber für mich ist die 2900XT ein Reinfall, so viel später und dann diese Performance.......

Wenn die GTX von Nvidia annähernd an den Preis der 2900XT angepasst wird ist klar welche Karte gekauft wird.

Natürlich kommen weitere Faktoren hinzu, bei denen ich von ATI ERWARTE, diese zu erfüllen, sonst ist die Karte aber wirklich ein kompletter Reinfall,die außer von paar Fanboys gelobt wird, nichts reißen kann.

BQ : da erwarte ich das sie mind. gleich mit der G80 ist.

Stromverbrauch: Nunja, verglich mit der G80 muss sie unbedingt im 2D-Modus!!! punkten

Lautstärke: die hatten so viel Zeit, jetzt müssen sie einen leiseres Kühlungsystem als die G80 rausbringen, was eigentlich nie ATI's Stärke war.

Treiber: müssen!! von Anfang gut sein, denn wer will schon ein halbes Jahr warten, bis es gute Treiber gibt? Da kommt ja schon die nächste Grafikgeneration.

Der Erwartungdruck der neuen so verspätetet Graka von ATI ist groß, nachdem sie zeitlich gesehen über ein halbes Jahr länger gebraucht haben als Nvidia.

Ich habe das Gefühl, dass ATI/AMD diese Erwartungen nicht erfüllen kann.

Deswegen hoffe ich einfach, dass die 8800GTX endlich mal billiger wird!

AtTheDriveIn
2007-04-24, 14:30:05
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/

seahawk
2007-04-24, 14:32:17
es wurde doch vion ATI diesmal mehr abstand zwischen XT und XTX haben will, als bei den vorherigen gens.

Ich mage bezweiflen, dass 6-7% mehr GPU-Takt und schnellerer Speciher sehr viel bringen.

AnarchX
2007-04-24, 14:36:10
Ich mage bezweiflen, dass 6-7% mehr GPU-Takt und schnellerer Speciher sehr viel bringen.

Die 512MB mehr können in bestimmten Qualitätseinstellungen/Auflösungen sicherlich einiges bringen.
Zudem war auch mal die Rede von einem Taktunterschied von 10-15%.

Adam D.
2007-04-24, 14:39:33
Ganz genau werden wir's wohl erst Mitte Mai erfahren ;)

Bezüglich K10 vs. Penryn: Wer sich mit Intel anlegt, weiß, worauf er sich einlässt. Ich bin zuversichtlich, dass AMD einen konkurrenzfähigen Prozessor bringt.

Gmax
2007-04-24, 14:40:13
Was denkt ihr, kann die XTX nach den jetztigen Benches die GTX schlagen? *zweifel*

James Ryan
2007-04-24, 14:41:08
Was denkt ihr, kann die XTX nach den jetztigen Benches die GTX schlagen? *zweifel*

Denke schon, aber interessiert das jemanden im Juni noch? ;D

MfG :cool:

Sternenkind
2007-04-24, 14:45:05
Mai, Juni, who cares?

Godmode
2007-04-24, 14:45:29
Computerbase: "ATis Schützling hat weiterhin mit 320 Stream-Prozessoren einen großen Vorteil gegenüber den 96 Stream-Prozessoren der GeForce 8800 GTS."

Die Redakteure dort werden auch immer schlechter. :rolleyes:

[dzp]Viper
2007-04-24, 14:47:10
Was denkt ihr, kann die XTX nach den jetztigen Benches die GTX schlagen? *zweifel*

Ziemlich sicher - ja. Ob es für die (placebo-) 8800GTX Ultra reicht - mal gucken

Nakai
2007-04-24, 14:48:55
Überschätzt die HD2900XT bitte nicht, imho wohl eher drunter, aber nur knapp.

@Bans3i: Oh weh, CB macht sich langsam lächerlich. Und die User im Forum glauben denen alles. Oh Mann^^
Naja solange die Benches immer noch so ein gutes Niveau haben, bin ich zufrieden, auch wenn die einige Fehler machen.

mfg Nakai

The_Invisible
2007-04-24, 14:56:23
interessant wäre noch stromverbrauch und wie die "high quality" settings ausschauen, könnte ja alles heißen

mfg

Gast
2007-04-24, 15:00:10
Und da zwischen GTS und GTX keine Welten liegen

Im Extremfall liegen 50% zwischen beiden Karten - nämlich dann, wenn die Rechenkraft limitiert. Ansonsten ist der Unterschied bei ca. 35%.
Mal gucken, ob nVidia nicht noch ein Zwischending bringt. Eine GT mit 7 Cluster und 5 ROPs - Partitionen.

Gmax
2007-04-24, 15:00:31
Denke schon, aber interessiert das jemanden im Juni noch? ;D

MfG :cool:

Oder besser September? (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62383)

Für AMD/ATI scheint dieses Jahr echt gar nichts zu laufen :(

Gast
2007-04-24, 15:07:10
Oder besser September? (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62383)

Für AMD/ATI scheint dieses Jahr echt gar nichts zu laufen :(
Wahrscheinlich wird die XTX dann in 65 nm produziert, wird auch dann der Grund der Verschiebung sein. Allerdings ist das ja nur eine höhergetaktete Version der XT, also nichts bahnbrechendes. Aber wie es scheint, ist das Konzept des R600 alles andere als optimal. Da wird AMD beim R700 einen Bruch machen müssen, während nV auf dem G80 aufbauen kann.

[dzp]Viper
2007-04-24, 15:09:13
Oder besser September? (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62383)

Für AMD/ATI scheint dieses Jahr echt gar nichts zu laufen :(

In der Wirtschaft ist das 3. Quartal nicht im Herbst sondern vom 1. April bis 30. Juni.... ;)

DrumDub
2007-04-24, 15:12:49
Viper;5435212']In der Wirtschaft ist das 3. Quartal nicht im Herbst sondern vom 1. April bis 30. Juni.... ;) nicht zwangsläufig. das hängt vom unternehmen ab, wann das wirtschaftsjahr beginnt...

[dzp]Viper
2007-04-24, 15:13:26
nicht zwangsläufig. das hängt vom unternehmen ab, wann das wirtschaftsjahr beginnt...

Bei den Grafikkartenherstellern war es aber bisher immer so...

AnarchX
2007-04-24, 15:14:04
Viper;5435212']In der Wirtschaft ist das 3. Quartal nicht im Herbst sondern vom 1. April bis 30. Juni.... ;)

Und wer sagt, dass man hier von Wirtschaftsquartalen redet, die für den Kunden absolut uninteressant sind? ;)
(Beim HD-Series Launch spricht man auch vom 2. Quartal, also der nach der "normalen" Quartalsrechnung.)

[dzp]Viper
2007-04-24, 15:17:31
Und wer sagt, dass man hier von Wirtschaftsquartalen redet, die für den Kunden absolut uninteressant sind? ;)

Jo man kann natürlich auch alles schlecht reden und/oder anderen Leuten das Wort im Mund umdrehen - macht Spass oder?

Seht euch lieber die aktuellen Informationen an.

2900XT Release Mitte Mai (14. oder 19.5.)
2900XTX in 65nm Release Mitte/Ende Juni (fällt genau ans Ende des 3. Quartals)

Was ist daran nicht zu verstehen?

Gast
2007-04-24, 15:19:42
Da hier dauernd GTS mit der XT vergleichen wird:
Im schlimmsten Fall können hier bis zu 100 Watt Unterschied im Stromverbrauch vorhanden sein. Dieser 8Pin und 6Pin Anschluss ist sehr bitter, wenn man ihn für das Übertakten benötigen sollte.

AnarchX
2007-04-24, 15:24:36
Viper;5435230']
Seht euch lieber die aktuellen Informationen an.

2900XT Release Mitte Mai (14. oder 19.5.)
2900XTX in 65nm Release Mitte/Ende Juni (fällt genau ans Ende des 3. Quartals)


Wobei das doch noch eher sehr fragwürdig ist.

Wenn schon 65nm, dann auf der XT um hier eine höhere Marge und noch mehr an der Kühlung zu sparen und nicht auf der exklusiven und wohl teuren XTX, die den Markt auch wahrscheinlich nicht gerade in riesigen Stückzahlen erreichen wird.

Imo setzen XT und XTX auf den R600 in 80nm und gegen Herbst kommt dann der R650 in 65nm(HD 2950XT(X)? + HD 2950Pro(RV670)?).

Nakai
2007-04-24, 15:24:50
Da hier dauernd GTS mit der XT vergleichen wird:
Im schlimmsten Fall können hier bis zu 100 Watt Unterschied im Stromverbrauch vorhanden sein. Dieser 8Pin und 6Pin Anschluss ist sehr bitter, wenn man ihn für das Übertakten benötigen sollte.

:|

Nur das man auch einen 6 Pin in den 8 Pin-Anschluß stöpseln kann. Imho geht theoretisch nur 225 Watt und dieser Wert wird niemals erreicht.

mfg Nakai

[dzp]Viper
2007-04-24, 15:25:53
Wobei das doch noch eher sehr fragwürdig ist.

Wenn schon 65nm, dann auf der XT um hier eine höhere Marge und noch mehr an der Kühlung zu sparen und nicht auf der exklusiven und wohl teuren XTX, die den Markt auch wahrscheinlich nicht gerade in riesigen Stückzahlen erreichen wird.

Imo setzen XT und XTX auf den R600 in 80nm und gegen Herbst kommt dann der R650 in 65nm.

Die 2900XT wird sicher auch den 65nm Refresh bekommen... alles andere wäre Humbug.

P.S. Les mal die ganzen Links die hier gepostet werden... da steht das alles haargenau drin ;)

BvB123
2007-04-24, 15:27:04
Viper;5435230']Jo man kann natürlich auch alles schlecht reden und/oder anderen Leuten das Wort im Mund umdrehen - macht Spass oder?

Seht euch lieber die aktuellen Informationen an.

2900XT Release Mitte Mai (14. oder 19.5.)
2900XTX in 65nm Release Mitte/Ende Juni (fällt genau ans Ende des 3. Quartals)

Was ist daran nicht zu verstehen?

Du meinst des 2. Quartals oder? ;)

Gast
2007-04-24, 15:27:57
:|
Nur das man auch einen 6 Pin in den 8 Pin-Anschluß stöpseln kann. Imho geht theoretisch nur 225 Watt und dieser Wert wird niemals erreicht.
mfg Nakai

6Pin + 8Pin ermöglicht bis zu 300 Watt.
Laut Gibbo benötigt man diese Kombination, wenn man übertakten will.
Und da bei der GTX dauernd auf dem IDLE - Verbrauch rumgeritten wurde, wird sich über einen deutlich höhreren 3D Verbrauch nicht weniger ärgern.

[dzp]Viper
2007-04-24, 15:28:07
Du meinst des 2. Quartals oder? ;)

Eben nicht - in der Wirtschaft ist das 3. Quartal Ende Juni zuende... (bei fast allen "Wirtschaftsmenschen" so ;) )

AnarchX
2007-04-24, 15:30:05
Viper;5435259']Die 2900XT wird sicher auch den 65nm Refresh bekommen... alles andere wäre Humbug.

P.S. Les mal die ganzen Links die hier gepostet werden... da steht das alles haargenau drin ;)

Die einzige Seite die über einen R600 in 65nm spricht ist Digitimes, die aber gleich behaupten, dass der R600 80nm übersprungen hätte. (http://www.digitimes.com/mobos/a20070423PD213.html) (Was aber Unsinn ist da AMD-Dokumente schon die 80nm bestätigt haben.)

Selbst Fuad sieht den R600 in 65nm -> R650 im Herbst oder Winter (http://www.fudzilla.com/index.php?option=com_content&task=view&id=660&Itemid=34).

BvB123
2007-04-24, 15:32:12
Hmm kann mich nicht daran erinnern das AMD jemals dies so angegeben hat...

naja egal, unwichtig

Gruß

AnarchX
2007-04-24, 15:34:01
Hmm kann mich nicht daran erinnern das AMD jemals dies so angegeben hat...


Ganz genau, in öffentlich Bekanntmachungen spricht Hector immer in der Kunden-Quartalsrechnung.
-> Das Versprechen, dass der R600 noch im Q1 kommt. Und dann die Bekanntmachung, dass es doch erst ein Family-Launch im Q2 wird.

Anarchy-HWLUXX
2007-04-24, 16:08:02
Hmm, dieses "Custom Filter" wär mal echt sehr geil, könnte man das AA für jedes Spiel perfekt abstimmen.
Und diese "Black Box" ... Was da wohl drin sein mag? 'N Gutschein für HL³? ;D

Nö.

The Black Box wird für den PC erscheinen und die Spiele Half-Life 2: Episode Two, Portal und Team Fortress 2 enthalten.


Viper;5435230']Jo man kann natürlich auch alles schlecht reden und/oder anderen Leuten das Wort im Mund umdrehen - macht Spass oder?

Seht euch lieber die aktuellen Informationen an.

2900XT Release Mitte Mai (14. oder 19.5.)
2900XTX in 65nm Release Mitte/Ende Juni (fällt genau ans Ende des 3. Quartals)

Was ist daran nicht zu verstehen?

Dann wäre der XT launch auch im Q3 - ist er aba nicht, es sind KEINE Fiskaljahre gemeint ...

Adam D.
2007-04-24, 16:19:14
Haja wunderbar, wieder mal einen Gutschein für Spiele, die so ~2010 erscheinen :rolleyes:

AnarchX
2007-04-24, 16:24:54
Imo setzen XT und XTX auf den R600 in 80nm und gegen Herbst kommt dann der R650 in 65nm(HD 2950XT(X)? + HD 2950Pro(RV670)?).

Liest Fuad mit? :uponder:
ATI's RV670 comes in Q3 - A new performance part (http://www.fudzilla.com/index.php?option=com_content&task=view&id=672&Itemid=1)

Anarchy-HWLUXX
2007-04-24, 16:26:33
Computerbase: "ATis Schützling hat weiterhin mit 320 Stream-Prozessoren einen großen Vorteil gegenüber den 96 Stream-Prozessoren der GeForce 8800 GTS."

Die Redakteure dort werden auch immer schlechter. :rolleyes:

... schaut eher nach gezielter ATI Werbung aus.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/

Wollen die eigentlich absichticht ATi pushen oder was ?

Die werte von FEAR und CoH werden mal eben unterschlagen :rolleyes: und die Performance schaut gleich viel besser aus ...

Gast
2007-04-24, 16:26:46
http://www.dailytech.com/article.aspx?newsid=7043

Henroldus
2007-04-24, 16:29:09
http://www.dailytech.com/article.aspx?newsid=7043
guten morgen ;)

Coda
2007-04-24, 16:39:13
8xMSAA+1,5x1,5SSAA
Das gibt 18 Samples pro Pixel und wäre außerdem äußerst unschön.

Nakai
2007-04-24, 16:44:08
6Pin + 8Pin ermöglicht bis zu 300 Watt.
Laut Gibbo benötigt man diese Kombination, wenn man übertakten will.
Und da bei der GTX dauernd auf dem IDLE - Verbrauch rumgeritten wurde, wird sich über einen deutlich höhreren 3D Verbrauch nicht weniger ärgern.

Lol, die denkst, dass der R600 durch die Übertaktung, an die 300 Watt rankommt. ;)

Man kann keine Leitung komplett auslasten, denn das NT oder das MB könnten das nicht bewältigen. Die 8 Pin-Leitung wird wohl nur hinzugeschalten, wenn die 6 Pin-Leitung an ihren Grenzen geht und womöglich nicht die volle Leistung liefern wird.

mfg Nakai

Lawmachine79
2007-04-24, 16:45:50
Das gibt 18 Samples pro Pixel und wäre außerdem äußerst unschön.

Hm wieso wäre das unschön? Wäre doch schöner als ohne SSAA-Anteil oder irre ich da? Ich meine NV hat kurze Zeit auch mal einen Modus mit x,5-SSAA-Anteil angeboten. Und daß es 18 Samples per Pixel sind ist klar - wird aber keine Marketing-Abteilung der Welt interessieren - dann wird einfach 8x(1,5+1,5) gerechnet und schon hast Du 24x ;D - Du weißt doch, ISSE macht ja auch das Internet schneller und MMX lässt Intelingenieure viiiieeell flüssiger durchs Bild hopsen.
Aber hast Recht, irgendwer, ich glaube Grestorn hat auf 6xMSAA + 2x2 SSAA getippt, ich denke das wird zutreffen.

Haja wunderbar, wieder mal einen Gutschein für Spiele, die so ~2010 erscheinen :rolleyes:

Hmm, wenn die Performancewerte stimmen, muss ATI soviel in die Packung hauen wie möglich - am Besten noch ein T-Shirt und ein Baseball-Cape dabei - und 'nen Geduldswürfel, für den R700 ;D - und 'ne "Making of R600" - DVD. Das alles geliefert in eine Stahlbox mit soviel Inhalt, daß sie darüber wegtäuscht, daß ATI's niegelnagelneue "Cutting-Edge"-Technologie nicht an NVs 6 Monate alten Antiquitäten vorbeikommt.

Gast
2007-04-24, 16:47:38
Lol, die denkst, dass der R600 durch die Übertaktung, an die 300 Watt rankommt. ;)

Nein. Steht auch nirgends.

Die 8 Pin-Leitung wird wohl nur hinzugeschalten, wenn die 6 Pin-Leitung an ihren Grenzen geht und womöglich nicht die volle Leistung liefern wird.
mfg Nakai

Die Last wird auf alle drei Leitung verteilt, eventuell wird über den 8Pin Anschluss mehr Last aufgelegt.
Das ändetr aber nichts an der Tatsache, dass wir dann einem Stromverbrauch von ca. 200 Watt hätten. Das wäre fast 100 Watt mehr als bei der GTS.
Na, wer übe da noch Kritik am IDLE-Mehrverbrauch des G80...

AnarchX
2007-04-24, 16:48:31
Lol, die denkst, dass der R600 durch die Übertaktung, an die 300 Watt rankommt. ;)


Wenn sie daran kommen würde, müssten schon zwei 8Pin verbaut sein. ;)

Aber dass sie mit Overdrive über 200W kommt, würde ich gar nichtmal für so unrealistisch halten
Und da dafür 2x6Pin + PCIe langsam knapp werden könnten, wenn man noch minderqualitative Boards berücksichtigt, sind 8 Pin + 6 Pin für Overdrive gar nichtmal so unrealistisch.

Nakai
2007-04-24, 16:49:40
Wenn sie daran kommen würde, müssten schon zwei 8Pin verbaut sein. ;)

Aber dass sie mit Overdrive über 200W kommt, würde ich gar nichtmal für so unrealistisch halten
Und da dafür 2xPin + PCIe langsam knapp werden könnten, wenn man noch minderqualitative Boards berücksichtigt, sind 8 Pin + 6 Pin für Overdrive gar nichtmal so unrealistisch.

Da widerspreche ich nicht, jedoch solange die Karte @stock ist, wird sie nicht die 200 Watt ankratzen.

Nein. Steht auch nirgends

Okay, dann nehme ich meine Behauptung zurück.

Die Last wird auf alle drei Leitung verteilt, eventuell wird über den 8Pin Anschluss mehr Last aufgelegt.

Vll ein Puffer?

Das ändetr aber nichts an der Tatsache, dass wir dann einem Stromverbrauch von ca. 200 Watt hätten.

Wenn dann nur beim Übertakten nach meiner Ansicht.


mfg Nakai

Gast
2007-04-24, 17:02:03
http://uk.theinquirer.net/?article=39145

reunion
2007-04-24, 17:03:17
24xAA hoert sich an als bliebe man maximal bei 6xSGMS und ruestet das nun mit 2x2 OG auf (das koennte sogar schon R300). So kann man zahlenmaessig mit NV einigermassen mithalten. Hat NV ja auch lange gemacht.

Wäre möglich. Allerdings zählt ATi beim AA ja auch die SSAA-Samples mit, wodurch man damit schon bei 28xAA wäre. Vielleicht ein Pendant zu CSAA? Also 8xMSAA plus je zwei "CFAA"-Samples?

Was, wenn ich alles 3 als Pure Fantasie bezeichne?

Dann hast du recht.

ATI Radeon HD 2900 XT Performance Benchmarks
ATI Radeon HD 2900 XT puts up some impressive numbers in benchmarks
@Dailytech (http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm)

Naja, ein Vergleich zur GTS in 1280x1024...
Der Vergleich zur non-USA QFX5500 ist auch eher daneben, wie es wohl gegen QFX 4600 bzw. 5600 aussehen würde. ;)

Ohne AA/AF und in der Auflösung kann das alles oder nichts bedeuten. Vermutlich würde da selbst ein R580 problemlos mithalten können. Die HD2900XT ist jedenfalls in jedem Bench schneller als die GTS, wobei beide tw. fast exakt gleichauf liegen, was deutlich auf ein CPU-Limit hindeutet.

Gast
2007-04-24, 17:04:27
hilft das hier nicht ?

Anisotropic filtering and AntiAliasing were vastly improved as well, and R600 marchitecture marks off the start of "NextGen AA". A new AA mode is called Custom Filter AA (CFAA), and it peaks at 24x. 8x MultiSample AA mode was completely changed, so expect some fireworks and comparisons between G80 and R600 hardware. Of course, all existing AA tech is supported.

Superheld
2007-04-24, 17:09:33
http://uk.theinquirer.net/?article=39145

sehr interessant:smile:

ps: die XT rennt mit 742/1650mhz:|

Gast
2007-04-24, 17:11:15
Wäre möglich. Allerdings zählt ATi beim AA ja auch die SSAA-Samples mit, wodurch man damit schon bei 28xAA wäre. Vielleicht ein Pendant zu CSAA? Also 8xMSAA plus je zwei "CFAA"-Samples?


Sie nennen es "Custom Filter", was eher nicht auf eine ähnliche Methode wie nVidia's CSAA hindeutet.

up¦²
2007-04-24, 17:14:28
Die Quadro beim DT-Antesten kostet aber... :tongue:
For engineering, this card might be incredible...
By Toolpost on 4/24/07, Rating: 2
By Toolpost on 4/24/2007 9:17:44 AM , Rating: 2

What I'm really interested in is that this card has much
better numbers than the NVIDIA Quadro FX 5500 when testing
"engineering" features, and the 5500 retails for ~$2.5! If
the numbers hold for real-world applications, I'll be
pulling the FX 3500 from my Dell 690, and throwing one of
these in.

http://www.google.com/products?q=NVIDIA+Quadro+FX+5500+&btnG=Search+Products&hl=en
Da wird es eng mit der HD 2900 XTX 1k!

LovesuckZ
2007-04-24, 17:24:34
Wenn von Vec5 statt von Vec4+1Skalar gesprochen wird, muss man dann von einer Unfähigkeit der Splittung ausgehen?

Lawmachine79
2007-04-24, 17:24:58
was eher nicht auf eine ähnliche Methode wie nVidia's CSAA hindeutet.
Genau, denn:
Of course, all existing AA tech is supported.
Das heisst dann für mich frei kombinierbare AA-Modi

deekey777
2007-04-24, 17:30:09
Liest Fuad mit? :uponder:
ATI's RV670 comes in Q3 - A new performance part (http://www.fudzilla.com/index.php?option=com_content&task=view&id=672&Itemid=1)
Wieso hier?
Diese Wahnsinnsmeldung ist uralter Hut. CJ hat schon vor 4-6 Wochen im B3D-Forum gepostet, dass der Nachfolger des RV570 irgendwann Ende Sommer kommen soll.
Wenn von Vec5 statt von Vec4+1Skalar gesprochen wird, muss man dann von einer Unfähigkeit der Splittung ausgehen?
Oder von der Unfähigkeit des Redakteurs, jeden Quatsch ungefiltert zu schreiben?

reunion
2007-04-24, 17:33:43
Wenn von Vec5 statt von Vec4+1Skalar gesprochen wird, muss man dann von einer Unfähigkeit der Splittung ausgehen?

So wie es INQ schreibt ja. Nur ist das IMHO ziemlich unrealistisch, gerade bei 5D-ALUs. Viel interessanter als diese schon längst bekannte ALU-Geschichte wäre endlich man die TMU-Anzahl.

Nakai
2007-04-24, 17:35:26
32 Bi-TMUs?

mfg Nakai

€: Zu den Shader:

Das es 5D-Shader werden ist klar, jedoch könnten diese Vec5-Shader noch gesplittet werden, in 4+1 oder in 1+2+2 oder gar 3+2.
Nur wie es der INQ bringt, ist es falsch.

Gast
2007-04-24, 17:40:20
32 Bit TMUs?Was bitte sind denn "32-bit-TMUs"?

Nakai
2007-04-24, 17:43:03
Eh 32 Bi TMUs....hab mich verschrieben, hab es geändert.

mfg Nakai

Godmode
2007-04-24, 17:44:37
Was bitte sind denn "32-bit-TMUs"?

Ich denke er meint sowas:


Support for FP32 texture formats with filtering

edit: ok er meinte doch was anderes.

Gast
2007-04-24, 17:47:21
R600 in der Performance enttäuschend?

.....So soll das Topmodell von ATI Probleme haben, überhaupt auf das Niveau einer NVIDIA GeForce 8800 GTX zu kommen. Eine GeForce 8800 Ultra würde sich sogar "langweilen", heißt es dort.


http://www.hardtecs4u.com/?id=1177352560,86918,ht4u.php

deekey777
2007-04-24, 17:48:15
32 Bit TMUs?

mfg Nakai

€: Zu den Shader:

Das es 5D-Shader werden ist klar, jedoch könnten diese Vec5-Shader noch gesplittet werden, in 4+1 oder in 1+2+2 oder gar 3+2.
Nur wie es der INQ bringt ist falsch.
32-bit-TMUs?:|
Die Xenos-ALUs wie auch die VS-ALUs des R520 sind "5D": Vec4+1. Sie sind immer mindestens in 4+1 gesplittet. Die PS-ALUs des R520 sind Vec4-ALUs mit 3+1-Splitt ALUs, die des G70 sind Vec4-ALUs mit 3+1 und 2+2. Vec2-Operationen sind aber im Kommen, wenn man Demirug glauben darf.

Lawmachine79
2007-04-24, 17:51:41
http://geizhals.at/deutschland/a224906.html

Da bin ich ja auf ATIs Preisgestaltung gespannt - 640MB GTS für 325€...

Henroldus
2007-04-24, 17:52:24
R600 in der Performance enttäuschend?

.....So soll das Topmodell von ATI Probleme haben, überhaupt auf das Niveau einer NVIDIA GeForce 8800 GTX zu kommen. Eine GeForce 8800 Ultra würde sich sogar "langweilen", heißt es dort.


http://www.hardtecs4u.com/?id=1177352560,86918,ht4u.php
vom 23. april mensch! uralt
raus mit den gästen hier

http://geizhals.at/deutschland/a224906.html

Da bin ich ja auf ATIs Preisgestaltung gespannt - 640MB GTS für 325€...
wichtig ist, welcher preis am markt ankommt(nicht die launchpreise)

Adam D.
2007-04-24, 17:55:04
R600 in der Performance enttäuschend?

.....So soll das Topmodell von ATI Probleme haben, überhaupt auf das Niveau einer NVIDIA GeForce 8800 GTX zu kommen. Eine GeForce 8800 Ultra würde sich sogar "langweilen", heißt es dort.


http://www.hardtecs4u.com/?id=1177352560,86918,ht4u.php
"Best Value High-End" ... Man findet aber auch immer 'ne Marketing-Lücke. Freu mich schon auf Nvidia, die die schön auseinander nehmen werden ;D

robbitop
2007-04-24, 17:55:18
Wenn von Vec5 statt von Vec4+1Skalar gesprochen wird, muss man dann von einer Unfähigkeit der Splittung ausgehen?
Der Redakteur weiss offensichtlich nicht, was er schreibt. Klingt als haette irgendein PR Mann ihm das in den Mund gelegt. TheInq eben.
Es wuerde schlichtweg keinen Sinn machen, wenn die ALU kein Co-Issue beherrschen wuerde. Denn nur so kann man Vertexshader auch beschleunigen. Sonst waeren 5D ALUs so sinnvoll wie ein drittes Bein.
Ich gehe von moeglichen Splits 3:2 und 3:1:1 aus.

Dadi
2007-04-24, 18:19:09
Erste Benchmarks... (nicht mal durchgelesen, wollts mal posteN9

http://www.dailytech.com/article.aspx?newsid=7043

Da lohnt sich der Umstieg von der 8800 GTX auf die r600 doch nicht.