PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 10


Seiten : [1] 2 3 4 5 6

robbitop
2007-05-03, 22:53:35
Danke Quasar :)
--------------------
Teil neun: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5461441#post5461441

deekey777
2007-05-03, 23:20:37
Ist das aber ein schönes Eröffnungsposting?
News und Infos zu kommenden Grafikkarten. (Sorry für R600-Lastigkeit) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=359698)
In dem Info-Thread steht wirklich alles, was interessant ist.

dildo4u
2007-05-03, 23:26:26
Sagt mal ATI verkauft ja auch nur Chips oder?Das heißt die Kosten für die Boards übernimmt der Kartenhersteller.Die werden sicher kotzen wenn sie ein 512Bit PCB so billig "verhökern" müssen da bleibt whol nicht viel vom Gewinn.Die werden sicherlich kalkuliert haben das sie die ersten 512Bit Karten für 500€+ verkaufen.

deekey777
2007-05-03, 23:28:41
Thowe meinte, dass man die PCBs bei einem weiteren Hersteller bestellt und dieser dann fertige PCBs an den eigentlichen Hersteller (Sapphire) liefert.
Man kann auch seine eigenen PCBs herstellen (lassen).

Ailuros
2007-05-03, 23:30:55
Das wuerde mich wundern. Wie lange soll diese Urban Legend denn noch bestehen?

CTF Face3 flyby, 1600*1200, 16xAF:

16xQ = 211.67
8xS = 220.62
16xS = 110.63
4*4OGSS = 51.13
32xS = 40.78

FEAR, 1280*960, 16xAF, no SS:

16xQ = 50.00
8xS = 65.00

An der Fuellrate liegt es auf jeden Fall erstmal nicht; eine bessere Erklaerung rein zufaellig?

Und nein ob wo und wieso ROPs limitieren koennten ist nicht ganz so stark OT fuer diese Threads.

StefanV
2007-05-03, 23:50:31
Die Gehäusetemperatur erreicht 52°C? Wie soll das denn gehen?
Übersetzungsfehler eventuell??
Case Temp kann viel bedeuten, auch Kartentemperatur, Speichertemperatur.

Oder selbst wenns vom Brett ausgelesen wurd, kanns sein, das der Temp Sensor an einem warmen Bauteil sitzt (NB/SB) oder gar zwischen den PWMs für die CPU.

Also einfach mal jemand der was falsch abgelesen hat...

Ailuros
2007-05-04, 00:12:52
52C koennte auch "ambient GPU" Temperatur sein.

StefanV
2007-05-04, 02:51:51
Das meint ich mit Kartentemperatur ;) ;)

sun-man
2007-05-04, 07:14:57
Habt Ihr den schon? selbst programmiertes DX10 Techdemo von Beyond3d?
http://www.projectlan.de/download,file,140,1,28.htm

Lawmachine79
2007-05-04, 07:41:56
CTF Face3 flyby, 1600*1200, 16xAF:

16xQ = 211.67
8xS = 220.62
16xS = 110.63
4*4OGSS = 51.13
32xS = 40.78

FEAR, 1280*960, 16xAF, no SS:

16xQ = 50.00
8xS = 65.00

An der Fuellrate liegt es auf jeden Fall erstmal nicht; eine bessere Erklaerung rein zufaellig?

Und nein ob wo und wieso ROPs limitieren koennten ist nicht ganz so stark OT fuer diese Threads.
Danke!!! Tausend Dank!!! Das ist genau das, was ich mir auch schon zusammengebencht habe - klar ist SSAA teurer - wenn man es 1:1 sieht - man vergisst aber eben immer, daß es ZWEI zusätzliche Samples sind die bei 8xS dazukommen während es bei 16xQ VIER zusätzliche Samples sind - und daß der G80 ein Füllratenmonster ist! Je mehr Polygone ein Szenario hat, umso ungünstiger ist 8xMSAA gg. 4xMSAA+1x2 MSAA.
Aber das es bei 4x4 vs. 32xS so aussieht, hätte selbst ich nicht gedacht - damit ist der 32xS Modus eigentlich auf überflüssig, weil 4x4 deutlich besser aussieht (naja, "Deutlich" - 32xS ist ja schon quasi perfekt).
Ich sage es liegt einfach daran, daß die Auswirkungen der 4 zusätzlichen Multisamples unterschätzt wird - die Bandbreite wird knapp - theoretisch müsste die Differenz sinken, wenn man die GPU bei gleichem Takt lässt und man einfach mal 200 Mhz beim Speicher drauflegt.

robbitop
2007-05-04, 08:08:14
CTF Face3 flyby, 1600*1200, 16xAF:

16xQ = 211.67
8xS = 220.62
16xS = 110.63
4*4OGSS = 51.13
32xS = 40.78

FEAR, 1280*960, 16xAF, no SS:

16xQ = 50.00
8xS = 65.00

An der Fuellrate liegt es auf jeden Fall erstmal nicht; eine bessere Erklaerung rein zufaellig?

Und nein ob wo und wieso ROPs limitieren koennten ist nicht ganz so stark OT fuer diese Threads.

Die Bandbreite, interne Datenpfade, Register, Menge an VRAM oder sonstwas. Eine GPU besteht eben nicht nur aus ein paar Bunten Kaestchen im Blockdiagramm. (Trisetup - Dispatcher - TMUs - ROPs - SI ectpp)
Um in dieser Situation wirklich differenziert analysieren zu koennen braeuchte man zu dem Spiel vermutlich noch nen Simulator.

Die ROPs im G80 leisten pro Takt 96 Z + Colorwerte. Das heisst die muessten bei 8x MSAA die einmal loopen. Das kostet einen laecherlichen Takt. Ein Takt auf hunderte Takte geht sowieso unter.

Gast
2007-05-04, 08:41:17
Scheint wohl der Speicher (vielleicht der Speicher im Chip/den ROPs bei 16xQ) nicht mehr zu reichen, sonst würde 32xS nicht auf weniger als die Hälfte des 16xS-Tempos einbrechen. Oder ist 32xS vielleicht doch mit manchen Treibern 4x4 SSAA + 2xMSAA? Wäre jedenfalls sinniger, noch mehr Multisamples bringt doch eh fast nix, erst recht nicht nur mit Boxfilter...

Lawmachine79
2007-05-04, 09:08:23
Die Bandbreite, interne Datenpfade, Register, Menge an VRAM oder sonstwas. Eine GPU besteht eben nicht nur aus ein paar Bunten Kaestchen im Blockdiagramm. (Trisetup - Dispatcher - TMUs - ROPs - SI ectpp)
Um in dieser Situation wirklich differenziert analysieren zu koennen braeuchte man zu dem Spiel vermutlich noch nen Simulator.

Die ROPs im G80 leisten pro Takt 96 Z + Colorwerte. Das heisst die muessten bei 8x MSAA die einmal loopen. Das kostet einen laecherlichen Takt. Ein Takt auf hunderte Takte geht sowieso unter.
Die ROPs KÖNNEN nicht limitieren! Ich habe das doch ähnlich gebencht, wenn man den Chiptakt erhöht (Speichertakt gleich lassen!), STEIGT die Differenz zu Gunsten von 8xS. Sie müsste aber etwa gleich bleiben, weil mit steigendem Takt nicht nur die Füllrate selbst steigt, sondern auch die ROPs von der Taktsteigerung betroffen sind!

Gast
2007-05-04, 09:27:03
Wenn chipinterne (bzw. ROP-interne) Speicher überfordert sind bringts nix, den Chip hochzutakten. Die limitierende Komponente könnte trotzdem in der ROP stecken, nur würde halt was anderes als deren taktabhängige Rohleistung limitieren.

Gast
2007-05-04, 11:06:46
Wenn chipinterne (bzw. ROP-interne) Speicher überfordert sind bringts nix, den Chip hochzutakten. Die limitierende Komponente könnte trotzdem in der ROP stecken, nur würde halt was anderes als deren taktabhängige Rohleistung limitieren.


Zu kurz gedacht. Die Abbarbeitung entsprechender Daten würde sich trotz dessen relativ zur Taktrate beschleunigen.

deekey777
2007-05-04, 11:23:14
http://www.digit-life.com/articles2/video/g80-10-03.html
Da kann man schon in etwa abschätzen, worauf es in einzelnen Spielen ankommt. Wobei cih so ein Gefühl habe, dass einige Ergebnisse nicht viel Sinn ergeben.

AnarchX
2007-05-04, 11:25:32
http://www.digit-life.com/articles2/video/g80-10-03.html
Da kann man schon in etwa abschätzen, worauf es in einzelnen Spielen ankommt. Wobei cih so ein Gefühl habe, dass einige Ergebnisse nicht viel Sinn ergeben.
... bzw. nicht unbedingt korrekt sind. Siehe FEAR 2560x... .

Anarchy-HWLUXX
2007-05-04, 11:37:41
Radeon HD 2900XT R600 heats up to 82 Celsius

Gemessen mit Digitalthermometer an der Rückseite, Testaufbau ohne Case ...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=1

AnarchX
2007-05-04, 11:37:53
FUDo bleibt hartnäckig:
http://img296.imageshack.us/img296/1641/r600tempfy1.jpg (http://imageshack.us)
Radeon HD 2900XT R600 heats up to 82 Celsius (http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=34)

Naja, 82°C ohne Gehäuse sind nicht wenig, aber die letzten ATI-Karten waren ja auch schon ziemlich heiß an der Rückseite.

edit: Da wohl war jemand 12s eher...

btw.
HIS wird seine HD 2900XT wahrscheinlich auf 750/850MHz takten. (http://forum.beyond3d.com/showpost.php?p=980795&postcount=4281)

James Ryan
2007-05-04, 11:39:45
Sagt mal, warum messen die Deppen denn bitteschön hinter den Spannungswandlern die Temperatur? :confused:
Direkt hinter der GPU wäre es deutlich interessanter.

MfG :cool:

InsaneDruid
2007-05-04, 11:44:54
Weil die Spawas heißer sind, so kann man reißerische Bilder machen.

Hatte letztens btw 120° an den Spawas, (aus versehen) hätt ich auch ein Pic von machen sollen "1900XT heats up to 120°, ice caps on poles are melting, mankind is doomed because of that".

EDIT: den Artikel gelesen? EIgentlich sinds nur 68° unter Volllast, aber im "closed case" werden es dann die 82, (weiß man wie der Flow in seinem Case ist?, nein, schaut mal auf das Pic, je nach Lüfterdrehrichtung bläst da auch die NB direkt auf die Karte).

Typisch Fudo. Eigentlich sinds 68°, aber 100 klingt einfach spannender.

seahawk
2007-05-04, 11:46:33
Weil Fudzi die R600 basht. Es sit völlig egal wie warm die Karte dort wird, so lange sie stabil und schnell läuft.

Gast
2007-05-04, 11:47:06
Zu kurz gedacht. Die Abbarbeitung entsprechender Daten würde sich trotz dessen relativ zur Taktrate beschleunigen.Wenn der Speicher voll ist, ist er voll, er kann nur auf baldige Entleerung ins VRAM hoffen und die ROP macht derweil ein Nickerchen. Bei höherem Takt schnarcht sie natürlich schneller ;)

Gast
2007-05-04, 11:54:33
Wenn der Speicher voll ist, ist er voll, er kann nur auf baldige Entleerung ins VRAM hoffen und die ROP macht derweil ein Nickerchen. Bei höherem Takt schnarcht sie natürlich schneller ;)

Achso... Und du meinst nicht diese von dir beschriebene Auslagerung geschieht in Abhängigkeit von Verarbeitungsgeschwindigkeit einer Komponente?!

Mr. Lolman
2007-05-04, 11:57:48
Aber das es bei 4x4 vs. 32xS so aussieht, hätte selbst ich nicht gedacht - damit ist der 32xS Modus eigentlich auf überflüssig, weil 4x4 deutlich besser aussieht (naja, "Deutlich" - 32xS ist ja schon quasi perfekt).
Ich sage es liegt einfach daran, daß die Auswirkungen der 4 zusätzlichen Multisamples unterschätzt wird - die Bandbreite wird knapp - theoretisch müsste die Differenz sinken, wenn man die GPU bei gleichem Takt lässt und man einfach mal 200 Mhz beim Speicher drauflegt.


4x4SSAA - PolygonEER: 4x4
4x4SSAA - TexturEER: 4x4

32xS - PolygonEER: 16x16
32xS - TexturEER: 2x2


Sofern die Texturen nicht derbe flimmrig sind, oder beim AF großartig gepfuscht wird, sollte 32xS schon besser aussehen. Alleinschon deswegen, weil die 3 Zwischenstufen des 4x4SSAA bei Polygonkanten schonmal sichtbar zuwenig sein können (schnödes 4xMSAA bringt genausoviel zustande)

Gast
2007-05-04, 11:58:20
Weil Fudzi die R600 basht. Es sit völlig egal wie warm die Karte dort wird, so lange sie stabil und schnell läuft.


Ich verstehe nicht warum er das macht. erst bringt er nur "insider" infos raus und nun ist der R600 das pure böse?

Adam D.
2007-05-04, 12:08:28
Ich verstehe nicht warum er das macht. erst bringt er nur "insider" infos raus und nun ist der R600 das pure böse?
Er wurde nicht nach Tunis eingeladen, das hat ihm wohl die Stimmung versaut ;) Auf Fudo würde ich bzgl. R600 nicht mehr verlassen ... Ob man das generell tun sollte, ist wieder was anderes :biggrin:

deekey777
2007-05-04, 12:09:21
FUDo bleibt hartnäckig:
http://img296.imageshack.us/img296/1641/r600tempfy1.jpg (http://imageshack.us)
Radeon HD 2900XT R600 heats up to 82 Celsius (http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=34)

Naja, 82°C ohne Gehäuse sind nicht wenig, aber die letzten ATI-Karten waren ja auch schon ziemlich heiß an der Rückseite.

edit: Da wohl war jemand 12s eher...


Ohne Gehäuse.
Ein geschlossenes Gehäuse ist ein geschlossenes Lüftungssystem. Die Theorie ist, dass über der Grafikkarte ständig die Luft in Richtung Gehäuselüfter transportiert wird (der Gehäuselüfter saugt diese aus dem Gehäuse nachaußen raus) und somit auch die Rückseite gekühlt wird. Beim offenen Gehäuse hat man nur viel Luft.

PCGH_Carsten
2007-05-04, 12:27:16
Danke Quasar :)
--------------------
Teil neun: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5461441#post5461441

Kennst du den Cuda Occupancy Calculator?

dort gibt es ein Excel-Blatt, in welchem folgendes zu finden ist:

GPU: G80 Multiprocessors per GPU 16 Threads / Warp 32 Warps / Multiprocessor 24 Threads / Multiprocessor 768 Thread Blocks / Multiprocessor 8 Total # of 32-bit registers / Multiprocessor 8192 Shared Memory / Multiprocessor (bytes) 16384


10,6 Register pro Thread.

DX9 erlaubt bis zu 32, D3D10 bis zu 4096 - natürlich müssen die nicht alle physikalisch vorhanden sein.

Anarchy-HWLUXX
2007-05-04, 12:31:06
Weil Fudzi die R600 basht. Es sit völlig egal wie warm die Karte dort wird, so lange sie stabil und schnell läuft.

Dem ist des doch egal was er da verzapft solang er nur genug clicks bekommt ...

Coda
2007-05-04, 12:35:25
DX9 erlaubt bis zu 32, D3D10 bis zu 4096 - natürlich müssen die nicht alle physikalisch vorhanden sein.
Verwechselst du die 4096 Register nicht gerade mit den Constant Buffers?

Ich glaube es gibt gar kein Variablenlimit mehr in D3D10 HLSL, weil eben aufs VRAM ausgewichen werden kann. Zumindest finde ich kein Limit mehr dazu in der D3D10-Doku.

Gast
2007-05-04, 12:39:25
Achso... Und du meinst nicht diese von dir beschriebene Auslagerung geschieht in Abhängigkeit von Verarbeitungsgeschwindigkeit einer Komponente?!Doch natürlich, mehr RAM-Takt müsste was bringen, wenn bei gleichem RAM-Takt aber erhöhtem Chiptakt der Effekt stärker ausgeprägt ist.

PCGH_Carsten
2007-05-04, 12:40:31
Verwechselst du die 4096 Register nicht gerade mit den Constant Buffers?
Constanten gibt's 16*4096.
http://www.behardware.com/articles/631-2/directx-10-and-gpus.html

Coda
2007-05-04, 12:43:03
15*4096. Darum geht's aber nicht.

Es steht nirgends was in der D3D10-Doku von einem temp limit.

PCGH_Carsten
2007-05-04, 12:47:53
15*4096. Darum geht's aber nicht.

Es steht nirgends was in der D3D10-Doku von einem temp limit.

Vielleicht alt, aber das einzige, was ich in der Hinsicht kenne:
http://download.microsoft.com/download/f/2/d/f2d5ee2c-b7ba-4cd0-9686-b6508b5479a1/direct3d10_web.pdf
"unified pool of general purpose and indexable registers (4096x4)"

Coda
2007-05-04, 12:50:08
Ist im Prinzip auch egal, an das Limit von 4096 würde man eh nicht stoßen, falls es vorhanden ist. Außer man macht sehr komische Dinge...

Und ich glaub das mit der 15 in der Doku ist tatsächlich ein Fehler. Da hat sicher falsch von 0-15 abgeschrieben.

up¦²
2007-05-04, 13:51:26
http://img218.imageshack.us/img218/3959/47611ih1.jpg
Falls bekannt sorry...

Nakai
2007-05-04, 14:11:19
http://www.xtremesystems.org/forums/showpost.php?p=2169939&postcount=67

Okay, theoretisch höher als 742Mhz...^^

mfg Nakai

DrumDub
2007-05-04, 14:17:34
http://www.xtremesystems.org/forums/showpost.php?p=2169939&postcount=67

Okay, theoretisch höher als 742Mhz...^^

mfg Nakai :eek: von 742 gpu-takt auf 1000 sind mal eben ne übertaktung um 34%.

dildo4u
2007-05-04, 14:20:43
:eek: von 742 gpu-takt auf 1000 sind mal eben ne übertaktung um 34%.
"voltage adjustments for R600 and I'll run tests under dry ice cooling."

Mit solchen Mitteln hat man auch schon 8800GTX Karten auf 950mhz core gebracht. ;)


http://service.futuremark.com/compare?3dm06=1334827

LovesuckZ
2007-05-04, 14:21:30
Glaubt ihr wirklich, dass es sich bei den Daten um einen r600 aka 2900XT gehandelt hat? ;)

[dzp]Viper
2007-05-04, 14:23:03
"voltage adjustments for R600 and I'll run tests under dry ice cooling."

Mit solchen Mitteln hat man auch schon 8800GTX Karten auf 950 core gebracht. ;)

"voltage adjustments for R600 and I willl run tests under dry ice cooling."

Er hat Ice-Cooling noch net genutzt - hat es aber noch vor ;)

Super Grobi
2007-05-04, 14:23:12
"voltage adjustments for R600 and I'll run tests under dry ice cooling."

Mit solchen Mitteln hat man auch schon 8800GTX Karten auf 950 core gebracht. ;)

Eben! Blödsinn ist das. Für den Altagsbetrieb absolut unbrauchbar. Sowas sollte man ignorieren!

SG

[dzp]Viper
2007-05-04, 14:29:58
Eben! Blödsinn ist das. Für den Altagsbetrieb absolut unbrauchbar. Sowas sollte man ignorieren!

SG

siehe oben - Englisch lesen will gelernt sein ;)

InsaneDruid
2007-05-04, 14:30:27
Nichtmal Voltage Anpassungen hat er bislang benutzt! Auch keine Trockeneiskühlung.

"Now we just need to wait for new version of ATITool which brings voltage adjustments for R600 and I'll run tests under dry ice cooling. Hopefully that'll be next week."

Jetzt brauche wir nur noch auf die neue ATTool Version warten, WELCHE Spannungsanpassungen BRINGEN WIRD, und ich WERDE (!) Tests unter Trockeneiskühlung fahren.

Das vorausgesetzt (noch keine Eiskühlung, noch keine Spannungsveränderung) spricht er dennoch davon das die 1000/1000 ein eher mäßiges Ergebnis sind und das ziemlich viel Freiraum fürs OC existiert.

Gast
2007-05-04, 14:31:23
Eben! Blödsinn ist das. Für den Altagsbetrieb absolut unbrauchbar. Sowas sollte man ignorieren!

SG
Nein, man sollte lieber dich und Dildo4U ignorieren, dafür das ihr nicht in der Lage seid, einen Text zu lesen!

Wenn ihr der englischen Sprache nicht mächtig seid, dann tut gefälligst nicht so als ob und verbreitet irgendwelchen Bullshit, wie ihr es jetzt gerade macht, das Posting von der Viper hast anscheinend auch nicht gelesen, dann hättest ja auch nicht flamen können.

Nochmal, für Leute wie dich, die kein Englisch beherrschen zum mitschreiben:
Er hat gesagt, das die 1000/1000MHz von Techpowerup garnicht so viel sind (für die wo nicht wissen was modest bedeutet (http://dict.leo.org/ende?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&sectHdr=on&spellToler=on&search=modest&relink=on))

Gast
2007-05-04, 14:31:35
Wow also hat er die werte mit denn Stock Kühler ereicht?

dildo4u
2007-05-04, 14:32:55
Ja und zu den 1GHz gibts kein Bench gar nix kein Stabilitätsbeweiß etc einfach ein 2D Windows Screen. :rolleyes:
Wenn die Karte so viel Spielraum mit den normaler Kühler hat warum zieht ATI das Ding dann nicht auf 900mhz Core und verscherbelt es für 500€?

Super Grobi
2007-05-04, 14:35:08
Nein, man sollte lieber dich und Dildo4U ignorieren, dafür das ihr nicht in der Lage seid, einen Text zu lesen!

Wenn ihr der englischen Sprache nicht mächtig seid, dann tut gefälligst nicht so als ob und verbreitet irgendwelchen Bullshit, wie ihr es jetzt gerade macht, das Posting von der Viper hast anscheinend auch nicht gelesen, dann hättest ja auch nicht flamen können.

Nochmal, für Leute wie dich, die kein Englisch beherrschen zum mitschreiben:
Er hat gesagt, das die 1000/1000MHz von Techpowerup garnicht so viel sind (für die wo nicht wissen was modest bedeutet (http://dict.leo.org/ende?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&sectHdr=on&spellToler=on&search=modest&relink=on))

Beruhig dich mal lieber wieder und mach kein Drama draus!

*kopfschüttel*
SG

[dzp]Viper
2007-05-04, 14:35:29
Wow also hat er die werte mit denn Stock Kühler ereicht?

Ich denke eher Wasserkühlung

InsaneDruid
2007-05-04, 14:36:04
Primär geht es ja nichtmal um den Wahrheitsgehalt seiner Aussage (kann eh keiner nachprüfen), sondern darum das ihr Spezis nichtmal die Aussage selber richtig verstanden habt (oder extra anders verstanden haben wolltet).

Gast
2007-05-04, 14:38:43
Ja und zu den 1GHz gibts kein Bench gar nix kein Stabilitätsbeweiß etc einfach ein 2D Windows Screen. :rolleyes:
Wenn die Karte so viel Spielraum mit den normaler Kühler hat warum zieht ATI das Ding dann nicht auf 900mhz Core und verscherbelt es für 500€?

Stichwort:Stromverbrauch ganz einfach.^^

Vielleicht bringt irgend ein hersteller später mall wirklich ne Karte raus die mit 1000/1000 Taktet.Leider wird dann der Stromverbrauch abschreken.

dildo4u
2007-05-04, 14:40:03
Nein, man sollte lieber dich und Dildo4U ignorieren, dafür das ihr nicht in der Lage seid, einen Text zu lesen!

Wenn ihr der englischen Sprache nicht mächtig seid, dann tut gefälligst nicht so als ob und verbreitet irgendwelchen Bullshit, wie ihr es jetzt gerade macht, das Posting von der Viper hast anscheinend auch nicht gelesen, dann hättest ja auch nicht flamen können.

Nochmal, für Leute wie dich, die kein Englisch beherrschen zum mitschreiben:
Er hat gesagt, das die 1000/1000MHz von Techpowerup garnicht so viel sind (für die wo nicht wissen was modest bedeutet (http://dict.leo.org/ende?lp=ende&lang=de&searchLoc=0&cmpType=relaxed&sectHdr=on&spellToler=on&search=modest&relink=on))
Ich kann schon lesen aber manche Fanboys glauben hier wirklich die 1GHz wären stabiel oder sonstswas am besten noch mit dem Lukü.Und mit Trockeneis gehen dann sicherlich 1.3GHz. :lol: Bleibt mal auf dem Teppich.

Super Grobi
2007-05-04, 14:40:17
Stichwort:Stromverbrauch ganz einfach.^^

Vielleicht bringt irgend ein hersteller später mall wirklich ne Karte raus die mit 1000/1000 Taktet.Leider wird dann der Stromverbrauch abschreken.

Dann könnte man auch den anderen Weg gehen und die Spannung der GPU senken. ^^

SG

dildo4u
2007-05-04, 14:48:43
Stichwort:Stromverbrauch ganz einfach.^^

Vielleicht bringt irgend ein hersteller später mall wirklich ne Karte raus die mit 1000/1000 Taktet.Leider wird dann der Stromverbrauch abschreken.
Das Problem ist nur das das Boards und die Spannungswandler schon am Limit arbeiten.Wenn die Karte mit 1GHZ laufen würde,würden die Spannungswandler weit außerhalb der thermischen Spezifikationen laufen schon bei den 1900 Karten wurden diese locker über 110° heiß und liefen so nur 5° unter dem zulässigen Maximum.

Nakai
2007-05-04, 14:49:14
Es ging ja bis jetzt nicht...

Naja das würde sich mit den Gerüchten, dass der R600 1Ghz schaffen kann, gut denken.

mfg Nakai

StefanV
2007-05-04, 14:49:16
Ja und zu den 1GHz gibts kein Bench gar nix kein Stabilitätsbeweiß etc einfach ein 2D Windows Screen. :rolleyes:
Wenn die Karte so viel Spielraum mit den normaler Kühler hat warum zieht ATI das Ding dann nicht auf 900mhz Core und verscherbelt es für 500€?
-Weil die Karte dann nicht mehr 4 Jahre halten würde
-weil der Stromverbrauch zu hoch wäre.
-weil die karte dann zu laut wäre.
-weil es einen Speedpath im Chip geht, der unter bestimmten Umständen, bei Regen, im hellen und bei Vollmond nicht richtig funktioniert, bei mehr als dem aktuellen Takt

Wie dem auch sei, die Hersteller sind um einiges strenger bei den Tests als wir es sind, das müssen sie auch, da die Karten auch an sonnigen Tagen am Äquator tadellos funktionieren müssen und nicht nur bei uns in GOG im winter...

€dit:
Achso:
Warum gibts keinen Core2Duo mit 3,6GHz??
Das schaffen doch so viele CPUs, aber warum gibbet die dann nicht zu kaufen?


Das Problem ist nur das das Boards und die Spannungswandler schon am Limit arbeiten.Wenn die Karte mit 1GHZ laufen würde,würden die Spannungswandler weit außerhalb der thermischen Spezifikationen laufen schon bei den 1900 Karten wurden diese locker über 110° heiß und liefen so nur 5° unter dem zulässigen Maximum.
Als Hersteller kann man andere Spannungsregler verbauen, man kann die Spannungsregler kühlen, dann passt das wieder, also in diesem Punkt sehe ich nun echt kein Problem, zumindest für den Hersteller der Karte!!

[dzp]Viper
2007-05-04, 14:49:55
Ich denke, dass die GPU Werte von 1GHz aber zeigen, wo der R600 in 65nm landen könnte ;)

Nakai
2007-05-04, 14:51:17
HIS spricht dagegen, dass es 65Nm sind.

mfg nakai

deekey777
2007-05-04, 14:51:55
Ich kann schon lesen aber manche Fanboys glauben hier wirklich die 1GHz wären stabiel oder sonstswas am besten noch mit dem Lukü.Und mit Trockeneis gehen dann sicherlich 1.3GHz. :lol: Bleibt mal auf dem Teppich.
Was für Fanboys?:|
Man sollte den Rat ernst nehmen und beim nächsten Mal genau hinschauen, bevor kömische Sachen geschrieben werden.

[dzp]Viper
2007-05-04, 14:53:00
HIS spricht dagegen, dass es 65Nm sind.

mfg nakai

Lesen? Bitte lies nochmal meinen Satz... und achte auf das letzte Wort.

Mein Apell an die Leute hier - Lest nicht nur halbherzig sondern richtig - ist ja schlimm hier in letzter Zeit :frown:

dildo4u
2007-05-04, 14:55:19
Meiner Meinung nach hätte man sich ohne Stabilitäts Tests ein Post mit einem 2D Windows screen wo bei irgend einem Tool der Regler auf 1GHz gezogen wurde sparen können. ;)

Die ganze Aufregung umsonst. :(

Der Hardcore Overclocker im XS Forum ist übrigenz bei ATI/AMD angestellt. ;)

[dzp]Viper
2007-05-04, 14:57:39
Meiner Meinung nach hätte man sich ohne Stabilitäts Tests ein Post mit einem 2D Windows screen wo bei irgend einem Tool der Regler auf 1GHz gezogen wurde sparen können. ;)

Die ganze Aufregung umsonst. :(

Der Typ ist nicht "irgendwer".. glaube kaum, dass der die Leute so verarschen würde.

Bin zwar auch nicht der Meinung, dass das ganze Stabil war, aber immerhin stieg die karte bei 1GHz nicht sofort aus...

Und selbst für einen 2D-Screen sind 1 GHz Core beachtlich!

dildo4u
2007-05-04, 14:59:27
Viper;5462894']Der Typ ist nicht "irgendwer".. glaube kaum, dass der die Leute so verarschen würde.

Ne er ist nicht irgendwer sondern "Angestellter" bei ATI/AMD.

Nakai
2007-05-04, 15:00:02
@[dzp]Viper:

Sorry;( ...du bist anscheinend richtig von Falschlesern genervt.^^:tongue:

Und selbst für einen 2D-Screen sind 1 GHz Core beachtlich!

Wenn das wirklich ohne Spannungserhöhung geschehen ist...?^^

mfg Nakai

[dzp]Viper
2007-05-04, 15:00:54
@[dzp]Viper:

Sorry;( ...du bist anscheinend richtig von Falschlesern genervt.^^:tongue:


Ja sry Ursache liegt an nem anderen Thread ;D

[dzp]Viper
2007-05-04, 15:01:47
Ne er ist nicht irgendwer sondern "Angestellter" bei ATI/AMD.

Und deswegen vermutest du sofort Hug und Betrug wie bei nem Politiker? ;)

dildo4u
2007-05-04, 15:04:41
Nö aber das ist halt ihr Inhouse OverClocker das heißt wenn er will bekommt er X Karten zum testen und kann sich so zum Werben im XS Forum die besten rauspicken.

Super Grobi
2007-05-04, 15:05:15
Viper;5462903']Und deswegen vermutest du sofort Hug und Betrug wie bei nem Politiker? ;)

Ne, aber er wird immer für positiven Wind sorgen.

SG

[dzp]Viper
2007-05-04, 15:07:30
Ne, aber er wird immer für positiven Wind sorgen.

SG

Das ist ja auch nicht verboten oder? ;)

Gab ja auch schon ein anderes OC Ergebniss. Da waren glaube 900 Mhz stabil mit Standardkühlung drin (was auch beachtlich ist...)

Mr. Lolman
2007-05-04, 15:11:00
Nö aber das ist halt ihr Inhouse OverClocker das heißt wenn er will bekommt er X Karten zum testen und kann sich so zum Werben im XS Forum die besten rauspicken.

So wie damals bei der 9700pro. Da gabs auch Meldungen von OC-Werten auf 400MHz ohne Spannungserhöhung. Meine ging @ stock nicht mehr als 355MHz dafür mit Voltmod, neuer WLP und Zusatzlüfter dann bis 430MHz...

seahawk
2007-05-04, 15:32:22
Viper;5462833']Ich denke eher Wasserkühlung

oder Kompressor

AnarchX
2007-05-04, 15:34:25
Radeon HD 2400 pictured
Where is the rest of my card? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=832&Itemid=1)
http://img294.imageshack.us/img294/8258/radeonhd2400vp1.jpg

Mal eine Seitenansicht des doch sonderbaren PCBs. :|
The memory on the card will work from 400 to 800 MHz while the card has 4 Texture memory units and four render backbends.

The chip itself will be clocked between 525 MHz and 700 MHz depending on the version of the card.

Gmax
2007-05-04, 15:44:49
Hey, selbst Fudo hat jetzt zugegeben (http://www.fudzilla.com/index.php?option=com_content&task=view&id=830&Itemid=1), daß man den R6oo mit einem guten 500 Watt NT betreiben kann...
Betonung liegt auf "nur".

Moralelastix
2007-05-04, 16:22:22
Radeon HD 2400 pictured
Where is the rest of my card? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=832&Itemid=1)
http://img294.imageshack.us/img294/8258/radeonhd2400vp1.jpg

Mal eine Seitenansicht des doch sonderbaren PCBs. :|



Für was zum Geier sind da Crossfire Anschlüsse auf der Karte?

laser114
2007-05-04, 16:23:56
Für was zum Geier sind da Crossfire Anschlüsse auf der Karte?

Für die Crossfire-Funktionalität. Das geht jetzt (höchstwahrscheinlich) auf allen Karten...

san.salvador
2007-05-04, 16:25:23
Hey, selbst Fudo hat jetzt zugegeben (http://www.fudzilla.com/index.php?option=com_content&task=view&id=830&Itemid=1), daß man den R6oo mit einem guten 500 Watt NT betreiben kann...
Betonung liegt auf "nur".
Ich sehe in deinem Satz kein nur, ich weiß nicht ganz was du meinst.

deekey777
2007-05-04, 16:36:09
Radeon HD 2400 pictured
Where is the rest of my card? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=832&Itemid=1)
http://img294.imageshack.us/img294/8258/radeonhd2400vp1.jpg

Mal eine Seitenansicht des doch sonderbaren PCBs. :|
War das PCB hier nicht sonderbar? http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450411#post5450411

Moralelastix, auch wenn die CF-Anschlüsse bei dieser Karte nicht viel Sinn ergeben, so wäre es möglich, dass ihr PCB am gleichen Band gefertigt wird wie das anderer 2400er. Und die Frage sollte man sich eh anders stellen: Was haben CF-Anschlüsse überhaupt auf einer HD 2400 zu suchen, wenn sie ein 64-bit-SI haben wird? Da wird man doch genug Hirn haben, um zur HD2600Pro zu greifen.

AnarchX
2007-05-04, 16:39:41
War das PCB hier nicht sonderbar? http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5450411#post5450411
Warum diese sonderbare HD 2400 noch CF-Connectoren hat bleibt wohl auch ein Geheimnis?
:wink:


Moralelastix, auch wenn die CF-Anschlüsse bei dieser Karte nicht viel Sinn ergeben, so wäre es möglich, dass ihr PCB am gleichen Band gefertigt wird wie das anderer 2400er.
Die andere hat aber keine CF-Connectoren.

Imo sieht das Teil nach einer gewollten aber nicht gekonnten LP-Karte aus.

Moralelastix
2007-05-04, 16:41:00
Für die Crossfire-Funktionalität. Das geht jetzt (höchstwahrscheinlich) auf allen Karten...

Und was soll man mit Crossfire anfangen bei so ner halben Portion?

Thx, DK777!

deekey777
2007-05-04, 16:47:12
Ach kommt, was ist der Sinn der CF-Anschlüsse an einer X1950XT?
http://www.alternate.de/html/productDetails.html?baseId=8710&artno=jbxu4c
Selbst die X1950 Pro AGP haben welche, auch wenn nicht herausgeschnitten.
Ignoriert sie einfach.

w0mbat
2007-05-04, 16:56:10
Fudo hat vor kurzem ja ein Dokument von AMD gezeigt, das von einem 750W NT spricht. Auch wenn die Schreibweise etwas seltsam ist, ist es kein Fake. Es wird von AMD mit den Treibern mitgeliefert.

laser114
2007-05-04, 16:56:19
Und was soll man mit Crossfire anfangen bei so ner halben Portion?

Marketingtechnische mit 2 Grafikkarten günstig werben zu können. Oder sowas.

Gmax
2007-05-04, 17:00:30
Ich sehe in deinem Satz kein nur, ich weiß nicht ganz was du meinst.

Den meisten Lesern hier war doch klar, daß selbst ein gutes 400 Watt NT (vielleicht sogar ein noch schwächeres)
locker reichen würde, um den R6oo zu betreiben.

Gast
2007-05-04, 17:04:36
400W werden sicher nicht reichen, wenn die Grafikkarte schon 200W braucht.

dildo4u
2007-05-04, 17:23:25
Welches 400 Watt Netzteil hat denn ein 6 und 8 PCI-E Anschluß um auch nur eine X2900XT zu betreiben?

Gast
2007-05-04, 17:25:50
Und was soll man mit Crossfire anfangen bei so ner halben Portion?Für wenig Geld und niedrige Auflösungen an CF-SuperAA rankommen? Anders bekommt man mit ATI-Karten doch keine Hybridmodi, und im Zusammenspiel mit CFAA sollte auch mit den kleinen sehr ordentliche Bildqualität z.B. über den TVout zu erreichen sein.

Fetza
2007-05-04, 17:27:18
Die karte wird bestimmt nicht über 200 watt verbrauchen, das wurde hier aber auch schonmal ausgeführt. Stichwort 2600 hd mit umd die 60watt verbrauch.

Gmax
2007-05-04, 17:29:44
Welches 400 Watt Netzteil hat denn ein 6 und 8 PCI-E Anschluß um auch nur eine X2900XT zu betreiben?

Welches Netzteil hat denn überhaupt schon ein 8 PciX Anschluß? Die meisten werden sich einen Adapter nachkaufen müßen.
Und natürlich, es geht um eine R6oo, etwas anderes habe ich nie behauptet.

reunion
2007-05-04, 17:30:06
Welches 400 Watt Netzteil hat den ein 6 und 8 PCI-E Anschluß um auch nur eine X2900xT zu betreiben?

Eben. Nur weil die Karte auch mit 2x 6-Pin Steckern läuft. Aber das interessiert doch nicht. Auf die Adapter kann man auch scheißen. Warum eigentlich nur 200W, die Karte braucht sicherlich mindestens 300W. Also unter einem 1KW Netzteil würde ich es nichtmal wagen, eine HD2900XT einzubauen. Möglicherweise findet im inneren wenn man Übertaktet bei so viel Steckern auch eine Kernschmelze statt, was dann natürlich in einer riesen Sauerei endet.

dildo4u
2007-05-04, 17:34:21
Welches Netzteil hat denn überhaupt schon ein 8 PciX Anschluß? Die meisten werden sich einen Adapter nachkaufen müßen.

Adapter sind fürn Arsch gefällt mir persönlich gar nicht der ATI/AMD Overclocker im XS Forum hat sich schon mal das passende Netzteil besorgt :devil: was auch alle nötigen Stecker inklusive 8XPCIE Anschluß hat.

"I have Enermax Galaxy PSU with all necessary PCIe connectors (6 pin and 8 pin"

http://www.xtremesystems.org/forums/showpost.php?p=2170020&postcount=71


http://resources.vr-zone.com/yantronic/NEWS/enermax/galaxy.jpg


Ich will die 700Mio Transistoren@1GHZ endlich brennen ja brennen sehen.

Gast
2007-05-04, 17:37:15
Ja, die neuen von enermax sollen schon den neuen Stecker haben ...

Ich finds ehrlich gesagt ne Frechheit. Da kauft man sich ein Netzteil und darf sich dann schon wieder ein neues zulegen, wenn man nicht wieder so`n Adapter Chaos im Gehäuse haben will.

Was kommt als nächstes? R650 mit 10 pin Stecker? :)

Lawmachine79
2007-05-04, 17:49:56
Ja, die neuen von enermax sollen schon den neuen Stecker haben ...

Ich finds ehrlich gesagt ne Frechheit. Da kauft man sich ein Netzteil und darf sich dann schon wieder ein neues zulegen, wenn man nicht wieder so`n Adapter Chaos im Gehäuse haben will.

Was kommt als nächstes? R650 mit 10 pin Stecker? :)

Ich tippe eher auf diese 380V Anschlüsse für den Herd. Oder ein Stromerzeugeraggregat, was mit Diesel betrieben wird - dann ist sie nicht nur laut, sondern stinkt auch noch. Oder die Auslieferung erfolgt gebundlet mit dem neuen Prototypen vom "Taschentokamak"

Gast
2007-05-04, 17:53:37
Als ich mit erschrecken hier nun sah das die karte ca 200 w braucht, reichte ich bei meiner gemeinde einen eilantrag ein. (für das dafür benötigte kernkraftwerk) Nach einer prüfung und nachfrage bei amd/ati durch meine gemeinde, wurde mir dies verweigert. Die begründung lautet das ein NORMALES PC netzteil ausreicht.

Echt mal man kann sich auch unnötig das maul über irgendwas was keine sau genau sagen kann zerreißen

Gast
2007-05-04, 17:58:53
was regt ihr euch über Stromverbauch auf,die 8800gtx brauch auch 190watt und im SLI 300Watt ?

Super Grobi
2007-05-04, 18:00:14
Ich dachte immer, das mein Enermax Liberty 500 ein recht neues NT sei. Da gibts aber nur 2x6pin.

Ich glaub aber, das so einige User ihr blaues Wunder erleben, wenn sie diese Karte an ihr ach so tolles LC Power NT hängen. Ob die Karte nun 200 Watt verbrät oder nicht, ich glaub, das man aber schon sagen kann, daß diese Karte alle Rekorde brechen wird.

Vor lange Zeit, war das gejaule groß, als man feststellen musste, das ein 6800 Ultra zwei Stromstecker benötigt. Nun kommen Karten mit Quasi 8 Stromanschlüsse.

SG

Gast
2007-05-04, 18:37:38
Die karte wird bestimmt nicht über 200 watt verbrauchen, das wurde hier aber auch schonmal ausgeführt. Stichwort 2600 hd mit umd die 60watt verbrauch.

Nicht vergleichbar.

Botcruscher
2007-05-04, 18:58:59
So wie damals bei der 9700pro. Da gabs auch Meldungen von OC-Werten auf 400MHz ohne Spannungserhöhung. Meine ging @ stock nicht mehr als 355MHz dafür mit Voltmod, neuer WLP und Zusatzlüfter dann bis 430MHz...


Selbst meine 9800 ohne pro ging auf 435.:|

PhoenixFG
2007-05-04, 19:07:12
Welcher SPezifikation entspricht denn so ein 8pin-Stecker? Im Design-Guide für EPS12V Vers. 2.91 kann ich diesbezüglich nix entdecken.

aehmkei
2007-05-04, 19:10:06
Welcher SPezifikation entspricht denn so ein 8pin-Stecker? Im Design-Guide für EPS12V Vers. 2.91 kann ich diesbezüglich nix entdecken.

Das frage ich mich auch, wenn das Netzeil genug Ampere auf der Schiene hat, dürfte es ja keine Probleme mit einem Adapter geben, oder?

dargo
2007-05-04, 19:11:29
Die karte wird bestimmt nicht über 200 watt verbrauchen, das wurde hier aber auch schonmal ausgeführt. Stichwort 2600 hd mit umd die 60watt verbrauch.
Und was hat jetzt eine extrem beschnittene HD2600XT in 65nm mit einem R600 in 80nm zu tun???

was regt ihr euch über Stromverbauch auf,die 8800gtx brauch auch 190watt und im SLI 300Watt ?
1. Braucht eine GTX keine 190W.
2. Die HD2900XT liegt von der Performance her auf dem GTS Niveau (zumindest nach den letzten Gerüchten). Und eine GTS begnügt sich mit ca. 100W.

horn 12
2007-05-04, 19:24:03
Wird ein 450 Watt Delta Netzteil mit 1x14 Ampere und 1x15 Ampere auf den 12 Volt Leitungen reichen für die HD 2900 XT, oder kann man dies gleich schon ausschliessen.
Wie kann man sehen welche Pin das Netzteil hat, wenn man einen 6/8 Connector braucht für die HD 2900XT. Kenne mich da wenig aus. Derzeit habe ich eben nur einen 3 Pin! bei meiner X1950 PRO am Laufen.

Gast
2007-05-04, 19:24:39
1. Braucht eine GTX keine 190W.
.

natürlich,ich würde mal Tests lesen.

Gast
2007-05-04, 19:27:06
natürlich,ich würde mal Tests lesen.

Bist wohl einer der wenigen Menschen, die nicht richtig lesen können und somit falsche Schlüsse aus Balken ziehen.
nVidia gibt 177 Watt als Verbrauchswert an. Gemessen wurden ca. 137 Watt.

sulak
2007-05-04, 19:30:39
Naja die HD2900XT wird eher zwischen den beiden liegen, mal Tendenz nach oben mal nach unten. Aber schon Schitt im Performance per Watt Graph an der 0 Schwelle kratzen zu müssen *g Schlecht fürs Marketing, seit Intel sich auf die Schiene total eingeschossen hat...

Bin auf den Idle Verbrauch gespannt und da verlass ich mich nur auf XbitLabs oder User die auch ein Strommeßgerät lesen können und nich irgendwelche Pappenheimer die das Gesamt Packet sehen wo das Netzteil mal 50Watt ausmachen kann.

Hoffentlich kommen bald die 65nm GPUs, gibts bei gleicher "Wattage" mehr Performance :D

Super Grobi
2007-05-04, 19:32:11
GTX 114 Watt
GTS 102 Watt

Volllast und natürlich OHNE OCing

SG

sulak
2007-05-04, 19:33:16
Last oder Idle, Standard Takt?

dargo
2007-05-04, 19:34:22
natürlich,ich würde mal Tests lesen.
Erzähle mir keinen Blödsinn, ich habe selbst ein Strommessgerät.

Fetza
2007-05-04, 19:43:45
Nicht vergleichbar.
Und was hat jetzt eine extrem beschnittene HD2600XT in 65nm mit einem R600 in 80nm zu tun???

2. Die HD2900XT liegt von der Performance her auf dem GTS Niveau (zumindest nach den letzten Gerüchten). Und eine GTS begnügt sich mit ca. 100W.

1. Ist nur eine vermutung meinerseits, ansonsten verweise ich auf die 3dcenter news des heutigen tages, da wird das ähnlich gesehen.

2. Das habe ich anders gelesen, die xt liegt eigentlich bei den meistens benchmarks ne gute ecke über der gts, aber etwas unter der gtx.

greetz

Fetza

reunion
2007-05-04, 19:49:44
2. Die HD2900XT liegt von der Performance her auf dem GTS Niveau (zumindest nach den letzten Gerüchten). Und eine GTS begnügt sich mit ca. 100W.

An die Performanceangaben glaubst du hoffentlich selbst nicht.

Gast
2007-05-04, 19:52:27
1. Ist nur eine vermutung meinerseits, ansonsten verweise ich auf die 3dcenter news des heutigen tages, da wird das ähnlich gesehen.

Leonidas spekuliert auch nur.
Die x2600xt hat 1/2 der Texturleistung, 1/3 der Rechenleistung, nur 1/4 der ROPs und 1/4 Speicherinterface. Das alles spart massig Transistoren.
Ausserdem wird sie in einem Verfahren produziert, das neben einer erhöhten Transistoranzahl pro mm² auch einen geringeren Stromverbrauch bietet.
Man kann wohl davon ausgehen, dass die 2600xt 1/4 weniger an Strom ziehen wird als die 2600XT.


2. Das habe ich anders gelesen, die xt liegt eigentlich bei den meistens benchmarks ne gute ecke über der gts, aber etwas unter der gtx.


Welche Tests? ;)

dargo
2007-05-04, 19:53:41
An die Performanceangaben glaubst du hoffentlich selbst nicht.
Um ehrlich zu sein glaube ich, dass die HD2900XT eine Performance der GTS bis GTS@612/900Mhz bieten wird. Und das finde ich ziemlich wenig je Watt.

seahawk
2007-05-04, 19:58:56
Die KArte wird mit 2x6PCIe sicher locker und stabil laufen, allerdings dürfte man damit das OC Potential von +/- 200Mhz nicht voll ausschöpfen können.

dargo
2007-05-04, 20:01:48
Die KArte wird mit 2x6PCIe sicher locker und stabil laufen, allerdings dürfte man damit das OC Potential von +/- 200Mhz nicht voll ausschöpfen können.
OC von 200Mhz bei dem R600? Träum weiter ...

Fetza
2007-05-04, 20:07:45
Leonidas spekuliert auch nur.
Die x2600xt hat 1/2 der Texturleistung, 1/3 der Rechenleistung, nur 1/4 der ROPs und 1/4 Speicherinterface. Das alles spart massig Transistoren.
Ausserdem wird sie in einem Verfahren produziert, das neben einer erhöhten Transistoranzahl pro mm² auch einen geringeren Stromverbrauch bietet.
Man kann wohl davon ausgehen, dass die 2600xt 1/4 weniger an Strom ziehen wird als die 2600XT.



Welche Tests? ;)

jup stimmt, aber das tun wir doch hier alle, schließlich ist es ja das speku-forum :)

Hab ich irgendwas von tests geschrieben? Ich beziehe mich hierbei nur auf die angeblich geleakten ati benchmarks. Ob die stimmen wissen wir ja auch noch nicht :)

=Floi=
2007-05-04, 20:08:30
der pcie 2.0 spezifikation
schöne tabelle
http://www.planet3dnow.de/news_images/pcie20_gpu.jpg

Fetza
2007-05-04, 20:09:24
OC von 200Mhz bei dem R600? Träum weiter ...

Die karte ist jetzt schon so hoch getaktet, da geht bestimmt noch was:D

horn 12
2007-05-04, 20:09:36
Der R600 sollte doch laut Infos (Wombat ett.bis 850/900 Mhz hochgehen, und mir kommt der Gedanke nahe, dass einige Hersteller die Karte höher takten werden.
Oder aber die Taktraten von Sapphire/ His sind ein Fake (A/A gewollt) und der R600 kommt gar mit 842/ (850) Mhz daher. Somit würde der Chip eine 8800 GTX sicherlich ausstechen bei der Performance.
Zuzutrauen wäre dies allemal, da die Karte ordentlich OC bieten würde, warum nicht gleich freischalten. :smile:
Die XTX würde dann mit 1 Ghz oder noch mehr daherkommen.:eek:

dargo
2007-05-04, 20:11:25
Die karte ist jetzt schon so hoch getaktet, da geht bestimmt noch was:D
Dann erkläre mir mal warum ATI von Anfang an den R600 nicht mit 1Ghz taktet um der GTX zu zeigen wo es lang geht? ;)

horn 12
2007-05-04, 20:14:06
Dies wird ausschliesslich die Aufgabe der HD 2900 XTX sein, um mal die Ultra richtig nass zu machen, Wetten? !!
Tippe immer noch auf >800-850 Mhz CPU Takt und 840 Mhz GDDR3 Speichertakt. Somit dürfte die XT eine GTX schlagen können, und dies nicht zu knapp.

dargo
2007-05-04, 20:19:27
Dies wird ausschliesslich die Aufgabe der HD 2900 XTX sein, um mal die Ultra richtig nass zu machen, Wetten? !!

Ach Horn, wach endlich auf. :)
Eine XTX wird kaum schneller beim Core getaktet sein als die XT. Und bis eine XTX erscheint wird kaum jemand mehr nach dieser Graka schreien. Dann bereiten sich schon die meisten auf den G90 vor.

seahawk
2007-05-04, 20:20:19
Dann erkläre mir mal warum ATI von Anfang an den R600 nicht mit 1Ghz taktet um der GTX zu zeigen wo es lang geht? ;)

Weil der Kudbne dann ein Netzteil mit 2x3 + 2x4 braucht und es für einen Konkurrenten zur GTS sicher nicht günstig wäre wenn dies der Fall wäre.

So kommt man eben mit weniger Mhz und eröffnet den Besitzern von modernen Netzteilen die volle Leistung zu nutzen. Bei der XTX sollte es nicht anders sein.

Daredevil
2007-05-04, 20:21:01
Dann erkläre mir mal warum ATI von Anfang an den R600 nicht mit 1Ghz taktet um der GTX zu zeigen wo es lang geht? ;)
Weil Tolleranz da sein muss, Hitze Stromaufnahme und Lautstärke, das sind Sachen die einen Overclocker nicht interessieren, ausserdem ist es das gleiche wie bei den CPUs, es kann auch sein das es R600 DIEs gibt die den Takt halt nicht schaffen, deswegen fährt sie lieber langsamer als wenn Probleme auftreten und das geschreie groß ist.
Ich kann meine x800gto auch um 33% Übertakten, das ist aber eine Ausnahme und das kann man eben nicht bei jeder machen.

AnarchX
2007-05-04, 20:21:41
Tippe immer noch auf >800-850 Mhz CPU Takt und 840 Mhz GDDR3 Speichertakt. Somit dürfte die XT eine GTX schlagen können, und dies nicht zu knapp.

Naja, um die gleich theoretische Texelleistung wie die GTX zu erreichen brauch es schon 2.3GHz beim R600. ;) :biggrin:

Wie schon erwähnt, wird AMD nicht ohne Grund den Takt auf 740MHz angesetzt haben und HIS taktet seine XT auch nur auf 750/850MHz.

Aber in 10 Tagen wissen wir sicherlich mehr...

dargo
2007-05-04, 20:25:08
Ich kann meine x800gto auch um 33% Übertakten, das ist aber eine Ausnahme und das kann man eben nicht bei jeder machen.
Eine X800GTO war nie High-End. High-End läuft immer am Limit. Konnte man eine X800XT/XT-PE um 33% beim Core übertakten? Ich glaube nicht.

Weil der Kudbne dann ein Netzteil mit 2x3 + 2x4 braucht und es für einen Konkurrenten zur GTS sicher nicht günstig wäre wenn dies der Fall wäre.

Wenn der Kunde für OC 2x3 + 2x4 braucht und nicht OC 2x3 + 2x3 dann liegt die Graka bei nicht OC unter 225W und mit OC drüber. Tolle Konkurrenz ... :rolleyes:

horn 12
2007-05-04, 20:28:27
Dies könnte, wiederhole "könnte" auch nur eine Finte sein.
Denke nicht dass ATI bei der HD 2900 XT klein beigibt, und sich nicht auf dem Markt etablieren möchte. Dazu hat man ja den sehr guten Preis gewählt und die Performance wird sicher nicht "weit unter" einer GTX liegen, falls überhaupt. A/A will nun den Markt zurückerobern mir den 2900-er Karten, welche vor allem unter D3D10 enorm glänzen sollen. Bei DX9 soll es ein Kopf an Kopf Rennen schlussendlich werden, mal die.... mal die eine.
So, habe genug geplaudert .... ;D

Daredevil
2007-05-04, 20:28:28
Vieleicht wär das auch zu teuer gewesen DIEs die halt zb. nur 770 statt 800 mitmachen auszusortieren und dann lieber gleich auf 750 gehen, damit nicht soviel wegfällt.
Der R600 wird doch sowieso eine recht teure und nicht sooooo lohnende Karte wie es aussieht, also für den Hersteller, nicht für den Kunden :) *Spekulier*

dildo4u
2007-05-04, 20:28:34
Eine X800GTO war nie High-End. High-End läuft immer am Limit. Konnte man eine X800XT/XT-PE um 33% beim Core übertakten? Ich glaube nicht.
Der Vergleich ist eh lächerlich da ATI diesmal keine Transistoren sparen kann wie bei der X800 Generation wo man mal ebend das komplette SM3.0 eingespart wurde und so der Takt wesentlich höhrer angesetzt werden konnte als beim vergleichbaren NV Produckt.Und die 80nm sind nicht soo der riesen Vorteil gegenüber der ausgereiften 90nm Fertigung bei NV das,das 30% mher OC Fähigkeit ausmachen würde.

Daredevil
2007-05-04, 20:32:26
High-End läuft immer am Limit.
Jo, siehe Intel Core2Duo :)
Eine 850xt läuft mit 540MHz, ich schaffe 590 mit Standardkühlung, nagut sind "nur" 10%, aber am Anschlag läuft eine 850xt also auch nicht, wiegesagt es gibt halt Tolleranzen weil es gute und schlechte Modelle gibt.

dargo
2007-05-04, 20:34:04
Der Vergleich ist eh lächerlich da ATI diesmal keine Transistoren sparen kann wie bei der X800 Generation wo man mal ebend das komplette SM3.0 eingespart wurde und so der Takt wesentlich höhrer angesetzt werden konnte als beim vergleichbaren NV Produckt.Und die 80nm sind nicht soo der riesen Vorteil gegenüber der ausgereiften 90nm Fertigung bei NV das,das 30% mher OC Fähigkeit ausmachen würde.
Dann nimm von mir aus eine X1800XT oder X1900XT. Auch diese konnte man nicht einfach so um 33% übertakten.

dildo4u
2007-05-04, 20:36:13
Dann nimm von mir aus eine X1800XT oder X1900XT. Auch diese konnte man nicht einfach so um 33% übertakten.
Jup da sieht man auch wenn ATI eine Karte baut die Transistorenmäßig am Limit ist das die OC Fhäigkeit extrem leidet die 1900 Karten ließen sich ja im Schnitt schon wesentlich schlechter OC als die 1800XT Karten.

kruemelmonster
2007-05-04, 20:40:03
@Daredevil:

die Mehrzahl von Die nennt sich Dice

@topic:

Ich hoffe mal das die umherschwirrende 200w Angabe Max oder TDP ist und sich der Verbrauch in der Praxis bei ~150w einpegelt. Falls sich die 200w bewahrheiten sollten, gibts eben ne GTS 640. Hätte nebenbei den großen Vorteil das ich wieder 3mood nutzen könnte.

reunion
2007-05-04, 20:50:42
Jup da sieht man auch wenn ATI eine Karte baut die Transistorenmäßig am Limit ist das die OC Fhäigkeit extrem leidet die 1900 Karten ließen sich ja im Schnitt schon wesentlich schlechter OC als die 1800XT Karten.

Und eine transistorenmäßig weit unterlegene 7900GTX ließ sich noch viel schlechter übertakten. Solche Vergleiche führen zu nichts. ATi hat R600 offensichtlich auf hohe Taktraten ausgelegt, was jetzt der Grund dafür ist, dass man die XT "nur" mit 740Mhz taktet, obwohl bereits alte Testsamples mit >=800Mhz liefen, bleibt abzuwarten. Vermutlich wäre der Stromverbauch sonst einfach zu hoch. Dass da noch einiges an Taktpotential schlummert, erscheint durchaus logisch, noch dazu, wo man sogar freien Zugriff auf die Spannung hat.

AnarchX
2007-05-04, 20:52:34
Zurück zum Thema...
http://img405.imageshack.us/img405/2517/x2900xt102401319944ik7.pnghttp://img405.imageshack.us/img405/5362/x2900xt10240231a133qw8.png
http://www.xtremesystems.org/forums/showthread.php?t=143104
3DMark-Schutz im Treiber oder nur eine dumme Ausrede?

reunion
2007-05-04, 20:55:54
Zurück zum Thema...
http://img405.imageshack.us/img405/2517/x2900xt102401319944ik7.pnghttp://img405.imageshack.us/img405/5362/x2900xt10240231a133qw8.png
http://www.xtremesystems.org/forums/showthread.php?t=143104
3DMark-Schutz im Treiber oder nur eine dumme Ausrede?

Viel interessanter sind die sehr guten Specviewperf v9 Werte, die wiedermal auf eine sehr hohe Geometrieperformance deuten. Obwohl hier nichtmal optimierte Treiber wie bei den Quadro oder FireGL Karten zum Einsatz kommen, schlägt man eine >2000$ Quadro FX Karte locker.

Ailuros
2007-05-04, 20:58:42
Die Bandbreite, interne Datenpfade, Register, Menge an VRAM oder sonstwas. Eine GPU besteht eben nicht nur aus ein paar Bunten Kaestchen im Blockdiagramm. (Trisetup - Dispatcher - TMUs - ROPs - SI ectpp)
Um in dieser Situation wirklich differenziert analysieren zu koennen braeuchte man zu dem Spiel vermutlich noch nen Simulator.

CTF Face3, 16*12, 16xAF

8xS = 219.17 MB
16xQ = 220.67 MB

Die ROPs im G80 leisten pro Takt 96 Z + Colorwerte. Das heisst die muessten bei 8x MSAA die einmal loopen. Das kostet einen laecherlichen Takt. Ein Takt auf hunderte Takte geht sowieso unter.

Nur kostet anscheinend dieser "laecherliche" Takt mehr was Leistung betrifft als ob die Fuellrate durch 2xSSAA halbiert wird.

AnarchX
2007-05-04, 20:59:24
Viel interessanter sind die sehr guten Specviewperf v9 Werte, die wiedermal auf eine sehr hohe Geometrieperformance deuten.

So sieht es aus, wenn auch der R600 nicht im Gamer-Markt 100%ig punkten kannst, so könnte man doch im professionellen Bereich, wenn Treiber entsprechende Qualität aufweisen, doch ziemlich erfolgreich sein.

Lawmachine79
2007-05-04, 21:00:11
Dies könnte, wiederhole "könnte" auch nur eine Finte sein.
Denke nicht dass ATI bei der HD 2900 XT klein beigibt, und sich nicht auf dem Markt etablieren möchte. Dazu hat man ja den sehr guten Preis gewählt und die Performance wird sicher nicht "weit unter" einer GTX liegen, falls überhaupt. A/A will nun den Markt zurückerobern mir den 2900-er Karten, welche vor allem unter D3D10 enorm glänzen sollen. Bei DX9 soll es ein Kopf an Kopf Rennen schlussendlich werden, mal die.... mal die eine.
So, habe genug geplaudert .... ;D
Joar, in der Tat, genug geplaudert. ATI erobert mit einer um sieben Monate (Verfügbarkeit wohl acht Monate) verspäteten Karte, die entweder langsamer oder nicht deutlich schneller als das 7 (8) Monate alte Modell des Konkurrenten ist. Das ist, als wollte BMW sich JETZT mit dem E36 den Markt "zurückerobern". Und DX10? Ehe das jemand nutzt, gibt es längst nen G90 und ehe es sich durchgesetzt hat nen G100.

Gast
2007-05-04, 21:03:58
Nur kostet anscheinend dieser "laecherliche" Takt mehr was Leistung betrifft als ob die Fuellrate durch 2xSSAA halbiert wird.

Es sind vier Takte bzw. 4 loops, um 16 Coverage Samples zu erzeugen.

Ailuros
2007-05-04, 21:06:48
Es sind vier Takte bzw. 4 loops, um 16 Coverage Samples zu erzeugen.

Ich sagte ja schon 20 depth tests fuer 16xQ :P

Lawmachine79
2007-05-04, 21:07:30
Es sind vier Takte bzw. 4 loops, um 16 Coverage Samples zu erzeugen.
Ich glaube nicht, daß der Leistungsverlust durch die Coveragesamples, sondern durch den zusätzlichen MSAA-Anteil verursacht wird.

PCGH_Carsten
2007-05-04, 21:07:40
Es sind vier Takte bzw. 4 loops, um 16 Coverage Samples zu erzeugen.
Und es ist ja auch nicht so, dass die ROPs untätig herumsitzen und warten, bis mal alle paar hundert Takte was aus den ALUs kommt. Die schreiben und blenden und testen und "nebenbei" resolven sie auch mal.

Gast
2007-05-04, 21:11:24
Ich glaube nicht, daß der Leistungsverlust durch die Coveragesamples, sondern durch den zusätzlichen MSAA-Anteil verursacht wird.

Dann dürfte es keinen Leistungsunterschied zwischen 8xQ (8 Color/Z - Samples und 8 Cpberage - Samples) und 16xQ (8 Color/Z - Samples und 16 Coverage - Samples) geben.
Das ist leider nicht so. 16xQ ist immer langsamer als 8xQ.

reunion
2007-05-04, 21:13:42
So sieht es aus, wenn auch der R600 nicht im Gamer-Markt 100%ig punkten kannst, so könnte man doch im professionellen Bereich, wenn Treiber entsprechende Qualität aufweisen, doch ziemlich erfolgreich sein.

Auch unter D3D10 gibt es ein nettes Gimmick namens GS. R600 wird schon seine Vorzüge haben, nur scheinen diese nicht in aktuellen Spielen zu liegen. Er scheint vorallem für VT, FP-Filterung, GS, etc. optimiert worden zu sein. Wer weiß, ws sich noch alles ergibt. Dazu eine programmierbare Tesselations-Einheit, die keine Änderungen mehr für D3D11 braucht.

Lawmachine79
2007-05-04, 21:15:29
Dann dürfte es keinen Leistungsunterschied zwischen 8xQ (8 Color/Z - Samples und 8 Cpberage - Samples) und 16xQ (8 Color/Z - Samples und 16 Coverage - Samples) geben.
Das ist leider nicht so. 16xQ ist immer langsamer als 8xQ.

Das ist richtig, daß er IMMER langsamer ist - aber der Unterschied ist verschwindend gering, ich habe mal 4x vs. 16x gebencht, der Unterschied war sehr gering - wo 4x flüssig möglich ist, ist auch 16x flüssig möglich.

Gast
2007-05-04, 21:18:37
hier nochmal für die Leute die denken eine 8800gtx würde 120 Watt verbrauchen ,was Quatsch ist

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

w0mbat
2007-05-04, 21:18:43
Was für Specviewperf v9 Werte hat eigentlich eine 8800GTX?

Gast
2007-05-04, 21:20:37
Das ist richtig, daß er IMMER langsamer ist - aber der Unterschied ist verschwindend gering, ich habe mal 4x vs. 16x gebencht, der Unterschied war sehr gering - wo 4x flüssig möglich ist, ist auch 16x flüssig möglich.

Der Unterschied zwischen 4xMSAA und 16xCSAA ist genauso groß wie zwischen 8xMSAA und 16xQCSAA.

AnarchX
2007-05-04, 21:20:53
Was für Specviewperf v9 Werte hat eigentlich eine 8800GTX?

Die bessere Frage wäre erstmal in welcher Auflösung diese 1GB XT getestet wurde?

Lawmachine79
2007-05-04, 21:21:52
Der Unterschied zwischen 4xMSAA und 16xCSAA ist genauso groß wie zwischen 8xMSAA und 16xQCSAA.

Richtig - verschwindend gering - das andere habe ich aber nicht gebencht, deshalb habe ich das 4x/16x Beispiel genannt.

Gast
2007-05-04, 21:23:14
Richtig - verschwindend gering - das andere habe ich aber nicht gebencht, deshalb habe ich das 4x/16x Beispiel genannt.

"Verschwindend gering"?

http://www.techreport.com/reviews/2006q4/geforce-8800/aa-scaling.gif
http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=7

Je nach Anwendung kann es zu solchen Differenzen kommen.

Grestorn
2007-05-04, 21:23:39
hier nochmal für die Leute die denken eine 8800gtx würde 120 Watt verbrauchen ,was Quatsch ist

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

Oh Mann, in der Tabelle ist die Stromaufnahme des GESAMTSYSTEMS aufgeführt.

Wie oft passiert es noch, dass das durcheinandergeschmissen wird?

DrumDub
2007-05-04, 21:24:01
Welcher SPezifikation entspricht denn so ein 8pin-Stecker? Im Design-Guide für EPS12V Vers. 2.91 kann ich diesbezüglich nix entdecken. pcie 2.0.

Super Grobi
2007-05-04, 21:27:38
Oh Mann, in der Tabelle ist die Stromaufnahme des GESAMTSYSTEMS aufgeführt.

Wie oft passiert es noch, dass das durcheinandergeschmissen wird?

Eben! Und wenn das richtig gemessen wurde, liegt die GTX sogar UNTER 100 Watt! Wie ich drauf komme? Gesamtverbrauch SLI-GTX System - Gesamtverbrauch Single-GTX = Stromverbrauch EINER GTX

SG

Edit: Last wäre dann 137 Watt für EINE GTX

Ailuros
2007-05-04, 21:29:07
Auch unter D3D10 gibt es ein nettes Gimmick namens GS. R600 wird schon seine Vorzüge haben, nur scheinen diese nicht in aktuellen Spielen zu liegen. Er scheint vorallem für VT, FP-Filterung, GS, etc. optimiert worden zu sein. Wer weiß, ws sich noch alles ergibt. Dazu eine programmierbare Tesselations-Einheit, die keine Änderungen mehr für D3D11 braucht.

Umso nutzloser fuer die Lebenszeit des R600 wird aber die Tesselations-Einheit sein. Wieviele Nachfolger wird AMD auf den Ladentisch legen bis die ersten D3D10 Spiele antanzen und von D3D11 sollte vor 2009 als API erstmal nicht die Rede sein.

Uebrigens ist jeglicher SpecViewPerf Vergleich mit G80 oder G80 Quadros nutzlos; koenntest Du schon jetzt die Resultate von zukuenftigen Treibern sehen, hat sich G80 vor nichts zu verstecken. Kann es wirklich sein dass die letztere fast genauso schnell wie G7x in der Applikation ankommt?

GeForces waren nie besonders stark wenn es zu echtem Geometrie-Raten kommt. Was besonders Neues sehe ich hier nicht. Wie gesagt unter Umstaenden 1 Tri/clock fuer G80, sonst 1 Tri/2clocks, waehrend R600 1 Tri/clock. Irgendwie muss die letztere ihre Nachteile auch ausgleichen koennen. ATI hat leider eine Tendenz zu oft manche Sachen einzuschaetzen. Warum glaubst Du wurde der originale R400 eingestampft? Was genau haette man mit 4*Vec4 damals anfangen koennen?

Man hat eben leider nicht gleich alles verdammt, sondern sehr vieles in Xenos und R600 wieder benutzt.

Ailuros
2007-05-04, 21:30:43
Der Unterschied zwischen 4xMSAA und 16xCSAA ist genauso groß wie zwischen 8xMSAA und 16xQCSAA.

Jein: http://users.otenet.gr/~ailuros/MCwithAA.pdf

[dzp]Viper
2007-05-04, 21:40:13
Zurück zum Thema...
http://img405.imageshack.us/img405/2517/x2900xt102401319944ik7.pnghttp://img405.imageshack.us/img405/5362/x2900xt10240231a133qw8.png
http://www.xtremesystems.org/forums/showthread.php?t=143104
3DMark-Schutz im Treiber oder nur eine dumme Ausrede?


Eine 2900XT mit 1GB Ram und 1000MHz Ramtakt? :|

Oder bahnt sich da noch was anderes an? :redface:

AnarchX
2007-05-04, 21:42:37
Viper;5464198']Eine 2900XT mit 1GB Ram und 1000MHz Ramtakt? :|


Vielleicht eine dieser 1GB 2900XTs die es exklusiv für die OEMs geben soll. ;)

[dzp]Viper
2007-05-04, 21:57:15
Vielleicht eine dieser 1GB 2900XTs die es exklusiv für die OEMs geben soll. ;)

Dann will ich die aber auch X-D

Nakai
2007-05-04, 22:29:10
Edit: Last wäre dann 137 Watt für EINE GTX

Naja schau mal auf CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/37/#abschnitt_stromverbrauch

Betrachte dir mal die Last des Systems mit einer Karte und die Last des Systems mit SLI...^^
Irgendwie gibt es bis jetzt von keinem Test keine guten Angaben zum Stromverbrauch.

Umso nutzloser fuer die Lebenszeit des R600 wird aber die Tesselations-Einheit sein.

Auch im Professionellen Bereich, denn hier könnte der R600 sehr gut sein.

mfg Nakai

mapel110
2007-05-04, 22:33:33
Die Leistungsaufnahme hängt ja auch zum guten Teil von der Effizenz des eingesetzten Netzteils ab. Können also beide Werte durchaus stimmen. So groß ist die Differenz ja nicht.

Gast
2007-05-04, 22:35:00
interessant,eine GTX verbraucht im Schnitt 100 Watt aber wenn irgend eine Quelle ,ein Verbauch von 230 Watt für den R600 angibt,wirds sofort geglaubt

mapel110
2007-05-04, 22:37:01
interessant,eine GTX verbraucht im Schnitt 100 Watt aber wenn irgend eine Quelle ,ein Verbauch von 230 Watt für den R600 angibt,wirds sofort geglaubt
ATI hat zwar einen wohl besseren Fertigungsprozess als nvidia, aber dafür mussten sie über hohe Taktraten gehen. Das bedingt widerum höhere Spannungen. Und wir alle wissen, Leistungsaufnahme steigt quadratisch zur Spannungserhöhung.

dr_mordio
2007-05-04, 22:37:18
Welches Netzteil hat denn überhaupt schon ein 8 PciX Anschluß? Die meisten werden sich einen Adapter nachkaufen müßen.
Und natürlich, es geht um eine R6oo, etwas anderes habe ich nie behauptet.

hehe. ich bin jetzt im besitz eines
Be Quiet! Dark Power Pro 750Watt (habs gewonnen)

und das hat 4x PCI-E anschlüsse
2x davon als 6-Pol und 2x als 8-Pol (sollte also für ein R600 CF system reichen :biggrin: )

achja, und an alle die auch ein Be Quiet dark power ab 750Watt aufwärts haben:
ihr könnt das 8-pol kabel um sonst bei be quiet (listan) nachbestellen, da das NT (kabelmanagement) ja auf der netzteil seite schon 2x 8-pol anschlüsse hat, die im moment nur mir 6-pol kabeln belegt sind.
das kabel gibts kostenlos beim support.

MfG
Alex

Gast
2007-05-04, 22:40:21
ATI hat zwar einen wohl besseren Fertigungsprozess als nvidia, aber dafür mussten sie über hohe Taktraten gehen. Das bedingt widerum höhere Spannungen. Und wir alle wissen, Leistungsaufnahme steigt quadratisch zur Spannungserhöhung.

und wie lang kann dass ATI noch treiben,denn der Stromverbauch is derb gegenüber eine CPU z.B ?
Bis jetzt ging der Verrbauch bei Grakas immer nur nach oben.Wann gehts mal nach unten

Ronny145
2007-05-04, 22:40:38
Eben! Und wenn das richtig gemessen wurde, liegt die GTX sogar UNTER 100 Watt! Wie ich drauf komme? Gesamtverbrauch SLI-GTX System - Gesamtverbrauch Single-GTX = Stromverbrauch EINER GTX

SG

Edit: Last wäre dann 137 Watt für EINE GTX

Wie kommen die 137 Watt zustande? Wirkungsgrad schon mit einberechnet?

Sli GTX - Single GTX wären 163 Watt.
Naja schau mal auf CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/37/#abschnitt_stromverbrauch

Betrachte dir mal die Last des Systems mit einer Karte und die Last des Systems mit SLI...^^

Dort wäre die Differenz bei 175 Watt. Bestätigt doch nur den anderen Test. Abzüglich des Wirkungsgrades kommt man da noch weit unter die Differenzmessung.

Super Grobi
2007-05-04, 22:48:40
Stimmt! War ein Rechenfehler drin. Aber Wirkungsgrad und mehrverbrauch vom Chipsatz wegen SLI (denke das kostet auch was) kommt dann soch so ungefähr hin, was ich fälschlicherweise als Ergebniss gepostet habe.

SG

PCGH_Carsten
2007-05-04, 22:52:12
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html

Vielleicht ist das leidige Thema damit jetzt mal endlich vom Tisch? xBit messen die VGA-Karte isoliert.

Super Grobi
2007-05-04, 22:55:15
http://www.xbitlabs.com/articles/video/display/msi8800gts-640_6.html

Vielleicht ist das leidige Thema damit jetzt mal endlich vom Tisch? xBit messen die VGA-Karte isoliert.

Ja,
Thema vom Tisch und bestätigt meine Aussage.

Danke für den guten Link
SG

Gast
2007-05-04, 23:04:37
Die Seite von Xtteme ist down.Wieder eine Strafe von ATI?

Gast
2007-05-04, 23:10:26
Die Seite von Xtteme ist down.Wieder eine Strafe von ATI?
erstens quatsch
zweitens die seite ist da

deekey777
2007-05-04, 23:52:55
*hust*
Komische Sachen werden hier gepostet...
Ich sag nur:
http://img144.imageshack.us/img144/1517/attachmentrx6.jpg

Gast
2007-05-04, 23:55:26
*hust*
Komische Sachen werden hier gepostet...
Gesundheit^^

Aber das

25.04.2007, 11:21 | Quelle: Dailytech
Radeon HD 2900 XT: Benchmarks
Benchmarks zur Radeon HD 2900 XT sowie Neuigkeiten zum R600

Wie erwartet sickern vom derzeitigen AMD-Event in Tunesien weitere Details zum kommenden R600 durch. Vorweg: Das Flaggschiff "Radeon HD 2900 XTX" soll deutlich später erscheinen als bislang angenommen. Erst im dritten Quartal dieses Jahres wird es so weit sein, wenn man aktuellen Gerüchten glauben schenkt. Grund für die Verspätung sollen Leistungsprobleme mit dem neuen GDDR4-Grafikspeicher sein.
Anzeige

Weiterhin scheint sich zu bestätigen, dass der R600 bis zu 24faches Anti Aliasing beherrschen wird - was leistungstechnisch bei kleineren Ausgaben des Chips in der Praxis natürlich kaum ohne Leistungseinbußen einsetzbar sein wird.
Besonders interessant sind jedoch neue Benchmarks, die zur Radeon HD 2900 XT aufgetaucht sind. Dazu gibt es auch Vergleichswerte mit nVidias GeForce 8800 GTS. Getestet wurde mit einem Intel Core 2 Extreme QX6700 sowie 2 GByte DDR2-800 Arbeitsspeicher in der Auflösung 1280x1024 bei jeweils maximalen Details.

Benchmarkergebnisse:

3DMark06
ATI Radeon HD 2900 XT 512 MByte: 11447 Punkte
nVidia GeForce 8800 GTS 640 MByte: 9836 Punkte

Call of Duty 2
ATI Radeon HD 2900 XT 512 MByte: 73,5 FPS
nVidia GeForce 8800 GTS 640 MBye: 56,7 FPS

Oblivion
ATI Radeon HD 2900 XT 512 MByte: 47,9 FPS
nVidia GeForce 8800 GTS 640 MByte: 39,5 FPS

F.E.A.R.
ATI Radeon HD 2900 XT 512 MByte: 84 FPS
nVidia GeForce 8800 GTS 640 MByte: 83,3 FPS
+ link sollte bleiben;)
http://www.hartware.de/news_41941.html

deekey777
2007-05-04, 23:57:31
Was sollen diese Ergebnisse aufeinmal?

Gast
2007-05-05, 00:01:03
Was sollen diese Ergebnisse aufeinmal?
Naja aufeinmal ist gut sind schon recht alt.

Es ist aber ne "Quelle" die wenigstens angegeben wurde und somit Ok ist.

Obs nun echte sind oder nicht aber jeder kann sie einsehen

Ailuros
2007-05-05, 00:01:12
Was sollen diese Ergebnisse aufeinmal?


Die Dailytech Resultate wurden schon so oft besprochen dass es langweilig wird.

mapel110
2007-05-05, 00:16:51
Bist du so Freundlich und Postest einen Link?
hat er aus seinem Browsercache gefischt. Wurde hier vorhin schon iirc von Up gepostet, aber gelöscht. Versteh ich irgendwie nicht. Gibts ein Gesetz dagegen, hier Fakes zu posten?! Darüber lässt sich doch toll debattieren. ^^

w0mbat
2007-05-05, 00:17:10
WTF? Was ist jetzt los?

@mapel110: Wieso Fakes, woher weißt du das? Und wenn es Fakes sind, wieso werden sie dann gelöscht?

Gast
2007-05-05, 00:17:56
Ping-Pong: http://www.forumdeluxx.de/forum/showpost.php?p=6045982&postcount=3841
Danke

Aber das ist auch leider nur das Zitat von up2

von Mr. Up² aus gut informierten Kreisen

naja 10 tage noch :(

deekey777
2007-05-05, 00:19:53
Lasst uns doch wieder über interessante Sachen unterhalten.

w0mbat
2007-05-05, 00:20:39
Ja, ich finde es interessant wieso die Benches, ob Fake oder nicht, gelöscht werden.

Super Grobi
2007-05-05, 00:22:05
hat er aus seinem Browsercache gefischt. Wurde hier vorhin schon iirc von Up gepostet, aber gelöscht. Versteh ich irgendwie nicht. Gibts ein Gesetz dagegen, hier Fakes zu posten?! Darüber lässt sich doch toll debattieren. ^^

Hab das nervöse gelösche auch nicht gecheckt! Keine Quelle, ok, aber was ist daran schlimm/verboten?

SG

Gast
2007-05-05, 00:23:43
Finde ich ehrlich gesagt auch.Das hier ist ein Spekulations Thread, werter Herr Moderator.Weshalb also dieses herumzensieren?

Gast
2007-05-05, 00:26:37
Ich habe um einen Link gebeten und die Antwort darauf ist ziemlich .......
ausgefalen.

Das hat nix mit nervösem löschen zu tuhen.

Somit würde ich auch alles in dem zusamenhang löschen da zuviel Flame bei rauskommt.

btw ich muss nun auf die piste bis morgen;)

deekey777
2007-05-05, 00:26:47
Ob sie jetzt Fake sind oder nicht: So etwas wie Asshole Behavior ist wirklich unter aller Sau.

Super Grobi
2007-05-05, 00:29:17
Ich habe um einen Link gebeten und die Antwort darauf ist ziemlich .......
ausgefalen.

Das hat nix mit nervösem löschen zu tuhen.

Somit würde ich auch alles in dem zusamenhang löschen da zuviel Flame bei rauskommt.

btw ich muss nun auf die piste bis morgen;)

Das bezog sich auf die löscherei VOR deinem Post! Die Erklärung von DK verstehe ich leider nicht. Ich weiss nur, das Asshole Arschloch heißt. Verstehe aber nicht, was ein Darmausgang mit R600 zu tun hat.

SG

w0mbat
2007-05-05, 00:30:43
Ob sie jetzt Fake sind oder nicht: So etwas wie Asshole Behavior ist wirklich unter aller Sau.

:confused:

Gast
2007-05-05, 00:31:53
Das bezog sich auf die löscherei VOR deinem Post! Die Erklärung von DK verstehe ich leider nicht. Ich weiss nur, das Asshole Arschloch heißt. Verstehe aber nicht, was ein Darmausgang mit R600 zu tun hat.

SGich bat 2 mal um einen link und weg

san.salvador
2007-05-05, 00:33:57
Ist in der neuen PC Games Hardware eigentlich was über den R600 zu lesen?

btw: Auf wieviele Threads/Postings hat es der "Wir warten auf den G80"-Thread gebracht?

Ronny145
2007-05-05, 00:34:33
Ob sie jetzt Fake sind oder nicht: So etwas wie Asshole Behavior ist wirklich unter aller Sau.


Gleich ein Ban dafür X-D


Nunja, ob Fake oder nicht. Zumindest würden die Werte gut zum angepeilten Preis passen. Wäre gar nicht so überraschend um ehrlich zu sein.
Je nach Spiel zwischen GTS und GTX, manchmal GTS Niveau und manchmal eher GTX Niveau.

Ailuros
2007-05-05, 00:38:34
Zumindest würden die Werte gut zum angepeilten Preis passen. Wäre gar nicht so überraschend um ehrlich zu sein.
Je nach Spiel zwischen GTS und GTX, manchmal GTS Niveau und manchmal eher GTX Niveau.

Hab ich nicht schon erwaehnt dass sich die XT fuer ihren Preis ausgezeichnet zwischen der GTS und der GTX positioniert. Ich gehe jetzt noch ein Stueck weiter und "vermute" moeglichen Gleichstand in zukuenftigen Spielen mit der GTX.

deekey777
2007-05-05, 00:39:42
Jetzt brauchen wir nur zukünftige Spiele. X-D

Ailuros
2007-05-05, 00:41:48
Jetzt brauchen wir nur zukünftige Spiele. X-D

NV wird dann eben ihre Preise um einiges reduzieren muessen.

Gmax
2007-05-05, 00:42:06
Ist in der neuen PC Games Hardware eigentlich was über den R600 zu lesen?

btw: Auf wieviele Threads/Postings hat es der "Wir warten auf den G80"-Thread gebracht?

Sicher nicht soviele wie beim R6oo :biggrin:

Hab ich nicht schon erwaehnt dass sich die XT fuer ihren Preis ausgezeichnet zwischen der GTS und der GTX positioniert. Ich gehe jetzt noch ein Stueck weiter und "vermute" moeglichen Gleichstand in zukuenftigen Spielen mit der GTX.

Das macht Hoffnung! Also doch noch ein bischen Treibertuning:rolleyes:

up¦²
2007-05-05, 00:48:48
Ob sie jetzt Fake sind oder nicht: So etwas wie Asshole Behavior ist wirklich unter aller Sau.
Das geht jetzt aber zu weit!
Bezeichnest du moich als Asshole - ungeheuerlich!!! :mad:

Gast
2007-05-05, 00:50:16
Der OpenGL Treiber sollte noch etwas optimiert werden, dann haben wir ja schon fast Gleichstand mit der GTX (max. -10%) nach den nun bekannten Benchmarks.

deekey777
2007-05-05, 00:55:34
Das geht jetzt aber zu weit!
Bezeichnest du moich als Asshole - ungeheuerlich!!! :mad:
Ich habe geschrieben, dass das Verhalten wie eines Arschlochs unter aller Sau ist. Wenn du dich irgendwie angesprochen fühlst, solltest du dich schämen!


http://www.steampowered.com/activateATI/index.html

Wow, es gibt nur DoD Source zum Überbrücken der Zeit zum Start von Ep. 2. Das macht ja richtig Hoffnung, denn zum HL2-Voucher gab's das ganze VALVe-Premiere-Pack mit HL1, CS, DoD, HLDM, OpF.

up¦²
2007-05-05, 01:34:49
BTW...
[QUOTE=DK777;5464742]Ich habe geschrieben, dass das Verhalten wie eines Arschlochs unter aller Sau ist. Wenn du dich irgendwie angesprochen fühlst, solltest du dich schämen!

Wer sich hier "schämen" sollte, darüber kann sich jeder selber ein Urteil bilden, wenn du ihm die Gelegenheit dazu bietest und nicht wieder draufloslöschst wie "Iwan der Schreckliche", Tawaritsch DK77 :wink:
Als Moderator solltest du sowieso moderat eingreifen und obendrein nicht auch noch so unmißverständlich provozieren ... Warum?
Dein Verhalten ist mir rätselhaft ... :confused:

Ailuros
2007-05-05, 02:04:46
Wenn man jemand etwas vertrauliches zuschiebt und ausdruecklich notiert dass man es nicht weitertragen soll dann sollte man es auch einhalten.

Ich hatte ein schriftliches Versprechen von dem Herren den ich informierte dass es unter uns bleiben wird und ich bin mir sicher dass er Dir diese Kleinigkeit auch weitergeleitet hat, was wohl heisst dass Du diese Vertraulichkeit auch haettest ehren sollen und nicht mit dem Quark uebers Netz rennen und es links und rechts verbreiten.

"Ich wusste nicht..." oder "ich merkte nicht..." sind nur dumme Ausreden und obwohl ich trotz allem Verstaendnis aufweise fuer diesen Fall, hab ich so eben eine aeusserst wertvolle Quelle verloren. Natuerlich bin ich selber schuld an dem Schlammasel, aber wuerde ich Dir den Inhalt der originalen Quelle weiterleiten wuerdest Du Dich fuer mich genauso schaemen wie ich momentan.

Solche Kleinigkeiten sind heikel und zu gefaehrlich; aber es ist eben nur ein weiteres Anzeichen dass fuer manche 5 Sekunden an "Pseudo-Ruhm" wichtiger sind als das Ehrenwort von anderen Leuten.

up¦²
2007-05-05, 03:44:58
Zur Klärung eines Mißverständnisses:
Hier liegt offenbar eine Verwechslung vor, deren Konsequenzen mir inzwischen zwar verständlich, aber deren zu Tage getretener Haß und Spott unerträglich sind - ich verlange Wiedergutmachung: mich trifft keinerlei Schuld!
Hier quasi als der letzte Dreck dazustehn ist ungerecht und völlig überzogen :mad:

Ailuros
2007-05-05, 06:08:53
Ich muss wohl doch um Entschuldigung bitten; es war leider eben ein zu dummer Zufall dass innerhalb weniger Minuten dass ich das Zeug in diesem Forum weiterreichte dann ploetzlich das gleiche Material hier von Dir auftauchte. Offensichtlich kommt der Leak von woanders und nicht von mir.

***edit:

es geht um die Resultate hier:

http://gathering.tweakers.net/forum/list_message/27935814#27935814

Ich hatte das Zeug schon seit einiger Zeit, leitete es aber nicht weiter. Dummer Zufall ich schick es in einem PM zu jemanden hier (bei dem ich mich auch entschuldigen muss) und nach einigen Minuten sehe ich das Zeug in aller Breite hier im Forum von up2. Kein Wunder ich gerate in Panik wenn ich auch sofort danach ein e-mail von der originalen Quelle bekomme, ob ich das Zeug weitergeleitet haette.

Ich werde zu alt fuer das Zeug heh. Auf jeden Fall sind die Resultate echt, sie sind von einer sehr zuverlaessigen Quelle und einem high end System.

Fetza
2007-05-05, 07:22:02
Ich muss wohl doch um Entschuldigung bitten; es war leider eben ein zu dummer Zufall dass innerhalb weniger Minuten dass ich das Zeug in diesem Forum weiterreichte dann ploetzlich das gleiche Material hier von Dir auftauchte. Offensichtlich kommt der Leak von woanders und nicht von mir.

***edit:

es geht um die Resultate hier:

http://gathering.tweakers.net/forum/list_message/27935814#27935814

Ich hatte das Zeug schon seit einiger Zeit, leitete es aber nicht weiter. Dummer Zufall ich schick es in einem PM zu jemanden hier (bei dem ich mich auch entschuldigen muss) und nach einigen Minuten sehe ich das Zeug in aller Breite hier im Forum von up2. Kein Wunder ich gerate in Panik wenn ich auch sofort danach ein e-mail von der originalen Quelle bekomme, ob ich das Zeug weitergeleitet haette.

Ich werde zu alt fuer das Zeug heh. Auf jeden Fall sind die Resultate echt, sie sind von einer sehr zuverlaessigen Quelle und einem high end System.

Hmm, gut neben den unerfreulichen nebenwirkungen für dich und einige hier, muss man der sache aber auch was positives abgewinnen. Die resultate des r600 sind wirklich gut, wenn der preis bei 350 euro rum, wirklich liegen sollte.... Nicht schlagen:D

AnarchX
2007-05-05, 07:33:26
Sapphire mit eigenem Kühler
http://www.free4up.com/view.axd?fn=255139044010069.jpg

und

HD 2400/2600 ab 1. Juli im Handel (http://hdtvsg.blogspot.com/2007/04/ati-radeon-hd2400-and-hd2600-on-shelves.html)

horn 12
2007-05-05, 09:03:41
Mann sieht heftig aus. Ist dies eine 3-Slot Variante oder doch nur 2 Slot?
Würde mich freuen wenn nun Bald erste Karten gelistet würden, (nicht nur von Sapphire) und einige Benchmarks bestätigt oder über Pic nachgewiesen würden.

Gast
2007-05-05, 09:10:06
so könnte man doch im professionellen Bereich, wenn Treiber entsprechende Qualität aufweisen, doch ziemlich erfolgreich sein.Ja, wenn die Treiber die entsprechende Qualität aufweisen. Ich selbst kann zwar nicht aus erster Hand über die Treiberqualität der FireGL-Karten berichten, aber das was mir von Bekannten darüber erzählt wurde, hat sich nicht so toll angehört. Allerdings kann ich mir gut vorstellen, dass nach der Übernahme ATIs durch AMD etwas mehr Manpower in diesen Bereich gesteckt wird.
die Mehrzahl von Die nennt sich DiceAfaik ist beides korrekt, Dies und Dice. Falsch hingegen ist "DIEs" oder "DICE", da es keine Abkürzung ist und somit nicht komplett groß geschrieben wird.
Dies wird ausschliesslich die Aufgabe der HD 2900 XTX sein, um mal die Ultra richtig nass zu machen, Wetten? !!
Tippe immer noch auf >800-850 Mhz CPU Takt und 840 Mhz GDDR3 Speichertakt. Somit dürfte die XT eine GTX schlagen können, und dies nicht zu knapp.Hmm, hieß es nicht, dass die GPU der XTX gleich hoch taktet wie bei der XT und der Unterschied nur im Speicher (1 GiB GDDR4 vs 512 MiB GDDR3) besteht?

James Ryan
2007-05-05, 09:11:41
:eek:
Die Sapphire-Karte sieht ja mal übelst aus, der Lüfter ist hoffentlich sehr leise! :)

MfG :cool:

aehmkei
2007-05-05, 09:40:35
HD2900XT Benches at default, mit "old old driver" wie er sagt:

http://img501.imageshack.us/img501/5240/2900xt102403wk5.png (http://imageshack.us)

http://img525.imageshack.us/img525/4894/2900xt102404gi2.png (http://imageshack.us)

http://www.xtremesystems.org/forums/showthread.php?t=143104

dildo4u
2007-05-05, 10:15:46
Das ist eine XTX ;) mit 1GHz Speichertakt und Quadcore CPU die ordentlich Punkte oben drauf packt die SM2.0 und SM3.0 Score liegt unter einer 8800GTX/Ultra.

http://service.futuremark.com/compare?3dm06=1852750

aehmkei
2007-05-05, 10:22:00
...schreibt im Forum, dass es eine XT sei, keine XTX

sklave_gottes
2007-05-05, 10:27:03
das ist 100% keine xtx. eine xtx mit "nur" 750mhz core wird es nicht geben.
Wenn die xtx raus kommt dann mit minimum 800mhz core.

Ich habe schon hd2900xt mit 1GB gesehen(im net), angeblich oem only.

Aber wie schon gesagt eine xtx wird nie und nimmer mit 750mhz core rauskommen.

mfg martin

reunion
2007-05-05, 11:01:27
Das ist eine XTX ;) mit 1GHz Speichertakt und Quadcore CPU die ordentlich Punkte oben drauf packt die SM2.0 und SM3.0 Score liegt unter einer 8800GTX/Ultra.

http://service.futuremark.com/compare?3dm06=1852750

Die SM2 und SM3 Score liegt auch weit unter den Werten die man schon von einem Xt mit aktuellen Treibern gesehen hat.

***edit:

es geht um die Resultate hier:

http://gathering.tweakers.net/forum/list_message/27935814#27935814


Laut diese offensichtlich verlässlichen Werten liegt die Karte jedenfalls in D3D auf GTX-Niveau und in OpenGL (Treiberprobleme?) etwas vor der GTS. Also für den anvisierten Verkaufspreis von 399$ kann sich die Karte sehen lassen.

dildo4u
2007-05-05, 11:08:11
Laut diese offensichtlich verlässlichen Werten liegt die Karte jedenfalls in D3D auf GTX-Niveau und in OpenGL (Treiberprobleme?) etwas vor der GTS. Also für den anvisierten Verkaufspreis von 399$ kann sich die Karte sehen lassen.
Der Abstand bei X3 ist schon größer und das ist doch D3D oder?Da es leider keine Tests in einer niedrigeren Auflösung gibt kann man auch nicht sagen ob die GTX nicht am CPU Limit arbeitet.Könnte bei X3 z.B der Fall sein.

reunion
2007-05-05, 11:12:18
Der Abstand bei X3 ist schon größer und das ist doch D3D oder?


Open GL AFAIK.


Da es leider keine Tests in einer niedrigeren Auflösung gibt kann man auch nicht sagen ob die GTX nicht am CPU Limit arbeitet.Könnte bei X3 z.B der Fall sein.

Glaube ich kaum, dazu ist der Abstand GTS zu GTX viel zu groß.

deekey777
2007-05-05, 11:13:29
Sapphire mit eigenem Kühler
http://www.free4up.com/view.axd?fn=255139044010069.jpg

und

HD 2400/2600 ab 1. Juli im Handel (http://hdtvsg.blogspot.com/2007/04/ati-radeon-hd2400-and-hd2600-on-shelves.html)
Lustig: Es ging vor Kurzem die Frage rum, ob der Lufter der 2900XT ausreicht.
Vergleicht mal:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=829&Itemid=1
Ich hab mir den Kopf zerbrochen, ob ATi mit dem Kühler nichts verschenkt.
Sapphire nutzt die ganze Breite der Grafikkarte für den Kühlkörper und lagert die Heatpipes über die Breite der Grafikkarte aus.

Gast
2007-05-05, 11:17:11
Open GL AFAIK. Nö. ist D3D.

reunion
2007-05-05, 11:18:06
Okay, dann hatte ich das falsch im Gedächtnis. Wobei X3 schon immer den nV-Karten gut lag, genauso wie Prey.

AnarchX
2007-05-05, 11:22:03
Okay, dann hatte ich das falsch im Gedächtnis. Wobei X3 schon immer den nV-Karten gut lag, genauso wie Prey.

Kurz nach dem Release hatte G80 noch massive Probleme:
http://www.xbitlabs.com/articles/video/display/gf8800-games_21.html
Vielleicht kämpft der R600 auch mit solchen...

Nakai
2007-05-05, 11:23:52
Ich werde zu alt fuer das Zeug heh. Auf jeden Fall sind die Resultate echt, sie sind von einer sehr zuverlaessigen Quelle und einem high end System.

Und zum Stromverbrauch kann man noch nichts sagen? Für mich ist das eine der wichtigsten Kriterien.

mfg Nakai

Odal
2007-05-05, 11:30:26
Hab ich nicht schon erwaehnt dass sich die XT fuer ihren Preis ausgezeichnet zwischen der GTS und der GTX positioniert. Ich gehe jetzt noch ein Stueck weiter und "vermute" moeglichen Gleichstand in zukuenftigen Spielen mit der GTX.

klingt nach ATI wie wir sie kennen für den Konsumenten. Zum Erscheinungszeitpunkt ungefähr gleich schnell wie die Konkurenz und preislich in ähnlichen Regionen und nach ein paar Monaten mit der richtigen Software und besseren Treibern drehen sie richtig auf. So wünsch ich mir das als Käufer...eine Karte muss im Verhältnis schneller werden mit der Zeit da die Anforderungen auch steigen und nicht langsamer wie NV30,NV40 und G70/71.

Allerdings lässt der Riesenkühler mit den vielen Heatpipes bei der Sapphire Karte böses bzgl. Stromverbrauch und Wärmeabgabe vermuten ;(

Gast
2007-05-05, 11:34:56
@Odol: Warum sollte das Verhältnis zwischen R600 und G80 in zukünftigen Spielen großartig anders aussehen? Bisher sieht es nicht so aus, als ob G80 irgendwelche größeren Schwächen hätte.

Gmax
2007-05-05, 11:35:11
Sagt mal, sind das tatsächlich 3 Slots bei der Sapphire, oder brauch ich noch nen Kaffee?

Nakai
2007-05-05, 11:36:27
Kaffee^^

Es sind nur 2 Slots, schau auf das Slotblech...der Aufkleber ist wohl draufgefaked.

mfg Nakai

Lawmachine79
2007-05-05, 11:38:20
Ich muss wohl doch um Entschuldigung bitten; es war leider eben ein zu dummer Zufall dass innerhalb weniger Minuten dass ich das Zeug in diesem Forum weiterreichte dann ploetzlich das gleiche Material hier von Dir auftauchte. Offensichtlich kommt der Leak von woanders und nicht von mir.

***edit:

es geht um die Resultate hier:

http://gathering.tweakers.net/forum/list_message/27935814#27935814

Ich hatte das Zeug schon seit einiger Zeit, leitete es aber nicht weiter. Dummer Zufall ich schick es in einem PM zu jemanden hier (bei dem ich mich auch entschuldigen muss) und nach einigen Minuten sehe ich das Zeug in aller Breite hier im Forum von up2. Kein Wunder ich gerate in Panik wenn ich auch sofort danach ein e-mail von der originalen Quelle bekomme, ob ich das Zeug weitergeleitet haette.

Ich werde zu alt fuer das Zeug heh. Auf jeden Fall sind die Resultate echt, sie sind von einer sehr zuverlaessigen Quelle und einem high end System.
Also wenn die Werte stimmen, ist es zwar nicht der große Wurf, aber man ist für einen begrenzten Zeitraum wieder konkurrenzfähig. Fehlt nur noch Supersampling.

Gast
2007-05-05, 11:39:31
Fehlt nur noch Supersampling.ATI und SSAA? Da bringen sie doch lieber einen Schmierfilter.

reunion
2007-05-05, 11:40:51
@Odol: Warum sollte das Verhältnis zwischen R600 und G80 in zukünftigen Spielen großartig anders aussehen? Bisher sieht es nicht so aus, als ob G80 irgendwelche größeren Schwächen hätte.

Bisher gibt es auch noch nichtmal D3D10 Werte eines G80. R600 verliert im Gegensatz zu G80 keinen Speed bei FP16-Filterung, scheint sehr gut für VT ausgelegt zu sein, und die GS-Leistung scheint laut aktuellen Gerüchten auch deutlich über dem G80 zu liegen. Mal abwarten, was sich noch alles ergibt. Jedenfalls erwähnte AiL ja schon weiter hinten, dass in Crysis ein R600 mit ca. 700Mhz die Leistung einer GTX erreicht. Und eine XTX mit über 800Mhz kommt zwar erst später, aber sie kommt.

robbitop
2007-05-05, 11:41:13
Nur kostet anscheinend dieser "laecherliche" Takt mehr was Leistung betrifft als ob die Fuellrate durch 2xSSAA halbiert wird.
Die ROPs limitieren nicht. Es ist entweder die Bandbreite oder interne Bandbreite, Register oder sonstwas. Das ist rechnerisch popo. Nichtmal in Need for Speed 3, wo reines Bilineares Single Texturing passiert und Pixel in wenigen Takten durch die Pipeline sind, wuerden die ROPs nicht limitieren.

Odal
2007-05-05, 11:42:41
@Odol: Warum sollte das Verhältnis zwischen R600 und G80 in zukünftigen Spielen großartig anders aussehen? Bisher sieht es nicht so aus, als ob G80 irgendwelche größeren Schwächen hätte.

Odal nicht Odol

1. zeigte auch ein G70/71 zum release keine grösseren Schwächen
2. bietet der R600 deutlich mehr Aritmetikpower
3. bietet der R600 deutlich mehr Bandbreite

Conclusion aus 2. und 3. Spiele werden eher Aritmethiklastiger und Bandbreitenlastiger (besonders wenn HDRR zum einsatz kommt) woraus folgt:

wenn eine 2900XT jetzt schon zwischen 8800GTS und 8800GTX (liegt näher an der GTX als an der GTS) positioniert ist laut spielebenchmarks aktueller und älterer Spiele, wird sie in zukünftigen Spielen von ihren Vorteilen eher profitieren als das die nachteile (Textureinheiten, ROPs) zu tragen kommen

reunion
2007-05-05, 11:44:35
Die ROPs limitieren nicht. Es ist entweder die Bandbreite oder interne Bandbreite, Register oder sonstwas. Das ist rechnerisch popo. Nichtmal in Need for Speed 3, wo reines Bilineares Single Texturing passiert und Pixel in wenigen Takten durch die Pipeline sind, wuerden die ROPs nicht limitieren.

Ich bin sicherlich kein Experte auf dem Gebiet, nur so wie du es darstellst, fragt man sich schon, warum nV dann solchen Monster-ROPs implementiert, wenn diese offensichtlich völlig unterfordert sind.

Gast
2007-05-05, 11:45:44
In den PR Folien steht nur was von Adaptive SSAA, also Transparent SSAA mehr gibts nicht (offiziell).

Aber die Benches in 1920*1200 sind schon interessant, da dürfte der GTS schon die Bandbreite ausgehen aber VRAM Probleme gibts wohl in den Games in der Auflösung wohl noch nicht.

AnarchX
2007-05-05, 11:47:31
Aber die Benches in 1920*1200 sind schon interessant, da dürfte der GTS schon die Bandbreite ausgehen aber VRAM Probleme gibts wohl in den Games in der Auflösung wohl noch nicht.

Hier fehlt ein FPS-Verlauf, der darüber mehr Aufschluss geben würde. ;)

Und eine XTX mit über 800Mhz kommt zwar erst später, aber sie kommt.
Wenn die Gerüchte stimmen, dass man bei der XTX auf 65nm setzen will, kann es noch einiges dauern. Aber dann kommt vielleicht gleich eine HD 2950XTX, die doch mehr als 800MHz aufbieten könnte.

Gast
2007-05-05, 11:49:20
3. bietet der R600 deutlich mehr Bandbreite


Die will auch gefüttert werden, und der einzige Füllraten/Bandbreiten Fresser mit HDR ist wohl atm Oblivion.
Und die Spieleauflösung und die AA "Anforderungen" werden sicherlich nicht kleiner in Zukunft, als R580 rauskam war man auch schon der Meinung das viel mehr Arithmetik Power viel mehr bringt, der Vergleich zwischen R520/580 zeigte aber das da vieleicht 10% rumkommen zwischen den beiden Chips (gleicher Takt).

robbitop
2007-05-05, 11:50:36
Wie gesagt unter Umstaenden 1 Tri/clock fuer G80, sonst 1 Tri/2clocks, waehrend R600 1 Tri/clock.
Laut den geleakten Folien sind es 16 bi Samples pro Takt. Also pro TMU (wenn man das ueberhaupt noch so aufdroeseln kann) nur 1 bi pro Takt.

Warum glaubst Du wurde der originale R400 eingestampft? Was genau haette man mit 4*Vec4 damals anfangen koennen?

4x Vec4 im R400? Schon RV350 hat soviele PS ALUs. Ich habe leider keine Infors ueber den originalen R400 aber ich bezweifle das jetzt einfach mal.
Xenos ist ein R400 Derivat (das hat Orton in einem Interview 2002/03 sogar mal oeffentlich gesagt). Xenos ist etwas groesser als R420 (welcher ja fuer das gleiche Zeitfenster kam, wie R400 geplant war). Also gehe ich nicht davon aus, dass R400 so arm war, wenn man sieht, was ATI mit dem Transistorcount vom Xenos angestellt hat.

Gast
2007-05-05, 11:52:04
Odal nicht Odol

1. zeigte auch ein G70/71 zum release keine grösseren Schwächen
2. bietet der R600 deutlich mehr Aritmetikpower
3. bietet der R600 deutlich mehr Bandbreite



1. Tut er auch heute noch nicht
2. bei deutlich geringerer Effizienz
3. bei deutlich geringerer Effizienz

Winter[Raven]
2007-05-05, 11:55:33
2. bietet der R600 deutlich mehr Aritmetikpower
3. bietet der R600 deutlich mehr Bandbreite

Kompletter BS!

Was zählt ist was hinten rauskommt, und nicht die Zahlen.

AnarchX
2007-05-05, 11:55:35
Tim Sweeney: Ja, wir werden Unreal Tournament 3 mit einer vollen Unterstützung für Direct X 10 ausliefern und das Multi-Sampling unter DX 10 ist der größte sichtbare Nutzen der neuen Grafikschnittstelle. Außerdem haben wir mit Direct X 10 unter Vista die Möglichkeit, den Videospeicher effizienter zu nutzen, um Texturen mit einem höheren Detailgrad darzustellen, als das mit dem Direct-X-9-Pfad von Vista möglich ist. Die meisten Effekte von UT 3 sind eher an die Füllrate als an grundlegenden Features wie das Verarbeiten von Geometrie gebunden. Daher wirkt sich Direct X 10 sehr deutlich auf die Performance aus, während wir auf die Integration neuer Features weitestgehend verzichten.
http://www.pcgameshardware.de/?article_id=600760

deekey777
2007-05-05, 11:57:24
;5465310']Kompletter BS!

Was zählt ist was hinten rauskommt, und nicht die Zahlen.
Sorry, aber das ist lächerlich, was du schreibst.

mapel110
2007-05-05, 11:58:12
Die will auch gefüttert werden, und der einzige Füllraten/Bandbreiten Fresser mit HDR ist wohl atm Oblivion.
Und dafür, dass dem G80 beim Oblivion-HDR die Puste ausgeht, performt er erstaunlich gut gerade in diesem, verglichen mit dem Querschnitt aller Games. ^^
Also HDR dürfte als Vorteil für R600 wegfallen imo.

reunion
2007-05-05, 11:59:11
http://www.pcgameshardware.de/?article_id=600760

Kein Wunder, wo man schon öffentlich angegeben hat, dass man eine 8800GTX als primäre Entwicklungsplattform verwendet, da würden wohl massive Geometrieanforderungen nicht so prickelnd kommen.

Und dafür, dass dem G80 beim Oblivion-HDR die Puste ausgeht, performt er erstaunlich gut gerade in diesem, verglichen mit dem Querschnitt aller Games. ^^
Also HDR dürfte als Vorteil für R600 wegfallen imo.

Bei FP16 HDR halbiert sich die Füllrate bei G80, zusätzlich benötigt das natürlich auch viel Bandbreite. R600 kann FP16 mit full-Speed filtern, und hat auch einen Bandbreitenvorteil. Natürlich schlägt sich G80 im Vergleich zur alten Generation mit FP16-HDR duch den massiven Rohleistungsvorsprung sehr gut, doch interessant wird der Vergleich mit R600.

mapel110
2007-05-05, 12:01:55
Kein Wunder, wo man schon öffentlich angegeben hat, dass man eine 8800GTX als primäre Entwicklungsplattform verwendet, da würden wohl massive Geometrieanforderungen nicht so prickelnd kommen.
Du würdest primär auf einem R600 entwickeln?! Wenn ja, mit welcher Begründung?

deekey777
2007-05-05, 12:02:08
Kein Wunder, wo man schon öffentlich angegeben hat, dass man eine 8800GTX als primäre Entwicklungsplattform verwendet, da würden wohl massive Geometrieanforderungen nicht so prickelnd kommen.
Du meinst, dass die 8 Vec16-ALUs des G80 für UT3 nicht ausreichend sind?

4x Vec4 im R400? Schon RV350 hat soviele PS ALUs. Ich habe leider keine Infors ueber den originalen R400 aber ich bezweifle das jetzt einfach mal.
Xenos ist ein R400 Derivat (das hat Orton in einem Interview 2002/03 sogar mal oeffentlich gesagt). Xenos ist etwas groesser als R420 (welcher ja fuer das gleiche Zeitfenster kam, wie R400 geplant war). Also gehe ich nicht davon aus, dass R400 so arm war, wenn man sieht, was ATI mit dem Transistorcount vom Xenos angestellt hat.
Ich glaube, da fehlt eine Vier vor der Vier. :)

Gast
2007-05-05, 12:04:30
Das heißt erstmal gar nix. 60 Spiele werden mit der UT3 Engine momentan Programmiert und wenn sie auf DX10 ausgelegt wurde dann werden die Entwickler auch mit Geometriespielereien ankommen. Und das jetzt die Verspätung des R600 daran Schuld sein soll das wir sowas in Zukunft eher weniger sehen werden weil die G80GTX da ~20% hinter der R600XTX hinterherhinkt, is ja wohl lächerlich, und ja genau das hört man aus manchen Postings hier raus ^^

reunion
2007-05-05, 12:04:41
Du würdest primär auf einem R600 entwickeln?! Wenn ja, mit welcher Begründung?

Das habe ich nicht gesagt. Nur ist es logisch, dass man die Anforderungen des Spiels auf die primäre Entwicklungsplattform auslegt, und die große Stärke des G80 ist IMO nunmal die massive Füllrate.

Du meinst, dass die 8 Vec16-ALUs des G80 für UT3 nicht ausreichend sind?

Wir werden sehen. Ati wirbt vermutlich nicht ohne Grund mit "massively geometric performance", und der FSX-Entwickler erwähnte auch schon vor längerer Zeit eine deutlichen Vorteil von R600 im Vergleich zu G80 was die GS-Leistung betrifft.

Odal
2007-05-05, 12:08:40
1. Tut er auch heute noch nicht


oh doch kurz nach erscheinen war ein G71 gleich shcnell bis schneller wie ein R580 in den damals getesteten spielen...schaut man sich an wie das heute ausschaut hat der R580 einen recht guten vorsprung zu bieten....


2. bei deutlich geringerer Effizienz
3. bei deutlich geringerer Effizienz

ich weiß zwar nicht genau was du jetzt mit effizienz meinst, aber es ist klar wenn der trend erst zu mehr bandbreite und arithmetikleistung hingeht das aktuell gpus die diese trümpfe besitzen; diese noch nicht komplett ausspielen können. Genauso wie einem die Möglichkeit der DX10 Hardwareimplementierung (mal abgesehen das das auch superschnelle DX9 Hardware ist) im moment nocht nicht wirklich etwas bringt....in Zukunft wird das aber anders sein.

deekey777
2007-05-05, 12:09:57
Das habe ich nicht gesagt. Nur ist es logisch, dass man die Anforderungen des Spiels auf die primäre Entwicklungsplattform auslegt, und die große Stärke des G80 ist IMO nunmal die massive Füllrate.
Es ist weder logisch noch unlogisch. Geht mal ins finstere Mittelalter des Jahres 2004, als die 6800Ultra vorgestellt wurde. Die Aussage war, dass UT3 mit allem drum und dran auf einer Grafikkarte spielbar sein wird, die 500 GFLOP/s an arithmetischer Leistung liefert.
Meine Vermutung:
Diese 500 GFLOP/s erreicht der G80 "nur", wenn man die MADD-Leistung und die MUL-Leistung addiert. Ergo: Um den G80 auszureizen, muss man den Code so optmieren, dass auch von der MUL-Einheit gebrauchgemacht wird. Der R600 hat vollwertige MADD-Einheiten, er braucht so eine Optimierung nicht unbedingt. Ähnliches machen wohl die beiden Grünen bei Crytek.

Wir werden sehen. Ati wirbt vermutlich nicht ohne Grund mit "massively geometric performance", und der FSX-Entwickler erwähnte auch schon vor längerer Zeit eine deutlichen Vorteil von R600 im Vergleich zu G80 was die GS-Leistung betrifft.
Was die GS-Leistung betrifft, nicht die Geometrieleistung. ;)
Zu UT3 würde ich noch ergänzen, dass, wenn man bedenkt, wann mit der Entwicklung der UE3 begonnen wurde, der D3D10-Pfad eher eine "bloße" Portierung des DX9-Codes sein wird (+Plus die Sache mit den Schatten).

robbitop
2007-05-05, 12:10:27
Ich bin sicherlich kein Experte auf dem Gebiet, nur so wie du es darstellst, fragt man sich schon, warum nV dann solchen Monster-ROPs implementiert, wenn diese offensichtlich völlig unterfordert sind.
Es gibt immer mal extremfaelle (vor allem Synthies). Und da die Z Tester schoen billig sind, haben sie genug eingebaut um in keinem Falle auch nur das kleinste bisschen zu verschwenden. Letztendlich hat G80 sogar zu viele davon, denn ihm fehlt die Bandbreite um alle diese nutzen zu koennen.

Anderes Extrembeispiel: NV43. Das Teil hat es sogar in Doom 3, wo es von stencil Schatten nur so wimmelte, wirklich gut ausgesehen. Fast 6800NU Level. Und das obwohl er nur pro Takt 1/4 der Z Test Units hatte.

Wie gesagt: Z-Tests kosten nichts. Ein Takt auf hundert ist eben verschwindend gering.

Winter[Raven]
2007-05-05, 12:10:50
Sorry, aber das ist lächerlich, was du schreibst.

Was soll daran falsch sein? Was zählt ist wie effizient der Chip arbeitet, da kann hinten 3TFLOPs stehen was aber in der Praxis nichts bringt.

robbitop
2007-05-05, 12:11:54
Bei FP16 HDR halbiert sich die Füllrate bei G80, zusätzlich benötigt das natürlich auch viel Bandbreite. R600 kann FP16 mit full-Speed filtern, und hat auch einen Bandbreitenvorteil. Natürlich schlägt sich G80 im Vergleich zur alten Generation mit FP16-HDR duch den massiven Rohleistungsvorsprung sehr gut, doch interessant wird der Vergleich mit R600.
Wuzz? Was hat HDR-R denn mit dem Texturformat zu tun? Ich habe jedenfalls noch kein Spiel mit FP16 Texturen gesehen. Bisher nur FX8. Also volle Fuellrate.

reunion
2007-05-05, 12:13:21
Es gibt immer mal extremfaelle (vor allem Synthies). Und da die Z Tester schoen billig sind, haben sie genug eingebaut um in keinem Falle auch nur das kleinste bisschen zu verschwenden. Letztendlich hat G80 sogar zu viele davon, denn ihm fehlt die Bandbreite um alle diese nutzen zu koennen.

Anderes Extrembeispiel: NV43. Das Teil hat es sogar in Doom 3, wo es von stencil Schatten nur so wimmelte, wirklich gut ausgesehen. Fast 6800NU Level. Und das obwohl er nur pro Takt 1/4 der Z Test Units hatte.

Wie gesagt: Z-Tests kosten nichts. Ein Takt auf hundert ist eben verschwindend gering.

Danke, das ist eine plausible und nachvollziehbare Begründung.

Odal
2007-05-05, 12:13:37
;5465310']Kompletter BS!

Was zählt ist was hinten rauskommt, und nicht die Zahlen.

Ja sicher zählt was hinten raus kommt. Aber dies wird natürlich durch Hardwareristriktionen festgelegt. Um abzuschätzen wie ein R600 in zukunft performen wird kann man nunmal nur diese "Zahlen" zu Rate ziehen. Vielleicht sollten einige mal ein paar Tage weiter denke als nur bis zum nächsten Wochenende. Ein G80 ist derzeit sau schnell das stimmt....ein R600 wird laut den geleakten "Zahlen" wohl auch demnächst sehr viele FPS auf den Schirm zaubern. Da liegt es doch auf der Hand das man sich Gedanken macht was in einem Jahr "vermutlich" potentiell mehr FPS auf den Schirm zaubert.

reunion
2007-05-05, 12:14:43
Wuzz? Was hat HDR-R denn mit dem Texturformat zu tun? Ich habe jedenfalls noch kein Spiel mit FP16 Texturen gesehen. Bisher nur FX8. Also volle Fuellrate.

Warum heißt dass dann FP16-HDR? :)