PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 2


Seiten : 1 2 3 [4] 5

BiG OnE
2006-12-31, 08:16:11
Moin, moin


Ich frage mich zwar immer noch wie die Persona CF auf nForce680 zum laufen bekam, aber das ist wohl nebensaechlich LOL ;)

da hat er wohl ein anderes Motherboard verwendet, ein Foxconn 975X7AA (CF Edition).

Bis denne ...

dargo
2006-12-31, 12:38:53
Bei GR haben sie "Anti aliasing: Edge smoothing feature has been added to the graphics options." per Patch eingefügt.
Eventuell kommt da noch was bei Vegas.
Hast du dieses nachgepatchte "AA" in GRAW gesehen?
Einfach nur schrecklich. Weichzeichner pur. Imo hat das nichts mit echtem AA zu tun.

dargo
2006-12-31, 12:44:45
Bei fruehen Treibern und 400MHz war die R600 gerade noch auf X1900XTX Nivaeu. Ich kann Dir sogar sagen bei welcher Frequenz R600 zum "break-even point" kommt, bin aber so gemein und behalte es fuer mich ;)
Jetzt könnte ich so fies sein und behaupten mit besseren Treibern und 800Mhz GPU-Takt wäre der R600 mindestens X1900XTX *2. :D


PS: Wäre es theoretisch besser gewesen, machte man einen solchen Test, einen noch deutlich weiter übertakteten C2D zu verwenden?
Quadcore wird doch derzeit nicht unterstützt und war doch manchmal sogar langsamer als Dualcore, wenn es zum Benchen von Games ging?
Ähm, es wurde angeblich ein Kentsfiled @3,2Ghz verwendet. Also, wenn das nicht reicht was soll man dann sonst nehmen? :|
Die schnellste erhältliche CPU heißt immer noch X6800 bzw. Kentsfield mit 4x2,66Ghz.

deekey777
2006-12-31, 13:03:37
Keine Schatten! (http://www.nvnews.net/vbulletin/showpost.php?p=1101799&postcount=238)
Hm, keine Schatten. Wöfür wird DR nochmal in Gears of War verwendet?
Ist nur eine Idee.

dargo
2006-12-31, 13:05:37
Hm, keine Schatten. Wöfür wird DR nochmal in Gears of War verwendet?
Ist nur eine Idee.
Aber GOW verwendet doch kein AA.

Hvoralek
2006-12-31, 13:08:42
Dort sind alle Ergebnisse ähnlich, nicht nur das eine. Und CB benutzte TSAA. Eher unwarscheinlich, dass Level505 mit den selben settings getestet hat.Nach ihren Angaben (http://level505.com/2006/12/30/the-full-ati-r600-test/10/) tun sie das: "We tested Oblivion with activated TSSAA (nVidia) / AAA (ATI)."

Blutmaul
2006-12-31, 13:19:17
Die Spiele profitieren heute grade mal von Dualcore.
Wäre es nicht besser gewesen, einen C2D auf 3,6 oder mehr Ghz zu bringen, anstelle einen Quadcore mit 3,2 Ghz?

dargo
2006-12-31, 13:26:12
Die Spiele profitieren heute grade mal von Dualcore.
Wäre es nicht besser gewesen, einen C2D auf 3,6 oder mehr Ghz zu bringen, anstelle einen Quadcore mit 3,2 Ghz?
Nö:

1. Je nach Spiel ist ein Quadcore @3,2Ghz genauso schnell wie ein Dualcore @3,6Ghz.
2. Profitiert ein Spiel überhaupt nicht vom Quadcore hast du gerade mal 12,5% Vorteil für den C2D @3,6Ghz. Eher unwichtig.
3. Einen 3,6Ghz C2D gibt es nicht zu kaufen.

deekey777
2006-12-31, 13:27:07
Aber GOW verwendet doch kein AA.
Und warum nutzt GOW kein AA?
Weil in diesem Spiel DR für die Schatten (und Nebel?) genutzt wird.
(Ich dachte, das weiß jeder. ;()

Blutmaul
2006-12-31, 13:27:29
Das ist eine Aussage mit der ich was anfangen kann, thx!

Gast
2006-12-31, 13:29:17
http://www.beyond3d.com/forum/showpost.php?p=900364&postcount=2107

Mhh ich würde gerne wissen wie ihr zu den Tests steht?

Razor1 scheint immer recht gute Infos zu haben, daher könnte der Test gefaked sein.

dargo
2006-12-31, 13:30:44
Und warum nutzt GOW kein AA?
Weil in diesem Spiel DR für die Schatten (und Nebel?) genutzt wird.
(Ich dachte, das weiß jeder. ;()
Natürlich weiß es jeder (hoffe ich zumindest).

Gast
2006-12-31, 13:33:35
Jetzt könnte ich so fies sein und behaupten mit besseren Treibern und 800Mhz GPU-Takt wäre der R600 mindestens X1900XTX *2. :D


Die Final R600 hat eine deutlich höhere Leistung eines R580 CF Systems. Man könnte die Leistung auch mit 2*R580+X beziffern. Wie groß X ist verrate ich an dieser Stelle aber nicht.

reunion
2006-12-31, 13:35:20
Also laut Dailytech scheinen die Benchs korrekt zu sein; man bezieht sich auf eine interne Roadmap, welche die Spezifikationen angeblich bestätigt:

Newly created site Level 505 has leaked benchmarks and specifications of AMD’s upcoming ATI R600 graphics processor. The upcoming graphics processor is expected to launch in January 2007 with an expected revision arriving in March 2007. These early specifications and launch dates line up with what DailyTech has already published and are present on ATI internal roadmaps as of workweek 49.


The published results are very promising with AMD’s ATI R600 beating out NVIDIA’s GeForce 8800 GTX in most benchmarks. The performance delta varies from 8% up to 42% depending on the game benchmark.

When DailyTech contacted the site owner to get verification of the benchmarks, the owner replied that the benchmark screenshots could not be published due to origin-specific markers that would trace the card back to its source -- the author mentioned the card is part of the Microsoft Vista driver certification program.

If Level505's comments seem a little too pro-ATI, don't be too surprised. When asked if the site was affiliated in any way to ATI or AMD, the owner replied to DailyTech with the statement that "two staff members of ours are directly affiliated with AMD's business [development] division."

http://www.dailytech.com/article.aspx?newsid=5524

dargo
2006-12-31, 13:39:08
Die Final R600 hat eine deutlich höhere Leistung eines R580 CF Systems. Man könnte die Leistung auch mit 2*R580+X beziffern. Wie groß X ist verrate ich an dieser Stelle aber nicht.
Deswegen auch mindestens. ;)
Ich gehe immer noch davon aus, der R600 ist ca. 20-30% schneller wie eine G8800GTX. Sollten es in manchen Situationen noch mehr sein, umso besser. :)

LovesuckZ
2006-12-31, 13:53:44
Also laut Dailytech scheinen die Benchs korrekt zu sein; man bezieht sich auf eine interne Roadmap, welche die Spezifikationen angeblich bestätigt:


Die r600 Ergebnisse können stimmen, die Werte der anderen Karten scheinen mir von Computerbase.de entnommen wurden zu sein.
Alleine die 3DMark2006 Punkte sprechen deutlich, dass die anderen Werte nicht stimmen können.

Demirug
2006-12-31, 13:55:24
Also laut Dailytech scheinen die Benchs korrekt zu sein; man bezieht sich auf eine interne Roadmap, welche die Spezifikationen angeblich bestätigt:

Und andere die angeblich auch die Specs schon gesehen haben sind der Meinung dass dailytech hier Müll schreibt. Das ganze riecht verdammt nach einer FUD Kampagne.

Ronny145
2006-12-31, 13:59:12
Nach ihren Angaben (http://level505.com/2006/12/30/the-full-ati-r600-test/10/) tun sie das: "We tested Oblivion with activated TSSAA (nVidia) / AAA (ATI)."


Dann müssten die anderen Sachen dort aber auch damit getestet wurden sein, da steht aber nichts dazu. Deswegen irgendwie komisch das ganze.

deekey777
2006-12-31, 14:05:48
Meine Vermutung ist, dass die Ergebnisse der R600er zB von einer unfertigen PR-Folie sind, der Rest dagegen von irgendwo "ausgeliehen" (zB von CB).
Aber warum hängt ihr so an diesen Benchmarks, obwohl die meisten sehen, dass sie für den Popo sind?
Ich würde schon bei den Specs husten:
64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle aua
32 TMUs, 16 ROPs Wie jetzt? Das Verhältnis ist 1:2?
512 bit Memory Controller, full 32 bit per chip connection
GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)
Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4
Consumer memory support 1024 MB
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
32FP [sic] internal processing
Hardware support for GPU clustering (any x^2 [sic] number, not limited to Dual or Quad-GPU)
Hardware DVI-HDCP support (High Definition Copy Protocol) aua
Hardware Quad-DVI output support (Limited to workstation editions)
230W TDP PCI-SIG compliant

64 4-Way SIMD Unified Shaders? Wenn ich das sehe, werden gleich die Erinnerungen an ein Posting von Xmas wach: "... und was ist dann der Highend-Chip?"

reunion
2006-12-31, 14:17:13
Alleine die 3DMark2006 Punkte sprechen deutlich, dass die anderen Werte nicht stimmen können.

Kannst du das bitte näher ausführen, ich kann dir nicht folgen.

Und andere die angeblich auch die Specs schon gesehen haben sind der Meinung dass dailytech hier Müll schreibt. Das ganze riecht verdammt nach einer FUD Kampagne.

Durchaus wahrscheinlich. Die Specs scheinen sich auf jeden Fall zu wiedersprechen. Die Frage ist nur ob nicht doch ein Teil davon der Wahrheit entspciht, oder ob alles frei erfunden ist.

Meine Vermutung ist, dass die Ergebnisse der R600er zB von einer unfertigen PR-Folie sind, der Rest dagegen von irgendwo "ausgeliehen" (zB von CB).
Aber warum hängt ihr so an diesen Benchmarks, obwohl die meisten sehen, dass sie für den Popo sind?
Ich würde schon bei den Specs husten:


64 4-Way SIMD Unified Shaders? Wenn ich das sehe, werden gleich die Erinnerungen an ein Posting von Xmas wach: "... und was ist dann der Highend-Chip?"

Ich denke die 64 4-Way SIMD Unified Shaders passen schon. Sofern die Dinger wieder über MADD+ADD fähig und entsprechend fexibel sind. Einzig die 128 Shader Operations/Cycle scheinen etwas wenig, sofern die Teile nicht mit einer ähnlichen Frequenz wie bei G80 laufen. Hier wären wohl eher 256 oder mehr realistisch. Und bei dem TMU/ALU-Verhältnis ist das doch alles nur einen Frage der zählweise. Du weißt nicht, mit welcher Zahl ATi diese Einheiten vermarktet.

LovesuckZ
2006-12-31, 14:21:44
Kannst du das bitte näher ausführen, ich kann dir nicht folgen.

Computerbase.de verwendet einen C2D, Level DingsBUms einen Quad C2D.
Und sie erreichen weniger Punkte als Computerbase.de. Da jedoch auch die CPU - Punkte in die Endrechnung einfließen, müsste die des Quad Prozessors, also die Werte von Level DingsBums, höher sein.
Sind sie aber nicht.

Demirug
2006-12-31, 14:23:11
Ich denke das passt schon. Einzig die 128 Shader Operations/Cycle scheinen etwas wenig, sofern die Teile nicht mit einer ähnlichen Frequenz wie bei G80 laufen. Und bei dem TMU/ALU-Verhältnis ist das doch alles nur einen Frage der zählweise. Du weißt nicht, mit welcher Zahl ATi diese Einheiten vermarktet.

ATI Shader Operations/Cycle != nvidia Shader Operations/Cycle

Gast
2006-12-31, 14:30:57
Warum gibts denn im Januar ne GDDR3 Version und zur Cebit ne GDDR4 Version?
GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)
Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4

Wie kommt man mit 200MHz mehr auf 35GB/s mehr Bandbreite?

Gast
2006-12-31, 14:34:46
Wie kommt man mit 200MHz mehr auf 35GB/s mehr Bandbreite?512-bit-DDR-Speicherinterface.

900 MHz * 512 bit * 2 (DDR-Verfahren) / 8 (bit/byte) = ~115 GB/s

1100 MHz * 512 bit * 2 (DDR) / 8 (bit/byte) = ~140 GB/s

dargo
2006-12-31, 14:36:50
Wie kommt man mit 200MHz mehr auf 35GB/s mehr Bandbreite?
Es sind 25GB/s mehr. ;)

reunion
2006-12-31, 14:50:14
Computerbase.de verwendet einen C2D, Level DingsBUms einen Quad C2D.
Und sie erreichen weniger Punkte als Computerbase.de. Da jedoch auch die CPU - Punkte in die Endrechnung einfließen, müsste die des Quad Prozessors, also die Werte von Level DingsBums, höher sein.
Sind sie aber nicht.

Danke, hört sich plausibel an.

Gast
2006-12-31, 14:51:37
Oh Denkfehler kthx ;)
Trotzdem stinkt das Review zum Himmel, kleine Teile sehen wohl korrekt aus, aber bei vielen (32TMUs anyone...) haben sie in die Toi gegriffen.
Warum man mal mit mal ohne TSAA getestet hat machts nur Fragwürdiger, und bei Beyond3d wird das Ding eh schon zur genüge ausnander genommen von Leuten denen man zutraun kann das sie Ahnung haben wovon sie reden.

The_Invisible
2006-12-31, 15:05:35
naja, lang isses eh nicht mehr bis zum release, da können jetzt schon langsam brauchbare specs/benches erscheinen

mfg

Hvoralek
2006-12-31, 16:30:41
Durchaus wahrscheinlich. Die Specs scheinen sich auf jeden Fall zu wiedersprechen. Die Frage ist nur ob nicht doch ein Teil davon der Wahrheit entspciht, oder ob alles frei erfunden ist.Wenn die Quellen nichts taugen, spielt es doch keine Rolle mehr, ob an einigen Stellen nun gerade mal richtig geraten wurde.

Ich denke die 64 4-Way SIMD Unified Shaders passen schon. Sofern die Dinger wieder über MADD+ADD fähig und entsprechend fexibel sind. Einzig die 128 Shader Operations/Cycle scheinen etwas wenig, sofern die Teile nicht mit einer ähnlichen Frequenz wie bei G80 laufen. Hier wären wohl eher 256 oder mehr realistisch. Und bei dem TMU/ALU-Verhältnis ist das doch alles nur einen Frage der zählweise. Du weißt nicht, mit welcher Zahl ATi diese Einheiten vermarktet.Die 128 "Shader Operations Per Second" sollen sich wohl ergeben aus 64 ALUs à 1 MUL + 1 ADD. Gemeint sein dürften also 128 Operationen über vier Kanäle. Das kann so wirklich nicht stimmen, mit etwa 800 MHz wäre das Ding arithmetisch wohl deutlich zu schwach. Es sei denn, es gibt noch irgendetwas Wesentliches, dass in diesen Eckdaten nicht auftaucht.

Gast
2006-12-31, 16:38:48
Danke, hört sich plausibel an.

bei 3dmark ja ....
in den game benches profitiert man vom quadcore eh fast 0 oft noch langsamer

dargo
2006-12-31, 16:46:00
in den game benches profitiert man vom quadcore eh fast 0 oft noch langsamer
Das verstehe ich jetzt nicht. Warum sollte ein Q6700 langsamer sein als ein E6700?

seahawk
2006-12-31, 16:48:23
Fake - definitiv. Teile der Specs sind teilweise richtig.

128 Shader Ops / clock könnte z.B. ein MADD und ein X (Platzhalter) sein. Die aber evtl nicht jedes mal und immer ....

Hvoralek
2006-12-31, 16:55:15
Das verstehe ich jetzt nicht. Warum sollte ein Q6700 langsamer sein als ein E6700?Er meint wohl, man könne den Prozessor mit "nur" zwei Kernen weiter übertakten.

Gmax
2006-12-31, 17:29:55
If Level505's comments seem a little too pro-ATI, don't be too surprised. When asked if the site was affiliated in any way to ATI or AMD, the owner replied to DailyTech with the statement that "two staff members of ours are directly affiliated with AMD's business [development] division."


http://dailytech.com/article.aspx?newsid=5524

reunion
2006-12-31, 17:38:08
Die 128 "Shader Operations Per Second" sollen sich wohl ergeben aus 64 ALUs à 1 MUL + 1 ADD. Gemeint sein dürften also 128 Operationen über vier Kanäle. Das kann so wirklich nicht stimmen, mit etwa 800 MHz wäre das Ding arithmetisch wohl deutlich zu schwach. Es sei denn, es gibt noch irgendetwas Wesentliches, dass in diesen Eckdaten nicht auftaucht.

Das sehe ich nicht so. Wenn eine ALU über vec4 + skalar fähig sein sollte, wären das faktisch fünf mal 64, also 320 Operationen/Takt mit ~800MHz. Ein G80 schafft 128 Ops/Takt mit 1350Mhz. Dieser hat aber natürlich den Vorteil der besseren Auslastung der einzelnen Einheiten. Dafür sollten die ATi-ALUs nach den Andeutungen von Ail im Thread über MADD+ADD fähig sein, während die MUL bei nV noch immer fraglich ist.

bei 3dmark ja ....
in den game benches profitiert man vom quadcore eh fast 0 oft noch langsamer

Naja, Hvoralek hat hier durchaus recht. Bei derart vielen Widersprüchen sollte man auch die anderen Ergebnisse nicht ernst nehmen.

ATI Shader Operations/Cycle != nvidia Shader Operations/Cycle

Natürlich, mein Fehler.

Gast
2006-12-31, 17:38:19
Etwas spät das zu posten^^

aylano
2006-12-31, 17:55:45
Warum gibts denn im Januar ne GDDR3 Version und zur Cebit ne GDDR4 Version?
GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)
Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4


Weil ATI wahrscheinlich nicht gleich das ganze Potential zeigen will und gegebenenfalls auf eine schnellere Version des G80 regieren will.

Hvoralek
2006-12-31, 18:13:40
Das sehe ich nicht so. Wenn eine ALU über vec4 + skalar fähig sein sollte, wären das faktisch fünf mal 64, also 320 Operationen/Takt mit ~800MHz. Ein G80 schafft 128 Ops/Takt mit 1350Mhz. Dieser hat aber natürlich den Vorteil der besseren Auslastung der einzelnen Einheiten. Dafür sollten die ATi-ALUs nach den Andeutungen von Ail im Thread über MADD+ADD fähig sein, während die MUL bei nV noch immer fraglich ist.Das kommt einfach darauf an, was Du als "1 Operation" definierst. Du verstehst darunter anscheinend "(irgend)etwas über einen Kanal", die Angabe dieses "Tests" ergibt aber dann Sinn, wenn Du eine einzelne Operation definierst als "ein ADD oder MUL, egal über wie viele Kanäle". MMn beides nicht sinnvoll. Wenn man zumindest ansatzweise Vergleichbarkeit schaffen möchte, wäre "ein ADD oder MUL über einen Kanal" sinnvoll. Das ergäbe dann, wenn man bei diesen 64 ALUs von einem MADD über vier Kanäle ausgeht (ein MADD leite ich wie gesagt aus deren Angaben her, 4 Kanäle wird direkt angegeben), 64 * 4 * (1+1) = 512 Operationen/ Takt. Bei G80 z.B. käme man auf 128 * (1+1) = 256 ohne das seltsame MUL und auf 128 * (1+2)= 384 mit diesem MUL.

Dabei übergeht man natürlich Spezialfunktionen sowie sämtliche Eigenarten der jeweiligen Architektur völlig, die Aussagekraft ist also ziemlich bescheiden.

The_Invisible
2006-12-31, 18:13:54
Weil ATI wahrscheinlich nicht gleich das ganze Potential zeigen will und gegebenenfalls auf eine schnellere Version des G80 regieren will.

sie sollen lieber schauen wie sie dann auf die midrange angebote von nvidia reagieren können... aber ATI wirds anscheinend wieder egal sein, hauptsache ne fette highend-karte, damit fährt man gewinne ein ;)

mfg

Gast
2006-12-31, 18:46:57
ATI R600 vs. G80

http://level505.com/2006/12/30/the-full-ati-r600-test/1/

SavageX
2006-12-31, 19:13:50
sie sollen lieber schauen wie sie dann auf die midrange angebote von nvidia reagieren können... aber ATI wirds anscheinend wieder egal sein, hauptsache ne fette highend-karte, damit fährt man gewinne ein ;)

Mit High-End Karten fährt man nicht die dicken Gewinne ein. Das ist den kleineren Varianten vorbehalten.

(So hat sich Nvidia lange Zeit gut von der FX5200 ernährt... die ist zig-millionenfach über den Ladentisch gegangen).

Aber natürlich ist es lukrative High-End zu entwickeln (Prestige), um dann das Hähnchen kleinzuschneiden.

w0mbat
2006-12-31, 19:15:28
ATI R600 vs. G80

http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Rat mal um was es die letzten zwei Seiten geht ;D

seahawk
2006-12-31, 19:35:02
Das kommt einfach darauf an, was Du als "1 Operation" definierst. Du verstehst darunter anscheinend "(irgend)etwas über einen Kanal", die Angabe dieses "Tests" ergibt aber dann Sinn, wenn Du eine einzelne Operation definierst als "ein ADD oder MUL, egal über wie viele Kanäle". MMn beides nicht sinnvoll. Wenn man zumindest ansatzweise Vergleichbarkeit schaffen möchte, wäre "ein ADD oder MUL über einen Kanal" sinnvoll. Das ergäbe dann, wenn man bei diesen 64 ALUs von einem MADD über vier Kanäle ausgeht (ein MADD leite ich wie gesagt aus deren Angaben her, 4 Kanäle wird direkt angegeben), 64 * 4 * (1+1) = 512 Operationen/ Takt. Bei G80 z.B. käme man auf 128 * (1+1) = 256 ohne das seltsame MUL und auf 128 * (1+2)= 384 mit diesem MUL.

Dabei übergeht man natürlich Spezialfunktionen sowie sämtliche Eigenarten der jeweiligen Architektur völlig, die Aussagekraft ist also ziemlich bescheiden.

Wo Du dann wieder den Idealfall betrachtest. Bei einer solchen Betrachtung ist z.B. die G7X Architektur gar nicht viel weniger Leistungsfähig als der G80.

Versuch die Sache nun mal für einen Vec2 Ops pder ganz fies Skalar Ops.

Gast
2006-12-31, 19:36:37
ATI R600 vs. G80

http://level505.com/2006/12/30/the-full-ati-r600-test/1/Ist es denn wirklich so schwer vor dem Posten zumindest die letzten paar Seiten zu überfliegen? Über diesen "Test" wird schon seit mindestens 5 Seiten diskutiert. Meine Meinung dazu: Sollte man nicht zu ernst nehmen.

Hvoralek
2006-12-31, 20:45:06
Wo Du dann wieder den Idealfall betrachtest. Bei einer solchen Betrachtung ist z.B. die G7X Architektur gar nicht viel weniger Leistungsfähig als der G80.

Versuch die Sache nun mal für einen Vec2 Ops pder ganz fies Skalar Ops.Bei solchen Angaben geht es ebenso wie bei rechnerschen Füllraten oder diesen ewigen FLOPS- Spielereien um theoretische Maximalwerte, die natürlich oft nicht vergleichbar sind. Ich habe doch selbst ausdrücklich gesagt, dass das kaum zur tasächlichen Leistungseischätzung taugt :rolleyes:

Wobei Dein Vec2- Beispiel vlt. etwas ungeschickt gewählt war. Kann G7x nicht seine vier Kanäle auch 2:2 teilen?

reunion
2006-12-31, 20:58:50
Das kommt einfach darauf an, was Du als "1 Operation" definierst. Du verstehst darunter anscheinend "(irgend)etwas über einen Kanal", die Angabe dieses "Tests" ergibt aber dann Sinn, wenn Du eine einzelne Operation definierst als "ein ADD oder MUL, egal über wie viele Kanäle". MMn beides nicht sinnvoll. Wenn man zumindest ansatzweise Vergleichbarkeit schaffen möchte, wäre "ein ADD oder MUL über einen Kanal" sinnvoll. Das ergäbe dann, wenn man bei diesen 64 ALUs von einem MADD über vier Kanäle ausgeht (ein MADD leite ich wie gesagt aus deren Angaben her, 4 Kanäle wird direkt angegeben), 64 * 4 * (1+1) = 512 Operationen/ Takt. Bei G80 z.B. käme man auf 128 * (1+1) = 256 ohne das seltsame MUL und auf 128 * (1+2)= 384 mit diesem MUL.

Dabei übergeht man natürlich Spezialfunktionen sowie sämtliche Eigenarten der jeweiligen Architektur völlig, die Aussagekraft ist also ziemlich bescheiden.

Klingt logisch. Nur warum rechneste du den skalaren Kanal bei R600 nicht ebenfalls dazu? vec3+skalar kann ich mir kaum vorstellen.

Hvoralek
2006-12-31, 21:02:54
Klingt logisch. Nur warum rechneste du den skalaren Kanal bei R600 nicht ebenfalls dazu? vec3+skalar kann ich mir kaum vorstellen.Auf dieser Seite ist die Rede von vier Kanälen. Ich würde auch mit insgesamt fünf rechnen, dann hättest Du 1/4 mehr.

Gast
2006-12-31, 23:24:25
Nach ihren Angaben (http://level505.com/2006/12/30/the-full-ati-r600-test/10/) tun sie das: "We tested Oblivion with activated TSSAA (nVidia) / AAA (ATI)."


Das wurde nachträglich geändert. Das macht das ganze noch unglaubwürdig. Denn dann hätten die das bei den anderen Spielen auch erwähnt. Ohne TSAA/AAA viel zu niedrig die Werte.

dargo
2007-01-01, 13:56:39
Weil ATI wahrscheinlich nicht gleich das ganze Potential zeigen will und gegebenenfalls auf eine schnellere Version des G80 regieren will.
Da stellt sich mir die Frage - wird der R600 mit 115GB/s so stark bandbreitenlimitiert sein, dass die 140GB/s soviel bringen? Glaube ich kaum.

James Ryan
2007-01-01, 14:10:30
Vor allem wer kauft denn bitte die GDDR3 Variante wenn man genau weiß dass diese nach ein paar Wochen schon wieder veraltet ist?
Komische Strategie von ATi. :|

MfG :cool:

Gast
2007-01-01, 14:49:33
Da stellt sich mir die Frage - wird der R600 mit 115GB/s so stark bandbreitenlimitiert sein, dass die 140GB/s soviel bringen? Glaube ich kaum.

Es steht auch noch nicht fest, welche Taktraten dieses Modell des R600 haben wird...

AnarchX
2007-01-01, 14:55:31
Die Frage ist, ob dieses GDDR3-Modell, welches laut der Seite im Januar kommen soll überhaupt noch den Markt erreicht, da ja der Launch erst für den Februar spekuliert wird.
Ich kann mir vorstellen, dass diese ursprüngliche Planung gecancelt wurde.
So spricht ja auch nichts unbedingt gegen GDDR4: genügend vorhanden -> wenige andere Karten am Markt setzen darauf, Preis sollte auch nicht sehr hoch sein.

LovesuckZ
2007-01-01, 15:00:46
Vor allem wer kauft denn bitte die GDDR3 Variante wenn man genau weiß dass diese nach ein paar Wochen schon wieder veraltet ist?
Komische Strategie von ATi. :|
MfG :cool:

Schonmal daran gedacht, dass der Mensch einfach eine alte Präsentation von ATi in die Hände bekommen hat?
Wenn ein Launch schon in den nächsten drei Wochen wäre, hätte irgendwer schonmal davon berichtet.
Dailytech hat vom G80 exakt einen Monat (http://www.dailytech.com/article.aspx?newsid=4441) vor dem Launch bespoilert.
Selbst der theinquirer schreibt seit langen nichts mehr über den r600.
Daher sage ich ganz frech, das eine Veröffentlichung in diesem Monat nicht stattfinden wird.

Blutmaul
2007-01-01, 15:23:16
Vielleicht warten AMDATI mit einer Überraschung auf und stellen die neue GPU zusammen mit einem K8L-Prototypen vor ? :wink:

Gast
2007-01-01, 15:38:51
Ich könnte mir vorstellen, dass der R600 wie beim R520 gelaunsht wird. Also erste Reviews gibt es im Januar, aber der eigentliche Release ist erst im Februar.

dargo
2007-01-01, 17:00:36
Es steht auch noch nicht fest, welche Taktraten dieses Modell des R600 haben wird...
Ich könnte mir gut vorstellen, dass wir die Kombination X1900XTX und X1950XTX beim R600 genauso erleben.

Gast
2007-01-01, 20:41:40
Hardware support for GPU clustering (any x^2 [sic] number, not limited to Dual or Quad-GPU)

Gibt es schon mehr Infos zum 'GPU Clustering'?
Ich finde das ist die interessanteste Neuigkeit überhaupt!

Wird ATI jetzt wie NVidia GPUs in externe Boxen auslagern? Bei 230W Leistungsaufnahme pro Karte wäre das sicher keine schlechte Idee (Abwärme!). Außerdem dürften wohl kaum z.B. 8 R600-Karten in ein PC-Gehäuse passen.

Oder ist das ganze eher als Feature für die AMD-Streaming Prozessor Reihe gedacht? Ich könnte mir schon eher vorstellen, dass eine Uni sich 2^n Karten für wissenschaftliche Berechnungen im Cluster anschafft.

Relic
2007-01-01, 21:12:27
Das gibts schon seit dem R300 und wird für Spezialanwendungen (Simulatoren) auch gebaut auch. Nichts neues, nur wird es jetzt Marketingtechnisch ausgeschlachtet.

Gast
2007-01-01, 21:55:23
Wird ATI jetzt wie NVidia GPUs in externe Boxen auslagern? Bei 230W Leistungsaufnahme pro Karte wäre das sicher keine schlechte Idee (Abwärme!). Außerdem dürften wohl kaum z.B. 8 R600-Karten in ein PC-Gehäuse passen.

Oder ist das ganze eher als Feature für die AMD-Streaming Prozessor Reihe gedacht? Ich könnte mir schon eher vorstellen, dass eine Uni sich 2^n Karten für wissenschaftliche Berechnungen im Cluster anschafft.
Ist wohl für beides zu gebrauchen.
Eigentlich eine ganz interessante Entwicklung. So langsam wird die Einheit TFlop/HE sinnvoll. X-D

Mayday_XL
2007-01-01, 22:24:57
Wann soll es die ersten Karten zu kaufen geben ?

LovesuckZ
2007-01-02, 00:56:48
Vielleicht gib's bald Bilder...


For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.

Aus dem Beyond3d.com Forum, wollen doch Level 505 nicht weitere Hits geben.

Superheld
2007-01-02, 01:00:45
die webseite hat nur ein Test schon komisch das ganze:|

Gast
2007-01-02, 01:01:49
Würde ein X2@2,6Ghz überhaupt reichen, lohnt es sich da einen R600 zu kaufen?

reunion
2007-01-02, 01:06:37
die webseite hat nur ein Test schon komisch das ganze:|

Finde das auch reichlich seltsam. Warum sollte jemand extra für einen gefakten Test eine Seite gründen? Das ergibt keinen Sinn. Noch dazu wo man jetzt Benchmarks in 2560 x 1600 und Bilder ankündigt, kann ich mir kaum vorstellen, dass das alles nur ein Schwindel war. IMO könnten die Werte des R600 durchaus stimmen, nur die anderen scheinen definitiv von CB geklaut, was natürlich ein total verzerrtes Bild ergibt. Umso lustiger, dass man jetzt ausgerechnet Benchmarks in 2560 x 1600 ankündigt, die einzige Auflösung, die CB neben 1280 x 1024 und 1600 x 1200 noch bencht. :)

LovesuckZ
2007-01-02, 01:13:15
Finde das auch reichlich seltsam. Warum sollte jemand extra für einen gefakten Test eine Seite gründen? Das ergibt keinen Sinn.


Doch und zwar einen großen (oder gewaltigen...).
So faked es sich doch viel einfacher, da niemand zur Verantwortung gezogen werden kann.
Da die Domain über einen Proxy läuft bzw. registriert wurde, weiß niemand, wer die Seite online gestellt hat.
Wahrscheinlich lacht der Typ sich einfach schlapp, jedesmal, wenn er auf sein "Werbeeinnahmenkonto" schaut.

reunion
2007-01-02, 01:17:39
Okay, du hast recht. :)
Die Werbung hab' ich nicht bedacht, aber schon lustig, dass der Typ jetzt schon soviel Werbung auf der Seite hat, wo diese doch gerade erst gegründet worden ist. Sieht fast nach einer lange geplanten "Tat" aus.

Aquaschaf
2007-01-02, 01:49:01
Finde das auch reichlich seltsam. Warum sollte jemand extra für einen gefakten Test eine Seite gründen? Das ergibt keinen Sinn.

Falls sich jemand erinnert gab es doch kurz vor dem NV30-Launch auch eine Seite auf der alleine ein sehr optimistischer Fake-Test war ;)

seahawk
2007-01-02, 07:19:44
Evtl. tested eher ja nur ein Midrange-Modell des R600. :D

Blutmaul
2007-01-02, 07:28:49
Wenn an den Gerüchten von wegen 1-2 Ghz was drann ist, stimmt das wohl :wink:

Ich lass mich von Tatsachen überzeugen, wenn jemand welche hat, immer her damit!

Gast
2007-01-02, 08:07:14
Wenn an den Gerüchten von wegen 1-2 Ghz was drann ist, stimmt das wohl :wink: 1-2 (!) GHz als GPU-Takt kannst vergessen. Clockdomains gibt es auch keine.

Blutmaul
2007-01-02, 12:26:48
Ich glaub auch, da hat jemand Ram- und GPU-Takt verwechselt, oder wild im Rausch spekuliert...

Gast
2007-01-02, 15:09:36
ups was ist mit der Seite

Blutmaul
2007-01-02, 15:12:31
Im ATI-Unterforum gibts noch Screenies von der Seite, ansonsten ist erstmal "aus die Maus".
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=341163

Gast
2007-01-02, 15:15:47
kann sich gleich der nächste registrieren

Gast
2007-01-02, 16:14:08
War doch nurn Fake:
Die Domain ist wieder vergebar...^^

darkvader
2007-01-02, 16:30:05
Geht wieder

Gast
2007-01-02, 16:37:36
Geht wieder

und mit nettem Teaser:
"We are currently migrating our servers to better serve you. Please excuse the short downtime we had today. We will update our article in about 10 hours with the R600 Ultra-HD resolution test and advanced information regarding power consumption and heat dissipation."
(http://level505.com/2006/12/30/the-full-ati-r600-test/)

Dadi
2007-01-02, 18:58:23
Seite lebt nicht ;D

Egal,
wollte mal was zum Stromverbrauch fragen. Was meint ihr? Kann man sich auf die 230 Watt wirklich verlassen was die R600 da zieht? Siehe winfuture.de btw. level505 http://www.winfuture.de/news,29236.html.
Wenn das wirklich so ist, muss ich wieder mit einem gott verdammtne NEtzteilwechsel rechnen?

System, siehe Sig.

*Hoffnung*

Blutmaul
2007-01-02, 19:49:40
Naja, wenn man die Leistung in Performance pro Watt ausdrückt, ist der R600 vielleicht sogar ziemlich gut.

sulak
2007-01-02, 20:00:18
Glaub net das selbst unter Vollast 230Watt Peak erreicht werden. G80 + 20-30Watt halte ich für Realistisch was man bisher an Transistorzahl und Taktfrequenz in den einschlägigen Foren gelesen hat.
Die Lvl505 Seite halte ich für seltsam und Fake, kommt ausm grauen und keine andere Gerüchte-Küche-Webseite hat selbst was geschrieben bisher, das ist suspekt. In der Vergangenheit kam immer innerhalb von 2-3 Tagen ein Newsblurb hier und da zustande die, bisher ist NICHTS gekommen.
Solange keine renommierte Seite was rauslucken lässt zur Performance is es fuad³, hatten wir doch schon vorher bei Launches ;)

p.s.: Der einzige aktuelle Blurb ist zum R600 Vista Treiber, bei den Specs sagt man nichts außer allgemeinen Specs.

deekey777
2007-01-02, 20:01:41
Naja, wenn man die Leistung in Performance pro Watt ausdrückt, ist der R600 vielleicht sogar ziemlich gut.
Genau das ist der Punkt, den ich für sehr gewagt halte. Irgendwie habe ich so ein Gefühl, dass der R600 die Erfahrungen mit dem R520 wach werden lässt: Ein Grafikchip, der zwar alles andere als langsam ist, aber heiß und stromhungrig. Es sei denn, ATi/AMD schafft es, die R600-Grafikkarten von Anfang an preislich interessant zu machen. Der G80 ist wiederum ein R580: brachliegende Rechenleistung, die nach und nach zur Geltung kommt (die Spiele von heute sind für diesen Grafikchip keine Herausforderung).

reunion
2007-01-02, 20:31:29
Genau das ist der Punkt, den ich für sehr gewagt halte. Irgendwie habe ich so ein Gefühl, dass der R600 die Erfahrungen mit dem R520 wach werden lässt: Ein Grafikchip, der zwar alles andere als langsam ist, aber heiß und stromhungrig. Es sei denn, ATi/AMD schafft es, die R600-Grafikkarten von Anfang an preislich interessant zu machen.


Abwarten und Tee trinken. Es gibt zwar Gerüchte, wonach die Vorserienboards relativ stromhungrig waren allerdings sollte man hier doch das finale Produkt abwarten, bevor man urteilt.



Der G80 ist wiederum ein R580: brachliegende Rechenleistung, die nach und nach zur Geltung kommt (die Spiele von heute sind für diesen Grafikchip keine Herausforderung).

Als brachial würde ich die Rechenleistung des G80 für einen Next-Gen-Chip nicht bezeichnen, besonders, wenn das mit der MUL nichts mehr wird.

LovesuckZ
2007-01-02, 20:39:25
Als brachial würde ich die Rechenleistung des G80 für einen Next-Gen-Chip nicht bezeichnen, besonders, wenn das mit der MUL nichts mehr wird.

Ist die "fehlende" Mul überhaupt wichtig?
Hat die MUL - Lästigkeit beim NV40 irgendwelche Vorteile gebracht?
Zur zeit offenbart der G80 je nach Anwendung eine bis zu doppelt so hohe Rechenleistung. Der r580 konnte seine verdreifachte Rechenleistung nicht annährend ausspielen.

Ailuros
2007-01-02, 20:46:21
Die 128 "Shader Operations Per Second" sollen sich wohl ergeben aus 64 ALUs à 1 MUL + 1 ADD. Gemeint sein dürften also 128 Operationen über vier Kanäle. Das kann so wirklich nicht stimmen, mit etwa 800 MHz wäre das Ding arithmetisch wohl deutlich zu schwach. Es sei denn, es gibt noch irgendetwas Wesentliches, dass in diesen Eckdaten nicht auftaucht.

64 stimmt schon, nur sind es nicht 4 SIMD Kanaele sondern clusters.

Undertaker
2007-01-02, 20:48:46
Ist die "fehlende" Mul überhaupt wichtig?
Hat die MUL - Lästigkeit beim NV40 irgendwelche Vorteile gebracht?
Zur zeit offenbart der G80 je nach Anwendung eine bis zu doppelt so hohe Rechenleistung. Der r580 konnte seine verdreifachte Rechenleistung nicht annährend ausspielen.

noja: in einigen fällen bringt die 3x shaderleistung immerhin bis zu doppelte leistung, siehe nfs carbon

Gast
2007-01-02, 21:03:08
64 stimmt schon, nur sind es nicht 4 SIMD Kanaele sondern clusters.

Könntest du das etwas genauer erläutern^^

LovesuckZ
2007-01-02, 21:03:21
noja: in einigen fällen bringt die 3x shaderleistung immerhin bis zu doppelte leistung, siehe nfs carbon

Schließe ich nicht aus. Aber in anderen, wie zum Beispiel Oblivion, ist der Gewinn nicht so deutlich.

Ailuros
2007-01-02, 21:04:07
Als brachial würde ich die Rechenleistung des G80 für einen Next-Gen-Chip nicht bezeichnen, besonders, wenn das mit der MUL nichts mehr wird.

R600 wird zwar in etwa zwei Mal so schnell sein als sein Vorgaenger aber die theoretische GFLOP Rate wird bei weitem nicht zwei mal so hoch sein.

R580 hat nur fuer PS GFLOPs eine um ca. 50% hoehere Rate als G71, und obwohl beim letzteren TEX von ALU OPs nicht entkoppelt sind kommt es nicht zu einem 50% Unterschied zwischen den beiden.

G80 hat jetzt die TEX OPs teilweise entkoppelt und wenn Du den reinen Entwicklergebrauch ausrechnest schrumpft der Unterschied im Vergleich zur vorigen Generation auf weniger als die Haelfte ;)

Ailuros
2007-01-02, 21:04:56
Könntest du das etwas genauer erläutern^^

G80 hat 8 clusters mit jeweils 16x SIMD und nicht 4x SIMD.

sulak
2007-01-02, 21:06:11
Hat sich erledigt, Ailuros hats erläutert.
Aber: Diese 8 Cluster des G80 arbeiten doch quasi wie 4 Quads (mit Skalar Ops halt).
D.h. Der R600 arbeitet mit 4x16ALUs, pro Cluster 4xSIMD?

Gast
2007-01-02, 21:08:55
Kannst du uns dann vll verraten ob die Specs auf der besagten Seite nah dran oder authentisch sind?

(wahrscheinlich kommt dann sone Antwort wie "können schon aber tun" ^^)

deekey777
2007-01-02, 21:23:37
Abwarten und Tee trinken. Es gibt zwar Gerüchte, wonach die Vorserienboards relativ stromhungrig waren allerdings sollte man hier doch das finale Produkt abwarten, bevor man urteilt.
Das sind keine Gerüchte, sondern halbwegs bestätigte Infos.
Die Aussage war:
Naja, wenn man die Leistung in Performance pro Watt ausdrückt, ist der R600 vielleicht sogar ziemlich gut.
Gut steht der G80. Schlussfolgernd muss der R600 eine ähnliche Pro-Watt-Leistung erreichen wie der G80, damit diese als "gut" bewertet werden kann. Und bisher hieß, dass der R600 stromhungriger sein wird als der G80, aber "nur" gleiche Performance liefert. Dieser Punkt ist aber dann zu vernachlässigen, wenn das Preis-Leistung-Verhältntis so gut ist, dass der Stromhunger nicht das kaufentscheidende Kriterium ist.

Als brachial würde ich die Rechenleistung des G80 für einen Next-Gen-Chip nicht bezeichnen, besonders, wenn das mit der MUL nichts mehr wird.
Was ist dir wichtig: das, was auf dem Papier und somit theoretisch ist, oder das, was hinten rauskommt?
Das, was beim G80 hinten rauskommt, ist brachial.

Gast
2007-01-02, 21:30:37
R580 hat nur fuer PS GFLOPs eine um ca. 50% hoehere Rate als G71, und obwohl beim letzteren TEX von ALU OPs nicht entkoppelt sind kommt es nicht zu einem 50% Unterschied zwischen den beiden.



Der r580 wird sich mit der zeit noch mehr von g71 absetzen.
Warten wir einfach 4-5 Blockbuster die in den nächsten monaten kommen, ich wette der vorsprung wird steigen.

reunion
2007-01-02, 21:34:19
Ist die "fehlende" Mul überhaupt wichtig?
Hat die MUL - Lästigkeit beim NV40 irgendwelche Vorteile gebracht?

Warum soll die MUL nichts gebracht haben?


Zur zeit offenbart der G80 je nach Anwendung eine bis zu doppelt so hohe Rechenleistung. Der r580 konnte seine verdreifachte Rechenleistung nicht annährend ausspielen.

Was ja auch nicht verwunderlich ist. Der Chip dürfte mit dem NVIO auf gut und gerne 750-800mio Transitoren kommen, wenn man damit nicht schneller als R580 wäre, wäre das auch ziemlich blamabel. Bei R580 wurde ja auch nur die arithmetische Rechenleistung verdreifacht, nicht das gesamten Quad.

reunion
2007-01-02, 21:39:51
Das sind keine Gerüchte, sondern halbwegs bestätigte Infos.


Vorserienmodelle unterschieden sich nicht ohne Grund vom finalen Produkt. Besonders wenn es um solche Dinge geht, kann man mit eine Respin eine Menge rausholen.


Gut steht der G80. Schlussfolgernd muss der R600 eine ähnliche Pro-Watt-Leistung erreichen wie der G80, damit diese als "gut" bewertet werden kann. Und bisher hieß, dass der R600 stromhungriger sein wird als der G80, aber "nur" gleiche Performance liefert. Dieser Punkt ist aber dann zu vernachlässigen, wenn das Preis-Leistung-Verhältntis so gut ist, dass der Stromhunger nicht das kaufentscheidende Kriterium ist.


Du scheinst ja schon sehr genaue Details zu wissen, so wie du dich hier äußerst. Erzählt wird viel, eine differenzierte Betrachtung wird erst der Launch ermöglichen.


Was ist dir wichtig: das, was auf dem Papier und somit theoretisch ist, oder das, was hinten rauskommt?
Das, was beim G80 hinten rauskommt, ist brachial.

Auch die Leistung des R300 war brachial im Vergleich zum NV25, genauso bei NV40 vs. R380 und natürlich auch bei G80 vs. R580. Nur wird sich der Chip nicht lange mit diesen Gegner messen dürfen.

Blutmaul
2007-01-02, 21:41:43
Performance pro Watt wird spätestens dann Scheisse, wenn man trotzdem ein Kilowatt-Netzteil benötigt.

Die High-End-Grafikkarten sind, bei aller Anerkennung für ihre Leistung, auf einem Weg zum Höllenstrom, der einfach kaum noch zu rechtfertigen ist.

Ich glaub ja, das ATI und Nvidia da an eine Grenze stossen, die sich nicht überschreiten lässt, sondern im Gegenteil eher wieder restriktiver wird.

Ailuros
2007-01-02, 21:46:33
Der r580 wird sich mit der zeit noch mehr von g71 absetzen.

So wie ich die IHVs kenne wird sich bald kein Schwein mehr um Leistungssteigerungen fuer aeltere GPUs kuemmern.

Warten wir einfach 4-5 Blockbuster die in den nächsten monaten kommen, ich wette der vorsprung wird steigen.

Na die Wette wuerde ich nicht so leicht eingehen.

reunion
2007-01-02, 21:46:35
G80 hat jetzt die TEX OPs teilweise entkoppelt und wenn Du den reinen Entwicklergebrauch ausrechnest schrumpft der Unterschied im Vergleich zur vorigen Generation auf weniger als die Haelfte ;)

Mit oder ohne MUL bei G80? =)

Ailuros
2007-01-02, 21:55:49
Auch die Leistung des R300 war brachial im Vergleich zum NV25, genauso bei NV40 vs. R380 und natürlich auch bei G80 vs. R580. Nur wird sich der Chip nicht lange mit diesen Gegner messen dürfen.

Der Leistungsunterschied wird sich in den erwarteten Grenzen bewegen. Wehe wenn ATI ein so teures Produkt 4 Monate nach der Konkurrenz veroeffentlicht und es nur auf Gleichstand kommt oder im schlimmsten Fall langsamer sein sollte.

Hier wiederholt sich nur die gleiche alberne Geschichte wie in der Vergangenheit: NV stellt als erste vor und wenn dann X Monate ATI nachhinkt, hat NV schon die Refresh-chips auf dem Vorproduktions-laufband.

Das einzige Problemchen ist eben diesmal dass es nur mehr um die Leistung geht, denn die paar stoerenden Luecken was ueberhaupt die Bildqualitaet betrifft, hat NV diesmal zugestopft. Das USC Argument ist auch Weg vom Fenster, ergo muss sich jetzt ATI's PR Maschine mehr als zuvor anstrengen.

Das Resultat wird einfach sein dass die Gegen-argumente beider PR-Abteilungen so albern wie moeglich sein werden.

Ailuros
2007-01-02, 21:56:51
Mit oder ohne MUL bei G80? =)

Ohne natuerlich. Ich hab gerade mal den ueberfluessigen Mist beider Seiten abgerechnet.

reunion
2007-01-02, 22:03:16
Ohne natuerlich. Ich hab gerade mal den ueberfluessigen Mist beider Seiten abgerechnet.

Okay, dann dürfte R600 auf gut 400-450GFLOPs kommen, wenn man "den ueberfluessigen Mist abgerechnet".

deekey777
2007-01-02, 22:07:43
Du scheinst ja schon sehr genaue Details zu wissen, so wie du dich hier äußerst. Erzählt wird viel, eine differenzierte Betrachtung wird erst der Launch ermöglichen.



Auch die Leistung des R300 war brachial im Vergleich zum NV25, genauso bei NV40 vs. R380 und natürlich auch bei G80 vs. R580. Nur wird sich der Chip nicht lange mit diesen Gegner messen dürfen.
Ich habe keine Infos, sondern vertraue auf die Aussagen anderer und bastle was daraus.
Die bisherigen Aussagen sind: Der R600 soll dem G80 ebenbürtig sein. Der R600 verbraucht aber mehr Strom, da er mehr Transistoren haben und sehr hoch getaktet sein soll. Meine Aussage war nur: Wie kann die Pro-Watt-Leistung des R600 als gut bezeichnet werden, wenn dieser die Leistung des G80 erreicht oder diese geringfügig übertrifft, dabei aber mehr Saft brauchen soll?
Mehr habe ich nicht geschrieben.
Ich ergänze mal:
Aus dem iXBT-Review:
http://img108.imageshack.us/img108/1705/d3drmps5oz7.png
Vorläufige Meinung: Die 8800GTX wie auch die GTS haben mehr als genug arithmetische Power, dumm nur, dass nur wenige Spiele von dieser profitieren. Aber die 8800er haben nicht umsonst Tex-Power.:biggrin:
War jemand auf den nVidia Editor's Days?
Da wurde ua auch ein AMD 4x4 Mainboard gezeigt, dss auf dem 680-Chipsatz basiert.
http://www.ixbt.com/video2/g80-part4.shtml
Der Balken des G80 sollte länger werden, wenn die zweite MUL auftaucht.
Was du vergisst, dass der G80 auch eine sehr hohe TEX-Leistung hat (32 Monster-TMUs), und diese ist heute immernoch wichtig(-er).

Ailuros
2007-01-02, 22:16:36
Okay, dann dürfte R600 auf gut 400-450GFLOPs kommen, wenn man "den ueberfluessigen Mist abgerechnet".

Wenn man die sehr konservative These nimmt, hauts schon hin ;)

reunion
2007-01-02, 22:16:39
Hier wiederholt sich nur die gleiche alberne Geschichte wie in der Vergangenheit: NV stellt als erste vor und wenn dann X Monate ATI nachhinkt, hat NV schon die Refresh-chips auf dem Vorproduktions-laufband.


Irgendwer muss eben früher dran sein. Bei R300 war es ATI, bei NV40 nV, und jetzt eben wieder nV. Aber ich denke dass nV mit dem Refresh auf den 65nm Prozess warten wird (müssen), und der dürfte vor der zweiten Jahreshälfte für einen High-End-Chip nicht einsatzbereit sein IMO.

Wenn man die sehr konservative These nimmt, hauts schon hin ;)

346 +25% = ~433GFLOPs. :)

Ich habe keine Infos, sondern vertraue auf die Aussagen anderer und bastle was daraus.


Ist ja kein Problem, nur hat sich deine Aussage vorher ziemlich endgültig angehört. Zurzeit sind nur grobe Hinweise bekannt, die IMHO noch nicht beurteilen lassen, wie es bei solchen Dingen letztendlich aussieht.

Ailuros
2007-01-02, 22:25:13
Der Balken des G80 sollte länger werden, wenn die zweite MUL auftaucht.
Was du vergisst, dass der G80 auch eine sehr hohe TEX-Leistung hat (32 Monster-TMUs), und diese ist heute immernoch wichtig(-er).

Ich koennte schwoeren dass Entwickler wie Mintmaster bei B3D schon seit einiger Zeit nach mehr Fuellrate kreischen. Lasst doch mal das alberne Gedudle beider IHVs zur Seite und fragt ein paar Entwickler was sie wirklich haben wollen; natuerlich bekommt man dann Antworten die eigentlich nur eine Addition der Vorteile beider Seiten im Grunde sind, aber so verdammt unwichtig ist Fuellrate nun auch wieder nicht.

Ehrlich gesagt bezweifle ich dass sich daran besonders viel aendern wird. Es hiess ja auch oefters in der Vergangenheit dass so bald arithmetische Effizienz an Wichtigkeit gewinnt, dass die Not fuer mehr Bandbreite schrumpfen wird. Ich sehe nichts dergleichen. Bandbreite skaliert weiterhin so wie man es erwarten koennte.

Ailuros
2007-01-02, 22:28:37
Irgendwer muss eben früher dran sein. Bei R300 war es ATI, bei NV40 nV, und jetzt eben wieder nV. Aber ich denke dass nV mit dem Refresh auf den 65nm Prozess warten wird (müssen), und der dürfte vor der zweiten Jahreshälfte für einen High-End-Chip nicht einsatzbereit sein IMO.

Nur leider ist R300 die einzige Aussnahme in der gesamten Geschichte von NVIDIA.

Zum zweiten holt ATI den originalen R600 aus der Schublade oder den "Refresh"? :P

346 +25% = ~433GFLOPs. :)

LOL Du Optimist.... ;)

reunion
2007-01-02, 22:31:42
Zum zweiten holt ATI den originalen R600 aus der Schublade oder den "Refresh"? :P


Ich verstehe nicht?!


LOL Du Optimist.... ;)

Ich gebe auf. :D

Ailuros
2007-01-02, 22:35:17
Ich verstehe nicht?!

Frag mal lieber warum manche Speclisten merkwuerdige Referenzen zu einem angeblichen stornierten UFO haben.

Ich gebe auf. :D

Geduld ;)

dargo
2007-01-02, 22:57:44
Irgendwie habe ich so ein Gefühl, dass der R600 die Erfahrungen mit dem R520 wach werden lässt: Ein Grafikchip, der zwar alles andere als langsam ist, aber heiß und stromhungrig.
Der wichtigste Punkt beim R600 ist noch offen - nämlich der Stromverbrauch in Idle!
Sollte ATI hier wieder bei ~30W liegen (was ich allerdings kaum glaube) und nicht wie beim G80 ~70W (architekturbedingt?) sieht die Sache wieder ganz anders aus. Dann stören selbst die ~20-30W (Spekulation) mehr bei Last nicht mehr so stark.

dargo
2007-01-02, 23:09:33
Gut steht der G80.

Wo?
Bei der Leistung sicherlich, aber nicht beim Stromverbrauch. Ich sage nur 2 PCIe Stromanschlüsse. Auch ein G80 hat imo die Grenze überschritten (in Idle erst recht).
Und leider wird es beim R600 nicht anders sein. Nein es wird sogar noch wahrscheinlich was draufgesetzt. Die Entwicklung gefällt mir gar nicht. Aber das habe ich schon oft genug gesagt.


Schlussfolgernd muss der R600 eine ähnliche Pro-Watt-Leistung erreichen wie der G80, damit diese als "gut" bewertet werden kann. Und bisher hieß, dass der R600 stromhungriger sein wird als der G80, aber "nur" gleiche Performance liefert.
Beides momentan immer noch imo reine Spekulation.

horn 12
2007-01-02, 23:42:34
Wann soll nun denn der R600 offiziell vorgestellt werden und kaufbar.
Stimmt dies mit 23.ten Jannuar und ein Hardlauch, und Ende März der Refresh auf GDDR4 und später nochmals der eigentliche Refrash des R600 GPU
Da kommen schwere Zeiten auf NV zu, falls dies stimmen sollte.

Coda
2007-01-02, 23:49:45
Oder auch nicht X-D

gas3t
2007-01-03, 00:21:38
Frag mal lieber warum manche Speclisten merkwuerdige Referenzen zu einem angeblichen stornierten UFO haben.



Die ursprüngliche geplante Version des R600 (UFO mit DDR3 @ 900 Mhz) wurde also aufgrund der guten Leistung des G80 gecancelt und jetzt wird gleich der eigentliche Refresh (Pele mit DDR4 @ 1100 Mhz) veröffentlicht.

Wie sieht es dann mit dem Chiptakt des ursprünglichen UFOs und des nun erscheinenden Peles aus? 650 zu 750 oder 800?

@Coda: Bitte kein Spam.
@Gast über mir: Bitte sachlich bleiben.

Gast
2007-01-03, 00:23:20
Warum sachlich bleiben, Coda ist numal ein NV Fanboy wie er im Buche steht. Dann meint er auch noch er können immer mitreden, dabei weiß er gar nicht wovon er spricht, typischer Realitätsverlust!

horn 12
2007-01-03, 00:30:24
Die ursprüngliche geplante Version des R600 (UFO mit DDR3 @ 900 Mhz) wurde also aufgrund der guten Leistung des G80 gecancelt und jetzt wird gleich der eigentliche Refresh (Pele mit DDR4 @ 1100 Mhz) veröffentlicht.

Wie sieht es dann mit dem Chiptakt des ursprünglichen UFOs und des nun erscheinenden Peles aus? 650 zu 750 oder 800?

@Coda: Bitte kein Spam.
@Gast über mir: Bitte sachlich bleiben.

Da könnte was Wahres drann sein, ATI wird aber den eigentlichen Refresh der R600 GPU sicherlich auch noch bringen, vor Mitte Mai/ Anfang Juni rechne ich aber nicht damit.
PS: Wird ähnlich werden wie mit R520/ R580, Wetten!! ca. 3-4 Monate TOP- High End Herschaft.

Coda
2007-01-03, 00:40:25
Warum sachlich bleiben, Coda ist numal ein NV Fanboy wie er im Buche steht.

Nicht das ich wüsste. Mein R300 war toll ;)

horn 12 neigt dagegen zu undifferenzierten Aussagen. NVIDIA braucht sich vor gar nichts zu fürchten, egal was passiert.

w0mbat
2007-01-03, 00:44:34
Die ursprüngliche geplante Version des R600 (UFO mit DDR3 @ 900 Mhz) wurde also aufgrund der guten Leistung des G80 gecancelt und jetzt wird gleich der eigentliche Refresh (Pele mit DDR4 @ 1100 Mhz) veröffentlicht.

Wie sieht es dann mit dem Chiptakt des ursprünglichen UFOs und des nun erscheinenden Peles aus? 650 zu 750 oder 800?

@Coda: Bitte kein Spam.
@Gast über mir: Bitte sachlich bleiben.

Wer sagt dass die GDDR3-Version gestrichen wurde? Oder wenn doch, wer sagt das G80 der Grund ist?

The_Invisible
2007-01-03, 00:45:53
Da könnte was Wahres drann sein, ATI wird aber den eigentlichen Refresh der R600 GPU sicherlich auch noch bringen, vor Mitte Mai/ Anfang Juni rechne ich aber nicht damit.
PS: Wird ähnlich werden wie mit R520/ R580, Wetten!! ca. 3-4 Monate TOP- High End Herschaft.

naja, wenns so wird wie bei R520/580 fährt wieder nur nvidia die fetten gewinne ein

mfg

MartinRiggs
2007-01-03, 00:57:17
na ja, wie war das???
Mit mainstream wird die kohle gemacht.
Im Mainstream ist ja wohl momentan die x1950pro die karte schlechthin.
Günstig, relativ kühl, sauschnell.
Aber es wurde ja auch zeit das ne gute mainstream-karte von ATI kommt.

Coda
2007-01-03, 00:59:41
RV570 ist aber ein ziemlich großer Chip für dieses Segment. G73 dürfte weit weit mehr abwerfen.

sulak
2007-01-03, 01:00:18
PS: Wird ähnlich werden wie mit R520/ R580, Wetten!! ca. 3-4 Monate TOP- High End Herschaft.

Herrschaft, schreibt man mit 2x R, und die interessiert nur wenige. Wurde ja schon oft erwähnt das OEM Verträge das Geld bringen mit den Mainstream GPUs.
Und wer echtes Highend haben will der hat schon eine G8800 oder sich direkt eine SLI Rig zugelegt oder wartet und wird mit dem R600 Glücklich. Wasn daran so schlimm...

GDDR3 Speicher am Anfang wäre wohl zu wünschen um den Preis unter 600$ zu halten, damit wäre man doch sehr gut gestellt im Highend Markt. Warum den GDDR4 Trumpf jetzt schon raushaun wenn man den Chip so weit ausreitzt das man 10-15% schneller ist mit GDDR3. Es dreht sich schließlich nur ums Geld. Gibt genug Gerüchte das der Refresh oder die GDDR4 Version des G80 zur Cebit/kurz danach kommt, ob da was dran ist wird AMD besser einschätzen können und entsprechend wird der jetzige R600 aussehen.

p.s.: AA Modi sind wohl momentan interessanter als der reine Speed, den der steht schon fest in Relation zum G80.

w0mbat
2007-01-03, 01:00:19
naja, wenns so wird wie bei R520/580 fährt wieder nur nvidia die fetten gewinne ein

mfg

Beim R520 sahs schlecht aus für AMD, aber beim R580 lag AMD vor nVidia.

Hvoralek
2007-01-03, 01:03:56
GDDR3 Speicher am Anfang wäre wohl zu wünschen um den Preis unter 600$ zu halten, damit wäre man doch sehr gut gestellt im Highend Markt. Warum den GDDR4 Trumpf jetzt schon raushaun wenn man den Chip so weit ausreitzt das man 10-15% schneller ist mit GDDR3. Es dreht sich schließlich nur ums Geld. Gibt genug Gerüchte das der Refresh oder die GDDR4 Version des G80 zur Cebit/kurz danach kommt, ob da was dran ist wird AMD besser einschätzen können und entsprechend wird der jetzige R600 aussehen.Hey, endlich mal wieder etwas, das nicht zu dieser verfluchten Fanboy- "Diskussion" gehört. Vielen Dank an horn dafür, wieder einmal :rolleyes:

sulak
2007-01-03, 01:07:00
ATi, ES HEIßT ATi, kapier das endlich!

Öhm nein http://de.wikipedia.org/wiki/ATI

Offiziel ist es nun AMD, Hersteller von Grafikprozessoren. ATI ist nur noch ein Markenname.

Ailuros
2007-01-03, 01:24:52
Wann soll nun denn der R600 offiziell vorgestellt werden und kaufbar.

Wenn Du verliebt bist kannst Du dann gleich 2-mal feiern ;)

Stimmt dies mit 23.ten Jannuar und ein Hardlauch, und Ende März der Refresh auf GDDR4 und später nochmals der eigentliche Refrash des R600 GPU

Errrr... nein.

Da kommen schwere Zeiten auf NV zu, falls dies stimmen sollte.

Ach sie werden es ueberleben :P Mit 4 Monaten Vorsprung im high end und fast ein Halbjahr fuer mainstream, stehen sie ja fast vor dem finanziellen Ruin :|

Ailuros
2007-01-03, 01:29:55
p.s.: AA Modi sind wohl momentan interessanter als der reine Speed, den der steht schon fest in Relation zum G80.

Wo genau steht die Leistung schon fest? Was die AA-modi betrifft, eigentlich das was man von dieser Generation erwarten wuerde.

deadkey
2007-01-03, 01:33:31
Wenn Du verliebt bist kannst Du dann gleich 2-mal feiern ;)

Also zum 14. Februar?...(Valentinstag:D )

Ailuros
2007-01-03, 01:34:03
Wer sagt hier 4 Monate? Aber wieder mal ein ewig Gestriger Nvidia Fanboy!

Immer schoen langsam, sonst reisst Dir der zu hohe Blutdruck noch einen Hirnschlag ;)

http://www.beyond3d.com/forum/showpost.php?p=901532&postcount=20

(ich bin sogar grosszuegig, denn CJ deutet schlimmeres an...)

reunion
2007-01-03, 01:39:10
RV570 ist aber ein ziemlich großer Chip für dieses Segment. G73 dürfte weit weit mehr abwerfen.

Der Verglich hinkt aber gewaltig, ein RV570 schlägt in vielen neuen Spielen schon eine 7950GT. Das sind Welten.

LovesuckZ
2007-01-03, 01:42:25
Was die AA-modi betrifft, eigentlich das was man von dieser Generation erwarten wuerde.

Gibt es mehr als 8xMSAA?

reunion
2007-01-03, 01:49:01
BTW, noch zwei Stunden, dann präsentiert uns Level505 weitere Benchmarks plus Bilder. :ugly:

LovesuckZ
2007-01-03, 01:52:47
BTW, noch zwei Stunden, dann präsentiert und Level505 weitere Benchmarks plus Bilder. :ugly:

Eher wirst du wohl dir einen Dialer runterladen können, der dir "weitere Benchmarks plus Bilder" zeigt. Für ganze 1,99€ die Minute...

Coda
2007-01-03, 01:56:30
Der Verglich hinkt aber gewaltig, ein RV570 schlägt in vielen neuen Spielen schon eine 7950GT. Das sind Welten.

Die Marge dürfte trotzdem deutlich besser sein beim G73, auch wegen des weniger komplexen PCB, etc. Das ist grad einfach die Geldkuh für nVIDIA.

Ailuros
2007-01-03, 01:59:15
Der Verglich hinkt aber gewaltig, ein RV570 schlägt in vielen neuen Spielen schon eine 7950GT. Das sind Welten.

G73 liegt tatsaechlich in einer niedrigeren Kategorie. RV570 gehoert nicht in's mainstream sondern in's "performance" Segment.

http://www.xbitlabs.com/images/video/x1950pro-gf7900gs/price_range.gif

http://www.xbitlabs.com/articles/video/display/x1950pro-gf7900gs.html

In der Tabelle kann man auch sehen dass die 7950GT eigentlich X1900XT Konkurrenz ist. Das die X1950PRO jetzt schneller sein soll hab ich bis jetzt noch nicht sehen koennen:

http://www.xbitlabs.com/articles/video/display/geforce7950gt.html

Ailuros
2007-01-03, 02:02:00
Die Marge dürfte trotzdem deutlich besser sein beim G73, auch wegen des weniger komplexen PCB, etc. Das ist grad einfach die Geldkuh für nVIDIA.

Tut mir leid, aber er hat trotz allem recht. G73 ist RV530 Konkurrenz von der Leistung und vom Preis her. RV570 ist ein ganz anderes Kapitel.

Hvoralek
2007-01-03, 02:21:44
G73 ist RV530 Konkurrenz von der Leistung und vom Preis her. RV570 ist ein ganz anderes Kapitel.OT, aber doch eher RV560- Konkurrenz, oder?

Ailuros
2007-01-03, 02:24:16
OT, aber doch eher RV560- Konkurrenz, oder?

Ja. Nur leider schafft eine RV560 (was eigentlich nur eine kastrierte RV570 ist) es trotzdem nicht G73 zu uebertreffen.

LovesuckZ
2007-01-03, 02:28:50
Warum soll die MUL nichts gebracht haben?

Ich stelle mir eher die Frage, ob eine zusätzliche MUL - Einheit überhaupt von so großer Bedeutung ist.
Immerhin ist der NV40 auch MUL - lästig und es brachte bezüglich der Leistung gegenüber des r420 nicht wirklich viel.

aths
2007-01-03, 04:32:55
Ich stelle mir eher die Frage, ob eine zusätzliche MUL - Einheit überhaupt von so großer Bedeutung ist.
Immerhin ist der NV40 auch MUL - lästig und es brachte bezüglich der Leistung gegenüber des r420 nicht wirklich viel.Das hat auch andere Gründe.

paul.muad.dib
2007-01-03, 10:35:54
So, die Level505 Seite ist wieder online. Und scheinbar zersägt der R600 den G80 ziemlich. Ich wußte außerdem nicht, dass ein X1950 XTX CF schneller als eine 8800 GTX ist, stimmt das?

Mir kommt der Vorsprung allerdings etwas sehr hoch vor. Falls das stimmt, wird ATI wahrscheinlich die Taktraten senken, um die Ausbeute zu verbessern. Tw. >30% schneller, das ist schon auf dem Niveau eines Refresh Chips.

Ailuros
2007-01-03, 10:43:21
So, die Level505 Seite ist wieder online. Und scheinbar zersägt der R600 den G80 ziemlich. Ich wußte außerdem nicht, dass ein X1950 XTX CF schneller als eine 8800 GTX ist, stimmt das?

Ich wusste auch nicht dass man Crossfire in nForce680 zum laufen bekommt, aber ich lass mich stets gerne ueberraschen :P

Mir kommt der Vorsprung allerdings etwas sehr hoch vor. Falls das stimmt, wird ATI wahrscheinlich die Taktraten senken, um die Ausbeute zu verbessern. Tw. >30% schneller, das ist schon auf dem Niveau eines Refresh Chips.

Im Durchschnitt 18%. Ob das Zeug jetzt Hand und Fuss hat ist mir nebensaechlich; ich sehe weder irgendeine "zersaegung" noch einen "hohen" Unterschied. Lediglich irgendwo das Niveau dass jeder halbwegs nuechterne Mensch erwarten koennte.

Die Taktraten senken oder weiter in die Hoehe schieben da der Herr wohl nicht die R600 mit nur 800MHz laufen liess (rein hypothetisch)?

http://www.theinquirer.net/default.aspx?article=36673

Ailuros
2007-01-03, 10:58:20
Aber: Diese 8 Cluster des G80 arbeiten doch quasi wie 4 Quads (mit Skalar Ops halt).

Bei weitem nicht; selbst 8 quads waere eine falsche Parallelisierung. Jedes einzelne cluster kann 4 quads bearbeiten aber bei 1.35GHz; bei rein theoretischer Arithmetik-Mathe gleicht jedes cluster 2*7300.

D.h. Der R600 arbeitet mit 4x16ALUs, pro Cluster 4xSIMD?

Waere es bekannt ueber was jede ALU faehig ist, waere jegliche Andeutung viel zu gefaehrlich momentan. Ein bisschen kreativer muss man schon denken koennen, man muss nur nachdenken wie Xenos und R5x0 ALUs genau aussehen.

Gast
2007-01-03, 11:03:00
Ich wusste auch nicht dass man Crossfire in nForce680 zum laufen bekommt, aber ich lass mich stets gerne ueberraschen :P

die haben das Foxconn 975X7AA (CF Edition) benutzt steht da

robbitop
2007-01-03, 11:21:37
Ich stelle mir eher die Frage, ob eine zusätzliche MUL - Einheit überhaupt von so großer Bedeutung ist.
Immerhin ist der NV40 auch MUL - lästig und es brachte bezüglich der Leistung gegenüber des r420 nicht wirklich viel.
NV40 ist in den "neuen" Spielen trotz 33% weniger Chiptakt und gleicher Anzahl von Recheneinheiten genausoschnell wie eine X800XT PE und im Shadermark sowieso. Wenn das nicht wirklich viel sein soll, weiß ich es auch nicht...

Schnitzl
2007-01-03, 11:27:56
Ich wusste auch nicht dass man Crossfire in nForce680 zum laufen bekommt, aber ich lass mich stets gerne ueberraschen :P
wer lesen kann ist klar im Vorteil...
For the test of our X1950 XTX CF-pair we used the same configuration as mentioned above, but exchanged the motherboard to a Foxconn 975X7AA (CF Edition) (http://level505.com/2006/12/30/the-full-ati-r600-test/2/)
Aber hauptsache erstmal den dicken markiert. Da frage ich mich eher ob du überhaupt den Test gelesen hast?

Im Durchschnitt 18%. Ob das Zeug jetzt Hand und Fuss hat ist mir nebensaechlich; ich sehe weder irgendeine "zersaegung" noch einen "hohen" Unterschied. Lediglich irgendwo das Niveau dass jeder halbwegs nuechterne Mensch erwarten koennte.
Aha. Wenn also nVidia die 8800 rausbringt ist das ne unglaubliche Meisterleistung.
Wenn ATI das dann kurze Zeit später übertrifft ist das nur das was man erwarten kann. :|

btw ich warte immer noch auf die Mainstream-Versionen der 8800. Warum dauert das so lange?

paul.muad.dib
2007-01-03, 11:36:33
Im Durchschnitt 18%. Ob das Zeug jetzt Hand und Fuss hat ist mir nebensaechlich; ich sehe weder irgendeine "zersaegung" noch einen "hohen" Unterschied. Lediglich irgendwo das Niveau dass jeder halbwegs nuechterne Mensch erwarten koennte.

Immer angenommen, der Test ist kein fake. Du hast tatsächlich angenommen, dass der R600 mit beta Treibern, die eigentlich für Vista gedacht sind, unter XP bis zu 40% schneller ist als ein G80?

Also ich finde das schon sehr viel, vor allem, wenn man bedenkt, wie viel der r520 noch mit neuen Treibern gewonnen hat.


Aber mal eine andere Frage:

Was soll eigentlich dieses Geschreibsel, der R600 habe weniger ALUs als der G80. Hat da NVs Marketing eingeschlagen?

Besonders herausstechend sind relativ niedrige Anzahl der Unified Shader (64), die jedoch mehrere Operationen pro Takt ausführen können sollen, und die sehr hohe Speicherbandbreite (bis 140 GB/s). NVIDIA geht mit dem G80 einen etwas anderen Weg und spendiert diesem 128 Unified Shader aber eine, auf Grund des 384 Bit Buses, mit 86 GB/s relativ kleine Bandbreite.

64 Vec4 ALUs sollten doch ganz grob gesagt 256 skalaren "Stream Prozessoren" entsprechen, oder? Taktnormalisiert wäre dann doch in etwa die gleiche Rohpower vorhanden.

James Ryan
2007-01-03, 11:38:09
Wenn ATI das dann kurze Zeit später übertrifft ist das nur das was man erwarten kann. :|

Naja, ATi übertrifft es aber nicht kurze Zeit später, sondern Monate später. :rolleyes:
Bei Grafikkarten ist das schon eine Ewigkeit!
Außerdem kann man sich sicher sein dass NVIDIA schon seit November gute G80-GTX Chips bunkert um dann zum R600 Launch eine Gf 8800 GTX/1024 zu launchen (siehe Gf 7800 GTX/512).
ATi ist wie schon seit Jahren zu spät dran und erreicht das Ziel der höheren Perfomance nur mit einem hohen Preis. Das ist auf Dauer nicht gesund für ein Unternehmen!

MfG :cool:

paul.muad.dib
2007-01-03, 11:39:29
btw ich warte immer noch auf die Mainstream-Versionen der 8800. Warum dauert das so lange?

Wahrscheinlich lässt sich ein G70 günstiger produzieren als ein Mainstream G80, weil er immer noch weniger Transistoren hat. Und solange die sich noch gut verkaufen spart NV halt Kosten.

Odal
2007-01-03, 11:54:57
NV40 ist in den "neuen" Spielen trotz 33% weniger Chiptakt und gleicher Anzahl von Recheneinheiten genausoschnell wie eine X800XT PE und im Shadermark sowieso. Wenn das nicht wirklich viel sein soll, weiß ich es auch nicht...

ist das jetzt ironie?

wenn nicht dann hätte ich gern belege

neue spiele die mir so einfallen:

- Need4Speed Carbon
- Dark Messiah
- Company of Heroes
- Oblivion
- Gothic3
- Anno1701
- F.E.A.R. Addon
- Battlefield 2142
...

achso ein paar Tests finden sich hier
http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/default.asp

Ein paar Impressionen dazu:

http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/images/bf21280.gif
http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/images/fear1280.gif
http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/images/coh1280.gif
http://666kb.com/i/akn6h9vjirsru6sfi.png

Ailuros
2007-01-03, 11:55:14
Aha. Wenn also nVidia die 8800 rausbringt ist das ne unglaubliche Meisterleistung.
Wenn ATI das dann kurze Zeit später übertrifft ist das nur das was man erwarten kann. :|

Wo hab ich je erwaehnt dass ich R600 auf gleichem oder niedrigerem Niveau erwartet habe? Ich hab mich lediglich gegen die +50% im Durchschnitt gewehrt die manche hier erwartet haben.

btw ich warte immer noch auf die Mainstream-Versionen der 8800. Warum dauert das so lange?

In unmittelbarer Release-Naehe zur R600. In der Zwischenzeit versuch mal eher Dich selber zu fragen wann ATI's mainstream D3D10 GPUs ankommen werden.

seahawk
2007-01-03, 11:56:09
Es gibt noch keinen Markt für DX10 Mainstremachips - oder NV braucht sie noch nicht. Da sie insgesamt gut aufgestellt sind.

Im Hinblick auf R600 erscheint es mir so, dass der ernuete Re-Spin und die Verschiebung (falls real) darauf hindeuten, dass R600 nicht mehr mit G80 konkurrieren soll/muss, sondern mit dem G80-Refresh. Gehen wir von einem Press-Launch im März aus und einer Verfügbarkeit im April, dann dürfte das realistisch sein.

seahawk
2007-01-03, 11:57:28
In unmittelbarer Release-Naehe zur R600. In der Zwischenzeit versuch mal eher Dich selber zu fragen wann ATI's mainstream D3D10 GPUs ankommen werden.

Im schlimmsten Fall vor dem R600. ;D Oder wäre das der für AMD günstigste Fall - alles ne Frage der Sichtweise.

w0mbat
2007-01-03, 11:59:36
Naja, ATi übertrifft es aber nicht kurze Zeit später, sondern Monate später. :rolleyes:
Bei Grafikkarten ist das schon eine Ewigkeit!
Außerdem kann man sich sicher sein dass NVIDIA schon seit November gute G80-GTX Chips bunkert um dann zum R600 Launch eine Gf 8800 GTX/1024 zu launchen (siehe Gf 7800 GTX/512).
ATi ist wie schon seit Jahren zu spät dran und erreicht das Ziel der höheren Perfomance nur mit einem hohen Preis. Das ist auf Dauer nicht gesund für ein Unternehmen!

MfG :cool:

Nur läuft der G80, im Gegensatz zum G70, schon am oberen Ende so dass kein Spielraum für weit höhere Taktraten wie bei der 7800GTX 512 da ist. Und eine 8800GTX 1024 mit 512Bit SI wäre auch nicht so viel schneller als eine 8800GTX da der G80 z.Zt. nicht Bandbreitenlimitiert ist.

Ich denke dass AMD mal wieder die bessere Architektur haben wird.

Gast
2007-01-03, 12:03:48
Beim R520 sahs schlecht aus für AMD, aber beim R580 lag AMD vor nVidia.
aber wie immer nicht in den Finanzen. ATI hat aus den gesamten 2 letzten Produktlinien nicht genug finanziell herausholen können. Da haben sie durch die Bank weg den Kürzeren gezogen vor allem im letzten Jahr. Ich fürchte das könnte sie mit R6xx wieder ereilen. Die Vorzeichen sind wiedermal die gleichen wie bei R5xx.

Ailuros
2007-01-03, 12:09:56
Immer angenommen, der Test ist kein fake. Du hast tatsächlich angenommen, dass der R600 mit beta Treibern, die eigentlich für Vista gedacht sind, unter XP bis zu 40% schneller ist als ein G80?

Lass mich mal sehen, die specliste ist teilweise fuer die Tonne, er benutzt verschiedene mobos, modifiziert angeblich Vista Treiber usw usw. und ich soll was fuer einen Wert auf das Geschreibsel genau legen? Das einzige was ich an dem Ding nicht einzuwenden habe ist dass die Leistung insgesamt nicht ausserirdisch klingt. Was soll mir an +40% in einem Fall genau imponieren? Derartige Peaks je nach Anwendung gibt es auf beiden Seiten.


Aber mal eine andere Frage:

Was soll eigentlich dieses Geschreibsel, der R600 habe weniger ALUs als der G80. Hat da NVs Marketing eingeschlagen?

Och wenn Du so naiv bist und nicht die Wichtigkeit der Breite einer jeden Einheit verstehen kannst, dann retten Dich jegliche harmlosen Angriffe unter dem Guertel auch nicht den Tag. Weniger clusters heisst weder weniger ALUs noch weniger arithmetische Leistung.

64 Vec4 ALUs sollten doch ganz grob gesagt 256 skalaren "Stream Prozessoren" entsprechen, oder? Taktnormalisiert wäre dann doch in etwa die gleiche Rohpower vorhanden.

Nur sind es eben weder Vec4 ALUs noch "nur" 256 SPs. Bei 800MHz waere das Ganze zu wenig.

256 was genau? 1D ALUs? Schau her was rein theoretische Mathe hier anrichten kann:

256 * 1 * 0.8GHz = 205 GFLOPs/s

So viel schafft ein R600 nur mit einer "Instruktions-Familie" pffff

Ailuros
2007-01-03, 12:16:53
Es gibt noch keinen Markt für DX10 Mainstremachips - oder NV braucht sie noch nicht. Da sie insgesamt gut aufgestellt sind.

Im Hinblick auf R600 erscheint es mir so, dass der ernuete Re-Spin und die Verschiebung (falls real) darauf hindeuten, dass R600 nicht mehr mit G80 konkurrieren soll/muss, sondern mit dem G80-Refresh. Gehen wir von einem Press-Launch im März aus und einer Verfügbarkeit im April, dann dürfte das realistisch sein.

Das re-spin Geruecht steht noch auf wackligen Beinen IMHLO. NV erlaubt erstmal ihren Vendors G80 mit dem Garantie-siegel zu uebertakten und beide IHVs schuften wie die Wilden an Vista Treibern. Keiner der beiden darf mit maessigen Vista Treibern ankommen.

Falls das re-spin Geruecht Hand und Fuesse hat, heisst es eigentlich nur dass der vorige Spin doch nicht gut genug fuer einen Release war.

robbitop
2007-01-03, 12:17:13
256 was genau? 1D ALUs? Schau her was rein theoretische Mathe hier anrichten kann:

256 * 1 * 0.8GHz = 205 GFLOPs/s

So viel schafft ein R600 nur mit einer "Instruktions-Familie" pffff
Sollte eine gescheite 1D ALU nicht wenigstens 2 FLOPs können (MAD)?

seahawk
2007-01-03, 12:19:51
64 Vec4 ALUs sollten doch ganz grob gesagt 256 skalaren "Stream Prozessoren" entsprechen, oder? Taktnormalisiert wäre dann doch in etwa die gleiche Rohpower vorhanden.

Es könnten sogar 5D sein. ;D

Ailuros
2007-01-03, 12:20:35
Sollte eine gescheite 1D ALU nicht wenigstens 2 FLOPs können (MAD)?

Wooops Sch****e ....tatsaechlich LOL. Na was soll's liesst man genau zwischen den Linien hat mein voriger Fehler wieder zu viel angedeutet ;D

seahawk
2007-01-03, 12:26:24
Das re-spin Geruecht steht noch auf wackligen Beinen IMHLO. NV erlaubt erstmal ihren Vendors G80 mit dem Garantie-siegel zu uebertakten und beide IHVs schuften wie die Wilden an Vista Treibern. Keiner der beiden darf mit maessigen Vista Treibern ankommen.

Falls das re-spin Geruecht Hand und Fuesse hat, heisst es eigentlich nur dass der vorige Spin doch nicht gut genug fuer einen Release war.

Ich habe da auch noch Zweifel, aber Ansätze die die Sache sinnvoll machen. Ein Re-Spin kostet ATI 4-6 Wochen. Bei der sowieso schon vorhandenen Verspätung ist das fast egal. Wenn man dafür das Delta zum G80 erhöhen und im Vergleich zum G80 Refesh verkleinern kann. Ich bezweifele nämlich mal, das sie den R600 ebenso schnell wie den R520 begraben können.

dargo
2007-01-03, 12:27:59
Außerdem kann man sich sicher sein dass NVIDIA schon seit November gute G80-GTX Chips bunkert um dann zum R600 Launch eine Gf 8800 GTX/1024 zu launchen (siehe Gf 7800 GTX/512).

Sicher sein?

Du glaubst doch nicht ersthaft, dass NV jetzt kurz nach dem R600 Launch mit einem 512Bit SI und 1GB Vram ankommt oder?
Und natürlich, NV bunkert tausende von Chips. Die Nachfrage ist auch soo klein. :crazy:

Also manche drehen langsam durch. ;D

Gast
2007-01-03, 12:28:16
Wer sagt dass die GDDR3-Version gestrichen wurde? Oder wenn doch, wer sagt das G80 der Grund ist?

Die gute Fee!!!!!!!!!
Macheiner hier sollte es vielleicht veruchen Bücher zu schreiben, mit der Rhantasie ist der Erfolg garantiert.

Gast
2007-01-03, 12:30:10
Die gute Fee!!!!!!!!!
Macheiner hier sollte es vielleicht veruchen Bücher zu schreiben, mit der Rhantasie ist der Erfolg garantiert.

Bevor die Rechtsschreibpolizei auftaucht:

Manch einer
Phantasie

Gast
2007-01-03, 12:31:04
RV570 ist aber ein ziemlich großer Chip für dieses Segment. G73 dürfte weit weit mehr abwerfen.

Quelle??

Gast
2007-01-03, 12:36:38
Quelle??Logik? Dass eine Karte mit großen Chip und 256-bit-Speicherinterface den Hersteller deutlich mehr kostet als eine mit kleinem Chip und 128-bit-SI, sollte sich doch von selbst erklären.

Gast
2007-01-03, 12:36:53
Also wird der R600 weniger liefern als wir angenommen haben.

Wie war nochmal die Andeutung, dass der R600 mit 400Mhz so schnell wie der R580 ist?

Wenn man das so zusammennimmt, wird der R600 wohl sehr viel weniger Einheiten und auch noch schwächere haben als wir angenommen haben...

Ailuros
2007-01-03, 12:38:24
Ich habe da auch noch Zweifel, aber Ansätze die die Sache sinnvoll machen. Ein Re-Spin kostet ATI 4-6 Wochen. Bei der sowieso schon vorhandenen Verspätung ist das fast egal. Wenn man dafür das Delta zum G80 erhöhen und im Vergleich zum G80 Refesh verkleinern kann. Ich bezweifele nämlich mal, das sie den R600 ebenso schnell wie den R520 begraben können.

Ob beide IHVs ab H2 2007 alle Projektionen fuer 65nm/high end einhalten werden koennen steht noch in den Sternen.

Ailuros
2007-01-03, 12:41:43
Also wird der R600 weniger liefern als wir angenommen haben.

Huh?

Wie war nochmal die Andeutung, dass der R600 mit 400Mhz so schnell wie der R580 ist?

Uhmmm ja nur mit sehr unreifen Treibern und 40% weniger Taktrate als R580. Glaubst Du nicht auch dass R580+ (=/>) 40% Taktrate + auspolierten Treibern dann einen wirklich grossen Unterschied machen wird?

Wenn man das so zusammennimmt, wird der R600 wohl sehr viel weniger Einheiten und auch noch schwächere haben als wir angenommen haben...

Weniger oder mehr? Kommt ganz darauf an wie kreativ man rechnen will.

Gast
2007-01-03, 12:42:31
Im Durchschnitt 18%. Ob das Zeug jetzt Hand und Fuss hat ist mir nebensaechlich; ich sehe weder irgendeine "zersaegung" noch einen "hohen" Unterschied. Lediglich irgendwo das Niveau dass jeder halbwegs nuechterne Mensch erwarten koennte.

http://www.theinquirer.net/default.aspx?article=36673

Du übersehst da etwas ganz wichtiges (mit deine funboybrille)

Es sins 18% über Nvidia G80 nicht über Ati r580.
Es war nicht zu erwarten. Man hat im besten fall mit nem gleich ziehen gerechnet.
Bis jetzt war der G80 das absolute Obermonster was die Leistung angeht und jetzt kommt R600 und Deklasiert das Ding, und alles was du sagst ist:"das war zu erwarten".
Es ist schon lustig zu beobachten wie du dich drehst und wendest und die alles zu recht lügst.


mfg

Gast
2007-01-03, 12:43:28
Logik? Dass eine Karte mit großen Chip und 256-bit-Speicherinterface den Hersteller deutlich mehr kostet als eine mit kleinem Chip und 128-bit-SI, sollte sich doch von selbst erklären.

Nein.

Belege bitte, sonst alles sinnloses gequatsche.

Gast
2007-01-03, 12:47:18
Außerdem kann man sich sicher sein dass NVIDIA schon seit November gute G80-GTX Chips bunkert um dann zum R600 Launch eine Gf 8800 GTX/1024 zu launchen (siehe Gf 7800 GTX/512).


MfG :cool:

Oh man, reines wunschdenken.

/(ps. oder wohnst du in dem "bunker"?)

gruss.

James Ryan
2007-01-03, 12:53:32
Sicher sein?

Du glaubst doch nicht ersthaft, dass NV jetzt kurz nach dem R600 Launch mit einem 512Bit SI und 1GB Vram ankommt oder?
Und natürlich, NV bunkert tausende von Chips. Die Nachfrage ist auch soo klein. :crazy:

Also manche drehen langsam durch. ;D

NVIDIA muss garnicht tausende Chips horten, ein paar hundert reichen schon, ähnlich wie bei der Gf 7800 GTX/512!
Übrigens war letztere auch nur wegen ihres höheren Taktes schneller, die 512 MB zusätzlich waren quasi nutzlos.
Nenne mir einen Grund warum NVIDIA nicht kurz nach dem R600 Launch (warum schreibst du eigentlich jetzt? Launch ist erst Februar oder März :rolleyes: ) mit einer exklusiven G80 Ultra-GTX kommen sollte?
Glaubst du NVIDIA würde es zulassen dass ATi exklusiv mit 1 GB V-Ram wirbt? ;D
Schaut doch einfach in die Vergangenheit, NVIDIA hat das bisher immer so gemacht (Gf 3 Ti 500, Gf 4 Ti AGP 8x ;D , Gf 6800 Ultra Extreme, Gf 7800 GTX/512, Gf 7950 GX2).

MfG :cool:

Gast
2007-01-03, 12:53:46
Huh?



Uhmmm ja nur mit sehr unreifen Treibern und 40% weniger Taktrate als R580. Glaubst Du nicht auch dass R580+ (=/>) 40% Taktrate + auspolierten Treibern dann einen wirklich grossen Unterschied machen wird?



Weniger oder mehr? Kommt ganz darauf an wie kreativ man rechnen will.


Du verwirrst mich....^^

Es steht also fest das er 64 Einheiten hat (keine Ahnung welche) und daher die Specs auf Level505 schon nahe dran sein könnten.

(Wobei ich meine das er noch 96 Vec3 ALUs haben wird und mit 32 TMUs und 16 ROPs auftrumpfen kann.)

Blutmaul
2007-01-03, 12:56:10
Bevor die Rechtsschreibpolizei auftaucht:
Phantasie

Ich will endlich auch mal:
Fantasie
:D

Wenn ich das richtig übersehe, sollen doch die "Testmuster" noch gar nicht mit der endgültigen, höher angepeilten Taktung laufen, sodas, gesetzt den Fall, die Benches sind realistisch, noch eine weitere Leistungssteigerung zu erwarten ist?

Ausserdem frag ich mich, ob zukünftig die XP-Treiber so gepflegt werden, wie die Vista-Treiber?

The_Invisible
2007-01-03, 12:56:57
Du übersehst da etwas ganz wichtiges (mit deine funboybrille)

Es sins 18% über Nvidia G80 nicht über Ati r580.
Es war nicht zu erwarten. Man hat im besten fall mit nem gleich ziehen gerechnet.
Bis jetzt war der G80 das absolute Obermonster was die Leistung angeht und jetzt kommt R600 und Deklasiert das Ding, und alles was du sagst ist:"das war zu erwarten".
Es ist schon lustig zu beobachten wie du dich drehst und wendest und die alles zu recht lügst.


mfg

natürlich war das zu erwarten wenn das ding monate nach g80 kommt, alles andere wäre auch ne schöne blamage für ati.

je näher der release kommt desto mehr leute drehen jetzt im forum durch, ist echt nicht mehr schön was da oft für ein gebashe kommt

mfg

Gast
2007-01-03, 13:01:04
Bis jetzt war der G80 das absolute Obermonster was die Leistung angeht und jetzt kommt R600 und Deklasiert das DingR600 deklassiert den G80? Wo hast du das denn her? Und jetzt komm mir bloß nicht mit diesen lächerlichen Level505-"Tests".

Gast
2007-01-03, 13:01:18
Kann mall bitte einer die Benchmark Bilder hochladen?Die Seite ist wieder down...

w0mbat
2007-01-03, 13:13:37
Nein, sie funzt wunderbar.

seahawk
2007-01-03, 13:16:58
Ob beide IHVs ab H2 2007 alle Projektionen fuer 65nm/high end einhalten werden koennen steht noch in den Sternen.

Die offene Frage ist nur ob NV mit High-End noch den 80nm Zwischenschritt macht oder nicht. Meine Info sagt ja.

Blutmaul
2007-01-03, 13:31:17
Geht einwandfrei:
http://www.level505.com/

edit: Mhmh, geht - geht nicht - erinnert mich an irgendwas...

Gast
2007-01-03, 13:34:41
bei mir geht nur diese

http://level505.com/

danko
2007-01-03, 13:39:53
Also ich glaube schon das die Geheimhaltung bei beiden Firmen gut genug war/ist das bis wenige Wochen vor dem Launch der Karten nichts wesentliches durchsickern kann/konnte. Mann kan also auch annehmen das sowohl ATI als auch Nvidia die Rohpower ihrer neuen Produkte ausschließlich auf Basis der Vorgängermodelle projektieren und nicht wild spekulieren was der Konkurrent denn so vorzeigen könnte. Bei beiden Firmen scheint sich abzuzeichnen das man in etwa auf die doppelte Leistung des Vorgängerhighendmodells +10-15% bei gleichzeitiger Verbesserung der Grafikqualität projektiert hat. In anbetracht der Leistungsgewinns finde ich auch die aktuelle Stromaufnahme eigentlich ganz OK. Nur im 2D-Betrieb (welcher dank Vistas neuer Oberfläche praktisch nicht mehr existiert) sollte noch deutlich am Stromverbrauch gearbeitet werden. Da müssen bei Firmen auf jeden Fall Know How aus dem Mobile Bereich einfließen lassen. Das der R600 nun leistungsmäßig etwas über dem G80 liegen könnte ist mit Sicherheit einer Anpassung der Taktraten und nichts anderem zu verdanken. 3 Monate sind einfach zu kurz um noch chipdesigntechnisch Einfluss zu nehmen. Die Verbesserungen auf Treiberebene werden sicherlich in den kommenden 6 Monaten bei beiden Firmen noch Leistungssprünge im Bereich bis 10% mit sich bringen. Man kann also durchaus noch ein Kopf an Kopf Rennen erwarten. Vor allem die wirkliche D3D10-Performance steht noch völlig in den Sternen.

CU danko

StefanV
2007-01-03, 13:59:25
Sicher sein?

Du glaubst doch nicht ersthaft, dass NV jetzt kurz nach dem R600 Launch mit einem 512Bit SI und 1GB Vram ankommt oder?
Und natürlich, NV bunkert tausende von Chips. Die Nachfrage ist auch soo klein. :crazy:

Also manche drehen langsam durch. ;D
Die guten Chips sicherlich nicht, die nicht so guten aber unter Umständen ;) ;)

Henroldus
2007-01-03, 14:00:53
In anbetracht der Leistungsgewinns finde ich auch die aktuelle Stromaufnahme eigentlich ganz OK. Nur im 2D-Betrieb (welcher dank Vistas neuer Oberfläche praktisch nicht mehr existiert) sollte noch deutlich am Stromverbrauch gearbeitet werden. Da müssen bei Firmen auf jeden Fall Know How aus dem Mobile Bereich einfließen lassen.
wie bitte?
ich hab hier irgendwo was von 230W für den R600 gelesen, das ist jenseits von Gut und Böse!!!
soviel verbraucht ein komplettes halbwegs aktuelles system unter Last!
wieviel PCIe Stromanschlüsse hat die Karte dann, 4?

ich warte dann auf die 65nm revisionen zur jahresmitte(?)
alles über 150W ist krank trotz der gebotenen Leistung.

paul.muad.dib
2007-01-03, 14:03:03
Och wenn Du so naiv bist und nicht die Wichtigkeit der Breite einer jeden Einheit verstehen kannst, dann retten Dich jegliche harmlosen Angriffe unter dem Guertel auch nicht den Tag. Weniger clusters heisst weder weniger ALUs noch weniger arithmetische Leistung.

Schlechte Laune? Ich habe nur einen groben Vergleich der Einheitenzahl gezogen und gesagt wie sie in der Presse dargestellt wird. Habe ich das jetzt falsch interpretiert?

Nur sind es eben weder Vec4 ALUs noch "nur" 256 SPs. Bei 800MHz waere das Ganze zu wenig.

Warum? Schafft der G80 mehr Berechnungen pro Takt und ALU? Angeblich soll doch die MUL Einheit nicht funktionieren.

das ergibt bei 8 × 16 × 3 Flops × 1350 MHz eine theoretische Leistung von bis zu 518 Gigaflop/s

Ohne das zusätzliche Mul käme ich dann auf 345,6 Gflops

R600: 64 x 4 x 2 x 800 Mhz = 409,6 Gflops


Mit MADD+MUL hätte G80 mehr Rohleistung, ohne MUL weniger. Dann kommts halt auch darauf an, wie oft die genutzt werden kann.

Oder kann eine R600 ALU kein MADD :confused:

seahawk
2007-01-03, 14:31:57
Die Frage dürfte Dir momentan keinerr beantworten.

Hvoralek
2007-01-03, 14:56:29
http://www.theinquirer.net/default.aspx?article=36673Das würde gut zu "Deinen" vier Monaten Abstand zwischen G80 und R600 passen (Anfang Nov. 06 - Anfang März 07)

Waere es bekannt ueber was jede ALU faehig ist, waere jegliche Andeutung viel zu gefaehrlich momentan. Ein bisschen kreativer muss man schon denken koennen, man muss nur nachdenken wie Xenos und R5x0 ALUs genau aussehen.Und die R600- ALUs sind eine Art Mischung aus beidem? Dann mal noch ein Schuss ins Blaue: Pro ALU 1 MADD + 1 ADD über Vec4 + Scalar und das Ganze Xenos- mäßig in 16er- Blöcken. Mit vier davon bei 800 MHz käme man rechnerisch auf 4 x 16 x 5 x 3 x 0,8 = 768 GFLOPS. Nur wäre dabei nicht viel mit "kreativ rechnen".

danko
2007-01-03, 14:59:20
wie bitte?
ich hab hier irgendwo was von 230W für den R600 gelesen, das ist jenseits von Gut und Böse!!!
soviel verbraucht ein komplettes halbwegs aktuelles system unter Last!
wieviel PCIe Stromanschlüsse hat die Karte dann, 4?


Wenn die R600 Karten, und davon gehe ich mal aus, alle noch PEG1 kompatibel sind, dann ist mit maximal 225W Spitzenleistungsaufnahme zu rechen.
(75W über PEG + 75W PEG-Strom1 + 75W PEG-Strom2)

Bei 80nm, etwas mehr Transistoren als der G80 und Taktraten um die 600MHz würde ich eher mit 160-180W rechen, was deutlich unter 2x X1950XT im CF liegen würde.

Die R600- und auch die G80-Karten sind absolutes High End!
Da ist in erster Linie Grafikpower wichtig und die Leistungsaufnahme steht allenfalls an zweiter Stelle.

Das es für die in dieser Beziehung viel sensibleren Mainstreamkunden auch anders geht, sieht man ja an den aktuellen Midprice Modellen.

CU danko

LovesuckZ
2007-01-03, 15:00:59
Immer angenommen, der Test ist kein fake.

Ist er aber...
Warum werden Menschen beim Anblick von ein paar farbigen Balken so aufgeregt? :)

Ailuros
2007-01-03, 15:11:03
Und die R600- ALUs sind eine Art Mischung aus beidem?

Die Meinungen sind sich leider nicht einig momentan. Falls sie wirklich scalar sind, dann gibt es keine einzige Sorge was die Effizienz betrifft. Falls nicht, muessen sich ATI's DevRel aber ganz gewaltig in der absehbaren Zukunft bemuehen. Ich tendiere aber eher persoenlich auf die scalare These.

Dann mal noch ein Schuss ins Blaue: Pro ALU 1 MADD + 1 ADD über Vec4 + Scalar und das Ganze Xenos- mäßig in 16er- Blöcken. Mit vier davon bei 800 MHz käme man rechnerisch auf 4 x 16 x 5 x 3 x 0,8 = 768 GFLOPS. Nur wäre dabei nicht viel mit "kreativ rechnen".

Bis zur Haelfte, Daumen hoch. Die Formel schiesst aber leider zu hoch und daher voll daneben ;)

Gast
2007-01-03, 15:11:22
Wenn die R600 Karten, und davon gehe ich mal aus, alle noch PEG1 kompatibel sind, dann ist mit maximal 225W Spitzenleistungsaufnahme zu rechen.
(75W über PEG + 75W PEG-Strom1 + 75W PEG-Strom2)

Bei 80nm, etwas mehr Transistoren als der G80 und Taktraten um die 600MHz würde ich eher mit 160-180W rechen, was deutlich unter 2x X1950XT im CF liegen würde.

CU danko
Aber kein Hersteller würde die 75 W auch wirklich voll ausnutzen. Die bleiben aus Stabilitätsgründen drunter. Maximal würde ich vermuten 70 W pro Strang, wenn überhaupt.

Ailuros
2007-01-03, 15:27:29
Warum? Schafft der G80 mehr Berechnungen pro Takt und ALU? Angeblich soll doch die MUL Einheit nicht funktionieren.

Eigentlich anders rum; deshalb kompensiert auch teilweise das 1.35GHz SP clock domain.

Oder kann eine R600 ALU kein MADD :confused:

Mehr. Das dumme ist dass sich beide IHVs komischerweise nicht einig werden koennen welcher Befehl wichtiger sein soll. Jede Seite behauptet dass sie zich tausende von shaders analysiert haben und dass A oder B wichtiger sein soll.

Mich wuerde es kein bisschen wundern wenn der normale Entwickler dann dieses ganzes Schlammasel in die Abfalltonne wirft und sich kein bisschen darueber schert ob X oder Y da oder woanders Vorteile hat.

Die Tabelle hier von aths zeigt genau die Unterschiede zwischen G80 und Vorgaengern:

http://www.3dcenter.de/artikel/2006/12-28_a.php

Effizienz der jeweiligen Architekturen mal total zur Seite, die ADD Rate ist auf G80 nur minimal gestiegen (G71 PS+VS), waehrend die MUL Rate sich zwar auf Papier verdoppelt hat (bis wir irgendwann in der Zukunft weiser werden zu was dual issue MUL genau dient); ich werde aber trotz allem fuer beide IHVs das Gefuehl nicht los dass die zweiten sub-ALUs in ihrer Mehrzahl nur zu marketingtechnischen Mist am Ende dienen.

Zurueck zum Thema: einen gigantischen Unterschied was sterile GFlop-Raten betrifft wird es zwischen R580 (stets PS+VS) und R600 nicht geben. Einen sehenswerten Unterschied was die insgesamte Effizienz der Architektur betrifft aber dann schon. R600 koennte danach tatsaechlich als "Xenos done right" angesehen werden.

Gast
2007-01-03, 15:31:28
Mehr.



Also das verwirrt mich jetzt...

Kann er mehr weniger oder viel mehr^^

Wieviel Flops wird der R600 denn etwa haben?
Und wie gut kann er mit seinen Einheiten umgehen?

Nach Ansicht einiger wird er nicht viel Rohleistung haben, aber dafür diese Leistung effizient umsetzen...

robbitop
2007-01-03, 15:34:54
Das wäre ggü R300 keine enorme Neuerung. Auch hier war immerhin ein vollständiger Vec3 + 1 Skalar möglich. Vermutlich ist es in Xenos bereits Vec4+1.
Beim Xenos haben sie anscheinend die MiniALU für das ADD3+1 weggenommen, die nun wieder da sein könnte. (aber auch nicht immer ein ADD beisteuern kann...das vergessen viele! die ist oftgenug mit anderem Kram beschäftigt)

seahawk
2007-01-03, 15:36:08
G80 kann MADD + MUL
R600 kann MADD + ...

robbitop
2007-01-03, 15:41:07
G80 kann MADD + MUL
R600 kann MADD + ...
...ADD ;)
So ist das seit R300 schon. Allerdings wie erwähnt nur als MiniALU also nicht immer nutzbar.
Wie das beim G80 ist, muss man noch sehen. Ich vermute, wie auch AiL, allerdings Ähnliches.

Ailuros
2007-01-03, 15:51:48
Das wäre ggü R300 keine enorme Neuerung. Auch hier war immerhin ein vollständiger Vec3 + 1 Skalar möglich. Vermutlich ist es in Xenos bereits Vec4+1.
Beim Xenos haben sie anscheinend die MiniALU für das ADD3+1 weggenommen, die nun wieder da sein könnte. (aber auch nicht immer ein ADD beisteuern kann...das vergessen viele! die ist oftgenug mit anderem Kram beschäftigt)

Each one of the 48 ALU's can co-issue a vector (Vec4) and a scalar instruction simultaneously, essentially allowing a "5D" operation per cycle. Each one of the ALU's is a complete instruction duplicate of the others and are all single precision IEEE floating point 32-bit compliant. The ALU's will process everything in FP32 internal precision and there are no internal partial precision requirements for FP16. Additional to the 48 ALU's is specific logic that performs all the pixel shader interpolation calculations which ATI suggests equates to about an extra 33% of pixels shader computational capability.

Nicht vermutlich; Xenos ALUs sind 5D.

http://www.beyond3d.com/articles/xenos/index.php?p=07

Hvoralek
2007-01-03, 15:52:45
Zurueck zum Thema: einen gigantischen Unterschied was sterile GFlop-Raten betrifft wird es zwischen R580 (stets PS+VS) und R600 nicht geben. Einen sehenswerten Unterschied was die insgesamte Effizienz der Architektur betrifft aber dann schon. R600 koennte danach tatsaechlich als "Xenos done right" angesehen werden.
Eine X1900XT kommt rechnerisch auf 426 GLOPS, bei R600 könnten es demnach um die 500 sein.


Ich bin gerade noch einmal hierauf gestoßen:
256 was genau? 1D ALUs? Schau her was rein theoretische Mathe hier anrichten kann:

256 * 1 * 0.8GHz = 205 GFLOPs/s

So viel schafft ein R600 nur mit einer "Instruktions-Familie" pffff

[...]

Wooops Sch****e ....tatsaechlich LOL. Na was soll's liesst man genau zwischen den Linien hat mein voriger Fehler wieder zu viel angedeutet ;DWenn man jetzt richtig quer denkt, könnte man auf die Idee kommen, dass die ALUs des R600 nach "Instruktions- Familien" sortiert wären. Könnte es z.B. einzelne Blöcke mit 1D- MUL- ALUs geben andere mit ADD- ALUs? Und wenn: Wie groß müssten die sein? Wenn ich von 800 MHz und 500 GLOPs ausgehe, müssten pro Takt etwa 625 Operationen ausgeführt werden.

Oder unterstellen wir einmal 256 skalare MUL- und 512 ADD- Einheiten: [(256 + 512) * 1] * 0,8 = 614 GLOPs. Mit 700 MHz käme man auf kaum mehr als 500 GLOPs.

Man könnte mit "kreativem Rechnen" auf sehr viele Einheiten kommen und effizient genug dürfte so etwas auch sein.

Undertaker
2007-01-03, 16:10:32
Ist er aber...


wobei die werte an sich durchaus realistisch erscheinen, etwas über der 8800gtx ist eigentlich das womit jeder gerechnet hat

LovesuckZ
2007-01-03, 16:19:25
wobei die werte an sich durchaus realistisch erscheinen, etwas über der 8800gtx ist eigentlich das womit jeder gerechnet hat

Alle Werte außer denen des r600 sind "durchaus realistisch". Sie stammen nämlich von Computerbase.de.

Black-Scorpion
2007-01-03, 16:26:57
Und woher willst du wissen das die R600 Werte nicht stimmen?
Den kleinen Hinweis auf der Seite hast du z.B. gelesen?

Update - Authenticity Of This Article

This article is authentic. Our R600 sample is an RTM sample used in the MS CERT process for driver validation (especially for Vista). We are not publishing pictures of the card itself right now, as the card contains major ID tags that we can not remove yet for source protection. We will add pictures of the card itself once we can remove these tags.Quelle: http://www.level505.com

LovesuckZ
2007-01-03, 16:29:13
Und woher willst du wissen das die R600 Werte nicht stimmen?

Soll ich dir auch ein paar Werte sagen? :rolleyes:


Den kleinen Hinweis auf der Seite hast du z.B. gelesen?
Quelle: http://www.level505.com

Solange wie sie keine Bilder von der Karte liefern, haben sie keine.
Und mir kann niemand sagen, dass das Ausschwärzen von "Tags" nicht möglich wäre.

Undertaker
2007-01-03, 16:31:42
Alle Werte außer denen des r600 sind "durchaus realistisch". Sie stammen nämlich von Computerbase.de.

das wurde hier schon ein paar mal erwähnt, aber die werte unterscheiden sich doch teils erheblich?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/14/#abschnitt_doom_3
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

LovesuckZ
2007-01-03, 16:37:16
das wurde hier schon ein paar mal erwähnt, aber die werte unterscheiden sich doch teils erheblich?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/14/#abschnitt_doom_3
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Du musst diesen (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/) Test als Vergleich heranziehen.
Im Beyond3d.com /Forum (http://www.beyond3d.com/forum/showpost.php?p=900331&postcount=2101#) hat sich jemand die Mühe gemacht, die "Benchmarks" zu vergleichen. Unterschiede sind kaum vorhanden.
Und die r600 Werte können stimmen. Vielleicht hat er sie gesagt bekommen oder ihm ist eine Präsentation in die Hände gefallen. Aber selbst hat er sie nicht ermittelt.

Undertaker
2007-01-03, 16:41:22
Du musst diesen (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/) Test als Vergleich heranziehen.
Im Beyond3d.com /Forum (http://www.beyond3d.com/forum/showpost.php?p=900331&postcount=2101#) hat sich jemand die Mühe gemacht, die "Benchmarks" zu vergleichen. Unterschiede sind kaum vorhanden.
Und die r600 Werte können stimmen. Vielleicht hat er sie gesagt bekommen oder ihm ist eine Präsentation in die Hände gefallen. Aber selbst hat er sie nicht ermittelt.

das sich die zahlen bei gleicher grafikhardware und gpu-limitierten settings ähneln ist doch jetzt nicht so überraschend, oder?

LovesuckZ
2007-01-03, 16:44:44
das sich die zahlen bei gleicher grafikhardware und gpu-limitierten settings ähneln ist doch jetzt nicht so überraschend, oder?

Dafür musst du die gleichen Timedemos verwenden oder bei Fraps-Durchläufe die gleiche Stelle erwischt haben.
Wie hoch wird wohl die Möglichkeit sein, dass dies zum Beispiel in Oblivion gelungen ist?
Warum unterscheiden sich die 3DMark 2006 Ergebnisse nicht? Immerhin verwendet Level 505 eine Quad-Core CPU. Das Ergebnis müsste höher sein, es ist jedoch sogar geringer.

Ronny145
2007-01-03, 16:46:58
Außerdem hat CB mit TSAA/AAA getestet, Level 505 erwähnt das nur bei Oblivion. Die Werte wären demnacht zu niedrig, obwohl auch mit einer schnelleren CPU getestet wurde. Daran kann es also nicht liegen.

MiamiNice
2007-01-03, 17:41:18
Find das ganz witzig wie sich hier gezofft wird um Specs :)

Ich halte die Level505 fürn FAKE. Wie schon erwähnt wurde: kein Pic --> keine Karte. Oder ist hier jemand ernsthaft der Meinung das man irgendwelche "Tags" nicht mit Photoshop wegbekommt?
Level505 will nur Stimmung machen, alleine den Artiel auf der Seite kann doch niemand zuende lesen bei dem ganzen Pro-Ati/AMD und Conta NV Geblubber.

MfG

paul.muad.dib
2007-01-03, 17:50:44
For everyone to understand why we cannot just “black out” the ID Tags: The major tag is a fine punched hologram foil wrap which cannot be taken off because it is glued onto the front metal around the DVI ports. Taking off the fan is impossible without removing it. We will definitely keep you updated, and appreciate all comments we have received so far.

Mmh, ein schwarzer Balken im Bild würde es doch auch tun :D .

up¦²
2007-01-03, 18:48:26
Also hier wurden die Info übernommen, so daneben kann es also garnicht sein :wink:
http://incrysis.com/forums/viewtopic.php?id=727

Coda
2007-01-03, 18:57:19
Was ist denn das für ne Logik? Was für eine "Kompetenz" hat dieses Forum über dem von 3DCenter oder Beyond3D? Mach dich nicht lächerlich.

Der fremde Gast
2007-01-03, 19:11:44
was issen nun schon wieder los mit level dingsdabums

dargo
2007-01-03, 22:37:56
NVIDIA muss garnicht tausende Chips horten, ein paar hundert reichen schon, ähnlich wie bei der Gf 7800 GTX/512!
Übrigens war letztere auch nur wegen ihres höheren Taktes schneller, die 512 MB zusätzlich waren quasi nutzlos.
Nenne mir einen Grund warum NVIDIA nicht kurz nach dem R600 Launch (warum schreibst du eigentlich jetzt? Launch ist erst Februar oder März :rolleyes: ) mit einer exklusiven G80 Ultra-GTX kommen sollte?

Weil für 1GB Vram ein 384Bit SI kaum geeignet ist. Sicherlich ist eine G8800GTX Ultra möglich. Dann wird diese aber höchstwahrscheinlich nur höhere Takte haben, zb. 650/1000Mhz (630/1000Mhz sind jetzt schon erhältlich --> klick (http://geizhals.at/deutschland/a232026.html)). Oder auch 650/1100-1200Mhz (keine Ahnung ob das PCB des G80 mit GDDR4 kompatibel ist).

Ich glaube kaum, dass NV ein 512Bit SI noch vor dem Refresh des G80 bringt. Das wäre dann doch etwas zu kostspielig und wenig sinnvoll.

Die guten Chips sicherlich nicht, die nicht so guten aber unter Umständen ;) ;)
Hmm, möglich schon. Dann aber wohl eher die die nicht mehr als G8800GTS zu verkaufen sind.

Gast
2007-01-03, 22:54:55
GTX SLI brauch Boards mit 32 Lanes..such mir mal eins raus......

dargo
2007-01-03, 23:03:55
GTX SLI brauch Boards mit 32 Lanes..such mir mal eins raus......
1. Falscher Thread.
2. http://geizhals.at/deutschland/?cat=mbp4_775_ddr2&sort=artikel&bpmax=&asuch=680i&asd=on&filter=+Angebote+anzeigen+

Ailuros
2007-01-03, 23:38:25
http://www.beyond3d.com/forum/showpost.php?p=901938&postcount=86

AnarchX
2007-01-04, 07:49:56
Level505: The Full ATI R600 Test - Part 2
Important Notice
We had some unsual development of heat on our Intel QX6700 (180 °F) which obviously caused the CPU to throttle down. We are investigating this issue right now and if we find this had no impact on the GPU test earlier, we publish the full scores. We are holding them back until we are sure the performance was not biased by this. It’s not gonna take long.
http://level505.com/2007/01/03/the-full-ati-r600-test-part-2/

Darum war er wohl auch so langsam im 3DM06 im Part1...;) wers glaubt

Gast
2007-01-04, 10:07:25
Da der Release wieder verschoben wurde .... März / Cebit muss der r600 wohl gegen den G81 antreten ^^

Blutmaul
2007-01-04, 10:12:30
AMD sollte noch Matrox kaufen, dann sind sie komplett und die Firma heist Amdatirox.
Dann klappt das auch mit den Publicity...

HOT
2007-01-04, 10:16:26
Da der Release wieder verschoben wurde .... März / Cebit muss der r600 wohl gegen den G81 antreten ^^

Vielleicht will AMD den R600 mit dem neuen QuadFather bringen, die Rev.H FXen sollen ja auch um den dreh vorgestellt werden ;).

Gast
2007-01-04, 10:18:48
und warum soll der ausgerechnet trotteln, ist das so schwer den zu kühlen ;-)

Ailuros
2007-01-04, 10:22:15
und warum soll der ausgerechnet trotteln, ist das so schwer den zu kühlen ;-)

Man kann sich ja ausrechnen wieviel Grad Celcius 180 Fahrenheit genau sind.

Winter[Raven]
2007-01-04, 10:24:31
Da der Release wieder verschoben wurde .... März / Cebit muss der r600 wohl gegen den G81 antreten ^^

Wenn das zutreffen sein sollte, heißt es dann 512 Bit SI vs. 512 Bit ....:biggrin:

Blutmaul
2007-01-04, 10:27:23
Man kann sich ja ausrechnen wieviel Grad Celcius 180 Fahrenheit genau sind.

Kenn die genauen Werte nicht - schätzungsweise > 80° Celsius?


Langsam werden die Ostfriesenwitze wieder aktuell:
Manni, ich hab die neue R600, geh doch mal über den Deich und hol 1 Kilo Watt ;)

Winter[Raven]
2007-01-04, 10:29:36
Kenn die genauen Werte nicht - schätzungsweise > 80° Celsius?

Um genau zu sagen ...

82.22222 C°

Ailuros
2007-01-04, 10:29:54
Kenn die genauen Werte nicht - schätzungsweise > 80° Celsius?

Ja irgendwo in der Region; was mir komisch vorkommt ist wieso eine heutige CPU bei solchen Temperaturen jetzt "trotteln" soll....:rolleyes:

Gast
2007-01-04, 10:34:59
ich glaub mal mehr das da ein Noob am Werke ist

Ailuros
2007-01-04, 10:40:03
ich glaub mal mehr das da ein Noob am Werke ist

Das waere dann aber ziemlich harmlos (und ich druecke dann auch gerne ein Auge zu fuer's "known for knowledge" LOL); ich befuerchte schlimmeres....

Gast
2007-01-04, 10:48:56
der übertktet das Ding auf 3,2ghz und achtet nicht auf die Kühlung
so blöd muss man erst mal sein

Gast
2007-01-04, 10:51:16
Naja es gibt Menschen die Blöd sind...

AnarchX hat das schon schön gesagt^^

dargo
2007-01-04, 11:18:01
Ja irgendwo in der Region; was mir komisch vorkommt ist wieso eine heutige CPU bei solchen Temperaturen jetzt "trotteln" soll....:rolleyes:
Ein C2D throttelt schon ab ca. 77°C. Beim Kentsfield wird es nicht viel anders sein.

BlackBirdSR
2007-01-04, 11:23:37
Ein C2D throttelt schon ab ca. 77°C. Beim Kentsfield wird es nicht viel anders sein.

Ist ja auch nur logisch, eine CPU mit 4 Kernen innerhalb der Spezifikationen halten zu wollen. Und das dürfte bei solchen Temperaturen und Taktraten schon nicht leicht sein. 77°C sind sowieso sehr hoch, wenn man die Sache im Gegensatz zu weniger komplexen Prozessoren sieht.

dargo
2007-01-04, 11:26:50
77°C sind sowieso sehr hoch, wenn man die Sache im Gegensatz zu weniger komplexen Prozessoren sieht.
Ja, das sind sie. Vorallem, wenn man bedenkt, dass Intel dem C2D max. 85°C "zutraut".

The_Invisible
2007-01-04, 11:42:56
Da der Release wieder verschoben wurde .... März / Cebit muss der r600 wohl gegen den G81 antreten ^^

also hat ati nix zum vista launch und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

das wär aber keine gute taktik...

mfg

Undertaker
2007-01-04, 11:46:45
Hmm, möglich schon. Dann aber wohl eher die die nicht mehr als G8800GTS zu verkaufen sind.

ich glaube nicht, dass es da bzgl taktbarkeit sehr viele gibt - zumindest lässt der fakt, dass bisher eigentlich jede 8800gts 600mhz oder mehr mitmacht, nicht auf eine diesbzgl sehr schlechte ausbeute schließen

Ailuros
2007-01-04, 11:47:10
also hat ati nix zum vista launch und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

das wär aber keine gute taktik...

mfg

Dass die G8x mainstream GPUs heutige =/<$300 R580 GPUs schlagen werden klingt mir ein bisschen zu optimistisch. Quasi 2*G73 waere eigentlich weisser...

dargo
2007-01-04, 11:52:39
also hat ati nix zum vista launch ...

Seit wann ist eine D3D10 Grafikkarte Pflicht für Vista?


und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

Verrate uns bitte mehr. :rolleyes:

ich glaube nicht, dass es da bzgl taktbarkeit sehr viele gibt - zumindest lässt der fakt, dass bisher eigentlich jede 8800gts 600mhz oder mehr mitmacht, nicht auf eine diesbzgl sehr schlechte ausbeute schließen
Ich denke da nicht unbedingt an eine schlecht zu taktende GPU. Ich dachte eher in Richtung einer noch weiter beschnittenen GTS (einer GS?).

w0mbat
2007-01-04, 13:22:52
Weiß hier jemand was über X2300 bzw. X2100? Sind Mobilechips und klingen nach DX10.

MartinRiggs
2007-01-04, 13:30:18
also hat ati nix zum vista launch und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

das wär aber keine gute taktik...

mfg

kannst du das irgendwie belegen oder schreibst du(wie eigentlich immer) nur NV Fanboy-gülle???
Zumal man ja für Vista unbedingt ne DX10-Karte braucht, für die zahlreichen verfügbaren Direct3D10-Spiele:rolleyes:

Edit: Die 8800GTS kann sich ja nichtmal immer vor der X1950xtx behaupten, wie sollen das dann noch weiter abgespeckte modelle schaffen????

Gast
2007-01-04, 13:40:44
also hat ati nix zum vista launch und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

das wär aber keine gute taktik...

mfg
Microsoft hat doch irgend wann mall gesagt das sie für Vista die Ati Karten favorisieren..

Gast
2007-01-04, 13:49:40
Microsoft hat doch irgend wann mall gesagt das sie für Vista die Ati Karten favorisieren..Wo und vor allem in welchem Zusammenhang haben sie das gesagt?

Gast
2007-01-04, 14:04:38
Spekulation meinerseitz:

Es wird immer gesagt das der R600 Vec4-ALUs hat, die aber mangels Flexibilität nicht 256 Skalareneinheiten entspricht.
Könnte man nicht einfach eine Vec2-ALU mit 2 Minialus kombinieren um die Flexibilität zu unterstützen?

Black-Scorpion
2007-01-04, 14:25:08
also hat ati nix zum vista launch und die g80 mainstream modelle kommen vor dem r600 und schlagen auch noch die vorigen highendmodelle von ati.

das wär aber keine gute taktik...

mfg
Die Taktik Karten auf den Markt zu bringen die den Specs nicht entsprechen ist natürlich viel cleverer. ;)

Gast
2007-01-04, 14:39:05
Die Taktik Karten auf den Markt zu bringen die den Specs nicht entsprechen ist natürlich viel cleverer. ;)

Genau das wars glaub ich warum ms mit Ati bei Vista besser kann.....

robbitop
2007-01-04, 15:00:11
Ein G83 wird schon etwa auf R580 Level liegen. Ich erwarte eine halbe G80 mit etwas mehr Takt. Aber "schlagen" können wird er R580 nicht. R580 hat bisher sehr sehr reife Treiber und G80 noch sehr unreife Launchtreiber.

edit: glaubt ihr dem Level505 Fake etwa immernoch? :|

AnarchX
2007-01-04, 16:32:25
es gibt schon Treibereinträge für DX10 GPUs aka X2100.

Da wäre ich mir aber nicht so sicher, dass dies eine R600-Abwandlung ist.
X1150/X1100 haben ja auch nichts mit RV5xx zu tun(ausser der hier verwirrenden Bezeichnung), sondern sind noch SM2.0-GPUs.

btw.
Wo bleiben den die Ergebnisse von Level505? ;) Haben wohl noch kein vernünftiges R600-Sample im PS hinbekommen...

DrumDub
2007-01-04, 17:53:57
Die Themenfremde Diskussion über 8800gts vs. X1950XTX ist zu unterlassen. Alles zu dem Thema wurde rausgesplittet und ist jetzt hier zu finden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=341887

Ailuros
2007-01-04, 18:05:58
Ein G83 wird schon etwa auf R580 Level liegen. Ich erwarte eine halbe G80 mit etwas mehr Takt. Aber "schlagen" können wird er R580 nicht. R580 hat bisher sehr sehr reife Treiber und G80 noch sehr unreife Launchtreiber.

Ich wurde gestern versichert dass man die MUL Einheit auch fuer generelles shading benutzen kann und obwohl ich etwas gegen merkwuerdige Konspirations-thesen habe werde ich den Verdacht nicht los dass man das Ding mit Absicht verschachtelt hat.

Nichtdestominder bin ich trotz allem vorsichtiger mit G8x-mainstream Einschaetzungen, deshalb bleib ich vorruebergehend auf 2*G73 bis mehr im Laufe der Zeit darueber rausfliesst. Wuerde jemand G9x-mainstream sagen was nicht soooo lange vom G8x mainstream entfernt ist, dann wuerde ich sofort sagen dass sich davor eine R580 verstecken muss.

edit: glaubt ihr dem Level505 Fake etwa immernoch? :|

Das Zeug hat mehr Rampenlichter bekommen als es ueberhaupt verdient. Fuer jemand der selber behauptet dass er zwei Mitarbeiter hat die bei AMD arbeiten, wuerde ich zumindest eine korrekte Specliste erwarten.

Polymorph
2007-01-04, 18:22:14
Wo bleiben den die Ergebnisse von Level505? ;) Haben wohl noch kein vernünftiges R600-Sample im PS hinbekommen...

Die "limitierten" Impressionen der R600 kommen auch erst am 5./6. Jänner. Das Jahr haben sie allerdings vergessen anzugeben. ;D

deekey777
2007-01-04, 19:27:09
edit: glaubt ihr dem Level505 Fake etwa immernoch? :|
Wie Demirug schon geschrieben hat: Die Leute sind ausgehungert. Und ich wette, die meisten wissen, dass an diesem "Review" irgendwas stinkt. Trotzdem hofften viele insgeheim, dass dieser Quatsch echt ist.
Mich persönlich interessiert, ob der R600 so neu sein wird wie der G80.