PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 8


Seiten : 1 2 [3] 4

Moralelastix
2007-04-24, 18:25:21
Gibs schon erste Tests zum Stromverbrauch?

Godmode
2007-04-24, 18:27:34
Gibs schon erste Tests zum Stromverbrauch?

Nein, nur die alten ziemlich bösen TDP Werte.

deekey777
2007-04-24, 18:29:03
An den ungebetenen Gast: Man sieht erst was, wenn man eingeloggt ist.

Gast
2007-04-24, 18:36:51
Nein, nur die alten ziemlich bösen TDP Werte.
Ja, gibts. Aber die helfen auch nicht viel weiter, als die alten TDP-Werte, weil sie sich alle auf unterschiedliche Lastsituationen beziehen und somit ist "von-bis" alles dabei.

3d
2007-04-24, 18:38:36
ich dachte der sollte heute der öffentlichkeit vorgestellt werden.
wenigstens die daten und benchmarks.

müssen wir noch bis mai warten?
kann doch nicht sein, daß der heute der presse vorgeführt wird, und wir müssen noch fast ein monat warten. :mad:

deekey777
2007-04-24, 18:40:56
ich dachte der sollte heute der öffentlichkeit vorgestellt werden.
wenigstens die daten und benchmarks.

müssen wir noch bis mai warten?
kann doch nicht sein, daß der heute der presse vorgeführt wird, und wir müssen noch fast ein monat warten. :mad:
Erstes Posting:

-----------------------------------
Teil sieben. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5417620#post5417620)
Der Tech-Day soll nächste Woche stattfinden, der Launch dann irgendwann im Mai (3-4 Wochen nach dem Tech-Day sind nichts ungewöhnliches, siehe G80).

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5432039#post5432039
Vorstellung der neuen Produkte in der zweiten Hälfte des Monats Mai. :)
Jetzt regst du dich bestimmt über sich selbst auf?

Backet
2007-04-24, 18:49:58
Bin ich froh, das ich kein Fanboy bin, und nach langer zeit wieder ne Nvidia gekauft habe. Obwohl ich schon am zittern war. Wenn ATi einen richtigen Brummer rausgebracht hätte, dann müsste ich mir schon wieder ne neue Karte zulegen. So komme ich ganz gut davon ab!


Es ist ganz gut, das Nvidia wieder aufgeschlossen hat. Konkurenz belebt das Geschäft. Und wenn ATi vielleicht mit der nächsten Generation(hoffentlich stromsparender) wieder vorne liegt, gibt es wieder ne ATI.


Aber wie kommt es das wenn ATI schon im 65nm Prozess baut, die Karten soviel Strom fressen?! Wurde bestimmt schon 47mal hier besprichen, aber glaubt ihr wirklich, das ich mir jetzt 3521 Seiten durchlese!? MUHAHAHAHAHAHAHAHA. Das glaubt ihr wirklich?! Jetzt echt? Quatsch, oder?! Ach, ihr verarscht mich doch!

Gast
2007-04-24, 18:52:57
Aber wie kommt es das wenn ATI schon im 65nm Prozess baut, die Karten soviel Strom fressen?!R600 kommt in 80 nm, nur die Mainstream-Parts kommen in 65 nm.

Gouvernator
2007-04-24, 18:53:13
Wäre möglich. Allerdings zählt ATi beim AA ja auch die SSAA-Samples mit, wodurch man damit schon bei 28xAA wäre. Vielleicht ein Pendant zu CSAA? Also 8xMSAA plus je zwei "CFAA"-Samples?



Dann hast du recht.



Ohne AA/AF und in der Auflösung kann das alles oder nichts bedeuten. Vermutlich würde da selbst ein R580 problemlos mithalten können. Die HD2900XT ist jedenfalls in jedem Bench schneller als die GTS, wobei beide tw. fast exakt gleichauf liegen, was deutlich auf ein CPU-Limit hindeutet.

So wirds sein... :frown: Es ist ja schon jetzt knapp mit "nur" 512mb und dazu gleich 24xMSAA und 2560x1600 :wink:

Gast
2007-04-24, 18:56:53
Hohe Taktrate und mehr Transistoren, auserdem kommen die Highend Modelle in 80mn...

Zum AA, 24"bit" AA kann ja alles heißen. Die nächste DX Spec will ja auch variable AA Modi einführen kann man davon vieleicht was ableiten ob ATI da schon vorgebaut hat? Auf jedenfall halte ich 6xAA+2xSSAA für unrealistisch da auf einem G80 der 16xS Modus (4xMSAA+2xSSAA) schon gut Performance kostet und 8xMSAA+2xSSAA aka 32xS übelst die Performance runterzieht.
4xMSAA gibts auf dem G80 für 15% Leistung gegenüber 1xMSAA, ob ATI die ROPs so weit aufgebohrt hat das bei 6xMSAA auch nur 15% Leistung abfallen?
Bei einer schlankeren Architektur (im Vergleich zum G80 soll der R600 ja nicht so "breit" sein")...

Fetza
2007-04-24, 18:56:53
So wirds sein... :frown: Es ist ja schon jetzt knapp mit "nur" 512mb und dazu gleich 24xMSAA und 2560x1600 :wink:


Naja, wer solche auflösung mit aa fahren will brauch ganz klar eine karte mit 1gb ram, ati spricht jetzt von "best value high-end" irgendwas.... also sind leute die solche auflösung bevorzugen nunmal besser mit 2xgtx bedient.

greetz

Gast
2007-04-24, 18:59:17
Best Value Highend ist nur ein neuer Marketing Name für die Nummer 2 GPU in der Hierarchi. Das war immer so das die abgespeckten Highends das bessere P/L hatten, siehe XL/XT Varianten gegenüber den XTX oder die GT/GTS versus die GTX/Ultras.

Fetza
2007-04-24, 20:08:01
Best Value Highend ist nur ein neuer Marketing Name für die Nummer 2 GPU in der Hierarchi. Das war immer so das die abgespeckten Highends das bessere P/L hatten, siehe XL/XT Varianten gegenüber den XTX oder die GT/GTS versus die GTX/Ultras.

jup, ich find das teil an sich auch recht entäuschend muss ich sagen. D.h. hoffe ich auf einen guten preis, ansonsten gibts wohl doch die gtx. Schon schwach irgendwie nach all der zeit. Aber vielleicht sind die treiber wirklich noch nicht so der hit und da ist noch ordentlich potential.

edit: was mich auch interessieren würde ist, ob die oblivion benchmarks mit oder ohne af/aa gemacht wurden.

qu3x^ @ Gast
2007-04-24, 20:55:55
Sorry das ich hier so planlos reinplatze aber ist nicht noch ein höherwertiges Model dieser Karte geplant. Schön und gut das es nun die ersten Benchies einer HD 2900 XT gibt; aber...

sollte da nicht noch ein Enthusiastenmodel kommen namens HD 2900 XTX mit 1024 MB oder irre ich in diesem Punkt? Interessant wäre es rein nur wegen meiner Kaufabsicht.

Schließlich möchte ich ja nicht nochmal eine "X1800" kaufen und in einem Monat auf "X1900" umsteigen müßen wenn ihr versteht was ich meine. Der Performance unterschied Leistung/Teuro war ja doch sehr immens.
Danke im vorraus.

laser114
2007-04-24, 21:06:20
Sorry das ich hier so planlos reinplatze aber ist nicht noch ein höherwertiges Model dieser Karte geplant. Schön und gut das es nun die ersten Benchies einer HD 2900 XT gibt; aber...

sollte da nicht noch ein Enthusiastenmodel kommen namens HD 2900 XTX mit 1024 MB oder irre ich in diesem Punkt? Interessant wäre es rein nur wegen meiner Kaufabsicht.

Ja, aber nicht im Mai sondern erst im Juni oder Juli, vermutlich als Antwort auf die 8800 Ultra. Ich vermute mal, über die finalen Taktraten ist sich AMD noch nicht ganz sicher und will die Leistung der 8800 Ultra nicht wissen. ;)


Btw.: Bei diesem Screenshot einer Präsentation hat PCGHW noch rote Balken über Namen und Erscheinungsdatum einer GPU-Familie gepackt:
http://www.pcgameshardware.de/?menu=browser&article_id=600170&entity_id=-1&image_id=650500&mode=article&overview=yes

Hier (http://www.pcgameshardware.de/?menu=browser&article_id=600170&entity_id=-1&image_id=650504&mode=article&overview=yes) hingegen steht offen was von ATI HD 2000 Series - zwar nichts wirklich neues, aber eine weitere Bestätigung des Namens.

Spasstiger
2007-04-24, 21:43:31
Ich glaube ja, dass die 8800 GTS 640 MB in den nächsten paar Wochen die 300€ unterschreitet, weil die schnellere X2900 XT vermutlich für 350€ über die Ladentheke gehen wird. Die 8800 GTX wird aber wohl nicht unter 400€ fallen, solange ATI nix schnelleres liefert.

Gast
2007-04-24, 22:03:27
Ich glaube ja, dass die 8800 GTS 640 MB in den nächsten paar Wochen die 300€ unterschreitet, weil die schnellere X2900 XT vermutlich für 350€ über die Ladentheke gehen wird. Die 8800 GTX wird aber wohl nicht unter 400€ fallen, solange ATI nix schnelleres liefert.

Erstmal muss die Karte rausgebracht werden. Interessant wird es sein, ob die Menge hoch sein und wie der Markt die Karte aufnehmen wird. Ich tippe auf einen Preis von 400-450€ in den ersten vier Wochen. Und danach kommt es erst zur Stabilisierung bei 350-400€.
Auch müssen wir uns überraschen lassen, ob es nicht eine weitere 8800 Karte geben wird, welche über 7 Cluster verfügt.

horn 12
2007-04-24, 22:14:32
Sicherlich keine 400 Euro und mehr gleich nach dem Launch.
Die Preise werden sehr sehr rasch die 370-380 Euro erreichen.
ATI setzt mit allen Mitteln zum Kampf an, und lassen wir uns mal von "Echten" Benchmarks überflügeln. Hoffe die kommen bald.
Denn diese heute durchgesickerten Bm´s,.... ich weiss nicht so Recht. Kam mir selbst etwas zu überraschend,- und dann noch von Daily

Gast
2007-04-24, 22:16:14
Ich glaube ja, dass die 8800 GTS 640 MB in den nächsten paar Wochen die 300€ unterschreitet, weil die schnellere X2900 XT vermutlich für 350€ über die Ladentheke gehen wird. Die 8800 GTX wird aber wohl nicht unter 400€ fallen, solange ATI nix schnelleres liefert.

immer das gleiche,man redet nur von Benchmarkbalkenlängen. Schon gewußt das ATI Qualitäten hat die NV nicht bieten kann :O
Referenz in Bildquali
Referenz in Treiber

:O

Spasstiger
2007-04-24, 22:21:48
immer das gleiche,man redet nur von Benchmarkbalkenlängen. Schon gewußt das ATI Qualitäten hat die NV nicht bieten kann :O
Referenz in Bildquali
Referenz in Treiber

:O
Selbst wenn es so wäre: NVidia wird das sicher nicht so sehen. Warum sollte NVidia die Preise senken oder neue Modelle rausbringen, wenn sie noch die Performancekrone haben?

w0mbat
2007-04-24, 22:21:58
Die Fußnoten bei Dailytech sind immer sehr interessant:


The system I'm using is an Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E with 2x2GB DDR2-800. My tests this morning used the Catalyst 8.361 RC4 driver.

Core Clock Memory Clock 3DMark 2006

745 MHz 800 MHz 13547
800 MHz 900 MHz 13855
845 MHz 950 MHz 13908
845 MHz 995 MHz 14005

Like Anh, I was able to get pretty close to a 2.0GHz memory clock while still keeping the system stable. For reference, my GeForce 8800 GTX (core clock at 650 MHz, memory at 2.0 GHz) scores 14128 on the same system with ForceWare 158.19.

I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.

Superheld
2007-04-24, 22:25:06
Link ?

Gast
2007-04-24, 22:26:08
immer das gleiche,man redet nur von Benchmarkbalkenlängen. Schon gewußt das ATI Qualitäten hat die NV nicht bieten kann :O
Referenz in Bildquali
Referenz in Treiber

:O
Bei der Treibersache könnte AMD besser dastehen als nV, das ist nicht allzu schwer, muss sich allerding erst noch beweisen.
Referenz in BQ, wo? Da müssten sie erstmal gegenüber dem R580 nachgebessert haben, bis jetzt jedenfalls ist das keine Referenz.

deekey777
2007-04-24, 22:29:30
immer das gleiche,man redet nur von Benchmarkbalkenlängen. Schon gewußt das ATI Qualitäten hat die NV nicht bieten kann :O
Referenz in Bildquali
Referenz in Treiber

:O
Solche inhaltlosen Beiträge lassen wir mal für die Zukunft.

Link ?
Steht doch in seinem Posting: Dailytech.
http://www.dailytech.com/article.aspx?newsid=7043
Da ist ja noch einer:
http://www.dailytech.com/Overclocking+the+R600/article7044.htm :)

laser114
2007-04-24, 22:31:53
Das heißt die XT leistet soviel wie eine GTX. AMD braucht also eine XTX, um erstmal den längeren Balken, wie es hier einer so schön schrieb, zu erhalten...

Super Grobi
2007-04-24, 22:35:26
Warten wir mal gescheite Game-Benchmarks ab. Von 3dM und Co. halte ich nicht mehr viel. Ich würde die Karte gerne mal in aktion mit STALKER sehen.

SG

p.s.
was aber nicht bedeutet, das ich die Leistung dieser Karte bezweifel!

Wisser
2007-04-24, 22:35:32
Nein selbst die XTX hat mit der GTX hart zu kämpfen. Mager was Ati da anbietet.

san.salvador
2007-04-24, 22:38:07
All die Benchmarks sind völlig wertlos, solange man nichts genaueres über die Bildqualität weiß.
AA? AF? CSAA? Bi, Bri oder Tri? Welche "Optimierungen"?

Solange darüber nichts bekannt ist, sind das ja nur bunte Balken mit beliebigen Zahlen.

deekey777
2007-04-24, 22:40:04
Nein selbst die XTX hat mit der GTX hart zu kämpfen. Mager was Ati da anbietet.
Seltsam ist, dass die HD 2900XTX den gleichen Takt wie die XT zu haben scheint.

up¦²
2007-04-24, 22:41:20
BTW...
GPU DIP sinnvoll?
http://rapidshare.com/files/26304213/gpu_dip.rar.html
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
NEW! R600XT bench request
By w0mbat on 4/24/07, Rating: 2
By w0mbat on 4/24/2007 4:30:33 PM , Rating: 2

Could you do a bench with GPU DIP? This would be very nice :-)

You can download it here: http://rapidshare.com/files/26304213/gpu_dip.rar.h...

Big thx!

w0mbat
2007-04-24, 22:48:51
GPU DIP ist wohl eher nV lastig, aber ein guter Anfang - finde ich.

deekey777
2007-04-24, 22:51:14
GPU DIP ist wohl eher nV lastig, aber ein guter Anfang - finde ich.
Es muss nicht unbedingt NV-lastig sein, vielleicht setzt das Programm auf viele Vec2-Instruktionen, bei denen die roten ALUs zur Hälfte nichts zu tun haben.

Gast
2007-04-24, 22:52:00
Dailytech corrected an error with Half Life 2: Episode 1 scored 57.4 FPS on 8800GTS compared to 112.0 FPS on 2900 XT, Dailytech reran the benchmark on 1280x1024 resolution, the correct score for 8800GTS is 119.2FPS.

Super Grobi
2007-04-24, 22:53:57
Dailytech corrected an error with Half Life 2: Episode 1 scored 57.4 FPS on 8800GTS compared to 112.0 FPS on 2900 XT, Dailytech reran the benchmark on 1280x1024 resolution, the correct score for 8800GTS is 119.2FPS.

War aber doch klar. Soche FPS hab ich noch nie mit meiner Karte in dem Spiel gesehen.

SG

deekey777
2007-04-24, 22:57:26
Dailytech corrected an error with Half Life 2: Episode 1 scored 57.4 FPS on 8800GTS compared to 112.0 FPS on 2900 XT, Dailytech reran the benchmark on 1280x1024 resolution, the correct score for 8800GTS is 119.2FPS.
Darauf wurde schon aufmerksam gemacht. Aber warum der Wert nicht in die Tabelle aufgenommen wurde, ist mir nicht ganz klar. Egal.

Kann es sein, dass da jemand uns verarscht?
http://www.dailytech.com/Overclocking+the+R600/article7044.htm
Core Clock Memory Clock 3DMark06

745 MHz 800 MHz 13547 10978
800 MHz 900 MHz 13855 11164
845 MHz 950 MHz 13908 11219
845 MHz 995 MHz 14005 11266
Und jetzt zurück zum Artikel:
AMD equips the ATI Radeon HD 2900 XT with 320 stream processors to take on NVIDIA’s GeForce 8800 GTS, which features 96 stream processors. However, AMD and NVIDIA have taken different approaches towards their unified shader designs. AMD pairs the R600 GPU with 512MB of GDDR3 memory clocked at 1.65 GHz across an eight-channel, 512-bit memory interface. In comparison, the NVIDIA GeForce 8800 GTS features 640MB of 1.6 GHz GDDR3 memory on a 320-bit memory interface...
Hö? Die XT hat einen Speichertakt von 825 MHz und die XTX von "nur" 800 MHz?

w0mbat
2007-04-24, 22:59:36
Nein, beide Test sind auf eine HD2900 XT gemacht worden. Er schreibt nur das er jetzt eine XTX benched - die Ergebnisse sind aber noch nicht da.

Godmode
2007-04-24, 23:04:30
http://www.dailytech.com/Overclocking+the+R600/article7044.htm

Schaut euch mal den 3DM06 Score in 16*12 an und vergleicht min. Takt mit max. Takt! Limitiert hier etwas, oder skaliert der R600 mit höherem Takt nicht gut, sind immerhin 100 MHz mehr Core Takt und fast 200 MHz mehr Memory Takt? Gerade mal 280 Punkte mehr scheint mir hier zu wenig, was sagt ihr dazu?

dargo
2007-04-24, 23:05:32
Hö? Die XT hat einen Speichertakt von 825 MHz und die XTX von "nur" 800 MHz?
Ich denke mal, da wollte nur jemand die Skalierbarkeit im 3DMark06 der XTX zeigen und der standard Takt beim Speicher entweder 900 oder 950Mhz beträgt.

[url]
Schaut euch mal den 3DM06 Score in 16*12 an und vergleicht min. Takt mit max. Takt! Limitiert hier etwas, oder skaliert der R600 mit höherem Takt nicht gut, sind immerhin 100 MHz mehr Core Takt und fast 200 MHz mehr Memory Takt? Gerade mal 280 Punkte mehr scheint mir hier zu wenig, was sagt ihr dazu?
CPU-Limit, würde ich sagen.

Ailuros
2007-04-24, 23:06:15
Die Fußnoten bei Dailytech sind immer sehr interessant:


Die neuen 16*12 Resultate sind interessanter.

deekey777
2007-04-24, 23:07:16
Nein, beide Test sind auf eine HD2900 XT gemacht worden. Er schreibt nur das er jetzt eine XTX benched - die Ergebnisse sind aber noch nicht da.
Stimmt, er drückt sich irgendwie doof aus.
I'm currently benchmarking the Radeon HD 2900 XTX, though I'll revist the XT if anyone has any particular requests.

dargo: Wo ist der Test mit dem Standardtakt von 825 MHz? Das ist die Frage. :)

dargo
2007-04-24, 23:10:15
dargo: Wo ist der Test mit dem Standardtakt von 825 MHz? Das ist die Frage. :)
Hat er jetzt eine XTX oder XT gebencht (bezogen auf die Skalierbarkeit)? Ich blicke hier nicht mehr durch. :|

Godmode
2007-04-24, 23:10:44
Ich denke mal, da wollte nur jemand die Skalierbarkeit im 3DMark06 der XTX zeigen und der standard Takt beim Speicher entweder 900 oder 950Mhz beträgt.


CPU-Limit, würde ich sagen.

Lol, und in 12*10 gibts skaliert das Teil besser(+500 Punkte durch OC), also irgendwas stimmt da eindeutig nicht!

Ailuros
2007-04-24, 23:11:46
Ich denke mal, da wollte nur jemand die Skalierbarkeit im 3DMark06 der XTX zeigen und der standard Takt beim Speicher entweder 900 oder 950Mhz beträgt.


CPU-Limit, würde ich sagen.

Etwas ueber 100GB Bandbreite reichen einer XT vollkommen aus, wenn sie nicht sogar etwas momentan ueberfluessig ist.

Das sogenannte 24x CFAA war eine Integrierung der letzten Minute - denn man hatte ja Zeit dafuer - und auf das spielte auch mein Freund Kombatant an. Zwar interessant aber wirklich nichts besonderes; es bleibt dabei dass R600 nicht mehr als 8x MSAA unterstuetzt (ebenso wie G80) und dabei sind eben die ROPs (ob durch Bugs oder Absicht keine Ahnung) etwas begrenzt ausgefallen. Ein dritter loop waere verheerend.

mapel110
2007-04-24, 23:11:47
Irgendwie ist der Einbruch von 1280er zu 1600er viel zu groß. Da stimmt doch was nicht.

LovesuckZ
2007-04-24, 23:15:01
Zwar interessant aber wirklich nichts besonderes;


Ist der Nutzen höher als beim CSAA?

dargo
2007-04-24, 23:15:11
Lol, und in 12*10 gibts skaliert das Teil besser(+500 Punkte durch OC), also irgendwas stimmt da eindeutig nicht!
Ist ja ein Wahnsinnsunterschied - 3,3% zu 2,6%. :cool:

Lawmachine79
2007-04-24, 23:16:10
Etwas ueber 100GB Bandbreite reichen einer XT vollkommen aus, wenn sie nicht sogar etwas momentan ueberfluessig ist.

Das sogenannte 24x CFAA war eine Integrierung der letzten Minute - denn man hatte ja Zeit dafuer - und auf das spielte auch mein Freund Kombatant an. Zwar interessant aber wirklich nichts besonderes; es bleibt dabei dass R600 nicht mehr als 8x MSAA unterstuetzt (ebenso wie G80) und dabei sind eben die ROPs (ob durch Bugs oder Absicht keine Ahnung) etwas begrenzt ausgefallen. Ein dritter loop waere verheerend.
Wenn es nur 8xMSAA ist - wo kommen dann die 24 her? Ist das SSAA oder vgl mit NVs CSAA?

Godmode
2007-04-24, 23:21:44
Ist ja ein Wahnsinnsunterschied - 3,3% zu 2,6%. :cool:

Ok in Prozent ausgedrückt ist es wirklich nicht viel.

Eigentlich sollte es doch genau umgekehrt sein, da in der höheren Auflösung die CPU weniger limitieren sollte?:confused:

dargo
2007-04-24, 23:23:21
Eigentlich sollte es doch genau umgekehrt sein, da in der höheren Auflösung die CPU weniger limitieren sollte?:confused:
Ich finde den 3DMark06 Wert eh für den Popo. Viel besser würde ich es finden wenn er dazu noch die SM2.0 und SM3.0 Scores angibt.

deekey777
2007-04-24, 23:23:33
Wenn es nur 8xMSAA ist - wo kommen dann die 24 her? Ist das SSAA oder vgl mit NVs CSAA?
Wie kommt man beim G80 auf 16xAA, obwohl es nur 4xMSAA und 16 Coverage Samples sind? PR.
Lesestoff: Foxconn GeForce 8800GTX 768MB PCI-E And the Analysis of Coverage Sampling Antialiasing in Games (http://www.digit-life.com/articles2/video/g80-3.html)

up¦²
2007-04-24, 23:27:13
BTW...
Ist irgendein (sinnvoller) DX10/D3D10 Test überhaupt bekannt?

Warum nicht Supreme Commander Benchmark nutzen, das erste DX10-Game überhaupt? Irrtum, sorry...
http://www.extremetech.com/article2/0,1697,2107337,00.asp

Ailuros
2007-04-24, 23:27:49
Stimmt, er drückt sich irgendwie doof aus.


dargo: Wo ist der Test mit dem Standardtakt von 825 MHz? Das ist die Frage. :)

Entschuldige aber ich sehe auch keinen besonderen Grund warum es wichtig sein sollte.

Uebrigens da sich leider noch keiner darueber gescheert hat, leisten die XT einen ziemlich fetten Batzn in SpecViewperf; soll ich jetzt nochmal an meinen Lorbeeren zetteln als ich professionelle Applikationen mal in der Vergangenheit erwaehnt hatte? :P

Spass beiseite ueber welche angebliche Tesselations-Einheit in Xenos blubbern denn momentan einige?

http://www.beyond3d.com/content/articles/4/10

MEMEXPORT ist keine Tesselations-Einheit.

LovesuckZ
2007-04-24, 23:30:28
Wie kommt man beim G80 auf 16xAA, obwohl es nur 4xMSAA und 16 Coverage Samples sind?

Wenn schon, dann richtig:
Es sind maximal 8 Color/Z - Samples und nochmal zusätzliche 8 Coverage-Samples.

deekey777
2007-04-24, 23:31:19
Ich suche eher nach den Fehlern, um die Aussagekraft des Testers zu untergraben. :devil:

Für mich würden die Ergebnisse mit dem FAH-GPU-Client ausreichen.
Wenn schon, dann richtig:
Es sind maximal 8 Color/Z - Samples und nochmal zusätzliche 8 Coverage-Samples.
Es sind vier.
8x = 4xcolor, 8xcs
8xQ = 8xcolor, 8xcs
16x = 4xcolor, 16xcs
16xQ = 8xcolor, 16xcs.

Ailuros
2007-04-24, 23:32:14
Wenn es nur 8xMSAA ist - wo kommen dann die 24 her? Ist das SSAA oder vgl mit NVs CSAA?

Bis zu 8x sparse MSAA oder bis zu 24xCFAA= custom filter antialiasing.

ATI hat nie viel mit Supersampling herumgespielt, ergo was kann es wohl noch sein (alleine die Namesgebung koennte einiges verraten)? Auf jeden Fall eine G80 ist wie bekannt auf bis zu 16xCSAA oder 32xS faehig.

Sk_Antilles
2007-04-25, 00:00:12
13% bzw. 12% Mehr Core- und Speichertakt und es kommt dann am Ende 2,6-3,38% mehr Leistung raus. Ist das jetzt gut oder schlecht? :redface:

Ailuros
2007-04-25, 00:07:09
13% bzw. 12% Mehr Core- und Speichertakt und es kommt dann am Ende 2,6-3,38% mehr Leistung raus. Ist das jetzt gut oder schlecht? :redface:

Die Benchmarks sind etwas vorzeitig; ich will mal vermuten dass die Uebertaktung in 1600 nicht mehr so viel bringt weil dann mehr Last auf die GPU faellt. Koennte durchaus sein dass die Dinger dann doch den zusaetzlichen Stecker brauchen.

Das Ganze ist aber sowieso sinnlos. Echte Spiele mit 4xAA/16xAF in zumindest 1600*1200 sind dann um einiges aussagekraeftiger. Auf jeden Fall ueberzeugten mich die bisher geleakten Resultate und die von Dailytech nicht besonders. Zusaetzlich beschreiben Infos von noch nicht veroeffentlichten Spielen etwa einen aehnlichen Trend. Bleibt abzuwarten was genau die D3D10 paths dann ausrichten werden.

Gast
2007-04-25, 00:08:28
Entschuldige aber ich sehe auch keinen besonderen Grund warum es wichtig sein sollte.

Uebrigens da sich leider noch keiner darueber gescheert hat, leisten die XT einen ziemlich fetten Batzn in SpecViewperf; soll ich jetzt nochmal an meinen Lorbeeren zetteln als ich professionelle Applikationen mal in der Vergangenheit erwaehnt hatte? :P

Spass beiseite ueber welche angebliche Tesselations-Einheit in Xenos blubbern denn momentan einige?

http://www.beyond3d.com/content/articles/4/10

MEMEXPORT ist keine Tesselations-Einheit.

Basiert die Quadro FX 5500 eigentlich auf der 7 oder ist das die 8000?

dargo
2007-04-25, 00:09:15
13% bzw. 12% Mehr Core- und Speichertakt und es kommt dann am Ende 2,6-3,38% mehr Leistung raus. Ist das jetzt gut oder schlecht? :redface:
Eigendlich deutet das auf ein CPU-Limit hin. Bei 16x12 kann ich das mir aber nicht wirklich vorstellen. Ich würde die 3DMark06 Werte erstmal nicht beachten. Das Problem ist, dass die Graka übertaktet wurde. Die CPU prozentual aber nicht. Und da der CPU Score in den 3DMark06 Wert einfließt verfälscht das irgendwie das ganze Ergebnis. Deswegen finde ich es seltsam, dass keine SM2.0 und SM3.0 Werte gepostet wurden.

Die Benchmarks sind etwas vorzeitig; ich will mal vermuten dass die Uebertaktung in 1600 nicht mehr so viel bringt weil dann mehr Last auf die GPU faellt. Koennte durchaus sein dass die Dinger dann doch den zusaetzlichen Stecker brauchen.

Du meinst also, mit der Übertaktung würde die Karte die 225W real überschreiten? X-D
Aua!

Gmax
2007-04-25, 00:11:45
Basiert die Quadro FX 5500 eigentlich auf der 7 oder ist das die 8000?

Der Gast war ich. In eienem anderen Forum meinte ein User, daß ein Vergleich mit der FX5500 unfair sei, da das die alte Generation ist....

Ailuros
2007-04-25, 00:12:48
Basiert die Quadro FX 5500 eigentlich auf der 7 oder ist das die 8000?

G7x. Wieso?

Super Grobi
2007-04-25, 00:13:23
Der Gast war ich. In eienem anderen Forum meinte ein User, daß ein Vergleich mit der FX5500 unfair sei, da das die alte Generation ist....


Nutzfahrzeuge und Sportwagen sollte man nicht vergleichen.

SG

LovesuckZ
2007-04-25, 00:13:29
Der Gast war ich. In eienem anderen Forum meinte ein User, daß ein Vergleich mit der FX5500 unfair sei, da das die alte Generation ist....

Ja, ist noch die 7er Serie -> http://geizhals.at/deutschland/a210203.html

dargo
2007-04-25, 00:15:03
G7x. Wieso?
Es geht wohl um diesen "unfairen" Vergleich:
http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm

Ailuros
2007-04-25, 00:16:31
Du meinst also, mit der Übertaktung würde die Karte die 225W real überschreiten? X-D
Aua!

Keine Ahnung. Es koennte auch sein dass die Dinger einfach zu heiss werden oder weiss der Geier was. Ohne Spiel-Resultate mit default vs. oc'ed kann man mit dem Zeug sowieso nicht viel anfangen.

Gmax
2007-04-25, 00:17:15
Ja, ist noch die 7er Serie -> http://geizhals.at/deutschland/a210203.html

Danke. Na dann dürfte der Vergleich in der Tat unfair sein.
Interessant wäre der Bench gegen eine FX56oo.


2496,03€ kostet die??!! Aber hossa!

Ailuros
2007-04-25, 00:18:24
Es geht wohl um diesen "unfairen" Vergleich:
http://www.dailytech.com/ATI+Radeon+HD+2900+XT+Performance+Benchmarks/article7043.htm


Selbstverstaendlich ist er unfair da es sich um eine G7x Quadro handelt. Das aendert aber nichts daran dass die 2900XT SpecViewperf Resultate ziemlich beindruckend sind.

Gmax
2007-04-25, 00:20:02
Selbstverstaendlich ist er unfair da es sich um eine G7x Quadro handelt. Das aendert aber nichts daran dass die 2900XT SpecViewperf Resultate ziemlich beindruckend sind.

Kennst du einen SpecViewperf Test der aktuellen Generation? Ist da die XT immer noch schneller?

Ailuros
2007-04-25, 00:34:34
Kennst du einen SpecViewperf Test der aktuellen Generation? Ist da die XT immer noch schneller?

Keine Ahnung wie es mit den neuen Treibern aussieht. Die G80 hatte aber bei ihrem Launch relativ miserable Leistung im Vergleich zu GPUs der vorigen Generation. Nur um etwas schneller.

http://www.ferra.ru/online/video/26691/page-3/
http://www.benchmark.co.yu/modules.php?name=BenchmarkNews&file=article&sid=11934&oliver=3944

Gmax
2007-04-25, 01:21:28
Keine Ahnung wie es mit den neuen Treibern aussieht. Die G80 hatte aber bei ihrem Launch relativ miserable Leistung im Vergleich zu GPUs der vorigen Generation. Nur um etwas schneller.

http://www.ferra.ru/online/video/26691/page-3/
http://www.benchmark.co.yu/modules.php?name=BenchmarkNews&file=article&sid=11934&oliver=3944

Danke, werde das mal weiterleiten:smile:
Vielleicht verbessert sich die XT sogar noch um ein paar weitere Prozente mit neueren Treibern.

Ailuros
2007-04-25, 01:23:25
Danke, werde das mal weiterleiten:smile:
Vielleicht verbessert sich die XT sogar noch um ein paar weitere Prozente mit neueren Treibern.

6 Monate ist ziemlich viel Zeit um Treiber auszureifen.

Gast
2007-04-25, 02:32:34
6 Monate ist ziemlich viel Zeit um Treiber auszureifen.

und wieso sind die G80 Treiber immernoch schlecht ?

san.salvador
2007-04-25, 02:39:59
Sind sie nicht. :D

Fetza
2007-04-25, 02:40:03
und wieso sind die G80 Treiber immernoch schlecht ?

die sind doch nur unter vista schlecht soweit ich weiss?! Unter winxp performen die doch derbe gut!

Ailuros
2007-04-25, 05:47:01
und wieso sind die G80 Treiber immernoch schlecht ?

Welche Probleme hast Du denn auf einer G80 die Du auf einer R600 nicht hast? :biggrin:

Superheld
2007-04-25, 08:02:31
haben die doch schon mit 4aa getestet:|
http://www.dailytech.com/Article.aspx?newsid=7044&commentid=131802#comments

no_surrender
2007-04-25, 08:05:03
Sind sie nicht. :D

is klar:|

AnarchX
2007-04-25, 08:59:36
haben die doch schon mit 4aa getestet:|
http://www.dailytech.com/Article.aspx?newsid=7044&commentid=131802#comments

Nunja, sie sprachen bei den Benches von "Maximum Quality", was dies durchaus einschliessen kann. Auch Leo tippt in der heutigen News darauf, da die Werte doch sehr danach aussehen.

MadManniMan
2007-04-25, 08:59:50
Schön und gut, daß es nach einem Preis aussieht, der gut in die aktuelle Marktlage paßt - aber eigentlich ist AMD/ATi damit an der Reihe, nach einem halben Jahr mal wieder an der Performanceschraube zu drehen.

Sehr, sehr schade.

Coda
2007-04-25, 09:16:38
is klar:|
Sind sie auch nicht... Da hab ich mit G7x schon viel schlimmeres erlebt zeitweise.

san.salvador
2007-04-25, 09:18:30
is klar:|
Ich hab meine G80 noch nicht lange und hatte davor sehr lange nur Ati.
Und jetz sag doch mal schnell was an den Treibern für Vista schlecht sein soll.

Gast
2007-04-25, 10:14:46
Radeon 2900XTX HD arriving Anandtech for testing
http://r800.blogspot.com/2007/04/radeon-2900xtx-hd-arriving-anandtech.html

Hört sich spannend an :D

Gmax
2007-04-25, 10:15:20
G80 Ultra beats R600XTX in 3Dmark 06 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=678&Itemid=1) blahblah von Fuzi :biggrin:

deekey777
2007-04-25, 10:22:12
...

Spass beiseite ueber welche angebliche Tesselations-Einheit in Xenos blubbern denn momentan einige?

http://www.beyond3d.com/content/articles/4/10

MEMEXPORT ist keine Tesselations-Einheit.
http://it-review.net/index.php?option=com_content&task=view&id=1289&Itemid=1
First news - R600 has Programmable Tesselation Unit, featured in the XBOX chip, as well. This is a neat feature for the game developpers that was pretty much "in the air" in the DX9 generation (Truform support) and now it's back and running.
:weg:
Auf so etwas muss man schon kommen.

horn 12
2007-04-25, 10:23:12
Der Test der XTX Karte sollte bald da sein.
Frühen Nachmittag rechne ich!
Dann wird man sehen, welche Benchmarks richtig sind, da man die XT einfacher rechnen kann.

boxleitnerb
2007-04-25, 10:29:03
Post 582, hatten wir schon. Langsam glaube ich, dass hier niemand den Thread liest und einfach nur "seine" News postet.

Gast
2007-04-25, 10:31:28
Overclocking the "R600"
http://www.dailytech.com/Overclocking+the+R600/article7044.htm

Hört sich auch spannend an :D

deekey777
2007-04-25, 10:31:56
Post 582, hatten wir schon. Langsam glaube ich, dass hier niemand den Thread liest und einfach nur "seine" News postet.
Wie man sieht, liegen zwischen den Postings um die zehn Minuten, es wäre also denkbar, dass es bloß ein Überschneidung war: Als man mit dem Verfassen des Postings begann, war das Gast-Posting noch nicht da. Immer locker bleiben.
Overclocking the "R600"
http://www.dailytech.com/Overclocking+the+R600/article7044.htm

Hört sich auch spannend an :D
Was hört sich denn genau spannend an?

dargo
2007-04-25, 10:32:56
Overclocking the "R600"
http://www.dailytech.com/Overclocking+the+R600/article7044.htm

Hört sich auch spannend an :D
Aaaaalt!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5436660&postcount=535

horn 12
2007-04-25, 10:33:07
War gerade am posten und habe es nicht gesehen dass ich schon 2-ter war. Entferne nun den obrigen Link (meinen)
Sorry!

deekey777
2007-04-25, 10:34:43
Oh man, ich falle gleich um. Blättere mal paar Seiten zurück. :cool:
Aaaaalt!

Wenn jetzt weitere solche Postings kommen, werden rote Karten verteilt.

Spasstiger
2007-04-25, 10:57:58
Radeon 2900XTX HD arriving Anandtech for testing
http://r800.blogspot.com/2007/04/radeon-2900xtx-hd-arriving-anandtech.html

Hört sich spannend an :D
Schade nur, dass die NDA noch bis zum 14.05. läuft.

Gast
2007-04-25, 11:20:47
@DK777
ich finde es spannend wenn eine r600 die unter nda steht übertaktet wird :D
komisch das ati den ram nicht gleich auf 900mhz laufen lässt, sollte doch kein problem sein. gehts hier vielleicht um den stromverbrauch? oder will man mehr abstand zur xtx haben? naja, alles in allem sehr spannend was amd/ati da macht.

ich hoffe das wirklich zuerst die xtx version auf den markt kommt, von mir aus kann es auch die version mit dem "kühler hinter der platine", also diese oem version sein. mich stört die länge der karte nicht, hauptsache schnell muss sie sein.

Anarchy-HWLUXX
2007-04-25, 11:38:01
komisch das ati den ram nicht gleich auf 900mhz laufen lässt, sollte doch kein problem sein.

Vielleicht weil se RAM einkaufen der auf 800MHz spezifiziert ist ?

K4mPFwUr$t
2007-04-25, 11:48:10
ich finde es spannend wenn eine r600 die unter nda steht übertaktet wird
komisch das ati den ram nicht gleich auf 900mhz laufen lässt, sollte doch kein problem sein. gehts hier vielleicht um den stromverbrauch? oder will man mehr abstand zur xtx haben? naja, alles in allem sehr spannend was amd/ati da macht.

vor einer weile kam mal ein inoffizeler comment von ati, wo angesprochen wurde das diesmal der abstand zur XTX größer sei als bei den alten serien.

@Anarchy-HOCP
das intressiert die dystributoren der grakas auch nicht wenn sie ein werks OC produkt anbieten.

Anarchy-HWLUXX
2007-04-25, 12:04:59
@Anarchy-HOCP
das intressiert die dystributoren der grakas auch nicht wenn sie ein werks OC produkt anbieten.

Ja, deswegen kosten die auch nicht mehr als welche ohne OC ... öm - falsch. Und es sind nicht Distributoren (Grosshändler) sondern Partner/Hersteller.

Wenn man den RAM OCed muss man das austesten was zeit und geld kostet - ausserdem wäre das effektiv verarsche am Kunden was hier vorgeschlagen wird.

Ist doch klar das RAM der schon fast ans Limit übertaktet wird nur noch minimalen mehrtakt bietet ... was für den Kunden effektiv 0 mehrwert bedeutet. Klar, für leute die keine ahnung von OC haben macht das sinn aber sonst ... wie würdest du es finden wenn se 700MHz RAM verbauen und ihn auf 800MHz Takten ?

James Ryan
2007-04-25, 12:07:46
vor einer weile kam mal ein inoffizeler comment von ati, wo angesprochen wurde das diesmal der abstand zur XTX größer sei als bei den alten serien.


Komisch, habe genau das Gegenteil gehört, XT und XTX nahezu gleich, nur hat die XTX halt mehr VRam.

MfG :cool:

Superheld
2007-04-25, 12:08:44
will auch mal...:D

ATI Radeon HD X2900 XTX final spec
http://www.fudzilla.com/index.php?option=com_content&task=view&id=688&Itemid=1

Gast
2007-04-25, 12:11:17
ATI Radeon HD X2900 XTX final spec
Final Spec, aber kein Wort über TMU- und ROP-Anzahl? Hmm, ob R600 mehr als 16 TMUs haben wird?

Andre´
2007-04-25, 12:19:12
Final Spec, aber kein Wort über TMU- und ROP-Anzahl? Hmm, ob R600 mehr als 16 TMUs haben wird?

Glaube ich ehrlich gesagt nicht.

horn 12
2007-04-25, 12:21:34
Samples der karten sind nun drausen,- und ich wage zu behaupten dass wir heute abend/ morgen weitere Benches der HD 2900 XT/ und gar der XTX zu sehen bekommen werden. Dann wird sich herausstellen was war und gefakt war. Die Final Relaease Treiber wird sich A/A aber bis zum Launch einbehalten und gut verschliessen:biggrin:, jedoch der 8.362 Treiber dürfte nun langsam in Umlauf kommen, auch bei div. Graka R600 Testzwecken.
Der Launchtreiber soll Version 8.501 haben.

Gast-Core
2007-04-25, 12:21:49
wer will eine XT für 380 preordern?

http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021

;)

Super Grobi
2007-04-25, 12:24:17
wer will eine XT für 380 preordern?

http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021

;)

Wenn es Alternate wäre, würde ich das machen. Aber ersten kenn ich den Shop nicht und zweites ist das ein Niederländer. Versand dauert bestimmt und was ist mit Garantie und Rechtssicherheit?

Nö, ich warte auf Alternate.

SG

Undertaker
2007-04-25, 12:28:39
inwiefern lohnt denn der umstieg von einer gts auf eine xt? nach den mir bekannten infos bisher eher nicht (klar, man muss noch die richtigen reviews abwarten)

Super Grobi
2007-04-25, 12:32:51
inwiefern lohnt denn der umstieg von einer gts auf eine xt? nach den mir bekannten infos bisher eher nicht (klar, man muss noch die richtigen reviews abwarten)

Ich erwarte einen 2D Stromsparmodus! Deshalb will ich wechseln. Bestellen kann man ja vorab. Wenn dann die Reviews zeigen, das es keinen gibt, wird storniert.

Das ist der einzige Grund, warum ich wechseln will. Meine Karte werde ich schon bei eBay für ein gescheiten Preis verkaufen könnne (nicht verbastet, geflasht und mit OVP und Rechnung).

Mein PC läuft jeden Tag min 10h und es stört mich ark, daß die Geforce saugt.

SG

Anarchy-HWLUXX
2007-04-25, 12:36:15
Ich erwarte einen 2D Stromsparmodus! Deshalb will ich wechseln. Bestellen kann man ja vorab. Wenn dann die Reviews zeigen, das es keinen gibt, wird storniert.

Das ist der einzige Grund, warum ich wechseln will. Meine Karte werde ich schon bei eBay für ein gescheiten Preis verkaufen könnne (nicht verbastet, geflasht und mit OVP und Rechnung).

Mein PC läuft jeden Tag min 10h und es stört mich ark, daß die Geforce saugt.

SG

Die mehrkosten für Strom sind sicherlich geringer als die Kosten für das wechseln auf ne XT - ein aufrüsten ist es ja laut den benches net wirklich. Im endeffekt hassu also nix gespart ...

Super Grobi
2007-04-25, 12:37:51
Die mehrkosten für Strom sind sicherlich geringer als die Kosten für das wechseln auf ne XT - ein aufrüsten ist es ja laut den benches net wirklich. Im endeffekt hassu also nix gespart ...

Da hast du natürlich völlig recht! Du vergisst aber noch einen Punkt: "Neues Spielzeug hab" ;)

SG

Gast
2007-04-25, 12:39:51
Ich erwarte einen 2D Stromsparmodus! Deshalb will ich wechseln. Bestellen kann man ja vorab. Wenn dann die Reviews zeigen, das es keinen gibt, wird storniert.

Und den Gewinn im 2D Modus verbrauchst du im 3D Modus. Sehrt kluge Wahl.
Außer du kaufst die Karte und spielst vielleicht eine Stunde in der Woche. Aber dann stellst sich natürlich die Frage, warum man sich dann nicht eine Konsole kaufen wollte...

Anarchy-HWLUXX
2007-04-25, 12:42:22
Da hast du natürlich völlig recht! Du vergisst aber noch einen Punkt: "Neues Spielzeug hab" ;)

SG
Spielzeug ist immer gut ;D

Undertaker
2007-04-25, 13:52:37
Ich erwarte einen 2D Stromsparmodus! Deshalb will ich wechseln. Bestellen kann man ja vorab. Wenn dann die Reviews zeigen, das es keinen gibt, wird storniert.

Das ist der einzige Grund, warum ich wechseln will. Meine Karte werde ich schon bei eBay für ein gescheiten Preis verkaufen könnne (nicht verbastet, geflasht und mit OVP und Rechnung).

Mein PC läuft jeden Tag min 10h und es stört mich ark, daß die Geforce saugt.

SG

das stimmt natürlich absolut... zwar kann ich mit gesenkten taktraten mit der gts idle schon leben, aber schön ists natürlich nicht (das stört mich auch extrem an meinem core 2 duo, warum kann ich die spannung nicht unter 1,163v im idle senken? mein winchester lief mit 0,9v...)

ich träume von einem pc mit zusätzlich onboard graka und xscale cpu, wo sich der ganze stromfressende mist erst unter last zuschaltet =)

(+44)
2007-04-25, 14:05:44
XScale ist ARM, nicht x86...

Gibts noch andere "verlässliche" Benches? Das Ding wurde ja der Presse vorgestellt - einige dürften das NDA doch gebrochen haben, oder?

up¦²
2007-04-25, 14:19:53
wer will eine XT für 380 preordern?

http://www.sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=34021

;)

ja - aber alles "unter Vorbehalt"! :wink:

Aber kann ja nicht mehr lange dauern...

Gast
2007-04-25, 14:20:35
Glaube ich ehrlich gesagt nicht.
Bei der Performance und 800 Mhz wohl auch sehr unwahrscheinlich.

Henroldus
2007-04-25, 14:26:21
will auch mal...:D

ATI Radeon HD X2900 XTX final spec
http://www.fudzilla.com/index.php?option=com_content&task=view&id=688&Itemid=1
"The R600 card has two DVI connectors .."
wo ist denn nun der HDMI Ausgang fürs audio???
sollte dem Namen ja gerecht werden, wenn schon HD, dann richtig

san.salvador
2007-04-25, 14:33:55
"The R600 card has two DVI connectors .."
wo ist denn nun der HDMI Ausgang fürs audio???
sollte dem Namen ja gerecht werden, wenn schon HD, dann richtig
Vielleicht über eine Slotblende.

AnarchX
2007-04-25, 14:35:13
Der Ton wird mit über DVI ausgegeben und dafür gibt es dann einen DVI-HDMI-Adapter.

Hier gibt es die Bilder dazu:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5412839&postcount=970

Gast
2007-04-25, 14:36:39
Fudo klingt irgendwie beleidigt, nachdem er nicht nach Tunis eingeladen war. Und jetzt vergnügt er sich mit seinem Phantom. Mal sehen, wie oft er in der nächsten Zeit noch "final" Specs der HD2900 XTX ausschlachten will. :)


Q

Henroldus
2007-04-25, 14:46:21
Der Ton wird mit über DVI ausgegeben und dafür gibt es dann einen DVI-HDMI-Adapter.

Hier gibt es die Bilder dazu:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5412839&postcount=970
das ist ein ganz normaler dvi(stecker) zu hdmi(buchse) adapter und den gibts bei ebay für 6.99eur vergoldet(hab ich gekauft um beamer anzuschliessen, daher weiß ichs).
DVI kann definitiv kein Ton ausgeben.
sinnvoll wäre ein DVI und ein HDMI Ausgang.

Undertaker
2007-04-25, 14:48:44
DVI kann definitiv kein Ton ausgeben.


das an der karte wird aber wohl kein normaler dvi-ausgang sein, da gibts wohl noch ein paar mehr kontakte

AnarchX
2007-04-25, 14:50:36
DVI kann definitiv kein Ton ausgeben.


Doch kann er bzw. muss er bei der HD2000-Series.

Lies einfach die Diskussion, die nach dem Bild Posting von mir kam:

It works because HDMI is backwards compatible to DVI, and the graphics card can query device capabillities. So the link will start in "DVI compatibility mode", and when a HDMI capable device is detected the graphics card will add audio output (which is interleaved in the digital stream, so no additional pins are required).

Using a DVI-I connector on the card is the best choice because it can drive DVI single and dual link, HDMI single and dual link, and analog VGA.

Henroldus
2007-04-25, 15:18:51
Doch kann er bzw. muss er bei der HD2000-Series.

Lies einfach die Diskussion, die nach dem Bild Posting von mir kam:
dann ist dieser DVIausgang aber nicht für normale TFT zu gebrauchen.
der offizielle DVI Standard(zu lesen unter http://www.ddwg.org/lib/dvi_10.pdf ) gibt das jedenfalls nicht her.
warum soll ATI einen selbstentwickelten DVI ausgang plus adapter verwenden, wenn HDMI es soviel einfacher machen würde.
Ich glaub es erst wenn ichs gesehen habe.

Ferengie
2007-04-25, 15:23:10
warum soll ATI einen selbstentwickelten DVI ausgang plus adapter verwenden, wenn HDMI es soviel einfacher machen würde
Weil so ein Dreck alles Lizenzgebühren kostet. (Ob die Kartenhersteller sowas anbieten, ist dann deren Prob.)
Auf irgendeinem Bild stand 5.1 HD Sound...also kein TrueHD mit Hdmi 1.3.

deekey777
2007-04-25, 15:32:58
Über HDMI 1.3 wird TrueHD - oder wie sie alle heißen - übertragen, das heißt aber nicht, dass es mit 1.2 nicht möglich ist: Der (Mehrkanal-)Ton kann unkomprimiert und schon (von der CPU) dekodiert an den Receiver weitergeleitet werden, das geht schon seit HDMI 1.0.
dann ist dieser DVIausgang aber nicht für normale TFT zu gebrauchen.
der offizielle DVI Standard(zu lesen unter http://www.ddwg.org/lib/dvi_10.pdf ) gibt das jedenfalls nicht her.
warum soll ATI einen selbstentwickelten DVI ausgang plus adapter verwenden, wenn HDMI es soviel einfacher machen würde.
Ich glaub es erst wenn ichs gesehen habe.
Mittels eines Adapters ist alles zugebrauchen.
Wie soll HDMI es einfacher machen, wenn es kein Dual-Link unterstützt (Type B spielt hier keine Rolle)?

Spasstiger
2007-04-25, 15:40:26
dann ist dieser DVIausgang aber nicht für normale TFT zu gebrauchen.
Klar ist der auch für normale TFTs zu gebrauchen. :rolleyes:
Und ich finde zwei DVI-Ausgänge + "DVI+Audio->HDMI"-Adapter sinnvoller als einen DVI und einen HDMI-Ausgang. Denn die Leute, die zwei Monitore anschließen, wollen schließlich nicht erst einen HDMI-nach-DVI an den zierlichen DVI-Anschluss dranhängen, wo sich der Stecker hin und wieder lösen wird.

crux2005
2007-04-25, 16:04:42
der Preis der X2900XT 512 ist ~ 430 USD für Händler ... (ohne MwSt.)

Henroldus
2007-04-25, 16:11:26
der Preis der X2900XT 512 ist ~ 430 USD für Händler ... (ohne MwSt.)
430$ / 1,36(Wechselkurs) *1,19(MWST) macht 376 EUR.
wäre akzeptabel aber kein Preisknaller.
349eur sähen schöner aus :biggrin:

seahawk
2007-04-25, 16:19:31
376 + Gweinnmarge des Hädnler = ca. 400 Euro

Adam D.
2007-04-25, 16:24:17
376 + Gweinnmarge des Hädnler = ca. 400 Euro
Bier in der Sonne? :biggrin:

Ich denk, der Preis wird sich nach einigen Woche irgendwo zwischen 350€ und 380€ bewegen. Je nach Modell und Hersteller. Sonst wär sie einfach zu teuer.

reunion
2007-04-25, 16:50:18
6 Monate ist ziemlich viel Zeit um Treiber auszureifen.

Das hat man bei R520 auch geglaubt, und dann hatte der Launchtreiber nicht mal eine OpenGL-Optimierung für den Speichercontroller. ATi hat im Gegensatz zu nV nicht den Vorteil, auf Erfahrungen von hunderttausenden Kunden zurückgreifen zu können.

Godmode
2007-04-25, 16:52:10
Das hat man bei R520 auch geglaubt, und dann hatte der Launchtreiber nicht mal eine OpenGL-Optimierung für den Speichercontroller. ATi hat im Gegensatz zu nV nicht den Vorteil, auf Erfahrungen von hunderttausenden Kunden zurückgreifen zu können.

Ich denke auch das über die Treiber noch was zum holen sein müsste, war bis jetzt immer so. Die R600 Architektur ist immerhin was neues, genau wie beim G80. Wieviel das dann sein wird, steht in den Sternen.

crux2005
2007-04-25, 16:53:40
ob R600 mehr als 16 TMUs haben wird?

;D hängt davon ab, wie man die "TMUs" zählt

reunion
2007-04-25, 16:54:17
Sind sie auch nicht... Da hab ich mit G7x schon viel schlimmeres erlebt zeitweise.

Solange man auf Vista verzichtet.

Radeon 2900XTX HD arriving Anandtech for testing
http://r800.blogspot.com/2007/04/radeon-2900xtx-hd-arriving-anandtech.html

Hört sich spannend an :D

War klar, dass man zum Launch nicht nur die zweitbesten Karte vorstellt.

Komisch, habe genau das Gegenteil gehört, XT und XTX nahezu gleich, nur hat die XTX halt mehr VRam.

MfG :cool:

Das ist das, was du gerne hättest, nicht das, was der du "Gehört hast". Also bitte markier das auch so.

Anarchy-HWLUXX
2007-04-25, 16:56:23
War klar, dass man zum Launch nicht nur die zweitbesten Karte vorstellt.

Testen mit nem Sample ist eine Sache, nen Release eine andere ;)

reunion
2007-04-25, 16:59:21
Testen mit nem Sample ist eine Sache, nen Release eine andere ;)

Natürlich. Das die XTX vermutlich später in den Handel kommt, ist schon länger bekannt, und das habe ich auch nicht bestritten. Nur was ich für unrealistisch hielt und halte, ist, dass man zum großen Launch ausgerechnet die Karte zurückhält, mit der man die Benchmarks gewinnen will.

Gast
2007-04-25, 17:04:53
das stimmt natürlich absolut... zwar kann ich mit gesenkten taktraten mit der gts idle schon leben, aber schön ists natürlich nicht (das stört mich auch extrem an meinem core 2 duo, warum kann ich die spannung nicht unter 1,163v im idle senken? mein winchester lief mit 0,9v...)


Kannst du. Meiner läuft im Idle mit 0,96V @ 2136MHz. Mach dazu nen neuen Thread auf und ich erklär dir, wie...

Nakai
2007-04-25, 17:05:32
Die meisten werden eh ohnehin keine HD2900XTX kaufen sondern vll mit dem einen Auge auf deren Tests schielen und dann eine HD2600XT kaufen.;)


mfg Nakai

OBrian
2007-04-25, 17:11:09
Fudo hat schon nen Laden gefunden:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=690&Itemid=1

380,- €

http://img251.imageshack.us/img251/8118/32837wg2.jpg

Sk_Antilles
2007-04-25, 17:13:31
Die meisten werden eh ohnehin keine HD2900XTX kaufen sondern vll mit dem einen Auge auf deren Tests schielen und dann eine HD2600XT kaufen.;)


mfg Nakai

So sieht's aus. Die fetten Karten habe ich mir noch nie geholt und interessieren mich auch garnicht. Wenn, dann hole ich mir ne 2600XT. Die ist relativ billig und Leistungsfähig. :)

Nakai
2007-04-25, 17:15:51
Oder eine HD2900XL oder eine HD2900Gt.^^

Auf jedenfall keine Karte die zuviel Strom verbraucht.;)

mfg Nakai

€: @OBrian: Alt!^^

horn 12
2007-04-25, 17:17:29
@Nakai

Was sagst/ hälst Du nun zu den dennoch sehr unterschiedlichen Performanceberichten der HD 2900 XT 512 GDDR3, :confused: bzw. zu den OC Werten.
Den Dailytech Bericht kann man wohl nicht ganz trauen, so wie es aussieht.;( :confused:
Deine Meinung ist/ war mir schon immer sehr wichtig.:smile:

crux2005
2007-04-25, 17:19:58
der performance Test der X2900XT auf Dailytech soll wahr sein

Gast
2007-04-25, 17:20:49
Die meisten werden eh ohnehin keine HD2900XTX kaufen sondern vll mit dem einen Auge auf deren Tests schielen und dann eine HD2600XT kaufen.;)


mfg Nakai
Wie meinst du das? Meinst du sie würden sich blenden lassen von der HD2900XTX und dann die Ergebnisse mit der HD2600XT verbinden? Ich denke, die meisten werden sich die Benchmarks der HD2600XT angucken und mit nV's Gurken vergleichen. Falls AMD's Mainstreambeschleuniger genauso schlecht sind, wird es der Preis wohl richten müssen. Bin allerdings der Meinung, dass jetzt sowieso der falsche Zeitpunkt da ist, diese "Mainstreamkarten" zu kaufen. Die richtigen spieletauglichen Mainstreamkarten wird es erst später geben und dann wird erst auch D3D10 an Bedeutung gewinnen. Die heutigen Karten kommen eigentlich nur in Frage, falls einem die Graka abgeraucht ist und man gezwungenermaßen vor einem Neuerwerb steht.

Nakai
2007-04-25, 17:22:20
Ohne mehr Benches kann man nichts sagen, anscheinend bringt ATI noch einen besseren Treiber raus. Wie es jedoch aussieht, kann sich die HD2900XT nur schwer gegen eine Geforce 8800GTX durchsetzen. Ebenso die HD2900XTX.

Ob die Benches von Dailytech stimmen, werde ich jetzt nicht sagen, jedoch sollten wir erst andere Benches betrachten.

sehr unterschiedlichen Performanceberichten der HD 2900 XT 512 GDDR3

Wieso denn das? Wenn eine HD2900XT512 gegen eine Geforce 8800GTS gewinnt, wenn auch mit teilweise geringem Abstand, wie sieht es mit der Geforce 8800GTX aus, welche mehr als 33% an mehr Leistung hat, aus?
Die Frage beantwortet sich eigentlich von selber, aber erstmal abwarten...

mfg Nakai

€:
Ich denke, die meisten werden sich die Benchmarks der HD2600XT angucken und mit nV's Gurken vergleichen.

Ich erinnere mich noch an Leuten die sagten, dass die Geforce 6600GT schneller als eine X850XT ist natürlich wegen SM3.0. ;)

Gast
2007-04-25, 17:24:57
Wie es jedoch aussieht, kann sich die HD2900XT nur schwer gegen eine Geforce 8800GTX durchsetzen. Was habt ihr denn erwartet? Einen G80-Killer?

Gast
2007-04-25, 17:33:14
Ich erinnere mich noch an Leuten die sagten, dass die Geforce 6600GT schneller als eine X850XT ist natürlich wegen SM3.0. ;)
Jetzt steht aber bei manchen die Barriere Vista im Weg, hoffe ich zumindest. Nicht dass um die 100€ für ein OS ausgegeben wird und dann bei der Graka gespart wird. Man bekommt für 250 Kröten eine 8800 GTS 320, mit der man wirklich was anfangen kann. Die Mainstreamkarten dürfen daher nicht mehr als 100€ kosten, um eine Daseinsberechtigung zu haben.

horn 12
2007-04-25, 17:37:16
Dann würde sich ATI/AMD aber nicht so zurückhalten. Die werden schon wissen warum Ihnen die NDA so wichtig ist, und fast nichts durchsickerte die letzten 2 Monate. Auch kann es sein das ATI alle irreführt und der R600 in 65um daherkommt, dies ist aber nur reine Spekulation meinerseits!!!
ATI hat NV ihren Streich mit dem G80 sicherlich nicht vergessen, warum nicht auch mal andersrum. Wäre 65 tatsächlich schon soweit, würde man die Taktraten dementsprechend anziehen um mindestens !! Gleichstand mit der G80 GTX zu erzielen, aber dies ist REINE Spekulation meinerseits. Und ATI lachte etwas verlegen, als man sie bei der Cebit danach fragte.
Einen Refresh innerhalb der nä. 2-3 Monate auf 65 halte ich eher für ausgeschlossen, da man die Kunden nicht nochmals verarschen möchte wie seinerzeit beim R520/580. Vielmehr glaube ich dass sie schon am R700 immens werkeln.
Aber lassen wir uns überraschen....

[dzp]Viper
2007-04-25, 17:39:47
Was sehr für 65nm spricht sind die guten Übertaktungsergebnisse der 2900xt.. bis auf fast 900 Mhz Coretakt :eek:

Stellt sich die Frage ob das mit 80nm und fast 700M Transis überhaupt möglich ist?!

Gast
2007-04-25, 17:41:08
65nm = Quatsch, da kannst soviel "Spekulieren" wie du willst, das fällt unter wunschdenken.

R600 auf 65nm wird wohl zur Weihnachtszeit aufschlagen, Marge machen.
R700 ist wie "NV60" erst Weihnachten 08 ein Thema... Lass erstmal den R650 rauskommen und das Marketing geblubber versiegen.

Gast
2007-04-25, 17:42:15
Dann würde sich ATI/AMD aber nicht so zurückhalten. Die werden schon wissen warum Ihnen die NDA so wichtig ist, und fast nichts durchsickerte die letzen Monate. Auch kann es sein das ATI alle irreführt und der R600 in 65um daherkommt, dies ist aber nur reine Spekulation meinerseits!!!
ATI hat NV ihren Steich mit dem G80 sicherlich nicht vergessen, warum nicht auch andersrum. Wäre 65 tatsächlich schon soweit, würde man die Taktraten dementsprechend anziehen um mind. Gleichstand mit der G80 GTX zu erzielen, aber dies ist REINE Spekulation meinerseits. Und ATI lachte etwas verlegen, als man sie bei der Cebit danach fragte.
Einen Refresh innerhalb der nä. 2-3 Monate auf 65 halte ich eher für ausgeschlossen, da man die Kunden nicht nochmals verarschen möchte wie seinerzeit beim R520/580. Vielmehr glaube ich dass sie schon am R700 immens werkeln.
Aber lassen wir uns überraschen....
Das NDA könnte auch dazu dienen, die Spannung etwas zu erhalten. Bis zum Launch ist es ja noch ein gutes Stück hin und wenn alle Fakten auf dem Tisch wären, würde der Trubel um R600 schnell abflachen. So bleibt noch immer etwas Raum zum Spekulieren. ;)

Gast
2007-04-25, 17:43:21
Schon peinlich nen halbes Jahr später und man braucht soviel Takt um an der 8800GTX zu kratzen.

dildo4u
2007-04-25, 17:45:51
Viper;5438516']

Stellt sich die Frage ob das mit 80nm und fast 700M Transis überhaupt möglich ist?!
Warum sollte das nicht möglich sein? Wenn Nvidia in 90nm schon 680M schafft.

Sk_Antilles
2007-04-25, 17:50:26
Schon peinlich nen halbes Jahr später und man braucht soviel Takt um an der 8800GTX zu kratzen.

Was soll denn das gebashe?! Ist alles sinnbefreit.....
Genauso peinlich wie damals Radeon 9700 und GF5700/5800 usw. :rolleyes:

reunion
2007-04-25, 18:03:01
Schon peinlich nen halbes Jahr später und man braucht soviel Takt um an der 8800GTX zu kratzen.

TMUs/ROPs: ~800MHz vs. 575Mhz
ALUs: ~800Mhz vs. 1350Mhz

Wer braucht jetzt mehr Takt und warum? Aber man nimmt sich natürlich immer nur den Aspekt an, der einem gerade passt.

Hvoralek
2007-04-25, 18:08:23
Ich denke auch das über die Treiber noch was zum holen sein müsste, war bis jetzt immer so. Die R600 Architektur ist immerhin was neues, genau wie beim G80. Wieviel das dann sein wird, steht in den Sternen.Anscheinend ist R6xx ja im wesentlichen eine wie auch immer geartete Mischung aus Xenos und R5xx mit D3D10. Also auch wieder nicht *so* neu verglichen mit G80.

Warum sollte das nicht möglich sein? Wenn Nvidia in 90nm schon 680M schafft.Es ging ihm glaube ich um die erreichbaren Taktraten. G80 erreicht ja keine 900MHz. Ich denke aber, wenn bei jeweils ~700 Mio Transistoren in 90nm 575MHz in Serie möglich sind und bei guten Chips afaik an die 700 per Übertaktung (jeweils ohne Beachtung der Ultra und des Shadertaktes), warum sollten dann nicht in 80 nm 800MHz in Serie und 900 oder mehr bei guten Chips möglich sein?

Wieso interessiert es eigentlich, wer jetzt wieviel mehr oder weniger Takt braucht, um die gleiche Leistung zu erreichen wie der andere? Wobei man sich darüber in diesem Fall ja wirklich lange streiten könnte ;D

Gast
2007-04-25, 18:09:33
TMUs/ROPs: ~800MHz vs. 575Mhz
ALUs: ~800Mhz vs. 1350Mhz


1350MHz bei 128SP gegen 800MHz bei 320.
AMD benötigt nach ihrer Zählweise 2,5mal soviele Skalare, um die von nVidia zu erreichen. nVidia setzt dagegen nur eine Takterhöhung von 60% an.
Na, wer ist hier wohl ebenfalls besser?

Super Grobi
2007-04-25, 18:12:33
1350MHz bei 128SP gegen 800MHz bei 320.
AMD benötigt nach ihrer Zählweise 2,5mal soviele Skalare, um die von nVidia zu erreichen. nVidia setzt dagegen nur eine Takterhöhung von 60% an.
Na, wer ist hier wohl ebenfalls besser?

Oh mann,
was für ein Quark mit Soße! Wem interessiert sowas? Was zählt, ist was am Ende rauskommt. Und wenn der R600 1ghz GPU Takt hat. Drauf geschissen, solange die Karte für einen gescheiten Preis, eine gescheite Leistung bietet.

Das SCHEINT derzeit so zu sein.

SG

deekey777
2007-04-25, 18:12:57
Schon peinlich nen halbes Jahr später und man braucht soviel Takt um an der 8800GTX zu kratzen.
Und was ist daran "peinlich"?
Ist das nicht egal, wie man das Endergebnis erreicht?
Und nicht vergessen: Die Shader-ALUs des G80 laufen auch mit bis zu 1350 MHz - auch peinlich?
1350MHz bei 128SP gegen 800MHz bei 320.
AMD benötigt nach ihrer Zählweise 2,5mal soviele Skalare, um die von nVidia zu erreichen. nVidia setzt dagegen nur eine Takterhöhung von 60% an.
Na, wer ist hier wohl ebenfalls besser?

Seit wann hat der R600 skalare Einheiten? :|
Immer schön den Ball flach halten.

reunion
2007-04-25, 18:14:21
1350MHz bei 128SP gegen 800MHz bei 320.
AMD benötigt nach ihrer Zählweise 2,5mal soviele Skalare, um die von nVidia zu erreichen. nVidia setzt dagegen nur eine Takterhöhung von 60% an.
Na, wer ist hier wohl ebenfalls besser?

Dümmlicher gehts ja wohl kaum. Gerade gings dir noch um die Taktraten. :rolleyes:
Es sind im übrigen 128 skalare gegen 64 vec5 ALUs. Logisch, dass R600 da mehr Einheiten benötigt, um die höhere Effizienz der skalaren ALUs auszugleichen, dafür sind diese auch wesentlich billiger. Wen interessiert der Marketingmist?

seahawk
2007-04-25, 18:17:16
Der R600 ist einfach verspätet. Nicht mehr und nicht weniger, während der G80 ein sehr solider Chip geworden ist. Niemand kann erwarten, dass NV oder ATI/AMD den Konkurrenten vernichtend schlagen kann, wenn dieser nicht

a) einen fetten Bock baut
b) eine andere Strategie fährt (7950 GX2 gegen X1950XTX)

Gast
2007-04-25, 18:19:22
Logisch, dass R600 da mehr Einheiten benötigt, um die höhere Effizienz der skalaren ALUs auszugleichen, dafür sind diese auch wesentlich billiger. Wen interessiert der Marketingmist?

Billiger ist nur die Anwesenheit, teurer wird es, um die gleiche Leistung zu erreichen.
Warten wir doch einfach ob und schauen, wieviel Strom AMD mehr benötigt, um auf die gleiche Leistung zu kommen. Das ist der einzige Indikator, welches etwas aussagt, ob hohe die Taktraten ein Fluch oder Segen sein wird.

Godmode
2007-04-25, 18:37:01
Der große Vorteil des G80 sind die Custom-Transistor ALUs. Ich denke wenn man das mit einer Programmiersprache vergleicht, ist es wie C++ zu Assember. Im Assembler kann man auch extrem optimierte Programme schreiben, die dann eine bessere Performance zeigen als das selbe C++ Programm. Natürlich ist ein Assembler Programm schwieriger zu schreiben, schwieriger zu ändern und auch schwieriger zu verstehen.

Würden die ALUs des G80 auch nur mit 500-600 MHz takten, bräuchte man die doppelte Anzahl davon, was aber kein Transitorbudget verkraftet hätte, jedenfalls nicht in 90nm. Durch diese Custom Schaltungen hat man dieses Problem sehr elegant gelöst wie ich finde.

Die Frage ist nun, verwendet ATI beim R600 auch solche speziellen Schaltungen, oder baut der R600 gänzlich auf den Bibliotheken von TSMC auf? Ich könnte mir gut vorstellen das ATI dies mit dem 80nm Prozess ausgleicht (mehr Transistoren, höherer Takt.)

Am 14. wird sich endlich zeigen welches Design nun effezienter ist.

Gast
2007-04-25, 18:52:04
Ich frage mich eher welches Design besser auf 65nm "passt". Wir hatten ja mal eine CPU Generation bei der ein Shrink nichts gebracht hat um Thermik und Leistungsaufnahme zu ändern. Bei GPUs kann das auch passieren, und das ein R600 nicht gerade kleine Brötchen in dem Bereich backt ist ja fakt.

Lawmachine79
2007-04-25, 19:31:35
Am 14. wird sich endlich zeigen welches Design nun effezienter ist.

Ich denke über Effizienz muss man nicht mehr streiten - der R600 braucht mehr Takt (ok, die ALUs bei NV sind ein Gegenargument, ich nehme es mal vorweg :D) und mehr Streamprozessoren als der G80 um auf vergleichbare Leistung zu kommen, auch ein breiteres SI. Irgendwie erinnert mich das an Netburst (als R600 Äquivalent) vs. K8-Architektur bzw. Athlon generell.

deekey777
2007-04-25, 19:35:59
Der R600 hat 64 Stream-Prozessoren.
Eigentlich nicht, eher 4 oder 8. Und der G80 8 bzw. 16.

Fetza
2007-04-25, 19:38:22
Ich denke über Effizienz muss man nicht mehr streiten - der R600 braucht mehr Takt (ok, die ALUs bei NV sind ein Gegenargument, ich nehme es mal vorweg :D) und mehr Streamprozessoren als der G80 um auf vergleichbare Leistung zu kommen, auch ein breiteres SI. Irgendwie erinnert mich das an Netburst (als R600 Äquivalent) vs. K8-Architektur bzw. Athlon generell.

Nur das streamprozessoren ein sehr dehnbarer begriff ist und bisher keiner ausser nda-gekette wissen, wie bzw ob(und das steht wohl ausser frage) sich die streamprozessoren vom aufbau unterscheiden.

Der vergleich zur netburst architektur ist daher finde ich nicht zutreffend. Bisher sieht es so aus, als sei der r600 gut zum zoggen geeignet, das war die netburst architektur nie.

greetz

Gast
2007-04-25, 19:43:16
Nur das streamprozessoren ein sehr dehnbarer begriff ist und bisher keiner ausser nda-gekette wissen, wie bzw ob(und das steht wohl ausser frage) sich die streamprozessoren vom aufbau unterscheiden.

Der vergleich zur netburst architektur ist daher finde ich nicht zutreffend. Bisher sieht es so aus, als sei der r600 gut zum zoggen geeignet, das war die netburst architektur nie.

greetz
Es sieht aber so aus, dass R600 mehr Saft als G80 bei gleicher Leistung braucht, trotz kleinerem Fertigungsprozess - okay der bringt nicht wirklich, viel aber immerhin. Das heißt, dass AMD beim R700 umdenken muss oder die Games mehr auf die Architektur angepasst werden müssen. Eigentlich ist es schade, dass beide Hersteller verschiedene Strategien fahren, denn die Devs könnens nur einem wirklich recht machen. Im Endeffekt ist der Kunde wieder der Leidtragende.

reunion
2007-04-25, 20:36:15
Ich denke über Effizienz muss man nicht mehr streiten - der R600 braucht mehr Takt (ok, die ALUs bei NV sind ein Gegenargument, ich nehme es mal vorweg :D) und mehr Streamprozessoren als der G80 um auf vergleichbare Leistung zu kommen, auch ein breiteres SI. Irgendwie erinnert mich das an Netburst (als R600 Äquivalent) vs. K8-Architektur bzw. Athlon generell.

Du widersprichst dir selber. Wenn du einerseits kritisierst, dass R600 mehr ROP/TMU-Takt benötigt, und andererseits, dass R600 auch mehr Streamprozessoren benötigt, dann ist das das gleiche, als wenn ich genau das Gegenteil in Bezug auf G80 behaupten würde. Der R600 braucht mehr ROP/TMU-Takt, da ATi hier weniger Einheiten verbaut hat, und der G80 braucht mehr ALU-Takt, da NV dort weniger Einheiten verbaut hat. Beide haben also an unterschiedlichen Stellen gespart und dies mittels eines höheren Taktes versucht auszugleichen.

Gast
2007-04-25, 20:40:13
nVidia's ALU sind deutlich effizienter als die herkömmlichen Vec3 + 1 Skalar, daher können sie weniger verbauen und dies mit einem hohen Shadertakt ausgleichen.
Zur Zeit kann man von AMD's TMUs und ROPs das nicht behaupten. Dort resultiert der hohe Stromverbrauch aus den hohem Takt.

reunion
2007-04-25, 20:51:21
nVidia's ALU sind deutlich effizienter als die herkömmlichen Vec3 + 1 Skalar, daher können sie weniger verbauen und dies mit einem hohen Shadertakt ausgleichen.
Zur Zeit kann man von AMD's TMUs und ROPs das nicht behaupten. Dort resultiert der hohe Stromverbrauch aus den hohem Takt.


Also die Logik versteht wer will. Die Effizienz und der Stromverbauch spielen doch in diesem Fall nicht die geringste Rolle. Oder muss etwas effizienter als bei der Konkurrenz sein, damit man es wagen darf, Einheiten einzusparen? :|

Man hat Transistoren gespart, und dies durch hohen Takt ausgeglichen. Bei R600 ist es im Bezug auf die ROPs und die TMUs genau umgekehrt.

Gast
2007-04-25, 21:01:22
Also die Logik versteht wer will. Die Effizienz und der Stromverbauch spielen doch in diesem Fall nicht die geringste Rolle. Oder muss etwas effizienter als bei der Konkurrenz sein, damit man es wagen darf, Einheiten einzusparen? :|

Es gibt Gründe, warum ein hoher Stromverbrauch vorhanden. Mehr Features ist ein Punkt, welcher den Stromverbrauch einigermaßen rechtfertigt.
Wenn jedoch zwei Karten, die sich auf einem technischen und leistungsmäßigen Niveau befinden, im Stromverbrauch so deutlich unterscheiden, dann ist die Architektur der einen Karten deutlich ineffizienter. Und dies wird mit einem hohen Takt dermaßen ausgeglichen, dass der Stromverbrauch als Nachteil entsteht.
nVidia hat beim G80 mehr und deutlich effizientere Einheiten verbraut und konnten so einen Coretakt fahren, welcher die Stromaufnahme noch in Grenzen hält - natürlich begünstigt durch die fehlende Konkurrenz.


Wobei sich erst herausstellen muss, ob diese skalaren ALUs tatsächlich effizienter sind.


Der G80 hat eine 33% höhrere MAD - Leistung als die X1950XTX und ist in synthetischen Test im Durchschnitt 80% schneller.
DU willst also behaupten, dass nVidia's Weg nicht "effizienter" wäre?

Ailuros
2007-04-25, 21:06:35
Der hohe Stromverbrauch kommt von HW-bugs die man in der Zwischenzeit etwas ausgeglichen hat.

Wobei sich erst herausstellen muss, ob diese skalaren ALUs tatsächlich effizienter sind.

Angenommen die dailytech Werte sind real dann sehe ich nichts absolut besonderes fuer eine XT die ein theoretisches Maximum von zumindest 477 GFLOPs haben sollte gegen das theoretische Maximum von 346 GFLOPs einer 8800GTS.

Rechne ich den MUL noch zusaetzlich weg sind es geizige 230 GFLOPs fuer die letzte.

reunion
2007-04-25, 21:11:43
Es gibt Gründe, warum ein hoher Stromverbrauch vorhanden. Mehr Features ist ein Punkt, welcher den Stromverbrauch einigermaßen rechtfertigt.
Wenn jedoch zwei Karten, die sich auf einem technischen und leistungsmäßigen Niveau befinden, im Stromverbrauch so deutlich unterscheiden, dann ist die Architektur der einen Karten deutlich ineffizienter. Und dies wird mit einem hohen Takt dermaßen ausgeglichen, dass der Stromverbrauch als Nachteil entsteht.
nVidia hat beim G80 mehr und deutlich effizientere Einheiten verbraut und konnten so einen Coretakt fahren, welcher die Stromaufnahme noch in Grenzen hält - natürlich begünstigt durch die fehlende Konkurrenz.


Wenn es so ist, gebe ich dir zu 100% recht. Da es bis dato allerdings noch so gut wie nichts gesichertes im Bezug auf R600 gibt, ist eine solche Diskussion witzlos. Du stellst etwas als Tatsache hin, ohne überhaupt zu wissen, wie hoch die Leistung bzw. die Leistungsaufnahme oder Features des R600 im Vergleich zu G80 aussehn.


Der G80 hat eine 33% höhrere MAD - Leistung als die X1950XTX und ist in synthetischen Test im Durchschnitt 80% schneller.
DU willst also behaupten, dass nVidia's Weg nicht "effizienter" wäre?

Ich habe die Passage schon gelöst, da ich mir eine solche OT-Diskussion ersparen wollte. Aber da du darauf eingegangen bist: Effizienz ist ein Maß für die Wirtschaftlichkeit (Kosten-Nutzen-Relation). Die skalaren ALUs erreicht ja nicht nur zweifelsfrei eine bessere Auslastung, sondern kosten natürlich auch entsprechend mehr Transistoren. Was du meinst ist Effektivität.

Ailuros
2007-04-25, 21:12:06
Der R600 hat 64 Stream-Prozessoren.
Eigentlich nicht, eher 4 oder 8. Und der G80 8 bzw. 16.

4 clusters * (5D) Vec16 ALUs vs. 8 clusters * (1D) Vec16 ALUs.

Den Marketing-Humbug beider Seiten mit so und so vielen SPs bzw. "skalaren" Einheiten kann man leicht vergessen. Im ganz "strengen" CPU-Sinn ist selbst die Bezeichnung "skalar" nicht unbedingt gerechfertigt.

reunion
2007-04-25, 21:15:18
Angenommen die dailytech Werte sind real dann sehe ich nichts absolut besonderes fuer eine XT die ein theoretisches Maximum von zumindest 477 GFLOPs haben sollte gegen das theoretische Maximum von 346 GFLOPs einer 8800GTS.

Rechne ich den MUL noch zusaetzlich weg sind es geizige 230 GFLOPs fuer die letzte.

Richtig, nur ist der 3dmark dazu IMHO ein sehr schlechter Vergleich. Da wären reine Shadertests doch wesentlich aussagekräftiger.

Gast
2007-04-25, 21:16:21
Ich habe die Passage schon gelöst, da ich mir eine solche OT-Diskussion ersparen wollte. Aber da du darauf eingegangen bist: Effizienz ist ein Maß für die Wirtschaftlichkeit (Kosten-Nutzen-Relation). Die skalaren ALUs erreicht ja nicht nur zweifelsfrei eine bessere Auslastung, sondern kosten natürlich auch entsprechend mehr Transistoren. Was du meinst ist Effektivität.

Wer sagt, dass die Recheneinheiten des G80 nicht genauso viel Transistoren benötigten wie die des r580 oder des r600?

Nakai
2007-04-25, 21:18:27
Im ganz "strengen" CPU-Sinn ist selbst die Bezeichnung "skalar" nicht unbedingt gerechfertigt.

Du meinst das in jedem Cluster des G80 2 SIMD-Kanäle mit 8 skalaren Einheiten drin, welche die deren unabhängig noch einschränkt?

mfg Nakai

€: Achja unser Fudo will einen Bericht über den R600 bringen, mit seinen Specs und seiner Performance gegenüber dem G80.

reunion
2007-04-25, 21:18:54
Wer sagt, dass die Recheneinheiten des G80 nicht genauso viel Transistoren benötigten wie die des r580 oder des r600?

Weil dann kein Hersteller in den letzten Jahren so blöd gewesen wäre, und etwas anderes als skalare ALUs verbaut hätte. Durch das zusammenfassen der Einheiten spart man Transistoren, das sollte klar sein. Nicht umsonst hat nV nur sehr wenige verbaut, und diese dafür sehr hoch getaktet.

Gast
2007-04-25, 21:23:56
Weil dann kein Hersteller in den letzten Jahren so blöd gewesen wäre, und etwas anderes als skalare ALUs verbaut hätte.

Das ist kein Grund. Die Architekturen vor dem G80 haben immer auf die vorige aufgebaut. NV20 -> NV30 -> NV40 -> G70. Erst mit dem G80 hat nVidia eine Zäsur getätigt und die Architektur deutlich verändert.

Durch das zusammenfassen der Einheiten spart man Transistoren, das sollte klar sein. Nicht umsonst hat nV nur sehr wenige verbaut, und diese dafür sehr hoch getaktet.

Und woher nimmst du die Erkenntnis, dass die Recheneinheiten teurer wären als die 64 Vec5 des r600?

reunion
2007-04-25, 21:28:06
Und woher nimmst du die Erkenntnis, dass die Recheneinheiten teurer wären als die 64 Vec5 des r600?

Das habe ich nicht behauptet, das bezog sich auf die kosten pro SP. Ganz im Gegenteil, ich nehme sogar stark an, dass diese 128 skalaren ALUs des G80 weniger Transistoren kosten als die 64 Vec5 ALUs des R600. Sie dürften ja auch bei gleichem Takt wesentlich leistungsschwächer sein. Nur durch den hohen Takt kann nV diesen Nachteil halbwegs ausgleichen.

Gast
2007-04-25, 21:35:13
Das habe ich nicht behauptet, das bezog sich auf die kosten pro SP.

Bezieht du dann auch die Effektivität (danke :)) mit ein?

Sie dürfte ja auch bei gleichem Takt wesentlich leistungsschwächer sein. Nur durch den hohen Takt kann nV diesen Nachteil halbwegs ausgleichen.

Welchen Sinn macht das "bei gleichem Takt"? Es ist ein wesentlicher Bestandteil der Architektur, dass der Shaderclock unabhängig vom Coreclock eingestellt werden kann. Und soweit ich sehe, beeinträchtigt dieses Vorgehen deutlich weniger den Stromverbrauch als die Kopplung an einen hohen Coretakt.
Die Effektivität und der hohe Takt sind doch die Bestandteile und gleichen die Kosten zu einer Vec12/16 4D/5D Recheneinheit aus.

Nakai
2007-04-25, 21:38:26
Die Effektivität und der hohe Takt sind doch die Bestandteile und gleichen die Kosten zu einer Vec12/16 4D/5D Recheneinheit aus.

Solche unabhängigen Taktbereiche kosten aber auch zusätzlich. Zwar nicht soviel wie größere Einheiten.
Imho sind nur die Shader so klein, die TMUs und ROPs sind wieder sehr groß geraten. Hier kann der R600, welcher nur einen Coretakt hat mit kleineren Einheiten aufwarten.

mfg Nakai

Gast
2007-04-25, 21:43:05
Hier kann der R600, welcher nur einen Coretakt hat mit kleineren Einheiten aufwarten.
mfg Nakai

"Kleinere Einheiten"?
Nein, AMD muss aufgrund der geringeren Breite einen hohen Coretakt verwenden.
nVidia hat dagegen eine breitere Architektur und kann somit den Coretakt konservativ anlegen.
Natürlich ist das erstmal kein Vor - bzw. Nachteil. Erst, wenn die andere Architektur aufgrund der Einheiten (lässt sich deutlich höher takten bzw. die Einheiten sind deutlich stärker) zu einem Problem führen. Und die Lösung resultiert dann meisten in einem höheren Stromverbrauch.

Nakai
2007-04-25, 21:44:16
Ich spreche von TMUs und ROPs.

mfg Nakai

Gast
2007-04-25, 21:45:10
Ich spreche von TMUs und ROPs.


Und was bedeutet dann "kleinere Einheiten"?

Nakai
2007-04-25, 21:46:32
Okay, war falsch. Sagen wir "weniger Einheiten".

mfg Nakai

reunion
2007-04-25, 21:50:04
Bezieht du dann auch die Effektivität (danke :)) mit ein?


Nein, da es gerade um die Kosten ging. Ich wüsste auch nicht, wie man das machen sollte.


Welchen Sinn macht das "bei gleichem Takt"?

Naja, ein höherer Takt kostet ja keine Transistoren, und da es gerade darum ging macht das Sinn.

horn 12
2007-04-25, 21:51:29
[QUOTE=Nakai:
€: Achja unser Fudo will einen Bericht über den R600 bringen, mit seinen Specs und seiner Performance gegenüber dem G80.[/QUOTE]

Wann soll der Bericht denn kommen? Morgen schon oder erst im Mai?

crux2005
2007-04-25, 21:51:36
viel weniger TMUs wäre genauer ;D

Gast
2007-04-25, 21:57:07
Imho sind nur die Shader so klein, die TMUs und ROPs sind wieder sehr groß geraten. Hier kann der R600, welcher nur einen Coretakt hat mit kleineren Einheiten aufwarten.

mfg Nakai

Bitte was, die hohe Taktrate beim R600 gibt also Aufschlüsse auf die Beschaffenheit der TMUs/ROPs?

Das einzige wo man einen evtl. Komplexitäts"Nachteil" beim G80 sehen kann, sind die 64TUs die mit 32TAs zurecht kommen müssen. Wobei das ja beim G84 nicht mehr der Fall ist da hats ein 1:1 Verhältnis wieder (der Vorteil davon hat sich mir leider noch nicht erschlossen).

80nm und 3-4 Resteps müssen ja zu einem Erfolg geführt haben, wenn jetzt die XT mit 745MHz daher kommt, was 232MHz über einer GTS liegt und 10% mehr Performance bedeutet. Aber da fehlen noch die guten Benchmarks in 1600x1200 einfach um zu sehen wie die XT sich bei hoher Füllratenanforderung verhällt. NV brauch die höhere Füllrate ja nicht mehr um "ineffizienz" in der Architektur zu überwinden, man setzt sie ja jetzt um.

w0mbat
2007-04-25, 22:11:06
Wann soll der Bericht denn kommen? Morgen schon oder erst im Mai?

Sobald Nakai damit fertig ist :tongue:

horn 12
2007-04-25, 22:18:38
Also bitte etwa preziser wenn möglich! Dann wurde Nakai von Fudo schlechthin beauftragt den Bericht zu verfassen oder wie kann man dies verstehen? Sind auch andere Benchmarks vorhanden,- mit auch anderen Auflösungen als nur 1280x1024 4/6AA 16AF. Hoffe doch sehr!:smile:

Gast
2007-04-25, 22:20:13
Ich würde jetzt noch gar nichts auf die Benchmarks geben - die sind samt und sonders mit uralten, unoptimierten Treibern entstanden und sagen nicht viel über den R600 aus.

dr_mordio
2007-04-25, 22:24:05
vor 3-4 Seiten ging es ja schonmal um die HDMI-Stecker geschichte.

Klar geht das mit so einem Adapter an jeder DVI karte. (schrieb ja auch einer mit seinem beamer)
aber den wahren sin sieht keiner.
bei den HD karten von ATI geht

a) auch der sound da mit durch (was eienen anschluß an ein TV-gerät samt audio ermöglicht, ohne boxen/verstärker nutzen zu müssen)

und b) ist es kein HDMI über DVI (wie bei den anderen karten) sondern ein HDCP über HDMI über DVI

jetzt wird sicher nach dem sinn gefragt....
HDCP über das ganze zu ermöglichen, ermöglich auch den PC als abspielgerät für Blueray/HD-DVD (kompatibles laufwerk verrausgesetzt)zu nutzen, und die daten an einen kompatiblem Monitor oder TV mit 1920x1080 zu senden.

ohne HDCP macht die kette nicht mit und man kann filme nur in "low-res" sehen.

und da Blueray und HD-DVD laufwerke (keine teuren brenner) für PCs in den stärtlöchern stehen, macht es für mich sinn und ich hol mir wohl trotzdem eine HD 2900 XT sammt eines 24 oder 26 zoll TFTs mit HDMI und HDCP

MfG
Alex

Gast
2007-04-25, 22:26:24
Nein, da es gerade um die Kosten ging. Ich wüsste auch nicht, wie man das machen sollte.

Den Aufwand der Implementierung ohne das Endergebnis zu vergleichen, macht keinen Sinn.


Naja, ein höherer Takt kostet ja keine Transistoren, und da es gerade darum ging macht das Sinn.

Nun gehört der hohe Takt bei den Recheneinheiten des G8x zum Grundkonzept, daher kann man diesen wesentlichen Bestandteil nicht aus dem vergleich entfernen.
Das wäre so, als wenn bei Vergleichen der Rechenleistung nur ein Kanal betrachtet werden soll.

Henroldus
2007-04-25, 22:38:06
Klar geht das mit so einem Adapter an jeder DVI karte. (schrieb ja auch einer mit seinem beamer)

seit wann gibt ein beamer sound aus? :|


a) auch der sound da mit durch (was eienen anschluß an ein TV-gerät samt audio ermöglicht, ohne boxen/verstärker nutzen zu müssen)

geht imo über dvi nicht sondern nur über TV-out
(betreibt jemand einen lcd TV an DVI und hat sound?)



und b) ist es kein HDMI über DVI (wie bei den anderen karten) sondern ein HDCP über HDMI über DVI

jetzt mal langsam:
HDMI-Ausgänge haben HDCP und sound immer inklusive(wenn es nicht grad per adapter von dvi kommt :wink: )
dvi dagegen gibts mit und ohne hdcp

Gast
2007-04-25, 22:45:33
seit wann gibt ein beamer sound aus? :|


geht imo über dvi nicht sondern nur über TV-out
(betreibt jemand einen lcd TV an DVI und hat sound?)



jetzt mal langsam:
HDMI hat HDCP und sound immer inklusive(wenn es nicht grad per adapter von dvi kommt :wink: )
dvi dagegen gibts mit und ohne hdcp

Verständnisproblem?
Der Beamer wird über einen DVi-HDMI-Adapter verbunden, ohne Ton. Der TV-Out hat ebenfalls kein Audiosignal incl.
Aber HDMI ist abwärtskompatibel zu DVI und DVI bietet die Möglichkeit, zusätzlich Audiodaten auszugeben, wenn dazu die GFX in der Lage ist (wie die zukünftigen ATis).

Henroldus
2007-04-25, 22:49:59
Verständnisproblem?
nein

Der Beamer wird über einen DVi-HDMI-Adapter verbunden, ohne Ton.
ich hab nichts anderes behauptet

Der TV-Out hat ebenfalls kein Audiosignal incl.

hmm da bin ich nicht sicher

Aber HDMI ist abwärtskompatibel zu DVI und DVI bietet die Möglichkeit, zusätzlich Audiodaten auszugeben, wenn dazu die GFX in der Lage ist (wie die zukünftigen ATis).
diese behauptung ist hier im spekulationsforum gut aufgehoben :wink:

dr_mordio
2007-04-25, 22:50:26
seit wann gibt ein beamer sound aus? :|
viele haben Onboard sound. aber mir ging es darum das es bei jeder karte mit adapter geht, aber dann der sound fehlt. so wie beim beamer-mann. einen beamer nutzt man vorzugsweise mit einer guten anlage

geht imo über dvi nicht sondern nur über TV-out
(betreibt jemand einen lcd TV an DVI und hat sound?)
das soll ja das besondere am R600 sein, da geht es wohl doch (allerdings nur wen der Monitor kein DVI hat, sondern auch per HDMI angeschlossen wird).

alles geht per DVI raus (wie auch immer) und wird dann per adapter in HDMI eingespeist


jetzt mal langsam:
HDMI-Ausgänge haben HDCP und sound immer inklusive(wenn es nicht grad per adapter von dvi kommt :wink: )
dvi dagegen gibts mit und ohne hdcp

sag ich doch. bei anderen karten z.b. X1900 oder auch NV karten geht auch HDMI per adapter aus dem DVI. aber dan fehlt Sound und auch HDCP!
beim R600 soll das alles anders werden, daher heißen die auch HD2900XT und nicht X2900XT

Irgendwie hattest du meinen ersten post nicht so ganz verstanden.

MfG
Alex

EDIT:
ich sehe gerad das der Gast weiß, was ich meine

Gast
2007-04-25, 22:53:12
hmm da bin ich nicht sicher

diese behauptung ist hier im spekulationsforum gut aufgehoben :wink:

Da braucht man sich nicht sicher sein, das ist so... welcher der Pins des Hosiden- oder Compositeausgangs soll denn den Ton übertragen?
Und da ist auch nicht fürs Spekulationsforum bei...

Ailuros
2007-04-25, 23:19:33
Richtig, nur ist der 3dmark dazu IMHO ein sehr schlechter Vergleich. Da wären reine Shadertests doch wesentlich aussagekräftiger.

Dailytech hat auch Resultate von Spielen und nein ich hab mich nicht auf den 3fart Mist bezogen.

Ailuros
2007-04-25, 23:22:24
Weil dann kein Hersteller in den letzten Jahren so blöd gewesen wäre, und etwas anderes als skalare ALUs verbaut hätte. Durch das zusammenfassen der Einheiten spart man Transistoren, das sollte klar sein. Nicht umsonst hat nV nur sehr wenige verbaut, und diese dafür sehr hoch getaktet.


Nur ganz so nebenbei es gibt noch einen dritten IHV der einen anderen Markt bedient, der eine Unmenge an Transistoren sparen kann durch skalare ALUs, ohne extravagante Frequenzen, ohne hohen Stromverbrauch und einem Feature-set dem die Konkurrenz immer noch das Nachsehen hat.

http://forum.beyond3d.com/showpost.php?p=916857&postcount=31

...er sagt zwar nichts Neues aber *zwitscher* *floet* ;)

Godmode
2007-04-25, 23:42:20
Nur ganz so nebenbei es gibt noch einen dritten IHV der einen anderen Markt bedient, der eine Unmenge an Transistoren sparen kann durch skalare ALUs, ohne extravagante Frequenzen, ohne hohen Stromverbrauch und einem Feature-set dem die Konkurrenz immer noch das Nachsehen hat.

http://forum.beyond3d.com/showpost.php?p=916857&postcount=31

...er sagt zwar nichts Neues aber *zwitscher* *floet* ;)


Du meinst hier aber hoffentlich nicht AGEIA Physx? Dritter IHV könnte AGEIA sein, anderer Markt könnte der Physik Markt sein. Oder sprichst du hier von irgendwelchen Co-Prozessoren für diese AMD CO-Prozessor Plattform?

Ailuros
2007-04-25, 23:51:11
Du meinst hier aber hoffentlich nicht AGEIA Physx? Dritter IHV könnte AGEIA sein, anderer Markt könnte der Physik Markt sein. Oder sprichst du hier von irgendwelchen Co-Prozessoren für diese AMD CO-Prozessor Plattform?

Es ist zwar verdammt OT, aber ich wuerde erwarten dass man zumindest einen der Vaeter vom Dreamcast kennt ;)

Fetza
2007-04-25, 23:56:32
Es ist zwar verdammt OT, aber ich wuerde erwarten dass man zumindest einen der Vaeter vom Dreamcast kennt ;)

Die dreamcast hab ich im schrank stehen, aber den typen kenn ich trotzdem nicht:D

Ailuros
2007-04-26, 00:00:20
Die dreamcast hab ich im schrank stehen, aber den typen kenn ich trotzdem nicht:D

Simon Fenney entwickelt Algorithmen schon seit der Gruendung von PowerVR; die meisten Patente duerften sowieso mit seinem Namen bestueckt sein. Zurueck zum Topic...

Gast
2007-04-26, 01:00:08
Du meinst hier aber hoffentlich nicht AGEIA Physx? Dritter IHV könnte AGEIA sein, anderer Markt könnte der Physik Markt sein. Oder sprichst du hier von irgendwelchen Co-Prozessoren für diese AMD CO-Prozessor Plattform?
Au mann, wer SimonF ist, weiß doch eigentlich jeder, der schon länger dabei ist.

Und nein, er meint die briten, wie so oft :rolleyes:

up¦²
2007-04-26, 02:02:43
BTW, erste konkrete DX10-Eindrücke...
Erster Praxiseindruck vom DX10-Spiel Lost Planet

25.04.2007 16:31 Uhr - Die Redaktion hatte heute die Möglichkeit, zum ersten Mal die PC-Version von Lost Planet anzuspielen. Präsentiert wurden zwei Levels des Actionspiels, die nur unter Windows Vista und in Zusammenarbeit mit einer DirectX-10-Grafikkarte liefen. In Ermangelung einer entsprechenden Ati-Karte spielten wir Lost Planet daher mit einer Geforce 8800 GTX. Als System kam ein Athlon 64 5000+ mit 2 GByte RAM. Lost Planet lief in 1.280x1.024 mit 4x FSAA. Slowdowns gab es nicht, das Spiel lief mit geschätzten 25 Fps - trotz heftiger Gegner-Action.
http://www.pcgameshardware.de/?article_id=600229
Na denn man tau R600: da kann sie zeigen, was in ihr steckt!
Demo (http://www.firingsquad.com/news/newsarticle.asp?searchid=15210) kommt in kürze!

Game wird hier schon diskutiert.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5439612#post5439612

Moralelastix
2007-04-26, 08:07:19
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!

Gast
2007-04-26, 08:13:11
schaut schlecht aus!
bin mal gespannt ob das wirklich die final specs sind...

san.salvador
2007-04-26, 08:21:26
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!
Da hat einer aber kräftig Mist gebaut!
Nur wer?
a) Der Benchmarker?
b) Die Ingenieure?
c) Das Treiberteam?

Ich bin gespannt...

nagus
2007-04-26, 08:24:29
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!

ich kann mir beim besten willen nicht vorstellen, dass diese benchmarks realistisch sind. irgendwas ist da oberfaul!

dargo
2007-04-26, 08:25:56
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!
Ach du Schreck. Mehr nicht? :|
Da kann man nur hoffen, dass die Treiber eine riesen Blase noch haben. :D

Moralelastix
2007-04-26, 08:28:23
Da wirts ja schon vor dem Release Zeit für den 65nm Refresh. :|


Damit werden es auch bestimmt nicht weniger Wandelanleihen.:biggrin:

Anarchy-HWLUXX
2007-04-26, 08:31:25
Da hat einer aber kräftig Mist gebaut!
Nur wer?
a) Der Benchmarker?
b) Die Ingenieure?
c) Das Treiberteam?

Ich bin gespannt...



hia -


By Anh Huynh -

Before anyone asks, the quality settings for the games were as follows:

Company of Heroes - High shader quality, High model quality, Anti-aliasing enabled (in game), Ultra texture quality, high quality shadows, high quality reflections, Post processing On, High building detail, High physics, high tree quality, High terrain detail, Ultra effects fidelity, Ultra effects density, Object scarring enabled and the model detail slider all the way to the right.

F.E.A.R. - 4x FSAA (in game), maximum light details, shadows enabled, maximum shadow details, soft shadows enabled, 16x anisotropic filtering, maximum texture resolution, maximum videos, maximum shader quality.

Half Life 2: Episode 1 - High model detail, high texture detail, high shader detail, reflect all water details, high shadow detail, 4x multi-sample AA (in-game), 16x anisotropic filtering, v-sync disabled, full high-dynamic range.

Elder Scrolls IV Oblivion – Preset ultra quality settings. The scene used was where you’re at the end of the tunnel and run outside for a little bit.

Gast
2007-04-26, 08:31:33
also das wär ein heftiger schlag ins gesicht!!! aber irgenwie kann ich mir das auch noch nicht so ganz vorstelen. vor allem weil dann eine ultra seitens nvidia eigentlich überflüssig ist...

wie sind denn die werte eines r580 bei diesen spielen?? der r600 wär dann doch "gar nicht mal so viel" schneller als ein 580!?

dildo4u
2007-04-26, 08:37:40
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!
Dazu sollte man noch das anmerken "It's important to note that the GeForce 8800 GTX is a vendor overclocked board that comes shipped with the 650 MHz core clock."

Also es war keine Stock 8800GTX.

dargo
2007-04-26, 08:37:53
also das wär ein heftiger schlag ins gesicht!!! aber irgenwie kann ich mir das auch noch nicht so ganz vorstelen. vor allem weil dann eine ultra seitens nvidia eigentlich überflüssig ist...

Die getestete GTX ist praktisch eine Ultra - 650/1000Mhz. ;)

Die Benchmarks stinken aber trotzdem:

Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 100,3fps

Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 87,9fps

Oblivion - 1920x1200
Radeon HD 2900 XT = 73,4fps
GeForce 8800 GTX = 98,4fps
Radeon HD 2900 XTX = 75,1fps

xL|Sonic
2007-04-26, 08:42:11
Kann doch gar nicht sein das die XTX im Prinzip genauso schnell ist wie die XT. Da ist irgendwas gehörig falsch bei den Tests. Als wenn ATI eine XTX auf den Markt werfen würde, wenn sie nichtmal schneller ist als eine XT.

dildo4u
2007-04-26, 08:42:42
Wundert es keinen das der Coretakt bei der XTX praktisch gleich wie bei der XT ist die XTX könnte vieleicht eine alte OEM REV sein deshalb die noch nicht den finalen XTX Takt schafft.


"Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios. Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance."

seahawk
2007-04-26, 08:43:11
was erwartet ihr bei gleicher GPU-Taktung ?

Dies ist aber sicher keine Retail XTX. Und es ist ja bekannt dass erste Revisionen der XTX erhebliche Performanceprobleme hatte.

dildo4u
2007-04-26, 08:49:58
LOL warum ist denn das eigentliche Board bei der Retail XT länger als bei der XTX. *g*


http://images.dailytech.com/nimage/4560_large_r600xtx_2.jpg

MuLuNGuS
2007-04-26, 08:50:04
voll verkackt ey...

shice, jetzt wird die 8800GTX gar nicht günstiger^^

vielleicht kann sie ja unter DX10 was reissen..
®

xL|Sonic
2007-04-26, 08:50:13
Bei der Performance könnte ATI genauso gut auf eine XTX verzichten.

m.sch
2007-04-26, 08:52:04
also das wär ein heftiger schlag ins gesicht!!! aber irgenwie kann ich mir das auch noch nicht so ganz vorstelen. vor allem weil dann eine ultra seitens nvidia eigentlich überflüssig ist...

wie sind denn die werte eines r580 bei diesen spielen?? der r600 wär dann doch "gar nicht mal so viel" schneller als ein 580!?

Schau mal
hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/#abschnitt_oblivion)

Superheld
2007-04-26, 08:52:21
was benchen die da nur zusammen bei DailyTech:hammer:

Henroldus
2007-04-26, 08:53:59
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!
ich sag nur
Elder Scrolls IV: Oblivion
XTX 87.9
XT 101.4
GTX 110.5
da stimmt also was nicht, ruhig bleiben

dildo4u
2007-04-26, 08:54:02
Bei der Performance könnte ATI genauso gut auf eine XTX verzichten.


"Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios. Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance."

;)

Beim Oblivion Bench haben sie halt mist gebaut eh egal da das Game in der Demo von dailytech eh CPU limitiert ist bis 1600*1200.Ist halt nicht so einfach da man ja bei Oblivion schlecht eine Timedemo aufnehmen kann.

Lawmachine79
2007-04-26, 08:56:06
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm

OMG!
Ich glaube "Maiming" war das englische Wort, was da sehr gut drauf passt.
Freuen wir uns also auf spannende Duelle von ATIs-Topmodell XTX gegen die 88GTS :D

Achja, Edit: pwned ;D

xL|Sonic
2007-04-26, 09:01:52
"Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios. Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance."

;)

Beim Oblivion Bench haben sie halt mist gebaut eh egal da das Game in der Demo von dailytech eh CPU limitiert ist bis 1600*1200.Ist halt nicht so einfach da man ja bei Oblivion schlecht eine Timedemo aufnehmen kann.

Ja nur wird ATI ja wohl schon etwas länger um die Leistung der XTX wissen meinst du nicht? Es war ja eh klar, dass es nicht viele Modelle davon geben wird. Aber wenn die Performance von vornerein nicht besser war als die XTX, wozu hat man sie dann überhaupt im Aufgebot? 1024MB GGDR4 locken doch niemanden hervor und sind reichlich überflüssig.

Lawmachine79
2007-04-26, 09:03:44
1024MB GGDR4 locken doch niemanden hervor und sind reichlich überflüssig.

Naja, es gibt ja auch Low-End Karten mit 256 und 512MB VRAM. Da ist halt mehr Speicher drauf, weil es gut fürs Marketing ist. Numbers sell...
Der R600 hat
- Mehr VRAM
- Größeres SI
- Höher getakteten VRAM
- Moderneren VRAM
- Mehr Streamprozessoren
- Mehr GPU Takt
- und ist die langsamere GPU :D

dildo4u
2007-04-26, 09:05:08
1024MB GGDR4 locken doch niemanden hervor und sind reichlich überflüssig.
Naja ATI bietet halt nix dazwischen an und bei der XT könnten die 512mb hier und da schon knapp werden z.B bei einem Dell 30 Zoll TFT mit 2560*1600 mit AA und AF.

xL|Sonic
2007-04-26, 09:05:19
Nicht wirklich, wenn man dazu keine Balkendiagramme in den Benchmarks anführt. Ist ja eine ganz andere Zielgruppe als Low-End.

Naja ATI bietet halt nix dazwischen an und bei der XT könnten die 512mb hier und da schon knapp werden z.B bei einem Dell 30 Zoll TFT mit 2560*1500.


Da wirst du generell mit Single Karten Lösungen nicht weit kommen. Jemand der so einen Monitor hat mit der Auflösung braucht schon SLI oder Crossfire, alles andere wäre ja albern.

Lawmachine79
2007-04-26, 09:07:16
Naja ATI bietet halt nix dazwischen an und bei der XT könnten die 512mb hier und da schon knapp werden z.B bei einem Dell 30 Zoll TFT mit 2560*1500.
Das ist ja gerade der Punkt - den Ergebnissen zu Folge hat der R600 selbst bei schon erschienenen Spielen nicht die GPU-Power für diese Auflösung - da hilft der Speicher auch nicht weiter.

dildo4u
2007-04-26, 09:07:58
Da wirst du generell mit Single Karten Lösungen nicht weit kommen. Jemand der so einen Monitor hat mit der Auflösung braucht schon SLI oder Crossfire, alles andere wäre ja albern.
Tja nur addieren sich die 512mb bei Crossfire/SLI nicht auf 1GB es sind auch mit zwei Karten nur 512mb nutzbar. ;)

dargo
2007-04-26, 09:10:05
Tja nur addieren sich die 512mb bei Crossfire/SLI nicht auf 1GB es sind nur 512mb nutzbar. ;)
Richtig, daran denkt wieder keiner. Für ein XTX CF sind die 2x 1GB Vram ein Segen.

xL|Sonic
2007-04-26, 09:10:27
Aber nicht, wenn die Grundperformance schon nicht stimmt ;)

James Ryan
2007-04-26, 09:17:56
Sodele, jetzt gibt es Tests zur XTX und es setzt sich fort was mit dem XT-Test begann!
Sollten die Benches stimmen, hat es ATi mit dem R600 versemmelt, da kann man garnichts mehr schön reden.
Die Gf 8800 Ultra ist quasi konkurrenzlos, die XTX bietet außer dem höheren VRam quasi keinen Vorteil zur XT, dies war aber schon länger klar.
NVIDIA hat mit dem G80 scheinbar sehr viel richtig gemacht, ATi kocht auch nur mit Wasser, dies zeigt sich nun recht deutlich!
Glückwunsch an alle G80-Besitzer, ihr habt alles richtig gemacht!


MfG :cool:

Anarchy-HWLUXX
2007-04-26, 09:21:42
RV630 and RV610 production troubles

http://www.fudzilla.com/index.php?option=com_content&task=view&id=698&Itemid=1


Mer haben scho lange die grenze der lächerlichkeit hinter uns gelassen, mich erstaunt nix mehr ...

Wie kann man das deuten ? Genug für den Launch und Retail verfügbarkeit aber nicht für OEMs ... hmm.

James Ryan
2007-04-26, 09:23:59
Wundert es keinen das der Coretakt bei der XTX praktisch gleich wie bei der XT ist die XTX könnte vieleicht eine alte OEM REV sein deshalb die noch nicht den finalen XTX Takt schafft.


"Two independent ATI board builders told DailyTech that Radeon HD 2900 XTX will not be a part of their initial portfolios. Given the additional memory cost and bulky card footprint, it seems unlikely the XTX will ever see the light of day given its current performance."

Toll, lass die Retail-XTX noch ein paar MHz mehr haben, das wird auch nichts mehr großartig reißen können!

MfG :cool:

Superheld
2007-04-26, 09:26:31
"We had a copy error on the 1600x1200 Oblivion benchmark (it was the same as the 1280x1024 row). That is corrected now."
alles klar;D

Grumbart
2007-04-26, 10:04:04
Sollten die Benches stimmen, hat es ATi mit dem R600 versemmelt, da kann man garnichts mehr schön reden.

?

Mal von der XTX abgesehen, steht die 2900XT gegen die 8800GTS eigentlich ganz gut da, da beide wohl im gleichen Preisegment auf Kundenfang gehen.

Laut den Benches ist die XTX z.T. deutlich hinter der XT... da kommen doch schonmal berechtigte Zweifel hoch

DrumDub
2007-04-26, 10:08:30
die echte xtx hat man ja bisher gar nicht zu gesicht bekommen.

James Ryan
2007-04-26, 10:10:18
?

Mal von der XTX abgesehen, steht die 2900XT gegen die 8800GTS eigentlich ganz gut da, da beide wohl im gleichen Preisegment auf Kundenfang gehen.

Laut den Benches ist die XTX z.T. deutlich hinter der XT... da kommen doch schonmal berechtigte Zweifel hoch

Eine GTS gibt es für 325€, die XT für 380€. Sorry, aber die XT wird gegen die GTX ran müssen, die XTX dann gegen die Ultra.
Und mit versemmelt meinte ich: 7 Monate später, Wahnsinnsaufwand (1 GB Ram, 512 Bit SI, 80nm) und trotzdem nicht besser.

MfG :cool:

dildo4u
2007-04-26, 10:11:34
?

Mal von der XTX abgesehen, steht die 2900XT gegen die 8800GTS eigentlich ganz gut da, da beide wohl im gleichen Preisegment auf Kundenfang gehen.

Also die 8800GTS mit 640mb liegt schon bei 320€ bis die XT da ankommt vergehen noch locker 2 Monate.

http://geizhals.at/deutschland/a224906.html

xL|Sonic
2007-04-26, 10:12:54
Noch ist die XT doch gar nicht verfügbar, woher wollt ihr da die Straßenpreise ablesen können?

Gast
2007-04-26, 10:13:49
Ein Großteil der Leute würden mMn trotzdem zu XT greifen weil Sie eben kein "Kastrat" ist

dildo4u
2007-04-26, 10:15:38
Ein Großteil der Leute würden mMn trotzdem zu XT greifen weil Sie eben kein "Kastrat" ist
Und vielen sind 512mb zu wenig weil die hatte sie schon bei ihrer alten Karte alles Marketing Argumente die hier den Ausschlag geben könnten.

Grumbart
2007-04-26, 10:15:50
Noch ist die XT doch gar nicht verfügbar, woher wollt ihr da die Straßenpreise ablesen können?

So ist es. bis Mitte Mai dauerts noch bisserl.

Moralelastix
2007-04-26, 10:16:33
Ein Großteil der Leute würden mMn trotzdem zu XT greifen weil Sie eben kein "Kastrat" ist

Jupp incl. Heißluftföhn!

sun-man
2007-04-26, 10:37:36
Bleibt die Frage wie lange AMD sich das noch gefallenlassen möchte.
Die Benches sehen alles andere als überragend aus, auch wenn man keine näheren Hintergrundinfos hat.
NDA + alles weitere Mitte Mai + 600Mio Verlust + Investorsuche.....vielleicht sollte man langsam mal den Arsch von der Wand bekommen um wieder etwas Luft zu haben?

In der Ruhe mag die Kraft liegen.....wenn einem die Puste aus geht wird das aber auch nicht besser.