PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 2


Seiten : 1 2 [3] 4 5

Gast
2006-12-18, 13:57:07
zum anderen kann man das Speicherinterface erstmal auch für kommende Refresh-Chips unangetastet lassen.
Das kann man auch mit 384 Bit unangetastet lassen.

Ailuros
2006-12-18, 16:12:20
Im Grunde sollte der r600 wohl einem 1.5xr580 entsprechen.
24 Bi-Samples, 24 Rops, 64 ALUs, 8xMSAA.
Dazu hohe Taktraten und ein Stromverbrauch, der wohl leicht über dem vom G80 liegt.

LovesuckZ

Wo steht was von 24 ROPs? Denk mal ganz scharf nach. Xenos hat 8 die ueber 32c/64z faehig sind. Wie waere es mit weniger? ;)

dargo
2006-12-18, 16:12:27
Also momentan ist Oblivion mit FEAR das Mass der Dinge würde ich behaupten. Kennst du sonst noch ein Spiel das superbe Grafik mit FP16 HDR+AA zu lässt?

Ja, natürlich. Das von mir genannte Call of Juarez.

Was soll Dir die CPU noch ausmachen in 2048 mit AA? Es ist ein FX-53 und ich unterliege in der Aufloesung einem ~3.0GHz Core 2 Duo zwischen 2 und 5% je nach Fall.

Zuerst gab ich Fear Resultate die nicht genug waren, dann Oblivion ist anscheinen auch nicht ausprechend....errr ja wenn ich Zeit genug haette wuerde ich gleich ein ganzes Review darueber schreiben. Sei froh dass ich ueberhaupt die Zeit fuer das Zeug hatte.

Jetzt spiel doch nicht gleich die beleidigte Wurst. :)
Du hast mir Ergebnisse geliefert und schon ist die Sache für mich erledigt. Danke nochmal dafür.

Ailuros
2006-12-18, 16:14:50
Von Messungenauigkeiten abgesehen heißt es, dass man die ganze Nummer nochmal mit 20% weniger Speichertakt testen müsste, um zu sehen, ob der Drop bei 15% bleibt. Tut er das, dann ist die Karte in diesem Fall auf 15% Mehrperformance des Speichers angewiesen.

Als nebensaechliche Warnung: wenn man den Speicher von default untertaktet sind die Resultate nutzlos da die Latenz nicht dementsprechend angepasst werden kann.

Gast
2006-12-18, 16:29:00
Wo steht was von 24 ROPs? Denk mal ganz scharf nach. Xenos hat 8 die ueber 32c/64z faehig sind. Wie waere es mit weniger? ;)

Nach deiner Ansicht sind es dann 12 ROPs wenn der R600 auch 24 TMUs verfügt.
(Nach Xenos ROP:TMU-Verhältnis, also 1:2)
Falls er genau 1 zu 1 hat, dann könnte der R600 auch 64 ALUs haben(welche es genau sind, wage ich zu bezweifeln) und somit 16 ROPs und 16 TMUs.(Aber nur bei einem 1:1 Verhältnis)

Was bringt eigentlich das "32c/64z" im Vergleich zu R5x0 ROPs?

Ailuros
2006-12-18, 16:33:24
Ich hab mich nur auf die ROPs bezogen und nein 12 sind es nicht. Sonst wuerde ich sagen dass es unangenehm warm wurde nach dem lesen des restlichen Posts :D

Was bringt eigentlich das "32c/64z" im Vergleich zu R5x0 ROPs?

Single cycle 4xMSAA vielleicht? ;)

Gast
2006-12-18, 16:38:28
Ich hab mich nur auf die ROPs bezogen und nein 12 sind es nicht. Sonst wuerde ich sagen dass es unangenehm warm wurde nach dem lesen des restlichen Posts :D



Single cycle 4xMSAA vielleicht? ;)

Single cycle 4xMsaa ist nett...^^
Der Rest sagt schon alles^^

Gast
2006-12-18, 16:46:27
Mit 16 4xAA-ROPs wird's aber auch noch mächtig knapp. Da müssten echt schon 800 MHz her, um den G80 zu schlagen. Dazu vielleicht noch 16 Tri-TMUs (oder die Nvidia-Version: 1:2 Address/Filter) und 48-64 Vec4+1-Shader.

Was so ein Teil dann aber mit mehr als 90 GB/s Bandbreite großartig anfangen soll, ist mir schleierhaft. Es sei denn, Ati hat bei der AA-Kompression gespart (gegenteiliger Weg von Nv) und will das über die Bandbreite wieder rausholen (wäre IMO eine schlecht Entscheidung, da sie so die Marge mit Samsung teilen müssten, anstatt sie allein einzustreichen).


Q

StefanV
2006-12-18, 17:16:03
Hat ATI nicht traditionell eher eine bessere FSAA Kompression als nV Gehabt??
Oder hatte nV sowas garnicht bei den nV4x Teilen??

Gast
2006-12-18, 17:50:21
Hat ATI nicht traditionell eher eine bessere FSAA Kompression als nV Gehabt??
Oder hatte nV sowas garnicht bei den nV4x Teilen??
Bezug??

Gast
2006-12-18, 17:55:31
Da 512bit mehr Sinn mit 1GB Framebuffer machen kann es durchaus sein dass in ein paar extremen Faellen dieser einen Unterschied zeigen koennten; dann schreien natuerlich alle "Bandbreite".

Uebrigens und bitte mit grosser Vorsicht lesen:

http://www.beyond3d.com/forum/showpost.php?p=893172&postcount=1671

Einiges stimmt und einiges eben nicht. Die Chinesen leaken eben wieder mal zu frueh zu viel raus.

Hm is ein bissl wurstig das gequotete aber es trifft wohl den Kern der Sache. Der R600 ist auf Raw-Power ausgelegt, während der G80 durch Effizienz ebenfalls zum gleichen Ergebnis kommt.
Und die Gigaherz Zahlen die immer wieder auftauchen sind sicher für den Speicher gedacht und wurde einfach nur verwechselt. Wenn der R600 nur eine Taktdomäne hat, wie soll denn eine Einheit im Chip anders getaktet sein, es sei denn sie ist DoublePumped.

Gast
2006-12-18, 18:01:03
Hat ATI nicht traditionell eher eine bessere FSAA Kompression als nV Gehabt??
Oder hatte nV sowas garnicht bei den nV4x Teilen??

Afaik war das nicht die Kompression sondern etwas anderes das den Framebuffer Verbrauch vergrößerte. Ich weiß allerdings nicht mehr wie es sich nennt, nur das in 1280*1024 bei 4xAA der NV40 ca. 20MB mehr Graka Ram verbraten hat als ein R420.

Gast
2006-12-18, 18:01:55
Filter@Scanout. Eine von 3dfx übernommene Technik.

Ailuros
2006-12-18, 18:05:14
Mit 16 4xAA-ROPs wird's aber auch noch mächtig knapp. Da müssten echt schon 800 MHz her, um den G80 zu schlagen. Dazu vielleicht noch 16 Tri-TMUs (oder die Nvidia-Version: 1:2 Address/Filter) und 48-6 Vec4+1-Shader.

Fuer was steht 48-6? (ehrliche Frage)

Was so ein Teil dann aber mit mehr als 90 GB/s Bandbreite großartig anfangen soll, ist mir schleierhaft. Es sei denn, Ati hat bei der AA-Kompression gespart (gegenteiliger Weg von Nv) und will das über die Bandbreite wieder rausholen (wäre IMO eine schlecht Entscheidung, da sie so die Marge mit Samsung teilen müssten, anstatt sie allein einzustreichen).


Q

Tja die Frage stelle ich ja schon seit einiger Zeit; eine Antwort dafuer gibt es bis jetzt natuerlich nicht.

Gast
2006-12-18, 18:12:38
Fuer was steht 48-6? (ehrliche Frage)
Für meinen Vertipper. Eigentlich hätte es 48 bis 64 (48-64) heissen sollen. ;)
Ich vermute mal eher 64 und damit wäre eine "Pro"- oder "XT ohne X"-Version mit einem Block weniger auch gleich gesichert.

Tja die Frage stelle ich ja schon seit einiger Zeit; eine Antwort dafuer gibt es bis jetzt natuerlich nicht.
Naja, bis auf das Marketing, welches die Zahl dann auf den Karton drucken kann, fällt vielen halt kaum ein echtes Argument ein. Aber ich finde die Raterei auch schwierig: Einerseits hat sich AMD/Ati mit dem GDDR4-Hype bei der X1950 selbst in Zugzwang gesetzt, andererseits diese angebliche Bestätigung von 512 Bit - an die ich, wie schon dargelegt, nicht so ganz glauben mag. Denn beim kleinsten GDDR4-Speedgrade wären das schon 128 GByte/s und das erscheint mir ehrlich gesagt zuviel, es sei denn, der R600 ist deutlich leistungsfähiger als bisher angenommen.


Q

Ailuros
2006-12-18, 18:20:01
Log into MSN ;)

Gast
2006-12-18, 18:31:15
Wenn ich zuhaus bin ;)

Armaq
2006-12-18, 18:37:07
Als nebensaechliche Warnung: wenn man den Speicher von default untertaktet sind die Resultate nutzlos da die Latenz nicht dementsprechend angepasst werden kann.

Das habe ich nicht bedacht. Wie stark ist deren Einfluss?

Fest steht doch, dass bis auf seltenste Fälle, die Speicheranbindung nicht das Hauptproblem darstellt, sondern ein stark zu optimierende Kategorie bildet, die vor allem Skalierbarkeit und Preis-Leistung des Endproduktes bestimmt.

crux2005
2006-12-18, 19:03:23
Uebrigens und bitte mit grosser Vorsicht lesen:

http://www.beyond3d.com/forum/showpost.php?p=893172&postcount=1671

Einiges stimmt und einiges eben nicht. Die Chinesen leaken eben wieder mal zu frueh zu viel raus.

und was stimmt nicht ? :biggrin:

Gast
2006-12-18, 19:35:49
Single cycle 4xMsaa ist nett...^^
Der Rest sagt schon alles^^

ja wasdenn?Bitte erkläre es uns,mir sagt das garnichts.^^

Ailuros
2006-12-18, 19:45:34
und was stimmt nicht ? :biggrin:

Ein Beispiel waere dass der Author behauptet dass 4D und 1D Instruktionen nicht gemischt werden koennen.

Gast
2006-12-18, 19:48:56
Ein Beispiel waere dass der Author behauptet dass 4D und 1D Instruktionen nicht gemischt werden koennen.

Ach ein Universal R600.:eek:

StefanV
2006-12-18, 19:51:37
ja wasdenn?Bitte erkläre es uns,mir sagt das garnichts.^^
'alte' Radeons müssen für >2x MSAA loopen, sind also nur zu 'Single Cycle 2x MSAA' fähig.

LovesuckZ
2006-12-18, 19:51:48
Xenos hat 8 die ueber 32c/64z faehig sind.

Wie gut sind die G80 ROPs?
Soweit ich mich eingelesen habe, schaffen die 24 Stück bei Z Dingsbum 192 Samples pro Takt und mit 4xMSAA 48z. Wieviel c Samples schaffen sie pro Takt?

crux2005
2006-12-18, 19:55:45
X2800 screenshots ? :confused:

http://img.hexus.net/v2/pipelines/steve/171206/radeon.jpg

http://img.hexus.net/v2/pipelines/tarinder/201106/03.jpg

http://forums.hexus.net/showthread.php?t=94204

deekey777
2006-12-18, 19:56:49
Ein Beispiel waere dass der Author behauptet dass 4D und 1D Instruktionen nicht gemischt werden koennen.
Ergänzend: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5077873#post5077873
G80 in the 128 scalar processors not only would be able to handle VS+PS flow. GS can also dispose of instructions and directives physics, the most perfect and powerful unity spotted! XBOX360 C1 can only handle 96 threads, R-520 and R580 can handle 512-thread, G80
Der Xenos schafft nur 96 Threads? Stimmt das?
Wobei anzumerken bleibt, dass die R5x0-Threads untershiedlich gr0ß sind: 16 vs. 48 (hat nichts mit der Anzahl der ALUs zu tun, auch die X1300 ackert an 4x4-Threads wie der R520 oder X1600 an 4x12-Threads).

Gast
2006-12-18, 19:57:09
X2800 screenshots ? :confused:



Könnte auch ne ASUS EAX X1950 PRO sein.:D

Ailuros
2006-12-18, 20:01:27
Wie gut sind die G80 ROPs?
Soweit ich mich eingelesen habe, schaffen die 24 Stück bei Z Dingsbum 192 Samples pro Takt und mit 4xMSAA 48z. Wieviel c Samples schaffen sie pro Takt?

http://www.beyond3d.com/reviews/nvidia/g80-arch/images/g80-diag-full.png

LovesuckZ
2006-12-18, 20:02:20
http://www.beyond3d.com/reviews/nvidia/g80-arch/images/g80-diag-full.png

Manchmal ist es wirklich zu einfach, auf die richtige Lösung bzw. auf dem Lösungort zu kommen.
Vielen Dank. :)

w0mbat
2006-12-18, 20:36:18
X2800 screenshots ? :confused:
[...]

Ne...

http://img120.imageshack.us/img120/5993/03ed5.jpg

Gast
2006-12-18, 20:44:34
Ne...

http://img120.imageshack.us/img120/5993/03ed5.jpg

Ne passt nicht da bei seinem screen nurr eine rhöre ist bei denem pro seite zwei die bildchen sind nicht gleich

Ailuros
2006-12-18, 20:47:22
Αlso das Kuehlungssystem in meinem Karren sieht moderater aus, falls das Bild echt sein sollte LOL :biggrin:

Gast
2006-12-18, 20:52:44
Αlso das Kuehlungssystem in meinem Karren sieht moderater aus, falls das Bild echt sein sollte LOL :biggrin:Naja WEN es echt ist wird das sicher eine alpha/beta karte sein um den chip zu testen oder das pcb.
Die ersten tapes haben ja noch ziemliche takt/hitze probs gehabt somit wäre es unter umständen möglich das es echt ist aber halt kein finale layout

deekey777
2006-12-18, 20:54:09
Αlso das Kuehlungssystem in meinem Karren sieht moderater aus, falls das Bild echt sein sollte LOL :biggrin:
Zumindest würde das Teil bei mir nicht den nächsten PCI-Slot blockieren.
Sodern den PCIe1x und den AGP darunter.
Zu den angeblichen R600-Bildern: Da ich keinen Zugriff auf das Hexus-Forum habe, muss ich mich auf die Äußerungen anderer vertrauen:
http://www.beyond3d.com/forum/showthread.php?p=893629#post893629

kami
2006-12-18, 20:57:01
Das Bild da oben ist von 'ner passiven PowerColor X1950 Pro bzw. XT.

Siehe auch hier (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/dezember/passive_x1950_pro_xt_2007/).

Gast
2006-12-18, 20:57:13
XBOX360 C1 can only handle 96 threads, R-520 and R580 can handle 512-thread, G80
Der Xenos schafft nur 96 Threads? Stimmt das?
Wobei anzumerken bleibt, dass die R5x0-Threads untershiedlich gr0ß sind: 16 vs. 48 (hat nichts mit der Anzahl der ALUs zu tun, auch die X1300 ackert an 4x4-Threads wie der R520 oder X1600 an 4x12-Threads).
96 Threads wären in einer Konsole absolut unproblematisch, würde ich sagen.

Und zu den Threads: Pro Pixel-Prozessor sind es 128 - egal welcher Rx5xx.

Ailuros
2006-12-18, 21:15:53
Naja WEN es echt ist wird das sicher eine alpha/beta karte sein um den chip zu testen oder das pcb.
Die ersten tapes haben ja noch ziemliche takt/hitze probs gehabt somit wäre es unter umständen möglich das es echt ist aber halt kein finale layout

Hartware.net hat das Ding auf der Hauptseite.

Gast
2006-12-18, 22:38:05
Hartware.net hat das Ding auf der Hauptseite.Hihi jo gerade geschaut guck auf der page schon lang nicht mehr!
Aber nicht schlecht leichte erhöhung des taktes und ich spar den grill den mein frau sich wünscht^^

Najo war auch zu erwarten das es ein fake ist ich gehe auch von ner komerz lüftung aus.

Ailuros
2006-12-18, 22:52:33
Hihi jo gerade geschaut guck auf der page schon lang nicht mehr!
Aber nicht schlecht leichte erhöhung des taktes und ich spar den grill den mein frau sich wünscht^^

Najo war auch zu erwarten das es ein fake ist ich gehe auch von ner komerz lüftung aus.

Zweiter newsblurb (momentan) von oben:

http://www.hartware.de/news_41232.html

Gast
2006-12-18, 22:54:51
Hihi jo gerade geschaut guck auf der page schon lang nicht mehr!
Aber nicht schlecht leichte erhöhung des taktes und ich spar den grill den mein frau sich wünscht^^

Najo war auch zu erwarten das es ein fake ist ich gehe auch von ner komerz lüftung aus.Nachtrag das bild auf hartware zeigt auch zwei pipes pro seite.
Das bild von crux2005 nur eine pro seite als nicht gleich könnten natürlich 2 verschiedene revisionen des kühlers sein aber eben nicht gleich

AnarchX
2006-12-19, 06:53:16
R600 mit grünem PCB
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f169%2f169233.shtml

seahawk
2006-12-19, 06:53:44
Da die Karte länger als der Kühler ist dürfte es keine R600 sein.

Gast
2006-12-19, 15:51:22
Da ist doch gar kein Bild von der Karte zu sehen? -.-

StefanV
2006-12-19, 16:15:18
Richtig, da ist nur 'ne 8800GTX mit grünem PCB zu sehen, keine R600.

Steht aber auch auf dem Kühler der Karte drauf ;) ;)

Gast
2006-12-19, 16:18:01
Och das war wohl Anarchrx traum eine Ati mit grünen Pcb zu sehen.;)

Coda
2006-12-19, 16:21:41
Und wenn das Ding rosa mit grünen Punkten ist: Mir wärs egal.

Black-Scorpion
2006-12-19, 16:52:51
Naja, Rosa muß nicht unbedingt sein. ;)

Aber selbst wenn die Karten jetzt ein grünes PCB bekommen sollten ist das auch kein Problem.
Warum auch, waren ja vorher auch jahrelang grün.

Gast
2006-12-19, 17:08:37
Och das war wohl Anarchrx traum eine Ati mit grünen Pcb zu sehen.;)Bunte bildchen sind ja fein aber versuchs mal mit lesen;)

AMD will be able to reveal on card R600in next generationto use green PCB— — Because AMD Logo is a green.

StefanV
2006-12-19, 17:12:25
Naja, Rosa muß nicht unbedingt sein. ;)
Was hast gegen Rosa?
Ich find die Farbe geil und würd mir etwas allein schon aus dem Grunde kaufen, das es die Farbe Rosa hat :devil:

Aber selbst wenn die Karten jetzt ein grünes PCB bekommen sollten ist das auch kein Problem.
Warum auch, waren ja vorher auch jahrelang grün.
Nunja, damals waren nur alle PCBs grün, bis auf die die gelb/braun waren...

Gast
2006-12-19, 18:15:59
Was hast gegen Rosa?
Ich find die Farbe geil und würd mir etwas allein schon aus dem Grunde kaufen, das es die Farbe Rosa hat :devil:

Nunja, damals waren nur alle PCBs grün, bis auf die die gelb/braun waren...

Oder schwarz oder blau oder so... also fast alle, bis auf die grünen eben. Die waren auch grün.

Ailuros
2006-12-19, 19:46:35
Was hast gegen Rosa?
Ich find die Farbe geil und würd mir etwas allein schon aus dem Grunde kaufen, das es die Farbe Rosa hat :devil:



Wie waere es stattdessen mit einem netten Regenbogen? :devil:

StefanV
2006-12-19, 20:10:35
Wie waere es stattdessen mit einem netten Regenbogen? :devil:
Naa, darauf steh ich nun wirklich nicht, ich mag nur männliche Schokoriegel ;)

PS: Rosa ist auch erst seit den 60ern oder so eine 'Mädchenfarbe'...

€dit:
Lieber spät als nie aber hier ein Link (http://en.wikipedia.org/wiki/Pink#Pink_in_human_culture)

Gast
2006-12-19, 21:48:03
ach ihr seid so witzig..............nicht

Ailuros
2006-12-20, 00:24:31
Naa, darauf steh ich nun wirklich nicht, ich mag nur männliche Schokoriegel ;)

PS: Rosa ist auch erst seit den 60ern oder so eine 'Mädchenfarbe'...

€dit:
Lieber spät als nie aber hier ein Link (http://en.wikipedia.org/wiki/Pink#Pink_in_human_culture)

Na der Link hilft jetzt aber wirklich nicht.... #5 unter "Pink in gender and sexuality" LOL :biggrin:

Snoopy1978
2006-12-20, 11:11:13
Aber bitte noch aufpassen das die Farbe des Kühlers noch zum PCB passt, zu Rosa würde ich violett empfehlen.
Jetzt mal ne ernsthafte Frage.
Es wurde berichtet das Ati für ihre R600 Herdplatte eine neue Kühlung entwickelt die irgendwas mit Nano-Kühltechnik zu tun hat.
Was genau darf man sich denn darunter vorstellen?

dargo
2006-12-20, 11:18:02
Es wurde berichtet das Ati für ihre R600 Herdplatte eine neue Kühlung entwickelt die irgendwas mit Nano-Kühltechnik zu tun hat.
Was genau darf man sich denn darunter vorstellen?
Gar nichts. Es wird afaik ganz normaler Luftkühler mit 4 Heatpipes werden.
Soll angeblich bis zu 250W abführen können. Was ich aber nicht wirklich glauben mag. Wenn die GPU des R600 schon 90W verbraten soll müsste die GPU-Temp. bei (ich sag jetzt einfach mal) ~50°C liegen wenn der Kühler bis zu 250W schaffen soll. :D

Ok, die Verlustleistung der Speicherchips und Spannungswandler habe ich jetzt mal außen vorgelassen.

GanjaBob
2006-12-20, 11:28:43
Gibt's eigentlich schon irgendwelche infos wie die karten mit r600 dann heißen werden? "X2000" o.ä.?

Gast
2006-12-20, 12:20:49
Gibt's eigentlich schon irgendwelche infos wie die karten mit r600 dann heißen werden? "X2000" o.ä.?
Jo, sehr wahrscheinlich X2000er Serie. Aber Namen sind nur was für Grabsteine, baby. ^^

Snoopy1978
2006-12-20, 13:27:32
Oder die nennen ihr neustes Wunderwerk Xaveon statt Radeon.
Im Frühjahr 2005 als munter über den R520 gemutmaßt wurde, tauchte dieser Name ja mal auf.

Hvoralek
2006-12-20, 14:12:21
Man könnte nun, mit D3D10, auch wieder zum alten Schema zurückkehren und das Ding "Radeon 10xxx"- Serie nennen. Aber bei der nächsten Generation gibt es sicher noch kein D3D11, insofern hätte man dann dasselbe Problem wie bei den Xxxxern wieder.

Nein, ziemlich sicher X2xxx.

Gast
2006-12-20, 14:21:35
Gar nichts. Es wird afaik ganz normaler Luftkühler mit 4 Heatpipes werden.
Soll angeblich bis zu 250W abführen können. Was ich aber nicht wirklich glauben mag. Wenn die GPU des R600 schon 90W verbraten soll müsste die GPU-Temp. bei (ich sag jetzt einfach mal) ~50°C liegen wenn der Kühler bis zu 250W schaffen soll. :D


wenn der lüfter mit 10000U/min dreht nicht unmöglich ;)

nur wird man diesen wohl hoffentlich nicht im realen betrieb so weit aufdrehen ;)

Black-Scorpion
2006-12-20, 14:37:19
Man könnte nun, mit D3D10, auch wieder zum alten Schema zurückkehren und das Ding "Radeon 10xxx"- Serie nennen. Aber bei der nächsten Generation gibt es sicher noch kein D3D11, insofern hätte man dann dasselbe Problem wie bei den Xxxxern wieder.

Nein, ziemlich sicher X2xxx.
Das X ist doch schon die 10.
Was sollte sich daran ändern. ;)

Hvoralek
2006-12-20, 15:19:54
Das X ist doch schon die 10.
Was sollte sich daran ändern. ;)Hat man nicht damals auf eine arabische "10" verzichtet, weil man kein "DX10" vorweisen konnte (abgesehen von den Radeon 92xx- Modellen stimmt ja bei allen vorherigen Radeons die erste Ziffer der Modelnummer mit der unterstützten DX- Version überein)?

Black-Scorpion
2006-12-20, 17:01:02
Keine Ahnung.
Aber ob da nun eine 10 oder ein X steht dürfte egal sein.
Das eine ist die arabische 10 und das andere die römische 10.
Es kann nätürlich auch sein das ATI alle verar**** hat und das sit wirklich ein X.

Moralelastix
2006-12-20, 17:59:26
Was hast gegen Rosa?
Ich find die Farbe geil und würd mir etwas allein schon aus dem Grunde kaufen, das es die Farbe Rosa hat :devil:

Nunja, damals waren nur alle PCBs grün, bis auf die die gelb/braun waren...

Ich hätt gern ein transparentes PCB.:biggrin:

Das wär doch mal was richtig neues!

Hvoralek
2006-12-20, 20:14:41
Keine Ahnung.
Aber ob da nun eine 10 oder ein X steht dürfte egal sein.
Das eine ist die arabische 10 und das andere die römische 10.
Es kann nätürlich auch sein das ATI alle verar**** hat und das sit wirklich ein X.Wenn das X eine röm. 10 sein soll, warum hießen die Vorgänger dann nicht "Radeon IX800" usw? ;)

Nein, das könnte natürlich so sein. Aber warum sollte man plötzlich zT auf römische Ziffern umstellen? Mit einer arabischen 10 hätte man zwar fünfstellige Modellnummern gehabt, aber wo wäre da das Problem? Ein Längenvorteil bei den Modellnummern wäre doch sicher ein nettes Spielzeug für das Marketing gewesen :biggrin:

Aber das ist hier OT. Für R6xx tippe ich weiterhin auf X2xxx.

Gast
2006-12-20, 23:55:36
warum nicht einfach "Radiator", hat ähnlichkeit zum alten Namen, klingt brutal und hat eine ähnliche Heizleistung :)

Coda
2006-12-21, 01:57:53
Wenn das X eine röm. 10 sein soll, warum hießen die Vorgänger dann nicht "Radeon IX800" usw? ;)

Weil Radeon 10800 einfach scheiße aussieht 9800 aber nicht?

Gast
2006-12-22, 09:47:33
Weil Radeon 10800 einfach scheiße aussieht 9800 aber nicht?
Geschmackssache. :P

R600 specs:
512bit SI
1024 MB GDDR4 1200 Mhz
767 Mio Transistoren
USC Second Generation
725 Mhz Coreclock

Gast
2006-12-22, 10:36:12
Geschmackssache. :P

R600 specs:
512bit SI
1024 MB GDDR4 1200 Mhz
767 Mio Transistoren
USC Second Generation
725 Mhz Coreclock

Kannst du bitte noch die quelle angeben

Gast
2006-12-22, 10:36:47
Kannst du bitte noch die quelle angeben
das bin ich :naughty: ^^

Winter[Raven]
2006-12-22, 12:31:28
Könnten stimmen... Wobei ich wirklich zu gern wissen würde wofür AMD 512 Bit SI nützen will.

Gast
2006-12-22, 12:43:28
man möchte annehmen um daten in den ram zu schaufeln

Ailuros
2006-12-22, 13:43:59
Geschmackssache. :P

R600 specs:
512bit SI
1024 MB GDDR4 1200 Mhz
767 Mio Transistoren
USC Second Generation
725 Mhz Coreclock

Anzahl der ALUs/ROPs/TMUs und die Faehigkeiten jeder Einheit? Denn das obrige ist so generell dass es fast gar nichts aussagt.

man möchte annehmen um daten in den ram zu schaufeln

Dann braucht aber die Schaufel so manche extra Anpassungen, denn je breiter der Bus desto mehr nutzlose Daten werden gelesen. Bei bekloppter Lese-Effizienz kann es sogar vorkommen dass man mehr Bandbreite verbratet als am Ende spart.

Nur ganz so nebenbei mit ein bisschen Phantasie kann man schon die Antwort wenigstes zu einer Anzahl der Einheiten oben finden; man muss sich nur ausdenken koennen wie viele ring stops :P

Armaq
2006-12-22, 14:34:02
Bandbreite verbrät. Verbratet klingt pervers.

Gast
2006-12-22, 15:04:11
ring stops:rinbus controller oder..

LovesuckZ
2006-12-22, 18:00:41
Nur ganz so nebenbei mit ein bisschen Phantasie kann man schon die Antwort wenigstes zu einer Anzahl der Einheiten oben finden; man muss sich nur ausdenken koennen wie viele ring stops :P

32-Bit Unterteilung mit je einer ROP?
Macht 16, klingt nicht unlogisch, jedenfalls besser als die 32, die in anderen Foren rumschwirren.

Gast
2006-12-22, 18:06:50
Zuwenig bei 725MHz meiner Meinung nach, Raw Fillrate Power brauchs halt für hohe Auflösungen in der sich R600 messen lassen müssen wird. Da nützt einem eine hohe GFLOP Zahl nicht weiter.

AnarchX
2006-12-22, 18:40:48
ATI: DX10 erst ab Mitte 2007 für die meisten interessant
Demand for DirectX 10-class graphics cards won't pick up until the second half of next year, according to Edward Chow, AMD's Graphics Marketing Director for the Asia-Pacific region. Nvidia's DirectX 10-compatible GeForce 8800-series graphics cards have been out for a few weeks now, but Chow seems to suggest ATI isn't too worried about not having a competing product out just yet. He claims the graphics market will "stay put" in the first half of 2007, and that only once the first DirectX 10 titles come out in the second part of the year will demand take off.
http://techreport.com/onearticle.x/11493

Wie erwartet wird man wohl erst zu diesem Zeitpunkt ATI's non-Highend-Karten sehen.

seahawk
2006-12-22, 18:54:12
32-Bit Unterteilung mit je einer ROP?
Macht 16, klingt nicht unlogisch, jedenfalls besser als die 32, die in anderen Foren rumschwirren.
Und das deutet dann auf 64 ALUs 4:1 halt.

Gast
2006-12-22, 18:55:50
8 Rops --> 64bit Unterteilung?!

Odal
2006-12-22, 19:09:11
naja recht haben sie ja...DX10 ist bis dahin praktisch völlig uninteressant....

wenn der R600 wirklich ähnlich schnell oder gar schneller wie der G80 wird kann man immer noch im upper Mainstream die X1950XT bzw. X1900XT verticken

seahawk
2006-12-22, 19:13:40
Neues aus dem Rage3D forum :

According to what my friend said, it's gonna be a small % faster in current-gen games, and much, much faster in nextgen game engines. From his description, although he didn't give a number, I'd guess at least 50% faster in dx10 engines.

maybe I shouldn't say this, but I will anyway. Apparently, nvidia wasn't really planning on making the g80 a fully compliant dx10 part, and they weren't going to do unified shaders at all, but rather just have a ton of non-unified shaders. So somewhere around mid summer, m$ told 'em they had to have unified shaders, and so they quickly threw it together. Apparently, the g80's unified shader solution is pretty ugly, and is going to have significant performance handicaps in comparison to the r600, which was designed to be fully dx10 compliant from the beginning.

Anyway, I'm not gonna say anything more, although I really really want to. Suffice it to say that my friend, who's traditionally an nvidiot, is totally convinced that this year's graphics card wars are gonna look just like the radeon 9800 vs. the geforce fx line.

Wer das glaubt ... ;)

AnarchX
2006-12-22, 19:17:33
naja recht haben sie ja...DX10 ist bis dahin praktisch völlig uninteressant....


D3D10 vielleicht, aber nicht die US-Architektur, welche die D3D10-GPUs mit sich bringen, aus dieser zieht man auch schon bei D3D9 Titel doch Vorteile(z.B. Oblivion).;)

desert
2006-12-22, 19:17:53
also will ja nicht unken, aber wenn die nicht bald den r600 rausbringen, dann sieht es echt düster aus für ati, die geforce7 verkauft sich wie geschnitten brot und die x1900 hinkt gewaltig hinterher. die haben keine zeit um abzuwarten mit ihrer midrange, bis ende januar muss alles vorgestellt sein, sonst sehe ich schwarz.

Mal ein bischen was zur untermauerung:

Cards which default to DirectX 9 Shader Model 3 Path on Source (228420 of 573706 Total Users (39.81% of Total) )
NVIDIA GeForce 6600 55,527 24.31 %
NVIDIA GeForce 6800 30,001 13.13 %
NVIDIA GeForce 7600 21,493 9.41 %
NVIDIA GeForce 7800 20,432 8.94 %
NVIDIA GeForce 7900 17,157 7.51 %
NVIDIA GeForce 6200 14,685 6.43 %
ATI Radeon X1600 11,097 4.86 %
NVIDIA GeForce 7300 8,689 3.80 %
ATI Radeon X1900 7,060 3.09 %
ATI Radeon X1300 5,842 2.56 %
NVIDIA GeForce 7950 5,355 2.34 %
ATI Radeon X1800 3,169 1.39 %
NVIDIA GeForce 6100 3,155 1.38 %
ATI Radeon X1950 2,118 0.93 %
NVIDIA GeForce Go 7600 2,044 0.89 %
ATI Mobility Radeon X1600 2,012 0.88 %
NVIDIA GeForce 6150 1,994 0.87 %
ATI Mobility Radeon X1400 1,758 0.77 %
NVIDIA GeForce 8800 1,626 0.71 %
NVIDIA GeForce Go 6800 1,521 0.67 %
NVIDIA GeForce Go 7900 1,372 0.60 %
NVIDIA GeForce 6700 XL 1,240 0.54 %
NVIDIA GeForce Go 7400 1,216 0.53 %
NVIDIA GeForce Go 7300 1,177 0.52 %
NVIDIA GeForce 7500 1,079 0.47 %
NVIDIA GeForce 6610 XL 1,058 0.46 %
Other 4,543 1.99 %

StefanV
2006-12-22, 19:30:50
Neues aus dem Rage3D forum :
According to what my friend said, it's gonna be a small % faster in current-gen games, and much, much faster in nextgen game engines. From his description, although he didn't give a number, I'd guess at least 50% faster in dx10 engines.

maybe I shouldn't say this, but I will anyway. Apparently, nvidia wasn't really planning on making the g80 a fully compliant dx10 part, and they weren't going to do unified shaders at all, but rather just have a ton of non-unified shaders. So somewhere around mid summer, m$ told 'em they had to have unified shaders, and so they quickly threw it together. Apparently, the g80's unified shader solution is pretty ugly, and is going to have significant performance handicaps in comparison to the r600, which was designed to be fully dx10 compliant from the beginning.

Anyway, I'm not gonna say anything more, although I really really want to. Suffice it to say that my friend, who's traditionally an nvidiot, is totally convinced that this year's graphics card wars are gonna look just like the radeon 9800 vs. the geforce fx line.
Wer das glaubt ... ;)
Gibt 2 Möglichkeiten:
Entweder er phantasiert sich da irgendwie was schönes zusammen oder aber es entspricht der Wahrheit, zu einem gewissen Teil.

Persönlich halte ich das gesagte für nicht so wahrscheinlich, im großen und ganzen sollten G80 und R600 gleichwertig sein, immer, überall und in jeder Situation...

Gast
2006-12-22, 19:51:56
Gibt 2 Möglichkeiten:
Entweder er phantasiert sich da irgendwie was schönes zusammen oder aber es entspricht der Wahrheit, zu einem gewissen Teil.

Persönlich halte ich das gesagte für nicht so wahrscheinlich, im großen und ganzen sollten G80 und R600 gleichwertig sein, immer, überall und in jeder Situation...

Mhh ich finde die Idee nicht schlecht. Der R600 wird nur kaum schneller, aber dafür wird er in der Zukunft schneller als der G80 sein. Bis dato wird NV wieder einen Refresh vorgestellt haben, der ähnlich schnell wie der R600 ist. Das heißt aber auch, dass NV wohl der Performancekönig ist.
Naja wir werden sehen...

mfg Nakai

deekey777
2006-12-22, 20:03:41
Weil Radeon 10800 einfach scheiße aussieht 9800 aber nicht?
Jepp, auch ist da Marketing dabei, da X800 auf Englisch sehr markant klingen soll.
Die D3D10-Performance des G80 ist eine Unbekannte, denn diese wurde bis heute auch nicht geprüft -wie auch?

Meanwhile, ATI's DX10-class R600 graphics processor isn't expected until some time in the first quarter, and the same rumors say ATI won't have cheaper variants ready to take on Nvidia in March.
;(
Das ist wirklich ärgerlich.
Und das deutet dann auf 64 ALUs 4:1 halt.
Und wenn dazu das TMUs:ROPs-Verhältnis von 1:1 beibehalten wird, dann wären es 16 TMUs. Aber wie aths mal treffend formuliert hat (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4803100#post4803100):
Wie viele Quads der R520 auf einmal berechnen kann ist eine Frage die in der Praxis beinahe ohne Relevanz ist. Wichtig ist nur, was hinten rauskommt – und wie schnell das geschieht. Wie viele Quads gleichzeitig in den Pipes sein können ist für uns wurscht. ATI muss versuchen, zwischen Auslastung und Chipgröße einen optimalen Mittelweg zu finden. Mehr Quads zu halten heißt, mehr Register zu brauchen.

Gast
2006-12-22, 20:07:00
Lustig was bringt es wen ich einen chip baue der ca in einem jahr nach erscheinen schneller wie sein derzeitiger wiedersacher ist?
Jo genau nix bis dahin haben wir ca 2 neue wiedersacher^^ die wiederum fixer wie die alten sind bringt also nüx.

Gast
2006-12-22, 20:10:42
naja recht haben sie ja...DX10 ist bis dahin praktisch völlig uninteressant....

wenn der R600 wirklich ähnlich schnell oder gar schneller wie der G80 wird kann man immer noch im upper Mainstream die X1950XT bzw. X1900XT verticken

Aehm keiner der jetzigen G80 Käufer hat sich ne Karte wegen DX10 geholt...
Es ging mit Sicherheit immer darum mehr Speed bei mehr BQ zu bekommen, HQAF+8xAA@+1600er Auflösungen.

LovesuckZ
2006-12-22, 20:22:45
Wer das glaubt ... ;)

Meint er diesem Sommer? :ugly:

Odal
2006-12-22, 22:43:20
also will ja nicht unken, aber wenn die nicht bald den r600 rausbringen, dann sieht es echt düster aus für ati, die geforce7 verkauft sich wie geschnitten brot und die x1900 hinkt gewaltig hinterher. die haben keine zeit um abzuwarten mit ihrer midrange, bis ende januar muss alles vorgestellt sein, sonst sehe ich schwarz.

Mal ein bischen was zur untermauerung:

Cards which default to DirectX 9 Shader Model 3 Path on Source (228420 of 573706 Total Users (39.81% of Total) )
NVIDIA GeForce 6600 55,527 24.31 %
NVIDIA GeForce 6800 30,001 13.13 %
NVIDIA GeForce 7600 21,493 9.41 %
NVIDIA GeForce 7800 20,432 8.94 %
NVIDIA GeForce 7900 17,157 7.51 %
NVIDIA GeForce 6200 14,685 6.43 %
ATI Radeon X1600 11,097 4.86 %
NVIDIA GeForce 7300 8,689 3.80 %
ATI Radeon X1900 7,060 3.09 %
ATI Radeon X1300 5,842 2.56 %
NVIDIA GeForce 7950 5,355 2.34 %
ATI Radeon X1800 3,169 1.39 %
NVIDIA GeForce 6100 3,155 1.38 %
ATI Radeon X1950 2,118 0.93 %
NVIDIA GeForce Go 7600 2,044 0.89 %
ATI Mobility Radeon X1600 2,012 0.88 %
NVIDIA GeForce 6150 1,994 0.87 %
ATI Mobility Radeon X1400 1,758 0.77 %
NVIDIA GeForce 8800 1,626 0.71 %
NVIDIA GeForce Go 6800 1,521 0.67 %
NVIDIA GeForce Go 7900 1,372 0.60 %
NVIDIA GeForce 6700 XL 1,240 0.54 %
NVIDIA GeForce Go 7400 1,216 0.53 %
NVIDIA GeForce Go 7300 1,177 0.52 %
NVIDIA GeForce 7500 1,079 0.47 %
NVIDIA GeForce 6610 XL 1,058 0.46 %
Other 4,543 1.99 %

is ja schön nur hast du dir mal durchgelesen was du da zitierst?

"DirectX 9 Shader Model 3 Path" d.h. sämtliche X700x und X800/x850 fallen da schonmal raus...genauso die 9800pros die noch unterwegs sind....

und der anteil an NV karten >7600GT ist verschwindent gering...

d.h. ist dann logisch das die jeweiligen ATI pendante auch nicht allzu zahlreich sind..... die leute sind halt am meisten mit karten bis 6800GT unterwegs...und da sind keine ATI karten mit berücksichtigt weil diese aus der epochje eben kein SM3 können

Odal
2006-12-22, 22:44:15
Aehm keiner der jetzigen G80 Käufer hat sich ne Karte wegen DX10 geholt...
Es ging mit Sicherheit immer darum mehr Speed bei mehr BQ zu bekommen, HQAF+8xAA@+1600er Auflösungen.

es ging ja auch nicht um das highend sondern um den kommentar das midrange dx10 karten bei ATI wohl erst im sommer nächsten jahres kommen....

Odal
2006-12-22, 22:47:52
Lustig was bringt es wen ich einen chip baue der ca in einem jahr nach erscheinen schneller wie sein derzeitiger wiedersacher ist?
Jo genau nix bis dahin haben wir ca 2 neue wiedersacher^^ die wiederum fixer wie die alten sind bringt also nüx.

dem IHV sicher nix....daher hat NV mit den FXen auch bestens verdient.....aber für mich als kunden ist es doch nice das z.b. meine alte X800 karte sich auch 2006 noch wacker bei den spielen geschlagen hat.....wo eine 6800GT oft schon etwas kurzatmig ist, oder das eine X1800XT noch gut gegen eine 7900GTX gegenhält obwohl sie zum release eher auf 7800GTX niveau war

Gast
2006-12-22, 22:50:55
is ja schön nur hast du dir mal durchgelesen was du da zitierst?

"DirectX 9 Shader Model 3 Path" d.h. sämtliche X700x und X800/x850 fallen da schonmal raus...genauso die 9800pros die noch unterwegs sind....


er hat gesagt die X1yyy-serie hinkt verdammt stark hinterher, und dazu passt diese umfrage doch recht gut.

Odal
2006-12-22, 22:54:02
er hat gesagt die X1yyy-serie hinkt verdammt stark hinterher, und dazu passt diese umfrage doch recht gut.

die x1XXX kamen ja auch erst sehr spät...und das hat jetzt recht wenig mit ATIs midrange zutun.....
wer midrange kauft kauft sicher keine X1900XT

aber im prinzip erkenn ich schon die tendenz das deutlich mehr 7900er unterwegs sind als X1900er....aber midrange ist halt x800er und da wär mal eine statistik interessant obs da genauso schlecht aussieht


wenn man mal das X1xxx midrange betrachtet (x1600xt) sind die trotz das sie deutlich langsamer als das G70 midrange (7600gt) sind immer noch zu 50% des G70 vertreten...und das ATI weniger marktanteile als NV hat war eigentlich selbst bei der FX serie und dem überdurchschnittlichen R300 so

Gast
2006-12-22, 22:58:10
dem IHV sicher nix....daher hat NV mit den FXen auch bestens verdient.....aber für mich als kunden ist es doch nice das z.b. meine alte X800 karte sich auch 2006 noch wacker bei den spielen geschlagen hat.....wo eine 6800GT oft schon etwas kurzatmig ist, oder das eine X1800XT noch gut gegen eine 7900GTX gegenhält obwohl sie zum release eher auf 7800GTX niveau warAlles schön und gut aber wirtschaftlich der grösste mist;)

Wen ich nur gleichziehen kann zwar später besser bin ist das fürn kunden klar gut hilft aber dem abverkauf leider nicht.

Zudem ist es ja so da die nächste generation selbiges bieten könte (egal welcher der beiden hersteller) also kein kaufargument zumindest nicht für die leute die beim erscheinen kaufen!

Und genau am erscheinungs termin muss ati glänzen da nv ca 3 monate vorsprung hat.

AnarchX
2006-12-22, 23:00:52
aber im prinzip erkenn ich schon die tendenz das deutlich mehr 7900er unterwegs sind als X1900er....aber midrange ist halt x800er und da wär mal eine statistik interessant obs da genauso schlecht aussieht


Schau mal hier:
http://www.steampowered.com/status/survey.html
(Hält sich recht in der Waage, ca 30k X850/X800 User und 30k 6800 User, aber bei X700 vs 6600 sieht es doch schon anders aus;))

Generell hat ATi bei den richtigen Midrange-Karten nicht gerade hohe Anteile und mit RV6xx scheint wohl auch keine wirkliche Besserung einzutreten, wenn man wieder deutlich nach der Konkurrenz kommt.

Odal
2006-12-22, 23:11:24
Schau mal hier:
http://www.steampowered.com/status/survey.html
(Hält sich recht in der Waage, ca 30k X850/X800 User und 30k 6800 User, aber bei X700 vs 6600 sieht es doch schon anders aus;))

das mit der X700 vs 6600 ist ja auch nachvollziehbar da die x700 nun nicht so der renner war...dafür muss man hier ja auch noch die 9800pros hinzuziehen da kaum jemand mit 9800pro auf x700 upgegradet hat bzw. die 9800er noch gut mit den 6600er mithalten (welchge ja auch nur zum teil aus 6600GT bestehen


die relevante statistik ist eher die hier


nv4_disp.dll 313,247 54.41 % ######################################################
ati2dvag.dll 223,706 38.86 %

d.h. ati mit ca. 29% weniger absatz...was aber auch in der vergangenheit nicht viel anders war....

@gast klar ist es vielleicht nicht so wirtschaftlich günstig..aber was ich damit sagen wollte das dies auch schon beim R300 so war und ATI trotzdem vor dem NV40 weniger R300 verkaufte als FXen und dennoch kein genickbruch erlitt....

es klang halt so an das sich einige gedanken um ati machen weil die in nächster zukunft keine DX10 midrangekarten raushauen...und das halte ich eben für unbegründet....

es sei den NV released schnell die lowend DX10 karten und ködert viele hersteller von komplettsystemen mit dem DX10....aber das hat selbst damals als ATI n0och kein SM3 bieten konnte ihnen nicht das genick gebrochen....

Hvoralek
2006-12-22, 23:12:50
und der anteil an NV karten >7600GT ist verschwindent gering...Verschwindend gering? Das sind ca. 6,5% aller Karten, ziemlich genau so viel wie Deine geschätzten X800er und X700er zusammen.

Gast
2006-12-22, 23:37:40
Man sieht ja was der G70/71 heute für ne show bei neuen Spielen abliefert.

Gast
2006-12-28, 23:08:03
Bereist was neues zum R600? zwecks Leistung, CPU mind., Stromverbrauch, Speicherverbauung?
Soll er nun doch definitiv Ende Februar 2007 kommen und verfügbar sein, weltweit?
Hoffe sie haben den Chip optimiert sodass es bereits ein Kopf an Kopf Rennen des G80 Refresh werden wird.

Winter[Raven]
2006-12-28, 23:10:14
Hoffe sie haben den Chip optimiert sodass es bereits ein Kopf an Kopf Rennen des G80 Refresh werden wird.

Ne blöde Frage, kann man einen Chip dessen Spezifikationen schon vor dem G80 feststanden gleich auf den G81 "optimieren"? Da wird wohl der R650 ran müssen.

reunion
2006-12-28, 23:12:13
Unwahrscheinlich, aber warum nicht:

ATI newest hearsay R600 operating frequency double 1GHz achieves Comes family's of from the actuation news

Today originates us from the anonymous news to learn ATi new generation of DX10 graph chip R600, already achieved the double G goal. The so-called double G goal is the core operating frequency achieves 1GHz, reveals saves the operating frequency to achieve 1GHz (equivalent DDR2GHz). At present the double G operating frequency type embraces in PCB the very long R600 achieved, at present also not clear ordinary PCB length R600 type card operating frequency. The R600 type card at present already delivered partial AIB to reveal the card merchant. Moreover, according to the newest hearsay, R600 uses outside 512-bit the annular main line (to support 512MB/1024MB/2048MB frame buffer), 1024-bit internal ring-like main line. 2.2GHz GDDR4 reveals saves, the peak value reveals saves band width 140.8GB/s. In constructs 128 scalar ALU, operating frequency 2GHz, each second 512 billion colouring operation. R600 integrates 16 ROP, operating frequency 1GHz, TMU unit 32, operating frequency 1GHz. Certainly, the R600 final actual parameter must take AMD the ATi announcement official parameter as.

http://www.hardspell.com/news/showcont.asp?news_id=32982

Ailuros
2006-12-28, 23:15:45
Gibt 2 Möglichkeiten:
Entweder er phantasiert sich da irgendwie was schönes zusammen oder aber es entspricht der Wahrheit, zu einem gewissen Teil.

Persönlich halte ich das gesagte für nicht so wahrscheinlich, im großen und ganzen sollten G80 und R600 gleichwertig sein, immer, überall und in jeder Situation...

Da ich weiss dass ATI gute Beziehungen (nein nicht Schmiergelder oder aehnlicher Mist) bei gewissen ISVs genau dafuer in letzter Zeit gewonnen hat, kann es durchaus sein dass stellenweise aehnliche Phaenomene auftreten werden aber wohl nicht mit 50% Unterschieden. CryTek gehoert auf jeden Fall nicht dazu falls jemand fragen sollte ;)

Winter[Raven]
2006-12-28, 23:19:48
Da ich weiss dass ATI gute Beziehungen (nein nicht Schmiergelder oder aehnlicher Mist) bei gewissen ISVs genau dafuer in letzter Zeit gewonnen hat, kann es durchaus sein dass stellenweise aehnliche Phaenomene auftreten werden aber wohl nicht mit 50% Unterschieden. CryTek gehoert auf jeden Fall nicht dazu falls jemand fragen sollte ;)

Wie kommt es zu diesen "guten" und shall we say "Beziehungen"?

reunion
2006-12-28, 23:20:41
Haettest Du erwartet dass ich keinen einzigen Fetzen an Leistung dazugewinnen wuerde, durch 17% mehr Speicherfrequenz?


Natürlich nicht. Nur du klingst immer so, als ob das vollkommen nutzlos wäre.


Nur welchen Unterschied genau? Was einige von Euch hartnaeckig NICHT verstehen wollt ist dass Bandbreite von sich alleine zu keinen grossen Unterschieden fuehren kann.


Bei R580 brachte der höher getaktete GDDR4-Speicher mal eben 5-15% mehr Leistung.

ATI ist sofort auf den 512bit Bus gesprungen erstens weil es am einfachsten ist mit dem ring-stop-Dingsbums und zweitens weil sie ihn sowieso bald brauchen werden. Das ist ja schoen und gut, aber man braucht etwas mehr als den 512bit Kleber auf der Schachtel um Eindruecke zu gewinnen.

Warum soll das mit dem "ring-stop-Dingsbums" einfacher sein? Du tust gerade so, als ob der Controller von nV hier in irgendeiner Form flexibler wäre. Es ist ja wohl das einfachste der Welt, zusätzliche Speichercontroller anzuflaschen, um so ein breiteres SI zu bekommen. Nv hat wohl eher Probleme mit ihrer Crossbar mehr als sechs Speichercontroller zu implementieren, da dies die Transistorenanzahl überproportional in die Höhe treiben würde. 512-bit ist einfach der nächste logische Schritt, es gab ja auch keinen 192-bit Bus bei ATi oder nV.

Ailuros
2006-12-28, 23:23:33
Unwahrscheinlich, aber warum nicht:



http://www.hardspell.com/news/showcont.asp?news_id=32982

In den naehesten Abfalleimer mit dem Mist; das hier ist dann schon naeher dran:

http://en.wikipedia.org/wiki/Radeon_R600

Die FLOP Rate ist zwar falsch und die TMUs wurden etwas kreativ ausgerechnet, aber halb so schlimm ;)

Ailuros
2006-12-28, 23:33:00
Warum soll das mit dem "ring-stop-Dingsbums" einfacher sein? Du tust gerade so, als ob der Controller von nV hier in irgendeiner Form flexibler wäre.

Ob er flexibler ist oder nicht wird Dir die unmittelbare Zukunft zeigen.

Es ist ja wohl das einfachste der Welt, zusätzliche Speichercontroller anzuflaschen, um so ein breiteres SI zu bekommen. Nv hat wohl eher Probleme mit ihrer Crossbar mehr als sechs Speichercontroller zu implementieren, da dies die Transistorenanzahl überproportional in die Höhe treiben würde. 512-bit ist einfach der nächste logische Schritt, es gab ja auch keinen 192-bit Bus bei ATi oder nV.

Hat Dir jemand erzaehlt dass R600 eine kleinere Transistoren-Anzahl hat? 512bit ist eben nicht der naechste logische Schritt wenn man den Stromverbrauch so stark wie moeglich kontrollieren will.

G80 braucht momentan nicht mehr als 86GB/s Bandbreite. Ein Refresh mit mehr clusters kann dann locker noch zwei 64bit Kanaele dazubekommen falls GDDR4 nicht ausreichen sollte.

Es gibt zwar keinen 192bit Bus bei NVIDIA aber einen 320bit Bus und wenn es schon sein muss bei G8x Varianten waere ein 192bit um einiges einfacher als mit dem ring stop Dingsbums (wenn so eine Breite ueberhaupt Sinn machen sollte).

Ailuros
2006-12-28, 23:37:26
Natürlich nicht. Nur du klingst immer so, als ob das vollkommen nutzlos wäre.

Jegliches Prozentual unter 10% ist nutzlos in meinem Buch. weil ich es in Echtzeit nicht bemerken kann. Und nein Du oder jeglicher andere bemerkt es auch nicht.

Bei R580 brachte der höher getaktete GDDR4-Speicher mal eben 5-15% mehr Leistung.

Was wohl heisst dass X1900XTX sowieso nicht Bandbreiten-limitiert ist. Wobei bei Deiner schoenen Illustrierung oben nur eine schaebige Minderheit bei 15% liegt, der Rest liegt im selben Bereich wie oben.

Ailuros
2006-12-28, 23:39:53
']Wie kommt es zu diesen "guten" und shall we say "Beziehungen"?

Wie oft setzen sich die NV DevRel Kerle mit Entwicklern hin und helfen ihnen mit ihrem Shader-code? Glaubst Du nicht auch dass es endlich Zeit wurde dass ATI mal etwas mehr in dieser Richtung anrichtet?

reunion
2006-12-28, 23:40:47
Es gibt zwar keinen 192bit Bus bei NVIDIA aber einen 320bit Bus und wenn es schon sein muss bei G8x Varianten waere ein 192bit um einiges einfacher als mit dem ring stop Dingsbums (wenn so eine Breite ueberhaupt Sinn machen sollte).

Kannst du das auch irgendwie begründen? Warum sollen mit dem Ringbus keine "ungeraden" Zahlen möglich sein?

Du tust gerade so, als ob das etwas besonderes wäre, dass nV sich von der Zweierpotenz verabschiedet hat.

Gast
2006-12-28, 23:42:46
Die D3D10-Performance des G80 ist eine Unbekannte, denn diese wurde bis heute auch nicht geprüft -wie auch?

OpenGL. Ist kein großes Problem. Die Extensions sind alle da und funktionieren schon.

reunion
2006-12-28, 23:49:07
Jegliches Prozentual unter 10% ist nutzlos in meinem Buch. weil ich es in Echtzeit nicht bemerken kann. Und nein Du oder jeglicher andere bemerkt es auch nicht.


Was ist denn mit dir los? Es geht doch gar nicht darum, ob das irgendjemand in Echtzeit bemerkt, sondern welcher Chip am Ende die Nase vorne hat.


Was wohl heisst dass X1900XTX sowieso nicht Bandbreiten-limitiert ist. Wobei bei Deiner schoenen Illustrierung oben nur eine schaebige Minderheit bei 15% liegt, der Rest liegt im selben Bereich wie oben.

In 1600x1200 4xAA/16xAF liegt die X1950XTX bei CB im Schnitt aller Tests fast 15% vor der X1900XTX:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/#abschnitt_performancerating_qualitaet

Ailuros
2006-12-28, 23:50:09
Kannst du das auch irgendwie begründen? Warum sollen mit dem Ringbus keine "ungeraden" Zahlen möglich sein?

Moeglich schon, aber dann eben umstaendlicher weil man das Ding nicht dafuer ausgelegt hat. Erstens ist es kein Ringbus im strengen Sinn und zweitens ist es billiger als die herkoemmlichen Memory Controller. Nothing comes for free in 3D.

Du tust gerade so, als ob das etwas besonderes wäre, dass nV sich von der Zweierpotenz verabschiedet hat.

Es ist bei weitem nichts besonderes, aber ich lass mir auch nicht von niemandem aufdrehen dass 512bit der einzige logische Schritt ist wenn in der Zwischenzeit die echten ATI Insider "off the record" ehrlicher und aurichtiger sind als manche ATI fans hier. Ich hab lediglich den Grund hinter der Entscheidung weitergegeben, ob Du den jetzt glauben willst oder ob es zu Deiner Logik nun passt oder duerfte mir wohl gleichgueltig sein.

Tragische Ironie ist dann eben dass Eric schon vor geraumer Zeit wusste (und dieses sogar im B3D Forum andeutete) dass er von NV einen 384bit bus erwartet oder um ganz genauer zu sein behauptete er damals dass 384bit fuer NV der einzige logische Schritt sei.

AnarchX
2006-12-28, 23:52:11
In 1600x1200 4xAA/16xAF liegt die X1950XTX bei CB im Schnitt aller Tests fast 15% vor der X1900XTX:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/#abschnitt_performancerating_qualitaet

Wobei man aber beachten muss, dass beide mit verschieden Treiber getesten wurden, sodass schon so manche Optimierung im neueren Treiber der X1950XTX auch für einen Teil der Mehrleistung verantwortlich sein kann.

Ailuros
2006-12-28, 23:56:50
Was ist denn mit dir los? Es geht doch gar nicht darum, ob das irgendjemand in Echtzeit bemerkt, sondern welcher Chip am Ende die Nase vorne hat.

Mit mir ist gar nichts los. Dein Problem ist eher dass Du Theorie im Vergleich zur Praxis zu stark ueberwertest. Um es noch genauer zu machen falls der Unterschied zwischen R600 und G80 nur auf diesem Niveau liegen sollte, hat ATI wohl am Ende nicht besonders viel davon.

In 1600x1200 4xAA/16xAF liegt die X1950XTX bei CB im Schnitt aller Tests fast 15% vor der X1900XTX:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/#abschnitt_performancerating_qualitaet

Dann schick mal einen Blumenstrauss von mir an Deinen Mathelehrer, denn der Unterschied zwischen 80.1% und 71.3% ist bei mir 8.8%.

In 2560*1600 sind es dann 10.9%.

Ailuros
2006-12-28, 23:58:32
Wobei man aber beachten muss, dass beide mit verschieden Treiber getesten wurden, sodass schon so manche Optimierung im neueren Treiber der X1950XTX auch für einen Teil der Mehrleistung verantwortlich sein kann.

Bei mir steht unter jedem Graph folgendes:

Angaben in Prozent

*hust* :rolleyes:

AnarchX
2006-12-29, 00:08:47
Bei mir steht unter jedem Graph folgendes:
*hust* :rolleyes:

Nein diese Zahlen musst du als relativen Leistungindex sehen, eine X1900XTX ist ja auch nicht nur 40% schnellere als eine 7600GT.(ist etwas dumm gemacht, aber wurde in den neueren Artikel gefixt);)

Halt mal den Mauszeiger über die Bezeichnung einer bestimmten Karte, die wird dann als 100% gesetzt und die anderen im Verhältnis.

Coda
2006-12-29, 00:09:47
Die Angaben in Prozent sind nur dann da, wenn man über die Kartennamen fährt, ansonsten sind es schon FPS.

reunion
2006-12-29, 00:10:28
Dann schick mal einen Blumenstrauss von mir an Deinen Mathelehrer, denn der Unterschied zwischen 80.1% und 71.3% ist bei mir 8.8%.

In 2560*1600 sind es dann 10.9%.

Gleichfalls. Im direkten Verglich ändert das nichts daran, dass die X1950XTX laut diesen Tests um ~12.5% schneller als die X1900XTX ist. 71.3 +12,5% = 80,21. Du musst nur den Mauszeiger über den Schriftzug der X1900XTX halten.

Ailuros
2006-12-29, 00:13:00
Die Angaben in Prozent sind nur dann da, wenn man über die Kartennamen fährt, ansonsten sind es schon FPS.

Gut dann sind es 12% in 1600 und 14% in 2560.

Lolman
2006-12-29, 00:15:14
Dann schick mal einen Blumenstrauss von mir an Deinen Mathelehrer, denn der Unterschied zwischen 80.1% und 71.3% ist bei mir 8.8%.


Den Blumenstrauss solltest du deinem Mathelehrer schicken.

8.8 / 71.3 = 12.34 ;)

Ailuros
2006-12-29, 00:17:18
Gleichfalls. Im direkten Verglich ändert das nichts daran, dass die X1950XTX laut diesen Tests um ~12.5% schneller als die X1900XTX ist. 71.3 +12,5% = 80,21. Du musst nur den Mauszeiger über den Schriftzug der X1900XTX halten.

Hab ich auch; ich hab nur die falschen Ziffern abgeschrieben beim tippen.

Entschuldige wenn ich jetzt nicht mit dem Unterschied in Ohnmacht falle. Bei dem Prozentual verdient die R580+ nichtmal den Refresh-Titel.

reunion
2006-12-29, 00:21:05
Moeglich schon, aber dann eben umstaendlicher weil man das Ding nicht dafuer ausgelegt hat.


Genauso wie G80 nicht auf einen 512-bit ausgelegt ist. Inwiefern der Speichercontroller von nV jetzt flexibler sein soll, kann ich bei besten Willen nicht erkennen.


Erstens ist es kein Ringbus im strengen Sinn und zweitens ist es billiger als die herkoemmlichen Memory Controller. Nothing comes for free in 3D.


Natürlich ist es kein echter Ringsbus. Es ist nur etwas umständlich dies jedermal extra zu schreiben, damit sich ja keiner aufregen kann. :|

Man hat sich bei ATi einfach von Anfang an auf eine verdoppelung vorbereitet. Bereits R520 bekam acht Speichercontroller mit jeweils 32-bit Breite. Bei R600 wird jeder die SC höchstwahrscheinlich einfach doppelt so breit gemacht, wodurch man ohne großen Mehraufwand ein 512-bit SI erhält.


Es ist bei weitem nichts besonderes, aber ich lass mir auch nicht von niemandem aufdrehen dass 512bit der einzige logische Schritt ist wenn in der Zwischenzeit die echten ATI Insider "off the record" ehrlicher und aurichtiger sind als manche ATI fans hier. Ich hab lediglich den Grund hinter der Entscheidung weitergegeben, ob Du den jetzt glauben willst oder ob es zu Deiner Logik nun passt oder duerfte mir wohl gleichgueltig sein.


Du drehst mir schon wieder die Worte im Mund um. 512-bit wäre der nächste logische Schritt nach 256-bit, da man diesen bis jetzt immer verdoppelt hat. 64 -> 128 -> 256 -> 512. Verstanden auf was ich hinaus wollte?

Lolman
2006-12-29, 00:21:37
Entschuldige wenn ich jetzt nicht mit dem Unterschied in Ohnmacht falle. Bei dem Prozentual verdient die R580+ nichtmal den Refresh-Titel.

Der Unterschied ist immerhin doppelt so groß, wie von der X1950XTX zur 7050GX2 ;)

reunion
2006-12-29, 00:25:44
Entschuldige wenn ich jetzt nicht mit dem Unterschied in Ohnmacht falle. Bei dem Prozentual verdient die R580+ nichtmal den Refresh-Titel.

Es ist ja auch faktisch derselbe Chip. Und für das sind die 12% nur durch eine höhere Speicherbandbreite IMO ein billiger Leistungsgewinn.

LovesuckZ
2006-12-29, 00:26:43
Genauso wie G80 nicht auf einen 512-bit ausgelegt ist. Inwiefern der Speichercontroller von nV jetzt flexibler sein soll, kann ich bei besten Willen nicht erkennen.

Woraus schließt du das?
Zur Zeit lässt sich nur erkennen, dass Nvidia beim Speichercontroller flexibler ist als früher. Wenn er nach unten so flexible ist, wieso sollte er es nach oben nicht auch sein?

Man hat sich bei ATi einfach von Anfang an auf eine verdoppelung vorbereitet. Bereits R520 bekam acht Speichercontroller mit jeweils 32-bit Breite. Bei R600 wird jeder die SC höchstwahrscheinlich einfach doppelt so breit gemacht, wodurch man ohne großen Mehraufwand ein 512-bit SI erhält.

Wenn Speicherbandbreite so wichtig und die Erweiterung so einfach wäre, warum hat man dem r580+ nicht einen breiteres Interface spendiert?

512-bit wäre der nächste logische Schritt nach 256-bit, da man diesen bis jetzt immer verdoppelt hat. 64 -> 128 -> 256 -> 512. Verstanden auf was ich hinaus wollte?

Nein, daran ist nichts logisch. Einfach nur Zufall, dass dies so eingetreten ist.
Aus dieser Rechnung heraus hätte der r520 auch 32 TMUs (oder PP) haben müssen. Immerhin hat ATi vom r200 über r300 zum r420 auch immer eine Verdopplung der PixelPipelines vorgenommen.

Coda
2006-12-29, 00:29:13
Ich find's ja immer wieder lustig wie hier über Chip-Interna diskuttiert wird zu denen man einfach nichts sagen kann...

Ob der Ringcontroller bei ATi und was auch immer nVIDIA in der Hardwarebeschreibungssprache implementiert hat beliebig skaliert werden kann ist völlig offen. Wobei G80 schon sehr danach ausschaut als würde das Ding komplett auf Skalierbarkeit ausgelegt sein - noch stärker als NV4x.

ATi war da bisher nicht sooo flexibel. Man wird sehen ob sich das bei R600 ändert oder nicht.

Bis dahin: Was soll das Ganze?

Nur nochmal was nebenbei:
384 -> 512 Bit: 33%
256 -> 384 Bit: 50%

Die Radeon X1950XTX hatte auch 30% mehr Speicherbandbreite als die X1900XTX. Soviel dazu.

reunion
2006-12-29, 00:34:03
Woraus schließt du das?
Zur Zeit lässt sich nur erkennen, dass Nvidia beim Speichercontroller flexibler ist als früher. Wenn er nach unten so flexible ist, wieso sollte er es nach oben nicht auch sein?


Das habe ich so nicht behauptet. Nur warum sollte das bei ATi nicht genauso sein? Immerhin gab es schon R300-Karten, bei denen nur 128-bit der möglichen 256-bit aktiviert wurde. Was daran jetzt bei nV so sensationell sein soll, dass man bei der GTS nur 320-bit aktiviert hat, geht mir wirklich nicht in den Kopf.


Wenn Speicherbandbreite so wichtig und die Erweiterung so einfach wäre, warum hat man dem r580+ nicht einen breiteres Interface spendiert?


Ich sage nirgends, dass die Speicherbandbreite soo wichtig ist, nur bringt sie eben selbst bei R580 noch Mehrleistung. Wenn R600 32-bi-Samples pro Takt berechnen kann, und man den höheren Takt berücksichtigt, dann wäre R600 selbst mit einem 512-bit Bus stärker Speicherlimitiert als R580+.


Nein, daran ist nichts logisch. Einfach nur Zufall, dass dies so eingetreten ist.
Aus dieser Rechnung heraus hätte der r520 auch 32 TMUs (oder PP) haben müssen. Immerhin hat ATi vom r200 über r300 zum r420 auch immer eine Verdopplung der PixelPipelines vorgenommen.

:|

Ich wollte damit nur andeuten, dass man sich im IT-Markt normalerweise an Zweierpotenzen orientiert, nicht das mit jedem neuen Chip eine verdoppelung stattfinden muss.

Ailuros
2006-12-29, 00:34:15
Genauso wie G80 nicht auf einen 512-bit ausgelegt ist. Inwiefern der Speichercontroller von nV jetzt flexibler sein soll, kann ich bei besten Willen nicht erkennen.

Weil er problemloser Schwischenschnitte erlaubt. Ausgelegt zwar nicht fuer 512bit aber sie muessen in der Zukunft auch nicht besonders viel aendern fuer 8*64.

Man hat sich bei ATi einfach von Anfang an auf eine verdoppelung vorbereitet. Bereits R520 bekam acht Speichercontroller mit jeweils 32-bit Breite. Bei R600 wird jeder die SC höchstwahrscheinlich einfach doppelt so breit gemacht, wodurch man ohne großen Mehraufwand ein 512-bit SI erhält.

Klein ist der Mehraufwand auf jeden Fall nicht. Und nochmal dass Du es endlich schnallst der obrige Grund fuer ATI's 512bit bus Entscheidung ist nicht meine eigene Spekulation sondern kommt direkt vom Maul des Loewen.

Du drehst mir schon wieder die Worte im Mund um. 512-bit wäre der nächste logische Schritt nach 256-bit, da man diesen bis jetzt immer verdoppelt hat. 64 -> 128 -> 256 -> 512. Verstanden auf was ich hinaus wollte?

Ich verdrehe Dir gar nichts im Maul. Das einzige was man als "logischen Schritt" fuer jede Architektur bezeichnen koennte ist dass jede genau das bekommt was sie braucht. Dabei gibt es keine sturen mal 2x Regeln oder Logik. Im gegebenen Fall muss eine GPU nicht an Bandbreite verhungern und man versucht dann eben die Unkosten so stark wie moeglich zu minimalisieren.

Haette ATI nicht das ring stop Ding in ihren neuesten Architekturen, gibt es keine einzige Garantie, Regel oder Logik dass eine andere Alternative nicht auch Sinn gemacht haette.

seahawk
2006-12-29, 08:52:03
Bei der Betrachtung von 1900xtx und 1950xtx sollte man sich fragen ob die 1900 nicht eher zu wenig Banbreite hatte.

desert
2006-12-29, 09:29:22
für odal nochmal eine gesamtübersicht, nach 630.000 teilnehmern.

Video Card Description
NVIDIA GeForce 6600 60,553 9.56 %
ATI Radeon 9600 37,947 5.99 %
NVIDIA GeForce FX 5200 37,145 5.87 %
NVIDIA GeForce 6800 32,789 5.18 %
ATI Radeon X800 28,965 4.57 %
NVIDIA GeForce4 MX 26,167 4.13 %
ATI Radeon 9200 26,023 4.11 %
NVIDIA GeForce 7600 24,192 3.82 %
ATI Radeon 9800 23,326 3.68 %
NVIDIA GeForce 7800 22,297 3.52 %
NVIDIA GeForce 7900 18,902 2.99 %
NVIDIA GeForce 6200 16,248 2.57 %
NVIDIA GeForce FX 5500 13,365 2.11 %
ATI Radeon X700 12,820 2.02 %
ATI Radeon X1600 12,342 1.95 %
ATI Radeon 9550 11,968 1.89 %
NVIDIA GeForce4 11,693 1.85 %
ATI Radeon X300 11,505 1.82 %
ATI Radeon X600 10,583 1.67 %
NVIDIA GeForce FX 5700 10,556 1.67 %
NVIDIA GeForce 7300 9,919 1.57 %
NVIDIA GeForce2 MX 9,539 1.51 %
ATI Radeon Xpress 200 8,961 1.42 %
ATI Radeon X1900 7,741 1.22 %
NVIDIA GeForce FX 5600 7,343 1.16 %
ATI Radeon X1300 6,517 1.03 %
NVIDIA GeForce 7950 6,188 0.98 %
ATI Radeon 9500/9700 5,242 0.83 %
Intel 845 5,194 0.82 %
NVIDIA GeForce FX 5900 4,984 0.79 %
ATI Radeon X850 4,527 0.71 %
ATI Mobility Radeon 9600/9650/9700 4,347 0.69 %
Intel 82915G Express Family 4,062 0.64 %
NVIDIA GeForce 6100 3,557 0.56 %
ATI Radeon X1800 3,491 0.55 %
ATI Mobility Radeon Xpress 200 3,400 0.54 %
Mobile Intel 915GM/GMS, 910GML 3,236 0.51 %
Other 85,593 13.52 %


Man achte mal auf das verhältnis x1800 zu gf 7800. Das muss geld gekostet haben für ati. Die müssen schleunigst mit was neuem kommen, sonst ist das nächste jahr auch für die gelaufen.

seahawk
2006-12-29, 09:54:47
X1900 zu 7900+7950 sieht aber auch nicht gut aus.

The_Invisible
2006-12-29, 09:55:21
Hab ich auch; ich hab nur die falschen Ziffern abgeschrieben beim tippen.

Entschuldige wenn ich jetzt nicht mit dem Unterschied in Ohnmacht falle. Bei dem Prozentual verdient die R580+ nichtmal den Refresh-Titel.

warum, das sind bei 30fps der 1900xtx immerhin 3-4fps mehr, oder bei 20fps 2-3fps :D

@desert
ist ja nix neues wenn man nicht das forum hier als vergleich hernimmt, das hat halt nix mit der realität zu tun. vor allem die "die 7900er serie verkauft sich garnicht gegenüber der x1900er" sprecher fand ich immer lustig.

mfg

Blutmaul
2006-12-29, 10:54:04
Nvidia hat den Zeitvorteil und OpenGL.
ATI muss einfach mal aus den Puschen kommen, die 8800er sind angreifbar...

Gast
2006-12-29, 12:14:36
Nvidia hat den Zeitvorteil und OpenGL.
ATI muss einfach mal aus den Puschen kommen, die 8800er sind angreifbar...

wer ein bißchen erfahrung hat,weiß das dieser zeitvorteil wurscht ist.

AnarchX
2006-12-29, 12:18:39
wer ein bißchen erfahrung hat,weiß das dieser zeitvorteil wurscht ist.

Na erkläre dass mal?
Nicht umsonst wirkte der R520 beim Launch etwas ernüchternd, da man halt die Treiber bei weitem noch nicht soweit optimieren konnte wie die Konkurrenz.
nV hat jetzt beim G80 auch einige Monate Vorlauf bei der Optimierung der Treiber, während dies ATi erst noch vorstehen wird.

Gast
2006-12-29, 12:48:58
wer ein bißchen erfahrung hat,weiß das dieser zeitvorteil wurscht ist.Bitte? Für ATI waren die Verspätungen in der Vergangenheit wohl sehr teuer.

Pirx
2006-12-29, 13:03:19
Na erkläre dass mal?
Nicht umsonst wirkte der R520 beim Launch etwas ernüchternd, da man halt die Treiber bei weitem noch nicht soweit optimieren konnte wie die Konkurrenz.
nV hat jetzt beim G80 auch einige Monate Vorlauf bei der Optimierung der Treiber, während dies ATi erst noch vorstehen wird.
Und wenn es dann wirklich auf die DX10-Fähigkeiten ankommt, hat ATi die bessere Hardware mit optimierten Treibern, siehe DX8 und DX9, gut für den Kunden - aber evtl. nicht soo gut für ATi, da nV wohl mit ihrer Strategie mehr Karten verkaufen kann weil ihnen früher die Puste ausgeht.:wink:

Hauwech
2006-12-29, 13:07:40
Na erkläre dass mal?
Nicht umsonst wirkte der R520 beim Launch etwas ernüchternd, da man halt die Treiber bei weitem noch nicht soweit optimieren konnte wie die Konkurrenz.
nV hat jetzt beim G80 auch einige Monate Vorlauf bei der Optimierung der Treiber, während dies ATi erst noch vorstehen wird.

Ist Treiberentwicklung wirklich so abhängig vom finalen Chip oder ist es eher egal wie gut/schlecht Samples vom Speed her sind solange sie den gewünschten Funktionsumfang haben? Ich kenne mich da halt überhaupt nicht aus und frage mich, ob man das so pauschal sagen kann.

Gast
2006-12-29, 13:10:09
Und wenn es dann wirklich auf die DX10-Fähigkeiten ankommt, hat ATi die bessere Hardware mit optimierten Treibern, siehe DX8 und DX9Kannst du das mal ein wenig genauer erläutern?

Blutmaul
2006-12-29, 13:13:04
Ich könnte mir vorstellen, das die Entwicklung von XP-Treibern einfacher wäre, als die Treiber-Neuprogrammierung für Vista 32/64 Bit.

Winter[Raven]
2006-12-29, 13:14:07
Kannst du das mal ein wenig genauer erläutern?

Bis wir ECHTE Direct 3D 10 Sachen sehen, steht nicht nur der Refresh des G80 und R600 sondern vielleicht schon die G90 und R700.

seahawk
2006-12-29, 13:14:27
Und wenn es dann wirklich auf die DX10-Fähigkeiten ankommt, hat ATi die bessere Hardware mit optimierten Treibern, siehe DX8 und DX9, gut für den Kunden - aber evtl. nicht soo gut für ATi, da nV wohl mit ihrer Strategie mehr Karten verkaufen kann weil ihnen früher die Puste ausgeht.:wink:

Was ist das für ne Urban.Legend ? Warum sollte der R600 unter DX10 besser sein ?

Unter DX8 mag ich mal bezweifeln, dass die 8500 besser war als die GF4 (ja ist unfair, aber da ATI nur ein DX8 Produkt hatte..) Unter DX9 hatte NV anfangs ne furchtbar versaute Karte am Start. Beim G70 und G71 sehe ich hingegen kein überpropotionales Einbrechen der NV-Karten.

Gast
2006-12-29, 13:18:19
Kommt da ne X2800 XT ran?
http://anandtech.com/video/showdoc.aspx?i=2895&p=4

Gast
2006-12-29, 13:20:15
Kommt da ne X2800 XT ran?Kann man noch nicht sagen. Die Leistung der G80-Karten in diesem Spiel ist aber schon beeindruckend.

Gast
2006-12-29, 13:33:18
Ne 7900 GTX hat 27 FPS,eine 8800 GTx hat 62 FPS.

Wenn Ati es geschafft hat genau so wie Nvidia die Performance zum vorgänger zu verdoppeln,müsste es ein leichtes Spiel sein.

Gast
2006-12-29, 15:28:04
Ne 7900 GTX hat 27 FPS,eine 8800 GTx hat 62 FPS.

Wenn Ati es geschafft hat genau so wie Nvidia die Performance zum vorgänger zu verdoppeln,müsste es ein leichtes Spiel sein.

So kannst du das aber nicht sehen. Nv hing ja mit der leistung weiter wech als ATI im vergleich. Von daher is der 79xx Vs 88xx sprung schon nachvollziehbar und wird sicher nciht so stark bei ATI ausfallen.

Gast
2006-12-29, 16:07:31
So kannst du das aber nicht sehen. Nv hing ja mit der leistung weiter wech als ATI im vergleich. Von daher is der 79xx Vs 88xx sprung schon nachvollziehbar und wird sicher nciht so stark bei ATI ausfallen.

Was ist das für ne Urban.Legend ? Warum sollte der R600 unter DX10 besser sein ?

Unter DX8 mag ich mal bezweifeln, dass die 8500 besser war als die GF4 (ja ist unfair, aber da ATI nur ein DX8 Produkt hatte..) Unter DX9 hatte NV anfangs ne furchtbar versaute Karte am Start. Beim G70 und G71 sehe ich hingegen kein überpropotionales Einbrechen der NV-Karten.


Was stimmt hier nicht?!

Gast
2006-12-29, 16:20:20
Klär uns auf. Was genau meinst du?

Coda
2006-12-29, 16:24:11
Leute. Neues Spiel - neue Karten.

G80 hat nichts aber auch gar nichts mit vergangenen NV-Generationen am Hut.

"Ja früher war das so und deshalb wird's wieder so sein" ist völliger Blödsinn. Was natürlich nicht ausschließt dass es wieder so kommen könnte (ich bezweifel es aber mal nach den ersten Spielereien mit meiner 8800 und den theoretischen Benchmarks von XBit).

Gmax
2006-12-29, 17:37:49
Leute. Neues Spiel - neue Karten.

G80 hat nichts aber auch gar nichts mit vergangenen NV-Generationen am Hut.

"Ja früher war das so und deshalb wird's wieder so sein" ist völliger Blödsinn. Was natürlich nicht ausschließt dass es wieder so kommen könnte (ich bezweifel es aber mal nach den ersten Spielereien mit meiner 8800 und den theoretischen Benchmarks von XBit).

Naja, man hat nVidia immer eine sehr gute opengl Performance nachgesagt.
Das scheint sich mit Vegas auf der 8000 zu wiederholen.
Bin gespannt, ob ATI bei diesem Spiel schneller sein wird.
Aber da Vegas ein 360 Port ist, und generell die ATIs hier schneller sind, ist wohl hoffentlich davon auszugehen.

Coda
2006-12-29, 17:39:10
Das scheint sich mit Vegas auf der 8000 zu wiederholen.

Hab ich was verpasst? Vegas verwendet OpenGL? Kann ich mir nicht vorstellen.

Aber da Vegas ein 360 Port ist, und generell die ATIs hier schneller sind, ist wohl hoffentlich davon auszugehen.

Err? Wieviel Xbox-360-Ports gibt's denn schon? Und der Vorteil der R5xx- ggü. den G7x-Karten lässt sich wohl eher durch die höhere Rechenleistung erklären als dadurch das es ein Xbox-Port ist (interessant wäre dazu auch mal ein Benchmark eines R520 mit 1:1 statt 3:1 ALU:TMU-Ratio gewesen).

dargo
2006-12-29, 17:50:24
Wieviel Xbox-360-Ports gibt's denn schon?
1. Splinter Cell: Double Agent
2. Need for Speed: Carbon
3. Rainbow Six: Vegas

Die mir Bekannten ...

Gmax
2006-12-29, 17:54:32
Hab ich was verpasst? Vegas verwendet OpenGL? Kann ich mir nicht vorstellen.

Soweit ich mich erinnern kann ist die UT3 Engine OpenGl

Coda
2006-12-29, 17:56:48
Ja sie kann. Aber das Haupt-Backend ist Direct3D. Und ich kann mir kaum vorstellen, dass das Vegas verwendet, weil die D3D einfach besseren Support hat und überhaupt die API auf der Xbox natürlich auch Direct3D ist.

ShadowXX
2006-12-29, 20:35:08
Ja sie kann. Aber das Haupt-Backend ist Direct3D. Und ich kann mir kaum vorstellen, dass das Vegas verwendet, weil die D3D einfach besseren Support hat und überhaupt die API auf der Xbox natürlich auch Direct3D ist.
Vegas ist definitiv DX......

LovesuckZ
2006-12-29, 22:26:14
Soweit ich mich erinnern kann ist die UT3 Engine OpenGl

Bei der 360 Version kommt ein Bild, auf dem "UT Engine 2.5" steht.
Es ist kein UT Engine 3 Spiel (abgesehen davon, dass ich eine Engine, welches kein AA darstellen kann, als nicht Next-Gen tauglich finde).

Gast
2006-12-29, 22:27:34
Err? Wieviel Xbox-360-Ports gibt's denn schon? Und der Vorteil der R5xx- ggü. den G7x-Karten lässt sich wohl eher durch die höhere Rechenleistung erklären als dadurch das es ein Xbox-Port ist (interessant wäre dazu auch mal ein Benchmark eines R520 mit 1:1 statt 3:1 ALU:TMU-Ratio gewesen).

Bei denn Xbox 360 Speieln bis auf vegas ist eine R580 doppelt so schnell wie ein G71......

AnarchX
2006-12-29, 22:38:19
Bei der 360 Version kommt ein Bild, auf dem "UT Engine 2.5" steht.
Es ist kein UT Engine 3 Spiel

Das steht aber in der ini:
[General]
Start=UnrealEngine3 (Starting)
Exit=UnrealEngine3 (Exiting)
Run=UnrealEngine3 (Running)
Product=UnrealEngine3"
Ich glaube doch kaum, dass man für PC-Version und Konsolenversion verschiedene Engines verwendet, wenn man sieht wie knausrig doch UBISoft ist.


(abgesehen davon, dass ich eine Engine, welches kein AA darstellen kann, als nicht Next-Gen tauglich finde).
Liegt aber eher an der Current-Gen-GraKas, die eben bei dem Schattenverfahren der UE3 dazu nicht in der Lage sind.

LovesuckZ
2006-12-29, 22:45:46
Ich glaube doch kaum, dass man für PC-Version und Konsolenversion verschiedene Engines verwendet, wenn man sieht wie knausrig doch UBISoft ist.

Nur weil es in der INI steht, muss es nicht stimmen. ;)
Aber es ist auch egal, ob Engine 2.5 oder 3 ist.

Liegt aber eher an der Current-Gen-GraKas, die eben bei dem Schattenverfahren der UE3 dazu nicht in der Lage sind.

Dann hat man in der Konzeptierung einfach mist gebaut. Ein G80 (vielleicht auch der neue AMD Chip) sind wohl kaum "Current-Gen-GraKas". Selbst mit ihnen scheint es kein AA in der U3 Engine zu geben, ohne die Schatten zu verlieren.
Immerhin hat Rein recht gehabt als er sagte, dass AA in Zukunft weniger von Bedeutung wäre...

StefanV
2006-12-29, 22:59:41
Bei denn Xbox 360 Speieln bis auf vegas ist eine R580 doppelt so schnell wie ein G71......
Ein R580 hat auch mehr Shaderpower, dazu kommt, das tex Ops die Alus nicht stallen, wie es bei der G71 der Fall ist.
Dyn Brancing läuft bei der G71 auch nicht besonders schnell von daher würd ichs nicht unbedingt auf die Software schieben...

Ich würd eher sagen, das der R580 unempfindlicher auf 'unoptimierten' Code reagiert, wenn ich fies wäre, würd ich sagen, das der R580 die bessere DX9 GPU ist,,,

Gast
2006-12-29, 23:18:09
Dyn Brancing läuft bei der G71 auch nicht besonders schnell von daher würd ichs nicht unbedingt auf die Software schieben...

Leider nutzt dies bis heute kein Spiel...

Ich würd eher sagen, das der R580 unempfindlicher auf 'unoptimierten' Code reagiert, wenn ich fies wäre, würd ich sagen, das der R580 die bessere DX9 GPU ist,,,

Aeh, nein.
Die selbe Argumentation folgend, würde auch die Behauptung, "das der [G80] die bessere DX9 GPU ist", richtig sein im gegensatz zum R580...
Ist es aber nicht. Es ist unbestritten, dass der R580 eine höhere Rechenleistung hat. Aber das hat auch der G80.

LovesuckZ

Hvoralek
2006-12-29, 23:43:05
Ein R580 hat auch mehr Shaderpower, [...]Wo kommt das eigentlich her? Dass mehr GFLOPS auf der Packung nicht eine höhere Arithmetikleistung bedeuten müssen (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_9.html), sollte sich eigentlich herumgesprochen haben (starkes dyn. Branching natürlich ausgenommen. Aber wie viele Spiele nutzen das bisher?).

Gast
2006-12-29, 23:59:37
Wo kommt das eigentlich her? Dass mehr GFLOPS auf der Packung nicht eine höhere Arithmetikleistung bedeuten müssen (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_9.html), sollte sich eigentlich herumgesprochen haben (starkes dyn. Branching natürlich ausgenommen. Aber wie viele Spiele nutzen das bisher?).

Toll ein theoretischer Benchmark.:rolleyes:Bei Spielen trift es zu was Stefan sagt.

StefanV
2006-12-30, 00:32:24
Ein R580 hat auch mehr Shaderpower, dazu kommt, das tex Ops die Alus nicht stallen, wie es bei der G71 der Fall ist.
Dyn Brancing läuft bei der G71 auch nicht besonders schnell von daher würd ichs nicht unbedingt auf die Software schieben...

Ich würd eher sagen, das der R580 unempfindlicher auf 'unoptimierten' Code reagiert, wenn ich fies wäre, würd ich sagen, das der R580 die bessere DX9 GPU ist,,,

Wo kommt das eigentlich her? Dass mehr GFLOPS auf der Packung nicht eine höhere Arithmetikleistung bedeuten müssen (http://www.xbitlabs.com/articles/video/display/geforce7900gtx_9.html), sollte sich eigentlich herumgesprochen haben (starkes dyn. Branching natürlich ausgenommen. Aber wie viele Spiele nutzen das bisher?).
Lies mein Posting nochmal und Quote nächstesmal bitte ganze Sätze (oder Postings, wenn sie nicht allzulang ist, zum unterstreichen bietet sich der highlight Tag an)

Nochmal ein nicht ganz unwichtier Teil meines Postings:

Ich würd eher sagen, das der R580 unempfindlicher auf 'unoptimierten' Code reagiert, wenn ich fies wäre, würd ich sagen, das der R580 die bessere DX9 GPU ist,,,
Und eben genau der letzte Teil ists, was den Leistungsunterschied ausmachen kann, nämlich wenn man wild mit Tex und Alu Ops umherwürfelt, mag das ein nV4x nicht besonders, ATi Chips (und dem G80, bei dem es ähnlich ist), ist das herzlich egal, da unabhängig von den Alus...

Gast
2006-12-30, 02:26:11
Dann hat man in der Konzeptierung einfach mist gebaut. Ein G80 (vielleicht auch der neue AMD Chip) sind wohl kaum "Current-Gen-GraKas". Selbst mit ihnen scheint es kein AA in der U3 Engine zu geben, ohne die Schatten zu verlieren.
Keine Ahnung was Deferred Shading ist.
Keine Ahnung warum sich das unter DX9 nicht mit AA kombinieren lässt.
Keine Ahnung was der G80 (unter D3D10) kann.
Aber 11000 Posts in nem Grafikforum. X-D
Immerhin hat Rein recht gehabt als er sagte, dass AA in Zukunft weniger von Bedeutung wäre...
Man hatte sich schon damals für Deferred Shading entschieden. Auf einmal kommen sogar die Durchschnittspieler und wollen tatsächlich AA haben. Da kommt das Zitat wie ein verzweifelter Versuch die Industrie und Spieler in eine Richtung zu lenken, die besser zu den eigenen Entscheidungen passt.

Ailuros
2006-12-30, 07:19:58
Ein R580 hat auch mehr Shaderpower, dazu kommt, das tex Ops die Alus nicht stallen, wie es bei der G71 der Fall ist.

Es gibt einen kleinen Unterschied zwischen dem theoretischem Maximum jeder GPU und was in Echtzeit vorkommt. Erstens sorgten/sorgen die Entwickler dafuer dass die Tex OPs nicht stallen, zweitens hat G7x immer noch den Vorteil der hoeheren Fuellrate und drittens wenn ich theoretisch die Tex OPs von den GFLOPs abrechnen soll, dann rechne ich auch gleich die ADD der sub-ALU des R5x0 ab, denn man kann sie auch nur unter Bedingungen gebrauchen.

Wobei wenn wir schon dabei sind, beide IHVs sollten sich endlich einig werden ob ADD oder MUL "wichtiger" sein soll, denn ich bin mir sicher dass Entwickler darueber ueberhaupt nicht froh sind. Schau Dir mal nochmal aths' G80 Artikel an und konzentrier Dich auf die theoretische insgesamte MUL Rate des G80 an. Nachdem dann die R600 Details veroeffentlicht werden, erinner Dich dann daran an die insgesamte ADD Rate zu konzentrieren.

Bei diesem endlosen hin und her wuerde es mich kein bisschen wundern wenn Entwickler diesen Mist links liegen lassen und sich hauptaechlich nur auf MADD konzentrieren und aus damit.

Dyn Brancing läuft bei der G71 auch nicht besonders schnell von daher würd ichs nicht unbedingt auf die Software schieben...

...wobei es aber genau auf den gleichen Haufen wie das obrige verworfen werden koennte: Entwickler werden sich ernsthaft mit A oder B nur dann beschaeftigen wenn es auch auf allen Architekturen unterstuetzt wird.

Ich würd eher sagen, das der R580 unempfindlicher auf 'unoptimierten' Code reagiert, wenn ich fies wäre, würd ich sagen, das der R580 die bessere DX9 GPU ist,,,

Den Quark mit dem unoptimierten Code soll jetzt wer verstehen? Wenn jemand unoptimierten Code auf jegliche GPU wirft, bemerkt man den Flaschenhals sofort und nein R5x0 ist hier keine Aussnahme.

R5x0 hat sehr spezifische Vorteile unter DX9: ganz oben in meiner Hierarchie die hoehere Bildqualitaet und als zweites dann direkt dahinter sehr effizientes PS dyn.branching.

Wenn ich jetzt aber das Ganze auf die andere Seite drehe koennte man genauso leicht uber das fehlende VST meckern, ueber die niedrigere Fuellrate, das VS dyn.branching dass zu wuenschen uebrig laesst, die schlechte Skalierung der insgesamten Architektur, Stromverbrauch und weiss der Geier was noch.

Und bevor jemand jetzt wieder schreit dass es nicht relevant sei, nimmt mal gefaelligerweise eine RV560 und eine G73 in Echtzeit zum Vergleich. ATI soll diesmal dafuer gesorgt haben dass aehnliches nicht mehr vorkommt, denn RV560 hat nur 4 TMUs weil ihnen sonst die GPU zu fett geworden waere.

Sich auf nur ein Produkt zu konzentrieren dass maximal vielleicht mal irgendwo =/>5% verkauft ist ja schoen und gut, aber es ist eben leider mal so dass sich jegliche Nachteile dieser dann eben auch auf der gesamten Palette der jeweiligen Produktlinien ausspielen.

AnarchX
2006-12-30, 07:24:08
Und bevor jemand jetzt wieder schreit dass es nicht relevant sei, nimmt mal gefaelligerweise eine RV560 und eine G73 in Echtzeit zum Vergleich. ATI soll diesmal dafuer gesorgt haben dass aehnliches nicht mehr vorkommt, denn RV560 hat nur 4 TMUs weil ihnen sonst die GPU zu fett geworden waere.

RV560 (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=120&orderby=release_date&order=Order&cname=) hat 8 TMUs/ROPs, du meinst wohl RV53x.

Hvoralek
2006-12-30, 11:37:11
Toll ein theoretischer Benchmark.:rolleyes:Bei Spielen trift es zu was Stefan sagt.Zur absoluten Beurteilung einzelner Eigenschaften einer Architektur eignen sich theoretisch Bencharks mMn oft gut. Aber wenn es praxisorientierte sein sollen: Oblivion- Innengebiete (http://www.firingsquad.com/hardware/oblivion_high-end_performance/page7.asp) sind da ein gutes Beispiel für einen ziemlich großen Einfluss der Arithmetikleistung (Man beachte dazu auch den Abstand R520 - R580). Wo siehst Du da den großen Vorsprung des R580 ggü. G71?

Wobei wenn wir schon dabei sind, beide IHVs sollten sich endlich einig werden ob ADD oder MUL "wichtiger" sein soll, denn ich bin mir sicher dass Entwickler darueber ueberhaupt nicht froh sind. Schau Dir mal nochmal aths' G80 Artikel an und konzentrier Dich auf die theoretische insgesamte MUL Rate des G80 an. Nachdem dann die R600 Details veroeffentlicht werden, erinner Dich dann daran an die insgesamte ADD Rate zu konzentrieren.Das verstehe ich mal so, dass es bei ATI wieder einmal doppelt so viele ADDs wie MULs geben wird. Ich hatte schon gehofft, dass sie sich in der Hinsicht an Xenos- ALUs (reine MADDs) orientieren würden. Aber zumindest bleibt ATI seit R300 konstant bei ihrem Aufbau. Nvidia schwankt ja anscheinend bei jeder neuen Architektur und jedem größeren Refresh zwischen MADD + MUL und nur MADD :rolleyes:

Lies mein Posting nochmal und Quote nächstesmal bitte ganze Sätze (oder Postings, wenn sie nicht allzulang ist, zum unterstreichen bietet sich der highlight Tag an)Ich zitiere üblicherweise nur die Passagen, auf die ich mich beziehe. Dass das dyn. Branching auf G7x nicht viel taugt, ist bekannt. Dass u.U. Tex- Ops Teile der ersten ALU blockieren, ebenfalls. Wieso soll ich das dann mitzitieren?

Davon mal abgesehen ist diese R5xx- vs.- G7x- Debatte hier für sich genommen ziemlich OT.

robbitop
2006-12-30, 13:39:56
Nvidia schwankt ja anscheinend bei jeder neuen Architektur und jedem größeren Refresh zwischen MADD + MUL und nur MADD :rolleyes:


Der G7x ist die einzige Serie mit 2x MADD. Sonst sind alle Geforce schon immer MUL Lastig gewesen. Das kann man zurueck zu den fruehen Texturcombinern von NV verfolgen.

Hvoralek
2006-12-30, 13:43:36
Der G7x ist die einzige Serie mit 2x MADD. Sonst sind alle Geforce schon immer MUL Lastig gewesen. Das kann man zurueck zu den fruehen Texturcombinern von NV verfolgen.Erinnere ich mich falsch, dass NV38 in der Hinsicht ziemlich ausgeglichen war?

Gast
2006-12-30, 13:45:22
Und warum ist ein R580 zurzeit soviel schneller bei neuen Spielen wie ein G71?Vielleicht liegt es nicht an der Shaderpower,an irgendwas wirds dann aber wohl doch liegen.;=)

Gast
2006-12-30, 13:47:04
Kann eigentlich auch egal sein ob jetzt die X1900 mehr Shaderpower hat.Fakt ist,die X1950 ist zurzeit schneller als eine 7900,und das nicht zu knapp.

robbitop
2006-12-30, 13:52:36
Erinnere ich mich falsch, dass NV35 in der Hinsicht ziemlich ausgeglichen war?
Du hast IIRC Recht. Den hatte ich nicht bedacht. Allerdings betrifft das nur das FP Format, welches im NV3x ja urspruenglich nur als Checklist Feature vorgesehen war und MS unverhofft das Int12 Format nicht als PP in D3D9 aufgenommen hat. Da konnte man dann auch nichts mehr machen, als zum Shadercore noch eine FP32 MAD ALU anzuflanschen.
NV3x war naemlich was Int anging auch MAD+MUL. Was FP anging erst 1x MAD und im NV35/36 2x MAD.

Beim G7x erschien es wohl ein sehr billiger weg die ALU1 auf MAD aufzubohren um damit andere Nachteile der Pipeline etwas zu kaschieren.

Gast
2006-12-30, 13:55:20
Fakt ist das es in diesem Thread um die nächste Generation geht und nicht um alte Backfische.

Was mich eher interessiert wie es mit den Treibern für R600 aussieht. Eine vollkommen neue Architektur wie der G80 hinkt ja momentan etwas an den sehr frischen Treibern. Sollte der R600 wenig mit der alten R5x0 Serie gemein haben wird auch ATI mit viel Treiberflickwerk aufwarten.
Kann man aus den Gerüchten zur Architektur schon etwas darauf schließen?

robbitop
2006-12-30, 13:58:34
Fakt ist das es in diesem Thread um die nächste Generation geht und nicht um alte Backfische.

Was mich eher interessiert wie es mit den Treibern für R600 aussieht. Eine vollkommen neue Architektur wie der G80 hinkt ja momentan etwas an den sehr frischen Treibern. Sollte der R600 wenig mit der alten R5x0 Serie gemein haben wird auch ATI mit viel Treiberflickwerk aufwarten.
Kann man aus den Gerüchten zur Architektur schon etwas darauf schließen?

Wenn du auf Antworten aus unseren Glaskugeln hoffst, kein Problem. ;)

Gast
2006-12-30, 19:05:44
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Mhhh?

AnarchX
2006-12-30, 19:10:48
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Mhhh?

Na endlich... =)
:edit:
Naja, die Performance scheint doch etwas zu hoch für ein Sample mit Alpha/Beta-Treibern.
Aber Mühe haben sich die Jungs schon etwas gegeben... :D

Demirug
2006-12-30, 19:13:50
Wie ausgehungert muss man sein um das ernst zu nehmen?

Gast
2006-12-30, 19:16:22
Wie ausgehungert muss man sein um das ernst zu nehmen?

Vll ist mehr dran als du denkst?^^

Gast
2006-12-30, 19:16:43
Wollt ich auch gerade sagen ...... Gaube keinen Funken davon

The_Invisible
2006-12-30, 19:23:49
das geschreibsel scheint mir sowieso sehr "pro ATI" zu sein, aber lassen wir uns überraschen.

mfg

Gast
2006-12-30, 19:30:04
das geschreibsel scheint mir sowieso sehr "pro ATI" zu sein, aber lassen wir uns überraschen.

mfg
wenn es pro ati wäre, dann hätten die BF Bench wo Nvidia schneller ist, weggelassen.

Es ist sehr realistisch das ganze.
Wahrscheinlich will ATI die Kunden vom schlechtem Kauf schützen (8800GTX)
und hat ein Sample zu verfügung gestellt um die BRACHIALE, Unglaubliche POWER des R600 zu demostrieren.
Da hilft kein refresh von Nividia, das ist die Zerstörung.

Ich habe schon meine 8800GTX bei Ebay reingestellt, sollange die noch was wert ist;)

gruss

Gast
2006-12-30, 19:35:47
Was für eine Ironie hier...^^

[dzp]Viper
2006-12-30, 19:39:37
wenn es pro ati wäre, dann hätten die BF Bench wo Nvidia schneller ist, weggelassen.

Es ist sehr realistisch das ganze.
Wahrscheinlich will ATI die Kunden vom schlechtem Kauf schützen (8800GTX)
und hat ein Sample zu verfügung gestellt um die BRACHIALE, Unglaubliche POWER des R600 zu demostrieren.
Da hilft kein refresh von Nividia, das ist die Zerstörung.

Ich habe schon meine 8800GTX bei Ebay reingestellt, sollange die noch was wert ist;)

gruss

Selbst wenn der Test echt ist, wäre der Vorsprung von R600 nicht sooo groß wie du ihn mit deinem Post großredest ;)

dargo
2006-12-30, 19:41:24
Hehe, irgendwie lustig der Test. Das ist nämlich genau das was ich vom R600 erwarte. Etwas schneller als die G8800GTX.
Warum wurde aber eigendlich nichts zur GPU Taktrate gesagt? Oder habe ich es übersehen?

[dzp]Viper
2006-12-30, 19:43:36
Hehe, irgendwie lustig der Test. Das ist nämlich genau das was ich vom R600 erwarte. Etwas schneller als die G8800GTX.
Warum wurde aber eigendlich nichts zur GPU Taktrate gesagt? Oder habe ich es übersehen?

Vielleicht weil die Taktenraten vom GPU zu dem Zeitpunkt des Tests (wenn er echt ist...) noch nicht feststanden!

AnarchX
2006-12-30, 19:44:29
Hehe, irgendwie lustig der Test. Das ist nämlich genau das was ich vom R600 erwarte. Etwas schneller als die G8800GTX.
Warum wurde aber eigendlich nichts zur GPU Taktrate gesagt? Oder habe ich es übersehen?

Aus der Angabe 28GTex/s und 32 TMUs, müsste sie folglich bei etwa ~880MHz liegen, was aber dann wohl nicht ganz zu den Shader-Ops-Zahlen passt, weshalb Demirug auch so reagierte.

w0mbat
2006-12-30, 19:44:45
Leute, das war ein heruntergetaktetes Modell mit Betatreibern! Und dann in 99% aller Benches trotzdem schneller als eine 8800GTX! Das ist der Wahnsinn! Und die Unterstützung für DX10.1 gefällt mir auch sehr gut :D

Gast
2006-12-30, 19:47:41
Aus der Angabe 28GTex/s und 32 TMUs, müsste sie folglich bei etwa ~880MHz liegen, was aber dann wohl nicht ganz zu den Shader-Ops-Zahlen passt, weshalb Demirug auch so reagierte.

Ich denke nicht das Demirug die völligen Specs des R600 kennt.

Aber wahrscheinlich ist dieser Test vollkommener stumpfsinn.

The_Invisible
2006-12-30, 19:49:00
wenn es pro ati wäre, dann hätten die BF Bench wo Nvidia schneller ist, weggelassen.

Es ist sehr realistisch das ganze.
Wahrscheinlich will ATI die Kunden vom schlechtem Kauf schützen (8800GTX)
und hat ein Sample zu verfügung gestellt um die BRACHIALE, Unglaubliche POWER des R600 zu demostrieren.
Da hilft kein refresh von Nividia, das ist die Zerstörung.

Ich habe schon meine 8800GTX bei Ebay reingestellt, sollange die noch was wert ist;)

gruss

das ist sozusagen nur geschickte ablenkung.

ansonsten ist es ja eigentlich klar, weil nur nvidia optimiert für 3dmark, die nvidia treiber für g80 sind ja schon so ausgereift und 12fps sind ein "big performance gap", wem da nix auffällt

mfg

Gast
2006-12-30, 19:50:22
Leute, das war ein heruntergetaktetes Modell mit Betatreibern! Und dann in 99% aller Benches trotzdem schneller als eine 8800GTX! Das ist der Wahnsinn! Und die Unterstützung für DX10.1 gefällt mir auch sehr gut :D


Liest sich so , also ob du der Ersteller dieses Tests bist *rofl*

w0mbat
2006-12-30, 19:51:03
Nope, bin einfach AMD-Fanboy ;)

horn 12
2006-12-30, 19:52:10
Dies könnte echt der Grund sein, denn AmdAti hat ja verlautbaren lassen, dass vor dem 2-ten Halbjahr eine DX10 Karte wenig Sinn macht, da auch der Performance Vorteil solcher Karten auch erst richtig mit D3D10 in Vorderfront rückt. Billig dürfte der R600 sicher auch nicht werden, und somit will man wahrscheinlich potentielle Käufer vom Kauf der 8800 GTX fernhalten, bzw. zum Erneuten Überdenken zwingen. Falls die Werte echt sind (davon gehe ich aus, dürfte die Finale Version noch gar was drauflegen, und somit hätte Nvidia sicherlich zu kämpfen mit dem Refreshchip der 8800 GTX.
Auch wenn diese dem R600 viell. gar das Wasser reichen kann, davon würde ich ausgehen,- aber eben nicht bei allen Games.

vinacis_vivids
2006-12-30, 19:52:28
http://level505.com/wp-content/uploads/2006/12/ati-r600-doom3-16001200.jpg
22,7%

http://level505.com/wp-content/uploads/2006/12/ati-r600-oblivion-16001200.jpg
33,3%

http://level505.com/wp-content/uploads/2006/12/ati-r600-anno1701-16001200.jpg
42,7%

Da braucht der G80 ein refresh. Die anderen Benchmarks sind mehr oder weniger nicht wichtig, da beide Karten sich im flüssigen Rahmen bewegen. Freue mich schon auf die kleineren R600. ;D

dargo
2006-12-30, 19:57:29
Viper']Vielleicht weil die Taktenraten vom GPU zu dem Zeitpunkt des Tests (wenn er echt ist...) noch nicht feststanden!
Sollte der Cat. die Taktrate nicht anzeigen?
Naja, ok. Ist ja alles noch Beta.

Gast
2006-12-30, 19:57:36
Irgend schauen die Zahlen etwas ausgewürfelt aus...^^

Gast
2006-12-30, 20:02:34
Viper']Selbst wenn der Test echt ist, wäre der Vorsprung von R600 nicht sooo groß wie du ihn mit deinem Post großredest ;)

Schaue ein posting über deinem ;)

Gast
2006-12-30, 20:03:14
Ich glaube nicht, dass diese Benchmarks echt sind. Das ist genauso ausgedacht, wie die Benches von Sander Sassen letztes Jahr beim R520.

Ronny145
2006-12-30, 20:03:15
Irgend schauen die Zahlen etwas ausgewürfelt aus...^^


Vergleiche mal die Werte mit dem CB Test, die ähneln sich. Die Zahlen sind also realistisch. Beim R600 bleibt ein Fragezeichen.

w0mbat
2006-12-30, 20:03:23
Hab gerade ausgerechnet, das der R600 (runtergetaktet + Betatreiber) in den Gamebenches durchschnittlich etwas über 18% schneller als eine 8800GTX ist.

Gast
2006-12-30, 20:07:05
Hab gerade ausgerechnet, das der R600 (runtergetaktet + Betatreiber) in den Gamebenches durchschnittlich etwas über 18% schneller als eine 8800GTX ist.

Was willst du bitte rechnen wenn keine Taktraten vorhanden sind ô.Ô

R300
2006-12-30, 20:07:14
Naja wenn das stimmen sollte passt es aber nicht so ganz zu einigen Aussagen von Ailuros.

w0mbat
2006-12-30, 20:09:42
Was willst du bitte rechnen wenn keine Taktraten vorhanden sind ô.Ô

Man vergleicht die Benches, Taktraten sind dafür nicht nötig :tongue:

dargo
2006-12-30, 20:16:08
Naja wenn das stimmen sollte passt es aber nicht so ganz zu einigen Aussagen von Ailuros.
Was passt denn nicht?
Selbst Ailuros meinte der R600 wäre hier und da etwas schneller als der G80. Kein Killer aber etwas schneller.

LovesuckZ
2006-12-30, 20:16:16
Vergleiche mal die Werte mit dem CB Test, die ähneln sich. Die Zahlen sind also realistisch. Beim R600 bleibt ein Fragezeichen.

Ein bisschen zu ähnlich...
Wäre schon verrückt, wenn er wie CB.de auch TSAA auf allen Karten aktiviert hätte...

robbitop
2006-12-30, 20:16:31
Die Reaktionen auf irgendwelche Diagramme find ich geil. Excel an und los gehts. X-D

AiL hat ja schon ein paar mal angedeutet, dass Leistung im Forceware zum R600 zurückgehalten wird. Ich bin gespannt, ob sich das bewahrheitet oder nicht.

Ronny145
2006-12-30, 20:18:40
Ein bisschen zu ähnlich...
Wäre schon verrückt, wenn er wie CB.de auch TSAA auf allen Karten aktiviert hätte...


Dann wärs zu niedrig. Die etwas stärkere CPU kommt auch noch dazu.

dargo
2006-12-30, 20:18:44
AiL hat ja schon ein paar mal angedeutet, dass Leistung im Forceware zum R600 zurückgehalten wird. Ich bin gespannt, ob sich das bewahrheitet oder nicht.
Meinst du damit die MUL? Tja, da bin ich auch gespannt was beim Launch des R600 passiert.

robbitop
2006-12-30, 20:26:43
Meinst du damit die MUL? Tja, da bin ich auch gespannt was beim Launch des R600 passiert.

Nicht nur. Es ist eine ziemlich neue Architektur. Dort ist erfahrungsgemäß im Sheduler als auch bei der Blasenbeseitigung noch Potenzial enhalten. Bis jetzt habe ich noch keinen wirklich neuen G80 Treiber gesehen. Und das 2 Monate nach dem Launch...

Raff
2006-12-30, 20:30:46
Eventuell begrüßt uns Anfang 2007 die ForceWare-Generation 100 ... mit Leistungszuwächsen ohne die zweite Null. Dann ist aber größtenteils Ende, während Ati noch nachlegen kann.

MfG,
Raff

Superheld
2006-12-30, 20:30:54
wieviel Prozent macht das Mul aus in Spiele ?

R300
2006-12-30, 20:31:15
Was passt denn nicht?
Selbst Ailuros meinte der R600 wäre hier und da etwas schneller als der G80. Kein Killer aber etwas schneller.

Er meinte ja irgendwann, dass man sich erst fragen wird "Wie das wars?"
Und dass R600 etwas schneller ist ja, aber der R600 im Test ist wahrscheinlich noch nicht ganz final also wird er zum Release noch schneller werden.

In dem Test ist der R600 aber jetzt schon fast überall schneller und nicht nur hier und da...
Weiß nicht, aber irgendwie bin ich da etwas skeptisch.:rolleyes:

dargo
2006-12-30, 20:32:04
Nicht nur. Es ist eine ziemlich neue Architektur. Dort ist erfahrungsgemäß im Sheduler als auch bei der Blasenbeseitigung noch Potenzial enhalten. Bis jetzt habe ich noch keinen wirklich neuen G80 Treiber gesehen. Und das 2 Monate nach dem Launch...
Imo sollte NV erstmal die Probleme mit einigen Games beseitigen anstatt an der Performance zu drehen. :rolleyes:


In dem Test ist der R600 aber jetzt schon fast überall schneller und nicht nur hier und da...
Weiß nicht, aber irgendwie bin ich da etwas skeptisch.:rolleyes:
Mich würde mal interessieren ob Ailuros schon echte R600 Benchmarks gesehen hat oder ob er die Performance aus irgendwelchen Zahlen zb. TMUs, ROPs ableitet.
Im ersteren Fall könnte seine Begründung für den minimalen Vorteil des R600 an ganz frühen Treibern liegen, was sich bekannterweise bei neuen Generationen ganz schnell ändern kann.

LovesuckZ
2006-12-30, 20:39:03
Er meinte ja irgendwann, dass man sich erst fragen wird "Wie das wars?"
Und dass R600 etwas schneller ist ja, aber der R600 im Test ist wahrscheinlich noch nicht ganz final also wird er zum Release noch schneller werden.
In dem Test ist der R600 aber jetzt schon fast überall schneller und nicht nur hier und da...
Weiß nicht, aber irgendwie bin ich da etwas skeptisch.:rolleyes:

Du hast eine 50% Chance, dass Ail falsch liegt. ;)
Ob der Test war ist, sehen wir spätesten am 22. Januar. Davor würde ich ihn die Schublade: Aha legen.


Imo sollte NV erstmal die Probleme mit einigen Games beseitigen anstatt an der Performance zu drehen.

Jetzige Treiber scheinen Übergangstreiber zu sein. Die alte Struktur wurde soweit gepimpt, das eine Vielzahl an Games halbswegs läuft.
Ich erhoffe mir mit einer neueren Versionsnummer a) mehr Leistung und b) eine deutlich bessere Kompartibilität.

Gast
2006-12-30, 20:57:32
Wie ausgehungert muss man sein um das ernst zu nehmen?

was heisst erst nehmen ,was soll mich an dem benchmark überzeugen ?

http://level505.com/wp-content/uploads/2006/12/r600-doom3-12801024.jpg

Gast
2006-12-30, 20:59:46
http://level505.com/wp-content/uploads/2006/12/ati-r600-doom3-16001200.jpg
22,7%

http://level505.com/wp-content/uploads/2006/12/ati-r600-oblivion-16001200.jpg
33,3%

http://level505.com/wp-content/uploads/2006/12/ati-r600-anno1701-16001200.jpg
42,7%

Da braucht der G80 ein refresh. Die anderen Benchmarks sind mehr oder weniger nicht wichtig, da beide Karten sich im flüssigen Rahmen bewegen. Freue mich schon auf die kleineren R600. ;D

gibs das auch in 1280,1024 ?

drmaniac
2006-12-30, 21:49:27
Bei der 360 Version kommt ein Bild, auf dem "UT Engine 2.5" steht.
Es ist kein UT Engine 3 Spiel (abgesehen davon, dass ich eine Engine, welches kein AA darstellen kann, als nicht Next-Gen tauglich finde).

hmmm.

Tim Sweeney von Epic hat schon vor über einem Jahr gesagt, dass die kommenden next Gen Engines so viel Leistung fordern, dass er für die nächsten darauf aufbauenden Games kein AA mehr machbar sieht. Oder sowas in der Art, man möge mich mit dem korrekten Zitat gerne korrigieren :D

Coda
2006-12-30, 21:55:43
Das ist Blödsinn. Der eigentlich Grund ist dass deferred shading eben kein AA erlaubt mit D3D9. Da braucht man D3D10 dafür.

drmaniac
2006-12-30, 21:58:29
trotzdem hat er es gesagt. Bezug war auf die UE3.

dargo
2006-12-30, 22:00:50
trotzdem hat er es gesagt. Bezug war auf die UE3.
Macht auch irgendwie Sinn, UT07 ist/wird ein D3D9 Game.

reunion
2006-12-30, 22:18:24
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Mhhh?

Die wollen doch nur ein paar extra Zugriffe auf ihre Seite verbuchen. Das ganze ist absolut wertlos.

Mich würde mal interessieren ob Ailuros schon echte R600 Benchmarks gesehen hat oder ob er die Performance aus irgendwelchen Zahlen zb. TMUs, ROPs ableitet.
Im ersteren Fall könnte seine Begründung für den minimalen Vorteil des R600 an ganz frühen Treibern liegen, was sich bekannterweise bei neuen Generationen ganz schnell ändern kann.

Die Frage ist IMHO eher ob seine Daten auch authentisch sind. Angebliche Insiderinformationen über zukünftige Chips bekommt man gleich mal, wenn man ein bisschen nachfragt, nur wird eben auch viel Mist verstreut. Da seine Informationen so kurz vorm Release in der Vergangenheit eigentlich immer gestimmt haben, gehe ich allerdings doch davon aus, dass er nicht völlig daneben liegt. Wobei man hier bedenken sollte, dass sich Dinge, von denen er vor eingen Wochen gesprochen hat, schon wieder etwas verändert haben könnten.

Gast
2006-12-30, 22:48:44
Der Typ hat abgeschrieben^^

Die Benches sind für den Arsch.

Man betrachte das Ergebnis auf CB:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/9/#abschnitt_oblivion

Und dann das Ergebnis von der vermeintlichen Quelle:

http://level505.com/2006/12/30/the-full-ati-r600-test/10/


Wie jeder weiß, hängt das Ergebnis bei Oblivion deutlich von der Umgebung ab. Komisch ist natürlich das das Ergebnis ziemlich nach an dem Ergebnis von Cb rankommt.

Ich habe einige anderes Test im Inet betrachtet und in jedem kamen andere Ergebnise vor.

Daher denke ich das der Test ziemlich abgeschrieben ist...

mfg Nakai

dargo
2006-12-30, 22:58:04
@Gast
Und was macht dich so sicher, dass er nicht die selbe Timedemo wie CB verwendet hat?


Die Frage ist IMHO eher ob seine Daten auch authentisch sind. Angebliche Insiderinformationen über zukünftige Chips bekommt man gleich mal, wenn man ein bisschen nachfragt, nur wird eben auch viel Mist verstreut. Da seine Informationen so kurz vorm Release in der Vergangenheit eigentlich immer gestimmt haben, gehe ich allerdings doch davon aus, dass er nicht völlig daneben liegt. Wobei man hier bedenken sollte, dass sich Dinge, von denen er vor eingen Wochen gesprochen hat, schon wieder etwas verändert haben könnten.
Ailuros möge mir verzeihen, aber ich hatte in letzter Zeit den Eindruck, dass er zu sehr Zahlen vergleicht. Bestes Beispiel war die Diskussion über das überflüssige 512Bit SI beim R600, verglichen wurde direkt mit dem G80.

Nach dem Motto - wozu braucht ein R600 soviel Bandbreite wenn diese beim G80 schon nicht limitiert. Auf der einen Seite ist es natürlich logisch. Was soll man sonst vergleichen wenn keine bestätigten Benchmarks da sind. Auf der anderen Seite ist bei mir immer noch ein großes Fragezeichen bei der Effizienz vorhanden. Ich meine Grafikchip X und Grafikchip Y mögen zwar ähnliche Einheiten besitzen. In der Effizienz alledings kann es durchaus größere Unterschiede geben.

Ronny145
2006-12-30, 23:01:07
@Gast
Und was macht dich so sicher, dass er nicht die selbe Timedemo wie CB verwendet hat?


Dort sind alle Ergebnisse ähnlich, nicht nur das eine. Und CB benutzte TSAA. Eher unwarscheinlich, dass Level505 mit den selben settings getestet hat.

Coda
2006-12-30, 23:05:56
Macht auch irgendwie Sinn, UT07 ist/wird ein D3D9 Game.

Ich wäre mir da nicht so sicher, dass es nicht auch ein D3D10-Backend geben wird das AA erlaubt.

dargo
2006-12-30, 23:08:50
Ich wäre mir da nicht so sicher, dass es nicht auch ein D3D10-Backend geben wird das AA erlaubt.
Das ändert aber nichts daran, dass es ein D3D9 Game wird. Von mir aus ähnlich wie es Crysis ergehen wird.

Coda
2006-12-30, 23:26:00
Das ändert aber nichts daran, dass es ein D3D9 Game wird.

Darum ging's doch aber grad gar nicht :|

dargo
2006-12-30, 23:28:34
Darum ging's doch aber grad gar nicht :|
Ich weiß. :D
Ich hoffe sogar, dass es einen D3D10 Pfad geben wird. Denn, eins was ich hasse ist ein Game ohne AA.

LovesuckZ
2006-12-30, 23:59:00
Aber 11000 Posts in nem Grafikforum. X-D


Laut dem (http://209.85.135.104/search?q=cache:PcnEW2BATI4J:stalker.myexp.de/forum/viewtopic.php%3Fp%3D59118%26sid%3D3e86f95009e12b87aa1f61a5c6986ad0+deferred+shad ing+antialiasing&hl=de&gl=de&ct=clnk&cd=1&client=firefox-a) hat UBISOFT schon bei GR:AW (PC) "deferred shading" verwendet. Demnach kann wohl ausgeschlossen werden, dass VEGAS die U3 Engine verwendet, da UBISOFT schon Erfahrung hinsichtlich "deferred shading" hat und dies wohl (vielleicht ist AW auch noch U2.x) bei VEGAS verwendet hat.

Coda
2006-12-31, 00:04:41
Vegas ist mit Sicherheit UE3. Und bei GRAW hat bei mir AA funktioniert, wenn mich nicht alles täuscht.

LovesuckZ
2006-12-31, 00:32:21
Vegas ist mit Sicherheit UE3.

Auf der Box jedenfalls nicht...
Und da Ubisoft zur Zeit ein Scheiß auf die PC - User geben, denke ich, dass es sich um die gleiche Engine handelt.

Und bei GRAW hat bei mir AA funktioniert, wenn mich nicht alles täuscht.

Nein, funktioniert leider nicht, siehe dazu auch:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=59&Itemid=29

Coda
2006-12-31, 00:35:49
Auf der Box jedenfalls nicht...

Sagt wer?

Nein, funktioniert leider nicht, siehe dazu auch:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=59&Itemid=29

Okay.

w0mbat
2006-12-31, 00:39:43
R6V basiert 100%tig auf der UE3 und AA ist auch möglich.

LovesuckZ
2006-12-31, 00:48:20
Sagt wer?


Ubisoft selbst (der Poster ist kein Ubisoft Mensch...):
http://www.beyond3d.com/forum/showpost.php?p=898179&postcount=20
http://www.beyond3d.com/forum/showpost.php?p=898219&postcount=26

w0mbat
2006-12-31, 00:56:00
Alle Quellen sprechen von der UE3, außerdem ist es klar wenn man Spiel zockt.

Gast
2006-12-31, 01:12:18
Alle Quellen sprechen von der UE3, außerdem ist es klar wenn man Spiel zockt.

Hier ein paar Quellen, welche die UE3 bestätigen:
http://www.google.de/search?hl=de&q=Rainbow+six+vegas+engine&meta=

Mit ATI-Karten auch AA möglich
http://players-hq.de/?c=rs&cat=14

LovesuckZ
2006-12-31, 01:17:23
Mit ATI-Karten auch AA möglich
http://players-hq.de/?c=rs&cat=14

Keine Schatten! (http://www.nvnews.net/vbulletin/showpost.php?p=1101799&postcount=238)

Gast
2006-12-31, 01:31:19
Keine Schatten! (http://www.nvnews.net/vbulletin/showpost.php?p=1101799&postcount=238)

Ist ja auch der erste umständliche Versuch:
http://players-hq.de/forum/thread.php?postid=9295#post9295

Coda
2006-12-31, 01:32:28
Ubisoft selbst (der Poster ist kein Ubisoft Mensch...):
http://www.beyond3d.com/forum/showpost.php?p=898179&postcount=20
http://www.beyond3d.com/forum/showpost.php?p=898219&postcount=26

Kann aber auch ein Fehler sein. Die Grenzen sind da eh fließend. Deferred Shading ist auf jeden Fall UE3 typisch.

Ist ja auch der erste umständliche Versuch:
http://players-hq.de/forum/thread.php?postid=9295#post9295

Da gibt's nichts zu "versuchen". MRTs gehen nicht mit AA unter D3D9. Es kann nur sein, dass die ATi-D3D9-Hardware es eigentlich kann, aber die Specs es nicht zulassen und es somit evtl. irgendwie durch einen Treiber-Hack umgangen werden könnte.

LovesuckZ
2006-12-31, 01:33:23
Ist ja auch der erste umständliche Versuch:
http://players-hq.de/forum/thread.php?postid=9295#post9295

Bei GR haben sie "Anti aliasing: Edge smoothing feature has been added to the graphics options." per Patch eingefügt.
Eventuell kommt da noch was bei Vegas.

Demirug
2006-12-31, 01:37:53
Da gibt's nichts zu "versuchen". MRTs gehen nicht mit AA unter D3D9. Es kann nur sein, dass die ATi-D3D9-Hardware es eigentlich kann, aber die Specs es nicht zulassen und es somit evtl. irgendwie durch einen Treiber-Hack umgangen werden könnte.

Man kann DR auch ohne MRTs machen. Das Problem sind ja vielmehr die Vektoren an den Kanten. Die werden dann vom Downfilter gematscht.

Coda
2006-12-31, 01:41:50
Man kann DR auch ohne MRTs machen.

Dann hat man doch aber viel unnötige Vertex- und Rasterizer-Arbeit, oder nicht?

Das Problem sind ja vielmehr die Vektoren an den Kanten. Die werden dann vom Downfilter gematscht.

Stimmt. Problem.

Gibt's mit D3D10 eigentlich eine "Patentlösung" dafür oder nicht?

Demirug
2006-12-31, 01:50:31
Dann hat man doch aber viel unnötige Vertex- und Rasterizer-Arbeit, oder nicht?

Richtig.

Stimmt. Problem.

Gibt's mit D3D10 eigentlich eine "Patentlösung" dafür oder nicht?

Ja, man kann bei multisample Ressourcen gezielt auf einzelne Samples zugreifen.

Ailuros
2006-12-31, 07:02:35
Ailuros möge mir verzeihen, aber ich hatte in letzter Zeit den Eindruck, dass er zu sehr Zahlen vergleicht. Bestes Beispiel war die Diskussion über das überflüssige 512Bit SI beim R600, verglichen wurde direkt mit dem G80.

Nach dem Motto - wozu braucht ein R600 soviel Bandbreite wenn diese beim G80 schon nicht limitiert. Auf der einen Seite ist es natürlich logisch. Was soll man sonst vergleichen wenn keine bestätigten Benchmarks da sind. Auf der anderen Seite ist bei mir immer noch ein großes Fragezeichen bei der Effizienz vorhanden. Ich meine Grafikchip X und Grafikchip Y mögen zwar ähnliche Einheiten besitzen. In der Effizienz alledings kann es durchaus größere Unterschiede geben.

Ich greife stets zu dem was ich greifen darf und sehr selten mehr. Ich kann Dir jetzt nicht sagen dass R600 so und so aussieht und das er in X,Y,Z so und so viel liefert um jegliche Behauptung auch zu dokumentieren.

Das einzige sehr wichtige Fragezeichen momentan ist ob die R600 ALUs wirklich das sind als was sie vermarktet werden oder ob es sich nur um kreative Mathe handelt. Im ersten Fall ist es die vor einiger Zeit erwaehnte "hoppla!" Reaktion; die "hmmm" Reaktion zielte auf die Anzahl der ROPs im Vergleich zur Busbreite.

Das 512bit SI ist auf keinen Fall ueberfluessig nur ca. ein Jahr seiner Zeit voraus; leider wird man dieses auch erst nach einem Jahr einsehen koennen.

Ailuros
2006-12-31, 07:05:55
Mich würde mal interessieren ob Ailuros schon echte R600 Benchmarks gesehen hat oder ob er die Performance aus irgendwelchen Zahlen zb. TMUs, ROPs ableitet.
Im ersteren Fall könnte seine Begründung für den minimalen Vorteil des R600 an ganz frühen Treibern liegen, was sich bekannterweise bei neuen Generationen ganz schnell ändern kann.

Bei fruehen Treibern und 400MHz war die R600 gerade noch auf X1900XTX Nivaeu. Ich kann Dir sogar sagen bei welcher Frequenz R600 zum "break-even point" kommt, bin aber so gemein und behalte es fuer mich ;)

Ailuros
2006-12-31, 07:15:56
was heisst erst nehmen ,was soll mich an dem benchmark überzeugen ?

http://level505.com/wp-content/uploads/2006/12/r600-doom3-12801024.jpg

Dass auch R600 vielleicht bei langweiligen 1280 CPU limitiert ist?

Die Resultate muessen nicht unbedingt echt sein, aber falls Dir ein Doom3 Benchmark etwas sagen sollte, waere es das hier:

http://level505.com/2006/12/30/the-full-ati-r600-test/5/

http://level505.com/wp-content/uploads/2006/12/ati-r600-doom3-16001200.jpg

Ich frage mich zwar immer noch wie die Persona CF auf nForce680 zum laufen bekam, aber das ist wohl nebensaechlich LOL ;)

Blutmaul
2006-12-31, 08:14:22
Dailytech zu den Vorabinfos:
http://www.dailytech.com/article.aspx?newsid=5524

Zitat aus dem Vorabinfotext wegen des CF-Benches:
"For the test of our X1950 XTX CF-pair we used the same configuration as mentioned above, but exchanged the motherboard to a Foxconn 975X7AA (CF Edition)."

Ich mach den Franz - Schaun mer ma...

PS: Wäre es theoretisch besser gewesen, machte man einen solchen Test, einen noch deutlich weiter übertakteten C2D zu verwenden?
Quadcore wird doch derzeit nicht unterstützt und war doch manchmal sogar langsamer als Dualcore, wenn es zum Benchen von Games ging?