PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI Radeon X1300 / X1600 / X1800


Seiten : [1] 2

nagus
2005-10-03, 08:11:53
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1300.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1600.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1800.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg

VooDoo7mx
2005-10-03, 08:14:59
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1300.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1600.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1800.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg

Haben wir dafür nicht schon einen thread?

nagus
2005-10-03, 08:25:32
keinen offiziellen und keinen mit handfesten, realen infos. deshalb hab ich jetzt mal einen neuen gestartet. wir können auch im 500 seiten speku-trhead weiter machen... das ist aber schon etwas unübersichtlich ;)

TheCounter
2005-10-03, 09:25:33
Yep, finde auch das man den Thread hier für die offiziellen News/Reviews benutzen sollte.

Btw. HDR + AA + besseres AF :eek:

Axel
2005-10-03, 09:48:51
"Full (HQ) Anisotropic Filtering" liest sich sehr gut.
Mal abwarten was dahintersteckt.

LovesuckZ
2005-10-03, 10:01:39
Alle Folien:
http://www.techpowerup.com/reviews/ATI/R5XX/

Wer ein schwaches Herz hat, sollte bittre ncith auf den Link klicken:
High Quality AF (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg)

Nagilum
2005-10-03, 10:09:29
"[...]the X1800 produces shimmer-free gaming[...]"

Die Watschen konnten sich ATi wohl nicht verkneifen. :)

Mal sehen, was am Ende von den ganzen PR-Slogans übrig bleibt. Es wäre ja zu schön, wenn man endlich wieder die Bildqualität als Verkaufsargument entdeckt hätte. :smile:

nagus
2005-10-03, 10:10:22
Also ich muss sagen, das liest sich alles äußerst geil! Ich bin gespannt auf Mittwoch :). Die neuen Tech-Demos sollen ja anscheinend auch recht geil werden *g*

Das Warten hat sich jedenfalls gelohnt.

chemistry
2005-10-03, 10:13:00
hehe...ja, das gefällt mir auch!
Hoffentlich sind sie bald erhältlich und lieferbar. Dann muss ich wohl doch aif PCIe umsteigen :eek:

LG chemi

LovesuckZ
2005-10-03, 10:27:18
Sander Sassen mal wieder^^ (http://www.hardwareanalysis.com/content/article/1817/)

Lotus
2005-10-03, 10:36:18
Alle Folien:
http://www.techpowerup.com/reviews/ATI/R5XX/

Wer ein schwaches Herz hat, sollte bittre ncith auf den Link klicken:
High Quality AF (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg)

Geil, endlich wieder richtiges AF?

Wäre zu schön um wahr zu sein und ein wirklicher kaufgrund für mich.

Karümel
2005-10-03, 10:39:07
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3536953&postcount=10207

LovesuckZ
2005-10-03, 10:51:49
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3536953&postcount=10207

Ich gehe nicht davon aus, dass ATi es zweimal wagt, die Kunden und Reviewer anzuluegen. Aus diesem Grund erwarte ich, dass dies, was auf den Folien dargestellt, auch eintreffen wird.

Worueber man enttaeuscht sein kann, ist die Produktvorstellung. Die XT und die beiden X1600 Karten werden fruehsten einen Monat spaeter kaeuflich erwerbbar sein, wobei die X1600 erst Ende November erscheint.
Hoffen wir, dass es dann wenigsten gleichzeitig die XF Karten und Platinen gibt.

Winter[Raven]
2005-10-03, 10:57:35
Sollte die ganze Winkelabhänigkeit sich als Wahr herausstellen, erwarte ich eigentlich einen Nachzug durch Nvidia im Sinne eines Schalters...

Aber wirklich glauben werde ich an die Winkelabhänigkeit erst dann wenn ich es von unabhänigen Reviewern gesehn habe.

xaverseppel
2005-10-03, 10:59:38
sind das die neuen modelle von ati?
wann kommen sie raus?
muss mir nämlich eine neue grafikkarte holen

MikBach
2005-10-03, 11:14:31
']Sollte die ganze Winkelabhänigkeit sich als Wahr herausstellen, erwarte ich eigentlich einen Nachzug durch Nvidia im Sinne eines Schalters...

Und wie stellst du dir das vor, wenn die Transistoren dafür fehlen...
Über den "Winkelunabhängigkeits-Shader"?
Dann kannst du aber die Leistung in die Tonne kloppen...

Demirug
2005-10-03, 11:19:00
Und wie stellst du dir das vor, wenn die Transistoren dafür fehlen...
Über den "Winkelunabhängigkeits-Shader"?
Dann kannst du aber die Leistung in die Tonne kloppen...

nVidias Winkelabhänigkeit sieht eigentlich so "perfekt" aus das dafür eher zusätzliche Transitoren verbaut wurden. IMHO

Winter[Raven]
2005-10-03, 11:22:47
nVidias Winkelabhänigkeit sieht eigentlich so "perfekt" aus das dafür eher zusätzliche Transitoren verbaut wurden. IMHO

Warst schneller :(, mal wieder :biggrin:

So sehe ich das auch, Nvidia spielt für mein Geschmack etwas zuviel am AF-Filter.

Nvidia wird sich einfach nicht leisten können, ATI mit einer "möglichen" besseren AF Qaulität die Punkte absahnen zulassen.

MikBach
2005-10-03, 11:33:05
nVidias Winkelabhänigkeit sieht eigentlich so "perfekt" aus das dafür eher zusätzliche Transitoren verbaut wurden. IMHO
Mag sein. Eine perfekte Winkelabhängigkeit ist nicht gleich mit Winkelunabhängigkeit. Ich glaube nicht dass die Hardware wirklich winkelunabhängig filtern kann.

Wenn es so wäre, hätte NV damit schon längst geworben, dass sie eine bessere BQ bei AF bieten (können). Wenn nicht, wären sie ganz schön doof. :wink:

BodyLove
2005-10-03, 11:34:13
Welche Punkte? Die beim 3dMark?;)

Demirug
2005-10-03, 11:36:52
Mag sein. Eine perfekte Winkelabhängigkeit ist nicht gleich mit Winkelunabhängigkeit. Ich glaube nicht dass die Hardware wirklich winkelunabhängig filtern kann.

perfekt nicht im Sinne der Bildqualität sondern perfekt in dem Sinn wie es rechnet und was man da alles einstellen kann.

Wenn es so wäre, hätte NV damit schon längst geworben, dass sie eine bessere BQ bei AF bieten (können). Wenn nicht, wären sie ganz schön doof. :wink:

Warum sollten sie in einer Welt in der nur die Balkenlänge zählt?

r00t
2005-10-03, 11:37:51
schön schön...die benchmarks find ich noch a weng unglaubwürdig..mal abwarten ...komisch das ati kein Doom3 gebencht hat...aber war ja wohl klar..ATI + doom3 lief noch nie so gut bzw. nvidia war bei doom3 besser!


meine nächste karte wird wohl doch eine 7800GT für 3xx€;) ;D

MikBach
2005-10-03, 11:42:40
perfekt nicht im Sinne der Bildqualität sondern perfekt in dem Sinn wie es rechnet und was man da alles einstellen kann.
Die Programmierbarkeit ist sicherlich eine feine Sache, verleitet aber leider dazu, etwas zu viel zu "optimieren", wie wir gesehen haben... :wink:
Ob dann noch "korrekt" gerechnet wird, wage ich mal anzuzweifeln. :)

Warum sollten sie in einer Welt in der nur die Balkenlänge zählt?
Das ist jetzt aber nicht dein Ernst?
Es gibt genügend Leute, für die BQ wichtiger als Performance ist. Wenn man mit dem G70 eh schneller als alles war, warum hat man es nicht eingeführt?
Klingt für mich unlogisch... :D

BodyLove
2005-10-03, 11:45:14
Der Konkurrent vom G70 ist aber der R520. Man kann nicht so leicht winkelunabhängiges AF geben, um nach dem Release des R520 dies wieder revidieren. Der Aufschrei wäre riesengroß.

LovesuckZ
2005-10-03, 11:46:58
Es gibt genügend Leute, für die BQ wichtiger als Performance ist. Wenn man mit dem G70 eh schneller als alles war, warum hat man es nicht eingeführt?
Klingt für mich unlogisch... :D

Man macht nicht mehr als noetig.
SLI zum Beispiel: Ohne Konkurenz war es eine sehr eingeschraenkte Methode Leistung zu erzielen. Mit Crossfire bewegte sich nvidia zu mehr "Offenheit".
Wenn die Logik für winkelunabhaengiges AF vorhanden sei, dann werde es Nvidia auch wieder aktivieren.

MikBach
2005-10-03, 11:55:19
Man macht nicht mehr als noetig.
Quatsch.
Total unlogisch.
Wenn man eh schon schneller war, könnte man mit winkelunabhängigem AF eine neue Käuferschicht erschliessen, nämlich die BQ-Fanatiker.
Ich denke nicht, dass NV darauf freiwillig verzichten würde.
Deswegen glaube ich daran:

Wenn die Logik für winkelunabhaengiges AF vorhanden sei, dann werde es Nvidia auch wieder aktivieren.
...nicht.

MikBach
2005-10-03, 11:56:18
schön schön...die benchmarks find ich noch a weng unglaubwürdig..mal abwarten ...komisch das ati kein Doom3 gebencht hat...aber war ja wohl klar..ATI + doom3 lief noch nie so gut bzw. nvidia war bei doom3 besser!


meine nächste karte wird wohl doch eine 7800GT für 300€;) ;D
Kaufst du deine Karte wegen Doom3? :|

Aoshy
2005-10-03, 11:57:44
hhehe freu mich dass die neuen ATIs rauskommen. Da werden die Preise der 7800er fallen und sicher welche hier ihren 7800 wieder verkaufen. Da werde ich zuschlagen :biggrin:

r00t
2005-10-03, 11:58:22
Kaufst du deine Karte wegen Doom3? :|


ne aber es is genauso ein game wie fc und hl2 gehört einfach dazu!

aber es war ja bis jetzt immer klar..nvidia war schneller in doom3 und ati langsamer...wahrscheinlich haben die das mit absicht garnich mit gebencht...nur damit sie immer ein positives ergebnis haben :/

LovesuckZ
2005-10-03, 12:02:31
Quatsch.
Total unlogisch.
Wenn man eh schon schneller war, könnte man mit winkelunabhängigem AF eine neue Käuferschicht erschliessen, nämlich die BQ-Fanatiker.


Die Kaufen sich die Karten sowieso, da nur durch Geschwindigkeit Bildqualitaetsteigerungsmaßnahmen überhaupt einsetzbar sind.
Wir haben seit 2004 bei nVidia und immer bei ATi stark winkelabhaengiges AF und trotzdem haben sich die Karten immer sehr gut verkauft. Auch nv4x und R4xx haben hie rkeine Ausnahme gemacht, sondern bestaetigen die Regel, dass primaer erstmal der Speed kommt. Und wenn die Konkurenz nicht mehr zu bieten hat, dann wird man selbst auch nicht mehr zeigen.
Das spart ressourcen und endet in mehr Geld.

r00t
2005-10-03, 12:04:47
hhehe freu mich dass die neuen ATIs rauskommen. Da werden die Preise der 7800er fallen und sicher welche hier ihren 7800 wieder verkaufen. Da werde ich zuschlagen :biggrin:


krieg meine jetzt schon für 299€;) ^^ arch viel billiger wird die auch nach dem r520launch nich werden glaub ich

LovesuckZ
2005-10-03, 12:05:09
krieg meine jetzt schon für 299€;) ^^ arch viel billiger wird die auch nach dem r520launch nich werden glaub ich

Wo?

MikBach
2005-10-03, 12:06:46
Die Kaufen sich die Karten sowieso, da nur durch Geschwindigkeit Bildqualitaetsteigerungsmaßnahmen überhaupt einsetzbar sind.
Wir haben seit 2004 bei nVidia und immer bei ATi stark winkelabhaengiges AF und trotzdem haben sich die Karten immer sehr gut verkauft. Auch nv4x und R4xx haben hie rkeine Ausnahme gemacht, sondern bestaetigen die Regel, dass primaer erstmal der Speed kommt. Und wenn die Konkurenz nicht mehr zu bieten hat, dann wird man selbst auch nicht mehr zeigen.
Das spart ressourcen und endet in mehr Geld.
Sehe ich anders, aber das habe ich ja schon geschrieben. :)

r00t
2005-10-03, 12:08:55
Wo?

darüber möchte ich keine genaueren angaben machen sorry!

dildo4u
2005-10-03, 12:09:56
Was mir noch nicht ganz Klar ist haben die neuen Radeons auch eine art Transparency AA oder wieder nur MSAA und kein SSAA.

MikBach
2005-10-03, 12:10:17
ne aber es is genauso ein game wie fc und hl2 gehört einfach dazu!

aber es war ja bis jetzt immer klar..nvidia war schneller in doom3 und ati langsamer...wahrscheinlich haben die das mit absicht garnich mit gebencht...nur damit sie immer ein positives ergebnis haben :/
Das ist doch normal. :rolleyes:
Die IHV nehmen Benches, die ihnen entgegenkommen.

PingpiN
2005-10-03, 12:11:01
ne aber es is genauso ein game wie fc und hl2 gehört einfach dazu!

aber es war ja bis jetzt immer klar..nvidia war schneller in doom3 und ati langsamer...wahrscheinlich haben die das mit absicht garnich mit gebencht...nur damit sie immer ein positives ergebnis haben :/
Naja also von schneller kann man nicht mehr reden,mit denn neusten Treibern ist eine X85 einer 6800 Ultra Locker auf denn fersen.Vielleicht bei Riddick....

StefanV
2005-10-03, 12:14:08
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1300.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1600.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1800.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg
Hm, wenn ich diese Datasheets richtig deute, dann hat nur der x1600 diesen 'Ringbus', der x1800 nicht :|

Blaze
2005-10-03, 12:17:20
Was mir noch nicht ganz Klar ist haben die neuen Radeons auch eine art Transparency AA oder wieder nur MSAA und kein SSAA.

Adaptive-AA

Wenn die Folien wirklich echt sind...dann gute Nacht. Braucht wer 2xG70? :D

Mir persönlich sind da aber zu viele Rechtschreibfehler drin...sieht mehr nach nem Fake aus... :|

dildo4u
2005-10-03, 12:18:35
Adaptive-AA

Was soll das sein?

Blaze
2005-10-03, 12:21:36
Was soll das sein?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=251265

PingpiN
2005-10-03, 12:22:13
Was soll das sein?

Das gegestück von TRAA. ;)

Wechselbalg
2005-10-03, 12:22:37
Was soll das sein?

Der Thread hier liefert ein paar Informationen darüber. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=251265&page=1&pp=20

Im Grunde mit TRAA vergleichbar, auch wenn noch nicht sicher ist, wie es genau realisiert wurde.

EDIT: Mal wieder viel zu langsam ^^

Aoshy
2005-10-03, 12:24:02
in 2 monate gibts 7800 GTX SLI für 600 Euros wer weiss :uroll:

Tomcat70
2005-10-03, 12:25:07
Hm, wenn ich diese Datasheets richtig deute, dann hat nur der x1600 diesen 'Ringbus', der x1800 nicht :|

da fehlen auch ein paar links:
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-4.jpg

einfacher wäre der hier gewesen:
http://www.techpowerup.com/reviews/ATI/R5XX/

Coda
2005-10-03, 12:41:18
nVidias Winkelabhänigkeit sieht eigentlich so "perfekt" aus das dafür eher zusätzliche Transitoren verbaut wurden. IMHODas vermute ich nämlich auch schon länger...

Winter[Raven]
2005-10-03, 12:44:44
Das vermute ich nämlich auch schon länger...

Hab ich schon seit NV40 gesagt, und nach dieser Transisteigerung zum G70 war es für mich klar.

PingpiN
2005-10-03, 12:53:04
']Hab ich schon seit NV40 gesagt, und nach dieser Transisteigerung zum G70 war es für mich klar.
Was war klar das du ein Nv Fanatiker bist. :P ;)

Winter[Raven]
2005-10-03, 13:01:26
Was war klar das du ein Nv Fanatiker bist. :P ;)

Ich bin Pro-Grafiktechnologie, ponjatno?. Mir ist ziemlich egal welcher Hersteller im Endeffekt bei mir in der Kiste steckt, solanage die Features stimmen. In der letzten Generation war mir NV4x deshalb lieber, ich besitze aber auch die X850, so what? Was ist daran so schwer zu verstehen?

SKYNET
2005-10-03, 13:02:12
Wenn es so wäre, hätte NV damit schon längst geworben, dass sie eine bessere BQ bei AF bieten (können). Wenn nicht, wären sie ganz schön doof. :wink:


wozu? hat ATI bisher was gebracht, das von der AF quali besser war? nö, genauso winkelabhängig....
also muss NV da (bisher) auch nix ändern, weil die leute eh NV gekauft haben, wegen dem massiven featureset den NV karten seit dem NV40 mitsich bringen.

MikBach
2005-10-03, 13:11:50
']Hab ich schon seit NV40 gesagt, und nach dieser Transisteigerung zum G70 war es für mich klar.
Der G70 hat aber auch mehr Pipes. :rolleyes:

Und ich glaube nicht, das du dich mit der Technologie so gut auskennst dass du weisst, wie viel eine Pipe bzw ein Quad "kostet". :wink:

MikBach
2005-10-03, 13:16:07
wozu? hat ATI bisher was gebracht, das von der AF quali besser war? nö, genauso winkelabhängig....
Aber weniger flimmeranfällig. :D

also muss NV da (bisher) auch nix ändern, weil die leute eh NV gekauft haben, wegen dem massiven featureset den NV karten seit dem NV40 mitsich bringen.
Nö, viele sind von einer 6800 zur X8x0 gewechselt, weil sie nicht zufrieden waren. Ich auch. Von 6800GT zur X800XT PE. Und bereue den Wechsel nicht, obwohl ich mit der 6800GT auch recht zufrieden war.

Aoshy
2005-10-03, 13:27:48
ja bin auch von ner 6800 GT zur x800 xt PE gewechselt und war begeistert aber ich vermisse schon die effektvolle SM3 zb. AOE 3.... Jetzt verkaufe ich meine wieder meine und warte auf die im preis sinkend werdende 7800er :biggrin:

StefanV
2005-10-03, 13:29:14
da fehlen auch ein paar links:
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-4.jpg

einfacher wäre der hier gewesen:
http://www.techpowerup.com/reviews/ATI/R5XX/
Ahja, dankeschön.

Wenn man das so liest, liest es sich, als ob ATi allerhand von den Vorgängern entsorgt hat und 'something new' auf die Beine gestellt hat...

Naja, ok, einige Teile werden sich nicht soo sehr geändert haben, andere aber, laut den Pics, schon recht stark...

9800ProZwerg
2005-10-03, 13:44:00
Schade, die XL wird wohl keine 512MB Vram haben!
Werde dann so lange warten bis die XT für mich bezahlbar sein wird, was so 350€ sein würde!

Edit: Mein 2000 Post :popcorn:
Und das zum Thema R520 ;D

reunion
2005-10-03, 15:09:21
Warum sollten sie in einer Welt in der nur die Balkenlänge zählt?


Warum macht es ATi?

Demirug
2005-10-03, 15:17:21
Warum macht es ATi?

"Ablenkung" mehr kann ich dazu im Moment nicht sagen. Aber auch hier nochmal der Tipp. Lies was nicht in den ATI papieren steht.

reunion
2005-10-03, 15:32:10
"Ablenkung" mehr kann ich dazu im Moment nicht sagen. Aber auch hier nochmal der Tipp. Lies was nicht in den ATI papieren steht.

Das ist leichtes gesagt, als getan. Mir fällt jedenfalls nicht "ungewöhnliches" auf. Vielleicht macht man es ja so wie nV beim Nv3x, und spart dafür etwas am tri-Filter.

sulak
2005-10-03, 15:34:54
Wenn man bei allerwelts Benchmarks (1280*1024/1600*1200 4xaa 16af) nicht über die Konkurrenz kommt oder sich gar von der eigenen Karten nicht absetzen kann, dann muss man doch logischerweise ein anderes Argument finden um die Karten an den man zu bringen, und genau darauf zielen die Marketing Blättchen doch ab.

Man hat wohl eingesehen das mans nicht mit der Rohleistung packt den Thron "Fastest GPU on Earth" wiederzugewinnen, also fährt man die BQ Schiene, die man bisher gemieden hat wie der Teufel das Weihwasser, denkt daran beim R300 WinkelAF schrie man laut das man kaum einen Unterschied sehen wird, warum geht man jetzt wieder ein Stück zurück ^^

Was anderes kann ich mir nicht vorstellen, klingt doch logisch oder?

Ich hab nix gegen die BQ Schiene können ruhig beide IHVs fahren, aber bitte dann nicht die Fahne in den Wind hängen wies gerade passt, erst abspecken und dann das Rad ein zweites mal erfinden...

Woddy
2005-10-03, 15:52:05
Man hat wohl eingesehen das mans nicht mit der Rohleistung packt den Thron "Fastest GPU on Earth" wiederzugewinnen

Der Thron spiel allerdings eine wesendlich kleinere Rolle als viele glauben.

Die meisten schauen erst wieviel Money sie über haben.

150-300 Euro und kaufen dann das beste Produkt in diesem Segment.
Das wird jetzt sehr wahrscheinlich an ATI gehen und dort wird dann auch die Kohle verdient.

DaBrain
2005-10-03, 16:10:23
Das adaptive AA ist ein netter Bonus. Die bessere AF Qualität ist IMO schon eine Grunvoraussetzung für den Grafikkartenkauf. (Leider gab es keine Auswahl als meine GF4 TI den Geist aufgegeben hat... deshalb der NV40 ;) )

Wenn das alles stimmt, ist in meinem nächsten Rechner eine ATI Karte. :)

Selbst wenn die Karte langsamer ist als ein G70.

Kane02
2005-10-03, 17:01:49
Hmm, nett. legt ATI wieder Wert auf Qualität? Wenn ja ist das meine nächste Karte. Nur die 2 Slot Kühllösung schreckt mich noch bissl an - aber solange es leise is isses egal.

MadManniMan
2005-10-03, 17:20:19
Mußte Dieser Thread so sein?
Im Spekuforum gibts eigentlich schon genug dazu - und zu den einzelnen Chips von ATi hätte ich persönlich eigentlich lieber getrennte, wenn gelauncht wurde.

chemistry
2005-10-03, 17:55:48
Nur die 2 Slot Kühllösung schreckt mich noch bissl an - aber solange es leise is isses egal.
Ich hoff auch, dass ich mal auf den ATI Silencer verzichten kann. Der war schon eine richtige Erleichterung - denn der Lüfter der X850XTPE is schon nicht ganz so leise.....
Allerdings ist mir das egal, ob da 2 Slots benötigt werden....nur für die Barebones isses halt schlecht.....
lg chemi

Die gelbe Eule
2005-10-03, 18:32:06
So nun habt ihr etwas Balkenlänge ...

http://img12.imageshack.us/img12/2848/11090401287qu.jpg

MikBach
2005-10-03, 18:33:34
So nun habt ihr etwas Balkenlänge ...

http://img12.imageshack.us/img12/2848/11090401287qu.jpg
Welche Karte?

Die gelbe Eule
2005-10-03, 18:35:14
X1800XT auf P4 EE 3,6GHz

Expandable
2005-10-03, 18:35:27
lol

3D Mark 01 ist doch total CPU-limitiert. Wie will man da 40.000 Punkte schaffen? ;) FAKE! IMHO...

Hellfire-Torrod
2005-10-03, 18:39:54
IS das Pic nicht schon Uralt?

deekey777
2005-10-03, 18:44:10
IS das Pic nicht schon Uralt?
Wenn mich nicht alles täucht, ist es seit Anfang Mai zu sehen. Ein Fake ist es.

mapel110
2005-10-03, 18:48:11
Wenn mich nicht alles täucht, ist es seit Anfang Mai zu sehen. Ein Fake ist es.
http://www.driverheaven.net/showthread.php?t=68684&page=1&pp=15
Mitte Februar. ;)

Blaze
2005-10-03, 18:49:49
Außerdem sollten 40k mit nem P-M ganz locker zu knacken sein... :|

Edit: Jo...Kollege Wesker hat 39,3k mit 3200 MHz ;)

deekey777
2005-10-03, 18:55:32
http://www.driverheaven.net/showthread.php?t=68684&page=1&pp=15
Mitte Februar. ;)
Und ich wundere mich schon, warum ich in Mai-Threads nichts finde. ;(

Die gelbe Eule
2005-10-03, 18:59:30
Wollt doch nur mal bissl streuen und schauen wer weiß woher es kommt ;)

MikBach
2005-10-03, 19:29:38
Wollt doch nur mal bissl streuen und schauen wer weiß woher es kommt ;)
Könntest du dann bitte diesen Thread nicht zumüllen und woanders spammen... :mad:

Die gelbe Eule
2005-10-03, 19:41:20
War nur dafür gedacht, wer dem Glauben oder dem Wissen verfallen ist. Weil ja nun jeder auf irgendwas mit Freudensprüngen anspringt, nur weil ein paar Folien im Netz sind, die es zu jedem Lauch eines Herstellers gibt.

ATi würde doch nie sagen: Hey wird sind gleichgezogen.
Nein, sie sagen wir sind überall besser, auch wenn sei verschweigen, das vieles kaum für den Normaluser unergründlich bleibt.

KaKÅrØT
2005-10-03, 19:48:40
Ich wollte mal Fragen warum die X1800XT so schnell ist und den games (fear) etc. er hat doch 8 pixel pipes weniger... ich seh schon das er um einiges an core mehr hat ...
Hat er auch mehr effizienz so what?


Wer sagt das nvidia karten flimmern der ist ei ATI fan der rumprollen will , es war ein Treiber Fehler von nvidia der langsam aber sicher gefixt wird....

(bin kein nvidia freak obwohl ich mir ne xfx 7800gtx bestellt habe...)

Braucht man für crossfire doch wida so ein komisches ati only mainbaord oder?

Black-Scorpion
2005-10-03, 19:55:09
ATi würde doch nie sagen: Hey wird sind gleichgezogen.
Nein, sie sagen wir sind überall besser, auch wenn sei verschweigen, das vieles kaum für den Normaluser unergründlich bleibt.
10 Punkte

Du hast gerade herausgefunden wie Marketing funktioniert.
Denkst du wirklich das es bei anderen Herstellern anders aussieht?
Merkst du eigentlich selber das du nur provozierst?

Coda
2005-10-03, 19:57:25
']Hab ich schon seit NV40 gesagt, und nach dieser Transisteigerung zum G70 war es für mich klar.Die Aussage war schon auf NV40 bezogen.

Aber weniger flimmeranfällig. Das ist ein Märchen. G70 flimmert mit dem richtigen Treiber nicht mehr als die Radeon meines Bruders.

Black-Scorpion
2005-10-03, 20:03:39
Wer sagt das nvidia karten flimmern der ist ei ATI fan der rumprollen will , es war ein Treiber Fehler von nvidia der langsam aber sicher gefixt wird....
Du glaubst doch nicht selber das der "Bug" ohne Aufschrei jemals beseitigt worden wäre?
Und sag z.B. aths oder Demi mal das sie nur rumprollen.

Die gelbe Eule
2005-10-03, 20:04:27
10 Punkte

Du hast gerade herausgefunden wie Marketing funktioniert.
Denkst du wirklich das es bei anderen Herstellern anders aussieht?
Merkst du eigentlich selber das du nur provozierst?

Leute die jeden Scheiß glauben, siehe 100 Seiten R520 @ 24 oder mehr Pipes provozieren mehr. Da sind kleine Sticheleien gar nichts gegen.

Und nein ich bin kein NV Fanboy, die Karte hab ich nur weil sie 229€ kostet, das kann mir ATI nicht bieten. Preis/Leistung, egal woher sie kommt.

Spasstiger
2005-10-03, 20:15:13
Finde es sehr fair, dass ATI bei den X1300 und X1600 Folien auch Doom 3 in die Diagramme mit aufgenommen hat. Nur bei der X1800 hatten sie wohl doch nicht den Mut. Naja, Marketing eben.

Die gelbe Eule
2005-10-03, 20:31:41
http://www.hardwareoc.at/Forceware-Geforce7-Roundup/Geforc11.GIF

Normal 1024x768 no AA no AF

http://www.hardwareoc.at/Forceware-Geforce7-Roundup/Geforc12.GIF

High Quality (1280x1024, AAx4)

Die neuen Treiber würden dem eh noch eins draufsetzen ...

MikBach
2005-10-03, 20:34:55
Wer sagt das nvidia karten flimmern der ist ei ATI fan der rumprollen will , es war ein Treiber Fehler von nvidia der langsam aber sicher gefixt wird....
Dann hast du aber den NV40 vor dem 77.72 (oder so ähnlich :rolleyes: ) nicht erlebt...
Das war nicht schön....

MikBach
2005-10-03, 20:40:10
Leute die jeden Scheiß glauben, siehe 100 Seiten R520 @ 24 oder mehr Pipes provozieren mehr. Da sind kleine Sticheleien gar nichts gegen.
Jeder darf doch mitspekulieren, oder?
Wir sind hier aber nicht im Spekuforum...
Also reiss dich mal zusammen und mülle den Thread nicht weiter zu.

Und nein ich bin kein NV Fanboy, die Karte hab ich nur weil sie 229€ kostet, das kann mir ATI nicht bieten. Preis/Leistung, egal woher sie kommt.
OT:
Ich denke, dass du mit einer X800PRO genauso gut spielen könntest.
Und diese ist noch ein ganzes Stück preiswerter.
*Stichel* :D

Black-Scorpion
2005-10-03, 21:37:17
Spam
Sag mal merkst du noch?
Hast du den Threadtitel gelesen?
Hast du ihn auch verstanden?
Was haben die Bilder in dem Thread zu suchen?

Rumtrollen kannst du auf der Spielwiese aber nicht hier.

PP
2005-10-03, 21:37:39
Ich glaube das Bild hatten wir noch nicht
http://www.thelab.gr/attachment.php?postid=291247
X1800XL/X1600XT/X1300Pro

r00t
2005-10-03, 21:44:09
die XL is ja wohl ne MOOOOOOONSTERKARTE!!^^

Die gelbe Eule
2005-10-03, 21:49:03
Sag mal merkst du noch?
Hast du den Threadtitel gelesen?
Hast du ihn auch verstanden?
Was haben die Bilder in dem Thread zu suchen?

Rumtrollen kannst du auf der Spielwiese aber nicht hier.

War die direkte Antwort warum es keine Doom3 Balken für X1800 gab. Was ist daran Spam? Ein Mod würde mir schon erzählen ob es Spam ist oder nicht.

Fühlst Dich angegriffen nur weil ich möglicherweise dargelegt habe warum es so ist? Aber scheint ja eh trollen zu sein, da ich NV habe und Du ATI in der Sig.

Black-Scorpion
2005-10-03, 22:01:37
War die direkte Antwort warum es keine Doom3 Balken für X1800 gab. Was ist daran Spam? Ein Mod würde mir schon erzählen ob es Spam ist oder nicht.

Fühlst Dich angegriffen nur weil ich möglicherweise dargelegt habe warum es so ist? Aber scheint ja eh trollen zu sein, da ich NV habe und Du ATI in der Sig.
Deine dummen Anspielungen kannst du dir sparen.

Das ist eine Benchmarkliste von D³ mit nVidia Treibern und sagt einen Scheiß darüber aus warum bei der X1800 kein D³ dabei ist.

Und ja, da jeder Bezug zum Threadthema fehlt ist es nichts anderes wie Spam.

Die gelbe Eule
2005-10-03, 22:16:35
Oh man ... wie kann man sich nur so angegriffen fühlen?
Es geht hier doch nur um VGA Karten, nicht um Deine Ehre oder Dein Leben.
Frische Luft würde Dir gut tuen ...

Wenn Dir was hier nicht irgendwo passt, überlies es einfach. Das erspart Dir dann Deinen unangebrachten Ton!

chemistry
2005-10-04, 00:52:03
Oh man ... wie kann man sich nur so angegriffen fühlen?
Es geht hier doch nur um VGA Karten, nicht um Deine Ehre oder Dein Leben.
Frische Luft würde Dir gut tuen ...

Wenn Dir was hier nicht irgendwo passt, überlies es einfach. Das erspart Dir dann Deinen unangebrachten Ton!


Sorry - finde deine Komentare auch sehr fehl am Platze.
Das ist ein sachlicher Thread über Vorabinformationen der neuen ATI Karten (siehe Threadtitel), und da haben weder deine Doom3 Benches noch deine superlangweilig weil alten, gefakten - angeblich von ATI1800 - 3DMark2001 Scores was zu suchen.

chemistry

Spasstiger
2005-10-04, 00:55:48
Sorry - finde deine Komentare auch sehr fehl am Platze.
Das ist ein sachlicher Thread über Vorabinformationen der neuen ATI Karten (siehe Threadtitel), und da haben weder deine Doom3 Benches noch deine superlangweilig weil alten, gefakten - angeblich von ATI1800 - 3DMark2001 Scores was zu suchen.

chemistry

Er hat nur begründet, warum ATI beim Vergleich X1800 XT vs. 7800 GTX kein Doom 3 mit aufgenommen hat. Denn der Benchmark dürfte wohl klar zugunsten von Nvidia ausfallen.

Coda
2005-10-04, 02:56:31
die XL is ja wohl ne MOOOOOOONSTERKARTE!!^^Gleiches PCB wie die XT, so lang wie ne GTX ungefähr.

seahawk
2005-10-04, 07:49:03
Seht ihr den kleinen Lüfter für den Monsterkühlkörper ? Ob der leiser als der eher nervie Kühler der 7800GT ist ??

chemistry
2005-10-04, 09:16:04
Seht ihr den kleinen Lüfter für den Monsterkühlkörper ? Ob der leiser als der eher nervie Kühler der 7800GT ist ??

Naja, so klein ist er auch nicht - das täuscht, weil er ja zu Hälfte verdeckt wird vom Plastikcorpus des Kühler.
Aber ich nehme auch mal stark an, dass die Karte genauso wie die X850XTPE nix für einen SilentPC werden wird. :tongue: Denn der Lüfter wurde ja auch ganz schön laut, wenn die Karte eine bestimmte Temp erreicht hatte.

chemi

chemistry
2005-10-04, 09:19:05
Er hat nur begründet, warum ATI beim Vergleich X1800 XT vs. 7800 GTX kein Doom 3 mit aufgenommen hat. Denn der Benchmark dürfte wohl klar zugunsten von Nvidia ausfallen.

Das ist mir und jedem anderen schon klar - man kann sich der Thematik ja ganz sachlich nähern. Die Provokationen sind einfach nur fehl am Platz.
Denn solche Threads hat es schon zur Genüge gegeben.
Einfach Sachlich die Dinge analysieren ist doch viel besser als herumzupöbeln, oder?

LG chemi :rolleyes:

Gohan
2005-10-04, 09:26:30
Tipp:

Wenn euch seine Meinung oder Ausdrucksweise nicht passt, ignorieren. Damit umgeht man jeden Streit und man macht den Thread nicht kaputt. Bitte ab jetzt beachten, sonst muss ich verwarnen :)

Matrix316
2005-10-04, 10:50:30
Irgendwie fehlt da noch ein Modell oder? X1300 und X1600 sind für die 6600 und 6600GT und die X1800 für die 7800 GTX. Aber was ist dazwischen? Was ist die Konkurrenz für die 6800, 6800 GT und Ultra?

boxleitnerb
2005-10-04, 10:53:56
Ja ich finde es auch eher bedenklich, dass es im Bereich 250-450 nix gibt.

Tomcat70
2005-10-04, 11:13:38
Ja ich finde es auch eher bedenklich, dass es im Bereich 250-450 nix gibt.

es gibt ja noch wenig infos über die X1800 PRO und LE, die werden da noch lücken füllen.
die X1600 XT wird kaum unter ~250€ starten, die preise für X1800 LE und PRO kann man zur zeit nur raten, ich tippe mal auf ~275€-~300€ und ~375€-~400€ als startpreise für die 256mb varianten der beiden.

im allgemeinen wird sich das auch stark an der preispolitik von nvidia orientieren (müssen). ist einfach noch kaum vorherzusehen wo sich die gesamten preise einpendeln werden. zuerst müssen sie mal am markt sein ;)

wuzetti
2005-10-04, 11:19:26
es gibt ja noch wenig infos über die X1800 PRO und LE, die werden da noch lücken füllen.
die X1600 XT wird kaum unter ~250€ starten, die preise für X1800 LE und PRO kann man zur zeit nur raten, ich tippe mal auf ~275€-~300€ und ~375€-~400€ als startpreise für die 256mb varianten der beiden.

ich bilde mir ein gelesen zu haben dass X1800 PRO und LE gestrichen worden sind bzw. nicht in dieser form vorgestellt werden. kann mich aber nicht mehr erinnern, wo..... :redface:

BodyLove
2005-10-04, 11:40:42
Zumindest wird es nirgendswo erwähnt.

Gaestle
2005-10-04, 11:53:43
Tipp:

Wenn euch seine Meinung oder Ausdrucksweise nicht passt, ignorieren. Damit umgeht man jeden Streit und man macht den Thread nicht kaputt. Bitte ab jetzt beachten, sonst muss ich verwarnen :)


Sorry wegen Nachfrage auf Modtext im Thread, aber könntest Du ein bißchen Müllman spielen und den Mülleimer nutzen? (dann auch für diesen Beitrag hier...)

Danke.

Gaestle
2005-10-04, 12:02:35
da fehlen auch ein paar links:
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-2.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-4.jpg

einfacher wäre der hier gewesen:
http://www.techpowerup.com/reviews/ATI/R5XX/


Was ich krass finde, sind die FEAR-SP-Demo Balken. Mal sehen, ob sich das in der Realität bestätigt. Vielleicht helfen die Vertexshader ja bei den Partikeleffekten.

Ansonsten ist mir die Balkenlänge einer RV530XT mit 3Quads und 590MHz besonders im Vergleich zu einer 6800 mit 3Quads und (im Vergleich zur RV530XT relativ popeligen) 325MHz (insgesamt etwas mehr als 6600GT-Niveau) noch etwas ... ähem... fraglich. Mal sehen, ob sich das auch in der Realität bestätigt.

Grüße

deekey777
2005-10-04, 12:08:00
Wird in FEAR nicht massiv Parallax Mapping eingesetzt?

TheFallenAngel
2005-10-04, 12:19:14
ich bilde mir ein gelesen zu haben dass X1800 PRO und LE gestrichen worden sind bzw. nicht in dieser form vorgestellt werden. kann mich aber nicht mehr erinnern, wo..... :redface:

wäre IMHO eine fatale eintscheidung seitens ATI, ich kann mir beim besten willen nicht vorstellen, dass die PRO und LE gestrichen worden sind...

PingpiN
2005-10-04, 12:29:01
wäre IMHO eine fatale eintscheidung seitens ATI, ich kann mir beim besten willen nicht vorstellen, dass die PRO und LE gestrichen worden sind...

Am besten wer doch ne Karte für ein guten preis,ne X1800 Nu die standart mässig 12 PP(freischaltbar) hat und denn gleichen Takt wie ne Hm X1800 XT oder XL hat. :cool:

Silent3sniper
2005-10-04, 12:46:52
Am besten wer doch ne Karte für ein guten preis,ne X1800 Nu die standart mässig 12 PP(freischaltbar) hat und denn gleichen Takt wie ne Hm X1800 XT oder XL hat. :cool:


Ja aber nur wenn Ati gehirnamputiert wäre :|

o m g

Gaestle
2005-10-04, 12:53:35
Wird in FEAR nicht massiv Parallax Mapping eingesetzt?

Was dann wieder PS braucht?
Warum sind 81% Takt (590MHz : 325Mhz) nicht auch bei anderen vermeintlich shaderlastigen Anwendungen nicht ansatzweise 81% schneller (in der Grafik wird eine 6600GT dargestellt, die 6800nU steht IMHO etwas besser da...)

http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg

Grüße

Matrix316
2005-10-04, 13:03:51
Am besten wer doch ne Karte für ein guten preis,ne X1800 Nu die standart mässig 12 PP(freischaltbar) hat und denn gleichen Takt wie ne Hm X1800 XT oder XL hat. :cool:

Lieber sollte ATI diesmal die Pipelines lassen und dafür den Takt runter fahren. Anstatt also eine neue X(1)800PRO lieber gleich so wie bei der X800XL.

zeckensack
2005-10-04, 13:09:05
Was dann wieder PS braucht?
Warum sind 81% Takt (590MHz : 325Mhz) nicht auch bei anderen vermeintlich shaderlastigen Anwendungen nicht ansatzweise 81% schneller (in der Grafik wird eine 6600GT dargestellt, die 6800nU steht IMHO etwas besser da...)

http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg

GrüßeIch verstehe nicht ganz worauf du nun hinauswillst ... vor allem nicht warum du mit der 6800nU vergleichen willst, die in den Diagrammen garnicht auftaucht :|

Allerdings möchte ich darauf hinweisen dass die X1600 extrem bandbreitenbehindert ist. Sie hat nur ein 128bittiges Speicherinterface, und dies ist trotz des hohen Taktes IMO dem Maximaldurchsatz (aka Füllrate) nicht würdig. Für die Geforce 6600(GT) gilt ähnliches, wenn auch nicht ganz so stark.
Evtl wird es logischer, wenn du die Ergebnisse in Beziehung zu den Speicherbandbreiten setzt. Da hat die X1600XT nicht so wahnsinnig viel Vorsprung vor der 6600GT.

seahawk
2005-10-04, 13:09:18
Was dann wieder PS braucht?
Warum sind 81% Takt (590MHz : 325Mhz) nicht auch bei anderen vermeintlich shaderlastigen Anwendungen nicht ansatzweise 81% schneller (in der Grafik wird eine 6600GT dargestellt, die 6800nU steht IMHO etwas besser da...)

http://www.techpowerup.com/reviews/ATI/R5XX/images/X1600-1.jpg

Grüße

Nun wieviel Speicher hat ne 6600GT und wieviel ne XI600XT ?

Matrix316
2005-10-04, 13:12:08
Ja aber nur wenn Ati gehirnamputiert wäre :|

o m g

Wieso? Die X850PRO hat auch den gleichen Takt wie die X850XT nur mit 12 Pipes.

Gaestle
2005-10-04, 13:14:00
Ich verstehe nicht ganz worauf du nun hinauswillst ... vor allem nicht warum du mit der 6800nU vergleichen willst, die in den Diagrammen garnicht auftaucht :|

[...]


Wegen 3Quads und Leistung pro Takt.

Ja, die 6800nU taucht nicht auf, allerdings ist ja ungefähr klar, wo die im Vergleich zur 6600GT liegt, und wegen Differenzen +/- 5-10 fps ist die Zeit erst die nächsten Tage reif...

Speicherbandbreite ist aber ein außerordentlich gutes Argument ... auch im Bezug zur (virtuellen) 6800nU ... ;)
Hier stehen ja 690MHZ@128Bit gegen (virtuelle) 350MHz@256Bit ...

Zusammengerechnet wäre FEAR dann am Shader- und nicht am Bandbreitenlimit?? Erklärt das möglicherweise den fetten Sprung bei den Balken?

Grüße

Silent3sniper
2005-10-04, 13:29:31
Wieso? Die X850PRO hat auch den gleichen Takt wie die X850XT nur mit 12 Pipes.


Das war auf freischaltbare Pipes bezogen, so tief würde sich Ati nicht ein zweites mal ins eigene Fleisch schneiden (so wie Nvidia auch)

wuzetti
2005-10-04, 13:38:05
wäre IMHO eine fatale eintscheidung seitens ATI, ich kann mir beim besten willen nicht vorstellen, dass die PRO und LE gestrichen worden sind...

du hast natürlich insoferne recht, als dass zwischen den 250$, die für eine X1600XT propagiert werden und den 449$ für eine X1800XL eine gewaltige lücke klafft. bei B3D wird derzeit massiv in die richtung spekuliert, dass R580, der ja "on track" sein soll, bereits anfang nächsten jahres kommen wird und dann X1800XT bzw. XL in den preisbereich zwischen 250 und 450$ fallen werden.
wie auch immer - morgen wissen wir schon wieder etwas mehr! ;D

Matrix316
2005-10-04, 14:19:19
Das war auf freischaltbare Pipes bezogen, so tief würde sich Ati nicht ein zweites mal ins eigene Fleisch schneiden (so wie Nvidia auch)

Ach was. Lieber 5 Karten für 250 € verkauft als 2 für 400. ;) Ich denke beide haben durch die Freischalterei eher mehr Gewinn gemacht als wenn es nicht gegangen wäre.

Die gelbe Eule
2005-10-04, 15:32:15
Das mit den Balken kennen wir doch. Nunmal die "echte" Folie, man kann ja gerne vergleichen ;)

http://img226.imageshack.us/img226/5033/x180018wu.jpg

Na fällt euch was auf?

mapel110
2005-10-04, 15:37:22
Das mit den Balken kennen wir doch. Nunmal die "echte" Folie, man kann ja gerne vergleichen ;)

http://img226.imageshack.us/img226/5033/x180018wu.jpg

Na fällt euch was auf?
Nö, ich seh nix neues, was die alte Beschriftung des Diagramms nicht auch schon aussagte.

Black-Scorpion
2005-10-04, 15:42:31
Ja, das du keine Ahnung hast wie man das Diagramm lesen muß.
Sonst wäre dir aufgefallen das es bei 70% anfängt und nicht bei 0.

Ob die Zahlen stimmen oder nicht spielt dabei erstmal keine Rolle.
Eine Karte wurde mit 100% angesetzt und der andere Wert umgerechnet.

misterh
2005-10-04, 15:56:36
Also beispiel

7800GTX X1800XT

HL2 70 77

Fear 35 63

FarCry 55 73

BF2 72 98


Wenn diese Diagramm 100% stimmt ;)

LovesuckZ
2005-10-04, 16:56:27
Allerdings möchte ich darauf hinweisen dass die X1600 extrem bandbreitenbehindert ist. Sie hat nur ein 128bittiges Speicherinterface, und dies ist trotz des hohen Taktes IMO dem Maximaldurchsatz (aka Füllrate) nicht würdig. Für die Geforce 6600(GT) gilt ähnliches, wenn auch nicht ganz so stark.
Evtl wird es logischer, wenn du die Ergebnisse in Beziehung zu den Speicherbandbreiten setzt. Da hat die X1600XT nicht so wahnsinnig viel Vorsprung vor der 6600GT.

Die X1600 hat ein Quad, warum sollte sie staerker bandbreitenlimitiert sein als die 6600GT?

Shinjo
2005-10-04, 17:14:28
Ich würde mich lieber über vergleiche mit noch anderen karten interessieren als nur zwischen der X1xxx und Nvidia... vor allem zu sehen wie gut/schlecht sie im vergleich zur älteren generation sien wird.
Ich bezweifel ma einfach das es wirklich lohnt von ner x850xt pe oder sowas in der art auf die neuen zu wechseln.

reunion
2005-10-04, 18:19:50
Allerdings möchte ich darauf hinweisen dass die X1600 extrem bandbreitenbehindert ist. Sie hat nur ein 128bittiges Speicherinterface, und dies ist trotz des hohen Taktes IMO dem Maximaldurchsatz (aka Füllrate) nicht würdig. Für die Geforce 6600(GT) gilt ähnliches, wenn auch nicht ganz so stark.
Evtl wird es logischer, wenn du die Ergebnisse in Beziehung zu den Speicherbandbreiten setzt. Da hat die X1600XT nicht so wahnsinnig viel Vorsprung vor der 6600GT.


Hast du schonmal auf die Füllrate gesehen?
Die X1600XT hat eine geringere Texelfüllrate als eine X1300pro - sie hat nämlich auch nur 4TMUs.

StefanV
2005-10-04, 18:34:58
Das mit den Balken kennen wir doch. Nunmal die "echte" Folie, man kann ja gerne vergleichen ;)

http://img226.imageshack.us/img226/5033/x180018wu.jpg

Na fällt euch was auf?
Abgesehen davon, das du das Bild verfälscht hast und übersehen hast, das die Balken nicht bei 0% anfangen, eigentlich nichts....

MikBach
2005-10-04, 21:10:44
Die X1600 hat ein Quad, warum sollte sie staerker bandbreitenlimitiert sein als die 6600GT?
Wie, die X1600 hat nur ein Quad? :confused: :wink:

Spasstiger
2005-10-04, 21:54:03
Wie, die X1600 hat nur ein Quad? :confused: :wink:

Da gabs wohl eine Verwechslung mit der X600.

Übrigens finde ich den 128 Bit Speicherbus bei der X1600 XT noch vertretbar angesichts des sehr hohen Speichertaktes (690 MHz real).
Eine nicht übertaktete und nicht gemoddete GeForce 6800 müsste eigentlich klar unterlegen sein (ungefähr gleiche Speicherbandbreite, gleiche Anzahl an Pipes, aber deutlich niedrigerer Chiptakt, 325 MHz vs. 590 MHz).

deekey777
2005-10-04, 21:56:45
Wie, die X1600 hat nur ein Quad? :confused: :wink:

1+1+1+1=4.
Wie definiert man ein Quad? Anzahl der TMUs? Anzahl der Pixelshadereinheiten? Gibt ATi überhaupt an, die X1600 hätte ein Quad oder 12 Pixelpipelines? Fragen über Fragen...

Spasstiger
2005-10-04, 21:59:07
1+1+1+1=4.
Wie definiert man ein Quad? Anzahl der TMUs? Anzahl der Pixelshadereinheiten? Gibt ATi überhaupt an, die X1600 hätte ein Quad oder 12 Pixelpipelines? Fragen über Fragen...

Ein Quad steht imo für 4 Pipelines. Die X1600 XT hat drei aktive Quads.

MikBach
2005-10-04, 22:00:06
1+1+1+1=4.
Wie definiert man ein Quad? Anzahl der TMUs? Anzahl der Pixelshadereinheiten? Gibt ATi überhaupt an, die X1600 hätte ein Quad oder 12 Pixelpipelines? Fragen über Fragen...
Anzahl der Pixelshadereinheiten. Vier davon bilden einen Quad.

mapel110
2005-10-04, 22:01:30
http://www.hardwarezone.com/articles/view.php?cid=3&id=1723

deekey777
2005-10-04, 22:07:24
Ein Quad steht imo für 4 Pipelines. Die X1600 XT hat drei aktive Quads.

Anzahl der Pixelshadereinheiten. Vier davon bilden einen Quad.

Kann es sein, daß wir bei der X1600 umdenken müssen? :)

Niemand kommt doch auf die Idee den R580 als einen 12 Quad-Grafikchip zu bezeichnen.

reunion
2005-10-04, 22:10:14
Anzahl der Pixelshadereinheiten. Vier davon bilden einen Quad.


Definitionssache, man könnte das genauso mit den TMUs machen.

Spasstiger
2005-10-04, 22:17:20
http://www.hardwarezone.com/articles/view.php?cid=3&id=1723

Nett, jetzt geht wohl die große Review-Welle los. *gespannt sei* :D

MikBach
2005-10-04, 22:28:30
Kann es sein, daß wir bei der X1600 umdenken müssen? :)
Nicht wirklich. Die Pixelshadereinheiten sind ja die ALUs...


Niemand kommt doch auf die Idee den R580 als einen 12 Quad-Grafikchip zu bezeichnen.
Hehe, warum nicht?

Scherz...
Der R520 kann keine 48 Pixel (vereinfacht gesagt) pro Takt berechnen...

deekey777
2005-10-04, 22:31:32
Nicht wirklich. Die Pixelshadereinheiten sind ja die ALUs...


Hehe, warum nicht?

Scherz...
Der R520 kann keine 48 Pixel (vereinfacht gesagt) pro Takt berechnen...

R580. :)
16/1/3/1.

reunion
2005-10-04, 22:38:34
Nicht wirklich.


Wenn bei dir eine Pipeline nur aus ALUs besteht, dann nicht.
Der Vergleich mit anderen GPU ist allerdings so oder so dahin.
Man sollte sich vom Begriff "Pipeline" lösen, Xenos hat bsw. nur eine Pipeline.
Eine Pipeline in traditionellen Sinne wird es bald nicht mehr geben.

MikBach
2005-10-04, 22:42:53
R580. :)
16/1/3/1.
Ja.

MikBach
2005-10-04, 22:46:21
Wenn bei dir eine Pipeline nur aus ALUs besteht, dann nicht.
Das sicherlich nicht...
Eine Pipe ist bestimmt viel komplexer, als viele hier denken...
Die wenigsten werden wissen, was überhaupt eine MAD-Unit ist..

Die gelbe Eule
2005-10-04, 23:06:07
Schaut man sich das erste Review an, so ordnet sich die X1300PRO 256MB über der X600XT und unter der X700 ein. Gegner auf NV Seite ist hier die 6600, die sich eigentlich einen Patt liefern. Also die 6600GT sollte der X1300Pro 256MB preislich ebenbürtig sein und den Vergleich in dem Segment für sich entscheiden.

Man sieht hier sehr schön das der 3DMurks nicht mehr aussagefähig ist.

Spasstiger
2005-10-04, 23:12:28
Man sieht hier sehr schön das der 3DMurks nicht mehr aussagefähig ist.

Besonders die Ergebnisse mit aktivem AA fallen sehr zugunsten der X1300 Pro aus. Die 256 MB reißen das jedenfalls nicht alleine.

deekey777
2005-10-04, 23:13:15
Schaut man sich das erste Review an, so ordnet sich die X1300PRO 256MB über der X600XT und unter der X700 ein. Gegner auf NV Seite ist hier die 6600, die sich eigentlich einen Patt liefern. Also die 6600GT sollte der X1300Pro 256MB preislich ebenbürtig sein und den Vergleich in dem Segment für sich entscheiden.

Man sieht hier sehr schön das der 3DMurks nicht mehr aussagefähig ist.

Weder die 6600 noch 6600GT sind in der gleichen Klasse wie die X1300Pro, sondern 6200 bzw. 6500.
Und du kennst schon den Marktpreis der X1300Pro?

Die gelbe Eule
2005-10-04, 23:16:56
Der Marktpreis der X1300Pro liegt bei 149$. Eine 6600 kostet hier 110€, die 6600GT 160€.

Geh immer davon aus das $+Zoll=€ Also 1:1.

deekey777
2005-10-04, 23:18:38
Der Marktpreis der X1300Pro liegt bei 149$. Eine 6600 kostet hier 110€, die 6600GT 160€.

Geh immer davon aus das $+Zoll=€ Also 1:1.

Das ist kein Marktpreis, sondern der empfohlene Verkaufspreis seitens ATi und nicht des Marktes.

up¦²
2005-10-04, 23:18:49
x1300pro 159$ :rolleyes:

Das wird eng!

Die gelbe Eule
2005-10-04, 23:19:28
Oder einfacher: X600XT liegt bei 120€, die X700 bei 160€.

Ordne sie dazwischen ein und Du hast den Preis.

Weder die 6600 noch 6600GT sind in der gleichen Klasse wie die X1300Pro, sondern 6200 bzw. 6500.


Die 6500er ist nur OEM, die 6200er kannst eher mit der X1300 non pro oder HyperMem vergleichen.

Rampage 2
2005-10-04, 23:24:55
Hat die X1600XT jetzt 16 Quads, d.h. hat es 12 aktive und 4 deaktivierte Quads und lassen sich die deaktivierten 4 freischalten?

zeckensack
2005-10-04, 23:26:48
x1300pro 159$ :rolleyes:

Das wird eng!Jein.
Die X1600Pro mit 128MB hat ebenfalls einen MSRP von 149$, und wird es mit der 6600GT leichter haben.

Die X1300Pro ist ein Produkt für Idioten, kurz gesagt. Es gibt sie nur mit (wahnsinnig sinnvollen) 256MB Speicher, und deswegen ist sie so teuer angesetzt.

deekey777
2005-10-04, 23:27:39
x1300pro 159$ :rolleyes:
$149 laut Folie.

Das wird eng!
Insbesondere, weil die X1600Pro 128MB den gleichen MSRP hat.

Jein.
Die X1600Pro mit 128MB hat ebenfalls einen MSRP von 149$, und wird es mit der 6600GT leichter haben.

Die X1300Pro ist ein Produkt für Idioten, kurz gesagt. Es gibt sie nur mit (wahnsinnig sinnvollen) 256MB Speicher, und deswegen ist sie so teuer angesetzt.
Für den ALDI-PC reicht das schon, obwohl dort eher eine X1300 mit bis zu 256MB anzutreffen sein wird.

Ärgerlich ist, daß bei der X1600XT der Aufpreis für den schnellen Speicher so heftig ist.

up¦²
2005-10-04, 23:31:54
Vermutlich gibt es bei den Preisen für Ati querbeet Chaos pur ...
Beispiel: die x700 wird gerade bei komplett.xx gedumped => € 94,00 ;D
http://www.komplett.nl/k/ki.asp?sku=308790&cks=ASS&assoc=65B3D214-BAE6-410C-9075-06518B1B62A5

Die gelbe Eule
2005-10-04, 23:31:56
Ist schon etwas komisch wie die X1300Pro getaktet ist. Da kann die X1600pro gar net mithalten. Solange wird die X1300Pro wohl nicht auf dem Markt bleiben.

deekey777
2005-10-04, 23:33:27
Ist schon etwas komisch wie die X1300Pro getaktet ist. Da kann die X1600pro gar net mithalten. Solange wird die X1300Pro wohl nicht auf dem Markt bleiben.

Die X1300 und die X1600 sind zwei grundverschiedene Grafikkarten.

Die gelbe Eule
2005-10-04, 23:39:15
Sind nicht beide nur 128-bit? Die X1600 hat nur einen VS mehr und die 12 PP.
Der Takt der X1300 würde der X1600 besser stehen.

dildo4u
2005-10-04, 23:41:53
Vermutlich gibt es bei den Preisen für Ati querbeet Chaos pur ...
Beispiel: die x700 wird gerade bei komplett.xx gedumped => € 94,00 ;D
http://www.komplett.nl/k/ki.asp?sku=308790&cks=ASS&assoc=65B3D214-BAE6-410C-9075-06518B1B62A5
eine X700 8Pipes 400MHz, Speichertakt: 250MHz und nur 128Bit Speicherinterface ist auch eine Krücke da sind 94€ viel zu teuer wenns für 110€ eine 9800pro mit 380chipmhz und 340mhzSpeicher mit 256Bit gibt.Die Speicherbandbreite dürfte bei der 9800pro so um ca130% Höher sein.

deekey777
2005-10-04, 23:44:54
Sind nicht beide nur 128-bit?
Doch.

Die X1600 hat nur einen VS mehr und die 12 PP.
Nein. http://www.techpowerup.com/reviews/ATI/R5XX

Der Takt der X1300 würde der X1600 besser stehen.
Nein, s.o.

Die gelbe Eule
2005-10-04, 23:46:48
Gerade ist doch erst die X550XT herausgekommen, die hat komischerweise 256-bit. Da könnte die auch noch etwas herumwildern. Sie hat sogar 6 VS bekommen um die X700 (4VS) abzulösen.

deekey777
2005-10-04, 23:49:11
Gerade ist doch erst die X550XT herausgekommen, die hat komischerweise 256-bit. Da könnte die auch noch etwas herumwildern. Sie hat sogar 6 VS bekommen um die X700 (4VS) abzulösen.

Die X700er haben alle 6VS, da kann nichts abgeschaltet werden; die X550 wie alle X600er 2 VS und ein 128bit SI.

Die gelbe Eule
2005-10-05, 00:19:19
Laut HKEP.com haben die X550XT 6VS http://tinyurl.com/bbvoy

deekey777
2005-10-05, 00:25:49
Laut HKEP.com haben die X550XT 6VS http://tinyurl.com/bbvoy
Und laut www.ati.com sind es 2VS. Wem sollte man da glauben?
http://www.ati.com/products/radeonx550/specs.html
Wie kann die X550 6VS haben, wenn sie eine taktreduzierte X600 ist? ;)
Besser gesagt basiert sie auf dem RV370, der wiederum ein geshrinkter RV360&PCIe ist.

betasilie
2005-10-05, 01:06:54
Tja, als ich es vor ein paar Monaten durchaus für möglich gehalten habe, dass der R520 und Co. vernünftiges AF bieten, weil man dieses mit dem richtigen Marketing sehr wohl vermarkten kann, wurde ich noch verspottet. Nun, scheinbar ist wenigstens ATI meiner Meinung und bringt nun den Chip, den ich prophezeiht habe. :biggrin:

Nvidia hat es einfach verbockt. Sie hatten ein super-AF (GF4), aber zu einer Zeit, als die Leistung der Chips einfach nicht weit genung war dies in hohen Stufen zu fahren. Beim GF-FX war es schon schlechter, obwohl viele schon damals den GF-FX verkauft hätten, wäre die PS-Perfomance nicht so bitterschlecht gewesen. ATI bot damals etwas, was der Realität angepasst war. Nun hat Nvida ATI kopiert und ist einen Schritt zurückgegangen, gerade zu dem Zeitpunkt, wo der Schritt zum HQ-AF gekommen ist.

ATI geht den richtigen Weg und zwar zum richtigen Zeitpunkt. Tolle und überlegene AF-Modi, was sich jeder Graikfreak wünscht, SM3.0-Support, echtes 128bit-FP HDR mit AA und Co., richtig gutes AA (was ja die letzten Jahre ohnehin immer der Fall war) und gute Leistung. ... Ich meine, wer will da noch eine 7800er, besonders bei dem schlechten Treibersupport von Nvidia? ;)

mapel110
2005-10-05, 01:11:01
Tja, als ich es vor ein paar Monaten durchaus für möglich gehalten habe, dass der R520 und Co. vernünftiges AF bieten, weil man dieses mit dem richtigen Marketing sehr wohl vermarkten kann, wurde ich noch verspottet. Nun, scheinbar ist wenigstens ATI meiner Meinung und bringt nun den Chip, den ich prophezeiht habe. :biggrin:

Nvidia hat es einfach verbockt. Sie hatten ein super-AF (GF4), aber zu einer Zeit, als die Leistung der Chips einfach nicht weit genung war dies in hohen Stufen zu fahren. Beim GF-FX war es schon schlechter, obwohl viele shcon damals den GF-FX gekauft hätten, wäre die PS-Perfomance nicht so bitterschlecht gewesen. ATI bot damals etwas, was der Realität angepasst war. Nun hat Nvida ATI kopiert und ist einen Schritt zurückgegangen, gerade zu dem Zeitpunkt, wo der Schritt zum HQ-AF gekommen ist.

ATI geht den richtigen Weg und zwar zum richtigen Zeitpunkt. Tolle und überlegene AF-Modi, was sich jeder Graikfreak wünscht, SM3.0-Support, echtes 128bit-FP HDR mit AA und Co., richtig gutes AA (was ja die letzten Jahre ohnehin immer der Fall war) und gute Leistung. ... Ich meine, wer will da noch eine 7800er, besonders bei dem schlechten Treibersupport von Nvidia? ;)
Wir sprechen uns in ein paar Stunden wieder. :D

Spasstiger
2005-10-05, 01:14:03
Wir sprechen uns in ein paar Stunden wieder. :D

Ist dieser Hinweis nicht schon ein Verstoß gegen die NDA? ;)
Jetzt, wo du das erwähnt hast, kannst ja auch noch konkreter werden :).

deekey777
2005-10-05, 01:16:31
Ist dieser Hinweis nicht schon ein Verstoß gegen die NDA? ;)
Jetzt, wo du das erwähnt hast, kannst ja auch noch konkreter werden :).

Steht er unter NDA? Stand er je unter NDA? :)

betasilie
2005-10-05, 01:30:57
Ist dieser Hinweis nicht schon ein Verstoß gegen die NDA? ;)
Jetzt, wo du das erwähnt hast, kannst ja auch noch konkreter werden :).
Als ob Mapel unter NDA stehen würde. :biggrin:

Der reimt sich wie immer was zusammen auf irgendwelche Andeutungen von Ail und Co., die er nit versteht. :rolleyes:

mapel110
2005-10-05, 01:43:02
Als ob Mapel unter NDA stehen würde. :biggrin:

Der reimt sich wie immer was zusammen auf irgendwelche Andeutungen von Ail und Co., die er nit versteht. :rolleyes:
Na du sprichst einfach jedem die Kompetenz ab, der anderer Meinung ist als du. Solltest mal deine Argumentationsweisen überdenken. Das würde manch Sinnloses vorallem in Konsolenthreads vermeiden.

Die AF-Blumen zeigen nur einen Teil des Ganzen an, und obendrein einen, von dem ATI will, das man ihn sieht. Und da Bildqualität immer Leistung kosten muss, musst du deine Argumentation wohl nochmal überdenken. Schließlich ziehst du ja 1600x1200 vor bei High End Grafikkarten. Stellt sich nur die Frage, ob die Füllrate des R520 für diese Auflösung und dieses AF ausreichen wird. Ich bezweifel das recht stark. 1280x1024 kommt für dich ja nicht in Frage, dann kannst du also genausogut einen G70 nehmen, der bis 4xAF noch größtenteils winkelunabhängig filtert.
:)

betasilie
2005-10-05, 01:51:24
Na du sprichst einfach jedem die Kompetenz ab, der anderer Meinung ist als du. Solltest mal deine Argumentationsweisen überdenken. Das würde manch Sinnloses vorallem in Konsolenthreads vermeiden.
Momentchen der herr. Wo spreche ich dir Kompetenz ab? Wo bist Du überhaupt anderer Meinung? Außer dem Spam, "Wir sprechen uns in ein paar Stunden wieder. :D", habe ich nix mit Inhalt gelesen aus deiner Feder. Also nicht mangelnde Argumentation bemängeln, wenn Du selber nur inhaltsfrei spamst, um so zu tun, als Du ob der NDA-Guru wärst, der die Insider-Infos auf dem Desk hat.

Im übrigen sind deine Seitenhiebe auf den Konsolenfred mal wieder sehr suboptimal. Du solltest dich lieber um deine Defizite beim moderieren im besagtem Forum kümmern, als hier solche sinnlosen Andeutungen zu machen.

Die AF-Blumen zeigen nur einen Teil des Ganzen an, und obendrein einen, von dem ATI will, das man ihn sieht. Und da Bildqualität immer Leistung kosten muss, musst du deine Argumentation wohl nochmal überdenken. Schließlich ziehst du ja 1600x1200 vor bei High End Grafikkarten. Stellt sich nur die Frage, ob die Füllrate des R520 für diese Auflösung und dieses AF ausreichen wird. Ich bezweifel das recht stark. 1280x1024 kommt für dich ja nicht in Frage, dann kannst du also genausogut einen G70 nehmen, der bis 4xAF noch größtenteils winkelunabhängig filtert.
:)
Was die Leistung angeht mit vollem AF müssen wir abwarten, jedenfalls bietet ATI es an und das ist gut so. Und sicherlich würde ich echtes 8*AF einem Fake 16*AF vorziehen und wie der genaue Leistungsverbrauch in den diversen Auflösungen mit den diversen AF Modi aussieht, weißt Du mit Sicherheit auch nicht. :rolleyes:

mapel110
2005-10-05, 02:01:58
Momentchen der herr. Wo spreche ich dir Kompetenz ab? Wo bist Du überhaupt anderer Meinung? Außer dem Spam, "Wir sprechen uns in ein paar Stunden wieder. :D", habe ich nix mit Inhalt gelesen aus deiner Feder. Also nicht mangelnde Argumentation bemängeln, wenn Du selber nur inhaltsfrei spamst, um so zu tun, als Du ob der NDA-Guru wärst, der die Insider-Infos auf dem Desk hat.

Erklärung steht ja im vorigen Posting. AF kostet Leistung.


Im übrigen sind deine Seitenhiebe auf den Konsolenfred mal wieder sehr suboptimal. Du solltest dich lieber um deine Defizite beim moderieren im besagtem Forum kümmern, als hier solche sinnlosen Andeutungen zu machen.

Warum soll ich Konsolenthreads überwachen, die mich nicht im Geringsten interessieren?! Aber das wird ohnehin bald gelöst mit einem Konsolenforum. Außerdem sind noch weitere 11 Moderatoren dort eingetragen. Aber wie gesagt, schau dir deine Weise in besagten Threads mal genauer an. Immer wieder die gleichen Phrasen wie eben "..., die er nit versteht."


Was die Leistung angeht mit vollem AF müssen wir abwarten, jedenfalls bietet ATI es an und das ist gut so. Und sicherlich würde ich echtes 8*AF einem Fake 16*AF vorziehen und wie der genaue Leistungsverbrauch in den diversen Auflösungen mit den diversen AF Modi aussieht, weißt Du mit Sicherheit auch nicht. :rolleyes:
Der Leistungsabfall wird auf jedenfall größer sein, als mit dem winkelabhängigen AF, das ATI merkwürdigerweise weiterhin anbieten wird.

Tomcat70
2005-10-05, 02:13:07
Der Leistungsabfall wird auf jedenfall größer sein, als mit dem winkelabhängigen AF, das ATI merkwürdigerweise weiterhin anbieten wird.

was soll daran bitte merkwürdig sein? ich find das eher gut wenn man mehr auswahl hat. nicht jeder hat dieselben ansprüche, oder seh ich da was falsch?

mapel110
2005-10-05, 02:16:25
was soll daran bitte merkwürdig sein? ich find das eher gut wenn man mehr auswahl hat. nicht jeder hat dieselben ansprüche, oder seh ich da was falsch?
Winkelunabhängiges AF würde winkelabhängiges AF überflüssig machen. Man würde einfach den gewünschten Speed bzw die Qualität über den AF-Grad regulieren.

r3ptil3
2005-10-05, 02:17:43
Mapel weist du ob die 3DCCrew schon irgendwelche R5X0 Karten haben?

betasilie
2005-10-05, 02:18:06
Erklärung steht ja im vorigen Posting. AF kostet Leistung.
Wen wunderts? Es wäre unsinnig das Gegenteil zu behaupten, was auch niemand getan hat. :rolleyes:

Warum soll ich Konsolenthreads überwachen, die mich nicht im Geringsten interessieren?! Aber das wird ohnehin bald gelöst mit einem Konsolenforum. Außerdem sind noch weitere 11 Moderatoren dort eingetragen. Aber wie gesagt, schau dir deine Weise in besagten Threads mal genauer an. Immer wieder die gleichen Phrasen wie eben "..., die er nit versteht."
Wirklich toll deine moderatives Geschick solche OT-Diskussionen zu forcieren. :|

Der Leistungsabfall wird auf jedenfall größer sein, als mit dem winkelabhängigen AF, das ATI merkwürdigerweise weiterhin anbieten wird.
Wieso merkwürdiger Weise? Das ist der Optimalfall, weil es ne Menge Spiele gibt, wo es kaum stört und Leistung bringt.

Es geht schlicht darum, dass ich als Kunde von Fall zu Fall und Spiel zu Spiel entschieden kann, ob ich volles AF will, oder stark winkelabhängiges, ganz wie es der Konsoment will oder die Applikation fordert. ATI bietet echtes AF und winkeloptimiertes AF, Nvidia nicht.

mapel110
2005-10-05, 02:19:19
Mapel habt ihr schon irgendwelche R5X0 Karten?
3DCenter ist Leonidas Seite und er schreibt alle derartigen Artikel.

Tomcat70
2005-10-05, 02:19:56
Winkelunabhängiges AF würde winkelabhängiges AF überflüssig machen. Man würde einfach den gewünschten Speed bzw die Qualität über den AF-Grad regulieren.

würde, könnte, hätte.....
wenn jemand ein fps-freak ist und ihm winkelabhängiges AF reicht, dann bekommt er halt mehr performance. ich seh daran nichts merkwürdiges.
eine option mehr die dem user die entscheidung überlässt.

deekey777
2005-10-05, 02:22:00
Mapel weist du ob die 3DCCrew schon irgendwelche R5X0 Karten haben?

Du fragst wieder falsch: "War Leo auf Ibiza?" :biggrin:

mapel110
2005-10-05, 02:23:06
würde, könnte, hätte.....
wenn jemand ein fps-freak ist und ihm winkelabhängiges AF reicht, dann bekommt er halt mehr performance. ich seh daran nichts merkwürdiges.
eine option mehr die dem user die entscheidung überlässt.
Die Leistung, die man in einem Game für den ein oder anderen Winkel in 16AF investiert, könnte man besser in ein 4xAF stecken, das dann aber jeden Winkel beeinflusst und somit ein homogeneres Bild ergibt.
Winkelabhängiges AF ist nurnoch dazu da, Benchmarks zu gewinnen und es eben dennoch 16AF nennen zu können.

betasilie
2005-10-05, 02:26:03
Winkelunabhängiges AF würde winkelabhängiges AF überflüssig machen. Man würde einfach den gewünschten Speed bzw die Qualität über den AF-Grad regulieren.
Die Leistung, die man in einem Game für den ein oder anderen Winkel in 16AF investiert, könnte man besser in ein 4xAF stecken, das dann aber jeden Winkel beeinflusst und somit ein homogeneres Bild ergibt.
Winkelabhängiges AF ist nurnoch dazu da, Benchmarks zu gewinnen und es eben dennoch 16AF nennen zu können.

Du hast scheinbar nicht im Ansatz verstanden wieso es Winkelabhängiges AF überhaupt gibt.

Man hat insbesondere bei älteren, geometriearmen Spielen mehr große Flächen in den Winkelbereichen, die voll gefiltert werden, weil diese ins Auge fallen, wie zum Beispiel Bodentexturen und Wandtexturen. Die anderen Winkelflächen kommen selten großflächig vor, weswegen eine niedriger Filterstufe dort weniger, im Idealfall fast garnicht auffällt. Dieses psychovisuelle Konzept liegt dem zu Grunde.

Deine Aussage ist daher nicht richtig, jedenfalls als Pauschalaussage.

Tomcat70
2005-10-05, 02:26:36
Die Leistung, die man in einem Game für den ein oder anderen Winkel in 16AF investiert, könnte man besser in ein 4xAF stecken, das dann aber jeden Winkel beeinflusst und somit ein homogeneres Bild ergibt.
Winkelabhängiges AF ist nurnoch dazu da, Benchmarks zu gewinnen und es eben dennoch 16AF nennen zu können.

also das seh ich anders.
und ich finds lustig das man etwas positives wie eine zusätzliche auswahlmöglichkeit noch als was schlechtes darstellen kann......
zuerst wars merkwürdig, nun ists gar ein feature das nur zum benchmark-gewinnen dient.....naja, jeder hat halt so seine eigenen hintergründe warum er was wie sieht....

betasilie
2005-10-05, 02:28:19
würde, könnte, hätte.....
wenn jemand ein fps-freak ist und ihm winkelabhängiges AF reicht, dann bekommt er halt mehr performance. ich seh daran nichts merkwürdiges.
eine option mehr die dem user die entscheidung überlässt.
Nicht nur das, es gibt ja durchaus Spiele, wo die starke Winkelabhängigkeit kaum auffällt, obwohl sie Leistung bringt. Dort werde ich auch weiter optimiertes AF fahren, gerade bei Onlineshootern, wo es auf jedes fps ankommt.

Es gibt aber halt Spiele, wo die Winkelabhängigkeit enorm störend wirkt und genau da will ich als Konsument sagen können, das Spiel braucht volles AF und genau dort ich will es einschalten können.

Tomcat70
2005-10-05, 02:29:44
Nicht nur das, es gibt ja durchaus Spiele, wo die starke Winkelabhängigkeit kaum auffällt, obwohl sie Leistung bringt. Dort werde ich auch weiter optimiertes AF fahren, gerade bei Onlineshootern, wo es auf jedes fps ankommt.

Es gibt aber halt Spiele, wo die Winkelabhängigkeit enorm störend wirkt und genau da will ich als Konsument sagen können, das Spiel braucht volles AF und genau dort ich will es einschalten können.

jo, sehe ich ja ähnlich wie du. das steht eh ausser frage denk ich.

betasilie
2005-10-05, 02:31:58
also das seh ich anders.
und ich finds lustig das man etwas postives wie eine zusätzliche auswahlmöglichkeit noch als was schlechtes darstellen kann......
zuerst wars merkwürdig, nun ists gar ein feature das nur zum benchmark-gewinnen dient.....naja, jeder hat halt so seine eigenen hintergründe warum er was wie sieht....
Ack. Wenn Du dir in den letzten Monaten mal Mapels Postings anguckst, dann wird dir auffallen, dass ATI fast alles falsch macht. ;) Dass er es nun als negativ-Punkt wertet, dass ATI dem Konsumenten die Wahl im Treiber gibt was das AF angeht, was die meisten 3D-Freaks in jeder Hinsicht immer wieder fordern, wundert micht daher nicht mehr. ;(

Radeonator
2005-10-05, 03:12:06
Lasst doch mal bitte endlich alles diese OT gayspame, das ja nicht zum aushalten. Selten soviel Stuß hier gelesen (in letzter Zeit)

Ist doch scheissegal wieviel Abstufungen nach unten angeboten werden (allein über LQ zu diskutieren ist in diesem Zusammenhang zu albern... ), auf HQ kommt es schließ- und letztendlich an. Wenn im HQ "S3" mäßiges AF angeboten wird, verdammt nochmal...HER DAMIT! Wenn ATi weiter denkt und sich sagen, in ein paar Monaten reicht die Leistung nicht für volles AF und nicht jeder will sich schließlich gleich ne neue Graka kaufen, ist das OK.

Bevor irgendjemand mit Unsinn daher kommt...habe seit langem ne 6800LE@6800 turbo und bin sehr zufrieden mit AF BQ und vor allem FSAA einstell Möglichkeiten. Jedoch ist mir AF wichtiger und ich finde Winkelunabhängiges AF kewl...

mapel110
2005-10-05, 03:15:53
Ack. Wenn Du dir in den letzten Monaten mal Mapels Postings anguckst, dann wird dir auffallen, dass ATI fast alles falsch macht. ;) Dass er es nun als negativ-Punkt wertet, dass ATI dem Konsumenten die Wahl im Treiber gibt was das AF angeht, was die meisten 3D-Freaks in jeder Hinsicht immer wieder fordern, wundert micht daher nicht mehr. ;(
Und dich sollte es nicht wundern, wenn dieses neue AF einen Haken hat und damit meine ich nicht die Performance.

@Radeonator
Dass das hervorragende S3-AF flimmert ist dir bekannt?

Radeonator
2005-10-05, 03:45:27
Und dich sollte es nicht wundern, wenn dieses neue AF einen Haken hat und damit meine ich nicht die Performance.

@Radeonator
Dass das hervorragende S3-AF flimmert ist dir bekannt?

Kannst oder willst du nicht verstehen? Gerade du als Mod solltest etwas vernünftiger agieren und polemisieren ist, erm, bubu :rolleyes:

Beim Rosinen Picken, um mit aller macht Recht zu haben, an einem Punkt wo man nur um etwas an den Pranger zu stellen dorthin stellt, sollte langsam die Vernunft und vor allem aber auch das Denken wieder einsetzen.

Bevor du oder jemand sich an den S3 AF flimmert Strohhalm klammert :

1. Es geht und ging den Enthusiasten seit langem darum, endlich max Qualität für seine (ihre) Euronen zu bekommen. Da schließe ich dich mit ein.
2. ATi kündigt nun an, diesem Kundenwunsch endlich folge zu leisten(Hurra...)
3. Wenn für die Zukunft vorgesorgt und performance verheißende Modi mit angekündigt werden WAYNE ? Ist doch toll...WARUM ZUR HÖLLE AUCH NICHT? Sag es endlich? Wo ist da ein Problem, das man sich fast 3 Seiten über soetwas vollkommen uninteressantes rumstreiten muss?Wenn du einen Verdacht hast, dann SAG/SCHREIB es einfach, den niemand weiss was du denkst...
4. gn8 ;)

mapel110
2005-10-05, 04:16:21
Kannst oder willst du nicht verstehen? Gerade du als Mod solltest etwas vernünftiger agieren und polemisieren ist, erm, bubu :rolleyes:

Beim Rosinen Picken, um mit aller macht Recht zu haben, an einem Punkt wo man nur um etwas an den Pranger zu stellen dorthin stellt, sollte langsam die Vernunft und vor allem aber auch das Denken wieder einsetzen.

Bevor du oder jemand sich an den S3 AF flimmert Strohhalm klammert :

1. Es geht und ging den Enthusiasten seit langem darum, endlich max Qualität für seine (ihre) Euronen zu bekommen. Da schließe ich dich mit ein.
2. ATi kündigt nun an, diesem Kundenwunsch endlich folge zu leisten(Hurra...)
3. Wenn für die Zukunft vorgesorgt und performance verheißende Modi mit angekündigt werden WAYNE ? Ist doch toll...WARUM ZUR HÖLLE AUCH NICHT? Sag es endlich? Wo ist da ein Problem, das man sich fast 3 Seiten über soetwas vollkommen uninteressantes rumstreiten muss?Wenn du einen Verdacht hast, dann SAG/SCHREIB es einfach, den niemand weiss was du denkst...
4. gn8 ;)
Ist ja schon gut. :) Aber ich hab halt meine Zweifel, wie das AF gelöst ist und warum man nur so eine AF-Blume serviert bekommt. Aber in ein paar Stunden gibts ja mehr. Browserrefresh auf den wichtigsten Seiten ist jedenfalls aktiv. :smile:

TheGoD
2005-10-05, 04:25:54
Ich verstehe gar nicht warum alle die letzten geleakten Details so schlecht bewertet, vor zwei Wochen sah der R520 noch wie ein wahrscheinlich der GTX (leicht/stark?) unterlegener R420-Nachfolger aus, der es ATI mit den längst überfälligen Features SM3 und HDR ermöglicht weiterhin konkurenzfähig zu bleiben ohne ggü nvidea etwas Neues zu bieten.
Aktuell stellt es sich so dar das ATI durch AAA und AVIO nicht nur featurebezogen Gleichziehen, sondern gar durch HDR im Verbindung mit AA (für mich Kaufargument No.1 ab einer Performane von einer G6800!) sogar vorbeiziehen kann. Auch sieht es so aus als sei der R520 auch was die Performance angeht durchaus konkurenzfähig (vorallem der erste X1300 Test beeindruckt).
Natürlich sollte man Ati nicht jeden Scheiß glauben, trotzdem bin ich bis jetzt angenehmt überrascht (von AGP-Karten mal abgesehen :()

@mappel:
Das Ati so explizit mit ihrem verbesserten AF wirbt zeigt IMO zumindest das es qualitativ zumindest dem R420 und dem G70 überlegen ist. Das alleine ist schonmal ein Schritt in die richtige Richtung, auch wenn es vielleicht nicht der Weißheit letzter Schluß darstellt. Das man den schnelleren Winkelabhängigen Modus trotzdem weiter anbietet beweist eigentlich nur das das ganze nicht 4free ist.

aths
2005-10-05, 04:50:25
Du hast scheinbar nicht im Ansatz verstanden wieso es Winkelabhängiges AF überhaupt gibt.

Man hat insbesondere bei älteren, geometriearmen Spielen mehr große Flächen in den Winkelbereichen, die voll gefiltert werden, weil diese ins Auge fallen, wie zum Beispiel Bodentexturen und Wandtexturen. Die anderen Winkelflächen kommen selten großflächig vor, weswegen eine niedriger Filterstufe dort weniger, im Idealfall fast garnicht auffällt. Dieses psychovisuelle Konzept liegt dem zu Grunde.

Deine Aussage ist daher nicht richtig, jedenfalls als Pauschalaussage.Stark winkelabhängiges AF gibt es, weil ATI Transistoren sparen wollte, und Nvidia das Muster wegen der Füllraten-Ersparnis, die sich direkt in schlechterer Qualität äußert, kopierte.

Ältere Spiele, die fast nur 90°-Winkel haben, profitieren nicht vom ATI-Style à la R300. Dein "psychovisuelles Konzept" brächte nur dann irgendeinen Geschwindigkeitsvorteil, wenn großflächig Qualität geopfert würde. Das sieht man dann aber auch. Es gibt keinen Grund, diesen Style aus Qualitätssicht als sinnvoll zu deklarieren. Je geringer die Winkelabhängigkeit, desto besser die Zusatzqualität pro zusätzlich verbrauchter Füllrate. Zu R300-Zeiten war das R300-AF in Bezug auf den Transistorcount ein noch einigermaßen verschmerzbarer Kompromiss, weil eben oft die rechtwinklig ausgerichtete Geometrie vorherrschte. Für solche Spiele wurde der R520 aber nicht gebaut – das Standard-AF dient genau wie das NV40/G70-AF nur dazu, einen fragwürdigen Sparmodus noch "16x" nennen zu dürfen.

Wären nicht so viele Leute an solches Spar-AF gewöhnt geworden, würden sie wahrscheinlich die Vorteile von einem vernünftigen AF auch eher sehen.

ATIs Schritt, eine bessere Alternative im R520 anzubieten, leider nur optional, ist dennoch richtig, auch wenn NV20-Qualität noch nicht erreicht wurde.

aths
2005-10-05, 04:51:46
Ich verstehe gar nicht warum alle die letzten geleakten Details so schlecht bewertet, vor zwei Wochen sah der R520 noch wie ein wahrscheinlich der GTX (leicht/stark?) unterlegener R420-Nachfolger aus, der es ATI mit den längst überfälligen Features SM3 und HDR ermöglicht weiterhin konkurenzfähig zu bleiben ohne ggü nvidea etwas Neues zu bieten.
Aktuell stellt es sich so dar das ATI durch AAA und AVIO nicht nur featurebezogen Gleichziehen, sondern gar durch HDR im Verbindung mit AA (für mich Kaufargument No.1 ab einer Performane von einer G6800!) sogar vorbeiziehen kann. Auch sieht es so aus als sei der R520 auch was die Performance angeht durchaus konkurenzfähig (vorallem der erste X1300 Test beeindruckt).
Natürlich sollte man Ati nicht jeden Scheiß glauben, trotzdem bin ich bis jetzt angenehmt überrascht (von AGP-Karten mal abgesehen :()Eine Bitte: Nicht nur "HDR" schreiben. HDR für sich alleine sagt nichts. Du meinst "HDR-Rendering". Was HDR-Rendering angeht, bieten NV40 und G70 mindestens ein sinnvolles Feature, was R520 nicht hat: FP16-Texturfilterung.

Razor
2005-10-05, 05:06:50
2. ATi kündigt nun an, diesem Kundenwunsch endlich folge zu leisten(Hurra...)Ach ja?

So bitte ich Dich, hier folgende zwei Punkte zu beachten:
- ATI hat schon mal via AF-Blume 'gelogen'
- was-wäre-wenn, die Performance für "echtes" AF so stark zurück geht, dass ATI's neue weit hinter die Kontrahenten zurück fallen?

Sorry, aber ich will endlich echte Reviews mit intensiven BQ-Vergleichen sehen, bevor ich anfange, irgendwelches Marketing-Geblubber für ernst zu nehmen.

War aber klar, dass Du, beta, reunion und tagus da voll drauf' abfahren!
Ihr lernt aber auch einfach nicht...

@all (und vor allem mods)

Dies hier soll doch ein Fakten-Thread sein, oder?
Warum also, ist hier nur viel Müll und keine Fakten zu finden?
(vom verlinkten Review seitens mapel mal abgesehen)
:confused:

Razor

P.S.: einziges Review bisher (von mapel):
X1300: http://www.hardwarezone.com/articles/view.php?cid=3&id=1723
Und steht absolut nix über Bildqualität, die ATI doch so sehr in den Wind hängt...
(vermutlich wusste der Reviewer beim Schreiben noch nix von den Folien ;-)

betasilie
2005-10-05, 05:16:14
Stark winkelabhängiges AF gibt es, weil ATI Transistoren sparen wollte, und Nvidia das Muster wegen der Füllraten-Ersparnis, die sich direkt in schlechterer Qualität äußert, kopierte.

Ältere Spiele, die fast nur 90°-Winkel haben, profitieren nicht vom ATI-Style à la R300. Das angeblich "psychovisuelle Konzept" brächte nur dann irgendeinen Geschwindigkeitsvorteil, wenn großflächig Qualität geopfert würde. Das sieht man dann aber auch. Es gibt keinen Grund, diesen Style aus Qualitätssicht als sinnvoll zu deklarieren. Je geringer die Winkelabhängigkeit, desto besser die Zusatzqualität pro zusätzlich verbrauchter Füllrate. Zu R300-Zeiten war das in Bezug auf den Transistorcount ein noch einigermaßen verschmerzbarer Kompromiss, weil eben oft die rechtwinklig ausgerichtete Geometrie vorherrschte. Für solche Spiele wurde der R520 aber nicht gebaut – das Standard-AF dient genau wie das NV40/G70-AF nur dazu, einen fragwürdigen Sparmodus noch "16x" nennen zu dürfen.

Wären nicht so viele Leute an solches Spar-AF gewöhnt geworden, würden sie wahrscheinlich die Vorteile von einem vernünftigen AF auch eher sehen.

ATIs Schritt, eine bessere Alternative im R520 anzubieten, leider nur optional, ist dennoch richtig, auch wenn NV20-Qualität noch nicht erreicht wurde.
Ich kenne deine Meinung zu dem Thema ja. ;) Der Punkt ist aber, dass Du genau das gegenteilige Extrem darstellst, gegenüber den Leuten, die sich an das stark "Spar-AF" gewöhnt haben, oder denen es ohnehin nie aufgefallen ist - du achtest besonders stark drauf, wodurch es dir wesenstlich mehr ins Bewusstsein rückt. Und natürlich gibt es auch Beispiele (siehe zB WOW), wo es fast jedem ins Auge fällt.

Du musst bedenken, dass viele Leute vor dem R300 AF nie genutzt haben, weil es bei GF3 und GF4 schon arg viel Leistung gefressen hat. Besonders ab 4*AF war der Performancedrop bei GF4 enorm, und bei GF3 sowieso. Und gegenüber einem GF4 2*AF sieht ein 8*AF vom R3xx nunmal besser aus, von daher war es in der Spielepraxis schon ein Fortschritt gewesen, wenn auch nicht in der kompromisslosen Form, den Du dir gewünscht hast.

ATI hat das AF wenigstens erheblich verbessert beim R300 gegenüber den Vorgängern, NV hat das Gegenteil gemacht, was ich ihnen nicht übel genommen hätte, wenn sie wenigstens optional in einem versteckten Menü volles AF geboten hätten und es nicht in Hardware gegossen hätten, wobei ich das immer noch nicht ganz glaube.


Fakt ist, dass ATI nun, ganz wie ich es schon vor Monaten vermutet habe, besseres AF bietet, weil man das sehrwohl vermarkten kann. Dass sie für Benchmarks und für Leute mit weniger ausgeprägtem Texturqualitätsbewusstsein, oder auch für spätere Spiele, wo die Leistung knapp wird, auch ein geschwindigkeitsoptimiertes AF bieten, kann man ihnen nun wirklich nicht anprangern, sondern entspricht eher dem Wunsch der Konsumenten, selber entscheiden zu können, was für Filterqualität sie in den diversen Applikationen nutzen wollen.

betasilie
2005-10-05, 05:18:24
War aber klar, dass Du, beta, reunion und tagus da voll drauf' abfahren!
Ihr lernt aber auch einfach nicht...
Was soll das denn heißen und das garnicht so sehr weil mein Name dort steht. :|

aths
2005-10-05, 05:33:51
Ich kenne deine Meinung zu dem Thema ja. ;) Meinung? Fakten! In einer Kolumne hatte ich das mal genau dargelegt. Mit meinem Laptop muss ich mit dem traditionellen ATI-AF leben, irgendwie geht das ja auch, und in einigen Spielen ist 8x oder 16x eine deutliche Verbesserung gegenüber 2x. Das bringt mich aber nicht dazu, objektive Nachteile relativieren zu wollen.

Dass 8x AF auf dem R300 immer besser aussehen würde als 2x AF auf dem NV25 zweifle ich an. Hat man z. B. in WoW schön scharfe Texturen neben vergleichsweise unscharfen, sieht das blöd aus. Es ist einfach unrealistisch, dass Texturschärfe abhängig vom Winkel um die Z-Achse sein soll. Zu R300-Zeiten konnte man das als Kompromiss in Bezug auf den Transistor-Count noch gelten lassen, beim NV40, G70, sowie R420 und R520 ist der Modus indiskutabel. Der R520 bietet allerdings eine Option auf einen besseren Modus. Auch wenn ATI damit keineswegs traditionelle GeForce-Qualität à la NV20 erreicht: Während Nvidia den Schwanz einklemmt und den User zum R300-AF-Stil zwingt, vermarktet ATI offensiv die Qualitätssteigerung gegenüber ihren eigenen bisherigen Produkten.

Die Aussage von mapel, dass der HQ-AF-Modus im R520 den Standard-Modus überflüssig macht, ist richtig.

aths
2005-10-05, 05:39:42
Tja, als ich es vor ein paar Monaten durchaus für möglich gehalten habe, dass der R520 und Co. vernünftiges AF bieten, weil man dieses mit dem richtigen Marketing sehr wohl vermarkten kann, wurde ich noch verspottet. Nun, scheinbar ist wenigstens ATI meiner Meinung und bringt nun den Chip, den ich prophezeiht habe. :biggrin:

Nvidia hat es einfach verbockt. Sie hatten ein super-AF (GF4), aber zu einer Zeit, als die Leistung der Chips einfach nicht weit genung war dies in hohen Stufen zu fahren. Beim GF-FX war es schon schlechter, obwohl viele schon damals den GF-FX verkauft hätten, wäre die PS-Perfomance nicht so bitterschlecht gewesen. ATI bot damals etwas, was der Realität angepasst war. Nun hat Nvida ATI kopiert und ist einen Schritt zurückgegangen, gerade zu dem Zeitpunkt, wo der Schritt zum HQ-AF gekommen ist.

ATI geht den richtigen Weg und zwar zum richtigen Zeitpunkt. Tolle und überlegene AF-Modi, was sich jeder Graikfreak wünscht, SM3.0-Support, echtes 128bit-FP HDR mit AA und Co., richtig gutes AA (was ja die letzten Jahre ohnehin immer der Fall war) und gute Leistung. ... Ich meine, wer will da noch eine 7800er, besonders bei dem schlechten Treibersupport von Nvidia? ;)Mit meiner Ti 4600 habe ich den AF-Modus oft volles Rohr ausgefahren (also 8x trilineares AF genutzt.) Der Zeitpunkt für SM3 war schon zum NV40-Release gut. Echtes 128-Bit FP-HDR-Rendering im R520? Das wüsste ich.

Was die Bemerkung mit dem Treibersupport bezüglich Nvidia soll, weiß ich allerdings nicht.

Razor
2005-10-05, 05:44:28
Was soll das denn heißen und das garnicht so sehr weil mein Name dort steht. :|Theorie und Praxis...

Auch in diesem Thread wird wieder nur spekuliert, nicht aber über Fakten diskutiert.
Wartet doch bitte einfach noch ein bissel ab und tragt dazu bei, dass nicht auch dieser Thread wieder zugenölt wird...

@topic

Der einzig verwertbare Teil ist das von mapel verlinkte Review auf Hardwarezone, welches sich folgendermaßen interpretieren läßt:

- KEINE Aussage zur Bildqualität (AF-Benches vermutlich mit Winelabhängigkeit)
- Vergleich einer X1300pro 256MB mit einer 6600 128MB -> X1300pro liegt vorne (mal mehr, mal weniger)
- Vergleich einer X1300pro 256MB mit einer 6600GT 128MB via SC3 -> 6600GT liegt (massiv) vorne
- X1300pro 256MB stinkt unter Doom3 sogar gegen eine 6600 128MB ab

That's it.

Wäre also gut, wenn da mal aussagefähigere 'Reviews' kommen, mit denen man auch was anfangen kann.

Razor

Neos
2005-10-05, 07:06:42
Wie sieht es eigendlich mit agp versionen von den grafikkarten aus? Is da irgendwas gesagt worden?

HanSolo78
2005-10-05, 07:06:44
Immer noch kein Review 2 STd. vor Ende des Countdowns?
Gibts ja wohl nich...

Demirug
2005-10-05, 07:13:57
Eine Bitte: Nicht nur "HDR" schreiben. HDR für sich alleine sagt nichts. Du meinst "HDR-Rendering". Was HDR-Rendering angeht, bieten NV40 und G70 mindestens ein sinnvolles Feature, was R520 nicht hat: FP16-Texturfilterung.

Schön das du die Sachen öffentlich machst dann kann ich auch was dazu schreiben.

Gerade weil die FP16 Texturefilterung fehlt bin ich sehr kritisch was HDR Benchmarks angeht. Es stellt sich nämlich die Frage ob die Spiele alle schon auf dieses SM3 Gesamtmodel ausgelegt sind. Fehlenden Filterung für ein bestimmtes Textureformat muss nicht mal in einer Fehlermeldung der DX-Runtime enden und kann so leicht übersehen werden.

Ronny145
2005-10-05, 08:32:07
Wie sieht es eigendlich mit agp versionen von den grafikkarten aus? Is da irgendwas gesagt worden?



Keine AGP Karten im High End Sektor mehr. RV530 soll aber noch auf AGP erscheinen.

Neos
2005-10-05, 08:40:02
Is das dann nur von ATI seiten aus? Weil den herstellern wie Hercules Sapire oder so steht es doch trotzdem frei eine agp version zu bauen oder?

Raff
2005-10-05, 08:44:50
Is das dann nur von ATI seiten aus? Weil den herstellern wie Hercules Sapire oder so steht es doch trotzdem frei eine agp version zu bauen oder?

Sie können. Dazu braucht's den Rialto-Chip von Ati. Und ich hoffe inständig, dass wenigstens ein Hersteller ihn nutzen wird ...

MfG,
Raff

Neos
2005-10-05, 08:52:00
Dann sind wir ja immerhin schon 2 :) Wir können ja ne e-mail mit unterschriften zu Sapire schicken ;) Sonst bin ich echt in einer zwickmühle...


€dit:

Es is so weit. Is ja spektakulär was man da sieht ^^

Crushinator
2005-10-05, 09:07:08
(...) Die Aussage von mapel, dass der HQ-AF-Modus im R520 den Standard-Modus überflüssig macht, ist richtig.
Ich stehe ehrlich gesagt auf dem Standpunkt, daß die Hersteller mit ihrem Standardmodus machen sollen was sie wollen, solange mir als User irgendeine Möglichkeit zur Verfügung gestellt wird das mögliche Maximum einzustellen. :)

MartinRiggs
2005-10-05, 09:21:08
Toll, 3d-Center hat keine Karte bekommen, scheinbar auch kein anderer, ich sehe jedenfalls keine REviews im Netz. :eek:

Blaze
2005-10-05, 09:22:13
Toll, 3d-Center hat keine Karte bekommen, scheinbar auch kein anderer, ich sehe jedenfalls keine REviews im Netz. :eek:

Du hast doch nicht wirklich dran geglaubt dass die pünktlich kommen? :D

Das wäre so...untypisch für den R520 ;)

Hakkerstiwwel
2005-10-05, 09:25:12
.....
Die Aussage von mapel, dass der HQ-AF-Modus im R520 den Standard-Modus überflüssig macht, ist richtig.

Dann wuerde Ati bei den Reviewern bei den AF Balken genauso dastehen wie seinerzeit nV30 vs R300. Das will man sicher vermeiden :nono: Andere Reviewer werden evtl beide Modi benchen und darauf hinweisen dass der langsamere Modus eine IQ bietet die nV nicht hat. Somit kann man auch den langsameren Modus vermarkten. Eigentlich clever.

MartinRiggs
2005-10-05, 09:25:56
Ich glaube noch an das gute :crazy:
aber da 3D-Center nix liefern kann kann man es wahrscheinlich eh vergessen, die anderen machen ja nur balkenvergleiche, mich interessiert die BQ.

Hakkerstiwwel
2005-10-05, 09:28:56
Ich glaube noch an das gute :crazy:
aber da 3D-Center nix liefern kann kann man es wahrscheinlich eh vergessen, die anderen machen ja nur balkenvergleiche, mich interessiert die BQ.
AFAIK brauchst du vor 15:00 nigendwo irgenetwas erwarten.

Demirug
2005-10-05, 09:41:17
Sie können. Dazu braucht's den Rialto-Chip von Ati. Und ich hoffe inständig, dass wenigstens ein Hersteller ihn nutzen wird ...

MfG,
Raff

Ja und Nein. ATI muss trotzdem noch die entsprechenden Kombination Rialto + GPU im Treiber freischalten. Diese Bridgechips sind in dieser Beziehung nicht voll transparent.

Hakim
2005-10-05, 10:07:52
Ich hasse papierlaunchs. Ich hoffe einige tester haben karten erhalten um später die Karten vorzustellen. Wenn nicht ist das die Größte Verarsche

Mayhem
2005-10-05, 10:09:29
Toll, 3d-Center hat keine Karte bekommen...

Jo, echt 'n Witz!!! Man sollte mal 'ne Petition (dass ATI 'ne Karte an 3DC schickt) aufmachen und das Ergebnis an ATI senden. Ich kapier' nicht, wie ATI da so fahrlässig sein kann.

Ronny145
2005-10-05, 10:10:08
Ich hasse papierlaunchs. Ich hoffe einige tester haben karten erhalten um später die Karten vorzustellen. Wenn nicht ist das die Größte Verarsche

Wieso später? Die reviews gehen heute pünktlich ab 14:00 oder 15:00 Uhr Online.

Hakim
2005-10-05, 10:13:05
Wieso später? Die reviews gehen heute pünktlich ab 14:00 oder 15:00 Uhr Online.

hoffentlich

Tarkin
2005-10-05, 10:20:09
Die offizielle Pressemitteilung gibts um Punkt 12 Uhr Mittag (vermutlich ... ATi Pressemeldungen werden zu 99% um diese Uhrzeit herausgegeben) ... Reviews dann ab 14 Uhr.

SKYNET
2005-10-05, 10:30:57
normalerweise sind aber ab 10:00 die ersten reviews "durchgesickert".... *grmpf*

Tarkin
2005-10-05, 10:32:48
http://www.digitimes.com/news/a20051005A7033.html

Nvidia has scheduled its G72 graphics processing unit (GPU), which will be manufactured using 90nm process technology, to be introduced in early 2006, according to sources at Taiwan graphics card makers. The G72, a 90nm version of the G70 GPU, will compete with the 90nm R-series from ATI Technologies, which will announce the launch of its long-awaited R520, RV515 and RV530 GPUs on October 5, U.S. time, indicated the sources.

The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed.

Graphics card makers are ready to ship R520- and RV515-based products, following ATI’s official release, according to sources at the makers. RV530-based graphics cards will be volume shipped at the end of this month, indicated the sources.

... d.h. mit hoher Wahrscheinlichkeit keine direkte Antwort Nvidias auf den R520. Bin gespannt wie es Nvidia mit der 90nm Technik ergeht ;-)

SKYNET
2005-10-05, 10:38:08
http://www.digitimes.com/news/a20051005A7033.html


... d.h. mit hoher Wahrscheinlichkeit keine direkte Antwort Nvidias auf den R520. Bin gespannt wie es Nvidia mit der 90nm Technik ergeht ;-)



so wie es AMD ergangen ist: gut =)

seahawk
2005-10-05, 10:47:36
http://www.digitimes.com/news/a20051005A7033.html



Nichts neues.

Und so wie man hört hat NV wenige Probleme mit 90nm, so wie ATI damals auch weniger Probleme mit 130nm hatte, als NV mit dem NV30. Der Prozess ist jetzt einfach reifer.

reunion
2005-10-05, 10:49:06
- was-wäre-wenn, die Performance für "echtes" AF so stark zurück geht, dass ATI's neue weit hinter die Kontrahenten zurück fallen?



Der Qualitätsgewinn ist auf jeden Fall höher als der fps-Verlust.

Mayhem
2005-10-05, 10:50:57
... d.h. mit hoher Wahrscheinlichkeit keine direkte Antwort Nvidias auf den R520. Bin gespannt wie es Nvidia mit der 90nm Technik ergeht ;-)

Ich denke mal, es ergeht ihnen besser, da die grössten Produktionsprobleme des 90nm bei TSMC ja schon beim Konkurrent ATI gelöst wurden. Von der Chip-Komplexität befindet man sich ohnehin schon in ähnlichen Regionen und kann theoretisch alle Vorzüge eines Die-Shrinks geniessen.
Desweiteren ist es ja auch nicht schlimm, wenn man auf ein Retail-Paper-Launch-Produkt erst dann kontert, wenn es am Markt verfügbar ist. In meinen Augen wird der R520 zum grössten Teil am (Nach-)Weihnachtsgeschäft vorbei gehen.

reunion
2005-10-05, 10:51:52
Stark winkelabhängiges AF gibt es, weil ATI Transistoren sparen wollte, und Nvidia das Muster wegen der Füllraten-Ersparnis, die sich direkt in schlechterer Qualität äußert, kopierte.

Ältere Spiele, die fast nur 90°-Winkel haben, profitieren nicht vom ATI-Style à la R300. Dein "psychovisuelles Konzept" brächte nur dann irgendeinen Geschwindigkeitsvorteil, wenn großflächig Qualität geopfert würde. Das sieht man dann aber auch. Es gibt keinen Grund, diesen Style aus Qualitätssicht als sinnvoll zu deklarieren. Je geringer die Winkelabhängigkeit, desto besser die Zusatzqualität pro zusätzlich verbrauchter Füllrate. Zu R300-Zeiten war das R300-AF in Bezug auf den Transistorcount ein noch einigermaßen verschmerzbarer Kompromiss, weil eben oft die rechtwinklig ausgerichtete Geometrie vorherrschte. Für solche Spiele wurde der R520 aber nicht gebaut – das Standard-AF dient genau wie das NV40/G70-AF nur dazu, einen fragwürdigen Sparmodus noch "16x" nennen zu dürfen.

Wären nicht so viele Leute an solches Spar-AF gewöhnt geworden, würden sie wahrscheinlich die Vorteile von einem vernünftigen AF auch eher sehen.

ATIs Schritt, eine bessere Alternative im R520 anzubieten, leider nur optional, ist dennoch richtig, auch wenn NV20-Qualität noch nicht erreicht wurde.


Es liegt ja wohl auf der Hand, warum ATi weiterhin auch das winkelabhängige AF anbietet. Nämlich um eine vergleichbarkeit mit den Konkurrenzkarten zu gewährleisten; man weiß schließlich, wie es nV damals ergangen ist.

blackbox
2005-10-05, 11:01:43
Ich gebe zu, ich habe die ganzen Monsterthreads zum Thema nicht gelesen, aber:
Gibt es schon Aussagen über die Verfügbarkeit der neuen Karten?

up¦²
2005-10-05, 11:11:08
What's Next? 10/05/05 :tongue:
http://www.ati.com/

Blaze
2005-10-05, 11:29:14
What's Next? 10/05/05 :tongue:
http://www.ati.com/

Das ist das Datum an dem der R520 im Handel zu erwerben ist: 05.05.2010 :D

chemistry
2005-10-05, 11:31:50
Das ist das Datum an dem der R520 im Handel zu erwerben ist: 05.05.2010 :D
Cool...dann werd ich gleich mal vorbestellen - man weiss ja nie. Je früher desto besser :|

chemi

up¦²
2005-10-05, 11:39:15
Anatomy of a Product Launch: Is This A Paper Launch? (http://www.anandtech.com/video/showdoc.aspx?i=2550) :rolleyes:

So ne Funkstille gab's noch nie...

Daenzer
2005-10-05, 11:40:01
Die ersten Grakas werden dann wie die Tickets zur WM 2006 verlost...

Spasstiger
2005-10-05, 11:41:10
Ich gebe zu, ich habe die ganzen Monsterthreads zum Thema nicht gelesen, aber:
Gibt es schon Aussagen über die Verfügbarkeit der neuen Karten?

Aus dem Thread zum R520-Artikel (Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252237) ):
Die IHVs bekommen womöglich noch diese Woche erste Karten fertig ... ich bin derzeit schon am organisieren. Aber für den Launch reichte es nicht.
Wobei er hier statt IHV glaube ich Hersteller meinte (im Speziellen Sapphire).

Die gelbe Eule
2005-10-05, 11:41:41
Gibt noch nirgends auch nur ne tba Karte aufgeführt.

Some report that they expect shipments within a few days, and others don't really expect shipments for at least a week; and all report that their initial SKUs will be "built by ATI" branded cards.

Das ist aber interessant. Hi@1 Jahr Garantie ...

SKYNET
2005-10-05, 12:08:22
Anatomy of a Product Launch: Is This A Paper Launch? (http://www.anandtech.com/video/showdoc.aspx?i=2550) :rolleyes:

So ne Funkstille gab's noch nie...




oha, wenn anandtech schon sowas schreibt... :rolleyes: :biggrin:

up¦²
2005-10-05, 12:14:08
Hauptsache ich kann mir die x1600 "demnächst" kaufen, sonst wart ich auf s3!

seahawk
2005-10-05, 12:16:25
Also gerade da, mußt Du froh sein, wenn es vor Weihnachten klappt. Shipping im November.

Nero2
2005-10-05, 12:21:33
Ich verstehe die ATI Homepage nicht. Der Countdown ist abglaufen: Whats next? Kann man nicht anklicken? Und jetzt?

Ronny145
2005-10-05, 12:22:10
Ich verstehe die ATI Homepage nicht. Der Countdown ist abglaufen: Whats next? Kann man nicht anklicken? Und jetzt?

Der Countdown lief nach der Systemzeit. Daher kommt das.

Gandharva
2005-10-05, 12:23:08
Gibt noch nirgends auch nur ne tba Karte aufgeführt.

Some report that they expect shipments within a few days, and others don't really expect shipments for at least a week; and all report that their initial SKUs will be "built by ATI" branded cards.

Das ist aber interessant. Hi@1 Jahr Garantie ...


sehr dubios das ganze. erst senkt ati die produktgarantie auf bba-karten und dann die meldung das zum launch keiner karten hat und fast nur bba-karten unterwegs sind. hat ati kein vertrauen in das eigene produkt? sind die teile zu hochgezüchtet?

mich macht das doch etwas stutzig. aber wer weiß schon ob alles stimmt was so geschrieben wird...

BodyLove
2005-10-05, 12:24:27
Wieviele Leute übertakten die Grafikkarten? Ich habe bis jetzt keine unübertaktete Grafikkarte gesehen, die kaputt ging.

Nero2
2005-10-05, 12:26:41
Der Countdown lief nach der Systemzeit. Daher kommt das.

Also heute abend ist der echte Ablauf.

Tomi
2005-10-05, 12:27:38
sehr dubios das ganze. erst senkt ati die produktgarantie auf bba-karten und dann die meldung das zum launch keiner karten hat und fast nur bba-karten unterwegs sind. hat ati kein vertrauen in das eigene produkt? sind die teile zu hochgezüchtet?

mich macht das doch etwas stutzig. aber wer weiß schon ob alles stimmt was so geschrieben wird...
BBA Karten wird es in Europa doch eh nicht offiziell geben. Vielleicht paar Stück am Anfang, die allerersten. Für die Herstellerkarten gelten andere Garantiebedingungen, insofern werden Käufer die in Europa kaufen, von der Garantieverkürzung erstmal nicht tangiert. Was nicht ausschließt, dass die Hersteller, sofern die Karten doch am Limit laufen, auch mit der Garantie runtergehen. Marketingtechnisch wäre das aber eine Katastrophe.

Die gelbe Eule
2005-10-05, 12:28:25
Warum haut man dann offiziell ne VCore Erhöhung ins CCC rein? Nichtmal NV liefert mehr Coolbits mit ...

up¦²
2005-10-05, 12:28:30
Aber ganz schön doof von Ati ..., klar nimmt das macromedia plugin datum und zeit vom besucher-pc :D

Siehe dt. ati-seite, ist im festen dornröschenschlaf:
http://www.ati.com/de/
Danke ati!

misterh
2005-10-05, 12:28:41
Der Countdown lief nach der Systemzeit. Daher kommt das.
jo und ich bin mir sicher, dass es ab 15uhr was wird. :wink:

Die gelbe Eule
2005-10-05, 12:29:55
BBA Karten wird es in Europa doch eh nicht offiziell geben. Vielleicht paar Stück am Anfang, die allerersten. Für die Herstellerkarten gelten andere Garantiebedingungen, insofern werden Käufer die in Europa kaufen, von der Garantieverkürzung erstmal nicht tangiert. Was nicht ausschließt, dass die Hersteller, sofern die Karten doch am Limit laufen, auch mit der Garantie runtergehen. Marketingtechnisch wäre das aber eine Katastrophe.

Würde keinen wundern wenn die sich dann am Hersteller orientieren, warum mehr bieten als das inhouse Produkt?

Spasstiger
2005-10-05, 12:33:27
Ich verstehe die ATI Homepage nicht. Der Countdown ist abglaufen: Whats next? Kann man nicht anklicken? Und jetzt?

Stell mal deine Systemuhr auf kanadische Zeit (Torronto) ;).

Gandharva
2005-10-05, 12:33:38
BBA Karten wird es in Europa doch eh nicht offiziell geben. Vielleicht paar Stück am Anfang, die allerersten. Für die Herstellerkarten gelten andere Garantiebedingungen, insofern werden Käufer die in Europa kaufen, von der Garantieverkürzung erstmal nicht tangiert. Was nicht ausschließt, dass die Hersteller, sofern die Karten doch am Limit laufen, auch mit der Garantie runtergehen. Marketingtechnisch wäre das aber eine Katastrophe.

das ist mir alles völlig klar. nur könnte der informierte käufer bei solchen meldungen doch ins grübeln kommen. ich zumindest denke mir meinen teil.

Gerhard
2005-10-05, 12:36:25
@gelbe Eule, du hast es immer noch nicht verstanden?
Es gibt kein Inhouse Produkt, somit kann man sich auch nicht an dem orientieren. ATI verkauft keine Karten selbst.
Zum Vergleich:
NVidia gibt 0 Tage/Jahre Garantie. Also sind diese Karten wohl die volle Katastrophe ;D

Die gelbe Eule
2005-10-05, 12:37:47
Bin gespannt auf das Review von Sander Sassen, der hat eh den Kaffee auf ;)

@gelbe Eule, du hast es immer noch nicht verstanden?
Es gibt kein Inhouse Produkt, somit kann man sich auch nicht an dem orientieren. ATI verkauft keine Karten selbst.

Für mich ist inhouse = build by ATI. Darauf ziele ich ab mit der einjährigen Garantie.

Spasstiger
2005-10-05, 12:38:07
ATI verkauft keine Karten selbst.
Doch, tun sie:
http://shop.ati.com/

chemistry
2005-10-05, 12:39:43
Leute, ich kann euch gar nicht sagen wie gespannt ich bin! Ich hämmere schon im Minutenabstand auf meine F5 Taste :eek: :eek:

Naja, ganz so schlimm noch nicht, aber ich bin schon wirklich SEHR gespannt auf die ersten aussagekräftigen Reviews und Tests, auf die Verfügbarkeit usw.....

Man darf gespannt sein ;D
chemi

Die gelbe Eule
2005-10-05, 12:42:31
Was viel interessanter ist, welche Karten gibt es überhaupt für ein Review?

chemistry
2005-10-05, 12:45:38
hmm...das wird sich zeigen...sicherlich mal für das momentane TopModell, da sich ja ATI die Krone zurückerobern will. Man wird sehen, ob sie das wirklich schaffen.

Was von den "kleinen" Neuen in die Testcenter kommt, ist nicht wirklich bekannt - aber nachdem ja angeblich alle verfügbar sein sollen, sollten wir guter Hoffnung sein, dass auch diese getestet werden dürfen.

chemi

Gerhard
2005-10-05, 12:48:19
Manche können alles verdrehen wenn sie wollen :|

Doch, tun sie:
http://shop.ati.com/

Ich sprach von Europa/Deutschland. Hier verkaufen sie keine.
Weiters haben die Karten im Shop eine 3 Jahresgarantie, steht auch in der Artikelbeschreibung.