PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : bringt ATI noch ne schnellere für den g71?


-=CHICKEN=-
2006-01-25, 11:21:21
bin grad am grübeln:

die 1900er ist nun raus und positioniert sich "etwas" vor der 512er. mit neuen treibern wird man vielleicht noch mehr rausholen können aber wenn der g71 kommt, dann wird dieser wohl wieder "gnadenlos" vorbei ziehen.

da der r600 frühestens im herbst kommen wird, frage ich mich, ob ATI nvidia wirklich ein halbes jahr die "krone" überlässt, oder ob sie noch was im peto haben?

die xtx, ist ja nicht wirklich viel höher getaktet (auch der speicher hat ja noch "reserven") und nun frag ich mich, ob sie nicht höher können (temperatur, strom) oder nicht höher wollen (damit sie noch ne schnellere für den g71 nachschieben können).

was mein ihr, wie ATI vorgeht?

bringen sie noch ne schnellere und falls ja, wie schnell würde man sie takten?
750/850? (oder gar schon ddr4?)

Blaze
2006-01-25, 11:50:45
Der R580 läuft schon sehr nah am Limit, ATI kann zur Zeit nix besseres mehr bringen.

-=CHICKEN=-
2006-01-25, 12:08:50
das befürchte ich leider auch (hoffe es aber nicht). denn dann wird der sommer wohl wieder eine "durststrecke" für ATI (genau so wie letztes jahr)
wenn das noch 1-2 jahre so weiter geht sehe ich rot für ATI X-D :wink:

SKYNET
2006-01-25, 12:23:15
bin grad am grübeln:

die 1900er ist nun raus und positioniert sich "etwas" vor der 512er. mit neuen treibern wird man vielleicht noch mehr rausholen können aber wenn der g71 kommt, dann wird dieser wohl wieder "gnadenlos" vorbei ziehen.

da der r600 frühestens im herbst kommen wird, frage ich mich, ob ATI nvidia wirklich ein halbes jahr die "krone" überlässt, oder ob sie noch was im peto haben?

die xtx, ist ja nicht wirklich viel höher getaktet (auch der speicher hat ja noch "reserven") und nun frag ich mich, ob sie nicht höher können (temperatur, strom) oder nicht höher wollen (damit sie noch ne schnellere für den g71 nachschieben können).

was mein ihr, wie ATI vorgeht?

bringen sie noch ne schnellere und falls ja, wie schnell würde man sie takten?
750/850? (oder gar schon ddr4?)


was würde ATI nen 750/850(1700 DDR) chip bringen?

der G71 hat 750/1000(2000 DDR), hat also schonmal die höhere raw-power, dann hat der G71 insgesammt 64 shader einheiten, der R580 nur 48....

[dzp]Viper
2006-01-25, 12:25:19
der G71 hat 750/1000(2000 DDR), hat also schonmal die höhere raw-power, dann hat der G71 insgesammt 64 shader einheiten, der R580 nur 48....

Füge dem Satz bitte noch das wort "Wahrscheinlich" hinzu und schon sieht jeder, dass es deine Erwartung ist (die sehr wahrscheinlich enttäuscht werden wird...) und keine allgemeingültige Aussage

Ailuros
2006-01-25, 12:36:55
der G71 hat 750/1000(2000 DDR), hat also schonmal die höhere raw-power, dann hat der G71 insgesammt 64 shader einheiten, der R580 nur 48....

R5x0 ALU:

4D MADD (8 FLOPs)
4D ADD (4 FLOPs)

G7x ALU:

4D MADD (8 FLOPs)
4D MADD (8 FLOPs)

48 * 12 FLOPs * 0.65GHz = 374 GFLOPs (minus die Faelle wo die ADDs nicht benuetzt werden koennen)

32 * 16 FLOPs * 0.75 GHz = 384 GFLOPs (minus texture OPs)


Jetzt mal davon abgesehen dass 750MHz mir mehr als nur optimistisch klingt; natuerlich die Ganze "Schoenheit" minus der Bandbreiten-Limitierung.

Was 750MHz einer R580 bringen wuerde? 432 GFLOPs vielleicht?

-=CHICKEN=-
2006-01-25, 12:45:02
der G71 hat 750/1000(2000 DDR)

deswegen schreib ich ja schon "ddr4?"
wenn der G71 mit ddr2000 aufwarten kann, dann wird es für ATI wohl auch kein "hexenwerk" sein, solch einen speicher zu "verpflanzen".

und wenn die "x1900 ultra" oder "x1950" auch mit 750/1000 takten würde, dann glaub ich gar nicht mal, daß der G71 so stark davon zieht. kann gut sein, daß er trotzdem vorn liegt, aber der unterschied wird dann wohl nicht gravierend ausfallen.

die x1900 ist ja in hohen auflösungen und guter qualität "zu hause". daher könnte ich mir gut vorstellen, das sie mit einem schnelleren speicher mehr als der G71 davon profitieren würde (oder doch anders rum?)

???: welche karte würde mehr davon profitieren, wenn man den speicher bei der 512er und 1900er auf 2000 anheben würde?

stav0815
2006-01-25, 12:57:01
???: welche karte würde mehr davon profitieren, wenn man den speicher bei der 512er und 1900er auf 2000 anheben würde?
die x1900er... vorallem im Preis.
das gibt dann ein Exemplar >700US $

Gast
2006-01-25, 12:59:28
Meiner Meinung nach ist die X1900 nur eine verbesserte X1800, aber kein komplettes Redesign.

Sogesehen sollte man sie auch nicht mit einer neuen Generation bzw. einer deutlich aufgebohrten nVidia Karte vergleichen.

Denn der Konter, der nach erscheinen der nVidia Karte irgendwann kommen wird, wird wahrscheinlich wesentlich mehr bieten, als nur erhöhte Taktraten.

Zudem dauert es noch Wochen bis die Karte überhaupt erscheint - aber Wochen sind im Hardwarebusiness Welten!

Sogesehen sollte die neue nVidia Karte nicht mit heutigen Karten verglichen werden, sondern höchstens mit ATIs Karten, die irgendwann danach erscheinen werden.
Man kann schließlich nur dann reagieren, wenn man weiß, was die Konkurrenz zu bieten hat.

Die X1900 war als Konkurrent zur GTX512 gedacht und nicht zu einer Karte, erst in naher Zukunft erscheinen soll.

-=CHICKEN=-
2006-01-25, 13:04:49
das ist ja, das was mir sorgen macht. der r600 kommt ja frühestens im herbst. also hätte ATI ein halbes jahr lang nichts dem G71 entgegen zu zetzen. das würde ja zu der oben erwähnten "durststrecke" (durch den sommer) führen.

aber irgendwie kann ich mir nicht vorstellen, das ATI sich ein halbes jahr "kampflos" geschlagen gibt.

IMHO müssen sie einfach noch nen konter für den G71 bringen!!

Ailuros
2006-01-25, 13:13:13
Die X1900 war als Konkurrent zur GTX512 gedacht und nicht zu einer Karte, erst in naher Zukunft erscheinen soll.

Und woher bitte kommt dieses Erkenntnis genau?

Damit wir mal die ganze Sache auf die wahre Basis setzen:

Originaler Plan:

Spring 05' = G70/R520
Fall 05' = G7x@90nm/R580

Fuer NV wurde Fruehling = Mitte Sommer und fuer ATI wurde es eben Anfang Winter. Die GTX 512 war eher ein Lueckenfueller als alles andere.

Michael Hara bestaetigte den obrigen Zeitplan Ende 2004 bei B3D, genauso wie Eric Demers im neuesten B3D Interview bestaetigt dass R520 original fuer Fruehling 2005 geplant war.

RLZ
2006-01-25, 13:16:14
wenn das noch 1-2 jahre so weiter geht sehe ich rot für ATI X-D :wink:
Mit den D3D10 Chips werden die Karten eh neu gemischt.
Also mal abwarten.
Die aktuelle Generation finde ich recht uninteressant.
Viele warten auf die neue Generation, die noch vor dem nächsten Weihnachtsgeschäft kommt.

Gast
2006-01-25, 13:24:26
Und woher bitte kommt dieses Erkenntnis genau?

Logik.

Originaler Plan:

Den Plan kannst du gleich in die Tonne kloppen, weil er null aussagekraft hat.
Beide Hersteller kämpfen mit Verspätungen.
Weder ATI noch NVIDIA hätten ihren Plan durchgezogen, wenn sie zu dem Zeitpunkt sowieso schon ein dominierendes Produkt auf den Markt gehabt hätten.
Wer vorne liegt, legt selten noch eins drauf, so lange es nicht nötig ist. Schließlich verdient man mit einem fertigen und dominierenden Produkt einfacher Geld, ohne dabei die eigene Produktreihe zu gefährden.

Hätte es keine 512 GTX gegeben, wäre die X1900 womöglich noch wesentlich später erschienen oder vielleicht auch gar nicht.

Schau dir nur mal Intel und AMD an... als Intel noch den Prozessormarkt dominierte, gab es vielleicht alle paar Monate mal einen neuen Prozessor zu horrenden Preisen. Erst seit die beiden in Konkurrenz stehen, wurden die Taktraten in kurzer Zeit erheblich gesteigert und auch die Preise gingen in den Keller.

Gast
2006-01-25, 13:26:41
Wenn ATI den X1900 als Konkurrenz zur nVidia Karte im März oder später gedacht hätte, hätte man der wahrscheinlich deutlich mehr Pixelpipelines etc. spendiert und nicht nur minimale Verbesserungen bei fast gleicher Taktrate.

Ailuros
2006-01-25, 13:41:50
Logik.

Aber keinen blassen Schimmer an Wissen was wirklich intern bei jedem IHV vorgeht.

Den Plan kannst du gleich in die Tonne kloppen, weil er null aussagekraft hat.
Beide Hersteller kämpfen mit Verspätungen.


Eben und gerade NV ist nicht immun wenn es zu Zwischenschiebern kommt.

Der Dokumentation zu Liebe:

http://www.beyond3d.com/forum/showthread.php?t=17878

http://www.beyond3d.com/reviews/ati/r580/int/index.php?p=03

Weder ATI noch NVIDIA hätten ihren Plan durchgezogen, wenn sie zu dem Zeitpunkt sowieso schon ein dominierendes Produkt auf den Markt gehabt hätten.
Wer vorne liegt, legt selten noch eins drauf, so lange es nicht nötig ist. Schließlich verdient man mit einem fertigen und dominierenden Produkt einfacher Geld, ohne dabei die eigene Produktreihe zu gefährden.

Wobei der Gewinn der ueberseltenen GTX 512 phaenomenal ist?

Hätte es keine 512 GTX gegeben, wäre die X1900 womöglich noch wesentlich später erschienen oder vielleicht auch gar nicht.

Bullshit. R580 wurde parallel zu R520 entwickelt im relativen Sinn genauso wie G70/G71, ueberhaupt da im letzteren Fall es auch noch RSX gibt.

Schau dir nur mal Intel und AMD an... als Intel noch den Prozessormarkt dominierte, gab es vielleicht alle paar Monate mal einen neuen Prozessor zu horrenden Preisen. Erst seit die beiden in Konkurrenz stehen, wurden die Taktraten in kurzer Zeit erheblich gesteigert und auch die Preise gingen in den Keller.

Der CPU Markt ist ein fundamental verschiedener Markt.

Gast
2006-01-25, 13:54:36
Wobei der Gewinn der ueberseltenen GTX 512 phaenomenal ist?

Du darfst das nicht so sehen.
Die GTX512 ist am Markt und dominierte ihn - nur leider in viel zu geringer Stückzahl.

Es geht bei den High-End Produkten selten ums Geld (die teuren Karten werden sowieso nicht in großen Stückzahlen verkauft), sondern vielmehr um das entsprechende Medienecho. Das ist reines Marketing, viel mehr auch nicht.
Zudem war es für nVidia bis dato gar nicht nötig, eine neue Karte zu bringen, denn man hätte stattdessen auch die Lieferbarkeit verbessern können.

Hier kam jetzt ATI ins Spiel: Mit der X1900 ergibt sich eine andere Situation. Der Konkurrent ist wieder vorne, also versucht man so schnell wie möglich ihn wieder zu überholen. Mehr ist das nicht. Die Schritte der Hersteller sind vorhersehbar. Die Unternehmen arbeiten für Geld und nicht für den Fortschritt.
Den Fortschritt ist nur beiläufiges Beiwerk, der beim Konkurrenzkampf entsteht.

Bullshit. R580 wurde parallel zu R520 entwickelt im relativen Sinn genauso wie G70/G71, ueberhaupt da im letzteren Fall es auch noch RSX gibt.

Die Aussage ist genauso Bullshit, weil ein Hersteller ein Produkt canceln würde, wenn er sieht, das die Konkurrenz schon vorher was "unschlagbares" auf dem Markt hat bzw. deutlich zurückliegt.
Deshalb sind die Pläne auch für die Tonne.

Der CPU Markt ist ein fundamental verschiedener Markt.

Das Prinzip ist überall das gleiche: Unternehmen arbeiten für Geld.

Black-Scorpion
2006-01-25, 14:13:05
Glaubst du das eigentlich selber was du erzählst?

Die X1900 ist vereinfacht gesagt ein 4-facher RV560 (X1600).
Auch war diese Karte im Zeitplan.
Der R520 war 6 Monate zu spät.

'edit' Nachtrag
Die GTX 512 wurde als reines Prestigeobjekt mit extra selektierten GPUs nachgeschoben.

Gast
2006-01-25, 14:19:07
Glaubst du das eigentlich selber was du erzählst?

Gleiche Frage an dich. Woher willst du wissen, das die Karte im Zeitplan war? Arbeitest du bei ATI in der Führungsetage?
Das ist pure Spekulation deinerseits, mehr auch nicht.

Ihr könnt glauben was ihr wollt, das interessiert die Unternehmen und mich sowieso nicht. Die kochen ihr eigenes Süppchen. ;-)

Monger
2006-01-25, 14:45:48
Gleiche Frage an dich. Woher willst du wissen, das die Karte im Zeitplan war? Arbeitest du bei ATI in der Führungsetage?
Das ist pure Spekulation deinerseits, mehr auch nicht.


Der Frühjahr Termin für den r580 wurde hier schon im Forum vor über einem Jahr diskutiert. Auch die Roadmap war ja schon länger bekannt, und da war der r580 schon immer zu diesem Termin angesetzt.

Insofern ist das alles andere als Spekulation, sondern Fakt. Wenn dir das nicht klar ist, hast du im vergangenen Jahr nicht aufgepasst.


@topic: ich sehe das nicht so kritisch. Selbst wenn jetzt kein Refresh kommt: für die nächsten drei Monate hat ATI völlig unzweifelhaft die beste und preiswerteste Highend Karte. Selbst wenn der G71 deutlich schneller sein sollte (was wie gesagt sich erstmal zeigen muss), kann er maximal ebenfalls drei Monate die Spitzenposition verteidigen, bis ATI mit ihrer Vista-kompatiblen Grafikkarte kommt.

Solange sie mit ihrer nächsten Karte auch pünktlich fertig werden, ist alles in Butter. Dann senkt man halt in drei Monaten nochmals die Preise für X1900XT deutlich, um mit gutem Preis/Leistungsverhältnis und hoher Verfügbarkeit nVidia ihren Launch madig zu machen.

So ist es nunmal. Dass noch einmal so ein Chip wie der r300 kommt und nVidia für mindestens ein Jahr aus dem Rennen kegelt, ist halt extrem unwahrscheinlich.

Gast
2006-01-25, 14:57:04
Der Frühjahr Termin für den r580 wurde hier schon im Forum vor über einem Jahr diskutiert. Auch die Roadmap war ja schon länger bekannt, und da war der r580 schon immer zu diesem Termin angesetzt.

Ich wusste dass das Argument "Roadmap" kommt. Seht ihr, ihr seit durchschaubar, genauso wie die Unternehmen. ;-)

Zur Roadmap gibt es zu sagen: Sie sind veraltet! In einer Roadmap wird nie die aktuelle Marktsituation mit einfließen können, denn die ändert sich ständig. Ein Produkt der Konkurrenz braucht nur einen verspäteten Produktlaunch haben (oder auch einen früheren) und schon ist die Roadmap dahin...

Außerdem weiß man nie, ob eine Roadmap korrekt ist, es kann genauso gut sein, das ein Unternehmen "zufälligerweise" eine Roadmap in Umlauf gebracht hat, die völlig falsch ist, um den Konkurrenten ein falsches Bild von der zukünftigen Entwicklung zu vermitteln.
Eine Roadmap würde mich erst dann eine geringe Aussagekraft haben , wenn sie auf ati.com oder nvidia.com einsehbar ist. Vorher ist alles Spekulatius³

Monger
2006-01-25, 15:06:55
...Zur Roadmap gibt es zu sagen: Sie sind veraltet! In einer Roadmap wird nie die aktuelle Marktsituation mit einfließen können, denn die ändert sich ständig...


Das selbe gilt für die Entwicklung. Man schmeißt eine Entwicklung von mehr als einem Jahr nicht einfach mal um. Keiner der Hersteller kann so kurzfristig reagieren. Natürlich kann man an den endgültigen Taktraten ein wenig rumschrauben, aber die grundsätzliche Marschrichtung muss schon SEHR lange vor Release feststehen.

Bis jetzt wurde noch jeder Chip fertig entwickelt und auf den Markt geschmissen, egal wie schlecht oder gut er war. Die einzige mir bekannte Ausnahme ist der r400, wofür ATI ja aber auch kräftig bluten musste.

Wir haben das ja auch mehrfach erlebt: jeder Hersteller hat mal Grafikkarten auf den Markt geworfen, von denen er genau wusste dass sie der Konkurrenz deutlich unterlegen sind. So geschehen mit der 5800...
Trotzdem werden sie gekauft.

Seine Politik nur am Konkurrenten zu orientieren, ist das dämlichste was man tun kann. Das macht eine Firma mit Sicherheit kaputt. Insofern halte ich die Theorie, dass ATI ihr Chipdesign immer auf das nächste Produkt der Konkurrenz ausrichtet, schlicht und ergreifend für falsch.

tombman
2006-01-25, 15:15:30
32 * 16 FLOPs * 0.75 GHz = 384 GFLOPs (minus texture OPs)


Wieso steht da 32 und nicht 64? Haben die nur 1 ALU pro pipe?

Und wenn dem so ist, wieso ist die 7800 512 im shadermark dann nur 10% langsamer als die R580? Müßte die dann nicht gandenlos untergehen?

Gast
2006-01-25, 15:19:42
Seine Politik nur am Konkurrenten zu orientieren, ist das dämlichste was man tun kann. Das macht eine Firma mit Sicherheit kaputt. Insofern halte ich die Theorie, dass ATI ihr Chipdesign immer auf das nächste Produkt der Konkurrenz ausrichtet, schlicht und ergreifend für falsch.

Das hat auch niemand behauptet - zumindest ich nicht.
Jedenfalls wird sich bei der absoluten High-End-Karte an der Konkurrenz orientiert, was eigentlich jedem aufgefallen sein sollte. Die GTX512 ist eigentlich überflüssig, trotzdem ist sie da. Warum? Na um die Konkurrenz noch weiter abzuhängen.
Die X1900 XTX ist da, obwohl sie kaum schneller ist, als die XT. Warum? Na um die Konkurrenz noch weiter abzuhängen. Wofür gab es überhaupt die X1800 XT "PE", obwohl klar ersichtlich war, das Wochen danach bereits die X1900XT kommt? Na um auf die Konkurrenz weiter aufzuholen. Gäbe es die Karten, wenn die Konkurrenz keine Konkurrenzprodukte rausgebracht hätte? Das ist die Frage, die man sich stellen sollte...

3dfx hat damals auch keine schlechten Karten gebaut, nur der Markt wollte etwas anderes haben. Nicht auf die Konkurrenz zu reagieren, bedeutet noch einen schnelleren als von dir angesprochenen Untergang.

ShadowXX
2006-01-25, 15:38:55
Wieso steht da 32 und nicht 64? Haben die nur 1 ALU pro pipe?

Und wenn dem so ist, wieso ist die 7800 512 im shadermark dann nur 10% langsamer als die R580? Müßte die dann nicht gandenlos untergehen?

AiL hatte die FLOPS der beiden ALUs pro Pipe schon zusammengerechnet, deshalb "32*16Flops".

reunion
2006-01-25, 16:14:46
Wieso steht da 32 und nicht 64? Haben die nur 1 ALU pro pipe?


Jede ALU schafft bei nV eine MADD, bei ATi erreicht eine ALU eine MADD plus ein ADD. Dazu hat ATi noch deutliche Vorteile bei texture OPs.

Wie schon gesagt, ALU != ALU, aber das scheinst du ja bewusst zu ignorieren - hauptsache nV hat mehr ALUs.

Und wenn dem so ist, wieso ist die 7800 512 im shadermark dann nur 10% langsamer als die R580? Müßte die dann nicht gandenlos untergehen?


Offensichtlich verwendet Shadermark relativ kurze und einfache Shader, da kann R580 seine Strken nicht ausspielen.

Mancko
2006-01-25, 23:15:31
@topic: ich sehe das nicht so kritisch. Selbst wenn jetzt kein Refresh kommt: für die nächsten drei Monate hat ATI völlig unzweifelhaft die beste und preiswerteste Highend Karte.

Wo zur Hölle habe ihr alle immer die 3 Monate her? Wenn alles verläuft wie angedacht, dann hat ATI allenfalls 1 Monat und 2 Wochen, da der Januar bereits gelaufen ist und Anfang März ist nunmal nicht Anfang Mai - und Mai würde 3 Monate heissen.

Wenn der G71 vorne liegen sollte, ist es wieder genauso wie schon mit GTX256 und GTX 512. Dann wird Nvidia bis zum nächsten ATI Launch vorne liegen. Bei der X1900XT geht aufgrund der thermischen Daten und der Stormaufnahme nicht mehr viel.
Dazu muss aber wie gesagt der G71 auch erstmal vorne liegen.
Tut er das, dann hat Nvidia bis zu R600/G80 Ruhe und den Single Karten HIgh End Markt in der Tasche.
Die Ausgangsposition war für sie mit dem G70 Launch von Anfang an besser, da ATI hinterhergehechelt ist und nur reagieren konnte aber nicht agieren.

Nerothos
2006-01-26, 08:04:16
Manche vergessen immer wieder, dass nVidia auch nur mit Wasser kocht.
Was macht euch so sicher, dass nVidia's Chip mit den angepeilten 380 Mio Transen nicht auch soviel Strom verbraucht, wie der R580? Denkt mal drüber nach. nVidia ist auch nicht unfehlbar.

Tarkin
2006-01-26, 08:40:31
http://finance.messages.yahoo.com/bbs?.mm=FN&action=m&board=15969433&tid=atyt&sid=15969433&mid=165571

ATI Technologies Inc.

(ATYT-Q, ATY-T) US$16.23

High-End RADEON X1900 Desktop Chips Shipping at Launch

Event
On Jan.24, ATI will begin shipping its RADEON X1900 ultra high-end desktop discrete chip series (code-named R580), consisting of the X1900 XTX ($650), the X1900 XT ($550), the X1900 CrossFire Edition ($600, for multi-graphics board PCs), and the All-In-Wonder X1900 ($500, for multimedia PCs).

Impact

Positive. In contrast to ATI’s previous “paper launch” of its high-end RADEON X1800 XT in Oct/05 (which was six-months late and hit retail shelves in Nov/05 with limited supply), the RADEON X1900 series will immediately ship in volume on a worldwide basis (ATI has already shipped “tens of thousands of units”, or roughly three-quarters of its normal run-rate volume, and expects PC OEMs to ship in the next few weeks). ATI has recaptured the performance crown from NVIDIA’s GeForce 7800 GTX 512 MB, according to ATI’s internal benchmark testing, with the RADEON X1900 XTX having a relative performance range of roughly -6% (Quake4) to +64% (FEAR) across eight game titles. ... availability of NVIDIA’s GeForce 7800 GTX 512 MB has been very sparse since its launch in Nov/05, leaving the ultra highend segment open for ATI’s new offering (this market segment represents only 3% of the total desktop discrete chip volume, but an estimated 18% of the revenue). We do not expect NVIDIA to respond until mid-March, when we believe it will launch its ultra high-end G71 desktop chip at CeBIT in Hannover, Germany (ATI predicts it will still retain a performance lead against the G71)....

seahawk
2006-01-26, 08:59:01
Also Papaerlaunch zur Cebit, Verfügbarkeit des G71 ala GTX 512MB nicht absehbar.

ShadowXX
2006-01-26, 09:06:13
Jede ALU schafft bei nV eine MADD, bei ATi erreicht eine ALU eine MADD plus ein ADD. Dazu hat ATi noch deutliche Vorteile bei texture OPs.

Wie schon gesagt, ALU != ALU, aber das scheinst du ja bewusst zu ignorieren - hauptsache nV hat mehr ALUs.


Natürlich ist ALU nicht gleich ALU, aber auch die ATI ALU kann nicht immer das zusätzliche ADD benutzen.

Ebeso haben auch nVs-ALUs ein paar nette "nebenbeisachen", die ATI nicht bietet (z.B. normalisierungen for free)

Monger
2006-01-26, 09:22:59
Also Papaerlaunch zur Cebit, Verfügbarkeit des G71 ala GTX 512MB nicht absehbar.

Ich vermute auch einen Paperlaunch. Die Cebit ist einfach eine zu gute Gelegenheit, um Publicity für sein Produkt zu kriegen. Deshalb steht dieser Termin auch fest.
Wenn in der Realität der G71 bis zu diesem Zeitpunkt schon lieferbar wäre, wäre das schon ein großer Zufall.

Mancko
2006-01-26, 09:39:45
Also Papaerlaunch zur Cebit, Verfügbarkeit des G71 ala GTX 512MB nicht absehbar.

Wo stehtn da was von Paperlaunch für den G71?
Für die GTX512MB war nie eine große Absatzzahl vorgesehen. Das waren selektierte Chips seit dem G70 Launch im Juni, die dann verscheuert wurden um ATI das Geschäft madig zu machen, was ja letztlich auch voll gelungen ist. Die X1800XT hat so halt ihr Fett wegbekommen, worunter natürlich auch der Rest der Produktreihe gelitten hat.

Das ATI davon ausgeht vorne zu bleiben, ist ja nichts neues. Was sollen die auch anderes sagen. Genau das selbe haben sie ja beim R520 auch gesagt nur daraus geworden ist leider nichts.

Mancko
2006-01-26, 09:41:22
Ich vermute auch einen Paperlaunch. Die Cebit ist einfach eine zu gute Gelegenheit, um Publicity für sein Produkt zu kriegen. Deshalb steht dieser Termin auch fest.
Wenn in der Realität der G71 bis zu diesem Zeitpunkt schon lieferbar wäre, wäre das schon ein großer Zufall.

Warum sollte das so sein. Der G70 war auch im Juni lieferbar und zwar von day one. Bis März wären dann 8 Monate Zeitfenster dazwischen. Das sollte wohl reichen.

Ailuros
2006-01-26, 10:09:20
Du darfst das nicht so sehen.
Die GTX512 ist am Markt und dominierte ihn - nur leider in viel zu geringer Stückzahl.

Wobei die Stueckzahl gering ist weil es eben nicht moeglich ist cores die ueber 550MHz faehig sind auf 110nm zu finden.

Es geht bei den High-End Produkten selten ums Geld (die teuren Karten werden sowieso nicht in großen Stückzahlen verkauft), sondern vielmehr um das entsprechende Medienecho. Das ist reines Marketing, viel mehr auch nicht.

Kein Einwand. Nur eben gibt es einen fundamentalen Unterschied zwischen quasi Geister-Produkten die nur Benchmarks gewinnen und breiter Verfuegbarkeit. Oder willst Du mir einreden dass NVIDIA je erwartet dass eine GTX 512 breit verfuegbar sein wird?

Zudem war es für nVidia bis dato gar nicht nötig, eine neue Karte zu bringen, denn man hätte stattdessen auch die Lieferbarkeit verbessern können.

Was aber NUR duch low-90nm moeglich gewesen waere, ist und DABEI sind sie schon momentan. Das Resultat heisst dann eben G71.

Hier kam jetzt ATI ins Spiel: Mit der X1900 ergibt sich eine andere Situation. Der Konkurrent ist wieder vorne, also versucht man so schnell wie möglich ihn wieder zu überholen. Mehr ist das nicht. Die Schritte der Hersteller sind vorhersehbar. Die Unternehmen arbeiten für Geld und nicht für den Fortschritt.

Sobald die ersten R520 Details durchsickerten waren auch schon die R580 zur gleichen Zeit bekannt. Es gab auf den meisten Foren endlose Debatten um die kryptische 16/1/1/1 und 16/1/3/1 Zahlen fuer die jeweiligen GPUs zu entziffern. Sobald R520's layout entziffert wurde, war es mehr als nur klar dass R580 mit 3x mal so vielen ALUs ankommen wird und das bestaetigt in meinem Buch die auch von ATI selber behauptete parallele Entwicklung.

Ausser Du glaubst natuerlich dass ATI einen Zauberstab hat und es schaffte innerhalb nur ein paar Monaten nochmal 24 ALUs dazuzuschrauben und die Chip-Komplexitaet mit einer einfachen Handumdrehung um ~60M Transistoren zu erhoehen.


Die Aussage ist genauso Bullshit, weil ein Hersteller ein Produkt canceln würde, wenn er sieht, das die Konkurrenz schon vorher was "unschlagbares" auf dem Markt hat bzw. deutlich zurückliegt.
Deshalb sind die Pläne auch für die Tonne.

Wie gesagt nach Deiner "Logik" zaubern IHVs innerhalb von Wochen woemoeglich GPUs zusammen.

Das Prinzip ist überall das gleiche: Unternehmen arbeiten für Geld.

In allen Maerkten, nur sind hier die Parallelen meistens etwas daneben, da die Konstanten sich fundamental aendern von Markt zu Markt.

-=CHICKEN=-
2006-01-26, 10:14:32
'edit' Nachtrag
Die GTX 512 wurde als reines Prestigeobjekt mit extra selektierten GPUs nachgeschoben.

Wo stehtn da was von Paperlaunch für den G71?
Für die GTX512MB war nie eine große Absatzzahl vorgesehen. Das waren selektierte Chips seit dem G70 Launch im Juni, die dann verscheuert wurden um ATI das Geschäft madig zu machen, was ja letztlich auch voll gelungen ist.

genau das erhoffe ich auch von ATI.

wenn nvidia extra chips selektiert um ne kaum verfügbare spitzenkarte zu bekommen, dann könnte das doch auch ATI machen, damit der abstand zum G71 nicht zu groß wird (falls er wirklich viel stärker wird)

könnte mir vorstellen, das ATI 750 mhz chips selektieren und mit ddr2000 laufen lassen, nur um nicht so schlecht dazustehen, auch wenn diese ultra-karten so gut wie nicht verfügbar sind.

was hätte ati noch für ne wahl um dagegen zu halten, falls die höheren taktraten nichts bringen bzw. nicht ausreichen?
1. 1024 mb speicher (wovon ja schon mal die rede war)?
2. quad-crossfire (was ja eigendlich kommen muß)?
3. ???

Ailuros
2006-01-26, 10:19:31
Wieso steht da 32 und nicht 64? Haben die nur 1 ALU pro pipe?

Ich haette auch 64 * 8 FLOPs benutzen koennen, wobei das Resultat gleich bleibt.

Zugegeben haette ich es ein bisschen uebersichtlicher illustrieren sollen; ergo sagen wir dann pro SIMD Kanal:

R580:

16 SIMD Kanaele * 36 FLOPs * 0.65 GHz

"G71":

32 SIMD Kanaele * 16 FLOPs * (??) GHz

Und wenn dem so ist, wieso ist die 7800 512 im shadermark dann nur 10% langsamer als die R580? Müßte die dann nicht gandenlos untergehen?

Ich weiss zwar nicht was genau Shadermark anrichtet, aber eine These waere dass das Ding sich stark auf MADDs konzentrieren koennte, wobei dann der Unterschied zwischen GTX 512 und R580 bei ~18% liegt oder ATI hat einfach noch nicht den Treiber fuer Shadermark etwas mehr optimiert.

seahawk
2006-01-26, 10:58:23
Wo stehtn da was von Paperlaunch für den G71?
Für die GTX512MB war nie eine große Absatzzahl vorgesehen. Das waren selektierte Chips seit dem G70 Launch im Juni, die dann verscheuert wurden um ATI das Geschäft madig zu machen, was ja letztlich auch voll gelungen ist. Die X1800XT hat so halt ihr Fett wegbekommen, worunter natürlich auch der Rest der Produktreihe gelitten hat.

Das ATI davon ausgeht vorne zu bleiben, ist ja nichts neues. Was sollen die auch anderes sagen. Genau das selbe haben sie ja beim R520 auch gesagt nur daraus geworden ist leider nichts.

Weil dei Cebit gut für eine Paperlaunch ist, für einen Hardwarelaunch hingegen eher beschränkt günstig. Außerdem muss NV erstmal zeigen, dass sie 90nm hinbekommen haben.

Monger
2006-01-26, 10:59:33
Warum sollte das so sein. Der G70 war auch im Juni lieferbar und zwar von day one. Bis März wären dann 8 Monate Zeitfenster dazwischen. Das sollte wohl reichen.

Den Starttermin für den G70 konnte sich nVidia selbst aussuchen. Sie haben ihn sich also so ausgesucht, dass der Chip fertig ist und schon genügend Karten auf dem Weg in den Handel waren. Durch die anhaltende Verspätung des r520 konnte sich ja nVidia auch alle Zeit der Welt lassen, und sich ein schönes Datum aussuchen.

Den Cebit Termin hat sich nVidia nicht selbst ausgesucht. Die Cebit läuft so oder so: ob mit oder ohne Grafikkartensensation. Ist nur die Frage, ob die Cebit vor oder nach nVidias eigenem, realen Termin liegt.

Ich will nicht ausschließen dass sie tatsächlich zu dem Zeitpunkt liefern können, ich glaube es nur nicht.

Coda
2006-01-26, 11:14:07
Weil dei Cebit gut für eine Paperlaunch ist, für einen Hardwarelaunch hingegen eher beschränkt günstig. Außerdem muss NV erstmal zeigen, dass sie 90nm hinbekommen haben.Omg - Blablabla. Das Gate-Level Design macht TSMC, nVIDIA muss ihren Design-Tools nur die entsprechenden Libs einbauen und neu Layouten.

Es gibt nicht "nVIDIAs 90nm" und "ATIs 90nm" sondern nur "TSMCs 90nm" - und das funktioniert.

Mancko
2006-01-26, 12:28:04
genau das erhoffe ich auch von ATI.

wenn nvidia extra chips selektiert um ne kaum verfügbare spitzenkarte zu bekommen, dann könnte das doch auch ATI machen, damit der abstand zum G71 nicht zu groß wird (falls er wirklich viel stärker wird)


Das könnten sie natürlich machen allerdings gibt es da schon einen Unterschied zwischen der Situation jetzt und der Situation im Juni.

Nvidia hatt mit der GF256MB GTX einen moderaten Chip ausgeliefert mit viel Spielraum und hatte 5 Monate Zeit zu sammeln.
Bei ATI kann man denke ich nicht davon sprechen, dass der R580 moderat ist. Man sieh sich nurmal die Leistungsaufnahme und Abwärme an.
Außerdem hat ATI wenn es gut für sie läuft vielleicht 2 bis 3 Monate. Wenn nicht dann nur 1,5 Monate.
Das ist schon ein Unterschied zu dem fast halben Jahr in dem Nvidia ungestört sammeln konnte.

Mancko
2006-01-26, 12:33:12
Weil dei Cebit gut für eine Paperlaunch ist, für einen Hardwarelaunch hingegen eher beschränkt günstig. Außerdem muss NV erstmal zeigen, dass sie 90nm hinbekommen haben.

Och da würde ich mir keine Sorgen machen. Es wurden auch schon in der Vergangenheit verfügbare Produkte auf der Cebit gelauncht. Und zum Thema 90nm wírd Nvidia dieses gleich auf mehreren Prozessen hinbekommen -mindestens mal auf 2en (TSMC und SONY).
Bei 0.11 haben sie bessere Arbeit geleistet als ATI. Bei 0.09 hat jetzt ATI nun nicht unbedingt so eine Steilvorlage geliefert, dass man nun denken muss, dass das uneinholbar ist. Dafür waren und sind die thermischen Daten von R520 und R580 zu schlecht.

Undertaker
2006-01-26, 15:41:02
was würde ATI nen 750/850(1700 DDR) chip bringen?

der G71 hat 750/1000(2000 DDR), hat also schonmal die höhere raw-power, dann hat der G71 insgesammt 64 shader einheiten, der R580 nur 48....

ich war so frei das in meine sig aufzunehmen... :)

nur um dir später vorhalten zu können wie verlässlich deine kontakte sind *g*

Gandharva
2006-01-26, 16:26:27
...der G71 hat 750/1000(2000 DDR)...Vor allem die 1000MHz Memory möchte ich sehen. ;D

Es gibt nur leider momentan nix besseres als 900MHz. Hynix stellt gar "nur" 800Mhz her. Du musst ja Quellen aus der Zukunft haben SKYNET. ;)

Coda
2006-01-26, 16:44:39
GDDR4. Aber ich glaube auch irgendwie nicht dran.

Gast
2006-01-26, 18:30:57
ich war so frei das in meine sig aufzunehmen... :)

nur um dir später vorhalten zu können wie verlässlich deine kontakte sind *g*

Du musst in die Sig auch die 64 ShaderEinheiten (32 TMUs) mit aufnehmen, damit er sich am Ende nicht rausreden kann.

reunion
2006-01-26, 18:48:08
Du musst in die Sig auch die 64 ShaderEinheiten (32 TMUs) mit aufnehmen, damit er sich am Ende nicht rausreden kann.


Die 8 Quads sind relativ fix IMHO, dafür braucht man keinen Wahrsager.

Ailuros
2006-01-27, 10:10:58
Die 8 Quads sind relativ fix IMHO, dafür braucht man keinen Wahrsager.

Tja dessen war ich bis auf kurze Zeit so gut wie sicher (10/32/16). Aber wenn ich normalerweise gut informierte Leute zweifeln sehe, heisst das nicht dass ich keine Zweifel habe:

http://www.beyond3d.com/forum/showpost.php?p=682365&postcount=655

Das soll aber auch nur heissen, dass es keine 100% klare Aussagen oder Details von NV jetzt schon gibt.

paul.muad.dib
2006-01-27, 16:00:34
Die X1900 war als Konkurrent zur GTX512 gedacht und nicht zu einer Karte, erst in naher Zukunft erscheinen soll.

Nein, das ist ein sich hartnäckig haltendes Gerücht. Sogaer etliches reviews schreiben das, aber es ist Quatsch. Der r580 war von Anfang an als der Refresh des r520 geplant, da gab es noch keine GTX 512. Dass es nach etwa einem halben Jahr Refresh-Chips gibt, ist ja nicht neues, z.B. r300 -> r350 -> r360 bzw. r420 -> r480 waren immer im halbjahresrythmus.
Verabschiedet euch doch endlich mal von der Vorstellung, dass man einen neuen Chip einfach so aus dem Hut zaubert. Die Entscheidung für den r580 ist schon vor min. 1 1/2 Jahren gefallen und hatte nicht mit dem GTX 512 zu tun, obwohl man wohl damit rechnen musste, das auch NV Ende 2005 einen G70 refresh bringen würde. Zum Glück für ati hatten sie allerdings keinen richtigen refresh sondern nur höhere Taktraten.

Gouvernator
2006-01-28, 01:21:26
genau das erhoffe ich auch von ATI.

wenn nvidia extra chips selektiert um ne kaum verfügbare spitzenkarte zu bekommen, dann könnte das doch auch ATI machen, damit der abstand zum G71 nicht zu groß wird (falls er wirklich viel stärker wird)

könnte mir vorstellen, das ATI 750 mhz chips selektieren und mit ddr2000 laufen lassen, nur um nicht so schlecht dazustehen, auch wenn diese ultra-karten so gut wie nicht verfügbar sind.

was hätte ati noch für ne wahl um dagegen zu halten, falls die höheren taktraten nichts bringen bzw. nicht ausreichen?
1. 1024 mb speicher (wovon ja schon mal die rede war)?
2. quad-crossfire (was ja eigendlich kommen muß)?
3. ???

750/1000 mhz bringen echt nicht viel gegen eine neue Architektur. Ich wüsste auch nicht wo man jetzt diese Leistung nur annähernd sichtbar machen kann. Denn alles was wir sehen wird von Faktoren allgemeiner Natur limitiert wie AA, hochwertiges AF und so weiter . Es müssen neue Spiele her mit neuartiger Grafik a´la X1800 Demos.

sklave_gottes
2006-01-29, 14:32:36
750/1000 mhz bringen echt nicht viel gegen eine neue Architektur.

was für eine "neue" Architektur meinst du ?

nagus
2006-01-29, 17:21:31
Der R580 läuft schon sehr nah am Limit, ATI kann zur Zeit nix besseres mehr bringen.

diese behauptung ist lächerlich! ATI kann sehr wohl was schnelleres bringen. schon alleine deshalb weil sie bei den 1900xts sicher nicht den schnellstmöglichen ram verwendet haben. da ist noch viel spielraum nach oben!

Gouvernator
2006-01-29, 17:44:36
Wie nicht den schellstmöglichen ? Ist 1.1ns nicht mehr aktuell ?

MadManniMan
2006-01-29, 17:58:58
Wie nicht den schellstmöglichen ? Ist 1.1ns nicht mehr aktuell ?

Vielleicht meint er den Umstand, daß wesentlich leistungsfähigerer Ram benützt wird, als der Takt eigentlich verlangt?

Monger
2006-01-29, 18:28:16
Alleine, dass ATI offensichtlich die X1900XT in großen Stückzahlen zu vernünftigen Preisen verkaufen kann, heißt doch, dass a) die Fertigung endlich so funktioniert wie sie soll und b) der Chip qualitativ noch nicht am Limit läuft, sonst wäre der Ausschuss größer.

Ich vermute, ATI schiebt zumindest eine höhergetaktete Variante noch nach. Wahrscheinlich wird das nur ein Paperlaunch, aber das reicht ja möglicherweise schon.

up¦²
2006-01-29, 18:28:27
Tja :rolleyes:
wann kommt GDDR4...

Ein schelm könnte ja mal GDDR4 auf die X1900 umlöten und mal bissel antesten :wink:
was die californier garantiert schon gemacht haben!
sie wurden bei den ersten benchresulaten beobachtet :smile:
http://img29.imageshack.us/img29/6475/877877558kk.gif

Armaq
2006-01-29, 19:13:14
der ist gut. :)

iam.cool
2006-02-04, 11:26:31
Leute es geht doch nicht rein um Performance, NV muss erst mal die Bildqualität wieder richtung ATI bringen und dann siehts mit der Rohpower schon ganz anderes aus.
ATI hat ebenfalls mit den Ringbus einen Vorteil der bei zunemendem Ram Takt noch wirklich sinnvoll wird. Beim G70 stellt der Speicherbus schon jetzt nen Flaschenhals da, weshalb auch die Texturn so schlecht wie möglich gefiltert werden. Das bessere und vorallem weniger Leistung kostene AA bei ATI kommt noch dazu.


NV dagegen ist erstmal im Nachteil sowohl bei Features als auch bei Bildqualität. Zuzätzlich kommt auch noch ein Umstieg der Fertigung auf 90nm was den G71 bestimmt nicht unproblematischer macht. Ati hat die Umstellung seit dem R520 schon hinter sich was die Herstellungskosten senkt. :wink:

Mancko
2006-02-04, 11:37:02
NV dagegen ist erstmal im Nachteil sowohl bei Features als auch bei Bildqualität.

Also diese minimalen Bildqualitätsunterschiede wird die große Mehrheit der Kundschaft nicht sehen können. Was anderes als HQ ist bei diesen Karten sowieso für den Eimer und macht auch keinen Sinn.
Also der Nachteil ist eher nicht vorhanden. Ich behaupte mal frecht, dass wenn Nvidia ca 15% mehr Leistung bringen könnte, die Unterschiede in der Bildqualität für die Masse der Käufer uninteressant ist. Das würde für Nvidia bereits reichen.


Zuzätzlich kommt auch noch ein Umstieg der Fertigung auf 90nm was den G71 bestimmt nicht unproblematischer macht. Ati hat die Umstellung seit dem R520 schon hinter sich was die Herstellungskosten senkt. :wink:
Lies dir mal die Geschäftsberichte der beiden Firmen in den letzten Quartalen durch. Da siehst du von gesunkenen Herstellungskosten bei ATI wenig bis gar nichts. Ein kleinerer DIE ist nicht immer alles. Nvidia hat mit einem deutlich größeren DIE durch die Bank weg 10% mehr pro GPU in der Tasche gehabt als ATI.

Coda
2006-02-04, 11:37:39
Halbwissen kann so schön sein :)

Nerothos
2006-02-04, 11:57:50
Halbwissen kann so schön sein :)
Bezogen auf wessen Aussage?

Coda
2006-02-04, 12:21:36
Ich lass es einfach mal so im Raum stehen :D

Demirug
2006-02-04, 12:50:58
ATI hat ebenfalls mit den Ringbus einen Vorteil der bei zunemendem Ram Takt noch wirklich sinnvoll wird. Beim G70 stellt der Speicherbus schon jetzt nen Flaschenhals da, weshalb auch die Texturn so schlecht wie möglich gefiltert werden. Das bessere und vorallem weniger Leistung kostene AA bei ATI kommt noch dazu.

Der Ringbus ist aber kein Ringbus sondern ein Switchnetzwerk und nVidia benutzt schon ewig keinen Speicherbus mehr sondern eine Crossbar die letzten Endes auch nichts anderes als ein Switch ist.

Der Grund für das bestreben mit so wenig wie möglich Taps pro Texturezugriff auszukommen ist nicht die Bandbreite sondern die Tatsache das nVidia ein "linear" Design benutzt hat.

Gast
2006-02-04, 17:55:20
Beim G70 stellt der Speicherbus schon jetzt nen Flaschenhals da, weshalb auch die Texturn so schlecht wie möglich gefiltert werden. Das bessere und vorallem weniger Leistung kostene AA bei ATI kommt noch dazu. Ja ne, ist klar. Die Texturen werden aufgrund eines Flaschenhals beim Speicherbus so schlecht wie möglich gefiltert. ;D

Das AA ist Geschmackssache. Mir gefallen die Hybridmodi deutlich besser als 6xMSAA, auch wenn sie viel Leistung kosten. Diese ist bei älteren Spielen aber fast immer da.

iam.cool
2006-02-04, 23:44:09
Der Ringbus ist aber kein Ringbus sondern ein Switchnetzwerk und nVidia benutzt schon ewig keinen Speicherbus mehr sondern eine Crossbar die letzten Endes auch nichts anderes als ein Switch ist.

Der Grund für das bestreben mit so wenig wie möglich Taps pro Texturezugriff auszukommen ist nicht die Bandbreite sondern die Tatsache das nVidia ein "linear" Design benutzt hat.


Aufs Wesentliche reduziert kommt es doch aufs Gleiche raus oder? Ob mas es als Speicherbus oder als Crossbar bezeichnet ändert ja nichts daran das ein Flaschenhals existiert. Mit schlellerem Ram und damit mehr Speicherbandbreite wird der Flaschenhals noch stärker ins Gewicht fallen wenn NV nicht massive Modifikationen vornimmt.






Also diese minimalen Bildqualitätsunterschiede wird die große Mehrheit der Kundschaft nicht sehen können. Was anderes als HQ ist bei diesen Karten sowieso für den Eimer und macht auch keinen Sinn.
Also der Nachteil ist eher nicht vorhanden. Ich behaupte mal frecht, dass wenn Nvidia ca 15% mehr Leistung bringen könnte, die Unterschiede in der Bildqualität für die Masse der Käufer uninteressant ist. Das würde für Nvidia bereits reichen.

Was bringt mehr Leistung wenn man sie nicht in Qualität umwandeln kann? Den meisten fehlt der richtige Monitor für 1600x1200 Auflösungen oder höher. kommt man mit der Auflösungen nicht so hoch dann hat man mit NV viel Rohpower aber keine sinnvolle Möglichkeit sie zu nutzen. NV "High quali" ist besstenfalls auf ATI default niveau mit aktivierten Optimierungen wenn nicht schlechter, steigt man von ATI zu NV um dann merkt man den Unterschied.


Lies dir mal die Geschäftsberichte der beiden Firmen in den letzten Quartalen durch. Da siehst du von gesunkenen Herstellungskosten bei ATI wenig bis gar nichts. Ein kleinerer DIE ist nicht immer alles. Nvidia hat mit einem deutlich größeren DIE durch die Bank weg 10% mehr pro GPU in der Tasche gehabt als ATI.


Nach einer Fertigungsumstellung dauert es immer ne ganze Weile bis die Ausbeute an Chips besser wird, NV hat das noch vor sich.

Gast
2006-02-04, 23:47:51
NV viel Rohpower aber keine sinnvolle Möglichkeit sie zu nutzen.Öhm, bei NV hat man super Möglichkeiten überschüssige Power zu nutzen, nämlich mit Supersampling und Hybridmodi. Bei ATI hat man hier kaum Möglichkeiten ältere Spiele zu verschönern mit Sachen, die über 6xMSAA und 16xAF hinausgehen. ;)

Gouvernator
2006-02-04, 23:50:56
bei Ati sehen Spiele mit Super AF deutlich besser aus als bei nvidia mit 16xAA :P

Gast
2006-02-04, 23:57:57
bei Ati sehen Spiele mit Super AF deutlich besser aus als bei nvidia mit 16xAA :PDas lässt sich nicht verallgemeinern. Manche Spielen sehen ohne Supersampling immer beschissen aus, da hilft dann auch kein gutes AF mehr.

iam.cool
2006-02-05, 00:23:35
Öhm, bei NV hat man super Möglichkeiten überschüssige Power zu nutzen, nämlich mit Supersampling und Hybridmodi. Bei ATI hat man hier kaum Möglichkeiten ältere Spiele zu verschönern mit Sachen, die über 6xMSAA und 16xAF hinausgehen. ;)

Adaptive AA? Effektiver als NV's Hybrid modi und verbraucht auch noch weniger Leistung. ATI's 6xAA +AAA schläge alles was NV auffahren kann.
Das winkelabhängige 8xAF von ATI schlagt selbst mit aktivierten Optimierungen das 16x von NV.

Gast
2006-02-05, 02:28:40
Adaptive AA? Effektiver als NV's Hybrid modi und verbraucht auch noch weniger Leistung. ATI's 6xAA +AAA schläge alles was NV auffahren kann.
Das winkelabhängige 8xAF von ATI schlagt selbst mit aktivierten Optimierungen das 16x von NV.Du meinst wohl das winkelunabhängige. ;) Da muss ich dir Recht geben, Matsch neben scharfen Texturen ist nicht schön.

Bei NV gibt es auch ein Äquivalent zu AAA, das war sogar schon früher da. Aber ich meinte keine Alphatests, sondern andere Vorteile von Supersampling. Das Bild wird einfach ruhiger, auch wenn die Entwickler nicht unbedingt optimalen Content gewählt haben (Riddick z.b., das flimmert mit JEDER Karte, außer man macht Supersampling an, dann braucht man aber SLI. ;))

Ich persönlich finde die Hybridmodi deutlich schöner als ATIs 6xMSAA. Dafür kosten sie halt mehr Leistung. Von der reinen Polygonkantenglättung sind beide gleichgut, dazu kommen bei 8xS halt noch die Vorteile des SSAA-Anteils.

Grestorn
2006-02-05, 10:21:16
Ist schon nett, wie hier immer wieder Menschen steif und fest behaupten "X" sehe besser als "Y" aus, obwohl ich darauf wetten würde, dass die aller meisten nicht X und Y gleichzeitig betreiben können und diese Aussage damit absolut wertlos ist.

Besonders natürlich, wenn die Leute einer der beiden Karten niemals zu Gesicht bekommen hat (was für die Mehrheit gelten dürfte). Aber auch wenn man sie hintereinenander (durch Austausch) oder auf einem fremden System (mit anderem Monitor!) gesehen hat, spielt einem das Gedächtnis oft einen heftigen Streich, zumal man natürlich immer das sieht, was man sehen will.

Gouvernator
2006-02-05, 12:02:58
Ich hatte zuerst eine X800Pro und dann 6800GT und kurz darauf eine X800XT PE und dann eine X1900XTX . Ich kann mit sicherheit sagen wo was besser ist. Und ATI´s 6xMSAA ist schon beeindruckend das liefert solche flimmerfreie Texturen wie Nvidias 6xs ...mindestens. Und 6xs ist im Vergleich zu 16xAA nicht minder leistungshungrig.

Grestorn
2006-02-05, 12:22:39
Ich hatte zuerst eine X800Pro und dann 6800GT und kurz darauf eine X800XT PE und dann eine X1900XTX . Ich kann mit sicherheit sagen wo was besser ist. Und ATI´s 6xMSAA ist schon beeindruckend das liefert solche flimmerfreie Texturen wie Nvidias 6xs ...mindestens. Und 6xs ist im Vergleich zu 16xAA nicht minder leistungshungrig.
Dumm nur, dass MSAA überhaupt nichts gegen flimmernde Texturen tun kann... Eagl ob bei ATI oder nVidia.

MadManniMan
2006-02-05, 15:36:09
Dumm nur, dass MSAA überhaupt nichts gegen flimmernde Texturen tun kann... Eagl ob bei ATI oder nVidia.

Entschuldige, daß ich das mal als Stichwort aufgreife, aber ich komme nicht umher anzumerken, daß dies eine der idiotischsten Diskussionen der letzten Wochen ist, was in diesem Thread abläuft ;D

Black-Scorpion
2006-02-05, 16:11:09
Ist schon nett, wie hier immer wieder Menschen steif und fest behaupten "X" sehe besser als "Y" aus, obwohl ich darauf wetten würde, dass die aller meisten nicht X und Y gleichzeitig betreiben können und diese Aussage damit absolut wertlos ist.
Und das von jemand der in einem anderen Thread geschrieben hat das ihm das Winkelabhängige AF bei nVidia nicht stört.
Wann nimmst du endlich mal zur Kenntnis das du nicht der Nabel der Welt bist.
Was dir wichtig ist oder nicht muß noch lange nicht auf andere zutreffen.

Und welche Aussagen wertlos sind oder nicht, bestimmst du mit Sicherheit nicht.

Winter[Raven]
2006-02-05, 17:18:34
Also ich muss Grestorn zustimmen ... früher als ATI eine sehr bescheidende AF - BQ ablieferte war es ja gerade zu in Mode "Unwichtig, Sieht man nicht, und ähnliches" von sich zugeben.
Jetzt wo Nvidia nicht voll filtert wird rumgehackt und geflamed was das Zeug hält. Sorry, aber das ist eindeutige doppel Moral...

Ich sage mal auch, SO viel schlechter ist es nicht und in Aktion sehe ich es nicht, wenn ich Spiele, dann Spiele ich das Spiel und nicht drauf glotzen ob die Bodentextur scharf oder "etwas" (was relative sein kann) schlecht ist...

Black-Scorpion
2006-02-05, 17:34:05
Die Doppelmoral kommt eher von den nVidia Usern.
Da wurde immer auf die Winkelabhängigkeit bei ATI verwiesen als nVidia das bessere Wu AF hatte.
Seitdem wurde die AF Qualität bei nVidia immer weiter runtergedreht.
Jetzt stört es auf einmal nichtmehr.
ATI hatte bis zum R5x0 kein Wu AF.

Grestorn
2006-02-05, 18:01:25
Die Doppelmoral kommt eher von den nVidia Usern.
Da wurde immer auf die Winkelabhängigkeit bei ATI verwiesen als nVidia das bessere Wu AF hatte.
Seitdem wurde die AF Qualität bei nVidia immer weiter runtergedreht.
Jetzt stört es auf einmal nichtmehr.
ATI hatte bis zum R5x0 kein Wu AF.
Von wem? Bestimmt nicht von mir. Ich habe mich noch niemals über WA-AF aufgeregt. Ich fand das schon immer recht ... haarspalterisch darauf rumzuhacken.

Genauso wie auf den kaum sichtbaren Unterschied zwischen 4x und 6x MS oder dem Gamma-korrigiertem AA. Hat mich schon immer tierisch genervt, da irgendwelche tollen BQ-Vorteile rauslesen zu wollen.

SKYNET
2006-02-05, 19:13:57
Adaptive AA? Effektiver als NV's Hybrid modi und verbraucht auch noch weniger Leistung. ATI's 6xAA +AAA schläge alles was NV auffahren kann.
Das winkelabhängige 8xAF von ATI schlagt selbst mit aktivierten Optimierungen das 16x von NV.


das ist falsch, das winkelabhängige AF ist bei NV perfekt... bei ATI hingegen wurde gepfuscht!

nur das HQ AF ist bei ATI besser weil nicht WA. :P

Gast
2006-02-05, 19:27:55
das ist falsch, das winkelabhängige AF ist bei NV perfekt... bei ATI hingegen wurde gepfuscht!
Quatsch. Das AF der Geforces 6/7 ist flimmeranfällig, von der Perfektion weiter entfernt, als wir vom Mond...;)
Zieh dir mal GTR oder GT Legends rein.
Das nennst du perfekt?
Ist nicht dein Ernst. Da sieht das normale AF der ATIs besser aus, von wu-AF sprechen wir lieber nicht...

MadManniMan
2006-02-05, 23:47:46
']Sorry, aber das ist eindeutige doppel Moral...

Doppelmoral? In diesem Zusammenhang? :|

Um mal für mich zu sprechen: ich fand das AF meines R300 toll, war es doch nutzbar flott und durchaus brauchbar, wenn auch lange nicht perfekt - aber da ich vorher wenn überhaupt nur geringe AF-Level mit meiner GF3 nutzen konnte, war ich so fahrlässig, den Vorteil der FXen zu unterschätzen.

Aus Interesse und aus Sammelwut kaufte ich mir dann noch eine Ti4200, die zu schnell hopps ging :D und direkt danach noch ne FX5800 - und wäääh, ich bin ehrlich gesagt froh, daß ich sie nicht mehr habe! Denn für jedes Spiel, das nicht wegen eventueller Shaderlastigkeit oder generell stärkerer Eignung für höhere AA-Modi meine unterm Strich ähnlich schnelle Radeon sinnvoller machen würde, hätte ich liebend gern die FX im Rechner, so sehr vermisse ich das NWU-AF.

Alles eine Sache der Erfahrungen und des Geschmacks unterm Strich - und gerade Letzteres sollte aufhorchen lassen!
Ich z.B. würde bei zwei ansonsten gleichwertigen Karten eine leicht teurere Radeon nehmen und mich zwar hier und da über das Brigefilter schwarz ärgern, aber noch deutlich empfindlicher reagier ich auf das Restgeflimmer bei den GFs - bei meinem NV43M war mir selbst HQ noch tendenziell zu grieselig.
Dennoch würde ich keine klare Kaufempfehlung aussprechen können, ich würde höchstens die Vor- und Nachteile bei derartigen Dingen ausführlichst erklären, damit eventuell fehlende Erfahrung mit diesen Gesichtspunkten unter Umständen vom Kaufwilligen bedacht werden kann.


Was Du aber hier mit der Doppelmoral willst... :|

paul.muad.dib
2006-02-06, 01:55:21
']Also ich muss Grestorn zustimmen ... früher als ATI eine sehr bescheidende AF - BQ ablieferte war es ja gerade zu in Mode "Unwichtig, Sieht man nicht, und ähnliches" von sich zugeben.
Jetzt wo Nvidia nicht voll filtert wird rumgehackt und geflamed was das Zeug hält. Sorry, aber das ist eindeutige doppel Moral...

Ich sage mal auch, SO viel schlechter ist es nicht und in Aktion sehe ich es nicht, wenn ich Spiele, dann Spiele ich das Spiel und nicht drauf glotzen ob die Bodentextur scharf oder "etwas" (was relative sein kann) schlecht ist...

WU-AF ist heute wichtiger als früher:

1.
Weil mehr Leistung da ist. Der r300 war einer der ersten Chips, mit dem man durchgehend AA und AF nutzen konnte. Heute ist das im High-End üblich und das Transitor-Budget ist hoch genug, um leistungsfähiges wu AF zu realisieren.
WU AF auf GF 4 und FX war zwar schön, aber nur in älteren Spieln nutzbar. Als Laie sage ich mal, dass die Entscheidung von ATI, AF lieber schnell und wa zu machen als andersherum, damals durchaus richtig war. Beim r420 hätte es mehr sein müssen, aber das ist ein anderes Thema.

2. Weil man den Unterschied häufiger sieht. Wie viele schlecht gefilterte Texturen bei wa AF gibt's in Quake III, und wie viele in WoW? Die Levels sind weniger rechteckig geworden, daher liegen jetzt mehr Texturen in den ungünstigen Winkeln.

Ailuros
2006-02-06, 02:37:47
Weniger Winkelabhaengigkeit ist eine klare Design-Entscheidung und man spart hauptsaechlich Transistoren. Wie gross der Leistungsunterschied zwischen dem alten und HQ AF auf den heutigen R5x0 ist kann man ja sehen.

Ailuros
2006-02-06, 02:42:33
100% winkelunabhaengig ist eigentlich nur 2xAF auf NV40/G70.

iam.cool
2006-02-06, 03:04:41
Weniger Winkelabhaengigkeit ist eine klare Design-Entscheidung und man spart hauptsaechlich Transistoren. Wie gross der Leistungsunterschied zwischen dem alten und HQ AF auf den heutigen R5x0 ist kann man ja sehen.


Es ist ja nicht nur die Winkelabhängigkeit, die Tendenz zum Texturflimmern bei Nv40/G70 stört viele stärker und zwar ungeachtet vom Content im einem Game.


Ich hab auch nur ne X800pro aber solange zumindest die Texturen nicht flimmern ist das noch IO. Bei NV hat man aber flimmernde Texturen und winkelabhängigkeit und das ist dann zuviel dess "guten"

SKYNET
2006-02-06, 03:09:24
bei mir flimmert @ HQ nix!

manche sachen kann man sich auch einbilden.... :|

aths
2006-02-06, 07:07:51
das ist falsch, das winkelabhängige AF ist bei NV perfekt... bei ATI hingegen wurde gepfuscht!

nur das HQ AF ist bei ATI besser weil nicht WA. :PEs gibt nur zwei Filtermodi, die einigermaßen "nicht WA" sind: Isotrope und 2x anisotrope Filterung auf NV40/G70. Alle anderen Filter-Implementierungen sind winkelabhängig. Das AF auf R300/R420/R520-Standard und NV40/G70 (ab 4x AF) sind sehr stark winkelabhängig. ATI bietet mit dem R520 ähnlich wie NV früher mit ihren GeForce-Karten einen deutlich weniger starken winkelabhängigen Modus. Weniger stark winkelabhängig heißt aber nicht, winkelunabhängig.

aths
2006-02-06, 07:10:18
WU-AF ist heute wichtiger als früher:

1.
Weil mehr Leistung da ist.Gerade wenn wenig Leistung da ist, lohnt eine möglichst geringe Winkelabhängigkeit, um Füllrate möglichst effizent in Qualität umzuwandeln. Wir wollen doch nicht Vergleichen, wie ein AF-Modus heißt ("8x", "16x") sondern was er an Qualität bringt.

Heute ist das im High-End üblich und das Transitor-Budget ist hoch genug, um leistungsfähiges wu AF zu realisieren.Schon GeForce 3 bietet genug Transistoren für wenig winkelabhängiges 8x AF, der S3 Deltachrome sogar bis 16x AF.

Grestorn
2006-02-06, 08:44:51
Schon GeForce 3 bietet genug Transistoren für wenig winkelabhängiges 8x AF, der S3 Deltachrome sogar bis 16x AF.Aber braucht man diese Menge an Transistoren nicht für jede einzelne TMU? Wird dadurch die zusätzliche Menge an benötigten Transistoren in den aktuellen GPUs nicht drastisch erhöht?

ShadowXX
2006-02-06, 08:56:21
Aber braucht man diese Menge an Transistoren nicht für jede einzelne TMU? Wird dadurch die zusätzliche Menge an benötigten Transistoren in den aktuellen GPUs nicht drastisch erhöht?

Ja, natürlich wird dadurch die Transistoranzahl erhöht....wie "drastisch" das ist, könnte man vielleicht abschätzen wenn man wüsste, was wieviel beim r520 kostet (der r520 ist IMHO besser zum abschätzen geeignet, da er wie die vorgänger nur eine ALU pro Pipe hat).

Aber wenn man sieht, das der r580 wahrscheinlich mehr oder zumindest gleichviel Transistoren wie ein G71 haben soll...und das bei weniger ALUs und TMUs (und was sonst noch so an den Pipes hängt)...kann man sich ausrechnen, das das AreaAF auf den ATIs nicht gerade umsonst ist.

Hakkerstiwwel
2006-02-06, 09:16:05
bei mir flimmert @ HQ nix!

manche sachen kann man sich auch einbilden.... :|
Meinst du damit dass du dir einbildest dass es bei dir nicht flimmert?

Grestorn
2006-02-06, 09:27:58
Meinst du damit dass du dir einbildest dass es bei dir nicht flimmert?Nun, ich denke, nur diejenigen, die auch eine G70 ihr eigen nennen, sollten sich über das Flimmern äußern. Alle anderen können nur anderer Leute Meinung nachäffen mangels eigener Erfahrungen.

Und den Unterschied zwischen dem Flimmern einer R5x0 und einer G70 kann sowieso nur derjenige wirklich kompetent beurteilen, der beide Karten parallel laufen lässt, auf zwei Rechnern nebeneinander mit dem selben Spiel und der selben Szene. Nur der Aussage einer Person, die genau diesen Test durchgeführt hat, würde ich diesbezüglich trauen.

Ich selbst habe leider nur eine X800Pro und 7800GTX, die ich in einem solchen Vergleich gleichzeitig laufen lassen könnte. Aber dennoch mache ich gern nochmal einen Vergleich, wenn mir jemand genau sagt, welche Szene welchen Spiels ich vergleichen soll.

TobiWahnKenobi
2006-02-06, 09:44:20
Aber dennoch mache ich gern nochmal einen Vergleich, wenn mir jemand genau sagt, welche Szene welchen Spiels ich vergleichen soll.

ich wäre sehr an einem objektivem flimmerneigungs-test mit heutigen treibern interessiert. ich würde sogar mitmachen.


(..)

mfg
tobi

Hakkerstiwwel
2006-02-06, 09:48:31
Nun, ich denke, nur diejenigen, die auch eine G70 ihr eigen nennen, sollten sich über das Flimmern äußern. Alle anderen können nur anderer Leute Meinung nachäffen mangels eigener Erfahrungen.

Und den Unterschied zwischen dem Flimmern einer R5x0 und einer G70 kann sowieso nur derjenige wirklich kompetent beurteilen, der beide Karten parallel laufen lässt, auf zwei Rechnern nebeneinander mit dem selben Spiel und der selben Szene. Nur der Aussage einer Person, die genau diesen Test durchgeführt hat, würde ich diesbezüglich trauen.

Ich selbst habe leider nur eine X800Pro und 7800GTX, die ich in einem solchen Vergleich gleichzeitig laufen lassen könnte. Aber dennoch mache ich gern nochmal einen Vergleich, wenn mir jemand genau sagt, welche Szene welchen Spiels ich vergleichen soll.
Nun, im Prinzip gebe ich dir Recht. Da es jedoch G70 Besitzer gibt, die von Flimmern berichten, und sich daran stoeren, andere jedoch nicht, ist sowohl die Festellung "G70 flimmert" wie "G70 flimmert nicht" nicht allgemeingueltig, sondern haengt vom subjektiven Empfinden des Betrachters ab. Die von mir gequotete Aussage sieht sich selbst als unanfechtbar, und legt als allgemeingueltige Wahrheit dar, dass jeder der eine andere Ansicht als der Verfasser hat, sich dieses nur einbildet. Das und nur das ist der Grund meines Postings. Ob der G70 flimmert oder nicht geht mir uebrigens am Allerwertesten vorbei, da ich nicht beabsichtige die Karte zu kaufen

aths
2006-02-06, 09:49:15
Aber braucht man diese Menge an Transistoren nicht für jede einzelne TMU? Wird dadurch die zusätzliche Menge an benötigten Transistoren in den aktuellen GPUs nicht drastisch erhöht?Die AF-LOD-Logik braucht man pro Quad. Die Koordinaten-Logik pro TMU. Allerdings sind das nur FP32-ADDs.

Wirklich winkelunabhängiges Voll-AF würde sehr viele Transistoren benötigen. Maßvolle Winkelabhängigkeit à la GeForce 3 oder Deltachrome ist deutlich günstiger zu bekommen.

Botcruscher
2006-02-06, 10:12:05
das ist falsch, das winkelabhängige AF ist bei NV perfekt... bei ATI hingegen wurde gepfuscht!

nur das HQ AF ist bei ATI besser weil nicht WA. :P


Verwende mal "winkelabhängige AF" und "perfekt" nicht in einem Satz.

MadManniMan
2006-02-06, 12:33:12
Nun, ich denke, nur diejenigen, die auch eine G70 ihr eigen nennen, sollten sich über das Flimmern äußern. Alle anderen können nur anderer Leute Meinung nachäffen mangels eigener Erfahrungen.

Achja? Danke :| Ich hab keine Lust, nochmal zu begründen, warum ich das so sehe - aber Du überliest mich eh immer, wenns darum geht *kopfkratz*

aths
2006-02-06, 12:37:27
Verwende mal "winkelabhängige AF" und "perfekt" nicht in einem Satz.Perfekt, jedenfalls fast, ist NVs stark winkelabhängiges LOD-Muster (für ein stark winkelabhängiges LOD-Muster, eben.) Nur sagt die LOD-Bestimmung alleine noch fast nichts zur tatsächlich gebotenen AF-Qualität aus.

Ailuros
2006-02-06, 13:00:27
Es ist ja nicht nur die Winkelabhängigkeit, die Tendenz zum Texturflimmern bei Nv40/G70 stört viele stärker und zwar ungeachtet vom Content im einem Game.

Nebeneffekte wie Flimmern sind eben vom Content der Spiele abhaengig und natuerlich von dem Grad der Filterungs-Optimierungen die benutzt werden.


Ich hab auch nur ne X800pro aber solange zumindest die Texturen nicht flimmern ist das noch IO. Bei NV hat man aber flimmernde Texturen und winkelabhängigkeit und das ist dann zuviel dess "guten"

Jeder verteidigt natuerlich dass was er auf seinem Bildschirm mit seiner GPU sehen kann. Erstens hat Deine X800 gar nichts anderes als nur winkelabhaengigeres AF und zweitens da ich bezweifle dass Du die Filterungs-Optimierungen nicht abschaltest ist die Aussage dass es angeblich nie flimmert einfach uebertrieben.

Auf high end GPUs spiel ich sowieso nicht mit Optimierungen; so lange ich den Mist abschalten kann ist es fuer mich kein Grund eine jegliche GPU zu vermeiden. In aller Ehrlichkeit aber wuerde ich heute eine neue high end GPU kaufen waere es hoechstwahrscheinlich eine X1900 und dabei waere der entscheidende Grund dass ich pro FPS mehr Bildqualitaet rausquetschen kann. Und natuerlich wuerde ich dann bei ATI meckern dass sie andere nicht Filterungs-relative Optimierungen vom AI entkoppeln.

Grestorn
2006-02-06, 13:15:19
Achja? Danke :| Ich hab keine Lust, nochmal zu begründen, warum ich das so sehe - aber Du überliest mich eh immer, wenns darum geht *kopfkratz*Ich bin auch überhaupt nicht auf Dein Posting eingegangen und frage mich, warum Du jetzt auf mich losgehst...

Du ziehst ATI vor, was Dein gutes Recht ist, ich ziehe aus ganz anderen Gründen nVidia vor, wobei meine Präferenz bei weitem nicht so gefestigt ist, wie die Deine.

Dein Beitrag enthält auch nicht diese Phrasen, die man immer wieder hört, von wegen ATI wäre BQ-mäßig meilenweit vor nV, und dem unerträglichem Flimmern, dem unterirdischen AF, dem deutlich schlechteren AA usw.

Ich bin mir halt ziemlich sicher, dass viele der Leute, die immer wieder das AF und das angebliche Flimmern rauskramen, eben genau dies in einem Blindtest gar nicht unterscheiden könnten, sprich nicht sicher sagen könnten welches von zwei vor ihren Augen angespielten Szenen von der nV und welches von der ATI Karte gerendert werden. Und genau diese Menschen schreien aber am lautesten.

Wegen mir mag man gerne ATI für besser halten, so lange man keine Mission daraus macht und jeden, der anderer Meinung ist oder einfach andere Präferenzen hat, als Fanboy abzustempeln, der nur blind seiner Marke folgt, obwohl die angeblichen Fakten doch sooo klar dagegen sprechen würden.

MadManniMan
2006-02-06, 14:28:48
Ich bin auch überhaupt nicht auf Dein Posting eingegangen und frage mich, warum Du jetzt auf mich losgehst...

Verzeih, in letzter Zeit ist mir mein freundlicher Ton irgendwie abhanden gekommen :| Aber zum Thema:

Das ist ja grad das Problem - Du hast pauschalisiert, die Spezialisierung innert Deiner Aussage reichst Du erst jetzt nach. Nun kann man diese Aussage auch stehen lassen ;)

Du ziehst ATI vor, was Dein gutes Recht ist, ich ziehe aus ganz anderen Gründen nVidia vor, wobei meine Präferenz bei weitem nicht so gefestigt ist, wie die Deine.

Um Himmels Willen! Vorziehen tu ich weder ATi noch nV - ich mag beide Firmen nicht, mag aber an meiner generellen Einstellung gegenüber Kapitalisten liegen und gehört nicht hier her ;)
Unterm Strich bleibt bei mir die persönliche Präferenz dem HQ-AF gegenüber und es ist mir völlig Latte, von wem das kommt.

Also immer schön den Ball flach halten :D

Dein Beitrag enthält auch nicht diese Phrasen, die man immer wieder hört, von wegen ATI wäre BQ-mäßig meilenweit vor nV, und dem unerträglichem Flimmern, dem unterirdischen AF, dem deutlich schlechteren AA usw.

...und für diese Feststellung bin ich Dir auch dankbar, hehe.
Dennoch solltest Du Dich nicht durch Derartiges zu vorschnellen Aussagen provozieren lassen.
Im Übrigen genau so, wie ich mich nicht zu so ungewohnt Aggressivem wie dem von Dir gequoteten hinreißen lassen sollte ;(

Ich bin mir halt ziemlich sicher, dass viele der Leute, die immer wieder das AF und das angebliche Flimmern rauskramen, eben genau dies in einem Blindtest gar nicht unterscheiden könnten, sprich nicht sicher sagen könnten welches von zwei vor ihren Augen angespielten Szenen von der nV und welches von der ATI Karte gerendert werden. Und genau diese Menschen schreien aber am lautesten.

Das sind dann im Übrigen solche, die die Gründe nur finden, weil sie entweder nV oder ATi besser finden wollen ;)

Wegen mir mag man gerne ATI für besser halten, so lange man keine Mission daraus macht und jeden, der anderer Meinung ist oder einfach andere Präferenzen hat, als Fanboy abzustempeln, der nur blind seiner Marke folgt, obwohl die angeblichen Fakten doch sooo klar dagegen sprechen würden.

Und genau so schätze ich Dich persönlich auch nicht ein - vielmehr stört mich bei Dir ( :D ), daß Du HQ-AF so geringschätzt. Und zwar in einem Maße, daß meines Erachtens von gesunder Objektivität entfernt ist.
Dabei bin ich der Überzeugung, daß ich zu sehr auf HQ-AF poche, also gewiß nicht meine Meinung also Vernunftsmittelpunkt da stehen sehen will.

Ja.

Gast
2006-02-06, 14:32:59
Dein Beitrag enthält auch nicht diese Phrasen, die man immer wieder hört, von wegen ATI wäre BQ-mäßig meilenweit vor nV, und dem unerträglichem Flimmern, dem unterirdischen AF, dem deutlich schlechteren AA usw.

Ich bin mir halt ziemlich sicher, dass viele der Leute, die immer wieder das AF und das angebliche Flimmern rauskramen, eben genau dies in einem Blindtest gar nicht unterscheiden könnten, sprich nicht sicher sagen könnten welches von zwei vor ihren Augen angespielten Szenen von der nV und welches von der ATI Karte gerendert werden. Und genau diese Menschen schreien aber am lautesten.Sehr oft stellt sich auch heraus, dass viele dieser "Schreihälse" in ihrem ganzen Leben noch nie einen G70 besessen oder auch nur gesehen haben, wenn man sie drauf anspricht. Aber hauptsache alles nachbrüllen, was man irgendwo mal gelesen hat.

Gast
2006-02-06, 14:38:45
Und genau so schätze ich Dich persönlich auch nicht ein - vielmehr stört mich bei Dir ( :D ), daß Du HQ-AF so geringschätzt. Und zwar in einem Maße, daß meines Erachtens von gesunder Objektivität entfernt ist.
Dabei bin ich der Überzeugung, daß ich zu sehr auf HQ-AF poche, also gewiß nicht meine Meinung also Vernunftsmittelpunkt da stehen sehen will.Das HQ-AF ist wirklich eine feine Sache. Nur ist deswegen nicht gleich alles was nicht von ATI kommt grottenschlecht. Wenn ein "Noob" das Geschreibsel und die Wortwahl mancher "Fanboys" liest, müsste er ja denken, dass das komplette Bild auf Nvidia-Karten generell flimmert, wie ein uralter Monitor @60Hz...

Ailuros
2006-02-06, 15:30:39
Ja, natürlich wird dadurch die Transistoranzahl erhöht....wie "drastisch" das ist, könnte man vielleicht abschätzen wenn man wüsste, was wieviel beim r520 kostet (der r520 ist IMHO besser zum abschätzen geeignet, da er wie die vorgänger nur eine ALU pro Pipe hat).

Aber wenn man sieht, das der r580 wahrscheinlich mehr oder zumindest gleichviel Transistoren wie ein G71 haben soll...und das bei weniger ALUs und TMUs (und was sonst noch so an den Pipes hängt)...kann man sich ausrechnen, das das AreaAF auf den ATIs nicht gerade umsonst ist.

G71 hat weniger Transistoren und so leicht kann man das sowieso nicht ausrechnen wenn man nicht in etwa weiss was der Speichercontroller und/oder anderer Schnickschnack in Transistoren kostet.

Auf NV4x/G7x wurden definitiv Transistoren gespart, da die texture samplers nicht dazu faehig sind alle Winkel mit genauso viel samples zu behandeln, wie eben in 2xAF.

ich wäre sehr an einem objektivem flimmerneigungs-test mit heutigen treibern interessiert. ich würde sogar mitmachen.

BF2 - eines der besonders krankhaften Faelle von den neueren Spielen - flimmert mit allen Optimierungen eingeschaltet deutlich weniger als zuvor. Das heisst aber wiederrum auch nicht dass ich das Spiel mit dem Quark eingeschaltet spielen werde. Ich sehe nicht ein warum ich fuer ein paar bekloppte fps selbst das geringste Flimmern tolerieren muss.

Solche Vergleiche sind sowieso nicht besonders leicht. Ich verwende mehr als oefters 1600*1200 auf einem CRT. Erstens "versteckt" ein CRT im relativen Sinn solche Seiteneffekte und zweitens gibt es genug Leute die in Aufloesungen wie 1280*XXX spielen. Und das sind nur ein paar Beispiele die solche Vergleiche schwerer machen.

TobiWahnKenobi
2006-02-06, 15:41:49
BF2 - eines der besonders krankhaften Faelle von den neueren Spielen - flimmert mit allen Optimierungen eingeschaltet deutlich weniger als zuvor. Das heisst aber wiederrum auch nicht dass ich das Spiel mit dem Quark eingeschaltet spielen werde. Ich sehe nicht ein warum ich fuer ein paar bekloppte fps selbst das geringste Flimmern tolerieren muss.

hmm.. ich hab' das bf2 profil noch nie editiert (läuft quasi "out-of-the-box").
spielen tue ich bf2 und special forces aber recht regelmäßig. ob ich schon augenkrebs habe und es nur noch nicht merke/weiss.. ?!


(..)

mfg
tobi

Sunrise
2006-02-06, 18:25:45
Solche Vergleiche sind sowieso nicht besonders leicht. Ich verwende mehr als oefters 1600*1200 auf einem CRT. Erstens "versteckt" ein CRT im relativen Sinn solche Seiteneffekte und zweitens gibt es genug Leute die in Aufloesungen wie 1280*XXX spielen. Und das sind nur ein paar Beispiele die solche Vergleiche schwerer machen.
Absolut richtig. *Seinen 22"-CRT streichelt*

PS: Anstatt "mehr als öfters" wäre "oft genug" oder "sehr oft" grammatisch korrekter und besser zu lesen.

Gast
2006-02-06, 19:09:08
bei mir flimmert @ HQ nix!

manche sachen kann man sich auch einbilden.... :|
Du solltest dir echt mal die Pupillen schärfen lassen...
Ich habe dir doch schon geschrieben, daß du dir GTR oder GTL ansehen solltest.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3950862&postcount=79
Da du anscheinend zu faul dazu bist oder es dir nicht in deinen Kram passt, hier ein Screenshot aus dem Bilder-Thread.
Ist zwar F1 Challenge 99-02, aber das Problem mit den Gridlines, sieht man hier selbst auf einem Screen sehr gut.
http://hadler.kirchbach.at/fx/f1/f1_6.jpg
Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3937996&postcount=7805

Ailuros
2006-02-07, 01:59:50
Da jegliches F1 Spiel von EA Games seit F1 2001 auf der gleichen engine laeuft und diese miserables MIPmapping hat, ist es eher laecherlich auf solchem Quark zu trommeln.

F1 2002 und F1 Challenge waren um einiges besser als 2001, aber die einzige Rettung die halbwegs das endlose Flackern beseitigte war 4xS in der hoechstmoeglichen Aufloesungen (da sonst kein anderer hybrider modus mit dem Dingsda lief).

Wenn ein Spiel Supersampling braucht, um jegliche Entwicklerfaulheit zu beseitigen, handelt es sich eher um besch***enen game-code als alles andere.

Ailuros
2006-02-07, 02:02:21
hmm.. ich hab' das bf2 profil noch nie editiert (läuft quasi "out-of-the-box").
spielen tue ich bf2 und special forces aber recht regelmäßig. ob ich schon augenkrebs habe und es nur noch nicht merke/weiss.. ?!


(..)

mfg
tobi

BF2 flimmert auf den meisten heutigen GPUs wenn Filterungs-Optimierungen eingeschaltet sind. Es flimmert sogar mit "brilinear" oder "trylinear" je nach IHV.

iam.cool
2006-02-07, 02:10:57
Nebeneffekte wie Flimmern sind eben vom Content der Spiele abhaengig und natuerlich von dem Grad der Filterungs-Optimierungen die benutzt werden.


Aber nicht anähernd so stark wie zb AF, auf NV flimmert es praktisch immer leicht, der Content im Game entscheidet nur wie stark.


Jeder verteidigt natuerlich dass was er auf seinem Bildschirm mit seiner GPU sehen kann. Erstens hat Deine X800 gar nichts anderes als nur winkelabhaengigeres AF und zweitens da ich bezweifle dass Du die Filterungs-Optimierungen nicht abschaltest ist die Aussage dass es angeblich nie flimmert einfach uebertrieben.


Alle Optimierungen und AI sind grundsätzlich deaktiviert, mit aktivierten AI seh ich den Unterschied und es stört mich :wink: AAA ist auch grundsätzlich aktiviert da mich das flimmert von AT-texturen ebenfalls nerft.


PS: Mir ist sogar aufgefallen das sich die BQ von den 4er zu den 5er Catalysts im Bereich von Texturfilterung verschlechtert hat, gäbs ne möglichkeit bei den 4.4 AAA zu aktivieren würde ich ihn immer noch nutzen.

Ailuros
2006-02-07, 03:26:03
Aber nicht anähernd so stark wie zb AF, auf NV flimmert es praktisch immer leicht, der Content im Game entscheidet nur wie stark.

Wenn ein Spiel negativen LOD beantragt, kann man Unterfilterungen eben besser sehen. In dem Sinn ist es vom Content des Spiels abhaengig. Wo auch immer unterfiltert wird, fuehrt es zu Nebeneffekten. Man schert sich eben weniger um Bildqualitaet wenn man nur die Haelfte bearbeitet und das gilt fuer alle GPUs. Natuerlich sind GFs leichter anfaelliger, ueberhaupt wenn man den texturing stage Mist dazuschaltet.


Alle Optimierungen und AI sind grundsätzlich deaktiviert, mit aktivierten AI seh ich den Unterschied und es stört mich :wink: AAA ist auch grundsätzlich aktiviert da mich das flimmert von AT-texturen ebenfalls nerft.

Na endlich mal jemand der wirklich ehrlich ist ;)

Gast
2006-02-07, 08:00:25
Alle Optimierungen und AI sind grundsätzlich deaktiviert, mit aktivierten AI seh ich den Unterschied und es stört mich :wink: AAA ist auch grundsätzlich aktiviert da mich das flimmert von AT-texturen ebenfalls nerft.Schön, dass du so ehrlich bist. Sind nicht viele, wenn es darum geht die eigene Kaufentscheidung zu rechtfertigen. ;)

Gast
2006-02-07, 09:16:58
Da jegliches F1 Spiel von EA Games seit F1 2001 auf der gleichen engine laeuft und diese miserables MIPmapping hat, ist es eher laecherlich auf solchem Quark zu trommeln.

F1 2002 und F1 Challenge waren um einiges besser als 2001, aber die einzige Rettung die halbwegs das endlose Flackern beseitigte war 4xS in der hoechstmoeglichen Aufloesungen (da sonst kein anderer hybrider modus mit dem Dingsda lief).

Wenn ein Spiel Supersampling braucht, um jegliche Entwicklerfaulheit zu beseitigen, handelt es sich eher um besch***enen game-code als alles andere.
Du liegst falsch.
Bei ATI flimmern die Gridlines nicht. Auch ohne SSAA.
Sonst hätte ich das wohl nicht gepostet...wäre irgendwie witzlos.

SKYNET
2006-02-07, 11:10:23
Du liegst falsch.
Bei ATI flimmern die Gridlines nicht. Auch ohne SSAA.
Sonst hätte ich das wohl nicht gepostet...wäre irgendwie witzlos.




Alle Optimierungen und AI sind grundsätzlich deaktiviert, mit aktivierten AI seh ich den Unterschied und es stört mich :wink: AAA ist auch grundsätzlich aktiviert da mich das flimmert von AT-texturen ebenfalls nerft.




:rolleyes:

Gast
2006-02-07, 11:51:09
Und Skynet?
Was wolltest du uns da mitteilen?
iam.cool bezieht sich nicht auf das NV-Flimmern bei GTR & Co.
Er hat nur eine allgemeine Aussage gemacht, du hast aber etwas essenzielles von iam.cool vergessen.
Also bitte nicht durcheinander bringen. ;)

Aber nicht anähernd so stark wie zb AF, auf NV flimmert es praktisch immer leicht, der Content im Game entscheidet nur wie stark.

Gast
2006-02-07, 11:59:44
Ja, NVs AF flimmert und ATIs ist unscharf. Ist das Thema jetzt gegessen?

Gast
2006-02-07, 12:20:07
Ja, NVs AF flimmert
Jein, ich würde eher sagen, dass es für Flimmern anfälliger ist, als das ATI-AF.

und ATIs ist unscharf.
Das stimmt nicht. Eine generelle Aussage, dass ATIs AF unscharf ist, ist eh Blödsinn, da das wu-AF schärfer ist als alles, was NV zu bieten hat.

Ist das Thema jetzt gegessen?
Für mich schon, ich weiss nicht, wie es mit Skynet aussieht...

Gast
2006-02-07, 12:29:59
Jein, ich würde eher sagen, dass es für Flimmern anfälliger ist, als das ATI-AF.

Das stimmt nicht. Eine generelle Aussage, dass ATIs AF unscharf ist, ist eh Blödsinn, da das wu-AF schärfer ist als alles, was NV zu bieten hat.

Für mich schon, ich weiss nicht, wie es mit Skynet aussieht...Ich weiß. Beide Punkte waren absichtlich ein wenig übertrieben. ;)

Achja, Skynet: Wann schaltet NV denn nun das wu-AF auf meinem G70 frei? ;D

TobiWahnKenobi
2006-02-07, 12:50:51
Achja, Skynet: Wann schaltet NV denn nun das wu-AF auf meinem G70 frei?

nie.


(..)

mfg
tobi

Gast
2006-02-07, 12:52:52
Sag bloß...;D

TobiWahnKenobi
2006-02-07, 13:12:03
wenn du meinst, dass irgendwas zu bescheiden vor-sich-hin flimmert, schalt' doch einfach einen mixed-mode oder SS -AA modus ein. sieht super aus.
aktivieren kannst du diese modi z.b. mit dem nhancer (http://www.nhancer.com) .


(..)

mfg
tobi

Gast
2006-02-07, 15:44:42
Nah, bei mir flimmert nix auf HQ. Und wenn, dann ist der Content schuld. Über die Qualitäten der Hybridmodi bin ich mir durchaus bewusst. ;)