PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13

Bucklew
2010-05-29, 16:12:59
Und warum ist die HD 5870 2 GB in Metro so schnell wie eine GTX 470 mit Tesselation?
Weil Metro nciht genug Tessellation hat um die 5870 in ihren Bottleneck Geometrie laufen zu lassen.

Gast
2010-05-29, 16:14:17
Weil Metro nciht genug Tessellation hat um die 5870 in ihren Bottleneck Geometrie laufen zu lassen.

Und wann kommen Spiele, die noch mehr Tesselation einsetzen werden? Crysis 2? Mafia 2?

LovesuckZ
2010-05-29, 16:14:18
Und warum ist die HD 5870 2 GB in Metro so schnell wie eine GTX 470 mit Tesselation?

Weil die Dreieckserzeugung so gering ist. Man kann auch tessellieren ohne mehr Dreiecke als ohne zu erzeugen. Siehe auch AvP3.
Aber das ist ja nicht das, was Spasstiger meinte.

Spasstiger
2010-05-29, 16:17:34
Man kann auch tessellieren ohne mehr Dreiecke als ohne zu erzeugen.
Nein, das ist ein Widerspruch in sich. Tessellieren heißt soviel wie "Unterteilen". Wenn tesselliert wird, werden immer zusätzliche Dreiecke erzeugt.
Aber man kann Displacement Mapping durchführen, ohne mehr Dreiecke zu erzeugen.

Nö. Der Anteil der Dreieckserzeugung muss dermaß gering sein, dass das Front-End nicht limitiert.
Meine Aussage ist äquivalent.

derguru
2010-05-29, 16:21:37
Und wann kommen Spiele, die noch mehr Tesselation einsetzen werden? Crysis 2? Mafia 2?
die spiele werden es mit sicherheit auch nicht sein,dieses jahr sicherlich nichts.ich glaub nicht mal das es nächstes jahr spiele geben wird die so extrem davon gebraucht machen wie heaven oder stone giant.

LovesuckZ
2010-05-29, 16:24:56
Meine Aussage ist äquivalent.

Das weiß ich. Ich finde dies jedoch vollkommen belanglos, da man wesentlich mehr Geometrie haben als heutzutage vorhanden. Wenn wir also mit solchen AVP3, Stalker, Metro2033 und Konsorten leben wollen, dann ist das eine richtig Feststellung. Aber alleine schon Stone Giant zeigt, dass richtiger Einsatz von Tessellation es nicht möglich macht, dass dieser Fall eintritt. Selbst mit verbessertem DoF kann Cypress nicht mithalten.

Gast
2010-05-29, 16:27:56
Das weiß ich. Ich finde dies jedoch vollkommen belanglos, da man wesentlich mehr Geometrie haben als heutzutage vorhanden. Wenn wir also mit solchen AVP3, Stalker, Metro2033 und Konsorten leben wollen, dann ist das eine richtig Feststellung. Aber alleine schon Stone Giant zeigt, dass richtiger Einsatz von Tessellation es nicht möglich macht, dass dieser Fall eintritt. Selbst mit verbessertem DoF kann Cypress nicht mithalten.

Und wann erscheint das Stone Giant Spiel?
Bestimmt direkt nach dem Heaven 2.0 Spielrelease...

LovesuckZ
2010-05-29, 16:29:22
Und wann erscheint das Stone Giant Spiel?
Bestimmt direkt nach dem Heaven 2.0 Spielrelease...

Wozu sollte das wichtig sein? Wer meint, dass Tessellation keine Rolle spielt, kann sich eine Evergreen Karte kaufen.
Wer denkt, es könnte zum Leistungsstolperstein werden, kauft sich GF100.

Gast
2010-05-29, 16:33:12
Wozu sollte das wichtig sein? Wer meint, dass Tessellation keine Rolle spielt, kann sich eine Evergreen Karte kaufen.
Wer denkt, es könnte zum Leistungsstolperstein werden, kauft sich GF100.

Naja sich eine Karte kaufen und hoffen, dass Sie irgendwann mal sinnvoll ist, scheint ein neues Hobby zu sein.

LovesuckZ
2010-05-29, 16:37:01
Nö, man kauft sich Karten, weil man diese eine Weile behalten will.
Wer denkt, dass in dieser Zeit Tessellation wichtig wird, der kauft sich GF100. Wer alle 6 Monate wechselt, der muss sich mit solchen Fragen natürlich nicht quälen.

Botcruscher
2010-05-29, 16:39:43
Solange eh alles Multiplatform bleibt kann man sich die Frage sparen. Mit der neuen Konsolengeneration irgendwann 2013/2015 wird es dann wichtig. Bis dahin herrscht unzweifelhaft DX9 mit angeflanschten und mäßig Umgesetzten DX10/11 Support. Seit Crysis herrscht fast kompletter Stillstand bei den Spielen. Das ist schon wieder 3 Jahre her. Damit man es sich besser vorstellen kann: Das ist die Zeit von Duke Nukem 3D bis zu Unreal. Das ganze Thema Technik ist doch seit DX9.0C mausetot.

Gast
2010-05-29, 16:47:15
Solange eh alles Multiplatform bleibt kann man sich die Frage sparen. Mit der neuen Konsolengeneration irgendwann 2013/2015 wird es dann wichtig. Bis dahin herrscht unzweifelhaft DX9 mit angeflanschten und mäßig Umgesetzten DX10/11 Support. Seit Crysis herrscht fast kompletter Stillstand bei den Spielen. Das ist schon wieder 3 Jahre her. Damit man es sich besser vorstellen kann: Das ist die Zeit von Duke Nukem 3D bis zu Unreal. Das ganze Thema Technik ist doch seit DX9.0C mausetot.

Das stimmt aber auch nur zum Teil.
Seit Dx9 sind Grafikkarten vollständig frei programmierbar.
Eine Weiterentwicklung von diesem Punkt ist schwer.
Ich bin sehr gespannt, ob nach CS und Tessellation noch weitere "Features" kommen werden.

Gast
2010-05-29, 16:56:27
Gerade wenn ich das 3 (!!!) Jahre alte Crysis sehe, rausgekommen, als noch HD 2900 XT und 8800 GTX bzw. Athlon 64 und C2D aktuell waren, möchte ich mir gar nicht vorstellen, was mit heutiger Hardware (Core i7 und GTX 480) alles technisch möglich wäre. :sabber:

Aber da selbst Crytek zum Konsolenportierer geworden ist (rein betriebswirtschaftlich 100 % nachvollziehbar), werden wir wohl tatsächlich bis zur PlayStation 4 warten müssen, bis irgendetwas rauskommt, das über Crysis-Grafik hinausgeht. Schade.

AnarchX
2010-05-29, 17:07:26
Gerade wenn ich das 3 (!!!) Jahre alte Crysis sehe, rausgekommen, als noch HD 2900 XT und 8800 GTX bzw. Athlon 64 und C2D aktuell waren, möchte ich mir gar nicht vorstellen, was mit heutiger Hardware (Core i7 und GTX 480) alles technisch möglich wäre. :sabber:

Wenn es 1080p+AA und vernünftige Frameraten sein sollen, ist selbst mit heutiger HW nicht mehr als Crysis möglich.

derguru
2010-05-29, 17:09:17
eben genau wie bei stalker cs wo es sogar noch schlimmer ist und tesseinheiten ist es nicht was man dafür braucht.;)

hq-hq
2010-05-29, 17:12:16
hmja die unigine engine wird in ein paar spielen eingesetzt
>>In den USA arbeitet der Entwickler Lukewarm Media mit der Unigine Engine an dem optisch sehenswerten Dinosaurier-Shooter Primal Carnage, in Polen entsteht bei Nicolas Intoxicate das Rollenspiel Afterfall, das nach einem Atomkrieg spielt. Das italienische 3D-Cartoon-Adventure The Dreamers von PlaySys, das eine traurige Stimmung ausstrahlt, setzt die Engine ebenso ein wie das Cyperpunk-MMORPG Syndicates of Arkon von MCM Online aus der Ukraine.
Aus demselben Land stammen auch ein noch namenloser Science-Fiction Shooter von New FX Games und ein weiteres MMORPG von RunServer mit dem Arbeitstitel MMT Online, das in einer mittelalterlichen Umgebung spielt.<<
(http://www.gamestar.de/hardware/news/vermischtes/2314272/spiele_engine_unigine_heaven.html)

tesselation ftw!

Spasstiger
2010-05-29, 17:16:00
Wenn es 1080p+AA und vernünftige Frameraten sein sollen, ist selbst mit heutiger HW nicht mehr als Crysis möglich.
Im Prinzip hat man gegenüber damals bei gleichen Frameraten 4xSG-SSAA gewonnnen, was ich auch hübsch finde. Wenn 4xSG-SSSAA zum Standard bei PC-Spielen wird, dann freut mich das.
Das mittlere Grafikniveau über alle Spiele hinweg ist in den letzten drei Jahren schon deutlich gestiegen. Hässlich beleuchtete Spiele findet man kaum noch, dynamische Softshadows gehören zum Standard, HDR-Rendering wird überwiegend sinnvoll eingesetzt (Negativbeispiel aus aktueller Zeit: BF Bad Company 2).

Schlammsau
2010-05-29, 18:02:15
hmja die unigine engine wird in ein paar spielen eingesetzt
>>In den USA arbeitet der Entwickler Lukewarm Media mit der Unigine Engine an dem optisch sehenswerten Dinosaurier-Shooter Primal Carnage, in Polen entsteht bei Nicolas Intoxicate das Rollenspiel Afterfall, das nach einem Atomkrieg spielt. Das italienische 3D-Cartoon-Adventure The Dreamers von PlaySys, das eine traurige Stimmung ausstrahlt, setzt die Engine ebenso ein wie das Cyperpunk-MMORPG Syndicates of Arkon von MCM Online aus der Ukraine.
Aus demselben Land stammen auch ein noch namenloser Science-Fiction Shooter von New FX Games und ein weiteres MMORPG von RunServer mit dem Arbeitstitel MMT Online, das in einer mittelalterlichen Umgebung spielt.<<
(http://www.gamestar.de/hardware/news/vermischtes/2314272/spiele_engine_unigine_heaven.html)

tesselation ftw!

Das heisst aber noch lange nicht, dass diese Games auch Tess einsetzen bzw. auch in diesem Maße.
Der Dre(ie)ckseinsatz unter Heaven@extreme und dem Steingigant sind viel zu übertrieben hoch. Mann sieht zur vorherigen Stufe kaum einen optischen Unterschied, es zeigt eigentlich nur das technisch machbare. Es ist echter Overkill!
Wir werden in den nöchsten 1-2 Jahren keine Games erleben, die auch so extrem Tesselieren. Das kann ich euch versprechen.
Und dass eine 5870 unter Heaven@normal gar nicht so viel langsamer als eine 480 ist, könnt ihr im Heaven Thread nachgucken.
Bis jetzt limitiert in noch keinem Tesselation Titel die Tess Unit der HD5000 Serie!

Ahja bevor ich es vergesse.....Tesselation ist echt ne feine Sache und ich freue mich auf kommende Titel mit dem Feature.
Aber ich bin auch der Meinung, dass ich noch sehr lange mit meiner 5850 spielen kann, bevor die die Tess Unit zu langsam wird.

hq-hq
2010-05-29, 20:15:08
Aber ich bin auch der Meinung, dass ich noch sehr lange mit meiner 5850 spielen kann, bevor die die Tess Unit zu langsam wird.

für mich sieht es so aus als ob deine tess unit - auch mit fett oc - in unigine auf tesselation "normal" schon in den unspielbaren framebereich unter 20fps einbricht. :freak: -> was wir natürlich alle nicht wollen <- :freak:

DrFreaK666
2010-05-29, 20:18:59
für mich sieht es so aus als ob deine tess unit - auch mit fett oc - in unigine auf tesselation "normal" schon in den unspielbaren framebereich unter 20fps einbricht. :freak: -> was wir natürlich alle nicht wollen <- :freak:

Heaven ist kein Spiel.
3D mark ist kein Spiel
Stone Giant ist kein Spiel.
Das sind Benchmarks, die zeigen, dass Fermis mit extremer Tesselation schneller sind als die Konkurrenzkarten.
Tesselation wird bisher nicht vernünftig eingesetzt, aber das interessiert natürlich nicht :rolleyes:

hq-hq
2010-05-29, 20:21:53
hallo dr. freak 666, scroll ein bissl nach oben denn offenbar gibt es entwickler die sich die unigine engine lizenzieren liessen

DrFreaK666
2010-05-29, 20:26:04
hallo dr. freak 666, scroll ein bissl nach oben denn offenbar gibt es entwickler die sich die unigine engine lizenzieren liessen

Ja und?
Nutze z.B. UT2003 alle Möglichkeiten der Eingine?
Nur weil man eine Engine lizensiert hat heisst das noch lange nciht, dass man alle Möglichkeiten ausschöpfen wird.
Das scheinen alles kleine, unbekannte Entwickler zu sein.
Wieviel geld werden diese schon haben?

Schlammsau
2010-05-29, 20:30:35
für mich sieht es so aus als ob deine tess unit - auch mit fett oc - in unigine auf tesselation "normal" schon in den unspielbaren framebereich unter 20fps einbricht. :freak: -> was wir natürlich alle nicht wollen <- :freak:
Jo in einer Szene die komplett von oben bis unten tesseliert ist. :)
Wird so, praktisch also in Games, in den nächsten 1-2 Jahren nicht vorkommen.

mMn!

hq-hq
2010-05-29, 20:33:54
vielleicht bei einem bosskampf, riesenviech und tesselation schlägt voll durch ^^
gut kann man noch nicht wissen, aber ahnen.
z.b. crysis endkampf auf dem flugzeugträger mit dem alienship, extremer fps einbruch...
wer weiss ob es dann nicht ausschliesslich die ati user trifft ;)
nobody knows...

DrFreaK666
2010-05-29, 20:36:02
vielleicht bei einem bosskampf, riesenviech und tesselation schlägt voll durch ^^
gut kann man noch nicht wissen, aber ahnen.
z.b. crysis endkampf auf dem flugzeugträger mit dem alienship, extremer fps einbruch...
wer weiss ob es dann nicht ausschliesslich die ati user trifft ;)
nobody knows...

Ruckeln ist dann nur ein höherer Schwierigkeitsgrad. ^^
Nur Noobs spielen flüssig :D

hq-hq
2010-05-29, 20:41:55
eben, und im schlimmsten fall braucht man dann halt eine neue tastatur :freak:
bei mir sind das natürliche verluste, zwei drei stück im jahr :udevil:

DrFreaK666
2010-05-29, 20:46:06
eben, und im schlimmsten fall braucht man dann halt eine neue tastatur :freak:
bei mir sind das natürliche verluste, zwei drei stück im jahr :udevil:

Echt jetzt?? :freak:
Meine habe ich bestimmt schon seit 8 Jahren

hq-hq
2010-05-29, 20:52:19
seit dem ich keinen need for speed teil mehr spiele hab ich nur eine logitech zerstört....
und ähm meine "rollen" taste von meiner ersatztastur ist bereits auch schon zerbrochen.

jupp ich muss mir mal wieder zwei 7,50 euro logitechs kaufen!

smoother spielverlauf kann durchaus vor folgeschäden schützen! denkt mal darüber nach! :usweet:

ZipKaffee
2010-05-29, 20:53:29
Tesselation ist doch reine Zukunfts Musik! Bis dahin gibt schon wieder min. 2 neue Grafikkarten Generationen und Direct X11 wird endlich breit unterstützt...:wink:

hq-hq
2010-05-29, 21:01:53
nö du, schau dir mal diesen alten artikel an http://www.pcgameshardware.de/aid,696093/DirectX-11-im-Bildvergleich-Tessellation-in-Stalker-CoP-Dirt-2-und-AvP-Top-Artikel-Oktober-2009/Grafikkarte/News/

- > :uwave: < -

OgrEGT
2010-05-30, 10:10:00
Nö, man kauft sich Karten, weil man diese eine Weile behalten will.
Wer denkt, dass in dieser Zeit Tessellation wichtig wird, der kauft sich GF100. Wer alle 6 Monate wechselt, der muss sich mit solchen Fragen natürlich nicht quälen.

Kommt vielleicht auch darauf an, wann der nächste refresh des GF100 erscheint. Wenn man sich vorstellt, dass dieser bei gleicher Leistung eine wesentlich moderatere Stromaufnahme und damit verbunden geringere Lautstärke mit sich bringt, könnte ich mir vorstellen, dass auch einige der derzeitigen GF100 Besitzer überlegen werden zu wechseln.

Dann wäre es sicher sinnvoll gewesen, die erste Generation an GF100 zu überspringen.

Gibt es heirzu eigentlich schon Roadmaps, mit mehr Infos wann ein GF100 Refresh erscheinen wird?

Gast
2010-05-30, 10:19:56
So ein Refresh wird es nicht geben.
Kein Review gewinnt man mit sparsamer Hardware.
Der Refresh wird mehr leisten, vielleicht zusätzlich ein wenig sparsamer sein, als netter Nebeneffekt.

OgrEGT
2010-05-30, 10:30:03
So ein Refresh wird es nicht geben.
Kein Review gewinnt man mit sparsamer Hardware.
Der Refresh wird mehr leisten, vielleicht zusätzlich ein wenig sparsamer sein, als netter Nebeneffekt.

Warum nicht? Siehe HD5k. OK hier war noch eine gute Protion mehr Leisung mit dabei, bei geringerem Stromverbrauch.

Gast
2010-05-30, 10:39:31
Warum nicht? Siehe HD5k. OK hier war noch eine gute Protion mehr Leisung mit dabei, bei geringerem Stromverbrauch.

Dir ist aber schon klar, dass dem GF100 Refresh kein neuer Fertigungprozess zur Verfügung steht?
Woher soll die wundersame Leistungssteigerung kommen?

Gast
2010-05-30, 10:57:00
Warum nicht? Siehe HD5k. OK hier war noch eine gute Protion mehr Leisung mit dabei, bei geringerem Stromverbrauch.
Man hat viel verdoppelt und D3D11 Fähigkeit rangeklatscht.

Mit einem Shrink muss man bei GF100 nur mehr Einheiten ranklatschen und gut ist während bei RV870 das Design gut überarbeitet werden muss.
Der Shrink kommt natürlich irgendwann. Was du jedoch als Refresh bezeichnest nennen andere Generation, weil eine neue Zahl von steht.

OgrEGT
2010-05-30, 14:51:45
Dir ist aber schon klar, dass dem GF100 Refresh kein neuer Fertigungprozess zur Verfügung steht?
Woher soll die wundersame Leistungssteigerung kommen?

Mein ursprünglicher Gedanke ging ja auch nur von gleichbleibender Leistung (minimal höher vielleicht durch 512SPs) aus, bei deutlich gesenkter Leistungsaufnahme, was möglicherweise durch weitere Entwicklung des bestehenden Fertigungsprozesses möglich erscheint.

Du meintest ein solcher Refresh würde keinen Sinn machen, und deshalb nicht erscheinen, da deutliche Leistungssteigerungen nicht möglich wären.

Ich halte jedoch einen Refresh wie oben beschrieben nicht nur für möglich sondern für ziemlich nötig, da der nächste ATI Refresh in den Startlöchern steht. Kann es ja nicht sein, dass erst ab dem Zeitpunkt, wenn ein neuer Herstellprozess verfügbar wird (Anfang 2011), was eine Veröffentlichung für Mitte 2011 bedeuten würde, mit neuen Nvidia (Highend Single GPU-) Karten zu rechnen ist. Das ist mehr als ein Jahr ohne Innovation.

OgrEGT
2010-05-30, 15:03:08
Man hat viel verdoppelt und D3D11 Fähigkeit rangeklatscht.

Mit einem Shrink muss man bei GF100 nur mehr Einheiten ranklatschen und gut ist während bei RV870 das Design gut überarbeitet werden muss.
Der Shrink kommt natürlich irgendwann. Was du jedoch als Refresh bezeichnest nennen andere Generation, weil eine neue Zahl von steht.

Du darfst nicht Southern Island vergessen. Aus meiner Sicht psychologisch gesehen ein guter Schritt für ATI. Während NV noch an der verspäteten GF100 Serie herumdoktert, arbeitet ATI bereits am Refresh. Das bedeutet, dass wenn beide Hersteller auf 28nm gehen, hat ATI in der gleichen Zeit eine Serie (Sothern Island) mehr als NV veröffentlcht.

Die Überarbeitung des RV870 Designs erfolgt somit mit Southern Island, welcher aber auch schon Chipteile des Northern Island besitzen wird.

Mit Northern Island wird ATI dann eine neue Architektur veröffentlichen, mit wahrscheinlich bereits überarbeiteten Teilen, welche bereits im Southern Island zum Einsatz gekommen sind.

Somit wird ATI bereits einige Teil-Erfahrungen mit der Northern Island Architektur haben, sodass nicht mit dem Wechsel des Herstellprozesses gleich noch eine vollkommen unerprobte Architektur hinzu kommt.

Aus meiner Sicht eine vielversprechende Strategie, und weniger Risiko behaftet. Was es heißt, einen Chip mit komplett neuer Architektur auf neuem Herstellprozess mit bis dahin unereeichter Anzahl an Transistoren zu entwickeln, hat NV vorgemacht.

Iruwen
2010-05-30, 15:06:41
Warum nicht? Siehe HD5k. OK hier war noch eine gute Protion mehr Leisung mit dabei, bei geringerem Stromverbrauch.

Schonmal 'ne Grafikkartenverpackung gesehen auf der "BRAUCHT NUR 180W UNTER FURMARK!!1" steht? Das interessiert wirklich keinen, und von dem Anteil den es interessiert kann man wahrscheinlich nochmal die Hälfte abziehen die in der Umfrage nicht als Umweltsau dastehen wollten und sich im Endeffekt doch nicht drum scheren.

OgrEGT
2010-05-30, 15:11:56
Schonmal 'ne Grafikkartenverpackung gesehen auf der "BRAUCHT NUR 180W UNTER FURMARK!!1" steht? Das interessiert wirklich keinen, und von dem Anteil den es interessiert kann man wahrscheinlich nochmal die Hälfte abziehen die in der Umfrage nicht als Umweltsau dastehen wollten und sich im Endeffekt doch nicht drum scheren.

Es steht aber schon drauf, mit welcher typischen Leistungsaufnahme zu rechnen ist, und welches Netzteil empfohlen wird.

Zum zweiten Teil, deiner Anmerkung: Es gibt immer viele verschiedene Kaufinteressen. Manche davon Leistung pur, ohne Kompromiss, andere möglichst viel Leistung, bei möglichst geringer Leistungsaufnahme und damit geringerer Lautstärke. Ist Geschmackssache. Beides wird es geben.

Gast
2010-05-30, 15:42:21
Die Leistungsaufname ist doch gerade der Grund, warum sich Fermi kaum verkauft. Bzw. die Folgen der hohen Leistungsaufnahme => Hitze- und Geräuschentwicklung.

Ich könnte nicht einmal eine GTX 470 kaufen, wenn ich wollte. 30 Ampere auf der 12 V-Schiene meines 400 Watt-Enermax würden gerade so ausreichen und das NT enorm schnell verschleißen lassen. Ich habe es aber erst vor 2 Jahren gekauft und sehe gar nicht ein, wegen einer GPU das NT mitzuwechseln. :ucrazy: Vom Lärm einer solchen Karte ganz zu schweigen. Die lauteste Komponente in meinem PC ist der Noctua-Lüfter des NH-U12P mit 1.000 Umdrehungen und selbst das nervt mich so langsam.

180 Watt Furmark ist meine Grenze, also in etwa die HD 5870 Verlustleistung. Eine GTX 470 mit dieser Eigenschaft wäre spitze gewesen (dazu noch sowas wie den AMP-Edition-Kühler als Standard).

Gast
2010-05-30, 16:10:21
Du darfst nicht Southern Island vergessen. Aus meiner Sicht psychologisch gesehen ein guter Schritt für ATI. Während NV noch an der verspäteten GF100 Serie herumdoktert, arbeitet ATI bereits am Refresh. Das bedeutet, dass wenn beide Hersteller auf 28nm gehen, hat ATI in der gleichen Zeit eine Serie (Sothern Island) mehr als NV veröffentlcht.

Das ist Quatsch, die IHVs haben mehrere Designteams.
Paralellentwicklungen sind Normalität.


Aus meiner Sicht eine vielversprechende Strategie, und weniger Risiko behaftet. Was es heißt, einen Chip mit komplett neuer Architektur auf neuem Herstellprozess mit bis dahin unereeichter Anzahl an Transistoren zu entwickeln, hat NV vorgemacht.
Keineswegs.
nVidia hat vorgemacht, was passiert wenn man kein Plan B hat. Wenn die Fertigung dann Mist ist, kann man nichts machen. Wenn dann noch Fehler im Design sind, die dank schlechter Fertigung Monate unentdeckt bleiben, dann wirds noch unschöner.

40nm war kein Neuland, 40nm war lediglich mit mieserablem Yield verknüpft und der Plan B fehlte.
Entweder man hätte noch etwas aus 55nm rausgelockt oder einen kleinen 40nm Lückenfüller gebracht.


Zum zweiten Teil, deiner Anmerkung: Es gibt immer viele verschiedene Kaufinteressen. Manche davon Leistung pur, ohne Kompromiss, andere möglichst viel Leistung, bei möglichst geringer Leistungsaufnahme und damit geringerer Lautstärke. Ist Geschmackssache. Beides wird es geben.
Nur Leistung und Leistung im Kopf?
BQ*FPS oder Features sind doch weit interessanter.
Preis ist auch ein Punkt.


180 Watt Furmark ist meine Grenze, also in etwa die HD 5870 Verlustleistung. Eine GTX 470 mit dieser Eigenschaft wäre spitze gewesen (dazu noch sowas wie den AMP-Edition-Kühler als Standard).
http://ht4u.net/reviews/2010/gesamtvergleich_leistungsaufnahme_grafikkarten/index5.php

Sind eher 200W und seit in Furmark gedrosselt wird auch nicht mehr das wahre.

SamLombardo
2010-05-30, 16:34:43
Heaven ist kein Spiel.
3D mark ist kein Spiel
Stone Giant ist kein Spiel.
Das sind Benchmarks, die zeigen, dass Fermis mit extremer Tesselation schneller sind als die Konkurrenzkarten.
Tesselation wird bisher nicht vernünftig eingesetzt, aber das interessiert natürlich nicht :rolleyes:
Dass tessellation bisher noch nicht vernunftig eingesetzt wird ist schon richtig, nur: Die Benchmarks zeigen doch eindeutig die Richtung. Wer zum jetzigen Zeitpunkt eine Grafikkarte kauft und nicht alle 6 Monate zum neuesten High End Modell wechselt, ist nun mal mit der G100 besser beraten. Ich verstehe nicht wie man allen ernstes noch die aktuelle Radeon empfehlen kann. Das mag sich mit dem Southern Islands wieder ändern, wir werden sehen. Nur, wer zum jetzigen zeitpunkt eine Graka braucht und gedenkt die anderthalb bis 2 jahre zu behalten, der ist mit fermi besser dran. Wenn man objektiv rangeht kann man doch eigentlich nur zu diesem Ergebnis kommen.

Aber seit ich hier damals flammende "Empfehlungen" für die X800 gelesen habe, zu Zeiten wo die ersten games schon nicht mehr darauf liefen (SM3.0 only) wundert mich nicht mehr allzuviel.

Gruß Sam

OgrEGT
2010-05-30, 16:44:12
Das ist Quatsch, die IHVs haben mehrere Designteams.
Paralellentwicklungen sind Normalität.

Sicherlich wird parallel möglicherweise bereits an der GTX680 auf der einen Seite und auf der anderen an der HD7870 intern gearbeitet. Keine Frage. Ich hatte die jetzt unmittelbar folgenden Generationen gemeint.


Keineswegs.
nVidia hat vorgemacht, was passiert wenn man kein Plan B hat. Wenn die Fertigung dann Mist ist, kann man nichts machen. Wenn dann noch Fehler im Design sind, die dank schlechter Fertigung Monate unentdeckt bleiben, dann wirds noch unschöner.


:smile: Mit "vorgemacht" meinte ich auch nicht in bravouröser Manier.


Nur Leistung und Leistung im Kopf?
BQ*FPS oder Features sind doch weit interessanter.
Preis ist auch ein Punkt.


Klar, ich habe nur beispielhaft aufgezählt.

Gast
2010-05-30, 16:49:51
Sicherlich wird parallel möglicherweise bereits an der GTX680 auf der einen Seite und auf der anderen an der HD7870 intern gearbeitet. Keine Frage. Ich hatte die jetzt unmittelbar folgenden Generationen gemeint.

An der nächsten "Generation" wird ebenso parallel gearbeitet, wie an der darauf folgenden. :confused:

Außerdem, den Ingenieur im Labor kümmerts nicht wann der Release stattgefunden hat.

Bucklew
2010-05-30, 16:59:47
Du darfst nicht Southern Island vergessen. Aus meiner Sicht psychologisch gesehen ein guter Schritt für ATI. Während NV noch an der verspäteten GF100 Serie herumdoktert, arbeitet ATI bereits am Refresh.
Die Probleme von TSMC werden auch bei ATI nicht unwesentlich Ressourcen gebundelt haben.

Schlammsau
2010-05-30, 18:00:46
Dass tessellation bisher noch nicht vernunftig eingesetzt wird ist schon richtig, nur: Die Benchmarks zeigen doch eindeutig die Richtung. Wer zum jetzigen Zeitpunkt eine Grafikkarte kauft und nicht alle 6 Monate zum neuesten High End Modell wechselt, ist nun mal mit der G100 besser beraten. Ich verstehe nicht wie man allen ernstes noch die aktuelle Radeon empfehlen kann. Das mag sich mit dem Southern Islands wieder ändern, wir werden sehen. Nur, wer zum jetzigen zeitpunkt eine Graka braucht und gedenkt die anderthalb bis 2 jahre zu behalten, der ist mit fermi besser dran. Wenn man objektiv rangeht kann man doch eigentlich nur zu diesem Ergebnis kommen.

Aber seit ich hier damals flammende "Empfehlungen" für die X800 gelesen habe, zu Zeiten wo die ersten games schon nicht mehr darauf liefen (SM3.0 only) wundert mich nicht mehr allzuviel.

Gruß Sam

Im Moment zeigen nur theoretische Benchmarks und Demos die Richtung und zeigen was machbar ist!
In keinem bisher erschienenem DX11-Game limitiert die Tesselation Leistung der Radeon. Das ist Fakt!

Gast
2010-05-30, 18:14:17
Im Moment zeigen nur theoretische Benchmarks und Demos die Richtung und zeigen was machbar ist!
In keinem bisher erschienenem DX11-Game limitiert die Tesselation Leistung der Radeon. Das ist Fakt!


Wird auch in den nächsten mindestens 2 Jahren nicht passieren. Wie denn auch? Selbst Crysis 2 wird ein Konsolenport (und soll sowieso besser performen als Crysis 1).

Zudem ist Tess. überbewertet. Gibt sicher nützliche Anwendungsgebiete, um z. B. das Aufploppen von Objekten zu verhindern, aber der Unigine-Müll, indem der gesamte Bildschirm mit 5.000 Trilliarden Dreiecken gefüllt wird, wird in keinem Spiel Anwendung finden.

Schlammsau
2010-05-30, 18:23:51
Tess wird Verwendung finden. Mit Sicherheit wird es auch irgendwann mal sinnvoll eingesetzt werden. Aber bis dahin wird noch viel Zeit vergehen.

DrFreaK666
2010-05-30, 18:57:13
Dass tessellation bisher noch nicht vernunftig eingesetzt wird ist schon richtig, nur: Die Benchmarks zeigen doch eindeutig die Richtung. Wer zum jetzigen Zeitpunkt eine Grafikkarte kauft und nicht alle 6 Monate zum neuesten High End Modell wechselt, ist nun mal mit der G100 besser beraten. Ich verstehe nicht wie man allen ernstes noch die aktuelle Radeon empfehlen kann. Das mag sich mit dem Southern Islands wieder ändern, wir werden sehen. Nur, wer zum jetzigen zeitpunkt eine Graka braucht und gedenkt die anderthalb bis 2 jahre zu behalten, der ist mit fermi besser dran. Wenn man objektiv rangeht kann man doch eigentlich nur zu diesem Ergebnis kommen.

Aber seit ich hier damals flammende "Empfehlungen" für die X800 gelesen habe, zu Zeiten wo die ersten games schon nicht mehr darauf liefen (SM3.0 only) wundert mich nicht mehr allzuviel.

Gruß Sam

Vor einigen Tagen hat mich ein Kollege gefragt: Was für eine Grafikkarte bis 130€ kannst du mir empfehlen??
Welche Fermi hätte ich ihm da empfehlen sollen?? :wink:

Was ich damit sagen will: Nur die wenigsten geben gerne mehr als 250€ für eine Grafikkarte aus.

OgrEGT
2010-05-30, 19:28:20
Tess wird Verwendung finden. Mit Sicherheit wird es auch irgendwann mal sinnvoll eingesetzt werden. Aber bis dahin wird noch viel Zeit vergehen.

Hab gerade gesehen, dass ein Update für Heaven erschienen ist: Ver. 2.1.

Interessant ist in Bezug auf die Tesselation Einstellungen folgendes zu lesen:

http://unigine.com/products/heaven/

Zitat:

There are three tessellation modes available in this version of the benchmark:
Moderate Mode
This mode is targeted to provide reasonable performance on a wide range of DX11 hardware.
Normal Mode
Default mode available in the benchmark shows optimal quality-to-performance ratio. That's the way to achieve prominent visual difference with hardware tessellation technology.
Extreme Mode
It is designed to meet the perspectives of the next series of DX11-capable hardware pushing up the tessellation level to the extreme in the next 1-2 years.

Somit dürfte nun klar sein, wie Hardware Tesselation in der Extreme Einstellung zu werten ist.

DrFreaK666
2010-05-30, 19:31:29
Hab gerade gesehen, dass ein Update für Heaven erschienen ist: Ver. 2.1.

Interessant ist in Bezug auf die Tesselation Einstellungen folgendes zu lesen:

http://unigine.com/products/heaven/

Zitat:

There are three tessellation modes available in this version of the benchmark:
Moderate Mode
This mode is targeted to provide reasonable performance on a wide range of DX11 hardware.
Normal Mode
Default mode available in the benchmark shows optimal quality-to-performance ratio. That's the way to achieve prominent visual difference with hardware tessellation technology.
Extreme Mode
It is designed to meet the perspectives of the next series of DX11-capable hardware pushing up the tessellation level to the extreme in the next 1-2 years.

Somit dürfte nun klar sein, wie Hardware Tesselation in der Extreme Einstellung zu werten ist.

Normal-Mode reicht also anscheinend aus

Thunder99
2010-05-30, 21:45:44
Im Moment zeigen nur theoretische Benchmarks und Demos die Richtung und zeigen was machbar ist!
In keinem bisher erschienenem DX11-Game limitiert die Tesselation Leistung der Radeon. Das ist Fakt!
Metro 2033 vergessen? *hust* ;)

Gast
2010-05-30, 21:48:24
Metro 2033 vergessen? *hust* ;)

In Metro limitiert der VRam. Geh auf PCGH und suche nach dem HD 5870 2 GB-Test. Sie legt nur durch den höheren VRam bereits in 1680 x 1050 über 30 % zu und überholt damit sogar die GTX 470.

hq-hq
2010-05-30, 23:23:56
Somit dürfte nun klar sein, wie Hardware Tesselation in der Extreme Einstellung zu werten ist.

"normal" reicht um eine 5870 abnippeln zu lassen.

naja erstmal alles nicht so schlimm :freak:

schätze mal das sich die tesselation blabla die nächsten 10 jahre nicht wichtig blalba blalb "feststellung" in dem jahr noch auflösen wird :freak:

Savay
2010-05-30, 23:41:47
schätze mal das sich die tesselation blabla die nächsten 10 jahre nicht wichtig blalba blalb "feststellung" in dem jahr noch auflösen wird :freak:

warum sollte sie? weil urplötzlich 80% des zielmarktes eine GF100 besitzen und sie sich von alleine in den gehäusen materialisieren? :freak:

macht euch doch nichts vor! da passiert so schnell garnichts solange der DX11 markt insgesamt gesehen von ATI karten besser besetzt ist...nV fehlen da schlicht noch die entry und midrange lösungen...

und mal ganz ehrlich es hat ja wohl grade mal die hälfte der nutzer eine DX10 karte samt DX10+ tauglichem OS.
wo eine derart urplötzliche verschiebung im markt herkommen soll, die haufenweise highend tesselation games nach sich zieht, erschließt sich mir nicht so recht.

das ganze mag nicht so lange dauern wie mit TnL seinerzeit aber 1,5 jahre werden da mindestens noch ins land ziehen bis es einen cypress nur aufgrund des tesselationsgrades vom hocker haut. :)

hq-hq
2010-05-30, 23:49:18
savay, es hat doch nur damit zu tun das es schon einen ganze zeitlang möglich ist es zu nutzen.
kürzlich kamen die ersten games raus die es nur auf wenige objekte einsetzen... was wird wohl als
nächstes kommen.

Bucklew
2010-05-30, 23:49:40
schätze mal das sich die tesselation blabla die nächsten 10 jahre nicht wichtig blalba blalb "feststellung" in dem jahr noch auflösen wird :freak:
Es reicht völlig bis zu den ersten Benchmarks einer ATI-Generation, die Tessellation beherrscht. Dann ist es das ÜBERfeature!!!

Savay
2010-05-30, 23:57:58
kürzlich kamen die ersten games raus die es nur auf wenige objekte einsetzen... was wird wohl als
nächstes kommen.

das schon...nur kann es sich in der heutigen zeit kein spiele entwickler leisten zum teil an der ziel gruppe vorbei zu entwickeln...es hat doch seinen grund warum die meisten titel cross-plattform sind.

wie groß ist wohl die gruppe der DX11 nutzer?! wie groß ist davon der anteil der Fermis?! wie hoch wird der anteil sein wenn nV erstmal die midrange DX11 generation veröffentlicht hat?

und ganz wichtig...ein tesselations grad der einem GF100 schmeckt muss noch lange nicht auf einem GF104 usw gut performen :smile:

was unter umständen passieren wird ist das es mehrere tesselationsgrade in den spielen anwählbar sein werden!
jedoch anzunehmen das urplötzlich eine flut an DX11 titeln mit super duper high end tesselation aufschlagen, die mit einem cypress unspielbar sind auf einem GF100 aber sahne laufen, halte ich für einen etwas zu optimistischen trugschluss :)

hq-hq
2010-05-30, 23:58:56
@Bucklew :whisper: ich glaub ja fast die cypress käufer wollen gar nicht das tesselation so richtig kommt... ich meine deutlich negative schwingungen zu vernehmen wenn ati und tesselation in einem satz fallen...

Savay
2010-05-31, 00:02:18
ich meine deutlich negative schwingungen zu vernehmen wenn ati und tesselation in einem satz fallen...

:uconf3: ja ne is klar...made my day. ;D

hq-hq
2010-05-31, 00:07:07
gern geschehen ;)

aja übrigens, um meine "binnen der nächsten 7 monate theorie" zu untermauern hier ein beispiel
http://www.pcgames.de/Primal-Carnage-PC-234123/News/Primal-Carnage-Neue-Raptor-Bilder-zum-Koop-Shooter-erschienen-704461/

Savay
2010-05-31, 00:20:36
naja das ein unigine engine spiel den fokus stark auf tesselation setzt ist ja zu erwarten ;)
die Q3 engine spiele haben seinerzeit ja auch an jeder kante die (überschätzten) curved surfaces überstrapaziert.

wie der leistungsverlust dann in dem spiel aussieht wird sich zeigen.
sollte es ein humiliating defeat werden können sich ja alle cypress käufer in die ecke stellen und dicke dino...äh krokodiltränen vergießen. ;)

und was die entwicklung im gesamtmarkt angeht möchte ich gerne folgendes zitat platzieren:
"ob du richtig stehst siehst du wenn das licht an geht!" :biggrin:

in diesem sinne wünsche ich allen eine gute nacht :cool:

Bucklew
2010-05-31, 00:39:10
wie groß ist wohl die gruppe der DX11 nutzer?! wie groß ist davon der anteil der Fermis?! wie hoch wird der anteil sein wenn nV erstmal die midrange DX11 generation veröffentlicht hat?
Wie groß war der Anteil der TnL-fähigen Grafikkarten der ersten Generation? Und wie schnell war das Feature dann plötzlich überall? ;)

Dennoch sollte man doch mal festhalten, dass es ziemlich peinlich für ATI ist, dass die ersten wirklichen Tessellation Demos und Spiele (weil jetzt DX11) viel besser auf Nvidia laufen, nachdem ATI selbst jahrelang die Werbetrommel dafür gerührt hat.

mapel110
2010-05-31, 00:41:29
Wie groß war der Anteil der TnL-fähigen Grafikkarten der ersten Generation? Und wie schnell war das Feature dann plötzlich überall? ;)
Hat jedenfalls Ewigkeiten gedauert. Unreal Tournament war das erste Game, dass T&L vorausgesetzt hat und das etwa 3 oder 4 Jahre später. Dagegen gings ja bis jetzt schon extrem schnell mit Tessellation.

Gast
2010-05-31, 07:02:43
Dennoch sollte man doch mal festhalten, dass es ziemlich peinlich für ATI ist, dass die ersten wirklichen Tessellation Demos und Spiele (weil jetzt DX11) viel besser auf Nvidia laufen, nachdem ATI selbst jahrelang die Werbetrommel dafür gerührt hat.

ALLE DX11 Spiele laufen auf AMD Karten auch mit Tesslation ausgezeichnet. Es sind ausschließlich zwei Techdemos an denen sich die NV-Jünger hochziehen. :lol:

Schrotti
2010-05-31, 08:40:25
ALLE DX11 Spiele laufen auf AMD Karten auch mit Tesslation ausgezeichnet. Es sind ausschließlich zwei Techdemos an denen sich die NV-Jünger hochziehen. :lol:


Aha.

Darum verliert die ATI Reihe auch massiv wenn es um DX11 geht ja?

http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033

Gast
2010-05-31, 08:43:57
Aha.

Darum verliert die ATI Reihe auch massiv wenn es um DX11 geht ja?

http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033

Bei Metro liegt es einzig und alleine am VRAM. Die 2GB Version liegt nur knapp hinter der GTX480, das wurde schon hunderte male durchgekaut.

Gast
2010-05-31, 08:48:37
Aha.

Darum verliert die ATI Reihe auch massiv wenn es um DX11 geht ja?

http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033

Hier sieht man deutlich wie die 2GB Version in Metro zulegt:
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/

Und hier wie sie liegt:
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html

Schrotti
2010-05-31, 09:43:54
Hier sieht man deutlich wie die 2GB Version in Metro zulegt:
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/

Und hier wie sie liegt:
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html

Das is nen Argument.

Fetter Fettsack
2010-05-31, 09:52:10
Dennoch sollte man doch mal festhalten, dass es ziemlich peinlich für ATI ist, dass die ersten wirklichen Tessellation Demos und Spiele (weil jetzt DX11) viel besser auf Nvidia laufen, nachdem ATI selbst jahrelang die Werbetrommel dafür gerührt hat.

Wieso denn peinlich? Ich sehe kein Problem darin, dass bei einer "selbstgemachten" Demo man nicht immer selber der Schnellste ist. So ist das doch immer irgendwann einmal so, (Nein, bevor wieder alle Sturm laufen, das ist KEINE Abwertung der nVidia-Ergebnisse) vielmehr zeigt es, wie ich finde, dass die Demos wohl nicht nur für Radeonkarten gemacht wurden.

LovesuckZ
2010-05-31, 11:03:15
Dennoch sollte man doch mal festhalten, dass es ziemlich peinlich für ATI ist, dass die ersten wirklichen Tessellation Demos und Spiele (weil jetzt DX11) viel besser auf Nvidia laufen, nachdem ATI selbst jahrelang die Werbetrommel dafür gerührt hat.

Peinlich ist es vielmehr, dass nVidia im ersten Anlauf nach dem GF3 eine Implementierung vorgenommen hat, die soviel besser ist als die von AMD.
AMD hat hier einen ziemlichen CineFX geschossen. Eigentlich ziemlich ironisch, wenn man sich zurück errinnert, was alles letztes Jahr so über nVidia und Tessellation erzählt wurde.

Wieso denn peinlich? Ich sehe kein Problem darin, dass bei einer "selbstgemachten" Demo man nicht immer selber der Schnellste ist. So ist das doch immer irgendwann einmal so, (Nein, bevor wieder alle Sturm laufen, das ist KEINE Abwertung der nVidia-Ergebnisse) vielmehr zeigt es, wie ich finde, dass die Demos wohl nicht nur für Radeonkarten gemacht wurden.

AMD's Tessellationleistung ist so schlecht, dass nur AMD alleinig schuld ist. Wenn es einen theoretischen Unterschied von fast 8x gibt, dann kann man sich ja ausmalen, wie Demos und Spiele programmiert werden müssten, um keinen erheblichen Unterschied aufzuweisen.
Davon abgesehen kommen die D3D11 Tessellations SDK Demos von AMD und Unigine's Heaven 1.0 wurde in Zusammenarbeit mit AMD entwickelt und von ihnen promotet.

Bucklew
2010-05-31, 11:12:59
ALLE DX11 Spiele laufen auf AMD Karten auch mit Tesslation ausgezeichnet. Es sind ausschließlich zwei Techdemos an denen sich die NV-Jünger hochziehen. :lol:
Das Problem ist nur: Was heute als irrelevant weil Techdemo abgetan wird, ist morgen normale Vorraussetzung bei Games.

Wieso denn peinlich? Ich sehe kein Problem darin, dass bei einer "selbstgemachten" Demo man nicht immer selber der Schnellste ist.
Wenn man behauptet jahrelange Tessellation-Erfahrung zu haben und dann im ersten richtigen Vergleich sofort von der Konkurrenz ohne diese Erfahrung geschlagen zu werden, ist schon ziemlich peinlich. Hätte man sich die Tessellatorimplementierung für r600+r700 auch komplett sparen können.

Gast
2010-05-31, 11:15:58
AMD hat hier einen ziemlichen CineFX geschossen.


Es reicht für alle aktuellen DX11 Spiele, das war damals bei CineFX gaaaaanz anders. Du darfst dich weiter an deinen Tech-Demos erfreuen. :)



Davon abgesehen kommen die D3D11 Tessellations SDK Demos von AMD

SDK Demos von AMD? Du hast doch eine Knall. :ugly:
Die kommen natürlich von Microsoft.

Gast
2010-05-31, 11:18:28
Das Problem ist nur: Was heute als irrelevant weil Techdemo abgetan wird, ist morgen normale Vorraussetzung bei Games.


Morgen = in 5 Jahren?
Mit einer HD5000 wird man zu Lebzeiten nichts falsch machen. Es hat sich in der Vergangenheit schon etliche male gezeigt das es sinnlos ist eine Karte für die Zukunft zu kaufen. AMD hält annähernd 100% des DX11-Marktes, ein DX11-Spiel das eine HD5 in die Knie zwingt ist alleine schon deshalb vollkommen absurd.

deekey777
2010-05-31, 11:53:02
Morgen = in 5 Jahren?
Mit einer HD5000 wird man zu Lebzeiten nichts falsch machen. Es hat sich in der Vergangenheit schon etliche male gezeigt das es sinnlos ist eine Karte für die Zukunft zu kaufen. AMD hält annähernd 100% des DX11-Marktes, ein DX11-Spiel das eine HD5 in die Knie zwingt ist alleine schon deshalb vollkommen absurd.
Morgen = nie.

Niemand, aber wirklich niemand (gerade wegen der Konsolen) wird ein Spiel veröffentlichen, in dem eine Treppe bloß eine Schräge ist und nur durch die Tesselltation Stufen zu sehen sind. Oder angemalte Pflastersteine, die erst durch die Tessellation zu Pflastersteinen werden. Oder angemalte Dächer... Die Liste des Unsinns, den man in Heaven sieht, ist sehr lang. Kein Spielehersteller wird so etwas machen. Warum? Weil er sein Spiel damit ruiniert.

Klingone mit Klampfe
2010-05-31, 12:13:18
Was heute als irrelevant weil Techdemo abgetan wird, ist morgen normale Vorraussetzung bei Games.


Ich frage mich immer, von welchen "Games" hier immer gesprochen wird. Listet sie doch einfach einmal auf, die tollen DX11-Spiele die für 2010/2011 angekündigt sind.

derguru
2010-05-31, 12:13:26
Morgen = nie.

Niemand, aber wirklich niemand (gerade wegen der Konsolen) wird ein Spiel veröffentlichen, in dem eine Treppe bloß eine Schräge ist und nur durch die Tesselltation Stufen zu sehen sind. Oder angemalte Pflastersteine, die erst durch die Tessellation zu Pflastersteinen werden. Oder angemalte Dächer... Die Liste des Unsinns, den man in Heaven sieht, ist sehr lang. Kein Spielehersteller wird so etwas machen. Warum? Weil er sein Spiel damit ruiniert.


wie hier:freak:

http://www.abload.de/img/tessonwr6q.jpg

http://www.abload.de/img/tessoffesrq.jpg

MR2
2010-05-31, 12:18:29
Und ehe es "Morgen" ist, kann man Southern Islands oder NI kaufen.

LovesuckZ
2010-05-31, 12:25:54
wie hier:freak:

http://www.abload.de/img/tessonwr6q.jpg

http://www.abload.de/img/tessoffesrq.jpg

Kannst du erklären, was du zeigen willst? Ich sehe dort, dass Fake-Illusionen nicht mit richtiger, vorhandener Geometrie mithalten kann.

Vorallem wäre es wirklich nett, wenn du eine Alternative anbieten könntest. Wie ich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8026814&postcount=5673) zeigte, benutzt Stone Giant eben schon Techniken, um "vorhandene" Geometrie zu faken.

deekey777
2010-05-31, 12:29:38
Und ehe es "Morgen" ist, kann man Southern Islands oder NI kaufen.
Selbst wenn die SI wirklich morgen kommen, ändert das Nichts an Heute:
Die Tessellation der Immergrünen wird durch einen Flaschenhals extremst ausgebremst. Das zeigen alle Techdemos.
Blöd nur, dass diese Techdemos nichts mit der Realität zu tun haben, was aber für die grünen Viren egal ist. Die Tessellation wird nur dann zum Problem, wenn sie genau wie GPU-PhysX eingesetzt wird, also für jeden Mist und ohne viel Verstand.

Gast
2010-05-31, 12:33:20
wie hier:freak:


HAHAHA, gibt sogar ein Spiel in dem Treppen mit solchen Texturen gefaked werden:
Das 8 Jahre alte Dark Age of Camelot (nach dem Keep-Update)! :D
http://www.youtube.com/watch?v=oRX0GwX9hZw

N0Thing
2010-05-31, 13:03:46
Auch in Mass Effect sind Treppen auch nicht aus echter Geometrie und das ist keine acht Jahre alt.


E:\ Zumindest nicht alle.

PulsarS
2010-05-31, 13:08:48
AMD's Tessellationleistung ist so schlecht, dass nur AMD alleinig schuld ist.
Nö, ist sie nicht :tongue:
Was veranlasst dich zu dieser Annahme?
Nur weil der GF100 so super gut bei der Tesselation abschneidet, bedeutet das noch lange nicht, dass AMDs Tesselationsleistung schlecht ist.
Dein großer Fehler ist es Tesselation isoliert zu betrachten.
Das funktioniert aber so nicht bei Gameengines.
Genauso wichtig ist auch die Texelleistung für gute Tesselation.

Die 5000er Serie hat schon genug Tess-Power.
Da werden ganz andere Sachen limitieren.
Die Techdemos sagen nichts über die DX11-Performance aus, weil hier Tesselation eben isoliert betrachtet wird.

Ich frage mich warum AMD sich veranlasst fühlt nachzulegen.
Ist imo nicht nötig.

SamLombardo
2010-05-31, 13:11:10
Und ehe es "Morgen" ist, kann man Southern Islands oder NI kaufen.
Mag ja sein. Das ändert aber nichts daran, das heute die HD 5... nicht mehr die karte ist die man im Preissegment über 300€ empfehlen kann. (Es sei denn man hat vor, in 3 Monaten sowieso wieder zu wechseln.)


Die 5000er Serie hat schon genug Tess-Power.

Das wird sich zeigen. Warte mal Endes des Jahres ab, wenn der Southern Islands sowie eine größere Basis an Tess Games da ist. Mal sehen ob diese gewagte Aussage dann immer noch aufrecht erhalten wird. Ich glaube das nicht.

Gast
2010-05-31, 13:15:59
Mag ja sein. Das ändert aber nichts daran, das heute die HD 5... nicht mehr die karte ist die man im Preissegment über 300€ empfehlen kann. (Es sei denn man hat vor, in 3 Monaten sowieso wieder zu wechseln.)

Und genau das ist Blödsinn. Siehe die ganzen Kommentare über mir.

LovesuckZ
2010-05-31, 13:19:02
Das wird sich zeigen. Warte mal Endes des Jahres ab, wenn der Southern Islands sowie eine größere Basis an Tess Games da ist. Mal sehen ob diese gewagte Aussage dann immer noch aufrecht erhalten wird. Ich glaube das nicht.

Aussage ist auch lächerlich^3, dass Cypress' Tessellation gut genug wäre.
Der Dreiecksdurchsatz mit Tessellation ist geringer als der Dreiecksdurchsatz der vorigen Karten. Wenn hier also jemand meint, dass dies "genug wäre", dann stellt sich mir die Frage, wieso man die Setup-Engine in Vergangenheit weiter verbessert hat.

Die GTX480 kann mit Tessellation immer noch 2x soviele Dreiecke/s erzeugen als Cypress ohne Tessellation. Soviel dazu, dass Cypress' Leistung genug wäre.

derguru
2010-05-31, 13:19:28
Mag ja sein. Das ändert aber nichts daran, das heute die HD 5... nicht mehr die karte ist die man im Preissegment über 300€ empfehlen kann. (Es sei denn man hat vor, in 3 Monaten sowieso wieder zu wechseln.)
ach was,welche ist denn zu empfehlen und vorallem wieso nicht?
Das wird sich zeigen. Warte mal Endes des Jahres ab, wenn der Southern Islands sowie eine größere Basis an Tess Games da ist. Mal sehen ob diese gewagte Aussage dann immer noch aufrecht erhalten wird. Ich glaube das nicht.
welche tessgames denn,hab noch gar nichts von gehört?

ich kann nur hoffen das amd nicht ganz so blöd ist und nicht alles auf eine karte setzt wie nv mit ihren verschwenderischen tesseinheiten.

Gast
2010-05-31, 13:34:13
Aussage ist auch lächerlich^3, dass Cypress' Tessellation gut genug wäre.
Der Dreiecksdurchsatz mit Tessellation ist geringer als der Dreiecksdurchsatz der vorigen Karten. Wenn hier also jemand meint, dass dies "genug wäre", dann stellt sich mir die Frage, wieso man die Setup-Engine in Vergangenheit weiter verbessert hat.

Die GTX480 kann mit Tessellation immer noch 2x soviele Dreiecke/s erzeugen als Cypress ohne Tessellation. Soviel dazu, dass Cypress' Leistung genug wäre.

Theoretische Zahlen sind schön und gut, bringen aber nichts. Ich habe mit einer 5870 in keinem Spiel durch Tesslation einen Einbruch den ich als unangemessen bezeichnen würde. Einzig die bekannten Techdemos hauen rein. Damit kann ich gut leben. Für mich ist das gut genug. :)

PulsarS
2010-05-31, 13:36:02
Das wird sich zeigen. Warte mal Endes des Jahres ab, wenn der Southern Islands sowie eine größere Basis an Tess Games da ist. Mal sehen ob diese gewagte Aussage dann immer noch aufrecht erhalten wird. Ich glaube das nicht.
Bis Ende des Jahres wird das eh nix.
Zumindest nicht mit vernüntiger Implementierung.
Ich bleibe bei meiner Aussage.

ich kann nur hoffen das amd nicht ganz so blöd ist und nicht alles auf eine karte setzt wie nv mit ihren verschwenderischen tesseinheiten.
Das hoffe ich auch.
Sieht für mich zur Zeit aber leider fast so aus. :freak:

Aussage ist auch lächerlich^3, dass Cypress' Tessellation gut genug wäre.
Der Dreiecksdurchsatz mit Tessellation ist geringer als der Dreiecksdurchsatz der vorigen Karten. Wenn hier also jemand meint, dass dies "genug wäre", dann stellt sich mir die Frage, wieso man die Setup-Engine in Vergangenheit weiter verbessert hat.
Du tust immer so, als ob die Games nur Geometrie-limitert wären... :rolleyes:

SamLombardo
2010-05-31, 13:50:58
ach was,welche ist denn zu empfehlen und vorallem wieso nicht?

Damit ich nicht alles nochmal tippe zitiere ich mich mal selber. Wie gesagt, meine Meinung.
Ich hab mich für die GTX 470 entschieden aus folgenden Gründen: Sie ist in den Spielen die ich spiele genauso schnell/schneller als die Ati. Dass sie in den alten DX9 Games teilweise langsamer ist juckt mich nicht, da die FPS eh hoch genug sind. (20 zu 30 fps in einem DX11 Game sind weit wichtiger als 80 zu 70 fps in einem DX9 Spiel). Ob der Abstand in zukünftigen Games noch größer wird weiß natürlich niemand - Die Chancen stehen aber nicht schlecht. Also warum diese Möglichkeit außen vor lassen...Silentfetischist bin ich nicht und den Stromverbrauch finde ich auch übertrieben bewertet, wer 350€ und mehr für ne Graka ausgibt hat auch die +10€ Stromkosten im Jahr übrig. Dazu die genannten Dinge wie PhysX Cuda usw. Diese hätten für sich allein keine Relevanz für mich, im Gesamtpaket stehen sie aber doch auf der Habenseite. Die knapp 30 Prozent mehr an Speicher kann auch nicht verkehrt sein.
Ich denke die GTX 470 ist ein rundes Gesamtpaket für User wie mich. Irgendwie witzig, dass meine erste NV Karte seit 6 Jahren ausgerechnet der vielgescholtene Fermi ist. Insgesamt hat er mir doch mehr zugesagt als die aktuellen Atis. Man bekommt die deutlich höhere Tesselation/DX11 Leistung quasi zum selben Preis dazu. Wenn es was bringt ist es schön (was ich ehrlich gesagt noch in diesem Jahr glaube...man wird sehen), wenn nicht wars auch nicht teurer. Die immer wieder zitierten Nachteile sind für mich eher zweitrangig.

Meine Meinung ist, dass man jemandem, der heute eine neue Graka kauft und bereit ist 300+€ auszugeben, den Fermi durchaus empfehlen kann. Tessellation ist leicht zu implementieren und wird kommen, schneller als so mancher hier denkt(wünscht?). Und das selbst in Multiplattformspielen siehe Metro. Sicherlich am Anfang "nice to have" und nicht "must have", aber dennoch! Deshalb würde ich die beispielsweise die GTX 470 der HD 5870 vorziehen. In heutigen Titeln ist sie gleich auf und für zukünftige Spiele (deutlich?...man wird sehen) besser gerüstet. Und das ist ganz sicher keine "ferne" Zukunft, wohin die Richtung geht zeigt sich ja jetzt schon.

Die Diskussion um Tesselation erinnert mich ein bisschen an die Diskussion damals um SM3.0 - Das war für die ATi Fans auch soooowas von überflüssig, selbst als es die ersten Games als min. Vorraussetzung hatten...bis dann die ersten Ati Karten kamen die es gut konnten, da änderte sich schlagartig die Meinung über die Bedeutung von SM3.0. Mit Tesselation wird es genauso sein soviel ist sicher.

Mein bescheidene Meinung und kein Fanboygelaber(... ich hatte die letzten 6 Jahre Ati Karten und werd auch sicher in Zukunft mal wieder welche haben.) Aktuell halte ich die NV für die besseren Karten, in Punkto Preis-Leistung im High End Segment speziell die GTX470)

PulsarS
2010-05-31, 13:55:13
Damit ich nicht alles nochmal tippe zitiere ich mich mal selber. Wie gesagt, meine Meinung.
Tessellation ist leicht zu implementieren und wird kommen, schneller als so mancher hier denkt(wünscht?)
:nono:
Dass Tesselation leicht zu implemtieren wäre, haben sich wohl auch einige Spielhersteller gedacht, hehe.
Und dabei ist viel Müll rausgekommen.

Bandit3644
2010-05-31, 14:20:28
ich stimme SamLombardo eigendlich schon zu. würde ich heute vor der wahl stehen gtx 470 oder hd 5870 würde ich mich wohl auch für ne gtx 470 entscheiden.
warum??? ganz leicht zu beantworten sie ist eine ganze ecke günstiger. habe damals meine hd 5870 zum launch für 300 taken bekommen so wie das mal vorgesehen war. würde ich die heute kaufen müsste ich 390 bezahlen und da wäre man ja schön blöd wenn es eine gtx 470 für 310 gibt. verbrauch ist mir total wurscht, und ich glaube keinem der sich ab 250 euro aufwärts eine graka kauft wegen ein paar watt rumheult.

PulsarS
2010-05-31, 14:25:56
@Bandit3644

das Hauptproblem ist die Lautstärke.

Bandit3644
2010-05-31, 14:27:29
@Bandit3644

das Hauptproblem ist die Lautstärke.

woher hast du die weisheit???

besitzt du eine 470 oder schon mal live gesehen???

PulsarS
2010-05-31, 14:29:50
woher hast du die weisheit???

besitzt du eine 470 oder schon mal live gesehen???
Ich brauche mir nur die Sone-Werte anzusehen.

derguru
2010-05-31, 14:29:51
@SamLombardo
ich finde das ist eine klassische fehleinschätzung das du denkst eine zukunftsorientierte karte(sowas gibt es gar nicht) gekauft zu haben.aber wenn dich lautstärke und die insgesamt ~10% weniger leistung(bei sgssaa deutlich mehr) nicht großartig stören bitte.

Bandit3644
2010-05-31, 14:35:13
Ich brauche mir nur die Sone-Werte anzusehen.

einen test lesen und einen selbstest zu machen ist eine andere sache
hatte für testzwecke gehabt die einem freund gehört und die 470 ist nicht lauter wie ne 260 im ref. also das argument das die 470 so laut ist befinde ich nicht für haltbar.

PulsarS
2010-05-31, 14:36:53
@SamLombardo
ich finde das ist eine klassische fehleinschätzung das du denkst eine zukunftsorientierte karte(sowas gibt es gar nicht) gekauft zu haben.
Hat es aber schon mal gegeben.
R3x0.
War einem NV30/35 für die Zukunftsplannung meilenweit überlegen.
Zur Zeit sind die Unterschiede in den relevanten Bereichen aber vernachlässigbar.

PulsarS
2010-05-31, 14:38:41
einen test lesen und einen selbstest zu machen ist eine andere sache
hatte für testzwecke gehabt die einem freund gehört und die 470 ist nicht lauter wie ne 260 im ref. also das argument das die 470 so laut ist befinde ich nicht für haltbar.
Kommt drauf an, was du als laut empfindest.
Wenn über 3 Sone für dich noch ok sind, dann kann ich deine Einstellung verstehen.
Auf viel Verständnis wirst du damit sicherlich nicht stoßen.

derguru
2010-05-31, 14:48:59
einen test lesen und einen selbstest zu machen ist eine andere sache
hatte für testzwecke gehabt die einem freund gehört und die 470 ist nicht lauter wie ne 260 im ref. also das argument das die 470 so laut ist befinde ich nicht für haltbar.
warum ist das eine andere sache?bist du qualifizierter als die reviewer mit den messgeräten?bei lautstärke kann man sich user erfahrungen meist sparen weil jeder eine andere wahrnehmung hat vorallem beim neukauf.:wink:
Hat es aber schon mal gegeben.
R3x0.
War einem NV30/35 für die Zukunftsplannung meilenweit überlegen.
Zur Zeit sind die Unterschiede in den relevanten Bereichen aber vernachlässigbar.
jo genau wie der g80 aber das war einmal,die 470 oder 5870 hat bei heutigen titeln schon zu kämpfen.(stalker,crysis,metro2033)

Bandit3644
2010-05-31, 14:52:09
Kommt drauf an, was du als laut empfindest.
Wenn über 3 Sone für dich noch ok sind, dann kann ich deine Einstellung verstehen.
Auf viel Verständnis wirst du damit sicherlich nicht stoßen.

was die lautstärke angeht liegt die 470 im bereich der 280 und ich kann mich nicht erinnern das beim launch der 280 so ein geheule oder besser gesagt so eine diskussion entstanden ist. ich habe als gehäuse eine antec 1200 mit 6x120 läftern einen 250 und nochmal einen 120 auf der cpu. trotz silentlüftern ist ein entspanntes rauschen zu höhren und ich höhre die 5870 oder 470 nur bei extremer last wie furmark heraus.

PulsarS
2010-05-31, 14:56:52
Furmark interessiert keine Sau, weil niemand Furmark spielt.
Und falls du die Referenz-5800er ansprichst, dann sind die auch viel zu laut.
Die Customs sind deutlich besser.
Über 3 Sone ist inakzeptabel.

Bandit3644
2010-05-31, 14:57:08
[QUOTE=derguru;8058264]warum ist das eine andere sache?bist du qualifizierter als die reviewer mit den messgeräten?bei lautstärke kann man sich user erfahrungen meist sparen weil jeder eine andere wahrnehmung hat.

im idle liegt die 470 bei 0,9 sone was ja wohl ok ist. und die 5870 macht beim gamen 3,3 sone und bei furmark 5,1 sone da mault ja auch keiner rum.

Bandit3644
2010-05-31, 15:00:09
Furmark interessiert keine Sau, weil niemand Furmark spielt.
Und falls du die Referenz-5800er ansprichst, dann sind die auch viel zu laut.
Die Customs sind deutlich besser.
Über 3 Sone ist inakzeptabel.

ich bin weder pro/contra amd/nvidia eingestellt aber das ist doch haarspalterei, beim gamen hab ich kopfhörer auf oder das soundsystem an. spielst du ohne??:rolleyes:

derguru
2010-05-31, 15:01:08
[QUOTE=derguru;8058264]
im idle liegt die 470 bei 0,9 sone was ja wohl ok ist. und die 5870 macht beim gamen 3,3 sone und bei furmark 5,1 sone da mault ja auch keiner rum.
was beim 5870 ref unter furmark ist,ist bei der 470 in spielen.:rolleyes:

PulsarS
2010-05-31, 15:01:45
ich bin weder pro/contra amd/nvidia eingestellt aber das ist doch haarspalterei, beim gamen hab ich kopfhörer auf oder das soundsystem an. spielst du ohne??:rolleyes:
Nein, aber bei leisen Passagen höre ich über ca 2,5 Sone auch mit Kopfhörern.

Bandit3644
2010-05-31, 15:06:31
[QUOTE=Bandit3644;8058287]
was beim 5870 ref unter furmark ist,ist bei der 470 in spielen.:rolleyes:

nicht ganz da ist die 5870 schon 0,4 sone lauter:rolleyes:
bin mit meiner 5870 ja auch zufrieden und würde sie auch nicht tauschen,
was die lautstärke der karten angeht finde ich das nicht so schlimm aber das muss ja jeder für sich selbst entscheiden

Iruwen
2010-05-31, 15:44:04
http://www.guru3d.com/news/geforce-gtx-480-noise-levels-debunked/

Triffts. Messwerte sind einfach nicht alles, positives oder negatives Hörempfinden hängt längst nicht nur von der Lautstärke ab.

Bandit3644
2010-05-31, 15:45:15
"normal" reicht um eine 5870 abnippeln zu lassen.

naja erstmal alles nicht so schlimm :freak:

schätze mal das sich die tesselation blabla die nächsten 10 jahre nicht wichtig blalba blalb "feststellung" in dem jahr noch auflösen wird :freak:

würde gern mal wissen wo bei dir die 5870 abnippelt?????

9550 @ 3,74 - GTX 470 @ 700/1400/1700
19x12 NoAA 16x AF - Shaders @ high - Tessellation @ normal
D3D11
FPS: 38.7
Scores: 974
Min FPS: 3.8
Max FPS: 74.3

im vergleich

9550 @ 2,83 - HD 5870 @ 850/1200
1680x1050 NoAA 16x AF - Shaders @ high - Tessellation @ normal
D3D11
FPS: 36,5
Scores: 920
Min FPS: 11,2
Max FPS: 99,2

SamLombardo
2010-05-31, 17:13:47
In diesem test ist "abnippeln" vielleicht das falsche Wort, aber die 470 ist schon schneller. Sie hat immerhin satte 30,6 Prozent mehr an Pixeln zu berechnen (1920x1200 vs 1680x1050) und ist trotzdem schneller als die Radeon.;) Außerdem: Schon klar, dass es "nur ein benchmark" ist. Die Richtung zeigt er aber durchaus. (bin auch schon mal gespannt wie sich die GTX 4... und HD5... im 3D Mark 11 machen)

@ derguru, ich merk schon wir drehen uns im Kreis. Lass uns einfach abwarten wie sich die Sache entwickelt. Wenn es sich wirklich als Fehleinschätzung entpuppen sollte - so what. Ich glaube es aber nicht:wink:

Gruß Sam

Byteschlumpf
2010-05-31, 18:16:54
Fermi ist ja auch auf DX11 besser ausgelegt, als Cypress wo DX11 quasi nur drangepappt wurde. Bezüglich der Energiebilanz ist Fermi dagegen katastrophal!
Hätte AMD/ATI jedoch den Energieverbrauch der HD5kler Modelle gegenüber den HD4klern drastisch erhöht, wäre Cypress untragbar gewesen!

Der GT200/b ist mir nachwievor deutlich sympathischer, als Fermi!

LovesuckZ
2010-05-31, 18:19:51
Echt? Ich fand die GT200 karten vollkommen langweilig.
GF100 bietet wenigsten deutlich mehr Features und eine bessere Mehrleistung gegenüber der alten Generation. Wenn man da mal den Mehrverbrauch gegenüber der 8800GTX im vergleich setzt und dann betrachtet, was GT200 brachte, finde ich GF100 wesentlich besser.

hq-hq
2010-05-31, 18:24:05
würde gern mal wissen wo bei dir die 5870 abnippelt?????

9550 @ 3,74 - GTX 470 @ 700/1400/1700
19x12 NoAA 16x AF - Shaders @ high - Tessellation @ normal
D3D11
FPS: 38.7
Scores: 974
Min FPS: 3.8
Max FPS: 74.3

im vergleich

9550 @ 2,83 - HD 5870 @ 850/1200
1680x1050 NoAA 16x AF - Shaders @ high - Tessellation @ normal
D3D11
FPS: 36,5
Scores: 920
Min FPS: 11,2
Max FPS: 99,2

oje bandit, du spielst mir in die hände, ich hatte 37,6 min fps in
1920x1080 mit den gleichen settings. natürlich mit viel OC ... aber wenn
meine min fps höher liegen als die durschnittlichen fps einer 5870 oder stark
übertakteten 5850 ... bedarf es keinen weiteren kommentars :freak:
einfach die zahlen wirken lassen <- uh da kam doch noch einer
ob sich das in den 2010 erscheinenden z.b. mit der unigine engine erscheinenden games auch so dramatisch auswirkt... wird sich noch zeigen müssen. <- ooh noch einer

La Junta
2010-05-31, 19:03:29
Mal ganz im Ernst .Redet ihr wirklich permanent über Tessellation ,welches ein einziges DX11 Feauture ist welches momentan kaum eingesetzt wird und wenn doch nur mangelhaft und das setzt ihr als Massstab für die nahe Zukunft wo iwer mit nem Cypress , oder Fermi im Highendbereich zocken würde ?? Falls dies wirklich euer ernst ist , dann kann euch kaum noch geholfen werden , so leid es mir auch tut .....
Games die seid Release der Fermis entwickelt werden , kommen in ca 3 Jahren raus und selbst die würden kaum nur auf Tessellation setzten so das es für die HD5k Generation nicht ausreichend sein würde . Wer ist so dämmlich um den Bruchteil des Marktes zu bedienen ??
Und dieses ganze gerede über ATI/Nvidia Fanboys , kommt auch nur von den Fanboys selber (ich verstehe eh nicht wie iwer Fan von Hardware sein kann , aber egal).
Aber ganz ehrlich , wenn jemmand Tessellation als unwichtig darstellt momentan , ist derjenige weniger Fanboy als solche die eben Tessellation als alleiniges Leistungsindiz für die Zukunft darstellen . So ganz nach dem Motto : Paar gearade Striche und der rest wird Tesselliert .......

PS. Das war und ist das einzige was ich zu dem Thema zu sagen habe , ich bin wieder raus hier ....

hq-hq
2010-05-31, 19:15:09
naja dx11 gibts ja schon etwas länger als die thermis ;)

hier gibts sogar ne kleine liste von dx11 engines und games die noch dieses jahr kommen (sollen)
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
und Primal Carnage Q4 2010 fällt mir noch ein...

La Junta
2010-05-31, 19:28:31
naja dx11 gibts ja schon etwas länger als die thermis ;)

hier gibts sogar ne kleine liste von dx11 engines und games die noch dieses jahr kommen (sollen)
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
und Primal Carnage Q4 2010 fällt mir noch ein...

Das sind games welche DX11 Support besitzen . Und was hat das ganze mit massig eingesetzter Tessellation zu tun ?? Zudem sind es in diesem Jahr ganze 5 Games welche noch kommen mit DX11 Support und bei 3 weiteren wird DX11 per Patch nachgereicht .
Und von denen ist Crysis 2 der einzige Kandidat welcher möglicherweisse nen höheren Tessellationsgrad anbieten wird und selbst Crysis 2 wird wird ne 5870iger nicht in die Knie zwingen . Wieso ?? Weil Crytec auch schon gemerkt hatte das sich mehr Geld mit Masse und Kompatibilität machen lässt , als mit irgendwelchen Feautures welche in 10 Jahren nachkommen .

Bandit3644
2010-05-31, 19:30:43
oje bandit, du spielst mir in die hände, ich hatte 37,6 min fps in
1920x1080 mit den gleichen settings. natürlich mit viel OC ... aber wenn
meine min fps höher liegen als die durschnittlichen fps einer 5870 oder stark
übertakteten 5850 ... bedarf es keinen weiteren kommentars :freak:
einfach die zahlen wirken lassen <- uh da kam doch noch einer
ob sich das in den 2010 erscheinenden z.b. mit der unigine engine erscheinenden games auch so dramatisch auswirkt... wird sich noch zeigen müssen. <- ooh noch einer

dann würd ich gern mal wissen warum ne andere gtx 470 33,8 fps weniger produziert als deine? runde mal auf 30 da deine etwas stärker übertaktet ist
andere vergleiche im benchmark thread zeigen das die min fbs von gtx 470 so um die 10 liegen und bei einer 480 so um die 14 oder etwas höher je nach setting
dann machen alle anderen wohl was falsch

hq-hq
2010-05-31, 19:47:18
falsch nicht, aber vielleicht haben sie die prozesspriorität nicht auf hoch eingestellt.
für die average fps ist das jedenfalls egal da es nur beim szenenwechsel zu so starken einbrüchen kommt. (wie 3 fps)
lustig ist es dennoch wenn ich mehr min fps hab als die anderen average.
das lässt sich ja ganz einfach prüfen, stell die prio auf high und lass es laufen das unigine, dann machen wir an dieser stelle im richtigen thread weiter ;)

Bandit3644
2010-05-31, 19:58:46
falsch nicht, aber vielleicht haben sie die prozesspriorität nicht auf hoch eingestellt.
für die average fps ist das jedenfalls egal da es nur beim szenenwechsel zu so starken einbrüchen kommt. (wie 3 fps)
lustig ist es dennoch wenn ich mehr min fps hab als die anderen average.
das lässt sich ja ganz einfach prüfen, stell die prio auf high und lass es laufen das unigine, dann machen wir an dieser stelle im richtigen thread weiter ;)

steh etwas auf dem schlauch wo stell ich die prio ein ??
meinst du im task manager??
ich werte es mal testen und meld mich später noch mal

hq-hq
2010-05-31, 20:02:56
taskmanager -> lass es 3x laufen, nimm den besten wert und dann im benchmark fred posten - thx
(echtzeit kann zu bluescreens führen ;) )

@La Junta >>>Crysis 2 wird wird ne 5870iger nicht in die Knie zwingen<<< gewagt gewagt ;)

DrFreaK666
2010-05-31, 23:43:04
gern geschehen ;)

aja übrigens, um meine "binnen der nächsten 7 monate theorie" zu untermauern hier ein beispiel
http://www.pcgames.de/Primal-Carnage-PC-234123/News/Primal-Carnage-Neue-Raptor-Bilder-zum-Koop-Shooter-erschienen-704461/

Hast du den Artikel gelesen?
Wo steht dort, dass Tesselation genutzt wird??
Lesen und verstehen... :rolleyes:
Immer wieder lustig, dass du die Unigine-Engine als Beispiel hernimmst und immer wieder auf die Schnauze fällst...
Vor dem Heaven-Benchmark wurden zwei DX10-Benchmarks veröffentlicht...
Nicht mal auf der Primal Carnage Homepage steht, dass Tesselation genutzt wird :freak:

Das nächste Mal solltest du dich besser informieren bevor du dich wieder dermaßen blamierst...

hq-hq
2010-05-31, 23:48:39
sorry da steht halt:

Primal Carnage wird von der Unigine-Engine angetrieben und soll im vierten Quartal 2010 für den heimischen PC erschienen. Erste InGame-Screenshots zu Primal Carnage präsentieren wir Ihnen in unserer Bildergalerie. Einen Videotrailer bekommen Sie unterhalb dieser Meldung zu Gesicht. Der zeigt einen Dino-Animationstest, in dem ein Raptor einen Menschen angreift. Weitere Informationen zum Dino-Shooter finden Sie auf der offiziellen Website zu Primal Carnage. Was die Unigine-Engine drauf hat, verdeutlicht ein Unigine-Heaven-Direct-X11-Benchmark-Download, inklusive Youtube-Video hier auf pcgames.de.

meinst du nicht es wäre eher falsch zu behaupten das es kein tesselation einsetzt ?

ich glaub ja ihr lasst euch viel zu sehr von mir ärgern hihi;D

DrFreaK666
2010-05-31, 23:50:36
sorry da steht halt:

Primal Carnage wird von der Unigine-Engine angetrieben und soll im vierten Quartal 2010 für den heimischen PC erschienen. Erste InGame-Screenshots zu Primal Carnage präsentieren wir Ihnen in unserer Bildergalerie. Einen Videotrailer bekommen Sie unterhalb dieser Meldung zu Gesicht. Der zeigt einen Dino-Animationstest, in dem ein Raptor einen Menschen angreift. Weitere Informationen zum Dino-Shooter finden Sie auf der offiziellen Website zu Primal Carnage. Was die Unigine-Engine drauf hat, verdeutlicht ein Unigine-Heaven-Direct-X11-Benchmark-Download, inklusive Youtube-Video hier auf pcgames.de.

meinst du nicht es wäre eher falsch zu behaupten das es kein tesselation einsetzt ?

Wieso sollte ein so kleiner Entwickler nicht damit werben??

hq-hq
2010-05-31, 23:53:50
http://static.twoday.net/cappuccina/images/Zahlen-bitte-.jpg

DrFreaK666
2010-05-31, 23:59:13
http://static.twoday.net/cappuccina/images/Zahlen-bitte-.jpg

what??

Tarkin
2010-06-01, 22:20:34
Gigabyte R585OC Video Card Review @HardOCP (http://hardocp.com/article/2010/06/01/gigabyte_r585oc_video_card_review)

vs. Geforce 470 und Radeon 5850 (standard)

in den getesteten Games praktisch gleichauf mit 470 bzw deutlich schneller bei Battlefield ...

(ich weiß nicht warum hier ständig die 5870er für den Vergleich mit der 470er herhalten muss - die 5850 schlägt sich exzellent :P )

hq-hq
2010-06-01, 22:31:52
wahrscheinlich muss die 5870 für einen vergleich herhalten weil in den eher gebräuchlichen auflösungen von 1680x1050, 1920x1080 und 1920x1200 die gtx470 eher näher an der 5870 dran ist. ist das für dich einleuchtend ?
ist das für dich neutral genug geschrieben ?

man könnte auch sagen die gtx465 ist so schnell wie die 5870... das wär nicht soo neutral aber belegbar
http://www.pcgameshardware.de/screenshots/original/2010/05/GTX465-WoW-1920.png

PulsarS
2010-06-01, 22:41:03
Es kommt auf die Spieleauswahl an.
Wenn man es auf die Spitze treibt, kann man sicherlich auch der Meinung sein, dass eine GTX 465 einer 5850 ebenbürtig ist.
Was natürlich nicht der Fall ist.

Raff
2010-06-01, 22:45:57
man könnte auch sagen die gtx465 ist so schnell wie die 5870... das wär nicht soo neutral aber belegbar
http://www.pcgameshardware.de/screenshots/original/2010/05/GTX465-WoW-1920.png

Da Tarkin alles andere als "soo neutral" ist kannst du dir weiteres Argumentieren sparen. ;) Die GTX 470 liegt zwischen der HD 5850 und HD 5870, mit klarer Tendenz zur letzteren. Das passt preislich wunderbar.

MfG,
Raff

hq-hq
2010-06-01, 22:46:29
ja da setz ich noch einen drauf, in einer besonders euphorischen sekunde zu behaupten eine gtx465 wär sogar in 2560x1600 schneller als eine 5870 !!!
http://www.pcgameshardware.de/screenshots/original/2010/05/GTX465-GTA4-2560.png

;)

@raff ach ich will ihn nur ein bissl ärgern, er hat's ja auch verdient ... ein bissl zumindest

Raff
2010-06-01, 22:48:06
Dann ist es spätestens jetzt an der Zeit, dir zu sagen, dass direkt verlinkte PCGH-Bilder nicht angezeigt werden. ;) Entweder, du linkst mit Verweis auf den Artikel oder du "klaust" eines und lädst es bei einem Bilderhoster hoch.

MfG,
Raff

Gast
2010-06-01, 22:51:03
wahrscheinlich muss die 5870 für einen vergleich herhalten weil in den eher gebräuchlichen auflösungen von 1680x1050, 1920x1080 und 1920x1200 die gtx470 eher näher an der 5870 dran ist. ist das für dich einleuchtend ?
ist das für dich neutral genug geschrieben ?

man könnte auch sagen die gtx465 ist so schnell wie die 5870... das wär nicht soo neutral aber belegbar
http://www.pcgameshardware.de/screenshots/original/2010/05/GTX465-WoW-1920.png

Für jemanden der den Einfallswinkel bez. des Lüftstroms des Gehäuselüfters exakt einhalten muss, nur dass sein Fehlprodukt an Grafikkarte nicht abschmiert, hälst du das NV-Fähnchen imo ein wenig zu hoch - sorry :)

hq-hq
2010-06-01, 22:51:11
du kannst die bilder nicht sehen, komisch ich seh sie schon

das wär ja blöd :freak:

-> das pcgh logo prangert ja ganz gross oben rechts in den bildern

@gast ja die thermi mags warm ;(

-> mein gehäuse ist übrigens offen, ein gehäuselüfter würde nichts bringen. seit kurzem hab ich zwei 80mm fans über der graka das bringt knapp 2 grad also eigentlich nix.

PulsarS
2010-06-01, 22:51:58
du kannst die bilder nicht sehen, komisch ich seh sie schon

das wär ja blöd:freak:
Weil du diese noch im Cache hast.

hq-hq
2010-06-01, 22:55:19
scheisse stimmt bin grad auf ie und da sindse weg. moment das hammwa gleich. soo, jetzt kleben sie im anhang. @pcgh -> deeplinking ist werbung ;)

DrFreaK666
2010-06-01, 23:15:52
@Raff Gehst du AMD weiterhin auf den Keks??? (DX10/DX11-SGSSAA)

Bucklew
2010-06-01, 23:21:19
@Raff Gehst du AMD weiterhin auf den Keks??? (DX10/DX11-SGSSAA)
Sollte erstmal bei AF anfangen.

PulsarS
2010-06-01, 23:29:22
Sollte erstmal bei AF anfangen.
Kann man ja in Angriff nehmen. Wenn aber die Hardware limitiert, wird ATI auch nicht zaubern können.

DrFreaK666
2010-06-01, 23:35:42
Ich will SGSSAA unter DX10/11. Das bissl flimmern stört mich nicht

Bucklew
2010-06-01, 23:36:39
Kann man ja in Angriff nehmen. Wenn aber die Hardware limitiert, wird ATI auch nicht zaubern können.
Dann leiden halt die FPS-Balken...ach, halt, schlecht....dann flimmern wir halt weiter :rolleyes:

Blaire
2010-06-01, 23:36:56
Kann man ja in Angriff nehmen. Wenn aber die Hardware limitiert, wird ATI auch nicht zaubern können.

Ja genau Ati trifft keine Schuld...;D

PulsarS
2010-06-01, 23:39:36
Dann leiden halt die FPS-Balken...ach, halt, schlecht....dann flimmern wir halt weiter :rolleyes:
Verständlicher schreiben als ich dies getan habe, geht kaum.
Wenn die AF-Schwäche hardwarelimitiert ist (und das ist sie zum Teil sicherlich), dann kannst du auch beten, hilft nur nichts.

edit:
Ja genau Ati trifft keine Schuld...;D
Ist halt eine Designfrage.
Ich wage es einfach anzuzweifeln, dass ATI die gleiche AF-Qualität wie Nvidia mit der jetzigen Hardware schaffen könnte, weil es die Hardware eben nicht hergibt.
So schwer zu verstehen kann das doch gar nicht sein.

DrFreaK666
2010-06-01, 23:42:06
Verständlicher schreiben als ich dies getan habe, geht kaum.
Wenn die AF-Schwäche hardwarelimitiert ist (und das ist sie zum Teil sicherlich), dann kannst du auch beten, hilft nur nichts.

Software-AF :wink:

Bucklew
2010-06-01, 23:42:19
Verständlicher schreiben als ich dies getan habe, geht kaum.
Wenn die AF-Schwäche hardwarelimitiert ist (und das ist sie zum Teil sicherlich), dann kannst du auch beten, hilft nur nichts.
Das ist sie auch. Aber das ist das Problem von ATI. So "rettet" man halt den FPS-Balken, indem man cheatet und es flimmert. Man stelle sich mal vor Nvidia würde das machen, was hier los wäre :rolleyes:

Genau deswegen sollte man da seinen Unmut darüber tun, damit dieses Hardwareproblem irgendwann mal behoben wird. Man schaue sich mal an wie schnell Nvidia mit SGSSAA reagiert hat.

DrFreaK666
2010-06-01, 23:43:51
Das ist sie auch. Aber das ist das Problem von ATI. So "rettet" man halt den FPS-Balken, indem man cheatet und es flimmert. Man stelle sich mal vor Nvidia würde das machen, was hier los wäre :rolleyes:

Wäre wahrscheinlich das Selbe los wie jetzt gerade...

PulsarS
2010-06-01, 23:45:37
Software-AF :wink:
Genau. :freak:
Diashow ahoi.

Fetter Fettsack
2010-06-01, 23:46:01
Man schaue sich mal an wie schnell Nvidia mit SGSSAA reagiert hat.

Da war aber keinerlei Hardwareproblem dabei, das war Treiberseitig.

DrFreaK666
2010-06-01, 23:49:55
Ich bezweifle, dass es bei AMD eine Hardware-beschränkung gibt.

Bucklew
2010-06-01, 23:49:56
Wäre wahrscheinlich das Selbe los wie jetzt gerade...
Verlinkst du mir gerade mal die SemiaccurateNews? :D

Da war aber keinerlei Hardwareproblem dabei, das war Treiberseitig.
ATI könnte das AF-Cheaten auch treiberseitig heute korrigieren. Ja, wenn sie wollten.

PulsarS
2010-06-01, 23:50:30
Das ist sie auch. Aber das ist das Problem von ATI. So "rettet" man halt den FPS-Balken, indem man cheatet und es flimmert.
Mit Balken hat es weniger zu tun, wie es NV beweist.
Wird wohl am Transistor count liegen.

Und mit Cheaten hat es weniger zu tun.
Das sind einfach die maximalem möglichkeiten des Algorithmus (Samples).

Blaire
2010-06-01, 23:53:55
ATI könnte das AF-Cheaten auch treiberseitig heute korrigieren. Ja, wenn sie wollten.

Sicher könnten sie das...aber denen ist das nicht wichtig genug.

PulsarS
2010-06-01, 23:55:25
Sicher könnten sie das...aber denen ist das nicht wichtig genug.
Für diese gewagte Aussage hätte ich gern einen Beweis, da ich der Überzeugung bin, dass es hardwarelimitiert ist.

DrFreaK666
2010-06-01, 23:56:47
Für diese gewagte Aussage hätte ich gern einen Beweis, da ich der Überzeugung bin, dass es hardwarelimitiert ist.

Man könnte bestimmt noch etwas mehr BQ herauskitzeln - wenn man wollte

derguru
2010-06-01, 23:58:17
wenn sgssaa immer aktivierbar wäre könnte man auf hq af scheissen,jedenfalls ich.:wink:

Blaire
2010-06-01, 23:58:20
Für diese gewagte Aussage hätte ich gern einen Beweis, da ich der Überzeugung bin, dass es hardwarelimitiert ist.

Selbst die 7800GTX konnte damals gut filtern, wenn der Chip nicht korrekt erkannt wurde. Sollte es dir nicht zu denken geben, das selbst AI Disabled kaum Wirkung zeigt? Das ist 100% so gewollt damit niemand auf dumme Ideen kommt so zu benchen. Sie könnten die Bildqualität sicher verbessern per Treiber wenn sie es wollten, aber die Kritik ist nicht laut genug.

Bucklew
2010-06-02, 00:00:29
Mit Balken hat es weniger zu tun, wie es NV beweist.
Wird wohl am Transistor count liegen.

Und mit Cheaten hat es weniger zu tun.
Das sind einfach die maximalem möglichkeiten des Algorithmus (Samples).
Natürlich ist das cheaten, wenn ATI optimieren muss, damit die FPS-Zahlen nicht völlig in den Keller rutschen.

DrFreaK666
2010-06-02, 00:05:34
Natürlich ist das cheaten, wenn ATI optimieren muss, damit die FPS-Zahlen nicht völlig in den Keller rutschen.

"völlig in der Keller rutschen" ist sicherlich ist sicherlich "leicht" übertrieben...

PulsarS
2010-06-02, 00:08:36
Man könnte bestimmt noch etwas mehr BQ herauskitzeln - wenn man wollte
Ja, mit Software.
Die Leistung wäre dann unterirdisch.

Natürlich ist das cheaten, wenn ATI optimieren muss, damit die FPS-Zahlen nicht völlig in den Keller rutschen.
Klar muss man optimieren, wenn die Hardware nicht mehr hergibt.
Eine Softwarelösung ist aber nicht annehmbar, weil katastrophal langsam.

Inwieweit ist das cheaten?
Das verstehe ich irgendwie nicht.
Man gibt sich einfach mit der ein wenig schlechteren Filterung zufrieden.
Die meisten merken es eh nicht.

DrFreaK666
2010-06-02, 00:10:58
@PulsarS: In manchen Games gibt es starkes Banding, in anderen nicht. Das ist schon komisch. Man könnte sicherlich Banding in jedem Spiel vermeiden

Bucklew
2010-06-02, 00:12:10
Inwieweit ist das cheaten?
Das verstehe ich irgendwie nicht.
Man gibt sich einfach mit der ein wenig schlechteren Filterung zufrieden.
Die meisten merken es eh nicht.
D.h. wenn Nvidia demnächst anstelle von 16xAF einfach nur noch 4x macht ist das auch ok? :confused:

PulsarS
2010-06-02, 00:14:50
@PulsarS: In manchen Games gibt es starkes Banding, in anderen nicht. Das ist schon komisch. Man könnte sicherlich Banding in jedem Spiel vermeiden
Das ist Engine-bedingt.
In den meisten Fällen gibt es auch keine Probleme mit dem ATI-AF.
Gibt nur Ausnahmen, wo man schlechtere BQ bekommt.

@Bucklew
Am Thema vorbei.

Bucklew
2010-06-02, 00:20:44
@Bucklew
Am Thema vorbei.
Nichts anderes macht ATI.

Blaire
2010-06-02, 00:38:40
Das ist Engine-bedingt.
In den meisten Fällen gibt es auch keine Probleme mit dem ATI-AF.
Gibt nur Ausnahmen, wo man schlechtere BQ bekommt.


Man sieht es eigentlich immer, wenn man genau darauf achtet. Und so Leute solls geben. ;)
Dieses Banding hat jedenfalls nichts mit Bildqualität zu tun, das wäre für mich schon ein Grund mich von so einer Karte zu trennen. Es gibt sicher auch Leute denen sowas egal ist, aber wir sind hier im 3DCenter unter qualitätsbewussten Leuten.

DrFreaK666
2010-06-02, 01:00:48
Man sieht es eigentlich immer, wenn man genau darauf achtet. Und so Leute solls geben. ;)
Dieses Banding hat jedenfalls nichts mit Bildqualität zu tun, das wäre für mich schon ein Grund mich von so einer Karte zu trennen. Es gibt sicher auch Leute denen sowas egal ist, aber wir sind hier im 3DCenter unter qualitätsbewussten Leuten.

= eine Minderheit!!!

Bucklew
2010-06-02, 01:19:24
= eine Minderheit!!!
und das legitimiert das? :eek:

Coda
2010-06-02, 01:22:56
Es ist Cheaten. Fertig aus.

Spasstiger
2010-06-02, 01:45:36
Dann leiden halt die FPS-Balken...ach, halt, schlecht....dann flimmern wir halt weiter :rolleyes:
Wenn man SGSSAA zuschaltet, hat sich das AF-Problem erledigt. Muss man halt immer den zusätzlichen Performancehit gegenüber MSAA hinnehmen. ;)

DrFreaK666
2010-06-02, 01:48:02
und das legitimiert das? :eek:

Nein, aber deswegen ist es für AMD unwichtig.

Wenn man SGSSAA zuschaltet, hat sich das AF-Problem erledigt. Muss man halt immer den zusätzlichen Performancehit gegenüber MSAA hinnehmen. ;)

Deswegen wäre SGSSAA unter DX10/DX11 wichtig

Tarkin
2010-06-02, 08:37:03
Da Tarkin alles andere als "soo neutral" ist kannst du dir weiteres Argumentieren sparen. ;) Die GTX 470 liegt zwischen der HD 5850 und HD 5870, mit klarer Tendenz zur letzteren. Das passt preislich wunderbar.

MfG,
Raff

*räusper* das Review ist nicht von mir sondern von HardOCP

mfg
Tarkin

:rolleyes:

Mr. Lolman
2010-06-02, 08:39:33
Da Tarkin alles andere als "soo neutral" ist kannst du dir weiteres Argumentieren sparen. ;) Die GTX 470 liegt zwischen der HD 5850 und HD 5870, mit klarer Tendenz zur letzteren. Das passt preislich wunderbar.

MfG,
Raff

Kommt aber, wie immer, auf die Benchmarks an.

Raff
2010-06-02, 08:48:50
wenn sgssaa immer aktivierbar wäre könnte man auf hq af scheissen,jedenfalls ich.:wink:

Dito – fetter Betonung auf "fast", denn:

Wenn man SGSSAA zuschaltet, hat sich das AF-Problem erledigt. Muss man halt immer den zusätzlichen Performancehit gegenüber MSAA hinnehmen. ;)

Leider hilft SGSSAA nicht zufriedenstellend gegen Banding. Hat man die Wellen direkt vor der Visage, bringt's wenig, die flimmerfrei zu keulen.

*räusper* das Review ist nicht von mir sondern von HardOCP

mfg
Tarkin

:rolleyes:

Was ändert das an deiner Gesinnung? ;)

Kommt aber, wie immer, auf die Benchmarks an.

Klar, immer. Anwendungen und Einstellungen. Jetzt sag mir aber nicht, dass du einen Parcours aufgestellt hast, wo sich im Mittel ein anderes Leistungsbild als das genannte auftut ...

MfG,
Raff

Tarkin
2010-06-02, 08:51:01
ja da setz ich noch einen drauf, in einer besonders euphorischen sekunde zu behaupten eine gtx465 wär sogar in 2560x1600 schneller als eine 5870 !!!
http://www.pcgameshardware.de/screenshots/original/2010/05/GTX465-GTA4-2560.png

;)

@raff ach ich will ihn nur ein bissl ärgern, er hat's ja auch verdient ... ein bissl zumindest

Ach so? Du willst mich ärgern? Wie alt sind wir denn? 14?

Wenn du denkst mich mit solchen Benchmarks "ärgern" zu können, dann bist du ganz schon naiv... tschuldige aber das ist einfach nur lächerlich, völlig OT und KINDISCH!

Da postet man ein Review in dem 5850 gleichauf mit einer 470er ist und es bricht eine wahre Welle von BS-Postings über einen herein... von den üblichen Fanboys. Ich hab ehrlich gesagt auch nichts anderes erwartet.

Iruwen
2010-06-02, 10:22:46
Warum postest du es dann? Um genau das zu provozieren und dich später über die pösen Fanboys beschweren zu können zu denen du natürlich nicht gehörst :rolleyes:

Gast
2010-06-02, 10:26:52
Warum postest du es dann? Um genau das zu provozieren und dich später über die pösen Fanboys beschweren zu können zu denen du natürlich nicht gehörst :rolleyes:
Ein unabhängiges Review gilt hier schon als Provokation? Sag mal, geht's eigentlich noch?

Tarkin
2010-06-02, 10:35:58
Warum postest du es dann? Um genau das zu provozieren und dich später über die pösen Fanboys beschweren zu können zu denen du natürlich nicht gehörst :rolleyes:

Aha... sind wir jetzt schon so weit, dass ich mich für das Posten eines Reviews im REVIEW Thread rechtfertigen muss nur weil es ein paar Fanboys nicht passt? :eek: :mad: gehts noch?

(und das nächste OT Posting zum Löschen)

Bucklew
2010-06-02, 12:15:46
Nein, aber deswegen ist es für AMD unwichtig
Also ist cheaten ok, solange es keinen interessiert. Gut, dann kann man also doch bei ausgewählter AF 16x Option einfach nur 4x filtern und schwups steigt der FPS-Balken. Nichts anderes macht ATI im Treiber, ohne das man die Kontrolle darüber hat. Fairness sieht sicherlich anders aus.

Iruwen
2010-06-02, 12:27:26
Ein unabhängiges Review gilt hier schon als Provokation? Sag mal, geht's eigentlich noch?
Der Ton macht die Musik. Die Intention beim Cherry Picking ist jawohl ziemlich klar, vor allem wenn man sich dazu ansieht wer postet. Das zu posten ist natürlich legitim - sich dann aber über ein entsprechendes Echo zu ärgern ist kindisch.

hq-hq
2010-06-02, 12:31:38
@tarkin

hehe, wusste ich das es klappt. mach dir mal keinen stress, zu schreiben
"ich weiß nicht warum hier ständig die 5870er für den Vergleich mit der 470er herhalten muss - die 5850 schlägt sich exzellent " betrifft halt eher die extreme auflösung von 2560x1600.
wer einen so dicken moni muss einen blick auf das hardOCP review werfen, keine frage ;)

grundsätzlich müssen natürlich beide, die 5850 und die 5870 für einen vergleich herhalten weil
die gtx470 vom preis irgendwo dazwischen liegt.

deekey777
2010-06-02, 12:36:00
Nun ja, man könnte sich auch den Spaß erlauben und sagen, dass die Geforces gerade bei niedrigen Auflösungen mehr profitieren, da sie mehr Dreieckleistung haben. Mit steigender Auflösung verliert dieser Vorteil mehr und mehr an Gewicht. Also: Jeder Review, wo "Standard"-Auflösungen benutzt werden, sind biased.

hq-hq
2010-06-02, 12:43:10
joo, und der magische knick findet je nach game von 1920x1200 auf 2560x1600 statt... oder auch garnicht.

PulsarS
2010-06-02, 12:53:58
Es ist Cheaten. Fertig aus.
Genau. :freak:

Die Cypressen haben eine höhere Texelleistung als die GF100, verlieren beim EInsatz von AF mehr Performance und es sieht noch schlechter aus.

Da ist entweder eine ganz dämliche Designentscheidung die Ursache oder schlichtweg ein Bug in der Hardware.

Aber nein, es ist viel einfacher alles als Cheating abzustempeln ohne sich Gedanken zu machen, dass es vielleicht an der Hardware (Bug) liegen könnte. :rolleyes:

edit:
ich möchte hier nicht das ATI-AF schönreden oder sonst was, aber mit einem einfachem "ATI cheatet" gebe ich mich nicht zufrieden, wenn die Spezifikationen dies nicht nahelegen.
Ich nehme nicht alles als gegeben hin, sondern hinterfrage auch, warum es so ist.
Und hier stimmt etwas nicht. :)

Vertigo
2010-06-02, 13:02:18
Aha... sind wir jetzt schon so weit, dass ich mich für das Posten eines Reviews im REVIEW Thread rechtfertigen muss nur weil es ein paar Fanboys nicht passt? :eek: :mad: gehts noch?

(und das nächste OT Posting zum Löschen)
Dass gerade du das Wort Fanboy so inflationär benutzt ist schon erstaunlich. Du postet einen Review mit genau vier Spielen in denen die 470 und 5850 dreimal gleichauf sind und einmal die 5850 deutlich vorn liegt. Aus dem letztgenannten Bench verallgemeinerst du dann, dass du nicht verstehen kannst, warum häufig die 5870 statt der 5850 gegen die 470 gebencht wird da die 5850 schon überlegen sei. Daraufhin bekommst du ein paar Gegenbeispiele präsentiert, die du wiederum nicht akzeptieren willst, weil sie dir nicht in den Kram passen.
joo, und der magische knick findet je nach game von 1920x1200 auf 2560x1600 statt... oder auch garnicht.
Üblich sind heutzutage Benches in 1680*1050, 1920*1200 (Auflösung ~+30%) und 2560*1600 (Auflösung ~+80%). Ist doch klar, wo es am wahrscheinlichsten den Knick gibt.

Tarkin
2010-06-02, 13:02:40
Der Ton macht die Musik. Die Intention beim Cherry Picking ist jawohl ziemlich klar, vor allem wenn man sich dazu ansieht wer postet. Das zu posten ist natürlich legitim - sich dann aber über ein entsprechendes Echo zu ärgern ist kindisch.

Gut, dann ist jedes Posten von Reviews Cherry Picking... dann braucht man ja in Zukunft überhaupt nichts mehr zu posten. Prima! :rolleyes:

Deinen Schlusssatz finde ich nur grotesk.

Bucklew
2010-06-02, 13:07:19
Aber nein, es ist viel einfacher alles als Cheating abzustempeln ohne sich Gedanken zu machen, dass es vielleicht an der Hardware (Bug) liegen könnte. :rolleyes:
Warum fixen sie den Bug dann nicht, der schon seit r600 vorhanden ist? :confused:

Tarkin
2010-06-02, 13:09:18
Dass gerade du das Wort Fanboy so inflationär benutzt ist schon erstaunlich. Du postet einen Review mit genau vier Spielen in denen die 470 und 5850 dreimal gleichauf sind und einmal die 5850 deutlich vorn liegt. Aus dem letztgenannten Bench verallgemeinerst du dann, dass du nicht verstehen kannst, warum häufig die 5870 statt der 5850 gegen die 470 gebencht wird da die 5850 schon überlegen sei. Daraufhin bekommst du ein paar Gegenbeispiele präsentiert, die du wiederum nicht akzeptieren willst, weil sie dir nicht in den Kram passen.

Üblich sind heutzutage Benches in 1680*1050, 1920*1200 (Auflösung ~+30%) und 2560*1600 (Auflösung ~+80%). Ist doch klar, wo es am wahrscheinlichsten den Knick gibt.

Ja stimmt, was erlaube ich mir eigentlich das HardOCP Review zu kommentieren... ich weiß auch nicht. Wie dumm von mir. Was bin ich doch für ein schlimmer Fanboy... die übelste Sorte... 300.000 Postings, geb zu jedem Dreck meinen Senf dazu und provoziere wo ich nur kann.

PS: wo steht von mir geschrieben, dass ich die Gegenbeispiele nicht akzeptieren will? Es ist wohl eher so, dass diese sog. "Gegenbeispiele" reine Provokationsversuche waren - und der entsprechende Verfasser gibt das sogar offen zu. Also was soll der Unfug?

deekey777
2010-06-02, 13:09:34
joo, und der magische knick findet je nach game von 1920x1200 auf 2560x1600 statt... oder auch garnicht.
Das Schlimme ist, dass hier auf einen User eingedroschen wird, der nur auf dieses Review verlinkt hat. Das ist einfach nur arm. Insbesondere wenn so indirekt die Konkurrenz als unfähig dargestellt wird.

Aber egal:
Wir hatten schon eine Diskussion begonnen, wo es hieß, dass der Mehrverbrauch der GTX465 nicht relevant sein. Auf den Einwand, dass dieser Mehrverbrauch zum Neukauf eines Netzteils führen kann, wurde nicht eingegangen.
Es mag sein, dass die Auflösung von 1920x1200/1080 noch kein Standard ist, aber... Bis vor wenigen Wochen hatte ich einen Videoseven mit VGA-Anschluss und 1440x900: Hatte ich wirklich damals nur die Leistung bei 1440x900 einer Grafikkarte als einziges Kriterium? Jetzt habe ich einen Blidschirm mit 1680x1050. Im Herbst vielleicht einen mit FullHD. Also ist bei der Entscheidung über den Kauf zumindest die Leistung bei höheren Auflösungen wichtig, selbst wenn die Auflösung des heutigen Bildschirms noch darunter ist.

Vertigo
2010-06-02, 13:17:35
Ja stimmt, was erlaube ich mir eigentlich das HardOCP Review zu kommentieren... ich weiß auch nicht. Wie dumm von mir. Was bin ich doch für ein schlimmer Fanboy... die übelste Sorte... 300.000 Postings, geb zu jedem Dreck meinen Senf dazu und provoziere wo ich nur kann.

Ich sage es mal so: Wann hast du das letzte Mal etwas Positives über Nvidia gepostet, als es einen Grund dafür gab? Oder wann hast du zuletzt etwas Negatives über ATI/AMD gepostet, als es einen Grund dafür gab?

PS: wo steht von mir geschrieben, dass ich die Gegenbeispiele nicht akzeptieren will? Es ist wohl eher so, dass diese sog. "Gegenbeispiele" reine Provokationsversuche waren - und der entsprechende Verfasser gibt das sogar offen zu. Also was soll der Unfug?
Ich habe dieses Posting von dir so interpretiert:
Aha... sind wir jetzt schon so weit, dass ich mich für das Posten eines Reviews im REVIEW Thread rechtfertigen muss nur weil es ein paar Fanboys nicht passt? :eek: :mad: gehts noch?

(und das nächste OT Posting zum Löschen)
Wenn du damit was Anderes gemeint hast, dann habe ich dich im Zusammenhang wohl missverstanden. Aber gut, das sollte hier auch nicht das Thema sein.

Gast
2010-06-02, 13:19:00
Die Cypressen haben eine höhere Texelleistung als die GF100, verlieren beim EInsatz von AF mehr Performance und es sieht noch schlechter aus.
Da ist entweder eine ganz dämliche Designentscheidung die Ursache oder schlichtweg ein Bug in der Hardware.
Aber nein, es ist viel einfacher alles als Cheating abzustempeln ohne sich Gedanken zu machen, dass es vielleicht an der Hardware (Bug) liegen könnte. :rolleyes:

Ist jetzt nicht mehr vollständig trilinear Filtern können ein Hardwarebug? Komischweise kann die Zypresse sehr selten abseits der Benchmarktitel noch trilinear filtern, wenn AI off geschaltet wird. Das Flimmern ist wieder eine andere Baustelle. Der einzig Bug ist, dass AF bei Ati irgendwie scheiße implementiert ist und es mehr Leistung als nv's Lösung kostet.
Dessen sind sich die Kanadier bewusst.
Deshalb wird auch weiter bei der HD5000 Serie gecheated, was das Zeug hält, was in üblem Flimmernorgien und Bandingwellen unmittelbar vor den virtuellen Füßen des Spielers endet.
Und trotz dieser drastischen Maßnahmen bricht die Zypresse noch ein.

PulsarS
2010-06-02, 13:39:19
@Gast
Das meine ich eben.
Da muss etwas mit der AF-Implementierung nicht stimmen.
Ob man das jetzt als Bug oder wie auch immer bezeichnet, egal.
Weil von den reinen Zahlen, hätte ATI überhaupt kein Cheating nötig.


was in üblem Flimmernorgien...
Wenn es so übel wäre, wie deine Wortwahl vermuten lässt, dann würde sich niemand eine ATI-Karte holen, da er sonst Augenkrebs bekommen würde.
Es flimmert minimal mehr als bei NV.
Sachlich bleiben, bitte

Iruwen
2010-06-02, 13:44:59
Wenn das Flimmern auftritt, dann ist es wirklich übel.

Gut, dann ist jedes Posten von Reviews Cherry Picking... dann braucht man ja in Zukunft überhaupt nichts mehr zu posten. Prima! :rolleyes:

Deinen Schlusssatz finde ich nur grotesk.

Sarkasmus ändert auch nichts an der Tatsache dass ich offensichtlich nicht der einzige bin dem das aufgefallen ist.

Iruwen
2010-06-02, 13:47:22
/e: ups, einer zuviel.

Bucklew
2010-06-02, 13:58:18
Weil von den reinen Zahlen, hätte ATI überhaupt kein Cheating nötig.
Doch, ohne cheaten würden die ATI-Karten nämlich FPS verlieren und das nicht gerade wenig.

Gast
2010-06-02, 14:02:07
@Gast
Wenn es so übel wäre, wie deine Wortwahl vermuten lässt, dann würde sich niemand eine ATI-Karte holen, da er sonst Augenkrebs bekommen würde.
Es flimmert minimal mehr als bei NV.
Sachlich bleiben, bitte
Manchmal muss man "extreme" Worte wählen, in der Hoffnung dass sich was ändert. Ati ist ein arroganter, selbstgefälliger Haufen, der sehr hohen konstanten Druck von außen braucht, damit sich die Misstände dort ändern.
Eigentlich wäre ein gnadenloser, langer Medienveriss das Einzige, was etwas bringen könnte + katastrophale Verkaufszahlen. Leider nur eine Wunschvorstellung.
Das Flimmern ist stärker als bei nV und alles was sich halt schnell bewegt, und sei es auch sehr klein aus, lenkt bei einem Menschen mit gesunder Wahrnehmung unbewusst das Augenmerk drauf. Man muss dies dann bewusst ausblenden und das ist schwierig. Aber schlimmer ist noch diese Welle, die man eigentlich fast bei jedem Spiel mal stärker oder weniger stark entdecken kann. Das ist einfach Steinzeit, wir schreiben das Jahr 2010!
Respekt verdient nV, die in dieser Hinsicht nicht auf dieses Sonderschulniveau-AF mitziehen. Bei nV erkennt man in allen Bereichen eine Aufwärtsentwicklung und Bereitschaft Missstände/Probleme zu bearbeiten. Bei Ati wird lieber totgeschwiegen, kleingeredet, beschwichtigt und vertröstet. Kein Fortschritt erkennbar.

Raff
2010-06-02, 14:03:42
Doch, ohne cheaten würden die ATI-Karten nämlich FPS verlieren und das nicht gerade wenig.

Deutlich mehr als 10 Prozent Einbruch durch "HQ-AF" sehe ich da nicht. Die Radeon hat viele TMUs mit viel Takt; die Shader stemmen schon einen Teil ihrer Arbeit. Dass Ati keine bessere Qualität zulässt, ist IMO nur mit internen Entscheidungen begründet.

MfG,
Raff

Bucklew
2010-06-02, 14:04:45
Deutlich mehr als 10 Prozent Einbruch durch "HQ-AF" sehe ich da nicht. Die Radeon hat viele TMUs mit viel Takt; die Shader stemmen schon einen Teil ihrer Arbeit. Dass Ati keine bessere Qualität zulässt, ist IMO nur mit internen Entscheidungen begründet.
Und du findest 10% ist wenig? ;)

Raff
2010-06-02, 14:06:30
10 Prozent weniger Fps zugunsten eines fast perfekten Filters? Diesen Preis würde wohl jeder qualitätsbewusste Spieler zahlen. Dumm nur, dass AMD uns keine Wahl lässt. Das ist ja das Problem: Niemand verlangt ernsthaft perfektes AF im Werkszustand (wobei das auch nett wäre!), sondern nur die Option, das AF auf Wunsch besser zu machen.

MfG,
Raff

Iruwen
2010-06-02, 14:10:38
Und die Balkenlänge ist ja kein Argument, NV wird ja auch mit Spar-AF gebencht.

/e: das stützt ja irgendwie die These dass ATI es einfach nicht besser kann.

Gast
2010-06-02, 14:11:46
Deutlich mehr als 10 Prozent Einbruch durch "HQ-AF" sehe ich da nicht. Die Radeon hat viele TMUs mit viel Takt; die Shader stemmen schon einen Teil ihrer Arbeit. Dass Ati keine bessere Qualität zulässt, ist IMO nur mit internen Entscheidungen begründet.

MfG,
Raff

Naja es kann niemand wissen wieviel Prozent es am Ende wirklich kostet. Viele TMUs bei hohem Takt sagen gar nichts aus, wenn man nicht weiß wie effizient die TMUs wirklich sind. Man muss sich nur ansehen wie groß der Unterschied zwischen GTX285 TMU und GTX480 TMU ist, da liegen Welten dazwischen. Außerdem waren die TMUs von Ati noch nie so stark wie die von NV.

Spasstiger
2010-06-02, 14:12:30
Wenn das Flimmern auftritt, dann ist es wirklich übel.
Wenn es so schlimm ist, dann flimmerts auch auf NV-Hardware (siehe Just Cause 2).
Das Flimmern tritt bei ATI allerdings immer auf. Man sieht den Unterschied zu NV immer und überall, wenn man ein Auge dafür hat.

pXe
2010-06-02, 14:13:47
Wenn es so schlimm ist, dann flimmerts auch auf NV-Hardware (siehe Just Cause 2).
Das Flimmern tritt bei ATI allerdings immer auf. Man sieht den Unterschied zu NV immer und überall, wenn man ein Auge dafür hat.

Nö, sieht man nicht.


pXe

Gast
2010-06-02, 14:15:26
Und die Balkenlänge ist ja kein Argument, NV wird ja auch mit Spar-AF gebencht.

/e: das stützt ja irgendwie die These dass ATI es einfach nicht besser kann.

Der Fps-Unterschied zwischen Qualität und Hohe Qualität ist aber seit der GTX4xx-Serie sehr gering bei NV. Vieleicht ist es ja nur bei einigen Spielen so, aber ich kann meistens überhaupt keinen Performanceunterschied feststellen. Wäre auch mal schön, wenn es da mal einen Test gäbe, wie groß der Unterschied aktuell ist.

Spasstiger
2010-06-02, 14:15:41
Ich habe kein Spiel, in dem ich das AF-Flimmern nicht sehen würde. Es ist zwar nur sehr subtil vorhanden, aber wenn man drauf achtet, sieht man es IMMER. Übrigens hat auch das NV-HQAF keine Nicht-Flimmer-Garantie.

Gast
2010-06-02, 14:27:27
Doch, ohne cheaten würden die ATI-Karten nämlich FPS verlieren und das nicht gerade wenig.

Und die NV-Karten verlieren nichts durch den Quality-Cheat mit dem sie gebencht werden? Du bist doch ein Troll. Vermutlich würde AMD sogar weniger verlieren dank wesentlich höherer Texelfüllrate.

derguru
2010-06-02, 14:32:31
Genau. :freak:

Die Cypressen haben eine höhere Texelleistung als die GF100, verlieren beim EInsatz von AF mehr Performance und es sieht noch schlechter aus.

Da ist entweder eine ganz dämliche Designentscheidung die Ursache oder schlichtweg ein Bug in der Hardware.

Aber nein, es ist viel einfacher alles als Cheating abzustempeln ohne sich Gedanken zu machen, dass es vielleicht an der Hardware (Bug) liegen könnte. :rolleyes:

edit:
ich möchte hier nicht das ATI-AF schönreden oder sonst was, aber mit einem einfachem "ATI cheatet" gebe ich mich nicht zufrieden, wenn die Spezifikationen dies nicht nahelegen.
Ich nehme nicht alles als gegeben hin, sondern hinterfrage auch, warum es so ist.
Und hier stimmt etwas nicht. :)

ich sehe das so ähnlich.ich finde es merkwürdig das teilweise ati´s af extreme performanceschwankungen hat die es bei nv nicht gibt wie z.b. bei hawx oder alien vs. predator(über 30%) und das bei schlechterer filterung.damit will ich nicht aussagen das nv cheatet (selbst wenn,wayne wenn es weniger flimmert) sondern das amd anscheinend riesen probleme mit af hat und viel am rummurksen ist und wir dann manchmal sogar treiber ohne af implementierung zu gesicht bekommen.

Bucklew
2010-06-02, 14:39:20
10 Prozent weniger Fps zugunsten eines fast perfekten Filters? Diesen Preis würde wohl jeder qualitätsbewusste Spieler zahlen. Dumm nur, dass AMD uns keine Wahl lässt. Das ist ja das Problem: Niemand verlangt ernsthaft perfektes AF im Werkszustand (wobei das auch nett wäre!), sondern nur die Option, das AF auf Wunsch besser zu machen.
Ja, würde zahlen. Nur hat ATI offensichtlich Angst, dass jemand mal HQ-AF benchen könnte.

Botcruscher
2010-06-02, 15:06:43
Bei der theoretischen Leistung eher unwahrscheinlich. Die These vom Eingeschränkten Design gibt am meisten her. Das Grunddesign wurde zwar seit R600 mächtig überarbeitet aber das bedeutet nicht viel. Mit den Si Ablegern wird man sehen was Phase ist.

Spasstiger
2010-06-02, 15:17:18
Southern Islands hat auch noch die alten TMUs. Wenn das AF hardwareseitig limitiert ist, wird sich auch mit Southern Islands nichts ändern. Erst Northern Islands soll neue Ausführungseinheiten bekommen.

Botcruscher
2010-06-02, 15:20:21
Hm. Ich dachte es kommt mehr als ein neues Frontend.

Iruwen
2010-06-02, 15:47:00
Wäre auch mal schön, wenn es da mal einen Test gäbe, wie groß der Unterschied aktuell ist.

Meine Raff nicht neulich was von 5-10% und dann hatte jemand ein Review mit Werten deutlich unter 5% gepostet?

Mr. Lolman
2010-06-02, 17:00:52
Klar, immer. Anwendungen und Einstellungen. Jetzt sag mir aber nicht, dass du einen Parcours aufgestellt hast, wo sich im Mittel ein anderes Leistungsbild als das genannte auftut ...

MfG,
Raff

Auch bei Computerbase gibts keine klare Tendenz dazu - und ich hab zT forderndere Benchmarks, als auch eine höhere Anzahl an Spielen getestet.

Gast
2010-06-02, 17:44:01
Auch bei Computerbase gibts keine klare Tendenz dazu - und ich hab zT forderndere Benchmarks, als auch eine höhere Anzahl an Spielen getestet.

Wenn sich wer rechtfertigen muss dann ist das eh PCGH. Denn es gibt kaum eine Seite wo die Geforces so gut liegen.

Coda
2010-06-02, 17:47:45
Genau. :freak:
Ja sicher "genau". ATI sampled weniger als sie eigentlich müssen um das Abtasttheorem zu erfüllen.

Was gibt's da zu diskutieren?

Die Cypressen haben eine höhere Texelleistung als die GF100, verlieren beim EInsatz von AF mehr Performance und es sieht noch schlechter aus.

Da ist entweder eine ganz dämliche Designentscheidung die Ursache oder schlichtweg ein Bug in der Hardware.
Reine Texelleistung ist äußerst nichtssagend. Die Leistung verteilt sich ja nicht beliebig über alle ALUs, sondern ein 16er SIMD kann immer nur seine eigene Quad-TMU ansprechen.

D.h. wenn man Stalls hat dann kann nicht einfach ein anderes SIMD über die dort freie Texelleistung verfügen. Es würde def. zu Performanceeinbußen kommen wenn sie sauber filtern würden.

Aber nein, es ist viel einfacher alles als Cheating abzustempeln ohne sich Gedanken zu machen, dass es vielleicht an der Hardware (Bug) liegen könnte. :rolleyes:
Sowas ist ganz bestimmt kein Bug. Es ist kein Hexenwerk 16 Samples gleichverteilt über den Gradienten zu samplen und dann zu mitteln. Außerdem habe ich Beweise dafür, dass selbst RV770 das kann wenn er will.

AMD veröffentlichte außerdem die kompletten Register-Specs von RV870 und RV770 abgesehen von denen die AF kontrollieren. So ein Zufall aber auch.

Nehmt sie nicht immer in Schutz für den Müll! Es nervt.

Raff
2010-06-02, 17:52:06
Wenn sich wer rechtfertigen muss dann ist das eh PCGH. Denn es gibt kaum eine Seite wo die Geforces so gut liegen.

Der Parcours entstand, bevor die GTX-400-Karten erschienen. PCGH bencht nun mal mit GTA 4 und WoW seit Ewigkeiten zwei Titel, die den Geforce-Karten gut liegen – und das ist wegen des globalen Interesses an beiden Spielen gut so.

Reine Texelleistung ist äußerst nichtssagend. Die Leistung verteilt sich ja nicht beliebig über alle ALUs, sondern eine 16er SIMD hat immer eine Quad-TMU.

D.h. wenn man Stalls hat dann kann nicht einfach ein anderes SIMD über die dort freie Texelleistung verfügen. Es würde def. zu Performanceeinbußen kommen wenn sie sauber filtern würden.

Meinst du, dass HQ-AF durchschnittlich mehr kosten würde als auf einer GTX 400? Das würde mich dann spontan an Cine FX erinnern ...

MfG,
Raff

Bucklew
2010-06-02, 17:53:18
Meinst du, dass HQ-AF durchschnittlich mehr kosten würde als auf einer GTX 400? Das würde mich dann spontan an Cine FX erinnern ...
Warum sollte ATI sich sonst noch AF-Filterarbeit sparen, wenn es dadurch nicht einen merklichen Performanceeinbruch gäbe?

Coda
2010-06-02, 17:54:41
Meinst du, dass HQ-AF durchschnittlich mehr kosten würde als auf einer GTX 400? Das würde mich dann spontan an Cine FX erinnern ...
Naa. CineFX hatte das Problem der nichtentkoppelten TMUs. Der Leistungsverlust bei RV870 würde sich wohl so im Bereich von ~10% bewegen.

AnarchX
2010-06-02, 17:56:18
Meinst du, dass HQ-AF durchschnittlich mehr kosten würde als auf einer GTX 400? Das würde mich dann spontan an Cine FX erinnern ...

Das könntest du ja mal versuchen nach zustellen und mit den Werten von GF100 zu ergänzen:
http://techreport.com/r.x/radeon-hd-5870/rm3d-filtering.gif
http://techreport.com/articles.x/17618/6

pest
2010-06-02, 18:26:31
Ja sicher "genau". ATI sampled weniger als sie eigentlich müssen um das Abtasttheorem zu erfüllen.


aber warum bezeichnet "ihr" dies als Cheat? Ein Cheat wäre doch etwas, was nicht so angedacht ist, oder etwas verschleiern soll,
aber es ist eine Tatsache das ATI schlechter als HQ filtert.


Außerdem habe ich Beweise dafür, dass selbst RV770 das kann wenn er will.


über die ALUs? Zählt das denn?



AMD veröffentlichte außerdem die kompletten Register-Specs von RV870 und RV770 abgesehen von denen die AF kontrollieren. So ein Zufall aber auch.


hm, und was wüsste man besser, wenn man die veröffentlichen würde, außer das sie Samples sparen?
edit: Vielleicht hat AMD auch einen "Trick" rel. viel Leistung einzusparen bei vergleichsweise geringer BQ-Verschlechterung.

robbitop
2010-06-02, 18:33:28
Die Cypressen haben eine höhere Texelleistung als die GF100, verlieren beim EInsatz von AF mehr Performance .
Hu?
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests
Das sieht hier aber anders aus.

Iruwen
2010-06-02, 18:56:00
Warum macht NV HQ eigentlich nicht zum Standard wenn dabei eh keine Leistung flöten geht?

deekey777
2010-06-02, 18:58:08
Warum macht NV HQ eigentlich nicht zum Standard wenn dabei eh keine Leistung flöten geht?
Wie soll man dann eine "Optimierung" einbauen, ohne HQ zu verwässern?

Iruwen
2010-06-02, 19:03:51
Ist bei dem CB Test kein Titel dabei der eine "Optimierung" benötigt? Der FPS-Verlust ist ja gerade mal so messbar.

hq-hq
2010-06-02, 19:07:23
Wenn sich wer rechtfertigen muss dann ist das eh PCGH. Denn es gibt kaum eine Seite wo die Geforces so gut liegen.

:freak: gilt das dann auch für http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/16/#abschnitt_crysis_warhead
? :D

eigentlich könnte HQ wirklich zum standard werden, die 0,x fps die dafür flöten gehen...

derguru
2010-06-02, 19:51:49
Hu?
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests
Das sieht hier aber anders aus.

kommt wohl auf das spiel an.

2*5850 default

HAWX Bench

1920*1200 8AA/1AF 95fps

1920*1200 8AA/16AF (über treiber) 62fps

Alien vs. Predator DX11 Bench

1920*1200 1AA/1AF 80,9fps

1920*1200 1AA/16AF (über treiber) 43,5fps

Fetter Fettsack
2010-06-02, 20:00:03
Das sind aber ordentliche Einbrüche.

Was ich allerdings gerne wissen würde: wo merkt man denn nun optisch einen Unterschied, wenn man zwischen 1xAF und 16xAF wechselt?

pest
2010-06-02, 20:02:25
lol?

http://alt.3dcenter.org/artikel/grafikfilter/

Fetter Fettsack
2010-06-02, 20:17:11
Jaja, ich hab bisher nur mit 16xAF gespielt und jetzt wurde gerade das System neu aufgesetzt, sind also noch keine Spiele zum ausprobieren drauf. :)

EDIT: Danke übrigens.

Raff
2010-06-02, 20:18:27
Den Unterschied sieht man immer, gerade in niedrigen Auflösungen. Das sind Welten.

MfG,
Raff

Fetter Fettsack
2010-06-02, 20:30:01
@ Raff

Ja, ich habe es gerade gelesen, jetzt werden mir auch so manche Rätsel aus früheren Zeiten klar ;) .

Gast
2010-06-02, 21:02:51
lol?

http://alt.3dcenter.org/artikel/grafikfilter/
War nur bis G70 wichtig, jetzt gibts ja überall Qualität auf R500 Niveau. X-D

DrFreaK666
2010-06-02, 22:52:38
kommt wohl auf das spiel an.

2*5850 default

HAWX Bench

1920*1200 8AA/1AF 95fps

1920*1200 8AA/16AF (über treiber) 62fps

Alien vs. Predator DX11 Bench

1920*1200 1AA/1AF 80,9fps

1920*1200 1AA/16AF (über treiber) 43,5fps

Das sieht für mich eher nach einem Crossfire-Problem aus

derguru
2010-06-03, 00:22:36
ist es aber nicht,mit einer einzelnen ist es das selbe spiel.

Schlammsau
2010-06-05, 11:40:09
Höchst giftig: Sapphire HD 5870 Toxic mit 2 GByte Hauptspeicher (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/)

Ohne Frage liefert die Sapphire Radeon HD 5870 Toxic 2 GByte eine durchaus überzeugende Performance. Im Gesamtleistungs-Index, über alle unsere Benchmarks, erreicht die Grafikkarte einen Gleichstand zur GeForce GTX 480. Betrachtet man lediglich die Durchläufe ohne Antialiasing kann man die GTX 480 sogar schlagen. Allerdings: Sobald wir nur die Resultate mit 4-fachem Antialiasing und 16-fachem anisotropen Filter betrachten, wendet sich das Blatt und die GeForce GTX 480 ist Spitzenreiter.
Leider zu teuer!

Mr. Lolman
2010-06-05, 11:45:34
Höchst giftig: Sapphire HD 5870 Toxic mit 2 GByte Hauptspeicher (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/)

Ja hoppla, wieder ein Review, wo die 5870 deutlich näher bei der 480, als bei der 470 ist. :|

Megamember
2010-06-05, 11:54:04
Warum nehmen die für die Nvidias die uralten 197.17 und für die Atis die neuen 10,4 Treiber??

Schlammsau
2010-06-05, 12:01:19
Warum nehmen die für die Nvidias die uralten 197.17 und für die Atis die neuen 10,4 Treiber??
Neu? Es gibt schon seit 2 Wochen den 10.5er!
Der 10.4 ist vom 28.04.
Von wann ist der 197.17?

hq-hq
2010-06-05, 16:10:58
die toxic 2gb erinnert mich an meine 9800pro, die konnte man praktisch auch nicht übertakten so nah am limit lief die.
ja komisch mit dem 197.17 beta ? der müsste vom 01.april sein, sozusagen der allererste mit dem die fermi konnte glaub ich
wahrscheinlich haben sie die ergebnisse von den musterkarten anfang april einfach reingepasted

Schlammsau
2010-06-05, 16:17:26
die toxic 2gb erinnert mich an meine 9800pro, die konnte man praktisch auch nicht übertakten so nah am limit lief die.
ja komisch mit dem 197.17 beta ? der müsste vom 01.april sein, sozusagen der allererste mit dem die fermi konnte glaub ich
wahrscheinlich haben sie die ergebnisse von den musterkarten anfang april einfach reingepasted

Jo haben sie.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index9.php

Tarkin
2010-08-11, 18:43:22
noch eine StarCraft 2 Testreihe...

http://www.hardwarezone.com/features/view/64848

http://www.hardwarezone.com/files/images/AA.gif

läuft super auf Cypress :)

Gast
2010-08-11, 18:48:24
CPU Limit.

Mr. Lolman
2010-08-11, 18:51:21
Und wiedermal Starcraft 2:

http://www.xbitlabs.com/articles/video/display/starcraft2-wings-of-liberty_6.html#sect1

dargo@work
2010-08-11, 18:54:37
Nur, dass diese Ergebnisse so gar keinen Sinn machen.

1. Ist die GTX480 100% im CPU-Limit.
2. Selbst die langsamste Grafikkarte im Testsetup verliert nur 14% an Leistung bei 30% mehr Pixeln.

dargo@work
2010-08-11, 19:01:42
Und wiedermal Starcraft 2:

http://www.xbitlabs.com/articles/video/display/starcraft2-wings-of-liberty_6.html#sect1
Öhm, bei 1920x1200 sinds für die HD5970 +69% gegenüber der HD5870 und in 2560x1600 nur noch +41%?

boxleitnerb
2010-08-11, 19:05:54
Nur, dass diese Ergebnisse so gar keinen Sinn machen.

1. Ist die GTX480 100% im CPU-Limit.
2. Selbst die langsamste Grafikkarte im Testsetup verliert nur 14% an Leistung bei 30% mehr Pixeln.

Das ist vielleicht eine ultradämliche Frage, aber:
Wie kann die GTX480 im CPU-Limit sein und die 5970 nicht? Das würde doch alle Karten, die schnell genug sind, auf ein Niveau zwingen.

dargo@work
2010-08-11, 19:14:40
Das ist vielleicht eine ultradämliche Frage, aber:
Wie kann die GTX480 im CPU-Limit sein und die 5970 nicht? Das würde doch alle Karten, die schnell genug sind, auf ein Niveau zwingen.
5970???

Die gibt es im Diagramm von Tarkin nicht.

boxleitnerb
2010-08-11, 19:28:29
Ich dachte, du hast dich auf Lolmans Bild bezogen :redface:

dargo@work
2010-08-11, 19:36:06
Wenn man sich das Diagramm von Tarkin genauer anschaut ergibt so Einiges keinen Sinn. Vor allem bei den ATIs. Die langsamsten NVs bis einschließlich GTX260 liegen voll im GPU-Limit. Beide Karten brechen in der höheren Auflösung sogar noch stärker ein als es eigentlich der Fall sein sollte. Vielleicht gibts in der Testszene kleine Abschnitte wo der Vram ausgeht. Das Speichermanagement unter dem GF104/GF100 war ja nicht so optimal. Ist immer schwer zu sagen wenn man nicht genau weiß wie getestet wurde. Ab der GTX460 aufwärts liegen alle NVs im CPU-Limit.

Bei den ATIs sind die Werte wie gesagt ziemlich seltsam. Die HD5870 und 5850 liegen beide noch im CPU-Limit. Die beiden kleinen ATIs verlieren in der höheren Auflösung viel zu wenig Frames. Zumal die HD5770 ungefähr die gleichen Frames wie die GTX260 liefert, die ja völlig im GPU-Limit liegt.

dargo@work
2010-08-11, 19:45:29
Argh... Vergesst das mit dem Vram. Prozentrechnen ist manchmal schwer.^^

Also nochmal von vorne - die Pixel steigen um 30%. Sprich, die Grafikkarten müssen im absoluten GPU-Limit 70% der Leistung von 1680x1050 liefern. Und beide Karten (GTX260 und GTS250) liegen etwas drüber. Erstere bei 74%, zweitere 71%.

Jetzt müsste halt nur geklärt werden warum die HD5770/5670 deutlich weniger verlieren.

Schlammsau
2010-08-11, 19:45:29
Dargo....sie haben Post! ;)

dargo@work
2010-08-11, 19:47:17
Dargo....sie haben Post! ;)
Bin auf Arbeit. ;-)

Schlammsau
2010-08-11, 19:55:29
Bin auf Arbeit. ;-)
Ok dann hier...Turbo Core deaktiviert oder!?