PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28

LovesuckZ
2010-04-22, 23:51:38
Ich muss schon sagen: Für so'n ein 230€ Gehäuse ist die Möglichkeit der Geräuschreduzierung ziemlich erbärmlich. Mein 4 Jahre altes 80€ Gehäuse mit 15€ Lüftermodifizierung hat ein wesentlich besseres Ergebnis ermöglicht.

y33H@
2010-04-22, 23:57:48
Sprichst du vom Corsair Obsidian 800D?

EDIT
Ohne Case-Lüfter erreicht die Karte laut CB 105° und throttelt. Was ich mich da frage: Ging der Lüfter auf 100% und konnte die Temp trotzdem nicht halten oder versagt die Lüftersteuerung? Letzteres wäre gruselig - da wundert es mich, das die Karte bei mir mit nur einem ausblasenden 500er Lüfter im Furmark bei 96° und 76% stehen blieb. Bei CB kommt sie mit einem Lüfter noch auf 104°. Entweder ist die Belüftung im Corsair Obsidian 800D crap² oder die LüSteu der CB-Karte ist ******.

LovesuckZ
2010-04-22, 23:58:45
Sprichst du vom Corsair Obsidian 800D?

Ja.

/edit: Leider wird nicht angegeben, mit welchem Programm sie die Karte getestet haben. Sollte aber wohl Furmark gewesen sein. Werde mal sehen, wo meine Karter auf default landet.

/edit2: zZ läuft die Karte Furmark 1.8 mit 91°C bei Lüftersteuerung aquf 77% durch. Ist aber auch ein bisschen unfair gegenüber Computerbase.de, da die IDLE Temperatur aufgrund von Lüftung des Raumes bei 41°C ist.

Savay
2010-04-23, 00:09:57
Eventuell bremst etwas anderes so sehr, dass die Tessellation die Fps nicht nach unten reißt. Das 4x MSAA etwa?


die tesselation selber bremst den RV870 doch garnichtmal so sehr! das sieht man ganz deutlich an AvP und Dirt mit Tess.
selbst in metro hält sich der verlust durch tesselation noch im rahmen.
in stalker ist der verlust schon bedeutender zusammen mit FSAA ist der verlust letztlich aber auch wieder irrelevant

was in AvP und Metro z.B. wirklich an der leistung zieht ist FSAA! egal ob mit oder ohne tesselation :freak:

LovesuckZ
2010-04-23, 00:14:06
die tesselation selber bremst den RV870 doch garnichtmal so sehr! das sieht man ganz deutlich an AvP und Dirt mit Tess.


Richtig: Wo nichts wirklich eingesetzt wird, da kann auch nichts bremsen. Mit Tessellation erzeugt Evergreen durchgehend immer noch ca. (1xCoretakt)/3 Dreiecke pro Takt. Also bei 850Mhz immer noch ca. 272 Millionen/sekunde.

urfaust
2010-04-23, 00:17:06
Entweder ist die Belüftung im Corsair Obsidian 800D crap²


Crap ist das "Heizstrahl-Turbinen-Feature" ... *duck* :wink:

Das Gehäuse jedenfalls ist in erster Linie für WaKü ausgelegt,
dennoch hervorragende Temps bei flüsterleiser Geräuschkulisse...

...dank 2x Noiseblocker, Corsair H50 und 3x Scythe Slip Stream 500 rpm

IDLE
http://www.bilder-hochladen.net/files/dssb-3t.jpg

LOAD
http://www.bilder-hochladen.net/files/dssb-3u.jpg

y33H@
2010-04-23, 00:19:59
@ Savay

In Stalker rutscht die HD5870 von 71,5 auf 49,8 Fps. Das sind minus 30%.

Das ist das blöde an 99% aller Review-Seiten: Fps-Balken, aber keine Angabe wo und wie die Werte gemessen wurden. Dadurch wird es einem sehr sehr schwer gemacht, vernünftige Aussagen zu treffen. In Stalker CoP läuft CB durch den Bauch des gestrandeten Schiffes, der Shadowsk. Da ist viel Tessellation zu sehen. Bei Dirt 2 nutzt CB Malaysia, da sind nur ein paar Pfützen und ein Leute am Streckenrand - je nachdem, wie lange CB misst. Den Verläufen nach 100 Sekunden. Bei AvP - kA was für eine Szene, im Worst Case ist die Szenerie voller Aliens oder man nimmt eine Cut-Scene wie die, wo eins der Viecher durch die Tür bricht. Da haut Tessellation übel rein. Merke: Ohne Angaben der Szene ist Fps-Werte nur halb so viel wert.

Dennoch interessant, dass Tessellation + 4x MSAA der HD5870 das Genick bricht.

LovesuckZ
2010-04-23, 00:22:38
@ Savay

In Stalker rutscht die HD5870 von 71,5 auf 49,8 Fps. Das sind minus 30%.

Das ist das blöde an 99% aller Review-Seiten: Fps-Balken, aber keine Angabe wo und wie die Werte gemessen wurden. Dadurch wird es einem sehr sehr schwer gemacht, vernünftige Aussagen zu treffen. In Stalker CoP läuft CB durch den Bauch des gestrandeten Schiffes, der Shadowsk. Da ist viel Tessellation zu sehen. Bei Dirt 2 nutzt CB Malaysia, da sind nur ein paar Pfützen und ein Leute am Streckenrand - je nachdem, wie lange CB misst. Den Verläufen nach 100 Sekunden. Bei AvP - kA was für eine Szene, im Worst Case ist die Szenerie voller Aliens oder man nimmt eine Cut-Scene wie die, wo eins der Viecher durch die Tür bricht. Da haut Tessellation übel rein. Merke: Ohne Angaben der Szene ist Fps-Werte nur halb so viel wert.

Dennoch interessant, dass Tessellation + 4x MSAA der HD5870 das Genick bricht.

Bezüglich Dirt:2: Sollte man mal das "Menü" Benchen. Dort gibt es Fahnen und haufenweise Leute im Sichtfeld...

Savay
2010-04-23, 00:23:09
Richtig: Wo nichts wirklich eingesetzt wird(...)

nichts stimmt ja schonmal garnicht...eingesetzt wird es...man sieht es doch oder etwa nicht? :rolleyes:

aber stimmt ich habe die flut der "uniginigen" spiele vergessen die in naher zukunft vor uns liegt :wink:

tesselation ist noch ähnlich zukunftsmusik wie es TnL damals war. spieleinsätze in dem ausmaß das es permanent nen RV870 einbrechen lässt und auf nem GF100 spielbar bleibt werden wir wohl so schnell nicht sehen schon garnicht breit gestreut:wink:

es ist ja schön das tesselation auf dem GF100 "for free" ist...er ist und bleibt in der beziehung aber etwas überdimensioniert und seiner zeit (zu weit?) vorraus. :smile: das bedeutet aber noch lange nicht das er dadurch zukunftssicherer ist...

aber gut lassen wir das herrumgereite auf der tesselationsleistung hier wird langsam wirklich nervtötend...

LovesuckZ
2010-04-23, 00:25:18
Ne, ist schon gut. Der G80-GT200b hatten auch keine Probleme mit 8xMSAA. Jedenfalls solange, wie man es nicht nutzt. :rolleyes:
Ich finde es sehr traurig, dass einige irgendwie alles immer verniedlichen oder totreden.

/edit: Und bezüglich Tessellation: Natürlich ist GF100 hier zukünftsicherer. Wer im besten Fall bis zu mehr als 7x soviele Dreiecke pro Sekunde erzeugen kann, der wird immer einen Vorteil haben.

y33H@
2010-04-23, 00:25:31
Spiel auf Unigine-Basis? Primal Carnage (http://www.primalcarnage.com/website/)! Hab n Faible für Dino-Shooter :freak:

Habe sogar das sehr mäßige Turok 2008 durch gezockt ... was stellenweise gar nicht übel war.

Savay
2010-04-23, 00:27:08
jo bliebe nur abzuwarten in welchem umfang tesselation eingesetzt wird...das hängt ja auch immernoch am content und weniger der engine :)


Dennoch interessant, dass Tessellation + 4x MSAA der HD5870 das Genick bricht.

es ist ja garnicht immer die kombination von beidem. in AvP muss irgendwas kaputt sein was das FSAA angeht. egal welches setting immer ca 30FPS
in metro ist der verlust DX11+FSAA zu DX11+FSAA+Tess bei unter 2FPS...

ich würde das limit nicht dauernd bei der tesselation suchen wenn es dort garnicht liegt :rolleyes:

das sieht mir bald mehr nach einer latenten "MSAA schwäche" beim RV870 in DX10 und 11 titeln aus...ähnliches betrifft ja unter DX9 auch den MSAA "hack" in UE3 spielen.

Savay
2010-04-23, 00:31:03
Ich finde es sehr traurig, dass einige irgendwie alles immer verniedlichen oder totreden.

hier redet niemand etwas tot :freak:
hier wird im gegenteil ein feature glorifiziert und hochstilisiert auf basis irgendwelcher benches und vergleiche in denen die ursache für die diskrepanz eben grade NICHT an diesem feature hängt :rolleyes:


/edit: Und bezüglich Tessellation: Natürlich ist GF100 hier zukünftsicherer. Wer im besten Fall bis zu mehr als 7x soviele Dreiecke pro Sekunde erzeugen kann, der wird immer einen Vorteil haben.

das muss nur garnichts heißen...wenn es schon jetzt teilweise an der spielbarkeit kratzt! ;)

urfaust
2010-04-23, 01:23:28
Laut 3D Center liegt die HD5870 zwar 5% vor der GTX470, aber dies nach über 6 Monaten Entwicklungszeit für einen optimalen Performancetreiber.


durchschnittlich 17% bei 2560x1600 (22 Spiele) :tongue:

http://tpucdn.com/reviews/ASUS/GeForce_GTX_470/images/perfrel_2560.gif

http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_470/30.html


durchschnittlich 13% bei 1920x1200 (22 Spiele)

http://tpucdn.com/reviews/ASUS/GeForce_GTX_470/images/perfrel_1920.gif

http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_470/30.html

LovesuckZ
2010-04-23, 01:32:23
das muss nur garnichts heißen...wenn es schon jetzt teilweise an der spielbarkeit kratzt! ;)

Weder in Metro2033 noch in Stalker muss man als GTX480 User auf Tessellation verzichten. AMD User dagegen müssen dagegen deutlich niedrige Werte in Kauf nehmen, die bis zum zähen Spielverlauf führen.

mapel110
2010-04-23, 01:48:59
Spiel auf Unigine-Basis? Primal Carnage (http://www.primalcarnage.com/website/)! Hab n Faible für Dino-Shooter :freak:

Habe sogar das sehr mäßige Turok 2008 durch gezockt ... was stellenweise gar nicht übel war.
http://en.wikipedia.org/wiki/Unigine
Da kommt noch einiges mehr mit der Engine.
24x lizenziert worden, 14x für Games.

Savay
2010-04-23, 02:24:55
Weder in Metro2033 noch in Stalker muss man als GTX480 User auf Tessellation verzichten. AMD User dagegen müssen dagegen deutlich niedrige Werte in Kauf nehmen, die bis zum zähen Spielverlauf führen.
mal ab davon das dort äpfel mit birnen verglichen wurden (wieso haben die keine GTX470 genommen?) o.O

nochmal ganz langsam extra für dich:

bei metro ist der verlust durch tesselation unter verwendung von 4xFSAA auf einer RV870 bei unter 2 FPS...wo siehst du da das dort die tess leistung limitiert? :rolleyes:

ich sehe dort mehr ein FSAA limit da der einbruch mit FSAA teilweise deutlich größer ist als bei dem GF100...ansonsten wäre der verlust unter 4xFSAA mit tesselation sowieso mindestens genauso groß wie ohne :freak:
bei stalker ist der verlust durch tesselation mit aktivem FSAA ebenfalls kleiner als ohne FSAA?! wo ist da die logik wenn doch die böse tess leistung limitiert zumal dank tesselation ja eh mehr kanten geglättet werden müssen als ohne?! :wink:

LovesuckZ
2010-04-23, 02:31:48
nochmal ganz langsam extra für dich:

bei metro ist der verlust durch tesselation unter verwendung von 4xFSAA auf einer RV870 bei unter 2 FPS...wo siehst du da das dort die tess leistung limitiert? :rolleyes:

Nö. Bitte die Graphen richtig lesen.


ich sehe dort mehr ein FSAA limit da der einbruch mit FSAA teilweise deutlich größer ist als bei dem GF100...ansonsten wäre der verlust unter 4xFSAA mit tesselation sowieso mindestens genauso groß wie ohne :freak:
bei stalker ist der verlust durch tesselation mit aktivem FSAA ebenfalls kleiner als ohne FSAA?! wo ist da die logik wenn doch die böse tess leistung limitiert zumal dank tesselation ja eh mehr kanten geglättet werden müssen als ohne?! :wink:

In Stalker ist der Vorsprung der GTX480 beim Einsatz von AA und Tessellation höher als mit AA und ohne Tessellation. Der Einbruch bei Verwendung von Tessellation und AA/AF ist bei Cypress und GF100 nahezu identisch, das gilt auch für die Werte mit AA/AF aber ohne Tessellation. Bitte auch hier die Graphen richtig lesen.

Savay
2010-04-23, 02:54:56
Nö. Bitte die Graphen richtig lesen.


28,1-26,3=1,8 :)

LovesuckZ
2010-04-23, 03:07:50
Cypress verliert 6,8% und GF100 4,1% an Leistung. Tut mir leid, aber beide verlieren im selben Maße. Hier ist MSAA der limitierende Faktor. Jedoch ist die GTX480 mit AA/AF genauso schnell wie die 5870 mit 1AA/1AF. Hier limiert bei Cypress die Tessellation-Leistung, was deine Aussage konterkariert.

Grestorn
2010-04-23, 07:50:24
hier redet niemand etwas tot :freak:
hier wird im gegenteil ein feature glorifiziert und hochstilisiert auf basis irgendwelcher benches und vergleiche in denen die ursache für die diskrepanz eben grade NICHT an diesem feature hängt :rolleyes:

So wie 8xAA glorifiziert und hochstilisiert wurde?! :)

Objektiv, wenn Du die Wahl zwischen 8xAA und Tesselation hättest, was würdest Du persönlich vorziehen?

Ailuros
2010-04-23, 08:24:03
als ob das bei diesen entwicklungskosten einen großen unterschied machen würde.
außerdem braucht sicher nicht jeder im treiberteam 2 GPUs um vernünftig optimieren zu können. die meisten optimierungen werden sowieso eher theoretischer natur sein. die setzen sich sicher hin und trial&errorn da performance in den code rein.

Ok wieso ist dann der 197-er launch Treiber trotz allem nicht ganz ausgereift?

genau darum geht es mir. dass ein treiber in bestimmten situationen (gerade in extremauflösungen) und in bestimmten anwendungen auch mal 30%+ gut machen kann ist nichts ungewöhnliches. aber die rede war vom durchschnitt über alle anwendungen und das am besten noch mit den einstellungen, die ein großteil der user tatsächlich fährt.

Es aendert aber nichts daran dass Stueck fuer Stueck mit Leistungs-Optimierungen nach dem launch die Leistung generell zulegt. 5% hier, 10% woanders und bei Extrem-Fallen sogar weit mehr ueber 30%. Im Durchschnitt legt jegliche GPU wenn man alle Treiber-Optimierungen durch etliche Monate zusammenzaehlt schon zu. Leistungs-Optimierungen heisst langwierige Simulationen auf Applikations-Basis und sie muessen auch stets verdammt vorsichtig sein dass bei jeglicher Aenderung nicht etwas anderes abkacken.

Und die X1950XTX verliert fast im gleichen Maße. Ich glaub eher, dass die da was mit ihren Ergebnissen verbockt haben.

Da ich die 8800GTX fast von Anfang an hatte, hab ich auch die Treiberentwicklung sehr nahe verfolgen koennen. Mein CRT geht zwar maximal nur auf 2048*1536, aber solche Aenderungen waren damals Monate nach dem launch schon echt.

Im Prinzip sind die Kosten eines Wafers gar nicht so hoch. Das was die Kosten verursacht sind ist das "hochrampen" einer/s neuen Technologie/Prozesses. Einen Wafer zu produzieren ist dann gar nicht so teuer. Je nach Schicht/Prozess ~5-50 € Cent (HK!). Für abgeschriebene Anlagen und mit guten Yield (85+) laufende Prozesse.
Eine durschnittliche CPU hat ~ 300 Schichten bei ~ 500 Mio. Transistoren. Eine GPU wie z. B. Fermi hat ~ drei Mrd., also gut das sechsfache mehr. Daraus folgen dann ca. 2000 Schichten für eine GPU (grob!). Das sind knapp 1000 € (0,5 € Cent!), wenn der Prozess läuft. Nehmen wir jetzt an der Prozess läuft mies und TSCM kann nicht den "Normalpreis" nicht halten, sind wir vielleicht allerhöchstens bei ~ 2000-2500 € pro Wafer.
Das was dann funktionierend herausgeschnitten werden kann steht dann auf einem anderen Blatt.

GT200@65nm kostete im ersten Monat seiner Produktion afaik ~$120 pro chip bei durchschnittlichen 62.5% yields. GF100 duerfte ca.$10 hoeher liegen.

So wie 8xAA glorifiziert und hochstilisiert wurde?! :)

Objektiv, wenn Du die Wahl zwischen 8xAA und Tesselation hättest, was würdest Du persönlich vorziehen?

Zwar ist die Frage nicht an mich gerichtet, aber meine Wahl wuerde auf die Option fallen die ich unmittelbar oefters gebrauchen koennte.

MechWOLLIer
2010-04-23, 09:44:28
Sprichst du vom Corsair Obsidian 800D?

EDIT
Ohne Case-Lüfter erreicht die Karte laut CB 105° und throttelt. Was ich mich da frage: Ging der Lüfter auf 100% und konnte die Temp trotzdem nicht halten oder versagt die Lüftersteuerung? Letzteres wäre gruselig - da wundert es mich, das die Karte bei mir mit nur einem ausblasenden 500er Lüfter im Furmark bei 96° und 76% stehen blieb. Bei CB kommt sie mit einem Lüfter noch auf 104°. Entweder ist die Belüftung im Corsair Obsidian 800D crap² oder die LüSteu der CB-Karte ist ******.

Die Lüftersteuerung funktioniert bei der Karte einwandfrei, nur hat das Gehäuse eben eine schlechte GPU-Belüftung. Und das ist wohl der Mord für GTX 400...

/edit: Leider wird nicht angegeben, mit welchem Programm sie die Karte getestet haben. Sollte aber wohl Furmark gewesen sein. Werde mal sehen, wo meine Karter auf default landet.

Ganz normal in Crysis Warhead.

Das ist das blöde an 99% aller Review-Seiten: Fps-Balken, aber keine Angabe wo und wie die Werte gemessen wurden. Dadurch wird es einem sehr sehr schwer gemacht, vernünftige Aussagen zu treffen. In Stalker CoP läuft CB durch den Bauch des gestrandeten Schiffes, der Shadowsk. Da ist viel Tessellation zu sehen. Bei Dirt 2 nutzt CB Malaysia, da sind nur ein paar Pfützen und ein Leute am Streckenrand - je nachdem, wie lange CB misst. Den Verläufen nach 100 Sekunden. Bei AvP - kA was für eine Szene, im Worst Case ist die Szenerie voller Aliens oder man nimmt eine Cut-Scene wie die, wo eins der Viecher durch die Tür bricht. Da haut Tessellation übel rein. Merke: Ohne Angaben der Szene ist Fps-Werte nur halb so viel wert.

Frag doch einfach nach =)
In Stalker hast du recht, Dirt 2 ebenso. Mehr Tessellation bekommsst du in Dirt 2 aber eh nie zu sehen, das Hauptmenü sollte ja auch irrelevant sein =)
Wir messen Dirt 2 genau 100 Sekunden, das hätte auch das Verlaufsdiagramm verraten :P
Die AvP2 Szene ist ein Mischmasch aus dem von dir erwähnten. Zuerst schleppt ein Alien einen für ein paar Sekunden rum und dann gehen wir nochmal etwa 15 Sekunden durchs Level. Wer noch mehr wissen will, einfach nachfragen :)

Gast
2010-04-23, 10:00:23
So wie 8xAA glorifiziert und hochstilisiert wurde?! :)

Objektiv, wenn Du die Wahl zwischen 8xAA und Tesselation hättest, was würdest Du persönlich vorziehen?

Naja, da Ihr ja sonst immer so auf die Bildqualität achtet (AF von ATI todbringend !) , im moment auf jeden Fall 8xAA.

Das ist schon jetzt für (fast) alles verfügbar !
Welche Spiele nutzen denn schon Tesselation , eins oder zwei ?

Aber immer schön Rosinenpicken und Bashen. Schon Klar !
Ich warte nur auf auf die erste Vendor-Abfrage die Tesselation künstlich beschränkt oder sperrt.

Brave New World !!!

Grestorn
2010-04-23, 11:19:41
Naja, da Ihr ja sonst immer so auf die Bildqualität achtet (AF von ATI todbringend !) , im moment auf jeden Fall 8xAA.

Sicher, 8xAA kann man in sehr vielen Spielen nutzen. Tesselation nur in wenigen.

Ich persönlich habe noch nie ohne Ausschnittsvergrößerung einen sichtbaren Unterschied zwischen 4x und 8xAA gesehen (und auch nicht bei den ganzen CSAA Modi von nVidia). Das sind für mich reine Vergleichslisten-Features. Deswegen ist mir das ganz egal.

Ganz anders natürlich Techniken wie Transp. AA oder ATIs SGSSAA. Das bringt wirklich was.

Und Tesselation bringt bei den Spielen, die es nutzen und sinnvoll einsetzen auch einen sichtbaren Vorteil. Deswegen lautet für mich die Antwort auf die Frage: Tesellation bringt was. SGSSAA bringt was. 8xAA bringt nix.

Also, warum musste man damals das 8xAA immer und immer wieder als das allein seligmachende Feature propagieren, bei dem nVidia so abstinkt? Und die selben Leute regen sich jetzt auf, wenn man das gleiche bei Tesellation macht, was ja nun wirklich ein brauchbares und sinnvolles Feature ist?

Ich warte nur auf auf die erste Vendor-Abfrage die Tesselation künstlich beschränkt oder sperrt.

Tesellation ist ein Feature von DirectX und kann deswegen natürlich nicht gesperrt werden.

Mr. Lolman
2010-04-23, 11:22:00
Naja, ein paar Ausnahmen gibts immer. Je härter die Kontraste und je gerader die Kanten, desto besser sieht mans.

Schlammsau
2010-04-23, 11:39:20
Ich bin auch kein Freund von 8xAA aber zB in HL² sind man schon einen sehr deutlichen Unterschied, zwischen 4x und 8xAA.

Ansonsten ist der Unterschied verschwindend gering.

Gast
2010-04-23, 12:27:32
durchschnittlich 17% bei 2560x1600 (22 Spiele) :tongue:

http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_470/30.html

durchschnittlich 13% bei 1920x1200 (22 Spiele)

http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_470/30.html

Was soll uns dieser Test jetzt sagen? Das die HD5870 besser abscheidet, wenn man AA in den Tests ausschaltet in denen es die Fps der Ati Karte stärker senkt als bei der GTX470? :tongue:
Ich spiel auch immer besonders gern Spiele mit 300fps und schalte die Filter nicht höher, ja da hat die HD5870 wirklich ihre stärken. Besonders Leuten die vorwiegend nur 3D-Mark 03 und 06 zocken kann die HD5870 auch ans Herz gelegt werden.

dargo
2010-04-23, 12:38:09
Spiel auf Unigine-Basis? Primal Carnage (http://www.primalcarnage.com/website/)!
Gefällt mir. :) Gibts das Video auch in besserer Quali und vorallem größer?

Gast
2010-04-23, 12:44:43
Ich persönlich habe noch nie ohne Ausschnittsvergrößerung einen sichtbaren Unterschied zwischen 4x und 8xAA gesehen (und auch nicht bei den ganzen CSAA Modi von nVidia). Das sind für mich reine Vergleichslisten-Features. Deswegen ist mir das ganz egal.

Ich war auch immer der Meinung mehr als 4xAA braucht man einfach nicht. Ich muss allerdings sagen, dass man das 32CSAA meiner GTX480 bei BF BC 2 echt sieht, ist einfach nur geil.
Wer über den Sinn von Tesselation diskutiert hat sowieso 0 Plan. Es ist das wichtigste Feature seit Einführung der Unified Shader und wird die Qualität der Grafik enorm verbessern. Allerdings sehe ich da kein großes Problem für Ati, denn bis das umgesetzt wird haben sie sicher die nächste Generation auf dem Markt, die sollte dann allerdings keine Tesselationsschwäche haben.

Fetter Fettsack
2010-04-23, 12:48:14
In BF2 sieht man manchmal auch Unterschiede zwischen 4xAA und 8xAA ohne dass man vergrößern müsste. Allerdings nur, wenn man mit viel Muße im SP-Mode auf Stadtmaps auf die Suche geht.

Sven77
2010-04-23, 12:51:12
Ich war auch immer der Meinung mehr als 4xAA braucht man einfach nicht. Ich muss allerdings sagen, dass man das 32CSAA meiner GTX480 bei BF BC 2 echt sieht, ist einfach nur geil.
Wer über den Sinn von Tesselation diskutiert hat sowieso 0 Plan. Es ist das wichtigste Feature seit Einführung der Unified Shader und wird die Qualität der Grafik enorm verbessern. Allerdings sehe ich da kein großes Problem für Ati, denn bis das umgesetzt wird haben sie sicher die nächste Generation auf dem Markt, die sollte dann allerdings keine Tesselationsschwäche haben.

Kann man so unterschreiben, Tesselation ist "The Next Big Thing".. Aber wie bei allen neuen Techniken leidet man hier eben unter dem Henne-Ei-Problem. Aber die Technik ist JETZT da, d.h. man kann gezielt dafür entwickeln. Bis Tesselation aber mehr als ein Nice-to-Have ist, wird GF100 wohl veraltet sein.. Aber was wären neue Techniken ohne Pionierarbeit und Pioniere wie uns ;)

LovesuckZ
2010-04-23, 13:58:08
Die Lüftersteuerung funktioniert bei der Karte einwandfrei, nur hat das Gehäuse eben eine schlechte GPU-Belüftung. Und das ist wohl der Mord für GTX 400...
Wer noch mehr wissen will, einfach nachfragen :)

Welche Lüftereinstellung habt ihr bei eurem Temperatur- und Lautstärketest erreicht?

Gast
2010-04-23, 16:00:19
Man kann über die Leistung von Fermi sagen was man will. Der einzig wirkliche Pluspunkt ist die Tesselationsleistung. Dann war es das aber auch schon. Bis Tesselation wirklich relevant wird hat ATI eine neue Kartengeneration herausgebracht. Angesichts der Tatsache, dass ATIs Karten gut ein halbes Jahr älter sind ist das nicht wirklich berauschend um nicht zu sagen enttäuschend.
Dazu kommt noch der Stromverbrauch, der die meisten von uns (mich eingeschlossen) nicht juckt, aber in Form von Wärme und Lärm doch wieder in Erscheinung tritt. Die von CB (bei geschlossenem Gehäuse!) gemessenen knapp 70 dB(A) sind schon heftig. Vor allem wenn man sich überlegt, dass der Arbeitsschutz vom Arbeitgeber ab einem Wert von 80 dB(A) Maßnahmen zum Schutz des Arbeitnehmers verlangt. Klar hat man den PC nicht auf dem Tisch stehen. Beim Zocken wird man die 70 dB aber leider immer heraushören. ... Man kann sich aber auch alles schönreden. :D

LovesuckZ
2010-04-23, 16:04:32
Nicht jeder hat ein 230€ Gehäuse zu Hause stehen, dass unzureichende Kühlungsmöglichkeiten offenbart. GTX480 wird sich sehr individuell bei jedem gestalten, da mit der Belüftung die Laufstärke einhergeht. Ich erreiche hier keine 70db im Furmark - Lüfter lief auf 82%.

Gast
2010-04-23, 16:15:35
Das ist schon richtig. Ich kann mir auch den Aufwand antun und eine WaKü einbauen. Wer sich die Karte leistet dem sind dann die paar Euronen auch egal. Aber ich will mir diesen Aufwand mit Wasser einfach nicht mehr antun.
Beim Gehäuse kann man sicherlich etwas machen. Aber i. d. R. ist dieses schon vorhanden. Anders gefragt. Muss ich mir zur neuen Karte mittlerweile ein neues Gehäuse kaufen!? Vorher ging es doch auch ...
Wenn Du schon schreibst, dass dein Gehäuse besser ist könntest Du eigentlich auch noch den Namen dessen verraten. Für alljene, die es sich doch noch überlegen wollen. :D
Ich nenne ein Antec P182 mein eigen und kann sagen, dass das Gehäuse schlecht entlüftet (außer man dreht die zwei 120er Lüfter von 500 auf 800. Was mir aber fast schon wieder zu laut ist. Aber beim Zocken ist es erträglich, wenn der Spielesound hinzukommt.

Gast
2010-04-23, 18:32:22
Ne ist klar. 800er Lüfter sind dir zu laut im Vergleich zu 500ern, aber die Gebläse der letzten zig High-End Karten gefallen dir.

Gast
2010-04-23, 19:17:29
Man kann über die Leistung von Fermi sagen was man will. Der einzig wirkliche Pluspunkt ist die Tesselationsleistung. Dann war es das aber auch schon. Bis Tesselation wirklich relevant wird hat ATI eine neue Kartengeneration herausgebracht.

Dir ist aber schon klar, dass die GTX480 eine HD5870 in einigen Spielen um 50%+ abhängt und das ohne Tesselation? Klar overall sind es nur 15 bis 25%, aber die Tatsache, dass der Abstand gerade bei neueren Titeln meist größer ist, sollte einem schon zu denken geben. Vor allem weil man nicht weiß was treibermäßig noch kommt.


Angesichts der Tatsache, dass ATIs Karten gut ein halbes Jahr älter sind ist das nicht wirklich berauschend um nicht zu sagen enttäuschend.

Was einige Leute einfach nicht kapieren ist, dass die maximal mögliche Performance eines GPU-Chips eigentlich nur von einem Faktor abhängt, der Strukturbreite. Da HD5870 und GTX480 beide 40nm Chips sind, ist es schon eine enorme Leistung, dass die GTX480 so viel schneller ist. Natürlich hat man sich dies teilweise mit einer höheren Verlustleistung erkauft. Will man allerdings eine HD5870 auf dieses Niveau übertakten, so wird man bei einer noch höheren Verlustleistung landen (wenn es denn mit Flüssigstickstoff überhaupt möglich ist so weit zu kommen).
Wer vor 7 Monaten eine HD5870 gekauft hat, ist damit natürlich gut gefahren. Will ich aber jetzt eine Grafikkarte kaufen, so habe ich doch nichts davon, das die HD5870 schon 7 Monate auf dem Markt ist.

Gast
2010-04-23, 20:45:02
Dir ist aber schon klar, dass die GTX480 eine HD5870 in einigen Spielen um 50%+ abhängt und das ohne Tesselation? Klar overall sind es nur 15 bis 25%, aber die Tatsache, dass der Abstand gerade bei neueren Titeln meist größer ist, sollte einem schon zu denken geben. Vor allem weil man nicht weiß was treibermäßig noch kommt.


Gerade der Abstand für neuere Titel ist doch der Tatsache geschuldet, dass damals, als die ATI herauskam, immer noch DX9-Titel die Majorität bildeten. Selbst DX10 war rahr. Von DX11 ganz zu schweigen. Also lag bei ATI das Hauptaugenmerk bei der Entwicklung auf DX9. nVidia kam gar nicht darum herum für DX11 zu entwickeln. Das zweite ist, dass das halbe Jahr mehr Entwicklungszeit gerade mal so einem 25-%igen Performancezuwachs (von dem Du hier sprichst) ggü. einer Vorgängergeneration (hier ggü. ATI, da nVidia nichts hatte) entspricht. nVidia umschreibt das so schön mit der Bemerkung, dass das Hauptagenmerk auf DX11 gelegen hat und nicht DX9. Selbst unter reinem DX11 ohne Tesselation ist der Leistungszuwachs unter DX10/11 einfach nur arm. Vgl.:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/4/#abschnitt_battlefield_bad_company_2

So schafft nVidia gerade mal eine Leistungssteigerung von 20-30%.

Drittens lässt sich bzgl. Tesselation heute noch gar nichts aussagen. Die Hersteller können die kommenden Titel trotz TWTMTBP an ATI nicht einfach vorbei entwickeln. Das alleine als Argument für einen Kauf heranzuziehen ist kurzsichtig. Insbesondere weil die Erfahrung lehrt, dass die erste Generation eines neuen Features die späteren Spiele nicht oder nur unzureichend darstellen kann. Das sieht man hier wieder eindrucksvoll bei ATI. Ob die Leistung bei NV ausreicht wird die Zukunft zeigen.

Was einige Leute einfach nicht kapieren ist, dass die maximal mögliche Performance eines GPU-Chips eigentlich nur von einem Faktor abhängt, der Strukturbreite. Da HD5870 und GTX480 beide 40nm Chips sind, ist es schon eine enorme Leistung, dass die GTX480 so viel schneller ist. Natürlich hat man sich dies teilweise mit einer höheren Verlustleistung erkauft. Will man allerdings eine HD5870 auf dieses Niveau übertakten, so wird man bei einer noch höheren Verlustleistung landen (wenn es denn mit Flüssigstickstoff überhaupt möglich ist so weit zu kommen).
Wer vor 7 Monaten eine HD5870 gekauft hat, ist damit natürlich gut gefahren. Will ich aber jetzt eine Grafikkarte kaufen, so habe ich doch nichts davon, das die HD5870 schon 7 Monate auf dem Markt ist.

Blah blah blah ... Tatsache ist, dass die HD5870 gut 1 Milliarde Transistoren benötigt und die GTX480 um die 3 Milliarden um eine ähnliche Leistung zu erzielen. Jetzt erzähl mir bitte nicht, dass man das alles für die Tesselation braucht und das nötig ist um in anderen Spielen ohne Tesselation 20-30% vorne zu liegen. Jeder Hersteller hat da seine eigene Philosophie/Technik.

Don Vito
2010-04-23, 20:57:48
Mal was für die Neider:D

http://img217.imageshack.us/img217/8646/img0979t.jpg

y33H@
2010-04-23, 20:59:23
Selbst unter reinem DX11 ohne Tesselation ist der Leistungszuwachs unter DX10/11 einfach nur arm. BC2 nutzt unter DX11 einzig eine bessere Schattenfilterung, je nach Szene ist die GTX 480 hier klar in Front. Metro sieht die GTX 480 in DX11 klar vorne, vor allem mit DoF. Battleforge mit 4x MSAA sind es +24% auf die HD5870 laut CB. In AvP ohne Tessellation mit 4x MSAA grob doppelt so schnell [Bug bei AMD? Release ist 2 Monate her]. Stalker CoP nur +15% und CMR Dirt 2 +19%, also nicht berauschend - aber messbar schneller. So schlecht wie von dir suggeriert ["einfach nur arm"] die die DX11-Leistung auch ohne Tessellation keinesfalls. Es sei denn, du zockst ohne AA :ulol: Da sieht's für die HD5870 viel besser aus.

Gast
2010-04-23, 21:01:47
Jeder Hersteller hat da seine eigene Philosophie/Technik.
Jo, bei AMD herrscht die Philosophie des Kaputtoptimierens. ;D
Besonders liebgewonnen haben se Filtereinsparungen. Und weil AMD ganz persönlich enstscheidet, was sichtbar ist und was nicht, darf sich der User Banding und Flimmern antun.
Kannst also bei den Benchmarks, wo mit AF getestet wurde, nochmal um die 10 % abziehen, um eine vergleichbare Basis mit nV @ Quality ohne Optimierungen zu haben.

Gast
2010-04-23, 21:01:48
Ne ist klar. 800er Lüfter sind dir zu laut im Vergleich zu 500ern, aber die Gebläse der letzten zig High-End Karten gefallen dir.

Wenn ich beide auf 800 laufen lasse ist meine 4870 unter Last (samt 940BE) auf gut 80° und der Lüfter der Grafikkarte wird durch die beiden 800er übertönt. Ist auch logisch weil der Lüfter der Grafikkarte im Gehäuse drinnen mehr Lärm erzeugt als durch die Luft/Geräusche die nach aussen getragen werden. Die beiden 120er sind ja fast draussen montiert um etwas zu übertreiben. Zudem ist das Gehäuse an den Seiten gedämmt. Außerdem gibt es nicht nur die Referenzlösung was Lüfter anbelangt. ;)

HarryHirsch
2010-04-23, 21:05:03
Mal was für die Neider:D

http://img217.imageshack.us/img217/8646/img0979t.jpg

So ein dreier sieht schon geil aus. :up:

Atma
2010-04-23, 21:06:59
Mal was für die Neider:D

http://img217.imageshack.us/img217/8646/img0979t.jpg
Mal Bitte mit Bild vom Stromverbrauch unter Last :D.

Gast
2010-04-23, 21:07:48
BC2 nutzt unter DX11 einzig eine bessere Schattenfilterung, je nach Szene ist die GTX 480 hier klar in Front. Metro sieht die GTX 480 in DX11 klar vorne, vor allem mit DoF. Battleforge mit 4x MSAA sind es +24% auf die HD5870 laut CB. In AvP ohne Tessellation mit 4x MSAA grob doppelt so schnell [Bug bei AMD? Release ist 2 Monate her]. Stalker CoP nur +15% und CMR Dirt 2 +19%, also nicht berauschend - aber messbar schneller. So schlecht wie von dir suggeriert ["einfach nur arm"] die die DX11-Leistung auch ohne Tessellation keinesfalls. Es sei denn, du zockst ohne AA :ulol: Da sieht's für die HD5870 viel besser aus.

Ja, das ist zugegeben schon etwas übertrieben. Aber man muss doch auch sehen, dass 25% Leistungszuwachs auch nicht so dramatisch sind wie bei dem Gast auf dem ich mich bezog dargestellt wurde. Die Leistung hat sich bei den Grafikkarten die Jahre zuvor fast immer verdoppelt. Bei nVidia ist es sogar eine völlig neue Kartengeneration wo man durchaus mehr erwarten konnte. Vergleiche hierzu 4890 vs. 5870. Wobei jetzt die 4870 der Refresh zur 4870 war. Dieser Sprung lag auch bei ~ 25-30% (wenn überhaupt).

dutchislav
2010-04-23, 21:08:34
Mal was für die Neider:D

http://img217.imageshack.us/img217/8646/img0979t.jpg

neidisch wäre ICH erst, wenn alle drei einen (voll)wasserkühler drauf hätten ;D

Tesseract
2010-04-23, 21:08:45
Mal was für die Neider:D

http://img217.imageshack.us/img217/8646/img0979t.jpg

erinnert ein bischen an den hier

http://images2.wikia.nocookie.net/__cb20090626013333/masseffect/images/a/ae/Sovereign_Character_Shot.png

:D

Nazar
2010-04-23, 21:13:40
Gerade der Abstand für neuere Titel ist doch der Tatsache geschuldet, dass damals, als die ATI herauskam, immer noch DX9-Titel die Majorität bildeten. Selbst DX10 war rahr. Von DX11 ganz zu schweigen. Also lag bei ATI das Hauptaugenmerk bei der Entwicklung auf DX9. nVidia kam gar nicht darum herum für DX11 zu entwickeln. Das zweite ist, dass das halbe Jahr mehr Entwicklungszeit gerade mal so einem 25-%igen Performancezuwachs (von dem Du hier sprichst) ggü. einer Vorgängergeneration (hier ggü. ATI, da nVidia nichts hatte) entspricht. nVidia umschreibt das so schön mit der Bemerkung, dass das Hauptagenmerk auf DX11 gelegen hat und nicht DX9. Selbst unter reinem DX11 ohne Tesselation ist der Leistungszuwachs unter DX10/11 einfach nur arm. Vgl.:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/8/#abschnitt_metro_2033
http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/4/#abschnitt_battlefield_bad_company_2

So schafft nVidia gerade mal eine Leistungssteigerung von 20-30%.

Drittens lässt sich bzgl. Tesselation heute noch gar nichts aussagen. Die Hersteller können die kommenden Titel trotz TWTMTBP an ATI nicht einfach vorbei entwickeln. Das alleine als Argument für einen Kauf heranzuziehen ist kurzsichtig. Insbesondere weil die Erfahrung lehrt, dass die erste Generation eines neuen Features die späteren Spiele nicht oder nur unzureichend darstellen kann. Das sieht man hier wieder eindrucksvoll bei ATI. Ob die Leistung bei NV ausreicht wird die Zukunft zeigen.



Blah blah blah ... Tatsache ist, dass die HD5870 gut 1 Milliarde Transistoren benötigt und die GTX480 um die 3 Milliarden um eine ähnliche Leistung zu erzielen. Jetzt erzähl mir bitte nicht, dass man das alles für die Tesselation braucht und das nötig ist um in anderen Spielen ohne Tesselation 20-30% vorne zu liegen. Jeder Hersteller hat da seine eigene Philosophie/Technik.

Ich finde es auch nicht gerade berauschend was nV abgeliefert hat.
Ein reines Gamer Produkt hätte durchaus mehr gebracht.
nV versucht einen Spagat, der bald nicht mehr gut gehen wird. Irgendwann müssen sie sich entscheiden entweder den Consumer und den Spieler Markt zielgerichtet zu bedienen oder sie bekommen richtig Probleme.

ATI ist aber auch nicht viel besser.
Gerade im Bereich AF haben sie nach der 1900 Serie ständig abgebaut. Auch haben sie es versäumt, die Spiele Entwickler im Bereich der Treiber vernünftig zu unterstützen. CF bekommt jetzt erst Profile. Für jemanden der Oben mitmischen will, ist das nicht berauschend.
Das der AI Schalter sowohl BQ als auch Performance bedient und man darüber kaum/keine Kontrolle hat, welches Feature man wirklich will, ist auch ein Problem, welches mit der Zeit immer größer werden wird.

Allerdings mag ich das Ausgrenzen der Spieler durch nV Only Feature auch nicht. Es darf einfach nicht sein, das per "Schalter" Besitzer andere GPU Beschleuniger bestimmte Features nicht erhalten oder das man versucht ein Monopol bei bestimmten Spielefeaturen zu schaffen.

Was die BQ angeht sehe ich aber momentan nV deutlich vorn, wenn es um die Möglichkeit der Einstellungen und der Unterstüzung geht.
Zwar hat ATI einen dicken Stein im Brett, wenn es um DX9 geht aber die Unterstüzung von DX10 und 11 ist deutlich auf dem Vormarsch und da steht ATI nicht mehr so gut da. Trotzdem sehe ich die Diskussion um das "grottenschlechte" AF der ATI als übertrieben an und unterstelle hier einigen pure Panikmache, gerade wenn man sieht, dass 99% der Profis das ach so schlechte AF erst aufgefallen ist, nachdem explizit darauf hingewiesen wurde.

Die Leistung des Fermi wird sich auch noch steigern lassen.
Da ATI schon seine Treiber verbessert hat, ist dort nicht mehr all zu viel Luft nach oben, somit sehe ich auch hier deutlich mehr Potenzial bei nV als bei ATI. Die Wahrscheinlichkeit, dass nV seine Vorsprung der Leistung ausbaut, ist sehr hoch.

nV ist für mich aktuell die bessere Wahl, wenn ich die strittigen Punkte, bezüglich nV aggresive Marketingstrategie, ausser acht lasse.

Don Vito
2010-04-23, 21:41:46
neidisch wäre ICH erst, wenn alle drei einen (voll)wasserkühler drauf hätten ;D

Wakü ist in Arbeit, erstmal müssen sie zeigenw as sie so können, dann kommt Wakü drauf;)

Grestorn
2010-04-24, 08:22:17
Ja, das ist zugegeben schon etwas übertrieben. Aber man muss doch auch sehen, dass 25% Leistungszuwachs auch nicht so dramatisch sind wie bei dem Gast auf dem ich mich bezog dargestellt wurde. Die Leistung hat sich bei den Grafikkarten die Jahre zuvor fast immer verdoppelt. Bei nVidia ist es sogar eine völlig neue Kartengeneration wo man durchaus mehr erwarten konnte. Vergleiche hierzu 4890 vs. 5870. Wobei jetzt die 4870 der Refresh zur 4870 war. Dieser Sprung lag auch bei ~ 25-30% (wenn überhaupt).

Die GTX4x0 muss mit der Vorgängergeneration verglichen werden (GTX200), wenn es um die Steigerung pro Generation geht, nicht mit der Parallelgeneration der Konkurenz. Auch wenn diese deutlich vorher auf den Markt kam.

Amboss
2010-04-24, 09:50:50
ich musste wirklich lachen über diesen Dau und seine GTX480

http://www.computerbase.de/forum/showthread.php?t=727061

Also der MK13 ist auch nicht geeignet für die GTX480, Caseking hatte ein Bundle im Angebot, ist aber mittlerweile wieder gestrichen worden. Bleibt nur ne Wakü, dann aber nicht vergessen die Spawas aktiv zu kühlen... Was für ein Crap.

aths
2010-04-24, 09:53:25
Die GTX4x0 muss mit der Vorgängergeneration verglichen werden (GTX200), wenn es um die Steigerung pro Generation geht, nicht mit der Parallelgeneration der Konkurenz. Auch wenn diese deutlich vorher auf den Markt kam.Warum "muss" sie das? Vergleiche mit der DX11-Highend-Konkurrenz sind doch genauso statthaft.

Grestorn
2010-04-24, 09:56:03
Warum "muss" sie das? Vergleiche mit der DX11-Highend-Konkurrenz sind doch genauso statthaft.

Sie "muss", wenn man die Leistungssteigerung dieser Generation bewertet. Gegen was sollte man denn sonst vergleichen?

Wenn ich gegen eine andere HW der selben Generation vergleiche, dann mache ich eben auch genau das: Einen Vergleich innerhalb der selben Generation. Die Verspätung des Fermis ändert doch nichts daran, dass er zur selben Generation gehört, wie der RV870.

aths
2010-04-24, 10:30:19
Sie "muss", wenn man die Leistungssteigerung dieser Generation bewertet. Gegen was sollte man denn sonst vergleichen?

Wenn ich gegen eine andere HW der selben Generation vergleiche, dann mache ich eben auch genau das: Einen Vergleich innerhalb der selben Generation. Die Verspätung des Fermis ändert doch nichts daran, dass er zur selben Generation gehört, wie der RV870.Den Käufer interessiert doch keine Generationsaufteilung, sondern was er hier und jetzt bekommt für sein Geld. Da NV für den GF100 einige Monate mehr Zeit hatte, kann man auch einige Monate Fortschritt erwarten. Den gibts nur leider nicht, im Gegenteil sind nur maximal 15 von 16 Einheiten aktiv.

Dass GTX 280 vom GTX 480 trotzdem ganz gut abgezogen wird spielt keine Rolle da die Wahl in DX11 zwischen Radeon und GTX 400 steht.

Grestorn
2010-04-24, 10:32:37
Den Käufer interessiert doch keine Generationsaufteilung,

Hallloooo.... Schau mal auf den Beitrag, den ich gequotet hatte. Es geht hier nicht um eine allgemeine Aussage sondern um eine Antwort auf einen Beitrag, der schlicht unlogisch ist.

tombman
2010-04-24, 11:23:24
neidisch wäre ICH erst, wenn alle drei einen (voll)wasserkühler drauf hätten ;D
Ich krieg heute meine dritte Zotac 480er ;) Und nächste Woche kriegst dann das Gewünschte zu sehen ;)
(falls ich nicht im Spital bin...)

Savay
2010-04-24, 11:32:20
(falls ich nicht im Spital bin...)

wegen eines hitzeschlags? :tongue:

Savay
2010-04-24, 11:44:01
Kannst also bei den Benchmarks, wo mit AF getestet wurde, nochmal um die 10 % abziehen(...)

bestimmt keine 10% angesichts dessen das der RV870 gut 1/3 mehr Tex leistung mitbringt als selbst die GTX285 die wiederrum mehr tex leistung als eine GTX480 hat. :wink:

ich tippe fast darauf das die textureinheiten einfach nicht besser filtern können...HQ artiges AF dürfte seit dem RV870 zumindest theoretisch nahezu kaum noch etwas kosten angesichts der rohleistung. (auf jedenfall nicht mehr als auf einer GTX285) :)

AnarchX
2010-04-24, 12:04:01
Laut CB ist der Verlust bei GF100 durch AF höher als bei G200 und Cypress, aber zusätzliches HQ kostet nahezu nichts: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests

Mr.Magic
2010-04-24, 12:22:59
Den Käufer interessiert doch keine Generationsaufteilung, sondern was er hier und jetzt bekommt für sein Geld. Da NV für den GF100 einige Monate mehr Zeit hatte, kann man auch einige Monate Fortschritt erwarten. Den gibts nur leider nicht, im Gegenteil sind nur maximal 15 von 16 Einheiten aktiv.

Dass GTX 280 vom GTX 480 trotzdem ganz gut abgezogen wird spielt keine Rolle da die Wahl in DX11 zwischen Radeon und GTX 400 steht.

Um zu wissen was mir eine GTX480 bringen würde brauche ich einen Vergleich zu meiner Karte(ngeneration), und keinen zu irgendeiner Radeon, die mich nicht juckt.
Jedenfalls habe ich reine ATI vs NV Tests sofort wieder geschlossen.

Iruwen
2010-04-24, 12:26:47
Den Käufer interessiert doch keine Generationsaufteilung, sondern was er hier und jetzt bekommt für sein Geld. Da NV für den GF100 einige Monate mehr Zeit hatte, kann man auch einige Monate Fortschritt erwarten. Den gibts nur leider nicht, im Gegenteil sind nur maximal 15 von 16 Einheiten aktiv.

Dass GTX 280 vom GTX 480 trotzdem ganz gut abgezogen wird spielt keine Rolle da die Wahl in DX11 zwischen Radeon und GTX 400 steht.

Was haben die 15 von 16 Einheiten (deren Bedeutung kein normaler Käufer kennt) damit zu tun? Die Peformance ist auch so beeindruckend genug, auch im Vergleich zu ATI, wenn man DX11 betrachtet (worum es ja gerade geht).

tombman
2010-04-24, 12:34:12
http://www.abload.de/img/loallogf.png (http://www.abload.de/image.php?img=loallogf.png)

Ohne Worte ;)

Iruwen
2010-04-24, 12:36:50
Wie ein V8 bei 25L Verbrauch - ROARRR ;)

dutchislav
2010-04-24, 13:03:26
Ich krieg heute meine dritte Zotac 480er ;) Und nächste Woche kriegst dann das Gewünschte zu sehen ;)
(falls ich nicht im Spital bin...)

geilo geilo geilo ;D

kann mir atm keine 2. u 3. karte leisten, da ich mein restliches geld in ne china reise gesteckt hat

warte noch auf mein aquatuning zeugs, dann kommt die karte mal ohne wakü ins system um sie ne woche zu testen, ob überhaut alles glatt läuft

der vgpu-x3 wakü von watercool sollte ende april, anfang mai kommen :cool:

Gast
2010-04-24, 13:55:25
Gerade der Abstand für neuere Titel ist doch der Tatsache geschuldet, dass damals, als die ATI herauskam, immer noch DX9-Titel die Majorität bildeten. Selbst DX10 war rahr. Von DX11 ganz zu schweigen. Also lag bei ATI das Hauptaugenmerk bei der Entwicklung auf DX9.

Sehr interessant, dir ist schon klar, wenn an dem was du sagt etwas dran ist, dürfte sich niemand mehr, seit dem erscheinen der GTX4xx-Serie, eine HD5xxx kaufen. Die sind ja nun veraltet und für die neuen Spiele ungeeignet. :rolleyes:


Blah blah blah ... Tatsache ist, dass die HD5870 gut 1 Milliarde Transistoren benötigt und die GTX480 um die 3 Milliarden um eine ähnliche Leistung zu erzielen. Jetzt erzähl mir bitte nicht, dass man das alles für die Tesselation braucht und das nötig ist um in anderen Spielen ohne Tesselation 20-30% vorne zu liegen. Jeder Hersteller hat da seine eigene Philosophie/Technik.

Also die HD5870 hat 2,15 Milliarden Transistoren, aber hast recht das is ungefähr gut 1 Milliarde. Die GTX480 is auch 3 mal so schnell wie die HD5870 ... naja zumindest ungefähr ;)


Da NV für den GF100 einige Monate mehr Zeit hatte, kann man auch einige Monate Fortschritt erwarten.

Genau hier liegt einfach bei vielen Leuten der Denkfehler. Die Leistung ist durch den 40nm Prozess beschränkt und da könnte man NV und Ati auch 100 Jahre Zeit geben, man könnte trozdem keine schnelleren 40nm Karten bauen! Vieleicht könnte man 2 bis 5% herausholen durch diese und jene Optimierung, aber steigerungen von 10, 50 oder gar 100% gibt es erst mit einem kleineren Prozess.
Daher ist die Leistung der GTX4xx Karten auch in keinster Weise eine Enttäuschung.

Gast
2010-04-24, 14:14:59
http://www.abload.de/img/loallogf.png (http://www.abload.de/image.php?img=loallogf.png)

Ohne Worte ;)

Mit 1.6kW bin ich vor 10 Jahren Moped gefahren.

Gast
2010-04-24, 14:15:15
Sehr interessant, dir ist schon klar, wenn an dem was du sagt etwas dran ist, dürfte sich niemand mehr, seit dem erscheinen der GTX4xx-Serie, eine HD5xxx kaufen. Die sind ja nun veraltet und für die neuen Spiele ungeeignet. :rolleyes:




Also die HD5870 hat 2,15 Milliarden Transistoren, aber hast recht das is ungefähr gut 1 Milliarde. Die GTX480 is auch 3 mal so schnell wie die HD5870 ... naja zumindest ungefähr ;)




Genau hier liegt einfach bei vielen Leuten der Denkfehler. Die Leistung ist durch den 40nm Prozess beschränkt und da könnte man NV und Ati auch 100 Jahre Zeit geben, man könnte trozdem keine schnelleren 40nm Karten bauen! Vieleicht könnte man 2 bis 5% herausholen durch diese und jene Optimierung, aber steigerungen von 10, 50 oder gar 100% gibt es erst mit einem kleineren Prozess.
Daher ist die Leistung der GTX4xx Karten auch in keinster Weise eine Enttäuschung.


Naja die Architekur macht schon auch einiges aus. Sonst hätte es keinen r600 oder nv30 gegeben.

Gast
2010-04-24, 14:16:14
Mit 1.6kW bin ich vor 10 Jahren Moped gefahren.

Da hast du aber bestimmt die Verlustleistung von dem Motor noch nicht mitgerechnet.... trotzdem krass.

Kosh
2010-04-24, 14:36:52
Hat jemand schonmal eine 5870 auf die Verlustleistungs/Lautstärkewerte der GTX480 gebracht und dann verglichen??

Weil im Prinzip ist die GTX480 doch qausi nur schneller,weil sie auf Lautstärke und Verlustleistung sche...t.

Gast
2010-04-24, 14:37:39
Naja die Architekur macht schon auch einiges aus. Sonst hätte es keinen r600 oder nv30 gegeben.

Naja der nv30 war kein schlechter Chip leider inkompatibel zum damaligen DX, weil das noch nicht fertig war als der Chip designt wurde und da lag das Problem. HD5xxx und GTX4xx sind beide von der Architektur gelungen, somit ist da nix mehr großartig an Steigerung drin. Man muss auch bedenken, dass man von der Software abhängig ist, vieleicht könnte man einen 40nm Chip bauen der mit DX20 besser läuft, aber atm zählt nun mal DX9 bis 11 und da geht nicht mehr.
Das "6 Monate später Argument" ist halt einfach Müll, man kann heute schon Karten für Ray-Tracing optimieren und fertigen, dass Problem ist einfach ohne kleiner Strukturbreiten fehlt die nötige Leistung. Von der Architektur her könnte man jetzt schon die Karten bauen, die wir erst in 10 Jahren sehen werden.

Slipknot79
2010-04-24, 14:45:15
http://www.abload.de/img/loallogf.png (http://www.abload.de/image.php?img=loallogf.png)

Ohne Worte ;)

Hm, mein Modellauto hat ca 4kW :redface:

LovesuckZ
2010-04-24, 14:50:19
Hat jemand schonmal eine 5870 auf die Verlustleistungs/Lautstärkewerte der GTX480 gebracht und dann verglichen??

Weil im Prinzip ist die GTX480 doch qausi nur schneller,weil sie auf Lautstärke und Verlustleistung sche...t.

Nö, Computerbase.de hat eine Lightning: 50Mhz mehr Takt und 50 Watt mehr Strom für lächerliche 3% Mehrleistung. Die GTX480 ist bei denen immernoch 8% schneller und verbraucht gegenüber der Lightning nur noch 28% mehr Strom. Es gibt keine Chance, dass AMD ebenfalls eine gleichschnell Single-GPU bauen könnte. Einzig eine pro AMD Spieleauswahl könnte einen Gleichstand ermöglichen.

Raff
2010-04-24, 14:52:58
Eine HD 5870 mit 1.050/2.800 MHz bei 1,35 Volt – das schaffen gute und vor allem gut gekühlte Exemplare – kommt der GTX 480 gewiss gefährlich nahe. Und zwar in jeder Hinsicht. Meine Vapor-X schafft das benchstable, magst du zumindest Fps-Werte? ;)

MfG,
Raff

LovesuckZ
2010-04-24, 14:56:15
Kommt da kein Artikel? ;)
Aber schon erstaunlich: Ich brauche für 19% Mehrtakt nur 3,8% mehr Spannung, du für 23% ca. 15%.

Gast
2010-04-24, 14:56:19
Einzig eine pro AMD Spieleauswahl könnte einen Gleichstand ermöglichen.

Naja die Computerbase Spieleauswahl ist ja bereits ziehmlich pro Ati, sonst wäre der Abstand auch nicht 10 bis 15% sondern 15% bis 25%.

Raff
2010-04-24, 15:06:16
Kommt da kein Artikel? ;)
Aber schon erstaunlich: Ich brauche für 19% Mehrtakt nur 3,8% mehr Spannung, du für 23% ca. 15%.

Da gibt's wie immer einen "Sweet spot": Für ein rundes Gigahertz, also 17,6 Prozent mehr Takt (sofern man 850 als Bassis nimmt, meine hat 870 MHz), genügen meiner Karte ~1,24 Volt (+6,6 Prozent).

Ein Artikel? Hmmm ... ;)

MfG,
Raff

Gast
2010-04-24, 15:08:00
Eine HD 5870 mit 1.050/2.800 MHz bei 1,35 Volt – das schaffen gute und vor allem gut gekühlte Exemplare – kommt der GTX 480 gewiss gefährlich nahe. Und zwar in jeder Hinsicht. Meine Vapor-X schafft das benchstable, magst du zumindest Fps-Werte? ;)

MfG,
Raff

Im Forumdeluxx hat mal jemand was dazu geschrieben. Er hatte eine HD5870 auf 1100MHz und eine GTX480. Die HD5870 kann die GTX480 zwar einholen und teilweise sogar überholen, was die Avg. Fps betrifft, allerdings war er der Meinung, dass es sich mit der GTX480 subjektiv trozdem flüssiger spielt, da sie einfach weniger Framedrops hat.

Gast
2010-04-24, 15:09:13
bis zu 1ghz ist meist ein Spannung von 1.25V ausreichend.

Raff
2010-04-24, 15:09:18
Im Forumdeluxx hat mal jemand was dazu geschrieben. Er hatte eine HD5870 auf 1100MHz und eine GTX480. Die HD5870 kann die GTX480 zwar einholen und teilweise sogar überholen, was die Avg. Fps betrifft, allerdings war er der Meinung, dass es sich mit der GTX480 subjektiv trozdem flüssiger spielt, da sie einfach weniger Framedrops hat.

Gut möglich. Daher gilt es, eine HD 5870/2G derart zu tweaken. Das geht aber "dank" der neuen Spar-PCBs nur noch per Lötkolben – oder mit einer gut gekühlten Eye 6.

MfG,
Raff

Gast
2010-04-24, 15:23:45
Gut möglich. Daher gilt es, eine HD 5870/2G derart zu tweaken. Das geht aber "dank" der neuen Spar-PCBs nur noch per Lötkolben – oder mit einer gut gekühlten Eye 6.

MfG,
Raff

Naja bevor man sowas macht, sollte man auf ne Wassergekühlte GTX480 setzen, mit einem Schlag sind alle Probleme gelöst. Bei der HD5870 kann man die Probleme eben nur bedingt bis gar nicht lösen. Die 2GB Version hat zwar weniger Framedrops als die 1GB aber immer noch deutlich mehr als die GTX480 und die DX11 schwächen lassen sich durch übertakten auch nicht lösen.

Don-Roland
2010-04-24, 15:30:56
Wo bleiben eigentlich die Ankündigungen zur "HD 5890" des 5870 Refresh? Oder wird das ganze mit einer anderen Nummer benannt.

Gast
2010-04-24, 15:31:15
Welche DX11 Schwächen?

http://www.abload.de/img/07d3hu.png (http://www.abload.de/image.php?img=07d3hu.png)

http://www.abload.de/img/16q2p3.png (http://www.abload.de/image.php?img=16q2p3.png)

Gast
2010-04-24, 15:45:34
Welche DX11 Schwächen?

Schön bekommst ein Keks. Hast das ganze i-net durchsucht um Bilder zu finden in denen die HD5870 gut abschneidet. Leider ändert es nichts daran, dass BF BC 2 bereits auf einer GTX470 besser läuft als auf der HD5870. Dazu braucht man dann natürlich mehr als Avg. Fps. ;)

y33H@
2010-04-24, 15:54:02
Die Mehrheit der Reviews sieht die GTX480 in BC2 vor der HD5870. Sehr schön ist auch das Video von Canucks (http://www.youtube.com/watch?v=Jh1HQ64HcmE).

http://www.abload.de/thumb/2010-04-23_222431obwo.png (http://www.abload.de/image.php?img=2010-04-23_222431obwo.png) http://www.abload.de/thumb/2010-04-23_222333yyjn.png (http://www.abload.de/image.php?img=2010-04-23_222333yyjn.png) http://www.abload.de/thumb/2010-04-23_222602j96n.png (http://www.abload.de/image.php?img=2010-04-23_222602j96n.png) http://www.abload.de/thumb/2010-04-23_2227268a5n.png (http://www.abload.de/image.php?img=2010-04-23_2227268a5n.png) http://www.abload.de/thumb/2010-04-23_222719xyq8.png (http://www.abload.de/image.php?img=2010-04-23_222719xyq8.png) http://www.abload.de/thumb/2010-04-23_222633vxn4.png (http://www.abload.de/image.php?img=2010-04-23_222633vxn4.png) http://www.abload.de/thumb/2010-04-23_222710n9af.png (http://www.abload.de/image.php?img=2010-04-23_222710n9af.png) http://www.abload.de/thumb/2010-04-23_222758ox8s.png (http://www.abload.de/image.php?img=2010-04-23_222758ox8s.png) http://www.abload.de/thumb/2010-04-23_22280879hl.png (http://www.abload.de/image.php?img=2010-04-23_22280879hl.png) http://www.abload.de/thumb/2010-04-23_2228198997.png (http://www.abload.de/image.php?img=2010-04-23_2228198997.png) http://www.abload.de/thumb/2010-04-23_222921dbv2.png (http://www.abload.de/image.php?img=2010-04-23_222921dbv2.png) http://www.abload.de/thumb/22182v9p9.png (http://www.abload.de/image.php?img=22182v9p9.png) http://www.abload.de/thumb/bc2-dx11-1280shwh.png (http://www.abload.de/image.php?img=bc2-dx11-1280shwh.png) http://www.abload.de/thumb/bc2-dx11-1680bh72.png (http://www.abload.de/image.php?img=bc2-dx11-1680bh72.png) http://www.abload.de/thumb/bc2-dx11-1920ff0g.png (http://www.abload.de/image.php?img=bc2-dx11-1920ff0g.png)

Nazar
2010-04-24, 15:58:10
Welche DX11 Schwächen?

http://www.abload.de/img/07d3hu.png (http://www.abload.de/image.php?img=07d3hu.png)

http://www.abload.de/img/16q2p3.png (http://www.abload.de/image.php?img=16q2p3.png)

Vermutlich wird mal wieder über Extrem Tesselationing gesprochen :freak:

Tesselation ist ohne Frage eine wichtiges Feature für die Zukunft aber mit Sicherheit kein "Must Have" Verkaufsargument für die jetzigen DX11 Beschleuniger, da dafür einfach die Grundlagen in Form von einer ausreichenden Spieleunterstützung fehlt und noch so lange fehlen wird, bis die nächste Generation der GPUs auf dem Markt ist.

Preisleistungssieger ist z.Z. ATI und wird es noch eine ganze Weile bleiben. Allerdings muss ATI aufpassen nicht den Anschluß im Bezug auf die Tesselation Unterstüzung zu verlieren und sie müssen deutlich mehr Einstellungsmöglichkeiten zur individuellen BQ Anpassung schaffen. Auch fehlt immer noch eine ausreichende Unterstüzung der Spieleentwickler (man sieht es bei der CF "Unterstützung" Deiner Benches sehr gut).
"Nur" gute GPUs auf den Markt zu werfen, wird in Zukunft nicht mehr reichen, wenn man ein großes Stück vom Kuchen abhaben möchte.

Meine nächste GPU wird die GTX480 sein, da sie mir aktuell mehr im Bereich Leistung (besonders im Bereich min. FPS ist sie einfach unschlagbar) und BQ bietet als die 58XX Serie.

DrFreaK666
2010-04-24, 16:00:10
470€ vs. 340€

Gast
2010-04-24, 16:01:37
Gut. Häufig aber nur im meßbaren Bereich . Und Gegenbeispiele gibts auch:

http://www.abload.de/img/bbc2_03cqfs.png (http://www.abload.de/image.php?img=bbc2_03cqfs.png)

http://www.abload.de/img/bbc2_02irml.png (http://www.abload.de/image.php?img=bbc2_02irml.png)

Außerdem gings ursprünglich darum, ob eine übertaktete HD5870/2G mit der GTX480 mithalten könnte.

Gast
2010-04-24, 16:18:53
Die Mehrheit der Reviews sieht die GTX480 in BC2 vor der HD5870. //www.abload.de/image.php?img=2010-04-23_222333yyjn.png]http://www.abload.de/thumb/2010-04-23_222333yyjn.png[/url]

Wen interessiert 1680x1050? Oder hast du die Auflösung nur genommen, weil da die GTX480 gut abschneidet?

http://www.abload.de/img/bc2284os.gif (http://www.abload.de/image.php?img=bc2284os.gif)

http://www.abload.de/img/bc2w2lk.gif (http://www.abload.de/image.php?img=bc2w2lk.gif)

y33H@
2010-04-24, 16:22:00
Wen interessiert 2560? Haben eh nur 0,001% aller User.

Gast
2010-04-24, 16:23:17
Nö, Computerbase.de hat eine Lightning: 50Mhz mehr Takt und 50 Watt mehr Strom für lächerliche 3% Mehrleistung. Die GTX480 ist bei denen immernoch 8% schneller und verbraucht gegenüber der Lightning nur noch 28% mehr Strom. Es gibt keine Chance, dass AMD ebenfalls eine gleichschnell Single-GPU bauen könnte. Einzig eine pro AMD Spieleauswahl könnte einen Gleichstand ermöglichen.

Toller Vergleich, wie man es von einem Fanboy gewohnt ist. Die Lightning braucht alle schon für ihre 16 Spawas die 50W.

Gast
2010-04-24, 16:26:52
Wen interessiert 2560? Haben eh nur 0,001% aller User.

Mehr Auflösung -> Weniger CPU-Limit. Wen interessiert eine Micky-Mouse-Auflösung? Auch gibt es so Dinge wie Downsampling wo man noch weit höhere Auflösungen fährt.

Gast
2010-04-24, 16:39:49
Nö, Computerbase.de hat eine Lightning: 50Mhz mehr Takt und 50 Watt mehr Strom für lächerliche 3% Mehrleistung

Nein, die Lightning weicht vom Referenz-Design ab und ist stromtechnisch eine Fehlkonstruktion wie die GTX480, nur dass diese im Referenz-Design so auch hergestellt wird.

hq-hq
2010-04-24, 16:55:43
also 2560x1600 is echt fast genauso wichtig wie 1280x1024,
vor allem weil fast niemand in diesen auflösungen spielt.
halt, stimmt nicht ganz, es gibt bestimmt viele wow zocker
die noch in 1280x1024 spielen... blöd nur das ausgerechnet
wow von nvidia fanboys programmiert wurde.

das ständige gejammere über den hohen stromverbrauch ist dumm,
da kauft ihr euch 600 und 700 watt netzteile und würdet sie einmal
brauchen aber dann, oooh nöööö die braucht ja soooviel strom... roflkopter

aja, und wenn es ein spiel auf der welt gibt das am meisten von tesselation profitieren würde, dann wäre es das polygonarme wow...
da kann man nur hoffen ^^

Raff
2010-04-24, 16:58:17
Nein, die Lightning weicht vom Referenz-Design ab und ist stromtechnisch eine Fehlkonstruktion wie die GTX480, nur dass diese im Referenz-Design so auch hergestellt wird.

Die Lightning ist keine Fehlkonstruktion, sie ist nur etwas am oberen Mainstream, wo sie mehrheitlich gekauft wird, vorbeidesignt. Die im Alltag übetriebenen Phasen und soliden Drosseln bringen's, wenn man die Karte volle Rotze mit Spannung maträtiert. Dumm nur, dass der Kühler das dann nicht packt ...

Wen interessiert 2560? Haben eh nur 0,001% aller User.

Mich. =) Das ist die Königsklasse. Gibt schöne Einblicke in die Leistung unter Extrembedingungen, hat jedoch wenig Relevanz für 99% aller Spieler.

MfG,
Raff

SamLombardo
2010-04-24, 17:05:19
Nene@gast, kannst Du drehen und wenden wie Du willst, ne 2560er Auflösung ist völlig praxisfern. Die 1650er und 1920er Auflösungen sind die die in der Praxis zählen. Dass Du die irrelevanten Monsterauflösungen hier raussuchst um die angebliche Überlegenheit der Ati Karten zu demonstrieren ist schon sehr leicht durchschaubar.

Meine Meinung ist, dass man jemandem, der heute eine neue Graka kauft und bereit ist 300+€ auszugeben, den Fermi durchaus empfehlen kann. Tessellation ist leicht zu implementieren und wird kommen, schneller als so mancher hier denkt(wünscht?). Und das selbst in Multiplattformspielen siehe Metro. Sicherlich am Anfang "nice to have" und nicht "must have", aber dennoch! Deshalb würde ich die beispielsweise die GTX 470 der HD 5870 vorziehen. In heutigen Titeln ist sie gleich auf und für zukünftige Spiele (deutlich?...man wird sehen) besser gerüstet. Und das ist ganz sicher keine "ferne" Zukunft, wohin die Richtung geht zeigt sich ja jetzt schon.

Die Diskussion um Tesselation erinnert mich ein bisschen an die Diskussion damals um SM3.0 - Das war für die ATi Fans auch soooowas von überflüssig, selbst als es die ersten Games als min. Vorraussetzung hatten...bis dann die ersten Ati Karten kamen die es gut konnten, da änderte sich schlagartig die Meinung über die Bedeutung von SM3.0. Mit Tesselation wird es genauso sein soviel ist sicher.

Mein bescheidene Meinung:) und kein Fanboygelaber(... ich hatte die letzten 6 Jahre Ati Karten und werd auch sicher in Zukunft mal wieder welche haben. Aktuell halte ich die NV für die besseren Karten, in Punkto Preis-Leistung im High End Segment speziell die GTX470)

Gruß Sam

DrFreaK666
2010-04-24, 17:14:12
...Meine Meinung ist, dass man jemandem, der heute eine neue Graka kauft und bereit ist 300+€ auszugeben, den Fermi durchaus empfehlen kann. Tessellation ist leicht zu implementieren und wird kommen, schneller als so mancher hier denkt(wünscht?)....

Gruß Sam

Das ist dann wohl ein Wunsch deinerseits...
Wieviele games mit Tess. sind denn bisher angekündigt??

y33H@
2010-04-24, 17:18:31
Es gibt:

• AvP
• CMR Dirt 2
• Metro 2033
• Stalker CoP

Es kommen als DX11-Titel noch Crysis 2, Dungeons and Dragons Online, F1 2010, Genghis Khan, HdR Online und Race Driver Grid 2. Zudem sind Spiele auf Basis der Unigine- und der Cry3-Engine in Entwicklung. Ob diese alle Tessellation nutzen, ist nicht bekannt - zumindest bei Crysis 2 wette ich aber drauf.

DrFreaK666
2010-04-24, 17:19:54
Es gibt:

• AvP
• CMR Dirt 2
• Metro 2033
• Stalker CoP

Es kommen als DX11-Titel noch Crysis 2, Dungeons and Dragons Online, F1 2010, Genghis Khan, HdR Online und Race Driver Grid 2. Zudem sind Spiele auf Basis der Unigine- und der Cry3-Engine in Entwicklung. Ob diese alle Tessellation nutzen, ist nicht bekannt - zumindest bei Crysis 2 wette ich aber drauf.

DX11-Titel bieten ja nicht zwangsläufig Tesselation, oder?

y33H@
2010-04-24, 17:25:53
Tessellation ist nur ein Feature von DX11. Wo DX11 draufsteht, muss keine Tessellation drin sein.

DrFreaK666
2010-04-24, 17:27:56
Tessellation ist nur ein Feature von DX11. Wo DX11 draufsteht, muss keine Tessellation drin sein.

ja eben, es ging aber um tesselation :wink:

y33H@
2010-04-24, 17:31:10
Du fragtest speziell nach Titeln, die mit Tessellation angekündigt wurden. Von den bisher noch nicht erschienenen DX11-Titeln iirc keiner.

Raff
2010-04-24, 17:34:28
Neben DX11 ist "Tessellation" ein so werbewirksames Buzzword, dass wir das IMO in fast jedem DX11-Spiel sehen werden.

MfG,
Raff

DrFreaK666
2010-04-24, 17:35:23
Du fragtest speziell nach Titeln, die mit Tessellation angekündigt wurden. Von den bisher noch nicht erschienenen DX11-Titeln iirc keiner.

Bevor AVP3, Dirt2 und Metro erschienen sind wusste man, dass diese Tess. unterstützen werden.

y33H@
2010-04-24, 17:36:24
Zu den bisher noch nicht erschienenen DX11-Titeln gibt's nur sehr wenig Infos. Warte ein bisschen =)

DrFreaK666
2010-04-24, 17:40:10
Zu den bisher noch nicht erschienenen DX11-Titeln gibt's nur sehr wenig Infos. Warte ein bisschen =)

Ist eigentlich auch sehr OT :smile:

Gast
2010-04-24, 17:59:40
Neben DX11 ist "Tessellation" ein so werbewirksames Buzzword, dass wir das IMO in fast jedem DX11-Spiel sehen werden.

MfG,
Raff

Tatsächlich? Warum war es denn damals bei der seeligen Radeon 8500 sang und klanglos untergegangen?

DrFreaK666
2010-04-24, 18:00:44
Tatsächlich? Warum war es denn damals bei der seeligen Radeon 8500 sang und klanglos untergegangen?

Weil es IHV-exklusive features immer etwas schwer haben

Iruwen
2010-04-24, 18:05:33
Weil AMD noch nie ein besonders gutes Marketing hatte ;)

DeadMeat
2010-04-24, 18:45:35
Wen interessiert 2560? Haben eh nur 0,001% aller User.

Wer kauft sich 400+ Euro Karten um 16xx Auflosüngen zuspielen?
Ich glaub in der Region ist 2560 wirklich angebracht.

y33H@
2010-04-24, 18:47:56
Als ob das Groß der GTX 4x0 User einen 30er/27er mit 2560 nutzen würde. Selbst in 1680 oder 1920 bekommt man eine GTX 480 OC locker platt bzw. die Fps sind niedrig genug ...

Tesseract
2010-04-24, 18:48:16
Weil AMD noch nie ein besonders gutes Marketing hatte ;)
berichtigung: weil ati es, damals wie heute, nicht für nötig hält ordentlich mit den devs zu kommunizieren und sich viel mehr darum kümmert, ob features auf checklisten gut klingen als ob sie wirklich verwendbar sind.

Gast
2010-04-24, 18:53:40
Als ob dass Groß der GTX 4x0 User einen 30er/27er mit 2560 nutzen würde. Selbst in 1680 oder 1920 bekommt man eine GTX 480 OC locker platt bzw. die Fps sind niedrig genug ...

Wer 500 euro für ne graka ausgibt, sollte schon nen monitor auf gleichem niveau haben.Wenn die gtx480 vorher versagt ist das mehr nen Armutszeugniss als das man plötzlich guggt wie se auf nen 100 euro moni performt...

Ausserdem, denk ich, interessiert sich der groß, zumindest hier, wie das mit der DS performance aussieht.

Gast
2010-04-24, 19:10:03
ich hab nen 24" für 900€.....paßt das?

Tesseract
2010-04-24, 19:13:58
Wer 500 euro für ne graka ausgibt, sollte schon nen monitor auf gleichem niveau haben.

es gibt keine vernünftigen monitore für gamer mit 2560er auflösung die preislich auch nur irgendwie in der region einer 500€ graka liegen.

benchmarks in dieser auflösung sind momentan (leider) vollkommen praxisfern.

Gast
2010-04-24, 19:16:04
Lol ich frage mich was man mit den paar ATI-Pro Benchmarks eigentlich bezwecken will. Mittlerweile sollte es doch wirklich jeder ATI-Fanboy gemerkt haben dass der großteil der Benchmarks die man findet (ganz besonders unter DX11) zeigen dass Nvidia mit ihrer GTX480 hier bis zu max 20% überlegen ist.
Nunja es bringt doch soweiso nichts.

LovesuckZ
2010-04-24, 19:16:57
Vorallem hat man durch die 77% mehr Pixel auch keinen Vorteil. Selbes Seitenverhältnis wie kleinere Monitore und AA und AF wird weiterhin benötigt. Dank Downsampling bei nVidia unter DX9 und bald bei allem >DX9 macht eine hohe Auflösung nur sinn, wenn man viel mit 2D arbeitet.

mictasm
2010-04-24, 19:37:55
Als ob dass Groß
denk ich, interessiert sich der groß, zumindest hier
Mal ehrlich, trinkt ihr schon am Nachmittag?

Wenn man die Lebensdauer von Grafikkarten und Monitoren anschaut, dann ist ein 30"-Monitor für 1500-2000€ doch völlig in Ordnung. Mein Dell hält schon seit 7800GTX SLI.

Tesseract
2010-04-24, 19:46:36
Wenn man die Lebensdauer von Grafikkarten und Monitoren anschaut, dann ist ein 30"-Monitor für 1500-2000€ doch völlig in Ordnung. Mein Dell hält schon seit 7800GTX SLI.

und was hat der für reaktionszeiten? und was für einen pixel pitch?
größer ist leider nicht immer besser. was mache ich mit so einem großen monitor wenn die pixel viel zu grob sind und man in bewegung augenkrebs bekommt?
die aktuellen 2560er monitore sind für mich zum gamen einfach kein "high-end".

es müssten endlich mal monitore mit 300 dpi her, dann würde sich auch die diskussion über anti aliasing und flimmern mehr oder weniger selbst erledigen.

hq-hq
2010-04-24, 20:03:56
es ist wirklich schwierig einen grossen guten monitor zum zocken zu finden, darum hab ich mir dann gleich nen 32" lcd tv gekauft.. hat aber auch nur 1920x1080 finde ich aber gut.
mit 3ms wird er angegeben, natürlich nicht so gut wie mein alter 22" mit 2ms ^^
die farben sind aber viel besser ich würde mir keinen 2ms tft mehr kaufen der blasse farben wirft und lichthöfe hat..

Coda
2010-04-24, 20:05:06
es müssten endlich mal monitore mit 300 dpi her, dann würde sich auch die diskussion über anti aliasing und flimmern mehr oder weniger selbst erledigen.
Nö würde es nicht. Um Anti-Aliasing damit zu machen müssten die Pixel so klein sein, dass unser Auge sie nicht mehr einzeln auflösen kann.

Tesseract
2010-04-24, 20:06:36
Nö würde es nicht. Um Anti-Aliasing damit zu machen müssten die Pixel so klein sein, dass unser Auge sie nicht mehr einzeln auflösen kann.

können sie ja nicht bei entsprechendem sitzabstand. warum wird diese DPI ja z.B. im druck verwendet.

Gast
2010-04-24, 22:43:48
Das ist natürlich ein gutes Argument.

Gast
2010-04-24, 22:47:55
Trotzdem bräuchte man wahrscheinlich >1000DPI. Denn in Bewegung fällt Aliasing ja viel deutlich auf, als bei einem Standbild. Bei 300DPI würde man immernoch ein 'unruhiges' Bild wahrnehmen.

Coda
2010-04-24, 23:14:29
können sie ja nicht bei entsprechendem sitzabstand. warum wird diese DPI ja z.B. im druck verwendet.
Man braucht jedenfalls so viele, dass das Auge praktisch das Downsampling erledigt.

Ich würde mal schätzen dass 300 DPI dafür nicht ausreicht, aber nachprüfen kann ich es nicht. Beim Druck wird ja schließlich auch entsprechend gefiltert.

Es wäre aber total ineffizient Pixel kleiner als das Auge wahrnehmen kann zu verwenden, deshalb werden wir wohl immer Anti-Aliasing brauchen.

Raff
2010-04-24, 23:31:55
Vorallem hat man durch die 77% mehr Pixel auch keinen Vorteil. Selbes Seitenverhältnis wie kleinere Monitore und AA und AF wird weiterhin benötigt. Dank Downsampling bei nVidia unter DX9 und bald bei allem >DX9 macht eine hohe Auflösung nur sinn, wenn man viel mit 2D arbeitet.

Das Mehr an Pixeln wirkt sich auch auf das Texture LOD aus. In 2.560x1.600 hast du nicht bloß mehr Pixel, sondern auch bessere Texturen. Auch Filterpfusch fällt weniger auf, da der Mist mit steigender Auflösung immer weiter Richtung Horizont verschoben wird. Mehr Pixel sind immer besser als wenige.

MfG,
Raff

aths
2010-04-25, 00:24:27
Das Mehr an Pixeln wirkt sich auch auf das Texture LOD aus. In 2.560x1.600 hast du nicht bloß mehr Pixel, sondern auch bessere Texturen. Auch Filterpfusch fällt weniger auf, da der Mist mit steigender Auflösung immer weiter Richtung Horizont verschoben wird. Mehr Pixel sind immer besser als wenige.Bis auf den letzten Satz stimme ich dir zu.

Mehr Pixel sind aber nicht immer besser. Warum das so ist, verrate ich ein andermal.

hq-hq
2010-04-25, 01:57:19
ist das andermal jetzt ?

Tesseract
2010-04-25, 02:04:49
Ich würde mal schätzen dass 300 DPI dafür nicht ausreicht, aber nachprüfen kann ich es nicht. Beim Druck wird ja schließlich auch entsprechend gefiltert.

hochauflösende smartphone displays sind da schonmal ein guter ansatzpunkt in welche richtung es gehen würde. natürlich bringt AA auch auf 300 dpi noch was, aber dennoch würde ein bild ohne AA auf 300dpi bei normalem sitzabstand für das auge bereits deutlich besser aussehen als z.B. 8xSG mit heutiger pixeldichte.
schon allein deswegen weil man den groben pixelraster nichtmehr sieht.

PHuV
2010-04-25, 02:13:16
Nene@gast, kannst Du drehen und wenden wie Du willst, ne 2560er Auflösung ist völlig praxisfern.

Bitte? :| Diese für Dich vielleicht praxisferne Auflösung ist bei mir seit über 3 Jahren relevant. Genau deshalb habe ich SLI wieder entdeckt, und mittlerweile gibt es viel mehr Leute, die mit so einer Auflösung auch spielen. News des 17./18. April 2010 (http://www.3dcenter.org/news/2010-04-18). 7% der High-Enduser spielen mittlerweile mit 2560x1600. Das ist schon eine fette Zahl, verglichen damit, was so eine Ausstattung kostet. Und die Zahl wird immer mehr. Man muß nur einmal davor sitzen und die Spielfläche damit geniesen, sei es der Mehrplatz in Strategiespielen oder die größere Sichtfläche bei Ego-Shootern. 2560x1600 bietet zu 1920x1080 fast die doppelte Pixelanzahl bzw. Fläche.

Wen interessiert 2560? Haben eh nur 0,001% aller User.

Bevor man unsinnige Behauptungen aufstellt, sollte man sie auch belegen! Siehe obiger Link, im Highend-Bereich sind es mittlerweile 7%! Das ist weit von Deiner Zahl entfernt. Und die Auflösung ist in dem Moment relevant, wo sie praktisch genutzt wird, wenn sie das maximal technisch Machbare darstellt, und diese Auflösung im Konsumbereich bezahlbar erwerbbar ist.

Nach Deinem Argument wäre dann alle Autos mit Geschwindigkeiten über 130 km/h unsinnig, man kann nur auf X % der Straßen auf dieser Welt nicht mehr als 130 fahren. Faktisch gibt es aber die meisten Autos, die das können!

Nur weil es nicht viele Highend-User gibt, muß das noch lange der Grund sein, warum eine 2560x1600 dennoch nicht eine Referenz sein soll. Fakt ist, diese Technik ist heute gar nicht mehr so ungewöhnlich, sie kann sich jeder leisten (genau so wie sich viele Leute heute ein entsprechendes Auto leisten).

Iruwen
2010-04-25, 02:52:58
Bei Strategiespielen ok, bei Shootern seh ich doch dadurch nicht mehr sondern hab (bei gleichbleibendem Sitzabstand) eher nicht mehr die Möglichkeit alles im Auge zu behalten. Meinen 1920x1200 24"er würde ich nicht hergeben, und wenn dann durch ein Modell mit den gleichen Daten ersetzen. Ich setz mich im Kino ja auch nicht in die erste Reihe.

hq-hq
2010-04-25, 03:05:41
@PHuV

sorry, aber ich kenn niemand der einen 2560x1600 moni zum zocken hätte, und hier ist
das lohnniveau hoch, alle haben arbeit, zocken auch noch immer...

ich möchte natürlich auch das die hohe auflösung mitgebencht wird nur ist die performance dort kein argument mit gewicht

-> schlimmer ist eher das 1280x1024 oft fehlt, es gibt noch so einige die sich da tummeln ^^

Schlammsau
2010-04-25, 10:08:32
Leo hats, denke ich genau auf den Punkt gebracht.
http://www.3dcenter.org/
Stimme ihm da voll und ganz zu.
Die PC Games Hardware hat in der Techdemo Stone Giant einige Benchmarks von GeForce GTX 470/480 gegen Radeon HD 5770 und 5870 durchgeführt. In diesem Test dominieren die nVidia-Karten recht deutlich – was aber auch kein großes Wunder ist, da der Benchmark ähnlich dem Uniengine-Heaven-Test sehr stark auf DirectX11-Tesselation setzt und auf diese Anforderungen die nVidia-Hardware einfach besser vorbereit ist. Die große Frage bei all diesen Tesselations-Tests lautet inzwischen ja eher, wann wir einen auch nur annähernd so heftigen Tesselations-Einsatz wie in diesen Benchmarks auch in der Spielepraxis sehen werden – wenn überhaupt in absehbarer Zeit.

Hinzu kommt der Punkt, daß sich Demonstrationen mit heftigen Tesselations-Grad ziemlich einfach erstellen lassen – man schraubt einfach die Dreiecks-Zahl bei der "normalen" Grafik entsprechend stark herunter, dann ist der Tesselations-Effekt um so deutlicher zu sehen. Problematischerweise hat dies dann aber wenig mit der Spiele-Realität zu tun, wo kein Spieleentwickler den Detailgrad absenken wird, nur damit die DirectX11-Tesselation besser zum Zuge kommt – ganz besonders nicht, wenn der Spieleentwickler zweigleisig denken muß für User mit DirectX11-Tesselation und User ohne DirectX11-Tesselation. Somit ist der praktisch erzielbare Nutzen von DirectX11-Tesselation gleich von zweierlei Seite geringer als in allen Techdemos gezeigt.

Zum einen wird es in realen Spiele sicherlich nicht so einen heftigen Tesselations-Einsatz geben wie in diesen Techdemos, und zum anderen ist auch das Basisniveau der "normalen" Grafik in realen Spielen höher. In der Praxis ist der Spielraum, welchen die DirectX11-Tesselation hat, ergo viel kleiner als in den Techdemos – womit auch der erhebliche Vorteil, welchen nVidias DirectX11-Beschleuniger unter diesem Feature haben, in der Praxis viel kleiner ausfallen wird und unter Umständen gar in der allgemeinen Performance verschwindet. Nur eher langfristig dürfte sich nVidias Ansatz dann doch bezahlt machen, denn die DirectX11-Tesselation ist als Feature doch schlagkräftig und scheinbar auch recht einfach einzubauen, dürfte sich also durchsetzen und voraussichtlich zu umfassender Anwendung bei zukünftigen Spielen kommen.

Tesselation ist sehr schönes und nützliches Feature, aber im Moment noch nicht soooo wichtig.

Gast
2010-04-25, 10:21:33
wichtig ist so einiges nicht....zb. AI ist vollkommen unwichtig....AF geschiede Dx10/11) ist vollkommen unwichtig usw usw......

Vor allem wäre es "wichtig" die Dinge mal ohne Scheuklappen zu sehen.

Gast
2010-04-25, 11:32:39
Tesselation ist sehr schönes und nützliches Feature, aber im Moment noch nicht soooo wichtig.

Was ist denn dann soooo wichtig an DX11?

dargo
2010-04-25, 13:26:14
Leo hats, denke ich genau auf den Punkt gebracht.
http://www.3dcenter.org/
Stimme ihm da voll und ganz zu.

Ich muss da Leo widersprechen. Er geht davon aus, dass Tesselation in Games nur per On/Off-Schalter angeboten wird. Ich gehe eher davon aus, dass in Zukunft mindestens es ein Low/Medium/High geben wird. Die Welt dreht sich schließlich nicht nur um die HD5850/5870 oder GTX470/480. Es gibt da noch das Mainstream/Performance-Segment @HD5770 und was da noch von NV kommen mag. Ich denke die wollen von der Tesselation auch noch was sehen.

Savay
2010-04-25, 13:35:23
Ich muss da Leo widersprechen. Er geht davon aus, dass Tesselation in Games nur per On/Off-Schalter angeboten wird. Ich gehe eher davon aus, dass in Zukunft mindestens es ein Low/Medium/High geben wird. Die Welt dreht sich schließlich nicht nur um die HD5850/5870 oder GTX470/480. Es gibt da noch das Mainstream/Performance-Segment @HD5770 und was da noch von NV kommen mag. Ich denke die wollen von der Tesselation auch noch was sehen.

was dem RV870 nicht zum nachteil gereichen wird...die tesselationsleistung bzw das frontend/tri setup ist bei der HD5770 ja defakto identisch zur HD5870 :rolleyes: orientiert wird sich idR eh am kleinsten gemeinsamen nenner mit der größten marktdurchdringung.

LovesuckZ
2010-04-25, 13:38:37
Die Dreieckserzeugung ist identisch. Aber nicht die DX11 Tessellationleistung.

dargo
2010-04-25, 13:38:55
was dem RV870 nicht zum nachteil gereichen wird...die tesselationsleistung ist bei der HD5770 ja defakto identisch zur HD5870 :rolleyes:
Ah, und die DX11-Games bestehen nur aus Tesselation? :rolleyes:

Savay
2010-04-25, 13:40:09
Ah, und die DX11-Games bestehen nur aus Tesselation? :rolleyes:

wenn man etlichen postern hier glauben kann schon :wink:

Raff
2010-04-25, 13:41:37
Die Dreieckserzeugung ist identisch. Aber nicht die DX11 Tessellationleistung.

Eben, beim Tessellieren wird auch herumgeshaded (Hull, Domain), und da ist Cypress eben doppelt so flink wie Juniper.

MfG,
Raff

Savay
2010-04-25, 13:42:24
Die Dreieckserzeugung ist identisch. Aber nicht die DX11 Tessellationleistung.

klar die hängt dann letztlich noch an der verfügbaren shaderleistung. die frage ist ob der RV870 shader oder setup limitiert ist :wink:
was mich da mal interessieren würden wären cypress <-> juniper vergleiche in unigine bei niedriger auflösung ohne FSAA um sonstige limits auszuschließen.

dargo
2010-04-25, 13:44:27
wenn man etlichen postern hier glauben kann schon :wink:
Wenns denn so wäre müssten die bekannten Games um den Faktor 6 (wenn ich die Folien richtig in Erinnerung habe) und nicht ~2 schneller sein, GTX480 vs. HD5870. ;)

Raff
2010-04-25, 13:44:42
klar die hängt dann letztlich noch an der verfügbaren shaderleistung. die frage ist ob der RV870 shader oder setup limitiert ist :wink:

Diverse Benchmarks sagen: setuplimitiert. Liegt ja auch nahe beim Verhältnis von FLOPS zu Polys/s des Edge Setups.

MfG,
Raff

LovesuckZ
2010-04-25, 13:47:20
Wenns denn so wäre müssten die bekannten Games um den Faktor 6 (wenn ich die Folien richtig in Erinnerung habe) und nicht ~2 schneller sein, GTX480 vs. HD5870. ;)

Gibt genug Beispiel, wo GTX480 soviel schneller ist. Alles eine Frage der Dreiecksanzahl. Aber auch logisch, denn GTX480 kann im besten mehr as 7x soviele Dreiecke pro takt erzeugen als Evergreen. Man sieht also, dass eine 2001 Tessellation-Implementierung nicht ausreichend ist für das Jahr 2009. Aber ob nVidia's 2011 Implementierung wirklich schon nötig war für das ursprüngliche Jahr 2009?

dargo
2010-04-25, 13:49:14
@PCGH

Habt ihr Stone Giant auch mit mittlerer Tess.-Stufe gegen die HD5870 gebencht? Wenn ich mir das Gittermodell so anschaue finde ich die mittlere Stufe eigentlich schon ausreichend. Ist der optische Zugewinn zu High Ingame wirklich noch groß?

Aber ob nVidia's 2011 Implementierung wirklich schon nötig war für das ursprüngliche Jahr 2009?
Gute Frage. Ich habe keine Ahnung wie teuer so eine Implementierung auf den ganzen Chip bezogen letztendlich ist. Der Vorteil dabei ist, dass man sich beim Nachfolger eventuell mehr wieder auf die "Rohleistung" konzentrieren kann.

dargo
2010-04-25, 13:52:58
bitte löschen

Savay
2010-04-25, 14:01:23
Alles eine Frage der Dreiecksanzahl. (...)Man sieht also, dass eine 2001 Tessellation-Implementierung nicht ausreichend ist für das Jahr 2009.

ganz genau...ausreichend definiert sich genau über die verwendete dreieckszahl und damit über die masse der verfügbaren spiele die tesselation nutzen und solange es in der breiten masse keine spiele gibt die einen RV870 nur aufgrund des tesselationsgrades absolut in die knie zwingen ist es sinnlos zu behaupten "es wäre nicht ausreichend".

in 1-2 jahren können wir nochmal drüber sprechen.

aber in absehbarer zeit wird sich sowieso kein spielentwickler der nicht massiv von nV finanziert wird dazu herablassen die installierte basis an ATi DX11 hardware zu ignorieren um an eben diesen vorbei zu entwickeln in dem derart auf tesselation gesetzt wird das einzig ein GF100 in der lage ist die last zu stemmen.

da wird es wohl mittelfristig einen sweetspot geben der sich eher am RV870 als am GF100 orientiert oder mehrere tesselationstufen die ingame anwählbar sein werden.
je höher der tesselationsgrad umso geringer ist ja generell der optische gewinn...insofern doch mittelfristig eine verschmerzbare schwäche beim RV870 :cool:
bis tesselation derart relevant wird ist das ding lange wieder veraltet


Aber ob nVidia's 2011 Implementierung wirklich schon nötig war für das ursprüngliche Jahr 2009?

wohl eher nicht...die interessante frage ist ob ein verzicht auf eine derart "übertrieben" hohe tesselationsleistung beim stromverbrauch und dem verfügbaren transistorbudget irgendetwas gebracht hätte oder ob es quasi ein nebenher mitgenommenes extra ist um ggü der konkurrenz einen checklisten vorteil zu erhaschen :smile:

LovesuckZ
2010-04-25, 14:04:00
DX11 Tessellation ist dynamisch. Eher bezahlt AMD Entwickler, dass sie keine Wahl bei der Einstellung lassen, um so nur eine geringe Last zu erzeugen. Jeder unabhängige Entwickler wird dagegen mehrere Stufen mit einem dynamischen LoD implementieren. Dann hat jeder DX11 Kunde die Wahl, was er einstellt.

Savay
2010-04-25, 14:08:05
Eher bezahlt AMD Entwickler, dass sie keine Wahl bei der Einstellung lassen, um so nur eine geringe Last zu erzeugen.

klar...AMD...die firma auf deren lausigen entwickersupport hier dauernd in nicht endenden diskussionen rumgeritten wird, bezahlt entwickler...um etwas derartig zu implementieren das es den konkurrenten schlechter aussehen lässt!? ;D ich musste lachen ;)


Dann hat jeder DX11 Kunde die Wahl, was er einstellt.

ja ist doch wunderbar...jeder gewinnt keiner verliert... der eine halt mehr der andere weniger :wink:

Armaq
2010-04-25, 16:34:26
Gibt genug Beispiel, wo GTX480 soviel schneller ist. Alles eine Frage der Dreiecksanzahl. Aber auch logisch, denn GTX480 kann im besten mehr as 7x soviele Dreiecke pro takt erzeugen als Evergreen. Man sieht also, dass eine 2001 Tessellation-Implementierung nicht ausreichend ist für das Jahr 2009. Aber ob nVidia's 2011 Implementierung wirklich schon nötig war für das ursprüngliche Jahr 2009?
Guter Punkt.

SamLombardo
2010-04-25, 18:05:48
"Problematischerweise hat dies dann aber wenig mit der Spiele-Realität zu tun, wo kein Spieleentwickler den Detailgrad absenken wird, nur damit die DirectX11-Tesselation besser zum Zuge kommt"

...Genau das ist doch der Punkt: Multiplattformspiele sind nicht gerade berühmt für ihre Masssen an Polygonen. Die sind doch geradezu predestiniert für Tesselation. Detailgradabsenken ist gar nicht nötg, der ist eh schon gering genug, wenn das Game auch auf Konsolen laufen soll.

PHuV
2010-04-25, 23:22:41
@PHuV

sorry, aber ich kenn niemand der einen 2560x1600 moni zum zocken hätte, und hier ist
das lohnniveau hoch, alle haben arbeit, zocken auch noch immer...


Und, wie viele kennst Du, die einen Porsche oder Ferrari fahren? ;) Und hier im Forum gibt es mittlerweile einige: Don Vito, Blaire, mich ..., wie erwähnt, mittlerweile 7% im Highend-Bereich.

Gast
2010-04-26, 08:17:09
Das ist hier ja auch ein Sportwagen-Forum... :-)

Gast
2010-04-26, 08:44:08
Das ist hier ja auch ein Sportwagen-Forum... :-)


Na komm, von 3 GTXen ist es doch nun wirklich nur noch ein kleiner Sprung zu einem Porsche/Ferrari... ;D

Gast
2010-04-26, 10:31:10
DX11 Tessellation ist dynamisch. Eher bezahlt AMD Entwickler, dass sie keine Wahl bei der Einstellung lassen, um so nur eine geringe Last zu erzeugen. Jeder unabhängige Entwickler wird dagegen mehrere Stufen mit einem dynamischen LoD implementieren. Dann hat jeder DX11 Kunde die Wahl, was er einstellt.

Und schon jetzt sieht man kaum einen Unterschied zu deaktivierter Tesselation ijn zB. Metro.
Als LOD-Ersatz ist es zudem wegen der mangelndern Kontrollbarkeit in praktischen Projekten nur schwer oder garnicht zu gebrauchen.

Iruwen
2010-04-26, 11:03:38
Dass die derzeitigen Implementierungen keinen praktischen Vorteil bringen heißt ja nicht dass die Technik an sich nichts taugt.

Gast
2010-04-26, 11:30:47
An Metro sieht man gut wie aufgeblähte Geometrie wirkt => garnicht.
Außerdem frißt es da sogar massig Performance.

Tesselation macht imho nur als ParalaxMapping-Ersatz einen Sinn, also so wie es im Unigine-Benchmark für den Boden verwendet wird. Oder um ein Terrain feiner zu formen.
Also überall da wo keine definierte Form vorgegeben ist und man Strukturen besser darstellen will.

Gast
2010-04-26, 12:07:06
An Metro sieht man gut wie aufgeblähte Geometrie wirkt => garnicht.
Außerdem frißt es da sogar massig Performance.

Tesselation macht imho nur als ParalaxMapping-Ersatz einen Sinn, also so wie es im Unigine-Benchmark für den Boden verwendet wird. Oder um ein Terrain feiner zu formen.
Also überall da wo keine definierte Form vorgegeben ist und man Strukturen besser darstellen will.

Blödsinn! Es ist genau wie Iruwen gesagt hat, nur weil es bei Metro keine überragende steigerung der Grafikqualität durch Tesselation gibt, heißt das noch lange nicht, dass sowas mit Tesselation nicht möglich ist. Die ersten DX9 Games sahen zum Teil richtig schlecht aus und das lag nicht nur daran, dass die Grafikkarten noch nicht so leistungsfähig waren, sondern die Programmierer erstmal lernen mussten wie man die Effekte so einsetzt, dass richtig gute Grafik dabei herauskommt. Bei einigen Studios dauert sowas eben ein Jahr, andere können damit sofort umgehen und bei einigen wird es nie etwas. ;) Es könnte also schon morgen ein Spiel herauskommen, in dem Tesselation uns eine unglaublich gute Grafik liefert. Die masse der Spiele mit Tesselation wird aber wohl noch ein Jahr auf sich warten lassen.

Gast
2010-04-26, 12:13:01
Blödsinn! Es ist genau wie Iruwen gesagt hat, nur weil es bei Metro keine überragende steigerung der Grafikqualität durch Tesselation gibt, heißt das noch lange nicht, dass sowas mit Tesselation nicht möglich ist. Die ersten DX9 Games sahen zum Teil richtig schlecht aus und das lag nicht nur daran, dass die Grafikkarten noch nicht so leistungsfähig waren, sondern die Programmierer erstmal lernen mussten wie man die Effekte so einsetzt, dass richtig gute Grafik dabei herauskommt. Bei einigen Studios dauert sowas eben ein Jahr, andere können damit sofort umgehen und bei einigen wird es nie etwas. ;) Es könnte also schon morgen ein Spiel herauskommen, in dem Tesselation uns eine unglaublich gute Grafik liefert. Die masse der Spiele mit Tesselation wird aber wohl noch ein Jahr auf sich warten lassen.

Blödsinn^2!
Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist.
Wir werden auch noch in 3 Jahren nichts anderes sehen als aufgblähte runde Objekte weil der Algo nichts anderes hergibt.
Tesselation als genereller Lod-Ersatz ist Schrott und mindert die Freiheit der Künstler drastisch. Deshalb wird Tesselation niemals überall eingesetzt werden.

Tesseract
2010-04-26, 12:19:47
Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist.

keine ahnung an was du das sehen willst, aber aus konzeptioneller sicht kann man tesselation in der tat so gut wie überall sinnvoll verwenden - und zwar als eine grundlegende modellierungstechnik.
dass es schlecht aussieht wenn unfähige devs darüber herfallen ist bei jedem effekt so. das liegt aber nicht an der technik.

hq-hq
2010-04-26, 12:21:08
Und, wie viele kennst Du, die einen Porsche oder Ferrari fahren? ;) Und hier im Forum gibt es mittlerweile einige: Don Vito, Blaire, mich ..., wie erwähnt, mittlerweile 7% im Highend-Bereich.

lol, das mit dem porsche gestaltet sich bei den meisten schwierig weil die alle
häusle bauen oder gebaut haben, zwei kenn ich aber trotzdem sind aber
wertanlagen und nicht wirklich fürn wochenendausflug ^^

mal abgesehen von dem klar offensichtlichen zusammenhang zwischen ferrari
und nem moni mit 2560x1600 auflösung, das in metro bei tesselation manche
objekte wie nachtsichtgerät oder taschen aufgebläht wirken stimmt, diese
blähungen müssten sich aber mit einem einfachen regler abstellen lassen, z.b.
im unigine benchmark kann man unter "tesselation" einen schieber verstellen
der tesselierte objekte noch weiter aufbläht oder schrumpfen lässt
(unabhängig von der polygonanzahl).
diese schweren blähungen ließen sich also bestimmt abstellen.=)

und man stelle sich vor wow würde tesselation unterstützen, aus der armut wird plötzlich ein ansehnlicher protz!

Tesseract
2010-04-26, 12:34:12
aus der armut wird plötzlich ein ansehnlicher protz!

armut? wow hat immer noch das beste optik-pro-polygonzahl-verhältnis, dass ich je gesehen habe.
du kannst ein MMO, in dem teilweise hunderte leute zusammen stehen nicht so polygonreich gestalten wie ein FPS, in dem du vielleicht 15 leute in einem schlauchlevel unterbringen musst.

allerdings ließe sich da mit LOD sicher einiges machen, das müsste aber schon beim erstellen aller models berücksichtigt werden. wenn du das nachher draufklatschen willst siehts eben wie aufgeblasen aus.

Iruwen
2010-04-26, 12:35:40
Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist.
Wir werden auch noch in 3 Jahren nichts anderes sehen als aufgblähte runde Objekte weil der Algo nichts anderes hergibt.
Tesselation als genereller Lod-Ersatz ist Schrott und mindert die Freiheit der Künstler drastisch. Deshalb wird Tesselation niemals überall eingesetzt werden.
http://www.youtube.com/watch?v=bkKtY2G3FbU
Die Zukunft ist heute...

Gast
2010-04-26, 12:36:32
Blödsinn^2!
Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist.
Wir werden auch noch in 3 Jahren nichts anderes sehen als aufgblähte runde Objekte weil der Algo nichts anderes hergibt.
Tesselation als genereller Lod-Ersatz ist Schrott und mindert die Freiheit der Künstler drastisch. Deshalb wird Tesselation niemals überall eingesetzt werden.

Informiere dich doch erstmal was Tesselation ist und wie sie genau funktioniert, bevor du hier so einen Quatsch erzählst. Mit Tesselation wird nur dann etwas aufgebläht, wenn der Entwickler es so programmiert hat und mit dem Algo kann man so ziehmlich alles machen, was man in diesem Zusammenhang braucht. Du kannst uns ja auch mal erklären was die Tesselation den in der Hair Demo aufbläht. :P

DrFreaK666
2010-04-26, 12:43:06
http://www.youtube.com/watch?v=bkKtY2G3FbU
Die Zukunft ist heute...

LOL. Du bist einfach witzig..
Heaven Benchmark, das ist DAS Tesselation-Spiel überhaupt...
Sicherlich wird es immer öfters Verwendung finden, aber den heaven Benchmark als Beispiel nehmen ist einfach nur ;D
Imho gibt es noch keine Games, wo Tesselation richtig sinnvoll eingesetzt wurde. Ist genauso wie damals bei DX10. Weiche Schatten hier, schönerer Rauch dort, aber richtig sinnvoll war das alles nicht

Tesseract
2010-04-26, 12:48:22
Imho gibt es noch keine Games, wo Tesselation richtig sinnvoll eingesetzt wurde.
richtig sinnvoll kann man tesselation eh erst dann einsetzen, wenn man keine rücksicht mehr auf non-tesselation-karten nehmen muss und damit wirklich von grund auf gestalten kann.

hq-hq
2010-04-26, 12:54:36
sorry ich seh immer nur kanten und gerade linien in wow, bei age of conan isses schon ansehnlicher

DrFreaK666
2010-04-26, 13:06:47
richtig sinnvoll kann man tesselation eh erst dann einsetzen, wenn man keine rücksicht mehr auf non-tesselation-karten nehmen muss und damit wirklich von grund auf gestalten kann.

Das wird aber dann noch ewig gehen.
Frühestens mit der nächsten Konsolen-Generation >2012

Tesseract
2010-04-26, 13:09:59
sorry ich seh immer nur kanten und gerade linien in wow, bei age of conan isses schon ansehnlicher
du findest dieses miese artwork aus generischen texturen/models, schlechten animationen und dazwischen ein paar unnatürlichen high-poly-models besser?

sry, aber abgesehen vom stellenweise höheren detailgrad aufgrund des paar jahre späteren releases hat die grafik einfach garnix.

Das wird aber dann noch ewig gehen.
Frühestens mit der nächsten Konsolen-Generation >2012

ja, leider.

Iruwen
2010-04-26, 13:28:29
LOL. Du bist einfach witzig..
Heaven Benchmark, das ist DAS Tesselation-Spiel überhaupt...
Sicherlich wird es immer öfters Verwendung finden, aber den heaven Benchmark als Beispiel nehmen ist einfach nur ;D
Imho gibt es noch keine Games, wo Tesselation richtig sinnvoll eingesetzt wurde. Ist genauso wie damals bei DX10. Weiche Schatten hier, schönerer Rauch dort, aber richtig sinnvoll war das alles nicht
Lesen => verstehen :rolleyes:
Das war die Antwort auf den von mir zitierten Gastpost
"Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist. Wir werden auch noch in 3 Jahren nichts anderes sehen als aufgblähte runde Objekte weil der Algo nichts anderes hergibt."
Heaven ist genau wie z.B. die schon erwähnte Hair Demo der Beweis dass das nicht stimmt. Im übrigen ist die für Heaven verwendete Engine eine (bereits mehrfach lizensierte) Game Engine (http://unigine.com/).

DrFreaK666
2010-04-26, 13:36:51
Lesen => verstehen :rolleyes:
Das war die Antwort auf den von mir zitierten Gastpost
"Man kann schon an der Technik sehen, dass Tesselation nicht überall zu gebrauchen ist. Wir werden auch noch in 3 Jahren nichts anderes sehen als aufgblähte runde Objekte weil der Algo nichts anderes hergibt."
Heaven ist genau wie z.B. die schon erwähnte Hair Demo der Beweis dass das nicht stimmt. Im übrigen ist die für Heaven verwendete Engine eine (bereits mehrfach lizensierte) Game Engine (http://unigine.com/).

Mir ging es um "Die Zukunft ist heute" in Kombination mit dem Heaven Benchmark

Iruwen
2010-04-26, 13:50:16
Und mir ging es um den Gastpost auf den ich korrekt geantwortet habe woraufhin du mich angeblafft hast :freak:

DrFreaK666
2010-04-26, 13:55:27
Und mir ging es um den Gastpost auf den ich korrekt geantwortet habe woraufhin du mich angeblafft hast :freak:

Aber sei doch ehrlich. Die Zukunft ist noch nicht hier.
Oder wie lange hat es gedauert bis Spiele so ausgesehen haben?
3D-Mark2001
http://www.abload.de/thumb/gf3-game43zvnf.jpg (http://www.abload.de/image.php?img=gf3-game43zvnf.jpg)

Oblivion erschien erst 2006...

Iruwen
2010-04-26, 14:27:48
Kommt darauf an was die Lizenznehmer contentmäßig drauf haben, da Unigine Corp. im Gegensatz zu Futuremark eine Game Engine vermarkten möchte wird da wohl recht schnell was kommen (z.B. Primal Carnage, Afterfall). Außerdem erscheint auch Crysis 2 bald. Tesselation wird sich imo recht schnell verbreiten. Natürlich wird es nicht so extrem genutzt wie bei Heaven, da muss ja auch nebenbei nichts anderes laufen.

DrFreaK666
2010-04-26, 14:31:15
Kommt darauf an was die Lizenznehmer contentmäßig drauf haben, da Unigine Corp. im Gegensatz zu Futuremark eine Game Engine vermarkten möchte wird da wohl recht schnell was kommen (z.B. Primal Carnage, Afterfall). Außerdem erscheint auch Crysis 2 bald. Tesselation wird sich imo recht schnell verbreiten. Natürlich wird es nicht so extrem genutzt wie bei Heaven, da muss ja auch nebenbei nichts anderes laufen.

Wenn man Tesselation nicht sofort sieht dann nutzt es mir nichts:
- Tesselation-Wasser bei Dirt (sieht man vielleicht in der Wiederholung)
- Tesselation-Aliens (ist ein schneller Shooter -> sieht man nicht)
- Metro (schneller Shooter -> sieht man nur in Menus oder bei Gesprächen)

Wo es Sinn macht: RPGs, Adventures... alles was sich eher gemächlich spielt

edit: Und nur weil eine Engine ein feature unterstütztz heisst das noch lange nicht, dass dieses genutzt wird.

y33H@
2010-04-26, 14:45:47
Das Wasser in Dirt 2 sehe ich, wenn ich durch fahre ;)

Schlammsau
2010-04-26, 15:20:49
Das Wasser in Dirt 2 sehe ich, wenn ich durch fahre ;)

In den Replays....ja! ;)

Aber das tesselierte Wasser ist wirklich nice!

DrFreaK666
2010-04-26, 15:27:52
Das Wasser in Dirt 2 sehe ich, wenn ich durch fahre ;)

Ja, aber nur in einem sekundenbruchteil.
Imho ist das vergeudetes Geld

Gast
2010-04-26, 17:22:33
Es geht nicht darum Tesselation totzureden, sondern darum, dass Tesselation nicht überall eingesetzt werden kann oder muss.
Bei Metro werden Objekte einfach nur runder und dicker dargestellt, was für viele nicht immer richtig gut aussieht.

DrFreaK666
2010-04-26, 17:23:46
Es geht nicht darum Tesselation totzureden, sondern darum, dass Tesselation nicht überall eingesetzt werden kann oder muss.
Bei Metro werden Objekte einfach nur runder und dicker dargestellt, was für viele nicht immer richtig gut aussieht.

Wahrscheinlich hat man es hastig eingefügt, damit man es eben hat...

y33H@
2010-04-26, 17:36:57
@ Schlammsau

Ich fahre mit "Spoiler-Cam", also maximal raus gezoomt - da sieht man das Wasser 1A.

Mayk-Freak
2010-04-26, 18:20:20
Das Wasser in Dirt2 DX11 ist wirklich sehr schön wenn ich bei manchen Strecken die Sonne scheinen sehe und die Staubwolken die Luft vernebeln hab ich mir bei manchen rennen schon gedacht Och am liebsten würde ich jetzt schöne Wasserpfütze reispringen und mich abkühlen.:smile:

hq-hq
2010-04-26, 20:59:51
@tesseract
wuhuhuuuu, auf die texturen bei wow bin ich noch garnicht zu sprechen gekommen, das ist ein drama noch grösseren ausmaßes !!

diese entsetzlich riesigen bossgegner bei wow sind nicht nur wegen ihrer grösse grauenerregend sondern gleicherdings wegen ihrer scharfen kanten und ihrer pampigen erscheinung:freak:

okok, kein wow gequatsche mehr. aber bitte gib doch zu das wow sich für tesselation im grunde phantastisch anbietet da es so polygonarm ist. (ja wenn viele suchteln gleichzeitig dargestellt werden sinds plötzlcih viel mehr scho klar)

aja hier ein gutes beispiel http://nomadenseelewow.files.wordpress.com/2008/09/ah091508onyxia.jpg (diese schönen runden fenster, das sind ja mindestens 8 dreiecke die es soooo schön rund machen!)
aargh schon allein diese kantigen hörner brrrrr furchteinflössend !
und wenn man näher heranzoomt sieht man die feinen äderchen und schüppchen auf der haut, NICHT!

Coda
2010-04-26, 21:04:54
Müssten sie halt einen D3D11-Renderer schreiben. Aber an sich ist die Idee gut. Modelle in Z Brush laden, den Artist die Details hinmalen lassen, Displacement-Map berechnen und gut ist.

Nur das Problem ist halt, dass Blizzard nichtmal gewillt ist die Texturen in höherer Auflösung zur Verfügung zu stellen. Vermutlich wollen sie allen Spielern im Wesentlichen das gleiche zeigen.

Tesseract
2010-04-26, 22:17:18
wuhuhuuuu, auf die texturen bei wow bin ich noch garnicht zu sprechen gekommen, das ist ein drama noch grösseren ausmaßes !!
frage am rande: wann hast du das letzte mal wow gespielt und was hast du da an content gesehen?

das in deinem screenshot ist artwork aus dem jahre 2005 und ich habe trotzdem bis heute in keinem spiel bessere drachenmodels gesehen. zwar viele detailreichere aber keine die vom artwork her ran kommen und an die animationen erst recht nicht.
ein halbwegs aktuelles beispiel ist dragon age. geniales spiel, tolle story aber die drachenmodels sind einfach schlechter.

und texturen gibt es in wow einige extrem gute. wenn du willst können wir da gerne drauf zu sprechen kommen. ich kann auch gerne beispiele raussuchen die absolut state of the art sind und wo du wohl nichts besseres finden wirst.

edit: hier hast du z.B. ein aktuelles bossmodel:
http://img687.imageshack.us/img687/5555/arthasy.jpg

hier hast du ein beispiel für halbwegs aktuelles fensterartwork:
http://img532.imageshack.us/img532/9999/ulduar.jpg

du darfst mir gern ein beispiel in AoC geben, dass da artworkmäßig mithalten kann.

Savay
2010-04-26, 22:23:06
aja hier ein gutes beispiel http://nomadenseelewow.files.wordpress.com/2008/09/ah091508onyxia.jpg (diese schönen runden fenster, das sind ja mindestens 8 dreiecke die es soooo schön rund machen!)
aargh schon allein diese kantigen hörner brrrrr furchteinflössend !
und wenn man näher heranzoomt sieht man die feinen äderchen und schüppchen auf der haut, NICHT!

:rolleyes: Ony ist der älteste Boss im spiel...die Alten gebiete sind seit den addons optisch nicht angefasst worden...das ist 5 jahre alter content

nehm als beispiel dann doch bitte aktuelleren (designtechnisch 1,5 jahre alten) WotLK content her.
so schlimm steht es um WoW lange nicht...man könnte auch gleich HL1 als beispiel für polygonarmut aufführen. :tongue:

das WoW da generell nicht glänzt sollte an sich aber klar sein...es ist und bleibt ein (Massen-)MMO.

Savay
2010-04-26, 22:29:32
Nur das Problem ist halt, dass Blizzard nichtmal gewillt ist die Texturen in höherer Auflösung zur Verfügung zu stellen. Vermutlich wollen sie allen Spielern im Wesentlichen das gleiche zeigen.

den alten conten updaten die ja bis cataclysm nicht. etliche der texturen vorallem für chars etc. liegen durchaus in 1024*1024 vor meine ich. die updaten da schon kontinuierlich...aber halt selten bestehenden content. :)
was prinzipiell viel mehr "optik" kostet ist der verzicht auf bumpmapping und sonstige shader spielerein. :smile:

hq-hq
2010-04-27, 00:01:02
ja es stimmt schon das sich selbst in wow grafisch was tut, das sieht man schon an den bäumen.

aber warte mal, wie alt ist dieser content ?

http://www.royalflush-wow.de/dkp/data/9f2da9bea41524a3d620276f3fd0a6be/eqdkp/news/valithria.jpg

ich weiss das aoc wow nicht soganz das wasser reichen kann hehehe, auch wenns mir vom spielprinzip besser gefallen hat aber es gäbe noch viel zu tun. viel.

tesselation in wow, das wärs halt
und bei den meist madigen texturen würden verzerrungen auch nicht auffallen hrhrhr

Iruwen
2010-04-27, 09:37:14
Is jetz ma gut mit WoW? Das hat mit GF100 nu gar nix zu tun...

Gast
2010-04-28, 11:55:44
Falls noch jemand eine GTX480 (499€) oder GTX470 (359€) sucht, bei Alternate sind die Point of View gerade vorrätig.

mapel110
2010-04-28, 18:55:12
http://www.hardocp.com/article/2010/04/27/gtx_480_470_power_supply_unit_buying_guide/1
Netzteil-Guide für 470/480

Aber imo ein wenig übertrieben. 650 Watt für eine 470er... ich hoffe, mein Enermax 460 Watt kommt mit der klar.

skampi
2010-04-28, 19:51:23
http://www.hardocp.com/article/2010/04/27/gtx_480_470_power_supply_unit_buying_guide/1
Netzteil-Guide für 470/480

Aber imo ein wenig übertrieben. 650 Watt für eine 470er... ich hoffe, mein Enermax 460 Watt kommt mit der klar.

Das könnte zu eng werden wenn es sich um dieses PS handelt

http://www.xpcgear.com/en431watpows1.html

Ich habe das Pro82+ 430W von Enermax, dieses zeigt sich relativ unbeeindruckt bei einer Leistungsaufnahme von bis zu 460 Watt primärseitig, schafft aber lt. Datenblatt auch knapp 400 Watt auf den 12V Schienen.

Gast
2010-04-28, 22:56:40
Die Tesselationsleistung ist auch kein Argument mehr. Bei Metro geht der HD 5870 1 GB schlicht und ergreifend der VRAM aus, und zwar schon bei 1680 x 1050 + 4x MSAA: http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/ (Bild ganz unten). 27 % Plus bei den avg. FPS, 33 FPS Plus bei den min. FPS.

Gast
2010-04-28, 23:03:06
Ich habe das Pro82+ 430W von Enermax, dieses zeigt sich relativ unbeeindruckt bei einer Leistungsaufnahme von bis zu 460 Watt primärseitig, schafft aber lt. Datenblatt auch knapp 400 Watt auf den 12V Schienen.

Reden wir nochmal in 12 Monaten drüber, wenn es überhaupt solange überlebt.
;)

Iruwen
2010-04-29, 11:38:46
Die Tesselationsleistung ist auch kein Argument mehr. Bei Metro geht der HD 5870 1 GB schlicht und ergreifend der VRAM aus, und zwar schon bei 1680 x 1050 + 4x MSAA: http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/ (Bild ganz unten). 27 % Plus bei den avg. FPS, 33 FPS Plus bei den min. FPS.
Tesselation ist kein Argument mehr wenn die 5870 in Heaven Extreme mit der GTX 480 gleichzieht, ansonsten zeigt der Test nur dass in Metro der VRAM ausgeht.

Savay
2010-04-29, 18:03:21
Tesselation ist kein Argument mehr wenn die 5870 in Heaven Extreme mit der GTX 480 gleichzieht(...)

ich habe noch nie leute verstanden die nur benchmarks spielen. :wink:

PHuV
2010-04-29, 18:09:51
ich habe noch nie leute verstanden die nur benchmarks spielen. :wink:

Ich auch nicht, ich hau die Karten immer nur rein, und spiele. Benchmark dient nur als Test, ob alles läuft.

Iruwen
2010-04-29, 18:54:41
Es geht gerade explizit um Tesselationsleistung, nicht um Spieleleistung.

/e: http://hartware.net/review_1088_5.html

Tesseract
2010-04-29, 20:50:31
ich habe noch nie leute verstanden die nur benchmarks spielen. :wink:
ich auch nicht. ich schau mir synthetische benchmarks schon seit jahren in den reviews nichtmal mehr an, weil es eh vollkommen egal ist wie die hardware da performt. entscheidend ist einzig und allein die performance in realen spielen, mit belasteter CPU usw.
und dann am besten noch möglichst verschiedene spiele/szenarien, auf die nicht so speziell hinoptimiert werden kann.

wie heißt es so schön: "den guten steuermann lernt man erst im sturm kennen." ;)

mapel110
2010-04-30, 11:03:23
http://www.guru3d.com/article/geforce-gtx-480-3way-sli-review/
3 way SLI Review

Der_Korken
2010-04-30, 21:13:51
Ich hoffe, das wurde noch nicht irgendwo gepostet, aber das könnte für einige hier im Forum doch sehr interessant sein:

SSAA auf GTX400 (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_ssaa_geforce_gtx_400/#abschnitt_einleitung)

Damit zieht Nvidia teilweise an ATI vorbei imho, wenn es denn offiziell wäre.

boxleitnerb
2010-04-30, 21:21:55
Der war gut! Das kommt aus unserem Forum, aus dem 3DCenter ;D

mapel110
2010-04-30, 22:45:10
Im CB-Bericht steht, dass das "TSSAA" auch unter Opengl funktioniert (Riddick). Geht das bei allen OpenGL-Games?

Gast
2010-04-30, 23:59:12
Im CB-Bericht steht, dass das "TSSAA" auch unter Opengl funktioniert (Riddick). Geht das bei allen OpenGL-Games?

Ja bei allen.

Blaire
2010-05-01, 04:42:12
Damit zieht Nvidia teilweise an ATI vorbei imho, wenn es denn offiziell wäre.

Es ist ja offiziell oder braucht man irgendwelche Tools um es zu aktivieren? Lediglich die Bezeichnung ist im Treiber falsch unterteilt. Der Treiber forciert auch nichts, er wertet lediglich den im Game integrierten AA Modus auf bzw. ersetzt ihn. Wenn kein AA in einen DX10/11 Game unterstützt wird, funktioniert auch kein FS-SSAA.
Die AA Aufwertfunktion klappt auch schon ewig unter älteren DX10 Games, das ist ja alles nichts neues mehr. :wink:

Raff
2010-05-01, 12:01:47
Ok, mittlerweile hat es wohl auch die letzte große Seite bemerkt. ;) Da hat's Nvidia vermutlich schwer, es wieder gänzlich zu entfernen. Das wollen sie anscheinend auch nicht ...

MfG,
Raff

Schlammsau
2010-05-01, 12:03:28
Hast noch keine Antwort von nVidia bekommen?

Bekommen die dann nicht ärger mit den Freunden von MS?

derguru
2010-05-01, 12:11:46
vielleicht profitieren ati user auch davon,da werden die wohl sicher nachziehen hoff ich mal.:wink:

Gouvernator
2010-05-01, 12:17:13
Hast noch keine Antwort von nVidia bekommen?

Bekommen die dann nicht ärger mit den Freunden von MS?
Das funktioniert eh nur über ingame AA-aufwerten Funktion. Deswegen spielt es ja keine Rolle für MS.

Raff
2010-05-01, 12:23:03
Hast noch keine Antwort von nVidia bekommen?

Bekommen die dann nicht ärger mit den Freunden von MS?

Nichts Spruchreifes. Und Dinge, die nur inoffiziell (etwa mit Tools) zugänglich sind, gehen Microsoft AFAIK sonstwo vorbei.

MfG,
Raff

Schlammsau
2010-05-01, 12:24:40
Nichts Spruchreifes. Und Dinge, die nur inoffiziell (etwa mit Tools) zugänglich sind, gehen Microsoft AFAIK sonstwo vorbei.

MfG,
Raff

Sie sind doch über das normale GeForce Treiberpanel zugänglich oder nicht!?

Raff
2010-05-01, 12:27:32
Nur, solange der Bug-Status vorherrscht. Das wird in kommenden Treibern anders.

MfG,
Raff

Grestorn
2010-05-01, 19:12:53
nHancer 2.5.8 für GTX 4x0 ist als Preview raus:

http://forum.nhancer.com/showthread.php?p=6596#post6596

y33H@
2010-05-01, 19:14:07
Cool =)

Mr. Lolman
2010-05-01, 19:17:35
Nur, solange der Bug-Status vorherrscht. Das wird in kommenden Treibern anders.

MfG,
Raff

SGSSAA wird also wieder entfernt?

y33H@
2010-05-01, 19:23:58
Wohl nur temporär und dann landet es wie OGSSAA im nHancer.

DrFreaK666
2010-05-01, 19:31:53
Wohl nur temporär und dann landet es wie OGSSAA im nHancer.

Wenn das TSSAA dann so funktioniert wie es sollte dann lässt sich auch kein SGSSAA per nhancer erzwingen, oder?

y33H@
2010-05-01, 19:46:59
Das gilt es abzuwarten - es kann ja beide parallel existieren.

Raff
2010-05-01, 19:52:34
SGSSAA wird also wieder entfernt?

(Nur) Aus dem CP. Genaueres weiß ich vermutlich am Montag. :)

MfG,
Raff

Bioshock
2010-05-01, 19:58:38
Sagmal Raff, habt ihr die möglichkeit an die Neue Gainward GeForce GTX 470 zukommen? die soll ja bis 12° kühler sein :) und im Dezi bereich soll sich da auch etwas getan haben.

mfg

corvus
2010-05-01, 22:44:21
(Nur) Aus dem CP. Genaueres weiß ich vermutlich am Montag. :)

MfG,
Raff

Da kannste auch gleich mal nachhören ob die Heinis keinen Tempsensor an den SPAWA haben....

Die ersten verabschieden sich gerade im Luxx.....wird nen lustigen Sommer....

Gast
2010-05-01, 22:51:29
Da kannste auch gleich mal nachhören ob die Heinis keinen Tempsensor an den SPAWA haben....
Die ersten verabschieden sich gerade im Luxx.....wird nen lustigen Sommer....
Im Luxx verabschieden sich immer Karten frühzeitig vermehrt - wieso bloß? :D

corvus
2010-05-01, 22:57:22
naja.....der eine hatte nur SLI...kein OC ..... kannst ja mal das Patschehändchen aufs PCB legen in Höhe der SPAWA........das bleibste mit WAKÜ kleben :D und dann kannste dir ja vorstellen was unter dem Plastik abgeht.....
Die POVs haben übrigends ein neueres Bios als alle anderen.

y33H@
2010-05-02, 00:56:38
Im Luxx ... da grillen manche gerne ihre Karten. Ist nichts neues.

deekey777
2010-05-02, 01:05:08
In welchem Artikel war eigentlich die Sache mit dem Herabsetzen der Rendertarget-Genauigkeit mit AI on?

mapel110
2010-05-02, 01:11:27
In welchem Artikel war eigentlich die Sache mit dem Herabsetzen der Rendertarget-Genauigkeit mit AI on?
Meinst du den Cheatingvorwurf von nvidia an ATI vor ein paar Wochen? Das war auf PCGH iirc.

deekey777
2010-05-02, 01:12:18
Meinst du den Cheatingvorwurf von nvidia an ATI vor ein paar Wochen? Das war auf PCGH iirc.
Ja, aber ich finde den Artikel nicht.

y33H@
2010-05-02, 11:20:03
*hier (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=14)*

Während der Vorbereitungen zum Launch der Geforce GTX 480/470 teile Nvidia uns mit, dass man bei den Catalyst-Treiber von AMD Unregelmäßigkeiten in den folgenden Spielen entdeckt habe: Dawn of War 2, Empire Total War, Far Cry, Need for Speed: Shift, TES IV: Oblivion und Serious Sam 2. Genauer gesagt sollten AMDs Treiber über die Funktion "Catalyst A.I." in den genannten Spielen FP16-Rendertargets gegen solche im R11G11B10-Format ersetzen und damit die Leistung potenziell auf Kosten der Bildqualität erhöhen. Damit, so Nvidia, verschaffe man sich einen unfairen Vorteil im Wettbewerb. Diese Einschätzung können wir durchaus nachvollziehen und haben das Thema deshalb weiter verfolgt.

Nachdem in unserem Benchmark-Parcours Need for Speed: Shift betroffen war, haben wir uns Screenshots unserer Szene sowohl mit aktivem als auch deaktiviertem "Catalyst A.I." angesehen. Die Unterschiede fallen hier marginal aus. Nachdem wir AMD bezüglich dieses Themas kontaktierten, gaben uns Antal Tungler, Technical PR für Deutschland und John Story aus AMDs Treiber-Team bereitwillig Auskünfte darüber: Ja, es stimmt, dass man in den genannten Titeln (und nur dort!) diese Optimierung anwendet, um die Leistung zu erhöhen. AMD sagt, ihre Chips könnten durch die Änderung eines 64-Bit- auf ein 32-Bit-Format sehr viel Leistung sparen, ohne dass dem Kunden eine veränderte Bildqualität ins Auge stechen würde. Außerdem, so John Story weiter, hätten Radeon-Nutzer ja weiterhin die Wahl, diese Optimierung durch Deaktivieren von Catalyst A.I. zu umgehen. Man habe sich in diesen DX9-Titeln zu dieser Maßnahme entschieden, weil das leistungssparende Format Entwicklern unter der alten API noch nicht zur Verfügung stehe.

Auf unsere Nachfragen hin, ob es nicht sinnvoll wäre, die allgemeinen Optimierungen von den spielespezifischen zu trennen, zeigte man sich interessiert und sagte zu, diesen Vorschlag an das Treiber-Team weiterzuleiten.

Für unseren Benchmark haben wir uns derzeit noch nicht zu Konsequenzen entschieden, zumal wir, wie oben beschrieben, keine eindeutige Verschlechterung der Bildqualität in diesem Falle ausmachen konnten und AMD versicherte, in den aktuellen DirectX-APIs 10 und 11 solche Formatersetzungen nicht mehr vorzunehmen. Wir behalten die Sache jedoch weiterhin im Auge und versuchen, weitere Hintergründe in Erfahrung zu bringen.

deekey777
2010-05-02, 12:07:28
*hier (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=14)*
Haaa, ich habe mich auf die englische Version konzentriert. :freak:
Danke.

Grestorn
2010-05-02, 12:12:46
*hier (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=14)*

Gab es da dann von irgendeiner Seite eine Folgeentwicklung? Oder wird das einfach akzeptiert, bis wieder beide Hersteller cheaten, was das Zeug hält?

y33H@
2010-05-02, 13:45:57
Akzeptiert nicht wirklich. Aber mehr als nachhaken und kritisieren geht nicht.

Gast
2010-05-02, 14:24:09
Akzeptiert nicht wirklich. Aber mehr als nachhaken und kritisieren geht nicht.
Brifilter und Flimmern aus der Welt schaffen, wäre für mich als ATI-User wichtiger. Diese "Optimierungen" sieht man optisch sofort. Aber das Ganze zeigt, wie es mit der Mentalität um ATI bestellt ist. Nicht dass nV ein Unschuldskind wäre, aber bei ATI ist die Schamlosigkeit über alle Fälle erhaben. Sie können sichs aber auch erlauben, da sie ungebrochenen Rückhalt ihrer Hardcore-Fans haben, egal was passiert.

Gast
2010-05-02, 15:03:19
Gab es da dann von irgendeiner Seite eine Folgeentwicklung? Oder wird das einfach akzeptiert, bis wieder beide Hersteller cheaten, was das Zeug hält?

Solange niemand eine schlechtere Bildqualität nachweisen kann ist das für mich kein cheaten, sondern fällt unter sinnvolle Optimierungen wie auch Shaderreplacement. Die Erklärung ist ebenso plausibel, immerhin gab es damals das 1010102-Format schlicht noch nicht, obwohl es wohl ausreichend gewesen wäre. Die Spiele sind alle alt und werden kaum mehr gebencht. Das es keine Seite außer PCGH überhaupt erwähnt hat zeigt auch das wenige Lust haben hier den Pressesprecher von NV zu spielen, die werden auch nicht ohne Optimierungen zu werke gehen,

Kritisieren sollte man Dinge wie Sparfilter, das fällt aber IMHO klar nicht darunter.

hq-hq
2010-05-02, 15:10:44
lol, naja solang man es mit ai deaktivieren kann ist es trotzdem lustig

fast könnte man meinen das die entwickler alle einen bwl sparkurs erhalten haben und fleissig an jedem schräubchen drehen um kosten äh leistung zu optimieren, immer grad so das das gesamtbild nicht gleich sichtbar leidet

y33H@
2010-05-02, 15:12:03
Ich will nicht wissen, wie groß das Geschrei wird, wenn NV auch das RenderTarget tauscht ...

Gast
2010-05-02, 15:19:48
Ich will nicht wissen, wie groß das Geschrei wird, wenn NV auch das RenderTarget tauscht ...

Was genau beweist dir das sie das nicht machen?

y33H@
2010-05-02, 15:24:42
Sprach ich von einem Beweis? Nein.

Raff
2010-05-02, 16:14:21
Ich will nicht wissen, wie groß das Geschrei wird, wenn NV auch das RenderTarget tauscht ...

Ich gehe auch davon aus, dass die "Welt" laut aufschreien würde, wenn solche Tricks aufseiten Nvidias herauskämen. Die übliche Doppelmoral verzeiht AMD-Vergehen gerne mal, während jeder Nvidia-Trick (egal ob Bug oder Cheat) gleich ein unverzeihlicher Fail ist, auf dem jahrelang herumgeritten wird.

Ich sehe eine spannende Zeit auf uns zukommen, wenn Nvidia das jetzige Quality-Standard-AF kegelt und Ati-ähnliches AF implementiert (also dosierte Bri-Gülle und noch weniger Samples). Warum sie das tun sollten? Es bringt reichlich Fps. Und die AF-Qualität wird von den meisten Leuten toleriert; die AF-Kritiker als Erbenzähler hingestellt. Dabei bekämen die Ati-Anhänger so ihre geliebte Bildqualität! Aber anstatt sich zu freuen, wird die Konkurrenz gewiss geflamed. Insofern glaube (und hoffe inständig) ich, dass Nvidia so einen Mist lässt, obwohl sie die Fps gebrauchen könnten (FX, ahoi!).

MfG,
Raff

y33H@
2010-05-02, 16:19:53
Ich sehe das "versehentliche" SGSSAA @ DX10/11 als gutes Zeichen =)

Gast
2010-05-02, 16:35:04
Brifilter und Flimmern aus der Welt schaffen, wäre für mich als ATI-User wichtiger. Diese "Optimierungen" sieht man optisch sofort. Aber das Ganze zeigt, wie es mit der Mentalität um ATI bestellt ist. Nicht dass nV ein Unschuldskind wäre, aber bei ATI ist die Schamlosigkeit über alle Fälle erhaben. Sie können sichs aber auch erlauben, da sie ungebrochenen Rückhalt ihrer Hardcore-Fans haben, egal was passiert.

Da kann ich dir nur 100%ig zustimmen. Ich konnt mich kaum vor lachen halten, als ich den nächsten Beitrag las:

Solange niemand eine schlechtere Bildqualität nachweisen kann ist das für mich kein cheaten, sondern fällt unter sinnvolle Optimierungen wie auch Shaderreplacement.

Kaum spricht man von den Hardcore-Fans und schon sind sie da. ;) Mal ehrlich die Bildqualität ist schon sehr gut geworden und es fällt immer schwerer Unterschiede zu erkennen. Trozdem kann man nun die GTX480 mit 8xMSAA nicht gegen die HD5870 mit 64xMSAA (mal angenommen es gäbe den Modus) benchen und dann sagen ..omg die GTX480 ist 3 mal schneller ... der Test ist auch fair, ich seh keinen Unterschied mehr zwischen 8x und 64xMSAA.

Ati investiert viel Arbeit um einen fairen Vergleich mit NV zu verhindern, es kann sich ja jeder selbst ausmalen, warum das so ist. Die einzig sinnvolle Antwort darauf wäre natürlich, alle Optimierungen bei Tests zu deaktivieren, bei denen nicht sichergestellt ist, dass die Bildqualität nicht beeinflusst wird. Allerdings ist dies ja mittlerweile nicht mal mehr möglich bei Ati und die PCGH-Redakteure sind ja jetzt schon böse Fanboys ... ich möchte nicht wissen was die lieben Ati-Fans sagen würden wenn mal ohne Cheater A.I. getestet wird.

Gast
2010-05-02, 16:42:47
Ich gehe auch davon aus, dass die "Welt" laut aufschreien würde, wenn solche Tricks aufseiten Nvidias herauskämen. Die übliche Doppelmoral verzeiht AMD-Vergehen gerne mal, während jeder Nvidia-Trick (egal ob Bug oder Cheat) gleich ein unverzeihlicher Fail ist, auf dem jahrelang herumgeritten wird.

"Die Welt" = AMD-Fanboy? Oder nicht doch mal seine eigenen Ansichten überdenken?


Ich sehe eine spannende Zeit auf uns zukommen, wenn Nvidia das jetzige Quality-Standard-AF kegelt und Ati-ähnliches AF implementiert (also dosierte Bri-Gülle und noch weniger Samples). Warum sie das tun sollten? Es bringt reichlich Fps. Und die AF-Qualität wird von den meisten Leuten toleriert; die AF-Kritiker als Erbenzähler hingestellt. Dabei bekämen die Ati-Anhänger so ihre geliebte Bildqualität! Aber anstatt sich zu freuen, wird die Konkurrenz gewiss geflamed. Insofern glaube (und hoffe inständig) ich, dass Nvidia so einen Mist lässt, obwohl sie die Fps gebrauchen könnten (FX, ahoi!).

MfG,
Raff

Es wird nicht mit HQ verglichen und deshalb ergibt das weder einen Sinn noch zusätzlichen fps, aber das weißt du auch selbst. Immer wieder amüsant wie von den NV-Fans so getan wird als ob bei den Benchs nicht weitgehend mit gleicher Bildqualität verglichen wird.

y33H@
2010-05-02, 16:47:43
Was lästig ist: NV hat sich von G7x auf G80 bis GF100 in Sachen AF und AA gesteigert. AMD hat von R580 auf R600 bis RV870 das AA ebenfalls (drastisch) verbessert, aber das AF verschlechtert. Eine neue HW-Generation, die schneller bei schlechterer (Teil-)Bildqualität ist, ist eben nur bedingt toll.
Immer wieder amüsant wie von den NV-Fans so getan wird als ob bei den Benchs nicht weitgehend mit gleicher Bildqualität verglichen wird.AMDs AF sieht in praktisch allen Spielen, die gebencht werden, etwas schlechter aus als das der Geforces. In bestimmten Fällen wie Crysis/Warhead ist es besonders heftig.

Gast
2010-05-02, 16:51:07
AMDs AF sieht in praktisch allen Spielen, die gebencht werden, etwas schlechter aus als das der Geforces. In bestimmten Fällen wie Crysis/Warhead ist es besonders heftig.

Noch zum Launch wurde von euch behauptet das es sehr gut vergleichbar sei.

Raff
2010-05-02, 16:53:47
"Die Welt" = AMD-Fanboy? Oder nicht doch mal seine eigenen Ansichten überdenken?

Alle, die "nichts sehen" oder eindeutig AMD zugetan sind. Ich lese es doch jeden Tag in den Foren dieses Landes.

Es wird nicht mit HQ verglichen und deshalb ergibt das weder einen Sinn noch zusätzlichen fps, aber das weißt du auch selbst. Immer wieder amüsant wie von den NV-Fans so getan wird als ob bei den Benchs nicht weitgehend mit gleicher Bildqualität verglichen wird.

"Weitgehend" ist im Zweifel zu Ungunsten Nvidias. Stört nur die wenigsten.

Bitte nicht falsch verstehen: Ich will nicht, dass Nvidia einen Gleichstand mithilfe von weiteren Filter-Murksereien erreicht. Bloß nicht! Ich will nur, dass die Doppelmoral abgelegt, AMD/Ati für die Fails zu Recht geflamed wird und beide optionall grenzperfektes AF (HQ) anbieten. Das wird nie was, solange die gefühlte Mehrheit "Das AF basst scho, du Sack!" brüllen.

Noch zum Launch wurde von euch behauptet das es sehr gut vergleichbar sei.

Die Zeit schreitet voran. Sowas (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069) muss erst sichtbar sein, um es anzukreiden.

MfG,
Raff

y33H@
2010-05-02, 16:54:41
@ Gast

Vergleichbar schließt "etwas schlechter" ein. Wenn etwas vergleichbar ist, dann ist es sich ähnlich, aber nicht identisch.

Gast
2010-05-02, 17:04:42
Vergleichbar schließt "etwas schlechter" ein. Wenn etwas vergleichbar ist, dann ist es sich ähnlich, aber nicht identisch.

Wenn man nun noch bedenkt, dass "etwas schlechter" bei der Bildqualität schon 100% mehr Fps bringen kann, sieht man wie sinnfrei die Tests sind, solange Ati mauert und keinen HQ-Modus bringt, bei dem alle Optimierungen abgeschaltet sind, die Bildqualität kosten.

y33H@
2010-05-02, 17:06:50
Nun, man könnte durchgehend ohne AF benchen. Allerdings ist mir Bri-Flimmer-AF immer noch lieber als trilinear :usad:

Gast
2010-05-02, 17:21:48
Nun, man könnte durchgehend ohne AF benchen.

In dem Fall hätte Ati aber auch sein Ziel erreicht, denn man würde genau den Filter weglassen, der eine Schwäche der Ati-Karten darstellt.

Gast
2010-05-02, 17:37:04
In dem Fall hätte Ati aber auch sein Ziel erreicht, denn man würde genau den Filter weglassen, der eine Schwäche der Ati-Karten darstellt.

Warum sollte das so sein?