Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Botcruscher
2010-03-23, 12:25:49
Wenn eine GPU in 2D auf bruellende 70 Grad Celsius liegt dann handelt es sich nicht um eine falsche Information oder FUD.
Machen doch die 4850@stockkühler dank der Lüftersteuerung schon seit Jahren. Dafür sind sie dann immerhin unhörbar. Ohne Kenntnis der Rahmenbedingungen ist es weder Fud, noch falsch, noch sagt es irgendwas aus. Es ist eine schlichte Nullinformation.
Ailuros
2010-03-23, 12:28:11
Machen doch die 4850@stockkühler dank der Lüftersteuerung schon seit Jahren. Dafür sind sie dann immerhin unhörbar. Ohne Kenntnis der Rahmenbedingungen ist es weder Fud, noch falsch, noch sagt es irgendwas aus. Es ist eine schlichte Nullinformation.
Ich wollte damit LS lediglich vermitteln dass der idle Stromverbrauch tatsaechlich problematisch zu sein scheint.
Eggcake
2010-03-23, 12:31:59
Anders ausgedrückt: Ohne Hemlock wird die GTX480 die schnellste Karte am Markt. :D
Ja, da bin ich auch einverstanden. Ich blende MGPU konsequent aus.
MorPheuZ
2010-03-23, 12:32:14
Ein gewisser Herr Graf hat aber auch schon erwähnt dass Fermi im 2D MEHR abschaltet als viele glauben... was das auch immer heissen mag.
Das faellt unter die subjektive Kaufentscheidung jedem Verbrauchers. Wer sich fuehlt dass die 480 ihren Aufpreis auch wert ist, wird sich wohl auch eine hohlen. Wie es genau aussieht werden wir wohl in paar Tagen erfahren.
Natürlich, wer sich trotz der Tatsache, das der Aufpreis gemessen an der Mehrleistung weitaus höher ist, wie bei dem Produkt eine Stufe tiefer, und einen deutlich höheren Stromverbrauch, höhere Wärmeentwicklung (und möglicherweise Lautstärke) als nicht relevante Nachteile einstuft, der soll sich so eine Karte kaufen.
Jedoch muß die Person dann eingestehen, die Auswahl nach nicht rationalen Kriterien vollzogen zu haben, und ökonomisch unvernünftig gehandelt hat.
Ich kann Dir auch sagen dass ich mir persoenlich lieber eine 5850 kaufen wuerde und diese leicht uebertakten als eine 5870. Ja und?
Dito, auch ich würde weder eine 5870, geschweige denn eine 5970 kaufen, weil ich die 5850 als den besseren Deal ansehe (sofern ich diese Leistung benötige).
Und aus dem Grund wäre nach jetzigen Informationen die GTX 480 der schlechtere Deal gegenüber der 5870, aber womöglich der bessere gegenüber der 5970 - und allein das ist der Grund warum hier versucht wird, die GTX 480 als Gegenspieler der 5970 darzustellen, weil sie da im besseren Licht steht. Doch muß sie sich trotzdem den Vergleich mit der 5870 gefallen lassen.
Verhaltet Euch nicht so wahlweise scheinheilig als ob die meisten von Euch nicht wuessten wie IHVs in diesen Maerkten generell schon seit Jahren operieren. Es liegt an mir als Endverbraucher ob mir A, B oder C besser zusteht und es ist und bleibt subjektiv.
Mit einer Pistole am Schaedel sage ich Dir leicht dass mir momentan weder die 480 noch die 5970 ihr Geld wirklich wert sind.
Das hat doch nichts mit Scheinheiligkeit zu tun; natürlich ist die Entscheidung subjektiv, oder zumindest von den eigenen Ansprüchen abhängig. Und wenn die Leistung aufgrund der Ansprüche oder Anforderungen einer 5770 nicht reicht, und im Bereich der 5870 sein sollte, dann schaut man sich halt in der Leistungsregion um, auch wenn die 5770 ein weit bessers Preis / Leistungsverhältnis bietet.
Wenn ich mich dann aber bei genannten Nachteilen, und wahrscheinlich geringerer Mehrleistung für Produkt X Entscheide, obwohl Produkt Y die besseren Konditionen aufweist, bei Ähnlicher Leistung, dann ist es in jedem Falle voreingenommen und unverfünftig, man belügt sich selbst.
Wenn X und Y beide vom gleichen Hersteller angeboten werden, kauft doch auch keiner X, weil es einfach der schlechtere Deal ist. Niemand der Informiert ist kauft ne 5830, statt einer 5850 oder 5770, weil die Karte schlicht und ergreifend nicht attraktiv ist.
Wäre die 5830 mit genau den Leistungsdaten, schlechteren Verbrauch und im vergleich zu teurem Preis eine GTX 460, dann ist sie eine Alterntive?
Das alles selbstverständlich nur unter der Vorraussetzung, die bisherigen TDP und Verbrauchsangaben stimmen halbwegs, der deutlich höhere Preis stimmt halbwegs, und die weniger große Mehrleistung zum RV870 stimmt halbwegs.
Und gerade hier ist der Punkt gegen den ich mich strebe: Preis-Premiums sind normal im hw Markt generell und der Aufpreis ist nicht immer gerechtfertigt. Wie schon oben erwaehnt liegt es an jeglichem Verbraucher was ihm zusteht oder nicht.
Wie geschrieben, wenn irgendwer meint, diesen Premium-Preis-Aufschlag zahlen zu wollen, dann soll er dies ruhig tun. Das Produkt wird aufgrund des Premium-Preis-Aufschlags aber trotzdem nicht attraktiver.
Popeljoe
2010-03-23, 12:42:40
Wichtig ist doch aus Verbrauchersicht, dass Bewegung in den Markt kommt!
Mir persönlich ist der Preis der 5770 einfach zu hoch angesiedelt und ich erhoffe mir durch den Fermi eine Preissenkung im Grakamarkt.
Wenn die alte Gen (GTX260) abverkauft wird, kann ATI nicht bei dem momentanen Preis ihrer Midrange Karten bleiben.
Iceman346
2010-03-23, 12:45:28
Bis auf die 58xx Serie hattest du doch auch nur "unter aller sau" Idle/Strom verbrauch grakas.Da wars doch offensichtlich auch shize egal gell?:freak:
Für die Energieineffizienz im Idle der 4XXXer Reihe hat ATi jede Menge Schelte bekommen und das imo durchaus zu Recht.
Für die 5XXXer Reihe haben sie ihre Hausaufgaben gemacht und beispielgültig gezeigt wie man eine Highend Karte im Idle auf minimalen Strombedarf trimmen kann. Warum sollte nun Nvidia, falls sich der deutlich höhere Idlebedarf des Fermi bestätigt, nicht ebenfalls Schelte bekommen?
Ailuros
2010-03-23, 12:45:45
Natürlich, wer sich trotz der Tatsache, das der Aufpreis gemessen an der Mehrleistung weitaus höher ist, wie bei dem Produkt eine Stufe tiefer, und einen deutlich höheren Stromverbrauch, höhere Wärmeentwicklung (und möglicherweise Lautstärke) als nicht relevante Nachteile einstuft, der soll sich so eine Karte kaufen.
Jedoch muß die Person dann eingestehen, die Auswahl nach nicht rationalen Kriterien vollzogen zu haben, und ökonomisch unvernünftig gehandelt hat.
Das Spekulationsforum ist kein Kaufsberatungsforum. Sobald der NDA fuer GF100 faellt und die ersten offiziellen reviews auftauchen wird der Thread geschlossen und es geht mit GF100 (p-)review Threads im Grafikkarten-Forum weiter.
Dito, auch ich würde weder eine 5870, geschweige denn eine 5970 kaufen, weil ich die 5850 als den besseren Deal ansehe (sofern ich diese Leistung benötige).
Und hier stimmen wir auch zu 100% ueberein. Soll ich jetzt AMD vielleicht anmeckern warum ihre eigene 5870 einen fraglichen Aufpreis gegenueber der 5850 hat oder jeglichen 5870-User erzaehlen wie bloed er ist dass er A und nicht B gewaehlt hat?
Und aus dem Grund wäre nach jetzigen Informationen die GTX 480 der schlechtere Deal gegenüber der 5870, aber womöglich der bessere gegenüber der 5970 - und allein das ist der Grund warum hier versucht wird, die GTX 480 als Gegenspieler der 5970 darzustellen, weil sie da im besseren Licht steht. Doch muß sie sich trotzdem den Vergleich mit der 5870 gefallen lassen.
Dann mach mir mal eine Liste von ernsthaften reviews/Analysen fuer die GTX480. Was ich gesichert in der Hand habe sind TDP Werte, Preise und ein paar bekloppte Bilder von oeden Schachteln und den GPUs selber. Hab ich etwas vergessen?
Das alles selbstverständlich nur unter der Vorraussetzung, die bisherigen TDP und Verbrauchsangaben stimmen halbwegs, der deutlich höhere Preis stimmt halbwegs, und die weniger große Mehrleistung zum RV870 stimmt halbwegs.
Ist der letzte Anteil gesichert?
Klares Nein, die 470 wird sich zwischen der 5850 und 5870 einordnen!
Er meint sicherlich die Werte beim Tessellation Benchmark ;D
Ailuros
2010-03-23, 12:49:05
Wie geschrieben, wenn irgendwer meint, diesen Premium-Preis-Aufschlag zahlen zu wollen, dann soll er dies ruhig tun. Das Produkt wird aufgrund des Premium-Preis-Aufschlags aber trotzdem nicht attraktiver.
Und wieso sollte ich jetzt Verbraucher-Psychologie analysieren? Willst Du eine Wette eingehen dass NV's 480-er auf Regalen verfaulen? Wohl nicht.
Bioshock
2010-03-23, 12:54:29
Für die Energieineffizienz im Idle der 4XXXer Reihe hat ATi jede Menge Schelte bekommen und das imo durchaus zu Recht.
Für die 5XXXer Reihe haben sie ihre Hausaufgaben gemacht und beispielgültig gezeigt wie man eine Highend Karte im Idle auf minimalen Strombedarf trimmen kann. Warum sollte nun Nvidia, falls sich der deutlich höhere Idlebedarf des Fermi bestätigt, nicht ebenfalls Schelte bekommen?
Nicht nur die 4xxxer Reihe war "unter aller sau".Und ja die Schelten soll auch ein Fermin bekommen.Da bin ich voll und ganz deiner meinung.Mir gings aber um was ganz anderes wenn du verstehst:wink:
mfg
LovesuckZ
2010-03-23, 12:58:04
Hardware.fr (http://www.hardware.fr/articles/781-5/dossier-vraie-consommation-73-cartes-graphiques.html) hat 74 Karten in der Leistungsaufnahme gemessen und kommt im Pixelshadertes des 3DMark auf 163 Watt bei der 5870 und 216 Watt bei der GTX285. Würde man hier die 130 Watt draufschlagen, läge die GTX480 bei locker flockigen 300 Watt...
Hardware.fr (http://www.hardware.fr/articles/781-5/dossier-vraie-consommation-73-cartes-graphiques.html) hat 74 Karten in der Leistungsaufnahme gemessen und kommt im Pixelshadertes des 3DMark auf 163 Watt bei der 5870 und 216 Watt bei der GTX285. Würde man hier die 130 Watt draufschlagen, läge die GTX480 bei locker flockigen 300 Watt...
Die GTX280 kann man aber auf 1.03V undervolten und dann braucht sie nur mehr ~145-150 Watt.
Armaq
2010-03-23, 13:01:32
Hardware.fr (http://www.hardware.fr/articles/781-5/dossier-vraie-consommation-73-cartes-graphiques.html) hat 74 Karten in der Leistungsaufnahme gemessen und kommt im Pixelshadertes des 3DMark auf 163 Watt bei der 5870 und 216 Watt bei der GTX285. Würde man hier die 130 Watt draufschlagen, läge die GTX480 bei locker flockigen 300 Watt...
Das ist ja das Schockierende!
Die 5870 wird durch den Test sicher nicht ausgelastet, aber immerhin Mehrleistung ohne Mehrkosten (außer in der Produktion).
300 Watt klingen viel zu brutal um wahr zu sein.
Hardware.fr (http://www.hardware.fr/articles/781-5/dossier-vraie-consommation-73-cartes-graphiques.html) hat 74 Karten in der Leistungsaufnahme gemessen und kommt im Pixelshadertes des 3DMark auf 163 Watt bei der 5870 und 216 Watt bei der GTX285. Würde man hier die 130 Watt draufschlagen, läge die GTX480 bei locker flockigen 300 Watt...
Interessant das die GTX285 da gleich mal locker die TDP sprengt, das wird sich dann wohl bei der GTX480 fortsetzen.
Ailuros
2010-03-23, 13:06:03
Wenn die geehrten Gaeste sich nicht zu benehmen wissen oder koennen, mach ich den Thread tatsaechlich am Ende zu und sie koennen dann Ihren Sandkasten woanders anlegen.
Zum NV30 vs 9800pro
Beim NV30 war das ein ganz anderer Fall, er hat quasi in allem abgeloost für das er konstruiert war.
Das wird mit RV870 genauso passieren, wenn das wichtigste DX11-Feature verwendet wird, genauso wie es damals mit NV30 passiert ist wenn man SM2 verwendet hat. Ob das zu Lebzeiten der Karte eine wichtig sein wird ist natürlich (genauso wie damals) eine andere Frage.
Das war nicht nicht so exorbitant, weil nvidia die Schwäche zuerst durch horrende texturfiltereinsparungen und nachher durch den massiv größeren nv35 verdeckt hat.
Nichts gegen ATI, dort gab es damals noch die winkelabhängigen Filter, bei NV "nur" brilinear, was noch die harmloseste aller sogenannten "Optimierungen" ist, was man auch noch abschalten konnte. Dein Graph zeigt übrigens sehr schön, dass NV35 fast nichts gebracht hat.
[quote]
http://www.3dcenter.org/dateien/abbildungen/02_cod2-mittel.png
Was ist denn da los? FX 5700-5900 fast gleich schnell die HD2900 langsamer als die FX-Serie? So schlimm war R600 nun wirklich nicht.
mboeller
2010-03-23, 13:07:33
300 Watt klingen viel zu brutal um wahr zu sein.
Auch wenn's beim ersten Mal jeder überlesen hat: die +130 Watt sind wahrscheinlich am Stromanschluss gemessen. Da bleiben max. 100 Watt übrig.
@LovesuckZ
Da hat wohl einer beim Rechnen die Effizienz des Netzteils vergessen ;) Wenn Verbrauchswerte der Grafikkarten einzeln gemessen werden dann meistens direkt durch den Strom, der dort über die Stecker und den PCIe-Bus fließt. Wird das ganze System gemessen, dann meistens mit einem Energiemessgerät am Netzteil. Dadurch werden aus den 163 Watt für die HD5870 bei einem Netzteil mit sagen wir mal 85% Wirkungsgrad etwa 190 Watt. 130 Watt mehr für die GTX 480 wären dann 320 Watt nach dem Netzteil und somit etwa 270 Watt für die Grafikkarte alleine. Das wären dann netto "nur" ca 110 Watt mehr, würde aber an die TDP von 250 Watt realistisch nahe herankommen.
Woher stammt diese Info?
Aus seinem Hirngespinst. Der Wert ist absurd. Er verkauft öfter seine Spekulation als Fakt. Vor ein paar Tagen noch seine 512 SP als Fakt hingestellt, er weiß gar nichts. Er ist einfach nur ein Möchtegern Spekulant.
ralist.
2010-03-23, 13:17:12
Ist der letzte Anteil gesichert?
Ich hab kein Vitamin B, nichts ist gesichert, und ich weiß nicht mehr wie andere. Von daher schreibe ich auch unter der Vorraussetzung alles kommt so wie derzeit SPEKULIERT WIRD.
Von daher ist es doch nichts anderes, die geringe Attraktivität bezogen auf den bisherigen Leaks und Fakes anzusprechen, wie du und andere auf Grundlage gleicher Leaks und Fakes das genaue Gegenteil beschreiben?
Oder sind weiterführende Spekulationen nur dann erlaubt, wenn sie sich positiv über den GF100 äussern? So wie es Typen wie LovesuckZ und Co. tun? Opportunismus at its best?
tombman
2010-03-23, 13:17:17
Idle Verbrauch ist doch ebenfalls egal- keiner läßt so ein Sys 24/7 rennen. Die Zielgruppe für HighEnd hat nicht nur einen PC, die haben genug Geld für einen stromsparenden Server oder ein netbook/notebook, wo dann 24/7 Aufgaben laufen :rolleyes:
Kostet ja heutzutage echt nix mehr...irgendein Billigdualcore-AMD mit integrierter HDMI Grafik und €/GB HDD, und schon kann der GamingPC schlafen.
Im Gegenteil, wenn der IDLE zu LOAD Unterschied zu groß ist, kanns nur Probleme mit dem Netzteil geben, wenn von jetzt auf gleich massiv Strom angefordert wird, zb bei SLI/Tri/Quad. Wenn die Sicherungen des NTs vom Hersteller zu empfindlich eingestellt sind,
schaltet das NT ab, obwohl genug Leistung vorhanden gewesen wäre :rolleyes:
(guter Test: Pixel Shader 3DM06 ;))
Load Verbrauch ist schon ne andere Sache, weil die Kühler dann furmark nimmer packen, außerdem wird oc dann fast unmöglich.
Was wiederrum wakü bedeutet und damit Geldverlust.
Ailuros
2010-03-23, 13:23:31
Ich hab kein Vitamin B, nichts ist gesichert, und ich weiß nicht mehr wie andere. Von daher schreibe ich auch unter der Vorraussetzung alles kommt so wie derzeit SPEKULIERT WIRD.
Von daher ist es doch nichts anderes, die geringe Attraktivität bezogen auf den bisherigen Leaks und Fakes anzusprechen, wie du und andere auf Grundlage gleicher Leaks und Fakes das genaue Gegenteil beschreiben?
Oder sind weiterführende Spekulationen nur dann erlaubt, wenn sie sich positiv über den GF100 äussern? So wie es Typen wie LovesuckZ und Co. tun? Opportunismus at its best?
Nein und abermals zum letzten Paragraphen. Ich sollte mich aber auch nicht persoenlich "entschuldigen" muessen wenn ich mich bei momentanen Vergleichen nur auf die absolut gesicherten Infos konzentriere.
Wie gesagt ich hab sichere Preis und sichere TDPs und nur auf diesen basierend sind meine zeitlichen Vergleiche. Ich hab uebrigens auch nirgends in letzter Zeit erwaehnt dass ich persoenlich ueber die GF100 begeistert bin eher das Gegenteil.
Idle Verbrauch ist doch ebenfalls egal- keiner läßt so ein Sys 24/7 rennen. Die Zielgruppe für HighEnd hat nicht nur einen PC, die haben genug Geld für einen stromsparenden Server oder ein netbook/notebook, wo dann 24/7 Aufgaben laufen :rolleyes:
Kostet ja heutzutage echt nix mehr...irgendein Billigdualcore-AMD mit integrierter HDMI Grafik und €/GB HDD, und schon kann der GamingPC schlafen.
bis ich die kohle für nen extra fileserver wieder drin hab kann ich mein jetziges system 2 jahre 24/7 laufen lassen. mir ist ein niedriger idle verbrauch und trotz dem eine gute performance, wenn es darauf ankommt, sehr wichtig.
Lovesuckz, Crysis wird mit Sicherheit auch wie eine Zitrone ausgequetscht worden sein von nvidia. Andere Games wären interessanter.
Interessant sind vor allem Games die die Performance brauchen und keine dreistelligen FPS-Zahlen produzieren und weniger wie gut der Treiber schon darauf optimiert ist.
weniger komplex:
sicher nicht. selbst nach transistorzahl halten die Itaniums da mit dem GPUs mit. dagegen sind die CPUs in den Pipelines sehr viel höher optimiert was die Schaltungstechnik, Clocktiming, Stromversorgung etcpp angeht. sieht man ja, wie nV kämpft richtung 1,5 GHz während die CPUs schon lange bei mehr als dem Doppelten sind...
Taktfrequenzen von grundlegend verschiedenen Mikrochips kann man nicht vergleichen. Taktfrequenz bei Chip X kann etwas ganz anderes bedeuten als Taktfrequenz bei Chip Y und dementsprechend müssen Transistoren trotz nominell gleicher Taktfrequenz unterschiedlich schnell schalten.
LovesuckZ
2010-03-23, 13:32:04
@LovesuckZ
Da hat wohl einer beim Rechnen die Effizienz des Netzteils vergessen ;) Wenn Verbrauchswerte der Grafikkarten einzeln gemessen werden dann meistens direkt durch den Strom, der dort über die Stecker und den PCIe-Bus fließt. Wird das ganze System gemessen, dann meistens mit einem Energiemessgerät am Netzteil. Dadurch werden aus den 163 Watt für die HD5870 bei einem Netzteil mit sagen wir mal 85% Wirkungsgrad etwa 190 Watt. 130 Watt mehr für die GTX 480 wären dann 320 Watt nach dem Netzteil und somit etwa 270 Watt für die Grafikkarte alleine. Das wären dann netto "nur" ca 110 Watt mehr, würde aber an die TDP von 250 Watt realistisch nahe herankommen.
Nein habe ich nicht. Aber laut dem Chinesen läge die 5970 60 Watt niedriger. Nimmt man den Pixelshadertest, müsste die GTX480 ca. 310 Watt verbrauchen - deutlich mehr als Hemlock und der GTX295.
Gehen wir von den 250 TDP aus: Dann wären es ca. 87 Watt zur 5870. Bei 80% Effizienz des Netzteils müsste es ca. 18 Watt zusätzlich sein und somit ergeben sich 105 Watt unterschied.
Bezüglich der Leistung: Laut diesem Graphen (http://www.hardware.fr/articles/784-11/comparatif-geant-89-gpu-nvidia-ati-amd.html) ist die 5870 ca. 30/40% schneller als die GTX285/4890. Je nachdem wieviel schneller die GTX480 hier sein wird (50-92% gegenüber der GTX285) hätte sie immer noch einen Perf/watt Nachteil, aber nicht diese 52%.
N0Thing
2010-03-23, 13:37:59
Du kritisierst nur (GPU)-PhysX. Überall, jederzeit.
Ich lese komischerweise keine negativen Äußerungen in Richtung AMD und ihrer "GPU-Physik über OpenCL" Ausrichtung. Die gibt es seit Sommer 2008.
Wie man 13 Spiele in Anbetracht von 0 als "wenig" und somit nicht als kaufentscheindend bezeichnen kann, ist natürlich nicht auf deine Neigung zu einer Firma zurückzuführen, gell? :D
Es gibt dieses Sprichwort:
Unter den Blinden ist der Einäugige König.
Vielleicht solltest du deine Kritik an GPU-PhysX solange zurückfahren, bis AMD ein reales Gegenprodukt hat.
Ich habe mir eigentlich vorgenommen Leute zu ignorieren, denen ich meine eigenen Beiträge nochmal vorkauen muß, weil sie sie nicht verstehen, oder absichtlich falsch verstehen wollen. Aber für dich mache ich noch einmal ein Ausnahme.
Ich habe das Brimborium um PhysX kritisiert, nicht die PhysX-API.
13 Spiele (Addons von Spielen eingerechnet) sind für mich nicht VIELE, wie Tombman schrieb. Deshalb sind mir andere Kriterien (wie schon geschrieben Leistung, Lautstärke, Bildqualität und Stromverbrauch) beim Kauf einer Grafikkarte wichtiger. Meine reine subjektive Meinung, aber sicher keine, aus der man eine Kritik an GPU-PhysX rauslesen kann.
Daß du den Abschnitt in meinem Beitrag ignorierst, in dem ich ATI kritisiere, daß sie bisher nichts auf die Beine gestellt haben, sagt ja schon alles. Ich kann bei ATI sonst nichts weiter kritisieren, sie haben ja nichts. Nur weil Nvidia etwas anbietet, zu dem es keine Konkurrenz gibt, bedeutet das für mich nicht, daß ein kritischer Blick drauf verboten ist. Zumal es überhaupt nicht um AMD ging, dieses Faß hast du ganz alleine aufgemacht.
Ich kritisiere in keinster Weise überall PhysX, ich lobe es nur nicht immer über den grünen Klee und ignoriere Dinge, die mir selber negativ auffallen. So finde ich die Effekte, die in den Spielen eingesetzt werden, oft weniger gut gelungen, als bei "geschummelter", als vereinfachter Physikberechnung. Das ist aber (hoffentlich) kein grundsätzliches Problem der PhysX-API.
Wenn du wirklich meine Beiträge zu PhysX nicht nur selektiv, sonder komplett gelesen hast, dann hättest du auch sehen müssen, daß ich Nvidia für ihre Anstrengen beim Thema PhysX@GPU lobe, einen echten Erfolg für Physik@GPU aber erst erwarte, wenn von den Entwicklern eine gute API genutzt wird, die mit Grafikkarten beider Hersteller einsetzen kann
Ich bitte dich deshalb in Zukunft auf persönliche Beleidigungen zu verzichten, darunter fallen sowohl Vergleiche der Marke Einäugiger unter den Blinden, als auch die Bezeichnung Fanboy.
Ich hab abgesehen von den Volari-Chips von jeder Firma Grafikchips gekauft, wenn sie die beste Lösung für meine Ansprüche waren.
Zum eigentlichen Thema:
Ist im Zusammenhang mit dem Stromverbrauch und/oder den Taktraten auch schon etwas zu den Spannungen bekannt geworden, mit denen die Chips betrieben werden? Im letzten Jahr gab es doch noch Spekulationen, daß die angepeilten Taktraten mit den eigentlich vorgesehen Spannungen nicht erreicht werden konnten. Hätten die Respins daran etwas verbessern können?
http://forum.beyond3d.com/showpost.php?p=1411393&postcount=4474
GTX480 power consumption at full load is nearly 130W more than HD5870,full load Temperature is 92℃.
Ausgehend von aktuellen Xbit-Zahlen
http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_3.html#sect0
5870 also etwa 160 Watt, GTX 480 300 Watt O_o
Kann irgendwie nicht so ganz hinkommen.
Vielleicht sind die 130 Watt mehr auch mit dem OC-Potential gemeint.
"Machine Power Consumption"
Also die Stromaufnahme des Gesamtsystems, da kann es schon stimmen.
crux2005
2010-03-23, 13:39:39
Erste Karten auf Lager. Cca. so viele Karten wei beim HD 5870 Launch. Also paper launch. Preise:
320E und 460E mit MwSt. Die sollen aber noch Fallen...
LovesuckZ
2010-03-23, 13:40:24
Erste Karten auf Lager. Cca. so viele wei beim HD 5870 Launch. Also paper launch. Preise momentan:
320E und 460E mit MwSt.
Wie kann es einen Paper Launch mit Karten im Handel geben? ;D
crux2005
2010-03-23, 13:42:32
Weil es kein Hard Launch ist und alle 48Std. nach dem Launch weg sind...
tombman
2010-03-23, 13:43:23
bis ich die kohle für nen extra fileserver wieder drin hab kann ich mein jetziges system 2 jahre 24/7 laufen lassen. mir ist ein niedriger idle verbrauch und trotz dem eine gute performance, wenn es darauf ankommt, sehr wichtig.
Der Fileserver dient aber länger als eine Grakageneration, den hast mehrere Generationen ;)
Außerdem hat der ja noch andere Vorteile, nicht nur die Verhinderung der Aktivität des GamePcs.
Also wenn das stimmt dann sieht man mal wie unparteiisch TSMC nicht ist. Wie kann NV wenn sie ein halbes Jahr später mit der Produktion beginnen innerhalb von ein paar Monaten trotz deutlich größeren Dice mehr Chips ausliefern als Cypress seit Beginn?
NV hat sich 80% der 40nm-Kapazitäten gesichert, logisch dass sie da schneller auf brauchbare Stückzahlen kommen.
Grumbart
2010-03-23, 13:44:36
Wie kann es einen Paper Launch mit Karten im Handel geben? ;D
Homöopathische Menge an Karten, also wie beim Launch der HD58xx Serie.
NV hat sich 80% der 40nm-Kapazitäten gesichert, logisch dass sie da schneller auf brauchbare Stückzahlen kommen.
Quelle?
Wie kann es einen Paper Launch mit Karten im Handel geben? ;D
Die Kartons sind leer. Da sind nur Mauspads und Mäuse drin. Außerdem noch Gutscheine für die Grafikkarten, die man dann Ende des Jahres einlösen kann, wenn die Karten dann tatsächlich lieferbar sind ;)
Exxtreme
2010-03-23, 13:50:56
Der Fileserver dient aber länger als eine Grakageneration, den hast mehrere Generationen ;)
Außerdem hat der ja noch andere Vorteile, nicht nur die Verhinderung der Aktivität des GamePcs.
Geht nicht nur um Fileserver. Ich zocke mit dem PC ja nicht die ganze Zeit. Und während des 2D-Betriebs möchte ich da keine 70W-Heizung im PC haben. Oder soll ich mir zum Fileserver auch noch einen Office-PC zulegen? Am besten noch mit Maus-Tastatur-Monitor-Umschalter oder wie? :freak:
Nach Geruechten bekam dank einem desing-Problem NV lediglich einen vollen 16 SM chip pro wafer und hier liegt auch wohl die eigentliche Erklaerung warum NV mit Absicht die GTX480 nur mit 15SMs veroeffentlicht. Anstatt mit verdammt geringer 16SM Verfuegbarkeit kaempfen zu muessen (bis nach dem re-spin) nahm man die 15SM-only Alternative und erhoehte die 480 Verfuegbarkeit.
Halte ich ehrlich gesagt für ein Gerücht. Ich denke eher, dass der Yield allgemein noch immer sehr niedrig ist und man deshalb zur 15er-Variante gegangen ist um zumindest halbwegs brauchbare Stückzahlen liefern zu können.
Muss man ja auch, schließlich hat die Produktion um einiges später als bei RV870 begonnen.
tombman
2010-03-23, 13:54:55
PCGH gönnt sich wohl ne kleine Verschnaufpause von den GTX 480 Benchmarks, zumindest hatten sie Zeit auf die Karte einen Prolimatech MK-13 zu montieren:
http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/
Die ersten sechs Bilder in der durchklickbaren Galerie...
Das Teil braucht 3 Slots ohne Kühler- FAIL @ SLI/TRI/QUAD.
FAIL @ SLI/TRI/QUAD.
Zumindest der Teil des Posts stimmt. ;)
tombman
2010-03-23, 13:59:30
Geht nicht nur um Fileserver. Ich zocke mit dem PC ja nicht die ganze Zeit. Und während des 2D-Betriebs möchte ich da keine 70W-Heizung im PC haben. Oder soll ich mir zum Fileserver auch noch einen Office-PC zulegen? Am besten noch mit Maus-Tastatur-Monitor-Umschalter oder wie? :freak:
2. Systeme:
1.) Game PC zum zocken: Strom egal
2.) Non-Game PC für ALLES andere: surfen, office, fileserver, etc: minimaler Strom
Und ja, MKM- Umschalter muß her :) Ist ja technisch nicht kompliziert...
Eggcake
2010-03-23, 14:01:39
Ist es so schwer zu akzeptieren, dass es eben Leute gibt, welche ihren GamePC auch für andere Dinge benötigen als nur GPU-Leistung fressende Applikationen?
Wie wärs damit: Alle neuen Boards haben Onboard-Grafik für 2D Modus. Dort wird die Grafikkarte komplett abgeschaltet. Beim Wechseln in den 3D Modus wird die Onboard-Grafik deaktiviert und die Grafikkarte aktiviert. Sollte doch eigentlich machbar sein, wird doch schon jahrelang diskutiert. Müssen nur mal die richtigen Leute ran...
Sowohl der Gast als auch LS haben legitime Punkte nur leider uebertreiben beide von ihrer eigenen Perspektive aus.
Es bleibt fuer mich dabei dass AMD nichts im high end Bereich ausserhalb der 5970 im Angebot hat und dabei ist es auch schwer wenn nicht gleich sinnlos eine 5870 mit einer 480 zu vergleichen, so lange es in der Form von der 470 eine vergleichbarere Loesung zu der 5870 gibt.
Und da wir schon beim Thema sind: Hemlock ist tatsaechlich mGPU. Es aendert sich aber nichts daran dass dafuer AMD 2 cores braucht und daher die Herstellungskosten fuer die dies um genau 2x Mal so hoch sind wie bei Cypress.
Wie ich schon oben sagte 70C@2D fuer die 480 und ja das tut tatsaechlich weh.
Wie wärs damit: Alle neuen Boards haben Onboard-Grafik für 2D Modus. Dort wird die Grafikkarte komplett abgeschaltet. Beim Wechseln in den 3D Modus wird die Onboard-Grafik deaktiviert und die Grafikkarte aktiviert. Sollte doch eigentlich machbar sein, wird doch schon jahrelang diskutiert. Müssen nur mal die richtigen Leute ran...
Hbrid SLI / ION / Optimus ?
Ist es so schwer zu akzeptieren, dass es eben Leute gibt, welche ihren GamePC auch für andere Dinge benötigen als nur GPU-Leistung fressende Applikationen?
Das wird erst dann geschehen, wenn AMD in Sachen Stromverbrauch wieder schlechter steht, als Nvidia. Aber dann richtig.
eine herstellerunabhänige lösung wie optimus im desktopbereich fände ich sehr unterstützenswert. allerdings ist das bei nem idleverbauch einer hd5xxx meist nicht mal mehr der energiebilanz zuträglich.
N0Thing
2010-03-23, 14:06:05
Wie wärs damit: Alle neuen Boards haben Onboard-Grafik für 2D Modus. Dort wird die Grafikkarte komplett abgeschaltet. Beim Wechseln in den 3D Modus wird die Onboard-Grafik deaktiviert und die Grafikkarte aktiviert. Sollte doch eigentlich machbar sein, wird doch schon jahrelang diskutiert. Müssen nur mal die richtigen Leute ran...
Das hat Nvidia mit Hybrid Power schon mal angeboten und nun mit Optimus wieder verbessert eingeführt, sodaß das Umschalten automatisch funktioniert. Bisher afaik nur bei einigen Notebooks verfügbar, ich hoffe aber mal, daß die Technik in spätestens 1-2 Jahren überall und hoffentlich auch von den Mitbewerbern eingesetzt wird.
Iruwen
2010-03-23, 14:06:21
Ich liebe Autovergleiche. Besonders sinnvoll sind sie, wenn man ein 400 €-Produkt mit einem 200.000 €-Produkt vergleicht.
Hey, 400€ sind für viele zweimal Kindergeld :rolleyes:
olegfch
2010-03-23, 14:09:41
Ist es so schwer zu akzeptieren, dass es eben Leute gibt, welche ihren GamePC auch für andere Dinge benötigen als nur GPU-Leistung fressende Applikationen?
Ist es so schwer zu akzeptieren, dass es Leute gibt, für welche der Stromverbrauch keine entscheidende Rolle spielt? :rolleyes:
tombman
2010-03-23, 14:11:23
Ist es so schwer zu akzeptieren, dass es eben Leute gibt, welche ihren GamePC auch für andere Dinge benötigen als nur GPU-Leistung fressende Applikationen?
Selbst bei 20Cent/kWh und 30W Unterschied bei 24/7 Betrieb sind das 52€ im Jahr
- Wow, wir werden alle sterben und arm :rolleyes:
Ist es so schwer zu akzeptieren, dass es Leute gibt, für welche der Stromverbrauch keine entscheidende Rolle spielt? :rolleyes:
les die posts um den zusammenhang zu erfassen, in dem das von dir gequotete steht. lesen bildet. es ging um nen zusätzlichen stromsparenden rechner für alles außer gaming.
Eggcake
2010-03-23, 14:11:58
Ist es so schwer zu akzeptieren, dass es Leute gibt, für welche der Stromverbrauch keine entscheidende Rolle spielt? :rolleyes:
Öhm, nein, mir ist das doch sowas von egal. Jeder seine Meinung. Hab nirgends was dagegen gesagt.
Tombman versucht aber wiederholt krampfhaft seine Meinung anderen aufzuzwingen, was nur noch nervt :rolleyes:
Ist es so schwer zu akzeptieren, dass es Leute gibt, für welche der Stromverbrauch keine entscheidende Rolle spielt? :rolleyes:
Selbst bei 20Cent/kWh und 30W Unterschied bei 24/7 Betrieb sind das 52€ im Jahr
- Wow, wir werden alle sterben und arm :rolleyes:
kam nicht von dir die aussage, das man seinen gaming rechner nicht als fileserver, zum surfen, etc. pp. verwenden soll? :rolleyes:
kruemelmonster
2010-03-23, 14:13:37
PCGH gönnt sich wohl ne kleine Verschnaufpause von den GTX 480 Benchmarks, zumindest hatten sie Zeit auf die Karte einen Prolimatech MK-13 zu montieren:
http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/
Die ersten sechs Bilder in der durchklickbaren Galerie...
Die Bilder bei PCGH sind offline, daher:
http://www.abload.de/gallery.php?key=k7cECTKf
:P :biggrin:
tombman
2010-03-23, 14:18:29
Die Bilder bei PCGH sind offline, daher:
http://www.abload.de/gallery.php?key=k7cECTKf
:P :biggrin:
Also, ich muß zugeben- sieht saugeil aus :)
Sind die Ramchips und Spawas durch ne Platte gekühlt?
Ein gewisser Herr Graf hat aber auch schon erwähnt dass Fermi im 2D MEHR abschaltet als viele glauben... was das auch immer heissen mag.
Er hat erwähnt, dass ordentlich untertaktet wird (wohl auch mit entsprechender Spannungsanpassung)
Von Abschalten hat er kein Wort gesagt.
Ich bin mir auch sicher, dass Clock-Gating, falls es vorhanden ist, mit dem Launchtreiber nicht funktionieren wird.
Ich wäre aber auch nicht überrascht, wenn man darauf ganz verzichtet, dadurch wird der DIE nämlich auch größer und mit 3GT ist man eh schon nicht gerade klein.
Ohne Clockgating ist es auch klar, dass der Idle-Verbrauch hoch sein muss.
Ist es so schwer zu akzeptieren, dass es Leute gibt, für welche der Stromverbrauch keine entscheidende Rolle spielt? :rolleyes:
Ich glaube mit Leuten, die stolz einen Verbrauch von über einem kW auf ihrer Systemseite zeigen, braucht man sich wirklich nicht über Stromverbrauch unterhalten. Da ist Hopfen und Malz verloren...
LovesuckZ
2010-03-23, 14:20:39
Selbst bei 20Cent/kWh und 30W Unterschied bei 24/7 Betrieb sind das 52€ im Jahr
- Wow, wir werden alle sterben und arm :rolleyes:
Ein Acer Revo erhält man schon für 280€. Mit dem Single-Core Atom verbrauch dieser Rechner beim Idlen gerade mal 20 Watt. Man spart mit diesem PC im ersten Jahr bei 24h Betrieb 192,8€, wenn der gamerPC ohne Monitor 130 Watt benötigt. Nach einem Jahr und 49 Tagen hätte man die Kosten wieder hereingeholt.
Die GTX280 kann man aber auf 1.03V undervolten und dann braucht sie nur mehr ~145-150 Watt.
Du kannst prinzipiell jede GPU undervolten und der Verbrauch wird entsprechend sinken.
Alle Hersteller spezifizieren die Defaultspannung mit entsprechender Sicherheit.
Tarkin
2010-03-23, 14:25:26
http://i44.tinypic.com/99mfyq.jpg
von hier: http://www.xtremesystems.org/forums/showthread.php?p=4301516#post4301516
tombman
2010-03-23, 14:31:07
http://i44.tinypic.com/99mfyq.jpg
von hier: http://www.xtremesystems.org/forums/showthread.php?p=4301516#post4301516
Kann ich kaum glauben, gerade in Crysis.
Aber falls es stimmt: MEGAFAIL!
_DrillSarge]I[
2010-03-23, 14:32:15
http://i44.tinypic.com/99mfyq.jpg
von hier: http://www.xtremesystems.org/forums/showthread.php?p=4301516#post4301516
von dort auch:
http://home.akku.tv/~akku38901/gtx470benchs.jpg
wut?
warhead verhält sich schon ein wenig anders als crysis. bin trotz dem schockiert.
Ailuros
2010-03-23, 14:33:00
Kann ich kaum glauben, gerade in Crysis.
Aber falls es stimmt: MEGAFAIL!
Doch stimmt; Crysis und Crysis Warhead sehen in etwa so aus; bleibt abzusehen ob zukuenftige Treiber etwas daran aendern koennen. Logisch sind die Resultate auf jeden Fall nicht.
tombman
2010-03-23, 14:36:27
Doch stimmt; Crysis und Crysis Warhead sehen in etwa so aus; bleibt abzusehen ob zukuenftige Treiber etwas daran aendern koennen. Logisch sind die Resultate auf jeden Fall nicht.
Texturschwäche?
Langsam hab ich das Gefühl, ich sollte Quad 295 behalten :ugly:
LovesuckZ
2010-03-23, 14:37:52
Gott, diese 50-60% gegenüber der GTX285 sind doch schon seit der CES ersichtlich gewesen.
Leider leakt niemand die wirklich interessanten Ergebnisse - z.B. Metro2033 oder PhysX ergebnisse gegenüber der GTX285.
Crysis wird langsam langweilig. Aber so wirklich. Fehlt ja nur noch, dass bald noch Quake 3 herangezogen wird. :D
Spasstiger
2010-03-23, 14:39:22
I[;7923212']von dort auch:
http://home.akku.tv/~akku38901/gtx470benchs.jpg
wut?
Dass die GTX 470 langsamer ist als die HD 5870, finde ich nicht weiter überraschend. Am Dirt-2-Ergebniss erkennt man auch, dass schon mit dem Catalyst 10.3 gebencht wurde. Mit dem Catalyst 10.2 ist die HD 5870 in Dirt 2 nämlich chancenlos gegenüber der GTX 470.
P.S.: 5 fps min in Warhead @ 8xMSAA mit der HD 5870 und 16 fps min. mit der GTX 470. VRAM voll auf der HD 5870?
MorPheuZ
2010-03-23, 14:39:58
Schön ist eigentlich nur noch dass sie bei Crüsis WH zwischen 4x und 8x MSAA quasi nicht einbricht.
\Edit: Und stimmt! Das ist ne 470er, dann passts doch eigentlich
RoNsOn Xs
2010-03-23, 14:40:34
interessant wirds doch eh erst in ein paar jahren, wenn nv dann zugeben wird, das so einiges schief gelaufen ist. dann kann so einiges von bestimmten personen hier zitiert werden..
Ailuros
2010-03-23, 14:40:50
Dass die GTX 470 langsamer ist als die HD 5870, finde ich nicht weiter überraschend. Am Dirt-2-Ergebniss erkennt man auch, dass schon mit dem Catalyst 10.3 gebencht wurde. Mit dem Catalyst 10.2 ist die HD 5870 in Dirt 2 nämlich chancenlos gegenüber der GTX 470.
Du verwechselst wohl die 470 mit der 480 :P
Eggcake
2010-03-23, 14:43:05
http://i44.tinypic.com/99mfyq.jpg
von hier: http://www.xtremesystems.org/forums/showthread.php?p=4301516#post4301516
Würde mal meinen sowas wird ganz schnell durch einen besseren Treiber anders aussehen...das kann ich mir beim besten Willen nicht vorstellen O_o
olegfch
2010-03-23, 14:43:34
Also wenn die "Herzchen" Werte stimmen, bleibe ich erst bei gtx285@sli. So was geht gar nicht.
Ich glaube mit Leuten, die stolz einen Verbrauch von über einem kW auf ihrer Systemseite zeigen, braucht man sich wirklich nicht über Stromverbrauch unterhalten. Da ist Hopfen und Malz verloren...
Ich dusche meistens kalt und fahre kurze Strecken mit Fahrrad als Ausgleich dafür. :D
_DrillSarge]I[
2010-03-23, 14:45:13
Würde mal meinen sowas wird ganz schnell durch einen besseren Treiber anders aussehen...das kann ich mir beim besten Willen nicht vorstellen O_o
naja, crysis (bzw. wh) ist nicht gerade neu und sicherlich ist der treiber darauf hochoptimiert ;).
tombman
2010-03-23, 14:50:10
C ist zwar nur ein game, aber leider eines der wichtigsten :(
Ich hoffe, die Herzchenwerte sind nicht final :(
Spasstiger
2010-03-23, 14:50:19
Du verwechselst wohl die 470 mit der 480 :P
Die GTX 480 ist doch nicht mehr als 35% schneller als die GTX 470, oder? :wink:
Gott, diese 50-60% gegenüber der GTX285 sind doch schon seit der CES ersichtlich gewesen.
Leider leakt niemand die wirklich interessanten Ergebnisse - z.B. Metro2033 oder PhysX ergebnisse gegenüber der GTX285.
Crysis wird langsam langweilig. Aber so wirklich. Fehlt ja nur noch, dass bald noch Quake 3 herangezogen wird. :D
LovesuckZ immer mit seinem Metro, ich verstehs net...
Crysis Benchmarks sind wesentlich interessanter als Metro Benchmarks. Ganz einfach, weil in einem halben Jahr kein Mensch mehr Metro spielt. Nach dem 100ten mal den Single-Player durchspielen, da wirds langweilig. In Crysis kann man sich immerhin im Multiplayer mit anderen messen, vor allem mit den vielen unterschiedlichen Mods, die es mittlerweile gibt. Und wenn das dann noch in guter Bildqualität geht, dann macht es noch mehr Spaß. Ich bleibe dabei, zum Benchen mag Metro super sein, aber da es als Spiel meiner Meinung nach ein Flop und kein anderes Spiel mit ähnlichen Anforderungen in Sicht ist, sind Crysis Benchmarks eben doch interessanter :D
Iruwen
2010-03-23, 14:58:00
13 Spiele (Addons von Spielen eingerechnet) sind für mich nicht VIELE, wie Tombman schrieb.
13? (http://physxinfo.com)
Supergau na ja gibt ja noch den Haeven Bench.
Nightspider
2010-03-23, 14:59:31
C ist zwar nur ein game, aber leider eines der wichtigsten :(
Ich hoffe, die Herzchenwerte sind nicht final :(
Die Leistung wurde schon vor ein paar Monaten, glaube Dezember, von Crysis geleakt.
Damals sahen die Werte auch schon so aus.
Fermi scheint bei der CryEngine zuschwächeln. Bleibt die Frage woran das liegt.
Vor allem widerspricht es ja den Aussagen, das Fermi hin Spielen mit hoher Polygonzahl viel schneller sein soll als der GT200.
13? (http://physxinfo.com)
Was sind denn das für Spiele...Landwirtschafts-Simulator 2009...Gwh bitte...
LovesuckZ
2010-03-23, 15:03:11
LovesuckZ immer mit seinem Metro, ich verstehs net...
Natürlich. Wer nicht auf DX11 steht (DX11 doesn't matter), der wird Metro2033 langweilig finden. Alle anderen wollen gerne sehen, wie GF100 sich mit DoF über DC und Tessellation schlägt.
Crysis Benchmarks sind wesentlich interessanter als Metro Benchmarks. Ganz einfach, weil in einem halben Jahr kein Mensch mehr Metro spielt. Nach dem 100ten mal den Single-Player durchspielen, da wirds langweilig. In Crysis kann man sich immerhin im Multiplayer mit anderen messen, vor allem mit den vielen unterschiedlichen Mods, die es mittlerweile gibt. Und wenn das dann noch in guter Bildqualität geht, dann macht es noch mehr Spaß. Ich bleibe dabei, zum Benchen mag Metro super sein, aber da es als Spiel meiner Meinung nach ein Flop und kein anderes Spiel mit ähnlichen Anforderungen in Sicht ist, sind Crysis Benchmarks eben doch interessanter :D
Crysis ist 2 Jahre alt. Das spielt doch keiner mehr im MP Modus. Für dich ist vielleicht Metro2033 langweilig, für andere Crysis. Vorallem, nachdem es die interessierten sowieso schon durch gespielt haben sollten.
Metro2033 dagegen zeigt die Zukunft unter DX11. Sollte GF100 da auch nicht wesentlich schneller sein, dann sagt es mehr aus als Crysis.
AnarchX
2010-03-23, 15:03:17
Die Leistung wurde schon vor ein paar Monaten, glaube Dezember, von Crysis geleakt.
Damals sahen die Werte auch schon so aus.
In dem Leak sollte eine 448SPs-Version 60% schneller sein als die 5870.
Vielelicht ist es ja GF104 bei Chiphell.:D
Nightspider
2010-03-23, 15:05:07
In dem Leak sollte eine 448SPs-Version 60% schneller sein als die 5870.
Vielelicht ist es ja GF104 bei Chiphell.:D
Dann meinen wir vers. Leaks.
Die, die ich meine zeigten einen schwachen Fermi in Crysis und schon damals die sehr gute Performance in FarCry 2.
13? (http://physxinfo.com)
jein, 14 mit gpu-phyx. das sind die die fett geschrieben sind und da ist eben eins ein addon.
Games
Total records - 247 || Released - 211 || In development - 36
Supporting PPU - 19 || 19 || 0 .:|:. Supporting GPU - 26 || 15 || 11
rot sind die erschienen titel
Natürlich. Wer nicht auf DX11 steht (DX11 doesn't matter), der wird Metro2033 langweilig finden. Alle anderen wollen gerne sehen, wie GF100 sich mit DoF über DC und Tessellation schlägt.
Crysis ist 2 Jahre alt. Das spielt doch keiner mehr im MP Modus. Für dich ist vielleicht Metro2033 langweilig, für andere Crysis. Vorallem, nachdem es die interessierten sowieso schon durch gespielt haben sollten.
Metro2033 dagegen zeigt die Zukunft unter DX11. Sollte GF100 da auch nicht wesentlich schneller sein, dann sagt es mehr aus als Crysis.
Metro ist ein Promotitel für Fermi. Deine ständigen Unterstellungen als wäre das die Zukunft oder nur das wichtig sind schon ziemlich lächerlich. Crysis ist eines der wenigen Spiele wo man Leistung braucht, hier versagt Fermi trotz hohen Stromverbrauch offensichtlich völlig. Das spricht Bände. Wo ist eigentlich Coda der gesagt hatte das Crysis so Geometrie-limitiert sein?
Natürlich. Wer nicht auf DX11 steht (DX11 doesn't matter), der wird Metro2033 langweilig finden. Alle anderen wollen gerne sehen, wie GF100 sich mit DoF über DC und Tessellation schlägt.
Weisst Du denn überhaupt sicher, dass Metro das superdolle Tessellation Erlebnis bieten wird ?
Oder hoffst Du nur dass die schlechte Leistung aufgrund fehlender Vergleichbarkeit zu ATi wg. PhysX nicht auffällt ?
Armaq
2010-03-23, 15:12:29
Was ich im übrigen wirklich schön finde an GF100, sind die besseren MinFPS. Durch den verbesserten/vergrößerten Cache scheinen die Einbrüche sehr stark abzunehmen. Ich hoffe die PCGH hat das voll abgedeckt, dann kauf ich auch mal wieder eine Zeitschrift. :D
Ansonsten wird 2010 echt düster.
N0Thing
2010-03-23, 15:13:38
13? (http://physxinfo.com)
Stimmt, hab mich verzählt. Es sind 8 veröffentlichte Spiele mit PhysX über eine GeForce und 7, die sowohl mit einer GeForce, als auch mit der Ageia-Karte laufen, also 15 wenn man die addiert und nicht 13.
Die 12 Spiele, die nur mit einer Ageia-Karte laufen, habe ich mal nicht dazu gezählt.
Es ging um PhysX@GPU, falls das der Grund für die Frage nach der 13 war. ;)
Crysis ist 2 Jahre alt. Das spielt doch keiner mehr im MP Modus.
Es gibt Spiele, die werden 5 Jahre und länger gespielt, vor allem wenn immer wieder neue Mods rauskommen. Man schaue sich nur mal Counter Strike und die Quake3 basierten Spiele an. Die Community wird zwar kleiner, ist aber immer noch da. Metro spielt in wenigen Monaten keiner mehr. Sorry, aber ist leider so. Nur Aussehen alleine reicht eben auch bei einem Computerspiel nicht...
Wo ist eigentlich Coda der gesagt hatte das Crysis so Geometrie-limitiert sein?
Ist es ja auch :)
Die Polymorph Engine ist das CineFX der Neuzeit ^^
LovesuckZ
2010-03-23, 15:17:10
Metro ist ein Promotitel für Fermi. Deine ständigen Unterstellungen als wäre das die Zukunft oder nur das wichtig sind schon ziemlich lächerlich. Crysis ist eines der wenigen Spiele wo man Leistung braucht, hier versagt Fermi trotz hohen Stromverbrauch offensichtlich völlig. Das spricht Bände. Wo ist eigentlich Coda der gesagt hatte das Crysis so Geometrie-limitiert sein?
ich finde es lustig, dass Metro2033 hier wegnegiert wird, weil AMD mit Tessellation abkackt. Gleichzeitig wird aber Crysis herausgeholt, wo AMD und nVidia auf ähnlichen Niveau sind. Finde ich ziemlich beeindruckend, wie man so selektiv an die Sache gehen kann.
Aber wir wissen ja: DX11 doesn't matter.
Lebt ruhig in euer "DX11 doesn't matter" Welt und spielt euer lebenlang Crysis. Für manche dreht sich aber diese Welt weiter und die wollen auch andere Spiele sehen als nur Crysis.
"dx11 doen't matter" kam doch wohl vom grünen ihv, oder?
ich finde es lustig, dass Metro2033 hier wegnegiert wird, weil AMD mit Tessellation abkackt.
Falsch. Metro wird "wegnegiert", weil
-es ein nicht sooo tolles Spiel ist (IMHO) und
-als TWIMTBP-Titel gezielt auf ATIs kaputtoptimiert wurde (DOF) oder kurz
-einfach ein ebenso unglaubwürdiger wie lachhafter, ja nachgerade peinlicher Versuch NVs ist, den Furby wenigstens irgendwie gut ausschauen zu lassen.
DrFreaK666
2010-03-23, 15:22:15
Gott, diese 50-60% gegenüber der GTX285 sind doch schon seit der CES ersichtlich gewesen.
Leider leakt niemand die wirklich interessanten Ergebnisse - z.B. Metro2033 oder PhysX ergebnisse gegenüber der GTX285.
Crysis wird langsam langweilig. Aber so wirklich. Fehlt ja nur noch, dass bald noch Quake 3 herangezogen wird. :D
Crysis wird langweilig?
Wenn eine Karte nur 25FPS durchscnittlich erreicht dann finde ich es nicht langweilig. :freak:
LovesuckZ
2010-03-23, 15:22:41
"dx11 doen't matter" kam doch wohl vom grünen ihv, oder?
Nein, das kommt klar von AMD und ihren Fans. Warum sonst sollte man Metro2033 kleinreden und dauernd auf Crysis verweisen, wo man wenigsten weiß, dass Cypress mithalten kann?
Crysis wird langweilig?
Wenn eine Karte nur 25FPS durchscnittlich erreicht dann finde ich es nicht langweilig. :freak:
Cypress und GF100 sind gleichauf. Was hast du davon? Kein nachteil als GF100 Käufer. Aber wie sieht es in Metro2033 aus? Oder anders ausgderückt: Warum Cypress kaufen, wenn man in Crysis genauso schnell wäre und in Metro2033 deutlich langsamer? Also wird doch hier von der roten Ecke versucht auf Metro2033 zu bashen. So wie sie es mit allem tun, was ihre Hardware und Lieblingsfirma im schlechten Licht erscheinen lassen.
Selektiv eben - wie immer.
Falsch. Metro wird "wegnegiert", weil
-es ein nicht sooo tolles Spiel ist (IMHO) und
-als TWIMTBP-Titel gezielt auf ATIs kaputtoptimiert wurde (DOF) oder kurz
-einfach ein ebenso unglaubwürdiger wie lachhafter, ja nachgerade peinlicher Versuch NVs ist, den Furby wenigstens irgendwie gut ausschauen zu lassen.
Du hast den Punkt vergessen: Mimimimimimi. ;D
boxleitnerb
2010-03-23, 15:24:28
Crysis ist nunmal eines der der - wenn nicht das - grafisch schönste(n) Spiele...immer noch. Jetzt rein von der Technik her kommt da kaum eine andere Engine dran. Wenn man sich überlegt, wie man die Optik tweaken kann (oft mit derben fps-Kosten), ist es schon angebracht, Crysis zu benchen - vor allem wenn man sich die Frameraten mit (SS)AA anschaut, was bei dem Vegetationsgeflimmere eine wahre Wohltat ist.
Crysis crysis Warhead und Crysis Wars wir online immer noch gezockt wie blöde.
Es gibt viele mods für die Games.
Wenn der Fermi da abkackt ists bitter für NV.
N0Thing
2010-03-23, 15:26:03
"dx11 doen't matter" kam doch wohl vom grünen ihv, oder?
Wörtlich kam von ihnen "DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons." kein "doen't matter".
DrFreaK666
2010-03-23, 15:26:15
...Cypress und GF100 sind gleichauf. Was hast du davon? Kein nachteil als GF100 Käufer. Aber wie sieht es in Metro2033 aus? Oder anders ausgderückt: Warum Cypress kaufen, wenn man in Crysis genauso schnell wäre und in Metro2033 deutlich langsamer? Also wird doch hier von der roten Ecke versucht auf Metro2033 zu bashen. So wie sie es mit allem tun, was ihre Hardware und Lieblingsfirma im schlechten Licht erscheinen lassen.
Selektiv eben - wie immer.
...
Wo habe ich denn gegen Metro gebasht?
Und wer ist denn hier selektiv?
Nur DX11-Benches mit Tesselation gelten :freak:
LovesuckZ
2010-03-23, 15:26:57
Unigine 2.0 soll geleakt wurden sein: http://forum.beyond3d.com/showpost.php?p=1411597&postcount=4535
Crysis ist nunmal eines der der - wenn nicht das - grafisch schönste(n) Spiele...immer noch. Jetzt rein von der Technik her kommt da kaum eine andere Engine dran. Wenn man sich überlegt, wie man die Optik tweaken kann (oft mit derben fps-Kosten), ist es schon angebracht, Crysis zu benchen - vor allem wenn man sich die Frameraten mit (SS)AA anschaut, was bei dem Vegetationsgeflimmere eine wahre Wohltat ist.
Niemand sagt, dass Crysis ignoriert werden sollte. Aber nur Crysis zu leaken wird irgendwann ziemlich langweilig.
Wo habe ich denn gegen Metro gebasht?
Und wer ist denn hier selektiv?
Nur DX11-Benches mit Tesselation gelten :freak:
Ich hab dich nicht angesprochen, aber du hast zitiert. :)
Ich will sehen wie sich GF100 in Metro2033 mit Tessellation verhält. Das andere anscheinend Angst haben, dass ihre Cypresskarte (nicht an dich gerichtet) deutlich langsamer sein könnte, zeigt doch schon diese Hasstriaden gegen Metro2033. Was auch nur ein Spiel ist - wie Crysis.
TheBrother
2010-03-23, 15:28:00
[..]
-als TWIMTBP-Titel gezielt auf ATIs kaputtoptimiert wurde (DOF) oder kurz
Das glaubst du doch selbst nicht. Nur weil Nvidia in die Optimierung Geld steckt und Ati nicht. Lass mich raten - Die Templer haben Nvidia unterwandert und suchen die Weltherrschaft?
Ich will n Querschnitt von Benches, In hohen Auflösungen durch möglichst viele Spiele. Dann kann man sich ein Bild machen. Vorher ist alles fürn Popo.
Gruß
Brother
Tarkin
2010-03-23, 15:28:42
Crysis crysis Warhead und Crysis Wars wir online immer noch gezockt wie blöde.
Es gibt viele mods für die Games.
Wenn der Fermi da abkackt ists bitter für NV.
bitter vor allem auch weil es ein Nvidia Vorzeigetitel ist/war ... Crytek wurde ja nicht gerade wenig Kohle dafür in den Rachen gestopft (http://www.gamestar.de/news/pc/action/egoshooter/1475971/crysis.html)... aber das ist ein anderes Thema.
Du hast den Punkt vergessen: Mimimimimimi. ;D
Deine Argumente kann man wirklich nur noch mit einer nach unten offenen Skala sinnvoll bewerten :)
Crysis wird langweilig?
... :
Ka wie es den anderen geht, aber ausser mal kurz anspielen (und feststellen dass es in gescheiter Auflösung und Features nicht läuft) oder Bench laufen lassen habe ich Crysis noch keine Sekunde gespielt*. Im Laufe der Zeit und Hardware wurd es immer besser, mit der nächsten Karte (5850 oder GTX 470) werde ich es dann ENDLICH mal spielen. Allerdings kommt Ende des Jahres ja auch schon Crysis 2 raus, dann spiel ich dann wohl so 2013/2014 ;D.
* Ausser den genialen Mechwarrior Mod für Crysis (den übrigens viele spielen), der braucht wesentlicher weniger Humpf (dank viel weniger Vegetation).
pXe
Sorry das nochmal hochzuhohlen aber:
Wie geschrieben, wenn irgendwer meint, diesen Premium-Preis-Aufschlag zahlen zu wollen, dann soll er dies ruhig tun. Das Produkt wird aufgrund des Premium-Preis-Aufschlags aber trotzdem nicht attraktiver.
Nebst allerlei selbsternanten Gurus auf gewissen gebieten kommen jetzt auch die Hobby-Marketing Spezialisten: Keinen Ahnung von Preiselastizität/Nachfrageelastizität ( http://de.wikipedia.org/wiki/Preiselastizit%C3%A4t) aber reden: Für genau sowas gibts den Snobeffekt: http://de.wikipedia.org/wiki/Snobeffekt
(Wobei Snob nicht wertend gemeint ist)
Und ja es funktioniert doch wunderbar, da auch meiner Meinung nach die aktuellen (bzw. alle R600er und Nachkommen) ATIs FPS Schlampen sind. Da ich auch eine ATI im NB hab kommt mir sicher keine in den Spielerechner.
Eher nehme ich die direkt unter meiner Ausgabe-Grenze liegende NV, auch wenn der Balken mglw. nicht so lang ist und trotz evtl. horrendem Idle-Verbrauch. Last Verbrauch ist sekundär und mein Spiele-PC idlet kaum. Trotzdem sollte man NV für den Lastverbrauch anprangern; das kann einfach nicht angehn .........
LovesuckZ
2010-03-23, 15:32:56
Deine Argumente kann man wirklich nur noch mit einer nach unten offenen Skala sinnvoll bewerten :)
Nö. Aber ich kann keine Diskussion mit jemanden führen, der probiert seine selektive Sichtweise mit allen Mitteln zu verteidigen.
Es hat schon seinen Grund, warum du so gegen Metro2033 basht. Da muss Angst dahinter stecken. Angst, dass seine Lieblingshardware- und Firma abloost.
Einen anderen grund gibt es nicht so gegen ein im Grunde immaterielles Gut zu wettern, dass nur einen Zweck hat: Spaß zu machen.
Aber wettere ruhig weiter gegen Metro2033. Irgendwer wird das Spiel schon benchen. Das kannst du eben nicht verhindern.
DrFreaK666
2010-03-23, 15:33:30
...Ich hab dich nicht angesprochen, aber du hast zitiert. :)
Ich will sehen wie sich GF100 in Metro2033 mit Tessellation verhält. Das andere anscheinend Angst haben, dass ihre Cypresskarte (nicht an dich gerichtet) deutlich langsamer sein könnte, zeigt doch schon diese Hasstriaden gegen Metro2033. Was auch nur ein Spiel ist - wie Crysis.
Metro sollte natürlich mitgebencht werden, da aktuell und mit frischer Technik vollgestopft.
Aber nach wenigen Monaten kräht kein Hahn mehr danach, da es keinen Multiplayer gibt (oder verwechsle ich was??).
Crysis wird immer noch gezockt, und bald von FAKEFACTORY gemoddet ;)
boxleitnerb
2010-03-23, 15:34:01
Niemand sagt, dass Crysis ignoriert werden sollte. Aber nur Crysis zu leaken wird irgendwann ziemlich langweilig.
Genauso wie das Herumreiten auf Metro und Tesselation. Fakt ist doch, bisher waren DXn Karten immer extrem schnelle DXn-1 Karten. Hier und dort konnte man die neuen Effekte nutzen, aber hauptsächlich lassen sich bisher zu fordernde Spiele endlich in voller Pracht mit allem Brimborium geniessen.
... Hasstriaden gegen Metro2033. Was auch nur ein Spiel ist - wie Crysis.
Hasstiraden sehen anders aus. Ich denke, es wird hier nur deshalb soviel gegen Metro gesagt, weil du es geradezu provozierst, indem du es viel wichtiger machst, als es ist. Aber hey, ich spiele ja mit GF100 nur DX11 Spiele, der alte Kram verstaubt dann in einer Ecke :freak:
Bis wir einen sinnvollen Nutzen von all den DX11-Features haben, sind GF100 und HD5870 zu langsam und schon wieder veraltet. Was gibts da noch zu diskutieren?
TheBrother
2010-03-23, 15:34:12
Aber wetter ruhig weiter gegen Metro2033. Irgendwer wird das Spiel schon benchen. Das kannst du eben nicht verhindern.
Dann kommt sicher das kaputtoptimiert Argument wieder... :freak:
ich finde es lustig, dass Metro2033 hier wegnegiert wird, weil AMD mit Tessellation abkackt. Gleichzeitig wird aber Crysis herausgeholt, wo AMD und nVidia auf ähnlichen Niveau sind. Finde ich ziemlich beeindruckend, wie man so selektiv an die Sache gehen kann.
Aber wir wissen ja: DX11 doesn't matter.
Lebt ruhig in euer "DX11 doesn't matter" Welt und spielt euer lebenlang Crysis. Für manche dreht sich aber diese Welt weiter und die wollen auch andere Spiele sehen als nur Crysis.
Du und nur du bist es der dauernd die Metro Karte (bzw Tesslation im Allgemeinen) rausholt und für den alles andere offensichtlich nicht von Belang ist. Auch finde ich es immer wieder unglaublich dreist wie du hier mit Anschuldigungen um dich wirfst, die wohl auf keinen hier so sehr zutreffen wie auf dich selbst. Dieses "doesnt matter" passt wohl auf niemanden so gut wie auf dich. DU negierst alles negative weg und nur DU versteifst dich auf die wenigen Lichblicke. Jeder der auch andere Aspekte aufzeigt wird von dir Beleidigt und als Fanboy hingestellt. Niemand hat gesagt das nur Crysis zählt und alles andere egal ist, einzig du bist es für den nur Metro interessant ist und alles andere anscheinend belanglos - aber das merkst du ja anscheinend nicht mal.
Nö. Aber ich kann keine Diskussion mit jemanden führen, der probiert seine selektive Sichtweise mit allen Mitteln zu verteidigen.
LOL, das sagt aber grad der richtige. Selfownd :D
LovesuckZ
2010-03-23, 15:41:46
Genauso wie das Herumreiten auf Metro und Tesselation. Fakt ist doch, bisher waren DXn Karten immer extrem schnelle DXn-1 Karten. Hier und dort konnte man die neuen Effekte nutzen, aber hauptsächlich lassen sich bisher zu fordernde Spiele endlich in voller Pracht mit allem Brimborium geniessen.
Aus diesem grund will ich auch Metro2033 sehen. Crysis sagt nämlich nichts darüber aus, wie sich Cypress und GF100 mit DC und Tessellation verhalten.
Wir können auch wieder Quake 3 oder Half-Life 2 nehmen. Die werden auch noch heute gespielt. Aber sagen eben wie Crysis nichts über den DX11 Speed aus. Und darum geht es.
Hasstiraden sehen anders aus. Ich denke, es wird hier nur deshalb soviel gegen Metro gesagt, weil du es geradezu provozierst, indem du es viel wichtiger machst, als es ist. Aber hey, ich spiele ja mit GF100 nur DX11 Spiele, der alte Kram verstaubt dann in einer Ecke :freak:
Soso, ich mache Metro2033 wichtiger als es wäre? Crysis ist DX10. In Crysis sind Cypress und GF100 50% schneller als die Vorgängergeneraiton. So. Und wie verhalten sich beide Karten mit DX11 in Spielen? Ach, das kannst du anhand Crysis nicht beantworten, stimmts? Metro2033 ist wichtiger, weil Metro2033 Features benutzt, die Crysis nicht unterstützt. Crysis hätte man schon locker mit den Vorgänger durchspielen können. Metro2033 eben nicht, weil Metro2033 erst jetzt rausgekommen ist.
Bis wir einen sinnvollen Nutzen von all den DX11-Features haben, sind GF100 und HD5870 zu langsam und schon wieder veraltet. Was gibts da noch zu diskutieren?
Das sagst du. Das sagst du ohne Informationen zu haben. Ich sage, ohne Werte zu sehen, ist es nichts weiter als heiße Luft.
Aber: Um Wissen über die Leistung mit DX11 zu erfahren, kann man leider nicht Crysis verwenden. :rolleyes:
Du und nur du bist es der dauernd die Metro Karte (bzw Tesslation im Allgemeinen) rausholt und für den alles andere offensichtlich nicht von Belang ist. Auch finde ich es immer wieder unglaublich dreist wie du hier mit Anschuldigungen um dich wirfst, die wohl auf keinen hier so sehr zutreffen wie auf dich selbst. Dieses "doesnt matter" passt wohl auf niemanden so gut wie auf dich. DU negierst alles negative weg und nur DU versteifst dich auf die wenigen Lichblicke. Jeder der auch andere Aspekte aufzeigt wird von dir Beleidigt und als Fanboy hingestellt. Niemand hat gesagt das nur Crysis zählt und alles andere egal ist, einzig du bist es für den nur Metro interessant ist und alles andere anscheinend belanglos - aber das merkst du ja anscheinend nicht mal.
Siehst du lieber Gast, dass du nur eins machst: Bashen. Gegen mich, gegen Metro2003, gegen alles, was dir nicht passt. Gegen alles, was nicht deine Lieblingsfirma und -hardware im besseren Licht erscheinen lässt. Im Gegensatz zu dir habe ich zZ noch keine Probleme mit den Crysisergebnis. Immerhin ist es nur DX10 und läuft auf Cypress nicht schneller.
Mecker ruhig weiter über alles, was AMD verletzen könnte. Das wird nichts ändern, dass GF100 in Metro2033 schneller, gleichschnell oder langsamer sein wird.
Aus diesem grund will ich auch Metro2033 sehen. Crysis sagt nämlich nichts darüber aus, wie sich Cypress und GF100 mit DC und Tessellation verhalten.
Wir können auch wieder Quake 3 oder Half-Life 2 nehmen. Die werden auch noch heute gespielt. Aber sagen eben wie Crysis nichts über den DX11 Speed aus. Und darum geht es.
Soso, ich mache Metro2033 wichtiger als es wäre? Crysis ist DX10. In Crysis sind Cypress und GF100 50% schneller als die Vorgängergeneraiton. So. Und wie verhalten sich beide Karten mit DX11 in Spielen? Ach, das kannst du anhand Crysis nicht beantworten, stimmts? Metro2033 ist wichtiger, weil Metro2033 Features benutzt, die Crysis nicht unterstützt. Crysis hätte man schon locker mit den Vorgänger durchspielen können. Metro2033 eben nicht, weil Metro2033 erst jetzt rausgekommen ist.
Das sagst du. Das sagst du ohne Informationen zu haben. Ich sage, ohne Werte zu sehen, ist es nichts weiter als heiße Luft.
Aber: Um Wissen über die Leistung mit DX11 zu erfahren, kann man leider nicht Crysis verwenden. :rolleyes:
Warum genau ist Crysis für dich wichtiger als zB Dirt2? Weil das eine ein Promotitel von Fermi ist oder gibt es dafür auch objektive Kriterien. Das Fermi bei Tesslation einen Vorteil haben wird ist aber zumindest für mich klar, so gesehen muss ich das nicht unbedingt duch Benchs bewiesen haben.
Aus diesem grund will ich auch Metro2033 sehen. Crysis sagt nämlich nichts darüber aus, wie sich Cypress und GF100 mit DC und Tessellation verhalten.
Wir können auch wieder Quake 3 oder Half-Life 2 nehmen. Die werden auch noch heute gespielt. Aber sagen eben wie Crysis nichts über den DX11 Speed aus. Und darum geht es.
Soso, ich mache Metro2033 wichtiger als es wäre? Crysis ist DX10. In Crysis sind Cypress und GF100 50% schneller als die Vorgängergeneraiton. So. Und wie verhalten sich beide Karten mit DX11 in Spielen? Ach, das kannst du anhand Crysis nicht beantworten, stimmts? Metro2033 ist wichtiger, weil Metro2033 Features benutzt, die Crysis nicht unterstützt. Crysis hätte man schon locker mit den Vorgänger durchspielen können. Metro2033 eben nicht, weil Metro2033 erst jetzt rausgekommen ist.
Das sagst du. Das sagst du ohne Informationen zu haben. Ich sage, ohne Werte zu sehen, ist es nichts weiter als heiße Luft.
Aber: Um Wissen über die Leistung mit DX11 zu erfahren, kann man leider nicht Crysis verwenden. :rolleyes:
Warum genau ist Metro für dich wichtiger als zB Dirt2? Weil das eine ein Promotitel von Fermi ist oder gibt es dafür auch objektive Kriterien. Das Fermi bei Tesslation einen Vorteil haben wird ist aber zumindest für mich klar, so gesehen muss ich das nicht unbedingt duch Benchs bewiesen haben.
AnarchX
2010-03-23, 15:45:21
Hi there, me again. Are you think, Radeons HD500 are great with possibility of 150+ MHz ocing? (850 - 1 GHz on air). Dont worry, GeForce are capable too ... not 1 GHz, but OC headroom is good!
http://www.evga.com/forums/tm.aspx?m=249263
Aus diesem grund will ich auch Metro2033 sehen.
Da gibt es nicht viel zu sehen, zumindest was Tesselation betrifft.
http://www.gamestar.de/hardware/praxis/technik-check/2313552/test_check_metro_2033.html
"Auch unter DirectX 10 ist die Beleuchtung hervorragend, die fehlende Tessellation fällt kaum auf."
Sinnvoller wäre es die Performance in AAA zu investieren.
Den Unterschied zwischen MSAA und AAA sieht man sofort.
Du hängst dich zu sehr bei Metro2033 auf. ;)
Nightspider
2010-03-23, 15:47:13
LovezuckZ ich finde du übertreibst ein bisschen.
Es gibt hier noch einige die Crysis zocken, alleine wegen der Grafik.
Dazu gehöre ich auch.
Du sagst ja selbst das man die Leistung nicht außer acht lassen sollte, die in älteren Spielen wie Crysis geleistet wird.
Tesselation ist genauso wichtig.
Man kann nicht sagen das die Leistung bei Tessellation oder in alten Spielen wichtiger ist.
Das kommt zu 100% auf den Nutzer an.
Also haben hier einige auch das gute Recht die Leistung in zB. Crysis zu bemängeln.
Der Vergleich mit Half Life 2 ist lächerlich. Denn Crysis wird eben genau deswegen genannt, weil es auch jetzt noch massiv Leistung benötigt und auch aktuelle Karten in die Knie zwingt.
Und jetzt hört auf mit diesen kindischen Game-Vergleichen. Das kommt auf den Nutzer an.
Ihr betreibt hier seit Tagen einen Flamewar - das ist ja nicht auszuhalten.
tombman
2010-03-23, 15:47:24
Hmm, ich wollte ja eigentlich einen UPgrade mit 3x 480 machen, überlege mir aber jetzt eher einen SIDEgrade mit 2x 480. Sozusagen die selbe Leistung wie jetzt auch schon mit Quad 295, aber eben mit DX11 (was ich jetzt dann bald mal haben will). Und ohne Waküs für die Gpus.
Beim B1 respin mit 512sp kann ich ja immer noch "in den 6. Gang schalten" :)
Siehst du lieber Gast, dass du nur eins machst: Bashen. Gegen mich, gegen Metro2003, gegen alles, was dir nicht passt. Gegen alles, was nicht deine Lieblingsfirma und -hardware im besseren Licht erscheinen lässt. Im Gegensatz zu dir habe ich zZ noch keine Probleme mit den Crysisergebnis. Immerhin ist es nur DX10 und läuft auf Cypress nicht schneller.
Mecker ruhig weiter über alles, was AMD verletzen könnte. Das wird nichts ändern, dass GF100 in Metro2033 schneller, gleichschnell oder langsamer sein wird.
Schau lieber LovesuckZ, das Problem ist das du wie so oft genau das machst was du andere vorwirfst und es nichtmal merkst. Du hast dich gerade fürchterlich über Crysis aufgeregt, basht alles und jeden nieder was irgendwie schlecht aussieht.
Spasstiger
2010-03-23, 15:49:46
Hmm, ich wollte ja eigentlich einen upgrade mit 3x 480 machen, überlege mir aber jetzt eher einen SIDEgrade mit 2x 480. Sozusagen die selbe Leistung wie jetzt auch schon mit Quad 295, aber eben mit DX11 (was ich jetzt dann bald mal haben will). Und ohne Waküs für die Gpus.
Beim B1 respin mit 512sp kann ich ja immer noch "in den 6. Gang schalten" :)
Warte doch noch 2-3 Monate auf die GTX 495 (ich gehe davon aus, dass eine kommt, NV will den Thron zurück). Zwei Stück davon und du hast wieder deine Ruhe.
DrFreaK666
2010-03-23, 15:51:52
Ich wünsche mir BQ mit Balken-Vergleiche: z.B. 4xSGSSAA vs. 16xOGSSAA in älteren games :naughty:
Henroldus
2010-03-23, 15:52:04
Hmm, ich wollte ja eigentlich einen UPgrade mit 3x 480 machen, überlege mir aber jetzt eher einen SIDEgrade mit 2x 480. Sozusagen die selbe Leistung wie jetzt auch schon mit Quad 295, aber eben mit DX11 (was ich jetzt dann bald mal haben will). Und ohne Waküs für die Gpus.
Beim B1 respin mit 512sp kann ich ja immer noch "in den 6. Gang schalten" :)
WAYNE interessierts, bringt uns hier nicht weiter?
MorPheuZ
2010-03-23, 15:52:29
Es gibt Spiele, die werden 5 Jahre und länger gespielt, vor allem wenn immer wieder neue Mods rauskommen. Man schaue sich nur mal Counter Strike und die Quake3 basierten Spiele an. Die Community wird zwar kleiner, ist aber immer noch da. Metro spielt in wenigen Monaten keiner mehr. Sorry, aber ist leider so. Nur Aussehen alleine reicht eben auch bei einem Computerspiel nicht...
Alles gut und recht, aber dazu reicht ja auch eine 4890er oder ne 285er noch locker.
N0Thing
2010-03-23, 15:52:47
Die Reviewer sollten möglichst alle DX11 Titel benchen, dann kann man auch schön sehen wie sich die beiden Chips unter unterschiedlichen Engines verhalten.
tombman
2010-03-23, 15:53:53
Warte doch noch 2-3 Monate auf die GTX 495 (ich gehe davon aus, dass eine kommt, NV will den Thron zurück). Zwei Stück davon und du hast wieder deine Ruhe.
Genau das geht eben nicht, weil die 295er JETZT raus müssen- ebay unnso ;)
300€ kriegt man für eine 295er noch, bei beliebten Modellen auch deutlich mehr. Das könnte sich nach dem launch der 4xx Serie ändern.
Alles gut und recht, aber dazu reicht ja auch eine 4890er oder ne 285er noch locker.
Für Crysis?
Never.
Crysis ist einfach die Messlatte zur Zeit.
Selbst Metro ist von der Grafikqualität Crysis unterlegen.
MorPheuZ
2010-03-23, 15:56:33
Für Crysis?
Never.
Crysis ist einfach die Messlatte zur Zeit.
Selbst Metro ist von der Grafikqualität Crysis unterlegen.
Sorry ich meinte natürlich für die Q3 Titel oder verglaichbares. Dass für Crysis aber ne 5870 genauso zu langsam ist muss man auch eingestehen.
\Edit: Ich denke dass die Cryengine schlicht zu overload war/ist. Genau desshalb weil damals DX10 aktuell war.
LovesuckZ
2010-03-23, 15:57:00
Alles gut und recht, aber dazu reicht ja auch eine 4890er oder ne 285er noch locker.
Ich hätte Crysis mit 2x GTX280 Karten durchspielen können und das in der selben Qualität wie ein 5870 User bzw. baldiger GF100 Käufer. Ich habe also überhaupt keinen positiven effekt gehabt von diesen Karten auf GF100 bzw. Cypress zu wechseln.
Metro2033 dagegen bringt aufgrund von DX11 auch bessere Grafik. Leider wird Metro2033 aber niedergeschrieben, weil es eventuell unter DX11 auf GF100 besser laufen könnte. Das ist an Absurdität nicht zu überbieten.
Metro2033 ist ein Showcasetitel für DX11 zur jetzigen Zeit: DoF und Tessellation.
Metro2033 trennt die Spreu vom Weizen und nicht Crysis. Dort erhält ein GF100 die selben Frame wie ein Cypress Käufer. Da kann man nur über den Stromverbrauch argumentieren.
Dass für Crysis aber ne 5870 genauso zu langsam ist muss man auch eingestehen.
Korrekt.
Deswegen ist Crysis noch immer die Messlatte.
Da kommt kein Metro2033 gegen an.
boxleitnerb
2010-03-23, 15:58:00
Aus diesem grund will ich auch Metro2033 sehen. Crysis sagt nämlich nichts darüber aus, wie sich Cypress und GF100 mit DC und Tessellation verhalten.
Wir können auch wieder Quake 3 oder Half-Life 2 nehmen. Die werden auch noch heute gespielt. Aber sagen eben wie Crysis nichts über den DX11 Speed aus. Und darum geht es.
Crysis unterstützt kein DX11, große Neuigkeit. Aber optisch tut das dem Spiel keinen Abbruch, es kann es imho locker mit Metro aufnehmen. In der Engine steckt unglaubliches Potential. Auch ein kleiner Ausblick auf Crysis 2 denke ich.
Soso, ich mache Metro2033 wichtiger als es wäre? Crysis ist DX10. In Crysis sind Cypress und GF100 50% schneller als die Vorgängergeneraiton. So. Und wie verhalten sich beide Karten mit DX11 in Spielen? Ach, das kannst du anhand Crysis nicht beantworten, stimmts? Metro2033 ist wichtiger, weil Metro2033 Features benutzt, die Crysis nicht unterstützt. Crysis hätte man schon locker mit den Vorgänger durchspielen können. Metro2033 eben nicht, weil Metro2033 erst jetzt rausgekommen ist.
25fps und weniger im Mittel sind mit richtig schönen Einstellungen eben nicht jedermanns Sache. Für den optimalen Genuss reichen selbst aktuelle Karten gerade so aus.
Metro zeigt eine mögliche Zukunft, wenn andere Entwickler ebenfalls auf den Tesselationzug aufspringen. Dennoch gibt es noch genügend DX9 und 10 Titel, die nach Leistung schreien. Wie gesagt, DX n-1 ...
Das sagst du. Das sagst du ohne Informationen zu haben. Ich sage, ohne Werte zu sehen, ist es nichts weiter als heiße Luft.
Aber: Um Wissen über die Leistung mit DX11 zu erfahren, kann man leider nicht Crysis verwenden. :rolleyes:
Zugegeben, ich habe keine Daten - wie auch - aber Erfahrungswerte vergangener Generationen.
MorPheuZ
2010-03-23, 16:01:48
Korrekt.
Deswegen ist Crysis noch immer die Messlatte.
Da kommt kein Metro2033 gegen an.
Wenns um die reine Rohpower auf DX10 lvl geht hast du recht. Ich würde aber wetten dass jede nextgen Cryengine immer besser laufen wird als wirs bis heute kennen.
\Edit: Und das 100% auch mit DX11
LovesuckZ
2010-03-23, 16:06:26
Crysis unterstützt kein DX11, große Neuigkeit. Aber optisch tut das dem Spiel keinen Abbruch, es kann es imho locker mit Metro aufnehmen. In der Engine steckt unglaubliches Potential. Auch ein kleiner Ausblick auf Crysis 2 denke ich.
Dann müssten wir ja nur noch Crysis benchen. :D
25fps und weniger im Mittel sind mit richtig schönen Einstellungen eben nicht jedermanns Sache. Für den optimalen Genuss reichen selbst aktuelle Karten gerade so aus.
Da Cypress und GF100 in Crysis anscheinend ähnlich schnell sind - welche Bedeutung hat als Crysis bei der Entscheidungsfindung? Doch nur eine untergeordnete. Also müssen andere Spiele her. Dirt:2 z.B. Oder AvP3 oder Bad Company2 etc. Am Ende ist Crysis nur eins von hundert mit DX10 Optik.
Metro zeigt eine mögliche Zukunft, wenn andere Entwickler ebenfalls auf den Tesselationzug aufspringen. Dennoch gibt es noch genügend DX9 und 10 Titel, die nach Leistung schreien. Wie gesagt, DX n-1 ...
Und in diesen wird GF100 anscheinend nicht langsamer sein. Demnach entscheidet doch die "Zukunftssicherheit" wesentlich stärker über den Wert des Produktes.
Zugegeben, ich habe keine Daten - wie auch - aber Erfahrungswerte vergangener Generationen.
r300 und G80 waren potente DX n Karten. GF100's Architektur ist auf Tessellation ausgelegt. Deswegen will ich vorallem auch Spiele mit Tessellation sehen. Nicht, weil Cypress dort stark einbricht, sondern um die Aussagen von nVidia zu überprüfen.
Eggcake
2010-03-23, 16:12:47
Natürlich. Wer nicht auf DX11 steht (DX11 doesn't matter), der wird Metro2033 langweilig finden. Alle anderen wollen gerne sehen, wie GF100 sich mit DoF über DC und Tessellation schlägt.
Hast du's langsam mit dem DX11 doesn't matter? Schlimmer als jedes Kind...
Da Cypress und GF100 in Crysis anscheinend ähnlich schnell sind - welche Bedeutung hat als Crysis bei der Entscheidungsfindung? Doch nur eine untergeordnete.
Wieso eine untergeordnete? Es sagt genau gleich viel aus wie ein Metro2033 - nämlich dass die Grafikkarte im entsprechenden Spiel soundsoschnell ist. Fertig.
Und in diesen wird GF100 anscheinend nicht langsamer sein. Demnach entscheidet doch die "Zukunftssicherheit" wesentlich stärker über den Wert des Produktes.
Es entscheidet, was wichtig ist. Und das bestimmt der User. Zukunftssicherheit bei Grafikkarten gibt's nicht.
RoNsOn Xs
2010-03-23, 16:13:43
Warte doch noch 2-3 Monate auf die GTX 495 (ich gehe davon aus, dass eine kommt, NV will den Thron zurück). Zwei Stück davon und du hast wieder deine Ruhe.
das glaube ich nicht und schon gar nicht in der genannten zeit. macht einfach keinen sinn für so wenig mehrleistung eine 512sp-karte zu selektieren.
es wird keine 512sp karte geben. das ist aber nur mein standpunkt.
boxleitnerb
2010-03-23, 16:14:48
Für dich gibts nur schwarz und weiß, wat?
Nicht nur Crysis, aber auch ein paar ältere Titel - dafür mit allem was geht. SSAA etc.
Ein Spiel hat selten alleinige Bedeutung bei der Kaufentscheidung. Aber wenn ein soviel größerer (und teurerer) Chip sich unter "älteren" Titeln (nein, kein Quake 3 :P) kaum oder gar nicht absetzen kann, darf man wohl enttäuscht sein.
G80 und potent in DX10? Gabs da nicht Call of Juarez z.B., in dem alle DX10 Karten massiv eingebrochen sind (im Vergleich zu DX9). Nur ein Beispiel.
y33H@
2010-03-23, 16:16:30
Ich hoffe die PCGH hat das voll abgedeckt, dann kauf ich auch mal wieder eine Zeitschrift.Klaro, die Min-Fps finden Beachtung =)
Sascha1971
2010-03-23, 16:17:06
Hmm, ich wollte ja eigentlich einen UPgrade mit 3x 480 machen, überlege mir aber jetzt eher einen SIDEgrade mit 2x 480. Sozusagen die selbe Leistung wie jetzt auch schon mit Quad 295, aber eben mit DX11 (was ich jetzt dann bald mal haben will). Und ohne Waküs für die Gpus.
Beim B1 respin mit 512sp kann ich ja immer noch "in den 6. Gang schalten" :)
Ob 3x470 da nicht evtl mehr Leistung bringt und billiger ist ?
LovesuckZ
2010-03-23, 16:17:25
Hast du's langsam mit dem DX11 doesn't matter? Schlimmer als jedes Kind...
Wieso? Bin ja nicht derjenige, der DX11 herunterspielt. :D
Es entscheidet, was wichtig ist. Und das bestimmt der User. Zukunftssicherheit bei Grafikkarten gibt's nicht.
Dann nenn es "Gegenwartssicherheit". Metro2033 existiert wie Crysis.
Für dich gibts nur schwarz und weiß, wat?
Nicht nur Crysis, aber auch ein paar ältere Titel - dafür mit allem was geht. SSAA etc.
Dafür wird auch GF100 schnell genug sein - wenn SSAA unterstützt wird.
Ein Spiel hat selten alleinige Bedeutung bei der Kaufentscheidung. Aber wenn ein soviel größerer (und teurerer) Chip sich unter "älteren" Titeln (nein, kein Quake 3 :P) kaum oder gar nicht absetzen kann, darf man wohl enttäuscht sein.
Wieso? Eine Vielzahl der älteren Titel lief perfekt auf alles < Cypress. Man könnte sich auch fast die Frage stellen, wieso man auf Cypress oder GF100 wechseln sollte. Aber Metro2003 oder auch Stalker zeigen, dass Cypress mit Tessellation stark einbricht. Also steht man beim Wechsel von einer DX10 Karte dort vor der Frage, kaufe ich mir eine Dx11 Karte mit schlechter oder "unbekannter" Tessellationleistung - wobei unbekannt mit hoher Wahrscheinlichkeit auch als ziemlich gut bezeichnet werden kann. Oder man lässt es bleiben und kauft erst später.
G80 und potent in DX10? Gabs da nicht Call of Juarez z.B., in dem alle DX10 Karten massiv eingebrochen sind (im Vergleich zu DX9). Nur ein Beispiel.
Lag am AA über die Shader.
DrFreaK666
2010-03-23, 16:20:38
...
Da Cypress und GF100 in Crysis anscheinend ähnlich schnell sind - welche Bedeutung hat als Crysis bei der Entscheidungsfindung? Doch nur eine untergeordnete....
Also soll man alle Benchmark-werte löschen, welche zeigen, dass beide karten in etwa gleichschnell sind?
Wüsste nicht, dass das in der Vergangenheit schon so gemacht wurde...
Am Besten auch noch die Werte löschen, wo ATI-GPUs schneller sind :biggrin:
Wieso? Bin ja nicht derjenige, der DX11 herunterspielt. :D
...
Du bist aber derjenige, der DX11 als das Wichtigste anpreist.
PS3/Xbox360 -> DX9
Wieso sollte sich jemand die Mühe machen für ein paar wenige DX11-Karten deine Engine auf DX11 zu portieren anstatt auf DX10, womit viel mehr GPUs was anfangen können? Damit du glücklich bist?
Man kann ein Spiel auch mit DX10-features vollstopfen damit eine aktuelle GPU an ihre Grenzen kommt
Ronny145
2010-03-23, 16:23:32
Unigine 2.0 soll geleakt wurden sein: http://forum.beyond3d.com/showpost.php?p=1411597&postcount=4535
http://www.abload.de/img/2.0zkpd.png
Eine Extreme Einstellung für Tessesllation ist dazugekommen. Der Benchmark Ablauf ist auch sonst neu. FPS Werte sind niedriger, mit Tessellation Extrem sogar deutlich. Wenn Fermi wirklich da Vorteile hat, müsste sie sich deutlich absetzen können.
Eggcake
2010-03-23, 16:28:48
Dann nenn es "Gegenwartssicherheit". Metro2033 existiert wie Crysis.
Ich sage nichts gegen Metro - das soll selbstverständlich genauso getestet werden.
Spasstiger
2010-03-23, 16:31:00
das glaube ich nicht und schon gar nicht in der genannten zeit. macht einfach keinen sinn für so wenig mehrleistung eine 512sp-karte zu selektieren.
es wird keine 512sp karte geben. das ist aber nur mein standpunkt.
Was heißt wenig Mehrleistung? Nimm 2*512 SPs @ 550/1100 MHz + 2*384-Bit-SI + 3,2-Gbps-Speicher. Mit reduzierter Spannung dürfte das unter 300 Watt zu bringen sein und wird auch gegenüber der GTX 480 ein sattes Performanceplus geben. Es reicht auf jeden Fall, um die HD 5970 als schnellste Grafikkarte abzulösen.
DrFreaK666
2010-03-23, 16:33:18
http://www.abload.de/img/2.0zkpd.png
Eine Extreme Einstellung für Tessesllation ist dazugekommen. Der Benchmark Ablauf ist auch sonst neu. FPS Werte sind niedriger, mit Tessellation Extrem sogar deutlich. Wenn Fermi wirklich da Vorteile hat, müsste sie sich deutlich absetzen können.
Im Thread gibt es schon Werte :wink:
tombman
2010-03-23, 16:33:31
Unigine 2.0 soll geleakt wurden sein: http://forum.beyond3d.com/showpost.php?p=1411597&postcount=4535
Yepp, er WURDE geleaked ;)
1.1fps mit GMA4500 @ notebook ;D;D
WAYNE interessierts, bringt uns hier nicht weiter?
WAYNE interessiert dein WAYNE?
LovesuckZ
2010-03-23, 16:35:40
Ich sage nichts gegen Metro - das soll selbstverständlich genauso getestet werden.
Du sagst, dass es keine Zukunftssicherheit gäbe. Metro2033 existiert heute und zeigt, wie die Zukunft mit Tessellation bei Cypress aussehen könnte.
Deswegen finde ich es eben lustig, dass man ich Metro2033 angeblich so pushen würde. Dabei ist Metro2033 nur ein Titel, der aufzeigen kann, ob GF100 wirklich so stark mit Tessellation ist. Denn das ist das Argument von nVidia. Crysis tut es nicht. Die Architektur aufgrund von Crysis zu bewerten wäre so als wenn ich Cypress' Architektur in Metro2033 mit Tessellation bewerten würde.
Andere machen es jedoch mit GF100 in Crysis zur Zeit. Und das finde ich ziemlich bizarr.
/edit: Nächste DX11 Demo (http://bitsquid.se/news_press%20releases.html) angekündigt. DX11 wird sich nicht aufhalten lassen.
MorPheuZ
2010-03-23, 16:36:41
@y33H@
Schön formuliert auf eurer Newssite;) Bier ist im Kasten ;D
DrFreaK666
2010-03-23, 16:37:44
@y33H@
Schön formuliert auf eurer Newssite;) Bier ist im Kasten ;D
Das wird ein Fest.
Ich hoffe ihr hattet noch genug zeit für Screenshots mit 32xCSAA (oder wie das auch immer heisst).
Iruwen
2010-03-23, 16:38:22
Genau das geht eben nicht, weil die 295er JETZT raus müssen- ebay unnso ;)
300€ kriegt man für eine 295er noch, bei beliebten Modellen auch deutlich mehr. Das könnte sich nach dem launch der 4xx Serie ändern.
Ich hab für meine vor 'nem Monat Neupreis-10€ bekommen :D
Was heißt wenig Mehrleistung? Nimm 2*512 SPs @ 550/1100 MHz + 2*384-Bit-SI + 3,2-Gbps-Speicher. Mit reduzierter Spannung dürfte das unter 300 Watt zu bringen sein und wird auch gegenüber der GTX 480 ein sattes Performanceplus geben. Es reicht auf jeden Fall, um die HD 5970 als schnellste Grafikkarte abzulösen.
Einer deiner GPUs wäre 17% langsamer als eine GTX480.
SLI skaliert mit durchschnittlich 75% wenn du Glück hast. Dann wäre eine SLI Karte mit 2 deiner GPUs ganze 25% schneller als eine GTX480 alleine. Mikroruckler und Inputlag noch garnicht berücksichtigt. IMHO ein Rohrkrepierer sondergleichen!
RoNsOn Xs
2010-03-23, 16:42:41
Was heißt wenig Mehrleistung? Nimm 2*512 SPs @ 550/1100 MHz + 2*384-Bit-SI + 3,2-Gbps-Speicher. Mit reduzierter Spannung dürfte das unter 300 Watt zu bringen sein und wird auch gegenüber der GTX 480 ein sattes Performanceplus geben. Es reicht auf jeden Fall, um die HD 5970 als schnellste Grafikkarte abzulösen.
du stellst 2x 512sp gegen eine 480er sp?
Iruwen
2010-03-23, 16:44:07
http://www.we-wi.be/Images/gtx470.jpg
Alt?
Eggcake
2010-03-23, 16:44:11
Du sagst, dass es keine Zukunftssicherheit gäbe. Metro2033 existiert heute und zeigt, wie die Zukunft mit Tessellation bei Cypress aussehen könnte.
Deswegen finde ich es eben lustig, dass man ich Metro2033 angeblich so pushen würde. Dabei ist Metro2033 nur ein Titel, der aufzeigen kann, ob GF100 wirklich so stark mit Tessellation ist. Denn das ist das Argument von nVidia. Crysis tut es nicht. Die Architektur aufgrund von Crysis zu bewerten wäre so als wenn ich Cypress' Architektur in Metro2033 mit Tessellation bewerten würde.
Andere machen es jedoch mit GF100 in Crysis zur Zeit. Und das finde ich ziemlich bizarr.
Es ist also bizarr, wenn man eine Grafikkarte mit fordernden Spielen testet?
Und ja, du pushst Metro, erwähnst es praktisch jede Seite, gekoppelt mit deinem DX11 doesn't matter. Metro ist ein Spiel mit Tesselation. Gibt auch noch andere Spiele mit Tesselation. Ich bewerte zudem Grafikkarten, keine Architekturen.
AnarchX
2010-03-23, 16:45:38
Einer deiner GPUs wäre 17% langsamer als eine GTX480.
SLI skaliert mit durchschnittlich 75% wenn du Glück hast. Dann wäre eine SLI Karte mit 2 deiner GPUs ganze 25% schneller als eine GTX480 alleine. Mikroruckler und Inputlag noch garnicht berücksichtigt. IMHO ein Rohrkrepierer sondergleichen!
25%? (512*1,1*1,75) / (480*1,4) = 1,47.
LovesuckZ
2010-03-23, 16:49:56
http://www.we-wi.be/Images/gtx470.jpg
Alt?
Nein.
Wobei ein Ergebnis nicht stimmen kann. Dieses oder das von Chiphell.
Iruwen
2010-03-23, 16:50:07
Hast du's langsam mit dem DX11 doesn't matter? Schlimmer als jedes Kind...
Platz 1 (http://www.google.de/#hl=de&source=hp&q=%22dx11+doesn%27t+matter%22&meta=&fp=9fc2c67507db6583) :rolleyes:
http://www.we-wi.be/Images/gtx470.jpg
Alt?
Fake mit dem Treiber sicher nicht gebencht. Völlig Schwachsinnige Werte und wie du schon sagst *ALT*
...
SLI skaliert mit durchschnittlich 75% wenn du Glück hast. ...
Bei 2 GPUs in nicht CPU limitierten Szenen? Quark.
pXe
dildo4u
2010-03-23, 16:52:35
Fake mit dem Treiber sicher nicht gebencht. Völlig Schwachsinnige Werte und wie du schon sagst *ALT*
Warum soll das Schwachsinn sein?Das sind nur min Werte mit 8XAA geht der ATI der Speicher aus der Geforce nicht.
AnarchX
2010-03-23, 16:52:44
Nein.
Wobei ein Ergebnis nicht stimmen kann. Dieses oder das von Chiphell.
Hier sind Min-FPS angegeben und es gibt wohl nicht nur eine Möglichkeit Crysis zu testen.
LovesuckZ
2010-03-23, 16:54:13
Hier sind Min-FPS angegeben und es gibt wohl nicht nur eine Möglichkeit Crysis zu testen.
Ich sehs. Aber auch schon wieder Crysis. :rolleyes:
/edit: Min Frames ohne Frameverlauf sind sowieso dumm.
Spasstiger
2010-03-23, 17:04:38
du stellst 2x 512sp gegen eine 480er sp?
GTX 495 = Dual-GPU
Irgendwas braucht NV auf jeden Fall, um wieder die Ranglisten anzuführen. Und das wird wohl eine GTX 495 sein. In großen Stückzahlen muss man die auch gar nicht anbieten, weil es eine reine Prestigekarte für NV ist.
Bei einer Dual-GPU-Fermi-Karte muss man auf jeden Fall stark mit der Spannung und damit auch mit den Taktraten runter, sondern sprengt man die PCIe-2.0-Spezifikation (max. 300 Watt). So "unseriöse" Lösungen wie die Asus Mars wird NV eher nicht als Referenzkarte veröffentlichen. Damit man mit den reduzierten Taktraten noch auf eine gute Leistungssteigerung gegenüber der GTX 480 kommt, nimmt man eben die 512-SP-Chips.
Selbst bei 20Cent/kWh und 30W Unterschied bei 24/7 Betrieb sind das 52€ im Jahr
- Wow, wir werden alle sterben und arm :rolleyes:
Es geht nicht nur darum, was es Dich kostet, sondern um die Tatsache, dass hier sinnlos Energie, die ja irgendwo irgendwie hergestellt werden muss, verpulvert wird. Du alleine mit deiner Karte interessierst hier nicht die Bohne, aber in der Summe machen alle künftigen GTX 480/470 Anwender sehr wohl etwas aus! 10'000 (es werden im Endeffekt wesentlich mehr sein) dieser "Gas-guzzler" sind einfach mal 700000 Watt, die für Abwärme verbraten wurden. Ist doch toll, nicht?
Diese Ignoranz ist unerträglich (und übrigens auch hochgradig uncool, um mal in deiner Sprache zu sprechen).
Sollte sich die Verlustleistung bewahrheiten, gehört das publik gemacht und NV so richtig der Arsch verdroschen.
Mich würde mal aktuell ein Bench mit Metro 2033 interessieren. Ich bekomme dieses Spiel mit meiner aktuellen 5970 unter DX11 gar nicht zum laufen, bzw. habe hier nur 5-9 FPS (bei 2560x1600). :freak: Unter DX10 läuft es mit ca 50-60 FPS. Die Videoeinstellungen sind aber sehr bescheiden gemacht. Sobald bei Fermi hier bessere Werte angezeigt werden, fliegt die 5970 zugunsten SLI wieder raus!
Spasstiger
2010-03-23, 17:12:21
@PHuV: Versuch es doch mit einer zusätzlichen NV-Karte für PhysX. Z.B. eine GTS 250 für ~100€.
Du würdest dir tatsächlich ein GTX480-SLI zulegen für ein Game mit einem 5-Stunden SinglePlayer?
Texturschwäche?
Ist fast anzunehmen, gerade in Crysis verliert ja auch GT200 durchaus nennenswert mit AF und HQ kostet verhältnismäßig viel Leistung.
dildo4u
2010-03-23, 17:17:16
@PHuV: Versuch es doch mit einer zusätzlichen NV-Karte für PhysX. Z.B. eine GTS 250 für ~100€.
Bringt fast gar nix der PhysX impact ist gering,DX11 Tesslation und Compute Shader Killen die ATI.
Vor allem widerspricht es ja den Aussagen, das Fermi hin Spielen mit hoher Polygonzahl viel schneller sein soll als der GT200.
Die hohe Polygonleistung bringt natürlich nur etwas wenn diese auch verarbeitet werden können.
Ansonsten verpufft die einfach.
Ich frage mich noch immer warum sie in 3 Mrd. Transistoren nur 64 TMUs unterbringen.
Ausgehend von G92 müssten da eigentlich 256 Platz haben. Das ganze ist natürlich nur eine Milchmädchenrechnung und ich würde auch verstehen wenn es 128 wären, aber gerade mal 64, die gab es ja schon in G80/G92.
Eggcake
2010-03-23, 17:23:08
@PHuV: Versuch es doch mit einer zusätzlichen NV-Karte für PhysX. Z.B. eine GTS 250 für ~100€.
Daran liegt es nicht.
Lebt ruhig in euer "DX11 doesn't matter" Welt und spielt euer lebenlang Crysis. Für manche dreht sich aber diese Welt weiter und die wollen auch andere Spiele sehen als nur Crysis.
Vor allem weil Crysis immer als der Grafikblender verschrien war, den man eh nicht nochmal durchspielt ;)
Bringt fast gar nix der PhysX impact ist gering,DX11 Tesslation und Compute Shader Killen die ATI.
Sagt wer? Du? Ergo reichlich realitätsfern.
@PHuV: Das läuft sogar auf meiner deutlich 5750 schneller. Das Problem sitzt sprichwörtlich anderswo.
Bringt fast gar nix der PhysX impact ist gering,DX11 Tesslation und Compute Shader Killen die ATI.
In Compute Shader dürfte die ATI eine 480GTX geradezu vernichten. Sogar schon eine 5770.
Also ich habe tatsächlich sowohl Crysis als auch Warhead nachdem ich die HD5870 hatte nochmal durchgespielt und es hat natürlich erheblich mehr Spaß gemacht, aber selbst eine HD5870 hat Crysis immer noch nicht vollständig "besiegt". Habe dieses leider zu früh getan, denn seit Cat. 9.12 hat Crysis auf HD5870 ja extrem zugelegt (ca. 30% min. Fps / ca. 25% avg. Fps).
dildo4u
2010-03-23, 17:36:49
Sagt wer? Du? Ergo reichlich realitätsfern.
@PHuV: Das läuft sogar auf meiner deutlich 5750 schneller. Das Problem sitzt sprichwörtlich anderswo.
Alles lesen.
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
DX11 ATI Fail
DX11 wurde ohne! erweiterte PhysX Effekte getestet
Aktivieren Sie Tessellation oder Depth of Field, sinkt die Bildrate ähnlich tief. Drehen Sie alle Optionen auf Anschlag, sieht Metro 2033 zwar extrem gut aus, die Radeon HD 5850 aber muss kapitulieren - selbst eine HD 5870 mit 1,0 GHz Chiptakt kommt im Mittel nicht über 20 Fps hinaus. Damit läuft Metro 2033 Crysis locker den Rang ab, einzig die beiden letzten Stalker-Teile sind ähnliche "Hardware-Killer"; wenig überraschend, rekrutieren sich A4 Games doch aus ehemaligen GSC-Gameworld-Entwicklern.
zu PhysX
Diese werden im Fazit als "mediocre" (unbedeutend) klassifiziert, denn im Vergleich zu bisherigen GPU-PhysX-Titeln erschöpfen sich die Effekte in ein paar zusätzlichen Partikeln wie umherspritzendem Putz (bei Schüssen auf Wände) oder mehr Trümmern bei Explosionen. Einzig in Kämpfen mit vielen Granaten und heftigem Sperrfeuer sinkt die Leistung (bei Berechnung auf der CPU) drastisch. Uns ist dies während dem Zocken nicht aufgefallen - offenbar ist unsere 4,0-GHz-Lynnfield-CPU potent genug oder wir haben schlicht kein so anspruchsvolles Gefecht geführt. Interessantes Detail: Die Multicore-Berechnung von PhysX via CPU funktioniert offenbar sehr gut, dies passt zu den publizierten Werten des Fluidmark v1.2.
Du würdest dir tatsächlich ein GTX480-SLI zulegen für ein Game mit einem 5-Stunden SinglePlayer?
Ne, ich hatte seit der 7800er immer SLI, nur ist mir aktuell ein GTX 280 abgeraucht, GTX280 war keine mehr verfügbar, und so hatte mir vor am 24.12. die Notlösung ATI 5970 zulegt. Kam auch ganz gelegen, um Stalker CoP in DX11 zu spielen.
Banshee18
2010-03-23, 17:40:51
LovesuckZ hat imho garnicht so Unrecht. Metro 2033 wird durch den exzessiven Einsatz von DX11-Features zeigen, in welche Grafikkarte man besser sein hart verdientes Geld investieren sollte. Für 99% aller aktuellen Spiel sind heutige Highend-Grafikkarten sowieso ausreichend schnell, interessanter ist da eher die Zukunftstauglichkeit.
Man erinnere sich an nV30 oder G71. In den meisten Spielen der damaligen Zeit waren sie ihrem Konkurrenzprodukt ebenbürtig, was sich durch neuere Spiele aber sehr schnell geändert hat. R580 und R300 waren sehr viel länger einsetzbar, eventuell wiederholt sich diese Geschichte jetzt.
Dass Fermi in Crysis anscheinend nicht so schnell ist, ist natürlich schade, ich hätte mir auch bessere Performance gewünscht.
DrFreaK666
2010-03-23, 17:44:21
LovesuckZ hat imho garnicht so Unrecht. Metro 2033 wird durch den exzessiven Einsatz von DX11-Features zeigen, in welche Grafikkarte man besser sein hart verdientes Geld investieren sollte. Für 99% aller aktuellen Spiel sind heutige Highend-Grafikkarten sowieso ausreichend schnell, interessanter ist da eher die Zukunftstauglichkeit.
Man erinnere sich an nV30 oder G71. In den meisten Spielen der damaligen Zeit waren sie ihrem Konkurrenzprodukt ebenbürtig, was sich durch neuere Spiele aber sehr schnell geändert hat. R580 und R300 waren sehr viel länger einsetzbar, eventuell wiederholt sich diese Geschichte jetzt.
Dass Fermi in Crysis anscheinend nicht so schnell ist, ist natürlich schade, ich hätte mir auch bessere Performance gewünscht.
Es gibt aber auch genügend Gamer, die gerne mal ältere Spiele zocken. Dazu bieten sich extreme AA-Benchmarks an
LovesuckZ hat imho garnicht so Unrecht. Metro 2033 wird durch den exzessiven Einsatz von DX11-Features zeigen, in welche Grafikkarte man besser sein hart verdientes Geld investieren sollte. Für 99% aller aktuellen Spiel sind heutige Highend-Grafikkarten sowieso ausreichend schnell, interessanter ist da eher die Zukunftstauglichkeit.
Man erinnere sich an nV30 oder G71. In den meisten Spielen der damaligen Zeit waren sie ihrem Konkurrenzprodukt ebenbürtig, was sich durch neuere Spiele aber sehr schnell geändert hat. R580 und R300 waren sehr viel länger einsetzbar, eventuell wiederholt sich diese Geschichte jetzt.
Dass Fermi in Crysis anscheinend nicht so schnell ist, ist natürlich schade, ich hätte mir auch bessere Performance gewünscht.
Das Problem an Metro ist das es ein Promo-Titel für Fermi ist, das wurde auch öffentlich beworben. Das er hier überzeugt besteht kein Zweifel. Aber ess gibt auch andere DX11-Titel, mal sehen wie es da aussieht.
DX11 ATI Fail
Muss hier immer so derart penetrant provoziert werden, das führt zwangsläufig wieder zu Fanboykriegen. Ein bisschen Niveau sollte man schon noch verlangen können.
Eggcake
2010-03-23, 17:46:22
Alles lesen.
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
DX11 ATI Fail
DX11 wurde ohne! erweiterte PhysX Effekte getestet
Die 5970 hat offensichtlich einen Bug . wenn selbst eine 5850 ohne MSAA aber mit DX11 20Avg erreicht.
dildo4u
2010-03-23, 17:47:41
Die 5970 hat offensichtlich einen Bug . wenn selbst eine 5850 ohne MSAA aber mit DX11 20Avg erreicht.
Unter 1680*1050 jo es geht um 2500*1600.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7923657&postcount=17915
LovesuckZ hat imho garnicht so Unrecht. Metro 2033 wird durch den exzessiven Einsatz von DX11-Features zeigen, in welche Grafikkarte man besser sein hart verdientes Geld investieren sollte. Für 99% aller aktuellen Spiel sind heutige Highend-Grafikkarten sowieso ausreichend schnell, interessanter ist da eher die Zukunftstauglichkeit.
Man erinnere sich an nV30 oder G71. In den meisten Spielen der damaligen Zeit waren sie ihrem Konkurrenzprodukt ebenbürtig, was sich durch neuere Spiele aber sehr schnell geändert hat. R580 und R300 waren sehr viel länger einsetzbar, eventuell wiederholt sich diese Geschichte jetzt.
Dass Fermi in Crysis anscheinend nicht so schnell ist, ist natürlich schade, ich hätte mir auch bessere Performance gewünscht.
Wir wissen ja bei NV-Usern: AA doesn't matter. Hauptsache viele Dreiecke.
Dass es auch kleinere NV-Karten geben wird, blendet man besser aus. Daher gilt für künftige DX11 Games: Mit GTX 480 spielbar, alle anderen (also ca 98% der Gamer) schauen besser zu. So realistisch ist etwa eure Sichtweise.
Iruwen
2010-03-23, 17:51:33
Wir wissen ja bei NV-Usern: AA doesn't matter. Hauptsache viele Dreiecke.
Dass es auch kleinere NV-Karten geben wird, blendet man besser aus. Daher gilt für künftige DX11 Games: Mit GTX 480 spielbar, alle anderen (also ca 98% der Gamer) schauen besser zu. So realistisch ist etwa eure Sichtweise.
Ja, ist ja heute auch schon so, alle die keine HD 5870 oder gar DX11 Karte haben können leider nur Tetris und Pong spielen. Und den Tesselationsgrad kann man wie AA/AF ja leider nicht einstellen.
/Sarkasmus
So realistisch ist diese Sichtweise.
Eggcake
2010-03-23, 17:52:19
Unter 1680*1050 jo es geht um 2500*1600.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7923657&postcount=17915
Stimmt, hast du Recht - würde es dann aber eher auf den VRAM als irgendwas anderes schieben. Metro ist ein VRAM-Fresser^3 - würde mich nicht wundern, wenn Tesselation den VRAM unter 2560 schlussendlich zum überlaufen bringt.
Das ist reine Ansichtssache. Ich wechsele in der Regel meine Graka ca. im 1 Jahres Rhythmus, daher hat für mich eine vermeintliche Schwäche von HD58xx mit sehr starker Tesselation auch keine große Bedeutung.
Ob und wann sich starker Gebrauch von Tesselation durchsetzt muss sich erst noch zeigen und bisher kann ich einfach keinen signifikanten BQ-Unterschied erkennen, sondern teilweise ganz im Gegenteil diese "aufgepumpten" NPCs sehen einfach shice aus.
AMD wird die Tesselation-Leistung bei ihrer NextGen natürlich auch erhöhen, also für mich "aktuell" kein Vorteil von GF100 gegenüber HD58xx. Wenn man natürlich jemand ist der eine Karte für 2-3 Jahre haben will, kann das natürlich eine vollkommen andere Beurteilung nach sich ziehen.
Menace
2010-03-23, 17:53:25
LovesuckZ hat imho garnicht so Unrecht. Metro 2033 wird durch den exzessiven Einsatz von DX11-Features zeigen, in welche Grafikkarte man besser sein hart verdientes Geld investieren sollte.
Ich würde Dir sofort zustimmen, wenn ich wüsste, dass dieses Spiel incl. Unterstützung der großen Grafikkartenhersteller gemacht wurde. Da ich bei nvidia in der Zwischenzeit nicht mehr von fairplay ausgehe, zweifle ich mal ein alleiniges Spiel wie Metro als Gradmesser an. Explizit von nvidia unterstützte Spiele betrachte ich ebenso kritisch, wie die explizit unterstützten von ATI.
Zieh ich mehr Spiele zu dieser Aussage heran, in denen die DX11 Features so implementiert werden, dass die Spiele besser werden (und sei es nur erkennbar besser aussieht), dann kann man auch Aussagen treffen.
So zeigt sich (Dirt2, heaven und von mir aus Metro), dass für exzessives Tessellation die HD5XXX-Reihe am Limit (und darunter) sind. Wem also Tessellation als Feature am wichtigsten ist, der wird zur GF100 greifen dürfen, sofern in die andere Sachen wie z.B. Stromverbrauch nicht kümmern.
Ich hoffe nur, dass Tessellation in Zukunft auch besser umgesetzt wird als in Dirt2 und Metro.
Henroldus
2010-03-23, 17:55:59
Alles lesen.
http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
DX11 ATI Fail
DX11 wurde ohne! erweiterte PhysX Effekte getestet
zu PhysX
also die Kollisionserkennung ist ja wohl voll Rotz, das Monster rutscht glatt durch den Protagonisten hindurch :freak:
Iruwen
2010-03-23, 17:58:28
Ob und wann sich starker Gebrauch von Tesselation durchsetzt muss sich erst noch zeigen und bisher kann ich einfach keinen signifikanten BQ-Unterschied erkennen, sondern teilweise ganz im Gegenteil diese "aufgepumpten" NPCs sehen einfach shice aus.
Gut dass Tesselation nicht nur dafür gut ist.
also die Kollisionserkennung ist ja wohl voll Rotz, das Monster rutscht glatt durch den Protagonisten hindurch :freak:
Das fand ich auch spontan albern. Aber im Gefecht wird man wohl dankbar dafür sein ;) Zuviel Realismus schadet eher als dass er nutzt.
y33H@
2010-03-23, 18:02:20
@ Eggcake
2560 in 2560 mit 4x MSAA lässt 1G nicht überlaufen.
Jedenfalls sollte man sein Urteil nicht aufgrund eines einzigen Titels fällen. Ob in Metro nun tatsächlich die Tessleistung der Radeons verantwortlich ist, oder die Engine einfach Mist ist, weiß doch niemand so genau. Wenn man an uralte Engines immer mehr Zusatzfeatures lieblos anflanscht, kommt fast immer miese Performance dabei raus...siehe Stalker, WoW und u.U. Metro.
Treiberprobleme lassen sich auch nicht ausschließen!
Zukünftige DX11-Titel werden sich an der verfügbaren Hardware orientieren und womöglich auch Tesselation auf Radeons brauchbar umsetzen können. Wenn die Zukunft immer mehr Spiele für uns bereithält, die für minimalen optischen Gewinn derart viel Leistung verblasen wie Metro, dann wird uns auch Fermi nicht retten können. Dann heißt es mal wieder warten auf die nächste DX11-Generation, was so schlimm nun auch nicht ist.
Man kann sich ja gerne über die Leistung von Fermi in einem Benchmark und einem bestimmten Titel freuen, aber daraus die DX11-Zukunft ableiten zu wollen lässt schon ein wenig Raum für Fanboyspekultionen.
Eggcake
2010-03-23, 18:05:35
Echt? Mh hatte da so eine Diskussion im Metrothread in Erinnerung.
Tesseract
2010-03-23, 18:08:49
Da ich bei nvidia in der Zwischenzeit nicht mehr von fairplay ausgehe, zweifle ich mal ein alleiniges Spiel wie Metro als Gradmesser an. Explizit von nvidia unterstützte Spiele betrachte ich ebenso kritisch, wie die explizit unterstützten von ATI.
was heißt da fairplay? das ist doch kein olympischer wettbewerb.
wenn nvidia die devs besser unterstützt als ati ist das indirekte leistung für den kunden.
oder denkst du ernsthaft, die devs, die zum ziel haben ihre software auf möglichst vielen systemem möglichst performant laufen lassen zu können lassen sich von nvidia bremsklötze für ati einreden? :rolleyes:
Banshee18
2010-03-23, 18:13:15
Es gibt aber auch genügend Gamer, die gerne mal ältere Spiele zocken. Dazu bieten sich extreme AA-Benchmarks an
Stimmt, wer behauptet das Gegenteil? Aber Fermi ist ja in Nicht-DX11-Spielen mit viel AA voraussichtlich nicht langsamer, als Cypress, sondern eher schneller. Insofern ist Fermi für mich kein "Fail". Wer erwartet hat, dass Fermi fast doppelt so schnell ist wie Cypress, wird natürlich enttäuscht sein. In diesem Fall sollte man sich aber eher über seine übertriebene Erwartungshaltung Gedanken machen. ;)
Wir wissen ja bei NV-Usern: AA doesn't matter. Hauptsache viele Dreiecke.
Dass es auch kleinere NV-Karten geben wird, blendet man besser aus. Daher gilt für künftige DX11 Games: Mit GTX 480 spielbar, alle anderen (also ca 98% der Gamer) schauen besser zu. So realistisch ist etwa eure Sichtweise.
Siehe nV30 und G71. Dieser Fall könnte eintreten. Gib nicht mir die Schuld. :biggrin:
...viel Text..
Dirt 2 wurde für ATis aktuelle Generation optimiert. Dennoch wird Fermi dort aller Voraussicht nach schneller sein.
Ob ein Spiel für/von Hersteller a oder b optimiert wurde, spielt imho in den meisten Fällen eine untergeordnete Rolle. Viel wichtiger ist eine gute Architektur des Chips.
2560 in 2560 mit 4x MSAA lässt 1G nicht überlaufen.Gemessen mit ?
Gibts nen VRAM Usage Graph für nVidia (natürlich die 285) und ATi 58x0 ?
DrFreaK666
2010-03-23, 18:14:55
Stimmt, wer behauptet das Gegenteil? Aber Fermi ist ja in Nicht-DX11-Spielen mit viel AA voraussichtlich nicht langsamer, als Cypress, sondern eher schneller. ....
Ich erwarte keine 4xMSAA-Benchmarks.
Ich will 8xSGSSAA gegen etwas von nv, dass ähnlich gut aussieht.
sonst 4xSGSSAA vs 16xOGSSAA
Tesseract
2010-03-23, 18:18:06
sonst 4xSGSSAA vs 16xOGSSAA
SG ist für flächen (texturen, shader usw.) nicht viel besser als OG, das ist nur beim spezialfall "flache kante" (also um 0°, 90°) so extrem.
DrFreaK666
2010-03-23, 18:19:58
RG ist für flächen (texturen, shader usw.) nicht viel besser als OG, das ist nur beim spezialfall "flache kante" (also um 0°, 90°) so extrem.
Was schlägst du dann vor im Vergleich zu 4xSGSSAA?
y33H@
2010-03-23, 18:20:37
@ S940
Unter Win7 kann man nicht messen. Ich sehe nur, dass 2G nicht schneller als 1G sind und eine HD5870 nicht einbricht.
btw ist die 4A Engine neu und nicht alt plus aufgeflanscht.
Iruwen
2010-03-23, 18:20:44
Ob in Metro nun tatsächlich die Tessleistung der Radeons verantwortlich ist, oder die Engine einfach Mist ist, weiß doch niemand so genau. Wenn man an uralte Engines immer mehr Zusatzfeatures lieblos anflanscht, kommt fast immer miese Performance dabei raus...siehe Stalker, WoW und u.U. Metro.
Treiberprobleme lassen sich auch nicht ausschließen!
Zukünftige DX11-Titel werden sich an der verfügbaren Hardware orientieren und womöglich auch Tesselation auf Radeons brauchbar umsetzen können. Wenn die Zukunft immer mehr Spiele für uns bereithält, die für minimalen optischen Gewinn derart viel Leistung verblasen wie Metro, dann wird uns auch Fermi nicht retten können. Dann heißt es mal wieder warten auf die nächste DX11-Generation, was so schlimm nun auch nicht ist.
Man kann sich ja gerne über die Leistung von Fermi in einem Benchmark und einem bestimmten Titel freuen, aber daraus die DX11-Zukunft ableiten zu wollen lässt schon ein wenig Raum für Fanboyspekultionen.
http://www.eurogamer.net/articles/digitalfoundry-tech-interview-metro-2033
Das klingt irgendwie nicht danach als wäre es eine "Uraltengine" bei der irgendwo was "rangeklatscht" wurde. Und die Radeons waren (im Gegensatz zu Fermi) mittlerweile wohl lange genug verfügbar um sich daran zu "orientieren".
LovesuckZ
2010-03-23, 18:21:15
RG ist für flächen (texturen, shader usw.) nicht viel besser als OG, das ist nur beim spezialfall "flache kante" (also um 0°, 90°) so extrem.
Dazu kommt noch: Wenn kein bis kaum Shaderalaising im Bild ist, wird 32xCSAA+ TMSAA besser aussehen und performen.
Tesseract
2010-03-23, 18:21:54
Was schlägst du dann vor im Vergleich zu 4xSGSSAA?
ein hybrid 2x2 OGSS mit 2x oder 4xRGMS sollte da im schnitt eigentlich gut hin kommen bzw. sogar darüber liegen wenn fermi die selbe filterung wie die alte generation bekommt.
hängt natürlich immer vom content ab. in manchen situationen ist sogar 4xOGSS schon besser als 4xSGSS.
Banshee18
2010-03-23, 18:22:00
Ich erwarte keine 4xMSAA-Benchmarks.
Ich will 8xSGSSAA gegen etwas von nv, dass ähnlich gut aussieht.
sonst 4xSGSSAA vs 16xOGSSAA
4xSGSSAA reicht mir persönlich. :smile:
4xSGSSAA mit 16xOGSSAA zu vergleichen, ist aber wenig sinnvoll. Falls Fermi kein SGSSAA bietet, kann man halt nicht vergleichen.
Auch ich bin ein Fan von SGSSAA und fände es sehr bedauerlich, würde Fermi das nicht anbieten.
Spasstiger
2010-03-23, 18:22:12
16xOGSSAA sollte schärfere, flimmerfreie Texturen liefern als 8xSGSSAA wegen dem geringeren LOD-Bias und der höheren Anzahl von Farbsamples. Geometrie und Alphatests müssten dafür etwas flimmeranfälliger sein (geringere EER).
Ein fairer Vergleich ist es auf jeden Fall nicht.
Menace
2010-03-23, 18:22:25
Ob ein Spiel für/von Hersteller a oder b optimiert wurde, spielt imho in den meisten Fällen eine untergeordnete Rolle.
Und ich hoffe, dass das noch lange so bleibt.
Viel wichtiger ist eine gute Architektur des Chips.
Wer kann da widersprechen. Letztlich zählt dazu das Gesamtpaket (Stromverbrauch, Monitoranschlüsse, 2D-Verhalten, 3D-Verhalten, Features, fps, etc.). Ich bin momentan froh, dass die Spiele, die ich momentan zocke, auch noch mit meiner aktuellen GraKa funktionieren.
Ob ein Spiel für/von Hersteller a oder b optimiert wurde, spielt imho in den meisten Fällen eine untergeordnete Rolle. Viel wichtiger ist eine gute Architektur des Chips.
Es ist schon von Bedeutung, dass die Bedürfnisse von Soft- und Hardware möglichst nah beieinander liegen. Die Hardware sollte möglichst flexibel sein, um Softwareentwicklern Freiräume zu lassen. Entwickle ich allerdings Software, die einem Großteil der im Umlauf befindlichen Hardware nicht entgegenkommt, habe ich Mist gebaut. Die optimale Hardwarestruktur gibt es eh nicht. GPUs werden nach einer wohl durchdachten Betrachtung aktueller Softwaretrends entwickelt, wobei teilweise prinzipbedingt Schwächen über mehrere Generationen hinweg mitgeschleift werden, so man die "alte" Architektur als Grundgerüst übernimmt.
Man geht Kompromisse ein, um die Leistung, die wir bei den heute üblichen Fertigungsprozessen haben, überhaupt auf ein derart hohes Niveau zu bringen. Das machen sowohl ATI als auch NV. Die beste Architektur ist niemals profitabel zu fertigen und dank fertigungstechnischer Probleme auch niemals so performant wie spezialisierte HW bei zuträglicher Software.
Dass es auch kleinere NV-Karten geben wird, blendet man besser aus.
Da braucht man nichts "ausblenden". Die kleineren Karten brauchen entsprechend weniger Rasterrate weil sie im Backend nicht so breit sind.
Das skaliert exakt mit. Es entsteht kein größerer Bottleneck dadurch.
@ S940
Unter Win7 kann man nicht messen. Ich sehe nur, dass 2G nicht schneller als 1G sind
Ah ok, wenn Ihr ne 2G ATi mitbencht ist alles in Butter ;-)
(Ich hoffe es ist keine 5970 ;))
Blackbird23
2010-03-23, 18:53:44
@ S940
Unter Win7 kann man nicht messen. Ich sehe nur, dass 2G nicht schneller als 1G sind und eine HD5870 nicht einbricht.
btw ist die 4A Engine neu und nicht alt plus aufgeflanscht.
Also bei mir zeigt GPU-Z auch in Windows 7 64Bit die V-Ram-Auslastung an....
Eggcake
2010-03-23, 18:57:05
Geht bei ATI nicht.
Grestorn
2010-03-23, 18:57:59
Ist wohl eine Funktion der NVAPI.
y33H@
2010-03-23, 18:59:38
@ Blackbird23
Das was da ausgelesen wird, ist (leider) Unfug.
@ Grestorn
Japp.
derguru
2010-03-23, 19:09:57
y33H@
du meinst bei metro2033 lässt eine auflösung von 2560*1600+ max detail inkl.4xmsaa 1gb nicht überlaufen?
man hat ja schon unter 1920*1200 standbild,das kann ich mir nicht vorstellen.
Da braucht man nichts "ausblenden". Die kleineren Karten brauchen entsprechend weniger Rasterrate weil sie im Backend nicht so breit sind.
Das skaliert exakt mit. Es entsteht kein größerer Bottleneck dadurch.
Coda, was sagst du eigentlich zu den Crysis-Werten, du sprachst ja davon das Crysis von der Geometrie limitiert sei.
Blackbird23
2010-03-23, 19:22:58
@ Blackbird23
Das was da ausgelesen wird, ist (leider) Unfug.
Ok wusste ich nicht. Inwiefern?
Henroldus
2010-03-23, 19:24:29
BTW
zum vorbenchen und Vergleichen mit Nvidias geleakten Frameverläufen gibts bei Unigine jetzt wohl die finale Heaven 2.0 Version:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7923890#post7923890
Edith sagt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479989
StefanV
2010-03-23, 19:27:32
@ S940
Unter Win7 kann man nicht messen.
FALSCH
Der nVidia Treiber gibt den Speicherverbrauch an, entsprechendes Programm (z.B. GPU-Z) vorausgesetzt.
y33H@
2010-03-23, 19:31:18
@ derguru
Mit DX10 @ max. nicht, nein. Mit DX11 samt Tessellation (ohne DoF). schon. Größerer Vertex-Buffer wohl und der bringt das Fass zum Überlaufen.
@ StefanV
Nö, tut er nicht. Er zeigt zu viel an unter Win7.
derguru
2010-03-23, 19:34:48
@y33H@
achso ok ,ich dacht schon.:biggrin:
Eggcake
2010-03-23, 19:35:54
@y33h@
Wir sprachen doch von DX11 und nicht von DX10 - darum ging's ursprünglich:
Ich bekomme dieses Spiel mit meiner aktuellen 5970 unter DX11 gar nicht zum laufen, bzw. habe hier nur 5-9 FPS (bei 2560x1600). Unter DX10 läuft es mit ca 50-60 FPS.
Und ich sagte doch genau noch:
würde mich nicht wundern, wenn Tesselation den VRAM unter 2560 schlussendlich zum überlaufen bringt.
Also wie jetzt?!
y33H@
2010-03-23, 19:37:42
Tessellation macht den Vertex-Buffer größer und dann läuft scheint's der VRAM über.
EDIT
In 2560 mit 4x MSAA.
DrFreaK666
2010-03-23, 19:38:29
...btw ist die 4A Engine neu und nicht alt plus aufgeflanscht.
"Wir haben das SDK bereits ausgewählt, als es noch auf den Namen Novodex hörte (das war sogar noch vor der Zeit, als sich Novodex in Ageia umbenannte)."
Dann existiert die EEngine aber schon ewig.
Als man sich damals für diese Physik-Engine entschied war DX10 wahrscheinlich gerade mal im Anfangsstadium.
Daher denke ich schon, dass Tesselation "aufgeflanscht" wurde
y33H@
2010-03-23, 19:42:04
Den Spruch kannste imo abhaken.
Als die Novodex noch Novodex hieß [2002 bis iirc 2006], haben die Jungs von 4A Games noch an Stalker SoC bei GSC Gameworld gerbeitet :ulol:
Nightspider
2010-03-23, 19:43:48
Was hier einige vielleicht vergessen.
Es geht nichtmal darum, das Fermi so sehr in Crysis schwächelt.
Sondern das man diese Limitierung auch in zukünftigen Titeln sogar verstärkt treffen könnte.
Ende des Jahres erscheint vielleicht Crysis 2 und wird vielleicht noch eher von der Texturleistung von Fermi limitiert, bevor er seinen DX11-Vorteil überhaupt ausspielen kann.
Spiele entwickeln sich auch weiter, was ist wenn weitere zukünftige Spiele mit der Texturleistung von Fermi kollidieren?
CryTek macht derzeit massiv Werbung für die CryEngine 3.0. In Zukunft könnten uns einige Titel mit der CryEngine 3.0 erwarten.
DrFreaK666
2010-03-23, 19:44:52
Den Spruch kannste imo abhaken.
Als die Novodex noch Novodex hieß [2002 bis iirc 2006], haben die Jungs von 4A Games noch an Stalker SoC bei GSC Gameworld gerbeitet :ulol:
Auf der Site von 4A Games steht unten das Jahr 2006.
Könnte also stimmen :wink:
dildo4u
2010-03-23, 19:47:02
Was hier einige vielleicht vergessen.
Es geht nichtmal darum, das Fermi so sehr in Crysis schwächelt.
Sondern das man diese Limitierung auch in zukünftigen Titeln sogar verstärkt treffen könnte.
Ende des Jahres erscheint vielleicht Crysis 2 und wird vielleicht noch eher von der Texturleistung von Fermi limitiert, bevor er seinen DX11-Vorteil überhaupt ausspielen kann.
Spiele entwickeln sich auch weiter, was ist wenn weitere zukünftige Spiele mit der Texturleistung von Fermi kollidieren?
CryTek macht derzeit massiv Werbung für die CryEngine 3.0. In Zukunft könnten uns einige Titel mit der CryEngine 3.0 erwarten.
Cryengine 3 wird ganz anders performen als Cryengine 2,weil sie für Konsolen umgeschrieben wurde also das muss man erstmal abwarten.Cryengine 2.0 spielt keine große Rolle mher und wurde zurecht kaum lizensiert.
y33H@
2010-03-23, 19:48:02
@ Nightspider
Die CE3 wirft einiges der CE2 über Board und fügt viel frisches hinzu. Von der CE2 auf die CE3 zu schließen dürfte daher schwierig sein, allerdings wird die CE3 sehr viel schneller an Verbreitung gewinnen und ist laut Crytek schon jetzt sehr gefragt. Die CE2 war ja wie die CE1 eigentlich nie als Lizenzierung gedacht.
@ DrFreaK666
Sag ich doch :D
DrFreaK666
2010-03-23, 19:50:37
...
@ DrFreaK666
Sag ich doch :D
Wenn 4A Games 2006 gegründet wurde und es da Ageia noch gab dann kann es sehr wohl sein, dass die Physik-Engine lizensiert wurde und die Engine ca. 4Jahre alt ist.
mapel110
2010-03-23, 19:53:21
Charlie mal wieder mit Geschäftsinternas
http://www.semiaccurate.com/2010/03/23/nvidia-forces-garbage-those-wanting-gtx480s/
If you want any GF100 based cards, you get them in bundles of 10 GTX470s and 10 GTX480s. For each of the bundles, you have to buy 20 G210s, 20 GT220s, 20 GT240s and 20 GTS250s. So basically you have to buy 80 old, crap parts to be eligible to receive just 20 of the newer and supposedly 'good' ones.
y33H@
2010-03-23, 19:53:54
@ DrFreaK666
Wer weiß, wann Ageia die Novodex im Zuge der PhysX-PPU umbenannt hat? Ich bezweifle irgendwie, dass 4A Games die Engine schon vor vier Jahren entwickelt hat. Erstens erschien Stalker SoC erst 2007 und der Roman Metro 2033 auch.
Wenn 4A Games 2006 gegründet wurde und es da Ageia noch gab dann kann es sehr wohl sein, dass die Physik-Engine lizensiert wurde und die Engine ca. 4Jahre alt ist.
4 Jahre Entwicklungszeit ist für ein derartiges Spiel auch üblich.
DrFreaK666
2010-03-23, 19:56:34
@ DrFreaK666
Wer weiß, wann Ageia die Novodex im Zuge der PhysX-PPU umbenannt hat? Ich bezweifle irgendwie, dass 4A Games die Engine schon vor vier Jahren entwickelt hat. Erstens erschien Stalker SoC erst 2007 und der Roman Metro 2033 auch.
Eine Engine kann man auch entwickeln bevor man weiss was genau daraus wird.
Ich denke mal, dass ein Shooter geplant war. Der Release des Buches hat wahrscheinlich gut rein gepasst
Und wieso sollten sie lügen?
dildo4u
2010-03-23, 19:57:24
4 Jahre Entwicklungszeit ist für ein derartiges Spiel auch üblich.
Jup gerade wenn man eine neue Engine mitentwickelt.
Leadtek GTX 470/480
http://www.abload.de/thumb/gtx480_22c143.jpg (http://www.abload.de/image.php?img=gtx480_22c143.jpg) http://www.abload.de/thumb/gtx480_21n3v7.jpg (http://www.abload.de/image.php?img=gtx480_21n3v7.jpg) http://www.abload.de/thumb/gtx470_23d46a.jpg (http://www.abload.de/image.php?img=gtx470_23d46a.jpg) http://www.abload.de/thumb/gtx470_262g3.jpg (http://www.abload.de/image.php?img=gtx470_262g3.jpg)
Eggcake
2010-03-23, 20:13:35
Sehr geil sieht sie zumindest schonmal aus :)
mapel110
2010-03-23, 20:19:52
http://www.youtube.com/watch?v=2VgH3MRLMZk
neue DX11 Demo StoneGiant
Tarkin
2010-03-23, 20:22:23
http://hardforum.com/showpost.php?p=1035493002&postcount=643
Kyle: "Heard today that there will NOT be a B1 spin later this year. A3 is it."
Also keine (wesentlichen) Preissenkungen bis Nothern Island? :freak:
http://hardforum.com/showpost.php?p=1035493002&postcount=643
Kyle: "Heard today that there will NOT be a B1 spin later this year. A3 is it."
Also keine (wesentlichen) Preissenkungen bis Nothern Island? :freak:
Wayne? AMD kann eh bis in den Herbst nicht liefern.
mapel110
2010-03-23, 20:28:49
http://hardforum.com/showpost.php?p=1035493002&postcount=643
Kyle: "Heard today that there will NOT be a B1 spin later this year. A3 is it."
Also keine (wesentlichen) Preissenkungen bis Nothern Island? :freak:
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat. Charlies "April geht B1 in den Ofen" hat noch nie Sinn gemacht.
LovesuckZ
2010-03-23, 20:30:31
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat. Charlies "April geht B1 in den Ofen" hat noch nie Sinn gemacht.
Vorallem, dass man annimmt, dass nVidia mit > 500mm^2 kein Respin benötigen würde. Das war dieser Neliz-Quatsch, den jeder geglaubt hat. :rolleyes:
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat. Charlies "April geht B1 in den Ofen" hat noch nie Sinn gemacht.
und wieso hätte B1 nicht als "refresh" verkauft werden können? 512 funktionierende pipes, höherer takt würde schon als "refresh" durchgehen IMHO. außerdem vielleicht bessere chipausbeute? wieso soll nvidia nicht daran interessiert sein? was machens jetzt deiner meinung nach als nächstes?
LovesuckZ
2010-03-23, 20:36:45
und wieso hätte B1 nicht als "refresh" verkauft werden können? 512 funktionierende pipes, höherer takt würde schon als "refresh" durchgehen IMHO. außerdem vielleicht bessere chipausbeute? wieso soll nvidia nicht daran interessiert sein? was machens jetzt deiner meinung nach als nächstes?
Die warten bis die Yields besser werden und/oder 28nm für einen Shrink bereit ist.
Ein neues Silizium Tape-Out hilft überhaupt nicht.
mapel110
2010-03-23, 20:38:11
und wieso hätte B1 nicht als "refresh" verkauft werden können? 512 funktionierende pipes, höherer takt würde schon als "refresh" durchgehen IMHO. außerdem vielleicht bessere chipausbeute? wieso soll nvidia nicht daran interessiert sein? was machens jetzt deiner meinung nach als nächstes?
Leichte Designänderungen, die es eben nicht mehr in den GF100 geschafft haben. Siehe Geforce 7800 -> 7900 oder Radeon 4870 -> 4890. Man wird sehen. Irgendwas kommt sicher noch in 2010 auf 40nm im High End.
http://www.killissa.de/FermiTrockner_klein.jpg
nicht mal im ansatz witzig :(
Leichte Designänderungen, die es eben nicht mehr in den GF100 geschafft haben. Siehe Geforce 7800 -> 7900 oder Radeon 4870 -> 4890. Man wird sehen. Irgendwas kommt sicher noch in 2010 auf 40nm im High End.
Ja was sollen sie auch sagen? "Wir schieben bald den echten Flummi nach, hat jetzt keinen Sinn die Krüppelkarten zu kaufen"? Jo sischer dat...
Die warten bis die Yields besser werden und/oder 28nm für einen Shrink bereit ist.
Ein neues Silizium Tape-Out hilft überhaupt nicht.
ähm ... 28nm? da könnens aber SEHR lange warten, bis ein monsterchip mit 3,2 mrd transis gut zu fertigen ist. es gab ja noch nichtmal irgendwelche "rohrputzer" chips vorher! das dauert noch LANGE bis wir einen vollen fermi in 28nm sehen. mindestens ca. 9 moante, wenn net länger. wer weiß was TSCM noch alles verkackt.
Mancko
2010-03-23, 20:43:50
und wieso hätte B1 nicht als "refresh" verkauft werden können? 512 funktionierende pipes, höherer takt würde schon als "refresh" durchgehen IMHO. außerdem vielleicht bessere chipausbeute? wieso soll nvidia nicht daran interessiert sein? was machens jetzt deiner meinung nach als nächstes?
M.E. macht B1 nur dann Sinn, wenn es sehr bald kommt. Wenn es erst Herbst käme machst keinen Sinn, weil dann der richtige Refresh schon zu nah ist.
Dadurch das G100 sich verspätet hat, wurde auch die Zeit zum Refresh verkürzt. Das hatten wir bei diversen Vorgängergenerationen auch schonmal.
Am deutlichsten wurde das bei NV30 der so spät war, dass NV35 recht bald danach folgte.
Ich denke Nvidia wird sich Tapeouts für die mittleren und kleinen Varianten aufheben damit diese problemlos ausgerollt werden können und für das High End gibt es noch die Dual Karte und dann eben später im Jahr den richtigen Refresh.
Menace
2010-03-23, 20:45:35
Die Leadtek 470 finde ich sehr schick, was aber nichts bringt.
nvidia macht kein B1, Ati kontert nicht mit einer 5890. Irgendwie erscheinen mir die beiden Hersteller etwas selbstzufrieden zu sein. :mad: ;)
LovesuckZ
2010-03-23, 20:46:02
ähm ... 28nm? da könnens aber SEHR lange warten, bis ein monsterchip mit 3,2 mrd transis gut zu fertigen ist. es gab ja noch nichtmal irgendwelche "rohrputzer" chips vorher! das dauert noch LANGE bis wir einen vollen fermi in 28nm sehen. mindestens ca. 9 moante, wenn net länger. wer weiß was TSCM noch alles verkackt.
Durch den Shrink wird der Chip nicht mehr 529mm^2 groß sein. Ein G80 war auf 65nm auch nur noch 324mm^2 groß bzw. wäen sie direkt auf 55nm gegangen nur 276mm^2. Und nVidia brachte keinen "Rohrputzer" vor G92 auf 65nm. Die gingen direkt G92 auf 65nm.
Deswegen werden sie mit großer Wahrscheinlichkeit einen zweiten G92 fertigen und sofort auf 28nm umsteigen.
Kyle: "Heard today that there will NOT be a B1 spin later this year. A3 is it."
Klingt auch logisch, ansonsten gäbe es auch kein A3 und man wäre spätestens nach A2 auf B1 gegangen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.