Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
y33H@
2010-03-21, 22:03:14
Irgendjemand hat hier mal geschrieben, dass sich Benchmarks aus NV-Folien immer reproduzieren lassen und somit zuverlässig seien.Die Aussage stammt von mir. Die Werte die NV etwa in Dark Void oder Sacred 2 angibt, kannst mit dem gleichen System de facto 1:1 nachstellen, egal ob Radeon oder Geforce. Und wenn der genutzte Fermi die gleichen Specs hat wie auf den Folien, dann wird das hier wohl auch der Fall sein.
Dural
2010-03-21, 22:03:17
Die Folie mit <300W sah nicht unbedingt nach einem Fake aus und dann gibt es noch andere Informationen die mich das glauben lassen. Jedenfalls hat man die TDP bei der 480 vor kurzem reduziert.
Ich glaube kaum das NV jemals eine Single GPU mit 300Watt TDP geplant hat, das steht in keinem Verhältnis für die wenigen % und irgend wie Kühlen müsste man das teil auch noch.
Max Board Power ist numal bis zu <300Watt, das kann aber zwischen 225 und 300Watt alles bedeuten!
und wer glaub den ernsthaft das 50MHz mehr ALU takt satte 45Watt mehr TDP bedeuten?!? Da müsste ja JEDE GT200 OC Karte über der TDP liegen die die Karten stock haben...
mapel110
2010-03-21, 22:04:43
Was ist jetzt eigentlich mit den Benchmarkergebnissen aus den GF100-Preview-Folien? Wenn man gegenüber damals die Specs abgespeckt hat (von 512 SPs @ 1450 MHz auf 480 SPs @ 1400 MHz), dann werden sich die Ergebnisse so wohl nicht reproduzieren lassen, oder? Irgendjemand hat hier mal geschrieben, dass sich Benchmarks aus NV-Folien immer reproduzieren lassen und somit zuverlässig seien.
Hat ja bisher auch immer gestimmt. Sogar beim NV30.
Derzeit siehts ja sogar nach noch mehr Performance aus, wenn man mal die Performance-Zahlen von Farcry2 vom Januar mit denen kürzlich vergleicht.
Spasstiger
2010-03-21, 22:05:47
Die Aussage stammt von mir. Die Werte die NV etwa in Dark Void oder Sacred 2 angibt, kannst mit dem gleichen System de facto 1:1 nachstellen, egal ob Radeon oder Geforce. Und wenn der genutzte Fermi die gleichen Specs hat wie auf den Folien, dann wird das hier wohl auch der Fall sein.
Ok, die Folien haben sich ja nicht explizit auf die GTX 480, sondern nur auf den GF100 allgemein bezogen. Dann geht das wohl auch ok. Jetzt müsste man nur noch wissen, welche Specs der GF100 aus den Folien von damals hat. Sind wohl die 512 SPs @ 1450 MHz, oder?
y33H@
2010-03-21, 22:07:43
Wobei FC2 cherry pickt ist, vor allem mit 8x MSAA. Das schneidet ja selbst schon eine GTX285 extrem gut ab und die mag bekanntlich normalerweise kein 8x MSAA. Einen mit angeblich "günstigeren" 8x MSAA auflaufenden Fermi in AMDs 8x-MSAA-Fail-Titel gegen die HD5870 antreten zu lassen, sieht in Balken sicher zwar toll aus, aber weitere Rückschlüsse lassen sich daraus nicht ziehen.
Jetzt müsste man nur noch wissen, welche Specs der GF100 aus den Folien von damals hat.Gute Frage - nächste Frage.
Bioshock
2010-03-21, 22:11:06
Wobei FC2 cherry pickt ist, vor allem mit 8x MSAA. Das schneidet ja selbst schon eine GTX285 extrem gut ab und die mag bekanntlich normalerweise kein 8x MSAA. Einen mit angeblich "günstigeren" 8x MSAA auflaufenden Fermi in AMDs 8x-MSAA-Fail-Titel gegen die HD5870 antreten zu lassen, sieht in Balken sicher zwar toll aus, aber weitere Rückschlüsse lassen sich daraus nicht ziehen.
Gute Frage - nächste Frage.
Wie schaut es mit der BQ aus?:D alles beim alten oder verbesserungen dabei?
mfg
y33H@
2010-03-21, 22:12:11
Sorry, bin kurzsichtig und habe nur eine 15''-Röhre am Testsys :ulol:
Bioshock
2010-03-21, 22:12:59
Sorry, bin kurzsichtig und habe nur eine 15''-Röhre am Testsys :ulol:
hehe :freak:
mfg
dildo4u
2010-03-21, 22:15:17
Wobei FC2 cherry pickt ist, vor allem mit 8x MSAA. Das schneidet ja selbst schon eine GTX285 extrem gut ab und die mag bekanntlich normalerweise kein 8x MSAA. Einen mit angeblich "günstigeren" 8x MSAA auflaufenden Fermi in AMDs 8x-MSAA-Fail-Titel gegen die HD5870 antreten zu lassen, sieht in Balken sicher zwar toll aus, aber weitere Rückschlüsse lassen sich daraus nicht ziehen.
Gute Frage - nächste Frage.
NV hat ja gegen eine GTX 285 gebencht also soo gut liegt FC2 den alten NV Karten nicht denn dort wurde sie vernichtend geschlagen.
AnarchX
2010-03-21, 22:15:34
Ok, die Folien haben sich ja nicht explizit auf die GTX 480, sondern nur auf den GF100 allgemein bezogen. Dann geht das wohl auch ok. Jetzt müsste man nur noch wissen, welche Specs der GF100 aus den Folien von damals hat. Sind wohl die 512 SPs @ 1450 MHz, oder?
Sofern es vergleichbar ist, Ray Tracing Performance:
- Whitepaper: 4x GT200
- Deep Dive Demo System: 2,7x GTX 285
- GTX 480 Folie: 3,5x GTX 285
master_blaster
2010-03-21, 22:16:42
Fallen Veränderungen der Bildquali unter NDA?? Wenn die Qualität schlechter ist. macht das Sinn; ansonsten ist es ja Quatsch da keine Aussage drüber zuzulassen ...
Dural
2010-03-21, 22:19:19
alles fällt unter NDA... Ihr könnt jetzt wirklich noch die paar Tage abwarten!
urfaust
2010-03-21, 22:20:07
http://www.hardwareluxx.de/community/14248999-post364.html
Schönen Abend,
wir haben inzwischen beide Karten im Labor (nur die GTX480 kam direkt von Nvidia) und erste Tests abgeschlossen.
Nachdem die Vorratsdatenspeicherung vom Tisch ist, hier erste Ergebnisse, um die schier unendliche Ungeduld einiger Hardwarefreunde zumindest etwas zu stillen:
3DMark Vantage Extreme
HD5970: 12339
GTX480: 9688
HD5870: 8912
GTX470: 7527
HD5850: 6848
Die Leistungsaufnahme unter Last ist wie von vielen spekuliert sehr hoch, dürfte aber zumindest Gamer deutlich weniger stören als die Leistungsaufnahme im 2D Betrieb - letztere ist höher als die Leerlaufleistungsaufnahme des gesamten Testsystems inkl. Monitor (aber
ohne Grafikkarte)
Exxtreme
2010-03-21, 22:21:35
http://www.hardwareluxx.de/community/14248999-post364.html
ROFL, ich hasse diese NDA-Brecher! Oder der Typ ist nen Faker.
y33H@
2010-03-21, 22:22:10
@ dildo4u
Mit 8x MSAA liegt eine HD5870 in 1920 nur 20% vor einer HD5870, für gewöhnlich sind es eher 40-60%. Wenn Fermi hier nun eine HD5870 klatscht, ist das wie gesagt nett, aber derbe cherry pickt: Einmal wegen der 8x-Schwäche der Radeon und einmal wegen der [im Vergleich zu GTX200] 8x-Stärke von Fermi, den NV ja deutlich bewirbt.
san.salvador
2010-03-21, 22:26:49
ROFL, ich hasse diese NDA-Brecher! Oder der Typ ist nen Faker.
Könnte auch sein, das er keinem NDA unterliegt - rein theoretisch.
Wobei, bei dem Postingcount hätte ich eher einen anderen Verdacht. ;D
AwesomeSauce
2010-03-21, 22:27:19
Der Typ heisst infoleck. Der Name ist jedenfalls nicht vertrauensfördernd:freak:
dildo4u
2010-03-21, 22:27:37
Könnte auch sein, das er keinem NDA unterliegt - rein theoretisch.
Wenn er wie behauptet die Karte direkt von NV hat in jedem Fall. ;)
urfaust
2010-03-21, 22:28:29
Der Typ heisst infoleck. Der Name ist jedenfalls nicht vertrauensfördernd:freak:
soll er sich etwa mit vollem Namen registrieren? :rolleyes:
Grestorn
2010-03-21, 22:28:44
Die Radeon hat auf einmal eine 8xMSAA Schwäche?
Dreht sich gerade die ganze Welt um? SSAA, Tesselation, wer die neueste Technik früher bringt, evtl. AF Qualität, 8xMSAA Performance... bei all diesen Punkten dreht sich - teilweise natürlich nur gerüchteweise - das Vorzeichen um. Das ist schon eigenartig.
y33H@
2010-03-21, 22:30:22
Nur in FC2. Zumindest im Vergleich zu den GTX200.
lilgefo~
2010-03-21, 22:30:59
Die Radeon hat auf einmal eine 8xMSAA Schwäche?
Dreht sich gerade die ganze Welt um? SSAA, Tesselation, wer die neueste Technik früher bringt, evtl. AF Qualität, 8xMSAA Performance... bei all diesen Punkten dreht sich - teilweise natürlich nur gerüchteweise - das Vorzeichen um. Das ist schon eigenartig.
Ich glaub die meinen das nur auf FC2 bezogen.
Grestorn
2010-03-21, 22:31:48
Hm, zeigt sich denn bei FC2 nur die 8xMSAA Schwäche der GTX200 aus irgendeinem Grund weniger stark, bzw. wird die Radeon evtl. bei diesem Spiel durch einen anderen Faktor über Gebühr ausgebremst?
y33H@
2010-03-21, 22:32:47
Eines von beidem.
Sascha1971
2010-03-21, 22:35:11
http://www.hardwareluxx.de/community/14248999-post364.html
Oh je da hätte die 480er grade mal 8,70 % Vorsprung.
y33H@
2010-03-21, 22:35:42
Das ist ein 3DMark ...
LovesuckZ
2010-03-21, 22:39:30
http://www.hardwareluxx.de/community/14248999-post364.html
:lol: @ Idle-Vebrauch.
Also verbraucht die Karte 100 Watt beim IDLEN, ja?
=Floi=
2010-03-21, 22:43:34
Sorry, bin kurzsichtig
dann passt ja alles
http://de.wikipedia.org/wiki/Kurzsichtigkeit
zitat
Sie bewirkt, dass aufgrund eines optischen Abbildungsfehlers weit entfernte Objekte schlechter gesehen werden als nahe gelegene.
du müsstest schon weitsichtig sein, um das AF nicht testen zu können. ;D
zitat
DU sitzt in der Falle... baby... in der FALLE :D
tombman
2010-03-21, 22:43:49
Immerhin, die erste single gpu, die 10000 in Vantage X schafft :D (Treiber, Cpu -> 10K)
Wären also bei Tri-SLi: 10000* 1.7 * 1.3 ~ X22000 :) (ohne OC)
Goil :)
Das ist ein 3DMark ...
Aha das heißt sie rockt in Spielen? :D yeehaaa :rolleyes:
AwesomeSauce
2010-03-21, 22:52:06
@y33ha@
Weiter mit dem Nasenhaareziehen;D Betrag der Quersumme der Treiberversionsnummer?:freak:
LovesuckZ
2010-03-21, 22:54:23
@ dildo4u
Mit 8x MSAA liegt eine HD5870 in 1920 nur 20% vor einer HD5870, für gewöhnlich sind es eher 40-60%. Wenn Fermi hier nun eine HD5870 klatscht, ist das wie gesagt nett, aber derbe cherry pickt: Einmal wegen der 8x-Schwäche der Radeon und einmal wegen der [im Vergleich zu GTX200] 8x-Stärke von Fermi, den NV ja deutlich bewirbt.
Die Werte von der CES wurden mit 4AA gefahren. Die FC2 Bilder entsprechen fast genau diesen 4AA Werten.
Dazu abgesehen wird GF100 in FC2 mit 8xMSAA nicht wesentlich schneller sein, da hier eben der GT200 keine Schwächen gezeigt hat.
LOL, ~100W alleine für die GraKa beim Ideln, das Ding können sie behalten, so nen Schrott...
y33H@
2010-03-21, 22:57:46
@ LovesuckZ
Die Frage ist - zeigt GT200 keine Schwäche oder ka**t Cypress ab? Ich habe leider nicht genügend FC2-Werte um das aus dem Stegreif beurteilen zu können.
@ Gast
100W idle? Sorry, manche Leute glauben aber auch jeden Müll.
Mal abwarten ob der "Müll" dir in ein paar Tagen nicht das Gesicht langzieht, LOLZ...
mironicus
2010-03-21, 23:02:50
Vielleicht haben ja die Fermi-Testkarten in den Redaktionen 512 SP (= gute Benchmarks), während im Handel dann nur abgespeckte Versionen mit 480 SP auf den Markt kommen. :)
urfaust
2010-03-21, 23:03:51
Vielleicht haben ja die Fermi-Testkarten in den Redaktionen 512 SP (= gute Benchmarks), während im Handel dann nur abgespeckte Versionen mit 480 SP auf den Markt kommen. :)
die Illuminaten sind sicher auch mit von der Partie
Armaq
2010-03-21, 23:05:07
Total geil wäre der idle-Verbrauch. Mehr als das System PLUS Monitor. Ich hoffe inständig, dass das ein fieser Scherz ist.
http://www.hardwareluxx.de/community/14248999-post364.html
Leerlaufstromaufnahme sollte bei einem Fermi angemessenen System ohne Grafikkarte wohl in die Richtung 120-150W gehen. Dass Fermi im idle so viel Strom verbrät ist schon sehr unwahrscheinlich, selbst im schlimmsten Fall mit "nur" Takt- und Spannungsänderung sollte es wohl kaum über 70W sein.
100W idle? Sorry, manche Leute glauben aber auch jeden Müll.
Woher willst du das wissen?
70W...100W halte ich für nicht unwahrscheinlich. Wer sich sowas in einen Rechner einbaut der nicht 100% nur zum Spielen (oder Benchmarken lol...) verwendet wird hat was an der Rübe.
Black-Scorpion
2010-03-21, 23:08:24
Woher willst du das wissen?
Anderen die Frage zu stellen würde ja noch Sinn machen.
Aber einem Redakteur der PCGH sicher nicht. :rolleyes:
Hm, zeigt sich denn bei FC2 nur die 8xMSAA Schwäche der GTX200 aus irgendeinem Grund weniger stark, bzw. wird die Radeon evtl. bei diesem Spiel durch einen anderen Faktor über Gebühr ausgebremst?
Farcry2 hat viele Dreiecke. Daraus folgt mal, dass MSAA mehr Performance kostest und man wohl zumindest teilweise Tri-Setup-Limitiert ist.
Erstes sollte mal die 8xAA-Schwäche der alten NV-Riege etwas kaschieren und damit näher mit den ATI-Karten zusammenrücken lassen.
Zweites bringt natürlich Fermi entgegenkommen.
Leerlaufstromaufnahme sollte bei einem Fermi angemessenen System ohne Grafikkarte wohl in die Richtung 120-150W gehen. Dass Fermi im idle so viel Strom verbrät ist schon sehr unwahrscheinlich, selbst im schlimmsten Fall mit "nur" Takt- und Spannungsänderung sollte es wohl kaum über 70W sein.
Ein P55 System mit sparsamen Komponenten ohne Grafikkarte liegt bei ca 50 Watt. Dazu noch der Monitor, da kann es stark schwanken.
LovesuckZ
2010-03-21, 23:10:58
70W...100W halte ich für nicht unwahrscheinlich.
Klar. Weil's Nvidia ist, oder? :rolleyes:
70 Watt verbrauchte eine 8800GTX ohne irgendwelche Spielchen. Die Zeiten sind längst vorbei, dass High-End über keine Profile verfügt.
y33H@
2010-03-21, 23:11:04
100W wäre mehr als die 80W einer 8800 Ultra ... das nur mal am Rande.
Wenn NV ernsthaft heute so etwas auf den Markt entlässt, dann kann man nur still in einer dunklen Ecke weinen.
urfaust
2010-03-21, 23:11:13
Anderen die Frage zu stellen würde ja noch Sinn machen.
Aber einem Redakteur der PCGH sicher nicht. :rolleyes:
vielleicht wollte der ?Gast? die Insider einfach nur aus der Reserve locken :wink:
master_blaster
2010-03-21, 23:11:32
Woher willst du das wissen?
Weil er die Karte in der PCGH-Redaktion testen kann!?
Vllt. meint er auch, das 100W maßlos untertrieben ist, :freak:.
y33H@
2010-03-21, 23:12:49
Ein P55 System mit sparsamen Komponenten ohne Grafikkarte liegt bei ca 50 Watt.Stimmt, meins auch ;D
AwesomeSauce
2010-03-21, 23:13:06
Char-Lie hat wohl wirklich den GF104-Tapeout "verpasst", wenn sogar neliz schreibt:
GF104 will be on the market before GF108, in fact it taped out some time ago.
(Zitat wurde vor kurzem um fett gedrucktes ergänzt)
http://forum.beyond3d.com/showpost.php?p=1410702&postcount=4266
Dural
2010-03-21, 23:13:46
der verpasst nichts, sondern schreibt immer nur schön ab was er so melden soll ;)
es ist ja langsam echt nicht mehr auszuhalten...
bin nächsten freitag wieder online :freak:
Ein P55 System mit sparsamen Komponenten ohne Grafikkarte liegt bei ca 50 Watt. Dazu noch der Monitor, da kann es stark schwanken.
Ich schrieb einen Fermi-angemessenen System, das ist kein P55 mit sparsamen Komponenten, sondern ein entsprechendes X58-System, das alleine schon mindestens 100W im idle braucht, inklusive mindestens einem 24"-Monitor, wofür wir mindestens 50W rechnen können.
Weil er die Karte in der PCGH-Redaktion testen kann!?
Das soll er mal schön selber beantworten warum, wieso, weshalb er meint 100 W wären nicht möglich. Dich habe ich gar nicht gefragt.
Stimmt, meins auch ;D
Mit deinem X58 never, träum weiter.
Klar. Weil's Nvidia ist, oder? :rolleyes:
70 Watt verbrauchte eine 8800GTX ohne irgendwelche Spielchen. Die Zeiten sind längst vorbei, dass High-End über keine Profile verfügt.
G80-Verhältnisse halte ich nicht unbedingt für unwahrscheinlich gerade aus dem Grund, dass G80 gezeigt hat, dass NV eine neue Architektur erstmals ohne (großartige) Sparmechanismen einführt.
Auch NV40 war ein Erstling einer neuen Architektur und für damalige Verhältnisse im Idle ein ziemlicher Stromfresser. Behoben wurde das ganze dann mit G70 (oder war es erst G71?)
y33H@
2010-03-21, 23:18:16
@ Gast
Äh, er möge in meine Signatur klicken :ugly:
Der X58 ist lange weg und wird wohl auch trotz Gulftown noch in der Virtrine bleiben.
AwesomeSauce
2010-03-21, 23:26:39
der verpasst nichts, sondern schreibt immer nur schön ab was er so melden soll
Deswegen das "verpasst" auch in Anführungszeichen;)
y33H@
2010-03-21, 23:29:52
@ master_blaster
Work in progress =) Was irgend möglich ist, wird 'türlich gemacht.
y33H@
2010-03-21, 23:36:00
@ Gast
Und ich werf jetzt mal munter 7 Watt in die Waagschale ... man ey.
Mayk-Freak
2010-03-21, 23:39:07
Ein P55 System mit sparsamen Komponenten ohne Grafikkarte liegt bei ca 50 Watt. Dazu noch der Monitor, da kann es stark schwanken.
Da er Vantage Extreme (1920x1200) gebencht hat müßte er einen 24 Zoll Moni oder größer haben und dann kann man mit min. 50 Watt rechnen.
Das mit dem Schalter macht gerade auf allen Chinesischen Sites die Runde.
@ Gast
Und ich werf jetzt mal munter 7 Watt in die Waagschale ... man ey.
Dann verbraucht Fermi keine 55W Idle wenn ich zwischen die Zeilen lese. Wir arbeiten uns langsam vor. Ich werfe noch einen Wert in den Raum
GTX 480: 40 Watt
Dein Kommentar?
y33H@
2010-03-21, 23:43:15
@ Gast #1
Link und so bitte.
@ Gast #2
Dein Kommentar?Kein Kommentar. Kein Bock auf lustiges Werte würfeln.
Char-Lie hat wohl wirklich den GF104-Tapeout "verpasst", wenn sogar neliz schreibt:
(Zitat wurde vor kurzem um fett gedrucktes ergänzt)
http://forum.beyond3d.com/showpost.php?p=1410702&postcount=4266
neliz arbeitet bei nvidia, oder?
mapel110
2010-03-21, 23:45:23
neliz arbeitet bei nvidia, oder?
Eher ATI. ;D
AwesomeSauce
2010-03-21, 23:45:26
neliz arbeitet bei nvidia, oder?
neliz? Um Himmels Willen nein:freak: Ausser Charly ist CEO von Nvidia;D
BTW: 23 Seiten an einem Tag, Wahnsinn:)
Dimon
2010-03-21, 23:46:36
Dann verbraucht Fermi keine 55W Idle wenn ich zwischen die Zeilen lese. Wir arbeiten uns langsam vor. Ich werfe noch einen Wert in den Raum
GTX 480: 40 Watt
Dein Kommentar?
5 Watt :ucrazy2:
Lass es einfach sein...
Jetzt Interessiert mich nur ob das teil wirklich so viel unter Last braucht :biggrin:
100W wäre mehr als die 80W einer 8800 Ultra ... das nur mal am Rande.
Wenn NV ernsthaft heute so etwas auf den Markt entlässt, dann kann man nur still in einer dunklen Ecke weinen.
Oder NVIDIA sagt sich,das die Gamer sich eh nicht für die Stromaufnahme interessieren und hauptsache PhysX und Cuda an Board ist.
So nach dem Motto, ob der Ferrari 15 oder 17 Liter auf 100km Verbraucht, juckt doch den Fahrer nicht, also kann er auch 18 Liter verbrauchen :D
y33H@
2010-03-21, 23:57:14
Was ist DER "Gamer"?
=Floi=
2010-03-21, 23:57:55
unter last sicherlich. ich denke da würden die 480er käufer lieber die karte vor der 5970er sehen wollen und dafür auch ~50watt mehr verbrauch in kauf nehmen.
Kalmar
2010-03-21, 23:58:54
ich hoffe es werden auch ein paar mmos getestet, das spielen ja immerhin ne menge Leute klar das die Balken da auch verdammt lang sind aber wäre schön zu wissen wie es in z.b. wow ausschaut
ansonsten des wetter wird schön, nen bisschen raus gehen, dann ist die woche schneller um als man denkt :-)
ich hoffe es werden auch ein paar mmos getestet, das spielen ja immerhin ne menge Leute klar das die Balken da auch verdammt lang sind aber wäre schön zu wissen wie es in z.b. wow ausschaut
ansonsten des wetter wird schön, nen bisschen raus gehen, dann ist die woche schneller um als man denkt :-)
Nene, Heaven Benchmark ist viel wichtiger als solche MMO wie HDRO oder WOW :D
AwesomeSauce
2010-03-22, 00:03:27
Wenn Heaven zeigt, wie die Zukunft aussehen könnte, dann auf jeden Fall:P
Nur in FC2. Zumindest im Vergleich zu den GTX200.
FC2 macht soweit ich weiß Custom-Downsampling wegen Deferred Rendering.
Da haben die GeForces wohl einen Vorteil weil sie einzelne Werte schneller laden können.
y33H@
2010-03-22, 00:10:14
Ich meinte, das hing (auch) mit dem MSAA-Depth-Buffer @ DX10 zusammen. Bei den Radeons via DX10.1 und bei den Geforces per Extention unter DX10. Wie genau das war, hab ich aber gerade nicht parat.
|MatMan|
2010-03-22, 01:08:59
ich hoffe es werden auch ein paar mmos getestet, das spielen ja immerhin ne menge Leute klar das die Balken da auch verdammt lang sind aber wäre schön zu wissen wie es in z.b. wow ausschaut
WoW an sich ist ja reichlich unspannend, aber ein Test von WoW mit Ambient Occlusion wäre wirklich interessant (das findet man leider praktisch gar nicht). Meine GTX280/285 packt das in 1920x1200 leider schon nicht mehr ganz flüssig, erst recht nicht mit AA ;(
ein WoW benchmark mit eurem hässlichen gnom dk wäre wirklich toll @ pcgh :)
Tesseract
2010-03-22, 01:51:33
ich hoffe es werden auch ein paar mmos getestet, das spielen ja immerhin ne menge Leute klar das die Balken da auch verdammt lang sind aber wäre schön zu wissen wie es in z.b. wow ausschaut
mmos haben eine total schwankende belastung. die balken sind nur dann lang, wenn du alleine irgendwo in der pampa stehst. mit 25+ leuten kann wärend einem encounter wo viel los ist der balken durchaus auch mal von 100+ auf 10 fps runter gehen. insofern ist das also schon sehr relevant.
hm bei mehreren Personen hängt es dann aber mehr von der CPU ab als von der Graka soweit ich weiß...
AwesomeSauce
2010-03-22, 02:05:00
Gibts schon irgendwelche Infos zu eventuell gebundelten Games für GT4XX? Metro 2033 wär cool, müsste dann nicht extra gekauft werden.
Tesseract
2010-03-22, 02:08:42
hm bei mehreren Personen hängt es dann aber mehr von der CPU ab als von der Graka soweit ich weiß...
jein. das was wirklich performance kostet sind die ganzen halbtransparenten partikeleffete und solche dinge und die fressen die graka einfach auf.
DrFreaK666
2010-03-22, 05:32:37
Wenn Heaven zeigt, wie die Zukunft aussehen könnte, dann auf jeden Fall:P
Heaven nutzt keine Physik und keine KI.
Das ist antürlich sehr aussagekräftig.
Das ist ein GPU-Benchmark, mehr nicht.
Sind eigentlich Spiele mit der Engine angekündigt?
Das hier ist wohl das einzige halbwegs ernstzunehmende:
http://www.youtube.com/watch?v=yFwkdewdviE
Aber das Problem hatte ja selbst Crytek mit der CryEngine 2. Niemand hat es bisher erfolgreich verwendet, also setzt man lieber auf bewährte Technologie.
DrFreaK666
2010-03-22, 06:08:21
Das hier ist wohl das einzige halbwegs ernstzunehmende:
http://www.youtube.com/watch?v=yFwkdewdviE
Aber das Problem hatte ja selbst Crytek mit der CryEngine 2. Niemand hat es bisher erfolgreich verwendet, also setzt man lieber auf bewährte Technologie.
Wieso nutzt das niemand als Benchmark.
Das sieht imho genial aus :eek:
Amboss
2010-03-22, 06:51:38
Farcry2 hat viele Dreiecke. Daraus folgt mal, dass MSAA mehr Performance kostest und man wohl zumindest teilweise Tri-Setup-Limitiert ist.
Oh mein Gott! Ständig dieses Far-Cryen, dabei ist dieses Game das letzte Stück Schrott das ich meinem Rechner antun würde. Far Cry 2 ist für die Tonne, oder wollen wir jetzt auch noch anfangen darüber zu schreiben, wie gut der Fermi im Landwirtschaftsimulator Teil 6,5 abschneidet?
Oh mein Gott! Ständig dieses Far-Cryen, dabei ist dieses Game das letzte Stück Schrott das ich meinem Rechner antun würde. Far Cry 2 ist für die Tonne, oder wollen wir jetzt auch noch anfangen darüber zu schreiben, wie gut der Fermi im Landwirtschaftsimulator Teil 6,5 abschneidet?
:ulove3:
nvidia postuliert ja eine speed von ca. 1,5 - 2x 285er leistung. auf metro 2033 umgelegt würde das im besten fall bedeutetn, dass die 480er bei einer 1920er aufösung nur etwa 12% vor der 5870er liegen würde (laut pcgh bench http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2) ... und das noch ohne 10.3a.
sorry, vertippt, ich meinte natürlich 20% vor einer 5870
Ailuros
2010-03-22, 08:23:34
Ich wuerde mir ueber Metro2033 keine Sorgen machen eher das Gegenteil. Sonst generell von dem was ich links und rechts sammeln kann eher gemischte Gefuehle, als irgend etwas dass man als Begeisterung bezeichnen koennte.
Ich hab noch einige Vorbehaltungen; eine kritische Zusammenfassung der ganzen Geschichte nach den ersten reviews.
Dafür sagt sogar Neliz, dass GF104 schon lange sein Tape-Out hatte, und der Chip ist wesentlich relevanter für den Erfolg der Fermi-Familie und für AMD.
Ailuros
2010-03-22, 08:34:22
Dafür sagt sogar Neliz, dass GF104 schon lange sein Tape-Out hatte, und der Chip ist wesentlich relevanter für den Erfolg der Fermi-Familie und für AMD.
Bleibt die Frage wie das tape out genau aussah und ob sie ihre Ziele fuer 104 auch einhalten koennen. Von den euphorischen ersten Daten nach dem GF100 tape out sehe ich heute auch nicht besonders viel.
Ich wuerde mir ueber Metro2033 keine Sorgen machen eher das Gegenteil. Sonst generell von dem was ich links und rechts sammeln kann eher gemischte Gefuehle, als irgend etwas dass man als Begeisterung bezeichnen koennte.
Ich hab noch einige Vorbehaltungen; eine kritische Zusammenfassung der ganzen Geschichte nach den ersten reviews.
Ich habe es befürchtet, es scheinen sich auch so einige Schwachstellen heraus zu kristallisieren. Darunter der Stromverbrauch speziell unter idle, die sehr durchwachsenen Leistung, kein SGSSAA. Eine schnelle 8xMSAA Leistung kann mich da kaum überzeugen und nur auf Tesslation zu setzen ist zu wenig.
Dafür sagt sogar Neliz, dass GF104 schon lange sein Tape-Out hatte, und der Chip ist wesentlich relevanter für den Erfolg der Fermi-Familie und für AMD.
Sehe ich nicht so. Ein halber Fermi ist mir viel zu langsam wenn die GTX480 nur knapp über 5870 liegt. Damit erreicht man wohl max. 5830-Niveau.
Bleibt die Frage wie das tape out genau aussah und ob sie ihre Ziele fuer 104 auch einhalten koennen. Von den euphorischen ersten Daten nach dem GF100 tape out sehe ich heute auch nicht besonders viel.
Euphorie ist bei Fermi und dem 40nm Prozess bei TSMC sowieso nicht angesagt. Von der Marktposition hingegen ist ein guter GF104 imho eine spitzere Waffe als GF100. Der wohl eher am unteren Ende der realistischen Erwartungen gelandet ist.
Sehe ich nicht so. Ein halber Fermi ist mir viel zu langsam wenn die GTX480 nur knapp über 5870 liegt. Damit erreicht man wohl max. 5830-Niveau.
Ich meinte für den Markt und die NV Partner.
Ailuros
2010-03-22, 08:52:10
Ich habe es befürchtet, es scheinen sich auch so einige Schwachstellen heraus zu kristallisieren. Darunter der Stromverbrauch speziell unter idle, die sehr durchwachsenen Leistung, kein SGSSAA. Eine schnelle 8xMSAA Leistung kann mich da kaum überzeugen und nur auf Tesslation zu setzen ist zu wenig.
Sparsed grid SSAA hab ich auch nicht erwartet da ich immer noch den Verdacht habe dass AMD trotz der Erweiterung durch AAA auf alle Texturen (von TSAA) etwas Logik fuer das Ganze dazugegossen hat.
Idle Stromverbrauch hab ich auch nicht im Hinterkopf da ich diesbezueglich noch nichts zuverlaessiges habe und es koennte auch durchaus ein uebler Treiberfurz sein. Und ja zugegeben wenn man >6 Monate als die Konkurrenz antanzt gibt es in solch einem Fall auch keine Entschuldigungen.
Ich lass auch Tessellation zur Seite da heutige Spiele nichts sehenswertes diesbezueglich vorzeigen.
8xMSAA Leistung ist fuer mich nicht mal ein absoluter Pluspunkt; eher die Moeglichkeit TMAA auch auf CSAA verschachteln zu koennen.
Die eigentliche Frage ist ob sich die 480 letztendlich rund um die Uhr von einer 5870 absetzen kann oder ob man doch eher Faelle braucht wo trisetup oder generell Geometrie ein Flaschenhals sein koennte. Und hier muss man trotz allem immer noch unabhaengige reviews mit einer grossen Anzahl an Spielen abwarten um sich entscheiden zu koennen ob der hoehere Preis einer 480 es auch wirklich insgesamt wert ist und ja hier ist die Schlussfolgerung durchaus subjektiv.
Sehe ich nicht so. Ein halber Fermi ist mir viel zu langsam wenn die GTX480 nur knapp über 5870 liegt. Damit erreicht man wohl max. 5830-Niveau.
GF104 ist im strengen Sinn sowieso nicht 1/2 Fermi. Wenn die groesste Variante erstmal tatsaechlich einen 256bit bus hat, dann hat das Ding sogar einen theoretischen Vorteil mit seinen 32 ROPs gegenueber der 470 (wo immer Bandbreite beim 104 nicht limitiert blah blah blah). Alles in allem wenn Infos stimmen dann leicht ueber G92@65nm die area mit einer Zielfrequenz von 1500MHz. Das 'aber' hier ist ob all dieses auch erreicht werden kann unter X Stromverbrauch-Ziel.
Nicht jeder Käufer wildert im HighEnd Segment,ich persönlich warte auf eine effiziente DX11 Karte auf Niveau der GTX260/275 um meine 9800GTX+ zu ersetzen.Wenn NV die nicht bringt wird halt doch was rotes gekauft.
Grüße
Ailuros
2010-03-22, 08:58:53
Euphorie ist bei Fermi und dem 40nm Prozess bei TSMC sowieso nicht angesagt. Von der Marktposition hingegen ist ein guter GF104 imho eine spitzere Waffe als GF100. Der wohl eher am unteren Ende der realistischen Erwartungen gelandet ist.
Man kann momentan nicht ausschliessen dass sie Ihr Ziel mit dem 104 trotz allem erreichen werden. Trotz allem sind nach dem GF100-Taktgewarkel Vorbehaltungen durchaus angesagt bis neueres aufliegt.
Ja wenn alles hinhaut wie projeziert bei 104 dann wird es tatsaechlich die eigentliche Rettungsplanke der GF10x Familie sein.
Nicht jeder Käufer wildert im HighEnd Segment,ich persönlich warte auf eine effiziente DX11 Karte auf Niveau der GTX260/275 um meine 9800GTX+ zu ersetzen.Wenn NV die nicht bringt wird halt doch was rotes gekauft.
Grüße
das lohnt dann aber nicht die GTX260 ist nicht soviel schneller als die 9800GTX+ zumindest so das es da einen Wechsel rechtfertigen würde..und DX11 ist naja imho kein Grund denn dann könntest du auch die 5770 nehmen....
der erfolg oder misserfolg eines "pseudo" halben fermis in Form des G104 hängt da eher an der Taktrate bzw. evtl. wie hoch man die prügeln könnte
ein "halber" fermi mit GTX470 takt wäre wohl nicht so der Bringer...ein halber fermi mit 800mhz baseclock und 1600-1800 shader clock wäre dagegen schon ein guter Kandidat fürs beliebte Performancesegment
Armaq
2010-03-22, 09:19:53
Aber ATI bedient doch Performance mit der HD 5850/70? Insofern der Markt mal wieder funktioniert, sollte das doch das Ziel sein. Mit einem schwachen GF100 haben wir alle nun die Arschkarte, weil ATI ihre ehemalige Performance-Karte knapp hinter Nvidia HighEnd ansiedeln kann.
RoNsOn Xs
2010-03-22, 09:20:44
Wenn 5870/50 nicht single-highend sein soll, weiß ich auch nicht..
LovesuckZ
2010-03-22, 09:23:06
Aber ATI bedient doch Performance mit der HD 5850/70? Insofern der Markt mal wieder funktioniert, sollte das doch das Ziel sein. Mit einem schwachen GF100 haben wir alle nun die Arschkarte, weil ATI ihre ehemalige Performance-Karte knapp hinter Nvidia HighEnd ansiedeln kann.
5870 ist High-End. 334m^2, länger als 10,5", Stromverbrauch von 188 Watt...
Das ist bestimmt nicht Performance.
Hemlock ist nur so eine Art Anormalie. High-End was langsamer als "Performance" sein kann? Das kann per Definition kein High-End sein.
Fairy
2010-03-22, 09:24:37
Wurde hoffentlich noch nicht gepostet: Spezifikationen von GTX 480 und GTX 470 aufgetaucht (http://winfuture.de/news,54317.html)
Nicht jeder Käufer wildert im HighEnd Segment,ich persönlich warte auf eine effiziente DX11 Karte auf Niveau der GTX260/275 um meine 9800GTX+ zu ersetzen.Wenn NV die nicht bringt wird halt doch was rotes gekauft.
Grüße
Gibt es schon und heißt 5770. Siehe: http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2
Gruß
Armaq
2010-03-22, 09:26:25
5870 ist High-End. 334m^2, länger als 10,5", Stromverbrauch von 188 Watt...
Das ist bestimmt nicht Performance.
Hemlock ist nur so eine Art Anormalie. High-End was langsamer als "Performance" sein kann? Das kann per Definition kein High-End sein.
ATI selbst hat dazu aber gesagt, dass sie kein HighEnd mehr produzieren möchten. Ich gehe da sogar mit, denn wenn Nvidia die Prognose GTX280 x 2 eingehalten hätte, wären wir von der Staffelung korrekt.
Nakai@Gast
2010-03-22, 09:33:27
Performance und Preis definieren Highend. Chipgröße ist unwichtig.
Im Vergleich zu NV ist RV870 nur ein Performancechip...wenn Fermi kaum schneller ist als Cypress, dann wäre er auch nur ein Performancechip, obwohl er als HighEnd definiert war.
mfg
Da ich mit NV bis jetzt immer sehr gute Erfahrungen gemacht habe würde ich diese auch bevorzugen und so ganz problemlos scheint die 5770 nicht zu laufen.
Wie AMD/NV ihre GPUs intern einstufen ist doch vollkommen egal. Ich beurteile GPUs nach Real World Performance und dementsprechend folgt dann meine persönliche Einteilung ob HighEnd oder nicht.
mboeller
2010-03-22, 09:49:39
http://www.hardwareluxx.de/community/14248999-post364.html
Die 7527 Extreme-Marks der GTX470 passen ja sehr gut zu den Benchmarks die Heise auf der Cebit abgestaubt hat. Zumindest die Vantage-Werte könnten also passen.
http://www.heise.de/newsticker/meldung/Nvidias-Fermi-Leistung-der-GeForce-GTX-470-enthuellt-946411.html
Wie AMD/NV ihre GPUs intern einstufen ist doch vollkommen egal. Ich beurteile GPUs nach Real World Performance und dementsprechend folgt dann meine persönliche Einteilung ob HighEnd oder nicht.
Ist doch umso besser, wenn ein Chip, der eigentlich (so wirds zumindest kommuniziert) aufs Performance-Segment zielt, dann dem HighEnd-Chip der Konkurrenz doch dicht auf die Pelle rückt ;-)
G!ZMo
2010-03-22, 10:02:48
Wurde hoffentlich noch nicht gepostet: Spezifikationen von GTX 480 und GTX 470 aufgetaucht (http://winfuture.de/news,54317.html)
Asbach Uralt...:freak:
Die 7527 Extreme-Marks der GTX470 passen ja sehr gut zu den Benchmarks die Heise auf der Cebit abgestaubt hat. Zumindest die Vantage-Werte könnten also passen.
http://www.heise.de/newsticker/meldung/Nvidias-Fermi-Leistung-der-GeForce-GTX-470-enthuellt-946411.html
und somit ist meine 930/1330 getaktete 5870er mit den 10.3a treibern beim vantage xtream eine idee schneller als die 480er.
urfaust
2010-03-22, 10:19:18
http://www.heise.de/newsticker/meldung/Nvidias-Fermi-Leistung-der-GeForce-GTX-470-enthuellt-946411.html[/url]
In der Performance-Voreinstellung zeigt sich ein ähnliches Bild, jedoch liegt die Radeon HD 5870 (17303) nur noch leicht vor der GeForce GTX 470 (17156). Eine Radeon HD 5850 erreichte 14300 Punkte.
hier wurde wohl PhysX aktiviert?
Tarkin
2010-03-22, 10:20:47
und somit ist meine 930/1330 getaktete 5870er mit den 10.3a treibern beim vantage xtream eine idee schneller als die 480er.
und ohne PhysX ;)
die 5850er Werte sind btw BS. mit 10.3 hat die nämlich ca. 7.200 Punkte
"Die Leistungsaufnahme unter Last ist wie von vielen spekuliert sehr hoch, dürfte aber zumindest Gamer deutlich weniger stören als die Leistungsaufnahme im 2D Betrieb - letztere ist höher als die Leerlaufleistungsaufnahme des gesamten Testsystems inkl. Monitor (aber ohne Grafikkarte)."
:crazy2: :|
urfaust
2010-03-22, 10:36:29
"Die Leistungsaufnahme unter Last ist wie von vielen spekuliert sehr hoch, dürfte aber zumindest Gamer deutlich weniger stören als die Leistungsaufnahme im 2D Betrieb - letztere ist höher als die Leerlaufleistungsaufnahme des gesamten Testsystems inkl. Monitor (aber ohne Grafikkarte)."
http://www.all2all.org/files/images/fuji_logo_greenit_4c_kopie_lo.jpg
;D
grafzahl
2010-03-22, 10:39:07
Der Verbrauch Idle liegt knapp unter einer 295GTX , so da habt ihr Futter :D
TheBrother
2010-03-22, 10:39:07
GreenIT != Highend
Formel1 hat auch keine Solar Betriebenen Autos.
Gruß
Brother
Der Verbrauch Idle liegt knapp unter einer 295GTX , so da habt ihr Futter :D
Und die GTX295 liegt an der Spitze: ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/21/#abschnitt_leistungsaufnahme
Und die GTX295 liegt an der Spitze: ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/21/#abschnitt_leistungsaufnahme
ICh würde ja sagen dann wäre die Leistungsaufnahme mit einer 5970 vergleichbar, aber hat AMD nicht einen neuen Idle Mode für die 5970 rausgebracht?
Ronny145
2010-03-22, 10:47:30
Der Verbrauch Idle liegt knapp unter einer 295GTX , so da habt ihr Futter :D
Nur ein Scherz oder?
GTX 295 liegt bei über 70 W bei xbitlabs: http://www.xbitlabs.com/articles/video/display/inno3d-geforce-gtx295-platinum_5.html#sect0
Tarkin
2010-03-22, 10:48:08
ICh würde ja sagen dann wäre die Leistungsaufnahme mit einer 5970 vergleichbar, aber hat AMD nicht einen neuen Idle Mode für die 5970 rausgebracht?
5970 = 40W im Idle
480 wohl eher bei ~ 70W
Aber ATI bedient doch Performance mit der HD 5850/70? Insofern der Markt mal wieder funktioniert, sollte das doch das Ziel sein. Mit einem schwachen GF100 haben wir alle nun die Arschkarte, weil ATI ihre ehemalige Performance-Karte knapp hinter Nvidia HighEnd ansiedeln kann.
ja die bedienen leistungstechnisch in bezug auf die letzte generation mit 5850 performance und 5870 oberes performance/unteres highend aber preislich aufgrund der umstände (fermi verzügerung, knappe verfügbarkeit, evtl. fermi lahmer als gedacht etc. pp) eben nicht
und insofern hast du recht schlecht ist das für alle, sei es der p/l käufer ati fanboys oder nv fanboys oder enthusiast käufer
Der Verbrauch Idle liegt knapp unter einer 295GTX , so da habt ihr Futter :D
das wären 70 Watt glaub ich so nicht, zwar nicht ausgeschlossen aber zweifel ich definitiv an solang keine review messungen öffentlich vorliegen
dildo4u
2010-03-22, 10:58:17
das wären 70 Watt glaub ich so nicht, zwar nicht ausgeschlossen aber zweifel ich definitiv an solang keine review messungen öffentlich vorliegen
Ich schätze mal Treiber ohne 2D Profil oder Aero spackt und lässt die Karte im Windows im 3D Modus laufen.Naja die Meisten haben an einem solchen PC eh mher als 1 TFT deshalb sind auch die ganzen tollen Radeon Werte fürn Arsch.
Fasst man die Gerüchte von verschiedenen Quellen zusammen so liegt der idle Verbrauch über der GTX 280 und unter der GTX 295. Das sollten dann etwa 50-70 Watt sein. Ich frage mich da dann auch, wie laut die Karte ist, wenn sich das wirklich bewahrheiten sollte.
Ailuros
2010-03-22, 10:59:11
Meidet bitte wenn moeglich mehrfache Posts hintereinander.
mboeller
2010-03-22, 11:03:12
auf Beyond3D hat mao5 auch ein chart mit der GTX470 und GTX480 Leistung geleakt.
Es handelt sich anscheinend um eine Summe aller einzelnen Benchmarkwerte (zumindest habe ich es so verstanden):
Link: http://forum.beyond3d.com/showpost.php?p=1410838&postcount=4286
http://bbs.pczilla.net/attachments/month_1003/10032217007ff36decd61398ab.png
Editieren als Gast geht leider nicht ;)
Neues Futter aus Asien:
http://forum.beyond3d.com/showpost.php?p=1410838&postcount=4286
Amboss
2010-03-22, 11:03:55
Ich hab alles richtig gemacht, Sapphire 5850 + Dirt 2 im November über Amazon für 219 EUR inkl. Versand :biggrin:
Na ja, und so wie es ausschaut wird der Fermi wohl kein Perfomance Wunder, dafür wird der Preis/Stromverbrauch zu hoch sein und die (Mehr-)Leistung viel zu gering, um diesen Preis zu rechtfertigen. NV kann preislich mit AMD gar nicht konkurieren, dafür sorgt alleine schon die deutlich größere GPU, aufwändigere Stromversorgung und Kühlung.
Mal sehen ob die kleinen Fermis etwas reißen können?
grafzahl
2010-03-22, 11:06:05
Der Verbrauch ist leider kein Witz auch wenn es sich hier manche so wünschen würden und ein CF System mit aktuellen ATI Treiber seit 10.2 liegt deutlich unter dem einer 480GTX.
Fällt das schon unter die NDA wenn Grafzahl sowas sagt. Der sitzt wohl an der Quelle :D
James Ryan
2010-03-22, 11:13:59
Fällt das schon unter die NDA wenn Grafzahl sowas sagt. Der sitzt wohl an der Quelle :D
Grafzahl = Tester von Hardwareluxx, AFAIR.
MfG :cool:
urfaust
2010-03-22, 11:16:10
immerhin kann sich Odal an dem "ästhetischen" Kühler aufgeilen,
das ist schon mal viel wert, das ist die halbe Miete ;D
_DrillSarge]I[
2010-03-22, 11:16:28
auf Beyond3D hat mao5 auch ein chart mit der GTX470 und GTX480 Leistung geleakt.
Es handelt sich anscheinend um eine Summe aller einzelnen Benchmarkwerte (zumindest habe ich es so verstanden):
Link: http://forum.beyond3d.com/showpost.php?p=1410838&postcount=4286
http://bbs.pczilla.net/attachments/month_1003/10032217007ff36decd61398ab.png
ich hoffe mal ganz stark, dass dies ein fake ist. sonst: epic epic fail ...
grafzahl
2010-03-22, 11:18:42
Grafzahl = Tester von Hardwareluxx, AFAIR.
MfG :cool:
Ich denke nicht :rolleyes:
MiamiNice
2010-03-22, 11:20:23
Irgendwie scheinen sich ja die Informationen zu verdichten. Beim lesen der ganzen Links und Informationen die mittlerweile im Netz zu finden sind zum Fermi muss ich mich immer wieder eins fragen.
Wen das Ding wirklich so schlecht ist (kaum mehr Leistung, mehr Stromverbrauch als Dual GPU Karte des Konkurenten, hoher Idle Stromverbrauch etc.) warum bringt NV diese Karte noch auf den Markt?
Der Ruf ist eh angeschlagen wegen der langen Verzögerung. Die ganze verschwingenheits Politik seitens NV in letzter Zeit lässt die Spannung doch nur noch zusätzlich steigen. Und dann kommt so ein Rohrkrepierer???
Selbst ich (ich kaufe seit eh und je nur NV wen es um Grakas geht, seit Geforce2) würde mir ernsthaft überlegen ob ich mir nicht 2 5870ér kaufe am 6. April.
Sry Leuts irgendwas ist furchtbar faul. Das kann ich mir alles so nicht vorstellen...
Tarkin
2010-03-22, 11:24:40
auf Beyond3D hat mao5 auch ein chart mit der GTX470 und GTX480 Leistung geleakt.
Es handelt sich anscheinend um eine Summe aller einzelnen Benchmarkwerte (zumindest habe ich es so verstanden):
Link: http://forum.beyond3d.com/showpost.php?p=1410838&postcount=4286
http://bbs.pczilla.net/attachments/month_1003/10032217007ff36decd61398ab.png
hab das mal kurz abgemessen...
70mm (5850) zu 73mm (470) - ergo ~ +5%
und
83mm (5870) zu 88mm (480) - sind ~ +6%
5980 ist mit 120mm ca. 45% schneller als 5870 - was SEHR gut hinkommt.
Hat Charlie am Ende doch recht gehabt? ;)
dildo4u
2010-03-22, 11:26:06
hab das mal kurz abgemessen...
70mm (5850) zu 73mm (470) - ergo ~ +5%
und
83mm (5870) zu 88mm (480) - sind ~ +6%
5980 ist mit 120mm ca. 45% schneller als 5870 - was SEHR gut hinkommt.
Charlie wird doch am Ende nicht recht gehabt haben? ;)
Grafzahl hat schon geleakt das es mher als 10% sind 5870-> 480.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7918094&postcount=16747
Irgendwie scheinen sich ja die Informationen zu verdichten. Beim lesen der ganzen Links und Informationen die mittlerweile im Netz zu finden sind zum Fermi muss ich mich immer wieder eins fragen.
Wen das Ding wirklich so schlecht ist (kaum mehr Leistung, mehr Stromverbrauch als Dual GPU Karte des Konkurenten, hoher Idle Stromverbrauch etc.) warum bringt NV diese Karte noch auf den Markt?
Der Ruf ist eh angeschlagen wegen der langen Verzögerung. Die ganze verschwingenheits Politik seitens NV in letzter Zeit lässt die Spannung doch nur noch zusätzlich steigen. Und dann kommt so ein Rohrkrepierer???
Selbst ich (ich kaufe seit eh und je nur NV wen es um Grakas geht, seit Geforce2) würde mir ernsthaft überlegen ob ich mir nicht 2 5870ér kaufe am 6. April.
Sry Leuts irgendwas ist furchtbar faul. Das kann ich mir alles so nicht vorstellen...
Wart mal ab bis hier die NV FB Fraktion Fahrt aufnimmt, dann kommen so Argumente wie "ist auf zukünftige Spiele ausgelegt usw".
Nur gab es das gleiche Argumentations-Schema schon mal zum NV30 bzw. R600...
LovesuckZ
2010-03-22, 11:32:59
Nur gab es das gleiche Argumentations-Schema schon mal zum NV30 bzw. R600...
r600 war nie für zukünftige Spiele ausgelegt. ;D
8800GTX hatte mit der MUL eine ähnlich hohe Rechenleistung. r600 wäre also im Best-Case ähnlich schnell wie die 8800GTX.
Bei GF100 sollte man einfach abwarten. Der hohe IDLE-verbrauch kann durch Probleme mit der 3D Oberfläche hervorgerufen werden. Das gibt es auch bei den GT200 Karten. Manche reviews zeigen hier auch eine gleichhohe Stromaufnahme wie bei der 4870.
Und ich freu mich auf Metro2033 und Tessellation: Hier wird sich zeigen, ob GF100 für die Zukunft gebaut ist.
Hat Charlie am Ende doch recht gehabt? ;)
Womit?
Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.
When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.
R870 should pummel it in DX10/DX11 performance, but if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. ... It won't come close to R870 in graphics performance,
AnarchX
2010-03-22, 11:35:10
Wen das Ding wirklich so schlecht ist (kaum mehr Leistung, mehr Stromverbrauch als Dual GPU Karte des Konkurenten, hoher Idle Stromverbrauch etc.) warum bringt NV diese Karte noch auf den Markt?
Auch mit diesen negativen Eigenschaften wird GTX 400 konkurrenzfähig zu den HD5800 sein, sodass kein Grund besteht nicht mit A3 auf den Markt zu gehen.
Selbst NV30 und R600 schafften es auf den Markt, wo deutlich bessere Nachfolger (NV35 mit 256-Bit und besseren ALUs, RV670@55nm) nicht weit nach dem Release auf der Roadmap standen, bei GF100 wird es in 6 Monaten wohl nur ein B-Stepping mit 512SPs und minimal mehr Takt geben.
Naja die Meisten haben an einem solchen PC eh mher als 1 TFT deshalb sind auch die ganzen tollen Radeon Werte fürn Arsch.
Dilettantisches Geschwätz. Selbst mit 4 Monitoren ist der Leerlaufverbrauch der ATIs nicht einmal in der Nähe von 70 Watt.
Wobei ich die 70 Watt der 480er nicht glaube. Da würde NV sogar mit Greenpeace Probleme kriegen, so was darf man heutzutage nicht mehr bringen. 35-40 Watt sind da wohl eher zutreffend, wobei auch das keine Glanzleistung wäre, vor allem in Anbetracht der fantastischen ATI Werte.
Warum hast Du eine ATI, wenn du dermaßen NV-Pro bist? Klingt fast schon masochistisch...
Eggcake
2010-03-22, 11:35:59
Naja knapp unter GTX295 - das ist hier (http://www.xbitlabs.com/articles/video/display/inno3d-geforce-gtx295-platinum_5.html#sect0)eine GTX285 auch. Dass man keine Wunder im Verbrauch erwarten kann, das wissen wir ja nun schon seit einiger Zeit - aber leben kann man ja wohl mit dem +/- Verbrauch (im idle) einer GTX285...
Ailuros
2010-03-22, 11:36:05
hab das mal kurz abgemessen...
70mm (5850) zu 73mm (470) - ergo ~ +5%
und
83mm (5870) zu 88mm (480) - sind ~ +6%
5980 ist mit 120mm ca. 45% schneller als 5870 - was SEHR gut hinkommt.
Hat Charlie am Ende doch recht gehabt? ;)
Wobei mao synthetische Tests erwaehnte; wenn es sich nicht um einen durchschnittlichen Spiel-score handelt ist mir die Tabelle total gleichgueltig.
Was soll diese alberne Herummesserei? Nimm als Basis die 4870 (=100) und in dem Ding kommt die 480 um einen Schnitt unter 200 an.
AnarchX
2010-03-22, 11:38:43
Wobei mao synthetische Tests erwaehnte; wenn es sich nicht um einen durchschnittlichen Spiel-score handelt ist mir die Tabelle total gleichgueltig.
Das sieht in der Tat etwas nach Vantage Extreme aus und bei PCZilla kann man annehmen, dass man hier einfach die HWLuxx-Werte mit ein paar anderen ergänzt hat.
...
Und ich freu mich auf Metro2033 und Tessellation: Hier wird sich zeigen, ob GF100 für die Zukunft gebaut ist.
Falsch. Hier wird sich zeigen ob die Anforderungen von Metro2033 dem GF100 besser liegen.
PS: Was auffällt: Deine Potings sind ja schon seit einiger Zeit mit dem Schlagwort "Tessellation" geschwängert. Allmählich scheint es so als würde sich da mittelfristig "Metro" hinzugesellen.
PS 2.: Den grinsende Smile ist wohl auch dazu da um irgendwas zu kaschieren...
_DrillSarge]I[
2010-03-22, 11:39:34
Auch mit diesen negativen Eigenschaften wird GTX 400 konkurrenzfähig zu den HD5800 sein, sodass kein Grund besteht nicht mit A3 auf den Markt zu gehen.
das wird der preis zeigen und da hat ati wesentlich mehr spielraum.
Exxtreme
2010-03-22, 11:40:30
Wie hoch ist der Idle-Verbrauch des Fermis jetzt konkret? Ich hoffe echt nicht 70W oder so. Das entspricht einem richtig fetten Industrielötkolben. :|
Ailuros
2010-03-22, 11:40:54
Das sieht in der Tat etwas nach Vantage Extreme aus und bei PCZilla kann man annehmen, dass man hier einfach die HWLuxx-Werte mit ein paar anderen ergänzt hat.
Angenommen es sind Prozente liegt die 5870/1GB bei ca. 180% und die 5970 bei ca. 270%. Ja die 5970 ist um 90% schneller als die 5870 my a** :rolleyes:
AnarchX
2010-03-22, 11:40:55
Naja knapp unter GTX295 - das ist hier (http://www.xbitlabs.com/articles/video/display/inno3d-geforce-gtx295-platinum_5.html#sect0)eine GTX285 auch. Dass man keine Wunder im Verbrauch erwarten kann, das wissen wir ja nun schon seit einiger Zeit - aber leben kann man ja wohl mit dem +/- Verbrauch (im idle) einer GTX285...
Die Xbit-Labs Messungen sind teilweise seltsam, HT4u und auch andere Seiten messen eher 285 ~ 1/2 GTX 295 @ Idle: http://ht4u.net/reviews/2010/amd_ati_radeon_hd5830_reloaded/index13.php
LovesuckZ
2010-03-22, 11:42:10
Naja knapp unter GTX295 - das ist hier (http://www.xbitlabs.com/articles/video/display/inno3d-geforce-gtx295-platinum_5.html#sect0)eine GTX285 auch. Dass man keine Wunder im Verbrauch erwarten kann, das wissen wir ja nun schon seit einiger Zeit - aber leben kann man ja wohl mit dem +/- Verbrauch einer GTX285...
Danke - denn dieser Link zeigt etwas, was garnicht möglich sein sollte: GTX285 benötigt mehr Strom als die 4890. Wie gesagt: Ohne eine Vielzahl von Reviews, kann es sich auch um ein spezielles Problem des Systems handeln.
Eggcake
2010-03-22, 11:42:12
Achso - ja dann siehts natürlich schon etwas schlechter aus. 60W 285 und 70W 295 wär auch ein gar kleiner Unterschied.
@Luvesuckz
Danke, aber hier geht es ja um Spekulationen - dass eine Meldung noch nicht die Wahrheit ist, ist denke ich allen bewusst ;)
AnarchX
2010-03-22, 11:44:31
Angenommen es sind Prozente liegt die 5870/1GB bei ca. 180% und die 5970 bei ca. 270%. Ja die 5970 ist um 90% schneller als die 5870 my a** :rolleyes:
Zwischen den beiden Karten liegen hier 90 Prozentpunkte, aber schnneller ist die 5970 nur um 50%.
LovesuckZ
2010-03-22, 11:44:53
Falsch. Hier wird sich zeigen ob die Anforderungen von Metro2033 dem GF100 besser liegen.
Metro2033 verwendet sehr stark Tessellation. Tessellation ist die Zukunft.
Und: Tessellation ist Tessellation ist Tessellation.
PS: Was auffällt: Deine Potings sind ja schon seit einiger Zeit mit dem Schlagwort "Tessellation" geschwängert. Allmählich scheint es so als würde sich da mittelfristig "Metro" hinzugesellen.
Es handelt sich hier den Thread zum GF100. Augenmerk des GF100 war Tessellation. Wenn du weder Interesse an GF100 noch an Tessellation hast, ist dieser Thread hier wohl der falsche Disskussionsplatz für dich.
Ronny145
2010-03-22, 11:47:51
Naja knapp unter GTX295 - das ist hier (http://www.xbitlabs.com/articles/video/display/inno3d-geforce-gtx295-platinum_5.html#sect0)eine GTX285 auch. Dass man keine Wunder im Verbrauch erwarten kann, das wissen wir ja nun schon seit einiger Zeit - aber leben kann man ja wohl mit dem +/- Verbrauch (im idle) einer GTX285...
http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx285ssc_5.html#sect0
Variiert selbst je nach xbitlabs review.
_DrillSarge]I[
2010-03-22, 11:48:18
Metro2033 verwendet sehr stark Tessellation. Tessellation ist die Zukunft.
Und: Tessellation ist Tessellation ist Tessellation.
wer sagt denn, dass da nicht irgendwas in der engine (oder noch zu behebendes problem im treiber etc.) verhunzt ist. solange man nicht paar andere games mit tess hat, sagt das genau nix.
Tarkin
2010-03-22, 11:48:18
Angenommen es sind Prozente liegt die 5870/1GB bei ca. 180% und die 5970 bei ca. 270%. Ja die 5970 ist um 90% schneller als die 5870 my a** :rolleyes:
die "Herummesserei" verschafft mir wenigstens Durchblick ... :rolleyes:
(AnarchX war schneller)
Metro2033 verwendet sehr stark Tessellation. Tessellation ist die Zukunft.
Und: Tessellation ist Tessellation ist Tessellation.
Es handelt sich hier den Thread zum GF100. Augenmerk des GF100 war Tessellation. Wenn du weder Interesse an GF100 noch an Tessellation hast, ist dieser Thread hier wohl der falsche Disskussionsplatz für dich.
Ich versuche den GF100 eben auch abseits der kolportierten Tes-Leistung zu bewerten. Dass Du nun ununterbrochen dieses Pferd reitest zeigt mir doch dass Dir nach derzeitige Informationslage die Argumente ausgehen. Selbiges zu Metro.
Eggcake
2010-03-22, 11:49:16
@Ronny
Natürlich, es handelt sich ja auch nicht um dieselbe GTX285.
Edit: Aber egal, ist ja mittlerweile OT und es hat sich geklärt: eine GTX285 verbraucht im idle keine 60W.
Nazar
2010-03-22, 11:49:57
Metro2033 verwendet sehr stark Tessellation. Tessellation ist die Zukunft.
Und: Tessellation ist Tessellation ist Tessellation.
Es handelt sich hier den Thread zum GF100. Augenmerk des GF100 war Tessellation. Wenn du weder Interesse an GF100 noch an Tessellation hast, ist dieser Thread hier wohl der falsche Disskussionsplatz für dich.
Na das ist doch mal eine Aussage!
Alle die nicht Metro2033 spielen werden, können einen weiten Bogen um die Fermi machen.
Love ist doch ein Roter.. ich wusste es ;D
Mr. Lolman
2010-03-22, 11:51:19
Metro2033 verwendet sehr stark Tessellation. Tessellation ist die Zukunft.
Und: Tessellation ist Tessellation ist Tessellation.
Es handelt sich hier den Thread zum GF100. Augenmerk des GF100 war Tessellation. Wenn du weder Interesse an GF100 noch an Tessellation hast, ist dieser Thread hier wohl der falsche Disskussionsplatz für dich.
ROFL. 5 Sätze und 6x Tessellation. ;D
LovesuckZ
2010-03-22, 11:51:19
I[;7920236']wer sagt denn, das da nicht irgendwas in der engine (oder noch zu behebendes problem im treiber etc.) verhunzt ist. solange man nicht paar andere games mit tess hat, sagt das genau nix.
Wir können auch nVidia's DX11 Demos nehmen. Schade, dass AMD selbst keine eigene Tessellationdemo hat. Die "Cloth-Physik-Tessellation" Demo wäre ziemlich gut als Vergleich.
Abgesehen davon gibt es kaum Spiele, die einigermaßen stark Tessellation einsetzen. AVP und Metro2033. Beide sollten in diesem Bezug auch verwendet werden - jedenfalls erwarte ich es.
Ich versuche den GF100 eben auch abseits der kolportierten Tes-Leistung zu bewerten. Dass Du nun ununterbrochen dieses Pferd reitest zeigt mir doch dass Dir nach derzeitige Informationslage die Argumente ausgehen. Selbiges zu Metro.
Jeder, der sich ein bisschen für GPUs interessiert und alle aktuellen Informationen hat, wird genau wissen, wie man GF100 einzuschätzen hat. Da Tessellationgeschwindigkeit primäres Entwicklungsziel war, ist es wohl klar, dass die Karte sich am Ende an ihrer Tessellationgeschwindigkeit messen muss. Das ist aber seit der CES bekannt. Warum also einige im GF100 Thread Tessellation herunterspielen, kann ich nur mit dem typischen AMD-Fanboy-Verdrängungsdrang erklären. Denn dir, lieber Flamegast, wäre aufgefallen, dass ich Pro-Tessellation bin. Aber dazu müsstest du auch alle meine Postings lesen. :D
Ailuros
2010-03-22, 11:52:33
die "Herummesserei" verschafft mir wenigstens Durchblick ... :rolleyes:
(AnarchX war schneller)
Dein Durchblick begrenzt sich sowieso nur auf das was Du herauslesen willst. AnarchX bestaetigte dass genau was ich meinte.
AnarchX
2010-03-22, 11:55:27
I[;7920217']das wird der preis zeigen und da hat ati wesentlich mehr spielraum.
Gegenüber G200vsRV770 liegt der Die-Size-Unterschied aber wohl diesmal nur bei 59% (532vs334mm²), anstatt bei 88% (490vs260mm²). Und da konnte man auch ziemlich gut mithalten.
Im Endeffekt kann man nur als Kunde hoffen, dass die Stückzahlen dann ab dem 2. Quartal bei TSMC besser werden und die Preise sich deutlich nach unten bewegen.
Tarkin
2010-03-22, 11:55:35
Dein Durchblick begrenzt sich sowieso nur auf das was Du herauslesen willst. AnarchX bestaetigte dass genau was ich meinte.
Ich meinte DAS hier:
"Zwischen den beiden Karten liegen hier 90 Prozentpunkte, aber schnneller ist die 5970 nur um 50%. "
Du hast was von 90% sind Blödsinn geschrieben... dann schlage ich vor sieh dir den Chart nochmal GANZ GENAU an.
Aber ich bin ja nur ein dummer Fanboy ...
und selber das primitivste Diagramm nicht verstehen... dieses "oberlehrerhafte" Gehabe kannst du dir sparen! :mad:
Kalmar
2010-03-22, 11:58:49
wenn die idle werte stimmen von grafzahl, dann sollte nv ne kleine pfanne mitliefern für den preis dann kann man sich schön was brutzeln ...
aber es scheint sich das abzuzeichnen was viele "befürchtet" haben nen bissel schneller aber teuer erkauft ..
wenn der 460er chip auf niveau der 5830 liegen sollte bei besserem stromverbrauch usw als die 470 wird das wahrscheinlich wesentlich interessanter sein als die 470
mapel110
2010-03-22, 11:59:48
Bislang gibts noch kein Entsetzen über die Bildqualität zu hören, oder?! Scheinen die TMUs doch gute Arbeit zu machen.
LovesuckZ
2010-03-22, 12:01:46
Bislang gibts noch kein Entsetzen über die Bildqualität zu hören, oder?! Scheinen die TMUs doch gute Arbeit zu machen.
Die einzigen, die sich darüber aufregen würden, wären Computerbase.de und PCGH.de. Und die halten stets die Klappe. ;)
Ailuros
2010-03-22, 12:02:17
Und du bist um keinen Deut besser.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7920214&postcount=17144
Ich meine nämlich DAS hier:
"Zwischen den beiden Karten liegen hier 90 Prozentpunkte, aber schnneller ist die 5970 nur um 50%. "
Im Zusammenhang auch zum obrigen Link ist es eher offensichtlich um was es sich eher handelt. Und selbst die 50% stehen zur Debatte frei.
Aber ich bin ja nur ein dummer Fanboy ...
Mich gehen Deine eigenen Selbstbetitelungen nichts an.
und selber das primitivste Diagramm nicht verstehen... dieses "oberlehrerhafte" Gehabe kannst du dir sparen! :mad:
Na da geht jemand mal wieder die Geduld aus.
Jeder, der sich ein bisschen für GPUs interessiert und alle aktuellen Informationen hat, wird genau wissen, wie man GF100 einzuschätzen hat. Da Tessellationgeschwindigkeit primäres Entwicklungsziel war, ist es wohl klar, dass die Karte sich am Ende an ihrer Tessellationgeschwindigkeit messen muss. Das ist aber seit der CES bekannt. Warum also einige im GF100 Thread Tessellation herunterspielen, kann ich nur mit dem typischen AMD-Fanboy-Verdrängungsdrang erklären. Denn dir, lieber Flamegast, wäre aufgefallen, dass ich Pro-Tessellation bin. Aber dazu müsstest du auch alle meine Postings lesen. :D
Ok, nachmal ganz langsam: Ich versuche den GF100 anhand seiner allgemeinen Leistungsfähigkeit zu bewerten. Was Nvidia als Entwicklungsrichtung ausgegeben hat ist evtl. dein Gradmesser, trotz dessen kein objektiver.
Wie hoch ist der Idle-Verbrauch des Fermis jetzt konkret? Ich hoffe echt nicht 70W oder so. Das entspricht einem richtig fetten Industrielötkolben. :|
Jo, aber einem Lötkolben, der für feine Lötarbeiten für Platinen etc. gemacht ist, ergo ein Witz. Kein Lötkolben, um Kupferrohre u. ä. zu löten.
Die 70 Watt wären jetzt kein Beinbruch, wenn man nicht vorhat, seinen Game-PC jeden Tag 24 h Stunden laufen zu lassen. Annähernd 3 Milliarden Transis fordern halt ihren Tribut.
Und mit Green IT braucht man bei Computerhardware eh nicht kommen. So energieintensiv wie das ist und welche Umweltverschmutzungen bei den billigen Herstellungsbedingungen entstehen - dürfte direkt hinter den PKWs liegen.
Die einzigen, die sich darüber aufregen würden, wären Computerbase.de und PCGH.de. Und die halten stets die Klappe. ;)
Vermutlich haben sie gute Gründe dafür. ;)
MfG,
Raff
Tarkin
2010-03-22, 12:07:13
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7920214&postcount=17144
Im Zusammenhang auch zum obrigen Link ist es eher offensichtlich um was es sich eher handelt. Und selbst die 50% stehen zur Debatte frei.
5970 ist im Vantage Extreme zwischen 45 und 50% schneller als 5870
so wie auch im gesamten Performance Rating von CB z.b.
So oder so ... auch wenn es wirklich nur Vantage Werte sind, sehe ich nicht wie eine 480 plötzlich aus diesem Muster (Gesamtrating ~ Vantage Extreme) ausbrechen sollte.
ROFL. 5 Sätze und 6x Tessellation. ;D
Es ist sogar 7x Tesslation. Man braucht in diesem Thread nur nach Tesslation zu suchen und findet fast nur Posts von LovesuckZ. Er ist wirklich die ultimative Marketingmaschinerie von NV. Hoffentlich gibt es dafür halbwegs eine Gegenleistung, sonst wäre es wirklich traurig.:(
Ailuros
2010-03-22, 12:13:01
5970 ist im Vantage Extreme zwischen 45 und 50% schneller als 5870
so wie auch im gesamten Performance Rating von CB z.b.
So oder so ... auch wenn es wirklich nur Vantage Werte sind, sehe ich nicht wie eine 480 plötzlich aus diesem Muster (Gesamtrating ~ Vantage Extreme) ausbrechen sollte.
Darum geht es nicht im geringsten. Falls die Tabelle eine Sammlung von synthetischen Tests darstellt ist sie mir auch egal (und ja unabhaengig wer der beiden vorne liegt). Ausser Du glaubst ich wuerde eine Tabelle mit synthetischen Tests wo die 480 um beispielsweise 60% schneller ist als die 5870 ernsthaft nehmen wuerde.
immerhin kann sich Odal an dem "ästhetischen" Kühler aufgeilen,
das ist schon mal viel wert, das ist die halbe Miete ;D
es wurde behauptet das der GTX280 kühler so gigantisch gross ist und auf eine enorme abwärme hindeutet...da machte ich lediglich den vergleich mit dem Kühler der 5870 und merkte an das bis auf eine hochwertigere Verarbeitung da keine "Grössenunterschiede" auffallen
Klingone mit Klampfe
2010-03-22, 12:17:36
Bislang gibts noch kein Entsetzen über die Bildqualität zu hören, oder?! Scheinen die TMUs doch gute Arbeit zu machen.
Momentan interessieren sich alle nur für Balken. Ich denke, dass die BQ bei dem Kampf 5870/480GTX keine große Rolle spielen wird. Für die Fachpresse ist die Thematik - zumindest um die Fermi-Veröffentlichung herum - zu irrelevant und die meisten Spieler halten ohnehin nichts von dieser Haarspalterei.
Es ist sogar 7x Tesslation. Man braucht in diesem Thread nur nach Tesslation zu suchen und findet fast nur Posts von LovesuckZ. Er ist wirklich die ultimative Marketingmaschinerie von NV. Hoffentlich gibt es dafür halbwegs eine Gegenleistung, sonst wäre es wirklich traurig.:(
ja der Tesseliert das der Drache im Unigine Bench schon feuer speit.
Nur bringen tut Tesselation in Games bei der jetzigen Generation der Karten 0,0 nix.
Ailuros
2010-03-22, 12:19:41
Momentan interessieren sich alle nur für Balken. Ich denke, dass die BQ bei dem Kampf 5870/480GTX keine große Rolle spielen wird. Für die Fachpresse ist die Thematik - zumindest um die Fermi-Veröffentlichung herum - zu irrelevant und die meisten Spieler halten ohnehin nichts von dieser Haarspalterei.
Keine Sorge ich hab die paar Herren mit denen ich spreche schon aufmerksam darauf gemaucht und sie mit einem meiner Extremfaelle besorgt. Auf ersten Blick gibt es nichts beunruhigendes zu sehen, aber ich will trotzdem abwarten denn manchmal sieht man auch nicht alles auf ersten Blick.
Jo, aber einem Lötkolben, der für feine Lötarbeiten für Platinen etc. gemacht ist, ergo ein Witz. Kein Lötkolben, um Kupferrohre u. ä. zu löten. *lol* Platinen löte ich mit 15 Watt (ungeregelt) oder 30 Watt (geregelt). 70 Watt ist da ne ganze fette Stufe obendrüber.
Die 70 Watt wären jetzt kein Beinbruch, wenn man nicht vorhat, seinen Game-PC jeden Tag 24 h Stunden laufen zu lassen. Annähernd 3 Milliarden Transis fordern halt ihren Tribut.
Mein PC ist "always on", u.A. weil er Fileserver für Netz spielt. Und ja, mir tut idle-Verbrauch deswegen richtig weh. Aber eine zweite Kiste hinstellen kommt trotzdem nicht infrage, da geht meine Frau an die Decke.
Cherry
Darum geht es nicht im geringsten. Falls die Tabelle eine Sammlung von synthetischen Tests darstellt ist sie mir auch egal (und ja unabhaengig wer der beiden vorne liegt). Ausser Du glaubst ich wuerde eine Tabelle mit synthetischen Tests wo die 480 um beispielsweise 60% schneller ist als die 5870 ernsthaft nehmen wuerde.
Hallo Ailuros,
Tarkin und ein paar Leute aus dem Beyond3d Forum versuchen nur dir zu sagen dass du dich einfach verrechnet hast.
In dem ursprünglich von mao5 geposteten pic liegt eine 5970 RELATIV zu knapp 50% vor einer 5870.
Laut Tarkin entspricht dies auch dem Vorsprung einer 5970 zu einer 5870 im Vantage extreme und damit ist die Tabelle glaubwürdig und nicht ein Fall von "What that graph is supposed to tell me is that a 5970 is on average by nearly 90% faster than a 1GB/5870 yeahrightsureok".
Du kannst das jetzt solange als "synthetisch ist nicht relevant" abtun wie du willst aber es würde dir auch mal gut zu Gesicht stehen einen Fehler zu zugeben. (vor allem wenn er so offensichtlich ist...)
Nur IMHO...
PS: Ich lese deine postings sonst sehr gerne!
MiamiNice
2010-03-22, 12:26:29
Mein PC ist "always on", u.A. weil er Fileserver für Netz spielt. Und ja, mir tut idle-Verbrauch deswegen richtig weh. Aber eine zweite Kiste hinstellen kommt trotzdem nicht infrage, da geht meine Frau an die Decke.
Cherry
Was macht den eine Gamerkarte in einem Fileserver? Bzw. was macht ein Fileserver auf einem Gamer-PC. Setzen 6, Genosse. Wer so einen Mist macht braucht echt nicht heulen. Normaldenkende Menschen lösen das anders.
AnarchX
2010-03-22, 12:34:36
CPU i7 965未超頻
MB RAMPAGE II EXTREME
RAM 3G DDR3
http://img708.imageshack.us/img708/20/mobile01b323dc111b7b8d8.jpg
http://www.mobile01.com/topicdetail.php?f=298&t=1475786&p=1
Leider ohne Featuretests.
Ailuros
2010-03-22, 12:35:10
Hallo Ailuros,
Tarkin und ein paar Leute aus dem Beyond3d Forum versuchen nur dir zu sagen dass du dich einfach verrechnet hast.
In dem ursprünglich von mao5 geposteten pic liegt eine 5970 RELATIV zu knapp 50% vor einer 5870.
Laut Tarkin entspricht dies auch dem Vorsprung einer 5970 zu einer 5870 im Vantage extreme und damit ist die Tabelle glaubwürdig und nicht ein Fall von "What that graph is supposed to tell me is that a 5970 is on average by nearly 90% faster than a 1GB/5870 yeahrightsureok".
Du kannst das jetzt solange als "synthetisch ist nicht relevant" abtun wie du willst aber es würde dir auch mal gut zu Gesicht stehen einen Fehler zu zugeben. (vor allem wenn er so offensichtlich ist...)
Nur IMHO...
PS: Ich lese deine postings sonst sehr gerne!
Ja ich sehe meinen brainfart ein, aber es aendert aber trotzdem nichts an meinem Standpunkt was synthetische Tests betrifft. Im Gegenfall muss ich dann auch NV's kommende Trommelei fuer die neue Heaven-Version in Betracht nehmen. Ausgekapselt ist ein synthetischer benchmark schon interessant aber sonst sagt er mir ueberhaupt nichts.
Was macht den eine Gamerkarte in einem Fileserver? Bzw. was macht ein Fileserver auf einem Gamer-PC. Setzen 6, Genosse. Wer so einen Mist macht braucht echt nicht heulen. Normaldenkende Menschen würden das sicher anders lösen.
*lol* müssen wir jetzt anfangen zu diskutieren, warum ich keinen Bock habe, noch einen 5. oder 6. PC bei mir zuhause hinzustellen?
Fakt ist: meine private Kiste tut ihre Aufgaben (Mail, Web, Text-/Bild-/Videoverarbeitung, Musik, Mail-/News- und Fileserver...) in dieser Form schon seit Jahren. Nebenbei muß sie halt auch noch fürs Zocken herhalten. Ich bin doch nicht blöde und investiere xxxx Euro in ne Extra-Zocker-Kiste, die 95% der Zeit ungenutzt rumstehen würde. Nein, ich habe gerne leistungsstarke Graphik, die soll dann aber auch bitte im idle-Modus sich dezent an der Stromleitung zurückhalten. Wer sich für jeden Scheiß einen separaten Rechner hinstellen mag, der soll das tun, ich bin hier mit den 2 Kisten von meiner Süßen und mir, dazu FirmenPC und privates sowie Firmen-Notebook ausreichend mit Rechnern bedient.
Ja ich sehe meinen brainfart ein, aber es aendert aber trotzdem nichts an meinem Standpunkt was synthetische Tests betrifft. Im Gegenfall muss ich dann auch NV's kommende Trommelei fuer die neue Heaven-Version in Betracht nehmen. Ausgekapselt ist ein synthetischer benchmark schon interessant aber sonst sagt er mir ueberhaupt nichts.
Hallo nochmal,
Danke für deine ehrliche Antwort!
Was die Aussagekraft der Vantage Werte, oder anderer synthetischer Tests, betrifft schließe ich mich deiner Meinung an.
Ich wollte nur das Missverständnis mit den Prozentwerten aufklären.
Wo sich GTX480/470 "wirklich" positionieren wird sich erst in der Summe einer Vielzahl von reviews mit einer möglichst breit gefächerten Spieleanzahl und verschiedensten Settings herauskristallisieren.
Ein einfaches Computerbase Rating ist mir (und ich schätze auch dir) da auch zu wenig.
*lol* müssen wir jetzt anfangen zu diskutieren, warum ich keinen Bock habe, noch einen 5. oder 6. PC bei mir zuhause hinzustellen?
Fakt ist: meine private Kiste tut ihre Aufgaben (Mail, Web, Text-/Bild-/Videoverarbeitung, Musik, Mail-/News- und Fileserver...) in dieser Form schon seit Jahren. Nebenbei muß sie halt auch noch fürs Zocken herhalten. Ich bin doch nicht blöde und investiere xxxx Euro in ne Extra-Zocker-Kiste, die 95% der Zeit ungenutzt rumstehen würde. Nein, ich habe gerne leistungsstarke Graphik, die soll dann aber auch bitte im idle-Modus sich dezent an der Stromleitung zurückhalten. Wer sich für jeden Scheiß einen separaten Rechner hinstellen mag, der soll das tun, ich bin hier mit den 2 Kisten von meiner Süßen und mir, dazu FirmenPC und privates sowie Firmen-Notebook ausreichend mit Rechnern bedient.
Wenn du sowas wie Mail/News/File Server unter Windows (und noch dazu am Gamerpc) betreibst, bist du sowieso kein Enthusiast. Für Leute wie dich gibts sicher irgendwelche stromsparenden PCs von der Stange.
Ailuros
2010-03-22, 12:57:45
Wo sich GTX480/470 "wirklich" positionieren wird sich erst in der Summe einer Vielzahl von reviews mit einer möglichst breit gefächerten Spieleanzahl und verschiedensten Settings herauskristallisieren.
Ein einfaches Computerbase Rating ist mir (und ich schätze auch dir) da auch zu wenig.
Ein CB rating wird zweifellos zu wenig sein aber zumindest "mehr" als eine nichtsagende Tabelle. Uebrigens nebenbei war NV's landing zone fuer xtreme stets 10k und fuer performance 22k. Mit xtreme sind sie einen Schnitt weiter unten scheinends am Ende (koennte der fehlende SM sein) und der noch weniger aussagende performance Wert wird wohl irgendwo in der +/-21k Region liegen.
Wenn du sowas wie Mail/News/File Server unter Windows (und noch dazu am Gamerpc) betreibst, bist du sowieso kein Enthusiast. Für Leute wie dich gibts sicher irgendwelche stromsparenden PCs von der Stange.
immer schön alle über einen kamm scheren, denn das steht fast jedem gut...
immer schön alle über einen kamm scheren, denn das steht fast jedem gut...
Wer einen File/Mailserver (& CO) unter Windows betreibt macht dass nur weil er sich mit echten Server Systemen nicht auskennt. Wenn du was anderes behaupten willst, mach nur, ich glaub ich kann dein technisches Verständnis schon gut genug einschätzen um es unter "Hobbyadmin" abzulegen.
mboeller
2010-03-22, 13:04:03
http://www.mobile01.com/topicdetail.php?f=298&t=1475786&p=1
Leider ohne Featuretests.
700MHz für die TMUs und für die ROPs, wenn die Zahlen stimmen.
Ich dachte die ROPs und der L2-Cache laufen mit weniger MHz.
Iruwen
2010-03-22, 13:04:21
ROFL. 5 Sätze und 6x Tessellation. ;D
http://www.hexus.net/content/item.php?item=20844
http://developer.amd.com/media/gpu_assets/Tatarchuk-Tessellation_GDC08.pdf
Das kann AMD auch.
mironicus
2010-03-22, 13:05:03
http://www.mobile01.com/topicdetail.php?f=298&t=1475786&p=1
GPU-Score GTX 480: 8929
Diesen GPU-Score erreicht eine 5870 (ohne Übertaktung) doch bereits schon mit den Cat 10.2.
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/bericht_ati_catalyst_102/3/#abschnitt_3dmark_vantage
MiamiNice
2010-03-22, 13:07:08
*lol* müssen wir jetzt anfangen zu diskutieren, warum ich keinen Bock habe, noch einen 5. oder 6. PC bei mir zuhause hinzustellen?
Fakt ist: meine private Kiste tut ihre Aufgaben (Mail, Web, Text-/Bild-/Videoverarbeitung, Musik, Mail-/News- und Fileserver...) in dieser Form schon seit Jahren. Nebenbei muß sie halt auch noch fürs Zocken herhalten. Ich bin doch nicht blöde und investiere xxxx Euro in ne Extra-Zocker-Kiste, die 95% der Zeit ungenutzt rumstehen würde. Nein, ich habe gerne leistungsstarke Graphik, die soll dann aber auch bitte im idle-Modus sich dezent an der Stromleitung zurückhalten. Wer sich für jeden Scheiß einen separaten Rechner hinstellen mag, der soll das tun, ich bin hier mit den 2 Kisten von meiner Süßen und mir, dazu FirmenPC und privates sowie Firmen-Notebook ausreichend mit Rechnern bedient.
Fakt ist das Du einfach nur trollen willst. Wen Dir die Karte zu viel Saft verbraucht ist das OK, kauf eine andere. Der Zielgruppe der Karte ist sowas relativ egal, da zählen andere Werte. Sich hier aber hinzustellen und darüber zu schimpfen das eine High End Grafikkarte nix für den eigenen Arbeits PC ist der 24 Std am Tag läuft ist peinlich.
€: Du bist bestimmt auch einer der sich einen Ferrari kauft um sich hinterher zu bescheren das der zuviel Sprint und Versicherung kostet weil Du damit 16 Stunden am Tag Packete für DHL ausfährst -.-
Spasstiger
2010-03-22, 13:07:11
Bitte mal Füllratentests mit und ohne AF leaken. :freak:
Sich hier aber hinzustellen und darüber zu schimpfen das eine High End Grafikkarte nix für den eigenen Arbeits PC ist der 24 Std am Tag läuft ist peinlich.
Wieso? Es gibt doch (fast) HighEnd-Karten mit akzeptablem Idle-Verbrauch :-) ja, das Geeier bei den 48xx ums Powerplay hat mich extrem genervt, weils nach der 3870 so ein Rückschritt war. Mir ist auch der Lastverbrauch (fast) egal, die paar Stunden die ich in der Woche zocke, tun mir auf der Stromrechnung nicht weh. Nur wenn ich mal spiele, dann möchte ich auf dem 1920x1200-Display nicht unbedingt interpolieren müssen, und ich möchte auch möglichst viel Eye-Candy anschalten können. Daher darfs schon gerne eine Karte aus dem Performance(++) oder Segment sein, solange die eben auch sinnvoll idlet. Ja, eine 480 ist eher nicht das, was ich kaufen würde. Die 470 wäre aber durchaus interessant, falls die im 2D eben nicht soviel verbrät, wie sich's gerade andeutet. Es gibt halt Leute, die auch noch andere Hobbies haben, außer Geldverbrennen, weil man sich für jeden Scheiß einen separaten PC bastelt.
aylano
2010-03-22, 13:25:16
Gegenüber G200bvsRV770 liegt der Die-Size-Unterschied aber wohl diesmal nur bei 59% (532vs334mm²), anstatt bei 88% (490vs260mm²). Und da konnte man auch ziemlich gut mithalten.
Wie gute sie mithalten können, müssen die Tests erst noch zeigen.
Zwar war damals die Die-Größe des GTX 285 relativ gesehen größer, aber GTX 285 dürfte damals viel besser in der Performance & Effizienz (Performance-pro-Watt) als GTX 4?0 sein.
Im Endeffekt kann man nur als Kunde hoffen, dass die Stückzahlen dann ab dem 2. Quartal bei TSMC besser werden und die Preise sich deutlich nach unten bewegen.
Grundsätzlich braucht man nicht viel hoffen, da die 40nm-Probleme schon seit 2 Jahren bekannt sind. Dann bleibt die Frage, ob überhaupt ein Preiskampf stattfinden wird. Am Schluss wollen doch beide Firmen Gewinn machen.
€: Du bist bestimmt auch einer der sich einen Ferrari kauft um sich hinterher zu bescheren das der zuviel Sprint und Versicherung kostet weil Du damit 16 Stunden am Tag Packete für DHL ausfährst -.-
Um darauf auch noch einzugehen: nein, ich bevorzuge da eher was praktisches, dezentes, was im Fall der Fälle aber ordentlich Druck unter der Haube hat :-)
Werden die NVidia Karten nicht gut, wird auch kein Preiskampf stattfinden. die 5870 wird weiterhin 380 Euro kosten und wenn das mit den 10-20 Prozent für die 480 stimmt, wird der Preis der 480 ca.450-500 Euro kosten. Sprich ATI hat keinen Grund mit dem Preis runter zu gehen, und NVidia braucht nicht nachziehen. So wirds leider kommen...
Es ist schon interessant, wie der eine oder andere versucht, sich die Sache immer wieder schönzureden. Erst hieß es der Fermi wird den Cypress vom Boden aufwischen, Nvidia basht AMD sowas von weg etc blabla. Dann als durchsickerte der Fermi verfügt nicht über 512 Shader hieß es Nvidia hätte nie behauptet die würden alle kommen, man spart sich die auf oder man kann besser übertakten. Der hohe Verbrauch ist plötzlich auch egal, es werden Vergleiche wie dicke Autos, Klimanalagen oder sonstwas gebracht. Und dann sollen plötzlich synthetische Benchmarks nicht mehr zählen, die schon jeher eigentlich eine Domäne von Nvidia waren? Da gab es nicht selten 20% schneller Vantage Ergebnisse, die sich dann eher zu 10% mehr Frames in Spielen reduzierten. Achja und Metro wäre ja wegen Tesselation so wichtig. Ich glaube Tesselation Spiele kann man 2010 wirklich an einer Hand abzählen und Metro ist ein gut aussehendes Spiel in schlechter Umsetzung (schlechte KI und Munition als Währung wtf).
Also ich finde es lustig wie sich manche unter dem Deckmantel des highend immer wieder zu lowend Aussagen hinreißen lassen. Ich glaube das einzige, was wirklich Fakt ist, ist die Tatsache, dass das mit Abstand am meisten hochgelobte Stück Hardware aller Zeiten seine Erwartungen in voller Linie nicht erfüllen kann. Da bringt das ganze Schönreden nichts.
Und nochwas. Wenn das mit den 70 Watt im Idle stimmt, ist das für mich eine Fehlkonstruktion. Sowas kannst du in der heutigen Zeit nicht mehr bringen. Da gewöhnt man sich gerade an niederigen Idleverbrauch dann sowas.
-----Nenene.
Amboss
2010-03-22, 13:36:02
Wieso? Es gibt doch (fast) HighEnd-Karten mit akzeptablem Idle-Verbrauch :-) ...
sehe ich gleich! Deswegen hatte ich als Vorgängerkarte zu meiner HD5850 auch eine GTX260 216 55nm, die HD 4870 kam aufgrund des hohen Idle Verbrauchs nicht in Frage. Vor der GTX260 werkelte ne sparsame HD3870 in meinem Rechner, die HD4870 war dagegen ein echter Rückschritt. Den gleichen bzw. noch schlimmeren Rückschritt scheint Nvidia jetzt mit dem Fermi zu gehen. Argumente wie"wer sich so ne Karte kauft, schaut nicht auf dem Stromverbrauch", ziehen nicht. Man stelle sich mal vor, mit CPUs würde man ebenso argumentieren, wo kommen wir da hin? Die EU sollte Grenzwerte diesbezüglich erlassen, sonst reden wir in 2-3 Jahren von 1KW Standard-PC Netzteilen, so etwas ist doch pervers!
P.S. ich rede vor allem vom Idle Verbrauch, aber auch der Last Verbrauch wird ja immer schlimmer.
also manche leute kann man echt nicht verstehn...am besten die leitung von 2x hd 5970 haben und ein TBD von 5W ...also mal ehrlich...leistung mit immer einhergehn mit mehr kosten egal ob energie oder anschaffung!
derguru
2010-03-22, 13:40:46
http://www.mobile01.com/topicdetail.php?f=298&t=1475786&p=1
Leider ohne Featuretests.
sehr viel schwächer als gedacht und dann noch mit physX,war mal nicht die rede von 11-13k?
Ein hoher Idleverbrauch schreckt mich ab. Unter Last darf die Karte ruhig 50? Watt mehr als ne 5870 ziehen. Aber dieser Idleverbrauch ist mir doch ein Dorn im Auge. Und nicht jeder baut sich einen 2. Rechner nur für surfen zusammen. Bin doch arg enttäuscht und zum GF200 ein klarer Rückschritt.
Spasstiger
2010-03-22, 13:41:57
@Amboss: Der Strom kommt doch nicht für gratis aus der Steckdose. Nicht jeder kann sich einen PC leisten, der täglich 3-4 kWh verbraucht. Der Markt reguliert sich selbst.
Bislang gibts noch kein Entsetzen über die Bildqualität zu hören, oder?! Scheinen die TMUs doch gute Arbeit zu machen.
Gut ja, aber wohl zu langsam.
also manche leute kann man echt nicht verstehn...am besten die leitung von 2x hd 5970 haben und ein TBD von 5W ...also mal ehrlich...leistung mit immer einhergehn mit mehr kosten egal ob energie oder anschaffung!
Die kann auch 10x 5970 sein.
Im IDLE gibt es keinen Grund sinnlos Energie zu verbraten.
urfaust
2010-03-22, 13:45:41
Es ist schon interessant, wie der eine oder andere versucht, sich die Sache immer wieder schönzureden. Erst hieß es der Fermi wird den Cypress vom Boden aufwischen, Nvidia basht AMD sowas von weg etc blabla. Dann als durchsickerte der Fermi verfügt nicht über 512 Shader hieß es Nvidia hätte nie behauptet die würden alle kommen, man spart sich die auf oder man kann besser übertakten. Der hohe Verbrauch ist plötzlich auch egal, es werden Vergleiche wie dicke Autos, Klimanalagen oder sonstwas gebracht. Und dann sollen plötzlich synthetische Benchmarks nicht mehr zählen, die schon jeher eigentlich eine Domäne von Nvidia waren? Da gab es nicht selten 20% schneller Vantage Ergebnisse, die sich dann eher zu 10% mehr Frames in Spielen reduzierten. Achja und Metro wäre ja wegen Tesselation so wichtig. Ich glaube Tesselation Spiele kann man 2010 wirklich an einer Hand abzählen und Metro ist ein gut aussehendes Spiel in schlechter Umsetzung (schlechte KI und Munition als Währung wtf).
Also ich finde es lustig wie sich manche unter dem Deckmantel des highend immer wieder zu lowend Aussagen hinreißen lassen. Ich glaube das einzige, was wirklich Fakt ist, ist die Tatsache, dass das mit Abstand am meisten hochgelobte Stück Hardware aller Zeiten seine Erwartungen in voller Linie nicht erfüllen kann. Da bringt das ganze Schönreden nichts.
http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/report.gif
Amboss
2010-03-22, 13:49:37
@Amboss: Der Strom kommt doch nicht für gratis aus der Steckdose. Nicht jeder kann sich einen PC leisten, der täglich 3-4 kWh verbraucht. Der Markt reguliert sich selbst.
Leisten wollen oder leisten können?
Leider ziehen die obigen Ausreisser auch unten kräftig mit, was langfristig tendenziell eine schlechte Entwicklung ist. Natürlich regelt der Markt mit, es muss sich nur rumsprechen (bei den Eltern der ganzen Kiddy-High-End Zocker), das PCs mittlerweile kräftig am Stromzähler mitdrehen bzw. auf den Monat hochgerechnet, manchen Wäschetrockner links überholen :wink:
mapel110
2010-03-22, 13:51:29
RV870 hat auch nur 2200 Punkte bei Vantage Extreme draufgepackt gegenüber der GTX285 beim Launch. War auch sehr enttäuschend für eine neue Generation. Abwarten.
Joa. Wenn man bei Mutti wohnt juckt das den Kiddie nicht. Weiss ich noch aus meinen alten Tagen. Da ich aber mittlerweile alleine wohne und den Strom selber zahle, schaut man auf den Drehzähler. Man wird sozusagen durch Stromkonzerne gezwungen reif zu werden.
Bei Grafikkarten ist man noch nicht so weit. Man stelle sich vor ein Intel High End Quad würde beim Nichtstun 50 Watt mehr verbrauchen als AMDs High End Quad. Da spielt auch die bessere Leistung der Intel CPU keine Rolle mehr. Idle etwas unter GTX 295 wäre ca das dreifache der HD5870 - inakzeptabel.
urfaust
2010-03-22, 13:53:58
Joa. Wenn man bei Mutti wohnt juckt das den Kiddie nicht. Weiss ich noch aus meinen alten Tagen. Da ich aber mittlerweile alleine wohne und den Strom selber zahle, schaut man auf den Drehzähler. Man wird sozusagen durch Stromkonzerne gezwungen reif zu werden.
daher laufen Enthusiasten auch immer rum wie die letzten Penner,
die ganze Kohle geht für Strom&Hardware drauf
Leisten wollen oder leisten können?
Leider ziehen die obigen Ausreisser auch unten kräftig mit, was langfristig tendenziell eine schlechte Entwicklung ist. Natürlich regelt der Markt mit, es muss sich nur rumsprechen (bei den Eltern der ganzen Kiddy-High-End Zocker), das PCs mittlerweile kräftig am Stromzähler mitdrehen bzw. auf den Monat hochgerechnet, machen Wäschetrockner links überholen :wink:
Eine gute Waschmaschine braucht im 60° Normalwaschgang keine 2 kWh. Da muss die gute Mutti schon jeden Tag mehrmals Wäsche waschen um das durchschnittliche Zocker-Kiddie mit Quad-Core und fetter Grafikkarte beim Verbrauch zu überholen. Und das wohl nur durchs Spielen. Tagsüber läuft der Rechner dann zusätzlich bei den meisten durch und es werden Spiele, Musik und Filme aus dem Netz gezogen.
Energie ist einfach zu günstig, das ist das Problem. Bevor es im Geldbeutel nicht wehtut, ändert sich beim Durchschnittsbürger nichts. Dafür denkt er auch zu egoistisch und nicht weitreichend genug.
Ich dachte die ROPs und der L2-Cache laufen mit weniger MHz.
ROPs laufen auf Base-Clock, TMUs auf 1/2 Hotclock.
Zufälligerweise scheint aber Hotclock genau 2x Baseclock zu sein, womit beides im Endeffekt das selbe ist.
mapel110
2010-03-22, 13:55:35
http://www.digitimes.com/news/a20100322PD205.html
Since TSMC's 40nm yield currently is still lower than 50%, Nvidia will block some of the graphics cores with problems on the card. As a result, the GeForce GTX 480 will only have 480 cores and GTX 470 only 448, the sources noted.
The sources also noted that GeForce GTX 480 will be priced at US$499 and GeForce GTX 470 at US$349.
Amboss
2010-03-22, 13:55:51
Joa. Wenn man bei Mutti wohnt juckt das den Kiddie nicht. Weiss ich noch aus meinen alten Tagen. Da ich aber mittlerweile alleine wohne und den Strom selber zahle, schaut man auf den Drehzähler. Man wird sozusagen durch Stromkonzerne gezwungen reif zu werden.
Ja, geht mir auch so. Nicht das ich knapp bei Kasse bin, ganz und gar nicht! Aber ich habe auch nicht umsonst so viel Geld :biggrin: Nur von jemanden der Geld hat, kann man lernen wie man damit umgeht. Die anderen holen es von der Bank :freak:
Energie günstig? Die Kilowattstunde kostet bei mir 20 Cent. Das läppert sich zusammen.
Amboss
2010-03-22, 13:58:05
daher laufen Enthusiasten auch immer rum wie die letzten Penner,
die ganze Kohle geht für Strom&Hardware drauf
Das könnte einiges erklären :biggrin:
MiamiNice
2010-03-22, 13:58:11
was wirklich Fakt ist, ist die Tatsache, dass das mit Abstand am meisten hochgelobte Stück Hardware aller Zeiten seine Erwartungen in voller Linie nicht erfüllen kann.
Das mag ja duraus sein, aber das wird dann nicht am Stromverbrauch festgemacht sondern an der Leistung. Und wen die Werte so stimmen wie hier im Thread zu lesen, hat sich glaub ich jeder hier mehr erwartet. Das ändert aber nix daran das der Stromverbrauch sekundär bei so einer Karte ist.
Man wird sozusagen durch Stromkonzerne gezwungen reif zu werden.
So ein schwachfug.
Eggcake
2010-03-22, 13:59:36
also manche leute kann man echt nicht verstehn...am besten die leitung von 2x hd 5970 haben und ein TBD von 5W ...also mal ehrlich...leistung mit immer einhergehn mit mehr kosten egal ob energie oder anschaffung!
Ich verstehe deine Argumentation (auch von den letzten Seiten) nicht. Du scheinst definitiv etwas nicht verstanden zu haben - denn die 5000er Reihe zeigt, dass eben gute Performance und niedriger IDLE-Verbrauch funktioniert. Auch frühere Karten von NV haben das ganz gut gezeigt.
Keiner spricht von der Leistungsaufnahme unter Last - dass man da nicht erwarten kann, dass diese tief liegt, stimmt natürlich. Hohe Performance = hohe Leistungsaufnahme + pi * Daumen.
Aber ich will nunmal nicht dauernd ein schlechtes Gewissen haben, wenn ich mal übers Mittagessen den PC an lasse oder halt über Nacht einige Torrents beenden will. Und ja, es gibt Leute, welche nur einen Rechner zu Hause haben und nicht für jeden Rotz einen separaten kaufen wollen/können. Da ist es doch toll, wenn man alles kombinieren kann - brauchen tut's dazu nur geringe Leistungsaufnahme im IDLE.
sehe ich gleich! Deswegen hatte ich als Vorgängerkarte zu meiner HD5850 auch eine GTX260 216 55nm, die HD 4870 kam aufgrund des hohen Idle Verbrauchs nicht in Frage.
Das war doch schon immer so, dass der Verbrauch bei einer neuen Architektur am Leistungslimit neue Rekorde sprengt.
War bei NV40 und G80 nicht anders und die 2. Generation hat das Manko jedes Mal behoben.
Wer das nicht will soll eben auf den Refresh warten, wie früher auch, und wenn es einen nicht stört kann er schon heute zugreifen.
Und nochwas. Wenn das mit den 70 Watt im Idle stimmt, ist das für mich eine Fehlkonstruktion.
.
Wieso? Bei G80 hat es doch auch nicht gestört.
Wieso? Bei G80 hat es doch auch nicht gestört.
Ja, und einen Trabbifahrer hat der Benzinverbrauch auch nicht interessiert. Was willst du sagen?
Das mag ja duraus sein, aber das wird dann nicht am Stromverbrauch festgemacht sondern an der Leistung. Und wen die Werte so stimmen wie hier im Thread zu lesen, hat sich glaub ich jeder hier mehr erwartet. Das ändert aber nix daran das der Stromverbrauch sekundär bei so einer Karte ist.
Stromverbrauch ist leider nicht sekundär, gerade weil die Karte auch für Forschungszwecke geplant war für Simulationen und Rekonstruktionen. Natürlich sind GPUs da immer noch wesentlich effizienter als CPUs, aber 2010 muss man von einem "highend" Produkt eben erwarten können, dass es auch energieeffizient arbeitet. Das ist in Zeiten von Klimawandel Diskussionen eben ein zentrales Thema neben der Reduzierung von CO2 Ausstoß. Nvidia entwickelt hier ganz klar in die falsche Richtung und ganz klar am Zeitgeist vorbei. Ich finde das muss man auch sagen dürfen, ohne als AMD Fanboy bezeichnet zu werden.
Exxtreme
2010-03-22, 14:06:20
Jo, aber einem Lötkolben, der für feine Lötarbeiten für Platinen etc. gemacht ist, ergo ein Witz. Kein Lötkolben, um Kupferrohre u. ä. zu löten.
Die 70 Watt wären jetzt kein Beinbruch, wenn man nicht vorhat, seinen Game-PC jeden Tag 24 h Stunden laufen zu lassen. Annähernd 3 Milliarden Transis fordern halt ihren Tribut.
Und mit Green IT braucht man bei Computerhardware eh nicht kommen. So energieintensiv wie das ist und welche Umweltverschmutzungen bei den billigen Herstellungsbedingungen entstehen - dürfte direkt hinter den PKWs liegen.
70 W-Lötkolben sind schon grössere Hoschis. Mit denen lötest du schon dickere Bleche zusammen. Ein Elektronik-Lötkolben frisst so rund 15-30W, also ein Bruchteil davon.
Und genau da habe ich bissl Sorgen. Es wird sich sicherlich nicht gut auf die Lebensdauer der Bauteile auswirken so eine 70W-Heizung im PC. Vor allem wenn das auf 250W hochgeht wenn man zockt.
Und sobald man den Saft selber blecht, sieht man die Sache mit anderen Augen.
mapel110
2010-03-22, 14:08:23
Und sobald man den Saft selber blecht, sieht man die Sache mit anderen Augen.
Mimimi, dann hat man eh keine Kohle für eine 900 DM GPU.
Mimimi, dann hat man eh keine Kohle für eine 900 DM GPU.
Die Kohle für die GPU hätte ich. Aber ich hab keinen Bock im IDLE soviel Strom zu verbrennen. Kapiert das keiner?
tombman
2010-03-22, 14:10:51
Tjo, da haben der fehlende SM und der niedrige Takt Furby das Genick gebrochen :(
Mit 512sp und 1600 Shaderclock wäre die 480er dort, wo sie hätte sein sollen.
ABER: die HD5870 kostet immer noch 375€ LAGERND :)
Wenn die GTX480 also 500€ kostet, dann bekommt man folgendes an MEHR:
+ 512mb Speicher (GTA4)
+ Cuda/Phys-X (man sieht mehr in Games)
+ besseres Tesselation (schaut danach aus)
+ bessere min fps (schaut danach aus)
+ SLI > CF (falls man ein MGpu-Sys will)
Vorläufiges Fazit:
1.) Es ist nicht der Überchip geworden
2.) Aber er ist GUT GENUG geworden ;)
Die perf. Krone gehört mit 4x HD5870 allerdings weiterhin ATI. (dafür ist man in der CF-Hölle :))
der ferrari vergleich ist zum totlachen.
klar muss man wenn man mit dem ding fährt einen grossen benzinverbrauch akzeptieren. aber ich glaube selbst besitzer eines solchen autos wären nicht davon angetan wenn das in der Garage stehend 5 L pro Stunde verbraucht
mapel110
2010-03-22, 14:13:30
Die 4 fehlenden TMUs sehe ich viel kritischer als die paar fehlenden Shader-Einheiten.
der ferrari vergleich ist zum totlachen.
klar muss man wenn man mit dem ding fährt einen grossen benzinverbrauch akzeptieren. aber ich glaube selbst besitzer eines solchen autos wären nicht davon angetan wenn das in der Garage stehend 5 L pro Stunde verbraucht
Guter Vergleich ;)
Exxtreme
2010-03-22, 14:14:29
Mimimi, dann hat man eh keine Kohle für eine 900 DM GPU.
Doch doch. Nur schaue ich zu, daß ich nicht mehr Kohle ausgebe als nötig - so wie es sich für Schwaben gehört.
Tjo, da haben der fehlende SM und der niedrige Takt Furby das Genick gebrochen :(
Mit 512sp und 1600 Shaderclock wäre die 480er dort, wo sie hätte sein sollen.
ABER: die HD5870 kostet immer noch 375€ LAGERND :)
Wenn die GTX480 also 500€ kostet, dann bekommt man folgendes an MEHR:
+ 512mb Speicher (GTA4)
+ Cuda/Phys-X (man sieht mehr in Games)
+ besseres Tesselation (schaut danach aus)
+ bessere min fps (schaut danach aus)
+ SLI > CF (falls man ein MGpu-Sys will)
Vorläufiges Fazit:
1.) Es ist nicht der Überchip geworden
2.) Aber er ist GUT GENUG geworden ;)
Die perf. Krone gehört mit 4x HD5870 allerdings weiterhin ATI. (dafür ist man in der CF-Hölle :))
Man kann es auch so formulieren. Ich hätte mehr erwartet.
LovesuckZ
2010-03-22, 14:16:59
Doch doch. Nur schaue ich zu, daß ich nicht mehr Kohle ausgebe als nötig - so wie es sich für Schwaben gehört.
Schalte den PC aus. Dann sparst du richtig viel Kohle. :)
Amboss
2010-03-22, 14:17:09
...ohne als AMD Fanboy bezeichnet zu werden.
Natürlich kann man das NV vorwerfen, es ist ja nicht so, das es NV nicht besser kann (siehe die sehr guten 200er 55nm GTX Karten). Der Fermi scheint ein echter Rückschritt zu werden, warum, verstehe ich nicht?
Außerdem ist im Jahre 2010 ein vernünftiger Idle Verbrauch ja schon Standard, angefangen von PC-Netzteilen und deren Wirkungsgrad, über CPUs, Festplatten und Grafikkarten, nur der Fermi tanzt aus der Reihe. Peinlich, Fehlkonstruktion ala Speichercontroller HD4870?
urfaust
2010-03-22, 14:18:40
2.) Aber er ist GUT GENUG geworden ;)
Matthias Machnig: „Zweckoptimismus ist keine Strategie!“
http://www.schubert-hartmut.de/index.php?nr=6643&menu=2
Exxtreme
2010-03-22, 14:19:22
Schalte den PC aus. Dann sparst du richtig viel Kohle. :)
Der ist die meiste Zeit auch aus. :D Das ist aber nicht der Punkt. Ich zocke die meiste Zeit mit dem PC auch nicht. Und da sehe ich nicht ein da dauerhaft einen Industrielötkolben betreiben zu müssen für lächerlichen 2D-Betrieb.
Schalte den PC aus. Dann sparst du richtig viel Kohle. :)
Ja, aber in der heutigen Zeit keinen gescheiten 2D-Modus. Hallo? Alleine das disqualifiziert Fermi. Und ich bin NVidia zugeneigt.
Amboss
2010-03-22, 14:19:44
Doch doch. Nur schaue ich zu, daß ich nicht mehr Kohle ausgebe als nötig - so wie es sich für Schwaben gehört.
ich bin auch ein Schwabe :biggrin:
Die perf. Krone gehört mit 4x HD5870 allerdings weiterhin ATI. (dafür ist man in der CF-Hölle :))
3x GTX 480 sollte sich doch gegen ein schlechter skalierendes 4x 5870-CF behaupten können und 4x GTX 480 sind nicht ausgeschlossen: http://www.evga.com/articles/00501/
Dural
2010-03-22, 14:20:12
Der ist die meiste Zeit auch aus. :D Das ist aber nicht der Punkt. Ich zocke die meiste Zeit mit dem PC auch nicht. Und da sehe ich nicht ein da dauerhaft einen Industrielötkolben betreiben zu müssen für lächerlichen 2D-Betrieb.
wie wäre es mit zwei PC-Systeme?
tombman
2010-03-22, 14:20:31
Das größte Problem sehe ich eher in der Verarsche, wenn dieses Jahr doch noch 512sp Versionen auf den Markt kommen.
Und dann gibts da noch die 2GB HD5870 OC-Versionen, die Furby vermutlich hauen werden.
(Asus Matrix sieht extrem lecker aus)
urfaust
2010-03-22, 14:21:23
wie wäre es mit zwei PC-Systeme?
GTX 480 Verpackung (Rückseite) :
2 PC-Systeme empfohlen
;D;D
Man kann es auch so formulieren. Ich hätte mehr erwartet.
Man kann nur hoffen dass sich das Grafikspeicher-Adress-Problem mit der GF100 endlich! erledigt hat, wird ja nun schon seit G80 mit durchgeschleift. Ansonsten schaut man wieder in die Röhre wenn eine neue Engine mehr als die 1,25 bzw 1,5 GB adressiert.
Dural
2010-03-22, 14:23:32
naja wer ein High-End Game-System haben will und über etwas höheren Idle Verbrauch klagt kann ich nicht ernst nehmen... oder geht ein Ferrari fahrer zum Ferrari Händler und sagt: Sie bauen schlechte Autos das teil Verbraucht auch auf der Autobahn mit 140km/h viel zuviel... ;)
und die Karte verbraucht sicher keine 70Watt im Idle...............
Ein halbes Jahr warten für die Katz. Keine 512SP was ich ganz einfach für selbstverständlich gehalten habe. Bitter sag ich da nur.
naja wer ein High-End Game-System haben will und über etwas höheren Idle Verbrauch klagt kann ich nicht ernst nehmen... oder geht ein Ferrari fahrer zum Ferrari Händler und sagt: Sie bauen schlechte Autos das teil Verbraucht auch auf der Autobahn mit 140km/h viel zuviel... ;)
und die Karte verbraucht sicher keine 70Watt im Idle...............
Ein ordentlicher 2d-Modus ist möglich siehe 260/280/5870.
mironicus
2010-03-22, 14:25:09
Wenn die Fermi im Idle schon so hohe Verbrauchswerte hat, dürften die kommenden Midrange-Karten wohl auch noch deutlich über den jeweiligen ATI-Kontrahenten liegen. Und wenn sie dann bei sagen wir mal 5-10% Mehrleistung dann noch einen 20-25% höheren Last-Stromverbrauch besitzen sollten, ist das ein NoGo.
RV870 hat auch nur 2200 Punkte bei Vantage Extreme draufgepackt gegenüber der GTX285 beim Launch. War auch sehr enttäuschend für eine neue Generation. Abwarten.
Das war mit den alten Treibern, schon mit dem 10.2 waren es knapp 8900, und mit dem 10.3 über 9100.
http://www.legitreviews.com/article/1253/6/
Sind also eher 3000 mehr Punkte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.