Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 [71] 72 73 74 75

Dural
2010-03-22, 20:19:14
Was zählt, ist das, was beim Kunden ankommt. Der Rest interessiert den Käufer nicht. Einen Gnadenkauf, weil TSMC verkackt hat, kann ja wohl keiner erwarten ;D

aha... der "Kunde" wird aber ein überlegenes Produkt kaufen können, vieleicht nicht beim Preis/leistung Verhältnis aber sonst schon...

Für die Verspätung ist TSMC Schuld.
Nun auch noch am niedrigen Takt und am Verbrauch bestimmt auch noch.
Dir kommt ja auch nie in den Sinn das NV was verbockt hat.
Aber wenn ..., dann wäre... usw.
Einfach mal auf die einfache Idee zu kommen das der Chip so wie er jetzt ist schon am Limit ist, ist einfach zu viel verlangt.

Aha Sorry schon vergessen das AMD überhaupt keine 40nm probleme hat... GF100 ist derzeit kaum herstellbar wie man an den 480SP ganz gut sieht, wenn du das nicht schnallst ist das dein problem...

Wenn TSMC kaum mit dem RV870 zurecht kommt dürfte jedem klar sein was ein GF100 mit 3,2 Milliarden Trans. für Probleme macht...

Gast
2010-03-22, 20:21:44
Und nur 25% ist Angesicht der 3 Milliarden Transistoren+6 Monate später+wahrscheinlich schlechter 2D-Modus knapp am FAIL. Sollten es unter 25 Prozent sein isses ein FAIL. Der Preis wird ja auch bei 500 anfangen (Sag ich mal).

Gast
2010-03-22, 20:22:37
aha... der "Kunde" wird aber ein überlegenes Produkt kaufen können, vieleicht nicht beim Preis/leistung Verhältnis aber sonst schon...
Genau...
Vor allem bei der Verlustleistung und bei der Lautstärke...
Träum weiter :rolleyes:

Black-Scorpion
2010-03-22, 20:22:55
Ihr wollt doch nicht ernsthaft und vor allem objektiv und unvoreingenommen mit Grestorn diskutieren?
Er ist ein Typ der stellenweise argumentiert das es einem die Latschen auszieht.
Das schlimme ist ja, das er das total ernst meint und selber glaubt.

Spasstiger
2010-03-22, 20:23:13
Hmkay, ATI baut also High End.
Definitiv. Und wenn sich der Markt anders entwickelt hätte und die HD 5870 für unter 300€ über die Ladentheke gehen würde, würde ATI den High-End-Markt immer noch mit der HD 5970 bedienen.

Gast
2010-03-22, 20:24:21
Und du meinst NVidia kann keinen Treiber rausbringen der Fermi pushed? Ich sage 25% war zu erwarten, alles darunter ist FAIL.

ach? und du glaubst amd kann ihrerseits die treiber nicht weiter optimieren oder was?

CatalystMaker auf Twitter gestern: "who thinks we should make Catalyst 10.3a EVEN faster to make it double OUCH ???? ;-)"

und zu diesen spielen im benchmark review guide von nvidia: wie wärs damit:

batman
heaven benchmark
farcry 2
red faction: guerilla
metal knight zero
mirrors edge
dark void
usw...

brauchen nur ein paar solcher tollen TWIMTBP titel ausgraben, mit veralteten amd treibern benchen und voila, fertig sind die 25% avg.

ihr die nvidia fans fallen alle drauf rein. ganz großes kino. ne tolle komödie. aber für euch jungs wirds wahrscheinlich eher ein drama oder eine tragödie.

boxleitnerb
2010-03-22, 20:24:21
Solange die Preise auch im Rahmen bleiben für die gebotene Mehrleistung (inkl. Berücksichtigung von Cat 10.3) ist Fermi sicherlich kaufbar. Ist die Frage, was an der Aussage von vorhin dran ist. Der Poster meinte, es wäre keine besondere Spielauswahl getroffen worden, aber ich bezweifle, dass da nicht Titel genommen wurden, in denen NV deutlich besser dasteht (Metro, FC2, Unigine...). Wenn sich die min 10%, avg 25% und max 50-60% aber auf eine beliebige Auswahl an Spielen halbwegs übertragen lassen, dann wäre es ok.

Löschzwerg
2010-03-22, 20:25:10
+wahrscheinlich schlechter 2D-Modus

Wie kommst du darauf? Quelle?

Gast
2010-03-22, 20:25:58
Und nur 25% ist Angesicht der 3 Milliarden Transistoren+6 Monate später+wahrscheinlich schlechter 2D-Modus knapp am FAIL. Sollten es unter 25 Prozent sein isses ein FAIL. Der Preis wird ja auch bei 500 anfangen (Sag ich mal).
3Mrd Transistoren sind deutlich weniger als 4,3Mrd Transistoren der Konkurrenz.
Insofern macht deine Behauptung keinen Sinn.
Der schlechte 2D Modus entspringt deiner Fantasie, warum verbreitest du soetwas, wenn du keine Ahnung hast? Geforce 200 kennt einen 2D Modus.

Dural
2010-03-22, 20:27:29
Genau...
Vor allem bei der Verlustleistung und bei der Lautstärke...
Träum weiter :rolleyes:

Quelle? und natürlich auf Leistung/Watt bezogen...

Spasstiger
2010-03-22, 20:28:16
Wenn sich die min 10%, avg 25% und max 50-60% aber auf eine beliebige Auswahl an Spielen halbwegs übertragen lassen, dann wäre es ok.
Dirt 2 bis zu +60% gegenüber einer HD 5870, in höchster Auflösung mit 4xAA noch +35%. Allerdings soll der Cat. 10.3 Preview einen Performanceschub von bis zu 20% in Dirt 2 auf der HD-5800-Serie bringen, so dass der Vorsprung der GTX 480 in Dirt 2 auf 15-35% schrumpfen wird (inkl. Tessellation).

Gast
2010-03-22, 20:28:25
ach? und du glaubst amd kann ihrerseits die treiber nicht weiter optimieren oder was?

CatalystMaker auf Twitter gestern: "who thinks we should make Catalyst 10.3a EVEN faster to make it double OUCH ???? ;-)"

und zu diesen spielen im benchmark review guide von nvidia: wie wärs damit:

batman
heaven benchmark
farcry 2
red faction: guerilla
metal knight zero
mirrors edge
dark void
usw...

brauchen nur ein paar solcher tollen TWIMTBP titel ausgraben, mit veralteten amd treibern benchen und voila, fertig sind die 25% avg.

ihr die nvidia fans fallen alle drauf rein. ganz großes kino. ne tolle komödie. aber für euch jungs wirds wahrscheinlich eher ein drama oder eine tragödie.

Naja, bei NVidia brauchst du aber keine bugfixes für jedes 2. Spiel. NVidia hatte jetzt EINEN Treiber draussen wo bei einigen Karten die Lüftersteuerung nicht funktionierte. Ich konnte dieses Phänomen allerdings nicht bei mir sehen (GTX260).

Gast
2010-03-22, 20:29:34
Man kann doch nur den Treiber nehmen, der zur Verfügung gestellt wird. Genauso könnten die Optimierungen bei NVIDIA schon mit drin sein. Wie sich das mit dem Treiber dann entwickelt wird sich in den nächsten Wochen/Monaten zeigen.

Seit dem Spax-Schrauben-Potemkin(TM :D), den Huang Anfang November hochgehalten hat "..this puppy here is Fermi. It just came back from Fab." optimieren die an den Treibern, da gabs ja laut NV schon Karten. Was soll da also noch groß kommen?

Gast
2010-03-22, 20:29:49
Definitiv. Und wenn sich der Markt anders entwickelt hätte und die HD 5870 für unter 300€ über die Ladentheke gehen würde, würde ATI den High-End-Markt immer noch mit der HD 5970 bedienen.

Wird auch, aber die 5970 ist ja eh nur mGPU hype Schmutz.

Gast
2010-03-22, 20:30:14
Wo liegt für einige hier eigentlich die Definition von HighEnd? Hört doch mal auf mit diesem Unsinn. Es interessiert mich einen Shicedreck wie AMD oder NV ihre GPUs intern einsortieren, letztlich zählt nur die Situation der derzeit auf den Markt erhältlichen Produkte und wenn eine HD5870 jetzt seit nunmehr ca. 6 Monaten die schnellste SingleGPU-Graka ist, dann ist das HighEnd.

HighEnd macht sich für mich weder an der Die-Größe (unfassbarer Schwachsinn) noch am Preis fest, sondern einzig an der Leistung.

Ronny145
2010-03-22, 20:30:41
Dirt 2 bis zu +60% gegenüber einer HD 5870, in höchster Auflösung mit 4xAA noch +35%. Allerdings soll der Cat. 10.3 Preview einen Performanceschub von bis zu 20% in Dirt 2 auf der HD-5800-Serie bringen, so dass der Vorsprung der GTX 480 in Dirt 2 auf 15-35% schrumpfen wird (inkl. Tessellation).


Wie kommst du auf die Werte?

Gast
2010-03-22, 20:30:47
Dirt 2 bis zu +60% gegenüber einer HD 5870, in höchster Auflösung mit 4xAA noch +35%. Allerdings soll der Cat. 10.3 Preview einen Performanceschub von bis zu 20% in Dirt 2 auf der HD-5800-Serie bringen, so dass der Vorsprung der GTX 480 in Dirt 2 auf 15-35% schrumpfen wird (inkl. Tessellation).

Wo denn? Außer Dirt2 was so oder so schon schnell läuft, bzw. 5-10% mehr im Unigine machen den Braten jetzt auch nicht mehr fett.
http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance

Gast23
2010-03-22, 20:31:01
Mit Fermi wird TSSAA irrelevant. Mit 32 Samples wird TMSAA nicht nur schneller, sondern auch deutlich schöner sein.

Das wird man ja dann sehen ob 32x CSAA TMSAA schneller ist und besser aussieht als 4x MSAA + 4x TSSAA.

Gast
2010-03-22, 20:32:45
Wo liegt für einige hier eigentlich die Definition von HighEnd? Hört doch mal auf mit diesem Unsinn. Es interessiert mich einen Shicedreck wie AMD oder NV ihre GPUs intern einsortieren, letztlich zählt nur die Situation der derzeit auf den Markt erhältlichen Produkte und wenn eine HD5870 jetzt seit nunmehr ca. 6 Monaten die schnellste SingleGPU-Graka ist, dann ist das HighEnd.

HighEnd macht sich für mich weder an der Die-Größe (unfassbarer Schwachsinn) noch am Preis fest, sondern einzig an der Leistung.

Dickes rofl! Herstellungskosten woran sonst?

Gast
2010-03-22, 20:32:53
Highend ist immer NVidia. Selbst ATI gibt das zu, bei denen sind das Performance Chips. Die Krone hat eigentlich immer NVidia in jeder Generation.

Spasstiger
2010-03-22, 20:34:59
Wie kommst du auf die Werte?
:whistle:

@Gast: Mit Downsampling oder einem Multimonitor-Setup kann man die Rechenleistung schon brauchen. Die GTX 480 und die HD 5870 sind ja keine Mainstreamkarten für den Durchschnittsanspruch.

Gast
2010-03-22, 20:35:56
Highend ist immer NVidia. Selbst ATI gibt das zu, bei denen sind das Performance Chips. Die Krone hat eigentlich immer NVidia in jeder Generation.

Und daran wird sich für lange zeit nichts ändern. AMD sieht einfach kein Potential im GPU-Markt. Wenn sie könnten wie sie wollen...

Gast
2010-03-22, 20:38:13
Wenn nV so weitermacht wird sich recht bald was ändern, dann sind sie nämlich weg vom Fenster. Noch so ein Reinfall und es ist soweit.

Gast
2010-03-22, 20:41:38
Wie glaubst du würde sich denn ein ATI Chip mit der die-Größe verhalten?

Er wäre kaum schneller und würde wahrscheinlich noch mehr Strom fressen.

AwesomeSauce
2010-03-22, 20:42:27
Wenn nV so weitermacht wird sich recht bald was ändern, dann sind sie nämlich weg vom Fenster. Noch so ein Reinfall und es ist soweit. :facepalm: Kindergartenlogik... nuff said!

Gast
2010-03-22, 20:42:52
ATI muss jetzt erstmal ne neue Architektur bringen. Dann stehen die da wo NVidia jetzt ist. Nvidia hat dann den Refresh am Start.

Gast
2010-03-22, 20:42:52
Momentan sieht es eher nach dem genauen Gegenteil aus, denn AMD gibt doch gerade im Bereich der Consumer-Grakas mächtig Gas und sieht da offensichtlich viel Potenzial. Zumal die GPU-Sparte tatsächlich Gewinne einfährt und man die eigene Marktposition besonders seit RV770 schrittweise immer mehr verbessern konnte.

Grestorn
2010-03-22, 20:43:18
Den Preis bestimmen zur Zeit die Händler. Wonach definierst du also High End?

Die Produkte einer Generation mit der besten Performance.

MiamiNice
2010-03-22, 20:44:31
Dickes rofl! Herstellungskosten woran sonst?

Oberdickes rofl! Natürlich an der Leistung. An der Herstellungskosten gibt irgendwie keinen Sinn für mich.

Gast
2010-03-22, 20:47:26
ATI muss jetzt erstmal ne neue Architektur bringen. Dann stehen die da wo NVidia jetzt ist. Nvidia hat dann den Refresh am Start.

Soso.
VOr ein paar Monaten hieß es noch, dass AMD im Nachteil ist, da Sie jetzt noch die alte Architektur erweitern, die ja eh so ineffizient ist und schlecht skaliert.
Naja man schreibt halt immer, was man lesen will...

Grestorn
2010-03-22, 20:48:18
Wo liegt für einige hier eigentlich die Definition von HighEnd? Hört doch mal auf mit diesem Unsinn. Es interessiert mich einen Shicedreck wie AMD oder NV ihre GPUs intern einsortieren, letztlich zählt nur die Situation der derzeit auf den Markt erhältlichen Produkte und wenn eine HD5870 jetzt seit nunmehr ca. 6 Monaten die schnellste SingleGPU-Graka ist, dann ist das HighEnd.

HighEnd macht sich für mich weder an der Die-Größe (unfassbarer Schwachsinn) noch am Preis fest, sondern einzig an der Leistung.

Ganz richtig. ATI hat schon lange wieder HighEnd im Programm und bis heute auch das absolute Bleeding Edge Produkt im Portfolio. Mehr HighEnd geht nicht.

Was sollte eigentlich gerade diese Breitseite von BlackScorpion gegen mich? Schlecht geschlafen?

Ausgerechnet mir solche Dinge vorzuwerfen, wo ich mich in diesem Thread fast kaum beteiligt habe...

Spasstiger
2010-03-22, 20:49:14
ATI muss jetzt erstmal ne neue Architektur bringen. Dann stehen die da wo NVidia jetzt ist. Nvidia hat dann den Refresh am Start.
Jopp, Nvidia dürfte es bei der nächsten Generation leichter haben als ATI. Man kann in 28 nm einfach nochmal 4 GPCs und zwei ROP-SI-Partitionen dranbasteln und hat wieder einen Top-Chip mit satter Mehrleistung. ATI dagegen bringt nach dem Refresh erstmal eine neue Architektur, die auf Effizienz getrimmt werden muss, um mehr Transistoren auch in höhere Performance umsetzen zu können.

PulsarS
2010-03-22, 20:50:35
Also, was hier einige (vor allem Gäste) schreiben... :lol:
Schon lange nicht mehr so gut gelacht. :up:
Highend ist immer NVidia. Selbst ATI gibt das zu, bei denen sind das Performance Chips. Die Krone hat eigentlich immer NVidia in jeder Generation.
Vor allem beim NV30/R300...:rolleyes:
Damals hat ATI nämlich mit NV den Boden gewischt.
In einigen Spielen (SM2.0) waren die Midrangekarten (9600PRO) von ATI schneller als die High-End-Karten (FX5800) von Nvidia.

Gast
2010-03-22, 20:51:36
Spasstiger. Es wird nicht so einfach für ATI. Du hast es schon erkannt. Der neue 28nm Prozess, neue "Feautures" etc pepe. NVidia bringt dann Refresh des Fermis.

Gast
2010-03-22, 20:56:14
Spasstiger. Es wird nicht so einfach für ATI. Du hast es schon erkannt. Der neue 28nm Prozess, neue "Feautures" etc pepe. NVidia bringt dann Refresh des Fermis.
Wobei man davon ausgehen kann, dass 28 nm noch ne ganze Weile auf sich warten lassen wird. Von rund laufen ganz zu schweigen. Da hat Amd noch etwas Zeit, fertig zu entwickeln. ;)

Gast
2010-03-22, 20:58:26
Jede Wette. Das wird dasselbe Desaster wie jetzt mit Fermi. Ach was solls, eh alles Konsolenports.

Gast
2010-03-22, 21:01:07
Das wird man ja dann sehen ob 32x CSAA TMSAA schneller ist und besser aussieht als 4x MSAA + 4x TSSAA.

Garantiert, es wird auch besser aussehen als 8xTSSAA. Mit 16x TSSAA könnte man eventuell qualitätsmäßig mithalten, allerdings wird es das wohl nicht geben.

Gast
2010-03-22, 21:04:40
In einigen Spielen (SM2.0) waren die Midrangekarten (9600PRO) von ATI schneller als die High-End-Karten (FX5800) von Nvidia.

In einigen Spielen (mit Tessellation) wird das auch bei GF1xx vs. RV8xx der Fall sein. Und was sagt uns jetzt diese Rosinenpickerei?

Gast
2010-03-22, 21:05:56
Wobei man davon ausgehen kann, dass 28 nm noch ne ganze Weile auf sich warten lassen wird. Von rund laufen ganz zu schweigen. Da hat Amd noch etwas Zeit, fertig zu entwickeln. ;)


Blöd wäre für NV nur wenn GF einen vernünftigen 28nm-Prozess schafft, TSMC aber nicht.

Spasstiger
2010-03-22, 21:08:30
Garantiert, es wird auch besser aussehen als 8xTSSAA.
Kommt immer auf den Content an und wie repräsentativ der jeweils gewählte Farbwert pro Polygon und Pixel bei TMSAA ist. Bei 8xTSSAA stehen die Chancen gut, dass man repräsentative Farbwerte abtastet, so dass in Bewegung kein Flimmern auftritt.
Bei normalem LOD-Bias sollte TMSAA mit 32 Coverage-Samples aber einen guten Job machen.

Gast
2010-03-22, 21:08:37
GF schafft natürlich sofort 28nm in Massenproduktion zu bringen. Klaaaaaar. Ich sage ATI wird noch mehr Probleme als NVidia in Zukunft haben. Fermi wird refreshed. Was dann ATI?

Gast
2010-03-22, 21:10:59
In einigen Spielen (mit Tessellation) wird das auch bei GF1xx vs. RV8xx der Fall sein. Und was sagt uns jetzt diese Rosinenpickerei?
Dass Nvidia nicht immer High-End war, so wie es der Gast behauptet hat.
Und wie es mit GF100 vs RV870 sein wird, das muss man erstmal abwarten. Das ist reine Spekulation.
Meine Aussage zu R300 und NV30 ist Fakt.

PulsarS

Gast
2010-03-22, 21:12:45
ATI war da Highend wo ich die 9800 Pro hatte. lang lang ist es her.

y33H@
2010-03-22, 21:13:34
Letzter Highend-Chip war R600, daher hieß alles danach auch RV.

Gast
2010-03-22, 21:14:32
Die Produkte einer Generation mit der besten Performance.

Für was du es hältst ist deine Sache. Fakt ist das AMD die Entwicklungskosten extrem beschneidet.

Gast
2010-03-22, 21:15:35
Ganz richtig. ATI hat schon lange wieder HighEnd im Programm und bis heute auch das absolute Bleeding Edge Produkt im Portfolio. Mehr HighEnd geht nicht.

Was sollte eigentlich gerade diese Breitseite von BlackScorpion gegen mich? Schlecht geschlafen?

Ausgerechnet mir solche Dinge vorzuwerfen, wo ich mich in diesem Thread fast kaum beteiligt habe...

Was einzig und alleine auf die Schwäche der Konkurrenz zurück zu führen und und deshalb wenn man so will nicht mehr als eine glückliche Fügung.

Gast
2010-03-22, 21:18:40
Dass Nvidia nicht immer High-End war, so wie es der Gast behauptet hat.

Wieso sollte NV30/35 kein High-End gewesen sein?

So lange man kein SM2 verwendet hat war man regelmäßig schneller als die ATI-Konkurrenz. Gefehlt hat es natürlich bei einigen anderen Dingen, ua. Lautstärke und Stromverbrauch (wobei das aus heutiger Sicht eigentlich lächerlich ist, heute brauchen selbst Midrange-Karten mehr als der damalige NV30)
Und auch die Bildqualität war unausgewogenen, zwar gab es deutlich besseres AF, aber dafür nur schlechtes MSAA.

Gast
2010-03-22, 21:19:24
Seit dem G80 hinkt ATI hinterher. Dann kam eine 2900 die echt schlimm war. Dann haben die aufgeschlossen. Gut. NVidia hat sich da ausgeruht, siehe Rom. Jetzt kommen die wieder in die Puschen. Seit G80 war NVidia in jeder Generation Leader. Fakt.

Gast
2010-03-22, 21:28:54
Gut ich sehe schon es bringt wohl nichts weiter zu diskutieren. Ich fasse mal zusammen, wenn AMD also eine Graka bringt die die schnellste am Markt ist und NV nichts schnelleres hat oder kurzfristig bringt, bleibt AMD trotzdem nur Performance. Richtig?

Also nach dieser Logik ist dann ja momentan (und die letzten 6 Monate) die GTX285 HighEnd und HD5870 Performance.

Grestorn
2010-03-22, 21:29:40
Wenn man neuerdings bei NV auf der Gehaltsliste steht brauch man sich nett wundern;)

Wär ja schön, wenn ich Geld bekäme.

Virales Marketing würde aber ganz sicher anders aussehen, als das was ich im Allgemeinen so schreibe.

Gast
2010-03-22, 21:30:58
Seit 3 Generationen definiert AMD High-End als zwei zusammengeklebte Performanceprodukte mittels Crossfire.
Das ist unbestreitbar.

In wie fern man die kleinen Performanceprodukte, hier z.b. 5870 1GiB dazu zählen kann ist Ansichtssache.

mapel110
2010-03-22, 21:30:59
Also nach dieser Logik ist dann ja momentan (und die letzten 6 Monate) die GTX285 HighEnd und HD5870 Performance.
Genau, nur dass AMD ihren Mid Range Chip zu High End Preisen verkaufen kann.

Gast
2010-03-22, 21:31:44
Nur weil Grestorn für nHancer steht wird er jetzt von NVidia mit Geld zugeschüttet? Glaube ich nicht. Und selbst wenn es so wäre, verdient hätte er es!

Gast
2010-03-22, 21:33:45
Gut ich sehe schon es bringt wohl nichts weiter zu diskutieren. Ich fasse mal zusammen, wenn AMD also eine Graka bringt die die schnellste am Markt ist und NV nichts schnelleres hat oder kurzfristig bringt, bleibt AMD trotzdem nur Performance. Richtig?

Also nach dieser Logik ist dann ja momentan (und die letzten 6 Monate) die GTX285 HighEnd und HD5870 Performance.

Du siehst etwas falsch. Bitte vergleiche 5870 mit der 480. Danke.

urfaust
2010-03-22, 21:37:55
High-End Logik

dahinter steckt keine Logik, das ist Fanboy-Rabulistik par excellence

Ich bin ja schon ein schlimmer Fanboy,
aber was die Fanboys vom anderen Lager zurechtspinnen übertrifft alles.
Dogmatismus ist da noch gelinde ausgedrückt..

Noch ein Grund mehr für den 26 März eine weitere Flasche Champagner
einzulagern. Nach dem Hochmut kommt der Fall

Gast
2010-03-22, 21:39:58
Du siehst etwas falsch. Bitte vergleiche 5870 mit der 480. Danke.

dann gib ihm doch eine 480 :rolleyes:

Gast
2010-03-22, 21:41:44
Keine Woche mehr, dann sehen wir was Highend ist. OK, der Lastverbrauch wird etwas happig, aber die Leistungskrone hat NV.

Gast
2010-03-22, 21:42:42
Du siehst etwas falsch. Bitte vergleiche 5870 mit der 480. Danke.


Es ging mir darum mit diesen unsäglichen Unsinn aufzuräumen die GPUs anhand von Herstellerangaben zu beurteilen, statt an dem was wirklich wichtig ist, nämlich der Performance im Vergleich mit dem aktuellen Graka-LineUp des Konkurrenten, aber wenn ihr euch besser damit fühlt das AMD kein HighEnd baut gut seis drum.

Nebenbei sollte man nicht ganz vergessen, dass wir bei GTX480 von einer Karte sprechen die in einem ganz anderen Preissegment spielt. Von einer Graka die wahrscheinlich 100-150€ mehr kosten wird (vielleicht durch Händler in erster Zeit noch mehr), kann man wohl eine bessere Performance erwarten.

Gast
2010-03-22, 21:43:21
wie so autsch? das sind 65% plus vor einer GTX280 und der GF100 auf der GTX480 ist noch lange nicht am "Chip limit"... 32SP fehlen und mehr takt wäre bei einer besseren fertigung sicher auch noch möglich...

Wie wärs mit Treibern die über 3 Monaten hinweg 20% Leistung dazulegen...

mapel110
2010-03-22, 21:44:22
Nebenbei sollte man nicht ganz vergessen, dass wir bei GTX480 von einer Karte sprechen die in einem ganz anderen Preissegment spielt. Von einer Graka die wahrscheinlich 100-150€ mehr kosten wird (vielleicht durch Händler in erster Zeit noch mehr), kann man wohl eine bessere Performance erwarten.
Der Preis wird sich durch die Performance im Vergleich zur Konkurrenz definieren. Nicht umgekehrt. Das war schon immer so.

Gast
2010-03-22, 21:44:39
Ja und warum ist die so teuer? Richtig. Weil sowas Highend ist. Halt die schnellste Singlekarte auf dem Markt. Jetzt melkt dann NV die Kunden, ATI hats vorgemacht.

Gast
2010-03-22, 21:44:44
Wie wärs mit Treibern die über 3 Monaten hinweg 20% Leistung dazulegen...

Bei so langsamen und instabilen* Treibern ist das kein Wunder.

*: offizielle Aussage des Chefs des ATI Treiberteams!

Gast
2010-03-22, 21:45:36
dahinter steckt keine Logik, das ist Fanboy-Rabulistik par excellence

Ich bin ja schon ein schlimmer Fanboy,
aber was die Fanboys vom anderen Lager zurechtspinnen übertrifft alles.
Dogmatismus ist da noch gelinde ausgedrückt..

Noch ein Grund mehr für den 26 März eine weitere Flasche Champagner
einzulagern. Nach dem Hochmut kommt der Fall

Logik? Wasn das? Du scheinst es auf keinen Fall zu kennen. Und jetzt geh... bitte...

cR@b
2010-03-22, 21:48:29
Ja und warum ist die so teuer? Richtig. Weil sowas Highend ist. Halt die schnellste Singlekarte auf dem Markt. Jetzt melkt dann NV die Kunden, ATI hats vorgemacht.

Bei ner verkrüppelten Karte wird nV kaum Kunden melken^^

LovesuckZ
2010-03-22, 21:50:05
Ich finde es lustig, dass GF100 High-End wäre und Cypress nicht. Mal ein Gedankenspiel:
rv670: 192mm^2; Cypress: 334mm^2 => 74% größer
G92: 324mm^2; GF100: 529mm^2 => 63% größer.

Entweder sind beide Chips Performance/Mid-Range oder beides High-End. Hemlock kann man nicht als High-End bezeichnen, weil er langsamer als Cypress sein kann.

Gast
2010-03-22, 21:50:51
NV wird die Kunden melken wie Jahre zuvor. Fermi ist zwar anscheinend nicht der Brüller, aber für ATI reicht es.

Gast
2010-03-22, 21:51:47
Ne 5970 dreht kreise um die 480 und braucht auch nicht mehr saft. Im 2D noch viel weniger. Das ist Highend und das noch lange.
Weil mit ner Dual 480 flammt der PC ab.

Gast
2010-03-22, 21:52:20
Ich finde es lustig, dass GF100 High-End wäre und Cypress nicht. Mal ein Gedankenspiel:
rv670: 192mm^2; Cypress: 334mm^2 => 74% größer
G92: 324mm^2; GF100: 529mm^2 => 63% größer.

Entweder sind beide Chips Performance/Mid-Range oder beides High-End. Hemlock kann man nicht als High-End bezeichnen, weil er langsamer als Cypress sein kann.


Boar ich breche ab. Du hast hier gerade noch gefehlt.

Eggcake
2010-03-22, 21:53:37
Jetzt soll man also High End an der prozentualen Zunahme der Diegrösse verglichen mit dem Vorgänger festmachen?

Wie dem auch sei: KANN MAN DIESE HIGHEND/PERFORMANCE-DISKUSSION BITTE UNTERLASSEN? ES FÜHRT ZU NICHTS!

/capsoff

y33H@
2010-03-22, 21:53:44
MGPU ist kein Highend ...

Gast
2010-03-22, 21:54:14
Ne 5970 dreht kreise um die 480 und braucht auch nicht mehr saft. Im 2D noch viel weniger. Das ist Highend und das noch lange.
Weil mit ner Dual 480 flammt der PC ab.

Singelkarte? Nö. NV wird auch da kontern. Alles eine Frage der Zeit.

Gast
2010-03-22, 21:56:52
Ne 5970 dreht kreise um die 480 und braucht auch nicht mehr saft. Im 2D noch viel weniger. Das ist Highend und das noch lange.
Weil mit ner Dual 480 flammt der PC ab.

SLI/CF ist mit MRs, Inputlag und Treiber Problemen behaftetes Armutszeugnis, sonst nichts.

Gast
2010-03-22, 21:57:34
MGPU ist und bleibt Ansichtssache bzw. besser eine Sensibilitätsgeschichte. Für mich kam und kommt es nicht in Frage, aber ich kenne doch einige die ehrlich zufrieden mit ihrem SLI oder CF sind. Also wie immer Pauschalisierung nicht möglich.

Gast
2010-03-22, 21:58:10
Wobei man sagen muss das bei SLI die Microruckler nicht so ausgeprägt sind.

Gast
2010-03-22, 21:58:30
Ich finde es lustig, dass GF100 High-End wäre und Cypress nicht. Mal ein Gedankenspiel:
rv670: 192mm^2; Cypress: 334mm^2 => 74% größer
G92: 324mm^2; GF100: 529mm^2 => 63% größer.

Entweder sind beide Chips Performance/Mid-Range oder beides High-End. Hemlock kann man nicht als High-End bezeichnen, weil er langsamer als Cypress sein kann.

Weil du Prozentrechnen ja echt drauf hast. Um wieviel ist denn GF 100 Größer als Cypress?

Gast
2010-03-22, 21:59:10
also wenn es so weiter geht bekommen wir die 1000 seiten wirklich noch voll! heute wohl wieder 40-50 seiten nur mit ruß...und das nennt man dann infos...klasse!


ich mein wird ja immer viel geheult in foren aber hier ist echt geil...erst die bösen grünen und dann 3 seiten wieder die böen roten....bla bla bla!

würde mich 4 tage vor NDA ende über paar sinnvolle inhalte freuen!

LovesuckZ
2010-03-22, 22:00:17
Weil du Prozentrechnen ja echt drauf hast. Um wieviel ist denn GF 100 Größer als Cypress?

Weniger als zwischen G92 und rv670. :rolleyes:

Gast
2010-03-22, 22:01:56
also wenn es so weiter geht bekommen wir die 1000 seiten wirklich noch voll! heute wohl wieder 40-50 seiten nur mit ruß...und das nennt man dann infos...klasse!


ich mein wird ja immer viel geheult in foren aber hier ist echt geil...erst die bösen grünen und dann 3 seiten wieder die böen roten....bla bla bla!

würde mich 4 tage vor NDA ende über paar sinnvolle inhalte freuen!

Herr Gast es gibt halt keine Leaks. Alle halten dich. Würde mich auch gerne über andere Dinge unterhalten.

Gast
2010-03-22, 22:03:20
Weniger als zwischen G92 und rv670. :rolleyes:

Und noch viel weniger ist der Leistungsunterschied :D

Wie du von einer Brücke springen wirst, wenn die Zahlen offiziell sind!

Schlammsau
2010-03-22, 22:04:26
Weniger als zwischen G92 und rv670. :rolleyes:

Nunja die Mehrleistung Fermis wird ja auch bedeutend weniger sein als RV670 (3870) vs G92 (9800GTX)!

Gast
2010-03-22, 22:04:43
MGPU ist kein Highend ...

Wie man es definiert.
http://www.pcgameshardware.de/aid,705699/Asus-HD-5870-Matrix-auf-der-Cebit-2010-High-End-Radeon-aus-der-ROG-Serie/Grafikkarte/News/

LovesuckZ
2010-03-22, 22:05:07
Und noch viel weniger ist der Leistungsunterschied :D

Wie du von einer Brücke springen wirst, wenn die Zahlen offiziell sind!

Wieso? Hab mir ja keine Zitrone gekauft. Die wird einigen noch Tränen in die Augen bringen, wenn die "DX11" sehen. ;D
Aber sie haben Glück: SuperDave hat ja schon angekündigt alles für die Zitronenkäufer zu tun: Nieder mit Tessellation. :freak:
/Sarkasmus

Ohman, das Niveau sinkt wirklich stündlich.

Um mal ein bissches neues reinzubringen: MSI Packshot und Karte.
http://www.we-wi.be/Images/msi.png

Gast
2010-03-22, 22:05:37
Fermi wird vor der 5870 landen. Das dürfte klar sein. NV wird die Karte nicht für 500 Tacken verkaufen und die 5870 liegt davor.

Gast
2010-03-22, 22:08:22
Herr Gast es gibt halt keine Leaks. Alle halten dich. Würde mich auch gerne über andere Dinge unterhalten.


ja aber das es garde nix zu berichten gibt heißt ja nicht gleich das man wie blöde versuchen sich quasi so blöd wie möglich da stehn zu lassen!

jeder draf gern kaufen was er will...(ist meine meinung) aber immer diese grundsatz debatten ob nun Grün,ROt oder lila...blau...nerven sicher ne menge leute!

und gibt genug leute die hier im forum ahnung haben!

Gast
2010-03-22, 22:09:41
Das sinkende Niveau geht mit deinen Posts einher; schreibst du einen, schlägt es wie Cross Fire nach unten hin aus.

Ich hätte es nicht besser formulieren können.

P.S.: wo wohnt der Weihnachtsmann?

mapel110
2010-03-22, 22:10:14
Nunja die Mehrleistung Fermis wird ja auch bedeutend weniger sein als RV670 (3870) vs G92 (9800GTX)!
Die 512SP-Variante kommt ja noch, erst dann hat man die volle Ausbaustufe von GF100. Dann sollten es locker mehr als 20% sein, größerer Abstand als zwischen RV670/G92

/edit
15% mehr? Dann ist man wohl bei etwa 800 Mhz Core. Gar nit übel, aber über 300 Watt TDP ist man dann wohl auch.

Gast
2010-03-22, 22:12:11
Die 512SP-Variante kommt ja noch, erst dann hat man die volle Ausbaustufe von GF100. Dann sollten es locker mehr als 20% sein, größerer Abstand als zwischen RV670/G92

Im Gegensatz zum Fermi pfeift der RV870 nicht aus dem letzten Loch, aus dem ist auch noch was heraus zu holen, keine Angst.

urfaust
2010-03-22, 22:12:16
Die 512SP-Variante kommt ja noch

wo steht das geschrieben? Gesichert?

Atianer mutmaßten auch, dass ein 5890 käme,
doch Fehlanzeige.

mapel110
2010-03-22, 22:13:51
wo steht das geschrieben? Gesichert?

Atianer mutmaßten auch, dass ein 5890 käme,
doch Fehlanzeige.
512SPs kommen definitiv. Hat sogar Charlie schon geschrieben, dass GF100 nochmal in den Ofen geht für B1-Stepping.

Schlammsau
2010-03-22, 22:16:09
Die 512SP-Variante kommt ja noch, erst dann hat man die volle Ausbaustufe von GF100. Dann sollten es locker mehr als 20% sein, größerer Abstand als zwischen RV670/G92.

Und die 1Ghz 5870/2GB stehen in den Startlöchern.

Die dürften sogar immernoch weniger als eine GTX48(5)? verbrauchen.

So oder so, Fermi wird den P/L Kampf im High End mal wieder verlieren!

z3ck3
2010-03-22, 22:19:18
Nehmen wir mal an die GTX480 (angebliche TDP 250W) verbraucht im schlimmsten Fall 280 Watt, wieso wird da immer wieder darauf hingewiesen das man ein 600 Watt Netzteil braucht? Sollte selbst da nicht ein gutes 500 W Netzteil reichen, vorrausgesetzt man hat nur ein normalen Unterbau mit Core i5 750, 8GB Ram, 2x HDD und nen Brenner? Das Enermax EMG500AWT (http://www.enermax.de/produkte/power-supplies/modu87plus0.html) z.b. hat 492W auf den 3 12V Leitungen. Klar ist das etwas knapp unter Vollast, aber wann wird das System so gut ausgelastet das Grafikkarte + CPU + alle weiteren Komponenten unter Volldampf (ca. 400-450Watt maximal geschätzt) stehen?

Redneck
2010-03-22, 22:20:07
Ich finde es lustig, dass GF100 High-End wäre und Cypress nicht. Mal ein Gedankenspiel:
rv670: 192mm^2; Cypress: 334mm^2 => 74% größer
G92: 324mm^2; GF100: 529mm^2 => 63% größer.

Entweder sind beide Chips Performance/Mid-Range oder beides High-End. Hemlock kann man nicht als High-End bezeichnen, weil er langsamer als Cypress sein kann.

Ich gehe da konform mit Grestorn... die Performance ist EINER der Punkte,über die sich High End definiert.
Grössenvergleiche sind quatsch, denn gross bedeutet nicht = schnell (R600 z.B.) noch bedeuted gross nicht = automatisch High End.

Würde der Performance aber noch 1 Punkt hinzufügen wollen und das
ist das zur Verfügung stellen von neuen Technologien. Ein High End Produkt mit neueren Features hat auch ein entsprechendes Image als Technologieträger und stellt nicht nur im Bereich Performance , sondern auch
im Bereich technischen Möglichkeiten die Speerspitze dar.

derguru
2010-03-22, 22:20:45
Und die 1Ghz 5870/2GB stehen in den Startlöchern.

Die dürften sogar immernoch weniger als eine GTX48(5)? verbrauchen.

So oder so, Fermi wird den P/L Kampf im High End mal wieder verlieren!
die stehen aber schon lange in den startlöchern,die sollen mal gas geben sonst muss ich ja so ne wurst wie fermi kaufen.:tongue:

p/l kampf hat nv immer verloren nur diesmal wird es nicht nur dabei bleiben.

Gast
2010-03-22, 22:23:02
Nehmen wir mal an die GTX480 (angebliche TDP 250W) verbraucht im schlimmsten Fall 280 Watt, wieso wird da immer wieder darauf hingewiesen das man ein 600 Watt Netzteil braucht? Sollte selbst da nicht ein gutes 500 W Netzteil reichen, vorrausgesetzt man hat nur ein normalen Unterbau mit Core i5 750, 8GB Ram, 2x HDD und nen Brenner? Das Enermax EMG500AWT (http://www.enermax.de/produkte/power-supplies/modu87plus0.html) z.b. hat 492W auf den 3 12V Leitungen. Klar ist das etwas knapp unter Vollast, aber wann wird das System so gut ausgelastet das Grafikkarte + CPU + alle weiteren Komponenten unter Volldampf (ca. 400-450Watt maximal geschätzt) stehen?

Ja dein NT wird reichen. Darfst halt nicht den Prozzi übertakten. Ein Core I5 schluckt auch einiges bei Übertaktung.

Gast
2010-03-22, 22:23:27
Ich gehe da konform mit Grestorn... die Performance ist EINER der Punkte,über die sich High End definiert.
Grössenvergleiche sind quatsch, denn gross bedeutet nicht = schnell (R600 z.B.) noch bedeuted gross nicht = automatisch High End.

Würde der Performance aber noch 1 Punkt hinzufügen wollen und das
ist das zur Verfügung stellen von neuen Technologien. Ein High End Produkt mit neueren Features hat auch ein entsprechendes Image als Technologieträger und stellt nicht nur im Bereich Performance , sondern auch
im Bereich technischen Möglichkeiten die Speerspitze dar.

R600 funktionierte ja auch nicht richtig. Ergo schlechter Vergleich.

davidzo
2010-03-22, 22:24:05
Zum NV30 vs 9800pro
In einigen Spielen (mit Tessellation) wird das auch bei GF1xx vs. RV8xx der Fall sein. Und was sagt uns jetzt diese Rosinenpickerei?
Beim NV30 war das ein ganz anderer Fall, er hat quasi in allem abgeloost für das er konstruiert war. Das war nicht nicht so exorbitant, weil nvidia die Schwäche zuerst durch horrende texturfiltereinsparungen und nachher durch den massiv größeren nv35 verdeckt hat. Wie real damals keinerlei highend von nvidia da war sieht man sehr schön im 3dcenter rückblick:
http://www.3dcenter.org/dateien/abbildungen/02_cod2-mittel.png
http://www.3dcenter.org/artikel/die-leistungsfähigkeit-alter-grafikkartengenerationen

Jopp, Nvidia dürfte es bei der nächsten Generation leichter haben als ATI. Man kann in 28 nm einfach nochmal 4 GPCs und zwei ROP-SI-Partitionen dranbasteln und hat wieder einen Top-Chip mit satter Mehrleistung. ATI dagegen bringt nach dem Refresh erstmal eine neue Architektur, die auf Effizienz getrimmt werden muss, um mehr Transistoren auch in höhere Performance umsetzen zu können.

Mehr Transistoren als 3milliarden? Naja, das mag ja meinetwegen skalieren, die kompressorkühlung und der mini kernreaktor sind dann abe rintegriert oder?
Der jetzige Fermi zeigt doch schon langsam relativ deutlich, dass sich die Menge an Transistoren eher nicht lohnt. Der refresh sollte bald kommen, aber eher weniger als Mehr Transistoren haben, das kann man dann besser herstellen, mit strom versorgen und kühlen, volle einheiten freischalten, höher takten etc.
Wann kommt 28nm, 2012 oder doch schon 2011? TSMC hat erst vor einem halben Jahr bekannt gegeben 32nm zu überspringen. 28nm ist für dieses Jahr völlig unerheblich.

ATI muss jetzt erstmal ne neue Architektur bringen. Dann stehen die da wo NVidia jetzt ist. Nvidia hat dann den Refresh am Start.
Wie soll der denn aussehen bitte? Ohne neuen Prozess am Start wie will man den Chip da sinnvoll skalieren? Noch größer machen nur damit noch weniger der vorhandenen Shader funktionieren und sie noch niedriger Takten?

GF schafft natürlich sofort 28nm in Massenproduktion zu bringen. Klaaaaaar. Ich sage ATI wird noch mehr Probleme als NVidia in Zukunft haben. Fermi wird refreshed. Was dann ATI?

Meine Güte, hier gehts doch um Fermi und Generation 2009-2010. Nur weil Fermi jetzt nicht so wird wie gehofft muss man sich doch ni9cht gleich so in die Hosen machen und auf Sachen hinweisen die die nächsten 20 Monate völlig unwichtig und danach womöglich auch nicht mehr von belang sind. Wenn du schon NV-Fanboy bist, dann solltest du auch zu Fermi stehen können und der größten singleGPU der Welt wenigstens deinen respekt zollen und nicht auf etwas Ablenken was damit nichts zutun hat.

ATI war da Highend wo ich die 9800 Pro hatte. lang lang ist es her.

Der R520 war mehr als vergleichbar mit der 7800GTX und nur die stark übertaktete und schnell hinterhergeschobene 7800GTX 512 hat das ganze für nvidia nocheinmal wieder geradegebogen, was aber auch nichts half, denn der r580 übernahm dan die Führung. Der r580 übernahm die Führung am Anfang nur knapp und hatte erst am Ende der Generation eine überdeutliche Mehrperformance gegenüber den G71 derivaten. Spricht nicht gerade für den Vorteil der nvidia Treiberwntwicklung von dem man hier munkelt.
http://www.3dcenter.org/dateien/abbildungen/17_cry-mittel.png


Seit dem G80 hinkt ATI hinterher. Dann kam eine 2900 die echt schlimm war. Dann haben die aufgeschlossen. Gut. NVidia hat sich da ausgeruht, siehe Rom. Jetzt kommen die wieder in die Puschen. Seit G80 war NVidia in jeder Generation Leader. Fakt.
Was ist bitteschön eine Generation? RV770 und GTX200 kamen relativ gleichzeitig, da kann man das noch sagen, aber sollte man nicht auch die Monate in denen der Konkurrent gerade hinterherhängt dazuzählen oder darf man da gar keine highendkarte kaufen, wenn nvidia noch nicht damit draußen ist?
- nach dem G80 hat ATI kurzzeitig mit dem rv670 x2 die Fürhung für ein paar Monate wieder übernommen, noch kürzer war die Phase dann bei der 4870x2, obwohl der Unterschied zur GTX295 hier auch so marginal ist, dass man kaum von klarer Ablöse sprechen kann.


Du siehst etwas falsch. Bitte vergleiche 5870 mit der 480. Danke.

Solange es keine 480 gibt ist die GTX285 die messlatte, so ist das nunmal. Man kann schließlich nicht von Kunden verlangen uninformiert biszu sechs Monate mit dem Kauf zu warten nur weil der Nerd meint irgendein imaginärer Generationenvergleich wäre nicht vorhanden.
genaugenommen war r420 keine Generation genausowenig wie g70 eine war. Trotzdem wurden hier teilweise die größten Leistungssprünge gemacht.
Generationen sind schlussendlich schall und Rauch.
Generationen sind ein Marketingkonstrukt, was den Verkauf kurzfristig (bei vorstellung einer sogenannten generation) steigern soll.
Marchitecture, wie nvidia das so schön mit ihrem G92b vormacht. Zuerst 8800gt, unpassend da die architektur und vp3 sich vom g80 abheben und dann plötzlich 9800gt, gts und gtx, ein shrink und danach GTS250 und schließlich GT 330.
Sag hier nocheinmal einer man müsse Grafikkartenvergleiche innerhalb einer Generation ziehen, wenn nichteinmal ein Hersteller in sich konsequent in einer Generation sein kann.
Zumal Fermi und RV870 durch den sechs monatigen Abstand sich schon mal eben um eine halbe Laufzeit verschoben haben. Man müsste Fermi also gerechterweise zur Hälfte mit RV870 und zur anderen Hälfte mit dem Refresh oder frühe Northern Islands gegen September diesen Jahres vergleichen.

Also weg mit dem bullshitgelabere von Generationen. Verglichen wird mit dem was da ist, fakt, punkt, aus.

Gast
2010-03-22, 22:27:31
Was ist bitteschön eine Generation? RV770 und GTX200 kamen relativ gleichzeitig, da kann man das noch sagen, aber sollte man nicht auch die Monate in denen der Konkurrent gerade hinterherhängt dazuzählen oder darf man da gar keine highendkarte kaufen, wenn nvidia noch nicht damit draußen ist?
- nach dem G80 hat ATI kurzzeitig mit dem rv670 x2 die Fürhung für ein paar Monate wieder übernommen, noch kürzer war die Phase dann bei der 4870x2, obwohl der Unterschied zur GTX295 hier auch so marginal ist, dass man kaum von klarer Ablöse sprechen kann.

Merkst du was? X2 X2 X2...

Gast
2010-03-22, 22:28:09
Herr Davidzo. X2 ist keine Singlekarte.

Redneck
2010-03-22, 22:30:53
So oder so, Fermi wird den P/L Kampf im High End mal wieder verlieren!

2x Nö..

- Wie soll Fermi WIEDER verlieren, wenn er bisher noch nie angetreten ist ?

- der 480 Fermie muß im High End gegen Hemlock antreten , da preislich über 5870 positioniert. Hemlock bringt seine eigenen Probleme mit sich. Da muß jeder
für sich entscheiden, welchen Sack Flöhe er eher bereit ist sich einzuhandeln.
Da sehe ich eher ein unentschieden ... 480 mit mehr Features und single GPU Design dafür langsamer als hemlock... Hemlock mit mehr Dampf aber MultiGPU Problemen.

Redneck
2010-03-22, 22:36:30
R600 funktionierte ja auch nicht richtig. Ergo schlechter Vergleich.

- will heissen Fermi funktioniert auch nicht richtig, wenn Sie nur mit 15% mehr Dampf über 5870 kommt ?

- ich bleibe dabei.... gross bedeutet nicht automatisch schnell

Gast
2010-03-22, 22:43:00
Hachja, ich spekulier auch mal.
Die GTX4x0 Reihe wird auch veränderbare Spannungen bieten (sogar per Windows Tool, siehe Asus Verpackungen). Sollte die GTX4x0 Reihe auch ebenso wie die GTX2x0 Reihe, standardmäßig mit anständig viel Spannung befeuert werden dann passiert dasselbe wie bei der GTX280 hier: http://extreme.pcgameshardware.de/attachments/31724d1219612730-gtx280-260-g200-1024mb-undervolt-und-fan-mod-nibitor-gtx280-volt-und-fan-mods2.jpg

Erstens - für die Stromsparheulsusen: Sie verbraucht, mit einem Voltagemod, auf einen Schlag 31% weniger und man kann sie trotzdem noch übertakten.

Zweitens - für Enthusiasten: Dank Wasserkühlung können sie noch mehr Spannung als Default geben und so noch weiter übertakten.

Gast
2010-03-22, 22:48:19
Hachja, ich spekulier auch mal.
Die GTX4x0 Reihe wird auch veränderbare Spannungen bieten (sogar per Windows Tool, siehe Asus Verpackungen). Sollte die GTX4x0 Reihe auch ebenso wie die GTX2x0 Reihe, standardmäßig mit anständig viel Spannung befeuert werden dann passiert dasselbe wie bei der GTX280 hier: http://extreme.pcgameshardware.de/attachments/31724d1219612730-gtx280-260-g200-1024mb-undervolt-und-fan-mod-nibitor-gtx280-volt-und-fan-mods2.jpg

Erstens - für die Stromsparheulsusen: Sie verbraucht, mit einem Voltagemod, auf einen Schlag 31% weniger und man kann sie trotzdem noch übertakten.

Zweitens - für Enthusiasten: Dank Wasserkühlung können sie noch mehr Spannung als Default geben und so noch weiter übertakten.

Wollen wir mal hoffen das es bei Fermi auch so einfach geht. Wäre schon schön.

LovesuckZ
2010-03-22, 22:48:42
Hachja, ich spekulier auch mal.
Die GTX4x0 Reihe wird auch veränderbare Spannungen bieten (sogar per Windows Tool, siehe Asus Verpackungen). Sollte die GTX4x0 Reihe auch ebenso wie die GTX2x0 Reihe, standardmäßig mit anständig viel Spannung befeuert werden dann passiert dasselbe wie bei der GTX280 hier: http://extreme.pcgameshardware.de/attachments/31724d1219612730-gtx280-260-g200-1024mb-undervolt-und-fan-mod-nibitor-gtx280-volt-und-fan-mods2.jpg

Erstens - für die Stromsparheulsusen: Sie verbraucht, mit einem Voltagemod, auf einen Schlag 31% weniger und man kann sie trotzdem noch übertakten.

Zweitens - für Enthusiasten: Dank Wasserkühlung können sie noch mehr Spannung als Default geben und so noch weiter übertakten.

Hoffentlich. Meine zwei GTX280 Karten liefen mit 0,96V im 3D Modus. Das sind 0,2V weniger. Wehe die ganzen Tools gehen nur in eine Richtung: nach oben. :mad:

Coda
2010-03-22, 22:49:56
Der R520 war mehr als vergleichbar mit der 7800GTX und nur die stark übertaktete und schnell hinterhergeschobene 7800GTX 512 hat das ganze für nvidia nocheinmal wieder geradegebogen, was aber auch nichts half, denn der r580 übernahm dan die Führung. Der r580 übernahm die Führung am Anfang nur knapp und hatte erst am Ende der Generation eine überdeutliche Mehrperformance gegenüber den G71 derivaten. Spricht nicht gerade für den Vorteil der nvidia Treiberwntwicklung von dem man hier munkelt.
Das hat mit dem Treiber nicht viel zu tun, sondern mit der Hardware.

aylano
2010-03-22, 22:50:19
Für was du es hältst ist deine Sache. Fakt ist das AMD die Entwicklungskosten extrem beschneidet.
Uiiii, diese Falschmeldung geistert wegen einer Fehlinterpretation noch immer herum.
Die Realität, zu sehen in den Geschäftsberichten, spricht was völlig anders.

y33H@
2010-03-22, 22:59:10
Das hat mit dem Treiber nicht viel zu tun, sondern mit der Hardware. FLOPS en masse auf der Ati-Seite und CineFX plus Stalling auf NVs Seite.

Gast
2010-03-22, 23:02:32
2x Nö..

- Wie soll Fermi WIEDER verlieren, wenn er bisher noch nie angetreten ist ?

- der 480 Fermie muß im High End gegen Hemlock antreten , da preislich über 5870 positioniert. Hemlock bringt seine eigenen Probleme mit sich. Da muß jeder
für sich entscheiden, welchen Sack Flöhe er eher bereit ist sich einzuhandeln.
Da sehe ich eher ein unentschieden ... 480 mit mehr Features und single GPU Design dafür langsamer als hemlock... Hemlock mit mehr Dampf aber MultiGPU Problemen.

fermi muss erstmal die 5870 pummeln um gegen hemlock anzutreten

Sascha1971
2010-03-22, 23:13:49
Ist der Zeitpunkt, wann NDA fällt auf Uhrzeit und Ort festgelegt ?
Oder kann z.B. Australien schon 12h vor unserer Zeit alles veröffentlichen ?

davidzo
2010-03-22, 23:17:51
Merkst du was? X2 X2 X2...

na und, es ging um die Definition von highend. Die 4870 lag auch nur knappe 10-12% hinter der GTX280, rechtfertigt das etwa den Ausschluss aus der Highendkategorie? Zwei GTX275 wären dann also schon nicht mehr highend?!

Herr Davidzo. X2 ist keine Singlekarte.

Darf highend nur eine singlekarte sein, wer definiert was das Messzenario ist? Nvidia mit dem Anspruch auf singleGPUs, ATI mit dem Anspruch auf Leistung/herstellungskosten oder der Kunde mit dem Anspruch auf Preisleistung?
Wo hört dann highend auf, direkt nach der durch benchmarks gemittelten schnellsten Karte oder eher 10-20% dadrunter? Selbst wenns dann so knapp ist wie damals bei der x800xt vs 6800U die von den Testern so gemischt bewertet wurden weil sie so nah beeinander lagen?
Klickts?

60% mehr frames mit MR sind selbst in den worstcase frametimes noch besser als nur 15% vor RV870.

2x Nö..

- Wie soll Fermi WIEDER verlieren, wenn er bisher noch nie angetreten ist ?

- der 480 Fermie muß im High End gegen Hemlock antreten , da preislich über 5870 positioniert. Hemlock bringt seine eigenen Probleme mit sich. Da muß jeder
für sich entscheiden, welchen Sack Flöhe er eher bereit ist sich einzuhandeln.
Da sehe ich eher ein unentschieden ... 480 mit mehr Features und single GPU Design dafür langsamer als hemlock... Hemlock mit mehr Dampf aber MultiGPU Problemen.
Jo, wobei man bei so etwas je nach präferenzen auch den Stromverbrauch,die Kühllösung, features (multimonitor, physx, linuxtreiber,...) und übertaktbarkeit in betracht ziehen sollte. Und wenn man sich da beide Lösungen anguckt greift man womöglich doch sowieso zur wesentlich vernünftigeren 5870 bzw. 470er.


Das hat mit dem Treiber nicht viel zu tun, sondern mit der Hardware.

Nö, wenn dann mit der Software. Den Spielen. Die deutlich bessere Rechenleistung beim r580 und die höhere Effizienz der hochtaktenden pipes hat man zum launchzeitpunkt wohl noch nicht wirklich auf der Spieleseite gebraucht.

FLOPS en masse auf der Ati-Seite und CineFX plus Stalling auf NVs Seite.

R520 hatte nicht wirklich mehr FLOPS und ist nun trotzdem deutlich der 7800GTX überlegen und nur wenig vom r580 mit fast dreifacher rechenleistung entfernt. Die dreifachen shader pro pipe sind nicht das ganze Lied und CineFX war zur damaligen Zeit doch ganz ordentlich buggefixt und weiterentwickelt worden.

Gast
2010-03-22, 23:28:16
R520 hatte nicht wirklich mehr FLOPS und ist nun trotzdem deutlich der 7800GTX überlegen und nur wenig vom r580 mit fast dreifacher rechenleistung entfernt. Die dreifachen shader pro pipe sind nicht das ganze Lied und CineFX war zur damaligen Zeit doch ganz ordentlich buggefixt und weiterentwickelt worden.
Zeitlich passt 7800 GTX ziemlich gut in die Mitte von X850 XT und X1800 XT.
Erst 7900 GTX und X1900 XT sind relativ zeitnah erschienen.

Anhand der damals vorherschenden Software hat sich 7800 GTX verdammt gut in seine Stellung zwischen X850 XT und X1800 XT eingefügt.
7900 GTX anfangs als X1900 XT Gegner, aber parallel zu heute ist G71 quasi der RV Chip, er muss nicht zwingend mit der X1900 mithalten, er ist nur ein Bruchtteil so groß, über spätere X19xx ganz zu schweigen, die reihen sich zeitlich zwischen 7900 GTX und 8800 GTX.

Gast
2010-03-22, 23:39:56
na und, es ging um die Definition von highend. Die 4870 lag auch nur knappe 10-12% hinter der GTX280, rechtfertigt das etwa den Ausschluss aus der Highendkategorie? Zwei GTX275 wären dann also schon nicht mehr highend?!
Übertreib mal nicht so heftig.
Da bleibt kein Platz für die 4890, die wiederrum einen zweistelligen Prozentsatz hinten liegt, rein von den wertlosen Benchmarks.
Außerdem meinst du wohl die 512er 4870.

60% mehr frames mit MR sind selbst in den worstcase frametimes noch besser als nur 15% vor RV870.CF muss erstmal zu 20% skalieren, um zur 5870 gleichzuziehen.
Das Spielvergnügen ist dann auf der 5870 immer noch besser.
Mit einer recht guten 60-80% Skalierung liegt man keine Welten vor der 5870, aber so gut muss es erstmal laufen.
Wie stark muss man CF abstrafen, um vergleichen zu können? Locker 20%, mal ganz pauschal behaupted, wenn nicht sogar mehr.

Rosig sieht AMDs Vorsprung mit der 5970 nicht aus, wie man es auch dreht.
Natürlich sieht es die Presse anders, sie zieht nichts ab wegen MGPU, sie testet auch selten abseits der Norm wo die Profile optimiert sind.

Entscheidend ist jedoch, das sich AMD entschieden hat die 5970 als ihr High-End Produkt zu vermarkten.
Absolutes High-End stellt Quad CF dar.
Man darf da nicht die Augen verschliessen, das ist die Marktsituation. Es ist das gute Recht von jedem, sich dazu zu entschliessen einen Bogen um MGPU oder CF zu machen, das ändert aber nichts an dessen Existenz.

Coda
2010-03-22, 23:46:43
Nö, wenn dann mit der Software. Den Spielen. Die deutlich bessere Rechenleistung beim r580 und die höhere Effizienz der hochtaktenden pipes hat man zum launchzeitpunkt wohl noch nicht wirklich auf der Spieleseite gebraucht.
Sag ich doch. Mit der schlichtweg überlegenen Hardware. Dein "Nö" ist völlig fehl am Platz.

Und was hat das jetzt nochmal mit den Treibern zu tun?

AwesomeSauce
2010-03-22, 23:49:04
Sorry, wenn schon gepostet:

GeForce GTX 400 series available in higher volume than Radeon HD 5800 (http://www.brightsideofnews.com/news/2010/3/22/nvidia-geforce-gtx-400-series-available-in-higher-volume-than-radeon-hd-5800.aspx)

Der Cutdown auf 480 CCs dürfte der Verfügbarkeit der GTX480 extrem zu Gute kommen...

Superheld
2010-03-22, 23:49:49
soviel Seiten jetzt lesen, das ist nich lustig :O

mictasm
2010-03-22, 23:52:08
ist eh fast alles nur nerviges offtopic gesabbel...

bis endlich eben gerade mal wieder was zum thema geschrieben wurde. danke awesomesauce...

LovesuckZ
2010-03-22, 23:53:24
Sorry, wenn schon gepostet:

GeForce GTX 400 series available in higher volume than Radeon HD 5800 (http://www.brightsideofnews.com/news/2010/3/22/nvidia-geforce-gtx-400-series-available-in-higher-volume-than-radeon-hd-5800.aspx)

Der Cutdown auf 480 CCs dürfte der Verfügbarkeit der GTX480 extrem zu Gute kommen...

Logisch, das es mehr GTX480 Karten geben wird. Immerhin erhöht sich die Ausbeute deutlich.

AwesomeSauce
2010-03-22, 23:55:22
@LovesuckZ
Natürlich, die Gerüchte zu den weniger als 10'000 Karten weltweit halten sich aber weiterhin hartnäckig. Da finde ich es schon etwas "beruhigend", dass dem wohl nicht so ist;)

aylano
2010-03-22, 23:58:06
Wann kommt 28nm, 2012 oder doch schon 2011? TSMC hat erst vor einem halben Jahr bekannt gegeben 32nm zu überspringen. 28nm ist für dieses Jahr völlig unerheblich.

Grundsätzlich gibts noch GF. Immerhin haben die schon lange ein funktionierende 45nm-Fertigung, wo Immersion Lithografie bei 45nm eingeführt wurde und Low-K schon davor, was bei TSMC AFAIK beides gleichzeitig bei 40nm eingeführt wurde.

GF konnte sich schon lange auf 32nm-SOI & Co konzentrieren und vor kurzem sagten sie, sie können die Massen-Produktion in 28nm-Bulk 3 Monate nach 32nm-SOI (Juni 2010) beginnen.
Die Betonung war auf Fremdfirmen (eher non-ATI), mit vielleicht kleineren Chips.

Generell könnte AMD die R9x0-Serie schon im 1Q 2011 bringen, falls sie es immer so planten und sich dementsprechned vorbereiteten.

Zwar könnte die 28nm-Yield wegen der frühen Einführung vielleicht nicht wie bei AMD gewohnt sehr hoch sein, aber wenn die dann besser ist als TSMC 40nm, dann zahlt sich das mehr als genug aus, diese eventuell sogar noch 4Q 2010 rauszubringen. Okay, das war jetzt ziemlich aus dem Fenster gelehnt, aber möglich wäre es.

Meine Güte, hier gehts doch um Fermi und Generation 2009-2010. Nur weil Fermi jetzt nicht so wird wie gehofft muss man sich doch ni9cht gleich so in die Hosen machen und auf Sachen hinweisen die die nächsten 20 Monate völlig unwichtig und danach womöglich auch nicht mehr von belang sind
Auf zukünftige Ereignisse hinweisen ist eine Sachen, aber die aktuelle Lage ignorieren/verdrängen und auf die Zukunft falsch zu hoffen ist eine andere.

Es könnte sogar beim 28nm-Umstieg sogar für Nvidia schlimmer aussehen, wenn wenn wenn wennn wenn ATI die ganze RV9x0-Famlie im 1Q 2011 in 28nm auf dem Markt bringen kann und Nvidia noch nur auf TSMC setzt die nach 40nm auch 28nm nicht gscheit hinbekommen.
Es gäbe da für Nvidia noch UMC zum ausweichen, aber jetzt weiß ich nicht, wann die mit 28nm auf dem Markt kommen wollen.

So wie ich jetzt auf deb 28nm(32nm)-Umstieg gespannt bin, war ich damals bei der RV770-Einführung auf den 40nm-Umstieg. Folge GT212 & GT214 Cancel sowie GT300 Verschiebung.
Und als GT200b nicht nur den Takt wieder nicht erreichte und sich wieder Verspätete, war ich noch mehr auf die GT300-Einführung gespannt und das Ergebnis ist eben für mich nicht überraschend.

Danach gabs genug anzeigen für Probleme alias Telsa-Dummys und nachher Tesla-448 Shader, was viele ignorierten.

Jetzt sind momentan die Anzeigen für die 28nm-Fertigung nicht so deutlich da, bzw. bestehen auch stark aus Gerüchten.

Wie gesagt, IMO sieht es für Nvidia momentan nicht gut aus.
Denn vom B-Stepping darf man sich keine Wunder erwarten und das B-Stepping zeigt zugleich, dass ein 28nm-Nachfolge auch nicht so schnell nachkommen wird.

ATI konnte schon seit RV670 3 Generation ihre GPU-Familien (RV740 kam zwischen zwei Familien) nicht nur sehr früh & schnell, sondern ohne Verspätungen auf dem Markt bringen.
Ob sie das jetzt noch eine Generation trotz GF-Umstieg & TSMC-28nm?-Problemen schaffen, ist eben fraglich.

Aber AMD hat halt wegen dem 2007er Jahr eben verdammt viel Erfahrung mit Mist-Bauen sowie Turbolenten Zeiten.
Wenn sie es schaffen, dann eher AMD. Zwar hat Nvidia generell auch das Potential aber ich warte mal auf eine guten Performance- oder High-End-GPU bis ich wieder mal optimistischer Denke.
Das seit GT200 ewige Hoffen auf das Wunder beim nächsten Stepping oder bei der nächsten GPU, geht mir auch auf den Keks.

Roger Ende

hansl
2010-03-23, 00:02:45
das mit dem Fermi, das der nicht so gut wird wie erhofft hat mich physisch und psychisch so gelähmt ich bin fertig, ichb kann einfavch nicht mehr :(

bitte, bitte postet alle infos die noch hoffnung geben
ich glaub an euch und ich glaub an fermi

LovesuckZ
2010-03-23, 00:03:09
Aus dem Beyond3d.com Forum:
OK, some first hand info, but my source is still under NDA, so not much in-depth details.

GTX470 is ~10% faster than stock HD5870, benched in Crysis.
The noise level under load is similar to GTX285 -- noticeable but not irritating.

I'll post more if something comes along.
http://forum.beyond3d.com/showpost.php?p=1411264&postcount=4463


Aber AMD hat halt wegen dem 2007er Jahr eben verdammt viel Erfahrung mit Mist-Bauen sowie Turbolenten Zeiten.
Wenn sie es schaffen, dann eher AMD. Zwar hat Nvidia generell auch das Potential aber ich warte mal auf eine guten Performance- oder High-End-GPU bis ich wieder mal optimistischer Denke.
Das seit GT200 ewige Hoffen auf das Wunder beim nächsten Stepping oder bei der nächsten GPU, geht mir auch auf den Keks.

Roger Ende

Ich warte auf eine DX11 Karte von AMD, die diese Bezeichnung auch verdient. :)

mapel110
2010-03-23, 00:09:11
Ist der Zeitpunkt, wann NDA fällt auf Uhrzeit und Ort festgelegt ?
Oder kann z.B. Australien schon 12h vor unserer Zeit alles veröffentlichen ?
1 Uhr Morgens am 27. März bei uns (Deutschland) -> 16:00 26.März Kalifornien(bei nvidia) imo.

Lovesuckz, Crysis wird mit Sicherheit auch wie eine Zitrone ausgequetscht worden sein von nvidia. Andere Games wären interessanter.

AwesomeSauce
2010-03-23, 00:10:21
@LovesuckZ
Na, das wär doch super! Jedoch glaube ich mittlerweile nichts mehr, in vier Tagen sollten wir alle schlauer sein...

corvus
2010-03-23, 00:10:26
Aus dem Beyond3d.com Forum:

http://forum.beyond3d.com/showpost.php?p=1411264&postcount=4463



Ich warte auf eine DX11 Karte von AMD, die diese Bezeichnung auch verdient. :)


Ich auch, aber deswegen kauf ich nicht den Furby Schrott.

Superheld
2010-03-23, 00:11:14
wie nochmal, ist Freitag oder Montag Fermi Vorstellung ?:)

achso doch am Friday, Danke AwesomeSauce .

Gast
2010-03-23, 00:13:44
Es könnte sogar beim 28nm-Umstieg sogar für Nvidia schlimmer aussehen, wenn wenn wenn wennn wenn ATI die ganze RV9x0-Famlie im 1Q 2011 in 28nm auf dem Markt bringen kann und Nvidia noch nur auf TSMC setzt die nach 40nm auch 28nm nicht gscheit hinbekommen.
Es gäbe da für Nvidia noch UMC zum ausweichen, aber jetzt weiß ich nicht, wann die mit 28nm auf dem Markt kommen wollen.

Ziemlich viele wenns.
Denk mal an TSMC, das ist keine Hinterhofbude. Es gibt keinen Grund zur Annahme, das der 40g Prozess Normalität ist.

Genausogut könntest du behaupten das GF die 28nm nicht gescheit hinbekommt und AMD erstmal nur einen RV840 shrinken kann, der dann nicht besonders freudestrahlend vom Band rollt, ähnlich wie RV740, die zaghafte und riskante Massenfertigung dann erst ein halbes Jahr später beginnen kann.

AwesomeSauce
2010-03-23, 00:18:13
@Superheld
Meinerseits war da eher der Wunsch Vater des Gedanken;) Aber vieles deutet auf Freitag Nacht / Samstag Morgen (1 Uhr) hin:
Even if we already have NVIDIA's new graphics card we are bound by the media embargo up until Friday night when we can tell you everything we know.
http://www.nordichardware.com/en/component/content/article/71-graphics/10937-amd-to-counter-with-overclocked-radeon-hd-5870.html

LovesuckZ
2010-03-23, 00:19:57
Lovesuckz, Crysis wird mit Sicherheit auch wie eine Zitrone ausgequetscht worden sein von nvidia. Andere Games wären interessanter.

Wo ist der Unterschied zu AMD? Wobei nVidia angeblich mit dem letzten Treiber eine 17% Verbesserung in Warhead erreicht haben sollte.
Da ist/war also noch ein bisschen Saft in der Zitrone. :D

Launch ist Samstag Nacht um 01:00. Präsentation in Boston auf der PAX läuft von 18:00 bis 19:00 Uhr. Ab 19:00 der dortigen Zeit fällt das NDA.

Iruwen
2010-03-23, 00:20:05
das böse erwachen kommt dann noch mit 28nm... ich wette die ganzen 40nm probleme werden 28nm massiv verspäten lassen...

keine tollen aussichten für die nächsten jahre...

Sind Intels Chips einfach nur weniger komplex oder haben die die besseren Fabs? Oder andersrum: ist TSMC einfach kacke?

Gestrandet
2010-03-23, 00:26:39
Sind Intels Chips einfach nur weniger komplex oder haben die die besseren Fabs? Oder andersrum: ist TSMC einfach kacke?
Ich würde sagen: alle 3 auf einmal! :biggrin:
(nur bei "weniger komplex" bin ich mir jetzt nicht soooo sicher)

Gast
2010-03-23, 00:35:02
Eigentlich sind GPUs deutlich simpler aufgebaut da sich bestimmte "Grundblöcke" nur mannigfaltig wiederholen. Eben zigfach parallele Architektur.

Coda
2010-03-23, 00:38:27
Sind Intels Chips einfach nur weniger komplex oder haben die die besseren Fabs? Oder andersrum: ist TSMC einfach kacke?
Gegenüber Intel fällt TSMC definitiv in letztere Kategorie.


Eigentlich sind GPUs deutlich simpler aufgebaut da sich bestimmte "Grundblöcke" nur mannigfaltig wiederholen. Eben zigfach parallele Architektur.
Ja und nein. Das ganze Zeug muss ja auch verbunden werden und die viele Logik ist auch schwerer zu fertigen als die CPU-Dies mit viel SRAM-Cache.

huch
2010-03-23, 00:42:19
weniger komplex:
sicher nicht. selbst nach transistorzahl halten die Itaniums da mit dem GPUs mit. dagegen sind die CPUs in den Pipelines sehr viel höher optimiert was die Schaltungstechnik, Clocktiming, Stromversorgung etcpp angeht. sieht man ja, wie nV kämpft richtung 1,5 GHz während die CPUs schon lange bei mehr als dem Doppelten sind...

Byteschlumpf
2010-03-23, 00:44:57
Wenn es jetzt in Taiwan noch zu einem sehr starken Erdbeben kommen sollte, wodurch die TSMC-Fab für längere Zeit nicht mehr produzieren könnte, gäbe es wohl auf lange Sicht keine Grafikkarten von ATI und NVIDIA mehr! ^^

Intel und AMD haben weit mehr als nur eine Fab für ihre CPUs und Mainboardchips - nur kann man von AMD nicht ausgehen, auf eine andere GPU-Fab auszuweichen!

Iruwen
2010-03-23, 00:49:20
Seit dem Spax-Schrauben-Potemkin(TM :D), den Huang Anfang November hochgehalten hat "..this puppy here is Fermi. It just came back from Fab." optimieren die an den Treibern, da gabs ja laut NV schon Karten. Was soll da also noch groß kommen?

Und ATI hat natürlich erst angefangen Treiber zu programmieren als die Karten schon raus waren. Ok, qualitativ wäre das sogar realistisch...

Coda
2010-03-23, 00:52:51
Erdbeben gibt's eher in Japan.

http://earthquake.usgs.gov/earthquakes/world/images/shallow.gif

Aber die Fabs werden sicher auch recht erdbebensicher ausgelegt sein ;)

aylano
2010-03-23, 00:57:26
Ziemlich viele wenns.
Denk mal an TSMC, das ist keine Hinterhofbude. Es gibt keinen Grund zur Annahme, das der 40g Prozess Normalität ist.
Natürlich, aber es schließt auch keine Verzögerungen aus.
Vorallem hören sich eben die Gerüchte nicht gut an.


Genausogut könntest du behaupten das GF die 28nm nicht gescheit hinbekommt
Natürlich, kann man das nicht ausschließich. Vorallem, wenn es laut paar Gerüchten auch zu "Problemen" kamen, die vielleicht auch zu einer Verzögerung führ(t)en.
Aber ATI & GF könnte vielleicht eher mit dieser Situation umgehen (siehe RV8x0-Reaktion auf 40nm-Probleme)


Ich warte auf eine DX11 Karte von AMD, die diese Bezeichnung auch verdient.
Ich hoffe ja schon fast, dass du von Nvidia bezahlst wird. Denn wenn nicht, dann tuts du mir schon fast leid.

Tesseract
2010-03-23, 00:58:00
Sind Intels Chips einfach nur weniger komplex oder haben die die besseren Fabs? Oder andersrum: ist TSMC einfach kacke?
intel hat einfach die besseren fabs die dem rest der welt monate vorraus sind, das ist alles.

LovesuckZ
2010-03-23, 01:01:11
Ich hoffe ja schon fast, dass du von Nvidia bezahlst wird. Denn wenn nicht, dann tuts du mir schon fast leid.

Nein, aber darf man nicht trotzdem auf eine DX11 Karte von AMD warten, die diesen Namen auch verdient? :confused:
Du wartest auf "auf eine guten Performance- oder High-End-GPU" und ich eben auf eine DX11 Karte von AMD, die Tessellation vernünftig nutzbar macht. Hoffen wir, dass es nicht nochmal 4 Generationen benötigt, bis das eintrifft. :)

/edit:
Ich muss sagen, das Internet ist immer wieder für ein Lacher gut:

The tesselator is very much AMD’s baby in DX11. They’ve been playing with tesselators as early as 2001, only for them to never gain traction on the PC. The tesselator has seen use in the Xbox 360 where the AMD-designed Xenos GPU has one (albeit much simpler than DX11’s), but when that same tesselator was brought over and put in the R600 and successive hardware, it was never used since it was not a part of the DirectX standard. Now that tessellation is finally part of that standard, we should expect to see it picked up and used by a large number of developers. For AMD, it’s vindication for all the work they’ve put into tessellation over the years.
http://anandtech.com/video/showdoc.aspx?i=3643&p=6

Superheld
2010-03-23, 01:06:09
darum wurde ja die 5970 nachgeschoben :)

S940
2010-03-23, 01:06:34
Nein, aber darf man nicht trotzdem auf eine DX11 Karte von AMD warten, die diesen Namen auch verdient? :confused:
Du wartest auf "auf eine guten Performance- oder High-End-GPU" und ich eben auf eine DX11 Karte von AMD, die Tessellation vernünftig nutzbar macht. Hoffen wir, dass es nicht nochmal 4 Generationen benötigt, bis das eintrifft. :)

Lol was für ein Käse ... das einzige worauf Du warten kannst sind Spiele die Tessellation "vernünftig" ausnützen ...

S940
2010-03-23, 01:09:00
Erdbeben gibt's eher in Japan.
Na in Taiwan war doch letztens erst eines Anfang März:
http://www.spiegel.de/panorama/0,1518,681628,00.html
Aber die Fabs werden sicher auch recht erdbebensicher ausgelegt sein ;)
Bis zu ner gewissen Stärke ja. Aber man kann sich einfach vorstellen, dass auch kleine Erschütterungen im Nanometerbereich nicht lustig sind ...

Edit:
http://news.softpedia.com/news/TSMC-Affected-by-Taiwan-Earthquake-136751.shtml

ciao

Alex

mapel110
2010-03-23, 01:30:14
http://www.it-times.de/news/nachricht/datum/2010/03/05/tscm-und-umc-stellen-wafer-produktion-in-taiwan-wegen-beben-temporaer-ein/
1.5 Tage Produktion kürzlich verloren. Scheint also ziemlich erdbebensicher zu sein.

LovesuckZ
2010-03-23, 01:41:08
Lol was für ein Käse ... das einzige worauf Du warten kannst sind Spiele die Tessellation "vernünftig" ausnützen ...

"DX11 doesn't matter". :D
Aber ich habe mich geirrt. Es ist AMD's 6th Generation:
http://news.softpedia.com/images/news2/AMD-Demonstrates-World-s-First-DX11-GPU-at-Computex-2009-6.jpg

urfaust
2010-03-23, 01:50:11
hier, druck dir doch so'n Dingen als Poster aus oder noch besser als Tapete und
du hast Tessellation Non-Stop in deiner Bude

http://www.origamitessellations.com/wp-content/uploads/2006/06/tessellation_group.jpg

mapel110
2010-03-23, 04:42:16
http://forum.beyond3d.com/showpost.php?p=1411393&postcount=4474
GTX480 power consumption at full load is nearly 130W more than HD5870,full load Temperature is 92℃.

Ausgehend von aktuellen Xbit-Zahlen
http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_3.html#sect0

5870 also etwa 160 Watt, GTX 480 300 Watt O_o
Kann irgendwie nicht so ganz hinkommen.

Vielleicht sind die 130 Watt mehr auch mit dem OC-Potential gemeint.

Amboss
2010-03-23, 04:42:38
"DX11 doesn't matter". :D
Aber ich habe mich geirrt. Es ist AMD's 6th Generation:
http://news.softpedia.com/images/news2/AMD-Demonstrates-World-s-First-DX11-GPU-at-Computex-2009-6.jpg
Sag mal, hast du NV Aktien, das du so sehr an Tesselation klammerst?

Tesselation wird bis zur nächsten Konsolengeneration unwichtig bleiben, das einzige was passieren wird sind kleine Gimmicks in Spielen, die eh kaum jemanden auffallen werden (wie schon gesehen bei Metro etc., schaltet man Tesselation aus, fällts keinem auf, schaltet man sie an, fällts auch keinem auf). Man wird also aktuelle Spiele ein bisschen mit Tesselation schminken, Inhalt, Gameplay oder Grafik wird sich dadurch nicht ändern. Bis Tesselation wirklich genutzt wird, vergehen noch ein paar Jahre. Ein Spiel das von Grund auf auf Tesselation ausgelegt ist und dadurch einen Mehrwert bietet, währe praktisch unverkäuflich an 95% der Home-PC User, sowie 100% der Konsolennutzer. Und die Spielefirma will ich sehen, die auf diesen Markt verzichtet.
Eigentlich gibt es keinen Grund seine 200er GTX zu verkaufen, es sei denn man möchte etwas neues ausprobieren und Dinge in Spielen aktivieren, die man erst beim dritten und gezielten Hinsehen bzw. suchen dann auch entdeckt.

Gast
2010-03-23, 05:14:55
http://forum.beyond3d.com/showpost.php?p=1411393&postcount=4474
Damit hätten sies geschafft mit ner Single karte auf das Nivea der 5970 zu kommen. das glaub ich erst wenn ich sehe.
Denn wie wollwn sie dann Fermis im GGPU Bereich einsetzen.
Jeder der rechnen muss bekäme Angst vor den dingern.
Und da will NV ja Punkten.
In dem bereich wo stundenlang gezockt wird sid über 300 Watt für ne Singlekarte ja schon der Horror pur.

Gast
2010-03-23, 05:31:36
Stammt von Chiphell.
http://translate.google.com/translate?js=y&prev=_t&hl=en&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D76993%26rpid%3D1489080% 26ordertype%3D0%26page%3D1%23pid1489080&sl=zh-CN&tl=en

grafzahl
2010-03-23, 05:55:18
Nichts anderes hab ich euch doch schon gesagt ;)

_DrillSarge]I[
2010-03-23, 05:56:26
130W mehr ist aber auch ne hausnummer :/. ich hätte vielleicht mit ~50W gerechnet, aber das...

DrFreaK666
2010-03-23, 06:14:44
Sag mal, hast du NV Aktien, das du so sehr an Tesselation klammerst?

Tesselation wird bis zur nächsten Konsolengeneration unwichtig bleiben, das einzige was passieren wird sind kleine Gimmicks in Spielen, die eh kaum jemanden auffallen werden (wie schon gesehen bei Metro etc., schaltet man Tesselation aus, fällts keinem auf, schaltet man sie an, fällts auch keinem auf). Man wird also aktuelle Spiele ein bisschen mit Tesselation schminken, Inhalt, Gameplay oder Grafik wird sich dadurch nicht ändern. Bis Tesselation wirklich genutzt wird, vergehen noch ein paar Jahre. Ein Spiel das von Grund auf auf Tesselation ausgelegt ist und dadurch einen Mehrwert bietet, währe praktisch unverkäuflich an 95% der Home-PC User, sowie 100% der Konsolennutzer. Und die Spielefirma will ich sehen, die auf diesen Markt verzichtet.

Ack. Aber darauf wird er nicht antworten... :wink:
Und wenn dann umgeht er das Thema einfach


Eigentlich gibt es keinen Grund seine 200er GTX zu verkaufen, es sei denn man möchte etwas neues ausprobieren und Dinge in Spielen aktivieren, die man erst beim dritten und gezielten Hinsehen bzw. suchen dann auch entdeckt.

Da stimme ich dir nicht zu.
SGSSAA sieht man sehr wohl :smile:

Gast
2010-03-23, 06:14:47
I[;7922275']130W mehr ist aber auch ne hausnummer :/. ich hätte vielleicht mit ~50W gerechnet, aber das...

Wie will man so ein Ding dann übertakten können.
Zotak wirbt doch damit.
Wollen die die Leute verarschen.
Macht doch NV mit dem Ding schon default genug.

grafzahl
2010-03-23, 06:24:37
Bei OC spielt doch Verbrauch keine Rolle mehr, siehe die aktuellen 5970 OC Karten von den ATI Boardpartnern. Da ist doch auch völlig Mumpitz das der Verbrauch jenseits von gut und Böse ist. Wie war doch die Aussage von Asus -> wer son Ding kauft sollte sich bewusst sein das es nicht zum Stromsparen da ist :D

Gast
2010-03-23, 06:25:55
I[;7922275']130W mehr ist aber auch ne hausnummer :/. ich hätte vielleicht mit ~50W gerechnet, aber das...
Wie will man so ein Ding dann übertakten können.
Zotak wirbt doch damit.
Wollen die die Leute verarschen.
Macht doch NV mit dem Ding schon default genug.

Na ja vielleicht liefert Zotak ja nen Feuerlöscher mit.

Gast
2010-03-23, 06:28:26
Na ja vielleicht liefert Zotak ja nen Feuerlöscher mit.
Good luck on overclocking that on stock cooler

Gast
2010-03-23, 06:39:57
Good luck on overclocking that on stock cooler

Das wäre dann auf 5970 Niveau.
Bei ca 15% mehr Speed als 5670.
Wers braucht.

Gast
2010-03-23, 07:16:21
Bei OC spielt doch Verbrauch keine Rolle mehr, siehe die aktuellen 5970 OC Karten von den ATI Boardpartnern. Da ist doch auch völlig Mumpitz das der Verbrauch jenseits von gut und Böse ist. Wie war doch die Aussage von Asus -> wer son Ding kauft sollte sich bewusst sein das es nicht zum Stromsparen da ist :D

Wie sieht das dann das bei der 470 aus?
Die braucht dann wohl auch viel viel mehr als ne 5870.
Dann wäre die efiziens der Fermi architektur ja unter aller sau.

Ailuros
2010-03-23, 07:19:58
http://www.digitimes.com/news/a20100322PD205.html

Wird wohl stimmen mit den yields; nur heisst es eben dann doch dass der die am Ende kleiner als 500mm2 sein sollte. Meine momentane Schaetzung liegt bei 46-47% yields und Cypress bei 54-55%.

V2.0
2010-03-23, 07:25:49
Wieso? Hab mir ja keine Zitrone gekauft. Die wird einigen noch Tränen in die Augen bringen, wenn die "DX11" sehen. ;D
Aber sie haben Glück: SuperDave hat ja schon angekündigt alles für die Zitronenkäufer zu tun: Nieder mit Tessellation. :freak:
/Sarkasmus

Ohman, das Niveau sinkt wirklich stündlich.

Um mal ein bissches neues reinzubringen: MSI Packshot und Karte.
http://www.we-wi.be/Images/msi.png

Den Nachbrenner hat die Karte auch. ;D

Gast
2010-03-23, 07:34:31
Nichts anderes hab ich euch doch schon gesagt ;)

Wenn das Ding tatsächlich so eine krasse Stromschleuder ist können sie sich den Mist behalten. Energieeffizienz ist angesagt, da ist es besser man hat etwas kürzere Balken und ist dafür wenigstens Energieffizient.

Gast
2010-03-23, 07:37:01
Hu, wo ist denn mein Beitrag hin?

Genau dahin wo auch der fehlende Absatz verschwand. Persoenliche Sticheleien bzw. Angriffe egal gegen wen werden hier nicht toleriert. Beim dritten Schlag deinerseits wunder Dich nicht ueber die Massnahmen.

http://www.digitimes.com/news/a20100322PD205.html

Wird wohl stimmen mit den yields; nur heisst es eben dann doch dass der die am Ende kleiner als 500mm2 sein sollte. Meine momentane Schaetzung liegt bei 46-47% yields und Cypress bei 54-55%.

Der Yieldunterschied zwischen Fermi und Cypress sollte wesentlich größer sein bei einem solchen Die-Unterschied. Oder meinst du die Yields schon mit den deaktivierten Einheiten bei Fermi?

Gast
2010-03-23, 07:38:46
Sag mal, hast du NV Aktien, das du so sehr an Tesselation klammerst?

Tesselation wird bis zur nächsten Konsolengeneration unwichtig bleiben, das einzige was passieren wird sind kleine Gimmicks in Spielen, die eh kaum jemanden auffallen werden (wie schon gesehen bei Metro etc., schaltet man Tesselation aus, fällts keinem auf, schaltet man sie an, fällts auch keinem auf). Man wird also aktuelle Spiele ein bisschen mit Tesselation schminken, Inhalt, Gameplay oder Grafik wird sich dadurch nicht ändern. Bis Tesselation wirklich genutzt wird, vergehen noch ein paar Jahre. Ein Spiel das von Grund auf auf Tesselation ausgelegt ist und dadurch einen Mehrwert bietet, währe praktisch unverkäuflich an 95% der Home-PC User, sowie 100% der Konsolennutzer. Und die Spielefirma will ich sehen, die auf diesen Markt verzichtet.
Eigentlich gibt es keinen Grund seine 200er GTX zu verkaufen, es sei denn man möchte etwas neues ausprobieren und Dinge in Spielen aktivieren, die man erst beim dritten und gezielten Hinsehen bzw. suchen dann auch entdeckt.Was du schreibst kannst du 1zu1 auf D3D11 erweitern.

Wenn dir das wiederrum nicht gefällt, dann lass es ganz bleiben. Tesselation bietet mehr Optik, also Nutzen erfüllt. Ich weiss nicht was du da noch rummachst, Grafikkarten sind für die Optik da.
Es ist dein gutes Recht zu behaupten das dir Optik weniger wichtig ist oder das du auf bessere Spiele wartest.
Allerdings solltest du deine Meinung nicht als gemeingültige Wahrheit präsentieren.

Gast
2010-03-23, 07:45:30
Sorry, wenn schon gepostet:

GeForce GTX 400 series available in higher volume than Radeon HD 5800 (http://www.brightsideofnews.com/news/2010/3/22/nvidia-geforce-gtx-400-series-available-in-higher-volume-than-radeon-hd-5800.aspx)

Der Cutdown auf 480 CCs dürfte der Verfügbarkeit der GTX480 extrem zu Gute kommen...

"According to our sources close to heart of the company, nVidia wants to overtake the number of Cypress GPUs [both Hemlock and Cypress, i.e. 5800 and 5900 Series] by the end of this summer."

Also wenn das stimmt dann sieht man mal wie unparteiisch TSMC nicht ist. Wie kann NV wenn sie ein halbes Jahr später mit der Produktion beginnen innerhalb von ein paar Monaten trotz deutlich größeren Dice mehr Chips ausliefern als Cypress seit Beginn?

Amboss
2010-03-23, 07:52:32
Was du schreibst kannst du 1zu1 auf D3D11 erweitern.

Da hast du recht und eigentlich finde ich diese Entwicklung teilweise sogar sehr schlecht, der PC wird durch Konsolen stark ausgebremst. Während man mit höherer Texturleistung / Filterung und Kantenglättung leicht noch viel optischen Zugewinn gegenüber Konsolen heraus holen kann, sieht es mit DX10/DX11 u. Tesselation eher schlecht aus. Fast alle Games bauen noch immer auf DX9 auf, das wird auch so bleiben, bis neue Konsolen die nächste Runde einläuten.
Für weniger Betuchte ist diese Entwicklung gar nicht schlecht, man kann mit 3 Jahre alten Karten noch immer fast alle Games (mit leichten Abstrichen bezüglich AA u. AF) auf max bzw. "sehr hoch" spielen. Vor ein paar Jahren noch undenkbar. Multiplattformtitel machen es möglich, im positiven, wie auch im negativen Sinne.

Grestorn
2010-03-23, 08:03:49
"According to our sources close to heart of the company, nVidia wants to overtake the number of Cypress GPUs [both Hemlock and Cypress, i.e. 5800 and 5900 Series] by the end of this summer."

Also wenn das stimmt dann sieht man mal wie unparteiisch TSMC nicht ist. Wie kann NV wenn sie ein halbes Jahr später mit der Produktion beginnen innerhalb von ein paar Monaten trotz deutlich größeren Dice mehr Chips ausliefern als Cypress seit Beginn?

Das hat nichts mit Parteilichkeit zu tun, sondern schlicht mit der Menge der bestellten Chips/Wafers. Das ist ein Business und kein Fanboyclub!

Gast
2010-03-23, 08:08:22
Man beachte bitte trotzdem das ? in dem Titel. Außerdem hat Theo gerade in letzter Zeit ziemlich viel Blödsinn oder zumindest Zweifelhaftes geschrieben. Also Gerücht mehr nicht und keinesfalls für irgendwas eine Bestätigung.

Amboss
2010-03-23, 08:10:36
Das hat nichts mit Parteilichkeit zu tun, sondern schlicht mit der Menge der bestellten Chips/Wafers. Das ist ein Business und kein Fanboyclub!

So sieht es aus. Die AMD-Eumel haben mal wieder die Lage falsch eingeschätzt, sind von einer geringeren Nachfrage und höheren Chipausbeute ausgegangen. Woher hätten die auch wissen sollen, dass der Fermi sich um ein knappes halbes Jahr verspätet und sich dann teilweise auch noch als Papiertiger entpuppt. Aber auch NV hat sich verkalkuliert. Der eine würde gerne mehr verkaufen, hat aber zu wenige Wafer gemietet und die Ausbeute ist schlecht, der andere hat zwar genügend Wafer, liefert aber ein fragwürdiges Produkt ab mit ebenfalls geringer Ausbeute, das kaum Gewinn in die Kassen spülen wird :freak:
Eine Wirtschafts-Komödie

Gast
2010-03-23, 08:12:44
"nVidia wants to overtake the number of Cypress GPUs"

Was für eine Aussage. Natürlich wollen sie das, ob dies auch gelingt steht auf einem ganz anderen Blatt.

Iceman346
2010-03-23, 08:19:53
Sag mal, hast du NV Aktien, das du so sehr an Tesselation klammerst?

Ist halt, aller Vorraussicht nach, der einzige Punkt wo Fermi die RV870er Karten deutlich abhängen kann. Das er da als Hardcore Nvidia Fanboy endlos drauf rumreiten muss ist doch klar ;)

Da hast du recht und eigentlich finde ich diese Entwicklung teilweise sogar sehr schlecht, der PC wird durch Konsolen stark ausgebremst. Während man mit höherer Texturleistung / Filterung und Kantenglättung leicht noch viel optischen Zugewinn gegenüber Konsolen heraus holen kann, sieht es mit DX10/DX11 u. Tesselation eher schlecht aus. Fast alle Games bauen noch immer auf DX9 auf, das wird auch so bleiben, bis neue Konsolen die nächste Runde einläuten.
Für weniger Betuchte ist diese Entwicklung gar nicht schlecht, man kann mit 3 Jahre alten Karten noch immer fast alle Games (mit leichten Abstrichen bezüglich AA u. AF) auf max bzw. "sehr hoch" spielen. Vor ein paar Jahren noch undenkbar. Multiplattformtitel machen es möglich, im positiven, wie auch im negativen Sinne.

Wobei wir momentan auf einem Grafiklevel angekommen sind, wo die Entwickler extremen Aufwand betreiben müssen um da wirklich noch was zu bewegen. Und halbherzige Implementationen ala Tessellation in Metro 2033 sind da sicherlich nicht sinnig.

V2.0
2010-03-23, 08:34:09
So sieht es aus. Die AMD-Eumel haben mal wieder die Lage falsch eingeschätzt, sind von einer geringeren Nachfrage und höheren Chipausbeute ausgegangen. Woher hätten die auch wissen sollen, dass der Fermi sich um ein knappes halbes Jahr verspätet und sich dann teilweise auch noch als Papiertiger entpuppt. Aber auch NV hat sich verkalkuliert. Der eine würde gerne mehr verkaufen, hat aber zu wenige Wafer gemietet und die Ausbeute ist schlecht, der andere hat zwar genügend Wafer, liefert aber ein fragwürdiges Produkt ab mit ebenfalls geringer Ausbeute, das kaum Gewinn in die Kassen spülen wird :freak:
Eine Wirtschafts-Komödie

Ich glaube der Unterschied bei den Yields dürfte unter 10% liegen. Auch in Cypress-Land ist nicht alle eitel Sonnenschein.

Ailuros
2010-03-23, 08:40:25
Der Yieldunterschied zwischen Fermi und Cypress sollte wesentlich größer sein bei einem solchen Die-Unterschied.

Wie gross ist denn GF100 Deiner Meinung nach am Ende? Wie dem auch sei "sollte" sagt mir gar nichts.

Oder meinst du die Yields schon mit den deaktivierten Einheiten bei Fermi?

Yields haben nichts mit deaktivierten Einheiten zu tun. Yields entsprechen der Anzahl an operativen chips. Wie viele jetzt von diesen 14, 15 oder 16 SMs schaffen sind design-bedingte Probleme und nicht der Foundry. Nach Geruechten bekam dank einem desing-Problem NV lediglich einen vollen 16 SM chip pro wafer und hier liegt auch wohl die eigentliche Erklaerung warum NV mit Absicht die GTX480 nur mit 15SMs veroeffentlicht. Anstatt mit verdammt geringer 16SM Verfuegbarkeit kaempfen zu muessen (bis nach dem re-spin) nahm man die 15SM-only Alternative und erhoehte die 480 Verfuegbarkeit.

"According to our sources close to heart of the company, nVidia wants to overtake the number of Cypress GPUs [both Hemlock and Cypress, i.e. 5800 and 5900 Series] by the end of this summer."

Also wenn das stimmt dann sieht man mal wie unparteiisch TSMC nicht ist. Wie kann NV wenn sie ein halbes Jahr später mit der Produktion beginnen innerhalb von ein paar Monaten trotz deutlich größeren Dice mehr Chips ausliefern als Cypress seit Beginn?

Q3 2009 = 30.000 wafers/quarter
Q1 2010 = 80.000 wafers/quarter

(zumindest nach TSMC selber)

Und Cypress lag im Q3 2009 garantiert nicht bei knapp unter 50% yields (stets angeblich nach digitimes) sondern um ein gesundes Stueck darunter.

Und nein es waren eben nicht nur 20.000 5870-er im ersten Cypress Produktionsmonat sondern um einiges mehr.

Armaq
2010-03-23, 08:40:54
300 Watt ist doch nicht echt?! Mehrleistung um wirklich jeden Preis. Wenn ich das will, dann hat tombman ja schon angedeutet, dass 4x Cypress härter ist. Nur mit dem netten Vorteil, dass der Idle-Verbrauch kein Röstofen betreiben kann.
Das gezeigte Design ist kein GF100, sondern eigentlich war das ein Hobby-Projekt der Praktikanten. Leider hat das echte Team zuviel Strandurlaub gemacht und man musste das Praktikantenprojekt nehmen.

Ailuros
2010-03-23, 08:44:47
So sieht es aus. Die AMD-Eumel haben mal wieder die Lage falsch eingeschätzt, sind von einer geringeren Nachfrage und höheren Chipausbeute ausgegangen. Woher hätten die auch wissen sollen, dass der Fermi sich um ein knappes halbes Jahr verspätet und sich dann teilweise auch noch als Papiertiger entpuppt. Aber auch NV hat sich verkalkuliert. Der eine würde gerne mehr verkaufen, hat aber zu wenige Wafer gemietet und die Ausbeute ist schlecht, der andere hat zwar genügend Wafer, liefert aber ein fragwürdiges Produkt ab mit ebenfalls geringer Ausbeute, das kaum Gewinn in die Kassen spülen wird :freak:
Eine Wirtschafts-Komödie

AMD wartete einige Wochen bevor sie zur Produktion gingen damit sich die yields und Herstellungskosten in eine tolerable Region bewegt. Zu dem Zeitpunkt war es AMD voll bewusst dass NVIDIA nicht innerhalb 2009 in Produktion gehen kann ausser NV haette Unmengen an Geld zu verplempern. Ich sag es nochmal haette NV in Q3 hergestellt haette ihnen jeder GF100 unter $200 gekostet und das ist ausserhalb jeglicher Toleranz-Grenze.

Es ist auch durchaus kein Zufall dass zu diesem Zeitpunkt die diversen AMD-"moles" darauf bestanden dass es vor Q1 2010 nichts mehr wird bei NVIDIA.

Anfi
2010-03-23, 08:47:29
wer regt sich denn bitte über stromverbrauch bei high-end-karten auf?

das ist ja so, als würde sich ein ferrari-fahrer beschweren, sein auto würde auf der nordschleife zu viel benzin verbrauchen...

Gast
2010-03-23, 08:47:57
Also nach dem was man so zwischen den Zeilen lesen konnte, wird GF100 zumindest in Form der GTX480 wohl leistungstechnisch kein wirklicher Fail werden, sondern eher durchwachsen von sehr guten Werten (Metro 2033?) bis kaum Unterschied zu HD5870.

Performance gut und schön, aber was man so vom Stromverbrauch hört vorallendingen im Idle ist wenn es sich denn bewahrheitet einfach inakzeptabel. Leistungsaufnahme unter Last interessiert mich bei HighEnd-Grakas nicht wirklich, aber im Idle muss das einfach passen.

Eggcake
2010-03-23, 08:51:07
Also über Last-Verbrauch aufregen - so ganz verstehen kann ich das auch nicht.
300W wären aber zuviel des Guten, da dann wirklich 0 Spielraum für OC bleiben würde - von der Geräuschkulisse ganz zu schweigen.

Grestorn
2010-03-23, 08:53:56
Also nach dem was man so zwischen den Zeilen lesen konnte, wird GF100 zumindest in Form der GTX480 wohl leistungstechnisch kein wirklicher Fail werden, sondern eher durchwachsen von sehr guten Werten (Metro 2033?) bis kaum Unterschied zu HD5870.

Je nachdem, was limitiert, wird es immer kaum einen Unterschied zum bisherigen Spitzenreiter geben. Das ist nur natürlich.

Interessant wird, welche Spiele/Effekte sich als Schwäche und Stärke der jeweiligen Architektur herausstellen.

Gast
2010-03-23, 08:56:56
wer regt sich denn bitte über stromverbrauch bei high-end-karten auf?

das ist ja so, als würde sich ein ferrari-fahrer beschweren, sein auto würde auf der nordschleife zu viel benzin verbrauchen...

Ich liebe Autovergleiche. Besonders sinnvoll sind sie, wenn man ein 400 €-Produkt mit einem 200.000 €-Produkt vergleicht.

Gast
2010-03-23, 09:00:04
Wie ich schon sagte, ist der Lastverbrauch für mich eher zweitrangig, mit der Einschränkung, dass er schon einigermaßen im Verhältnis zur Mehrleistung stehen sollte.

Also wenn NV einen vielleicht 60% größeren Chip mit ca. 1 Mrd. mehr Transistoren bei einer gleichzeitig wesentlich höherer Leistungsaufnahme braucht, um CypressXT mit vielleicht "nur" 15-20% durchschnittlich in die Schranken zu verweisen, so stell ich mir dann doch auch mal die Frage nach der Effizienz der NV-Architektur.

Armaq
2010-03-23, 09:04:13
Der Lastverbrauch ist nichts besonders schlimmes. Nur im Vergleich zur Konkurrenz ist er abartig.

kruemelmonster
2010-03-23, 09:05:20
PCGH gönnt sich wohl ne kleine Verschnaufpause von den GTX 480 Benchmarks, zumindest hatten sie Zeit auf die Karte einen Prolimatech MK-13 zu montieren:

http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/

Die ersten sechs Bilder in der durchklickbaren Galerie...

Gast
2010-03-23, 09:06:23
Ist schon richtig, aber die Komkurrenz ist nun mal der Maßstab nach dem eine neue Gen bewertet wird,

Ailuros
2010-03-23, 09:09:40
Tragische Ironie dass viele durch die Jahre bei etlichen launches gelernt haben dass etlicher Unsinn links und rechts herumfliegt und deshalb wird es auch oefters als "silly season" bezeichnet. Manches stimmt und manches gehoert leider viel zu oft in den FUD Bereich, eben wie die angeblichen 295W TDP fuer die 480 fuer die nichtmal AMD selber verantwortlich ist.

AMD sagte selber rund um die 280W, Charlie kam in letzter Zeit mit 275W und ich hab diesbezueglich auch keinen Zweifel dass es fuer einen gewissen Zeitraum auch der Realitaet entsprach. NV reduzierte die Frequenzen leicht und landete auf 250W TDP und hier macht der ~25W Abstand auch Sinn. Das man aber eine 45W Reduktion (von den angeblichen 295W) erreicht hat kann von mir aus glauben wer will.

Was jetzt den idle Verbrauch betrifft weiss ich persoenlich noch nichts handfestes, hab aber schon meine eigene Vorbehalte (danke an Armaq). Ich hab auch in der Zwischenzeit mal mit Absicht spezifische Infos links und rechts eingepflanzt nur so aus Neugierde ob und wie es innerhalb eines Tages auftaucht. Und natuerlich sind die Resultate auch durchaus interessant von wem jeder genau Infos schoepft.

Gast
2010-03-23, 09:12:18
wer regt sich denn bitte über stromverbrauch bei high-end-karten auf?

das ist ja so, als würde sich ein ferrari-fahrer beschweren, sein auto würde auf der nordschleife zu viel benzin verbrauchen...

Ein Ferrary setzt den Stoff wenigsten effizient in Power um.
Was mach der Fermi säuft in der Garage schon 5 Liter.
Und bei 15% mehrleistung das Doppelte.
So einen Ferrari würde keiner kaufen der nichts an der Rübe hat.

Ailuros
2010-03-23, 09:19:16
Ein Ferrary setzt den Stoff wenigsten effizient in Power um.
Was mach der Fermi säuft in der Garage schon 5 Liter.
Und bei 15% mehrleistung das Doppelte.
So einen Ferrari würde keiner kaufen der nichts an der Rübe hat.

Meine Unterschrift ist leider schon zu lang um das obrige auch noch unter der Kategorie Bloedsinn unterzubringen. Und jetzt bitte genug mit den Karren-Vergleichen.

Anfi
2010-03-23, 09:19:42
Ein Ferrary setzt den Stoff wenigsten effizient in Power um.
Was mach der Fermi säuft in der Garage schon 5 Liter.
Und bei 15% mehrleistung das Doppelte.
So einen Ferrari würde keiner kaufen der nichts an der Rübe hat.

dafür schluckt halt ein ferrari mehr wartungskosten in der garage als ein anderes auto. zumindest meiner meinung nach ist effizienz bei der suche nach maximaler leistung eher sekundär.
wenn ich die schnellste grafikperfomance will, dann ist mir der stromverbrauch egal (und wenn ich mich beim überschlagen nicht grob vertue kostet mich ein mehrverbrauch von 100 Watt 2 cent/h mehr - vernachlässigbar bei Grafikkartenpreisen von 400€+).
wer das anders sieht, gut, das ist durchaus eine gerechtfertige meinung.

an den anderen gast:
Analogien sind nicht deine große stärke, oder?

Edit: Sry Ailuros, ich höre jetzt auf!

Popeljoe
2010-03-23, 09:26:14
Also bevor hier wirkliche Test und Fakten auf den Tisch kommen, halte ich mich zurück, was Aussagen zu NVs neuer Gen angeht.
Prinzipiell wäre ich sogar dafür, den Thread hier zuzumachen, weil man eh nur OT oder Marketinggeblubber von der einen oder anderen Seite liest.

Ailuros
2010-03-23, 09:30:17
Es geht einfach nicht laecherlicher als eine verdammt teure Luxus-karre mit einer GPU zu vergleichen. Ueberhaupt wenn womoeglich irgendeine Ferrrari Schraube so viel kostet wie eine 480.

Also bevor hier wirkliche Test und Fakten auf den Tisch kommen, halte ich mich zurück, was Aussagen zu NVs neuer Gen angeht.
Prinzipiell wäre ich sogar dafür, den Thread hier zuzumachen, weil man eh nur OT oder Marketinggeblubber von der einen oder anderen Seite liest.

Ich hab jeglichen Rekord auf 3DC gebrochen wenn Du bedenkst wieviele Seiten ich in die Spielwiese verschoben habe (716 Posts ueber 36 Seiten), wieviel Posts von uns mods geloescht wurden und wie oft dieser Thread geschlossen und wieder geoeffnet wurde.

Beim Launch wird der Thread sowieso traditionell geschlossen und es sind lediglich noch ein paar Tage und ich denke die werden wir noch aushalten koennen.

V2.0
2010-03-23, 09:31:19
Man mussja auch sehen wie gemessen wird. FurMark wäre z.B. gegenwärtig völlig ungeeignet. Da glaube ich sogar an eine erhebliche Differnz bei gegenwärtigem Treiberstand.

Gast
2010-03-23, 09:35:11
Es geht mir nicht darum, dass sich auch ein 100W Mehrverbrauch in der Stromabrechnung nur mit Cent-Beträgen niederschlägt, sondern tatsächlich wirklich mal ums Prinzip.

Ich will es einfach nicht durchgehen lassen, dass eine Komponente die keine Arbeit verrichtet einfach sinnlos und unnötig Strom verprasst. Man sollte sich sowas einfach nicht bieten lassen und dies auch deutlich kritisieren. Das macht GF100 aber keinesfalls sofort zu einem Fail. Meine Meinung steht natürlich auch noch unter Vorbehalt bis dies durch Reviews bestätigt wurde.

S940
2010-03-23, 09:36:17
Also bevor hier wirkliche Test und Fakten auf den Tisch kommen, halte ich mich zurück, was Aussagen zu NVs neuer Gen angeht.
Prinzipiell wäre ich sogar dafür, den Thread hier zuzumachen, weil man eh nur OT oder Marketinggeblubber von der einen oder anderen Seite liest.
Sorry, aber das fällt Dir erst jetzt hier auf Seite 885 ein ? Da gibts nur einen Smiley, der passt:

:freak: :freak: :freak:

Nach 885 Seiten OT und Marketingphrasen ist das jetzt nun wirklich egal, denn jetzt sickert ja langsam die echten Daten durch, da Samples unterwegs sind. Die finalen Spezifiktationen sind ja erst kürzlich bekannt geworden:
http://www.heise.de/newsticker/meldung/Preise-und-Spezifikationen-der-Fermi-Grafikkarten-959845.html

Da kommt mit der Zeit sicher noch mehr...

ciao

Alex

Gast
2010-03-23, 09:42:13
Man darf gespannt sein wie die SPAWAS das verkraften was das Ding sich da reinzieht. Nicht das man dann wieder ein Pfeifkonzert im Rechner har weil die Spulen am jubilieren sind.

Exxtreme
2010-03-23, 10:06:51
wer regt sich denn bitte über stromverbrauch bei high-end-karten auf?

das ist ja so, als würde sich ein ferrari-fahrer beschweren, sein auto würde auf der nordschleife zu viel benzin verbrauchen...
Stellst du dir eine Karre in die Garage, die schon im Standgas 8l schluckt? Also ich nicht. Es gibt KEINE gute Begründung dafür, daß eine Karte soviel Saft schlucken muss. Und wie schon geschrieben, AMD macht's vor wie es richtig geht. Bei der 48xx-Serie haben sie zurecht eins auf den Deckel bekommen wegen dem Stromverbrauch. Und siehe da, die 5xxx-Serie macht's richtig.

mboeller
2010-03-23, 10:11:36
300 Watt ist doch nicht echt?! Mehrleistung um wirklich jeden Preis.

Die Cypress braucht ja nur im komischen "Häärchen-Test" ;) wirklich 188 Watt. Bei normalen Spielen sind es ja AFAIR 130-140 Watt. +130 Watt wären dann 260-270 Watt bei normalen Spielen für die GTX480. Wenn du dann noch die Ungenauigkeiten bei der "Strom"-Messung berücksichtigst (Netzteil-Effizienz etc...) dann passen die +130 Watt auch wieder. Die GTX480 wird IMHO halt auch bei normalen Spielen nahe an die spezifizierten 250 Watt ran kommen.

Ailuros
2010-03-23, 10:15:49
Die Cypress braucht ja nur im komischen "Häärchen-Test" ;) wirklich 188 Watt. Bei normalen Spielen sind es ja AFAIR 130-140 Watt. +130 Watt wären dann 260-270 Watt bei normalen Spielen für die GTX480. Wenn du dann noch die Ungenauigkeiten bei der "Strom"-Messung berücksichtigst (Netzteil-Effizienz etc...) dann passen die +130 Watt auch wieder. Die GTX480 wird IMHO halt auch bei normalen Spielen nahe an die spezifizierten 250 Watt ran kommen.

Was den fettgedruckten Satz betrifft NV's engineers sind natuerlich hauptsaechlich besoffene Affen die so ein durchaus idiotisches Risiko eingehen wuerden. Du uebertaktest dann als Verbraucher die GPU um konservative 10-15% und Du setzt Dich dann hin und nimmst auf video die Explosion der GPU auf oder was? *kopfschuettel* :rolleyes:

Im Klartext heisst TDP fuer alle IHVs maximaler Stromverbrauch + Sicherheitszone, ergo wird auf allen Produkten der TDP auch um einiges hoeher angelegt als beim maximalen Stromverbrauch. Und nein eine 5870/1GB verbraucht auch nicht maximal 188W.

Undertaker
2010-03-23, 10:18:27
Die Cypress braucht ja nur im komischen "Häärchen-Test" ;) wirklich 188 Watt. Bei normalen Spielen sind es ja AFAIR 130-140 Watt. +130 Watt wären dann 260-270 Watt bei normalen Spielen für die GTX480. Wenn du dann noch die Ungenauigkeiten bei der "Strom"-Messung berücksichtigst (Netzteil-Effizienz etc...) dann passen die +130 Watt auch wieder. Die GTX480 wird IMHO halt auch bei normalen Spielen nahe an die spezifizierten 250 Watt ran kommen.

130W Mehrverbrauch in Spielen für die GTX480 zur HD5870? :freak: Halte ich für sehr, sehr unwahrscheinlich. Gerade nach den zuletzt vermuteten, abgespeckten Specs... Ich tippe mal auf maximal 50W+.

Popeljoe
2010-03-23, 10:19:32
Ich hab jeglichen Rekord auf 3DC gebrochen wenn Du bedenkst wieviele Seiten ich in die Spielwiese verschoben habe (716 Posts ueber 36 Seiten), wieviel Posts von uns mods geloescht wurden und wie oft dieser Thread geschlossen und wieder geoeffnet wurde.

Beim Launch wird der Thread sowieso traditionell geschlossen und es sind lediglich noch ein paar Tage und ich denke die werden wir noch aushalten koennen.
Ich weiß, was du an Mist verschoben hast, grenzt schon an Herkules Aktion in Sachen Augiasstall!
Ich finde es allerdings auch immer wieder erschreckend, wie ignorant sich bestimmte Member gegenüber der Arbeit der Moderation verhalten.
Aber: wenn du es aushältst, werde ich dich sicher kaum daran hindern! ;)

Byteschlumpf
2010-03-23, 10:19:35
Es würde mich nicht wundern, wenn es bald Energieverordnungen für Computer-Hardware, wie bei Haushaltsgeräten, geben würde!

Energieeffizienz:
Graka 1: AAA++
Graka 2: AA+
usw.

Anfi
2010-03-23, 10:21:04
Stellst du dir eine Karre in die Garage, die schon im Standgas 8l schluckt? Also ich nicht. Es gibt KEINE gute Begründung dafür, daß eine Karte soviel Saft schlucken muss.


Wenn ich keine bessere Alternative mit gleicher leistung bekomme: ja.
Ein hoher (Idle) Stromverbrauch ist natürlich ein klarer Negativpunkt, aber ich gehe nicht so weit zu sagen: hoher Stromverbrauch -> die Karte ist Schrott. Darauf wollte ich mich vor allem beziehen.
Natürlich kann man anprangern, dass die Karte zu viel Strom zieht und es die Konkurrenz besser macht. Gewichtet man das für sich sehr stark, nun gut dann greift man halt zu Ati, end of story.

Und zu meinem schönen autoanalogie :( :
ich finde, man darf solche analogien durchaus konstruieren. mir ging es darum aufzuzeigen, dass leistungsstarke produkte eben auch unangemessen ineffizient sind. den höchst unterschiedlichen preis müsste man halt abstrahieren, da er für meine analogie irrelevant ist.

Gast
2010-03-23, 10:21:52
wer regt sich denn bitte über stromverbrauch bei high-end-karten auf?

das ist ja so, als würde sich ein ferrari-fahrer beschweren, sein auto würde auf der nordschleife zu viel benzin verbrauchen...

High End Leistung muss nicht zwingend hohen Idle Verbrauch bedeuten, ebenso wenig wie über 200 Watt unter Last. Kann, aber nicht MUSS. Von daher, erweitere deinen Horizont, schau über den Tellerrand, und akzeptiere das die Konkurrenz ähnliche Leistung mit deutlich weniger Stromverbrauch bietet.

Unter diesen Umständen ist es vollkommen berechtigt, sich über den Stromverbrauch bei High-End-karten aufzuregen.
Wenn man im Motorsport wie eh und je davon ausgeht, das ein Riesen Hubraum und viel PS viel Sprit verbrauchen, dann ist das so lange OK, und für Ferrari vertretbar, bis Mercedes einen Motor bringt, der den Verbrauch halbiert, bei ähnlicher Leistung, und keine Tank Stops mehr benötigt.

mboeller
2010-03-23, 10:26:17
Es geht mir nicht darum, dass sich auch ein 100W Mehrverbrauch in der Stromabrechnung nur mit Cent-Beträgen niederschlägt, sondern tatsächlich wirklich mal ums Prinzip.



Sind ja auch keine Cent-Beträge:

+40 Watt IDLE macht bei 24h/365d und 22Cent/Kwh schon 77 Euro im Jahr. Entspricht 1-2 Zeitschriften-Abos (um es mal griffig zu machen). Bei Kiddies sind es natürlich nur 1/2 Monat Handy-Kosten. ;)

Gast
2010-03-23, 10:32:42
ich finde, man darf solche analogien durchaus konstruieren. mir ging es darum aufzuzeigen, dass leistungsstarke produkte eben auch unangemessen ineffizient sind.

Und das ist eben Käse, sogar auf Grafikkarten bezogen. Ein Produkt muss heute beides können -die 70er sind lange vorbei.

Ailuros
2010-03-23, 10:39:53
Sind ja auch keine Cent-Beträge:

+40 Watt IDLE macht bei 24h/365d und 22Cent/Kwh schon 77 Euro im Jahr. Entspricht 1-2 Zeitschriften-Abos (um es mal griffig zu machen). Bei Kiddies sind es natürlich nur 1/2 Monat Handy-Kosten. ;)

Das Stromverbrauch-Argument mit der Stromrechnung ist in der Zwischenzeit laecherlich geworden. Wer sich darum Sorgen macht sollte sich so oder so von high end PCs weghalten und alle nicht "gruenen" Haushaltsgeraete erstmal ersetzen.

Dass der idle Verbrauch auf der 480 problematisch ist wird keiner bestreiten koennen.

Gast
2010-03-23, 10:43:25
Und zu meinem schönen autoanalogie :( :
ich finde, man darf solche analogien durchaus konstruieren. mir ging es darum aufzuzeigen, dass leistungsstarke produkte eben auch unangemessen ineffizient sind. den höchst unterschiedlichen preis müsste man halt abstrahieren, da er für meine analogie irrelevant ist.

Wenn man schon die schöne autoanalogie bemüht sollte man auch bedenken das es in der Formel1 schon seit Jahren limitierten sprit gibt.
Warum? Um die Motorenbauer zu animieren sparsamme und doch starke Motoren zu bauen. Hat ja auch geklappt. Heutige motoren siind viel stärker und brauchen viel weniger sprit. Was NV mit dem Termi macht ist genau das Gegenteil. Lediglich ca 15% mehr leistung. Aber dann das Doppelte an Strom. Das ging schon in der F1 schief. War einfach die falsche richtung. Und in diese richtug geht jetzt NV mit Ihrem Fermi. Deshalb ists aber lange nicht die richtige.

_DrillSarge]I[
2010-03-23, 10:46:14
Dass der idle Verbrauch auf der 480 problematisch ist wird keiner bestreiten koennen.
und was ist mit dem peak-verbrauch? imo auch nicht ganz unwichtig, zwecks oc und kühlung/lärm

LovesuckZ
2010-03-23, 10:49:42
Warum wartet man nicht erstmal? Die Zahlen der chinesischen Freunde sind doch ziemlich unglaubwürdig, wenn bei denen selbst Hemlock weniger verbraucht als die GTX480. :rolleyes:
In 3 Tagen wissen wir mehr. Dann kann sich jeder aufregen oder freuen.

Popeljoe
2010-03-23, 10:52:27
I[;7922628']und was ist mit dem peak-verbrauch? imo auch nicht ganz unwichtig, zwecks oc und kühlung/lärm
Und eventuell auch in Sachen Netzteil.
Da kommt es, wie man bei Anddills Reviews gesehen hat, auch darauf an, wie gut ein NT mit stark schwankenden Anforderungen umgehen kann.
Wenn die Peaks im Verbrauch abrupt und extrem ausfallen, kann das Ärger machen.
Aber: Alles nur Spekulatius! ;)

Ailuros
2010-03-23, 10:56:42
I[;7922628']und was ist mit dem peak-verbrauch? imo auch nicht ganz unwichtig, zwecks oc und kühlung/lärm

Wo soll er wohl liegen wenn das Ding einen TDP von 250W hat?

Warum wartet man nicht erstmal? Die Zahlen der chinesischen Freunde sind doch ziemlich unglaubwürdig, wenn bei denen selbst Hemlock weniger verbraucht als die GTX480. :rolleyes:
In 3 Tagen wissen wir mehr. Dann kann sich jeder aufregen oder freuen.

Wenn eine GPU in 2D auf bruellende 70 Grad Celsius liegt dann handelt es sich nicht um eine falsche Information oder FUD.

-------------------------------------------------------------------------------------------------------------

Noch ein Beitrag mit den albernen Karren-GPUs Vergleichen und ich verpass Strafpunkte fuer Missachtung der Moderation.

LovesuckZ
2010-03-23, 11:01:22
Wenn eine GPU in 2D auf bruellende 70 Grad Celsius liegt dann handelt es sich nicht um eine falsche Information oder FUD.

Ich rede nicht vom 2D Modus, sondern der Aufregung um Werte, die unglaubwürdig erscheinen.
Wer im beyond3d.com Forum weitergelesen hätte, hätte sehen können, dass die GTX480 66 Watt mehr verbrauchen würde als Hemlock. Oder anders ausgedrückt: Hemlock verbraucht soviel wie eine 4870/4890...

Gast
2010-03-23, 11:09:09
So wie es aussieht wird der Fermi die doppelte Ohrfeige für die Natur. Das wird Nvidia jede Menge Punkte im Öko-Rating kosten. Sie produzieren ein Produkt, was erstens eine gerignere Ausbeute von Karten pro Wafer hat wie die Konkurrenz und zweitens auch noch eine wesentlich schlechteres Verhältnis aus Spieleleistung zu Verbrauch. Damit wird erstens mehr hochreines einkristallines Silizium der besten Qualität weggeschmissen, es werden mehr Chemikalien pro Karte verbraucht und damit zusätzlich zum Betrieb auch noch wesentlich mehr Energie verbraucht. Damit ist Nvidia für mich noch nicht im Jahre 2010 angekommen. TSMC vorwerfen, sie würden einen absoluten Highend-Prozess, wie es der 40 nm Prozess nunmal ist bei so einer hohen Transistorzahl pro Chip, nicht effizient umsetzen können mit Yieldraten jenseits der 50%. Aber selber dann so einen Chip konstruieren, der selber vergleichsweise niedrige Frameraten erzeugt im Vergleich zur Konkurrenz. Das klingt für mich nach purer Ironie.

Für alle nochmal der Vergleich ausführlich: TSMC schafft nach neusten Gerüchten keine 50% Ausbeute an Fermi Chips pro Wafer <---> Nvidia schafft nach neusten Gerüchten lediglich 20% höhere Frameausbeute bei 70% mehr Verbrauch.

So und jetzt frag ich mich wer hier seine Arbeit besser macht. TSMC, die auch mit Hilfe der Pioniersarbeit von AMD stetig die Prozesstechnik verbessern und beinahe jährlich Die-shrinks anbieten, oder Nvidia, die seit Jahren immer größere Chips produzieren und von Energieeffizienz aufgrund ihrer Arroganz nichts wissen wollen?

Wenn hier noch einer über TSMC schimpft, dann bekomm ich echt zuviel. Denkt mal darüber nach wie groß 40 nm sind, dass der Lithographie-Prozess mit 193 nm Wellenlänge gefahren wird und wieviele Transistoren auf so einer GPU sind. Das ist komplizierteste Optik, Physik bis die Birne explodiert. GPUs zusammenbasteln, das macht man mit Hilfe von Hardware-Programmiersprachen. Das ist 1000 mal einfacher. Deshalb gibts auch nur eine Firma bisher, die die GPUs bauen kann (ja ich weiß, weitere werden folgen) dafür aber viel mehr Firmen, die GPUs bauen. So siehts aus.

LovesuckZ
2010-03-23, 11:14:35
So wie es aussieht wird der Fermi die doppelte Ohrfeige für die Natur. Das wird Nvidia jede Menge Punkte im Öko-Rating kosten. Sie produzieren ein Produkt, was erstens eine gerignere Ausbeute von Karten pro Wafer hat wie die Konkurrenz und zweitens auch noch eine wesentlich schlechteres Verhältnis aus Spieleleistung zu Verbrauch. Damit wird erstens mehr hochreines einkristallines Silizium der besten Qualität weggeschmissen, es werden mehr Chemikalien pro Karte verbraucht und damit zusätzlich zum Betrieb auch noch wesentlich mehr Energie verbraucht. Damit ist Nvidia für mich noch nicht im Jahre 2010 angekommen. TSMC vorwerfen, sie würden einen absoluten Highend-Prozess, wie es der 40 nm Prozess nunmal ist bei so einer hohen Transistorzahl pro Chip, nicht effizient umsetzen können mit Yieldraten jenseits der 50%. Aber selber dann so einen Chip konstruieren, der selber vergleichsweise niedrige Frameraten erzeugt im Vergleich zur Konkurrenz. Das klingt für mich nach purer Ironie.


Selektive Wahrnehmung ist immer wieder erstaunlich: Hemlock verbraucht 294 Watt. Hemlock benötigt für 1GB nutzbaren Speicher 2GB. Hemlock benötigt für 50% Mehrleistung gegenüber Cypress zwei Chips - das sind 668mm^2 auf dem Wafer. Hemlock ist abhängig von profilen. Ohne (vernünftige) Profile ist die Karte auf dem Niveau der 5850. Hemlock kann die Mehrleistung gegenüber der 5870 nur beschränkt umsetzen aufgrund von MR. Hemlock ist 2" länger, benötigt also mehr Materialien zur Fertigung. Und so weiter und so fort.
Hemlock ist genauso, wenn nicht sogar stärker, ineffizient(er) als GF100. Aber komischerweise spielt Hemlock immer nur dann eine Rolle, wenn man AMD als Leistungssieger sehen will. :rolleyes:

boxleitnerb
2010-03-23, 11:18:19
Hemlock ist MGPU. Das wird von Nvidia mit all seinen Nachteilen dieses Jahr auch noch kommen.
Der Gast redet ganz klar von SGPU. Äpfel-Äpfel, Birne-Birne. Noch ist es nicht ganz sicher, wie es aussehen wird, aber dass GF100 kein Energieeffizienzwunder sein wird, kann man schon vermuten.

Henroldus
2010-03-23, 11:24:01
um das Thema mal aufzugreifen:
das Problem am Stromverbrauch sind weniger die laufenden Kosten sondern eher die entstehende Hitze und damit die Lautstärke der Kühlung.
Die maximale Leistungsaufnahme ist dahingehend interessant, wie ich mein Netzteil auslegen muss und ich sehe es NICHT ein bei jeder neuen Highendgeneration ein größeres Netzteil kaufen zu müssen. Effizienz 4 the win und nicht die Brutforcemethode!

Gast
2010-03-23, 11:24:05
Multi-GPU Systeme sind nur Prestigeobjekte und der verzweifelte Versuch, mit aller Macht die Performancekrone zu erreichen. Daher ist natürlich auch eine 5970 sehr ineffizient. Sie bilden aber die Ausnahme und werden seltener verkauft, die breite Masse kauft Single-GPU Karten und da ergibt sich eben genau dieses Bild.

Ailuros
2010-03-23, 11:29:21
Hemlock ist MGPU. Das wird von Nvidia mit all seinen Nachteilen dieses Jahr auch noch kommen.
Der Gast redet ganz klar von SGPU. Äpfel-Äpfel, Birne-Birne. Noch ist es nicht ganz sicher, wie es aussehen wird, aber dass GF100 kein Energieeffizienzwunder sein wird, kann man schon vermuten.

Sowohl der Gast als auch LS haben legitime Punkte nur leider uebertreiben beide von ihrer eigenen Perspektive aus.

Es bleibt fuer mich dabei dass AMD nichts im high end Bereich ausserhalb der 5970 im Angebot hat und dabei ist es auch schwer wenn nicht gleich sinnlos eine 5870 mit einer 480 zu vergleichen, so lange es in der Form von der 470 eine vergleichbarere Loesung zu der 5870 gibt.

Und da wir schon beim Thema sind: Hemlock ist tatsaechlich mGPU. Es aendert sich aber nichts daran dass dafuer AMD 2 cores braucht und daher die Herstellungskosten fuer die dies um genau 2x Mal so hoch sind wie bei Cypress.

um das Thema mal aufzugreifen:
das Problem am Stromverbrauch sind weniger die laufenden Kosten sondern eher die entstehende Hitze und damit die Lautstärke der Kühlung.
Die maximale Leistungsaufnahme ist dahingehend interessant, wie ich mein Netzteil auslegen muss und ich sehe es NICHT ein bei jeder neuen Highendgeneration ein größeres Netzteil kaufen zu müssen. Effizienz 4 the win und nicht die Brutforcemethode!

Wie ich schon oben sagte 70C@2D fuer die 480 und ja das tut tatsaechlich weh.

Nighthawk13
2010-03-23, 11:31:28
Geforce GTX 470 has 215W TDP:
http://www.fudzilla.com/content/view/18183/1/

mictasm
2010-03-23, 11:36:04
Man darf gespannt sein wie die SPAWAS das verkraften was das Ding sich da reinzieht. Nicht das man dann wieder ein Pfeifkonzert im Rechner har weil die Spulen am jubilieren sind.

Besonders, weil die Spulen immer bei Volllast gepfiffen haben... :freak: ;D

Henroldus
2010-03-23, 11:36:14
Wie ich schon oben sagte 70C@2D fuer die 480 und ja das tut tatsaechlich weh.
grad im Idle will ich Stille, eine Technik wie Optimus(aber Herstellerunabhängig) auch im Desktopbereich wäre sehr wünschenswert.

Gast
2010-03-23, 11:37:49
@Ailuros

Was die Multi-GPU Systeme angeht gebe ich euch recht. Aber sie bilden wirklich die Ausnahme:

http://store.steampowered.com/hwsurvey

Ich weiß, Steam ist nicht zu 100% repräsentativ aber ein Richtwert. 1,90% Multi-GPU insgesamt und 0,13% Crossfire. Diese Zahl beinhaltet aber alle Multi-GPU Systeme also auch Crossfire mit mehreren Karten. Der Anteil an 5970 am Weltmarkt ist verschwindend gering. Wenn ich mir allerdings die Zahlen anschaue, mit denen Nvidia mit den Fermis den Markt bedienen will, dann ergibt sich für mich ein anderes Bild. Daher bleibe ich dabei: Multi-GPU Systeme sind ebenso ineffizient in meiner Darstellung wie die Fermis, können aber aufgrund ihrer verschwindenden Verwendung nicht zum Vergleich herangezogen werden.

Bioshock
2010-03-23, 11:38:01
Geforce GTX 470 has 215W TDP:
http://www.fudzilla.com/content/view/18183/1/

Is aber jetzt nichts neues oder?

LovesuckZ
2010-03-23, 11:41:50
@Ailuros

Was die Multi-GPU Systeme angeht gebe ich euch recht. Aber sie bilden wirklich die Ausnahme:

http://store.steampowered.com/hwsurvey

Ich weiß, Steam ist nicht zu 100% repräsentativ aber ein Richtwert. 1,90% Multi-GPU insgesamt und 0,13% Crossfire. Diese Zahl beinhaltet aber alle Multi-GPU Systeme also auch Crossfire mit mehreren Karten. Der Anteil an 5970 am Weltmarkt ist verschwindend gering. Wenn ich mir allerdings die Zahlen anschaue, mit denen Nvidia mit den Fermis den Markt bedienen will, dann ergibt sich für mich ein anderes Bild. Daher bleibe ich dabei: Multi-GPU Systeme sind ebenso ineffizient in meiner Darstellung wie die Fermis, können aber aufgrund ihrer verschwindenden Verwendung nicht zum Vergleich herangezogen werden.

Hemlock ist ein reales, kaufbares Produkt. Das kaum jemand 600€ dafür ausgibt, ändert nichts an der Tatsache, dass es hergestellt werden muss.

Bioshock
2010-03-23, 11:44:18
sorry, aber so lange die 480 die 5870 nicht klar schlägt ist dein geschreibsel sinnfrei


Woher willst du das wissen? Es wird eine GTX 470 reichen um mit der 5870 mitzuhalten.

mfg

Gast
2010-03-23, 11:45:28
Sowohl der Gast als auch LS haben legitime Punkte nur leider uebertreiben beide von ihrer eigenen Perspektive aus.

Es bleibt fuer mich dabei dass AMD nichts im high end Bereich ausserhalb der 5970 im Angebot hat und dabei ist es auch schwer wenn nicht gleich sinnlos eine 5870 mit einer 480 zu vergleichen, so lange es in der Form von der 470 eine vergleichbarere Loesung zu der 5870 gibt.

Und da wir schon beim Thema sind: Hemlock ist tatsaechlich mGPU. Es aendert sich aber nichts daran dass dafuer AMD 2 cores braucht und daher die Herstellungskosten fuer die dies um genau 2x Mal so hoch sind wie bei Cypress.


Das Problem an dieser Aussage steht einen Beitrag unter dir. GTX470 Leistung <5870, TDP 215W. Was will man denn dann gegen die 5870 vergleichen?

Hemlock ist ein reales, kaufbares Produkt. Das kaum jemand 600€ dafür ausgibt, ändert nichts an der Tatsache, dass es hergestellt werden muss.


Hemlock ist auch praktisch nicht zu bekommen. Bis vor wenigen Tagen waren vielleicht ein bis zwei Shops mit Karten. Reines Prestige.

Gast
2010-03-23, 11:46:15
@LovesuckZ

Du kapierst es net, oder? Klar ist es ein reales Produkt, wird aber um einen erheblichen Faktor weniger verkauft und ist daher kein legitimer Vergleich...

LovesuckZ
2010-03-23, 11:46:58
Hemlock ist auch praktisch nicht zu bekommen. Bis vor wenigen Tagen waren vielleicht ein bis zwei Shops mit Karten. Reines Prestige.

Dann ist Hemlock erst recht ein perfekter Vergleich. Oder ist die GTX480 nicht auch nur "reines Prestige"? ;)

@LovesuckZ

Du kapierst es net, oder? Klar ist es ein reales Produkt, wird aber um einen erheblichen Faktor weniger verkauft und ist daher kein legitimer Vergleich...

K, dann ist Hemlock kein reales Produkt und somit kein Vergleichsgegenstand. Wenn du Hemlock als nonexistent deklarieren willst, gerne. Hoffentlich halten sich auch andere daran. :rolleyes:

Schlammsau
2010-03-23, 11:48:06
Woher willst du das wissen? Es wird eine GTX 470 reichen um mit der 5870 mitzuhalten.

mfg

Klares Nein, die 470 wird sich zwischen der 5850 und 5870 einordnen!
Und so wie es aussieht, dabei mehr Strom verbrauchen als eine 5870. :freak:

Leistung absteigend.

TDP 5970 ~ 294W
TDP 480 ~250W
TDP 5870 ~ 188W
TDP 470 ~215W
TDP 5850 ~ 151W

Von den spekulierten Idle Werten möcht ich jetzt gar nicht erst anfangen.
Die sind unter aller Sau!

Gast
2010-03-23, 11:50:55
Es bleibt fuer mich dabei dass AMD nichts im high end Bereich ausserhalb der 5970 im Angebot hat und dabei ist es auch schwer wenn nicht gleich sinnlos eine 5870 mit einer 480 zu vergleichen, so lange es in der Form von der 470 eine vergleichbarere Loesung zu der 5870 gibt.

Woran machst du denn High End fest? Am Preis?
Die GTX480 ist nach jetzigem Stand weit näher an der 5870 als an der 5970, warum sollte sie sich also nicht mit der 5870 messen lassen müssen? Weil sie dann deutlich schlechtere Karten hat, als gegenüber dem MGPU Krüppel 5970?

derguru
2010-03-23, 11:51:53
Dann ist Hemlock erst recht ein perfekter Vergleich. Oder ist die GTX480 nicht auch nur "reines Prestige"? ;)
also hat nv nur ein produkt(470) womit man bissel geld verdienen will,ich bin schon auf die kommenden quartalszahlen gespannt.:biggrin:

LovesuckZ
2010-03-23, 11:52:42
Woran machst du denn High End fest? Am Preis?
Die GTX480 ist nach jetzigem Stand weit näher an der 5870 als an der 5970, warum sollte sie sich also nicht mit der 5870 messen lassen müssen? Weil sie dann deutlich schlechtere Karten hat, als gegenüber dem MGPU Krüppel 5970?

Der Abstand zwischen $399 zu $499 ist größer als zwischen $499 und $599. ;)

also hat nv nur ein produkt(470) womit man bissel geld verdienen will,ich bin schon auf die kommenden quartalszahlen gespannt.:biggrin:

Na, sie haben doch sowieso nur 9000 Karten. :D

Gast
2010-03-23, 11:53:10
Tja, sieht so aus, als ob der technische Fermi mit dem echten mehr gemeinsam hat als vielen lieb ist: Sie wurden (werden) beide nicht sehr alt.

Popeljoe
2010-03-23, 11:53:18
Leute: Ferrrari und Auto Texte werden als Missachtung der Moderation eingeordnet.
Macht euch auf Auszeiten gefasst!

Gast
2010-03-23, 11:53:57
Woher willst du das wissen? Es wird eine GTX 470 reichen um mit der 5870 mitzuhalten.

mfg

woher willst du das wissen? es wird eine 5870 reichen um mit der 480 mitzuhalten.

mfg

Ailuros
2010-03-23, 12:03:27
@Ailuros

Was die Multi-GPU Systeme angeht gebe ich euch recht. Aber sie bilden wirklich die Ausnahme:

http://store.steampowered.com/hwsurvey

Ich weiß, Steam ist nicht zu 100% repräsentativ aber ein Richtwert. 1,90% Multi-GPU insgesamt und 0,13% Crossfire. Diese Zahl beinhaltet aber alle Multi-GPU Systeme also auch Crossfire mit mehreren Karten. Der Anteil an 5970 am Weltmarkt ist verschwindend gering. Wenn ich mir allerdings die Zahlen anschaue, mit denen Nvidia mit den Fermis den Markt bedienen will, dann ergibt sich für mich ein anderes Bild. Daher bleibe ich dabei: Multi-GPU Systeme sind ebenso ineffizient in meiner Darstellung wie die Fermis, können aber aufgrund ihrer verschwindenden Verwendung nicht zum Vergleich herangezogen werden.

Dann vergleich mir aber auch nicht die 5870 mit der 480 sondern mit der 470 gefaelligst und verspalte mir von mir aus 5970 und 480 in separaten Kategorien.

Die 480 ist weder vom Preis, vom Stromverbrauch und auch nicht von der Leistung mit der 5870 vergleichbar.

Wenn ich AMD's PR anspreche und bei der Debatte kommt auf dass die 480 auch insgesamt zweifellos schneller ist, dann kommt das Gegenargument schnell dass man ein 188W TDP Produkt wie 5870 nicht mit einer 480 vergleichen sollte. Und sie haben auch so oder so recht. Wenn ich Anfang April aufruesten will dann hab ich im gleichen Preisnivaeu nur die 470 und die 5870.

Eine 480 bzw. 5970 kosten nicht nur ein paar Euros sondern um einiges mehr.

Gast
2010-03-23, 12:05:07
[...]
Wenn eine GPU in 2D auf bruellende 70 Grad Celsius liegt dann handelt es sich nicht um eine falsche Information oder FUD.

Woher stammt diese Info?

Gast
2010-03-23, 12:07:53
@Ailuros

Man kann vergleichen was man will. Tatsache ist, AMD arbeitet mit den Cypress Chips effizienter als Nvidia mit den Fermis. Daher ist die pro Grafikleistung erzeugte Umweltverschmutzung bei den Fermi-Karten auch höher, sowohl in der Produktion als auch im Betrieb. Und das liegt nicht an TSMC. Mehr wollte ich nicht ausdrücken, lediglich die Tatsache, dass Nvidia scheinbar den Trend verpasst hat. Energieffizienz ist das große Thema der nächsten Jahre. Anders wird man CO2 Ausstoß und Energieverbrauch nicht reduzieren können.

Gast
2010-03-23, 12:11:22
Es wurde doch nun schon mehrfach erwähnt von dem grafen oder wie der heißt.

Nvidia gibt selbst die 480GTX mit einer 295Watt TDP an.

Und die 480GTX liegt mit dem Verbrauch über einer Helmlock Karte.

Leistung ist dafür ganz okay und gerade bei allen DX11 Games kann sich die 480GTX durch die Bank von der 5870 ordentlich absetzen , 30-40%

Alte Games wie Crysis liegt sie auf gleichem Level mit der 5870. Also je nach verwendeten Games ist die 480GTX bis ums doppelte schneller oder auch nur gleich schnell.

MorPheuZ
2010-03-23, 12:11:31
woher willst du das wissen? es wird eine 5870 reichen um mit der 480 mitzuhalten.

mfg

Ganauso, woher willst du das wissen? Beides ist bis in drei Tagen Blubb

Eggcake
2010-03-23, 12:11:53
@LovesuckZ

Du kapierst es net, oder? Klar ist es ein reales Produkt, wird aber um einen erheblichen Faktor weniger verkauft und ist daher kein legitimer Vergleich...
K, dann ist Hemlock kein reales Produkt und somit kein Vergleichsgegenstand. Wenn du Hemlock als nonexistent deklarieren willst, gerne. Hoffentlich halten sich auch andere daran. :rolleyes:

Also mehr umdrehen kann man eine Aussage nicht mehr ;)

Ailuros
2010-03-23, 12:12:29
Woran machst du denn High End fest? Am Preis?

Unter anderen ja.

Die GTX480 ist nach jetzigem Stand weit näher an der 5870 als an der 5970, warum sollte sie sich also nicht mit der 5870 messen lassen müssen?

Das faellt unter die subjektive Kaufentscheidung jedem Verbrauchers. Wer sich fuehlt dass die 480 ihren Aufpreis auch wert ist, wird sich wohl auch eine hohlen. Wie es genau aussieht werden wir wohl in paar Tagen erfahren.

Ich kann Dir auch sagen dass ich mir persoenlich lieber eine 5850 kaufen wuerde und diese leicht uebertakten als eine 5870. Ja und?

Verhaltet Euch nicht so wahlweise scheinheilig als ob die meisten von Euch nicht wuessten wie IHVs in diesen Maerkten generell schon seit Jahren operieren. Es liegt an mir als Endverbraucher ob mir A, B oder C besser zusteht und es ist und bleibt subjektiv.

Mit einer Pistole am Schaedel sage ich Dir leicht dass mir momentan weder die 480 noch die 5970 ihr Geld wirklich wert sind.

Woher stammt diese Info?

Du darfst glauben was Du willst.

Gast
2010-03-23, 12:13:31
Dann vergleich mir aber auch nicht die 5870 mit der 480 sondern mit der 470 gefaelligst und verspalte mir von mir aus 5970 und 480 in separaten Kategorien.

Die 480 ist weder vom Preis, vom Stromverbrauch und auch nicht von der Leistung mit der 5870 vergleichbar.

Wenn ich AMD's PR anspreche und bei der Debatte kommt auf dass die 480 auch insgesamt zweifellos schneller ist, dann kommt das Gegenargument schnell dass man ein 188W TDP Produkt wie 5870 nicht mit einer 480 vergleichen sollte. Und sie haben auch so oder so recht. Wenn ich Anfang April aufruesten will dann hab ich im gleichen Preisnivaeu nur die 470 und die 5870.

Eine 480 bzw. 5970 kosten nicht nur ein paar Euros sondern um einiges mehr.

öhm sorry, aber nur weil dir das persönlich nicht passt kannst du den leuten hier nicht diktieren was sie mit welchem vergleichen. wenn sich die 480 von der 5870 nicht deutlich genug distanziert wird sie mit genau dieser verglichen werden. an die 5970 kommt das nvidia teil ja sowieso nicht ran

Gast
2010-03-23, 12:15:34
Der Abstand zwischen $399 zu $499 ist größer als zwischen $499 und $599. ;)


Hä? Meine Frage, ob "High End" am Preis fest gemacht wird, hat keine Antwort verlangt, weil es nichts mit dem Preis zu tun hat.
High End definiert sich aus Leistung und Feature Set, der Preis ist da ein nur Symptom, nicht der Gegenstand selbst.
Wenn die 5870 in Leistung und Feature Set gleichwertig nur 50€ kosten würde, statt den 499$, wäre dies trotzdem im Single GPU Markt eine der schnellsten Karten, und vertritt Leistungstechnisch das High End.

Vergeblich hier am Strohhalm zu zerren, und Aufgrund es Preises die 480 als Gegenspieler der 5870 zu verweigern. Da müßte Nvidia die Karte nur teuer genug anbieten, damit sie "Konkurenzlos" ist?

Ebenso muß sich die GTX 470 sowohl mit der 5870 als auch 5850 messen müssen, und umgekehrt.

Der Preis ändert nichts an der Konkurrenzfähigkeit, und geschätzte ~10-20% Mehrleistung, bei deutlich höherem Stromverbrauch, Wärmeentwicklung und damit ggf. Lautstärke für deutlich höhere Kosten ist objektiv gesehen nicht besonders Konkurrenzfähig, da unattraktiv.

Bei den Karten ist es die Leistung, wo sie sich messen lassen müssen, und der Preis sowie die einhergehenden Vor- und Nachteile entscheiden über Hop oder Top. Nicht umgekehrt.

Gast
2010-03-23, 12:15:42
http://www.nordichardware.com/en/component/content/article/71-graphics/10937-amd-to-counter-with-overclocked-radeon-hd-5870.html

Even if we already have NVIDIA's new graphics card we are bound by the media embargo up until Friday night when we can tell you everything we know. Today we can reveal that AMD has chosen to counter NVIDIA's new graphics card with an overclocked version of Radeon HD 5870. In other words, no HD 5890 or such but just an overclocked HD 5870.

AMD says that its Radeon HD 5870 graphics card, with GPU clocked between 875-900MHz, will be enough to keep even pace with NVIDIA. The memory clocked will be increased slightly from 4800MHz to 5000MHz.

Ailuros
2010-03-23, 12:16:06
öhm sorry, aber nur weil dir das persönlich nicht passt kannst du den leuten hier nicht diktieren was sie mit welchem vergleichen. wenn sich die 480 von der 5870 nicht deutlich genug distanziert wird sie mit genau dieser verglichen werden. an die 5970 kommt das nvidia teil ja sowieso nicht ran

Ich diktiere gar nichts sondern aeussere meine Meinung.

Eggcake
2010-03-23, 12:16:27
Die 480 ist weder vom Preis, vom Stromverbrauch und auch nicht von der Leistung mit der 5870 vergleichbar.


Ein Produkt vergleiche ich nach der Leistung, nicht nach dem Preis und auch nicht nach dem Stromverbrauch.
Wenn (kein Bezug zur 480) ein Produkt gleich schnell wie ein anderes ist, hingegen viel teurer und viel mehr Strom verbraucht, dann ist mir das herzlich egal - verglichen wird trotzdem. Es zählt nur eines ob ein Produkt mit einem anderen auf die gleiche/eine vergleichbare Ebene gebracht werden kann: vergleichbare Leistung.
Was man schliesslich unter "vergleichbar" ist dann die nächste Frage.

Edit: Aber egal, das führt wieder zur Diskussion über High-End vs. Performance, das will ich tunlichst vermeiden....

MorPheuZ
2010-03-23, 12:16:35
öhm sorry, aber nur weil dir das persönlich nicht passt kannst du den leuten hier nicht diktieren was sie mit welchem vergleichen. wenn sich die 480 von der 5870 nicht deutlich genug distanziert wird sie mit genau dieser verglichen werden. an die 5970 kommt das nvidia teil ja sowieso nicht ran

Wenn du ihn genau gelesen hast misst er eher am Preis welche Karte sich wo platziert. Was du aber an der Leistung aufhängst. Das sind zwei paar Schuhe

Gast
2010-03-23, 12:17:00
Nochmal bitte schwarz auf weiß. Wann und um wieviel Uhr werde ich auf CB, ht4u, PCGH etc. die ersten Reviews lesen können? Freitag? Samstag? Wieviel Uhr?

Bioshock
2010-03-23, 12:18:30
Klares Nein, die 470 wird sich zwischen der 5850 und 5870 einordnen!
Und so wie es aussieht, dabei mehr Strom verbrauchen als eine 5870. :freak:

Leistung absteigend.

TDP 5970 ~ 294W
TDP 480 ~250W
TDP 5870 ~ 188W
TDP 470 ~215W
TDP 5850 ~ 151W

Von den spekulierten Idle Werten möcht ich jetzt gar nicht erst anfangen.
Die sind unter aller Sau!


Bis auf die 58xx Serie hattest du doch auch nur "unter aller sau" Idle/Strom verbrauch grakas.Da wars doch offensichtlich auch shize egal gell?:freak:

mfg

Eggcake
2010-03-23, 12:19:10
Freitag Mitternacht bzw. Samstag 0100 hierzulande.

LovesuckZ
2010-03-23, 12:24:11
Also mehr umdrehen kann man eine Aussage nicht mehr ;)

Entweder ist es ein reales Produkt und somit vergleichbar. Oder es ist nicht marktrelevant und somit in keinster Weise mit einem "realen" Produkt messbar.
Anders ausgedrückt: Ohne Hemlock wird die GTX480 die schnellste Karte am Markt. :D

Ailuros
2010-03-23, 12:25:04
Ein Produkt vergleiche ich nach der Leistung, nicht nach dem Preis und auch nicht nach dem Stromverbrauch.

Und Du weisst wo die Leistung genau liegt woher genau momentan? Es ist und bleibt Tatsache dass NV fuer die 480 ein Premium verlangt was den Preis betrifft.

Wenn (kein Bezug zur 480) ein Produkt gleich schnell wie ein anderes ist, hingegen viel teurer und viel mehr Strom verbraucht, dann ist mir das herzlich egal - verglichen wird trotzdem. Es zählt nur eines: vergleichbare Leistung.
Was man schliesslich unter "vergleichbar" ist dann die nächste Frage.

Es ist eben aber nun mal so dass die 480 mit der 5870 eben nicht auf Gleichstand liegen. NV verlangt eben ein Premium fuer die 480 im Vergleich zur ihren eigenen 470 weil die erste auch in manchen Faellen verdammt nahe an der 5970 Leistung liegt.

Und gerade hier ist der Punkt gegen den ich mich strebe: Preis-Premiums sind normal im hw Markt generell und der Aufpreis ist nicht immer gerechtfertigt. Wie schon oben erwaehnt liegt es an jeglichem Verbraucher was ihm zusteht oder nicht.