PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 [63] 64 65 66 67 68 69 70 71 72 73 74 75

tombman
2010-03-15, 21:03:37
Ich glaub, Charlie macht gerade fap-fap-fap :ugly:

Jetzt braucht nur noch die Leistung am 26. innerhalb von 10% der Reichweite einer HD5870 sein, und man kann Fermi als FAIL bezeichnen. Nicht Epic Fail, aber FAIL.

igg
2010-03-15, 21:09:57
Soweit würde ich nicht gehen. Immerhin bietet Fermi viel mehr. PhysX, 3dVision, CUDA, gescheite Profile und außerdem beeindruckt er mit GPGPU und es würde mich nicht wundern, wenn das mitentscheidend für die Hardwareauswahl der kommenden Konsolen ist.

Eggcake
2010-03-15, 21:11:47
Prinzipiell wäre es kein Fail, aber er wurde halt so extrem gepusht in der Vergangenheit, dass ich schon etwas enttäuscht wäre - wobei man auch sehen muss, dass (wenns die 480SP werden) natürlich die Fertigungsprobleme eine entscheidende Rolle gespielt haben.

Mit PhysX, 3DVision und CUDA, ebenso gscheiten Profilen kannst du aber nicht kommen - das ist ja nix neues...dass NV-Karten diesen Bonus haben und deshalb der Aufpreis den man generell für gleiche Balkenlänge bezahlt auch gerechtfertigt ist, ist ja nix neues (Edit: über das gerechtfertigt will ich jetzt aber nicht streiten... )

DrFreaK666
2010-03-15, 21:13:08
Soweit würde ich nicht gehen. Immerhin bietet Fermi viel mehr. PhysX, 3dVision, CUDA, gescheite Profile und außerdem beeindruckt er mit GPGPU und es würde mich nicht wundern, wenn das mitentscheidend für die Hardwareauswahl der kommenden Konsolen ist.

Die aktuelle GPU-generation wird imho keine Next-Gen-Konsole beeinflussen.
- PhysX wird immer noch stiefmütterlich behandelt.
- CUDA ist auch nicht saumässig weit verbreitet, oder?
- 3dVision bekommt open-source-Konkurrenz
- gescheite profile. :up:

y33H@
2010-03-15, 21:13:56
Jetzt braucht nur noch die Leistung am 26. innerhalb von 10% der Reichweite einer HD5870 sein, und man kann Fermi als FAIL bezeichnen.Keine Angst, du darfst auch künftig viel Kohle bei Highend-Karten lassen. Wäre doch schön, wenn tombman mit Fermi seine Wiederauferstehung feiern könnte ;)

Schlammsau
2010-03-15, 21:14:55
Prinzipiell wäre es kein Fail, aber er wurde halt so extrem gepusht in der Vergangenheit, dass ich schon etwas enttäuscht wäre - wobei man auch sehen muss, dass (wenns die 480SP werden) natürlich die Fertigungsprobleme eine entscheidende Rolle gespielt haben.

Mit PhysX, 3DVision und CUDA, ebenso gscheiten Profilen kannst du aber nicht kommen - das ist ja nix neues...

Und ATi hat SGSSAA und Eyefinity(6).
Und die GPGPU Leistung eines Cypress ist auch nicht zu unterschätzen, wenn es denn vernünftige Homeanwender Software gibt, die übrigens auch noch bei nVidia fehlen. ;)

Burgard
2010-03-15, 21:15:34
Warum sollte Fermi ein Fail werden?

Bei Spielen ist sie ggf. gleichwertig wie die entsprechende AMD + Physix.

Aber bei Rendering und co. wird sie ihre Stärken ausspielen können.
Selbst bei Photoshop möchte ich auf die Grakaunterstützung nicht mehr verzichten.

ALs Arbeitstier wird sie alles andere als ein Fehlschlag.

dildo4u
2010-03-15, 21:16:13
Die aktuelle GPU-generation wird imho keine Next-Gen-Konsole beeinflussen.
- PhysX wird immer noch stiefmütterlich behandelt.
- CUDA ist auch nicht saumässig weit verbreitet, oder?
- 3dVision bekommt open-source-Konkurrenz
- gescheite profile. :up:
Open Source wird keine Alternative sein,weil dort keiner Geld reinsteck ich meine nicht nur was Entwicklung angeht sondern auch das Marketing.Deshalb ist DX und nicht OpenGl angesagt.Das Selbe gilt für Cuda,PhysX und 3D Vision in den jeweiligen Sparten.

Menace
2010-03-15, 21:17:34
Aber bei Rendering und co. wird sie ihre Stärken ausspielen können.
Selbst bei Photoshop möchte ich auf die Grakaunterstützung nicht mehr verzichten.


Grafikunterstützung hatte da aber meine alte 3870 auch schon (CS4).

derguru
2010-03-15, 21:17:52
Keine Angst, du darfst auch künftig viel Kohle bei Highend-Karten lassen. Wäre doch schön, wenn tombman mit Fermi seine Wiederauferstehung feiern könnte ;)
ndabruch:tongue:

Black-Scorpion
2010-03-15, 21:19:51
OpenGL ist nicht angesagt weil der Haufen nicht aus dem Arsch kommt.
Auf welchen Stand sind die gerade? DX9 oder doch schon DX10?

dildo4u
2010-03-15, 21:22:33
OpenGL ist nicht angesagt weil der Haufen nicht aus dem Arsch kommt.
Auf welchen Stand sind die gerade? DX9 oder doch schon DX10?
DX11.Hat lange gedauert das ist ebend genau mein Argument kaum einer steckt Geld rein deshalb langsame Entwicklung.

http://www.opengl.org/

Menace
2010-03-15, 21:28:27
DX11.Hat lange gedauert das ist ebend genau mein Argument kaum einer steckt Geld rein deshalb langsame Entwicklung.

http://www.opengl.org/

Fermi soll laut nvidia vom Start weg OpenGl 4 unterstützen (wahrscheinlich jetzt auch die Veröffentlichung). Von daher gebe ich die Hoffnung nicht ganz auf. Wollte nicht Ati auch die Entwickler mehr unterstützen?

Coda
2010-03-15, 21:50:46
OpenGL wird von NVIDIA traditionell besser unterstützt und auch in ihren Demos verwendet. Das ist nun wirklich nicht verwunderlich.

Und dieses Mal war OpenGL wirklich sehr schnell beim aufschließen auf D3D11. Bei D3D10 hat das erheblich länger gedauert.

Byteschlumpf
2010-03-15, 21:58:30
Halten wir uns mal dieses Fazit des GT200 seinerzeit vor Augen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/35/#abschnitt_fazit

Sollte Fermi die GTX295 um 20%+ übertrumpfen, ist wohl IMO nicht von einem Fail zu reden! Vergleicht man die HD5870 mit der HD4870 X2, zeigt sich, dass der Nachfolger mit dem Dual-GPU Vorgänger soweit gleichzieht und diesen in Punkto Leistungsaufnahme klar deklassiert!

Die GTX480 müsste demnach nicht nur die GTX295/HD5870 überrunden, sondern von der Leistungsaufnahme die GTX295 auch klar unterbieten bzw. mit der GTX285 gleichziehen, was wohl aufgrund der deutlich höheren Anzahl an Transistoren kaum möglich sein dürfte.

mapel110
2010-03-15, 22:02:37
Wichtiger ist, dass der Idle-Verbrauch nicht durch die Decke geht. Und da hab ich mittlerweile auch meine Bedenken, wenn nvidia da auf Optimus setzt und den Rest der User wohl im Regen stehen lässt.

LovesuckZ
2010-03-15, 22:02:58
Halten wir uns mal dieses Fazit des GT200 seinerzeit vor Augen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/35/#abschnitt_fazit

Sollte Fermi die GTX295 um 20%+ übertrumpfen, ist wohl IMO nicht von einem Fail zu reden! Vergleicht man die HD5870 mit der HD4870 X2, zeigt sich, dass der Nachfolger mit dem Dual-GPU Vorgänger soweit gleichzieht und diesen in Punkto Leistungsaufnahme klar deklassiert!

Die GTX480 müsste demnach nicht nur die GTX295/HD5870 überrunden, sondern von der Leistungsaufnahme die GTX295 auch klar unterbieten bzw. mit der GTX285 gleichziehen, was wohl aufgrund der deutlich höheren Anzahl an Transistoren kaum möglich sein dürfte.

Das Problem gegenüber Cypress ist, dass nVidia hier etwas gebaut hat, dass in heutigen, morgigen und älteren Spielen nicht sich wirklich absetzen wird.
Aber sollte irgendwer auf Tessellation setzen oder die GPU für Physikberechnungen einsetzen, dann ist die Wahrscheinlichkeit sehr hoch, dass GF100 Kreise um die alten Karten und Konkurrenz fährt.
Ail wollte eine Strategieänderung von nVidia. Manchmal sollte man vorsichtig sein, was man sich wünscht. :D

Wichtiger ist, dass der Idle-Verbrauch nicht durch die Decke geht. Und da hab ich mittlerweile auch meine Bedenken, wenn nvidia da auf Optimus setzt und den Rest der User wohl im Regen stehen lässt.

Optimus gibt es nicht für den Desktop. Außer du glaubst wie Char-lie, dass GF100 ins Notebooksegment wandert. ;)

/edit: Wow, es gibt eine "Triangle Game Conference"...

Tesseract
2010-03-15, 22:08:37
DX11.Hat lange gedauert das ist ebend genau mein Argument kaum einer steckt Geld rein deshalb langsame Entwicklung.

das liegt aber nicht daran, dass kein geld da wäre sondern dass 1000 leute mitreden und sich wichtig machen wollen.

Gast
2010-03-15, 22:08:44
Das Problem gegenüber Cypress ist, dass nVidia hier etwas gebaut hat, dass in heutigen, morgigen und älteren Spielen nicht sich wirklich absetzen wird.
Aber sollte irgendwer auf Tessellation setzen oder die GPU für Physikberechnungen einsetzen, dann ist die Wahrscheinlich sehr hoch, dass GF100 Kreise um die alten Karten und Konkurrenz fährt.

tessellation, tessellation, tessellation . fast in jedem post ...
wahnsinn, bist du eigentlich von beruf staubsaugerverkäufer?

Iruwen
2010-03-15, 22:12:46
Warum muss ich gerade hieran denken? :D
http://www.gamespot.com/news/2804420.html

Gast
2010-03-15, 22:14:40
Sowas gabs ja damals auch zur ATI X1900 zur diskussion.Damals haben die experten auch gesagt das die architektur viel besser als das gegenstück ist.Trotzdem haben damals die meisten lieber ne 7900 NV gekauft.DIesmal muss sich erst zeigen ob die architektur des fermi wirklich besser ist.

z3ck3
2010-03-15, 22:27:49
Ich hab da mal ne Frage bezüglich der Cores. Anfangs war ja von 512 die rede, dann kamen Gerüchte auf das es nur 480 bei der GTX480 sind und 448 bei der GTX470. Mir erscheint es unlogisch das ein einfach einer der 16 Blöcke, die ja je 32 Cores haben weg gelassen wird, das würde das ganze Chiplayout ja über den Haufen werfen. Kann man davon ausgehen das der Chip ab Werk 512 Cores hat und das defekte Blöcke einfach deativiert werden? Dann könnte es ja auch sein das noch ein Refresh kommt das die volle Anzahl frei geschaltet hat, oder?

Byteschlumpf
2010-03-15, 22:30:18
Warum muss ich gerade hieran denken? :D
http://www.gamespot.com/news/2804420.html
Die Super-Kiste für die Realtime-Techdemo hatte demnach knapp 100GFLOP/s Rechenpower!
Eine HD5870 kommt da heute schon allein auf 2,720TFLOP/s! Ist schon Wahnsinn, was 10 Jahre später möglich ist! :D

Gast
2010-03-15, 22:30:20
Ich hab da mal ne Frage bezüglich der Cores. Anfangs war ja von 512 die rede, dann kamen Gerüchte auf das es nur 480 bei der GTX480 sind und 448 bei der GTX470. Mir erscheint es unlogisch das ein einfach einer der 16 Blöcke, die ja je 32 Cores haben weg gelassen wird, das würde das ganze Chiplayout ja über den Haufen werfen. Kann man davon ausgehen das der Chip ab Werk 512 Cores hat und das defekte Blöcke einfach deativiert werden? Dann könnte es ja auch sein das noch ein Refresh kommt das die volle Anzahl frei geschaltet hat, oder?


klar, wieso nich

Gast
2010-03-15, 22:31:23
Die Super-Kiste für die Realtime-Techdemo hatte demnach knapp 100GFLOP/s Rechenpower!
Eine HD5870 kommt da heute schon allein auf 2,720TFLOP/s! Ist schon Wahnsinn, was 10 Jahre später möglich ist! :D

nur leider erreicht man die in der praxis kaum

mapel110
2010-03-15, 22:37:12
Optimus gibt es nicht für den Desktop. Außer du glaubst wie Char-lie, dass GF100 ins Notebooksegment wandert. ;)

Habs schon mehrmals gelesen, dass es auch für Fermi-basierende Lösungen kommen soll. Ob damit auch der Desktop gemeint ist, werden wir sehen.

Coda
2010-03-15, 22:50:02
Ich hab da mal ne Frage bezüglich der Cores. Anfangs war ja von 512 die rede, dann kamen Gerüchte auf das es nur 480 bei der GTX480 sind und 448 bei der GTX470. Mir erscheint es unlogisch das ein einfach einer der 16 Blöcke, die ja je 32 Cores haben weg gelassen wird, das würde das ganze Chiplayout ja über den Haufen werfen. Kann man davon ausgehen das der Chip ab Werk 512 Cores hat und das defekte Blöcke einfach deativiert werden? Dann könnte es ja auch sein das noch ein Refresh kommt das die volle Anzahl frei geschaltet hat, oder?
Falls es 480 SPs sind, dann wurden welche abgeschalten - ja.

mapel110
2010-03-15, 23:35:33
http://www.shanebaxtor.com/2010/03/16/gtx-400-series-date-pushed-back/
the bad news is that the GTX 400 series has been pushed back to April 6th. The good news is that it’s only in reference to retail supply and not the actual NDA; so come the 26th of March we’ll all know what performance will be.

LovesuckZ
2010-03-16, 00:14:45
Wir werden sehen. Nur noch 11 Tage und 50min.

nVidia's Hairdemo - Video von der GDC (http://www.youtube.com/watch?v=YF8CUSiPDJ0)

Gast
2010-03-16, 00:42:11
http://www.shanebaxtor.com/2010/03/16/gtx-400-series-date-pushed-back/
the bad news is that the GTX 400 series has been pushed back to April 6th. The good news is that it’s only in reference to retail supply and not the actual NDA; so come the 26th of March we’ll all know what performance will be.

Ich fresse einen Besen, wenn die Karten vor Juli erhältlich werden. AMD (oder meinetwegen TSMC) schafft es selbst nach 6 Monaten nicht, die HD 5xxx-Reihe zu produzieren. Warum sollte das bei nVidia besser aussehen?

Inqui
2010-03-16, 00:45:18
Ich fresse einen Besen, wenn die Karten vor Juli erhältlich werden. AMD (oder meinetwegen TSMC) schafft es selbst nach 6 Monaten nicht, die HD 5xxx-Reihe zu produzieren. Warum sollte das bei nVidia besser aussehen?

naja, AMD hat keine Konkurrenz-da die Nachfrage decken ist noch ein Quäntchen schwerer ;)

Gast
2010-03-16, 00:49:11
naja, AMD hat keine Konkurrenz-da die Nachfrage decken ist noch ein Quäntchen schwerer ;)

Ja, könnte man meinen, aber eine HD 5850 bzw. HD 5870 sind in keiner "Massenkonsumenten-Preisklasse", das sind PC-Gamer-Karten deutlich > 200 €. Ich bezweifle, dass die Nachfrage da so riesig ist. Erst recht nicht nach 6 Monaten. Die Enthusiasten haben schon viel früher zugeschlagen, egal, wie hoch der Preis war.

grafzahl
2010-03-16, 05:23:54
Hehe nun hat Nvidia ja wieder um ne Woche verschoben :rolleyes:

Ich denke sie werden versuchen so viel wie Möglich von den A3 Chips auf die Reihe zu bringen was eher dafür spricht das die anderen Revisionen echt Asche sind :(

Ja, könnte man meinen, aber eine HD 5850 bzw. HD 5870 sind in keiner "Massenkonsumenten-Preisklasse", das sind PC-Gamer-Karten deutlich > 200 €. Ich bezweifle, dass die Nachfrage da so riesig ist. Erst recht nicht nach 6 Monaten. Die Enthusiasten haben schon viel früher zugeschlagen, egal, wie hoch der Preis war.

Schau doch bitte mal über den Tellerrand ! ATI kann mittlerweile den kompletten Markt bedienen , es gibt nicht nur Highend bei denen sondern nun schon Midrange und Lowend Karten. Damit sind sie bereits bestens aufgestellt und müssen sich erst mal nur um die Verfügbarkeit kümmern. Selbst MobileGPU Sektor kann bald bedient werden. Da wird sich Nvidia ganz schön strecken müssen um das aufzuholen.

mboeller
2010-03-16, 07:07:35
http://www.shanebaxtor.com/2010/03/16/gtx-400-series-date-pushed-back/
the bad news is that the GTX 400 series has been pushed back to April 6th. The good news is that it’s only in reference to retail supply and not the actual NDA; so come the 26th of March we’ll all know what performance will be.


Sind das am 26.3. dann normale Reviews, oder Review unter Aufsicht von Nvidia mit Nvidia-Demos?


Ach ja;

Pa..Pa..Paperlaunch... CJ hatte mit seinem Spruch also wirklich recht. Nvidia legt einen reinrassigen Paperlaunch hin. Hätte ich nicht erwartet.

Ailuros
2010-03-16, 07:11:35
Die groesste Anzahl von einem vendor hier liegt bei 20-480-er und 40-470er; alle anderen haben um einiges weniger. Ergo insgesamt ein paar hundert GPUs...

Superheld
2010-03-16, 07:16:39
Wir werden sehen. Nur noch 11 Tage und 50min.

nVidia's Hairdemo - Video von der GDC (http://www.youtube.com/watch?v=YF8CUSiPDJ0)


was sehe ich da kurzzeitig 19 fps :eek: ?

=Floi=
2010-03-16, 07:36:51
eine hair demo für frauen :ugly:

Menace
2010-03-16, 07:37:21
Ich habe gerade bei pcgh reingeschaut. Was mich verwundert ist folgender Satz:

Metro 2033: "Allerdings übertreiben es die Entwickler zugunsten einer sichtbaren Differenz: Alle tessellierten Objekte sehen wie schon in Stalker: Call of Pripyat schlicht "aufgepumt" aus - wem der direkte Vergleich fehlt, erkennt aber ohnehin nicht, ob Tessellation aktiv ist oder nicht. "

http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX/Action-Spiel/Test/

Gerade von dieser Technik habe ich mir eigentlich am meisten versprochen. Wenn es aber nur dazu da ist, Balkenlängen zu beeinflussen, wäre ich enttäuscht.

san.salvador
2010-03-16, 07:39:34
Lol, sieht ja aus wie das (automatische) Truform von damals - FAIL. :uup:

€dit: Dafür sind kreisrunde Objekte (Fenster, Ventilatorenschächte, ...) noch immer eckig, reife Leistung.

Gast
2010-03-16, 07:55:48
Aber sollte irgendwer auf Tessellation setzen oder die GPU für Physikberechnungen einsetzen, dann ist die Wahrscheinlichkeit sehr hoch, dass GF100 Kreise um die alten Karten und Konkurrenz fährt.


Massiv Geometrie ja, Physikberechnungen nein. GPGPU fordert die Rechenleistung, da hat Fermi voraussichtlich keine Chance.

mboeller
2010-03-16, 08:21:58
Die groesste Anzahl von einem vendor hier liegt bei 20-480-er und 40-470er; alle anderen haben um einiges weniger. Ergo insgesamt ein paar hundert GPUs...


Verstehe ich das richtig?

Das weltweite Launch-Kontingent der GTX4x0 beträgt ein "paar Hundert" GPU's?

Ailuros
2010-03-16, 08:25:25
Verstehe ich das richtig?

Das weltweite Launch-Kontingent der GTX4x0 beträgt ein "paar Hundert" GPU's?

Wenn ich "hier" sage dann meine ich offensichtlich Griechenland. Der Markt ist so oder so relativ klein hier, aber eine Indizie zu begrenzter Verfuegbarkeit ist es schon. Das Zeug wird hoechstwahrscheinlich ueber Nacht verschwinden im April.

mboeller
2010-03-16, 08:27:28
Wenn ich "hier" sage dann meine ich offensichtlich Griechenland. Der Markt ist so oder so relativ klein hier, aber eine Indizie zu begrenzter Verfuegbarkeit ist es schon. Das Zeug wird hoechstwahrscheinlich ueber Nacht verschwinden im April.

Ok, dann bin ich ja beruhigt. Doch wesentlich mehr verfügbar.

Adam D.
2010-03-16, 08:27:52
Naja, vielleicht kommen in den nächsten 2-3 Wochen noch ein paar Lieferungen dazu, aber das wird so ein astreiner Paperlaunch, das dürfte inzwischen wohl feststehen. Hoffentlich lohnt sich dann immerhin das Warten, Fermi muss lohnenswert werden, sonst gibt's den Markt-GAU.

Henroldus
2010-03-16, 08:29:09
Wenn ich "hier" sage dann meine ich offensichtlich Griechenland. Der Markt ist so oder so relativ klein hier, aber eine Indizie zu begrenzter Verfuegbarkeit ist es schon. Das Zeug wird hoechstwahrscheinlich ueber Nacht verschwinden im April.
Hey Ailuros, das sehe ich ja jetzt erst, dass Du in Griechenland stationiert bist.
In Chania hab ich während eines Urlaubs den teuersten Fisch meines Lebens gegessen :biggrin: ... aber das wird Offtopic
es sei denn man setzt die Anzahl der verfügbaren Fische dann in Relation zu den Fermis

Ailuros
2010-03-16, 08:40:58
Hey Ailuros, das sehe ich ja jetzt erst, dass Du in Griechenland stationiert bist.
In Chania hab ich während eines Urlaubs den teuersten Fisch meines Lebens gegessen :biggrin: ... aber das wird Offtopic
es sei denn man setzt die Anzahl der verfügbaren Fische dann in Relation zu den Fermis

Ich hab eine PM box fuer OT ;)

Erste Woche April = MSI ~60 GPUs fuer GR.

V2.0
2010-03-16, 08:53:39
Naja, vielleicht kommen in den nächsten 2-3 Wochen noch ein paar Lieferungen dazu, aber das wird so ein astreiner Paperlaunch, das dürfte inzwischen wohl feststehen. Hoffentlich lohnt sich dann immerhin das Warten, Fermi muss lohnenswert werden, sonst gibt's den Markt-GAU.

Es wird so sehr ein Paperlaunch wie 5870.

Iruwen
2010-03-16, 09:05:16
Ich hab eine PM box fuer OT ;)

Erste Woche April = MSI ~60 GPUs fuer GR.

Ich würde auch nicht tonnenweise Grafikkarten in ein Land schicken das kurz vorm Staatsbankrott steht.

:rolleyes: scnr

Gast
2010-03-16, 09:11:25
Lol, sieht ja aus wie das (automatische) Truform von damals - FAIL. :uup:

€dit: Dafür sind kreisrunde Objekte (Fenster, Ventilatorenschächte, ...) noch immer eckig, reife Leistung.

Hersteller die ihre Inkompetenz durch Effekthascherrei auszugleich versuchen gibt es in vielen Branchen.

Ist doch verständlich dass weniger begabte Spieleentwickler die neusten Technologien (Effekte) als einer der ersten in ihre Spiele zu integrieren wollen.

Wie schon jemand anders hier im Forum geschrieben hat: Die meisten Menschen sind dumm und wenn man ihnen was verkaufen will, dann muss man sich auf ihr Niveau herrablassen.

Ailuros
2010-03-16, 09:30:00
Ich würde auch nicht tonnenweise Grafikkarten in ein Land schicken das kurz vorm Staatsbankrott steht.

:rolleyes: scnr

Erstens ist es verdammt OT, zweitens war es wohl nur eine Frage der Zeit dass ich dementsprechenden Bloedsinn lesen musste. Der Staat wird wohl nicht an GF100-er interessiert sein und fuer kleinpolitische und kindische Sticheleien benutz das dementsprechende Forum und nicht dieses. Belgien bekommt weniger Gf100-er beim ersten Schub.

Frank1974
2010-03-16, 09:52:50
Wäre interessant zu wissen, wie viele HD 5850/5870/5970 am Start waren in Griechenland, dann hätte man schon mal einen kleinen Vergleich, auch wenn er nicht wirklich etwas aussagt;D.

mfg
Frank

Ailuros
2010-03-16, 10:05:54
Wäre interessant zu wissen, wie viele HD 5850/5870/5970 am Start waren in Griechenland, dann hätte man schon mal einen kleinen Vergleich, auch wenn er nicht wirklich etwas aussagt;D.

mfg
Frank

Es waren drei vendors im ersten Monat fuer die 5870 und man musste etliche Wochen warten um eine bekommen zu koennen. 5850 waren relativ gut verfuegbar am Anfang und die 5970 war auch ziemlich schwer zu bekommen bei ihrem Start. Heutzutage gibt es keine besonderen Probleme, nur kann man auch nicht von einer "Unmenge" pro SKU reden.

=Floi=
2010-03-16, 10:18:06
es wäre fast wichtiger wann die nächsten 2 schiffsladungen ankommen. könnten es jeweils 6 wochen sein?
das blöde ist ja, dass durch den weiten transport es auch zeitlich einen relativ großen vorlauf braucht. Wenn das produkt nur von der firma raus in den laden käme, dann wäre die dauerhafte verfügbarkeit sicherlich weit höher.

Gast
2010-03-16, 10:33:21
Was passiert eigentlich mit solchen Redaktionskarten? Werden die wiederverpackt und einfach verkauft?

Ailuros
2010-03-16, 10:48:53
Was passiert eigentlich mit solchen Redaktionskarten? Werden die wiederverpackt und einfach verkauft?

Kein IHV wuerde gebrauchte GPUs als neu verkaufen. Die GPUs die an NV zurueckgeschickt werden, werden entweder intern verbraucht oder an weitere ISVs verschickt.

Unter normalen Umstaenden sind Aufkleber auf dem PCB mit einer Zahl in der Art: Devsample Nr. 33

Gast
2010-03-16, 11:14:14
und bitteschön der preis der gtx 470

http://www.fudzilla.com/content/view/18087/1/

Nightspider
2010-03-16, 11:31:00
Falls sich das Gerücht bewahrheiten sollte, das die GTX480 nur mit 480 (passt zum namen) Einheiten kommt bleibt die Frage was mit den 512er Chips passieren wird.

Wird Nvidia 2 Monate später eine Ultra Version anbieten?
Wird Nividia die 512 beschneiden und als 480er verkaufen, da die Ausschuss-Quote so hoch ist und erst mit einem neuen Stepping eine 480 Ultra mit leicht erhöhten Taktraten bringen umd der HD5890 das fürchten zu lehren?

Eggcake
2010-03-16, 11:34:49
und bitteschön der preis der gtx 470

http://www.fudzilla.com/content/view/18087/1/

Damits nicht jeder öffnen muss:

We managed to get some additional prices of upcoming Fermi-based cards and the slower of two will sell for €349 or £299 in the UK market.

Godmode
2010-03-16, 11:39:26
Das ist vor allem interessant:

Fudzilla: The plan is to attack the Radeon HD 5870, which is currently selling at roughly the same or a very similar price, as Geforce GTX 470 should end up at least slightly faster in most benchmarks.

Burgard
2010-03-16, 11:45:11
"should" muss sich erst noch beweisen.

Gast
2010-03-16, 11:47:04
abwarten und tee trinken in 10 tagen wissen wir hoffentlich mehr!

MorPheuZ
2010-03-16, 11:52:29
... Stepping eine 480 Ultra mit leicht erhöhten Taktraten bringen umd der HD5890 das fürchten zu lehren?

HD5890 wirds vorerst nicht geben. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7905733&postcount=1

Knuddelbearli
2010-03-16, 14:02:33
Um wieder aufs Thema zurückzukommen:

Der Launch ist in weniger als zwei Wochen. Finale Specs sind bis zum heutigen Tag nicht vorhanden. Wann gab es sowas zum letzen Mal? Selbst beim G80 dürfte dies nicht der Fall gewesen sein...


Beim RV 870 wusste man 1 Tag vorm Launch nichtmal die Shader Anzahl

Zauberer
2010-03-16, 17:13:08
"should" muss sich erst noch beweisen.
Es sind knapp zwei Wochen bis zum Start.
Eine GTX 470 für 349 €, wo im Moment eine HD 5870 bei 399€ liegt.
Man kann davon ausgehen, das die GTX 470 ca. so schnell ist wie die HD 5870.
Mal ist NVidia vorne mal ATi, man kann die Benchmarks immer so drehen das sie passen.

Wichtig sind für mich nur Setting mit naiver Auflösung der heutigen üblichen 22"-24" Monitoren 1680x1050-1920x1200, wo auch bei neuen DX11 Spielen mit Tessellation, auch durchgängig 60 FPS erreicht werden.
Alles andere ist uninteressant.
30 FPS hat man bei Konsolen, da brauche ich nicht für mehr Geld eine Grafikkarte kaufen.

Bin mal gespannt wie sich die Preise dann entwickeln.

Interessant ist auch, dass keiner etwas zur Leistung und Preis der GTX 480 sagt, dies ist eigentlich viel wichtiger, weil es auch ums Prestige geht.
Wer hat den schnellsten Grafikchips aller Zeiten?
Im Moment noch AMD/ATi, in zwei Wochen sicher wieder Nvidia!

fizzo
2010-03-16, 17:26:27
Es sind knapp zwei Wochen bis zum Start.
Eine GTX 470 für 349 €, wo im Moment eine HD 5870 bei 399€ liegt.


Reden wir hier vom UVP oder Straßenpreise? Im Falle der HD 5870 stimmt es ja weder noch....

Burgard
2010-03-16, 17:55:27
Bei beiden wird man eh nur die UVP miteinander vergleichen können, da die VK-Preise darüberliegen.

Grosse Preisfrage...
werden NV und ATI es schaffen bis zum Herbst die Preise unter die Preisempfehlung zu drücken?

Gast
2010-03-16, 18:11:08
Reden wir hier vom UVP oder Straßenpreise? Im Falle der HD 5870 stimmt es ja weder noch....
Stimmt die Straßenpreise, das sind ja die Preise, wenn man mal in die Läden an den Straßen hinschaut, kosten die 5870 über 400 €.

LovesuckZ
2010-03-16, 18:14:03
Bei beiden wird man eh nur die UVP miteinander vergleichen können, da die VK-Preise darüberliegen.

Grosse Preisfrage...
werden NV und ATI es schaffen bis zum Herbst die Preise unter die Preisempfehlung zu drücken?

Warum wartet man nicht einfach ab? Vielleicht kosten die Karten doch nicht mehr als der UVP, da es genug gibt. ;)

Gast
2010-03-16, 18:14:38
Stimmt die Straßenpreise, das sind ja die Preise, wenn man mal in die Läden an den Straßen hinschaut, kosten die 5870 über 400 €.

Nein nein.
Dass ist der teuerste Preis für den du eine 5870 bekommen kannst.
Und dann musst du das Ganze nur noch mit einer, von dir gerade erfundenen, UVP der GTX470 vergleichen und schon ist alles in Butter;)

DrFreaK666
2010-03-16, 18:16:32
Warum wartet man nicht einfach ab? Vielleicht kosten die Karten doch nicht mehr als der UVP, da es genug gibt. ;)

Vielleicht auch nicht ;)

DeadMeat
2010-03-16, 18:17:55
Warum wartet man nicht einfach ab? Vielleicht kosten die Karten doch nicht mehr als der UVP, da es genug gibt. ;)

Als ob das die Händler davon abhalten würde bei einer neuen gefragten Karte den Preis zu erhöhen.

Du weißt doch :

Nachfrage hoch = Preis hoch
Nachfrage niedrig = Preis hoch
Lieferbarkeit hoch = Preis hoch
Lieferbarkeit niedrig = Preis hoch

;D

Außer man hat Glück und bekommt eine Karte der 5er Serie am 2. Tag für 80€ weniger als im jetzigen Durschnitt *froi*

LovesuckZ
2010-03-16, 18:18:26
Vielleicht auch nicht ;)

Wir können es sowieso nicht (ganz) ändern. Aber sich jetzt schon hinsetzen und den Teufel an die Wand malen, ist sowieso der falsche Weg.
Sich einfach überraschen lassen, heißt die Devise.

DrFreaK666
2010-03-16, 18:20:34
Wir können es sowieso nicht (ganz) ändern. Aber sich jetzt schon hinsetzen und den Teufel an die Wand malen, ist sowieso der falsche Weg.
Sich einfach überraschen lassen, heißt die Devise.

Eben.
Bin eigentlich echt gespannt wie schnell die 470er werden und wie sich die Preise entwickeln.
Für mich sind die Karten zwar uninteressant, aber wenn die Preise sinken dann hört das gemecker zum grössten teil endlich auf (Buhäääää. Karte zu teuer)

dildo4u
2010-03-16, 18:21:56
Eben.
Bin eigentlich echt gespannt wie schnell die 470er werden und wie sich die Preise entwickeln.
Für mich sind die Karten zwar uninteressant, aber wenn die Preise sinken dann hört das gemecker zum grössten teil endlich auf (Buhäääää. Karte zu teuer)
Warum sind die Karten uninterresant?Du bekommt doch noch gut Geld für die 5850 und kannst dir mit der 470 eine echte DX11 Karte kaufen.

Black-Scorpion
2010-03-16, 18:25:10
Und was ist seine Karte deiner Meinung nach?
Entweder die Karten sind DX11 oder nicht.
Da gibt es keine echten oder falschen.

Schlammsau
2010-03-16, 18:32:40
Warum sind die Karten uninterresant?Du bekommt doch noch gut Geld für die 5850 und kannst dir mit der 470 eine echte DX11 Karte kaufen.

Eine echte DX11 Karte....lol ;D

Was ist an der GTX4xx "echter" als an einer HD5xxx?

Gast
2010-03-16, 18:32:49
Warum sind die Karten uninterresant?Du bekommt doch noch gut Geld für die 5850 und kannst dir mit der 470 eine echte DX11 Karte kaufen.

Wenn man glaubt das Niveau könnte nicht mehr weiter sinken kommt eine solche Aussage. Unfassbar. Eine echte Dx11-Karte. Selbst das Marketing von NV würde wohl nicht so dreist sein.

MR2
2010-03-16, 18:38:36
Naja, er meint, echte Karten mit echtem Stromverbrauch...

Ich bin mal gespannt wie sich die 470 von Benches abgesehen schlägt. Stromverbrauch, Wärmeentwicklung, Lautstärke :-)

Huang sagte ja, das sich das Warten lohnen soll!

http://hardware-infos.com/news.php?news=3476, bisher Bekanntes zusammengetragen, obs natürlich stimmt...ich glaube die GTX470/480 sind am Ende stärker

deekey777
2010-03-16, 18:39:13
Wie jetzt? DX11 done right? Wow!

Schlammsau
2010-03-16, 18:41:27
Huang sagte ja, das sich das Warten lohnen soll!

Wär ja auch ein ungeschickter Schachzug von ihm, wenn er das Gegenteil sagen würde. ;D

Jake Dunn
2010-03-16, 18:42:17
Huang sagte ja, das sich das Warten lohnen soll!

Was soll der auch sonst sagen :freak:


Wie jetzt? DX11 done right? Wow!

Ja DX11.0001 ^^

Gast
2010-03-16, 18:45:50
Ja DX11.0001 ^^

Jo, ist eine Erweiterung um den Fanboyshader(kurz FB Shader).
Soll absolut State of the Art sein und Zukunftsweisend.

DrFreaK666
2010-03-16, 18:46:44
Warum sind die Karten uninterresant?Du bekommt doch noch gut Geld für die 5850 und kannst dir mit der 470 eine echte DX11 Karte kaufen.

Dann müsste ich noch die CPU aufrüsten.
Dirt 2 läuft in DX11.
Daher geh ich mal davon aus, dass meine 5850 eine DX11-Karte ist. :biggrin:

DeadMeat
2010-03-16, 18:54:34
Dann müsste ich noch die CPU aufrüsten.
Dirt 2 läuft in DX11.
Daher geh ich mal davon aus, dass meine 5850 eine DX11-Karte ist. :biggrin:
ja aber keine ECHTE. :D

Wobei wirklich langsam echte Verbrauchs/Lautstärke Werte durchdringen könnten.

Schlammsau
2010-03-16, 18:58:29
ja aber keine ECHTE.

Wobei wirklich langsam echte Verbrauchs/Lautstärke Werte durchdringen könnten.

Was ist eine echte DX11 Karte?

Benedikt
2010-03-16, 18:59:07
Wobei wirklich langsam echte Verbrauchs/Lautstärke Werte durchdringen könnten.
So sehr ich auch die 470 interessant finde, laute Grafikkarten gehen leider überhaupt nicht mehr - ich bin da durch meine Accelero L1-aufgerüstete 4850 "vorbelastet". Bin sehr pessimistisch, dass das Referenzdesign wirklich leise sein wird. Wäre auch das erste Mal... ;(

LovesuckZ
2010-03-16, 19:01:30
Was ist eine echte DX11 Karte?

Eine, die nicht um 75% einbricht, sobald Tessellation ins Spiel kommt. :P
Könnte man das Thema in den entsprechenden Cypress Thread verlagern?

DrFreaK666
2010-03-16, 19:02:59
Was ist eine echte DX11 Karte?

Es eght wohl darum, dass der RV870 auf dem RV770 aufbaut.
Wenn ich auf eine 470 aufrüsten würde dann hätte ich kein SGSSAA.
Das will ich nicht mehr missen.
Und ja: Es gibt Menschen die noch ältere games zocken (<DX10)

Eggcake
2010-03-16, 19:03:59
Edit ;)

Blaire
2010-03-16, 19:04:23
Was ist eine echte DX11 Karte?

Zumindest scheinen die 1GB der HD58x0 nicht mehr zu reichen. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907664&postcount=612

Black-Scorpion
2010-03-16, 19:05:15
Und du meinst wenn du es noch so oft schreibst wird es richtiger?
DX11 gibt die Features vor und nicht die Geschwindigkeit.

Botcruscher
2010-03-16, 19:05:22
Dann kauf dir ECHTE 2GB. :rolleyes:

Burgard
2010-03-16, 19:05:28
Ohje, ich sehe es schon vor mir.

EIne echte DX11 Karte ist es nur, wenn sie extrem viel Tessalation darstellen kann.
Ohne Extrem-Tessalation ist es ein Witz und nur eine bessere DX10-Karte.

Habe ich das in etwa wichtig interpretiert?

Schlammsau
2010-03-16, 19:05:39
Eine, die nicht um 75% einbricht, sobald Tessellation ins Spiel kommt. :P
Könnte man das Thema in den entsprechenden Cypress Thread verlagern?

Bricht eine HD5000 um 75% ein, wenn man Metro 2033 mit Tesselation zockt?

Coda
2010-03-16, 19:05:40
Was ist an der GTX4xx "echter" als an einer HD5xxx?
Nun, das Frontend ist schon eher auf deutlich höhere Geometriemengen ausgelegt als bei RV870.

Lacht mal nicht zu laut. D3D11-Displacement-Mapping könnte sich relativ schnell etablieren und dann dominiert NVIDIA so oder so die Benchmarks, egal wie schnell Fermi heute ist.

ATI braucht da dringend Änderungen. RV870 müsste rein von der Rechenleistung viel schneller sein. Der Chip bringt das hinten und vorne nicht auf den Boden.

Es dürfte aber recht sicher sein, dass ATI zumindest irgendwas in der Richtung in der Pipeline hat. Sie haben ja bei RV870 schon versucht die Rasterleistung zu steigern - wenn auch nicht sehr erfolgreich.

Bricht eine HD5000 um 75% ein, wenn man Metro 2033 mit Tesselation zockt?
Nein, aber um fast 50% und das obwohl eigentlich nicht mehr Füllrate benötigt wird.

Da erwarte ich bei Fermi weitaus weniger Probleme.

Gast
2010-03-16, 19:06:49
Eine, die nicht um 75% einbricht, sobald Tessellation ins Spiel kommt. :P
Könnte man das Thema in den entsprechenden Cypress Thread verlagern?

Das definiert wer? Du? Aber ich vergaß, DX11 besteht ja nur aus Tesslation. Sehr lustig anzusehen wie sich die NV-Fanboys mehr und mehr an den letzten verbliebenen Strohhalm klammern. Das hat auch im Cypress Thread nichts verloren sondern ist einfach lächerlich. Damit wäre wohl jede neue Generation der letzten Jahren keine "echte" Karte.

Jake Dunn
2010-03-16, 19:07:16
Zumindest scheinen die 1GB der HD58x0 nicht mehr zu reichen. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907664&postcount=612

Die 1Gb reichen ja meistens für die Konsolenkost, aber es gibt auch ausnahmen :)

Schlammsau
2010-03-16, 19:07:26
Zumindest scheinen die 1GB der HD58x0 nicht mehr zu reichen. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907664&postcount=612

Kann schon sein, deshalb kommen jetzt ja 2GB Modelle.

Aber was hat das mit echten DX11 Karten zu tun?

Schlammsau
2010-03-16, 19:09:38
Nun, das Frontend ist schon eher auf deutlich höhere Geometriemengen ausgelegt als bei RV870.

Lacht mal nicht zu laut. D3D11-Displacement-Mapping könnte sich relativ schnell etablieren und dann dominiert NVIDIA so oder so die Benchmarks, egal wie schnell Fermi heute ist.

ATI braucht da dringend Änderungen. RV870 müsste rein von der Rechenleistung viel schneller sein. Der Chip bringt das hinten und vorne nicht auf den Boden.

Es dürfte aber recht sicher sein, dass ATI zumindest irgendwas in der Richtung in der Pipeline hat. Sie haben ja bei RV870 schon versucht die Rasterleistung zu steigern - wenn auch nicht sehr erfolgreich.

Nein, aber um fast 50% und das obwohl eigentlich nicht mehr Füllrate benötigt wird.

Evtl ändert sich da was mit dem RV970 Ende dieses Jahres!?

DeadMeat
2010-03-16, 19:09:55
So sehr ich auch die 470 interessant finde, laute Grafikkarten gehen leider überhaupt nicht mehr - ich bin da durch meine Accelero L1-aufgerüstete 4850 "vorbelastet". Bin sehr pessimistisch, dass das Referenzdesign wirklich leise sein wird. Wäre auch das erste Mal... ;(

Kann ich verstehen, ich hatte lange Zeit eine Alternativ Kühler x850xt, der umstieg zur 8800gt war grausam und die 5850 jetzt ist nicht wirklich viel besser.
Und zumindest die Bilder (auch wenn man nit wirklich was rausziehen kann) der gtx4xx er Serie lassen da auch nit viel Hoffnung über.

Btw das mit der "echten" meinerseits war nen Scherz . ich hab ja selber eine "unechte" :)

Coda
2010-03-16, 19:12:22
Evtl ändert sich da was mit dem RV970 Ende dieses Jahres!?
Ja, sag ich doch. Das wird zeigen wie die Geschichte schlussendlich ausgeht, also ob NVIDIA doch alles richtig gemacht hat.

Aber ich vergaß, DX11 besteht ja nur aus Tesslation.
Was die Änderungen an der 3D-Pipeline angeht ist das so ziemlich alles - ja.

fizzo
2010-03-16, 19:13:02
Warum wartet man nicht einfach ab? Vielleicht kosten die Karten doch nicht mehr als der UVP, da es genug gibt. ;)

genug?

Die groesste Anzahl von einem vendor hier liegt bei 20-480-er und 40-470er; alle anderen haben um einiges weniger. Ergo insgesamt ein paar hundert GPUs...

Wenn ich "hier" sage dann meine ich offensichtlich Griechenland. Der Markt ist so oder so relativ klein hier, aber eine Indizie zu begrenzter Verfuegbarkeit ist es schon. Das Zeug wird hoechstwahrscheinlich ueber Nacht verschwinden im April.

kling mir nicht gerade danach :(

R.I.P.
2010-03-16, 19:16:20
Meiner Meinung nach wird die Übertaktbarkeit der 470 ein wichtiger Punkt im Kampf gegen 5850 und 5870 sein. Wie wir wissen kann man die 5XXX Reihe sehr gut übertakten, ohne Spannung zu erhöhen kann man leicht den 900-950Mhz GPU-Takt knacken. Sollte die 470 wirklich am Limit der Taktbarkeit auf den Markt kommen, "könnte" eine auf 950Ghz übertaktete 5850 bereits ein ernster Konkurrent für die 470iger werden, obwohl sie mehr als hundert Euro weniger kosten wird (sollten die Preise stimmen). Ich weiss, dass ich hier eine übertaktete Karte mit einer "default" vergleiche, aber natürlich wenn die 470 nicht besser zu takten ginge.....

derguru
2010-03-16, 19:16:33
Ohje, ich sehe es schon vor mir.

EIne echte DX11 Karte ist es nur, wenn sie extrem viel Tessalation darstellen kann.
Ohne Extrem-Tessalation ist es ein Witz und nur eine bessere DX10-Karte.

Habe ich das in etwa wichtig interpretiert?


ehrlich gesagt ist tessalation ein witz oder besser gesagt was man bis jetzt damit angestellt hat.alle dx11 games mit tess sind zur zeit nicht mal ansatzweise wert eingeschaltet zuwerden,z.b.

supadupa metro2033,geile schreibmaschin,darauf hat die welt grewartet:up:

http://www.abload.de/thumb/metro2033dx114msaaohnerj80.png (http://www.abload.de/image.php?img=metro2033dx114msaaohnerj80.png) http://www.abload.de/thumb/metro2033dx114msaamaxejiu.png (http://www.abload.de/image.php?img=metro2033dx114msaamaxejiu.png)

Gast
2010-03-16, 19:17:26
Ja, sag ich doch. Das wird zeigen wie die Geschichte schlussendlich ausgeht, oder ob NVIDIA doch alles richtig gemacht hat.


Alles richtig gemacht haben sie schon lange nicht mehr. Sie sind ein halbes Jahr zu spät. Selbst wenn sie jetzt ein halbes Jahr Vorteile bei den kaum vorhandenen Spielen mit Tesslation haben werden reist das die Sache nicht mehr raus. Schon gar nicht wenn Fermi auch noch wie aktuell spekuliert ziemlich viel Strom frisst und nicht gerade das Monster wird.

DrFreaK666
2010-03-16, 19:18:53
ehrlich gesagt ist tessalation ein witz oder besser gesagt was man bis jetzt damit angestellt hat.alle dx11 games mit tess sind zur zeit nicht mal ansatzweise wert eingeschaltet zuwerden,z.b.

supadupa metro2033,geile schreibmaschin,darauf hat die welt grewartet:up:

http://www.abload.de/thumb/metro2033dx114msaaohnerj80.png (http://www.abload.de/image.php?img=metro2033dx114msaaohnerj80.png) http://www.abload.de/thumb/metro2033dx114msaamaxejiu.png (http://www.abload.de/image.php?img=metro2033dx114msaamaxejiu.png)

Irgednwie wirkt alles nur bolliger.
Erinnert mich an Truform

Coda
2010-03-16, 19:19:36
Alles richtig gemacht haben sie schon lange nicht mehr. Sie sind ein halbes Jahr zu spät. Selbst wenn sie jetzt ein halbes Jahr Vorteile bei den kaum vorhandenen Spielen mit Tesslation haben werden reist das die Sache nicht mehr raus. Schon gar nicht wenn Fermi auch noch wie aktuell spekuliert ziemlich viel Strom frisst und nicht gerade das Monster wird.
Dann warten wir doch erstmal die Benchmark-Ergebnisse ab und dann können wir darüber nochmal reden.
Ich vertraue bisher keiner einzigen Quelle was die Performance der GTX 480 angeht.

Kleine Dreiecke sind nicht nur durch Tesselation ein Problem in vielen Spielen.

supadupa metro2033,geile schreibmaschin,darauf hat die welt grewartet:up:
Hast dir natürlich auch gerade die unglaublich beste Szene rausgesucht.

Gast
2010-03-16, 19:19:37
Meiner Meinung nach wird die Übertaktbarkeit der 470 ein wichtiger Punkt im Kampf gegen 5850 und 5870 sein. Wie wir wissen kann man die 5XXX Reihe sehr gut übertakten, ohne Spannung zu erhöhen kann man leicht den 900-950Mhz GPU-Takt knacken. Sollte die 470 wirklich am Limit der Taktbarkeit auf den Markt kommen, "könnte" eine auf 950Ghz übertaktete 5850 bereits ein ernster Konkurrent für die 470iger werden, obwohl sie mehr als hundert Euro weniger kosten wird (sollten die Preise stimmen). Ich weiss, dass ich hier eine übertaktete Karte mit einer "default" vergleiche, aber natürlich wenn die 470 nicht besser zu takten ginge.....
Sehr schöner Äpfel-Birnen Vergleich.
5870 nimmst du extra nicht in den Vergleich?

Wie auch immer, wenn du es so siehst, eine gut übertaktbare und darausfolgernd starke Billigkarte zu bekommen, dann musst du auch den Blick auf "GTS 460" werfen, mit dem GF104.

derguru
2010-03-16, 19:21:48
Dann warten wir doch erstmal die Benchmark-Ergebnisse ab und dann können wir darüber nochmal reden.

Ich vertraue bisher keiner einzigen Quelle was die Performance der GTX 480 angeht.


Hast dir natürlich auch gerade die unglaublich beste Szene rausgesucht.
es gibt keine quelle über die performance der 480,dann ist das nicht vertrauen einfach.

Gast
2010-03-16, 19:22:18
ehrlich gesagt ist tessalation ein witz oder besser gesagt was man bis jetzt damit angestellt hat.alle dx11 games mit tess sind zur zeit nicht mal ansatzweise wert eingeschaltet zuwerden,z.b.

supadupa metro2033,geile schreibmaschin,darauf hat die welt grewartet:up:

Mach dich nicht lächerlich. Jahrelang wurde Tessalation als Wunder angepriesen, jungst nochmal zum HD5 Start, anschließend bei den Gerüchten das GF100 nur einen Softwaretessalator hätte der angeblich lahm funktionieren sollte.
Jetzt auf einmal scheint sich das Blatt zu wenden.

derguru
2010-03-16, 19:23:44
was geht mich dx11 zur zeit an,als ob ich die 5er karte deswegen gekauft hab,lächerlicher gehts ja gar nicht.

ich will jetzt was davon haben und nicht erst in optimierten dx11 games in einem jahr,bis dahin hab ich schon lange eine andere karte.

Gast
2010-03-16, 19:25:59
Kleine Dreiecke sind nicht nur durch Tesselation ein Problem in vielen Spielen.

Na dann bin ich mal gespannt. Bisher hat NV nur absolute Extrem-Tesslationsszenen im Unigine-Demo gezeigt.


Hast dir natürlich auch gerade die unglaublich beste Szene rausgesucht.

Der Kern der Aussagen ist trotzdem richtig, es ist bei allen Spielen nur aufgesetzt, ähnlich wie Truform damals. Bis sich das ändern wird dürfte noch einige Zeit vergehen.

Menace
2010-03-16, 19:29:32
Ich rieb mir schon bei Atis Marketing bzgl. Dirt 2 verwundert die Augen. Wehende Flaggen und Publikum, das ich beim dahinrasen eh nicht wahrnehme.

Kann es sein, dass Tesselation zu spät kommt? Dass man also ohne Tesselation eigentlich schon fast den gleichen Bildeindruck hinbekommt?

Oder hat bisher die Zeit nicht ausgereicht, Tesselation so zu implementieren, dass es Sinn macht?

Coda
2010-03-16, 19:29:56
Na dann bin ich mal gespannt. Bisher hat NV nur absolute Extrem-Tesslationsszenen im Unigine-Demo gezeigt.
Beim rendern von Shadow Maps dürfte das einiges bringen. Da limitiert der Rasterisierer alle Karten die bisher auf dem Markt sind erheblich.

Der Kern der Aussagen ist trotzdem richtig, es ist bei allen Spielen nur aufgesetzt, ähnlich wie Truform damals. Bis sich das ändern wird dürfte noch einige Zeit vergehen.
Displacement-Maps kann man direkt aus der Content-Pipeline ziehen. Ich wüsste nicht was man da "richtiger" machen soll.

Gast
2010-03-16, 19:31:11
ich hoffe, das eine höhere dreiecksleistung solche szenen (http://pro.bistudio.com/index.php/services/linda-tree-generator/gallery.html) beschleunigt. der hersteller ist mir dabei egal.

R.I.P.
2010-03-16, 19:32:11
Sehr schöner Äpfel-Birnen Vergleich.
5870 nimmst du extra nicht in den Vergleich?

Wie auch immer, wenn du es so siehst, eine gut übertaktbare und darausfolgernd starke Billigkarte zu bekommen, dann musst du auch den Blick auf "GTS 460" werfen, mit dem GF104.

Obwohl es tatsächlich ein leichter Äpfel-Birnen Vergleich ist, wird trotzdem jede "Fähigkeit" der beiden Chips ausgenutzt. Warum eine 470iger kaufen, die teurer ist, sich sehr schlecht übertakten (Spekulation!) lässt und somit einer übertakteten 5850 in der Leistungs unterlegen ist? Von einer 5870iger ganz zu schweigen...

edit: klar, sollte der GF104 sich so gut übertakten lassen, dass die Leistung einer übertakteten 5850 gleicht oder besser ist, warum nicht?

cR@b
2010-03-16, 19:33:55
was geht mich dx11 zur zeit an,als ob ich die 5er karte deswegen gekauft hab,lächerlicher gehts ja gar nicht.

ich will jetzt was davon haben und nicht erst in optimierten dx11 games in einem jahr,bis dahin hab ich schon lange eine andere karte.

Hab damals meine 88er GTX auch nicht wegen DX10 gekauft, da ich wusste, dass es vorerst unter aller Sau läuft (wenig fps etc.) Hatte mir die Karte nur wegen der besseren Performance gekauft und genau das bekommen. Ein Quantensprung unter den Grakas wie die 9700pro auch zu seiner Zeit! Schade, dass ich sowas mit der 480 GTX nicht bekommen werde :(

LovesuckZ
2010-03-16, 19:43:57
Schade, dass ich sowas mit der 480 GTX nicht bekommen werde :(

Ja und nein. :D
Wenn sich Tessellation und GPGPU in Spielen durchsetzen wird, dann wird auch die GTX480 ein Quantensprung bringen.

DrFreaK666
2010-03-16, 19:46:14
Ja und nein. :D
Wenn sich Tessellation und GPGPU in Spielen durchsetzen wird, dann wird auch die GTX480 ein Quantensprung bringen.

Wenn sich Tesselation durchgesetzt hat dann ist die 480 uralt

Gast
2010-03-16, 19:47:01
Ja und nein. :D
Wenn sich Tessellation und GPGPU in Spielen durchsetzen wird, dann wird auch die GTX480 ein Quantensprung bringen.

Um bei GPGPU ein Quantensprung zu werden bräuchte es wohl deutlich mehr Rechenleistung. IMO hat man da keine Chance gegen ATi. Tesslation gab es bis jetzt nicht ergo kann es kein Quantensprung sein. ;)

cR@b
2010-03-16, 19:47:38
Ja und nein. :D
Wenn sich Tessellation und GPGPU in Spielen durchsetzen wird, dann wird auch die GTX480 ein Quantensprung bringen.

Jo aber die anderen Beiden Karten hatten die Rohleistung und das wird die 480 GTX nicht haben. Im Moment geht es in der Graka Welt laaaangsam voran. Derzeit überleg ich sogar die 280er GTX weiter drin zu lassen bis zum nächsten Graka Release. Hatte glaube noch nie ne Graka solange im Rechner, naja außer den G80 :D

LovesuckZ
2010-03-16, 19:50:53
Wenn sich Tesselation durchgesetzt hat dann ist die 480 uralt

Und kommt erst dann richtig in Fahrt. Das hat ein bisschen was von Ironie. :D
Guck dir das Video zur Waterdemo von der CES an: Da wird die Dreiecksanzahl um das 1000x erhöht und GF100 bricht nur um die Hälfte ein. Und laut dem Video wird der Entwickler immer noch meistens durch das Zeichnen der Pixel beschränkt sein.

/edit: Nur als schematisches Beispiel mit dem Ungine Benchmark abseits aller Versionsstände:
Eine GTX480 erreicht am Drachen 43 FPS, eine 5970 ca. 30 FPS. Um auf das selbe Niveau zu gelangen, müsste AMD nochmal ca. 40% mehr Transistoren investieren. Sie lägen bei der jetzigen Architektur bei dann 6,02 Milliarden!
Da sieht man mal, dass nVidia eine ganz andere Zukunft durch DX11 gesehen hat als AMD.

Gast
2010-03-16, 19:52:39
Das definiert wer? Du? Aber ich vergaß, DX11 besteht ja nur aus Tesslation.


Was 3D-Grafik angeht kann man das sogar grob sagen.

Für alles andere kann man auch DX10 nehmen.

Tesseract
2010-03-16, 19:57:22
Beim rendern von Shadow Maps dürfte das einiges bringen. Da limitiert der Rasterisierer alle Karten die bisher auf dem Markt sind erheblich.
welche bekannten spiele verwenden denn shadowmaps? müssten das nicht eh einige sein?

Coda
2010-03-16, 20:04:51
Um bei GPGPU ein Quantensprung zu werden bräuchte es wohl deutlich mehr Rechenleistung. IMO hat man da keine Chance gegen ATi. Tesslation gab es bis jetzt nicht ergo kann es kein Quantensprung sein. ;)
Ja. Nur mal um es in Relation zu sehen:

R600: 475 GFLOPs
G80: 345,6 GFLOPs (das MUL wurde im 3D-Betrieb nie verwendet)
Vorteil ATI: 37%

RV770: 1,2 TFLOPs
GT200: >700 TFLOPs (das MUL kann teilweise verwendet werden)
Vorteil ATI: <70%

RV870: 2,7 TFLOPs
Fermi: ~1,2 TFLOPs
Vorteil ATI: 125%

Also irgendwas macht NVIDIA an der Stelle wirklich grundlegend falsch. ATI hat mit der VLIW-Geschichte mit niedrigem Takt im Nachhinein wohl vollkommen recht gehabt.

Fermi müsste um die Verhältnisse zu wahren mit 1600 Mhz Hotclock und 512 SPs kommen. Meinen Quellen nach war auch mal was mit 1800Mhz geplant. Da jetzt aber sogar schon von nur 480 SPs @ 1200 Mhz die Rede ist haben sie einfach verloren mit ihrer Strategie, außer sie kommen mit einem Refresh auf diese Taktraten.

Deshalb halte ich RV870 auch für einen Krüppel. Das Ding hätte ein R300 sein können, wenn die ALUs nicht andauernd am verhungern wären. Nein, es ist deshalb kein schlechter Chip, aber leider eben auch nicht das was er sein könnte.

Gast
2010-03-16, 20:07:04
supadupa metro2033,geile schreibmaschin,darauf hat die welt grewartet:up:

Die Lampe schaut aber schon deutlich besser aus.

LovesuckZ
2010-03-16, 20:07:50
Deine FLOPs-Zahl bei Fermi ist ein bisschen zu niedrig, oder? Das wären bei 480SPs gerade mal ein HotClock von 1050Mhz...

DrFreaK666
2010-03-16, 20:08:46
Und kommt erst dann richtig in Fahrt. Das hat ein bisschen was von Ironie. :D
Guck dir das Video zur Waterdemo von der CES an: Da wird die Dreiecksanzahl um das 1000x erhöht und GF100 bricht nur um die Hälfte ein. Und laut dem Video wird der Entwickler immer noch meistens durch das Zeichnen der Pixel beschränkt sein.

/edit: Nur als schematisches Beispiel mit dem Ungine Benchmark abseits aller Versionsstände:
Eine GTX480 erreicht am Drachen 43 FPS, eine 5970 ca. 30 FPS. Um auf das selbe Niveau zu gelangen, müsste AMD nochmal ca. 40% mehr Transistoren investieren. Sie lägen bei der jetzigen Architektur bei dann 6,02 Milliarden!
Da sieht man mal, dass nVidia eine ganz andere Zukunft durch DX11 gesehen hat als AMD.

Ich glaube nicht, dass in den nächsten 12Monaten mehr als 6 Spiele mit Tesselation erscheinen

Coda
2010-03-16, 20:09:31
Deine FLOPs-Zahl bei Fermi ist ein bisschen zu niedrig, oder?
Ja, etwas. Eher so in Richtung 1,2 TFLOPs. Ich korrigiere es.

Gast
2010-03-16, 20:13:51
Ja. Nur mal um es in Relation zu sehen:

R600: 475 GFLOPs
G80: 345,6 GFLOPs (das MUL wurde im 3D-Betrieb nie verwendet)
Vorteil ATI: 37%

RV770: 1,2 TFLOPs
GT200: >700 TFLOPs (das MUL kann teilweise verwendet werden)
Vorteil ATI: <70%

RV870: 2,7 TFLOPs
Fermi: ~1 TFLOPs
Vorteil ATI: 170%

Also irgendwas macht NVIDIA an der Stelle wirklich grundlegend falsch. ATI hat mit der VLIW-Geschichte mit niedrigem Takt im Nachhinein wohl vollkommen recht gehabt.

Fermi müsste um die Verhältnisse zu waren mit 1600 Mhz Hotclock und 512 SPs kommen. Meinen Quellen nach war auch mal was mit 1800Mhz geplant. Da jetzt aber sogar schon von nur 480 SPs @ 1200 Mhz die Rede ist haben sie einfach verloren mit ihrer Strategie, außer sie kommen mit einem Refresh auf diese Taktraten.

Deshalb halte ich RV870 auch für einen Krüppel. Das Ding hätte ein R300 sein können, wenn die ALUs nicht andauernd am verhungern wären. Nein, es ist deshalb kein schlechter Chip, aber leider eben auch nicht das was er sein könnte.

Ist das nicht eher eine Frage der Software? Ich meine die ALUs bei RV870 schlagen ja bei reinen Rechenaufgaben schon durch. Aber das eine TFLOP bei Fermi ist schon sehr tief gestapelt. Grundsätzlich hast du natürlich vollkommen recht, wenn man dann auch noch betrachtet wieviele Transistoren NV für die deutlich geringere Rechenleistung aufwendet erst recht. IMO hat sich NV mit den skalaren ALUs ordentlich verschätzt, das bringt zu wenig und kostet zu viel Ressourcen. Dann braucht man noch den hohen Takt. Erinnert ein wenig an Netburst bei Intel.

Odal
2010-03-16, 20:14:45
Meiner Meinung nach wird die Übertaktbarkeit der 470 ein wichtiger Punkt im Kampf gegen 5850 und 5870 sein. Wie wir wissen kann man die 5XXX Reihe sehr gut übertakten, ohne Spannung zu erhöhen kann man leicht den 900-950Mhz GPU-Takt knacken. Sollte die 470 wirklich am Limit der Taktbarkeit auf den Markt kommen, "könnte" eine auf 950Ghz übertaktete 5850 bereits ein ernster Konkurrent für die 470iger werden, obwohl sie mehr als hundert Euro weniger kosten wird (sollten die Preise stimmen). Ich weiss, dass ich hier eine übertaktete Karte mit einer "default" vergleiche, aber natürlich wenn die 470 nicht besser zu takten ginge.....

10-15% übertaktung ist aber weit entfernt davon "gut übertaktbar" zu sein

Coda
2010-03-16, 20:15:11
Ist das nicht eher eine Frage der Software? Ich meine die ALUs bei RV870 schlagen ja bei reinen Rechenaufgaben schon durch.
Aber nicht im 3D-Betrieb. Die HD5870 kann sich doch von der HD4870 im Durchschnitt gerade mal so 60% absetzen und das mit 125% mehr Rohleistung.

Das da was nicht stimmt sollte einem doch ins Auge springen.

Aber das eine TFLOP bei Fermi ist schon sehr tief gestapelt.
Ja ich hab's ja ausgebessert. Es werden wohl eher 1,2 TFLOPs. Das ändert die Statistik jetzt auch nicht signifikant ;)

LovesuckZ
2010-03-16, 20:15:22
Ich glaube nicht, dass in den nächsten 12Monaten mehr als 6 Spiele mit Tesselation erscheinen

Bei allen anderen grafischen Spielchen hätte ich dir zugestimmt, aber nicht bei Tessellation. Die Figuren existieren ja schon als High-Poly Figuren. Es dürfte nicht schwer sein diese Model für Tessellation zu verwenden. Dann gibt es eben das normale Modell und das entsprechende High-Poly Tessellationmodel. Imo wird sich Tessellation relativ schnell durchsetzen, da jetzt auch beide Hersteller über entsprechende Hardware verfügen.

Schlammsau
2010-03-16, 20:16:28
10-15% übertaktung ist aber weit entfernt davon "gut übertaktbar" zu sein

10-15% ohne Spannungserhöhung!
Mit ein bisserl mehr vCore bekommst du fast jede 5870 auf 1Ghz und die 5870 mit 2GB wird dann zum Fermi Killer. ;)

Coda
2010-03-16, 20:18:00
IMO hat sich NV mit den skalaren ALUs ordentlich verschätzt, das bringt zu wenig und kostet zu viel Ressourcen. Dann braucht man noch den hohen Takt. Erinnert ein wenig an Netburst bei Intel.
Ja, tut es. Weil genau wie dort auch im Endeffekt wohl die Verlustleistung durch den hohen Takt das Problem wird.

Ich habe mal völlig anders gedacht, da hat die Geschichte mich wirklich etwas anderen belehrt inzwischen.

DrFreaK666
2010-03-16, 20:18:23
Bei allen anderen grafischen Spielchen hätte ich dir zugestimmt, aber nicht bei Tessellation. Die Figuren existieren ja schon als High-Poly Figuren. Es dürfte nicht schwer sein diese Model für Tessellation zu verwenden. Dann gibt es eben das normale Modell und das entsprechende High-Poly Tessellationmodel. Imo wird sich Tessellation relativ schnell durchsetzen, da jetzt auch beide Hersteller über entsprechende Hardware verfügen.

Tesselation sollte man in der Umgebung einsetzen.
Bei Figuren lohnt es sich imho nur bei langsamen Games (RPGs z.B.)

R.I.P.
2010-03-16, 20:24:52
10-15% ohne Spannungserhöhung!
Mit ein bisserl mehr vCore bekommst du fast jede 5870 auf 1Ghz und die 5870 wird dann zum Fermi Killer. ;)

@Odal
Schlammsau hat dir schon geantwortet :)

Diese Spekulation greift natürlich nur, sollte es sich bewahrheiten, dass die Launch 470/480 am Taktlimit arbeiten.

Meine Meinung betraf jedoch vor allem die 5850, welche sich bei diesen Gegebenheiten als Konkurrent zur 470 positionieren würde

BlackBirdSR
2010-03-16, 20:25:50
Ja, tut es. Weil genau wie dort auch im Endeffekt wohl die Verlustleistung durch den hohen Takt das Problem wird.

Ich habe mal völlig anders gedacht, da hat die Geschichte mich wirklich etwas anderen belehrt inzwischen.

Womit wir eine interessante Situation hätten:
Erkennt Nvidia dieses Problem als solches an und will ähnlich dem Pentium4 weg davon, dann fragt sich: Was macht man denn dann?

Es kostet natürlich Jahre und Millionen ein neues Design auf die Beine zu stellen. Es sollte klar sein, dass man nicht einfach nur mal schnell die ALU-Struktur umbaut, der ganze Chip ist ja dahingehend ausgerichtet. Das lässt sich auch nicht mit Intel vergleichen, denn die waren damals in der formidablen Position, dass man einfach die Weiterentwicklung eines bestehenden Designs aufgreift. Das gibt es bei Nvidia IMO nicht.

Also verfolgt man weiterhin Weg A: Heiß und hoher Takt aber gute Nutzung von dem was da ist,
oder
Weg B: Neuen Weg einschlagen und hohes Risiko eingehen?

Gast
2010-03-16, 20:28:20
Ja, tut es. Weil genau wie dort auch im Endeffekt wohl die Verlustleistung durch den hohen Takt das Problem wird.

Ich habe mal völlig anders gedacht, da hat die Geschichte mich wirklich etwas anderen belehrt inzwischen.

Bei G80 hielt glaube ich jeder den Ansatz für genial. Das Ding war einfach zu überlegen, aber wohl hauptsächlich bedingt durch sehr viele Fehlentscheidungen bei R600. Spätestens mit RV770 war für mich klar das NV ein Problem haben wird. Wenn ein Chip mit der halben Die-Size mal bis auf 20% an die Spiele-Leistung heran kommt und sogar noch mehr Rechenleistung besitzt dann müssen eigentlich alle Alarmlocken leuten. Bei GF100 konnte man wohl nicht mehr reagieren, aber mal sehen was NV in Zukunft macht.

Coda
2010-03-16, 20:29:29
Sie haben sich von David Kirk ja schon verabschiedet, der noch für Fermi verantwortlich war.

Ich geh davon aus, dass Dally davon weggeht - auf die eine oder andere Art. Was sie wohl beibehalten müssen ist die WARP-Size von 32, das hindert sie aber nicht an VLIW.

LovesuckZ
2010-03-16, 20:31:15
Warum sollte AMD's Weg besser sein? Selbst mit 2,7x der Rechenleistung einer GTX285 ist man z.B. in Metro2033 nur 65% schneller. Und nVidia erhöht die reine Anzahl der SPs mit GF100 ebenfalls um (mehr als) das doppelte.

Raff
2010-03-16, 20:31:49
Deshalb halte ich RV870 auch für einen Krüppel. Das Ding hätte ein R300 sein können, wenn die ALUs nicht andauernd am verhungern wären. Nein, es ist deshalb kein schlechter Chip, aber leider eben auch nicht das was er sein könnte.

Neue Treiber wie der Catalyst 10.3(x) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907901&postcount=114) scheinen schon eine Luftlöcher aus der Pipe zu blasen. Der Vergleich Launch- vs. aktueller Treiber dürfte auf der HD 5870 sehr sahnig aussehen. Und mit SSAA sowie außerhalb von Spielen (DP!) regelt Cypress richtig. Nvidia hat einfach das Problem, dass man mit einem Beta-Furby auf deutlich gereifte Konkurrenz einschlägt.

MfG,
Raff

DrFreaK666
2010-03-16, 20:32:40
Warum sollte AMD's Weg besser sein? Selbst mit 2,7x der Rechenleistung einer GTX285 ist man z.B. in Metro2033 nur 65% schneller. Und nVidia erhöht die reine Anzahl der SPs mit GF100 ebenfalls um (mehr als) das doppelte.

Wichtig ist das P/L-Verhältnis.
Rohdaten bringen keinem was

Coda
2010-03-16, 20:33:28
Warum sollte AMD's Weg besser sein? Selbst mit 2,7x der Rechenleistung einer GTX285 ist man z.B. in Metro2033 nur 65% schneller.
Nur weil sie es derzeit nicht auf die Straße bringen. RV870 könnte mit einem Fermi-ähnlichen Frontend >100% schneller sein als RV770.

Und wenn man das Ganze extrapoliert, dann könnte der Vorteil bei der 28nm-Generation sogar noch größer sein als jetzt.

Und nVidia erhöht die reine Anzahl der SPs mit GF100 ebenfalls um (mehr als) das doppelte.
Nein. Das wären 580 SPs. Außerdem sinkt der Takt wohl ggü. GT200 nochmals. So wie es jetzt aussieht können sie die Rechenleistung gerade mal um ~60% 80-90% steigern.

Neue Treiber wie der Catalyst 10.3(x) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907901&postcount=114) scheinen schon eine Luftlöcher aus der Pipe zu blasen.
Selbst dann ist es noch ein Krüppel. Dann sind es eben 70% Mehrleistung ggü. 125% mehr Rohleistung. Macht den Braten auch nicht fett.

LovesuckZ
2010-03-16, 20:34:32
Neue Treiber wie der Catalyst 10.3(x) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7907901&postcount=114) scheinen schon eine Luftlöcher aus der Pipe zu blasen. Der Vergleich Launch- vs. aktueller Treiber dürfte auf der HD 5870 sehr sahnig aussehen. Und mit SSAA sowie außerhalb von Spielen (DP!) regelt Cypress richtig. Nvidia hat einfach das Problem, dass man mit einem Beta-Furby auf deutlich gereifte Konkurrenz einschlägt.

MfG,
Raff

Cool, 6 Monate hält AMD Leistung zurück. Also fangen wir sozusagen bei 0 an, ja? ;D
Und wenn schon "Beta-Furby" mit einem "ausgreiften Cypress" aufnehmen kann, was wird dann erst Fermi schaffen?

Raff
2010-03-16, 20:35:57
Nein. Das wären 580 SPs. Außerdem sinkt der Takt wohl ggü. GT200 nochmals.

Hä? 2x 240 (GT200) = 480. Fermi = hoffentlich 512

Cool, 6 Monate hält AMD Leistung zurück. Also fangen wir sozusagen bei 0 an, ja? ;D
Und wenn schon "Beta-Furby" mit einem "ausgreiften Cypress" aufnehmen kann, was wird dann erst Fermi schaffen?

Fermi wird nach einigen Monaten sicher auch fett zulegen. Das ist beim in Kürze anstehenden Duell aber recht nebensächlich.

MfG,
Raff

Coda
2010-03-16, 20:37:04
Hä? 2x 240 (GT200) = 480. Fermi = hoffentlich 512
Waaah. Gehirnaussetzer :ugly:

Dann sind es ~80-90% Mehrleistung

Schlammsau
2010-03-16, 20:39:11
Naja....Fermi wird um gute 70% grösser sein als Cypress.
Sollte Fermi nicht dann auch mindestens 70% schneller sein als Cypress, um von einer Überlegenheit zu sprechen ?

AwesomeSauce
2010-03-16, 20:40:55
Hauptsache, man dreht es sich so zurecht, dass es immer passt:rolleyes: Perf/mm2, Perf/Watt, Perf/transistor, Perf/Grad, Perf/RPM, Perf/Aktienpreis, Perf/Angestellter - Irgendwas wird sich dir sicher anbieten, womit du bashen kannt:P

Coda
2010-03-16, 20:41:10
Also ich komme auf 58%. Und er hat ja auch ein deutlich fortschrittlicheres Frontend und auch mehr GPGPU-Features.

Schlammsau
2010-03-16, 20:43:11
Hauptsache, man dreht es sich so zurecht, dass es immer passt:rolleyes: Perf/mm2, Perf/Watt, Perf/transistor - Irgendwas wird sich dir sicher anbieten, womit du bashen kannt:P

Was denn?
Hier wird die Überlegenheit Fermis angepriesen oder nicht?
Wenn ich aber die Die-Size vergleiche...naja!

LovesuckZ
2010-03-16, 20:44:47
Fermi wird nach einigen Monaten sicher auch fett zulegen. Das ist beim in Kürze anstehenden Duell aber recht nebensächlich.

MfG,
Raff

Richtig, es ist nebensächlich - genauso auch die Floskel " Cypress ist schon 6 Monate auf dem Markt",wenn jetzt erst Leistung nachgeschoben wird. Dann fangen wir wieder bei 0 an. ;)

Nur weil sie es derzeit nicht auf die Straße bringen. RV870 könnte mit einem Fermi-ähnlichen Frontend >100% schneller sein als RV770.

Und wenn man das Ganze extrapoliert, dann könnte der Vorteil bei der 28nm-Generation sogar noch größer sein als jetzt.

Die frage dabei lautet aber: Wieviel Transistoren muss AMD in die Überarbeitung des Front-End investieren? nVidia kann in 28nm einfach die Architektur shrinken und dann ala G92 den Takt (deutlich) erhöhen.


Nein. Das wären 580 SPs. Außerdem sinkt der Takt wohl ggü. GT200 nochmals. So wie es jetzt aussieht können sie die Rechenleistung gerade mal um ~60% 80-90% steigern.

Also 480 SP und mindesten 1296Mhz sehe ich als gegeben an. Dann hat man die doppelte MADD-Leistung gegenüber der GTX280.

Schlammsau
2010-03-16, 20:45:47
Also ich komme auf 58%. Und er hat ja auch ein deutlich fortschrittlicheres Frontend und auch mehr GPGPU-Features.

Wenns auch nur knapp 60% mehr Die-Size sind, wird eine GTX480 durchschnittlich auch "nur" rund 20% schneller sein.
Also welches Design ist dann wohl besser? Im Moment natürlich!

Gast
2010-03-16, 20:48:10
Naja....Fermi wird um gute 70% grösser sein als Cypress.
Sollte Fermi nicht dann auch mindestens 70% schneller sein als Cypress, um von einer Überlegenheit zu sprechen ?
58%.

Doppel Cypress ist 26% größer und braucht noch mehr VRAM, mehr Signalleitungen, hat am Ende weniger VRAM, was bleibt da übrig im Vergleich zu GF100?
Ein paar % in Titeln mit passenden CF Profilen, davon wiederrum µRuckler und Lag abgezogen gleich?

Oder rechne die Transistoranzahl, wundert mich eh das du nicht diese Wertlose Angabe nimmst. 4,3Mrd vs 3,x.

Eggcake
2010-03-16, 20:48:45
Versteh nicht wo das Problem ist. Raff hat nur darauf hingewiesen, dass Cypress nun ein halbes Jahr lang reifen konnte und dies mit dem 10.3 untermauert. Bestreitet doch niemand, dass NV nicht auch mit Treibern nachziehen wird, genau darum gehts ja: Fermi trifft mit unausgereiften Treibern auf einen ausgereiften Cypress, was den Einstieg erschweren wird.

Gast
2010-03-16, 20:49:35
Hier wird die Überlegenheit Fermis angepriesen oder nicht?
Nein.


Wenn ich aber die Die-Size vergleiche...naja!
Warum tust du es nicht?
Siehe Post drüber.

Schlammsau
2010-03-16, 20:50:08
58%.

Doppel Cypress ist 26% größer und braucht noch mehr VRAM, mehr Signalleitungen, hat am Ende weniger VRAM, was bleibt da übrig im Vergleich zu GF100?
Ein paar % in Titeln mit passenden CF Profilen, davon wiederrum µRuckler und Lag abgezogen gleich?

Oder rechne die Transistoranzahl, wundert mich eh das du nicht diese Wertlose Angabe nimmst. 4,3Mrd vs 3,x.

Hör doch mit dem MGPU Bockmist auf! :rolleyes:

Hier gehts um Single GPU Grafikkarten!

Raff
2010-03-16, 20:50:28
Was denn?
Hier wird die Überlegenheit Fermis angepriesen oder nicht?
Wenn ich aber die Die-Size vergleiche...naja!

Die Architektur bietet eben mehr (GPGPU, PhysX, Tessellation, um was zu nennen) und ist relativ "elegant" aufgebaut. So verursacht das Design mit seinen 4 "GPCs" mit je einem Tri-Setup – maßgeblich verantwortlich für die zu erwartende polygonale Überlegenheit – laut Nvidia eine etwa zehnprozentige Die-Vergrößerung. Dafür lässt sich die Kiste eben geil skalieren: Die Hälfte weg ist eben die Hälfte weg, das Gleichgewicht zwischen den Rechenwerken bleibt. Und selbst ein halber Furby kann bestenfalls doppelt so viele Polygone abarbeiten wie eine HD 5870 oder GTX 285.

MfG,
Raff

Gast
2010-03-16, 20:52:09
Hör doch mit dem MGPU Bockmist auf! :rolleyes:

Hier gehts um Single GPU Grafikkarten!
Niemals. Das war AMDs Entscheidung, AMDs High-End Modell ist nunmal ein solches Konstrukt.
Komm damit klar, kritisier es wenn nötig, aber blende es nicht aus.

Kalmar
2010-03-16, 20:52:14
intel kam doch auch nur raus aus der sackgasse mit dem netbrust [wenn ich mich net irre] das sie die alte PIII sache aufgebohrt und etwas abgewandelt haben und dann es zum Core2duo wurde [hoffe ich vertun mich hier net] frage ist kann sowas bei nv auch easy gehen also nen gutes aber älteres desgin nehmen und das ziemlich ummodeln + erweitern ?

btw. zum schwan. äh chipvergleich hier nochmal es ist doch egal was fermi fürn produkt wird und wie sie das ereichen, so lange das was hinenraus kommt interessant ist [leise, braucht kein extra kraftwerkt und der balken ist mit guter qualität schön lang] ist es unerheblich ... im grunde will doch jeder nur eine leise, schnelle, preiswerte graka ob die 1mm^2 oder 1000mm^2 hat ist egal das was raus kommt zählt ..

wenn die balken gleich lang ist darf man doch mal fragen warum das so ist bei einem erheblichen grpßen unetrschied ohne gleich eins mit der keule überzubekommen ...

Schlammsau
2010-03-16, 20:53:25
Die Architektur bietet eben mehr (GPGPU, PhysX, Tessellation, um was zu nennen) und ist relativ "elegant" aufgebaut. So verursacht das Design mit seinen 4 "GPCs" mit je einem Tri-Setup – maßgeblich verantwortlich für die zu erwartende polygonale Überlegenheit – laut Nvidia eine etwa zehnprozentige Die-Vergrößerung. Dafür lässt sich die Kiste eben geil skalieren: Die Hälfte weg ist eben die Hälfte weg, das Gleichgewicht zwischen den Rechenwerken bleibt.

MfG,
Raff

Davon rede ich doch gar nicht.

Mir gehts um die Performance zur Die-Size (~530mm² vs. 334mm²). Und da hat Fermi allen anschein nach deutlich das nachsehen.
Ich glaube nicht, dass eine 480 in den nächsten 6 Monaten seine Performance auf durchschnittlich 60% Vorsprung zur 5870 ausbauen kann.

AwesomeSauce
2010-03-16, 20:53:28
@Schlammsau
Um Haare zu spalten: mit der Die-Grösse brauchts du nicht anzutanzen. Die Anzahl an Transistoren ist da schon ein genaueres Mass, und hier liegt GF100 nur knapp 40% über Cypress (3.0GigaTrans vs 2.15GigaTrans). Um noch mehr Haare zu spalten: eine HD5830 basiert auch auf Cypress, also auch 2.15MTrans;D

DrFreaK666
2010-03-16, 20:55:07
Davon rede ich doch gar nicht.

Mir gehts um die Performance zur Die-Size. Und da hat Fermi allen anschein nach deutlich das nachsehen.

Wen juckt das denn überhaupt?
Wichtig ist:
* Performance
* Preis
* BQ
* Lautstärke
* Temperaturen
* Verbrauch

Gast
2010-03-16, 20:56:26
intel kam doch auch nur raus aus der sackgasse mit dem netbrust [wenn ich mich net irre] das sie die alte PIII sache aufgebohrt und etwas abgewandelt haben und dann es zum Core2duo wurde [hoffe ich vertun mich hier net] frage ist kann sowas bei nv auch easy gehen also nen gutes aber älteres desgin nehmen und das ziemlich ummodeln + erweitern ?

Außgeschloßen, G70 ist kein Ausweg.
Vielleicht sollte man mal wieder Luft holen, Nvidias Neuentwicklung ist nochnichtmal ausführlich getestet worden und schon sagt man den Untergang vorraus. Und das obwohl sie absehbar kein epic Fail wird.

derguru
2010-03-16, 20:56:58
Wen juckt das denn überhaupt?
Wichtig ist:
* Performance
* Preis
* BQ
* Lautstärke
* Temperaturen
* Verbrauch
PUNKT.:cool:

Gast
2010-03-16, 21:00:33
Um noch mehr Haare zu spalten: eine HD5830 basiert auch auf Cypress, also auch 2.15MTrans;D
Solche Vergleiche liebt er, siehe GTX 470 vs 5870 oder 4870 vs GTX 260.
Beschnitene Version vs Topmodell der unbeschnittenden, aber die Beschneidungsgeschichte an sich wird vollkommen ignoriert.

Um bei 5830 zu bleiben, die muss mit ihren 2,15Mrd Trans. gegen 1,Mrd Trans.(?) der GTS 260 (?) mit GF104 antreten.
Wer ist da wohl besser? ;D

AwesomeSauce
2010-03-16, 21:00:59
Um Schlammsau noch ein bisschen zu ärgern: HD5870 hat 2.15GigaTransistoren, GTX285 1.4GigaTransistoren, aka 53% mehr. In 1920x1200 4xAA/16xAF (inkl. DX11-Speedup(!),CB-Werte (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet)) ist die HD5870 sagenhafte 36% schneller als die GTX285.

Glashaus, Steine, und so...

Schlammsau
2010-03-16, 21:02:31
Um Schlammsau noch ein bisschen zu ärgern: HD5870 hat 2.15GigaTransistoren, GTX285 1.4GigaTransistoren, aka 53% mehr. In 1920x1200 4xAA/16xAF (inkl. DX11-Speedup) ist die HD5870 sagenhafte 26% schneller als die GTX285.

Glashaus, Steine, und so...

Die-Size mein lieber, Die-Size.... ;)

AwesomeSauce
2010-03-16, 21:03:12
Nein, nicht Die-Size, mein Lieber. mm^2 produzieren keine Bilder, Transistoren tun es!

Gast
2010-03-16, 21:03:28
PUNKT.:cool:


jawoll! und da kann nvidia never mitziehen

Black-Scorpion
2010-03-16, 21:03:41
Um Schlammsau noch ein bisschen zu ärgern: HD5870 hat 2.15GigaTransistoren, GTX285 1.4GigaTransistoren, aka 53% mehr. In 1920x1200 4xAA/16xAF (inkl. DX11-Speedup) ist die HD5870 sagenhafte 26% schneller als die GTX285.

Glashaus, Steine, und so...
DX10 gegen DX11 ist auch so ein prima Vergleich.
Apfel und Birnen und so.

AwesomeSauce
2010-03-16, 21:05:01
CB testet ohne Tessellation und ähnlichen DX11-Schmaus.

Gast
2010-03-16, 21:05:02
Und mit ihren 80 TMUs @850Mhz bietet sie nichtmal die Qualität 80 TMUs @ 648Mhz.
Die effektive Filterleistung der GTX 285 ist ergo deutlich größer, bei weniger Leistung kommt hinten mehr raus, von der Leistung der 8800 GTX gar nicht erst angefangen.

LovesuckZ
2010-03-16, 21:08:07
Um Schlammsau noch ein bisschen zu ärgern: HD5870 hat 2.15GigaTransistoren, GTX285 1.4GigaTransistoren, aka 53% mehr. In 1920x1200 4xAA/16xAF (inkl. DX11-Speedup(!), CB-Werte (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating_qualitaet)) ist die HD5870 sagenhafte 26% schneller als die GTX285.

Glashaus, Steine, und so...

In dem Test gibt es kein DX11 - dafür diesen nehmen: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet
Sind 36% mit DX11 Speedup. Nur DX10.x sind es unter 30%.

Schlammsau
2010-03-16, 21:08:17
Nein, nicht Die-Size, mein Lieber. mm^2 produzieren keine Bilder, Transistoren tun es!

Aber sie bestimmt die Fertigungskosten und damit den Endpreis für den Kunden! ;)

Gast
2010-03-16, 21:08:19
Die-Size mein lieber, Die-Size.... ;)
Du checkst es nicht das die Kosten komplexer sind?
Ich warte immer noch, das du eine genaue Kostenaufstellung lieferst, vielleicht kommt die jetzt?
Ich glaub ja nicht, damit könnten wir das Thema beenden wenns dich eh nicht interessiert.

Wen juckt das denn überhaupt?
Wichtig ist:
* Performance
* Preis
* BQ
* Lautstärke
* Temperaturen
* Verbrauch
Eben, nichts davon, aber auch gar nichts, ist absolut klar.
Manches ist abschätzbar, anderes überhaupt nicht.

LovesuckZ
2010-03-16, 21:09:06
Aber sie bestimmt die Fertigungskosten und damit den Endpreis für den Kunden! ;)

Wow, da hat sich jemand zweimal vom AMD ausnehmen lassen. ;D
Oder war der GT200(b) in der Fertigung doch nicht so teuer? :confused:

Black-Scorpion
2010-03-16, 21:09:45
Und das weißt du woher?
Was du zu sehen bekommst muss noch lange das sein sein was berechnet wird.
Aber ist ja klar, kein Argument ist zu schade um sein Weltbild zu verteidigen.

Schlammsau
2010-03-16, 21:09:57
Wow, da hat sich jemand zweimal vom AMD ausnehmen lassen. ;D
Oder war der GT200(b) in der Fertigung doch nicht so teuer? :confused:

Bitte?

DrFreaK666
2010-03-16, 21:10:29
...Eben, nichts davon, aber auch gar nichts, ist absolut klar.
Manches ist abschätzbar, anderes überhaupt nicht.

Also wieso schon darüber diskutieren?
Diskussionsstoff gibt es nach dem release erst recht

Gast
2010-03-16, 21:10:50
Ich glaube nicht, dass in den nächsten 12Monaten mehr als 6 Spiele mit Tesselation erscheinen

Ich kaufe durchschnittlich 1 Spiel/Monat, also wären das immerhin schon 50%.

AwesomeSauce
2010-03-16, 21:10:56
@LovesuckZ

Richtig, falschen Artikel verlinkt. Du hast natürlich Recht. Entschuldige mich hierfür.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

Gast
2010-03-16, 21:11:26
Also wieso schon darüber diskutieren?
Diskussionsstoff gibt es nach dem release erst recht
Um sich über seinen Lieblings IHV unterhalten zu können.

DrFreaK666
2010-03-16, 21:12:54
Um sich über seinen Lieblings IHV unterhalten zu können.

bringt ja wahnsinnig viel.
Man vergleicht hier Spekulationen mit vorhandener hardware.

Thunder99
2010-03-16, 21:13:23
DX10 gegen DX11 ist auch so ein prima Vergleich.
Apfel und Birnen und so.
Genau,

zusätzlich hat der GT200 und der GF100 mehr Transistoren durch GPGPU... , manche denken echt nicht nach...

Gast
2010-03-16, 21:22:17
Erinnert ein wenig an Netburst bei Intel.


Eher genau das Gegenteil.

Netburst hat bewusst auf eine hohe Auslastung verzichtet um auf hohe Taktraten zu kommen. Nvidias GPUs seit G80 versuchen genau das Gegenteil, nämlich eine möglichst hohe Auslastung zu erreichen um selbst mit geringer theoretischer Leistung eine hohe Endleistung zu erreichen.

Nighthawk13
2010-03-16, 21:44:50
Deshalb halte ich RV870 auch für einen Krüppel. Das Ding hätte ein R300 sein können, wenn die ALUs nicht andauernd am verhungern wären. Nein, es ist deshalb kein schlechter Chip, aber leider eben auch nicht das was er sein könnte.
Was ist denn die Ursache für die Ineffizienz des RV870, ist dazu etwas bekannt?
Rein von den GFlops her müsste der Chip viel schneller sein, real scheint das aber nur in Ausnahmefällen zu passieren, z.B. hier: http://www.golem.de/1003/73862.html

Ich geh davon aus, dass Dally davon weggeht - auf die eine oder andere Art. Was sie wohl beibehalten müssen ist die WARP-Size von 32, das hindert sie aber nicht an VLIW.
Stimme zu, das Nvidia ohne VLIW (oder Vektorbefehle) das Nachsehen hat, was GFlops/Watt angeht.
Auf der anderen Seite wird das 5D-Design vom RV890 selten ausgelastet und verliert bei dependency chains/branches.
Vielleicht wäre ein Mittelweg besser, 3D-VLIW z.B.?

Gast
2010-03-16, 22:08:56
In dem Test gibt es kein DX11 - dafür diesen nehmen: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet
Sind 36% mit DX11 Speedup. Nur DX10.x sind es unter 30%.

Moment mal. 30 % mehr Leistung bei 50 % mehr Transistoren ist doch fabelhaft. :confused: Eine 1:1-Skalierung wäre doch das Optimum. Wenn ich aber davon ausgehe, dass für eine GTX 480 10 - 20 % mehr Leistung als bei einer HD 5870 ausgegangen wird, bei 100 % mehr Transistoren, dann ist DAS eher schlecht.

Gast
2010-03-16, 22:09:40
Was ist denn die Ursache für die Ineffizienz des RV870, ist dazu etwas bekannt?
Rein von den GFlops her müsste der Chip viel schneller sein, real scheint das aber nur in Ausnahmefällen zu passieren, z.B. hier: http://www.golem.de/1003/73862.html




das liegt glaube ich daran dass amd 5d shader verwendet und nvidia nur 1d. um die 5d shader von auszulasten ist ein höher programmieraufwand notwendig. deshalb können die ihre ganze stärke nur in wenigen anwendungen ausspielen.

AwesomeSauce
2010-03-16, 22:12:32
@Gast 1 (Shi* Gast-Accounts)
100% mehr Transistoren?:confused: Cypress hat 2.15 Milliarden davon, GF100 3.0 Mrd. Da, wo ich zur Schule ging, nannte man das +39.53%:rolleyes:
10 - 20 % mehr Leistung als bei einer HD 5870
Abwarten, Tee trinken, dann bashen, wenn berechtigt...

Gast
2010-03-16, 22:16:53
@Gast 1 (Shi* Gast-Accounts)
100% mehr Transistoren?:confused: Cypress hat 2.15 Milliarden davon, GF100 3.0 Mrd. Da, wo ich zur Schule ging, nannte man das +39.53%:rolleyes:

Ich bin gerade von 1,5 Milliarden für den Cypress ausgegangen. Keine Ahnung, warum.

Abwarten, Tee trinken, dann bashen, wenn berechtigt...

Ich sehe kein Bashing.

Gast
2010-03-16, 22:17:27
Moment mal. 30 % mehr Leistung bei 50 % mehr Transistoren ist doch fabelhaft. :confused: Eine 1:1-Skalierung wäre doch das Optimum. Wenn ich aber davon ausgehe, dass für eine GTX 480 10 - 20 % mehr Leistung als bei einer HD 5870 ausgegangen wird, bei 100 % mehr Transistoren, dann ist DAS eher schlecht.Für dich nochmal:

Doppel Cypress ist 26% größer und braucht noch mehr VRAM, mehr Signalleitungen, hat am Ende weniger VRAM, was bleibt da übrig im Vergleich zu GF100?
Ein paar % in Titeln mit passenden CF Profilen, davon wiederrum µRuckler und Lag abgezogen gleich?

Black-Scorpion
2010-03-16, 22:39:49
Für dich nochmal:
Lesen scheint nicht deine Stärke zu sein.
Denn dein Beitrag hat absolut nichts mit seinem zu tun.

Coda
2010-03-16, 22:59:21
Was ist denn die Ursache für die Ineffizienz des RV870, ist dazu etwas bekannt?
Eindeutig das Frontend. Der Chip kann bei viel kleiner Geometrie einfach seine Recheneinheiten nicht vernünftig auslasten.

Das gleiche sah man aber auch schon an RV770 und GT200 teilweise.

Stimme zu, das Nvidia ohne VLIW (oder Vektorbefehle) das Nachsehen hat, was GFlops/Watt angeht.
Auf der anderen Seite wird das 5D-Design vom RV890 selten ausgelastet und verliert bei dependency chains/branches.
VLIW hat nichts mit den Branches zu tun. Das habe ich schon in einem anderen Thread gesagt.

ATI wird schon genau analysiert haben vor R600 was sinnvoll ist.

Gast
2010-03-16, 23:03:50
Lesen scheint nicht deine Stärke zu sein.
Denn dein Beitrag hat absolut nichts mit seinem zu tun.
War klar das du die Doppel Cypress Skalierung toll findest.

Black-Scorpion
2010-03-16, 23:17:42
War klar das du die Doppel Cypress Skalierung toll findest.
Er spricht von der 5870 im Vergleich zur GTX 280.

Was du dabei mit deinem Vergleich willst versteht außer dir sicher keiner.

mrt
2010-03-16, 23:17:45
Bei Tesselation ist der Domainshader das Problem des Cypress und nicht der Raster/Dreieckdurchsatz. Abseits von Tesselation könnte ihm noch die interne Bandbreite (nur 50% Steigerung) ausgehn und vielleicht auch die Caches zu klein werden, dazu ist die Speicherbandbreite auch nicht sonderlich gestiegen. Ändert aber nichts daran, dass AMD die Raster/Dreiecksleistung bei RV970 erhöhen sollte, was auch kommen wird, sonst wäre die Parallelisierung in RV870 umsonst gewesen. :)

LovesuckZ
2010-03-16, 23:19:55
Bei Tesselation ist der Domainshader das Problem des Cypress und nicht der Raster/Dreieckdurchsatz. [...] Ändert aber nichts daran, dass AMD die Raster/Dreiecksleistung bei RV970 erhöhen sollte, was auch kommen wird, sonst wäre die Parallelisierung in RV870 umsonst gewesen. :)

Ja, was denn nun? :confused:
Und welche Parallelisierung im rv870? Bis zu den Rasterizer ist alles Seriel.

mrt
2010-03-16, 23:24:28
Mehr Raster/Dreiecksdurchsatz wird man in der Zukunft schon brauchen und bei einem Chip, der wohl nicht die gleichen Flaschenhälse wie Cypress haben wird, macht das dann auch Sinn. Cypress hat zwei Setups, sind nur schwächer als das im RV770, sodass unterm Strich keine Mehrleistung rausschaut.

LovesuckZ
2010-03-16, 23:36:12
Mehr Raster/Dreiecksdurchsatz wird man in der Zukunft schon brauchen und bei einem Chip, der wohl nicht die gleichen Flaschenhälse wie Cypress haben wird, macht das dann auch Sinn. Cypress hat zwei Setups, sind nur schwächer als das im RV770, sodass unterm Strich keine Mehrleistung rausschaut.

Cypress hat eine Setup-Engine (bzw. Edge - Setup) und danach zwei Rasterizer.

Mr. Lolman
2010-03-16, 23:38:11
Aber nicht im 3D-Betrieb. Die HD5870 kann sich doch von der HD4870 im Durchschnitt gerade mal so 60% absetzen und das mit 125% mehr Rohleistung.


Weil die ALUS eben nicht ordentlich ausgelastet werden. Bei Metro hingegen sinds mehr als 100% Mehrleistung: http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX/Action-Spiel/Test/?page=2

EDIT: Bei den min. fps sogar mehr als 110%
EDIT2: Die Benchmarks zeigen eigentlich DX11 beim RV870. DX10 ist aber ein bisschen flotter. So ist man schon in der Gegend von 115% Mehrleistung, bei 125% Rohleistung. Reicht doch, oder?

LovesuckZ
2010-03-16, 23:42:21
Sie sind immer noch nicht richtig ausgelastet. 50% schneller gegenüber der GTX285 ist die 5870. Und das bei 2,7x bzw. 3,8x mehr Rechenleistung.

Gast
2010-03-16, 23:43:54
hallo

Mr. Lolman
2010-03-16, 23:46:54
Sie sind immer noch nicht richtig ausgelastet. 50% schneller gegenüber der GTX285 ist die 5870. Und das bei 2,7x bzw. 3,8x mehr Rechenleistung.

Geh, das war ja schon immer so (auch beim RV770). Wenn du hingegen (DIE)-Kosten/Size mit Leistung vergleichst, stehen die Radeons deutlich besser da. Aber das interessiert dich ja nicht ;)


EDIT: Kommt natürlich auch immer auf die SW draufan. Bei meinem Widet2 Crysis Benchmark (wo beide IHV schon lang genug Zeit hatten auf die SW zu optimieren) ist eine HD5870 zB >85% schneller als eine GTX285. Natürlich noch weit entfernt von 2,7-3,8 - facher Rechenleistung, aber solang die Radeons nicht das 2,7-3,8 - fache kosten, sondern im Gegenteil sogar günstiger sind, als die GeForces, kann dem Kunden das ja herzlichst egal sein.

LovesuckZ
2010-03-16, 23:52:26
Geh, das war ja schon immer so (auch beim RV770). Wenn du hingegen (DIE)-Kosten/Size mit Leistung vergleichst, stehen die Radeons deutlich besser da. Aber das interessiert dich ja nicht ;)

Huch? g92b ist 5% größer als der rv770 und nur 20% langsamer mit gerade mal 39% der MADD-Rechenleistung.
Soviel zur "Auslastung". Wenn Metro2033 in diesem Benchdurchgang durch de Pixelberechnungen limitiert wird, dann wäre ein GF100 im schlimmsten Fall schon 76% schneller als die GTX285 (480SPs@1300MHz). Und das unter der Prämise, dass GF100 seine Rechenleistung nicht besser ausnutzen kann.

mrt
2010-03-16, 23:53:59
Cypress hat eine Setup-Engine (bzw. Edge - Setup) und danach zwei Rasterizer.
2x Raster 2x TriSetup

AwesomeSauce
2010-03-16, 23:56:51
Du solltest mal die Füße still halten, nachdem was du gestern (und heute wieder?) im Luxx veranstalltet hast..... ES REICHT
Auch wenn du es sowieso nicht glauben wirst, aber ich bin im Luxx nicht angemeldet, wozu auch?!... Ich bin nur hier und bei CB vertreten [mit dem gleichen Accountnamen, der Transparenz wegen]. Auch war ich nicht der einzige, der Motkachler von der Bildfläche haben wollte. Ich habe bereits PMs erhalten, in denen ich danach gefragt wurde, ob er nun wirklich gebannt wurde und ob es einen Link dazu gebe. Der Autor des von dir verlinkten Beitrags war offensichtlich ein Troll und hat es (wie Motkachler) verdient, gebannt zu werden. Solche Leute brauchts nun wirklich nicht.

Solche ungehaltene Anschuldigungen kannst du in Zukunft getrost stecken lassen.

LovesuckZ
2010-03-17, 00:02:12
2x Raster 2x TriSetup

Nein. Cypress ist nur in der Lage ein Dreieck/Takt zu erzeugen. Es gibt keine zwei Tri-Setups.

Practically, things proved to be slightly different: after banging our heads against an ~830 MTris/s rate, which we couldn't surpass irrespective of how simple our triangles were, or how we fed the hardware, we checked back and it appears that triangle setup rate hasn't been bumped up, remaining at the good old 1 triangle/cycle (we can see certain reasons for it). So, in practice, we're dealing with a fatter rasteriser with doubled scan conversion rate, but constant triangle setup rate.
http://www.beyond3d.com/content/reviews/53/6

mrt
2010-03-17, 00:06:25
Zweimal Scanout alle zwei Takte => 1 Tri/Takt => max 850 Mtri/s (bei 850MHz)

LovesuckZ
2010-03-17, 00:08:41
Zweimal Scanout alle zwei Takte => 1 Tri/Takt => max 850 Mtri/s (bei 850MHz)

K, Danke.
Wobei ich mir frage, wieso AMD zwei Takte warten muss? Sammeln von zwei Dreiecken, weil nur eine Pipeline in dem Sinne?

mrt
2010-03-17, 00:20:30
Spekulation: Vielleicht waren ursprünglich 4 Raster gelplant bevor man sich entschied keine großen Chips mehr zu baun, dann machen schwächere Setups Sinn.

Coda
2010-03-17, 00:42:48
Weil die ALUS eben nicht ordentlich ausgelastet werden. Bei Metro hingegen sinds mehr als 100% Mehrleistung: http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX/Action-Spiel/Test/?page=2
Ausnahmen bestätigen die Regel.

Es gibt natürlich Workloads (wenig Geometrie, viel Compute-Shader) bei denen RV870 dann auch mal glänzen kann.

Bei Tesselation ist der Domainshader das Problem des Cypress und nicht der Raster/Dreieckdurchsatz. Abseits von Tesselation könnte ihm noch die interne Bandbreite (nur 50% Steigerung) ausgehn und vielleicht auch die Caches zu klein werden, dazu ist die Speicherbandbreite auch nicht sonderlich gestiegen. Ändert aber nichts daran, dass AMD die Raster/Dreiecksleistung bei RV970 erhöhen sollte, was auch kommen wird, sonst wäre die Parallelisierung in RV870 umsonst gewesen. :)
Bei RV870 müssen die Dreiecke explizit in zwei unterschiedlichen Regionen liegen sonst wird nichts parallel gerastert. Damit vermeidet man das Quads Out-Of-Order am Pipelineende ankommen.

Viel bringen tut es aber auch nicht.

mapel110
2010-03-17, 01:08:53
http://forum.beyond3d.com/showpost.php?p=1408508&postcount=3870
Review-Karten offenbar bereits bei Testern angekommen, zumindest in den USA.

mrt
2010-03-17, 01:24:45
@coda
Das Zeug arbeitet schon parallel, nur eben mit entsprechend weniger Durchsatz, sind die Dreiecke nicht innerhalb von 16 Pixeln, könnten theoretscih sogar 2 Tri/Takt erreicht werden. Ist aber egal, Cypress hat genug andere Flaschenhälse und um die gings mir eigentlich, mehr Raster/Dreieckdurchsatz würde kaum was bringen.

Coda
2010-03-17, 01:42:49
So, welche denn?

Meiner Meinung nach ist Raster das Bottleneck derzeitiger GPUs. Und das kann ich auch durchaus begründen.

Gast
2010-03-17, 07:33:30
So, welche denn?

Meiner Meinung nach ist Raster das Bottleneck derzeitiger GPUs. Und das kann ich auch durchaus begründen.

Du solltest öfter bei B3D vorbei schauen, das wurde dort schon lange durchgekaut. Dave Baumann hat auch mehrmals bestätigt das RV870 ganz sicher nicht an der Rasterleistung hängt.

Ailuros
2010-03-17, 08:42:57
K, Danke.
Wobei ich mir frage, wieso AMD zwei Takte warten muss? Sammeln von zwei Dreiecken, weil nur eine Pipeline in dem Sinne?

Muss nicht direkt mit dem scanout verbunden sein, aber generell wenn sich ein Dreieck ueber mehrere tiles verbreitet wird das setup in dem Fall auch nicht nur einmal "besucht". Ist aber IMHO generell wurscht mit Aussnahme wenn man wirklich mit einer Unmenge an sehr winzigen Dreiecken zu tun hat.

Dass Cypress in der B3D Analyse erstmal verdammt nahe an sein theoretisches Maximum (850MTris/clock) reichen kann ist erstmal ein positives Zeichen.

GF100 erreicht auf Papier 4 Tris/clock; nach NV ist das interne erreichbare maximum bei ~3.2Tris/clock. Bei 700MHz sind es dann 2.24 Mrd. Tris/clock. Einen Unterschied macht Dir die Rate aber in Echtzeit nur wenn eine Applikation setup limitiert sein sollte oder eben bei vielen kleinen Dreiecken.

Du solltest öfter bei B3D vorbei schauen, das wurde dort schon lange durchgekaut. Dave Baumann hat auch mehrmals bestätigt das RV870 ganz sicher nicht an der Rasterleistung hängt.

Mit 2 raster units brauch ich auch keine Bestaetigung von Wavey diesbezueglich.

GF100's Polymorph engine wurde hauptsaechlich fuer Tessellation ausgelegt und nicht weil in zukuenftigen Spielen ploetzlich der generelle Geometrie-Ansatz explodieren wird. Auf pixels/clock/raster Ebene sind es sowohl auf GF100 und auf Cypress 32pixels/clock.

mrt,

Bei Tesselation ist der Domainshader das Problem des Cypress und nicht der Raster/Dreieckdurchsatz. Abseits von Tesselation könnte ihm noch die interne Bandbreite (nur 50% Steigerung) ausgehn und vielleicht auch die Caches zu klein werden, dazu ist die Speicherbandbreite auch nicht sonderlich gestiegen. Ändert aber nichts daran, dass AMD die Raster/Dreiecksleistung bei RV970 erhöhen sollte, was auch kommen wird, sonst wäre die Parallelisierung in RV870 umsonst gewesen.

Bleibt die Frage warum der domain shader angeblich das Problem auf Cypress sein soll. Mit theoretischen 2.72TFLOPs von den ALUs; nimm von mir aus ALU Auslastung weg, interne Bandbreite oder was auch auch immer, ich kann mir schwer vorstellen dass der domain shader hier sich in Kreisen dreht ueberhaupt so wie die Tessellation generell in der "DX11 pipeline" vorgeht und zu welchem Stadium von der Bearbeitung.

Ich waere eher von einer These ueberzeugt die in Richtung ff Tesselations-Einheit deuten koennte, denn hier hat NV diese Funktionen ueber alle 16SMs verteilt und die interne Kommunikation zwischen diesen kommt mit einer OoO Logik (eben das "copy/paste" Zeug dass mir ganz generell in der weiten Vergangenheit vermittelt wurde).

Angenommen der domain shader ist tatsaechlich das Problem, wieso wuerde es dann bei der naechsten "Generation" etwas aendern wenn man den Geometrie-Durchsatz erhoeht? Obwohl es nichts mit dem Thema zu tun hat, es wuerde mich kein bisschen wundern wenn ATI in dem Fall einfach auf 2*16 clusters steigt aber wieder mit 32 pixels/Takt.

Mr. Lolman
2010-03-17, 08:48:39
Huch? g92b ist 5% größer als der rv770 und nur 20% langsamer mit gerade mal 39% der MADD-Rechenleistung.
Soviel zur "Auslastung".

Da hast dus ja: Größer und langsamer. Was verstehst du daran nicht?

Ri*g*g*er
2010-03-17, 08:51:33
Um mal das ganze Fachgesimpel in den Sternen mal auf den Boden der Tatsachen zu bringen,
sowie man das hier im Ruhrpott mit schlichten, einfachen, direkten Worten halt macht:

Richtig interessant wird das ganze Grafikgequatsche doch erst im kommenden Herbst/Winter, wenn die Treiber ausgereift sind, die Mainstream Karten in den Löchern stehen, der Fertigungsprozess endlich ausgereift und genug FAB Power bereit steht und Last but not Least die Hersteller aus Ihren Designs die Bugs, Bottelnecks etc. erkannt und verbannt haben *g*

Dann, genau Dann kann man als preisbewußter, im Leben einigermaßen erfahrener über den Kauf einer neuen Grafikkarte nachdenken.

Den Sommer und die Marktwirtschaftliche Preisschlacht noch nichteinmal erwähnt . . .

So sehe ich die Situation und nun könnt Ihr Euch weiter über Prozente, Die Größen, Piplines und Wunder Treiber unterhalten

Ach und vieleicht sehen wir dann auch mal mehr PC Spiele und nicht 100´er von Konsolenportierungen.

Have a nice Day
Ri*g*g*er

V2.0
2010-03-17, 08:51:44
Man muss ja sehen, dass ATI die FF Tesselationeinheitunverändet auch in den kleineren Chips verwendet. Man musste daher sicher einen Kompromiss zwischen Größe und Leistungsfähigkeit finden.

@ Rigger

Ich kaufe sicher keine Karte vor dem 3Q.

Aquaschaf
2010-03-17, 09:14:13
Bleibt die Frage warum der domain shader angeblich das Problem auf Cypress sein soll. Mit theoretischen 2.72TFLOPs von den ALUs; nimm von mir aus ALU Auslastung weg, interne Bandbreite oder was auch auch immer, ich kann mir schwer vorstellen dass der domain shader hier sich in Kreisen dreht

Gipsel hat doch mal geschrieben dass der L2-Cache bei RV870 scheinbar zu klein ist für die Datenmengen die bei viel Tesselation entstehen.

Ailuros
2010-03-17, 09:16:32
Das Spekulationsforum bezieht sich Gott sei Dank eher auf technische Einzelheiten als auf Kaufsberatung.

Gipsel hat doch mal geschrieben dass der L2-Cache bei RV870 scheinbar zu klein ist für die Datenmengen die bei viel Tesselation entstehen.

Theoretisch reicht aber dann eine groessere L2 cache von sich alleine aus dann wohl auch nicht. Was nuetzt mir ein groesserer Eimer wenn ich nach wie vor nur zwei Haende habe diesen zu fuellen?

PulsarS
2010-03-17, 09:29:38
Richtig interessant wird das ganze Grafikgequatsche doch erst im kommenden Herbst/Winter, wenn die Treiber ausgereift sind, die Mainstream Karten in den Löchern stehen, der Fertigungsprozess endlich ausgereift und genug FAB Power bereit steht und Last but not Least die Hersteller aus Ihren Designs die Bugs, Bottelnecks etc. erkannt und verbannt haben *g*

Dann, genau Dann kann man als preisbewußter, im Leben einigermaßen erfahrener über den Kauf einer neuen Grafikkarte nachdenken.

Den Sommer und die Marktwirtschaftliche Preisschlacht noch nichteinmal erwähnt . . .

Full Ack! :up:

Wobei ich schon vor zig Seiten geschrieben habe, dass in praxisrelevanten Settings (also auch AA und AF) nicht die Tesselation limitieren wird, wenn man sie Bedacht einsetzt und nicht nur aus Prinzip.
Bringt mir ja optisch nichts, wenn ich Dreiecke so klein mache, dass sie kleiner als ein Pixel sind...

Abgesehen davon braucht man schon super Texturen, damit die BQ durch Tesselation deutlich gesteigert wird.
Und gerade das sehe ich eben bei den meisten Spielen noch nicht.

Gast
2010-03-17, 09:50:17
Genau, zunächst braucht es hoch aufgelöste Texturen und genug Leistung für für AA mit TSSAA. Aber da müssen wir wohl bis zur nächsten Konsolengeneration warten.

Gast
2010-03-17, 09:51:47
Da hast dus ja: Größer und langsamer. Was verstehst du daran nicht?
Den Größenunterschied kannst du locker in der AF oder SSAAA Schwäche des RV770 suchen.
Du siehst, AMDs 5D ist nicht grundsätzlich der Weg, der ohne Zweifel für eine bessere Leistung/mm² liefert.

Schlammsau hat zuvor die Diesize ins Spiel gebracht, andere Kostenfaktoren haben ihn nicht disskutiert, weshalb er klugerweise die Disskussion beendet hat.
Er hat die Größe des GF100 genommen und mit RV870 verglichen.
Jetzt kann man ein ähnlich unsinnigen Vergleich hernehmen, ohne jegliche Berücksichtung anderer Kostenfaktoren, den wir haben gelernt Die-size = einzige Kosten ....
Also 5850 vs GTS 460 mit GF104
bzw 4850 vs GTS 250. -> 5% Diesizevorteil, sonst NICHTS.

igg
2010-03-17, 09:54:31
HardOCP hat nun wohl Testkarten.

X.Perry_Mental
2010-03-17, 10:09:41
Richtig interessant wird das ganze Grafikgequatsche doch erst im kommenden Herbst/Winter, wenn die Treiber ausgereift sind, die Mainstream Karten in den Löchern stehen, der Fertigungsprozess endlich ausgereift und genug FAB Power bereit steht und Last but not Least die Hersteller aus Ihren Designs die Bugs, Bottelnecks etc. erkannt und verbannt haben *g*
Womit Du natürlich völlig recht hast, aber hier im Speku-Forum wird dann diskutiert, wieviel Chipfläche Fermi 2.0 belegen könnte und ob die nächste Radeon-Reihe mehr Tess-Power hat - und die Hölle wird losbrechen, sobald in irgendwelchen Untiefen des Web unscharfe Die-Shots, selbstgebastelte GPU-Z-Bilder oder dubiose Balkendiagramme auftauchen.

tombman
2010-03-17, 10:15:37
Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...
Eigentlich kann man nur die 470er (eine!) guten Gewissens kaufen und abwarten.

igg
2010-03-17, 10:20:30
Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...
Sehe ich nicht so. Du kaufst die 480 ja jetzt und ordnest sie im aktuellen Markt nach Leistung und verhältnismäßigem Preis ein. Wenn das jetzt für dich OK ist, wieso nicht? Warten kann man immer... bei GT200b hieß es auch, er würde nochmal deutlich auftrumpfen. Hat er nicht.

Gast
2010-03-17, 10:22:51
Lies nochmal den Beitrag.
Ich mache es bewusst, weil es umgekehrt so gern gemacht wird. Ziel dabei ist es u.a. denen die es so tun vor Augen zu führen das ihre Methode scheisse ist.
beispiel fürs umgekehrte? rv870 vs. gf100? is unfair stimmt, der rv870 ist schon 1/2 jahr draussen und vom gf100 nix zu sehen. tesselation war unwichtig als die gerüchte da waren dass der gf100 da stinkt. jetzt wo der gf100 das offensichtlich gut machen soll, ist es das must-have feature welches dx11 zu einem must-have macht. vorher war dx10 (bewusst ohne .1) das must-have, alles andere sinnlos. ich liebe dein blödes polarisieren LZ.

deekey777
2010-03-17, 10:32:12
Gipsel hat doch mal geschrieben dass der L2-Cache bei RV870 scheinbar zu klein ist für die Datenmengen die bei viel Tesselation entstehen.
Scheinbar <-> anscheinend. :)

Aus dem ISA-Dok:
Executes a global data share (GDS) clause containing 1-16 GDS instructions. This clause type is used to write data to the Tesselation Factor (TF) buffer or to transfer data between GPRs and the GDS.

MiamiNice
2010-03-17, 10:34:31
Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...
Eigentlich kann man nur die 470er (eine!) guten Gewissens kaufen und abwarten.

Den selben Gedankengang hatte ich heute auch beim lesen der News. Warum tief in den Geldbeutel greifen, wen man eh nicht das Top Produkt bekommt. Ich werde wohl eine 470er kaufen und dann beim erscheinen der 512er Karte (GTX490?) nochmals zuschlagen und die 470er in der Bucht an den Mann bringen. Eine Option wäre auch eine ATI zu kaufen und auf die 490 zu warten, aber die DX11 Performance in Metro ist wohl fürn Popo bei ATI. Das ist das schon wieder alles kagge, man will Geld ausgeben aber nix gescheites zum kaufen ist auf dem Markt vorhanden. Und mit halben Sachen gebe ich mich ungern zufrieden.

Aquaschaf
2010-03-17, 10:42:21
Theoretisch reicht aber dann eine groessere L2 cache von sich alleine aus dann wohl auch nicht. Was nuetzt mir ein groesserer Eimer wenn ich nach wie vor nur zwei Haende habe diesen zu fuellen?

Wenn der größere Eimer nicht mehr überläuft: sehr viel. Dann musst du nicht mehr unverhältnismäßig oft den weiten Weg zur Wasserquelle zurücklegen (Daten aus dem DRAM lesen statt aus dem Cache), um bei dem Bild zu bleiben.

aylano
2010-03-17, 11:50:39
Um mal das ganze Fachgesimpel in den Sternen mal auf den Boden der Tatsachen zu bringen,
sowie man das hier im Ruhrpott mit schlichten, einfachen, direkten Worten halt macht:

Richtig interessant wird das ganze Grafikgequatsche doch erst im kommenden Herbst/Winter, wenn die Treiber ausgereift sind, die Mainstream Karten in den Löchern stehen, der Fertigungsprozess endlich ausgereift und genug FAB Power bereit steht und Last but not Least die Hersteller aus Ihren Designs die Bugs, Bottelnecks etc. erkannt und verbannt haben *g*
...
Den Sommer und die Marktwirtschaftliche Preisschlacht noch nichteinmal erwähnt . . .
...
So sehe ich die Situation und nun könnt Ihr Euch weiter über Prozente, Die Größen, Piplines und Wunder Treiber unterhalten

Have a nice Day
Ri*g*g*er
TSMC hat zwar schon seit 2 Jahren diese Massiven 40nm-Probleme, aber in 3 Monaten kommt dann bekanntlich das Wunder.

Bitte am Boden bleiben.

Dazu wird die 2. 40nm-TSMC-Fabrik nicht innerhalb eines Monats mit vollen Kapazitäten anfahren. Soviel ich weiß, werden die das Ende 2010 erreichen. Und dieser Ramp in 6-9 Monaten wäre AFAIK verdammt schnell.

Und wenn man schon dabei sein.
Mit dem Fermi-B-Stepping würde ich mir jetzt auch keine Wunder erhoffen. Damit werden sie die 40nm-Probleme berücksichtigen und hoffentlich die 512-Fermi-Yield deutlich erhöhen.
Und wenn sie dann noch die Spannungserhöhung (falls eine kommt) wegbekommen, wird das dann schon ein solides Produkt.

Aber die Welt geht dann nach Herbst eben weiter und dann kommen bald die 28nm-GPUs und das neue Spiel der GPU-(Shrink)-Einführungen geht von neuem los.

Ich frag mich, ob die 480er Käufer nicht heftig verarscht werden, sollte es später im Jahr doch noch eine "Ultra" mit 512sp geben...

Würdest du dich verarscht fühlen??

-----------

HD 5870 vs. GTX 470 , Richtiger Vergleich oder nicht?????

Ich würde sagen ja.
Wenn GTX480 kaum Stückzahlen erreicht bekommt und HD 5870 im Vergleich zu HD 4850 das Übliche Verhältnis hat, dann halte ich den Vergleich am ehesten Sinnvoll um zwei Architekturen zu vergleichen

Gleiches gilt bei Performance-pro-Watt
Wenn dort der GTX480 wegen 40nm-Problemen die Spannung hochgeprügelde wurde, macht es ja auch keinen Sinn, diesen bei einem Architektur-Vergleich heranzuziehen.

Aber genaue Architektur-Vergleiche kann man sowieso nur bei einem ausgereiften Fertigung machen.
Schließlich wurden die 40nm-Probleme beim RV870 schon berücksichtigt, was von vorhinein zu höheren Stromverbrauch bzw. geringenen Einheiten bei gleicher TDP führte.
Beim Fermi könnten die 40nm-Probleme stärker einschlagen haben. Aber wie groß dann der Unterschied ist, kann man bald eben nicht sagen, da es zwei unterschiedlichen Herangehensweisen an den 40nm-Problemen gab.

Man kann diesesmal an eine nach Plan funktionierende 28nm hoffen.

MiamiNice
2010-03-17, 12:01:40
Deine Aufregung ist also rein künstlicher Natur.

Sehe ich nicht so. Wen die 480er nur mit 480sp kommt ist es einfach ein Stück abgespeckte Hardware. Ich kaufe ungern unkomplette Sachen, habe es gerne komplett oder gar nicht. Zumal der eigenen Ärger ziemlich gross ist, wen es 2 Monate später die Vollversion der Karte zu kaufen gibt.

RoNsOn Xs
2010-03-17, 12:04:39
Sehe ich nicht so. Wen die 480er nur mit 480sp kommt ist es einfach ein Stück abgespeckte Hardware. Ich kaufe ungern unkomplette Sachen, habe es gerne komplett oder gar nicht. Zumal der eigenen Ärger ziemlich gross ist, wen es 2 Monate später die Vollversion der Karte zu kaufen gibt.
dann wartest du bis eine 512er draußen ist. mecker nicht, wenn keine kommt. immer hin ists eh nicht so dringend von einer gtx280 aufzurüsten.

edit: vor allem wäre eine 512er mehr verarsche durch den überproptional höheren aufpreis zur leistung.

Gipsel
2010-03-17, 12:07:46
Gipsel hat doch mal geschrieben dass der L2-Cache bei RV870 scheinbar zu klein ist für die Datenmengen die bei viel Tesselation entstehen.
Aus dem ISA-Dok:Das wird aber nicht im Domain-Shader gemacht ;)
Wenn der größere Eimer nicht mehr überläuft: sehr viel. Dann musst du nicht mehr unverhältnismäßig oft den weiten Weg zur Wasserquelle zurücklegen (Daten aus dem DRAM lesen statt aus dem Cache), um bei dem Bild zu bleiben.
Im Prinzip ist Aquaschaf ziemlich dicht an meiner Idee dran, ich habe bloß nicht explizit vom L2 gesprochen, da ich keine Ahnung habe, über welche Puffer der Datenaustausch da läuft.

Prinzipiell erzeugt der Tessellator Dreiecke anhand mit Hilfe der vorher in den GDS geschriebenen Tess-Faktoren. Diese Dreiecke werden dann vom Domain-Shader noch weiter bearbeitet (displacement mapping, transformation, was auch immer), bevor sie dann später an Setup/Rasterizer gehen. Die vom Tesselator gelieferten Dreiecksdaten müssen also irgendwie zu den Domainshadern gelangen. Und da könnte eine eklatante Schwäche bei Cypress liegen. Entweder ist das Scheduling der Domain-Shader ziemlicher Müll (warum auch immer) und/oder die Dreiecksdaten werden in den Off-Chip-RAM geschrieben und müssen entsprechend in den Domain-Shadern wieder von da gelesen werden, was natürlich auch bremst.

Laut den Tests von hardware.fr, verbringt eine HD5870 bei Heaven über 50% (im Peak waren es wohl sogar 70%, wenn ich das noch richtig im Kopf habe) der Renderzeit in den Domainshadern. Das ist klar nicht normal. Der Setup/Raster limitiert angeblich nur 15% der Zeit, d.h. selbst mit einem schnelleren parallelen Setup/Rasterizer würde es wohl maximal 15% schneller werden oder so.

igg
2010-03-17, 13:29:29
Ist eigentlich was zum Zustand der Review-Karten bekannt? Treiber final oder kommt 3 Tage vor Launch für Benchmarks ein Treiber- und BIOS-Update?

mrt
2010-03-17, 13:39:42
Angenommen der domain shader ist tatsaechlich das Problem, wieso wuerde es dann bei der naechsten "Generation" etwas aendern wenn man den Geometrie-Durchsatz erhoeht? Obwohl es nichts mit dem Thema zu tun hat, es wuerde mich kein bisschen wundern wenn ATI in dem Fall einfach auf 2*16 clusters steigt aber wieder mit 32 pixels/Takt.
Nun hardware.fr hat das auch mal genauer beleuchtet, bei denen ist der Cypress in Heaven 50% der Zeit mit den Domainshadern beschäftigt. Ich vermute dass hier die Caches zu klein werden, ähnlich wie auch Gipsel.
Höherer Geometriedurchsatz ist etwas, das in Zukunft münschenswert ist. Ich gehe außerdem davon aus, dass Northern Islands nicht mehr das Problem mit den Caches hat.
32Pixel und 2 Tri/Takt seh ich als Minimum an.

Dural
2010-03-17, 14:15:06
ihr habt probleme... :rolleyes:

und nein ich würde mir sicher auch keine GTX480 mit 480SP kaufen, jammere aber nicht rum weil es mir so ziemlich egal ist... :rolleyes:

da holt man sich lieber gleich eine GTX470 und später einen (oder zwei/drei) vollen GF100 ;D

und ich glaube die geschichte mit den 1% 512SP erst wenn die GTX480 wirklich mit 480SP kommt oder von NV bestätigt wird!!! Ich kann mir einfach unmöglich vorstellen das man mit so einem Chip auf A3 geht, wo ist da bitte schön der sinn bei der arbeit?!? Und ich kann mir da beim bessten willen nicht vorstellen das man das erst mit A2 oder sogar A3 gemerkt hat das hier was nicht stimmt...

Coda
2010-03-17, 14:51:50
Du solltest öfter bei B3D vorbei schauen, das wurde dort schon lange durchgekaut. Dave Baumann hat auch mehrmals bestätigt das RV870 ganz sicher nicht an der Rasterleistung hängt.
Da ging es um den Heaven-Benchmark. RV870 ist ja auch ohne Tesselation verhältnismäßig langsam.

Dazu habe ich schonmal was geschrieben: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7863211&postcount=86

Und doch: Bei Z-Only-Passes hängt RV870 sehr sicher sowas von an der Raster-Leistung.

corvus
2010-03-17, 15:47:20
versteh die aufregung nicht,was soll der unterschied sein bei einer 480 die später von der 512 ersetzt wird oder eine 512 die später von einer mit höherem takt ersetzt wird,performancemäßig ist es das selbe in grün und zeitlich wahrscheinlich auch.

mit highend zieht man schneller als man denkt die arschkarte,ist nunmal so.die zeiten des g80 sind vorbei wo man 2 jährchen auf dem treppchen sitzt.

Ist das nicht bei NV gang und gebe...zuerst nen bissel und dann noch mal abkassieren....?

Allerdings kann ich den Hype eh nicht nachvollziehen...wenn jetzt dutzende DX11 Spiele am Markt wären.....

DrFreaK666
2010-03-17, 16:24:14
...Angesichts von 32xCSAA inklusive 32 Samples für TRAA ist SGSSAA für alte Spiele ziemlich sinnlos. Das einzige wo SSAA weiterhin einen Qualitätsvorteil hätte wäre Shaderflimmern, für solche Spiele ist es aber klar zu langsam (zumindest wenn man mindestens 4 Samples will)
...

So ein Schwachsinn. Oder redest du von einer HD5670?? :biggrin:
Ich spiele viele Spiele mit SGSSAA, die Shader nutzen (UE3-Games z.B.) und diese laufen mit 4xSGSSAA ohne Probleme.
Je nach Game kann ich sogar mit 8xSGSSAA spielen (Prototype z.B.)

y33H@
2010-03-17, 16:43:06
Prototyp ist ja auch wie Dragon Age oder Drakensang derbest CPU-limitiert ...

Die gelbe Eule
2010-03-17, 16:43:56
Kann jemand vielleicht grob einschätzen wie hoch die Leistungssteigerung von GTX 260 zu 470 GTX unter 1080er (Full HD TV) Auflösung wäre?

Eggcake
2010-03-17, 16:44:44
Dirt2 geht auch mit 8xSSAA ohne Probleme (1x 5850). Gibt also durchaus auch neuere Spiele :)

AnarchX
2010-03-17, 16:46:17
Kann jemand vielleicht grob einschätzen wie hoch die Leistungssteigerung von GTX 260 zu 470 GTX unter 1080er (Full HD TV) Auflösung wäre?
Wohl etwa wie von GTX 260 auf HD 5870 bzw. geringfügig weniger.

Schlammsau
2010-03-17, 16:46:28
Kann jemand vielleicht grob einschätzen wie hoch die Leistungssteigerung von GTX 260 zu 470 GTX unter 1080er (Full HD TV) Auflösung wäre?

50-100%! Kommt halt aufs Game an. ;)

Die 470 wird auf Augenhöhe mit der 5870 sein.

Dural
2010-03-17, 16:56:26
Ähm, aber ist eine Karte kaufen, die man nicht braucht, nicht noch blöder?

wer sagt den das ich die gekauft habe? ;)

und ich hab eh immer jede karte... ;)

mapel110
2010-03-17, 17:15:44
Crysis Warhead kann ich erst bei 40-50 fps genießen.

GF108 taped out
http://www.semiaccurate.com/2010/03/17/nvidia-tapes-out-gf108