PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 [55] 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Bucklew
2010-03-02, 19:50:57
Wenn man sich schlampig informiert kommt es auch zu schlampigen Schlussfolgerungen.
Aber immerhin welche, die ins Denkschema passen ;)

Gast
2010-03-02, 19:51:49
Welche Shader? Hull? Domain? Geometry? Pixel? Vertex? :confused:
Pixelshader.
Bei den heutigen Spielen limitiert die Geometrie (Vertex, Geometry) nicht.
Hull- und Domainshader sind quasi direkt für die Tesselation zuständig.

Mit shaderlimitiert meint man in der Regel die Pixelshader.

LovesuckZ
2010-03-02, 19:56:15
Pixelshader.
Bei den heutigen Spielen limitiert die Geometrie (Vertex, Geometry) nicht.
Hull- und Domainshader sind quasi direkt für die Tesselation zuständig.

Mit shaderlimitiert meint man in der Regel die Pixelshader.

GF100 hat mehr als doppelte soviele Recheneinheiten. Limitieren die Pixelshader, wird er sich dementsprechend vor einem GT200 plazieren können. :)

Schlammsau
2010-03-02, 19:59:42
Limitieren die Pixelshader, wird er sich dementsprechend vor einem GT200 plazieren können. :)

Und auch deutlich vor einer 5870?

Tarkin
2010-03-02, 20:03:31
Aber immerhin welche, die ins Denkschema passen ;)

Sry, aber wer jetzt immer noch glaubt Fermi wird viel besser als 58XX, der rennt IMO mit einem ziemlich dicken Brett vor dem Kopf durch die Welt.

Ich rechtfertige das nicht mit einem bestimmten "Denkschema" sondern mit Hausverstand.

Aber was gewisse "Denkschema" angeht, so machen die (habe ich das Gefühl) auf beiden Augen blind und einem Ohr taub.

*zwinker-zwinker* *HAR-HAR*

Bucklew
2010-03-02, 20:07:47
Sry, aber wer jetzt immer noch glaubt Fermi wird viel besser als 58XX, der rennt IMO mit einem ziemlich dicken Brett vor dem Kopf durch die Welt.
GLAUBEN tust du vielleicht. Ich WEISS dagegen einiges ;)

Abgesehen davon muss man natürlich auch fragen, was man erwartet. Selbst wenn diese 5% schneller stimmen sollten (die sich irgendein Spinner ausgedacht hat, aber sei es drum), wäre das für eine neue Architektur gar nicht mal so schlecht. Man errinnere sich mal daran, wie so manch andere neue Architektur schon absolut beschissen war (NV30, R300) - im Vergleich dazu wäre der Fermi (selbst wenn alle Horrormeldungen stimmen) eine sehr gute Ausgangsbasis für die Zukunft.

Kosh
2010-03-02, 20:12:39
GLAUBEN tust du vielleicht. Ich WEISS dagegen einiges ;)

Abgesehen davon muss man natürlich auch fragen, was man erwartet. Selbst wenn diese 5% schneller stimmen sollten (die sich irgendein Spinner ausgedacht hat, aber sei es drum), wäre das für eine neue Architektur gar nicht mal so schlecht. Man errinnere sich mal daran, wie so manch andere neue Architektur schon absolut beschissen war (NV30, R300) - im Vergleich dazu wäre der Fermi (selbst wenn alle Horrormeldungen stimmen) eine sehr gute Ausgangsbasis für die Zukunft.

Wow, wenn sogar jetzt schon die NVIDIA Fans von einer geringen Mehrperformance gegenüber der 5870 ausgehen,dann scheint wirklich kaum noch was dagegen zu sprechen :D

Gast
2010-03-02, 20:16:40
Und auch deutlich vor einer 5870?
Was ist deutlich? :)

Eine 5970 ist es jedenfalls nicht, selbst wenn man wie die Presse MGPU unter den Tisch kehrt.

Bucklew
2010-03-02, 20:20:41
Wow, wenn sogar jetzt schon die NVIDIA Fans von einer geringen Mehrperformance gegenüber der 5870 ausgehen,dann scheint wirklich kaum noch was dagegen zu sprechen :D
Du hättest wohl lieber nicht schwänzen sollen, als in der Schule gerade lesen dran war ;D

MR2
2010-03-02, 20:24:10
http://media.bestofmicro.com/C/B/240203/original/Colorful%20GeForce%20GTX%20480.JPG

wow...ne GTX480 Verpackung:-)
weis nicht obs das schon zu sehen gab

Tarkin
2010-03-02, 20:24:45
GLAUBEN tust du vielleicht. Ich WEISS dagegen einiges ;)

Abgesehen davon muss man natürlich auch fragen, was man erwartet. Selbst wenn diese 5% schneller stimmen sollten (die sich irgendein Spinner ausgedacht hat, aber sei es drum), wäre das für eine neue Architektur gar nicht mal so schlecht. Man errinnere sich mal daran, wie so manch andere neue Architektur schon absolut beschissen war (NV30, R300) - im Vergleich dazu wäre der Fermi (selbst wenn alle Horrormeldungen stimmen) eine sehr gute Ausgangsbasis für die Zukunft.

Genau was ich meine ... die Erwartungen sinken schon bei den Fans. Und am Launch Tag wird dann ein 5% bis 10% Vorspung bejubelt. Das ist konsequent :|

Wenn du denkst das wäre eine "gute Ausgansbasis" - sry, aber bei einen Chip dieser Komplexität wäre das nichts anderes als ein Rohrkrepierer.

Bucklew
2010-03-02, 20:29:27
Genau was ich meine ... die Erwartungen sinken schon bei den Fans. Und am Launch Tag wird dann ein 5% bis 10% Vorspung bejubelt. Das ist konsequent :|
Meine Erwartungen sind überhaupt nicht gesunken :) Der Unterschied ist halt: Im Gegensatz zu dir springe ich nicht aus dem Fenster und hoffe, dass unten dann ein weiches Kissen ist.

Wenn du denkst das wäre eine "gute Ausgansbasis" - sry, aber bei einen Chip dieser Komplexität wäre das nichts anderes als ein Rohrkrepierer.
Angesichts dessen, dass auch aus so einem Gurkenship wie dem R600 sowas wirklich gutes wie ein RV870 wird - warum nicht?

Schlammsau
2010-03-02, 20:32:07
Was ist deutlich? :)

Eine 5970 ist es jedenfalls nicht, selbst wenn man wie die Presse MGPU unter den Tisch kehrt.

Presse MGPU?

Die 5970 ist durch die Bank 30-40% schneller als die 5870. Mal mehr mal weniger!
Ich persönlich tippe nach wie vor auf durchschnittlich 20-30% pro Fermi, gegenüber der 5870. Ergo plaziert sich Fermi zwischen der 5870 und 5970.
Microruckler mal nicht mit eingerechnet.

Gast
2010-03-02, 20:33:38
[...] aus so einem Gurkenship wie dem R300 [...]

http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/cwm13.gifhttp://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/cwm13.gifhttp://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/cwm13.gif

Gast
2010-03-02, 20:33:56
Meine Erwartungen sind überhaupt nicht gesunken :) Der Unterschied ist halt: Im Gegensatz zu dir springe ich nicht aus dem Fenster und hoffe, dass unten dann ein weiches Kissen ist.


Angesichts dessen, dass auch aus so einem Gurkenship wie dem R300 sowas wirklich gutes wie ein RV870 wird - warum nicht?

der r300 war also ein "gurkenschip?
lol du kennst dich echt aus

nagus
2010-03-02, 20:36:12
Meine Erwartungen sind überhaupt nicht gesunken :) Der Unterschied ist halt: Im Gegensatz zu dir springe ich nicht aus dem Fenster und hoffe, dass unten dann ein weiches Kissen ist.


Angesichts dessen, dass auch aus so einem Gurkenship wie dem R300 sowas wirklich gutes wie ein RV870 wird - warum nicht?

wenn du WIRKLICH der meinung bist r300 wäre ein "gurkenchip", dann musst du aber ziemlich krank sein im kopf.

Coda
2010-03-02, 20:36:19
Er meinte wohl R600.

Bucklew
2010-03-02, 20:38:20
Ich persönlich tippe nach wie vor auf durchschnittlich 20-30% pro Fermi, gegenüber der 5870. Ergo plaziert sich Fermi zwischen der 5870 und 5970.
Realistisch.

Nebenbei hat Charlie scheinbar einen Nachfolger für unterhaltsame News gefunden ;D

http://www.semiaccurate.com/2010/03/02/fermi-strips-secret-location/
The pictures reveal some details that are of interest and the most obvious thing is the lack of Nvidia’s NVIO chip.
Ui, sag bloß :rolleyes: Danke für diese Top News...

The card has two DVI ports and one mini HDMI connector and this seems to be Nvidia’s practice for triple display setups.
Ähm, nein?! 3 Displays wird Nvidia über zwei Karten ansteuern.

The heatsink appears to be quite different from that of the GTX470, as it has no less than four heat pipes. The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.
Bitte? :O:O:O:O

Er meinte wohl R600.
Ähm ja, natürlich, spät am Abend :)

Gast
2010-03-02, 20:38:33
Sry, aber wer jetzt immer noch glaubt Fermi wird viel besser als 58XX, der rennt IMO mit einem ziemlich dicken Brett vor dem Kopf durch die Welt.

Ich rechtfertige das nicht mit einem bestimmten "Denkschema" sondern mit Hausverstand.

Aber was gewisse "Denkschema" angeht, so machen die (habe ich das Gefühl) auf beiden Augen blind und einem Ohr taub.

*zwinker-zwinker* *HAR-HAR*


Das Profilbild von dir passt genau zu deiner Person: Immer optimistisch, dass Fermi es nicht schaffen wird besser als die HD5000er Karten zu werden. Was mit Tarkin passiert ist weißt du ja. Wir werden sehen...


mfg

Tarkin
2010-03-02, 20:42:33
Das Profilbild von dir passt genau zu deiner Person: Immer optimistisch, dass Fermi es nicht schaffen wird besser als die HD5000er Karten zu werden. Was mit Tarkin passiert ist weißt du ja. Wir werden sehen...


mfg

der hat sicher überlebt, oder? ;D

Schlammsau
2010-03-02, 20:43:13
Realistisch.

Was aber natürlich in anbetracht des spekulierten Preises von 599$ verheerend für nVidia wäre!

ATi könnte den Preis der 5870 mal ganz locker auf 350$ senken.

Bucklew
2010-03-02, 20:43:22
der hat sicher überlebt, oder? ;D
Klar, und die GTX480 wird genauso scheisse, wie Charlie ständig behauptet ;D

Bucklew
2010-03-02, 20:44:37
Was aber natürlich in anbetracht des spekulierten Preises von 599$ verheerend wäre!
Nicht angesichts dessen, dass damit die GTX470 der Gegner der HD5870 wäre, die 480 also quasi Konkurrenzlos wäre.

N0Thing
2010-03-02, 20:45:09
Die Boardpartner werden erstmal von Nvidia zentral gefertige komplette Grafikkarten erhalten und die einfach nur ein paar Tage vor Launch erhalten, in ihre Kisten werfen udn verschicken. Das war schon immer so bei Launches. Die Einzelchips und die Fertigung eigener Karten wird erst später kommen.

Irgendjemand muß diese "zental" gefertigen Grafikkarten aber herstellen und braucht dafür entsprechende Grafikchips und Zeit. Die erreichen die Boardpartner ja nicht aus dem Nichts.

Schlammsau
2010-03-02, 20:48:58
Nicht angesichts dessen, dass damit die GTX470 der Gegner der HD5870 wäre, die 480 also quasi Konkurrenzlos wäre.

Was bringt die konkurrenzlosigkeit wenn sie sich fast keiner Leisten kann?

Sehen wir doch jetzt schon.....es gibt so viele die eine 5870 haben wollen, aber nicht bereit sind 350€ dafür zu zahlen. :freak:

Wenn Fermi wirklich so teuer wird, wird sie das gleiche Schicksal ereilen wie die 5870 bzw 5970. Kein Schwein wird sie kaufen!
(Ausser natürlich ein paar Hardcore Fanboys)

LovesuckZ
2010-03-02, 20:51:22
Was bringt die konkurrenzlosigkeit wenn sie sich fast keiner Leisten kann?

Sehen wir doch jetzt schon.....es gibt so viele die eine 5870 haben wollen, aber nicht bereit sind 350€ dafür zu zahlen.

Wenn Fermi wirklich so teuer wird, wird sie das gleiche Schicksal ereilen wie die 5870 bzw 5970. Kein Schwein wird sie kaufen!
(Ausser natürlich ein paar Hardcore Fanboys)

Schon erstaunlich: Es soll auch Hardcore Fanboys geben, die kaufen sich nach der Kritik am Idleverbrauch während dem Multi-Monitorbetrieb einer GTX275 eine 5850 Karte. ;D

N0Thing
2010-03-02, 20:51:31
Bilder der GTX480:
http://ic.tweakimg.net/ext/i/imagelarge/1267547763.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547764.jpeg
http://ic.tweakimg.net/ext/i/imagelarge/1267547765.jpeg

Bei der Kühllösung geht man stark in die Richtung des Thermalright HR-03 GTX. Und im Gegensatz zur GTX280 setzt man wohl auch kein Kupfer ein.


Was bedeutet der Abschnitt in dem Artikel zu den Bildern (http://tweakers.net/nieuws/65933/cebit-nvidia-gtx-480-op-de-gevoelige-plaat-gevangen.html): Overigens wisten andere bronnen Tweakers.net te vertellen dat er in eerste instantie een mondiale oplage van 5000 exemplaren wordt verwacht ?


Die Info mit den 5000 Exemplaren haben sie aus einer anderen Quelle und nicht von dem Besitzer der photographierten Grafikkarte, richtig?

LovesuckZ
2010-03-02, 20:59:28
Laut Google-Übersetzung: Ja, stammt nicht vom Typen, der die Karte zur Verfügung gestellt hat.

Bucklew
2010-03-02, 20:59:55
Was bringt die konkurrenzlosigkeit wenn sie sich fast keiner Leisten kann?

Sehen wir doch jetzt schon.....es gibt so viele die eine 5870 haben wollen, aber nicht bereit sind 350€ dafür zu zahlen. :freak:
Warum sollte man auch 350€ bezahlen, wenn das reine Spekulation der Händler ist und der Spuk übermorgen vorbei sein sollte?

Die Zeit ist ja nun nicht lange vorbei, wo Highend-Karten quasi immer 500/600€ gekostet haben und die waren auch nicht 100% schneller als der Rest.

Wenn Fermi wirklich so teuer wird, wird sie das gleiche Schicksal ereilen wie die 5870 bzw 5970. Kein Schwein wird sie kaufen!
(Ausser natürlich ein paar Hardcore Fanboys)
Liegt vielleicht auch daran, dass sich ATI mit den extremen Kampfpreise der letzten Generation selbst die Preise zerstört hat. Wer Ahnung und Zeit hat wartet doch sowieso bis Fermi kommt - egal ob er sich dann die Karte kauft oder weniger für die ATI bezahlt.

Schlammsau
2010-03-02, 21:04:25
Schon erstaunlich: Es soll auch Hardcore Fanboys geben, die kaufen sich nach der Kritik am Idleverbrauch während dem Multi-Monitorbetrieb einer GTX275 eine 5850 Karte. ;D
Ich kann mich über den Idle Verbrauch der 5850 nicht (mehr) beklagen!
Durch meine ATT Profile taktet sie auch mit mehreren Monitoren korrekt runter.
Und das auf ein Stromverbrauch-Niveau, dass eine GTX275 niemals erreicht hat und erreicht hätte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7827040#post7827040

Noch dazu kam, damals als ich die GeForce noch hatte, die 2D-Taktsprünge unter Windows 7 und Vista, die den Stromverbrauch unnötigerweise nach oben geschraubt haben. Desweiteren hat mich gestört, dass mein 2 Monitor (TV), beim Einschalten jedesmal neu erkannt wurde. Und nach dem Ausschalten (Standby) aus dem Treiber-Menü verschwunden war. :freak: Was mich auch gestört hat, dass sie sich um nichtmal 1% übertakten lies.
Alles zusammen waren das die Gründe warum ich mich nach 2 Monaten wieder von ihr getrennt habe.

Do you remember!?

Fetza
2010-03-02, 21:06:47
Nicht angesichts dessen, dass damit die GTX470 der Gegner der HD5870 wäre, die 480 also quasi Konkurrenzlos wäre.

Soll fermi in der nöchsten ausbaustufe nicht letztlich nur 5-10 prozent schneller sein als die hd5870? Wenn diese gerüchte zumindest zutreffend sind, wäre fermi eine ganz schöne entäuschung für gamer.

Tesseract
2010-03-02, 21:23:05
Sry, aber wer jetzt immer noch glaubt Fermi wird viel besser als 58XX, der rennt IMO mit einem ziemlich dicken Brett vor dem Kopf durch die Welt.

wohl eher anders rum.
dass fermi probleme in der fertigung hat dürfte inzwischen jedem klar sein, aber die typen von nvidia sind ja keine vollidioten. wenn man einen chip mit über 3 mrd. transistoren konstruiert müsste er schon ziemlich gravierende konzeptfehler enthalten (auch gegenüber der eigenen vorgängergeneration) um sich nicht von der 58xx absetzen zu können.

probleme wird nvidia viel eher durch preiskampf bekommen als durch die miese performance von fermi.

Popeljoe
2010-03-02, 21:24:21
Meine Fresse, dieser Thread ähnelt teilweise einem Treffen der Hooligans von S04 und Dortmund.
Und es sind immer wieder dieselben Täter beteiligt...
Braucht ihr auch einen "Fanbeauftragten"?! :rolleyes:

PHuV
2010-03-02, 21:24:41
Wenn Fermi wirklich so teuer wird, wird sie das gleiche Schicksal ereilen wie die 5870 bzw 5970. Kein Schwein wird sie kaufen!
(Ausser natürlich ein paar Hardcore Fanboys)

Na danke, dann bin ich also so ein Schwein? :| Und ich bin weder ein Fanboy (nachdem ich jahrelang nur Nvidia's hatte). Fakt ist, daß die 5970 aktuell die schnellste Karte für DX11 ist, und gut einen 2560x1600 ausreizt. Also rede nicht so daher, wenn Dein Horizont (das ist jetzt nicht böse gemeint ist, sondern bezieht sich rein auf die Grafikkarten, nicht daß ein Mod das hier wieder ungewollt als angebliche Beleidigung abtut) hier zu begrenzt ist. Es gibt Leute mit vielfachen Bedürfnissen, und diese werden, auch wenn Du es nicht glauben magst, durch eine 5870 oder 5970 gedeckt. Seltsam nur, daß diese Karten vor Weihnachten in den Läden in Berlin sehr schnell ausverkauft waren.

Aber was anderes ist man ja von Dir hier nicht gewohnt. :rolleyes:

@Topic

Nachdem ich vor einiger Zeit mal 2 x 679 € für 2 8800GTXsen ausgegeben habe, schocken mich die 600 pro Karte nicht wirklich. Wenn Fermi die Leistung bringt, und die Leute das wollen, dann ist sie eben das auch wert.

Gast
2010-03-02, 21:26:41
Meine Fresse, dieser Thread ähnelt teilweise einem Treffen der Hooligans von S04 und Dortmund.
Und es sind immer wieder dieselben Täter beteiligt...
Braucht ihr auch einen "Fanbeauftragten"?! :rolleyes:

Als interessierter stiller Mitleser mit der Hoffnung auf ein paar Häppchen sinnvoller Informationen bin ich auch immer wieder erstaunt was hier teilweise abgeht. Und mit erstaunt meine ich peinlich berührt.

Kosh
2010-03-02, 21:29:58
Was bringt die konkurrenzlosigkeit wenn sie sich fast keiner Leisten kann?

Sehen wir doch jetzt schon.....es gibt so viele die eine 5870 haben wollen, aber nicht bereit sind 350€ dafür zu zahlen. :freak:

Wenn Fermi wirklich so teuer wird, wird sie das gleiche Schicksal ereilen wie die 5870 bzw 5970. Kein Schwein wird sie kaufen!
(Ausser natürlich ein paar Hardcore Fanboys)

Die 5870 geht und ging aber weg wie warme Semmeln.

Da TSMC die Nachfrage nicht decken konnte, konnten die Shops doch mal locker flockig 50-200 (die ganz unverschämten) Euro draufschlagen.

Aber die Nachfrage war extrem für eine KArte dieses Preissegments.

Kein Schwein wird sie kaufen? Sorry, aber da bist du extrem auf den Holzweg.

Aber über 400 Euro wird die Luft mit Sicherheit von den Verkaufszahlen extrem dünn.Erst Recht für 500 oder 600 Euro.

LovesuckZ
2010-03-02, 21:33:20
Aber die Nachfrage war extrem für eine KArte dieses Preissegments.


Jap, in der Geschichte aller High-End Grafikkarten wollten noch nie mehr als 10 Leute solch eine innerhalb von 3 Monaten kaufen. Das macht die 5870 zum absoluten Spitzenreiter...

Also bitte: Könnte man endlich wieder mit Verstand an einige Postings herangehen?

Popeljoe
2010-03-02, 21:35:57
Als interessierter stiller Mitleser mit der Hoffnung auf ein paar Häppchen sinnvoller Informationen bin ich auch immer wieder erstaunt was hier teilweise abgeht. Und mit erstaunt meine ich peinlich berührt.
Keine Sorge: unsere Texte dazu werden sicher nonchalant ignoriert werden! ;)

Aber über 400 Euro wird die Luft mit Sicherheit von den Verkaufszahlen extrem dünn.Erst Recht für 500 oder 600 Euro.
Der Marktanteil solcher Karten ist verschwindend gering.
Wichtiger wird das Preis-Leistungsverhältnis und der Energieverbrauch sein.
Da hoffe ich ehrlich gesagt auf NV weil imo die Midrange Karten von ATI momentan schlicht überteuert sind.

Jap, in der Geschichte aller High-End Grafikkarten wollten noch nie mehr als 10 Leute solch eine innerhalb von 3 Monaten kaufen. Das macht die 5870 zum absoluten Spitzenreiter...

Also bitte: Könnte man endlich wieder mit Verstand an einige Postings herangehen?
Danke, dass du mein Posting innerhalb derart kurzer Zeit wirklich perfekt verifizierst! :uup:
Meine Fresse, dieser Thread ähnelt teilweise einem Treffen der Hooligans von S04 und Dortmund.
Und es sind immer wieder dieselben Täter beteiligt...
Braucht ihr auch einen "Fanbeauftragten"?! :rolleyes:

Kosh
2010-03-02, 21:36:37
wohl eher anders rum.
dass fermi probleme in der fertigung hat dürfte inzwischen jedem klar sein, aber die typen von nvidia sind ja keine vollidioten. wenn man einen chip mit über 3 mrd. transistoren konstruiert müsste er schon ziemlich gravierende konzeptfehler enthalten (auch gegenüber der eigenen vorgängergeneration) um sich nicht von der 58xx absetzen zu können.

probleme wird nvidia viel eher durch preiskampf bekommen als durch die miese performance von fermi.

Nicht unbedingt.

Der Fermi scheint primär für den Industriemarkt konzipiert zu sein. Angeblich macht NVIDIA dort doch 90% ihres Gewinns. Da ist es doch logisch,das der Gamermarkt nicht unbedingt oberste Priorität haben könnte, wenn doch soviel mehr Gewinn mit den Teslas gemacht wird.

Und wenn eine Karte für die Industrie designt wird, kann die Spieleperformance durchaus in der Praxius nicht so toll sein.

Wie gesagt,kann.

LovesuckZ
2010-03-02, 21:38:29
Verstand - bitte Verstand. :rolleyes:
Soll man solche Postings eigentlich als Spam melden? Denn es entspricht weder der Wahrheit, noch ist es sonst informativ? :confused:

Popeljoe
2010-03-02, 21:39:50
Verstand - bitte Verstand. :rolleyes:
Soll man solche Postings eigentlich als Spam melden? Denn es entspricht weder der Wahrheit, noch ist es sonst informativ? :confused:
Ein Ding noch in diesem Tonfall und kannst auf der Bank platznehmen!
"Insane Member" bedeutet keinen Freibrief in Sachen Auftreten im Forum.
Er spekuliert. Entweder diskutierst du seinen Text oder du lässt es sein, aber derartig abfällige Bemerkungen sind zu unterlassen!

Tesseract
2010-03-02, 21:41:27
Angeblich macht NVIDIA dort doch 90% ihres Gewinns.
ich glaub das hast du falsch verstanden. bei nvidia hat jemand gemeint sie machen in der industrie wesentlich mehr gewinn pro verkauftem chip. allerdings sind die verkaufszahlen ja auch bedeutend kleiner. würde mich sehr wundern wenn die professionelle sparte einen zweistelligen prozentsatz des umsatzes ausmachen würde.

N0Thing
2010-03-02, 21:43:53
Bitte? :O:O:O:O

Bis zu den Bildern die LS gepostet hat, habe ich bisher auch keine Bilder des Kühlers mit herausragenden Heatpipes gesehen. Nur Grafikkarten mit dem bekannten Standardkühler.

LovesuckZ
2010-03-02, 21:44:28
Kosh spekuliert nicht, er behauptet falsche Tatsachen. Spekulationen beruhen auf nicht offiziellen Daten. GF100 wurde von nVidia schon tot dokumentiert. Den Unterschied sollte man als Moderator kennen. :rolleyes:

ich glaub das hast du falsch verstanden. bei nvidia hat jemand gemeint sie machen in der industrie wesentlich mehr gewinn pro verkauftem chip. allerdings sind die verkaufszahlen ja auch bedeutend kleiner. würde mich sehr wundern wenn die professionelle sparte einen zweistelligen prozentsatz des umsatzes ausmachen würde.

Quadro macht mehr als 10% des Umsatzes aus.

Armaq
2010-03-02, 21:44:36
ich glaub das hast du falsch verstanden. bei nvidia hat jemand gemeint sie machen in der industrie wesentlich mehr gewinn pro verkauftem chip. allerdings sind die verkaufszahlen ja auch bedeutend kleiner. würde mich sehr wundern wenn die professionelle sparte einen zweistelligen prozentsatz des umsatzes ausmachen würde.
Nvidia in Person ihres CEO hat gesagt, dass sie den Großteil ihrer Marge im Profi-Segment machen und das dort ihre Zukunft liegt. So falsch ist die Annahme nicht, hat allerdings den Makel, dass der Entwicklungszyklus länger dauert, als diese bilanzielle Entwicklung.

Popeljoe
2010-03-02, 21:45:57
Kosh spekuliert nicht, er behauptet falsche Tatsachen. Spekulationen berufen auf fehlenden Daten. GF100 wurde von nVidia schon tot dokumentiert. Den Unterschied sollte man als Mdoerator kennen. :rolleyes:
Es ist mir scheißegal, ob es dir passt oder nicht, ein Ding noch in diesem Tonfall und du kannst dich wegen Modwillkür ausheulen!

Kosh
2010-03-02, 21:48:35
Jap, in der Geschichte aller High-End Grafikkarten wollten noch nie mehr als 10 Leute solch eine innerhalb von 3 Monaten kaufen. Das macht die 5870 zum absoluten Spitzenreiter...

Also bitte: Könnte man endlich wieder mit Verstand an einige Postings herangehen?

Deine Postings werden auch immer lachhafter.

Und so einer redet von Verstand.

Die 5870 war seit Jahren die erste Karte,die die schnellste Karte auf dem Markt war und für knapp über 300 Euro zu kaufen war. Leider machte TSMC ATI einen Strich durch die Rechnung.

Dennoch habe ich am 6 Januar meine 5870 für 323 Euro bekommen und 1 Woche später hätte ich eine Asus 5870 sogar für 293 Euro bekommen können.

Meine 8800GTS 640MB bekam ich im februar ,auch nach langen Suchen ,für 350 Euro. Und da gab es noch eine 8800GTX,die nochmals locker 100 Euro mehr kostete.

Von der noch älteren Geforce Ultras gar nicht zu reden,wo NVIDIA teilweise 1400 DM für wollte.

Die 5870 war dagegen für um die 320 Euro zu bekommen und schnellste Singlekarte auf dem Markt.

Und das gab es seit Jahren nicht mehr und deshalb gab es ein extrem großes Kaufinteresse.

Popeljoe
2010-03-02, 21:52:15
Deine Postings werden auch immer lachhafter.

Und so einer redet von Verstand.
Meine Güte! :rolleyes:

LovesuckZ
2010-03-02, 21:53:58
Deine Postings zeugen auch immer mehr von geistiger Umnachtung.

Und so einer redet von Verstand.

Dann werden wir mal sehen:


Die 5870 war seit Jahren die erste Karte,die die schnellste Karte auf dem Markt war und für knapp über 300 Euro zu kaufen war. Leider machte TSMC ATI einen Strich durch die Rechnung.

Eine GTX285 wurde über monate für unter 300€ verkauft.


Dennoch habe ich am 6 Januar meine 5870 für 323 Euro bekommen und 1 Woche später hätte ich eine Asus 5870 sogar für 293 Euro bekommen können.
Meine 8800GTS 640MB bekam ich im februar ,auch nach langen Suchen ,für 350 Euro. Und da gab es noch eine 8800GTX,die nochmals locker 100 Euro mehr kostete.

Die 5870 ist die zweitschnellste Karte im Portfolio von AMD. So wie die 8800TS zur damaligen Zeit - die ungefähr genauso schnell zur X1950XTX war wie die 5870 zur GTX285.


Die 5870 war dagegen für um die 320 Euro zu bekommen und schnellste Singlekarte auf dem Markt.

Nein, schnellste Singlekarte ist die 5970. Und die Behauptung kommt direkt von AMD.


Und das gab es seit Jahren nicht mehr und deshalb gab es ein extrem großes Kaufinteresse.

"Seit Jahren"? Die Preise sind vielleicht seit Jahren im Keller. Single-GPU so billig wie nie. Die 5870 dagegen hat sogar ein schlechteres P/L Verhältnis als die 8800GTX zur damaligen Zeit. Und die wurde mit >600€ in den Markt gebracht.

Tesseract
2010-03-02, 21:56:10
Nvidia in Person ihres CEO hat gesagt, dass sie den Großteil ihrer Marge im Profi-Segment machen und das dort ihre Zukunft liegt.
marge ist doch der gewinn pro verkaufter einheit, oder?

Quadro macht mehr als 10% des Umsatzes aus.
gibt es dazu irgendwas offizielles?

Kosh
2010-03-02, 21:56:58
Meine Güte! :rolleyes:

Habe ich gepostet,als ich deine Ermahnungen noch nicht gelesen habe.

Quote direkt,wenn ich einen Beitrag sehe und lese nicht erst den ganzen Thread fertig.

Daredevil
2010-03-02, 21:59:34
Waren die 1.536MB Rambestückung schon klar, oder wieso fällt das so unter den Tisch?

http://media.bestofmicro.com/C/B/240203/original/Colorful%20GeForce%20GTX%20480.JPG

Und was zum Teufel ist ein "3 Power Switch" ?

LovesuckZ
2010-03-02, 22:00:01
Bis zu den Bildern die LS gepostet hat, habe ich bisher auch keine Bilder des Kühlers mit herausragenden Heatpipes gesehen. Nur Grafikkarten mit dem bekannten Standardkühler.

Ja, das ist das erste Bild mit Heatpipes nach außen. Alle anderen Bilder - Twitterbild, Supercomputer und CES - waren die normale Kühllösung. Das kann nur ein Segen für die Lautstärke sein.


gibt es dazu irgendwas offizielles?

Direkt von nVidia: http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI2NjV8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Bei $982,5 Millionen Umsatz generierte das Quadro Business $157,8 Millionen - also ca. 16% des Gesamtumsatzes.

S940
2010-03-02, 22:10:49
Waren die 1.536MB Rambestückung schon klar, oder wieso fällt das so unter den Tisch?

http://media.bestofmicro.com/C/B/240203/original/Colorful%20GeForce%20GTX%20480.JPG

Jo, zwangsläufig, das ergibt sich ja aus dem 384bit RAM Interface. War aber natürlich nicht 100% klar, mit der 1,5 GB Angabe hat man jetzt Gewissheit.
Und was zum Teufel ist ein "3 Power Switch" ?
Eventuell nur eine Stromsparfunktion á la Cool & Quiet, aber keine Ahnung ^^

Krasser finde ich die Silber Layer ... :freak:
Naja, eventuell nur ein paar Silber Atome ^^

AMC
2010-03-02, 22:12:28
"Seit Jahren"? Die Preise sind vielleicht seit Jahren im Keller. Single-GPU so billig wie nie. Die 5870 dagegen hat sogar ein schlechteres P/L Verhältnis als die 8800GTX zur damaligen Zeit. Und die wurde mit >600€ in den Markt gebracht.

Bitte? Das P/L-Verhältnis der HD5870 ist hervorragend, gerade und wegen der so stark gesunkenen Preise. Die gebotene Leistung mit dem Featureset ist definitiv besser als es das der seligen 8800GTX war, denn soo weit weg waren die beschnittenen GTS ggü. der GTX von der Performance her auch nicht, das ist mit dem Abstand 5850 - 5870 vergleichbar, mit dem Unterschied, dass die 5850 dafür noch zu teuer/zu schlecht lieferbar ist. Die HD5850 mag ein schlechteres P/L Verhältnis als die GTX haben, aber das kann man der 5870 wirklich nicht vorwerfen...

Tesseract
2010-03-02, 22:17:02
Bei $982,5 Millionen Umsatz generierte das Quadro Business $157,8 Millionen - also ca. 16% des Gesamtumsatzes.

das liegt ja dann eh nicht all zu weit von meiner schätzung weg.

Armaq
2010-03-02, 22:17:41
marge ist doch der gewinn pro verkaufter einheit, oder?

Genau. Ich habe das Zitat nicht zur Hand, aber die Profi-Lösungen bringen einen unglaublichen Anteil am Gewinn ein.

LovesuckZ
2010-03-02, 22:19:32
Genau. Ich habe das Zitat nicht zur Hand, aber die Profi-Lösungen bringen einen unglaublichen Anteil am Gewinn ein.

Gewinn liegt auf dem selben Niveau wie der des Geforce-Geschäftes.

das liegt ja dann eh nicht all zu weit von meiner schätzung weg.

Naja, mehr als 60%. ;)

Menace
2010-03-02, 22:20:41
Bei der zur Schau gestellten Version der Supersonic-Sled-Demo wurde auf Kantenglättung verzichtet und in anspruchsvollen Szenen war der eine oder andere kleine Ruckler zu sehen.

Am Abend gab Nvidia im Rahmen einer Pressseveranstaltung bekannt, dass der Verkaufsstart der Karten am 29.3. beginnt. Zu diesem Zeitpunkt sollen GTX-480-Karten bei bestimmten E-Tailern verfügbar sein.

http://www.pcgameshardware.de/aid,705737/Geforce-GTX-480-Erste-Fermi-Grafikkarte-auf-der-Cebit-gesichtet-Update-Verkaufsstart-Ende-Maerz/Grafikkarte/News/

Tesseract
2010-03-02, 22:20:53
Genau. Ich habe das Zitat nicht zur Hand, aber die Profi-Lösungen bringen einen unglaublichen Anteil am Gewinn ein.
dann berücksichtigt die marge aber keine absoluten verkaufszahlen und genau das habe ich weiter oben geschrieben.

Naja, mehr als 60%. ;)
finde ich trotzdem gut für eine schätzung ins blaue. ;)

N0Thing
2010-03-02, 22:23:20
Ja, das ist das erste Bild mit Heatpipes nach außen. Alle anderen Bilder - Twitterbild, Supercomputer und CES - waren die normale Kühllösung. Das kann nur ein Segen für die Lautstärke sein.


Hoffentlich. Ein stärkerer Kühler könnte notwendig geworden sein, um die GTX 480 auf GTX 285 Lautstärke zu halten.
Eine Änderung des Kühlers kann natürlich auch im Hinblick auf geringere Kosten vorgenommen werden, da ich die GTX 480 aber zwischen der 5870 und 5970 vermute, würde der 1. Aspekt gut in meine Welt passen. Ein besserer Kühler hält die GTX 480 auf einem angenehmen Niveau (Lautstärke und Temperatur), trotz relativ hoher Leistung und entsprechender Wärmeentwicklung.


Direkt von nVidia: http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI2NjV8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

Bei $982,5 Millionen Umsatz generierte das Quadro Business $157,8 Millionen - also ca. 16% des Gesamtumsatzes.


Gibt es so eine Tabelle auch für den Gewinn?

LovesuckZ
2010-03-02, 22:24:55
dann berücksichtigt die marge aber keine absoluten verkaufszahlen und genau das habe ich weiter oben geschrieben.


Marge = Umsatz - direkte Kosten (also pro Chip/Karte/whatever).
Das, was am Ende als Marge übrig bleibt, muss die restlichen Kosten decken.


finde ich trotzdem gut für eine schätzung ins blaue. ;)

Naja, du hättest nicht an >9% geglaubt. Du müsstest sozusagen förmlich ausflippen. :)

Hoffentlich. Ein stärkerer Kühler könnte notwendig geworden sein, um die GTX 480 auf GTX 285 Lautstärke zu halten.
Eine Änderung des Kühlers kann natürlich auch im Hinblick auf geringere Kosten vorgenommen werden, da ich die GTX 480 aber zwischen der 5870 und 5970 vermute, würde der 1. Aspekt gut in meine Welt passen. Ein besserer Kühler hält die GTX 480 auf einem angenehmen Niveau (Lautstärke und Temperatur), trotz relativ hoher Leistung und entsprechender Wärmeentwicklung.

Hoffentlich. Die GTX280 war unglaublich laut unter Last.


Gibt es so eine Tabelle auch für den Gewinn?

In den Quartals- und Jahresbericht(e) gibt es eine ausführliche Darstellung der Ergebnisse.

Armaq
2010-03-02, 22:34:35
Gewinn liegt auf dem selben Niveau wie der des Geforce-Geschäftes.

Bei geringerer Stückzahl. Es geht ja um Materialeinsatz zu Marge. Da waren die letzten Entwicklungen echt gut und das Wachstum lag gleichauf zum Mobil-Segment, welches z.Z. ja branchenübergreifend das Stärkste ist.

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI2NjV8Q2hpbGRJRD0tMXxUeXBlPTM=&t=1

http://library.corporate-ir.net/library/11/116/116466/items/329209/80388BA6-B88F-4341-8CF3-B36765E6A7CF_FY09Form10K.pdf

Seite 70. Da wird es doch interessant.

Edit: Die Amerikaner sind einfach pervers mit ihren ShareholderValue-Prinzipien. Gott wie ich diese Dokumente hasse. Sollen sie doch endlich mal eine normale GuV und Bilanz vorlegen, aus der man auch was ablesen kann. 130 Seiten Scheiße.

Nvidia hat trotz starkem Schlussquartal gerade mal so das Niveau halten können, also kann Fermi kein Renner sein. Hätte er Potential wären die Forderungen aus LuL noch viel stärker angestiegen, allerdings scheint es auch einige Gläubige unter den Geschäftspartnern zu geben. Trotzdem sind sie auf einem absteigendem Ast, den sie dringend verlassen müssen. Dabei setzt Nvidia auch voll auf die professionelle Sparte. Ich habe gerade das Paper für die Shareholder überflogen und dort geht es fast nur noch um die rechenintensiven prof. Anwendungen und den GPGPU-Vorteil. Bye bye Gamer.

Gast
2010-03-02, 22:38:26
Genau was ich meine ... die Erwartungen sinken schon bei den Fans. Und am Launch Tag wird dann ein 5% bis 10% Vorspung bejubelt. Das ist konsequent :|

Wenn du denkst das wäre eine "gute Ausgansbasis" - sry, aber bei einen Chip dieser Komplexität wäre das nichts anderes als ein Rohrkrepierer.
Die 3Mrd Transistoren mit 1,5GiB VRAM stehen erstaunlich gut gegen die 4Mrd Transistoren mit 2GiB VRAM der Konkurrenz. :)

Nazar
2010-03-02, 22:45:10
Kosh spekuliert nicht, er behauptet falsche Tatsachen. Spekulationen beruhen auf nicht offiziellen Daten. GF100 wurde von nVidia schon tot dokumentiert. Den Unterschied sollte man als Moderator kennen. :rolleyes:



Quadro macht mehr als 10% des Umsatzes aus.


Ist bei Dir auch noch was anderes als Polemik am Start?
Du schreibst um des schreibens Willen und das war es dann schon. Kein Inhalt, ständiges rezitieren fremder Tantras.
Es ist ein Graus mit ansehen zu müssen, wie Du es in kürzester Zeit schaffst wirklich jeden Thread in ein Fanboy gebashe umzumünzen.
Leider ist das der einzige Punkt, in dem man Dir Kompetenz zusprechen kann.

Nicht Love sucks, sondern Deine Kommentare.
Man kann Dich zwar ignorieren aber was hilft das, wenn Du JEDEN Thread vernichtest!?

Bitte Gast und LovesuckZ Kommentare verbieten.. danke!

Bucklew
2010-03-02, 22:51:36
Soll fermi in der nöchsten ausbaustufe nicht letztlich nur 5-10 prozent schneller sein als die hd5870? Wenn diese gerüchte zumindest zutreffend sind, wäre fermi eine ganz schöne entäuschung für gamer.
Du sagst es ;)

Bis zu den Bildern die LS gepostet hat, habe ich bisher auch keine Bilder des Kühlers mit herausragenden Heatpipes gesehen. Nur Grafikkarten mit dem bekannten Standardkühler.
Ich seh auf meiner Karte auch keine Heatpipes ohne den Plastikdeckel aufzumachen. Also bitte: Eine >200W Karte ohne Heatpipes kühlen? Das sich semiaccurate dermaßen lächerlich macht ist schon nur noch lustig ;)

Gast
2010-03-02, 22:54:14
Bitte Gast und LovesuckZ Kommentare verbieten.. danke!
Was soll das?
Nur noch nagus, tarkin und nazar erlauben?
Ich hoffe für uns alle, das diese Müllanschuldigungen gelöscht werden.

Armaq
2010-03-02, 22:56:51
Können die Mods bitte die letzten Crap-Postings löschen? Warum wird das hier toleriert?

Fetter Fettsack
2010-03-02, 22:57:03
Haltet euch doch einfach allesamt darin zurück anderen etwas unsachliches an den Kopf zu werfen und sei es noch so verlockend für euch.

san.salvador
2010-03-02, 23:03:02
Können die Mods bitte die letzten Crap-Postings löschen? Warum wird das hier toleriert?
Versuchs mal mit dem Melde-Button, Feuer im Feuer zu bekämpfen ist auch nicht das wahre, es erhöht nur die Müllmenge. ;)

Armaq
2010-03-02, 23:04:19
Versuchs mal mit dem Melde-Button, Feuer im Feuer zu bekämpfen ist auch nicht das wahre, es erhöht nur die Müllmenge. ;)
Ich hab mein Posting gemeldet. Ich will hier nicht differenzieren.

LovesuckZ
2010-03-02, 23:04:38
Wenn man den IHS des GF100 Chips mit G80, GT200 und GT200b vergleicht, dann fällt auf, dass er auf dem Niveau des G80 liegt (eventuell sogar ein winzig bisschen kleiner). Könnte ein Anzeichen für einen Die unter 500mm^2 sein.

G80: http://www.computerbase.de/bildstrecke/15886/130/
GT200: http://pics.computerbase.de/2/1/8/1/8/150.jpg
GF100: http://ic.tweakimg.net/ext/i/imagelarge/1267547764.jpeg

Dural
2010-03-02, 23:05:54
Die 5870 war seit Jahren die erste Karte,die die schnellste Karte auf dem Markt


GTX295?

5970?

fragen über fragen...

und wegen den 30% mehr Leistung als eine GTX285 zu kommen die auf eine GPU setzt die es schon seit juni 2008 (16 Monate) gibt und die dann noch auf einem älteren und grösseren herstellung prozess basiert...

aber interessant da werden 20-30% mehr beim GF100 als lächerlich bezeichnet weil er 6 Monate Später kommt, die logik möcht ich mal verstehen...

Armaq
2010-03-02, 23:07:23
Wenn man den IHS des GF100 Chips mit G80, GT200 und GT200b vergleicht, dann fällt auf, dass er auf dem Niveau des G80 liegt (eventuell sogar ein winzig bisschen kleiner). Könnte ein Anzeichen für einen Die unter 500mm^2 sein.

G80: http://www.computerbase.de/bildstrecke/15886/130/
GF100: http://ic.tweakimg.net/ext/i/imagelarge/1267547764.jpeg
Wie korrelieren denn DieSize und HeatspreaderSize?

Dural
2010-03-02, 23:10:19
GF100 HS ist 42x42mm

GT200 HS ist 45x45mm

G80 bin ich mir jetzt nicht sicher, aber das waren glaub auch 45x45mm :confused:

EDIT:

lol neben mir liegt gleich eine 8800Ultra...

G80 hat auch 42x42mm

LovesuckZ
2010-03-02, 23:12:09
Wie korrelieren denn DieSize und HeatspreaderSize?

Naiv gesagt: Je kleiner der Die, umso kleiner der Heatspreader. :D
GT200b hat auch einen kleineren Heatspreader als GT200.

/edit: Jemand sollte den HS eines G80 mal ganz fix ausmessen. An 45x45 glaube ich persönlich nicht - vergleiche Bilder bei Computerbase.de

Gast
2010-03-02, 23:12:10
5870 kann sich nicht immer klar vor die GTX 295 setzten.
Gut, das kann man noch bestreiten, aber gegen eine 4870 X2, eine AMD Karte besteht kein Zweifel. Deren Ablöse kam einige Zeit später, in Form der 5970.

So oder, so ein Wahnsinnssprung ist das nicht, vollkommen richtig Dural.

N0Thing
2010-03-02, 23:14:07
Du sagst es ;)

Ich seh auf meiner Karte auch keine Heatpipes ohne den Plastikdeckel aufzumachen. Also bitte: Eine >200W Karte ohne Heatpipes kühlen? Das sich semiaccurate dermaßen lächerlich macht ist schon nur noch lustig ;)

Wo ist bei semiaccurate zu lesen, daß eine >200W Karte ohne Heatpipes gekühlt wird? :| Da steht nur, daß auf den bisherigen Bildern keine Heatpipes zu sehen sind. The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.

In den Artikel gibt es genug Textstellen, über die man den Kopf schütteln kann, bei dieser bist du meiner Meinung nach aber über das Ziel hinaus geschossen.

Gast
2010-03-02, 23:14:44
Das ist ungefähr so sinnvoll, wie von der länge eines Autos auf die größe des Fahrers zu schließen. Sicher, statistisch gibt es einen Zusammenhang, aber für die Einzelaussage ist das ziemlich wertlos.

ks
2010-03-02, 23:15:39
Wie ist nun "GF100-375-A3" zu bewerten? - CB: http://pics.computerbase.de/2/8/6/1/4/10.jpg

<Speku>Versteckt sich dahinter eigentlich bzw. vlt ein B1, abgespeckte Version => Besserer zu fertigen, dennoch schnell genug. Daher weniger SP, dafür höher Takt / gute Skalierung über den Takt</Speku>




Spekulation/Weitere Gedanken:
nv ignoriert den Verbrauch soweit es geht, damit die Performance stimmt.
Preise werden so angelegt, dass es zu keinen _provozierten_ Preiskrieg kommt. -> Fertigung engt die Spielräume ein
Preise werden sich kaum groß bewegen. -> Ende der Preisschlacht, man teilt sich den Markt -> Da Fertigung unbefriedigend für beide ist.
„(ATI 5xxx und) die GF4xx Karten werden relativ kurz am Markt sein“ – Refresh werden relativ früh auf dem Markt sein.

Bucklew
2010-03-02, 23:18:53
Wo ist bei semiaccurate zu lesen, daß eine >200W Karte ohne Heatpipes gekühlt wird? :| Da steht nur, daß auf den bisherigen Bildern keine Heatpipes zu sehen sind. The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.

In den Artikel gibt es genug Textstellen, über die man den Kopf schütteln kann, bei dieser bist du meiner Meinung nach aber über das Ziel hinaus geschossen.
Ich brauch die Sonne nicht unbedingt direkt an zu sehen, um am Tage zu wissen, dass sie da ist ;)

Und der Satz impliziert doch sehr eindeutig, dass es da keine Heatpipes geben würde "[...] Fremi cards don't have any heat pipes at all". Um deine Interpretation genüge zu tun müsste da schon ein "visible" o.Ä. rein.

Dural
2010-03-02, 23:20:44
naja GT200 ist nur so gross wegen den 512Bit SI, die müssen ja auch alle angebunden werden.

G80 wie auch GF100 haben 384Bit, deswegen wohl auch gleich gross.

Eggcake
2010-03-02, 23:24:25
Das ist ungefähr so sinnvoll, wie von der länge eines Autos auf die größe des Fahrers zu schließen. Sicher, statistisch gibt es einen Zusammenhang, aber für die Einzelaussage ist das ziemlich wertlos.

Was soll denn das für ein Vergleich sein. Es ist eher so: von der Grösse des Kartons eines Postpakets auf die Grösse des Inhalts zu schliessen. Natürlich hat man immerwieder übergrosse Pakete, aber wie du schon selbst sagst gibt es statistisch einen Zusammenhang. Natürlich muss es nicht immer zutreffen, aber es ist ein Indiz.

Ich wage mal zu bezweifeln, dass ausser bei Extremsituationen die Länge eines Autos mit der Grösse des Fahrers korreliert :rolleyes:

Bucklew
2010-03-02, 23:27:17
Ich wage mal zu bezweifeln, dass ausser bei Extremsituationen die Länge eines Autos mit der Grösse des Fahrers korreliert :rolleyes:
Die KÖRPERgröße des Fahrers jetzt vielleicht nicht direkt, aber.... ;D;D;D;D

Dural
2010-03-02, 23:28:12
Dazu gibt es auch einige Details zu den Features sowie den Anforderungen für die GTX 480. Dabei ist unter anderem von einem 600-Watt-Netzteil mit 42 Ampere auf der 12-Volt-Leitung die Rede. Was im ersten Moment recht viel aussieht, ist in der Branche aber durchaus normal. Zum Vergleich: eine GTX 285 von XFX hat beispielsweise eine Netzteilempfehlung von 630 Watt bei 46 Ampere auf der 12-Volt-Schiene.

wie war das noch mal? 280Watt TDP? :wink:

mit meinen 250Watt +/- lag ich vor monaten wohl nicht so weit weg ;)

Odal
2010-03-02, 23:29:49
Nur so als richtig stellung, R580 war 40% grösser als G71

Leistungs mässig waren 7900GTX und 1900XTX damals aber kaum auseinader:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet

ja ähnlich wie beim G80 musste der R580 erst reifen bzw. die software dazu rauskommen

such mal ein paar neuere benches raus

z.b.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet
da vernichtet eine X1950XT eine 7950GX2 dual chip karte, oder die X1950pro vernichtet die 7900GTX

wenn man das ganze nochmal mit aktuellem zeugs testen würde sähe es ganz übel für G71 aus

Dural
2010-03-02, 23:32:06
weis ich... aber als es die software schon gab gab es auch schon R600 und G80 von dem her zählt das für mich nicht...

und übrigens kann man nicht mit 100%iger gewissheit sagen das es nicht an den Treiber liegt...

Tesseract
2010-03-02, 23:36:47
Es ist eher so: von der Grösse des Kartons eines Postpakets auf die Grösse des Inhalts zu schliessen.

es ist eher so: im karton ist sicher nichts größeres drin, als reinpasst. ;)

die größe des carriers hängt offensichtlich mit der anbindung an das PCB zusammen.

Armaq
2010-03-02, 23:42:04
Ok, also kann man kleinere Abweichungen der Die-Größe überhaupt nicht in Verbindungen mit dem HS bringen.

Anhand der letzten Dokumente und Zahlen ist für mich klar, dass der GF100 der vielleicht letzte Chip "für Gamer" ist. Nvidia hat den Trend also vor ca. 3-4 Jahren erkannt.

Die Frage ist eigentlich wann sie auf die Strategie von ATI umschwenken und nur noch "Performance-Chips" bauen. GF100 kann eigentlich aus marktwirtschaftlicher Sicht nur der letzte Jünger seiner Serie sein. Bigger and better ist nicht mehr. Die bisherigen Einbußen sind einfach zu hoch und die Aussichten im prof. Segment zu gut, um Nvidia nicht komplett umzustellen.

LovesuckZ
2010-03-02, 23:43:43
Hier ist ein besseres GTX280 Bild:
http://www.xtremesystems.org/forums/attachment.php?attachmentid=80737&stc=1&d=1213985641

Man erkennt deutlich, dass GTX280 auf der linken und rechten Seite jeweils wohl 1mm mehr hat und oben und unten eventuell 0,5mm.
Imo könnte ein GF100 Die ca. 23mmx22mm, also 506mm^2, groß sein. Von den IHS Bilder ausgehend, tippe ich sogar wirklich auf "nur" g80 Niveau - also +-484mm^2.

Ok, also kann man kleinere Abweichungen der Die-Größe überhaupt nicht in Verbindungen mit dem HS bringen.

Anhand der letzten Dokumente und Zahlen ist für mich klar, dass der GF100 der vielleicht letzte Chip "für Gamer" ist. Nvidia hat den Trend also vor ca. 3-4 Jahren erkannt.

Die Frage ist eigentlich wann sie auf die Strategie von ATI umschwenken und nur noch "Performance-Chips" bauen. GF100 kann eigentlich aus marktwirtschaftlicher Sicht nur der letzte Jünger seiner Serie sein. Bigger and better ist nicht mehr. Die bisherigen Einbußen sind einfach zu hoch und die Aussichten im prof. Segment zu gut, um Nvidia nicht komplett umzustellen.

Warum sollte nVidia Performance-Chips bauen, wenn sie laut dir garkeinen Gamerchip mehr in Zukunft mehr anbieten würden? Für das Quadro-Geschäft spielt die Die-Größe keine relevante Rolle.
Abgesehen davon ist GF100 mehr Gamer als HPC Chip.

Daredevil
2010-03-02, 23:45:12
z.b.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet
da vernichtet eine X1950XT eine 7950GX2 dual chip karte, oder die X1950pro vernichtet die 7900GTX

wenn man das ganze nochmal mit aktuellem zeugs testen würde sähe es ganz übel für G71 aus
Das dort ist eine 1950xtx, keine 1950xt.
Aber was das im Fermi Thread zutun hat, weiß ich nicht. ^^

Odal
2010-03-02, 23:47:03
http://media.bestofmicro.com/C/B/240203/original/Colorful%20GeForce%20GTX%20480.JPG

wow...ne GTX480 Verpackung:-)
weis nicht obs das schon zu sehen gab

soweit ich weiss nicht
durchaus interessant, da es schon custom verpackungen gibt wird das wohl diesmal keine fermi attrappe sein die evtl. bei nem "launch" gezeigt wird.

weiterhin weiss man jetzt sicher das der fermi 384bit breiten 1536MB ram haben wird

nicht das das jetzt soooo überraschend wäre
schade das man nicht erkennen kann was für rams verbaut sind, sonst hätte man ja schonmal über die genaue bandbreite spekulieren können

Armaq
2010-03-02, 23:49:35
Hier ist ein besseres GTX280 Bild:

Man erkennt deutlich, dass GTX280 auf der linken und rechten Seite jeweils wohl 1mm mehr hat und oben und unten eventuell 0,5mm.
Imo könnte ein GF100 Die ca. 23mmx22mm, also 506mm^2, groß sein. Von den IHS Bilder ausgehend, tippe ich sogar wirklich auf "nur" g80 Niveau - also +-484mm^2.



Warum sollte nVidia Performance-Chips bauen, wenn sie laut dir garkeinen Gamerchip mehr in Zukunft mehr anbieten würden? Für das Quadro-Geschäft spielt die Die-Größe keine relevante Rolle.
Abgesehen davon ist GF100 mehr Gamer als HPC Chip.
Weil sie dort mit dem Performance-Modell weiter Geld verdienen könnten. Die Entwicklungsarbeit wird aber im GPGPU-Bereich statt finden. Es zeichnet sich aber deutlich ab, dass Nvidia, wenn sie weiterhin so komplexe Chips bauen möchten, dies nicht im Gaming-Segment machen können.

Tesseract
2010-03-02, 23:50:37
Die Frage ist eigentlich wann sie auf die Strategie von ATI umschwenken und nur noch "Performance-Chips" bauen.

eigentlich ist dieses "betreiben am limit" sowieso totaler schwachsinn. würden alle hersteller durch die bank moderater takten/volten und im gegenzug die entwickler die anforderungen der software etwas zurücknehmen (ok, das ist momentan eh fast nie nötig) hätten wir das selbe exponenzielle wachstum über die jahre, aber dennoch immer leise, sparsame, günstigere hardware.

Dural
2010-03-02, 23:51:07
soweit ich weiss nicht
durchaus interessant, da es schon custom verpackungen gibt wird das wohl diesmal keine fermi attrappe sein die evtl. bei nem "launch" gezeigt wird.

weiterhin weiss man jetzt sicher das der fermi 384bit breiten 1536MB ram haben wird

nicht das das jetzt soooo überraschend wäre
schade das man nicht erkennen kann was für rams verbaut sind, sonst hätte man ja schonmal über die genaue bandbreite spekulieren können

ja und auf der Cebit laufen die Demos mit den Fermi "Attrappen" mit RV870 da DX11 und GT200 für PhysX Hardware ;D

die logik von manchen ist der hammer ;) zudem wohl immer noch nicht bei allen durch gekommen ist das auch A1 lief...

Armaq
2010-03-02, 23:51:37
eigentlich ist dieses "betreiben am limit" sowieso totaler schwachsinn. würden alle hersteller durch die bank moderater takten/volten und im gegenzug die entwickler die anforderungen der software etwas zurücknehmen (ok, das ist momentan eh fast nie nötig) hätten wir das selbe exponenzielle wachstum über die jahre, aber dennoch immer leise, günstige hardware.
Forderst du jetzt von zwei beinharten Konkurrenten wengier Konkurrenz? Ich hoffe nicht.

Tesseract
2010-03-02, 23:53:08
Forderst du jetzt von zwei beinharten Konkurrenten wengier Konkurrenz? Ich hoffe nicht.
nein, aber eine differenziertere betrachtung als nur lange balken und damit konkurrenz auf anderen gebieten.

LovesuckZ
2010-03-02, 23:56:09
Weil sie dort mit dem Performance-Modell weiter Geld verdienen könnten. Die Entwicklungsarbeit wird aber im GPGPU-Bereich statt finden. Es zeichnet sich aber deutlich ab, dass Nvidia, wenn sie weiterhin so komplexe Chips bauen möchten, dies nicht im Gaming-Segment machen können.

Und woraus soll ein "Performancechip" bestehen? Welche Architektur dient als Grundlage? Es ist wirtschaftlich nicht machbar zwei unterschiedliche Design zum selben Zeitpunkt zu designen. Das einzige, was nVidia eventuell in Zukunft ändern wird, ist das schnellere entwickeln der kleineren Ableger. So wie bei AMD mit Cypress und Juniper. Aber sie werden nicht an zwei unterschiedlichen Architekturen für zwei fast vollkommen unterschiedliche Marktsegmente arbeiten.
GF100 zeigt aber schon deutlich, dass sich nVidia diesem Problem bewusst ist. Viele "HPC Features" werden auch direkt für's Gaming verwendet.

Armaq
2010-03-02, 23:57:19
nein, aber eine differenziertere betrachtung als nur lange balken und damit konkurrenz auf anderen gebieten.
Auch gut, aber du weisst, dass ein Politiker, wenn er eine Wahl gewinnen will, niemals komplexe Sachverhalte und Statistiken anführen sollte? Ich glaube beim Konsumenten gilt ähnliche Regel wie beim Wähler.

Armaq
2010-03-02, 23:58:23
Und woraus soll ein "Performancechip" bestehen? Welche Architektur dient als Grundlage? Es ist wirtschaftlich nicht machbar zwei unterschiedliche Design zum selben Zeitpunkt zu designen. Das einzige, was nVidia eventuell in Zukunft ändern wird, ist das schnellere entwickeln der kleineren Ableger. So wie bei AMD mit Cypress und Juniper. Aber sie werden nicht an zwei unterschiedlichen Architekturen für zwei fast vollkommen unterschiedliche Marktsegmente arbeiten.
GF100 zeigt aber schon deutlich, dass sich nVidia diesem Problem bewusst ist. Viele "HPC Features" werden auch direkt für's Gaming verwendet.
Genau. Schnellere n1-Generationen. Darum wird es sich wohl in Zukunft bei Nvidia drehen.

Edit: Wie lang waren die Abständen von n zu n1 bei den bisherigen Architekturen?

LovesuckZ
2010-03-03, 00:04:40
Genau. Schnellere n1-Generationen. Darum wird es sich wohl in Zukunft bei Nvidia drehen.

Edit: Wie lang waren die Abständen von n zu n1 bei den bisherigen Architekturen?

G70 -> G73 (90nm) waren es knapp 7 oder 8 Monate.
G80 -> G84 (80nm) waren es 6 Monate.
G92 - G94 (blieb auf 65nm) waren es 3 Monate.
GT200 -> GT215/216/218 (40nm) wären es wohl knapp 8 Monate gewesen. Dank 40nm Problemen aber mehr als ein Jahr. :freak:

Armaq
2010-03-03, 00:07:12
G70 -> G73 (90nm) waren es knapp 7 oder 8 Monate.
G80 -> G84 (80nm) waren es 6 Monate.
G92 - G94 (blieb auf 65nm) waren es 3 Monate.
GT200 -> GT215/216/218 (40nm) wären es wohl knapp 8 Monate gewesen. Dank 40nm Problemen aber mehr als ein Jahr. :freak:
Ausgehend von dem optimalen G92-Ergebnis würde ich sagen, dass man dort ansetzt. Der Gamer merkt gar nicht, wenn er ein Profi-Ableger 3 Monate später bekommt. Dürfte ein gutes Ziel sein, zumal man so auch gut die Order bei den Auftragsfertigern differenzieren kann.

Ist spät, gute Nacht.

N0Thing
2010-03-03, 00:14:01
Ich brauch die Sonne nicht unbedingt direkt an zu sehen, um am Tage zu wissen, dass sie da ist ;)

Und der Satz impliziert doch sehr eindeutig, dass es da keine Heatpipes geben würde "[...] Fremi cards don't have any heat pipes at all". Um deine Interpretation genüge zu tun müsste da schon ein "visible" o.Ä. rein.


Das ist doch jetzt nicht dein Ernst, oder? Der Satz, den du hier absichtlich (!) verkürzt zitierst, bezieht sich eindeutig die Bilder der Grafikkarten und nicht auf die Grafikkarten an sich.

The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.

Dein Beitrag ist eine absichtliche Verfälschung der Aussage. Auch wenn Semiaccurate oft genug offensichtlichen Unsinn präsentiert, habe ich kein Verständnis für dein Verhalten.

Dural
2010-03-03, 00:14:41
G98 gab es schon vor dem G92 nur so als info ;)

LovesuckZ
2010-03-03, 00:19:55
G98 gab es schon vor dem G92 nur so als info ;)

Quelle?

Odal
2010-03-03, 00:20:33
ja und auf der Cebit laufen die Demos mit den Fermi "Attrappen" mit RV870 da DX11 und GT200 für PhysX Hardware ;D

die logik von manchen ist der hammer ;) zudem wohl immer noch nicht bei allen durch gekommen ist das auch A1 lief...


ich rede ja nicht von irgendwelchen engineering pcbs wo irgendwas lauffähig zusammengeklatscht wird, sondern von retail karten die so auch beim Kunden ankommen

und davon kann man jetzt ausgehen das es ab launch auch welche geben wird (wieviel is ne andere frage), sonst gäbe es noch keine kartons wenns ein reiner paper launch werden würde, und retail fermis noch 1-2 monate auf sich warten liessen

Bucklew
2010-03-03, 00:54:04
Das ist doch jetzt nicht dein Ernst, oder? Der Satz, den du hier absichtlich (!) verkürzt zitierst, bezieht sich eindeutig die Bilder der Grafikkarten und nicht auf die Grafikkarten an sich.

The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.

Dein Beitrag ist eine absichtliche Verfälschung der Aussage. Auch wenn Semiaccurate oft genug offensichtlichen Unsinn präsentiert, habe ich kein Verständnis für dein Verhalten.
Der Satz ist kompletter Schmuh, egal wie man es dreht und wendet. Wortwörtlich übersetzt würde er bedeuten "Die Bilder, die wir bisher von Fermikarten gesehen haben, hatten überhaupt keine Heatpipes". Warum sollten die Bilder keine Heatpipes haben? Daher fehlt da schlichtweg ein Wort. Entweder muss man klar sagen, dass die Bilder bisher keine Heatpipes gezeigt haben, oder das die Fermikarten auf den Bilder bisher keine Heatpipes hatten (das letztere ist aber auch Quatsch, sie hatten ja Heatpipes, man hat es nur nicht gesehen).

Grundsätzlich scheint der Autor seine Probleme mit dem Englischen zu haben, da sind ja noch einige andere grauenhafte Satzkonstruktionen bei, wo sich die Fußnägel kräuseln....

Dural
2010-03-03, 01:05:17
Die ersten G98 wurden schon vor dem G92 als OEM versionen der 8400GS ausgeliefert.

Quelle keine (google findet sicher was)

@Odal

Naja die GTX470 sieht mir sehr nach Retail Karte aus, oder vorserie Retail Karte... aber aufjeden fall ein Endprodukt (Schutzfolie auf dem Kühler, Kleber auf der Rückseite)

mapel110
2010-03-03, 02:48:32
http://lab501.ro/stiri/cebit-2010-gigabyte-gtx-480-si-gtx-470-gata-de-lansare
Scheinbar sind die Retailboxen noch nicht ganz richtig beschriftet. Brauchen wohl auch einen Respin. ^^

Odal
2010-03-03, 03:58:02
naja da haben sie sich auf der seite bei der GTX470 vertan ^^

aber anhand des kartons kann man schonmal erkennen das die GTX470 mit 320bit breitem 1280MB ram kommt

was imho ziemlich stark daraufhin deutet das die GTX470 mit 448SP und die GTX480 mit 512SP kommt

Ailuros
2010-03-03, 05:51:45
http://forum.beyond3d.com/showpost.php?p=1401420&postcount=2392

http://img.photobucket.com/albums/v455/lixianglover/1003021741130d7952535f9b0a.jpg

Vantage P16600
crysis,1920X1200 veryhigh+8x aa,24fps
crysis,1920X1200 veryhigh+No aa,53fps


Rumor from Chinese forum~
http://mylab.q.yesky.com/thread-121-1-1.html

GTX470:

1296MHz hot clock, 1.28 GB 800MHz GDDR5, 320bit

Nichts Neues im Vergleich zu meinen vorigen "Spekulationen". 3dfart P Vantage fuer 480 IMHO =/<22k.

Gast
2010-03-03, 07:22:18
ja ähnlich wie beim G80 musste der R580 erst reifen bzw. die software dazu rauskommen

such mal ein paar neuere benches raus

z.b.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet
da vernichtet eine X1950XT eine 7950GX2 dual chip karte, oder die X1950pro vernichtet die 7900GTX

wenn man das ganze nochmal mit aktuellem zeugs testen würde sähe es ganz übel für G71 ausEr schrieb "damals".
X1900 und 7900 waren zeitgleich, X1950 später.
Nimm den Test: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating_qualitaet
Zum Launch sah es noch sehr gut aus, für den kleinen Mittelklassechip G71. Das es später anders aussieht wissen wir alle, darum gings nicht.

Gast
2010-03-03, 07:40:47
3dfart P Vantage fuer 480 IMHO =/<22k.

Hm, das wäre nicht wirklich weit vor einer 5870:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7832905&postcount=597

Ailuros
2010-03-03, 08:04:36
Hm, das wäre nicht wirklich weit vor einer 5870:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7832905&postcount=597

Kommt auf das System an: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/5/#abschnitt_3dmark_vantage

und natuerlich ist eine uebertaktete 5870+8800GT durchaus Vergleichsmaterial :rolleyes:

MR2
2010-03-03, 08:26:25
Crysis find ich da interessanter:

http://www.tomshardware.com/de/radeon-hd-5870,testberichte-240410-13.html

Crysis 1920x1200, 8xAA, 0AF, HD5870, Very High

31,4

Crysis 1920x1200, 0xAA, 0AF, HD5870, Very High

35,1

desert
2010-03-03, 08:31:28
Crysis find ich da interessanter:

http://www.tomshardware.com/de/radeon-hd-5870,testberichte-240410-13.html

Crysis 1920x1200, 8xAA, 0AF, HD5870, Very High

31,4

Crysis 1920x1200, 0xAA, 0AF, HD5870, Very High

35,1

Irgendwas stimmt hier nicht, bei 8aa verliert die 5870 mehr als gerade mal 4 fps, z.b. computerbase von 33 auf 22.

boxleitnerb
2010-03-03, 08:32:30
Sollten die Crysis-Werte stimmen, hätte man aber nicht wirklich am 8xAA gearbeitet. Heftiger Performancehit im Vergleich zu der Radeon.

Fetter Fettsack
2010-03-03, 08:34:33
Der Satz ist kompletter Schmuh, egal wie man es dreht und wendet. Wortwörtlich übersetzt würde er bedeuten "Die Bilder, die wir bisher von Fermikarten gesehen haben, hatten überhaupt keine Heatpipes". Warum sollten die Bilder keine Heatpipes haben?

Im Englischen ist meines Wissens nach die doppelte Verneinung als Bestärkung der Aussage durchaus gebräuchlich (im Gegensatz zur deutschen Sprache). Daher würde der Satz sehr wohl (grammatisch) Sinn machen.

Ailuros
2010-03-03, 08:39:40
Crysis find ich da interessanter:

http://www.tomshardware.com/de/radeon-hd-5870,testberichte-240410-13.html

Crysis 1920x1200, 8xAA, 0AF, HD5870, Very High

31,4

Crysis 1920x1200, 0xAA, 0AF, HD5870, Very High

35,1

Der angebliche score der 470 sagt mir momentan nichts weil er einen Verlust von 1x auf 8xMSAA von ~55% zeigt.

Die angeblichen 53fps klingen auch nach bullshit weil: http://www.xbitlabs.com/articles/video/display/radeon-hd5870-cpu-scaling_4.html#sect1

Die GTX285 im tomshw link oben ist bei 1xAA auf 24.9 fps und mit 8xAA auf 19.5fps was einem Verlust von knapp 22% entspricht.

Irgendwas stimmt hier nicht, bei 8aa verliert die 5870 mehr als gerade mal 4 fps, z.b. computerbase von 33 auf 22.

Uhmm ich kann auf CB nur Crysis Warhead scores finden und auch vorsicht denn Tom's Messungen sind ohne AF.

desert
2010-03-03, 08:40:16
Sollten die Crysis-Werte stimmen, hätte man aber nicht wirklich am 8xAA gearbeitet. Heftiger Performancehit im Vergleich zu der Radeon.


Auch im vergleich zu einer gtx 285, die verliert runde 40 % bei 8aa und die gtx470 soll runde 55 % verlieren. Unrealistisch

Ailuros
2010-03-03, 08:44:21
Sollten die Crysis-Werte stimmen, hätte man aber nicht wirklich am 8xAA gearbeitet. Heftiger Performancehit im Vergleich zu der Radeon.

Ich glaub erstmal wie oben notiert NICHT an die 53fps 1xAA scores in Crysis (very high/1920).

Zwar nicht relevant zum obrigen aber der 196.78 ist alles andere als der GF100 Launchtreiber.

Reaping_Ant
2010-03-03, 08:46:55
Die genannten Crysis Werte sagen doch (so sie denn stimmen) rein gar nichts aus. Weder im Bezug auf Vergleichbarkeit mit der Konkurrenz (Welche Szene? Wie sah der Rest des Systems aus?) noch auf den Vergleich zwischen mit und ohne AA (War es reines MSAA oder CSAA? TMAA an oder aus (insbesondere da CSAA jetzt ja auch auf Tranzparenzen wirken soll)?).

Der Vantage Score liegt im Rahmen der Erwartungen, die restlichen Specs auch. Sollten die Daten wirklich stimmen, stellt die zumindest die GTX 470 leider keinen sonderlichen Anreiz zum Upgrade von einer GTX 285 dar. Mal schauen, was die GTX 480 denn an Mehrleistung bringt.

desert
2010-03-03, 08:48:20
Die genannten Crysis Werte sagen doch (so sie denn stimmen) rein gar nichts aus. Weder im Bezug auf Vergleichbarkeit mit der Konkurrenz (Welche Szene? Wie sah der Rest des Systems aus?) noch auf den Vergleich zwischen mit und ohne AA (War es reines MSAA oder CSAA? TMAA an oder aus (insbesondere da CSAA jetzt ja auch auf Tranzparenzen wirken soll)?).

Der Vantage Score liegt im Rahmen der Erwartungen, die restlichen Specs auch. Sollten die Daten wirklich stimmen, stellt die zumindest die GTX 470 leider keinen sonderlichen Anreiz zum Upgrade von einer GTX 285 dar. Mal schauen, was die GTX 480 denn an Mehrleistung bringt.

Tja das oder 5970, aber ich will kein mgpu:mad:

Ailuros
2010-03-03, 08:51:12
Der Vantage Score liegt im Rahmen der Erwartungen, die restlichen Specs auch. Sollten die Daten wirklich stimmen, stellt die zumindest die GTX 470 leider keinen sonderlichen Anreiz zum Upgrade von einer GTX 285 dar. Mal schauen, was die GTX 480 denn an Mehrleistung bringt.

Die 470 wird sich irgendwo (+/-) auf GTX295 Nivaeu bewegen. Ich weiss zwar nicht wer und warum von einer 470 mit dem Preis eher etwas in Richtung 2*295 erwartet hat, aber dann ist es natuerlich ein anderes Kapitel. Zu einer GTX260/275 ist die 470 ein durchaus anstaendiger upgrade.

desert
2010-03-03, 08:55:40
Die 470 wird sich irgendwo (+/-) auf GTX295 Nivaeu bewegen. Ich weiss zwar nicht wer und warum von einer 470 mit dem Preis eher etwas in Richtung 2*295 erwartet hat, aber dann ist es natuerlich ein anderes Kapitel. Zu einer GTX260/275 ist die 470 ein durchaus anstaendiger upgrade.

Das ist korrekt, nur für mich muss es schon was grösseres sein. Der abstand der 5870 ist zu klein für mich, also hoffe ich darauf das nvidia ein grosser wurf gelingt.

Ailuros
2010-03-03, 09:00:23
Das ist korrekt, nur für mich muss es schon was grösseres sein. Der abstand der 5870 ist zu klein für mich, also hoffe ich darauf das nvidia ein grosser wurf gelingt.

Kein Zweifel, nur hab ich nie persoenlich erwartet dass die zweitbeste GF100 Variante eine 5870 versaegen wird.

Im Gegenfall wuerde dann auch die 480 die 5970 problemlos versaegen.

***edit: nebenbei Leistung in A, B oder C ist ja schoen und gut aber ich will trotz allem wissen was mit AF auf GF100 bezueglich Leistung bei hoechster Qualitaet genau vorgeht. Wenn eine jegliche GF100 ungefaehr genauso wenig von Treiber default auf high quality wie G8x/GT200 einbricht dann hab ich auch keinen Grund zur Unruhe; im Gegenfall geht ein fuer mich wichtiger Punkt erstmal den Bach runter. Und ja natuerlich ist es nicht direkt zum obrigen verbunden aber sture fps auf Papier erzaehlen mir auch nicht die Geschichte die ich wirklich am Ende auf meinem Bildschirm sehen will.

Reaping_Ant
2010-03-03, 09:04:38
Zu einer GTX260/275 ist die 470 ein durchaus anstaendiger upgrade.

Das stimmt natürlich. Es bleibt halt die Frage wie die endgültige Preisgestaltung der Karten aussieht.

Hat sich die Vermutung, dass die die Double Precision Leistung bei den Desktopkarten auf ein Viertel reduziert wird, eigentlich bestätigt, oder ist das weiterhin ein Gerücht?
Mir ist klar, dass die DP Leistung der Karten den meisten Käufern relativ egal ist, aber für mich wäre eine ordentliche Leistung in dem Bereich durchaus ein Kaufgrund und die Teslas liegen wohl außerhalb meiner finanziellen Möglichkeiten.

Undertaker
2010-03-03, 09:06:52
GTX470:

1296MHz hot clock, 1.28 GB 800MHz GDDR5, 320bit


Imho ist die Speicherbestückung unlogisch. Warum so langsamer 800MHz GDDR5? Schon eine 60€ GT240 hat 900MHz, eine 70€ HD5670 1000MHz (für 80€ auch als 1GB Version) - die Preisunterschiede scheinen also viel zu minimal, als das es Sinn macht auf eine so langsame Taktrate zu setzen.
Das man es sich leisten kann, die GTX470 (zur Stärkung der GTX480) künstlich einzubremsen, wäre bei der aktuellen Marktlage ebensowenig eine schlaue Entscheidung.

Deinorius
2010-03-03, 09:09:00
Hinsichtlich Double Precision:
Könnte es sein, dass nvidia bei den kleineren GPUs die DP-Einheiten auch so kastriert hat, dass sich auch ein Vorteil in der DIE Größe ergibt? Ich weiß nicht, ob damit auch andere Funktionen einen Nachteil erhalten würden.
Zumindest wäre DP in den billigeren Bereichen noch uninteressanter.

Ailuros
2010-03-03, 09:10:30
Das stimmt natürlich. Es bleibt halt die Frage wie die endgültige Preisgestaltung der Karten aussieht.

Ich erwarte nach Angaben ein ca. 20% premium fuer den Preis ab 470 und nach weiter unten. Der Preis ist IMO sogar um 20% zu hoch wenn es stimmt, aber es macht es als Loesung auch nicht unattraktiv wenn alles andere stimmen sollte. Anders ich bin so verrueckt 20% mehr zu bezahlen wenn ich ohne besonderen Leistungsverlust HQ AF haben kann. Aber auch nur theoretisch da ich sowieso irgendwo Mitte 2010 aufrueste und dann eher eine 480 als Kandidaten im Hinterkopf habe, wenn alles andere stimmt. Wenn nicht deckt mich eine 5870 auch vollkommen ab.

Hat sich die Vermutung, dass die die Double Precision Leistung bei den Desktopkarten auf ein Viertel reduziert wird, eigentlich bestätigt, oder ist das weiterhin ein Gerücht?

Dass reduziert wird sollte sicher sein. Um wie viel genau keine Ahnung. Auf GF104 erwarte ich sogar gar nichts von dem Zeug.

Mir ist klar, dass die DP Leistung der Karten den meisten Käufern relativ egal ist, aber für mich wäre eine ordentliche Leistung in dem Bereich durchaus ein Kaufgrund und die Teslas liegen wohl außerhalb meiner finanziellen Möglichkeiten.

5870 = 544GFLOPs/s DP nuff said ;)

desert
2010-03-03, 09:13:20
Kein Zweifel, nur hab ich nie persoenlich erwartet dass die zweitbeste GF100 Variante eine 5870 versaegen wird.

Im Gegenfall wuerde dann auch die 480 die 5970 problemlos versaegen.

***edit: nebenbei Leistung in A, B oder C ist ja schoen und gut aber ich will trotz allem wissen was mit AF auf GF100 bezueglich Leistung bei hoechster Qualitaet genau vorgeht. Wenn eine jegliche GF100 ungefaehr genauso wenig von Treiber default auf high quality wie G8x/GT200 einbricht dann hab ich auch keinen Grund zur Unruhe; im Gegenfall geht ein fuer mich wichtiger Punkt erstmal den Bach runter. Und ja natuerlich ist es nicht direkt zum obrigen verbunden aber sture fps auf Papier erzaehlen mir auch nicht die Geschichte die ich wirklich am Ende auf meinem Bildschirm sehen will.

Ich gehe davon aus das nivdia die filterqualität beibehält und auch das der verlust sich im rahmen von g80 und g200 bewegt, hoffe aber noch auf hybrid oder ssaa modi direkt im treiber anwählbar um hier nicht angreifbar für die ati fanboys zu werden. Für die ist ja neuerdings ssaa das überfeature überhaupt.

AnarchX
2010-03-03, 09:23:50
Bei 4Gamer hat man auf der Cebit wohl erfahren, dass es der GTX 480 ähnlich wie der 5800 Ultra ergehen könnte: http://translate.google.de/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20100303021%2F&sl=ja&tl=en&hl=&ie=UTF-8
... sehr geringe Stückzahlen zum Start und danach gleich eine neue Revision, in diesem Fall wohl GF100b.

Odal
2010-03-03, 09:24:07
Imho ist die Speicherbestückung unlogisch. Warum so langsamer 800MHz GDDR5? Schon eine 60€ GT240 hat 900MHz, eine 70€ HD5670 1000MHz (für 80€ auch als 1GB Version) - die Preisunterschiede scheinen also viel zu minimal, als das es Sinn macht auf eine so langsame Taktrate zu setzen.
Das man es sich leisten kann, die GTX470 (zur Stärkung der GTX480) künstlich einzubremsen, wäre bei der aktuellen Marktlage ebensowenig eine schlaue Entscheidung.

imho is das einfach ein irrtum oder übersetzungsfehler

kann ich mir nicht vorstellen das die GTX480 mit 384Bit speicherinterface @1600Mhz kommt und die GTX470 weniger als die halbe bandbreite bekommt mit 320bit @800Mhz

ich vermute mal das die GTX470 auch 1600Mhz ram drauf hat@320bit breite

die einzige imho irrsinnige erklärung wäre das GTX470 gegen 5870 aufgestellt ist wofür die 800Mhz reichen und GTX480 mit der Bandbreite deutlich davor auf HD5970 nivea landet

AnarchX
2010-03-03, 09:26:15
imho is das einfach ein irrtum oder übersetzungsfehler

kann ich mir nicht vorstellen das die GTX480 mit 384Bit speicherinterface @1600Mhz kommt und die GTX470 weniger als die halbe bandbreite bekommt mit 320bit @800Mhz

ich vermute mal das die GTX470 auch 1600Mhz ram drauf hat@320bit breite

Die GTX 470 hat ja auch 3,2GBps GDDR5 mit 800MHz Command- und 1600MHz Data-Clock.
Bei der GTX 480 kommt wohl 4Gbps GDDR5 zum Einsatz, damit hat sie 50% mehr Bandbreite als die 470.

Die 470 wird sich irgendwo (+/-) auf GTX295 Nivaeu bewegen.
Jetzt noch ein Preis von 200€ und man hätte gerade so ein angemessenes Langzeit-Preis-Leistungs-Verhältnis für das Q2 2010. ;)

Reaping_Ant
2010-03-03, 09:31:17
5870 = 544GFLOPs/s DP nuff said ;)

Klar, was DP angeht hat die 5870 eine ordentliche Leistung, allerdings habe ich mich mit 3DVision vorerst an NV gebunden. Ist halt dumm, wenn man mit dem selben PC zocken, Filme schauen und stochastische Differentialgleichungen simulieren will.

Zum Speichertakt: Könnte da auch die Leistungsaufnahme eine Rolle spielen? Mit niedriger getaktetem Speicher lässt sich sicher das ein oder andere Watt einsparen.
Eventuell versucht man auch durch möglichst günstigen Speicher trotz teurer GPU noch ein akzeptables Preisniveau zu erzielen.

Schlammsau
2010-03-03, 09:32:55
Ich gehe davon aus das nivdia die filterqualität beibehält und auch das der verlust sich im rahmen von g80 und g200 bewegt, hoffe aber noch auf hybrid oder ssaa modi direkt im treiber anwählbar um hier nicht angreifbar für die ati fanboys zu werden. Für die ist ja neuerdings ssaa das überfeature überhaupt.

Aber nur weil es zu Zeiten des G2xx und RV7xx das Überfeature der Geforce war. ;)
ATi bietet mit SGSSAA jetzt sogar noch besseres SSAA als nVidia an, und es wird von dir gleich abgewertet. :freak:!

AnarchX
2010-03-03, 09:34:58
möglichst günstigen Speicher trotz teurer GPU noch ein akzeptables Preisniveau zu erzielen.
1.6 statt 2GHz dürfte wohl auch die Anforderungen an das PCB senken, wobei das dann wieder eher zur $299 P/L-Offensive passen würde.

Undertaker
2010-03-03, 09:39:48
Nur wären 1000-1200MHz für die GTX470 bei 256Bit/1024MB nicht noch günstiger gewesen... :confused:

AnarchX
2010-03-03, 09:44:36
Nur wären 1000-1200MHz für die GTX470 bei 256Bit/1024MB nicht noch günstiger gewesen... :confused:
Da hätte aber auch die ROP-Leistung drastisch reduziert bzw. hätte hier den Takt deutlich erhöhen müssen.
Auch wenn der Speicher nur mit 3,2Gbps läuft wird es wohl 0,5ns 4Gbps Speicher sein, der mittlerweile doch Massenware ist.
Und daneben bietet dieser niedrigere Takt ja auch noch das Potential für OC-SKUs und später für eine GTX 475.

desert
2010-03-03, 09:48:32
Aber nur weil es zu Zeiten des G2xx und RV7xx das Überfeature der Geforce war. ;)
ATi bietet mit SGSSAA jetzt sogar noch besseres SSAA als nVidia an, und es wird von dir gleich abgewertet. :freak:!

wo wird ssaa von mir abgewertet? Ich bin ein ssaa fan. Es wurde von den ganzen ati fans jahrelang abgewertet, auch von dir. Es wurde immer gesagt unwichtig usw. Und jetzt erfreuen sich plötzlich die ati-jünger an ssaa und setzen es ein um das flimmern der texturen zu unterdrücken, etwas was sie jahrelang angeblich nie gesehen haben ;)

Schlammsau
2010-03-03, 09:58:35
wo wird ssaa von mir abgewertet? Ich bin ein ssaa fan. Es wurde von den ganzen ati fans jahrelang abgewertet, auch von dir. Es wurde immer gesagt unwichtig usw. Und jetzt erfreuen sich plötzlich die ati-jünger an ssaa und setzen es ein um das flimmern der texturen zu unterdrücken, etwas was sie jahrelang angeblich nie gesehen haben ;)

Ach auch von mir??? :confused:
Ich habe es nie abgewertet, habe wenn dann nur gesagt, dass es mir nicht so wichtig ist. Hab auch immer die nVidias dafür gelobt, dass sie es, wenn auch nur inoffiziell können.

Für mich bleibt SSAA aber weiterhin "nur" ein Nice 2 have.....

Armaq
2010-03-03, 10:06:18
Die GTX 470 hat ja auch 3,2GBps GDDR5 mit 800MHz Command- und 1600MHz Data-Clock.
Bei der GTX 480 kommt wohl 4Gbps GDDR5 zum Einsatz, damit hat sie 50% mehr Bandbreite als die 470.


Jetzt noch ein Preis von 200€ und man hätte gerade so ein angemessenes Langzeit-Preis-Leistungs-Verhältnis für das Q2 2010. ;)
4Gbps wurden doch erst vor einer Woche spezifiert? Zumindest von Samsung.

Edit: Um nochmal zum Preis zurück zu kommen, muss gesagt sein, dass Nvidia z.Z. einfach nur Umsatz braucht und ihr Gewinn ein wenig nebensächlich erscheint. Sie haben ziemlich gute Kapitalpolster. Also wäre ein Preiskampf auf Ebene der 470 einfach nur logisch. ABER die schlechte bis überhaupt nicht vorhandene Lieferbarkeit einer 480 macht dem natürlich einen fetten Strich durch die Rechnung. Ich kann zwar die 470 für effektive 230€ anbieten, aber wenn ich darüber nichts habe, werden die Reseller die Preise der 470 anheben.

LovesuckZ
2010-03-03, 10:08:18
1.6 statt 2GHz dürfte wohl auch die Anforderungen an das PCB senken, wobei das dann wieder eher zur $299 P/L-Offensive passen würde.

$299 - wir kommen. :up:
Sieht alles stark danach aus. Ein möglicher 48xmm^2 Die, nur 10 GDDR5 Speichersteine mit niedriger Taktung, nicht so aufwendige Platine, "billige" Kühllösung. Taktraten sind soweit reduziert, dass man wohl deutlich unter 225 Watt bleiben wird.
Wird noch richtig interessant werden.

AnarchX
2010-03-03, 10:10:42
4Gbps wurden doch erst vor einer Woche spezifiert? Zumindest von Samsung.
Du meinst wohl 4GHz GDDR5, was dann pro Pin 8GBit/s bedeutet?
0.5ns/4GBps GDDR5 gibt es schon seit Anfang 2008.
AMD setzt auf allen Karten bis auf der 5670 0.4ns/5Gbps GDDR5 ein und gegen Ende des Jahres sind Karten mit 0.33ns/6Gbps denkbar.

James Ryan
2010-03-03, 10:11:39
$299 - wir kommen. :up:
Sieht alles stark danach aus. Ein möglicher 48xmm^2 Die, nur 10 GDDR5 Speichersteine mit niedriger Taktung, nicht so aufwendige Platine, "billige" Kühllösung. Taktraten sind soweit reduziert, dass man wohl deutlich unter 225 Watt bleiben wird.
Wird noch richtig interessant werden.

Bleibt abzuwarten wie die Leistung bei derartigen Sparmaßnahmen am Ende aussehen wird.

MfG :cool:

LovesuckZ
2010-03-03, 10:13:05
Bleibt abzuwarten wie die Leistung bei derartigen Sparmaßnahmen am Ende aussehen wird.

MfG :cool:

5870 Niveau. Großes Fragezeichen steht hinter DX11 - CS und Tessellation.

Bucklew
2010-03-03, 10:20:24
Im Englischen ist meines Wissens nach die doppelte Verneinung als Bestärkung der Aussage durchaus gebräuchlich (im Gegensatz zur deutschen Sprache). Daher würde der Satz sehr wohl (grammatisch) Sinn machen.
Nein, dazu müsste man den hinteren Teil des Satzes auf die Fermikarten beziehen, er bezieht sich aber auf die Bilder.

Armaq
2010-03-03, 10:21:53
Du meinst wohl 4GHz GDDR5, was dann pro Pin 8GBit/s bedeutet?
0.5ns/4GBps GDDR5 gibt es schon seit Anfang 2008.
AMD setzt auf allen Karten bis auf der 5670 0.4ns/5Gbps GDDR5 ein und gegen Ende des Jahres sind Karten mit 0.33ns/6Gbps denkbar.
Danke.

Fetter Fettsack
2010-03-03, 10:32:01
@Bucklew


The pictures we’ve seen so far of Fermi cards don’t have any heat pipes at all.

Also mir scheint die Verwendung von "do not" als eine Negierung interpretierbar zu sein. Das "any" wird dann als Bestärkung verwendet. Ich bin da zwar nicht dermaßen bewandert, aber wenn statt "any" "some" dort stünde, so wäre dies meines Wissens nach stilistisch (und eventuell auch grammatikalisch) falsch.

Allerdings sollten wir uns hier nicht in einer Grammatikdiskussion verstricken, es gibt um einiges interessantere Infos hier, als dass wir über das Vorhandensein von Heatpipes spekulieren müssten. :)

Tesseract
2010-03-03, 10:40:32
leute, wenn ihr kein englisch könnt diskutiert nicht seitenlang sinnlos über den satz rum. :D

der bedeutet einfach so viel wie: "die bilder zeigen keine heatpipes". das ist alles.

deekey777
2010-03-03, 10:42:42
Hinsichtlich Double Precision:
Könnte es sein, dass nvidia bei den kleineren GPUs die DP-Einheiten auch so kastriert hat, dass sich auch ein Vorteil in der Die-Größe ergibt? Ich weiß nicht, ob damit auch andere Funktionen einen Nachteil erhalten würden.
Zumindest wäre DP in den billigeren Bereichen noch uninteressanter.
Es ist wahrscheinlicher, dass nur der GF100 DP-fähig ist, der Rest aber bei SP bleibt.
Ob das jetzt wirklich ein Vorteil ist, wenn es um die Die-Größe geht, weiß ich nicht.

Fetter Fettsack
2010-03-03, 10:43:05
@Tesseract
Meine Rede. Allerdings versuche ich tunlichst nicht so zu tun, als ob ich eine absolute Weisheit von mir gäbe, was sich in meiner Relativiererei ausdrückt.

nagus
2010-03-03, 10:43:22
Klar, und die GTX480 wird genauso scheisse, wie Charlie ständig behauptet ;D

richtig. hast dus auch endlich verstanden?

nachdem was auf der cebit so gemunkelt wird, den crysis benchmarks (http://forum.beyond3d.com/showpost.php?p=1401420&postcount=2392) usw., sollte es sogar ein fanboy deines kalibers endlich checken. da hilft auch kein "selbst 5% schneller als 5870, blah blah" .... das wird nvidias EPIC FAIL dieser dekade.

Gast
2010-03-03, 10:54:56
wieso bannt man den vogel über mir eigentlich nicht endlich mal?
das einzige was von ihm kommt sind NUR flames gegen nvidia....

sei es in nem post, avatar, signatur, .... echt affig

Armaq
2010-03-03, 10:56:20
richtig. hast dus auch endlich verstanden?

nachdem was auf der cebit so gemunkelt wird, den crysis benchmarks (http://forum.beyond3d.com/showpost.php?p=1401420&postcount=2392) usw., sollte es sogar ein fanboy deines kalibers endlich checken. da hilft auch kein "selbst 5% schneller als 5870, blah blah" .... das wird nvidias EPIC FAIL dieser dekade.
Schwachsinn. Es wird nur nicht der Chip den sich manche erhoffen. Es wird kein Fehlschlag für Nvidia, er wird nur die Neuausrichtung beschleunigen.

Tarkin
2010-03-03, 10:56:27
Bei 4Gamer hat man auf der Cebit wohl erfahren, dass es der GTX 480 ähnlich wie der 5800 Ultra ergehen könnte: http://translate.google.de/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20100303021%2F&sl=ja&tl=en&hl=&ie=UTF-8
... sehr geringe Stückzahlen zum Start und danach gleich eine neue Revision, in diesem Fall wohl GF100b.

Ich fasse mal zusammen:

Also 5000 Stück 480er, dann bis Sommer/Herbst nichts mehr. Bis man eine "gefixte" 485er mit vollen 512sp bringt die gegen AMDs Refresh antritt.

Bis dahin hält man mit einer schlecht verfügbaren 470er (die auf 5850 Niveau kommt und trotzdem fast so teurer ist wie eine 5870er) dagegen.

Bin gespannt wie man das "spinnen" will.

Neliz muss man wirklich zu seinen Quellen gratulieren... seine Voraussagen dürften sich bewahrheiten.

igg
2010-03-03, 11:06:37
.... das wird nvidias EPIC FAIL dieser dekade.
Das werden wir sehen...

Du wirst vermutlich auch dann eine ATI kaufen, wenn sie ein schlechteres P/L hat, weil sie als erster am Markt waren und zudem moralischer Performancesieger sind, gell?

Grüße nach Gondor...

Menace
2010-03-03, 11:13:18
Ich fasse mal zusammen:
Bis man eine "gefixte" 485er mit vollen 512sp bringt die gegen AMDs Refresh antritt.


Bei aller Sympathie zur AMD/ATI, aber Dein Optimismus bzgl. Refreshes von Ati ist erstaunlich. Ich sehe momentan keine entsprechende Grafikkarte, die da aus dem Hut gezaubert werden könnte.

Die eher kritische Seite äußert sich heute wie folgt:

Die GeForce GTX 470 wird die GeForce GTX 285 übertreffen. Je nach Szenario dürften hier bis zu 30% mehr Performance drin sein. Das reicht allerdings nicht, um der ATI Konkurrenz komplett richtig Paroli zu bieten,

Hier kommt die GeForce GTX 480 ins Spiel, welche die Radeon HD 5870 wahrscheinlich deutlich hinter sich lassen wird. Die große Frage wird sein, ob es von der Performance her für die Radeon HD 5970 reichen wird. Und natürlich ob und was AMD in Petto haben wird.

Quelle: http://www.tweakpc.de/news/17960/nvidia-geforce-gtx-480-doppelt-so-schnell-bei-tesselation/

tweakpc habe ich im Laufe der Fermi-Spekulationen häufig kritisch hinterfragend erlebt (so wie es eigentlich sein sollte). Kommen die zu diesem Schluss, dann ist viel Besser als von vielen hier erwartet bzgw. erhofft wird.

Tarkin
2010-03-03, 11:21:21
Das werden wir sehen...

Du wirst vermutlich auch dann eine ATI kaufen, wenn sie ein schlechteres P/L hat, weil sie als erster am Markt waren und zudem moralischer Performancesieger sind, gell?

Grüße nach Gondor...

was P/L Verhältnis angeht, so steht AMD bei weitem besser da als nVidia.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/23/#abschnitt_preisleistungverhaeltnis

und hier ist eine 285er noch mit 280 Euro, die 5870 mit 380 Euro angeführt

doch wie siehts aktuell aus:

http://geizhals.at/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20285&sort=p

310 Euro für lagernde 285er - die günstigste 5850er gibts ab 280. 5870 ab 360.

Odal
2010-03-03, 11:21:36
puh ich glaub es wäre an der zeit das jemand ein blog mit charlies gesamten meldungen/spezifikationen zusammenstellt

DAS könnte durchaus interessant werden

Menace
2010-03-03, 11:23:25
puh ich glaub es wäre an der zeit das jemand ein blog mit charlies gesamten meldungen/spezifikationen zusammenstellt

DAS könnte durchaus interessant werden

Bitte nur im Zusammenhang der Fudzilla und Nvidia-Ankündigungen. :rolleyes:

Gipsel
2010-03-03, 11:27:32
puh ich glaub es wäre an der zeit das jemand ein blog mit charlies gesamten meldungen/spezifikationen zusammenstellt

DAS könnte durchaus interessant werden
Einen niedrigeren GDDR5-Takt als bei ATI hat er zumindest auch vor einiger Zeit (irgendwann im letzten Jahr) prognostiziert (angeblich hätte nv Probleme mit dem Interface) ;)

S940
2010-03-03, 11:29:18
Hier kommt die GeForce GTX 480 ins Spiel, welche die Radeon HD 5870 wahrscheinlich deutlich hinter sich lassen wird. Die große Frage wird sein, ob es von der Performance her für die Radeon HD 5970 reichen wird. Und natürlich ob und was AMD in Petto haben wird.
Quelle: http://www.tweakpc.de/news/17960/nvidia-geforce-gtx-480-doppelt-so-schnell-bei-tesselation/

tweakpc habe ich im Laufe der Fermi-Spekulationen häufig kritisch hinterfragend erlebt (so wie es eigentlich sein sollte). Kommen die zu diesem Schluss, dann ist viel Besser als von vielen hier erwartet bzgw. erhofft wird.
Doll .. da steht "wahrscheinlich" ... auf Deutsch: Die haben keine Ahnung.

Das ist nur die 1000te Umdrehung das warmen Fermi Marketingbreis. Ich kanns langsam echt nicht mehr lesen, jeder schreibt was, keiner hat belastbare, gesicherte Infos.

Zu den ganzen Spekulationen von Charlie & Co muss man auch nicht viel schreiben, ein "ichs glaubs - warten wirs ab" oder ein "ich glaubs nicht - warten wirs ab" sind die einzigen 2 Möglichkeiten die man hat.

Aber naja ... das ist den Meisten auf den letzten knapp 700 Seiten wohl nicht aufgefallen ^^

Ailuros
2010-03-03, 11:30:47
Zum Speichertakt: Könnte da auch die Leistungsaufnahme eine Rolle spielen? Mit niedriger getaktetem Speicher lässt sich sicher das ein oder andere Watt einsparen.

Bei Simulationen wird eventuell schon festgelegt wie viel Bandbreite jede Variante genau braucht. Es kann durchaus sein dass sie mit Absicht die Speicherfrequenz reduziert haben und ja natuerlich spart es etwas Strom; oder sie haben es mit etwas mehr hot clock ausgetauscht.

Eventuell versucht man auch durch möglichst günstigen Speicher trotz teurer GPU noch ein akzeptables Preisniveau zu erzielen.

So lange die Bandbreite nicht limitiert ist es auch kein Problem unter normalen Umstaenden.

igg
2010-03-03, 11:32:24
@Tarkin, da ot:


1. War es auf die Zukunft bezogen, du weißt es offenbar jetzt schon?
2. Hatte die GTX260 das bessere P/L damals
3. Ändert das hin wie her nichts an meiner Kritik an nagus Verhalten

LovesuckZ
2010-03-03, 11:32:49
Einen niedrigeren GDDR5-Takt als bei ATI hat er zumindest auch vor einiger Zeit (irgendwann im letzten Jahr) prognostiziert (angeblich hätte nv Probleme mit dem Interface) ;)

Das hat Rys auch gesagt - er spekulierte 1050MHz im November für die GTX480.
Abgesehen davon bekam Neliz sein Fett auch schon weg bezüglich angeblicher GDDR5 Probleme. Die hätte nämlich nVidia mit einem einfachen Metal Respin gelöst beim GT215...
Das nVidia geringere Taktung nimmt, ist doch logisch, wenn man in einem Preiskampf mit AMD geht. Dazu haben sie ein vernünftiges Cachesystem zum Sparen von Bandbreite. Ein niedriger Takt hilft auch für den Stromverbrauch.

Ailuros
2010-03-03, 11:33:14
Einen niedrigeren GDDR5-Takt als bei ATI hat er zumindest auch vor einiger Zeit (irgendwann im letzten Jahr) prognostiziert (angeblich hätte nv Probleme mit dem Interface) ;)

Behauptet aber nur er. Nach ihm soll das 2SM Problem bei den 512SP chips daran liegen. Und ich kann Dich gleich versichern dass es totaler Bloedsinn ist. Teslas kommen mit 448SPs/384bit.

Hakkerstiwwel
2010-03-03, 11:37:08
leute, wenn ihr kein englisch könnt diskutiert nicht seitenlang sinnlos über den satz rum. :D

der bedeutet einfach so viel wie: "die bilder zeigen keine heatpipes". das ist alles.
und ist bis auf den falschen Gebrauch von "have" grammatikalisch vollkommen korrekt

Undertaker
2010-03-03, 11:41:55
Das hat Rys auch gesagt - er spekulierte 1050MHz im November für die GTX480.
Abgesehen davon bekam Neliz sein Fett auch schon weg bezüglich angeblicher GDDR5 Probleme. Die hätte nämlich nVidia mit einem einfachen Metal Respin gelöst beim GT215...
Das nVidia geringere Taktung nimmt, ist doch logisch, wenn man in einem Preiskampf mit AMD geht. Dazu haben sie ein vernünftiges Cachesystem zum Sparen von Bandbreite. Ein niedriger Takt hilft auch für den Stromverbrauch.

Also der Preiskampf kann es speziell bei der GTX470 eigentlich nicht sein, wenn schon eine HD5670 mit höheren Taktraten kommt. Bleiben für mich weitere 4 Möglichkeiten:

1. Die Info ist falsch und die finalen Speichertakte liegen höher
2. Der bereits erwähnte Stromverbrauch
3. Die Karten hängen nicht sonderlich an der Speicherbandbreite
4. Die ebenfalls erwähnten spekulierten GDDR5-Probleme

Am ehesten rechne ich mit 1. oder 2.

nagus
2010-03-03, 11:43:44
Bei aller Sympathie zur AMD/ATI, aber Dein Optimismus bzgl. Refreshes von Ati ist erstaunlich. Ich sehe momentan keine entsprechende Grafikkarte, die da aus dem Hut gezaubert werden könnte.

Die eher kritische Seite äußert sich heute wie folgt:



Quelle: http://www.tweakpc.de/news/17960/nvidia-geforce-gtx-480-doppelt-so-schnell-bei-tesselation/

tweakpc habe ich im Laufe der Fermi-Spekulationen häufig kritisch hinterfragend erlebt (so wie es eigentlich sein sollte). Kommen die zu diesem Schluss, dann ist viel Besser als von vielen hier erwartet bzgw. erhofft wird.

die berufen sich da auf offizielle aussagen von nvidia und auf den "heaven" benchmark. :rolleyes:
und nachdem was nvidia derzeit abgezogen hat mit gefakten karten, ankündigung von ankündigungen einer ankündigung plus den regelmäßigen verschiebungen usw... sind die ca. so vertrauenswürdig wie baron münchhausen

deekey777
2010-03-03, 11:47:33
Das hat Rys auch gesagt - er spekulierte 1050MHz im November für die GTX480.
Abgesehen davon bekam Neliz sein Fett auch schon weg bezüglich angeblicher GDDR5 Probleme. Die hätte nämlich nVidia mit einem einfachen Metal Respin gelöst beim GT215...
Das nVidia geringere Taktung nimmt, ist doch logisch, wenn man in einem Preiskampf mit AMD geht. Dazu haben sie ein vernünftiges Cachesystem zum Sparen von Bandbreite. Ein niedriger Takt hilft auch für den Stromverbrauch.
Mit dem "Cache-System" erspart man sich Zugriffe auf den Speicher, die Bandbreite wird dadurch nicht gespart.

Ailuros
2010-03-03, 11:51:17
die berufen sich da auf offizielle aussagen von nvidia und auf den "heaven" benchmark. :rolleyes:
und nachdem was nvidia derzeit abgezogen hat mit gefakten karten, ankündigung von ankündigungen einer ankündigung plus den regelmäßigen verschiebungen usw... sind die ca. so vertrauenswürdig wie baron münchhausen

Nagus NV kann die wahre Effizienz der GF100 GPUs nicht mehr lange verstecken. Ich kann mir gut vorstellen dass Du Dir einen totalen FLOP erhoffst, aber ich muss Dich leider enttaeuschen. Natuerlich bleibt es eine Tatsache dass sie zu spaet dran sind und dass die 480 am Anfang ziemlich selten sein wird aber nichts ist umsonst in 3D.

LovesuckZ
2010-03-03, 11:51:42
Also der Preiskampf kann es speziell bei der GTX470 eigentlich nicht sein, wenn schon eine HD5670 mit höheren Taktraten kommt. Bleiben für mich weitere 4 Möglichkeiten:

1. Die Info ist falsch und die finalen Speichertakte liegen höher
2. Der bereits erwähnte Stromverbrauch
3. Die Karten hängen nicht sonderlich an der Speicherbandbreite
4. Die ebenfalls erwähnten spekulierten GDDR5-Probleme

Am ehesten rechne ich mit 1. oder 2.

Niedriger Takt ermöglicht aber auch Steine zu nehmen, die vielleicht nicht die selbe Güte besitzen bzw. eine größere Auswahl durch mehr Lieferer. Auch sollte man nicht vergessen, dass ein niedriger Takt den Partner hilft besser, übertaktete Versionen herauszubringen. Zotac bietet z.B. eine vorübertaktete GT240 Karten mit 1000MHz an, statt den 800Mhz 850Mhz. Wobei eine Vielzahl von Listungen bei Geizhals mit 900MHz drinstehen...

Mit dem "Cache-System" erspart man sich Zugriffe auf den Speicher, die Bandbreite wird dadurch nicht gespart.

Ja, danke. Ich habe mich falsch ausgedrückt: Je weniger Zugriffe auf den DRAM, umso weniger Bandbreite wird im gesamten Kontext benötigt. Immerhin ist der L2 Cache mit knapp 250GB/s höher als die Bandbreite und bei der GTX470 fast 70% höher. Und der L1 Cache bewegt sich angeblich bei 1,5TB/s.

numb
2010-03-03, 11:57:36
Verglichen mit der 5870, welche ja auf einem Niveau mit der GTX 470 liegen soll, hat man ja dank breiterem Bus immer noch eine deutlich höhere Speicher-Bandbreite...

Und selbst von den ATi 5800er Karten weiß man ja, dass sie net unbedingt an der Bandbreite hungern...der Grund für 800 MHz GDDR5 ist imho einfach der:

Schnellerer Speicher würde einfach nichts bringen außer einer höheren TDP

Ri*g*g*er
2010-03-03, 12:04:10
und es reduziert die Kosten, somit kann man ggfs. billiger anbieten.

Auch wäre ein Upgrade später auf schnelleren Speicher möglich.
Naja aber das hab ich bei der GTX 260/280 auch gedacht das dort irgendwann mal DDR5 Ram zum Einsatz kommen würde . . .

Zu Nvidia passt eigentlich kein Preiskampf.
Der wird mit einem Mainstream Chip eher im nächsten Herbst/Winter kommen.

Bis dahin haben Sie Zeit hier und da ein paar Fehler zu beseitigen und die Produktion ist bis dahin auch angelaufen. Der Sommer ist sowie nicht zum zocken da.

Gruss
Ri*g*g*er

Menace
2010-03-03, 12:18:01
NV kann die wahre Effizienz der GF100 GPUs nicht mehr lange verstecken. Ich kann mir gut vorstellen dass Du Dir einen totalen FLOP erhoffst, aber ich muss Dich leider enttaeuschen.

Aus deinem Munde (bzw. aus deiner Hand) sagt das dann doch schon einiges bzgl. deren Leistungsfähigkeit aus.

Ich denke Tweakpc hat auch mehr Infos, als sie preisgeben dürfen. Außerdem kann sich nvidia nicht erlauben, vorher groß auf den Putz zu hauen (bis zu einer doppelten Leistung bei DX11) und nachher eine Stümperkarte bringen. Mit Fake-Karten können nvidia-Jünger leben, ebenso mit Verspätungen. Aber irgendwann fällt es auch dem treuesten Anhänger schwer, sich etwas schönzureden.

Aquaschaf
2010-03-03, 12:22:03
Mit dem "Cache-System" erspart man sich Zugriffe auf den Speicher, die Bandbreite wird dadurch nicht gespart.

Hm? Dabei geht es doch genau darum mit weniger Speicherbandbreite auszukommen, weil eben weniger Zugriffe auf den DRAM nötig sind wenn man stattdessen aus dem Cache lesen kann.

Odal
2010-03-03, 12:27:09
Verglichen mit der 5870, welche ja auf einem Niveau mit der GTX 470 liegen soll, hat man ja dank breiterem Bus immer noch eine deutlich höhere Speicher-Bandbreite...

Und selbst von den ATi 5800er Karten weiß man ja, dass sie net unbedingt an der Bandbreite hungern...der Grund für 800 MHz GDDR5 ist imho einfach der:

Schnellerer Speicher würde einfach nichts bringen außer einer höheren TDP

dann fragt man sich aber wieso die GTX480 hier die volle Dröhnung bekommen soll? Also nicht nur 20% breiteres memory interface sondern auch noch deutlich höher getakteten Ram

also 50% mehr Bandbreite für einen potentiell 25-30% schnelleren chip

also entweder gibt das der GTX480 den letzten schub um auf die 5970 aufzushliessen oder die speku das die bandbreite bringt doch einiges an mehrleistung

Ailuros
2010-03-03, 12:30:06
Aus deinem Munde (bzw. aus deiner Hand) sagt das dann doch schon einiges bzgl. deren Leistungsfähigkeit aus.

Ich denke Tweakpc hat auch mehr Infos, als sie preisgeben dürfen. Außerdem kann sich nvidia nicht erlauben, vorher groß auf den Putz zu hauen (bis zu einer doppelten Leistung bei DX11) und nachher eine Stümperkarte bringen. Mit Fake-Karten können nvidia-Jünger leben, ebenso mit Verspätungen. Aber irgendwann fällt es auch dem treuesten Anhänger schwer, sich etwas schönzureden.

Neliz war der dritte Herr mir die bisherigen GF104s bestaetigte. Wenn das Ding jetzt tatsaechlich auf ca. GT200b Nivaeu liegt (ergo irgendwo 5850 +/- Nivaeu), dann hab ich es verdammt schwer zu glauben dass die 470 nur 20-25% schneller ist als die 285.

Und ja ich kann die diversen Webseiten wie fudzilla durchaus verstehen dass sie nach all dem Schlammassel sich lediglich auf das worst case scenario das gerade in der Geruechtemuehle herumfliegt begrenzen. Einmal die Zunge verbrannt, blaest man auch sicherheitshalber den Yoghurt heisst es bei uns ;)

Gast
2010-03-03, 12:31:17
Zu denken das die GTX480 einer 5970 das Wasser reichen zu können ist doch mehr als Unrealistisch ;)

LovesuckZ
2010-03-03, 12:32:12
"Hardwareheaven" hat einen kleinen Bericht vom "ultra-abgesicherten" nVidia (Presse-)Stand:

Nvidia’s ultra-secure location provided us with probably the most interesting meeting of the day. In one room they had a GTX 480 SLI system up and running, connected to 3 1080p screens powering Need For Speed Shift (in 3D). Next door, a similar system was running Bad Company 2 on the same display configuration. In a third room were numerous boxes running single GTX 480 cards. We are glad to report that the room was not burning down and that it didn’t sound like a wind tunnel which is great... as for the various tech demos on show, each was impressive in its own way. Hair effects on the GTX 480 are significantly ahead of anything we have seen before. The level of detail in PhysX explosions such as the collapsing bridge was also highly impressive.

As for the cards themselves, we are not allowed to show any images today but we will say that reports of massive or loud cooling solutions are well off the mark.

http://www.hardwareheaven.com/articles.php?articleid=142#ixzz0h71F11L9

Sowie ein neues Bild der Hair-Demo:

http://www.hardwareheaven.com/articleimages/cebit2010/day1/thumbs/NV3.jpg

Und daher kommen die neuen Bilder der GTX480:
Behind closed doors Zotac were keen to talk about the upcoming GTX 480 as well as show off their version. Due to NDAs we can’t discuss this

http://www.hardwareheaven.com/articles.php?articleid=142#ixzz0h72hIhTT

Das wird nVidia wohl tierisch ärgern.

Ailuros
2010-03-03, 12:35:38
dann fragt man sich aber wieso die GTX480 hier die volle Dröhnung bekommen soll? Also nicht nur 20% breiteres memory interface sondern auch noch deutlich höher getakteten Ram

also 50% mehr Bandbreite für einen potentiell 25-30% schnelleren chip

also entweder gibt das der GTX480 den letzten schub um auf die 5970 aufzushliessen oder die speku das die bandbreite bringt doch einiges an mehrleistung

Die jeweilige Bandbreite wird unter normalen Umstaenden durch fruezeitige Simulationen fuer jegliche Variante angelegt.

Die 470 hat 448SPs@1.25GHz, 56TMUs und 40 ROPs im Gegensatz zur 480 die 512SPs bei wahrscheinlich 1.4-1.45GHz hat, 64 TMUs und 48 ROPs. Wenn Du mit den moeglichen core clocks herumspielst bekommst Du einen =/>40% Unterschied fuer die Pixelfuellrate von den ROPs alleine.

Palpatin
2010-03-03, 12:39:59
Hab hier nicht alles verfolgt, wollt nochmal nachfragen ob man mittlerweile schon weiss ob ne 3 Bildschirm Config bei der 470/80 auch ohne SLI gehen wird so wie bei AMD oder braucht man bei NV da zwingend 2 Karten?

LovesuckZ
2010-03-03, 12:41:54
Es werden zwingend zwei, aktive GPUs benötigt. Ob man eventuell sogar ohne SLI es benutzen kann, wird die Zukunft zeigen.

Ailuros
2010-03-03, 12:42:25
Zu denken das die GTX480 einer 5970 das Wasser reichen zu können ist doch mehr als Unrealistisch ;)

In unmittelbarer Naehe (bis zu 10-15% durschnittlich niedrigere Leistung) und wenn der Preis auch ungefaehr auf dem Leistungsnivaeu liegt (ergo leicht niedriger als bei der 5970) macht es die 480 ein attraktiveres Enthusiast-Angebot eben weil viele keinen Bock auf mGPU haben.

Odal
2010-03-03, 12:43:49
Zu denken das die GTX480 einer 5970 das Wasser reichen zu können ist doch mehr als Unrealistisch ;)

naja das ist zwar jetzt "best case" aber sagen wir mal eine GTX470 liegt 10% vor einer 5870 und besitzt 448SPs und Takt X

die 5970 liegt ca. 40% vor der 5870

nun best case kommt die GTX480 mit 512SPs (mit aproximierter linearer skalierung + 25% mehrleistung) und dem Takt X+Y%

d.h. selbst wenn Y=0 käme die GTX480 schon sehr nah an die 5970

wenn Y>=10% liegt sie gar vor der 5970

Gast
2010-03-03, 12:45:17
Das Bild mit den Haaren. 55,53 FPS bei 1920X1080.

Bucklew
2010-03-03, 12:51:43
Also mir scheint die Verwendung von "do not" als eine Negierung interpretierbar zu sein. Das "any" wird dann als Bestärkung verwendet. Ich bin da zwar nicht dermaßen bewandert, aber wenn statt "any" "some" dort stünde, so wäre dies meines Wissens nach stilistisch (und eventuell auch grammatikalisch) falsch.
Nein, das Problem an dem Satzbau ist, dass das "don't have" auf das falsche Subjekt (in dem Falle die Bilder) bezieht.

richtig. hast dus auch endlich verstanden?

nachdem was auf der cebit so gemunkelt wird, den crysis benchmarks (http://forum.beyond3d.com/showpost.php?p=1401420&postcount=2392) usw., sollte es sogar ein fanboy deines kalibers endlich checken. da hilft auch kein "selbst 5% schneller als 5870, blah blah" .... das wird nvidias EPIC FAIL dieser dekade.
Mal realistisch betrachtet:

Der GF100 ist mehr als doppelt so groß wie der GT200. Laut Charlie (was man mal als Worstcase bezeichnen kann) wird der Fermi ~ gleich schnell wie der GT200b (648Mhz Chiptakt vs. 625). Mit einer realistischen Steigerung von ~70% (wohl eher das untere Ende der Steigerung) wäre die Karte immer noch DEUTLICH schneller als die HD5870.

Nakai
2010-03-03, 12:55:38
Wenn die Einheitenskalierung auch so hundsmiserabel ist, wie beim RV870, dann wundert mich es eher nicht, dass man sich nicht sonderlich stark absetzen kann.

Mal gucken...keine voreiligen Schlüße ziehen. Ich hoffe immer noch auf HD5970-Niveau für GTX480.


mfg

Gast
2010-03-03, 12:56:02
"As for the cards themselves, we are not allowed to show any images today but we will say that reports of massive or loud cooling solutions are well off the mark."

Sehr gut. Also alles im Grünen Bereich.

Dural
2010-03-03, 13:37:30
Fermi wird rocken, erst recht in DX11 :)

@Nakai

Fermi ist eine recht neue Architektur die sicher für deutlich mehr SP ausglegt wurde / erweiterbar ist! von dem her hab ich keine grosse sorgen... die frage ist doch viel eher ob 1SP 1:1 mit 1SP vom GT200 vergleichbar ist! also von der Leistung her...

und wenn GF104 256SP hat und es mit der GTX285 aufnehmen kann, kann man da wohl sehr gut ein JA sagen (+/-) es spricht eigentlich alles dafür das die GTX480 mit vernünftigem takt auf der höhe der 5970 ist... und wenn nicht auch egal, gewonnen hat die GTX480 so oder so da nur eine GPU...

Ailuros
2010-03-03, 13:43:52
Fermi wird rocken, erst recht in DX11 :)

Von Grund auf entwickelte Spiele mit DX11 werden noch einige Jahre brauchen. Bis zu dem Punkt werden vielleicht sogar low end GPUs der Zukunft staerker sein als eine 480. Mir reicht es wenn ich weiss dass sich eine GPU fuer die naechsten paar Jahre anstaendig durchpruegeln kann, egal was fuer Uebertreibungen auf der jeweiligen Spielverpackung stehen.

LovesuckZ
2010-03-03, 13:44:25
Custom-Board:
http://img19.imageshack.us/img19/2191/92410822.jpg

Dazu Rys:
A quick pixel counting exercise makes it ~500mm/sq, using the width of the longest (second) section of PCIe x16 connector as a reference. I make that 71.65mm according to wikipedia, so ~0.746mm/pixel (96 pixels wide), and I make the die area to be 30x30 pixels.

That's a five minute go for cheap thrills anyway

$299 - wir kommen. :up:

Von Grund auf entwickelte Spiele mit DX11 werden noch einige Jahre brauchen. Bis zu dem Punkt werden vielleicht sogar low end GPUs der Zukunft staerker sein als eine 480. Mir reicht es wenn ich weiss dass sich eine GPU fuer die naechsten paar Jahre anstaendig durchpruegeln kann, egal was fuer Uebertreibungen auf der jeweiligen Spielverpackung stehen.

Wer weißt, ob nicht GF100 wirklich für die Zukunft ist. Soviel Wert wie nVidia in Compute und Tessellation gelegt hat, sieht es danach aus, dass die Karte unter <DX11 nicht wirklich in Gang kommen wird. Aber bald wissen wir ja mehr.

Dural
2010-03-03, 13:46:30
MSI karte?


Von Grund auf entwickelte Spiele mit DX11 werden noch einige Jahre brauchen. Bis zu dem Punkt werden vielleicht sogar low end GPUs der Zukunft staerker sein als eine 480. Mir reicht es wenn ich weiss dass sich eine GPU fuer die naechsten paar Jahre anstaendig durchpruegeln kann, egal was fuer Uebertreibungen auf der jeweiligen Spielverpackung stehen.


Naja für DX9 bracht man kein Fermi ;) aber da hast du schon recht.

Gast
2010-03-03, 13:58:38
Hauptsache in Metro rockt die Karte. Und es kommen mehr und mehr DX11 Games. Das dauert keine paar Jahre...

Ailuros
2010-03-03, 14:00:00
Wer weißt, ob nicht GF100 wirklich für die Zukunft ist. Soviel Wert wie nVidia in Compute und Tessellation gelegt hat, sieht es danach aus, dass die Karte unter <DX11 nicht wirklich in Gang kommen wird. Aber bald wissen wir ja mehr.

Einfache Logik: was ist besser ein Spiel wo ein klein bisschen Tessellation als Nachgedanke dazukommt oder ein Spiel das von Grund auf mit programmierbarer Tessellation im Hinterkopf entwickelt wurde? Die naechst beste Frage wenn Du den zweiten Teil waehlst ist dann wann so etwas in etwa ankommen koennte.

Entwickler haben erst seit Q3 2009 die ersten DX11 GPUs erhalten und NV hat etwas spaeter mit ihrem eigenen Zeug nachgehalten. Ergo ist es durchaus logisch zu behaupten dass jegliche "Revolution" im Bereich Tessellation ihre Zeit brauchen wird.

Um es noch klarer zu machen als ich mir die 8800GTX kaufte war mir die jegliche DX10 path Leistung genauso schnurzegal. Wie gesagt Hauptsache die 480 kann fuer die naechsten 1-2 Jahre das liefern was man erwarten wuerde in den vorhandenen Spielen. Und nein kein Entwickler wird Dir ploetzlich jegliches Spiel mit zusaetzlicher Tessellation zustopfen, ausser natuerlich jemand haelt etwas von "overtessellation" oder Michelin-artigen Figuren ala uebertriebenes TruForm in der Vergangenheit.

Research fuer Micropolygon Zeug faengt gerade erst an: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7878709&postcount=87

Gast
2010-03-03, 14:02:01
Wer weißt, ob nicht GF100 wirklich für die Zukunft ist. Soviel Wert wie nVidia in Compute und Tessellation gelegt hat, sieht es danach aus, dass die Karte unter <DX11 nicht wirklich in Gang kommen wird. Aber bald wissen wir ja mehr.

Genau das denke ich auch.

mapel110
2010-03-03, 14:05:31
Bei ATI siehts aber doch nicht viel anders aus. Die 5870 rockt auch erst derbe in aktuellen Spielen und kann sich beispielsweise bei UT3-Engine-Spielen nicht von der GTX285 absetzen. Daher ists nur logisch, dass es bei nvidia genauso sein wird.

Ailuros
2010-03-03, 14:05:34
Hauptsache in Metro rockt die Karte. Und es kommen mehr und mehr DX11 Games. Das dauert keine paar Jahre...

Metro2033 hat genauso einen DX11 path wie alle anderen Spiele. Aber wenn's schon sein muss mach doch eine nette Liste an kommenden "DX11 Spielen". Ich hab immer noch Lachkraempfe wenn ich an die uralte 100 T&L games Liste denke. Zwischen Realitaet und auf idiotisches Marketinggefusel reinzufallen gibt es schon einen Unterschied.

Nun ist es zugegeben schon wahr dass DX11 mit seinen Aehnlichkeiten zu DX10 einen frueheren Durchbruch schaffen koennte insgesamt, aber AAA Titel brauchen nach wie vor ihre Entwicklungszeit und ISVs beruecksichtigen nach wie vor den lowest common denominator. Es ist ja dass in Q1 2010 die bruellende Mehrzahl von PCs mit DX11 GPUs ausgestattet sind oder?

Gast
2010-03-03, 14:05:37
Die ATI gehen mit Tesselation on ein. Siehe Grid 2. Ich bin gespannt wie Fermi da performt. Ich denke der bricht nicht so ein;)

S940
2010-03-03, 14:27:35
RV870 ist ein DX10 Chip der auf DX11 aufgebohrt wurde, das ding wird in DX11 versagen, erst recht mit der schwachen Tesselation...
Bis Spiele (keine Benchmarks) mit anspruchsvoller Tessellation kommen gibts die HD7870 :freak:

Gast
2010-03-03, 14:30:41
Es gibt doch Spiele. Und bei Grid 2 geht die ATI halt ein. Thats a fact. Und bei Metro steht optimale Voraussetzung Fermi auf dem Karton.

MoC
2010-03-03, 14:40:36
das ist eine tatsache und ihr werdet es schon noch sehen...

Der RV870 ist überhaupt nicht ausgeglichen, wer das nicht ein sieht tut mir ja leid...

Ich bin mir ziemlich sicher das Fermi erst recht in DX11 abgeht, die Architektur wurde für das Entwickelt (Geometrie Power, Tesselation Power usw.)

Unter DX9 oder so wird Fermi wohl nicht mal so der kracher sein...

Kann ich so nicht zustimmen.
Finde den RV870 sehr ausgeglichen.
Er ist einfach ein solides Update.
-mehr Performance
-weniger Verbrauch
-DX11
-besser Qualitätsfuture
-solider Preis

Naja ok. letzter Punkt trifft nur bedingt zu.

Beim Fermi haste wieder nen Monster, der alles in den Schatten stellen "muss". Mehr-Performance die mann sogesehen eingentlich kaum braucht.

Da Tesselation auch ein Future welches skalierbar ist.
Finde ich die Strategie von Ati nicht schlecht.
Nächstes Jahr kommt dann die neue Architektur und dann wird wohl erst auch "echte" DX11 Games geben.

Schlammsau
2010-03-03, 14:41:35
Der RV800 kackt bei Grid2 ab?
Wo hab ihr denn das wieder her? :rofl:

Das Ding rennt auf einer Radeon auch mit Tesselation wie Sau!

Tesseract
2010-03-03, 14:42:55
rofl, tesselation, das killerfeature - zumindest seit bekannt ist, dass der fermi das schnell kann. i love you!

tesselation war in der theorie immer schon das killer feature weil es (unter anderem) die logische weiterentwicklung zu z.B. phong shading ist.

der einzige grund, warum es bis jetzt kein killerfeature war ist der, dass bis jetzt alle implementierungen mehr oder weniger müll waren.

nagus
2010-03-03, 14:44:25
Weils eine alte Architektur ist die unter DX11 versagt? Weil Nvidia da den besseren Weg gefunden hat Tesselation performant auf den Monitor zu zaubern? Reicht das?

nein, eine so seichte antwort reicht mir nicht.

apropo dx11 und "versagen" ... als ich das letzte mal auf geizhals gekuckt hab gabs 209 AMD karten mit dx11. wieviel gibts von nvidia?

außerdem würde ich solche werte bei einem dx11 spiel (für ATI) nicht unbedingt als "versagen" bezeichnen :rolleyes:

PS: der sinn von dx11 besteht nicht darin, möglichst 95% der rechenlast für tesselation zu verbraten.

Ailuros
2010-03-03, 14:53:04
So und jetzt reicht es so langsam mit dem unendlichen spam. Entweder geht die Diskussion zivilisiert weiter oder ich kann auch gerne tonnenweise Posts wieder in der Spielwiese verfrachten.

Gast
2010-03-03, 14:53:31
ABER die schlechte bis überhaupt nicht vorhandene Lieferbarkeit einer 480 macht dem natürlich einen fetten Strich durch die Rechnung.

Irgendwie stellst du in fast jedem Post irgendwelche unbewiesenen Thesen als Fakten dar.

N0Thing
2010-03-03, 14:54:42
Es gibt doch Spiele. Und bei Grid 2 geht die ATI halt ein. Thats a fact. Und bei Metro steht optimale Voraussetzung Fermi auf dem Karton.


Bei Dirt 2, was vermutlich gemeint ist, bricht eine HD5870 laut den Benchmarks von Computerbase um 20-40% ein, je nach Auflösung bei 4xAA und x16AF. Dabei ist aber nicht nur Tesselation aktiv, sondern auch Ambient Occlusion, welches bekanntlich auch Leistung kostet.

Man erinnere sich einfach mal an die ersten Spiele, die einen zusätzlichen DX10 Pfad hatten. Auch dort sind die Frameraten deutlich geringer gewesen als beim DX9 Pfad, was aber nicht an den schlechten Grafikkarten zu der Zeit gelegen hat, sondern an den Ressourcen fressenden Features bei aktivem DX10-Pfad. Da brach eine 8800GTX in 1600x1200 4xAA/16xAF von 88,6 auf 39,1 ein. Bei der GTS 512 sieht es noch schlechter aus.

Und es ist wohl keiner der Meinung, daß G80 und G92 für DX10 prinzipiell ungeeignet seien und dort einfach nur abkacken, oder?

Gast
2010-03-03, 14:57:05
@Nothing

Ja sorry, meinte Dirt 2. Und ja, sie bricht da ein. Wenn ich so ne Karte hab, drehe ich den Regler nach oben.

Ronny145
2010-03-03, 14:58:09
Die ATI gehen mit Tesselation on ein. Siehe Grid 2. Ich bin gespannt wie Fermi da performt. Ich denke der bricht nicht so ein;)


Spätestens mit dem Patch und Cat 10.3 nicht mehr. Man muss aber sagen, dass der Unterschied sehr gering ist. Den größeren optischen sowie performance Unterschied mit DX11 verursacht das HDAO.

PulsarS
2010-03-03, 15:00:27
Leute,

hört doch auf euch gegenseitig an den Karren zu fahren, das bringt doch nichts.
Inwieweit Tesselation der limitierende Faktor bei Spielen sein wird (was ich nicht glaube), muss man erstmal abwarten.
Vor allem da man da rumspielen kann und den Grad der Tesselation einstellen kann.
Und Tesselation ist eben nicht alles.

Wir werden ja bald sehen, was GF100 so drauf hat.

Was mich beunruhigen würde, ist die Tatsache, dass Nvidia selbst nicht an ihr Produkt glaubt und nur ein Jahr Garantie gibt.
Das ist ein sehr schlechtes Zeichen.
Auch diese Aussage gibt mir zu denken:
Nvidia dagegen hat ein Problem seit dem G92/G94 und erst recht seit dem G200. Ihr Design erzwingt eine geringere Transistordichte um Fertigungstoleranzen auszugleichen und die Chipbereiche mit verschiedenen Taktraten laufen zu lassen. Mit Fermi haben sie die Transistordichte auf das Niveau von Ati angehoben und sind auf die Fresse gefallen. Der Chip ist jetzt empfindlicher als ein rohes Ei ohne Schale.
Ein Testlauf in 40nm hat Nvidia nie gestartet um sich vorzubereiten. Nichtmal eine Idee für ein besseres Bonding wurde vorbereitet.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7871822&postcount=25
Für Leute, die gern alternative Kühler verbauen, dürfte Fermi aus eben diesem Grund nicht in Frage kommen.
Wenn die Haltbarkeit und die Garantieleistungen wirklich schlecht sein sollten, dann hilft es Fermi nur wenig, wenn er schneller als die 58x0er ist.

Das wäre auf jeden Fall ein sehr wichtiger Punkt bei meiner Kaufentscheidung.
Ich will nicht, dass mir die Karte nach ein paar Monaten hopps geht und ich dann wochenlang auf eine Ersatzkarte warten muss.

Der GF100 muss schon deutlich schneller sein, um eine gute Alternative zu den jetzigen ATI-Modellen zu sein.

GF100 könnte es zum Verhängnis werden, wenn dieser nur wenig schneller als RV870 sein sollte.
Da viele Magazine auch solche Sachen wie Stromverbrauch und Lautstärke mit in die Wertung einfliessen lassen, könnte es sein dass GF100 in der Gesamtwertung hinter eine 58x0 fällt, obwohl er leicht schneller ist.

Es kommt eben auf das Gesamtpaket an. Und hier könnte Fermi Probleme bekommen.

Alles Speku :)

Gast
2010-03-03, 15:05:18
1 Jahr Garantie? Wo haste das denn her?

mapel110
2010-03-03, 15:05:40
Eben das Gesamtpaket.

nvidia hat beispielsweise bei Just Cause 2 wieder mal ne Schippe drauf gelegt und ATI-User ausgesperrt. CUDA sei Dank.

Enhanced GPU Water effect for Nvidia Systems (Not available on console)
Enhanced Bokeh filter for Nvidia Systems (Not available on console)

Ein kleiner Kaufgrund mehr für GF100.

Gast
2010-03-03, 15:08:25
Jep Just Cause 2 wird nochmal richtig aufgebohrt mit Nvidia Karten. Zum Fermi nochmal: Stromverbrauch und Lautstärke soll alles im Grünen Bereich sein. Ich schätze nicht lauter als eine 285

Meine Speku;)

PulsarS
2010-03-03, 15:09:58
1 Jahr Garantie? Wo haste das denn her?
Steht hier irgendwo im Thread ;D

Nvidia gibt nur ein Jahr Garantie, den Rest dürfen die Boardpartner übernehmen.
Definitiv ein schlechtes Zeichen.

Wenn man sich bei seinem Produkt abheben will, dann sollte man mehr Garantie geben und nicht weniger.

Ich denke Nvidia weiß schon ganz genau, dass der GF100 sehr empfindlich sein wird und auch sehr stromhungrig und heiß.
Sonst kann ich mir die Aktion mit der 1-Jahres-Garantie nicht erklären.

Gast
2010-03-03, 15:11:37
Also hier irgendwo steht das. MMM nicht so glaubwürdig. Fermi wird stand heute nicht heiss und auch nicht laut. Mark my words;)

PulsarS
2010-03-03, 15:12:35
Eben das Gesamtpaket.

nvidia hat beispielsweise bei Just Cause 2 wieder mal ne Schippe drauf gelegt und ATI-User ausgesperrt. CUDA sei Dank.

Enhanced GPU Water effect for Nvidia Systems (Not available on console)
Enhanced Bokeh filter for Nvidia Systems (Not available on console)

Ein kleiner Kaufgrund mehr für GF100.
Wenn es DX11-konform ist/wäre, dann kann man es mit ATI auch.
Ist man abseits von DX11, dann ist es eine Extrawurst für Nvidia und ohne Bedeutung.

Wenn man schon vergleichen will, dann richtig.

Undertaker
2010-03-03, 15:16:23
Seit wann gibt Nvidia selbst überhaupt eine Garantie? Das ist afair grundsätzlich die Sache des Boardpartners. Ergo ziemlicher Unsinn, daraus irgendetwas abzuleiten.

PulsarS
2010-03-03, 15:17:19
Seit wann gibt Nvidia selbst überhaupt eine Garantie?
Schon immer.
Oder sollen die Boardpartner für GPU-Ausfälle haften?

N0Thing
2010-03-03, 15:18:24
Was mich beunruhigen würde, ist die Tatsache, dass Nvidia selbst nicht an ihr Produkt glaubt und nur ein Jahr Garantie gibt.
Das ist ein sehr schlechtes Zeichen.

Wobei ich mich frage, in wie weit dies außerhalb der EU ungewöhnlich ist. Creative nennt afaik für ihre X-Fi Karten auch nur ein Jahr Garantie und es wird deswegen keiner unruhig.
Den Punkt mit der Garantie sollte man meiner Meinung nach nicht zu hoch hängen, denn wenn die Fermi-Karten nach einem Jahr wirklich ihr Leben aushauchen, steht vor allem Nvidia blöd da und das ist sicherlich nicht ihr Ziel. ;)

Gast
2010-03-03, 15:21:29
1 Jahr Garantie kann ich mir nicht vorstellen. Das Ding wird auch nicht zu heiss. Ausserdem würde Fermi dann nochmal teurer werden.

Ente Ente Ente Ente;)

LovesuckZ
2010-03-03, 15:23:27
Laut dem Typ, der diese "1 Jahr Garantie" Geschichte in die Welt gesetzt hat, entsteht der angebliche Engpass an GF100 Karten dadurch, dass viele Partner keine großen Mengen an Chips wegen der Garantie bestellen, solange es keine Custom-Designs gibt...

Dural
2010-03-03, 16:12:00
1 Jahr garantie ist ja wohl ziemlich üblich...

AnarchX
2010-03-03, 16:34:33
"Eine Karte" vs HD 5870:
http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1366899-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Wohl weiteres Futter für die GTX470@$299 MSRP Theorie.

Don Vito
2010-03-03, 16:36:23
Ich seh da nichts:confused:

LovesuckZ
2010-03-03, 16:37:21
Und Taktraten - wieso werden die eigentlich ausgeblurrt? - sind 625/648/1296Mhz. Somit liegt die kleinste Karte auf bzw. über GTX280 Niveau. Die GTX480 sollte dann mit dem Shadertakt aufjedenfall GTX285 erreichen - wenn nicht sogar mehr.

Achja, da fehlt noch was: $299 - wir kommen. :up:

crux2005
2010-03-03, 16:40:25
Ich seh da nichts:confused:

ich schon, habe auch gleich ein Bild gemacht:

http://s5b.directupload.net/images/100303/temp/phjqvfue.png (http://s5b.directupload.net/images/100303/phjqvfue.png)

Ronny145
2010-03-03, 16:42:03
"Eine Karte" vs HD 5870:
http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1366899-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Wohl weiteres Futter für die GTX470@$299 MSRP Theorie.


Wenn die 5870 in Dirt 2 dort ohne 10.3 gebencht wurde sieht das nicht besonders gut aus. Aber wer weiß wie viel Potenzial im Treiber für Fermi noch steckt.

Menace
2010-03-03, 16:43:29
Liegt die 470 (sofern sie das jetzt sei) teilweise dann nicht etwas über der 5850? Zumindest bei 4AA. Bei 8AA holt die 470er ja auf.

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/13/#abschnitt_crysis_warhead

derguru
2010-03-03, 16:45:42
interessant ist eigentlich nur der warheadbench,8aa fast freihaus(zu4aa)

aber insgesamt extrem schlechte werte,also sollten die vantage 16k wohl war sein.

man ist der fermi effizient:lol:

N0Thing
2010-03-03, 16:46:40
Bei Crysis verliert "A Card" bei 8XAA quasi gar nichts. :|

nagus
2010-03-03, 16:48:04
ich schon, habe auch gleich ein Bild gemacht:

http://s5b.directupload.net/images/100303/temp/phjqvfue.png (http://s5b.directupload.net/images/100303/phjqvfue.png)

wo ist jetzt der traumtänzer, der vor ein paar seiten angenommen hat, dass die 470er 10% schneller wird als die 5870er?

mapel110
2010-03-03, 16:48:18
"Eine Karte" vs HD 5870:
http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1366899-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Wohl weiteres Futter für die GTX470@$299 MSRP Theorie.
Aber sicher doch. Eine GTX470 soll bei Dirt2 53 fps erreichen, wo eine GTX 285 schon 50 fps erreicht?! Wie soll das gehen?!

nagus
2010-03-03, 16:48:41
Bei Crysis verliert "A Card" bei 8XAA quasi gar nichts. :|

"quasi" unrealistisch ;) wahrscheinlich war kein AA aktiv ;D

AnarchX
2010-03-03, 16:49:24
Aber sicher doch. Eine GTX470 soll bei Dirt2 53 fps erreichen, wo eine GTX 285 schon 50 fps erreicht?! Wie soll das gehen?!
Soll wohl mit DX11-Effekten sein.

Botcruscher
2010-03-03, 16:50:17
Wie soll das gehen?!
A2?

mapel110
2010-03-03, 16:50:19
Soll wohl mit DX11-Effekten sein.
Dafür ist der Wert der 5870 zu hoch.

PulsarS
2010-03-03, 16:50:39
1 Jahr garantie ist ja wohl ziemlich üblich...
Wo hast du denn die Info her?
Meines Wissens nach haben ATI(AMD) und Nvidia bisher immer 2 Jahre Garantie gegeben.

edit:
Den Punkt mit der Garantie sollte man meiner Meinung nach nicht zu hoch hängen, denn wenn die Fermi-Karten nach einem Jahr wirklich ihr Leben aushauchen, steht vor allem Nvidia blöd da und das ist sicherlich nicht ihr Ziel. ;)
Oder die Boardpartner, die die Suppe auslöffeln müssen. ;)

Wobei darum geht es mir nicht.
Es geht mir darum, dass wenn Nvidia jetzt auf einmal nur noch ein Jahr Garantie gibt, dann muss es einen Grund haben.
Keine Firma auf der Welt wird sich selbst schlechte Publicity machen, wenn es nicht unbedingt nötig ist.
Im Gegenteil... Ist man von seinem Produkt sehr überzeugt, dann gibt man sogar mehr Garantie als nötig.

Deswegen verstehe ich die Aktion nicht so ganz.
Aber vielleicht ist das mit der 1-jahres Garantie wirklich nur eine Ente.
Sollte es aber stimmen, wäre das für mich ein Grund vom Fermi Abstand zu nehmen.

Ronny145
2010-03-03, 16:51:00
Aber sicher doch. Eine GTX470 soll bei Dirt2 53 fps erreichen, wo eine GTX 285 schon 50 fps erreicht?! Wie soll das gehen?!


Vergleichst du DX9 mit DX11 Werten? DX11 sollte ja wie bei der HD5000 automatisch aktiviert sein.

mapel110
2010-03-03, 16:53:21
Vergleichst du DX9 mit DX11 Werten? DX11 sollte ja wie bei der HD5000 automatisch aktiviert sein.
Wenn bei der 5870 DX11 aktiv gewesen sein soll bei 60 fps mit einem i7 3.2 Ghz, dann war man schon meilenweit im CPU-Limit und die Zahlen sind auch wertlos.

Eggcake
2010-03-03, 16:54:12
Dafür ist der Wert der 5870 zu hoch.

?
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/12/#abschnitt_colin_mcrae_dirt_2_dx9dx11

AnarchX
2010-03-03, 16:54:44
Dafür ist der Wert der 5870 zu hoch.
Cat 10.3: http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=dirt2

crux2005
2010-03-03, 16:55:24
?
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/12/#abschnitt_colin_mcrae_dirt_2_dx9dx11

D3D 11 Benchmarks - HD 5870: 44FPs laut CB @ deren benchtest

edit: die 60 FPs der HD 5870 passen zu den Werten die tweakpc.de gebencht hat...

Ronny145
2010-03-03, 16:55:34
Wenn bei der 5870 DX11 aktiv gewesen sein soll bei 60 fps mit einem i7 3.2 Ghz, dann war man schon meilenweit im CPU-Limit und die Zahlen sind auch wertlos.


Wie kommst du darauf? Auf einem Quad hängt das in DX11 nur an der GPU, die Engine skaliert nämlich sehr gut mit den Kernen. Der Flaschenhals ist ganz gewiss nicht der i7 mit 3,2 Ghz.

LovesuckZ
2010-03-03, 16:56:20
Warten wir doch einfach ab. Die Crysis Werte sind z.B. bestimmt nicht real. Da liegt bei 4xMSAA eine Bremse - schlechte Treiber z.B.

Gast
2010-03-03, 16:56:28
Wo hast du denn die Info her?
Meines Wissens nach haben ATI(AMD) und Nvidia bisher immer 2 Jahre Garantie gegeben.


ATI hat schon vor langem auf 1 Jahr verkürzt für die selbst hergestellten build-by-ATi (BBA) Karten.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/september/ati_garantiezeit_desktopkarten/

AnarchX
2010-03-03, 17:02:24
Warten wir doch einfach ab. Die Crysis Werte sind z.B. bestimmt nicht real. Da liegt bei 4xMSAA eine Bremse - schlechte Treiber z.B.
Ich sehe da keine Bremse: http://www.computerbase.de/bildstrecke/28115/29/

Menace
2010-03-03, 17:04:13
Warten wir doch einfach ab.

Du hast was vergessen:

$299 - wir kommen. :up:

Spasstiger
2010-03-03, 17:04:20
ATI hat schon vor langem auf 1 Jahr verkürzt für die selbst hergestellten build-by-ATi (BBA) Karten.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/september/ati_garantiezeit_desktopkarten/
Es geht hier nicht um Endkundengarantie, sondern um die Garantie, die AIBs von den IHVs für die GPUs bekommen.
Die Garantiebedingungen von ATI aus dem Jahre 2005 dürften übrigens inzwischen nichtig sein, weil ATI von AMD übernommen wurde.