Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 4] - Übersicht in #1!
nagus
2008-06-01, 10:37:23
Wieso sollte ich? ATI hat im highend eh nix mehr zu reden ;)
Und die GX2 ist weit schneller als nur 10% gegenüber der X2...
Schau mal lieber hier rein:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks
Und dann nimm alles raus, wo es cpu Limits, VRAM Probleme oder SLI/CF Probleme gibt.
http://www.abload.de/img/baaaa8rl.jpg (http://www.abload.de/image.php?img=baaaa8rl.jpg)
hey du kannst das ja fast genausogut wie nvidia. gratuliere, dass du alle benchmarks qo nv vorne liegt auf ein bild zusammengeschnitten hast. reife leistung. :crazy2:
das performance rating wo die GX2 nur 11% über einer X2 liegt hast du noch nicht gesehen, oder?
für dich: auf der rechten seite des browserfensters gibt es einen sogenannten scrollbalken. damit ist es dir möglich in webseiten von oben nach unten zu scrollen.
tombman
2008-06-01, 10:39:40
hey du kannst das ja fast genausogut wie nvidia. gratuliere, dass du alle benchmarks qo nv vorne liegt auf ein bild zusammengeschnitten hast. reife leistung. :crazy2:
das performance rating wo die GX2 nur 11% über einer X2 liegt hast du noch nicht gesehen, oder?
für dich: auf der rechten seite des browserfensters gibt es einen sogenannten scrollbalken. damit ist es dir möglich in webseiten von oben nach unten zu scrollen.
Ich habe auch genau dazugeschrieben warum ich das getan habe. Cpu Limits + Fehler in den score einzubeziehen hilft natürlich der langsameren Karte- ATI.
Daß du drauf angewiesen bist, ist mir schon klar ;)
Benchmarks sollte man auch interpretieren können, nicht nur dumm Balken vergleichen...
Ist schon klar, daß du SOWAS
http://www.abload.de/img/betrhrhbrbrtbrtbrtbrk5d.jpg (http://www.abload.de/image.php?img=betrhrhbrbrtbrtbrtbrk5d.jpg)
dringend für deine dumme Statistik brauchst:)
GeneralHanno
2008-06-01, 10:44:13
schaut mal auf www.alternate.de , dort gibt es eine aktion zum abverkauf der alten high-end modelle 9800GTX (ab 199€) und 9800GX2 (ab 370€).
es war in der vergangenheit bei alternate schon immer so, dass sie relativ früh über neueingänge bescheid wussten und rechtzeitig die lager geleert haben!
Schlammsau
2008-06-01, 10:44:58
nochmal zur Erinnerung.....
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_sapphire_radeon_hd_3870_x2_atomic/3/#abschnitt_benchmarks
http://www.abload.de/img/unbenanntmgs.jpg
tombman
2008-06-01, 10:49:04
Du hasts wohl auch nicht verstanden, oder?
Mindestens die Hälfte der benchmarks dort hatten CPU LIMIT oder SLI Fehler...
Schlammsau
2008-06-01, 10:54:06
Du hasts wohl auch nicht verstanden, oder?
Mindestens die Hälfte der benchmarks dort hatten CPU LIMIT oder SLI Fehler...
und das hat der Autor die gerade eben gesteckt? :rolleyes:
CPU Limit mit nem 4Ghz Quadcore? SLi Fehler? Wo denn?
nagus
2008-06-01, 10:58:41
Ich habe auch genau dazugeschrieben warum ich das getan habe. Cpu Limits + Fehler in den score einzubeziehen hilft natürlich der langsameren Karte- ATI.
Daß du drauf angewiesen bist, ist mir schon klar ;)
Benchmarks sollte man auch interpretieren können, nicht nur dumm Balken vergleichen...
Ist schon klar, daß du SOWAS
http://www.abload.de/img/betrhrhbrbrtbrtbrtbrk5d.jpg (http://www.abload.de/image.php?img=betrhrhbrbrtbrtbrtbrk5d.jpg)
dringend für deine dumme Statistik brauchst:)
und du glaubst ernsthaft, dass dieser eine fehler den unterschied zwischen meinen +10% und deinen +30% ausmacht? *ROFL* ... dann sinds vielleicht +15% im schnittt. *UUHH* wie toll.
aber ist ja wurscht. es geht hier eh nicht um die X2 oder GX2. was ich eigentlich ursprünglich sagen wollte ist, dass sich die leistung der X2 in 3 monaten sehr gut entwickelt hat... die balken von nvidia kann man also getrost knicken.
Deswegen hat sie trotzdem 2 ZWEI!!!!!!!!!!! GPUs,ich glaube kaum das sie gegen zwei G200 nur 30% verschenkt ;D
tombman
2008-06-01, 11:06:00
http://www.abload.de/img/4rkjzrkjrzhjrjrzjtrzbtg.jpg (http://www.abload.de/image.php?img=4rkjzrkjrzhjrjrzjtrzbtg.jpg)
Nur aus den grünen Werten genommen ergibt das +44% für Nvidia ;)
Selbst wenn man die Fragezeichen noch mitnimmt, kommt man weit über 20% (geschätzt).
Kein Treiber der Welt kann eine X2 in die Nähe einer GX2 bringen :cool:
seahawk
2008-06-01, 11:06:50
Doch die Benches sind relevant, denn sie zeigen das GTX2X0 keien Chance genen eine 4870X2 haben kann und haben wird. Und da ATI die KArte wohl sogar billiger in den MArkt bringt dürfte GTX2X0 in seiner Launchform ein reiner Verlustbringer werden, der mit seiner lauten Kühlung und abbartigen Stromhunger beste FX Erinnerungen weckt.
dildo4u
2008-06-01, 11:09:37
was ich eigentlich ursprünglich sagen wollte ist, dass sich die leistung der X2 in 3 monaten sehr gut entwickelt hat... die balken von nvidia kann man also getrost knicken.
Die FPS der X2 sind nix Wert also sind auch diese "Verbesserungen" nur Bench Balken Kosmetik für Daus die auf drauf reinfallen wollen.NV erlöst uns zum Glück ja bald vom Multi GPU Schrott an der Spitze.Dafür sollten selbst die ATI Fanboys dankbar sein.
Konsequenzen
Die "Hauptsache hohe Zahlen"-Mentalität ist sowohl bei den Herstellern als auch den Nutzern aufs Schärfste anzukreiden. Nicht die Menge an Fps ist von Relevanz, sondern ihre Qualität. Diese ist bei Single-GPU-Karten nach wie vor am höchsten. Der 3DMark mag nur ein synthetischer Test sein, er zeigt jedoch wiederholt die Probleme des Alternate Frame Renderings (AFR) auf. Diese betreffen Spiele ganz genauso.
(Raffael Vötter)
Raff hat gesprochen. :P
http://www.pcgameshardware.de/aid,641923/Test/Benchmark/3DMark_Vantage_Die_Rueckkehr_des_Mikroruckelns/
Hahahahahaha. Du bist lustig.
Wie soll denn eine 48xx x2 gegen die 280 gewinne, wenn die 280 mindesten doppelt so schnell wie eine 4870 ist?
nagus
2008-06-01, 11:10:37
http://www.abload.de/img/4rkjzrkjrzhjrjrzjtrzbtg.jpg (http://www.abload.de/image.php?img=4rkjzrkjrzhjrjrzjtrzbtg.jpg)
*ROOFL* ... ja is schon gut TOmbman.
btw, schau dir mal bitte diese benchmarks (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez), die mit den Cat. 8.3 gemacht wurden an, und vergleiche dann dein "geiles" nvidia diagramm.
anmerkung: mit den alten 8.3 cat ist die X2 z.b. bei Call of Juarez nicht wirklich viel schneller als eine einzellne 3870. CF Fehler? ;) Tja und mit sowas vergleicht Nvidia seine super tolle neue GT200. WARUM WOHL?
So ist das!
Allerdings sollte man da wiederum nicht vergessen>X2 sind 2 ZWEI!! GPUs.
Und ganz schnell gibt es da eine GT200GTX/X2 Wetten!
Und desweche kauft meiner einer erst >Ende des Jahres,wenns dann überhaupt eine NV wird.
dargo
2008-06-01, 11:11:46
Naja, zwischen dieser und der 2500er Auflösung + AA gibts bestimmt noch ein paar Varianten. Sollte alles unter 2500er Auflösung zu CPU-limitert (oder zu wenig VRAM-limitiert... ;)) sein, kann man sich die Karte auch schenken.
Nö, warum? Es gibt noch andere schöne AA-Modis außer 4xMSAA wenn man nicht gerade einen 30" Flachbildschirm hat. :)
Adam D.
2008-06-01, 11:11:52
Doch die Benches sind relevant, denn sie zeigen das GTX2X0 keien Chance genen eine 4870X2 haben kann und haben wird. Und da ATI die KArte wohl sogar billiger in den MArkt bringt dürfte GTX2X0 in seiner Launchform ein reiner Verlustbringer werden, der mit seiner lauten Kühlung und abbartigen Stromhunger beste FX Erinnerungen weckt.
:ulol: Immerhin kriegt es Nvidia hin, noch "echtes" High-End zu entwickeln. Die HD4870X2 wird genau die selben Kinderkrankheiten haben wie die Vorgänger. Dazu würd mich mal interessieren, wo eine HD4870X2 in Sachen Stromhunger und Lautstärke einer GTX280 überlegen sein soll ;D
Winter[Raven]
2008-06-01, 11:15:19
:ulol: Immerhin kriegt es Nvidia hin, noch "echtes" High-End zu entwickeln. Die HD4870X2 wird genau die selben Kinderkrankheiten haben wie die Vorgänger. Dazu würd mich mal interessieren, wo eine HD4870X2 in Sachen Stromhunger und Lautstärke einer GTX280 überlegen sein soll ;D
Dont feed the trolls... glaub mir.
Es kommt wie es nur kommen kann.
tombman
2008-06-01, 11:15:42
btw, schau dir mal bitte diese benchmarks (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/16/#abschnitt_call_of_juarez), die mit den Cat. 8.3 gemacht wurden an, und vergleiche dann dein "geiles" nvidia diagramm.
Jeder weiß, das CoJ sehr gut auf ATI rennt :rolleyes:
Erst die Masse zeigt wie weit die GX2 vor der X2 ist- die RICHTIG gebenchte Masse, wohl gemerkt. Sprich: keine CPU Limits, keine SLI/CF Fehler auf beiden Seiten.
Erst dann kann man was zur Leistung sagen.
Tja und mit sowas vergleicht Nvidia seine super tolle neue GT200. WARUM WOHL?
Weil Nvidia nur mit dem besten vergleichen kann, was ATI hat, und das ist außerhalb von ATIs Labor nur eine 3870X2 ;D
Oder glaubst AMD schickt Nvidia eine 4870X2 frei Haus? :crazy:
(falls sie überhaupt schon ein lauffähiges Modell haben)
nagus
2008-06-01, 11:21:43
Jeder weiß, das CoJ sehr gut auf ATI rennt :rolleyes:
Erst die Masse zeigt wie weit die GX2 vor der X2 ist- die RICHTIG gebenchte Masse, wohl gemerkt. Sprich: keine CPU Limits, keine SLI/CF Fehler auf beiden Seiten.
Erst dann kann man was zur Leistung sagen.
Weil Nvidia nur mit dem besten vergleichen kann, was ATI hat, und das ist außerhalb von ATIs Labor nur eine 3870X2 ;D
Oder glaubst AMD schickt Nvidia eine 4870X2 frei Haus? :crazy:
(falls sie überhaupt schon ein lauffähiges Modell haben)
ja klar JEDER weiß dass... und vor allem mit den gebenchten 8.3er cats... läufts GANZ toll. ich hab nachgerechnet: die 8.5er cats sind knapp 40%! schneller bei CoJ... hier kannst du jedenfalls schon mal deinen grünen penis kürzen ;)
die anderen werte hab ich jetzt nicht gut vergleichen können, weil mir die werte fehlen. aber ich glaube der unsinn solcher nvidia-diagramme sollte jedem klar sein.
Tarkin
2008-06-01, 11:22:39
was soll der ganze Shice jetzt schon wieder bzgl. X2 und Vergleich mit GX2????!
Ich möchte ja nicht meckern oder so... aber für eine GX2 muss man min. 100 Eier mehr hinlegen als für eine X2
Und die neuesten Treiber zeigen doch DEUTLICHE verbesserungen bei Crossfire und DX10.
Ergo das Diagramm von nVidia ist für Arsch!
(könnte jetzt auch so ein supertolles Gekritzel produzieren, aber das ist mir jetzt zu blöd).
Wenn ich mir die Werte so ansehe, daran denke dass bei der Hälfte der Benchmarks alte Treiber und schlechte Crossfire Skalierung hinzukommen, dann ist es IMO schon vorstellbar dass eine 4870 einer GT260 gefährlich wird... eine X2 version dürfte mit der 280er jedenfalls keine Schwirigkeiten haben.
jaja.. ich weiß schon... crossfire is ja sooo shice. Vielleicht schon mal daran gedacht dass Ati hier das eine oder andere verbessert hat?
Ati hat eine faire Chance verdient!
So ein Quatsch. Eine 48xx x2 wird keine 280 besiegen. Wie kommt ihr darauf? Bei ca. 80% Skalierung muss die 4870 mindesten 70% langsamer sein. Und das wird nicht passieren. Sie wird um den Faktor 2+ langsamer sein.
Ailuros
2008-06-01, 11:25:20
Jedesmal wenn ein kleines Schnippchen von Info zu Tage treibt es manche (aus beiden Seiten) zu vorzeitigen und meistens falschen Schlussfolgerungen dass es nicht mehr schoen ist. Settings in jeglichem Fall, Aufloesung etc?
Doch die Benches sind relevant, denn sie zeigen das GTX2X0 keien Chance genen eine 4870X2 haben kann und haben wird.
Echt? Gut dann will ich aber weitere Erlaeuterungen hoeren und nicht irgend eine idiotische Milchmaedchenrechnung die sich nur auf Glaskugel-Schnueffelei bezieht.
Und da ATI die KArte wohl sogar billiger in den MArkt bringt dürfte GTX2X0 in seiner Launchform ein reiner Verlustbringer werden, der mit seiner lauten Kühlung und abbartigen Stromhunger beste FX Erinnerungen weckt.
LOL :D Wir koennen gerne eine solche Debatte am Auslauf von 2008 wiederholen. Zu diesem Zeitpunkt koennen wir dann zumindest die Erbsen jeweiliger Seite zaehlen. Eines muss ich Dir lassen; man braucht schon ziemlich viel Mut fuer solche Aussagen.
tombman
2008-06-01, 11:26:11
@ATI fanboys: no comment, ist sowieso OT.
Solange ATI kein Wunder Richtung "Lösung der AFR Problems" bietet, solange KANN die 280er GTX gar nicht geschlagen werden ;)
Ailuros
2008-06-01, 11:30:19
Ati hat eine faire Chance verdient!
Und dieses stimmt auch so, aber auch nur voruebergehend und nur fuer den mainstream Bereich.
Uebrig nachdem bleiben die jeweiligen Uebertreibungen beider Seiten dass es langsam laecherlich wird. AMD ist seit dem RV670 am Aufschwung und der RV770 wird auch weiterhin diesen Trend unterstuetzen koennen aber auch wiederrum nix da mit den angezielten 50% des Marktanteils oder irgendwelchen Verlust fuer NVIDIA.
AMD hat sehr gute Chancen fuer 2008 endlich mal wieder etwas Gewinn aus der Grafiksparte zu sehen und ja es ist gut so.
nagus
2008-06-01, 11:30:28
@ATI fanboys: no comment, ist sowieso OT.
Solange ATI kein Wunder Richtung "Lösung der AFR Problems" bietet, solange KANN die 280er GTX gar nicht geschlagen werden ;)
ich hab NIE behauptet, dass die 4870er schneller wird. wäre auch etwas seltsam wenn nvidia es mit einer 650 euro karte nicht schafft, ATIs 300 Euro angebot (um sicher nicht das doppelte) zu übertrumpfen ;)
dargo
2008-06-01, 11:30:40
was soll der ganze Shice jetzt schon wieder bzgl. X2 und Vergleich mit GX2????!
Das frage ich mich auch. Wie man sieht ist CF/SLI eh für den Ar.... wenn man ständig auf neue (gefixte) Treiber angewiesen ist. Lass die X2 von mir aus in CoJ 40% schneller werden. Dann ist die G260GTX laut diesem Diagramm (ich sage ja nicht, dass die Benches echt sind) ~71% schneller als die X2. Wieviel die G280GTX schneller ist weiß ich nicht da das Diagramm nur bis Faktor 2.4 geht (Theoretisch könnten es ~114% sein). Ohne die Frames zu kennen und ob der Vram noch gereicht hat ist es eh mühsam hier irgendwelche Vergleiche anzustellen.
tombman
2008-06-01, 11:33:24
ich hab NIE behauptet, dass die 4870er schneller wird. wäre auch etwas seltsam wenn nvidia es mit einer 650 euro karte nicht schafft, ATIs 300 Euro angebot (um sicher nicht das doppelte) zu übertrumpfen ;)
Von der Non-X2 rede ich doch gar nicht. Ohne X2 schafft ATI doch eh nix mehr...
Die Frage ist, ob die 4870X2 die 280er hauen wird...
ich hab NIE behauptet, dass die 4870er schneller wird. wäre auch etwas seltsam wenn nvidia es mit einer 650 euro karte nicht schafft, ATIs 300 Euro angebot (um sicher nicht das doppelte) zu übertrumpfen ;)
AMD schafft es nichtmal nVidias 150€ Karte richtig zu übertrumpfen. :lol:
Ailuros
2008-06-01, 11:34:36
ich hab NIE behauptet, dass die 4870er schneller wird. wäre auch etwas seltsam wenn nvidia es mit einer 650 euro karte nicht schafft, ATIs 300 Euro angebot (um sicher nicht das doppelte) zu übertrumpfen ;)
Es sieht eher danach aus als ob der Preisunterschied kleiner sein wird. Was den Rest betrifft ich behalte mal das "sicher" fuer den Angang.
Von der Non-X2 rede ich doch gar nicht. Ohne X2 schafft ATI doch eh nix mehr...
Die Frage ist, ob die 4870X2 die 280er hauen wird...
Eine HD4870 wird mit der 9900GTX (G92b) auf Augenhöhe sein, die alte GX2 wird wohl sogar von einer GTS260 geschlagen. Unter Strich kann man damit rechnen, das GTX280 nicht zu schlagen ist, es sei denn das Spiel bietet +70% CF Performance. Ansonsten hauen sich GTS260/X2 ein SLI aus 9900GTX im +450€ Bereich.
BTW ist der Preis der GTX280 in $ niedriger als angenommen.
Schlammsau
2008-06-01, 12:38:53
Eine HD4870 wird mit der 9900GTX (G92b) auf Augenhöhe sein, die alte GX2 wird wohl sogar von einer GTS260 geschlagen. Unter Strich kann man damit rechnen, das GTX280 nicht zu schlagen ist, es sei denn das Spiel bietet +70% CF Performance. Ansonsten hauen sich GTS260/X2 ein SLI aus 9900GTX im +450€ Bereich.
BTW ist der Preis der GTX280 in $ niedriger als angenommen.
Ich glaube nicht an einen G92+!
Wohl aber eher auf Performance KArten auf Basis des GT200.
Hvoralek
2008-06-01, 12:48:08
um deine pupertäre "geilheit" etwas zu dämpfen: die GX2 ist mit aktuellen treibern ca. 10% schneller als eine X2. wir wollen doch auf auf dem boden der tatsachen bleiben und nicht mit 3 monate alten treibern vergleichen... gelle?Dieser Rot- Grün- Krieg hier war jetzt wirklich ein Selbstzweck, oder? Wenn die GX2 nur 10% vor einer X2 liegt, wäre auf Grundlage dieses Marketingmaterials der Vorsprung der GTX2x0 gegenüber der GX2 noch größer. Mit der Überzeugung solltet Ihr doch eigentlich beide glücklich sein können: Dein AMD steht einigermaßen gut da und Tombman bekommt sein Überflieger- High- End :|
Fundierte Einschätzungen, wo bei diesem Marketingzeug die GX2 stünde, sind ohne weitere Angaben zum Test sowieso schwer. Ich vermute, dass sie da häufig noch hinter der X2 läge, wenn selbst der teilweise schon der Speicher ausgeht. Das würde auch erklären, warum sie auf der Folie nicht mit drauf ist.
Doch die Benches sind relevant, denn sie zeigen das GTX2X0 keien Chance genen eine 4870X2 haben kann und haben wird. Und da ATI die KArte wohl sogar billiger in den MArkt bringt dürfte GTX2X0 in seiner Launchform ein reiner Verlustbringer werden, der mit seiner lauten Kühlung und abbartigen Stromhunger beste FX Erinnerungen weckt.Wenn das wirklich eine "echte" 4870 wird, wird höchstens die Energie ohne Ende verpulvern. Zur Erinnerung: Die TDP einer 4870 beträgt anscheinend schon 160W. So eine X2 würde überschlägig 1/2 mehr Energie brauchen als eine 3870 X2, das wäre weit mehr als selbst R600 und sicherlich auch mehr als G200.
Ich rechne eher damit, dass die X2 ähnliche Taktraten aufweisen wird wie die 4850, vll. leicht darüber. Damit hätte man einen Energieverbrauch etwas oberhalb der 3870X2 und eben gut 9800- GTX- SLI- Leistung - wo aber G200 eigentlich drüber liegen muss.
So ist das!
Allerdings sollte man da wiederum nicht vergessen>X2 sind 2 ZWEI!! GPUs.
Und ganz schnell gibt es da eine GT200GTX/X2 Wetten!Mit fast 12 cm² Chipfläche und einer TDP von 500W?:conf:
Selbst eine G200b- GX2 halte ich für äußerst unwahrscheinlich. Da müsste man schon den Energieverbrauch durch 55- nm- Fertigung deutlich senken können oder den Chip erheblich beschneiden.
Ich glaube nicht an einen G92+!Und warum nicht? G92b taucht nun schon länger immer wieder auf; ein 55- nm- Shrink des Chips wäre wohl auch sehr sinnvoll :|
Chris2CB
2008-06-01, 12:49:27
BTW ist der Preis der GTX280 in $ niedriger als angenommen.
Das schreibst du dann nochmal wenn du eine in DE kaufen willst in 3 Wochen:frown: Der Preisunterschied sollte lt. Liste 200 - max.250$ betragen zwischen GTX 280 und HD 4870, wenn dies so eintreffen würde hätte natürlich eine GTX das um welten besser P/L Verhältniss.........
Chris2CB
2008-06-01, 12:53:40
[QUOTE=Hvoralek;6546359]
Wenn das wirklich eine "echte" 4870 wird, wird höchstens die Energie ohne Ende verpulvern. Zur Erinnerung: Die TDP einer 4870 beträgt anscheinend schon 160W. So eine X2 würde überschlägig 1/2 mehr Energie brauchen als eine 3870 X2, das wäre weit mehr als selbst R600 und sicherlich auch mehr als G200.
Ich rechne eher damit, dass die X2 ähnliche Taktraten aufweisen wird wie die 4850, vll. leicht darüber. Damit hätte man einen Energieverbrauch etwas oberhalb der 3870X2 und eben gut 9800- GTX- SLI- Leistung - wo aber G200 eigentlich drüber liegen muss.
QUOTE]
Die Massenproduktion für bestückung der Modelle HD 4850 und HD 4870 läuft, für das X2 Modell allerdings nicht, auch wird diese Karte nicht in 3 Wochen erscheinen, sondern später.
Ich glaube nicht an einen G92+!
Wohl aber eher auf Performance KArten auf Basis des GT200.
nV muss aber den G92 shrinken, da er neue Konkurrenz bekommt. Man würde sonst 9Monate auf dem 65nm Prozess hocken bleiben. Die kleinen GT2xx Derivate sind noch lange hin in 55nm.
Selbst eine G200b- GX2 halte ich für äußerst unwahrscheinlich. Da müsste man schon den Energieverbrauch durch 55- nm- Fertigung deutlich senken können oder den Chip erheblich beschneiden.|
Eine GX2 auf GT200 basierend wirds nicht geben. Warum auch, mit dem kommenden Shrink und selektiven Chips für die Ultra Edition hat man über den RV870 hinaus das Highend inne. Wichtiger sind die 55nm G2xx GPUs...
Hvoralek
2008-06-01, 13:04:50
Das schreibst du dann nochmal wenn du eine in DE kaufen willst in 3 Wochen:frown: Der Preisunterschied sollte lt. Liste 200 - max.250$ betragen zwischen GTX 280 und HD 4870, wenn dies so eintreffen würde hätte natürlich eine GTX das um welten besser P/L Verhältniss.........Wenn man von den bisher genannten Zahlen ausgeht, lägen die Listenpreise bei $649 (280) bzw. $329 (4870), die Differenz also bei $320. Ich nehme an, dass es i.E. weniger sein wird, aber nicht wegen der Äußerung des Gastes, sondern wegen der direkt vor ihm.
Die Massenproduktion für bestückung der Modelle HD 4850 und HD 4870 läuft, für das X2 Modell allerdings nicht, auch wird diese Karte nicht in 3 Wochen erscheinen, sondern später.Wo ist jetzt der Neuigkeitsgehalt dieses Beitrags? Bei einem Hardlaunch im Juni muss die Produktion natürlich jetzt laufen; dass die X2 erst später kommt, ist auch seit Längerem absehbar und
der Bezug zu dem von Dir zitierten Beitrag bzgl. des Stromverbrauchs einer 4870- X2?
Schlammsau
2008-06-01, 13:13:29
Und warum nicht? G92b taucht nun schon länger immer wieder auf; ein 55- nm- Shrink des Chips wäre wohl auch sehr sinnvoll :|
Wo gibt es Gerüchte eines G92b?
Hvoralek
2008-06-01, 13:15:55
Wo gibt es Gerüchte eines G92b?In diesem Thread z.B.: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6534059#post6534059
Chris2CB
2008-06-01, 13:56:28
Wo ist jetzt der Neuigkeitsgehalt dieses Beitrags? Bei einem Hardlaunch im Juni muss die Produktion natürlich jetzt laufen; dass die X2 erst später kommt, ist auch seit Längerem absehbar und
der Bezug zu dem von Dir zitierten Beitrag bzgl. des Stromverbrauchs einer 4870- X2?
Du hast nur eine Grobe Mildchmädchenrechnung gemacht und hast dazu auch noch vergessen das auf einer 3870X2 selektierte Ware verbaut ist, mit den Taktraten einer normalen 3870 währe der Verbrauch also niedriger wie von 2stk. 3870.
Ich schreibe es nochmal:Die Massenproduktion für bestückung der Modelle HD 4850 und HD 4870 läuft, für das X2 Modell allerdings nicht, auch wird diese Karte nicht in 3 Wochen erscheinen, sondern später.
Da ich keine Ahnung habe wie gut die Produktion läuft muss ich den Satz nunmal so formulieren, dazu kommt noch das ich nichtmal ansatzweise Ahnung davon habe wie gut die Produktion in 2 Monaten läuft. Von daher mache ich von meiner Seite aus keine Milchmädchenrechnung, kann jeder für sich selbst machen.
Hvoralek
2008-06-01, 14:21:26
Du hast nur eine Grobe Mildchmädchenrechnung gemacht und hast dazu auch noch vergessen das auf einer 3870X2 selektierte Ware verbaut ist, mit den Taktraten einer normalen 3870 währe der Verbrauch also niedriger wie von 2stk. 3870.Mir ist klar, dass man Chips selektieren kann und das für solche Karten auch tun wird (sowohl bei der 3870 X2 als auch für die 48xx X2). Aus dem Grund (und wegen Einplatinenbauweise) habe ich eben nicht gerechnet, eine 4870 habe eine TDP von 160W, eine X2 müsse also eine von 320W aufweisen. Stattdessen habe ich überschlagen, dass, wenn die 4870 gut 50% mehr Energie braucht als eine 3870 (TDP 160W ./. 105W), eine 4870 X2 knapp 50% mehr brauchen sollte als eine 3870 X2. Dabei nehme ich an, dass sich bei beiden Chips durch Selektion/ niedrige Spannungen gegenüber den Modellen mit normalen Chips ungefähr gleich viel erreichen lässt. Wenn die Qualitätsschwankungen bei RV770 deutlich größer sind als bei RV670 und man bei ein paar guten Chips die Spannung deutlich weiter senken kann, könnte eine 4870- X2 mit nur wenig mehr Energieverbrauch als bei der 3870 möglich sein. Ich sehe aber imM keinen Anhaltspunkt dafür.
Ich schreibe es nochmal:Die Massenproduktion für bestückung der Modelle HD 4850 und HD 4870 läuft, für das X2 Modell allerdings nicht, auch wird diese Karte nicht in 3 Wochen erscheinen, sondern später.
Da ich keine Ahnung habe wie gut die Produktion läuft muss ich den Satz nunmal so formulieren, dazu kommt noch das ich nichtmal ansatzweise Ahnung davon habe wie gut die Produktion in 2 Monaten läuft. Von daher mache ich von meiner Seite aus keine Milchmädchenrechnung, kann jeder für sich selbst machen.Dann frage ich noch einmal: Wieso spielt das in dem Zusammenhang eine Rolle? Meinst Du einfach, man brauche die zusätzliche Zeit, um selektierte Chips zusammenzubekommen?
I.Ü. sind wir im Speku- Forum. Da ist es mir lieber, anhand nicht gesicherter, aber plausibler Prämissen (Selektion bei RV670 und RV770 ungefähr gleich effektiv) Vermutungen anzustellen (z.B. über den Energieverbrauch eine RV770- X2). Wenn Du zu Dingen, die nicht zweifelsfrei gesichert sind, schlicht gar nichts schreiben oder lesen möchtest, ist das wohl das verkehrte Unterforum.
Von CJ wurde folgender Benchmark geposted:
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
Danach sollte Crysis in Very High, 1920, 1xAA spielbar sein.
dargo
2008-06-01, 15:21:35
Von CJ wurde folgender Benchmark geposted:
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
Danach sollte Crysis in Very High, 1920, 1xAA spielbar sein.
Hast du die letzten Seiten verschlafen?
Black-Scorpion
2008-06-01, 15:22:28
Von CJ wurde folgender Benchmark geposted:
http://www.vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html
Danach sollte Crysis in Very High, 1920, 1xAA spielbar sein.
Wie oft kommt der noch?
kann denn keiner wenigstens 1 oder 2 Seiten zurückblättern ob das schon gepostet wurde?
Der Gast nervt nicht aber eure "wie oft den noch" Sprüche nerven gewaltig.
AnarchX
2008-06-01, 15:57:00
Der Gast nervt nicht aber eure "wie oft den noch" Sprüche nerven gewaltig.
So ist es. Aber wie immer wird jeden angeraten, bevor man eine vermeintliche News postet, mal einen Blick ins 1. Posting zu werfen.
Aber nun BTT:
Ich würde doch sagen, dass wir diese PR-Benches erstmal ad acta legen und auf ernsthafte Werte warten sollten, die ja laut diversen Ankündigungen von Ailuros und Co. auch nicht unbedingt enttäuschen werden.
Frage an die Experten:
Warum?
10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs
80 TMUs sind doch totaler Overkill, die Füllrate einer 8800Ultra wird doch nie der limitierende Faktor sein, eher geht die Bandbreite aus oder sie Shadereinheiten drücken nicht genug Ergebnisse raus.
Im vgl. zu AMD sind die G92 Karten ja Überdosiert was TMU Leistung angeht, warum lässt man hier nicht was weg? Dachte TMUs und die Skalareinheiten sind voneinander entkoppelt.
Dann hätte man den Transistorcount doch drücken können oder?
AnarchX
2008-06-01, 18:22:16
Die Shaderleistung wurde doch im Vergleich zur 88Ulta um das 2.4-fache(384 vs 933 GFLOPs) erhöht, da würde ich eine Erhöhung der Tex-Leistung um nicht mal 25% nicht gerade als Overkill bezeichnen.
GT200 soll eben auch weiterhin hochqualitative Filterung bei hoher Geschwindigkeit liefern.
Irgendwann wäre sicherlich mal der Schritt auf >16x AF nett, wie es manche Simulation via SSAA gezeigt hat, aber das soll wohl die TMUs ziemlich aufblasen.
Mal noch ein paar Werte zur TMU-Auslastung von G8x:
http://www.digit-life.com/articles2/video/g80_units2.html
Aus den >50% Werte der GTX würde ich doch schlussfolgern, dass die 80 TMUs des GT200 jedenfalls gut zu den restlichen Specs passen.
Aber man könnte doch loopen oder? 2xBI-AF ist ja quasi gratis wenn genug TAs vorhanden sind.
Das die Shaderleistung zulegt gefällt sicher jedem, z.b. Age of Conan wird davon extrem profitieren. Wenn ich bei meiner GTS640 den Shadertakt auf 1500 hochdrehe steigen die FPS um bis zu 10FPS an, die GPU an sich mit +80MHz liefert 3FPS. Klar sind viele Bumpmaps dabei (die Dungeons haben wohl einen sehr niedrigen Polycount, da man mit der Kameraperspektive nah an die Ränder rangehen kann und man sieht, es sind vieleicht 20 Ecken, der rest ist total Plan und nur die Texturen machen den Eindruck der Tiefe),
Mir ist eben unwohl, das die Textureleistung so hoch ist, bei der Konkurrenz jedoch nicht, und die FPS sind jetzt nich sooo Unterschiedlich, bei AMD ist ja eher der Shaderunterbau kompliziert zu füttern.
Die TMUs sind bei nVidia relativ billig. Deswegen soviele.
AMD hat dagegen relativ billige Recheneinheiten.
davidzo
2008-06-01, 18:44:53
Es sieht hier im Thread und auch im rv770 Thread vermehrt so aus, als wenn bei der GTX280 etwa die doppelte Leistung eines G92 erwartet wird.
Wie kommt ihr auf diese absurde Idee?
Dabei kann dass doch garnicht der Fall sein, weil der G92 nichteinmal annähernd verdoppelt wurde und auch die Taktraten verdammt niedrig ausfallen.
Dass eher der Takt entscheidend ist und weniger die Pixelfüllrate zeigt ganz deutlich das Verhältnis zwischen g92 und G80, welche sich beide nichts nehmen, obwohl der g80 in pixelfüllrate und bandbreitze deutlich besser ausgestattet ist.
Nun geht es wieder in Richtung G80?
Mit einer nichteinmal verdoppelten Pixelfüllrate (11.000 vs 19.000 Mpix/s) , einer marginal besseren Texelfüllrate (48.000 vs 43.000 Mtex/s) und nur geringfügig verbesserten Flop-shading-Leistung (933 vs 643 Gflop/s), sehe ich nicht wie der G200 auch nur 50% Mehrleistung als ein G92GTX in realworld-Anwendungen bringen soll? Schließlich sind viele Spiele ja auch CPUlimitiert.
Und was soll bitteschön die Verdoppelung der Bandbreite? Beim Speicherausbau sind 1GB sinnvoll, das ist klar, aber wozu das große Interface wenn man beim G92gtx gesehen hat wie überflüssig es im G80 war.
Was macht Nvidia da nur, mit ihren 1-1,4 bio. Trannies?
Ich vermute eher dass der eigentliche chip von anfangan mit ein paar zusätzlichen shadern ausgestattet ist um den von vornherein zu erwarteten Yield-Problemen entgegen zu wirken.
Das ursprüngliche großmaulige Getöne von mehr als doppelter G80-Leistung kann mit dem GT200 nichteinmal annähernd eingehalten werden.
Da ATI auch nur eine Verbreiterung des bisherigen RV670 vornimmt und die Prozentzahlen des rv770 gegenüber dem 670 dort ähnlich zwischen 60 und 100% liegen, erwarte ich dass das Duell rv770 gegen GT200 ähnlich ausgeht wie das letzte zwischen G92 und rv670 (allerdings muss man beim g92 die gtx nehmen).
Demnach sieht es wesentlich ärger für den GT200 aus als gedacht. Dieselbe Situation wie diesen Frühling, nur hat man keine gx2 mal eben im Ärmel, die der ATI Dualkarte dann den Titel wieder abluchst.
Im Gegenteil, die GTX280 mag zwar die sauberere Lösung sein, aber die X2 wird an der Performancekrone nagen und sie in vielen weniger qualifiziert gemachten Tests auch übernehmen können...
Weiterhin ist das Ungleichgewicht in den Herstellungskosten zwischen GT200 und RV770 eklatant größer als beim letzten Rennen G92 gegen rv670.
Ich glaube nvidia hat sich mit dem GT200 ziemlich vergallopiert, wie auch beim Intel Chipsetbusiness für die kommende Nehalem-Generation.
Für Highend Gamer mit hohen Ansprüchen und Wissen wie z.B. 3Dcenter User mag der Chip interessant sein, aber aus Wirtschaftlicher Sicht für Nvidia eine Katastrophe und auch beim durchschnittsPCgamer mit Kohle dürfte der Chip weniger gute Aussichten haben, hat ATI doch mit X2 und GDDR5 und hohen Shaderzahlen den Hammer in der Hand.
Der G92b ist daher imo der einzige Ass den nvidia dann auch dringend brauch. Ich hoffe das beste für nvidia, dass sich die Umstellung auf 55nm beim G92b grundlegend positiv auswirkt und der chip auch noch gegen den rv770 reicht.
Der gt200 hat für den Massenmarkt auch keinerlei Auswirkungen und wird produktionsbedingt auch hier im 3dcenter keine Bedeutung bekommen. Für uns ist vielmehr interessant wie der G92b aussieht, denn dieser entscheidet auch über nvidias Zukunft (gt200b, der erste nutzbare weil volumenmäßig ausreichend produzierte gt200).
dildo4u
2008-06-01, 18:49:27
Geringfügig verbesserten Flop-shading-Leistung (933 vs 643 Gflop/s), sehe ich nicht wie der G200 auch nur 50% Mehrleistung als ein G92GTX in realworld-Anwendungen bringen soll? .
Moderne Spiele werden immer Shaderleistungslimitierter und die 643Gflops bzw 500Gflops kann der G92 bzw. G80 nicht komplett nutzen der G200 seine 933Gflop/s hingegen schon.
*Die von uns angegebenen GFLOP-Zahlen der G80-Grafikkarten entsprechen dem theoretisch maximalen Output, wenn alle ALUs auf die gesamte Kapazität der MADD- und MUL-Einheiten zurückgreifen können. Dies ist auf einem G80 allerdings praktisch nie der Fall. Während das MADD komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Mit dem ForceWare 158.19 (sowie dessen Windows-Vista-Ableger) kann das zweite MUL zwar auch für General Shading verwendet werden, anscheinend aber nicht vollständig, da weiterhin die „Sonderfunktionen“ ausgeführt werden müssen. Deswegen liegen die reellen GFLOP-Zahlen unter den theoretisch maximalen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/2/#abschnitt_technische_daten
Von daher ist das reine vergleichen der Daten eh Unsinn,weil auch noch an anderen Stellen an der Effizienz gearbeitet wurde.Nicht vergessen NV hatte diesmal deutlich länger Zeit zum Optemieren.
Adam D.
2008-06-01, 18:49:40
Es sieht hier im Thread und auch im rv770 Thread vermehrt so aus, als wenn bei der GTX280 etwa die doppelte Leistung eines G92 erwartet wird.
Wie kommt ihr auf diese absurde Idee?
Dabei kann dass doch garnicht der Fall sein, weil der G92 nichteinmal annähernd verdoppelt wurde und auch die Taktraten verdammt niedrig ausfallen.
Dass eher der Takt entscheidend ist und weniger die Pixelfüllrate zeigt ganz deutlich das Verhältnis zwischen g92 und G80, welche sich beide nichts nehmen, obwohl der g80 in pixelfüllrate und bandbreitze deutlich besser ausgestattet ist.
Nun geht es wieder in Richtung G80?
Mit einer nichteinmal verdoppelten Pixelfüllrate (11.000 vs 19.000 Mpix/s) , einer marginal besseren Texelfüllrate (48.000 vs 43.000 Mtex/s) und nur geringfügig verbesserten Flop-shading-Leistung (933 vs 643 Gflop/s), sehe ich nicht wie der G200 auch nur 50% Mehrleistung als ein G92GTX in realworld-Anwendungen bringen soll? Schließlich sind viele Spiele ja auch CPUlimitiert.
Ich bin technisch nicht allzu versiert, jedoch solltest du dir einige Postings zu dem Thema von Ailuros durchlesen, denn beim G200 gilt: technische Daten =! technische Daten.
Das ursprüngliche großmaulige Getöne von doppelter G80-Leistung kann mit dem GT200 nichteinmal annähernd eingehalten werden.
Da ATI auch nur eine Verbreiterung des bisherigen RV670 vornimmt und die Prozentzahlen des rv770 gegenüber dem 670 dort ähnlich zwischen 60 und 100% liegen, erwarte ich dass das Duell rv770 gegen GT200 ähnlich ausgeht wie das letzte zwischen G92 und rv670 (allerdings muss man beim g92 die gtx nehmen).
Das kannst du getrost vergessen. Denkst du tatsächlich, ein 575mm²-Die misst sich mit einem ~250mm²-Die?
G200 kicks ass, mit Sicherheit. Alles andere wäre auch peinlich.
davidzo
2008-06-01, 18:52:32
G200 kicks ass, mit Sicherheit. Alles andere wäre auch peinlich.
eben, ich nehme dann mal an, dass es peinlich wird. die vantage scores sind doch völlig aus der Luft gegriffen.
Ich wüsste nicht, wieso die Einschränkungen der Flop-Zahlen beim G92 nicht auch auf den gt200 übertragbar wären, weist doch das sternchen bei computerbase welches sowohl beim g92 als auch beim gt200 vorhanden ist sogar zusätzlich darauf hin. Schließlich sind das doch alles G8x...
Es kommt nicht auf die theoretischen Zahlen an.
Der Transistorcount erhöht sich von 680 beim G80 auf ca. 1400 Milliarden. Damit sollten eine 2+x fache Leistungssteigerung erreicht werden.
Ein G9x hat Probleme bei der Speichernutzung und bei AA mit mehr als 4 Colorsamples. Hier sollte der neue Chip wesentlich effizienter arbeiten.
Adam D.
2008-06-01, 18:55:19
eben, ich nehme dann mal an, dass es peinlich wird. die vantage scores sind doch völlig aus der Luft gegriffen.
Ok, wir sprechen uns in 14 Tagen nochmal. Ich weiß, es werden alle wieder drauf rumreiten, wie heiß die Karte doch wird und möglicherweise wie laut sie ist. Trotzdem wird der G200 einen G92 um 80-100+% schlagen und das in alltagstauglichen Szenarien. Ich versteh nicht, wie manche Leute hier glauben, dass Nvidia bei so 'nem Projekt halbe Sachen macht :|
Der_Korken
2008-06-01, 18:57:28
Was macht Nvidia da nur, mit ihren 1-1,4 bio. Trannies?
So wie es aussieht, sind wohl extrem viele Transistoren in die Verbesserung der Effizienz geflossen. Der G(T)200 wird wohl deutlich mehr Leistung pro Takt, pro Funktionseinheit besitzen.
dildo4u
2008-06-01, 19:00:15
Schließlich sind das doch alles G8x...
Wie kommst du auf die Idee das man nach 1.5 Jahren einfach ein G80 nimmt nix verändert und den Chip einfach nur aufblässt?Warum braucht NV so viele Transistoren dafür wenn wie du schon bemekert hast nicht alle Funktionseinheiten verdoppelt wurden?Ebend weil mher Umgebaut wurde als viele vermuten.Unter anderem hat NV schon bestätigt das die Effizienz pro Shaderprozessor um 50% erhöt wurde.Das sind die Einheiten die der G80 nicht komplett nutzen kann siehe mein Post oben.Wir reden hier also von 128 SP beim G80/G92 vs 240 SP Plus 50% pro SP beim G200.
Chris2CB
2008-06-01, 19:03:03
Ok, wir sprechen uns in 14 Tagen nochmal. Ich weiß, es werden alle wieder drauf rumreiten, wie heiß die Karte doch wird und möglicherweise wie laut sie ist. Trotzdem wird der G200 einen G92 um 80-100+% schlagen und das in alltagstauglichen Szenarien. Ich versteh nicht, wie manche Leute hier glauben, dass Nvidia bei so 'nem Projekt halbe Sachen macht :|
Man stellt sich echt die Frage ob viele Zocker an Alzheimer leiden, währe ja nicht die erste Karte seit 10 Jahren die einen großen Sprung nach vorne macht Radeon 8500 - 9700Pro war auch ein ordentlicher Sprung zB. In einem Jahr wird kein Hahn mehr nach nem G80 schreien, weil zu langsam und futtert zuviel, spätestens in 2010 siehts dann auch so mit dem G200 aus.
Wenn die 4870 auf dem Niveau der GTX260 liegt (auch in Auflösung 1920x1200 mit 4xAA)und für das Geld zu haben ist wie speku wird kauf kein Mensch die G200/260,ich bin wirklich gespannt.
Ich zitiere mal Frei von der Hand, was im Beyond3d Forum rauszulesen ist und Ailuros hier kundgetan hat.
Man hat das "fehlende" MUL gefunden, Sprich die theoretische und poraktische Shaderleistung liegen nun sehr viel näher beieinander als noch bei G80.
Die 260 wird sich wahrscheinlich zu 4870 verhalten wie die 9800GTX zur 3870!
Wenn die 4870 auf dem Niveau der GTX260 liegt (auch in Auflösung 1920x1200 mit 4xAA)und für das Geld zu haben ist wie speku wird kauf kein Mensch die G200/260,ich bin wirklich gespannt.
RV770 ist sozusagen der 2. Refresh des R600. RV670 war schon solide und hat die Bugs aus dem Design gekonnt gebügelt bzw. retourchiert. RV770 setzt genau da an, wo RV670 aufgehört an.
Deswegen geht man auch nicht von einer Bomben Highend Leisgung aus beim RV770. Dieser wird sich mit dem G92b messen, wobei er diesen wohl überflügelt. Die GTX260 wird wohl 15-25% davor liegen.
Und ich glaube außerdem immer noch (bis ich eines besseren belehrt werde) das es von beiden immer noch eine Riesenverarsche ist mit den kommenden Karten und man ab 1920x1280 immer noch SLI oder CF braucht wenn AA ins Spiel kommt.<und die "richtigen" Karten frühestens Ende des Jahres kommen.
AnarchX
2008-06-01, 19:14:59
Ich zitiere mal Frei von der Hand, was im Beyond3d Forum rauszulesen ist und Ailuros hier kundgetan hat.
Man hat das "fehlende" MUL gefunden, Sprich die theoretische und poraktische Shaderleistung liegen nun sehr viel näher beieinander als noch bei G80.
Ganz genau, zudem sollen laut CJ eine 3-fache ROP-Blending-Leistung und doppelte so große Register wie bei G8x/G9x dazukommen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6541053&postcount=1735
Nur rein auf die Paper-Peak-Werte verschiedener GPUs zu schauen und daraus auf die Leistung zu schließen, sollte sich doch spätestens seit G7x vs R5xx als unpraktikabel erwiesen haben.;)
Mir ist eben unwohl, das die Textureleistung so hoch ist, bei der Konkurrenz jedoch nicht, und die FPS sind jetzt nich sooo Unterschiedlich, bei AMD ist ja eher der Shaderunterbau kompliziert zu füttern.
Hochwertige Filterung ist offenbar ziemlich teuer bzw. kann man mit geringen Einsparungen, wie es ATi praktiziert, relativ viel Leistung gewinnen.
Nakai
2008-06-01, 19:16:17
2fache 8800Ultra-Leistung ist zu erwarten.
Etwa 50% schneller als eine 9800GX2.
mfg Nakai
RV770 ist sozusagen der 2. Refresh des R600. RV670 war schon solide und hat die Bugs aus dem Design gekonnt gebügelt bzw. retourchiert. RV770 setzt genau da an, wo RV670 aufgehört an.
Deswegen geht man auch nicht von einer Bomben Highend Leisgung aus beim RV770. Dieser wird sich mit dem G92b messen, wobei er diesen wohl überflügelt. Die GTX260 wird wohl 15-25% davor liegen.
Wenn das stimmen sollte,lach ich mich kaputt,welcher denkende Mensch kauft sich so ein Monster wenns um 15-20% geht.
2fache 8800Ultra-Leistung ist zu erwarten.
Etwa 50% schneller als eine 9800GX2.
mfg Nakai
Im Leben nicht!
Wo soll das bitteschön herkommen?
Und ich glaube außerdem immer noch (bis ich eines besseren belehrt werde) das es von beiden immer noch eine Riesenverarsche ist mit den kommenden Karten und man ab 1920x1280 immer noch SLI oder CF braucht wenn AA ins Spiel kommt.<und die "richtigen" Karten frühestens Ende des Jahres kommen.
Bis mitte März dachten wir alle, dass wir den Sommer mit 55nm Refreshes überwintern, bis dann im November, 2Jahre nach G80, dessen Nachfolger in Erscheinung tritt. Warum man vorgezogen hat, ist wohl die Tatsache, dass wohl im Januar schon bei AMD/nV klar war, das RV770 früher kommt, eben Mitte 2008.
Deswegen ein GT200, damals gab es auch das große Namenswirrwar.
Im Leben nicht!
Wo soll das bitteschön herkommen?
Hm, dann ist eine 4870 auch nur 33% schneller als die 3870. Dann gibt es doch garkeine Probleme.
AnarchX
2008-06-01, 19:28:05
Bis mitte März dachten wir alle, dass wir den Sommer mit 55nm Refreshes überwintern, bis dann im November, 2Jahre nach G80, dessen Nachfolger in Erscheinung tritt. Warum man vorgezogen hat, ist wohl die Tatsache, dass wohl im Januar schon bei AMD/nV klar war, das RV770 früher kommt, eben Mitte 2008.
Deswegen ein GT200, damals gab es auch das große Namenswirrwar.
GT200 ist seit Ende 2007 fertig und war offenbar schon eher geplant, da NV Anfang 2007 im CUDA-FAQ für Ende 2007 eine GPU mit Doppelter Genauigkeit verspracht, was eben erst GT200 mit sich bringen wird.
Im Leben nicht!
Wo soll das bitteschön herkommen?
Thread lesen bzw. mein letztes Posting.
Wenn das stimmen sollte,lach ich mich kaputt,welcher denkende Mensch kauft sich so ein Monster wenns um 15-20% geht.
Erstmal abwarten, die aktuellen Spekus sagen doch etwas anderes:
9800 GTX 100%
HD4870 125%
GTX 260 170% >30% gegenüber der HD4870
GTX 280 200%
Zudem sind die Werte für GT200 wohl etwas niedrig angesetzt, laut Ailuros.
was willste mit 33%? Gehts noch?Leg das mal auf auf 1920x1200 mit 4xAA was da schneller ist bzw Spielbar...
Dasselbe mit G200>50%schneller als GX2 wenns dann stimmen sollte>UND? Was soll ich damit? Mich über 10FPS mehr freuen von 15 auf 25? SUPERKLASSE und ja ich denke jetzt an Crysis.
GT200 ist seit Ende 2007 fertig und war offenbar schon eher geplant, da NV Anfang 2007 im CUDA-FAQ für Ende 2007 eine GPU mit Doppelter Genauigkeit verspracht, was eben erst GT200 mit sich bringen wird.
Sicher? Warum bringt man ihn dann scheinbar überstürzt. Wenn die Architektur so flexibel ist, wäre ein, 6 Monate danach, GT201 mit nur
8 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten wohl die günstigere Wahl gewesen. Dann hätte man sich auch den GX2 sparen können, wäre über die Taktrate mit einer Ultra sicher vor RV770 geblieben und hätte eine andere GX2 fürs Highend basteln können.
Aber nein die grobe Kelle muss ja her, nicht das ich was dagegen habe, aber irgendwie passt es nicht so ganz zusammen.
Es sei denn das CUDA Pferdchen brauch einen gewissen Anschub...
davidzo
2008-06-01, 19:40:07
Hm, dann ist eine 4870 auch nur 33% schneller als die 3870. Dann gibt es doch garkeine Probleme.
ROFL, das ist nun aber eindeutig Fanboy gehabe.
"mäh, wenn die karte meiner Firma nicht 100% schneller wird, wird es die der anderen firma auch nicht".
Ich denke die vielen Transistoren wurden in erster Linie geopfert um Temperatur- und yieldproblemen entgegenzuwirken. Dasmit den 1,4 bio ist außerdem noch überhaupt nicht gesichert, viele wuellen sprechen auch von rund 1bio.
bei einer verbreiterung des g92 designs komme ich auch auf ca. 1bio, daher halte ich das für wahrscheinlich.
Peak-Werte sind die einzigen Daten mit denen wir rechnen können.
In der Regel verschlechtert sich dioe Effizienz von Grafikchips immer mit steigender breite, takt und Gesamtleistung. Eine Effizienzverbesserung durch mehr register, caches usw. gegenüber G80 würde dieses Phänomen lediglich kompensieren.
GT200 ist seit Ende 2007 fertig und war offenbar schon eher geplant, da NV Anfang 2007 im CUDA-FAQ für Ende 2007 eine GPU mit Doppelter Genauigkeit verspracht, was eben erst GT200 mit sich bringen wird.
Auf keinen Fall, denn dann hätte man sich die Zeit genommen den GT200b herauszubringen. An 55nm hat man schließlich schon länger gearbeitet, der gt92b ist quasi da. Der GT200 ist eher eine überstürzte Notlösung, das sieht an an der enormen Größe und den vergleichsweise lächerlichen taktraten. Wenn alles nach Plan läuft tauscht man lieber Takt mit Transistoren und nicht umgekehrt.
Wäre es zu vermeiden gewesen hätte es den GT200 nicht gegeben, sondenr gleich den GT200b. Der GT200 soll aber verhindern dass AMD Marktanteile im Highend gegen die gx2 zurückgewinnen kann.
Interessant, wie hier aber immer an die Zauberkünste unseres Jen Hsun Huang und seiner limettengrünen Firma geglaubt wird...
Erinnert mich irgendwie an den 3Dcenterthread zum nv30, wo alle Grafikspezialisten prohezeit haben dass der r300 nichts dagegen sei und man auf das neueste beste nvidiaprodukt warten solle...
Den auf dem absteigen Ast befindlichen roten Männern traut man offensichtlich nichts mehr zu. Neben auflösungserscheinungen steigt dort aber auch das potential durch erhöhten druck und konsolidierung.
GT200 ist seit Ende 2007 fertig und war offenbar schon eher geplant, da NV Anfang 2007 im CUDA-FAQ für Ende 2007 eine GPU mit Doppelter Genauigkeit verspracht, was eben erst GT200 mit sich bringen wird.
Thread lesen bzw. mein letztes Posting.
Erstmal abwarten, die aktuellen Spekus sagen doch etwas anderes:
9800 GTX 100%
HD4870 125%
GTX 260 170% >30% gegenüber der HD4870
GTX 280 200%
Zudem sind die Werte für GT200 wohl etwas niedrig angesetzt, laut Ailuros.
laut den neusten specus ist die 4870 auf 9800GTX +40% level anzusiedeln.
AnarchX
2008-06-01, 19:51:41
was willste mit 33%? Gehts noch?Leg das mal auf auf 1920x1200 mit 4xAA was da schneller ist bzw Spielbar...
Dasselbe mit G200>50%schneller als GX2 wenns dann stimmen sollte>UND? Was soll ich damit? Mich über 10FPS mehr freuen von 15 auf 25? SUPERKLASSE und ja ich denke jetzt an Crysis.
Nunja, die wirklichen "Crysis-Karten" kommen wohl erst 2009, sofern man nicht auf das verbesserungswürdige MGPU setzt.
Zu HD4870 vs GTX 260: $329 vs 449, also etwa der Unterschied auf dem sich auch die Leistung nach aktuellen Spekulationen bewegen soll und dabei ist die GTX 260 High-End, wo man sonst überproportional draufzahlen muss.
Aber diese Diskussion sollten wir wohl erstmal ruhen lassen, bis sich beiden Karten in einem unabhängigen Benchmarkparkour gegenüberstehen.
btw.
Achte auf einen angemesseneren Ton, sonst wird getrasht!
Sicher? Warum bringt man ihn dann scheinbar überstürzt. Wenn die Architektur so flexibel ist, wäre ein, 6 Monate danach, GT201 mit nur
8 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten wohl die günstigere Wahl gewesen. Dann hätte man sich auch den GX2 sparen können, wäre über die Taktrate mit einer Ultra sicher vor RV770 geblieben und hätte eine andere GX2 fürs Highend basteln können.
IHV-Planung sind eher langfristig, vorallem im Bezug auf die GPU an sich.
Aber nein die grobe Kelle muss ja her, nicht das ich was dagegen habe, aber irgendwie passt es nicht so ganz zusammen.
Es sei denn das CUDA Pferdchen brauch einen gewissen Anschub...
Nunja, der Ur-R700 sah Ende 2007 noch deutlich mächtiger nach AMDs eigenen Projektionen aus, sodass NVs Leistungsführerschaft in Gefahr war.
Aber wie du es schon selbst sagst, sind die anderen Marken wie Tesla und Quadro auch nicht so unwichtig, vor allem bei letzerem sah G8x/G9x mit seinem 1/2 Dreieck pro Takt nicht so gut aus.
dildo4u
2008-06-01, 20:00:48
Ich denke die vielen Transistoren wurden in erster Linie geopfert um Temperatur- und yieldproblemen entgegenzuwirken. Dasmit den 1,4 bio ist außerdem noch überhaupt nicht gesichert, viele wuellen sprechen auch von rund 1bio.
.
Klar sind die gesichert die Die Size ist bekannt der Fertigungsprozess auch.Außerdem ist schon das PR Material zum G200 durchgesickert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6542350&postcount=51
AnarchX
2008-06-01, 20:03:52
Ich denke die vielen Transistoren wurden in erster Linie geopfert um Temperatur- und yieldproblemen entgegenzuwirken. Dasmit den 1,4 bio ist außerdem noch überhaupt nicht gesichert, viele wuellen sprechen auch von rund 1bio.
Eine NV-Folie, auf die bevor sie veröffentlicht wurde mehrfach hingewiesen wurde, ist keine sichere Quelle? Zudem wäre weniger bei den schon seit Monaten bekannten 575mm² eher lächerlich.
Peak-Werte sind die einzigen Daten mit denen wir rechnen können.
Macht es aber nicht besser, vorallem wenn man die dazu gehörigen Einschätzung über Realitätsnähe ignoriert.
In der Regel verschlechtert sich dioe Effizienz von Grafikchips immer mit steigender breite, takt und Gesamtleistung. Eine Effizienzverbesserung durch mehr register, caches usw. gegenüber G80 würde dieses Phänomen lediglich kompensieren.
Deshalb war G80 auch so ineffizient gegenüber G70?
Auf keinen Fall, denn dann hätte man sich die Zeit genommen den GT200b herauszubringen. An 55nm hat man schließlich schon länger gearbeitet, der gt92b ist quasi da. Der GT200 ist eher eine überstürzte Notlösung, das sieht an an der enormen Größe und den vergleichsweise lächerlichen taktraten. Wenn alles nach Plan läuft tauscht man lieber Takt mit Transistoren und nicht umgekehrt.
Wäre es zu vermeiden gewesen hätte es den GT200 nicht gegeben, sondenr gleich den GT200b. Der GT200 soll aber verhindern dass AMD Marktanteile im Highend gegen die gx2 zurückgewinnen kann.
Vieles hiervon wird sich am 17. offenbaren.
Interessant, wie hier aber immer an die Zauberkünste unseres Jen Hsun Huang und seiner limettengrünen Firma geglaubt wird...
Wir wollen doch keine flame-haltige Tendenz aufkommen lassen.
Dass du andere Nutzer als Fanboy oder ähnliches bezeichnest, will ich auch nicht noch einmal sehen:
ROFL, das ist nun aber eindeutig Fanboy gehabe.
"mäh, wenn die karte meiner Firma nicht 100% schneller wird, wird es die der anderen firma auch nicht".
Erinnert mich irgendwie an den 3Dcenterthread zum nv30, wo alle Grafikspezialisten prohezeit haben dass der r300 nichts dagegen sei und man auf das neueste beste nvidiaprodukt warten solle...
Und ich kann mich an einen G80 erinnern, der ein weiterer CineFX-Abkömmling mit angeflanschtem DX10 sein sollte und gegen R600 untergehen sollte.;)
Es ist wie immer die Schwierigkeit den richtigen Weg zwischen Übertreibung und Untertreibung zu finden, und da vertraue ich doch auf verlässliche, bewiesene Quelle im 3DC und ausserhalb.
Den auf dem absteigen Ast befindlichen roten Männern traut man offensichtlich nichts mehr zu. Neben auflösungserscheinungen steigt dort aber auch das potential durch erhöhten druck und konsolidierung.
Natürlich wünscht sich jeder das beste für ATi, aber die Realität ist nunmal eine andere, jedoch hat der RV770 offenbar großes Potential für den für ihn beabsichtigten Performancemarkt.
AnarchX:
Eine Frage die mich mal interessieren würde:
Welche Minimum-CPU wäre für ein GTX-200 Chip zu empfehlen. Aufwärts gibt es ja keine Grenzen, aber abwärts :) Und welche CPU-Sockel-Kombination wäre dabei zu empfehlen ? Kann man das jetzt schon ein wenig einschätzen ?
MfG
-Wizard
Sorkalm
2008-06-01, 20:33:11
Nunja, der Ur-R700 sah Ende 2007 noch deutlich mächtiger nach AMDs eigenen Projektionen aus, sodass NVs Leistungsführerschaft in Gefahr war.
Glaubst du wirklich, dass Nvidia den GT200, als sie merkten, dass das mit dem Ur-R700 so nichts wird, erst einmal rund 6 Monate auf das Eis gelegt hat und eine 9800 GX2 hervorzaubert, um ihn jetzt zu fast merkwürdig gleichem Zeitpunkt wie den RV770 zu launchen?
Klingt für mich doch sehr konstruiert.
=Floi=
2008-06-01, 20:33:31
das kommt auf die auflösung und aa drauf an! Ein bestimmtes spiel solltest du uu auch noch dazu nennen.
mit ca. 2,4-3,2ghz bist du auf der sicheren seite
reunion
2008-06-01, 20:47:07
GT200 ist seit Ende 2007 fertig und war offenbar schon eher geplant, da NV Anfang 2007 im CUDA-FAQ für Ende 2007 eine GPU mit Doppelter Genauigkeit verspracht, was eben erst GT200 mit sich bringen wird.
GT200 sollte wohl Ende 2007 fertig sein.
Glaubst du wirklich, dass Nvidia den GT200, als sie merkten, dass das mit dem Ur-R700 so nichts wird, erst einmal rund 6 Monate auf das Eis gelegt hat und eine 9800 GX2 hervorzaubert, um ihn jetzt zu fast merkwürdig gleichem Zeitpunkt wie den RV770 zu launchen?
Klingt für mich doch sehr konstruiert.
Ist vorallem totaler Blödsinn. Wenn eine Chip fertig ist, wird sie veröffentlicht. GT200 verspätete sich wegen unbekannter Probleme um gut ein halbes Jahr, was bei einem derartigen Monster-Chip nicht unbedingt ungewöhnlich ist.
deekey777
2008-06-01, 20:53:38
Für den Winter war die Highend-Version des G92 angesetzt (noch vor dem G94), der G200 sollte sich kaum verspätet haben.
AnarchX
2008-06-01, 21:01:47
GT200 sollte wohl Ende 2007 fertig sein.
Bitte achte auf den Kontext, der Gast glaubt, dass GT200 überstürzt von Ende 08 auf Juni vorgezogen wurde, was definitiv nicht der Fall ist.
Welcher Meilenstein Ende 2007 von NV erreicht wurde, weiß ich nicht genau, jedoch drang die Existenz von GT200 und dessen Die-Size im Dezember nach außen. Zudem kamen ja auch vor kurzem die Gerüchte auf, dass NV so einiges in der Schublade liegen und das GT200 unteranderem schon fertig sein und die Partner nur noch auf den Startschuss von NV warten.
Natürlich ist es denkbar, dass es doch irgendwelche Problem gab, die Launch verschoben.
Bei 575mm², 512-Bit und einer TDP von >200W, wäre das auch nicht verwunderlich.
Jedoch sehe ich GT200 nicht als vorgezogen
Für den Winter war die Highend-Version des G92 angesetzt (noch vor dem G94), der G200 sollte sich kaum verspätet haben.
Fragt sich nur worauf sich das bezieht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5267926&postcount=816
Oder ist DP auf G92 vorhanden, aber kaputt? :|
Sorkalm
2008-06-01, 21:14:43
Welcher Meilenstein Ende 2007 von NV erreicht wurde, weiß ich nicht genau, jedoch drang die Existenz von GT200 und dessen Die-Size im Dezember nach außen. Zudem kamen ja auch vor kurzem die Gerüchte auf, dass NV so einiges in der Schublade liegen und das GT200 unteranderem schon fertig sein und die Partner nur noch auf den Startschuss von NV warten.
Dass einiges in der Schublade liegt kann durchaus sein (kam ja auch die 9800 GX2), dass evtl. aus diversen etwas nichts umgesetzt wurde, kann auch sein.
Was ich aber nicht glaube ist, dass Nvidia da seit Ende 2007 G200-Chips herumliegen hat, die aber nicht veröffentlicht, sondern erstmal eine Frickel-GX2-Lösung präsentiert. Ein Markt (sowohl im High-End) als auch im Computing-Bereich war da, und mit Preisen im Bereich um $699 für so eine Karte hätte man auch kein Untergang von AMD herbeigeführt. Finanziell wäre das aber sinnvoll gewesen.
Wenn dieser Chip wirklich für 2H 2007 geplant war, dann sind vermutlich Bugs aufgetreten. Ail sprach doch aber immer von 2H 2008...
G92 sollte Argument reichen, dass der GT200 nicht tatsächlich für 2007 angesetzt war.
Genauso wie der G80 vielleicht für das 2H 2007 gedacht war, hat man hier genauso den G71 rechtzeitig dazwischen schieben können.
Redneck
2008-06-01, 21:18:32
Wie schon oefters wiederholt NVIDIA gehoert gelyncht fuer die idiotische "series 9" Namensgebung und auch fuer das hoechstwahrscheinlich fehlende 10.1 in GT200. Hat CJ recht und sie haetten tatsaechlich die TMUs fuer 10.1 umkrepeln muessen bleibt die Frage warum sie mit all dem R&D die sie fuer GT200 geopfert haben nicht so weit gegangen sind. Ja man spart Unkosten auf einem ohnehin schon zu teuren chip, aber ich werde persoenlich nicht ueberzeugt sein dass 10.1 "nutzlos" sein wird bis ich sehe dass kein einziges zukuenftiges Spiel einen 10.1 fuer deferred shading/shadowing + MSAA nutzen wird
.
Hi,
finde ich klasse , das sich auch mal ein Experte dazu äussert.
Lese von vielen, die wesentlich mehr Ahnung von der Materie haben als ich,
das 10.1 nicht nötig sei.
'Tschuldigung, aber kauft ihr euch heutzutage noch Autos ohne ABS oder Servolenkung ?
Da gibt es doch eigentlich nichts schönzureden, wenn solche Features fehlen.
Natürlich kann man dagegen halten, das es keine Software gibt, die diese Features nutzen. Nur macht es die Softwareunterstützung nicht eben wahrscheinlicher , wenn einer der beiden großen Hersteller es jetzt eben noch nicht supported.
Was passiert denn, wenn sich viele eine 260 oder 280er gekauft haben
und plötzlich doch ein paar neue AAA Titel 10.1 unterstützen ? Fühlen diejenigen sich dann nicht veräppelt, EUR 500/600 für eine neue Graka investiert zu haben, dieses Feature (bessere BQ) zu haben ?
Habe zwar momentan eine 8800GT im Rechner aber dadurch nicht das geringste Problem mir wieder eine ATI in den REchner zu verbasteln.
AnarchX
2008-06-01, 21:23:49
Ja, G92 inkl. länger angedeuteter GX2-Lösung spricht eindeutig für den H1 Release von GT200.
Leider beantwortet es immer noch nicht die offene Frage zu diesem CUDA-FAQ-Eintrag.
Aber wer weiß wann dieses geschrieben wurde bzw. auf welchem Stand der Autor war...
Wenn man ganz weit zurück geht, so war ja G80(NV50) für das Frühjahr 2006 geplant, später sollte G90(NV55) folgen, jedoch verschob sich ersterer und soll laut B3D-Gerüchten Technik von letzeren erhalten haben, wo dann wieder GT200(NV57?/NV60?) in 2007 gepasst hätte. :D
Glaubst du wirklich, dass Nvidia den GT200, als sie merkten, dass das mit dem Ur-R700 so nichts wird, erst einmal rund 6 Monate auf das Eis gelegt hat
Natürlich, das machte wirtschaftlich am meisten Sinn.
Warum hätte NV die eigenen High-End Chips (G80) zur Midrange degradieren sollen, wo doch keine Konkurrenz da war?
mapel110
2008-06-01, 21:31:17
Natürlich, das machte wirtschaftlich am meisten Sinn.
Warum hätte NV die eigenen High-End Chips (G80) zur Midrange degradieren sollen, wo doch keine Konkurrenz da war?
Um zum einen ATI mehr an die Wand zu drücken und zum anderen, um noch mehr für die eigenen Chips abkassieren zu können. Wer sagt denn, dass man die alten Chips billiger machen muss?! Man kann die neuen auch teurer machen. :)
dargo
2008-06-01, 21:34:12
Um zum einen ATI mehr an die Wand zu drücken und zum anderen, um noch mehr für die eigenen Chips abkassieren zu können. Wer sagt denn, dass man die alten Chips billiger machen muss?! Man kann die neuen auch teurer machen. :)
Ich glaube kaum, dass ein Grafikkartenhersteller im Desktop-Bereich heute ~1000$ Grafikkarten absetzen kann.
In der Regel verschlechtert sich dioe Effizienz von Grafikchips immer mit steigender breite, takt und Gesamtleistung.
blödsinn, die effizienz verschlechtert sich überhaupt nicht, höchstens dadurch, dass nicht alles verbreitert wird oder aber das ein cpu-limit ein teil der leistung versteckt.
|MatMan|
2008-06-01, 21:38:23
Hi,
finde ich klasse , das sich auch mal ein Experte dazu äussert.
Lese von vielen, die wesentlich mehr Ahnung von der Materie haben als ich,
das 10.1 nicht nötig sei.
'Tschuldigung, aber kauft ihr euch heutzutage noch Autos ohne ABS oder Servolenkung ?...
Ich möchte hiermit dazu aufrufen ab jetzt sämtlichen DX 10.1 Quark in diesem Thread zu ignorieren. Zu 10.1 sowie zum Idle Stromverbrauch (habe ich sonst noch ein pro-ATI Argument vergessen?) wurde mehrmals alles gesagt. Jeder trifft seine Kaufentscheidung für sich.
Außerdem sehe ich es nicht als "Veräppelung" des Kunden, denn es wird ja nicht mit 10.1 beworben.
BTW: Es haben vor Jahren auch eine Menge Leute eine X800 gekauft und waren damit glücklich.
Nochmal: Die Themen DX 10.1 sowie Idle-Stromverbrauch sind tot, bitte einfach nicht auf die Beiträge eingehen. Danke!
Genauso wie die meist sinnlosen Gast-Postings, dass der G(T)200 ein riesen Flop wird.
Habe zwar momentan eine 8800GT im Rechner aber dadurch nicht das geringste Problem mir wieder eine ATI in den REchner zu verbasteln.
Dann tu das.
mapel110
2008-06-01, 21:39:42
Ich glaube kaum, dass ein Grafikkartenhersteller im Desktop-Bereich heute ~1000$ Grafikkarten absetzen kann.
Kann er. Siehe SLI und Tripple SLI. Single-Karten hätten obendrein noch größeren Anreiz als diese Bastelllösungen.
Sorkalm
2008-06-01, 21:39:43
Natürlich, das machte wirtschaftlich am meisten Sinn.
Warum hätte NV die eigenen High-End Chips (G80) zur Midrange degradieren sollen, wo doch keine Konkurrenz da war?
Du meinst in der Entwicklungs-Roadmap?
Klar, das kann man machen. Aber die Entscheidung dazu ist dann wahrscheinlich relativ früh gefallen, auf jeden Fall noch 2006.
drmaniac
2008-06-01, 21:45:57
wurde das hier schon genannt?
1.4 Milliarden T. soll die 280er haben.
das sind 40% mehr als die 1Milliarde die ihr immer als Berechnungsgrundlage für alles mögliche genutzt habt ;)
Damit sollte er doch nun wirklich so schnell sein wie 2X8800(GTX/Ultra) sein?
cu
edit: http://www.computerbase.de/news/hardware/grafikkarten/2008/juni/die-plot_nvidia_gt200_ueberblick/
;)
Schon bekannt.
Bitte immer einen Blick in den 1. Post der Spekulationsthreads werfen, da hier Informationssammlungen geführt werden, vorallem wenn man eine deutsche Seite verlinkt, die oft erst Tage später aus zweiter Hand berichten. Im Zweifelsfall auch nochmal die SuFu benutzen
So erspart man sich die Belehrung durch die User, welchen diese Information schon bekannt ist und hilft die Übersichtlichkeit im Thread zu wahren.
Bitte achte auf den Kontext, der Gast glaubt, dass GT200 überstürzt von Ende 08 auf Juni vorgezogen wurde, was definitiv nicht der Fall ist.
Welcher Meilenstein Ende 2007 von NV erreicht wurde, weiß ich nicht genau, jedoch drang die Existenz von GT200 und dessen Die-Size im Dezember nach außen. Zudem kamen ja auch vor kurzem die Gerüchte auf, dass NV so einiges in der Schublade liegen und das GT200 unteranderem schon fertig sein und die Partner nur noch auf den Startschuss von NV warten.
Natürlich ist es denkbar, dass es doch irgendwelche Problem gab, die Launch verschoben.
Bei 575mm², 512-Bit und einer TDP von >200W, wäre das auch nicht verwunderlich.
Jedoch sehe ich GT200 nicht als vorgezogen
Genau das Dachte ich bisher, das G200 für November gedacht war. 2 Jahre nach G80, aber da der G90 gecancelt wurde hätte ich mir das denken können. G92 hab ich nie so richtig als "keine" Highend Lösung gesehen, aber nun wird mir einiges klarer ;)
Danke für die Antworten AnarchX und reunion!
dargo
2008-06-01, 21:53:04
Kann er. Siehe SLI und Tripple SLI. Single-Karten hätten obendrein noch größeren Anreiz als diese Bastelllösungen.
Bedenke bitte hier aber, dass du mit SLI/Triple-SLI doppelt bzw. dreifach innerhalb der gleichen Generation abkassierst. Was ist wohl wirtschaftlicher für den IHV? :wink:
Kann er. Siehe SLI und Tripple SLI. Single-Karten hätten obendrein noch größeren Anreiz als diese Bastelllösungen.
nur bekommst du das fast gratis mit, im gegensatz zu einem entsprechenden monsterchip.
deekey777
2008-06-01, 23:11:31
...
Fragt sich nur worauf sich das bezieht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5267926&postcount=816
Oder ist DP auf G92 vorhanden, aber kaputt? :|
Oder die Prognose war zu optimistisch?
Bei den Stunts, die NV in den letzten 12 Monaten hingelegt hat, weiß man nicht, ob in Satan Clara irgendjemand wirklich weiß, was gewollt war und was nicht, aber dazu gezwungen worden ist.
Ich kann mir vorstellen, dass der G200 - zumindest teildeaktiviert - für Winder/Frühjahr gedacht war. Was war nochmal der G90? Hätte es ein voller G200 werden sollen oder zum Zweck der Ausbeute oder mit Absicht mit hier und da deaktivierten Einheiten?
Ohne den Release des RV670 im November war es wohl so gedacht:
- G92-6C-SKU für den Sommer/Spätsommer als Mittelding zw. 8600GTS und der 8800GTS
- Mit dem Abverkauf der 8800GTS/GTX/Ultra sollte irgendwann (vor dem vermutlichen Release des RV670) die 9800GTX/9800GT kommen
- Anfang 2008 wäre der Termin für den G94
- Frühjahr 2008 dann "9800Ultra", basierend auf dem G200.
Mein vorheriges Posting sollte somit relativiert werden.
[QUOTE=drmaniac;6547616]wurde das hier schon genannt?
1.4 Milliarden T. soll die 280er haben.
das sind 40% mehr als die 1Milliarde die ihr immer als Berechnungsgrundlage für alles mögliche genutzt habt ;)
Damit sollte er doch nun wirklich so schnell sein wie 2X8800(GTX/Ultra) sein?
cu
QUOTE]
Nein!
Zumindest nicht zwingend. Der G80 hat 32bit FP Units; der GT200 (zumindest wenn man die alten Gerüchte aus dem letzten Jahr glauben will) sehr wahrscheinlich 64bit FP-Units. Das kostet ziemlich viele zusätzliche Transistoren die du für Spiele gar nicht brauchst die aber für GPGPU-Aufgaben sehr wichtig sind. Der GT200 scheint ja auch gegen den Larabee von Intel gerichtet zu sein, so dass er auch zusätzliche Register etc.. braucht um für allgemeine Rechenaufgaben besser gerüstet zu sein.
Ergo ist IMHO der GT200 erst in zweiter Linie ein Highend Spiele-Chip und in erster Linie ein Highend GPGPU-(CUDA)Chip der sich auch noch für's Spielen eignet. Nvidia muss momentan aufpassen das sie durch den Fusion-Chip bei AMD und den Larabee-Chip bei Intel nicht langfristig auf der Strecke bleiben. Also brauchen sie den GT200 (und zukünftige Highend-Chips) als Waffe gegen die Konkurrenz bei GPGPU-Aufgaben. Nur wenn möglichst viele Programmierer CUDA für allgemeine Rechenaufgaben benutzen können sie CUDA als quasi-Standard gegen X86-64 etablieren.
Supercomputer Built With 8 GPUs
Link: http://tech.slashdot.org/article.pl?sid=08/05/31/1633214&from=rss
AnarchX
2008-06-02, 11:00:05
64-Bit FP-Operationen werden wohl auf jeden Fall über mehrere Takte erreicht, sodass die benötigten Veränderungen eher sehr gering ausfallen sollten, wie auch bei RV670.
Snoopy1978
2008-06-02, 13:51:56
@AnarchX:
Entschuldige mal die Frage was Nvidia sich von 64Bit FP Operationen erhofft?Ich meine mehr Präzision könnte ich mir ja vorstellen...
Entschuldige mal die Frage was Nvidia sich von 64Bit FP Operationen erhofft?
die braucht es in erster linie für GPGPU.
crux2005
2008-06-02, 14:53:41
laut "OBR" - http://www.xtremesystems.org/forums/member.php?u=23418 der die GTX 280 schon haben soll, ist der Stromverbrauch nur 30W im idle ... mal sehen, würde auf eine art PowerPlay hindeuten ...
Anarchy-HWLUXX
2008-06-02, 15:00:07
nV ist immer für Überraschungen gut ... das ist so spann000rnd :ucatch: nur noch 2 Wochen hin !
double (genau wie int) kann man mit jetziger hardware schon machen und genau so wird es bei nv auch laufen. siehe AMD Firestorm. das sollte keine transistoren mehr kosten, lediglich leistung.
Schlammsau
2008-06-02, 15:04:04
laut "OBR" - http://www.xtremesystems.org/forums/member.php?u=23418 der die GTX 280 schon haben soll, ist der Stromverbrauch nur 30W im idle ... mal sehen, würde auf eine art PowerPlay hindeuten ...
Das wäre super!
Dafür würde nV nen Daumen von mir bekommen!
laut "OBR" - http://www.xtremesystems.org/forums/member.php?u=23418 der die GTX 280 schon haben soll, ist der Stromverbrauch nur 30W im idle ... mal sehen, würde auf eine art PowerPlay hindeuten ...
Nur :ugly: die ATI`s haben 13-18Watt
laut "OBR" - http://www.xtremesystems.org/forums/member.php?u=23418 der die GTX 280 schon haben soll, ist der Stromverbrauch nur 30W im idle ... mal sehen, würde auf eine art PowerPlay hindeuten ...
Das wäre einwandfrei. Dafür wäre aber Hybrid-Power gestorben.
Nur :ugly: die ATI`s haben 13-18Watt
Halte ich für nicht so schlimm. Imho wären 30 Watt bei solch einer Karte völlig im Rahmen.
PS: Evtl ist ja der VP in den Nivo gewandert und braucht die Shadereinheiten auf dem großen Die nicht zum decodieren...
PS: Evtl ist ja der VP in den Nivo gewandert und braucht die Shadereinheiten auf dem großen Die nicht zum decodieren...
Ok, ist auch Käse, braucht ja Speicherzugriff
crux2005
2008-06-02, 15:15:31
nV ist immer für Überraschungen gut ... das ist so spann000rnd :ucatch: nur noch 2 Wochen hin !
vieleicht meinte Ail das, mit
[...]es kommen noch andere "Überraschungen"[...]
dargo
2008-06-02, 15:16:25
laut "OBR" - http://www.xtremesystems.org/forums/member.php?u=23418 der die GTX 280 schon haben soll, ist der Stromverbrauch nur 30W im idle ... mal sehen, würde auf eine art PowerPlay hindeuten ...
Das wäre eine sehr gute Nachricht. Bei dem hohem Lastverbrauch hatte ich schon min. 80W in Idle befürchtet.
Anarchy-HWLUXX
2008-06-02, 15:16:39
Nur :ugly: die ATI`s haben 13-18Watt
Ja, und bringen auch nur die Hälfte der 3D Leistung ;)
Nur :ugly: die ATI`s haben 13-18Watt
Die AMD Karten haben auch von allen 50% weniger...
Es sollte wohl klar sein, dass bei 1,4 Milliarden Transistoren, 1024mb Speicher, vollgestopftes PCB etc. der IDLE Verbrauch dementsprechend ausfällt.
Wer noch weniger will, der muss zu Hybrid-Power greifen, oder auf die Midrange-Modelle warten.
Ja, und bringen auch nur die Hälfte der 3D Leistung ;)
Was hat das it 2D zutun ? :ugly2:
Ein IGP verbraucht auch nur maximal 5 Watt im Idle aus der STeckdose - wieso benötigt AMD dann 25 Watt? :rolleyes:
Eggcake
2008-06-02, 15:47:26
Ob 30W oder 18W würde bei mir jetzt nimmer draufankommen bzw. kein Kaufkriterium sein. Das sage ich, der eher für ATI ist...
Falls das stimmt, wär ich einerseits sehr überrascht (Hybridpower wär dann ja bald für den Arsch) und andererseits auch erfreut ^^
gamingforce
2008-06-02, 15:55:12
vieleicht meinte Ail das, mit
[...]es kommen noch andere "Überraschungen"[...]
jo ich glaub auch, die Überraschung kommt wenn die völlig überschätzt wird und unbezahlbar ist ;D
Hab jetzt ned alle 10.000 Seiten gelesen, sorry, aber weiss man schon was die kleine 200er in etwa so kosten wird? :confused:
Schlammsau
2008-06-02, 15:58:49
Hab jetzt ned alle 10.000 Seiten gelesen, sorry, aber weiss man schon was die kleine 200er in etwa so kosten wird? :confused:
die GTX280 soll für 650$ in den Handel kommen!
Und zu den Gerüchten von 30 Watt im Idle....wäre toll wenn sie das hinbekommen hätten, aber es erscheint mir reichlich unglaubwürdig.
Das würde nVidia´s HSLi nur schaden!
dildo4u
2008-06-02, 15:59:03
Hab jetzt ned alle 10.000 Seiten gelesen, sorry, aber weiss man schon was die kleine 200er in etwa so kosten wird? :confused:
Die Erste hätte gereicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417352
crux2005
2008-06-02, 16:11:30
Und zu den Gerüchten von 30 Watt im Idle....wäre toll wenn sie das hinbekommen hätten, aber es erscheint mir reichlich unglaubwürdig.[/U]
Das würde nVidia´s HSLi nur schaden!
ja schon, aber vieleicht hat er nur vergessen zu erwähnen, das er HSLI am laufen hat ;D
die GTX280 soll für 650$ in den Handel kommen!
Und zu den Gerüchten von 30 Watt im Idle....wäre toll wenn sie das hinbekommen hätten, aber es erscheint mir reichlich unglaubwürdig.
Das würde nVidia´s HSLi nur schaden!
Das würde HSLi eigentlich sinnfrei machen. Kann ich mir nicht vorstellen, vor allem jetzt wo nV die User an den Eiern hat. Schließlich sind die auf die neuen Karten "angewiesen", Konkurrenz sogut wie nicht vorhanden. Da kann man hohe Preise gepaart mit indirektem Zwang auf ein nforce-Board umzusteigen ganz easy durchsetzen. Alles andere wäre nicht marktwirtschaftskonform.
Hmmm... Danke... Was meint ihr, werden die $$$ Preise wieder mal 1:1 auf Teuros übernommen?
Chris Lux
2008-06-02, 17:04:06
Hmmm... Danke... Was meint ihr, werden die $$$ Preise wieder mal 1:1 auf Teuros übernommen?
mindestens!
die braucht es in erster linie für GPGPU.
Ausschließlich. Weder Direct3D noch OpenGL unterstützen DP.
crux2005
2008-06-02, 17:10:53
hab ein statement von OBR bekommen, kein HSLI an, nur die Karte selber - 30W Verbrauch im IDLE ...
Zur 30 Watt-Idle-Geschichte bei der GTX 280:
http://www.hardware-infos.com/news.php?news=2113
crux2005
2008-06-02, 17:20:42
;D da liest jemand mit
Für 30W müssen sie aber fast schon Clock-Gating implementiert haben, also teilabschaltung des Chips im 2D-Modus.
Nur :ugly: die ATI`s haben 13-18Watt
schön, mit einem halb so großen chip.
die X2 geht bei ATI auch schon über 30W-idle und sollte vom G200 doch deutlich geschlagen werden.
PS: Evtl ist ja der VP in den Nivo gewandert und braucht die Shadereinheiten auf dem großen Die nicht zum decodieren...
die shadereinheiten braucht es nie zum decodieren, wäre bei den kleinen ausführungen wahrscheinlich sogar zu lahm, die shadereinheiten sind lediglich für das postprocessing zuständig.
AnarchX
2008-06-02, 17:36:16
Für 30W müssen sie aber fast schon Clock-Gating implementiert haben, also teilabschaltung des Chips im 2D-Modus.
Wird man wohl auch schon bei G92M machen, immerhin soll das MXM-Modul im Desktopbetrieb bei 5W liegen.
Wobei das Risiko beim Abschalten und Reaktivieren von Chipteilen bei einem teildeaktivierten 750M Chip aber um einiges geringer sein sollte als bei 1400M Transistoren.
Sorkalm
2008-06-02, 17:37:05
Für 30W müssen sie aber fast schon Clock-Gating implementiert haben, also teilabschaltung des Chips im 2D-Modus.
Zumindest die mobilen Varianten aktueller Chips können das ja.
=Floi=
2008-06-02, 17:41:20
bei tri-sli sind die 3X30w auch nicht mehr wenig und da greift hsli dann richtig!
30watt bei dem teil wären mal ein anfang, aber auch bei den kleineren varianten sollte nv hier mal etwas machen, denn bei einer 9600gt oder 8600gt würde ich mir schon 10 watt wünschen mit der leistungsfähigkeit einer richtigen karte
Snoopy69
2008-06-02, 17:43:50
Ja, und bringen auch nur die Hälfte der 3D Leistung ;)
Es geht aber um idle - also 2D :wink:
Wäre wirklich klasse, wenn das stimmt (wird sofort gemessen). Eine 8800GTX mehr verbraucht (vor dem NT gemessen) bei mir ca. 85W bei idle (load ca. 150-160W). Das wären ca. 65% weniger Verbrauch bei idle :)
Daredevil
2008-06-02, 18:01:51
Prozentuale Angaben sind toll aber die sind fast so Ausagekräftig wie VRam Limitierte Benches oder Marketingfolien...
Ob eine karte nun 1.2 oder 3.6 Fps hat sowas von rille, da beides unspielbar ist und zwar nur weil der VRam limitiert, aber in der Überschrift steht dann "ATI 3 mal schneller als Nvidia!"
Das gleiche beim Stromverbrauch... ne 8800gt verbraucht 85% mehr Strom im Idle als ne 3870, fast doppelt soviel!!!!!!!!!!!!!!!!!!!!!!
Nur sind die Werte ziemlich unterirdisch ( 18W bei der 3870 )... sie haben zwar Relevanz aber sind nicht so wichtig wie 100Watt und 185Watt unter Last.
Das fällt nämlich auch auf der Stromrechnung auf.
Wär schön wenn das stimmen würde, das ist echt Spannend ! :)
Zumindest die mobilen Varianten aktueller Chips können das ja.
Nö. Da wird nur der Takt gesenkt und die Spannung reduziert.
Snoopy69
2008-06-02, 18:06:37
Wobei ich meine 170W idle NUR für meine beiden Karten schon ziemlich heftig finde.
Und 65% stammen ja nicht irgendwoher. Ich hab gemessen und der angebliche GTX280-User wohl auch.
AnarchX
2008-06-02, 18:09:16
Nö. Da wird nur der Takt gesenkt und die Spannung reduziert.
Und damit erreicht man 4.7W (http://www.anandtech.com/mobile/showdoc.aspx?i=3155&p=3)?
crux2005
2008-06-02, 18:10:09
denke eher, er hat es aus den nV Folien gelesen ...
Ich würd auf die "Ergebnisse" eines Nutzers nix geben, oder sinds schon mehrere die ihr NDA brechen und sagen, sie haben eine GTX280?
Xbitlabs is die einzig wahre Quelle wenns um Strom Ergebnisse geht.
seahawk
2008-06-02, 18:28:50
Sollten sie 30W im Ilde schaffen, dann ziehe ich meinen Hut vor NV.
CrazyIvan
2008-06-02, 18:29:07
Das gleiche beim Stromverbrauch... ne 8800gt verbraucht 85% mehr Strom im Idle als ne 3870, fast doppelt soviel!!!!!!!!!!!!!!!!!!!!!!
Nur sind die Werte ziemlich unterirdisch ( 18W bei der 3870 )... sie haben zwar Relevanz aber sind nicht so wichtig wie 100Watt und 185Watt unter Last.
Das fällt nämlich auch auf der Stromrechnung auf.
Da musst Du aber schon derbe viel Zocken, dass sich ein Delta beim Lastverbrauch bei Dir stärker bemerkbar macht, als prozentual das gleiche Delta im idle. Pauschalisieren sollte man das in jedem Fall nicht. Denn obwohl die meisten hier ihren PC wohl 12h am Tag anhaben, dürfte der Lastanteil selten 30% übersteigen (WoW-Zocker mal ausgenommen ;) ).
AnarchX
2008-06-02, 19:31:10
CJ...
http://img205.imageshack.us/img205/4553/gtx280powersj4pi7.jpg (http://imageshack.us)
Sollten sie 30W im Ilde schaffen, dann ziehe ich meinen Hut vor NV.
Ist auf jeden Fall begrüßenswert, aber auch kein Wunder - siehe HD4870 mit 10 Watt Idle.
Wenn man mit 4ooWatt am Tag, a 12h rechnet, bei 0,019€/kWh macht das ~332€ im Jahr.
Da die TFTs eh an sind, die CPU vieleicht 2oWatt sparen kann und der Rest sowas wie Energiesparfunktion nicht kennt, ist die Graka der größte "Schluckspecht" im Sys.
Bei 1ooWatt weniger macht das am Ende ~250€ im Jahr. ^^
CrazyIvan
2008-06-02, 19:38:01
CJ...
<Pic>
Sehr nice.
seahawk
2008-06-02, 19:39:00
Ist auf jeden Fall begrüßenswert, aber auch kein Wunder - siehe HD4870 mit 10 Watt Idle.
Bei einem doppelt so großen Chip in einerm älteren Prozess, ist das eigentlich gleichwertig und würde damit meine größte Kritik an NV abstellen.
Snoopy69
2008-06-02, 19:40:16
Ist auf jeden Fall begrüßenswert, aber auch kein Wunder - siehe HD4870 mit 10 Watt Idle.
Wirklich? :eek:
@ Gast #400
Am TFT kann man ggf auch noch was einsparen, wenn man die Helligkeit runterdreht. Die Hintergrundbeleuchtung macht den grössten Verbrauch am TFT aus.
@ seahawk
Schön wäre, wenn man noch weiter runter gehen könnte bei idle. Nicht jeder nutzt Vista bzw. Dream Scene. Meine jetzige passiv gekühlte GeForce 6200LE packt das zb nicht. Für normal oder unter XP reicht diese jedoch völlig aus. Ich denke, dass der GT200 soviel idle-Leistung bringt, dass auch Dream Scene flüssig läuft. Während XP-User diese 2D-Leistung nicht brauchen. Vielleicht könnte man da noch 5-10W einsparen.
AnarchX
2008-06-02, 19:42:59
Wirklich? :eek:
Nunja, dieser Wert ist schon ziemlich alt und aus eher zweifelhafter Quelle.
Jedoch wird ATi sich wohl auch aber nicht verschlechtern gegenüber RV670.
CJ...
http://img205.imageshack.us/img205/4553/gtx280powersj4pi7.jpg (http://imageshack.us)
wenn das stimmt wäre der lastverbrauch auch erstaunlich niedrig, das ist ja "nur" ungefähr 8800GTX-niveau.
AnarchX
2008-06-02, 19:45:35
wenn das stimmt wäre der lastverbrauch auch erstaunlich niedrig, das ist ja "nur" ungefähr 8800GTX-niveau.
Wobei Xbit-Labs für die 9800GTX direkt 108W gemessen hat:
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Also kann man da bei der GTX 280 wohl auch noch etwas draufrechnen.
Bei Idle sind NV und Xbit jedoch gleich.
Was hat gleich die 8800 / 8800 U im IDLE und 3D nochmal im Vergleich verbraucht ?
Aus der Steckdose sind es 70 Watt beim idlen. Unter Last sind es ca. 150 Watt.
Snoopy69
2008-06-02, 19:49:57
Aus der Steckdose sind es 70 Watt beim idlen. Unter Last sind es ca. 150 Watt.
Bei mir ziemlich genau 85W bei idle, wenn ich die 2. GTX dazustecke. Hattest du auch 2 GTXen?
Mit was hast du gemessen?
dildo4u
2008-06-02, 19:50:08
Was hat gleich die 8800 / 8800 U im IDLE und 3D nochmal im Vergleich verbraucht ?
Ca 70/130Watt Für die 8800GTX.Die GTX280 würde ich auf 170W schätzen die Last Werte sind ein bissel niedrig bei dem NV PR Pic siehe 9800GTX.
8800GTX
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0
9800GTX
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
kruemelmonster
2008-06-02, 20:02:30
wenn das stimmt wäre der lastverbrauch auch erstaunlich niedrig, das ist ja "nur" ungefähr 8800GTX-niveau.
Wie kommst du denn darauf?
CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/24/#abschnitt_leistungsaufnahme) hat die G80 GTX mit fast 30W mehr Leistungsaufnahme im Leerlauf vermessen als die G92 GTX.
Wenn der G200 bei seiner Transistormasse die Idle Werte des G92 noch unterbieten kann, Respekt!
crux2005
2008-06-02, 20:06:08
CJ...
http://img205.imageshack.us/img205/4553/gtx280powersj4pi7.jpg (http://imageshack.us)
na also, geht doch, :up: nV
seahawk
2008-06-02, 20:13:24
@ seahawk
Schön wäre, wenn man noch weiter runter gehen könnte bei idle. Nicht jeder nutzt Vista bzw. Dream Scene. Meine jetzige passiv gekühlte GeForce 6200LE packt das zb nicht. Für normal oder unter XP reicht diese jedoch völlig aus. Ich denke, dass der GT200 soviel idle-Leistung bringt, dass auch Dream Scene flüssig läuft. Während XP-User diese 2D-Leistung nicht brauchen. Vielleicht könnte man da noch 5-10W einsparen.
Sicherlich, aber ob eine GTX280 in einem XP rechner mit hohen Anteilen an Web + Office und anderen 2D Anwendungen Sinn macht ?
Schlammsau
2008-06-02, 20:16:33
Ca 70/130Watt Für die 8800GTX.Die GTX280 würde ich auf 170W schätzen die Last Werte sind ein bissel niedrig bei dem NV PR Pic siehe 9800GTX.
8800GTX
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0
9800GTX
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
ich würde sie auf GX2 Niveau schätzen! Also rund 180 Watt unter Last!
mictasm
2008-06-02, 20:24:04
Das wäre ja wirklich ein Traum...
Wobei Xbit-Labs für die 9800GTX direkt 108W gemessen hat:
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Xbit gibt allerdings leider für 3d nur den peakwert an, durchschnittswerte wären viel interessanter.
allerdings dürfte es dann doch etwas über der 8800GTX, eher im bereich der 8800Ultra liegen, was aber immer noch überaschend wenig ist, angesichts der tatsache, dass man schon von 200W realverbrauch ausgegangen ist.
eventuell auch der grund für die niedrigen taktraten, möglicherweise war der G200 für höhere taktraten geplant, erscheint jetzt aber doch mit niedrigeren, da ATI offenbar im highend eh nichts bringen wird.
ich würde sie auf GX2 Niveau schätzen! Also rund 180 Watt unter Last!
9800 GX2: 250W TDP
GTX 280: 236W TDP + IHS Nachteil
Nene das wird maximal R600 Niveau, also 160W unter Last. :)
Schlammsau
2008-06-02, 20:39:58
9800 GX2: 250W TDP
GTX 280: 236W TDP + IHS Nachteil
Nene das wird maximal R600 Niveau, also 160W unter Last. :)
glaub ich nicht! Würde sogar auf mehr als 180Watt tippen, aber lassen wir uns überraschen! Der Idle Verbrauch wäre bei nV wirklich eine Trendwände!
Ich würde aber lachen wenn die angegebenen Werte mit aktiviertem HSLi gemessen wurden! ;D
dargo
2008-06-02, 20:42:50
CJ...
http://img205.imageshack.us/img205/4553/gtx280powersj4pi7.jpg (http://imageshack.us)
Die 25W in Idle könnte man schon fast als eine Sensation im NV-Lager bezeichen. :up:
Die 147W glaube ich noch nicht so richtig für die Last, CPU-Limit ahoi. ;)
Die 147W glaube ich noch nicht so richtig für die Last, CPU-Limit ahoi. ;)
maximal sicher nicht, durchschnittlich aber wohl möglich.
dargo
2008-06-02, 20:48:36
maximal sicher nicht, durchschnittlich aber wohl möglich.
Glaube ich nicht. Bei Games in gpu-limitierten Szenen sollten es mehr sein. 3DMark06 ist mit diesem Monster völlig cpu-limitiert. Es sei denn die haben in 2560x1600 mit viel AA gemessen.
CPU-Limit ahoi. ;)
3Mark06. ;)
Ich würde aber lachen wenn die angegebenen Werte mit aktiviertem HSLi gemessen wurden! ;D
Dann hätte die 9800GTX nicht so viel verbraucht.
dargo
2008-06-02, 21:18:13
3Mark06. ;)
Teste mal den 3DMark06 mit Triple G8800GTX. ;)
Dann hätte die 9800GTX nicht so viel verbraucht.
Richtig, aber lasse Schlammsau die letzte Hoffnung noch übrig. ;)
Adam D.
2008-06-02, 21:19:20
Wow, hab ich das grad richtig gelesen? Ein 2D-Stromspar-Modus von Nvidia? Jetzt wissen wir ja, wo die 1,4 Milliarden Transistoren hin sind ;D Ehrlich: das ist spitze. Das nimmt dem G200 definitiv einen richtig fetten Nachteil :up:
Wie hier gleich alle abgehen wenn sie eine NV Marketingfolie sehen :rolleyes: Immer wieder lustig im 3DC;D
Wie hier gleich alle abgehen wenn sie eine NV Marketingfolie sehen :rolleyes: Immer wieder lustig im 3DC;D
Kannst ja auch welche posten, wenn du Anerkennung suchst
maximal sicher nicht, durchschnittlich aber wohl möglich.
Tja, das ist halt so ne Sache mit dem Betrachtungszeitraum und der Integration...
Aber mal was anders. Bekommt man ne eine 9800GTX mit einem P4 1,4 Ghz runter auf 80 Watt Spitze?
Die Grafik zeigt der rein Strom Verbrauch der Grafikkarte, nix System und nix CPU....
Die Stromaufnahme ist übrigens extrem von der Anwendung abhänig, 3DMark06 Default gehört sicher nicht zu den Anwendungen die die Grafikkarte richtig auslasten kann.
Die Stromaufnahme ist übrigens extrem von der Anwendung abhänig, 3DMark06 Default gehört sicher nicht zu den Anwendungen die die Grafikkarte richtig auslasten kann.
doch bei max auflösung +8aa+16af,dann gehts schon
Schlammsau
2008-06-03, 07:11:04
Richtig, aber lasse Schlammsau die letzte Hoffnung noch übrig. ;)
Leute.....es sind Marketingfolien! Da wird alles so hingegebogen, tatsachen verdreht, nur um das eigene (neue) Produkt im besserem Licht dastehen zu lassen. Ihr könnt davon ausgehen, dass die Idle bzw. Last verbräuche deutlich über den hier angegebenen Werten liegen.
Auf Verbrauchswerte oder Benchmarks auf nVidia oder ATi Presentationen geb ich gar nichts! Und ihr solltet das auch nicht!
AnarchX
2008-06-03, 08:13:40
Detailed Geforce GTX 280 Pictures (http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html)
http://img77.imageshack.us/img77/3382/img04352d2800e6au0.jpg (http://imageshack.us)
Wieder Vollverkleidung.
MuLuNGuS
2008-06-03, 08:53:13
dann kann es ja nicht mehr lange dauern bis die ersten gaming benches durchsickern...
AnarchX
2008-06-03, 09:17:32
http://img183.imageshack.us/img183/6387/gtx280gpuz172a5cdaos9.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_GTX_280_GPU-Z_Screenshot/5828.html
Godmode
2008-06-03, 09:24:27
Detailed Geforce GTX 280 Pictures (http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html)
http://img77.imageshack.us/img77/3382/img04352d2800e6au0.jpg (http://imageshack.us)
Wieder Vollverkleidung.
Sieht gut aus! Ich denke diese Verkleidung erzeugt im Inneren einen guten Luftstrom, der der Wärme besser abführt. Wo hätte hier überhaupt noch ein HDMI, bzw. Displayport Platz?
doch bei max auflösung +8aa+16af,dann gehts schon
Gerade dabei geht es nicht, weil die ALUs Däumchen drehen während sie auf die TMUs und ROPs warten.
GeneralHanno
2008-06-03, 09:31:22
ich bin etwas erstaunt, dass nvidia tatsächlich 0,83ns ram verbaut ... bei 16 speichersteinen ein kleiner preistreiber. die GTX 260 erhält ja nicht umsonst "nur" günstigen 1ns ram ;)
AnarchX
2008-06-03, 09:32:39
Anyway, I got some updates.
The X4100 number for the GTX 280 was correct with the drivers at the time. Seems that NV was able to push it to X4800 with the latest drivers. They might add some more points when they enable PhysX on their GPU, but that kinda goes against Futuremark rules... since a PPU can assist for a higher score and not a GPU... this could add up to 1000 points in the CPU test... so we'll have to see what Futuremark decides about including the PhysX into the score....
But here's what you all wanted to hear.... According to the same source R700 scores about X5500> in Vantage.
Oh and my buddies at VR-Zone tested a HD4850 OC 700Mhz. P64xx score in Vantage.
http://forum.beyond3d.com/showthread.php?t=41377&page=99
Mal sehen wie sich die Relevanz/Praxinähe der Vantage-Scores in naher Zukunft entwickelt.
Adam D.
2008-06-03, 09:49:32
Hmm, da scheint ATi ziemlich stark zu sein. Muss man trotzdem die Reviews abwarten, kann mir kaum vorstellen, dass der R700 den G200 so "deutlich" schlägt.
Snoopy1978
2008-06-03, 09:56:18
ich bin etwas erstaunt, dass nvidia tatsächlich 0,83ns ram verbaut ... bei 16 speichersteinen ein kleiner preistreiber
Mich würde bloß mal interessieren was Nvidia vom GDDR5 VRAM hält,immerhin sind die Grenzen des GDDR3 im Hinblick auf die Taktung mehr oder weniger erreicht.Ich könnte mir vorstellen das mit dem Refresh im September auf GDDR5 umgestiegen wird,kann die anstehende GTX280(GT200) überhaupt schon mit dem neuen Speicher umgehen oder ist sie GDDR3 "limitiert"?
Detailed Geforce GTX 280 Pictures
Wenn man sich so die Bilder betrachtet erscheinen die Grafikkarten nicht allzu groß,nur eben in Natura denk ich dann immer "oh Gott".
Dumme Frage (hoffe es gibt keine dummen Antworten ;)): Was ist die P64xx Score? Wie lässt sich die mit den X4800 von der GTX280 oder den X5200 von der R700 vergleichen?
Kann mir gut vorstellen, dass der R700 so schnell ist:
- Wenns zwei RV770 XT mit GDDR5 sind
- Nvidia wird nicht ohne Grund so schnell den GT200b (höhere Taktraten) so schnell ins Rennen schicken. Und ich denke nicht dass die Die-Size der einzige Grund ist.
Adam D.
2008-06-03, 10:00:05
Das hatten wir hier schon ein paar mal. Das Projekt GDDR5 war Nvidia zu riskant, deshalb sind sie auf 512er-SI und GDDR3 gegangen, um die nötige Bandbreite rauszuholen. GDDR5 scheint zur Zeit noch nicht wirklich gut verfügbar zu sein.
Wenn Ende des Jahres der Refresh des G200 kommt, kann es durchaus sein, dass GDDR5 verwendet wird.
Dumme Frage (hoffe es gibt keine dummen Antworten ): Was ist die P64xx Score? Wie lässt sich die mit den X4800 von der GTX280 oder den X5200 von der R700 vergleichen?
Es gibt fast keine dummen Fragen :D
Der neue 3DMark hat von Natur aus verschiedene Qualitäts-Einstellungen für einen Durchlauf. "P" steht für "Performance", "X" für "Extreme". Am besten, du schaust dir dazu mal den Artikel auf Computerbase.de an.
Wie gut sich 3DMark-Werte vergleichen lassen, ist nicht leicht gesagt. Der R600 war im 3DMark auch nah dran an Nvidia, in der Real-Life-Performance aber 'n ganzes Stück zurück. Muss man einfach abwarten.
Kann mir gut vorstellen, dass der R700 so schnell ist:
- Wenns zwei RV770 XT mit GDDR5 sind
- Nvidia wird nicht ohne Grund so schnell den GT200b (höhere Taktraten) so schnell ins Rennen schicken. Und ich denke nicht dass die Die-Size der einzige Grund ist.
Naja, der R700 kann nicht aus 2 RV770XT bestehen, das würde die TDP über 300W ballern, was quasi unzumutbar ist.
Und zum zweiteren: gut möglich, dass ATi stark aufgestellt sein wird.
Der R700 hat über 2 TFlops, ist doch klar, dass er die 933 GFlops der GTX280 locker schlägt. Mit optimiertem Treiber sind bestimmt weit über X6000 Punkte drin.
AnarchX
2008-06-03, 10:03:57
Dumme Frage (hoffe es gibt keine dummen Antworten ;)): Was ist die P64xx Score? Wie lässt sich die mit den X4800 von der GTX280 oder den X5200 von der R700 vergleichen?
Lässt sich nicht vergleichen, da man nicht absehen kann wie RV770 unter den höheren Anfordungen des X-Presets mit 1920x... 4xAA 16xAF skaliert.
Kann mir gut vorstellen, dass der R700 so schnell ist:
- Wenns zwei RV770 XT mit GDDR5 sind
- Nvidia wird nicht ohne Grund so schnell den GT200b (höhere Taktraten) so schnell ins Rennen schicken. Und ich denke nicht dass die Die-Size der einzige Grund ist.
Leider ist es ein 3DM-Score, wo die IHVs besonders viel Optimierungsarbeit investieren, so war ja auch die 3870X2 bis zu 40% schneller im 3DM06 als eine 88 Ultra.
Für ein finales Urteil muss man Gamebenches abwarten und bis zum Herbst wird NV mit ihren Treibern wohl auch nicht stehen bleiben.
Der R700 hat über 2 TFlops, ist doch klar, dass er die 933 GFlops der GTX280 locker schlägt. Mit optimiertem Treiber sind bestimmt weit über X6000 Punkte drin.
Die 2 TFLOPs bezweifele ich doch, jedenfalls sieht es momentan nicht danach aus, und FLOPs architekturübergreifend zu vergleichen ist auch nicht praktikabel.
Anarchy-HWLUXX
2008-06-03, 10:09:48
Kack Watermarks von VR zone ... wohl zu blöde die Transparenz gescheit runterzustellen *ARGH*
Da sieht man kaum was drunter :ubash3:
http://forum.beyond3d.com/showthread.php?t=41377&page=99
Oh and my buddies at VR-Zone tested a HD4850 OC 700Mhz. P64xx score in Vantage.
Mal sehen wie sich die Relevanz/Praxinähe der Vantage-Scores in naher Zukunft entwickelt.
Vor allem der Wert einer (!) 4850 bei 700MHz ist ziemlich irre!
Link: http://vr-zone.com/articles/Radeon_HD_4850_%28RV770PRO%29_Tested/5829.html
reunion@work
2008-06-03, 10:18:38
Leider ist es ein 3DM-Score, wo die IHVs besonders viel Optimierungsarbeit investieren, so war ja auch die 3870X2 bis zu 40% schneller im 3DM06 als eine 88 Ultra.
Wir reden hier aber vom 3dmark Vantage, und da liegen die AMD-Karten eigentlich relativ schlecht.
AnarchX
2008-06-03, 10:21:43
Wir reden hier aber vom 3dmark Vantage, und da liegen die AMD-Karten eigentlich relativ schlecht.
Wobei Cat. 8.5 ja eine ordentliche Steigerung gebracht hat und AMD wohl weiter dran arbeiten wird, wie es beide IHVs jeher taten.
Naja, wird sich dann im Herbst zeigen müssen...
Die Karte wird mir immer sympathischer.
Wenn das mit dem Stromverbrauch stimmt... :D
2 Wochen. :D Dann Benchs und dann ... ^^
Achja, nicht 30, sondern 25W, heißts zumindest hier:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_gtx_280_idle_25_watt/
gamingforce
2008-06-03, 10:31:09
Wir reden hier aber vom 3dmark Vantage, und da liegen die AMD-Karten eigentlich relativ schlecht.
das stimmt leider, ich bin mit der X2 grad ma so schnell wie ne 8800GTX :(
Aber wayne, wen juckt Vantge.
Wir reden hier aber vom 3dmark Vantage, und da liegen die AMD-Karten eigentlich relativ schlecht.
Die "alten" AMD-Karten wohlgemerkt.
Grumbart
2008-06-03, 10:45:06
Zum Leistungsbedarf 'idle'
Achja, nicht 30, sondern 25W, heißts zumindest hier:
http://www.computerbase.de/news/hard..._idle_25_watt/
Sollten die Werte von NVIDIA HybridPower kommen, sind die Werte einer GTX nicht wirklich erwähnenswert
Anarchy-HWLUXX
2008-06-03, 10:47:57
In HP ist die GraKa deaktiviert und braucht inetwa ... nix, und die IGP verbrät sicher keine 25W ...
Eggcake
2008-06-03, 10:48:01
Da hat jemand falsch gelesen:
We have spotted a RV770PRO demo system over at Computex and we have checked out the settings of the beta Catalyst drivers for RV770 series. The card can be easily overclocked to 700MHz core and as a result, the score for 3DMark Vantage is P6466.
Da stet nix von X6400 und die GF Karten wurden ja unter X getestet.
gamingforce
2008-06-03, 10:52:26
In HP ist die GraKa deaktiviert und braucht inetwa ... nix, und die IGP verbrät sicher keine 25W ...
was?
ich hab ein ASUS M3N-HT Deluxe mit Geforce 8200 Onboard, das Board stellt jeden X48/790i in den Schatten;D (was Stromverbrauch angeht)
und wird dazu noch schweine heiss.
Eine Geforce 9800GTX hat ~P5800 im Vantage, die 4850 kommt auf P6466, nicht schlecht würde ich sagen.
Anarchy-HWLUXX
2008-06-03, 10:58:36
Wenn du das Teil PASSIV kühlst muss die Heatpipekonstroktion heiss werden ... da hängt ja alles dran : SB-NB-SPAWAS
dargo
2008-06-03, 10:59:30
Eine Geforce 9800GTX hat ~P5800 im Vantage, die 4850 kommt auf P6466, nicht schlecht würde ich sagen.
Eine OC 4850 wohlgemerkt.
Eine OC 4850 wohlgemerkt.
625/700 x 6466 = 5773. Da der Speicher aber nicht übertaktet war (soweit ich sehe) sollte der richtige Score IMHO irgendwo zw. 5773 und 6466 liegen.
Schlammsau
2008-06-03, 11:13:53
Eine OC 4850 wohlgemerkt.
mit dem ersten Treiber wohlgemerkt! ;D
was meinst du....gehen die Points mit der Zeit nach oben oder nach unten? ;)
625/700 x 6466 = 5773. Da der Speicher aber nicht übertaktet war (soweit ich sehe) sollte der richtige Score IMHO irgendwo zw. 5773 und 6466 liegen.
Auf jeden Fall schneller als eine 9800GTX.
Snoopy69
2008-06-03, 11:24:33
Detailed Geforce GTX 280 Pictures (http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html)
http://img77.imageshack.us/img77/3382/img04352d2800e6au0.jpg (http://imageshack.us)
Wieder Vollverkleidung.
Sieht gut aus - ähnlich wie die 9800GTX
Aber meine wird eh nackisch gemacht, wenn es schöne Wasserkühler gibt. Dann wird kaltes Chiller-Wasser durchgejagt :D
gamingforce
2008-06-03, 11:26:33
blsss grün die Karte dann, was hässlich aussehen tut find ich.
Snoopy69
2008-06-03, 11:30:14
blss grün die Karte dann was hässlich aussehen tut find ich.
Könnte gut sein.
Die 8800 EVGAs waren aber auch vollverkleidet und hatten nahezu schwarze PCB´s (richtig schwarze gibts ja nicht)
gamingforce
2008-06-03, 11:49:23
Könnte gut sein.
Die 8800 EVGAs waren aber auch vollverkleidet und hatten nahezu schwarze PCB´s (richtig schwarze gibts ja nicht)
richtig schwarze PCb gibts ich glaub das war ne XFX 8800 GS die Pech schwarz ist.
Anarchy-HWLUXX
2008-06-03, 11:52:16
richtig schwarze PCb gibts ich glaub das war ne XFX 8800 GS die Pech schwarz ist.
XFX hat so nen Matt-Schwarzes eigenes PCB für Selbstdesignte/Gefertigte Karten ... die gibt es aber nur im Low-End & Mainstream bereich.
Ansonsten hat AOpen PCBs gemacht die wirklich KOMPLETT schwarz warn, hab noch so nen Board @ home.
RoNsOn Xs
2008-06-03, 13:41:49
meine xfx hat auch`n schwarzes pcb. schaute gut aus beim auspacken.
anonsten ists ja relativ banane.
ich bin etwas erstaunt, dass nvidia tatsächlich 0,83ns ram verbaut ... bei 16 speichersteinen ein kleiner preistreiber. die GTX 260 erhält ja nicht umsonst "nur" günstigen 1ns ram ;)
Was wollen sie bei den 1107MHz Takt sonst verbauen....
tombman
2008-06-03, 13:51:39
Hmm, sieht also so aus, als ob der R700 schneller sein wird als 280er GTX.
Das war eigentlich zu erwarten, sind ja auch zwei Chips. Jetzt hängts davon ab wie gut ATI das frametime Problem bei AFR in den Griff bekommen hat. Weil 10% oder 20% Leistung opfere ich gerne, wenn ich dadurch bei einem SINGLE CHIP (=280er GTX) bleiben kann!
Anarchy-HWLUXX
2008-06-03, 13:54:32
Mit nem GT200b @ 55nm könnte nV evtl. nochmal die Takte erhöhen -> GTX290 :|
Aber solang se nicht 2 * 1GB draufbasteln wird den R700 GPUs der VRAM ausgehen während die GTXen noch massig Platz haben :)
Hmm, sieht also so aus, als ob der R700 schneller sein wird als 280er GTX.
Im 3DMark vielleicht ja, ansonsten aber nicht.
Die Grafik zeigt der rein Strom Verbrauch der Grafikkarte, nix System und nix CPU....
Ich glaub das war etwas missverständlich.
1. Was ist Duchschnitt? Was ist Momentanverbrauch? Jeder angebliche Momentanverbrauch wird über die Integration ermittelt. Ist wenn man es so verstehen will also auch eine Mittelung. Alles eine Frage des Betrachtungszeitraums.
2. Ich meinte das man auch ein grafikkarte mit einer langsamen CPU paaren kann damit die GPU öfter mal idled.
dargo
2008-06-03, 14:21:23
mit dem ersten Treiber wohlgemerkt! ;D
was meinst du....gehen die Points mit der Zeit nach oben oder nach unten? ;)
Was ändert das jetzt an meiner Aussage? Ist schon unglaublich wie sich manche am 3DMark aufgeilen.
Ich hoffe nur, dass die Performance in Games genauso durchschlägt. Denn das würde NV zwingen die G9800GTX auf ca. 150-160€ zu drücken.
Mit nem GT200b @ 55nm könnte nV evtl. nochmal die Takte erhöhen -> GTX290 :|
Aber solang se nicht 2 * 1GB draufbasteln wird den R700 GPUs der VRAM ausgehen während die GTXen noch massig Platz haben :)
Wenn nVidia endlich ihr Speichermanagement in den Griff bekommt, ja.
reunion@work
2008-06-03, 14:30:16
Aber solang se nicht 2 * 1GB draufbasteln wird den R700 GPUs der VRAM ausgehen während die GTXen noch massig Platz haben :)
Nenn' mir ein Spiel bei dem 512MB VRAM auf einer AMD-Karte limitieren.
GeneralHanno
2008-06-03, 14:33:39
Nenn' mir ein Spiel bei dem 512MB VRAM auf einer AMD-Karte limitieren.
WIC
Snoopy69
2008-06-03, 14:37:54
Nenn' mir ein Spiel bei dem 512MB VRAM auf einer AMD-Karte limitieren.
Kommt auf die Auflöung an...
Ich will auf jeden Fall keine 512MB. Ich brauche immer so 600-700MB Vram.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/
dildo4u
2008-06-03, 14:37:56
WIC
Jup kostet schon bei 1600*1200 4XAA und AF 20% Leistung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/12/#abschnitt_world_in_conflict
Jup kostet schon bei 1600*1200 4XAA und AF 20% Leistung.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/12/#abschnitt_world_in_conflict
Kosten tuts 16 Prozent, bringen tuts 19% ...damit hier alles seine Richtigkeit hat.
Immerhin besser als sowas: http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
Wenn nVidia endlich ihr Speichermanagement in den Griff bekommt, ja.
Was ist damit?
Schlammsau
2008-06-03, 14:48:27
Was ist damit?
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
;)
TripleBuffering und AA verbrauchen bei nV mehr Speicher als bei AMD. Desweiteren scheinen die Karten mit 384MB Probleme mit der Verwaltung zu haben, diese brechen teilweise ein, wenn AMDs 256MB Karten noch normal funktionieren.
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
;)
512MiB sind zu wenig. Wussten wir davor schon. :confused:
dargo
2008-06-03, 14:59:14
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
;)
Und was hat das jetzt mit einer G280GTX@1GB Vram zu tun?
512MiB sind zu wenig. Wussten wir davor schon. :confused:
Jo richtig, aber nur sind die 512mb auf Nvidia Karten zu wenig, bei den ATI reichts!
dargo
2008-06-03, 15:15:49
Jo richtig, aber nur sind die 512mb auf Nvidia Karten zu wenig, bei den ATI reichts!
Auch das ist bekannt. Bist du dir sicher, dass 512MB bei einem R700 auch noch reichen? Bei Low-End reichen auch 256MB noch aus.
Wenn AMD mit dem R700 auf den Low-End Markt abziehlt reichen 512MiB. ;D
RV770 wird es auch mit 1GB geben. das stand ja schon zu lesen.
daher wird es auch den R700 mit 512 und 1GB geben.
nur evtl. werden die 1gb versionen nur von einigen partnern selbst herrausgegeben
Jo richtig, aber nur sind die 512mb auf Nvidia Karten zu wenig, bei den ATI reichts!
Nö die brechen genau so ein wie die NV, nur etwas später...
crux2005
2008-06-03, 15:37:32
Achja, nicht 30, sondern 25W, heißts zumindest hier:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/nvidia_geforce_gtx_280_idle_25_watt/
25W idle steht in der PR Folie von NV
wo ist btw die News ? ich glaube die wurde von CB.de gelöscht
Godmode
2008-06-03, 15:40:24
25W idle steht in der PR Folie von NV
wo ist btw die News ? ich glaube die wurde von CB.de gelöscht
Vielleicht steht CB jetzt selber unter NDA und darf sowas auch nichtmal verlinken?
gamingforce
2008-06-03, 15:44:05
http://www.pcgameshardware.de/aid,645838/Test/Benchmark/Age_of_Conan_Neue_Erkenntnisse_zum_Texture-Streaming_und_weitere_Benchmark-Tests/&page=3
;)
sehr interessant, da brauch man schon 1Gb VRAM :biggrin:
dildo4u
2008-06-03, 15:44:08
25W idle steht in der PR Folie von NV
wo ist btw die News ? ich glaube die wurde von CB.de gelöscht
Jup Computerbase wird unter NDA stehen.Die News zeigt ja eine Folie die unter diesem NDA steht scheint aber dem Newsposter nich gleich aufgefallen zu sein.
Schlammsau
2008-06-03, 15:50:32
512MiB sind zu wenig. Wussten wir davor schon. :confused:
du hast gefragt, was damit ist! Also hab ich dir die Erklärung geliefert!
Kannst mir ruhig dankbar sein! :cool:
=Floi=
2008-06-03, 15:56:47
wenn die news wieder verschwunden ist, dann sind diese daten wohl bestätigt!
Jake Dunn
2008-06-03, 16:04:45
wenn die news wieder verschwunden ist, dann sind diese daten wohl bestätigt!
Wie die 80W der 9800Gtx? ;D
Ailuros
2008-06-03, 16:05:06
TripleBuffering und AA verbrauchen bei nV mehr Speicher als bei AMD. Desweiteren scheinen die Karten mit 384MB Probleme mit der Verwaltung zu haben, diese brechen teilweise ein, wenn AMDs 256MB Karten noch normal funktionieren.
Und unter welchen Faellen genau funktioniert tripple buffering?
=Floi=
2008-06-03, 16:13:12
die 80w der 9800GTX sind unter 3dmark und da herrschte wohl ein cpu-limit, oder wurde anderweitig NICHT zu 100% ausgelastet!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.