PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "Neue" GPU-Generation - ist doch nicht euer ernst?


_DrillSarge]I[
2008-04-05, 13:12:52
hab mich jetzt mal genauer mit geforce9 und co beschäftigt und es kann doch nicht sein, dass man sowas geforce9 nennt. gut, die performance ist immer noch top (-> gf8), aber dass man für den, ebenfalls bei teilen der gf8 reihe verwendeten, g92 (g94&co lass ich da mal mitlaufen) einfach so eine neue "generation" vorgaukelt, ist doch ein witz. gut, man hat vielleicht das verhältnis etwas optimiert (banbreite/chipleistung), aber "früher" lief sowas unter gf2gts zu gf2 ultra.
ati ist da auch nicht ganz unschuldig, da die 2900xt durchgängig schneller ist als der rv670. gut, der 55nm shrink (weniger verbrauch; powerplay) kann auch d3d10.1 und wurde nicht auf 2000er serien-karten verbaut, aber irgendwie doch seltsam.
irgendwie komme ich mir leicht veralber vor, noch nie war der "sprung" von einer "generation" zur nächsten so minimal.
diesen nichtvorhandenen sprung will man auf beiden seiten nun mit dual-gpu karten suggerieren.
was soll das?

€: vielleicht wäre "neue grafikkartengeneration" im titel angebrachter ;)

deekey777
2008-04-05, 13:45:53
Die 2900XT ist alles andere als durchgängig schneller als die HD3870.
Der G92 hatte den Nachteil, dass NV (zur eigenen Überraschung) dem ziemlich gelungenen RV670 etwas entgegensetzen musste, ohne dabei eine neue Generation vorzutäuschen. Der G92 kam verfrüht und die 8800GT/GTS leiden seitdem unter dem Preiskampf. Die 9800GTX ist zwar kaum schneller als die 8800GTS, dafür kann NV höhere Preise verlangen, da die Neun eine neue Generation vortäuscht.
ATi/AMD hat aus der Sicht der Hersteller einen Knall, da alle paar Wochen die UVP gesenkt werden. Der Vorteil ist aber, dass die Hersteller "Nischen-Modelle" herausbringen, um Käufer für sich zu gewinnen.
Es passt zwar nicht ganz zum Thema, aber die aktuelle Lage hat den Vorteil, dass zumindest bei AMD Grafikkarten mit gleichem Grafichip in unterschiedlichen Ausführungen zu kaufen sind (allein Sapphire hat für die HD3870 mehrere fünf oder so Variationen).

Gast
2008-04-05, 15:33:52
gut, man hat vielleicht das verhältnis etwas optimiert (banbreite/chipleistung), aber "früher" lief sowas unter gf2gts zu gf2 ultra.


nein früher lief das unter Geforce1/2 oder Geforce3/4.


ati ist da auch nicht ganz unschuldig, da die 2900xt durchgängig schneller ist als der rv670.


stimmt nicht RV670 ist fast immer schneller.

_DrillSarge]I[
2008-04-05, 15:38:16
stimmt nicht RV670 ist fast immer schneller.
hmm. ich glaube mich zu erinnern, dass sich die 2900xt in hq-settings meist (merklich) von der 3870er absetzen konnte

nein früher lief das unter Geforce1/2 oder Geforce3/4.
afaik hatte eine geforce2 nicht exakt den selben chip wie eine gf1 und bei gf3 und 4 auch nicht ;)

Sorkalm
2008-04-05, 15:42:36
I[;6409231']hmm. ich glaube mich zu erinnern, dass sich die 2900xt in hq-settings meist (merklich) von der 3870er absetzen konnte

Ist eigentlich genau anders herum, je höher die Qualitätseinstellungen, desto mehr kann sich die 3870 von der 2900 XT nach oben absetzen...

_DrillSarge]I[
2008-04-05, 15:45:02
Ist eigentlich genau anders herum, je höher die Qualitätseinstellungen, desto mehr kann sich die 3870 von der 2900 XT nach oben absetzen...
okay, habs mal gestrichen

Gast
2008-04-05, 16:02:35
I[;6409231']hmm. ich glaube mich zu erinnern, dass sich die 2900xt in hq-settings meist (merklich) von der 3870er absetzen konnte


tut sie nicht, die 2900XT hat oft genug probleme überhaupt mit der alten 8800GTS mitzuhalten, die 3870 ist dagegen nichtmal soweit hinter einer 8800GT


afaik hatte eine geforce2 nicht exakt den selben chip wie eine gf1 und bei gf3 und 4 auch nicht ;)

auch G80 und G92 sind unterschiedliche chips, und nicht nur von der strukturgröße.

_DrillSarge]I[
2008-04-05, 16:06:00
auch G80 und G92 sind unterschiedliche chips, und nicht nur von der strukturgröße.
und was kommt auf einer 8800gt/ gts 512/ gs zum einsatz? ;)
€: und trotzdem ist ein g80 mit das schnellste

Jake Dunn
2008-04-05, 16:11:06
Die HD 38xx Reihe sollte auch die HD2600XT/Pro beerben laut Roadmap von A/A und nicht die HD2900. Und dafür macht sie den Job ausgezeichnet.

Gast
2008-04-05, 17:36:18
Totaler schwachsinn zu behaupten das die 3870 schneller als die X2900 XT ist.In allen Reviews sind die beiden Karten ungefähr gleichschnell.DIe X2900 Xt kannst dazu sogar noch besser übertakten.Mit mehr Gpu Takt verschwindet auch merklich schlechte AA-af Performance.Insgesamt ist die X2900 XT also noch immer schneller als die 3870.;)

Thunder99
2008-04-05, 17:41:43
Bezogen auf die 9600GT zur 8600GT passt der Namenswechsel, da der Geschwindigkeitszuwachs enorm war/ist. Zu dem Rest der 9er Serie -> :udown: . Meine Behauptung, der G90 war en internes Desaster

Schlammsau
2008-04-05, 17:47:06
Die HD38xx Serie wurde zurecht so genannt! Sie hat im Vergleich zur 2xxx Serie viele Verbesserungen erfahren.....wie z.B. extrem verminderter Energiebedarf (Powerplay), DX10.1, weniger Abwärme. Sie mussten dem RV670 einen neuen Namen geben, um das schlechte Image der 2xxx zu entkommen!
Aber was nVidia gerade mit der GF9 Serie abzieht ist verarsche hoch zehn! Die 9800GTX ist doch "nur" eine um 6% höher getaktete 8800 GTS!? Ansonsten hat sich doch nichts geändert. Die gleiche GPU, die gleichen Features, der hohe Stromverbrauch!
Oder lieg ich da falsch?

AnarchX
2008-04-05, 17:51:27
Aber was nVidia gerade mit der GF9 Serie abzieht ist verarsche hoch zehn! Die 9800GTX ist doch "nur" eine um 10% höher getaktete 8800 GTS!? Ansonsten hat sich doch nichts geändert. Die gleiche GPU, die gleichen Features, der hohe Stromverbrauch!
Oder lieg ich da falsch?

HybridPower -> GeForce 9
Tri-SLI -> GTX
:D

Natürlich hat man (deutlich) mehr von einer 9800GTX erwartet, aber so ist es nunmal, wenn die Konkurrenz in gewissen Marktbereichen schwächelt.
Zudem denke ich, dass ab GT200 eh ein neues, leichter verständliches Namensschema kommt, wie es ATi ab HD3000 eingeführt hat.

dargo
2008-04-05, 17:55:02
Bezogen auf die 9600GT zur 8600GT passt der Namenswechsel, da der Geschwindigkeitszuwachs enorm war/ist. Zu dem Rest der 9er Serie -> :udown: .
Vollkommen richtig!

G8600GT zu G9600GT = hui
G8800GTX zu G9800GTX = pfui

Gast
2008-04-05, 18:06:02
Meine Behauptung, der G90 war en internes Desaster

kaum, ein imaginärer G90 ist einfach nicht notwendig, so lange es keine konkurrenz gibt. wieso sollte man einen G90 verkaufen, wenn es der deutlich billiger zu produzierende G92 auch tut?

Gast
2008-04-05, 18:09:01
I[;6409313']und was kommt auf einer 8800gt/ gts 512/ gs zum einsatz? ;)


das ist meines erachtens der fehler, die vielen 8800er sind extrem unübersichtlich, man hätte alle G9x-produkte unter Geforce9xxx verkaufen sollen, passt auch deutlich besser zum codenamen.

wie es ausieht passiert ja genau das, die G9x-produkte der "8er-serie" wird als Geforce 9xxx neu aufgelegt, ich frage mich nur warum nicht von anfang an.

Gast
2008-04-05, 18:10:54
Meine Behauptung, der G90 war en internes Desaster
Welcher G90. ;)

R600 war ein Griff ins Klo, RV670 kaum besser, warum soll Nv irgendwie die Performance steigern?

Sorkalm
2008-04-05, 18:17:06
wie es ausieht passiert ja genau das, die G9x-produkte der "8er-serie" wird als Geforce 9xxx neu aufgelegt, ich frage mich nur warum nicht von anfang an.

Inkonsistentes Marketing. Als man den Namen für G92-270 festlegte (8800 GT), rechnte Nvidia wohl noch mit HD 2950 XT / Pro als Verkaufsnahmen für den RV670. Den hat AMD anscheinend erst am 17. Oktober 2007 den Partnern mitgeteilt, 12 Tage vor dem Launch der 8800 GT (relativ knapp - die Karten kamen ja auch keinen Monat später raus).

Eh die bei Nvidia verstanden hatten was das bedeutet war die 8800 GT schon draußen und nichts mehr zu machen.

Schlammsau
2008-04-05, 18:20:30
Welcher G90. ;)

R600 war ein Griff ins Klo, RV670 kaum besser, warum soll Nv irgendwie die Performance steigern?

und warum den nicht? So gibt man der Konkurrenz doch nur noch eine Chance sich zu erholen und vielleicht doch das Performance Wunder zu bauen!

Jedenfalls war der Sprung vom RV600 zum RV670 grösser als der vom G80 zum G9x!

Gast
2008-04-05, 18:35:21
und warum den nicht?

Kosten.
Ein dickerer Chip ist teuer.
Eine dickere Platine ist teuer.
Mehr, besserer RAM ist teuer.

Schlammsau
2008-04-05, 18:39:31
Und der Kunde ist blöd genug und würde sogar eine langsamere Karte kaufen, wenn nur ein neuerer Name draufsteht!

deekey777
2008-04-05, 18:46:07
Welcher G90. ;)

R600 war ein Griff ins Klo, RV670 kaum besser, warum soll Nv irgendwie die Performance steigern?
Womit hätte NV überhaupt die Performance steigern können? :|

Schlammsau
2008-04-05, 18:49:19
die 8800 serie war vor 1 1/2 Jahren einfach zu schnell! Gab es irgendein Spiel, dass damals nicht darauf lief!

_DrillSarge]I[
2008-04-05, 18:57:28
gibt es wirklich leute die so doof sind und von einer 8800er zu einer 9er geforce wechseln?
bei der hd38xx kann ich es ja halbwegs verstehen, da die 2900xt strom wie nix zieht (obwohl wechsel von 2900er zu 38xx ist auch keine "richtige" aufrüstung), aber wenn jemand vor nem jahr eine gtx gekauft hat? gf9? höhö
die 9600gt hat ja noch eine daseinsberechtigung. der rest...naja.

Coda
2008-04-05, 19:06:50
Womit hätte NV überhaupt die Performance steigern können? :|
384er SI und 192 Streamprozessoren?

_DrillSarge]I[
2008-04-05, 19:08:24
dafür hatte man aber mehr aufwand betreiben müssen und der chip wäre teurer.
vielleicht ist ja das ein grund. man bekommt ja, zwar keine höchstleistungen, schon schnelle karten (3800er/8800gt(s)) beinahe hinterhergeschmissen

dargo
2008-04-05, 19:12:45
384er SI und 192 Streamprozessoren?
Das wäre durchaus ein schöner Refresh vom G80 gewesen. :)

Moralelastix
2008-04-05, 19:16:17
Wann wird ATI endlich NV dazu veranlassen einen ordentichen G80 Nachfolger aus der Schublade zu ziehen?

Oder effizientere Mulit GPU Techniken zu entwickeln?

_DrillSarge]I[
2008-04-05, 19:19:41
hoffentlich mit dem r700 :D. ich will keine 5 grafikkarten im system haben um fordernde spiele genießen zukönnen

...gleich kommt wieder jemand der sagt "gar nicht" ;D

deekey777
2008-04-05, 19:30:43
384er SI und 192 Streamprozessoren?
Woher? Einfach so aus dem Ärmel schütteln?
Es sei denn, der G92 ist wirklich die Konsequenz aus dem R600-Desaster.

Gast
2008-04-05, 19:33:55
384er SI und 192 Streamprozessoren?

bräuchten sie nichtmal, GDDR4/5 würde reichen um einen ordentlichen abstand zur 8800GTX zu erreichen.

AnarchX
2008-04-05, 19:34:52
NV soll doch einen G90 in der Schublade liegen gelassen haben.:D

Aber an sich wäre schon ein G92@384-Bit, der sein Taktpotential etwas besser ausnutzt, also vielleicht 700-750/1750-1875MHz doch schon eine annehmbare Lösung gewesen.
Man hätte halt G94, der ja an sich gegen RV670 ausreicht, halt noch 2007 auf den Markt werfen sollen.
(Wenn man an die Spekulationen über eine 8700GTS und auch 64SPs nachdenkt, war das vielleicht sogar geplant, aber man überschätzte RV670 wohl etwas.)

LovesuckZ
2008-04-05, 19:38:44
Ahso, man müsste überschätzte den RV670 und brachte daher gleich 8 Cluster in die Runde. :rolleyes:

AnarchX
2008-04-05, 19:40:23
Ahso, man müsste überschätzte den RV670 und brachte daher gleich 8 Cluster in die Runde. :rolleyes:
NV hat ja mittlerweile geäußert, dass G92, die GPU war, welche sie bisher am schnellsten auf den Markt brachten.;)

LovesuckZ
2008-04-05, 19:51:13
Richtig. Sie war immer für das 4. Quartal 2007 geplant. Wie konnte man also AMD unterschätzen, wenn man sowieso im 4.Q auf den Markt kommen wollte? :rolleyes:

deekey777
2008-04-05, 19:53:02
Richtig. Sie war immer für das 4. Quartal 2007 geplant. Wie konnte man also AMD unterschätzen, wenn man sowieso im 4.Q auf den Markt kommen wollte? :rolleyes:
Woher nimmst du die Gewissheit, dass der G92 schon im vierten Quartal erscheinen sollte?

Alexander
2008-04-05, 19:57:31
Wieso wurde damals die 8800Gt nicht einfach als 9800Gt auf dem Markt gebracht? Und dementsprechend die neue 8800GTS als 9800GTS bezeichnet?

LovesuckZ
2008-04-05, 19:57:43
Weil ich nicht deekey777 heiße und unsinnige Nachfragen stelle.
Lese den Spekulationsthread durch. Alle Anzeichen deuteten auf 4. Quartal 2007 hin. Auch Aussagen von nVidia.

deekey777
2008-04-05, 20:04:58
Weil ich nicht deekey777 heiße und unsinnige Nachfragen stelle.
Lese den Spekulationsthread durch. Alle Anzeichen deuteten auf 4. Quartal 2007 hin. Auch Aussagen von nVidia.
Aber natürlich, du bist ja LS. Ich hab's vergessen...

LovesuckZ
2008-04-05, 20:09:50
Aber natürlich, du bist ja LS. Ich hab's vergessen...

Richtig. Und im Gegensatz zu dir, weiß ich nunmal, dass unser Spekulationsthread genau auf das 2. Halbjahr 2007 datiert war.
Es reiche also einfach aus noch in diesen Forumsteil zu gucken.

Gast
2008-04-05, 20:10:38
Wieso wurde damals die 8800Gt nicht einfach als 9800Gt auf dem Markt gebracht? Und dementsprechend die neue 8800GTS als 9800GTS bezeichnet?
Weil die Zeit noch nicht reif war.

Eine 9800GT hätte die G80 Verkäufe massiv beeinträchtigt, besonders da G80 noch produziert wurde kein Traum für NV.

deekey777
2008-04-05, 20:17:48
Richtig. Und im Gegensatz zu dir, weiß ich nunmal, dass unser Spekulationsthread genau auf das 2. Halbjahr 2007 datiert war.
Es reiche also einfach aus noch in diesen Forumsteil zu gucken.
Du biegst dir alles zurecht...
AnarchX schrieb:
NV hat ja mittlerweile geäußert, dass G92, die GPU war, welche sie bisher am schnellsten auf den Markt brachten
Daraus bastelst du:
Richtig. Sie war immer für das 4. Quartal 2007 geplant. Wie konnte man also AMD unterschätzen, wenn man sowieso im 4.Q auf den Markt kommen wollte?
Und das, obwohl schon mehrmals erwähnt wurde, dass NV den RV670 bzw. den Termin seiner Fertigstellung falsch eingeschätzt hat und sonst nichts entgegenzusetzen hätte.
Zwischen Behauptung "Sie war immer für 4. Quartal 2007 geplant" und deren tatäschlichen Termin ist doch ein Unterschied.

LovesuckZ
2008-04-05, 20:26:48
Und was hat es mit der Tatsache zu tun, dass sie AMD unterschätzt hätten?
Es wurde für das zweite Halbjahr eine neue GPU angekündigt: Das hat nVidia sogar im Sommer in ihrem CC getätigt.
Man hat im 4. Quartal zwei neue Karten vorgestellt. Die zweite war sogar sehr gut verfügbar - deutlich besser als AMD zum selbigen Zeitpunkt mit der 3870.
Es gibt kein Anzeichen für ein Unterschätzen von AMD. Und ich warte jetzt auf deine Gegenargumente.
Diese Diskussion hatten wir schon: Weder spekulativer Zeitpunk noch der G92 sprechen für eine Unterschätzung von AMD. Das AMD früher kam, war pech. nVidia kam aber nicht deswegen ebenfalls früher - außer wir nehmen die zwei Wochen der 8800GT als Panikaktion...

Sorkalm
2008-04-05, 21:28:18
Und was hat es mit der Tatsache zu tun, dass sie AMD unterschätzt hätten?
Es wurde für das zweite Halbjahr eine neue GPU angekündigt: Das hat nVidia sogar im Sommer in ihrem CC getätigt.

Eine neue GPU im 4. Quartal war damals auch nicht unwahrscheinlich. Egal in welcher Variante. Dass früher der G94 (unter welchem Codenamen) eher erscheinen sollte, halte ich nicht für unwahrscheinlich. Hätte ich vor der Entscheidung Prioritäten für die nächsten Chips festzulegen zu dem Zeitpunkt bei Nvidia gesessen, hätte ich mich auch für den G94 entschieden. Einfache Begründung:

Der G80 war mit seinen Eckdaten immer noch sehr leistungsfähig und diese Einstellungen sollte er wohl auch gegenüber dem G92 behalten (das dürften ja auch die Ingenieure bei Nvidia gesehen). Größtes Problem: Er ist so riesig und daher auch verdammt teuer. Das ist in seinem Originalbereich nicht so schlimm, schließlich kann man für ihn ja höhere Preise verlangen. Nur in einen Preiskampf mit ihm zu gehen wird verdammt teuer.

Der G94 hingegen ist leicht in unteren Preisregionen anzuwenden (sehen wir ja bereits heute). Mit 256 Bit und 64 SPs erreicht er eine ordentliche Leistung und passt gut ins Portfolio zwischen G84 und G80 (könnte also auch "G82" heißen). In die Aufstellung von Nvidia selbst passt er also gut. Auch die Spekulationen um eine 8700 GTS mit 64 SPs, die es in der Anfangsphase der Geforce-8-Reihe gab passen sehr gut dazu.

Im unteren Marktbereich wird viel mehr Geld gemacht. Ein gutes Angebot an dem man sinnvoll verdienen kann ist daher wichtiger als eine Reduzierung der Kosten im oberen High-End. Von daher hätte ich wie schon geschrieben dem G94 die höhere Priorität zugeordnet, und vermutlich war es bei Nvidia ja auch ursprünglich so geplant.


Das Umschwenken auf den G92 als neuere wichtigere Karten kann nur gekommen sein, als man die Daten des RV670 erfuhr. Schon verständlich das man bei den ersten Daten (des "Gladiator") überlegt, dass man dem nicht mit G94 sinnvoll begegnen könne - damals war er ja auch noch mit etwas höheren Taktraten geplant. Daher ist man wohl auf den G92 umgeschwenkt, um nicht den G80 gegen RV670 setzen zu müssen, was wohl eindeutig zu teuer gewesen wäre. Heute sieht man, dass das nicht unbedingt nötig gewesen wäre (etwas höheren Takt verträgt der G94 ja auch noch), aber immer klar war das sicherlich nicht.

Es gibt kein Anzeichen für ein Unterschätzen von AMD. Und ich warte jetzt auf deine Gegenargumente.

Du kannst auch die schnelle Reaktion von Nvidia falsch verstehen und negativ interpretieren... ;D

Gast
2008-04-05, 21:41:39
Das Umschwenken auf den G92 als neuere wichtigere Karten kann nur gekommen sein, als man die Daten des RV670 erfuhr.

sehr unwahrscheinlich, da ja selbst der G94 für den RV670 beinahe reicht und man für die höheren preisregionen ja immer noch den G80 hat(te).

im gegenteil, so wie es gelaufen ist, ist es eher für beide IHVs schlechter.

hätte man von anfang an afu G94 gegen RV670 gesetzt, hätte ATI nicht so schnell die preise drücken müssen und demzufolge auch NV nicht so schnell nachziehen müssen. es war bestimmt nicht geplant G94 so günstig einzuführen, aber schlicht notwendig, da G92 und RV670 die preise schon recht weit nach unten gerückt haben.

Sorkalm
2008-04-05, 21:52:47
sehr unwahrscheinlich, da ja selbst der G94 für den RV670 beinahe reicht und man für die höheren preisregionen ja immer noch den G80 hat(te).

Das kann im Nachhinein sehen, ja. Ob das allerdings für Nvidia schon damals so absehbar war, weiß ich nicht. AMD hatte damals den RV670 wohl bei 825/1200 geplant - und die vollen 4 Texturcluster / 8 Shadercluster konnte man wohl schlecht einschätzen.

Großen Abstand dürfte Nvidia zwar auch nicht gesehen haben (die Simulationen sollten halbwegs schon laufen), aber man wollte wohl um jeden Preis vermeiden dass die AMD-Karte ein Tick schneller wird.

im gegenteil, so wie es gelaufen ist, ist es eher für beide IHVs schlechter.

hätte man von anfang an afu G94 gegen RV670 gesetzt, hätte ATI nicht so schnell die preise drücken müssen und demzufolge auch NV nicht so schnell nachziehen müssen. es war bestimmt nicht geplant G94 so günstig einzuführen, aber schlicht notwendig, da G92 und RV670 die preise schon recht weit nach unten gerückt haben.

Da hast du allerdings Recht. G94 vs. RV670 hätte beiden Herstellern mehr Luft zum Atmen gelassen.

Gast
2008-04-05, 22:23:10
Großen Abstand dürfte Nvidia zwar auch nicht gesehen haben (die Simulationen sollten halbwegs schon laufen), aber man wollte wohl um jeden Preis vermeiden dass die AMD-Karte ein Tick schneller wird.

das risiko bestand nie, man hatte ja immer noch den G80.

ich vermute eher dass fertigungsprobleme den G94 etwas verzögert haben, dieser wird wohl darauf optimiert sein möglichst wirtschaftlich zu sein.

LovesuckZ
2008-04-05, 22:56:14
Eine neue GPU im 4. Quartal war damals auch nicht unwahrscheinlich. Egal in welcher Variante. Dass früher der G94 (unter welchem Codenamen) eher erscheinen sollte, halte ich nicht für unwahrscheinlich. Hätte ich vor der Entscheidung Prioritäten für die nächsten Chips festzulegen zu dem Zeitpunkt bei Nvidia gesessen, hätte ich mich auch für den G94 entschieden.

G94 war von anfang für 2008 geplant. G94 war nicht der 2. Halbjahrchip, der kommen sollte.
Daher bei Theorien sich immer auch an die Fakten halten, die bekannt waren. Wunschdenken ist da unangepasst.

Sorkalm
2008-04-06, 00:45:34
das risiko bestand nie, man hatte ja immer noch den G80.

In einem akzeptablen Preisbereich (200-250€, also unter dem Bereich der 8800 GTS 320). Die Verkaufszahlen sind da halt viel höher, und wenn AMD etwas schneller ist (und RV670 hat ja auch bei den Features noch Vorteile), müssten sie halt teure G80-Produkte entgegensetzen - du schreibst es ja.

=Floi=
2008-04-06, 08:20:36
dafür sind die karten für das gebotene auch entsprechend günstig! Die leute gucken doch auch nur alles aufs geld (schaut mal zu anderen produkten... :rolleyes: ) und nebenbei muß man sich doch sowieso immer informieren bevor man etwas kauft.
zuerst wurde gemeckert als nv mit der 512er gts die alte ersetzte und nun passte es auch wieder nicht. 8900§§§ wäre sicherlich der richtige weg gewesen, aber so ist das nunmal

Gast
2008-04-06, 10:00:15
Ich habs endlich verstanden; das Einzige, was zählt ist scheinbar ein dickes SI, kein Wunder das die HD2900XT überhaupt gekauft wurde.

Diese angeblich superschlauen Käufer interessiert mitlerweile nichts anderes mehr. Traurig.

Sorkalm
2008-04-06, 10:44:31
G94 war von anfang für 2008 geplant. G94 war nicht der 2. Halbjahrchip, der kommen sollte.
Daher bei Theorien sich immer auch an die Fakten halten, die bekannt waren. Wunschdenken ist da unangepasst.

Für diese Theorie deinerseits gibt es weder Fakten noch Andeutungen.

zuerst wurde gemeckert als nv mit der 512er gts die alte ersetzte und nun passte es auch wieder nicht. 8900§§§ wäre sicherlich der richtige weg gewesen, aber so ist das nunmal

Na doch, für mich als Käufer sind die Preise Klasse!
Nur für die Hersteller eben nicht so toll. Und die Namensgebung ist halt ein Graus, da kann nur durchsehen wer sich ständig informiert.
Nach Expreview wird z. B. die 8800 GS nun zur 9600 GSO...

Simon Moon
2008-04-06, 11:09:12
Na doch, für mich als Käufer sind die Preise Klasse!
Nur für die Hersteller eben nicht so toll. Und die Namensgebung ist halt ein Graus, da kann nur durchsehen wer sich ständig informiert.
Nach Expreview wird z. B. die 8800 GS nun zur 9600 GSO...

Das war noch nie grossartig anders. Zu GF4 Zeiten wurde uns die alte GF2 Generation als MX verkauft, die gegen Ender derer Lebzeiten erschienene GF4800 war dann auch nur auf Niveau der GF4400...
Nach der GF3 kam nebenbei die GF3 Ti200/500 - erstere war afaik langsamer als der UR-NV20...
Ein einheitliches Featureset unter den Generationen haben wir sowieso erst etwa seit der GF5xxxFX, zuvor war das noch mühsamer...

LovesuckZ
2008-04-06, 11:27:11
Für diese Theorie deinerseits gibt es weder Fakten noch Andeutungen.


Nein, natürlich nicht. Lese dir die Spekulationsthread durch.

Gast
2008-04-06, 11:32:14
Ein einheitliches Featureset unter den Generationen haben wir sowieso erst etwa seit der GF5xxxFX, zuvor war das noch mühsamer...

leider, wie sich das auf die leistung der einsteigerkarten ausgewirkt hat wissen wir ja.

Gast
2008-04-06, 11:42:50
leider, wie sich das auf die leistung der einsteigerkarten ausgewirkt hat wissen wir ja.
Wie den?
Willst du mir erzählen eine 5200 war mieser als eine GF4 MX?
Oder das was ATI bei den 9000er abgezogen hat? 9100 als rezycelte 8500 oder die 9000, die schon nicht schnell war, trotzdem aber schneller als 9100?

Und die Namensgebung ist halt ein Graus, da kann nur durchsehen wer sich ständig informiert.
Warum ständig?
Einmal vorm Kauf reicht doch.

Sorkalm
2008-04-06, 11:57:04
Nein, natürlich nicht. Lese dir die Spekulationsthread durch.

Die Threads sind mir genauso bekannt, wie hier dieser Thread. Daher konnte ich auch verschiede Argumente und Hinweise nennen, die für den G94 sprechen. Du hingegen gar nichts und kommst immer nur mit Zuweisungen. Wenn du mal nicht selber Argumente nennst ist die Diskussion für mich beendet, ist ja ätzend dieser Diskussionsstil...

Wie den?
Willst du mir erzählen eine 5200 war mieser als eine GF4 MX?
Oder das was ATI bei den 9000er abgezogen hat? 9100 als rezycelte 8500 oder die 9000, die schon nicht schnell war, trotzdem aber schneller als 9100?

Die 9100 war doch schneller als die 9000; war nicht erst die 9200 das richtig langsame Modell? :|
Aber das ist natürlich der selbe Graus bei der Namensgebung, muss eben alles aktuell sein...

Warum ständig?
Einmal vorm Kauf reicht doch.

Natürlich. Aber schon das ist bei dem Durcheinander relativ schwierig. ;)

LovesuckZ
2008-04-06, 11:58:17
Die Threads sind mir genauso bekannt, wie hier dieser Thread. Daher konnte ich auch verschiede Argumente und Hinweise nennen, die für den G94 sprechen. Du hingegen gar nichts und kommst immer nur mit Zuweisungen. Wenn du mal nicht selber Argumente nennst ist die Diskussion für mich beendet, ist ja ätzend dieser Diskussionsstil...


Machen wir es einfach:
Dann zeige mir doch bitte, wo vom G94 gesprochen wurde.

Gast
2008-04-06, 12:03:40
Die 9100 war doch schneller als die 9000; war nicht erst die 9200 das richtig langsame Modell? :|
Tja, man sieht die Verwirrung war früher noch grusseliger. ;)
Heute ist immerhin das Featureset im Groben gleich.

Natürlich. Aber schon das ist bei dem Durcheinander relativ schwierig.
Sehe ich überhaupt nicht so.
Was ist daran schwer ein paar Testberichte zu lesen?
Müsstest du auch, wenn die Karten Hanspeterwurst und Johnwayne heißen.

Sorkalm
2008-04-06, 12:13:59
Machen wir es einfach:
Dann zeige mir doch bitte, wo vom G94 gesprochen wurde.

Damit nicht auffällt, dass es keine Quellen gibt, in dem vom G92 gesprochen wird? ;D
Ne, danke. Das tue ich mir nicht an. :rolleyes:

LovesuckZ
2008-04-06, 12:17:31
Damit nicht auffällt, dass es keine Quellen gibt, in dem vom G92 gesprochen wird? ;D
Ne, danke. Das tue ich mir nicht an. :rolleyes:

Doch gibt es - direkt von nVidia:
http://www.beyond3d.com/content/news/230

Dazu fuad:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1153&Itemid=34

Aber ey alles spricht natürlich für einen nativen 4 Cluster Chip.
Ich stell mir immer die Frage, warum können Leute nicht die Wahrheit vertragen? :confused:

Gast
2008-04-06, 12:18:01
Damit nicht auffällt, dass es keine Quellen gibt, in dem vom G92 gesprochen wird? ;D
Ne, danke. Das tue ich mir nicht an. :rolleyes:
Du argumentierst also ohne Quellen?

Gast
2008-04-06, 12:35:27
Wie den?
Willst du mir erzählen eine 5200 war mieser als eine GF4 MX?

mieser ist garkein ausdruck, die GF4MX war wohl so ziemlich die beste einsteigerkarte aller zeiten.

reunion
2008-04-06, 12:40:33
Doch gibt es - direkt von nVidia:
http://www.beyond3d.com/content/news/230

Dazu fuad:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1153&Itemid=34

Aber ey alles spricht natürlich für einen nativen 4 Cluster Chip.
Ich stell mir immer die Frage, warum können Leute nicht die Wahrheit vertragen? :confused:

Und wo war das TFLOP im Q4?

LovesuckZ
2008-04-06, 12:45:57
Darum geht es nicht. Bitte nochmal genauer lesen.

Simon Moon
2008-04-06, 12:46:22
leider, wie sich das auf die leistung der einsteigerkarten ausgewirkt hat wissen wir ja.

Absolut ist sie bestimmt nicht gesunken, vielleicht relativ... Dafür brauch ich mir keine Gedanken mehr übers Featureset machen. Gerade bei der GF4 war es doch so, dass ich entweder auf Leistung setzen konnte, dafür aber auf die VPE verzichten musste oder umgekehrt.

Simon Moon
2008-04-06, 12:52:12
mieser ist garkein ausdruck, die GF4MX war wohl so ziemlich die beste einsteigerkarte aller zeiten.

Welche meinst du?

Die langsamen Versionen waren eh unbrauchbar und bei den grösseren lohnte sich der Sprung zu einer Ti4200 (oder GF3Ti200/500) doch wesentlich.

_DrillSarge]I[
2008-04-06, 12:55:02
oem waren die mx440 (nicht diese miesen mx420er, die es natürlich auch gab; low-cost) schon ziemlich verbreitet und relativ brauchbar (anfangs). danach (und auch schon vorher im retail markt) war die ti4200 so ziemlich das maß aller dinge (bis zum r300 und seinen kleineren versionen versteht sich).

Sorkalm
2008-04-06, 13:16:17
Doch gibt es - direkt von nVidia:
http://www.beyond3d.com/content/news/230

Dazu fuad:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1153&Itemid=34

Der TFLOP-Chip fehlt bis heute. Die TFLOP-Karte kam Ende des ersten Quartals.
Zumal ist diese Meldung von Ende Mai, da dürften die Daten vom RV670 langsam bei Nvidia angekommen sein, zumal hatte man dann gerade die schlechte Performance des 2900 XT gesehen (und das komplett unbrauchbare breite Interface). Passt doch zu einer Planänderung (zu der es auch Gerüchte gab). ;)

LovesuckZ
2008-04-06, 13:21:07
Ohman.
Du verstehst nicht, oder? G94 war in dieser Dimension nicht für 2007 geplant. Weder nVidia, noch die Gerüchteküche haben je auf einem nativen 4 Cluster Chip gedeutet.
Und wie man Planungen im Mai 2007 ändern könnte, ist mir schleierhaft. Die Chips müssen zu diesem Zeitpunkt schon sehr weit fortgeschritten sein.
Aber ey, nVidia kann Zaubern und hat einfach mal 4 zusätzliche Cluster an den G94 angeheftet und verkauft ihn als G92. :ugly:

Gast
2008-04-06, 14:09:44
Absolut ist sie bestimmt nicht gesunken, vielleicht relativ... Dafür brauch ich mir keine Gedanken mehr übers Featureset machen.


auch heute ist das featureset nicht durchgehend identisch, das Shader-model ist zwar das gleiche, aber beim rest gibt es durchaus unterschiede.

die leistung der einsteigerkarten ist relativ extrem gesunken und am anfang sogar absolut (die FX5200 hat ja sogar mit einer GF3 starke probleme)

Gast
2008-04-06, 14:10:23
Und wo war das TFLOP im Q4?

TFLOP= GX2, zwar nicht im Q4-2007 aber im Q1-2008

Gast
2008-04-06, 14:18:21
auch heute ist das featureset nicht durchgehend identisch, das Shader-model ist zwar das gleiche, aber beim rest gibt es durchaus unterschiede.
Ja richtig, Lowend Karten, wie die 8400 haben mehr Features (Videoprozessor) als die G80.

Simon Moon
2008-04-06, 14:27:51
auch heute ist das featureset nicht durchgehend identisch, das Shader-model ist zwar das gleiche, aber beim rest gibt es durchaus unterschiede.

die leistung der einsteigerkarten ist relativ extrem gesunken und am anfang sogar absolut (die FX5200 hat ja sogar mit einer GF3 starke probleme)

Ich will ja nicht wissen, wie sich eine MX420 geschlagen hat. Selbst eine GF2GTS hatte 60% mehr Füllrate, was von den Leistungstechnischen Daten ziemlich ähnlich dem Verhältnis einer FX5200 zur GF3 ist. Nur dass die FX dann auch eine neue Architektur war und von deren Vorteilen profitieren konnte.

Gast
2008-04-06, 14:28:15
Ja richtig, Lowend Karten, wie die 8400 haben mehr Features (Videoprozessor) als die G80.

beispielsweise.

bei ATI sieht es dafür so aus, dass die volle postprocessingqualität erst ab HD2600 verfügbar ist, darunter gibt es abstriche beim deinterlacing etc.

Gast
2008-04-13, 00:29:48
Trotzdem ist die Geforce 9800GTX eine Lachnummer.

Es ist eine G92 8800 GTS 512 MB Karte mit leicht Höhere Takten.

Aber 70 Euro Teuere als ein 8800 GTS 512!

Noch schlimmer ist die Treiber unterstüztung!

WHQL 174.74 gibt es für die 9800 GTX aber NICHT für die 8800 GTS 512 obwohl es ist die SELBER Chip!

Gast
2008-04-13, 15:10:41
WHQL 174.74 gibt es für die 9800 GTX aber NICHT für die 8800 GTS 512 obwohl es ist die SELBER Chip!

doch gibt es, nur eben nicht mit WHQL-zertifikat.