PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce-100-Serie: GF8/9 unter neuem Namen + weitere nVidia-Umbenennungen


Seiten : [1] 2 3

AnarchX
2008-11-28, 17:39:50
Bei VR-Zone gibt es nun einen detailierten Treiberauszug, der die neuen Namen für Desktop und Notebook aufführt:
http://img152.imageshack.us/img152/7103/nvgpurenaming10253789ay8.gif (http://imageshack.us)
http://www.vr-zone.com/articles/nvidia-desktop--mobile-gpus-renaming/6238.html

Also kommt "G100" doch nach GT200. ;D

Gast
2008-11-28, 17:42:09
Langsam wird die "Neue Namen für uraltes Zeug" Masche von nV nur noch lächerlich...

Ailuros
2008-11-28, 17:44:51
Offensichtlicher Scherz aber ich glaube Degustator schon auf B3D wenn er sagt dass der originale "G100" ein 384SP/384bit Dingsbums war.

Und ja die Kerle in der NV Marketing-Abteilung haben nicht alle Tassen im Schrank. Dieser unendliche Namen-Wirrwarr ist zum kotzen.

AnarchX
2008-11-28, 17:45:06
Wobei dieser Schritt doch konsequenter ist als der von GF8 auf GF9, schliesslicht ist es ja die GeForce USA Architektur 1 und die Leistungseinschätzungen sind übersichtlicher als die alten Kürzel, die z.B. zwischen Desktop und Notebook teilweise inkonsistent in ihrer Rangordnung waren.

Im Endeffekt deutet dass wohl auch darauf hin, dass GeForce 100 @55nm wohl noch etwas länger am Markt bleibt.

Ailuros
2008-11-28, 17:58:01
Im Endeffekt deutet dass wohl auch darauf hin, dass GeForce 100 @55nm wohl noch etwas länger am Markt bleibt.

Und fuer was soll dann GT216@40nm im ersten 09' Quartal gut sein?

nagus
2008-11-28, 22:05:05
Langsam wird die "Neue Namen für uraltes Zeug" Masche von nV nur noch lächerlich...

was heißt hier langsam? es IST absolut lächerlich und eine kundenverarsche sondergleichen :mad: ich weiß ja warum ich nvidia verabscheue

Gast
2008-11-28, 22:09:30
Was bezweckt NVIDIA damit? Wollen sie so wiedereinmal damit versuchen ihre Verkaufszahlen zu pushen?

Gast
2008-11-28, 22:09:33
Offensichtlicher Scherz aber ich glaube Degustator schon auf B3D wenn er sagt dass der originale "G100" ein 384SP/384bit Dingsbums war.

Und ja die Kerle in der NV Marketing-Abteilung haben nicht alle Tassen im Schrank. Dieser unendliche Namen-Wirrwarr ist zum kotzen.

Zwar schon etwas älter (Jan. 08), aber hier sprach man in der Tat von G100 und 384 SPs bei 96 TMUs und 512 Bit-Interface. Zufall? ;)

http://www.hardware-aktuell.com/news/707/nvidias_kommender_g100_im_detail_update

Raff
2008-11-28, 22:40:01
was heißt hier langsam? es IST absolut lächerlich und eine kundenverarsche sondergleichen :mad: ich weiß ja warum ich nvidia verabscheue

Als Nutzer mit Plan kann dir das eigentlich Wurstsalat sein.

MfG,
Raff

pest
2008-11-28, 22:45:32
milk the cow :uup: bzw. da hat sich jmd. in BWL die Diagramme mit dem Produktzyklus zu oft angeschaut

Frank1974
2008-11-28, 22:56:59
was heißt hier langsam? es IST absolut lächerlich und eine kundenverarsche sondergleichen :mad: ich weiß ja warum ich nvidia verabscheue

Verabscheue:|, das geht aber jetzt ein wenig zu weit, was hat dir Nvidia persönlich getan, das du selbst so persönlich wirst, ich mag auch einige Dinge nicht sowohl bei ATI als auch Nvidia, aber so ein Tiefes Niveau wie bei dir habe ich noch nie gesehen...

mfg
Frank

Gast
2008-11-28, 23:15:17
Verabscheuungswürdig sind andere Dinge, aber dennoch sollte man schon kritisch mit deren Namenspolitik umgehen. Nicht jeder Gamer ist ein Hardwarekenner und noch viel weniger sind Nerds wie ihr hier!
Einem schlecht informierten Käufer kann man so schnell eine "neue" Grafikkarte vorgaukeln.

Raff
2008-11-28, 23:22:07
Wer sich nicht informiert, ist IMO selbst schuld. Das gilt in allen Lebenslagen. Trotzdem will ich den Dünnpfiff da oben nicht gutheißen.

MfG,
Raff

mictasm
2008-11-28, 23:24:14
Verabscheue:|, das geht aber jetzt ein wenig zu weit, was hat dir Nvidia persönlich getan, das du selbst so persönlich wirst, ich mag auch einige Dinge nicht sowohl bei ATI als auch Nvidia, aber so ein Tiefes Niveau wie bei dir habe ich noch nie gesehen...

mfg
Frank

Bist du noch nicht solange hier im Forum, dass du Nagus' Haltung gegenüber Nvidia nicht kennst? :biggrin:

Ist doch in Ordnung, wenn halbwegs eine Leistungseinstufung oder Abgrenzung über den Produktnamen erkennbar ist. Das ist doch über die Jahre gängige Praxis bei beiden Herstellern, dass man sich darüber noch aufregen kann...

mapel110
2008-11-28, 23:52:39
Naja, solange nvidia genau so viel Kohle wie für die gleiche, alte Hardware verlangt, ist das doch eigentlich egal, wie die Dinger heißen. Jemand wird genau so viel Leistung für xy € bekommen, wie vorher.

Und ja, ATI hat sowas natürlich noch nie getan und käme nie auf die Idee.... :|

Ailuros
2008-11-29, 07:09:55
Zwar schon etwas älter (Jan. 08), aber hier sprach man in der Tat von G100 und 384 SPs bei 96 TMUs und 512 Bit-Interface. Zufall? ;)

http://www.hardware-aktuell.com/news/707/nvidias_kommender_g100_im_detail_update

Nur weiss ich nicht wie man unter der ueblichen GT2x0 Logik 96 TMUs bzw. 32 ROPs an 384SPs haengen will.

***edit: uebrigens war das stornierte Ding kleiner als die heutige GT200, ergo machen auch die 1.8Mrd Transistoren keinen Sinn.

Gast
2008-11-29, 10:06:11
Was ist an 32 ROPs, 96 TMUs und 384 SPs "merkwürdig", wenn dort auch noch steht, dass es sich um ein 512-Bit-Speicherinterface handelt?

HOT
2008-11-29, 10:44:20
Und fuer was soll dann GT216@40nm im ersten 09' Quartal gut sein?
Wohl eher Q2 oder Q3 09.

Der_Korken
2008-11-29, 11:26:55
Nur weiss ich nicht wie man unter der ueblichen GT2x0 Logik 96 TMUs bzw. 32 ROPs an 384SPs haengen will.

***edit: uebrigens war das stornierte Ding kleiner als die heutige GT200, ergo machen auch die 1.8Mrd Transistoren keinen Sinn.

Wenn der ursprüngliche G100 kleiner war als der GT200, aber trotzdem deutlich mehr Funktionseinheiten hatte, warum wurde er dann storniert? Das ergibt ja irgendwie keinen Sinn, denn gerade an der Rohpower mangelt es dem GT200 doch momentan.

AnarchX
2008-11-29, 11:29:35
Wenn der ursprüngliche G100 kleiner war als der GT200, aber trotzdem deutlich mehr Funktionseinheiten hatte, warum wurde er dann storniert? Das ergibt ja irgendwie keinen Sinn, denn gerade an der Rohpower mangelt es dem GT200 doch momentan.
Weil er wohl als Tesla-Prozessor nicht so schnell gewesen wäre und auch keine FP-ALUs gehabt hätte.

Nakai
2008-11-29, 12:25:15
Weil er wohl als Tesla-Prozessor nicht so schnell gewesen wäre und auch keine FP-ALUs gehabt hätte.

GPGPUs werden eh erst ab DX11 richtig genutzt. NV hat imo hier einen Fehler gemacht. Man ist immer noch abhängig vom Spielermarkt. Diesen Markt zu vernachlässigen ist einfach nur überheblich.

mfg Nakai

LovesuckZ
2008-11-29, 13:39:03
Wo hat nVidia den Spielemarkt vernachlässigt? Im Vergleich zu AMD haben sie sogar mehr "erreicht". Viel schlimmer ist, dass weder AMD noch nVidia es geschafft haben innerhalb von zwei Jahren eine Verdopplung der Leistung zur 8800GTX herbeizuführen.
Wenn man meint, nVidia hätte den Markt vernächlässigt, dass gilt dies ebenso auch für AMD.

Black-Scorpion
2008-11-29, 13:51:55
Realität scheint nicht deine Stärke zu sein.
ATI hat DX10.1 das wegen nV nicht genutzt wird.
nV hat sich auf sein neues Lieblingsspielzeug Cuda konzentriert und dafür DX10.1 vollkommen vergessen.
Und warum sollte ATI eine Karte rausbringen die eine doppelte Leistung zur 8800GTX hat?

Tarkin
2008-11-29, 13:54:42
Wo hat nVidia den Spielemarkt vernachlässigt? Im Vergleich zu AMD haben sie sogar mehr "erreicht". Viel schlimmer ist, dass weder AMD noch nVidia es geschafft haben innerhalb von zwei Jahren eine Verdopplung der Leistung zur 8800GTX herbeizuführen.
Wenn man meint, nVidia hätte den Markt vernächlässigt, dass gilt dies ebenso auch für AMD.

von der 4870X2 hast du noch nie gehört, oder? :|

LovesuckZ
2008-11-29, 13:58:11
Wie kann nVidia schuld, dass sich etwas nicht am Markt durchsetzt? Nichtmal D3D10 hat sich annährend in der Geschwindigkeit durchgesetzt wie SM3.0. Ich will liebers mehr Leistung als irgendwie Spielchen, die nicht genutzt werden, weil Vista als Blockarde dient.
Und schön, dass AMD deiner Meinung nach keine Verdopplung der Leistung herbeiführen müsste. Aber nicht jeder hat mit einem r600 oder einem r670 gespielt. ;)

von der 4870X2 hast du noch nie gehört, oder? :|

nVidiakarten kann man seit 2004 als SLI Gespann verwenden.

Black-Scorpion
2008-11-29, 14:04:15
Du hast die Behauptung aufgestellt das ATI nichts für den Spielebereich getan hat.
ATI hat mit der HD3er/4er mehr für den Spielebereich getan wie nV mit seinem Spielzeug und dem festhalten an DX10.

Nakai
2008-11-29, 14:08:55
Wo hat nVidia den Spielemarkt vernachlässigt? Im Vergleich zu AMD haben sie sogar mehr "erreicht". Viel schlimmer ist, dass weder AMD noch nVidia es geschafft haben innerhalb von zwei Jahren eine Verdopplung der Leistung zur 8800GTX herbeizuführen.
Wenn man meint, nVidia hätte den Markt vernächlässigt, dass gilt dies ebenso auch für AMD.

Passt schon wieder...^^
Natürlich hat man was erreicht, die FP-ALUs wären keine schlechte Investition gewesen, aber der Chip ist einfach zu groß geworden. Außerdem hat man die erforderlichen Taktraten, für die Performancespitze, nicht erreicht.
Die FP-ALUs sind ja für General Processing gut geeignet, aber dennoch hat man nicht genug theoretische Rechenleistung. CUDA ist gut, aber mit DX11 wird es total überflüssig, solange man nicht mehr Momentum auf dem Markt erreicht.
NV hat den Spielermarkt vernachlässigt, indem man sich auf den GP-Bereich konzentriert hat.

Ich will liebers mehr Leistung als irgendwie Spielchen, die nicht genutzt werden, weil Vista als Blockarde dient.

Genau und der GT200 hat nie genug Leistung geliefert. IMO ist man kaum schneller als ne 9800GX2, wenn die Bandbreite und der Speicher nicht limitiert.
Der GT200 war wohl als Zugpferd für GP-Anwendungen gedacht, hat ja super geklappt...

Und schön, dass AMD deiner Meinung nach keine Verdopplung der Leistung herbeiführen müsste. Aber nicht jeder hat mit einem r600 oder einem r670 gespielt.

Lol, du siehst, wie nah man an der Performance eines GT200 rangekommen ist, mit weniger als die Hälfte der Größe und mit weniger Transistoren. Der GT200 war dank FP-ALUs einfach nur fett und unperformant.


mfg Nakai

LovesuckZ
2008-11-29, 14:14:47
Du hast die Behauptung aufgestellt das ATI nichts für den Spielebereich getan hat.

Steht dort nicht.


ATI hat mit der HD3er/4er mehr für den Spielebereich getan wie nV mit seinem Spielzeug und dem festhalten an DX10.

Wie kann man etwas für den Spielebereich getan haben, dass weder passiv (Leistung) noch aktiv (Unterstützung) für den Spieler zur Verfügung steht?

Passt schon wieder...^^
Natürlich hat man was erreicht, die FP-ALUs wären keine schlechte Investition gewesen, aber der Chip ist einfach zu groß geworden. Außerdem hat man die erforderlichen Taktraten, für die Performancespitze, nicht erreicht.
Die FP-ALUs sind ja für General Processing gut geeignet, aber dennoch hat man nicht genug theoretische Rechenleistung. CUDA ist gut, aber mit DX11 wird es total überflüssig, solange man nicht mehr Momentum auf dem Markt erreicht.
NV hat den Spielermarkt vernachlässigt, indem man sich auf den GP-Bereich konzentriert hat.

Und trotzdem ist man schneller als AMD. Anscheinend ist Geschwindigkeit das, was du als "Spielemarktrelevant" betrachtest.


Lol, du siehst, wie nah man an der Performance eines GT200 rangekommen ist, mit weniger als die Hälfte der Größe und mit weniger Transistoren. Der GT200 war dank FP-ALUs einfach nur fett und unperformant.


Für mich als Spieler ist Größe des Chips und Anzahl der Transistoren vollkommen unrelevant. Einzig die ökonomischen Entwicklungen sind vom Interesse und da kann AMD wohl kaum punkten mit ihrem Chip.

LovesuckZ
2008-11-29, 14:27:56
Bitte löschen.

Black-Scorpion
2008-11-29, 14:28:10
Deine Glaskugel kannst du mir vielleicht mal borgen?
Woher willst du wissen das die Leistung für DX10.1 nicht reicht?
Außerdem wars du einer der gerade Leistung als nicht so wichtig für den Fortschritt angesehen hat.
Aber schön zu sehen wie galant du immer wieder deine Fahne so in den Wind hältst wie es dir gerade passt.
Wo ist denn der Fortschritt beim GT200 zur GF8?

Nakai
2008-11-29, 15:02:28
Und trotzdem ist man schneller als AMD. Anscheinend ist Geschwindigkeit das, was du als "Spielemarktrelevant" betrachtest.

Tut mir echt leid, wenn ich nicht so auf hohe Qualität stehe. ;)

Bei meiner Geforce 7900GTO für 3D-Stereo stelle ich auf Performance oder sogar hohe Performance um mehr Leistung zu bekommen. 3DStereo schluckt verdammt viel an Leistung, da bin ich für jedes zusätzliche Frame sehr offen.
Bei mir kommen erst die Frames, dann die BQ, was nicht heißt, dass mir BQ unwichtig ist.

Für mich als Spieler ist Größe des Chips und Anzahl der Transistoren vollkommen unrelevant. Einzig die ökonomischen Entwicklungen sind vom Interesse und da kann AMD wohl kaum punkten mit ihrem Chip.

Aber selbst solche Grenzen sind für den Spieler von Bedeutung.
Was interessieren dich die ökonomische Entwicklungen? (ehrliche Frage)

Wo ist denn der Fortschritt beim GT200 zur GF8?

Es gab Fortschritt, das kann man nicht bestreiten. Für einen Spieler ist dieser Fortschritt leider nicht relevant. Ein stärkerer G92 in 55nm wäre imo besser von der Performance gewesen.


mfg Nakai

LovesuckZ
2008-11-29, 15:21:33
Aber selbst solche Grenzen sind für den Spieler von Bedeutung.
Was interessieren dich die ökonomische Entwicklungen? (ehrliche Frage)


Es interessiert ja nicht als Spieler, wie beide produzieren. Schlussendlich zählt daraus der Preis und die ökonomischen Ableitungen - Stromverbrauch und Kühlungsmöglichkeiten.
Und dort kann auch AMD nicht punkten.
Man kann daher nVidia nicht vorwerfen, dass nVidia den Spielemarkt vernachlässigen würde. Für mich als Spieler gibt es weder bei AMD noch nVidia irgendein Grund vor Freude zu tanzen - so wie es bei der 8800GTX war.

V2.0
2008-11-29, 15:34:11
Sinnvoll. Gerade für einige ahnlungslose Kunden ist es unmöglich eine 9800 zu einer GTX260 in Relation zu bringen. (es gab schon Leute die ne 9500 für schneller als ne 260 hielten)

Nakai
2008-11-29, 16:01:12
Man kann daher nVidia nicht vorwerfen, dass nVidia den Spielemarkt vernachlässigen würde. Für mich als Spieler gibt es weder bei AMD noch nVidia irgendein Grund vor Freude zu tanzen - so wie es bei der 8800GTX war.

Wieso lässt du die HD4870X2 unter den Tisch fallen? Es ist die schnellste Grafikkarte auf dem Markt. (Und komm nicht mit den Nachteilen, die weiß eh jeder. Die Mikroruckler interessieren weder NV noch ATI, die enzigste gute Lösung derzeit ist den Prozssor runterzutakten).
Und ja, NV hat derzeit die schnellste GPU auf dem Markt und ja, NV bietet bis aufs AA die besseren Qualitäts-Features. Aber manche Spieler wollen für wenig Geld viel Performance haben und da war ATI hier der erste der für unter 200€ eine gute Leistung anbot. Und das finde ich nicht schlecht, obwohl ich derzeit keine neue Karte kaufen werde.

Sinnvoll. Gerade für einige ahnlungslose Kunden ist es unmöglich eine 9800 zu einer GTX360 in Relation zu bringen. (es gab schon Leute die ne 9500 für schneller als ne 260 hielten)

Versteh ich nicht. Solche Namensgebungen im allgemeinen verdeutlichen in keinster Weise irgendwie die Performance. Zwischen Geforce 9800 und Geforce GTX 260 kann ich es aber noch verstehen.
Ich kenne genug DAUs die eine HD3650 schneller als eine HD2900XT sehen. Im allgemeinen sollte so eine Namensgebung entgültig entfernt werden.

Zum Beispiel sollten die Hersteller eine Namensgebung mit Bezug auf die Performance einführen.
Wie geht das?

"Name der Grafikserie" "Nummer der Serie" "Leistungsindex"

Ergo so:

Nvidia Geforce 10 5000

Der Nachfolger dann:

NVidia Geforce 11 12000



mfg Nakai

V2.0
2008-11-29, 16:53:14
Verstehen tue ich es auch nicht, aber wenn NV es so macht wie dargestellt, dann ergibt es wenigstens ein halbwegs einheitliches Schema.

PCGH_Raffael
2008-11-29, 17:14:52
Die Mikroruckler interessieren weder NV noch ATI [...]

Denkst du. ;) Wir stehen in regelmäßigem Kontakt zu Ati und Nvidia. Speziell Nvidia nimmt das Thema ernst und hat laut eigenen Aussagen viel "Mojo" in die 180er-Treibergeneration gesteckt, was wir partiell bestätigen können. Ati/AMD sieht das in der Tat "lockerer", aber das heißt nur, dass noch mehr geschrien werden muss, anstatt die nicht von der Hand zu weisenden Restriktionen immer wieder kleinzureden.

MfG,
Raff

_DrillSarge]I[
2008-11-29, 17:21:28
hab ich das jetzt richtig verstanden?
g92=gf8=gf9=gt1xx

falls dem so: fällt nv nix mehr ein, haben die keinen neuen chips in der entwicklung?

Fetza
2008-11-29, 17:25:24
I[;6942923']hab ich das jetzt richtig verstanden?
g92=gf8=gf9=gt1xx

falls dem so: fällt nv nix mehr ein, haben die keinen neuen chips in der entwicklung?

Die entwicklung kostet halt geld, vielleicht haben sie auch relativ kurzfristig umdisponiert, um auf die finanzkrise zu reagieren.

Speziell Nvidia nimmt das Thema ernst und hat laut eigenen Aussagen viel "Mojo" in die 180er-Treibergeneration gesteckt, was wir partiell bestätigen können. Ati/AMD sieht das in der Tat "lockerer", aber das

Das würde mich nun interessieren, was kann ich mir unter "partiell" vorstellen? Entweder mr ja, oder nein - was dazwischen gibts nicht.

PCGH_Raffael
2008-11-29, 17:33:55
Das würde mich nun interessieren, was kann ich mir unter "partiell" vorstellen? Entweder mr ja, oder nein - was dazwischen gibts nicht.

Das gibt's insofern, als dass bestimmte Anwendungen bis 30 Fps weitgehend smooth bleiben, während sich bei anderen nichts getan hat. So besagen unsere Benchmarks, dass Crysis und Race Driver Grid deutlich weniger mikroruckeln als früher, während UT3 in diversen Levels immer noch fiesestes Stocken zeigt (50-70 fühlen sich an wie 30-40). Von einer generellen, nicht applikationsspezifischen Lösung ist man hier wohl noch entfernt.

MfG,
Raff

LovesuckZ
2008-11-29, 17:35:52
Wieso lässt du die HD4870X2 unter den Tisch fallen? Es ist die schnellste Grafikkarte auf dem Markt. (Und komm nicht mit den Nachteilen, die weiß eh jeder. Die Mikroruckler interessieren weder NV noch ATI, die enzigste gute Lösung derzeit ist den Prozssor runterzutakten).
Und ja, NV hat derzeit die schnellste GPU auf dem Markt und ja, NV bietet bis aufs AA die besseren Qualitäts-Features. Aber manche Spieler wollen für wenig Geld viel Performance haben und da war ATI hier der erste der für unter 200€ eine gute Leistung anbot. Und das finde ich nicht schlecht, obwohl ich derzeit keine neue Karte kaufen werde.

Die 4870x2 verhält sich nunmal wie zwei Karten - alleine, dass sie auf einer Platine sitzt und nur einen Slot benötigt, macht aus ihr nicht die schnellste Single-Karte. Und nicht zu vergessen: SLI gibt es auch schon seit dem G80 und Boards haben jedenfalls auf AMD Seite auch nicht mehr die Welt gekostet. Ein Umstieg von 2x 8800GTX auf eine 4870x2 hat sogar noch weniger buzz als von einer 8800GTX auf eine 4870.
Und die seit letztem Jahr eingesetzte Deflation ist nur die Bestätigung dieses Problems. Es zeigt, dass man nicht in der Lage ist, dass Produkt so zu verbessern bzw. mit einem neuen Produkt anzukommen, dass man die hohen Preise weiterhin nehmen kann. Und diese Entwicklung wird langfristig dafür sorgen, dass der Markt noch langweiliger wird.

Geächteter
2008-11-29, 17:43:52
Die entwicklung kostet halt geld, vielleicht haben sie auch relativ kurzfristig umdisponiert, um auf die finanzkrise zu reagieren.

Wenn theoretisch neue Chiparchitekuren nicht gefertigt werden können, weil die bisherigen Ferigungsprozess zu grob sind, dann verlangsamt sich zwangsweise der Fortschritt. Die bisherigen "Fertigungsanlagen" müssen sich erstmal amortisieren, die Finanzkrise dürfte das nicht einfacher/schneller machen.
Die neue Namensgebung ist zwar verwirrend, aber wenn erstmal die alten Zöpfe abgeschnitten sind, macht sie Sinn. Außerdem gibt die neue Benennung nV viel mehr Raum bei der sinnvollen Bezeichnung zukünftiger GPUs. Da wäre man mit der bisherigen Benennung nicht weit gekommen.

Nakai
2008-11-29, 17:52:23
Denkst du. ;) Wir stehen in regelmäßigem Kontakt zu Ati und Nvidia. Speziell Nvidia nimmt das Thema ernst und hat laut eigenen Aussagen viel "Mojo" in die 180er-Treibergeneration gesteckt, was wir partiell bestätigen können. Ati/AMD sieht das in der Tat "lockerer", aber das heißt nur, dass noch mehr geschrien werden muss, anstatt die nicht von der Hand zu weisenden Restriktionen immer wieder kleinzureden.

MfG,
Raff


Interessant. Dann müssen wir wirklich lauter schreien.;)
Wie wärs mit einer Pedition die AI und MR anspricht?

Verstehen tue ich es auch nicht, aber wenn NV es so macht wie dargestellt, dann ergibt es wenigstens ein halbwegs einheitliches Schema.

Joa, es bleibt leider immer Kundenverarsche...

Die 4870x2 verhält sich nunmal wie zwei Karten - alleine, dass sie auf einer Platine sitzt und nur einen Slot benötigt, macht aus ihr nicht die schnellste Single-Karte. Und nicht zu vergessen: SLI gibt es auch schon seit dem G80 und Boards haben jedenfalls auf AMD Seite auch nicht mehr die Welt gekostet. Ein Umstieg von 2x 8800GTX auf eine 4870x2 hat sogar noch weniger buzz als von einer 8800GTX auf eine 4870.
Und die seit letztem Jahr eingesetzte Deflation ist nur die Bestätigung dieses Problems. Es zeigt, dass man nicht in der Lage ist, dass Produkt so zu verbessern bzw. mit einem neuen Produkt anzukommen, dass man die hohen Preise weiterhin nehmen kann. Und diese Entwicklung wird langfristig dafür sorgen, dass der Markt noch langweiliger wird.

Jaein, für wirkliche Performancegeile Leute wie Tombman ist SLI immer noch die bessere Methode. Die HD4870X2 gibts knapp für 400€ und passt auf fast jedem Board. Man braucht kein SLI oder CF-Board um soviel Performance zu bekommen.

Das gibt's insofern, als dass bestimmte Anwendungen bis 30 Fps weitgehend smooth bleiben, während sich bei anderen nichts getan hat. So besagen unsere Benchmarks, dass Crysis und Race Driver Grid deutlich weniger mikroruckeln als früher, während UT3 in diversen Levels immer noch fiesestes Stocken zeigt (50-70 fühlen sich an wie 30-40). Von einer generellen, nicht applikationsspezifischen Lösung ist man hier wohl noch entfernt.


Finde ich schade, wenns wirklich so ist. Mit MGPU hätte man viel Performance, nicht nur um moderen Spiele gut zu spielen, sondern auch um ältere Spiele mit den besten Qualitätsfeatures zu zocken. Wenn man nicht alle Spiele unterstützt ist es schade.
Wenigstens gibts langsam Besserung. Aber die MRs wird man wohl nie vollständig wegbekommen...


mfg Nakai

Gast
2008-11-29, 18:44:56
GPGPUs werden eh erst ab DX11 richtig genutzt. NV hat imo hier einen Fehler gemacht. Man ist immer noch abhängig vom Spielermarkt. Diesen Markt zu vernachlässigen ist einfach nur überheblich.

mfg Nakai

Bei NV ging wohl auch keiner davon aus das der RV770 gleich 100% schneller wurde als RV670, ich erinnere nur mal das Monate lange 480SP für den RV770 im Gespräch waren und man bei NV wohl ganz ruhig einfach mal abgewartet hat, gegen eine X2 mit 2x480SP hätte man locker schnell eine G200 Ultra Version nachschieben können und ich bin mir sicher das sich NV da ganz ruhig zurück gelehnt hat.

Die Gerüchte mit dem G100 finde ich aber schon etwas komisch, wenn man so einen Chip mit 384SP hat, wie so bringt man ihn den jetzt nicht auf den Markt? Die Entscheidung die wohl 2007 getroffen wurde gegen G100 und für den G200 kann ich ja nachvollziehen, jetzt wäre der G100 aber genau das richtige

Ich glaube das der G100 nach so andere Probleme hat/hatte.

reunion
2008-11-29, 18:55:20
Was bezweckt NVIDIA damit? Wollen sie so wiedereinmal damit versuchen ihre Verkaufszahlen zu pushen?

Natürlich, einen anderen Grund so etwas zu machen gibt es nicht. Und vielleicht findet man ja ein paar blöde die von einer 8800GT auf eine 9800T auf einen GTS 150 umsteigen. Als Kunde kann man das nicht gut heißen, andererseits ist es ja nichts neues das man nach Strich und Fader verarscht wird, wenn man sich nicht umfassend informiert.

Naja, solange nvidia genau so viel Kohle wie für die gleiche, alte Hardware verlangt, ist das doch eigentlich egal, wie die Dinger heißen. Jemand wird genau so viel Leistung für xy € bekommen, wie vorher.


Man lässt den Kunden aber im Glauben etwas besseres zu bekommen. Zumal sich das mit den gleichen Preisen erst zeigen muss. Bei der 9800GT dauerte es einige Zeit bis sie dasselbe kostete wie eine 8800GT.

Und ja, ATI hat sowas natürlich noch nie getan und käme nie auf die Idee.... :|

In der Form noch nicht, nein.

Nakai
2008-11-29, 18:59:07
Bei NV ging wohl auch keiner davon aus das der RV770 gleich 100% schneller wurde als RV670, ich erinnere nur mal das Monate lange 480SP für den RV770 im Gespräch waren und man bei NV wohl ganz ruhig einfach mal abgewartet hat, gegen eine X2 mit 2x480SP hätte man locker schnell eine G200 Ultra Version nachschieben können und ich bin mir sicher das sich NV da ganz ruhig zurück gelehnt hat.

Die Gerüchte mit dem G100 finde ich aber schon etwas komisch, wenn man so einen Chip mit 384SP hat, wie so bringt man ihn den jetzt nicht auf den Markt? Die Entscheidung die wohl 2007 getroffen wurde gegen G100 und für den G200 kann ich ja nachvollziehen, jetzt wäre der G100 aber genau das richtige

Ich glaube das der G100 nach so andere Probleme hat/hatte.

Würde ich nicht sagen. Es gingen auch noch Gerüchte um, dass die 480SPs mit 1050Mhz befeuert werden. Eine 100% Rechenleistungssteigerung hätte NV einrechnen müssen. Ich glaube eher, dass NV nicht die gewünschten Taktraten erreicht hatte. Da hat wohl die 65nm-Fertigung nicht geklappt, es hatte sich schon beim G92 abgezeichnet, dass man damit nicht die nötigen Taktraten bekommen würde.
Der G100 war ja schon vornherein als DX11-Part gedacht, das hab ich so in Erinnerung. Was NV geritten hat, den GT200 in dieser Form zu bringen, das würd ich gern wissn. Ail meinte, dass man den GT200 schon früher launchen hätte können. Also anstatt eine GX2 hätte man, dann den GT200 bringen können um dann sofort die 55nm-Fertigung einleiten zu können. Evtl. hätte man dadurch bis zum Spätsommer einen schneller getakteten und kleineren GT200 bringn können, welcher dann gegen HD4870X2 bessere Chancen hätte.
Und man hätte auch noch DX10.1 integrieren können, dann würde man evtl heute schon DX10.1-Features nutzen können. Bislang sind ja nicht genug Entwickler darauf aufgesprungen, da wohl der Aufwand zu groß und die Basis zu klein war.


mfg Nakai

Black-Scorpion
2008-11-29, 18:59:46
Da fällt mir ein, war es nicht so das nV vor hatte sein Produktsortiment übersichtlicher und überschaubarer zu gestalten?
Wie man jetzt sieht ist ihnen das vollkommen gelungen und sie arbeiten fleißig daran solche Aussagen in Zukunft nicht mehr ernst nehmen zu können.

reunion
2008-11-29, 19:06:18
Die 4870x2 verhält sich nunmal wie zwei Karten - alleine, dass sie auf einer Platine sitzt und nur einen Slot benötigt, macht aus ihr nicht die schnellste Single-Karte.

Was denn sonst? Es ist die schnellste erhältliche Grafikkarte, auch wenn sie sich wie zwei verhält.

Tarkin
2008-11-29, 19:20:42
Für mich als Spieler ist Größe des Chips und Anzahl der Transistoren vollkommen unrelevant. Einzig die ökonomischen Entwicklungen sind vom Interesse und da kann AMD wohl kaum punkten mit ihrem Chip.

Wie bitte? Ja klar.. der dicke fette G200 ist natürlich ökonomisch VIIEEEEEL besser als der nur halb so große RV770... :| :rolleyes:

LovesuckZ
2008-11-29, 19:21:06
Was denn sonst? Es ist die schnellste erhältliche Grafikkarte, auch wenn sie sich wie zwei verhält.

Wenn sie sich wie zwei verhalten, kann es nicht eine sein.

Wie bitte? Ja klar.. der dicke fette G200 ist natürlich ökonomisch VIIEEEEEL besser als der nur halb so große RV770... :| :rolleyes:

Ja, nagus. Man muss lesen können. Probiers es nochmal - danke.

reunion
2008-11-29, 19:22:28
Wenn sie sich wie zwei verhalten, kann es nicht eine sein.

Wie du siehst kann sie das sehr wohl. :|

Tarkin
2008-11-29, 19:32:14
Ja, nagus. Man muss lesen können. Probiers es nochmal - danke.

Ja alles klar.. du hast recht. G200 ist tatsächlich viel günstiger zu produzieren und dabei noch doppelt so schnell wie RV770. Ökonomisch ein absoluter Volltreffer für nVidia.

Weißt du, was ich noch nicht verstehe? Wie jemand so dämlich sein kann wie du.

I-C-H N-I-C-H-T N-A-G-U-S S-E-I-N !

war das klar genug?

:mad:

_DrillSarge]I[
2008-11-29, 19:42:20
die 4870x2 ist die schnellste grafikkarte.
was ist daran so schwer zu verstehen?
€: nochmal: grafikkarte != gpu
:|

Nakai
2008-11-29, 19:42:56
Okay, bitte back to Topic...;D
Also man kann sagen, dass es wirklich erbärmlich ist, wie NV ne Geforce 8800GT 2 mal umbennenen kann. Ich frage mich, wer da oben bei denen sitzt...


mfg Nakai

BTW: Ich geh mal schnell zum lachen in den Keller...ich kann nicht mehr...ich find des so geil hier...:weg::ulol5:

_DrillSarge]I[
2008-11-29, 19:45:47
die frage ist ja: was kostet eine "neue" g1xx karte dann? mann will/muss ja die lücke 9800 -> gtx260 schliessen. kostet dann eine g1xx mehr als eine 9800er ? ;D;D;D

deekey777
2008-11-29, 21:17:52
Okay, bitte back to Topic...;D
Also man kann sagen, dass es wirklich erbärmlich ist, wie NV ne Geforce 8800GT 2 mal umbennenen kann. Ich frage mich, wer da oben bei denen sitzt...


mfg Nakai

BTW: Ich geh mal schnell zum lachen in den Keller...ich kann nicht mehr...ich find des so geil hier...:weg::ulol5:

Man hat Mist gebaut und die Konkurrenz unterschätzt: Der RV670 wurde nicht nur deutlich früher als erwartet fertig, sondern er wurde auch schwächer erwartet. Der G94 war nicht fertig (er war für Anfang 2008 terminiert, der RV670 wurde auch zu dieser Zeit erwartet), der G84 war dafür zu schwach (und nicht klein genug). Also musste der G92 deutlich früher kommen (sprich nicht als 9800) und dann als Gegenpart zur HD3800, so hatten die Consumer mit der 8800GT und dann später mit der 8800GTS 512 wohl die besten PL-Grafikkarten seit Jahren, denn die HD3800er hatten weniger Leistung; für NV war diese Politik ein Desaster, denn man hatte ja noch Restbestände des G80, die keiner wollte, AMD konterte mit einem Preiskrieg, den NV immernoch nicht verdaut hat. Der nächste Kunstgriff war das Upgrade des G92 auf die eigentliche Bezeichnung 9800, die man auch teurer verkaufen konnte (aber nicht lange).

Was den GT200 angeht: Ohne Zweifel ist es ein grandiöser Grafikchip. Nur machte die Konkurrenz hier nicht mit und brachte mit dem RV770 eine Grafikkartenserie heraus, die zwar nicht mit der GTX280 mithalten kann, aber preislich deutlich mehr User ansprechen kann.

Der Fehler liegt eindeutig in Satan-Clara.

Gast
2008-11-30, 12:24:21
Man hat Mist gebaut und die Konkurrenz unterschätzt:


Vielleicht war es auch genau umgekehrt und man hat mehr von der Konkurrenz erwartet, als diese letztendlich geliefert hat, so daß man erkannte, daß man gar keinen neuen Chips braucht, um AMD Paroli zu bieten.

Ailuros
2008-11-30, 15:54:06
Darf ich bitten dass wir alle tief einatmen uns behurigen und etwas sachlicher werden?

Waehrend sich die Fanboys beider Seiten die Koepfe zerbrechen fragen sich momentan eine gute Anzahl von Profis bei allen Grafik IHVs ob sie nicht doch ein Angebot fuer Intel's LRB Abteilung annehmen sollten.

Fuer diejenigen die es nicht wissen sollten, man bekommt nicht immer nur Moneten als Bezahlung sondern auch Aktien von einer Firma. So elendlich wie diese in letzter Zeit aussehen, heisst es fuer diejenigen die nicht rechtzeitig verkauft haben dass sie ein nettes Vermoegen verloren haben.

Den Otto Normalverbraucher duerfte ja das Ganze kurzsichtig gesehen einen feuchten Dreck angehen, aber es sieht generell nicht gut aus. Wenn es mit der Finanzkrise so weitergeht ueber noch ein Jahr werden sich die ersten schwarzen Merkmale schon eventuell zeigen und was dann uebrig bleibt ist eine handvoll Fanatiker von beiden Seiten die sich grundlos die Schaedel zerbrechen als ob jeglicher von Euch selbst den geringsten persoenlichen Gewinn an dem ganzen Mist haben koennte.

So langsam koennten manche gefaelligst etwas aufwachsen. Bitte jetzt koennte Ihr wieder ausatmen.

Meine 2 cents.

Schnitzl
2008-12-02, 09:07:58
Wer sich nicht informiert, ist IMO selbst schuld. Das gilt in allen Lebenslagen. (...)

MfG,
Raff
Au Mann ich kann es echt nicht mehr hören!!!
Es ist immer leicht zu sagen wenn man sich in der Materie auskennt, aber die Realität sieht eben doch etwas anders aus.
Niemand betreibt jedesmal ne Recherche vor (irgendeinem) Kauf, dazu fehlt meistens die Zeit.
Nix für ungut.

Schlammsau
2008-12-02, 09:13:57
Au Mann ich kann es echt nicht mehr hören!!!
Es ist immer leicht zu sagen wenn man sich in der Materie auskennt, aber die Realität sieht eben doch etwas anders aus.
Niemand betreibt jedesmal ne Recherche vor (irgendeinem) Kauf, dazu fehlt meistens die Zeit.
Nix für ungut.

Mich hat vor kurzem erst einer gefragt ob die 9800GT schneller als die 8800GT ist. Mehr brauch ich nicht dazu sagen.

MadManniMan
2008-12-02, 09:15:08
Was bezweckt NVIDIA damit? Wollen sie so wiedereinmal damit versuchen ihre Verkaufszahlen zu pushen?

Was sonst? Wozu sind Namen schon gut? Den Inhalt ändern sie nicht.

Dumm für den DAU das Ganze, den informierten 3DCenterler wirds weniger interessieren.

Schnitzl
2008-12-02, 09:19:40
Mich hat vor kurzem erst einer gefragt ob die 9800GT schneller als die 8800GT ist. Mehr brauch ich nicht dazu sagen.
lol - wie bist du fies! Fast wär grad der ganze Kaffee aufm Monitor gelandet... :up:

V2.0
2008-12-02, 09:20:39
Was sonst? Wozu sind Namen schon gut? Den Inhalt ändern sie nicht.

Dumm für den DAU das Ganze, den informierten 3DCenterler wirds weniger interessieren.

Da mag ich widersprechen. Die Einführung eines in sich sinnigen Namensschemas dient dem Kunden, auch wenn alte Chips erneut umbenannt werden.

Ich habe schon erlebt, dass Leute ne 8800GT gegen ne 9800GT tauschen wollten, ich habe Leute ne 9500GT kaufen sehen wollen, weil die schneller als ne 8800GT sein muss oder ich habe auch schon gesehen wie jemand ne 9800GTX OC einer GTX260 vorziehen wollte.

Aber es gab auch schon Leute die ne 3870 gegen ne 4550 tauschen wollten.

Schlammsau
2008-12-02, 09:26:51
Es ist ein zweischneidiges Schwert.....zum einen bringt es mehr Übersicht, zum anderen gaukelt es eine neue Grafikkartengeneration vor. Beides interessiert uns gut informierten User reichlich wenig, aber der normale Zocker mit wenig Hintergrundwissen, wird so leicht übers Ohr gehauen.
Es sind mit Sicherheit nicht alle so, aber um die Verkäufe zu ein wenig pushen dürfte es ausreichen!


lol - wie bist du fies! Fast wär grad der ganze Kaffee aufm Monitor gelandet... :up:
Ich bin nicht fies! :smile: :cool:

MadManniMan
2008-12-02, 09:39:00
Da mag ich widersprechen. Die Einführung eines in sich sinnigen Namensschemas dient dem Kunden, auch wenn alte Chips erneut umbenannt werden.

Aye, da hast Du Recht - aber auch schon Schlammsaus Antwort darauf stimmt ebenso: ob es jetzt in sich konsitenter ist, oder nicht, es wird erstmal etwas "Neues" gebracht.
Und was neu ist, ist für den DAU besser :(

Gast
2008-12-02, 10:38:05
Passt doch. Mit diesem GT533 und GTX 234
kann niemadn etwas anfangen und mit E5200 vs Pentium 748 auch nicht.
AMDs Schema hat zwar schon den Ansatz (Phenom X3 9550e),
aber es kommt noch nicht ganz hin.
Ich bin dafuer Produktnamen aus dem Marketing zu verwenden, welche ueberhaupt keinen Reuckschluss zum Produt zulassen.
Als Beispiel ist dann ein Core2 Duo 2,6Ghz = "Aquamarinblau"
und eine GTX 260 sollte eventuell "Omlett" benannt sein.
;)

pest
2008-12-02, 11:38:45
schön das NV jetzt den wahren Wert meiner 8800GT erkennt

GTX 170 :naughty:

Gast
2008-12-02, 11:40:24
Schätze die G92 laufen in 5 Jahren noch - unter dann dem 7. Namen :D

Gast
2008-12-02, 12:05:34
Also ich finde den neuen Namen unter G1xx ganz OK, so hätte man es von Anfang an machen sollen und entlich sieht man auch das die 9800 unter den G200 einzustuffen ist.

Crow1985
2008-12-07, 22:56:45
Vielleicht war es auch genau umgekehrt und man hat mehr von der Konkurrenz erwartet, als diese letztendlich geliefert hat, so daß man erkannte, daß man gar keinen neuen Chips braucht, um AMD Paroli zu bieten.

Nvidia: "Wir haben AMD unterschätzt"
Konnte man vor nem Viertel Jahr in etlichen News lesen.

Unyu
2008-12-07, 23:43:49
Mich hat vor kurzem erst einer gefragt ob die 9800GT schneller als die 8800GT ist. Mehr brauch ich nicht dazu sagen.
Mich hat vor kurzem einer gefragt ob eine 3650 doppelt so schnell wie eine 2600 XT ist.
Leider musste ich ihn entäuschen, sie ist langsamer.

Schlammsau
2008-12-08, 06:54:05
Mich hat vor kurzem einer gefragt ob eine 3650 doppelt so schnell wie eine 2600 XT ist.
Leider musste ich ihn entäuschen, sie ist langsamer.

Und genau das glaube ich gerade dir nicht! ;)

Unyu
2008-12-08, 12:41:32
Wenigstens weißt du jetzt, das das in dem Bereich üblich ist. ;)

Schlammsau
2008-12-08, 13:51:17
Wenigstens weißt du jetzt, das das in dem Bereich üblich ist. ;)

Was soll üblich sein? Dass die gleiche Grafikkarte, schon ihren 3. Namen bekommt?

Unyu
2008-12-08, 13:54:59
Ihren Zweiten, es geht um G92b bestückte Karten. ;)

Gast
2008-12-08, 15:18:10
Beides interessiert uns gut informierten User reichlich wenig, aber der normale Zocker mit wenig Hintergrundwissen, wird so leicht übers Ohr gehauen.Es gibt nur sehr wenige Zocker die sich vor dem Kauf nicht informieren.

Außer der 9800GTX+ gibt es momentan sowieso keine vernünftige Karte auf dem Markt. 4870 hat einen schönen Preis/Leistung, aber frißt im Vergleich Strom wie die Sau. In Idle, in 2D wie auch erst recht in 3D. Und das bedeutet nicht nur Geld auf der Stromrechnung, sondern vor allem Aufwand bei der Kühlung, falls es nicht laut sein sollte.

Gast
2008-12-08, 15:24:34
Außer der 9800GTX+ gibt es momentan sowieso keine vernünftige Karte auf dem Markt.Vernünftig in ihrer Gesamtheit. 260 und 280 sind diesbezüglich ein schlechter Scherz. Es sei denn man zockt mindestens 5h täglich und hat sonst nichts im Leben. Womit man eher ein Fall für eine psychologische Betreuung wäre und sich deswegen irgendwelche Urteile darüber kaum erlauben dürfte.

Oder man hat eine extra Zockerkiste und 5.1 Kopfhörer dazu. Dann paßt es.

Unyu
2008-12-08, 15:37:01
4870 hat einen schönen Preis/Leistung
Im Vergleich zur 4850 512 ist die Preis/Leistung der 4870 512 ein schlechter Scherz.

Gast
2008-12-08, 15:42:53
Im Vergleich zur 4850 512 ist die Preis/Leistung der 4870 512 ein schlechter Scherz.Hatu net aufgepasst?
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/dezember/ati_radeon_hd_4870_preis/

Unyu
2008-12-08, 16:07:35
Hatu net aufgepasst?
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/dezember/ati_radeon_hd_4870_preis/
Ich kann nicht dafür, wenn du die Zeitformen durcheinander würfelst.

4870 512, 190€: http://geizhals.at/deutschland/?cat=gra16_512;asuch=4870;v=e&sort=p
4850 512, 129€: http://geizhals.at/deutschland/?cat=gra16_512;asuch=4850;v=e&sort=p

Gast
2008-12-10, 00:03:14
Ich kann nicht dafür, wenn du die Zeitformen durcheinander würfelst.

4870 512, 190€: http://geizhals.at/deutschland/?cat=gra16_512;asuch=4870;v=e&sort=p
4850 512, 129€: http://geizhals.at/deutschland/?cat=gra16_512;asuch=4850;v=e&sort=pDas wird sich auf 170€ einregeln und dann paßt es.

AnarchX
2008-12-29, 13:02:21
GeForce 100 war wohl den Marketing-Leuten nicht ausreichend:
Nvidia is going to rebrand their GeForce 9 series and it will be known as GTS 240 and GTS 250. 65nm and 55nm versions will be selling together in the market.

Nvidia is planning to carry out its rebranding exercise in February 2009.
http://forums.vr-zone.com/showthread.php?p=6230400#post6230400

X-D

KonKorT
2008-12-29, 13:54:33
Ich frag mich, wo dann GT214, GT216 und GT218 einzuordnen sind. Nvidia wird doch die GT212 hoffentlich nicht als GTX 380 in den Handel schicken? :|

Sorkalm
2008-12-29, 14:34:19
Hmm. Deutet aber darauf hin, dass dann immer noch nicht ein Nachfolger dieser Produkte da ist, sonst würde man wohl nicht nochmal mit Umbenennungen anfangen...

Black-Scorpion
2008-12-29, 15:03:25
Die haben echt nicht mehr alle Latten am Zaun wenn die das wirklich durchziehen.
Wie oft wollen die die Kunden noch verarschen?
Wenn die so weitermachen gibt es die Karten 2020 als GT 5123 noch.

mike49
2009-01-01, 14:56:42
Mittlerweile sind übrigens die ersten umbenannten Karten im Handel als OEM-Ware aufgetaucht:

http://www.mediamarkt.de/multimedia-prospekt/ (Seite 3)

Interessanterweise ist auch ein 'GT 130' mit 1536MB dabei...

AnarchX
2009-01-01, 15:59:16
Damit wäre wohl die G92 GeForce 200 bestätigt:
NVIDIA_DEV.0611.01 = "NVIDIA GeForce 8800 GT "
NVIDIA_DEV.0612.01 = "NVIDIA GeForce 9800 GTX/9800 GTX+"
NVIDIA_DEV.0613.01 = "NVIDIA GeForce 9800 GTX+"
NVIDIA_DEV.0614.01 = "NVIDIA GeForce 9800 GT "
NVIDIA_DEV.0615.01 = "NVIDIA GeForce GTS 250"
NVIDIA_DEV.0616.01 = "NVIDIA G92 "
NVIDIA_DEV.0617.01 = "NVIDIA GeForce 9800M GTX"
http://www.xfastest.com/viewthread.php?tid=17608&extra=page%3D1
... einige GeForce 100 kennt er aber auch.

_DrillSarge]I[
2009-01-01, 16:15:59
Damit wäre wohl die G92 GeForce 200 bestätigt:

http://www.xfastest.com/viewthread.php?tid=17608&extra=page%3D1
... einige GeForce 100 kennt er aber auch.
neee...oder?
sehr traurig :(

Die gelbe Eule
2009-01-02, 20:24:19
Mittlerweile sind übrigens die ersten umbenannten Karten im Handel als OEM-Ware aufgetaucht:

http://www.mediamarkt.de/multimedia-prospekt/ (Seite 3)

Interessanterweise ist auch ein 'GT 130' mit 1536MB dabei...

768MB vorne und hinten. Aber das kann ja nur eine 9600GT sein in der Kante, schneller verbauen die kaum in Komplettrechner. Ist GDDR3 wohl saubillig geworden.

Sorkalm
2009-01-02, 22:02:53
768MB vorne und hinten. Aber das kann ja nur eine 9600GT sein in der Kante, schneller verbauen die kaum in Komplettrechner. Ist GDDR3 wohl saubillig geworden.

Vmtl. 9600 GSO mit nochmal doppelten Speicher.

AnarchX
2009-01-02, 23:12:53
Laut VR-Zone(#1) basiert die GT 130 auf dem G94, also wohl 48-64SPs und 192-Bit.

Aber mit 1.5GiB natürlich ein Daufänger ohne gleichen, es würde mich nicht verwunden, wenn es DDR2 ist.

Captain Future
2009-01-03, 00:06:19
Lol, du siehst, wie nah man an der Performance eines GT200 rangekommen ist, mit weniger als die Hälfte der Größe und mit weniger Transistoren. Der GT200 war dank FP-ALUs einfach nur fett und unperformant.
mfg Nakai

...und mit weniger Textursamples pro Pixel. Flimmer-AF ahoi.

reunion
2009-01-03, 13:32:45
Mittlerweile sind übrigens die ersten umbenannten Karten im Handel als OEM-Ware aufgetaucht:

http://www.mediamarkt.de/multimedia-prospekt/ (Seite 3)

Interessanterweise ist auch ein 'GT 130' mit 1536MB dabei...


Ja, Daufang Deluxe:

http://img261.imageshack.us/img261/1227/1230964745b87f87eb60589za0.jpg (http://imageshack.us)

Da gehört schon einiges an Dreistigkeit dazu so etwas dann auch noch als Weltneuheit anzupreisen.

AnarchX
2009-01-03, 13:36:30
Eine Weltneuheit ist es ja. Oder hast du schon eine Endkunden-GraKa mit 1.5GiB VRAM gesehen?
Im nächsten MM-Gamer-PC ist dann bestimmt das 3GiB GT 130 SLI.
;D

][immy
2009-01-03, 13:42:05
Ja, Daufang Deluxe:

http://img261.imageshack.us/img261/1227/1230964745b87f87eb60589za0.jpg (http://imageshack.us)

Da gehört schon einiges an Dreistigkeit dazu so etwas dann auch noch als Weltneuheit anzupreisen.

naja, der name ist neu :)
steht da zufällig auch mit wie viel arbeitsspeicher und welchem betriebssystem der pc ausgerüstet ist? (vermutlich auch noch vista 32)

ich frage mich eher warum nvidia das macht. nicht das die letzten umlabelungsaktionen nicht schon für genug verwirrung gesorgt hätten, jetzt auch noch sowas. ich war eigentlich immer der meinung das die geforce 8/9er an sich schon immer einen guten ruf im handel bessen haben.

hat vermutlich aber nur etwas damit zu tun das mit mit den aktuellen ati-produkten die ja deutlich neuer sind konkurieren will, obwohl sie leistungsmäßig noch gut mithalten können.

GeneralHanno
2009-01-03, 13:46:21
hey, sehr doch mal das positive an der GT130 1,5BiB: endlich die perfekte GTA4 karte ;D

reunion
2009-01-03, 13:47:31
[immy;7014690']naja, der name ist neu :)
steht da zufällig auch mit wie viel arbeitsspeicher und welchem betriebssystem der pc ausgerüstet ist? (vermutlich auch noch vista 32)


Ja, es sind "Gigantische 6144MB RAM", "Gigantische 2000 GB Festplattenkapazität", aber immerhin Vista x64 Home Premium.

mike49
2009-01-03, 13:58:10
Ja, es sind "Gigantische 6144MB RAM", "Gigantische 2000 GB Festplattenkapazität", aber immerhin Vista x64 Home Premium.
Jo, an sich gar nicht so schlecht das Angebot. Bis auf die Grafikkarte... :D

Fusion_Power
2009-01-03, 23:22:19
Mittlerweile sind übrigens die ersten umbenannten Karten im Handel als OEM-Ware aufgetaucht:

http://www.mediamarkt.de/multimedia-prospekt/ (Seite 3)

Interessanterweise ist auch ein 'GT 130' mit 1536MB dabei...

Als mir neulich dieser Media Markt Prospekt ins Haus flatterte, mußte ich schon 2x hinguggen. Diese "neuen" GT100 oder GT130 Karten waren mir bis dato total unbekannt. ^^ Zum Glück hilft das Internet und dieses Forum hier weiter.

Eggcake
2009-01-04, 00:15:35
Ich finds nun wirklich auch langsam eine Frechheit.
Ich meine - aus rein wirtschaftlicher Sicht natürlich sehr gut. Lässt sich auch gut an OEM-Verkäufer andrehen, da diese selbst auch wissen, dass sich das Zeug wohl gut verkaufen lässt unter dem neuen Namen.

Ich hatte ja eigentlich nie was gegen NV, aber langsam kriegen sie bei mir einen fetten Sympathiemalus...

Gast
2009-01-04, 09:41:43
Ich finds nun wirklich auch langsam eine Frechheit.
Ich meine - aus rein wirtschaftlicher Sicht natürlich sehr gut. Lässt sich auch gut an OEM-Verkäufer andrehen, da diese selbst auch wissen, dass sich das Zeug wohl gut verkaufen lässt unter dem neuen Namen.

Ich hatte ja eigentlich nie was gegen NV, aber langsam kriegen sie bei mir einen fetten Sympathiemalus...


Bist du mal auf die Idee gekommen, daß OEMs so etwas haben wollen und es nur deshalb diese Karten gibt?
Immer dieses dämliche Nvidia-Gebashe...

Eggcake
2009-01-04, 11:13:23
Bist du mal auf die Idee gekommen, daß OEMs so etwas haben wollen und es nur deshalb diese Karten gibt?
Immer dieses dämliche Nvidia-Gebashe...

So what? Ich sag ja aus rein wirtschaftlicher Sicht ists toll :|
Wenn du mit Kritik an nVidia nicht klarkommst, ist das leider dein Problem :(

reunion
2009-01-04, 11:19:15
Bist du mal auf die Idee gekommen, daß OEMs so etwas haben wollen und es nur deshalb diese Karten gibt?
Immer dieses dämliche Nvidia-Gebashe...

So eine blöde Ausrede, sorry. Den OEMs ist es scheiß egal welche Karte da drin steckt, solange die Verkäufe stimmen. Wenn sich die alten nV-Karten nicht mehr gut verkaufen kommt eben ein Konkurrenzprodukt hinein. Einzig nV liegt etwas daran die Karten umzubenennen um so die Verkäufe ihrer Karten anzukurbeln.

Schlammsau
2009-01-04, 11:23:42
Ja, Daufang Deluxe:

http://img261.imageshack.us/img261/1227/1230964745b87f87eb60589za0.jpg (http://imageshack.us)

Da gehört schon einiges an Dreistigkeit dazu so etwas dann auch noch als Weltneuheit anzupreisen.

Und jetzt ist genau das eingetreten, was ich befürchtet habe. Bravo nVidia, habt ihr gut gemacht. :uclap:

Gast
2009-01-04, 11:29:47
So what? Ich sag ja aus rein wirtschaftlicher Sicht ists toll :|
Wenn du mit Kritik an nVidia nicht klarkommst, ist das leider dein Problem :(

Mit berechtigter Kritik habe ich überhaupt kein Problem, nur mit sinnlosem Gebashe.

Eggcake
2009-01-04, 11:42:18
Mit berechtigter Kritik habe ich überhaupt kein Problem, nur mit sinnlosem Gebashe.

Du findest die Kritik also nicht berechtigt? Und das alles hier ist nur Gebashe? Sorry, aber dann solltest vielleicht du selbst mal überlegen ob du nicht eine Brille ohne Farbe auflegen willst...

mike49
2009-01-04, 12:25:41
Du findest die Kritik also nicht berechtigt? Und das alles hier ist nur Gebashe? Sorry, aber dann solltest vielleicht du selbst mal überlegen ob du nicht eine Brille ohne Farbe auflegen willst...

Da die neuen Bezeichnungen lediglich exclusiv für OEMs genutzt werden sollen hat der Gast schon nicht ganz Unrecht.

Für den Käufer einer Grafikkarte im Retail-Markt ändert sich ja nichts...

reunion
2009-01-04, 12:40:02
Da die neuen Bezeichnungen lediglich exclusiv für OEMs genutzt werden sollen hat der Gast schon nicht ganz Unrecht.

Für den Käufer einer Grafikkarte im Retail-Markt ändert sich ja nichts...

Na dann warte mal ab. Natürlich kommen die neuen Karten auch in den Retail-Markt.

_DrillSarge]I[
2009-01-04, 12:50:10
Na dann warte mal ab. Natürlich kommen die neuen Karten auch in den Retail-Markt.
ja, am besten noch von asus als so eine "magic-edition" :ugly:

Spasstiger
2009-01-04, 12:56:22
hey, sehr doch mal das positive an der GT130 1,5BiB: endlich die perfekte GTA4 karte ;D
Von der Rechenleistung her reicht die sogar für GTA 4 ganz gut aus solange man keine extremen Auflösungen fahren möchte. 1280x720 sollte flüssig gehen (flüssiger als auf den Konsolen ;)).
Auf dem PC dürfte GTA 4 mit hohen Details deutlich besser laufen als bei mir dank Quadcore, genug VRAM und halbwegs Rechenleistung.

Eine G92-Grafikkarte mit mehr als 512 MiB VRAM, 6 GiB Arbeitsspeicher, ein 64-Bit-OS und ein Quadcore @ 2,5 sind in einem Media-Markt-PC für 800€ jedenfalls nicht selbstverständlich. Es gibt definitiv unausgewogenere und schlechter ausgestattete PCs in der Preisklasse.

mike49
2009-01-04, 12:56:27
Na dann warte mal ab. Natürlich kommen die neuen Karten auch in den Retail-Markt.

Aha...

Das Unternehmen äußerte sich dazu jedoch bisher nicht. Eine kurze Stellungnahme zwischen den Feiertagen von Nvidia Deutschland gegenüber Golem.de ergab jedoch, dass die neuen Namen nur für OEM-Lösungen in Komplettrechnern gelten sollen, nicht für die einzeln vertriebenen Grafikkarten.


http://www.golem.de/0901/64358.html

reunion
2009-01-04, 13:00:06
Das kenne ich. Aber wie schon gesagt: Abwarten. Soetwas wurde schon öfter behauptet und noch jedes mal kamen die Karten auch in den Retail-Handel.

mike49
2009-01-04, 13:19:32
Das kenne ich. Aber wie schon gesagt: Abwarten. Soetwas wurde schon öfter behauptet und noch jedes mal kamen die Karten auch in den Retail-Handel.

Hast Recht, bisher sind die immer irgendwie durchgesickert.

Mal abgesehen davon, daß ich diese (namensmässige) Trennung OEM - Retail eh für schwachsinnig halte könnte ich mir aber vorstellen, daß das dieses Mal eingehalten wird.

Sonst blickt ja echt kein normaler Mensch mehr durch, wenn selbst hier schon die Leute ins Schleudern kommen...

Black-Scorpion
2009-01-04, 14:20:03
Nur gut das nV 2008 selbst gesagt hat das sie die Modellpalette klarer und deutlicher gestalten wollen.
Soviel zu den Aussagen und was man davon halten kann.
Aber wahrscheinlich haben das alle nur völlig falsch verstanden.
Es war so gemeint das man es so gestalten will das keine Sau mehr durchblickt und man die Leute noch ein drittes mal nach Strich und Faden mit umbenannten Karten abzocken kann.

Botcruscher
2009-01-04, 14:32:20
Zitat von Golem.de
Das Unternehmen äußerte sich dazu jedoch bisher nicht. Eine kurze Stellungnahme zwischen den Feiertagen von Nvidia Deutschland gegenüber Golem.de ergab jedoch, dass die neuen Namen nur für OEM-Lösungen in Komplettrechnern gelten sollen, nicht für die einzeln vertriebenen Grafikkarten.

So what? Die Käufer von OEM Angeboten werden nicht verarscht oder wie? Und wie lange es dauert bis sich die Karten im Retail wiederfinden ist ja hinreichend bekannt.
Ich seh schon den ersten welcher stolz mit seiner 1536MB Karte angiebt und mit verschobennen Gesicht wieder abzieht.

nagus
2009-01-04, 15:23:46
Als Nutzer mit Plan kann dir das eigentlich Wurstsalat sein.

MfG,
Raff

mir persönlich ist es egal, aber ich finde solche praktiken äußerst unseriös.... milde ausgedrückt.

LovesuckZ
2009-01-04, 15:48:05
Wie kann das unseriös sein, wenn die Eigenschaften der Karte auf der Verpackung abgedruckt sind? :rolleyes:

Nakai
2009-01-04, 15:57:22
Wie kann das unseriös sein, wenn die Eigenschaften der Karte auf der Verpackung abgedruckt sind?

Seit wann schaut ein Ottonormalverbraucher auf die Verpackung um Informationen zu bekommen, wenn er diese sowieso nicht versteht?;)


mfg Nakai

AnarchX
2009-01-04, 16:07:28
Wer bei einer solchen Investition nicht in der Lage ist mal kurz im Internet zu recherchieren und herauszufinden was eigentlich hinter GF100 steckt, ist doch imo selbst Schuld.

Im Endeffekt sollte man aber bedenken, dass es der Kundenteil ist, welcher den Preiskampf in High-End und Performance quersubventioniert, von dem wir profitieren. ;) :D

Nur gut das nV 2008 selbst gesagt hat das sie die Modellpalette klarer und deutlicher gestalten wollen.

Das tun sie doch nun auch hier, die alten Karten werden auf das neue "Kürzel + Zahl"-Schema angepasst.
Damit wird die Einordnung zwischen GeForce 100 und 200 entscheident vereinfacht.

reunion
2009-01-04, 16:07:59
Wie kann das unseriös sein, wenn die Eigenschaften der Karte auf der Verpackung abgedruckt sind? :rolleyes:

Wie würdest du es denn sonst nennen, wen man ein und dasselbe Produkt mittlerweile schon unter drei Namen verkauft?

8800GT -> 9800GT -> GT150
8800GS -> 9600GSO -> GT130

Es gab ja in dieser Hinsicht schon in der Vergangenheit immer wieder Verfehlungen von beiden Herstellern, aber bei NV nimmt das in letzte Zeit wahrlich überhand. Da werden gleiche Karte mehrmals umbenannt, da werden unterschiedliche Karte mehrmals unter gleichen Namen verkauft.

8800GTS (G80) -> 8800GTS (G92)
GTX 260 192 SPs -> GTX260 216 SPs
9600GSO 96SPs -> 9600GSO 48SPs

Unseriös ist da noch eine sehr harmlose Feststellung, in meinen Augen ist das eine bewusste Kundentäuschung, wodurch man sich offensichtlich höhere Verkaufszahlen erhofft. Natürlich ist man selbst Schuld wenn man sich nicht informiert, doch ist es ja nichts neues dass dies bei weitem nicht alle tun, sonst würde NV nicht auf solche Praktiken zurückgreifen. Wer sich mit Grafikkarten nicht genauestens beschäftigt kann hier schnell in die Falle tappen.

Gast
2009-01-04, 16:13:06
Du findest die Kritik also nicht berechtigt? Und das alles hier ist nur Gebashe?

Richtig, denn ein OEM kann seine Karten nennen wie er will, das hat mit Nvidia nichts zu tun. Zeig mir doch mal wo Nvidia auf ihrer Hompage eine GT120 oder GT130 gelistet haben.

reunion
2009-01-04, 16:17:29
Richtig, denn ein OEM kann seine Karten nennen wie er will, das hat mit Nvidia nichts zu tun. Zeig mir doch mal wo Nvidia auf ihrer Hompage eine GT120 oder GT130 gelistet haben.

Spar dir den Kindergarten, die Namen sind schon lange im NV-Treiber vorhanden und werden wohl auch bald auf der Homepage aufscheinen.

AnarchX
2009-01-04, 16:20:51
Richtig, denn ein OEM kann seine Karten nennen wie er will, das hat mit Nvidia nichts zu tun. Zeig mir doch mal wo Nvidia auf ihrer Hompage eine GT120 oder GT130 gelistet haben.
Ja, bei Fertig-PCs war es durchaus schon immer schwierig die Leistung der GraKas einzuschätzen, sei es bei ALDI wo man sich originelle Namen wie 9800XL oder XXL ausgedacht hat oder das hier einfach langsamerer Speicher in Mengen verbaut wurde.

Spar dir den Kindergarten, die Namen sind schon lange im NV-Treiber vorhanden und werden wohl auch bald auf der Homepage aufscheinen.
Nicht unbedingt, die 9600GS die in OEM-PCs verbaut wurde, tauchte auch nie bei NV auf.


Wer sich mit Grafikkarten nicht genauestes beschäftigt kann hier schnell in die Falle tappen.
Wer 800€ ausgeben will, für den wird es doch nicht zuviel verlangt sein mal z.B. "GT 130" bei Google einzugeben wo er in Sekunden über die ach so gemeinen Geschäftstaktiken von NV aufgeklärt wird.;)

reunion
2009-01-04, 16:28:47
Wer 800€ ausgeben will, für den wird es doch nicht zuviel verlangt sein mal z.B. "GT 130" bei Google einzugeben wo er in Sekunden über die ach so gemeinen Geschäftstaktiken von NV aufgeklärt wird.;)

Das ist aber absolut unrealistisch. Wer rechnet denn mit so etwas, wenn er keine Ahnung hat? Der typische Media-Markt-Käufer braucht einen neuen PC, weil der alte schon total zugemüllt und/oder Viren verseucht ist. Geht dann in besagtes Geschäft, lässt sich von einem Media-Markt-Mitarbeiter beraten, welcher ihm natürlich diese Weltneuheit entsprechend Schmackhaft macht und kauft stolz seinen neuen Mega-PC mit 1.5GB VRAM, 6GB RAM und 2000GB HDD-Kapazität. Zumal das auch schon die einzige Möglichkeit ist das heraus zu finden, NV schweigt sich ja darüber bis dato bewusst aus.

Black-Scorpion
2009-01-04, 16:35:47
Das tun sie doch nun auch hier, die alten Karten werden auf das neue "Kürzel + Zahl"-Schema angepasst.
Damit wird die Einordnung zwischen GeForce 100 und 200 entscheident vereinfacht.
Ist das dein ernst?
Was hier gemacht wird hilft nur einem und ist ganz bewusst nicht zum Vorteil sondern Nachteil der Käufer.
Hier wird zum dritten mal alter Wein mit neuem Namen verkauft.
Vielleicht haben sie ja noch ein Paar alte TNT im Schrank die auch demnächst wieder als GT irgendwas erscheinen.
Wie man das auch noch verteidigen kann ist mir ein Rätsel.

Spasstiger
2009-01-04, 16:43:29
Wenn, dann sollte man die Bezeichnungen der GeForce-9-Serie kritisieren. Das neue Schema wurde ja angekündigt und sorgt auch für Einheitlichkeit. In Zukunft werden bei NV alle Karten dem neuen Schema folgen.

Hier wird zum dritten mal alter Wein mit neuem Namen verkauft.
Was soll NV denn machen? Sollen sie für die Mainstream-Karten nun komplett neue Chips einführen, die aber dennoch die gleiche Performance wie die alten Chips aufweisen? Die GT2xx-Mainstream-Chips kommen ja auch noch im den nächsten Monaten, aber mit denen wird man auch nur auf G96- bis G92-Niveau kommen.

AnarchX
2009-01-04, 16:50:13
Das ist aber absolut unrealistisch. Wer rechnet denn mit so etwas, wenn er keine Ahnung hat? Der typische Media-Markt-Käufer braucht einen neuen PC, weil der alte schon total zugemüllt und/oder Viren verseucht ist. Geht dann in besagtes Geschäft, lässt sich von einem Media-Markt-Mitarbeiter beraten, welcher ihm natürlich diese Weltneuheit entsprechend Schmackhaft macht und kauft stolz seinen neuen Mega-PC mit 1.5GB VRAM, 6GB RAM und 2000GB HDD-Kapazität. Zumal das auch schon die einzige Möglichkeit ist das heraus zu finden, NV schweigt sich ja darüber bis dato bewusst aus.
Und wie sollte die Informierung von NV aussehen? Ob nun 9600GS oder GT 130 oder GeForce SUPER dürfte bei dem von dir genannten Fall wohl auch keine Rolle spielen.
Wohlmöglich kommt es noch dazu, wenn man diesen eine schnellere 512MiB Karte vorschlägt, dass er trotzdem auf die 1.5GiB Karte besteht. :D

Ist das dein ernst?
Was hier gemacht wird hilft nur einem und ist ganz bewusst nicht zum Vorteil sondern Nachteil der Käufer.
Hier wird zum dritten mal alter Wein mit neuem Namen verkauft.

Einen 192-Bit G94 gab es bisher nur als 9600GS, OEM-exklusiv.
Und mit der wohl neuen 55nm GPU und den bisher noch nicht dagewesenen 1.5GiB VRAM sind doch durchaus ein paar Neuerungen hinzugekommen, die eine neue Bezeichnung rechtfertigen, die wiederrum eine bessere Orientierung anhand der neuesten NV-Produkte ermöglicht.

Was fällt wohl leicher einzuordnen:
9600GS und GTX 260 (die es durchaus auch schon bei MM gab)
oder
GT 130 und GTX 260
?

reunion
2009-01-04, 16:50:28
Wenn, dann sollte man die Bezeichnungen der GeForce-9-Serie kritisieren. Das neue Schema wurde ja angekündigt und sorgt auch für Einheitlichkeit. In Zukunft werden bei NV alle Karten dem neuen Schema folgen.


Man könnte es auch mal mit neuen Chips/Karten versuchen um ein neues Namensschema einzuführen.

Was soll NV denn machen? Sollen sie für die Mainstream-Karten nun komplett neue Chips einführen, die aber dennoch die gleiche Performance wie die alten Chips aufweisen? Die GT2xx-Mainstream-Chips kommen ja auch noch im den nächsten Monaten, aber mit denen wird man auch nur auf G96- bis G92-Niveau kommen.

Ja, das wäre dann eine passende Gelegenheit um das neue Namensschema einzuführen. Die jetzige Aktion ist rein darauf ausgelegt noch ein paar dumme zu erwischen und damit womöglich die Lager zu leeren.

LovesuckZ
2009-01-04, 16:51:53
Wie würdest du es denn sonst nennen, wen man ein und dasselbe Produkt mittlerweile schon unter drei Namen verkauft?

8800GT -> 9800GT -> GT150
8800GS -> 9600GSO -> GT130

Es gab ja in dieser Hinsicht schon in der Vergangenheit immer wieder Verfehlungen von beiden Herstellern, aber bei NV nimmt das in letzte Zeit wahrlich überhand. Da werden gleiche Karte mehrmals umbenannt, da werden unterschiedliche Karte mehrmals unter gleichen Namen verkauft.

8800GTS (G80) -> 8800GTS (G92)
GTX 260 192 SPs -> GTX260 216 SPs
9600GSO 96SPs -> 9600GSO 48SPs

Unseriös ist da noch eine sehr harmlose Feststellung, in meinen Augen ist das eine bewusste Kundentäuschung, wodurch man sich offensichtlich höhere Verkaufszahlen erhofft. Natürlich ist man selbst Schuld wenn man sich nicht informiert, doch ist es ja nichts neues dass dies bei weitem nicht alle tun, sonst würde NV nicht auf solche Praktiken zurückgreifen. Wer sich mit Grafikkarten nicht genauestens beschäftigt kann hier schnell in die Falle tappen.

Und? Namen sind Schall und Rauch. Sie sagen nichts aus. Woher soll jemand den Unterschied zwischen einer 9800GTX und GTX280 kennen? Wieso sollte zweite besser sein als die erste? Durch das neue Namenschema ist eben ein Problem entstanden, dass eine Vergleichbarkeit anhand des Namens kaum möglich ist.
Es ist komplett egal wie ein name lautet. Einzig die angepriesenden Eigenschaften auf der Verpackung sind entscheidend. Und dafür muss man sich nichtmal erkundigen.

Spasstiger
2009-01-04, 16:52:55
Man könnte es auch mal mit neuen Chips/Karten versuchen um ein neues Namensschema einzuführen. Oder will NV den G92 jetzt bis zum Sankt-Nimmerleinstag weiter verwenden und immer wieder umbenennen?
Es kommen ja auch neue Mainstream-Chips, aber erst in 40 nm. Warum sollte NV nochmal 55-nm-Chips auflegen, wenn diese weder schneller als der G92b sind noch featureseitig Vorteile haben?

Ja, das wäre dann eine passende Gelegenheit um das neue Namensschema einzuführen. Die jetzige Aktion ist rein darauf ausgelegt noch ein paar dumme zu erwischen und damit womöglich die Lager zu leeren.
Inwiefern dient die Karte dem Dummenfang?
Der Name deutet ja nicht gerade auf ein Topmodell hin, wenn es auch Karten mit den Bezeichnungen GTX 260 und GTX 280 gibt.
Die Bezeichnung 9600 GSO ist schon eher Dummenfang, da 9600 ganz klar besser klingt als 280.

Bekannte von mir haben die GTX-2xx-Reihe bis vor kurzem überhaupt nicht gekannt und haben anhand vom Namen erstmal mit einem "achso" gedacht, es handle sich dabei um Billigkarten, die an ihre 8800er nicht annähernd rankommen.

Black-Scorpion
2009-01-04, 16:59:38
Einen 192-Bit G94 gab es bisher nur als 9600GS, OEM-exklusiv.
Und mit der wohl neuen 55nm GPU und den bisher noch nicht dagewesenen 1.5GiB VRAM sind doch durchaus ein paar Neuerungen hinzugekommen, die eine neue Bezeichnung rechtfertigen, die wiederrum eine bessere Orientierung anhand der neuesten NV-Produkte ermöglicht.

Was fällt wohl leicher einzuordnen:
9600GS und GTX 260 (die es durchaus auch schon bei MM gab)
oder
GT 130 und GTX 260?
Und wie viele Käufwer verbinden das GT mit der 200er Serie?
Und was bekommen sie stattdessen? Einen aufgewärmten Aufguß der zwischendurch auch noch verdünnt wurde.
Neues Namensschema schön und gut, aber nicht mit der miesen Masche.

Gast
2009-01-04, 17:00:15
Ist das dein ernst?
Was hier gemacht wird hilft nur einem und ist ganz bewusst nicht zum Vorteil sondern Nachteil der Käufer.


Weder noch, den typischen Käufer solcher PCs interessiert es überhaupt nicht, was da für eine Grafik drin ist und was die leistet.

Nakai
2009-01-04, 17:03:05
Und? Namen sind Schall und Rauch.

Und? Der Name ist das Erst, was einem Kunden an einem Produkt gefällt.
Warum denkste heißen Nvidias Grafikkarten "Geforce", oder warum heißen ATIs Grakas gleich "Radeon". Namen sind ein Werbemittel, als was anderes darf man das nicht verstehen. Namen sind Schall und Rauch, ja das stimmt. Aber Namen sind nicht Schall und Rauch für den uninformierten Käufer.

Es ist komplett egal wie ein name lautet. Einzig die angepriesenden Eigenschaften auf der Verpackung sind entscheidend. Und dafür muss man sich nichtmal erkundigen.

Stimmt, aber da is eine HD4550 gar nicht mal so verschieden vom Featureset als eine HD4850. Das eigentlich wichtige, nämlich die PErformance kann man von der Verpackung nicht ablesen.


mfg Nakai

reunion
2009-01-04, 17:03:37
Es kommen ja auch neue Mainstream-Chips, aber erst in 40 nm. Warum sollte NV nochmal 55-nm-Chips auflegen, wenn diese weder schneller als der G92b sind noch featureseitig Vorteile haben?

Siehe meinen Edit. Dann sollte man mit dem neuen Namensschema eben warten bis die neuen Chips da sind, aber nicht die alten noch schnell umbenennen.

Gast
2009-01-06, 22:38:06
Au Mann ich kann es echt nicht mehr hören!!!
Es ist immer leicht zu sagen wenn man sich in der Materie auskennt, aber die Realität sieht eben doch etwas anders aus.
Niemand betreibt jedesmal ne Recherche vor (irgendeinem) Kauf, dazu fehlt meistens die Zeit.Da muss ich doch mal entschieden widersprechen. Diejenigen, die ihr Geld bei einem Konsumgüterkauf bestmöglich investieren möchten, informieren sich vor jedem Kauf, der einen gewissen, individuell wohl höchst unterschiedlichen, Betrag überschreitet. Wer dies nicht tut, muss anscheinend nicht so sehr aufs Geld achten und hat es imho nicht anders verdient, sollte er Mist kaufen.

Völlig egal, um was es sich handelt, wenn ich eine Investition tätigen will oder muss, bringe ich auch die Zeit auf mich zu informieren. Je nach Betrag und persönlichem Stellenwert der geplanten Anschaffung kann diese Recherche dann auch mal recht lange dauern und neben einer zufriedenstellenden Kaufentscheidung erweitert man nebenbei noch sein Wissen über die jeweilige Produktart. Geht man einfach los und kauft das nächstbeste Produkt, ist das selbstverständlich jedem freigestellt, aber in meinen Augen ein Luxus, den man sich leisten können sollte. Bei kleinen Anschaffungen verfahre ich allerdings nicht anders.
Außer der 9800GTX+ gibt es momentan sowieso keine vernünftige Karte auf dem Markt.Das kann man meiner Meinung nach so allgemein auch nicht behaupten, da dies von den jeweiligen Ansprüchen abhängt. Im November stand z.B. für mich die Anschaffung neuer Hardwarekomponenten an, darunter auch einer Grafikkarte. Über die Entwicklungen auf dem Hardware- und auch speziell Grafikmarkt war ich schon recht lange Zeit nicht mehr auf dem Laufenden.

Da ich praktisch nicht gespielt habe, dennoch aber eine gewisse 3D-Leistung haben wollte, entschied ich mich nach einigen Recherchen für eine 9600GT für etwas unter 100 €. Hier stimmte in meinen Augen einfach das Gesamtpaket, nicht nur die 3D-Rohleistung ist ausschlaggebend, auch der Rest der 9600GT brachte mich zu dem Schluss, dass ich für meine knapp 100 € einen (für mich) zufriedenstellenden Gegenwert bekommen werde.

Mit dem Release von GTA 4 wurde ich dann doch schwach und installierte nach sehr langer Zeit wieder ein MS-Betriebssystem (Server 2008 64-bit Trial-Version) und neben GTA 4 lud ich auch ein paar Demos anderer aktueller Spiele herunter.

Die Leistung der 9600GT hat meine Erwartungen definitiv erfüllt und ein Gelegenheitsspieler mit knappem Geldbeutel (aufgrund meines Nutzungsprofils ging schon viel des Budgets für einen Core i7 + X58-Board + 6 GiB DDR3-SDRAM drauf) kann damit durchaus seinen Spaß haben. Der Sprung von meiner vorherigen 7800GTX war sowohl in Sachen Leistung, als auch bei der Bildqualität enorm.

Klar, wenn ich in leider nicht allzu naher Zukunft das Geld für einen lange gewünschten 24"-TFT zusammen haben werde (meine umfangreichen Recherchen in diesem Gebiet ergaben, dass ich bei meinem Anspruch an das Gerät eine ganze Menge Geld hinblättern müsste [derzeitiges Wunschmodell: HP L2475w ;)], das ich zur Zeit einfach nicht habe) und damit auch die Auflösung steigen wird, könnte die Leistung der Karte für die dann auch fordernden zukünftigen Spiele etwas knapp werden, aber dieses "Problem" ist im schnelllebigen Hardwaremarkt nunmal ubiquitär.

Klar reizt mich auch im Moment der Gedanke die feinen Hybrid-AA-Modi auch in halbwegs aktuellen Spielen aktivieren zu können, aber das kann ich von einer <100-€-Karte eben nicht erwarten und dem muss man sich beim Kauf einfach bewusst sein, dann bleiben Enttäuschungen auch aus.

Kleine Frage am Rande:
Als ich bzgl. 3D-Grafikkarten noch auf dem Laufenden war, war es bei ATI üblich nur Chips aus dem Value-Segment mit RVxxx-Codenamen zu versehen. Hat man bei ATI/AMD gar nicht mehr den Anspruch mit einer einzelnen GPU den High-End-Markt zu bedienen und verlässt sich voll auf Multi-GPU-Lösungen ala "Crossfire"? Dann kann ich jedoch nicht nachvollziehen, weshalb man so wenig Mühe in die Pflege eben jener Lösungen steckt (zumindest erweckt dies bei mir diesen Anschein). Noch immer gibts keine Kontrolle über die Profile und so wie es aussieht, sind ATI-Karten zumindest für mich ganz und gar nicht mehr konkurrenzfähig geworden. Nicht die Leistung bringt mich zu diesem Urteil, sondern die zahlreichen anderen Schwächen der aktuellen Karten sind geradezu erschreckend, wenn man als letztes Produkt bis vor einiger Zeit quasi den R580 in Erinnerung hatte.

Gast
2009-01-06, 22:41:59
und neben GTA 4 lud ich auch ein paar Demos anderer aktueller Spiele herunter.Gerade nochmal drübergelesen und errm, das liest sich schon ein wenig komisch. ;D Runtergeladen habe ich nur die Demos, GTA 4 war (gerade als Fan der Serie seit GTA 1) jeden Cent wert.

reunion
2009-01-07, 16:59:26
AMD macht sich über nVs Umbennenungen auch lustig:
http://www.youtube.com/watch?v=9wxnY3xQB_s

Gast
2009-01-07, 17:43:42
AMD macht sich über nVs Umbennenungen auch lustig:
http://www.youtube.com/watch?v=9wxnY3xQB_s

Na, die haben es gerade nötig mit ihrem Athlon Namenswirrwarr.

AnarchX
2009-02-04, 15:47:27
GTS 250 - Neuvorstellung der 9800GTX+ zur Cebit? (http://en.expreview.com/2009/02/04/nvidia-geforce-gts-250-to-make-its-debut-at-cebit-2009.html)

Da würde es wohl nicht verwunderlich sein, wenn ein paar Monate später unter dem gleichen Namen GT214/215 veröffentlicht wird und wiederrum die G92-GTS 250 ersetzt. X-D

Nakai
2009-02-04, 15:55:11
Na, die haben es gerade nötig mit ihrem Athlon Namenswirrwarr.

Die benennen aber nicht alle Produkte bis zu 3mal um...:rolleyes:

Da würde es wohl nicht verwunderlich sein, wenn ein paar Monate später unter dem gleichen Namen GT214/215 veröffentlicht wird und wiederrum die G92-GTS 250 ersetzt.

Und alle DAUs kaufens, weil sie denken, dass sie eine hochmoderne und hochperformante Karte erhalten. Naja jedenfalls suggeriert das der Name...


mfg Nakai

Sorkalm
2009-02-04, 15:56:00
Oh, eine weitere Reinkarnation des G92 ... das mit der langen Lebensdauer scheint sich echt zu bewährheiten. X-D

LovesuckZ
2009-02-04, 16:02:02
Und alle DAUs kaufens, weil sie denken, dass sie eine hochmoderne und hochperformante Karte erhalten. Naja jedenfalls suggeriert das der Name...


Ne, der Dau denkt sich, dass eine 9800gtx+ klar besser ist als die GTX295, weil der Name mehr Zeichen besitzt. :rolleyes:
Schreibe doch solch einen Mist in den entsprechenden anderen Foren.

AnarchX
2009-02-04, 16:06:41
GTS 150 oder 170 wäre ja nicht verkehrt, aber nun G92 in die Second Generation Unified Shader Architecture einzuordnen, wofür das GeForce 200 ja steht, geht natürlich doch etwas weit. Im Endeffekt gibt es diese ja wohl dann schon Seit April 2007. ;)

Nakai
2009-02-04, 16:11:53
Im Endeffekt gibt es diese ja wohl dann schon Seit April 2007. ;)

Ich dachte es wäre November 2006 gewesen.;D

Ne, der Dau denkt sich, dass eine 9800gtx+ klar besser ist als die GTX295, weil der Name mehr Zeichen besitzt.
Schreibe doch solch einen Mist in den entsprechenden anderen Foren.

Ne der Dau denkt sich, dass ne Radeon 9800XT schneller als ne Geforce 8800Ultra ist...:|


mfg Nakai

AnarchX
2009-02-04, 16:13:21
Ich dachte es wäre November 2006 gewesen.;D

Mit G84/G86 kamen doch schon ein paar Änderungen: 8TAs, optimierte ROPs, VP2.

LovesuckZ
2009-02-04, 16:18:25
Ne der Dau denkt sich, dass ne Radeon 9800XT schneller als ne Geforce 8800Ultra ist...:|


Muss dein Dau ja denken. Er entscheidet sich ja nur nach dem Namen. :rolleyes:

Nakai
2009-02-04, 16:18:49
Mit G84/G86 kamen doch schon ein paar Änderungen: 8TAs, optimierte ROPs, VP2.

Ja, ich weiß, aber darum gings mir nicht bei meiner Aussage. Die Änderungen sind marginal. Naja ATI hat auch nicht soviele faktische Änderungen seit ungefähr zwei Jahren eingeführt. Erst mit dem GT200 hat sich NV wieder nach vorne bewegt, doch den Fortschritt kann man so oder so sehen.


mfg Nakai

€: Muss dein Dau ja denken. Er entscheidet sich ja nur nach dem Namen. :rolleyes:

Deiner nur nach Zahlen. ;)

€2: Is eh egal, jeder wird die Umbennenung anders sehen.

Gast
2009-02-04, 16:25:17
GTS 150 oder 170 wäre ja nicht verkehrt, aber nun G92 in die Second Generation Unified Shader Architecture einzuordnen, wofür das GeForce 200 ja steht, geht natürlich doch etwas weit.
Was fehlt denn der "Second Generation Unified Shader Architecture" hardwareseitig für D3D10.1, irgendwas mit den ROPs habe ich im Hinterkopf. Könnte man das den neuen alten Karten nicht wenigstens noch beibringen oder käme das einem Neudesign gleich?

LovesuckZ
2009-02-04, 16:30:35
Deiner nur nach Zahlen. ;)

€2: Is eh egal, jeder wird die Umbennenung anders sehen.

Nö, wozu schreiben wir in einem Forum? Das du mit deinen kindischen Posting hier falsch bist, hättest du eigentlich wissen müssen. Daher nochmal meine Frage: Wie kann denn ein Dau, der nach dir nur nach dem Namen schaut, die korrekte Positionierung der 9800gtx+ und GTX2xx erkennen?

reunion
2009-02-04, 16:38:14
Also sorry LovesuckZ, aber man muss wirklich nicht alles schönreden. Nv ändert einerseits laufend Namen schon lange existierender Produkte um etwas neues vorzutäuschen, andererseits werden bestehe Namen plötzlich mit anderer Hardware verkauft. Das ganze ist völlig undurchsichtig und dient offenbar der gezielten Verwirrung der Kunden zum Zecke der Profitmaximierung. Nicht mehr und nicht weniger. Wie man das verteidigen kann ist mir schleierhaft.

Nakai
2009-02-04, 16:40:51
Nö, wozu schreiben wir in einem Forum? Das du mit deinen kindischen Posting hier falsch bist, hättest du eigentlich wissen müssen.

Schön, dann sind wir uns einig, dass diese Diskussion kindisch ist. Ich weiß nur eins, nämlich das ein Verhalten extrem arrogant und polemisch wirkt. Wenn du dein Nvidia verteidigen musst, dann machs woanders. Man kann hier anscheinend keine Kritik ausüben ohne von Fanboys angemacht und auseinandergenommen zu werden.

Daher nochmal meine Frage: Wie kann denn ein Dau, der nach dir nur nach dem Namen schaut, die korrekte Positionierung der 9800gtx+ und GTX2xx erkennen?

Wie soll er es denn nach Zahlen tun?

Ich zitiere nochmal mich selbst, da du anscheinend nicht lesen kannst:
Und alle DAUs kaufens, weil sie denken, dass sie eine hochmoderne und hochperformante Karte erhalten. Naja jedenfalls suggeriert das der Name...


Sie kaufen diese Karte, weil sie im Glauben sind, durch die Bezeichnung der Karte eine hochmoderne und hochperformante Karte zu bekommen. Im Vergleich zur Geforce GTX295, Geforce GTX280 und zur Geforce GTX260 kann man eine nahen namentlichen Bezug feststellen. Der uninformierte Käufer wird denken, dass diese Karte im Bezug zu den neuen moderneren und performanteren Karten steht. Deswegen glaubt er auch, dass die Karte schneller als die Geforce 9800GTX+ ist, da die Karte ja deutlich moderner wirkt. In Wirklichkeit hat diese Karte nicht mehr soviel mit den anderen Karten gemeinsam, obwohl ein namentlicher Bezug besteht.

Ich weiß ja nicht, wie du das siehst, aber für mich besteht eine Ähnlichkeit, wenn ich mir zum Beispiel die GTS250 mit der GTX260 vergleiche. Wie siehst du das?



mfg Nakai

LovesuckZ
2009-02-04, 16:47:34
Also sorry LovesuckZ, aber man muss wirklich nicht alles schönreden. Nv ändert einerseits laufend Namen schon lange existierender Produkte um etwas neues vorzutäuschen, andererseits werden bestehe Namen plötzlich mit anderer Hardware verkauft. Das ganze ist völlig undurchsichtig und dient offenbar der gezielten Verwirrung der Kunden zum Zecke der Profitmaximierung. Nicht mehr und nicht weniger. Wie man das verteidigen kann ist mir schleierhaft.

Euer Problem ist, dass ihr von einem Menschen ausgeht, der sich nicht informiert und sein falsches Verhalten nun nVidia anlastet.
Entweder er informiert sich und weiß die Karten, auch anhand der Homepage, einzuschätzen, oder er freut sich über den Kauf.
Aber diesen nicht existierenden Dau immer vorzuschieben, ist schon ziemlich absurd.

Schön, dann sind wir uns einig, dass diese Diskussion kindisch ist. Ich weiß nur eins, nämlich das ein Verhalten extrem arrogant und polemisch wirkt. Wenn du dein Nvidia verteidigen musst, dann machs woanders. Man kann hier anscheinend keine Kritik ausüben ohne von Fanboys angemacht und auseinandergenommen zu werden.

Solange wie man nicht auf Widerstand stößt, kommt man ohne Beleidigungen aus, gell? :rolleyes:


Sie kaufen diese Karte, weil sie im Glauben sind, durch die Bezeichnung der Karte eine hochmoderne und hochperformante Karte zu bekommen. Im Vergleich zur Geforce GTX295, Geforce GTX280 und zur Geforce GTX260 kann man eine nahen namentlichen Bezug feststellen. Der uninformierte Käufer wird denken, dass diese Karte im Bezug zu den neuen moderneren und performanteren Karten steht. Deswegen glaubt er auch, dass die Karte schneller als die Geforce 9800GTX+ ist, da die Karte ja deutlich moderner wirkt. In Wirklichkeit hat diese Karte nicht mehr soviel mit den anderen Karten gemeinsam, obwohl ein namentlicher Bezug besteht.

Und woher weiß er das? Mir ist keine Person bekannt, die anhand von Namen eine eindeutige Zuordnung durchführen kann - erst recht nicht, wenn es zu einem dramatischen Bruch gekommen ist. Wieso könnte er also die 9800gtx+ und die GTX2xx richtig einorden?


Ich weiß ja nicht, wie du das siehst, aber für mich besteht eine Ähnlichkeit, wenn ich mir zum Beispiel die GTS250 mit der GTX260 vergleiche. Wie siehst du das?


Und es gibt keine Ähnlichkeit zwischen dem G92 und dem GT200? :rolleyes:

reunion
2009-02-04, 17:00:15
Euer Problem ist, dass ihr von einem Menschen ausgeht, der sich nicht informiert und sein falsches Verhalten nun nVidia anlastet.
Entweder er informiert sich und weiß die Karten, auch anhand der Homepage, einzuschätzen, oder er freut sich über den Kauf.
Aber diesen nicht existierenden Dau immer vorzuschieben, ist schon ziemlich absurd.

Wäre es so wie du sagst dann könnte sich nV die Umbenennungsaktionen sparen. Da sie das nicht tun ist schwer davon auszugehen das sie davon profitieren.

Nakai
2009-02-04, 17:08:50
Solange wie man nicht auf Widerstand stößt, kommt man ohne Beleidigungen aus, gell?

Das war keine Beleidigung sondern eine Beschreibung deines Verhalten. Den das ist arrogant, polemisch und total fanboyisch, sowie angriffslustig.
Btw, in anderen Foren wird Polemik genauso geahndet wie eine Beleidigung.
Aber lassen wir das, da kommt sowieso nichts raus...

Und woher weiß er das? Mir ist keine Person bekannt, die anhand von Namen eine eindeutige Zuordnung durchführen kann - erst recht nicht, wenn es zu einem dramatischen Bruch gekommen ist. Wieso könnte er also die 9800gtx+ und die GTX2xx richtig einorden?

Wieso werden Karten vom Hersteller mit einer Modellnummer versehen? Wieso heißt die Geforce 9800GT genau Geforce 9800GT? Kartenbezeichnungen sind einerseitz Marketingbezeichnungen und andererseitz Leistungsbezeichnungen. Wieso gibt es Zusätze wie "Ultra", "GTX" oder "XT"? Wieso strebt NV eine Einordnung der beiden Karten zueinander an, wenn es diese vorher zwischen verschiedenen Generationen nie gegeben hat? Warum ausgerechnet jetzt?

Und es gibt keine Ähnlichkeit zwischen dem G92 und dem GT200?

Sicherlich gibt es die. Aber deswegen die beiden Karten namentlich auf eine Stufe zu stellen, ist nach meiner Ansicht falsch, zumal der Grundstock der Karte bereits als Geforce 8600 vorhanden war.


mfg Nakai

LovesuckZ
2009-02-04, 17:20:35
Wieso werden Karten vom Hersteller mit einer Modellnummer versehen? Wieso heißt die Geforce 9800GT genau Geforce 9800GT? Kartenbezeichnungen sind einerseitz Marketingbezeichnungen und andererseitz Leistungsbezeichnungen. Wieso gibt es Zusätze wie "Ultra", "GTX" oder "XT"? Wieso strebt NV eine Einordnung der beiden Karten zueinander an, wenn es diese vorher zwischen verschiedenen Generationen nie gegeben hat? Warum ausgerechnet jetzt?

Dann ist es doch richtig die G92 Karten umzubennen, denn dann kann dein Dau doch die Karten zueinander richtig einordnen. Warum passt dir das also nicht?


Sicherlich gibt es die. Aber deswegen die beiden Karten namentlich auf eine Stufe zu stellen, ist nach meiner Ansicht falsch, zumal der Grundstock der Karte bereits als Geforce 8600 vorhanden war.


Du solltest schon eine Entscheidung treffen: Entweder bist du für ein korrektes Namenschema, das eine eindeutige Einordnung ermöglicht oder du willst nur gegen nVidia flamen und schreibst daher irgendwelche Sätze.
Wieso der G92 nicht innerhalb des neuen Schema's gehört, kannst du erklären. Aber betrachte das bitte auch unter dem Aspekt, dass dein Dau nur nach dem Namen kauft und ihm DP-Leistung wohl komplett am Arsch vorbei geht.

Nakai
2009-02-04, 17:52:23
Dann ist es doch richtig die G92 Karten umzubennen, denn dann kann dein Dau doch die Karten zueinander richtig einordnen. Warum passt dir das also nicht?

Wenn der DAU auch weiß um welche Karte es sich handelt? Wie wäre es, wenn ATI die X800XT als X1750XT umbenannt hätte. Oder die X1950XT als HD2750XT? Von der Leistung könnte sie dadurch zur neuen Generation eingeordnet werden, aber von der technologischen Sicht wäre es vollkommen falsch gewesen.

Du solltest schon eine Entscheidung treffen: Entweder bist du für ein korrektes Namenschema, das eine eindeutige Einordnung ermöglicht oder du willst nur gegen nVidia flamen und schreibst daher irgendwelche Sätze.

Ich bin für ein korrektes Namensschema. Was NV hier wieder geplant hat, ist imo in keinster Weise ein korrektes Namensschema.



mfg Nakai

Gast
2009-02-04, 20:30:57
PcGH hat es auch mitbekommen!

http://www.pcgameshardware.de/aid,675229/News/Geforce_GTS_240/250_Nvidia_benennt_offenbar_weitere_Grafikkarten_um/

:rolleyes:

Gast
2009-02-04, 21:50:22
@Lovesucks
Dein Ton ist arrogant, deine Schlussfolgerungen, höflich formuliert, voreingenommen und wenig durchdacht. Wenn du glaubst deine Meinung damit irgendwie besser vertreten zu können, hast du dich geirrt. Du machst dich geradezu lächerlich, wie du auch an den anderen Reaktionen erkennen kannst. Die Mods müssen schon eine besondere Vorliebe für dich haben, dass dein Schreibstil so permanent durchgeht.

LovesuckZ
2009-02-04, 22:37:50
Wenn der DAU auch weiß um welche Karte es sich handelt? Wie wäre es, wenn ATI die X800XT als X1750XT umbenannt hätte. Oder die X1950XT als HD2750XT? Von der Leistung könnte sie dadurch zur neuen Generation eingeordnet werden, aber von der technologischen Sicht wäre es vollkommen falsch gewesen.

Ach, der nicht informierte DAU weiß also, um was es sich für Karten bei einer 9800GTX+ und einer GTX2xx handelt, ist aber nicht in der Lage auf selben Informationsweg die Unterschiede zwischen blabla und GTX2xx zu erlangen? Ich finde das ziemlich widersprüchig. Und wo liegen denn die technischen Unterschiede zwischen dem GT200 und dem G92, der eine solche krasse unterschiedliche Namensgebung erlaubt?


Ich bin für ein korrektes Namensschema. Was NV hier wieder geplant hat, ist imo in keinster Weise ein korrektes Namensschema.

Und was ist dann daran falsch die Karten in ein einheitliches Schema zu bringen?

Gast
2009-02-04, 22:42:44
Und was ist dann daran falsch die Karten in ein einheitliches Schema zu bringen?
Was ist daran richtig alten Wein in neuen Flaschen zu verkaufen :rolleyes:

Zu dem das "einheitliche Schema" Funktionen unterschlägt!

Schlammsau
2009-02-05, 11:15:38
Und nun auch von CB!
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/februar/benennt_nvidia_grafikkarten/

Anscheinend sind einige „GeForce 9800 GTX+“-Karten bereits mit der Chipkennung GeForce GTS 250 verkauft worden. So hat einer unserer Leser vor kurzem eine GeForce 9800 GTX+ von Zotac erworben, die sich bereits als GeForce GTS 250 meldet. Die Kennzeichnung bei den Händlern und auf der Verpackung läuft aber immer noch unter dem alten Namen.



Ich werd bescheuert..... :uhammer:

MadManniMan
2009-02-05, 11:56:09
Nomma Thema Steam-Survey ;)

8800 GT und 9800 GT sind schon dasselbe - und werden als 2 verschiedene Karten gehandlet... jetzt noch GTX 250...

Hakim
2009-02-05, 13:13:36
8800gt>9800gt>GTX240...hm, vielleicht sollte ich meine karte bevor ich es verkaufen will einfach als GTX240 flashen und dann zu bucht stellen :D .

Nachgefragt, wäre das wirklich machbar? Das Flashen von einer 88gt auf 98gt oder gtx240.

reunion
2009-02-05, 13:18:36
Natürlich, die Karten sind identisch, es ist nur die BIOS-Bezeichnung. Wobei dich wohl die Verpackung und Aufkleber verraten würden. :)

Hakim
2009-02-05, 13:23:42
ja du hast recht

http://m.tacker.org/blog/wp-content/uploads/2007/12/evga_8800gt_superclocked.jpg

evt könnte ich zumindest die 8 zu einer 9 verarbeiten :tongue:
Alternativ komplett Aufkleber ersetzen.

Aber Rechnung und OVP verraten es ja dennoch.

sklave_gottes
2009-02-05, 16:24:37
ja du hast recht

http://m.tacker.org/blog/wp-content/uploads/2007/12/evga_8800gt_superclocked.jpg

evt könnte ich zumindest die 8 zu einer 9 verarbeiten :tongue:
Alternativ komplett Aufkleber ersetzen.

Aber Rechnung und OVP verraten es ja dennoch.


Es könnte aber sein das du für eine Rohe Karte(also nur die Graka ohne Packung oder Zubehör) @GTX240 mehr bekommst bei Ebay als für eine ohne Flash und mit ganzem Zubehör sowie Orginal Rechnung.

Das wäre doch mal ein test wert :biggrin:

mfg martin

Nakai
2009-02-05, 18:07:50
Ach, der nicht informierte DAU weiß also, um was es sich für Karten bei einer 9800GTX+ und einer GTX2xx handelt, ist aber nicht in der Lage auf selben Informationsweg die Unterschiede zwischen blabla und GTX2xx zu erlangen? Ich finde das ziemlich widersprüchig. Und wo liegen denn die technischen Unterschiede zwischen dem GT200 und dem G92, der eine solche krasse unterschiedliche Namensgebung erlaubt?


Wo liegen sie beim R420 oder R300? Wo sind sie bei G70 und dem NV40?
Der DAU wird es sowieso nicht wissen, was hinter den Namen steckt. Der DAU weiß jedoch was neu und was alt ist. Und er wird unweigerlich was Neues als etwas besseres ansehen. In gewisser Art und Weise stimmt das. Neue Generationen haben im Grunde immer mehr Performance oder/und Features mitgebracht. Also was bringt also eine Umbenennung einer alten Karten in ein neues Namensschema einer moderneren und leistungsfähigeren Karte? Genau, nur das viele uninformierte Kunden durch den Namen ein deutlich anderes Bild der veralteten Produkte bekommen.


mfg Nakai

LovesuckZ
2009-02-05, 18:30:37
Sobald der DAU weiß, was neu und was alt ist, hat er sich erkundigt. Und mit dieser Information kann er die Karten einordnen.
Dazu kommt, dass der G92 eben nicht ein altes Produkt ist, sondern durch CustomDesigns, CUDA, PhysX, Stereo3D sogar erneuert wurde. zudem sind die Unterschiede zum GT200 in den Bereichen, in denen der DAU kauft, kaum vorhanden. Und da es keinen GT200 zum G92 Preis gibt, stellt sich die Frage nach einer Verarschung nicht.
Aber ich stelle die Frage nochmal: Wie kann er eine 9800gtx+ und eine GTX260 richtig anhand des Namens einordnen?

Nakai
2009-02-05, 18:57:19
Sobald der DAU weiß, was neu und was alt ist, hat er sich erkundigt. Und mit dieser Information kann er die Karten einordnen.
Dazu kommt, dass der G92 eben nicht ein altes Produkt ist, sondern durch CustomDesigns, CUDA, PhysX, Stereo3D sogar erneuert wurde. zudem sind die Unterschiede zum GT200 in den Bereichen, in denen der DAU kauft, kaum vorhanden. Und da es keinen GT200 zum G92 Preis gibt, stellt sich die Frage nach einer Verarschung nicht.
Aber ich stelle die Frage nochmal: Wie kann er eine 9800gtx+ und eine GTX260 richtig anhand des Namens einordnen?

Ob eine Person informiert ist oder nicht ist definitionssache.
Desweiteren ist mir aufgefallen, dass du nicht richtig liest. Ich habe genug Aspekte genannt, die objektiv betrachtet, eine solche Umbenennung als nicht tragfähig sehen.
Da du dies einfach viel zu kleinkariert siehst und dich an Kleinigkeiten aufgeilst, sehe ich auch hier keine Möglichkeit eine normale Diskussion zu führen bzw. du willst keine Diskussion, aufgrund deines Verhaltens oder sonstwie, führen. Ob es wegen deinem Ego, deinem Fanboyismus oder einfach nur aus Spaß so ist, hat diese Diskussion keine Grundlage.
Dies ist nicht nur mir aufgefallen, deswegen ist hier EOD. IMO stehst du hier mit deiner Ansicht alleine(bzw. alle NV-Fanboys sind bestimmt deiner Ansicht).


mfg Nakai

LovesuckZ
2009-02-06, 21:40:02
Du beendest schon die Diskussion ohne die einfachen Fragen zu beantworten? Ich finde es kindisch, hier auf einen Bash gegen nVidia zu machen, aber bei kleinstem Widerstand die Segeln zu streichen.
Ich sehe immer noch nicht, warum der uninformierte Käufer bei der Umbenennung verarscht wird, wenn fast jegliches GT200 Feature auch auf dem G92 vorhanden ist. Und ich sehe nicht, wieso das neuere Produkt G92b nicht in das Schema kommen sollte, um den Kunden einen besseren Überblick und eine bessere Einordnung zu ermöglichen. Du erklärst hier nichts, trollst aber fleißig gegen nVidia. Ich sehe auch nicht, wo das Problem für deine fehlende Beantwortung der Fragen begründet ist. Immerhin bis du derjenige, der nVidia Kundenverarschung vorwirft. Demnach sollte es einfach sein zu erklären, wie der uninformierte Käufer eine 9800gtx+ (vielleicht auch noch mit 1024mb) und eine GTX260 (nur mit 8xx mb) richtig einordnen kann.
Sollest du die Fragen nicht beantworten, muss ich wohl annehmen, dass du nicht in der Lage bist und nur rumgetrollt hast. Das ist schade, da Diskussionen eigentlich in diesem Bereich immer sehr lustig sind. Aber wenn der Gegenüber keine Argumente hat...

=Floi=
2009-02-06, 21:56:21
in so gut wie jedem größerem test sind beide karten vorhanden und da ist die 260er (216) schneller. Wer sich informiert, der kann auch so die karten auseinander halten und wer nicht, dem ist es eh egal.
NV hat aber nicht nur den 55nm chip verbaut und genau darin liegt eben der witz. Es gib KEINE genaue trennung bei der 9800GTX+. Das ganze brimborium um diese karten ist einfach nur armselig und völlig unnötig. Es verursacht höchstens höhere kosten und die muß der kunde tragen. NV sollte sich lieber mal auch NEUE chips konzentrieren.
NV hätte auch den GT200b launch besser pushen können, aber der ging ja eigentlich unter und richtig gute produktverbesserungen gab es damit auch nicht.
NV war gut, aber in der aktuellen situation taugen sie garnichts mehr. Die haben die letzten 2 jahre so massiv abgebaut und völlig unnötig das ruder aus der hand gelegt.

Gast
2009-02-07, 00:29:36
[...]

Ein uninvormierter Käufer wird das kaufen, was ihm gerade über den Weg läuft (Anzeige/Werbung) oder bei MM "günstig" im Regal steht. Das kann ich aus eigener Erfahrung am Beispiel Bekannten und Freunden sagen. Er kann mit den ganzen verschieden Zahlen und Buchstaben, die als Modellbezeichnung dienen nämlich rein gar nichts anfangen und hat auch kein großes Interesse durch dieses auf den ersten Blick komplizierte System durchzusteigen.

Ein mittelprächtig informierter Käufer kennt sich ein wenig mit den Bezeichnungen aus. 9800>2XX denkt er.
a) Wundern tut er sich, warum die 2XX teurer als die 9800 ist und beginnt sich umfassend zu informieren.
b) Doch spätestens wenn die umgelabelte 2XX als "Weltneuheit" (siehe letzter MM Katalog) angepriesen wird steht seine Entscheidung fest. Die teurere 2XX muss es sein.

Ein gut informierter Käufer (Minderheit) durchschaut nVidias Spielchen und kauft entweder klug das gleiche nVidia Produkt mit den alten Labels billiger - oder gleich aus neugeborener Sympathie eine AMD Karte.

EOD.

Nakai
2009-02-07, 11:57:12
Du beendest schon die Diskussion ohne die einfachen Fragen zu beantworten? Ich finde es kindisch, hier auf einen Bash gegen nVidia zu machen, aber bei kleinstem Widerstand die Segeln zu streichen.
Ich sehe immer noch nicht, warum der uninformierte Käufer bei der Umbenennung verarscht wird, wenn fast jegliches GT200 Feature auch auf dem G92 vorhanden ist. Und ich sehe nicht, wieso das neuere Produkt G92b nicht in das Schema kommen sollte, um den Kunden einen besseren Überblick und eine bessere Einordnung zu ermöglichen. Du erklärst hier nichts, trollst aber fleißig gegen nVidia. Ich sehe auch nicht, wo das Problem für deine fehlende Beantwortung der Fragen begründet ist. Immerhin bis du derjenige, der nVidia Kundenverarschung vorwirft. Demnach sollte es einfach sein zu erklären, wie der uninformierte Käufer eine 9800gtx+ (vielleicht auch noch mit 1024mb) und eine GTX260 (nur mit 8xx mb) richtig einordnen kann.
Sollest du die Fragen nicht beantworten, muss ich wohl annehmen, dass du nicht in der Lage bist und nur rumgetrollt hast. Das ist schade, da Diskussionen eigentlich in diesem Bereich immer sehr lustig sind. Aber wenn der Gegenüber keine Argumente hat...

Das Problem mit deiner Argumentation ist, dass jegliche Aussage gegenüber deiner Lieblingsfirma als "Bash" angesehen wird. Dies war in keinster Art und Weise gedacht gewesen. Ebenso bin ich nicht alleine mit meiner Meinung. Wie in anderen Diskussionen bereits gezeigt, stehst du mit deiner Meinung alleine da. Du unterstellst mir, einen simplen Bash gegen NV durchzuführen. Ich habe aus meiner Sicht genug Argumente genannt, die meine Meinung verdeutlichen. Dass du nicht in der Lage bist, ist nicht mein Problem, es ist dein Unverständnis andere Meinungen zu akzeptieren. Argumente nicht zu sehen oder nicht akzeptieren zu wollen, ist imo ein feiner Unterschied.


Ich werde nun ein paar Gründe aufzählen, warum jegliche Diskussion mit dir immer scheitert, solange dein Gegenüber eine andere Meinung als du besitzt.
Also:
1. Du versucht deinen Gesprächspartner, wegen deiner eigenen Polarisation einer Firma in einer Ecke zu stellen. Du argumentierst daher immer mit diesem Grundsatz, wodurch deine Argumentation auf einer gefärbten Grundlage besteht. Dies ist in einer Dokumentation nicht hilfreich.
2. Du versuchst nichtmal die Argumente des Gesprächspartners irgendwie nachvollziehen zu können.
3. Du versuchst dich auf eine höhere Ebene, als dein Gesprächpartner zu setzen, indem du ihn als dumm und infantil darstellst. Das ist nicht tragbar, nicht in einer pluralistischer Gesellschaft, weder in einem Forum.
4. Deine Meinung ist nicht die Meinung aller Personen. Weil du etwas verstehst, heißt das nicht, dass andere Gruppen dieses Verständnis aufbringen können.
5. Du provozierst am laufenden Band. Evtl. fällt dir das nicht auf, aber ich würde an deiner Stelle mal deinen Umgangston ändern.

Ich könnte nun zu jedem Punkt ein paar Beispiele nennen, aber das wäre mir zuviel Arbeit. Ich hoffe, dass du einmal etwas offener bezüglich deiner Argumentationen vorgehst, sonst kann man mit dir keine Diskussion führen. Ich sehe dich als ein sehr kompetent an, jedoch bist du von deiner eigenen Meinung viel zu sehr überzeugt, als dass du andere Meinung auffassen und akzeptieren kannst.

Achja damit deine grüne Seele besänftigt ist. ATI ist genauso schlecht wie NV. Die werden anscheinend auch ihre alten Produkte ins neue Namensschema einführen. IMO ist NV der Vorreiter dieser Umbenennungsaktion, was nicht heißt, dass es wirklich gerechtfertigt ist.



mfg Nakai


€: Eigentlich könnte man hier, das Sprichwort "Der Klügere gibt nach". Da ich aber in technischer Hinsicht, nicht soviel Verständnis aufbringen wie du, kann man dein Verhalten auch anders deuten.

€2: Warum dies hier gescheitert ist, sollte hier nicht weiter diskutiert werden. Es passt nicht zum Thema. Außerdem ist mir klar, dass du wieder nachhaken wirst nur um dein Ego zu besänftigen. Mir ist das jetzt egal, du kannst schreiben was du willst...

LovesuckZ
2009-02-07, 12:50:12
Und du hast die Fragen schon wieder nicht beantwortet. Statt persönlich zu werden, könntest du einfach nur erklären, wie der uninformierte Käufer anhand der Bezeichnung 9800gtx+ und GTX2xx die Karten richtig einordnen kann. Ich meine, so schwer kann das garnicht sein, wenn er doch durch eine simple Umbenennung der Käufer so arglistig getäuscht wird.
Es ist für dich peinlich, dass du zwar bashen kannst, aber dann auch nicht mehr lieferst. Wo sind die Argumente, dass der uninformierte Käufer getäuscht wird? Wo sind die Argumente, dass er weiß, was GTX2xx und 9800gtx+ bedeutet.
Es ist schade, dass die Moderationen solche trollversuche auch noch zulässt in diesem Forum. Aber das liegt wohl daran, dass eine Vielzahl von ihnen mehr AMD mögen als nVidia. Denn Angriffe gegen AMD werden hier richtig zügig gelöchst, gell deekeey?

Nakai
2009-02-07, 13:08:15
Und du hast die Fragen schon wieder nicht beantwortet. Statt persönlich zu werden, könntest du einfach nur erklären, wie der uninformierte Käufer anhand der Bezeichnung 9800gtx+ und GTX2xx die Karten richtig einordnen kann. Ich meine, so schwer kann das garnicht sein, wenn er doch durch eine simple Umbenennung der Käufer so arglistig getäuscht wird.

mhh, das nervt langsam. Aber seis drum, letzte Antwort und dann EOD.
Das Problem ist, ich habe deine Frage bereits beantwortet, nur du akzeptierst die Antwort nicht. Ich habe schon gesagt, was Produktnamen zu bedeuten haben. Ein uninformierter Käufer kann Karten unterschiedlicher Generationen sowieso nicht richtig einordnen. Das kann er meistens bei Karten gleicher Generation auch nicht tun, da er nicht weiß, was hinter bestimmten Kartennamen steckt. Dennoch kann man hinsichtlich der Kartennamen eine modernere Karte von einer alten Karte unterscheiden. Geforce GTX2xx ist neuer als Geforce 9xxx usw. Neuere Kartengenerationen bringen neue Features und/oder mehr Performance mit sich. Durch die Umbenennung wird alles aus dem Kontext gerissen. Den G92 auf die Stufe des GT200 zu bringen ist imo einfach nicht gerechtfertigt.
NV sagt zwar, dass die Umbenennung eine bessere Transparenz mit sich bringt. Das könnte man zwar noch abkaufen, jedoch muss das der uninformierte Käufer nicht wissen. Er sieht die GTS250 und stellt einen Zusammenhang mit den anderen NV-Karten her. Die GTX285 ist eine moderne und schnelle Karte, deswegen muss die GTS250 auch sehr modern und schnell sein. Dabei weiß er nicht, dass die GTS250 nur eine aufgewärmte Geforce 9800GTX ist. Wenn der uninformierte Käufer eine Geforce GTS250 und eine Geforce 9800GTX+ nebeneinander sieht, was wird er dann kaufen?
Er wird eher die GTS250 kaufen, obwohl kein Unterschied besteht. Eine bessere Transparenz wird nur diejenigen offenbart, die sich informieren. Wieviele Käufer informieren sich so gut, dass die durch den Namensdschungel aller Grafikkarten durchblicken?


mfg Nakai


€: IMO werde ich noch lange nicht so ausfallend wie du. Dein Verhalten ist einfach nur viel zu voreingenommen und du kannst die Meinung anderer Leute nicht nachvollziehen. Ich finde das schade, da du wirklich nicht dumm bist.

darkvader
2009-02-07, 13:16:15
Mal ohne Trollansatz :-). Ich glaube wir reden hier über eine kleine Gruppe von Personen, nämlich diejenigen, die von einer neuen Geforce Reihe gehört haben, vielleicht in der letzten ComputerBild nachgelesen haben und gesehen haben dass es die neue 200er Serie gibt.
Und nu gehen die in den Laden und wollen die sich holen, stellen fest dass die 280er zu teuer ist, und packen sich dann eine 240er ein, weil das ja das neue Modell ist. Das das aber dieselbe Karte ist die sie vielleicht schon zuhause haben realisieren Sie dabei nicht.

Im Prinzip wäre das, als wenn du einen 520 BWM zuhause hättest, BMW einen neuen 545 rausbringt und im Zuge dessen den 520 in den 530 umbenennt. Mit dem Unterschied, dass man da halt deutlich einfacher Dinge wie Leistung, Zylinder oder Verbrauch vergleichen kann.

Klar, am Ende kann man immer sagen "wenn der Kunde sich nicht informiert, dann ist er selber Schuld". Die Ideallösung wäre meiner Meinung nach eigentlich, wenn auf den Grafikkarten Boxen eine Kurze Leistungszuordnung angebracht wäre. Einfach ein Firmeninternes Ranking, evtl. mit allen Grafikkarten der letzten 24 Monate, wo man dann eben auch sehen kann, dass bestimmte 9xxx und 2xx gleichschnell sind.

Hakim
2009-02-07, 13:50:38
Wenn sich preislich nicht viel tut (9800gtx+ - gtx250), warum nicht? Die Leute die vor einem Jahr sich ne 98gtx geholt haben (230-270€) kennen sich wohl aus behaupte ich mal, da ich davon ausgehe das ein Laie keine 250€ für eine Grafikkarte ausgeben tut wo es doch den aldi pc für 500€ gibt. Und ich gehe mal davon aus das Leute die sich kürzlich eine GTX+ geholt haben nicht so schnell schon wieder eine neue Karte holen werden. Klar wirds hier und da Leute gehen die wohl denken das die GTX240 bestimmt eine Neuentwicklung ist und schneller als die 9800gtx+ sein sollte, aber wie gesagt in der regel geben diese auch nicht viel Geld für eine graka aus.

Achja, was sollen den die Notebook Käufer sagen? eine Ur Go 6800 ist schneller als eine GF 9200M, oder die ATI HD 3850 ist schneller als eine HD 4650.

_DrillSarge]I[
2009-02-07, 15:15:17
Achja, was sollen den die Notebook Käufer sagen? eine Ur Go 6800 ist schneller als eine GF 9200M, oder die ATI HD 3850 ist schneller als eine HD 4650.

->
Achja, was sollen den die Notebook Käufer sagen? eine Ur Go 6800 ist schneller als eine GF 9200M, oder die ATI HD 3850 ist schneller als eine HD 4650.

das ist der "performance-indikator" (üblicherweise ;))

deekey777
2009-02-11, 21:03:36
Nvidia plans faster G92b (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12000&Itemid=1)

Wie soll das gehen? Das Ding läuft schon am Limit und hat nicht umsonst einen Riesenkühler (kommt mir bitte nicht mit irgendwelchen Sonderversionen oder eigenen Übertaktungsversuchen), woher sollen jetzt noch weitere 100 MHz kommen (selbst wenn es "nur" der Shadertakt ist)?

Gast
2009-02-11, 21:08:33
naja... so wie es fuad darstellt.. sollte eine solche Karte Konkurenz zur 4870 werden... nur würden da imo mehr als 100 Mhz Shadertakt fehlen.....

wenn's denn so wäre, würde Nvidia seinen eigenen Karten Konkurenz machen. gtx 260 (216).

AnarchX
2009-02-11, 21:11:39
Am Limit läuft ein aktueller G92b wohl kaum:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index13.php
http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0

Da sollte durchaus Potential sein um in Richtung 800MHz ROPs und 2000MHz Shader zu gehen, mit dem mittlerweile gereiften Die.

Aber die Zotac 9800GTX+, die sich als GTS 250 ausgibt, die bei CB aufgetaucht ist, spricht eher gegen diese Spekulation.

reunion
2009-02-11, 21:23:43
World First – ASUS N81Vg Features the New NVIDIA® GeForce™ GT 120M Graphics Processor
http://www.asus.com/news_show.aspx?id=14282

Marketing kann so einfach sein. :ugly:

Wer es nicht weiß, das Ding ist eine stink normale 9600GTm aka 9500GT.

KonKorT
2009-02-11, 22:58:15
Fuad schrieb doch auch jüngst, dass man diverse G9x-Produkte (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11868&Itemid=65) auf 40 nm shrinken wolle.

Ich persönlich glaube zwar absolut nicht daran, dass sie G92b - dann wahrscheinlich G92c ;) - noch auf 40 nm bringen, aber in puncto Performance pro Watt und pro Quadratmilimeter sollte sich so eine Lösung gar nicht mal schlecht stehen. Aber man würde natürlich indirekt damit anerkennen, dass die G200 noch nicht reif war/ist für den Markt.
Die weltweite Wirtschaftskrise und die heute offengelegten Zahlen lassen diese Überlegung vielleicht zu. Von Prozessoren kennt man es ja schon, dass man gerne für was neues mal einen Schwenk zurück macht. =)

Die gelbe Eule
2009-02-12, 22:28:12
Eine 40nm 9800GTX+ wäre sehr geil, gerade für einen 100€ Kurs.

Nightspider
2009-02-12, 22:32:41
Wäre zumindest interessant für Notebooks...

AnarchX
2009-02-14, 09:53:05
GTS 250 GPUs $20 billiger als 9800GTX+ GPUs für die Partner:
http://vr-zone.com/articles/cheaper-geforce-gts-250-cards-available-on-march-3rd/6576.html?doc=6576

AnarchX
2009-02-17, 08:04:13
Nvidia plans faster G92b (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12000&Itemid=1)

Wie soll das gehen? Das Ding läuft schon am Limit und hat nicht umsonst einen Riesenkühler (kommt mir bitte nicht mit irgendwelchen Sonderversionen oder eigenen Übertaktungsversuchen), woher sollen jetzt noch weitere 100 MHz kommen (selbst wenn es "nur" der Shadertakt ist)?
Da hat wohl Fuad etwas durcheinander gebracht:

GTS 240 Is NOT Equal to 9800GT

However, GTS 240 still has much to do with 9800GT. Firstly, GTS 240 is a high-frequency edition of 9800GT. The core/shader/memory clock of GTS 240 is 675/1688/2200MHz, compared with 600/1500/1800MHz found on 9800GT, so we can say it has improved a lot.
http://en.expreview.com/2009/02/17/gts-240-is-not-equal-to-9800gt.html

AnarchX
2009-02-23, 16:47:24
Bei der GTS 250 wird es wohl nun auch 1GiB Karten mit 1.1GHz Speichertakt geben bzw. wird wohl 1GiB Speicher hier die Referenzausstattung sein:
3/3 – Reviews go live of GTS 250 1GB fast boards (738/1100)

3/10 – GTS 250 1GB fast boards (738/1100) and 512MB boards available for sale.

3/17 – GTS 250 1GB slow boards (738/1000) available for sale.

NOTE: The older slow 1GB (1000MHz memory) boards should not go on sale till after 3/17. The only exceptions are if partners can overclock the memory on these to hit 1100MHz.
http://www.hardware.fr/news/10101/geforce-gts-250-9800-gtx-des-3-mars.html

Die gelbe Eule
2009-02-23, 17:08:30
Dann sollten ja bei der GTS250 850MHz zu schaffen sein ohne Probleme, sind ja nur 10% und daher moderat. Mit einem Shadertakt von 1.8Ghz geht bestimmt so einiges.

GeneralHanno
2009-02-23, 17:51:58
man versucht wohl bei nvidia die preise stabil zu halten aber die leistung eine stufe herauf zu setzen.

Gast
2009-02-23, 17:57:06
man versucht wohl bei nvidia die preise stabil zu halten aber die leistung eine stufe herauf zu setzen.
Macht auch Sinn, erstmal ist es wichtig überhaupt anständig Gewinne einzufahren.

AMD wird schon bald genug dafür sorgen, das es wieder Verluste hagelt.

=Floi=
2009-02-23, 18:00:56
warum sollte man sich noch so eine karte kaufen, wenn es auch bei NV schnellere modelle gibt? Die neuen 40nm chips stehen nauch vor der tür!

Gast
2009-02-23, 18:02:20
Und was bringen dir die 40nm?
Einen lauteren Kühler, weil der Die kleiner ist?

Zockerfrettchen
2009-02-23, 19:34:19
Ne, mehr Leistung, weniger Verlustleistung, hoffendlich leisere Kühler da der Die kühler bleibt.
Mfg Zockerfrettchen

Die gelbe Eule
2009-02-23, 22:02:12
Die GTS250 wird es eh als 40nm Variante geben, ist ja nichts neues.

Gast
2009-02-23, 22:28:41
Ne, mehr Leistung, weniger Verlustleistung, hoffendlich leisere Kühler da der Die kühler bleibt.

Mehr Leistung? Woher, aus dem Märchenland? Mehr Einheiten wachsen dem Chip nicht, bei gleichem Takt ist Wayne.

Weniger Verlustleistung, ja träumen darf man ruhig, nur nicht entäuscht sein, wenns nur Kosten spart, er könnte sogar mehr verbrauchen.

Leisere Kühler wird schwer, bei kleinerem Die muss der Kühler bei selber Verlsutleistung schon mehr ackern, blöd das noch am Kühler gespart wird.

deekey777
2009-02-23, 23:07:21
warum sollte man sich noch so eine karte kaufen, wenn es auch bei NV schnellere modelle gibt? Die neuen 40nm chips stehen nauch vor der tür!
Darum kommen die umbenannten Modelle in den nächsten Wochen, weil 40nm-Modelle vor der Tür stehen?

Gast
2009-02-24, 08:07:43
Natürlich.
Die ersten neuen Karten kommen mit 55nm GPUs daher, kurz darauf werden 40nm beigemischt.
Dadurch rennen die Kids nicht wie verückt in den Laden und kaufen wie bekloppt 40nm und lassen die gleichguten oder besseren 55nm Karten nicht stehen.

Naja, zumindest in einigen Foren bricht wieder die Panik aus, 40nm wie geil.
Braucht jeder. Egal ob die Karten an allen Ecken mieser verarbeitet sind oder der Shrink 0 bringt.

Diese Shrink Geilheit ist pervers.
Dafür kann hinterher Nvidia gebasht werden, weil 40nm nichts bringen. Gut, Nvidia hat damit gar nicht geworben, ganz im Gegenteil, aber egal.

GeneralHanno
2009-02-24, 10:58:37
also wenn wir in Q2 noch 40nm chips sehen, dann sind es mainstream- und einsteigermodelle wie der GT218, GT216 und bei ATi RV740.

dargo
2009-02-24, 11:10:59
Weniger Verlustleistung, ja träumen darf man ruhig, nur nicht entäuscht sein, wenns nur Kosten spart, er könnte sogar mehr verbrauchen.

Eine GTX260 mit 55nm verbraucht bei Last ca. 23% weniger als die 65nm Schwester. Es gibt genug Beispiele wo ein Dieshrink auch die Verlustleistung senkt.

AnarchX
2009-02-24, 14:41:08
Jetzt darf sich G92 nach 8800M-GTX, 9800M-GTX wohl nun auch GTX 280M nennen:
Two new GTX 280M and 260M are based on the G92b 55nm chip and they bring a few cool things, such as 256-bit memory support and up to 128 stream units to notebook market. Nvidia expects that the new chip will be as much as 30 percent faster than Mobility Radeon HD 4870 and significantly faster than 9800 GTX M.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12222&Itemid=34

30% gegenüber einem RV770@550/600MHz mit 1.8GHz GDDR5 sind aber auch nicht ganz ohne.:|
Entweder es handelt sich hier um sehr ausgewählte Benchmarks oder man fährt hier 98GTX+ Taktraten auf.

Zudem hatte ein Notebookhersteller mal eine "nVidia G280 DDR5 " gelistet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7079004#post7079004

reunion
2009-02-24, 14:53:36
30% mehr als ein RV770 mit 550/700 GDDR5 ist vollkommen unrealistisch. Denn ein solcher RV770 sollte dank GDDR5 locker >4850 Leistung erreichen, und dazu braucht es bereits mehr als eine 9800GTX+.

AnarchX
2009-02-24, 15:02:17
Da hat man vielleicht ein paar PhysX-Games mit eingerechnet.:D

Die Info, dass sie auf G92 basiert stimmt aber offensichtlich:
[DEV_060A] NVIDIA GeForce GTX 280M
[DEV_060B] NVIDIA GeForce 9800M GT
[DEV_060C] NVIDIA GeForce 8800M GTX

reunion
2009-02-24, 15:07:33
Habe ich ja weiter hinten schon spekuliert als besagte G280 DDR5 besprochen wurde. Ein GT200 ist viel zu groß für ein Notebook. Aber wieder mal sehr dreist hier einfach einen G92 zu nehmen und ihn GTX280M zu nennen. Die 30% über 4870M Leistung kann da allerdings nicht mal annähernd hinkommen, denn dazu bräuchte es schon fast eine echte GTX280.

PCGH_Carsten
2009-02-24, 15:42:10
Taktet die 4870M nicht mit 550 statt 750 MHz wie die Desktop-Karte?

reunion
2009-02-24, 15:46:29
Ja, Brainfault. Es wird trotzdem nicht reichen, denn für 30% mehr bräuchte man die Leistung eines RV770 mit 715/910. Also fast 4870 Desktop-Speed.

AnarchX
2009-02-24, 15:47:38
Taktet die 4870M nicht mit 550 statt 750 MHz wie die Desktop-Karte?
Laut AMD 550MHz GPU und 900MHz Speicher, wobei es auch eine Angabe von 89.6GB/s gab. ASUS hat sie im W90 jedenfalls mit 600/900MHz laufen. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443680)

Aber da hat reunion schon recht, 30% sind da etwas illusionistisch. Wenn dann geht das wohl nur, wenn man, wie gesagt ein paar PhysX-Games einrechnet, wo die 4870M mangels Untersützung sich <10FPS bewegt.:D

Wobei seltsam ist dass man gegenüber der 98M-GTX (112SPs) einen noch deutlichere Leistungzuwachs verspricht. :|

KonKorT
2009-02-24, 16:00:53
In der AMD-Pressemitteilung (http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543_15944~129750,00.html) steht ...

3. The ATI Mobility Radeon™ HD 4870 (680e/700m GDDR5, 1GB) has up to 1.8x faster performance over ATI Mobility Radeon™ HD 3870 (660e/850m GDDR3, 512MB). Performance measurements based on Puma reference platform (780 mobile), 2.4GHz Turion™ Ultra CPU, 2GB DDR-2 Ram, Windows Vista Ultimate 32-bit SP1, ATI Driver: 8.53 RC3.

und ...

7. The ATI Mobility Radeon™ HD 4870 (550e/700m, GDDR3, 1GB) delivers more than 60% performance per watt improvement over the ATI Mobility Radeon™ HD 3870: Performance measurements based on 3DMark Vantage (P) scores – on Puma platform, Turion™ Ultra 2.4 GHz, 2GB DDR2-800, Windows Vista SP1 32-bit.

Dachte daher bislang:
HD 4870: 680/700 MHz;
HD 4850: 550/700 MHz;

jeweils bei 800 SPs, 40 TMUs, 16 ROPs und 256 Bit SI versteht sich.

Hugo
2009-02-24, 16:22:43
Ich bin eher skeptisch das ein G92 verbaut wird. Er kann doch gar kein GDDR5 ansteuern. Oder etwa doch?

Wenn es doch ein G92 mit GDDR5 sein sollte is es doch eigentlich total egal wie die Karte heißt. Solange er 30% schneller is als RV770.
Hätte NV den Chip intern auch umbennant (ala GT20x) würde sich keiner drüber aufrgegen.
Entscheident is dass er schneller is als die alte 9800M-GTX und nen vernünftigen Preis hat.

Es scheint ja keine einfache Umbenennung (ala 8800GT -> 9800GT) zu sein wenn er schneller wird.

PCGH_Carsten
2009-02-24, 16:51:27
Laut AMD 550MHz GPU und 900MHz Speicher, wobei es auch eine Angabe von 89.6GB/s gab. ASUS hat sie im W90 jedenfalls mit 600/900MHz laufen. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443680)

Aber da hat reunion schon recht, 30% sind da etwas illusionistisch. Wenn dann geht das wohl nur, wenn man, wie gesagt ein paar PhysX-Games einrechnet, wo die 4870M mangels Untersützung sich <10FPS bewegt.:D

Wobei seltsam ist dass man gegenüber der 98M-GTX (112SPs) einen noch deutlichere Leistungzuwachs verspricht. :|
WEnn diese 30% von Nvidia kommen, dann ist doch klar, dass man das mit einer Prise Salz genießen sollte.

Was verspricht man denn ggü. der 9800M GTX? Und vor allem: In welchen Szenarien…

Sorkalm
2009-02-24, 17:08:30
30% gegenüber einem RV770@550/600MHz mit 1.8GHz GDDR5 sind aber auch nicht ganz ohne.:|
Entweder es handelt sich hier um sehr ausgewählte Benchmarks oder man fährt hier 98GTX+ Taktraten auf.

Die Aussage passt mit G92 gar nicht zusammen. Selbst mit 98GTX+-Taktraten ist man nur ungefähr auf dem Niveau einer Desktop 4850, die hat 625/1000. Wenn die Mobility 4870 bei 550/1800 bis 600/1800 liegt, ist man auch dann keine 30% schneller. Zumal ich 9800 GTX+ Taktraten erstmal sehen will.

Zudem hatte ein Notebookhersteller mal eine "nVidia G280 DDR5 " gelistet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7079004#post7079004

GDDR5!?

Tarkin
2009-02-24, 17:16:26
Jetzt darf sich G92 nach 8800M-GTX, 9800M-GTX wohl nun auch GTX 280M nennen:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=12222&Itemid=34

30% gegenüber einem RV770@550/600MHz mit 1.8GHz GDDR5 sind aber auch nicht ganz ohne.:|
Entweder es handelt sich hier um sehr ausgewählte Benchmarks oder man fährt hier 98GTX+ Taktraten auf.

Zudem hatte ein Notebookhersteller mal eine "nVidia G280 DDR5 " gelistet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7079004#post7079004


:| ... nVidia feiert anscheinend etwas zu heftig Karneval!

vollkommen PLEM-PLEM!

Gast
2009-02-24, 17:32:38
Was stört dich, die im Mobile Bereich übliche Namensgebung oder die internen Performance Angaben?

Tarkin
2009-02-24, 17:47:53
Was stört dich, die im Mobile Bereich übliche Namensgebung oder die internen Performance Angaben?

Beides.

Nvidia gibt alten Mittelklasse Chips im Notebook-Segment plötzlich Namen von High-End Desktop-Karten. Das ist höchstgradig lächerlich (hat ATi meines Wissens nie gemacht - das wäre so als würde ein RV670 plötzlich als 4870 (RV770) verkauft... ziemlich doof, oder?)

Die Leistungsangaben lassen nämlich was vollkommen anderes erahnen. +30% ... nicht einmal im Desktop-Segment ist eine GTX 280 um soviel schneller als eine 4870.

Ergo ist es doppelt idiotisch.

LovesuckZ
2009-02-24, 17:55:24
Nvidia gibt alten Mittelklasse Chips im Notebook-Segment plötzlich Namen von High-End Desktop-Karten. Das ist höchstgradig lächerlich (hat ATi meines Wissens nie gemacht - das wäre so als würde ein RV670 plötzlich als 4870 (RV770) verkauft... ziemlich doof, oder?)

AMD verkauft nur Mittelklassechips und nichtmal da können sie 1:1 liefern. Der Kunde erwartet 4870 Leistung erhält noch nichtmal 4850 Speed dafür.
Ich wette, du wärst auch der erste, der einen zurechtgestutzen G200 mit dem Namen GTX280M kritisieren würde.

PCGH_Carsten
2009-02-24, 18:01:19
Das ist höchstgradig lächerlich (hat ATi meines Wissens nie gemacht - das wäre so als würde ein RV670 plötzlich als 4870 (RV770) verkauft... ziemlich doof, oder?)
Die Radeon Mobility 9700 basierte auf dem RV350/360.

AMD verkauft nur Mittelklassechips und nichtmal da können sie 1:1 liefern. Der Kunde erwartet 4870 Leistung erhält noch nichtmal 4850 Speed dafür.
Doch, das dürfte schon passen. Die Speicherbandbreite ist bei der mobilen Version deutlich höher als bei der Desktop-HD4850 (einer ihrer Flaschenhälse).

Gast
2009-02-24, 18:22:18
Nvidia gibt alten Mittelklasse Chips im Notebook-Segment plötzlich Namen von High-End Desktop-Karten. Das ist höchstgradig lächerlich (hat ATi meines Wissens nie gemacht - das wäre so als würde ein RV670 plötzlich als 4870 (RV770) verkauft... ziemlich doof, oder?)
Du irrst.
Die mobile Versionen waren immer, teils sogar deutlich, langsamer als ihre Desktop Brüder.

Gutes Beispiel wären:
Mobile X1. Statt High-End RV580 gabs einen RV570.
Mobile X2. Zum R600 Release gabs hier RV515-RV535.

Da ist eine 40% langsamere mobile GTX 280 doch voll ok?

Tarkin
2009-02-24, 18:54:49
AMD verkauft nur Mittelklassechips und nichtmal da können sie 1:1 liefern. Der Kunde erwartet 4870 Leistung erhält noch nichtmal 4850 Speed dafür.
Ich wette, du wärst auch der erste, der einen zurechtgestutzen G200 mit dem Namen GTX280M kritisieren würde.

Nein, würde ich nicht... weil 1:1 Leistungs gibts sowieso praktisch NIE im mobilem Segment.

Aber im Gegensatz zu nVidia belügt ATi die Kunden nicht. Was meinst du was ein 280M Käufer von dem Ding erwartet? Na ich schätze mal SICHER NICHT 9800GTX Geschwindigkeit, oder?? (vorausgesetzt sie schaffen es den Chip bzw. Speicher überhaupt soweit zu takten... ich bezweifle es!).

Ich finde es legitim im mobilen Segment die Namen beizubehalten (für Chips der gleichen Generation wohl gemerkt!) . auch etwas geringer getaktete Chips sind okay (die Laufzeiten wären sonst komplett im Arsch!). Aber einen über 2 Jahre alten Chip als High End für Notebooks zu verticken ist eine Frechheit... das kann man überhaupt nicht schönreden!

Gleiches gilt natürlich bzgl. Mobility Radeon 9700 - war auch Bullshit!

Aber bei Mobility X1 und X2 entsprachen die Mobile-Chips den Desktop-Parts. Dass die Taktraten bei GPU und Speicher abweichen ist nicht ungewöhnlich.

http://www.pc-erfahrung.de/grafikkarte/vga-grafikchips-mobi/ati-radeon-x1800-mob.html

http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-X2-Serie

Tarkin
2009-02-24, 18:57:04
Du irrst.
Die mobile Versionen waren immer, teils sogar deutlich, langsamer als ihre Desktop Brüder.

Gutes Beispiel wären:
Mobile X1. Statt High-End RV580 gabs einen RV570.
Mobile X2. Zum R600 Release gabs hier RV515-RV535.

Da ist eine 40% langsamere mobile GTX 280 doch voll ok?

es gab auch nie eine Mobility Radeon 2900 ;)

GeneralHanno
2009-02-24, 19:13:06
also was "marketing-technische-umbenennungen" angeht nehmen sich beide hersteller nicht viel, auch wenn nvidia es neuerdings doch etwas auf die spitze treibt (und es ist sehr wohl gewollt dass notebookchips vom ruhm ihres namensvetter profitieren). für den durchschnittlichen MM kunden ist sowas natürlich ärgerlich, da er viel bezahlt und weniger als erhofft bekommt, aber als 3dc-user kann man daraus auch seine vorteile schlagen (wenn z.b. die "veralteten 8800GT" ver-schuss-kauft wird ;)

LovesuckZ
2009-02-24, 19:50:53
Aber im Gegensatz zu nVidia belügt ATi die Kunden nicht. Was meinst du was ein 280M Käufer von dem Ding erwartet? Na ich schätze mal SICHER NICHT 9800GTX Geschwindigkeit, oder?? (vorausgesetzt sie schaffen es den Chip bzw. Speicher überhaupt soweit zu takten... ich bezweifle es!).

Genau und dann kauft er sich ein Book mit einer 4870 und muss feststellen, dass er im schlimmsten Fall nichtmal auf 4850 Leistung kommt. Ja, der wird sich freuen. :rolleyes:
Und anscheinend kann der Leistungsunterschied zwischen einer 4870M und 4870 genauso groß sein wie zwischen einer GTX280M und einer GTX280.


Ich finde es legitim im mobilen Segment die Namen beizubehalten (für Chips der gleichen Generation wohl gemerkt!) . auch etwas geringer getaktete Chips sind okay (die Laufzeiten wären sonst komplett im Arsch!). Aber einen über 2 Jahre alten Chip als High End für Notebooks zu verticken ist eine Frechheit... das kann man überhaupt nicht schönreden!

Erstmal ist der G92 ein bissl mehr als ein Jahr alt und zweitens wird wohl nichtmal 1% der Käufer DP-Funktionalitäten benötigen. Und drittens scheint dieser "über 2 Jahre alte Chip" AMDs neue Generation im Notebooksektor überlegen zu sein.

also was "marketing-technische-umbenennungen" angeht nehmen sich beide hersteller nicht viel, auch wenn nvidia es neuerdings doch etwas auf die spitze treibt (und es ist sehr wohl gewollt dass notebookchips vom ruhm ihres namensvetter profitieren). für den durchschnittlichen MM kunden ist sowas natürlich ärgerlich, da er viel bezahlt und weniger als erhofft bekommt, aber als 3dc-user kann man daraus auch seine vorteile schlagen (wenn z.b. die "veralteten 8800GT" ver-schuss-kauft wird ;)

Ja, dass ist für den Media Markt Käufer tragisch, dass er keine DP Einheiten bekommt...

Hugo
2009-02-24, 20:31:55
Aber im Gegensatz zu nVidia belügt ATi die Kunden nicht. Was meinst du was ein 280M Käufer von dem Ding erwartet? Na ich schätze mal SICHER NICHT 9800GTX Geschwindigkeit, oder?? (vorausgesetzt sie schaffen es den Chip bzw. Speicher überhaupt soweit zu takten... ich bezweifle es!).


Bis jetzt gibts keine sicheren Info über die Geschwindigkeit.
Entscheident is doch was noch aus dem Chip rauszuholen ist. Wenn er wirklich schneller ist als der mobile RV770 dann is es mir egal ob da ein G92 oder ein GT2xx oder ein was weiß der Teufel was verbaut ist. Entscheident is ein geringer Stromverbrauch und schneller als 9800m-GTX.
Ehrlich gesagt reicht doch nen G92 @55nm + GDDR5 um ATI in Schach zu halten ;)
Der G200 is eh zu groß fürs Notebook

Tarkin
2009-02-24, 21:23:00
Genau und dann kauft er sich ein Book mit einer 4870 und muss feststellen, dass er im schlimmsten Fall nichtmal auf 4850 Leistung kommt. Ja, der wird sich freuen. :rolleyes:
Und anscheinend kann der Leistungsunterschied zwischen einer 4870M und 4870 genauso groß sein wie zwischen einer GTX280M und einer GTX280.


http://finance.yahoo.com/news/AMD-Launches-ATI-Mobility-bw-14011437.html

"3. The ATI Mobility Radeon™ HD 4870 (680e/700m GDDR5, 1GB)"

:rolleyes:

Also ich würde schon sagen dass die etwas schneller sein wird wie eine herkömmliche 4850. (vielleicht 10, 15% langsamer wie eine vollwertige 4870... wenn überhaupt). In den Regionen der "ur" GTX 260 also.

So, und um wieviel ist jetzt eine GTX+ langsamer wie eine 280 GTX? 30%, 40%?

Davon mal abgesehen... nVidia macht dem Kunden also ein X für ein U vor. Hier wird einem Mittelklassechip als High-End Siegel aufgedrückt. User werden hier klar in die Irre geführt.

Captain Future
2009-02-24, 21:40:22
Aber im Gegensatz zu nVidia belügt ATi die Kunden nicht.
Von einer HD2000 würde ich als Kunde DIRECTX10 erwarten:
http://ati.amd.com/de/products/mobilityradeonhd2300/specs.html


Und das ist auch geil: Die Mobility mal eben mit einer 1-Gig HD 4870 simulieren…
http://game.amd.com/us-en/content/images/unlock/radeon4800/MobilityBenchmarks.jpg

Gast
2009-02-24, 21:47:27
Und drittens scheint dieser "über 2 Jahre alte Chip" AMDs neue Generation im Notebooksektor überlegen zu sein.





Wo das denn? ;D

LovesuckZ
2009-02-24, 21:47:56
http://finance.yahoo.com/news/AMD-Launches-ATI-Mobility-bw-14011437.html

"3. The ATI Mobility Radeon™ HD 4870 (680e/700m GDDR5, 1GB)"

:rolleyes:

http://www.pcgameshardware.de/&menu=browser&image_id=960735&article_id=672530&page=1&show=original

:rolleyes:


Also ich würde schon sagen dass die etwas schneller sein wird wie eine herkömmliche 4850. (vielleicht 10, 15% langsamer wie eine vollwertige 4870... wenn überhaupt). In den Regionen der "ur" GTX 260 also.

Werden wir sehen.


Davon mal abgesehen... nVidia macht dem Kunden also ein X für ein U vor. Hier wird einem Mittelklassechip als High-End Siegel aufgedrückt. User werden hier klar in die Irre geführt.

Für dich nochmal: Der Mittelklassechip wird anscheinend der schnellste Single-Chip im Notebookmarkt. Ist es nicht wesentlich bedauernswerter, dass AMD's High-End Chip diesen nicht schlagen kann? :rolleyes:
Schon lustig, dass der Kunde getäuscht wird. Bis auf DP untersützt der G92 alles, was auch der GT200 hat - CUDA, PhysX, 3DVision, AA und AF Modi etc. Ob da ein GT200 drin steckt oder ein G92(b) macht für den Kunden keinen Unterschied. Und die, die DP benötigen, sind die einzigen, die sich beschweren können. Aber das sind nichtmal 1% der Käufer.
Du solltest liebers AMD geißeln, die einen 4870 verkaufen, der anscheinend nichtmal annährend die Leistung erbringt. Kehre also erstmal vor AMD's Tür, bevor du zum Nachbarn gehst.

Captain Future
2009-02-24, 21:54:09
http://www.pcgameshardware.de/&menu=browser&image_id=960735&article_id=672530&page=1&show=original

:rolleyes:
Auf der AMD-Seite wo ich den Benchmark gefunden habe steht aber auch 680M/700E. Vielleicht haben die doch bessere ERgebnisse mit dem Chip erziehlt?

LovesuckZ
2009-02-24, 22:20:00
Auf der AMD-Seite wo ich den Benchmark gefunden habe steht aber auch 680M/700E. Vielleicht haben die doch bessere ERgebnisse mit dem Chip erziehlt?

Ich kenn nur das: http://www.pcgameshardware.de/aid,672530/Ati-Radeon-HD-4000-Mobility-Bilder-der-MXM-Module-Benchmarks-und-alle-Detail-Specs/Notebook-Netbook-Handy/News/

Auf der AMD Seite finde ich keine Angaben zur Taktung.

Captain Future
2009-02-24, 22:23:48
http://game.amd.com/us-en/unlock_4000mob.aspx
Steht iim Kleingedruckten!

Gast
2009-02-24, 23:15:04
auch etwas geringer getaktete Chips sind okay
Also weniger Leistung ist ok. Diese Karte hätte weniger Leistung, wo ist das Problem?


Dass die Taktraten bei GPU und Speicher abweichen ist nicht ungewöhnlich.Sondern die Regel. Hier weichen eben mal die Einheitenanzahl ab, oha wie gemein, schade das dem Kunden egal ist, warum hier Leistung fehlt.


Aber einen über 2 Jahre alten Chip als High End für Notebooks zu verticken ist eine Frechheit... Im übrigen bist du es der lügt.
2 Jahre, na leg mal los wie du darauf kommst.
Ich zähle 1/2 Jahre für G92b.
Dem Kunden ists übrigens egal, wie alt Chips sind, Leistung/€/Watt zählen. Da steht die Konkurrenz nicht besser da, im Gegenteil, 6 Jahre alte BQ abzuliefern ist sehr frech.

Gast
2009-02-24, 23:19:15
So, und um wieviel ist jetzt eine GTX+ langsamer wie eine 280 GTX? 30%, 40%?

Du hast uns gerade X mal erklärt, das soetwas normal ist und noch nicht mal besonders viel, bezogen auf frühere Karten.

Was ist jetzt das Problem?

Tarkin
2009-02-25, 13:50:09
Du hast uns gerade X mal erklärt, das soetwas normal ist und noch nicht mal besonders viel, bezogen auf frühere Karten.

Was ist jetzt das Problem?

Ich gebe es auf... wenn es dir nichts ausmacht dich von nvidia verarschen zu lassen, dann bitte.

aber es gibt vielleicht andere Leute (so wie ich z.b.), die bei einem Notebook mit der Aufschrift GTX 280M EVENTUELL einen G200 Chip erwarten und KEINEN alten 92b.

Bei ATi bekomme ich was draufsteht - zumindest was diese Generation angeht. Sie haben es auch nicht nötig weil die Chips klein und sparsam genug sind sie für notebooks zu adaptieren... was nvidia mit dem g200 offensichtlich (noch) nicht geschafft hat - und darum einfach einem g92b das Label GTX 280 aufdrückt...

Es ist und bleibt - egal wer das macht - eine gezielte Irreführung der Kunden.

Gast
2009-02-25, 13:58:37
aber es gibt vielleicht andere Leute (so wie ich z.b.), die bei einem Notebook mit der Aufschrift GTX 280M EVENTUELL einen G200 Chip erwarten und KEINEN alten 92b.

Schon wieder falsch, GT200 und G92b sind gleich alt.

Mir als Kunde gehts am Arsch vorbei, wie die Leistung erzeugt wird, Hauptsache sie ist da.
Das sie da ist, hast du oft genug erklärt.


Ich gebe es auf... Du hast noch nicht mal begonnen, zu erklären warum es schlimm ist.

GeneralHanno
2009-02-25, 14:35:06
*hust*
troll und fanboy allarm ... :frown:

Gast
2009-02-25, 14:36:27
Das was du hier verbreitest, kann max. deine Meinung sein. Ich kann dir aber versichern, dass sich sehr viele verarscht fühlen.
Es ist Irreführung. Wenn du das nicht kapierst, dann kauf dir bitte ein paar tolle ABS oder andere verpackte Hypothekenkredite, das Vorgehen ist vom Prinzip her ähnlich.

KonKorT
2009-02-25, 15:19:29
Um etwas Licht ins Dunkel bezüglich "Nvidia expects that the new G92b chip will be as much as 30 percent faster than Mobility Radeon HD 4870 and significantly faster than 9800M GTX." zu bringen:

Nvidia spricht selbst von bis zu 30%. Anders ausgedrückt: Nur in einem Game trifft dies zu; es sollte nicht allzu schwer zu erraten sein welches. ;)

Und ja, GTX 280M und GTX 260M sind tatsächlich G92b.

Gast
2009-02-25, 15:24:52
alles doch egal...

Viel interessanter ist doch die Angabe DDR5, kann der G92 jetzt plötzlich mit GDDR5 umgehen oder ist das nur ein Fehler!?!?

KonKorT
2009-02-25, 15:33:47
Kein GDDR5-Speicher.

Gast
2009-02-25, 17:07:05
aber es gibt vielleicht andere Leute (so wie ich z.b.), die bei einem Notebook mit der Aufschrift GTX 280M EVENTUELL einen G200 Chip erwarten und KEINEN alten 92b.


derjenige der das erwartet weiß weder was ein G200 noch ein G92 ist.

um einen bestimmten chip erwarten zu können muss man überhaupt von dessen existenz wissen, und jemand der so gut informiert ist um die unterschiede zwischen G200 und G92 zu kennen weiß genauso gut welcher wo verbaut ist.

ich stimme dir durchaus zu, dass sicher genügend kunden von einer GTX280M die leistung einer 280GTX@Desktop erwarten, genauso wie kunden einer 4870M die leistung einer 4870@Desktop erwarten.

erfüllt wird es in beiden fällen bei weitem nicht, ob das durch fehlende taktrate, deaktivierte einheiten oder einer anderen hardware zustande kommt ist da ziemlich nebensächlich.

fakt ist, der kunde der nach kartennamen kauft wird in beiden fällen verarscht. der informierte kunde der nach chipnamen kauft weiß was ihn erwartet und wird dementsprechend auch nicht verarscht.

Gast
2009-02-25, 17:10:24
30% mehr als ein RV770 mit 550/700 GDDR5 ist vollkommen unrealistisch. Denn ein solcher RV770 sollte dank GDDR5 locker >4850 Leistung erreichen, und dazu braucht es bereits mehr als eine 9800GTX+.

wenn GDDR5 stimmt garnicht mal so unrealistisch, GPUs die mit niedriger spannung und trotzdem guten taktraten laufen können sollten mittlerweile genug produziert sein, da dürfte in etwa ein gleichstand im durchschnitt und natürlich bis zu 30% mehrperformance in einzelfällen durchaus drinnen sein.

Tarkin
2009-02-26, 12:36:19
ich stimme dir durchaus zu, dass sicher genügend kunden von einer GTX280M die leistung einer 280GTX@Desktop erwarten, genauso wie kunden einer 4870M die leistung einer 4870@Desktop erwarten.

erfüllt wird es in beiden fällen bei weitem nicht, ob das durch fehlende taktrate, deaktivierte einheiten oder einer anderen hardware zustande kommt ist da ziemlich nebensächlich.

fakt ist, der kunde der nach kartennamen kauft wird in beiden fällen verarscht. der informierte kunde der nach chipnamen kauft weiß was ihn erwartet und wird dementsprechend auch nicht verarscht.

Das ist Blödsinn, tut mir leid.

Der Punkt ist der, dass man bei ATi eben schon bekommt was draufsteht... bei nVidia eben NICHT. Möchte echt mal wissen was da so schwer zu kapieren ist?

Die Mobile 4870 erreicht ca. 85 bis 90% der Leistung einer Desktopkarte... die 280M BEI WEITEM NICHT!

Sieh hier: http://www.fudzilla.com/index.php?option=com_content&task=view&id=12273&Itemid=1

ganz toll... eine auf 600MHz heruntergetaktete 9800GTX+. Sogar weniger GPU/Shader Takt wie eine alte 8800 GTS (G92). Das ist praktisch nur einen Hauch schneller als eine 8800 GT/ 9800GT/ GTS 240

Also nur etwa HALB so schnell wie eine GTX 280. Und sicher nicht 30% schneller wie eine 4870 Mobility.... eher 30% langsamer.

Sind doch toll diese ständigen Namensänderungen, nicht war?? :rolleyes: :|

(frag mich bloss nicht warum der letzte Satz entfernt wurde; es geht auch ohne solche Turnereien) -AiL

Gast
2009-02-26, 12:52:20
Der Punkt ist der, dass man bei ATi eben schon bekommt was draufsteht... bei nVidia eben NICHT.Was steht den drauf?
A: GTX 280M
B: 4870 Mobile

A: 562 GFLOP/s vs 933 GFLOP/s der GTX 280
B: 880 GFLOP/s vs 1200 GFLOP/s der 4870

A macht 60% der Desktopleistung.
B macht 73% der Desktopleistung.

A ist Verarsche hoch drei 1337!!!!!1111
B ist super toll, steht außer Diskussion.


Die Mobile 4870 erreicht ca. 85 bis 90% der Leistung einer Desktopkarte... die 280M BEI WEITEM NICHT!73%

reunion
2009-02-26, 13:06:39
Der Punkt ist das es ein völlig anderer Chip ist. Bei AMD werden nur die Taktraten gesenkt um den Stromverbrauch in Rahmen zu halten, bei NV sind die mobilen Chips trotz identischer Namen zum Desktop in keinster Weise vergleichbar.

wenn GDDR5 stimmt garnicht mal so unrealistisch, GPUs die mit niedriger spannung und trotzdem guten taktraten laufen können sollten mittlerweile genug produziert sein, da dürfte in etwa ein gleichstand im durchschnitt und natürlich bis zu 30% mehrperformance in einzelfällen durchaus drinnen sein.

G92 hat mit an Sicherheit grenzender Wahrscheinlichkeit keinen GDDR5 MC.

Sorkalm
2009-02-26, 13:26:28
A macht 60% der Desktopleistung.
B macht 73% der Desktopleistung.

A ist Verarsche hoch drei 1337!!!!!1111
B ist super toll, steht außer Diskussion.

Der Vergleich ist Schwachsinn, anhand der GFLOPs die Leistung ableiten zu wollen. Mach das gleiche bitte noch mal mit der Speicherbandbreite (950 MHz GDDR3 vs. 1800 MHz GDDR5) - ist ja fast das gleiche... ;D

Abgesehen davon: G92 und GT200 GFLOPs kann man auch nicht direkt vergleichen.

Ailuros
2009-02-26, 13:28:01
Der Punkt ist das es ein völlig anderer Chip ist. Bei AMD werden nur die Taktraten gesenkt um den Stromverbrauch in Rahmen zu halten, bei NV sind die mobilen Chips trotz identischer Namen zum Desktop in keinster Weise vergleichbar.

Die insgesamte Strategie im Schlepptop Markt kastrierte GPUs mit gleichen desktop GPU Namen zu verpassen stinkt so oder so. Diese Taktik haetten sich die IHVs schon seit Jahren sparen koennen.

Wie man es auch verdreht verdient die 280M GPU nicht ihren Namen und dabei ist es eigentlich scheissegal ob das Ding jetzt die DP Faehigkeiten wie die waschechten GT2x0 chips haben oder nicht. Was macht Euch denn ueberhaupt so zuversichtlich dass ein GT200 Mobile Ableger schneller gewesen waere als dieses Dingsbums ueberhaupt?

Gast
2009-02-26, 14:02:24
Der Punkt ist das es ein völlig anderer Chip ist.
Chipnamen haben mit Kartennamen 0 zu tun.

Der Vergleich ist Schwachsinn, anhand der GFLOPs die Leistung ableiten zu wollen.
Natürlich, aber es ist einfach.
Ich habe gerade keine Lust, Pixel/Texelfüllrate, Bandbreite, Speichermenge miteinander zu vergleichen, kannst du ruhig machen.

Mach das gleiche bitte noch mal mit der Speicherbandbreite (950 MHz GDDR3 vs. 1800 MHz GDDR5) - ist ja fast das gleiche...
Hä, was willst du mir sagen?
1800 Mhz GDDR5 gibts übrigens nicht.

TobiWahnKenobi
2009-02-26, 14:03:41
vielleicht gehts bei der namensgebung weniger um irreführung und vergleichbarkeit mit den desktopmodellen, als viel mehr um das einhalten der hierarchie.


(..)

mfg
tobi

Sorkalm
2009-02-26, 14:08:22
Natürlich, aber es ist einfach.
Ich habe gerade keine Lust, Pixel/Texelfüllrate, Bandbreite, Speichermenge miteinander zu vergleichen, kannst du ruhig machen.

Ja, man sollte nur sehen das High-End-Produkte meist auch in "Notebook-High-End"-Szenarien eingesetzt werden wollen. Hier könnte die Bandbreite des G92b doch deutlich begrenzen.

Hä, was willst du mir sagen?

Siehe oben. :)

1800 Mhz GDDR5 gibts übrigens nicht.

Doch, die Desktop 4870 hat auf jeden Fall 1800 MHz I/O-, oder wenn du das besser findest 900 MHz Commandtakt. Die Mobility bekommt hier ähnliche Taktraten. Auch wenn sicherlich Chiptakt fehlt...

Nakai
2009-02-26, 14:16:53
Chipnamen haben mit Kartennamen 0 zu tun.

Es ist relativ irrelevant. Die derzeitigen Namensschemas sind alle falsch. Man kann Chips Leistungstechnisch und technologisch kaum zueinander einordnen. Da ist weder ATI noch NV besser, aber NV geht hier deutlich dreister ans Werk und übertreibt es derzeit leider.

Natürlich, aber es ist einfach.
Ich habe gerade keine Lust, Pixel/Texelfüllrate, Bandbreite, Speichermenge miteinander zu vergleichen, kannst du ruhig machen.


Ein Kunde kann sich bis auf die Speichermenge nichts unter den Bezeichnungen vorstellen. Dem informierten Hardwarejunkie sind die Bezeichnungen egal, er weiß was hinter der Karte und dem Chip steckt. IMO sollten die Hersteller ein internes Leistungsrating einführen. z.B.: Ati Radeon "Generationsnummer" "Leistungsrating". Zu Grafikchips anderer Hersteller kann man dennoch schwer einen Bezug herstellen.



mfg Nakai

Gast
2009-02-26, 14:36:00
Ja, man sollte nur sehen das High-End-Produkte meist auch in "Notebook-High-End"-Szenarien eingesetzt werden wollen. Hier könnte die Bandbreite des G92b doch deutlich begrenzen.

Das hättest du auch gleich einfacher ausdrücken können.

GTX 280M vs GTX 280
562 GFLOP/s vs 933 GFLOP/s -> 60% der Desktopkarte
60,8 GB/s vs 141 GB/s -> 43% der Desktopkarte
37,4 GTexel/s vs 51,8 GTexel/s - 72% der Desktopkarte
9360 MPixel/s vs 19264 MPixel/s - 49% der Desktopkarte
1GiB vs 1GiB -> 100% der Desktopkarte

Macht in der Mitte 65% der Leistung der GTX 280.
Genau darauf wird rum geritten, die einen meinen 75% sind die Sache und 65% sind schrott, mir streubt sich da alles.

(Zu schade, das Spasstiger uns nicht mit seiner Rechnung beglückt.)
Natürlich ist nicht alles genauso wichtig, VRAM Größe ist weitaus wichtiger als die Texelfüllrate und und und.

Achja da wäre dann noch der Verbrauch, wie siehts da aus?

Hugo
2009-02-26, 15:17:22
warten wirs doch erstmal ab, hier entsteht schon wieder ein Streit der beiden Lager. Vielleicht verarscht uns NV wieder so wie sie es mit G80 auch hinbekommen haben