PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 300 - Nvidias neuster Streich! Oder... Wie zockt man am besten die Kunden ab.


AYAlf_2
2010-02-22, 18:07:48
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/februar/nvidia_geforce-300-karten/

ohne Worte!

Der einzige Sinn, der hinter solchen aktionen steht, ist den Kunden komplett zu verwirren. Was denkt sich Nvidia dabei? :freak:

mapel110
2010-02-22, 18:09:03
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439229&page=32&highlight=nvidia+umbenennen

Raff
2010-02-22, 18:26:43
Was denkt sich Nvidia dabei? :freak:

300 > 200

=> Kaufen, Marsch, Marsch!

MfG,
Raff

Godmode
2010-02-22, 18:35:23
Ich habe heute einem Freund beim Notebookkauf geholfen und es ist extrem hässlich was die GPU-Namen betrifft. Namen sind nur mehr Schall und Rauch. Wir haben dann die Bezeichnungen der entsprechenden Modelle in Google eingegeben und anhand der Daten GFlops etc. berechnet und verglichen.

Für normale Leute die sich nicht mit GPUs beschäftigen, ist das ein einziger undurchschauberer Dschungel geworden. Traurig...:rolleyes:

LovesuckZ
2010-02-22, 18:37:38
Ich habe heute einem Freund beim Notebookkauf geholfen und es ist extrem hässlich was die GPU-Namen betrifft. Namen sind nur mehr Schall und Rauch. Wir haben dann die Bezeichnungen der entsprechenden Modelle in Google eingegeben und anhand der Daten GFlops etc. berechnet und verglichen.

Für normale Leute die sich nicht mit GPUs beschäftigen, ist das ein einziger undurchschauberer Dschungel geworden. Traurig...:rolleyes:

Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html

Sentionline
2010-02-22, 18:46:04
Oh weia. Was für ein Titel.

Ist ATi wirklich besser? Gehen wir mal inne...HD5450, HD5570, HD5670, HD5750, HD5770, HD5830, HD5850 etc bla bla...Da kommt ja wöchendlich ein oder mehr dazu...

Der einzige Sinn, der hinter solchen aktionen steht, ist den Kunden komplett zu verwirren. Was denkt sich AMD/ATi dabei? :freak:

Godmode
2010-02-22, 18:52:27
Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html

Ja da waren wir eh die meiste Zeit. Das lustige ist ja, bei den Notebooks gibts die Geforce M, Quadro FX und Quadro NVS... und im Endeffekt basieren alle auf den gleiche Chips...

deekey777
2010-02-22, 18:57:15
Oh weia. Was für ein Titel.

Ist ATi wirklich besser? Gehen wir mal inne...HD5450, HD5570, HD5670, HD5750, HD5770, HD5830, HD5850 etc bla bla...Da kommt ja wöchendlich ein oder mehr dazu...

Der einzige Sinn, der hinter solchen aktionen steht, ist den Kunden komplett zu verwirren. Was denkt sich AMD/ATi dabei? :freak:
Boah... Das Thema des Threads hast du aber nicht kapiert, oder?

AYAlf_2
2010-02-22, 19:05:57
Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html

das soll entschuldigen, dass die 8800 in der 5ten generation .. ja 5ten generation mit anderem namen auftaucht .. was fuer ein fanboy bist du? ein super fanboy?

wo taucht die 8800 auf?

8xxx 9xxx 1xxx 2xxx 3xxx super! und alles der gleiche chip!

dllfreak2001
2010-02-22, 19:12:53
Nvidia sollte dieses doofe Umbenennen lieber sein lassen und sich ihre Probleme derzeit eingestehen.
Weil auch wenn die aktuellen Karten als Mittelklasse vermarktet werden, was von der Leistung her OK ist, so erwartet man bei Mittelklassekarten neuer Generation auch einen deutlichen Effizienzgewinn (Geschwindigkeit/Leistungsaufnahme) und das ist hier nicht gegeben.

Gast
2010-02-22, 19:14:09
:eek:

Meine Fresse! Nvidia was tust du nur???

Ich bin zwar kein Fanboy, greife aber bisher - aus guten Gründen - immer zu den NV-Karten. Der Vorgänger meiner jetzigen Karte - eine FX 5200 hat sich wirklich außerordentlich gut und lange gehalten.
Mit meinem neuen System erfolgte dann der Umstieg auf eine sehr performante wie Preiswerte GTS 250 (1 GB, OC@Werk). Unter DX 9(.0c) jedenfalls die ultima ratio...

Aber was NVidia hier betreibt geht wirklich zu weit.
Das Problem ist nicht, dass alte Karten neu aufgelegt werden.
Das Problem ist allein die Namensgebung. Die DAUs werden sich freuen...
Und in den Foren wird es wieder spannend zugehen;

"Mein Kumpel behauptet, seine 2xx ist besser als meine GT 340.
Der spinnt doch..." :freak:

Gast
2010-02-22, 19:27:10
Boah... Das Thema des Threads hast du aber nicht kapiert, oder?

Hat er nicht. Nicht einmal ansatzweise.

Konami
2010-02-22, 19:32:25
Arghs. Ich hätte erwartet, dass jetzt zumindest die 300er Reihe ausschließlich aus DX11-Grakas besteht, damit man wieder ein logisches, konsequentes Namensschema hat. Aber das ist jetzt wirklich lächerlich.

LovesuckZ
2010-02-22, 19:35:02
Ja da waren wir eh die meiste Zeit. Das lustige ist ja, bei den Notebooks gibts die Geforce M, Quadro FX und Quadro NVS... und im Endeffekt basieren alle auf den gleiche Chips...

Was war dann das Problem? Ich mein, es gibt eine ausgezeichnete Übersicht. Und unter jedem Eintrag stehen die "GFLOPs" Werte.
Wozu ihr dann noch "Google" abgesucht habt, verstehe ich nicht...

Gast
2010-02-22, 22:38:14
das soll entschuldigen, dass die 8800 in der 5ten generation .. ja 5ten generation mit anderem namen auftaucht ..

Was willst du dir oder noch schlimmer Anderen einreden?
Was du schreibst ergibt keinerlei Sinn.

Das die GF8 Architektur im Wesentlichen noch lebt ist genauso richtig, wie das die R600 Architektur noch lebt.
Mir als Nutzer ist eh alles egal, Entscheidend ist was hinten raus kommt.
Entweder du vergleichst das, oder du fährst weiter die Schiene, das eine GTX 295 eine 8800 GTX und eine 5970 eine 2900 XT ist, erwähnst aber nur ersteres.

=dragon=
2010-02-22, 22:42:37
Für normale Leute die sich nicht mit GPUs beschäftigen, ist das ein einziger undurchschauberer Dschungel geworden. Traurig...:rolleyes:

Und grade bei nVidia ganz schlimm, die treiben es offensichtlich auf dei Spitze!

Ich kaufe nur ATI.

Gast
2010-02-22, 22:59:39
Naja, AMD als Vorbild ist sehr gewagt.
Man gehe mal auf deren Seite und schau sich die HD5 Desktop an: http://www.amd.com/de/products/desktop/graphics/ati-radeon-hd-5000/Pages/ati-radeon-hd-5000.aspx
Es fehlen Produkte. Die bisherigen kommen auch nicht gerade flott auf die Seite, siehe noch nicht vorhanden Mobile HD5.

Die Welt sieht nicht rosig aus, aber wer sich darüber ereifern kann scheint es gut zu haben. Als ob es, gerade auch im Grafiksektor keine anderen Probleme gäbe.

ShadowXX
2010-02-22, 23:20:55
Arghs. Ich hätte erwartet, dass jetzt zumindest die 300er Reihe ausschließlich aus DX11-Grakas besteht, damit man wieder ein logisches, konsequentes Namensschema hat. Aber das ist jetzt wirklich lächerlich.
Die 400er Serie wird ausschließlich aus DX11-Karten bestehen, die 300er scheinbar aus DX10.1 Karten.

Spasstiger
2010-02-22, 23:23:50
Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html
Toll, wenn die Daten erst 2 Wochen nach Erscheinen von Geräten bzw. Karten online stehen und nichtmal der Einzelhandels Infos bekommt.

Malabolge
2010-02-22, 23:37:05
Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html


Naja wenigstens ein Launchtermin denn sie einhalten könnten :biggrin:;)

(Wenn wir schon Impotent sind , wollen wir wenigstens Imposant sein !!):cool:

LovesuckZ
2010-02-22, 23:39:48
Ach, ein Spambeitrag von Malabolge. Also wie immer in diesem Forum.

Toll, wenn die Daten erst 2 Wochen nach Erscheinen von Geräten bzw. Karten online stehen und nichtmal der Einzelhandels Infos bekommt.

Muss dich enttäuschen. Die Daten stehen schon seit Wochen auf der Seite. :rolleyes:

deekey777
2010-02-22, 23:46:46
Die 400er Serie wird ausschließlich aus DX11-Karten bestehen, die 300er scheinbar aus DX10.1 Karten.
Scheinbar, nur scheinbar.
Denn tatsächlich besteht sie aus den GT21x und G92.
Toll, wenn die Daten erst 2 Wochen nach Erscheinen von Geräten bzw. Karten online stehen und nichtmal der Einzelhandels Infos bekommt.
Wie lange hat es gedauert zwischen der Ankündigung des Medion-Rechners mit der GT330 und der Veröffentlichung der Spezifikationen der GT330 auf der Nvidia-Homepage? Hm...

LovesuckZ
2010-02-22, 23:59:20
Deutlich schneller als bei der GT230 - von der es nichtmal eine Übersichtsseite gibt...

Spasstiger
2010-02-23, 00:04:43
Wie lange hat es gedauert zwischen der Ankündigung des Medion-Rechners mit der GT330 und der Veröffentlichung der Spezifikationen der GT330 auf der Nvidia-Homepage? Hm...
Ca. zwei Wochen. Das ist zumindest die Zeit zwischen Prospektwerbung und der Veröffentlichung der Specs bei NV. Keine Ahnung, ob Medion den Rechner schon vorher angekündigt hat.
Ein Notebook mit GeForce GT 325M konnte ich bei meinem Nebenjob schon Anfang Januar oder Ende Dezember verkaufen. Über die Spezifikationen konnte ich nur Mutmaßungen anstellen, Notebookcheck waren dann die ersten, die überhaupt Daten hatten.
Wenigstens in einem Punkt zieht NV einen roten Faden durchs Segment. Eine GT 330M ist ungefähr so schnell wie eine GT 230M und eine GT 130M. Die Hunderterstelle kann man sich also einfach wegdenken bzw. sie ist höchstens mal relevant fürs Featureset (DX10.0 oder DX10.1). Und zum Zocken sollte sich ein Kürzel GTS oder GTX im Namen finden, sonst landet man lediglich auf GeForce-9500-GT-Niveau oder darunter. ;)
Btw.: 9700M GT = 32 SPs + 16 TMUs + 128-Bit-SI, 9700M GTS = 48 SPs + 24 TMUs + 256-Bit-SI. Wenn man nicht das hirnverbrannte Schema von NV durchschaut, würde man die beiden Grafikkarten deutlich näher beeinander sehen.

Die 400er Serie wird ausschließlich aus DX11-Karten bestehen, die 300er scheinbar aus DX10.1 Karten.
Wunschdenken. ;)
Ich könnte wetten, dass uns bis April eine GeForce GT 425M und eine GT 430M ins Haus stehen. Beide natürlich mit der GT216-GPU (DX10.1).

Schrotti
2010-02-23, 00:34:03
Ich blick da schon lange nimmer durch bei dem ganzen Wirrwarr.

Coda
2010-02-23, 00:42:40
Na ganz offensichtlich scheint diese Strategie ja aufzugehen. Man kann es ihnen ja fast nicht verübeln.

Wenn sich hier ein paar Geeks darüber echauffieren wird das nichts am Kaufverhalten der Horde ändern.

Gast
2010-02-23, 07:58:51
Die 400er Serie wird ausschließlich aus DX11-Karten bestehen, die 300er scheinbar aus DX10.1 Karten.

Falsch, bei der 300er Serie werden mittlerweile auch schon G92 entsorgt, und diese haben nur DX10.0. Das Namensschema ist ein schlechter Witz.

Gast
2010-02-23, 08:01:18
Na ganz offensichtlich scheint diese Strategie ja aufzugehen. Man kann es ihnen ja fast nicht verübeln.

Wenn sich hier ein paar Geeks darüber echauffieren wird das nichts am Kaufverhalten der Horde ändern.

Aja, man kann es ihnen nicht verübeln wenn sie die Kunden verarschen weil es ja "aufgeht". Tolle Einstellung. AMD und Intel machen das auch nicht in dem Ausmaß, und auch ansonsten ist das eine ziemliche Schweinerei.

Ich seh nicht den geringsten Grund warum man das verteidigen sollte wenn man nicht gerade NV-Fan ist und alles gut findet was von NV kommt.

LolekDeluxe
2010-02-23, 08:26:42
Oh weia. Was für ein Titel.

Ist ATi wirklich besser? Gehen wir mal inne...HD5450, HD5570, HD5670, HD5750, HD5770, HD5830, HD5850 etc bla bla...Da kommt ja wöchendlich ein oder mehr dazu...

Der einzige Sinn, der hinter solchen aktionen steht, ist den Kunden komplett zu verwirren. Was denkt sich AMD/ATi dabei? :freak:
FAIL :ulol:

HD 4000 - DX10.1
HD 5000 - DX11

Spasstiger
2010-02-23, 08:52:17
Falsch, bei der 300er Serie werden mittlerweile auch schon G92 entsorgt, und diese haben nur DX10.0. Das Namensschema ist ein schlechter Witz.
Der Brüller ist die GeForce GT 330 (Desktop). Die Specs sind - um es mal freundlich auszudrücken - sehr unscharf festgelegt, so dass man sowohl einen G92 als auch einen GT215 einsetzen kann. Die Hersteller dürfen zwischen einem 128-Bit- , einem 192-Bit- oder einem 256-Bit-Speicherinterface wählen und zusätzlich noch zwischen DDR2- und DDR3-Speicher. Die Anzahl von SPs darf 96 oder 128 betragen. Die Taktraten sind auch nicht in Stein gemeißelt, sondern lassen einen Spielraum zu.
Medion war da mit der eigenen GT330 noch verhältnismäßig großzügig (112 SPs, 192 Bit, DDR3), man kann aber davon ausgehen, dass überwiegend nur Schrott unter dem Namen verkauft werden wird (96 SPs, 128-Bit, DDR2).

Bucklew
2010-02-23, 09:28:14
FAIL :ulol:

HD 4000 - DX10.1
HD 5000 - DX11
EPIC FAIL ;D

http://www.pcgameshardware.de/aid,702804/AMDs-Mobility-Radeon-HD-5165-und-HD-5145-ohne-DX11/Grafikkarte/News/

Gast
2010-02-23, 10:50:33
EPIC FAIL ;D

http://www.pcgameshardware.de/aid,702804/AMDs-Mobility-Radeon-HD-5165-und-HD-5145-ohne-DX11/Grafikkarte/News/
Ja, epic fail. Allerdings von dir.

Bei Nvidia sind ALLE 300er umbenannt!
Keine einzige 300er hat eine neue GPU!

Und du kommst hier mit 2 Ausnahmen bei AMD?
Echt peinlich von dir.

Bucklew
2010-02-23, 11:24:59
Ja, epic fail. Allerdings von dir.
[dümmliche Ausreden gelöscht]
Was ändert das jetzt daran, dass die Behauptung "DX10.1 = HD4000, DX11 = HD5000" absolut falsch ist? ;)

Gast
2010-02-23, 11:29:18
Was ändert das jetzt daran, dass die Behauptung "DX10.1 = HD4000, DX11 = HD5000" absolut falsch ist? ;)
Stellst du dich absichtlich dumm oder ist dies gar kein Verstellen?
Der Unterschied ist, dass Nvidia mehr umbennent als neue Produkte bringt.
Eigentlich ist die gesamte 300er Serie Altmüll.

Bei AMD ist das eine Ausnahme.
Was verstehst du daran nicht?

Schlammsau
2010-02-23, 11:30:48
Ja, epic fail. Allerdings von dir.

Bei Nvidia sind ALLE 300er umbenannt!
Keine einzige 300er hat eine neue GPU!

Und du kommst hier mit 2 Ausnahmen bei AMD?
Echt peinlich von dir.

Das Problem ist eigentlich nicht die die nicht vorhandene neue GPU, sondern das dreisste Umlabeln bereits existierender Karten.

Aus einer GT2xx wird plötzlich eine GT3xx! Usw....

Das ist die Schweinerei!

Schrotti
2010-02-23, 11:33:07
Sehe ich, als nVidia Fanboy, übrigens auch so.

kmf
2010-02-23, 11:54:29
Das Problem ist eigentlich nicht die die nicht vorhandene neue GPU, sondern das dreisste Umlabeln bereits existierender Karten.

Aus einer GT2xx wird plötzlich eine GT3xx! Usw....

Das ist die Schweinerei!Jedem Hersteller ist doch selbst überlassen, wie er sein Produkt benennt.
Natürlich empfinden wir es als moralisch anstößig, wenn olle Kamellen plötzlich als neuste Innovation angepriesen werden. Doch die Mehrzahl der Käufer juckt das nicht im geringsten, sie kaufen einen OEM-PC und da ist es egal, ob da jetzt eine GT2xx oder eine GT3xx drinsteckt, Hauptsache die hat viel RAM. :D

Vertigo
2010-02-23, 12:00:30
Meine Güte, jedesmal die selben entrüsteten Threads und Postings, wenn nVidia mal wieder hardwareunabhängig die GPU-Namen aktualisiert. Die Leute, die sich hier darüber aufregen, wissen es und kaufen sich solche Karte doch eh nie. Den anvisierten Käufern dagegen sind Namen und technische Details der GPUs absolut gleich. Aber schön, dass hier so engagiert darüber diskutiert wird. :biggrin:

Bucklew
2010-02-23, 12:04:15
Bei AMD ist das eine Ausnahme.
Was verstehst du daran nicht?
Die einzige Ausnahme ist wohl, dass das eine AMD ist und das andere Nvidia.

Bei den einen ist es ok (ist ja AMD), beim anderen nicht. Dabei hat das Rebranding bei AMD genauso System, es gab ja auch in der HD4000-Reihe umgelabelte 3000er-Chips.

Nebenbei hat ATI schon vor 3 Jahren einen alten Chip in neu Umgelabelt ;)

Ist auch nichts schlimmes, so ein Grafikkartename ist nur eine EINSORTIERUNG in ein aktuelles NAMENSSCHEMA. Deshalb wurde der erste G92-Chip noch in die 8000er Reihe eingefügt und die späteren G92 Chips in die GT200-Reihe. Man will halt dem Neukäufer eine Orientierung geben, welche Karte ungefähr welche Leistung hat. Generationsübergreifend war man schon immer auf Benchmarks angewiesen.

Und zum Thema ATI Namensschema: Ich hab in meinem Laptop eine HD4550, diese ist exakt gleich zur 4330 - wer würde das bei dem Namensschema denken, wo doch schon ein 100er Sprung (5770->5870) reicht, um ein doppelt so großen Chip zu erhalten?

Gast
2010-02-23, 12:20:03
@Bucklew lass den Quatsch.

Derzeit bietet AMD eine komplette Palette von Karten aller Leistungsklassen die auf dem neuen Cypress basieren. Und bei jeder Generation HD2 HD3 HD4 HD5 gab es deutliche Unterschiede in der Featurelist sowie Verbesserungen in Effizienz und Architektur. Wie man sich da so beschweren kann ist mir nicht klar.
Bei Notebookgrafik wird immer leistungsreduzierte Hardware verkauft, dies hat die Temperaturentwicklung und Akkulebensdauer als Hintergrund und wird von AMD und NVidia gleichermaßen Betrieben. Imho ist dies absolut OK, dafür gibt es dann extra Leistungscharts für Notebookgrafik zB. auf Notebookcheck.de.

Bucklew
2010-02-23, 12:25:50
@Bucklew lass den Quatsch.
Nein, schließlich ist es nunmal Usus, dass es solche Rebrandings gibt. Und ich habe nun genug von ATI aufgezählt, von daher sind das Fakten und kein "Quatsch" - auch wenn man es als ATI-Fanboy sicher nicht gerne hört ;)

Auch die Rebrandings bei Nvidia waren und sind in den unteren Leistungsklassen, die obere Spitze waren und sind immer neue Chips.

Gast
2010-02-23, 12:34:48
Nein, schließlich ist es nunmal Usus, dass es solche Rebrandings gibt. Und ich habe nun genug von ATI aufgezählt, von daher sind das Fakten und kein "Quatsch" - auch wenn man es als ATI-Fanboy sicher nicht gerne hört ;)

Auch die Rebrandings bei Nvidia waren und sind in den unteren Leistungsklassen, die obere Spitze waren und sind immer neue Chips.

Wie verblendet muss man eigentlich sein? Bei dir ist wirklich Hopfen und Malz verloren. Aber alle anderen als Fanboy bezeichnen, ich hoffe du merkst wenigstens wie lächerlich du dich machst.

Bucklew
2010-02-23, 12:39:34
Wie verblendet muss man eigentlich sein? Bei dir ist wirklich Hopfen und Malz verloren. Aber alle anderen als Fanboy bezeichnen, ich hoffe du merkst wenigstens wie lächerlich du dich machst.
Lächerlich machen sich nur Leute wie du, die (nachdem man sie widerlegt hat und sie keine Argumente mehr haben) nur noch persönlich werden.

Aber hey, jeder hat halt sein Niveau, ne? :biggrin:

Gast
2010-02-23, 12:44:23
Lächerlich machen sich nur Leute wie du, die (nachdem man sie widerlegt hat und sie keine Argumente mehr haben) nur noch persönlich werden.

Aber hey, jeder hat halt sein Niveau, ne? :biggrin:

Richtig, und deines ist unterirdisch. Aber schon klar, die Wahrheit tut weh.

Nakai
2010-02-23, 13:14:53
Nein, schließlich ist es nunmal Usus, dass es solche Rebrandings gibt. Und ich habe nun genug von ATI aufgezählt, von daher sind das Fakten und kein "Quatsch" - auch wenn man es als ATI-Fanboy sicher nicht gerne hört

Ja Rebrandings bei beiden IHVs gibt, sollte klar sein. Bei ATI muss man aber mit der Lupe suchen.

EPIC FAIL

Der Notebookmarkt war noch nie wirklich relevant, da man hier wirklich keine Ahnung hat, welche Chips man gerade bekommt.

Auf dem Desktop gab es in letzter Zeit keine Rebrandings seitens ATI.

Na ganz offensichtlich scheint diese Strategie ja aufzugehen. Man kann es ihnen ja fast nicht verübeln.

Wenn sich hier ein paar Geeks darüber echauffieren wird das nichts am Kaufverhalten der Horde ändern.

Eigentlich sollte man es besser wissen, aber klar die DAUs fallen drauf rein. ATI/AMD muss noch ein bisschen vom Meister lernen. Eine HD6er-Serie wäre jetzt angebracht.


mfg

€: Bucklew, du bist ja schon fast schlimmer als LZ frühers...Ball schön flach halten.

Bucklew
2010-02-23, 13:39:31
Richtig, und deines ist unterirdisch. Aber schon klar, die Wahrheit tut weh.
Ach kleiner, wenn nächstes mal deine Argumente entkräftet wurden und du nichts mehr sagen kannst, dann schreib lieber nichts mehr, anstatt dich so zu disqualifizieren und den Thread vollzuspammen, ok?

Ja Rebrandings bei beiden IHVs gibt, sollte klar sein. Bei ATI muss man aber mit der Lupe suchen.
Mit der Lupe muss man wohl nur mit einer dicken ATI-Brille suchen, Wikipedia reicht schon völlig ;D

Auf dem Desktop gab es in letzter Zeit keine Rebrandings seitens ATI.
Fällt August 2009 unter "letzter Zeit"?
http://www.tomshardware.com/de/amd-785g-Chipsatz,testberichte-240379-4.html

€: Bucklew, du bist ja schon fast schlimmer als LZ frühers...Ball schön flach halten.
Wenn du damit meinst, dass ich bei den Fakten bleibe: Nö.

Gast
2010-02-23, 13:47:39
Ach kleiner, wenn nächstes mal deine Argumente entkräftet wurden und du nichts mehr sagen kannst, dann schreib lieber nichts mehr, anstatt dich so zu disqualifizieren und den Thread vollzuspammen, ok?


Argumente entkräftet. *MEGALOL*
Wie verblendet muss man eigentlich sein um den Mist von NV auch noch zu verteidigen? Und das Forum vollspammen tust auch wie üblich nur du mit deinen verblendeten Ansichten. Offensichtlich haben wir einen neuen NV-Fanboy nachdem sich LZ zumindest etwas beruhigt hat. Du scheinst ein würdiger Nachfolger zu sein.

Nakai
2010-02-23, 13:48:28
Fällt August 2009 unter "letzter Zeit"?
http://www.tomshardware.com/de/amd-7...-240379-4.html

:facepalm:

Featureliste angucken. Was ist da jetzt ein Rebranding?

Mit der Lupe muss man wohl nur mit einer dicken ATI-Brille suchen, Wikipedia reicht schon völlig

Schön. Dann würd ich nochmal lesen...

Wenn du damit meinst, dass ich bei den Fakten bleibe: Nö.

Nein, ich meine deine provokante Art zu schreiben, das würde ich mal ändern.



mfg

Bucklew
2010-02-23, 13:50:45
Argumente entkräftet. *MEGALOL*
Sieht man ja, außer blöder Anmachen kommt ja nix mehr von dir :)

Von daher: EoD. AMD macht es genauso und jeder macht sich lächerlich, der erst schreit "Nvidia macht Rebranding! Betrug!" und im nächsten Satz sagt "Ja, aber bei AMD sind das ja Ausnahmen....".

Denkt mal zwei Sekunden drüber nach und ihr seht, dass ich Recht habe. Entweder Rebranding IST Betrug, dann gilt das aber auch für BEIDE IHVs. Ob nun ein Chip oder 10 ist doch egal. Betrug bleibt Betrug - auch wenn es keiner ist. Aber wenn man dieser Meinung ist, dann doch bitte konsequent!

:facepalm:

Featureliste angucken. Was ist da jetzt ein Rebranding?
Ist ein RV6x basierenden Chip in der HD4000er Reihe (RV7x). Wurde auch in der HD3x Reihe verbaut. Rebranding.

Schön. Dann würd ich nochmal lesen...
Tue das, dann findest du auch vllt mal die ATI-Rebrands. Beachte auch die X1-Reihe ;)

Nein, ich meine deine provokante Art zu schreiben, das würde ich mal ändern.
Ah, ok, es ist provokant bei den Fakten zu bleiben. Das merke ich mir und spare mir in Zukunft die Fakten und schreib lieber einfach irgendwelchen Bullshit - ok :)

Nakai
2010-02-23, 14:01:30
Ist ein RV6x basierenden Chip in der HD4000er Reihe (RV7x). Wurde auch in der HD3x Reihe verbaut. Rebranding.


Das ist ein Chipsatz...und dann noch Codenamen einzubeziehen...

Tue das, dann findest du auch vllt mal die ATI-Rebrands. Beachte auch die X1-Reihe

Ich schrieb "in letzter Zeit" und nun gibt es keine besonderen Fälle bei ATI.

Ah, ok, es ist provokant bei den Fakten zu bleiben. Das merke ich mir und spare mir in Zukunft die Fakten und schreib lieber einfach irgendwelchen Bullshit - ok

Fast schon Unbelehrbar. Denk drüber nach, wie man sein Gegenüber behandelt. Man muss nicht gleich jeden Diskussionspartner als Idioten abstempeln. Außerdem kann man auch Fakten anders auslegen. Das nennt sich subjektives Empfinden.

Ich mach mir nicht die Mühe darüber weiterzureden. Wir kommen auf keinen grünen Zweig.



mfg

Gast
2010-02-23, 14:06:24
@bucklew

Du bist echt blind, sorry.

Du siehst einfach den Unterschied nicht.

Bei AMD kommt es ab und zu mal vor, dass eine Grafikkarte neu aufgelegt wird.
Bei Nvidia ist die gesammte 300er Serie einfach nur alter Müll.

DAS ist der Unterschied.
Es hat sicherlich niemand etwas gegen, wenn man mal, vor allem bei LowCost, eine Grafikkarte neu auflegt.

Aber eine GANZE SERIE alten Müll als neu verkaufen?
So eine Kundenverarschung habe ich noch NIE gesehen, weder bei Nvidia noch bei ATI/AMD.

Es ist einfach die Menge, nicht nur der Fakt, dass man sowas überhaupt macht, was ja moralisch eh schon verwerflich ist.

Aber deine Nvidia-Brille hat anscheinend deine Birne so verweichlicht, dass du noch nicht mal Offensichtliches bei Nvidia siehst, bei AMD aber die Ausnahmen rauspickst.
>So kann man sich natürlich auch als Fanboy outen...

Bucklew
2010-02-23, 14:19:38
DAS ist der Unterschied.
Es hat sicherlich niemand etwas gegen, wenn man mal, vor allem bei LowCost, eine Grafikkarte neu auflegt.
Komisch, die 300er Reihe sind nur Lowcost-Karten und es sind nur 5 Stück:
http://www.nvidia.de/object/geforce_family_de.html

Also, bei AMD ist es ja (deiner Meinung nach) ok. Die machen das jetzt schon zum zweiten mal mit 2 Karten. Also 5 sind zuviel, 2 sind ok. Wo ist da jetzt der Sinn?

Aber deine Nvidia-Brille hat anscheinend deine Birne so verweichlicht, dass du noch nicht mal Offensichtliches bei Nvidia siehst, bei AMD aber die Ausnahmen rauspickst.
Jetzt habe ich dich wieder gefüttert, das lasse ich wohl in Zukunft. Außer Beleidigungen kommt von dir ja scheinbar nix, weil du selbst merkst in welche argumentative Gasse du dich verrannt hast.

AYAlf_2
2010-02-23, 14:21:02
Die einzige Ausnahme ist wohl, dass das eine AMD ist und das andere Nvidia.

Bei den einen ist es ok (ist ja AMD), beim anderen nicht. Dabei hat das Rebranding bei AMD genauso System, es gab ja auch in der HD4000-Reihe umgelabelte 3000er-Chips.

Nebenbei hat ATI schon vor 3 Jahren einen alten Chip in neu Umgelabelt ;)

Ist auch nichts schlimmes, so ein Grafikkartename ist nur eine EINSORTIERUNG in ein aktuelles NAMENSSCHEMA. Deshalb wurde der erste G92-Chip noch in die 8000er Reihe eingefügt und die späteren G92 Chips in die GT200-Reihe. Man will halt dem Neukäufer eine Orientierung geben, welche Karte ungefähr welche Leistung hat. Generationsübergreifend war man schon immer auf Benchmarks angewiesen.

Und zum Thema ATI Namensschema: Ich hab in meinem Laptop eine HD4550, diese ist exakt gleich zur 4330 - wer würde das bei dem Namensschema denken, wo doch schon ein 100er Sprung (5770->5870) reicht, um ein doppelt so großen Chip zu erhalten?

^^ u made my day ;D

Schlammsau
2010-02-23, 14:24:33
Noch mal für dich BUCKLEW....es geht hier nicht nur um die reine GPU sondern um die gesamte Graka! nVidia macht, bildlich gesprochen, einfach den alten Aufkleber ab und beklebt sie neu!

Und jetzt halt die Füsse still!

Bucklew
2010-02-23, 14:28:47
Die HD5145/5165 sind auch nichts anders. Man ändert die Fakten nicht, nur weil man sie möglichst stark verdreht, unter den Tisch kehrt oder am meisten rumbrüllt.

Und jetzt halt die Füsse still!
:nono:

deekey777
2010-02-23, 15:01:07
Noch mal für dich BUCKLEW....es geht hier nicht nur um die reine GPU sondern um die gesamte Graka! nVidia macht, bildlich gesprochen, einfach den alten Aufkleber ab und beklebt sie neu!

Und jetzt halt die Füsse still!
Aus dem Thema kann man - wenn man will - recht deutlich erkennen, dass es um die Desktop-GPUs geht.

Aber man sieht ganz klar: Arbeitnehmertreue at its best.

Gast
2010-02-23, 15:10:41
Aus dem Thema kann man - wenn man will - recht deutlich erkennen, dass es um die Desktop-GPUs geht.

Aber man sieht ganz klar: Arbeitnehmertreue at its best.


Bucklew arbeitet doch nicht für Nvidia. So wenig Ahnung wie der von der Materie hat geht er noch in die Schule (Hauptschule oder Realschule).

Bucklew
2010-02-23, 15:28:37
Aus dem Thema kann man - wenn man will - recht deutlich erkennen, dass es um die Desktop-GPUs geht.
Es handelt sich sogar (um mal ganz genau zu sein) um OEM-GPU. Im Einzelhandel wird es die Karten nie geben.

Aber man sieht ganz klar: Arbeitnehmertreue at its best.
Wenn man einen Blick hinter die Kulissen wirft, sieht man halt viele Sachen glänzlich anders als der Laie, dem es nur vergönnt ist durch Semiaccurate, Fudzilla & Co ein paar Häpchen zu erhaschen. Reicht auf jeden Fall aus um Leute, deren Rückgrad nichtmal reicht um sich hier zu registrieren so richtig zur Weißglut zu treiben, weil ihre Argumentation als falsch entlarvt wird ;D (s.o. :biggrin: )

Gast_mboeller
2010-02-23, 15:48:57
Es handelt sich sogar (um mal ganz genau zu sein) um OEM-GPU. Im Einzelhandel wird es die Karten nie geben.


Wenn man einen Blick hinter die Kulissen wirft, sieht man halt viele Sachen glänzlich anders als der Laie, dem es nur vergönnt ist durch Semiaccurate, Fudzilla & Co ein paar Häpchen zu erhaschen. Reicht auf jeden Fall aus um Leute, deren Rückgrad nichtmal reicht um sich hier zu registrieren so richtig zur Weißglut zu treiben, weil ihre Argumentation als falsch entlarvt wird ;D (s.o. :biggrin: )

Keine Panik, du treibst mich nicht zur Weisglut. Eher im Gegenteil. Ich finde ich köstlich naiv und ein wenig kindisch. Schließlich bist du maximal 16, stimmts!

Gast
2010-02-23, 15:49:22
Es handelt sich sogar (um mal ganz genau zu sein) um OEM-GPU. Im Einzelhandel wird es die Karten nie geben.


Wenn man einen Blick hinter die Kulissen wirft, sieht man halt viele Sachen glänzlich anders als der Laie, dem es nur vergönnt ist durch Semiaccurate, Fudzilla & Co ein paar Häpchen zu erhaschen. Reicht auf jeden Fall aus um Leute, deren Rückgrad nichtmal reicht um sich hier zu registrieren so richtig zur Weißglut zu treiben, weil ihre Argumentation als falsch entlarvt wird ;D (s.o. :biggrin: )

Oh Mann bist du peinlich. Du glaubst doch nicht wirklich das dir hier irgend jemand abkauft das du für NV arbeitest. Lächerlich. Alles was bis jetzt von dir gekommen ist waren stupide Flamwars auf dem Niveau eines Minderjährigen.

Jake Dunn
2010-02-23, 16:30:21
Alles was bis jetzt von dir gekommen ist waren stupide Flamwars auf dem Niveau eines Minderjährigen.

Bei PCGH ist er auch schon deswegen geflogen ;D

..erbärmlich ;(

Gast
2010-02-23, 16:48:31
Oh Mann bist du peinlich. Du glaubst doch nicht wirklich das dir hier irgend jemand abkauft das du für NV arbeitest. Lächerlich. Alles was bis jetzt von dir gekommen ist waren stupide Flamwars auf dem Niveau eines Minderjährigen.
Der beste Flame kommt immer noch vom Threadstarter.

Siehe erste Seite, er will uns einreden das eine 8800 GTX = GTX 285 = GT310 ist.
Er will nicht einsehen, das dann 2900 XT ebenso = 5870 ist.
Natürlich ist beides Unsinn, aber in seiner Realität müsste beides so sein, nicht nur eines.

Wenn der Thread gleich so gestartet wird hat er eh keine Chance. Hier leider doch, die Flames werden bislang gedultet.
Der Threadstarter oder andere haben keinerlei Interesse an einem ruhigen Ablauf. Es geht um die Provokation, bzw dem schlecht machen den gegnerischen Firma.

Schlammsau
2010-02-23, 17:06:02
Die HD5145/5165 sind auch nichts anders. Man ändert die Fakten nicht, nur weil man sie möglichst stark verdreht, unter den Tisch kehrt oder am meisten rumbrüllt.


:nono:

Hier wird gar nichts verdreht!

Die HD5145/5165 haben einen RV710/30 Chip (DX10.1)....korrekt!
Jetzt kommt aber das grosse ABER, diese Karten gab es zuvor NCHT unter einem anderen Namen! Das ist der Punkt. Es gab diese beiden HD5000 Karten, die übrigens nur im Mobil Segment eingesetzt werden, in dieser Form noch nicht.
Es ist auch nicht schön, mit dem guten Namen der HD5000 Serie zu werben, aber nicht alle Features zu haben (DX11), aber absolut nicht vergleichbar mit der Show, die nVidia abzieht.

nVidia benennt "alte" Karten, ohne irgendwas zu ändern einfach um! Sie machen sich nichtmal die Mühe die Farbe des PCBs zu verändern und verkaufen diese als new Generation!

EOD

Gast
2010-02-23, 17:19:36
Die HD5145/5165 haben einen RV710/30 Chip (DX10.1)....korrekt!
Jetzt kommt aber das grosse ABER, diese Karten gab es zuvor NCHT unter einem anderen Namen! Das ist der Punkt. Es gab diese beiden HD5000 Karten, die übrigens nur im Mobil Segment eingesetzt werden, in dieser Form noch nicht.
Achso, Mobil ist ok. OEM nicht.

Du irrst übrigens, bzw lügsts. Mobile 5145 und 5165 sind umbenannte Mobile 4330/4530/4570 und 4650/4670.


Es ist auch nicht schön, mit dem guten Namen der HD5000 Serie zu werben, aber nicht alle Features zu haben (DX11), aber absolut nicht vergleichbar mit der Show, die nVidia abzieht.Stimmt, die HD5 stand für D3D11. Die 300 stand für gar nichts. Die 400 steht für D3D11, nicht vergleichbar.

GT320 und GT220 sind sich auch ach so ähnlich.

Schlammsau
2010-02-23, 17:32:23
Achso, Mobil ist ok. OEM nicht.

Du irrst übrigens, bzw lügsts. Mobile 5145 und 5165 sind umbenannte Mobile 4330/4530/4570 und 4650/4670.

Stimmt, die HD5 stand für D3D11. Die 300 stand für gar nichts. Die 400 steht für D3D11, nicht vergleichbar.

GT320 und GT220 sind sich auch ach so ähnlich.

Aus 5 Karten wurden plötzlich 2?
Link bitte!

Oh....da kommst aber mit ner Ausnahme ran. :)
Schau dir mal die GT340 und GT240 an. Haargenau die selben Karten!

Gast
2010-02-23, 17:42:12
Aus 5 Karten wurden plötzlich 2?
Link bitte!
Tut mir leid, AMDs Seite ist nicht so aktuell.
Daher weiss ich nicht exakt, welche der 2/3 HD4 nun die HD5 geworden ist.


Oh....da kommst aber mit ner Ausnahme ran.
Schau dir mal die GT340 und GT240 an. Haargenau die selben Karten! Ausnahmen sind wichtig, um Aussagen zu wiederlegen die keinen Platz für Ausnahmen lassen.
GT340 und GT240 sind tatsächlich sehr ähnlich, bis auf den OEM Faktor. Die 340 soll scheinbar immer 1700Mhz GDDR5 bekommen, während die 240er auch mal 1000Mhz GDDR3 oder 900Mhz DDR3 oder bei manchen Herstellern nicht mal das hat.

Coda
2010-02-23, 17:47:14
Aja, man kann es ihnen nicht verübeln wenn sie die Kunden verarschen weil es ja "aufgeht". Tolle Einstellung. AMD und Intel machen das auch nicht in dem Ausmaß, und auch ansonsten ist das eine ziemliche Schweinerei.

Ich seh nicht den geringsten Grund warum man das verteidigen sollte wenn man nicht gerade NV-Fan ist und alles gut findet was von NV kommt.
Ich verteidige gar nichts. Ich sage nur, dass es nichts bringt sich darüber aufzuregen ;)

Solange die Masse NVIDIA dafür nicht bestraft indem sie es nicht kaufen werden sie so weitermachen. Genauso wie die Bildzeitung jede Woche trotzdem gekauft wird ;)

Schrotti
2010-02-23, 17:47:38
Deshalb wurde der erste G92-Chip noch in die 8000er Reihe eingefügt und die späteren G92 Chips in die GT200-Reihe.

G92-Chip (mit Shrink von 65 auf 55nm)

8800GT, 9800GT, 9800GTX, GTS 250 findest du das noch schön?

Gummikuh
2010-02-23, 17:49:23
Na...die 8800GTS vergessen?:biggrin:

Schrotti
2010-02-23, 17:50:51
Ja siehst.

Und die gibt es auch noch in zwei unterschiedlichen Chipvarianten (G80 und G92).

Gast
2010-02-23, 17:55:23
Und die gibt es auch noch in zwei unterschiedlichen Chipvarianten (G80 und G92).
Einmal mit 100%, einmal mit 150% Leistung.
Da hat keiner gemeckert, erst hinterher hat der Dau Flamer gemerkt das das Ding von Anfang an 9800 GTX / 9700 GTX hätte heißen müssen.
So wie es AMD getan hat, mit ihrer 3800.

Schlammsau
2010-02-23, 17:55:43
Tut mir leid, AMDs Seite ist nicht so aktuell.
Daher weiss ich nicht exakt, welche der 2/3 HD4 nun die HD5 geworden ist.

Ausnahmen sind wichtig, um Aussagen zu wiederlegen die keinen Platz für Ausnahmen lassen.
GT340 und GT240 sind tatsächlich sehr ähnlich, bis auf den OEM Faktor. Die 340 soll scheinbar immer 1700Mhz GDDR5 bekommen, während die 240er auch mal 1000Mhz GDDR3 oder 900Mhz DDR3 oder bei manchen Herstellern nicht mal das hat.

Hast du keinen nicht ATi Link, der deine "Unterstellung" untermauert?
Gegen die Verwendung von gleichen GPUs in mehreren Serien hab ich eigentlich nichts. Also stört mich die Verwendung des G92 in 4 oder 5 Serien, in den meisten Fällen gar nicht.

Schau dir auch mal die GT210 und GT310 an. Auch haargenau die selben Karten!
Bis ins letzte Detail gleich, bis auf den "Aufkleber"!

Sorry aber das ist DAU-Fang ohne gleichen.

Bucklew
2010-02-23, 18:11:59
Hier wird gar nichts verdreht!

Die HD5145/5165 haben einen RV710/30 Chip (DX10.1)....korrekt!
Jetzt kommt aber das grosse ABER, diese Karten gab es zuvor NCHT unter einem anderen Namen! Das ist der Punkt. Es gab diese beiden HD5000 Karten, die übrigens nur im Mobil Segment eingesetzt werden, in dieser Form noch nicht.
Es ist auch nicht schön, mit dem guten Namen der HD5000 Serie zu werben, aber nicht alle Features zu haben (DX11), aber absolut nicht vergleichbar mit der Show, die nVidia abzieht.
Ach so, die Karten gab es vorher nicht unter anderem Namen? Das ist ja interessant...

Was sind denn dann die Hd4330, 4530, 4570, 4650, 4670? Komisch, selber Chip, selbe Daten - klingt irgendwie wie genau dieselbe Karte?!

Leider stehen selbst auf der ATI-Homepage keine Daten zu diesen "neuen" Karten (da ist Nvidia ja immerhin ehrlich und schreibt es klar auf die Homepage), daher fehlen den Wikipedia-Einträgen auch die Taktraten. Ich wage mal zu behaupten, dass beide "neuen" Karten jeweils GENAU einer der anderen 5 entsprechen (frage ist nur welcher).

nVidia benennt "alte" Karten, ohne irgendwas zu ändern einfach um! Sie machen sich nichtmal die Mühe die Farbe des PCBs zu verändern und verkaufen diese als new Generation!
ATI macht (wie man sieht) auch nichts anderes.

G92-Chip (mit Shrink von 65 auf 55nm)

8800GT, 9800GT, 9800GTX, GTS 250 findest du das noch schön?
Ich rede nicht von schön, ich rede von kritisieren und nicht kritisieren. Mir ist das persönlich egal, meinetwegen kann ATI auch einen R200 heute noch verkaufen, wenn (!) er leistungsmäßig noch mithalten kann und im entsprechenden Preissegment verkauft wird. So wie eben der G92, der in der 9er Reihe Highend war und dann in der GT200-Reihe nur noch Mittelklasse. (und abgesehen davon, wo ist das Problem einen Chip in unterschiedlichen Versionen in einer Reihe zu verwenden?)

Aber wo ja die Behauptung war, dass man das ja nur macht um Unwissenden vorzugaugeln es wäre eine neue Karte: Warum hat man das beim G92 nicht gemacht und den erstmal als 8000er veröffentlicht und nicht als 9000er?

Also nochmal: MIR ist diese Praxis egal und ich kritisiere sie auch nicht. ABER: WENN (!) man sie kritisiert, dann doch bitte bei ALLEN herstellern und nicht (so wie es die meisten hier tun), nur weil es ihr "Feind"-Hersteller tut und es beim Lieblingshersteller dann bis aufs Blut verteidigen, das ist einfach nur lächerlich. Egal ob 1, 2 oder 10 Grafikkarten: Entweder kritisieren oder die Klappe halten, aber nicht deswegen kritisieren, nur weil es Hersteller X tut, so wie es einige (speziell ohne Account) hier tun!

Gast
2010-02-23, 18:16:05
Hast du keinen nicht ATi Link, der deine "Unterstellung" untermauert?
Gegen die Verwendung von gleichen GPUs in mehreren Serien hab ich eigentlich nichts. Also stört mich die Verwendung des G92 in 4 oder 5 Serien, in den meisten Fällen gar nicht.

Auf die schnelle würde ich dir wiki empfehlen.
http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-4000-Serie
http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-5000-Serie

ROPs, TMUs, SP und SI der genannten Karten passt exakt zusammen.
Nach genannanter Regel sind minimale Taktunterschiede ohne Belang, sonst gäbs oft bei Nvidia kein Gemecker.


Schau dir auch mal die GT210 und GT310 an. Auch haargenau die selben Karten!
Bis ins letzte Detail gleich, bis auf den "Aufkleber"!

Sorry aber das ist DAU-Fang ohne gleichen.
Richtig, aber das macht die fälschliche AMD Lobhuldigung nicht besser.

Gast
2010-02-23, 18:17:37
Ich wage mal zu behaupten, dass beide "neuen" Karten jeweils GENAU einer der anderen 5 entsprechen (frage ist nur welcher).

Daufang eben, wenn sich der Käufer nichtmal beim Hersteller über das Produkt informieren kann siehts echt düster aus.

Schrotti
2010-02-23, 18:33:48
Aber wo ja die Behauptung war, dass man das ja nur macht um Unwissenden vorzugaugeln es wäre eine neue Karte: Warum hat man das beim G92 nicht gemacht und den erst mal als 8000er veröffentlicht und nicht als 9000er?


Der G92 war zu erst in einer 8800 GT.

Schlammsau
2010-02-23, 18:38:41
Der G92 war zu erst in einer 8800 GT.

Und 8800GS die dann 1:1 zu einer 9600GSO umgelabelt wurde!
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/oktober/weitere_details_geforce_9600_gso/

http://www.computerbase.de/bildstrecke/23107/1/

Gast
2010-02-23, 18:40:31
Der G92 war zu erst in einer 8800 GT.
Was ändert das an der Frage, warum nicht gleich als 9000?

AYAlf_2
2010-02-23, 20:40:01
Der beste Flame kommt immer noch vom Threadstarter.

Siehe erste Seite, er will uns einreden das eine 8800 GTX = GTX 285 = GT310 ist.
Er will nicht einsehen, das dann 2900 XT ebenso = 5870 ist.
Natürlich ist beides Unsinn, aber in seiner Realität müsste beides so sein, nicht nur eines.

Wenn der Thread gleich so gestartet wird hat er eh keine Chance. Hier leider doch, die Flames werden bislang gedultet.
Der Threadstarter oder andere haben keinerlei Interesse an einem ruhigen Ablauf. Es geht um die Provokation, bzw dem schlecht machen den gegnerischen Firma.[/QUOTE]

informier dich doch bitte vorher bevor du hier irgendetwas postest.. danke

Gast
2010-02-23, 20:43:24
Haha, Heise gibts Nvidia aber richtig...

http://www.heise.de/newsticker/meldung/GeForce-GT-330-Nvidias-Verwirr-Karte-fuer-den-OEM-Markt-938483.html

Gummikuh
2010-02-24, 01:37:39
Was ändert das an der Frage, warum nicht gleich als 9000?

Weil damals noch die 8000er Serie aktuell war, was denn sonst.Die 8800 GTX und Ultra waren damals auch noch für gutes Geld zu kaufen.

Mit einer 9000er Bezeichnung hätte NVidia sich damals regelrecht selbst ins Nest gekackt...wer macht sowas schon?

Gast
2010-02-24, 08:53:09
Haha, Heise gibts Nvidia aber richtig...

http://www.heise.de/newsticker/meldung/GeForce-GT-330-Nvidias-Verwirr-Karte-fuer-den-OEM-Markt-938483.html
Nicht nur Heise...

Leo hat sich auf der Hauptseite auch dazu geäußert:
http://www.3dcenter.org/news/2010-02-23


Auf der nVidia-Produktwebseite sind nun weitere Desktop-Vertreter der GeForce 300 Grafikkarten-Serie aufgetaucht: GeForce GT 320, 330 & 340. Die Karten sind allerdings nur im OEM-Geschäft erhältlich – und da nVidia dies bei den bislang schon erhältlichen GeForce 300 Karten so durchgehalten hat, wird dies wohl auch so sein. Was ein großes Glück für nVidia ist, denn somit bleibt der Wirbel um diese Karten weitgehend nur theoretisch – nicht auszudenken, wenn dieser Chip- und Spezifikationsmischmasch im Retail-Segment auftauchen würde. Ein relativ einfacher Vertreter ist da noch die GeForce GT 320, die auf dem GT215-Chip mit nur 72 Shader-Einheiten basiert – eine Karte etwas kleiner als die GeForce GT 240 also. Ein direkter Wiedergänger der GeForce GT 240 ist dann die GeForce GT 340 auf Basis des GT215-Chips – exakt dieselben Hardware-Daten und Taktfrequenzen, eine direkte Umbenennung.

Die GeForce GT 330 schlägt dann aber total aus der Reihe: Diese Karte basiert auf dem altehrwürdigen G92b-Chip und bietet damit abweichend von allen anderen GeForce 300 Modellen nur DirectX 10.0. Hinzu kommen vollkommen variable Spezifikationen, wie man es lange nicht mehr in diesem Geschäft gesehen hat: Die Anzahl der Shader-Einheiten kann zwischen 96 und 112 schwanken, die Taktraten zwischen 500 bis 550 MHz Chiptakt und 1250 bis 1340 MHz Shadertakt. Das Speicherinterface kann zudem sowohl 128 Bit, 192 Bit oder 256 Bit breit sein und entweder mit 500 MHz schnellem (langsamen) DDR2-Speicher oder 800 MHz schnellem DDR3-Speicher ausgerüstet sein. In der kleinsten Ausführung hat man ergo eine Karte, welche aufgrund ihres niedrigen Speichertakts die GeForce GT 240 DDR3 noch klar unterbietet – in der größten Ausführung eine Karte, welche etwas schneller als die GeForce GT 240 DDR3 sein sollte.

Der potentielle Performanceunterschied zwischen größtmöglicher und kleinster Ausführung einer GeForce GT 330 liegt bei geschätzten 50 Prozent – da passen unter Umständen zwei reguläre Grafikkarten hinein. Auch wenn es nur eine OEM-Variante ist und die OEMs solche frei nach Gusto anpassbare Produkte mögen, ist dies eigentlich nichts, womit sich ein großer Hersteller wie nVidia öffentlich blicken lassen sollte. Denn auch Käufer von OEM-Systemen schauen unter Umständen auf die nVidia-Webseite, um die Spezifikationen der eigenen Hardware gegenzuchecken – was in diesem Fall von völlig "fliessenden" Spezifikationen nicht gut für nVidia aussieht. Davon abgesehen vermuten wir, daß der Zweck dieser gesamten Serie allein ist, mittels des gutklingenden Namens der GeForce GT 330 die letzten Reste an G92b-Chips abzusetzen und daß GeForce GT 320 & 340 nur deswegen aufgelegt wurden, um die GeForce GT 330 inmitten dieser GT215-basierten Karten etwas zu tarnen ;).

:up:

AnarchX
2010-02-24, 09:02:56
Wobei bei der GT 330 nicht wirklich klar ist, ob es hier eine solch große Leistungsspanne gibt.

Denkbar wäre:
96SPs @550/1340
112SPs@500/1250

Bei der Speicherbandbreite gibt man ja auch schon den Bereich an:
Speicherbandbreite (GB/s) 24-32

http://www.nvidia.de/object/product_geforce_gt_330_de.html
Dementsprechend kommt DDR2 hier nur beim 192 und 256-Bit SI zum Einsatz.

Somit liegt der Unterschied zwischen schnnellster und langsamster GT 330 wohl maximal bei 33%.

Und man ist definitiv schneller als die 72SPs GT 320 mit 25GB/s:
http://www.nvidia.de/object/product_geforce_gt_320_de.html

AYAlf_2
2010-02-24, 09:09:08
Somit liegt der Unterschied zwischen schnnellster und langsamster GT 330 wohl maximal bei 33%.


was das ganze leider nicht besser macht.

AnarchX
2010-02-24, 09:30:30
was das ganze leider nicht besser macht.
Das liegt aber wiederum in einem vertretbaren Rahmen für eine Mainstream-Karte.
Hier war es schon immer üblich DDR2 oder langsameren Speicher einzusetzen, bei AMDs aktueller 5570 gibt z.B. auch Karten mit 666MHz DDR3 statt der 900MHz Referenz: http://geizhals.at/deutschland/a505377.html

Und bei der GT 330 sprechen wir von 33% Unterschied bei der Speicherbandbreite, die im Endeffekt wohl nicht zu 100% in die Spieleleistung einfließen, sodass der reale Unterschied noch geringer ist.

Bucklew
2010-02-24, 10:20:59
was das ganze leider nicht besser macht.
Es ist völlig normal in diesem Bereich. Im Mainstream ist es oft so, dass es DDR2, DDR3, verschiedene Taktungen oder was auch immer zur Auswahl gibt.

Und 90% der Käufer merken eh keinen Unterschied zwischen ner GT330 in super schnell und GT330 in super langsam.

Gast
2010-02-24, 11:12:54
Es ist völlig normal in diesem Bereich.
Nein, ist es nicht.

Und 90% der Käufer merken eh keinen Unterschied zwischen ner GT330 in super schnell und GT330 in super langsam.
33% merkt man schon.
Das reicht sogar um ein Stufe bei der Auflösung hoch zu gehen.

Gast
2010-02-24, 12:11:29
Ich finde es einfach nur lächerlich, wie hier einige versuchen das Verhalten von nVidia mit dem Vorgehen von ATI zu rechtfertigen bzw. zu verteidigen. Letztendlich ist es der Versuch den Kunden über die Eigenschaften eines Produktes im Unklaren zu lassen. Das ist jetzt höflich ausgedrückt. Mir kommt es so vor wie im Kindergarten damals. Der eine zeigt auf den anderen und rechtfertigt so sein handeln.

Kurzum der Kunde muss sich noch genauer informieren. Wenn er das nicht tut und nVidia blind vertraut, muss er halt seinen Geldbeutel öfters öffnen als andere. Blindes vertrauen ist in der heutigen Zeit und insbesondere bei Grosskonzernen, die immer versuchen ihr öffentliches Meinungsbild zu kontrollieren bzw. zu manipulieren, eigentlich fehl am Platz. Sollte man meinen. Man darf hier allerdings nicht verkennen, dass es sich bei einer Grafikkarte um ein hochtechnisches Produkt handelt, das nicht jeder verstehen kann. Selbst im 3DCenter gibt es genug die davon wenig Ahnung haben. Das nutzt nVidia schamlos aus und treibt das ganze auf die Spitze. Da sind sich die meisten hier einig.

Gast
2010-02-24, 12:30:45
Naja mal schauen wie lange NV braucht bis auf der Basis des Fermi eine komplette Produktpalette vorhanden ist.
Das sie jetzt GT 2xx und Co. umbenannt als neues Mainstream verkaufen wollen finde ich nicht gut!

Bucklew
2010-02-24, 12:34:03
Nein, ist es nicht.
Informier dich mal, im OEM-Bereich ist es vollkommen normal und üblich, dass die Hersteller unter einer Kartenbezeichnung verschiedene Taktungen, Memorybandbreiten, -taktungen und -größen verkaufen.

Siehe:
http://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie

Die angegeben Taktraten sind die von AMD empfohlenen bzw. festgelegten, beim Speichertakt wird der I/O-Takt angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten besitzen.

Gast
2010-02-24, 16:36:00
informier dich doch bitte vorher bevor du hier irgendetwas postest.. danke
Informieren über was?
Das du hier zusammenhang loses Zeug verbreitest?

Du musst lernen dich klar auszudrücken, das was du geschrieben hast, ergibt keinen Sinn.
Man kann die Dinge klar und deutlich machen, dann kann man auch darüber diskutieren.

Gast
2010-02-24, 16:43:07
Weil damals noch die 8000er Serie aktuell war, was denn sonst.Die 8800 GTX und Ultra waren damals auch noch für gutes Geld zu kaufen.

Mit einer 9000er Bezeichnung hätte NVidia sich damals regelrecht selbst ins Nest gekackt...wer macht sowas schon?
8800GTS 512 ist im weiten 2stelligen % Bereich vor der 8800GTS 640.
8800GT kann gut mit der 8800GTS 640 mithalten, bzw auch überholen. Es ergibt keinerlei Sinn sie so zu nennen.

8800GTX und Ultra sind gute Ausreden, da stimme ich dir zu. Aber keine Erklärung warum GTS und GT genommen wurde. Besonders da es sich bei denen nicht um Massenkarten wie der 8800 GT handelt.
Die GX2 oder die 9800GTX waren nicht viel später dran. Sie waren ganz klar als Ablösung der teueren 8800GTX und Ultra gedacht.

Cyphermaster
2010-02-24, 17:06:00
Es ist völlig normal in diesem Bereich. (...)
Und 90% der Käufer merken eh keinen Unterschied zwischen ner GT330 in super schnell und GT330 in super langsam.Normal != gut.

Und es ist auch definitiv mehr Abzocke als akzeptables Geschäftsgebaren, wenn man seine Produkte so umlabelt, daß der durchschnittliche Käufer sich schon fast verschätzen muß. Das Argument "die andern bescheißen doch aber genauso" zählt für mich da nicht. Es ist bei KEINEM Hersteller gut.

Gast
2010-02-24, 17:26:37
Es ist bei KEINEM Hersteller gut.
Aus genau diesem Grund wird es auch nach 20 Seiten für Bucklew unverständlich bleiben, warum im selben Satz AMD gelobt werden muss. Es macht schlicht keinen Sinn.

AYAlf_2
2010-02-24, 17:33:20
unglaublich wie hier einige nvidiafanboys (meist gaeste) die tatsachen nicht sehen wollen. ich klinke mich hier mal raus. das ganze regt mich nur noch auf.
nvidia ist toll, nvidia macht alles richtig. ein hoch auf nvidia.

Schlammsau
2010-02-24, 17:34:33
Aus genau diesem Grund wird es auch nach 20 Seiten für Bucklew unverständlich bleiben, warum im selben Satz AMD gelobt werden muss. Es macht schlicht keinen Sinn.

Wo wird AMD gelobt? :confused:

Aber auch wenn AMD/ATi es in der Vergangenheit auch gemacht hat (4?x in 10 Jahren), nicht in der Fülle und der Dreistigkeit wie nVidia!

Is leider so, auf eine ATi Umlabelung kommen "10" Umlabelungen seitens nVidia.

Armaq
2010-02-24, 17:41:50
Wo wird AMD gelobt? :confused:

Aber auch wenn AMD/ATi es in der Vergangenheit auch gemacht hat (4?x in 10 Jahren), nicht in der Fülle und der Dreistigkeit wie nVidia!

Is leider so, auf eine ATi Umlabelung kommen "10" Umlabelungen seitens nVidia.
Hilfreicher Vergleich.

Merkt man eigentlich, wenn man derart biased ist?

Schlammsau
2010-02-24, 17:55:07
Hilfreicher Vergleich.

Merkt man eigentlich, wenn man derart biased ist?

Spar dir das!

Bucklew
2010-02-24, 18:16:58
Informieren über was?
Das du hier zusammenhang loses Zeug verbreitest?

Du musst lernen dich klar auszudrücken, das was du geschrieben hast, ergibt keinen Sinn.
Man kann die Dinge klar und deutlich machen, dann kann man auch darüber diskutieren.
Tut mir leid, wenn du der deutschen Sprache nicht mächtig bist, kann ich nichts dafür. Komischerweise versteht der Rest im Thread sehr wohl, was ich schreibe.

Und es ist auch definitiv mehr Abzocke als akzeptables Geschäftsgebaren, wenn man seine Produkte so umlabelt, daß der durchschnittliche Käufer sich schon fast verschätzen muß. Das Argument "die andern bescheißen doch aber genauso" zählt für mich da nicht. Es ist bei KEINEM Hersteller gut.
Eben genau das kritisiere ich. Meinetwegen können ATI, Nvidia, S3 und Intel Rebranden solange sie wollen. ABER: WENN ich es kritisiere, dann bitte überall! Einige hier im Thread allerdings mockieren sich über Nvidia und nen Satz später ATIs Umbennungen schön zu reden - das nennt man "Doppelmoral".

Aus genau diesem Grund wird es auch nach 20 Seiten für Bucklew unverständlich bleiben, warum im selben Satz AMD gelobt werden muss. Es macht schlicht keinen Sinn.
Ja, es ist Quatsch. Es geht eben für einige hier im Thread darum WER es macht (um halt den "Hass"-Hersteller mies zu machen) und nicht um das WAS.

Spar dir das!
Warum? Weil er Recht hat?

Ab wann ist denn jetzt (deiner Meinung nach) ein Rebranding ok und wann ist es nicht mehr ok? Bisher waren 2 noch ok und 5 nicht ok. Aber wo ist da jetzt die Grenze? 3? 4?

Gast
2010-02-24, 18:33:10
Wo wird AMD gelobt? :confused:

Da:

Aber auch wenn AMD/ATi es in der Vergangenheit auch gemacht hat (4?x in 10 Jahren), nicht in der Fülle und der Dreistigkeit wie nVidia!

Is leider so, auf eine ATi Umlabelung kommen "10" Umlabelungen seitens nVidia.

Schade wenn du es nicht merkst, egal ob unbewusst oder bewusst.
Du oder Andere könnten einfach schreiben das oder das gefällt mir nicht.
Stattdessen schreiben sie wie "AYAlf_2" "Nvidias Komplettes Programm ist umbenannt und Müll" oder wie du "AMD machts zwar auch, aber bei Nvidia ists schlimm 1111, weil häufiger oder sonstwie".

Bei AYAlf_2 besteht das Problem, der Diskussionfähigkeit, wer schreibt Xy ist generell schrott, mit dem kann man auf dieser Basis nicht weiter disskutieren.
Bei dir besteht das Problem der Glaubwürdigkeit, du kannst nicht AMDs Politik gut stellen, wenn du die selben Praktiken woanders kritisierst. Das mit der Menge ist eine ganz billige Ausrede, besonders bei Uneinigkeit wie der HD3 oder GF200. Am Besten du erwähnst AMD gar nicht, sondern beschränkst dich auf Nvidia, das würde schonmal enorm helfen. Der letzte Schritt, denn können wir gemeinsam beschreiten, der detailierten Betrachtung und Kritik der Produkte.

Gast
2010-02-24, 18:35:31
Tut mir leid, wenn du der deutschen Sprache nicht mächtig bist, kann ich nichts dafür. Komischerweise versteht der Rest im Thread sehr wohl, was ich schreibe.
Hä, um was gehts und was hast du mit dem Beitrag von AYAlf_2 zu tun?

No.3
2010-02-24, 18:38:23
Du hättest mit deinem Freund auch auf nvidia.de gehen können...
Ja, es ist bitter - aber wenigsten verheimlichen sie es nicht. :rolleyes:

http://www.nvidia.de/page/geforce_m_series.html

nun ja, diese Möchtgerninformationsseite hätte sich nVidia auch schenken können, z.B.


PRODUKT Rechen Gaming
einheiten Leistung
GeForce GT 335M 72 20x
GeForce GT 330M 48 20x
GeForce GT 325M 48 20x
GeForce GT 240M 48 20x
GeForce GT 230M 48 20x
GeForce GT 130M 32 20x
GeForce 9600M GT 32 20x


was bitte ist "Gaming-Leistung" und warum haben alle diese Produkte "20x" als Gaming-Leistung obwohl die Zahl der Recheneinheiten unterschiedlich ist? 48 Recheneinheiten findet man bei 330M, 325M, 240M und 230M - wo ist da nun der Unterschied zwischen diesen 4 Produkten? Dito bei 130M und 9600M mit 32 Recheneinheiten. Ansonsten, was ist mit Recheneinheiten gemeint? Zahl der Shader, oder was?

diese Übersichtstabelle enthält also Null Information und wenn man ein Produkt anklickt findet man ein paar mehr Informationen, diese dann aber auch uneinheitlich, je nach Produkt mal mehr oder weniger Zusatzinformationen was die Technik angeht.

Gast
2010-02-25, 00:59:26
Ich finde es bedauerlich das die Mods hier nicht eingreifen.

Wer hier NV mit ATI verglicht, leidet an Realität ferne und betreibt Propaganda für Nv. Das einige für NV die Realität solange verdrehen, bis es ihnen passt.

1. ATI reduziert die x5xx Nummer auf x1xx das ist min. Eine Leistungsklasse darunter. Falls sie es den tun, bisher habe ich aber noch nicht erlebt das sie es gleich zweimal oder mehrmals hinter einander tun.
2. Der 92(b) wurde nun schon so oft Recycelt, dann musste ATI um gleich zuziehen die 2000/3000er Serie in die neue 5000er Serie integrieren.
... ist mir zu dumm in einem solchen Forum alle Unterscheide aufzulisten die bei gesundem Menschen Verstand auf dem ersten Blick ersichtlich sind.

Ergo es ist ein Äpfel Birnen Vergleich.

Und ja, ich werde mir niemals eine GT3xx Kaufen. Aber ich bekomme eine Wut im Bauch, wenn ich irgendwo hinkomme und jemand so eine Karte im Rechner hat und auf solch eine Karte hineingefallen ist.

Andere Würden drüber lachen, aber bei anderen käufen (Auto, Kühlschrank, Milch, Butter, Gammel Fleisch...) ist man vielleicht selbst der auf so ein Faules Ei ihn einfällt.
Jetzt kommt bestimmt das Argument das Internet... das funktioniert nicht, weil ich dann das ganze Leben nur damit verbringen müsste die Produkte vor dem kauf zu überprüfen. Das geht nun mal nicht!
Bei einem PC sind das nun mal schon ein paar Komponenten...

wer anderes behauptet ist wohl Schüler, Arbeitslos und hat massig Zeit oder ist knapp bei Kasse und kann sich sowieso nur das billigste leisten.

Ich sehe in so einem Falle die Spezialisten in der Pflicht, auf den Missstand aufmerksam zumachen!

Ich hoffe ich habe bei einigen einen Denkprozess angestoßen, allerdings ist es wohl die immer die "Hoffnung stirbt zu Letzt".

Bucklew
2010-02-25, 01:35:56
Wer hier NV mit ATI verglicht, leidet an Realität ferne und betreibt Propaganda für Nv. Das einige für NV die Realität solange verdrehen, bis es ihnen passt.
Es geht hier nicht um die Verdrehung von Tatsachen, es geht um die Frage, ob man Praktiken bie Firma A anprangern darf und gleichzeitig bei Firma B verteidigen - das tun nämlich komischerweise genau die Leute, die am lautesten auf Nvidia schimpfen.

1. ATI reduziert die x5xx Nummer auf x1xx das ist min. Eine Leistungsklasse darunter. Falls sie es den tun, bisher habe ich aber noch nicht erlebt das sie es gleich zweimal oder mehrmals hinter einander tun.
Ah, also Rebranding ist ok, wenn man die Leistungsklasse ändert. Also ist das Rebranding in Ordnung, wenn man die Leistungsklasse reduziert, seh ich das richtig?

2. Der 92(b) wurde nun schon so oft Recycelt, dann musste ATI um gleich zuziehen die 2000/3000er Serie in die neue 5000er Serie integrieren.
Moment, laut oben ist doch Rebrainding doch ok, wenn man die Leistungsklasse reduziert, wie es beim G92 doch war (Highend -> Mittelklasse). Kann doch also nicht komplett zählen.

Abgesehen davon: Wo ist denn das Problem darin den G92 noch einzusetzen, solange er Preis-/Leistungsmäßig noch mithalten kann?

Und ja, ich werde mir niemals eine GT3xx Kaufen. Aber ich bekomme eine Wut im Bauch, wenn ich irgendwo hinkomme und jemand so eine Karte im Rechner hat und auf solch eine Karte hineingefallen ist.
>95% der Käufer einer GT3xx Karte haben mit dem Kauf dieser Karte absolut richtig gelegen und sind nicht übers Ohr gehauen worden.

Komisch, der "Dau" (der ja eigentlich immer bei diesen Diskussionen aus dem Schrank geholt wird) muss ja eigentlich alle 2 Wochen einen neuen PC kaufen, um ständig übers Ohr gehauen zu werden....

Andere Würden drüber lachen, aber bei anderen käufen (Auto, Kühlschrank, Milch, Butter, Gammel Fleisch...) ist man vielleicht selbst der auf so ein Faules Ei ihn einfällt.
Komisch, ein Golf IV hat zu 100% dieselben Motoren wie ein Golf V, dennoch ist er ja "neuer" - warum beschwert sich da denn keiner? Und das ist ja nicht das erste Mal, war ja beim Golf V genauso!!111elf

Coda
2010-02-25, 04:42:38
Auch wenn ich Autovergleiche hasse: Bei einem solchen gibt es auch noch andere Differenzierungsmerkmale außer dem Motor :ugly:

kmf
2010-02-25, 08:38:07
Auch wenn ich Autovergleiche hasse: Bei einem solchen gibt es auch noch andere Differenzierungsmerkmale außer dem Motor :ugly:Breite Reifen, tiefergelegt und dickes Auspuffrohr. X-D

Grestorn
2010-02-25, 08:41:24
Wer hier NV mit ATI verglicht, leidet an Realität ferne und betreibt Propaganda für Nv. Das einige für NV die Realität solange verdrehen, bis es ihnen passt.

Es geht ja gar nicht darum, dass nVidia keine Kritik verdient. Die Frage ist eher, wie man das wertet. Die nVidia-Feinde behaupten ständig, da würde jemand über den Tisch gezogen, und nVidia gehört dafür auf das Schafott ... und werden nicht müde, das Gebetsmühlenartig zu wiederholen.

Besonders "angenehm" fällt in dieser Hinsicht nagus auf. Ein Kreuzzug wäre geradezu eine Untertreibung.

Und diese Übetreibung bei der Kritik provoziert natürlich eine Gegenreaktion. Und schon haben wir den schönsten Flamewar, den Du mit Deinem Posting gleich nochmal wunderbar angeheizt hast...

Persönlich sehe ich es so:

Der interessierte Käufer weiß genau, was er kauft.

Der Laie und Gelegenheitskäufer kriegt genau das, wofür er bezahlt. Sprich: Genauso viel Leistung wie Geld, das er bereit ist zu bezahlen. Er wird durch die Namenspolitik in keiner Weise benachteiligt oder über den Tisch gezogen. Denn diesem Käufer ist es vollkommen egal, ob der Chip nun 2 Monate oder 3 Jahre alt ist - so lange die Leistung und die Features dem gezahlten Preis entsprechen.

Und das ist beim GT300 auf jeden Fall der Fall.

Eher kritikwürdig finde ich, dass man nicht sofort weiß, was man exakt bekommt, wenn man eine GT330 kauft. Aber wenn ich das richtig verstanden habe, ist das auch eher Spekultation, weil es doch solche Karten noch nicht zu kaufen gibt, oder?

Gast
2010-02-25, 08:57:55
Eher kritikwürdig finde ich, dass man nicht sofort weiß, was man exakt bekommt, wenn man eine GT330 kauft. Aber wenn ich das richtig verstanden habe, ist das auch eher Spekultation, weil es doch solche Karten noch nicht zu kaufen gibt, oder?

Die Daten stehe auf der NV-Homepage. Spekulation ist das schon etwas unter trieben.

Gast
2010-02-25, 10:13:04
Ah, also Rebranding ist ok, wenn man die Leistungsklasse ändert. Also ist das Rebranding in Ordnung, wenn man die Leistungsklasse reduziert, seh ich das richtig?


1. Toll ist es nicht, aber wer hat's erfunden?! Richtig NV!

2. Wehr geht nun noch ein paar Schritte weite?! Richtig NV!

Wie verblendet muss man eigentlich sein. Entweder bist du von NV bezahlt oder... mit fällt nichts ein was dich nicht persönlich angreifen würde.


Es sind zwei total unterschiedliche Rebranding Kaliber, an die Kleinen hat uns NV und dann ATI gewöhnt. Aber was uns NV in den letzten Jahren auftischt ist Betrug. Die Klagen (besonders USA) werden noch kommen in ca. 1- 2 Jahren wenn es endlich der dümmste Enduser gemerkt hat.
NV hat hier und jetzt Probleme... mit Fermi und Co.



Moment, laut oben ist doch Rebrainding doch ok, wenn man die Leistungsklasse reduziert, wie es beim G92 doch war (Highend -> Mittelklasse). Kann doch also nicht komplett zählen.

Abgesehen davon: Wo ist denn das Problem darin den G92 noch einzusetzen, solange er Preis-/Leistungsmäßig noch mithalten kann?


Der G92(b) ist nicht mehr Wettbewerbsfähig, aber die Reste zu verscherbeln ist günstiger als diese Weg zuwerfen.

Der G92(b) wurde 2x als Highend verkauft als 8800gt(s) und dann als 9800gtx sogar aufgewertet, ganz großes Kino.
Dann kam er als GT150(?), GT250 und nun noch als GT340 als erst noch mal Umbenannt und dann X Jahre und Generationen später eine kleine Stufe herunter abgestuft.

Im Mobile Bereich wird ein 92(b) zum GTX280m das ist wohl die bodenloseste Frechheit den man je gesehen hat.


Seit der 8800gt sind die Bezeichnungen seltsam, immer wieder dachte ich NV macht mal endlich klar Schiff, aber jede Chance wurde (bisher) verpasst, von Generation zu Generation wird es verschlimmbessert.


@Grestorn
Wenn jemand die Geschäfts Polikit missbilligt ist er ein NV Feind?
Ich besitzt Mehrerer NV Karten mehr als ATI Karten.

Aber ich mag keine Leute die solch eine Firmenpolitik gut heißen die Kunden über den Tisch zieht.

Grund: Jemand der sich Informiert liest sich das Geschwafel von NV- Fankatikern (das ist wohl der Passendste Ausdruck) durch und kauft es aufgrund von Fehlinformationen.

Den Punkt der Meinungsfreiheit ist in diesem Fall schon längst überschritten, das ist Propaganda was einige betreiben. Wenn sie bezahlt werden ist es nachvollziehbar wenn nicht einfach nur Dummheit.



@ Bucklew
Du bist einfach Lernresistent man zeigt dir Unterschiede auf, du ignorierst sie oder versuchst sie zu relativieren, was dir aber nicht gelingt aufgrund schwacher Argumente die zum dem nicht funktionieren.

Bucklew
2010-02-25, 10:27:15
Auch wenn ich Autovergleiche hasse: Bei einem solchen gibt es auch noch andere Differenzierungsmerkmale außer dem Motor :ugly:
Eine Grafikkarte hat auch andere Differenzierungsmerkmale als nur den Chip - das haben aber mindestens 90% der ganz extremen Nvidia-Hasser, die ständig auf G92 rumhacken nicht verstanden.

1. Toll ist es nicht, aber wer hat's erfunden?! Richtig NV!
MUss ich dich leider enttäuschen. Schau mal nach was die X1050 für eine Karte war und wie sie vorher hieß - und vorallem von welchem Hersteller sie kam ;)

2. Wehr geht nun noch ein paar Schritte weite?! Richtig NV!
Ich sehe keine Unterschied zwischen einem Schritt und zwei Schritte - kritisiert werden sollte imho beides, du fängst aber auch schon wieder an ATI mit falschen Argumenten zu verteidigen (s. Punkt 1).

Wie verblendet muss man eigentlich sein. Entweder bist du von NV bezahlt oder... mit fällt nichts ein was dich nicht persönlich angreifen würde.
Bezahlt stimmt sogar ;D Dennoch kann ich mich mit den Fakten auseinander setzen.

Der G92(b) ist nicht mehr Wettbewerbsfähig, aber die Reste zu verscherbeln ist günstiger als diese Weg zuwerfen.
In dem Bereich, in dem der G92b jetzt verkauft werden soll ist er sehr wohl Wettbewerbsfähig.

Der G92(b) wurde 2x als Highend verkauft als 8800gt(s) und dann als 9800gtx sogar aufgewertet, ganz großes Kino.
Eben, der G92 wurde als GeForce 8 verkauft. Da Nvidia ja angeblich alle über den Tisch ziehen möchte, war das doch absolut kontraproduktiv?!

Dann kam er als GT150(?), GT250 und nun noch als GT340 als erst noch mal Umbenannt und dann X Jahre und Generationen später eine kleine Stufe herunter abgestuft.
Die GT340 basiert auf dem GT215.

Seit der 8800gt sind die Bezeichnungen seltsam, immer wieder dachte ich NV macht mal endlich klar Schiff, aber jede Chance wurde (bisher) verpasst, von Generation zu Generation wird es verschlimmbessert.
Mit Fermi wird es wohl eine klare Trennung zwischen DX11 (G*4*) und DX10 (G*3*) geben - die ist bei ATI schon aufgelöst worden.

Aber ich mag keine Leute die solch eine Firmenpolitik gut heißen die Kunden über den Tisch zieht.
Warum tust du es dann bei ATI?

@ Bucklew
Du bist einfach Lernresistent man zeigt dir Unterschiede auf, du ignorierst sie oder versuchst sie zu relativieren, was dir aber nicht gelingt aufgrund schwacher Argumente die zum dem nicht funktionieren.
Meine Argumente sind so schwach, dass ich deine komplett widerlegen konnte - das würde mir an deiner Stelle zu denken geben ;D

dllfreak2001
2010-02-25, 10:27:53
@Gast
Wie gesagt Notebookgrafik ist ein eigenes Feld, dass dort leistungsreduzierte Hardware vorkommt ist normal. Wobei dieser Hinweis vom Vorposter doch etwas Unbehagen bei mir verursacht.
Werden bei AMD auch Vorläufer-Chips als mobile Highend-Grafik der aktuellen Generaton verkauft?

Raff
2010-02-25, 10:30:32
Werden bei AMD auch Vorläufer-Chips als mobile Highend-Grafik der aktuellen Generaton verkauft?

Nein, die Mobility HD 5870, HD 5850 und HD 5650 (um mal die schnellsten zu nennen) sind neue Chips auf Basis von Cypress bzw. Juniper. Anbei sind alle Features der Desktopkarten, inklusive DirectX11, SGSSAA und Eyefinity.

MfG,
Raff

stickedy
2010-02-25, 10:44:35
MUss ich dich leider enttäuschen. Schau mal nach was die X1050 für eine Karte war und wie sie vorher hieß - und vorallem von welchem Hersteller sie kam ;)
Uh, wenn man schon mit der Generation ankommt, kann man ganz schnell mit der Geforce 7100 GS (NV44) kontern. Diese wurde übrigens im Oktober 2006 auf den Markt gebracht, die genannte Radeon erst im Januar 2007... Von daher...

Mit Fermi wird es wohl eine klare Trennung zwischen DX11 (G*4*) und DX10 (G*3*) geben - die ist bei ATI schon aufgelöst worden.
Das Wort "wohl" zeugt nicht von besonders großer Zuversicht. Die ich auch nicht teile, nVidia hat da einfach ein bißchen sehr viel umbenannt in letzter Zeit...
Und wegen der klaren Trennung: Die gibt es bei AMD bei der aktuellen Generation und bei der davor auch. Auch ist es meiner Meinung nicht so schlimm wenn eine Einsteigslösung einen niedrigeren Tech-/DirectX-Level hat und dieser dann quasi irgendwann im Produktsortiment hoch springt. Was meiner Meinung nach nicht geht, ist wenn man DirectX 10.1 Chips als Einstieg bringt, dann kommt irgendwann eine DirectX 10 Lösung ohne das man das vom Namen oder sonstwie erwarten würde und dann geht's mit Dx 10.1 wieder weiter...

Grestorn
2010-02-25, 11:01:23
@Grestorn
Wenn jemand die Geschäfts Polikit missbilligt ist er ein NV Feind?
Ich besitzt Mehrerer NV Karten mehr als ATI Karten.

Nicht weil Du es missbilligst, sondern weil Du das immer und immer wieder tust und daraus einen Kreuzzug machst.

Aber ich mag keine Leute die solch eine Firmenpolitik gut heißen die Kunden über den Tisch zieht.Gut heißen tut das eigentlich keiner.

Und über den Tisch gezogen wird auch keiner (siehe meinen Beitrag zu dem Thema).

Gast
2010-02-25, 11:16:32
MUss ich dich leider enttäuschen. Schau mal nach was die X1050 für eine Karte war und wie sie vorher hieß - und vorallem von welchem Hersteller sie kam ;)

Du solltest mal (viel) weiter in der Geschichte zurück gehen... mehr verrate ich dir nicht.
Nur noch soviel es war definitiv NV, da war ATI noch nicht im Gameing Bereich aktiv.
Es ist somit unmöglich was du behauptest :p

Entweder bist du noch zu jung und unerfahren oder einfach nur vergesslich?

Der G92 war auch anfangs in der 9800 Serie zu finden da der 92(b) noch nicht fertig(?) oder gut genug war, das sind Fakten die du unterschlägst!

Der ein zigste unterschied war Hybridpower das nie funktionierte...

Sorry, meinte statt 340er die 330er aber wer blick da schon noch durch? Mir ist es ab der 9800 zu Bunt geworden und ich lausche nur grob, ob es endlich besser wird, damit ich dann wieder aufmerksam das geschehen verfolgen kann.


Der Fermi wird zwar als 4x0GTX laufen aber ich glaube nicht das NV sich bei der 400er mit DX11 daran halten wird... bisher ist noch nichts von den kleineren Geschwistern zu hören, was auf einen nahe liegen Launch hindeutet würde. Es werden wohl sehr warscheinlich wieder Lückenfüller herhalten müssen, ergo wird der GT215 etc. herhalten müssen vor allem. Zudem ist er "gerade" erst auf dem Markt gekommen und er muss erst noch seine Entwicklungskosten wieder einspielen.

Warum wohl hat NV nun doch DX10.1 eingeführt? Weil DX11 bei ihnen so glatt lief? Weil DX11 NV schnell einführen will/kann?

Der Druck von ATI und OEMs DX10.1 einzuführen wahr wohl überschaubar, es wird doch von NV immer CUDA und PhysiX so groß beworben das doch so viel wichtiger ist...

Ich glaube einige habe noch nicht die tief greifenden Probleme in denen NV steckt begriffen.
Das Desaster was sich langsam abzeichnet liegt irgendwo zwischen R600 und Voodoo 6000. Das wird noch schlimmer bevor es wieder besser wird.



@ dllfreak2001

Ja, es ist ein eigenes Feld, aber so dramatisch wie heute die Namensgebung ist war es noch nie, wenn die 280GTX als 9800er gelaufen wäre mit Reduziertem Takt ok aber einen G92(b) Chip als GT200 Chip zu verkaufen ist nicht ok. Z.B. wegen GPGPU Eigenschaften, gesteigerte IPC etc.

Labberlippe
2010-02-25, 11:16:52
MUss ich dich leider enttäuschen. Schau mal nach was die X1050 für eine Karte war und wie sie vorher hieß - und vorallem von welchem Hersteller sie kam ;)


Hi

Na haben wir wieder was gesucht und gefunden?

Erinnere Dich mal brav an die GF4 MX verarsche.

Eigentlich genau genommen hat ATI damals mit der ersten Radeon angefangen eine neue Namensgebung einzuführen.

Radeon VE /7000
Radeon SDR / 7200
Radeon DDR / 7500

Die DX 8 Chips fingen dafür mit der Zahl 8xxx an, so war es wenigsten ersichtlich in welcher "Klasse" welcher Chip war.

Im Gegensatz zu nVIDIA labelte AMD zwar auch die 1050 er es war eben zahlenmässig ersichtlich das die Karte das Schlusslicht ist.
Bei nVIDIA wird das ganze zu einen Wirwarr mittlerweile.

Ich persönlich finde das beide Hersteller die Finger von so etwas lassen sollen, nur verzweifelt bei einen anderen Hersteller ne Karte zu suchen damit sein geliebter IHV wieder im besseren Licht steht, ist für eine sachliche Diskussion nicht förderlich.

Wenn nVIDIA jetzt die ganze Serie unter 3xx laufen lässt und die neue Generartion nur unter 4xx dann habe ich kein Problem damit.
So ist wenigsten eine Trennung von der Vorgänger Generation zu Unterscheiden.

Hoffen wir mal das es nicht zu sehr wieder in Zukunft ausartet aber so wie einige nVIDIA hier schönreden kann man auch nicht ganz unkommentiert lassen.

Gruss Labberlippe

Grestorn
2010-02-25, 11:23:14
Habt ihr's bald? Solche Marketingstricks sind überall üblich, da ist keine Firma vollkommen unschuldig.

Es ist echt kindisch dieses "ATI hat vorher damit angefangen" - "nein, es war nVidia" ... "rabähhhh!!"

Gast
2010-02-25, 11:30:02
Habt ihr's bald? Solche Marketingstricks sind überall üblich, da ist keine Firma vollkommen unschuldig.

Es ist echt kindisch dieses "ATI hat vorher damit angefangen" - "nein, es war nVidia" ... "rabähhhh!!"

NV hat den Bogen eindeutig überspannt, mehr gibt es dazu nicht zu sagen. Jetzt verteidigen nur die die letzten Anhänger diese Praktiken, du gehörst offensichtlich dazu.

Gast
2010-02-25, 11:45:05
Nicht weil Du es missbilligst, sondern weil Du das immer und immer wieder tust und daraus einen Kreuzzug machst.


*LOL*

1. Leute die NV immer in Schutznehmen und grundlos behaupten die Konkurrenz sei genauso schlimm /schlimmer sind in deinen Augen besser?! Vielleicht provizieren sie diese Reaktion?! Schon mal auf diese Idee gekommen?

2. Das NV durch immer wiederholendes Reabranding wohl jedes mal eine verbale Ohrfeige kassieren ist falsch? Es ist nur beim erste mal okey dies zu kritisieren, ab dann kann man machen was man will?

3. Kritisiere ich nur mit dem ersten Post NV direkt mit dem 1. und 2. Post kritisiere ich die Leute die NV verteidigen, weil dies noch schlimmer sind. Mein Kreuzzug wie du es nennst, richtet sich gegen Fans die Unwahrheiten verbreiten.
Hinter einer Firma wie ein treu doofer Dackel hierher zulaufe ist doch peinlich, oder?!

@Grestorn

Oute dich endlich als NV Fan, denn keine Kommentare (nicht nur in diesem Thread) zwar ein versuch neutral aufzutreten, aber sind es einfach nicht.
Alle deine Beiträge enthalten eine Unterschwellige Partei Ergreifung, welche weißt du am besten selbst.


@ Labberlippe
Muss du alles verraten? ;-) Bucklew sollte es mal selbst heraus finden damit er es sich merken kann, damit er endlich mal merkt was für eine Firma er auf Teufel komm raus verteidigt. Und das er im Namen NVs den schwarzen Peter versucht weiter zureichen.

Bei eine CEO wie ihn NV hat ist da eigendlich offensichtlich was NV für eine Firma ist, für mache scheinbar nicht.

Scheinbar ist die Liebe zu machen Firmen sehr groß, bekanntlich mach ja Liebe Blind *ggg*

Gast
2010-02-25, 13:12:18
Kleiner Spickbrief:
http://photos.pcpro.co.uk/blogs/wp-content/uploads/2010/02/Nvidia-G92-history.png
http://www.pcpro.co.uk/blogs/2010/02/24/its-at-it-again-nvidia-rebrands-yet-more-gpus/

Bucklew
2010-02-25, 14:25:36
Uh, wenn man schon mit der Generation ankommt, kann man ganz schnell mit der Geforce 7100 GS (NV44) kontern. Diese wurde übrigens im Oktober 2006 auf den Markt gebracht, die genannte Radeon erst im Januar 2007... Von daher...
Diese Karte war allerdings deutlich höher getaktet, während die Radeon X1050 1:1 der X550 entsprach.

Das Wort "wohl" zeugt nicht von besonders großer Zuversicht. Die ich auch nicht teile, nVidia hat da einfach ein bißchen sehr viel umbenannt in letzter Zeit...
Ich weiß es nicht, weißt du es? Im Gegensatz zu so manchem Experten hier maße ich mir halt nicht an irgendwelche Dinge zu vermuten, bevor es nicht das geringste Indiz dafür gibt.

Und wegen der klaren Trennung: Die gibt es bei AMD bei der aktuellen Generation und bei der davor auch. Auch ist es meiner Meinung nicht so schlimm wenn eine Einsteigslösung einen niedrigeren Tech-/DirectX-Level hat und dieser dann quasi irgendwann im Produktsortiment hoch springt. Was meiner Meinung nach nicht geht, ist wenn man DirectX 10.1 Chips als Einstieg bringt, dann kommt irgendwann eine DirectX 10 Lösung ohne das man das vom Namen oder sonstwie erwarten würde und dann geht's mit Dx 10.1 wieder weiter...
Es ist also ne klare Trennung, wenn unter einer Generation DX10.1 und DX11 laufen? Aja....

Du solltest mal (viel) weiter in der Geschichte zurück gehen... mehr verrate ich dir nicht.
Nur noch soviel es war definitiv NV, da war ATI noch nicht im Gameing Bereich aktiv.
Es ist somit unmöglich was du behauptest :p
Aha und wann und mit welcher Karte? Da schieß doch mal los...

Entweder bist du noch zu jung und unerfahren oder einfach nur vergesslich?
Na war klar, dass von Gästen wieder mal nur blöde Anmachen kommen, anstatt ein sachliches Gespräch :rolleyes:

Der G92 war auch anfangs in der 9800 Serie zu finden da der 92(b) noch nicht fertig(?) oder gut genug war, das sind Fakten die du unterschlägst!
Der G92 wurde zuerst im Oktober 2007 auf der 8800GT veröffentlich. Soviel zum Thema jung, unerfahren und vergesslich und so ;D

Der Fermi wird zwar als 4x0GTX laufen aber ich glaube nicht das NV sich bei der 400er mit DX11 daran halten wird...
Was du glaubst ist mir eigentlich scheiss egal.... Wobei sich ja auch niemand
beschweren kann, bei ATI ist ja schließlich gar kein Problem, wenn in der DX11-Reihe einige alte DX10.1-Chips sind. Man muss dann ja quasi mit der Lupe suchen und so :biggrin:

1. Leute die NV immer in Schutznehmen und grundlos behaupten die Konkurrenz sei genauso schlimm /schlimmer sind in deinen Augen besser?! Vielleicht provizieren sie diese Reaktion?! Schon mal auf diese Idee gekommen?
Provozieren tun nur leute wie du, die ständig auf Nvidia rumhacken und das selbe Verhalten bei ATI bis aufs Blut verteidigen. Kann im Thread ja mehrmals nachlesen.

3. Kritisiere ich nur mit dem ersten Post NV direkt mit dem 1. und 2. Post kritisiere ich die Leute die NV verteidigen, weil dies noch schlimmer sind. Mein Kreuzzug wie du es nennst, richtet sich gegen Fans die Unwahrheiten verbreiten.
Unwahrheiten verbreiten bisher eigentlich nur die Leute, die ATI verteidigen. Von wegen NVidia wäre die erste Firma, die das gemacht hätte und GT340 wäre nur DX10 usw usf. Überall nur Halbwahrheiten, um sich in der argumentative Ecke, in die man sich geredet hat, irgendwie noch wehren kann, ohne zugeben zu müssen, dass man unrecht hat.

Erinnere Dich mal brav an die GF4 MX verarsche.
Wo gab es bei der GeForce 4 denn Rebranding?

Gast
2010-02-25, 14:36:42
Kleiner Spickbrief:
http://photos.pcpro.co.uk/blogs/wp-content/uploads/2010/02/Nvidia-G92-history.png
http://www.pcpro.co.uk/blogs/2010/02/24/its-at-it-again-nvidia-rebrands-yet-more-gpus/


Dort fehlt die 9800GTX vom 1.April 2008 scheinbar hat NV da einen Aprilscherz veröffentlicht auf Kosten der Kunden.

http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie

Die GT und GTX sind dann G92(b) also auch nicht wirklich besser, in denn in der ersten Revision war der Stromverbrauch leicht höher und die Taktrate kaum besser, nichts was der G92 nicht geschafft hätte.

LovesuckZ
2010-02-25, 14:44:52
Dort fehlt die 9800GTX vom 1.April 2008 scheinbar hat NV da einen Aprilscherz veröffentlicht auf Kosten der Kunden.

http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie

Die GT und GTX sind dann G92(b) also auch nicht wirklich besser, in denn in der ersten Revision war der Stromverbrauch leicht höher und die Taktrate kaum besser, nichts was der G92 nicht geschafft hätte.

Die 9800GTX war ein neues Produkt, dass es vorher nicht gab.

Showtime
2010-02-25, 14:47:29
Und über den Tisch gezogen wird auch keiner.

Naja... Eine Sache ist hier, glaube ich, noch gar nicht angesprochen worden. Früher lief die Sache ungefähr so: Du hattest eine GF3 im PC, bist in den Laden gegangen, hast dir eine GF4 gekauft. Resultat: Bumms, ein ordentlicher Leistungszuwachs (gleiche Leistungsklasse vorausgesetzt). Da gab es nie etwas zu rütteln. GF3 auf 4, 6 auf 7 oder was auch immer resultierte IMMER in einem Leistungszuwachs.
Als relativ informierter Käufer, d.h. derjenige, der immerhin weiß, dass es Nvidia und ATI gibt und dass man öfters mal neue Treiber installieren sollte, sieht das jetzt anders aus. Ich hab' eine 9600 GT, kaufe mir eine GF 300-schlagmichtot (die laut ihres Namens ganze zwei Generationen weiter vorne liegt), da ich denke "Hey, nach drei Jahren Entwicklung muss das Teil meine alte Mühle ja so richtig abziehen", und was passiert? Das Ding ist identisch! Und jetzt kommt mir nicht mit irgendwelchen einstelligen Prozentwerten.

Bucklew, lass doch mal ATI aus dem Spiel. Hier geht's um Nvidias Sperenzchen. Mach 'nen eigenen Thread auf, wenn's dir um den Vergleich geht. Du rechtfertigst Nvidias Mist mit dem eines anderen Herstellers. Unter Stalin sind 'ne Menge Leute gestorben, also ist es in Ordnung, dass es bei Hitler genauso war. So läuft das nicht.
Und nein, ich bin nicht biased. In den letzten Jahren hatte ich nur Grün, weil sich zum Zeitpunkt des Kaufs eben Nvidia als bessere Wahl herausgestellt hat. Im Moment würde ich Ati kaufen.

Gast
2010-02-25, 14:52:34
Wo gab es bei der GeForce 4 denn Rebranding?

Du bekommst die Rätsels Lösung und siehst es immer noch nicht, kannst du überhaupt lesen???
Die Geforce 4 MX Serie die eine Gefroce 2 war?!
Geforce 4 MX == DX 7.0 == Geforce 2 OC !FAKE ALARM!
Geforece 4 TI == DX 8.0 == verbesserte Gefoce3 also echt GF4


Man man du hast die 2/3 des Textes nicht gelesen (dort sehen viele Antworten aus deine skurrilen Kritiken) und siehtst den Haufen scheiße den dir NV vor die Fuße gemacht hat immer nocht nicht... und wir stellen dir schon zig Warnschilder auf, dass du nicht reit trittst und du tust es als wieder...

Ich rede (fast) ausschließlich von NV, falls du es immer noch nicht aufgefallen ist es geht hier nur um NV! Nur du versuchst als NV Fanboy ATI mit hinein zu ziehen.

Labberlippe
2010-02-25, 14:57:23
Du bekommst die Rätsels Lösung und siehst es immer noch nicht, kannst du überhaupt lesen???
Die Geforce 4 MX Serie die eine Gefroce 2 war?!
Geforce 4 MX == DX 7.0 == Geforce 2 OC !FAKE ALARM!
Geforece 4 TI == DX 8.0 == verbesserte Gefoce3 also echt GF4


Man man du hast die 2/3 des Textes nicht gelesen (dort sehen viele Antworten aus deine skurrilen Kritiken) und siehtst den Haufen scheiße den dir NV vor die Fuße gemacht hat immer nocht nicht... und wir stellen dir schon zig Warnschilder auf, dass du nicht reit trittst und du tust es als wieder...

Ich rede (fast) ausschließlich von NV, falls du es immer noch nicht aufgefallen ist es geht hier nur um NV! Nur du versuchst als NV Fanboy ATI mit hinein zu ziehen.


Hi

Du solltest aber erwähnen das die GF4 MX wohl ein paar funktionen dazu bekommen hat.
(was ich noch weiss)
Ist kein Rebranding im eigentlich Sinn aber die Karte war verarsche schlechthin.

Gruss Labberlippe

LovesuckZ
2010-02-25, 15:00:25
Warum redet ihr von der GF4MX, wenn ATi mit der Radeon 9000/9100/9200 näher liegt?

Bucklew
2010-02-25, 15:04:54
Du bekommst die Rätsels Lösung und siehst es immer noch nicht, kannst du überhaupt lesen???
Die Geforce 4 MX Serie die eine Gefroce 2 war?!
Geforce 4 MX == DX 7.0 == Geforce 2 OC !FAKE ALARM!
Geforece 4 TI == DX 8.0 == verbesserte Gefoce3 also echt GF4
Ich glaub du hast da einiges nicht verstanden, die GeForce2 basierte auf NV11/15, die GeForce 4 MX auf NV17/18 - mit jeweils völlig unterschiedlichen Daten (der NV18 z.B. hat fast 4x soviele Transistoren wie NV15).

GeForce 3 basierte auf NV20, die GeForce4 dagegen auf NV25/28. Ebenfalls völlig neue Chips mit deutlich mehr Transistoren.

Ich glaube, du solltest mal in Zukunft besser recherchierne, bevor du so einen Quatsch verzapfst wie diesen hier...

Den Rest hab ich mal gelöscht, kein Wunder das du dich hier nicht registriert, bei der Ausdrucksweise wärst ud ja innerhalb von 2 tagen gesperrt.

Labberlippe
2010-02-25, 15:14:11
Warum redet ihr von der GF4MX, wenn ATi mit der Radeon 9000/9100/9200 näher liegt?


Hi

Hast überhaupt noch eine Ahnung was dies für Chips waren nur eine davon war eine umgelabelte 8500er die anderen wurden neu aufgelegt wobei da die TruForm Einheit eingespart wurde.

Hier hat AMD wieder eine neue Namensgebung aufgebracht allerdings wurden die DX8 Chips mit der Bezeichnung am unteren Ende der Namensgebung angepasst.

Ich würde sogar befürworten wenn nVIDIA gleich alle in 3xx Serie unbenennt dann ist das Wirwarr was die Herren da veranstalten wieder übersichtlicher.

@buckelw
Was sagst dann zum Streich von nVIDIA wegen der TNT2 Serie?

Gruss Labberlippe

Bucklew
2010-02-25, 15:15:57
Ich hab' eine 9600 GT, kaufe mir eine GF 300-schlagmichtot (die laut ihres Namens ganze zwei Generationen weiter vorne liegt), da ich denke "Hey, nach drei Jahren Entwicklung muss das Teil meine alte Mühle ja so richtig abziehen", und was passiert? Das Ding ist identisch! Und jetzt kommt mir nicht mit irgendwelchen einstelligen Prozentwerten.
Du kaufst dir also eine Mittelklasse-GPU und wunderst dich dann, dass eine Lowend-GPU zwei Jahre später nicht schneller ist? Interessante Logik...

Bucklew, lass doch mal ATI aus dem Spiel. Hier geht's um Nvidias Sperenzchen. Mach 'nen eigenen Thread auf, wenn's dir um den Vergleich geht. Du rechtfertigst Nvidias Mist mit dem eines anderen Herstellers. Unter Stalin sind 'ne Menge Leute gestorben, also ist es in Ordnung, dass es bei Hitler genauso war. So läuft das nicht.
Ich habe nicht ATI ins Spiel gebracht, das hat jemand anders getan, der behauptet hat, dass ATI eine ganz klare Trenung zwischen den Generationen und DX-Versionen hat - was absoluter Quatsch ist, wie wir alle ja inzwischen mal hoffentlich wissen sollten. Und genau diese völlig unterschiedlichen Bewertungen ein und derselben Masche, nur weil es verschiedene FIrmen sind, die kritisiere ich.

Grestorn
2010-02-25, 15:18:08
Naja... Eine Sache ist hier, glaube ich, noch gar nicht angesprochen worden. Früher lief die Sache ungefähr so: Du hattest eine GF3 im PC, bist in den Laden gegangen, hast dir eine GF4 gekauft. Resultat: Bumms, ein ordentlicher Leistungszuwachs (gleiche Leistungsklasse vorausgesetzt). Da gab es nie etwas zu rütteln. GF3 auf 4, 6 auf 7 oder was auch immer resultierte IMMER in einem Leistungszuwachs.

Ne, nur wenn Du in der selben Klasse bleibst, das war schon immer so und ist immer noch so.

Also z.B. 6800 -> 7800 -> 8800 -> 9800 -> GTX280

Wer von einer 8800 auf eine 9500 und dann auf eine GT330 umsteigt, braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat.

Spasstiger
2010-02-25, 15:23:59
Ich glaub du hast da einiges nicht verstanden, die GeForce2 basierte auf NV11/15, die GeForce 4 MX auf NV17/18 - mit jeweils völlig unterschiedlichen Daten (der NV18 z.B. hat fast 4x soviele Transistoren wie NV15).
Und wer die Karten mal in Aktion gesehen und sich nicht nur ablässig darüber äußern würde, wüsste auch, dass eine GeForce 4 MX deutlich schneller war als eine GeForce 2 MX. Ich hab mal eine GeForce 4 MX-460 in der Hand gehabt. Ich hätte diese einer GeForce FX 5200 jederzeit vorgezogen trotz veraltetem Featureset. Unreal Tournament 2003 und Battlefield 1942 konnte man mit der MX-460 anständig zocken im Gegensatz zur FX 5200.
Die GeForce 2 MX dagegen war zu der Zeit wirklich schon eine lahme Gurke und für UT 2003 oder BF 1942 kaum noch zu gebrauchen.

Aquaschaf
2010-02-25, 15:30:06
Hi

Hast überhaupt noch eine Ahnung was dies für Chips waren nur eine davon war eine umgelabelte 8500er die anderen wurden neu aufgelegt wobei da die TruForm Einheit eingespart wurde.

Die Geforce 4MX war auch keine umgelabelte Geforce 2, sondern ein neuer Chip.

Bucklew
2010-02-25, 15:38:40
Und wer die Karten mal in Aktion gesehen und sich nicht nur ablässig darüber äußern würde, wüsste auch, dass eine GeForce 4 MX deutlich schneller war als eine GeForce 2 MX. Ich hab mal eine GeForce 4 MX-460 in der Hand gehabt. Ich hätte diese einer GeForce FX 5200 jederzeit vorgezogen trotz veraltetem Featureset. Unreal Tournament 2003 und Battlefield 1942 konnte man mit der MX-460 anständig zocken im Gegensatz zur FX 5200.
Aber bitte, hier im Thread nicht zuviel Sachlichkeit, hier geht es darum Nvidia zu bashen. Mit welchen Halb-, Unwahrheiten, Lügen, Verdrehungen und weiß ich nicht was ist doch egal!!11elf

LovesuckZ
2010-02-25, 15:47:03
Hi
Hast überhaupt noch eine Ahnung was dies für Chips waren nur eine davon war eine umgelabelte 8500er die anderen wurden neu aufgelegt wobei da die TruForm Einheit eingespart wurde.

Bei der GF4MX handelte es sich um keine Umbenennung von vorhandenen Chips. Deswegen wäre es nett, wenn du dich bitte erst erkundigst, bevor du mir "Unwissenheit" vorwirfst. :)


Hier hat AMD wieder eine neue Namensgebung aufgebracht allerdings wurden die DX8 Chips mit der Bezeichnung am unteren Ende der Namensgebung angepasst.

9800pro, 9700pro, 9700, 9600pro, 9600, 9500pro, 9500 | 9200, 9100, 9000.
Geforce 4 TI4600, Geforce 4 TI4400, Geforce 4 TI4200 | Geforce 4MX 460, 440, 420...

Also ich sehe überhaupt kein Unterschied. Und die Abgrenzung ist sogar eindeutiger, da "MX" sagt, dass es sich nicht um eine DX8 Karte handelt.


Ich würde sogar befürworten wenn nVIDIA gleich alle in 3xx Serie unbenennt dann ist das Wirwarr was die Herren da veranstalten wieder übersichtlicher.


Es ist OEM. Anscheinend werden sie im Retailgeschäft keine Umbenennung mehr vornehmen.

Gast
2010-02-25, 15:56:01
Ne, nur wenn Du in der selben Klasse bleibst, das war schon immer so und ist immer noch so.

Also z.B. 6800 -> 7800 -> 8800 -> 9800 -> GTX280

Wer von einer 8800 auf eine 9500 und dann auf eine GT330 umsteigt, braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat.

Und wer von einer 8800GT auf eine 9800GT umsteigt "braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat". Oder 8800GTX auf 9800GTX. NV hat halt schon so gut wie alles verbrochen, schwer zu argumentieren für NV-Fans. :)

Bucklew
2010-02-25, 16:18:16
Und wer von einer 8800GT auf eine 9800GT umsteigt "braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat". Oder 8800GTX auf 9800GTX. NV hat halt schon so gut wie alles verbrochen, schwer zu argumentieren für NV-Fans. :)
Bis auf die lächerlichen 20% mehr Takt zugunsten einer 9800GTX im Vergleich zur 8800GTX - aber wie gesagt, Sachlichkeit ist hier im Thread ja scheinbar nicht erwünscht.

Showtime
2010-02-25, 16:33:02
Wer von einer 8800 auf eine 9500 und dann auf eine GT330 umsteigt, braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat.

Hm, ach so. Ich dachte eine GF340 basiert (= ist identisch zu) auf der GF240, welche im Grunde genommen eine 9600GT ist. Und oberhalb der 340 gibt es im 300er Segment doch noch nichts, oder?
Kurz nachgeguckt, gibt ja tatsächlich was. 350 und 360. Gut, das entwertet mein Argument natürlich etwas. Abzocke, wie vom Threadersteller beschrieben, ist die ganze Sache nicht, aber äußerst bedenkenswert aus Sicht der unbedarften Käufer dennoch. Die werden zwar sowieso immer und überall über den Tisch gezogen, aber das muss ja nicht überall stattfinden.

An die Befürworter dieses Aktion: Wenn ihr sagt, dass euch das Vorgehen von Nvidia gefällt, oder euch zumindest nicht weiter stört, würde es auch nichts ausmachen, wenn Nvidia (oder ATI oder sonstwer) das bis auf die nächsten Jahre so weiterführt? Der informierte Käufer weiß schließlich, wofür er bezahlt, richtig? Oder wo ist die Grenze? Ich glaube, das würde jeder anders sehen und dann wird es ganz schnell problematisch.

Bucklew
2010-02-25, 16:41:50
Hm, ach so. Ich dachte eine GF340 basiert (= ist identisch zu) auf der GF240, welche im Grunde genommen eine 9600GT ist. Und oberhalb der 340 gibt es im 300er Segment doch noch nichts, oder?
Eine 9600GT hat nen G94, die GF240/340 nen GT215. Wie kann man da "im Grunde" schreiben?

Kurz nachgeguckt, gibt ja tatsächlich was. 350 und 360.
Wo gibt es denn eine GT350/360?!

An die Befürworter dieses Aktion: Wenn ihr sagt, dass euch das Vorgehen von Nvidia gefällt, oder euch zumindest nicht weiter stört, würde es auch nichts ausmachen, wenn Nvidia (oder ATI oder sonstwer) das bis auf die nächsten Jahre so weiterführt? Der informierte Käufer weiß schließlich, wofür er bezahlt, richtig? Oder wo ist die Grenze? Ich glaube, das würde jeder anders sehen und dann wird es ganz schnell problematisch.
Wo ist denn nun das Problem, dass alte Chips verkauft werden? Solange diese neuen Karten in einem sinnvollen Leistungs- und Preissegment verkauft werden? Wo ist denn das Problem, dass ein G92 eben so gut ist, das er auch längere Zeit gegen die ATI-Konkurrenz gestellt werden kann?

Jake Dunn
2010-02-25, 16:55:47
Bis auf die lächerlichen 20% mehr Takt zugunsten einer 9800GTX im Vergleich zur 8800GTX - aber wie gesagt, Sachlichkeit ist hier im Thread ja scheinbar nicht erwünscht.

Die 8800GTX hatte aber 50% mehr Vram -> ist Goldwert bei dem verkorksten Speichermanagment :tongue:

Gast
2010-02-25, 16:56:25
Bis auf die lächerlichen 20% mehr Takt zugunsten einer 9800GTX im Vergleich zur 8800GTX - aber wie gesagt, Sachlichkeit ist hier im Thread ja scheinbar nicht erwünscht.

Na das sagt mal wirklich genau der richtige. Ich finde es unglaublich was für eine Skrupellosigkeit man eigentlich besitzen muss wenn man hier als größter Fanboy überhaupt auftritt und dann anderen vorwirft nicht sachlich zu sein. Da lacht ja wirklich das dümmste Huhn.

Und zum Thema: Das Drittel weniger ROPs, Speicherinterfance, und Speicher macht das locker wieder wett. Summa summarum würde ich eine 8800GTX jeder 9800GTX vorziehen. Bei 9800GT vs. 8800GT ist der Leistungsunterschied exakt 0. In Worten NULL! Aber darauf geht man am besten gar nicht erst ein. Wirklich schwach, sehr schwach. Nein, eigentlich erbärmlich.

Gast
2010-02-25, 16:56:44
Kleiner Spickbrief:
http://photos.pcpro.co.uk/blogs/wp-content/uploads/2010/02/Nvidia-G92-history.png
http://www.pcpro.co.uk/blogs/2010/02/24/its-at-it-again-nvidia-rebrands-yet-more-gpus/
Yeah, so gehts los. Zwischen 8800 GS und GTS 250 sind sich auch so heftig ähnlich.
Alleine von der Leistung liegt gerade mal der Faktor 2-4 dazwischen. Andere Aspekte gibts auch nicht.
Ich hoffe für dich, das du die 8800 GTX auch als umbenannte 8800GTS betitelst.


Erst die Verarsche eine bessere Karte niedrieger einzusortieren (8800GT) und dann die Verarsche eine deutlich bessere Karte gleich einzusortieren (8800GTS).

AMD hat ihre umbenannte HD2 gleich ohne Umschweife in die HD3 kopiert.
Das Problem an der Geschichte ist, das Nvidia mit der G92 in 8800 Verarsche angefangen hat, statt gleich in die 9800 zu packen. Nicht mehr und nicht weniger.

Gast
2010-02-25, 17:00:35
Eine 9600GT hat nen G94, die GF240/340 nen GT215. Wie kann man da "im Grunde" schreiben?

Das sind die Leute, die auch behaupten eine 9700 Pro sei baugleich zu einer X1800XT. Zumindest sollten sie es behaupten, um bei ihren Schwachsinnigen Aussagen nur Unwissend dazustehen und nicht Bösartig.

Die 8800GTX hatte aber 50% mehr Vram -> ist Goldwert bei dem verkorksten Speichermanagment :tongue:
Die 9800GTX hätte 9700GTX heißen müssen.
Aber das juckt ja keinen, was besser wäre oder so. Rumhacken heißt die Devise. Dann noch schnell den AMD ist besser Hammer rausgeholt und ab gehts.
Btw: 3870 hätte 3770 heißen müssen, sämtliche HD3 sind zu hoch eingestuft.

Cyphermaster
2010-02-25, 17:04:37
Persönlich sehe ich es so:

Der interessierte Käufer weiß genau, was er kauft.

Der Laie und Gelegenheitskäufer kriegt genau das, wofür er bezahlt. Sprich: Genauso viel Leistung wie Geld, das er bereit ist zu bezahlen. Er wird durch die Namenspolitik in keiner Weise benachteiligt oder über den Tisch gezogen. Denn diesem Käufer ist es vollkommen egal, ob der Chip nun 2 Monate oder 3 Jahre alt ist - so lange die Leistung und die Features dem gezahlten Preis entsprechen.

Und das ist beim GT300 auf jeden Fall der Fall.Das ist SEHR idealistisch gedacht. Man müßte wohl eher sagen "Der Laie und Gelegenheitskäufer kriegt genau das, was ihm vom Marketing für diesen Preis noch anzudrehen ist, bevor es ihm unangenehm auffällt". Insbesondere bei OEM-Paketen, wo keine Einzelpreise ausgeschrieben sind, und mit den unscharfen "Umbrella-Specs" von nV bleibt da viel Spielraum, aus dem Unwissen des Durchschnittskäufers Profit zu generieren. Einfach mal die billigere, etwas langsamer getaktete Version kaufen, und -gedeckt durch die Specs- den Preis der schnelleren verlangen. Muß ja keiner kaufen, und wenns der Kunde doch tut: Sein Pech. Hauptsache nochmal 5% mehr Profit.
Eben genau das kritisiere ich. Meinetwegen können ATI, Nvidia, S3 und Intel Rebranden solange sie wollen. ABER: WENN ich es kritisiere, dann bitte überall!Muß denn hier im Thread über die aktuelle nV-Aktion immer noch der Nachhall der Umbenennungen von ATI zur Relativierung/Abmilderung angeführt werden, damit man eine Aussage nicht als "nV-Verhetzung" ansieht?

Ja, auch ATI macht sowas, es ist nicht das erste Mal, blabla. Aber nV hat es schon wieder getan, darum geht es doch, oder nicht?

Showtime
2010-02-25, 17:07:58
Eine 9600GT hat nen G94, die GF240/340 nen GT215. Wie kann man da "im Grunde" schreiben?

Von der Leistung her, meine ich. Chipnamen sind ja egal... Sie könnten ihn auch Kartoffel25 nennen, wenn am Ende die Leistung dieselbe bleibt, ist mir das ziemlich egal.


Wo gibt es denn eine GT350/360?!

Kann auch eine GTS oder so gewesen sein, hab ich auf der NV-Homepage gefunden.


Wo ist denn nun das Problem, dass alte Chips verkauft werden? Solange diese neuen Karten in einem sinnvollen Leistungs- und Preissegment verkauft werden? Wo ist denn das Problem, dass ein G92 eben so gut ist, das er auch längere Zeit gegen die ATI-Konkurrenz gestellt werden kann?

Dass alte Chips verkauft werden, finde ich nicht schlimm. Wohl aber, dass dies ohne große Ankündigung geschieht. Bei jeder neuen Chipgeneration gibt es Überstunden für die Marketingabteilung und es heißt "INTRODUCING THE LATEST WTF-HARDWARE MONEY CAN BUY", jetzt hingegen gibt es nichts. Und warum nicht? Weil Nvidias Image im Arsch wäre, wenn die ganze Sache auch die Halb-DAUs erreichen würde. Hier kann man noch relativ sachlich argumentieren (relativ...), die DAU-Welt würde sofort rumbrüllen (alte Gammelhardware etc.) Eine "Warnung" für den Kunden, dass er praktisch drei Jahre alte Hardware in den Händen hält, wenn er zu einer GF3xx greift, gibt es auch nicht. Klar, ich würde das auch nicht tun, wäre schließlich wirtschaftlicher Selbstmord.
Der Markt würde übrigens sehr lustig aussehen, wenn alle (NV, Intel, AMD, ATI, diverse Speicherhersteller usw.) dies so halten würden. Namen wären Schall und Rauch (wie sie es jetzt bei NV teilweise schon sind). "Äh ja, ich hätte gerne eine neue ATI Bauklotz 25.tx, um meinen Intel Kürbiskern 9^9 anzufeuern...". Aber bloß aufpassen, dass man 25.tx, und nicht etwa 25-tx sagt, denn dahinter verbirgt sich widerrum was ganz anderes...

Gast
2010-02-25, 17:12:01
Ja, auch ATI macht sowas, es ist nicht das erste Mal, blabla. Aber nV hat es schon wieder getan, darum geht es doch, oder nicht?
Es geht um Nvidias neue OEM Serie.
Seit ungefähr 8 Seiten will darüber Niemand diskutieren.


Das ist SEHR idealistisch gedacht. Man müßte wohl eher sagen "Der Laie und Gelegenheitskäufer kriegt genau das, was ihm vom Marketing für diesen Preis noch anzudrehen ist, bevor es ihm unangenehm auffällt". Insbesondere bei OEM-Paketen, wo keine Einzelpreise ausgeschrieben sind, und mit den unscharfen "Umbrella-Specs" von nV bleibt da viel Spielraum, aus dem Unwissen des Durchschnittskäufers Profit zu generieren. Einfach mal die billigere, etwas langsamer getaktete Version kaufen, und -gedeckt durch die Specs- den Preis der schnelleren verlangen. Muß ja keiner kaufen, und wenns der Kunde doch tut: Sein Pech. Hauptsache nochmal 5% mehr ProfitAber so ist es nunmal.
OEM lebt nicht davon besonders billige und gute Produkte an den Mann zu bringen.
Ich finde es viel mehr bedenklich, wie diese OEM Vorgehensweise immer wieder den Weg ins Retailgeschäft findet.
Gleichnahmige Versionen mit z.b. einem Bandbreitenunterschied des Faktors 2 sind nicht unüblich. Darüber diskutiert Niemand, warum?

Bucklew
2010-02-25, 17:31:31
Muß denn hier im Thread über die aktuelle nV-Aktion immer noch der Nachhall der Umbenennungen von ATI zur Relativierung/Abmilderung angeführt werden, damit man eine Aussage nicht als "nV-Verhetzung" ansieht?
Nein, aber man muss auch keine unwahren Tatsachen aufstellen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7860944&postcount=29

Das war der Auslöser für die Diskussion, die wir hier führen.

Ja, auch ATI macht sowas, es ist nicht das erste Mal, blabla. Aber nV hat es schon wieder getan, darum geht es doch, oder nicht?
Hab ich kein Problem, nur muss man es dann bei anderen auch kritisieren. Wo find ich gleich den "Radeon Mobility HD51* - Wie zockt man den Kunden ab?" Thread?

Von der Leistung her, meine ich. Chipnamen sind ja egal... Sie könnten ihn auch Kartoffel25 nennen, wenn am Ende die Leistung dieselbe bleibt, ist mir das ziemlich egal.
Dann sag das auch. Und wo ist da nun das Problem, dass man einen alten Chip nimmt, solange dieser ausreichend schnell ist? Nur weil dann "neu" drauf steht?

Kann auch eine GTS oder so gewesen sein, hab ich auf der NV-Homepage gefunden.
Link bitte!

Eine "Warnung" für den Kunden, dass er praktisch drei Jahre alte Hardware in den Händen hält, wenn er zu einer GF3xx greift, gibt es auch nicht. Klar, ich würde das auch nicht tun, wäre schließlich wirtschaftlicher Selbstmord.
Drei Jahre alt? Die GT215/216/218 wurden also vor dem GT200 released? Wäre mir jetzt echt neu. Und der G92 wurde nur wenige Monate nach dem G80 veröffentlicht? Interessant...

Der Markt würde übrigens sehr lustig aussehen, wenn alle (NV, Intel, AMD, ATI, diverse Speicherhersteller usw.) dies so halten würden. Namen wären Schall und Rauch (wie sie es jetzt bei NV teilweise schon sind). "Äh ja, ich hätte gerne eine neue ATI Bauklotz 25.tx, um meinen Intel Kürbiskern 9^9 anzufeuern...". Aber bloß aufpassen, dass man 25.tx, und nicht etwa 25-tx sagt, denn dahinter verbirgt sich widerrum was ganz anderes...
Ist bei dir wirklich IMMER noch nicht angekommen, dass es ATI genauso macht? :rolleyes: Und mal das Namensschema von Intel angeschaut? Oder (noch besser) von HDDs und RAM? Mal ehrlich, dagegen ist das Nvidia-Schema total simpel. Genau dieser Bullshit wie du ihn da verzapfst sorgt für diese Diskussion.

Showtime
2010-02-25, 17:49:36
Dann sag das auch. Und wo ist da nun das Problem, dass man einen alten Chip nimmt, solange dieser ausreichend schnell ist? Nur weil dann "neu" drauf steht?
Hab ich weiter unten in dem Beitrag beschrieben.

Link bitte!
Hier. (http://www.nvidia.de/page/geforce_m_series.html) Hab' mich allerdings geirrt, sind ja nur Mobile Chips. Ändert jedoch nichts an meiner Aussage.

Drei Jahre alt? Die GT215/216/218 wurden also vor dem GT200 released? Wäre mir jetzt echt neu. Und der G92 wurde nur wenige Monate nach dem G80 veröffentlicht? Interessant...
Mönsch Bucklew... Von der Leistung her.

Ist bei dir wirklich IMMER noch nicht angekommen, dass es ATI genauso macht?
Habe bereits in meinem ersten Beitrag geschrieben, dass ich auf ATI hier nicht eingehen will, weil es nicht Thema des Threads ist.

Und mal das Namensschema von Intel angeschaut? Oder (noch besser) von HDDs und RAM? Mal ehrlich, dagegen ist das Nvidia-Schema total simpel.
Sehe ich anders.

Allerdings ist mir das jetzt aber auch egal. Wenn du schon meinst, dass meine Ansichten Bullshit sind, kann ich's auch gleich lassen. Auf eine Diskussion im Hauptschul-Stil möchte ich mich nicht einlassen. Einige meiner Fragen hast du auch unbeantwortet gelassen, entweder weil du dazu keine Meinung hast oder weil die Antwort unangenehm wäre. Wie auch immer, ich mach mir jetzt Nudeln. Schönen Abend noch.

Gast
2010-02-25, 18:02:59
Mönsch Bucklew... Von der Leistung her.

Jo, die High-End Leistung rückt immer weiter in Richtung Onboard.
Was sich früher 9700 Pro genannt hat bekommt man heute hinterhergeworfen auf einem billigen Mainboard.
Was willst du uns eigentlich weiss machen?

Dural
2010-02-25, 18:25:43
das lustige an der sache ist, das nur NV schlecht gemacht wird weil sie das eben machen... in wahrheit ist das in der wirtschaft aber reiner alltag...

übrigens schon mal bei den CPUs geschaut? gerade bei AMD, ich glaube es gibt ein Ahtlon der es in 8 Verschidenen Versionen und Namen gibt aber alle sind etwa gleich schnell... Mal eine ernsthafte frage, wie so mekert da keiner rum???

Am ende zählt doch nur eins und das ist das Preis/Leistungs Verhältnis! Alles ander ist doch komplett egal!

und ja Karten ohne feste Werte sind daneben, den sie sind mit gleichem Namen nicht mehr einzustuffen! aber jetzt mal ehrlich, welcher OEM PC Käufer interessiert es schon ob er eine GT330 mit 112SP oder 96SP hat? Zu 95% wird er nicht mal wissen was überhaupt der unterschid wäre... ;)

Bucklew
2010-02-25, 18:32:02
Sehe ich anders.
Aha, du findest also ein Schema, deren CPUs mal Sockel 1156 und mal 1366 sind, obwohl alle i7 sind übersichtlich? Gut, könnte man sagen, dass das die Trennung Dual->Quadcore ist, aber der i5 ist auch fröhliche Mischung von Dual und Quadcore. Ganz davon abgesehen, dass teilweise höher bezeichnete CPUs teilweise weniger Takt haben usw.

Wenn DAS übersichtlich sein soll, dann frage ich mich wo dein Problem beim Nvidia-Schema sein soll.

Aber wie halt schon oft schrieb und bei dir scheint es wohl auch zuzutreffen: Es geht nicht um das was, es geht um das WER.

Gast
2010-02-25, 18:44:43
übrigens schon mal bei den CPUs geschaut? gerade bei AMD, ich glaube es gibt ein Ahtlon der es in 8 Verschidenen Versionen und Namen gibt aber alle sind etwa gleich schnell... Mal eine ernsthafte frage, wie so mekert da keiner rum???

Athlon 64 3200+ ist kein Sonderfall bei AMD.
Unzählbar viele Versionen gibt es von ihm.

Darüber meckert keiner, über die heftigen Schwankungen der kleinen Retail ebenfalls nicht (siehe oben).
Stattdessen wird lediglich über Nvidias OEM hergezogen, bzw zumindest könnte man es denken. In Wahrheitheit wird daraus ein Flamewar gestartet, gespickt mit Fehlinformationen (GF8=GF200 oder HD5=D3D11).

Gast
2010-02-25, 19:04:35
So jetzt ist der Thread endgültig hinüber, fangen wir ja jetzt an die CPU-Revisionen aufzuzählen?

Tatsache ist, Nvidia wird diese Umbennenungsaktion fortführen und das wahrscheinlich auch im Retail-Markt. So soll die Palette von NVidia mit den alten komplettiert werden und das mit Grafikchips aus 3 verschiedenen Generationen. Das ist der Knackpunkt!

Nvidias Mainstream-Lösungen sind sauber benannt und nur im Lowend gibt es spezielle Karten die nicht auf dem neuen Cypress-Chip basieren.

Hier sehe ich Nvidia in dieser Hinsicht auf deutlich schlechterem Posten, kurzum sie treiben es wesentlich bunter als AMD!

Gast
2010-02-25, 19:06:06
Nvidias Mainstream-Lösungen sind sauber benannt und nur im Lowend gibt es spezielle Karten die nicht auf dem neuen Cypress-Chip basieren.
...
Oooops...
Ich meine hier AMD, sorry!

Gast
2010-02-25, 19:17:09
Nvidia hat 3 Retail Desktop Reihen:
Geforce 8
Geforce 9
Geforce 200

Jede dieser Reihen hat eine gewiese Anzahl an verschiedenen Modellen. Low-End bis High-End.
Untereinander in der selben Reihe sind die Modell durch die Bank logisch, Ausnahme bilden nur 8800GT und 8800GTS.
Von einer zur nächsten Reihe sind die Namen durch die Bank logisch, Ausnahmen bilden nur 9800GT/GTX/GX2.

Bucklew
2010-02-25, 19:26:55
Tatsache ist, Nvidia wird diese Umbennenungsaktion fortführen und das wahrscheinlich auch im Retail-Markt. So soll die Palette von NVidia mit den alten komplettiert werden und das mit Grafikchips aus 3 verschiedenen Generationen. Das ist der Knackpunkt!
Eigentlich ist das nur dein Hirngespinst und kein Knackpunkt ;)

Warum sollte man dann die Fermikarten als GTX4*0 auf den Markt bringen? Dann hätte man sie auch direkt GTX3*0 nennen können.

S940
2010-02-25, 19:47:27
Athlon 64 3200+ ist kein Sonderfall bei AMD.
Unzählbar viele Versionen gibt es von ihm.
Das ist das entgegengesetzte Gegenteil :freak:
Mehrere verschiedene DIEs wurden unter einem Namen vertrieben. Nvidia hätte da pro Die mindestens 3 verschiedene Namen rausgebracht :freak:

Bei nvidia gibts jetzt ein DIE mit mehreren Namen.

y33H@
2010-02-25, 20:01:25
Das Die heißt nach wie vor G92(b).

Malabolge
2010-02-25, 20:17:20
Eigentlich ist das nur dein Hirngespinst und kein Knackpunkt ;)

Warum sollte man dann die Fermikarten als GTX4*0 auf den Markt bringen? Dann hätte man sie auch direkt GTX3*0 nennen können.


http://www.youtube.com/watch?v=urDg80bcMjo ab ca 1:10 (Anschauen , Geniesen , ... und vieleicht ,aber auch nur vieleicht begreifen !)


Ja ja ,wars der Becher mit dem Fächer ?....:biggrin::biggrin::biggrin: oder die g3xx oder die g2xx oder ...;D;DDer Pokal mit dem Portal ?

Gast
2010-02-25, 20:51:07
Das ist das entgegengesetzte Gegenteil :freak:
Mehrere verschiedene DIEs wurden unter einem Namen vertrieben. Nvidia hätte da pro Die mindestens 3 verschiedene Namen rausgebracht :freak:

Bei nvidia gibts jetzt ein DIE mit mehreren Namen.
Die CPUs unterscheiden sich nur durch ihren Die und dessen Takt.
Mehr oder weniger Cache, mehr oder weniger Takt oder beides zusammen. Also als ob es in Wirklichkeit ein 3000+ oder ein 3400+ wäre.

Bei Grafikkarten ist das was Anderes. Selber Chip wenn ich das so lese.
Besser du vergleichst den Pentium Dual Core mit dem Core 2 Duo. Gleicher Chip, nur heftig abgespeckt und mit weniger Takt.
Ja ne ganz tolle Wurst. Was bringt uns diese Vergleicherei. Eine 8800 GS ist auch nach 20maligem Umdrehen keine GTS 250. Und eine GT 240 auch nicht.

No.3
2010-02-25, 21:10:19
Die Daten stehe auf der NV-Homepage. Spekulation ist das schon etwas unter trieben.

na dann klär mich doch bitte mal auf (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7864878#post7864878)


Uh, wenn man schon mit der Generation ankommt, kann man ganz schnell mit der Geforce 7100 GS (NV44) kontern. Diese wurde übrigens im Oktober 2006 auf den Markt gebracht, die genannte Radeon erst im Januar 2007... Von daher...

man könnte es auch noch auf die Spitze treiben, die GeForce4 4800SE war eine 4400 mit 8X AGP d.h. weniger Takt als ne 4600 d.h. langsamer als eine 4600 (konnte meine 4800SE aber fast auf 4600er Niveau OCen :D). Man hätte die 4400 mit 8X besser 4400-8X genannt so wie man es bei der 4200 gemacht hat, die hies nämlich dann 4200-8X.

aber beschränken wir uns mal auf die jüngere Vergangenheit, damals gabs von jedem Hersteller nur 1,2,3,4 Karten, heute sind es ja gleich mehrere Dutzend - da blickt man doch echt nimmer durch.

Bucklew
2010-02-25, 21:17:11
na dann klär mich doch bitte mal auf (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7864878#post7864878)

In den technischen Daten zu den einzelnen Chips steht doch vom Grafiktakt, über den Memorytakt bis hin zu den Anschlüßen und Features alles drin?! Was fehlt denn da?

Gast
2010-02-25, 21:33:04
Bis auf die lächerlichen 20% mehr Takt zugunsten einer 9800GTX im Vergleich zur 8800GTX - aber wie gesagt, Sachlichkeit ist hier im Thread ja scheinbar nicht erwünscht.

Und wieviel mehr Speicherbandbreite/ROPs hat die 9800 GTX nochmal ggü. der 8800GTX? Oh warte....sie hat ja weniger, daher ist die Karte ja meist auch langsamer als eine 8800GTX :facepalm:

No.3
2010-02-25, 23:00:47
In den technischen Daten zu den einzelnen Chips steht doch vom Grafiktakt, über den Memorytakt bis hin zu den Anschlüßen und Features alles drin?! Was fehlt denn da?

diese Übersichtsseite wurde angepriesen als "da steht doch alles". Der Wert und Inhalt dieser Übersichtsseite ist aber gleich Null.
Und wie ich auch schon schrieb, klickt man ein bestimmtes Produkt an, stehen dort dann auch nicht immer alle wesentlichen Informationen.
Eine Gesamtsvergleichsübersichtliste muss man also immer noch selber erstellen.

BTW. ich weiss nun immer noch nicht was z.B. eine Gaming-Leistung ist

Gast
2010-02-25, 23:16:32
diese Übersichtsseite wurde angepriesen als "da steht doch alles".
Man klickt auf das Produkt seiner Wahl und erhält Informationen. Schön das du sowas kritisierst.
Andere Firmen, z.b. eine häufig im Thread genannte hat keinerlei Informationen zu vielen ihrer Produkte, da es die Regel ist die Informationen wenn überhaupt sehr viel später öffentlich zu machen.
Keine Ahnung was dir an Nvidias Angebot der Information was die Produkte können missfällt. Für mich zwar eine Selbstverständlichkeit, aber leider nicht für alle Firmen.

Bucklew
2010-02-25, 23:34:42
diese Übersichtsseite wurde angepriesen als "da steht doch alles". Der Wert und Inhalt dieser Übersichtsseite ist aber gleich Null.
dich überfordert es also zwei mausklicks zu machen? die wenigsten leute interessieren nunmal die speicher- oder memoryclocks (bzw sie wissen nichtmal was das ist). wenn es dich so genau interessierst kannst du dir die technischen daten ja anschauen, das ist im endeffekt auf quasi jeder hersteller-website so. abgesehen von einem nvidia-konkurrenten, da stehen nichtmal die technischen daten der einzelnen modelle drauf, sondern nur die großen übersicht ohne jede taktfrequenz. aber ich vergas, die dürfen das ja ;)

No.3
2010-02-25, 23:37:41
Man klickt auf das Produkt seiner Wahl und erhält Informationen. Schön das du sowas kritisierst.
Andere Firmen, z.b. eine häufig im Thread genannte hat keinerlei Informationen zu vielen ihrer Produkte, da es die Regel ist die Informationen wenn überhaupt sehr viel später öffentlich zu machen.
Keine Ahnung was dir an Nvidias Angebot der Information was die Produkte können missfällt. Für mich zwar eine Selbstverständlichkeit, aber leider nicht für alle Firmen.

etwa so in der Art müsste die Übersichtstabelle aussehen (http://ht4u.net/news/21686_unendliche_geschichte_-_neue_alte_grafikkarten_von_nvidia/)

Labberlippe
2010-02-26, 01:31:05
Bei der GF4MX handelte es sich um keine Umbenennung von vorhandenen Chips. Deswegen wäre es nett, wenn du dich bitte erst erkundigst, bevor du mir "Unwissenheit" vorwirfst. :)


Hi

und es wäre nett wenn Du meine Postings lesen würdest bevor Du mir nahelegst das ich mich Informieren soll.
Dann hättest Du gesehen das ich geschrieben habe das die MX 4 noch ein paar Funktionen dazubekommen hat.

Dies hatte ich geschrieben.


Hi

Du solltest aber erwähnen das die GF4 MX wohl ein paar funktionen dazu bekommen hat.
(was ich noch weiss)
Ist kein Rebranding im eigentlich Sinn aber die Karte war verarsche schlechthin.

Hast das Posting welches ich an (verm.) Nagnus geschrieben habe übersehen.?

Es war die eigentliche Benennung der Karte war ein Witz aber ATI hat sich das dann ja auch mit der 9000/9100/9200 nicht nehmen lassen.





9800pro, 9700pro, 9700, 9600pro, 9600, 9500pro, 9500 | 9200, 9100, 9000.
Geforce 4 TI4600, Geforce 4 TI4400, Geforce 4 TI4200 | Geforce 4MX 460, 440, 420...

Also ich sehe überhaupt kein Unterschied. Und die Abgrenzung ist sogar eindeutiger, da "MX" sagt, dass es sich nicht um eine DX8 Karte handelt.

Ich denke das wir uns irgendwie Missverstanden haben, denn ich habe ja im eigentliche Sinne das gleiche geschrieben.

Ich glaube ich habe Dich nur ungünstig gequotet. :D



Es ist OEM. Anscheinend werden sie im Retailgeschäft keine Umbenennung mehr vornehmen.

Ja gottsei Dank machen Sie das im Retailgeschäft nicht.

Gruss Labberlippe

Gast
2010-02-26, 07:24:57
etwa so in der Art müsste die Übersichtstabelle aussehen (http://ht4u.net/news/21686_unendliche_geschichte_-_neue_alte_grafikkarten_von_nvidia/)
Was gibts daran nicht zu kapieren, das die Informationen zu den Produkten auf Nvidias Seite stehen?
Es ist zwar selbstverständlich soetwas, aber da dies nicht jeder kennt, weil manche Firmen nicht so vefahren, muss man es wiederholen.


Es war die eigentliche Benennung der Karte war ein Witz aber ATI hat sich das dann ja auch mit der 9000/9100/9200 nicht nehmen lassen.

Danach gings auch fröhlich weiter, mit R300 der bis hoch in die X600XT und sogar noch eine Generation weiter, in die X1050 gewandert ist.
AMDs Mobility X2 Serie erinnert übrigens 1zu1 an Nvidias Geforce 100 Serie.
Da hier über letzteres geflamt wird erwarte ich, das jemand endlich die fehlenden X2 Threads eröffnet.

Aber mal so nebenbei, warum belastest du den Thread mit solchen alten Kammelen?
Schon auf der letzten Seite wurde festgestellt, das sich Niemand mit dem Threadthema, der Geforce 300 befasst. Warum?
Die Stichworte "flaming" die zum Thread gehören müssen nicht unbedingt befolgt werden.

Grestorn
2010-02-26, 08:44:49
An die Befürworter dieses Aktion: Wenn ihr sagt, dass euch das Vorgehen von Nvidia gefällt, oder euch zumindest nicht weiter stört, würde es auch nichts ausmachen, wenn Nvidia (oder ATI oder sonstwer) das bis auf die nächsten Jahre so weiterführt? Der informierte Käufer weiß schließlich, wofür er bezahlt, richtig? Oder wo ist die Grenze? Ich glaube, das würde jeder anders sehen und dann wird es ganz schnell problematisch.

Warum soll mich das stören, so lange es weiterhin gute Neuentwicklungen gibt?

Es ist doch absolut nichts dagegen einzuwenden, wenn die Top-Karten von gestern als MidRange und LowRange Karten von heute und morgen verkauft werden. Eigentlich ist das nur Common-Sense!

Gast
2010-02-26, 09:05:38
Warum soll mich das stören, so lange es weiterhin gute Neuentwicklungen gibt?

Es ist doch absolut nichts dagegen einzuwenden, wenn die Top-Karten von gestern als MidRange und LowRange Karten von heute und morgen verkauft werden. Eigentlich ist das nur Common-Sense!

Man kann es sich natürlich auch einfach machen und auf zB solche Dinge erst gar nicht eingehen:

Und wer von einer 8800GT auf eine 9800GT umsteigt "braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat". Oder 8800GTX auf 9800GTX. NV hat halt schon so gut wie alles verbrochen, schwer zu argumentieren für NV-Fans. :)


...und dann weiter stur seinen nachweislichen Unwahrheiten verbreiten. Bravo.

Grestorn
2010-02-26, 09:24:32
Man kann es sich natürlich auch einfach machen und auf zB solche Dinge erst gar nicht eingehen:
Und wer von einer 8800GT auf eine 9800GT umsteigt "braucht sich nicht wundern, wenn er keine große Leistungssteigerung hat". Oder 8800GTX auf 9800GTX. NV hat halt schon so gut wie alles verbrochen, schwer zu argumentieren für NV-Fans. :)

...und dann weiter stur seinen nachweislichen Unwahrheiten verbreiten. Bravo.

Du schreibst nur Flames, das ist alles.

Aber um mir nicht vorwerfen lassen zu müssen, dass ich auf den nonsense nicht eingehe:

Ja, der Leistungsunterschied zwischen der 8800 und 9800 war eher gering. Ja, deswegen habe ICH mir auch keine 9800 gekauft. Die 9800 war letztlich nichts anderes als der Refresh zum 8800. ABER: Es gab trotzdem eine, wenn auch kleine Leistungssteigerung. Also ist meine Aussage nicht widerlegt.

Ach ja, wie war das mit dem R600 nochmal? :tongue:

Schlammsau
2010-02-26, 09:33:04
Um es nochmals allerdeutlichst zu sagen.

Es geht mir nur um die Karten die 1:1 umgelabelt wurden. Die GPU ist scheissegal....von mir aus können die den G90 noch in der GT 800 Serie verbauen. :freak:

Aber bei den Karten, wie zB die GT330 oder GT9800 oder 9600GSO, müssen sie sich die Kritik gefallen lassen. Weil an den Karten nichts geändert wurde ausser des Aufklebers!

Gast
2010-02-26, 10:05:50
Du schreibst nur Flames, das ist alles.


Ach ja, wie war das mit dem R600 nochmal? :tongue:

*Facepalm* (erster Güte)

Undertaker
2010-02-26, 10:11:12
Wäre das größere Problem für den Kunden nicht eher der umgekehrte Fall, d.h. das unter gleichem Namen verschiedene Karten verkauft werden?

Alles andere ist doch heutzutage von einem Laien eh nicht mehr durchschaubar: Woher soll ein solcher wissen, dass eine HD3870 > HD4650 > HD5450 ist? Die Zahl wird doch immer größer... Insofern sehe ich auch nicht die Anforderung, dass sich z.B. unter einer GT330 etwas "besseres" als eine 9600GSO verbergen muss, welchen Unterschied macht der Name für den Käufer? Da wir so oder so minimum zwei entscheidende Unterscheidungskriterien zwischen verschiedenen GPUs haben - Leistung und Techlevel - ist eine unstrittige Einordnung in ein einheitliches Bennenungsschema gar nicht möglich.

Gast
2010-02-26, 10:43:09
Du schreibst nur Flames, das ist alles.

Ja, der Leistungsunterschied zwischen der 8800 und 9800 war eher gering. Ja, deswegen habe ICH mir auch keine 9800 gekauft. Die 9800 war letztlich nichts anderes als der Refresh zum 8800. ABER: Es gab trotzdem eine, wenn auch kleine Leistungssteigerung. Also ist meine Aussage nicht widerlegt.

Ach ja, wie war das mit dem R600 nochmal? :tongue:


10.00000001 sind eben doch nicht 10.1 und wenn es 1000.00 mal wiederholst

"gefühlte" Leistungssteigeungen sollten ja wohl doch nicht zählen

Gast
2010-02-26, 10:48:40
Du schreibst nur Flames, das ist alles.

Aber um mir nicht vorwerfen lassen zu müssen, dass ich auf den nonsense nicht eingehe:

Ja, der Leistungsunterschied zwischen der 8800 und 9800 war eher gering. Ja, deswegen habe ICH mir auch keine 9800 gekauft. Die 9800 war letztlich nichts anderes als der Refresh zum 8800. ABER: Es gab trotzdem eine, wenn auch kleine Leistungssteigerung. Also ist meine Aussage nicht widerlegt.

Ach ja, wie war das mit dem R600 nochmal? :tongue:

Der Unterschied zwischen eine 8800GT und eine 9800GT war nicht vorhanden. Es gab null Leistungssteigerung! Aber bleibt weiter in deiner Traumwelt. Unglaublich wie weit machen gehen nur um ihre lieblingsfirma zu verteidigen.

Cyphermaster
2010-02-26, 10:56:53
Hab ich kein Problem, nur muss man es dann bei anderen auch kritisieren. Wo find ich gleich den "Radeon Mobility HD51* - Wie zockt man den Kunden ab?" Thread?Wenn er dir so fehlt, dann mach ihn auf. Dieser Thread bezieht sich aber auf nVidia; folglich sollte da auch der Fokus liegen.

Nur, weil es mehr als nur einen faulen Apfel am Baum gibt, macht das einen faulen Apfel nun mal trotzdem nicht genießbarer - also wäre es mir lieb, wenn nicht dauernd das Argument "wähääääää, aber aber die anderen tun das doch auch" in dutzendfacher verbaler Variation lesen müßte.
Es ist doch absolut nichts dagegen einzuwenden, wenn die Top-Karten von gestern als MidRange und LowRange Karten von heute und morgen verkauft werden. Eigentlich ist das nur Common-Sense!Richtig; ein guter Chip bleibt ein guter Chip. Über eine verschleiernde Umbenennung aber den Kunden zu Fehlannahmen zu verleiten - ist das auch noch "Common Sense", oder doch eher Geldmacherei?

Ob gängige Praxis oder Sonderfall, so eine Produktpolitik ist imho nicht Kunden-, sondern nur Händler-freundlich. Und ich bin der Meinung, sowas hätte man auch anders lösen können.

Labberlippe
2010-02-26, 11:10:32
Was gibts daran nicht zu kapieren, das die Informationen zu den Produkten auf Nvidias Seite stehen?
Es ist zwar selbstverständlich soetwas, aber da dies nicht jeder kennt, weil manche Firmen nicht so vefahren, muss man es wiederholen.


Danach gings auch fröhlich weiter, mit R300 der bis hoch in die X600XT und sogar noch eine Generation weiter, in die X1050 gewandert ist.
AMDs Mobility X2 Serie erinnert übrigens 1zu1 an Nvidias Geforce 100 Serie.
Da hier über letzteres geflamt wird erwarte ich, das jemand endlich die fehlenden X2 Threads eröffnet.

Aber mal so nebenbei, warum belastest du den Thread mit solchen alten Kammelen?
Schon auf der letzten Seite wurde festgestellt, das sich Niemand mit dem Threadthema, der Geforce 300 befasst. Warum?
Die Stichworte "flaming" die zum Thread gehören müssen nicht unbedingt befolgt werden.


Hi

Lieber Gast.

Hast Du meine Postings hier überhaupt gelesen?
So wie Du erwähnst geht es hier um die OEM Serie von nVIDIA diese Aktion ist nicht gerade die feine Art.


Ich hatte auch in meinen Postings aufgezeigt was AMD so gemacht hat.
Lies meine Postings bevor Du mir unterstellst das Ich dem Flame folge.


Gruss Labberlippe

Advanced@work
2010-02-26, 11:23:14
Es ist doch absolut nichts dagegen einzuwenden, wenn die Top-Karten von gestern als MidRange und LowRange Karten von heute und morgen verkauft werden.
Da ist wirklich nichts dagegen einzuwenden. Ich beziehe das jetzt mal nicht auf High-End Grakas.
Eine GT220 kann gerne auch weiterhin verkauft werden, sobald es GT(X)400 Grakas, sprich, eine neue Generation gibt.
Aber dann bitte auch als GT220. Mit dem Namen GT320 hat man eindeutig die Absicht, den Kunden hinters Licht zu führen
und ihm alte GT220 Grakas durch einen neuen Namen schmackhaft zu machen.

Cyphermaster
2010-02-26, 11:36:17
Die Frage wird wohl eher sein, ab wann man eine Neubenamung subjektiv als gerechtfertigt ansieht. Reicht dafür schon ein Shrink aus? Muß ein neuer Kern drin sein? Taktänderung? Featureset? Und wenn man umbenennt, wie sollte man das tun?

Einfache, omnikompatible Lösungen wird es nicht geben. Aber es muß nun auch nicht der für den Kunden schlechtestmögliche Kompromiß sein, für den sich aktuell nV entschieden hat, finde ich.

AnarchX
2010-02-26, 11:37:07
@ Advanced@work
Die GT 320 ist keine umbenannte GT 220, sondern hat 50% mehr ALU/TMU-Leistung.

Die einzigen direkten Renamings sind G310 und GT 340, wobei bei dieser, sofern man es einhält, nur GDDR5-Versionen existieren.

Am sinnvollsten wäre es wohl gewesen, die G9x-GPUs in eine GeForce 100-Serie einzuordnen und das auch für Retail und alle GT2xx-GPUs als GeForce 200, sodass man für D3D11 bei GeForce 300 hätte bleiben können.

Aber wie schon in einem anderen Thread geäußert, als Enthusiasten bzw. Interessierte kann uns das Renaming egal sein, da wir es durchschauen können. Und die es nicht können, hatte auch schon vorher Probleme, z.B. lassen sich täuschen durch große Mengen langsamen VRAMs.
Im Endeffekt finanziert man hierdurch Entwicklung und Preiskämpfe der für uns interessanten Karten.;)

Bucklew
2010-02-26, 14:31:12
Aber bei den Karten, wie zB die GT330 oder GT9800 oder 9600GSO, müssen sie sich die Kritik gefallen lassen. Weil an den Karten nichts geändert wurde ausser des Aufklebers!
Warum verteidigst du dann dasselbe Vorgehen bei ATI?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=477797&page=4

Wenn er dir so fehlt, dann mach ihn auf. Dieser Thread bezieht sich aber auf nVidia; folglich sollte da auch der Fokus liegen.
Der Fokus ja, da es sich aber um einer eher normales Vorgehen handelt, sehe ich da kein großes Problem.

Nur, weil es mehr als nur einen faulen Apfel am Baum gibt, macht das einen faulen Apfel nun mal trotzdem nicht genießbarer - also wäre es mir lieb, wenn nicht dauernd das Argument "wähääääää, aber aber die anderen tun das doch auch" in dutzendfacher verbaler Variation lesen müßte.
Nur das der Mittelpunkt dieser Diskussion mit einem "Bei ATI ist das alles viiiiiel besser!!!" startete ;)

Zumal wir hier ja nur von OEM-Karten reden, keine Retailkarten. Als ich mein Tablet hier gekauft hab, habe ich mir überhaupt nicht angeschaut, was ne 4550 ist, die hier verbaut ist. Warum auch? Wollte ja nichts bestimmtes. So wird es wohl >90% der OEM-Kunden gehen.

Wobei die Einordnug der 4550 an sich schon krank ist. Im oberen Segment reicht ein 100er Sprung aus um einen doppelt so großen Chip zu erhalten (5770->5870), der 4550 ist dagegen exakt gleich zum 4350.

Alles andere ist doch heutzutage von einem Laien eh nicht mehr durchschaubar: Woher soll ein solcher wissen, dass eine HD3870 > HD4650 > HD5450 ist?
Vergleiche Generationsübergreifend sind defakto nicht möglich ohne Benchmarks. Von daher kann ich die ganze Diskussion eh nicht verstehen. Wer sich eine neue Kartengeneration holt und da zwischen den Segment (Lowend, Midrange, Highend etc.) wandelt, MUSS sowieso Benchmarks lesen, anders geht es gar nicht.

Gummikuh
2010-02-26, 14:46:09
Wobei die Einordnug der 4550 an sich schon krank ist. Im oberen Segment reicht ein 100er Sprung aus um einen doppelt so großen Chip zu erhalten (5770->5870), der 4550 ist dagegen exakt gleich zum 4350.

Über was du dir so alles Gedanken machst :freak:

Cyphermaster
2010-02-26, 15:35:48
Der Fokus ja, da es sich aber um einer eher normales Vorgehen handelt, sehe ich da kein großes Problem.Du bist nicht universelles Maß der Dinge. Es mag durchaus Leute geben, die das anders sehen.
Nur das der Mittelpunkt dieser Diskussion mit einem "Bei ATI ist das alles viiiiiel besser!!!" startete ;)Tja, nachdem das geklärt war, KÖNNTE man ja aufhören, und sich wieder dem Thema widmen. Auch du...
Zumal wir hier ja nur von OEM-Karten reden, keine Retailkarten. Als ich mein Tablet hier gekauft hab, habe ich mir überhaupt nicht angeschaut, was ne 4550 ist, die hier verbaut ist. Warum auch? Wollte ja nichts bestimmtes. So wird es wohl >90% der OEM-Kunden gehen.Hm. Du meinst also, solange es der Kunde nicht bemerkt, ist es egal, ob man ihn übervorteilt?
Vergleiche Generationsübergreifend sind defakto nicht möglich ohne Benchmarks. Von daher kann ich die ganze Diskussion eh nicht verstehen. Wer sich eine neue Kartengeneration holt und da zwischen den Segment (Lowend, Midrange, Highend etc.) wandelt, MUSS sowieso Benchmarks lesen, anders geht es gar nicht.Tja, nur steht in so einem Benchmark halt nicht immer alles für den Laien wichtige drin. Zum Beispiel wird nur selten der Speichertyp angegeben, bzw. das Interface. Entscheidend für die Leistung, kaum in Benchmarks angegeben, und von Otto Normalverdunster auch nicht einzuschätzen. Der schimpft dann nur auf die "blöden Benchmarks", wenn auf seiner 1GB-Karte mit DDR2/64-Bit dann nur eine Diashow rauskommt, während die "gleiche" Karte im Benchmark (mit GDDR4/5 und 128/192/256/...-Bit) flüssiges Spielen auf den Settings erlaubte.

Grestorn
2010-02-26, 15:41:02
Tja, nachdem das geklärt war, KÖNNTE man ja aufhören, und sich wieder dem Thema widmen. Auch du...

Wozu? Es ist eigentlich alles gesagt.

Der einzige Grund immer weiter darauf herumzuhacken, nachdem man schon alles gesagt hat, ist doch, damit man was gegen nVidia zu schimpfen hat. Und die Motivation dazu ist nur all zu offensichtlich.

Gast
2010-02-26, 15:49:59
Wozu? Es ist eigentlich alles gesagt.

Der einzige Grund immer weiter darauf herumzuhacken, nachdem man schon alles gesagt hat, ist doch, damit man was gegen nVidia zu schimpfen hat. Und die Motivation dazu ist nur all zu offensichtlich.

Witzig, wirklich witzig. Es könnte natürlich auch einfach daran liegen das NV fast monatlich neue Munition liefert die man kritisieren sollte. Aber nein, alle wollen immer nur gegen das arme NV schimpfen, nur der Ritter in goldener Rüstung in Form von Grestorn sieht die Ungerechtigkeit. Also dir ist wirklich nicht mehr zu helfen. Wie verblendet kann man eigentlich sein?

Grestorn
2010-02-26, 15:52:17
Witzig, wirklich witzig. Es könnte natürlich auch einfach daran liegen das NV fast monatlich neue Munition liefert die man kritisieren sollte. Aber nein, alle wollen immer nur gegen das arme NV schimpfen, nur der Ritter in goldener Rüstung in Form von Grestorn sieht die Ungerechtigkeit. Also dir ist wirklich nicht mehr zu helfen. Wie verblendet kann man eigentlich sein?

Ihr hattet Euren Thread, ihr habt Euch schön echauffiert und der Welt kund getan, wie böse nVidia doch ist, und wie sehr ihr der Meinung seid, dass die armen Kunden von nVidia über den Tisch gezogen werden.

Andere Leute haben eingewendet, dass dies erstens kaum ein über den Tisch ziehen ist, und das nVidia sicher nicht alleine mit solchen Aktionen ist.

Dann geht es hin und her und hin und her usw.

Es langweilt schlicht. Geht draußen spielen, Kinders.

Cyphermaster
2010-02-26, 15:53:34
Wozu? Es ist eigentlich alles gesagt.Vielleicht, vielleicht auch nicht. Warten wir ab, was kommt.

Kleine Anmerkung am Rande: Wenn ich hier weiter nur Flames lese, fange ich mal an, das Ganze per Karten ein wenig einzudämmen.

Gast
2010-02-26, 16:21:40
Wozu? Es ist eigentlich alles gesagt.

Imho ist noch gar nichts gesagt.

Ich vermisse eine Aufstellung:

Geforce 210 -> Geforce 310 | Rename, keine Änderung

................ -> Geforce 315 | Kein Rename, neues Produkt

Geforce 220 -> Geforce 320 | Kein Rename, neues Produkt

................ -> Geforce 330 | Kein Rename, neues Produkt, sehr Variabel gestaltet

Geforce 240 -> Geforce 340 | Rename, allerdings durch die Bank die GDDR5, GDDR3 und DDR3 entfallen

Daraus folgend könnte man einiges sagen.
Über 210 und 310 haben wir schon vor Wochen diskutiert. Renaming am nächsten (von den Anderen) kommt die GT340, allerdings eben durch die Bank mit GDDR5, das ist ein ordentlicher Unterschied zu den DDR3 GT240.

Die Variabilität streift man so mit der GT340 ab, ein sehr Unschöner Punkt die Variabilität. Allerdings führt man gleich wieder eine neue sehr variable Karte ein, die GT330.

Gast
2010-02-26, 16:35:22
.....

.... Die 9800 war letztlich nichts anderes als der Refresh zum 8800. ABER: Es gab trotzdem eine, wenn auch kleine Leistungssteigerung. Also ist meine Aussage nicht widerlegt.

....
Sicher?= Ich bin eher der Meinung dass die 9800 gegen die 8800 in fordernden Settings kein Land sah..

Grestorn
2010-02-26, 16:37:10
Sicher?= Ich bin eher der Meinung dass die 9800 gegen die 8800 in fordernden Settings kein Land sah..

Es gab Settings bei denen sie schlechter war, und welche bei denen sie besser war. "Kein Land sah" stimmt eigentlich nur, wenn der 9800 der Speicher ausgegangen ist. Zumindest habe ich das so in Erinnerung.

Gast
2010-02-26, 16:41:05
Es gab Settings bei denen sie schlechter war, und welche bei denen sie besser war. "Kein Land sah" stimmt eigentlich nur, wenn der 9800 der Speicher ausgegangen ist. Zumindest habe ich das so in Erinnerung.
korrekt, also einigen wir uns darauf dass die 9800 nicht durch die Bank ein Speedup auf die 8800 war.

AnarchX
2010-02-26, 16:52:49
Trotzdem wird mancher mehr von einer "9800 GTX" erwartet haben, vor allem nachdem die GF9-Serie mit einer 9600 GT eröffnet wurde, welche die Leistung gegenüber der 8600 GT locker verdoppelt hat.


Imho ist noch gar nichts gesagt.

Ich vermisse eine Aufstellung:

Geforce 210 -> Geforce 310 | Rename, keine Änderung

................ -> Geforce 315 | Kein Rename, neues Produkt

Geforce 220 -> Geforce 320 | Kein Rename, neues Produkt

................ -> Geforce 330 | Kein Rename, neues Produkt, sehr Variabel gestaltet

Geforce 240 -> Geforce 340 | Rename, allerdings durch die Bank die GDDR5, GDDR3 und DDR3 entfallen

Wobei man das wohl auch ohne Probleme in die GeForce 200 Serie hätte integrieren können: G310=G210, G215, GT 230, GT 235, GT 245.

Aber wie schon gesagt dürfte wohl der einzige Grund die OEMs gewesen sein, die neben der wirklichen neuen HD 5000-Serie eben auch nur eine neue GeForce-Serie haben wollten.

Bucklew
2010-02-26, 17:06:47
Du bist nicht universelles Maß der Dinge. Es mag durchaus Leute geben, die das anders sehen.
Nun, ich äußere meine Meinung, so wie jeder hier im Thread. Ich habe halt nur ein Problem damit, wenn die Dinge derart verdreht werden, wie es hier gern getan wurde. Ala "HD5000 =DX11".

Tja, nachdem das geklärt war, KÖNNTE man ja aufhören, und sich wieder dem Thema widmen. Auch du...
Und was sollte man noch klären? Die Karten wurden umbenannt, werden verkauft, alle haben sich herrlich aufgeregt und ändern werden sie daran eh nix. Also was sollte deiner Meinung nach noch fehlen?

Hm. Du meinst also, solange es der Kunde nicht bemerkt, ist es egal, ob man ihn übervorteilt?
Ich wage zu behaupten, dass der Anteil der Käufer, die durch solch eine Karte wirklich über Ohrs gehauen werden irgendwo im Promillebereich liegt. Es ist aber schon echt merkwürdig, wieviel Geld doch so ein Dau im Monat alleine an Grafikkarten ausgeben müsste, um so verarscht zu werden wie es mancher hier behaupten.

Tja, nur steht in so einem Benchmark halt nicht immer alles für den Laien wichtige drin. Zum Beispiel wird nur selten der Speichertyp angegeben, bzw. das Interface. Entscheidend für die Leistung, kaum in Benchmarks angegeben, und von Otto Normalverdunster auch nicht einzuschätzen. Der schimpft dann nur auf die "blöden Benchmarks", wenn auf seiner 1GB-Karte mit DDR2/64-Bit dann nur eine Diashow rauskommt, während die "gleiche" Karte im Benchmark (mit GDDR4/5 und 128/192/256/...-Bit) flüssiges Spielen auf den Settings erlaubte.
Natürlich muss man sich dann auch die entsprechende Karte kaufen. Aber diese Problem ist bei Grafikkarten ja noch relativ gering, man versuche mal sich genau den gleichenen Laptop wie im Testbericht zu kaufen, DA hat man mal wirklich spaß. Da unterscheidet sich der 690xrwasfaw doch ganz unheimlich vom 690xrwasfaz.

Aber wie schon gesagt dürfte wohl der einzige Grund die OEMs gewesen sein, die neben der wirklichen neuen HD 5000-Serie eben auch nur eine neue GeForce-Serie haben wollten.
Das ist wohl der Hauptgrund.

Nakai
2010-02-26, 17:21:45
Ich glaube kaum, dass NV wirklich soweit gehen wollte, jedenfalls anfangs noch nicht.
Ich glaube, es ging erst damit los, als der G92 in der Form der 8800GT veröffentlicht wurde.

Die gesamte Geforce 9-Serie hätte auch anders kommen können.

GT200 als 9800GTX und 9800GTS
G92 als 9700GTX und 9700GTS
G94 als 9600GTS und 9600GT
G96 als 9500GTS und 9500GT
G98 als 9400 und 9300 darum.

Aber dann kamen die ganzen neuen Aufgüsse in 55nm und die DX10.1-Karten, welche das gesamte untere Segment abdecken. Bei NV war man sich dem eigenen Chaos bestimmt bewusst. Ich denke auch, dass man bei NV die Situation gut einschätzen konnte, also dass man mit den 55nm-Refreshs mit den neuen AMD-Karten ziemlich gut konkurrieren konnte, bis G100 eintrudelt.
Außerdem hat man mittlerweile relativ gut andere Märkte erschlossen um ein eventuelles Totalversagen einigermaßen abzudämpfen.
Dass G100 zu spät kommt ist zwar bitter, aber gewiss kein totaler Fail.

Was wirklich bitter ist, ist dass NV in den meisten Bereichen ein halbes Jahr oder mehr zurückliegt. Mal gucken wie NV bei AMDs Refreshserie reagiert. Preisanpassung oder erneutes Rebranding. Falls letzteres, dann ist der Bogen mittlerweile wirklich überspannt...bis jetzt waren die Umbenennungen teilweise halbwegs noch zu rechtfertigen...


mfg

Cyphermaster
2010-02-26, 18:05:21
Nun, ich äußere meine Meinung, so wie jeder hier im Thread. Ich habe halt nur ein Problem damit, wenn die Dinge derart verdreht werden, wie es hier gern getan wurde. Ala "HD5000 =DX11".OT bleibt dennoch OT und ein Flame ein Flame.
Und was sollte man noch klären? Die Karten wurden umbenannt, werden verkauft, alle haben sich herrlich aufgeregt und ändern werden sie daran eh nix. Also was sollte deiner Meinung nach noch fehlen?Ich bin auch nicht das Maß der Dinge. Wir werden sehen, ob noch was Relevantes kommt, oder ob es das für diesen Thread war.
Ich wage zu behaupten, dass der Anteil der Käufer, die durch solch eine Karte wirklich über Ohrs gehauen werden irgendwo im Promillebereich liegt.Nette Theorie - aber nicht mehr, da du wohl kaum Absatzzahlen, TCR, oder sonstige Statistiken hast.

Natürlich muss man sich dann auch die entsprechende Karte kaufen. Aber diese Problem ist bei Grafikkarten ja noch relativ gering, man versuche mal sich genau den gleichenen Laptop wie im Testbericht zu kaufen, DA hat man mal wirklich spaß. Da unterscheidet sich der 690xrwasfaw doch ganz unheimlich vom 690xrwasfaz.Wie ich oben schrieb: Keine Relativierungsorgien mehr, sofern sie keinen technischen oder zumindest ökonomischen (konkreten) Themenbezug haben. Danke.

Gast
2010-02-26, 18:13:00
Trotzdem wird mancher mehr von einer "9800 GTX" erwartet haben, vor allem nachdem die GF9-Serie mit einer 9600 GT eröffnet wurde, welche die Leistung gegenüber der 8600 GT locker verdoppelt hat.
Absolut.
Imho hätte man die 8800 GT gleich als 9700 GT und die 9800 GTX gleich als 9700 GTX gebracht.
Damit wäre es viel stimmiger gewesen.


Wobei man das wohl auch ohne Probleme in die GeForce 200 Serie hätte integrieren können: G310=G210, G215, GT 230, GT 235, GT 245.
Mit Sicherheit, die Geforce 100 war quasi unnötig. Es ist auch eine Frage der Definition. Nach der Tabelle ist die Aussage 300=200 grundlegend falsch, mit Ausnahmen.


Aber wie schon gesagt dürfte wohl der einzige Grund die OEMs gewesen sein, die neben der wirklichen neuen HD 5000-Serie eben auch nur eine neue GeForce-Serie haben wollten.
Wohl wahr. Viele schreiben das es um die Dauverarsche geht, der sich von seiner kürzlich erwobenen Geforce 200 trennt, einfach so und die gleiche Ziffer in der 300er nimmt.
Mit dem OEM Aspekt muss man allerdings auf reine Fertig PCs schauen. Z.b. den "Aldi PC". Im Herbst mit Geforce 200, sollen die jetzt nochmal exakt das selbe Produkt verhöckern?
Ich möchte ernsthaft den Nutzer sehen, der sich im November einen 600€ PC http://www.aldi-sued.de/de/html/offers/2827_16064.htm
und im Februar einen 500€ PC http://www.aldi-sued.de/de/html/offers/2827_17508.htm
kauft und ernsthaft glaubt spürbar besser dazustehen.


Und was sollte man noch klären? Die Karten wurden umbenannt, werden verkauft, alle haben sich herrlich aufgeregt und ändern werden sie daran eh nix. Also was sollte deiner Meinung nach noch fehlen?

So einfach ist das eben nicht. Die pauschale Aussage umbenannt ist nicht richtig und führt nur zu Flames.

Schrotti
2010-02-26, 18:17:38
Ala "HD5000 =DX11".


Ich hab den Thread nicht aufmerksam weiter verfolgt (muss arbeiten und habe nicht so viel Zeit).

Ich dachte es wäre so!

HD5000 nicht DX11?

Da wäre ich, als nicht ATI User, auf die Nase gefallen.

AnarchX
2010-02-26, 18:19:39
Ich hab den Thread nicht aufmerksam weiter verfolgt (muss arbeiten und habe nicht so viel Zeit).

Ich dachte es wäre so!

HD5000 nicht DX11?

Da wäre ich, als nicht ATI User, auf die Nase gefallen.
http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5165/Pages/ati-mobility-hd-5165.aspx
http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5145/Pages/ati-mobility-hd-5145.aspx
Wobei diese Lösungen wohl kaum verbaut werden.

Bucklew
2010-02-26, 19:04:10
OT bleibt dennoch OT und ein Flame ein Flame.
Und eine Unwahrheit bleibt eine Unwahrheit.

Ich bin auch nicht das Maß der Dinge. Wir werden sehen, ob noch was Relevantes kommt, oder ob es das für diesen Thread war.
Na dann ich mal gespannt :biggrin:

Nette Theorie - aber nicht mehr, da du wohl kaum Absatzzahlen, TCR, oder sonstige Statistiken hast.
Ich denke die reine Logik gebietet es, dass der gemeine Anfänger aka Dau sicher nicht alle zwei Wochen in den MM läuft und deine neue Grafikkarte oder ein neues Komplettsystem kauft. Zumal wir ja in diesem Fall nur von Komplettsystemen reden, da ja OEM-only Karten.

Wie ich oben schrieb: Keine Relativierungsorgien mehr, sofern sie keinen technischen oder zumindest ökonomischen (konkreten) Themenbezug haben. Danke.
Laptops sind ebenso OEM-Ware wie die hier bezeichnet Grafikkarten, von daher ergibt sich automatisch ein Vergleich mit anderen/ähnlichen Warenfeldern.

Ich dachte es wäre so!

HD5000 nicht DX11?

Da wäre ich, als nicht ATI User, auf die Nase gefallen.
Nein, aber soviel halt zum Thema klar und einfach ersichtlich und so...

Wobei diese Lösungen wohl kaum verbaut werden.
Mit der Aussage wäre ich vorsichtig...

Cyphermaster
2010-02-26, 19:54:08
Und eine Unwahrheit bleibt eine Unwahrheit....die hier genau wie Flames und OT definitiv nicht mehr stehen wird; zumindest nicht lange. Auch nicht von dir.
Ich denke die reine Logik gebietet es, dass der gemeine Anfänger aka Dau sicher nicht alle zwei Wochen in den MM läuft und deine neue Grafikkarte oder ein neues Komplettsystem kauft. Zumal wir ja in diesem Fall nur von Komplettsystemen reden, da ja OEM-only Karten.
Tut keiner, ob DAU oder Freak. Und ob Freak oder DAU, ob 10 oder 50 Euro pro Grafikkarte, es bleibt ein absichtliches Ausnutzen der Unkenntnis von Usern.
Laptops sind ebenso OEM-Ware wie die hier bezeichnet Grafikkarten, von daher ergibt sich automatisch ein Vergleich mit anderen/ähnlichen Warenfeldern.Ist doch barer Unsinn. Es gibt auch OEM-Küchengeräte. Sollen wir die jetzt auch vergleichen? :hammer:

Nochmal sag ich das zwecks OT/Flames/Relativierungen nicht.

Gast
2010-02-27, 09:56:30
Gibt es eigentlich schon Pläne die aktuellen Karten umzubenennen um sie als Mittelklasse unter dem Fermi anzuordnen?

Da ja der CEU von NV verlautbaren lies, dass es den Fermi nur im oberen Leistungssegment geben wird und für alles andere die alten Karten ausreichen sollten.

Gast
2010-02-27, 10:14:06
Es wird bald einen halben GF100, also den GF104 geben, wenn man den Gerüchten glauben kann.
Ein Viertel GF100 ist ebenso leicht denkbar.
Für alles darunter wird die relativ junge Geforce 200 Serie weiterleben.

GF104 ist Mittelklasse, ein Viertel GF100 im Besten Fall untere Mittelklasse.

Bis zum Viertel GF100 braucht man GT215 noch, danach macht er keinerlei Sinn mehr, dann werden nur noch GT216 und GT218 weiterleben können.

Straputsky
2010-02-27, 12:19:31
Also ich muss zugeben, dass ich grundsätzlich auch nicht begeistert von Umbenennungs-Aktionen bin. Allerdings muss ich sagen, dass ich es durchaus auch akzeptiere.
Für den Kunden wird damit durchaus auch eine gewisse Transparenz geschaffen. Wer keine Ahnung hat, geht erstmal davon aus, dass eine 330 schneller als eine 320 und langsamer als eine 340 ist (leider hakt es hier etwas und dies kann man nVidia auch vorwerfen, aber der Grundgedanke bleibt). Der Käufer sieht also auf dem ersten Blick, wo sich seine Karte einordnet. Auf den zweiten Blick weiß er, dass dies das aktuelle Portfolio von nVidia darstellt und das keine "neue" Karte zu erwarten ist. Es ist die aktuellste. Der Kunde kann aber auf dem ersten Blick nicht erkennen, ob eine GT240 schneller oder langsamer als eine GT320 ist. Ob die 200er Serie auch alle aktuellen Features bietet oder nicht.

Für alle weitergehenden Informationen ist Aufwand des Käufers nötig. Im Internet wird nichts verheimlicht. Vielen ist aber dieser Aufwand zu groß. Ihnen reicht obige grobe Einteilung. Wer es wirklich wissen will: Es gibt hunderte von Tests, tausende von Internetforen mit abertausenden von hilfsbereiten Menschen. Es gibt zahlreiche Kaufberatungs-Threads. Wer sich einmal mit dieser Thematik auseinandergesetzt hat (wie melde ich mich im Forum an, wie benutze ich die Suche (wird meist übersprungen :biggrin:), wie frage ich konkret nach), der hat in Zukunft mit 10-20 Minuten Aufwand eine ausführliche Antwort für sein Problem - und dieses Wissen kann er auch für andere Anschaffungen nutzen.

Am Rande: Grafikkarten definieren sich am meisten durch Leistung und Stromverbrauch - nicht durch den verwendeten Grafik-Chip. Wenn sich die Parameter auch nur minimal ändern, würde ich eine Umbenennung durchgehen lassen (selbst bei einem reinen Die-Shrink). Der Wegfall von DDR2 z.B. verändert die Leistung einer Grafikkarte nicht unerheblich. Hier will ich dann wissen, wie sie sich neu einordnet. Bei einer reinen 1:1 Umbenennung sollte der Anbieter eigentlich verpflichtet sein, dies zu kennzeichnen (z.B. den alten Grafikkartennamen in Klammern zu ergänzen), dies würde aber nur dazu führen, dass in Zukunft die Taktraten leicht verändert werden würden um dies zu umgehen. Diese Maßnahme wäre damit relativ nutzlos.

Generell sollte einem Käufer klar sein, dass er mit einem Modell der Vorgängergeneration eventuell besser beraten ist. Vor allem, weil dies nicht nur den Grafikkartenmarkt im speziellen betrifft, sondern auch bei vielen anderen Produkten vorzufinden ist. Entweder der Kunde zeigt hier etwas Eigeninitiative und informiert sich oder er läuft Gefahr mehr zu bezahlen als notwendig - dafür hat er sich aber auch den Aufwand des Informierens gespart (was im gewissen Sinne auch Kosten darstellt).

Gast
2010-02-27, 12:36:51
Es wird bald einen halben GF100, also den GF104 geben, wenn man den Gerüchten glauben kann.
Ein Viertel GF100 ist ebenso leicht denkbar.
Für alles darunter wird die relativ junge Geforce 200 Serie weiterleben.

GF104 ist Mittelklasse, ein Viertel GF100 im Besten Fall untere Mittelklasse.

Bis zum Viertel GF100 braucht man GT215 noch, danach macht er keinerlei Sinn mehr, dann werden nur noch GT216 und GT218 weiterleben können.

Meinst du ein halber Fermi kann es mit der kompletten GT 200 Serie aufnehmen?
Wäre interessant zu wissen wie leistungsstark der wird.