PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce-100-Serie: GF8/9 unter neuem Namen + weitere nVidia-Umbenennungen


Seiten : 1 2 [3]

Gast
2009-11-26, 10:35:19
Im Grunde spielt es überhaupt keine Rolle. Für jeden halbwegs versierten Anwender sind diese Karten ohnehin gänzlich uninteressant. Da gibt es bessere und günstigere Alternativen.

LovesuckZ
2009-11-26, 10:36:54
OK, fassen wir zusammen: die 310 ist genauso reines Renaming wie die GTS 250 - jetzt mal die verringerte Leistungsaufnahme außen vor gelassen...

Na, die GTS250 war neu. Die 8800GTS-512 wurde ja unsinnigerweise nicht mehr weitergeführt.
Abgesehen davon war die GTS250 wenigsten hilfreich für den Kunden gewisse G92 Karten einzuordnen. Die 310 hilft ihn null, da die große Karte fehlt (Regenschirmeffekt).

Schlammsau@Work
2009-11-26, 11:52:09
Im Grunde spielt es überhaupt keine Rolle. Für jeden halbwegs versierten Anwender sind diese Karten ohnehin gänzlich uninteressant. Da gibt es bessere und günstigere Alternativen.

Das ist aber nicht das Problem....ich seh schon die Media Markt Prospekte mit riesengrosser Schrift.....mit neuster nVidia Grakikartentechnologie, die nvidia Geforce 310 blabla". Und jeder halbwegs interessierte Kaufinteressent wird auf den PC daneben schauen, wo evtl "nur" eine 210 :freak: verbaut ist oder auch "nur" eine 4670 oder darunter, und wird sich für die vermeintlich neue Generation entscheiden. Weil die Geforce 210 und Radeon HD4670 schon länger auf dem Markt ist.

Das wird so sein und so will nVidia Marktanteile gewinnen.

Sowas nenne ich unlauteren Wettbewerb und müsste normalerweise Angeklagt werden!

Schlammsau@work
2009-11-26, 11:55:38
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/erste_nvidia_geforce_310_dp_hp/

Oh man...... :rolleyes

LovesuckZ
2009-11-26, 12:01:47
Haha unlauterer Wettberb, weil man sein Produkt bewirbt. Als ob es ein Unterschied macht, wenn sie es zur G210 schreiben. :lol:
Du bist echt knuffig.

Gast
2009-11-26, 12:05:30
.mit neuster nVidia Grakikartentechnologie, die nvidia Geforce 310 blabla"
Und was stimmt daran nicht?

aths
2009-11-26, 14:14:45
ein wahnsinn was nvidia schon wieder veranstalten. meiner meinung nach gehören die verklagt für solche irreführenden geschäftspraktiken. :down:Die gehören nicht verklagt, aber so lange von der gesamten Presse an den Pranger gestellt bis die so einen Unsinn unterlassen. Das gilt für alle Hersteller. Wenn ich Newsschreiber wäre, würde ich jeden Tag in der News erwähnen dass die GTX 280 M auf dem G92 basiert, und wenn ATI wieder so Ding bringt wie mit der 9700 M (was eine 9600 M ist) das Gleiche tun.

Gast
2009-11-26, 14:57:38
Das ist aber nicht das Problem....ich seh schon die Media Markt Prospekte mit riesengrosser Schrift.....mit neuster nVidia Grakikartentechnologie, die nvidia Geforce 310 blabla". Und jeder halbwegs interessierte Kaufinteressent wird auf den PC daneben schauen, wo evtl "nur" eine 210 :freak: verbaut ist oder auch "nur" eine 4670 oder darunter, und wird sich für die vermeintlich neue Generation entscheiden. Weil die Geforce 210 und Radeon HD4670 schon länger auf dem Markt ist.
Hm und woher weiss der MM Kunde das die 310 neuer als die 4670 ist?
Vom MM Verkäufer?

Naja, gewissermassen müsstest du jubeln, das es seit einem Monat 40nm im absoluten Low-End Segment gibt. Zumindest bei Nvidia.
Oder ist die Fertigungsgröße doch völlig irrelevant und das Produkt als Ganzes zählt?

Dural
2009-11-27, 08:06:32
in der wirtschaft ist es doch alltäglich die selben produkte unter einen anderen namen / verkleidung zuverkaufen!

also mir ist das sowas von egal, sollen machen was sie wollen!

ich finds doch sogar ganz gut, fermi scheint nicht mehr allzuweit weg zu sein sonst würde diese aktion jetzt null sinn machen!!!

ach ja, heute ist auch nur wichtig das der kunde zufrieden ist, er muss überzeugt von seinem gekauften produkt sein, man muss dem kunden nur klar machen "er habe was gutes top aktuelles neues" und schon ist alles gut, die qualität ist dabei nicht mal so wichtig... er muss es einfach nur glauben! und gerade DESWEGEN stattet man so billigen ramsch mit dem neusten top namen aus, der kunde glaubt dann einfach er hat was gutes neues! und wisst ihr was, zu 90% klappt das auch ganz gut und ist zufriden damit!

=Floi=
2009-11-27, 08:36:31
http://www.hartware.de/news_47997.html
hier ist eine eher kritische news. eigentlich traurig, dass ausgerechnet so ein alter schlechter rotz die GF3XX generation einläutet. :(

ausgerechnet die GTX250 hatte mit ihren sparmaßnahmen den größten unterschied zu ihren schwestern. Eigentlich hätte man gleich von anfang an diese karte (als 8900GTX?!) bringen sollen.
nv verspiel so nur unnötig ihren ruf und bei den kunden werden sie dadurch auch nicht beliebter.

mapel110
2009-11-27, 09:35:26
http://www.hartware.de/news_47997.html
hier ist eine eher kritische news. eigentlich traurig, dass ausgerechnet so ein alter schlechter rotz die GF3XX generation einläutet. :(

ausgerechnet die GTX250 hatte mit ihren sparmaßnahmen den größten unterschied zu ihren schwestern. Eigentlich hätte man gleich von anfang an diese karte (als 8900GTX?!) bringen sollen.
nv verspiel so nur unnötig ihren ruf und bei den kunden werden sie dadurch auch nicht beliebter.
Die Karte wandert in Komplettrechner. Diese Leute wissen in der Regel eh nicht was sie kaufen.
btw rate mal, weswegen der Thread hier wieder ausgebuddelt wurde. Alte News.

Gast
2009-11-27, 15:20:02
Die gehören nicht verklagt, aber so lange von der gesamten Presse an den Pranger gestellt bis die so einen Unsinn unterlassen. Das gilt für alle Hersteller. Wenn ich Newsschreiber wäre, würde ich jeden Tag in der News erwähnen dass die GTX 280 M auf dem G92 basiert, und wenn ATI wieder so Ding bringt wie mit der 9700 M (was eine 9600 M ist) das Gleiche tun.

Das wäre richtig und dürfte tatsächlich etwas bewirken. Bloß wird das nicht passieren, schon gar nicht bei der PCGH, wo selbst der Chefredi ein NV-Fanboy par excellence ist.

Gast
2009-11-27, 15:56:43
ausgerechnet die GTX250 hatte mit ihren sparmaßnahmen den größten unterschied zu ihren schwestern.
Es gibt nur eine GTS 250.

Eigentlich hätte man gleich von anfang an diese karte (als 8900GTX?!) bringen sollen.
Gerade das wäre falsch, weil es eine höhere Leistung vorgaukelt.

Wie bei AMDs HD3 ist die Bezeichnung Geforce 9 die Richtige.
Allerdings gilt auch wie bei AMD, das 9800 GTX nicht richtig ist. 9700 GTX/GTS sollte es sein.
Also:
9800 GX2 -> 9700 GX2
9800 GTX+ -> 9700 GTX
9800 GTX -> 9700 GTS
9800 GT -> 9700 GT
Die kleineren Karten ab 9600 GT sind ok.

8800 GS, 8800 GT und 8800 GTS 512 hätte es nie geben dürfen. Gleich die richtige GF9 Bezeichnung und gut ist.

Der_Korken
2009-11-27, 17:26:36
Es gibt nur eine GTS 250.


Gerade das wäre falsch, weil es eine höhere Leistung vorgaukelt.

Wie bei AMDs HD3 ist die Bezeichnung Geforce 9 die Richtige.
Allerdings gilt auch wie bei AMD, das 9800 GTX nicht richtig ist. 9700 GTX/GTS sollte es sein.
Also:
9800 GX2 -> 9700 GX2
9800 GTX+ -> 9700 GTX
9800 GTX -> 9700 GTS
9800 GT -> 9700 GT
Die kleineren Karten ab 9600 GT sind ok.

8800 GS, 8800 GT und 8800 GTS 512 hätte es nie geben dürfen. Gleich die richtige GF9 Bezeichnung und gut ist.

Dem stimme ich ohne wenn und aber zu. Wenn man kein neues Namensschema gewollt hätte, hätte man sogar noch die 9800 für den GT200 offen gehabt. Aber leider ist es nicht so gekommen.

Bei AMD finde ich die HD3xxx etwas unproblematischer, da man zumindest einen Hunderter zurückgegangen ist (2900 --> 3800), allerdings wäre 3700 wohl wirklich besser gewesen, denn 800 verbindet man eher mit Highend statt mit Performance.

Gast
2009-11-27, 18:05:46
Bei AMD fängt es theoretisch schon bei der HD2 an. Warum musste es 2900 sein?
Zurückblickend sind bis zur x800 immer 800er zur ersten High-End Riege erklärt worden. Zuvor war es mit der 9700 Pro sogar nur die 700.
Bei Nvidia genauso, bis zur 5800 Ultra. 900 war stets der zweite Versuch.

Bei der HD3 stört ist neben der 3800 auch die 3600, 3400 und 3200 diskussionswürdig.
Bei der 3800 angefangen: 800 ist weniger als 900, ok. Aber bsp. 70 wiederrum ist eine Zahl die der 800 angehangen wurde. Im Endeffekt heisst es 900 vs 870. Ersteres hat noch Kürzel dran, ok.
Bei den kleineren HD3 zieht dieses Argument schon nicht mehr, 650 ist mehr als 600.

Naja, man kann streiten, aber ich meine 700 wäre fairer gewesen, bei beiden IHVs. Beide hatten nunmal kein direktes High-End mehr.

AnarchX
2009-12-02, 15:25:56
Bei HP gibt es nun auch die GT 220 als GeForce 315:
NVIDIA GeForce 315 1GB PCIe x16 Card Form Factor ATX Full Height
Display max resolution Analog VGA: 2048x1536x32bpp@85Hz
DVI: 2560 x 1600 x32bpp @60Hz
Input/Output connectors DVI-I +VGA
Board configuration Specification Description
Graphics Chip D10M2-20 (GT216-200-A2)
Core clock 625 MHz
Memory clock 790 MHz
Frame buffer 1GB DDR3, 128-bit
Core power 52 W (Max board power)
http://h18000.www1.hp.com/products/quickspecs/13494_div/13494_div.HTML

Fraglich ob so eine Bezeichnung nicht kontroproduktiv für HP ist, immerhin sollte eine solche GeForce 315 wohl locker 3-mal so schnell wie die GeForce 310 sein.

LovesuckZ
2009-12-02, 16:05:27
Was erwartet sich HP davon? Die Abgrenzung zu anderen nVidia-OEM Anbietern? Der Name hat doch zZ überhaupt keine Bedeutung für den Kunden.

reunion
2009-12-02, 16:15:37
Was erwartet sich HP davon?

Dasselbe was sich auch Nvidia davon erwartet.

nagus
2009-12-08, 20:10:36
nvidia tut, was sie am besten können, nämlich produkte umbenennen. diesmal sogar schneller als je zuvor! hut ab, das nenne ich fortschritt! :freak:
btw, wieso ist das eigentlich im SPEKU thread??!?!? das ist keine spekulation sondern tatsache! also wieso wurde mein thread im graka-forum dicht gemacht?

mrt
2009-12-08, 20:47:39
Weil der thematisch besser in den hier passt? Allerdings könnte man den hier verschieben.

Gast
2009-12-08, 22:33:40
Umbennung impleziert das etwas umbenannt wurde.
Fakt ist, das GT 220 weiterlebt.
Seltsam ist, das HP den marketingtechnisch schlechteren Namen GT 315 wählt.

Gast
2009-12-09, 00:24:25
Die 8800GTS-512 wurde ja unsinnigerweise nicht mehr weitergeführt.


doch sie wurde in 9800gtx umbenannt (der minimalst schnellere ram rechtfertigt das wohl kaum)

Dural
2009-12-09, 01:04:39
doch sie wurde in 9800gtx umbenannt (der minimalst schnellere ram rechtfertigt das wohl kaum)

Sorry aber 8800GTS 512MB und 9800GTX sind KOMPLETT verschidene Karten, nur weil die gleiche GPU drauf ist heisst das noch lange nicht das die 8800GTS in 9800GTX unbenannt wurde...

Deutlich besserer Speicher (Quimonda 1,0ns gegen Samsung 0,8ns)
Höherwertige GPU
Anderer GPU Takt
PCB ist viel komplexer
Höherwertige Bauteile (8800GTS hat ein Pfeifen, 9800GTX hingegen nicht)
1x PCI-E 6-Pin gegen 2x PCI-E 6-Pin
3Phasen gegen 4Phasen
Besserer Kühler
3-Way SLI
Hybrid SLI
und und und und

dieser blödsinn der da immer erzählt wird ist ja nicht zum aushalten! das EINZIGE das man NV vorwerfen kann ist das sie die 8800GT/8800GTS nicht von anfang an 9xxx genannt haben! das ist mir bis heute ein rätsel wie so sie das nicht gemacht haben! Vieleicht gabs die 9xxx Serie NUR weil ATI so frech war und den RV670 einfach von anfang an als was "neues" verkauft haben, der Name für diese GPU war nie gerechtfertigt da im prinzib ja sogar minderwertiger als die R600/2900XT

Im nachhinein kann man sagen das NV nur auf ATi reagiert hat, aber hatten wir das nicht vor kurzem schon mal? NV immer böse ATI immer gut... Es gab keinen grund diese low cost GPU der intern sogar unter R6xx lief als 3870 zuverkaufen, aber DAS wurde komischerweise NIE kritisiert! NV war da mit G92 zuerst viel ehrlicher, obwohl von Namen her die GPU immer in die 9xxx Serie gehört hätte.

san.salvador
2009-12-09, 01:11:08
Sorry aber 8800GTS 512MB und 9800GTX sind KOMPLETT verschidene Karten, nur weil die gleiche GPU drauf ist heisst das noch lange nicht das die 8800GTS in 9800GTX unbenannt wurde...

dieser blödsinn der da immer erzählt wird ist ja nicht zum aushalten!
Der einzige Unterschied liegt in etwas anderen Taktraten, technisch gesehen wüsste ich sonst keine Differenz.

Dural
2009-12-09, 01:30:50
Der einzige Unterschied liegt in etwas anderen Taktraten, technisch gesehen wüsste ich sonst keine Differenz.


Deutlich besserer Speicher (Quimonda 1,0ns gegen Samsung 0,8ns)
Höherwertige GPU
Anderer GPU Takt
PCB ist viel komplexer
Höherwertige Bauteile (8800GTS hat ein Pfeifen, 9800GTX hingegen nicht)
1x PCI-E 6-Pin gegen 2x PCI-E 6-Pin
3Phasen gegen 4Phasen
Besserer Kühler
3-Way SLI
Hybrid SLI
und und und und


8800GTS 512:
http://www.legitreviews.com/images/reviews/610/geforce_8800gts_naked.jpg

9800GTX:
http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GTX/images/front.jpg

san.salvador
2009-12-09, 02:02:08
Die GPU ist IMHO trotzdem die selbe, G92. G92b bekam die 9800GTX+.

LovesuckZ
2009-12-09, 09:20:59
Die GPU ist IMHO trotzdem die selbe, G92. G92b bekam die 9800GTX+.

Die GPU kannst du aber nicht kaufen. Die 8800GTS-512 war im Grunde klasse: Vollwertiger G92, kurze und billige Platine, 1xPIN Anschluss, sehr schnell, billige und gut Kühllösung. Hätten sie die Karte nicht im Zuge der 9800GTX eingestampft, sie hätten gegen die 4850 sehr gut dargestanden.

Schlammsau
2009-12-09, 09:29:21
Die GPU kannst du aber nicht kaufen. Die 8800GTS-512 war im Grunde klasse: Vollwertiger G92, kurze und billige Platine, 1xPIN Anschluss, sehr schnell, billige und gut Kühllösung. Hätten sie die Karte nicht im Zuge der 9800GTX eingestampft, sie hätten gegen die 4850 sehr gut dargestanden.

Die 4850 ist durchgehen schneller gewesen als die 8800GTS/512MB. Im Schnitt 5-10%.......
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4830/22/#abschnitt_performancerating_qualitaet
nVidia hat nicht umsonst die 9800GTX(+) auf den Markt geschmissen.

LovesuckZ
2009-12-09, 09:37:09
Und? In der heutigen Perspektive ist die 8800GTS-512 dank Supersampling, HQ-AF, vernünftigen OpenCL und DC Support, PhysX und Stereo3D interessanter als eine knapp 7 Monate später erscheinende 4850 mit einer ähnlichen Leistung. Die GTS250 ist nämlich genau diese 8800GTS-512, nur mit G92b und 9800GTX+ Taktraten.

StefanV
2009-12-09, 10:48:29
Der einzige Unterschied liegt in etwas anderen Taktraten, technisch gesehen wüsste ich sonst keine Differenz.
Nicht ganz, die 9800GTXen unterstützen idR Hybridpower.
Und die Möglichkeit 3 Karten im SLI zu verbinden...
Die GPU ist IMHO trotzdem die selbe, G92. G92b bekam die 9800GTX+.
Genau so schauts aus...
Und? In der heutigen Perspektive ist die 8800GTS-512 dank Supersampling, HQ-AF, vernünftigen OpenCL und DC Support, PhysX und Stereo3D interessanter als eine knapp 7 Monate später erscheinende 4850 mit einer ähnlichen Leistung. Die GTS250 ist nämlich genau diese 8800GTS-512, nur mit G92b und 9800GTX+ Taktraten.
Mit FSAA ist die HD4850 (gefühlt) deutlich schneller als die GTS-512.

Und ja, ich hatte beide...

Sorkalm
2009-12-09, 10:56:33
Nicht ganz, die 9800GTXen unterstützen idR Hybridpower.
Und die Möglichkeit 3 Karten im SLI zu verbinden...

Naja, aus Sicht von mind. 95% der Kunden ist es praktisch trotzdem das selbe, weil diese Features keiner von denen nutzt, genauso wie es da genauso unrelevant ob 3 oder 4 Phasen etc. verbaut sind - solang die Karte läuft. Ich würde behaupten, die 95% sind sogar arg niedrig angesetzt.

=Floi=
2009-12-09, 10:58:33
die 250er hat auch 3 phasen. die 8800gt/9800GT hat nur 2!
ebenso haben alle karten nur einen 6pin anschluss.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/3/#abschnitt_zotac_geforce_gts_250_amp
das ist das referenzdesign! Bei deinem custom design wundert natürlich nichts.

diese 738mhz kann ich auch mit meiner 8800GTS512 fahren. ;D
der mehrtakt ist nicht der rede wert und wirklich bringen tut der auch nichts. die karte geht vorher an zu vielen flaschenhälsen ein.

Dural
2009-12-23, 14:48:00
hei =Floi= kleine grafikkartekunde gefällig?

was sind das für karten?
http://img266.imageshack.us/img266/1774/dsc04899mj8.jpg

oder diese:
http://img184.imageshack.us/img184/8172/dsc03472ya0.jpg

:wink:

y33H@
2009-12-23, 15:29:27
Mit FSAA ist die HD4850 (gefühlt) deutlich schneller als die GTS-512.Im Mittel ist das Unfug. Außer du sprichst von witzlosem 8x MSAA und der GTS geht der Speicher aus.

DrFreaK666
2009-12-23, 15:30:49
Im Mittel ist das Unfug. Außer du sprichst von witzlosem 8x MSAA und der GTS geht der Speicher aus.

Witzlos?
Also ich habe den Unterschied zwischen 4x und 8x gesehen.
Ja nach Spiel ist der Unterschied größer/kleiner

y33H@
2009-12-23, 15:41:36
@ Dural

Oben links: Eine GTX 260 (65 nm)
Unten links: Eine GTX 285
Oben rechts: Eine 9800 GTX
Unten rechts: Eine 88 GTX oder Ultra, aber Single-Slot

Die grüne Platine ist iirc eine GTS/512, aber Single-Slot.

@ DrFreaK666

Du siehst ingame (mit Bewegung usw.) sofort den Unterschied zwischen reinem 4x und 8x MSAA? Dann hast du sehr gute Augen.

Dural
2009-12-23, 15:48:32
du warst nicht gefragt und es ist nicht ganz richtig ;)

DrFreaK666
2009-12-23, 15:49:48
@ Dural

Oben links: Eine GTX 260 (65 nm)
Unten links: Eine GTX 285
Oben rechts: Eine 9800 GTX
Unten rechts: Eine 88 GTX oder Ultra, aber Single-Slot

Die grüne Platine ist iirc eine GTS/512, aber Single-Slot.

@ DrFreaK666

Du siehst ingame (mit Bewegung usw.) sofort den Unterschied zwischen reinem 4x und 8x MSAA? Dann hast du sehr gute Augen.

So habe ich es nicht gesagt :biggrin:

y33H@
2009-12-23, 15:49:53
@ Dural

Damned ;( wo liege ich falsch?

@ DrFreaK666

Auf Shots im Direktvergleich, evtl. mit Vergrößerung, sehe ich es. Aber ingame kannste das ziemlich oft knicken imo.

Dural
2009-12-23, 15:51:49
die DIE grösse bei einer karte sagt ganz klar das es eine ....... ist ;) ok detail....

ist übirgens ein G80-450-A3 = 8800Ultra

y33H@
2009-12-23, 15:53:37
Oben rechts eine GTX+ statt GTX? Ich hänge echt - zudem ist das Bild so klein :usad:

EDIT
Stimmt, das A3 kann man mit Mühe entziffern. Bei nem größeren Shot hätte ich es gesehen ;D

Dural
2009-12-23, 15:55:26
jep ist ein G92b und somit eine 9800GTX+

y33H@
2009-12-23, 15:59:24
Na dann bin ich ja zufrieden =)

DrFreaK666
2009-12-23, 16:13:45
@ Dural

Damned ;( wo liege ich falsch?

@ DrFreaK666

Auf Shots im Direktvergleich, evtl. mit Vergrößerung, sehe ich es. Aber ingame kannste das ziemlich oft knicken imo.

Kommt drauf an.
Bei großen Kontrasten sieht man den Unterschied gut

aths
2009-12-24, 12:06:10
Sorry aber 8800GTS 512MB und 9800GTX sind KOMPLETT verschidene Karten, nur weil die gleiche GPU drauf ist heisst das noch lange nicht das die 8800GTS in 9800GTX unbenannt wurde...

Deutlich besserer Speicher (Quimonda 1,0ns gegen Samsung 0,8ns)
Höherwertige GPU
Anderer GPU Takt
PCB ist viel komplexer
Höherwertige Bauteile (8800GTS hat ein Pfeifen, 9800GTX hingegen nicht)
1x PCI-E 6-Pin gegen 2x PCI-E 6-Pin
3Phasen gegen 4Phasen
Besserer Kühler
3-Way SLI
Hybrid SLI
und und und undBei vier "unds" müsste es noch mindestens vier weitere Punkte geben. Welche wären das denn?

Die 9800 GTX bietet 25 MHz mehr Coretakt, 50 MHz mehr Shadertakt und 130 MHz mehr Speichertakt. Selbst wenn die 8800 GTS-512 bereits 9800 GTS hieße wäre der Sprung auf GTX nicht gerechtfertigt. Schnickschnack wie Anzahl der PCB-Layer bringen dem Kunden keine Performance. Aus Kundensicht ist es sowohl im Vergleich zur "8"800 GTS-512 als auch zur G80-8800-GTX dreist, diese Karte 9800 GTX zu nennen wo sie nur minimale Vorteile in Dingen Performance bietet.

Pfeifen ist mir bei der 8800 GTS nicht aufgefallen.

reunion
2009-12-30, 09:30:56
Nvidia GTS360M is a renamed GT240
http://www.semiaccurate.com/2009/12/29/nvidia-gts360m-renamed-gt240/

V2.0
2009-12-30, 09:37:32
Super NV. Weiter so. Naja, was soll man auch machen wenn die DX11 Serie eine Fehlentwicklung ist.

Gast
2009-12-30, 11:29:59
Super NV. Weiter so. Naja, was soll man auch machen wenn die DX11 Serie eine Fehlentwicklung ist.

Wow, da hat jemand aber Iniderinformationen. :lol:

Gast
2009-12-30, 11:36:44
Ich kriege bald garnichts mehr gebacken, wie hält ihr die Karten noch auseinander?
NV benennt die Karten so um, dass man bald garnicht mehr weiß welche wie gut ist.

Die neuen Topmodelle heißen GF100 und das umbenannte Low-Cost-Teil GF300?

V2.0
2009-12-30, 11:40:08
GF100 ist die interne Bezeichnung für die Chipfamilie. Die kleinen Dx10.1 Karten die als GT2X0 und nun wohl auch als GT3XX vermarktet werden, tragen die interne Bezeichnung GT21X. GF100 wird wohl auch als GT3XX auf den Markt kommen.

Gast
2009-12-30, 14:42:52
Charlie mal wieder. Es gibt keine GTS 360 M. :lol:
http://www.nvidia.com/object/geforce_m_series.html

Aber was solls, wir warten immer noch auf die OEM only Produkte GT 320 und GT 330. :lol:
http://www.nvidia.com/object/geforce_family.html
Da machts auch keinen Unterschied mehr das er mit dem renaming gelogen hat, die 200er gibts immer noch für den Retail Markt.

Gast
2009-12-30, 14:57:59
Die 9800 GTX bietet 25 MHz mehr Coretakt, 50 MHz mehr Shadertakt und 130 MHz mehr Speichertakt.
Früher gabs etliche Karten mit minimalem Taktunterschied und sonst keinem Unterschied auch nicht am VRAM, die eine andere Bezeichnung erhielten.
War sicher alles ok.

Der Name 8800 GTS war falsch. Das war zuwenig mehr Name.
3870 war allerdings auch falsch. Das war zuviel mehr Name.
Da die 9600 GT gut ins Bild passt, bleibt einzig und allein 9700 als sinnvoller Name.
Also:
...
9600 GT
9700 GT (=8800 GT)
9700 GTS (=8800 GTS)
9700 GTX (=9800 GTX)

Mit der GTS 250 hat sich Nvidia wieder erholt, vom Namensstrauchler 8800.

Gast
2009-12-30, 17:08:16
Charlie mal wieder. Es gibt keine GTS 360 M. :lol:
http://www.nvidia.com/object/geforce_m_series.html


Haha, die geilste Bezeichnung ist die GT335... Immerhin gibt es 3 Cluster statt 4. Die anderen sind höher getaktet, vielleicht erreichen sie jetzt auch mal den Markt.

Gast
2009-12-30, 17:50:27
[QUOTE=Gast;7743554]Charlie mal wieder. Es gibt keine GTS 360 M. :lol:
http://www.nvidia.com/object/geforce_m_series.html

soso....da hast du ja wirklich aktuelle informationen.

Link: http://www.heise.de/newsticker/meldung/GeForce-300M-Grafikchips-fuer-Notebooks-893840.html


Die Umbenennungsorgie geht also weiter...seufz!

Black-Scorpion
2009-12-30, 18:04:10
Wenn das so weiter geht bringen die auch noch ganz Dumm dreist eine GF4MX als aktuelle Karte auf den Markt.
Dem Verein ist wirklich jedes Mittel recht um die Leute immer wieder aufs neue zu verarschen.

Gast
2009-12-30, 18:25:39
Schade das AMD immer noch kein besseres Produkt als die Geforce 4 MX anbietet, nach all den Jahren und Generationen.
Ansonsten wäre sowas nicht möglich.

Aber Geforce 4 MX Nutzer können sich freuen, ihr uraltes Produkt schlägt immer noch jede neue Radeon.

Gast
2009-12-30, 18:33:23
Nvidia GTS360M is a renamed GT240
http://www.semiaccurate.com/2009/12/29/nvidia-gts360m-renamed-gt240/
Ach Charlie ist gerade wieder groß am Lügen oder was ist da los?

GT 240M vs GTS 360M:
174 GFLOPs vs 413 GFLOPs

up to "600, 1066, 800"Mhz vs "2000"Mhz

kein LVDS vs LVDS

Richt verdammt nach einem gleichen Produkt, so wie der Name andeutet. Ach Charlie.

deekey777
2009-12-30, 19:08:12
Ach Charlie ist gerade wieder groß am Lügen oder was ist da los?

GT 240M vs GTS 360M:
174 GFLOPs vs 413 GFLOPs

up to "600, 1066, 800"Mhz vs "2000"Mhz

kein LVDS vs LVDS

Richt verdammt nach einem gleichen Produkt, so wie der Name andeutet. Ach Charlie.
Vielleicht solltest du das Lesen lernen und einen Englischkurs besuchen.

Gast
2009-12-30, 19:39:48
Ich kann neben deiner Beleidigung die Worte "GTS360 is a renamed GT240" sehr gut verstehen.
Charlies Überschrift ist eine blanke Lüge, siehe bekannter Daten.

deekey777
2009-12-30, 19:42:25
Ich kann neben deiner Beleidigung die Worte "GTS360 is a renamed GT240" sehr gut verstehen.
Charlies Überschrift ist eine blanke Lüge, siehe bekannter Daten.
Du kannst also lesen:
NVIDIA'S RENAMING SCAM has another name to add to the list. The G215 is now called the GTS360M. Consumers aren't warned that they are getting old tech with a new name, but Nvidia will proudly tell you that it is 120 more of something than the GT240 that was in desktop form, and the S and M are added bonuses.
Steht da irgendwo GT240M, wie du es behauptest?

Gast
2009-12-30, 20:24:18
Ach Tatsache, Charlie ist noch lustiger als üblich. (Hättest du auch ohne Beleidigung und ohne Umschweife klar legen können)

Er vergleicht tatsächlich Mobile mit Desktop.
Leistungsmäßig bestehen da tatsächlich nur geringe Unterschiede entgegen seiner Behauptung.
Das wird mir langsam zu blöd, es ist bekannt das Mobile immer langsamer sind als gleichnamige Desktops.
Statt diesen Umstand beim Namen zu nennen oder gar zu kritisieren lässt er zu einen Schmarn herraus.

Botcruscher
2009-12-30, 21:35:17
Hier noch mal Heise:
http://www.heise.de/newsticker/meldung/GeForce-300M-Grafikchips-fuer-Notebooks-893840.html

Die schnellsten Vertreter sind die beiden Performance-Chips GeForce GTS 360M und GTS 350M mit jeweils 96 Shader-Prozessoren. Damit dürften sie kaum mehr als minimal überarbeitete Versionen der bisherigen Modelle GTS 260M beziehungsweise GTS 250M sein; die 3D-Leistung sollte auf ähnlichem Niveau liegen.

:P

Gast
2009-12-30, 21:47:50
Beachtlich, der Unterschied von seriöser Berichterstattung seitens heise vs Propaganda seitens Charlie.
=)

PulsarS
2009-12-30, 22:24:16
Was mich aber viel nachdenlicher stimmt, ist die Tatsache, dass eine 3 vorn im Namen zu finden ist. Und das bei einer DX10-Karte.
Ich dachte nach so einigen Behauptungen, dass Nvidia mit dem Namenschema und der 2 wieder Ordnung in das Namensmodell bringen will.
Ich dachte weiterhin, dass die 3 nun für DX11 als konsequente Nachfolge für die neue Generation stehen würde.
Wenn man aber jetzt ein 3 für eine alte Architektur missbraucht, dann wird das Namensschema wieder inkonsistent.

Ich verstehe dieses Namensvirwarr nicht.
Was will Nvidia damit bezwecken?

Als erstes würde mir auffallen, dass Nvidia ein altes Produkt mit einem neuen Namen verkaufen will.
Dann stellt sich die Frage warum?
Sieht es so schlecht mit der DX11 Generation von NV aus? Wird es noch lange dauern bis Nvidia die gesamte Palette mit DX11-Karten abdecken kann?

Will man bestimmte Personen hinters Licht führen, wie z.B. die Aktionäre?
Weil man im letzten Jahr 30 "neue" Produkte hat, davon aber 20 nur umbenannt wurden?
Spielt sowas bei Aktionären eine Rolle?
Etwas anderes fällt mir als Marketing-DAU leider nicht ein. :(

Als Kunde würde ich mich verarscht fühlen, aber das interessiert mich (an dieser Stelle) nicht.
Was denken wohl die Leute bei NV, die so ein Namenschaos veranstalten? :confused:
Das muss doch für sie einen Sinn haben.
Nur welchen? :confused:

Wor allem, wenn man bedenkt, dass Nvidia manche Modelle im Namen ändert, aber nicht oder kaum bei den Spezifikationen wie GPU-Takt, Shadertakt, Speicher.

Auf der anderen Seite ändert man aber recht deutlich die Spezifikationen, ändert den Namen aber nicht:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=472135

Das macht doch alles keinen Sinn :frown:

Gast
2009-12-30, 22:47:01
Das macht doch alles keinen Sinn :frown:
Ersteinmal geht es um Mobile. Dieser Fakt ist wichtig für die weitere Betrachtung.

Eine GTX 280M existiert bereits. Ebenso eine GTX 260M und eine GTS 260M.
Dieses Produkt müsste irgendwo über GTS 260M eingeordnet werden, vielleicht zwischen GTX 260M und GTX 280M.
Die beiden GTX sind bekannterweise alt.
Man könnte GTS 270M nehmen, eine recht gute Lösung, aber dann blieben Zweifel ob eine GTX 260M nicht besser ist. Damit will ich nicht sagen das 300 der bessere Ausweg ist.


Man kanns aber auch anders angehen. Irgendwie hat HP die OEM Geforce 300 eröffnet, jetzt kann man schlecht neue Geforce 200 Produkte bringen, bzw die anderen OEMs wollen auch Geforce 300 sehen um nicht schlechter als HP zu fahren.

PulsarS
2009-12-30, 22:52:26
Man kanns aber auch anders angehen. Irgendwie hat HP die OEM Geforce 300 eröffnet, jetzt kann man schlecht neue Geforce 200 Produkte bringen, bzw die anderen OEMs wollen auch Geforce 300 sehen um nicht schlechter als HP zu fahren.
Das glaubst du aber nicht wirklich, oder?
Nvidia würde einem Abnehmer ihrer Grafikkarten aber was flüstern, wenn sie den Namen für die DX11-Karten reserviert hätten. Davon kannst du aber 100% ausgehen.

Jemand eine bessere Erklärung?

Gast
2009-12-30, 23:17:26
Die 300 ist nach der 310 scheinbar eine OEM Serie.
Das eine GTX 380 erscheinen wird habe ich von dem Tag an bezweifet. Den es gab auch keine GTX 180.

Mobile kann man natürlich auch irgendwie als OEM abtun:
Im Laden ist es klar, wenn es 310 gibt, machen sich 210 daneben schlecht.
Also muss komplett alles OEM auf 300 lauten. Ob Mobile oder Desktop, im Laden ist doch alles OEM.

Die paar Retailkarten wirken dann leider etwas verloren aber was solls.
Eine Abgrenzung OEM zu Retail ist grundsätzlich toll, aber durch eine 100 mehr oder weniger nicht ideal gelöst.

PulsarS
2009-12-30, 23:23:02
Das ist einfach nur miserabel gelöst.
Das ist einfach nut Schrott, was Nvidia mit den Namen der Produkte veranstaltet.
Da kann selbst ein erfahrener Informatiker kaum durchblicken.
Wenn DAS die Anforderung ans Marketing war, dann hat es Nvidia meisterlich hinbekommen.

Nur wird sich das auf kurz oder lang rechen.
Ein guter Kunde lässt sich nur ein mal verarschen.

aths
2009-12-30, 23:53:52
Was mich aber viel nachdenlicher stimmt, ist die Tatsache, dass eine 3 vorn im Namen zu finden ist. Und das bei einer DX10-Karte.
Ich dachte nach so einigen Behauptungen, dass Nvidia mit dem Namenschema und der 2 wieder Ordnung in das Namensmodell bringen will.Das funktioniert so: Nvidia etabliert über eine gewisse Zeit ein Namensschema. Die ganze Welt freut sich, dass Nvidia endlich gelernt hat. Ein zarter Hauch von Vertrauen geht aus. Dies ist genau der richtige Zeitpunkt für Phase 2: Neue Produkte (oder alte Produkte bei denen nur der Name neu ist) brechen mit dem Schema. Dem Namen nach sind sie neuer oder stärker. In Phase 3 äußert sich Nvidia indirekt dazu und spricht von einem neuen Schema, mit dem Vergleichbarkeit hergestellt werden soll. Dann fängt der Spaß von vorne an.

PulsarS
2009-12-31, 00:05:20
@aths

Auf lange (auch mittelfristige) Sicht bringt das doch überhaupt nichts.
Man schneidet sich in sein eigenes Fleisch.
Nvidia ist aber auf einem zielstrebendem Ziel unterwegs, das ist mal klar.
Nur für wie lange?
Sowas kann nur ins Auge gehen. :(

btw haben es einige (nicht Nvidia) hier im Thread behauptet, dass die 2 ein neues Namesmodell bringen soll, damit alle den Durchblick haben.
Daraus wurde nichts.
Nun stelle ich mir die Frage ob Absicht oder nicht?:confused:

StefanV
2009-12-31, 00:08:06
Auf lange Sicht ist das sehr dämlich, auf kurze Sicht bringt das aber etwas mehr Gewinn, das ist ja gerade das Problem...

Heute denkt kaum mehr wer in der Wirtschaft langfristig, es wird meist nur bis zum nächsten Quartalsbericht gedacht und wie man den etwas aufmöbeln könnte...

Botcruscher
2009-12-31, 11:00:24
Damit kann man eine Firma aber wirklich ruinieren. Selbst bei Heise hat der Beitrag "niewida" gleich totale verarsche maximales grün bekommen.

Burgard
2009-12-31, 16:41:52
Das wird ja richtig heftig.
Gerade bei Golem.de (http://www.golem.de/0912/72140.html) gelesen:

Laut der Spezifikation beherrschen die 300er-Chips zudem nur DirectX 10. Die 200M-Serie ist hingegen fähig, auch DirectX 10.1 zu unterstützen.

Gast
2009-12-31, 16:49:06
Ja, schon ziemlich heftik, wenn man nichtmal auf das "Features" Tab klicken kann. :lol:

aths
2009-12-31, 16:53:41
@aths

Auf lange (auch mittelfristige) Sicht bringt das doch überhaupt nichts.Ja, und dann gibt sich Nvidia für einige Zeit reuig und winkt ab, dass das Sünden von gestern seien, man nun aber mit gutem Beispiel vorangehe.

Es ist nicht dass erste mal, dass Nvidias Benamung daneben liegt: GeForce 4 MX (Shading-Fähigkeiten einer GF2 MX, trotz der 4 im Namen also unterhalb der GeForce 3) oder 7200 GS (was eine 6200 ist und keine GF7-Technologie bietet) sowie "GTX 260M" und "GTX 280M" (beides G92-basierende Produkte.)

Gast
2009-12-31, 16:56:02
sowie "GTX 260M" und "GTX 280M" (beides G92-basierende Produkte.)

Was vollkommen egal ist, da der Unterschied zwischen G92 und GT200 nur in mehr Einheiten besteht und dass GT200 DP fähig ist.
Und AMD verkauft Juniper als Cypress im mobile sektor. :lol:

Gestrandet
2009-12-31, 17:11:37
Was vollkommen egal ist, da der Unterschied zwischen G92 und GT200 nur in mehr Einheiten besteht und dass GT200 DP fähig ist.
Nach dem Motto: Solang nvidia draufsteht ist doch alles bestens, gell?!? :lol:

Kann man irgendwo einen Poll machen für eine Gästesperre? Diese penetranten Störfeuer die direkt aus der PR-Abteilung zu kommen scheinen nerven IMHO gewaltig.

Gast
2009-12-31, 17:14:28
Nach dem Motto: Solang nvidia draufsteht ist doch alles bestens, gell?!? :lol:

Kann man irgendwo einen Poll machen für eine Gästesperre? Diese penetranten Störfeuer die direkt aus der PR-Abteilung zu kommen scheinen nerven IMHO gewaltig.

Na, zähle doch mal die relevanten Änderungen auf, du troll.
Wahrscheinlich kannst du es nicht, weil du keinen Plan hast. :lol:

Black-Scorpion
2009-12-31, 17:19:14
Die Hauptsache du brauchst keinen Plan um den einen Smiley zu finden.
Wieso fällt mir bei dem Smiley eigentlich immer ein Name ein?

Gast
2009-12-31, 17:22:37
Es ist nicht dass erste mal, dass Nvidias Benamung daneben liegt: GeForce 4 MX (Shading-Fähigkeiten einer GF2 MX, trotz der 4 im Namen also unterhalb der GeForce 3) oder 7200 GS (was eine 6200 ist und keine GF7-Technologie bietet) sowie "GTX 260M" und "GTX 280M" (beides G92-basierende Produkte.)
Klingt verdammt nach AMD, ich hoffe die kritiserst du auch wegen ihrer:
9000, 9000 Pro, 9100, 9200 SE, 9250 SE, 9200, 9250, X300 SE, X300, , X550, X600 Pro, X600 XT, X1050, 3100, 3200, ....

Was soll dieses Getrampel auf den Unzulänglichkeiten eines IHV?

Black-Scorpion
2009-12-31, 17:30:46
Was soll dieses Getrampel auf den Unzulänglichkeiten eines IHV?
Vielleicht deshalb weil außer dummen Marketingsprüchen, zeigen von Fakekarten und der x-ten Umbennenungsaktion 2009 nicht viel gekommen ist?

Gast
2009-12-31, 17:34:06
Vielleicht deshalb weil außer dummen Marketingsprüchen, zeigen von Fakekarten und der x-ten Umbennenungsaktion 2009 nicht viel gekommen ist?

Jo, abgesehen vom GT200b, 3D Vision, PhysX und ION. Da hat es die Konkurrenz vorgemacht: 40nm zur Cebit gezeigt (okay, Vaporware, aber wem interessierts), 40nm Ende April für Desktop gezeigt (okay, war 4 Monate nicht wirklich käuflich erhaltbar, aber was solls). Oh und DX11 Karten. Was für ein tolles Jahr für diese Konkurrenzfirma. Echt, nVidia sollte endlich anfangen genauso so zu arbeiten wie AMD. Die zeigen, wie man soviel in einem Jahr bringen kann.

Gast
2009-12-31, 17:40:14
Vielleicht deshalb weil außer dummen Marketingsprüchen, zeigen von Fakekarten und der x-ten Umbennenungsaktion 2009 nicht viel gekommen ist?
GTX 295, 285, 275 schon vergessen?
ION vergessen? Ich vergass, AMD hats nicht nötig, sie wär viel zu profitabel dank eigener CPU, den Markt überlässt man gerne Intel und Nvidia.
3D Vision vergessen?
Oder die Welle an neuen Mobile Produkte auf GT2xx Basis?
Oder die neuen Desktopkarten?
Oder die neue kleine Quadro?
Oder Fermi die Vorstellung, wo man wegen AMD ein Fakeboard in die Luft gehalten hat, in der Kiste aber Fermi steckte?

Wie auch immer, du hast meine Frage nicht beantwortet. Die 4MX ist einige Zeit her oder?
Die 9000 Pro auch. Die X1050 auch. Aber nur die 4MX wird bemängelt.

Leonidas
2009-12-31, 18:26:15
Das wird ja richtig heftig.
Gerade bei Golem.de (http://www.golem.de/0912/72140.html) gelesen:
Laut der Spezifikation beherrschen die 300er-Chips zudem nur DirectX 10. Die 200M-Serie ist hingegen fähig, auch DirectX 10.1 zu unterstützen.


Wie solln das gehen? 300er Serie auf Basis von G94 und G96? Unwahrscheinlich, da massive Hardware-Verschwendung und schlechteres Fertigungsverfahren.

Eher stimmen die "Specs" von nVidia nicht. Die Hälfte der 300er Webseiten ist schiefgegangenes C&P.

Knuddelbearli
2009-12-31, 20:24:00
Leonidas ist inzwischen leider zu 99,999% sicher ...

aths
2009-12-31, 21:31:54
Klingt verdammt nach AMD, ich hoffe die kritiserst du auch wegen ihrer:
9000, 9000 Pro, 9100, 9200 SE, 9250 SE, 9200, 9250, X300 SE, X300, , X550, X600 Pro, X600 XT, X1050, 3100, 3200, ....

Was soll dieses Getrampel auf den Unzulänglichkeiten eines IHV?Dass ATI die 9600 Mobile auch als 9700 Mobile verkaufte und dass die 9000-er Serie bis einschließlich 9200 entgegen dem bis dahin etablierten Namensschema kein DX9 konnte, macht Nvidias Aktionen nicht besser.

PulsarS
2009-12-31, 23:39:42
Dass ATI die 9600 Mobile auch als 9700 Mobile verkaufte und dass die 9000-er Serie bis einschließlich 9200 entgegen dem bis dahin etablierten Namensschema kein DX9 konnte, macht Nvidias Aktionen nicht besser.
Korrekt.
Wobei Nvidia es in der letzten Zeit extrem übertreibt.
Ich habe nichts dagegen, wenn man mal eine Lücke (z.B. Lowcost) mit der Technologie der alten Generation bestückt.
Eine GTS250 ist aber kein Lowcost.
Es geht ja hauptsaächlich um den Zeitraum und die Häufigkeit.
Wie viele Karten hat Nvidia (ohne nenneswerte Änderungen beim DX-Level und/oder Leistung) die letzten 1-2 Jahre umbenannt und wie viele ATI?
Da fällt Nvidia extrem negativ auf.

PS wünsche allen einen guten Rutsch ins neue Jahr. :)

Gast
2010-01-01, 16:18:36
Dass ATI die 9600 Mobile auch als 9700 Mobile verkaufte und dass die 9000-er Serie bis einschließlich 9200 entgegen dem bis dahin etablierten Namensschema kein DX9 konnte, macht Nvidias Aktionen nicht besser.
Auch angesichts der anderen Produkte, es macht Nvidias vorgehen nicht besser.
Allerdings sei darauf hingewiesen, das AMDs Fehltritte nicht erwähnt werden, während du auf der 4MX rumreitest.


Ich habe nichts dagegen, wenn man mal eine Lücke (z.B. Lowcost) mit der Technologie der alten Generation bestückt.
Ich schon.
Eine D3D9 Karte in der 10er Reihe ist nicht richtig, z.B.

Eine GTS250 ist aber kein Lowcost.Richtig.
Aber sie passt ins Sortiment, sie reiht sich wunderbar unter der GTX 260 ein.
Hätte man sich blos die 9800 GTX gespart ...


Wie viele Karten hat Nvidia (ohne nenneswerte Änderungen beim DX-Level und/oder Leistung) die letzten 1-2 Jahre umbenannt und wie viele ATI?
Da fällt Nvidia extrem negativ auf.Die Abgrenzung ist schwer, was ist jetzt recht und was nicht?
Ich kann nicht groß meckern, außer:
G92 hätte nie in der GF8 landen dürfen.
9800 hätte 9700 heißen müssen.
Abgrenzung der OEM durch GF100 und GF300 ist schlecht gelöst.

Würde man diese 3 Fehler korrigieren gäbs kein Grund zum meckern mehr.

Leonidas
2010-01-01, 16:59:38
Leonidas ist inzwischen leider zu 99,999% sicher ...


Ich lass mich gern belehren. Aber da brauch ich vorher ein bisschen mehr als die Meldung seitens Golem.

DX10 wäre nur möglich wenn:

a) es NV mutwillig bei den GT21x-Chips beschneidet (wozu?)
b) wenn NV die G94/96/92-Chips benutzt, welche es aber nicht in 40nm gibt und die daher von den Notebook-Herstellern rundweg abgelehnt werden dürften, so lange NV die 200M Serie nicht einstampft

Alles ziemlich große Wägbarkeiten. Ich würde gern echte Fakten sehen. Eine Angabe auf einer NV-Seite zählt im übrigen nicht wirklich dazu. Ich hab die 300M-Webseiten durchgeforstet, die sind nachweislich in mehreren Punkten falsch, weil C&P ohne Ende betrieben wurde.

Coda
2010-01-01, 18:24:58
Wenn das Zeug 40nm ist, dann gibt's auch 10.1. Da geh ich mit Leo konform.

Knuddelbearli
2010-01-01, 20:59:05
finde ich noch schlimmer da sie dann nach bereits 2 monaten von 2xx auf 3xx umbenant werden, und ob dx10.1 oder 10 ist doch einerlei es ist nicht DX11 also sofern der GF100 jetzt nit 4xx heißt fühle ich mich da doch recht verarscht

Gast
2010-01-01, 22:07:35
GF100 wird defintiv nicht als 300 enden.
Das ist seit dem Tag der 310 bekannt, einem OEM only Produkt.
GTX 280 ist schliesslich auch nicht als GTX 180 auf den Markt gekommen, die 100 war OEMs vorbehalten.

Knuddelbearli
2010-01-02, 00:35:46
es gab aber auch keine 1xxM

Gast
2010-01-02, 00:42:27
Oh doch.
http://www.nvidia.com/object/geforce_m_series.html
;)

Knuddelbearli
2010-01-02, 00:59:48
oki hab nix gesagt ^^

Gast
2010-01-02, 10:58:07
Ich kriege bald garnichts mehr gebacken, wie hält ihr die Karten noch auseinander?
NV benennt die Karten so um, dass man bald garnicht mehr weiß welche wie gut ist.

Die neuen Topmodelle heißen GF100 und das umbenannte Low-Cost-Teil GF300?


Gar nicht mir ist es zu dumm die Namen zu studieren ich kaufe einfach ATI!

Das ist das was alle Konsumenten machen sollten. Was auch mittelfristig passieren wird, denn als Kunde lass ich mich und viel andere nicht verarschen!

Eine 8800 in 9800 um zu benennen war mehr als nur dreist, wenn daraus eine 9600 worden wäre es "okey" gewesen. Aber das Rating um +1000 und aus gts noch ein gtx zu erhören, ohne die Karte in die Einstiegklasse zu verbannen.

@ NV- Fans
!! Hört auf die Umbenennungen zu rechtfertigen mit lächerlichen Marketinginstrument, wie 3Way SLI was 0,000000001% der Käufer nutzt und dann wieder abschafft wegen Microrucklern. Das HybritSLI, was Auf dem Markt Irrelevant war und ist! (Lieder)
Die Phasenerhörung war vielleicht notwendig als aber wird dadurch die Karte besser? Nein. Den 92b mit in die 200er Serie zu recyceln hat das Fass zum überlaufen gebracht! Es wird mehr Leistung suggeriert die nicht vorhanden ist (eine Handvoll mehr Mhz zählt nicht, es gab viele OC Karten die mit den Werten liefen teils sogar höher!), mehr Wert wurde immer mit anderen Methoden beworben und das zurecht!

Jetzt mit der 300m Serie schlagen die dem Fass den den Boden aus, der "Damm" ist bei der Aktion 8800 -> 9800 gebrochen!
Die Namen sind jetzt wirklich "Schall und Rauch".

Ich hatte bis jetzt mehr NV- Karten und erst eine ATI, aber nun ist für mich die nächsten Jahre NV gestorben! So eine Firmenpolitik mit dem ersten Ziel den Kunden zu verarschen ist inakzeptabel.

Der Vergleich R600 und RV670 hinkt gewaltig, bei ATI gibt es nicht ansatzweise ähnliche Umrennen Aktionen! Auch sind de gemeinsamkeiten zwischen R600, R670 (Shrink, neuer MEM Conrtoller), R770 (Neue einfache Shader + extrem höhere Anzahl, neue Textureinheiten, etc.) und RV870 (komplett Redesignte Shader sind sehr gering, es wurden (fast) das gesamte Chip Design über die Zeit überarbeitet, wenn man de Dokus lies sieht man das auch! Da hat ein GT200 viel mehr mit einem 92g zu tun. Außerdem Interne Codenamen mit Öffentlichen Namen zu vergleichen ist gelinde gesagt Lachhaft.

Wer NV verteidigt fällt hoffentlich selber drauf rein und kauft 10mal hintereinander die gleiche Karte neu... mehr fällt mir zu solchen "FANs" nicht mehr ein. Der "Fan"- atismus einiger passt gut zu Al- Kaida, echt war.

Gast
2010-01-02, 12:12:25
Gar nicht mir ist es zu dumm die Namen zu studieren ich kaufe einfach ATI!
Der Chipname ist ohne Bedeutung.
Entscheidend ist das Produkt oder dessen Name.


Eine 8800 in 9800 um zu benennen war mehr als nur dreist, wenn daraus eine 9600 worden wäre es "okey" gewesen. Aber das Rating um +1000 und aus gts noch ein gtx zu erhören, ohne die Karte in die Einstiegklasse zu verbannen.
Anders rum, 8800 war ein Fehler.
Gleich 9700 wäre sehr fair gewesen.


Der Vergleich R600 und RV670 hinkt gewaltig, bei ATI gibt es nicht ansatzweise ähnliche Umrennen Aktionen!AMDs komplette HD3 Reihe hat einen zweifelhaften Namen.
Sie hätten hinten eine Ziffer wegnehmen sollen, statt 800 700 oder statt 600 500.
Das muss man AMD ganz klar anlasten, sie haben ihre Namen zu groß gewählt.
Nvidia hat den Namen der 9800 zu groß gewählt, alle anderen Geforce 9 passen.


Auch sind de gemeinsamkeiten zwischen R600, R670 (Shrink, neuer MEM Conrtoller), R770 (Neue einfache Shader + extrem höhere Anzahl, neue Textureinheiten, etc.) und RV870 (komplett Redesignte Shader sind sehr gering, es wurden (fast) das gesamte Chip Design über die Zeit überarbeitet, wenn man de Dokus lies sieht man das auch! Da hat ein GT200 viel mehr mit einem 92g zu tun. Außerdem Interne Codenamen mit Öffentlichen Namen zu vergleichen ist gelinde gesagt Lachhaft.Ist mir vollkommen egal, was du von den GT200 Design kapiert hast.
Tatsache ist, das die GTX 280 ein vollkommen anderes Produkt als eine GTX 260 oder 8800 GTX ist.
Ebenso ist eine 4870 was anderes als eine 4850 oder 2900XT.

Gast
2010-01-02, 12:32:54
GTX 295, 285, 275 schon vergessen?
ION vergessen? Ich vergass, AMD hats nicht nötig, sie wär viel zu profitabel dank eigener CPU, den Markt überlässt man gerne Intel und Nvidia.
3D Vision vergessen?
Oder die Welle an neuen Mobile Produkte auf GT2xx Basis?
Oder die neuen Desktopkarten?
Oder die neue kleine Quadro?
Oder Fermi die Vorstellung, wo man wegen AMD ein Fakeboard in die Luft gehalten hat, in der Kiste aber Fermi steckte?

Wie auch immer, du hast meine Frage nicht beantwortet. Die 4MX ist einige Zeit her oder?
Die 9000 Pro auch. Die X1050 auch. Aber nur die 4MX wird bemängelt.

3D Vision vergessen: > marktanteil/durchdringung = < 1%?
Oder die Welle an neuen Mobile Produkte auf GT2xx Basis > umbenennen nennst du neu?
Oder die neuen Desktopkarten > umbenennen nennst du neu?
Oder Fermi die Vorstellung, wo man wegen AMD ein Fakeboard in die Luft gehalten hat, in der Kiste aber Fermi steckte > sagt nvidia = *MEGALOL*

ich darf mal erinnern was nvidia damals monate vor erscheinen der NV30 gesagt hat: http://www.anandtech.com/showdoc.aspx?i=1749&p=7

"Right now NVIDIA is claiming a 30 - 50% performance advantage over the Radeon 9700 Pro across the board."

... alles klar?

Gast
2010-01-02, 12:40:53
AMDs komplette HD3 Reihe hat einen zweifelhaften Namen.

Es geht hier aber nicht darum, dass mal ein Name nicht passt.
Sondern darum, dass Nvidia im letzten Jahr mehr Produkte umbennant als neue Produkte rausgebracht hat.
Das ist doch schon irgendwie krank.

Wenn man keine neuen Produkte rausbringt, dann kann man auch mit dem alten Namen gut leben. Wo ist das Problem?

Gast
2010-01-02, 12:41:25
Und trotzdem mehr als das was AMD gemacht hat. :lol:
Schon irgendwie doof, wenn man den Gast bestätigt, aber das Gegenteil aussagen wollte.

Gast
2010-01-02, 14:10:57
Es geht hier aber nicht darum, dass mal ein Name nicht passt.
Sondern darum, dass Nvidia im letzten Jahr mehr Produkte umbennant als neue Produkte rausgebracht hat.
Das ist doch schon irgendwie krank.
Nö, die Defintion "umbenannt" und "neu" ist nicht klar.
Nach einigen hier ist eine GTX 280 ein umbenanntes Produkt.
Ich meine das ist Bullshit.
Ich meine die 9800 hätte 9700 heißen müssen, die 8800 hätte nicht mit der neuen GT, GS und GTS befüllt werden dürfen.

Ebenso hätte AMD eine 100er weniger nehmen dürfen, mit dem Unterschied das bei AMD die komplette HD3 zu hohe Namen hat. Die HD3 ist nicht eine Name, das ist eine komplette Generation. Wie gesagt, die GF9 ist vollkommen korrekt, bis auf sämtliche 9800er.
Die GF8 ist korrekt, bis auf das die späten 8800, die man nie so nennen hätte sollen.


Wenn man keine neuen Produkte rausbringt, dann kann man auch mit dem alten Namen gut leben. Wo ist das Problem?
Wenn die alten weiterhin gut sind kein Problem.
Andere große Firmen machens genauso, ihre High-End Produkte verschwinden und werden durch ähnliche Mittelklasseprodukte ersetzt.
Ist mir Rätselhaft was daran schlecht ist.
Eine 1000€ Xtreme Edition wird nicht auf 100€ gesenkt, aber praktisch die selbe CPU gibt es irgendwann für 100€ zu kaufen, unter Celeron Label.

Gast
2010-01-02, 14:46:59
Die HD3000 Serie war DX10.1 statt 10, hatte einen Die shrik und hatte 50% weniger Leistungsaufnahme und PowerPlay. Die Leistung war anfangs etwa bis zu 5% schneller das ist ein enormer Fortschritt gewesen, halt nicht Leistungssteigernd aber in Sachen Effizienz und Ökologie und Ökonomie!
Zudem hat DX10.1 später zusätzlich 20% mehr Speed gebracht und bei DX11 Spielen wird jedes Spiel auf einer HD3000 schneller laufen als auf einer 2900er.

Das erkenne ich bei der 9800 nicht mal ansatzweise, da waren es auch 5- 10% mehr bei 15% mehr Stromverbrauch immer noch DX10 soll ich weiter machen?!

Es gab 8800er OC Karten die schneller und Stromsparender waren, mit dem Flashen zur 9800 gab es so gar berichte das HybritSLI funktioniert, trotz des angeblichen Zusatz- Chip der angeblich benötigt wurde!


Für alle die es immer noch nicht Kapert haben:

ATI:
1. Ziffer Generation
(1xxx, 2xxx, 3xxx ... 5xxx,...)

2. Leistungsklasse:

x1xx bis x5xx Officekarte bis HTPC
x6xx Einsteigergamer Karte
x7xx Mitteklasse
x8xx Highend
x9xx Absolutes Highend

3. Unterteilung in 5 weitere Geschwindigkeitsklassen

xx3x langsamste
xx5x
xx6x
xx7x
xx9x schnellste

4. Null dient zum die Zahl Marketing technisch besser aussehen zu lassen


Die 3800 ist also von Absolutes Highend in die Kategorie Highend gefallen, was ist daran Falsch??? Das war schon (fast) immer so... das von Generation die alten Karten etwa 1- 3 Stufen herunter gestuft wurden. Übringens wurde das von NV eingeführt, ergo kritisiert man was NV! Die zu Geforce Zeiten anfing dies einzuführen!

Die 8800 gts (Highend) ist in 9800gtx (Absolutes Highend) aufgestiegen wie ein Heiliger... und in der gt250 noch mal in der Gleiche Klasse wie die 8800 geblieben nämlich (Highend).

Jetzt kommt noch hinzu das die 200er Serie eigendlich GPGPU Optimierte gt200 Chips beinhalten sollte. Die gt200 soll jetzt wiederum eine ganz neue GPU sein, dann dürfe dort aber auch keine 92b auftauche... man kann es drehen und wenden wie man will es stimmt vorne und hinten nicht.

ATI hatte um gleich zu ziehen den 2950 (Hypothetischen) R600 Chip als HD 3970 Verkaufen müssen und dann wieder als OC Version als HD4850 Verkaufen müssen. Wer jetzt immer noch NV verteidigt den kann man nicht mehr helfen.

Die NV Fans blicken schon selber nicht mehr durch, sonst würden die nicht über die 3000er schimpfen *lol*


Teil 2: 300m Serie:
Jetzt das Spiel für Dummys mit der 300m Serie... als erstes verkaufen wir die aufgemöbelte g92b GPU (als 212(?), 0% mehr Speed, gleicher Stromberbrauch) mit DX10.1, das ja so unnütz ist (NV's Worte), als gt200 GPU mit super duper GPGPU Beschleunigung in der 200 Serie.

2 Monate später stellt man fest ATI bringt die neue 5000m Serie, wir brauchen was neues wie benennen die 200m Serie nochmal um und machen eine Fermi GPU Name 300m daraus. Das nenne ich ganz großes Kino!

Mehr Schein als sein.


Wo bleibt der Fermi, ist er der Grund für's Umbenennen?

Manche behaupten der Fermi wird nicht als 300er Veröffentlicht, das glaube ich weniger denn der Fermi wir so schnell keine Abgespeckten GPUs erhalten. Aber bei NV ist ja in Sachen Namen inzwischen alles möglich, 2 Monate reichen um neue Namen zu rechtfertigen!
Das ist ja das Problem von NV, dass ATI so schnell eine breite Front von HD5000ern aufbauen konnte und nun ATI ein ganzes Schlachtfeld eröffnet hat. NV weiß nicht wo sie anfangen sollen und der Fermi wird immer noch nicht Produziert. Da stellt sich die Frage wird der April überhaupt haltbar sein, ich bin sehr skeptisch.

Fakt ist wohl:
Der Fermi ist ein Dino, groß und extrem von Aussterben bedroht er wird der letzte seiner Art sein. Vielleicht bekommt er noch einmal Nachwuchs aber dann ist Schluss.

Gast
2010-01-02, 15:04:41
Die HD3000 Serie war DX10.1 statt 10, hatte einen Die shrik und hatte 50% weniger Leistungsaufnahme und PowerPlay. Die Leistung war anfangs etwa bis zu 5% schneller das ist ein enormer Fortschritt gewesen, halt nicht Leistungssteigernd aber in Sachen Effizienz und Ökologie und Ökonomie!
Zudem hat DX10.1 später zusätzlich 20% mehr Speed gebracht und bei DX11 Spielen wird jedes Spiel auf einer HD3000 schneller laufen als auf einer 2900er.

Alles schön und gut, wie gesagt, mit jeweils einer 100 weniger wärs ok.

Also 3550 statt 3650, 3770 statt 3870, ... komplett durch die Bank eine 100 weniger.


Das erkenne ich bei der 9800 nicht mal ansatzweise, da waren es auch 5- 10% mehr bei 15% mehr Stromverbrauch immer noch DX10 soll ich weiter machen?!Wie gesagt, 8800 GS, GT und GTS hätten nie erscheinen dürfen.
Gleich als 9700 GS, GT und GTS wärs ok gewesen.
Der Rest der Geforce 9 ist ok.



x1xx bis x5xx Officekarte bis HTPC
x6xx Einsteigergamer Karte
x7xx Mitteklasse
x8xx Highend
x9xx Absolutes Highend
....
Die 3800 ist also von Absolutes Highend in die Kategorie Highend gefallen, was ist daran Falsch??? Das war schon (fast) immer so... das von Generation die alten Karten etwa 1- 3 Stufen herunter gestuft wurden. Übringens wurde das von NV eingeführt, ergo kritisiert man was NV! Die zu Geforce Zeiten anfing dies einzuführen!
So gesehen macht zumindest der 3800 Name Sinn.
Die anderen HD3 sind trotzdem zu hoch eingestuft.

Allerdings kehrst du mal eben die eigentliche Kritik zur Seite. Dann ist eben die HD 2900 falsch benannnt worden.
Bisher ist man immer bei 800 eingestiegen. 900 impleziert einen Sprung der nie stattgefunden hat. 900 impleziert brachialste Leistung, der eine 800 nicht gerecht würde.
Dem ist nicht so.

Ergo ist 2900 falsch und alle HD3 ausser 3800.


Die 8800 gts (Highend) ist in 9800gtx (Absolutes Highend) aufgestiegen wie ein Heiliger... und in der gt250 noch mal in der Gleiche Klasse wie die 8800 geblieben nämlich (Highend).Nö, 8800 GTS war wie gesagt falsch.
Die Karte hätte nie so heißen dürfen, ganz wie ihre GT und GS Brüder.
8800 GTS ist ein Name, der der Karte nicht gerecht wird.
Sie hätte 9700 heißen müssen, vom ersten Tag an.
Die GTX+ hätte wunderbar als 9700 GTX gepasst.

GTS 250 wiederrum ist vollkommen ok.
Du hast dir selbst oben überlegt, was die Ziffern bedeuten. GTS und 5 sind weniger als GTX und 8.


Jetzt das Spiel für Dummys mit der 300m Serie... als erstes verkaufen wir die aufgemöbelte g92b GPU (als 212(?), 0% mehr Speed, gleicher Stromberbrauch) mit DX10.1, das ja so unnütz ist (NV's Worte), als gt200 GPU mit super duper GPGPU Beschleunigung in der 200 Serie.
Weiter oben warst du noch diskussionsbereiter.
200m ist vollkommen ok.
Diese Produkte grenzen sich genug vom Vorgänger ab.
Das es dir nicht gefällt das Nvidia ihre Architektur vorantreibt, während AMD es darf ist deine Sache.

300M ist zweifelhaft, so wie 100M.
300 ist wie 100 scheinbar eine OEM Serie. Ich halte das für sehr unschön, OEM so zu trennen, obgleich ich eine Trennung sehr begrüße, nur eben bitte anders.


Der Fermi ist ein Dino, groß und extrem von Aussterben bedroht er wird der letzte seiner Art sein. Vielleicht bekommt er noch einmal Nachwuchs aber dann ist Schluss.Naja, für High-End Kunden ziemlich traurig.
500€ für so einen Dualmist können die sich abschminken, aber bei einer anständigen High-End Karte zahlt man das gerne.
So geht der Markt dahin. Schade eigentlich.

Btw: GF100 ist allem Anschein nach klein. Richtig gelesen, klein. GT200 war größer, außerdem zeigt die Erfahrung das Chips größer werden.
Vor nicht allzulanger Zeit waren 300mm² absolutes High-End. Heute nicht mehr, heute muss man schon 2x300mm² nehmen.

Knuddelbearli
2010-01-02, 15:45:12
Tatsache ist, das die GTX 280 ein vollkommen anderes Produkt als eine GTX 260 oder 8800 GTX ist.


made my day ^^

Gast
2010-01-02, 19:34:07
Wie sieht es mit der GTX280m aus dahinter steckt ein g92b, ist für dich auch ok?!

Du betreibst Haar spalterei, bei NV alles noch okey und bei ATI meckerst du das die statt 3800 nicht 3700 geschrieben genannt haben. LOL Das ist ein Fanboy in reinster Form.

NV namens Gebung ist Planlos mit der 8800gt als Ursprung! Das ist Fakt. ATI ist seit der 2900 noch gradliniger als jemals zuvor ohne XT, XL, XTX. Nicht perfekt aber an nächsten dran, bei der Vielfalt.

Gast
2010-01-02, 20:01:12
made my day ^^
Es zeigt gut den Unsinn der verbreitet wird.
Was will man da noch diskutieren, wenn behauptet wird GT200 sei ein G80, aber RV670 sei eine völlig neue Architektur.
Das macht so keinen Spass mehr. Immerhin sind wir hier nicht im CB Forum.

Wie sieht es mit der GTX280m aus dahinter steckt ein g92b, ist für dich auch ok?!
Mobile sind grundsätzlich langsamer. Das verurteile ich grundsätzlich.
Ich kritisiere ausdrücklich, das das nicht allgemein so angesehen wird, sondern nur punktuell.

Die GPU der GTX 280M kritisiere ich nicht, das ist ok.

Die Leistung der GTX 280M ist nicht richtig, sie ist noch schlechter als normal bei Mobilen.

Leider kommt die Kritik nie so gut an, es wird nur schwarz weiss gesehen.
Dabei wird allgemein bei Mobilen zuviel geschummelt und bei der GTX 280M leider noch etwas mehr.

Du betreibst Haar spalterei, bei NV alles noch okey und bei ATI meckerst du das die statt 3800 nicht 3700 geschrieben genannt haben. LOL Das ist ein Fanboy in reinster Form.Falsch.
Les nochmal mein Post.
Ich kritisierte Die 2900, die zu hoch angesetzt war und alle HD3 bis auf die 3800.

Alternativ kann ich auch alle HD3 kritisieren und die 2900 nicht, allerdings erscheint mir die 2900 tatsächlich der Wurzel des Übel zu sein, nicht die 3800.

Ich kritisiere ausdrücklich die 9800, überlesen?
Ich kritisiere ausdrücklich, das die 8800 noch neue Ableger bekommen hat, das war ein gewaltiger Fehler.
Ich kritisiere ausdrücklich, das man OEMs Karten mit eigenen Generationen abgrenzt (GF100 und GF200). Eine andere Lösung hätte es geben müssen. Allerdings schreibe ich auch ausdrücklich, das mir die Idee der OEM Abgrenzung sehr gut gefällt.

NV namens Gebung ist Planlos mit der 8800gt als Ursprung! Das ist Fakt.
Ich war deutlich genug.
Sämtliche neuen Geforce 8 hätten gleich Geforce 9 heissen müssen. Die größeren davon 9700.

ATI ist seit der 2900 noch gradliniger als jemals zuvor ohne XT, XL, XTX. Nicht perfekt aber an nächsten dran, bei der Vielfalt.Untereinander ist AMDs Schema ganz ok.
Natürlich mit den üblichen Schumeleien als Ausnahme oder Verwirrung wie 4770.
Damit will ich mich gar nicht groß befassen, ich schrieb deutlich was missfällt, die HD3 die als Gesamtwerk zu hohe Ziffern trägt.
Das sie HD3 heisst ist erklärbar, kritisierbar aber ich habe damit absolut kein Problem.
Nochmal, es geht um die Ziffern im Vergleich zur HD2.

davidzo
2010-01-03, 16:32:48
Es zeigt gut den Unsinn der verbreitet wird.
Was will man da noch diskutieren, wenn behauptet wird GT200 sei ein G80, aber RV670 sei eine völlig neue Architektur.

Dieser Vergleich wurde von niemandem hier aufgestellt. Es wurden lediglich GTS250 mit der 8800GT und 9800GTX+ verglichen. ATI hat damals den RV670 auch nicht als neue Architektur bezeichnet sondern als ein Paradigmenwechsel. Was nun Bahnbrechender ist, eine neue Architektur oder eine völlig neue herangehensweise an den markt samt neuer Marktaufteilung mit einem Fokus auf das Highend (weg vom Enthusiast, hin zum Mainstream), darum streiten sich R&D und die Salesforce sicherlich zurecht.

Mobile sind grundsätzlich langsamer. Das verurteile ich grundsätzlich.
Ich kritisiere ausdrücklich, das das nicht allgemein so angesehen wird, sondern nur punktuell.

Punktuell im moment nur bei nvidia, denn nur die mobility 4860 ist bei AMD in die falsche Klasse (nach chip) eingeordnet, die anderen chips entsprechen den desktopchips nur mit niedrigerem Takt wie das bei mobilchips zu erwarten ist. Die Einteilung der 4860 macht aber Sinn, denn der Chip taktet auf Desktopniveau im Gegensatz zu den Anderen (m4850, m4870, ...) und ist wegen der besseren leistung und niedrigerem Stromverbrauch der mobility 4850 vorzuziehen.
Bei nvidia ist das immoment ein drunter und drüber und kein Highendchip ist jünger als 24 Monate...


Falsch.
Les nochmal mein Post.
Ich kritisierte Die 2900, die zu hoch angesetzt war und alle HD3 bis auf die 3800.

Wieso das? die 2900 war das Topmodell der HD2000 Serie. Seit wann muss man denn in seinem Namensschema bezug auf die Konkurrenz nehmen, dann müsste ATIs serie ja am besten noch HD8000 heißen und das Topmodell wäre dann die 8700? Ist dir mal aufgefallen wie bröckelig deine Argumentation da klingt? Preislich war die 2900 auf dem Niveau der 8800GTS640mb zumindest nicht zu hoch angesetzt.

In Bezug auf die 3800 und deren Einordnung sehe ich wieder kein Problem. Die 3800 hat die höchste Nummer und ist der schnellste Chip der Serie. Der wechsel von der 900 auf die 800 kennzeichnet den Paradigmenwechsel vom Enthusiast zum Highend bis Mainstreammarkt bei AMD. Wenn du jetzt die lediglich 30 punkte zwischen de r870 oder der 900 kritisierst, dann frag doch nächstes mal bei BMW wieso der 7er denn nicht 140% schneller als der 3er BMW ist, die wissen bestimmt eine Antwort.
Im übrigen haben wir bereits festgestellt, dass die Ziffern bei den Modellnummern jeweils eine unterschiedliche Bedeutung haben, jede Stelle steht für etwas anderes und sollte so gesehen werden. Die drei für den Techlevel, die acht für den Chip und die 30, 50, 70, 90 für den speedbin bzw. grad der Abspeckung. Proportional zur Performance waren und sind Modellnummern nie! Sie sind dazu da um die Markteinordnung, den Techlevel, Chip und dessen Ausstattung anzuzeigen, wie etwa bei CPUs den Sockel, die Anzahl Kerne, Takt, FSB und Cacheausstattung zu verdeutlichen.


Alternativ kann ich auch alle HD3 kritisieren und die 2900 nicht, allerdings erscheint mir die 2900 tatsächlich der Wurzel des Übel zu sein, nicht die 3800.

Alternativ? Wir dürfen uns also aussuchen was du kritisierst? Dir ist wohl aufgefallen dass deine bisherige Argumentation nicht stichhaltig ist und daher schlägst du einen alternativen last stand vor, falls wir dein bisheriges Statement demontieren? Mach dich nicht lächerlich.
Die 2900 war das Topmodell der HD2000 Serie. Dass sie nicht an die Leistung einer 8800GTX herankam ist AMDs problem gwesen, hat aber rein gar nichts damit zutun, dass sie das von AMD geplante beste modell der HD2000 Serie war.


Allerdings schreibe ich auch ausdrücklich, das mir die Idee der OEM Abgrenzung sehr gut gefällt.

Wieso? Und in welcher Hinsicht sollen sich die Namen unterscheiden? Ich finde es wesentlich übersichtlicher, wenn sich OEM und Desktopchips im großen und ganzen nur durch die Speichermenge unterscheiden wie bisher(OEMs wollen immer n bissl mehr).


Ich war deutlich genug.
Sämtliche neuen Geforce 8 hätten gleich Geforce 9 heissen müssen. Die größeren davon 9700.

Na dann sind wir uns doch auch einig in Bezug auf 2900 und 3870 oder?


Untereinander ist AMDs Schema ganz ok.
Natürlich mit den üblichen Schumeleien als Ausnahme oder Verwirrung wie 4770.
Was stimmt mit der 4770 nicht? Sie ist ein neuer Chip unterhalp von rv770 (4800), sie ist langsamer als die 4850, schneller als die 4670 und dieselbe DX10.1 Architektur. Wenn dann müsstest du die 4830 ankreiden, die nur so heißt weil sie ebenfalls ein rv770 ist, aber mal ehrlich wenn man weiß dass die Ziffern einzeln betrachtet werden müssen ist eine 30 am Ende doch ein eindeutiges Indiz dafür eine heftig abgespeckte SKU zu haben und niemand kann behaupten eine 4830 müsse schneller als eine 4770 zu sein. Die höchste Ausbaustufe des einen Chips kann durchaus in die niedrigste Ausbaustufe des anderen hineinreichen, siehe 8800GTS G80 vs 8800GT G92.


Damit will ich mich gar nicht groß befassen, ich schrieb deutlich was missfällt, die HD3 die als Gesamtwerk zu hohe Ziffern trägt.
Das sie HD3 heisst ist erklärbar, kritisierbar aber ich habe damit absolut kein Problem.
Nochmal, es geht um die Ziffern im Vergleich zur HD2.
Die 2900 war der letzte (missglückte) Enthusiastenchip von AMD. Es gibt keine HD3900. Es gibt keine HD 3670 (vgl. 2600XT), die HD 2400xt hatte damals schon die 8500GT geschlagen und die 100mhz höher getaktete 3470 hatte erst recht kein Gegenstück in der Preisklasse.
Wenn du das derating, was AMD im Highend und Mainstream vorgenommen hast hinzuzählst (nachfolgechip mit selber einheitenzahl rangiert eine modellnummer weiter unten) und die rund 60prozentige Verbesserung im Enthusiastbereich durch die 3870x2, dann war der Sprung von HD2000 auf HD3000 aber deutlich größer als der bei nvidia von 8800 auf 9800!

Die Enttäuschung war groß, als bekannt wurde, die neuen HD3000 Chips kämen mit genausovielen Shadern aus wie die HD2000 Serie. Als die HD3000 Chips dann aber kaum 8 Monate nach den 2000ern erschienen und die entsprechenden chips durch den dieshrink und reduzierten stromverbrauch jeweils eine Abstufung tiefer am Markt angeboten werden konnten als noch bei der HD2000 Serie, macht es wieder Sinn.
Wozu soll man die Shaderanzahl verändern, wenn man mit einer ähnlichen Anzahl wie vorher nun einen geringfügig anderen Markt bedienen kann? gar nicht anders hat nvidia es beim Schritt von 8600 auf 9500 getan und zumindest (roh- und end-)leistungsmäßig liegen auch die ehemalige performancekarte 9600 und die neue mainstreamkarte GT240 sehr nah aneinander. Sie bedienen aber mit einer vergleichbaren shaderpower einen neuen tiefer angesiedelten Markt, was auch im Namen deutlich wird (GT240 vs 9600) was den Schritt völlig rechtfertigt.

AnarchX
2010-01-03, 20:59:06
AMD zieht wohl nach und verkauft RV7xx GPUs als Einsteiger Mobility HD 5000:
ATI Mobility Radeon HD 5145 = PCI\VEN_1002&DEV_9553&SUBSYS_03111025
ATI Mobility Radeon HD 4570 = PCI\VEN_1002&DEV_9553&SUBSYS_02651025

ATI Mobility Radeon HD 5165 = PCI\VEN_1002&DEV_9480&SUBSYS_031C102
ATI Mobility Radeon HD 4650 = PCI\VEN_1002&DEV_9480&SUBSYS_02611025

http://nbbbs.zol.com.cn/36/209_350684.html

Wobei man anders als NV die SKUs deutlich niedriger im Schema einordnet.

Knuddelbearli
2010-01-03, 21:53:18
hmm auch nit richtig können ja kein Dx11 wobei das da unten egal ist nur kann ich mir nit vorstellen das dei OEMs da drauf anspringen wenn sie auch ne 5350 oÄ nehmen könnten

Gast
2010-01-03, 22:25:16
Anders als bei Nvidia ist die 5000 keine reine OEM Serie.
Egal, hoffentlich wird das genauso durchgekaut.

Dieser Vergleich wurde von niemandem hier aufgestellt. Es wurden lediglich GTS250 mit der 8800GT und 9800GTX+ verglichen. ATI hat damals den RV670 auch nicht als neue Architektur bezeichnet sondern als ein Paradigmenwechsel. Was nun Bahnbrechender ist, eine neue Architektur oder eine völlig neue herangehensweise an den markt samt neuer Marktaufteilung mit einem Fokus auf das Highend (weg vom Enthusiast, hin zum Mainstream), darum streiten sich R&D und die Salesforce sicherlich zurecht.
Es wurde doch einige Male behauptet, alle Geforces seien gleich.
Vielleicht nicht auf dieser Seite.


Punktuell im moment nur bei nvidia, denn nur die mobility 4860 ist bei AMD in die falsche Klasse (nach chip) eingeordnet, die anderen chips entsprechen den desktopchips nur mit niedrigerem Takt wie das bei mobilchips zu erwarten ist. Die Einteilung der 4860 macht aber Sinn, denn der Chip taktet auf Desktopniveau im Gegensatz zu den Anderen (m4850, m4870, ...) und ist wegen der besseren leistung und niedrigerem Stromverbrauch der mobility 4850 vorzuziehen.

Du hast mich nicht verstanden.
Die Mobile 4860 ist wie ausnahmslos alle Mobilen langsamer als die Desktop Variante.

GTX 280M ist ebenfalls langsamer.
Nur eben noch mehr als üblich.
Kritisiert wird übrigens nicht das sie langsamer als üblich ist, sondern das die falsche GPU verbaut ist, was völlig unwichtig ist.


Bei nvidia ist das immoment ein drunter und drüber und kein Highendchip ist jünger als 24 Monate...

Wo bist du gerade?
Bei Mobile oder Desktop?
Eben wars noch Mobile, Nvidias Topmodell ist da wohl die GTX 280M, bzw die GTS 360M.
GTS 360M als zweit schnellste Mobile Geforce darf man wohl als High-End betiteln.
Die GTX 280M ist nichtmal ein Jahr alt.

Wieso das? die 2900 war das Topmodell der HD2000 Serie. Seit wann muss man denn in seinem Namensschema bezug auf die Konkurrenz nehmen, dann müsste ATIs serie ja am besten noch HD8000 heißen und das Topmodell wäre dann die 8700? Ist dir mal aufgefallen wie bröckelig deine Argumentation da klingt? Preislich war die 2900 auf dem Niveau der 8800GTS640mb zumindest nicht zu hoch angesetzt.

900 für das Topmodell hat AMD noch nie zum Start gehabt.
800 war das Topmodell, 900 der Refresh des Topmodells.
Eine 900 zum Start impleziert nie dagewesene Mehrleistung im Vergleich zur Vorgängergeneration bzw das Vorhandensein einer 800.



In Bezug auf die 3800 und deren Einordnung sehe ich wieder kein Problem. Die 3800 hat die höchste Nummer und ist der schnellste Chip der Serie. Der wechsel von der 900 auf die 800 kennzeichnet den Paradigmenwechsel vom Enthusiast zum Highend bis Mainstreammarkt bei AMD.

Eben war 800 noch High-End.
Bei AMD übrigens vor und nach der HD2 auch.
Nochmal, die HD2 weicht vom Schema ab.

Wenn du jetzt die lediglich 30 punkte zwischen de r870 oder der 900 kritisierst, dann frag doch nächstes mal bei BMW wieso der 7er denn nicht 140% schneller als der 3er BMW ist, die wissen bestimmt eine Antwort.
Alle kleinen HD3 haben keinerlei Herunterstufungen erfahren.
Es geht nicht um die 30er Schritte.
Es ist natürlich seltsam das 600 Produkte aufeinmal 650 heißen, aber mir gehts nicht um die 50 sondern um die 600.

Die 2900 war das Topmodell der HD2000 Serie. Dass sie nicht an die Leistung einer 8800GTX herankam ist AMDs problem gwesen, hat aber rein gar nichts damit zutun, dass sie das von AMD geplante beste modell der HD2000 Serie war.
Siehe oben, sie weicht von AMDs 800er Schema ab.


Wieso? Und in welcher Hinsicht sollen sich die Namen unterscheiden? Ich finde es wesentlich übersichtlicher, wenn sich OEM und Desktopchips im großen und ganzen nur durch die Speichermenge unterscheiden wie bisher(OEMs wollen immer n bissl mehr).
Leider gibts immer wieder unschöne Geschichten, wie OEMs unter den selben Namen heftig kastrierte, manchmal gar überhaupt nicht mehr ähnliche Produkte anbieten.
Das gibt die Sicherheit auch Retail zu bekommen, nehm mir das nicht übel.
Wie sich die Namen unterscheiden sollten kann ich gerade nicht beantworten, jedenfalls ist es Nvidia nicht gut gelungen.

Na dann sind wir uns doch auch einig in Bezug auf 2900 und 3870 oder?
Viel fehlt nicht.
Du musst anerkennen das die kleinen HD3 zu hoch eingestuft sind und das
2900 besser 2800
und 3870 besser 3770 genannt worden wäre.

Was stimmt mit der 4770 nicht? Sie ist ein neuer Chip unterhalp von rv770 (4800), sie ist langsamer als die 4850, schneller als die 4670 und dieselbe DX10.1 Architektur. Wenn dann müsstest du die 4830 ankreiden, die nur so heißt weil sie ebenfalls ein rv770 ist, aber mal ehrlich wenn man weiß dass die Ziffern einzeln betrachtet werden müssen ist eine 30 am Ende doch ein eindeutiges Indiz dafür eine heftig abgespeckte SKU zu haben und niemand kann behaupten eine 4830 müsse schneller als eine 4770 zu sein.

Die GPU interessiert den normalen Kunden nicht. Überhaupt nicht.
An der 4770 passt der Name nicht, sie müsste 4840 heißen.
4830 war ok, bis eben die 4770 auftauchte. Neue Produkte in eine vorhandene Linie zu pressen ist schwer, aber kein Grund das man Fehler nicht kritisieren darf.

Die höchste Ausbaustufe des einen Chips kann durchaus in die niedrigste Ausbaustufe des anderen hineinreichen, siehe 8800GTS G80 vs 8800GT G92.
Naja, das war gerade das Beispiel mit dem falschen Namen.
8800 GT hätte nie 8800 GT heißen dürfen.
Sie passt schlicht nicht zur GTS 640.
Ansonsten gibts du mir Recht, die GPU ist egal, das Produkt zählt.
Siehe 9600 GSO und 9600 GT.

Die 2900 war das Topmodell der HD2000 Serie. Dass sie nicht an die Leistung einer 8800GTX herankam ist AMDs problem gwesen, hat aber rein gar nichts damit zutun, dass sie das von AMD geplante beste modell der HD2000 Serie war.




Die 2900 war der letzte (missglückte) Enthusiastenchip von AMD. Es gibt keine HD3900. Es gibt keine HD 3670 (vgl. 2600XT), die HD 2400xt hatte damals schon die 8500GT geschlagen und die 100mhz höher getaktete 3470 hatte erst recht kein Gegenstück in der Preisklasse.
900 ist der Ausreißer für ein High-End Produkt.
Siehe die gesamte Radeongeschichte. 900 gabs nur ganz selten als Refresh einer 800 mit der selben Vorziffer.

3650 ist zu hoch, wie alle kleinen HD3. Du warst doch mit mir einig das 9800 ein Fehler war, sie hätten eine 100 wegnehmen und sie 9700 nennen sollen.
Das gilt auch für AMD.
3650, die neue 2600 Pro hätte 3550 heißen müssen.
Ebenso die anderen kleinen HD3.


Wenn du das derating, was AMD im Highend und Mainstream vorgenommen hast hinzuzählst (nachfolgechip mit selber einheitenzahl rangiert eine modellnummer weiter unten) und die rund 60prozentige Verbesserung im Enthusiastbereich durch die 3870x2, dann war der Sprung von HD2000 auf HD3000 aber deutlich größer als der bei nvidia von 8800 auf 9800!
Schon vergessen was du eben geschrieben hast?
9800 hätte 9700 heißen müssen.
Aber falls du es nicht lesen willst, hier die erwartete Antwort: Auch Nvidia war fähig eine GX2 zu bauen.
Echt tolle Verbesserungen. Die Nachfolger der High-End Karten wird ein MGPU Schrott.


Die Enttäuschung war groß, als bekannt wurde, die neuen HD3000 Chips kämen mit genausovielen Shadern aus wie die HD2000 Serie. Als die HD3000 Chips dann aber kaum 8 Monate nach den 2000ern erschienen und die entsprechenden chips durch den dieshrink und reduzierten stromverbrauch jeweils eine Abstufung tiefer am Markt angeboten werden konnten als noch bei der HD2000 Serie, macht es wieder Sinn.
Wozu soll man die Shaderanzahl verändern, wenn man mit einer ähnlichen Anzahl wie vorher nun einen geringfügig anderen Markt bedienen kann? gar nicht anders hat nvidia es beim Schritt von 8600 auf 9500 getan und zumindest (roh- und end-)leistungsmäßig liegen auch die ehemalige performancekarte 9600 und die neue mainstreamkarte GT240 sehr nah aneinander. Sie bedienen aber mit einer vergleichbaren shaderpower einen neuen tiefer angesiedelten Markt, was auch im Namen deutlich wird (GT240 vs 9600) was den Schritt völlig rechtfertigt.
Eben RV670 ist völlig ok.
Er bedient eben einen anderen Markt, Ausnahme 3870 X2.
Du siehst ebenso gewiese Schritte der Konkurrenz als ok an, die GT240 z.b.
Das ist lobenswert, den im Grunde ist das doch ein völlig normales Vorgehen, was hier so gerne kritisiert wird.

Leonidas
2010-01-04, 05:33:07
AMD zieht wohl nach und verkauft RV7xx GPUs als Einsteiger Mobility HD 5000:

http://nbbbs.zol.com.cn/36/209_350684.html

Wobei man anders als NV die SKUs deutlich niedriger im Schema einordnet.


Noch läßt sich das nicht verwerten, weil in solchen Vorab-Angaben im Treiber sehr oft C&P-Schindluder getrieben wird. Es kann also derzeit nicht mit Sicherheit gesagt werden, daß diese 5145/5165 aus der 4er Serie stammt.

dildo4u
2010-01-10, 17:09:26
Noch läßt sich das nicht verwerten, weil in solchen Vorab-Angaben im Treiber sehr oft C&P-Schindluder getrieben wird. Es kann also derzeit nicht mit Sicherheit gesagt werden, daß diese 5145/5165 aus der 4er Serie stammt.

AMDs Mobility Radeon HD 5165 und HD 5145 ohne DX11

ATI Mobility Radeon™ HD 5165 GPU Specifications

* 514 million transistors on 55nm fabrication process
* Unified Superscalar Shader Architecture
* Microsoft® DirectX® 10.1 support
* OpenGL 2.0 support
* (G) DDR3 memory interface (depending on model)
* PCI Express 2.0 x16 bus interface
* 320 stream processing units

http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5165/Pages/hd-5165-specs.aspx

http://www.pcgameshardware.de/aid,702804/AMDs-Mobility-Radeon-HD-5165-und-HD-5145-ohne-DX11/Grafikkarte/News/

N0Thing
2010-01-10, 17:30:53
Schade, ich hab mir von ATI ein wenig mehr Coolness erwartet.

StefanV
2010-01-10, 19:04:57
Naja, sie müssen sich halt dem Markt anpassen, wenn nVidia so einen Unfug treibt und man selbst nix im entsprechenden bereich hat, muss man (leider) mitziehen...

PS: das da oben scheint 'ne HD46x0 zu sein, mit geringem Speichertakt.

AnarchX
2010-01-10, 19:59:14
Mit 600/900MHz und (G)DDR3-Pflicht ist die 5165 schneller als eine HD 4650.
Mit HD 51xx grenzt man sich zwar von den D3D11-HD5000 ab, aber die Vergleichbarkeit ist dann auch schwieriger gestaltet, gerade wenn der Kunde sich im Geschäft zwischen einer HD 5165 und einer HD54xx entscheiden muss.

Gast
2010-01-10, 20:21:23
Klar, wenn Nvidia es macht ist es böse. Wobei Nvidia es nichtmal gemacht hat, wo ist den bitte die D3D9 8800?
Aber wenn AMD es macht ist es gut. Ja armes AMD kann ja nichts dafür.

Sorkalm
2010-01-10, 21:08:44
Mit HD 51xx grenzt man sich zwar von den D3D11-HD5000 ab, aber die Vergleichbarkeit ist dann auch schwieriger gestaltet, gerade wenn der Kunde sich im Geschäft zwischen einer HD 5165 und einer HD54xx entscheiden muss.

Ja, wenn sie schon rebranden, warum dann mit so einem doofen neuen Namen. Nach dem Motto, wenn das schon wer vorschlägt, dann hätte ich gesagt, gleich richtig und HD 55x0 (für die 4600) und HD 53x0 (für die HD 4500/4300) vorgeschlagen. So ist das doch irgendwie was ungares.

Naja, was solls, rebranden ist eh doof. Aber verkauft sich halt...

AnarchX
2010-02-13, 11:37:53
Nun listet man die GeForce 300 bei Nvidia:
http://www.nvidia.com/object/geforce_family.html

Die GT 330 ist mit ihren sehr freien Spezifikationen wohl die optimale SKU um G92-Restbestände loszuwerden. :D

Sorkalm
2010-02-13, 11:39:32
Die GT 330 ist mit ihren sehr freien Spezifikationen wohl die optimale SKU um G92-Restbestände loszuwerden. :D

G92 und G94, geht ja beides. ;)

AnarchX
2010-02-13, 11:41:22
G92 und G94, geht ja beides. ;)
Nein, sie hat mindestens 96 Cuda Cores.
Wenn dann vielleicht später noch GT215@DDR3/2.

Sorkalm
2010-02-13, 12:09:49
Nein, sie hat mindestens 96 Cuda Cores.
Wenn dann vielleicht später noch GT215@DDR3/2.

Ach stimmt ja, G94 hatte ja nur 64.
Na gut, dann eben nur Recycling von G92...

Botcruscher
2010-02-13, 12:17:04
Nun listet man die GeForce 300 bei Nvidia:
http://www.nvidia.com/object/geforce_family.html
Die GT 330 ist mit ihren sehr freien Spezifikationen wohl die optimale SKU um G92-Restbestände loszuwerden. :D

Nachdem sich die Karten breit bei den OEMs wiederfinden auch kein Wunder. Mit Zufall hat diese "geduldete" Umbennenungsaktion auch nichts gemein.

Ailuros
2010-02-13, 15:24:09
Nun listet man die GeForce 300 bei Nvidia:
http://www.nvidia.com/object/geforce_family.html

Die GT 330 ist mit ihren sehr freien Spezifikationen wohl die optimale SKU um G92-Restbestände loszuwerden. :D

LOL 310/315/320/340 sind alle DX10.1 und nur die 330 ist DX10 (und natuerlich mit den sehr variablen specs). Das einzig komische an der Geschichte ist dass die 320 maximal 75W verbrauchen soll (wohl bei 112SPs 550/1340, 256bit), waehrend die 340 mit 96SPs bei 550/1340, 128bit bei 69W angegeben wird.

Irgendwas stimmt hier nicht.

dildo4u
2010-02-13, 15:31:30
LOL 310/315/320/340 sind alle DX10.1 und nur die 320 ist DX10 (und natuerlich mit den sehr variablen specs). Das einzig komische an der Geschichte ist dass die 320 maximal 75W verbrauchen soll (wohl bei 112SPs 550/1340, 256bit), waehrend die 340 mit 96SPs bei 550/1340, 128bit bei 69W angegeben wird.

Irgendwas stimmt hier nicht.
Wurde schon gefixt.320 hat auch DX 10.1.

Dural
2010-02-13, 15:43:57
er meint 330 ;)

"Recycling" "Restbestände" vom G92 :freak: das hiss es schon als die 9000 Serie kamm ;)

Mit G92 wird aber ganz offensichtlich noch Geld gemacht und das jetzt im 3Jahr! Wirtschaftlich gesehen gibt es wohl keine andere GPU in die so erfolgreich war... es verwundert eher das NV es nicht mal für nötig gehalten hat den G92 durch den GT214 zu ersetzten...

Ailuros
2010-02-13, 15:53:14
er meint 330 ;)

Ja natuerlich. Typo.

"Recycling" "Restbestände" vom G92 :freak: das hiss es schon als die 9000 Serie kamm ;)

Mit G92 wird aber ganz offensichtlich noch Geld gemacht und das jetzt im 3Jahr! Wirtschaftlich gesehen gibt es wohl keine andere GPU in die so erfolgreich war...

Offensichtlich luegen sie sich ihren Hintern ab mit dem angeblichen Stromverbrauch der 330. Ein 55nm chip mit breiterem Bus (und ergo mehr ROPs) mit 112 SPs bei gleicher maximaler Frequenz als ein 340@40nm kann nicht weniger Strom verbrauchen.

Anders hier die GTS250 welches ein echter G92 ist bei 128SPs, 256bit bus und 738/1836: http://www.nvidia.com/object/product_geforce_gts_250_us.html

Ergo machen die 12SPs bei der GTS250 und die hoeheren Frequenzen fast zweimal so viel Stromverbrauch aus? Errrr.....hoechstwahrscheinlich ist es tatsaechlich ein G92 Ableger aber die groesste 330 Variante verbraucht nie im Leben nur 75W.

***edit: mooooment.....http://www.nvidia.com/object/product_geforce_gt_330_us.html

DirectX 10 GPU with Shader Model 4.1 support.

WTF?

Sorkalm
2010-02-13, 16:01:31
WTF?

Wär mir neu, das es so eine GPU gibt. :p
Auf dem Medion-PC den Aldi mal verkauft hat (mit GT330) war aber definitiv ein G92 drauf, PC-Welt hatte da mal den Kühler abgebaut (hatte das vor ein paar Seiten mal verlinkt).

Ailuros
2010-02-13, 16:06:30
DX10 kann nur SM4.0 sein. Ich hab's ihnen Mal unter die Nase gerieben mal sehen ob sich etwas aendert ;)

AnarchX
2010-02-13, 16:25:45
Ergo machen die 12SPs bei der GTS250 und die hoeheren Frequenzen fast zweimal so viel Stromverbrauch aus? Errrr.....hoechstwahrscheinlich ist es tatsaechlich ein G92 Ableger aber die groesste 330 Variante verbraucht nie im Leben nur 75W.

9800 GT Green (550/1375/900MHz 75W TDP) verpasst?
Die G92 GT 330 bei Aldi hatte zudem nur 112SPs @ 500/1250MHz und ein 192-Bit SI.

Dural
2010-02-13, 22:11:33
Naja die GTS250 hat auch mal 200MHz mehr ROP und 500MHz mehr Shader Takt plus min. 0,1Volt mehr auf der GPU und Speicher der sehr wahrscheinlich auch mehr verbraucht!

Die "Qualität" der G92 GPUs scheint aber auch schon längere zeit hervoragend zu sein! Aber kein wunder nach so langer Produktionszeit.

Tarkin
2010-02-14, 12:15:21
***edit: mooooment.....http://www.nvidia.com/object/product_geforce_gt_330_us.html


WTF?

Und ich dachte immer GeForce 3XX = DX 10.1 :wink:

nVidias Produktbezeichnungen = WTF ^2

Gast
2010-02-14, 12:24:59
Das 4770 schneller als 4830 ist, ist auch nicht einleuchtend.

Oder das HD5 nicht für D3D11 steht...

Gast
2010-02-15, 14:06:48
Die GT330 kann ja alles sein.
Von fast 9800GT Niveau mit 256bit DDR3 und 112SP. Oder irgendwo klar unter GT240 DDR3 mit 96SP und 128Bit DDR2.

Gast
2010-02-22, 18:19:32
Nun stellt euch doch nicht so an. Die OEMs wollen solchen Quatsch halt, also bekommen sie ihn. Who cares.

StevenB
2010-02-22, 18:44:48
Nun stellt euch doch nicht so an. Die OEMs wollen solchen Quatsch halt, also bekommen sie ihn. Who cares.

Hast recht, gibt genug Leute die darauf voll abfahren das ihre Zahl der CPU / GPU viel höher ist! Da sind dann solche Gedankenspiele wie die GT 340 ist viel schneller als die 285 GTX, ist ja klar! Ist ja auch eine höhere Zahl! :)

Gast
2010-02-22, 22:40:59
Ja und 9500 GT ist mehr als GTX 285.
Glaubst den Mist auch, den du verzapfst?

StevenB
2010-02-23, 07:13:03
Ja und 9500 GT ist mehr als GTX 285.
Glaubst den Mist auch, den du verzapfst?

Ja weil es so ist! Es gibt genug Menschen die sich davon blenden lassen!


Edit: Die Zeit hatten wir schon mal als die puren Zahlen mehr gezählt hat als die Leistung.... und das ist noch gar nicht so lange her...

Gast
2010-02-23, 16:50:13
Ja weil es so ist! Es gibt genug Menschen die sich davon blenden lassen!

Ne ist klar, die OEM 100er oder die Retail 200er hat sich beschissen verkauft, weil die Leute denken 9000 ist besser. :rolleyes:

StevenB
2010-02-23, 16:59:24
Ne ist klar, die OEM 100er oder die Retail 200er hat sich beschissen verkauft, weil die Leute denken 9000 ist besser. :rolleyes:

willst oder kannst du es nicht verstehen? Es gab und wird auch immer Leute geben die auf die Zahlenspiele reinfallen! Das wird sich nie ändern! Das gilt gerade für neue Produkte, wo man die Kunden verunsichern kann.

Eine 340GT hört sich doch deutlich besser an als eine 285GTX! 340GT klingt nach einen Nachfolger, wo der Typische MM Verkäufer dir dazu raten wird!

Diese Zahlenspielen haben schon zu 486er Zeiten angefangen, und sie gelten immer noch!

Vielleicht verstehst du JETZT auf was ich hinaus will.

Bucklew
2010-02-23, 18:00:39
willst oder kannst du es nicht verstehen? Es gab und wird auch immer Leute geben die auf die Zahlenspiele reinfallen! Das wird sich nie ändern! Das gilt gerade für neue Produkte, wo man die Kunden verunsichern kann.

Eine 340GT hört sich doch deutlich besser an als eine 285GTX! 340GT klingt nach einen Nachfolger, wo der Typische MM Verkäufer dir dazu raten wird!
Wenn es darum geht:

Warum hat man dann den nagelneuen G92 als erste in die 8000er Reihe eingeführt und nicht direkt als 9000er?

StevenB
2010-02-23, 18:06:54
Wenn es darum geht:

Warum hat man dann den nagelneuen G92 als erste in die 8000er Reihe eingeführt und nicht direkt als 9000er?


Frag doch Nividia!

Es geht doch darum, wer sich hier in solchen Forum rumtreibt, bzw. Allgemein Hardware Seiten aufsucht, wird vielleicht nicht auf das Marketing geblubber rein fallen (egal von welchem Hersteller). Aber wie viele Leute sind das schon?

Der groß teil der Leute holt sich OEM, zusammen gebautes Zeug von MM usw. Und die Leute sehen einfach nur! Hey ein neues Produkt! Das muss ja besser sein! So sieht leider die Realität aus! Es wird gekauft, weil der Hersteller sagt, ES IST NEU! Dabei ist es kalter Kaffee...

Schlammsau
2010-02-23, 18:07:40
Frag doch Nividia!

Es geht doch darum, wer sich hier in solchen Forum rumtreibt, bzw. Allgemein Hardware Seiten aufsucht, wird vielleicht nicht auf das Marketing geblubber rein fallen (egal von welchem Hersteller). Aber wie viele Leute sind das schon?

Der groß teil der Leute holt sich OEM, zusammen gebautes Zeug von MM usw. Und die Leute sehen einfach nur! Hey ein neues Produkt! Das muss ja besser sein! So sieht leider die Realität aus! Es wird gekauft, weil der Hersteller sagt, ES IST NEU! Dabei ist es kalter Kaffee...

So schauts leider im wahren Leben aus!

StevenB
2010-02-23, 18:11:51
Wenn es darum geht:

Warum hat man dann den nagelneuen G92 als erste in die 8000er Reihe eingeführt und nicht direkt als 9000er?

gem. Wikipedia:

G92 am 27.10.07 vorgestellt, erste Karten der 9000er reihe wurden am März 2008 vorgestellt. Der G92 war für mich ein schnelles und guten Weihnachtsgeschäft (hatte selbst eine)


Edit: Ich kann mich nur wiederholen, momentan ist NVIDIA wie der Osten damals, "na wir hatten doch nüscht anderes". So kann man sich seinen ruf Kaputt machen. Ich bin nicht Parteiisch, aber ich setzte die Hardware ein die mir am besten passt, und da war ich bis jetzt in jedem Lager unterwegs, sei es Intel, AMD, ATI usw...

Gast
2010-02-23, 18:24:40
willst oder kannst du es nicht verstehen? Es gab und wird auch immer Leute geben die auf die Zahlenspiele reinfallen! Das wird sich nie ändern! Das gilt gerade für neue Produkte, wo man die Kunden verunsichern kann.

Eine 340GT hört sich doch deutlich besser an als eine 285GTX! 340GT klingt nach einen Nachfolger, wo der Typische MM Verkäufer dir dazu raten wird!

Diese Zahlenspielen haben schon zu 486er Zeiten angefangen, und sie gelten immer noch!

Vielleicht verstehst du JETZT auf was ich hinaus will.
Nein, ich versteh nicht was du mir erzählst.
200 ist weniger als 9000.
300 ist mehr als 200.

Einmal gibts beim schlechteren Namen mehr Leistung, das andere Mal gibts beim besseren Namen nicht mehr.

gem. Wikipedia:

G92 am 27.10.07 vorgestellt, erste Karten der 9000er reihe wurden am März 2008 vorgestellt. Der G92 war für mich ein schnelles und guten Weihnachtsgeschäft (hatte selbst eine)

8800GTS mit 50% mehr Leistung war ein sehr grober Fehler seitens Nvidia.
Siehs ein, man hätte sie am Besten gleich 9800/9700GTX/ genannt.
Nachträglich hat man es korrigiert, mit deshalb zu dem Zeitpunkt berechtigter Kritik.

Bucklew
2010-02-23, 18:29:23
Der groß teil der Leute holt sich OEM, zusammen gebautes Zeug von MM usw. Und die Leute sehen einfach nur! Hey ein neues Produkt! Das muss ja besser sein! So sieht leider die Realität aus! Es wird gekauft, weil der Hersteller sagt, ES IST NEU! Dabei ist es kalter Kaffee...
Ach so. Auf der einen Seite haben die Leute keine Ahnung, rennen aber gleichzeitig tagtäglich in den MM, um dann sofort die neuste Grafikkarte zu kaufen :rolleyes:

Diese Leute, die wirklich so wenig ahnung haben, kaufen wenns hoch kommt alle zwei Jahre einen PC, wenn überhaupt. Für die spielen solche Umbennungen gar keine Rolle, generationsübergreifend. Die gehen halt in den MM und dann kaufen sie einen PC mit Karte X und welche Karte X eben die beste ist, dafür sind die Namensschemata da. Und nicht dafür, um zu wissen wo man welche Karte in einem Gesamtranking über die letzten 10 Jahre einsortieren kann.

G92 am 27.10.07 vorgestellt, erste Karten der 9000er reihe wurden am März 2008 vorgestellt. Der G92 war für mich ein schnelles und guten Weihnachtsgeschäft (hatte selbst eine)
Erst recht ein Grund die Karte als 9000er zu veröffentlichen, wo es doch darum geht den Kunden einzubläuen, dass es da ein neues Produkt gibt?!

StevenB
2010-02-23, 18:41:59
Ach so. Auf der einen Seite haben die Leute keine Ahnung, rennen aber gleichzeitig tagtäglich in den MM, um dann sofort die neuste Grafikkarte zu kaufen :rolleyes:

Diese Leute, die wirklich so wenig ahnung haben, kaufen wenns hoch kommt alle zwei Jahre einen PC, wenn überhaupt. Für die spielen solche Umbennungen gar keine Rolle, generationsübergreifend. Die gehen halt in den MM und dann kaufen sie einen PC mit Karte X und welche Karte X eben die beste ist, dafür sind die Namensschemata da. Und nicht dafür, um zu wissen wo man welche Karte in einem Gesamtranking über die letzten 10 Jahre einsortieren kann.


Erst recht ein Grund die Karte als 9000er zu veröffentlichen, wo es doch darum geht den Kunden einzubläuen, dass es da ein neues Produkt gibt?!

Die 8800GT war ein Update, und man hat sie doch später in die 9000er reihe mit aufgenommen, was willst du denn? Zwischen dem G92 und der neuen 9000 reihe liegen rund 5 Monate.

Und die 8800GT hat sich doch prima Verkauft, pünktlich zu Weihnachten.

Nein es geht nicht darum ob die Leute alle 2 Wochen nach MM rennen und sich dort ein neues Produkt kaufen! Es geht um die Allgemeinheit, es geht darum das der Hersteller vorgibt es gibt ein neues Produkt!

Und es gibt genug Leute die dann denken, ihr altes ist nicht mehr gut genug. Ich kenne persönlich Leute die sich ihre Produkte nach NAMEN kaufen. Ihr dürft doch nicht immer von euch selbst ausgehen, ihr müsst von den Leuten ausgehen die mit 0 Basiswissen starten. Und das sind eine menge!

Und nicht jeder Verkäufer berät einen mit der Kompetenz die man sich wünscht.

Bucklew
2010-02-23, 18:47:38
Die 8800GT war ein Update, und man hat sie doch später in die 9000er reihe mit aufgenommen, was willst du denn? Zwischen dem G92 und der neuen 9000 reihe liegen rund 5 Monate.
Eben, es geht darum ein einheitliches Namensschema zu haben. Genau das ist der Punkt. Deshalb wurde ein G92 erst in die 8000er Reihe geworfen, anstatt ihn sofort 9000 zu nennen, weswegen ja der riesige Haufen MM-/Saturn-Lemminge (die hier ständig als Beispiel genommen werden) nicht direkt zu seinem MM/Saturn gelaufen ist und sich das Ding gekauft hat.

Deshalb wurde der G92 nachher ja auch in die GT200-Reihe integriert. Der Chip war preiswert herzustellen, ausreichend schnell und wie sollte der berüchtige Lemming, der ja alles kauft, sobald es ne neue Zahl hat, überblicken, was nun schneller ist: 9800GTX oder GTX285?

StevenB
2010-02-23, 18:47:46
Nein, ich versteh nicht was du mir erzählst.
200 ist weniger als 9000.
300 ist mehr als 200.

Einmal gibts beim schlechteren Namen mehr Leistung, das andere Mal gibts beim besseren Namen nicht mehr.


8800GTS mit 50% mehr Leistung war ein sehr grober Fehler seitens Nvidia.
Siehs ein, man hätte sie am Besten gleich 9800/9700GTX/ genannt.
Nachträglich hat man es korrigiert, mit deshalb zu dem Zeitpunkt berechtigter Kritik.


Jetzt denk mal bitte nicht durch die Blume. Wer redet denn Heute noch von einer 9000er? Wayne? Das Produkt ist so alte wie die Zeitung von gestern!

Und du hast es doch selbst erfasst: Einmal gibts beim schlechteren Namen mehr Leistung, das andere Mal gibts beim besseren Namen nicht mehr.

Die 200er Serie ist doch eine neue Serie! Es gibt 100% genug Leute die gedacht haben, das ihre GT240 deutlich schneller ist als eine 9000er, weil es ist doch eine neue Generation von Grafikkarte! Verstehst du es jetzt?

Die Leute die beim Marketing sitzen sind nicht dumm, denn es gibt immer wieder Personengruppen die darauf anspringen.

StevenB
2010-02-23, 18:51:11
Eben, es geht darum ein einheitliches Namensschema zu haben. Genau das ist der Punkt. Deshalb wurde ein G92 erst in die 8000er Reihe geworfen, anstatt ihn sofort 9000 zu nennen, weswegen ja der riesige Haufen MM-/Saturn-Lemminge (die hier ständig als Beispiel genommen werden) nicht direkt zu seinem MM/Saturn gelaufen ist und sich das Ding gekauft hat.

Deshalb wurde der G92 nachher ja auch in die GT200-Reihe integriert. Der Chip war preiswert herzustellen, ausreichend schnell und wie sollte der berüchtige Lemming, der ja alles kauft, sobald es ne neue Zahl hat, überblicken, was nun schneller ist: 9800GTX oder GTX285?

Siehe unten: Der sog des Marketing, mehr sage ich dazu nicht mehr. Alte Produkte als neue zu Verkaufen ist deren Handwerk, egal in welcher Branche. Und wie wir wissen, macht nicht der Highend Markt die meisten Verkäufe...

Also gibt es VIELE Leute die genau das glauben, und somit die Firma Umsatz / Gewinn bescheren.

Black-Scorpion
2010-02-23, 19:02:34
Eben, es geht darum ein einheitliches Namensschema zu haben.
Wenn sie so weitermachen schaffen sie das nie.
Mit jedem umbenennen wird es schwerer da wieder raus zu kommen.
Aber ist klar, die machen das nur um Ordnung in das Schema zu bekommen. ;)
Anscheinend aber in das Schema wie man die Leute am besten verarschen und abzocken kann.

Gast
2010-02-23, 19:16:04
Nvidia nennt offen was ihre OEM Karten können. AMD nicht.
Jetzt kann sich der AMD Jünger auf die Schulter klopfen, das seine Firma dem Dau nichtmal ermöglicht zu wissen, um was es sich handelt.

StevenB
2010-02-23, 19:49:28
Nvidia nennt offen was ihre OEM Karten können. AMD nicht.
Jetzt kann sich der AMD Jünger auf die Schulter klopfen, das seine Firma dem Dau nichtmal ermöglicht zu wissen, um was es sich handelt.

Jap, in der 9000er, 100er, 200er und 300er steckt der gleiche Chip drin... und es hört sich jedes mal nach einer *neuen* Karte an.

Nen bitte mal AMD Produkte die genau so verschleiert sind wie die NVIDIA Produkte (vielleicht gibt es wirklich welche). Denn wenn man Behauptungen aufstellt, sollte man sie auch belegen / benennen können.

Edit: Wir reden von Grafikkarten oder? Bzw. du benimmst dich hier gerade wie ein Fanboy! Das was NVIDIA da gerade macht ist der letzte Müll, und das sieht eigentlich sogar ein Blinder! So etwas gehört sich nicht, aber es wird wieder Geld in die Kassen spülen... getreu dem Motto Kauft ihr Schafe! :)

Edit2: Mir fällt da gerade etwas ein: Ein Zitat von Albert Einstein: Um ein tadelloses Mitglied einer Schafherde sein zu können, muß man vor allem ein Schaf sein. määäähhhh

Bucklew
2010-02-23, 20:25:13
Nen bitte mal AMD Produkte die genau so verschleiert sind wie die NVIDIA Produkte (vielleicht gibt es wirklich welche). Denn wenn man Behauptungen aufstellt, sollte man sie auch belegen / benennen können.
- Radeon X1050: Baugleich zur Vorgänger X550
- HD4200: Ursprünglich HD4370
- Mobility HD5145: Ursprünglich HD4570
- Mobility HD5165: Ursprünglich HD4670

Zu beiden letzteren findet man noch nichtmal etwas auf der AMD-Homepage, das nenn ich dann mal wirklich Verschleierung pur. Nvidia schreibts ja immerhin auf die Homepage, dass man es nachlesen kann.

Schlammsau
2010-02-23, 20:26:11
Nvidia schreibts ja immerhin auf die Homepage, dass man es nachlesen kann.

nVidia ist zu gütig. :uclap:

- Radeon X1050: Baugleich zur Vorgänger X550
- HD4200: Ursprünglich HD4370
- Mobility HD5145: Ursprünglich HD4570
- Mobility HD5165: Ursprünglich HD4670

Ich hätte gerne Links gesehen die deine Behauptungen untermauern.

Aber dalli, sonst verlierst du noch das letzte bisschen Respekt hier im Forum. :)

StevenB
2010-02-23, 20:34:06
- Radeon X1050: Baugleich zur Vorgänger X550
- HD4200: Ursprünglich HD4370
- Mobility HD5145: Ursprünglich HD4570
- Mobility HD5165: Ursprünglich HD4670

Zu beiden letzteren findet man noch nichtmal etwas auf der AMD-Homepage, das nenn ich dann mal wirklich Verschleierung pur. Nvidia schreibts ja immerhin auf die Homepage, dass man es nachlesen kann.


Ja und was ist das?

Der X550 zu X1050, ja das gibt es durchaus nix zum abstreiten!

Der HD 4200 ist ein IGP, und die anderen beiden sind Grafikkarten für den Mobilen Bereich, leider genau so verschleiert.

So und was hat NVIDIA gemacht? Geforce 8M und 9M ist auch der G92, und der G92b in der 200er reihe... nimmt sich IMHO beides nichts...

Bucklew
2010-02-23, 20:35:00
So und was hat NVIDIA gemacht? Geforce 8M und 9M ist auch der G92, und der G92b in der 200er reihe... nimmt sich IMHO beides nichts...
Bingo, Punkt erkannt! :up:

Jetzt müssten das nur noch die restlichen Fanboys hier erkennen, die ATI bis aufs Blut verteidigen, obwohl die nichts anderes machen.

StevenB
2010-02-23, 20:38:24
Bingo, Punkt erkannt! :up:

Jetzt müssten das nur noch die restlichen Fanboys hier erkennen, die ATI bis aufs Blut verteidigen, obwohl die nichts anderes machen.

Jetzt kann man aber wieder sagen, bei NVIDIA nimmt es überhand, denn es übergreift nicht nur 1 Generation, sondern jetzt bereits die 4.... Ich bin nicht Parteiisch, in keinem Fall, aber so etwas ist Kunden verarsche! Egal welche Seite es betreibt...

Grestorn
2010-02-23, 20:40:03
Jetzt kann man aber wieder sagen, bei NVIDIA nimmt es überhand, denn es übergreift nicht nur 1 Generation, sondern jetzt bereits die 4.... Ich bin nicht Parteiisch, in keinem Fall, aber so etwas ist Kunden verarsche! Egal welche Seite es betreibt...

Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.

Nakai
2010-02-23, 20:41:34
Die Intention des IHVs muss auch berücksichtigt werden. Bei ATI ist es wohl Resteverwertung. Bei NV Gewinnmaximierung durch Täuschung des unwissenden Kunden.
Aber wieso aufregen? Coda hats doch schön gesagt, wir werden nix dran ändern können, das müssen die Hardwareseiten.


mfg

€:Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.

Es zeigt einfach nur, wie gut der G80 wirklich war.

Bucklew
2010-02-23, 20:41:44
Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.
:lol::lol::lol:

Schlammsau
2010-02-23, 20:43:18
Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.

Nö eher peinlich, in 4 Generationen nur DX10 Hardware zu verbauen.
Aber trotzdem immer wieder erstaunlich, wie die damit durchkommen.

No.3
2010-02-23, 20:45:19
- HD4200: Ursprünglich HD4370

na und? eine bessere Karte wird hier schlechter gemacht und nicht umgekehrt. Auch wird hier nicht eine Generation n Karte zu einer Generation n+1 umgelabelt.

und bei den Mobiles, die Mobile-Graka-Lösungen sind eine andere Produktgruppe die direkt nicht miteinander zu vergleichen sind. Sicher, es wäre transparenter, wenn eine Desktop-Graka Generation n auch als Mobile Generation n und nicht Generation n+1 verkauft werden würde. Aber wie gesagt, Desktop und Mobiles sind unterschiedliche Produktgruppen die man nicht direkt miteinander vergleichen kann. Da muss man ganz genau in die Specs schauen wenn man vergleichen will.

Grestorn
2010-02-23, 20:45:19
Nö eher peinlich, in 4 Generationen nur DX10 Hardware zu verbauen.
Aber trotzdem immer wieder erstaunlich, wie die damit durchkommen.

Entschuldige, aber für Leute, die sich diese Karten kaufen, ist DX10.1 ein reines Checkmark-Feature, dass ihnen absolut null komma garnix bringt (und DX11 ist in dieser Liga gar nicht vertreten).

Schlammsau
2010-02-23, 20:48:24
Schon gelesen?
http://www.heise.de/newsticker/meldung/GeForce-GT-330-Nvidias-Verwirr-Karte-fuer-den-OEM-Markt-938483.html
Hat jetzt nicht unbedingt mit deinem Post zu tun aber trotzdem.

Findest du die umbenennerei und den ganzen anderen Mist wirklich ok? Sei ehrlich!

StevenB
2010-02-23, 20:49:06
Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.

Da gebe ich dir recht, der Chip ist gut! Na ja gut gewesen, irgendwann ist halt Schluss damit. Der Kaffee ist schon seit 2 Generationen kalt, sehr kalt sogar. Die Umbenennung der 8000 in die 9000 klasse war ja noch ok, aber was seit 2 "Generationen" da abgezogen wird ist einfach nur lächerlich.

Grestorn
2010-02-23, 20:51:13
Schon gelesen?
http://www.heise.de/newsticker/meldung/GeForce-GT-330-Nvidias-Verwirr-Karte-fuer-den-OEM-Markt-938483.html
Hat jetzt nicht unbedingt mit deinem Post zu tun aber trotzdem.

Dann ist der Chip ja gar nicht 4. Generation... Ein G92 konnte schließlich kein 10.1. Mit welcher Berechtigung wird eigentlich ständig behauptet, dass es der selbe Chip ist, nur weil sich relativ wenig ändert? Bei ATI ist das doch auch oft nicht anders.

Die Anpassung von GT200 auf GT300 ist doch im Prinzip nur die bereits bekannte konsequente Korrektur, allen 10.1 Chips die GT300 Kennung zu geben, seit dem die Entscheidung gefallen ist, den neuen 11er GF100 Chips die GT400 Bezeichnung zu geben.

Bucklew
2010-02-23, 20:52:25
na und? eine bessere Karte wird hier schlechter gemacht und nicht umgekehrt. Auch wird hier nicht eine Generation n Karte zu einer Generation n+1 umgelabelt.
War beim G92 auch so. Haben sich trotzdem alle aufgerechnet. Beim Rebranding zur GTS250 konnte man auch kaum von derselben Karte sprechen, wo ja außer dem zugrundliegenden Chip der Rest komplett neu entwickelt wurde.

und bei den Mobiles, die Mobile-Graka-Lösungen sind eine andere Produktgruppe die direkt nicht miteinander zu vergleichen sind. Sicher, es wäre transparenter, wenn eine Desktop-Graka Generation n auch als Mobile Generation n und nicht Generation n+1 verkauft werden würde. Aber wie gesagt, Desktop und Mobiles sind unterschiedliche Produktgruppen die man nicht direkt miteinander vergleichen kann. Da muss man ganz genau in die Specs schauen wenn man vergleichen will.
Tja, ist halt immer was anderes, wenn es ATI macht. Blöd ist nur, dass es von ATI nichtmal Specs gibt, mit denen man vergleichen könnte - da muss man auf exterene Quellen zurückgreifen. Und wer weiß ob die immer richtig liegen?

Schlammsau
2010-02-23, 20:53:18
Dann ist der Chip ja gar nicht 4. Generation... Ein G92 konnte schließlich kein 10.1.

Im Prinzip nur die bereits bekannte konsequente Korrektur, allen 10.1 Chips die GT300 Kennung zu geben, seit dem die Entscheidung gefallen ist, den neuen 11er GF100 Chips die GT400 Bezeichnung zu geben.


Heise gelesen?
Mit dieser Vielfalt an Möglichkeiten dürfte es den Kaliforniern gelingen, auch den letzten Kunden zu verwirren. Allein aus der Bezeichnung GeForce GT 330 lässt sich also nicht mehr präzise die Spieleleistung ablesen. Welche Chips verbaut sind, kommt laut Nvidia ganz auf das jeweilige Modell an. Höchstwahrscheinlich handelt es sich um den altbekannten G92(b) – schließlich unterstützt die GeForce GT 330 nach Aussagen von Nvidia Deutschland lediglich DirectX 10.0. Damit ist nun zumindest klar, dass Nvidia bei der GeForce-300-Serie im OEM-Markt nicht ausschließlich Grafikkarten anbieten wird, die mindestens DirectX 10.1 unterstützen.
Scheint so als würde die GT330, die schnellste der GT300 Serie, nichtmal .1 können! :freak:

Ganz grosses Kino! :uclap:

Nochmal, findest du das ok?

Grestorn
2010-02-23, 20:54:49
Heise gelesen?

Scheint so als wprde die GT300 nichtmal .1 können!

Ganz grosses Kino :uclap:

Der Absatz macht keinen Sinn. Zumal wenn im ersten Absatz steht: " Die Grafikkarte (TDP: 69 Watt) entspricht damit einer herkömmlichen GeForce GT 240 und unterstützt DirectX 10.1.". nVidia Hasser gibt's momentan überall, auch bei Heise. Ist schon fast wie eine Hexenjagd. Da wird wild spekuliert, so lange man nur irgendwie flamen kann.

Die Welt muss sich ja richtig in die Hosen scheißen vor Angst vor nVidia. Den Eindruck muss man zumindest bekommen. Sonst könnte es einen doch scheißegal sein, was die Firma so treibt.

AnarchX
2010-02-23, 20:56:23
Dann ist der Chip ja gar nicht 4. Generation... Ein G92 konnte schließlich kein 10.1. Mit welcher Berechtigung wird eigentlich ständig behauptet, dass es der selbe Chip ist, nur weil sich relativ wenig ändert? Bei ATI ist das doch auch oft nicht anders.

Die Anpassung von GT200 auf GT300 ist doch im Prinzip nur die bereits bekannte konsequente Korrektur, allen 10.1 Chips die GT300 Kennung zu geben, seit dem die Entscheidung gefallen ist, den neuen 11er GF100 Chips die GT400 Bezeichnung zu geben.
Mit der 112SPs und 256-Bit Spezifikation ist für die GT 330 definitiv auch ein D3D10 G92 vorgesehen.

Die GT 330 im ALDI-PC war z.B. mit G92 bestückt: http://www.pcwelt.de/start/computer/pc/tests/2108990/aldi-pc-medion-akoya-e4360-d-8338-februar-2010-im-test/index2.html

Grestorn
2010-02-23, 20:58:26
Die GT 330 im ALDI-PC war z.B. mit G92 bestückt: http://www.pcwelt.de/start/computer/pc/tests/2108990/aldi-pc-medion-akoya-e4360-d-8338-februar-2010-im-test/index2.html

War das nicht der OEM-Name, den sich der Anbieter selbst rausgesucht hat, wie so oft?

AnarchX
2010-02-23, 21:00:16
War das nicht der OEM-Name, den sich der Anbieter selbst rausgesucht hat, wie so oft?
Nein und wie schon gesagt gibt es bei Nvidia keine D3D10.1 GPU mit mehr als 96SPs/128-Bit.

aths
2010-02-23, 21:01:57
Die Welt muss sich ja richtig in die Hosen scheißen vor Angst vor nVidia. Den Eindruck muss man zumindest bekommen. Sonst könnte es einen doch scheißegal sein, was die Firma so treibt.Es kann nicht sein, dass man den Benennungsmurks den Nvidia seit geraumer Zeit abzieht, kommentarlos durchgehen lässt.

Im Gegenteil fände ich es nicht überzogen, wenn Leo in jeder News die aktuellen Gurken ("GTX 280 M" und Konsorten) erwähnt.

Einfach von "Nvidia-Hassern" zu reden ist absurd.

Der 330-er Name wird von Nvidia genehmigt sein. Wenn die 300-er Serie nicht für ein Techlevel steht, sondern 10.0 und 10.1 mischt, kann man sich die Zahlen auch ganz sparen. Ohnehin ein dicker Hund, dass die 300-er nicht für GF10x-GPUs genutzt wird.

Gast
2010-02-23, 21:06:56
Das ist doch eigentlich ein Lob. Ein Chip, der für 4 Generationen gut ist. Man könnte auch sagen, peinlich für AMD, dass sie 3x updaten müssen und nVidia immer noch konkurenzfähig mit dem selben alten Chip ist.

Wirklich genial. Wenn man glaubt peinlicher geht es nicht mehr, kommt von irgendwo ein Grestorn her. Das ist zwar nette NV-Werbung, rechtfertigt aber genau warum das man diese Chip in nicht weniger als vier(!) verschiedenen Namensschemen unterbringt!? Ich warte ja noch auf einen G92 als GT4xx.

Gast
2010-02-23, 21:11:29
Der Absatz macht keinen Sinn. Zumal wenn im ersten Absatz steht: " Die Grafikkarte (TDP: 69 Watt) entspricht damit einer herkömmlichen GeForce GT 240 und unterstützt DirectX 10.1.". nVidia Hasser gibt's momentan überall, auch bei Heise. Ist schon fast wie eine Hexenjagd. Da wird wild spekuliert, so lange man nur irgendwie flamen kann.

Die Welt muss sich ja richtig in die Hosen scheißen vor Angst vor nVidia. Den Eindruck muss man zumindest bekommen. Sonst könnte es einen doch scheißegal sein, was die Firma so treibt.

Na lol. Ich hätte von dir mehr Objektivität erwartet. Die größte Frechheit ist ohnehin die GeForce GT 330. Die Specs sind eine Frechheit, schau mal auf die NV-Seite. Man kann dort fast jeden Chip verbauen. Die Hersteller dürfen zwischen einem 128-Bit-, einem 192-Bit- oder einem 256-Bit-Speicherinterface wählen und zusätzlich zwischen DDR2- und DDR3-Speicher. Die Anzahl von SPs darf 96 oder 128 betragen. Die Taktraten sind auch sher variable. Die eine GT330 kann locker 100% oder mehr schneller sein als die andere. Und das willst du wirklich Verteidigen?

Gast
2010-02-23, 21:19:19
Na lol. Ich hätte von dir mehr Objektivität erwartet. Die größte Frechheit ist ohnehin die GeForce GT 330. Die Specs sind eine Frechheit, schau mal auf die NV-Seite. Man kann dort fast jeden Chip verbauen. Die Hersteller dürfen zwischen einem 128-Bit-, einem 192-Bit- oder einem 256-Bit-Speicherinterface wählen und zusätzlich zwischen DDR2- und DDR3-Speicher. Die Anzahl von SPs darf 96 oder 128 betragen. Die Taktraten sind auch sher variable. Die eine GT330 kann locker 100% oder mehr schneller sein als die andere. Und das willst du wirklich Verteidigen?

Nicht zu vergessen sowohl Dx10.0 als auch 10.1.

Gast
2010-02-23, 22:16:47
Im Gegenteil fände ich es nicht überzogen, wenn Leo in jeder News die aktuellen Gurken ("GTX 280 M" und Konsorten) erwähnt.

und bei den Mobiles, die Mobile-Graka-Lösungen sind eine andere Produktgruppe die direkt nicht miteinander zu vergleichen sind. Sicher, es wäre transparenter, wenn eine Desktop-Graka Generation n auch als Mobile Generation n und nicht Generation n+1 verkauft werden würde. Aber wie gesagt, Desktop und Mobiles sind unterschiedliche Produktgruppen die man nicht direkt miteinander vergleichen kann. Da muss man ganz genau in die Specs schauen wenn man vergleichen will.
Wie jetzt, Mobile und Desktop soll man nicht vergleichen, es sei den es handelt sich um Nvidia?

Na lol. Ich hätte von dir mehr Objektivität erwartet. Die größte Frechheit ist ohnehin die GeForce GT 330. Die Specs sind eine Frechheit, schau mal auf die NV-Seite. Man kann dort fast jeden Chip verbauen. Die Hersteller dürfen zwischen einem 128-Bit-, einem 192-Bit- oder einem 256-Bit-Speicherinterface wählen und zusätzlich zwischen DDR2- und DDR3-Speicher. Die Anzahl von SPs darf 96 oder 128 betragen. Die Taktraten sind auch sher variable. Die eine GT330 kann locker 100% oder mehr schneller sein als die andere. Und das willst du wirklich Verteidigen?
OEM sagt dir was?
Specs hin oder her, was wirklich verbaut ist, ist eh nicht fest.

Kennst du die GT 240? Selbst da gibts gewaltige Unterschiede. Und da noch nicht genug, halten sich die Hersteller nichtmal an die Unterschiede.
Ein Sonderfall? Nö, leider nicht, in der Klasse Normalität. Ich erinner mich in dem Zusammenhang schnell an die 8800 GT. Wie war das doch gleich mit Point of View, haben eine extrem verkrüppelte 8800 GS als 8800 GT verkauft.
Das war kein Sonderfall, sowas kommt nur selten derart groß ans Licht. Interessiert nunmal keinen, bzw keiner weiss davon.

No.3
2010-02-23, 22:50:45
Wie jetzt, Mobile und Desktop soll man nicht vergleichen, es sei den es handelt sich um Nvidia?

ich weiss ja nicht wo Du so was alles liest, aber in dem Thread hier gehts eigentlich darum, wie Desktop Grafik-Chips von Desktop-Grafikkarten-Generation zu Desktop-Grafikkarten-Generation und das scheint von nVidia im weit grösserem Masse betrieben zu werden wie von ATI.

Wie es bei Notebook-Grafik aussieht weiss ich nicht, darum gehts in diesem Thread eigentlich ja auch gar nicht.

Botcruscher
2010-02-23, 23:03:52
Wer ist eigentlich auf bei bescheuerte Idee von kryptischen Namen mit Zahlenschema gekommen? Da wird alles einfacher und übersichtlicher? Was NV (und zum Teil auch ATI mit den 51XX) abziehen ist zwar dreist aber den Vogel schießt im Moment imo Intel ab. Ohne Studium von mehreren Tabellen geht ja inzwischen gar nichts mehr.

Gast
2010-02-24, 00:28:30
Hach war die Welt früher doch noch einfach:
Voodoo 1, Voodoo 2, Voodoo 3, Voodoo 4, Voodoo 5
:D

Es ist wahr, Zahlenspiele gibt es seit einiger Zeit schon bei allen Beteiligten, sei es jetzt Intel, NVidia oder AMD/ATI. Nur NVidia treibt es echt auf die Spitze, ich verstehe nicht wie man das mit verdrehten Argumenten noch verteidigen kann.

Armaq
2010-02-24, 07:17:19
Diese Umbenennerei sorgt nur für Verwirrung. Ich habe einem Freund geraten seine 9800GTX+ beim Händler tauschen zu lassen. Erst hieß es er bekommt eine 9600GT dafür, was natürlich totaler Humbug ist. Am Ende hat er ihm mit größter Großzügigkeit eine 250 dafür gegeben und mein Kumpel war auch noch total dankbar, was das für ein toller Laden ist.

Für den Endverbraucher steht hinter einem Namen auch etwas anderes. Das nutzt Nvidia wirklich schamlos aus.

Grestorn
2010-02-24, 07:23:24
Es kann nicht sein, dass man den Benennungsmurks den Nvidia seit geraumer Zeit abzieht, kommentarlos durchgehen lässt.

Im Gegenteil fände ich es nicht überzogen, wenn Leo in jeder News die aktuellen Gurken ("GTX 280 M" und Konsorten) erwähnt.

Einfach von "Nvidia-Hassern" zu reden ist absurd.

Mein "nVidia-Hasser" bezog sich auch nicht nur auf die sicher zum Teil berechtigte Kritik der Namensgebung (die ich aber übertrieben finde, denn das ist ganz normales Marketing wie es immer und überall üblich ist. Creative ist nur ein Beispiel).

Ich denke da eher daran, was in den Foren der Welt zur Zeit los ist. Alle Welt lädt Häme über nVidia ab. Und das mit einer Gewalt und Aggressivität, die seinesgleichen sucht. Mir persönlich kann das ziemlich egal sein, ich muss mich nur fragen, was denn los ist, dass die Leute eine derartige Energie aufbringen und sich gegenseitig so hochschaukeln.

Interessantes psychologisches Phänomen in meinen Augen.

Aquaschaf
2010-02-24, 08:59:51
Ich denke da eher daran, was in den Foren der Welt zur Zeit los ist. Alle Welt lädt Häme über nVidia ab. Und das mit einer Gewalt und Aggressivität, die seinesgleichen sucht.

Zumindest hier geht es doch locker flockig in beide Richtungen. Einzeln gezählt habe ich keine Troll-Postings, aber einen deutlichen Ausschlag für einen der IHVs kann ich nicht erkennen.

Schlammsau
2010-02-24, 09:30:16
@Grestorn

Ich finds schade von dir, dass du nicht einmal auf dieses Namensgewirr eingegangen bist.
Deine Aussage von der .1 reinen GT300 Serie, wurde jetzt ja deutlich widerlegt und trotzdem kommt keine einzige Kritik deinerseits. Jede Redakteur, jede Website kritisiert das aber du sagst dazu .... nichts! Hast du Angst nVidia könnte dir sauer sein, wenn du es wagst deinen Stimme zu erheben? Die GT300 Serie ist eine Schweinerei ohne gleichen, und du windest dich wie ein Aal aus der Sache, indem du nicht drauf eingehst.

Sag deine Meinung!

Auszug aus der 3DC Main:
Auf der nVidia-Produktwebseite sind nun weitere Desktop-Vertreter der GeForce 300 Grafikkarten-Serie aufgetaucht: GeForce GT 320, 330 & 340. Die Karten sind allerdings nur im OEM-Geschäft erhältlich – und da nVidia dies bei den bislang schon erhältlichen GeForce 300 Karten so durchgehalten hat, wird dies wohl auch so sein. Was ein großes Glück für nVidia ist, denn somit bleibt der Wirbel um diese Karten weitgehend nur theoretisch – nicht auszudenken, wenn dieser Chip- und Spezifikationsmischmasch im Retail-Segment auftauchen würde. Ein relativ einfacher Vertreter ist da noch die GeForce GT 320, die auf dem GT215-Chip mit nur 72 Shader-Einheiten basiert – eine Karte etwas kleiner als die GeForce GT 240 also. Ein direkter Wiedergänger der GeForce GT 240 ist dann die GeForce GT 340 auf Basis des GT215-Chips – exakt dieselben Hardware-Daten und Taktfrequenzen, eine direkte Umbenennung.

Die GeForce GT 330 schlägt dann aber total aus der Reihe: Diese Karte basiert auf dem altehrwürdigen G92b-Chip und bietet damit abweichend von allen anderen GeForce 300 Modellen nur DirectX 10.0. Hinzu kommen vollkommen variable Spezifikationen, wie man es lange nicht mehr in diesem Geschäft gesehen hat: Die Anzahl der Shader-Einheiten kann zwischen 96 und 112 schwanken, die Taktraten zwischen 500 bis 550 MHz Chiptakt und 1250 bis 1340 MHz Shadertakt. Das Speicherinterface kann zudem sowohl 128 Bit, 192 Bit oder 256 Bit breit sein und entweder mit 500 MHz schnellem (langsamen) DDR2-Speicher oder 800 MHz schnellem DDR3-Speicher ausgerüstet sein. In der kleinsten Ausführung hat man ergo eine Karte, welche aufgrund ihres niedrigen Speichertakts die GeForce GT 240 DDR3 noch klar unterbietet – in der größten Ausführung eine Karte, welche etwas schneller als die GeForce GT 240 DDR3 sein sollte.

Armaq
2010-02-24, 09:33:03
Zumindest hier geht es doch locker flockig in beide Richtungen. Einzeln gezählt habe ich keine Troll-Postings, aber einen deutlichen Ausschlag für einen der IHVs kann ich nicht erkennen.
Agreed.


Nvidia ist halt im Zugzwang. Daher kommt wohl die massive Kritik und die hat man sich z.T. selbst zu zuschreiben. Ansonsten gibt es nunmal das Phänomen der Schafherde. ;)

Bucklew
2010-02-24, 10:27:18
Diese Umbenennerei sorgt nur für Verwirrung. Ich habe einem Freund geraten seine 9800GTX+ beim Händler tauschen zu lassen. Erst hieß es er bekommt eine 9600GT dafür, was natürlich totaler Humbug ist. Am Ende hat er ihm mit größter Großzügigkeit eine 250 dafür gegeben und mein Kumpel war auch noch total dankbar, was das für ein toller Laden ist.
Die 9800GTX+ und die GTS250 haben bis auf die gleiche Chipbasis eigentlich nichts gemeinsam.

Ich denke da eher daran, was in den Foren der Welt zur Zeit los ist. Alle Welt lädt Häme über nVidia ab. Und das mit einer Gewalt und Aggressivität, die seinesgleichen sucht. Mir persönlich kann das ziemlich egal sein, ich muss mich nur fragen, was denn los ist, dass die Leute eine derartige Energie aufbringen und sich gegenseitig so hochschaukeln.
Wie sagt man doch so schön? Mitleid kriegt man geschenkt, Neid muss man sich erarbeiten ;)

Die GT300 Serie ist eine Schweinerei ohne gleichen, und du windest dich wie ein Aal aus der Sache, indem du nicht drauf eingehst.
Wenn du das sagst, dann musst du auch die Umbennungen von ATI im Mobilitybereich seit 2 Generationen als Schweinerei bezeichnen, komisch, die verteidigst du aber:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7861633&postcount=54
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7861970&postcount=63

Da stellt sich schon die Vermutung ein, dass es nicht um das WAS geht, sondern um das WER.

StevenB
2010-02-24, 10:31:25
Die 9800GTX+ und die GTS250 haben bis auf die gleiche Chipbasis eigentlich nichts gemeinsam.


Wie sagt man doch so schön? Mitleid kriegt man geschenkt, Neid muss man sich erarbeiten ;)


Wenn du das sagst, dann musst du auch die Umbennungen von ATI im Mobilitybereich seit 2 Generationen als Schweinerei bezeichnen, komisch, die verteidigst du aber:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7861633&postcount=54
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7861970&postcount=63

Da stellt sich schon die Vermutung ein, dass es nicht um das WAS geht, sondern um das WER.

Sorry aber im Mobility bereich zieht NVIDIA genau die gleiche Show ab, und das sogar noch 1 Generation mehr...

Warum sagst DU dazu nichts?

Edit: Fehlt eigentlich nur noch das Nvidia auch einen Mobilien 300er Chip anbietet der auf dem G92 basiert, dann hat man es wenigstens einheitlich... ;)

Grestorn
2010-02-24, 10:50:25
@Grestorn

Ich finds schade von dir, dass du nicht einmal auf dieses Namensgewirr eingegangen bist.
Deine Aussage von der .1 reinen GT300 Serie, wurde jetzt ja deutlich widerlegt und trotzdem kommt keine einzige Kritik deinerseits. Jede Redakteur, jede Website kritisiert das aber du sagst dazu .... nichts!Ich habe ja geschrieben, dass das durchaus kritikwürdig ist, in meinen Augen aber etwas überbewertet wird. Schlimmer finde ich, dass man bei der GT330 wohl einfach nicht weiß, was man bekommt, sprich innerhalb des einen Prdouktnamens ist die Varianz zu groß. Eigentlich sollte ein Produktname = feste Spezifikationen sein. Das dies nicht so ist, ist echt ätzend, aber leider auch kein Einzelfall in der Branche.

Aber ich sehe es auch nicht als meinen Job irgendwen zu kritisieren. Dein Beitrag liest sich, als würdest Du speziell von mir erwarten, dass ich laute Kritik übe. Ich bin doch kein Journalist, sondern nur ein kleiner Tool-Entwickler ... :)

Armaq
2010-02-24, 11:17:27
Die 9800GTX+ und die GTS250 haben bis auf die gleiche Chipbasis eigentlich nichts gemeinsam.


Willst du mich jetzt verscheißern? Die Karten sind, wenn man die 1 GB Versionen extra betrachtet, absolut gleich in Lautstärke und Performance. Da konnte man bei der 9800GTX+ auch nicht viel falsch machen, denn die war einfach ok.

Bucklew
2010-02-24, 12:31:27
Sorry aber im Mobility bereich zieht NVIDIA genau die gleiche Show ab, und das sogar noch 1 Generation mehr...

Warum sagst DU dazu nichts?
Weil es mir grundsätzlich egal ist, meinetwegen können sie umbennen wie sie wollen - aber BEIDE hersteller. Ich kritisiere nur die Leute, die hier auf HErsteller A rumhacken wie sie nur können und gleichzeitig Hersteller B bis aufs Blut verteiden - obwohl beide das gleiche tun.

Willst du mich jetzt verscheißern? Die Karten sind, wenn man die 1 GB Versionen extra betrachtet, absolut gleich in Lautstärke und Performance. Da konnte man bei der 9800GTX+ auch nicht viel falsch machen, denn die war einfach ok.
Nö, die GTS250 hat ein komplett neues PCB. Stromsparmechanismen, nur noch 1x6 pin etc.

Byteschlumpf
2010-03-04, 23:41:59
Hätte die DDR einst "re-branding" für den "Trabant 601" eingeführt, hätte dieser wohl sicher den Namen "Mercedes SEC 600" erhalten! ^^
http://www.heise.de/newsticker/foren/S-Eine-Runde-Mitleid-fuer-nieWiedia/forum-175577/msg-18189888/read/

Ailuros
2010-03-10, 08:44:23
NV's Reaktionszeit ist typisch lang wenn es zu Kleinigkeiten kommt, aber mein e-mail zu ihrem PR hat wohl geholfen dass 10.1 Zeug zu entfernen:

Microsoft® DirectX® 10 Support
DirectX 10 GPU with Shader Model 4.0 support.

http://www.nvidia.com/object/product_geforce_gt_330_us.html

(unter "features").