PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Wer findet die Vorgehensweise ...


Schlammsau
2008-05-26, 17:30:15
....nVidia´s, "alte" Karten ohne jegliche technische Veränderung (Ausnahme das hinzufügen von Hybrid SLi), einfach umzulabeln und als neue Serie zu verkaufen legitim? Seit ihr damit einverstanden? Oder empfindet ihr das als nicht richtig?

[edit] auf Wunsch......ATi hat das vor ein paar Jahren auch mal gemacht! Finde ich auch nicht ok! Weiss aber nicht genau mit welchen Karten, weil ich zu dieser Zeit noch eine nVidia Karte hatte.

Gast
2008-05-26, 17:44:41
Ich persönlich finde die Vorgehensweise, über so etwas "weltbewegendes" eine Umfrage zu erstellen, ziemlich grenzwertig.
Raider heisst jetzt Twix....na und?

Sonyfreak
2008-05-26, 17:45:13
[x] Ist mir Hemd wie Hose, da ich mich gut genug auskenne.

Nur so als gut gemeinte Anregung: Es wäre mal fein, wenn du die Antworten deiner Umfragen etwas neutraler formulieren würdest. Darauf hab ich dich jetzt schon bei mehreren Umfragen hingewiesen. ;)

mfg.

Sonyfreak

LovesuckZ
2008-05-26, 17:46:03
Hm, ich werd dann mal den Fanboy rauslassen:
[x]ja, vollkommen ok!

mapel110
2008-05-26, 17:47:14
[x]ja, vollkommen ok!
Dito, man forsche mal nach, was ATI mit dem RV250 abgezogen hat...

Gast
2008-05-26, 17:47:51
Was sollen diese dämlichen Umfragen ständig ?

LovesuckZ
2008-05-26, 17:49:01
Dito, man forsche mal nach, was ATI mit dem RV250 abgezogen hat...

So wollte ich das nicht ausdrücken. :(
Es trifft jetzt mal eine beliebte Karte - daher wohl der Aufschrei. Aber weder die neue 9500GT noch die 3650 rechtfertigen den neuen Namen. Aber hier scheint sich wohl niemand für zu interessieren.

Nakai
2008-05-26, 17:51:38
Ich finde es schlecht - auf beiden Seiten natürlich...:frown:


mfg Nakai

Unyu
2008-05-26, 17:53:29
[x] Vollkommen ok!

Aber warum nennst du nur nvidia im Startpost? Willst du wohl gezielt provozieren?

Anarchy-HWLUXX
2008-05-26, 17:54:37
Hm, ich werd dann mal den Fanboy rauslassen:
[x]ja, vollkommen ok!
Ich mach mit :D

agamemmnon
2008-05-26, 17:55:02
....nVidia´s, "alte" Karten ohne jegliche technische Veränderung (Ausnahme das hinzufügen von Hybrid SLi), einfach umzulabeln und als neue Serie zu verkaufen legitim? Seit ihr damit einverstanden? Oder empfindet ihr das als nicht richtig?

Hi

Nö wieso ?! Das ist doch das gleiche in allen Segmenten wo einem alt für neu verkauft wird. Ich selber habe vor einigen Tagen von ATI auf Nvidia gewechselt. Ich habe meine 1950xtx eingemottet und gegen 2 9800 GTX plus Board getauscht, da schert es mich doch wenig ob das ein remake der 8800 GTX ist oder nicht. Für mich zählt die Leistung der GPUs' und nicht die Marketingstrategie von Nvidia. Wenn man allerdings stets die neueste Karte haben muss die auf den Markt kommt (was übrigens kein Sch***n braucht) sieht es schon anders aus. Ich kann nur sagen ich bin von den neuen 8800GTX/9800GTX begeistert, gegen die sind meine alten ATIs' richtige Schnarchnasen. :tongue:

Schlammsau
2008-05-26, 17:56:24
[x] Vollkommen ok!

Aber warum nennst du nur nvidia im Startpost? Willst du wohl gezielt provozieren?

natürlich ;)
lies dir den ersten Post bitte nochmal durch!

Botcruscher
2008-05-26, 17:58:25
[x] Dauverarsche

Nicht jeder hat ständig alle Karten und Chips im Kopf. Ständig neue Namen alter Hardware sind schon Grenzwertig. Dazu die Verarsche hier und da mal wieder was freizuschalten.

Schlammsau
2008-05-26, 18:02:13
[x] Ist mir Hemd wie Hose, da ich mich gut genug auskenne.

Nur so als gut gemeinte Anregung: Es wäre mal fein, wenn du die Antworten deiner Umfragen etwas neutraler formulieren würdest. Darauf hab ich dich jetzt schon bei mehreren Umfragen hingewiesen. ;)

mfg.

Sonyfreak

stimmt, ich hätte noch etwas hinzufügen können....
[x] ja, ich finds geil was die da machen! Von mir aus können die eine GF FX zu einer GF 10 machen! :P

Ich find die zur Auswahl stehenden Punkte eigentlich schon sehr passend!

agamemmnon
2008-05-26, 18:11:58
Wieso regt ihr euch eigentlichüber diesen Mist so auf ?

Fakt ist, egal was Nvidia macht es ist immer noch besser als jeden Monat einen neuen ATI/AMD Treiber zu installieren der "wieder" nicht korrekt arbeitet. Bei Nvidia stimmt wenigstens die Leistung der GPUs' was man seit längeren von AMD nicht behaupten kann.

Sonyfreak
2008-05-26, 18:19:52
stimmt, ich hätte noch etwas hinzufügen können....
[x] ja, ich finds geil was die da machen! Von mir aus können die eine GF FX zu einer GF 10 machen! :P

Ich find die zur Auswahl stehenden Punkte eigentlich schon sehr passend!Wenn du der Ansicht bist, dass du so eine objektive Umfrage gestaltest, dann lass dich bitte von mir nicht aufhalten. ;)

mfg.

Sonyfreak

Gast
2008-05-26, 18:21:50
Wieso regt ihr euch eigentlichüber diesen Mist so auf ?

Fakt ist, egal was Nvidia macht es ist immer noch besser als jeden Monat einen neuen ATI/AMD Treiber zu installieren der "wieder" nicht korrekt arbeitet. Bei Nvidia stimmt wenigstens die Leistung der GPUs' was man seit längeren von AMD nicht behaupten kann.

du weisst ganz genau, dass es umgekehrt ist!
fast jeden Tag ein neuer BETA Treiber der immer nur einen winzigen Teil aller Problemchen löst! nvidia kommt mir nicht mehr ins Haus!

Winter[Raven]
2008-05-26, 18:26:06
Also langsam reicht es Schlammsau, wenn du TROLLEN willst, dann steht dir Rage3d zur Verfügung, aber verschone uns mit weiteren Umfragen, Behauptungen und Theorien...

Schlammsau
2008-05-26, 18:27:57
Passt euch meine Umfrage nicht?
Dann müsst ihr hier auch nichts posten!

Gast
2008-05-26, 18:27:58
mir sind die nahmen scheißegal, ich kaufe nach leistungsdaten, von mir aus könnten sie die karte auch supermegaspyderbatman nennen.

ebensowenig wie mich die modellnummern bei cpus interessieren, ich wusste noch nie welche nummer zu welcher cpu gehört.

Gast
2008-05-26, 18:30:06
;6532074']Also langsam reicht es Schlammsau, wenn du TROLLEN willst, dann steht dir Rage3d zur Verfügung, aber verschone uns mit weiteren Umfragen, Behauptungen und Theorien...

Unterschreib

Daredevil
2008-05-26, 18:30:15
[x] nein, der Dr****laden verarscht uns nach Strich und Faden

Aber das hat ATI genauso früher gemacht... klar isses verarsche, aber ich denke nicht das die die "neuen" Karten jetzt für 50€ mehr anbieten werden, der Unterschied wird nicht so immens groß sein. ( Könnt ich mir vorstellen )
Ausserdem is das Marketing... leider.

Aber bei den neuen Nvidia Kartenbezeichnungen kam eh ein "Normalo" durcheinander
8800gt/gts640/gts512/gtx/gts320/ultra/gs und jetzt noch die 9xxxer Serie die sich garnicht mal so groß unterscheidet ( außer natürlich das neue Ding da )
und so weiter und so Fort >_<
Viel zuviele Karten...wie soll man da mitkommen?
Selbst Reviews sprechen keine eindeutige Sprache mehr weil die eine für höhere Auflösungen schneller ist... die andere mehr Rohleistung hat, in niedrigen Auflösungen rockt aber bei großen schwächelt... usw. usf.

Gut... bei Ati hat man nicht so die Auswahl aber immerhin weiß man was schneller ist... ( Früher gabs da ja Probleme mit der 8500 und 9200 ( 9100 ? ^^ ) ... das hat genervt )
3650 > 3850 > 3870 > 3870x2
Allerdings gibts da ja auchnoch 256, 512 und 1024er Ram Bestückung... ( naja nicht überall ).
Aber man kann vom Namen her ableiten welche schneller ist, das find ich gut.
( Ja ich hab ne ATI und ich bin ein Ati Fan, aber ich seh das denke ich ganz Neutral )

Schlammsau
2008-05-26, 18:34:16
Und kommt mir bitte nicht mit sachlicher Diskussion.....bei mehr als der Hälfte hier, spielen Symphatien eine wesentlich grössere Rolle als fachliche Details!
Was ich an und für sich, gar nicht mal so schlecht finde.....eine emotionsgeladene Diskusion hat doch was! :smile:


passend zur Umfrage:
3DC Main:
Wie die ComputerBase berichtet, soll die schon des längeren aus diversen Roadmaps bekannte GeForce 9800 GT nunmehr in den Markt gelangen. Bisher konnte man über die technischen Spezifikationen dieser Karte nur mußmaßen, wir für unseren Teil vermuteten bislang eine der GeForce 8800 GT ähnliche Karte mit einfach ein paar höheren Taktraten, welche dann die GeForce 8800 GT im nVidia-Portfolio ersetzen soll. Allerdings scheint nVidia es sich deutlich einfacher gemacht zu haben, nach der Meldung der ComputerBase ist die GeForce 9800 GT schlicht eine umbenannte GeForce 8800 GT - wie schon die GeForce 9600 GSO ein Wiedergänger der GeForce 8800 GS ist.

Es gibt allerdings doch einen gewissen Unterschied: So schaltet nVidia Triple-SLI nur für GeForce9-Grafikkarten frei - die GeForce 9800 GT wird dies also können, die GeForce 8800 GT kann es (derzeit) nicht. Allerdings handelt es sich hierbei natürlich um einen künstlichen Unterschied ohne eine echte Begründung durch die verbaute Technik (welche ja identisch ist). Abzuwarten dürfte natürlich sein, wie der Markt diese "neue" Karte aufnimmt - was bei der wenig populären GeForce 8800GS/9600GSO noch einfach so durchging, könnte bei der GeForce 8800GT/9800GT durchaus für einige Aufregung sorgen und wenigstens die Konkurrenz dürfte dies wohl genüßlich ausschlachten.

Unserer Meinung nach tut sich nVidia mit dieser Lösung keinen Gefallen: Bei einer nur geringfügigen höheren Taktrate zugunsten der GeForce 9800 GT wären jegliche Widerworte sofort obsolet, zudem könnte man dafür dann auch einen gewissen höheren Preis verlangen, was bei der GeForce 9800 GT mit den gleichen Taktraten wie bei der GeForce 8800 GT kaum möglich sein wird. Der reine Ersatz der GeForce 8800 GT durch eine gleiche Karte anderen Namens kommt jedenfalls nicht gut an, daß zeigen auch schon die ersten Kommentare in unserem Forum. PS: Sofern nVidia die GeForce 9800 GT nicht höherpreisig ansetzt als die GeForce 8800 GT, sollte die GeForce 8800 GTS eher denn im Markt verbleiben, da ansonsten die preisliche Lücke zur GeForce 9800 GTX zu groß werden würde.

HarryHirsch
2008-05-26, 18:39:41
[x] interessiert mich nicht!

Die gelbe Eule
2008-05-26, 18:42:27
[x] ja, vollkommen ok!

Weil:
Ich bin vorab darüber informiert, die Karte habe ich bereits als 8800GT gehabt, Hybrid SLi bringt mir als Intel User nichts, ATi macht es schon seit Jahren und es ist auch bei Nvidia nichts neues, siehe GF2 GTS Derivate bis hin zur 4000.

Wer übrigens meint das eine höhere Zahl zwingend höhere Leistung suggerieren muss, der ist etwas verblendet was Marketing angeht.

Schlammsau
2008-05-26, 18:45:57
Wer übrigens meint das eine höhere Zahl zwingend höhere Leistung suggerieren muss, der ist etwas verblendet was Marketing angeht.

unsere BILD Zeitungs und Volks PC Käufer sind nunmal sehr Marketing verblendet!
Es gibt sogar Leute die meinen nur weil ein nV Logo am Anfang eines Spiels über den Bildschirm huscht, funktionieren die Games auf anderer Hardware gar nicht!
Denkt mal weiter, nicht nur an euch selber! ;)

Der Golf ist meistgekaufteste Auto Deutschlands seiner Klasse, ist er dadurch auch das beste Auto in seiner Klasse?

Unyu
2008-05-26, 18:48:57
unsere BILD Zeitungs und Volks PC Käufer sind nunmal sehr Marketing verblendet!
Die kaufen Komplett PCs und sind demnach noch viel mehr verrarscht, aus allen Richtungen. ;)
(und nicht nur durch eine gleichteure Karte mit einem 1000er mehr im Namen)

agamemmnon
2008-05-26, 18:49:00
du weisst ganz genau, dass es umgekehrt ist!
fast jeden Tag ein neuer BETA Treiber der immer nur einen winzigen Teil aller Problemchen löst! nvidia kommt mir nicht mehr ins Haus!

Ich weiss gar nichts, will ich auch nicht. Mich interessiert nur die Performance in Spielen und da hat Nvidia die Nase vorn (siehe PCGH 05/2008)

Bei mir ist es umgekehrt !

Mir kommt keine ATI mehr ins Haus. :biggrin:

Die gelbe Eule
2008-05-26, 18:54:56
unsere BILD Zeitungs und Volks PC Käufer sind nunmal sehr Marketing verblendet!
Es gibt sogar Leute die meinen nur weil ein nV Logo am Anfang eines Spiels über den Bildschirm huscht, funktionieren die Games auf anderer Hardware gar nicht!
Denkt mal weiter, nicht nur an euch selber! ;)

Der Golf ist meistgekaufteste Auto Deutschlands seiner Klasse, ist er dadurch auch das beste Auto in seiner Klasse?

Die haben aber keine 8800GT im Rechner, ich glaube das schnellste ist zur Zeit eine 9500GT irgendwas. Wenn andere zu blöd sind sich zu informieren, stehe ich in keiner Schuld diese aufzuklären. Der Golf 5 verkauft sich gar nicht so gut, eben weil es nach Facelift vom 4er aussieht. Da hat der Kunde eben aufgepasst, obwohl es ein Volkswagen ist.

Gekauft wird die 9800GT trotzdem, wenn sie 140€ kostet, weil das der normale Preis für eine 8800GT ist. Noch heute finden sich FX5500 PCI-E bei Berlet oder Saturn im Regal, nach Jahren kauft das Ding trotzdem niemand für 60€ ;)

Gast
2008-05-26, 18:56:43
unsere BILD Zeitungs und Volks PC Käufer sind nunmal sehr Marketing verblendet!


wer sich nicht ausreichend informiert und noch zusätzlich bild liest hat auch nichts anderes verdient und kauft erst recht keine karte dieser klasse, egal ob sie nun 8800 oder 9800 heißt.

Gast
2008-05-26, 18:59:38
passend zur Umfrage:

Es gibt allerdings doch einen gewissen Unterschied: So schaltet nVidia Triple-SLI nur für GeForce9-Grafikkarten frei - die GeForce 9800 GT wird dies also können, die GeForce 8800 GT kann es (derzeit) nicht. Allerdings handelt es sich hierbei natürlich um einen künstlichen Unterschied ohne eine echte Begründung durch die verbaute Technik (welche ja identisch ist).


was auch nicht stimmt, sollte die 9800 mit Tri-SLI-unterstützung kommen, dann sicher mit 2 SLI-steckplätzen, die 8800GT hat nur einen.

zusätzlich könnte man noch einen unterschied schaffen indem man die 9800er version in der standardausführung mit 1024MB ausstattet.

Gast
2008-05-26, 19:13:35
Hier mal die neue URL www.forum-ATIcenter.org

Sinnloses gebashe von so Spinner³.

Einfach lachhaft was aus dem forum hier geworden is.

Black-Scorpion
2008-05-26, 19:17:26
Hier mal die neue URL www.forum-ATIcenter.org

Sinnloses gebashe von so Spinner³.

Einfach lachhaft was aus dem forum hier geworden is.
Log dich wenigstens ein und habe auch den Arsch in der Hose hier offen User zu beleidigen.
Als gast ist es keine Kunst. Und was aus dem Forum wird oder geworden ist kann dir reichlich egal sein.

(del)
2008-05-26, 19:19:47
Raider heisst jetzt Twix....na und?Ja ist der Preis denn geblieben? =)

Gast
2008-05-26, 19:24:11
Ja ist der Preis denn geblieben? =)

ja und, der preis der 9800GT wird auch gleich bleiben (bzw. die reste der 8800 werden billig verscherbelt und die 9800GT wird den jetzigen preis übernehmen).

ein paar werden also ein extrem billiges schnäppchen bekommen, stört das jemanden?

Gast
2008-05-26, 19:28:24
Log dich wenigstens ein und habe auch den Arsch in der Hose hier offen User zu beleidigen.
Als gast ist es keine Kunst. Und was aus dem Forum wird oder geworden ist kann dir reichlich egal sein.

beleidigen? Was willst du mit deim Dämlichen beitrag bezwecken?
Klingt für mich, das es wohl so ist wie ichs beschrieben hab gell? oder was willst sonst der Fanboy immer damit bezwecken hä?

p.s. damit du net weiterhin rumheulst wie nen waschweib, ich bin hier kein Mitglied.

Schlammsau
2008-05-26, 19:28:57
ja und, der preis der 9800GT wird auch gleich bleiben (bzw. die reste der 8800 werden billig verscherbelt und die 9800GT wird den jetzigen preis übernehmen).

ein paar werden also ein extrem billiges schnäppchen bekommen, stört das jemanden?
nein wird es wohl nicht.
die 8800GS wird immer noch zu gleichen Preis wie eine 9600GSO angeboten!

der Gastbeitrag über mir, wird wohl nicht lange zu lesen sein! :)

K4mPFwUr$t
2008-05-26, 19:29:59
nicht schon wieder ein völlig hirnverbrannter bashthread von schlammsau :rolleyes:
SCNR

Schlammsau
2008-05-26, 19:31:54
nicht schon wieder ein völlig hirnverbrannter bashthread von schlammsau :rolleyes:
SCNR

Ich steh dazu! :cool:

Jake Dunn
2008-05-26, 19:38:50
Da sieht man schön wer die Hardcore Fanboys sind in den Lagern ;D

Grestorn
2008-05-26, 19:43:02
[x] nein, finde es nicht so gut.

Denn es verwirrt den Kunden und ist eine pure Marketing-Masche. Auch nicht gut für's Image und schadet auch dem Anbieter m.E. mehr als es ihm bringt.

Schlammsau
2008-05-26, 19:43:33
eigentlich hab ich mich nie als Fanboy gesehen, hab erst am Samstag nem Spezl geraten entweder eine 8800GT oder eine 3870 zu nehmen. Je nachdem was ihm wichtiger ist.
Aber bei Leuten wie Unyu, Krampfwurscht und LZ muss man ja Partei ergreifen! :)

Black-Scorpion
2008-05-26, 19:44:29
beleidigen? Was willst du mit deim Dämlichen beitrag bezwecken?
Klingt für mich, das es wohl so ist wie ichs beschrieben hab gell? oder was willst sonst der Fanboy immer damit bezwecken hä?

p.s. damit du net weiterhin rumheulst wie nen waschweib, ich bin hier kein Mitglied.
Und was bezweckst du Witzbold mit deinem dämlichen Beitrag?

Wer hier welche Threads erstellt geht dich schlicht einen Dreck an.

aths
2008-05-26, 20:06:49
Ich finde Nvidias Namenspolitik ziemlich beschissen.

Eine klare Nomenklatur die anhand der Modellbezeichnung erkennen lässt, welche Features das Produkt hat und welche Performance man erwarten kann, dürfte langfristig dem Absatz förderlich sein. Die verwirrten Kunden kaufen nichts weil sie nicht mehr durchsehen – oder warten ab, in der Hoffnung, dass ein Produkt unter neuem Label noch günstiger wird.

- Die GeForce 4 MX ist eine schnellere GeForce 2 MX mit 2x Multisampling, aber ohne DX8-Compliance obwohl schon die GeForce 3 DX8-Compliant ist.
- Die FX 5200 kann eine Vollkrücke sein (64-Bit-SI) oder eine für (damalige) Gelegenheitsspieler durchaus brauchbare Karte (128-Bit-SI.)
- Die 7200 GS ist eigentlich eine 6200 TC.
- Von der 7300 gibt es gleich vier Versionen (GT, GS, LE, SE.) Die GT, eigentlich mit 128-Bit-SI, gab es auch in einer Version mit 64-Bit-SI (macht dann fünf Varianten.)
- Die 8600 verdient ihren Namen nicht. Sie hätte maximal 8500 heißen dürfen.
- Die 8800 GT ist vergleichbar oder schneller als die alte 8800 GTS.
- Deie 8800 GTS gibt es vier mal: G80 (96 SP) mit 320 und 640 MiB, mit 112 SP und 640 MiB und mit 128 SP und 512 MiB.
- Die 9600 GT ist fast doppelt so schnell wie die 8600 GT, die 9800 GTX ist mit Ach und Krach gerade mal so auf 8800-GTX-Niveau.
- Eine G92-basierende 8800 GTS kann man mit etwas Glück so weit übertakten, dass man die Performance einer 9800 GTX (GTX!) erreicht.
- Die 8800 GS heißt jetzt 9600 GSO. Nvidia hätte wenigstens die Taktraten leicht ändern (anheben) können.
- Das Verwirrspiel geht weiter – 9800 GT.

seahawk
2008-05-26, 20:11:24
Ich finde es untragbar. Imho muss das in den Medien klar gesagt werden und die Köufer sollten solche arglistige Täuschung mot Boykott bestrafen.

MikBach
2008-05-26, 20:13:33
... ATi macht es schon seit Jahren
Ja?
Also ausser dem RV250 aka 9x00 abgeleitet von der 8500er faellt mir jetzt spontan kein weiteres Beispiel ein.
Viel krasser fand ich die GF4MX, die eigentlich hinter der GF3 lag...:rolleyes:

Wer übrigens meint das eine höhere Zahl zwingend höhere Leistung suggerieren muss, der ist etwas verblendet was Marketing angeht.
SO denken aber die meistem, die keine Ahnung haben, weil sie einfach nach einem bestimmten logischen Denkmuster vorgehen. Und dies nutzt mMn Nvidia zur Zeit ziemlich aus.
[x] nein, finde es nicht so gut.

Denn es verwirrt den Kunden und ist eine pure Marketing-Masche. Auch nicht gut für's Image und schadet auch dem Anbieter m.E. mehr als es ihm bringt.
Sehe ich auch so.

K4mPFwUr$t
2008-05-26, 20:13:53
schön das du dazu stehst, nur intressiert es keine sau, ach ne du bist ja ne schlammsau ;D

was willst du eigentlich mit den ganzen pro ATI con NV threads erreichen?
das man die HD3000 mehr würdigt und so zur ATI greift?

Neocroth
2008-05-26, 20:14:03
Ich finde Nvidias Namenspolitik ziemlich beschissen.

Ich finde es interessant, wie aus dem einstigen GTS (Gigatexel Shader, GeForce 2 GTS) eine Marketingabkürzung ohne jede direkte (mir bekannte) Bedeutung wurde.

Wo ist eigentlich das einstige Ti der Titanium hin? Das FX könnte man auch noch wiederbeleben, dann könnte nVidia ja noch ein paar mehr Namenskombinationen bilden ;)

GeForce FX 9800Ti GTX :D

Andererseits muss zur Verteidigung von nVidia gesagt werden: ATi war bis vor kurzem um keinen Deut besser.

dargo
2008-05-26, 20:14:46
mir sind die nahmen scheißegal, ich kaufe nach leistungsdaten, von mir aus könnten sie die karte auch supermegaspyderbatman nennen.

Sehe ich ähnlich, von daher:
[x] interessiert mich nicht

Was für mich zählt sind nur Spiele-Benches.

MikBach
2008-05-26, 20:31:37
schön das du dazu stehst, nur intressiert es keine sau, ach ne du bist ja ne schlammsau ;D

was willst du eigentlich mit den ganzen pro ATI con NV threads erreichen?
das man die HD3000 mehr würdigt und so zur ATI greift?
Wie meinen?
Warum sollte das ein "pro ATI con NV thread" sein?
Hier geht es um die Namensgebung bei Nvidia.
Wenn du willst, kannst ja einen entsprechenden Thread ueber ATI aufmachen.
Viel Glueck wirst du aber nicht haben, da dies bei ATI beim RV250 eine Ausnahme war. Sonst sind die Namen alle ok und nachvollziehbar.

knallebumm
2008-05-26, 20:42:17
Das einzige was mich daran stören könnte, wäre eine treiberseitige Benachteiligung der alten Karten, wenn ich so eine hätte.

Coda
2008-05-26, 20:46:36
Interessiert mich nicht. Wer zu blöd ist sich zu informieren hat halt verloren. Das war schon immer so.

MikBach
2008-05-26, 20:50:38
Interessiert mich nicht. Wer zu blöd ist sich zu informieren hat halt verloren. Das war schon immer so.
Typischer Coda-Kommentar. :rolleyes:
Mich persoenlich interessiert es ja auch nicht sooo sehr.
Nur die meisten hier sind Freaks (positiv gemeint).
Der "Normalo" wird aber verarscht und verunsichert. Nur merkt es dieser meistens erst nach dem Kauf...

Gast
2008-05-26, 20:52:10
Radeon 8500 und Radeon 8500 OEM ...auch damals eine pure Verarsche

K4mPFwUr$t
2008-05-26, 20:52:56
@MikBach
warum es ein "pro ATI con NT thread" ist?
ganz einfach schlammsau's persönliches zielt scheint nur zu sein ATI in ein bestmögliches licht zu rücken und nV wo es nur geht schlecht zu reden. dabei nehmen sich im endeffekt beide nicht viel.
beide betreiben derzeit massiv kundenverarsche und es gibt scheinbar genug leute die das gut heißen. auch wenn der leitspruch auch hier gültigkeit findet "wer sich nicht informiert, ist selber schuld".

die peinlichkeit und vor allem sinnlosigkeit einen "pro NV con ATI thread" zu eröffnen spare ich mir, auf das level von schlammsau will ich mich nicht begeben. bezüglich frühere namensverwirungen bzw. kundenverarsche, stehen beide nicht gut da ... nicht das du mir noch was unterstellst :rolleyes:

Schlammsau
2008-05-26, 20:56:03
Ich finde Nvidias Namenspolitik ziemlich beschissen.

Eine klare Nomenklatur die anhand der Modellbezeichnung erkennen lässt, welche Features das Produkt hat und welche Performance man erwarten kann, dürfte langfristig dem Absatz förderlich sein. Die verwirrten Kunden kaufen nichts weil sie nicht mehr durchsehen – oder warten ab, in der Hoffnung, dass ein Produkt unter neuem Label noch günstiger wird.

- Die GeForce 4 MX ist eine schnellere GeForce 2 MX mit 2x Multisampling, aber ohne DX8-Compliance obwohl schon die GeForce 3 DX8-Compliant ist.
- Die FX 5200 kann eine Vollkrücke sein (64-Bit-SI) oder eine für (damalige) Gelegenheitsspieler durchaus brauchbare Karte (128-Bit-SI.)
- Die 7200 GS ist eigentlich eine 6200 TC.
- Von der 7300 gibt es gleich vier Versionen (GT, GS, LE, SE.) Die GT, eigentlich mit 128-Bit-SI, gab es auch in einer Version mit 64-Bit-SI (macht dann fünf Varianten.)
- Die 8600 verdient ihren Namen nicht. Sie hätte maximal 8500 heißen dürfen.
- Die 8800 GT ist vergleichbar oder schneller als die alte 8800 GTS.
- Deie 8800 GTS gibt es vier mal: G80 (96 SP) mit 320 und 640 MiB, mit 112 SP und 640 MiB und mit 128 SP und 512 MiB.
- Die 9600 GT ist fast doppelt so schnell wie die 8600 GT, die 9800 GTX ist mit Ach und Krach gerade mal so auf 8800-GTX-Niveau.
- Eine G92-basierende 8800 GTS kann man mit etwas Glück so weit übertakten, dass man die Performance einer 9800 GTX (GTX!) erreicht.
- Die 8800 GS heißt jetzt 9600 GSO. Nvidia hätte wenigstens die Taktraten leicht ändern (anheben) können.
- Das Verwirrspiel geht weiter – 9800 GT.

Eigentlich ging es mir nur um die letzten beiden Beispiele aber........WOW! :eek:


......
Ach Wurschti.......das geht dir jetzt gegen den Strich wa!?

Lightning
2008-05-26, 20:59:15
[x] nein, finde es nicht so gut.

Denn es verwirrt den Kunden und ist eine pure Marketing-Masche. Auch nicht gut für's Image und schadet auch dem Anbieter m.E. mehr als es ihm bringt.

Full ack.

Dass das ganze mal wieder in einen "ATi vs. nVidia"-Thread abdriftet, war allerdings abzusehen. ;(

Gast
2008-05-26, 20:59:53
Radeon 8500 und Radeon 8500 OEM ...auch damals eine pure Verarsche
Ja... 275 gegen 250 MHz Takt - krasse scheisse²³!!11

Schlimm bei ATI:
- Radeon 9200 vs. 8500 (Wobei nicht 8800 -> 9800 sondern 8500 -> 9200 und es nicht der gleich Chip war - wer das behauptet hat keine Ahnung
- Evtl. 9600 als Nachfolger der 9500
- X1050 als X300 Neuauflage und ohne SM3 ggü. den sonstigen X1k Karten

... Die NV-Liste ist länger.

BTW: Ist mir schnurz: Meine Intel IGP heißt X3000 ;)


Klar Schlammsau ist pro ATI, dennoch ist nicht alles unbedingt falsch oder schlecht - selbst NV hat zugegeben, dass ihr Namensschema eigentlich scheisse ist :D

Gast
2008-05-26, 21:01:52
selbst NV hat zugegeben, dass ihr Namensschema eigentlich scheisse ist :D

richtig, es ist scheiße, deshalb ist mir die namensgebung auch scheißegal ;)

MikBach
2008-05-26, 21:02:35
@MikBach
warum es ein "pro ATI con NT thread" ist?
ganz einfach schlammsau's persönliches zielt scheint nur zu sein ATI in ein bestmögliches licht zu rücken und nV wo es nur geht schlecht zu reden.
Das kann sein, ist sein gutes recht. Wobei er in diesem Fall sogar recht hat.

dabei nehmen sich im endeffekt beide nicht viel.
beide betreiben derzeit massiv kundenverarsche...
Das "Marketing" von NV ist dem von ATI, was dies angeht aber meilenweit vorraus.

bezüglich frühere namensverwirungen bzw. kundenverarsche, stehen beide nicht gut da ...nicht das du mir noch was unterstellst :rolleyes:
Ich will dir ja nichts unterstellen, aber wo hat ATI ausser beim R200/RV250 sonst bei den Namen verarscht?
Damit ist auch der Gast gemeint mit der 8500 und 8500 OEM...:|

LovesuckZ
2008-05-26, 21:03:13
eigentlich hab ich mich nie als Fanboy gesehen, hab erst am Samstag nem Spezl geraten entweder eine 8800GT oder eine 3870 zu nehmen. Je nachdem was ihm wichtiger ist.
Aber bei Leuten wie Unyu, Krampfwurscht und LZ muss man ja Partei ergreifen! :)

Stimmt. Jede Wahrheit braucht immer eine Lüge - vielen Dank, dass du den Lügenpart übernimmst.

Schlammsau
2008-05-26, 21:08:34
Stimmt. Jede Wahrheit braucht immer eine Lüge - vielen Dank, dass du den Lügenpart übernimmst.

das musst du mir jetzt mal genauer erklären! :|

Gast
2008-05-26, 21:09:09
Ich will dir ja nichts unterstellen, aber wo hat ATI ausser beim R200/RV250 sonst bei den Namen verarscht?
Damit ist auch der Gast gemeint mit der 8500 und 8500 OEM...:|

alles HD3xxx außer der 38xx-serie ist um keinen deut besser, X1950pro war trotz höherer nummer auch langsamer als die X1900XT(X).

im grunde ist alles unter dem mainstream-segment von allen beiden reinste verarsche, weil die topkarten der letzten generation immer schneller sind.

LovesuckZ
2008-05-26, 21:10:22
das musst du mir jetzt mal genauer erklären! :|

Warum? Du lügst. Seit wann muss man hier im Forum etwas erklären?

MikBach
2008-05-26, 21:12:16
alles HD3xxx außer der 38xx-serie ist um keinen deut besser, X1950pro war trotz höherer nummer auch langsamer als die X1900XT(X).

Die Kuerzel PRO und XT sind dir aber gelaeufig?
edit:
Warum? Du lügst. Seit wann muss man hier im Forum etwas erklären?
Warum luegt er? :confused:
Vor allem, wobei konkret?

Schlammsau
2008-05-26, 21:14:45
Warum? Du lügst. Seit wann muss man hier im Forum etwas erklären?
Ich lüge? Was soll das jetzt? Beleidigen muss ich mich nicht lassen!

LovesuckZ
2008-05-26, 21:16:47
Die Kuerzel PRO und XT sind dir aber gelaeufig?


Das Zählsystem in unserem System wurde dir in der Schule beigebracht? :rolleyes:


Warum luegt er? :confused:
Vor allem, wobei konkret?

Muss es ein Grund geben? Er darf ja auch zu mir Fanboy sagen. Also sage ich zu ihm Lügner.
Schon komisch, dass viele nicht wissen was ein Fanboy ist. Aber wir nehmen Bezeichnungen ja nicht so exakt.

Neocroth
2008-05-26, 21:17:53
im grunde ist alles unter dem mainstream-segment von allen beiden reinste verarsche, weil die topkarten der letzten generation immer schneller sind.

Der Vergleich hinkt - Mainstream mit Highend der Generation davor zu vergleichen funktioniert nicht.
Es ist auch nicht Ziel, mit neuen Mainstream-Generationen die Highend-Karten der letzten Generation abzulösen. Die wahre Konkurrenz der Mainstreamkarten sind die Mainstream-Karten der Generation davor.
Mainstream ist auch nicht auf Performance, sondern eher auf den Ottonormaluser, der DVDs schaut und hin und wieder ein Spiel zockt, ausgelegt. Der benötigt die Performance nicht.

Etwas verwirrend, der Post ;) ich hoffe, trotzdem verständlich.

LovesuckZ
2008-05-26, 21:20:23
Der Vergleich hinkt - Mainstream mit Highend der Generation davor zu vergleichen funktioniert nicht.


Und was ist Mainstream?

MikBach
2008-05-26, 21:26:15
Das Zählsystem in unserem System wurde dir in der Schule beigebracht? :rolleyes:
Welches aber durch Kuerzel wie PRO, XT, GT, GTX, Ultra usw. ergaenzt werden kann...:|

Muss es ein Grund geben? Er darf ja auch zu mir Fanboy sagen. Also sage ich zu ihm Lügner.
Sag mal, gehts noch? :mad:
Luegner ist eine ueble Untestellung. Dafuer solltest du eigentlich verwarnt werden.:P

Neocroth
2008-05-26, 21:30:02
Und was ist Mainstream?

http://www.3dcenter.org/artikel/das-sommer-portfolio-von-ati-und-nvidia

Gast
2008-05-26, 21:36:00
Die Kuerzel PRO und XT sind dir aber gelaeufig?


Pro würde ich mal mit professionell in verbindung bringen, also besser als ohne pro, aber warum PRO besser als XT sein soll erschließt sich mir nicht.

zwischen XT und XTX bzw. GT und GTS kann man wenigstens noch die logik sehen "mehr ist besser", mit XT vs Pro funktioniert das aber nicht.

LovesuckZ
2008-05-26, 21:37:06
Welches aber durch Kuerzel wie PRO, XT, GT, GTX, Ultra usw. ergaenzt werden kann...:|

Ändert nichts an der Tatsache, dass eine höhrere Zahlen einen höhreren Wert haben in unserem System.


Sag mal, gehts noch? :mad:
Luegner ist eine ueble Untestellung. Dafuer solltest du eigentlich verwarnt werden.:P

Fanboy auch. Trotzdem darf er mich so bezeichnen. Das ist nicht nur eine Lüge sondern auch eine üble Unterstellung.

Neocroth, wie definiert sich Mainstream? Nur über den Preis?

MikBach
2008-05-26, 21:40:25
Pro würde ich mal mit professionell in verbindung bringen, also besser als ohne pro, aber warum PRO besser als XT sein soll erschließt sich mir nicht.

:confused:
Wer sagt denn, dass PRO besser ist als XT?
Ist genau andersrum.


Fanboy auch. Trotzdem darf er mich so bezeichnen. Das ist nicht nur eine Lüge sondern auch eine üble Unterstellung.

Du denkst und schreibst doch fernab jeder Realitaet.
Das Wort Fanboy ist ja nicht unbedingt negativ. Ist einfach ein Fan einer bestimmten Firma oder es koennte auch ein Fan einer bestimmten Fussballmanschaft sein.
Das Wort Luegner ist eine GANZ andere Dimension.
Wenn du das nicht raffst, dann hast du mein herzliches Beileid fuer Unterbelichtung.

BTW du bist oft darauf aus, wenn dir ein Thread nicht passt, diesen durch provokationen und spam zum Schliessen zu bewegen...

K4mPFwUr$t
2008-05-26, 21:42:15
eigentlich ist doch pro, xt doch seit der HD3000 weg gefallen mit 3850,3870?

Neocroth
2008-05-26, 21:42:53
Neocroth, wie definiert sich Mainstream? Nur über den Preis?

Allerletztenendes: Ja.

Leistungsmäßig zwischen Performance/Enthusiast und LowCost/LowEnd angesiedelt - es ist also nur logisch, dass sich der Preis ebenfalls zwischen Performance/Enthusiast und LowCost/LowEnd ansiedeln wird.

LovesuckZ
2008-05-26, 21:46:19
Allerletztenendes: Ja.

Leistungsmäßig zwischen Performance/Enthusiast und LowCost/LowEnd angesiedelt - es ist also nur logisch, dass sich der Preis ebenfalls zwischen Performance/Enthusiast und LowCost/LowEnd ansiedeln wird.

Eine 8800GTX im November 2006 für 200€ - Mainstream?

gamingforce
2008-05-26, 21:49:30
eigentlich ist doch pro, xt doch seit der HD3000 weg gefallen mit 3850,3870?

nicht wirklich, HD3870 zeigt GPU Z als XT an, HD3850 als Pro :smile:

Neocroth
2008-05-26, 21:51:25
Eine 8800GTX im November 2006 für 200€ - Mainstream?

Sorry, aber jetzt wirst du lächerlich. Du weißt genau so gut wie ich, dass das reiner Blödsinn ist. Hättest du den Post gelesen, dann hättest du die vollkommen logische Relation Preis zu Performance gelesen und erkannt.


Leistungsmäßig zwischen Performance/Enthusiast und LowCost/LowEnd angesiedelt - es ist also nur logisch, dass sich der Preis ebenfalls zwischen Performance/Enthusiast und LowCost/LowEnd ansiedeln wird.

Hätte die 8800GTX gerade so mit einer X1950Pro mithalten können - dann wäre der Preis vermutlich auch in dieser Dimension angesiedelt gewesen.

K4mPFwUr$t
2008-05-26, 21:55:29
@gamingforce
dann liegt das aber eher an wizzard der seinen teil zu GPU-Z beiträgt.

jedenfalls kenne ich keine HD3870Pro oder HD3870XT oder noch besser HD3870XTX.

LovesuckZ
2008-05-26, 21:55:46
Darum geht es mir nicht. Ich habe eine einfache Frage gestellt: Wie definiert sich Mainstream.

Du denkst und schreibst doch fernab jeder Realitaet.
Das Wort Fanboy ist ja nicht unbedingt negativ. Ist einfach ein Fan einer bestimmten Firma oder es koennte auch ein Fan einer bestimmten Fussballmanschaft sein.
Das Wort Luegner ist eine GANZ andere Dimension.
Wenn du das nicht raffst, dann hast du mein herzliches Beileid fuer Unterbelichtung.

BTW du bist oft darauf aus, wenn dir ein Thread nicht passt, diesen durch provokationen und spam zum Schliessen zu bewegen...

Ein Fan ist kein Fanboy. Er kann mich als nVidia Fan bezeichnen. Wenn er jedoch so tut, als wäre ich ein Fanboy - dann lügt er.
Schon komisch, dass du mich dauernd beleidigen darfst. Ist nicht das erste mal.

Nakai
2008-05-26, 22:00:24
Konkurrenz entsteht nur durch den Preis.
Jede Firma muss ihre Produkte preislich so anlegen um genug Absatz und dadurch Gewinn zu bekommen. Daraus folgt, dass der Preis dementsprechend angepasst werden muss.
Eine Geforce 8800GTX war das ultimative Highend zu der Zeit, ergo durfte die Geforce 8800GTX so teuer gewesen sein.


mfg Nakai

€:
Ich habe eine einfache Frage gestellt: Wie definiert sich Mainstream.

Über den Preis...

Neocroth
2008-05-26, 22:00:41
Darum geht es mir nicht. Ich habe eine einfache Frage gestellt: Wie definiert sich Mainstream.


Meine Meinung dazu hast du bereits gelesen. Also muss ich davon ausgehen, dass du bewusst provozieren willst.

LovesuckZ
2008-05-26, 22:09:57
Meine Meinung dazu hast du bereits gelesen. Also muss ich davon ausgehen, dass du bewusst provozieren willst.

Du musst meine Frage beantworten.
Wie definiert sich Mainstream. Ich helfe dir: Es kann sich alleinig nur durch den Preis definieren. Also wäre auch eine 8800GTX im Nov'06 <200€ Mainstream gewesen.

MikBach
2008-05-26, 22:13:17
Ein Fan ist kein Fanboy.
Wo liegt der Unterschied?

Er kann mich als nVidia Fan bezeichnen. Wenn er jedoch so tut, als wäre ich ein Fanboy - dann lügt er.
Siehe oben.

Schon komisch, dass du mich dauernd beleidigen darfst. Ist nicht das erste mal.
Seit wann sind denn Feststellungen Beleidigungen?

Sonyfreak
2008-05-26, 22:15:05
Mainstream definiert sich über den restlichen Markt. Der Markt differenziert nach dem Preis. Daher liegen Mainstreamkarten von Preis und Leistung her über Lowend- und unter Highend-Karten.

mfg.

Sonyfreak

-Andy-
2008-05-26, 22:15:42
;6532074']Also langsam reicht es Schlammsau, wenn du TROLLEN willst, dann steht dir Rage3d zur Verfügung, aber verschone uns mit weiteren Umfragen, Behauptungen und Theorien...

:up:

[x] ja, vollkommen ok!

Nvidia forever :heart:

LovesuckZ
2008-05-26, 22:22:59
Mainstream definiert sich über den restlichen Markt. Der Markt differenziert nach dem Preis. Daher liegen Mainstreamkarten von Preis und Leistung her über Lowend- und unter Highend-Karten.

mfg.

Sonyfreak

So siehts aus. Entweder ist "Mainstream" dynamisch und entwickelt sich mit dem Markt, oder es ist immer ein festes Marktsegment.

MikBach
2008-05-26, 22:24:19
:up:

[x] ja, vollkommen ok!

Nvidia forever :heart:
Ist schon seltsam, dass es einige ok finden.
ahts hat es wirklich auf den Punkt gebracht. Chaos ohne Ende.
Da blickt fast niemand mehr durch.
Aber du bekennst dich wenigstens dazu, dass du ein Nvidia-Fan bist. :up:
Das erklaert natuerlich deine "Wahl". :)

edit:
So siehts aus. Entweder ist "Mainstream" dynamisch und entwickelt sich mit dem Markt, oder es ist immer ein festes Marktsegment.
Ist ein Widerspruch in sich...

Gast
2008-05-26, 22:29:23
Ist schon seltsam, dass es einige ok finden.
ahts hat es wirklich auf den Punkt gebracht. Chaos ohne Ende.
Da blickt fast niemand mehr durch.
Aber du bekennst dich wenigstens dazu, dass du ein Nvidia-Fan bist. :up:
Das erklaert natuerlich deine "Wahl". :)

...


Ja aber auch nur weil er grade eine Nvidia Karte im Rechner hat.;)

-Andy-
2008-05-26, 22:29:29
Ist schon seltsam, dass es einige ok finden.
ahts hat es wirklich auf den Punkt gebracht. Chaos ohne Ende.
Da blickt fast niemand mehr durch.
Aber du bekennst dich wenigstens dazu, dass du ein Nvidia-Fan bist. :up:
Das erklaert natuerlich deine "Wahl". :)


Mehr fällt mir auch leider zu Schlammsaus schwachsinnigen Threads nicht ein :smile:

-Andy-
2008-05-26, 22:30:01
Ja aber auch nur weil er grade eine Nvidia Karte im Rechner hat.;)
Nein nicht gerade ;), seit 1998.

LovesuckZ
2008-05-26, 22:32:00
Ist ein Widerspruch in sich...

Nein, denn Mainstream hat im Grunde keine Definition.
Man nahm früher immer an, dass Mainstream der Bereich zwischen 100-250€ ist. Wenn wir jetzt den Markt betrachten, befinden sich bis auf drei Ausnahmen (x2, gx2, 8800Ultra) alle Karten unterhalb von 250€. Demnach gibt es heute nur noch Low-End und Mainstream oder Mainstream hat sich nach unten verschoben (z.B 75€ - 150€).
Da ist nirgends ein Widerspruch.

MikBach
2008-05-26, 22:33:58
Mehr fällt mir auch leider zu Schlammsaus schwachsinnigen Threads nicht ein :smile:
Also diesen Thread finde ich gar nicht schwachsinnig. Sieht man doch gut an der Umfrage.
Viele sehen es so wie Schlammsau.
BTW allgemeine Aussagen gegen einen Member sind mMn nicht angebracht.
Ich finde seine Umfragen ganz ok. Die bringen ein bisschen frischen Wind ins Forum. :)

Nakai
2008-05-26, 22:35:06
So siehts aus. Entweder ist "Mainstream" dynamisch und entwickelt sich mit dem Markt, oder es ist immer ein festes Marktsegment.

Es ist alleine der Preis.
Firmen geben hin und wieder ihre eigenen Ideen dazu raus, aber der Preis ist entscheident.
Einen G88GTX wäre eine sehr gute Performancekarte für 200€ gewesen.
Leider wurde sie für 500€+ gehandelt.
Eine HD2600XT ging um die 150€ rum, der Preis ging aber dann ziemlich schnell runter.

Der Markt verschiebt sich die ganze Zeit, je nach Stärkste Karte für einen bestimmten Preisbereich wird der gesamte Markt unterhalb neu definiert.
Bsp.: HD3870 sollte für 300€ auf den Markt kommen. Das lief nicht, da NV mit einer 8800GT in diesem Bereich ankam.
HD3870 war der 8800GT relativ unterlegen, ergo musste sie billiger angeboten werden. Damit rutschte die HD3870 eher in den Midrange-Segment ab...usw.


mfg Nakai


€:
BTW allgemeine Aussagen gegen einen Member sind mMn nicht angebracht.
Ich finde seine Umfragen ganz ok. Die bringen ein bisschen frischen Wind ins Forum.

Gegen solche Umfragen hab ich nichts, leider ist Schlammsau dafür bekannt nicht sonderlich NV-freundlich zu sein.
Das mögen einige hier wohl nicht, was wohl daran liegt, dass Schlammsau sich sehr für ATI engagiert.
---> der gesamte Thread wird durch eine Seite geprägt.

MikBach
2008-05-26, 22:35:48
Nein, denn Mainstream hat im Grunde keine Definition.
Man nahm früher immer an, dass Mainstream der Bereich zwischen 100-250€ ist. Wenn wir jetzt den Markt betrachten, befinden sich bis auf drei Ausnahmen (x2, gx2, 8800Ultra) alle Karten unterhalb von 250€. Demnach gibt es heute nur noch Low-End und Mainstream oder Mainstream hat sich nach unten verschoben (z.B 75€ - 150€).
Da ist nirgends ein Widerspruch.
Diese Erklaerung ist ok, aber dein vorheriger Beitrag:
"Entweder ist "Mainstream" dynamisch und entwickelt sich mit dem Markt, oder es ist immer ein festes Marktsegment." ist widerspruechlich.

-Andy-
2008-05-26, 22:40:37
---> der gesamte Thread wird durch eine Seite geprägt.

Nein es sollte wohl eher heißen, ein ganzes Unterforum wird durch seine Threads geprägt :biggrin:, aber lassen wir das.

MikBach
2008-05-26, 22:46:04
Gegen solche Umfragen hab ich nichts, leider ist Schlammsau dafür bekannt nicht sonderlich NV-freundlich zu sein.
Das mögen einige hier wohl nicht, was wohl daran liegt, dass Schlammsau sich sehr für ATI engagiert.
---> der gesamte Thread wird durch eine Seite geprägt.
Ich habe auch nichts gegen Umfragen gegen ATI...:)

Sonyfreak
2008-05-26, 22:49:05
Es ist alleine der Preis.Mainstream richtet sich nach dem restlichen Produktspektrum aus. Da der Markt aber dynamisch ist, kann man den Preis einer Mainstreamkarte an keinen spezifischen Wert festmachen. Man kann nur sagen, dass eine solche Karte in der Mitte der Preisgefüges stationiert ist. So kann eine Mainstreamkarte einmal nur 100€ kosten, ein anders mal 300€. Zudem kann man immer nur Karten ein und derselben Generation miteinander vergleichen.

mfg.

Sonyfreak

Coda
2008-05-27, 00:44:09
Typischer Coda-Kommentar. :rolleyes:
Mich persoenlich interessiert es ja auch nicht sooo sehr.
Nur die meisten hier sind Freaks (positiv gemeint).
Der "Normalo" wird aber verarscht und verunsichert. Nur merkt es dieser meistens erst nach dem Kauf...
Na und? Das ist in der ganzen freien Marktwirtschaft so. Der der sein Produkt besser vermarktet hat eben gewonnen. Allein was die Leute im Blödmarkt angedreht bekommen ist doch weitaus schlimmer. Eine "arglistige Täschung" liegt ganz sicher nicht vor nur weil auf der Packung ne 9 statt ner 8 steht.

Ich verstehe das ganze Rumgeheule nicht. Selbst wenn einer ne GeForce 9 kauft hat er ganz sicher keinen Fehlkauf begangen. Bei den CPUs ist es doch inzwischen noch viel undurchschaubarer.

Creative hat uns 5 (!) Generationen mit dem gleichen Chip verkauft und niemand hat was gesagt (SB Live! bis Audigy 4). Nur hier wird wieder groß die Fahne geschwungen.

MikBach
2008-05-27, 00:49:51
Na und? Das ist in der ganzen freien Marktwirtschaft so. Der der sein Produkt besser vermarktet hat eben gewonnen. Allein was die Leute im Blödmarkt angedreht bekommen ist doch weitaus schlimmer. Eine "arglistige Täschung" liegt ganz sicher nicht vor nur weil auf der Packung ne 9 statt ner 8 steht.
Doch, für die meisten ausser uns schon.
Eine Täuschung ist es schon, wenn ich das gleiche Produkt für ein neues verkauft bekomme.

Ich verstehe das ganze Rumgeheule nicht. Selbst wenn einer ne GeForce 9 kauft hat er ganz sicher keinen Fehlkauf begangen.
Da hast du sicherlich recht, aber eine Verarsche für den Normalkunden ist es schon, das kannst du drehen und wenden, wie du willst.

Coda
2008-05-27, 00:51:01
Ich sehe das nicht als Verarsche, weil der der das nicht durchschaut auch so nur Müll kauft. "BOA 1024MB VRAM!!!"" - GPU 8600GT. Wer sich nicht informiert hat verloren. Das ist und war bei PC-Hardware schon immer so.

Sind die Taktraten überhaupt komplett identisch? Wenn nicht ist es sowieso nicht das gleiche Produkt. G92b könnte auch sein.

MikBach
2008-05-27, 00:53:51
Ich sehe das nicht als Verarsche, weil der der das nicht durchschaut auch so nur Müll kauft. "BOA 1024MB VRAM!!!"" - GPU 8600GT. Wer sich nicht informiert hat verloren. Das ist und war bei PC-Hardware schon immer so.

Sind die Taktraten überhaupt komplett identisch? Wenn nicht ist es sowieso nicht das gleiche Produkt.
Das ist Bauerfängerei und Verarsche, wie 1024 MiB bei Midrangkarten.
EoD.

Coda
2008-05-27, 00:55:32
Darauf will ich doch hinaus. Entweder es informiert sich jemand oder eben nicht. Wer sich nicht informiert -> verloren. Die Schicht die NVIDIA wirklich mit so einer Karte noch "verarschen" kann dürfte äußerst gering sein.

Ich habe eben nichts gegen aggressives Marketing. Das ist evtl. aber auch eine Einstellungssache.

Odal
2008-05-27, 00:56:13
Sind die Taktraten überhaupt komplett identisch? Wenn nicht ist es sowieso nicht das gleiche Produkt. G92b könnte auch sein.

sind sie

http://pics.computerbase.de/2/1/7/8/2/1_m.gif

und selbst mit 50Mhz mehr wär die namensgebung fragwürdig da es genug hersteller von 88GTs gibt die mit 650mhz und mehr daherkommen

MikBach
2008-05-27, 01:00:09
Die Schicht die NVIDIA wirklich mit so einer Karte noch "verarschen" kann dürfte äußerst gering sein.
Da täuschst du dich aber gewaltig.

Ich habe eben nichts gegen aggressives Marketing. Das ist evtl. aber auch eine Einstellungssache.
Aggresivs Marketing, ok. Aber das, was NV zur Zeit betreibt ist Verarsche.
Das solltest sogar du verstehen.

Coda
2008-05-27, 01:01:22
Und selbst wenn es so wäre, was soll dieser Thread? Das ist doch nur wieder Stimmung anheizen. So virales Zeug geht mir gehörig auf den Zeiger.

Was doch eine viel größere Verarsche für den Kunde ist sind die Crossfire- und SLI-Karten. Da kauft man wirklich die Katze im Sack.

MikBach
2008-05-27, 01:04:05
Und selbst wenn es so wäre, was soll dieser Thread? Das ist doch nur wieder Stimmung anheizen. So virales Zeug geht mir gehörig auf den Zeiger.
Dann musst du eben lässiger werden.

Was doch eine viel größere Verarsche für den Kunde ist sind die Crossfire- und SLI-Karten. Da kauft man wirklich die Katze im Sack.
Da hast du sicherlich recht.

Coda
2008-05-27, 01:05:47
Dann musst du eben lässiger werden.
Wer hier lässiger werden sollte ist Schlammsau. Die Tour die er hier abzieht finde ich moralisch noch viel verwerflicher als die Umbennenung eines Produktes.

Gast
2008-05-27, 01:24:52
Wer hier lässiger werden sollte ist Schlammsau. Die Tour die er hier abzieht finde ich moralisch noch viel verwerflicher als die Umbennenung eines Produktes.
Fang jetzt hier nicht mit Moral an.
Schlaummsaus Umfragen finde ich super.
Wenn es jemand gegen ATI machen sollte, faendei ch es noch besser.
Ich finde, dass es erst echte Diskussionnen moeglich macht.
Du bist sicherlich anderer Meinung, aber das ist dein gutes Recht. :)

MikBach
2008-05-27, 01:25:55
War nicht eingellogt...:redface:

Coda
2008-05-27, 01:29:57
"Drecksladen" genau in einem negativen Abstimmungsergebnis ist einfach nur Stimmungsmache.

MikBach
2008-05-27, 01:35:05
"Drecksladen" genau in einem negativen Abstimmungsergebnis ist einfach nur Stimmungsmache.
OK, akzeptiert. Deswegen habe ich diese Option auch nich gewaehlt.
Aber der Stil, wie NV die Namen konstruiert ist unter aller Sau.

Schlammsau
2008-05-27, 06:54:11
Ich würde es begrüssen, wenn jemand solche Umfragen auch "gegen" ATi macht!
Hab da kein Problem mit!

K4mPFwUr$t
2008-05-27, 06:59:15
warum muss man sich auf dein fanboy nivau begeben?

Schlammsau
2008-05-27, 07:40:16
warum muss man sich auf dein fanboy nivau begeben?
Das tust du schon lange, indem du mich beleidigst! :mad:

nicht schon wieder ein völlig hirnverbrannter bashthread von schlammsau :rolleyes:
SCNR

Unyu
2008-05-27, 07:54:56
http://pics.computerbase.de/2/1/7/8/2/1_m.gif

Woran erkennst du, das dort ein 65nm G92 verbaut wird?

Das ist Bauerfängerei und Verarsche, wie 1024 MiB bei Midrangkarten.
Was ist an mehr VRAM schlecht?

Ectoplasma
2008-05-27, 08:20:55
Was sollen diese dämlichen Umfragen ständig ?

Damit der Kindergarten hier was zu labern hat und sich die Fan-Boys wieder zuflennen können.

Ansonsten :
[x] interessiert mich nicht

Odal
2008-05-27, 08:29:58
Woran erkennst du, das dort ein 65nm G92 verbaut wird?


Was ist an mehr VRAM schlecht?

"revision A2" der 55nm ist "Revision Bx" aber wäre auch egal...auch mit 55nm G92 und gleichen technischen daten reine Abzocke

Gast
2008-05-27, 08:53:34
Ändert nichts an der Tatsache, dass eine höhrere Zahlen einen höhreren Wert haben in unserem System.



Fanboy auch. Trotzdem darf er mich so bezeichnen. Das ist nicht nur eine Lüge sondern auch eine üble Unterstellung.

Neocroth, wie definiert sich Mainstream? Nur über den Preis?

Seine Aussage ist Fakt, deine eine Behauptung. Ein kleiner, aber feiner Unterschied.

Dieses Forum wäre ohne 4-5 Leute, die immer und immer wieder in Kleinkriege verwickelt sind, gleich um 2 Stufen angenehmer. 1 Woche Auszeit und man würde es merken. Noch besser: Man würde nichts vermissen.

Topic: Die Liste von Aths zeigt schön auf, warum NV in der Richtung alles schlägt.

Anarchy-HWLUXX
2008-05-27, 11:09:42
Topic: Die Liste von Aths zeigt schön auf, warum NV in der Richtung alles schlägt.

Die Leiste zeigt das derartige gewurstel NORMALERWEISE nur im Low-End bereich stattfinden ...

Jetzt aber überschlägt sich das ganze wegen den niedrigen preisen und dem intensiven Kampf im Mainstream / Performance Segment. Zuviele Modelle in zu kurzer Zeit mit zu ähnlichen Featurelisten - nur wäre die alternative einfach mal garnix zu machen war definitiv keine Option ist, schliesslich will man ja auch noch die nächste Generation von GPUs entwickeln.

Ich geh stark davon aus das mit der neuen Serie und dem langsamen auslaufen der 9***er das gewusel ein ende hat, wobei es evtl. bis dahin noch konfuser werden kann ;D


PS : Viele kastrierte Modelle sind keine Erfindung von nVidia sondern von den Herstellern - Asus hat z.B. sogar ne 6800GT mit laustigen 128MB gebracht und eine 6800GE -> 6800uonGT auf einem GT-PCB und 256MB ... den Müll mit riesigen VRAM bestückungen usw. gibt es ja scho lange.


PPS : Ich hab hier drei GF4 MX460, war damals nen feines Teil ... OC Potential ohne ende :eek:

Schlammsau
2008-05-27, 12:18:27
Weil sich viele Leute auf den Schlips getreten fühlten, hab ich die letzte Auswahmöglichkeit ein wenig entschärfen lassen!

Danke

MikBach
2008-05-27, 13:40:27
Real life:
Ich sitze gerade auf der Arbeit, meine neue 9600GSO liegt neben mir auf dem Tisch, dann kommt ein Arbeitskollege und meint:"mein Sohn hat eine 8800GT, also ist deine Karte besser..." ;D

Das ist halt, wie die Leute denken.
Viele wissen noch nichtmal, dass die erste Zahl die Generation bezeichnet...:|

Anarchy-HWLUXX
2008-05-27, 14:14:34
Ja und ? Ne 9600GT ist auch langsamer als die 8800GT ... wer die 6 nicht zu deuten weiss is selbst schuld.

Unyu
2008-05-27, 14:31:51
auch mit 55nm G92 und gleichen technischen daten reine Abzocke
Der Die Shrink alleine ist Grund genug für einen anderen Namen.

Ist ja nicht so, als ob der Kunde keinen Vorteil dadurch hätte, so wie du es darstellst, teurer wirds auch nicht, also warum die Aufregung?

MikBach
2008-05-27, 14:34:29
Der Die Shrink alleine ist Grund genug für einen anderen Namen.
Von 8800GT zu 8850GT vielleicht ja.
Reicht aber nicht für die erste Zahl, die die Generation angibt.

Unyu
2008-05-27, 14:47:08
Bei AMD anscheinend schon, verstehe ich nicht. :confused:

Odal
2008-05-27, 14:55:46
Der Die Shrink alleine ist Grund genug für einen anderen Namen.

Ist ja nicht so, als ob der Kunde keinen Vorteil dadurch hätte, so wie du es darstellst, teurer wirds auch nicht, also warum die Aufregung?

der kunde hat dadurch auch oftmals keinen vorteil...mehr leckströme in nem neuen unoptimirten fertigungsprozeß

ich erinner nur mal an die X800XL Gurken welche in 110nm gefertigt waren und gerade mal 420-430 mhz mitmachten....
ganz anders als die X800Pro/XT in 130nm low-k die man auch mit entsprechender spannung locker auf 630-650mhz prügeln konnte....

man kann nur mit gewissheit sagen das der hersteller nen kleineres DIE verkaufen kann und somit die gewinnspanne vermutlich höher wird

MikBach
2008-05-27, 15:04:14
Bei AMD anscheinend schon, verstehe ich nicht. :confused:
Was meinst du? :confused:

Unyu
2008-05-27, 15:14:39
Was meinst du? :confused:
8500 -> 9100
Diverse Mobile Karten, oh der Dau könnte die mit gleich genannten, aber weitaus schnelleren Desktop Karten verwechseln
9550 -> X1050
2900 -> 3800
2600 -> 3600
2400 -> 3400
....
?
Hier wird ganz schön mit zweierlei Maß gemessen.


man kann nur mit gewissheit sagen das der hersteller nen kleineres DIE verkaufen kann und somit die gewinnspanne vermutlich höher wird
Und die Karte entsprechend für einen Preiskampf gerüstet ist. Jetzt liegts an AMD, ob die Preise entsprechend sinken.

der kunde hat dadurch auch oftmals keinen vorteil...mehr leckströme in nem neuen unoptimirten fertigungsprozeß
Muss aber nicht.

akuji13
2008-05-27, 15:35:58
2900 -> 3800

Hier wird ganz schön mit zweierlei Maß gemessen.

Nur bei dir.
Vorteile der 3800er gegenüber den 2900er:

-D3D 10.1
-weniger Stromverbrauch
-leiserer Lüfter
-mehr Leistung
-effizienteres AA+AF
-bessere Videobeschleunigung

Unterschiede 9800 GT zu 8800 GT:

-nix
-nichts
-garnichts
-absolut nichts

:wink:

Gast
2008-05-27, 15:41:25
Vorteile der 3800er gegenüber den 2900er:

KEINE. Ist alles nur Treibersache.
Da sind die HD2xxx Besitzer aber ganz schön gearscht, dass sie kein D3D10.1 von AMD bekommen!

MikBach
2008-05-27, 15:42:07
8500 -> 9100
Das Thema ist schon durchgekaut.

Diverse Mobile Karten, oh der Dau könnte die mit gleich genannten, aber weitaus schnelleren Desktop Karten verwechseln
Den mobilen Bereich lassen wir besser aussen vor, da hier beide "mogeln".
Die Verunsicherung bei den Desktopmodellen bei NV reicht.

9550 -> X1050
Gebe ich ehrlich zu, dass mir die X1050 unbekannt ist.

2900 -> 3800
2600 -> 3600
2400 -> 3400
Was willst du mir jetzt damit sagen?
Die 3er sind doch neue Generation (D3D10.1). Ausserdem gabs noch einige Änderungen.

edit:
Vorteile der 3800er gegenüber den 2900er:

KEINE. Ist alles nur Treibersache.
Da sind die HD2xxx Besitzer aber ganz schön gearscht, dass sie kein D3D10.1 von AMD bekommen!
:rolleyes:
Geil. Wenn es Treibersache ist, dann kann meine 9600GSO bestimmt auch bald 10.1 :eek:

Mr. Lolman
2008-05-27, 15:47:16
KEINE. Ist alles nur Treibersache.
Da sind die HD2xxx Besitzer aber ganz schön gearscht, dass sie kein D3D10.1 von AMD bekommen!

http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html

Schlammsau
2008-05-27, 15:49:51
Hier wird ganz schön mit zweierlei Maß gemessen.


Nein wird es nicht....es gab bei all deinen genannten Karten mindestens eine gravierende Änderung!
Und was du immer mit dem Vergleich 2900XT und 3870 hast? :rolleyes:
Bis auf die 6 in der GPU Bezeichnung, haben die Karten eigentlich nichts gemeinsam! 512Bit SI vs. 256Bit SI, DX10 vs. DX10.1, 80nm vs. 55nm um nur die wichtigsten zu nennen!
Und was hat die 9800GT bzw. die 9600GSO im Vergleich zu ihren "Vorgängern" zu bieten? Richtig, nichts!

Unglaublich wie du und noch eine Handvoll anderer in ihrer eigenen kleinen (grünen) Traumwelt leben!

LovesuckZ
2008-05-27, 16:01:45
Könntest du bitte aufhören dauernd andere zu beleidigen?
Wenn dir unser Gras nicht gefällt, dann esse doch bitte nur deins.

Botcruscher
2008-05-27, 16:46:57
Unterschiede 9800 GT zu 8800 GT:

-nix
-nichts
-garnichts
-absolut nichts

:wink:

Hybridsli !1 ;D

Unyu
2008-05-27, 16:57:10
Geil. Wenn es Treibersache ist, dann kann meine 9600GSO bestimmt auch bald 10.1 :eek:
Nö andere Architektur. R600 und RV670 sind fast gleich.

Die 3er sind doch neue Generation
Neu ist vor allem der Name.

512Bit SI vs. 256Bit SI
Toll, das rechtfertigt eher den Namen 2800, nicht 3800. Hier wird einem ein massiver Performance Sprung vorgegaukelt.

DX10 vs. DX10.1
Dieses bisher unnötige Feature ist mehr wert als H-SLI?

80nm vs. 55nmGibts bei der 9800GT auch: 65nm vs 55nm.

Botcruscher
2008-05-27, 17:01:30
Dieses bisher unnötige Feature ist mehr wert als H-SLI?



Atom Rofl.
Über DX10.1 kann man sich ja streiten aber H-SLI ist ja mal wirklich für den Arsch. Eine Notmaßnahme mit einer ordentlichen Funktion vergleichen...

LovesuckZ
2008-05-27, 17:06:40
Atom Rofl.
Über DX10.1 kann man sich ja streiten aber H-SLI ist ja mal wirklich für den Arsch. Eine Notmaßnahme mit einer ordentlichen Funktion vergleichen...

Ach, den Stromverbrauch verringern ist also eine "Notmaßnahme".
Warte, ich nehme ein anderes Beispiel: Die AA Leistung mit 10.1 zu erhöhen, ist ja mal wirklich für den Arsch. Eine Notmaßme mit einer ordentlichen Funktion vergleichen...

Sorkalm
2008-05-27, 17:10:02
Dieses bisher unnötige Feature ist mehr wert als H-SLI?

IMHO ist das wirklich deutlich mehr wert als H-SLI, zu dem ist ja dank Powerplay die Idle-Leistungsaufnahme der 3800er-Karten OK.

Botcruscher
2008-05-27, 17:14:49
Irgendwelche Verrenkungen weil man den Idleverbrauch der Karten selber nicht senken kann, sind ganz sicher eine Notmaßnahme.

Wäre es nicht so würde man den Käse nicht brauchen. Dazu die Beschränkungen auf den Chipsatz, Vista etc.

Der rest über DX10.1 ist einfach nur getrolle. AA wird nicht schneller, sondern offiziell erst wieder richtig möglich. Alles ohne irgendwelche schlechten hacks mit Bildfehlern.

Ich freu mich schon auf deine Lobeshymnen wenn NV endlich damit antanzt.

Grestorn
2008-05-27, 17:21:13
Idleverbrauch senken ist das eine. Die Karte ganz abzuschalten etwas ganz anderes. Da ist auch ATI noch weit von entfernt.

Hybrid SLI ist ne gute und sehr sinnvolle Sache und hätte schon viel früher erfunden werden müssen. Hat auch mit SLI nur sehr wenig zu tun... Der Name ist ungünstig.

LovesuckZ
2008-05-27, 17:26:40
Irgendwelche Verrenkungen weil man den Idleverbrauch der Karten selber nicht senken kann, sind ganz sicher eine Notmaßnahme.

5 Watt IDLE Verbrauch gegen 25 Watt. Kein relevanter Unterschied? Komisch, ich errinnere mich an Diskussionen, wo man wegen 10 Watt 10 Fässer aufgemacht hat.


Wäre es nicht so würde man den Käse nicht brauchen. Dazu die Beschränkungen auf den Chipsatz, Vista etc.


10.1 ist auf Vista und Unterstützung der Entwickler angewiesen. Beschränkungen gibt es überall.


Der rest über DX10.1 ist einfach nur getrolle. AA wird nicht schneller, sondern offiziell erst wieder richtig möglich. Alles ohne irgendwelche schlechten hacks mit Bildfehlern.

Tja und Hybrid-Power ermöglich einen deutlich besseren IDLE-Verbrauch. Exakt das gleich.


Ich freu mich schon auf deine Lobeshymnen wenn NV endlich damit antanzt.

Du musst die IDLENICHTSVERBRAUCH User damit meinen. Die werden sich freuen.

Black-Scorpion
2008-05-27, 17:44:25
Wie kann man nur so verbohrt sein DX10.1 mit einer proprietären Lösung zu vergleichen.
Die nur was bringt wenn man dem Hersteller der Karte gleich noch ein paar Euro in den Rachen wirft weil man noch das passende Board braucht.
Das man dann auch noch Vista braucht ist der nächste Punkt.

Schlammsau
2008-05-27, 17:47:06
Ich hab das Gefühl, dass auch dieser Thread bald wieder geschlossen wird!
Es ist sooooooooooooo Sinnfrei mit euch darüber zu Diskutieren!

Grestorn
2008-05-27, 18:10:30
Wie kann man nur so verbohrt sein DX10.1 mit einer proprietären Lösung zu vergleichen.
Die nur was bringt wenn man dem Hersteller der Karte gleich noch ein paar Euro in den Rachen wirft weil man noch das passende Board braucht.
Das man dann auch noch Vista braucht ist der nächste Punkt.

Man braucht halt ein MB das auch einen Grafikchip mitbringt... Und ich denke in absehbarer Zeit werden praktisch alle nForce Versionen immer mit Grafikchip ausgeliefert werden.

Vista ist wirklich kein Hinderungsgrund. Oder stört es Dich, dass WinME nicht mehr von modernen Grafiklösungen voll unterstützt wird?

Grestorn
2008-05-27, 18:11:14
Ich hab das Gefühl, dass auch dieser Thread bald wieder geschlossen wird!
Es ist sooooooooooooo Sinnfrei mit euch darüber zu Diskutieren!

Wenn man Dir nicht zu 100% recht gibt, ist man natürlich sofort soooooo sinnfrei... :rolleyes:

Unyu
2008-05-27, 18:13:56
Das man dann auch noch Vista braucht ist der nächste Punkt.
Du brauchst für .1 auch Vista.

Schlammsau
2008-05-27, 18:14:57
Wenn man Dir nicht zu 100% recht gibt, ist man natürlich sofort soooooo sinnfrei... :rolleyes:

Wenn ich mir die Statistik so ansehe, gibt es hier genügend Leute die mir 100%ig recht geben! Und noch einige die das Thema sehr viel ernster nehmen als ich! Klick einfach mal auf die Zahlen......
Da ist es unwichtig wenn sich eine Handvoll Leute winden wie die Aale und ständig ausweichen! Ich hab auch kein Bock mehr weiter darüber zu diskutieren!

Aber Stop....meine Statistiken sind ja nicht repräsentativ!

deekey777
2008-05-27, 18:15:05
Wenn man Dir nicht zu 100% recht gibt, ist man natürlich sofort soooooo sinnfrei... :rolleyes:
Bei dem Bild-Zeitung-Niveau, das der Thread heraufbeschwört, sollte sich niemand wundern, dass dieser Thread so wie sein Zwilling einen Tiefpunkt des Forums darstellen.

Grestorn
2008-05-27, 18:18:35
Wenn ich mir die Statistik so ansehe, gibt es hier genügend Leute die mir 100%ig recht geben!

Das bezweifle ich nicht. Aber wenn alle zu 100% auf einer Seite stehen, wird das doch sehr langweilig für ne Diskussion, oder? :)

Da ist es unwichtig wenn sich eine Handvoll Leute winden wie die Aale und ständig ausweichen! Ich hab auch kein Bock mehr weiter darüber zu diskutieren!

Willst Du diskutieren oder nur von allen bestätigt bekommen, dass Du Recht hast?

P.S.: Du weißt ja, wie ich gevotet habe, oder?

Schlammsau
2008-05-27, 18:20:49
Wem der Thread zu Niveaulos ist, der sollte ihn einfach meiden!

MikBach
2008-05-27, 18:20:57
Nö andere Architektur. R600 und RV670 sind fast gleich.
Nein, sind sie eben nicht.
BTW woher kommt dieses Gerücht, der R600 könne 10.1?
Quelle? Link?

Neu ist vor allem der Name.
Du labberst echt einen ab, das geht auf keine Kuhhaut.


Toll, das rechtfertigt eher den Namen 2800, nicht 3800. Hier wird einem ein massiver Performance Sprung vorgegaukelt.
Wo denn?
Die erste Zahl bezieht sich auf die Generation und hat primär nichts mit Performance zu tun.
Neue Generation - in der Regel neue Features, wie in diesem Falle 10.1, aber auch viel andere Änderungen, aber das habe ich ja schon gesagt.
Bist du eigentlich schwer von Begriff oder tust du nur so?


Dieses bisher unnötige Feature ist mehr wert als H-SLI?
Dieses "unnötige Feature", wie du es nennst, ist für die Entwickler ein extremer Vorteil im Hinblick auf die Implementierung des AA in die Engine.
Aber das ist dir doch wohl ein bisschen zu hoch, oder?

Schlammsau
2008-05-27, 18:26:01
P.S.: Du weißt ja, wie ich gevotet habe, oder?
Ich hoffe du weisst wie ich gevoted habe!

Black-Scorpion
2008-05-27, 18:26:07
Man braucht halt ein MB das auch einen Grafikchip mitbringt... Und ich denke in absehbarer Zeit werden praktisch alle nForce Versionen immer mit Grafikchip ausgeliefert werden.

Vista ist wirklich kein Hinderungsgrund. Oder stört es Dich, dass WinME nicht mehr von modernen Grafiklösungen voll unterstützt wird?
Habe ich das irgendwo geschrieben?
Man braucht für Hybrid SLI ein Board mit nV Chipsatz (IGP) und Vista um es überhaupt nutzen zu können.
Keine Ahnung was du in meinen Beitrag reininterpretierst was da nicht steht.
DX10 und 10.1 ist Vista only, na und?
Ich brauche nur die passende Karte um es mit Vista nutzen zu können.
Ich brauche keinen speziellen Chipsatz und kann es auf AMD und Intel System nutzen.

Du brauchst für .1 auch Vista.
Das brauche ich auch für DX10.
Mehr sie oben.

Grestorn
2008-05-27, 18:31:22
Habe ich das irgendwo geschrieben?
Man braucht für Hybrid SLI ein Board mit nV Chipsatz (IGP) und Vista um es überhaupt nutzen zu können.
Keine Ahnung was du in meinen Beitrag reininterpretierst was da nicht steht.

Ja, genau. Und exakt darauf bezieht sich auch meine Antwort.

Wie sonst sollte es denn funktionieren? Der Intel IGP kann das schlicht nicht... Das kannst Du schlechterdings nicht nVidia anlasten.

Sicher ist das ein klasse Grund ein nForce Board zu holen und natürlich auch volle Absicht von nVidia. Aber so ist das nun mal, niemand hindert Intel oder ATI daran, eine ähnliche Lösung anzubieten.

Ich will 10.1 gar nicht mit HybridPower vergleichen. Denn beides ist wichtig.

Ich hatte nur den Eindruck dass Du Hybrid Power unnötigen Schmarrn abtust, und das kann ich so nicht nachvollziehen.

Black-Scorpion
2008-05-27, 18:39:49
Ja, genau. Und exakt darauf bezieht sich auch meine Antwort.

Wie sonst sollte es denn funktionieren? Der Intel IGP kann das schlicht nicht... Das kannst Du schlechterdings nicht nVidia anlasten.

Sicher ist das ein klasse Grund ein nForce Board zu holen und natürlich auch volle Absicht von nVidia. Aber so ist das nun mal, niemand hindert Intel oder ATI daran, eine ähnliche Lösung anzubieten.

Ich will 10.1 gar nicht mit HybridPower vergleichen. Denn beides ist wichtig.

Ich hatte nur den Eindruck dass Du Hybrid Power unnötigen Schmarrn abtust, und das kann ich so nicht nachvollziehen.
Warum sollte ich es als Schmarrn abtun?
Ist doch gut das sich nV mal eine Lösung für den Idle Verbrauch hat einfallen lassen.
Das es diese Einschränkungen braucht ist die andere Sache. Besser wäre es gewesen das ganz ohne Klimmzüge zu schaffen.

Aber wie LS auf das immer wieder geile Argument kommt DX10.1 mit Hybrid SLI zu vergleichen wird wohl sein Geheimnis bleiben.

LovesuckZ
2008-05-27, 18:42:00
Aber wie LS auf das immer wieder geile Argument kommt DX10.1 mit Hybrid SLI zu vergleichen wird wohl sein Geheimnis bleiben.

Hier geht es um die Namensgebung. Da ist Hybrid-Power eben gleichwertig.

let's rock!
2008-05-27, 18:48:07
[X] nein, finde es nicht so gut!
irgendwie unfair den weniger informierten kunden gegenüber, die dann verwirrt vor dem regal im mediamarkt stehen.
mfg

K4mPFwUr$t
2008-05-27, 18:56:47
@lovesuckz
sorry, aber das ist bullshit.
schon alleine DX10.1 hype gegen hyprid müll zu vergleichen :rolleyes:

wieviele nutzer würden denn diesen hyprid müll sich antuen?

Coda
2008-05-27, 19:00:45
Was genau ist daran denn Müll deiner Meinung nach?

Gast
2008-05-27, 19:06:49
es ist auf keinen Fall Müll!

Nur jetzt noch relativ unausgereift.
Zum Einen schließt man Aufrüster komplett aus, da diese eher noch keinen der neuen IGP Nvidia Chipsätze haben und zum Anderen muss man bei einem Neukauf abwägen, ob es der Sparmodus wert ist ein Nvidia board zu kaufen und auf eines mit zB intel Chipset zu verzichten.

Hybrid Power ist eine tolle Idee, nur ist die Umsetzung im Moment noch nicht so wie man sich das wünscht.

Am besten währe:
Entweder ein zusätzlicher Stromsparmodus á la PowerPlay, der auch auf anderen Chipsätzen funktioniert in Kombination mit Hybrid power.
Und die allerbeste Lösung:
Den Stromsparmodus, plus den Hybridpower Modus, der aber auch noch auf IGP Chipsätzen anderer Hersteller funktioniert.
Dies wird sich aber technisch IMO nicht unbedingt leicht lösen lassen.

K4mPFwUr$t
2008-05-27, 19:07:55
jetzt fängst du NV fanboy auch noch damit an :rolleyes:

was daran müll ist?
1) man braucht ein board mit nForce
2) man braucht ein board mit IGP
3) statt direkt den verbrauch der graka zu senken greift man lieber zu sollchen unausgereiften sachen (powerplay ahoi)

Gast
2008-05-27, 19:10:29
Kampfwurst es ist vielleicht unausgereift, aber die Idee ist auf keinen Fall müll!

LovesuckZ
2008-05-27, 19:11:22
Ich versteh es nicht. Da wird ein fass aufgemacht, wenn die 9600gt 10 Watt mehr als die 3870 verbraucht - aber wenn man den verbrauch fast gen 0 bringen kann, wird gemeckert, dass dies unnötig wäre.
Ja, so ist das Forum. Ist es positiv für nVidia, ist es Müll.

Schlammsau
2008-05-27, 19:12:37
Ich versteh es nicht. Da wird ein fass aufgemacht, wenn die 9600gt 10 Watt mehr als die 3870 verbraucht - aber wenn man den verbrauch fast gen 0 bringen kann, wird gemeckert, dass dies unnötig wäre.
Ja, so ist das Forum. Ist es positiv für nVidia, ist es Müll.

Es wurde nie und sage es nochmal, niemals ein Fass wegen der 9600GT aufgemacht, sondern wegen der 8800GT! :mad:
Ihr habt dann nur mit der 9600GT Argumentiert!

K4mPFwUr$t
2008-05-27, 19:14:15
@lovesuckz
du verstehst das falsch :rolleyes:
das hat weder was mit "ist es posetiv für nvidia, ist es müll" zu tuen.
es ist einfach fakt das man ein board von NV haben muss und dieses sollte über IGP verfügen.

ich will mir kein nfurtz antuen. das beste ist ja NV will stromsparen mit hypridpower aber der chipset ist das reinste kraftwerk :usad:

wenn man eine andere lösung findet ohne sich an spezielle hardware und software zubinden, ok aber so nicht.

Unyu
2008-05-27, 19:15:35
1) man braucht ein board mit nForce
2) man braucht ein board mit IGP
1 und 2 kannst du in Zukunft zusammenfassen.

K4mPFwUr$t
2008-05-27, 19:16:46
ja toll, trozdem muss ich zu NV boards greifen!

das ist der punkt, wer energie sparen will mit gF produkten muss zu NV boards greifen.

statt mal direkt einen 2D modus einzubauen, geht man lieber den weg über die "ausrede" hypridpower.

Coda
2008-05-27, 19:16:56
1) man braucht ein board mit nForce
Das ist mit Sicherheit ein Nachteil. Mir ist der Stromverbrauch unwichtig, deshalb kauf ich mir deshalb auch ganz sicher keinen nForce.

2) man braucht ein board mit IGP
Alle zukünftigen nForce haben eine IGP.

3) statt direkt den verbrauch der graka zu senken greift man lieber zu sollchen unausgereiften sachen (powerplay ahoi)
Dann muss man wieder teurere Spannungswandler verbauen. Das ist kein rein technisches Problem.

LovesuckZ
2008-05-27, 19:20:18
@lovesuckz
du verstehst das falsch :rolleyes:
das hat weder was mit "ist es posetiv für nvidia, ist es müll" zu tuen.
es ist einfach fakt das man ein board von NV haben muss und dieses sollte über IGP verfügen.


Natürlich muss das Board über IGP verfügen - wie willst du sonst die diskrete Karte deaktivieren und ein Bild haben? :rolleyes:
Und so schlecht scheinen die neuen Boards nicht zu sein.

AnarchX
2008-05-27, 19:23:43
Das ist mit Sicherheit ein Nachteil. Mir ist der Stromverbrauch unwichtig, deshalb kauf ich mir deshalb auch ganz sicher keinen nForce.

Du kennst offenbar nicht die Verbrauchszahlen (http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3288) von modern (IGP-)nForce, die bisherigen Intel-Boards wo seit Jahren der gleiche Chipset verbaut wird, sollte man nicht unbedingt als Beispiel heranziehen.;)

Ausserdem scheint H-SLI und NVIO nur der Anfang eines langfristigen Projektes (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=416157) zu sein.

K4mPFwUr$t
2008-05-27, 19:26:02
@coda
auch wenn die zukünftigen NV chipsets den IGP intus haben, macht es sie auch nicht sparsamer.
eher das gegenteil wird der fall, der chipset wird mehr und mehr zu einer standheizung.

wenn man für einen 2D modus teure spannungswandler verbauen müssen, warum tuen sie es nicht? wieviel kann das im endeffekt an materialtechnisch schon kosten?
die 10€ die man mehr bezahlt hat man schnell durch den 2D modus wieder rein, besonders bei highend karten.

@lovesuckz
es wäre mir auch neu gewesen wenn du einmal ein negatives wort über ein NV produkt in den mund nimmst. sei es chipset, IGP oder grakas, du redest alles schön. so gesehen kannst du garnicht eine beratetente option übernehmen da du durch die rosa brille der fanboys die wahre welt verzerrt wahrnimmst.

hyprid-power zum stromsparen und NV chipsets beißen sich nunmal.

AnarchX
2008-05-27, 19:30:55
@coda
auch wenn die zukünftigen NV chipsets den IGP intus haben, macht es sie auch nicht sparsamer.
eher das gegenteil wird der fall, der chipset wird mehr und mehr zu einer standheizung.
[...]
hyprid-power zum stromsparen und NV chipsets beißen sich nunmal.

Es wäre doch hilfreich für folgende Diskussionen, wenn sich die Diskussionteilnehmer entsprechend informieren, bevor sie nur Blödsinn von sich geben...

K4mPFwUr$t
2008-05-27, 19:33:32
was willst du damit sagen?
das die chipsets von NV keine herdplatten sind? :rolleyes:

ich weis nicht was die alle hier NV in schutz nehmen mit ihren hypridmüll statt direkt das problem an der wurzel zu packen (graka und fehlender 2d modus).

aber scheinbar stehen die leute ja wirklich auf verarsche und sich von abhängig zu machen von hardware, wenn es darum geht strom zu sparen.

LovesuckZ
2008-05-27, 19:34:27
@lovesuckz
es wäre mir auch neu gewesen wenn du einmal ein negatives wort über ein NV produkt in den mund nimmst. sei es chipset, IGP oder grakas, du redest alles schön. so gesehen kannst du garnicht eine beratetente option übernehmen da du durch die rosa brille der fanboys die wahre welt verzerrt wahrnimmst.

Genau, nur weil ich nicht gleich Hexe schreie, bin ich ein Fanboy. Na, so schön müssen früher die Zeiten gewesen sein. Ich rede nicht alles schlecht - so sollte man es sagen.


hyprid-power zum stromsparen und NV chipsets beißen sich nunmal.

Anscheinend nicht mehr bei den neuen Boards.
http://www.hothardware.com/Articles/NVIDIA_nForce_780a_SLI_Motherboard_RoundUp_Asus_MSI/?page=13

Coda
2008-05-27, 19:36:08
@coda
auch wenn die zukünftigen NV chipsets den IGP intus haben, macht es sie auch nicht sparsamer.
eher das gegenteil wird der fall, der chipset wird mehr und mehr zu einer standheizung.
Das ist doch überhaupt nicht wahr. Die letzte nForce-Generation war deutlich sparsamer als die davor.

die 10€ die man mehr bezahlt hat man schnell durch den 2D modus wieder rein, besonders bei highend karten.
Macht sicher auch mehr Probleme beim Chip-Design. Vor allem bei so großen Chips.

AnarchX
2008-05-27, 19:43:58
Das ist doch überhaupt nicht wahr. Die letzte nForce-Generation war deutlich sparsamer als die davor.

Genau so ist, NV und AMD sind eben mittlerweile übergegangen die aktuellsten Prozesse für Chipsätze zu verwenden, weswegen man auch in eine TDP! von <20W Chipsatz samt Low-End-D3D10-Lösung unterbringen kann.

Und beim kommenden MCP7A für S.775, von dem sich NV sehr viel verspricht, würde es mich nicht wundern, wenn dieser sogar schon auf 55nm gefertigt wird, immerhin stand es so auch in einigen Roadmaps.
Zusammen mit einem 45nm C2D und einer H-SLI-GraKa wird man da wohl traumhafte Idle-Werte erzielen.

Botcruscher
2008-05-27, 19:46:48
Anscheinend nicht mehr bei den neuen Boards.
http://www.hothardware.com/Articles/NVIDIA_nForce_780a_SLI_Motherboard_RoundUp_Asus_MSI/?page=13

Das sagt uns jetzt was? Bords unterschiedlicher Hersteller haben schon mal gut 15W unterschied. Da noch das Gesamtsystem zu vergleichen...

Gast
2008-05-27, 19:50:54
ja ihr habt recht, man kann sicher traumhafte idle werte erzielen.

Das Problem hierbei sehe ich aber nur darin, dass die Kunden zukünftig nicht mehr die Wahl haben!
Sie müssen! einen Nforce Chipset verwenden, auch wenn sie dies aus welchen Gründen auch immer vielleicht nicht wollen.
Außerdem bleibt weiterhin das Problem, dass alle Aufrüster komplett von den tollen Stromsparmechanismen ausgeschlossen werden.

IMO ist das ein bisschen vergleichbar mit Microsoft :D
Wenn auch natürlich nicht so extrem.
Die haben auch dem User den Internet Explorer untergejubelt durch ihre Marktmacht mit Windows.
Das ist jetzt so ähnlich mit Nvidia. Sie versuchen einen zu zwingen(oder zumindest zu drängen) mit Produkten aus dem eigenen Haus die vollen Funktionen der Grafikchips zu unterstützen.
Ist zwar ein etwas extremer Vergleich, aber in den Grundzügen scheint es zu stimmen.

LovesuckZ
2008-05-27, 19:53:03
Natürlich hat der Kunde die Wahl. Er kann auch die nVidia Karte sonst wo einsetzen.
Wenn der Kunde 10.x haben will, muss er auch Vista einsetzen. Sry, aber das ist kein Argument gegen die Namensänderung und Hybrid-Power.

Mr. Lolman
2008-05-27, 19:53:31
Anscheinend nicht mehr bei den neuen Boards.
http://www.hothardware.com/Articles/NVIDIA_nForce_780a_SLI_Motherboard_RoundUp_Asus_MSI/?page=13


Die Werte scheinen mir überhaupt etwas hoch, für Idle. Außerdem siehts zB hier schon wieder ganz anders aus: http://www.planet3dnow.de/vbulletin/showthread.php?t=339387&garpg=21#content_start

Gast
2008-05-27, 19:54:41
ja klar, sogesehen hat er die Wahl.

Die Karten funktionieren in jedem Board.

Aber man hat keine Wahl was den Stromsparmodus angeht, darauf wollte ich hinaus. Verstehste? ;)

K4mPFwUr$t
2008-05-27, 19:56:23
du weichst wieder aus lovesuckz :rolleyes:
der herr gast sprach explizit das thema hypridpower an, dafür braucht man kein vista oder des gleichen. und wie er auch geschrieben hat müsste man sich ein neues board zulegen und vor allem eins von NV!

das ist der knackpunkt der ganzen sache, den du scheinbar nicht wahr haben willst.

und die namensänderung bleibt kundenverarsche, hypridpower wäre vieleicht der kürzel 8850GT wert, aber keine 9800GT.

Gast
2008-05-27, 19:56:41
Edit:
Mir gehts gar nicht so um die Namensänderung, die ist mir ziehmlich Jacke wie Hose.
Es geht mir nur ums Prinzip mit der Nvidia die hauseigenen Chipsätze verbreiten will.

Grestorn
2008-05-27, 20:02:34
Nochmal, was kann nVidia dafür, wenn kein anderer IGP Hybrid Power unterstützt?

Immerhin muss der Chipsatz in der Lage sein, die Grafiksignale von der PCI Grafikkarte entgegenzunehmen und am VGA Port auszugeben. Das kann kein aktueller IGP, außer eben der nForce. Die meisten IGPs haben ja noch nicht mal nen DVI Ausgang... :rolleyes:

nVidia den Fakt vorzuhalten, H-Power würde nur mit nVidia IGP funktionieren, halte ich für ziemlich absurd.

LovesuckZ
2008-05-27, 20:02:46
Aber man hat keine Wahl was den Stromsparmodus angeht, darauf wollte ich hinaus. Verstehste? ;)

Klar. Er nimmt entweder Hybrid-Power und den nForce, oder lebt mit dem höhreren Verbrauch. Keine Wahl wäre, die Geforcekarte funktioniert nur im nForce Board.
10.x* ist nur unter Vista einsetzbar - hier besteht für den Kunden keine Wahl, wenn er 10.x nutzen will. Aber seine 10.x Karte ist auch unter XP verwenbar. Er hat nur eben keinen Nutzen von der 10.x Fähigkeit. Das ist vergleichbar mit Hybrid-Power.
Also bitte richtige Vergleiche bringen.

*Genauso wie Hybrid-SLI. Deswegen ist nicht der Stromsparmodus "keine Wahl" sondern die Beschränkung auf Vista.

Gast
2008-05-27, 20:04:38
Wer Anwalt des kleinen Mannes spielen will oder "Volksverarsche" aufdecken will ist bei der Bild oder dem NPD-Käseblättchen besser aufgehoben. Müßiger Thread und Diskussion.

Gast
2008-05-27, 20:06:57
Nochmal, was kann nVidia dafür, wenn kein anderer IGP Hybrid Power unterstützt?

Immerhin muss der Chipsatz in der Lage sein, die Grafiksignale von der PCI Grafikkarte entgegenzunehmen und am VGA Port auszugeben. Das kann kein aktueller IGP, außer eben der nForce. Die meisten IGPs haben ja noch nicht mal nen DVI Ausgang... :rolleyes:

nVidia den Fakt vorzuhalten, H-Power würde nur mit nVidia IGP funktionieren, halte ich für ziemlich absurd.

Nvidia kann gar nix dafür, das ist mir auch klar, dass es technisch nicht so einfach möglich ist.

Ich meine nur, man hat keine Wahl bei den Chipsätzen, wenn man überhaupt einen Stromsparmodus beanspruchen will.

Wie ich vorher schon geschrieben habe, finde ich Hybrid Power vom ansatz her toll, allerdings währe es erst perfekt, wenn es in Kombination mit etwas Powerplay ähnlichen angeboten würde.
Somit hätten alle! Chipsätze einen funktionierende Stromsparfunktion, und die Nforce eine nochmals verbesserte!

Gast
2008-05-27, 20:08:02
EDIT: also der Gast 2 beiträge über mir, war nicht ich ;)
(Der mit dem NPD beitrag)

Ich glaub ich muss mich dann mal anmelden hier ^^

Super Diskussion finde ich !

Black-Scorpion
2008-05-27, 20:08:31
Nochmal, was kann nVidia dafür, wenn kein anderer IGP Hybrid Power unterstützt?

Immerhin muss der Chipsatz in der Lage sein, die Grafiksignale von der PCI Grafikkarte entgegenzunehmen und am VGA Port auszugeben. Das kann kein aktueller IGP, außer eben der nForce. Die meisten IGPs haben ja noch nicht mal nen DVI Ausgang... :rolleyes:

nVidia den Fakt vorzuhalten, H-Power würde nur mit nVidia IGP funktionieren, halte ich für ziemlich absurd.
Sorry, aber bist du wirklich so blauäugig zu glauben das nV Hybrid Power auch auf anderen Chipsätzen unterstützen würde?
Genauso gut könnte man fragen was die anderen Chipsatzhersteller dafür können das es nV nicht schafft einen 2D Modus in ihre Karten zu bauen.
Das dürfte eher der Grund für Hybrid Power sein.

K4mPFwUr$t
2008-05-27, 20:10:03
@Grestorn
NV würde auch ganz sicher die lizenzen für hyprid-power an intel und AMD geben. :ulol:
damit bleibt die tatsache das man mit einer NV graka nur strom sparen kann bzw. über einen 2D modus verfügt wenn man zu einem NV chipset greift.

statt das problem so anzugehen das jeder was davon hat, also boards ohne IGP, boards mit AMD, intel, sis und wie sie alle heißen.

Gast
2008-05-27, 20:10:20
Klar. Er nimmt entweder Hybrid-Power und den nForce, oder lebt mit dem höhreren Verbrauch. Keine Wahl wäre, die Geforcekarte funktioniert nur im nForce Board.


Es gibt 2 Arten von keine Wahl, ich sehe schon wir reden ein bisschen aneinander vorbei.

Du hast mit deiner Meinung natürlich recht, aber ich auch.
Ich hab das keine Wahl darauf bezogen, dass man keine Wahl hat einen beliebigen Chipsatz einzusetzen, wenn man unbedingt einen Stomsparmodus will.

Grestorn
2008-05-27, 20:11:01
Sorry, aber bist du wirklich so blauäugig zu glauben das nV Hybrid Power auch auf anderen Chipsätzen unterstützen würde?
Genauso gut könnte man fragen was die anderen Chipsatzhersteller dafür können das es nV nicht schafft einen 2D Modus in ihre Karten zu bauen.
Das dürfte eher der Grund für Hybrid Power sein.

Ich denke nicht, dass ein anderer IGP Hersteller überhaupt je die notwendigen Voraussetzungen erfüllen wird, deswegen ist die Überlegung müßig.

Wenn, dann macht das AMD/ATI um genau die selbe Idee mit den eigenen Grafikkarten umzusetzen.

AnarchX
2008-05-27, 20:11:31
Genauso gut könnte man fragen was die anderen Chipsatzhersteller dafür können das es nV nicht schafft einen 2D Modus in ihre Karten zu bauen.
Das dürfte eher der Grund für Hybrid Power sein.

Die 5W Idle für die 8800M sprechen dagegen. ;)

Es ist nunmal eine langfristige Strategie die hier NV wohl momentan durchführt.

LovesuckZ
2008-05-27, 20:12:59
Du hast mit deiner Meinung natürlich recht, aber ich auch.
Ich hab das keine Wahl darauf bezogen, dass man keine Wahl hat einen beliebigen Chipsatz einzusetzen, wenn man unbedingt einen Stomsparmodus will.

Das ist immer so. Will man 10.x nutzen, muss man auf Vista setzen - OpenGL scheint tot zu sein.
Willst du nun auch AMD und nVidia vorwerfen, dass sie dich zwingen Vista zu kaufen, um 10.x einsetzen bzw. nutzen zu können?
Hybrid-Power hat Vorteile und Nachteile. Die muss man abwegen und sich dann entscheiden. Aber das Argument, ich hätte ja keine Wahl, ist einfach zu subjektiv.

Black-Scorpion
2008-05-27, 20:18:45
Die 5W Idle für die 8800M sprechen dagegen. ;)

Es ist nunmal eine langfristige Strategie die hier NV wohl momentan durchführt.
Und was bringt das einem Kartenbesitzer? Richtig nichts.

Die langfristige Strategie ist wohl die Kunden an die eigenen Produkte zu binden.
Intel hat CPUs, Chipsätze und IGPs. AMD hat CPUs, Chipsätze und IGPs.
Wenn sie mit den Chipsätzen nicht zwischen die Mühlen geraten wollen haben sie schon fast keine andere Wahl wie diesen Weg zu gehen.

K4mPFwUr$t
2008-05-27, 20:19:20
@Grestorn
was für ein quatsch :rolleyes:
warum sollte NV wirklich intresse haben das die konkurrenzprodukte ihr "feature hyprid-power" unterstützen?

außerdem warum glaubst du das andere hersteller außer NV das nicht auf die reihe bekommen?
eher ist der fall doch genau anders rum, NV bekommt kein 2D modus hin daher greift man zu hyprid-power.

und wenn A/A auch sowas plant, dann werden sie wohl auch den gleichen weg gehen. am ende hat man wieder das selbe, jeder hersteller versucht die leute mehr oder minder dazu zu bringen lieber zu den eigenene produkten zu greifen.

ich hätte lieber 20w mehr idleverbrauch bei der graka als wenn ich mir einen holzklotz ans bein nagel.

@anarchX
irgendwie warst du auch schonmal neutraler als heut zu tage? :conf:

wenn NV eine langfristige strategie durchführt kann diese nur dahin gehen den kunden an die eigenen produkte zu binden. wer leistung haben will greift zu NV, da A/A nur values chips herstellt. und wer auch noch die ach so freche anforderung stellt einen akzeptablen 2D verbrauch zu haben muss zu hyprid-power greifen.

würde man eine on PCB lösung machen für die grakas, wäre das wieder unabhängiger.
außer NV käme auf die tolle idee das ganze wieder chipset abhängig zu machen.

Gast
2008-05-27, 20:21:28
Naja, subjektiv ist subjektiv ;)

Allerdings kann ich das mit DX 10.x nicht so stehen lassen, immerhin ist es ein Standard der von allen Herstellern unterstützt wird.
Dies ist bei Hybrid Power nicht gegeben.
Versteh mich bitte nicht falsch, ich bewundere die Technik die dahintersteckt, nur Nvidias Politik dahinter ist mir etwas unverständlich.
Man hätte den ultimativen Stromsparmodus anbieten können, indem man einen 2d modus mit dem Hybrid Power kombiniert.
Das währe die totale Vernichtund :D gegenüber dem ATI Stromsparmodus gewesen.
Das es technisch leicht Möglich ist, zeigt ja die 8800m GTX.

Grestorn
2008-05-27, 20:22:38
@Grestorn
was für ein quatsch :rolleyes:
warum sollte NV wirklich intresse haben das die konkurrenzprodukte ihr "feature hyprid-power" unterstützen?

Ich habe doch nirgendwo geschrieben, dass sie das tun würden. Lesen bildet.

außerdem warum glaubst du das andere hersteller außer NV das nicht auf die reihe bekommen?

Auch das habe ich nicht geschrieben. Andere (sprich Intel) haben nur kein Interesse daran. Was hätten sie davon?

eher ist der fall doch genau anders rum, NV bekommt kein 2D modus hin daher greift man zu hyprid-power.Dann sind alle Notebook Chipsätze von nVidia wohl in Wahrheit von ATI geklaut.


/edit: Im Übrigen weiß noch keiner wie effizient die neuen Chips im 2D Modus sind. Vielleicht hat nVidia da auch noch etwas in der Hinterhand. Wäre heute sicher auch wichtig für die Popularität. Sich alleine auf H-Power zu verlassen, wäre da Kontraprodutiv.

K4mPFwUr$t
2008-05-27, 20:29:09
@grestorn
Nochmal, was kann nVidia dafür, wenn kein anderer IGP Hybrid Power unterstützt?
wie sollen die konkurrenz denn IGP hyprid power unterstützen wenn NV nicht die lizenzen dafür freigibt? so ist man wieder einen stück weiter entfernter wenn es um die freiheit der board und chipset wahl geht.

Auch das habe ich nicht geschrieben. Andere (sprich Intel) haben nur kein Interesse daran. Was hätten sie davon?
siehe oben, NV würde nur über hyprid-power verfügen und würde so die käufer troz einer G8x, G9x und GT200 GPU einen akzeptablen 2D verbrauchs wert haben wollen.

Dann sind alle Notebook Chipsätze von nVidia wohl in Wahrheit von ATI geklaut.
ich habe doch nirgendwo geschrieben, das sie das tuen würden. lesen bildet :rolleyes:

Im Übrigen weiß noch keiner wie effizient die neuen Chips im 2D Modus sind. Vielleicht hat nVidia da auch noch etwas in der Hinterhand. Wäre heute sicher auch wichtig für die Popularität. Sich alleine auf H-Power zu verlassen, wäre da Kontraprodutiv.
meinst du das NV einen 2D modus plant, wenn sie schon beim G8x und G9x keinen integriert haben?
irgendwie muss man ja gründe nennen wieso man zu hyprid-power greifen sollte.

und vor allem wenn NV eine "langfristige strategie" plant.

Grestorn
2008-05-27, 20:34:09
wie sollen die konkurrenz denn IGP hyprid power unterstützen wenn NV nicht die lizenzen dafür freigibt? so ist man wieder einen stück weiter entfernter wenn es um die freiheit der board und chipset wahl geht.

Im Gegensatz zu SLI, wo die Chipsätze gar nichts können müssen und es nur um eine Abfrage im Treiber geht, ist hier eine heftige Änderung der Chipsätze gefragt. Was hat Intel davon? Und, ja, ich glaube auch nicht, dass das für nVidia vorteilhaft wäre, deswegen würden die eine Lösung von Intel sicher nicht nutzen. Aber wie gesagt, die Frage stellt sich doch erst gar nicht.

Es sei denn, man setzt sich zusammen und entwickelt einen übergreifenden Standard für eine solche Lösung. Das kann durchaus passieren.

ich habe doch nirgendwo geschrieben, das sie das tuen würden. lesen bildet :rolleyes:Du hast geschrieben, sie wären nicht in der Lage einen sparsamen 2D Modus zu entwickeln. Ich habe Dich nur pointiert darauf hingewiesen, dass das einfach nicht stimmt.

Schlammsau
2008-05-27, 20:36:48
Du hast geschrieben, sie wären nicht in der Lage einen sparsamen 2D Modus zu entwickeln. Ich habe Dich nur pointiert darauf hingewiesen, dass das einfach nicht stimmt.

Wenn sie dazu in der Lage sind, warum führen sie ihn dann nicht parallel bzw. schon früher zu HSLi ein? DIe Mobile Karten sind ja auch nicht seit gestern auf dem Markt!

K4mPFwUr$t
2008-05-27, 20:38:07
Im Gegensatz zu SLI, wo die Chipsätze gar nichts können müssen und es nur um eine Abfrage im Treiber geht, ist hier eine heftige Änderung der Chipsätze gefragt. Was hat Intel davon? Und, ja, ich glaube auch nicht, dass das für nVidia vorteilhaft wäre, deswegen würden die eine Lösung von Intel sicher nicht nutzen. Aber wie gesagt, die Frage stellt sich doch erst gar nicht.

Es sei denn, man setzt sich zusammen und entwickelt einen übergreifenden Standard für eine solche Lösung. Das kann durchaus passieren.
für einen gemeinsamen standard kämpfen alle seiten zu sehr als einzelkämpfer als das sie teamarbeit beabsichtigen.


Du hast geschrieben, sie wären nicht in der Lage einen sparsamen 2D Modus zu entwickeln. Ich habe Dich nur pointiert darauf hingewiesen, dass das einfach nicht stimmt.
ok, dann sind sie in der lage aber wollen es einfach nicht durch setzen, weil sonst hyprid-power kein großes intresse beim käufer finden wird.

seahawk
2008-05-28, 07:08:01
Ist ja eigentlich noch schlimmer. Etwas für den Kunden Nützliches bewußt zurück zu halten, dass ist untereste Kategorie. In der Umgangssprache würde man wohl Drecksladen sagen.

Grestorn
2008-05-28, 07:21:42
Wenn sie dazu in der Lage sind, warum führen sie ihn dann nicht parallel bzw. schon früher zu HSLi ein? DIe Mobile Karten sind ja auch nicht seit gestern auf dem Markt!

Vielleicht tun sie das ja jetzt. Wäre wirklich an der Zeit!

Grestorn
2008-05-28, 07:25:09
Ist ja eigentlich noch schlimmer. Etwas für den Kunden Nützliches bewußt zurück zu halten, dass ist untereste Kategorie. In der Umgangssprache würde man wohl Drecksladen sagen.

Oh Mann, mal wieder Verschwörungstheorie die 1385683.

Natürlich macht man das nicht um die Kunden zu verärgern. Das sind einfach Abwägungen zwischen Kosten und zu erwartenden Mehrverkäufen.

Denn auch wenn man die Technik im Griff hat, kostet es Geld und Zeit(!) das in neue Chips zu integrieren und es macht die Chips auch noch komplexer, was bei HighEnd Chips immer problematisch ist. Die Stabilität und Ausbeute wird dadurch auch nicht besser.

Ich hoffe dringend, dass durch das aktuelle weltweit ansteigende Energiebewustsein dieses Verhalten jetzt ändert.

Schlammsau
2008-05-28, 07:26:59
Vielleicht tun sie das ja jetzt. Wäre wirklich an der Zeit!

In 2 Wochen werden wir es wissen....ob nVidia aus der Kritik gelernt hat!

seahawk
2008-05-28, 07:44:20
Oh Mann, mal wieder Verschwörungstheorie die 1385683.

Natürlich macht man das nicht um die Kunden zu verärgern. Das sind einfach Abwägungen zwischen Kosten und zu erwartenden Mehrverkäufen.

Denn auch wenn man die Technik im Griff hat, kostet es Geld und Zeit(!) das in neue Chips zu integrieren und es macht die Chips auch noch komplexer, was bei HighEnd Chips immer problematisch ist. Die Stabilität und Ausbeute wird dadurch auch nicht besser.

Ich hoffe dringend, dass durch das aktuelle weltweit ansteigende Energiebewustsein dieses Verhalten jetzt ändert.

Dann kann es NV gegenwärtig nicht im Performance-Desktopbereich. Das ist eine bewußte Entscheidung war ist wahrscheinlich, aber für den kunden trotzdem ein Nachteil und für ATI ein Vorteil.

Der hohe 2D Verbrauch ist einfahc nicht mehr zeitgemäß.

Grestorn
2008-05-28, 07:52:24
Eine Generation vorher hat ATI alle Rekorde gebrochen was die Leistungsaufnahme angeht - auch im 2D. Ihr tut ja so, als wäre nVidia seit Jahren der einzige, dessen Produkte nicht wirklich energiebewusst arbeiten.

Mr. Lolman
2008-05-28, 07:59:46
auch im 2D

Nö: http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_7.html#sect0

Schlammsau
2008-05-28, 08:01:15
Eine Generation vorher hat ATI alle Rekorde gebrochen was die Leistungsaufnahme angeht - auch im 2D. Ihr tut ja so, als wäre nVidia seit Jahren der einzige, dessen Produkte nicht wirklich energiebewusst arbeiten.

Deswegen war die HD2900XT auch nur ein halbes Jahr am Markt! Was ATi an diesem Chipo falsch gemacht hat, keine Ahnung, aber die Stromaufnahme war unter aller Sau!
Die HD2600 war schon wesentlich genügsamer und Stand in Sachen Stromverbrauch ihren Konkurrenten in nichts nach!

AnarchX
2008-05-28, 08:01:39
Nö: http://www.xbitlabs.com/articles/video/display/radeon-x1900xtx_7.html#sect0

Ging wohl eher darum:
http://www.xbitlabs.com/articles/video/display/radeon-hd2900pro_4.html#sect0
;)

Betrunken_schreiben_rulez
2008-05-28, 08:14:28
Erschreckend, was für eine Resonanz so ein sinnbefreiter Poll hier auslöst.

Na ja, aber es zeigt auch, wie leicht sich so eine dumme Heerschar von Fanboys mittlerweile von den Marketingleuten, die sicherlich in den gängigsten Foren mitlesen, steuern lässt. Mit diesem Thread habt ihr bei NVidia und Ati sicherlich für manche vor Lachen vollgepinkelte Hose gesorgt und dem Bild des "mündigen" Verbrauchers voll entsprochen. Respekt!

Ectoplasma
2008-05-28, 08:23:42
JO!

@Grestorn und Schlammsau. Wollt ihr nicht mal so einen eigenen Gladiatoren-Thread aufmachen? Wird bestimmt echt lustig.

MuLuNGuS
2008-05-28, 09:08:57
is ok,

man braucht sich ja nur einmal zu informieren.

autohersteller verkaufen ja auch immer den selben scheiss auf 4 rädern.
®

gbm31
2008-05-28, 09:23:09
[x] interessiert mich nicht


ich kaufe meine karten nicht nach dem namen. wer das macht, dem ists eh egal, was er wirklich kauft.


und schlammsau, deine pro amd/ati einstellung in ehren (bin ja selber so einer, trotz der blau/grünen hardware zur zeit), aber deine stimmungsmache in allen (!) deinen beiträgen der letzten 2 monate geht mir langsam ziemlich auf den keks.

Gast
2008-05-29, 20:29:36
Ich finde die Namenspolitik auch sehr dürftig. Warum hat NV eigentlich nicht mit dem G92(?) in der 8er Generation schon die 9er Gen eingeleutet? Für mich als HalbDau wäre das irgendwie einleuchtender gewesen.

Wolfram
2008-05-29, 21:14:01
Daß Marketingnamen mit der Realität wenig zu tun haben, ist ja nichts neues. Siehe Geforce 4 MX aka Geforce 2 MX Reloaded. Siehe Verbatim-Rohlinge. Siehe Audi A3. Das mag man verwerflich finden oder nicht. Es ist aber weder Nvidias Erfindung noch ihre Spezialität.

[x] Egal

Matrix316
2008-05-29, 21:35:55
nein, finde es nicht so gut!

Die 8800GT hätte von Anfang an einen anderen Namen haben müssen. Genauso wie die neue 8800GTS mit 512 MB. Beide hätten entweder ne 50 hinten oder eine 9 vorne haben sollen.

Aber eine ganz andere Frage: Funktioniert denn SLI mit einer 8800GT und 9800GT? :D

Gast
2008-05-29, 21:59:59
Wayne! Mit erscheinen der HD4xxx ist der G92 Endgültig weg vom Fenster! :P

Zephyroth
2008-05-29, 22:24:46
[x] interressiert mich nicht

Es war von nVidia offenbar eine Marketing Entscheidung, da sie der HD3870 und der 3850 nichts entgegenzusetzen hatten. Der G92 (der wohl ursprünglich nur eine 9xxx-Karte hätte werden sollen) wurde dann eben auf 8800er's eingesetzt.

Das ist zwar verwirrend aber dennoch verständlich. Für einen Normaluser wird's wurscht sein, ob die 8800GT und die 9800GT identisch sind. Für die Freaks unter uns ist es eigentlich auch irrelevant, obwohl hier am meisten geschriehen wird.

Ich meine was soll's. Diejenigen die es wissen sollen sich eine 8800GT holen, die ein paar Euros billiger ist als die 9800GT mit dem Wissen, das das Ding die gleiche Leistung wie eine 9800er hat.

Grüße,
Zeph

Wolfram
2008-05-29, 22:48:01
nein, finde es nicht so gut!

Die 8800GT hätte von Anfang an einen anderen Namen haben müssen. Genauso wie die neue 8800GTS mit 512 MB. Beide hätten entweder ne 50 hinten oder eine 9 vorne haben sollen.
Hehe... Du siehst es also genau andersherum: Daß sie zuviel Understatement betrieben haben... ;)

HD-Ronny
2008-05-29, 23:43:17
[x] interessiert mich nicht

erstaunlich das sowas soviel feedback erhält....

puntarenas
2008-05-30, 00:59:20
Hehe... Du siehst es also genau andersherum: Daß sie zuviel Understatement betrieben haben... ;)
Foul! ;D

Majestic
2008-05-30, 09:53:36
Eigendlich interssierts mich nicht wirklich. Wenn NV dann auch die Perfomancekarten der neuen Generation(GT200) wieder so günstig(wie die 8800GT oder bei ATI eben die HD38X0)anbieten kann bin eher froh und gönne NV die Einnahmen.

Schlammsau
2008-05-30, 16:53:18
Aber eine ganz andere Frage: Funktioniert denn SLI mit einer 8800GT und 9800GT? :D

Eine berechtigte Frage! Geht das? Wenn die 8800GT demnächst ausläuft, haben potenzielle SLi Nutzer ein Problem an Karten zu kommen!?

EcHo
2008-05-31, 14:16:07
[X] Egal, ich kaufe nach Preis und Daten. Das der Name nichts aussagt, weiß doch mitterweile jeder.

Hauwech
2008-05-31, 16:39:47
Deswegen war die HD2900XT auch nur ein halbes Jahr am Markt! Was ATi an diesem Chipo falsch gemacht hat, keine Ahnung, aber die Stromaufnahme war unter aller Sau!
Die HD2600 war schon wesentlich genügsamer und Stand in Sachen Stromverbrauch ihren Konkurrenten in nichts nach!

Sorry, aber das ist einfach Quatsch was du da schreibst.

Es ist das gleiche Spiel wie bei R520 und R580. R520 kam, genau wie der R600, zu spät während R580 planmäßg kam wobei ATI mit dem RV670 sogar das Glück hatte, dass dieser schon im ersten Anlauf fehlerfrei lief und somit noch früher als geplant kam.

L.ED
2008-05-31, 18:24:47
Das mag ja durchaus so sein und zugegeben mich damit bisher weiter auch nicht befasst, nach außen hin sah das diesmal aber noch anders aus, so das man sich durchaus Vorstellen könne das das schnelle Ableben des R600 und Aufleben des R670, durch Intervention von AMD bei/in ihrer frisch eingekauften Tochter!?

Im Endeffekt konnte man von AMD seiten eh nichts mehr machen denn der R600 war schon in der Pipe und zwar so wie er war und musste dann halt nun auch so raus. Und das es gerade für AMD nun leicht Peinlich werden könnte, als bis zu dem Zeitpunkt noch Stromspar Primus stand auch schon fest und auch das das so nicht geht!

Denn man hatte und vertrat bereits ein gewisses Image und ich Denke der R670 wurde dann genau das was auch AMD sich Vorstellte und zukünftig mit seinem Laden (wenn denn) in Verbindung gebracht sehen möchte?

Trotz allem Innovation und Technisch auf der Höhe und unterm Strich rein objektiv, sehe ich auch die HD3x Linie gegenüber der GF8/GF9 Serien als das führende Produkt!

Sie hat im Grunde alles (was wirklich relevant oder so nebenher noch wichtig bzw. nicht unwichtig), auf der Habenseite und nur Performance-technisch um dem Maximalbereich es einwenig krankt/krankte. Wobei in letzter zeit ja zu Beobachten das sie anscheint aufholen also k.a. und wer weiß ob da das letzte Wort schon gesprochen!? :|


Noch was direkt zum Topic:
Empfinde dessen was Nividia da treibt als Grenzwertig bzw. bin schon der Meinung das es unter arglistige Täuschung verbucht werden könne!? Das ist einfach keine Art mehr (ab bestimmt Punkt muss einfach Schluß sein, ist auch ne Frage des Prinzips!), auch jetzt allgemeiner bezogen auf die gesamte Branche wo nun wirklich auch mal wieder der Verbraucherschutz verstärkter dieser Tage auf dem Plan treten müsste/sollte! ^^

aths
2008-05-31, 22:45:53
Daß Marketingnamen mit der Realität wenig zu tun haben, ist ja nichts neues. Siehe Geforce 4 MX aka Geforce 2 MX Reloaded. Siehe Verbatim-Rohlinge. Siehe Audi A3. Das mag man verwerflich finden oder nicht. Es ist aber weder Nvidias Erfindung noch ihre Spezialität.

[x] EgalDamit ist es aus meiner Sicht trotzdem nicht egal.

Ich glaube auch nicht, dass sich Nvidia einen Gefallen damit tut. Ja, wahrscheinlich fallen einige Leute rein und kaufen eine Karte deren Namen gut klingt, anstelle eine Karte der Konkurrenz. Wahrscheinlich bekommen auch viele dieser Leute nicht mit, dass die Leistung oder 3D-Bildqualität oder das Featureset (Direct3D-Compliance) nicht dem entspricht, was der Name suggeriert. Allerdings dürfte es auch Leute geben, die enttäuscht sind – und dann via Meinungsverbreitung zur Produktpalette der Firma quasi Rache üben wollen.

Wolfram
2008-05-31, 22:57:54
Damit ist es aus meiner Sicht trotzdem nicht egal.

Ich glaube auch nicht, dass sich Nvidia einen Gefallen damit tut. Ja, wahrscheinlich fallen einige Leute rein und kaufen eine Karte deren Namen gut klingt, anstelle eine Karte der Konkurrenz. Wahrscheinlich bekommen auch viele dieser Leute nicht mit, dass die Leistung oder 3D-Bildqualität oder das Featureset (Direct3D-Compliance) nicht dem entspricht, was der Name suggeriert. Allerdings dürfte es auch Leute geben, die enttäuscht sind – und dann via Meinungsverbreitung zur Produktpalette der Firma quasi Rache üben wollen.
Die Frage wäre halt- aus Nvidias Sicht- welcher Effekt überwiegt. Was sie auch selbst nicht quantifizieren können werden.

Ich meine allerdings auch, daß sich der "Betrug am Kunden" in Grenzen hält, solange das Preis/Leistungs-Verhältnis stimmt, die 9800GT also nicht teurer als die 8800GT ist.

deekey777
2008-05-31, 23:43:11
aths/Wolfram: Lest mal diesen Thread -> http://forum.beyond3d.com/showthread.php?p=1160601#post1160601

Majestic
2008-06-01, 09:17:49
Der Name ist eigendlich nur unglücklich gewählt. Die gesamte Namensstruktur bei Nvidia ist im moment leider für den Popo. Und wer Grafikkarten nur nach dem Namen kauft ohne sich vorher in etwaigen Hardwaretest schlau zu machen ist eh sehr schlecht beraten. Ich will hier keine Lanzefür irgendwelche Hersteller brechen, doch ich meine dass ganze wird hier wirklich etwas aufgebauscht.

C.D.B.
2008-06-01, 10:09:12
[X] nein, der Laden verarscht uns nach Strich und Faden

Ich konnte NVidia noch nie ab. Immer und immer wieder diese durchweg fragwürdige Methoden, für die "Marketing" als Ausrede bei viel zu vielen Usern durchkommt, ja sogar für gut befunden wird. Irrsinn! Die jetzt durchgeführten Umlabelungen zeigen wieder einmal nachdrücklich die wahre Klasse von NVidia! Man, wird mir übel ...
Und, nein, ATI ist auch nicht frei von Fehltritten ... aber eindeutigst weit von NVidiaischen Machenschaften entfernt!

man liest sich, bye
ein überzeugter NVidia-Gegner ;)

ZilD
2008-06-09, 13:18:34
so kurz vor dem start der 260 und 280 eher sinnlos.
ausserdem finde ich das layout der eigentlich interessanten 9800gx² total bescheuert.
die verstaubt sehr schnell und ist anfällig.
bis auf die 9800 gx² ist der refresh sinnfrei und die 9800gx² ist wie gesagt layoutmässig ein ziemlicher müll.

Matrix316@pause
2008-06-09, 13:46:55
Hehe... Du siehst es also genau andersherum: Daß sie zuviel Understatement betrieben haben... ;)
Mit der neuen 512 MB 8800GT und 8800 GTS schon. Diese waren ja deutlich schneller als die alten 8800 GTS Karten. Jetzt allerdings die 8800GT quasi nur mit hybrid SLI als total neue 9800 GT rauszubringen ist etwas lächerlich. Von einer "9800 GT" erwarte ich mehr Shader, mehr MHz, mehr Power. Also das was die 8800GT im Vergleich zur alten 8800GTS geboten hat. ;) Wobei so viel mehr wars ja auch nicht, so dass eine 8900GT/GTS auch gereicht hätte. Oder halt 8850 GT/GTS.

Jetzt nachträglich das Umlabeln zu machen ist schon etwas lächerlich.

Einen echten Sprung zur 9800 zu rechtfertigen, dafür bräuchte es eigentlich schon grundegende Neuigkeiten, wie z.B. im neuen GT200 Chip kommen sollen. DAS wäre eine würdige "Geforce 9".

Gast
2008-06-09, 15:00:04
gibt es die "neuen" alten karten nun endlich mal? ich konnte jedenfalls noch keine finden ;)