PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 8800 GT wird als 9800 GT neu aufgelegt


Schlammsau
2008-05-25, 11:34:47
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/geforce_8800_gt_9800_gt/
Das bereits in der Vergangenheit durchgezogene Prozedere von Nvidia wird auch in naher Zukunft fortgesetzt. Nachdem zuletzt die GeForce 8800 GS unter der Bezeichnung GeForce 9600 GSO neu aufgelegt wurde, erwischt es mit der GeForce 8800 GT in Kürze den populärsten Vertreter der G92-Familie........

Odal
2008-05-25, 11:43:20
was? der erste april is doch längst vorbei...

das kann doch nicht deren ernst sein...weder DIE shrink noch höherer Takt noch sonstwas...haargenau die 88GT als 98GT verkaufen? LOL?

soll ich mir jetzt nen 98GT Bios draufflashen um nen "Hardwareupgrade" zu machen?

Matrix316
2008-05-25, 11:47:15
Die spinnen die nvidianer. Warum haben sie die Karte net gleich als 9800 GT rausgebracht?

=Floi=
2008-05-25, 11:49:16
so bekommt man eben ein schnitt zwischen den abschaltbaren karten und den nicht abschaltbaren

bevor hier noch welche ausflippen, seit froh über die 8800GT und jammert nicht über die 9800GT!

Adam D.
2008-05-25, 11:57:17
Das ist echt unverschämt, das kann man nicht anders sagen. Wenn immerhin schon der G92b drin stecken würde, aber nein, lieber noch alte G92 umlabeln :usad:

Sonyfreak
2008-05-25, 12:10:17
Hat es nicht einmal geheißen, dass die 9800GT zuerst noch mit 65nm Chips ausgestattet, in Zukunft dann aber mit 55nm Kernen ausgeliefert wieder?

mfg.

Sonyfreak

Adam D.
2008-05-25, 12:14:22
Ja, so sieht's ja auch aus, aber dann sollen sie halt verdammt nochmal so lang warten, bis der 55nm-G92b fertig ist und nicht schon vorher anfangen, die 8800GT einfach mal 9800GT zu nennen.

Gast
2008-05-25, 12:19:26
was regt ihr euch eigentlich so auf? ist doch scheißegal ob auf der karte nun 8800, 9800 oder hanswurst draufsteht, die inneren werte zählen.

Adam D.
2008-05-25, 12:22:31
was regt ihr euch eigentlich so auf? ist doch scheißegal ob auf der karte nun 8800, 9800 oder hanswurst draufsteht, die inneren werte zählen.
Ich reg mich einfach über diesen völlig bekloppten Schritt auf. Das ist reinste Kundenverarsche (und ja, dieses Mal ist es das). Klar, die Leute, die sich informieren, interessiert der Name nicht, aber ich hätte zumindest erwartet, dass man noch einen kleinen Nutzen aus einer 9800GT zieht, was sich jetzt als falsch herausgestellt hat.

Schlammsau
2008-05-25, 12:32:49
ja.....so kann man noch einmal die Verkaufszahlen pushen!

Ronny G.
2008-05-25, 12:35:56
positiv zu sehen ist:
alle mit ner 8800GT haben jetzt zum günstigen Kurs die gleiche Technik wie sie auch in der 9800GT steckt

negativ ist das alle unwissenden mit der 9800GT kräftig verarscht werden, in form von nem sicherlich höheren Preis als die der 8800GT.

In meinen augen hat NV verpaßt den G92-Karten von anfang an den richtigen Namen zu geben, 88er geht da einfach nicht.

LovesuckZ
2008-05-25, 12:36:10
Ich reg mich einfach über diesen völlig bekloppten Schritt auf. Das ist reinste Kundenverarsche (und ja, dieses Mal ist es das). Klar, die Leute, die sich informieren, interessiert der Name nicht, aber ich hätte zumindest erwartet, dass man noch einen kleinen Nutzen aus einer 9800GT zieht, was sich jetzt als falsch herausgestellt hat.

Hm, wie werden den Kunden verarscht, wenn es die gleiche Karte mit gleicher Leistung ist? :confused:

K4mPFwUr$t
2008-05-25, 12:37:59
man suggeriert den kunden troz gleicher technik mehr leistung.
sicherlich wird es ein paar deppen gehen die von der 88GT auf die 98GT wechseln.

Adam D.
2008-05-25, 12:39:29
Hm, wie werden den Kunden verarscht, wenn es die gleiche Karte mit gleicher Leistung ist? :confused:
Der Name impliziert defintiv Verbesserungen, das war ja bei der 9800GTX auch nicht anders. Aber ohne G92b ist das Ding einfach bescheuert, weil man bei der 8800GT und 9800GT genau das selbe kriegt (scheiß auf TSLi). Leicht paradox, oder nicht?

Unyu
2008-05-25, 12:39:41
sicherlich wird es ein paar deppen gehen die von der 88GT auf die 98GT wechseln.
Die haben es nicht anders verdient.

Wie kann man fürs gleiche Geld mehr erwarten (bis auf die 3 Features, die GF9 mitbringt)?

LovesuckZ
2008-05-25, 12:40:17
man suggeriert den kunden troz gleicher technik mehr leistung.
sicherlich wird es ein paar deppen gehen die von der 88GT auf die 98GT wechseln.

Hä? Wie kann ein name mehr Leistung suggerieren, wenn die Karte die exakt selben Leistungsdaten hat? :confused:
Wer nach Name kauft, kann garnicht verarscht werden. Alle anderen können sich anhand des Kartons einen Eindruck bilden. Und sollten die Karten ähnlich teuer sein, wird auch niemand verarscht.
Also einfach den Ball flach halten.

AnarchX
2008-05-25, 12:42:54
Wird wohl mit Hybrid-SLI-Unterstützung kommen, was den Namen doch rechtfertigt. ;)

Wobei in Asien schon eine Zotac 8800 GT aufgetaucht ist, welche die für H-SLI nötigen Bauteile auf der Platine hat.

K4mPFwUr$t
2008-05-25, 12:43:01
ein name kann mehr leistung suggerieren.
und wir reden nicht von leuten die hier im forum rumhängen und relativ auf dem laufenden sind.
es gibt genug leute dich meinen die zahl sagt viel aus.

und was auf dem karton steht verstehen die meisten ja auch nicht einmal.
höchstens war der hersteller so frei und druckt ein paar sinnfreie, verzerrte balken von 3d murks ab.

also einfach den ball flach halten, es ist verarsche ... punkt.

Ronny G.
2008-05-25, 12:47:58
Hä? Wie kann ein name mehr Leistung suggerieren, wenn die Karte die exakt selben Leistungsdaten hat? :confused:
Wer nach Name kauft, kann garnicht verarscht werden. Alle anderen können sich anhand des Kartons einen Eindruck bilden. Und sollten die Karten ähnlich teuer sein, wird auch niemand verarscht.
Also einfach den Ball flach halten.

warum sollte NV die 9800GT zum ähnlichen Preis wie bei der 8800GT verkaufen? Natürlich wird die nicht unerheblich teurer sein.

Unyu
2008-05-25, 12:49:28
und wir reden nicht von leuten die hier im forum rumhängen und relativ auf dem laufenden sind.
Und die sollen einfach in den Laden maschieren, 130€ ausgeben und glauben die 9800GT sei schneller als die 8800GT daneben für 130€?

LovesuckZ
2008-05-25, 12:51:56
warum sollte NV die 9800GT zum ähnlichen Preis wie bei der 8800GT verkaufen? Natürlich wird die nicht unerheblich teurer sein.

Weil es kaum teurer geht. Die 9800GTX geht doch auch schon fast aus unter 200€ zu.
Und wenn beide nebeneinander existieren, dann gibt es auch keine Verarsche.

_DrillSarge]I[
2008-05-25, 12:57:40
Und wenn beide nebeneinander existieren, dann gibt es auch keine Verarsche.
die gesamte gf9-reihe ist, im vergleich zur gf8, verarsche ;)

Unyu
2008-05-25, 13:02:04
I[;6528820']die gesamte gf9-reihe ist, im vergleich zur gf8, verarsche ;)
Echt?
8600GTS -> 9600GT

Wie viel schneller ist die nochmal? :eek:

K4mPFwUr$t
2008-05-25, 13:03:22
sowohl HD3000 als auch GF9 ist kundenverarsche.

wenn man generell den weg gehen würde aus jedem refresh eine neue generation zu machen, wären wir wohl schon bei HD9000 und GF15.

LovesuckZ
2008-05-25, 13:11:35
I[;6528820']die gesamte gf9-reihe ist, im vergleich zur gf8, verarsche ;)

Na, die 9800GTX hat Hybrid-Sli. Wer sich einem Phenom kauft, kann hier sehr viel Strom sparen und hat wesentlich mehr Leistung als bei der Konkurrenz.

Schlammsau
2008-05-25, 13:12:22
sowohl HD3000 als auch GF9 ist kundenverarsche.

wenn man generell den weg gehen würde aus jedem refresh eine neue generation zu machen, wären wir wohl schon bei HD9000 und GF15.

Zum hunderttausendssten mal....die 3xxx hat viele Vorteile gegenüber der 2xxx Reihe! Das einzige was man ATi bei der 3xxx bemängeln kann, ist die fast nicht vorhandene Mehrperformance! Das ist aber auch das einzige!
Um die hälfte reduzierter Stromverbrauch, niedrigerer Geräuschpegel, weniger Abwärme, höherer Techlevel (DX10.1), besseres Powerplay! Das sind alles Punkte die sie gegenüber der 2xxx verbessert haben!

LovesuckZ
2008-05-25, 13:14:10
Um die hälfte reduzierter Stromverbrauch, niedrigerer Geräuschpegel, weniger Abwärme, höherer Techlevel (DX10.1), besseres Powerplay! Das sind alles Punkte die sie gegenüber der 2xxx verbessert haben!

Gibt es fast alles auch bei NVidia. Nur der Name 8800GT war und ist suboptimal.

_DrillSarge]I[
2008-05-25, 13:15:00
Echt?
8600GTS -> 9600GT

Wie viel schneller ist die nochmal? :eek:
das ist EINE karte.
der rest ist gleich (ist ja eh alles g92; okay 9600gt g94). die 9800er sind zum teil deutlich langsamer (wirklich extreme settings) als die vorgänger. speziell auf 9800gtx - 8800gtx bezogen.
wer eine 8800 ultra/gtx/gt/gts (g92-gts) hat, kann sich die komplette 9er reihe sparen.
ähnlich siehts bei ati aus. nur hat man dort einen deutlich niedrigeren stromverbrauch, d3d10.1 (falls es irgendwann mal was bringt), uvd.

K4mPFwUr$t
2008-05-25, 13:17:11
@schlammsau
auch wenn du es nochmal tausende male wiederholen solltest, wird es nicht richtiger.

du siehst alles durch deine rosa ATI fanboy brille und siehst es als fakt an.
ist dir der name refresh überhaupt bekannt? ein refresh kann mehrere dinge umfassen neben einem reinen shrink.

sicherlich ist für dich der K10 shanghai ein inoffizeller K11 :rolleyes:

PS: bitte lass dir was anderes einfallen als diesen techlevel rotz.

@lovesuckz
man müsste die 8800GT und GTS eher 8900 nennen statt dem kunden mit GF9 eine richtige neue generation zu suggerieren.

LovesuckZ
2008-05-25, 13:17:30
Man muss die 8800GT und GTS-512 als 9er Reihe ansehen. Der name war dumm gewählt. Und wenn dies geschieht, sieht man, dass man viel Leistung erhält.
Die 8800GTX war eben eine Wunderkarte. Etwas, dass nichtmal AMD mit Shrinks und Doppelchip schlagen kann. Aber die 8800GTS-640 wird doch klar von den G92 Karten besiegt.

Schlammsau
2008-05-25, 13:18:19
Gibt es fast alles auch bei NVidia. Nur der Name 8800GT war und ist suboptimal.

Ich habe nie gesagt, dass die GF9 Serie keine Vorteile bringt. Das waren andere!
Nur ich bin nicht damit nicht einverstanden, dass sie ohne jegliche technische Änderung aus einer 8800GT eine 9800GT machen.
Das ist wie wenn man aus nem Golf 4 einfach so einen Golf 5 macht, und allen Leuten sagt, es wäre ein neues Model!

Unyu
2008-05-25, 13:18:32
I[;6528870']das ist EINE karte.
Die 9600GSO ist auch schneller als die 8600GT. ;)
Es gibt eben noch nicht viele GF9.
Die 9500 wird auch die 8500 wegownen.

Und den VP gibts beim G80 auch nicht, sondern erst danach.

LovesuckZ
2008-05-25, 13:20:32
Ich habe nie gesagt, dass die GF9 Serie keine Vorteile bringt. Das waren andere!
Nur ich bin nicht damit nicht einverstanden, dass sie ohne jegliche technische Änderung aus einer 8800GT eine 9800GT machen.
Das ist wie wenn man aus nem Golf 4 einfach so einen Golf 5 macht, und allen Leuten sagt, es wäre ein neues Model!

Die 8800GT hätte 9800GT heißen müssen. Das wird jetzt gemacht. Bekommt sie noch Hybrid-SLI, ist das ganze noch akzeptable. nVidia muss sich jedoch kritik gefallen lassen, warum nicht früher die Karte 9800GT nannte.

_DrillSarge]I[
2008-05-25, 13:22:32
Die 9600GSO ist auch schneller als die 8600GT. ;)
Es gibt eben noch nicht viele GF9.
Die 9500 wird auch die 8500 wegownen.
schön :rolleyes:. möchte auch sein

Und den VP gibts beim G80 auch nicht, sondern erst danach.
beziehst du das jetzt auf die 8600gt? dort gibts einen vp (->g84).

Unyu
2008-05-25, 13:23:48
I[;6528897']
beziehst du das jetzt auf die 8600gt?
Nein.
Auf 8800GTX (High-End) -> 9800GTX (Performance auch am Preis deutlich)

_DrillSarge]I[
2008-05-25, 13:28:55
Nein.
Auf 8800GTX (High-End) -> 9800GTX (Performance auch am Preis deutlich)
das rechtfertigt nun den schritt 8 -> 9?
8800gt/gts-512 haben auch einen uvd. da gleicher chip.
es ist und bleibt einfach chip-recycling.
bei ati (r600 -> rv670) hat man wenigstens das si halbiert ;D

Gast
2008-05-25, 13:31:37
Unyu du zeigst auf CB das du ein Nvidia fanboy bist.

Schlammsau
2008-05-25, 13:32:12
Unyu du zeigst auf CB das du ein Nvidia fanboy bist.

Nicht nur da!

Gast
2008-05-25, 13:39:37
Hm, wie werden den Kunden verarscht, wenn es die gleiche Karte mit gleicher Leistung ist? :confused:

Aber höherer Preis ;)

Na, die 9800GTX hat Hybrid-Sli. Wer sich einem Phenom kauft, kann hier sehr viel Strom sparen und hat wesentlich mehr Leistung als bei der Konkurrenz.

Hää? Phenom und Stromsparen? Lol!

Gast
2008-05-25, 13:40:52
bei ati (r600 -> rv670) hat man wenigstens das si halbiert ;D

Und den Stromverbrauch (bei besserer Leistung) :Up:

Unyu
2008-05-25, 13:41:48
Unyu du zeigst auf CB das du ein Nvidia fanboy bist.
Na wer versteckt sich hier und beschuldigt andere?

I[;6528929']
8800gt/gts-512 haben auch einen uvd. da gleicher chip.
Ja, jetzt wird der Fehler endlich beseitigt, das die 8800GT(S) nicht von von Anfang an GF9800 genannt wurde.

I[;6528929']es ist und bleibt einfach chip-recycling.
Recyceln ist etwas anders, meisnt du nicht? ;)
Recyceln = Müll wieder wiederverwerten, recht abwertend.

Odal
2008-05-25, 13:42:35
Unyu du zeigst auf CB das du ein Nvidia fanboy bist.

imho einer der größten seiner art....der rechtfertigt alles was nv macht
und wenn sie die FX5200 als GF9200 neuauflegen würden

ist mir unbegreiflich wie man sowas hier rechtfertigen kann es ist eindeutig kundenverarsche.....

und nein die meisten käufer wissen noch nichtmal das sowas wie eine GPU existiert geschweige denn kennen sie taktraten shaderprozessoren ROPs TMUs usw. usw.

Sie kaufen einfach eine Grafikkarte und schauen vielleicht noch nach der Speichermenge....aber orientieren sich grob am namen der Grafikkarte

und wenn da eine 9800GT verkauft wird heisst das für sie das sie besser als die 8800gt sein muss

btw. wie hoch stehen die chancen ein 9800gt bios flashen zu können?

nagus
2008-05-25, 13:52:52
das ist einer der gründe warum ich niemals mehr eine nvidia karte kaufen würde. hey wieso hams nicht gleich die gx2 in gt280 umgetauft?

Gast
2008-05-25, 13:54:28
imho einer der größten seiner art....der rechtfertigt alles was nv macht
und wenn sie die FX5200 als GF9200 neuauflegen würden

ist mir unbegreiflich wie man sowas hier rechtfertigen kann es ist eindeutig kundenverarsche.....

und nein die meisten käufer wissen noch nichtmal das sowas wie eine GPU existiert geschweige denn kennen sie taktraten shaderprozessoren ROPs TMUs usw. usw.

Sie kaufen einfach eine Grafikkarte und schauen vielleicht noch nach der Speichermenge....aber orientieren sich grob am namen der Grafikkarte

und wenn da eine 9800GT verkauft wird heisst das für sie das sie besser als die 8800gt sein muss

btw. wie hoch stehen die chancen ein 9800gt bios flashen zu können?
Volle Zustimmung.

Und das ganze wird noch lächerlicher vor dem Hintergrund, dass man neulich versprochen hatte, das Sortiment zu vereinfachen:
http://www.hartware.de/news_44740.html

Wobei, eigentlich rechtfertigt Nvidia hier gleichzeitig die Strategie:

"Wir glauben, für Leute, die GeForce kennen und verstehen, ist es in Ordnung, sie verstehen es"


Tststs. So nach dem Motto, der dumme Kunde muss nur Geforce lesen, dann ist das schon ok.


(Ich vermisse die Zeiten von klaren Produktstaffelungen ala GF4 4200, 4400, 4600)

K4mPFwUr$t
2008-05-25, 13:56:47
du bist auch ein fanboy nagus, da wundert es keinen das du eine nV karte freiwillig anfassen bzw. verbauen würdest.

@schlammsau
du bist auch ein fanboy, das weis hier schon jeder :rolleyes:
das siehst man schon daran das du deine HD3000 bis aufs blut verteidigt.

@odal
und wenn da eine 9800GT verkauft wird heisst das für sie das sie besser als die 8800gt sein muss
seh ich auch so, der name suggeriert was grund auf neues mit mehr leistung.

Unyu
2008-05-25, 13:56:58
imho einer der größten seiner art....der rechtfertigt alles was nv macht
und wenn sie die FX5200 als GF9200 neuauflegen würden
Lüge.


Sie kaufen einfach eine Grafikkarte und schauen vielleicht noch nach der Speichermenge....aber orientieren sich grob am namen der Grafikkarte

Gehts du auch in den Laden und kaufst dir das Produkt, das die größte Werbetafel hat?


(Ich vermisse die Zeiten von klaren Produktstaffelungen ala GF4 4200, 4400, 4600)
Und nicht die ganzen AGP 8x und MX Versionen vergessen. :rolleyes:

LovesuckZ
2008-05-25, 13:58:01
das ist einer der gründe warum ich niemals mehr eine nvidia karte kaufen würde. hey wieso hams nicht gleich die gx2 in gt280 umgetauft?

Hm, weil sie den Namen ändern? ;D
Was ist eigentlich mit den neuen Karten? Keine neuen Features und neuer Name? Da wird sich Odal ja tierisch aufregen. :P

K4mPFwUr$t
2008-05-25, 13:58:14
@Unyu
er vieleicht nicht, aber der normale mensch ja!
das ist der unterschied zwischen den nicht fanboys hier und den leute da draußen.
das sollte man nicht vergessen.

LovesuckZ
2008-05-25, 13:59:21
Und wie wird er verarscht? Die 9800GT könnte Hybrid-SLI haben, somit ist es keine Kundenarschung mehr.

Schlammsau
2008-05-25, 14:00:40
Und wie wird er verarscht? Die 9800GT könnte Hybrid-SLI haben, somit ist es keine Kundenarschung mehr.

Oh doch.....gerade deswegen. Gleiche Hartware aber nV lässt die 8800GT Käufer aussen vor, obwohl es technisch möglich wäre!
Alls 8800GT Besitzer würde ich mir jetzt richtig verarscht vorkommen!

K4mPFwUr$t
2008-05-25, 14:01:46
oh ja, hyprid-SLI :rolleyes:

wieviele leute gibt es außerhalb von hardwareforen denen das was sagt?
abgesehen das jeder sicherlich ein NV chipset sein eigen nett + IGP.

ganz großes kino :rolleyes:

LovesuckZ
2008-05-25, 14:03:03
Das ist doch egal. Wer sagt, dass die r600 Karten nicht auch D3D10.1 können? Die Geforce 7 hatte auch keine neuen Features und nur mehr Speed. Und das TS-AA war eine Softwaresache.

Ich gehe davon aus, dass man für Hybrid-Power auch die Karte physikalisch anpassen muss.

Nakai
2008-05-25, 14:05:11
Wow, hier sieht man wieder, wie rot bzw. grün einige hier im Forum sind.

Die Geforce 7 hatte auch keine neuen Features und nur mehr Speed. Und das TS-AA war eine Softwaresache.


Und die 9800GT hat das?


mfg Nakai

AnarchX
2008-05-25, 14:06:51
Ich gehe davon aus, dass man für Hybrid-Power auch die Karte physikalisch anpassen muss.
Offenbar schon:
http://www.pcpop.com/doc/0/296/296765.shtml

Und zudem bleibt offen, ob das hier schon eine finale 9800 GT ist, immerhin soll diese mit 650/975-1000MHz daherkommen.

Im Endeffekt macht die 9800 GT, nach 9800GTX und 9600GSO, den Brei doch auch nicht mehr fett. ;)

Odal
2008-05-25, 14:08:42
Gehts du auch in den Laden und kaufst dir das Produkt, das die größte Werbetafel hat?

da ich mich mit hardware ausreichend beschäftige informiere ich mich da schon gründlich genug...

wenn ich mir z.b. aber einen staubsauger kaufen gehe hab ich auch keinen schimmer was da besonders toll und gut ist...da nehm ich einfach das modell was ordentlich watt hat und nicht zu teuer ist....

da mags aber auch wieder leute geben die mir stundenlang vorträge halten können warum das eine model jetzt besser als das andere ist
mir ist es egal ob der nun 10dB höheres betriebsgeräusch hat nicht die perfekte ergonomie oder sonstwas...ich sauge zu selten staub als das es mir wichtig wäre und ich mich jetzt wochenlang da reinlesen würde...

und genau so geht es mit dem normalverbraucher und hardware...der hat keine zeit/lust/interesse sich wochenlang in das thema reinzulesen bevor er mal einkaufen geht...

der geht in den laden sieht ne nvidia 8800GT und ne 9800GT nebeneinander und denkt sich das letztere ja deutlich besser sein muß

Unyu
2008-05-25, 14:16:12
Man muss sich doch nicht wochenlang damit beschäftigen.
Eine Hardwarezeitschrift für 5€ und man weiß bescheit. ;)

Wem das zuviel ist, gut da kann man nichts machen, dem scheinen seine 130€ nicht so wichtig zu sein.

Gast
2008-05-25, 14:41:08
Der Otto-Normal-User sieht aber gar nicht Veranlassung dazu, noch groß in Zeitschriften zu recherchieren.

Wenn er im Laden steht und 9800GT neben 8800GT sieht, ist ja wohl klar dass er erstere nimmt. Woher sollte er wissen, dass da etwas faul sein könnte? Und kommt bloß nicht auf die Idee, der Verkäufer wüsste es. ;)


Nochmal, wie bereits gesagt wurde: eigentlich muss man da nicht lang rumdiskutieren, es Kundenverarsche seitens NVidia, Punkt.

Und nein, ich bin kein "ATI-Fanboy". Das Neuauflegen/Umbenennen von Produkten ist leider Mode, auch ATI hat da schon einkiges gemacht (X1300/1500/1600 Geschichten). Nur NVidia macht diesmal mit der GF8/GF9 Reihe besonders dreist...

Gast
2008-05-25, 15:01:46
Wenn er im Laden steht und 9800GT neben 8800GT sieht, ist ja wohl klar dass er erstere nimmt. Woher sollte er wissen, dass da etwas faul sein könnte? Und kommt bloß nicht auf die Idee, der Verkäufer wüsste es. ;)

Ja und? Wenn die Karte auch nicht mehr kostet als die 88GT, wo soll dann die Verarsche sein?

K4mPFwUr$t
2008-05-25, 15:16:23
@unyu
du verlangst scheinbar sehr viel von einem kunden von saturn und medie markt ;D

Heelix01
2008-05-25, 17:02:03
Ja und? Wenn die Karte auch nicht mehr kostet als die 88GT, wo soll dann die Verarsche sein?

Nur das MM und co. die 9800GT mit sicherheit etliche Euro teuerer Anbieten werden als eine 8800GT ....

Matrix316
2008-05-25, 17:09:05
Man muss die 8800GT und GTS-512 als 9er Reihe ansehen. Der name war dumm gewählt. Und wenn dies geschieht, sieht man, dass man viel Leistung erhält.
Die 8800GTX war eben eine Wunderkarte. Etwas, dass nichtmal AMD mit Shrinks und Doppelchip schlagen kann. Aber die 8800GTS-640 wird doch klar von den G92 Karten besiegt.
Was war daran ein Wunder? Die Karte war einfach nur besser ausgestattet: 384 Bit, 786 MB, 128 Unified Shader...noch Fragen? ;)

Die 9xxxer Reihe ist von der Sicht her ein massiver Rückschritt.

Gast
2008-05-25, 17:14:08
Nur das MM und co. die 9800GT mit sicherheit etliche Euro teuerer Anbieten werden als eine 8800GT ....

Mal davon ab dass das eine reine Spekulation von dir ist, in dem Fall wäre nicht nVidia sondern der MM der Abzocker...

Gast
2008-05-25, 17:58:21
naja ich seh halt schon in den foren die threads auftauchen:

"Wieso ist meine 9800gt nicht schneller als meine alte 8800gt"?

Die gelbe Eule
2008-05-25, 17:59:12
Ich verstehe nicht warum MM oder Saturn Kundne verarscht werden sollten. Die meisten wissen nichtmal was von einer 8800GT wenn die 9800GT im Laden liegt und dann ist die 8800GT normal auch nicht mehr kaufbar. Würde man beide bewerben und der 9800GT mit besserer Leistung den Vorzug geben, weil sie irgendwo neu ist, ist das wohl was anderes. Nur das passiert eben nicht.
Aber was sorgt Ihr Euch auf einmal um diese Kunden, welche eh als DAUs von Euch verschrien werden. Informieren kann sich jeder, gerade wenn man 120€ ausgibt. Es steht somit jedem frei zu wissen was gekauft wird. MM und Saturn leben übrigens eher von Komplett PCs, welche kaum über eine 50€ Karte hinaus gehen.

Gast
2008-05-25, 18:08:10
Wer seine GraKa bei MM oder Saturn kauft und dabei bis zu 200% mehr ausgibt als über Geizhals ist sowieso ned mehr zu retten.

Die gelbe Eule
2008-05-25, 18:25:10
Ich kenne keine 250€ GT bei Saturn. Atelco oder KM haben auch Läden und das nicht gerade wenige, die wissen schon das man nicht jeden Kunden verarschen kann und diese eben auch nicht gerade uninformiert in den Laden gehen.

deekey777
2008-05-25, 18:35:07
Wer seine GraKa bei MM oder Saturn kauft und dabei bis zu 200% mehr ausgibt als über Geizhals ist sowieso ned mehr zu retten.
Gestern bei MM:
Ein netter Typ (vielleicht etwas über dreißig Jahre) möchte eine Ersatz für seine X1950XT holen. Der MM-Mitarbeiter hat keine Ahnung, aber eine schöne Tabelle, wo Grafikkarten nach Preis-Leistung aufgelistet sind.
Ich versuche mich zu beherrschen und warte ab. Irgendwann drückt der Mitarbeiter dem vermeintlichen Käufer eine 8600GT, dieser geht mit ihr ein paar Meter weiter und schaut sie an. Ich frage ihn, was die kostet. 139 Euro.
Ich zu ihm, warum er sich eine Grafikkarte nicht online kauft. Er meinte, er will jetzt was in den Händen haben. Aber da fiel mir ein, dass bei Promarkt eine Umtausch-8800GT für 180 Euro zu kaufen ist. Teuer? Klar, aber immernoch ein besseres Angebot. Und im heutigen Prospekt von Saturn ist eine 9600GT 512 für 109 Euro zu finden...

Weitere MM-Angebote:
HD3850 512 für 189 Euro, HD2900XT für 299 (für einen Fünfziger hätte ich sie genommen) usw. Aber viel schlimmer ist die mangelhafte Beratung (in etwa eine 8600GT reicht für einen 22-Zöller mit einer Auflösung von 1280x1024...).

Gast
2008-05-25, 18:36:57
Nur das MM und co. die 9800GT mit sicherheit etliche Euro teuerer Anbieten werden als eine 8800GT ....

der MM-kunde kauft sich sowieso keine karte vom schlage einer 8800/9800er sondern maximal eine 9600/8600. wer beim MM grafikkarten kauft ist eh selbst schuld, da werden die dinger oft noch 1 jahr nach der einführung zum einführungspreis verkauft.

jemand der eine 8800/9800 kauft weiß auch genau was er kauft (oder lässt sich zumindest von jemandem beraten der es weiß)

Gast
2008-05-25, 18:43:30
Ich reg mich einfach über diesen völlig bekloppten Schritt auf. Das ist reinste Kundenverarsche (und ja, dieses Mal ist es das).


wo wird ein kunde in irgendeiner weise benachteiligt? (was ja sein muss um von verarsche zu sprechen)

im gegenteil, der kunde wird eher profitieren, da die "alten" 8800er noch schneller günstiger werden um platz für ihre eigene neuauflage zu schaffen.

man bekommt also das gleiche für weniger geld, kann dem kunden nur recht sein.

der einzige verlierer an der sache ist nvidia, woran sie aber selbst schuld sind, man hätte einfach von anfang an die karten ihrem codenamen entsprechend als 9xxx verkaufen sollen.

K4mPFwUr$t
2008-05-25, 18:45:58
die wenigsten MM mitarbeiter haben ahnung von dem gebiet.

vor einer weile als die X800pro noch recht aktuell war.
straßenpreis bei den händlern um die ~200 bei MM war sie für 399 zu haben.

auch sonst ist die beratungsqualität recht mau und nicht nur bei computertechnik.

und genau darin liegt mit das problem, die 9800GT suggeriert eine höhere leistung.

XtraLarge
2008-05-25, 22:33:48
Imho schließen hier einige zu sehr von sich auf andere.

Ich habe die Entwicklung jetzt mal ~ 4 Wochen nicht wirklich verfolgt und schon sieht man eine 9800GT. Der Logik halber denkt man natürlich gleich an ein leistungstärkeres Nachfolgermodell. Schaut man sich dann die Daten an (was die meisten DAUs nicht tun), dann wird man da schon ordentlich ernüchtert. Gemessen am Gesamtmarkt sind 3DC-User nunmal Mangelware. Dementsprechend uninformiert rennen sie auch gleich in die Fänge eines "besonders kompetenten" MM-Mitarbeiters...

Wo wäre das Problem gewesen, die Karte einfach nur 8800GT v2.0 zu nennen? Das funktioniert bei Mainboards von zB Gigabyte doch auch?

Schlammsau
2008-05-26, 08:51:17
nV macht sichs immo ziemlich einfach. nahezu jede GF9 Karte ist entweder "nur" eine umgelabelte oder eine nur leicht veränderte GF8.
Sie verkaufen "alte" Technik unter neuem Namen. ATi hat das in der Vergangenheit auch gemacht, aber das rechtfertigt das hier nicht.
Aber die HD3xxx Serie zähle ich devinitiv nicht dazu, da sie den Karten einen neuen Namen geben mussten, da die HD2900XT ja mehr als einen schlechten Ruf hatte und im RV670 ja schon erhebliche Verbesserungen eingeflossen sind. Nur leider kam die HD3xxx Serie über ein Jahr zu spät!

=Floi=
2008-05-26, 10:29:07
der G92 ist kein rückschritt, sondern nur die antwort auf die preisschlacht. Tombman hat auch in einem post schon mal angeschnitten, dass damit auch die basis mit DX10 und ausreichend leistung viel stärker gepusht wurde und unterm strich war das für den pc-bereich wesentlich besser, als einen teuren und 40% schnelleren refresh zu bringen!

Anarchy-HWLUXX
2008-05-26, 10:37:35
der G92 ist kein rückschritt, sondern nur die antwort auf die preisschlacht. Tombman hat auch in einem post schon mal angeschnitten, dass damit auch die basis mit DX10 und ausreichend leistung viel stärker gepusht wurde und unterm strich war das für den pc-bereich wesentlich besser, als einen teuren und 40% schnelleren refresh zu bringen!
Inzwischen bekommt man verammt schnelle HW für unter 100€ (9600GT, für die ganze 17-19" fraktion sehr feines Teil), vor nem Jahr war das noch undenkbar ...

Gast
2008-05-26, 11:34:40
Jap, einzig die G94-Karten sind wirklich ein Vortschritt da sie
stromsparend arbeiten und auch Kühler bleiben. Diese Umlabeln ist aber dennoch nur verarsche.

Moralelastix
2008-05-26, 11:53:39
Gestern bei MM:
..............

Was machst du im Blödmarkt? Zum Vergnügen?
Ich dachte so gut informierte Leute würden Meilen und Meilen um sowas herumfahren?:biggrin:

Wenn ich allein schon daran denke bekomm ich n`'Ausschlag.

reunion@work
2008-05-26, 12:54:35
Hm, wie werden den Kunden verarscht, wenn es die gleiche Karte mit gleicher Leistung ist? :confused:

Gleiche Karte, gleiche Leistung, neuer Name, höherer Preis. Die Frage ist hoffentlich nicht dein ernst.

=Floi=
2008-05-26, 13:01:41
die 9600GT hat auch ihre schwächen und im bereich bis 150€ bekommt man mit der 8800GT und ein bischen oc schon 8800GTX power für verdammt wenig geld
der ganze bereich zwischen 100-200€ ist sehr interesannt geworden

die 8800GT/GTS kann auch locker einen 22" befeuern

Gast
2008-05-26, 13:02:12
Gleiche Karte, gleiche Leistung, neuer Name, höherer Preis. Die Frage ist hoffentlich nicht dein ernst.

wer sagt dass der preis höher wird? was er aufgrund der aktuellen marktsituation garnicht werden kann.

PET
2008-05-26, 13:10:37
Wenn ich jetzt schnell 8800GT Karten horte und die dann mit einer 9800GT Packung verkaufe und diese als solche auch anpreise, kriege ich mit 100%iger Sicherheit eine Anzeige wegen Betrugs. Mal abgesehen von dem Rest der illegal wäre ohne Gewerbeschein.

Wenn ein großer grüner Konzern das so betreibt, ist es Firmenpolitik oder was?
Und einige Fanboys hier, finden das auch noch gut...

Sorry aber dann haben es die Nivida-Fans nicht anders verdient als verarscht zu werden, wer da nicht aufschreit und alternativen kaufen wird, selbst schuld.

Das ist Kundenverarsche zum Quadrat!:mad:

Gut das ich mir noch keine Nvidia-Karte gekauft hab, das würde mich jetzt wirklich aufregen, solchen Aktionen auch noch Vorschub zu leisten.


Fehlt nur noch das AMD da gleichzieht um "marktfähig" zu bleiben..


Verdient wäre ein Absatzeinbruch von ca. 20%, dann würden die so einen Mist sicher nicht mehr versuchen. Aber dank den ganzen Honks die auf eine 9800GT wechseln werden, wird das leider nicht passieren.

Gast
2008-05-26, 13:47:27
wer sagt dass der preis höher wird? was er aufgrund der aktuellen marktsituation garnicht werden kann.

die amd-fanboys sagen sowas ;D ;D ;D

Neocroth
2008-05-26, 15:34:31
ich bin auch nicht besonders begeistert von nVidias Versuch, umgelabelte 8800er Karten als 9xxx Serie neu aufleben zu lassen.

Meiner Ansicht nach wird der Kunde irregeführt - die Anzahl derer, die sich vorm Kauf einer Grafikkarte wirklich ausführlich informieren, ist als eher gering einzuschätzen. Die meisten vertrauen entweder auf
1.) den Verkäufer oder einen anderen Berater oder
2.) oberflächlichen Produktbeschreibungen (Produktname, Speicherausstattung)

Gerade bei Grafikkarten hat es sich irgendwie im Namensschema eingebürgert, dass eine höhere Nummer Mehrleistung bringt. Gut, dies war beim Wechsel der 2xxx-Serie auf die 3xxx-Serie von ATi nicht der Fall, da haben die Kritiker schon Recht. Nur haben in diesem Fall die neu aufgelegten Karten meiner Meinung nach andere Vorteile gebracht, die die Neubenennung durchgehen lassen - kurz genannt seien hier nur DX10.1, 55nm, UVD, verbesserte Kühllösungen und niedrigerer Stromverbrauch. In diesem Fall hier wird allerdings eine existierende Karte praktisch umgelabelt und der Verbraucher in die Irre geführt. Gerade ähnliche hohe Nummern in den Modellbezeichnungen konnte man früher allgemein betrachtet als Indiz sehen, dass man mit dieser Karte auch Mehrleistung erhält (vergleiche 6800GT, 7800GT, 8800GT). Dies ist nun aber nicht unbedingt der Fall bzw. die Mehrleistung wird marginal ausfallen. Für den Ottonormalverbraucher sind aber die zusätzlichen Features wie Hybrid-SLI und Triple-SLI uninterssant, wage ich einmal zu behaupten. Der uninformierte Spieler, der auf seiner Kiste einfach nur World of Warcraft spielen will, hat keine Ahnung davon.
Ich selbst kenne jemanden, wo dies 100% der Fall ist. Er besitzt bereits eine 8800GT und ich verwette eine Kiste Bier darauf, dass er nicht weiß, dass er mit einer 9800GT kaum Mehrperformance zu erwarten hat. Gerade bei Spielern, die ein begrenztes Budget haben, sind jedoch die GT-Karten sehr beliebt, ich erinnere mich hier an die 6800GT, die ich wohl öfter als jede andere Karte in so manchem Hobby-Gamer-PC verbaut gesehen habe.

Das Argument, dass auch ATi alten Wein in neuen Schläuchen verkauft hat (ich denke hier an die Radeon 9000-9200), rechtfertigt auch nicht, dass nVidia dies nun auch tut. Ein Vorposter hat es bereits sehr treffend beschrieben, so dreist hat es noch nicht einmal ATi versucht.

Was mir aber VOLLENDS unverständlich bleiben wird, ist warum nVidia nicht das alte Namensschema mit 8900/8950 beibehalten hat - so hätte man am guten Ruf der 8000er Serie angeknüpft. Aber anscheinend wollte man auf Biegen und Brechen eine neue Modellreihe herausbringen - mir wie bereits gesagt, vollends unverständlich, denn damit schafft man höchstens Konkurrenz mit den eigenen alten Karten, nicht mit denen von ATi.

LovesuckZ
2008-05-26, 15:42:58
nV macht sichs immo ziemlich einfach. nahezu jede GF9 Karte ist entweder "nur" eine umgelabelte oder eine nur leicht veränderte GF8.
Sie verkaufen "alte" Technik unter neuem Namen. ATi hat das in der Vergangenheit auch gemacht, aber das rechtfertigt das hier nicht.
Aber die HD3xxx Serie zähle ich devinitiv nicht dazu, da sie den Karten einen neuen Namen geben mussten, da die HD2900XT ja mehr als einen schlechten Ruf hatte und im RV670 ja schon erhebliche Verbesserungen eingeflossen sind. Nur leider kam die HD3xxx Serie über ein Jahr zu spät!

AMD ist doch das gleiche. Sry, aber eine HD3xxx rechtfertig der rv670 nicht.

Crow1985
2008-05-26, 16:22:42
Dein Vorposter hat schon gut aufgezählt was an der HD3xxx alles neu ist, das rechtfertigt für mich auch solch einen Sprung geradeso zugegebenermaßen.
Bei der 9800GT wird aber einfach eine schon existierende Karte genommen, welche umgelabelt wird und als neue Karte verkauft wird (ok H- und T- SLI gibts nun auch), das ist imo schon ein bißchen was anderes.

Das würde ich schon als Kundenverarsche ansehen und natürlich wird die 9800GT einen ganzen Zacken teurer. Zwischen der 8800GTS und 9800GTX liegen auch mehr als 50€, das wird bei 8800GT <-> 9800GT nicht anders sein.

LovesuckZ
2008-05-26, 16:27:38
Echt? Wieso sollte Hybrid-SLI nicht ausreichen?
Die 3xxx Karten bieten bis auf 10.1 nichts neues. Komisch, hier ist dann ein neuer Name aber angebracht.

Crow1985
2008-05-26, 16:29:34
UVD (das ist was, was auch dem Normalo was bringt), Verbrauch, 55nm, Geräuschpegel, DX10.1
Hat Neogroth doch nun schon alles aufgezählt.

Unyu
2008-05-26, 16:32:00
VP hat die 9800 auch, die G80 8800 nicht.
Stromverbauch: check niedriger
Geräuschpegel: da war G80 schon gut, spricht nicht für AMD
.1: unnötig

LovesuckZ
2008-05-26, 16:33:52
Sry, aber bis auf 10.1 hat das alles auch die 2600XT.
Und Verbrauch, 55nm, UVD und Geräuschpegel sind wohl kaum Merkmale für eine neue Generation.
Denn 55nm und Hybrid-SLI auf 9800GT Seite sind dann ja eine Rechtfertigung für den neuen Namen.

/edit: Wieso wird sich hier eigentlich nicht aufgeregt, dass die 3650 auch eine Verarschung am Kunden ist?

/edit: Oh und wieso regt sich eigentlich niemand auf, dass die 9600GT keine neuen Features gegenüber der 8600GTS hat? Nur Leistung ist kein Grund für einen neuen Namen.

/edit: Wo wir schon dabei sind: nVidia wird die 8600GT bald in 9500GT umtaufen. Das sollte gleich mit angeprangert werden!!!!!!

Neocroth
2008-05-26, 16:56:10
Sry, aber bis auf 10.1 hat das alles auch die 2600XT.
Und Verbrauch, 55nm, UVD und Geräuschpegel sind wohl kaum Merkmale für eine neue Generation.
Denn 55nm und Hybrid-SLI auf 9800GT Seite sind dann ja eine Rechtfertigung für den neuen Namen.

Wenn die von dir aufgezählten Punkte nicht für eine neue Modellbezeichnung reichen, dann verdient die 9800GT ihren Namen noch weniger als die 3000er Modelle.
Der Die der 9800GT meines Wissens nach anfangs nicht in 55nm gefertigt werden. Bleibt nur mehr Hybrid-SLI, welches meiner Meinung nach derzeit kein Kaufkriterium darstellt, solange es nur mit nVidia-Chipsätzen funktioniert - ich will nicht beschnitten sein in der Wahl meiner Hardware, entweder ein Feature funktioniert überall, oder es ist für mich nicht kaufentscheidend (übrigens der selbe Grund, warum ich SLI/CF nicht befürworte).

BTW @Unyu: es geht im Wesentlichen um die 8800GT, welche mit PureVideo2 sehr wohl einen UVD integriert hat.

Was ich noch anmerken möchte: die Shaderversion 3.0 wurde damals auch für unnötig empfunden (erinnere mich an diverse Diskussionen in Hardware-Foren zum Thema X8xx-Serie vs. 6xxx-Serie). Dazu kann ich nur sagen - starte Bioshock ohne Shadermod auf einer X800XT. Soviel zum Argument, DX10.1 sei unnötig.

(und dem Argument, der Leistungssteigerung bei Assassins Creed unter DX10.1 liege ein Fehler im PostProcessing zugrunde - die reine Wahrheit wissen wohl nur Ubisoft und nVidia)

/edit - im Bezug auf LovesuckZ

1. weil sich der Preis zwischen 2600 und 3650 nur unwesentlich geändert hat
2. wenn nur Leistung kein Argument für eine neue Modellreihe wäre, gäbe es weder die 7xxx-er Reihe noch die X8xx-Reihe

Schlammsau
2008-05-26, 17:05:06
@Unyu und LZ ihr windet euch wie die Aale aber es hilft trotzdem nichts!
Ihr seit mitunter die letzte Bastion und würdet sogar noch nVidia verteidigen, wenn sie euch ins Gesicht scheissen würden! ;)
Nein, nVidia ist nicht Schuld.....das haben wir verdient und lecker ist es auch noch! ;D

LovesuckZ
2008-05-26, 17:06:57
Wenn die von dir aufgezählten Punkte nicht für eine neue Modellbezeichnung reichen, dann verdient die 9800GT ihren Namen noch weniger als die 3000er Modelle.
Der Die der 9800GT meines Wissens nach anfangs nicht in 55nm gefertigt werden. Bleibt nur mehr Hybrid-SLI, welches meiner Meinung nach derzeit kein Kaufkriterium darstellt, solange es nur mit nVidia-Chipsätzen funktioniert - ich will nicht beschnitten sein in der Wahl meiner Hardware, entweder ein Feature funktioniert überall, oder es ist für mich nicht kaufentscheidend (übrigens der selbe Grund, warum ich SLI/CF nicht befürworte).

Leute wollen kein Vista benutzen. Schon verliert das einzige ernstzunehmende Argument für die Namensänderung an Bedeutung. Was du willst, sollte keine Rolle bei deiner Argumentation spielen.

Was ich noch anmerken möchte: die Shaderversion 3.0 wurde damals auch für unnötig empfunden (erinnere mich an diverse Diskussionen in Hardware-Foren zum Thema X8xx-Serie vs. 6xxx-Serie). Dazu kann ich nur sagen - starte Bioshock ohne Shadermod auf einer X800XT. Soviel zum Argument, DX10.1 sei unnötig.

10.1 ist eher das SM2.x als SM3.0.


(und dem Argument, der Leistungssteigerung bei Assassins Creed unter DX10.1 liege ein Fehler im PostProcessing zugrunde - die reine Wahrheit wissen wohl nur Ubisoft und nVidia)

Wieso? AMD hat ihn doch entwickelt. Die könnten dazu etwas sagen.


1. weil sich der Preis zwischen 2600 und 3650 nur unwesentlich geändert hat
2. wenn nur Leistung kein Argument für eine neue Modellreihe wäre, gäbe es weder die 7xxx-er Reihe noch die X8xx-Reihe

Zwischen 3650 und 2600 liegt nur 10.1. Leute, die kein Vista benutzen, werden hier klar verarscht. Das muss angeprangert werden. Eröffnest du einen neuen Thread?

Unyu
2008-05-26, 17:13:45
es geht im Wesentlichen um die 8800GT, welche mit PureVideo2 sehr wohl einen UVD integriert hat.
Ja, es war ein Fehler die 8800GT nicht von Anfang an 9800GT zu nennen, das wird jetzt nachträglich bereingt, als Zusatz gibts noch neue Features, um eine einheitliche Featurepalette inerhalb einer Generation zu haben.
AMD war ja nicht zimpelrich gleich die HD3 raus zu hauen, da ist nvidia doch kundenfreundlicher nach der Argumentation.
Warum wird HD4 eigentlich nicht auch noch in die HD3 Reihe gequetscht oder HD5 im Winter?


Nein, nVidia ist nicht Schuld.....das haben wir verdient und lecker ist es auch noch! ;D
Wo genau ist das Problem einer Karte, die neue Features hat und nicht teurer ist?
Ich habe damit kein Problem, richtig.

Crow1985
2008-05-26, 17:15:31
Die HD3650 ist aber großteils günstiger, als die HD2600XT zu bekommen.

Wo genau ist das Problem einer Karte, die neue Features hat und nicht teurer ist?
Sie wird aber wohl genauso viel kosten, sieht man ja schon an der 9800GTX, die ist ein ganzes Stück teurer, als die 8800GTS.

Schlammsau
2008-05-26, 17:18:34
Wo genau ist das Problem einer Karte, die neue Features hat und nicht teurer ist?
Ich habe damit kein Problem, richtig.

Neue Features? Hybrid SLi ist das einzige was "neu" ist! :|
Stimmt.....einen neuen Aufkleber wird die Karte dann wohl auch bekommen.....wenn das mal kein Grund ist eine neue Generation zu Gründen

Ich baue meinem Golf 4 auch kein anderes Lenkrad ein und verscherbel ihn dann als einen Golf 5! :mad:

Neocroth
2008-05-26, 17:20:50
Leute wollen kein Vista benutzen. Schon verliert das einzige ernstzunehmende Argument für die Namensänderung an Bedeutung. Was du willst, sollte keine Rolle bei deiner Argumentation spielen.

Ich bin der Kunde, meine Meinung ist genauso viel wert wie deine oder die eines jeden anderen hier. Zu glauben, dass Vista nicht benutzt wird, ist kurzsichtig. Auf kurz oder lang werden die Zocker auf Vista wechseln - genau die selbe Diskussionen gabs doch auch damals mit WindowsXP vor gut 7 Jahren. XP braucht kein Mensch, wo es heute steht, sehen wir ja.


10.1 ist eher das SM2.x als SM3.0.

Falsch. DX10.1 bringt einige Vorteile, Shader Model 4.1, 4x FSAA Support, 32-bit FP - die MSDN hilft (http://msdn.microsoft.com/en-us/library/bb694530(VS.85).aspx)


Wieso? AMD hat ihn doch entwickelt. Die könnten dazu etwas sagen.

Kaum. Ich denke nicht, dass sie Einsicht in den Source der Engine haben.


Zwischen 3650 und 2600 liegt nur 10.1. Leute, die kein Vista benutzen, werden hier klar verarscht. Das muss angeprangert werden. Eröffnest du einen neuen Thread?

Leute, die kein Vista benutzen, werden nach deiner Logik auch verarscht, wenn sie sich eine DirectX 10-Karte kaufen.

LovesuckZ
2008-05-26, 17:21:45
Ja, dafür ein neues Radio und einen Schaltknüppel. :ugly:

Unyu
2008-05-26, 17:24:23
Sie wird aber wohl genauso viel kosten
Dann ist es doch nicht schlimm.

sieht man ja schon an der 9800GTX, die ist ein ganzes Stück teurer, als die 8800GTS.Liegt an der fehlenden Konkurrenzkarte.

Neue Features?
Hybrid SLI.
Später dann 55nm und ein Preiskampf, sofern AMD mal Kartenpreise senkt, hat ja beim billigen RV670 nicht funktioniert, im Vergleich zum G94.

LovesuckZ
2008-05-26, 17:28:58
Ich bin der Kunde, meine Meinung ist genauso viel wert wie deine oder die eines jeden anderen hier. Zu glauben, dass Vista nicht benutzt wird, ist kurzsichtig. Auf kurz oder lang werden die Zocker auf Vista wechseln - genau die selbe Diskussionen gabs doch auch damals mit WindowsXP vor gut 7 Jahren. XP braucht kein Mensch, wo es heute steht, sehen wir ja.

Deine Argumentation ist weak. Weder wird Vista so populär wie XP noch wird Hybrid-SLI nur für AMD zur Verfügung stehen. Entweder ist 10.1 und Hybrid-SLI ein Argument für die Namensänderung oder keines von beiden.
Bist du für 10.1, musst du auch für Hybrid-SLI sein. Jedoch eins auszuschließen, ist subjektive Argumentation und die ist mir viel zu schwach.

Falsch. DX10.1 bringt einige Vorteile, Shader Model 4.1, 4x FSAA Support, 32-bit FP - die MSDN hilft (http://msdn.microsoft.com/en-us/library/bb694530(VS.85).aspx)

So auch nVidia mit SM2.a bzw. AMD mit PS2.b. Beide waren Verbesserung gegenüber SM2.0. 10.1 ist nicht annährend vergleichbar mit dem SM3.0.


Kaum. Ich denke nicht, dass sie Einsicht in den Source der Engine haben.


Oh, lies dir den Kommentar von AMD zu der Sache nochmal durch.

Leute, die kein Vista benutzen, werden nach deiner Logik auch verarscht, wenn sie sich eine DirectX 10-Karte kaufen.

Richtig. Wieso kritisierst du also nicht die Namensgebung der 3650? Die bietet nämlich bis auf 10.1 keine weiteren Vorteile gegenüber der 2600XT.

Neocroth
2008-05-26, 18:05:14
Deine Argumentation ist weak. Weder wird Vista so populär wie XP noch wird Hybrid-SLI nur für AMD zur Verfügung stehen. Entweder ist 10.1 und Hybrid-SLI ein Argument für die Namensänderung oder keines von beiden.
Bist du für 10.1, musst du auch für Hybrid-SLI sein. Jedoch eins auszuschließen, ist subjektive Argumentation und die ist mir viel zu schwach.

Der Gros der Spieler wird definitiv umsteigen, soviel ist sicher. Gerade die hartgesottenen, die sich Highend-Hardware kaufen, werden sich Vista spätestens dann zulegen, wenn das nächste Blockbuster-Spiel einen DX10 only-Renderpath hat.

Zum Marktanteil von Vista: ich nehme hier mal die Page-Impressions von ComputerBase zum Vergleich - die Zielgruppe von CB sind für mich in erster Linie Zocker und Enthusiasten, der Ottonormal-Verbraucher wird eher selten auf CB zu finden sein - nur dem ist sowohl HybridSLI als auch DirectX10.1 egal.

Gut 20% Anteil bei CB, und das im Januar 2008 (http://www.computerbase.de/news/software/betriebssysteme/windows/2008/januar/windows_vista_100_millionen/)

Darum wage ich die Behauptung aufzustellen, dass es mehr potentielle DX10.1 User gibt (Vista mit SP1) als User mit nForce 790i Chipset (ich hab keine Ahnung ob der 780i auch HybridPower unterstützt).

Du magst schon Recht haben, MOMENTAN ist DirectX 10.1 ein Checklisten-Feature, nur das war das ShaderModel 3 auch einmal.


So auch nVidia mit SM2.a bzw. AMD mit PS2.b. Beide waren Verbesserung gegenüber SM2.0. 10.1 ist nicht annährend vergleichbar mit dem SM3.0.

Und wieso? Weil längere Shader-Instruktionen angeboten werden? Ausserdem besteht DX10.1 nicht nur aus dem SM4.1.


Oh, lies dir den Kommentar von AMD zu der Sache nochmal durch.


Ein offizielles Kommentar von AMD zum DX10.1 Renderpath bei AC kenne ich leider nicht, es wäre nett, wenn du mir einen Link zukommen lassen könntest :smile: .
Es entzieht sich einfach meiner Logik, warum man einen fertigen Renderpath wegpatcht, wenn es ein Bug sein soll - da hätte man genausogut das ATi-Team kontaktieren können und denen die Arbeit aufhalsen.


Richtig. Wieso kritisierst du also nicht die Namensgebung der 3650? Die bietet nämlich bis auf 10.1 keine weiteren Vorteile gegenüber der 2600XT.

Du hast mich hier falsch verstanden, ich meinte jede DirectX 10-fähige Karte, beispielsweise die 8800GTX. Wird der Kunde verarscht, weil die Hardware DirectX10 capable ist, sein OS aber nicht? Wenn ja, dann müssten sich jetzt viele, viele 8800-Besitzer und Radeon HD-Käufer in den Hintern beißen :wink:

Gast
2008-05-26, 18:47:26
UVD (das ist was, was auch dem Normalo was bringt), Verbrauch, 55nm, Geräuschpegel, DX10.1


VP2 hat der G92 auch (G80 hatte nur VP1), stromverbrauch ist ebenfalls deutlich niedriger, damit je nach kühllösung auch der geräuschpegel

bis auf DX10.1 bringt der G92 gegenüber dem G80 so ziemlich das gleiche wie der RV670 gegenüber dem R600.

das alles gab es bei ati auch schon in der HD2xxx-serie, zwar nicht im topmodell, aber mit der HD2600.


wenn eine neue modellreihe angemessen ist, dann auf beiden seiten, oder eben auf keiner. NV hatte wohl ursprünglich gedacht, dass keine neue modellreihe angemessen ist und wurde dann überrascht, dass ATI das mit ähnlich wenig änderungen doch für angemessen hält.

dieser "fehler" wird nun korrigiert, halte ich persönlich zwar für lächerlich, tut aber keinem weh.

LovesuckZ
2008-05-26, 18:51:28
Der Gros der Spieler wird definitiv umsteigen, soviel ist sicher. Gerade die hartgesottenen, die sich Highend-Hardware kaufen, werden sich Vista spätestens dann zulegen, wenn das nächste Blockbuster-Spiel einen DX10 only-Renderpath hat.

Das sind dann nVidia-Käufer, oder?


Darum wage ich die Behauptung aufzustellen, dass es mehr potentielle DX10.1 User gibt (Vista mit SP1) als User mit nForce 790i Chipset (ich hab keine Ahnung ob der 780i auch HybridPower unterstützt).

Darum geht es nicht. Du sagst, dass Hybrid-SLI nur auf AMD beschränkt wäre. Das stimmt jetzt, aber nicht auf die Zukunft.


Und wieso? Weil längere Shader-Instruktionen angeboten werden? Ausserdem besteht DX10.1 nicht nur aus dem SM4.1.

SM3.0 bot wesentlich mehr als nur längere Shader.

Ein offizielles Kommentar von AMD zum DX10.1 Renderpath bei AC kenne ich leider nicht, es wäre nett, wenn du mir einen Link zukommen lassen könntest :smile: .
Es entzieht sich einfach meiner Logik, warum man einen fertigen Renderpath wegpatcht, wenn es ein Bug sein soll - da hätte man genausogut das ATi-Team kontaktieren können und denen die Arbeit aufhalsen.

"Ubisoft are at the forefront of technology adoption, as showcased with the fantastic Assassin’s Creed title. In this instance our developer relations team worked directly with the developer and found an area of code that could be executed more optimally under DX10.1 operation, thus benefiting the ATI Radeon HD 3000 Series."
http://www.rage3d.com/articles/assassinscreed/index.php?p=5


Du hast mich hier falsch verstanden, ich meinte jede DirectX 10-fähige Karte, beispielsweise die 8800GTX. Wird der Kunde verarscht, weil die Hardware DirectX10 capable ist, sein OS aber nicht? Wenn ja, dann müssten sich jetzt viele, viele 8800-Besitzer und Radeon HD-Käufer in den Hintern beißen :wink:

Nein, denn die 8800GTX bietet wesentlich mehr Vorteile gegenüber der 7900GTX. 10.0 ist ein Schmankel gewesen - nicht das einzig richtige Argument.

Gast
2008-05-26, 18:51:45
Meiner Ansicht nach wird der Kunde irregeführt - die Anzahl derer, die sich vorm Kauf einer Grafikkarte wirklich ausführlich informieren, ist als eher gering einzuschätzen. Die meisten vertrauen entweder auf
1.) den Verkäufer oder einen anderen Berater oder
2.) oberflächlichen Produktbeschreibungen (Produktname, Speicherausstattung)


die kaufen sich auch keine 8(9)800er sondern eine 8600 oder allerhöchstens eine 9600, bzw. auf ati-seite eine HD36xx.

wer sich eine karte dieser klasse kauft ist informiert.

selbst wenn nicht, soll Mr. DAU doch angeben können: "haha, ich hab eine 9800, du hast nur eine 8800", wird damit irgendjemandem schaden zugefügt?
nein, es ist also müßig darüber zu diskutieren, es ist wie es ist, hilft niemandem, schadet aber auch niemandem.

reallord
2008-05-26, 19:08:23
Ich finde das Ganze wirklich ungünstig gelöst und schliesse mich den vorherigen Posts an, dass nVidia die "neuen" Karten von Anfang an der 9er Reihe hätte zuordnen müssen.
Die 8er Reihe ist doch für "Normalos" sowieso unübersichtlich finde ich.
8800GTS-320, 8800GTS-640, 8800GTS-G92. <-- Das ist doch auch schon unschön.
Die 9800GTX ist ja auch "nur" nen G92 mit geringfügig höheren Taktraten gegenüber der 8800GTS-G92. Ah ja und halt Hybrid-SLI.

Aber Hybrid-SLI jetzt als neues!! Feature anzugeben, und damit dann die Namensänderung zu rechtfertigen finde ich schon unverschämt. Wenn ich das jetzt mal so zusammenfasse:
9800GT wird (zunächst) nur ne umgelabelte 8800GT bei (vermutlich) gleichen Taktraten und gleicher Fertigung. Das heisst für mich, dass die "alten" 8800GTs auch alle Hybrid-SLI könnten, wenn nVidia denn wollte.

Unyu
2008-05-26, 19:09:03
werden sich Vista spätestens dann zulegen, wenn das nächste Blockbuster-Spiel einen DX10 only-Renderpath hat.
Das wird nicht so bald der Fall sein.
Niemand verliert gerne Kunden, so ein Spiel könnte nur Microsoft bringen, um Vista zu pushen.

LovesuckZ
2008-05-26, 19:09:51
Aber Hybrid-SLI jetzt als neues!! Feature anzugeben, und damit dann die Namensänderung zu rechtfertigen finde ich schon unverschämt. Wenn ich das jetzt mal so zusammenfasse:
9800GT wird (zunächst) nur ne umgelabelte 8800GT bei (vermutlich) gleichen Taktraten und gleicher Fertigung. Das heisst für mich, dass die "alten" 8800GTs auch alle Hybrid-SLI könnten, wenn nVidia denn wollte.

Und das schließt du woraus?
Genausp gut könnte ich auch sagen, dass die 2900XT 10.1 und bessere Videobeschleunigung könnte, wenn es AMD nur wollte. :rolleyes:

reallord
2008-05-26, 19:31:10
Und das schließt du woraus?
Genausp gut könnte ich auch sagen, dass die 2900XT 10.1 und bessere Videobeschleunigung könnte, wenn es AMD nur wollte. :rolleyes:

Eben aus der Angabe, dass die Karten nur umgelabelt werden. Wenn ich mir ne 8800GT nehme, vom Kühler die Beschriftung kratze, dann nen bunten 9800GT Sticker da drauf klebe und dann sage: Oh Wunder, jetzt hat sie H-SLI.
Dann ist das nen Witz.

Ich geb aber gern zu, das ich da nicht wirklich in der (Hardware-)Materie drinstecke. Wenn nV für die 9800er Karten irgendwelche Änderungen am Layout/Design vornehmen muss und die bisherigen 8800GTs pysisch wirklich kein H-SLI können. Dann hab ich auch keine Probleme mit der Namensänderung.

Die 2900XT hat nen 512er SI und ist noch in 80nm. Das sind dann doch schon mehr Unterschiede zur HD3xxx. Aber ausschliessen, dass die 2900er 10.1 kann, das kann ich nicht. Ich denke aber, das AMD das dann auch beworben hätte.

Unyu
2008-05-26, 19:38:02
Wenn ich mir ne 8800GT nehme, vom Kühler die Beschriftung kratze, dann nen bunten 9800GT Sticker da drauf klebe und dann sage: Oh Wunder, jetzt hat sie H-SLI.
Aber warum denkst du, das das so einfach ist?

Wenn es so wäre hätten Häcker schon längst bei den 8800GTs H-SLI freigeschaltet.

Neocroth
2008-05-26, 19:55:10
Darum geht es nicht. Du sagst, dass Hybrid-SLI nur auf AMD beschränkt wäre. Das stimmt jetzt, aber nicht auf die Zukunft.


Nein, ich wollte damit ausdrücken, dass ich es eher für gerechtfertigt halte, wegen DX10.1 eine neue Modellreihe zu starten als wegen Hybrid-SLI. Wie gesagt, wenn nVidia mit AMD und Intel zusammen arbeiten würde, um Hybrid-SLI auch plattformübergreifend anzubieten, dann wäre Hybrid-SLI ein Kaufargument - in der momentanen Situation ist es eher ein Checklisten-Feature (nice-to-have trifft es vllt. noch besser) als das Killerfeature der 9xxx-Reihe.



http://www.rage3d.com/articles/assassinscreed/index.php?p=5


Eben, genau die hier angesprochene Mehrperformance und die erfolgte Implementierung eines DirectX 10.1 Renderpfades sind die Gründe, warum ich es nicht verstehe, dass der Renderpfad wieder weggepatcht wurde.


Nein, denn die 8800GTX bietet wesentlich mehr Vorteile gegenüber der 7900GTX. 10.0 ist ein Schmankel gewesen - nicht das einzig richtige Argument.

Eben, die 38xx-Reihe bietet auch mehr Features der 2900XT gegenüber als nur DX10.1 - dieses war eben auch nur ein Schmankerl.


/edit

Hybrid-SLI im Nachhinein bei einer 8800GT hinzuzufügen ist eine Illusion. Es mag die selbe GPU auf dem Board pappen, aber eine Grafikkarte besteht aus mehr als nur der GPU. nVidia musste sicherlich das Boardlayout anpassen, um Hybrid-SLI zu realisieren, also gibt es vermutlich keine Möglichkeit, Hybrid-SLI bei einer 8800GT zu nutzen.

Mr. Lolman
2008-05-26, 20:04:16
Aber warum denkst du, das das so einfach ist?


Weil er recht hat. Letztenendes ists ne reine Treibersache.

LovesuckZ
2008-05-26, 21:04:47
Weil er recht hat. Letztenendes ists ne reine Treibersache.

Kannst du es beweisen? Wenn nicht, höre bitte auf zu lügen.

LovesuckZ
2008-05-26, 21:07:59
Nein, ich wollte damit ausdrücken, dass ich es eher für gerechtfertigt halte, wegen DX10.1 eine neue Modellreihe zu starten als wegen Hybrid-SLI. Wie gesagt, wenn nVidia mit AMD und Intel zusammen arbeiten würde, um Hybrid-SLI auch plattformübergreifend anzubieten, dann wäre Hybrid-SLI ein Kaufargument - in der momentanen Situation ist es eher ein Checklisten-Feature (nice-to-have trifft es vllt. noch besser) als das Killerfeature der 9xxx-Reihe.

Ähm, Hybrid-SLI ist heute. 10.1 ist eventuell die Zukunft. Wie kann Hybrid-SLI also weniger bedeutend sein? Sry, aber entweder fängst du an etwas gewichtigeres zu bringen, oder du hörst mit der Abwiegung auf.


Eben, genau die hier angesprochene Mehrperformance und die erfolgte Implementierung eines DirectX 10.1 Renderpfades sind die Gründe, warum ich es nicht verstehe, dass der Renderpfad wieder weggepatcht wurde.


Frag AMD oder Ubisoft. Sonst zeige mir, dass nVidia dafür verantwortlich ist. Aber bitte nicht lügen (okay, hier ist es Verleumdung)- man, dass sage ich zu drei verschiedenen Personen.


Eben, die 38xx-Reihe bietet auch mehr Features der 2900XT gegenüber als nur DX10.1 - dieses war eben auch nur ein Schmankerl.

Bietet auch die 9800GT gegen der 8800GTS640. Das die 8800GT unglücklich benannt ist, habe ich schon geschrieben.

Black-Scorpion
2008-05-26, 21:16:14
Kannst du es beweisen? Wenn nicht, höre bitte auf zu lügen.
Macht es dir Spaß alle die nicht deiner Meinung als Lügner zu bezeichnen?
Das ist ja nicht der erste Beitrag dieser Art.
Oder kannst du beweisen das es nicht so ist?

LovesuckZ
2008-05-26, 21:19:09
Macht es dir Spaß alle die nicht deiner Meinung als Lügner zu bezeichnen?
Das ist ja nicht der erste Beitrag dieser Art.
Oder kannst du beweisen das es nicht so ist?

Ich sehe keine Argumentation für die These von Lolman. Und da er es nur so sagt, kann er auch lügen.

Black-Scorpion
2008-05-26, 21:23:13
Ich sehe keine Argumentation für die These von Lolman. Und da er es nur so sagt, kann er auch lügen.
Kannst du das Gegenteil beweisen?
Du windest dich wie ein Aal in deinen Beiträgen. Ganz egal was einer sagt, du hast einen Kommentar. Will jemand von dir einen Beweis für deine Aussagen bist du weg oder windest dich wieder raus.
Sorry, aber du bist ein Paradebeispiel für ganz miese Diskussionskultur.

Neocroth
2008-05-26, 21:25:35
Ähm, Hybrid-SLI ist heute. 10.1 ist eventuell die Zukunft. Wie kann Hybrid-SLI also weniger bedeutend sein? Sry, aber entweder fängst du an etwas gewichtigeres zu bringen, oder du hörst mit der Abwiegung auf.

Ich will Hybrid-SLI ja nicht schlecht reden, ich befürworte prinzipiell die Entwicklung von stromsparenden Technologien. Aber wenn die Hardwarehersteller nicht zusammenarbeiten, dann wird Hybrid-SLI keine Zukunft haben bzw. ein Nischendasein führen. Da bleibt für DirectX 10.1 zumindest die Gewissheit, dass irgendwann die Hersteller darauf setzen werden, spätestens wenn nVidia mit der GTX 380 (oder wie auch immer) die aktuellste Version der API unterstützt.



Frag AMD oder Ubisoft. Sonst zeige mir, dass nVidia dafür verantwortlich ist. Aber bitte nicht lügen (okay, hier ist es Verleumdung)- man, dass sage ich zu drei verschiedenen Personen.

Ich habe nirgendwo nVidia unterstellt, dass sie Ubisoft dazu gedrängt haben, es herauszupatchen. Was jeder hineininterpretiert, ist dem Leser überlassen. Aber du wirst zugeben müssen, dass es nicht ganz koscher ist.


Bietet auch die 9800GT gegen der 8800GTS640. Das die 8800GT unglücklich benannt ist, habe ich schon geschrieben.

Stimme dir zu, dass die 8800GT und die darauffolgende 8800GTS512 unglücklicht benannt wurde. Hätte man hier konsequent eine neue Benennung durchgeführt, hätte man sich einen Haufen Ärger gespart. So mancher könnte dann die mangelnde Mehrperformance kritisieren - aber die hat es beim Sprung 2900XT - 3870 ja auch nur im begrenzten Maß gegeben. Man hätte also den Kritikern mit einem schielenden Auge auf die Konkurrenz den Wind aus den Segeln nehmen können.

puntarenas
2008-05-26, 21:37:29
Bis jetzt bin ich von Folgendem ausgegangen:

Hybrid-SLI: Die im Chipsatz integrierte GPU kommuniziert mit einer (Low-Cost) Grafikkarte über PCI-E und man hat den Leistungszuwachs und alle Probleme, wie man es von SLI eben gewohnt ist, eine SLI-Bridge wird nicht verwendet . Ab einer gewissen Leistungsfähigkeit der Grafikkarte macht das Zusammenschalten keinen Sinn mehr, da die im Chipsatz integrierte GPU relativ schwach ist. Das ganze ist eine reine Treibergeschichte, Anpassungen am PCB sind nicht notwendeig.

Hybrid-Power: Die Grafikkarte(n) werden im Desktopbereich komplett abgeschaltet, die im Chipsatz integrierte GPU übernimmt die Grafikausgabe. Neben Treiberanpassungen ist auch ein angepasstes PCB notwendig.

Ist das so richtig?

Im Übrigen finde ich die Namensgebung bei Nvidia in letzter Zeit ziemlich unglücklich und das GTX-Label wird bei der kommenden Generation ja schon wieder geschunden. Im Grunde ist es mir aber egal, man kann sich erstens informieren und bekommt zweitens eine angemessene Leistung für den Preis.

interzone
2008-05-26, 21:43:05
Uff...ich beneide Euch nicht um Eure Ausdauer :D

Meiner Meinung nach hat hier Nvidia extrem klug auf den Massenmarkt reagiert und die 8'er-Architektur so weit als möglich zeitlich gestreckt. ATIs(AMDs) Schwäche machte es möglich. Und die 9800GT ist wohl das Sahnehäubchen der aktuellen Marktkonstellation.
So ist das nun einmal, wenn es ein Leistungsmonopol gibt. Der geringe Anteil an "aufgeklärten" Verbrauchern ändert daran gar nichts.
Es bleibt nur zu hoffen, dass sich Nvidia da auch mal wieder verspekuliert und AMD zur Abwechslung einen großen Wurf landet - damit sich wieder etwas bewegt...ansonsten könnte sich nach der nächsten Konsolengeration wirklich ein "Game Over PC-Gaming" herauskristallisieren.

LovesuckZ
2008-05-26, 21:44:46
Ich will Hybrid-SLI ja nicht schlecht reden, ich befürworte prinzipiell die Entwicklung von stromsparenden Technologien. Aber wenn die Hardwarehersteller nicht zusammenarbeiten, dann wird Hybrid-SLI keine Zukunft haben bzw. ein Nischendasein führen. Da bleibt für DirectX 10.1 zumindest die Gewissheit, dass irgendwann die Hersteller darauf setzen werden, spätestens wenn nVidia mit der GTX 380 (oder wie auch immer) die aktuellste Version der API unterstützt.

Weißt du, was Hybrid-SLI ist? :confused:


Ich habe nirgendwo nVidia unterstellt, dass sie Ubisoft dazu gedrängt haben, es herauszupatchen. Was jeder hineininterpretiert, ist dem Leser überlassen. Aber du wirst zugeben müssen, dass es nicht ganz koscher ist.

(und dem Argument, der Leistungssteigerung bei Assassins Creed unter DX10.1 liege ein Fehler im PostProcessing zugrunde - die reine Wahrheit wissen wohl nur Ubisoft und nVidia)

Du unterstellst nVidia etwas. Da muss man nichts hininterpretieren - das ist einfach offensichtlich. Und da AMD mit Ubisoft eng zusammengearbeit hat, hat wohl nVidia nichts damit zu tun.

Neocroth
2008-05-26, 21:57:54
Du unterstellst nVidia etwas. Da muss man nichts hininterpretieren - das ist einfach offensichtlich. Und da AMD mit Ubisoft eng zusammengearbeit hat, hat wohl nVidia nichts damit zu tun.

Es ist und bleibt ein TWIMTBP-Game.
Und dass vermutlich nur nVidia und Ubisoft die Wahrheit kennen, kannst du wohl schwer anzweifeln. Mehr habe ich nicht geschrieben - meine Meinung dazu kannst du herauslesen wie du willst, ich habe sie aber nicht explizit ausgedrückt, um genau so eine Diskussion, wie wir sie jetzt führen, zu vermeiden.

LovesuckZ
2008-05-26, 22:06:18
Es ist und bleibt ein TWIMTBP-Game.
Und dass vermutlich nur nVidia und Ubisoft die Wahrheit kennen, kannst du wohl schwer anzweifeln. Mehr habe ich nicht geschrieben - meine Meinung dazu kannst du herauslesen wie du willst, ich habe sie aber nicht explizit ausgedrückt, um genau so eine Diskussion, wie wir sie jetzt führen, zu vermeiden.

Ich zweifel nichts an. Denn im Gegensatz zu dir, weiß ich die Wahrheit:
Ubisoft hat gesagt, dass nVidia keinen Einfluss auf die Entfernung des Pfades hatte.

Ubisoft spokesman Michael Beadle confirmed to us that Ubisoft's participation in TWIMTBP was strictly a co-marketing deal, and that Nvidia did not pay Ubisoft any money as a result of the deal. He seconded Brown's statement that Nvidia did not influence the decision to remove DirectX 10.1 support from the first patch for Assassin's Creed. Beadle said the decision was made strictly by the game's development team.
http://techreport.com/discussions.x/14707

Ich hoffe doch, dass du dein Posting dementsprechend anpasst.

MadManniMan
2008-05-26, 22:37:33
Ich hoffe doch, dass du dein Posting dementsprechend anpasst.

Und das sagt jetzt genau wieviel aus?

Ich arbeite selbst im Marketing eines Hardwareherstellers - viele Parallelen zwischen den eigentlich Begebenheiten und dem, was nach draußen getragen wird, gibt es nicht gerade.

LovesuckZ
2008-05-26, 22:40:59
Und das sagt jetzt genau wieviel aus?

Ich arbeite selbst im Marketing eines Hardwareherstellers - viele Parallelen zwischen den eigentlich Begebenheiten und dem, was nach draußen getragen wird, gibt es nicht gerade.

Es ist die einzige Aussage, die wir haben. Daran muss sich orientiert werden.

deekey777
2008-05-26, 22:42:19
Echt? Wieso sollte Hybrid-SLI nicht ausreichen?
Die 3xxx Karten bieten bis auf 10.1 nichts neues. Komisch, hier ist dann ein neuer Name aber angebracht.
Die FireStream 9170 und somit jede HD3800 (und wahrscheinlich die gesamte HD3000-Serie) unterstützen die doppelte Genauigkeit, also etwas, was NV bisher nicht bietet (obwohl schon für Ende 2007 angekündigt).

So oder so: Der Name 9800 GT sowie 9800GTX ist und bleibt für eine Grafikkarte mit G92 berechtigt, dagegen waren 8800GTS 512 und 8800GT ein Ausrutscher (wegen der frühen Fertigstellung des RV670).

MikBach
2008-05-26, 22:42:46
Es ist die einzige Aussage, die wir haben. Daran muss sich orientiert werden.
:lol:
Wenn die Politiker uns das Blaue vom Himmel erzaehlen, muessen wir auch daran glauben, weil es keine anderen Meinungen gibt?
Lach weg.;D

MadManniMan
2008-05-26, 22:45:41
Es ist die einzige Aussage, die wir haben. Daran muss sich orientiert werden.

Warum muss sich daran orientiert werden? Was meinst Du, wie viele einzige Aussagen wir raushauen, die nicht gerade das sind, was man bei wahrheitsgemäßer Betrachtung aufrichtig nennen würde?

LovesuckZ
2008-05-26, 22:50:38
Nochmal zu Hybrid-SLI: Sollte die 9800GT es wirklich unterstützen, dann ist es klar gleichwertig zu 10.1.

http://www.firingsquad.com/hardware/nvidia_nforce_780a_chipset/page11.asp

Es funktioniert anscheinend prächtig. Und endlich ist auch SLI und T-SLI kein Stromvernichter mehr beim IDLEN.

Warum muss sich daran orientiert werden? Was meinst Du, wie viele einzige Aussagen wir raushauen, die nicht gerade das sind, was man bei wahrheitsgemäßer Betrachtung aufrichtig nennen würde?

So, du kennst also die Wahrheit? Nein?
Dann hat wohl auch AMD gelogen als sie sagten, sie hätten mit Ubisoft zusammengearbeit.
Fakt ist, dass Ubisoft es klar gegenüber techreport.com gesagt. Und das ist gewichtiger als irgendwelche Unterstellungen gegenüber nVidia.
Jeder kann gerne darlegen, dass der Ubisoftmann gelogen hat. Schafft man es nicht, sollte man selbst nicht an der falschen Behauptung festhalten.

deekey777
2008-05-26, 23:00:05
Der Erwerb eines passenden Mainboards mit dem passenden Chipsatz erhöht natürlich das Ganze auf D3D11.

Gast
2008-05-26, 23:02:23
Lovesuckz wird immer sarkastischer....

LovesuckZ
2008-05-26, 23:03:52
Der Erwerb eines passenden Mainboards mit dem passenden Chipsatz erhöht natürlich das Ganze auf D3D11.

Ich vergaß: Ein Feature, das nirgends eingesetzt wird, dass nichtmal vom einzigen Unterstützer gepusht wird, ist klar höher zu bewerten als die Möglichkeit seine drei diskreten Karten komplett abzustellen. :rolleyes:

/edit: Irgendwie ist es Ironie, dass beides nur unter Vista funktioniert - aber Hybrid-SLI schon ab heute verwendet werden kann.

deekey777
2008-05-26, 23:10:51
Ich vergaß: Ein Feature, das nirgends eingesetzt wird, dass nichtmal vom einzigen Unterstützer gepusht wird, ist klar höher zu bewerten als die Möglichkeit seine drei diskreten Karten komplett abzustellen. :rolleyes:
Blah-Blah...
Fällt dir also nichts mehr ein?

So lange du und weitere Leute nicht einsehen, dass die 8800GT und die 8800GTS 512 nicht so geplant waren, wie NV es lieber hätte, wird diese Diskussion noch sehr, sehr lange sein.
Aber wie gesagt: Ohne den RV670 im November, der nicht nur früher kam als erwartet, sondern auch in der Fertigung kosteneffizienter ist, hätten wir weder die 8800GT noch die 8800GTS 512, sondern eine 8700 oder so (also unter der 8800 GTS 640).

Unyu
2008-05-26, 23:14:32
Weil er recht hat. Letztenendes ists ne reine Treibersache.
Dann müsste es auch auf einer 8800GT(S) funktionieren.

Wo sind die entsprechenden Meldungen?

K4mPFwUr$t
2008-05-26, 23:17:03
wenn man das so machen würde, hätte man ja keine daseins berechtigung für die 9800GT, jedenfalls wenn man nach aussagen von lovesuckz geht :rolleyes:

Odal
2008-05-26, 23:21:29
doch für lovesuckz gilt doch "Nvidia hat immer Recht" denn "NVidia sind die besten"

deekey777
2008-05-26, 23:34:51
doch für lovesuckz gilt doch "Nvidia hat immer Recht" denn "NVidia sind die besten"
Was hätten sie denn machen sollen?
Stell dir vor: Du bist der Chef von NV und musst bei der Versammlung eigene Fehler irgendwie ausbügeln. Die 9800GTX sowie die 9800GT waren von Anfang an geplant und zwar auf der G92-Basis (da ein G90 überflüssig oder nicht ausgereift oder sonst was war). Ich weiß nicht genau, wann die ersten Gerüchte über die vermeintliche 8700 mit 6 CLustern (teildeaktivierter G92) kamen, aber das war wohl der Plan: Da zwischen der 8600GTS und der 8800GTS 640/320 eine riesige Lücke klaffte, sollte diese mit einer 8700 gestopft werden. Die 9-Serie sollte dann Anfang 2008 kommen (zuerst die 9800GTX, dann die 9600GT mit dem G94). Dabei ging man davon aus, dass die Konkurrenz mit dem Nachfolger des R600 - also RV670 - auch zu dieser Zeit fertig wird (die Veröffentlichung der Grafikkarte mit dem RV670 war für Januar 2008 geplant). Nur ging diese Planung nicht auf.
Der RV670 wurde schon als A11 fertig, die Veröffentlichung der HD3800er wurde somit mächtig vorgezogen und zwar auf Mitte November 2007. Gegen diesen Grafikchip hatte man in Satan Clara nichts entgegenzusetzen, denn der G94 war nocht nicht fertig (der übrigens größer als der RV670 ist!). Also ging man finanzielles Risiko ein und strich die 8700 mit einem 6-Cluster-G92 weg und erfand die 8800GT als Gegner für die HD3800er (hier geht es nicht um die Performance!).
Dumm nur, dass die 8800GT (und später die 8800GTS 512) die G80 überflüssig machten (wovon NV genügend hatte), sank die Marge seit der Veröffentlichung.
Mit der 9800GTX und jetzt der 9800GT versucht man die Fehlentscheidungen wieder geradezubiegen, insbesondere was die Finanzen angeht.

Odal
2008-05-26, 23:54:00
nö versteh ich nicht 8800gt hätte 8900gt heissen können 8800gts 512 hätte 8900gts heissen können....und die 9600gt hätte man 8700gt genannt....

einen G92 als 8800gt und nochmal unverändert als 9800gt zu verkaufen wo er sowieso schon nur ein aufguss des G80 Designs ist für mich einfach nur ne frechheit.....

die 9800gtx hat für mich auch keinerlei daseinsberechtigung...nvidia hätte auch bei einführung des g92 wissen müssen das sie bis zum gt200 ausharren müssen um wieder neuere grafikkarten zu verkaufen...

alte sachen umzulabeln und haargenau als neues zu verkaufen ist einfach ne frechheit.....nvidia hatte mit der 88gts nen schnelleren chip als ATIs schnellste GPU und das reicht...solang sie den g92 nicht mit verlust verkaufen haben sie immer noch den mengenvorteil

Unyu
2008-05-27, 00:03:40
nö versteh ich nicht 8800gt hätte 8900gt heissen können
3870 hätte 2970 heißen können.

MikBach
2008-05-27, 00:23:42
3870 hätte 2970 heißen können.
Nö, du hast D3D10.1 vergessen.

Mr. Lolman
2008-05-27, 09:00:13
Hybrid-SLI ist nur im SFR-Mode sinnvoll - und da für diesem Modus treiberseitig ohnehin schon ein Loadbalancing eingebaut wurde, ist der Load entsprechend der GPU-Power halt einfach ungleichmässiger verteilt, als im normalen SLI-Modus.

Außerdem sind die GeForce 8500 GT und die GeForce 8400 GS die einzigen GraKas, für die die GeForce Boost Technology (=SLI mit Onboard GPU und externer GraKa) freigeschaltet ist. Alles andere würde sich aus Sicht des Loadbalancing ohnehin nicht lohnen.



Bei der HybridPower Technology (Abschaltung der GraKa und Nutzung der Onboard-GPU im 2D Betrieb), hingegen braucht man nen SMB und den haben in der Tat erst GF9 GraKas.
Letztenendes ist das aber bloß ein längst überfälliges Stromsparfeature um den vergleichsweise hohen Stromverbrauch einer NV-MB/GraKakombi in den Griff zu bekommen. Schon toll, wie man das marketingtechnisch ausschlachtet und wiedermal alle drauf anspringen :ulol:

Majestic
2008-05-27, 09:50:42
Nö, du hast D3D10.1 vergessen.

Und den serienmäßigen (wahrscheinlichen) Hardwaredefekt der HD2900ér Serie :uclap: Und wenn AMD/ATI dann endlich mal funktionierende und nicht defekte Hardware verkaufen haben sie natürlich auch das Recht dem Kinde einen neuen Namen zu geben.

Schlammsau
2008-05-27, 09:52:53
Und den serienmäßigen (wahrscheinlichen) Hardwaredefekt der HD2900ér Serie :uclap: Und wenn AMD/ATI dann endlich mal funktionierende und nicht defekte Hardware verkaufen haben sie natürlich auch das Recht dem Kinde einen neuen Namen zu geben.

Welchen Defekt meinst du?

gamingforce
2008-05-27, 10:09:49
den Defekt in seinem Hirn:rolleyes:

Daredevil
2008-05-27, 10:22:29
Den Defekt das eine 2900xt mehr einbricht als eine 38xx bei der zuschaltung von AA... :) *ironie*
Früher war die 2900xt echt grausig aber heutzutage hat sich das Blatt ein bisschen gewendet...

*ontopic*
Is natürlich ne logische Schlussfolgerung im was altes nochmal neu aufzusetzen, ich finds Blöd weils man dort halt leicht durcheinanderkommt, ich zwar nicht weil ich mir Reviews anschauen aber das is ein leichtes Leute damit zu verarschen die eben nicht soviel Ahnung haben.

Majestic
2008-05-27, 10:35:00
Den Defekt das eine 2900xt mehr einbricht als eine 38xx bei der zuschaltung von AA... :) *ironie*
Früher war die 2900xt echt grausig aber heutzutage hat sich das Blatt ein bisschen gewendet...

*ontopic*
Is natürlich ne logische Schlussfolgerung im was altes nochmal neu aufzusetzen, ich finds Blöd weils man dort halt leicht durcheinanderkommt, ich zwar nicht weil ich mir Reviews anschauen aber das is ein leichtes Leute damit zu verarschen die eben nicht soviel Ahnung haben.

Ist es denn so viel besser geworden? Ich habe noch die Werte von älteren Reviews im Kopf in denen die HD2900 noch recht ordenlich an Leistung mit AA verlor (im vergleich zur HD38x0). Wenn ja entschuldige ich mich natürlich für den Fauxpas. Vorallen bei der Forum-Jugend (gamingforce).

LovesuckZ
2008-05-27, 10:49:48
Bei der HybridPower Technology (Abschaltung der GraKa und Nutzung der Onboard-GPU im 2D Betrieb), hingegen braucht man nen SMB und den haben in der Tat erst GF9 GraKas.
Letztenendes ist das aber bloß ein längst überfälliges Stromsparfeature um den vergleichsweise hohen Stromverbrauch einer NV-MB/GraKakombi in den Griff zu bekommen. Schon toll, wie man das marketingtechnisch ausschlachtet und wiedermal alle drauf anspringen :ulol:

Falsch. Hybrid-Power geht darüber hinaus. Denn man schaltet die diskrete Karte komplett ab. Mit Hybrid-Power wird plötzlich AMD zum Stromverschwender #1. Wann bringen die endlich das "längst überfällige Stromsparfeature"? :rolleyes:

Daredevil
2008-05-27, 10:59:45
Schaust du mal hier :)
Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet)
Man sieht das es schon ein Unterschied beim einschalte von AA zwischen der 2900xt und der 3870 gibt, ohne AA sind die beiden meist gleich auf und mit liegt die 3870 zum Teil 10% vorne.

Hab hier jetzt mal ein Test vom 14. Mai 2007 genommen und den 3870x2er Test vom 28. Januar 2008.

Früher war die 8800gts 17% schneller als eine 2900xt in F.E.A.R. bei Settings von 1280x1024 8xAA/16xAF, beim Test vom Mai liegt die 2900xt 8% vor der 8800gts.
Nur mal als Beispiel.

Da hat sich schon was getan...

Soory fürs Offtopic :)

MadManniMan
2008-05-27, 11:06:31
So, du kennst also die Wahrheit? Nein?
Dann hat wohl auch AMD gelogen als sie sagten, sie hätten mit Ubisoft zusammengearbeit.
Fakt ist, dass Ubisoft es klar gegenüber techreport.com gesagt. Und das ist gewichtiger als irgendwelche Unterstellungen gegenüber nVidia.
Jeder kann gerne darlegen, dass der Ubisoftmann gelogen hat. Schafft man es nicht, sollte man selbst nicht an der falschen Behauptung festhalten.

LS, mir geht es doch überhaupt nicht darum, zu sagen, dass es eigentlich genau anders herum war, als die Programmierer es sagen. Viel mehr würde ich gern sehen, dass Du genauso kritisch mit solchen Informationen hantierst, wie Du es mit anderen auch tust.

Du frisst den Braten, ohne Gedanken an den Ursprung - davon könnte Dir ganz schön schlecht werden.

MadManniMan
2008-05-27, 11:08:18
Falsch. Hybrid-Power geht darüber hinaus. Denn man schaltet die diskrete Karte komplett ab. Mit Hybrid-Power wird plötzlich AMD zum Stromverschwender #1. Wann bringen die endlich das "längst überfällige Stromsparfeature"? :rolleyes:

Und was ist mit Intel-Boards?

Geringen IDLE-Verbrauch hast Du mit RV670-Karten auf Boards jeden Chipsatzes - für die 9800er GeForces brauchst Du aber zwingend nen speziellen nV-Chipsatz.

Unterm Strich dürfte die menge aller Radeons daher im Schnitt weniger IDLE-Saft schlucken ;)

Mr. Lolman
2008-05-27, 11:09:49
Falsch. Hybrid-Power geht darüber hinaus. Denn man schaltet die diskrete Karte komplett ab.

Das hab ich doch geschrieben:
[...]HybridPower Technology (Abschaltung der GraKa und Nutzung der Onboard-GPU im 2D Betrieb)

Wenn ichs schreib ists falsch und wenn du es wiederholst ists plötzlich richtig? :upara:


Mit Hybrid-Power wird plötzlich AMD zum Stromverschwender #1. Wann bringen die endlich das "längst überfällige Stromsparfeature"? :rolleyes:

1. braucht eine 8800GT 85% mehr Strom im Idle als eine 3870.
2. braucht ein nForce 780a System (Gesamtsystem, nicht nur MB alleine!) beim Idlen 15-20% mehr Strom als ein AMD 790FX/SB600
3. ist man selbst schuld, wenn man sich ein MB mit Onboard-GPU holt, wenn man diese eigentlich garnicht benötigt.


Außerdem gehst du auf den anderen Punkt, wo du mich vorher noch grundlos der Lüge bezichtigt hast, wiedermal überhaupt nicht ein. :mad:

Anarchy-HWLUXX
2008-05-27, 11:24:13
1. braucht eine 8800GT 85% mehr Strom im Idle als eine 3870.

WTF ?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/25/#abschnitt_leistungsaufnahme

Glaub ich kein Stück.

Mr. Lolman
2008-05-27, 11:27:15
Glaub ich kein Stück.

Wahrscheinlich weil du nur die (ungenauen) Tests von CB kennst.

Daredevil
2008-05-27, 11:31:40
Ich denke die 85% hat er hier her.
http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0

Und selbst wenn die Computerbase Werte stimmen, wenn man von 18.7 Watt beim Verbrauch einer 3870 ausgeht und die Differenz zur 8800gt
17 Watt sind... ist das Prozentual ne Menge. ( 10 Watt ist auf jedenfall etwas, aber je kleiner die Unterscheide werden desto Irrelevanter wird das ganze, ob ne 3870 nun 6Watt und eine 8800gt 9Watt verbraucht is doch echt scheiß egal, aber es sind eben 50% mehr!!! :) )
Was isn bei dem Test eigentlich Relevant?
Idle oder 2D Peak?
( mal so zwischen durch gefragt )

Anarchy-HWLUXX
2008-05-27, 11:39:52
Ich denke die 85% hat er hier her.
http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0

Und selbst wenn die Computerbase Werte stimmen, wenn man von 18.7 Watt beim Verbrauch einer 3870 ausgeht und die Differenz zur 8800gt
17 Watt sind... ist das Prozentual ne Menge. ( 10 Watt ist auf jedenfall etwas, aber je kleiner die Unterscheide werden desto Irrelevanter wird das ganze, ob ne 3870 nun 6Watt und eine 8800gt 9Watt verbraucht is doch echt scheiß egal, aber es sind eben 50% mehr!!! :) )
Was isn bei dem Test eigentlich Relevant?
Idle oder 2D Peak?
( mal so zwischen durch gefragt )
Und bei Anandtech sieht man im 3850/3870 Review nen unterschied von satten 40W zwischen 3870 und 8800GT ... man kann ich also das Review raussuchen was einem am besten passt :rolleyes:

Ein ist klar - die 8800GT ich deutlich schneller was auch den mehrverbrauch Teilweise rechtfertigt.

Schlammsau
2008-05-27, 11:46:38
Und bei Anandtech sieht man im 3850/3870 Review nen unterschied von satten 40W zwischen 3870 und 8800GT ... man kann ich also das Review raussuchen was einem am besten passt :rolleyes:

Ein ist klar - die 8800GT ich deutlich schneller was auch den mehrverbrauch Teilweise rechtfertigt.

den Idle Mehrverbrauch rechtfertigt gar nichts!
Wenn sie schneller ist, darf sie auch unter Last mehr verbrauchen!
Hoffentlich hat nV wenigstens beim GT200 an einen wirkungsvollen 2D Stromsparmodus gedacht.

Crow1985
2008-05-27, 11:47:41
VP2 hat der G92 auch (G80 hatte nur VP1), stromverbrauch ist ebenfalls deutlich niedriger, damit je nach kühllösung auch der geräuschpegel.

Wir reden hier von 8800GT und 9800GT, das sind beide G92-er Karten

Mr. Lolman
2008-05-27, 11:50:02
Und bei Anandtech sieht man im 3850/3870 Review nen unterschied von satten 40W zwischen 3870 und 8800GT ... man kann ich also das Review raussuchen was einem am besten passt :rolleyes:

Die xbitlabs Ergebnisse sind auf jedenfall unverfälschter als die von CB. Wie Anandtech genau testet, weiss ich nicht.


Ein ist klar - die 8800GT ich deutlich schneller was auch den mehrverbrauch Teilweise rechtfertigt.

Der Catalyst 8.5 hat die DX10 Performance deutlich erhöht und in DX9 (wo mit dem 8.5 uA auch Stalker flotter wurde), war die 8800GT nie so extrem weit vorn.


Merkt ihr eigentlich wie sich die Diskussion schon wieder verschiebt? Erst gings um Hybrid-SLI, dann um den Stromverbrauch und mittlerweile um die Mehrleistung einer 8800GT ggü der 3870. :rolleyes:

Daredevil
2008-05-27, 11:53:54
Und bei Anandtech sieht man im 3850/3870 Review nen unterschied von satten 40W zwischen 3870 und 8800GT ... man kann ich also das Review raussuchen was einem am besten passt :rolleyes:

Ein ist klar - die 8800GT ich deutlich schneller was auch den mehrverbrauch Teilweise rechtfertigt.
Du stehst ja offentlichtlich auf Computerbase, nur is da der Unterschied der gleiche :)
Ich habe ja nicht gesagt das es das nicht rechtfertigt... also ich nehm persönlich lieber mehr FPS statt Stromspar zeug ( hab nicht umsonst ne 3850 und benutze kein Powerplay ).
Nichtsdestotrotz is die 3870 im Idle viel Sparsamer.

Das sie ~15-30% schneller ist ( Manchmal is die 3870 auch schneller ), rechtfertigt nicht einen dermaßen hohen idle Verbrauch.
Ati hats in dem Bereich der Grafikkarten richtig gemacht.



Merkt ihr eigentlich wie sich die Diskussion schon wieder verschiebt? Erst gings um Hybrid-SLI, dann um den Stromverbrauch und mittlerweile um die Mehrleistung einer 8800GT ggü der 3870. :rolleyes:
Jetzt gerade wo du es sagst....
Ich bin gespannt auf Hybrid SLI, denke aber das es Sinnvoller wäre die Grundverlustleistung im Idle zu senken statt eine Karte komplett abzuschalten/anzuschalten/abzuschalten/anzuschalten...
Ich stell mir da einfach vor wie ich da mind. jeden Tag beim WoW spielen 30 mal aufn Desktop und zurück switche, wird das denn dann jedes mal umgestellt?
Das müssen sie erstmal gescheit hinbekommen.
Unflexibel is das ganze eben auch wegen Nvidia Boards..wie Herr Lolman schon sagte.

Schlammsau
2008-05-27, 12:15:09
Beide Hersteller sollten auf beides achten. Das die Karten so wenig wie möglich Strom verbrauchen und das man sie bei nicht gebrauch komplett deaktivieren kann!
Gibt es von AMD/ATi nicht auch etwas Vergleichbares? Mir fällt der Name gerade nicht ein.
Stromsparen hat nicht nur was mit Geldsparen zu tun!!!!

rpm8200@work
2008-05-27, 13:11:27
Stromsparen hat nicht nur was mit Geldsparen zu tun!!!!

Dem stimme ich zu.

LS, es ist wirklich haarsträubend, was Du in diesem thread zusammen schreibst. Wie kann man so bedingungslos jede Aktion eines Herstellers für gut heißen? Was NV hier macht ist verarsche auf höchstem Niveau. Das Beispiel mit dem umgelabelten Golf 4 auf Golf 5 triffts doch genau! Mag ja sein, dass ein Golf 4 auch schon ein tolles Auto ist (ähm... das hab ich doch nicht gerade wirklich geschrieben? :-) ), aber wenn eine Firma ein Produkt verkauft, das zu 99% dem Vorgängerprodukt entspricht, dann sollte man dafür nicht einen neuen Namen nehmen, der ein vollkommen anderes, neueres, besseres Produkt suggeriert.

Und es stimmt ja wohl, dass Hybrid/PowerSLI nicht universell einsetzbar ist und seinerseits gewisse Peripherie benötigt (damit will ich PowerSLI nicht schlecht reden!).

LS, Du bist spitze darin, irgend ein Detail aus einer Post zu fischen, die kritisch ggü. Deinem Liebling ist und Du zerkaust dann irgend einen Nebenschauplatz bis zum Erbrechen (mit zudem meist dürftiger "Argumentation"). Deine Posts zu lesen ist irgendwie so wie Rosamunde Pilcher glotzen... Die Unstimmigkeiten können dann und wann so richtig (unfreiwillig) amüsant sein.

Zum Thema Hybrid-Power: Dieses feature finde ich sehr gut (auch wenn das allein einfach niemals niemals eine neue Generation rechtfertigt!!!). Sicher, es ist eingeschränkt, man braucht den entsprechenden Chipset, aber gut... wenn ich einen neuen Rechner zusammen stelle werde ich darüber ggf. wirklich nachdenken. Für den normalen "Nachrüster", der einfach mal eine bessere GraKa aufrüsten will bringts in den meisten Fällen aber nix.

Ich stimme Schlammsau auch 100% zu, dass beide (NV/ATI) endlich darauf achten sollten, dass man nicht benötigte (dedizierte) GraKas egal ob in Kombination mit SLI/CF oder dediziert und onoard abschalten kann, einfach weil das nicht so schwer sein kann und weils ne Menge bringen würde... aber das ist hier nicht Thema.

Thema ist, dass NV die Kunden wirklich zum Narren hält. Vielleicht nicht unbedingt die, die sich informieren... aber aus der Unwissenheit seiner Kunden gezielt Kapital zu schlagen (wird ja wohl keine Sticker auf der Packung geben "Achtung, diese GraKa entspricht zu 99% ihrem Vorgänger, der 8800GT") ist IMO moralisch nicht mehr grenzwertig sondern einfach falsch.

Manch ein Kunde wird das vielleicht doch noch bemerken und sich nicht weiter "ins Gesicht shicen" lassen (um diese nette Analogie nochmal zu verwenden). Ich hoffe auch, dass das Kaufverhalten der Masse solch eine Produktpolitik abstrafen wird.

seahawk
2008-05-27, 13:26:18
Beide Hersteller sollten auf beides achten. Das die Karten so wenig wie möglich Strom verbrauchen und das man sie bei nicht gebrauch komplett deaktivieren kann!
Gibt es von AMD/ATi nicht auch etwas Vergleichbares? Mir fällt der Name gerade nicht ein.
Stromsparen hat nicht nur was mit Geldsparen zu tun!!!!

Hybrid-Power ist totaler Quatsch. Du hast ne IGP, die Du nicht brauchst. Man sollte den Stromverbrauch der Karte im Idle eben auf IGP Niveau drücken und bei SLI Systemen alle außer der ersten Karte abschalten. Was NV mit Hybrid-Power verkaufen will ist nichts weiter als eine erneute Kundenverarsche. Man zahlt für die IGP und die Funktion der Graka Hybrid-Power zu nutzen, bei ner ATI Karte zahle ich für den niedrigen Idleverbrauch nur einmal.

Gast
2008-05-27, 13:32:33
Nochmal zu Hybrid-SLI: Sollte die 9800GT es wirklich unterstützen, dann ist es klar gleichwertig zu 10.1.



??? :ugly:

Schlammsau
2008-05-27, 13:41:49
Hybrid-Power ist totaler Quatsch. Du hast ne IGP, die Du nicht brauchst. Man sollte den Stromverbrauch der Karte im Idle eben auf IGP Niveau drücken und bei SLI Systemen alle außer der ersten Karte abschalten. Was NV mit Hybrid-Power verkaufen will ist nichts weiter als eine erneute Kundenverarsche. Man zahlt für die IGP und die Funktion der Graka Hybrid-Power zu nutzen, bei ner ATI Karte zahle ich für den niedrigen Idleverbrauch nur einmal.

Du hast schon recht, aber ich meine wenn die Boards bezahlbar sind und es merklichen Vorteil bringt, ist es schon eine lobenswerte Sache.
Natürlich sollte in erster Linie der Verbrauch der Diskreten Grafikkarte signifikant nach unten gesetzt werden! Vor allem im Leerlauf.......

Gast
2008-05-27, 13:42:58
Wir reden hier von 8800GT und 9800GT, das sind beide G92-er Karten

und genau hier liegt der fehler, nämlich in den zig varianten der 8800er serie, die sind extrem unübersichtlich, selbst wenn man sich mit grafikkarten auskennt.

damals hätte der aufschrei kommen müssen, beide hersteller sollten für einen verkaufsnamen auch nur eine GPU verwenden (bei ATI ist es ja im moment auch der fall). wäre es bei 8800=G80 geblieben wäre alles schön übersichtlich geblieben.

durch die einordnung der G92-karten in die 8800er serie ist das ganze chaos überhaupt erst entstanden, genau das ist auch zu kritisieren und nicht die jetzige bereinigung desselben

Anarchy-HWLUXX
2008-05-27, 14:09:55
Du hast schon recht, aber ich meine wenn die Boards bezahlbar sind und es merklichen Vorteil bringt, ist es schon eine lobenswerte Sache.
Natürlich sollte in erster Linie der Verbrauch der Diskreten Grafikkarte signifikant nach unten gesetzt werden! Vor allem im Leerlauf.......

Wenn die Idle-Verbrauchsoptimierung der Performance abträglich ist bevorzuge ich die HybirdPower Methode.


durch die einordnung der G92-karten in die 8800er serie ist das ganze chaos überhaupt erst entstanden, genau das ist auch zu kritisieren und nicht die jetzige bereinigung desselben

So ähnlich seh ich es auch - wenn die G92 direkt als 9800er gekommen wär hätten mer den schlamassel jetzt nicht ...

Schlammsau
2008-05-27, 14:48:32
Wenn die Idle-Verbrauchsoptimierung der Performance abträglich ist bevorzuge ich die HybirdPower Methode.
würdest du dafür auch mehr zahlen? Bedeutend mehr?
Die zusätzliche IGP will ja bezahlt werden!
Würdest du deswegen dein jetziges Board gegen eins mit nV Chipsatz eintauschen? Weil diese Technologie funktioniert ja nur mit einem nV Chipsatz....

Das sind alles zusätzliche Kosten für den Verbraucher und der Hersteller lacht sich kräftig eins ins Fäustchen!

Odal
2008-05-27, 14:59:55
das macht nvidia sowieso nur um kunden zu binden...jeder der das nutzen will braucht nen nvidia chipsatz...
als nächster schritt vielleicht CPUs by nvidia?

LovesuckZ
2008-05-27, 15:39:28
LS, mir geht es doch überhaupt nicht darum, zu sagen, dass es eigentlich genau anders herum war, als die Programmierer es sagen. Viel mehr würde ich gern sehen, dass Du genauso kritisch mit solchen Informationen hantierst, wie Du es mit anderen auch tust.

Du frisst den Braten, ohne Gedanken an den Ursprung - davon könnte Dir ganz schön schlecht werden.

Der Ursprung lag in den Verleumdungen, dass nVidia ihre Finger im Spiel gehabt hätten. Das hat Ubisoft widerlegt. Zu den Verleumdungen gibt es keine Beweise. Wieso sollte ich also Ubisoft's Meinung anzweifeln, wenn der Ursprung selbst nur lose Vermutungen waren?

Und was ist mit Intel-Boards?

Geringen IDLE-Verbrauch hast Du mit RV670-Karten auf Boards jeden Chipsatzes - für die 9800er GeForces brauchst Du aber zwingend nen speziellen nV-Chipsatz.

Unterm Strich dürfte die menge aller Radeons daher im Schnitt weniger IDLE-Saft schlucken ;)

Und 10.1 kann ich nur verwenden, wenn ich Vista habe und Spiele mit dem Pfad exisitieren. Es ist daher vollkommen lächerlichen, Hybrid-SLI nicht als Argument für eine zulässige Namensänderung zu zulassen, aber 10.1 eine Ausnahme zu machen.
Du kannst gerne darlegen, warum 10.1 mehr Wert hätte als das komplette Abschalten der diskreten Karte.

Anarchy-HWLUXX
2008-05-27, 16:02:19
würdest du dafür auch mehr zahlen? Bedeutend mehr?
Die zusätzliche IGP will ja bezahlt werden!
Würdest du deswegen dein jetziges Board gegen eins mit nV Chipsatz eintauschen? Weil diese Technologie funktioniert ja nur mit einem nV Chipsatz....

Das sind alles zusätzliche Kosten für den Verbraucher und der Hersteller lacht sich kräftig eins ins Fäustchen!

Schau dir die Preise der 7x0a / Geforce 8200 Boards an ... ne IGP kost paar Euro und nicht direkt 20€+ oder mehr ;)

Die auswahl an nForce Boards ist ATM noch bescheiden aber das günstigste SLI Brett mit 750a kost 100€, die kleinen mit nur einem PEG gibt es ab 50€. Ich hab für mein altes Asus mATX mit geForce 6100 satte 70€ bezahlt und das neuere Abit @ GeForce 7050 immernoch 53€ letzten Monat ... jeweils ohne HybridPower.

Moralelastix
2008-05-27, 16:12:19
lol!

Zotac made the first 8800GT with Hybrid Power support
http://en.expreview.com/2008/05/27/zotac-made-the-first-8800gt-with-hybrid-power-support/#more-390

puntarenas
2008-05-27, 16:42:53
lol!

Zotac made the first 8800GT with Hybrid Power support
http://en.expreview.com/2008/05/27/zotac-made-the-first-8800gt-with-hybrid-power-support/#more-390
Wieso lol?

Zwei klitzekleine Bauteile machen den Unterschied und wenn es funktioniert, dann schließt Nvidia diese 8800GT offensichtlich nicht treiberseitig aus.

Gast
2008-05-27, 16:45:17
lol!

Zotac made the first 8800GT with Hybrid Power support
http://en.expreview.com/2008/05/27/zotac-made-the-first-8800gt-with-hybrid-power-support/#more-390

ich frag mich nur warum sie diese nicht 9800 nennen ;)

Moralelastix
2008-05-27, 16:52:06
Gibts die 9800GT schon zu kaufen? Nö, oder?

Wir haben jetzt beides: Ne 8800 GT die zur 9800GT von NV gemacht wird und ne 9800GT die zur 8800GT gemacht wird. :biggrin:

puntarenas
2008-05-27, 16:53:09
ich frag mich nur warum sie diese nicht 9800 nennen ;)
Vielleicht sind 1GB-Versionen für die 9800GT untersagt? Vielleicht bekommt die 9800GT Triple-SLI und dieser hier fehlt der zweite SLI-Anschluss? Vielleicht hat sich der Launch verzögert und blöderweise kommt man nun zeitgleich auf den Markt?

LovesuckZ
2008-05-27, 16:55:08
Gibts die 9800GT schon zu kaufen? Nö, oder?

Wir haben jetzt beides: Ne 8800 GT die zur 9800GT von NV gemacht wird und ne 9800GT die zur 8800GT gemacht wird. :biggrin:

Das ist eine Karte von Zotac. Die können auch einen G92 als 9500GT verkaufen, wenn sie wollen.

seahawk
2008-05-27, 17:15:59
Schau dir die Preise der 7x0a / Geforce 8200 Boards an ... ne IGP kost paar Euro und nicht direkt 20€+ oder mehr ;)

Die auswahl an nForce Boards ist ATM noch bescheiden aber das günstigste SLI Brett mit 750a kost 100€, die kleinen mit nur einem PEG gibt es ab 50€. Ich hab für mein altes Asus mATX mit geForce 6100 satte 70€ bezahlt und das neuere Abit @ GeForce 7050 immernoch 53€ letzten Monat ... jeweils ohne HybridPower.

Braucht halt aber VISTA. Der neidrige Idleverbrauch der ATI lacht auch in XP, NT, Linux etc.

LovesuckZ
2008-05-27, 17:18:03
Braucht halt aber VISTA. Der neidrige Idleverbrauch der ATI lacht auch in XP, NT, Linux etc.

10.1 aber nicht.

seahawk
2008-05-27, 17:31:45
10.1 aber nicht.

Genauso wie DX10. So gesehen ist DX10.1 ein bei ATI umsonster Bonus für Vista-Nutzer, der Kunde kriegt ohne mehr zu bezahlen ein Extrafeature.

Hybrid-SLI funktioniert aber nur wenn man VISTA nutzt, man muss ein extra Programm kaufen um es nutzen zu können. NV belastet den Kunden also.

LovesuckZ
2008-05-27, 17:40:11
Genauso wie DX10. So gesehen ist DX10.1 ein bei ATI umsonster Bonus für Vista-Nutzer, der Kunde kriegt ohne mehr zu bezahlen ein Extrafeature.

Nein, der ATi User muss extra Programme dafür kaufen. Gleichzeitig ist er abhängig von den Entwicklern der Programme. Gibt es keine Programme, gibt es auch keinen Nutzen. Ergo ist es wirklich umsonst und eine Umbenennung nur wegen 10.1 eine Kundenverarsche.


Hybrid-SLI funktioniert aber nur wenn man VISTA nutzt, man muss ein extra Programm kaufen um es nutzen zu können. NV belastet den Kunden also.

Dafür funktioniert es immer. Und es entlastet den Geldbeutel durch den (deutlich) niedrigen Stromverbrauch. Ausserdem kann der Kauf auch aus der Notwendigkeit münzen - z.B ein Systemwechsel. Dann ist Hybrid-Power ebenfalls "umsonst".

MikBach
2008-05-27, 22:30:32
Nein, der ATi User muss extra Programme dafür kaufen.
:confused:
Welche Programme muss er für 10.1 im Vergleich zu D3D10.0 extra kaufen?

Gleichzeitig ist er abhängig von den Entwicklern der Programme. Gibt es keine Programme, gibt es auch keinen Nutzen.
Glaub mir. Die Entwickler wären froh, wenn sie nur für 10.1 entwickeln müssten und nicht für 10.0.

Ergo ist es wirklich umsonst und eine Umbenennung nur wegen 10.1 eine Kundenverarsche.
Zu viel gesoffen?
Wenn etwas eine Umbenennung der Karten rechtfertigt, dann ist es ein neuer Techlevel.
Oder was sollte es eher rechtfertigen? :|

Dafür funktioniert es immer. Und es entlastet den Geldbeutel durch den (deutlich) niedrigen Stromverbrauch. Ausserdem kann der Kauf auch aus der Notwendigkeit münzen - z.B ein Systemwechsel. Dann ist Hybrid-Power ebenfalls "umsonst".
Wie bescheuert muss man sein, um ein allgemein gültiges Feature wie D3D10.1 mit Hybrid-SLI zu vergleichen.

Du wirst von Tag zu Tag peinlicher.

_DrillSarge]I[
2008-06-01, 15:10:35
mal ne kleine frage: wieso preist ls das ganze hybrid-sli/power etc. zeug von nv so an, wenn es von amd/ati das genau gleiche gibt?
wieso lässt er/sie/es aus, das dx10 ebenfalls vista braucht (zusätzliche bezahl-software :ugly:) und 10.1 "nur" noch sp1? tztz
sehr seltsam hier :biggrin:

Matrix316
2008-06-01, 19:55:42
Bis jetzt wars ja auch immer so, dass die erste Zahl die quasi Generation der Karte und die zweite die Performance angab. Also 4-6-00 oder 5-9-00 oder 7-8-00 oder 8-8-00. Die neuen 8800 mit 512 MB und 9800er bringen jetzt alles durcheinander.

Unyu
2008-06-01, 20:33:00
I[;6546709']wieso preist ls das ganze hybrid-sli/power etc. zeug von nv so an, wenn es von amd/ati das genau gleiche gibt?
Wie heißt das?

Schlammsau
2008-06-01, 20:49:21
Wenn die neue Generation wie angekündigt, im Idle nur 10 Watt verbraucht, brauchen sie keine zusätzlichen integrierten Grafiklösungen! ;)

Unyu
2008-06-01, 20:51:02
Dafür wird so die Karte an sich teurer. ;)

davidzo
2008-06-01, 20:52:17
Bis jetzt wars ja auch immer so, dass die erste Zahl die quasi Generation der Karte und die zweite die Performance angab. Also 4-6-00 oder 5-9-00 oder 7-8-00 oder 8-8-00. Die neuen 8800 mit 512 MB und 9800er bringen jetzt alles durcheinander.

Nicht wirklich

Bei ATI gibt es hybrid crossfire, das ist aber etwas Anderes. ATI benutzt einen fast identischen diskreten chip um die leistung der integrierten grafiklösung durch crossfire zu verbessern.

Nvidia bietet mit hybrid-SLi einen eher ungewöhnlichen fix für den beim G92 und G80 fehlenden 2D-Modus an. SLI wird hier nicht zur Leistungssteigerung im Lowend, sondern in erster Linie zum Strom sparen bei Highendchips verwendet.
Mit dem 2D-modus hat AMD kein problem, insofern war das bisher ein problem bei dem nvidia zurückstand und nun eben (nur in einer speziellen hardwarekonfiguration) quasi gleichziehen kann.

Unyu
2008-06-01, 21:10:50
Nicht wirklich
Nicht ganz.

Hybrid SLI:
-Hybrid Power (spart Strom durch abschalten der dedizierten Karte, die Lösung ist die Beste um wirklich zu sparen)
-Geforce Boost (SLI mit langsamer dedizierten Karte und Onboard GPU)

Schlammsau
2008-06-01, 21:31:37
Hybrid CF vs. Hybrid SLi
http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/#abschnitt_einleitung

Black-Scorpion
2008-06-02, 17:26:06
Nicht ganz.

Hybrid SLI:
-Hybrid Power (spart Strom durch abschalten der dedizierten Karte, die Lösung ist die Beste um wirklich zu sparen)
-Geforce Boost (SLI mit langsamer dedizierten Karte und Onboard GPU)
Die Lösung ist für nV das beste um den Kunden die es nutzen wollen auch noch den letzten Cent aus den Rippen zu leiern.
Man braucht dafür nämlich einen nV Chipsatz und eine AMD CPU. Für Intel gibt es auch keine Boards.
Achso, Vista nicht vergessen. Andere OS sind ebenfalls außen vor.
Wo also ist das die beste Lösung für den Kunden?

Da müssen die Karten schon einige Zeit laufen um die Um- und Aufrüstkosten wieder rein zu holen.

Unyu
2008-06-02, 17:33:58
Man braucht dafür nämlich einen nV Chipsatz
Solange das nicht genormt ist, ist es klar, das es nicht überall läuft.

Die Intel Bretter fehlen noch, richtig, da wird sich noch was tun.

Achso, Vista nicht vergessen.
Sonst sind doch alle so Vista geil, warum jetzt nicht?
Für dein .1 bei AMD (das Kernfeature ohne Anwendungen, das eine Umbennung HD2 -> HD3 rechtfertigt) brauchst du auch Vista.

puntarenas
2008-06-02, 17:45:22
Achso, Vista nicht vergessen. Andere OS sind ebenfalls außen vor.

Das ist neben der Plattformfalle wirklich ärgerlich. Windows XP kann IIRC nicht im laufenden Betrieb zwischen Ausgabegeräten umschalten, dafür kann Nvidia also wohl nichts. Ich würde mir trotzdem wünschen, dass das Feature noch in die Linuxtreiber für GraKa und Chipsatz einzieht (und zur Not eben dem Kernel beigebracht wird, weiß nicht wie der Stand von Linux diesbezüglich ist).

Am Ende wäre ein offener Standard sicherlich wünschenswert und zu Ende gedacht könnten wir dann wirklich bald Grafikkarten ohne Displayanschlüsse vorfinden, ich fürchte aber Nvidia wird die Exklusivität weiterhin beibehalten. Schlecht für die PC-Plattform insgesamt, zumindest vordergründig gut für Nvidia.

Black-Scorpion
2008-06-02, 17:45:27
Solange das nicht genormt ist, ist es klar, das es nicht überall läuft.

Die Intel Bretter fehlen noch, richtig, da wird sich noch was tun.


Sonst sind doch alle so Vista geil, warum jetzt nicht?
Für dein .1 bei AMD (das Kernfeature ohne Anwendungen, das eine Umbennung HD2 -> HD3 rechtfertigt) brauchst du auch Vista.
Warum sollte das genormt werden?
Außer nV haben doch andere Hersteller einen geringen Idle Verbrauch.

Das du die Unterschiede zwischen HD2xxx und HD3xxx nicht verstehen willst verwundert mich nicht. Das wurde dir schon 100x vorgekaut und es bringt nichts.
Das kann ein anderer gerne noch 100x tun. ich mache es nicht.
Es gibt einige die mit XP noch sehr gut auskommen.
Die müssen um endlich einen vernüftigen Idle Verbrauch zu haben auf Vista umsteigen.

up¦²
2008-07-03, 23:50:55
http://www.tcmagazine.com/images/news/Hardware/XFX_GeForce_9800_GT_01.jpg
XTX 9800GT
Hoffentlich gibt es XFX noch, wenn die 55nm (G92b) 9800GT mal kommt... :wink:

Coda
2008-07-03, 23:57:41
Wieso was ist mit XFX?

up¦²
2008-07-04, 00:19:08
Wieso was ist mit XFX?
Soll in Schwierigkeiten sein... Gerüchte ...
Nvidia-only haben sowieso mächtig Probleme wegen der "Preiserosion" :wink:

Gast
2008-07-24, 10:43:30
Offenbar plant nVidia alte 8800GT Chips als 9800GT unters Volk zu bringen. Wenn es dazu noch erlaubt wird, Karten mit 8800GT, welche noch auf Halde liegen, umzulabeln, fällt wohl auch die Unterstützung für Hybrid-Power flach. Das ist ja das einzige Pro 9er-Serie Argument.

http://en.expreview.com/2008/07/22/nvidia-remark-8800gt-to-9800gt-no-more-hybridpower/

http://www.pcgameshardware.de/aid,652851/News/Benennt_Nvidia_die_8800_GT_in_9800_GT_um/

Nightspider
2008-07-26, 03:48:41
Hmmm ? :confused:

Und der Kühler ?

Laut ersten Bildern ist der Kühler doch kleiner, wegen kleinerem Herstellungsprozess! Wenn dann doch noch 65nm G92 Chips verbaut werden bräuchte man doch den alten SingleSlot Kühler der deutlich größer war und paar Heatpipes besaß.
Dann wird NV halt nicht am Kühler sparen können...

dildo4u
2008-07-29, 15:17:46
Review: GIGABYTE 9800 GT Zalman Edition

http://www.tweaktown.com/reviews/1520/gigabyte_9800_gt_zalman_edition/index.html

MadManniMan
2008-07-29, 17:28:42
Ein weiterer unbrauchbarer Test der Computerbase - 9500 und 9800 GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/) gegen die 3800er, welche immernoch mit dem 8.3er gebencht wurden.

3DCenter! Wir wollen vernünftige Artikel!

Gast
2008-07-29, 17:43:06
Ein weiterer unbrauchbarer Test der Computerbase - 9500 und 9800 GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/) gegen die 3800er, welche immernoch mit dem 8.3er gebencht wurden.

3DCenter! Wir wollen vernünftige Artikel!

ja das alte Lied, nur weil sie zu "faul" sind alle Test nochmal zu wiederholen, nehmen sie die alten Testergebnisse die schon 4 Monate alt sind.

Raff
2008-07-29, 18:14:42
http://www.pcgameshardware.de/aid,653850/Test/Benchmark/PCGH-Test_Geforce_9800GT_und_Geforce_17779_WHQL/

9800 GT: ForceWare 177.79
Radeons: Catalyst 8.6

MfG,
Raff

V2.0
2008-07-29, 18:26:27
Also alles in Ordnung. Ne 8800Gt unter neuem Namen mit gleicher Leistung zum fast gleichem Preis.Ich vermute mal, dass die 8800Gt nicht den neuen Treiber nutzte, als ihr die Benches erstellt habt.

Gast
2008-07-29, 18:33:17
Also alles in Ordnung. Ne 8800Gt unter neuem Namen mit gleicher Leistung zum fast gleichem Preis.Ich vermute mal, dass die 8800Gt nicht den neuen Treiber nutzte, als ihr die Benches erstellt habt.

nicht ganz.....sie ist erst ab 115€ Lieferbar!
8800GT ~87€ http://geizhals.at/deutschland/a291594.html
9800GT ~115€ http://geizhals.at/deutschland/a353503.html

32% hoherer Preis für 1-2% mehr Leistung.

V2.0
2008-07-29, 18:38:23
Bitte Karten vom gleichen Hersteller vergleichen, sonst ist es sinnlos.

Gast
2008-07-29, 18:49:34
Bitte Karten vom gleichen Hersteller vergleichen, sonst ist es sinnlos.

dann schiess mal los!

V2.0
2008-07-29, 18:59:19
http://geizhals.at/deutschland/a353503.html
http://geizhals.at/deutschland/a291565.html

als extremes Gegenbeispiel.

Unyu
2008-07-29, 19:21:52
nicht ganz.....sie ist erst ab 110€ Lieferbar!
Sie ist kaum lieferbar.
Erst bei ordentlicher Verfügbarkeit werden die Händler den Preiskampf starten.

Feuerpfote
2008-07-29, 19:38:14
nicht ganz.....sie ist erst ab 115€ Lieferbar!
8800GT ~87€ http://geizhals.at/deutschland/a291594.html
9800GT ~115€ http://geizhals.at/deutschland/a353503.html

32% hoherer Preis für 1-2% mehr Leistung.


wie jetzt? Die 8800GT hatte ältere Treiber als die 9800GT. Performancezuwachs is 0.

LovesuckZ
2008-07-30, 11:01:59
Laut Computerbase.de soll die Karte Hybrid-SLI unterstützen. Bei <100€ werde ich wohl zuschlagen.

up¦²
2008-08-02, 12:45:19
Naja - Titel stimmt so nicht mehr ganz, denn die 55er ist da: und zwar passiv! :up:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8724&Itemid=1

deekey777
2008-08-02, 14:13:07
Naja - Titel stimmt so nicht mehr ganz, denn die 55er ist da: und zwar passiv! :up:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8724&Itemid=1
Der Titel stimmt, du hast gar nicht verstanden, worum es in diesem Thread geht.

up¦²
2008-08-02, 23:02:32
Der Titel stimmt, du hast gar nicht verstanden, worum es in diesem Thread geht.
LOL, mit dem Dieshrink stimmt er nicht mehr... Tawaritsch :wink:
Hast du das nicht verstanden? => schade... :rolleyes:

deekey777
2008-08-02, 23:53:11
LOL, mit dem Dieshrink stimmt er nicht mehr... Tawaritsch :wink:
Hast du das nicht verstanden? => schade... :rolleyes:
Hier geht es darum, dass die 8800GT als 9800GT aufgelegt wird (steht im Eröffnungsposting), du shrederst wie immer rücksichtslos einen fremden Thread (siehe dein Topic-fremdes Posting vom 3. Juli), obwohl der Thread seit einem Monat ruhte.

Du bleibst deiner Linie treu. :uclap:

AnarchX
2008-08-08, 08:33:14
ASUS will sich offenbar noch mehr von der 8800 GT abheben:
http://img242.imageshack.us/img242/1391/2741134980a09313038fo71cp5.jpg
http://en.expreview.com/2008/08/08/asus-surprises-with-9800gt-3-way-sli-version/

Fragt sich nur ob da auch der Treiber mitspielt, denn eigentlich unterstützt die 9800 GT kein T-SLI.

Mr. Lolman
2008-08-08, 08:42:39
ASUS will sich immer abheben. Deren 3870 hat genauso ausgesehen, nur in rot.

Der Kühler ist übrigens spitze :up:

Spasstiger
2008-08-08, 08:57:27
Der Kühler sieht aus wie bei Palit, nur noch mit etwas Plastik drumrum.

Das Auge
2008-08-08, 10:40:26
Der Kühler sieht aus wie bei Palit, nur noch mit etwas Plastik drumrum.

Hab ich mir auch gerade gedacht, nachdem ich hier seit gestern eine Palit 9600GSO als Ersatz für die verreckte 8800GS für einen Kumpel rumliegen habe. Einfach (und damit billig), aber effektiv.

hardtech
2008-08-14, 09:15:42
kann mir jemand sagen, welche nv karten schon in 55nm produziert werden? ich habe da keinen überblick.

Adam D.
2008-08-14, 09:34:39
Momentan nur die 9500GT, 9600GT, 9800GT und 9800GTX+. Bei der 9600/9800GT muss man aber aufpassen, da kommen die 55nm-Kerne erst langsam, gut möglich, dass man da noch einen alten 65er erwischt.

hartcore
2008-08-15, 01:21:23
Momentan nur die 9500GT, 9600GT, 9800GT und 9800GTX+. Bei der 9600/9800GT muss man aber aufpassen, da kommen die 55nm-Kerne erst langsam, gut möglich, dass man da noch einen alten 65er erwischt.

wie kann man denn auslesen, welcher Kern vorhanden ist?

h.

edit: hab schon mit GPU-Z

65mm :(