PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie die 8800GT auszog um ihrer großen Schwester GTX auf der Nase herumzutanzen ....


Seiten : [1] 2

tombman
2007-10-23, 17:31:09
Erster China Review hier...
http://topic.expreview.com/2007-10-23/1193114539d6255.html

Die wichtigsten Bilder habe ich rauskopiert und geupped, weil der server dort rumschneckt.

Hier zum staunen :rolleyes:

http://img140.imageshack.us/img140/8428/stalkeric5.png

http://img136.imageshack.us/img136/6486/powerfl9.png

http://img91.imageshack.us/img91/5522/3dmark06ocscc3.jpg

http://img89.imageshack.us/img89/1953/3dmark02jn9.png

http://img134.imageshack.us/img134/1168/quakewar02fl5.png

http://img89.imageshack.us/img89/2721/hl202pe2.png

http://img140.imageshack.us/img140/5691/pt02aq3.png

tombman
2007-10-23, 17:31:56
http://img136.imageshack.us/img136/4743/pt01nz5.png

http://img140.imageshack.us/img140/6485/bioshockvw7.png

http://img86.imageshack.us/img86/2221/lp04pz8.png

http://img136.imageshack.us/img136/6186/wic02ft2.png

http://img165.imageshack.us/img165/6181/dirt02lc1.png

_DrillSarge]I[
2007-10-23, 17:51:31
meine fresse ist doch jetzt wurscht.

ich find die benches beeindruckend und irgendwie ist die karte noch schneller als im vorfeld vermutet

Deathcrush
2007-10-23, 17:56:21
Bin mal auf den Preis gespannt.

Doomi
2007-10-23, 17:58:58
oh man.. würden sich hier die hälfte der leute nicht über Tombmans postings aufregen wäre dieser Thread hier wesentlich übersichtlicher. Man man...

Die Benches sind schon beeindruckend. Jetzt wäre es nur noch schön wenn bald mal welche zur neuen GTS auftauchen würden welche ich mir ja in den Kopf gesetzt hatte :)

F5.Nuh
2007-10-23, 18:17:32
Die frage ist jetzt natürlich, wie schneidet eine neure 8800gts 640 mb ab mit dem ultra chip. Die neueren GTS'e lassen sich echt extram takten. Da liegt man dann bestimmt über einer GT.

Bin noch am überlegen ob ich mir eine gts oder gtx holen soll. Weiss nämlich nicht wann diue GT kommt und ob der Preis wirklich bei knapp 200€ liegt.

P.S: was mich auch etwas stört, ist der Speicher der Karte.

master_blaster
2007-10-23, 18:29:29
Leutz, lasst es uns mit Fassung tragen wie Männer und gut ists, :wink:.
Allerdings wäre sehr interessant, wie die GT zur neuen GTS liegt. Wann kommt letztere eigentlich?

4711
2007-10-23, 18:33:13
na ja irgendwie....sind die Ergebnisse sehr eigenartig...im Verhältniß zur "großen" GTS..Bildchen würden mich da schon sehr interessieren...
Vorallem Knigge of Sea DX10 AA........

Dunkeltier
2007-10-23, 18:40:27
Sammelthreads sind Scheiße und waren immer Scheiße, meine Meinung.

Das ist wie ein riesiger Aufsatz ohne Satzzeichen, ohne Absätze und ohne Kapitel...

Neue threads, kurz und prägnant, haben 10x mal Breitenwirkung und bleiben im Gedächtnis hängen.

Und für gute Suchergebnisse ist die SUCHENGINE verantwortlich und nicht der Sammelthread ;)


Dem stimme ich zu, ich erinnere mich nur mal an die grausigen Sammelthreads im Hardwareöuxx. Unübersichtlich hoch 10. Ne, da hats sowas hier schon verdient.

Zum Thema: Die GT ist so schnell wie erwartet. Für jemanden, der etwas mit 'nem optimalen P/L-Verhältnis sucht, die optimalw Wahl. Ich bleib allerdings bei meinen zwei vom Werk aus übertakteten GTX-Karten. ;)

Showtime
2007-10-23, 19:05:48
Was geht denn im PT Boats Benchmark ab?

Ritter Sport Nugat
2007-10-23, 19:06:00
ich glaub es wird bald zeit meine 7900gto in rente zu schicken :smile:

Razor
2007-10-23, 19:08:39
Was geht denn im PT Boats Benchmark ab?
Prelease-Treiber?
Für 'nen Erstling schlägt sich das Teil wirklich ordentlich...

Razor

Banshee18
2007-10-23, 19:33:27
Ich habe hier mal ein wenig aufgeräumt und den Thread ins richtige Subforum verschoben. Es wäre schön, wenn wir uns jetzt den wichtigen Dingen zuwenden könnten.

3DoMan
2007-10-23, 19:36:08
zum Beisspiel:
Wenn ich etwas zu einem bestimmten Thema suchen will, so mach ich es über die Titelsuche, da man so schnelle Ergebnisse bekommt.

Ein Sammelthread umfasst alles und gar nichts. Man muss quasi den Thread durchsuchen, statt das bestimmte Neuigkeiten als extra-Thema behandelt werden.
Zum Beispiel eine Grafikkarte: einer möchte wissen wie silent die Karte ist, dem anderen ist der Stromverbrauch wichtig, dem dritten die Benchmarks etc. Im Sammelthread werden alle Themen gleichzeitig und total durcheinander behandelt, muss muss sich "Durchlesen", statt extra Themen zu eröffnen, die gerade aktuell und wichtig sind.

drum02
2007-10-23, 19:36:56
wow.....Hamma.
Aber Ich warte dennoch auf eine bessere Karte. Denke Das meine GTS 640 Mb noch gute Dienste leistet. Wann kommt die 9800? Oder ist so eine von Nvidia nicht geplant?
EDIT: Lese gerade das die Karte in GPU-Z unter DirectX-Support nur 10.0 anzeigt. War nicht die rede davon das sie 10.1 drauf hat? Oder raff Ich es grad nicht ?
http://img220.imageshack.us/img220/5979/gpuzle4.png (http://imageshack.us)

Das Auge
2007-10-23, 20:00:18
Sollten sich diese Ergebnisse bewahrheiten wäre das schon krass. Wann soll die GT schnell wieder kommen? Preis?

Spasstiger
2007-10-23, 20:12:38
EDIT: Lese gerade das die Karte in GPU-Z unter DirectX-Support nur 10.0 anzeigt. War nicht die rede davon das sie 10.1 drauf hat? Oder raff Ich es grad nicht ?
http://img220.imageshack.us/img220/5979/gpuzle4.png (http://imageshack.us)
DX10 ist schon korrekt. DX10.1 gibts nur bei den kommenden ATI-Karten.

Gast
2007-10-23, 20:15:05
Du kommst 8h zu spät.

LovesuckZ

X-ray3
2007-10-23, 20:18:00
Sollten sich diese Ergebnisse bewahrheiten wäre das schon krass. Wann soll die GT schnell wieder kommen? Preis?
Du bist doch erstmal bedient, oder?:wink:

ENI
2007-10-23, 20:29:52
Sollten sich diese Ergebnisse bewahrheiten wäre das schon krass. Wann soll die GT schnell wieder kommen? Preis?

Würde mich auch interessieren, denn die Ergebnisse sind ja schon voll Fett :D
und ich glaub das die GT meine neue Karte werden wird.

Don Vito
2007-10-23, 20:39:04
Hut ab....das kann man nicht meckern üner die klasse Leistung...
Zumal sie eine Ein-Slot Lösung ist...

Das Auge
2007-10-23, 20:42:03
Du bist doch erstmal bedient, oder?:wink:

Sagt jemand, der von einer 2900XT auf eine GTX umgestiegen ist :lol:

Ich sag mal so: Wenn ich die XT rechtzeitig verkaufe, sollte wohl ein 1:1 Tausch ohne draufzuzahlen möglich sein. und mehr Leistung für umme? Warum nicht ;)

Ich würde daher um die Beantwortung meiner beiden Fragen bitten :)

viking
2007-10-23, 21:06:35
Steht schon auf meiner Bestelliste für Weihnacht... falls da nix anderes kommt!

GsC
2007-10-23, 21:08:50
seh ich das richtig, dass die karte pcie 2.0 braucht?

also muß man ein pcie 2.0 board haben, damit sie läuft?

Matrix316
2007-10-23, 21:14:13
Wenn der Preis stimmt wird das meine nächste Karte! Wobei, mal sehen wie die nächsten ATIs werden. Oder die anderen neuen von Nvidia. ;)

Gast
2007-10-23, 21:14:20
seh ich das richtig, dass die karte pcie 2.0 braucht?

also muß man ein pcie 2.0 board haben, damit sie läuft?
Kurz und knapp:
2x Nein!

Don Vito
2007-10-23, 21:14:24
du brauchst kein PCIe 2.0
ist wie damals mit dem X16er Slots...
Da reichen x8 ja jetzt noch aus....

Mstrmnd
2007-10-23, 22:15:57
du brauchst kein PCIe 2.0
ist wie damals mit dem X16er Slots...
Da reichen x8 ja jetzt noch aus....
Jain, es ist diesmal nicht nur die Bandbreite. Die Spezifikation ist schon ein wenig anders. Karten mit PCIe 2 könnten in 1er Slots evtl. Probleme machen.

MartinRiggs
2007-10-23, 22:22:44
die Leistung ist schon nett, aber die 8800GTX ist noch schneller.
Wann kommt endlich der Refresh der 8800GTX???
Bräuchte man kein Board mit NV-chipsatz würde ich mir wahrscheinlich 2 8800GT holen

k0nan
2007-10-23, 22:38:34
Was soll das Teil nochmal kosten? Sind die Händler dem Ansturm eigtl gewachsen?

Gast
2007-10-23, 22:38:43
irgendwas ist da faul, mit 16TMUs und "nur" 600MHz ist diese leistung doch niemals drinnen.

entweder stimmen die benches nicht, oder aber die "zusammensetzung" der GPU, wobei ich eher auf zweiteres tippen würde.

der relativ hohe stromverbrauch deutet jedenfalls auf geringe abspeckungen gegenüber dem G80 hin.

Spasstiger
2007-10-23, 22:44:50
irgendwas ist da faul, mit 16TMUs und "nur" 600MHz ist diese leistung doch niemals drinnen.
Ich würde 20€ drauf wetten, dass der G92 mehr als 16 bi-TMUs hat.

Don Vito
2007-10-23, 23:03:42
Er ist ja in kleinerer Technolige gebaut...
Zudem ist er kein G8x sonern ein G9x...was auf eine baldige High end Karte schließen lässt...
Ich tippe da auf Januar bis März:D:D:D

LovesuckZ
2007-10-23, 23:09:33
Ich würde 20€ drauf wetten, dass der G92 mehr als 16 bi-TMUs hat.

Es scheinen 7 Cluster zu sein. Die einzige Frage lautet daher, sind es G80 oder G84 Cluster. Ansonsten wird die Karte wohl über 112SP (MADD + Mul), mindesten 28 TA und 56 TFUs, 16 ROPs, 256bit Speicherinterface und 256/512mb Ram besitzen. Ergo handeln es sich bei eine etwas weniger als 7/8 8800GTX.

Gast
2007-10-23, 23:19:20
Oft hat doch Ati denn Fehler gemacht mit veralteter Hardware zu kommen?
Nein Danke zu einer Dx 10 Karte.
By Ron Fosner, DirectX.Com August 14, 2007
Having just returned from Siggraph this year I was fielding some questions from some co-workers. "Didja hear that Microsoft announced DirectX 10.1?", "Yeah", "And that it makes all DX10.0 hardware obsolete?" - to which my witty reply was "huh?". I was there when the DX10.1 features were described and I'm sure I would have noticed it if Microsoft had made such an announcement.

What I do remember was the description of the architecture for DX10 and why it's breaking from the DX9 interface. Basically it's that fact that the API has just gotten bigger and bigger and has gotten to the point where 1) The underlying hardware doesn't work the way the API was originally laid out, and 2) the drivers are now these huge things to force the legacy API calls to talk to the current hardware setup. DX10 (and OpenGL 3 for that matter) is where we make a clean break and get back to a thin driver layer over the GPU. Gone are the fixed lighting pipeline of yor. In fact the whole Begin Scene - render - EndScene architecture is gone. Cap bits are finally going away and DX is adopting (waaaay to late) the OpenGL conformance test model. In other words DX10.0 is an API specification. If you want you hardware to be certified as being DX10.0 compatible, it has to run all the features that are in the DX10.0 spec. (And I assume it has to generate conforming output when tested against the API). The programmers now get to code to one API, not various flavors, and the consumer gets to know that a DX10 card will run all DX10 games.

OK, so what's the difference between DX10.0 and DX10.1? Basically what I heard was that DX10.1 was what Microsoft wanted for Vista ship, but not all the major hardware vendors could get all the features in the current hardware generation. So what shipped was most of the features minus some more esoteric things (like how 4 sample full screen antialiasing is implemented). The reason DX10.1 is coming out so quickly is that Microsoft wants the spec out there so developers can see what's going to be available in the near future as well as putting a stake in the ground that hardware venders have to meet. The new features that are in DX10.1 are:

TextureCube Arrays which are dynamically indexable in shader code.
An updated shader model (shader model 4.1).
full 32-bit floating point filtering
The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions.
The ability to render to block-compressed textures.
More flexibility with respect to copying of resources.
Support for blending on all unorm and snorm formats.
So, as the Microsoft guy said, it's all about the rendering quality. So, I doubt that when DX10.1 comes out suddenly your DX10.0 game will stop working. These are just enhancements to the API that don't reflect the current state of the hardware, just where the hardware will be forced to go in the near future. The DX9 API is getting a final revision that then will be frozen so any non-Vista OS will be able to run a DX9 (or 8, or 7) game, as will Vista since the DX9 DLL will coexist with the DX10.x DLL on Vista. If you want to try it out you'll need the Vista SP1 beta and the D3D10.1 Tech Preview - both will be downloadable from Microsoft.
http://www.directx.com/home.htm

svenska
2007-10-24, 00:01:28
also diese ersten benchmarks scheinen ja sehr interessant, allerdings wer weis, wieviel wahrheit in dieses test steckt.
ist ja nicht unbekannt, dass grakas bei vortests before sie released werden gut weggkommen.

falls doch, dann ist das sicherlich eine karte, die ich im auge habe, zumal sie ca. 20 watt weniger verbraucht als die GTS und dann besser performen.

ok, würde man das strommanagment der GTS überarbeiten, würde man bestimmt im idle auch 20 watt sparen. :-)


#edit: ok, 65nm...

Schrotti
2007-10-24, 00:16:47
Ich finde das Scheisse.

Wenn ich das gewusst hätte, dann hätte ich gewartet und mir eine 8800GT statt der 8800GTS 640MB gekauft.

Gast
2007-10-24, 00:20:16
Prelease-Treiber?
Für 'nen Erstling schlägt sich das Teil wirklich ordentlich...

So lang die Architektur die gleiche ist, ist der Treiber mal sowas von scheißegal. Nix Prelease, schließlich ist die DX10 Generation schon seit Monaten im Serieneinsatz.

Die haben höchsten neuen Treiber gebastelt, der auch diese Karte erkennt.

vinacis_vivids
2007-10-24, 01:59:54
Ich finde das Scheisse.

Wenn ich das gewusst hätte, dann hätte ich gewartet und mir eine 8800GT statt der 8800GTS 640MB gekauft.


Die 8800GT schmälert doch nicht die Leistung deiner 8800GTS...

Razor
2007-10-24, 07:24:27
Ich finde das Scheisse.

Wenn ich das gewusst hätte, dann hätte ich gewartet und mir eine 8800GT statt der 8800GTS 640MB gekauft.
Ich habe versucht, hier "Überzeugungsarbeit" zu leisten... und wurde als nVidia-Hasser verschrien... ich.
War doch klar, dass so etwas kommen würde:
- alpha-Architektur
- 'defekter' Video-Prozessor
- keine ausgewogene Leistungspalette

Der G80 ist einfach zu früh gekommen - eben nur, um marketingseitige Vorteile zu schaffen.
Bezahlt haben es allerdings die Consumenten...

So lang die Architektur die gleiche ist, ist der Treiber mal sowas von scheißegal. Nix Prelease, schließlich ist die DX10 Generation schon seit Monaten im Serieneinsatz.

Die haben höchsten neuen Treiber gebastelt, der auch diese Karte erkennt.
Da glaub' man dran... Du wirst Dich wundern!
Ist halt nicht nur ein einfacher Die-Shrink... würde mich nicht wundern, wenn gewisse Schwächen in der Architektur gleich mit vom Tisch wären.

Der G92 ist Basis für die komplette Palette einer neuen Leistungsstruktur und die G8x werden über kürz oder lang verschwinden.

Das wird sich verhalten, wie seinerzeit mit dem NV4x und den G7x...
...und es würde mich nicht wundern, wenn die G9x Reihe ähnlich erfolgreich werden wird, wie die des G7x.
That's it.

Die 8800GT schmälert doch nicht die Leistung deiner 8800GTS...
Die ganzen Nachteile des G80 und dann auch noch eine schwächere Lesitung?
Na, wenn das mal keine "Schmälerung" par excellence ist...

Razor

AnarchX
2007-10-24, 08:18:21
Ich habe versucht, hier "Überzeugungsarbeit" zu leisten... und wurde als nVidia-Hasser verschrien... ich.
War doch klar, dass so etwas kommen würde:
- alpha-Architektur
- 'defekter' Video-Prozessor
- keine ausgewogene Leistungspalette

Der G80 ist einfach zu früh gekommen - eben nur, um marketingseitige Vorteile zu schaffen.
Bezahlt haben es allerdings die Consumenten...


So ein Haufen Unsinn... :rolleyes:

Weder ist es ein "Alpha-Architektur", immerhin war der Markteintritt schon viel eher geplant, noch gibt es hier einen defekten VP, es ist halt nur VP1 und dies wird NV bestimmt genauso wie ATi begründen: Wer sich eine solche GPU kauft, wird auch eine genügend starke CPU haben.
Und wo ist bitte die Leistungspalette des G80 unausgewogen er überbietet rein zahlenmässig alles vor ihm und das zum Teil mehr als deutlich und dazu kommt noch die nie da gewesene Effizienz.

G80 ist nun mittlerweile fast ein Jahr alt und die welche ihn sich früh gekauft haben, haben sicherlich viel Spass an seiner Leistung und der unüberbotenen BQ-Vielfalt gehabt.

Es ist logisch, dass dieser irgendwann mal beerbt werden musste und das geschieht nun in der Form des G92 und logischerweise ist dieser nicht schlechter.

Und wenn du wieder auf den Stromverbrauch anspielen willst, dann sehe ich bei der 8800GT auch keine wirkliche Besserung, 2D ist immernoch relativ hoch, was wohl eben daran liegt, dass NV nachwievor Hybrid-SLI vermarkten will.

Wer nun sich jetzt noch eine G80-Karte gekauft hat ist natürlich ärgerlich in gewisser Hinsicht, aber ein Blick ins Speku-Forum hätte hier geholfen... ;)

Aber nichtdesotrotz kann sich selbst eine 8800GTS noch halbwegs behaupten und ist nicht ganz soweit hinter der 88GT und das wenn es um Settings mit mehr als 512MB geht, kann sie letztere auch eben schlagen.

tombman
2007-10-24, 08:26:58
So ein Haufen Unsinn... :rolleyes:
Genau... der G80 war ein "Wunderchip", schließlich ist er ein Jahr auf dem Markt, und ATI hat bis heute nix dagegenzusetzen...

Klar ärgert man sich, daß die GTX plötzlich so alt aussieht, aber man hatte auch ein Jahr Spaß damit.
Was wirklich ärgert ist einfach, daß kein neuer HighEnd Chip vorgestellt wurde, denn jetzt sind die Midrangeuser und die Highenduser plötzlich auf "einer Stufe"- und das mag ich gar nicht ;)

Aber es gibt auch große Vorteile: wenn man soviel Leistung um so wenig Preis bekommt, dann trauen sich die Entwickler auch an der Grafikschraube zu drehen, und Crysis wird viele Nachahmer finden- btw, die 8800GT ist ja wohl DIE Massenkarte dafür :)
Jetzt braucht keiner whinen ;)

Vertigo
2007-10-24, 08:45:38
Was mich an den Benchmarks etwas erstaunt, ist dass die 8800GT der 8800GTS auch mit MSAA relativ klar überlegen scheint, trotz der geringeren Bandbreite. Bei einem bloßen Refresh bzw. Shrink ist sowas doch nicht möglich.

Henroldus
2007-10-24, 08:47:18
Ich finde das Scheisse.

Wenn ich das gewusst hätte, dann hätte ich gewartet und mir eine 8800GT statt der 8800GTS 640MB gekauft.
also die gerüchte sind ja nun nicht erst 3 Tage alt!


Und wo ist bitte die Leistungspalette des G80 unausgewogen er überbietet rein zahlenmässig alles vor ihm und das zum Teil mehr als deutlich und dazu kommt noch die nie da gewesene Effizienz.

Razor meint hier sicherlich den Großen Abstand zwischen den 8600ern und den 8800 und der damit bisher vorhandenen Leistungslücke

Razor
2007-10-24, 08:54:38
@AnarchX

Viel zu früh, um solche Aussagen zu treffen... bezogen auf die immer noch vorhandene Konkurrenz-Fähigkeit der 'alten' GTS.

Ich habe mich schon öfters dazu ausgelassen, insofern fasse ich mich hier nur kurz: Der G80 ist eigentlich das, was man den Devs 'zumutet', damit diese die nächste Generation schon mal als Entwicklungsplattform parat haben... nur das dieses Alpha-Produkt diesmal den Weg in den Markt 'gefunden' hat. Merkwürdig auch, dass der G80 schon mir dem ersten Erscheinen von Vista verfügbar war... eben anfang November. Vermutlich wollte man einfach einem Desaster wie damals um dem NV30 (man erinnere sich an die FX und die 'plötzliche' Anpassung der D3D9-Spezifikationen) vorbeugen, indem man Hardware angeboten hat, die das (mit Erscheinen von Vista zemetierte) Featureset der neuen API komplett unterstützt und die Devs genau diese benutzen (und am Markt 'testen' können ;-), um zukünftige Anwendungen zu entwickeln. Wie gut das funktioniert hat, sieht man ja nun an den derzeitigen Produkten von AMD...

Ich vermute, dass der G80 einfach in einer Endphase der Entwicklung 'marktreif' gemacht wurde, obwohl es dort noch so einige Dinge gab, die schlicht nicht funktionierten... macht ja auch nichts, wenn der Markt selber - scheuklappenmäßig - ausschließlich auf die Leistung schaut. Satz und Sieg für nVidia... aber eben auf Kosten der Consumer, die sich mit Alpha-Hardware und - viel schlimmer noch - mit Alpha-Software herum schlagen mussten. Selbst jetzt gibt es noch Kritikpunkte an der Software, aber zumindest meine Wüsche zur Korrektur sind - auf Basis der 7900GT! - erhört worden... und das hat mal eben locker ein Jahr gedauert. Auch das ist ein sehr guter Hinweis darauf, wie es um Vista, D3D10 und den G80 bestellt war... so dermaßen vernachlässigt wurde die 'vorherige' Generation noch nie.

Wie dem auch sei, wenn nVidia es nun hin bekommt, ein Produkt in den Markt zu bringen, welches sowohl auf Hard- wie auch auf Softwareseite das komplette, beworbene Featureset unterstützt, wesentlich effizienter mit den Resourcen umgeht und zu den 'alten' Tugenden zurück findet, was den Support ihrer kompletten Produktpalette angeht, dann wendet sich meine Einschätzung wieder in den positiven Bereich.

Und nicht, dass ich hier falsch verstanden werde, denn AMD hat sich in den ganzen Punkten auch nicht mit Ruhm 'bekleckert'... ganz im Gegenteil. Ich wollte das Thema 3D schon vollends an den Nagel hängen, weil mir der Nichtsupport der 'alten' Produkte, die konkurrenzlos schlechten 'neuen' Produkte beider großen IHVs, wie auch das Gebaren von M$ gehörig auf den Senkel gingen... aber so langsam renkt sich alles wieder ein... wenn auch ATI endlich mal 'vernünftige' Produkte bringt und M$ die Vista-Misere so langsam (ist immerhin auch schon ein Jahr her) auf die Bahn bekommt...

Wir werden sehen.

Aber für DX9c und WinXP scheint mir die 8800GT genau das Richtige! Absolut ausreichende Performance für meine Ansprüche und ein Preis, der absolut in erträglichen Regionen liegt, das P/L-Verhältnis hier also endlich wieder stimmt. Ganz zu schweigen davon, dass ich hier offenbar keine Kompromisse mit einem neuen Produkt eingehen muss... umso mehr, wenn man den Resourcen-Umgang mit ins Kalkül zieht.

Und einen kleinen Ausblick auf D3D10 bekommt man damit auch... wenn man denn will.
Das allerdings setzt einen erheblichen Einsatz auf Seiten von M$ voraus... aber das steht auf einem anderen Blatt.

-

Nochmal zu Deinen Punkten:
- neue Architektur mit altem VP, der nicht einmal in seiner 'alten' Ausprägung korrekt funktioniert?
(Deine Argumentation: wer G80 kauft, hat auch eine starke CPU ist nonsense...)
- die unausgewogene Leistungspalette ist offensichtlich: LowEnd G84/86, HighEnd G80, dazwischen nichts
- die "Effizienz" spottet jeder Beschreibung... unglaubliche Leistungsaufnahme mit unglaublicher Transistoren-Menge - keine Spur davon!
- ich kenne einige, die sich den G80 gekauft haben... 'Spaß' ist etwas anderes - klar Leistung und BQ waren OK, das wars dann aber auch
- das mit der VRAM-Geschichte würde ich erst einmal abwarten... zu wenig Infos, zu wenig ausgereifte Treiber

Razor

#44
2007-10-24, 08:57:59
Was geht denn im PT Boats Benchmark ab? Aus dem Stehgreif würde ich auf den Speicher tippen.

Je höher die Auflösung (bzw. AA) in dem Bench desto schlimmer wirds.
Bei 1600x1200 -> 1920x1200 bricht die GTS mit 640MB ja auch extrem ein.
Der GTX mit 128 MB mehr machts aber kaum was aus.

Mit weniger Speicher ist der Bench garnicht erst möglich. (Die 8600 Verwundert mich aber / bzw. die kleine 8800 GTS)

Ohne AA steht die GTS ja auch wieder wie ne Eins ;)
Bei 1600x1200 -> 1920x1200 ist dann aber wieder Schluss.

Daher würde ich meinen, das es an den 128 MB weniger Speicher liegt.

Dagegen spricht aber das Ergebniss der 2900 XT!

Razor
2007-10-24, 09:03:33
Dagegen spricht aber das Ergebniss der 2900 XT
Jo... ergo: Treiber.

Diese 'herumgeflicke' am Speichermanagement der G80 scheint sich hier negativ zu äussern.
Vielleicht bräuchte es einfach einen angepaßten Treiber?
Who knows...

Und by the way... alles unter 30fps avg ist einfach miese Performance.
Insofern sieht hier selbst die GTX auch nicht besser aus...

Razor

Vertigo
2007-10-24, 09:05:04
[...]
Dagegen spricht aber das Ergebniss der 2900 XT!
Wieso? Die Unterschiede zw. den einzelnen Auflösungen sind doch recht plausibel, wenn man sich nur die Werte der Radeon anschaut. Dort kann es auch andere Probleme geben.

#44
2007-10-24, 09:09:26
Dort kann es auch andere Probleme geben.

Natürlich. Aber eben nicht das einzige, was ich eigentlich sagen wollte :redface:

Wobei mir dieses Problem schon sehr Extrem vorkommt.

AnarchX
2007-10-24, 09:13:31
...

Nochmal zu Deinen Punkten:
- neue Architektur mit altem VP, der nicht einmal in seiner 'alten' Ausprägung korrekt funktioniert?
(Deine Argumentation: wer G80 kauft, hat auch eine starke CPU ist nonsense...)
- die unausgewogene Leistungspalette ist offensichtlich: LowEnd G84/86, HighEnd G80, dazwischen nichts
- die "Effizienz" spottet jeder Beschreibung... unglaubliche Leistungsaufnahme mit unglaublicher Transistoren-Menge - keine Spur davon!
- ich kenne einige, die sich den G80 gekauft haben... 'Spaß' ist etwas anderes - klar Leistung und BQ waren OK, das wars dann aber auch
- das mit der VRAM-Geschichte würde ich erst einmal abwarten... zu wenig Infos, zu wenig ausgereifte Treiber


1. Es ist nicht meine Argumentation, sondern die von ATi, warum der R600 kein UVD hat, bei NV kann ich mir ähnliches vorstellen.
G92 hat ihn nun, weil er eben auch Marktbereiche erobern soll, wo dieser unabdingbar ist (G92-8700 für OEMs ;))
2. Ist bei ATi ebenso, aber G84 ist nunmal so groß wie seine Vorgänger, dass er nun relativ schwach ist, ist nunmal die Folge einer größeren Weiterentwicklung im Featureset
3. Die Pro-Watt-Leistung von G80 ist für eine High-End-GPU enorm, erst recht wenn man bedenkt, dass dieses 680M-Monster noch auf 90nm gefertigt wurde.
Warum der Idle-Verbrauch so hoch ist, wird ja nun langsam klar -hSLI...
4. Da gibt es aber auch viel andere Meinung, die man öffentlich einsehen kann, den man eher glauben schenkt, als deinen Bekannten, deren Existenz nichtmal gesichert ist.
5. Das wird sich zeigen müssen, aber manche Setting können durchaus mehr als 512MB benötigen und das ist vielleicht auch eben ein Grund warum diese Karte eben noch 8800 GT heißt.


Was mich an den Benchmarks etwas erstaunt, ist dass die 8800GT der 8800GTS auch mit MSAA relativ klar überlegen scheint, trotz der geringeren Bandbreite. Bei einem bloßen Refresh bzw. Shrink ist sowas doch nicht möglich.
Rechne mal nach, mir kommt es so vor, dass die GT stärker einbricht, wenn natürlich auch nur minimal (9.6GPix vs 10 GPix, 58GB vs 64GB) und im Ende ist es keine völlige Limitierung, sodass sich die hohe Tex/ALU-Power doch noch bemerkbar machen.

Vertigo
2007-10-24, 09:31:27
Rechne mal nach, mir kommt es so vor, dass die GT stärker einbricht, wenn natürlich auch nur minimal (9.6GPix vs 10 GPix, 58GB vs 64GB) und im Ende ist es keine völlige Limitierung, sodass sich die hohe Tex/ALU-Power doch noch bemerkbar machen.
Jaja, ich soll es ausrechnen ... :P:biggrin:

Aber schon die absoluten Werte sind bemerkenswert. In 1920*1200 mit 4xAA/8xAF ist die 8800GT je nach Benchmark 10-25% schneller als die 8800GTS 640MB, obwohl letzte über eine etwas höhere Bandbreite verfügt. Also scheint die 8800GT nicht nur wie bereits erwartet über die höhere Rohleistung zu verfügen, sondern scheint auch für hohe Qualitätseinstellungen die bessere Wahl zu sein.

tombman
2007-10-24, 09:32:59
(Deine Argumentation: wer G80 kauft, hat auch eine starke CPU ist nonsense...)
Das ist Tatsache und kein nonsense...wer anfangs bis zu 700€ für eine GTX raushaut, der hat sicher keinen Celeron im PC :rolleyes:

'Spaß' ist etwas anderes - klar Leistung und BQ waren OK, das wars dann aber auch
R O F L ;D

Leistung + BQ = Spaß

Leistungsaufnahme = wayne (wir haben 1000 Watt NTs)
Hitze = wayne (wir haben waküs)
Video Prozessor = wayne (wir haben quadcores)

Bei einem Rennwagen rege ich mich auch ned drüber auf, daß die Sitze so hart sind- da zählen Rundenzeiten und sonst gar nix- und in diesem Sinne hat Nvidia delivered :cool:

Undertaker
2007-10-24, 09:53:55
hmm, also etwas enttäuscht bin ich eigentlich schon... die leistung ist für den preis ok (wobei da frühere generationssprünge auch schon mehr gebracht haben), aber nichteinmal 20w weniger stromverbrauch bei kaum mehr leistung als die 8800gts / deutlich weniger als die 8800gtx: schwache leistung ;(

Vertigo
2007-10-24, 10:01:44
Rechne mal nach, mir kommt es so vor, dass die GT stärker einbricht, wenn natürlich auch nur minimal (9.6GPix vs 10 GPix, 58GB vs 64GB) und im Ende ist es keine völlige Limitierung, sodass sich die hohe Tex/ALU-Power doch noch bemerkbar machen.
Habe es eben mal für drei Benchmark-Sets nachgerechnet: du hast Recht. Die 8800GTS bricht ~5% weniger stark ein als die 8800GT, letztere bleibt aber dennoch immer schneller.
hmm, also etwas enttäuscht bin ich eigentlich schon... die leistung ist für den preis ok (wobei da frühere generationssprünge auch schon mehr gebracht haben), aber nichteinmal 20w weniger stromverbrauch bei kaum mehr leistung als die 8800gts / deutlich weniger als die 8800gtx: schwache leistung ;(
Eine Mehrleistung von bis zu 40% bzw. 25% ohne bzw. mit AA/AF, dazu geringere Verlustleistung, Single-Slot-Kühlung, bessere Videobeschleunigung und das für weniger als 2/3 des Preises. Also ich finde schon, dass die 8800GT gegen die 8800GTS 640MB sehr ordentlich dasteht.

MadManniMan
2007-10-24, 10:10:33
G80-Käufer waren auf diese spezielle Art und Weise Eary-Adaptors, daß sie eben den Kompromiss idle-Verbrauch eingehen mußten - aber was sie uns Nutzern älterer Hardware (SM3 wtf? :usweet: ...ich mag meine X800 XL ;) ) an Performance voraus hatten, ist schon aller Ehren wert.

Die 8800 GT ist die verspätete Preissenkung der 8800 GTX, sozusagen.

Gast
2007-10-24, 10:29:00
G80-Käufer waren auf diese spezielle Art und Weise Eary-Adaptors, daß sie eben den Kompromiss idle-Verbrauch eingehen mußten - aber was sie uns Nutzern älterer Hardware (SM3 wtf? :usweet: ...ich mag meine X800 XL ;) ) an Performance voraus hatten, ist schon aller Ehren wert.

Die 8800 GT ist die verspätete Preissenkung der 8800 GTX, sozusagen.

Den Kompromiss idle-Verbrauch wird man wohl auch mit der 8800GT eingehen müssen. Zwar natürlich auf niedrigerem Niveau wie bei einem G80, aber weiterhin ohn Taktraten/Spannungsanpassung.

reunion

MadManniMan
2007-10-24, 10:53:50
Den Kompromiss idle-Verbrauch wird man wohl auch mit der 8800GT eingehen müssen. Zwar natürlich auf niedrigerem Niveau wie bei einem G80, aber weiterhin ohn Taktraten/Spannungsanpassung.

Ich habe nur gelesen, daß das Gesamtsystem statt 166 bei der GTS 640 nun 148 Watt zieht.
- ist das immernoch so viel?
- kann man mit Software dynamisch (mit 2D/3D-Erkennung also) die Taktrate/Spannung anpassen, wenn man bewandert ist?

PS: schön, daß auch Du den Fremdsprachenanteil kursiv schreibst :up:

Undertaker
2007-10-24, 10:54:27
Eine Mehrleistung von bis zu 40% bzw. 25% ohne bzw. mit AA/AF, dazu geringere Verlustleistung, Single-Slot-Kühlung, bessere Videobeschleunigung und das für weniger als 2/3 des Preises. Also ich finde schon, dass die 8800GT gegen die 8800GTS 640MB sehr ordentlich dasteht.

von "bis zu" werten zu reden macht denke ich wenig sinn ;) ich sehe da auch eine ganze reihe von 5-10% höheren werten... klar, die karte ist eindeutig besser als die gts. und billiger. aber nicht der fortschritt, den ich innerhalb eines jahres erwarte - das wären 50-100% mehrleistung bei 0-25% mehrverbrauch für den gts-nachfolger...

AnarchX
2007-10-24, 10:59:32
aber nicht der fortschritt, den ich innerhalb eines jahres erwarte - das wären 50-100% mehrleistung bei 0-25% mehrverbrauch für den gts-nachfolger...

Warum sollte die 8800 GT, der GTS-Nachfolger sein?;)

Vertigo
2007-10-24, 11:02:12
von "bis zu" werten zu reden macht denke ich wenig sinn ;) ich sehe da auch eine ganze reihe von 5-10% höheren werten... klar, die karte ist eindeutig besser als die gts. und billiger. aber nicht der fortschritt, den ich innerhalb eines jahres erwarte - das wären 50-100% mehrleistung bei 0-25% mehrverbrauch für den gts-nachfolger...
Naja, schneller ist sie jedenfalls immer, selbst wenn es im worst case nur 10% sind. Zudem liegt der Einstiegspreis wohl nur bei etwas mehr als der Hälfte von dem, was die GTS seinerzeit gekostet hat. Als einen Nachfolger für GTS/GTX sehe ich die GT ohnehin nicht an. Und ich bin mir sicher, dass nVidia diesbezüglich auch noch mehr zu bieten haben wird.

Undertaker
2007-10-24, 11:05:19
Warum sollte die 8800 GT, der GTS-Nachfolger sein?;)

hat keiner gesagt ;) aber ich glaube nicht das die größeren g92-modelle nocheinmal deutlich schneller sind, ohne groß mehr zu verbrauchen (und idle bitte auch weniger als die alte gts) - wenn die gt jetzt 40-50w unter der gts gelegen hätte...

edit: also nochmal, hab mich wohl missverständlich ausgedrückt: die leistung der 8800gt für die preisklasse ist super. der stromverbrauch keinesfalls. denn der lässt für einen nachfolger in der preisklasse der alten gts stagnierende bis steigende stromverbräuche erwarten

Gaestle
2007-10-24, 11:16:09
Zum Einbruch bei PT Boats:

Ich glaube aktuell nicht an den "Speicherbug". Coda hatte im Benchthread angedeutet, das PT -Boats sehr geometrielastig sein soll. Geometrie soll der Roten besser liegen als den Grünen. Vielleicht ist deswegen der Einbruch bei der Roten geringer.

Ist der Speicherbug bei G80 eigentlich inzwischen per Treiber behoben? Oder wird der erst mit G92 behoben?

AnarchX
2007-10-24, 11:19:42
Zum Einbruch bei PT Boats:

Ich glaube aktuell nicht an den "Speicherbug". Coda hatte im Benchthread angedeutet, das PT -Boats sehr geometrielastig sein soll. Geometrie soll der Roten besser liegen als den Grünen. Vielleicht ist deswegen der Einbruch bei der Roten geringer.


Die 2900XT unterliegt hier doch und warum sollte die Geometrie-Last mit höheren Auflösungen/MSAA/AF steigen? ;)

Das ist ganz klar ein Mangel an VRAM, egal ob nun Speicherbug oder einfach nur schlammpige Programmierung.

Gaestle
2007-10-24, 11:21:38
Die 2900XT unterliegt hier doch und warum sollte die Geometrie-Last mit höheren Auflösungen/MSAA/AF steigen? ;)


Vielleicht wird die Geometrie bei höheren Auflösungen auch feiner dargestellt? Ich weiß es nicht. Dass die Rote hier generell hinten liegt, kann ja auch an was anderem liegen. Sie hat ja einige Limits.

AnarchX
2007-10-24, 11:23:40
Vielleicht wird die Geometrie bei höheren Auflösungen auch feiner dargestellt? Ich weiß es nicht. Dass die Rote hier generell hinten liegt, kann ja auch an was anderem liegen. Sie hat ja einige Limits.

Die Geometrie-Theorie ist einfach nur BS, da ja hier die GT besser als die GTS sein sollte...

Es kann nur ein VRAM-Mangel/Bug sein!

Gast
2007-10-24, 11:26:10
Den Kompromiss idle-Verbrauch wird man wohl auch mit der 8800GT eingehen müssen. Zwar natürlich auf niedrigerem Niveau wie bei einem G80, aber weiterhin ohn Taktraten/Spannungsanpassung.
reunion

nVidia hat seit dem 7600/7900 Karten - eventuell mit Ausnahme der 7900GTX - keinen seperaten IDLE Modus mit einer Voltansenkung.

LovesuckZ

up¦²
2007-10-24, 11:27:21
Die "Neue" haut ja rein :tongue:
da werden Quadträume sicher bald wach und bezahlbar!
aber: wird nicht so sehr an der GTS gemessen, sondern an der neuen Roten 3er ... und an der Kasse :wink:
Abwarten!

AnarchX
2007-10-24, 11:29:46
nVidia hat seit dem 7600/7900 Karten - eventuell mit Ausnahme der 7900GTX - keinen seperaten IDLE Modus mit einer Voltansenkung.

Da bist du falsch informiert, z.B. 7600GT 2D 1.3V - 3D 1.36V (http://www.vr-zone.com/index.php?i=3330).

Gast
2007-10-24, 11:35:33
Da bist du falsch informiert, z.B. 7600GT 2D 1.3V - 3D 1.36V (http://www.vr-zone.com/index.php?i=3330).

Danke...
Ich glaube, dass lassen wir unter "Abweichung" laufen :ugly:
Es bestätigt aber, dass die Absenkung im IDLE Modus nicht vorhanden war bzw. nur sehr sehr gering ausfiel.

LovesuckZ

Gast
2007-10-24, 11:41:25
Was soll das Gerät denn etwa kosten?

Die Leistung ist schon hoch anständig, nur beim IDLE Verbrauch hätte ich mir wirklich deutlichere Reduktionen gewünscht. Eile aufzurüsten habe ich momentan noch nicht (die 9500pro tuts noch :D).

Gast
2007-10-24, 11:43:52
20 Watt weniger im IDLE ist ungefähr 7900GTX Niveau. Für 700 Millionen Transistoren und einem ähnlich großen DIE ist das noch im grünen Bereich.

LovesuckZ

Gast
2007-10-24, 11:50:25
Warum wird nicht noch mehr getan für den IDLE-Zustand?

Gast
2007-10-24, 12:02:07
Warum wird nicht noch mehr getan für den IDLE-Zustand?

Die Karte soll eine Spannung von 1,1V haben - im IDLE wie im LAST Modus. Das ist verdammt wenig.

LovesuckZ

Gast
2007-10-24, 13:16:50
Ich habe versucht, hier "Überzeugungsarbeit" zu leisten... und wurde als nVidia-Hasser verschrien... ich.
War doch klar, dass so etwas kommen würde:
- alpha-Architektur
- 'defekter' Video-Prozessor
- keine ausgewogene Leistungspalette

und wieder mal die alte Leier.

Bitte belege deine Punkte - das hast du in den diversen Threads im Nvidia-Forum bislang auhc nicht geschafft...

Gast
2007-10-24, 13:36:14
hmm, also etwas enttäuscht bin ich eigentlich schon... die leistung ist für den preis ok (wobei da frühere generationssprünge auch schon mehr gebracht haben), aber nichteinmal 20w weniger stromverbrauch bei kaum mehr leistung als die 8800gts / deutlich weniger als die 8800gtx: schwache leistung ;(
*Unterschreib* Dazu kommt noch das kein DX10.1 gibt kein richtiger Idle Modus und laut den ersten Tests enorme Hitze schon non OC (86grad)

LovesuckZ
2007-10-24, 13:43:00
Es gibt einen richtigen IDLE Modus, oder verbraucht die Karte im IDLE genauso viel wie unter Last? Die Karte hat default nur maximal 1,1V, weniger als eine 7900GT! Irgendwie solltet ihr begreifen, dass 700 Millionen Transistoren sich bemerkbar machen - jedenfalls mehr als 289 Millionen.
Die ernorme Hitze ergibt sich aus dem Single-Slot Kühler. Wartet einfach ein paar Wochen und es werden bestimmte Kühllösungen von anderen Herstellern per default angeboten werden.

Gast
2007-10-24, 13:48:36
Bei den Roten z.b. sind es 1V im Idle beim 80nm Chip und bei manueller einstellung gehen auch 0,8V.
Ich finde da könnte man bei NV noch nachbessern ;-)

LovesuckZ
2007-10-24, 13:50:30
Und trotzdem verbraucht die Karte im IDLE Modus genauso viel wie die 8800GTS ohne Anpassung...

Gast
2007-10-24, 13:51:40
edit: also nochmal, hab mich wohl missverständlich ausgedrückt: die leistung der 8800gt für die preisklasse ist super. der stromverbrauch keinesfalls. denn der lässt für einen nachfolger in der preisklasse der alten gts stagnierende bis steigende stromverbräuche erwarten
Ist nicht verwunderlich. Leistung kommt nicht aus dem Nichts, egal wie gut die Effizienz ist. Ein Porsche säuft bei 300 km/h auch um die 50 Liter pro 100 km.
Der Verbrauch wird weiter steigen, bis der Konsument stopp sagt, ich kann/will mir mehr finanziell nicht mehr erlauben. Dann gibt's natürlich auch keine schnelleren Karten mehr.

Gast
2007-10-24, 13:52:34
Es gibt einen richtigen IDLE Modus, oder verbraucht die Karte im IDLE genauso viel wie unter Last?


Dass Transistoren beim schalten mehr Verlustleistung erzeugen als wenn sie nur vor sich hingammeln, ist ein naturgesetzt und hat nichts mit einem idle-Modus zu tun.


Die Karte hat default nur maximal 1,1V, weniger als eine 7900GT!


Ein kleinerer Fertigungsprozess sorgt in der Regel auch für eine niedrigere Spannung.

reunion

Gast
2007-10-24, 13:56:42
Ist nicht verwunderlich. Leistung kommt nicht aus dem Nichts, egal wie gut die Effizienz ist. Ein Porsche säuft bei 300 km/h auch um die 50 Liter pro 100 km.Aber eben keine 35l beim Stehen an der Ampel. Und wenn man dann noch mit dem Porsche sowieso 95% an Ampeln steht, ist das döppelt blöd.

Dann gibt's natürlich auch keine schnelleren Karten mehr. Quatsch.

LovesuckZ
2007-10-24, 14:03:29
Dass Transistoren beim schalten mehr Verlustleistung erzeugen als wenn sie nur vor sich hingammeln, ist ein naturgesetzt und hat nichts mit einem idle-Modus zu tun.

Natürlich. Anders würden sie nur im LAST Modus laufen.

Ein kleinerer Fertigungsprozess sorgt in der Regel auch für eine niedrigere Spannung.


Natürlich, aber je nach Leistungsansprüchen muss man die Spannung anheben. Das die 8800GT mit 1,1V kommt, ist dagegen postiv, da AMD anscheinend ca. 1,3V für den rv670 verwendet.

Gast
2007-10-24, 14:12:33
Aber eben keine 35l beim Stehen an der Ampel. Und wenn man dann noch mit dem Porsche sowieso 95% an Ampeln steht, ist das döppelt blöd.

Quatsch.
Wieso soll das Quatsch sein? Der Verbrauch, ich vergleiche jetzt nur altes High End mit Nachfolger-High End, ist doch fast ausnahmslos gestiegen - oder?
Ich sage ja nicht, dass es in Kürze passiert, aber irgendwann sicherlich.
Wenn irgendwann der Verbraucher sagt nein, bzw. der Absatzmarkt für diese Karten sehr sehr klein wird, dann wird auch die Entwicklung stagnieren. Es sei denn, die entwicklen bis jetzt auf Sparflamme und in Zukunft verkleinern die Fertigungsprozesse am laufenden Band. Das ist doch so gut wie die einzige Möglichkeit, zumindest unter Last, den Verbrauch, zu senken.

Gast
2007-10-24, 14:26:12
Natürlich. Anders würden sie nur im LAST Modus laufen.


Was gar nicht möglich ist, wenn man nicht die Karte mittels Treiber ständig sinnlos vor sich hinrechnen lässt. Einen idle/Last-Modus gibt es jedenfalls nicht, es liegt immer die gleiche Spannung/Taktraten an, lediglich der Auslastungsgrad bestimmt die Verlustleistung.


Natürlich, aber je nach Leistungsansprüchen muss man die Spannung anheben. Das die 8800GT mit 1,1V kommt, ist dagegen postiv, da AMD anscheinend ca. 1,3V für den rv670 verwendet.

Das wird auch höchstwahrscheinlich nicht das Topmodell des G92 sein. Ein RV670pro wird auch mit einer niedrigeren Spannung auskommen.

reunion

LovesuckZ
2007-10-24, 14:37:02
Was gar nicht möglich ist, wenn man nicht die Karte mittels Treiber ständig sinnlos vor sich hinrechnen lässt. Einen idle/Last-Modus gibt es jedenfalls nicht, es liegt immer die gleiche Spannung/Taktraten an, lediglich der Auslastungsgrad bestimmt die Verlustleistung.

Der Treiber ist jedoch verantwortlich für die Auslastung der Karte.


Das wird auch höchstwahrscheinlich nicht das Topmodell des G92 sein. Ein RV670pro wird auch mit einer niedrigeren Spannung auskommen.
reunion

Eine 8800GT wird, sollten die ersten Ergebnisse stimmen, wesentlich schneller als eine rv670pro sein. Für gleiche Leistung benötigt AMD daher eine höhrere Spannung, um die Karte auf die gewünschten Taktraten zu bringen.

Gast
2007-10-24, 14:42:30
Der Treiber ist jedoch verantwortlich für die Auslastung der Karte.


Ja, nur wenn keine Arbeit anfällt, dann fällt keine Arbeit an. Das als idle-Modus zu bezeichen ist schon ziemlich obszön.


Eine 8800GT wird, sollten die ersten Ergebnisse stimmen, wesentlich schneller als eine rv670pro sein. Für gleiche Leistung benötigt AMD daher eine höhrere Spannung, um die Karte auf die gewünschten Taktraten zu bringen.

Logisch, bei niedrigerer Transistorenanzahl. Ein R600 braucht auch weniger Spannung als ein G84, um auf dieselbe Leistung zu kommen. Viel aussagekräftiger ist da schon die TDP, und da sind 110W bei nur 1.1V und teildeaktiviertem Chip nicht wenig. Wieviel wird dann wohl erst ein voller G92 mit höheren Taktraten und vielleicht 1.3V brauchen?

reunion

master_blaster
2007-10-24, 14:43:28
Erster Retailtest: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1474843/nvidia.html

Gast
2007-10-24, 14:47:15
Erster Retailtest: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1474843/nvidia.html

der ist gut.

mapel110
2007-10-24, 14:47:49
Erster Retailtest: http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1474843/nvidia.html
Wenigstens das erste Posting eines Threads könnte man mal lesen. :rolleyes:

Gast
2007-10-24, 14:47:59
der ist gut.
und absolut aktuell

LovesuckZ
2007-10-24, 14:50:54
Ja, nur wenn keine Arbeit anfällt, dann fällt keine Arbeit an. Das als idle-Modus zu bezeichen ist schon ziemlich obszön.

Woher soll die Karte wissen, wann arbeit anfällt? Dafür ist der Treiber verantwortlich. Es gibt einen IDLE Modus, nur ist dieser bei den G8x Karten eben nicht so umfassend wie bei der Konkurrenz.


Logisch, bei niedrigerer Transistorenanzahl. Ein R600 braucht auch weniger Spannung als ein G84, um auf dieselbe Leistung zu kommen. Viel aussagekräftiger ist da schon die TDP, und da sind 110W bei nur 1.1V und teildeaktiviertem Chip nicht wenig. Wieviel wird dann wohl erst ein voller G92 mit höheren Taktraten und vielleicht 1.3V brauchen?
reunion

AMD gibt 104 bzw. 132 Watt für ihre rv670 Produkte an. Diese werden wohl nicht annährend in 8800GT Niveau spielen.
Ein G92 mit 1.3V und erhöhten Taktraten sollte irgendwo auf dem Niveau der 8800GTX liegen.

Gast
2007-10-24, 14:57:23
Woher soll die Karte wissen, wann arbeit anfällt? Dafür ist der Treiber verantwortlich. Es gibt einen IDLE Modus, nur ist dieser bei den G8x Karten eben nicht so umfassend wie bei der Konkurrenz.


Das ist lächerlich. Demnach hätte jeder Transistoren per definition einen idle-Modus, wenn es nicht schaltet.


AMD gibt 104 bzw. 132 Watt für ihre rv670 Produkte an. Diese werden wohl nicht annährend in 8800GT Niveau spielen.
Ein G92 mit 1.3V und erhöhten Taktraten sollte irgendwo auf dem Niveau der 8800GTX liegen.

Wie schon gesagt, logisch bei höherer Transistorenanzahl. Ein breiterer Chip mit niedrigeren Taktraten erzeugt nunmal weniger Verlustleistung, als ein schmalerer Chip bei höheren Taktraten um auf dieselbe Leistung zu kommen. Dafür ist ein schmalerer Chip mit höheren Taktraten billiger in der Herstellung.

reunion

LovesuckZ
2007-10-24, 15:02:05
Das ist lächerlich. Demnach hätte jeder Transistoren per definition einen idle-Modus, wenn es nicht schaltet.

Was ist daran lächerlich? Die Karte läuft beim Starten des Rechners unter LAST. Auch dann, wenn kein Treiber installiert wurde. Der Treiber regelt die Verteilung der Arbeit. Ohne Treiber gäbe es keinen IDLE Modus.

_DrillSarge]I[
2007-10-24, 15:04:59
Was ist daran lächerlich? Die Karte läuft beim Starten des Rechners unter LAST. Auch dann, wenn kein Treiber installiert wurde. Der Treiber regelt die Verteilung der Arbeit. Ohne Treiber gäbe es keinen IDLE Modus.
bei ati ist das andersrum, ohne treiber kein 3d-modus. da im bios verschiedene takte/ spannungen angegeben sind (2d/3d) und die karte per default ja in 2d läuft

LovesuckZ
2007-10-24, 15:18:16
I[;5962665']bei ati ist das andersrum, ohne treiber kein 3d-modus. da im bios verschiedene takte/ spannungen angegeben sind (2d/3d) und die karte per default ja in 2d läuft

Das 2D Profil wird geladen, aber ich könnte wetten, dass der Verbrauch mit Treiber im 2D Modus noch geringer ist.

_DrillSarge]I[
2007-10-24, 15:39:06
Das 2D Profil wird geladen, aber ich könnte wetten, dass der Verbrauch mit Treiber im 2D Modus noch geringer ist.
das kann natürlich sein, keine ahnung. darüber gibt ja keine tests (???).

Razor
2007-10-24, 15:45:19
Das ist Tatsache und kein nonsense...wer anfangs bis zu 700€ für eine GTX raushaut, der hat sicher keinen Celeron im PC
Einen Zusammenhang herzustellen wo keiner ist, ist nonsense.
Oder was soll die zugesicherte Eigenschaft einer Grafikkarte mit der Leistung einer CPU zu tun haben?
:confused:

Mann, mann, mann...

Leistung + BQ = Spaß
Darüber gehen die Meinungen eben auseinander...
Mir macht eine Grafikkarte nur dann spaß, wenn sie vollumfänglich funktioniert - nicht nur ca. 5% der Computernutzung.
Gibt eben viele, die kein Zentimetermaß neben dem Moni liegen haben... :rolleyes:

G80-Käufer waren auf diese spezielle Art und Weise Eary-Adaptors, daß sie eben den Kompromiss idle-Verbrauch eingehen mußten - aber was sie uns Nutzern älterer Hardware (SM3 wtf? :usweet: ...ich mag meine X800 XL ;) ) an Performance voraus hatten, ist schon aller Ehren wert.
Tjo, Manni, sehe ich anders.
"Eary-Adaptors" waren/sind die G80-User in nahezu JEDER Hinsicht!

Einzig die Leistung samt BQ (HDR+AA wollte allerdings nur selten, oder ;-) stimmte, sonst aber stimmte nichts.
Wie gesagt: Develeoper kennen so etwas guuuut.... jetzt 'kennen' es auch mal Endverbraucher.

Warum sollte die 8800 GT, der GTS-Nachfolger sein?;)
Würde mich auch mal interessieren...
Die GT füllt lediglich die längst überfällige Lücke zwischen Low- und HighEnd.
Dass sie dabei der GTS zu nahe kommt, steht auf einem anderen Blatt.

Und seit wann wird ein 'Nachfolger' mit dem gleichen Namen des 'Vorgängers' bedacht (i.e. 8800 vs. 8800)`?
Gilt dann insbesonders für die 'neue' GTS...

Naja, schneller ist sie jedenfalls immer, selbst wenn es im worst case nur 10% sind. Zudem liegt der Einstiegspreis wohl nur bei etwas mehr als der Hälfte von dem, was die GTS seinerzeit gekostet hat. Als einen Nachfolger für GTS/GTX sehe ich die GT ohnehin nicht an. Und ich bin mir sicher, dass nVidia diesbezüglich auch noch mehr zu bieten haben wird.
Klaro!
Und mit ein bissel Phantasie bekommt man das auch selbst gebacken:
- G90 = HighEnd (kommt 2008)
- G92 = Performance (kommt jetzt ;-)
- G94 = LowEnd (kommt später)
- G96 = Midrange (kommt später)
- G98 = UltraLowEnd (kommt später)

Hier wurde lediglich ein Modell (der G92) für 2007 vorgezogen (oder eben der Rest verschoben - ganz wie man sehen mag), um dem Refreshchen von AMD im zugehörigen Segment etwas entgegen zu setzen. Neues HighEnd wird es aber wohl erst Q1 2008 'brauchen'...

nVidia läßt AMD gerade am ausgestreckten Arm verhungern...
...unschön, aber Fakt.

Razor

MadManniMan
2007-10-24, 15:52:16
Tjo, Manni, sehe ich anders.
"Eary-Adaptors" waren/sind die G80-User in nahezu JEDER Hinsicht!

Hm, was war denn noch mies?

reunion
2007-10-24, 16:00:40
Einen Zusammenhang herzustellen wo keiner ist, ist nonsense.
Oder was soll die zugesicherte Eigenschaft einer Grafikkarte mit der Leistung einer CPU zu tun haben?
:confused:

Mann, mann, mann...


Sollte doch nicht so schwer sein: Wer ausreichend CPU-Power hat, braucht nicht unbedingt einen Videoprozessor, da die CPU die Arbeit natürlich genau so gut übernehmen kann.


Darüber gehen die Meinungen eben auseinander...
Mir macht eine Grafikkarte nur dann spaß, wenn sie vollumfänglich funktioniert - nicht nur ca. 5% der Computernutzung.
Gibt eben viele, die kein Zentimetermaß neben dem Moni liegen haben... :rolleyes:


Tjo, Manni, sehe ich anders.
"Eary-Adaptors" waren/sind die G80-User in nahezu JEDER Hinsicht!

Einzig die Leistung samt BQ (HDR+AA wollte allerdings nur selten, oder ;-) stimmte, sonst aber stimmte nichts.
Wie gesagt: Develeoper kennen so etwas guuuut.... jetzt 'kennen' es auch mal Endverbraucher.


Das übertreibst wiedermal maßlos. Eine 8800GT verbraucht vielleicht 20W weniger als eine 8800GTS und leistet vielleicht 10-15% mehr. Dazu gibts noch den VP2. Klar, im Fall der Fälle würde jeder klar denkende Mensch eine 8800GT vorziehen, doch so groß wie du hier illusionieren willst, ist der Unterschied bei weitem nicht. Zumal die 8800GTS nach wie vor den Vorteil des größeren VRAMs und der höheren Bandbreite hat. Sonst gibt es schlicht keine Vorteile ggü. G80, wenn also dieser deiner Meinung nach nur Alpha-Status erreicht, trifft dies IMHO auf G92 im selben Maße zu.



nVidia läßt AMD gerade am ausgestreckten Arm verhungern...
...unschön, aber Fakt.

Razor

Fakt ist, dass es draußen schneit. Fakt ist, dass mein Handy kaputt ist. Deine Behauptungen sind kein Fakt, sondern wie so oft nur eine extreme Verzerrung der Realität.

_DrillSarge]I[
2007-10-24, 16:04:26
was gibts eigentlich gegen diese karte zu bashen? sie ist schneller, verbraucht weniger und wo gibts da was zu meckern? haben jetzt welche erwartet, dass jetzt die überkarte kommt auf der crysis in 1600x1200@4AA mit 500fps läuft? die kochen auch nur mit wasser wie jeder.

master_blaster
2007-10-24, 16:07:44
Wenigstens das erste Posting eines Threads könnte man mal lesen.
Dumm nur, dass der "mein" Test von heute ist. Oder ist's doch der gleiche? Irgendwie kamen mir die Werte anders vor. OK, scheiße! Sorry for Doppelpost.

Fakt ist, dass es draußen schneit. Fakt ist, dass mein Handy kaputt ist. Deine Behauptungen sind kein Fakt, sondern wie so oft nur eine extreme Verzerrung der Realität.
Es sieht aber schon so aus, als ob nVIDIA den AMD/ATI Ast gerade jetzt absägen möchte.

reunion
2007-10-24, 16:07:47
I[;5962845']was gibts eigentlich gegen diese karte zu bashen? sie ist schneller, verbraucht weniger und wo gibts da was zu meckern? haben jetzt welche erwartet, dass jetzt die überkarte kommt auf der crysis in 1600x1200@4AA mit 500fps läuft? die kochen auch nur mit wasser wie jeder.

Niemand "basht" diese Karte, sie liegt sehr gut. Nur wenn hier jemand so tut, als wäre diese Karte die Offenbarung schlechthin, und alles was davor kam der größte Mist, dann ist das einfach nur falsch.

Simon
2007-10-24, 16:15:27
"Eary-Adaptors" waren/sind die G80-User in nahezu JEDER Hinsicht!

Einzig die Leistung samt BQ (HDR+AA wollte allerdings nur selten, oder ;-) stimmte, sonst aber stimmte nichts.
Wie gesagt: Develeoper kennen so etwas guuuut.... jetzt 'kennen' es auch mal Endverbraucher.
Und was war jetzt noch schlecht oder "stimmte nicht" bei den G80-Karten (8800GTS und GTX)? Ok, der Idle-Stromverbrauch ist (zu) hoch, aber sonst? :|

Blaire
2007-10-24, 16:27:23
Und was war jetzt noch schlecht oder "stimmte nicht" bei den G80-Karten (8800GTS und GTX)? Ok, der Idle-Stromverbrauch ist (zu) hoch, aber sonst? :|

Das kann er dir eh nicht beantworten da er keine Erfahrung damit hatte. Ignoriere es und fertig.

Matrix316@w
2007-10-24, 16:37:19
Einen Zusammenhang herzustellen wo keiner ist, ist nonsense.
Oder was soll die zugesicherte Eigenschaft einer Grafikkarte mit der Leistung einer CPU zu tun haben?
:confused:

Mann, mann, mann...

Bau doch mal einen Ferrari Motor in einen Traktor ein. ;)

Ice-Kraem
2007-10-24, 16:40:25
wann soll es denn die karten ca. geben? und was werden sie kosten?

Razor
2007-10-24, 16:41:30
Das kann er dir eh nicht beantworten da er keine Erfahrung damit hatte. Ignoriere es und fertig.
Da glaube mal dran...
Ich bin es lediglich leid, immer wieder das Gleiche zu posten.

Sagen wir es doch einfach so:
Wenn es Euren Seelenfrieden rettet, zu 'wissen', dass doch mit dem G80 alles OK war/ist, dann glaubt doch weiter daran.

Ist doch nicht so schwer, oder etwa doch?
:confused:

Razor

Razor
2007-10-24, 16:43:17
Bau doch mal einen Ferrari Motor in einen Traktor ein. ;)
Oder einen Raketentriebwerk in einen Ferrari...
Geht dann gut ab das Teil!
(wenn es das nicht zerreißt ;-)

Nur was das jetzt mit der Problematik zu tun haben soll?
Who knows...

Razor

LovesuckZ
2007-10-24, 16:44:25
Da glaube mal dran...
Ich bin es lediglich leid, immer wieder das Gleiche zu posten.


Dann lasse es doch einfach...

Razor
2007-10-24, 16:45:17
Dann lasse es doch einfach...
Tue ich doch...

Gast
2007-10-24, 17:11:53
der ist gut.
und absolut aktuell
Und 100% richtig ne :rolleyes:

Mstrmnd
2007-10-24, 17:23:36
Oh Mann, Razor. Wie kann man auf der einen Seite Ahnung haben und sich schön um Treiber kümmern und auf der anderen Seite so einen Unsinn über Hardware verzapfen.

Glaub mir, für einen Außenstehenden, der das hier gelesen hast, stehst Du verdammt blöd da. Es wäre in Deinem eigenen Interesse, wenn schon nicht altest zu wiederholen, dann aber Links zu den alten Aussagen zu geben. Sollte ja auch kein Problem sein, wenn Du es schon öfters erklärt hast. Oder erwartest Du, dass wir uns jetzt 13k+ Beiträge von Dir durchlesen?

Außerdem hättest Du in der gleichen Zeit, in der Du Dein "Ich will mich nicht wiederholen blabla" verfasst hast, genau so gut schreiben können, was Du von einer Grafikkarte mehr erwartest, als gute Leistung und BQ.

Vielleicht würde es Dir aber auch einfach nur gut tun Dir klar zu machen, dass Deine Ansprüche alles andere als normal sind und deswegen nicht auf andere übertragbar sind und schon gar nicht als Fakten dargestellt gehören.

Der G80 war in den wichtigsten Punkten, Leistung und BQ, eine Wucht. Das ist auch alles, was man von ihr verlangen konnte. tombman hat es hier sehr schön gesagt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5961598&postcount=52

Und dass Du nicht in der Lage bist die Aussage mit dem (statistischen!) Zusammenhang zwischen Grafikkarte und Prozessor zu begreifen, kann man wohl nur auf Deinen Unwillen zurückführen. So blöd bist Du bestimmt nicht.

Coda
2007-10-24, 17:25:57
Einzig die Leistung samt BQ (HDR+AA wollte allerdings nur selten, oder ;-) stimmte, sonst aber stimmte nichts.
Wie gesagt: Develeoper kennen so etwas guuuut.... jetzt 'kennen' es auch mal Endverbraucher.
Egal wie oft du es wiederholst. Es wird nicht wahrer. Die 8800er-Karten laufen seit Start einwandfrei unter XP.

Und Vista ist ja sowieso keiner Betrachtung wert wenn es nach dir ginge. Und der Stromverbrauch geht vielen einfach meilenwert am Arsch vorbei. Sorry, aber is einfach so.

Dr.Dirt
2007-10-24, 17:37:12
wann soll es denn die karten ca. geben? und was werden sie kosten?
Würde mich auch mal interessieren. :confused:

master_blaster
2007-10-24, 17:37:16
Last ihn doch mal in Ruhe. Es gab halt gute und schelchte Seiten und wenn sich mal einer verennt, ist's doch kein Drama, darüber kann man einfach im Forum reden, aber nicht streiten.

Zitat:
Zitat von Gast
der ist gut.

Zitat:
Zitat von Gast
und absolut aktuell

Und 100% richtig ne

Habt ihr euch jetzt mal wieder eingekriegt? Meine Fresse... Hab' mich doch schon längst wieder korrigiert.

master_blaster
2007-10-24, 17:40:03
Würde mich auch mal interessieren.
Angeblich 300$. Manche erzählen auch was von 210Euronen, aber dass wäre ja zu schön um war zu sein.
Gelistet ist noch nichts.

Gast
2007-10-24, 17:53:41
Zumindest in Deutschland noch nicht:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3764&Itemid=34

Nakai
2007-10-24, 18:01:55
Schöne Karte, knapp unter 8800GTX, aber mit gutem Stromverbrauch.

Die 825Mhz-Version des Rv670 könnte knapp auf dem Niveau dieser Karte sein. Eher aber etwas darunter.

Sehr interessant finde ich den niedrigen Preis...sehr schön.


mfg Nakai

Razor
2007-10-24, 18:15:34
Oder erwartest Du, dass wir uns jetzt 13k+ Beiträge von Dir durchlesen?
Du brauchst keine 6-7 Jahre zurück gehen... ein Jahr reicht völlig.
Wären nach Adam-Riese dann nur etwa 2k+ Beiträge...
:D

Würde mich auch mal interessieren. :confused:
Wie oft denn noch?
Montag... 250€ (am Start).

Razor

P.S.: bei den US-Preisen bitte immer schön die Taxes drauf' rechnen... sind etwa 20%.
Und Europa bekommt auch immer einen kleinen 'Extrazuschlag', ergo: trotz extrem günstigen Dollar meist immer noch 1:1.

Gast
2007-10-24, 18:18:30
Zumindest in Deutschland noch nicht:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3764&Itemid=34

EDIT: Doch auch in Deutschland: http://forum-3dcenter.org/vbulletin/showpost.php?p=5963108&postcount=204

Gast
2007-10-24, 19:18:25
http://www.abload.de/img/15751uzg.png (http://www.abload.de/image.php?img=15751uzg.png)

Razor
2007-10-24, 19:39:24
:confused:

dildo4u
2007-10-24, 19:42:45
http://www.abload.de/img/15751uzg.png (http://www.abload.de/image.php?img=15751uzg.png)
:confused:
http://images.anandtech.com/graphs/halflife%202%20episode%202%20performan_101207121021/15755.png

http://images.anandtech.com/graphs/halflife%202%20episode%202%20performan_101207121021/15757.png

http://www.anandtech.com/video/showdoc.aspx?i=3122&p=3

Gast
2007-10-24, 19:44:15
Was soll der Käse? Ich denk es geht um die 8800GT hier...

Matrix316
2007-10-24, 20:01:39
Oder einen Raketentriebwerk in einen Ferrari...
Geht dann gut ab das Teil!
(wenn es das nicht zerreißt ;-)

Nur was das jetzt mit der Problematik zu tun haben soll?
Who knows...

Razor
Der Zusammenhang ist, dass beide Sachen Unsinn sind. Wer zu einer ganz langsamen CPU eine High End Grafikkarte einbaut, ist selbst Schuld.

Normalerweise: Langsame CPU, langsame Graka (mit Videoprozessor) und schnelle CPU + schnelle Graka (die nicht unbedingt Videobeschleunigung braucht, wobei es natürlich wünschenswert wäre ;)).

Ich mein, wer einen 37 cm Röhrenfernseher hat, wird sich auch keinen High End Blu Ray Player kaufen - und wenn doch, hat er nix davon. Da reicht auch ein billiger DVD Player.

k0nan
2007-10-24, 20:46:25
wieso wird das ding nirgends geführt, wenn sie montag rauskommen soll?

AnarchX
2007-10-24, 20:47:21
wieso wird das ding nirgends geführt, wenn sie montag rauskommen soll?
Wird sie doch, aber seriöse Händler halten sich nunmal an das NDA.

seahawk
2007-10-24, 21:02:01
wieso wird das ding nirgends geführt, wenn sie montag rauskommen soll?

Weil man auch in Zukunft am Launchtag mit Karten bedacht werden möchte.

Matrix316
2007-10-24, 21:08:12
Wird sie doch, aber seriöse Händler halten sich nunmal an das NDA.
Ist das nicht selten dämlich? Das NDA gilt doch nur für Testseiten und nicht für Händler, oder? Jede andere Sache (Autos, DVDs, Musik CDs, Fernseher, Blu Ray Player, Spielkonsolen) wird schon Monatelang angekündigt und zur Vorbestellung angeboten und beworben, aber ausgerechnet bei Grafikkarten wird so ein Gedöns gemacht? Wollen die keine Karten verkaufen?

Razor
2007-10-24, 21:10:00
Der Zusammenhang ist...
...nonsense.

Fehlende Features = unfertiges/verbuggtes Produkt.
Und wenn das nur das einzige Demonko wäre...

Razor

Razor
2007-10-24, 21:12:43
Ist das nicht selten dämlich?
Nein.

Am Montag wird sie vorgestellt, am Montag wird man sie kaufen können.
Von "in Händen halten" schreibt ja niemand was, obwohl auch das u.U. möglich ist.

Was genau hast Du eigentlich für ein Problem?
:confused:

Razor

Gast
2007-10-24, 21:13:52
...nonsense.

Fehlende Features = unfertiges/verbuggtes Produkt.
Und wenn das nur das einzige Demonko wäre...

Razor

Welches Feature fehlt denn? Die integrierte Kaffeemaschine - die wurde nämlich genauso angepriesen, wie ein 2D-Stromsparmodus und ein VP2343435. ;D

Matrix316
2007-10-24, 21:17:55
Nein.

Am Montag wird sie vorgestellt, am Montag wird man sie kaufen können.
Von "in Händen halten" schreibt ja niemand was, obwohl auch das u.U. möglich ist.

Was genau hast Du eigentlich für ein Problem?
:confused:

Razor

Ich frage mich, was die Hersteller für ein Problem haben, die Karten im Vorraus anzukündigen? Die Nachfrage kann ja nur kommen, wenn man von der Karte weiß und wäre sicher größer wie jetzt wo die Karte plötzlich wie aus dem Nichts vom Himmel fällt, wenn man nicht gerade auf spezielle HW Seiten rumsurft. Oder kann man nicht genügend Karten produzieren und versucht so die Nachfrage gering zu halten? Die wissen schon was Werbung heißt, oder? :rolleyes:

svenska
2007-10-24, 21:19:45
man, hab mich 4 seiten im thread durchgequält und nichts brauchbares außer gerede.
ich freu mich auf die karte und auch auf mehr tests. dann wird zeigen, inwieweit sich die erfahrungen decken.
wenn aber alles passt, dann verkaufe ich meine 8800GTS 320 und leg mir die neue als upgrade zu. bei ca. 250 € ist das ja ok.

LovesuckZ
2007-10-24, 21:19:45
Die Karten werden Montag angekündigt, wo ist also das Problem?

Matrix316
2007-10-24, 21:25:41
Die Karten werden Montag angekündigt, wo ist also das Problem?
Sollte es nicht im Sinne der Hersteller sein, dass so früh wie möglich das neue Produkt bekannt gemacht wird?

The_Invisible
2007-10-24, 21:30:47
Sollte es nicht im Sinne der Hersteller sein, dass so früh wie möglich das neue Produkt bekannt gemacht wird?

wir wissen ja nicht wann der launch geplant war.

wenn es zb der 24.12 war hast du zb dein "so früh wie möglich"

mfg

Razor
2007-10-24, 21:31:48
Sollte es nicht im Sinne der Hersteller sein, dass so früh wie möglich das neue Produkt bekannt gemacht wird?
Was meinst Du denn, was "ankündigen" bedeutet?
Schlag' doch einfach mal im Duden nach.

Das, was Du willst, beginnt am Montag... that's it!

Und willst Du jetzt etwa keine Hard-Launches mehr?
Früher war es so, dass die Karten Monate vor der eigentlichen Verfügbarkeit 'angekündigt' wurden.

Das war richtig "Scheiße".

Und klar, die Verfügbarkeit am Launch-Tag wird 'eh nur minimal sei... 50T weltweit, wenn ich das richtig in Erinnerung hab'.

Razor

AnarchX
2007-10-24, 21:31:51
Sollte es nicht im Sinne der Hersteller sein, dass so früh wie möglich das neue Produkt bekannt gemacht wird?

Eben nicht, da man hier dem Konkurrenten Möglichkeit gibt, sein Produkt anzupassen.
Zudem was nützt es, wenn jeder so ein Karte will, aber zum Launch nicht genügend zur Verfügung stehen...

Gast
2007-10-24, 21:40:10
Eben nicht, da man hier dem Konkurrenten Möglichkeit gibt, sein Produkt anzupassen.
Zudem was nützt es, wenn jeder so ein Karte will, aber zum Launch nicht genügend zur Verfügung stehen...
So ein Quatsch, der Konkurent kennt schon lage das gegenerische Produkt das war schon immer so.
Für mich sieht es eher aus, als ob es irgendwas zu verbergen gibt :rolleyes:

LovesuckZ
2007-10-24, 21:44:22
Sollte es nicht im Sinne der Hersteller sein, dass so früh wie möglich das neue Produkt bekannt gemacht wird?

Nein, weil sie dann das alte Produkt nicht mehr verkaufen (können).
Es gibt Montag die Ankündigung einer neuen Karte. Warum man daraus ein Problem macht, ist mir unbegreiflich. Das ist wesentlich besser als im CPU bereich, wo schonmal 3-6 Monate dahinziehen können.

AnarchX
2007-10-24, 21:46:25
So ein Quatsch, der Konkurent kennt schon lage das gegenerische Produkt das war schon immer so.
Matrix sprach von so "früh wie möglich" und da sind wohl nicht 3-4 Wochen gemeint.

Und NV hält doch in der Vergangenheit sehr dicht, was man wohl auch den Preisvorstellungen von ATi für ihren RV670 sieht, die aber nochmal überarbeitet werden müssen...


Für mich sieht es eher aus, als ob es irgendwas zu verbergen gibt :rolleyes:
Eben gewisse Details die der Konkurrent nicht vor dem Markteintritt erfahren soll und das war schon immer so bei den Top-IHVs...

Showtime
2007-10-24, 21:56:04
Is doch sowieso egal, ob sie die Karte ankündigen oder nicht... Die potentiellen Kunden, die sofort zuschlagen würden, wissen bis dahin sowieso alles über die Karte und rufen jeden Transistor beim Vornamen und alle anderen sind nicht am Kauf direkt am Launchtag interessiert.

N0Thing
2007-10-24, 23:12:02
man, hab mich 4 seiten im thread durchgequält und nichts brauchbares außer gerede.
ich freu mich auf die karte und auch auf mehr tests. dann wird zeigen, inwieweit sich die erfahrungen decken.
wenn aber alles passt, dann verkaufe ich meine 8800GTS 320 und leg mir die neue als upgrade zu. bei ca. 250 € ist das ja ok.


:|

Ich verstehe nicht ganz, warum du 250€ für maximal 20% mehr Performance ausgeben willst. Nur für den Fall, daß die bisherigen Benchmarks den Tatsachen entsprechen sollten.

Simon
2007-10-24, 23:17:49
:|

Ich verstehe nicht ganz, warum du 250€ für maximal 20% mehr Performance ausgeben willst. Nur für den Fall, daß die bisherigen Benchmarks den Tatsachen entsprechen sollten.
Es sind doch gar nicht 250€ :| Mit etwas Geschick kriegt man das Upgrade für lau...

N0Thing
2007-10-24, 23:19:52
Und wie?

Die 250€ habe ich übrigens von svenska übernommen...

Wman
2007-10-25, 01:00:09
Na indem er die GTS320 für >€250 verkauft.

N0Thing
2007-10-25, 01:32:40
Wenn es dann jemanden gibt, der ne gebrauchte 8800GTS 320MB zu dem Neupreis einer 8800GTS 640MB kauft, während dann scheinbar die 8800GT für 250€ im Handel erhältlich ist, herzlichen Glückwunsch. :)

Gast
2007-10-25, 01:39:39
Ein bisschen wird er schon draufzahlen müssen, aber eben nicht den vollen Preis. Es ging ja darum, dass du sagtest 250€ für 20% mehr Leistung.

Gast
2007-10-25, 01:42:25
Dass er die GTS320 nicht für €250 verkaufen kann stimmt schon, da hab ich nicht mitgedacht.

tombman
2007-10-25, 04:43:23
Einen Zusammenhang herzustellen wo keiner ist, ist nonsense.
Oder was soll die zugesicherte Eigenschaft einer Grafikkarte mit der Leistung einer CPU zu tun haben?
Was hat Statistik und Menschenkenntnis eigentlich mit dir zu tun? ;D
Kein Mensch steckt sich eine >500€ Karte zu einer lowend cpu dazu :rolleyes:
Geh mal in die Foren wo die Leute sind, die solche Karten tatsächlich besitzen- die haben alle ähnliche Systeme wie ich. Da wirst einfach keinen finden, der 512mb, win2000 und nen 30€ Celeron auf 'nem Asrock mobo betreibt! Ob da jetzt VP1 oder VP2 drauf ist geht denen am Arsch vorbei, genau wie mir auch- unsere cpus haben genug power alles in software zu rechnen ;)

Darüber gehen die Meinungen eben auseinander...
Mir macht eine Grafikkarte nur dann spaß, wenn sie vollumfänglich funktioniert - nicht nur ca. 5% der Computernutzung.
Gibt eben viele, die kein Zentimetermaß neben dem Moni liegen haben... :rolleyes:
Ja klar, also dir würde deine 7900 mehr Spaß machen als eine 8800GTX, wenn dich der Umtausch+ Betrieb nichts weiter kosten würde? Den Blödsinn kannst deiner Oma erzählen...
Aber wie gesagt: die Sitze im Enzo sind ja soo hart, und Schminkspiegel gibts auch keinen ;D

Einzig die Leistung samt BQ (HDR+AA wollte allerdings nur selten, oder ;-) stimmte, sonst aber stimmte nichts.
Dein "einzig" beschreibt eh "nur" 95% des Einsatzgebietes einer HighEnd Karte...
Oder anders: EINZIG ein paar lächerliche features wie [insert lame feature here] haben nicht perfekt funktioniert ;)

=Floi=
2007-10-25, 05:13:07
ein enzo hat sicher einen schminkspiegel, denn eine sonnenblende hat er auch
http://rides.webshots.com/photo/1231579563061161934ThPSIi

der GF8GTX vorzuwerfen sie sei nicht perfekt, grenzt ja schon an basherei. Die karte war wohl das beste und ausgewogenste der letzten jahre. Leistung immer un überall, leise, gute p/l verhältnis, lange lebensdauer, angemessener stromverbrauch und noch ein paar sachen...

tombman
2007-10-25, 05:26:21
ein enzo hat sicher einen schminkspiegel, denn eine sonnenblende hat er auch
http://rides.webshots.com/photo/1231579563061161934ThPSIi
Das war mir natürlich klar ;)

mictasm
2007-10-25, 06:13:24
Vor allem haben wir mit den GTXn schon lange Spaß gehabt. Da darf nun gerne mal eine Nachfolgergeneration von unten nachrücken. Das ist doch der normale Lauf der Dinge.

Spasstiger
2007-10-25, 08:40:22
Wer eine GTX hat kann immer noch sehr zufrieden sein. Aber es ist jetzt eine Überlegung wert, die GTX zu verkaufen und zwei 8800 GT zu holen. ;)

Successor
2007-10-25, 08:45:50
Wer eine GTX hat kann immer noch sehr zufrieden sein. Aber es ist jetzt eine Überlegung wert, die GTX zu verkaufen und zwei 8800 GT zu holen. ;)

Es würde mich sehr interessieren, wenn nach dem Launch der 8800GT mal ein Test zu den SLI-Kombinationen der kleinen bis mittleren Karten kommt. Rein theoretisch fände ich ja 2x 8800GTS 640MB spannend wegen dem hohen VRAM.

Die 8800GT erscheint doch nur in einer Variante, oder? (Herstellereigene übertaktete Varianten mal außen vor) Oder solls da auch zwei Versionen geben?

_DrillSarge]I[
2007-10-25, 08:53:45
Niemand "basht" diese Karte, sie liegt sehr gut. Nur wenn hier jemand so tut, als wäre diese Karte die Offenbarung schlechthin, und alles was davor kam der größte Mist, dann ist das einfach nur falsch.
sicher. diese karte ist eine sinnvolle weiterentwicklung, besser ergänzung zur bisherigen produktpalette

Logan
2007-10-25, 10:25:22
Ui, die 8800 gt sieht mal sehr fein aus, und wenn der preis stimmt, weiss ich ja was ich mir in einem monat hole. Zum glück habe ich bis jetzt abgewartet , scheint sich gelohnt zu haben :D

_DrillSarge]I[
2007-10-25, 10:42:32
die preise der gts werden da umso interessanter ;)

Logan
2007-10-25, 11:05:16
I[;5964871']die preise der gts werden da umso interessanter ;)


Ehrlich ? Weiss man schon ungefähr im welchen rahmen sie sich bewegen ?

Bl@de
2007-10-25, 11:28:37
hui. genau mein ding die karte. nicht zu teuer, nicht zu langsam ^^
da wird es schwer auf den ati launch zu warten und zu vergleichen :rolleyes:

dargo
2007-10-25, 11:49:12
Wer eine GTX hat kann immer noch sehr zufrieden sein. Aber es ist jetzt eine Überlegung wert, die GTX zu verkaufen und zwei 8800 GT zu holen. ;)
Das wäre ein Downgrade, zumindest wenn man auf schöne Texturqualität steht. ;)
Es sei denn, wir sehen bald 1GB G8800GTs. :D

Ui, die 8800 gt sieht mal sehr fein aus, und wenn der preis stimmt, weiss ich ja was ich mir in einem monat hole. Zum glück habe ich bis jetzt abgewartet , scheint sich gelohnt zu haben :D
Quatsch, dann warte erstmal ab was ein G1x0 leisten wird. ;)
Warten kannst du immer, bis du alt und grau wirst. ;D

AtTheDriveIn
2007-10-25, 12:05:30
Die Karte ist sicherlich auch für mich interessant. Allerdings muß ich erst wissen wie laut das Teil im idle ist, ich bin da von meiner Asus 1950pro sehr verwöhnt worden... :)

Matrix316
2007-10-25, 12:21:33
Matrix sprach von so "früh wie möglich" und da sind wohl nicht 3-4 Wochen gemeint.

Ok, ein Jahr vorher wäre etwas blöd, aber wenn die Karten fertig sind und sogar zum Händler schon geschickt werden, braucht man doch kein NDA mehr.

Ansonsten dürfte wohl die Lautstärke des Lüfters noch ein störendes Kriterium sein, denn die komischen kleinen Radiallüfter (oder wie die heißen), waren meistens ziemlich laut - jedenfalls bei nvidia Karten.

dargo
2007-10-25, 12:26:40
Ansonsten dürfte wohl die Lautstärke des Lüfters noch ein störendes Kriterium sein, denn die komischen kleinen Radiallüfter (oder wie die heißen), waren meistens ziemlich laut - jedenfalls bei nvidia Karten.
Nicht nur da. Man erinnere sich an den X1800XL Lüfter/Kühler. X-D
Im Prinzip ist jeder Singleslotkühler imho "Schrott" bei einer Graka mit >=100W TDP.

Matrix316
2007-10-25, 12:35:24
Also mein Cousin hat eine Sapphire X1950 GT AGP mit dem blauen Single Slot Kühler und der ist doch relativ leise.

Moralelastix
2007-10-25, 12:42:51
Also ich vermute das der Kühler ziemlich leise und eine gute Luft Durchsatzrate haben könnte.

Ich frag mich nur wieso sie den nicht um 180° gedreht auf die Karte gesetzt haben. Dann hätten sie auch mehr Platz für Kühlfinnen gehabt. So wie noch z.B. bei den 6800GT Modellen.

Andererseits kann man so direkt darunter eine andere Karte einbauen ohne das die Luftzufuhr zum Lüfter eingeschrängt wird.

Hoffentlich kommt die neue GTS mit dem guten alten G80 dualsolt Kühler daher. Ansonsten muss ich die alte GTS ohne Kühler verkaufen.:biggrin:

Successor
2007-10-25, 12:44:19
Wenn man etwas abwartet, gibts doch ziemlich sicher dann die ersten DualSlot-Lösungen der jeweiligen Hersteller. Glaube kaum das die so einen Rückschritt machen, nachdem die bisherigen 8800er Modelle alle eine so gute Lüftung hatten.

Matrix316
2007-10-25, 12:56:36
Ich frage mich, warum man nicht auf den relativ leisen 7800 GTX Singleslot Kühler zurückgegriffen hat. Der Standardkühler bei den 6800ern, fand ich z.B. wiederum sehr laut.

The_Invisible
2007-10-25, 12:59:42
Das wäre ein Downgrade, zumindest wenn man auf schöne Texturqualität steht. ;)
Es sei denn, wir sehen bald 1GB G8800GTs. :D

wie meinen?

hat sich an der texturfilterung beim g9x was getan?

mfg

MartinRiggs
2007-10-25, 13:09:24
Nein,
er meint das der 8800GT grade in höheren Auflösungen schnell der Texturspeicher ausgehen kann.
Sie hat ja "nur" 512 MB während die alte GTX 768MB hat.

Henroldus
2007-10-25, 13:31:50
Wenn man etwas abwartet, gibts doch ziemlich sicher dann die ersten DualSlot-Lösungen der jeweiligen Hersteller. Glaube kaum das die so einen Rückschritt machen, nachdem die bisherigen 8800er Modelle alle eine so gute Lüftung hatten.
Die Kühllösung ist so dimensioniert, dass sie die Hitzeabfuhr in den vorgegebenen Parametern schafft.
Was an einer Singleslotlösung ein Rückschritt sein soll frage ich mich ernsthaft :|
Der Weg ist genau der richtige, sonst haben wir irgendwann tripleslotlösungen und horrendem Stromverbrauch!
Singleslot ist der wohl beste Kompromiss zwischen passiver Kühlung und hoher 3D-Leistung

Das Auge
2007-10-25, 14:09:36
Sry Leutz, muß hier mal wieder abrupt dazwischenfahren.
Die Karte soll also Montag rauskommen und um die 250 Euro kosten? Dann muß ich heute schnell noch meine 2900XT in einer 3-Tages Auktion auf ebay reinsetzen. Meint ihr für 269 Euro SK beisst jemand an?

Mr.Magic
2007-10-25, 14:46:26
Sry Leutz, muß hier mal wieder abrupt dazwischenfahren.
Die Karte soll also Montag rauskommen und um die 250 Euro kosten? Dann muß ich heute schnell noch meine 2900XT in einer 3-Tages Auktion auf ebay reinsetzen. Meint ihr für 269 Euro SK beisst jemand an?

Jeden Tag steht ein Dummer auf, man muss ihn nur finden.

Successor
2007-10-25, 14:49:14
Jeden Tag steht ein Dummer auf, man muss ihn nur finden.

Für den Preis ist der Käufer nicht der Dumme! Finde das Angebot interessant, aber ich will auch ne 8800GT haben :)

Grindcore
2007-10-25, 14:56:53
*wegkratz*

Grindcore
2007-10-25, 15:00:52
Die Kühllösung ist so dimensioniert, dass sie die Hitzeabfuhr in den vorgegebenen Parametern schafft.
Was an einer Singleslotlösung ein Rückschritt sein soll frage ich mich ernsthaft
Der Weg ist genau der richtige, sonst haben wir irgendwann tripleslotlösungen und horrendem Stromverbrauch!
Singleslot ist der wohl beste Kompromiss zwischen passiver Kühlung und hoher 3D-Leistung

Genau und der Einsatz besch...eidener Kühllösungen führt auf geheimnisvolle Weise zur Entwicklung weniger stromhungriger Grafikchips. Faszinierende Theorie.

Pappy
2007-10-25, 15:04:27
Diese Karte hat imo das beste Preis/ Leistungsverhältnis seit der GF4 Ti 4200. Endlich mal wieder Performance und BQ zu sehr humanen Preisen.

schoppi
2007-10-25, 15:04:28
Genau und der Einsatz besch...eidener Kühllösungen führt auf geheimnisvolle Weise zur Entwicklung weniger stromhungriger Grafikchips. Faszinierende Theorie.Auf jeden Fall aber zu effizienten Grafikchips..von daher hat er doch Recht. Denn die Abwärme kann man ja quasi mit der Verlustleistung gleichsetzen - denkt zumindest mein gerade krankes Köpfchen.

svenska
2007-10-25, 15:08:55
:|

Ich verstehe nicht ganz, warum du 250€ für maximal 20% mehr Performance ausgeben willst. Nur für den Fall, daß die bisherigen Benchmarks den Tatsachen entsprechen sollten.

naja, es sind nicht nur pekunäre erwägungen.

* gute performance, teilweise besser als 880gts
* 512MB speicher, meine hat 320
* weniger verlustleistung, ergo sparsamer, d.h. weniger auf der jahresabrechnung
* neuere technik, 65nm

wenn ich meine 320gts loswerde. dann pack ich den erlös dazu und hab nen günstiges upgrade. selbst bei 100€ erlös, ist das alles noch OK. hab mir relative lange keine neue hardware gekauft.

master_blaster
2007-10-25, 15:29:42
Diese Karte hat imo das beste Preis/ Leistungsverhältnis seit der GF4 Ti 4200. Endlich mal wieder Performance und BQ zu sehr humanen Preisen.
Die 9800Pro war damal (bei Abverkauf) auch unschlagbar, ebenso wie die 7900GTO, da gab es schon einige Schlager, ;). Die GT ist aber ähnlich sympathisch.

Gast
2007-10-25, 15:42:57
@svenska: biete 100€ für deine karte!

up¦²
2007-10-25, 15:52:40
Wegen der Specs nochmal:

Core clock 700MHz

Stream Processors 112

Memory Clock 2000MHz

http://www.newegg.com/Product/Product.aspx?Item=N82E16814130302

N0Thing
2007-10-25, 16:42:50
Die 9800Pro war damal (bei Abverkauf) auch unschlagbar, ebenso wie die 7900GTO, da gab es schon einige Schlager, ;). Die GT ist aber ähnlich sympathisch.


Die X1950pro war nach der ersten Preisrunde auch nicht zu verachten und auch vorher viel Leistung für einen guten Preis.

Logan
2007-10-25, 16:54:58
Quatsch, dann warte erstmal ab was ein G1x0 leisten wird. ;)
Warten kannst du immer, bis du alt und grau wirst. ;D

5 jahre waren ne lange wartezeit ;)

Ne im ernst , ich habe ausser einer graka seit 5 jahren nichts mehr gekauft und ich wollte mir jetzt in einem monat eine neues system zusammenstellen, sollte nicht allzu teuer sein, aber trotzdem was her machen und da kommt diese karte gerade recht. ABer wie gesagt, einen monat habe ich noch zeit, gucken was amd noch auf den markt bringt, aber moment ist diese karte mein favorit.

MadManniMan
2007-10-25, 17:12:32
...ich habe ausser einer graka seit 5 jahren nichts mehr gekauft...

Sry 4 OT, aber wie sieht Dein Rechner jetzt aus?

Logan
2007-10-25, 17:19:20
Sry 4 OT, aber wie sieht Dein Rechner jetzt aus?

In Wiefern ?

also ich habe folgendes sys:

Amd 2400+ @3000+ , 1gig, 6600gt und bis jetzt bin ich damit ganz gut gefahren konnte alles spielen. Seitdem ich verheiratet bin musste ich leider meine prioritäten verlagern. Aber da ich dieses jahr so brav war, hat meine frau mir erlaubt einen rechner zu kaufen :ugly:

Und mein rechner ist sehr geplegt , also ich rauche ja nicht,also ist der tower nicht vergilbt und innen staubig ist er auch nicht, läuft alles noch einwandfrei. Ausserdem habe ich schon einen abnehmer für meinen rechner gefunden, da es ein sehr gute freund ist , werde ich ihm den rechner schenken , na bin ich nicht nett :D

Showtime
2007-10-25, 17:30:45
Ausserdem habe ich schon einen abnehmer für meinen rechner gefunden, da es eine sehr gute freund ist , werde ich ihm den rechner schenken , na bin ich nicht nett :D

Du könntest noch viel netter sein, indem du ihn mir schenken würdest ;).

master_blaster
2007-10-25, 17:51:52
Du könntest noch viel netter sein, indem du ihn mir schenken würdest
Oder mir, denn man ist ja eigentlich viel netter, wenn man ihn jemandem schenkt, den man nichtmal kennt, dass nenn ich soziales Engagement, ;D.
Achso, das untenstehende System ist natürlich nur Angeberei und gehört mir garnicht, ich fahre noch auf Pentium MMX und TNT2 Ultra, ;).

Logan
2007-10-25, 18:15:51
Oder mir, denn man ist ja eigentlich viel netter, wenn man ihn jemandem schenkt, den man nichtmal kennt, dass nenn ich soziales Engagement, ;D.
Achso, das untenstehende System ist natürlich nur Angeberei und gehört mir garnicht, ich fahre noch auf Pentium MMX und TNT2 Ultra, ;).


Du hast ja noch wenigstens einen mmx mit tnt2 Ultra, aber der arme kerl hat garnichts :ugly:

Gast
2007-10-25, 20:07:54
http://www.amazon.de/AXLE-GeForce-Grafikkarte-PCI-EXPRESS-512MB/dp/B000XRQ79S/ref=sr_1_7/028-9649403-4473342?ie=UTF8&s=ce-de&qid=1193329449&sr=8-7

amazon, für NUR 299€....

dildo4u
2007-10-25, 20:08:58
Nett Amazon zockt mal wieder kräftig ab. :down:

Mitch O'Neil
2007-10-25, 20:13:53
Nett Amazon zockt mal wieder kräftig ab. :down:

Ruhig Brauner! ;) Amazon.de hat meist echt gute Preise, zumal die keine Versandkosten verlangen. Die Karte ist nicht mal gelauncht. Entspann Dich...

laser114
2007-10-25, 20:14:27
Immerhin auf Lager.^^

Ist aber ein Drittanbieter.

AnarchX
2007-10-25, 20:15:49
Ist aber ein Drittanbieter.
... der wohl nicht mal richtig informiert ist:
Stream-Prozessoren: 64
:D

Gast
2007-10-25, 20:19:17
http://www.digittrade.de/shop/product_info.php/info/p107_AXLE-nVidia-GeForce-8800-GT-512-MB-Grafikkarte-PCI-E-256-Bit.html

Lieferbar am 5. November. Bei Amazon steht auf Lager.

horn 12
2007-10-25, 20:23:47
Die GT wird nur zwischen GTS und GTX (-20%) liegen und erst die Neue GTS zu Jahresende wird die Performance der GTX erreichen und gar etwas mehr.
NV wird nun seine alte Boliden ausverkaufen müssen.
Meint Ihr der Dollarhase verschenkt mit der GT die Performance der GTX, da würde letztere ja zum Ladenhüter werden.:P
Die GTS wird wohl auf ca. 220 Euro langsam fallen. Und die GTX auf die 350 Euro Marke!

Nakai
2007-10-25, 20:38:22
Die GTS wird wohl auf ca. 220 Euro langsam fallen.

Nein eher die GT. Die GTS könnte bald auslaufen, da man die meisten Chips wohl für die GTX oder Ultra benutzen kann. Eventuell wird die 320Mb-Version weiterleben. Für die 640MB-Version sehe ich da nicht mehr soviel sind.

mfg Nakai

Gast
2007-10-25, 21:04:56
http://www.digittrade.de/shop/product_info.php/info/p107_AXLE-nVidia-GeForce-8800-GT-512-MB-Grafikkarte-PCI-E-256-Bit.html

Lieferbar am 5. November. Bei Amazon steht auf Lager.
Peinlich:
"Speichergröße: 256MB DDR3"

Das Auge
2007-10-25, 21:05:01
Nein eher die GT. Die GTS könnte bald auslaufen, da man die meisten Chips wohl für die GTX oder Ultra benutzen kann. Eventuell wird die 320Mb-Version weiterleben. Für die 640MB-Version sehe ich da nicht mehr soviel sind.

mfg Nakai

Die GTS wird oder ist vllt. sogar schon ausgelaufen. Ist doch logisch, die GT ist sowieso schneller und billiger zu produzieren (256bit, 65nm).
Nv wird die GTS imho eher durch eine "GS" auf G92-Basis ersetzen...

Razor
2007-10-25, 21:09:35
Immerhin auf Lager.^^

Ist aber ein Drittanbieter.
Jo... allerdings nun schon der 2. Händler, der das Teil für 300 Teuronen raus haut.

Also 20% "Release-Aufschlag" wird es von mir ganz sicher NICHT geben!
Ein weiterer Grund, doch erst einmal abzuwarten...

Razor

Das Auge
2007-10-25, 21:17:57
Jo... allerdings nun schon der 2. Händler, der das Teil für 300 Teuronen raus haut.

Also 20% "Release-Aufschlag" wird es von mir ganz sicher NICHT geben!
Ein weiterer Grund, doch erst einmal abzuwarten...

Razor

Der Typ hat die Dinger wahrscheinlich aus China und will damit jetzt kurz vorm Release ordentlich Profit machen. Warten wir doch mal ab, was die Karten bei den üblichen Verdächtigen kosten werden, wenn sie denn mal offiziell da sind ;)

reunion
2007-10-25, 21:36:41
Die GTS wird oder ist vllt. sogar schon ausgelaufen. Ist doch logisch, die GT ist sowieso schneller und billiger zu produzieren (256bit, 65nm).
Nv wird die GTS imho eher durch eine "GS" auf G92-Basis ersetzen...

Solange es eine GTX/Ultra auf G80-Basis gibt, wird es auch eine GTS geben. Bei einem so riesigem Die, welches zu >95% aus Logik besteht, dürfte die Anzahl an voll funktionsfähigen Chips überschaubar sein.

Nakai
2007-10-25, 21:40:37
Bei einem so riesigem Die, welches zu >95% aus Logik besteht, dürfte die Anzahl an voll funktionsfähigen Chips überschaubar sein.

Naja der R600 hatte auch sehr viel Logik und die Ausfallrate war ja eher gering.
(Viel Redundanz spielt ja auch ne Rolle)
Ich denke mittlerweile hat NV die Produktion des G80 so in den Griff bekommen, dass es nur wenige Ausfälle gibt.

mfg Nakai

reunion
2007-10-25, 21:45:57
Naja der R600 hatte auch sehr viel Logik und die Ausfallrate war ja eher gering.
(Viel Redundanz spielt ja auch ne Rolle)
Ich denke mittlerweile hat NV die Produktion des G80 so in den Griff bekommen, dass es nur wenige Ausfälle gibt.

mfg Nakai

Nur hat G80 wohl nicht sonderlich viel Redundanz. Dafür spricht zum einen, dass bei der GTS gleich zwei Cluster deaktiviert wurden, und zum anderen, dass bei G92 kaum Redundanz eingespart werden könnte. Würde mich wundern, wenn die Yieldrate über 50% liegt.

Das Auge
2007-10-25, 21:46:26
Solange es eine GTX/Ultra auf G80-Basis gibt, wird es auch eine GTS geben. Bei einem so riesigem Die, welches zu >95% aus Logik besteht, dürfte die Anzahl an voll funktionsfähigen Chips überschaubar sein.

Außerdem: Wer sagt denn, daß nicht schon längst der G90 vom Wafer hüpft und die vorhandenen G80 allesamt noch von der Halde sind? Ist natürlich nur eine reine Vermutung.

Das Auge
2007-10-25, 21:50:14
Deswegen wird btw. imho auch nicht viel Wind um den Release gemacht, nv will ja schließlich auch noch die Restbestände vom G80 loswerden. So passt das jedenfalls alles gut ins Bild.

3d
2007-10-25, 23:14:31
wann soll die rauskommen?

Gast
2007-10-25, 23:22:44
am 30.10.07

Passenger82
2007-10-25, 23:43:57
300€? :eek:

Und das bei einem offiziellen Einführungspreis von 200-250$ ? :eek:

Ich kann warten.....:P

seb74
2007-10-26, 00:56:07
Die 9800Pro war damal (bei Abverkauf) auch unschlagbar, ebenso wie die 7900GTO, da gab es schon einige Schlager, ;). Die GT ist aber ähnlich sympathisch. Mir war der 2900XT Sellout am sympathischsten, die zT hastig draufgeklebten "PRO" Sticker über dem XT Logo waren lustig und der Preis von 220€ auch, bisher unerreichtes P/L Niveau: das vollwertige unbeschnittene aktuelle Highend Flaggschif mit einem anderem Bios 100€ billiger. ;)

Beim angeblichen 8800GT REview finde ich den schlecht gefakten "3Dmark Score" screenshot interessant, vor allem das Satzende:
"...orCPU Score: Re4491 wser"

James Ryan
2007-10-26, 05:47:23
Die GT wird nur zwischen GTS und GTX (-20%) liegen und erst die Neue GTS zu Jahresende wird die Performance der GTX erreichen und gar etwas mehr.
NV wird nun seine alte Boliden ausverkaufen müssen.
Meint Ihr der Dollarhase verschenkt mit der GT die Performance der GTX, da würde letztere ja zum Ladenhüter werden.:P
Die GTS wird wohl auf ca. 220 Euro langsam fallen. Und die GTX auf die 350 Euro Marke!

Die GT liegt auf GTS/640 Niveau und ersetzt somit die alte GTS komplett.
Die GTS wird auf G92-Basis neu aufgelegt, hat aber einen vollen G92 mit 128 SPs und wird wohl die G80-GTX beerben was Perfomance angeht.
Die aktuellen G80-Karten laufen schon aus, nur werden bei NVIDIA die High-End Karten nie billig vor dem Ende, es gibt sie einfach nicht mehr (vgl. Gf 7900 GTX welche vor dem Ende immer noch >400€ gekostet hat!).

MfG :cool:

seahawk
2007-10-26, 07:02:04
7900GTX wurde durch die GTO aber auch witzlos. Bei den anzunehmend schlechten Yields des G92 kann es noch dauern bis wir die GTS im LAden sehen. NV kann kaum genug kaputte Chips für die GT liefern, also werden ihen wohl voll funktionsfähige G92 noch mehr fehlen. Wenn RV670 mit R600 ähnlchen Yields ankommt, dann geht es der Marge von NV an den Kragen.

James Ryan
2007-10-26, 07:08:36
Bei den anzunehmend schlechten Yields des G92 kann es noch dauern bis wir die GTS im LAden sehen.

Woher hast du solche Sachen? ;D
Ja, NVIDIA wird diesmal sicher baden gehen... es sei denn es wird nicht so sein. ;)

MfG :cool:

seahawk
2007-10-26, 07:10:40
Wenn man nur perfekte Chips hätte, warum zu erst das Billigmodell launchen ? Das macht doch keinen Sinn, außer man sitzt auf einem Haufen teildefekten Chips, die sich schlecht takten lassen. (GTX Niveau klar verfehlen)

Silverbuster
2007-10-26, 07:21:08
Du solltest vielleicht bedenken das nVidia und Co das meiste Geld NICHT mit High End Chips machen sondern mit dem Einsteiger und Consumer Markt im Preisbereich bis Max. 150€ meist um die 100€ für den OEM Markt. High End ist nur Prestige, die Verkaufszahlen zu gering um hohen Einfluss zu haben.

Gast
2007-10-26, 08:50:18
Genau, es hat derzeit keine Eile für NVidia ein neues Topmodell zu launchen, wenn man die Gelegenheit hat, zuerst den Massenmarkt zu bedienen.

tombman
2007-10-26, 09:04:40
Genau, es hat derzeit keine Eile für NVidia ein neues Topmodell zu launchen, wenn man die Gelegenheit hat, zuerst den Massenmarkt zu bedienen.
? Es war aber immer so, daß zuerst HighEnd rauskam, dann der Rest.
Die Frage ist, ob Nvidia überhaupt einen neuen 65nm Megachip hat? ;)

mapel110
2007-10-26, 09:13:46
? Es war aber immer so, daß zuerst HighEnd rauskam, dann der Rest.
Die Frage ist, ob Nvidia überhaupt einen neuen 65nm Megachip hat? ;)
G92 mal zwei sollte doch kommen?! Macht auch durchaus Sinn als neues High End. Aber bei der Leistungsaufnahme wird das sehr eng. Irgendwie glaub ich, nvidia hat das wieder verworfen.

seahawk
2007-10-26, 09:18:18
Du solltest vielleicht bedenken das nVidia und Co das meiste Geld NICHT mit High End Chips machen sondern mit dem Einsteiger und Consumer Markt im Preisbereich bis Max. 150€ meist um die 100€ für den OEM Markt. High End ist nur Prestige, die Verkaufszahlen zu gering um hohen Einfluss zu haben.

Ne, da der chip immer gleich kostet mache ich die optimale Marge mit den Topmodellen. Bringe ich zuerst die 400+ und 300+ Euro Versionen, dann ist die Chance ganz gut, dass sogar potentielle Käifer der 250 Euro Version dort zugreifen. Den Launch der GT kann man sich nur erklären, wenn man davon ausgeht, dass NV mmaissve Probleme mit G92 in der Fertigung hat. Ich bin mal gespannt wieviele Bugs der Chip haben wird.

tombman
2007-10-26, 09:20:44
G92 mal zwei sollte doch kommen?! Macht auch durchaus Sinn als neues High End. Aber bei der Leistungsaufnahme wird das sehr eng. Irgendwie glaub ich, nvidia hat das wieder verworfen.
Wenn sich die GX2 als SLI meldet, dann kannst es vergessen, weil quad-sli nun mal kein AFR unter XP kann, und damit ist es sinnlos.
Nur wenn Nvidia es schafft, zwei Chips fürs OS + Sys als EIN Chip darzustellen, dann wäre es eine Sensation- weil das könnte man dann wirklich als HE bezeichnen ;)
(aber nur wenn diese zwei chips sich wirklich wie einer verhalten und keine Profile brauchen um leistungsfähig zu sein- also "verstecktes" SLi braucht auch keiner)

Aber was "das Volk" wirklich will (also die Enthusiasten) ist ein fetter screenshot mit nem 65nm Chip, der so groß ist wie ein G80 und daneben ne megagroße Zahl, die die Transsistormenge bekanntgibt -> DAS macht fett!

_DrillSarge]I[
2007-10-26, 09:31:54
multi-chip ist, bei dem derzeitigen energiebedarph, aber keine lösung.
€: vielleicht nimmt dann auch dieses synchro-ruckel-problem überhand

Successor
2007-10-26, 09:32:04
Wenn sich die GX2 als SLI meldet, dann kannst es vergessen, weil quad-sli nun mal kein AFR unter XP kann, und damit ist es sinnlos.
Nur wenn Nvidia es schafft, zwei Chips fürs OS + Sys als EIN Chip darzustellen, dann wäre es eine Sensation- weil das könnte man dann wirklich als HE bezeichnen ;)
(aber nur wenn diese zwei chips sich wirklich wie einer verhalten und keine Profile brauchen um leistungsfähig zu sein- also "verstecktes" SLi braucht auch keiner)


Wie meinst du das mit dem versteckten SLI? Weil eine SLI-Technologie ohne Profile und Treibergefummel, also "out-of-the-box" anwendbar wie eine SingleGPU-Lösung, wäre doch wohl der Traum schlechthin.

Successor
2007-10-26, 09:33:52
I[;5968103']multi-chip ist, bei dem derzeitigen energiebedarph, aber keine lösung.

Naja, im Falle der 8800GT/GTS würde ich den Begriff "unschön" benutzen, aber machbar ist es schon, auch ohne 1000W-Netzteil.

falconch
2007-10-26, 16:01:25
Hat zufällig jemand einen Vergleich der Leistungsaufnahme einer 8800GTS und einer X1950XT parat? Ich hab sowas mal irgendwo gesehen, finde es aber einfach nicht mehr... :/

Würde halt mal gern wissen, wie die 8800GT gegenüber meiner X1950XT da abschneidet.

Majestic
2007-10-26, 16:10:26
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/25/#abschnitt_leistungsaufnahme

Nimm die GTS/640 als Vergleichsbasis und rechne ~15% ab...

EDIT:Sorry verlesen... Link angepaßt.

falconch
2007-10-26, 16:14:28
Du meinst abziehen, oder? Schließlich soll die 8800GT ja weniger brauchen als die 8800GTS.

Schaut ja dann ziemlich nach Gleichstand zwischen X1950XT und 8800GT aus. Fein! Danke! :)

Majestic
2007-10-26, 16:18:11
Du meinst abziehen, oder? Schließlich soll die 8800GT ja weniger brauchen als die 8800GTS.

Schaut ja dann ziemlich nach Gleichstand zwischen X1950XT und 8800GT aus. Fein! Danke! :)


Jupp hatte micht zuerst verlesen....:) Link usw angepaßt ;)

DrumDub
2007-10-26, 16:44:32
Hat zufällig jemand einen Vergleich der Leistungsaufnahme einer 8800GTS und einer X1950XT parat? Ich hab sowas mal irgendwo gesehen, finde es aber einfach nicht mehr... :/
bitteschön:
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Gast
2007-10-26, 16:56:39
Wie meinst du das mit dem versteckten SLI? Weil eine SLI-Technologie ohne Profile und Treibergefummel, also "out-of-the-box" anwendbar wie eine SingleGPU-Lösung, wäre doch wohl der Traum schlechthin.
So wie CF? Da gibt's auch kein Profil-Gefummel und läuft out-of-the-box, jedenfalls laut Amd. Funktioniert aber nur für ein Bruchteil aller Spiele einigermaßen. Mit Profilen hat man wenigstens die Möglichkeit, was anzupassen, falls geschlampt wurde. Aber trotzdem ist die SLi-Technik nur eine Notlösung. Denn solange eine Technik wie AFR oder noch SFR angwendet werden muss, ist es nicht optimal.
Eine GX2 z.B. sollte ja in der Theorie und laut Benchmarks bei gut funktionierendem SLi zumindest meist auf GTS 320 -Niveau liegen. Ist aber nicht der Fall, die Frames sind zwar in der Tat recht ähnlich aber nicht das gefühlte Resultat auf dem Monitor. Habe sogar mehre Blindtests gemacht, indem mein Bruder die Karten vertauscht und ich raten musste, wann die GX2 im Rechner ist. GX2 war zu seiner Zeit auch nur ne Notlösung und damals habe ich die Problematik bis auf Oblivion und CoJ auch nicht bemerkt, da ich eine Auflösung von nur 1280x1024, 4xAA, 16xAF fuhr und so die Framerate im Schnitt immer ca. bei 60 oder höher war. Erst wie es ans Eingemachte ging (niedrige Framerate), wurde die Problematik deutlich. Ist natürlich immer noch besser als die Performance bzw. Ruckeln einer Karte, aber halt schlechter als wenn die gleiche Performance eine Karte bereitstellt. Trotzdem ist SLi wie gesagt nur eine Notlösung und darf nicht als Ersatz für einen schnelleren Chip angesehen werden.

laser114
2007-10-26, 17:41:04
Ihr findet 299€ für die 8800 GT Abzocke?

Dann schaut euch das an:
http://geizhals.at/deutschland/a291462.html
;D

James Ryan
2007-10-26, 18:10:06
Ich bin mal gespannt wieviele Bugs der Chip haben wird.

Ich bin mir sicher dass die ROPs besser funktionieren als beim R600. ;D

MfG :cool:

Coda
2007-10-26, 18:12:05
Ne, da der chip immer gleich kostet mache ich die optimale Marge mit den Topmodellen. Bringe ich zuerst die 400+ und 300+ Euro Versionen, dann ist die Chance ganz gut, dass sogar potentielle Käifer der 250 Euro Version dort zugreifen. Den Launch der GT kann man sich nur erklären, wenn man davon ausgeht, dass NV mmaissve Probleme mit G92 in der Fertigung hat. Ich bin mal gespannt wieviele Bugs der Chip haben wird.
Fertigungsprobleme haben doch nichts mit Bugs zu tun.

Matthias1981
2007-10-26, 18:28:28
Er ist ja in kleinerer Technolige gebaut...
Zudem ist er kein G8x sonern ein G9x...was auf eine baldige High end Karte schließen lässt...
Ich tippe da auf Januar bis März:D:D:D

Jaaaaaaaa bin auch schon am sparen^^

Lawmachine79
2007-10-26, 18:36:03
Ohne jetzt mehr als Tombmans Ergebnisse auf der ersten Seite gelesen zu haben: Leute, die Karte liegt Performancemässig zwischen zwei Karten, die ein Jahr alt sind. Gaaaaanz großes Kino. Klar kostet sie nur 249$ (Straßenpreis wahrscheinlich niedriger) - aber hier ist zu berücksichtigen, daß die 88GTX&GTS aufgrund des (in der öffentlichen Wahrnehmung) gefloppten R600 seit Februar im Preis stagniert. Wenn man diese beiden Fakten miteinbezieht, sind die Ergebnisse noch ganz nett, aber nicht beeindruckend.

Vertigo
2007-10-26, 18:40:44
Ohne jetzt mehr als Tombmans Ergebnisse auf der ersten Seite gelesen zu haben: Leute, die Karte liegt Performancemässig zwischen zwei Karten, die ein Jahr alt sind. Gaaaaanz großes Kino. Klar kostet sie nur 249$ (Straßenpreis wahrscheinlich niedriger) - aber hier ist zu berücksichtigen, daß die 88GTX&GTS aufgrund des (in der öffentlichen Wahrnehmung) gefloppten R600 seit Februar im Preis stagniert. Wenn man diese beiden Fakten miteinbezieht, sind die Ergebnisse noch ganz nett, aber nicht beeindruckend.
Für eine Karte, die die kommende nVidia-Generation (G9x) eher nach unten als nach oben abrunden wird, finde ich die 8800GT ausgesprochen gut.

Gast
2007-10-26, 18:49:59
Ohne jetzt mehr als Tombmans Ergebnisse auf der ersten Seite gelesen zu haben: Leute, die Karte liegt Performancemässig zwischen zwei Karten, die ein Jahr alt sind. Gaaaaanz großes Kino. Klar kostet sie nur 249$ (Straßenpreis wahrscheinlich niedriger) - aber hier ist zu berücksichtigen, daß die 88GTX&GTS aufgrund des (in der öffentlichen Wahrnehmung) gefloppten R600 seit Februar im Preis stagniert. Wenn man diese beiden Fakten miteinbezieht, sind die Ergebnisse noch ganz nett, aber nicht beeindruckend.
Ich finde gut, dass vor allem der feinere Herstellungsprozess gut angeschlagen hat. Der Verbrauch wurde gegenüber der GTS um ca. 30 Watt reduziert, obwohl sie schneller ist. Gut, sie hat weniger Speicher aber der macht nicht mehr als 10 Watt aus. Und der kleinere Fertigungsprozess ist auch die einzige Möglichkeit, neue High End Bestien zu releasen, ohne dass das perverse Hitzmonster geben würde. Denke das Problem war der Fertigunsprozess. TSMC oder wer auch immer für die Chipproduktion zuständig ist, hat's nicht hinbekommen, große 65 nm Chips kostengünstig zu fertigen. Da kann nV noch so gute Chiparchitekturen in petto haben, wenn man sie nicht fertigen kann.

seahawk
2007-10-26, 19:46:31
bitteschön:
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Powerplay sollte der RV670 im Idle helfen deutlich unter den Werten der NV Konkurrenz zu liegen.

Silverbuster
2007-10-27, 04:09:53
Ne, da der chip immer gleich kostet mache ich die optimale Marge mit den Topmodellen. Bringe ich zuerst die 400+ und 300+ Euro Versionen, dann ist die Chance ganz gut, dass sogar potentielle Käifer der 250 Euro Version dort zugreifen. Den Launch der GT kann man sich nur erklären, wenn man davon ausgeht, dass NV mmaissve Probleme mit G92 in der Fertigung hat. Ich bin mal gespannt wieviele Bugs der Chip haben wird.

Was bringt mehr Geld ein..... 10.000 günstige Karten mit einer geringeren Marge, oder 1.000 High End Karten mit einer hohen Marge? Den im OEM Bereich sind die Verkaufszahlen deutlich höher..... "Die Masse machts"

Die Aussage das immer erst die Hiogh End Varianten kamen würde ich so nicht bestätigen. Zwar kam die 8800 zu erst, aber die 8600 und 8500 Reihe basieren ja auf einen anderen Chip. Das kann man so nicht vergleichen.

Mr.Magic
2007-10-27, 04:30:51
Was bringt mehr Geld ein..... 10.000 günstige Karten mit einer geringeren Marge, oder 1.000 High End Karten mit einer hohen Marge? Den im OEM Bereich sind die Verkaufszahlen deutlich höher..... "Die Masse machts"

Mal wieder eine Pauschalisierung?

Das kommt natürlich auf die konkreten Zahlen an.

50€ Gewinn pro High End-Karte vs. 5€ Gewinn pro Mainstream-Karte ergeben bspw. einen Gleichstand.
Als Unternehmer will man normalerweise den Gewinn aus beiden Bereichen abschöpfen.

=Floi=
2007-10-27, 04:40:06
das ist sowieso eine milchmädchenrechnung, denn eine potente midrange karte bringt die entwickler eher dazu features einzubauen, die auch eine 500€ karte ans limit bringen...

Silverbuster
2007-10-27, 04:50:24
Wieso Pauschalisierung?
Im OEM Markt wird seid jeher das meiste Geld verdient, das ist schlichtweg Fakt. Aber im OEM Markt findest du keine High End Karte, zumindest extrem selten. Auch eignet sich nicht jeder produzierte Chip für eine High End Karte, das solltest du bedenken. Diese wandern dann auf kleinere Karten. Würde man das nicht tun, wäre die Marge der High End Karten sehr gering.

Natürlich ist es wichtig in beiden Bereichen Geld zu erwirtschaften und das ein Hersteller an einer einzelnen High End Karte mehr verdient als an einer Midrage Karte (sofern sie den selben Chip verwendet) ist klar. Trotzdem verdient man an der Masse mehr, und das ist OEM Bereich.

Aber das alles gilt nur für gleiche Chips. Allerdings ist es ja mittlerweile eher so das High End, Midrage und Einsteiger Karten alle unterschiedliche Chips haben. Das ist für alle BEreiche Kostenaufwendig. Daher auch ein Grund warum z.B. S3 und ATI (bei NV weiß ich es gar nicht) gesagt haben das sie in Zukunft auf Multi GPU Chips setzen. Da produziert man einen einzigen Chip und steigert die Leistung einer Karte durch die Anzahl der verbauten Chips. Das ist easy und Kostengünstig. Da ist die Marge, Prozentual, bei allen Karten ausgeglichen, zumindest theoretisch.

Razor
2007-10-27, 08:11:52
Aber was "das Volk" wirklich will (also die Enthusiasten) ist ein fetter screenshot mit nem 65nm Chip, der so groß ist wie ein G80 und daneben ne megagroße Zahl, die die Transsistormenge bekanntgibt ->
Das, was "das Volk" sehen will, ist ein pulk sabbernder Enthusiasten, welche als kleine Gruppe von den Herstellern als Lockvolgel genutzt/eingesetzt werden.

Und das trifft hier nicht zu, da die 8800GT eindeutig ins bestehende Marktgefüge eingebettet und nicht als neu 'beworben' werden. Das "Volk" hat von den Lockvögeln nun mitbekommen: "8800 is doll, ey!" und werden sich aufgrund der preislichen Gestaltung die günstigste Karte dieser Reihe ziehen... nicht der Leistung oder der Features wegen.

Für die "Lockvögel" gibts wohl erst Anfang des Jahres wieder etwas zu 'sabbern'.

Razor

Razor
2007-10-27, 08:17:10
Für eine Karte, die die kommende nVidia-Generation (G9x) eher nach unten als nach oben abrunden wird, finde ich die 8800GT ausgesprochen gut.
Ich finde es sowieso interessant, dass es von einer "neuen Generation" nun erst einmal die Mainstream-Variante gibt und eigentlich der 'alten' Generation zugeordnet wird... hat es AFAIK noch nicht gegeben.

Klar, AMD hat seinerzeit alte Karte "hoch gestuft", als alte Karten mit neuer, höherem Markt-Namen versehen.
Aber umgekehrt? Nein, soweit ich weiß, nicht...

Auch, dass die GTS demnächt einfach 'klammheimlich' ersetzt wird, ist hochgradig interessant und stützst mein Bild von dem Ganzen.
Na ja, wir werden sehen...

Razor

tombman
2007-10-27, 08:17:47
Das, was "das Volk" sehen will, ist ein pulk sabbernder Enthusiasten, welche als kleine Gruppe von den Herstellern als Lockvolgel genutzt/eingesetzt werden.

Und das trifft hier nicht zu, da die 8800GT eindeutig ins bestehende Marktgefüge eingebettet und nicht als neu 'beworben' werden. Das "Volk" hat von den Lockvögeln nun mitbekommen: "8800 is doll, ey!" und werden sich aufgrund der preislichen Gestaltung die günstigste Karte dieser Reihe ziehen... nicht der Leistung oder der Features wegen.

Für die "Lockvögel" gibts wohl erst Anfang des Jahres wieder etwas zu 'sabbern'.

Razor
Wir meinen eben andere "Völker" ;) Du das 0815 Volk und ich das Volk der Enthusiasten- Lockvögel klingt ein bischen unpassend, nämlich nach fremdgesteuert.
Ist man noch ein Lockvogel, wenn es einem UNBEZAHLT Spaß macht einer zu sein? ;D

Ich hoffe, nun, nachdem Nvidia die neue Mittelklasse mit der GT definiert hat, daß innerhalb von Q1 was richtig Fettes, Highendiges herauskommt ;)

Mr.Magic
2007-10-27, 08:24:04
Wieso Pauschalisierung?
Im OEM Markt wird seid jeher das meiste Geld verdient, das ist schlichtweg Fakt...

You lost me at "Fakt".

Woher weißt du wieviele 8800GTX/Ultra vs. 8800GTS verkauft wurden, geschweige denn wie die Margen sind? Andere Karten interessieren nicht, seahawk sprach ganz klar von den 8800ern (>300€-Modelle vs. 250€-Modell).

Mal ernsthaft, ohne die genauen Grunddaten, aus der ich dann meine eigenen Bilanzen basteln kann, glaube ich als BWLer sowieso nichts.

Silverbuster
2007-10-27, 09:17:32
Einem BWLer würde ich niemals Bilanzen erstellen lassen oder glauben was der mir vorlegt :biggrin:

Aber du hast schon recht, ich habe Grundsätzlich über alle Chips gesprochen und nicht nur über die 8800 Reihe. Da habe ich verallgemeinert. So gesehen kann ich nicht vergleichen, richtig.
Das im OEM Markt das Meiste verdient wird sieht man an Intel, den Intel verkauft die meisten Grafikchips und hält den größten Anteil (meine mal was von ca. 60% gelesen zu haben) vom Weltmarkt, was an den Fertig Office PCs liegt mit ihren Onboard Lösungen.

Razor
2007-10-27, 10:13:04
Lockvögel klingt ein bischen unpassend, nämlich nach fremdgesteuert.
Völlig korrekt...
Ist man noch ein Lockvogel, wenn es einem UNBEZAHLT Spaß macht einer zu sein?
Jup... und... genau genommen bezahlst Du ja dafür, ein Lockvögelchen zu sein, gell?
;)

Ich hoffe, nun, nachdem Nvidia die neue Mittelklasse mit der GT definiert hat, daß innerhalb von Q1 was richtig Fettes, Highendiges herauskommt ;)
nVidia hat mit der GT lediglich eine Lücke geschlossen und damit die bisherigen HighEnder (P/L-seitig) deklassiert.

Dies wird in naher Zukunft korrigiert und im Falle der GTX/Ultra eben noch ein bissel dauern. Würde mich aber nicht wundern, wenn auch diese noch in der 8'er Serie laufen (obwohl es ja - wie auch die neue GTS aka G92-300 - eigentlich 9'er sind ;-).

8900 anyone?

Vielleicht bekommt Ihr dann ja auch mal endlich 'nen funktionierenden VP?!
:D

Razor

tombman
2007-10-27, 11:00:43
Völlig korrekt...
Eben nicht, niemand zwingt mich mir HE zu kaufen...

Jup... und... genau genommen bezahlst Du ja dafür, ein Lockvögelchen zu sein, gell?
;)
Lol, wie durchschaubar. Entweder man macht die HighEnd Trauben runter, oder die HighEnd Füchse, oder, wie in deinem Fall, BEIDES ;D

Ich zahle nicht um Lockvogel zu sein, ich zahle für gewisse FPS in bestimmten settings, zu einer bestimmten Jahres-und Monatszahl :cool:

Ich hatte vor einem Jahr schon die doppelte Leistung was DU jetzt mit deiner zukünftigen 8800 GT erst jetzt haben wirst ;) Und genau DAFÜR habe ich gezahlt ;)

nVidia hat mit der GT lediglich eine Lücke geschlossen und damit die bisherigen HighEnder (P/L-seitig) deklassiert.
Blödsinn, ein Jahr ist vergangen, und jetzt ist eine Mittelklassekarte (fast) so schnell wie ehemaliges HighEnd- was ist daran neu oder ungewöhnlich. GAR NIX. Das einzige was fehlt ist eine NEUE HighEnd-Klasse- nur das ist einigermaßen bemerkenswert.

Vielleicht bekommt Ihr dann ja auch mal endlich 'nen funktionierenden VP?!

Vielleicht wirst du dann ja auch mal endlich verstehen, daß wir auf VPs generell scheißen...

_DrillSarge]I[
2007-10-27, 11:29:17
Der Neid ist die aufrichtigste Form der Anerkennung.
;D;D;D;D;D;D