PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober? - Teil 2 (s. #1!)


Seiten : [1] 2 3

AnarchX
2007-10-23, 09:55:13
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5958395#post5958395)

8800GT (ehem. 8700GTS):

Pre-NDA-Review @ Expreview (http://topic.expreview.com/2007-10-23/1193114539d6255.html) (als DL @ RS (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5958670&postcount=56))
Pre-NDA-Review @ PConline (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5965743&postcount=321)

-> Slideshow... (http://img251.imageshack.us/slideshow/player.php?id=img251/1435/11930623074mb.smil);-)
http://img256.imageshack.us/img256/6076/20071012c97ddac0cabae68yy4.jpg


http://img204.imageshack.us/img204/4781/specs8800gtcopycopyfo0.jpg
Quelle (http://www.chilehardware.com/foro/nvidia-vs-amd-t117534.html)
http://img84.imageshack.us/img84/1558/02nvg92ef9.jpg


G92-270-A2 revision (65nm, Week 37 2007)
37.5mm x 37.5mm 1148-pin FCBGA package
Core clock : 600MHz / Shader clock : 1500MHz
VGPU = 1.05±10.5mV
10-layers PCB revision G92P393
8 chips of 16M x 32 Qimonda HYB18H512321 BF-10 @ 2V
256-bit 512MB GDDR3 @ 900MHz (Effective 1GHz)
Coolermaster TM69 single slot cooler
3 heat-pipes, 1000-3200RPM, 34dB
110W TDP (Requires 6-pin PCIe connector)
NVIO/HDCP


http://img505.imageshack.us/img505/1342/02gf8800gtzg6.jpg
Weitere Bilder:
http://www.directupload.com/showoriginal-11538.jpg
http://img212.imageshack.us/img212/6949/8800gt2on0.jpg
http://img520.imageshack.us/img520/1694/8800gt3ci3.jpg
http://img250.imageshack.us/img250/8506/04gf8800gtcw7.jpg

MSI 8800GT (http://img139.imageshack.us/img139/2135/msigeforce8800gta167919fb1.jpg)
http://img250.imageshack.us/img250/7281/06gf8800gtam3.jpg
-> GT in schwarz + größerer Lüfter(öffnung) (frühes Sample?) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5903895&postcount=765)
http://img206.imageshack.us/img206/4995/g92specqp7.jpg

8800GT ohne Kühler (http://img147.imageshack.us/img147/5706/2007101762368481de0e0f0ds7.jpg)


- VR-Zone berichtert von einer G92-SKU, die als 8700GTS (http://www.vr-zone.com/?i=5236)bezeichnet wurde (nun 8800GT) wird und 1.0ns GDDR3 @ 256Bit haben soll

- D8P ist der SKU-Codename

GPU-Details/Taktraten:

http://img440.imageshack.us/img440/111/specdu8.jpg
- Taktraten: ~600MHz ROPs/TMUs, ? SPs(sollen sehr hoch getaktet sein = 1.5GHz?), 900MHz Speicher (http://my.ocworkbench.com/bbs/showthread.php?p=421506#post421506)
- Aufbau: wahrscheinlich: 16 oder 32TA, 32TFs, min. 64SPs(MADD+MUL) bzw. mehr 96(4x24) oder MADD+MADD SPs (33% mehr theoretische Power auf dem Papier, Praxis bis zu Faktor 2 möglich, da MADD sehr wichtig) oder doch 7 von 8 Clustern (28TA/56TF, 112SPs) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5912379&postcount=4)?
- 56 vollwertige TMUs (56TA+56TFs) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5968511&postcount=414)
- 754M Transistoren (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5966912&postcount=352)?

Benchmarks:
- 10.800 Punkte im 3DMark06
- 3DM06 mit 4xAA/8xAF (20% langsamer als eine 8800Ultra) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5925387&postcount=370)
- Game-Benches (http://myevilprocessor.blogspot.com/2007/10/geforce-8800-gt-512mb.html) (gewisse Unregelmäßigkeiten, versch. Systeme?
- CPU-Last bei HD-Material (http://news.expreview.com/2007-10-13/1192281262d4094.html)
- 8800 GT in der UT3 Demo (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5947602&postcount=808)

Versionen/Preise:

http://img444.imageshack.us/img444/4096/d8pslijaqy8.jpg
- 512MB - $249 (http://www.vr-zone.com/?i=5250) oder $229 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5902571&postcount=715) (ab Oktober/November)
- 256MB - $199 (http://www.vr-zone.com/?i=5250) oder $179 (ab Dezember)
- gelistet in der Schweiz (http://www.toppreise.ch/prod_125785.html) (~206€)
- Foxconn mit 8800 GT auf der Seite vor dem Release (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5945930#post5945930)
- Gigabyte (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5961590&postcount=186)

Kühlung und Verbrauch:
- 65W GPU und 110W gesamt TDP laut PCinlife (veraltet?)
- Kühler mit 3 Heat-Pipes (http://vr-zone.com/articles/GeForce_8800_GT_Cooler_Has_3_Heat-Pipes/5320.html)

- Veröffentlichung: laut letzten Infos, 29.Oktober

- PCB ist 23cm lang und besitzt 8 10 Layer (http://www.vr-zone.com/?i=5242)

dargo
2007-10-23, 10:24:55
Das ist schon klar, doch wann kommen die bzw. warum kommen die später?

reunion
Schau doch mal einfach ins AMD/ATI Lager. Warum sollte NV es so eilig haben?

Gast
2007-10-23, 10:27:39
Schau doch mal einfach ins AMD/ATI Lager. Warum sollte NV es so eilig haben?

Weil der Chip wesentlich billiger zu fertigen ist zB?

Winter[Raven]
2007-10-23, 10:32:40
Weil der Chip wesentlich billiger zu fertigen ist zB?

Deswegen schwimmt Nvidia mit ihren Margen im schlaraffenland und AMD beißt in den sauern Apfel...

dargo
2007-10-23, 10:34:27
Weil der Chip wesentlich billiger zu fertigen ist zB?
Und was macht man mit dem G80 dann? Der muss erstmal "ausverkauft" werden.

AnarchX
2007-10-23, 10:38:12
Und was macht man mit dem G80 dann? Der muss erstmal "ausverkauft" werden.

Ich glaube, das wird wohl NV in den nächsten 3 Wochen über die Bühne bringen:
640er GTS für 260€ (http://geizhals.at/deutschland/a226233.html)

Die 640er kostet dann wohl zum 8800GT Launch vielleicht um die 250€ und somit fast gleich und glänzt dann wohl noch etwas durch 640MB und einer bessere Verfügbarkeit.
In den folgenden Wochen wandern dann wohl GTX und Ultra auf 300-350€ und 400-450€ und laufen so auch langsam aus.

Gast
2007-10-23, 10:41:04
Und was macht man mit dem G80 dann? Der muss erstmal "ausverkauft" werden.

Die Produktion von G80-Chips wurde vermutlich längst eingestellt, wenn G92 wirklich das ist, wonach es momentan aussieht. Die Lagerbestände werden also längst abgebaut, und man kann das sehr gut vorhersagen, wann diese aufgebraucht sind und der neue Chip kommen muss. Und da nV schon lange weiß, wann G92 kommt, ergibt das IMO keine Sinn. Unwahrscheinlich, dass man die Lagerbestände unterschätzt hat, und jetzt deshalb den G92 noch zurückhalten muss. Ich meine sowas gab es in der Vergangenheit auch nie, ich finde das schon seltsam.

reunion

dargo
2007-10-23, 10:41:30
Ich glaube, das wird wohl NV in den nächsten 3 Wochen über die Bühne bringen:
640er GTS für 260€ (http://geizhals.at/deutschland/a226233.html)
Ah, es tut sich langsam was. :D
Da bin ich mal gespannt ob wir die GTX dieses Jahr noch für ~350€ sehen werden.

seahawk
2007-10-23, 10:41:42
Die neue GTS ist fertig. Man will nur den Launch der HD38XX torpedieren indem man kurz danach (oder zeitgleich) die GTS bringt.

Vertigo
2007-10-23, 10:42:12
Und was macht man mit dem G80 dann? Der muss erstmal "ausverkauft" werden.
Wieso nicht? Das war doch in der Vergangenheit häufig so, dass bei einem Generationswechsel die alten Karten plötzlich massiv im Preis gefallen sind und kurz darauf die neue Generation verfügbar war.

Gast
2007-10-23, 10:42:22
Ich glaube, das wird wohl NV in den nächsten 3 Wochen über die Bühne bringen:
640er GTS für 260€ (http://geizhals.at/deutschland/a226233.html)

Logisch, dass die alte GTS im Preis sinkt, wenn bald die neue GTS (auf G80-Basis) und die 8800GT, beide mit 7 Clustern ansteht.

LovesuckZ
2007-10-23, 10:47:32
Ah, es tut sich langsam was. :D
Da bin ich mal gespannt ob wir die GTX dieses Jahr noch für ~350€ sehen werden.

Nein, dafür reicht das Angebot nicht aus.

AnarchX
2007-10-23, 10:51:07
=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)

dargo
2007-10-23, 10:51:26
Nein, dafür reicht das Angebot nicht aus.
Wie meinen?
Wenn die 640MB GTS auf 260€ rutscht (wobei ich immer noch nicht sicher bin ob das die Grenze ist) dann sehe ich überhaupt kein Problem bei ~350€ für die GTX.

Gast
2007-10-23, 10:56:00
Wie meinen?
Angebot und Nachfrage bestimmen den Preis.
Da die meisten GTX noch mit A2 ankommen werden wohl kaum noch neue produziert -> wenig Angebot

LovesuckZ
2007-10-23, 10:57:53
=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)

Hm, ich hasse das Internet. Gibt es TorrentsLinkz? :ugly:

/edit: Hossa, h.264 Beschleunigung auf einem Celeron bei 1,58%? Nett, sehr nett.

Vertigo
2007-10-23, 10:59:18
=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)
Immer dieses Fach-Chinesisch ... :biggrin:

dargo
2007-10-23, 11:00:09
Angebot und Nachfrage bestimmen den Preis.
Da die meisten GTX noch mit A2 ankommen werden wohl kaum noch neue produziert -> wenig Angebot
Naja, gut. Im Prinzip macht dieses Jahr eine GTX eh keinen Sinn mehr, selbst für ~350€. Wenn ich sehe was die G8800GT leistet wird die neue G8800GTS performancemäßig über der alten GTX liegen. Und das für ~270-300€. :eek:

=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)
Auffällig in CoH DX10 mit 4xAA, dass der G8800GT der Speicher in 19201200 in mehreren Szenen wohl ausgeht. Naja, ok. Bei "nur" 512MB wundert mich das in CoH wenig.

LovesuckZ
2007-10-23, 11:03:39
So, wie war das eigentlich noch mit: Die 8800GT wird unter keinen Umständen schneller als die 8800GTS sein. Warum soltle nVidia diese auch so nennen und unter der 8800GTs positionieren?
Ja, Schadensfreude ist wirklich herlich...

/edit: Ein RV670 hat gegen diese Karte keine Chance, wenn AMD nicht wesentlich Änderungen an der Architektur vorgenommen hätte.

Gast
2007-10-23, 11:03:41
=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)
http://www.expreview.com/img/topic/8800gt/hd_useage.png
omg! :eek:

Gast
2007-10-23, 11:05:21
http://www.expreview.com/img/topic/8800gt/hd_useage.png
omg! :eek:

Lein Wunder, das ist im dem Test die einzige Karte mit einem Videoprozessor.

Gast
2007-10-23, 11:07:04
So, wie war das eigentlich noch mit: Die 8800GT wird unter keinen Umständen schneller als die 8800GTS sein. Warum soltle nVidia diese auch so nennen und unter der 8800GTs positionieren?
Ja, Schadensfreude ist wirklich herlich...


Abwarten wie sich die neue GTS schlägt. Das sie schneller wird als die alte war klar, sonst würde man diese nicht ersetzen.


/edit: Ein RV670 hat gegen diese Karte keine Chance, wenn AMD nicht wesentlich Änderungen an der Architektur vorgenommen hätte.

Bei einem 50% größeren Die wäre alle andere auch unrealistisch.

reunion

dildo4u
2007-10-23, 11:07:07
Wer die Seite laden kann könnte ja mal alle Grafiken wo anders hosten. :rolleyes:

Henroldus
2007-10-23, 11:07:16
=)
P(Review) bei Expreview! (http://topic.expreview.com/2007-10-23/1193114539d6255.html)
sie liegt praktisch immer vor der GTS auch in hohen Auflösungen und mit AA/AF und das zu einem niedrigeren Preis und mit weniger Stromverbrauch.
Auf so eine Karte hat der Markt gewartet.
Ich warte trotzdem noch, was AMD dem entgegen stellt, auch wenn es harte 2 Wochen werden.

Gast
2007-10-23, 11:07:17
Lein Wunder, das ist im dem Test die einzige Karte mit einem Videoprozessor.
Dennoch schön das zumindest der "Bug" beseitigt wurde.
Bleiben noch VRam-Bug, Idle Stromverbrauch.... sind diese auch gefixt? :)

Vertigo
2007-10-23, 11:07:27
Jetzt nochmal eine Frage: Hat die 8800GT wirklich nur 16 ROPs? Sind diese besser/effizienter als auf dem G80 oder identisch?

Gast
2007-10-23, 11:07:53
Wer die Seite laden kann könnte ja mal alle Grafiken wo anders hosten. :rolleyes:
Bei mir funzt die Seite nur im IE. ;(

Henroldus
2007-10-23, 11:08:53
Wer die Seite laden kann könnte ja mal alle Grafiken wo anders hosten. :rolleyes:
http://www.expreview.com/img/topic/8800gt/hl2_02.png

Gast
2007-10-23, 11:09:14
Wer die Seite laden kann könnte ja mal alle Grafiken wo anders hosten. :rolleyes:

Ja, das wäre sehr nett, bei mir rührt sich auch nichts.

Henroldus
2007-10-23, 11:11:10
Dennoch schön das zumindest der "Bug" beseitigt wurde.
Bleiben noch VRam-Bug, Idle Stromverbrauch.... sind diese auch gefixt? :)
http://www.expreview.com/img/topic/8800gt/power.png

Gast
2007-10-23, 11:11:38
http://www.expreview.com/img/topic/8800gt/power.png

Offensichtlich kein 2D-Modus.

Gast
2007-10-23, 11:11:41
Was meint ihr issn bei DX10:PT Boats: Knights of the Sea Benchmark bassiert?
sieht auch so komisch aus wie nen vram "bug" hm

dildo4u
2007-10-23, 11:11:45
Jo mit dem IE gehts auch bei mir.

OC geht bei dem Test auf 730 Core/1GHZ Speicher.

dargo
2007-10-23, 11:13:30
Wer die Seite laden kann könnte ja mal alle Grafiken wo anders hosten. :rolleyes:

http://www.pictureupload.de/originals/pictures/231007111049_platform.png
http://www.pictureupload.de/originals/pictures/231007111200_3dmark_03.png
http://www.pictureupload.de/originals/pictures/231007111240_hl2_02.png
http://www.pictureupload.de/originals/pictures/231007111325_stalker.png
http://www.pictureupload.de/originals/pictures/231007111401_dirt_02.png
http://www.pictureupload.de/originals/pictures/231007111511_wic_02.png
http://www.pictureupload.de/originals/pictures/231007111544_coh_02.png
http://www.pictureupload.de/originals/pictures/231007111622_lp_04.png
http://www.pictureupload.de/originals/pictures/231007111727_bioshock.png

Gast
2007-10-23, 11:13:51
Was meint ihr issn bei DX10:PT Boats: Knights of the Sea Benchmark bassiert?
sieht auch so komisch aus wie nen vram "bug" hm
Hm ....
http://www.expreview.com/img/topic/8800gt/pt_02.png
Alle kotzen hier ab ....

seahawk
2007-10-23, 11:14:55
Der Rest der Benches ist auch stark. Und der lochabstand wie bei der 7900/7800 des Kühlers freut mich äußerst.

LovesuckZ
2007-10-23, 11:15:35
Lein Wunder, das ist im dem Test die einzige Karte mit einem Videoprozessor.

Kein Problem, gibt ja wesentlich mehr Seiten mit Vergleiche:

http://images.anandtech.com/graphs/uvd%20versus%20purevideo%20hd_07230740716/15166.png

Oder:
http://images.anandtech.com/graphs/uvd%20versus%20purevideo%20hd_07230740716/15167.png

http://www.anandtech.com/video/showdoc.aspx?i=3047&p=4

1,58% sind da schon sehr - äh - unglaubwürdig...

Winter[Raven]
2007-10-23, 11:16:00
Also die Karte schlägt sich echt nicht schlecht :)

AnarchX
2007-10-23, 11:19:02
Jetzt nochmal eine Frage: Hat die 8800GT wirklich nur 16 ROPs? Sind diese besser/effizienter als auf dem G80 oder identisch?

Ja, bei der G8x/G9x? Architektur zieht 256Bit 16 ROPs nach sich. Ob sie nun besser sind -> k.A., da müssen Synthies wie ArchMark zeigen.

Gast
2007-10-23, 11:19:56
Kein Problem, gibt ja wesentlich mehr Seiten mit Vergleiche:

http://images.anandtech.com/graphs/uvd%20versus%20purevideo%20hd_07230740716/15166.png

Oder:
http://images.anandtech.com/graphs/uvd%20versus%20purevideo%20hd_07230740716/15167.png

http://www.anandtech.com/video/showdoc.aspx?i=3047&p=4

1,58% sind da schon sehr - äh - unglaubwürdig...

Wenn die Qualität stimmt wäre das verdammt gut. Nur sind solche quervergleiche mit Vorsicht zu genießen.

LovesuckZ
2007-10-23, 11:20:04
;5958596']Also die Karte schlägt sich echt nicht schlecht :)

Die Karte ist wirklich gut, sehr sogar. Für 280€ eine echte Überlegung von der GTX "downzugraden". 84 Watt weniger im Stromverbrauch als die 8800GTX, wahrscheinlich nicht lauter und von der Leistung reicht für 1680x1050 mit genäßigten Einstellungen. Und die Übertaktung sieht ebenfalls brauchbar aus.

dargo
2007-10-23, 11:20:05
Hm ....
http://www.expreview.com/img/topic/8800gt/pt_02.png
Alle kotzen hier ab ....
Vram Mangel?

Gast
2007-10-23, 11:20:34
Der Rest der Benches ist auch stark. Und der lochabstand wie bei der 7900/7800 des Kühlers freut mich äußerst.
Oh ja danke.
Und es muss auch kein nvio Chip + Spannungswandler gekühlt werden. :)

Das spart mir doch glatt 100€ für einen Komplett-Kühler. :)

Adam D.
2007-10-23, 11:21:17
*Hände reib* Fein :up:

dildo4u
2007-10-23, 11:21:25
Vram Mangel?
Eher eine Treiber Sache siehe 1GB 2900XT.

Gast
2007-10-23, 11:21:56
Vram Mangel?
Möglich, die 1GB XT steht zwar mies da, aber ihr prozentualler Einbruch bei höherer Auflösung ist gering.

dargo
2007-10-23, 11:22:40
Die Karte ist wirklich gut, sehr sogar. Für 280€ eine echte Überlegung von der GTX "downzugraden".

Das wird höchstens die neue GTS kosten. ;)


84 Watt weniger im Stromverbrauch als die 8800GTX...
Naja, übertreibe nicht. Das würde bedeuten, dass eine G8800GT ~60W brauchen würde was mir etwas zu wenig vorkommt. Um die 75-80W würde ich sie einschätzen.

Eher eine Treiber Sache siehe 1GB 2900XT.
Den R600 lasse ich mit Absicht außen vor. ;)
Was ich meine ist G8800GT bis G8800GTX.

LovesuckZ
2007-10-23, 11:25:44
Naja, übertreibe nicht. Das würde bedeuten, dass eine G8800GT ~60W brauchen würde was mir etwas zu wenig vorkommt. Um die 75-80W würde ich sie einschätzen.

Laut dem ersten Textbericht beträgt der Unterschied unter Last zwischen der GT und der GTX 84 Watt. Kann falsch sein, aber auch stimmen, da schon mehrere Test des Komplettsystem einen Unterschied von ca. 60 Watt von der GTS auf die GTX festgestellt haben.

Gast
2007-10-23, 11:27:35
Laut dem ersten Textbericht beträgt der Unterschied unter Last zwischen der GT und der GTX 84 Watt. Kann falsch sein, aber auch stimmen, da schon mehrere Test des Komplettsystem einen Unterschied von ca. 60 Watt von der GTS auf die GTX festgestellt haben.

Der reale Verbrauchsunterschied zwischen GTS und GTS liegt aber unter 6W. Du vergisst den Wirkungsgrad des Netzteils.

dildo4u
2007-10-23, 11:28:16
Bei Bioshock DX10 sieht man schön das die UE3.0 fast nur an der Shader Rechenleistung hängt dort macht sich die 8800GT und die 2900XT sher gut im Vergleich zur alten GTS.

http://s6.directupload.net/images/071023/4xv67ypx.png

Gast
2007-10-23, 11:28:29
Der reale Verbrauchsunterschied zwischen GTS und GTX liegt aber unter 60W. Du vergisst den Wirkungsgrad des Netzteils.

dargo
2007-10-23, 11:29:58
Laut dem ersten Textbericht beträgt der Unterschied unter Last zwischen der GT und der GTX 84 Watt. Kann falsch sein, aber auch stimmen, da schon mehrere Test des Komplettsystem einen Unterschied von ca. 60 Watt von der GTS auf die GTX festgestellt haben.
Du musst an die Effizienz des NTs noch denken. Bei 80% würde das bei gemessenen 84W ~67W bedeuten, was schon eher hinkommt.

Bei Bioshock DX10 sieht man schön das die UE3.0 fast nur an der Shader Rechenleistung hängt dort macht sich die 8800GT und die 2900XT sher gut im Vergleich zur alten GTS.

http://s6.directupload.net/images/071023/4xv67ypx.png
Ohne Antialiasing kein Wunder. ;)

Edit:
Was ist denn jetzt mit dem Preis der G8800GT 512? Ich habe schon alles von 229$ über 249$ bis hin zu 279$ gesehen. :|
Was stimmt denn nun? :confused:

LovesuckZ
2007-10-23, 11:32:51
Du musst an die Effizienz des NTs noch denken. Bei 80% würde das bei gemessenen 84W ~67W bedeuten, was schon eher hinkommt.

Kann sein, aber ich bin da nicht bewandert. :redface:

Adam D.
2007-10-23, 11:35:02
Edit:
Was ist denn jetzt mit dem Preis der G8800GT 512? Ich habe schon alles von 229$ über 249$ bis hin zu 279$ gesehen. :|
Was stimmt denn nun? :confused:
Laut der Marketing-Folie 200-250$, laut Ail durchaus >250$. Und am Anfang wird sie sicher richtig ordentlich kosten, aber was will man machen, wenn man so ein Schmuckstück in den Händen halten will :biggrin:

AnarchX
2007-10-23, 11:37:51
Laut letzten Infos, wird wohl $229 der Retail-Preis, mal abgesehen am Launch... ;)


Der Kühler arbeitet doch wie ich es mir dachte:
http://img85.imageshack.us/img85/4779/8800gt512mbcooler02163eor3.jpg

Godmode
2007-10-23, 11:38:18
Habe jetzt alle Bilder diese Seite auf RS.com hochgeladen:

http://rapidshare.com/files/64554584/8800GT.rar.html (3 mb Rar)

Bevor die Seite zusammenbricht, oder sie eben Offline gehen muss ;)

dargo
2007-10-23, 11:39:34
Laut der Marketing-Folie 200-250$, laut Ail durchaus >250$.

Ja, hat denn NV den Preis nach oben korrigiert weil sie zu gut performt oder wie? :|


Und am Anfang wird sie sicher richtig ordentlich kosten, aber was will man machen, wenn man so ein Schmuckstück in den Händen halten will :biggrin:
Wer am Launchtag kauft ist selber schuld und hat nichts aus der Vergangenheit gelernt. ;)

LovesuckZ
2007-10-23, 11:39:37
So, jetzt wohl auch der Rest der Welt die Seite entdeckt...

Vertigo
2007-10-23, 11:40:31
Kann sein, aber ich bin da nicht bewandert. :redface:
Das stimmt schon so, wie dargo es dargestellt hat. Wobei man den Wirkungsgrad des Netzteils aus der Ferne nur grob bestimmen kann. 75-80% sind aber bei aktuellen Modellen realistisch.

Winter[Raven]
2007-10-23, 11:40:31
Kann einer Chinesisch? Wie laut ist der Kühler?

Vertigo
2007-10-23, 11:41:37
Laut letzten Infos, wird wohl $229 der Retail-Preis, mal abgesehen am Launch... ;)


Der Kühler arbeitet doch wie ich es mir dachte:
http://img85.imageshack.us/img85/4779/8800gt512mbcooler02163eor3.jpg
Ich vermute auch, dass die Launch-Preise etwas höher sein werden - wie gewöhnlich.

dargo
2007-10-23, 11:43:00
Laut letzten Infos, wird wohl $229 der Retail-Preis, mal abgesehen am Launch... ;)

Also doch 200-210€ (ca. 4-6 Wochen nach Launch) Straßenpreis. :up:

Gast
2007-10-23, 11:43:01
Wer am Launchtag kauft ist selber schuld und hat nichts aus der Vergangenheit gelernt. ;)
Jaja, aber wie lang sollte man den warten?
1 Woche?
:)

seahawk
2007-10-23, 11:43:48
Oh ja danke.
Und es muss auch kein nvio Chip + Spannungswandler gekühlt werden. :)

Das spart mir doch glatt 100€ für einen Komplett-Kühler. :)

Sehe ich auch so. Twinplex drauf und die Ramkühler vom VF900, den VF900 beim Verkauf draufmachen und gut ist.

Ich sage mal, die 8800GT ist gekauft. :biggrin:

Jaja, aber wie lang sollte man den warten?
1 Woche?
:)

2-3 Wochen nach Launch. ;)

Winter[Raven]
2007-10-23, 11:45:51
Ich sage mal, die 8800GT ist gekauft.

Was doch kein R670? ...

dildo4u
2007-10-23, 11:46:02
Hoffentlich wird der Test am Freitag noch durch Crysis Benches ergänzt.Ich find allgemein die Gameauswahl im Test recht gut.

seahawk
2007-10-23, 11:47:27
;5958702']Was doch kein R670? ...

Och nö, ne GeForce ersetzt man doch lieber mit ner GeForce :smile:

Godmode
2007-10-23, 11:47:54
;5958681']Kann einer Chinesisch? Wie laut ist der Kühler?

根据早前tomshardware.tw的报道,GeForce8800GT显卡风扇的转速在1000RPM到3200RPM,工作噪音为34dB。

According to reports earlier tomshardware.tw, GeForce8800GT graphics fan speed at 1000 RPM to 3200 RPM, the noise is 34 dB.

Übersetzt mit Google Sprachtools

dargo
2007-10-23, 11:47:59
Jaja, aber wie lang sollte man den warten?
1 Woche?
:)
In der Regel 3-6 Wochen. Zumindest war es so beim G80 Launch. Im Prinzip fallen die Preise in den ersten 3 Wochen am stärksten. Das Problem ist, dass beim Launch sehr viele Händler es am Preis ausnutzen. Muss natürlich nicht heißen, dass es beim G92 auch so sein wird. Wovon ich aber ausgehe. Ich glaube nämlich nicht, dass die G8800GT 512 schon direkt nach dem Launch für ~210-220€ (ausgehend von 229$) zu haben sein wird.

dildo4u
2007-10-23, 11:48:57
Das heisst die Seite hat keine Lautstärke Messung gemacht sondern nur abgeschrieben. :(

Winter[Raven]
2007-10-23, 11:50:18
According to reports earlier tomshardware.tw, GeForce8800GT graphics fan speed at 1000 RPM to 3200 RPM, the noise is 34 dB.

Also doch keine Aussage zu Reallife-Geräuschkulisse...

AnarchX
2007-10-23, 11:50:53
;5958681']Kann einer Chinesisch? Wie laut ist der Kühler?

Scheinen wohl nicht ganz so zufrieden zu sein:
http://translate.google.com/translate?u=http%3A%2F%2Ftopic.expreview.com%2F2007-10-23%2F1193114539d6255_3.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Aber über die Lautstärke gibt es keinen genauen Daten, nur die bis zur 36dB von THG.tw.

edit: Hast es schon selbst gefunden...

Gast
2007-10-23, 11:53:34
Bis auf den fehlenden 2D-Modus und die fehlenden DX10.1 Unterstützung scheint die Karte perfekt zu sein, wenn der Lüfter nicht zu laut ist. Mal abwarten was von AMD kommt.

Ailuros
2007-10-23, 11:58:56
Das ist schon klar, doch wann kommen die bzw. warum kommen die später? Am 29. kommt erstmal die 8800GT und die neue GTS auf G80-Basis mit 7 Clustern und unveränderten Taktraten.

reunion

Also ich bin was die neue GTS betrifft noch im Dunkeln; 7 cluster@600MHz? und wieso bitte sollte man sie dann "GTS" nennen?

dargo
2007-10-23, 12:00:01
Also ich bin was die neue GTS betrifft noch im Dunkeln; 7 cluster@600MHz? und wieso bitte sollte man sie dann "GTS" nennen?
Hieß es nicht die neue GTS hätte 8 Cluster @XMhz?

Gast
2007-10-23, 12:02:14
Also ich bin was die neue GTS betrifft noch im Dunkeln; 7 cluster@600MHz? und wieso bitte sollte man sie dann "GTS" nennen?

7 Cluster mit sonst unveränderten Taktraten zur alten GTS AFAIK. Das ganze auf G80-Basis. Aber vielleicht ist das auch schon überholt.

Ailuros
2007-10-23, 12:02:44
Deshalb frag ich ja auch.

Gast
2007-10-23, 12:03:20
Hieß es nicht die neue GTS hätte 8 Cluster @XMhz?

Auf G92-Basis ja.

dargo
2007-10-23, 12:06:26
7 Cluster mit sonst unveränderten Taktraten zur alten GTS AFAIK. Das ganze auf G80-Basis. Aber vielleicht ist das auch schon überholt.
Ich glaube, davon kann man sich langsam verabschieden. Da gab es wohl paar falsche Gerüchte. Ich gehe bei der neuen GTS von einer GTS@G92 mit 8 Clustern und >=600Mhz GPU-Takt aus.

Merkor
2007-10-23, 12:12:20
根据早前tomshardware.tw的报道,GeForce8800GT显卡风扇的转速在1000RPM到3200RPM,工作噪音为34dB。

According to reports earlier tomshardware.tw, GeForce8800GT graphics fan speed at 1000 RPM to 3200 RPM, the noise is 34 dB.

Übersetzt mit Google Sprachtools

Preis und Speed passt. Die Lautstärke muss sich noch als akzeptabel herausstellen. Meine 7900GTO dreht idle auch auf 1100 Touren und dreht in 3D nicht höher, obwohl der Lüfter auch 2500 und mehr laufen kann. Das hört man ja vor dem POSTen des Rechners.

Es hängt also nicht nur davon ab, wie der Lüfter spezifiziert ist. Wenn die Abwärme so gering und die Kühlung so effizient ist, muss der 8800GT Lüfter auch nicht weit über die 1000 Touren hinaus kommen. Dazu gehört auch eine vernünftige Lüftersteuerung...

leuisc
2007-10-23, 12:13:51
Hello

Tell please where it is possible to find articles or news on the given theme.
by

shane~
2007-10-23, 12:20:47
Asus GeForce 8800GT Images and Details Unveiled

http://forums.vr-zone.com/showthread.php?t=197461

http://img529.imageshack.us/img529/7798/asusgeforce8800gtbyfx57xg5.jpg

http://img139.imageshack.us/img139/200/asusgeforce8800gtspecbylz2.jpg

LovesuckZ
2007-10-23, 12:24:20
Interessant ist, dass eine 8800GT auf 730MHz einen Shadertakt von 1825Mhz hätte und somit eine größere Rechenleistung als eine 8800GTX auf 612Mhz mit einem Shadrtakt von 1438.

Henroldus
2007-10-23, 12:24:55
Asus GeForce 8800GT Images and Details Unveiled

http://forums.vr-zone.com/showthread.php?t=197461

http://img529.imageshack.us/img529/7798/asusgeforce8800gtbyfx57xg5.jpg

http://img139.imageshack.us/img139/200/asusgeforce8800gtspecbylz2.jpg
ist doch schon uralt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5957581&postcount=983

Die gelbe Eule
2007-10-23, 12:36:35
Interessant ist, dass eine 8800GT auf 730MHz einen Shadertakt von 1825Mhz hätte und somit eine größere Rechenleistung als eine 8800GTX auf 612Mhz mit einem Shadrtakt von 1438.

Das interessanteste ist aber, daß es hier einen Faktor 2.5 gibt. 600MHz GPU und 1.5GHz Shader verhalten sich genauso wie 730MHz GPU und 1.825GHz Shader zueinander. Beide Takte skalieren also proportional.
Der Faktor hat sich gegenüber der GTS um 0.1 erhöht, hier waren es 500MHz GPU und 1.2GHz Shader.

*edit*

Ich möchte mal eine eVGA oder Leadtek Karte sehen, die warrn ja immer anders vom Design her, vielleicht die Hoffnung auf eine andere Kühlerlösung.

LovesuckZ
2007-10-23, 12:42:26
Der Faktor spielt im Grunde keine Rolle, da die Taktraten im Bios seperat eingestellt werden können. Aufgrund der hohen Anzahl an Clustern und demnach auch der SP ist es für eine GTX eben nicht möglich, bei voller Übertaktung - was in der Richtung bei ca. 625MHz liegen sollte - an die Rechenleistung einer 8800GT bei 730MHz heranzukommen.

Die gelbe Eule
2007-10-23, 12:45:35
Natürlich können sie das, aber es geht ja um die Skalierung selbst, wenn man den GPU Takt anhebt. Hier geht der Shadertakt von alleine mit. Soll ja nur heißen, daß das Potential dieser Shader höher ist als beim G80.

Godmode
2007-10-23, 12:48:19
....Ich möchte mal eine eVGA oder Leadtek Karte sehen, die warrn ja immer anders vom Design her, vielleicht die Hoffnung auf eine andere Kühlerlösung.

Zum Launch gibt es sicher nur Referenzkaren von nVidia. Speziallösungen werden meist erst später vorgestellt.

Die gelbe Eule
2007-10-23, 12:50:40
http://geizhals.at/img/pix/237970.jpg

Meine ja sowas hier ;)

Vertigo
2007-10-23, 12:52:57
http://geizhals.at/img/pix/237970.jpg

Meine ja sowas hier ;)
Ganz tolles Beispiel. Eine andere Abdeckung auf einem Referenz-Kühlkörper ist das, mehr nicht. Ebenso bei Leadtek. Für mich gibt es da wichtigere Kriterien bei der Auswahl des Herstellers.

dildo4u
2007-10-23, 12:54:42
Hier kann doch jeder selber den Rivatuner oder ein Bios Editor bedienen warum sollte man sich da 20-30€ Extra von EVGA und Co. aus der Tasche ziehn lassen?

seahawk
2007-10-23, 12:56:19
Bei EVGA sind die Garantiebedingungen besser. (Wakü)

Die gelbe Eule
2007-10-23, 12:57:28
eVGA und BFG bringen doch eh 10 Jahre Garantie mit, hat kein anderer Hersteller, BFG dazu noch ein TShirt, Mouseskates, Aufkleber. Für viele spielt das Design trotzdem eine Rolle, gerade wenn das PCB schwarz sein soll, ist eine Abdeckung über die komplette Karte halt die beste und auch designtechnisch eleganteste Lösung. Beim Autoneukauf kannst ja auch Deine Lieblingsfarbe bestimmen und es wird nicht als Spinnerei abgetan.

Hier kann doch jeder selber den Rivatuner oder ein Bios Editor bedienen warum sollte man sich da 20-30€ Extra von EVGA und Co. aus der Tasche ziehn lassen?

Weil Du Deine 10 Jahre Garantie dann per Selbstbedienung zerstörst? Deutlicher Mehrwert gegenüber 2 Jahren.

dildo4u
2007-10-23, 12:59:43
Das ist eine 220€ Midrange Karte und kein 500€ Schlachtschifft für mich gilt da nur billig billig OC und Kühler (vom mir aus auch mit Blinki Blinki) *brrr* kann man selber ändern wenn man nicht der totale Dau ist.



Weil Du Deine 10 Jahre Garantie dann per Selbstbedienung zerstörst? Deutlicher Mehrwert gegenüber 2 Jahren.
Toll 10 Jahre Garantie für eine Karte die in 12 Monaten schon wieder überfordert ist oder mit Crysis schon in 2 Wochen.(Ganz schnell weg renn)

Vertigo
2007-10-23, 13:00:32
eVGA und BFG bringen doch eh 10 Jahre Garantie mit, hat kein anderer Hersteller, BFG dazu noch ein TShirt, Mouseskates, Aufkleber. Für viele spielt das Design trotzdem eine Rolle, gerade wenn das PCB schwarz sein soll, ist eine Abdeckung über die komplette Karte halt die beste und auch designtechnisch eleganteste Lösung. Beim Autoneukauf kannst ja auch Deine Lieblingsfarbe bestimmen und es wird nicht als Spinnerei abgetan.
Beim Auto sehe ich die Farbe aber auch öfter als im geschlossenen Gehäuse und sie hat sogar nützliche Funktionen - weiß wird im Sommer nicht so warm und man sieht es im Dunkeln besser etc. :biggrin:

Okay, für Casemodder oder Leute mit Sichtfenster in der Gehäusewand mag das schon ein Grund sein. Aber technisch macht es nunmal keinen Unterschied und darauf kommt es mir an.

Die gelbe Eule
2007-10-23, 13:01:59
Und wo ist das der Bezug zur Garantiezeit @dildo4u? Also würdest auch eine Karte für 20€ weniger kaufen, wenn der Hersteller gar keine Garantie geben würde? Sehr sinnfrei ...

Vertigo
2007-10-23, 13:03:04
Und wo ist das der Bezug zur Garantiezeit @dildo4u? Also würdest auch eine Karte für 20€ weniger kaufen, wenn der Hersteller gar keine Garantie geben würde? Sehr sinnfrei ...
Eben hast Du noch von alternativen Kühllösungen erzählt ... :|

dildo4u
2007-10-23, 13:04:16
Und wo ist das der Bezug zur Garantiezeit @dildo4u? Also würdest auch eine Karte für 20€ weniger kaufen, wenn der Hersteller gar keine Garantie geben würde? Sehr sinnfrei ...
Es gibt doch eine 2Jährige Gewährleistung und überprüfen ob man selber die Karte geschrottet hat tut eh keiner einfach alten Kühler rauf und zurück damit.

Die gelbe Eule
2007-10-23, 13:04:21
Ok, dann nehmen wir die Sparkle, auch wenn der TEC nicht vielen zusagt.

Es gibt doch eine 2Jährige Gewährleistung und überprüfen ob man selber die Karte geschrottet hat tut eh keiner einfach alten Kühler rauf und zurück damit.

Die ersten 6 Monate, danach musst Du beweisen das alles so ist wie es vorher war. Und mit Deiner Einstellung wirst hier nicht viele Freunde finden.

dildo4u
2007-10-23, 13:08:49
Die ersten 6 Monate, danach musst Du beweisen das alles so ist wie es vorher war. Und mit Deiner Einstellung wirst hier nicht viele Freunde finden.
Und genau das überprüft und fodert kaum ein Hersteller auch nach 6 Monaten nicht.Aber egal wird zu viel OT leg was extra drauf wenn du bock hast.Ein besseren Kühler wirds imo nicht so schnell geben gabs bei der GTS auch nicht oder kaum etc.

Endorphine
2007-10-23, 13:42:01
Ein besseren Kühler wirds imo nicht so schnell geben gabs bei der GTS auch nicht oder kaum etc. Das glaube ich nicht. Bei der 8800GTS ist der Referenzkühler im Zweislot-Design eben schon gut genug. Passivkühler sind beim G80 ab Werk nicht wirtschaftlich sinnvoll.

Bei der 8800GT sind aber noch Steigerungsmöglichkeiten drin. Eben ein Dualslot-Design wäre möglich, welches die Abwärme gleich durch den zweiten Slot nach außen befördert. Und dazu ein größerer Lüfter, der leiser arbeitet als das von afaik Coolermaster konstruierte Referenzdesign.

Und vielleicht schafft es ja auch ein Hersteller, eine 8800GT mit Monster-Passivkühler auf den Markt zu bringen. :) Ich habe da Hoffnung.

Gast
2007-10-23, 13:42:11
ich muss sagen die 8800gt gefällt mir.

review:
http://topic.expreview.com/2007-10-23/1193114539d6255.html

Vertigo
2007-10-23, 13:56:50
Und vielleicht schafft es ja auch ein Hersteller, eine 8800GT mit Monster-Passivkühler auf den Markt zu bringen. :) Ich habe da Hoffnung.
Das ist wirklich nicht ausgeschlossen, wenn man sich mal die Verlustleistung ansieht und mit aktuellen GPUs vergleicht, die z.Bsp. mit dem Accelero S1 gekühlt werden können.

Henroldus
2007-10-23, 14:00:34
Kann man bei dem Preview eigentlich ausschliessen, dass alle Test mit den OC Settings durchgeführt wurden?
Ich hab dazu keie Angaben gefunden, nur der 14k 3dMarkTest war mit Taktraten angegeben.
dann wäre das ganze nämlich nicht ganz so schön ;(

LovesuckZ
2007-10-23, 14:02:33
Dafür sind die Ergebnisse in den Anwendungen, die stark auf Rechenleistung setzen, zu gering.

Doc Chaos
2007-10-23, 14:16:21
Wenn DAS schon die Power der GT ist, was wird dann bitte die neue GTS können? Ne GTX frühstücken und noch Nachschlag verlangen? Kommt mir seltsam vor.

Gast
2007-10-23, 14:21:36
wieso nicht?

Die "neue" 8800GTS wird dann die 8800GTX ersetzen und im Januar kommt dann der Leistungshammer^^

ist doch logisch!

mirp
2007-10-23, 14:27:07
Kann man bei dem Preview eigentlich ausschliessen, dass alle Test mit den OC Settings durchgeführt wurden?
Ich hab dazu keie Angaben gefunden, nur der 14k 3dMarkTest war mit Taktraten angegeben.
dann wäre das ganze nämlich nicht ganz so schön ;(

Auf Seite 9 sind auch 3DMark06 Ergebnisse und die sind niedriger. Also kann man das wohl ausschließen.

http://img516.imageshack.us/img516/4314/3dmark01jy6.png

Henroldus
2007-10-23, 14:33:44
Auf Seite 9 sind auch 3DMark06 Ergebnisse und die sind niedriger. Also kann man das wohl ausschließen.

http://img516.imageshack.us/img516/4314/3dmark01jy6.png
Das ist richtig aber es ist mir nicht ersichtlich, ob die Games @Stock gebencht wurden

dildo4u
2007-10-23, 14:40:56
Natürlich was sonst so ganz dämlich scheint der Tester nicht zu sein hat z.B eine recht gute Benchauswahl getroffen.

mirp
2007-10-23, 14:45:18
Das ist richtig aber es ist mir nicht ersichtlich, ob die Games @Stock gebencht wurden

Seite 7: Overclocking, GeForce8800GT
Seite 8: Test Platform and detail
Seite 9: Futuremark 3DMark06 NoAA/4xAA/8xAA
Seite 10: Enermy Territory Quake Wars NoAA NoAF / 4xAA 16xAF

Ich glaube nicht, dass man ab Seite 10 wieder mit anderen Einstellungen testet, als auf Seite 8 beschrieben wurde. Und auf Seite 9 wurde definitiv mit Standardtaktraten getestet.

mapel110
2007-10-23, 15:19:02
http://www.drivecity.de/product_info.php?products_id=141357&pid=geizhals
Langsam wirds was mit den Preisen für die schnellen Karten. 263 € für ne 640er GTS. :)
Vielleicht kauf ich mir doch noch mal ein teures Kärtchen.
Wenn die 8800 GT bei 210 € liegt, dann müssten die Preise ja noch mehr nachgeben für die alten Karten.

reunion
2007-10-23, 15:36:01
Angeblich nur 50.000 Karten zum Launch: http://www.theinquirer.net/gb/inquirer/news/2007/10/23/nvidia-boards-8800gt-launch

Die gelbe Eule
2007-10-23, 15:40:06
Besser als unter 5.000 für jeden Hersteller bei der HD2900PRO, von deren es nur 3 gibt die welche anbieten. Und zm Lauch heißt, das die Karte bis dahin angeliefert worden sind, die halt schon früher im Lager verweilen.

http://www.drivecity.de/product_info.php?products_id=141357&pid=geizhals
Langsam wirds was mit den Preisen für die schnellen Karten. 263 € für ne 640er GTS. :)
Vielleicht kauf ich mir doch noch mal ein teures Kärtchen.
Wenn die 8800 GT bei 210 € liegt, dann müssten die Preise ja noch mehr nachgeben für die alten Karten.

Die 320er dürfte es dann wirklich zu Schleuderpreisen geben, also ~160€.

reunion
2007-10-23, 15:45:05
Besser als unter 5.000 für jeden Hersteller bei der HD2900PRO, von deren es nur 3 gibt die welche anbieten.


Toller Vergleich. Die 2900pro ist nur Resteverwertung, diese sollte nie Verkaufsrekorde aufstellen.


Und zm Lauch heißt, das die Karte bis dahin angeliefert worden sind, die halt schon früher im Lager verweilen.


Was das heißt kann nur spekuliert werden.

Spasstiger
2007-10-23, 15:45:15
Die 320er dürfte es dann wirklich zu Schleuderpreisen geben, also ~160€.
Glaub ich nicht. Es gibt genug Ahnungslose, die noch die alten Karten zu alten Preisen kaufen, selbst User aus diesem Forum. In meinem Bekanntenkreis haben welche, die auch zocken, erst kürzlich von mir erfahren, dass es schon länger Radeon-HD2900-Karten gibt, nachdem sie dachten, ich hätte für meine X1900 AIW hätte über 400€ gelöhnt, weil es noch eine High-End-Karte sei.

AnarchX
2007-10-23, 15:49:43
Card Makers Self-Designed 8800 GT Cards (http://www.vr-zone.com/?i=5362)
[...]VR-Zone learned that the first wave of reference cards will be made by Foxconn and the subsequently Flextronics. The AIC partners are working hard on designing the 256MB and 512MB cards themselves and we should be seeing different designs and coolers later next month[...]

Adam D.
2007-10-23, 15:56:25
Hmm, spricht alles dagegen, die Karte am Launch zu kaufen. Ich will sie trotzdem schon dann haben :usad:

AnarchX
2007-10-23, 16:00:44
Hmm, spricht alles dagegen, die Karte am Launch zu kaufen.
Ist doch immer so.
Und speziell bei der GT wäre wohl ein ordentlicher Dua-Slot kühler anzuraten, wenn man über 700MHz und noch weiter gehen will, wenn man sich schon die 89°C hier bei Defaul-Last anschaut.
Palit/Gainward wird dies wohl wieder in Zusammenhang mit einem günstigen Preis liefern können.;)



Ich will sie trotzdem schon dann haben :usad:
Das BGB bietet hier eine nicht ganz feine Möglichkeit... :D

☯Stephan☯
2007-10-23, 16:10:51
http://www.drivecity.de/product_info.php?products_id=141357&pid=geizhals
Langsam wirds was mit den Preisen für die schnellen Karten. 263 € für ne 640er GTS. :)

jetzt juckt es aber ganz schön :D

Adam D.
2007-10-23, 16:11:28
Ja, ich mein, wenn man die Kohle hat (wie ich jetzt) und noch mit 'ner gammligen 7900GT rumkämpft, dann kann man es halt kaum erwarten, die Power einer GT für Stalker und co zu nutzen. Aber ja, der Lüfter scheint echt an der Grenze zu laufen und 90°C halte ich persönlich schon für echt grenzwertig :|

mirp
2007-10-23, 16:21:48
Angeblich nur 50.000 Karten zum Launch: http://www.theinquirer.net/gb/inquirer/news/2007/10/23/nvidia-boards-8800gt-launch

"When it comes to 256MB part, it will mostly depend on the number of available G92_200 series. In all reality, this is a mainstream G96 part, G92_300 is the real G92 and that is a high-end part with yes, 384-bit memory controller... or 768-bit, given by the amount of memory on prototype boards."

:confused:

AnarchX
2007-10-23, 16:30:27
Nunja, der G92 auf der 88GT ist G92-270 bei welchem 1 Cluster und 128Bit/8ROPs deaktiviert sind.
G92-3x0 wird dann wohl hier alles aktiviert haben.

Aber G96 wird man eher nicht auf einer 8800 GT sehen, dass ist imo nachwievor der G84(8600)-Shrink. Und INQ schreibt dies wohl nur, da hier Foxconn sich bei der geleakten Beschreibung vertan hatte.

Die gelbe Eule
2007-10-23, 16:32:59
Schade, da heißt es wohl noch warten was die 8800GT angeht, gerade weil man doch gerne bei einem Hersteller verweilen möchte, der immer einen Mehrwert hatte.

AnarchX
2007-10-23, 16:37:07
Vorallem 1GiB-Versionen könnten doch interessant sein, wenn man die Karte etwas länger einsetzen will und wenn der Aufpreis in einem vertrettbaren Rahmen bleibt.

Die 512MB scheinen ja wie man in den Benches sieht, doch an mancher Stelle die Rechenleistung zu limitieren...

Die gelbe Eule
2007-10-23, 16:41:47
Dafür ist ja Gainward bekannt, hier mal 1GiB rauszuhauen. Weiß man schon was über GDDR4, kann das PCB sowas ab?

prophet
2007-10-23, 16:49:11
Warum brechen die Ergebnisse bei Company of Hereos sowie PT Boats so stark ein, wenn in fast allen anderen Tests die GT zwischen GTS und GTX zu finden ist, und sich tendentiell Richtung GTX bewegt?

Bis Mo. wird wohl die Karte nirgends gelistet, richtig?

Was meint ihr, wie lange brauchen die anderen Hersteller für ihr eigenes Design?

dildo4u
2007-10-23, 16:50:32
Warum brechen die Ergebnisse bei Company of Hereos sowie PT Boats so stark ein, wenn in fast allen anderen Tests die GT zwischen GTS und GTX zu finden ist, und sich tendentiell Richtung GTX bewegt?

Vermutlich V-Ram Mangel der V-Ram Verbrauch liegt whol dort knapp über 512mb und unter 640mb.

AnarchX
2007-10-23, 16:50:33
Warum brechen die Ergebnisse bei Company of Hereos sowie PT Boats so stark ein, wenn in fast allen anderen Tests die GT zwischen GTS und GTX zu finden ist, und sich tendentiell Richtung GTX bewegt?
Beides wohl extreme Speicherfresser...


Bis Mo. wird wohl die Karte nirgends gelistet, richtig?
Jein...


Was meint ihr, wie lange brauchen die anderen Hersteller für ihr eigenes Design?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5959530#post5959530
;)

Die gelbe Eule
2007-10-23, 16:52:25
Listen kann man die Karten ja und so komische Distris werden damit zuerst auftauchen. Gerade zum WE sollte es losgehen.

reunion
2007-10-23, 16:53:33
Trotzdem ist es seltsam, dass die Karte derart einbricht, während die GTS mit nur wenig mehr VRAM keinerlei Einbruch zeigt. Normalerweise verläuft der Einbruch eher fließend, und nicht derart sprunghaft. Würde mich nur wundern, wenn hier wieder der berüchtigte VRAM-Bug zuschlägt. Leider wurde ja keine 2900XT mit 512MB getestet.

Jake Dunn
2007-10-23, 16:54:43
Ich frage mich was die 256mb überhaupt soll, die 320er GTS war doch schon eine Fehlkonstruktion :rolleyes:

Die gelbe Eule
2007-10-23, 16:56:39
Es ist eher seltsam das CoH so wichtig für alle ist. Wer es nicht spielt, den stört es auch nicht. Gerade 640MB zu haben, nur damit es läuft, grenzt an schlechte Programmierung. Man erinnere sich noch an die anfänglichen Probleme mit CoD2, wo nur starke SLi Systeme damit was anfangen konnte.

Ich frage mich was die 256mb überhaupt soll, die 320er GTS war doch schon eine Fehlkonstruktion :rolleyes:

Schau Dir mal Surveys an und auch Statements von NVidia, die Treiber sind auf 256MB ausgelegt, weil es am weitesten verbeitet ist.
Nur weil HighEnd Karten soviel RAM haben, muss es kein Standard werden.

Jake Dunn
2007-10-23, 17:01:03
Ich sag mal der Vram verbrauch wird in neuen Games ja nicht weniger ;)
Und warum soll man einen guten Chip durch wenig Vram einbremsen ? (ist sicher ne kostenfrage)

Die gelbe Eule
2007-10-23, 17:06:57
Die 320er hat man deswegen eingeführt, weil man sonst eine 150€ Lücke gehabt hätte. Eine 8600GTS mit 512MB ist mitnichten besser positioniert und was anderes gab es im Portfolio nicht.
Auch das "krumme" Speicherinterface hätte "nichts anderes" zugelassen.

prophet
2007-10-23, 17:17:16
Es ist eher seltsam das CoH so wichtig für alle ist.
Das hat ja auch keiner gesagt. Mir ging es vor allem darum, wieso die Leistung dort so einrbicht, im Vergleich zum Rest.

Ich warte sowieso auf 2560x1600 Tests. :usad:

robbitop
2007-10-23, 17:47:50
Die Benchmarks sehen, ehrlich gesagt, aber (besonders mit AF) nicht nach 16 TMUs aus (eher mehr). Ich wüßte auch nicht, wie man das so hinskalieren will. Müßte man ja üblen Designaufwand treiben.

seahawk
2007-10-23, 18:14:18
Das hat ja auch keiner gesagt. Mir ging es vor allem darum, wieso die Leistung dort so einrbicht, im Vergleich zum Rest.

Ich warte sowieso auf 2560x1600 Tests. :usad:

Dann ist eine Karte in der Preisklasse nichts für Dich.

Spasstiger
2007-10-23, 18:25:04
Dann ist eine Karte in der Preisklasse nichts für Dich.
Wieso nicht? Er muss ja nicht gleich Crysis zocken. Und für Sachen wie Stalker reicht die 8800 GT wohl in der Auflösung (im Gegensatz zu Karten, die es vorher in der Preisklasse gab).

Razor
2007-10-23, 18:34:04
Ja, ich mein, wenn man die Kohle hat (wie ich jetzt) und noch mit 'ner gammligen 7900GT rumkämpft, dann kann man es halt kaum erwarten, die Power einer GT für Stalker und co zu nutzen. Aber ja, der Lüfter scheint echt an der Grenze zu laufen und 90°C halte ich persönlich schon für echt grenzwertig :|
Na ja...

Das mit der 7900GT geht mir ähnlich!
:D

Insofern werde ich wohl zu den ersten 50T gehören, die sich solch ein Teilchen ziehen werden. Dann kommt der Zalman VF900 auf das Kärtchen (danke für den Hinweis @ (P)reviewer! ;-) und schon ists mit den 60°/90° Geschichte...

Ein Kärtchen, welches die 8800GTS 'verhaut', den VP2 onboard hat, ohne den fusseligen NVIO auskommt und zudem selbst is Sachen Videobeschleunigung noch kräftig einen drauf legt (wohl mit dem VP2 der G84/G86 gemein), dann noch mit erheblich geringerer Leistungsaufnahme und für den unschlagbaren Preis einer Midrange-Karte daher kommt ...

DAS IST MEINE KARTE!
Ein würdiger Nachfolger für meine 'kleine' 7900GT...

Razor

P.S.: den Review-Rummel werde ich dann locker abwarten können und sollte es tatsächlich doch einen erheblichen Mangel geben, der dann noch nicht offenbar ist, werde ich das Kärtchen ruhigen Gewissens per FAG/BGB zurück wandern lassen... obwohl... bei eBay dürfte das Teilchen glatt mehr bringen, oder? ;D

prophet
2007-10-23, 18:37:01
Dann ist eine Karte in der Preisklasse nichts für Dich.
Ich warte ja auch auf "meine" Grafikkarte. Aber für die Zwischenzeit ist die GT wohl die beste Lösung die es gibt.

Gast
2007-10-23, 19:00:39
Gibt es denn schon einen bestätigten Termin für die "neue" 8800GTS auf G92 Basis? Wenn diese knapp unter 300€ käme würde ich noch darauf warten, ansonsten werde ich wohl nach 1 1/2 Jahren 7900GT 512Mb sofort zuschlagen, da ich auch auf solch eine Karte gewartet habe und die alte GTS 640MB mir einfach für die Leistung zu teuer war.

Razor
2007-10-23, 19:09:35
12. Nov... 2 Wochen nach der GT.

alpha-centauri
2007-10-23, 19:16:15
eVGA und BFG bringen doch eh 10 Jahre Garantie mit, hat kein anderer Hersteller, BFG dazu noch ein TShirt, Mouseskates, Aufkleber. Für viele spielt das Design trotzdem eine Rolle, gerade wenn das PCB schwarz sein soll, ist eine Abdeckung über die komplette Karte halt die beste und auch designtechnisch eleganteste Lösung. Beim Autoneukauf kannst ja auch Deine Lieblingsfarbe bestimmen und es wird nicht als Spinnerei abgetan.



Weil Du Deine 10 Jahre Garantie dann per Selbstbedienung zerstörst? Deutlicher Mehrwert gegenüber 2 Jahren.
Was juckt mir so lange Garantie, wenn ich eh zum Hersteller schicken muss?

Übrigens: Passt. ne 8800GT512. Ich frag mich ob ne GTS640 dann schneller als der 8800GT wird..

Gast
2007-10-23, 19:17:42
DAS IST MEINE KARTE!
Ein würdiger Nachfolger für meine 'kleine' 7900GT...
Geht mir genauso. :)

Also ich muss nach dem Launch nur:
- abwarten, ob ich nicht doch auf eine 1GiB-Version warten sollte
- auf den ersten Preisrutsch in den ersten 2 Wochen warten
- checken ob es nicht doch irgendwelche Probs gibt

Hm .... so werde ich wohl nicht zu den ersten 50000 gehören. :(

Endorphine
2007-10-23, 19:27:23
Wenn ihr zu den ersten 50k gehören wollt, müsst ihr für ~280 EUR (*schätz*) auf Kreditkarte sofort bei Alternate bestellen, 5 Minuten, nach dem die die ersten Karten dort eingestellt haben mit Status "neues Produkt, Lieferzeit".

50k Karten sind global gesehen eine extrem mickrige Menge. In Südostasien und den USA warten auch eine Menge Freaks, die die Karte auch unbedingt schon am besten gestern haben wollen. Nicht zu vergessen: die Japaner.

Razor
2007-10-23, 19:33:34
Glaube mir... es wird klappen.
Prinzipiell gesehen ist die Karte schon jetzt bestellt...
(zur Sicherheit sogar bei 2 Direkt-Kontakten - denen macht es übrigens nicht einmal etwas aus, wenn ich von einem zurück trete ;-)

Razor

Endorphine
2007-10-23, 19:41:30
Ich glaub's dir ja. :D Nur der Preis wird eben für all die, die keinen Freundschaftspreis bekommen, anfangs happig sein. Das sagt einem das Gesetz von Angebot und Nachfrage bei nur anfangs 50k Karten für diesen ganzen Planeten.

dildo4u
2007-10-23, 19:43:12
Für die Ungeduldigen gibts ja jetzt die old GTS auch günster kein schlechter Ersatz auf 600mhz OC sollte kein Problem sein und das mher an V-Ram könnte noch nützlich werden.

http://geizhals.at/deutschland/a226233.html

reunion
2007-10-23, 19:48:59
Für die Ungeduldigen gibts ja jetzt die old GTS auch günster kein schlechter Ersatz auf 600mhz OC sollte kein Problem sein und das mher an V-Ram könnte noch nützlich werden.

http://geizhals.at/deutschland/a226233.html

Nicht wirklich eine Alternative, da man in wenigen Wochen eine deutlich bessere Karte (schneller, stromsparender, inkl. Videoprozessor) billiger bekommt.

up¦²
2007-10-23, 19:50:36
Sorry ist hier besser aufgehoben: first review...
http://topic.expreview.com/2007-10-23/1193114539d6255_1.html

dildo4u
2007-10-23, 19:52:02
Nicht wirklich eine Alternative, da man in wenigen Wochen eine deutlich bessere Karte (schneller, stromsparender, inkl. Videoprozessor) billiger bekommt.
Deshalb schrieb ich ja für die Ungeduligen die z.B Crysis,UT3 und COD4 sofort mitte November zocken wollen.

Gast
2007-10-23, 19:54:02
Deshalb schrieb ich ja für die Ungeduligen die z.B Crysis,UT3 und COD4 sofort mitte November zocken wollen.
Trotzdem wenn ich eine Karte, wie die 8800GTS wollte (mit all ihren Problemen), hätte ich bereits vor 5 Monaten für 280€ zugeschlagen.

dildo4u
2007-10-23, 19:56:20
Trotzdem wenn ich eine Karte, wie die 8800GTS wollte (mit all ihren Problemen), hätte ich bereits vor 5 Monaten für 280€ zugeschlagen.
Welche Probleme die verbraucht weder viel mher Strom als die GT noch hat sie ein lauterer Kühler.Den Videoprozzi braucht man auch nicht wirklich wenn man z.B ein C2D oder X2 im Rechner hat.

mapel110
2007-10-23, 19:56:46
Trotzdem wenn ich eine Karte, wie die 8800GTS wollte (mit all ihren Problemen), hätte ich bereits vor 5 Monaten für 280€ zugeschlagen.
Wann soll die 8800 GTS 640 jemals so wenig gekostet haben? Dazu hätte ich gerne mal einen Link. Direkt nach Launch waren die Preise noch höher als derzeit.

Gast
2007-10-23, 19:59:37
Welche Probleme die verbraucht weder viel mher Strom als die GT noch hat sie ein lauterer Kühler.Den Videoprozzi braucht man auch nicht wirklich wenn man z.B ein C2D oder X2 im Rechner hat.

- ja der Verbrauch ist höher
- den Videoprozzi finde ich sehr sinnvoll; wieso soll meine CPU für sone Aufgaben missbraucht werden, in der Zeit könnte sie auch sinnvolleres brechnen
- Kühlmöglichkeit: Im Prinzip brauch ich keinen neuen Kühler für die GT =)
- und natürlich der VRam-Bug ;D

Spasstiger
2007-10-23, 19:59:40
Wenn die 8800 GTS 640 MB nochmal um 40€ fällt, wäre das für Übertakter auch eine gute Wahl. Denn mit OC werden sich die Karten nicht soviel nehmen und die 8800 GTS hat immer noch die größere Speicherbandbreite und den größeren Speicher. Der fehlende VP2 ist bei einem schnellen Dual-Core-Prozessor - wie er üblicherweise in einem GeForce-8800-System zum Einsatz kommt - auch kein so gewichtiges Argument.

Gast
2007-10-23, 20:01:32
Wann soll die 8800 GTS 640 jemals so wenig gekostet haben? Dazu hätte ich gerne mal einen Link. Direkt nach Launch waren die Preise noch höher als derzeit.
Naja 289€ http://geizhals.at/deutschland/?phist=259452&age=2000 ;)
Ich meinte auch nicht nach Launch... der ist mit 12 Monaten etwas länger her als meine 5 Monate.

Die gelbe Eule
2007-10-23, 20:01:58
http://geizhals.at/eu/?phist=225880&age=183

Die gab es sogar mal für 268€, Asus war bei 292€.

Razor
2007-10-23, 20:12:03
Mal überlegen...
- buggy-alpha-G80 oder
- niegel-nagel-neuen G92 ohne jeglichen Kompromiss?

Nö, da überlege ich ganz sicher nicht!
Nicht einmal, wenn der G80 die Hälfte kosten würde... :D

Razor

F5.Nuh
2007-10-23, 20:22:08
12. Nov... 2 Wochen nach der GT.

Also knapp in 3-4 Wochen erscheint die neue GTS? habe ich das richtig verstanden. Wird es sie auch "nur" mit 512 MB geben?

Weil würde dann auch warten.

Die gelbe Eule
2007-10-23, 20:23:42
Wird halt eine echte "4200Ti", da hat NV Ihre Hausaufgaben gemacht. Traurig nur für alle GTX/Ultra Käufer, da man nun zwei 8800GT zum gleichen Preis bekommt.

Endorphine
2007-10-23, 20:28:49
Mal überlegen...
- buggy-alpha-G80 oder
- niegel-nagel-neuen G92 ohne jeglichen Kompromiss? Die Schärfe in deiner Formulierung solltest du lieber bleiben lassen.

Inwiefern der G92 bugfrei ist, ist noch überhaupt nicht bekannt. User-Reviews mit Launchtreibern gibt's nämlich noch gar keine, da der Launch noch gar nicht erfolgt ist. Wird halt eine echte "4200Ti", da hat NV Ihre Hausaufgaben gemacht. Traurig nur für alle GTX/Ultra Käufer, da man nun zwei 8800GT zum gleichen Preis bekommt. Ein Jahr nach der Vorstellung der GeForce 8800GTX finde ich das überhaupt nicht traurig, sondern normal.

Gast
2007-10-23, 20:38:34
Ein Paar sachen stoßen mir aber sauer auf

-keine DX10.1 unterstützung
-beherscht kein Sm 4.1
-lausige Kühlung, wird sehr Heiß im 3D
-keine 2D Runtertaktung (Spannung)
:rolleyes:

Meine nächste wird dann wohl die HD 3870XT

Die gelbe Eule
2007-10-23, 20:39:41
Das stimmt schon, nur wer sich eben noch kürzlich für eine entschieden hat, egal ob neu oder gebraucht, der ist halt "am Arsch". Bin gespannt wie sich diese Karten dann noch verkaufen werden, weil der Wertverlust mal eben mehr als 50% beträgt.

F5.Nuh
2007-10-23, 20:41:54
Also nochmal kurz und knapp, verliere extrem die übersicht.

Habe eben geguckt, sie wird wohl erstmal 512 mb speicher haben (kann ja je nach hersteller bis 1 gb haben). Ist es denn sicher, dass sie mit einer 1 slot kühlung kommt? das wäre nämlich nicht so toll. Glaube kaum das dass reichen wird, wenn man übertaktet.

Eben das hier gelesen:


17.10.2007 13:42 Uhr - Mittlerweile scheint relativ klar zu sein, dass die Geforce 8800 GT Ende Oktober auf den Markt kommen wird. Nun ist auch ein Datum für die Geforce 8800 GTS gefallen. Am 19. November soll es mit der offiziellen Vorstellung soweit sein, das berichtet jedenfalls expreview.com.

Die Grafikkarte soll rund 300 US-Dollar kosten und 128 Stream-Prozessoren haben. Über Taktraten ist bisher nichts handfestes bekannt. Spekulationen zufolge soll die 8800 GTS mit G92 schneller sein als die aktuelle 8800 GTX.

Am 19 November wird sie vorgestellt, heisst es man kann sie dann bestellen? habe da nicht so die Ahnung von.

Endorphine
2007-10-23, 20:45:27
-keine DX10.1 unterstützung
-beherscht kein Sm 4.1
Für dich irrelevant. Du bist kein Entwickler.
-lausige Kühlung Das weißt du woher? Der Stock-Kühler hat die Funktion, die Grafikkarte innerhalb der spezifizierten Temperaturgrenzwerte zu halten. Und wenn er seine Arbeit leise verrichtet, dann ist daran nichts auszusetzen. Du weißt aber noch gar nicht, wie hoch der Lüfter drehen wird. Von "lausig" kann keine Rede sein. wird sehr Heiß im 3D Aha, du hast also das Datenblatt des G92 und weißt, wie heiß dieser werden darf? Teile doch mal diese Information mit uns, danke. -keine 2D Runtertaktung (Spannung)
Aha, du hast also eine Zeitmaschine und hast schon eine Final-Karte und die Launchtreiber. Kannst du mir deine Zeitmaschine mal leihen, damit ich eben mal ein paar Techniken aus der Zukunft holen kann und damit Frieden auf die Erde bringen und die globale Erwärmung beenden kann? Aber mal ernsthaft: auch das weißt du nicht.
:rolleyes:
Meine nächste wird dann wohl die HD 3870XT Fein.

Endorphine
2007-10-23, 20:48:54
Das stimmt schon, nur wer sich eben noch kürzlich für eine entschieden hat, egal ob neu oder gebraucht, der ist halt "am Arsch". Bin gespannt wie sich diese Karten dann noch verkaufen werden, weil der Wertverlust mal eben mehr als 50% beträgt. Ich verstehe nicht, wieso man mit einem G80 jetzt auf einmal "am Arsch" sein sollte. Die Karten werden ja nicht schlechter, nur weil der G92 da ist. Und dass der G80 in hohem Maße an Wert verliert, wenn der Nachfolger da ist, ist nun wirklich keine Neuheit.

Wenn meine 6600GT in der Zwischenzeit kaputt gegangen wäre, hätte ich jetzt eine 8600GT oder 8600GTS. Und ich würde auch dann keinen Grund sehen, warum ich "am Arsch" sein sollte damit. Das ist doch normal bei Unterhaltungselektronik.

Hvoralek
2007-10-23, 21:00:17
Ja, ich mein, wenn man die Kohle hat (wie ich jetzt) und noch mit 'ner gammligen 7900GT rumkämpft, dann kann man es halt kaum erwarten, die Power einer GT für Stalker und co zu nutzen.Die Formulierung ist leicht missverständlich :wink:

Gast
2007-10-23, 21:34:40
Naja von der alten 8800GTS werden nur noch Restbestände verkauft, soviel billiger wird die nicht mehr. Die 8800GT ist ja ihr Nachfolger und die "neue" 8800GTS oder wie auch immer sie wirklich heisen wird, ist wohl eher ein 8800GTX Nachfolger. Sprich G80 wird schon nicht mehr produziert...

Also für alle die schon eine 8800er haben, nix neues, leider. Wer will schon seine "alte" 8800GTS gegen eine neue die grademal GTX Niveau erreicht eintauschen. Ne da muss schon was richtig dickes kommen (ohne SLI) damit die Refresh Generation bejubelt wird.

Wer sich vor nem halben Jahr als die 8800GTS640 die 300€ Grenze erreicht hat, jetzt eine 8800GT für 250€ holt, naja der brauch sie nicht wirklich oder :P

Spasstiger
2007-10-23, 22:08:39
Der Lüfter der 8800 GT kann ja mit 1000 bis 3200 U/min drehen. Weiß jemand, wie schnell der Lüfter einer 8800 GTS/GTX dreht?

Superheld
2007-10-23, 22:43:00
hmm glaub ich net;)
die GTX hat doch viel mehr Texture/Füllrate power
http://www.abload.de/img/hl2_01y0i.png (http://www.abload.de/image.php?img=hl2_01y0i.png)

dargo
2007-10-23, 22:48:19
Ich glaub's dir ja. :D Nur der Preis wird eben für all die, die keinen Freundschaftspreis bekommen, anfangs happig sein. Das sagt einem das Gesetz von Angebot und Nachfrage bei nur anfangs 50k Karten für diesen ganzen Planeten.
Ich habe das Gefühl, dass die ersten G8800GT Käufer schön gemolken werden. ;)
Aber so ist das nunmal wenn man ungeduldig ist.

Der Lüfter der 8800 GT kann ja mit 1000 bis 3200 U/min drehen. Weiß jemand, wie schnell der Lüfter einer 8800 GTS/GTX dreht?
Also, bei meiner GTS dreht der Lüfter @Standard mit 60%, was afaik ~1600RPM (kann mich auch irren) entspricht. Erst ab 85°C dreht der Lüfter etwas schneller. Mehr als 75°C hat meine GPU aber eh nie gesehen. :D

laser114
2007-10-23, 23:06:48
http://www.abload.de/img/lolyoi.jpg

Der Screenshot ist aus Version 0.0.9, die laut der Downloadseite offiziell die Geforce 8800 GT unterstützt.

Ob man die Füllraten bei den aktuellen geleakten Ergebnissen glaubt, sei mal dahingestellt. Wobei die HD 2900 XT sich ja auch in den Regionen bei nur leicht höheren Füllraten herumtreiben kann.

Ist aber auch von Expreview, stammt also aus der selben Quelle wie diese Ergebnisse.

LovesuckZ
2007-10-23, 23:17:02
Es macht jedoch keinen Sinn. Wie kommt man auf 16 TA und 16 TFUs und 112 SP? 4 Cluster mit je 28SP? 8 Cluster mit je 14 SP und stark reduzierter Anzahl?

/edit: Aus der Sicht sollte man die Werte der Seite doch sehr kritisch betrachten. Könnten Fake sein...

robbitop
2007-10-23, 23:19:00
All diese Tools messen die Füllrate nicht. Sie lesen was aus. Abwarten bis der erste MT-Füllratentest raus ist.

laser114
2007-10-23, 23:32:53
All diese Tools messen die Füllrate nicht. Sie lesen was aus. Abwarten bis der erste MT-Füllratentest raus ist.

Ja, aber beide Tools die bisher offiziell 8800 GT / G92 unterstützten (GPU-Z, Everest) sprechen von 16 TMUs - direkt oder indirekt. Und das wundert mich schon.
Naja, die Tests werden wohl kommen.

Raff
2007-10-23, 23:46:54
Das stimmt schon, nur wer sich eben noch kürzlich für eine entschieden hat, egal ob neu oder gebraucht, der ist halt "am Arsch". Bin gespannt wie sich diese Karten dann noch verkaufen werden, weil der Wertverlust mal eben mehr als 50% beträgt.

Ich bin nicht sauer, kürzlich eine GTX für 320€ bekommen zu haben. Warum? Weil sie immer noch schneller ist (gerade mit FSAA) und 50% mehr VRAM hat, der garantiert im nächsten Jahr nützlich sein wird. Und mit mehr als 4x FSAA schon jetzt ist. Die GTX schluckt "nur" etwas viel Strom, aber wer kehrt ...

MfG,
Raff

Die gelbe Eule
2007-10-23, 23:50:02
Für den Kurs kann man auch nicht meckern, aber 400€ sind dann doch zuviel.

Spasstiger
2007-10-24, 01:12:50
hmm glaub ich net;)
die GTX hat doch viel mehr Texture/Füllrate power
http://www.abload.de/img/hl2_01y0i.png (http://www.abload.de/image.php?img=hl2_01y0i.png)
Tja, die 8800 GT hat wohl doch 56 TMUs. Zusammen mit der brachialen Shaderpower und dem höheren TMU-Takt als bei der GTX würde das so ein Ergebniss erklären.
Half-Life 2 Episode 2 hat übrigens höhere Anforderungen an die Shaderleistung der Grafikkarte als Episode 1 oder das Grundspiel, weil es jetzt dynamische Softshadows (1 (http://img3.imagebanana.com/img/1f6hvbkc/hl_softshadows1.jpg),2 (http://img3.imagebanana.com/img/weskhfmk/hl_softshadows2.jpg)) und Motionblur gibt. HDR-Rendering ist natürlich auch am Start.

Superheld
2007-10-24, 01:34:59
ist vielleicht doch die Shaderleistung bei Stalker isse wieder fast auf GTS Höhe

..der Link ist tot:(

Ailuros
2007-10-24, 05:59:31
Der Lüfter der 8800 GT kann ja mit 1000 bis 3200 U/min drehen. Weiß jemand, wie schnell der Lüfter einer 8800 GTS/GTX dreht?

8800GTX (default)

50% = ~1140 rpm
100% = ~2830 rpm

default (60%) = ~1468 rpm

Ailuros
2007-10-24, 06:06:56
Tja, die 8800 GT hat wohl doch 56 TMUs. Zusammen mit der brachialen Shaderpower und dem höheren TMU-Takt als bei der GTX würde das so ein Ergebniss erklären.
Half-Life 2 Episode 2 hat übrigens höhere Anforderungen an die Shaderleistung der Grafikkarte als Episode 1 oder das Grundspiel, weil es jetzt dynamische Softshadows (1 (http://img3.imagebanana.com/img/1f6hvbkc/hl_softshadows1.jpg),2 (http://img3.imagebanana.com/img/weskhfmk/hl_softshadows2.jpg)) und Motionblur gibt. HDR-Rendering ist natürlich auch am Start.

Also ich kann so was schwer von dem Graph ablesen; erstens sind es nie und nimmer 56TMUs, wenn dann im besten Fall 28 (Du koenntest unter Umstaenden mit "56" zaehlen aber dafuer muesste der Graph dann auch zumindest Resultate mit AF haben), zweitens meinst Du wohl motion trail und drittens welcher der obrigen Anteile sollen jetzt hypothetisch die Texelfuellrate genau beinflussen?

Das einzige was ich an den Resultaten sehen kann ist dass die 8800GT es schafft sich besser mit der 2900XT zu schlagen als die vorigen 8800GTS, wobei die R600 auch nichts besonderes an Texel- oder Pixel Fuellrate hat.

Razor
2007-10-24, 07:38:30
Die Schärfe in deiner Formulierung solltest du lieber bleiben lassen.

Inwiefern der G92 bugfrei ist, ist noch überhaupt nicht bekannt. User-Reviews mit Launchtreibern gibt's nämlich noch gar keine, da der Launch noch gar nicht erfolgt ist. Ein Jahr nach der Vorstellung der GeForce 8800GTX finde ich das überhaupt nicht traurig, sondern normal.
Ich formuliere es genau so, wie es mir in den Kram passt, danke.

Der G92 ist keine grundlegend neue Architektur, basiert im Prinzip also komplett auf dem Konstrukt des G80...
...nur ohne dessen Problematiken, wie man ja gut am integrierten NVIO und dem 'funktionierenden' VP2 (wie bei den 'Kleinen') erkennen kann.

Aber ja, ich kenne einige Tester, die den G92 in den Fingern halten und noch nichts 'sagen' dürfen... aber das wird kommen, dauert nicht mehr lang. Und dann wirst auch Du erkennen können, dass die G9x-Reihe für einen mächtigen Wurf im Markt ausgelegt ist... mit einem ehrgeizigen Ziel: man will den Rekord-Verkauf der G7x-Reihe überbieten!

Und die Chancen dafür stehen wahrlich nicht schlecht.
So stay tuned!
;)

Ein Paar sachen stoßen mir aber sauer auf

-keine DX10.1 unterstützung
-beherscht kein Sm 4.1
-lausige Kühlung, wird sehr Heiß im 3D
-keine 2D Runtertaktung (Spannung)
- DX10.1 und SM4.1 sind identisch, also 2 gleiche Punkte und vollkommen uninteressantt.
- erste EinSlot-Kühlung im HighEnd/oberenPerfromance-Segment - ist schon OK - und da die 'Nähe' zu den G7x gegeben ist: noIssue
- wenn die Karte in Verbrauchsregionen kommt, die mit meiner jetzigen 7900GT vergleichbar sind, reicht mir das völlig

Gilt natürlich alles nur für mich, aber es gibt hier offenbar Leute, die aus einem Nichts ein sprichwörtliches "Marketingmärchen" schaffen. Insbesonders dieses "kein SM4.1 - bäääähhhhhhhh" Marketing-Nachgelabere, welches ausschließlich von AMD stammen dürfte, ist ein gutes Zeichen für große Desinformation.

Mehr ist dazu wirklich nicht zu sagen...

Razor

AnarchX
2007-10-24, 09:28:14
Scheinen wohl die ersten Lieferungen bei den Händler anzukommen:
http://img143.imageshack.us/img143/1060/2007102414a0033379e86b4ny7.th.jpg (http://img143.imageshack.us/my.php?image=2007102414a0033379e86b4ny7.jpg)

Henroldus
2007-10-24, 09:30:30
Scheinen wohl die ersten Lieferungen bei den Händler anzukommen:
http://img143.imageshack.us/img143/1060/2007102414a0033379e86b4ny7.th.jpg (http://img143.imageshack.us/my.php?image=2007102414a0033379e86b4ny7.jpg)
schön, dass gigabyte die karte schwarz lässt und nicht mit hässlich bunten Aufklebern verunstaltet.

Gast
2007-10-24, 09:42:52
Scheinen wohl die ersten Lieferungen bei den Händler anzukommen:
http://img143.imageshack.us/img143/1060/2007102414a0033379e86b4ny7.th.jpg (http://img143.imageshack.us/my.php?image=2007102414a0033379e86b4ny7.jpg)

Jetzt könnte dann mal endlich jemand die Transistorenanzahl leaken. Das müsste doch eh auch jeder Packung oben stehen. Dann wäre man auch gleich mal deutlich schlauer.

reunion

Winter[Raven]
2007-10-24, 10:18:06
Ein Paar sachen stoßen mir aber sauer auf

-keine DX10.1 unterstützung
-beherscht kein Sm 4.1
-lausige Kühlung, wird sehr Heiß im 3D
-keine 2D Runtertaktung (Spannung)

1. Es wird D3D10 gerademal ansatzweise genutzt, wofür brauchst du die .1 Erweiterung? Was soll damit besser gehen?

2. Sehe 1

3. Hast du die Karte in deinen Händen um dies beurteilen zu können?

4. Wenn ich mir so die Benches angucke ist der Verbrauch schon ok...

robbitop
2007-10-24, 10:21:25
Ja, aber beide Tools die bisher offiziell 8800 GT / G92 unterstützten (GPU-Z, Everest) sprechen von 16 TMUs - direkt oder indirekt. Und das wundert mich schon.
Naja, die Tests werden wohl kommen.
Wer weiß, woher die ihre Daten haben. Die TMU-Anzahl ist jedenfalls noch nicht geleakt (weils wohl wie beim R600 kein Schwein interessiert).
Ich fordere aber mal zum logischen Nachdenken und Hinterfragen auf.
Blind solchen Orakeln (wie z.B. CJ und anderen) zu vertrauen, bringt wenig. Denn auch diese wurden oft durch gestreute Fehlinfos geblendet.

Also ich kann so was schwer von dem Graph ablesen; erstens sind es nie und nimmer 56TMUs, wenn dann im besten Fall 28
Das sehe ich anders. Es würde zu viel Aufwand machen, TMUs abschaltbar (unabhängig der Cluster) zu machen. Zumal das eh nur ein paar Transistoren sind, dessen Redundanz wohl kaum zu den Yields beitragen würde. Durch die TMUs wird ja nicht nur gefiltert sondern auch massiv gefetcht. Beim G80 sind die TMUs direkt den Shader ALUs zugeordnet. Die fetchen also von festen TMUs. Das extra zu entkoppeln würde einen enormen Aufwand für eine recht sinnfreie Aktion machen.

dargo
2007-10-24, 10:31:49
- wenn die Karte in Verbrauchsregionen kommt, die mit meiner jetzigen 7900GT vergleichbar sind, reicht mir das völlig

Davon ist sie relativ weit entfernt, sowohl in 2D als auch in 3D. ;)

prophet
2007-10-24, 10:42:05
Scheinen wohl die ersten Lieferungen bei den Händler anzukommen:
http://img143.imageshack.us/img143/1060/2007102414a0033379e86b4ny7.th.jpg (http://img143.imageshack.us/my.php?image=2007102414a0033379e86b4ny7.jpg)

Und welcher Händler ist das genau? :D

Das chinesische Logo unten lässt natürlich gewisse Vermutungen zu ;)

Gast
2007-10-24, 13:45:46
Davon ist sie relativ weit entfernt, sowohl in 2D als auch in 3D. ;)
Solche niedrigen Verbräuche kann man bei leistungsfähigen Karten wahrscheinlich für immer Ad acta legen. Ist ja schon schließlich im 65 nm Prozess gefertigt. Der dürfte mindestens 1 1/2 Jahre bestand haben, vielleicht bringen sie auch später was in 55nm. Wenn jetzt der GTX Speed verdoppelt werden muss bei den nächsten High End Karten, ist man höchstwahrscheinlich wieder bei 170 W. Bin mal gespannt, wo AMD bei zukünftigen Karten dann landet - vielleicht bei 250 W TDP?

AnarchX
2007-10-24, 15:19:23
Wenn jetzt der GTX Speed verdoppelt werden muss bei den nächsten High End Karten, ist man höchstwahrscheinlich wieder bei 170 W.
Ist eben der Preis den man für die Gier nach Leistung bezahlen muss, aber dank Hybrid-SLI wird es dann wenigstens beim 2D-Verbrauch besser aussehen.


Bin mal gespannt, wo AMD bei zukünftigen Karten dann landet - vielleicht bei 250 W TDP?
210W

Gast
2007-10-24, 15:32:58
Was ist "Hybrid SLI"? Danke.

Die gelbe Eule
2007-10-24, 15:42:10
Hybrid SLi ist die Verbindung von der PCI-E NV Karte mit der onboard VGA eines NV Boards. Es kann a) Strom gespart werden, da im 2D onboard läuft und b) die zusätzliche Performance addiert wird zur PCI-E Karte im 3D.

MartinRiggs
2007-10-24, 15:44:02
Ich bin nicht sauer, kürzlich eine GTX für 320€ bekommen zu haben. Warum? Weil sie immer noch schneller ist (gerade mit FSAA) und 50% mehr VRAM hat, der garantiert im nächsten Jahr nützlich sein wird. Und mit mehr als 4x FSAA schon jetzt ist. Die GTX schluckt "nur" etwas viel Strom, aber wer kehrt ...

MfG,
Raff

Nenn mal deine Quelle:biggrin:
Für 320€ würde bestimmt etliche ne 8800GTX kaufen, mich eingeschlossen.

reunion
2007-10-24, 16:13:15
Ist eben der Preis den man für die Gier nach Leistung bezahlen muss, aber dank Hybrid-SLI wird es dann wenigstens beim 2D-Verbrauch besser aussehen.


Nicht jeder mit einer nV-Karte will sich auch ein passendes IPG-Board mit Nforce-Chipsatz dazu kaufen, nur weil nV dem User sonst keinen 2D-Modus bietet. Denn bedenke: Die IPG und die Grafikkarte müssen dasselbe Techlevel aufweisen, sonst kann man Hybrid-SLi vergessen. Das bedeutet ein Upgrade der Graka erfordert auch ein Upgrade des Mainboards. Von sonstigen möglichen Problemen ganz zu schweigen. Für mich ist das keine Alternative. Aber aus Sicht von nV natürlich durchaus nachvollziehbar, dass man den Kunden möglichst an sich binden will.

Die gelbe Eule
2007-10-24, 16:41:25
Und wenn man monatlich nur 10€ spart, hat sich der Umstieg gelohnt. So schlecht wie man die NV Chipsätze macht, sind sie gar nicht.

|MatMan|
2007-10-24, 16:44:38
Nicht jeder mit einer nV-Karte will sich auch ein passendes IPG-Board mit Nforce-Chipsatz dazu kaufen, nur weil nV dem User sonst keinen 2D-Modus bietet. Denn bedenke: Die IPG und die Grafikkarte müssen dasselbe Techlevel aufweisen, sonst kann man Hybrid-SLi vergessen. Das bedeutet ein Upgrade der Graka erfordert auch ein Upgrade des Mainboards.
Rein von der technischen Seite her bräuchte man den gleichen Techlevel wohl nur, wenn man Hybrid-SLI zur Leistungssteigerung einsetzen will, also die IGP im 3D Modus mitrechnen soll.
Um aber im 2D Modus auf die integrierte Grafik umzuschalten bräuchte man sicher nicht das gleiche Techlevel, das sind höchstens Marketing Gründe.

Coda
2007-10-24, 17:19:23
...nur ohne dessen Problematiken, wie man ja gut am integrierten NVIO und dem 'funktionierenden' VP2 (wie bei den 'Kleinen') erkennen kann.
G80 hat keinen VP2. Das war nirgends angekündigt und auch nicht eingebaut. NVIO war dazu da ein stabiles sauberes VGA-Signal zu haben, was im Umfeld des 700 Mio. Chips nicht gewährleistet gewesen wäre.

laser114
2007-10-24, 17:22:45
Und wenn man monatlich nur 10€ spart, hat sich der Umstieg gelohnt.

Dafür braucht man im Monat bei einem Preis von 0,19€/ kWh einen Mehrverbrauch von mehr als 50 kWh oder 50.000 Wattstunden. Wenn die Graka beispielsweise 80 Watt im 2D-Modus mehr brauchen würde, macht das 625 Stunden - das sind gut 26 Tage im 24-Stunden-Idle-Modus. Ganz schön gut angesetzt deine Einsparung. ;)

deekey777
2007-10-24, 17:22:59
;5961690']1. Es wird D3D10 gerademal ansatzweise genutzt, wofür brauchst du die .1 Erweiterung? Was soll damit besser gehen?

2. Siehe 1

3. Hast du die Karte in deinen Händen um dies beurteilen zu können?

4. Wenn ich mir so die Benches angucke ist der Verbrauch schon ok...
5. Kein fetch4 (siehe 1). Das ist schade.

Coda
2007-10-24, 17:30:01
Abwarten.

laser114
2007-10-24, 17:31:53
http://www.hardwareversand.de/newarticles.jsp

MSI NX8800GT-T2D512E, NVIDIA 8800GT, 512MB, PCI-Express
249,00 €

Der Link auf das genaue Produkt führt zwar ins Leere, scheint also nicht nicht freigeschalten zu sein, beim Einstellen der Karte scheint da aber ein Mitarbeiter vergessen haben das Erscheinen des Produktes auf der Neuheiten-Seite zu deaktivieren.

Tja, so ist das immerhin ein Preisanhaltspunkt in Deutschland zum Launch. Hardwareversand ist ja auch nicht gerade teuer.

Gast
2007-10-24, 17:32:10
;5961690']1. Es wird D3D10 gerademal ansatzweise genutzt, wofür brauchst du die .1 Erweiterung? Was soll damit besser gehen?



http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5961324&postcount=480

Majestic
2007-10-24, 17:59:59
Ich hab mal eine Verständnisfrage.. Sind die nur 512MiB im gegensatz zu den 640MiB der alten GTS jetzt wirklich so ein Nachteil? Ich dachte die 320 bzw 640MiB der GTS waren nur durch das krumme Speicherinterface nötig?:confused:

Razor
2007-10-24, 18:02:43
G80 hat keinen VP2. Das war nirgends angekündigt und auch nicht eingebaut. NVIO war dazu da ein stabiles sauberes VGA-Signal zu haben, was im Umfeld des 700 Mio. Chips nicht gewährleistet gewesen wäre.
Sag' ich doch... alpha.
Zudem im Kombo mit alter Technologie...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5961324&postcount=480
Die SM4.1-'Fetures' gehen leider auch mit extremer Resourcen-Nutzung einher, so dass sie vermutlich lediglich einen TechDemo-Charakter haben werden... bei derzeitiger Hardware.

Klar wird sich AMD damit brüsten, dies zu unterstützen - aber ich bin gespannt, wie es mit der Performance ausschaut, wenn diese tatsächlich zum Einsatz kommen.

Razor

Showtime
2007-10-24, 18:03:26
Ich hab mal eine Verständnisfrage.. Sind die nur 512MiB im gegensatz zu den 640MiB der alten GTS jetzt wirklich so ein Nachteil? Ich dachte die 320 bzw 640MiB der GTS waren nur durch das krumme Speicherinterface nötig?:confused:

Kommt eben darauf an, was du für Ansprüche hast. Ich würde jetzt mit Sicherheit nicht wegen 128MB RAM mehr zur alten GTS greifen.

Razor
2007-10-24, 18:05:39
Ich hab mal eine Verständnisfrage.. Sind die nur 512MiB im gegensatz zu den 640MiB der alten GTS jetzt wirklich so ein Nachteil? Ich dachte die 320 bzw 640MiB der GTS waren nur durch das krumme Speicherinterface nötig?:confused:
In grenzwertigen Situationen (Abwesenheit des VRAM-'Bugs' mal voraus gesetzt ;-) werden die 128MB Speicher wohl schon was bringen... voraus gesetzt natürlich, dass eine Scene mehr als 512MB, aber weniger als 640MB benötigt.

Dürfte äusserst selten sein, diese Konstellation.

Razor

P.S.: das 'krumme' SI scheint mit den G9x Geschichte... ich vermute beim G90 ein 512Bit SI.

andre87
2007-10-24, 18:08:14
weiß man denn jeztt schon ungefähr, wann die Karte erscheinen wird?
Sorry, hab net dne ganzen Thread verfolgt...ist soo lang :redface:

Mein Sys:

X2 s939 @ 2,55Ghz
2x1024MB DDR1 RAM
X1900XTX

würde nen Upgrade auf die 8800GT bei mri was bringen? (Auflösung: 1280x1024 4AA 8-16 AF )
Oder bremst da schon die CPU zu sehr? Bitte kommt nicht mit, verkauf alles und hold die nen C2D System oder ähnlichem, geht mir nur um die Graka Frage ;)

Wenn die 8800GT erst ende November kommt bekomm ich für meine x1900XTX wohl kein Geld mehr...

Razor
2007-10-24, 18:08:47
http://www.hardwareversand.de/newarticles.jsp

MSI NX8800GT-T2D512E, NVIDIA 8800GT, 512MB, PCI-Express
249,00 €

Der Link auf das genaue Produkt führt zwar ins Leere, scheint also nicht nicht freigeschalten zu sein, beim Einstellen der Karte scheint da aber ein Mitarbeiter vergessen haben das Erscheinen des Produktes auf der Neuheiten-Seite zu deaktivieren.

Tja, so ist das immerhin ein Preisanhaltspunkt in Deutschland zum Launch. Hardwareversand ist ja auch nicht gerade teuer.
Cool!
;D

Razor

http://www1.hardwareversand.de/6V2vGiC49K40ym/1/articledetail.jsp?aid=18702&agid=1010

Majestic
2007-10-24, 18:10:55
Kommt eben darauf an, was du für Ansprüche hast. Ich würde jetzt mit Sicherheit nicht wegen 128MB RAM mehr zur alten GTS greifen.

Ich finde es nur komisch das (bis auf zwei Benchmarks) die GT eigendlich immer vor der GTS/640 liegt. Gerade bei hohen Auflösungen mit AA/AF. Und dort wo es Ausreisser gibt ist ja scheinbar nicht mal sicher ob es nicht noch ein Treiberbug ist. Wie läßt sich das vereinbaren...:confused:

/EDIT: Hat sich wohl erledigt... Danke @Razor

Razor
2007-10-24, 18:11:17
weiß man denn jeztt schon ungefähr, wann die Karte erscheinen wird?
Sorry, hab net dne ganzen Thread verfolgt...ist soo lang :redface:

Mein Sys:

X2 s939 @ 2,55Ghz
2x1024MB DDR1 RAM
X1900XTX

würde nen Upgrade auf die 8800GT bei mri was bringen? (Auflösung: 1280x1024 4AA 8-16 AF )
Oder bremst da schon die CPU zu sehr? Bitte kommt nicht mit, verkauf alles und hold die nen C2D System oder ähnlichem, geht mir nur um die Graka Frage ;)

Wenn die 8800GT erst ende November kommt bekomm ich für meine x1900XTX wohl kein Geld mehr...
Montag...

Razor
2007-10-24, 18:11:58
Ich finde es nur komisch das (bis auf zwei Benchmarks) die GT eigendlich immer vor der GTS/640 liegt. Gerade bei hohen Auflösungen mit AA/AF. Und dort wo es Ausreisser gibt ist ja scheinbar nicht mal sicher ob es nicht noch ein Treiberbug ist. Wie läßt sich das vereinbaren...:confused:
Architekturelle Änderung?

Razor

andre87
2007-10-24, 18:14:15
Montag...


war das jetzt en Witz oder ernst gemeint und lohnt das für mich?

Gast
2007-10-24, 18:15:52
Cool!
;D

Razor

http://www1.hardwareversand.de/6V2vGiC49K40ym/1/articledetail.jsp?aid=18702&agid=1010
Ah in den ersten Wochen werden noch höhere Preise verlangt. :eek: :lol:

Wixi
2007-10-24, 18:18:30
seh ich das richtig?die gt ist teurer als die gtx? ^

Razor
2007-10-24, 18:20:17
war das jetzt en Witz oder ernst gemeint und lohnt das für mich?
War kein Witz...
Und im Prinzip müsste Deine CPU schon jetzt das eine oder andere mal limitieren.
Kommt halt immer auf die Grafiksettings an, die man fährt...

'Lohnen' tut sich das IMO ganz sicher!
'Wissen' werden es dann alle am Montag...

Ah in den ersten Wochen werden noch höhere Preise verlangt. :eek: :lol:
*urgs*
;D

seh ich das richtig?die gt ist teurer als die gtx? ^
Vergiss das... ist ganz offensichtlich ein Fehler.

Razor

Hvoralek
2007-10-24, 18:20:25
war das jetzt en Witz oder ernst gemeint und lohnt das für mich?Wirklich am 29., also Montag. Das hätte aber auch ein Blick in den ersten Beitrag hier klären könnnen (Auf den AnarchX jetzt ja sogar schon im Threadtitel hinweist).

Gast
2007-10-24, 18:20:54
seh ich das richtig?die gt ist teurer als die gtx? ^
Das ist auch nur OCZ RAM mit falschem Bild :eek: :)

Coda
2007-10-24, 18:21:29
Sag' ich doch... alpha.
Zudem im Kombo mit alter Technologie...
Das hat nichts mit Alpha zu tun, sondern war einfach eine technische Limitierung. Alpha wäre der Chip wenn sie den RAMDAC drin gelassen hätten und wir ein übel verrauschtes 2D-Signal hätten.

Zu dem ach-so-tollen VP2: War dann NV40 nichtmal lauffähig, weil da ja der Videoprozessor ganz defekt war oder wie? Schwachsinnsargumentation. G80 sollte auf den Markt, der VP2 war nicht fertig, also kam er halt erst mit den Mainstreamparts später. Das hat nichts mit Alpha zu tun sondern war einfach eine Entscheidung seitens nVIDIA die du akzeptieren musst.

andre87
2007-10-24, 18:23:01
Wirklich am 29., also Montag. Das hätte aber auch ein Blick in den ersten Beitrag hier klären könnnen (Auf den AnarchX jetzt ja sogar schon im Threadtitel hinweist).


Ah, jetzt hab ichs auch gefunden ganz klein unten unter den riesen Bildern :redface:

Naja wenn Montag erst der Launch is wird es doch wohl sicherlich noch dauern, bis die Karte verfügbar ist bei den gängigen Händlern...

Kann man in etwa abschätzen wieviel % schnell diese als meine Karte (x1900xtx) sein wird?

Razor
2007-10-24, 18:24:06
Schwachsinnsargumentation.
Das 'Kompliment' gebe ich doch gerne an Dich zurück!
Wie immer...

Razor

Die gelbe Eule
2007-10-24, 18:24:39
Montag kannst sie kaufen, ist ein Hardlaunch. Schau Dir eine GTS 640 an und eine GTX, dazwischen liegt die GT.

Coda
2007-10-24, 18:25:09
Das 'Kompliment' gebe ich doch gerne an Dich zurück!
Wie immer...
Natürlich geht Herr Razor nicht auf den Punkt ein, wenn er nicht weiter weiß, sondern kommt mit rhetorischem Schwachsinn.

Ganz großes Kino. Lass uns doch einfach damit in Frieden. Niemand im Forum außer dir vertritt diesen Standpunkt außer dir. Es nervt. Und es werden auch nicht mehr je öfter du es wiederholst. Weil es einfach eine grobe Verzerrung der Realität ist.

Razor
2007-10-24, 18:25:32
Ah, jetzt hab ichs auch gefunden ganz klein unten unter den riesen Bildern :redface:

Naja wenn Montag erst der Launch is wird es doch wohl sicherlich noch dauern, bis die Karte verfügbar ist bei den gängigen Händlern...

Kann man in etwa abschätzen wieviel % schnell diese als meine Karte (x1900xtx) sein wird?
Schau doch einfach in den anderen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387601

Zumindest siehst Du dort, wie sie sich im Vergleich zur HD2900XT schlägt.

Razor

Razor
2007-10-24, 18:26:16
Ganz großes Kino!
Geht mir mit Dir genauso.
Ergo: Dito!
:D

Razor

andre87
2007-10-24, 18:26:32
Hmm, ist ja dann doch schon ordentlich schnell die Karte...

Wenn ich für meine x1900XTX noch 150 bekommen würde, würd ich auch gar nicht mal soviel mehr draufzahlen...

Ist schon was zu der Lautstärke der Karte bekannt?

Die gelbe Eule
2007-10-24, 18:29:11
34db maximal. Und die 150€ wirst nur noch bei ebay bekommen.

Razor
2007-10-24, 18:29:48
Hmm, ist ja dann doch schon ordentlich schnell die Karte...

Wenn ich für meine x1900XTX noch 150 bekommen würde, würd ich auch gar nicht mal soviel mehr draufzahlen...

Ist schon was zu der Lautstärke der Karte bekannt?
34 Decibel bei voller Lüfterdrehzahl... zumindest wenn man TH in Taiwan Glauben schenken mag.
Soll aber sehr heiß werden... 60° idle und 90° last.

Aber 'nett' finde ich es, dass die Mounting-Holes des Lüfters zu denen der 7900'er kompatibel sind.
Ergo kommt mein guter alter Zalman VF900 drauf... und gut is.

Razor

P.S.: die Eule war schneller... Greets@Eule!

F5.Nuh
2007-10-24, 18:32:41
Montag kannst sie kaufen, ist ein Hardlaunch. Schau Dir eine GTS 640 an und eine GTX, dazwischen liegt die GT.

Wann ist denn der Hardlaunch der neuen GTS? direkt 2 Wochen danach? oder wird sie 2 wochen nach veröffentlichung der GT "vorgestellt" und erst später verkauft? wäre echt happy wenn das jemand beantworten könnte.

Grüße Nuh

Die gelbe Eule
2007-10-24, 18:34:01
Am 19. Nov kommt die GTS. Wenn die Mountingholes stimmen, passt vielleicht sogar der S1 drauf mit Lüftern.

seahawk
2007-10-24, 18:34:29
19ter. Sollte GTS Tag sein. Wobei das noch geringfügig abweichen kann.

Meint ihr eigentlich, die GT braucht Speicherkühler oder geht es auch einfach nackt ?

Razor
2007-10-24, 18:36:40
Meint ihr eigentlich, die GT braucht Speicherkühler oder geht es auch einfach nackt ?
Glaube nicht wirklich, dass sie Speicherkühler 'braucht'.
Aber zur Beruhigung des eigenen Gemüts, werde ich wohl ein paar Dingerchen drauf kleben... liegen hier noch rum.

Razor

Die gelbe Eule
2007-10-24, 18:36:57
Speicherkühler vielleicht weniger, aber für die PWMs, da würde ich mir eher Sorgen machen.

Razor
2007-10-24, 18:37:48
Speicherkühler vielleicht weniger, aber für die PWMs, da würde ich mir eher Sorgen machen.
Kennst Du den Zalman VF900? ...der 'fächert' über die ganze Karte.
'Sorgen' mache ich mir da ganz sicher keine...

Mit 'ner WaKü wäre das sicher anders zu bewerten.

Razor

Gast
2007-10-24, 18:38:15
34db maximal.
Never - auf 100% ist das Ding ein ziemlicher Radaubruder. Gut zu hören beim Systemstart. Mein Tipp geht eher Richtung 45 dB.

Zum Glück dreht er ja später nicht mehr so laut.

seahawk
2007-10-24, 18:38:26
Naja, die kühlt der Stockkühler auch nicht. Ich denke ich hol mir den VF900 von Zalman und kleb die Ramkühler drauf, den Lüfter erst zum Verkauf, vorher kriegt der G92 ne Wasserkühlung. Und nene leisen Lüfter in der Seitenwad des Gehäuses.

Gast
2007-10-24, 18:38:54
Ganz großes Kino. Lass uns doch einfach damit in Frieden. Niemand im Forum außer dir vertritt diesen Standpunkt außer dir. Es nervt. Und es werden auch nicht mehr je öfter du es wiederholst. Weil es einfach eine grobe Verzerrung der Realität ist.
Oh doch.

Du kannst es schönreden wie du willst der fehlende VP des G80 ist EIN Nachteil des G80.
Auch beim NV40 war das ein Nachteil.

Nur das der G80 in vielen Bereichen mies ist!

Gast
2007-10-24, 18:39:05
5. Kein fetch4 (siehe 1). Das ist schade.
Fetch4? Auf einer Geforce? Wozu?

Gast
2007-10-24, 18:39:55
Oh doch.

Du kannst es schönreden wie du willst der fehlende VP des G80 ist EIN Nachteil des G80.
Auch beim NV40 war das ein Nachteil.

Nur das der G80 in vielen Bereichen mies ist!
Dass es ein Nachteil ist, bestreitet ja niemand. Aber ein nicht rundherum perfektes Produkt macht halt noch lange keine Alpha-Krücke.

Gast
2007-10-24, 18:40:38
Sag' ich doch... alpha.
Zudem im Kombo mit alter Technologie...

ROFL - die GF7 hat auch keinen VP2.

Alles alpha. :bonk:

Razor
2007-10-24, 18:42:15
Dass es ein Nachteil ist, bestreitet ja niemand. Aber ein nicht rundherum perfektes Produkt macht halt noch lange keine Alpha-Krücke.
"Krücke" impliziert Langsamkeit... und das trifft hier nicht zu.
Ich vergleiche den G80 eher mit einem gepfuscht gebauten Haus.
Auch permanentes 'Nachflicken' hilft hier nicht.

Hätte man sich hingegen 'etwas' mehr Zeit gelassen...
;)

Razor

Gast
2007-10-24, 18:42:59
ROFL - die GF7 hat auch keinen VP2.

Dafür immerhin einen VP1

Razor
2007-10-24, 18:44:06
ROFL - die GF7 hat auch keinen VP2.
Die GF7 erzeugt aber eine wesentlich geringere CPU-Last beim - z.Bsp. Abspielen von H.264 HighDefVids.
Und die ganzen Bildverbessernden Features der G84/86 fehlen natürlich auch bei der G71!
;D

Dafür immerhin einen VP1
:up:

Aber Schluß damit, wir driften ab.

Razor

Gast
2007-10-24, 18:44:45
Auch permanentes 'Nachflicken' hilft hier nicht.
Nur das nichts "Nachgeflickt" wurde. ;)
Die jetzigen G80 Bugs sind dieselben wie zum Release.

seahawk
2007-10-24, 18:48:07
Naja, für einen ersten Chip einer neuen Generation war G80 doch ok. Im Vergleich zum ersten DX9 Chip von NV oder dem jetzigen Mitbewerber von ATI, war G80 schon kerngesund.

Die gelbe Eule
2007-10-24, 18:50:05
Man wird trotzdem erstmal abwarten müssen. Eine "Foxconn" mit anderem Aufkleber ist uninteressant. eVGA oder GFB, vielleicht auch Sparkle sollten hier mal wieder überzeugen.

Razor
2007-10-24, 18:51:10
Nur das nichts "Nachgeflickt" wurde. ;)
Die jetzigen G80 Bugs sind dieselben wie zum Release.
Na ja... zu JEDEM neuen "DX10"-Game gibts neue Treiber und mit alten kachelt oft der ganze Rechner ab.
Wenn das kein "Nachgeflicke" par excelence ist...

Und zumindest hat man einiges auf Video-Beschleunigungsseite nachgereicht, auch wenn die GPU selber damit nicht viel am Hut hat.
Auch auf der Feature-Seite wird also 'geflickt', nur wird das Produkt dadurch nicht unbedingt besser...

Massiv stören tun mich allerdings noch immer die mangelnden MultiMon-Funktionen.
Das hat nVidia bei den G80 immer noch nicht wirklich gut hinbekommen... bei den G84/86 geht es immerhin ansatzweise.

Razor

Nightspider
2007-10-24, 18:51:36
Der Zalman VF1000 müsste dann ja auch au fie 8800GT passen.

Hat jemand diesen schonmal getestet ? Ich finde keine Tests. Dabei wüsste ich gerne ob dieser den Abstand des VF900s noch ausbauen kann. =)