PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80: Versuch Nr. 3 (erstes Posting beachten!)


Seiten : 1 2 3 4 5 6 7 8 [9]

StefanV
2006-11-07, 14:36:03
Also wenn NV dies höchstpersönlich herausgibt, Karten so noch nicht im freien Handel erhätlich waren zu dem Zeitpunkt, es garantiert schon länger bekannt ist, wer soll dann mehr Wahrheit verbreiten können? INQ vielleicht? Bitte ...

*edit*

Widersprüchliche Aussagen gibt es immer, jeder möchte gerade jetzt der erste sein, um darüber erzählen zu können. Und die ATi Fanbase Seiten sind natürlich mit vorne dabei, um das Geschrei anzufeuern.

@MikBach:

NV hat als einzige Quelle Plan, die müssen nichts behaupten, der Rest kann nur vermuten und nicht mal etwas behaupten.
1. Und DU glaubst denen auch noch?!
2. Und DU weißt, das nV auch _WIRKLICH_ die Wahrheit spricht?!
3. Woher hast DU die Sicherheit, das nV nicht lügt und nur versucht uns alle zu beruhigen und DOCH einige kaputte 8800er den Weg zu Endkunden finden KÖNNTEN?!
Man weiß ja immer nie, wo die Teile her sind!!

StefanV
2006-11-07, 14:36:44
Also das hat mal garnix mit nem defekten Widerstand aufm PCB zu tun...
FALSCH, nicht DEFEKT!!

LovesuckZ
2006-11-07, 14:37:04
Und was wenn er das Packerl annimmt und da 2 kaputte drin sind?!

Er kauft sich die Karten noch vor der Vorstellung und lässt sie nun zwischen Post und ihm Gondeln.
Es gibt bestimmt andere Leute, die selbst eine "kaputte" Karte gekauft hätten.

Gast
2006-11-07, 14:38:58
Apropos, gab's schon 'ne GTS-Rückseite zu sehen? Ich bin gespannt, wie sie den entfallenden Speichercontroller realisiert haben, vorausgesetzt sie richten sich nach den Defekten der Chips.
einfach 2 speicherchips weniger, der geringere speicherbus wird wohl in erster linie dazu sein um PCB-kosten zu sparen und nicht defekte teile zu deaktivieren.
Bei XS gibt's ja mittlerweile ein GTS-Rückseiten-Foto, nämlich hier:

http://www.xtremesystems.org/forums/showpost.php?p=1821301&postcount=7

Und? Fällt Dir was auf? ;)

xL|Sonic
2006-11-07, 14:39:31
Und es ist auch nicht gerade neu, das die, welche hier niemals eine Karte dieser Bauart anfassen oder besitzen werden, am meisten empört sind. Sowas nennt man Trolling und sollte mal verwarnt werden.

Ach Blaire z.B. den du gequotet hast wird niemals so eine Karte besitzen? :lol:

Gast
2006-11-07, 14:42:00
FALSCH, nicht DEFEKT!!

Macht kein Unterschied ob defekt oder falsch, die Funktion der Karte is halt beeinträchtigt. Und rumschrein muste deswegen auch nicht mr.wichtig.

StefanV
2006-11-07, 14:45:43
Macht kein Unterschied ob defekt oder falsch, die Funktion der Karte is halt beeinträchtigt. Und rumschrein muste deswegen auch nicht mr.wichtig.
Doch, machts, defekt = kaputt, falsch = falsch ;)

Oder andersrum:
Ein defekt kann mal passieren, ist idR auch nicht soo häufig, falschbestückung ist da schon tragischer, da das u.U. einige hundert (tausend) Karten betreffen kann...

Moralelastix
2006-11-07, 14:52:14
Bei XS gibt's ja mittlerweile ein GTS-Rückseiten-Foto, nämlich hier:

http://www.xtremesystems.org/forums/showpost.php?p=1821301&postcount=7

Und? Fällt Dir was auf? ;)


Und was sieht man da?

4711
2006-11-07, 14:54:46
Noch nix nein aber bevor ich keine Rückmeldung habe, das es sich um einwandfrei fehlerfreie Exemplare handelt verweiger ich die Annahme. ;)

Erzähl hier keinen!
Bau die Dinger ein und Bilder her!
Ich will die absolute BQ sehen.

incurable_nli
2006-11-07, 14:56:56
Also ich würde mir bei fast 1400 Euro per NN auch erst bestätigen lassen, dass die Karten nicht betroffen sind. Wäre doch blöd, jetzt das fette Prereleasepremium zu zahlen, die getauschten Karten dann aber erst in den Händen zu halten, wenn es sie an jeder Straßenecke für 550 Euro das Stück gibt.

(btw: der 14:38er Gast war ich auch)

Black-Scorpion
2006-11-07, 14:58:04
Und es ist auch nicht gerade neu, das die, welche hier niemals eine Karte dieser Bauart anfassen oder besitzen werden, am meisten empört sind. Sowas nennt man Trolling und sollte mal verwarnt werden.
Es ist auch nicht gerade neu das du immer andere verwarnt sehen willst die nicht deiner Meinung sind.
Und wer hier welche Karte anfassen und besitzen wird hat dich garnicht zu interessieren.

4711
2006-11-07, 14:59:05
was denkste was die Antworten..bzw.können..glaubste die haben die Karten auspackt und ne Runde gespielt?

Moralelastix
2006-11-07, 15:04:25
Manche hier sind echt kindisch man könnte glatt meinen deren Messias würde heute erscheinen. :biggrin:

incurable_nli
2006-11-07, 15:04:26
Und was sieht man da?

An den zwölf vorgesehen Speichplätzen sieht man, dass nVidia die fünf übrigen Speichercontroller nicht durch irgendwelche Substratroutereien auf ein natives 320-bit PCB anpasst, sondern ein 384er ausführt und dass möglicherweise der GPU entsprechend bestückt. Wenn man allerdings sieht, dass die Rückseite voll bestückt zu sein scheint, frage ich mich natürlich, wieviel vorne fehlt.

IMHO 'ne interessante Entscheidung, die höhere feste Kosten auf der PCB-/Produktions-Seite in Kauf nimmt, um möglichst alle G80 mit einem defekten SI als GTS verwenden zu können.

Moralelastix
2006-11-07, 15:11:31
Du meinst also das sich das PCB der GTX und GTS bis auf den Stromanschluß wie ein Ei dem anderen gleichen?

Coda
2006-11-07, 15:18:25
Ich vermute sogar dass alle 16 Speicherchips drauf sind, weil es sich nicht lohnt bei der Produktion die Chips wegzulassen die am defekten Speichercontroller hängen.

DrumDub
2006-11-07, 15:19:37
Du meinst also das sich das PCB der GTX und GTS bis auf den Stromanschluß wie ein Ei dem anderen gleichen? das der gts ist definitiv kürzer. allerdings weiß ich nicht, wie man an der rückseite des pcbs der gts die speicherbestückung erkennt... die chips selber sind ja nur auf der vorderseite...

hab doch noch pics gefunden:

8800gts
http://image2.sina.com.cn/IT/h/2006-10-30/62f8eb8535f5f6640e3b4cecc5c69604.jpg

8800gtx
http://image2.sina.com.cn/IT/h/2006-10-28/5fc0753dcafaa37c017bcbce6857ff80.jpg

haben also beide 16 chips drauf...

Gast
2006-11-07, 15:21:24
Ich vermute sogar dass alle 16 Speicherchips drauf sind, weil es sich nicht lohnt bei der Produktion die Chips wegzulassen die am defekten Speichercontroller hängen.

WOOT, 4 Chips kosten sicher ein paar $ und das GTS PCB schaut von vorne ja leicht anders aus, denke schon das es da 2 "Bestückungsmasken" gibt.

Moralelastix
2006-11-07, 15:24:44
Wenn die vier Chips weggelassen würden hätte der Kühler vielleicht auch irgendwo angepasst werden müssen.

Edit: Ich hatte das auch so in Erinnerung das auf beiden Karten 16 Speicherchips verbaut waren wie an den Bildern zu sehn.

Coda
2006-11-07, 15:25:53
WOOT, 4 Chips kosten sicher ein paar $ und das GTS PCB schaut von vorne ja leicht anders aus, denke schon das es da 2 "Bestückungsmasken" gibt.

http://image2.sina.com.cn/IT/h/2006-10-30/62f8eb8535f5f6640e3b4cecc5c69604.jpg

16 Chips. Q.e.d.

gguru
2006-11-07, 15:28:10
Es sind doch aber 12.

Coda
2006-11-07, 15:29:29
Err ich meine natürlich 12. 10 müsstens für 320 Bit sein.

gguru
2006-11-07, 15:31:44
Err ich meine natürlich 12. 10 müsstens für 320 Bit sein.

Da können einige nicht zählen. ;)

10 müssten es auch für 640MB sein. Oder gibt es Chips mit 53,333... MB?

DrumDub
2006-11-07, 15:32:23
16 Chips. Q.e.d. sind nur 12. ;)

nur ist mir noch immer nicht ganz klar wie das mit den chips bei der gts passt.

384/12=32bit pro chip
320/12=26,67bit pro chip

afaik gibts aber nur 32bit-anbindung bei gddr3. irgendwie hab ich da nen denkfehler...

dargo
2006-11-07, 15:32:56
Err ich meine natürlich 12. 10 müsstens für 320 Bit sein.
Ich wollte schon sagen, du und Moralelastix sprecht beide von 16 Speicherchips. Ich dachte schon, ich hätte was mit den Augen. :tongue:

Moralelastix
2006-11-07, 15:33:36
640 / 12 = 53,33333333333333333333333333333333333333333333333333333333333333333333333333333 33333333333333333333333333 usw. :biggrin:

Jupp, 12!

DrumDub
2006-11-07, 15:35:00
Ich wollte schon sagen, du und Moralelastix sprecht beide von 16 Speicherchips. Ich dachte schon, ich hätte was mit den Augen. :tongue: habs auch falsch gesehen... man ist irgendwie auf 8,16,32,64 etc. fixiert...

StefanV
2006-11-07, 15:35:26
jo. nur ist mir noch immer nicht ganz klar wie das mit den chips bei der gts passt.

384/12=32bit pro chip
320/12=26,67bit pro chip

afaik gibts aber nur 32bit-anbindung bei gddr3. irgendwie hab ich da nen denkfehler...
ganz einfach:
320/12 = 320/10 + 2 über

IceLord
2006-11-07, 15:35:47
Heisst das dass man bei der GTS nicht nur Pipelines freischalten kann sondern auch Speicher:eek: :biggrin:

incurable_nli
2006-11-07, 15:36:34
Danke für die GTS-Front! Da stellt sich wohl nur noch die Frage, wann es zu neuen GTS Freischalteorgien kommt? Jedenfalls solange nVidia die Sache nicht per Sicherung im Die hardlockt.

.
PS: Ich hab ein wenig Mitleid mit den ungenutzen Speicherbausteinen, die müssen sich ja total verarscht vorkommen. ;)

Moralelastix
2006-11-07, 15:37:01
Bestimmt wieder per Laserlock, oder?


Was aber immernoch bleibt ist der zweite SLI Anschluss(und der kleine Extrachip scheint mit auf der GTX größer).

dargo
2006-11-07, 15:38:56
Heisst das dass man bei der GTS nicht nur Pipelines freischalten kann sondern auch Speicher:eek: :biggrin:
Was ist das denn wieder für ein Quatsch?
Wo steht was von, dass man irgendwelche Pipelines freischalten kann?:|

DrumDub
2006-11-07, 15:40:17
ganz einfach:
320/12 = 320/10 + 2 über aber warum geht dann nicht mit 10 vom pcb-design her? schließlich ist das pcb von der gts anders als das der gtx.

Gast
2006-11-07, 15:42:27
Wie wärs mit einfach "kaput" *g

768MB / 12Chips = 64MByte oder 512MBit Chips
lässt man 2 Weg hat man 640MB Speicher.

Moralelastix
2006-11-07, 15:43:00
@DrumDub
Wie ist doch kein Unterschied bis auf den Bereich der Spannungswandler also des zweiten Stromsteckers und dem zweiten SLI Stecker.

up¦²
2006-11-07, 15:43:40
Auf zu 20000!:biggrin:
vonwegen cpu-limited!?
http://www.xtremesystems.org/forums/showpost.php?p=1821828&postcount=99

StefanV
2006-11-07, 15:43:45
aber warum geht dann nicht mit 10 vom pcb-design her? schließlich ist das pcb von der gts anders als das der gtx.
Ginge schon, nur anscheinend ists günstiger erstmal alles draufzupappen anstatt die an der entsprechenden Stelle wegzulassen.


DAs Problem dabei ist, das man das dann nicht mehr wirklich maschinell hätte herstellen können und man eine potentielle Fehlerquelle hätte (wenn man nämlich einen defekten/deaktivierten Platz bestückt und einen heilen/aktiven frei lässt)...
Dazu kommt wohl, das der Speichercontroller irgendwie anders aufgebaut ist...
Heisst das dass man bei der GTS nicht nur Pipelines freischalten kann sondern auch Speicher:eek: :biggrin:
Theoretisch ja, praktisch NEIN, da man beim Design im Silizium DIoden vorsehen kann, die man durchbruzzeln kann, um diverse Dinge zu deaktivieren.

dargo
2006-11-07, 15:45:14
aber warum geht dann nicht mit 10 vom pcb-design her?

Gute Frage.


schließlich ist das pcb von der gts anders als das der gtx.
Wenn ich mir die Bilder so angucke fällt mir nur die größer, ausgefallene Stromversorgung der GTX (und natürlich die zweite SLI Brücke) auf. Ansonsten sind die PCBs sich ziemlich ähnlich.

Moralelastix
2006-11-07, 15:47:20
Es könnte doch auch sein das NV nur zwei gefakte Speicherchips draufpappt damit es keine Probleme mit dem Kühler gibt und sie sich so einen zweiten Referenzkühler für die GTS sparen können.

SentinelBorg
2006-11-07, 15:47:34
Ist doch toll mit der GTS. Falls mal ein Speicherchip den Geist aufgibt, kann man einen der ungenutzten umlöten. Wie Ersatzreifen beim Auto. :P

Sentinel

dargo
2006-11-07, 15:49:06
Es könnte doch auch sein das NV nur zwei gefakte Speicherchips draufpappt damit es keine Probleme mit dem Kühler gibt und sie sich so einen zweiten Referenzkühler für die GTS sparen können.
Das halte ich für sehr unwahrscheinlich. Ob da jetzt zwei Chips fehlen spielt doch keine Rolle. Die Kühlfläche würde einfach an den beiden Stellen freiliegen.

Moralelastix
2006-11-07, 15:52:05
Was kosten NV zwei funktionierende Chips?

StefanV
2006-11-07, 15:52:22
Es könnte doch auch sein das NV nur zwei gefakte Speicherchips draufpappt damit es keine Probleme mit dem Kühler gibt und sie sich so einen zweiten Referenzkühler für die GTS sparen können.
Nein, das sind schon echte!

Das Problem dürft eher sein, das der ein oder andere SPeichercontroller hinüber ist und man vorher nciht weiß, welcher, deswegen braucht man ein 384bit Speicherinterface, deswegen sind auch 12 Chips drauf, nur mit dem Unterschied, das man hier weiß welche Chips man eigentlich nicht bestücken bräuchte, man die aber dennoch drauf pappt, weil sonst einer davor stehen muss und jedesmal eingeben muss, was nicht bestückt werden sollte...

DrumDub
2006-11-07, 15:57:37
Das Problem dürft eher sein, das der ein oder andere SPeichercontroller hinüber ist und man vorher nciht weiß, welcher, deswegen braucht man ein 384bit Speicherinterface, deswegen sind auch 12 Chips drauf, nur mit dem Unterschied, das man hier weiß welche Chips man eigentlich nicht bestücken bräuchte, man die aber dennoch drauf pappt, weil sonst einer davor stehen muss und jedesmal eingeben muss, was nicht bestückt werden sollte... ahhh.... das ergibt als erklärung bisher am meisten sinn. :)

Moralelastix
2006-11-07, 15:57:53
Hm, auch gut möglich.


Also bleibt wieder das Hoffen auf eine Freischaltmöglichkeit per Soft oder Hardmod bestimmt machts der Laserlock wieder unmöglich.

Es wird mal Zeit das einer den Laserunlock erfindet! :)

Anarchy-HWLUXX
2006-11-07, 16:03:09
Nein, das sind schon echte!

Das Problem dürft eher sein, das der ein oder andere SPeichercontroller hinüber ist und man vorher nciht weiß, welcher, deswegen braucht man ein 384bit Speicherinterface, deswegen sind auch 12 Chips drauf, nur mit dem Unterschied, das man hier weiß welche Chips man eigentlich nicht bestücken bräuchte, man die aber dennoch drauf pappt, weil sonst einer davor stehen muss und jedesmal eingeben muss, was nicht bestückt werden sollte...

Das ist doch unsinn ... man produziert kein 700.000.000 transistoren Chip und spielt dann glücksspiel beim Bestücken ! Und im jahr 2006 sollt man scho in der lage sein die GPUs nach der Herstellung zu testen und zu sortieren bevor man se auflötet ...

Ich geh davon aus das es nur 10 Chips sind, 2 stellen sind frei ...

dargo
2006-11-07, 16:03:50
Das Problem dürft eher sein, das der ein oder andere SPeichercontroller hinüber ist und man vorher nciht weiß, welcher, deswegen braucht man ein 384bit Speicherinterface, deswegen sind auch 12 Chips drauf, nur mit dem Unterschied, das man hier weiß welche Chips man eigentlich nicht bestücken bräuchte, man die aber dennoch drauf pappt, weil sonst einer davor stehen muss und jedesmal eingeben muss, was nicht bestückt werden sollte...
Auch das halte ich nicht für realistisch. So wären auch theoretisch 352Bit und 704MB Speicher möglich oder?


Ich geh davon aus das es nur 10 Chips sind, 2 stellen sind frei ...
Du hast aber die Bilder vom DrumDub der GTS gesehen?
Dort sind 12 Chips verbaut.

Moralelastix
2006-11-07, 16:06:57
Vielleicht kommt ja die GT mit 704MB?

Gast
2006-11-07, 16:10:38
Das ist doch unsinn ... man produziert kein 700.000.000 transistoren Chip und spielt dann glücksspiel beim Bestücken ! Und im jahr 2006 sollt man scho in der lage sein die GPUs nach der Herstellung zu testen und zu sortieren bevor man se auflötet ...

Ich geh davon aus das es nur 10 Chips sind, 2 stellen sind frei ...

Ich nicht, weil man nicht weiß welche Stellen man freilassen muss. Ich glaube kaum dass es irgendwo automatische Bestückungsmaschinen gibt die so programmierbar sind dass sie nach Karten-ID (oder was auch immer) wissen was draufzulöten ist.

StefanV
2006-11-07, 16:13:17
Das ist doch unsinn ... man produziert kein 700.000.000 transistoren Chip und spielt dann glücksspiel beim Bestücken ! Und im jahr 2006 sollt man scho in der lage sein die GPUs nach der Herstellung zu testen und zu sortieren bevor man se auflötet ...

Ich geh davon aus das es nur 10 Chips sind, 2 stellen sind frei ...
Eben das tut man ja nicht!

Bis zum Packaging ist ja klar, was alles passiert.

Dann wird der Chip getestet, die kaputten Einheiten deaktiviert oder weggeschmissen/auf Halde (für ev. LE Modelle).

So, jetzt hat man aber das Problem, das 2 Speichercontroller hinüber sind und nicht gut funzen.
Was mach'n ma nu?

2 Optionen:
a) wir hauen einfach mal alle drauf und 'verschwenden' ein paar.
b) wir bestücken nur das, was gebraucht wird.

Bei b) hab ich aber ein paar Probleme:
a) Ist der Bestückungsautomat in der Lage, für JEDEN CHIP, ein anderes Profil zu verwenden?
b) wie bekomme ich die richtigen Profile zum passenden Chip in den Bestückungsautomat??
c) wie groß ist der Aufwand?

Und eben genau _DAS_ ist der Unterschied zu anderen, alten Karten, denn die wurden alle gleich bestückt, hier hat man aber das Problem, das jede Karte individuell bestückt werden muss.

Ich behaupte mal einfach, das der Bestückungsautomat nicht dazu in der Lage ist, man müsste also den Speicher von Hand bestücken...
Nur kann mans dann auch gleich lassen...

DrumDub
2006-11-07, 16:15:22
Das ist doch unsinn ... man produziert kein 700.000.000 transistoren Chip und spielt dann glücksspiel beim Bestücken ! Und im jahr 2006 sollt man scho in der lage sein die GPUs nach der Herstellung zu testen und zu sortieren bevor man se auflötet ... man spielt ja eben gerade kein glückspiel, wenn man 12 chips drauf hat... man muss nur berücksichtigen, dass die g80-chips, die für die gts genutzt werden eben nicht immer im gleichen bereich defekt sind, was sich anscheinend auf das si auswirkt.

dargo
2006-11-07, 16:17:58
Hmm, knapp 17% Verschwendung von Speicherchips je GTS. :uponder:
Ich weiß nicht ...

Gast
2006-11-07, 16:31:15
ahhh.... das ergibt als erklärung bisher am meisten sinn. :)

Von den Lötstellen auf der Rückseite auf die Bestückung mit Speicherchips auf der Vorderseite zu schließen große Probleme bereiten kann. ;)

Im Ernst: Zwei der Lötstellen bei der GTS "dürften" einfach frei sein.


Q

Scose
2006-11-07, 16:32:07
Natürlich kann man Bestückungsautomaten so programmieren das quasi nach Strichcode entschieden wird was auf die Platine kommt.

Das einzige was ich mir nicht sicher bin ist inwieweit GPU's vor der Bestückung ansich getestet werden können:confused:

Evt. auf eine Art gesockeltem Aufbau aber ich schätze damit könnte man maximal die Funktion eines Chips überprüfen aber nicht dessen maximal-Takt. Alleine schon durch die längeren Signalwege dürfte das eine heikle Angelegenheit sein.

Aber die Frage gilt auch für andere Graka's, nehmen wird eine 6800GT und Ultra. Die einzigen Unterschiede sind die 2 Stromanschlüsse, etwas grösser Dimensionierte Spannungswandler und die Taktraten.

Also müssen die zwangsweise vorher wissen ob der Chip vor der Bestückung funktioniert oder nicht.

Oder glaubt ihr die haben die Chips einfach auf gut Glück verbaut und das war der Grund warum praktisch alle GT's auf Ultra-Niveau liefen? Sowas kann ich mir nicht vorstellen.

Sonst würde man bevor man überhaupt testen kann ob die verbaute GPU funktioniert ja jede Karte mit allen Bauteilen erstmal bestücken müssen was ich einfach nicht für realistisch halte.

Aber an "unnütz" verbauten Speicher will ich auch nicht so recht glauben, könnte aber schon sein wenn die Kalkulationstools entsprechendes als die günstigere Variante ausspucken.

Moralelastix
2006-11-07, 16:32:39
@quasar
Hast Du die Bilder nicht gesehen?


@Scose
Die GPUs müssen doch irgendwie getested werden. Was ist wenn mehr als 2 Controler defekt sind oder was anderes? Die schmeißen doch keine fertig produzierten Grafikkarten auf den Müll?

Ronny145
2006-11-07, 16:35:38
Auf zu 20000!:biggrin:
vonwegen cpu-limited!?
http://www.xtremesystems.org/forums/showpost.php?p=1821828&postcount=99


Wäre ja mal was neues, wenn du der Erste wärst.

http://forum-3dcenter.de/vbulletin/showpost.php?p=4958441&postcount=1967

DrumDub
2006-11-07, 16:36:35
Hmm, knapp 17% Verschwendung von Speicherchips je GTS. :uponder:
Ich weiß nicht ... man müsste halt mal wissen wie teuer so nen chip ist. ich denke, mehr als 3 eur pro chip sinds nicht bei den abnahmemengen von nv. im august 2005 haben 256mbit-chips ca. $2,5 gekostet: http://www.xbitlabs.com/articles/memory/print/mem-aug2005.html

Im Ernst: Zwei der Lötstellen bei der GTS "dürften" einfach frei sein. und warum sind sie es nicht auf den bildern, die ich gepostet habe?

Gast
2006-11-07, 16:38:35
@quasar
Hast Du die Bilder nicht gesehen?

Vier Augen sehen mehr als zwei. Was ist noch besser als Bilder?


Q

Gast
2006-11-07, 16:38:56
und warum sind sie es nicht auf den bildern, die ich gepostet habe?
Vorserienmodelle?


Q

StefanV
2006-11-07, 16:39:16
Hast Kühler mal abgenommen? ;) ;)

Moralelastix
2006-11-07, 16:40:19
"Was ist noch besser als Bilder?"

Hm, wie meinste das jetzt? Das die Bilder nur Vorserienmodelle der GTS sind?

Scose
2006-11-07, 16:40:48
@quasar
Hast Du die Bilder nicht gesehen?


@Scose
Die GPUs müssen doch irgendwie getested werden. Was ist wenn mehr als 2 Controler defekt sind oder was anderes? Die schmeißen doch keine fertig produzierten Grafikkarten auf den Müll?

Denke ich nicht aber es wäre durchaus möglich das x-Stückzahlen in nur einer Variante bei x%-Ausschuss günstiger sein könnten als aufwendige mehrfach Varianten. Aber bis jetzt konnte man mir nirgends genau beantworten inwieweit und in welchem "Stadium" Chips getestet werden, scheint ein gut gehütetes Geheimnis zu sein...

Wenn die GPU's irgendwie pretested werden dann sind die verbauten Speicherchips einfach unlogisch. Die einzige Erklärung wäre
dann wirlich Vorserienmodel.

Für Bestückungsautomaten ist es defintiv kein Problem anhand Codes zu entscheiden ob z.B. nur 2 oder 4 Chips bestückt werden müssen.

Gast
2006-11-07, 16:43:33
Hast Kühler mal abgenommen? ;) ;)
Man kann auch so druntergucken. Mehr sag ich aber nicht zum Thema...


Q

Coda
2006-11-07, 16:44:55
Von den Lötstellen auf der Rückseite auf die Bestückung mit Speicherchips auf der Vorderseite zu schließen große Probleme bereiten kann. ;)

Im Ernst: Zwei der Lötstellen bei der GTS "dürften" einfach frei sein.


Q

Ich wette dagegen.

dargo
2006-11-07, 16:46:23
Man kann auch so druntergucken. Mehr sag ich aber nicht zum Thema...

Wie soll ich das jetzt verstehen?
Die "Retail" GTS hat doch nur 10 Chips drauf?

Moralelastix
2006-11-07, 16:49:06
Man kann auch so druntergucken. Mehr sag ich aber nicht zum Thema...


Q

NDA? :biggrin:

Gast
2006-11-07, 16:49:19
Ich wette dagegen.
Du verlierst.
Um was wettest du?


Q

dargo
2006-11-07, 16:51:08
Ok, ich habs kapiert. :D

MikBach
2006-11-07, 16:53:23
Du verlierst.
Um was wettest du?


Q
Damit hast du das NDA gebrochen...:D

Gruß M_B

Moralelastix
2006-11-07, 16:53:27
Wann is es denn soweit mit dem Launch?

Coda
2006-11-07, 16:55:07
Du verlierst.
Um was wettest du?


Q

Weiß nich. Eine Stunde Visual-Basic-Zwangsprogrammieren für den der verliert? :ugly:

Gmax
2006-11-07, 16:58:49
Hier (http://forum.coolaler.com/showthread.php?t=140834) noch ein paar Bilder, Benches und Stromverbrauch der gtx. Bitte nicht schlagen, falls es schon gepostet
wurde :smile:

4711
2006-11-07, 17:15:29
ja sackra ab Seite 12 hat er nen Treiber und coolbits die das Ocen ermöglichen...aber da ich leider keine ??????????????????????? lesen kann ;D

Krustovsky
2006-11-07, 17:19:55
ja sackra ab Seite 12 hat er nen Treiber und coolbits die das Ocen ermöglichen...aber da ich leider keine ??????????????????????? lesen kann ;D

Und das funktioniert nicht mal schlecht:)

Gast
2006-11-07, 18:28:20
Wo bleibt denn Blaire?

Gast
2006-11-07, 18:31:57
kann mal einer hier son Review-Thread aufmachen denk mal so ab 12 uhr dürfte es losgehen oder...

The_Invisible
2006-11-07, 19:05:20
oje, ich seh schon, morgen werde ich nicht viel zum arbeiten kommen. urlaub anyone? :D

mfg

Blaire
2006-11-07, 19:08:20
The first Review: allerdings chinesisch :ugly:

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html

LovesuckZ
2006-11-07, 19:12:06
The first Review: allerdings chinesisch :ugly:

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html

Verdammte Zeitzonen :ugly:

/edit: Die GTS sieht ziemlich langsam aus. Und die GTX auch...

gguru
2006-11-07, 19:15:54
Der Unterschied zwischen der GTS und GTX scheint ja gewaltig zu sein.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl602_thumb.jpg

Raff
2006-11-07, 19:23:10
Ich wage mal zu behaupten, dass 1600x1200 mit 4x AA und 16x AF nicht ausreicht, um die Karten richtig zu trennen. Erst bei 2048x1536 zeigen sich die Unterschiede (siehe auch das Bild direkt über mir).

Zur GTS: Langsam? Immerhin wird die X1950 XTX, die schnellste kaufbare Singlekarte bisher, verbraten.

MfG,
Raff

dildo4u
2006-11-07, 19:24:22
Die Benches sehen gut aus meistens ist die GTS so schnell wie die 1950XTX die GTX ist ca 40-60% schneller.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl605_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html

Mann muss auch beachten das die ATI whol zu 100% ausoptemierte Treiber hat da kann NV sicher noch ordentlich optemieren ist ja eine völlig neue Architektur.

Raff
2006-11-07, 19:27:10
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg

Das hier ist ganz nett.

MfG,
Raff

Gast
2006-11-07, 19:27:17
Verdammte Zeitzonen :ugly:

/edit: Die GTS sieht ziemlich langsam aus. Und die GTX auch...

Hmm hatte mir mehr erwartet. Die Gtx ist ungefähr 50% schneller als eine X1950XTX. Manchmal sogar noch weniger. Aber der Test ist für die Katz, da ich ih nicht lesen kann...^^ ich warte auf ein deutsches oder englsiches Review.

LovesuckZ
2006-11-07, 19:28:50
Die Benches sehen gut aus meistens ist die GTS so schnell wie die 1950XTX die GTX ist ca 40-60% schneller.


Wir haben schon früher auf "Wundertreiber" gewartet.
Sollte die GTS wirklich nur auf XTX Niveau liegen, ist dies eine herbe Enttäuschung!
Danach müsste die Karte wirklich für 400-450€ angeboten werden. Alles andere wäre aus Sicht der Leistung nicht gerechtfertigt.

Krustovsky
2006-11-07, 19:29:06
Hmm hatte mir mehr erwartet. Die Gtx ist ungefähr 50% schneller als eine X1950XTX. Manchmal sogar noch weniger. Aber der Test ist für die Katz, da ich ih nicht lesen kann...^^ ich warte auf ein deutsches oder englsiches Review.

Tja, und manchmal sind es 100% siehe oben:)

Gast
2006-11-07, 19:30:39
Doof ist, dass die Benchmarks immer nur entweder gleich mit AF und AA zusammen oder ganz ohne gemacht werden.
Mich würde mal interessieren wieviel Leistung die jetzt einzeln so kosten im Vergleich zum G71.
Man muss natürlich auch bedenken, dass die G80er hier mit dem bestem AF an den Start gehen. Hier wäre es auch interessant zu wissen, wie dann die X1950XT mit aktiviertem AreaAF im Vergleich zur 8800GTS abschneidet.

dildo4u
2006-11-07, 19:31:41
Wir haben schon früher auf "Wundertreiber" gewartet.
Sollte die GTS wirklich nur auf XTX Niveau liegen, ist dies eine herbe Enttäuschung!
Danach müsste die Karte wirklich für 400-450€ angeboten werden. Alles andere wäre aus Sicht der Leistung nicht gerechtfertigt.Wird sie doch 450$ ist der offizelle Verkaufspreis und ja ich denke schon das hier viel Potenzial freiliegt weil halt wirklich so gut wie alles neu ist.Ist ja kein Sprung wie von der 7800 auf die 7900 serie.

gguru
2006-11-07, 19:32:05
Sollte nicht langsam ein endgültiger Treiber für die GeForce 8 rauskommen?

dildo4u
2006-11-07, 19:36:50
Sollte nicht langsam ein endgültiger Treiber für die GeForce 8 rauskommen?Bei ATI gabs zum Start der 1950XTX auch nur Beta treiber Final wird der GF8 Treiber wenn Vista Final ist und wenn so 3-4Monate vergangen sind bis dahin sind whol noch locker 20% Mherleistung drinn je nach dem wie GPU abhänig ein Game ist.

Gast
2006-11-07, 19:37:28
Sollte nicht langsam ein endgültiger Treiber für die GeForce 8 rauskommen?

Ein ERSTER Treiber würde mir schon reichen. :)

gguru
2006-11-07, 19:37:57
Ein ERSTER Treiber würde mir schon reichen. :)

Ich meinte einen, der nicht im Alpha Stadium ist.

Gast
2006-11-07, 19:44:03
kann mal einer hier son Review-Thread aufmachen denk mal so ab 12 uhr dürfte es losgehen oder...

so hab jezt mal einen auf gemacht so das wir da weiter dikutieren bzw reden können da es ja eigentlich keine spekulation mehr ist...also mods bitte diesen thread schließen.........danke......

Gast
2006-11-07, 19:48:00
Wir haben schon früher auf "Wundertreiber" gewartet.
Sollte die GTS wirklich nur auf XTX Niveau liegen, ist dies eine herbe Enttäuschung!
Danach müsste die Karte wirklich für 400-450€ angeboten werden. Alles andere wäre aus Sicht der Leistung nicht gerechtfertigt.

wird seh doch auch! was kann nvideas dafür wenn einen die händler jetzt erstmal abzocken wollen!

Gast
2006-11-07, 19:48:10
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg

Das hier ist ganz nett.

MfG,
Raff

Die Scores der 7900GTX decken sich aber überhauptnicht nicht mit denen von Computerbase: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_msi_geforce_7900_gto/14/#abschnitt_oblivion

tombman
2006-11-07, 19:48:38
Hmm, gibts irgendwo ne Erklärung wieso die GTS so abstinkt und im Vergleich dazu die GTX so derbe ownt?

LovesuckZ
2006-11-07, 19:50:18
Hmm, gibts irgendwo ne Erklärung wieso die GTS so abstinkt und im Vergleich dazu die GTX so derbe ownt?

Wahrscheinlich irgendwo in den ganzen Fragezeichen...

Gast
2006-11-07, 19:51:13
Dachte auch so an 25% theoretisch maximal.
Zwischen 23% und 30!% find ich happig, vieleicht kommt der Treiber mit dem Segmentierten Speicherinterface auch net so ganz zurecht.

Aber is ganz einfach zu erklären: Es fehlen 75MHz im Core, die ALUs sind 150MHz langsamer und es fehlt 1/3 an Recheneinheiten zur GTX (128 vs 96). Denke ne niedriger getaktete GTX oder höher getaktete GT (GTO anyone) wirds zur Cebit oder dann zum Refresh geben.

Gast
2006-11-07, 19:54:30
Aber muss man mal abwarten, wenn die GTS beim raufschalten in den 16xCSAA Modus kaum Leistung verliert isses geil, aber da brauch man erstmal ein und das selbe Spiel ohne und mit AA.
Generell scheint die G80 Architektur ja extrem zu skalieren wenn nicht der Treiber noch auf der Bremse steht.

Coda
2006-11-07, 19:57:08
Nicht, dass es was neues wäre, aber manche wissens vielleicht noch nicht:

http://www.pconline.com.cn/diy/diy/0611/pic/D00018NN_thumb.JPG

Quasar
2006-11-07, 19:59:25
http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl600_thumb.jpg

Das hier ist ganz nett.

MfG,
Raff
Scheint keine besonders anspruchsvolle Szene zu sein, den generellen Fps der alten Karten nach zu urteilen.

Gast
2006-11-07, 19:59:29
ATI you were not my opponent! CompoTech G80 unified framework for the global launch (http://66.249.93.104/translate_c?hl=de&ie=UTF-8&oe=UTF-8&langpair=zh-CN%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html&prev=/language_tools)

(pconline review halbwegs lesbar)

SentinelBorg
2006-11-07, 19:59:43
Also rein an Rechenleistung hat eine GTX schliesslich auf dem Papier 50% mehr als die GTS. Wenn also die Shader limitieren, dann passt doch alles wunderbar. Nur die Preisgebung nicht mehr, was ich ja bereits vor einigen Seiten geschrieben habe. Für die Preis/Leistung ist die GTX entweder zu billig oder die GTS zu teuer. Momentan bekommt man bei einer GTX mehr Leistung pro Euro als bei der GTS, was verwunderlich ist.

Sentinel

Quasar
2006-11-07, 20:00:40
Hmm, gibts irgendwo ne Erklärung wieso die GTS so abstinkt und im Vergleich dazu die GTX so derbe ownt?

Neben der geringeren Bandbreite hat sie ca. ein Drittel weniger "allgemeine" Leistung.

Krustovsky
2006-11-07, 20:03:04
Wieviele Threads brauchts eigentlich noch, Speku hier, Verfügbarkeit dort und Reviews wo ganz anders. Ich wäre für etwas Ordnung;)

Gast
2006-11-07, 20:04:03
Scheint keine besonders anspruchsvolle Szene zu sein, den generellen Fps der alten Karten nach zu urteilen.
Anspruchslos für die CPU, aber nicht für die Grakas. Sonst kämen keine so großen Unterschiede zu Stande.

dildo4u
2006-11-07, 20:06:07
Scheint keine besonders anspruchsvolle Szene zu sein, den generellen Fps der alten Karten nach zu urteilen.Aber eine sher GPU Limitierte. ;)

Quasar
2006-11-07, 20:07:42
Damit hast du das NDA gebrochen...:D

Gruß M_B
mailto: complaints@nvidia.com
Allerdings habe ich nie Informationen von Nvidia zu diesem Thema (Speicherchips auf der 8800 GTS) erhalten.

Btw und OT: Bitte schreib mir doch mal eine PM, du wolltest mir doch noch erklären, warum Ultrashadow am Beispiel von BFME2 Schuld an pixeligen Schatten ist.

tombman
2006-11-07, 20:08:50
Neben der geringeren Bandbreite hat sie ca. ein Drittel weniger "allgemeine" Leistung.
Danke, da bestätigt sich wieder mal mein Grundsatz: Niemals "verkrüppelte" hardware kaufen...
Gilt für Cpus als auch Gpus...

LovesuckZ
2006-11-07, 20:10:33
Danke, da bestätigt sich wieder mal mein Grundsatz: Niemals "verkrüppelte" hardware kaufen...


Wie schonmal erwähnt: Das ist alles preisabhängig.

cl55amg
2006-11-07, 20:13:01
Ich habe vor ein paar Tagen einen Theoretischen Vergleich der GTX und GTS gemacht.
Mein Ergebnis war das die GTS 31% langsamer ist. Das scheint hinzukommen, abhängig von den Settings und Games...

http://www.awardfabrik.de/forum/showthread.php?t=309

san.salvador
2006-11-07, 20:15:00
Ein paar von uns armen Säcken müssen sich leider mit Krüppelhardware zufrieden geben.


Kannst du solche Kommentare nicht einfach einmal bleiben lassen?

Bitte - danke.




@Topic:
Ich bin verwirrt: Stimmts denn nun, dass die NDA um 00:00 MEZ fällt?

Gast
2006-11-07, 20:15:04
Na mal abwarten, die Chinesen ham ja auch nur mit 1GB Ram getestet und der QuadCore fährt Standarttaktrate. Da geht noch mehr an FPS.

Quasar
2006-11-07, 20:18:19
Anspruchslos für die CPU, aber nicht für die Grakas. Sonst kämen keine so großen Unterschiede zu Stande.
Aber eine sher GPU Limitierte. ;)
Klar, aber was hilft mir das, wenn ich das Spiel spielen will?

Für reines GPU-Limit könnte ich auch den GPU-Bench laufen lassen...

Gast
2006-11-07, 20:18:47
@Topic:
Ich bin verwirrt: Stimmts denn nun, dass die NDA um 00:00 MEZ fällt?

In Peking isses 3:15 grade, allerdings ist der Artikel noch auf heute datiert: 2006-11-07 / 21:29:50.
Weiß der Geier warum der schon online ist. Als nächstes dürfte eine der russischen Seiten dran sein, wenn die nix bis in die nacht hinein bringen läuft das NDA wann anders ab *g

Superheld
2006-11-07, 20:19:00
ist auch sehr interressant:)

http://img388.imageshack.us/img388/1502/xl595thumbkx5.jpg (http://imageshack.us)

http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0611%2 F898744.html&langpair=zh-CN%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

dildo4u
2006-11-07, 20:20:20
Jo schon aber irgendwie auch schon ewig bekannt. ;)

Quasar
2006-11-07, 20:20:38
Ich habe vor ein paar Tagen einen Theoretischen Vergleich der GTX und GTS gemacht.
Mein Ergebnis war das die GTS 31% langsamer ist. Das scheint hinzukommen, abhängig von den Settings und Games...

http://www.awardfabrik.de/forum/showthread.php?t=309

Du hast da aber falsche theoretische Werte... Taktraten usw.

cl55amg
2006-11-07, 20:26:42
Du hast da aber falsche theoretische Werte... Taktraten usw.

Die wären zb. ? Danke für den Hinweis!

tombman
2006-11-07, 20:31:57
Wie schonmal erwähnt: Das ist alles preisabhängig.
Nein, MEIN Grundsatz ist davon nicht abhängig ;)

Gast
2006-11-07, 20:33:26
Ich habe vor ein paar Tagen einen Theoretischen Vergleich der GTX und GTS gemacht.
Mein Ergebnis war das die GTS 31% langsamer ist. Das scheint hinzukommen, abhängig von den Settings und Games...

http://www.awardfabrik.de/forum/showthread.php?t=309

Am Ende bei der Speicherbandbreite der GTS isn Fehler, 900MHz RAM hat die GTX, 320Bit Interface hat die GTS ;)
72GB Bandbreite hat keine von beiden ^^ Wobei man die Berechnungen vieleicht mal erläutern sollte, mit den Zahlen kann kein DAU was anfangen.

Gunslinger
2006-11-07, 20:42:24
Wenns jemand eilig hat: Peluga in Wels, OÖ hat momentan 4 Stück GTS lagernd für 469,99.

/edit: hatte

Undertaker
2006-11-07, 20:43:35
Nein, MEIN Grundsatz ist davon nicht abhängig ;)

wenn die gtx 2000€ kosten würde und nur 5% schneller wäre als die gts wohl doch... es ist bei JEDEM ne frage des preises ;)

whtjimbo
2006-11-07, 20:50:11
Welches Netzteil hat eigentlich 4 PCI-E Stecker, damit man ein 8800GTX SLI betreiben kann?

Superheld
2006-11-07, 20:51:53
wieviel Speicher hat nun die GTS, bei pconline steht 512mb

Hvoralek
2006-11-07, 20:53:41
ist auch sehr interressant:)

http://img388.imageshack.us/img388/1502/xl595thumbkx5.jpg (http://imageshack.us)

http://translate.google.com/translate?u=http%3A%2F%2Fwww.pconline.com.cn%2Fdiy%2Fgraphics%2Freviews%2F0611%2 F898744.html&langpair=zh-CN%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_toolsWas genau ist daran interessant, wenn man hier die letzten Wochen mitgelesen hat?

ShadowXX
2006-11-07, 20:55:17
wieviel Speicher hat nun die GTS, bei pconline steht 512mb
Sie müsste eigentlich 640MB haben, sonst kommt das mit den Chips nicht hin. Ich schätze auf einen vertipper seitens der Seite, da man die alten "glatten" Werte gewöhnt ist.

Nightspider
2006-11-07, 20:57:09
Also wenn die GTX wirklich die geschätzten 30% schneller ist, oder sogar manchmal mehr, dann würde sie sich auch bei 150 Euro Aufpreis zur GTS noch lohnen. Zudem dürfte sie sich etwas länger im Preis halten als die GTS glaube ich. Weil später ein paar oc-versionen der GTS erscheinen, welche die GTS schneller drücken als die GTX (denke ich mal, wie bei den 7800GT Karten damals)

Blacksoul
2006-11-07, 20:57:38
wieviel Speicher hat nun die GTS, bei pconline steht 512mb

Die GTS hat 640 MB. Durch das "krumme" 320 bit SI sind 512 afaik nicht möglich.


t.b.d

Die gelbe Eule
2006-11-07, 20:58:09
Welches Netzteil hat eigentlich 4 PCI-E Stecker, damit man ein 8800GTX SLI betreiben kann?

Gar keins, weil es dazu Adapter bei den Karten auf Molex gibt.

AnarchX
2006-11-07, 20:58:28
Die finale 8800GTS hat wirklich nur 10 Speicherchips(wenn ich jetzt nur wüsste wo das Bild noch war was ich gesehen hatte).

Gast
2006-11-07, 21:05:45
NDA bei den Amis würde ich mal auf die LAN verweisen, zumindest steht sowas im Programm bei deren Webpage: http://www.pdxlan.net/nvidia/page.php?3

Wednesday, November 8th, 2006
9:15 AM - Raffle Next Generation Products
11:00 AM - Presentation by NVIDIA announcing next generations MCP and GPU

Krustovsky
2006-11-07, 21:05:46
Gar keins, weil es dazu Adapter bei den Karten auf Molex gibt.

Falsch;) Die Tagan TurboJet und Enermax Galaxy Serien sind GTX SLI ready:)

whtjimbo
2006-11-07, 21:12:14
Wow 850W von Enermax oder 1100W von Tagan ist mir etwas zu Overkill für 2 Karten, die zusammen 280-300W brauchen.
Der Rest eines DC Rechners braucht max. 100-150W, bin gespannt wann Enermax/BeQuiet/Amacrox ein 500W Netzteil mit 4 PCIe Steckern anbieten werden.

Quasar
2006-11-07, 21:14:40
Die wären zb. ? Danke für den Hinweis!

Vergleich mal hiermit: http://img388.imageshack.us/img388/1502/xl595thumbkx5.jpg (Link aus einem Posting auf der letzten Seite.

Du gehst, IIRC, von gleichem GPU-Takt bei deinem Vergleich aus.
Mein fehler - da unten übertaktest du die GTS ja virtuell.

Trotzdem: Was verstehst du unter "TMU", wovon die GTX deinen Angaben acht stück hat?

Gast
2006-11-07, 21:20:05
Die Benches sehen gut aus meistens ist die GTS so schnell wie die 1950XTX die GTX ist ca 40-60% schneller.

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl607_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl603_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl605_thumb.jpg

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744.html

Mann muss auch beachten das die ATI whol zu 100% ausoptemierte Treiber hat da kann NV sicher noch ordentlich optemieren ist ja eine völlig neue Architektur.

halte von dem test garnichts,diese seite macht schönrederei. sie sucht 2xxx auflösungen raus damit man die karte positiv darstellen kann.

Gast
2006-11-07, 21:25:04
Wofür hat man die Karte auch sonst? um in 1024*768 ohne AA/af zu spielen? :rolleyes

Gast
2006-11-07, 21:25:59
Außerdem wurde viele in 16*12 getestet

dildo4u
2006-11-07, 21:26:22
halte von dem test garnichts,diese seite macht schönrederei. sie sucht 2xxx auflösungen raus damit man die karte positiv darstellen kann.Hä genau die 3 Benches die ich gepostet habe sind in 1600*1200. :|
Und klar müssen auch 2000 Auflösungen gebencht werden weil die Karte halt sonst nich zeigen können was sie wirklich können weil sie teilweise in 1600*1200(HL2,Farcry) von der CPU limitiert werden.

horn 12
2006-11-07, 21:27:56
Erwartet euch nicht zu viel bei der GTS/ GTX (Will aber nicht missverstanden werden) bei Auflösungen bis 1600 x 1200.
Denke dass die Karte erst jenseits der obrigen Auflösungen sich erst "Richtig" durchsetzen kann, und dies auch zwecks des Speichers.:tongue:
Nur, wer spielt in diesen Extremen Auflösungen? Vielleicht 2-4 % der Bevölkerung, wenn überhaupt.:confused:

AnarchX
2006-11-07, 21:28:55
Nur, wer spielt in diesen Extremen Auflösungen? Vielleicht 2-4 % der Bevölkerung, wenn überhaupt.:confused:
Aber genau diese kaufen sich ja gerade eine Graka für 400€+....;)

Anarchy-HWLUXX
2006-11-07, 21:31:01
Die finale 8800GTS hat wirklich nur 10 Speicherchips(wenn ich jetzt nur wüsste wo das Bild noch war was ich gesehen hatte).
Etwa das hier ?

http://img520.imageshack.us/img520/1442/g80in0456zv1.jpg


Und jetzt mal in aller deutlichkeit - die Idee 2 RAM Chips auf eine GraKa zu löten auf der sie nicht gebraucht werden ist mal mehr als nur lächerlich ...

AnarchX
2006-11-07, 21:32:18
Etwa das hier ?

http://img520.imageshack.us/img520/1442/g80in0456zv1.jpg


Und jetzt mal in aller deutlichkeit - die Idee 2 RAM Chips auf eine GraKa zu löten auf der sie nicht gebraucht werden ist mal mehr als nur lächerlich ...

Ich hatte eins gesehen, wo die 2 Speicherchips rechts unten gefehlt haben...:|
Vielleicht wird je nachdem was defekt ist bestückt?

dargo
2006-11-07, 21:34:32
Verdammt, jetzt wo ich die Benches der GTX und GTS gesehen habe, habe ich die Leistung beider Karten falsch eingeschätzt. Bei der GTS noch extremer als mir lieb ist. :(

Und jetzt mal in aller deutlichkeit - die Idee 2 RAM Chips auf eine GraKa zu löten auf der sie nicht gebraucht werden ist mal mehr als nur lächerlich ...
Richtig. :D

whtjimbo
2006-11-07, 21:35:30
Mich beispielsweise interessiert eigentlich nur 1920x1200, alle 24" Widescreens haben eben diese Auflösung und sind schon recht erschwinglich (aber auch nicht wirklich billig). Weiterhin sind wohl nur 2-4% der Computerbesitzer bereit 600 € für eine Graka auszugeben und das sind meistens wohl die Leute, die den entsprechenden Monitor für sowas haben. Ganz ehrlich was sollen wir mit 1024x768 Auflösung anfangen? Interessant sind noch somit die standardmäßige 19" TFT 1280x1024 Auflösung und dann eben die übliche 24" Widescreenauflösung, wobei wieder nur möglichst sinnvolles AA und AF eingestellt sein muss, alles andere ist doch am Sinn solcher Karten vorbei.

Banshee18
2006-11-07, 21:35:35
Erwartet euch nicht zu viel bei der GTS/ GTX (Will aber nicht missverstanden werden) bei Auflösungen bis 1600 x 1200.
Denke dass die Karte erst jenseits der obrigen Auflösungen sich erst "Richtig" durchsetzen kann, und dies auch zwecks des Speichers.:tongue:
Nur, wer spielt in diesen Extremen Auflösungen? Vielleicht 2-4 % der Bevölkerung, wenn überhaupt.:confused:
Es gibt auch einige Spiele, die sogar in 1280x1024 mit 4xAA und 16xAF schon von einer schnelleren Karte profitieren:
Fear (Extraction Point), Titan Quest, Oblivion, Call of Duty 2 im Multiplayer, Call of Juarez....
Wenn man dann noch AAA/TSAA einschaltet, kommen noch einige mehr dazu, z.B. sogar Far Cry.

cl55amg
2006-11-07, 21:40:02
[strike]
Mein fehler - da unten übertaktest du die GTS ja virtuell.


Das ist der Punkt den der "Gast" unten nicht verstanden hat.

Am Ende bei der Speicherbandbreite der GTS isn Fehler, 900MHz RAM hat die GTX, 320Bit Interface hat die GTS ;)
72GB Bandbreite hat keine von beiden ^^ Wobei man die Berechnungen vieleicht mal erläutern sollte, mit den Zahlen kann kein DAU was anfangen.

Demirug hat über meine verwendeten Formeln geschaut und mir bestätigt das sie ok sind, deshalb hat es mich gewundert das Fehler drin sein sollen.
Damit eines klar ist:
Demirug hat mir keine Infos gegeben die unter NDA stehen!

Die Daten zur Architektur habe ich aus der PCGH. (Demirug hat bei dem Artikel beraten)
Falls doch noch fehler drin sind, wäre dankbar wenn mich jemand darauf hinweist.

Anarchy-HWLUXX
2006-11-07, 21:40:56
Ich hatte eins gesehen, wo die 2 Speicherchips rechts unten gefehlt haben...:|
Vielleicht wird je nachdem was defekt ist bestückt?

Je nachdem welcher "Shader Block" Defekt ist wird dann entsprechend ein Paar weggelassen - das kann wirklich nicht das problem sein wenn man Hundete Milliionen für die Entwicklung raushaut ...

dargo
2006-11-07, 21:48:47
Kann mir jemand erklären wieso hier der G80 mit 4xAA/16xAF so extrem einbricht?

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Ich dachte, gerade das wäre seine Stärke. :|
Treiberproblem?

dildo4u
2006-11-07, 21:50:36
Vieleicht ist die 8800GTX ja die einzige Karte bei der HDR mit dem AA läuft SS2 hatte doch echtes HDRR oder?Bei ATI läuft ja HDR plus AA fast immer nur mit Treiberhack.

Blaire
2006-11-07, 21:51:05
Falsch;) Die Tagan TurboJet und Enermax Galaxy Serien sind GTX SLI ready:)

WO hast du das gelesen?

Quasar
2006-11-07, 21:54:09
Weiß nich. Eine Stunde Visual-Basic-Zwangsprogrammieren für den der verliert? :ugly:
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4962433#post4962433

Viel Spaß mit VB. ;)

Krustovsky
2006-11-07, 21:55:19
WO hast du das gelesen?

In den Spezifikationen der Geräte. TurboJet 900/1100 sind QuadSLI Netzteile der erste Stunde, ergo 4xPCIe, ergo "G80GTX SLI ready". Gleiches gilt für die Enermax Galaxy-Serie (muss nur nach unten schauen;)).

Es ging nur um die vier nativ oder modular verfügbaren PCIe-Stecker:)

Godmode
2006-11-07, 21:55:23
Kann mir jemand erklären wieso hier der G80 mit 4xAA/16xAF so extrem einbricht?

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Ich dachte, gerade das wäre seine Stärke. :|
Treiberproblem?

Ist beim G80 nicht 16 AA und bei den anderen nur 4 AA verwendet worden?

dargo
2006-11-07, 21:55:25
Vieleicht ist die 8800GTX ja die einzige Karte bei der HDR mit dem AA läuft SS2 hatte doch echtes HDRR oder?Bei ATI läuft ja HDR plus AA fast immer nur mit Treiberhack.
Hä? Was ist das denn für ne Erklärung. Wichtig ist ob AA im Game vorhanden ist oder nicht, egal wie es realisiert ist. Hat SS2 echtes HDR?

Ich meine ja.

Wenn ich mir die Benches mit HDR+AA des G80 so ansehe befürchte ich Schlimmes. oO

Oder der Treiber hat noch extreme Probleme.

Quasar
2006-11-07, 21:56:04
Kann mir jemand erklären wieso hier der G80 mit 4xAA/16xAF so extrem einbricht?

http://www.pconline.com.cn/diy/graphics/reviews/0611/pic/xl599_thumb.jpg

Ich dachte, gerade das wäre seine Stärke. :|
Treiberproblem?

Genau hinschauen: Der Rote Balken ist 16xAA (bei Ati? Vielleicht 6xAA?)

Naaa, der Typ hat sich wohl doch eher verschrieben. Vielleicht macht Serious Sam 2 irgendwas, was der G80-Architektur nicht schmeckt?

dargo
2006-11-07, 21:57:00
Ist beim G80 nicht 16 AA und bei den anderen nur 4 AA verwendet worden?
Nein, das im Diagramm scheint ein Tippfehler zu sein. Schau dir nochmal die Einzelergebnisse in der Tabelle an:
http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.html

Steve1
2006-11-07, 21:58:21
Die Treiber sind wahrscheinlich auch noch nicht optimiert.

Banshee18
2006-11-07, 21:59:23
Ich denke, das soll 4xAA 16xAF heißen. Vielleicht wird da AAA/TSAA verwendet?!

dargo
2006-11-07, 21:59:56
Die Treiber sind wahrscheinlich auch noch nicht optimiert.
Ich hoffe, alles andere wäre eine Katastrophe. :eek:

dildo4u
2006-11-07, 22:00:40
Nein, das im Diagramm scheint ein Tippfehler zu sein. Schau dir nochmal die Einzelergebnisse in der Tabelle an:
http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_26.htmlNö das stimmt schon von 1600 Auflösung auf die 2000 Auflösung verliert der G80 enorm in 1600*1200 mit 4XAA 8XAF siehts wesentlich besser aus vieleicht frisst die Geforce wieder flott ihren V-Ram auf.



1600x1200 2048x1536
4aa 16af 4aa 16af


8800GTX 67.5 38.1

8800GTS 47.7 24.6

X1950 XTX 48.1 30.9

cl55amg
2006-11-07, 22:02:40
Nö das stimmt schon von 1600 auf 2000 Verliert der G80 enorm in 1600*1200 mit 4XAA siehts wesentlich besser aus vielicht frisst die Geforce wieder flott ihren V-Ram auf.

Man sollte sich an einem Bench nicht aufhängen.
Entweder Treiber BUG oder doch 16AA...

dargo
2006-11-07, 22:03:03
Nö das stimmt schon von 1600 auf 2000 Verliert der G80 enorm in 1600*1200 mit 4XAA siehts wesentlich besser aus vielicht frisst die Geforce wieder flott ihren V-Ram auf.
Mit Tippfehler meinte ich 4xAA/16xAA. :rolleyes:

Edit:
Schau dir den Verlust der X1950XTX zwischen 1600 und 2048 nochmal an. ATI hat "nur" 512MB Vram. :rolleyes:

gguru
2006-11-07, 22:03:29
Der 93er Forceware unterstützt die GeForce 8 offiziell garnicht, der 96er ist Alpha. Also mit welchem wurde gebencht? Wann kommt ein richtiger?

Godmode
2006-11-07, 22:05:36
Ich warte sowiso lieber auf Reviews von CB oder Byond und Konsorten.

misterh
2006-11-07, 22:08:30
Der 93er Forceware unterstützt die GeForce 8 offiziell garnicht, der 96er ist Alpha. Also mit welchem wurde gebencht? Wann kommt ein richtiger?


96.94 steht da

http://www.pconline.com.cn/diy/graphics/reviews/0611/898744_23.html

dildo4u
2006-11-07, 22:17:04
G80 Techdemo Adrianne Curry.


http://666kb.com/i/aj1tt4ai3blsy844p.jpg

Zapat
2006-11-07, 22:18:18
Scheisse die Frau wird sich Saw bestimmt Stundenlang angucken.;D

Moralelastix
2006-11-07, 22:19:30
Zum Reinbeißen!

Bis auf die Spiegelungen in den Augen.

dargo
2006-11-07, 22:23:19
Was ich auch sehr interessant/merkwürdig finde sind die Auflösungen 1024 und 1280 in den beiden Games:

29442
29443

Die GTX ist in 1024 ohne AA/AF langsamer als in 1280 ohne AA/AF. Hat NV hier etwa ähnliche Optimierungen vorgenommen wie ATI für die 1024x768 Auflösung?

The_Invisible
2006-11-07, 22:24:06
Zum Reinbeißen!

Bis auf die Spiegelungen in den Augen.

das ist doch ganz normal, stell dich selber mal vor einer lichtquelle und schau in den spiegel

mfg

Steve1
2006-11-07, 22:24:30
Sieht echt klasse aus. Die Poren der Haut sind gut zu erkennen. Gibt es noch weitere Bilder?

dargo
2006-11-07, 22:26:10
G80 Techdemo Adrianne Curry.


http://666kb.com/i/aj1tt4ai3blsy844p.jpg
Sehr beeindruckend. Nur leider schafft der G80 wohl nur dieses Gesicht flüssig darzustellen. Wann wird das Ingame-Grafik? ;D

The_Invisible
2006-11-07, 22:27:10
Was ich auch sehr interessant/merkwürdig finde sind die Auflösungen 1024 und 1280 in den beiden Games:

29442
29443

Die GTX ist in 1024 ohne AA/AF langsamer als in 1280 ohne AA/AF. Hat NV hier etwa ähnliche Optimierungen vorgenommen wie ATI für die 1024x768 Auflösung?

hier bricht sie mit AA/AF nur marginal ein, wie es sich alle auch vorgestellt haben

mfg

Banshee18
2006-11-07, 22:28:59
In Far Cry ist sie in 1024x768 mit AA/AF sogar schneller als ohne.:|

dildo4u
2006-11-07, 22:29:37
Sehr beeindruckend. Nur leider schafft der G80 wohl nur dieses Gesicht flüssig darzustellen. Wann wird das Ingame-Grafik? ;D
Tja wie sagt man so schön the same procedure as every Next-Gen Techdemo. ;)

dargo
2006-11-07, 22:29:43
hier bricht sie mit AA/AF nur marginal ein, wie es sich alle auch vorgestellt haben

Das meine ich nicht, war schon länger bekannt. Schau dir mal die Ergebnisse ohne AA/AF nochmal an.

LovesuckZ
2006-11-07, 22:30:46
Die GTX ist in 1024 ohne AA/AF langsamer als in 1280 ohne AA/AF. Hat NV hier etwa ähnliche Optimierungen vorgenommen wie ATI für die 1024x768 Auflösung?

Rechne dir mal die Unterschiede aus.
Das sind Ungenaugigkeiten, die nicht auf eine Optimierung schließen lassen.

/edit: 3% und 1,2%. Wenn du daraus eine "Optimierung" schließen willst, dann hätte Nvidia wirklich schlechte Arbeit geleistet...

AnarchX
2006-11-07, 22:31:40
Sehr beeindruckend. Nur leider schafft der G80 wohl nur dieses Gesicht flüssig darzustellen. Wann wird das Ingame-Grafik? ;D

Von Adrianne werden wir sicherlich mehr als nur das Gesicht zu sehen bekommen...;)

Steve1
2006-11-07, 22:31:50
Zumindest ist sie das in der Auflösung 1024 x 768.

dildo4u
2006-11-07, 22:33:56
Von Adrianne werden wir sicherlich mehr als nur das Gesicht zu sehen bekommen...;)Hoffentlich man hat ja nicht umsonst ein Playboy Bunny genommen. :naughty:

Gast
2006-11-07, 22:33:59
@ tombman oder auch Blair....kann es sein das ihr eine graka zu wenig bestellt habt!....

http://www.guru3d.com/newsitem.php?id=4521

AnarchX
2006-11-07, 22:36:17
Also doch Tripple-SLI mit dem nForce680IE.:biggrin:
An sich läuft auch Tripple-SLI schon aktuell mit einer 7950GX2+7900GT512MB...

dargo
2006-11-07, 22:36:33
Rechne dir mal die Unterschiede aus.
Das sind Ungenaugigkeiten, die nicht auf eine Optimierung schließen lassen.

Das wäre auch möglich. Gerade in Farcry sollte die Szene derbe cpu-limitiert sein.


/edit: 3% und 1,2%. Wenn du daraus eine "Optimierung" schließen willst, dann hätte Nvidia wirklich schlechte Arbeit geleistet...
Ich weiß jetzt nicht ob du verstanden hast was ich mit Optimierungen meine. Das Game Prey zb. läuft auf einer X1900XT in 1024x768 schneller als mit 640x480 (beides ohne AA/AF). Vielleicht hat NV sowas ähnliches in Richtung 1280x1024 verschoben.

Gast
2006-11-07, 22:36:50
2x 8800GTX für Sli + eine GTS = 3? :P

Steve1
2006-11-07, 22:37:44
Was würde Tripple-Sli denn für ein Stromverbrauch haben?

dargo
2006-11-07, 22:39:38
Was würde Tripple-Sli denn für ein Stromverbrauch haben?

GTX*3? :rolleyes:

AnarchX
2006-11-07, 22:39:54
Was würde Tripple-Sli denn für ein Stromverbrauch haben?
Bei 3 GTXen nehmen sich diese dann schon 400-450W...;)

Steve1
2006-11-07, 22:41:42
Kann man sich ja gleich ein Atomkraftwerk daneben stellen.

AnarchX
2006-11-07, 22:43:18
Kann man sich ja gleich ein Atomkraftwerk daneben stellen.

Ein ordentliches 600W+ NT sollte doch reichen.;)

LovesuckZ
2006-11-07, 22:44:55
Ich weiß jetzt nicht ob du verstanden hast was ich mit Optimierungen meine. Das Game Prey zb. läuft auf einer X1900XT in 1024x768 schneller als mit 640x480 (beides ohne AA/AF).

Um wieviel Prozent? 3%, 4%? Ich sege gerade, ganze 4,8%.
Darüber zu diskutieren ist doch mehr als lächerlich. Langsam bleibt langsam und schneller wirkt sich nicht mehr aus.

deekey777
2006-11-07, 22:49:27
Weiter geht's im Review-Thread.

DrumDub
2006-11-08, 10:28:58
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4962433#post4962433

Viel Spaß mit VB. ;) das ist gemein. :) aber wenigstens wissen wir jetzt, warum es 12 plätze auf dme pcb der gts gibt...

edit: sorry, hatte übersehen, dass der thread schon dicht ist. :redface: