PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: weitere D3D10-Produkte in Arbeit, Teil 2


Seiten : [1] 2 3 4 5

deekey777
2007-03-05, 12:05:59
In diesem Thread geht's um alle neuen/kommenden Grafikkarten von nVidia (auch G7x@65nm gehört dazu).
Links werden nachgereicht.
-------------------------
http://www.beyond3d.com/forum/showthread.php?t=35502
http://www.dailytech.com/article.aspx?newsid=4891
Und das: More "G80" Derivatives in February (http://dailytech.com/article.aspx?newsid=4867)
Ob unter den kommenden Produkten auch IGP für Intel gemeint sind, ist zZ unklar.
Ergänzend: G80-Mainstream/Lowend auf der CeBIT? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123)
------------------------------------------

GeForce8-IGP für Intels S.775 - Q4/2007
(http://www.hkepc.com/bbs/itnews.php?tid=711343)
8800GTS 320MB für 299$ Mitte Februar (http://www.vr-zone.com/index.php?i=4472)
------------------------------------------
G84 bzw. 8600GT/GTS am 17. April? (http://www.vr-zone.com/?i=4723)

Was bisher halbwegs unspekulativ ist: 128-bit-SI, keine Ultra-Version (vielleicht erst nach dem Start der Konkurrenz?), 80 nm, 160 mm².
G86: 120 mm²
The last model meant for budget segment is actually a G84 core but downgraded to meet the value segment pricing structure. The 8500GT will be clocked at 450MHz core / 800MHz 256MB DDR2 memory and comes in 2 variants; one with HDCP (G86-300) and the other without HDCP (G86-305). 8500GT will be priced between US$79 to US$99. Towards end of April, we can expect NVIDIA to release GeForce 8300GS for the budget market to replace 7300 series
------------------------------------------
8800 Ultra? (http://www.vr-zone.com/?i=4727)
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0194.1 = "NVIDIA GeForce 8800 Ultra"
NVIDIA_G80.DEV_019E.1 = "NVIDIA Quadro FX 4600"
NVIDIA_G84.DEV_0400.1 = "NVIDIA GeForce 8600 GTS"
NVIDIA_G84.DEV_0402.1 = "NVIDIA GeForce 8600 GT"
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"
NVIDIA_G86.DEV_0422.1 = "NVIDIA GeForce 8400 GS"
NVIDIA_G86.DEV_0423.1 = "NVIDIA GeForce 8300 GS"
------------------------------------------
Letztes Posting aus dem ersten Teil. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5300928#post5300928)

Sonyfreak
2007-03-05, 16:55:07
64bit wirds nicht geben, aufgrund vom Programmierer...Was kann der Programmierer dafür, wenn sich auf Vista 64bit nur von MS abgesegnete Treiber installieren lassen?

mfg.

Sonyfreak

Black-Scorpion
2007-03-05, 17:22:02
Was kann der Programmierer dafür, wenn sich auf Vista 64bit nur von MS abgesegnete Treiber installieren lassen?

mfg.

Sonyfreak
Vielleicht weil er keine Lust (Kohle) hat um jedes Jahr bei Verisign 500,- $ für das Zertifikat zu bezahlen um den Treiber zu signieren?

deekey777
2007-03-05, 17:50:00
http://www.nvidia.com/docs/IO/40049/quadro_fx_5600_datasheet.pdf
Form Factor ATX, 4.38”x 12.28”
Frame Buffer Memory 1.5GB GDDR3
Memory Interface 384-bit
Memory Bandwidth 76.8GB/sec.
Max Power Consumption 171W
Graphics Bus PCI Express x16
Display Connectors DVI-I, DVI-I, Stereo
Dual Link DVI Yes (2)
Auxiliary Power Connectors Yes (2)
Number of Slots 2
Thermal Solution Active Fansinkk
Genlock/Framelock Optional
HD SDI Optional
War es nicht so, dass die 7800GTX 512 vorher eine Quadro war?

(+44)
2007-03-05, 17:55:16
Das hab ich auch vermutet, nVidia muss beweisen dass sie den Längsten haben, Ergo verbaut mal mal schnell 1.5GB Ram auf ne total übertaktete 8800 Ultra.

Wer Weiß, vielleicht kommt ja noch n neuer Quadro-Kühler ;D

AnarchX
2007-03-05, 17:57:08
http://www.nvidia.com/docs/IO/40049/quadro_fx_5600_datasheet.pdf

War es nicht so, dass die 7800GTX 512 vorher eine Quadro war?

Man verwendete für die GTX 512MB den Quadro-Lüfter, der übrigens auch auf der Dell 7800GTX verbaut war.
Zudem gab es AFAIK da ja auch eine Quadro mit 550MHz kurz nach der normalen GTX.

Aber in 1.5GB VRAM sehe ich nicht unbedingt viel Sinn, besser wäre GDDR4, der aber wohl doch knapper ist als man denkt.

reunion
2007-03-05, 18:01:46
An ein Modell mit 1.5GB VRAM glaube ich im Desktopbereich nicht, IMHO sind die 768MB der GTX ausreichend. Das würde den Kartenpreis und den Stromverbrauch nur unnötig in die Höhe treiben. Hoffentlich wird die 8800U keine reine "Press-Ed." wie die GTX512.


Aber in 1.5GB VRAM sehe ich nicht unbedingt viel Sinn, besser wäre GDDR4, der aber wohl doch knapper ist als man denkt.

Vermutlich benötigt man einfach ähnlich wie ATi eine neue Revision, um GDDR4 zu unterstützt, denn ATi scheint keine Probleme zu haben, diesen zu bekommen.

Gast
2007-03-05, 18:03:41
http://www.nvidia.com/docs/IO/40049/quadro_fx_5600_datasheet.pdf



HIGH-RESOLUTION ANTIALIASING
> 12-bit subpixel sampling precision
enhances AA quality
> Rotated Grid Full-Scene
Antialiasing (RG FSAA)
> 32x FSAA dramatically reduces
visual aliasing artifacts or “jaggies”
at resolution up to 1920x1200

Entweder Hybrid - Modie oder nVidia hat noch mehr auf dem Kasten.

laser114
2007-03-05, 18:04:00
Naja, die Ultra dürfte wohl wie die 7800 GTX 512 keine Karte sein, die man viel verkaufen möchte, sondern eher eine reine Prestige-Karte, die den R600 stören soll...

Gast
2007-03-05, 18:32:30
Entweder Hybrid - Modie oder nVidia hat noch mehr auf dem Kasten.
32xS gibt es schon länger für G80.

Godmode
2007-03-05, 18:33:36
32xS gibt es schon länger für G80.

Und wie setzt sich 32xS zusammen?

mapel110
2007-03-05, 18:45:22
Und wie setzt sich 32xS zusammen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5277343#post5277343

Gast
2007-03-05, 18:48:33
Vermutlich benötigt man einfach ähnlich wie ATi eine neue Revision, um GDDR4 zu unterstützt, denn ATi scheint keine Probleme zu haben, diesen zu bekommen.

Nope, brauch nur ein neues PCB. Was hat die Unterstützung mit der Fähigkeit GDDR4 zu bekommen zu tun?

Hvoralek
2007-03-05, 18:52:56
An ein Modell mit 1.5GB VRAM glaube ich im Desktopbereich nicht, IMHO sind die 768MB der GTX ausreichend. Das würde den Kartenpreis und den Stromverbrauch nur unnötig in die Höhe treiben. Hoffentlich wird die 8800U keine reine "Press-Ed." wie die GTX512.Für möglich halte ich das dennoch. Immerhin hätte man dann eine noch größere Zahl auf der Packung stehen als ATI :rolleyes:

AnarchX
2007-03-05, 19:11:34
Für möglich halte ich das dennoch. Immerhin hätte man dann eine noch größere Zahl auf der Packung stehen als ATI :rolleyes:

Wenn man nochmal genau darüber nachdenkt, könnte es durchaus so kommen:
-1GB X2950XTX vs 1.5GB 8800Ultra
-Aufwand ist zudem auch gering -> vorhandes PCB, kein teuerer GDDR4 und die nötigen Anpassungen
-das Layout der QFX 5600 sieht danach aus, als es könnte durchaus einem OC-G80 gerecht werden
http://img411.imageshack.us/img411/2654/160msz6.jpg
http://img70.imageshack.us/img70/1721/qfx5600bq2.jpg

Einzige Zweifel hätte ich beim Preis, immerhin ist so ein doppelseitig mit Speichermodulen bestücktes PCB nicht gerade billig, wie man am Preis der QFX 5500 sieht -> 3000€.

James Ryan
2007-03-05, 19:23:26
Die Preise der Quadros sind immer ziemlich gesalzen, man zahlt eben den Support direkt mit.
Glaube mir, eine Quadro Gf 4 MX kostet auch noch knapp 300€. ;D

MfG :cool:

Hvoralek
2007-03-05, 19:24:18
Einzige Zweifel hätte ich beim Preis, immerhin ist so ein doppelseitig mit Speichermodulen bestücktes PCB nicht gerade billig, wie man am Preis der QFX 5500 sieht -> 3000€.Wenn das Teil deutlich höher taktet als die GTX, wird man es wohl nur in homöopathischen Dosen liefern können. Das Problem hat man ja schon bei der 7800 GTX 512 mit Mondpreisen bekämpft.

Was hat denn damals die entsprechende Quadro gekostet?

James Ryan
2007-03-05, 19:46:11
Wenn das Teil deutlich höher taktet als die GTX, wird man es wohl nur in homöopathischen Dosen liefern können. Das Problem hat man ja schon bei der 7800 GTX 512 mit Mondpreisen bekämpft.

Was anderes hat NVIDIA mit der Gf 8800 Ultra auch garnicht vor. Es wird wieder 1:1 wie beim R520 Launch.
Wäre nur etwas extrem wenn die Gf 8800 Ultra auch ein 12" PCB haben wird!

MfG :cool:

Sonyfreak
2007-03-05, 20:20:22
Vielleicht weil er keine Lust (Kohle) hat um jedes Jahr bei Verisign 500,- $ für das Zertifikat zu bezahlen um den Treiber zu signieren?Es ist mir schon bewusst, wodurch Freeware/Opensource Produkte ausgesperrt werden. Nur was kann der Programmierer dafür, dass MS sowas vollkommen sinnentleertes macht.

mfg.

Sonyfreak

reunion
2007-03-05, 20:30:15
Nope, brauch nur ein neues PCB.


ATi benötigte damals bei R580 auch eine neue Revision, da die alte mit den hohen Taktraten von GDDR4 nicht zurecht kam. Durchaus möglich, dass NV ähnliche Probleme lösen muss. Immerhin gibt es nach wie vor keine einzige nV-Karte mit GDDR4.


Was hat die Unterstützung mit der Fähigkeit GDDR4 zu bekommen zu tun?

Wenn man GDDR4 nicht unterstützt, dann verbaut man ihn natürlich auch nicht. :rolleyes:

The_Invisible
2007-03-05, 20:35:17
was für einen sinn haben bitte 1,5gib speicher?

ich mein, die 512mib auf der 7800er gtx hatten ja ein klein wenig sinn weil es dort mit hohen auflösungen schon einen nutzen gab, aber 1,5gib?

zudem müsste man dann ja beim richtigen nachfolger bei wahrscheinlich 512bit interface wenigstens 2gib verbauen, das erscheint mir doch ein bisschen zu hoch.

mfg

reunion
2007-03-05, 20:37:50
Für möglich halte ich das dennoch. Immerhin hätte man dann eine noch größere Zahl auf der Packung stehen als ATI :rolleyes:

Trotzdem, Speicher ist teuer, und 1.5GB Speicher wäre verdammt teuer. Zudem ist der Nutzen dahinter stark anzuzweifeln. ATi hat ja keine andere Wahl, da 512MB zu wenig wäre. Aber vielleicht bringt man tatsächlich wieder eine Quadro zu Mondpreisen als reine Benchmarkkarte für den Heimanwender.


-das Layout der QFX 5600 sieht danach aus, als es könnte durchaus einem OC-G80 gerecht werden


Waran willst du das erkennen? Der Kühler ist - soweit ich das beurteilen kann - identisch, und die Platine sieht auch nicht so aus, als würde diese für mehr Strom ausgelegt zu sein.

Was anderes hat NVIDIA mit der Gf 8800 Ultra auch garnicht vor. Es wird wieder 1:1 wie beim R520 Launch.
Wäre nur etwas extrem wenn die Gf 8800 Ultra auch ein 12" PCB haben wird!

MfG :cool:

Warum auch?
X1900XTX 9.4"
8800GTX 10.5"
Die OEM-Karten sind doch vollkommen uninteressant. Keine Ahnung, warum damit beim R600 auf einmal soviel Wirbel gemacht wird.


zudem müsste man dann ja beim richtigen nachfolger bei wahrscheinlich 512bit interface wenigstens 2gib verbauen, das erscheint mir doch ein bisschen zu hoch.

mfg

Jap, das erscheint mir auch als wichtiges Argument. IMO ist es schlauer, jetzt bei 768MB VRAM zu bleiben, und mit dem 512-bit Bus auf 1GB aufzustocken, als dann später erklären zu müssen, warum das eine GB auf der neuen Karte ausreichend ist und bei der alten rein aus Prestigegründen verbaut wurde.

Gast
2007-03-05, 20:47:51
Wenn man GDDR4 nicht unterstützt, dann verbaut man ihn natürlich auch nicht. :rolleyes:
Der G80 unterstützt auch GDDR4.

reunion
2007-03-05, 20:55:21
Der G80 unterstützt auch GDDR4.

Hast du auch irgendetwas mit Substanz vorzuweisen, oder ist das nur die übliche, haltlose Behauptung eines Gastes, der mangels Identität alles behaupten kann? Aber wir werden es ja spätestens mit der 8800U sehen.

AnarchX
2007-03-05, 21:07:28
Waran willst du das erkennen? Der Kühler ist - soweit ich das beurteilen kann - identisch, und die Platine sieht auch nicht so aus, als würde diese für mehr Strom ausgelegt zu sein.


1. Da solltest du nochmal genauer hinschauen. ;)
2. War es bei den Quadros eigentlich bisher immer so, dass die Stromversorgung von höherer Qualität war als bei den Consumer-Modellen.

Aber dran glauben tue ich auch nicht, da das doppelseitig bestückte PCB wohl nicht unter 1000€ verkaufbar ist.

Aktuell würde ich sagen, dass die 8800Ultra einen G80 mit 650MHz+ besitzen wird dazu vielleicht im besten Falle noch schneller GDDR4.

Wohl möglich setzt man auch noch auf eine andere Kühlung, wie z.B. einem Wasser/Luft-Hybrid-Kühler, bei der X2900XTX gab es ja ähnliche Gerüchte. ;)

Gast
2007-03-05, 21:09:00
Hast du auch irgendetwas mit Substanz vorzuweisen, oder ist das nur die übliche, haltlose Behauptung eines Gastes, der mangels Identität alles behaupten kann? Aber wir werden es ja spätestens mit der 8800U sehen.
Ist dein von mir zitiertes Posting in irgendeiner Weise besser als jenes, welches du so schön mit deiner Gast-Phobie "zerreisst"?

fyi: Ich habe einen Account hier und meine "Identität" ist mit diesem vermutlich um ein Vielfaches greifbarer als deine, Herr "reunion" - bezeichnenderweise mit dem Avatar des bekannt gesichtslosen "Agent Smith" (a Smith...) aus Matrix...

dargo
2007-03-05, 21:11:15
Trotzdem, Speicher ist teuer, und 1.5GB Speicher wäre verdammt teuer.
Es gab hier im Forum mal Andeutungen, die 640MB GDDR3@800Mhz der GTS würden 50$ kosten. Unter teuer verstehe ich was anderes.

reunion
2007-03-05, 21:26:05
Ist dein von mir zitiertes Posting in irgendeiner Weise besser als jenes, welches du so schön mit deiner Gast-Phobie "zerreisst"?

fyi: Ich habe einen Account hier und meine "Identität" ist mit diesem vermutlich um ein Vielfaches greifbarer als deine, Herr "reunion" - bezeichnenderweise mit dem Avatar des bekannt gesichtslosen "Agent Smith" (a Smith...) aus Matrix...

Du stellst etwas als Fakt hin, ohne auch nur irgendetwas belegen zu können, oder zumindest ansatzweise plausibel zu begründen. So kann man IMHO nicht diskutieren. Ich sagte ja, dass es möglich ist, dass nV ähnliche Probleme wie ATi mit R580 hat. Und eine Gast-Phobie habe ich mit Sicherheit nicht, nur ist es leicht, etwas zu behaupten, wenn man keinen Wiedererkennungsmerkmale zulässt. Warum loggst du dich nicht ein, wenn du einen Account hast?

Gast
2007-03-05, 21:33:05
Reunion,

Weil ich mein Passwort nicht zur Hand habe.

Nvidia hat dies bereits bestätigt, dass der G80 GDDR3 und GDDR4 unterstützt.

Gast2
2007-03-06, 01:00:10
Ich bin mir auch sehr sicher, das irgendwo von offizieller Quelle gelesen zu haben.

GDDR3 und GDDR4 zu supporten ist kein Ding. Die Macher wären reichlich blöd gewesen, hätten sie es nicht getan. Denn wozu sollten sie sich den Aufwand machen, alles nochmal überarbeiten zu müssen, nur weil schnellerer Speicher zum Einsatz kommt?

Allein schon in hinblick auf die Konkurrenz ist das nötig. Man könnte nicht einfach zusehen, wie die Konkurrenz einen Taktrekord nach den anderen aufstellt und man selbst bei 1 GHz Speichertakt hängen bleibt.

StefanV
2007-03-06, 05:20:06
Es ist mir schon bewusst, wodurch Freeware/Opensource Produkte ausgesperrt werden. Nur was kann der Programmierer dafür, dass MS sowas vollkommen sinnentleertes macht.

mfg.

Sonyfreak
http://almico.com/speedfan.php

Fetza
2007-03-06, 05:44:35
Reunion,

Weil ich mein Passwort nicht zur Hand habe.



Naja, wer hat denn seine passwörter nicht im kopf? Und auch wenn es die wahrheit ist, wäre es ja kein problem, sich dementsprechend kenntlich zu machen. Es ist nunmal so, das ungefähr 60 bis 70% der gastbeiträge meist trollintentionen aufweisen.

Zur sache: Selbst der r580 bot doch gddr4 support, da scheint es doch nur natürlich, das nv im g80 gddr4 support bieten muss.

greetz

Fetza

Ailuros
2007-03-06, 05:54:13
Jap, das erscheint mir auch als wichtiges Argument. IMO ist es schlauer, jetzt bei 768MB VRAM zu bleiben, und mit dem 512-bit Bus auf 1GB aufzustocken, als dann später erklären zu müssen, warum das eine GB auf der neuen Karte ausreichend ist und bei der alten rein aus Prestigegründen verbaut wurde.

Die Logik hinter dem obrigen will ich zwar nicht bezweifeln aber GTX512 hatte auch mehr Bandbreite als G71.

Ganz nebenbei die GX2 hat auch 1GB Speicher vs. "nur" 768MB auf G80.

Nochmal Du hast zwar im Grunde recht was die Sinnlosigkeit betrifft, aber "erklaeren" braucht man dem Verbraucher fuer solche Faelle gar nichts. Und ich sag es nur weil es mich nicht wundern wuerde wenn man eine ueberseltene Protz-8800U vorstellt und dann mit Grund X oder Y argumentiert warum sie angeblich so selten ist.

Es koennte sehr wohl entweder eine hohe Speichermenge oder hoch getaktetes GDDR4 oder sogar beides sein, je nachdem wie ueberteuert ein solch hypothetisches Resultat sein koennte.

AnarchX
2007-03-06, 08:40:44
Die Quadro FX 5600 scheint ja sogar auf 600MHz zu takten:
Texels per Second/Fill Rate 19.2 Billion
http://www.nvidia.com/object/IO_11761.html

Wie hoch ist den der Shadertakt?
Geometry (Triangles per Second ) 300 Million
...bzw. wieviel schafft hier eine 8800GTX?

Paul Brain
2007-03-06, 09:40:50
Aber dran glauben tue ich auch nicht, da das doppelseitig bestückte PCB wohl nicht unter 1000€ verkaufbar ist.Was soll an doppelseitig bestückten PCBs so teuer sein? SMD-Bauteile hat man ja eh schon auf beiden Seiten, und vor allem ältere Karten, bei denen die Speicherkühlung durch das PCB noch ausreichte haben doppelseitig bestückten RAM. X800XT z.B., und die kostete auch nicht über 1kEUR... ;-)

AnarchX
2007-03-06, 09:43:59
Was soll an doppelseitig bestückten PCBs so teuer sein? SMD-Bauteile hat man ja eh schon auf beiden Seiten, und vor allem ältere Karten, bei denen die Speicherkühlung durch das PCB noch ausreichte haben doppelseitig bestückten RAM. X800XT z.B., und die kostete auch nicht über 1kEUR... ;-)

Hmm... mal sehen.
Mich irretieren nur die Preise von 1500€- 3000€ für solche Karten, aber im Endeffekt wird da wohl nur ein ordentlicher Exklusivitäts-Zuschlag dabei sein.

Paul Brain
2007-03-06, 09:52:32
Hmm... mal sehen.
Mich irretieren nur die Preise von 1500€- 3000€ für solche Karten, aber im Endeffekt wird da wohl nur ein ordentlicher Exklusivitäts-Zuschlag dabei sein.Allerdings. Quadro ist immer teuer.
AFAIR hatten sogar die 6600er doppelseitig bestückten Speicher (kann mich jetzt aber auch irren); jedenfalls wars einige Zeit seeehr modern diese "Krallen" auf den Grafikkarten zu montieren, sprich Mini-Kühler für jeden einzelnen Speicher-IC auf der Rückseite, der eben nicht direkt gekühlt wurde... Von der PCB-Fertigung her sehe ich da also keine Kostenprobleme.

Ich muß übrigens zugeben, daß ich nach meinen desaströsen Consumer-Highend-Erfahrungen schon öfter überlegt habe, mir eine Quadro zu holen. Angesichts des äußerst schnellebigen Grafikkartenmarkts war mir das dann aber doch zu teuer. Immerhin hab ich eine stabile Plattform und weiß daher, daß an Problemen fast nur die Grafik schuld sein kann... :tongue:

Paul Brain
2007-03-06, 11:53:32
Einen G80 mit 1,5GByte gibts ab sofort offiziell, und er kostet bloß einen Tausender mehr als der mit 768MB...^^
http://www.dailytech.com/article.aspx?newsid=6336

Die Preisgestaltung im Business-Markt folgt halt ganz anderen Gesetzmäßigkeiten als im Consumermarkt. Davon jetzt abzuleiten daß 768MB Speicher 1kEUR kosten, wird wohl niemand ernsthaft machen... ;)

Ich kann mir jedenfalls eine 8800Ultra mit 1,5GByte vorstellen; wenn die so wie die 7800-512 damals um die EUR 800,- kostet, kaufts eh fast niemand. Außer Tombman und Blaire vielleicht, falls sie jeweils zwei ergattern können... :D

deekey777
2007-03-06, 11:56:20
Einen G80 mit 1,5GByte gibts schon, und er kostet bloß einen Tausender mehr als der mit 768MB...^^

http://www.dailytech.com/article.aspx?newsid=6336
Nur hast du als Käufer einer Quadro auch Support von nVidia.

Black-Scorpion
2007-03-06, 12:13:27
Ganz nebenbei die GX2 hat auch 1GB Speicher vs. "nur" 768MB auf G80.
Milchmädchenrechnung

Die GX2 hatte 2x 512MB die an je einer GPU angebunden sind.
Meinst du nicht das es einen großen Unterschied macht die Leitungen dafür an 1 oder 2 GPUs anzubinden?

Paul Brain
2007-03-06, 12:18:08
Nur hast du als Käufer einer Quadro auch Support von nVidia.
Ich zitiere mich mal selbst: "Ich muß übrigens zugeben, daß ich nach meinen desaströsen Consumer-Highend-Erfahrungen schon öfter überlegt habe, mir eine Quadro zu holen."

Ist mir also durchaus bewußt, das Price premium war mir dann aber doch zu steil, als Heimanwender; auch wenn man von einer höheren HW-Qualität ausgehen kann (hochwertigere Spannungswandler etc.).

Gast
2007-03-06, 12:38:39
Naja, wer hat denn seine passwörter nicht im kopf? Und auch wenn es die wahrheit ist, wäre es ja kein problem, sich dementsprechend kenntlich zu machen. Es ist nunmal so, das ungefähr 60 bis 70% der gastbeiträge meist trollintentionen aufweisen.

Halbwegs sichere Passwörter habe ich nicht im Kopf und dazu zähle ich pseudo-zufällige alphanumerische Kombinationen inkl. Sonderzeichen mit mehr als 20 Zeichen Länge. Ein "Mami" oder "rulz" könnte ich mir vermutlich auch merken - ebenso mein Geburtsdatum oder den Namen unseres Hundes. :)

Hast du die ganzen Gastbeiträge abgezählt? Ansonsten behaupte ich mal, dass ebenfalls "sehr viele" Beiträge von eingeloggten Teilnehmern ebenfalls trollhaft wirken. Bei einigen fällt es mehr auf, andere verstecken es besser.

Paul Brain
2007-03-06, 12:49:06
Halbwegs sichere Passwörter habe ich nicht im Kopf und dazu zähle ich pseudo-zufällige alphanumerische Kombinationen inkl. Sonderzeichen mit mehr als 20 Zeichen Länge.Und so ein Paßwort ist fürs 3DC natürlich unbedingt notwendig... :|

Hast du die ganzen Gastbeiträge abgezählt? Ansonsten behaupte ich mal, dass ebenfalls "sehr viele" Beiträge von eingeloggten Teilnehmern ebenfalls trollhaft wirken. Bei einigen fällt es mehr auf, andere verstecken es besser.Jo, aber diesen Beiträgen kann man wenigstens einen Namen zuordnen, lieber Gast.
Also: logg Dich ein oder leb mit den (berechtigten) Vorurteilen.

AnarchX
2007-03-06, 15:20:27
G84/G86 im April - Kein HDMI Support
http://www.hkepc.com/bbs/itnews.php?tid=752184

8600GTS: 675/1000MHz
8600GT: <420/700MHz

Die Specs der 8600GT würden so besser passen um eine 7600GT gerade so zu schlagen.

Gast
2007-03-06, 15:25:42
Und so ein Paßwort ist fürs 3DC natürlich unbedingt notwendig... :|
Du kannst es halten wie du willst - gestehe mir bitte dasselbe Recht zu.
Davon abgesehen bin ich auch keinem Rechenschaft schuldig, wann und wo ich mich einlogge. :)

Jo, aber diesen Beiträgen kann man wenigstens einen Namen zuordnen, lieber Gast.
Also: logg Dich ein oder leb mit den (berechtigten) Vorurteilen.
Und was hat man davon? Nur damit man leichter an seine gewohnten Schubladen kommt? Nein - Vorurteile sind niemals berechtigt; und vorschreiben wann und wo ich mich einlogge, lasse ich mir auch nicht.

Fällt es euch "Profilierten" wirklich so schwer, Gäste zu ignorieren, wenn ihr euch damit nicht abfinden könnt, Postings in Schubladen einzusortieren?

LovesuckZ
2007-03-06, 15:25:54
Die Specs würden so besser passen um eine 7600GT gerade so zu schlagen.

Wenn die 8600 Karten über 4 Cluster und 2 ROP - Partionen verfügen, dann wird die 7600GT nicht "gerade so" geschlagen.
Die GT hat 16 statt 12 TMUs und 64 Skalare - Einheiten, dazu die Trennung der TMUs von den Recheneinheiten, die deutlich bessere Ausnutzung der Recheneinheiten, kein Drop bei FP32...
Die 7600GT wird deutlich von der 8600GT geschlagen!

AnarchX
2007-03-06, 15:33:13
War auch mehr von der theoretischen Seite gedacht, das G8x in vielen Spielen G7x ordentlich abzieht ist ja klar.

8600GT 420/700MHz (4 Cluster)
6.72GTex/s(mit AF ~ 13.44GTex)
22.4GB/s
115 - 153GFLOPs (600-800MHz Shaderclock)

7600GT 560/700MHz
6.7GTex/s
22.4GB/s
107GFLOPs

Die 8600GT wird sicherlich eine nette Karte, die wohl sogar als passive Variante daherkommen wird. ;)
Aber man sollte abwarten, hinter dem RV630 steckt vielleicht doch mehr als man denkt, da NV im Bezug wohl etwas unrühig ist.

Nakai
2007-03-06, 17:37:18
http://pics.computerbase.de/1/7/3/5/8/1_m.jpg

Tja da haben wir den Kühler für eine Geforce 8800Ultra. Scheint mir etwas länger zu sein, als der GTX-Kühler welcher etwas länger als der GTS-Kühler war.
Naja, der Takt wird maximal 700Mhz sein.

mfg Nakai

Gast
2007-03-06, 17:42:00
http://pics.computerbase.de/1/7/3/5/8/1_m.jpg

Tja da haben wir den Kühler für eine Geforce 8800Ultra. Scheint mir etwas länger zu sein, als der GTX-Kühler welcher etwas länger als der GTS-Kühler war.
Naja, der Takt wird maximal 700Mhz sein.

mfg Nakai
Ich dachte immer, dass die Kühler bei der GTX und GTS immer gleich lang seien. Nur das PCB würde sich in der Länge unterscheiden.

Nakai
2007-03-06, 18:02:10
Nicht ganz!^^:tongue:

http://pics.computerbase.de/1/6/4/1/0/12_m.jpg

GTS-Kühler

http://pics.computerbase.de/1/5/8/8/6/160_m.jpg

GTX-Kühler

Der GTX-Kühler ist etwa 1 bis 2 cm länger als der GTS-Kühler.

mfg Nakai

reunion
2007-03-06, 18:17:10
http://pics.computerbase.de/1/7/3/5/8/1_m.jpg

Tja da haben wir den Kühler für eine Geforce 8800Ultra. Scheint mir etwas länger zu sein, als der GTX-Kühler welcher etwas länger als der GTS-Kühler war.
Naja, der Takt wird maximal 700Mhz sein.

mfg Nakai

Der Kühler scheint tatsächlich etwas länger zu sein. Und die Platine ist mit Sicherheit auch nahe an "full-size". Bin gespannt, wie hoch das Teil takten wird, und vorallem wie es dann mit den Stromverbrauch aussieht.

PCGH_Carsten
2007-03-06, 18:21:59
Zumindest hat der Kühler einen Schlitz zur Abluftabfuhr mehr. An 700 MHz glaube ich allerdings bei weitem nicht. Maximal 650/1.500 dürften drin sein - aber vielleicht ja mit GDDR4?

Nakai
2007-03-06, 18:24:05
GDDR4 ist wohl sicher, da der Speichertakt deutlich erhöht werden sollte um Marketingtechnisch gegen ATIs hohen Takt dazustehen.^^:wink:

Zumindest hat der Kühler einen Schlitz zur Abluftabfuhr mehr.

Ist auch von der GTS zur GTX.

mfg Nakai

Paul Brain
2007-03-06, 18:29:57
Ist eigentlich noch niemandem aufgefallen, daß die neue Quadro nominell weniger Bandbreite hat als die GTX? 76,8 vs. 88,6GB/s...

Endorphine
2007-03-06, 18:30:47
Und die 8600GTS wird dann wohl 3 Abluftschlitze haben? Kann man eine 8800GTS/320 dann durch mehr Schlitze zur 8800 Ultra modden? :D

Sry, aber der musste jetzt sein.


Ich hab übrigens die Hoffnung auf passiv gekühlte 8600GTS mit 512 MB noch nicht aufgegeben. *hoff*

AnarchX
2007-03-06, 18:55:50
Ist eigentlich noch niemandem aufgefallen, daß die neue Quadro nominell weniger Bandbreite hat als die GTX? 76,8 vs. 88,6GB/s...

Dafür hat sie aber 600MHz Chiptakt... ;)

Die Quadro FX 4600 ist auch eine sehr interessante Karte: 8800GTS(auch PCB) mit 384Bit SI und 600MHz Speicher.


Ich hab übrigens die Hoffnung auf passiv gekühlte 8600GTS mit 512 MB noch nicht aufgegeben. *hoff*
Wenn man eine X1950Pro passiv kühlen kann sollte die 8600GTS imo kein Problem machen.
Falls die Hersteller es nicht auf die Reihe bekommen, muss man halt selbst nachhelfen (http://www.vr-zone.com/index.php?i=4732).

Ailuros
2007-03-07, 06:13:19
War auch mehr von der theoretischen Seite gedacht, das G8x in vielen Spielen G7x ordentlich abzieht ist ja klar.

8600GT 420/700MHz (4 Cluster)
6.72GTex/s(mit AF ~ 13.44GTex)
22.4GB/s
115 - 153GFLOPs (600-800MHz Shaderclock)

7600GT 560/700MHz
6.7GTex/s
22.4GB/s
107GFLOPs

Die 8600GT wird sicherlich eine nette Karte, die wohl sogar als passive Variante daherkommen wird. ;)
Aber man sollte abwarten, hinter dem RV630 steckt vielleicht doch mehr als man denkt, da NV im Bezug wohl etwas unrühig ist.


Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?

In der Tabelle die ich gesehen habe steht leider nichts drin was auf die Anzahl der TMUs deuten koennte, aber so unwahrscheinlich wuerden mir selbst 12 TMUs auch nicht gerade klingen, und das nur weil mir der chip zu klein erscheint.

NV ist im Bezug zu RV630 alles andere als "unruhig". RV610 ist ein ganz anderes Kapitel.

AnarchX
2007-03-07, 09:56:48
Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?


Weil der Mainstream-Chip immer die Hälfte der Einheiten der HighEnd-GPU hatte?

Und soweit ich es beurteilen kann, besteht eben eine Koppelung zwischen TMUs und ALUs, sodass 12 TMUs eben 3 Shader-Cluster nach sich ziehen würden, die aber wiederum zu wenig sein könnten, wenn man die Shader-Domain unter 1GHz taktet, wegen des benötigten 2D-Modus.

Aber natürlich wäre auch 12 von den fetten TMUs ausreichend um die angestrebten Performanceziele zu erreichen.

Mit "jetzt gleich" deutest du wohl auf den G94 hin?
Aber bei diesem würde ich eher mehr als 16 TMUs vermuten, wenn dem G90 auch mehr Einheiten spendiert werden.

PCGH_Carsten
2007-03-07, 10:38:12
Und die 8600GTS wird dann wohl 3 Abluftschlitze haben? Kann man eine 8800GTS/320 dann durch mehr Schlitze zur 8800 Ultra modden? :D

Sry, aber der musste jetzt sein.
Nein, aber man kann daran sehen, dass der Kühler "anders" ist, ohne sich pi-mal-Daumen-Schätzungen perspektivisch unterschiedlicher Bilder verlassen zu müssen.

PCGH_Carsten
2007-03-07, 10:42:02
Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?

Ich bin einigermaßen sicher, dass eine G8x-Basiseinheit auch die TMUs mit einschließt, auch wenn diese entpipelineïsiert wurden. Damit würde jeder Cluster auch noch über 4 TAP/8 TFP verfügen.

FX5600: 1 SC - 4 TMUs (nein, nicht die Quadro - böser Zufall)
6600 GT: 2 SC - 8 TMUs
7600 Gx: 3 SC - 12 TMUs
8600 Gx: …

Ailuros
2007-03-07, 23:04:51
Weil der Mainstream-Chip immer die Hälfte der Einheiten der HighEnd-GPU hatte?

Schon; nur garantiert Dir diese Kleinigkeit absolut gar nichts. Nochmal es sind ca. 160mm^; Deine These macht zwar am meisten Sinn aber ich gehe momentan noch keine Wetten ein, weil ich mir eben den Kopf mit dem die-size zerbreche.

Und soweit ich es beurteilen kann, besteht eben eine Koppelung zwischen TMUs und ALUs, sodass 12 TMUs eben 3 Shader-Cluster nach sich ziehen würden, die aber wiederum zu wenig sein könnten, wenn man die Shader-Domain unter 1GHz taktet, wegen des benötigten 2D-Modus.

Gibt es wirklich eine Koppelung diesmal?

Mit "jetzt gleich" deutest du wohl auf den G94 hin?
Aber bei diesem würde ich eher mehr als 16 TMUs vermuten, wenn dem G90 auch mehr Einheiten spendiert werden.

Nein.

Gast
2007-03-07, 23:09:02
Gibt es wirklich eine Koppelung diesmal?


Warum sollte nVidia beim höchsten Modell Einheiten, welche physikalisch vorhanden sind, deaktivieren?
Ein Cluster hat immer 4TA/8TF Einheiten. nVidia könnte bei der 8600 auch 3 Cluster verbauen, aber dann wird die Karte auch nicht erfolgreicher sein als die X1600XT.

Ailuros
2007-03-07, 23:11:27
Ich bin einigermaßen sicher, dass eine G8x-Basiseinheit auch die TMUs mit einschließt, auch wenn diese entpipelineïsiert wurden. Damit würde jeder Cluster auch noch über 4 TAP/8 TFP verfügen.

FX5600: 1 SC - 4 TMUs (nein, nicht die Quadro - böser Zufall)
6600 GT: 2 SC - 8 TMUs
7600 Gx: 3 SC - 12 TMUs
8600 Gx: …

Ich will weder darauf bestehen noch etwas andeuten (ueber das ich sowieso momentan nicht bescheid weiss).

Es handelt sich lediglich um einen reinen Geistesblitz von mir der nicht unbedingt Sinn machen muss. Trotz allem hat G80 32TMUs und 24 ROPs; angenommen die 8600 haette nun doch 12 TMUs ist es vergleichsmaessig nicht gerade wenig im Vergleich zu 8 ROPs.

Ailuros
2007-03-07, 23:24:25
Warum sollte nVidia beim höchsten Modell Einheiten, welche physikalisch vorhanden sind, deaktivieren?

Wer spricht denn ueberhaupt von deaktivierten Einheiten?

Ein Cluster hat immer 4TA/8TF Einheiten.

Mit absoluter Sicherheit ist es leichter mit den vorhandenen G80-clusters herumzuspielen um Zeit und Unkosten zu sparen, aber dieses "immer" laesst es so klingen als ob es nicht anders moeglich waere.

nVidia könnte bei der 8600 auch 3 Cluster verbauen, aber dann wird die Karte auch nicht erfolgreicher sein als die X1600XT.

Kommt ganz drauf an von welchem core die 8500 genau abstammen wird ;)

Gast
2007-03-08, 07:45:22
Wer spricht denn ueberhaupt von deaktivierten Einheiten?

Ein Zitat von dir:
"Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?"
Entweder es sind drei oder vier Cluster. Es macht wirtschaftlich keinen Sinn einen Chip zu produzieren, wenn man ihn nur zu 3/4 ausnutzt.

Mit absoluter Sicherheit ist es leichter mit den vorhandenen G80-clusters herumzuspielen um Zeit und Unkosten zu sparen, aber dieses "immer" laesst es so klingen als ob es nicht anders moeglich waere.

Mir erschließt sich nicht der Nutzen einer Skalierung innerhalb der Cluster.
Es kann natürlich sein, dass nVidia auch Einheiten innerhalb eines Cluster nicht mitproduzieren kann, aber ich denke, dass dies ein sehr schwieriger Prozeß ist.
Aus dem Grund denke ich, dass auch bei der 8600 ganz "normale" G80 Cluster verwendet werden.

AnarchX
2007-03-08, 09:30:59
Schon; nur garantiert Dir diese Kleinigkeit absolut gar nichts. Nochmal es sind ca. 160mm^; Deine These macht zwar am meisten Sinn aber ich gehe momentan noch keine Wetten ein, weil ich mir eben den Kopf mit dem die-size zerbreche.


Ja hier besteht durchaus ein Problem, aber ich könnte mir vorstellen das die Lösung des Rätsel vielleicht die zwei ROP-Cluster sind.
Immerhin sind diese ja bei G8x, da hier auch noch ein 64Bit SI dran hängt nicht gerade klein und auch so sind sie ja um einiges mächtiger als die ROPs von GPUs in der Vergangenheit.

Oder hast du schon konkretere Infos wieviel Fläche/Transistoren die Einheiten bei G8x benötigen?

@TMU-ALU-Koppelung:

Laut dem Schaubild von Uttar bei B3D scheinen sie doch entkoppelt zu sein wie bei R520/R580, jedoch sind wie schon öfters angedeutet mit einem Shader-Cluster verbunden ("hardcoded").
Aber vielleicht hat ja NV dies bei G84/G86 anders organisiert.

LovesuckZ
2007-03-08, 09:36:58
@TMU-ALU-Koppelung:
Laut dem Schaubild von Uttar bei B3D scheinen sie doch entkoppelt zu sein wie bei R520/R580, jedoch sind wie schon öfters angedeutet mit einem Shader-Cluster verbunden ("hardcoded").
Aber vielleicht hat ja NV dies bei G84/G86 anders organisiert.

Auch beim r580 sind die TMUs in Gruppen eingeteilt, in welchen sich auch die Recheneinheiten befinden.
Xenos zum Beispiel hat eine "wirkliche" Trennung von Recheneinheiten und TMU. So hat Xenos 3 SIMD - Arrays, jedoch 4 TMUs Quads. Sowas wäre beim G80 und beim r580 nicht möglich.

Ailuros
2007-03-08, 13:08:22
Ja hier besteht durchaus ein Problem, aber ich könnte mir vorstellen das die Lösung des Rätsel vielleicht die zwei ROP-Cluster sind.
Immerhin sind diese ja bei G8x, da hier auch noch ein 64Bit SI dran hängt nicht gerade klein und auch so sind sie ja um einiges mächtiger als die ROPs von GPUs in der Vergangenheit.

Oder hast du schon konkretere Infos wieviel Fläche/Transistoren die Einheiten bei G8x benötigen?

So teuer sind die ROPs nun auch wieder nicht.

Ailuros
2007-03-08, 13:12:32
Ein Zitat von dir:
"Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?"
Entweder es sind drei oder vier Cluster. Es macht wirtschaftlich keinen Sinn einen Chip zu produzieren, wenn man ihn nur zu 3/4 ausnutzt.

Du kannst es aber auch nur so interpretieren, wenn Du Dir zu 100% sicher bist dass man die TMUs in keinem Fall entkoppeln kann.

Mir erschließt sich nicht der Nutzen einer Skalierung innerhalb der Cluster.
Es kann natürlich sein, dass nVidia auch Einheiten innerhalb eines Cluster nicht mitproduzieren kann, aber ich denke, dass dies ein sehr schwieriger Prozeß ist.
Aus dem Grund denke ich, dass auch bei der 8600 ganz "normale" G80 Cluster verwendet werden.

Zwischen "ich denke" und "ich bin mir absolut sicher" gibt es einen kleinen Unterschied und ja um mich selber nochmal zu zitieren:

Wieso seit Ihr Euch alle so absolut sicher dass G84 jetzt gleich 16 TMUs haben muss?

99:1 werden es hoechstwahrscheinlich schon 16 sein; ich fragte lediglich woher die generelle Sicherheit kommt.

PCGH_Carsten
2007-03-08, 14:00:25
So teuer sind die ROPs nun auch wieder nicht.
Ich glaube doch - immerhin sitzen da ebenfalls gleitkommafähige Einheiten (MU, ADD) drin. Zudem musst du FP-blenden, das Speicherinterface wird sicherlich auch kleine Caches/FIFOs haben usw.

Ich könnte mir vorstellen, dass eine G8x-ROP-Partition in etwa so teuer wie ein ALU-Cluster sans TMU ist.

Nakai
2007-03-08, 14:13:33
Imho sind sie nicht so programmierbar und nicht so stark entkoppelt wie es die Shader sein sollten.

Schau mal den Xenos an, er hat eine Daughter-Die mit 10 MB-EDRam. Ich weiß jetzt nicht wie teuer der EDRAM ist, aber die Daughter DIE ist etwa 105Millionen Transis schwer.
Ich denke nicht, dass die ROPs so teuer sind, obwohl dieG80-ROPs noch ein bisschen fetter sind als die Xenos-ROPs.

mfg Nakai

Ailuros
2007-03-08, 14:19:46
Ich könnte mir vorstellen, dass eine G8x-ROP-Partition in etwa so teuer wie ein ALU-Cluster sans TMU ist.

Ich kann es drehen und biegen (und ja zugegeben bin ich natuerlich nicht zustande mir das Zeug auszurechnen) aber die angebliche 160mm^2 die-Groesse sitzt mir merkwuerdig im Hals. G73 hat bei 90nm 177mm^2; dabei sind es 12 um einiges kleinere TMUs, 8 um einiges kleinere ROPs und soll ich jetzt noch die ALUs beruehren oder wird es langsam doch etwas zwielichtig? 80nm gibt im Vergleich genau wieviel mehr "Platz"? Ja eben....:rolleyes:

AnarchX
2007-03-08, 14:28:41
Ich kann es drehen und biegen (und ja zugegeben bin ich natuerlich nicht zustande mir das Zeug auszurechnen) aber die angebliche 160mm^2 die-Groesse sitzt mir merkwuerdig im Hals. G73 hat bei 90nm 177mm^2; [...]

G73 hat 177Mio Transistoren und die Die-Size war 127mm² (http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=111&orderby=release_date&order=Order&cname=). ;)

G84 wird etwa 60% mehr Fläche als G73-B1 haben, also sollten da 4 Cluster doch passen.

PCGH_Carsten
2007-03-08, 14:33:44
Ich kann es drehen und biegen (und ja zugegeben bin ich natuerlich nicht zustande mir das Zeug auszurechnen) aber die angebliche 160mm^2 die-Groesse sitzt mir merkwuerdig im Hals. G73 hat bei 90nm 177mm^2; dabei sind es 12 um einiges kleinere TMUs, 8 um einiges kleinere ROPs und soll ich jetzt noch die ALUs beruehren oder wird es langsam doch etwas zwielichtig? 80nm gibt im Vergleich genau wieviel mehr "Platz"? Ja eben....:rolleyes:
Wie AnarchX schon sagte - G73 war kleiner. Wir haben zwar 132mm² gemessen, aber sei's drum.

Was G8x nicht hat:
- Vertex-Shader
- Separaten Speichercontroller samt Crossbar


Und wie schaut's mit dem 2D-Teil aus? Liegt der weiterhin extern im NVIO?

AnarchX
2007-03-08, 14:35:31
Und wie schaut's mit dem 2D-Teil aus? Liegt der weiterhin extern im NVIO?

Laut B3D-Staff sollen nur Gx0 und Gx2 einen externen IO-Teil haben.

Ailuros
2007-03-08, 14:40:14
Wie AnarchX schon sagte - G73 war kleiner. Wir haben zwar 132mm² gemessen, aber sei's drum.

Sch**** B3D Tabelle LOL ;)

Was G8x nicht hat:
- Vertex-Shader
- Separaten Speichercontroller samt Crossbar

G8x hat ABER D3D10 Komplianz.

Und wie schaut's mit dem 2D-Teil aus? Liegt der weiterhin extern im NVIO?

Ich beruhe hier auf nur eine Andeutung, von der ich schliessen koennte dass das Zeug hier integriert ist.

PCGH_Carsten
2007-03-08, 15:00:22
Schwierig das alles in eine Gleichung einzupassen :(

Ailuros,
Klar kostet D3D10 nochmal extra aber wir haben vermutlich 52% mehr Transistoren im Budget als beim G73 (80nm, die angegebenen Die-Größen).

Ein paar Dinge fallen raus, etliche Dinge kommen hinzu. :)

reunion
2007-03-08, 19:39:10
Die Vergangenheit hat gezeigt, dass ein "halber" Midragechip gut 2/3 der Transitoren des High-End-Cores hat. Man kann nunmal nicht alles halbieren. Wenn man das berücksichtigt, halte ich einen "halben" G80 mit nur 160mm² ohne 65nm für verdammt unwahrscheinlich.

Schwierig das alles in eine Gleichung einzupassen :(

Ailuros,
Klar kostet D3D10 nochmal extra aber wir haben vermutlich 52% mehr Transistoren im Budget als beim G73 (80nm, die angegebenen Die-Größen).

Ein paar Dinge fallen raus, etliche Dinge kommen hinzu. :)


G71: 271M Transistoren 196mm² Die-Fläche -> G73: 177M Transistoren 127mm² Die-Fläche
G80: 681M Transistoren 484mm² Die-Fläche -> G84: xxxM Transistoren 160mm² Die-Fläche


Selbst wenn man den 80nm Prozess von G84 berücksichtigt, ist das Die IMHO viel zu klein, um da 50% des G80 reinzuquetschen. Dazu soll auch noch der NVIO integriert werden.

AnarchX
2007-03-08, 19:50:51
Nur wird man diese Beobachtungen aus der Vergangenheit nicht so einfach auf G8x mit seinen ROP-Clustern mit anhängendem SI und den Custom-Transistoren der Shaderdomain übertragen können.

Und der Vergleich G71 zu G73 ist AFAIK auch falsch, da die Transistorsparmaßnahmen von G71 nicht bei G73 eingeflossen sind.

reunion
2007-03-08, 20:09:30
Nur wird man diese Beobachtungen aus der Vergangenheit nicht so einfach auf G8x mit seinen ROP-Clustern mit anhängendem SI und den Custom-Transistoren der Shaderdomain übertragen können.


Im absoluten Idealfall, was die Skalierung der Einheiten und die eines Die-Shrinks im Verhältnis zu Die-Größe betrifft (den wohl kein Chip je erreichen wird), müsste G84 ziemlich genau 191mm² Die-Fläche haben (484/2 x 0.79). Nicht berücksichtigt der fehlende ROP-Cluster und der möglicherweise integrierte NVIO. So, und jetzt darfst du mir erklären, wie man die restlichen 31mm², immerhin ~1/6 des Dies, einsparen will.


Und der Vergleich G71 zu G73 ist AFAIK auch falsch, da die Transistorsparmaßnahmen von G71 nicht bei G73 eingeflossen sind.


G71 278M
G73 178M ~64%

NV40 222M
NV43 146M ~65.8%

NV35 130M
NV36 82M ~63.1%

Das könnte man mit ATi-Chips beliebig fortsetzten. Ist das auch alles falsch?

dargo
2007-03-08, 20:15:05
Jetzt mal ne blöde Frage - wie sicher ist es, dass der G8x die gleiche Filterqualität bietet wie der G80?
Durch Filterqualität auf dem G7x Niveau könnte man doch auch Transistoren einsparen oder?

Coda
2007-03-08, 20:32:41
Jetzt mal ne blöde Frage - wie sicher ist es, dass der G8x die gleiche Filterqualität bietet wie der G80?
Durch Filterqualität auf dem G7x Niveau könnte man doch auch Transistoren einsparen oder?
Klar. Sie implementieren quasi absolut perfektes AF und schmeißens dann wieder raus um Transistoren zu sparen obwohl sie einen neueren Prozess zur Verfügung haben. Au Backe...

Bei G7x war der schlechte Filter eh deshalb weil die TMUs in der Pipeline liefen und man da deshalb jeden Takt rausquetschen muss. Ab G8x ist der Filter aber nebenläufig und man kann wie ATI viel unter der ALU-Last verstecken, weshalb HQ ggü. Q ja auch kaum Performance bringt auf G80 wenn man es mit G7x vergleicht.

Gast
2007-03-08, 20:38:42
Jetzt mal ne blöde Frage - wie sicher ist es, dass der G8x die gleiche Filterqualität bietet wie der G80?
Durch Filterqualität auf dem G7x Niveau könnte man doch auch Transistoren einsparen oder?
´
Nicht bei der neuen Architektur wo vieles entkoppelt ist. Der Grund für die Filterung wie sie G7x angewendet hat war doch um Stalls in der Pipeline zu umgehen. Bisher war es noch nie der Fall das eine Architektur Familie unterschiedlich gefiltert hat, das man die ROPs nach unten hin bissl abspeckt ja (siehe 6100-6300er Karten).

Vieleicht fällt bei den TMUs ja die Fähigkeit des "kostenlosen" 2xAF Bi weg.

AnarchX
2007-03-08, 20:45:04
So, und jetzt darfst du mir erklären, wie man die restlichen 31mm², immerhin ~1/6 des Dies, einsparen will.

Die Lösung dafür könnte, wie schon oft erwähnt, sich dahinter verbergen, dass man eben nur 1/3 der ROP-Cluster des G80 hat, deren Einfluss auf die Die Size bisher nicht gelärt ist.
Zudem könnte NV durchaus auch noch im Bereich der Packdichte der Transistoren optimiert haben.
Vorallem im Bereich der Shader-ALUs könnte ich mir eine Optimierung vorstellen, da ja diese bei G84 vorraussichtlich nicht über 1GHz takten werden.


G71 278M 300M
G73 178M ~64% ~59%

NV40 222M
NV43 146M ~65.8%

NV35 130M
NV36 82M ~63.1%

Das könnte man mit ATi-Chips beliebig fortsetzten. Ist das auch alles falsch?

In diesem Zusammenhang schon, da die hier die Mainstream-GPUs eben immer 1/2 des SI der HighEnd-GPU hatten, bei G84 sind es nur 1/3.

Jetzt mal ne blöde Frage - wie sicher ist es, dass der G8x die gleiche Filterqualität bietet wie der G80?
Durch Filterqualität auf dem G7x Niveau könnte man doch auch Transistoren einsparen oder?

Das könnte eher Transitoren kosten. ;)

reunion
2007-03-08, 21:02:35
Die Lösung dafür könnte, wie schon oft erwähnt, sich dahinter verbergen, dass man eben nur 1/3 der ROP-Cluster des G80 hat, deren Einfluss auf die Die Size bisher nicht gelärt ist.
Zudem könnte NV durchaus auch noch im Bereich der Packdichte der Transistoren optimiert haben.
Vorallem im Bereich der Shader-ALUs könnte ich mir eine Optimierung vorstellen, da ja diese bei G84 vorraussichtlich nicht über 1GHz takten werden.


Vorstellen kann man sich vieles, wie realistisch das ist, werden wir ja bald sehen. Ich glaube entweder daran, dass G84 nur 1/3 des G80 ist, oder das die Die-Größe über 160mm² liegt. Auch nV kann nicht zaubern.


G71 278M 300M
G73 178M ~64% ~59%


Beide Chips werden in 90nm gefertigt, und das war ja auch der Grund für sie Transistorenersparnis bei G71 ggü. G70. Ich sehe keinen Grund, warum man hier G70 als Vergleich heranziehen sollte, zumal das Verhältnis fast exakt mit den anderen Chips überein stimmt. Man wäre ja blöd, wenn man bei G73 nicht auch die gleichen Sparmaßnahmen verwendet hätte.


In diesem Zusammenhang schon, da die hier die Mainstream-GPUs eben immer 1/2 des SI der HighEnd-GPU hatten, bei G84 sind es nur 1/3.


Damit erklärst du aber nicht einen G84 mit nichtmal 1/3 der Die-Fläche eines G80. Wie schon gesagt, selbst unter der unrealistischen Annahme, der perfekten Skalierung, kommst du nicht annähernd auf die 160mm². Und der eine ROP-Cluster kann auch nicht alles erklären, er deutet höchstens an, dass hier noch mehr fehlt. Warum sollte man auch das ALU/ROP-Verhältnis ändern?


Das könnte eher Transitoren kosten. ;)

Als ob ein schlechterer Filter Transistoren kosten würde.

Godmode
2007-03-08, 21:14:41
Es könnte ja wirklich sein, das zb die ROPs und TMUs gedrittelt werden und diese Reduktion aber mit höherer Taktfrequenz - durch den 80nm Prozess sicher kein Problem - ausgleichen!

Gast
2007-03-08, 21:42:11
So, und jetzt darfst du mir erklären, wie man die restlichen 31mm², immerhin ~1/6 des Dies, einsparen will.

Hallo lieber reunion,

Vielleicht könntest du folgendes in deine Gleichungen mit einbeziehen:
G70 -> 302M
G71 -> 278M

;)

Dein Troll-Gast

Gast
2007-03-08, 21:46:10
Hallo lieber reunion,

Vielleicht könntest du folgendes in deine Gleichungen mit einbeziehen:
G70 -> 302M
G71 -> 278M

;)

Dein Troll-Gast
Ok, das war gemein. Ich mache es dir nicht so schwer.

Nvidia hat mit dem G80 die größte GPU aller Zeiten gebaut - und das im mittlerweile ziemlich gesetzten 90-Nanometer-Prozess. Die werden _alles_ getan haben, um die Yields irgendwie erträglich zu halten und zumindest eine GTS aus fast allen Dies herausquetschen zu können.

Ich kann es zwar nicht belegen, aber die Wahrscheinlichkeit ist groß, dass hier noch mehr Redundanz und Massetransistoren enthalten sind, als im G70.

Nun ziehen wir mal 10 Prozent ab (G70 hatte offenbar gut 8%):
Dann wären wir bei ca. 435mm² und 613M Transistoren.

Immer noch so unwahrscheinlich?

reunion
2007-03-08, 22:08:14
Du kommst dir ja offenbar ziemlich überlegen vor. Wäre toll, wenn der "Troll-Gast" mal seinen Usernamen preisgeben würde. Zu deinem restlichen muss ich natürlich zugeben, dass das einer gewissen Logik nicht entbehrt, trotzdem erscheint mir die Differenz, selbst wenn man das noch berücksichtigt, insgesamt als zu groß. Speziell, wenn man das mal mit alten Midragechips vergleicht. Wir werden ja bald sehen, wer recht behält.

|MatMan|
2007-03-08, 22:26:59
das Problem ist, dass bei Logikschaltungen nicht viel mit Redundanz los ist. Entweder eine ALU/ TMU/ ... geht, oder sie geht nicht. Redundanz geht nur gut bei Speicherzellen/ Cache, da sieht man eben ein paar mehr vor und schaltet die defekten ab. ALUs nur wegen der Ausbeute mehrfach zu verbauen und ansonsten ungenutzt zu lassen macht aber keinen Sinn, daher ja auch die abgespeckten Varianten...

Bei CPUs geht das mit der Redundanz natürlich sehr gut, da ist ja das Allermeiste vom Core inzwischen der Cache, bei GPUs ist es aber genau umgedreht -> fast nur Logik.

Das man zusätzliche Massetransistoren verbaut ist wohl dazu da die Signalqualität innerhalb des Chips zu verbessern (oder wozu sollte man das sonst machen?) und somit eher was anderes...

Ich schätze mal, wie der Gast weiter oben, dass die doppel-TMU dem Rotstift zum Opfer fallen könnten. Da filtern ja eine ganze Menge Operationen sind, kostet das sicher einiges an Transistoren und läßt sich über die Taktrate wieder etwas ausgleichen...

Gast
2007-03-08, 22:28:20
Du kommst dir ja offenbar ziemlich überlegen vor. Wäre toll, wenn der "Troll-Gast" mal seinen Usernamen preisgeben würde. Zu deinem restlichen muss ich natürlich zugeben, dass das einer gewissen Logik nicht entbehrt, trotzdem erscheint mir die Differenz, selbst wenn man das noch berücksichtigt, insgesamt als zu groß. Speziell, wenn man das mal mit alten Midragechips vergleicht. Wir werden ja bald sehen, wer recht behält.
Du verstehst mich falsch - ich beharre nicht darauf, dass es so ist, ich denke nur nicht, dass es ausgeschlossen ist.

mfg,
Klischee-Gast

Ailuros
2007-03-09, 06:15:22
Beide Chips werden in 90nm gefertigt, und das war ja auch der Grund für sie Transistorenersparnis bei G71 ggü. G70. Ich sehe keinen Grund, warum man hier G70 als Vergleich heranziehen sollte, zumal das Verhältnis fast exakt mit den anderen Chips überein stimmt. Man wäre ja blöd, wenn man bei G73 nicht auch die gleichen Sparmaßnahmen verwendet hätte.

G73 hat KEINE Sparmassnahmen.

***edit: Wavey vermutete mal in seinem G73 review dass sie vielleicht "etwas" pipelining wie beim G71 entfernt haben; etwas spaeter sagte er dann selber in den B3D Foren dass dem doch nicht so ist und ja so heisst es auch von NV's Seite.

Godmode
2007-03-10, 14:46:37
Hier ist ja schon sehr ruhig geworden, glaubt ihr das wir nächste Woche wieder mehr erfahren werden (Cebit)?

Gast
2007-03-10, 15:12:58
Naja außer das sich die Fanboys um ein paar Transistoren zanken war ja auch nicht mehr von diesem Thread zu erwarten bis die Karten in der Öffentlichkeit gezeigt werden. Leider hat keiner der großen Hersteller sich ein Fauxpass leistet und eine Werbetafel mit den richtigen Specs herausluken lassen, da haben sie wohl bei Asus den richtigen letztes Jahr gekikt *g

deekey777
2007-03-11, 11:54:58
http://forums.ocworkbench.com/bbs/showthread.php?p=407680#post407680
http://www.ocworkbench.com/2007/nvidia/8600gts/g1.htm
CeBIT 2007 : GeForce 8600GTS Exclusive Photos and Specs Revealed
The GPU used is labelled G84-400. The GPU clock runs at 675MHz and GDDR3 at 2000MHz. The card is HDCP Ready.



http://www.ocworkbench.com/2007/nvidia/8600gt/g1.htm
CeBIT 2007 : NVIDIA GeForce 8600GT Photos Review
The GPU used is labelled G84-300. The GPU clock runs at 540MHz and GDDR3 at 1400MHz. G84 does not support HDCP. There is another version G84-305 comes with HDCP support.
G84-300 "nackt" (http://forums.ocworkbench.com/bbs/showthread.php?p=407677#post407677)
Die GTS gefällt mir irgendwie. :)

AnarchX
2007-03-11, 12:01:46
Na wer schätzt jetzt mal die Die Size des G84? ;)
Die Bilder sind dafür ja sehr gut geeignet:
http://www.ocworkbench.com/2007/nvidia/8600gt/8600GT-GPU%20copy.jpg
http://www.ocworkbench.com/2007/nvidia/8600gts/8600GTS%20copy.jpg

Da die 8600GTS GDDR4 unterstützt, könnte ich mir vorstellen, dass die Hersteller wohl diesen für ihre OC-Modelle einsetzen werden, mit GDDR3 besteht ja eigentlich kein Spielraum mehr.

reunion
2007-03-11, 12:08:45
Da die 8600GTS GDDR4 unterstützt, könnte ich mir vorstellen, dass die Hersteller wohl diesen für ihre OC-Modelle einsetzen werden, mit GDDR3 besteht ja eigentlich kein Spielraum mehr.

Wie kommst du darauf, dass die Karte GDDR4 unterstützt? Dass man jetzt wieder nur die max. Taktrate von GDDR3 auslutscht, anstatt den bei gleichen Frequenz wesentlich stromsparenderen GDDR4 zu verwenden (ATI verwendet ja auf der X1950XTX bereits seit längerem GDDR4 mit einem Ghz), spricht ja eher dafür, dass man GDDR4 eben nicht unterstützt.

AnarchX
2007-03-11, 12:10:51
Wie kommst du darauf, dass die Karte GDDR4 unterstützt? Dass man jetzt wieder nur die max. Taktrate von GDDR3 auslutscht, anstatt den bei gleichen Frequenz wesentlich stromsparenderen GDDR4 zu verwenden, spricht ja eher dafür, dass man GDDR4 eben nicht unterstützt.

Weil es im Text von OCW steht?
Vielleicht gibt es ja auch gute Gründe das man GDDR3 "auslutscht", irgendwas scheint momentan mit GDDR4 faul zu sein imo.

reunion
2007-03-11, 12:15:47
Die GTS gefällt mir irgendwie. :)

Ich hoffe, dass der Lüfter und der Kühlkörper so klein sind, weil die Karte so wenig Strom verbraucht, und nicht wie bei der 7900GT, wo man ein paar Cent einsparen wollte, und dafür dann eine Turbine bekam.

Gast
2007-03-11, 12:16:09
G84-300 "nackt" (http://forums.ocworkbench.com/bbs/showthread.php?p=407677#post407677)
Die GTS gefällt mir irgendwie. :)
Bin nur ich das, dem der Schriftzug mit G84-300 irgendwie "zu hell" gephotoshopped erscheint?

Gast
2007-03-11, 12:17:21
Ich hoffe, dass der Lüfter und der Kühlkörper so klein sind, weil die Karte so wenig Strom verbraucht, und nicht wie bei der 7900GT, wo man ein paar Cent einsparen wollte, und dafür dann eine Turbine bekam.
Die Karten mit funktionierender Lüftersteuerung waren relativ leise. Bitte nicht immer die Hälfte, die dir nicht passt, auslassen.

reunion
2007-03-11, 12:18:03
Na wer schätzt jetzt mal die Die Size des G84? ;)
Die Bilder sind dafür ja sehr gut geeignet:
http://www.ocworkbench.com/2007/nvidia/8600gt/8600GT-GPU%20copy.jpg
http://www.ocworkbench.com/2007/nvidia/8600gts/8600GTS%20copy.jpg


Die 160mm² dürften stimmen, aber das war IMHO auch schon vorher mehr oder weniger gesichert. Interessant wäre technische Specs, also was da jetzt alles drin steckt.

Die Karten mit funktionierender Lüftersteuerung waren relativ leise. Bitte nicht immer die Hälfte, die dir nicht passt, auslassen.

Tatsächlich? Alle Tests die ich las, sprachen von einen sehr lauten Lüfter. Aber möglich, dass sich da was getan hat.

Gast
2007-03-11, 12:20:06
Dass man jetzt wieder nur die max. Taktrate von GDDR3 auslutscht, anstatt den bei gleichen Frequenz wesentlich stromsparenderen GDDR4 zu verwenden (ATI verwendet ja auf der X1950XTX bereits seit längerem GDDR4 mit einem Ghz), spricht ja eher dafür, dass man GDDR4 eben nicht unterstützt.

Schonmal bei Samsung rübrgesurft und geschaut, ob es noch GDDR4 mit 1GHz gibt?
Der Speicher wurde umgelabelt. Der kleinste GDDR4 Speicher hat 1100MHz. Den, der die X1950XTX verwendet, ist "heute" der jetzige 1A Soeicher mit 1000MHz!

ich hoffe, dass der Lüfter und der Kühlkörper so klein sind, weil die Karte so wenig Strom verbraucht, und nicht wie bei der 7900GT, wo man ein paar Cent einsparen wollte, und dafür dann eine Turbine bekam

Verbraucht die 7900GT nicht "wenig Strom"?

reunion
2007-03-11, 12:32:11
Weil es im Text von OCW steht?
Vielleicht gibt es ja auch gute Gründe das man GDDR3 "auslutscht", irgendwas scheint momentan mit GDDR4 faul zu sein imo.

Was soll an GDDR4 bitte faul sein? ATi verwendet ihn auf der X1950XTX schon ziemlich lange. Und ob OCW hier mehr als nur Halbwissen weitergibt, wird sich ja bald zeigen, denn mit einem Ghz ist GDDR3 endgültig am Ende.

Schonmal bei Samsung rübrgesurft und geschaut, ob es noch GDDR4 mit 1GHz gibt?
Der Speicher wurde umgelabelt. Der kleinste GDDR4 Speicher hat 1100MHz. Den, der die X1950XTX verwendet, ist "heute" der jetzige 1A Soeicher mit 1000MHz!


Ich weiß. Was spricht dagegen, dass es nV genau so macht, oder eben den Speicher dann gleich mit 1.1Ghz taktet?


Verbraucht die 7900GT nicht "wenig Strom"?

Offensichtlich für den verbauten Lüfter nicht wenig genug, sonst müsste das Teil nicht mit 5000rpm drehen. Aber vielleicht reicht da bei der 8600GTS trotz externen Stromanschluss auch etwas weniger Drehzahl.

Godmode
2007-03-11, 12:37:24
Ich hoffe, dass der Lüfter und der Kühlkörper so klein sind, weil die Karte so wenig Strom verbraucht, und nicht wie bei der 7900GT, wo man ein paar Cent einsparen wollte, und dafür dann eine Turbine bekam.

Also die Kabel die zum Lüfter gehen schauen gut aus, dh er wird regelbar sein!

dargo
2007-03-11, 12:44:11
Schonmal bei Samsung rübrgesurft und geschaut, ob es noch GDDR4 mit 1GHz gibt?
Der Speicher wurde umgelabelt. Der kleinste GDDR4 Speicher hat 1100MHz. Den, der die X1950XTX verwendet, ist "heute" der jetzige 1A Soeicher mit 1000MHz!

Warum muss es den geben? ATI untertaktet den GDDR4 bei der X1950XTX auf 1,0Ghz.

http://www.techpowerup.com/reviews/ATI/X1950XTX/images/memory.jpg
http://www.techpowerup.com/reviews/ATI/X1950XTX/3
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/download/graphic_product_guide_jan_07.pdf

Gast
2007-03-11, 12:46:34
Ich weiß. Was spricht dagegen, dass es nV genau so macht, oder eben mit Speicher dann gleich mit 1.1Ghz taktet?

Verfügbarkeit und Wirtschaftlichkeit.
GDDR4 scheint kaum zur Verfügung zu stehen. Und der Speicher der X1950XTX lässt sich nichtmal annährend an seine Spezifikation von 1100MHz takten.


Offensichtlich für den verbauten Lüfter nicht wenig genug, sonst müsste das Teil nicht mit 5000rpm drehen. Aber vielleicht reicht da bei der 8600GTS trotz externen Stromanschluss ein etwas weniger Drehzahl.

DIe 7600GT benutzt den gleichen Kühler - hier regelbar. Es war nur eine Kostenfrage, solch ein Mistding zu verbauen.

reunion
2007-03-11, 12:48:08
Vielleicht auch nicht ganz uninteressant: Die Preisgestaltung:

Pricing of 8600GTS is around $200-250
8600GT is around $150-180
8500GT is around $90

http://www.ocworkbench.com/2007/nvidia/8600gts/g1.htm

Godmode
2007-03-11, 12:50:59
Ob wohl die GTS eine 7900 GTX oder X1950XTX einholen kann?

Gast
2007-03-11, 12:51:57
Vielleicht auch nicht ganz uninteressant: Die Preisgestaltung:

Pricing of 8600GTS is around $200-250
8600GT is around $150-180
8500GT is around $90

http://www.ocworkbench.com/2007/nvidia/8600gts/g1.htm
Für 250 Tacken muss sie aber schon deftig schnell sein. Für deutlich weniger gibt's die X1950 Pro.

Gast
2007-03-11, 12:52:29
Ob wohl die GTS eine 7900 GTX oder X1950XTX einholen kann?

Das wissen wir erst, wenn die Spezifikationen veröffentlich werden.
Sagen wir so: Mit 4 Cluster (16 TMU, 64 Skalare, 2 ROP - Partitionen) wird die Karte ohne AA auf dem Niveau der 7900GTX bzw. X1950XTX liegen.

reunion
2007-03-11, 12:53:09
Verfügbarkeit und Wirtschaftlichkeit.
GDDR4 scheint kaum zur Verfügung zu stehen. Und der Speicher der X1950XTX lässt sich nichtmal annährend an seine Spezifikation von 1100MHz takten.


Weil ATi den Speicher undervoltet. Mit Standardspannung sind 1.1Ghz und mehr sicherlich problemlos drin. Und ATi scheint auch bei der neuen Generation auf GDDR4 zu setzen, so schlecht kann es da also nicht aussehen.


DIe 7600GT benutzt den gleichen Kühler - hier regelbar. Es war nur eine Kostenfrage, solch ein Mistding zu verbauen.

Natürlich war es eine Kostenfrage, ist es das nicht immer? Die 7600GT verbraucht nochmal wesentlich weniger Strom als die 7900GT und vermutlich auch als die 8600GTS, deshalb hat der Kühler dort gereicht, ob er das bei der 8600GTS bei einem akzeptablen Lautstärkenniveau auch tut, wird sich zeigen.

dargo
2007-03-11, 12:53:27
Ob wohl die GTS eine 7900 GTX oder X1950XTX einholen kann?
Eine G7900GTX in einigen Games vielleicht. Eine X1950XTX wohl kaum. Und bei hohen Auflösungen + viel AA wird das SI der GTS eh bremsen.

reunion
2007-03-11, 12:55:52
Für 250 Tacken muss sie aber schon deftig schnell sein. Für deutlich weniger gibt's die X1950 Pro.

Sehe ich ähnlich. Die X1950GT um 120€ dürfte nV nicht sonderlich schmecken. Allerdings hat man natürlich den Bonus, dass die Karte neu ist, und D3D10 unterstützt.

Gast
2007-03-11, 13:00:44
Tatsächlich? Alle Tests die ich las, sprachen von einen sehr lauten Lüfter. Aber möglich, dass sich da was getan hat.
Tatsächlich - und ebenfalls der Nachweis, dass das Teil mit rund 48 Watt noch lange nicht überlastet ist: Die 7950 GT verbraucht etwas mehr (ein guter Teil der zusätzlichen 13 Watt dürften auf das Konto des größeren RAM gehen), wird aber deutlich leiser gekühlt.

http://www.xbitlabs.com/articles/video/display/geforce7950gt_3.html

dargo
2007-03-11, 13:01:19
Die 7600GT verbraucht auch nochmal wesentlich weniger Strom als die 7900GT und vermutlich auch als die 8600GTS.
Der Unterschied ist aber minimal, ca. 10W. Wenn man das nur auf die GPU überträgt dürften da vielleicht ~6-8W davon landen.

Gast
2007-03-11, 13:07:00
Und ATi scheint auch bei der neuen Generation auf GDDR4 zu setzen, so schlecht kann es da also nicht aussehen.


Nur weil ATi auf etwas setzt, heißt das nicht, dass dies Positiv wäre.

reunion
2007-03-11, 13:35:02
Nur weil ATi auf etwas setzt, heißt das nicht, dass dies Positiv wäre.

Es wäre toll, wenn du nicht irgendwelche Dinge aus dem Zusammenhang reißen würdest. Es ging um die Verfügbarkeit, und da ist es scheißegal, welcher Hersteller auf was setzt. Wenn ATi den Speicher bekommt, dann muss es ihn auch geben.

Tatsächlich - und ebenfalls der Nachweis, dass das Teil mit rund 48 Watt noch lange nicht überlastet ist: Die 7950 GT verbraucht etwas mehr (ein guter Teil der zusätzlichen 13 Watt dürften auf das Konto des größeren RAM gehen), wird aber deutlich leiser gekühlt.

http://www.xbitlabs.com/articles/video/display/geforce7950gt_3.html

Und die 7950GT hat den gleichen Kühler wie die 7900GT? Okay dann nehme ich das zurück.

Gast
2007-03-11, 13:43:33
Es wäre toll, wenn du nicht irgendwelche Dinge aus dem Zusammenhang reißen würdest. Es ging um die Verfügbarkeit, und da ist es scheißegal, welcher Hersteller auf was setzt. Wenn ATi den Speicher bekommt, dann muss es ihn auch geben.

Einerseits ja, andererseits war Ati ja federführend bei der Entwicklung dieses Standards mit der JEDEC zusammen. Könnte sein, dass man sich damit erstmal einen exklusiven Deal oder zumindest bessere Preise seitens Samsungs "erkauft" hat, sodass GDDR4 für Ati wirtschaftlich nutzbar, für Nvidia aber noch ein Zuschussgeschäft ist.

Gast
2007-03-11, 13:58:45
Wenn ATi den Speicher bekommt, dann muss es ihn auch geben.


Es ist ein Unterschied zwischen "muss es ihn auch geben" und "Marktabdeckung". Die Karten werden in den Marktbereichen positioniert, wo die Nachfrage deutlich höher ist. Es ist wirtschaftlich fatal, die Nachfrage mit dem Angebot nicht abdecken zu können!

laser114
2007-03-11, 14:36:08
Am interessantesten finde ich ja immer die Informationen die in den Artikeln stehen.

Da haben wir bei einer 8600 GTS ein 128bit-Speicherinterface mit 1000 MHz GDDR3-Speicher (2000 MHz effektiv).
Von den kleineren Interfaces will sich nvidia wohl nicht lösen und trägt mit richtig schnellem Speicher dagegen (das wären ja 256bit mit 500 MHz, da ist diese Variante wohl günstiger...)
Aber mit 675 MHz GPU-Speed zeigt die Karte wohl auch, das mit G8x mehr möglich ist - ein Hinweis auf die 8800 Ultra?

LovesuckZ
2007-03-11, 14:41:22
Die 8600GTS wird in einem kleineren Fertigungsprozeß mit einer deutlich geringerem Transistorzahl hergestellt. Es ist daher normal, dass die Karte sich höher takten lässt.
Wegen Speicherbandbreite muss man betrachten, dass ein breitere Interface den Core weiter aufbläht und die Platine teurer wird. Somit erhöhen sich die Kosten. Speicher dagegen wird bei der Abnahme in Massen billiger und es läst sich vom Kostenpunkt flexibler handhaben.

laser114
2007-03-11, 14:43:37
Die 8600GTS wird in einem kleineren Fertigungsprozeß mit einer deutlich geringerem Transistorzahl hergestellt. Es ist daher normal, dass die Karte sich höher takten lässt.

Allerdings auch in weit größeren Massen als die 8800 Ultra, die Chips kann man ja selektieren. Mit dem Fertigungsprozess hast du allerdings Recht, das hab ich eben nicht beachtet. ;)

LovesuckZ
2007-03-11, 14:50:17
Allerdings auch in weit größeren Massen als die 8800 Ultra, die Chips kann man ja selektieren. Mit dem Fertigungsprozess hast du allerdings Recht, das hab ich eben nicht beachtet. ;)

Selektierung ist klar.
Aber so stark wie beim G70 (430 zu 550MHz) wird es diesmal nicht sein.

Endorphine
2007-03-11, 14:53:15
Ich habe Recht behalten. 3 Lüftungsschlitze in der 8600GTS. X-D

Und auch 512 MB Versionen scheinbar mit vollem Takt der 256er. *freu*

http://www.ocworkbench.com/2007/nvidia/8600gts/8600GTS-2%20copy.jpg

laser114
2007-03-11, 14:53:33
Aber so stark wie beim G70 (430 zu 550MHz) wird es diesmal nicht sein.

Was macht dich da so sicher?

LovesuckZ
2007-03-11, 14:57:44
Was macht dich da so sicher?

Die übertakteten Karten der Hersteller.
Beim G70 gab es welche, die mit 490MHz Coretakt liefen. Heute kommen die meisten mit 620Mhz. Die Karte ist für den Prozeß sehr groß und die Vorgängergeneration hat gezeigt, dass bei ca. 700-720MHz mit moderater Spannung schluss ist.
Eine Ultra sähe wohl so aus: 650C/1500Sh/1200(2400)SP/1536Mib, sowie einen neuen Treiber, der bis zu 20% Mehrleistung bringt.

Endorphine
2007-03-11, 14:59:37
Ob wohl die GTS eine 7900 GTX oder X1950XTX einholen kann? Wenn nicht sofort wird sie in Zukunft noch von der G8x-Treiberentwicklung profitieren, welche noch ganz am Anfang steht. Und DX10-Beschleunigungsrenderpfade sind DX9-Karten verschlossen, aber mit der 8600GTS nutzbar.

Es kann werden wie bei 6600GT vs. 9800/Pro: anfangs gleichauf, mittlerweile ist die 6600 ohne GT in Schlagweite zur 9800/Pro.

nordic_pegasus
2007-03-11, 16:12:41
Ich habe Recht behalten. 3 Lüftungsschlitze in der 8600GTS. X-D

Und auch 512 MB Versionen scheinbar mit vollem Takt der 256er. *freu*

http://www.ocworkbench.com/2007/nvidia/8600gts/8600GTS-2%20copy.jpg

wenn ich schon wieder diesen kleinen Lüfter samt 1-Slot Lösung sehe... omg. Dazu noch das 128bit SI, dafür aber so teuren 1GHz RAM. Ich kann wirklich nur hoffen, dass die Leistung über 7900GTX Niveau liegt.

Coda
2007-03-11, 16:21:17
Anscheinend ist der "so teure" 1Ghz-RAM mal wieder billiger als ein 256-Bit-Chip samt PCB ;)

Gast
2007-03-11, 16:25:51
Was soll an GDDR4 bitte faul sein? ATi verwendet ihn auf der X1950XTX schon ziemlich lange. Und ob OCW hier mehr als nur Halbwissen weitergibt, wird sich ja bald zeigen, denn mit einem Ghz ist GDDR3 endgültig am Ende.


Nunja, daers bisher auf einer mässig verkauften HighEnd-Karte verbaut, ist nicht unbedingt das beste Anhaltszeichen wie gut es um GDDR4 steht.

Die 8800GTS/GTX ohne GDDR4, Gerüchte um Probleme mit dem GDDR4-PCB des R600, R600XT wahrscheinlich nur mit hoch getaktetem GDDR3 und eine 8600GTS mit 1GHz GDDR3, lassen imo Verdacht aufkommen, dass es um den Preis oder die Verfügbarkeit von GDDR4 wohl noch eher schlecht aussieht.

AnarchX
2007-03-11, 16:26:58
^ Login vergessen

Nunja, das er bisher auf einer mässig verkauften HighEnd-Karte verbaut, ist nicht unbedingt das beste Anhaltszeichen wie gut es um GDDR4 steht.

Die 8800GTS/GTX ohne GDDR4, Gerüchte um Probleme mit dem GDDR4-PCB des R600, R600XT wahrscheinlich nur mit hoch getaktetem GDDR3 und eine 8600GTS mit 1GHz GDDR3, lassen imo Verdacht aufkommen, dass es um den Preis oder die Verfügbarkeit von GDDR4 wohl noch eher schlecht aussieht.

Eine G7900GTX in einigen Games vielleicht. Eine X1950XTX wohl kaum. Und bei hohen Auflösungen + viel AA wird das SI der GTS eh bremsen.

Dafür ist eine Midrange-Karte ja auch nicht unbedingt gedacht, aber in 1280x1024 mit 4xAA könnte die 8600GTS mit 4 Cluster einer X1950XTX schon mehr als gefährlich werden.

Godmode
2007-03-11, 16:45:55
wenn ich schon wieder diesen kleinen Lüfter samt 1-Slot Lösung sehe... omg. Dazu noch das 128bit SI, dafür aber so teuren 1GHz RAM. Ich kann wirklich nur hoffen, dass die Leistung über 7900GTX Niveau liegt.

Schau auf die Kabel die zum Lüfter führen! Das sind 4-polige und das bedeutet wohl, dass der Lüfter regelbar ist.

dargo
2007-03-11, 16:58:40
Dafür ist eine Midrange-Karte ja auch nicht unbedingt gedacht, aber in 1280x1024 mit 4xAA könnte die 8600GTS mit 4 Cluster einer X1950XTX schon mehr als gefährlich werden.
Das glaube ich nicht, zumindest nicht in graka-limitierten Szenen. Die G8600GTS hat nur halb so viel Bandbreite wie die X1950XTX.

reunion
2007-03-11, 17:05:16
Halbiere auf einer X1950XTX die Bandbreite, und du wirst sehen, dass die Leistung nur sehr gering einbricht. Die Karte hat Bandbreite im Überschuss. Sollte die Karte wirklich ein halber G80 sein, dann sollte sie speziell mit den hohen Taktraten durchaus mit einem R580 konkurrieren können, bei 1/3 natürlich nicht.

Nunja, das er bisher auf einer mässig verkauften HighEnd-Karte verbaut, ist nicht unbedingt das beste Anhaltszeichen wie gut es um GDDR4 steht.

Die 8800GTS/GTX ohne GDDR4, Gerüchte um Probleme mit dem GDDR4-PCB des R600, R600XT wahrscheinlich nur mit hoch getaktetem GDDR3 und eine 8600GTS mit 1GHz GDDR3, lassen imo Verdacht aufkommen, dass es um den Preis oder die Verfügbarkeit von GDDR4 wohl noch eher schlecht aussieht.


Ich sag mal so: Klarheit darüber wird man erst bekommen, wenn ATi ihre neue Generation launcht. Wenn dort massiv GDDR4 eingesetzt wird, dann hat wohl eher nV ein Problem mit der Kompatibilität, wenn nicht, dann hast du vermutlich recht.

StefanV
2007-03-11, 17:07:28
Halbiere auf einer X1950XTX die Bandbreite, und du wirst sehen, dass die Leistung nur sehr gering einbricht. Die Karte hat Bandbreite im Überschuss. Sollte die Karte wirklich ein halber G80 sein, dann sollte die Karte durchaus mit einem R580 konkurrieren können, bei 1/3 natürlich nicht.
Von X1950XT zu XTX sehe ich teilweise doch recht große Unterschiede zugunsten der X1950XT...

Bandbreite wird also schon gebraucht, Überschuss sehe ich nirgends :|

reunion
2007-03-11, 17:09:08
Von X1950XT zu XTX sehe ich teilweise doch recht große Unterschiede zugunsten der X1950XT...

Bandbreite wird also schon gebraucht, Überschuss sehe ich nirgends :|

Mit gleichen Treiber?
Beim Launch wurde hier die Differenz durch neue Treiber stark verzerrt.
Ich habe das jedenfalls bei einem Freund von mir getestet, und die Einbrüche waren erstaunlich human.

dargo
2007-03-11, 17:15:10
Halbiere auf einer X1950XTX die Bandbreite, und du wirst sehen, dass die Leistung nur sehr gering einbricht. Die Karte hat Bandbreite im Überschuss. Sollte die Karte wirklich ein halber G80 sein, dann sollte sie speziell mit den hohen Taktraten durchaus mit einem R580 konkurrieren können, bei 1/3 natürlich nicht.

Ich habe leider keine X1950XTX, dafür aber eine X1900XT 512MB.

Call of Duty 2 in 1280x1024, max. Details, 4xAA/Anisotop Ingame (D-Day Timedemo):

23,04GB/s (360Mhz Speichertakt) = 32,8fps
46,08GB/s (720Mhz Speichertakt) = 48,8fps

Knappe 50% Vorsprung für die 46,08GB/s. Ich werde nochmal mit 500Mhz Speichertakt testen. Dann sehen wir ja wie sich das bei 32GB/s verhält. Dann wissen wir aber immer noch nicht wie schnell die Rohleistung der G8600GTS ist.

reunion
2007-03-11, 17:24:03
Ich muss zugeben, dass ist erstaunlich viel. Ich habe trotz 1920 x 1200 und 6x AA nie einen Unterschied >20% feststellen können, allerdings habe ich CoD2 auch nicht getestet. Wobei das Füllrate-/Bandbreitenverhältnis bei der XT schon deutlich anders aussieht wie bei der XTX.

dargo
2007-03-11, 18:10:45
Hier nochmal zur Übersicht:

Call of Duty 2 in 1280x1024, max. Details, 4xAA/Anisotop Ingame (D-Day Timedemo):

23,04GB/s (360Mhz Speichertakt) = 32,8fps
32,26GB/s (504Mhz Speichertakt) = 40,6fps
46,08GB/s (720Mhz Speichertakt) = 48,8fps
48,38GB/s (756Mhz Speichertakt) = 49,4fps

Man sieht also, dass die X1900XT 512MB, was die Bandbreite angeht ziemlich gut ausgewogen ist. Bei 5% Erhöhung der Bandbreite (720 vs. 756Mhz) kommen nur noch 1,2% an. Wenn man das betrachtet sind die 1000Mhz Speichertakt der X1950XTX völlig überflüßig, auch wenn die Karte bei der GPU um ~5% höher getaktet ist.
Jetzt hängt alles davon ab wie gut die Rohleistung der G8600GTS ist ob die Karte an die X1950XTX rankommt oder nicht. Hier sollte man natürlich beachten, dass CoD2 ein Game von Vielen ist. Das kann in anderen Games wieder ganz anders aussehen.

Gast
2007-03-11, 18:22:24
War CoD2 nicht auch eines der wenigen Spiele, das auf die 256-MByte-Version der X1900 ziemlich allergisch reagierte, selbst wenn nicht mit "extra"-Texturen sondern nur mit "hoch" getestet wurde?

dargo
2007-03-11, 18:38:14
War CoD2 nicht auch eines der wenigen Spiele, das auf die 256-MByte-Version der X1900 ziemlich allergisch reagierte, selbst wenn nicht mit "extra"-Texturen sondern nur mit "hoch" getestet wurde?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=352877

Gast
2007-03-11, 18:47:02
joa, hab aber auch nur eine 512er....

btw:
Unterschied X1800 XT:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2
Bis zu 72% (ist aber wohl mit einem späteren Treiber etwas gefixt worden)

X1900 XT:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xt_256_mb/9/#abschnitt_call_of_duty_2

Byteschlumpf
2007-03-11, 18:51:38
Ich kann sagen, dass CoD2 mit meiner X1950XT 256MB bei 1280x1024@max AA+AF extrem lahmig ist!

Manche Maps sind damit komplett unspielbar. :(

Gast
2007-03-11, 20:02:23
Ich kann sagen, dass CoD2 mit meiner X1950XT 256MB bei 1280x1024@max AA+AF extrem lahmig ist!

Manche Maps sind damit komplett unspielbar. :(

Bei mir das selbe 4x ingameAA und an manchen Abschnitten teilweise unspielbar ob das aber jetzt tatsächlich am Ram liegt keine Ahnung?

und zwar mit ner X1900 XT 256 MB und Core 2 Duo @ 2,1ghz

Gast
2007-03-11, 20:04:19
Topic?

dargo
2007-03-11, 20:24:19
Bei mir das selbe 4x ingameAA und an manchen Abschnitten teilweise unspielbar ob das aber jetzt tatsächlich am Ram liegt keine Ahnung?

und zwar mit ner X1900 XT 256 MB und Core 2 Duo @ 2,1ghz
Die Lösung steht hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=352877

Aber bitte auch diesen Thread bei Problemen mit CoD2 nicht "missbrauchen". Bei Problemen mit CoD2 hier posten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=248317&page=36&highlight=call+of+duty

AnarchX
2007-03-12, 17:22:22
[GeForce 8500 GT Outperforms 7600 GS]
[...]
GeForce 8500GT is based on 80nm TSMC process and has 128-bit memory interface. It seems that the rest of the G86 family will be 128-bit as well so it will pose a great threat to ATi RV610 which has only 64-bit memory interface. GeForce 8500GT will be clocked at 450MHz core and has 256MB DDR2 memory clocked at 400MHz (800MHz).

We have some preliminary scores for you at this point of time where its performance is slightly better than the current GeForce 7600 GS series. Its 3DMark06 scores (1280x1024) stood at 22xx and 3DMark05 (1024x768) scores stood at around 42xx on a Core 2 Duo X6800 processor. Its DX10 performance is yet to be seen. 8500GT will be priced between US$79 to US$99.
http://www.vr-zone.com/index.php?i=4762

reunion
2007-03-12, 20:50:35
Basiert die 8500GT auf dem selben Core wie die 8600-Serie?

laser114
2007-03-12, 20:55:21
Basiert die 8500GT auf dem selben Core wie die 8600-Serie?

Laut dem Artikel von AnarchX nicht (da ist es der G86 zusammen mit der 8400 GS und 8300 GS), da gab es aber auch schon mal andere Gerüchte.
Die Namensgebung impliziert ja auch einen höheren Leistungssprung zwischen 8500 GT und 8400 GS als zwischen 8600 GT und 8500 GT, aber die Marketingabteilung denkt wahrscheinlich sowieso wieder anders.

AnarchX
2007-03-12, 21:04:33
Ingesamt ist die Informationlage zur 8500GT etwas verwirrend:
VR-Zone berichtete das sie die einzige G86-basierende Karte sei, die das 128Bit SI nutzt.
Dazu passte auch eine Meldung von INQ, dass die 8500GT doch auf einem kastrierten G84 basieren soll.
Jetzt aber meldet VR-Zone, das wohl alle G86 Modelle auf ein 128Bit SI setzen.
:|

Da heißt es wohl abwarten...

Aber die Namensgebung finde ich durchaus durchdacht: während die 7300GT mit ihrem Namen sich nicht wirklich von der 7300GS abhebt, obwohl sie deutlich schneller war, hat man dies nun mit der x500GT Bezeichnung besser gelöst.

reunion
2007-03-12, 21:11:50
IMO basiert das Teil auf einem G84, da ich nicht glaube, dass nv beim Midragechip mit dem SI geizt, und dann beim Lowend-Core hier großzügig ist. Außerdem hat man das ja in der Vergangenheit ähnlich gelöst. Einen abgespeckten Midragcore als Flaggschiff, damit das Lowend-Produkt nicht von der Presse zerrissen wird.

AnarchX
2007-03-12, 21:20:08
IMO basiert das Teil auf einem G84, da ich nicht glaube, dass nv beim Midragechip mit dem SI geizt, und dann beim Lowend-Core hier großzügig ist.

Nur steht aber auch noch dieses Problem im Raum:
G84 ~160mm²
G86 ~120mm²

Was doch sehr an NV44(110mm²) und NV43(150mm²) erinnert, die beide ein 128Bit SI hatten.
Vielleicht dachte man, dass ATi bei dem RV610 auch auf ein 128Bit setzt, wo man sich nun vorrausichtlich verschätzt hat.
(Oder man hat sich errechnet, dass billiger GDDR2 + 128Bit doch im Endeffekt günstiger sind als ein 64Bit SI mit GDDR3/4.)

Endorphine
2007-03-12, 21:38:12
Ich denke auch, dass die Radeon 8500 auf kaputten G84 aufbaut. NV muss ja zusehen, dass sie aus den gelieferten Wafern (afaik) alles herausholen, was sich irgendwie noch zu Geld machen lässt.

Es würde mich nicht wundern, wenn nVidia einfach je nach Ausbeutesituation passend G84 oder G86 bestellt. Wenn der Yield bei G84 niedrig ist werden eben entsprechend weniger G86 gefertigt und dafür mehr kaputte G84 verkauft. Wenn sich der Yield über die Zeit bessert gibt's dann auch mal richtige G86.

deekey777
2007-03-12, 21:52:01
vr-zone (VR wie Volksrepublik?:biggrin: ) hat am Anfang berichtet, dass die 8500GT auf einem downgraded G84 basiert. Die 7300GT war 2/3-G73, ohne dass es irgendwelche Einsparungen beim SI gab.
Ob nVidia beim G86 auf ein 128-bit-SI setzt, ist weder bestätigt noch bestätigt. ;) Auch der RV610 hat ein 64-bit breites SI, in diesem Segment geht es weniger um die Performance, sondern um multimediale Eigenschaften (HDMI). Der Rest ist egal; für mehr Bandbreite kann man mit HM/TC werben. Ich würde noch etwas abwarten, vielleicht postet OCW wieder interessante Sachen (bei VR-Zone kann man bei nV-News mit hoher Sicherheit von Richtigkeit ausgehen, aber man weiß ja nie).

AnarchX
2007-03-12, 21:56:35
Da wäre ja auch noch das:
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"

Ich kann mir schwer vorstellen, dass ein kastrierter G84 sich als G86 ausgibt...

Endorphine
2007-03-12, 22:32:03
Da wäre ja auch noch das:
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"

Ich kann mir schwer vorstellen, dass ein kastrierter G84 sich als G86 ausgibt... Es ist doch vielmehr die Frage, wo die Information abgelegt ist und/oder ob das auch auf dem PCB kodiert werden kann, als was sich die Karte ausgibt. Ich würde aus Flexibilitätsgründen mal stark darauf tippen, dass irgendwo ein paar Widerstände verbaut/weggelassen werden und damit dann die Info kodiert wird.

AnarchX
2007-03-12, 22:40:47
Es ist doch vielmehr die Frage, wo die Information abgelegt ist und/oder ob das auch auf dem PCB kodiert werden kann, als was sich die Karte ausgibt. Ich würde aus Flexibilitätsgründen mal stark darauf tippen, dass irgendwo ein paar Widerstände verbaut/weggelassen werden und damit dann die Info kodiert wird.

Das glaube ich eher weniger, AFAIK kommt die Info eben direkt vom Chip der mit dem Port verbunden ist(so lautet der String bei den Karten mit HSI-Bridge NVIDIA_BR02.DEV_ ...)

Ich denke auf Grund der Informationslage, kann man doch schon sagen, dass die 8500GT ziemlich sicher auf dem G86 basieren wird(was zudem auch mehr Sinn macht bei den genannten Priesen von VR-Zone). ;)

Ailuros
2007-03-13, 05:58:53
Ich denke auch, dass die Radeon 8500 auf kaputten G84 aufbaut. NV muss ja zusehen, dass sie aus den gelieferten Wafern (afaik) alles herausholen, was sich irgendwie noch zu Geld machen lässt.

Es würde mich nicht wundern, wenn nVidia einfach je nach Ausbeutesituation passend G84 oder G86 bestellt. Wenn der Yield bei G84 niedrig ist werden eben entsprechend weniger G86 gefertigt und dafür mehr kaputte G84 verkauft. Wenn sich der Yield über die Zeit bessert gibt's dann auch mal richtige G86.

Stimmt so. 7300GT basiert auch auf G73 und nicht auf G72.

Ailuros
2007-03-13, 06:03:10
Da wäre ja auch noch das:
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"

Ich kann mir schwer vorstellen, dass ein kastrierter G84 sich als G86 ausgibt...

Anarch die chips koennten von beiden Seiten kommen. Es liegt nichts besonders merkwuerdiges dran und die Namensgebung in den Treibern spricht auf jeden Fall mal nicht dagegen.

AnarchX
2007-03-13, 10:32:10
Anarch die chips koennten von beiden Seiten kommen. Es liegt nichts besonders merkwuerdiges dran und die Namensgebung in den Treibern spricht auf jeden Fall mal nicht dagegen.

Also wie bei der GF6200 wo man erst einen NV43 einsetzte und später als der NV44 fertig war auf diesen wechselte?

Aber was wiederrum bedeuten würde, das auch G86 ein 128Bit SI haben wird.

Ailuros
2007-03-13, 13:36:17
Also wie bei der GF6200 wo man erst einen NV43 einsetzte und später als der NV44 fertig war auf diesen wechselte?

Aber was wiederrum bedeuten würde, das auch G86 ein 128Bit SI haben wird.

128/64bit je nach Modell.

AnarchX
2007-03-13, 13:55:16
128/64bit je nach Modell.

Das ist ja klar, dass man um zu sparen auch noch ein paar "2D"-Karten bringen wird mit 64Bit.
Aber es ging ja eher darum, dass es Zweifel gab, dass der G86 ein internes 128Bit SI hat.

LovesuckZ
2007-03-13, 16:47:12
Not sure if this was mentioned yet, but G84 GT will consume about 55W. Not sure about G84 GTX, but it should be a bit higher

http://forum.beyond3d.com/showpost.php?p=946271&postcount=54

deekey777
2007-03-13, 17:18:06
Also wie bei der GF6200 wo man erst einen NV43 einsetzte und später als der NV44 fertig war auf diesen wechselte?

Wenn mich nicht alles täuscht, war die 6200 mit dem NV43 der Version mit dem NV44 nicht nur teschnologisch überlegen.

Gast
2007-03-13, 23:18:24
2vs4 rops und 64bit SI vs 128bit

AnarchX
2007-03-14, 10:42:56
NVIDIA GeForce 8600-Series Details Unveiled (http://www.dailytech.com/article.aspx?newsid=6477)

Die 71W TDP(?) hören sich ja gut an für die 8600GTS.

Endorphine
2007-03-14, 11:28:52
NVIDIA GeForce 8600-Series Details Unveiled (http://www.dailytech.com/article.aspx?newsid=6477)

Die 71W TDP hören sich ja gut an für die 8600GTS. Hoffentlich ist der 2D/3D-low-power Betrieb wesentlich sparsamer...

AnarchX
2007-03-14, 11:33:01
Hoffentlich ist der 2D/3D-low-power Betrieb wesentlich sparsamer...

Da man ihn im Notebook einsetzen will -> G86-M, denke ich das man davon ausgehen kann.

Gast
2007-03-14, 11:39:42
NVIDIA GeForce 8600-Series Details Unveiled (http://www.dailytech.com/article.aspx?newsid=6477)

Die 71W TDP hören sich ja gut an für die 8600GTS.


Da steht aber nirgends was von TDP, nur die mittlere Leistungsaufnahme. Die TDP sollte sich also mindestens um die 90 Watt bewegen.

deekey777
2007-03-14, 11:44:53
Da steht aber nirgends was von TDP, nur die mittlere Leistungsaufnahme. Die TDP sollte sich also mindestens um die 90 Watt bewegen.
Guter Einwand.:)

AnarchX
2007-03-14, 11:47:34
Da steht aber nirgends was von TDP, nur die mittlere Leistungsaufnahme. Die TDP sollte sich also mindestens um die 90 Watt bewegen.

Naja, das wird nicht ganz klar im Text:
NVIDIA estimates total board power consumption at around 71-watts.
NVIDIA rates the maximum board power consumption at 43-watts – 28-watts less than the 8600GTS.


Aber der Kühler der GTS sieht mir nicht unbedingt nach einer TDP von 90W aus.

dargo
2007-03-14, 11:59:46
Da steht aber nirgends was von TDP, nur die mittlere Leistungsaufnahme. Die TDP sollte sich also mindestens um die 90 Watt bewegen.
Wenn die Angaben von NV kommen kann man auch davon ausgehen, dass es sich um die TDP Angabe handelt.

deekey777
2007-03-14, 12:07:01
Schaue einfach auf den Standardkühler der X1900GT (egal ob Rev. 1 oder 2): Sieht er so aus, ob er mit dem R580 fertig werden kann? Nein. Tut er auch, er ist eindeutig überfordert und der Grafikchip wird unnötig warm: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/25/
Worauf ich hinaus will: Nur auf den Lüfter zu schauen, reicht nicht, man muss seine Effizienz kennen (gute Kühlung, aber höllisch laut? schlechte Kühlung, aber angenehm leise? angemessene Kühlung und angemessene Lautstärke?).
Meiner Meinung nach ist die Lüfterkonstruktion der 8600GTS für TDP 90 stark genug.
Wenn die Angaben von NV kommen kann man auch davon ausgehen, dass es sich um die TDP Angabe handelt.
Eher nicht. Als XBit ihre Verbrauchsmessungen gemacht haben, haben sie sich bei NV erkundigt, was die 8800GTX verbraucht. Die Antwort war:
http://www.xbitlabs.com/articles/video/display/gf8800_11.html
According to Nvidia, the GeForce 8800 GTX doesn’t show anything extraordinary in terms of power consumption. Its power draw of 145.5W under max load is quite an expectable value for a 0.09-micron chip consisting of 681 million transistors most of which are clocked at 1.35GHz. There’s no reason to worry. As we’ve found out, the cooling system employed by Nvidia copes with that load quite successfully and with little noise.
Man würde sich ins Bein schießen, wenn man bei einer Verbrauchsmessung die TDP angibt.
Auch hier tippe ich, dass es um reele Angaben handelt. Insbesondere weil in den Gerüchten zu RV610/RV630 die TDP-Angaben zu finden sind.

AnarchX
2007-03-14, 12:29:34
[GeForce 8600 GTS & GT; Plain Outside But Lethal Inside] (http://www.vr-zone.com/index.php?i=4775)
[...]
As promised, we will provide you some glimpse on the performance of the upcoming GeForce 8600 GTS and 8600 GT graphics cards. On a Core 2 Extreme X6800 processor, GeForce 8600 GTS scored a pretty impressive 5,7xx pts in 3DMark06 which is slightly faster than the 7950GT while 8600 GT churned out 4,7xx pts in 3DMark06 overshadowing a 7900GS. It seems that a 128-bit memory interface is not stopping 8600 series from churning out some nice performance.

Jetzt noch etwas Arbeit an den Treibern und die Karten sind ein guter Ersatz für Last-Gen-HighEnd, wenn man nicht ganz so hohe Ansprüche an Auflösung und AA hat.

Laut VR-Zone handelt es sich bei den 71 und 43W um die TDP.

dargo
2007-03-14, 12:35:20
Eher nicht. Als XBit ihre Verbrauchsmessungen gemacht haben, haben sie sich bei NV erkundigt, was die 8800GTX verbraucht. Die Antwort war:
http://www.xbitlabs.com/articles/video/display/gf8800_11.html

Das was xbit da angegeben hat sieht mir eher nach dem realen Verbrauch an.
Die TDP einer G8800GTS liegt bei 147W und der G8800GTX bei 177W.
http://xtreview.com/translate/de/?/review159.htm

Edit:
Hier das Original:
http://xtreview.com/review159.htm

Gast
2007-03-14, 12:35:33
Natürlich handelt es sich bei den Angaben um die TDP.
Was ist denn an "the maximum board power consumption" nicht zu verstehen?

deekey777
2007-03-14, 12:43:26
Das was xbit da angegeben hat sieht mir eher nach dem realen Verbrauch an.
Die TDP einer G8800GTS liegt bei 147W und der G8800GTX bei 177W.
http://xtreview.com/translate/de/?/review159.htm
Es ist auch der reale Verbrauch der 8800GTX. Auch die Angaben von heute klingen nach dem realen Verbrauch und nicht nach dem TDP.

Gast um 12:35:33:

Was ist an dem Buchstaben T in TDP nicht zu verstehen? Oder auch an den restlichen beiden Buchstaben D und P?
Der reale maximale Verbrauch und TDP sind zwei verschiedene Sachen, bei TDP geht es um den Wert, für den die Kühlung ausgelegt werden muss, dieser muss nicht dem realen Verbrauch entsprechen.

Gast
2007-03-14, 12:53:55
Richtig, die TDP kann unter dem maximalen Wert des Verbrauchs liegen, aber nicht darüber.
Also wenn 71W der maximale Verbrauch ist, dann dürfte die TDP bei etwa 60W liegen.

dargo
2007-03-14, 12:55:10
Richtig, die TDP kann unter dem maximalen Wert des Verbrauchs liegen, aber nicht darüber.
Also wenn 71W der maximale Verbrauch ist, dann dürfte die TDP bei etwa 60W liegen.
Ich glaube du verwechselst gerade etwas. :tongue:

Gast
2007-03-14, 12:58:59
Nein, tue ich nicht, aber kläre mich doch bitte auf, was du glaubst, dass ich verwechsele.

dargo
2007-03-14, 13:02:40
Nein, tue ich nicht, aber kläre mich doch bitte auf, was du glaubst, dass ich verwechsele.
Ich habe noch nie gesehen, dass die TDP kleiner war als der maximale gemessene Verbrauch. Wenn doch, bitte ich um Quelle.

deekey777
2007-03-14, 13:03:17
Nein, tue ich nicht, aber kläre mich doch bitte auf, was du glaubst, dass ich verwechsele.
Nicht du. :smile:
Ich habe so ungutes Gefühl, dass VR-Zone und Anandtech die Infos nicht richtig weitergeben und zw. TDP und dem realen Verbrauch (the maximum board power consumption) nicht unterscheiden.

Gast
2007-03-14, 13:06:34
Ich habe noch nie gesehen, dass die TDP kleiner war als der maximale gemessene Verbrauch. Wenn doch, bitte ich um Quelle.


Der maximale Verbrauch wird immer nur sehr kurzzeitig erreicht (Lastspitzen), die TDP orientiert sich am mittleren Verbrauch unter Vollast, sie liegt also tiefer.

dargo
2007-03-14, 13:07:52
Ich habe so ungutes Gefühl, dass VR-Zone und Anandtech die Infos nicht richtig weitergeben und zw. TDP und dem realen Verbrauch (the maximum board power consumption) nicht unterscheiden.
Eben.

TDP = Thermal Design Power

Was die anderen unter "the maximum Board Power Consumtion" verstehen kann ich nicht sagen. Höchstwahrscheinlich eine gemessene Verlustleistung.

deekey777
2007-03-14, 13:11:02
Der maximale Verbrauch wird immer nur sehr kurzzeitig erreicht (Lastspitzen), die TDP orientiert sich am mittleren Verbrauch unter Vollast, sie liegt also tiefer.
http://en.wikipedia.org/wiki/Thermal_Design_Power
The Thermal Design Power (TDP) (sometimes called Thermal Design Point) represents the maximum amount of power the thermal solution in a computer system is required to dissipate.
Die TDP orientiert sich an der maximalen Wärmeabgabe.

Gast
2007-03-14, 13:35:20
maximale Wärmeabgabe = maximale mittlere Verlustleistung.

deekey777
2007-03-14, 13:39:37
maximale Wärmeabgabe = maximale mittlere Verlustleistung.
Maximale mittlere Verlustleistung gibt es nicht. Das geht irgendwie nicht. :wink:

Gast
2007-03-14, 13:49:41
http://en.wikipedia.org/wiki/Thermal_Design_Power

Die TDP orientiert sich an der maximalen Wärmeabgabe.
Wenn ich das jetzt richtig aus den Artikeln verstanden habe, bedeutet TDP die maximale Verlustleistung die in der Praxis durch echte Anwendungen erzeugt werden kann, die technisch maximal mögliche kann allerdings noch höher liegen. Desweiteren wird TDP von Herstellern verschieden interpretiert. Bei AMD ist TDP der technisch maximal höchstmögliche Verbrauch, es gibt unter keinen Umständen einen höheren. Bei Intel ist es so wie oben beschrieben. Also könnte ein C2D der ungefähr 65 W TDP hat mit Programmen wie Thermal Analysis Tool über die TDP gehen und vielleicht so 70 W ziehen. Ich glaube, dass NV die TDP so wie AMD definiert, denn ihre 8800 GTX ist mit ca. 185 TDP spezifziert, während der Praxisverbrauch bei ca. 150 W liegt. Wie es bei ATi aussieht weiß ich allerdings nicht.

Gast
2007-03-14, 14:52:43
TDP ist worst Case Scenario mit Reserven, das System muss der Graka bzw. der CPU diese Leistung zur Verfügung stellen können sonst schmiert das System ab. Gleichzeitig definiert es auch was an Wärmeleistung abgeführt werden muss, oder?

Gast
2007-03-14, 15:50:36
Maximale mittlere Verlustleistung gibt es nicht. Das geht irgendwie nicht. :wink:

Aber natürlich geht das. Da die maximale Leistungsaufnahme immer nur ein kurzzeitiger Peak-Wert ist, wird eben über eine längeren Zeitraum gemittelt, was die maximale Leistungsaufnahme ist. Und das wird dann als TDP genommen.

Gast
2007-03-14, 15:52:34
TDP ist worst Case Scenario


Ja, aber gemittelt, den absoluten Peak-Verbrauch braucht man nicht bei der TDP zu berücksichtigen.

Relic
2007-03-14, 15:59:17
Aber natürlich geht das. Da die maximale Leistungsaufnahme immer nur ein kurzzeitiger Peak-Wert ist, wird eben über eine längeren Zeitraum gemittelt, was die maximale Leistungsaufnahme ist. Und das wird dann als TDP genommen.

Nein eben nicht, denn auch in den Peakzeiten muss die Karte mit Strom versorgt werden und dann kann man die TDP nicht niedriger ansetzen.
Beispiel: Karte verbraucht meistens knapp unter 75W aber in seltenen Aunahmefällen auch mal an die 80. Also muss das TDP 80W gewählt werden und somit ist ein zusätzlicher Stromstecker auf das Board. Wenn man das TDP auf deine "mittlere maximale Leistungsaufnahme" festlegen würde, bräuchte man keinen zusätzlichen Stromanschluss und in Peakzeiten würde die Karte mehr ziehen, als PCI-E hergibt und im Extremfall abstürzen.

Gast
2007-03-14, 16:12:21
Nein eben nicht, denn auch in den Peakzeiten muss die Karte mit Strom versorgt werden und dann kann man die TDP nicht niedriger ansetzen.
Beispiel: Karte verbraucht meistens knapp unter 75W aber in seltenen Aunahmefällen auch mal an die 80. Also muss das TDP 80W gewählt werden und somit ist ein zusätzlicher Stromstecker auf das Board. Wenn man das TDP auf deine "mittlere maximale Leistungsaufnahme" festlegen würde, bräuchte man keinen zusätzlichen Stromanschluss und in Peakzeiten würde die Karte mehr ziehen, als PCI-E hergibt und im Extremfall abstürzen.
Ist das der Grund, warum die GTS mit einem Stecker mehr Kondensatoren als die GTX hat? Die kann ja maximal nur 150 W zusammen über PCIe und den Stecker aufnehmen, der Bedarf könnte aber für Bruchteile von Sekunden höher liegen, so dass die Kondensatoren als Puffer dienen.

Gast
2007-03-14, 16:17:24
Nein eben nicht, denn auch in den Peakzeiten muss die Karte mit Strom versorgt werden und dann kann man die TDP nicht niedriger ansetzen.


Nur hat die TDP mit dem Stromverbrauch gar nichts zu tun.

Gast
2007-03-14, 16:25:15
Ja, aber gemittelt, den absoluten Peak-Verbrauch braucht man nicht bei der TDP zu berücksichtigen.

der interessiert auch niemanden, nicht mal das netzteil, denn diese peaks die für sekundenbruchteile anliegen werden von den kondensatoren gepuffert.

Endorphine
2007-03-14, 19:33:07
Ist das der Grund, warum die GTS mit einem Stecker mehr Kondensatoren als die GTX hat? Die kann ja maximal nur 150 W zusammen über PCIe und den Stecker aufnehmen, der Bedarf könnte aber für Bruchteile von Sekunden höher liegen, so dass die Kondensatoren als Puffer dienen. Die Kondensatoren brauchst du für Spannungsregler. Weder die GPU, noch der Speicher laufen mit 3,3, 5 oder gar 12 Volt. Und je mehr der/die Spannungsregler belastet werden, desto aufwändiger sind die Schaltungen. Man kann z. B. mehrere Spannungsregler parallel betreiben oder eben aufwändigere Schaltungen verwenden, um die Verlustleistung im Spannungsregler nicht in ungemütliche Bereiche ansteigen zu lassen.

Ganz so einfach ist analoge E-Technik (leider) nicht. ;)

laser114
2007-03-14, 19:48:59
MSI zeigt "DirectX10 ready" Grafikkarten auf der Cebit (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_geforce_8600_msi/)
(vermutlich G84 und 86)

AnarchX
2007-03-14, 19:49:48
Auf der CeBIT werden schon ein paar 8600er-Karten ausgestellt und zudem eine bisher nicht identifizierte passive D3D10-NV-Karte:
GeForce 8600 gesichtet (http://www.k-hardware.de/news.php?s=c&news_id=6389)
Auf unserem ersten Rundgang in den Messehallen in Hannover haben wir bereits unseren ersten Fund gemacht. Als "DX10 Graphics Card" getarnt zeigt MSI die kommenden GeForce 8600 Modelle von NVIDIA. Bei anderen Herstellern waren die neuen Karten (noch) nicht zu sehen.[...]

edit: Da ist mir wohl jemand zu vor gekommen...

Interessant auch das MSI wohl auf eigene Kühlerlösungen setzt.

Godmode
2007-03-14, 19:56:08
Täusche ich mich oder hat der G84 einen Dualslotkühler?

CB|Wolfgang
2007-03-14, 19:59:33
Nein, die 8600er hat einen Single-Slot-Kühler

Nakai
2007-03-14, 20:06:20
Nein Dualslot.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_geforce_8600_msi/

Das ist wohl so ein halber Dualslotkühler...;D

mfg Nakai

AnarchX
2007-03-14, 20:08:02
Das Referenz-Design (http://www.ocworkbench.com/2007/nvidia/8600gts/8600GTS-2%20copy.jpg) ist jedenfall Single-Slot.

dargo
2007-03-14, 23:27:34
Ist das der Grund, warum die GTS mit einem Stecker mehr Kondensatoren als die GTX hat? Die kann ja maximal nur 150 W zusammen über PCIe und den Stecker aufnehmen, der Bedarf könnte aber für Bruchteile von Sekunden höher liegen, so dass die Kondensatoren als Puffer dienen.
Ist mir zwar noch nicht aufgefallen, oder besser gesagt habe nie drauf geachtet. Aber sind diese Elkos gleich gross dimensioniert wie bei der GTX?
Außerdem liegt die TDP der GTS bei 147W, also unter den 150W wofür zwei PCIe Stromstecker nötig wären.

AnarchX
2007-03-15, 19:38:07
G86-M ist auch auf der CeBIT vertreten:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F180%2F180986.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

LovesuckZ
2007-03-15, 21:52:05
TheInq hat neue Bilder:
http://uk.theinquirer.net/?article=38258

/edit: Die 8600GTS sieht klasse aus. Kein vergleich mit dem Monstrum von AMD, wenn es wirklich ein RV630 gewesen sein sollte.

AnarchX
2007-03-15, 21:56:35
Vom Aussehen gibt es imo langsam genug, jetzt sollte man sich mal auf die inneren Werte konzetrieren

laser114
2007-03-15, 21:59:42
Würde es nur ums aussehen gehen, würde mir die RV630XT sogar besser gefallen.
Wobei man sicherlich am Stromverbrauch was erkennt.
Man müsste natürlich noch einen Leistungsvergleich anstellen... aber die Karten sollen ja wahrscheinlich konkurrieren.

deekey777
2007-03-15, 22:01:54
Einerseits gibt's von MSIs 7600GT mehrere Versionen: Standardkühler, fetter Doppelslotkühler, dann die passive Variante. Auch hier wäre es denkbar, dass MSI sich von der Masse abheben will.
Andererseits gab es mal Gerüchte, dass die 8600GTS mit 700 MHz kommt, und jetzt sind 675 MHz bestätigt. Bevor es keine Aussagen über die tatsächliche Leistung/Effizienz des Kühlers und die Wärmeabgabe des G84 gibt, sollte man doch etwas zurückhaltender sein, wenn man Vergleiche zur Konkurrenz macht.

Anarchy-HWLUXX
2007-03-16, 02:00:04
Einerseits gibt's von MSIs 7600GT mehrere Versionen: Standardkühler, fetter Doppelslotkühler, dann die passive Variante. Auch hier wäre es denkbar, dass MSI sich von der Masse abheben will.

MSI macht immer sein eigenes Ding bei den GraKas ... immerhin haben se die Fabriken um alles selber Herzustellen (Highest End Produkte ausgenommen, da lohnt es nicht)

nordic_pegasus
2007-03-16, 08:48:37
TheInq hat neue Bilder:
http://uk.theinquirer.net/?article=38258

/edit: Die 8600GTS sieht klasse aus. Kein vergleich mit dem Monstrum von AMD, wenn es wirklich ein RV630 gewesen sein sollte.

ein fetter Kühler à la 7900GTX wäre mir zig mal lieber als diese flache Flunder samt Mini-Propeller. Selbst wenn das AMD Pendant mehr Leistung verbraucht, der grosse Referenz-Kühler dürfte trotzdem leiser sein.

Anarchy-HWLUXX
2007-03-16, 10:09:05
ein fetter Kühler à la 7900GTX wäre mir zig mal lieber als diese flache Flunder samt Mini-Propeller. Selbst wenn das AMD Pendant mehr Leistung verbraucht, der grosse Referenz-Kühler dürfte trotzdem leiser sein.

Der kleine Kühler auf der Referenzkarte zeugt von geringer abwärme :rolleyes:

Die meisten großen Hersteller werden sicherlich eigene Kühllösungen verbauen (siehe MSI) - wo ist also das Problem ? Oder suchst nur was zum meckern ...

Gast
2007-03-16, 10:15:35
Der kleine Kühler auf der Referenzkarte zeugt von geringer abwärme :rolleyes:

Aber nicht von geringer Lautstärke, weshalb du völlig an seinem Posting vorbeigeredest hast!

Gast
2007-03-16, 11:50:56
die kühler von msi haben immerhin nen deutlich größeren lüfter als das referenzmodell
msi hatte bisher öfters deutlich leisere kühler

Anarchy-HWLUXX
2007-03-16, 12:24:58
Aber nicht von geringer Lautstärke, weshalb du völlig an seinem Posting vorbeigeredest hast!

Jetzt musst du nur noch eine Retail Karte finden die das Teil auch noch drauf hat - wird sicher nur bei den Billig Herstellern der Fall sein ...

nordic_pegasus
2007-03-16, 14:34:42
Der kleine Kühler auf der Referenzkarte zeugt von geringer abwärme :rolleyes:

Die meisten großen Hersteller werden sicherlich eigene Kühllösungen verbauen (siehe MSI) - wo ist also das Problem ? Oder suchst nur was zum meckern ...

wie der Gast schon korrekt angemerkt hatte, es geht nicht um den Verbrauch, sondern die Lautstärke.

Eine 8800GTX/GTX und 7900GTX verbrauchen auch massig Strom, aber der Referenz-Kühler erlaubt eine leise Kühlung. Da der Kühler im Design von Nvidia entwickelt wurde, sparen die Hersteller Kosten. Auch wird der Referenz-Kühler in grösseren Stückzahlen gebaut als irgendein billig Eigenprodukt von z.B. XFX. Dies sollte auch die Stückkosten senken. Somit werden alle oder zumindest sehr viele Hersteller die Referenz verwenden, weil die Konstruktion etwas besseres sicherlich nicht einfach wäre.

Als Kunde muss man dann nicht auf Tests der einzelnen Karten samt aussagekräftiger Geräuschmessung zu suchen, sondern es genügt das Lesen eines Tests des Referenz-Modells.

Deshalb würde sowohl die Hersteller als auch die Kunden davon profitieren, wenn die Referenz hochwertig, gross dimensioniert und leise ist.

Eine 8600GTS wird vom Verbrauch her im Bereich der 7900GTO/GTX sein, darum ist ein guter Kühlung auch nicht eine unnötige Entwicklung.

Darum sehe ich den Vorteil eher bei einer ATI Midrange Karte mit riesigen 2Slot Referenz-Kühler aber 100Watt+, als bei einer 75Watt Nvidia Karte mit Referenz-40mm-Propeller.

Ich wollte also nicht meckern, sondern nur mein Unverständnis über diesen Kühler verkünden ;)

Anarchy-HWLUXX
2007-03-16, 16:07:03
Eine 8600GTS wird vom Verbrauch her im Bereich der 7900GTO/GTX sein, darum ist ein guter Kühlung auch nicht eine unnötige Entwicklung.


Mit dem Kühlerchen ? Das kann nicht gehn ... wie wärs erstmal mit abwarten als hier einen auf wahrsager zu machen, oder hast du das Teil in Aktion "gehört" ?

Ne ne, immer anhand von Pics die Lautstärkre erraten wolln ...


@High-End , die Teile sind so Teuer da fallen 10€ für nen Besseren Kühler nicht auf, bei Midrange ist das untragbar.

Als Kunde muss man dann nicht auf Tests der einzelnen Karten samt aussagekräftiger Geräuschmessung zu suchen, sondern es genügt das Lesen eines Tests des Referenz-Modells.

Und wenn man dann eine Kauft mit nem anderen Kühler ist die dann plötzlich lauter ...


Bei der 7800GTX kann man ja auch nicht sehen das die leise daherkommt für ne Single Slot High-End lösung !

AnarchX
2007-03-16, 17:00:02
CeBIT : Clevo D900C Supports GeForce Go 8800 GTX SLI (http://www.vr-zone.com/index.php?i=4801)
[...]Interestingly, D900C can support NVIDIA GeForce Go 8800 graphics series in SLI on MXM-IV module. The GeForce Go 8800 series graphics comprised of 3 SKUs; GeForce Go 8800 GTX, GeForce Go 8800 GTS and GeForce Go 8800 GS. Cleovo M750RU is able to support Core 2 Duo and Core 2 Extreme processors like X7800 and X7900 and also single GeForce Go 8800 graphics on MXM-IV module.[...]


Da ich mir nicht vorstellen kann, dass man einen bzw. zwei(:| ) aktuellen G80 in ein NB pflanzt, klingt das doch sehr nach einem Refresh.

Gast
2007-03-16, 17:11:45
CeBIT : Clevo D900C Supports GeForce Go 8800 GTX SLI (http://www.vr-zone.com/index.php?i=4801)



Da ich mir nicht vorstellen kann, dass man einen bzw. zwei(:| ) aktuelle G80 in ein NB pflanzt, klingt das doch sehr nach einem Refresh.
Entweder haben die dann mit den Desktopvarianten nicht mehr als den Namen gemein oder es sind wirklich stark effizienzgesteigerte Versionen, obwohl das sehr unwahrscheinlich ist. Selbst wenn eine GTX nur noch 120 W TDP hätte, wäre das eigentlich noch zu viel für ein NB und dann evtl. noch 2 davon --> LOL

reunion
2007-03-16, 17:22:21
Der kleine Kühler auf der Referenzkarte zeugt von geringer abwärme :rolleyes:


Inwiefern? Der Kühler selbst sagt erstmal sehr wenig aus. Wenn der kleine Propeller mit 6000rpm läuft, kannst du damit auch jede menge Hitze abführen. Da ist mir ein größerer Kühler, der die Hitze nach außen befördert und eine großen, und deshalb wenig schnell drehenden Lüfter verbaut hat, deutlich lieber. Wenn die Karte im Referenzdesign natürlich auch noch leise ist, dann ist alles i.O.

Mit dem Kühlerchen ? Das kann nicht gehn ... wie wärs erstmal mit abwarten als hier einen auf wahrsager zu machen, oder hast du das Teil in Aktion "gehört" ?


Eine 7900GT oder 7950GT hat noch einen kleineren Kühler AFAIK, der dafür relativ laut ist.

AnarchX
2007-03-16, 17:23:08
Entweder haben die dann mit den Desktopvarianten nicht mehr als den Namen gemein oder es sind wirklich stark effizienzgesteigerte Versionen, obwohl das sehr unwahrscheinlich ist. Selbst wenn eine GTX nur noch 120 W TDP hätte, wäre das eigentlich noch zu viel für ein NB und dann evtl. noch 2 davon --> LOL

Möglich ist alles, aber das gezeigte Notebook sieht mir nicht unbedingt dafür geeignet aus.;)
Wird wohl nur eine PR-Ente sein( oder auch nicht...)

Gast
2007-03-16, 23:28:00
Eine 8600GTS wird vom Verbrauch her im Bereich der 7900GTO/GTX sein, darum ist ein guter Kühlung auch nicht eine unnötige Entwicklung.


der verbrauch sollte schon merklich unter einer 7900GTX liegen.

AnarchX
2007-03-17, 10:26:07
GeForce 8800 Ultra to Come Out on April 17.
Nvidia’s Response to ATI R600 Almost Ready (http://www.xbitlabs.com/news/video/display/20070316211223.html)
The new ForceWare drivers have already disclosed Nvidia’s plans regarding the launch of the new product on G80 chipset that is known as GeForce 8800 Ultra. While the forum members were guessing if it would be a slower card than the GeForce 8800 GTS or an overclocked version of the GeForce 8800 GTX, NGOHQ site reported that according to some Nvidia’s partners GeForce 8800 Ultra would be launched together with the GeForce 8600, GeForce 8500, GeForce 8400 and GeForce 8300. In other words, on April 17, 2007.[...]

Warum die Ultra vor dem R600 bringen, wenn man eigentlich nicht im Zugzwang ist?
Oder kommt der R600 doch schon eher?

reunion
2007-03-17, 10:37:10
Man wird bei den Taktraten das maximal mögliche herausgeholt haben, und damit gibt es keinen Grund mehr, auf R600 zu warten. Wenn das nicht reicht, dann würde auch ein späterer Launch daran nichts ändern. Und wenn die Karte schon "ready" ist, warum nicht jetzt schon launchen? So kann man ev. auch eine kurzzeitigen Sieg von ATi verhindern, oder zumindest den Vorsprung verkleinern, um ATi beim Launch keinen (so großen) Triumph gönnen zu müssen.

Godmode
2007-03-17, 10:38:09
GeForce 8800 Ultra to Come Out on April 17.
Nvidia’s Response to ATI R600 Almost Ready (http://www.xbitlabs.com/news/video/display/20070316211223.html)


Warum die Ultra vor dem R600 bringen, wenn man eigentlich nicht im Zugzwang ist?
Oder kommt der R600 doch schon eher?

Sie setzen ATI damit noch mehr unter Druck. Fraglich ist natürlich wie ATI reagieren wird, bzw ob sie überhaupt reagieren müssen. Ich kann den R600 beim besten Willen nicht einschätzen.

Man wird bei den Taktraten das maximal mögliche herausgeholt haben, und damit gibt es keinen Grund mehr, auf R600 zu warten. Wenn das nicht reicht, dann würde auch ein späterer Launch daran nichts ändern. Und wenn die Karte schon "ready" ist, warum nicht jetzt schon launchen? So kann man ev. auch eine kurzzeitigen Sieg von ATi verhindern bzw. den Vorsprung verkleinern.

Ja klingt logisch.

reunion
2007-03-17, 10:43:16
Fraglich ist natürlich wie ATI reagieren wird, bzw ob sie überhaupt reagieren müssen. Ich kann den R600 beim besten Willen nicht einschätzen.


Das ist wohl auch das, was ATi mit ihrer strikten Geheimhaltung erreichen will. Nur ein absolut vertrauenswürdiger Kreis weiß wirklich, wie schnell R600 ist. nV tappt vermutlich genau so im dunklen, und denkt deshalb mal alle Karten auf, in der Hoffnung, ATi damit zu verzweifeln.

AnarchX
2007-03-17, 10:43:31
Man wird bei den Taktraten das maximal mögliche herausgeholt haben, und damit gibt es keinen Grund mehr, auf R600 zu warten. Wenn das nicht reicht, dann würde auch ein späterer Launch daran nichts ändern. Und wenn die Karte schon "ready" ist, warum nicht jetzt schon launchen? So kann man ev. auch eine kurzzeitigen Sieg von ATi verhindern, oder zumindest den Vorsprung verkleinern, um ATi beim Launch keinen (so großen) Triumph gönnen zu müssen.

Das ist eine gute Erklärung. ;)

Da wird sich im April wohl bei NV einiges tun: Mainstream- und LowEnd-Launch, 8800Ultra, SLI 2.0, ordentlich Vista-Treiber(?).

reunion
2007-03-17, 10:45:47
Soll der Lowend-Chip nicht erst im Mai kommen? Sonst hat nV alles auf einen R6XX-Launch im April eingestellt, welcher ja später verschoben wurde.

Thomas Anderson
2007-03-17, 10:45:52
@ Reunion,

du glaubst doch nicht wirklich, NV weiß nicht was der R600 ...

AnarchX
2007-03-17, 10:47:21
Soll der Lowend-Chip nicht erst im Mai kommen?

Im Text wird er auch aufgeführt. AFAIK wurde doch mal berichtet, dass er gelauncht wird, aber die Verfügbarkeit wohl erst im Mai eintretten wird.

reunion
2007-03-17, 10:53:46
@ Reunion,

du glaubst doch nicht wirklich, NV weiß nicht was der R600 ...

Würde nV alles wissen, dann könnte man auch gleich die Katze aus dem Sack lassen. Woher sollte man auch etwas wissen? Selbst die ATi-Partner dürften nur hinter verschlossenen Türen ein paar R600-Demos sehen. Keine Karten, kein gar nichts. Möglich, dass man schon an den ein oder anderen Hinweis gekommen ist, aber einen R600 konnte man sicherlich noch nicht in den eigenen Labors "auseinander" nehmen. Und damit kann man eben größtenteils nur im dunkeln tappen, da es selbst, wenn man schon konkrete Testergebnisse hätte, einfach zu viele Unsicherheitsfaktoren wie Treiber, etc. gibt, wodurch man die Leistung eben nur grob einordnen kann.

Noebbie
2007-03-17, 12:46:46
JaJa unser R600 ist schon ein Mysterium für sich... ein Phantom.

Gast
2007-03-17, 13:28:28
Was für ein "Sieg" wenn man fragen darf, sind wir im Krieg oder was?

Gewinnen kann nur der Verbraucher über ein gutes Preis/Leistungsverhältnis, und das is bei dem jetzigen Dual-o-Pol oft gegeben. Mehr oder weniger schwankt das Kräfteverhältnis und "siegen" muss/wird hier keiner, ist ein bissl zu aggressiv die Sprache die hier an den Tag gelegt wird.

AnarchX
2007-03-17, 15:46:52
Neue Leistungswerte für 8600GTS/GT und 8500GT: (http://www.hardware.fr/news/8684/cebit-performances-geforce-8600-8500.html)
Mit einem System, mit welchem eine 8800GTX 11.900 Punkte im 3DM06 erreicht, soll die 8600GTS ~7.000, 8600GT ~5.800 und die 8500GT ~2.800 Punkte erreicht haben.

Das wäre einiges mehr als bisher berichtet, vielleicht war hier ja der "MUL-Treiber" im Einsatz. ;)

Zudem scheint Alpha Cool einen Wasserkühler für die "8950GX2" (http://www.hardware.fr/news/8683/cebit-watercooling-geforce-8950-gx2.html) präsentiert zu haben. :|

seahawk
2007-03-17, 16:00:08
Man wird bei den Taktraten das maximal mögliche herausgeholt haben, und damit gibt es keinen Grund mehr, auf R600 zu warten. Wenn das nicht reicht, dann würde auch ein späterer Launch daran nichts ändern. Und wenn die Karte schon "ready" ist, warum nicht jetzt schon launchen? So kann man ev. auch eine kurzzeitigen Sieg von ATi verhindern, oder zumindest den Vorsprung verkleinern, um ATi beim Launch keinen (so großen) Triumph gönnen zu müssen.

Das hat schon lange nichts mehr mit R600 zu tun. Man hat eine Haufen handpicked G80 rumliegen und die müssen langsam raus, wenn man die Board Partner und Kunden nicht verärgern will. Eine vermeindliche Ultra müßte min. 3 Monate vor dem echten Refresh auf dem Markt kommen.

AnarchX
2007-03-17, 16:10:36
Könnte sich vielleicht hinter der 8800Ultra eine "8800GX2" verstecken?

Zwar wäre die Realisierung ziemlich aufwendig und teuer, aber das Ergebnis könnte sich doch sehen lassen, zudem wird die Ultra wird wohl eh ein Prestigeobjekt, was den Preis wieder relativiert.

Deutlich steigern wird man beim G80 den Takt nicht mehr können, sodass hier wohl keine große Leistungteigerung möglich wäre, was wiederrum mit zwei G80 umso mehr möglich wäre.

Auf der anderen Seite wäre diese Dual-GPU-Karte im Bezug auf das wahrscheinlich auch im April kommende SLI2.0 mit GPU-Physikbeschleunigung ziemlich interessant, da man hier Grafik und Physikbeschleunigung mit einer Karte bieten könnte, da wohl beides gleichzeitig auf einer GPU nicht möglich sein wird, soweit ich bisher gelesen habe.

Black-Scorpion
2007-03-17, 16:25:16
Und das MB drehen wir dann so das der 1/2 Meter auch in Gehäuse passt. ;)
Sandwich kannst du bei der Verlustleistung vergessen.

crux2005
2007-03-17, 16:55:50
Deutlich steigern wird man beim G80 den Takt nicht mehr können, sodass hier wohl keine große Leistungteigerung möglich wäre, was wiederrum mit zwei G80 umso mehr möglich wäre.

wieso nicht ? ein G80 in 80nm und du hast die mögliche Takt steigerung ;)

AnarchX
2007-03-17, 17:28:26
wieso nicht ? ein G80 in 80nm und du hast die mögliche Takt steigerung ;)

Nur ist die Existenz von diesem sehr umstritten, zudem scheint 80nm nicht unbedingt der beste Prozess für HighEnd-GPUs zu sein.

In weniger als einem Monat sollten wir mehr wissen...

deekey777
2007-03-17, 18:03:35
Wie doof ist das denn?
http://www.3dnews.ru/editorial/cebit07_day_two/

http://img388.imageshack.us/img388/6672/43358fz0.jpg
http://img266.imageshack.us/img266/2276/43362jy8.jpg
Nach dem Drücken auf den OC-Knopf wird im BIOS auf höheren Takt geswitcht.
Toll so ein OC-Knopf, oder? X-D
(Ich meine nicht, die Funktion, sondern wie man diesen Knopf erreicht.)

Winter[Raven]
2007-03-17, 18:27:18
Löl ... sorry, aber mein PC steht an der Wand, und komme nicht ran ... sehr "doof" gelöst...

Armaq
2007-03-17, 18:27:18
Wie doof ist das denn?
http://www.3dnews.ru/editorial/cebit07_day_two/

Nach dem Drücken auf den OC-Knopf wird im BIOS auf höheren Takt geswitcht.
Toll so ein OC-Knopf, oder? X-D
(Ich meine nicht, die Funktion, sondern wie man diesen Knopf erreicht.)

Sport muss her für übergewichtige Kids.

reunion
2007-03-17, 18:29:06
Naja, ich denke den Knopf muss man nur einmal drücken, und dann nie wieder. Hoffentlich. X-D
Trotzdem natürlich nicht gerade schlau gelöst.

Black-Scorpion
2007-03-17, 18:42:09
Wie blöd muss man sein für so einen Knopf den TV-Out/Video-In zu opfern?

Gast
2007-03-17, 19:46:00
Könnte sich vielleicht hinter der 8800Ultra eine "8800GX2" verstecken?


Eher nicht, Stormverbrauch und Abwärme sind ja sensible Themen und SLI geht ja unter Vista noch nicht, geschweige denn gibt es Spiele bei denen man das Werbewirksam zeigen kann.
Sprich eine GX2 brauch die Welt der Enthusiasten momentan nicht. Erst wenn ein Spiel mit wirklichem D3D10 Pfad kommt, und Quad SLI (was ja unter D3D10 weniger Reglementierungen unterlieg als unter DX9) undtr Vista läuft, dann wäre es auch Zeit ein System mit 2x 8800GX2 zu zeigen, was dann sowas wie eine Art Götzenbild werden wird ;)

Endorphine
2007-03-17, 21:43:33
Wie blöd muss man sein für so einen Knopf den TV-Out/Video-In zu opfern?
Zumal der Knopf gar nicht im Slotblech direkt an der Platine sitzen muss, sondern dort sowieso nur per Kabel angeschlossen ist. Der Knopf hätte also auch gut am Slotblech daneben Platz gehabt und MSI hätte den TV-Out erhalten können. Man hätte als Ausgleich ja die Entlüftungsschlitze weiter unten auch ausführen können:

http://img388.imageshack.us/img388/6672/43358fz0.jpg

daniel0906
2007-03-17, 23:06:47
wann soll die 8800ultra rauskommen habe gehört das sie am 17 april kommen soll

laser114
2007-03-17, 23:34:41
wann soll die 8800ultra rauskommen habe gehört das sie am 17 april kommen soll

Das Gerücht steht auch so im Thread. :)

daniel0906
2007-03-18, 00:31:25
naja bin mal gespannt wann die rauskommt

Gast
2007-03-18, 11:40:30
Man wird bei den Taktraten das maximal mögliche herausgeholt haben, und damit gibt es keinen Grund mehr, auf R600 zu warten. Wenn das nicht reicht, dann würde auch ein späterer Launch daran nichts ändern. Und wenn die Karte schon "ready" ist, warum nicht jetzt schon launchen? So kann man ev. auch eine kurzzeitigen Sieg von ATi verhindern, oder zumindest den Vorsprung verkleinern, um ATi beim Launch keinen (so großen) Triumph gönnen zu müssen.

Ein späterer Launch würde die Preise für GTS und GTX länger stabil halten.