Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: weitere D3D10-Produkte in Arbeit, Teil 2
Dass das Unsinn ist doch klar, der Mitarbeiter/Bekannte des verwirrten Professor hat sich ja auch schon zu Wort gemeldet. ;)
Als verwirrten Professor würd ich ihn nicht bezeichnen.
Jedes Genie ist irgendwo aber leicht verwirrt und hat manchmal Visionen die etwas an der Realität vorbeigehen, aber er ist schon Quelle für gute Ideen. In letzter Zeit ist er aber imo schwer überarbeitet und legt auch zuviel Wert auf Pressetermine.
Ausserdem Chef der Raytracinggruppe hört sich etwas ähh daneben an. Das sind inzwischen nicht mehr viele Leute, aber er hat noch nen kompletten Grafik- und Multimedialehrstuhl unter sich und ist an mehreren Firmen beteiligt. Daneben hat er noch einige wichtige Funktionen im Fachbereich und an der Uni, die dank seines Engagement schwer gestärkt wird.
Daraus folgt leider, dass er leider eigentlich fast nur noch Repräsentant ist, mit der Entwicklung selber zu wenig beschäftigen kann. Nebenbei hat er ja auch noch eine nette Familie um die er sich kümmern muss. Ob er da immer den Überblick hat wieviele Shadereinheiten eine Grafikkarte hat, möchte ich mal schwer bezweifeln. Imo ist das auch nicht verwerflich und er legt für seine Leute ja eher längerfristige Ziele fest.
dargo
2007-03-29, 23:38:14
Was soll das an einer Anpassung der Speichermenge mit dem Preis-/Leistungsverhaeltnis genau aendern? Eine 256MB X1950PRO ist auch billiger als eine 320/GTS.
Naja, mit einer GTS zu vergleichen ist auch etwas übertrieben. Die GTS spielt in einer ganz anderen Liga mit. Ich meinte eher den Unterschied zwischen den Beiden:
http://geizhals.at/deutschland/a222723.html
http://geizhals.at/deutschland/a238609.html
Die paar € Aufpreis sind imho gut angelegt. Bei der 320 vs. 640GTS ist der Aufpreis zwischen den Beiden zwar größer. Trotzdem würde ich eher zur 640MB GTS jedem raten.
Ich hab im vorigen Fall etwas ueber extreme Faelle gepostet. Zusaetzlich hast Du nicht den geringsten Beweiss dass der Leistungseinbruch nur dank dem Speicherverbrauch vorkommt.
Das dumme ist eben dass diese Speicherverbrauch-Ableserei auf keinen Fall zuverlaessig ist. Jegliche Applikation die solche Resultate abgibt liesst normalerweise vom Treiber Daten ab. Wie schon so oft betont Du bekommst nur Indizien aber keine Beweise.
Nur Geduld. Ein entsprechener Thread wird vorraussichtlich diese Woche noch von mir eröffnet.
16xQ verbraucht auch mehr Speicher als 4xAA. Koenntest Du die Aufloesung steigern, wuerde Dich der Speicher oder etwas anderes limitieren?
Das mit 16xQ war doch nur ein Beispiel von mir. Ich habe dir gesagt, würde es einen Texturepack(Mod) geben würde der Vram vielen Karten schon in niedrigeren Auflösungen ausgehen und nicht erst in sagen wir mal 2048. Dass in so einer extremen Auflösung der GTS 640MB die Puste ausgeht ist klar. Dass Dies auch nicht unbedingt am Mangel vom Vram liegt weiß ich auch.
Ailuros
2007-03-30, 06:19:40
Als verwirrten Professor würd ich ihn nicht bezeichnen.
Jedes Genie ist irgendwo aber leicht verwirrt und hat manchmal Visionen die etwas an der Realität vorbeigehen, aber er ist schon Quelle für gute Ideen. In letzter Zeit ist er aber imo schwer überarbeitet und legt auch zuviel Wert auf Pressetermine.
Ausserdem Chef der Raytracinggruppe hört sich etwas ähh daneben an. Das sind inzwischen nicht mehr viele Leute, aber er hat noch nen kompletten Grafik- und Multimedialehrstuhl unter sich und ist an mehreren Firmen beteiligt. Daneben hat er noch einige wichtige Funktionen im Fachbereich und an der Uni, die dank seines Engagement schwer gestärkt wird.
Daraus folgt leider, dass er leider eigentlich fast nur noch Repräsentant ist, mit der Entwicklung selber zu wenig beschäftigen kann. Nebenbei hat er ja auch noch eine nette Familie um die er sich kümmern muss. Ob er da immer den Überblick hat wieviele Shadereinheiten eine Grafikkarte hat, möchte ich mal schwer bezweifeln. Imo ist das auch nicht verwerflich und er legt für seine Leute ja eher längerfristige Ziele fest.
Dabei wundere ich mich welche Firmen die wirklich guten von dieser Gruppe in der Zwischenzeit aufgeschnappt hat.
Ailuros
2007-03-30, 06:28:39
Nur Geduld. Ein entsprechener Thread wird vorraussichtlich diese Woche noch von mir eröffnet.
http://www.firingsquad.com/hardware/stalker_mainstream_3d_performance/page5.asp
:biggrin:
dargo
2007-03-30, 10:00:53
http://www.firingsquad.com/hardware/stalker_mainstream_3d_performance/page5.asp
:biggrin:
Es sind wieder nur avg. fps. Ich sagte doch - Geduld. ;)
AnarchX
2007-03-30, 20:11:47
http://666kb.com/i/an2o6sgwesq7m0xml.jpg
Da wäre die wären die 4 Shadercluster bestätigt.
Schade das Everest nicht den Shaderclock anzeigt(wird dies beim G80 angezeigt?).
seahawk
2007-03-30, 20:47:22
Weiis man eigentlich schon was sich hinter dem kommenden Mobile 8800 verbirgt ?
AnarchX
2007-03-30, 20:55:14
Weiis man eigentlich schon was sich hinter dem kommenden Mobile 8800 verbirgt ?
Nein, da gibt es leider noch nichts genaues, aber der spekulierte Release der Go 8800GS im Mai und der GTX im Juli (http://www.vr-zone.com/index.php?i=4851) können durchaus Gedanken aufkommen lassen, dass es vielleicht doch nicht der alte G80 in 90nm sein könnte.
Siehe auch diesen älteren Artikel von VR-Zone. (http://www.vr-zone.com/?i=4477)
Vielleicht ist es ja schon G90/G92, der nicht mehr als ein 65nm Shrink des G80 ist. ;)
Ailuros
2007-03-31, 08:44:24
Es sind wieder nur avg. fps. Ich sagte doch - Geduld. ;)
Ergo erreicht nach Dir eine 256MB in diesem Fall um einiges hoehere maximale Frameraten um am Ende auf ziemlich nahe durchschnittliche Raten zu kommen oder?
dargo
2007-03-31, 10:14:29
Ergo erreicht nach Dir eine 256MB in diesem Fall um einiges hoehere maximale Frameraten um am Ende auf ziemlich nahe durchschnittliche Raten zu kommen oder?
Nein, das ist bei sonst gleichen Daten der Grafikkarte gar nicht möglich. Warte bitte bis ein entsprechender Thread offen ist. :)
Ailuros
2007-03-31, 21:06:57
Nein, das ist bei sonst gleichen Daten der Grafikkarte gar nicht möglich. Warte bitte bis ein entsprechender Thread offen ist. :)
Es vermindert trotzdem den Wert der FS Benchmarks nicht, selbst wenn sich um ein best case scenario handelt.
Was soll mir der inzwischen offene Thread genau zeigen? Worst case scenarios sind stets interessant, aber reflektieren eine zu konservative Realitaet und stehn eben am Gegenfuss zu den optimalsten Faellen. Die Wahrheit liegt irgendwo in der Mitte.
Und damit das obrige auch etwas besser verstehen kannst, ich hab zu Zeiten 6800nonU immer noch UT2k4 in 1280 mit 2xAA gespielt und das egal ob eben mal Primeval doch zu stark stockte.
dargo
2007-03-31, 21:16:31
Was soll mir der inzwischen offene Thread genau zeigen?
Dass avg. fps in diesem Fall für den Popo sind.
Worst case scenarios sind stets interessant, aber reflektieren eine zu konservative Realitaet und stehn eben am Gegenfuss zu den optimalsten Faellen. Die Wahrheit liegt irgendwo in der Mitte.
Ich habe noch mehr Timedemos wo die 320MB schnell mit 4xAA überschritten werden. Im offenen Gelände sehr oft. In Gebäuden eher weniger.
Ailuros
2007-03-31, 21:34:08
Dass avg. fps in diesem Fall für den Popo sind.
Fuer den Popo sind nur jegliche Resultate wenn man zu bloed ist sie richtig zu interpretieren.
Ich habe noch mehr Timedemos wo die 320MB schnell mit 4xAA überschritten werden. Im offenen Gelände sehr oft. In Gebäuden eher weniger.
Ja und? Unspielbar ist es trotzdem insgesamt nicht. Dass es hier und da hapert sollte klar sein, aber man hat fuer das Ding auch keine 500 oder 600 Euro auf den Ladentisch gelegt.
8800Ultra specifications out:
Nvidias ultimate flagship will be more than you ever expected.
This $999 card comes with 3 graphic chips. There will be two overclocked 80nm G80 chips with 650mhz(1.7GHz shaderclock), each of them can use 1.5GB GDDR4 with the awesome clock of 3.2GHz. The third chip will be a small G84 chip with 256MB GDDR3 memory, which is used for game physics in Nvidias new SLI 2.0.
The card uses an exclusive an special cooling solution and works very quiet although the power consumption establishs a new record.
Release will be in late May to crush Atis new R600 chip.
More information, pictures and maybe benchmarks soon!
http://www.theinquirer.net/default.aspx?article=142007
Die Aprilscherze gehen einen auf den Sack!
Nightspider
2007-04-01, 01:07:53
LOL !
Mehr fällt mir nicht ein. Das würde sich ja nichtmal für 1000€ für Nvidia lohnen. ;D
Aber wenn es so wäre müsste ich echt anfangen zu sparen. ;D
Das wäre aber was für Tombman: 3 Karten @ 2 G80 Chips und 650 Mhz mit insgesamt 6 GB Speicher. ;D
laser114
2007-04-01, 01:10:36
Die Aprilscherze gehen einen auf den Sack!
Lass doch den Leuten ihren Spaß... ;)
Hvoralek
2007-04-01, 10:03:23
Die Aprilscherze gehen einen auf den Sack!Wenn die so klar zu erkennen sind wie hier, finde ich das i.o. Und das kann ja nicht einmal der Inq ernst meinen :biggrin:
AnarchX
2007-04-02, 12:18:43
[NVIDIA 8600GTS Overclocking! ] (http://www.vr-zone.com/?i=4875&s=1)
Da scheint wohl auch bei der GTS noch einiges an Potential da zu sein.
dargo
2007-04-02, 12:26:46
[NVIDIA 8600GTS Overclocking! ] (http://www.vr-zone.com/?i=4875&s=1)
Da scheint wohl auch bei der GTS noch einiges an Potential da zu sein.
Ja, sehr geile Kühlerkonstruktion für den Alltag. :crazy2:
robbitop
2007-04-02, 12:32:30
Ich weiss, dass 3DMark Scores nicht viel sagen. Aber fuer eine Midrangekarte haut die G84 ganz schoen rein. Ich bin auf Reviews gespannt.
AnarchX
2007-04-02, 12:34:40
Geforce 8850 GX2 is real (http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=34)
The card is real and a few people we talked about call it Geforce 8850 GX2. It is of course dual card with two G80 chips on the board.
From what we learned it should be clocked at higher than 600 MHz core clock and again and odd memory number of 896 MB.
One source claims that the card will have 128 Shaders but from what we learned before you should expect 96x2 or totally 192 Shader units.
Nunja, das einzig interessante ist imo die Speicherbestückung, die vielleicht in diesem Zusammenhang falsch ist, aber auf einen G90 mit 8 ROP-Clustern, wobei hier einer deaktivert wäre, hindeuten könnte.
Ja, sehr geile Kühlerkonstruktion für den Alltag. :crazy2:
Aber immerhin noch Luft, also wenn man den Singleslot-Kühler gegen etwas brauchbareres wechselt kann man hier vielleicht durchaus in den 800MHz Bereich problemlos vorstossen. ;)
seahawk
2007-04-02, 12:35:48
Dir wird richtig reizvoll als Ersatz für meine 7800GT, da würde sogar der Twinplex noch ausreichen.
Die GX könnte M-GPUs nutzen.
dargo
2007-04-02, 12:40:09
Aber immerhin noch Luft, also wenn man den Singleslot-Kühler gegen etwas brauchbareres wechselt kann man hier vielleicht durchaus in den 800MHz Bereich problemlos vorstossen. ;)
Bringt aber recht wenig wenn die Speicherbandbreite unter Einsatz von AA limitiert. ;)
Geforce 8850 GX2 is real (http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=34)
Nunja, das einzig interessante ist imo die Speicherbestückung, die vielleicht in diesem Zusammenhang falsch ist, aber auf einen G90 mit 8 ROP-Clustern, wobei hier einer deaktivert wäre, hindeuten könnte.
Mal abgesehen davon, dass ich das nicht glaube, könnten es auch 2*384+100 MByte für Vista sein. ;)
Fuad, der Idiot.
Der glaubt doch nicht irgendwelche Aprilscherze?
Anarchy-HWLUXX
2007-04-02, 13:48:21
Ja, sehr geile Kühlerkonstruktion für den Alltag. :crazy2:
Das ist en Billo-Vollkumfer CPU Kühler, nen gescheiter heatpipe Kühler funzt da sicherlich besser ... und ist auch net klar ob der Kühler überhaupt nötig ist für den Takt, also Ball flach halten ...
Wo mer bei flach sind :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=1
Geforce 8850 GX2 is real
Ömmmmmmm ... mal sehn *pfeif*
Wobei ddie angabe für den RAM mit 448MB pro Core ??? irgendwie sehr merkwürdig ist ... das wäre SIEBEN 64MB Chips @ 224bit SI, kann mir keiner erzählen das das stimmt ... evtl. nen verspäteter Aprillscherz.
Ansonsten könnten es 14*32MB sein @ 448bit SI :hmm:
AnarchX
2007-04-02, 14:06:04
G84 and G86 problems explained
2D or not 2D, that is the question (http://www.theinquirer.net/default.aspx?article=38654)
Nakai
2007-04-02, 14:12:16
Editier mal den Link...ansonsten wieder mal das 2D-Problem^^
mfg Nakai
Das ist en Billo-Vollkumfer CPU Kühler, nen gescheiter heatpipe Kühler funzt da sicherlich besser ... und ist auch net klar ob der Kühler überhaupt nötig ist für den Takt, also Ball flach halten ...
Wo mer bei flach sind :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=1
Geforce 8850 GX2 is real
Ömmmmmmm ... mal sehn *pfeif*
Wobei ddie angabe für den RAM mit 448MB pro Core ??? irgendwie sehr merkwürdig ist ... das wäre SIEBEN 64MB Chips @ 224bit SI, kann mir keiner erzählen das das stimmt ... evtl. nen verspäteter Aprillscherz.
Ansonsten könnten es 14*32MB sein @ 448bit SI :hmm:
2x 320 + 256 = 896 (hat jemand im R600 Thread geschrieben).
saaya
2007-04-02, 15:03:17
weiss jemand wieso nvidia einen re-spin der parts macht?
die karten die rausgegeben wurden sind schnell, stabil, relativ kuehl und takten wunderbar. ich versteh nicht was an den gpus so derart defekt sein soll dass eine neue revision her muss :confused:
James Ryan
2007-04-02, 15:07:14
http://www.theinquirer.net/default.aspx?article=38654
[Wieder Probleme mit dem 2D-Modus]
Keine Ahnung ob das stimmt und inwieweit es mit der Verzögerung zu tun hat. Eine Erklärung ist es jedenfalls.
MfG :cool:
PCGH_Carsten
2007-04-02, 15:41:24
Keine Ahnung ob das stimmt und inwieweit es mit der Verzögerung zu tun hat. Eine Erklärung ist es jedenfalls.
Welche Verzögerung?
Anarchy-HWLUXX
2007-04-02, 15:53:20
2x 320 + 256 = 896 (hat jemand im R600 Thread geschrieben).
Hört sich absolut sinnlos an ... in hohen auflösungen wird so nen gebilde mit lausigen 320MB pro core gandenlos einbrechen wenn noch AA / AF dazukommt - das wäre ja sogar nen rückschritt verglichen zur G71 GX2 ...
Und woher kommen dann die zusätzlichen 256MB ?
Oder können die G80 seit neustem den RAM Sharen ?
Anarchy-HWLUXX
2007-04-02, 16:08:03
bissn zuspät, wie gesagt ... na ja - in 2 wochen wissen mer mehr :)
The_Invisible
2007-04-02, 16:30:48
bissn zuspät, wie gesagt ... na ja - in 2 wochen wissen mer mehr :)
hoffentlich, seit fast nem halben jahr hat sich im graka markt nichts getan, immer nur spekulationen und verschiebungen. mich wunderts das manche leute hier noch nicht irre geworden sind :D
mfg
robbitop
2007-04-02, 16:32:13
Shamino hat schon eine solche Karte. Der hat das Teil schon kräftig übertaktet. Scheint also zu laufen. Auch Club3D und eVGA haben mir ähnliches berichtet.
Scheint wohl ein unwahres Gerücht zu sein.
Und woher kommen dann die zusätzlichen 256MB ?
Ein 3. CHip, z.B. G86?!
bissn zuspät, wie gesagt ... na ja - in 2 wochen wissen mer mehr :)
Fudo hat sich am 1. April verarschen lassen und schreibt es am zweiten auf seine Seite.
Es wird keine GX2 Karte beim G80 geben. Frühsten, wenn nVidia den Schritt auf 65nm macht.
deekey777
2007-04-02, 18:10:56
Bitte im Speku-Thread weitermachen, sollte noch was unklar sein.
Edit: merged. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5376848#post5376848)
Ailuros
2007-04-03, 07:34:50
Geforce 8850 GX2 is real (http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=34)
Nunja, das einzig interessante ist imo die Speicherbestückung, die vielleicht in diesem Zusammenhang falsch ist, aber auf einen G90 mit 8 ROP-Clustern, wobei hier einer deaktivert wäre, hindeuten könnte.
Aber immerhin noch Luft, also wenn man den Singleslot-Kühler gegen etwas brauchbareres wechselt kann man hier vielleicht durchaus in den 800MHz Bereich problemlos vorstossen. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5378429&postcount=145
Von so einem Dingsbums hoerte ich nichts, ich hab eigentlich auch nur fuer =/<65nm und >Q3/07' gefragt.
Dual-chip wird es garantiert geben nur ist mir eher ein 2*6 clusters/4 ROP partitions bewusst, dessen Codename mir leider schon irgendwo herausgerutscht ist. Wenn man weiss wie es mit der die-Groesse aussieht, dann weiss man auch warum sich so ein Dingsbums ueberhaupt Sinn macht.
Es sieht aus als dass beide grossen IHVs vorruebergehend mit Performance-refresh-chips x2 fuer high end skalieren werden und das erklaert natuerlich auch alle R7x0-Geruechte.
seahawk
2007-04-03, 07:49:05
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5378429&postcount=145
Von so einem Dingsbums hoerte ich nichts, ich hab eigentlich auch nur fuer =/<65nm und >Q3/07' gefragt.
Dual-chip wird es garantiert geben nur ist mir eher ein 2*6 clusters/4 ROP partitions bewusst, dessen Codename mir leider schon irgendwo herausgerutscht ist. Wenn man weiss wie es mit der die-Groesse aussieht, dann weiss man auch warum sich so ein Dingsbums ueberhaupt Sinn macht.
Es sieht aus als dass beide grossen IHVs vorruebergehend mit Performance-refresh-chips x2 fuer high end skalieren werden und das erklaert natuerlich auch alle R7x0-Geruechte.
So zusagen der kommende Performance Chip, Größe und Stromverbrauch ca. auf G71 Niveau ?
robbitop
2007-04-03, 10:13:46
Kommt denn nun eigentlich ein 80 nm G80?
AnarchX
2007-04-03, 11:49:04
Geforce 8850GTX is real
Two new cards (http://www.fudzilla.com/index.php?option=com_content&task=view&id=382&Itemid=34)
Geforce 8600 GTS issue fixed
First batch of cards was shutting down (http://www.fudzilla.com/index.php?option=com_content&task=view&id=385&Itemid=34)
G86, 8300 series comes later
Lets wait for RV610 first (http://www.fudzilla.com/index.php?option=com_content&task=view&id=383&Itemid=34)
I also heard today that the GX2 is coming which supposedly is based on 2 G81 cores. The GF8950GX2 coolingsolution which was shown at CeBit was already a hint of what was to come. And the price... a staggering $999
http://forum.beyond3d.com/showpost.php?p=961127&postcount=376
Anarchy-HWLUXX
2007-04-03, 11:59:13
Die komige *cooling solution* stammt von Alphacool, würde mich sehr wundern wenn die in irgendeiner Form mit nV zusammenarbeiten würde, se haben ja noch nichtmal den G80 Kühler am markt :rolleyes:
DrumDub
2007-04-03, 12:36:07
:ulol: http://www.fudzilla.com/index.php?option=com_content&task=view&id=384&Itemid=34
fuad hat doch echt einen an der waffel. natürlich versucht jedes unternehmen sensible informationen, die für den/die mitbewerber von interesse sind, unter verschluss zu halten.
PCGH_Carsten
2007-04-03, 13:06:37
:ulol: http://www.fudzilla.com/index.php?option=com_content&task=view&id=384&Itemid=34
fuad hat doch echt einen an der waffel. natürlich versucht jedes unternehmen sensible informationen, die für den/die mitbewerber von interesse sind, unter verschluss zu halten.
Ich kann ihn schon verstehen - schließlich lebt er davon, unkommentiert und unreflektiert alles weiterzugeben, was im zugetragen wird. Da sieht er natürlich seine Felle davonschwimmen.
DrumDub
2007-04-03, 13:17:37
Ich kann ihn schon verstehen - schließlich lebt er davon, unkommentiert und unreflektiert alles weiterzugeben, was im zugetragen wird. Da sieht er natürlich seine Felle davonschwimmen. allerdings versteh ich nicht, was sich wirklich geändert hat. das g80 eine usa ist, war auch erst zwei monate vor dem release bekannt. zum r600 sind heute auch nur die groben daten bekannt.
PCGH_Carsten
2007-04-03, 13:20:49
allerdings versteh ich nicht, was sich wirklich geändert hat.
Ich glaube, das was sich noch ändern wird bereitet ihm Sorgen.
Kommt denn nun eigentlich ein 80 nm G80?
Nein, G90 wird der 65nm Schritt sein für den Herbst, da kannst Zeitlich ja gar nix mehr dazwischen schieben um Wirtschaftlich von 80nm zu Profitieren.
robbitop
2007-04-03, 19:47:25
Nein, G90 wird der 65nm Schritt sein für den Herbst, da kannst Zeitlich ja gar nix mehr dazwischen schieben um Wirtschaftlich von 80nm zu Profitieren.
Hu? Das sehe ich anders. Mittlerweile hatte man ein halbes Jahr eine moegliche 80 nm G80 Fertigung mit einem guten Yield zu rampen. Bis Herbst wuerde man also monatelang pro Chip hoehere Margen machen. Ich sehe den Widerspruch nicht.
seahawk
2007-04-03, 19:58:16
Hu? Das sehe ich anders. Mittlerweile hatte man ein halbes Jahr eine moegliche 80 nm G80 Fertigung mit einem guten Yield zu rampen. Bis Herbst wuerde man also monatelang pro Chip hoehere Margen machen. Ich sehe den Widerspruch nicht.
Rein spekualtiv denke ic hG80 bleibt in 60nm bis ein 65nm G90 ihn ablöst. Die Reserven für eine Ultra sind imho da.
Was ich in 80nm ist ein Performancechip der GTS und GTS320 ablöst. 96 ALUs 4 ROPs um 700mhz Takt. 256Bit Interface 1000MHz GDDR3.
Der als Basis für die GX2 und als Ablösung für 8850 GTS und GT.
Nightspider
2007-04-03, 20:42:05
Rein spekualtiv denke ic hG80 bleibt in 60nm bis ein 65nm G90 ihn ablöst. Die Reserven für eine Ultra sind imho da.
Was ich in 80nm ist ein Performancechip der GTS und GTS320 ablöst. 96 ALUs 4 ROPs um 700mhz Takt. 256Bit Interface 1000MHz GDDR3.
Der als Basis für die GX2 und als Ablösung für 8850 GTS und GT.
Du meinst bis der 90nm G80 vom 60nm G80 abgelöst wird oder ?
Welche Reserven ? Der G80 wird viel wärmer als der G70 und komm meiner Meinung nach nich stabil über 650 Mhz. Zumindest nicht mit dem jetztigen Kühler. Der Kühler Quaddro würde vielleicht bisschen besser kühlen aber trotzdem würde ich nicht behaupten, dass da noch größere Reserven vorhanden sind.
Teilweise gehen die Chips ja schon knapp an die 90°C unter warmer Temperatur. Ich will nicht wissen, wieviel Karten im Sommer ihre Stabilitätsprobleme bekommen. (Zumindest die übertakteten)
Hu? Das sehe ich anders. Mittlerweile hatte man ein halbes Jahr eine moegliche 80 nm G80 Fertigung mit einem guten Yield zu rampen. Bis Herbst wuerde man also monatelang pro Chip hoehere Margen machen. Ich sehe den Widerspruch nicht.
Der Zeitfaktor, da G80 für 90nm geplant wurde, und G90 wohl direkt für 65nm. Da dürfte ein Restep/Refresh auf G80@80nm locker 9Monate verschlingen, auch wenn die Prozesse sich ähneln sollten gehe ich bei keine Prozess davon aus das man mir nix dir nix einfach schrumpfen kann.
Und da der Refresh einer Generation meist ca. 1Jahr später kommt, war wohl der Schritt zu 80nm nicht wirtschaftlich. Zumal ja der Absatzmarkt net soo dolle ist bei den großen Chips, 80nm wohl auch nicht den dicken Taktsprung gebracht hat (denke mal sicher hat man auf 80nm simuliert aber die Resultate...).
Bei den kleineren Modellen kann ich verstehen das man erst 80nm bringt, auch wenn uns wohl AMD zeigt das 65nm für Midrange "jetzt" schon geht, wobei das jetzt wohl auf Mai/Juni hindeutet, was aber noch abzuwarten ist. Während nV wohl definitiv in einer Woche released.
Gerade bei den kleineren Chips kann mans wohl bessere Rechtfertigen erstmal 80nm zu bringen und dann schnellstmöglich auf 65nm wegen der Yields zu gehen.
Rein spekualtiv denke ic hG80 bleibt in 60nm bis ein 65nm G90 ihn ablöst. Die Reserven für eine Ultra sind imho da.
Was ich in 80nm ist ein Performancechip der GTS und GTS320 ablöst. 96 ALUs 4 ROPs um 700mhz Takt. 256Bit Interface 1000MHz GDDR3.
Der als Basis für die GX2 und als Ablösung für 8850 GTS und GT.
Quasi ein G80,5 ^^ Glaub net das ein eigenständiger "GTS Chip" kommen wird. Viel Aufwand für ein Segment das die 8600GTS wohl eher erobern wird. Ich würde auf eine parallele zum G70/G71 eher vorziehen. G70GTX war 24Pipe, während die G70GT die defekten G70@20Pipe beinhaltete. Beim G71 konnte man dan GT und GTX in der selben Ausführung bringen nur mit einem Taktunterschied.
robbitop
2007-04-03, 21:15:42
Ich rede nicht von einem Refresh sondern einem einfachen Respin im Sinne eines Shrinks. Da 80 nm ein Halfnode vom 90 nm High Performance Prozess ist, ist diese Umsetzung relativ einfach. Fuer ein Tapeout koennen die gleichen Libraries genutzt werden.
Seit dem G80 Launch im November bis heute ist mehr als genug Zeit vergangen, um das zu bewerkstelligen.
Es ist nur die Frage, ob es sich fuer NV genug lohnt, das auch umzusetzen. Dazu muesste man den Prozess in seinem jetzigen Zustand im Zusammenspiel mit einem solchen ASIC kennen.
nV "kennt" den Prozess ja schon seit längerem durch die komplette Midrange Schiene. Aber die Gerüchte zum mobilen G80 lesen sich ja auch in 90nm. Wäre dieser in 80nm würde ich gerne zustimmen, aber dieses Anzeichen gibt es eher nicht, oder hab ich was verpasst?
Beim G86 gehe ich sogar davon aus das der gar nicht in 65nm kommen wird, der geht direkt auf den 55nm Prozess.
Ailuros
2007-04-04, 06:48:04
Tja wenn dass was man als am highest end von 65nm auch wirklich nur aus einem chip besteht....
seahawk
2007-04-04, 06:57:05
Quasi ein G80,5 ^^ Glaub net das ein eigenständiger "GTS Chip" kommen wird. Viel Aufwand für ein Segment das die 8600GTS wohl eher erobern wird. Ich würde auf eine parallele zum G70/G71 eher vorziehen. G70GTX war 24Pipe, während die G70GT die defekten G70@20Pipe beinhaltete. Beim G71 konnte man dan GT und GTX in der selben Ausführung bringen nur mit einem Taktunterschied.
Die 8600GTS ist Mid-Range, ein eigenständiger Perfromancechip fehlt und dauerhaft kann sich die 8800GTS 320MBN imho nicht rechnen. PCB ist komplex, die GPU ist groß und für ne GX2 geht G80 auch nicht.
Ailuros
2007-04-04, 07:22:15
So zusagen der kommende Performance Chip, Größe und Stromverbrauch ca. auf G71 Niveau ?
Ein bisschen mehr, aber es erlaubt in etwa den gleichen finalen Preis wie bei G71 afaik.
seahawk
2007-04-04, 07:49:09
Zeitliche Projektion 3Q/07.
AnarchX
2007-04-04, 08:25:10
GeForce 8600GT Review (http://translate.google.com/translate?u=http%3A%2F%2Fit.com.cn%2Ff%2Fdiy%2F074%2F3%2F401291.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)(Original (http://it.com.cn/f/diy/074/3/401291.htm))
Gamebenches und interessante Details zu den Einheitenzahlen.
Keine Aufliestung des Shader-Taktest...
Auch interessant, dass die GTS zwar über 4 Cluster verfügt, wahrscheinlich einer deaktiviert wurde. Die Leistung ist dafür ziemlich beeindruckend.
Auch interessant, dass die GTS zwar über 4 Cluster verfügt, wahrscheinlich einer deaktiviert wurde. Die Leistung ist dafür ziemlich beeindruckend.
Natürlich "GT".
dargo
2007-04-04, 11:06:45
Die Leistung ist dafür ziemlich beeindruckend.
Was soll denn daran beeindruckend sein? Meinst du NfS: Carbon?
Überlege mal warum die gerade NfS: Carbon für den Vergleich genommen haben. ;)
Da stinkt jeder G7x ab. Sonst eher G7600GT Niveau, nichts besonderes. Das ist schon fast Low-End.
Da stinkt jeder G7x ab. Sonst eher G7600GT Niveau, nichts besonderes. Das ist schon fast Low-End.
Die 7600GT ist seit einem Jahr auf dem Markt. Der Startpreis war 200€+.
Die 8600GT kommt für um die 150€ auf den Markt und ist deutlich schneller. Sie testen zwar nur zwei Spiele, jedoch wird die 8600GT in vielen D3D Spielen ebenfalls deutlich schneller sein. Und für 150€ eine Karte auf dem Niveau einer 7900GS zu haben ist beeindruckend.
dargo
2007-04-04, 11:17:59
Die 7600GT ist seit einem Jahr auf dem Markt. Der Startpreis war 200€+.
Ja toll. Eine Geforce 2 Ultra hatte einen Startpreis von 1400DM, und?
Die 8600GT kommt für um die 150€ auf den Markt und ist deutlich schneller.
Wo?
Ich sagte schon mal, vergiss NfS: Carbon (mal davon abgesehen, dass die ~30fps eh zuwenig sind). In anderen Games wird sich das ähnlich wie bei Prey verhalten. Der bessere 3DMark05/06 Score bringt auch keinem was.
Edit:
Hier hast du bessere/gleichwertige Produkte bis 150€:
http://geizhals.at/deutschland/a222723.html
http://geizhals.at/deutschland/a248450.html
http://geizhals.at/deutschland/a238609.html
http://geizhals.at/deutschland/a237118.html
und jetzt komm mir bitte nicht mit dem D3D10 Quatsch.
PCGH_Carsten
2007-04-04, 11:26:04
Ich sagte schon mal, vergiss NfS: Carbon (mal davon abgesehen, dass die ~30fps eh zuwenig sind). In anderen Games wird sich das ähnlich wie bei Prey verhalten. Der bessere 3DMark06 Score bringt auch keinem was.
Eine 7600 GT ohne die bekannten Schwächen (WA-AF, Flimmerneigung, schwächere Leistung in einigen neueren Spielen) und mit DX10-Tauglichkeit finde ich nicht so schlecht. Und bei einem UVP von 150 Euro wird es nicht lange dauern, bis die bei 120 Euro und darunter ist.
dargo
2007-04-04, 11:28:50
Und bei einem UVP von 150 Euro wird es nicht lange dauern, bis die bei 120 Euro und darunter ist.
Achso, die 150$ (oder €?) ist die UVP? Wenn das so ist sollte die Karte bei guter Verfügbarkeit bei 120-125€ liegen. Bin mal gespannt wie sich die Karte dann gegen eine X1950Pro/GT schlägt.
Edit:
Ich sehe die X1950Pro/GT doch als besseres Produkt an. Die G8600GT verdurstet einfach an ihrer Bandbreite. Da stehen 22,4GB/s (G8600GT) gegen 38,4-44,16GB/s (X1950Pro/GT). Unter Verwendung von AA in höheren Auflösungen müßte die G8600GT ganz schön "abstinken". Aber hier müßte man erstmal weitere Gametests abwarten.
Anarchy-HWLUXX
2007-04-04, 11:43:55
Ich denk mal du meinst 8600 und net 8800 ;)
dargo
2007-04-04, 11:46:16
Sorry, schon korrigiert. :)
Ja toll. Eine Geforce 2 Ultra hatte einen Startpreis von 1400DM, und?
Man erkennt die Positionierung der einzelnen Produkte.
Wo?
Ich sagte schon mal, vergiss NfS: Carbon (mal davon abgesehen, dass die ~30fps eh zuwenig sind). In anderen Games wird sich das ähnlich wie bei Prey verhalten. Der bessere 3DMark06 Score bringt auch keinem was.
In Quake 4 ist eine 7600GT schneller als eine X1650XT. In HL2:E1 ist es anders rum. Was sagt uns das? Im ersten kommt es auf die Texturleistung an (wie in Prey), im zweiten ist die Abhängigkeit von dieser nicht mehr so hoch. Hier spielt auch die Rechenkraft eine Rolle.
Warum sollte die 8600GT also nicht wie die X1650XT von ihrer besseren Nutzung der Rechenleistung profitieren?
Edit:
Hier hast du bessere/gleichwertige Produkte bis 150€:
http://geizhals.at/deutschland/a222723.html
http://geizhals.at/deutschland/a248450.html
http://geizhals.at/deutschland/a238609.html
http://geizhals.at/deutschland/a237118.html
und jetzt komm mir bitte nicht mit dem D3D10 Quatsch.
Diese Karten werden mit dem Erscheinen der 65nm Produkte von AMD vom markt verschwinden, da sie deutlich unwirtschaftlicher sind.
Und wenn wir alleine den DIE-Size einer 8600GT mit 160mm² und 230mm² der X1950pro (bzw. X1650XT) vergleichen, dann sehen wir, dass die 8600GT das wirtschaftlichere Produkt ist und AMD zur Handlung gezwungen sein wird.
Abgesehen davon spielen noch andere Faktoren (Länge des Boards, Kühler, Stromaufnahme) eine Rolle. Und hier sehe ich die 8600GT im Vorteil.
Ich sehe die X1950Pro/GT doch als besseres Produkt an.
Nur wird es dieses Produkt nicht mehr lange geben.
dargo
2007-04-04, 11:58:04
In Quake 4 ist eine 7600GT schneller als eine X1650XT. In HL2:E1 ist es anders rum. Was sagt uns das? Im ersten kommt es auf die Texturleistung an (wie in Prey), im zweiten ist die Abhängigkeit von dieser nicht mehr so hoch. Hier spielt auch die Rechenkraft eine Rolle.
Warum sollte die 8600GT also nicht wie die X1650XT von ihrer besseren Nutzung der Rechenleistung profitieren?
Deswegen sagte ich ja, man muss einfach noch weitere Tests abwarten. :)
Abgesehen davon spielen noch andere Faktoren (Länge des Boards, Kühler, Stromaufnahme) eine Rolle. Und hier sehe ich die 8600GT im Vorteil.
Es gibt auch sehr leise Kühler für die X1950Pro/GT (original). Zur Stromaufnahme - hat NV nicht da gerade Probleme in 2D damit? *hust*
Nur wird es dieses Produkt nicht mehr lange geben.
Solange die neue Generation vom AMD nicht da ist wird es sie noch geben. ;)
Und auch paar Wochen/Monate danach.
PCGH_Carsten
2007-04-04, 12:07:59
Achso, die 150$ (oder €?) ist die UVP?
Was soll es sonst sein, wenn es die Karte noch nicht im Laden gibt? Und den Preispunkt habe ich lediglich aus den Postings hier...
Es gibt auch sehr leise Kühler für die X1950Pro/GT (original). Zur Stromaufnahme - hat NV nicht da gerade Probleme in 2D damit? *hust*
Haben die 7600 und 7900 Karten überhaupt unterschiedliche Taktungen?
Die 7900GS nimmt im IDLE fast genauso viel wie die 7600GT.
Daher sollte man das nicht überbewerten.
dargo
2007-04-04, 12:16:14
Haben die 7600 und 7900 Karten überhaupt unterschiedliche Taktungen?
Die 7900GS nimmt im IDLE fast genauso viel wie die 7600GT.
Daher sollte man das nicht überbewerten.
Ich meinte 2D vom G84 nicht vom G7x. Die G7x ist in Idle sehr sparsam.
Edit:
http://de.theinquirer.net/2007/04/02/nvidia_g84_und_g86_probleme_mi.html
Ich denke mal, das sollte kein Aprilscherz sein.
Ich meinte 2D vom G84 nicht vom G7x. Die G7x ist in Idle sehr sparsam.
Die Frage steht immernoch im Raum, ob 7600 und 7900(gt) unterschiedliche Taktraten haben. Erst dann lässt sich sagen, ob nVidia ein Problem hätte.
dargo
2007-04-04, 12:23:53
Die Frage steht immernoch im Raum, ob 7600 und 7900(gt) unterschiedliche Taktraten haben. Erst dann lässt sich sagen, ob nVidia ein Problem hätte.
G7600GT = 560/700Mhz
G7900GS = 450/660Mhz
G7900GT = 450/660Mhz
Oder was meist du?
Und wie sehen sie im 2D Modus aus?
Ich finde dazu keine Angaben im Netz...
dargo
2007-04-04, 12:40:21
Und wie sehen sie im 2D Modus aus?
Ich finde dazu keine Angaben im Netz...
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html
http://www.xbitlabs.com/articles/video/display/gpu-consumption2006_5.html
Die G7900GS müßte minimal unter der G7900GT in Idle liegen. Zur G7600GT habe ich leider nichts.
AnarchX
2007-04-04, 14:07:20
8600GTS 512MB vs X1950XTX (http://forum.donanimhaber.com/m_13340017/tm.htm)
Eine beachtliche Performance, wenn denn die Ergebnisse echt sind.
seahawk
2007-04-04, 14:15:18
Fake
robbitop
2007-04-04, 14:20:03
Die Ergebnisse sehen viel zu extrem aus. Ich habe selbst G80 nie so weit vor dem R580 gesehen.
AnarchX
2007-04-04, 14:21:32
Vielleicht hat er ja mit AI off getestet... X-D
edit:
(Beim CoD2 Score würde das sogar passen (http://hardtecs4u.de/reviews/2006/nvidia_g80/index7.php) :|)
Henroldus
2007-04-04, 15:02:27
im 3DMark06 mal wieder falsch(nicht default) weil nicht vergleichbar mit 1024x768 statt 1280x1024 getestet(bandbreitenschonend).
ne 8600er wird kaum so schnell wie die 8800gts sein(128bit vs 320bit SI)
(ich lass mich allerdings gern positiv überraschen)
Schaut euch auch mal den Wert bei Fear an, ich denk mal die haben den integrierten Performance Test genommen und da kommt die XTX auf minimum 50 FPS und bei dem Test nur auf 35
AnarchX
2007-04-04, 17:48:17
Schaut euch auch mal den Wert bei Fear an, ich denk mal die haben den integrierten Performance Test genommen und da kommt die XTX auf minimum 50 FPS und bei dem Test nur auf 35
Selbst mit AI off bricht FEAR nicht so sehr ein bei HT4u.
Oder wie sieht es mit Cat 7.2 aus?
Naja, da heißt es wohl noch etwas warten auf Werte aus vernünftigeren Quellen.
Aber unterschätzen sollte man den G84 nicht: 16 Dual-TMUs@675MHz und 64 Z-Tests pro Takt(R580: 16) sind eben nicht ganz unerheblich.
deekey777
2007-04-04, 17:53:39
Oopps: http://forums.vr-zone.com/showthread.php?t=141089
:biggrin:
Die 8600GT hat also nur 3 Rechen-Cluster. Schade.
PCGH_Carsten
2007-04-04, 18:10:09
Oopps: http://forums.vr-zone.com/showthread.php?t=141089
:biggrin:
Die 8600GT hat also nur 3 Rechen-Cluster. Schade.
Die GTS eventuell auch...
deekey777
2007-04-04, 18:16:20
Die GTS eventuell auch...
Der Tabelle nach nicht. Wäre auch nicht sooo schlimm. :)
Aber: Die 8500er soll 32 oder 24 SPs haben. Klingt alles andere als unvernünftig.
PCGH_Carsten
2007-04-04, 18:19:47
Der Tabelle nach nicht. Wäre auch nicht sooo schlimm. :)
Ich kenne "die Tabelle" nicht.
deekey777
2007-04-04, 18:24:51
Ich kenne "die Tabelle" nicht.
Du hast doch auf den Link geklickt? ;(
http://img109.imageshack.us/img109/6186/7abf356a4d754943afb3476rm7.gif
PCGH_Carsten
2007-04-04, 18:30:13
Du hast doch auf den Link geklickt? ;(
http://img109.imageshack.us/img109/6186/7abf356a4d754943afb3476rm7.gif
Nein, aber danke für das Bild. Irgendwie passt das aber doch nicht. 675*64 sind 43,2. 43,2/172,8 sind 0,25. Das Topmodell der Mittelklasse bei nur 25% der theor. High-End-Leistung? Das hat schon Ati bei X1800/X1600XT weh getan.
AnarchX
2007-04-04, 18:38:21
Was rechnest du da?:|
Die GTS wird doch sicherlich nicht nur 675MHz Shaderclock haben oder weißt du da schon mehr (http://www.pcgameshardware.de/?article_id=573441)?;)
Ansonsten sind es eben bei der nicht ganz unwichtigen Texelleistung wahrscheinlich 56%.
Zudem schätzte ich mittlerweile beim Shaderclock doch auf mehr als 1GHz, da Shamino ja ziemlich problemlos auf 1GHz ROP/TMU-Takt kam, wodurch der Shaderclock auch in ziemlich hohe Regionen vorgestoßen sein muss.
Black-Scorpion
2007-04-04, 18:43:45
Ich denke wenn man ein NDA unterschrieben hat steht drinn das man nicht sagen darf das man eines unterschrieben hat?
Da wir ein NDA (Non Disclosure Agreement) unterschrieben haben, können wir zu dem Modell noch nicht viel verraten.
Quelle: http://www.pcgameshardware.de/?article_id=573441
PCGH_Carsten
2007-04-04, 18:50:49
Was rechnest du da?:|
Ich rechne lediglich auf Basis der in der Tabelle enthaltenen Informationen. Da steht leider nur eine Taktrate.
Wie man bei 64 SPUs/16 TMUs und 675 MHz dann aber rund 59% der G80-GTX-Texelleistung mit nur 37% der Bandbreite bedienen will, bleibt mir schleierhaft und klingt nicht ausgewogen.
Anarchy-HWLUXX
2007-04-04, 18:54:10
Wer ausser mir hat das AGP-8* bei den 8600ern bemerkt :D
-> AGP never dies ... so schauts aus.
Ich rechne lediglich auf Basis der in der Tabelle enthaltenen Informationen. Da steht leider nur eine Taktrate.
Wie man bei 64 SPUs/16 TMUs und 675 MHz dann aber rund 59% der G80-GTX-Texelleistung mit nur 37% der Bandbreite bedienen will, bleibt mir schleierhaft und klingt nicht ausgewogen.
Es war schon immer so, dass das Mainstream da weitaus schlechter dastand. Das kann durchaus so hinkommen, vor alle wenn man bedenkt, dass Mainstream-User eher mit weniger AA und AF spielen und somit die arithmetische Leistung wichtiger ist. G8x hängt eh relativ noch viel weniger an der Bandbreite als vorherige Generationen.
deekey777
2007-04-04, 19:01:12
Ich denke wenn man ein NDA unterschrieben hat steht drinn das man nicht sagen darf das man eines unterschrieben hat?
Quelle: http://www.pcgameshardware.de/?article_id=573441
Es steht im NDA selbst, ob man über dieses sprechen darf oder nicht. ;)
reunion
2007-04-04, 19:09:56
Ich rechne lediglich auf Basis der in der Tabelle enthaltenen Informationen. Da steht leider nur eine Taktrate.
Sicher blöd, wenn man ein NDA unterschrieben hat, und sich dann dumm stellen muss.
Es war schon immer so, dass das Mainstream da weitaus schlechter dastand.
Nie auch nur annähernd in diesem Ausmaß. Eine 7600GT hat sogar mehr Bandbreite/Füllrate als eine 7900GTX.
Das kann durchaus so hinkommen, vor alle wenn man bedenkt, dass Mainstream-User eher mit weniger AA und AF spielen und somit die arithmetische Leistung wichtiger ist.
Bleibt abzuwarten, wie hoch die Shder nun takten. Wenn diese wirklich nur mit dem TMU-Takt laufen, hätte die GTS nichtmal 100GFLOPs peak.
G8x hängt eh relativ noch viel weniger an der Bandbreite als vorherige Generationen.
:|
deekey777
2007-04-04, 19:25:29
Das ganze Review: http://it.com.cn/f/diy/074/3/401291.htm
Ich rechne lediglich auf Basis der in der Tabelle enthaltenen Informationen. Da steht leider nur eine Taktrate.
Wie man bei 64 SPUs/16 TMUs und 675 MHz dann aber rund 59% der G80-GTX-Texelleistung mit nur 37% der Bandbreite bedienen will, bleibt mir schleierhaft und klingt nicht ausgewogen.
Ausgewogenheit hin oder her: Die 8600GT muss nur schneller als die 7600GT sein. Die 8600GTS (vielleicht) schneller als die 7900GS*. Mehr nicht. Wer mehr erwartet, soll zur nächst höheren Klasse greifen.
*Oder gar 7900GT.
Nie auch nur annähernd in diesem Ausmaß. Eine 7600GT hat sogar mehr Bandbreite/Füllrate als eine 7900GTX.
12 TMUs@ 570MHz und 128Bit@700MHz vs, 24TMUs@650Mhz und 256Bit@800MHz.
Das macht 22400 MB/s / 6720 MTex/s vs. 51200MB/s / 15600 MTex/s.
Die 7600GT hat ein leicht besseres Verhältnis von ca. 5%. Nichts weltbewegendes.
Bleibt abzuwarten, wie hoch die Shder nun takten. Wenn diese wirklich nur mit dem TMU-Takt laufen, hätte die GTS nichtmal 100GFLOPs peak.
GFlops haben keine Aussagekraft beim G80 Design. Sonst müsste die 8800GTX in rechenintensiven Programmen sich nicht von der X1950XTX absetzen können.
AnarchX
2007-04-04, 19:59:54
G84 and G86 problems explained
2D or not 2D, that is the question (http://www.theinquirer.net/default.aspx?article=38654)
Nvidia attacks INQUIRER piece in email blizzard
Theo's Teeth The 2D Clock ticks (http://theinquirer.net/default.aspx?article=38719)
The statement reads:
We have been receiving some questions and concerns about an article recently posted on The Inquirer claiming that there is a bug in G84 and G86 preventing chips from downclocking into 2D Mode. This article is not correct at all. Please pass the following response on to anyone else who may have concerns on the matter:
There never was, and never will be a "2D Clock Mode" on desktop versions of G84 and G86. The power requirements for these GPUs are low enough to begin with - there is little to no power savings to be had by down clocking into a 2D mode, at least for desktop usage. [...]
:| Naja, das wollen wir dann mal sehen.
@Bandbreiten-Texelfüllraten-Verhältnis:
Die 6600GT hatte ziemlich viel Texelfüllrate für ihre Bandbreite. ;)
reunion
2007-04-04, 20:10:54
Billiger Ausrede um von einem Problem mit der G8X-Architektur abzulenken. Der Stromverbrauch kann nicht "niedrig genug" sein, umso niedriger umso besser.
Billiger Ausrede um von einem Problem mit der G8X-Architektur abzulenken. Der Stromverbrauch kann nicht "niedrig genug" sein, umso niedriger umso besser.
7600 und 7900GT(GS) haben "keinen" 2D Modus. Haben die plötzlich auch "Problem mit der Architektur"?
Billiger Ausrede um von einem Problem mit der G8X-Architektur abzulenken. Der Stromverbrauch kann nicht "niedrig genug" sein, umso niedriger umso besser.
Ach was, bei der alten Generation war da auch net soo der Unterschied zwischen 2D und 3D Last... Wenn die neuen Midrange Modelle den Verbrauch der alten Generation einhalten können und dabei mehr Performance lieber, habens beide Hersteller gut gemacht. Wer kräht da nach nem extra 2D Mode um weitere 5W zu sparen... Wenn sich die Voltage nunmal design mäßig net schnell/weit genug absenken lässt, gehts halt net. Dann belässt man den Chip bei default Taktrate und idled 3/4 des Chips.
Werden wir sehen ob R600 Series da überhaupt besser ist, bisher siehts ja eher danach aus das man gegenüber der Konkurenz immer mehr Watt auf die Waage wirft....
reunion
2007-04-04, 20:19:15
Die 6600GT hatte ziemlich viel Texelfüllrate für ihre Bandbreite. ;)
Bei der 8600GTS wird das nach aktuellen Wissensstand aber schlimmer sein.
7600 und 7900GT(GS) haben "keinen" 2D Modus. Haben die plötzlich auch "Problem mit der Architektur"?
Offensichtlich wird kein einziger Chip der G8X-Serie einen 2D-Modus haben. Frage: Ist der Stromverbrauch der 8800GTX in 2D auch "niedrig genug"?
7900GT hatte einen 2D Mode, öh ok je nach Modell vieleicht. Meine alte Colorful 7900GT512MB war im 2D Mode bei 450MHz und im 3D Mode bei 550MHz. 450MHz waren aber auch glaub zu anfangs die Standart Clocks der 7900GT.
Bei der 8600GTS wird das nach aktuellen Wissensstand aber schlimmer sein.
Und das Gegenstück von AMD legt nochmal einen drauf...
Frage: Ist der Stromverbrauch der 8800GTX in 2D auch "niedrig genug"?
Die Karte hat eine Spannung von 1,2xV - in jeden Modie. Die 7900GTX dagegen 1,4V. Anscheinend will nVidia nicht weiter runtergehen, da es wohl zu Fehlern kommen könnte-
Daher wäre das einzige, was etwas bringen würde, die Untertaktung.
AnarchX
2007-04-04, 20:29:22
Bei der 8600GTS wird das nach aktuellen Wissensstand aber schlimmer sein.
Schlimmer oder einfach nur passender an die aktuellen Anforderungen? ;)
In nichtmal 2 Wochen werden wir es wissen...
Daher wäre das einzige, was etwas bringen würde, die Untertaktung.
Sieht man wenn man seinen G80 auf 200/200 mit dem ATITool runtertaktet, dann haste 60°C der Karte aufm Desktop (ja auch wenn Aero an ist *g).
Langt mir vollkommen da auch mein C2D dann runterschaltet und paar Watt spart weil er auf 1.162V runtergeht. Aber viel isses net, Highend Graka brauch halt Saft, und die bekommt sie.
Wer Strom sparen will soll sich ne kleine Karte zulegen, momentan gibts halt die Sparmodi der CPUs nicht für GPUs. Da is die Entwicklung noch viel zu rassant und zu teuer als das man da Monate für Stromspar Modi investieren könnte.
deekey777
2007-04-04, 22:28:34
Billiger Ausrede um von einem Problem mit der G8X-Architektur abzulenken. Der Stromverbrauch kann nicht "niedrig genug" sein, umso niedriger umso besser.
Dann wirst du dir eine Alternative suchen müssen.
Oder machst du dir Sorgen um die Umwelt?
Ailuros
2007-04-04, 22:30:32
Billiger Ausrede um von einem Problem mit der G8X-Architektur abzulenken. Der Stromverbrauch kann nicht "niedrig genug" sein, umso niedriger umso besser.
Ist es wirklich ein Problem oder eine spezifische Design-Entscheidung die leider viele seit einiger Zeit nicht verstehen wollen?
Beweise mir erstmal dass es wirklich um ein "Problem" handelt.
Ph0b0ss
2007-04-04, 23:51:27
Ist es wirklich ein Problem oder eine spezifische Design-Entscheidung die leider viele seit einiger Zeit nicht verstehen wollen?
Beweise mir erstmal dass es wirklich um ein "Problem" handelt.
Warscheinlich ging es einfach nur darum den G80 so schnell wie möglich rauszuhauen, da man wusste das sich der R600 verspäten wird. Da wird halt alles, was Zeit kostet und nicht lebenswichtig ist, rausgeschmissen.
Außerdem wird Nvidia auch ziemlich gut darüber Bescheid wissen, was die verschiedenen Revisionen des R600 verbrauchen und was mit neuen Revisionen möglich ist. Wenn hier der R600 im Stromverbrauch nicht wesentlich besser ist, gibts auch keine dringende Notwendigkeit hier was zu tun.
Technisch gesehen ist es warscheinlich kein großes Problem den Chip so zu bauen, dass einige Teile des Chips im Idle zum Stromsparen einfach deaktiviert werden können. Aber es kostet halt Zeit, dies zu integrieren und auf Stabilität zu testen.
Fetza
2007-04-04, 23:53:21
Dann wirst du dir eine Alternative suchen müssen.
Oder machst du dir Sorgen um die Umwelt?
Niedriger stromverbrauch im 2d-betrieb sollte in der tat mittlerweile von jedem hardware entwickler ernst genommen werden. Stichwort umwelt, oder genauer gesagt treibhauseffekt + resourcenverschwendung. Hier sind ganzzeitliche konzepte gefragt. Ich habe nichts dagegen, wenn meine graka 200 watt im 3d modus zieht, schließlich muss irgendwo die 3d leistung ja auch herkommen, aber in windows könntens dann bitte doch deutlich unter 80 watt sein, das müsste doch möglich sein? Wobei ich mich jetzt auch auch high-end graka beziehe, die low-und mainstream modelle dürfen natürlich auf gar keinen fall 80 watt im 2d modus ziehen, das ist horrend viel für low performance hardware.
greetz
Fetza
2007-04-05, 00:04:59
8600GTS 512MB vs X1950XTX (http://forum.donanimhaber.com/m_13340017/tm.htm)
Eine beachtliche Performance, wenn denn die Ergebnisse echt sind.
Schon krass, sollte das stimmen, ist die 8600gt ja die perfekte budget karte für oblivion :-)
Anarchy-HWLUXX
2007-04-05, 02:20:34
REVIEW zu 8600GTS bei Au-Ja.de !!!1111
http://www.au-ja.de/review-club3d8600gts-1.phtml
Da hat wohl wer bei der Warenausgabe nicht mitbelommen das der launch noch zwei wochen entfernt ist :fresse:
... die hätten aba mal nach der Ultra / GX2 fragen solln, vielleicht haben se die auch vor-ort ;D
Screenshot falls die Page offline Geht :
------------> http://666kb.com/i/an805nu13ie8ceuvp.jpg
misterh
2007-04-05, 02:40:54
@ Au-Ja.de
http://img141.imageshack.us/img141/4057/club3d8600gts2pg3.th.jpg (http://img141.imageshack.us/my.php?image=club3d8600gts2pg3.jpg) http://img174.imageshack.us/img174/1170/club3d8600gts3kt0.th.jpg (http://img174.imageshack.us/my.php?image=club3d8600gts3kt0.jpg) http://img137.imageshack.us/img137/4749/club3d8600gts9xt0.th.jpg (http://img137.imageshack.us/my.php?image=club3d8600gts9xt0.jpg)
Anarchy-HWLUXX
2007-04-05, 03:36:46
Ich weiss es ist nur 3DMurks ... aba die GTS klatscht die Konkurrenz mal sowas von wech :eek:
3DMark2006 v102: 4xAA + 8xAF
Club3D 8600GTS 256MB; Forceware 100.95 5204
ASUS EAX1950Pro 256MB; Catalyst 7.3 4162
MSI NX7900GT 256MB; Forceware 93.71 3991
dius31
2007-04-05, 04:07:57
@Anarchy-HOCP
...und in F.E.A.R geht sie unter....
F.E.A.R. 1280x960; 4xAA + 8xAF: min/average/max in fps
ASUS EAX1950Pro
256MB; Catalyst 7.3
25
55
126
MSI NX7900GT
256MB; Forceware 93.71
25
49
108
Club3D 8600GTS
256MB; Forceware 100.95
22
36
78
Ph0b0ss
2007-04-05, 04:19:09
Ich weiss es ist nur 3DMurks ... aba die GTS klatscht die Konkurrenz mal sowas von wech :eek:
3DMark2006 v102: 4xAA + 8xAF
Club3D 8600GTS 256MB; Forceware 100.95 5204
ASUS EAX1950Pro 256MB; Catalyst 7.3 4162
MSI NX7900GT 256MB; Forceware 93.71 3991
Dafür siehts im F.E.A.R. Benchmark ganz schön mies aus, wenn die Werte stimmen:
http://www.au-ja.de/review-club3d8600gts-5.phtml
Ich weiss es ist nur 3DMurks ... aba die GTS klatscht die Konkurrenz mal sowas von wech :eek:
Leider völlig nichtssagend! 3D Mark ist realitätsfern.
Man sieht es immer wieder. Obwohl dort viele Karten recht nah zusammenliegen, gibt es dennoch riesige Unterschiede bei Games.
Man braucht sich nur mal anschauen wie gut eine X1950XTX im Vergleich zur 7900 GTX abschneidet und wie es in der Realität (z.B. Oblivion 52 vs 39fps, min fps gar nicht erst angesprochen) aussieht. Dann weiß man bescheid. :)
Alle Optimieren dafür, aber was bleibt am Ende davon übrig?
Es scheint, dass die Forceware 100 Treiber ein OpenGL Problem haben.
Schaut man sich die Werte von Doom bei Au-Ja an und die Prey Werte der anderen Seite, sieht man, dass hier etwas nicht stimmen kann.
Mal abwarten, was in 1 1/2 Wochen passiert.
Dann wirst du dir eine Alternative suchen müssen.
Oder machst du dir Sorgen um die Umwelt?
Nein, um die Unwelt mache ich mir keine Sorgen. Nur die begründung ist etwas "albern". Wenn es nicht geht, dann soll man das auch zugeben.
reunion
Ist es wirklich ein Problem oder eine spezifische Design-Entscheidung die leider viele seit einiger Zeit nicht verstehen wollen?
Beweise mir erstmal dass es wirklich um ein "Problem" handelt.
Was macht das für einen Unterschied?
Henroldus
2007-04-05, 08:49:23
in den spielen sieht es so aus:
"Die GeForce 8600 GTS ordnet sich diesmal zwischen GeForce 7900 GT und Radeon X1950 Pro ein"
und da gehört sie auch hin.
sie muss sicher ja von der 8800GTS 320 abgrenzen
PCGH_Carsten
2007-04-05, 09:39:44
Es scheint, dass die Forceware 100 Treiber ein OpenGL Problem haben.
Schaut man sich die Werte von Doom bei Au-Ja an und die Prey Werte der anderen Seite, sieht man, dass hier etwas nicht stimmen kann.
Mal abwarten, was in 1 1/2 Wochen passiert.
Und wie erklärst du dir die Riddick-Werte?
Und wie erklärst du dir die Riddick-Werte?
Stimmt...
Vielleicht ist es auch nur ein Problem mit der "Doom3 - Engine", da Prey und Doom3 diese verwenden.
Könnte ein Hinweiß sein, dass vielleicht an den ROPs gespart wurde oder die fehlende Speicherbandbreite sich doch stark negativ bemerkbar macht.
dargo
2007-04-05, 10:02:32
@Anarchy-HOCP
...und in F.E.A.R geht sie unter....
F.E.A.R. 1280x960; 4xAA + 8xAF: min/average/max in fps
ASUS EAX1950Pro
256MB; Catalyst 7.3
25
55
126
MSI NX7900GT
256MB; Forceware 93.71
25
49
108
Club3D 8600GTS
256MB; Forceware 100.95
22
36
78
Soo schlecht ist sie aber nicht. Bei den min. fps etwas langsamer. Was mir etwas seltsam vorkommt sind die max. fps der G8800GTS. Eventuell ein Treiberproblem?
Daraus resultieren die "schwachen" avg.fps.
Black-Scorpion
2007-04-05, 10:11:34
Ist es wirklich ein Problem oder eine spezifische Design-Entscheidung die leider viele seit einiger Zeit nicht verstehen wollen?
Beweise mir erstmal dass es wirklich um ein "Problem" handelt.
Was du nicht verstehen willst ist das diese Designentscheidung von NV das dämlichste ist was man machen kann.
Und wenn du das auch noch verteidigst tust du mir leid.
Anscheinend kann die 8800er auch 1KW verbraten und du würdest noch Freudensprünge machen.
Andere müssen dir gar nichts beweisen.
Oder beweise du das es ein Designentscheidung ist.
Anarchy-HWLUXX
2007-04-05, 10:31:20
Also die verwendeten Treiber sind nach auflistung ja die 100.95, auf nZone sind die neusten 101er auch scho nen Monat alt - mal schaun wie die Benches aussehen mit Release Treibern, die Differenz Riddick->Doom3 ist einfach unlogisch ...
PCGH_Carsten
2007-04-05, 10:33:40
Stimmt...
Vielleicht ist es auch nur ein Problem mit der "Doom3 - Engine", da Prey und Doom3 diese verwenden.
Könnte ein Hinweiß sein, dass vielleicht an den ROPs gespart wurde oder die fehlende Speicherbandbreite sich doch stark negativ bemerkbar macht.
Das macht mir aktuell auch Kopfzerbrechen. Denn eigentlich unterscheiden sich die Anforderungen (zumindest Pi-mal-Daumen) der Starbreeze-Engine nicht sonderlich von denen in D3: Viel glitzerndes Normal- und Specular-Mapping und Stencil-Schatten. Letzteres sollte den G8x-ROPs eigentlich liegen.
deekey777
2007-04-05, 10:33:45
Was du nicht verstehen willst ist das diese Designentscheidung von NV das dämlichste ist was man machen kann.
Und wenn du das auch noch verteidigst tust du mir leid.
Anscheinend kann die 8800er auch 1KW verbraten und du würdest noch Freudensprünge machen.
Andere müssen dir gar nichts beweisen.
Oder beweise du das es ein Designentscheidung ist.
Was ich nicht verstehe, ist, warum ihr euch so darüber aufregt. Fühllt ihr euch irgendwie dadurch in euren Gefühlen verletzt? Oder Stolz?
Man hat sich wohl was dabei gedacht, auf die 2D-Clocks zu verzichten. Sei es ein Problem gewesen oder nur Einsparungen.
dargo
2007-04-05, 10:34:02
Also die verwendeten Treiber sind nach auflistung ja die 100.95, auf nZone sind die neusten 101er auch scho nen Monat alt - mal schaun wie die Benches aussehen mit Release Treibern, die Differenz Riddick->Doom3 ist einfach unlogisch ...
Die max. FPS in Fear sind genauso unlogisch. Es sieht so aus als ob der Treiber die CPU "ausbremsen" würde.
seahawk
2007-04-05, 10:54:52
Was ich nicht verstehe, ist, warum ihr euch so darüber aufregt. Fühllt ihr euch irgendwie dadurch in euren Gefühlen verletzt? Oder Stolz?
Man hat sich wohl was dabei gedacht, auf die 2D-Clocks zu verzichten. Sei es ein Problem gewesen oder nur Einsparungen.
Eine KArte die heute im Idle soviel Watt für nicht verbrät ist imho nicht mehr zeitgemäß. Das mus man sagen und das spricht imho deutlichst gegen die NV Karten. Selbst wenn der R600 unter Last 60W mehr verballert, so würde er das durch einen um 30W geringeren Verbruach unter Idle mehr als kompensieren.
Eine KArte die heute im Idle soviel Watt für nicht verbrät ist imho nicht mehr zeitgemäß. Das mus man sagen und das spricht imho deutlichst gegen die NV Karten. Selbst wenn der R600 unter Last 60W mehr verballert, so würde er das durch einen um 30W geringeren Verbruach unter Idle mehr als kompensieren.
Entschuldige bitte, aber das ist doch wirklich bullshit.
Das würde bedeuten, um einen Vorteil durch den IDLE-Verbrauch zu haben, müsste man immer doppelt solange im 2D Modus sein als im 3D Modus.
Spiele ich 3h, müsste ich danach 6h im 2D Modus sein. Spiele ich mit beiden Karten 10h, müsste man mit dem r600 ganze 20h im 2D Modus länger bleiben...
deekey777
2007-04-05, 11:26:03
Eine KArte die heute im Idle soviel Watt für nicht verbrät ist imho nicht mehr zeitgemäß. Das mus man sagen und das spricht imho deutlichst gegen die NV Karten. Selbst wenn der R600 unter Last 60W mehr verballert, so würde er das durch einen um 30W geringeren Verbruach unter Idle mehr als kompensieren.
Woher weißt du, was die 8600GTS im Idle verbraucht? Die Aussage ist ganz klar: Die 2D-Clocks sind den mobilen Chips vorbehalten. So lange es keine Tests der 8600GTS in Sachen Stromverbrauch gibt, gibt es nur zwei Möglichkeiten: Die Luft anhalten, bis man blau wird, oder locker bleiben.
Die 8800er sind Schnee von gestern, da wird es wohl keinen Wundertreiber geben, der einen 2D-Modus ermöglicht. Das ist nunmal so.
AnarchX
2007-04-05, 11:34:21
In Australien scheint die 8600GTS auch schon erhältlich zu sein:
http://forums.whirlpool.net.au/forum-replies.cfm?t=715719#bottom
Nakai
2007-04-05, 11:36:25
Naja ich hätte mehr von der Geforce 8600GTS erwartet. Anscheinend scheint sie doch nicht so abzugehen, wie es die 3DMark06-Werte zeigen. Naja lieber noch mehr Benches abwarten.
mfg Nakai
Hauwech
2007-04-05, 11:42:47
Irgendwie verstehe ich diese ganze Diskussion bezüglich Stromverbrauch vom G80 im Idle und in dem Zusammenhang vor allem die Schlagwörter Umwelt, Treibhauseffekt und Ressourcenverschwendung nicht so ganz. Der hohe Idle-Verbrauch ist doch hinlänglich bekannt. Entweder man kauft sich die Karte oder nicht. Entweder Nvidia schafft es irgendwie den zu senken oder nicht.
Auch wenn ich nicht weiss was zB dargo mit dem Zweitsystem in seiner Sig macht oder ob das überhaupt noch aktuell ist, aber das ist imho ein guter Weg. Alte, möglichst sparsame Komponenten zusammensuchen (vorhanden, Familie, Freunde, Bekannte) oder sehr günstig erstehen und sich daraus einen runtergetakteten Internet-, Musik- oder Officerechner zusammenbasteln. Dafür den dicken Boliden einfach auslassen und nur zum Spielen anmachen. :)
Naja ich hätte mehr von der Geforce 8600GTS erwartet. Anscheinend scheint sie doch nicht so abzugehen, [...]
Die Karte kommt für ca. 200€ in den Handel.
Sie ist keine Konkurrenz zu jetzigen High-End Gemeinde ala 7900GTX und X1900XT.
Zur Zeit sieht es in Ordnung aus, keine Wunderkarte, kein Crap ala rv530.
Superheld
2007-04-05, 11:48:35
wurde glaub noch nicht gepostet
http://forum.donanimhaber.com/m_13340017/tm.htm
w0mbat
2007-04-05, 11:50:12
wurde glaub noch nicht gepostet
http://forum.donanimhaber.com/m_13340017/tm.htm
Fake!
AnarchX
2007-04-05, 11:59:29
Au-Ja! hat nun GIII und Stalker ergänzt:
http://www.au-ja.de/review-club3d8600gts-9.phtml
Im bandbreitenlastigen Stalker schlägt sie sich aber ziemlich gut.:|
edit: Wie sie da mit 4xAA getestet haben ist natürlich fraglich. X-D
dargo
2007-04-05, 12:03:10
Auch wenn ich nicht weiss was zB dargo mit dem Zweitsystem in seiner Sig macht oder ob das überhaupt noch aktuell ist, aber das ist imho ein guter Weg. Alte, möglichst sparsame Komponenten zusammensuchen (vorhanden, Familie, Freunde, Bekannte) oder sehr günstig erstehen und sich daraus einen runtergetakteten Internet-, Musik- oder Officerechner zusammenbasteln. Dafür den dicken Boliden einfach auslassen und nur zum Spielen anmachen. :)
Genau dafür ist der gedacht. :)
nordic_pegasus
2007-04-05, 12:24:40
Die Karte kommt für ca. 200€ in den Handel.
Sie ist keine Konkurrenz zu jetzigen High-End Gemeinde ala 7900GTX und X1900XT.
Zur Zeit sieht es in Ordnung aus, keine Wunderkarte, kein Crap ala rv530.
naja... in dem Au-ja Tests ist die 8600GTS mal vor mal hinter der 7900GT, und diese ist noch ein weites Stück unter der 7900GTX anzusiedeln. Ich kann mir nicht helfen, wenn ich die Mainstream Karten der Vorgängergenerationen im Vergleich zu deren Highend Vorgängern ansehe (also 7600GT zur 6800GT/Ultra, 6600GT zur 5900er Reihe), dann wirkt die 8600GTS zu lahm.
Edit: und wenn ich dann noch den Preis von 200Euro im Vergleich zu den Strassenpreisen der 8800GTS 320 sehe, kommts mir noch mehr unausgeglichen vor.
Au-Ja! hat nun GIII und Stalker ergänzt:
http://www.au-ja.de/review-club3d8600gts-9.phtml
Im bandbreitenlastigen Stalker schlägt sie sich aber ziemlich gut.:|
edit: Wie sie da mit 4xAA getestet haben ist natürlich fraglich. X-D
Irgendwie sind die Werte irretierend.
Die 8800GTX ist in Gothic deutlich schneller als die X1950XTX, die ist wiederum deutlich schneller als die 7900GTX. Und die 8600GTS soll nur auf dem Niveau der 7900gt sein?!
Entweder stimmt wirklich etwas mit den Treiber nicht oder die Karte wurde deutlichst "geschröpft"...
Irgendwie sind die Werte irretierend.
Die 8800GTX ist in Gothic deutlich schneller als die X1950XTX, die ist wiederum deutlich schneller als die 7900GTX. Und die 8600GTS soll nur auf dem Niveau der 7900gt sein?!
Entweder stimmt wirklich etwas mit den Treiber nicht oder die Karte wurde deutlichst "geschröpft"...
Anscheinend spielen die mit Fraps und ermitteln dann Werte. Da ist die Aussagekraft = 0.
Ich weiß zwar nicht wie Computerbase.de Gohtic 3 gebencht hat, aber dort ist die 8800GTX viermal und die 8800GTS dreimal so schnell als die 7900GT. Als Situation wurde auch die Anfangssequenz genommen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3
AnarchX
2007-04-05, 12:46:00
Irgendwie sind die Werte irretierend.
Die 8800GTX ist in Gothic deutlich schneller als die X1950XTX, die ist wiederum deutlich schneller als die 7900GTX. Und die 8600GTS soll nur auf dem Niveau der 7900gt sein?!
Entweder stimmt wirklich etwas mit den Treiber nicht oder die Karte wurde deutlichst "geschröpft"...
Angesichts solcher Ergebnisse (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/14/#abschnitt_gothic_3) wäre das wirklich seltsam, da entspräche die 86GTS-Performance in G3 einem Viertel der Leistung der 8800GTX.:|
Vielleicht takten die Shader wirklich nur auf 675MHz, dann würde das sogar Sinn machen auch wenn es eher unsinnig ist. ;D
Am sinnvollsten wird es wohl sein auf den Test von Computerbase zu warten.
laser114
2007-04-05, 12:55:24
Am sinnvollsten wird es wohl sein auf den Test von Computerbase zu warten.
Der kommt aber garantiert erst mit dem Fall des NDA, CB hält sich an diese Dokumente... ;)
dargo
2007-04-05, 12:56:10
Am sinnvollsten wird es wohl sein auf den Test von Computerbase zu warten.
Den kannst du auch mittlerweile vergessen. CB testet nur noch mit AAA/TSAA. :(
LovesuckZ
2007-04-05, 12:57:48
Den kannst du auch mittlerweile vergessen. CB testet nur noch mit AAA/TSAA. :(
Das ist in Gothic3 ein bisschen schwer. :wink:
Superheld
2007-04-05, 13:04:58
die 3dmark2006 werte stimmen doch überhaupt nicht bei der 1950pro
oder haben die in 1024x768 getestet
http://www.au-ja.de/review-club3d8600gts-4.phtml 4162
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/7/#abschnitt_3dmark06 3275
..und seit wann kann eine 7900 HDR mit aa:|
laser114
2007-04-05, 13:12:01
http://www.au-ja.de/review-club3d8600gts-4.phtml 4162
http://www.computerbase.de/artikel/h...hnitt_3dmark06 3275
Das ist 4xAA/16xAF (Computerbase) gegen 4xAA + 8xAF (Au-ja), mit einem X6800 übertaktet auf 3,46 GHz (CB) gegen ein Standard X6800.
Wobei - 800 Punkte von 8x AF auf 16x AF?
Omnicron
2007-04-05, 14:55:05
Noch mehr benches hier, die sehen irgendwie realistischer aus
http://forum.donanimhaber.com/m_13340017/tm.htm
Moralelastix
2007-04-05, 15:00:57
New beer in wine bottles: NVIDIA to rebrand G80 as supercomputer chip
http://arstechnica.com/news.ars/post/20070404-new-beer-in-wine-bottles-nvidia-to-rebrand-g80-as-supercomputer-chip.html
....In fact, we can be even more specific and call a GPU a "Microsoft DirectX toaster." :biggrin:
@Mods: Was is den mit der ollen Suche hier im Forum los wieso kann die nicht nach dem Link oben das Forum durchsuchen????
Henroldus
2007-04-05, 15:08:45
Noch mehr benches hier, die sehen irgendwie realistischer aus
http://forum.donanimhaber.com/m_13340017/tm.htm
den hatten wir schon (als Fake verschrien) und die Leistung ist viel zu hoch für Midrange.
Die_Allianz
2007-04-05, 19:20:48
Leistungsaufnahme:
http://www.au-ja.de/review-club3d8600gts-11.phtml
mMn in 3D ok, in 2D hätte ich mehr (also weniger (verbrauch)) gewünscht
Den kannst du auch mittlerweile vergessen. CB testet nur noch mit AAA/TSAA. :(
Warum kann man das dann vergessen? AAA und TSSAA ist doch im Prinzip das gleiche.
reunion
2007-04-05, 19:35:16
Leistungsaufnahme:
http://www.au-ja.de/review-club3d8600gts-11.phtml
mMn in 3D ok, in 2D hätte ich mehr (also weniger (verbrauch)) gewünscht
Generell sieht es dort ja nicht so prickelnd aus. Wenn man gutmütig ist, liegt die Karte bis auf das veraltete Riddick maximal auf X1950pro Niveau, die aktuell immer billiger wird. Für 200€ trotz D3D10 nicht unbedingt ein P/L-Champion.
Warum kann man das dann vergessen? AAA und TSSAA ist doch im Prinzip das gleiche.
Trotzdem ist die Vergleichbarkeit dadurch arg beeinträchtigt. Bsp.: Die eine Karte glättet den Zaun, die andere nicht, etc.
Generell sieht es dort ja nicht so prickelnd aus. Wenn man gutmütig ist, liegt die Karte bis auf das veralteten Riddick maximal auf X1950pro Niveau, die aktuell immer billiger wird. Für 200€ trotz D3D10 nicht unbedingt ein P/L-Champion.
Ich würde da noch mit Preisverfall rechnen. Momentan hast du aber absolut recht, aber sie hat halt auf dem Markt noch den für viele sehr DAUs sicher sehr wichtigen D3D10-Bonus.
Wo bleibt bloß R600. Ich will endlich ne neue Karte ;D
Trotzdem ist die Vergleichbarkeit dadurch arg beeinträchtigt. Die eine Karte glättet den Zaun, die andere nicht, etc.
Der Leistungsaufwand dafür ist aber praktisch gleich und damit sind die Werte eigentlich auch auf den Fall ohne AAA/TSSAA übertragbar :)
Bis auf 8x/8xQ vs. 6x, da wäre ich dann vorsichtig, aber das ist eh nicht vergleichbar.
Generell sieht es dort ja nicht so prickelnd aus. Wenn man gutmütig ist, liegt die Karte bis auf das veraltete Riddick maximal auf X1950pro Niveau, die aktuell immer billiger wird. Für 200€ trotz D3D10 nicht unbedingt ein P/L-Champion.
Andere Tests abwarten. Imo scheint es entweder arge Probleme mit den Treiber zu geben (siehe Doom3 Engine) oder die Karte ist soweit abgespeckt wurden, dass sie widererwarten kein würdiger "x600gt" träger ist.
reunion
2007-04-05, 20:39:58
Ich würde da noch mit Preisverfall rechnen. Momentan hast du aber absolut recht, aber sie hat halt auf dem Markt noch den für viele sehr DAUs sicher sehr wichtigen D3D10-Bonus.
Stimmt schon. Auf jeden Fall muss da einiges fehlen, wenn die Werte so stimmen. Die Frage ist nur was. Vielleicht wurden auf die clockdomainen wirklich verzichtet, woraus eine relativ geringe Shaderleistung resultieren würde.
Der Leistungsaufwand dafür ist aber praktisch gleich und damit sind die Werte eigentlich auch auf den Fall ohne AAA/TSSAA übertragbar :)
Wie meinst du das? Wenn die eine Karte einen Zaun glättet, und die andere nicht, dann erspart sich letztere einiges an Arbeit.
Andere Tests abwarten. Imo scheint es entweder arge Probleme mit den Treiber zu geben (siehe Doom3 Engine) oder die Karte ist soweit abgespeckt wurden, dass sie widererwarten kein würdiger "x600gt" träger ist.
IMHO war das abzusehen. Die High-End-Chips fürs Prestige werden einfach immer fetter und immer unwirtschaftlicher. Doch im Mid- und Lowend-Segment muss man penibel auf die Margen achten, denn dort wird der Gewinn erwirtschaftet. ATi musste ja schon bei der letzten Generation dafür mit der X1600er-Serie Tribut zollen, wo nV durch die sehr transistorensparende G7X-Architektur noch aus den vollen Schöpfen konnte.
dargo
2007-04-05, 22:37:59
Leistungsaufnahme:
http://www.au-ja.de/review-club3d8600gts-11.phtml
mMn in 3D ok, in 2D hätte ich mehr (also weniger (verbrauch)) gewünscht
Oh, ich finde das sogar sehr gut für die Karte. Sie müßte dann bei ca. 23-24W in Idle liegen, was schon ziemlich wenig ist.
Warum kann man das dann vergessen? AAA und TSSAA ist doch im Prinzip das gleiche.
Ich meinte das auch anders. Bei CB werden die ziemlich ressourcen fressenden AA Modis (AAA und TSAA) verwendet. Dadurch sehen selbst High-End Karten in höheren Auflösungen ziemlich schlecht da was die Frames angeht. Dieser Test gibt mir zb. ein völlig falsches Bild was die Leistungsfähigkeit der Grakas angeht. Ich denke mal, nur die Wenigsten nutzen wirklich AAA/TSAA in Games weil es eben sehr viel Performance je nach Game kosten kann. Ich habe ja im Prinzip nichts gegen den Test von CB, sie sollten aber auch zusätzlich nur mit MSAA testen.
Die_Allianz
2007-04-05, 22:48:29
Oh, ich finde das sogar sehr gut für die Karte. Sie müßte dann bei ca. 23-24W in Idle liegen, was schon ziemlich wenig ist.
ja?
also ich finde eine neue generation sollte bei gleicher Leistung weniger verbrauchen als der vorgänger!
Wo wäre denn sonst der Fortschritt!
dargo
2007-04-05, 22:58:25
ja?
also ich finde eine neue generation sollte bei gleicher Leistung weniger verbrauchen als der vorgänger!
Wo wäre denn sonst der Fortschritt!
Ähm, wenn D3D10, WUAF und kein Texturflimmern kein Fortschritt ist dann weiß ich auch nicht. X-D
Die_Allianz
2007-04-05, 23:01:40
Ähm, wenn D3D10
nicht nutzbar da die karte zu langsam ist! X-D
WUAF und kein Texturflimmern kein Fortschritt ist dann weiß ich auch nicht. X-D
wenn ich vorher ne ati hatte bestimmt kein kaufanreiz! X-D :P
dargo
2007-04-05, 23:05:52
nicht nutzbar da die karte zu langsam ist! X-D
Sorry, aber das ist Unsinn. D3D10 soll sogar die CPU entlasten. Dass es allerdings noch ziemlich lange dauern wird bis wir solche Titel sehen werden ist klar.
Shinjo
2007-04-05, 23:30:29
Sind da aber dan nicht die 128bit eher der Flaschenhals wenn die GPU mehr daten unter D3D10 verarbeiten soll als unter DX9?
Ob die Karte mit ihren ganzen D3D10 features zu langsam oder schnell genug ist kann man auch nocht nicht sagen... fehlt ja bisher die software für um es zu testen.
dargo
2007-04-05, 23:35:53
Sind da aber dan nicht die 128bit eher der Flaschenhals wenn die GPU mehr daten unter D3D10 verarbeiten soll als unter DX9?
Bei der G8600GTS geht es eigendlich noch mit den 35,2GB/s 32GB/s. Der Speicher taktet immerhin mit 1100Mhz 1000Mhz.
Wird auf jeden Fall noch ein Stück Arbeit... Es fehlt noch an Karten die weniger als 250 Euro Kosten und dennoch nicht so beschränkt sind. Weder 256/320MB noch 128 bit Interface sind optimal.
Angesichts der verfallenden Preise bei der jetzigen Generation spricht fast nix für diese neuen Karten. Ich würde jederzeit eine X1950 Pro (günstiger) oder X1950 XT 512 (schneller) vorziehen.
D3D10 tendiert ja eher noch zu mehr Shaderarithmetik. Da braucht man nicht unbedingt viel Bandbreite.
Ich würde aber erstmal gerne wissen wie's mit den Taktdomänen genau aussieht.
laser114
2007-04-06, 00:00:00
D3D10 tendiert ja eher noch zu mehr Shaderarithmetik. Da braucht man nicht unbedingt viel Bandbreite.
Auf die entsprechende Nutzung spekuliert nvidia (eventuell ATI ja auch) sicher, aber ob 32 GB/s für den Chip nicht wirklich zu langsam sind?
Bei der 76xx-Serie habe ich es noch verstanden, aber bei der 86xx-Serie könnte das wirklich ein sehr starker Flaschenhals werden.
Die X1950 Pro gibts ja nun wirklich sehr günstig. Wie nvidia mit der Performance vorbeiziehen möchte, ist mir schleierhaft...
dargo
2007-04-06, 00:07:57
Auf die entsprechende Nutzung spekuliert nvidia (eventuell ATI ja auch) sicher, aber ob 32 GB/s für den Chip nicht wirklich zu langsam sind?
Ich verstehe ehrlich gesagt echt nicht warum NV kein 192Bit SI gewählt hat. Sicherlich aus Kostengründen. Aber würde das jemanden jucken wenn eine G8800GTS 10-20$ dadurch mehr kosten würde? Keine Ahnung wie gross da die Preisdimensionen sind. Auf der anderen Seite könnte man wieder einen etwas günstigeren GDDR3 mit 800-900Mhz verbauen. Und so wären auch 320MB Grakas möglich.
Auf die entsprechende Nutzung spekuliert nvidia (eventuell ATI ja auch) sicher, aber ob 32 GB/s für den Chip nicht wirklich zu langsam sind?
Bei der 76xx-Serie habe ich es noch verstanden, aber bei der 86xx-Serie könnte das wirklich ein sehr starker Flaschenhals werden.
Die X1950 Pro gibts ja nun wirklich sehr günstig. Wie nvidia mit der Performance vorbeiziehen möchte, ist mir schleierhaft...
Die Karten werden wohl bald <=150€ kosten, wenn's jetzt schon 8800GTS um 250€ gibt. Darauf spekulieren sie.
laser114
2007-04-06, 00:15:53
Die Karten werden wohl bald <=150€ kosten, wenn's jetzt schon 8800GTS um 250€ gibt. Darauf spekulieren sie.
Von der Konkurrenz X1950 Pro dürften sie ja genug Karten im Haus gehabt haben - und die gibts jetzt schon unter 150 Euro.
Andererseits - mit dem DirectX-10-Bonus dürfte sie ja für viele Käufer weiter kommen...
@dargo: Ja, an das 192-bit-Interface habe ich auch gedacht, als die Spezifikationen der 8800er raus waren ... mit einem 128-bit-Interface hatte ich nicht mehr gerechnet..
Ich verstehe ehrlich gesagt echt nicht warum NV kein 192Bit SI gewählt hat. Sicherlich aus Kostengründen. Aber würde das jemanden jucken wenn eine G8800GTS 10-20$ dadurch mehr kosten würde? Keine Ahnung wie gross da die Preisdimensionen sind. Auf der anderen Seite könnte man wieder einen etwas günstigeren GDDR3 mit 800-900Mhz verbauen. Und so wären auch 320MB Grakas möglich.
Mit 128bit kann man pin kompatibel zu G7x Serie sein.
Das PCB schaut nach 7600GT aus.
Ailuros
2007-04-06, 01:40:40
Was du nicht verstehen willst ist das diese Designentscheidung von NV das dämlichste ist was man machen kann.
Nichts kommt umsonst. Jede Design-Entscheidung hat meistens sowohl Vor- als auch Nachteile, und ob es Dir jetzt schmeckt oder nicht insgesamt ueberwiegen die Vorteil der Nachteile dieser spezifischen Design-Entscheidung.
Und wenn du das auch noch verteidigst tust du mir leid.
Behalt Dein Mitleid fuer Deinen eher unangebrachten Ton.
Anscheinend kann die 8800er auch 1KW verbraten und du würdest noch Freudensprünge machen.
Ein weiteres Deiner Talente ist wohl Leuten Sachen in den Mund zu legen. Ob und wo sie zu viel verbraucht wird ja man hoffentlich bald vergleichen koennen.
Andere müssen dir gar nichts beweisen.
Oder beweise du das es ein Designentscheidung ist.
Mir wurde schon vor dem Launch unter NDA beigetragen dass es sich um eine solche handelt und mir persoenlich reicht es.
Ganz nebenbei hat Dich sowieso keiner angesprochen und "andere" brauchen auch keinen Rechtsanwalt. Und da ich vermute dass Du vielleicht solche Debatten etwas zu ernst nimmst, will ich ernsthaft hoffen dass es Dein Bildschirm in der Zwischenzeit ueberlebt :biggrin:
Ailuros
2007-04-06, 01:45:39
Eine KArte die heute im Idle soviel Watt für nicht verbrät ist imho nicht mehr zeitgemäß. Das mus man sagen und das spricht imho deutlichst gegen die NV Karten. Selbst wenn der R600 unter Last 60W mehr verballert, so würde er das durch einen um 30W geringeren Verbruach unter Idle mehr als kompensieren.
~30W Unterschied in 2D hat eine X1950XTX im Vergleich zum G80.
Ailuros
2007-04-06, 01:53:40
Ich verstehe ehrlich gesagt echt nicht warum NV kein 192Bit SI gewählt hat. Sicherlich aus Kostengründen.
Zu einem Teil ja, denn eine dritte ROP partition wuerde auch wieder etwas in Transistoren kosten. Noch dazu kommt dann dass der Preis-/Leistungs-Unterschied fuer kommende Performance GPUs mit 4 ROP partitions zu klein wird.
Ph0b0ss
2007-04-06, 01:56:32
Ich hätte auch mindestens ein 192bit SI und 384MB Speicher erwartet. Mit 128bit SI und nur 256MB Speicher ist die Karte wohl nichtmal soviel Wert wie eine X1950 GT 512MB für 120€, wenn die Benchmarks stimmen sollten.
Aber wer weiß, vielleicht kommt ja noch eine 8600 GTS 512MB mit 256bit SI raus. :biggrin:
Ailuros
2007-04-06, 01:59:37
256bit ist fuer H2 07' fuer Performance/Mainstream "reserviert".
AnarchX
2007-04-06, 09:01:06
192Bit zieht nunmal etwas unpraktische Speicherbestückungen nach sich, 192MB, 384MB oder 768MB sind eher nicht so sinnvoll für eine Midrangekarte, gerade auch wenn der Konkurrent hier 256MB oder 512MB bieten kann.
Und von der 8600GTS wird es ganz sicher eine 512MB Version geben. ;)
Zur Performance sollte man wohl den Launch und einen wohlmöglich dann erhältlichen Treiber abwarten, da die Performance momentan nicht ganz logisch ist.
Superheld
2007-04-06, 09:49:02
hat die GTS nur 48 Unified Shader
http://www.hardwareschotte.de/hardware/preise/proid_8038720/preis_NONAME+GeForce+8600GTS
AnarchX
2007-04-06, 10:02:56
hat die GTS nur 48 Unified Shader
http://www.hardwareschotte.de/hardware/preise/proid_8038720/preis_NONAME+GeForce+8600GTS
Fraglich wo Hardwareschotte diese Angabe her hat, immerhin gibt es auch noch das (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5370668#post5370668).
Interessant was das Lavalys alles schon für Erkennungen für zukünftige Karten hat:
http://www.lavalys.com/forum/index.php?showtopic=2273&pid=12041&st=0&#entry12041
... da sind schon einige 8800Ultras dabei. ;)
Die Specs aus dem it.com.cn Review zur 8600GT sind übrigens teilweise schon am 30.3. bei mydrivers.com aufgetaucht (http://translate.google.com/translate?u=http%3A%2F%2Fhardware.mydrivers.com%2F2%2F80%2F80624_12.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools):
http://img177.imageshack.us/img177/337/nvchipszm3.png
Hier (http://my.ocworkbench.com/bbs/showthread.php?t=61654) soll es noch ein Bild einer angebliche 8300GT geben.
AnarchX
2007-04-06, 12:36:47
Full GeForce 8500 and 8600 scores are here
3DMark03, 04 and 05 (http://www.theinquirer.net/default.aspx?article=38769)
http://img168.imageshack.us/img168/3446/85008600scoresccd418jq3.jpg
QX6700@default, 975X Board, 2x512MB
Ailuros
2007-04-06, 12:53:12
Falls das Zeug stimmen sollte, skaliert nach dem 3dfart03' score in synthetischem Zeug in etwa so wie man erwarten wuerde fuer eine 4 cluster GPU.
Um hinter das Raetsel von den Fear/Doom3 Resultaten zu kommen, muesste sich jemand hinsetzen und 3dfart03 einmal mit und einmal ohne AA in der gleichen Aufloesung mit einer X1950 bzw. 7900 vergleichen. Die Schlussfolgerung des Authors in dem vorigem Review ist fuer die Tonne. Falls es keine Treiberblase ist, dann sind es die ROPs die hier limitieren und nicht die Bandbreite. Denn wenn FEAR und Doom3 etwas gemeinsam haben dann sind es viele stencil shadows.
Hier haette der Author einfach nur nochmal FEAR getestet, nur diesmal mit reduzierten Schatten. Falls dann die Resultate genauso gut gewesen waeren wie in anderen Spielen, deutet es dann wohl eher auf eine ROP Schwaeche.
AnarchX
2007-04-06, 12:59:01
Riddick setzt doch auch auf Stencil Shadows und das performt bei Au-Ja extrem gut.
In FEAR und D³ liegt die 8600GTS etwas auf dem Niveau einer 7600GT im Au-Ja-Test, was selbst wenn es nur 3 Cluster wären nicht wirklich realistisch ist.
Also wird hier wohl ziemlich sicher ein Treiberbug vorliegen, vielleicht im Zusammenhang mit dem Shaderreplacement(die GTS wird fälschlicherweise mit G7x Shadern gefüttert die ihr nicht wirklich schmecken oder so). ;)
Ailuros
2007-04-06, 13:11:23
Vorsicht mit dem Shaderreplacement Zeug; wieso sollte eigentlich eine G8x von dem Zeug zurueckgehalten werden? (ehrliche Frage)
die GTS wird fälschlicherweise mit G7x Shadern gefüttert die ihr nicht wirklich schmecken oder so. ;)
Eine G8x-Karte würde mit G7x-Shadern nichtmal ein Bild anzeigen. Das ist Humbug.
seahawk
2007-04-06, 14:14:35
Man muss sehen, dass sich etwas bei NV verändert hat. Neben der X600GT und dem High-End arbeiten sie auch an einer Perfromance GPU die zwischen den beiden anderen eingeplant ist. 256 BIT 96 Shader z.B. und daher konnte man der G84 nicht megr Leistung geben, ohne die andere unnötig zu machen.
AnarchX
2007-04-06, 14:20:37
Eine G8x-Karte würde mit G7x-Shadern nichtmal ein Bild anzeigen. Das ist Humbug.
Dann eben nicht. Aber irgendetwas liegt da noch im Argen.
Man muss sehen, dass sich etwas bei NV verändert hat. Neben der X600GT und dem High-End arbeiten sie auch an einer Perfromance GPU die zwischen den beiden anderen eingeplant ist. 256 BIT 96 Shader z.B. und daher konnte man der G84 nicht megr Leistung geben, ohne die andere unnötig zu machen.
Ja, deshalb hat der G84 nur 4 Shader-Cluster und 2 ROP-Partions um sich vom G92 abzugrenzen. Aber das Problem ist, dass die Performance die hier gemessen wurde teilweise nicht zu diesem Setup passt(wie schon gesagt teilweise G73-Niveau).
robbitop
2007-04-06, 14:24:12
Zur Performance sollte man wohl den Launch und einen wohlmöglich dann erhältlichen Treiber abwarten, da die Performance momentan nicht ganz logisch ist.
Wieso ist sie das nicht? Mal geht ihr der VRAM aus und mal die Bandbreite.
seahawk
2007-04-06, 14:24:49
Es gibt einige Gründe warum die Performance nicht passen kann. ROP Überforderung bei Stencil-Shadows, Treiberblase oder Bandbreitenmangel.
Ich vermtue 1 und 2.
robbitop
2007-04-06, 14:28:02
Dass die ROPs limitieren, glaubt man doch im Leben nicht. Die wuerden limitieren, wenn jeder Texel in einem Takt fertig waere. Alles was die tun koennen ist in einem laeppischen Takt fertig. Die Berechnung eines Pixels hingegen kostet hunderte Takte.
Ausserdem haben 2x ROP Partitionen ja
-64 Z-Test Units (das ist schon Faktor 2 vom R580)
-8 Blender
Also in 1280*1024 bei 4xAA je nach Spiel geht den ROPs oder der Speicherbandbreite die Puste aus.
Erst ein wie von Ailuros angedeutet G9x Mainstream GPU mit 256Bit-SI und 96US (wenn man das so nenn darf *g) wird die alte Generation "rocken". Quasi eine 8800GTS mit 512MB RAM und 256Bit-SI. Wird dann wohl die 8700GT/GTS da 8900 ja für den reinen G90 ohne deaktivierte Einheiten reserviert ist. Die Geschichte G70-G70 wiederholt sich wohl (Da war die 7800GT ja auch nur 20Pipes groß, wurde aber später durch 7900GT ersetzt, ein G71 mit allen Pipes).
Ailuros
2007-04-06, 15:06:32
Dass die ROPs limitieren, glaubt man doch im Leben nicht. Die wuerden limitieren, wenn jeder Texel in einem Takt fertig waere. Alles was die tun koennen ist in einem laeppischen Takt fertig. Die Berechnung eines Pixels hingegen kostet hunderte Takte.
Ausserdem haben 2x ROP Partitionen ja
-64 Z-Test Units (das ist schon Faktor 2 vom R580)
-8 Blender
Wenn es keine Treiberblase sein sollte, dann deutet es wohl eher zuvor auf die ROPs als auf die Bandbreite als Flaschenhals. Ausser Du willst mir weiss machen dass Spiele wie Riddick oder STALKER weniger Bandbreite brauchen als Doom3/FEAR.
Wie gesagt nur wenn wir mehr Resultate sehen koennen, wird sich das eher merkwuerdige Raetsel loesen. Die 3dmark03 Resultate der G84 lassen erstmal vermuten dass hier der Treiber in die falsche Richtung furzt bei Fear/Doom3, aber garantiert ist es auch nicht.
Ailuros
2007-04-06, 15:09:07
Also in 1280*1024 bei 4xAA je nach Spiel geht den ROPs oder der Speicherbandbreite die Puste aus.
Erst ein wie von Ailuros angedeutet G9x Mainstream GPU mit 256Bit-SI und 96US (wenn man das so nenn darf *g) wird die alte Generation "rocken". Quasi eine 8800GTS mit 512MB RAM und 256Bit-SI. Wird dann wohl die 8700GT/GTS da 8900 ja für den reinen G90 ohne deaktivierte Einheiten reserviert ist. Die Geschichte G70-G70 wiederholt sich wohl (Da war die 7800GT ja auch nur 20Pipes groß, wurde aber später durch 7900GT ersetzt, ein G71 mit allen Pipes).
Ich bin mir gar nicht mehr so sicher dass es dieses Jahr noch eine single chip G9x high end Variante geben wird. Ich brauch noch etwas Zeit um einen Ueberblick ueber die Irrefuehrung zu bekommen.
http://img243.imageshack.us/img243/4677/8800gtsfrontim7.jpg
Albatron 8600 GTS
With drivers supplied on cd:
E6600
250gb 16mb cache Sata 3gb/sec
2gb 6400 Gskill ram
3dMark06...
Main Test Results
3DMark Score 5542 3DMarks
SM 2.0 Score 2284 Marks
SM 3.0 Score 2036 Marks
CPU Score 2605 Marks
Detailed Test Results
Graphics Tests
1 - Return to Proxycon 17.534 FPS
2 - Firefly Forest 20.532 FPS
CPU Tests
CPU1 - Red Valley 0.834 FPS
CPU2 - Red Valley 1.302 FPS
HDR Tests
1 - Canyon Flight (SM 3.0) 18.063 FPS
2 - Deep Freeze (SM 3.0) 22.653 FPS
The rest were n/a
Max temp with fans PELTING (stock) was ~70c with ATI tool stress test... This thing could do with some aftermarket methinks!
__________________
http://my.ocworkbench.com/bbs/showthread.php?t=61675
robbitop
2007-04-06, 15:33:53
Wenn es keine Treiberblase sein sollte, dann deutet es wohl eher zuvor auf die ROPs als auf die Bandbreite als Flaschenhals. Ausser Du willst mir weiss machen dass Spiele wie Riddick oder STALKER weniger Bandbreite brauchen als Doom3/FEAR.
Wie gesagt nur wenn wir mehr Resultate sehen koennen, wird sich das eher merkwuerdige Raetsel loesen. Die 3dmark03 Resultate der G84 lassen erstmal vermuten dass hier der Treiber in die falsche Richtung furzt bei Fear/Doom3, aber garantiert ist es auch nicht.
Vieleicht geht ihr manchmal einfach der VRAM aus.
Die ROPs limitieren bei 64x Z-Test Units nichtmal in Need for Speed 3, wo fast jeder Takt ein Pixel fertig wird (Uebertreibung) ;-).
Ohne AF dürfte das mit dem Pixel pro Takt sogar hinkommen bei NFS 3 X-D
BTW...
Hat Stalker etwa schon 4kx4k Texturen bei DX10, bzw. 2kx2k bei DX9?
Irgendwas bekannt?
Es gibt doch noch gar keinen D3D10-Modus in Stalker.
reunion
2007-04-06, 16:11:02
Wieso ist sie das nicht? Mal geht ihr der VRAM aus und mal die Bandbreite.
Die zum Vergleich herangezogenen Karten haben auch alle nur 256MB VRAM. IMHO fehlt da mehr als nur ein ROP-Cluster zum halben G80 (bei der Die-Size auch wenig verwunderlich), und/oder die Taktdomainen fehlen, denn dazu gibt es seltsamerweise noch immer keine Angaben, und die hohen Übertaktungswerte von VR-Zone würde auch dafür sprechen.
192Bit zieht nunmal etwas unpraktische Speicherbestückungen nach sich, 192MB, 384MB oder 768MB sind eher nicht so sinnvoll für eine Midrangekarte, gerade auch wenn der Konkurrent hier 256MB oder 512MB bieten kann.
Ist doch im High-End-Segment auch nicht anders.
Eine G8x-Karte würde mit G7x-Shadern nichtmal ein Bild anzeigen. Das ist Humbug.
Warum nicht?
Warum nicht?
Weil der Befehlssatz der GPU sich mit Sicherheit geändert hat.
Wenn dann wurde vor dem Compiler-Backend aus versehen eine G7x-Optimierung ausgeführt. Ist aber eine gewagte Theorie.
AnarchX
2007-04-06, 19:24:50
Ist doch im High-End-Segment auch nicht anders.
Doch das ist es schon, 620MB oder 768MB stellen eine sinnvolle Steigerung von 512MB dar und 320MB eine sinnvolle Steigerung von 256MB.
Aber mit einem 192Bit SI bei einer Mainstream/Midrange-Karte ist eben die resultierende Speicherbestückung eher problematisch:
-192MB -> zu wenig, da hier schon lange 256MB in diesem Segment angeboten werden
-384MB -> akzeptabel, aber hier würde die Konkurrenz wohl 512MB entgegensetzen
-768MB -> Irsinn in diesem Segment
Wieso ist sie das nicht? Mal geht ihr der VRAM aus und mal die Bandbreite.
Und deswegen soll sie auf das Niveau einer 7600GT zurückfallen? Die anderen Karten bei Au-Ja haben ja auch nur 256MB.
Ausserdem haben 2x ROP Partitionen ja
-64 Z-Test Units (das ist schon Faktor 2 vom R580)
Eigentlich doch Faktor 4, da R520(RV515) und R580 (http://www.beyond3d.com/resources/chip/105) nur eine Z-Test Unit pro ROP hatten.
reunion
2007-04-06, 19:46:13
-384MB -> akzeptabel, aber hier würde die Konkurrenz wohl 512MB entgegensetzen
Und nochmal: Ist doch im High-End-Segment auch nicht anders, dort setzt die Konkurrenz 1GB dagegen.
LovesuckZ
2007-04-06, 19:56:16
Und nochmal: Ist doch im High-End-Segment auch nicht anders, dort setzt die Konkurrenz 1GB dagegen.
8600 Karten sollen auch mit 512Mib Speicher kommen. Mit 3 ROPs - Partionen wäre dies nicht realisierbar. 384Mib als "Standard" wäre sehr viel - auch aus Kostenpunkten. jedoch haben heutige Karten im gleichen Segment schon 512Mib Speicher. Und dann soll nVidia gleich mit 768Mib kommen?
reunion
2007-04-06, 22:31:53
8600 Karten sollen auch mit 512Mib Speicher kommen. Mit 3 ROPs - Partionen wäre dies nicht realisierbar. 384Mib als "Standard" wäre sehr viel - auch aus Kostenpunkten. jedoch haben heutige Karten im gleichen Segment schon 512Mib Speicher. Und dann soll nVidia gleich mit 768Mib kommen?
Dass es schon Karten im gleichen Segment mit 512MB gibt, ist kein Argument - die gibt es selbst im absoluten Lowend-Segment. Bauernfang paar excellence. Die Frage ist was sinnvoll ist. Und hier denke ich, dass 192MB für die "Standardversion" und 384MB für die gehobene Klasse ausreichend wäre. Eine 7600GT bekommt man AFAIK gar nicht, oder nur äußerst sporadisch mit mehr als 256MB VRAM. Für die paar Freaks könnte man es dann den Boardpartnern überlassen, noch eine 768MB Version zu bringen. Also das ist IMHO wirklich kein Argument gegen einen 192-bit Bus, alleine schon deshalb, weil man es im High-End-Segment auch hingenommen hat.
AnarchX
2007-04-06, 22:59:24
Na dann finde 2007 mal Käufer für eine neue Midrange-Karte mit 192MB.;D
Also das ist IMHO wirklich kein Argument gegen einen 192-bit Bus, alleine schon deshalb, weil man es im High-End-Segment auch hingenommen hat.
Ja, aber eben mit dem Unterschied, dass man hier nicht weniger bietet als es Standard war bei vorherigen Karten:
256MB -> 320MB
512MB -> 640MB/768MB
Zudem stellt sich momentan auch noch die Frage wie sinnvoll Karten mit mehr als 512MB sind, weshalb man eben mit dem Schritt auf 640MB/768MB einen ziemlich guten Kompromiss fand.
Zwar hat ATi mit dem 1GB R600 auf der einen Seite einen Marketing-Vorteil( Verfügbarkeit und Preis dieser Karte ist zudem noch fraglich), wohingegen man auf der anderen Seite mit "nur" 512MB mit den Karten darunter nicht mehr so gut aussieht.
Dazu sollte man auch noch die Bedeutung des High-End-Segments im Verhältnis zum Midrange sehen. ;)
laser114
2007-04-06, 23:13:08
Naja, selbst 160 bit hätten doch die Anbindungsbegrenzung merklich abgemildert. Und da wären gerade 320 MB und 640 MB ein guter Marketingvorteil gegenüber der Konkurrenz, oder etwa nicht? ;)
AnarchX
2007-04-06, 23:20:07
Ist aber nunmal nicht möglich, da eben die ROP-Partitions (http://www.beyond3d.com/content/reviews/1/10) je einen 64Bit Speicherkanal mitbringen.
laser114
2007-04-06, 23:25:58
Achso. Hmm, nun gut. Dann bleibt ja wohl nicht mehr viel anderes übrig.
w0mbat
2007-04-06, 23:59:04
Mittels der ForceWare-Beta 101.41 konnte der Hardware-Ableger der PC Games eine Leistungssteigerung von 18 Prozent bei „Multiplikationen“ verbuchen.
Fehlende MUL anyone?
http://www.k-hardware.de/news.php?s=Ke87ff6ecf19c7a38249095ace245de4d&news_id=6481
robbitop
2007-04-07, 01:15:55
Doch das ist es schon, 620MB oder 768MB stellen eine sinnvolle Steigerung von 512MB dar und 320MB eine sinnvolle Steigerung von 256MB.
Aber mit einem 192Bit SI bei einer Mainstream/Midrange-Karte ist eben die resultierende Speicherbestückung eher problematisch:
-192MB -> zu wenig, da hier schon lange 256MB in diesem Segment angeboten werden
-384MB -> akzeptabel, aber hier würde die Konkurrenz wohl 512MB entgegensetzen
-768MB -> Irsinn in diesem Segment
Unter 512 MiB wird es oftmals schon kritisch. Die 320 MiB GTS faellt mit AA und >1280 oftmals stark zurueck.
Und deswegen soll sie auf das Niveau einer 7600GT zurückfallen? Die anderen Karten bei Au-Ja haben ja auch nur 256MB.
So wie ich das gesehen habe, liegt sie eher auf G71 Niveau.
Eigentlich doch Faktor 4, da R520(RV515) und R580 (http://www.beyond3d.com/resources/chip/105) nur eine Z-Test Unit pro ROP hatten.
Seit R300 hat jede ROP bei ATI 2x Z-Test Units. Nur kann ohne AA nur eine davon genutzt werden.
Fehlende MUL anyone?
http://www.k-hardware.de/news.php?s=Ke87ff6ecf19c7a38249095ace245de4d&news_id=6481
Das MUL ist ja im aktuellen Treiber schon freigeschaltet. Nur bringt es eben nur 1,15 fachen MUL Durchsatz, da die MUL Unit meist fuer SFUs, input modifier, perspektivkorrektur, tex ops ect genutzt wird. Die haellt der MAD Unit sozusagen den Ruecken frei. So ist das ja schon seit dem NV40.
Ich denke mal da werden ein paar Treiberblasen noch entfernt und wenn noetig eine uebertaktete G80 "ultra" an den Start gehen.
8800 Ultra ist schon im Treiber aufgetaucht, dürfte also wirklich kommen.
=Floi=
2007-04-07, 01:55:59
gibt es zu der irgendwelche vermutungen wie hoch die taktraten sein werden?
700mhz?
bei der 7800er ging es ja auch von 450 auf 550mhz was 22% entspricht und damit wären wir bei 700mhz bei der ultra :eek:
Fehlende MUL anyone?
http://www.k-hardware.de/news.php?s=Ke87ff6ecf19c7a38249095ace245de4d&news_id=6481
Nicht wirklich, btw ist der Treiber FW 101.41 schon über einen Monat alt (zumindest setzte ich ihn ein seit ich Vista installiert habe, was jetzt genau 27Tage her ist), und nur in rein theoretischen Benchmarks ganz spezifisch hat man a bissl mehr Leistung gemessen, aber in Spielen hat sich da gar nix getan.
AnarchX
2007-04-07, 08:37:55
8800 Ultra ist schon im Treiber aufgetaucht, dürfte also wirklich kommen.
Nicht nur da, Lavalys hat auch schon Infos dazu:
- detection of nVIDIA GeForce 8800 Ultra video chip
- detection of Asus EN8600GT, EN8600GTS, EN8800 Ultra video cards
- detection of ELSA GLadiac 880Ultra
- detection of Foxconn GeForce 8800 Ultra video card
- detection of Gainward GeForce 8800 Ultra video card
- detection of Inno3D Tornado GeForce 8800 Ultra video card (http://www.lavalys.com/forum/index.php?showtopic=2273&pid=12041&st=0&#entry12041)
So wie ich das gesehen habe, liegt sie eher auf G71 Niveau.
Der Doom3-Wert bei Au-Ja ist ziemlich genau die Leistung einer 7600GT.
btw.
[8600GTS Gaming Performance ]@VR-Zone (http://www.vr-zone.com/?i=4883&s=1)
NVIDIA GeForce 8600 GTS Performance Preview@HardwareZone (http://www.hardwarezone.com/articles/view.php?cid=3&id=2231)
Die Performance passt doch niemals zu 4 Clustern? :|
reunion
2007-04-07, 09:09:00
btw.
[8600GTS Gaming Performance ]@VR-Zone (http://www.vr-zone.com/?i=4883&s=1)
NVIDIA GeForce 8600 GTS Performance Preview@HardwareZone (http://www.hardwarezone.com/articles/view.php?cid=3&id=2231)
Die Performance passt doch niemals zu 4 Clustern? :|
Tja, ich habe es schon mehrmals erwähnt, und wurde dafür nur ausgelacht. Du bringst keinen halben G80 plus NVIO in 160mm² unter bei 80nm. Aber das sogar eine X1950pro schneller ist, ist schon etwas dürftig. Wer weiß was da alles zugunsten der Transistorenanzahl fehlt. Ich tippe nach wie vor u.a. stark auf die Taktdomainen, da bei jeden Review brav alle Taktraten angegeben werden, aber kein Wort von einem höheren Shadertakt gesprochen wird. Daraus würde schonmal eine sehr niedrige Shaderfüllrate resultieren.
Unter 512 MiB wird es oftmals schon kritisch. Die 320 MiB GTS faellt mit AA und >1280 oftmals stark zurueck.
Warum sollte eine 8600GTS mehr VRAM benötigen als eine andere Karte? Zumal man momentan nur von Karten mit 256MB VRAM hört, wenn es 512MB-Karten gibt, dann wohl nur später, und in sporadischen Dosen, ähnlich wie bei der 7600GT.
Ailuros
2007-04-07, 09:57:27
Tja, ich habe es schon mehrmals erwähnt, und wurde dafür nur ausgelacht. Du bringst keinen halben G80 plus NVIO in 160mm² unter bei 80nm. Aber das sogar eine X1950pro schneller ist, ist schon etwas dürftig. Wer weiß was da alles zugunsten der Transistorenanzahl fehlt. Ich tippe nach wie vor u.a. stark auf die Taktdomainen, da bei jeden Review brav alle Taktraten angegeben werden, aber kein Wort von einem höheren Shadertakt gesprochen wird. Daraus würde schonmal eine sehr niedrige Shaderfüllrate resultieren.
Wenn Du wuesstest wieviel Platz 6 clusters/4 ROP partitions (angeblich) im zukuenftigen Performance Dingsda einnehmen, wuerdest Du das Ganze nochmal ueberdenken.
Fuer D3D10 mainstream reicht es wenn die Dinger bis zu 2x Mal schneller sind als G73. Nuechtern gesehen erwarte ich nicht dass ein DX9/Performance GPU Besitzer auf so was "aufruesten" wuerde; da waere man wohl doch besser angebracht mit G9x/RV6x0 ab H2 2007.
Die Kake dass die Dinger schneller sein werden als 7900-wasauchimmer war mir schon immer klar dass man sich auf 3dfart scores bezog, deshalb war ich auch stets extrem vorsichtig mit analogem Mist.
Nach den Q4 Resultaten oben stimmt tatsaechlich irgend etwas nicht mit Fear. Es fehlen leider noch Oblivion Resultate als Beispiel. Im HardwareZone Preview haelt sich das Ding eigentlich ziemlich anstaendig gegen eine 320/8800GTS; bist Du Dir sicher dass Du nicht doch zu viel am Ende erwartet hast?
reunion
2007-04-07, 10:14:25
Wenn Du wuesstest wieviel Platz 6 clusters/4 ROP partitions (angeblich) im zukuenftigen Performance Dingsda einnehmen, wuerdest Du das Ganze nochmal ueberdenken.
Fuer D3D10 mainstream reicht es wenn die Dinger bis zu 2x Mal schneller sind als G73. Nuechtern gesehen erwarte ich nicht dass ein DX9/Performance GPU Besitzer auf so was "aufruesten" wuerde; da waere man wohl doch besser angebracht mit G9x/RV6x0 ab H2 2007.
Die Kake dass die Dinger schneller sein werden als 7900-wasauchimmer war mir schon immer klar dass man sich auf 3dfart scores bezog, deshalb war ich auch stets extrem vorsichtig mit analogem Mist.
Nach den Q4 Resultaten oben stimmt tatsaechlich irgend etwas nicht mit Fear. Es fehlen leider noch Oblivion Resultate als Beispiel. Im HardwareZone Preview haelt sich das Ding eigentlich ziemlich anstaendig gegen eine 320/8800GTS; bist Du Dir sicher dass Du nicht doch zu viel am Ende erwartet hast?
Der Chip soll 4 Cluster bei sehr hohen 675Mhz+ haben, hat also eine theoretischen Leistung, die einer 8800GTS fast ebenbürtig ist. Das müsste mindestens reichen, um eine X1950XT klar zu schlagen. Stattdessen wird der Chip in höheren Auflösungen oft von einer X1950pro abgehängt. Eine 8800GTS 320MB liegt meist über 50% vorne. Ich glaube nicht, dass man das alles nur mit der niedrigeren Speicherbandbreite erklären kann. Die Karte bei hardwarezone läuft sogar mit 745/2290. Weißt du schon was bezüglich Shaderclocks?
robbitop
2007-04-07, 10:33:48
Warum sollte eine 8600GTS mehr VRAM benötigen als eine andere Karte? .
Das hab ich nicht gesagt oder gemeint. ;)
Ich meine nur, dass man heute 512 MiB braucht, wenn man eine einigermassen kraeftige GPU nicht limitieren will.
Die Performance der 8600GTS liegt im Durchschnitt auf 7900/X1950pro Level. Das ist doch ok. Unter AA bricht sie wegen der Bandbreite natuerlich ein.
reunion
2007-04-07, 10:49:42
Ich meine nur, dass man heute 512 MiB braucht, wenn man eine einigermassen kraeftige GPU nicht limitieren will.
Da das dann aber auch auf die anderen zum Vergleich herangezogenen Karten gelten muss, sehe ich hier keinen Nachteil für die 8600GTS.
Die Performance der 8600GTS liegt im Durchschnitt auf 7900/X1950pro Level. Das ist doch ok. Unter AA bricht sie wegen der Bandbreite natuerlich ein.
Ich kann mich hier nur nochmal wiederholen: Die Karte liegt von der theoretischen Leistungsfähigkeit fast auf 8800GTS-Niveau sofern die Shadertaktraten ähnlich mitskaliert sind. Insgesamt scheint der Chip jedenfalls sehr schlecht ausbalanciert zu sein.
Ailuros
2007-04-07, 11:12:36
Der Chip soll 4 Cluster bei sehr hohen 675Mhz+ haben, hat also eine theoretischen Leistung, die einer 8800GTS fast ebenbürtig ist.
Ach ja und wieso?
8800GTS=
24 TMUs * 500MHz = 12 GTexels/s
20 ROPs * 500MHz = 10 GPixels/s
96 * 3 * 1.2GHz = 346 GFLOPs/s
64 GB/s
8600GTS=
16 TMUs (?) * 675MHz = 10.8 GTexels/s
8 ROPs * 675MHz = 5.4 GPixels/s
64 * 3 * 0.9GHz (?) = 173 GFLOPs/s
32GB/s
Mit was hast Du denn genau gerechnet? Selbst wenn der Shader-clock weit ueber 1GHz liegen wuerde, aendern sich die Unterschiede insgesamt um wie viel genau?
Das müsste mindestens reichen, um eine X1950XT klar zu schlagen. Stattdessen wird der Chip in höheren Auflösungen oft von einer X1950pro abgehängt. Eine 8800GTS 320MB liegt meist über 50% vorne. Ich glaube nicht, dass man das alles nur mit der niedrigeren Speicherbandbreite erklären kann. Die Karte bei hardwarezone läuft sogar mit 745/2290. Weißt du schon was bezüglich Shaderclocks?
Ich schaetze selber die Shaderclocks bei 900MHz ein, aber nochmal Du erwartest zu viel. Eine RV630 wird eine X1950PRO ebenso wenig abhaengen koennen IMHLO; von einer R580 sollte schon gar nicht die Rede sein.
=Floi=
2007-04-07, 12:23:46
interesannt ist aber dann der größere unterschied zum highend
diese aufstellung fand ich am besten
25% 7300GT
50% 7600GT
100%7900GTX
Sollten deine Zahlen stimmen, wäre die Karte extrem unausgewogen konstruiert. Da muss ATI nur ein ausgewogeneres Design auf den Markt werfen, um deutlich besser dazustehen. Manchmal bist du mit dir selbst inkonsequent.
interesannt ist aber dann der größere unterschied zum highend
diese aufstellung fand ich am besten
25% 7300GT
50% 7600GT
100%7900GTX
Wo steht das und in welchem Zusammenhang, weil einfach so paar Prozentzahlen sind irgendwie net aussagekräftig da netmal + und - Zeichen dran sind, hö?
robbitop
2007-04-07, 12:50:27
Ach ja und wieso?
8800GTS=
24 TMUs * 500MHz = 12 GTexels/s
20 ROPs * 500MHz = 10 GPixels/s
96 * 3 * 1.2GHz = 346 GFLOPs/s
64 GB/s
8600GTS=
16 TMUs (?) * 675MHz = 10.8 GTexels/s
8 ROPs * 675MHz = 5.4 GPixels/s
64 * 3 * 0.9GHz (?) = 173 GFLOPs/s
32GB/s
Nicht ganz korrekt. Jede ROP Partition verfuegt ueber 32 Z-Test Units. Jede davon kann entweder Color/Z lesen und schreiben oder je eine Stencil operation machen.
G84 hat also eine Pixelfuellrate von: 64x675 MHz = 43 GPix/sek.
Was meinst du warum ich nicht glaube, dass die Dinger bremsen sollten?
Mittlerweile glaube ich aber auch, dass hier was nicht stimmt. 4 G80 Cluster haben eine brachiale Fuellrate fuer Mittelklasse (man beachte die 2xbi TMUs).
Der Chip ist wirklich ziemlich klein fuer das alles (denn so teuer sind die ROPs nun auch wieder nicht).
w0mbat
2007-04-07, 12:51:07
Da müssen auch keine + und - Zeichen hin. Ist doch eine deutliche Aussage.
reunion
2007-04-07, 13:12:09
Mittlerweile glaube ich aber auch, dass hier was nicht stimmt. 4 G80 Cluster haben eine brachiale Fuellrate fuer Mittelklasse (man beachte die 2xbi TMUs).
Der Chip ist wirklich ziemlich klein fuer das alles (denn so teuer sind die ROPs nun auch wieder nicht).
Eben. Ich habe es schonmal erwähnt: Im absoluten Idealfall, was die Skalierung der Einheiten und die eines Die-Shrinks im Verhältnis zu Die-Größe betrifft (den wohl kein Chip je erreichen wird), müsste G84 ziemlich genau 191mm² Die-Fläche haben (484/2 x 0.79). Nicht berücksichtigt der fehlende ROP-Cluster und der integrierte NVIO. Selbst wenn man jetzt noch etwas mehr Redundanz bei G80 annimmt, ist das IMHO kaum machbar selbst bei diesem unrealistischen Fall.
Ich schaetze selber die Shaderclocks bei 900MHz ein, aber nochmal Du erwartest zu viel. Eine RV630 wird eine X1950PRO ebenso wenig abhaengen koennen IMHLO; von einer R580 sollte schon gar nicht die Rede sein.
In der Vergangenheit war es eigentlich üblich, dass ein neuer Midragechip einen alten High-End-Core zumindest ebenbürtig ist. Aber ich habe es weiter hinten ja schonmal erwähnt, die High-End-Cores werden einfach immer fetter, und die Midrage- und Lowendchips können diesem Tempo nicht folgen, da diese wirtschaftlich bleiben müssen. Ati musste schon letzte Generation mit der X1600 bluten.
Nakai
2007-04-07, 16:37:42
Mittlerweile glaube ich aber auch, dass hier was nicht stimmt. 4 G80 Cluster haben eine brachiale Fuellrate fuer Mittelklasse (man beachte die 2xbi TMUs).
Der Chip ist wirklich ziemlich klein fuer das alles (denn so teuer sind die ROPs nun auch wieder nicht).
Ob das wirklich 2 biTMUs sind, bezweifle ich schwer. Da die TMUs schon sehr stark entkoppelt sind, könnten es auch nur eine BiTMU sein.
mfg Nakai
Ob das wirklich 2 biTMUs sind, bezweifle ich schwer. Da die TMUs schon sehr stark entkoppelt sind, könnten es auch nur eine BiTMU sein.
mfg Nakai
Was hat die Entkopplung der TMUs von den Recheinheiten mit der Anzahl der Address und Filterings Units zu tun?
Er meint glaube ich, dass beim Mainstream an der Stelle evtl. gespart wurde, es also nur noch 1xBi pro TMU ist.
In der Vergangenheit war es eigentlich üblich, dass ein neuer Midragechip einen alten High-End-Core zumindest ebenbürtig ist. Aber ich habe es weiter hinten ja schonmal erwähnt, die High-End-Cores werden einfach immer fetter, und die Midrage- und Lowendchips können diesem Tempo nicht folgen, da diese wirtschaftlich bleiben müssen. Ati musste schon letzte Generation mit der X1600 bluten.
Hoffen wir mal, dass da in Zukunft noch Platz für einen Chip in der Mitte ist, für Leute denen Midrange zu langsam und Highend zu stromfressend und teuer ist.
So wie es momentan aussieht, muss man ja mit rechnen, dass die kleinen Highend Karten doppelt so schnell wie die großen Midrange Karten sind. Das müsste nun wirklich nicht sein.
AnarchX
2007-04-07, 17:40:50
Man sollte auch noch drauf achten, dass die 8600GTS in den letzen Benches eine OC-Version mit 745/?/1145MHz war -> 11.9GTex/s(?), 36.6GB/s.
Was aber in meinen Augen noch im Konflikt zu 3 Cluster Theorie steht ist die in einigen Situation(3DMark z.B.) doch ziemlich hohe Leistung. :|
Da müsste die Shaderdomain bei nur 6 Vec8 ALUs doch schon über 1GHz takten, was bisher nicht angenommen wurde?
Ein Rätsel was sich wohl spätestens in 10 Tagen lösen wird...
Er meint glaube ich, dass beim Mainstream an der Stelle evtl. gespart wurde, es also nur noch 1xBi pro TMU ist.
Das wäre möglich.
Nur stellt sich dann die Frage, warum man ein modulares Grundgerüst entwickelt, wenn jeder "Abkömmling" dann komm noch Gemeinsamkeiten hätte.
AnarchX
2007-04-07, 17:48:29
Everest 4.0 scheint einen tieferen Einblick zu geben.:|
8600GTS -> 32 ALUs, 675MHz/1458MHz/1000MHz
8600GT -> 32 ALUs, 540MHz/1188MHz/700MHz
Quelle
(http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F186%2F186116.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Jetzt wird es ganz verrückt...
Das wäre möglich.
Nur stellt sich dann die Frage, warum man ein modulares Grundgerüst entwickelt, wenn jeder "Abkömmling" dann komm noch Gemeinsamkeiten hätte.
Es wurde auch schon bei NV4x teilweise an den Ablegern gespart. Evtl. ist das im Design ja auch vorgesehen.
reunion
2007-04-07, 17:57:38
Everest 4.0 scheint einen tieferen Einblick zu geben.:|
8600GTS -> 32 ALUs, 675MHz/1458MHz/1100MHz
8600GT -> 32 ALUs, 540MHz/1100MHz/700MHz
Quelle
(http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F186%2F186116.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Jetzt wird es ganz verrückt...
Das würde natürlich auch einiges erklären, doch hohe Shadertaktraten, aber nur 1/4 G80. Das passt dann auch zur Leistung, die trotz der hohen Taktraten max. auf X1950pro-Niveau liegt.
Das würde natürlich auch einiges erklären, doch hohe Shadertaktraten, aber nur 1/4 G80. Das passt dann auch zur Leistung, die trotz der hohen Taktraten max. auf X1950pro-Niveau liegt.
Ich glaube nicht, dass es nur zwei Cluster sind. Dafür ist die übrige Leistung viel zu gut.
reunion
2007-04-07, 18:16:44
Ich glaube nicht, dass es nur zwei Cluster sind. Dafür ist die übrige Leistung viel zu gut.
Auch wieder irgendwo wahr. Allerdings scheint die Leistung ja eigentlich nur im 3dmark wirklich zu überzeugen, wäre interessant zu wissen, an was das liegt. Vermutlich sind es vier Cluster, die allerdings irgendwo abgespeckt wurden. Aber warten wir ab.
Nakai
2007-04-07, 18:23:45
Das wäre möglich.
Nur stellt sich dann die Frage, warum man ein modulares Grundgerüst entwickelt, wenn jeder "Abkömmling" dann komm noch Gemeinsamkeiten hätte.
Weil das die Geforce 8600GTS nicht braucht.
mfg Nakai
robbitop
2007-04-07, 18:32:19
Er meint glaube ich, dass beim Mainstream an der Stelle evtl. gespart wurde, es also nur noch 1xBi pro TMU ist.
Das waere durchaus moeglich.
Aber sind die paar Filtereinheiten so teuer?
Godmode
2007-04-07, 18:36:42
Everest 4.0 scheint einen tieferen Einblick zu geben.:|
8600GTS -> 32 ALUs, 675MHz/1458MHz/1000MHz
8600GT -> 32 ALUs, 540MHz/1188MHz/700MHz
Quelle
(http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F186%2F186116.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Jetzt wird es ganz verrückt...
Also wenn die Leistung wirklich nur aus 2 Clustern kommt, dann ist das eine ganz beachtliche Leistung! Richtig interessant wird dann wohl erst eine Version mit 64 ALUs, vielleicht schon in 65nm.
Weil das die Geforce 8600GTS nicht braucht.
mfg Nakai
Was braucht die 8600GTS nicht?
robbitop
2007-04-07, 19:34:08
Ach iwo, glaubt ihr Everest oder sonstwas kann solche Daten auslesen?
Der liest die Device ID aus und gibt die Daten aus der Datenbank, die der Programmierer erstellt hat, wieder. Diese Angaben muessen nicht stimmen. Fuer 2 Cluster ist die Performance der 8600GTS viel zu gut.
Nakai
2007-04-07, 19:49:39
Was braucht die 8600GTS nicht?
Ich gehe jetzt besonders auf die TMUs ein. Wie ich das sehe, können die TMUs der Geforce 8600GTS nur ein BiSample produzieren. Dadurch hat man die erste der beiden TMUs wohl entfernt. So ist auch 4xAF dann nicht mehr kostenlos.
Ebenso sind 8 ROPs schon sehr wenig.
Man hat beim Chip versucht ihn kleinzuhalten, verständlich zum G80, welcher über 680mill Transis wiegt.
Daher sollte man aber schon erwarten das die Karte an Biss verliert.
(Außerdem sehe ich kostenloses AF und effektivere Einheiten im Midrangesegment als weniger notwendig an)
mfg Nakai
Ich gehe jetzt besonders auf die TMUs ein. Wie ich das sehe, können die TMUs der Geforce 8600GTS nur ein BiSample produzieren. Dadurch hat man die erste der beiden TMUs wohl entfernt. So ist auch 4xAF dann nicht mehr kostenlos.
Auch der G80 kann "nur ein BISample produzieren". Die TMUs können pro Takt bis zu zwei bilineare Samples berechnen. Dabei müssen die beiden Samples aus derselben Textur stammen. Somit lässt sich trilineare Filterung und anisotrope Filterung beschleunigen (http://www.3dcenter.de/artikel/2006/12-28_b.php)
Und wir sind uns doch wohl einig, dass trilineare Filterung auch für eine Midrange-Karte unabdingbar ist.
Ebenso sind 8 ROPs schon sehr wenig.
Nein, die reichen vollkommen aus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.