PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: sieben weitere D3D10-Produkte in Arbeit


Seiten : [1] 2 3 4 5

deekey777
2006-11-10, 17:27:46
http://www.beyond3d.com/forum/showthread.php?t=35502
http://www.dailytech.com/article.aspx?newsid=4891
Und das: More "G80" Derivatives in February (http://dailytech.com/article.aspx?newsid=4867)
Ob unter den kommenden Produkten auch IGP für Intel gemeint sind, ist zZ unklar.
Ergänzend: G80-Mainstream/Lowend auf der CeBIT? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4876123#post4876123)
------------------------------------------

GeForce8-IGP für Intels S.775 - Q4/2007
(http://www.hkepc.com/bbs/itnews.php?tid=711343)
8800GTS 320MB für 299$ Mitte Februar (http://www.vr-zone.com/index.php?i=4472)

Gast
2006-11-10, 17:41:29
Hm sind es jetzt 7 oder 9?

Zitait: "Additionally, during the Q&A section of the investor call, Huang also alluded to the fact that the company would announce no less than nine DirectX 10 graphics cards based on the G80 family of GPUs. Two G80 products have already been announced, the GeForce 8800 GTX and GTS. "

Quelle: http://www.dailytech.com/article.aspx?newsid=4891

Klar wirds wohl nur wenn man das genaue Interview hat.

seahawk
2006-11-10, 19:08:07
7

8800 GT dir Karte zwischen GTX und GTS dürfte im Februar kommen

8600 in 2 Versionen + mobile

8300 in 2 Versionen + mobile

Eine GX ist kein neuer Chip und wurde bisher nie als solcher bezeichnet.

Hvoralek
2006-11-11, 22:03:53
Es sind wohl sieben + 8800 GTX und GTS.

Die gelbe Eule
2006-11-11, 22:50:06
Wenn man die Intel IGPs als eigenständige Chips sehen möchte, dann könnte da noch mehr passieren, Stichwort Physikkarte auf G80 Basis.
Ob eine GT kommt, könnte fraglich sein, weil wie möchte man sie ausstatten? Genauso wie die GTS aber mehr Takt oder wie die GTX und weniger Takt, weil am SI kann man kaum rumwerkeln. Auch preislich gesehen würde sie da kaum reinpassen, es sei denn man pusht die GTS schon gen 300€.

Ist aber doch sehr Interessant zu lesen, das NV immerhin 9 Chips plant und ATi noch mit keiner Karte in naher Zukunft zu sehen ist. Sollte sie gehörig unter Druck setzen, weil im Mainstreammarkt dürfte dann NV mit Intel beim Vista Start richtig Asche machen.

Winter[Raven]
2006-11-11, 23:44:01
Ist aber doch sehr Interessant zu lesen, das NV immerhin 9 Chips plant und ATi noch mit keiner Karte in naher Zukunft zu sehen ist. Sollte sie gehörig unter Druck setzen, weil im Mainstreammarkt dürfte dann NV mit Intel beim Vista Start richtig Asche machen.

Da kannst du Gift drauf nehmen, und wenn man so einige Aussagen von bestimmten PErsonen richtig deutet, scheint ATI nichts aus der R5xx Reihe gelernt zu haben.

Der Umsatz wird im Mid & Lowrage gemacht und nicht bei den Enthusiasten.

Hvoralek
2006-11-12, 00:06:08
Ob eine GT kommt, könnte fraglich sein, weil wie möchte man sie ausstatten? Genauso wie die GTS aber mehr Takt oder wie die GTX und weniger Takt, weil am SI kann man kaum rumwerkeln. Auch preislich gesehen würde sie da kaum reinpassen, es sei denn man pusht die GTS schon gen 300€.Man könnte sieben ALU/TMU- Blöcke nehmen und entweder ein 320- oder 384- bit- SI. Preislich liegen zwischen der GTS und GTX im Moment 150 - 200€, da würde noch ein Modell zwischenpassen. Zwischen die 7900GT und GTX zB hat Nvidia sogar noch zwei Karten gequtescht.

"]Da kannst du Gift drauf nehmen, und wenn man so einige Aussagen von bestimmten PErsonen richtig deutet, scheint ATI nichts aus der R5xx Reihe gelernt zu haben.ATI hat letztes Jahr doch versucht, ziemlich vom Start weg eine vollständige Produktpalette zu bieten. Die X1600er waren als richtige Mittelklasse geplant, auch wenn sie ein totaler Reinfall wurden. Nvidia hat sich mit der Gf7- Mittelklasse neun Monate Zeit gelassen.

Ich gehe davon aus, dass ATI zumindest nicht lange nach dem R600 mit Mittelklasse- und Low- Cost- Modellen ankommen wird. War nicht auch schonmal die Rede von einem RV610 und RV630?

Die gelbe Eule
2006-11-12, 00:09:17
']Da kannst du Gift drauf nehmen, und wenn man so einige Aussagen von bestimmten PErsonen richtig deutet, scheint ATI nichts aus der R5xx Reihe gelernt zu haben.

Der Umsatz wird im Mid & Lowrage gemacht und nicht bei den Enthusiasten.

Wenn ich nur wüßte wo der Vergleich G80/R600 war, dort konnte man sogar nachlesen das der R600 sauheiß ist und AMD nachhelfen muss das in den Griff zu bekommen.

Da issa: klick (http://forums.anandtech.com/messageview.cfm?catid=31&threadid=1949593)

AnarchX
2006-11-12, 00:09:21
War nicht auch schonmal die Rede von einem RV610 und RV630?

Bum Shaka (Laka) (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/september/ati_codenamen_chips/);)
Na mal hoffen das der RV630 kein zweiter RV530 wird...
Aber das ist ja hier eher OT.

Kosh
2006-11-12, 07:58:16
']Da kannst du Gift drauf nehmen, und wenn man so einige Aussagen von bestimmten PErsonen richtig deutet, scheint ATI nichts aus der R5xx Reihe gelernt zu haben.

Der Umsatz wird im Mid & Lowrage gemacht und nicht bei den Enthusiasten.

Das bedeutet aber,das man den R600 wenn nicht schnell genug für die GTS und GTX,einfach als Midrangekarten rausbringt.

Wenn das Topmodell zB etwas langsamer als die GTS wäre,dann macht man sie einfach 100 Euro billiger als die GTS.

Schon würde man im Prinzip mehr Kohle machen als NVIDIA.

Das "wer hat den Längsten,äh schnellsten" grafikchip hätte man verloren,aber finanziell gesehen wäre man dann sogar erfolgreicher,wenn NVIDIA nicht massiv den Preiss enken würde.

SKYNET
2006-11-12, 08:03:09
Das bedeutet aber,das man den R600 wenn nicht schnell genug für die GTS und GTX,einfach als Midrangekarten rausbringt.

Wenn das Topmodell zB etwas langsamer als die GTS wäre,dann macht man sie einfach 100 Euro billiger als die GTS.

Schon würde man im Prinzip mehr Kohle machen als NVIDIA.

Das "wer hat den Längsten,äh schnellsten" grafikchip hätte man verloren,aber finanziell gesehen wäre man dann sogar erfolgreicher,wenn NVIDIA nicht massiv den Preiss enken würde.

nöm evtl. mehr unsatz , aber der gewinn geht in keller!

sry, betunke

Gast
2006-11-12, 12:06:31
Wenn ich nur wüßte wo der Vergleich G80/R600 war, dort konnte man sogar nachlesen das der R600 sauheiß ist und AMD nachhelfen muss das in den Griff zu bekommen.

AMD soll TSMC bei ihrem Prozess geholfen haben?
Klingt sehr sehr unwahrscheinlich.
Erstens könnten sie das wahrscheinlich garnicht und zweitens würden sie es auch nicht, selbst wenn sie es könnten.

Hvoralek
2006-11-12, 12:55:52
Das bedeutet aber,das man den R600 wenn nicht schnell genug für die GTS und GTX,einfach als Midrangekarten rausbringt.

Wenn das Topmodell zB etwas langsamer als die GTS wäre,dann macht man sie einfach 100 Euro billiger als die GTS.

Schon würde man im Prinzip mehr Kohle machen als NVIDIA.

Das "wer hat den Längsten,äh schnellsten" grafikchip hätte man verloren,aber finanziell gesehen wäre man dann sogar erfolgreicher,wenn NVIDIA nicht massiv den Preiss enken würde.Das kommt auch auf die Herstellungskosten der Chips an.

SavageX
2006-11-12, 12:58:46
Das kommt auch auf die Herstellungskosten der Chips an.

Eben. Oder um einen etwas abgegriffenen Witz meines Mathelehrers zu bemühen:

Verblüffter Kunde: Sie verkaufen den Kaffee ja unter Einkaufspreis! Wie machen Sie das nur?
Stolzer Ladenbesitzer: Die Menge machts!

Gast
2006-11-12, 16:23:57
Wann gibts endlich mal wieder eine vernünftige Quadro?

Bei den momentanen Standard und Preisen sollte ne Karte mit 1024 MB und 512 bit SI doch locker drin sein...

Gast
2006-11-12, 16:39:34
Wann gibts endlich mal wieder eine vernünftige Quadro?

Bei den momentanen Standard und Preisen sollte ne Karte mit 1024 MB und 512 bit SI doch locker drin sein...Ich glaube nicht, dass wir so schnell ein 512-bit-Speicherinterface sehen werden. Auch die High-End-Quadro wird wohl mit 384 bit kommen.

Die gelbe Eule
2006-11-12, 17:03:31
AMD soll TSMC bei ihrem Prozess geholfen haben?
Klingt sehr sehr unwahrscheinlich.
Erstens könnten sie das wahrscheinlich garnicht und zweitens würden sie es auch nicht, selbst wenn sie es könnten.

Sagt ja keiner was von TSMC, sondern nur das hier die Hitze in den Griff bekommen werden muss.

=Floi=
2006-11-13, 02:39:09
das ist doch der ganz normale standard
ich wüsst nicht was daran jetzt so besonders ist an weiten 7 modellen in der zukunft?
angefangen bei der ?300 vordoppelt sich bei jeder klasse immer die performance, nur verstehe ich jetzt nicht genau warum es ausgerechnet eine 8300,8600 sein soll
ich glaube DX10 wird erst richtig ausgeschlachtet und dann kommen die karten für die unteren klassen da auch die 8800GTX nicht gerade günstig in der herstellung sein wird und man somit nicht so schnell die preise senken will/kann und derweil kommt dann sowieso der refresh ala
9900GTX 9900GT im april
ich würde es so begrüßen
9300GT/GS 9600GT/GS 9900GS/GT/GTX ab april 2007
domit gibt es im performance bereich 6monate abstand und im mid range segment 1 jahr

seahawk
2006-11-13, 07:16:29
Gerade die Unter- und Mittelklasse ist für NV ein immenz wichtiger Faktor, den gerade die Karten gehen bei dem OEMs und wenn man mit dem Erscheinen von Vista und der Auslieferung mit VISTA bestückter PCs der einzige Anbieter ist, der DX10 kompatibele Karten der gängigen Preisklasse anbietet, dann macht man mächtig Umsatz und sicher auch Gewinn.

Mancko
2006-11-13, 09:46:54
Gerade die Unter- und Mittelklasse ist für NV ein immenz wichtiger Faktor, den gerade die Karten gehen bei dem OEMs und wenn man mit dem Erscheinen von Vista und der Auslieferung mit VISTA bestückter PCs der einzige Anbieter ist, der DX10 kompatibele Karten der gängigen Preisklasse anbietet, dann macht man mächtig Umsatz und sicher auch Gewinn.

Das mit Sicherheit. Wenn NV vor ATI drann ist, dann wird das eng werden 2007 für ATI. Eine erfolgreiche Mainstream und Low End VISTA-Produktlinie ist sehr wichtig. DX9 gibt es ja nun schon eine Weile und mit VISTA lässt sich Kohle machen. Momentan gerät ATI auf jeden Fall ganz schön unter Druck.
Wenn das mit der R600 Produktlinie nicht hinhaut, war das die letzte High End Karte von ATI.

seahawk
2006-11-13, 10:05:56
Besonders weil NV, selbst dann damit leben könnte, wenn der R600 den G80 schlägt solange der Abstand nicht extrem gravierend ist.

ATI konnte den Vorsprung im High-End auch bei der SM3.0 Generation nicht wirklich im Mainstream umsetzen.

Im Endeffekt braucht ATI einen R300-Effekt, also die deutlich und klare Distanzierung der NV-Karte, was aber imho unwahrscheinlich ist. Geht man von einer Verfügbarkeit des R600 am Ende des 1Q07 aus, dann hat der G80 bereits gute 4 Monate auf dem Rücken, der erste Refresh rückt dann näher.

Mancko
2006-11-13, 14:04:19
Besonders weil NV, selbst dann damit leben könnte, wenn der R600 den G80 schlägt solange der Abstand nicht extrem gravierend ist.

ATI konnte den Vorsprung im High-End auch bei der SM3.0 Generation nicht wirklich im Mainstream umsetzen.

Im Endeffekt braucht ATI einen R300-Effekt, also die deutlich und klare Distanzierung der NV-Karte, was aber imho unwahrscheinlich ist. Geht man von einer Verfügbarkeit des R600 am Ende des 1Q07 aus, dann hat der G80 bereits gute 4 Monate auf dem Rücken, der erste Refresh rückt dann näher.

Jap so ist es. Ich glaube auch, dass es darauf hinauslaufen wird. Wenn man so diverse Kommentare und Gerüchtenews hört, dann siehts mir nicht nach einem R600 vor Ende März aus.
Und ob ein Hardlaunch im April wirklich funktionieren wird... Ich bin da eher skeptisch. Der X1800 Launch ging ja mehr oder weniger auch in die Hose. Nach spätestens 6 Monaten ist Nvidia in der Lage eine aufgebohrte G80 Karte mit kleinerem Fertigungsprozess zu bringen. Wenn die Mainstreamkarten im Februar kommen, wirds sehr eng für ATI werden, denn ich glaube nicht, dass ATI am Tag 1 der R600 Vorstellung gleich die komplette Palette startet. Das wäre schon sehr überraschend und würde auch nicht zu den bisherigen Erfahrungswerten passen.

Und das sich ATI von AMD hat kaufen lassen ist auch so ein interessanter Aspekt. Welche Firma die zu 100% von ihrer Zukunft überzeugt ist lund auch davon den Gegner zu schlagen lässt sich kaufen????

Ohne jetzt ein Megaschwarzes Bild malen zu wollen, glaube ich droht uns Anwendern da eher eine weniger schöne Zukunft im 3D Markt die zumindest im Enthusiastenbereich arg konkurenzlos werden könnte, wie es schoneinmal war.

DjNorad
2006-11-13, 14:30:31
das ist doch der ganz normale standard
ich wüsst nicht was daran jetzt so besonders ist an weiten 7 modellen in der zukunft?
angefangen bei der ?300 vordoppelt sich bei jeder klasse immer die performance, nur verstehe ich jetzt nicht genau warum es ausgerechnet eine 8300,8600 sein soll
ich glaube DX10 wird erst richtig ausgeschlachtet und dann kommen die karten für die unteren klassen da auch die 8800GTX nicht gerade günstig in der herstellung sein wird und man somit nicht so schnell die preise senken will/kann und derweil kommt dann sowieso der refresh ala
9900GTX 9900GT im april
ich würde es so begrüßen
9300GT/GS 9600GT/GS 9900GS/GT/GTX ab april 2007
domit gibt es im performance bereich 6monate abstand und im mid range segment 1 jahr

Ich fürchte du hast das "Benamungs"-Schema von Nvidia nicht durchschaut ;-)

Eine neue Serie:
?800 = High-End
?600 = Mainstream
?200 = Low-End


Ein Serien Refresh:
?800 --> ?900 (ggf ?950 fall es zwei refreshs für eine Serie gibt.)
?600 --> ?700
?200 --> ?300

Also WENN im April/Mai nen Refresh kommt, dann wird es sicherlich ne 8900 und nicht 9900 sein ;-)

eine 9000er Serie wird es erst mit dem G90 Chip geben ....


Gruß

Gaestle
2006-11-13, 14:47:08
Wenn ich nur wüßte wo der Vergleich G80/R600 war, dort konnte man sogar nachlesen das der R600 sauheiß ist und AMD nachhelfen muss das in den Griff zu bekommen.

Da issa: klick (http://forums.anandtech.com/messageview.cfm?catid=31&threadid=1949593)

Allerdings scheint da auch ein viel Falsches zum G80 zu stehen. Die Frage ist, ob er vom R600 mehr Ahnung hatte, als vom G80 (wo einiges anscheinend nicht stimmt).

Anarchy-HWLUXX
2006-11-13, 15:01:19
9900GTX 9900GT im april
ich würde es so begrüßen
9300GT/GS 9600GT/GS 9900GS/GT/GTX ab april 2007
domit gibt es im performance bereich 6monate abstand und im mid range segment 1 jahr

Nen refresh bekommt keine Tausender stelle mehr ... wenn dann 8900* und was sollen die 93** und 96** im Q2 / 07, da kommen erst die 8***er

Gast
2006-11-13, 15:08:32
Nen refresh bekommt keine Tausender stelle mehr ... wenn dann 8900*Den NV40-Refresh hat man auch 7800 genannt.

seahawk
2006-11-13, 15:31:50
Der G70 ist und wahr schon mehr als ein NV40 Refresh.

deekey777
2006-11-13, 15:41:37
Allerdings scheint da auch ein viel Falsches zum G80 zu stehen. Die Frage ist, ob er vom R600 mehr Ahnung hatte, als vom G80 (wo einiges anscheinend nicht stimmt).
Wenn man sich anschaut, was im R600-Thread steht und dazu halbwegs sicher ist, und mit den Infos vergleicht, die der Typ bei Anand gepostet hat, komme ich nur zu einem Ergebnis: Er hat keine Ahnung von R600 und gibt nur das wieder, was er irgendwo gefunden hat, was das ganze nicht richtiger macht.
']Da kannst du Gift drauf nehmen, und wenn man so einige Aussagen von bestimmten PErsonen richtig deutet, scheint ATI nichts aus der R5xx Reihe gelernt zu haben.

Der Umsatz wird im Mid & Lowrage gemacht und nicht bei den Enthusiasten.
Und welche bestimmten Personen wären das?

Anarchy-HWLUXX
2006-11-13, 15:57:15
Den NV40-Refresh hat man auch 7800 genannt.

Es hat sich zwar an der Architektur nicht viel geändert aber Performancetechnich mehr als genug - dieser Schritt war nicht so ganz geplant - nV wollte den G80 ja laut interview schon viel früher bringen.

Nen "klassischer" Refresh ist 7800->7900 ...



@Winter[Raven] -

Umsatz ist zwar im Low & Mid enorm ... nur ist der Gewinn bei den High-End Karten welten höher ...

Gast
2006-11-13, 19:34:04
Hi

Keine Ahnung ob das schon gepostet wurde: http://www.ngohq.com/home.php?page=Articles&go=read&arc_id=121

Mich interessiert ja der G80-850 und G80-875 Eintrag... Ist eines von beiden vielleicht die Mobile version?

mfg

deekey777
2006-11-14, 10:12:12
Hi

Keine Ahnung ob das schon gepostet wurde: http://www.ngohq.com/home.php?page=Articles&go=read&arc_id=121

Mich interessiert ja der G80-850 und G80-875 Eintrag... Ist eines von beiden vielleicht die Mobile version?

mfg
Hm, nach dem GTS-Kürzel bringt nVidia auch alte Bezeichnungen der GF2MX zurück? :| :biggrin:
Wie es aussieht, haben die neuen eigene IDs, es sind also weitere Chips (macht ATi bei X1950Pro/X1650XT ähnlich: als R580 ausgewiesen, aber mit eigener Device_ID). Interessant.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4981846#post4981846
€dit:
Nvidia “Sampling” DirectX 10 Mobile GPU for Centrino Pro Notebooks. (http://www.xbitlabs.com/news/video/display/20061113141458.html)

robbitop@work
2006-11-14, 10:49:45
Im Endeffekt braucht ATI einen R300-Effekt, also die deutlich und klare Distanzierung der NV-Karte, was aber imho unwahrscheinlich ist.
Eben. R300 war ja nicht sooo extrem stark. Sie war gut. Sie war schnell. Aber was hinzukam: NV3x war lahm. Das addiert sich eben.
Dass sich NV nochmal so einen Patzer leistet, glaube ich nicht. Die Architekturen danach waren alle effizient und technologisch nie eine Bremse. Auch bei dem Produktionsprozess geht man auf Nummer sicher. Einen R300 Effekt wird's vermutlich nicht mehr geben.

Ich glaube aber nicht, dass ATI von AMD abgewürgt werden würde. Da es eine freundliche Übernahme war, schätze ich, dass es da ein Gentlemen agreement gab. Wer läßt sich schon gerne freiwillig absägen?
ATI hat allerdings seit R300 kein sehr gutes Gesamtportfolio mehr, welches auch noch rechtzeitig da ist.
Vieleicht sollten sie mit ihrem Produktionsrisiko etwas heruntergehen und die Architekturen, wie NV, ein bisschen mehr auf Midrange zuschneiden und dann skallieren und nicht von vornherein auf pures Highend.

DrumDub
2006-11-14, 11:35:28
Vieleicht sollten sie mit ihrem Produktionsrisiko etwas heruntergehen und die Architekturen, wie NV, ein bisschen mehr auf Midrange zuschneiden und dann skallieren und nicht von vornherein auf pures Highend. bis sich so eine entschdeiung auswirkt, dauert es aber schon ein paar jahre... die grundlagen zur guten skalierbarkeit der aktuellen nv-architekturen wurden ja schon mit dem nv30 gelegt...

allerdings könnte auch genau das beim r600 aufgrund der usa gelöst sein. letztendlich war ja selbst der r580 ein abkömmling des r300-designs.

Matrix316
2006-11-15, 21:32:26
Also ich freue mich schon auf den Release der nächsten nvidia Generation. Dann kann man endlich auf gleicher Ebene vergleichen, nämlich nvidia Geforce 9800 vs ATI Radeon 9800 :D:D ;);)

Ich finds schad, dass die Mainstream DX10 Karten noch so lange auf sich warten lassen. :(

Hvoralek
2006-11-15, 21:45:39
Ich finds schad, dass die Mainstream DX10 Karten noch so lange auf sich warten lassen. :(ImM sieht es nach Q1 07 aus. Ein paar Monate später ist doch normal :confused:

=Floi=
2006-11-16, 05:45:30
bisher war es ja auch so
6800 7800 7900
eine 6900er gab es also nicht

habe mich da trotzdem ein bischen verheddert das muss ich zugeben

StefanV
2006-11-16, 05:56:05
eine 6900er gab es also nicht
Schon, nur leider habens umbenannt, unverständlicherweise...

=Floi=
2006-11-17, 16:45:05
das war kein refresh mehr sondern eine richtiges aufbohren der architektur
das ging bis zu 7900GTX
von ca475mhz rauf bis auf 650mhz

Hvoralek
2006-11-17, 19:16:50
das ging bis zu 7900GTX
von ca475mhz rauf bis auf 650mhzWo denn 475 MHz?

incurable_nli
2006-11-18, 12:59:36
ATI hat allerdings seit R300 kein sehr gutes Gesamtportfolio mehr, welches auch noch rechtzeitig da ist.

Wenn ich die letzten paar Jahre Revue passieren lasse hatte ATi eigentlich nicht ein einziges Mal in den ersten 2/3 eines Produktzykluses ein auch nur gutes Gesamtportfolio, irgendwo hakte es eigentlich immer.

Vieleicht sollten sie mit ihrem Produktionsrisiko etwas heruntergehen und die Architekturen, wie NV, ein bisschen mehr auf Midrange zuschneiden und dann skallieren und nicht von vornherein auf pures Highend.

Ich denke mal, dass AMD spätestens bei der nächsten Generation darauf drängen wird, sich mehr auf die OEM-Kundenkarten zu konzentrieren (Platform und bla), allerdings erwarte ich damit auch den Abschied aus dem Highend.

Schon komisch, dass eine doch relativ grosse Grafikfirma / -division es über Jahre hinweg nicht schafft, in allen 4 Marktsegmenten gleichzeitig konkurrenzfähige Produkte zu liefern. (wobei das nVidia ja, weiß Gott, auch nicht immer gelang)

=Floi=
2006-11-19, 08:08:30
ohhh ich dachte das maximum war 475 beim geshrinkten 6800er chip aber der hatte ja auch nur 425mhz
war da ein bischen abgelenkt von der 5950Ultra :rolleyes:

würde eher sagen mit AMD ist ATI wieder richtig konkurenzfähig im highend graka markt
irgendwie sah man schon dass ATI bei der produktentwicklung als auch bei der technik ansteht
(ATI hatte mit der entwicklung der X1$00 ein negatives ergebnis und die aktie brach ein
mit 385 transistoren und der starken wärmeabgabe und monströses stromversorgung ist der chip auch nicht so margenträchtig wie zB eine 7900er)
und hier geht es viel prestige und da wird man sich wohl nicht zurückziehen

deekey777
2006-11-19, 12:38:35
Wo ist ATi nicht kunkurrenzfähig im Highend-Segment?
Warten wir mal auf den R600: Erst dann sehen wir, ob die X1000er Serie weggeschmissenes Geld war.

Gast
2006-11-19, 13:49:52
Wo ist ATi nicht kunkurrenzfähig im Highend-Segment?
Warten wir mal auf den R600:

Na momentan sind sie es nicht. Und warten kann man natürlich immer. Das macht wenig Sinn. Dann kommt der R600 und alle sagen wartet mal auf Nvidias nächsten Chip/Refresh....
Das bringt irgendwie nichts. ATI liegt gut und gerne 3 Monate zurück. Vielleicht sogar mehr und im Februar will Nvidia weitere Produkte auf den Markt bringen. ATI wird mit Mainstream wahrscheinlich noch ein bisschen länger brauchen und diese nach R600 herausbringen. Das ist schon ein dickes Zeitfenster das da zwischen beiden liegt. Das hatte ATI auch bei der aktuellen Generation das Genick gebrochen. Sie waren nicht annähernd erfolgreich damit. Nvidia konnte durch die Bank weg in allen Segmenten die meissten Karten absetzen.

deekey777
2006-11-20, 11:03:04
Als nicht-konkurrenzfähig würde ich eine Volari gegen eine entsprechende nVidia- oder ATi-Grafikkarte bezeichnen, aber eine X1950XTX als nicht konkurrenzfähig zu bezeichnen, wäre übertrieben.
Demand for Nvidia G80 chips weak as market expects G84 and G86 lineup (http://www.digitimes.com/mobos/a20061120PD210.html)
Nvidia's launch of its DirectX 10-compliant GeForce 8800 GPU (codenamed G80) earlier this month seems to have failed to significantly stir up demand for high-end graphics cards, although the new chips took a lead in 3D computing processing, according to sources at Taiwan-based graphics card makers.
...
Although details of the G84 and G86 are still not available, Nvidia has completed the roadmap for the two chips, with local graphics card makers likely to receive product samples in January or February of next year, the sources stated.

Mancko
2006-11-20, 11:29:10
Als nicht-konkurrenzfähig würde ich eine Volari gegen eine entsprechende nVidia- oder ATi-Grafikkarte bezeichnen, aber eine X1950XTX als nicht konkurrenzfähig zu bezeichnen, wäre übertrieben.
Demand for Nvidia G80 chips weak as market expects G84 and G86 lineup (http://www.digitimes.com/mobos/a20061120PD210.html)

Na gut wenn du Produkte die bis zu 100% und mehr zurückliegen noch als konkurenzfähig erachtest...

Also ich jedenfalls nicht. Im Grunde genommen sind alle bisherigen ATI Produkte kein High End mehr. Der Preis rutscht und wird weiter rutschen, da ATI im eigentlichen HIgh End schlichtweg bis zum R600 keine Produkte hat.

Was die Digitimes Meldung angeht, so ist diese doch ausgemachter Käse. Was hat den bitte G80 bis irgendwelchen Mainstream Produkten zu tun - gar nichts. Niemand der Mainstream im Blick hat kauft High End. Und die Nachfrage 2 Wochen nach Launch als "weak" zu bezeichnen ist schon sehr gewagt.
Typische "wir brauchen webhits" Meldung. Digitimes ist auch nicht mehr das, was sie mal vor Jahren waren.

Hvoralek
2006-11-20, 11:49:13
Na gut wenn du Produkte die bis zu 100% und mehr zurückliegen noch als konkurenzfähig erachtest...Wenn sie entsprechend günstiger hergestellt und verkauft werden...

Also ich jedenfalls nicht. Im Grunde genommen sind alle bisherigen ATI Produkte kein High End mehr. Der Preis rutscht und wird weiter rutschen, da ATI im eigentlichen HIgh End schlichtweg bis zum R600 keine Produkte hat.Das kommt darauf an, wie Du High- End definierst. Für mich fängt das bei etwa 300€ an. Die X1950XTX ist demnach unteres High- End und dort auch sehr wohl konkurrenzfähig.

ATI hat bis R600 im mittleren und oberen High- End- Segment (oder, wenn Du so willst, im gesamten) keine Angebote, das stimmt natürlich.

Gast
2006-11-20, 16:34:03
Na gut wenn du Produkte die bis zu 100% und mehr zurückliegen noch als konkurenzfähig erachtest...

Du meinst 50% ;)

Mancko
2006-11-20, 17:01:02
Du meinst 50% ;)

ich schrieb "bis zu". Das lässt sich je nach Anwendung weit definieren aber auch 100% sind erreichbar (musst ja nur die Einstellungen entsprechend hochziehen), von der fehlenden Bildqualität gegenüber G80 mal ganz zu schweigen.


Wenn sie entsprechend günstiger hergestellt und verkauft werden...

Günstiger als was? G80 vielleicht aber G70 sicherlich nicht :)


Das kommt darauf an, wie Du High- End definierst. Für mich fängt das bei etwa 300€ an. Die X1950XTX ist demnach unteres High- End und dort auch sehr wohl konkurrenzfähig

300€ sind nach heutigen Maßstäben kein High End mehr. Allenfalls oberes Performance Segment. Und für 300 Euro ist sie ja nicht zu haben.
Sie schlägt sich im selben Preissegment wie die G80 GTS und G7x GX2 herum, von den ganzen G7x SLI Varianten mal ganz zu schweigen.

StefanV
2006-11-20, 17:03:46
ich schrieb "bis zu". Das lässt sich je nach Anwendung weit definieren aber auch 100% sind erreichbar (musst ja nur die Einstellungen entsprechend hochziehen), von der fehlenden Bildqualität gegenüber G80 mal ganz zu schweigen.
100% schneller ist möglich, 100% langsamer aber nicht!!
Zumindest nicht solange die Karte funktioniert und 'nen Bild ausgibt...

Hvoralek
2006-11-20, 20:42:41
ich schrieb "bis zu". Das lässt sich je nach Anwendung weit definieren aber auch 100% sind erreichbar (musst ja nur die Einstellungen entsprechend hochziehen), von der fehlenden Bildqualität gegenüber G80 mal ganz zu schweigen.Du meintest wohl "bis zu 100% schneller". Das ist natürlich erreichbar und deckt sich genau mit "bis zu 50% langsamer".


Günstiger als was? G80 vielleicht aber G70 sicherlich nicht :)Sowohl als auch. Dem Leistungs- und BQ- Nachteil entsprechend günstiger als die 8800er, dem Leistungsverhältnis und BQ- Vorteil entsprechend ggü. den 7900ern.

300€ sind nach heutigen Maßstäben kein High End mehr. Allenfalls oberes Performance Segment.Das ist Wortklauberei und hier auch vollkommen unwichtig. Interessiert Dich, ob Du nun eine Karte des oberen Mittelklasse- oder des unteren High- End- Segments kaufst oder nicht vielmehr, welche Leistung und BQ Du für welchen Preis bekommst?

Und für 300 Euro ist sie ja nicht zu haben.Die 512- MB- Version (noch) nicht (deswegen zähle ich sie ja noch zum preislichen High End), die 256er bekommt man allerdings zB bei Alternate ab 244€ (http://www.alternate.de//html/shop/productDetails.html?artno=JAXG4A&artno=JAXG4A&).

Sie schlägt sich im selben Preissegment wie die G80 GTS und G7x GX2 herum, von den ganzen G7x SLI Varianten mal ganz zu schweigen.Zumindest bei Alternate gibt es keine GTS unter 499€ und selbst das günstigste Angebot, das Geizhals imM listet, liegt bei 429€ (Bei "PCKauf 2000". Aha :rolleyes: ). Wenn man der Vergleichbarkeit halber bei Alternate bleibt, kostet eine 8800 GTS erheblich mehr als eine X1900XT 512 MB und mehr als doppelt so viel wie eine 256er. Nennst Du das "im selben Preissegment"?

Die 7900GTX liegt im selben Preissegment (wie die 512er XT), aber da bekommt man auch kaum mehr Leistung bei schlechterer BQ, also wo ist das Problem? Die 7950 GX2 gibt es auch nur für mind. 400€.

Aber die Konkurrenzfähigkeit und High- End- Zugehörigkeit der aktuellen ATI- Karten hat wirklich nichts mit dem Thema zu tun.

seahawk
2006-11-27, 09:25:05
Da sie ja schon in der Treiber inf auftaucht, wäre doch mal ein Thread zu dem Thema angebracht. Wie könnte sie aussehen.

eine Vermutung GTS-PCB mit voller Speicherbestückung und einem vollfunktionsfähigen G80 mit Taktraten auf GTS Niveau.

Wie kommt man darauf ?

Nun, bei den GTS fehlen immer unterschiedliche Speichersteine, je nachdem welche nChipteil ma deaktiviert, es sind aber Plätze für eine Vollbestückung vorhanden.

http://img520.imageshack.us/img520/1442/g80in0456zv1.jpg
http://prohardver.hu/html/vga/gf8800gts/pic/asus_8800gts_front_b.jpg

Gast
2006-11-27, 12:11:16
ein modell zwischen GTX und GTS wäre durchaus denkbar, da klafft doch eine große lücke dazwischen.

ich würde mal auf 112 stream-prozessoren, 56 TMUs und volle ROP/speicherbestückung tippen.

taktraten wohl zwischen GTX und GTS, aber eher näher bei der GTS

Gast
2006-11-29, 15:02:00
kann genau so gut ein rop und ein alu cluster fehlen
da gibst zig möglichkeiten

Die gelbe Eule
2006-11-29, 15:10:16
Es gibt sie nur als Dev, nicht als 8800GT. Manche Dev sehen nie das Licht in ihrem Zyklus.

deekey777
2006-11-29, 18:40:20
Da sie ja schon in der Treiber inf auftaucht, wäre doch mal ein Thread zu dem Thema angebracht. Wie könnte sie aussehen.

eine Vermutung GTS-PCB mit voller Speicherbestückung und einem vollfunktionsfähigen G80 mit Taktraten auf GTS Niveau.

Wie kommt man darauf ?

Nun, bei den GTS fehlen immer unterschiedliche Speichersteine, je nachdem welche nChipteil ma deaktiviert, es sind aber Plätze für eine Vollbestückung vorhanden.

http://img520.imageshack.us/img520/1442/g80in0456zv1.jpg
http://prohardver.hu/html/vga/gf8800gts/pic/asus_8800gts_front_b.jpg
Ich glaub, die 8800GT ist hier besser aufgehoben.:smile:
Ich tipp auch blind auf volle 8 Blöcke, aber "nur" 640 MiB (und somit 5 ROP-Cluster).
ein modell zwischen GTX und GTS wäre durchaus denkbar, da klafft doch eine große lücke dazwischen.

ich würde mal auf 112 stream-prozessoren, 56 TMUs und volle ROP/speicherbestückung tippen.

taktraten wohl zwischen GTX und GTS, aber eher näher bei der GTS
Wenn, dann 28 TMUs. ;)

Hvoralek
2006-11-29, 20:21:45
Wenn, dann 28 TMUs. ;)28 "Doppel- TMUs", die sich in der Praxis fast wie 56 verhalten. Oder filtert jemand mit einer 8800 bilinear isotrop? :biggrin:

Zwischen der GTX und der GTS ist noch ein so schönees Plätzchen bei 7 ALU/TMU- Blöcken frei, ich glaube nicht, dass Nvidia das verwaist lassen möchte.

deekey777
2006-11-29, 20:30:47
28 "Doppel- TMUs", die sich in der Praxis fast wie 56 verhalten. Oder filtert jemand mit einer 8800 bilinear isotrop? :biggrin:

Zwischen der GTX und der GTS ist noch ein so schönees Plätzchen bei 7 ALU/TMU- Blöcken frei, ich glaube nicht, dass Nvidia das verwaist lassen möchte.
Geh weg. :biggrin:
Das sind und bleiben 28 TMUs, da pro TMU/Takt nur ein gefilterter Texel rauskommt.

StefanV
2006-11-29, 21:13:59
28 "Doppel- TMUs", die sich in der Praxis fast wie 56 verhalten. Oder filtert jemand mit einer 8800 bilinear isotrop? :biggrin:
Hm, 28 'Doppel TMUs' = 56 Bi-TMUs, = 112 Point-TMUs.
So gesehen hat meine x1800 32 TMUs :rolleyes:

Oder siehst du selbst ein, das das Blödsinn ist, es 28 'normale' TMUs sind und meine x1800 nur 16 TMUs hat?!

PS: NV10 hatte auch schon Tri TMUs...

robbitop@work
2006-11-30, 11:03:25
Hm, 28 'Doppel TMUs' = 56 Bi-TMUs, = 112 Point-TMUs.
So gesehen hat meine x1800 32 TMUs :rolleyes:

Oder siehst du selbst ein, das das Blödsinn ist, es 28 'normale' TMUs sind und meine x1800 nur 16 TMUs hat?!

PS: NV10 hatte auch schon Tri TMUs...
Ein bilineares Sample besteht natürlich aus vier samples und nicht aus zweien. Sonst wäre es ja eine lineare Interpolation (und damit auch nicht mehr isotrop).

Die TMUs zählt man, je nach dem wie viele Texel pro Takt addressiert und gefiltert werden können.

-------

Fakt ist, die G80 bietet, analog zum NV10, pro TMU 8 Samples an. Sobald mehr als ein reiner bilinearer Filter zum Einsatz kommt, profitiert die Füllrate davon.

Wer filtert heute schon nur noch bilinear? Insofern ist's gegenüber der doppelten Anzahl von Bi TMUs kaum ein Nachteil.

AnarchX
2006-12-05, 14:10:08
G84 is the next Nvidia chip
Mainstream, late March 2007 time
http://www.theinquirer.net/default.aspx?article=36172

deekey777
2006-12-05, 14:14:20
G84 is the next Nvidia chip
Mainstream, late March 2007 time
http://www.theinquirer.net/default.aspx?article=36172
Und wo ist die Neuigkeit (in das erste Posting schauen)? :biggrin:
Ach Fudo, du bist viel zu langsam für diese Welt.

AnarchX
2006-12-12, 11:18:04
NVIDIA’s push on Intel IGP market – 55nm trial scheduled next year
http://img91.imageshack.us/img91/9992/nvinteligptablecd3.jpg
http://www.hkepc.com/bbs/itnews.php?tid=711343

Gast
2006-12-12, 16:48:58
Max DRAM Support - 1CH, DDR2-667Wie? Kein Dualchannel? Bricht das der IGP nicht das Genick?

AnarchX
2006-12-12, 18:52:37
Wie? Kein Dualchannel? Bricht das der IGP nicht das Genick?

Wie es im Text steht, richtet man sich nicht als Konkurrenz gegen Intels IGP aus, sondern versucht im absoluten LowCost-Segment zu punkten:
However, the unified design also has its sacrifices. Our source stated that MCP73 most likely has Single Channel memory controller and PCI-E x8 only for cost saving. It should not be the competitor of Intel’s Bearlake in mainstream market. Instead, it would be a strong rival for entry-level market and targets at the market share of SiS and VIA.

Gast
2007-01-04, 09:36:06
gibts was neues über die mittelklasse 8er?

AnarchX
2007-01-04, 15:55:54
gibts was neues über die mittelklasse 8er?

Bis jetzt nicht mehr als einen Termin.

Aber natürlich könnte man auch etwas spekulieren, ich würde mir momentan eine Midrange-GF so vorstellen:
8600GT
-16ROPs/16TMUs/64 ALUs
-80nm Fertigung -> deshalb höherer Takt als bei 8800GTX, vielleicht 650MHz(1.5GHz Shaderclock)
-256bit SI 4fache Unterteilung mit GDDR3/GDDR4(256MB/512MB)
-kein NVIO, sondern wieder in der GPU integriert um Kosten in diesem Segment zu sparen

Vielleicht sieht man bei den kommenden Karten schon Verbesserungen des G80-Refresh, da ja sich G80 theoretisch ja etwas verpätet hat.
Anstatt der zweiten MUL vielleicht noch eine ADD-Einheit, würde AFAIK die theoretische Arithmetikleistung um 33% pro Pipeline steigern, wodurch meine spekulierte 8600GT(384GFLOPs) in diesem Bereich vor der 8800GTS(345GFLOPs) liegen würde.

Insgesamt könnte man so durchaus einen in der Produktion günstigeren Ersatz für die 8800GTS brigen.

LovesuckZ
2007-01-04, 16:00:35
Insgesamt könnte man so durchaus einen in der Produktion günstigeren Ersatz für die 8800GTS brigen.

Ich bezweifel, dass Nvidia einen Ersatz für die GTS haben will.
Immerhin können sie noch die Chips verkaufen, welche nicht als vollwertige GTX durchgehen. Und bei nur 80 verkaufbare Chips auf eionen Wafer, würden sie so eine ganze Menge "wegwerfen" können.

AnarchX
2007-01-04, 16:09:41
Stellt sich eben die Frage wie gut die Ausbeute bei G80 ist.
Aber langfristig gesehen könnte eine solche theoretische GF8600GT eine solche Position einnehmen, so einen ähnlichen Fall gab es ja auch schon in der Vergangenheit -> 7800GT vs 7600GT, beide nehmen sich nicht unbedingt viel, wobei eben letzterer deutlich günstiger zu fertigen ist.

Aber mal sehen, lange wird es ja nicht mehr dauern bis ein paar Specs durchsickern... ;)

LovesuckZ
2007-01-04, 16:20:43
Stellt sich eben die Frage wie gut die Ausbeute bei G80 ist.


Laut Uttar kostet ein G80 Wafer 8000$. 110 Chips können darauf gefertigt werden und 80 können als GTS und GTX verkauft werden.
Zwischen der 7800GT und der 7600GT liegen nicht nur einige Monate sondern auch ein Refresh. Auch die GTX wurde im Zuge des g71 eingestellt.

AnarchX
2007-01-11, 09:21:57
[Cheaper GeForce 8800 Cards In Mid Feb]
VR-Zone has learned that NVIDIA will release cheaper GeForce 8800 cards next month to increase pressure on current ATi X1950 lineup targeting at X1950XT 256MB mainly. [...]
http://www.vr-zone.com/index.php?i=4472

8800GTS 320MB für 299$. ;)

seahawk
2007-01-11, 09:43:03
Abverkauf des G80 beginnt :D

AnarchX
2007-01-11, 09:44:13
Abverkauf des G80 beginnt :D

Man muss ja Platz schaffen. ;)

Winter[Raven]
2007-01-11, 10:25:01
Unglaublich wie Nvidia vorankommt.....*erstaunt ist*

PCGH_Carsten
2007-01-11, 10:30:53
...oder wie sehr sie sich vor dem R600 fürchten. [/perspektive]

robbitop
2007-01-11, 10:41:59
Nachdem was AiL hier im Forum so losgelassen hat und was für Verkäufe G7x abgeräumt hat, glaube ich nicht daran, dass sich bei NV irgendjemand in letzter Zeit mal gefürchtet hat.

Winter[Raven]
2007-01-11, 10:48:45
...oder wie sehr sie sich vor dem R600 fürchten. [/perspektive]

Warum sollte NV Angst haben? Refresh steht in den Startlöchern, die Mid-Low Produkte sind bald da, von AMD/ATI sieht man noch nichts.

Wenn man AiL glauben schenken darf, so sollen ja die MId-Low Produkte der R6xx Reihe auch nicht so das Gelbe vom Ei sein.

Gast
2007-01-11, 10:48:51
8800GTS 320MB für 299$.

Meiner Meinung nach völlig überteuert...

Der Witz ist: Die verkaufen eine Karte mit dem selben Namen um den Anschein zu erwecken, das die Leistung genauso gut ist, aber im Endeffekt wird die Karte gnadenlos abkacken, weil der VRAM für eine Karte dieser Leistungsfähigkeit viel zu klein ist. Schon bei üblichen Auflösungen von 1280x1024 und 1600x1200 mit viel AA wird er limitieren.

Ich werde mit freude die Leute sehen, die sich diese Karte kaufen und nach Monaten feststellen, das sie nicht zu gebrauchen ist, weil sie in aktuellen Games kein Land mehr sind.

Würde mich nicht wundern, wenn dann die alte Generation mit 512 MB sie überholt ...

Außerdem hat eine Karte dieser Preisklasse auf jeden Fall 512 MB verdient... schon die 7950 für 230 € oder die 7900 GS für 177 € ist damit ausgestattet. Warum wird gerade an einer teureren Karte daran gespart?

Was kommt demnächst? Intels Core 2 Quad 4 GHz mit 128 KB Cache? ;D

deekey777
2007-01-11, 11:00:26
;5150094']

Wenn man AiL glauben schenken darf, so sollen ja die MId-Low Produkte der R6xx Reihe auch nicht so das Gelbe vom Ei sein.
Das wäre mir neu, kannst du das Posting verlinken (ich weiß, dass die SuFu nicht geht, aber mit etwas Erinnerungsvermögen kann es klappen).
...oder wie sehr sie sich vor dem R600 fürchten. [/perspektive]
Oder weil da ein Loch entstanden ist, welches mit der G71er Serie nicht (mehr) gestopft werden kann.
Aber 320 MiB? Irgendwie unflexibel.

Winter[Raven]
2007-01-11, 11:06:05
@DK777

Ahhh ... Das war im R600 Teil 2, AiL meinte die Architektur wäre wohl nicht so Skalierbar wie bei Nvidia.

Gaestle
2007-01-11, 11:21:10
Aber 320 MiB? Irgendwie unflexibel.

Wieso? bei einem 256bit SI war man doch auch 128/256/512MB Sprünge beschränkt und nun ist es halt ein 320bit SI mit dementsprechnden Beschränkungen.
Sieh doch einfach die 320MB-Version des neuen SI als Äquivalent zur alten 256MB-Version beim 256bit SI. Ganz kleine 320bit-Versionen mit 160MB (war früher 128MB an 256bit) werden wir wohl nicht sehen. Eher dann noch aus Marketinggründen 1280MB-Versionen (äquivalent zu 512MB an 128bit, beides wahrscheinlich relativ sinnfrei).

;5150138']@DK777

Ahhh ... Das war im R600 Teil 2, AiL meinte die Architektur wäre wohl nicht so Skalierbar wie bei Nvidia.

Wobei ich es sehr gewagt finde, daraus eine Mainstream-Schwäche für R600-Derivate abzuleiten.

R580 ist angeblich auch nicht so super skalierbar, trotzdem ist der RV570 'ne gute Sache (wenn auch viel zu spät).

deekey777
2007-01-11, 11:38:17
;5150138']@DK777

Ahhh ... Das war im R600 Teil 2, AiL meinte die Architektur wäre wohl nicht so Skalierbar wie bei Nvidia.
Meine Frage war, wo er gesagt haben soll, dass die Midrange-R600er "nicht das Gelbe vom Ei" seien.

Anarchy-HWLUXX
2007-01-11, 12:41:47
Meiner Meinung nach völlig überteuert...

Der Witz ist: Die verkaufen eine Karte mit dem selben Namen um den Anschein zu erwecken, das die Leistung genauso gut ist, aber im Endeffekt wird die Karte gnadenlos abkacken, weil der VRAM für eine Karte dieser Leistungsfähigkeit viel zu klein ist. Schon bei üblichen Auflösungen von 1280x1024 und 1600x1200 mit viel AA wird er limitieren.

Ich werde mit freude die Leute sehen, die sich diese Karte kaufen und nach Monaten feststellen, das sie nicht zu gebrauchen ist, weil sie in aktuellen Games kein Land mehr sind.

Würde mich nicht wundern, wenn dann die alte Generation mit 512 MB sie überholt ...

Außerdem hat eine Karte dieser Preisklasse auf jeden Fall 512 MB verdient... schon die 7950 für 230 € oder die 7900 GS für 177 € ist damit ausgestattet. Warum wird gerade an einer teureren Karte daran gespart?

Was kommt demnächst? Intels Core 2 Quad 4 GHz mit 128 KB Cache? ;D

Der C2Q vergleich ist einfach nur lächerlich. Wenn dann wäre es ein Allendale Quad mit 2MB statt 4MB Pro Core :p Denken sollte man können ...

Wenn du ne Karte mit mehr RAM willst musst du eben eine 8800GTS 640M kaufen - ausser der RAM größe sind ALLE anderen werte identisch.

Winter[Raven]
2007-01-11, 12:43:06
@DK777

Wirst wohl bis Samstag warten müssen, bin leider Derzeit auf Arbeit und Abends habe ich gar keinen I-NET ^_^ :(

seahawk
2007-01-11, 12:47:27
Ach,, wenn man auf 1208x1024 und 4XAA begrenzt, könnte das ne Karte sein, die für das Geld sehr lange Freude machen könnte.

reunion
2007-01-11, 12:56:09
Aber 320 MiB? Irgendwie unflexibel.

Das ist eben der Nachteil der fehlenden Crossbar zwischen ROPs und SC. nV kann pro ROP-Cluster nur max. 128MB oder eben die Hälfte an VRAM verbauen, und muss noch dazu bei der deaktivierung eines ROP-Clusters auch genau den dafür vorgesehenen Platz auf der Platine freihalten. Somit ist was die Speicherbestückung betrifft zB auch bei der 8800GTS dasselbe, aufwändige PCB wie bei der GTX notwendig, und man muss noch dazu je nachdem, welche Einheit defekt ist, genau diese Plätze frei lassen, was bei der Massenfertigung mit Sicherheit auch nicht ganz einfach ist.

ATi kann hier duch die feinere Ganularität des SC und dem Ringbus zwischen ROPs und SC beinahe beliebig skalieren.

Raff
2007-01-11, 13:02:00
Die GTS mit 320 MiB wird wohl etwa so eine Weder-Fisch-noch-Fleisch-Karte wie die 6800 GT mit 128 MiB. Sehr starke GPU, die nach Arbeit sucht, aber gnadenlos vom stets überladenen VRAM in ihrem Element gebremst wird. Könnte aber trotzdem ein nettes Kärtchen werden, wenn man auf das neue AA keinen Wert legt. ;)

MfG,
Raff

reunion
2007-01-11, 13:06:58
;5150094']Warum sollte NV Angst haben? Refresh steht in den Startlöchern, die Mid-Low Produkte sind bald da, von AMD/ATI sieht man noch nichts.


ATi will bis Juni 2007 das gesamte Portfolie, also Low-/Mid- und High-End am Markt haben, soviel Zeit kann sich nV hier nicht lassen. Noch dazu scheint diesmal ATi billiger fertigen zu können, wenn man mal R600 vs G80 (plus NVIO) vergleicht. Natürlich muss man da erstmal schauen, wie es mit der Leistung aussieht.

dargo
2007-01-11, 13:08:14
Die GTS mit 320 MiB wird wohl etwa so eine Weder-Fisch-noch-Fleisch-Karte wie die 6800 GT mit 128 MiB. Sehr starke GPU, die nach Arbeit sucht, aber gnadenlos vom stets überladenen VRAM in ihrem Element gebremst wird.
Ich würde davon ausgehen, dass sich diese Karte sogar verdammt gut verkauft. Man muss bedenken, dass hier ein Strassenpreis von ca. 230-250€ drin ist. Für einen 17-19" TFT User kann es was besseres momentan gar nicht geben. Ich habe schon einige Spiele durchgemessen und bei 1280x1024 4xAA kommt man selten weit über 300MB Vram Verbrauch. Und bis ca. 400MB (grob geschätzt) sollte es auch keine Framedrops geben.

Raff
2007-01-11, 13:10:23
Sicher, auf 1280 limitiert könnte das interessant werden. Ich persönlich sehe es aber gar nicht ein, auf 1600x1200(+) zu verzichten ... schon gar nicht mit einem G80 unter der Kühlerhaube.

MfG,
Raff

Gast
2007-01-11, 13:10:31
Der C2Q vergleich ist einfach nur lächerlich. Wenn dann wäre es ein Allendale Quad mit 2MB statt 4MB Pro Core :p Denken sollte man können ...

Und du solltest versuchen zu lesen und zu verstehen.
Es ist deshalb so geschrieben, weil es genau so gemeint war. Eine schnelle Hardware, ausgebremst durch eine fehlende Basis.

Wenn du ne Karte mit mehr RAM willst musst du eben eine 8800GTS 640M kaufen - ausser der RAM größe sind ALLE anderen werte identisch.

Ja und? Das sagt immer noch nichts über die Leistung aus.
Wenn du eine 8800 GTX mit 192 MB hättest, könnte die sogar langsamer sein, als eine 7950 GT. Genau das Problem sehe ich bei dieser Karte mit nur 384 MB.

Denn schon jetzt gibt es eine nicht unerhebliche Zahl an Anwendungen die von mehr profitiert und da die 8800 GTS 384 erst noch erscheint, sollten die nächsten 2 Jahre zusätzlich noch berücksichtigt werden.

aylano
2007-01-11, 13:11:11
ATi will bis Juni 2007 das gesamte Portfolie, also Low-/Mid- und High-End am Markt haben
In 80nm oder 65nm??

reunion
2007-01-11, 13:11:20
Ich würde davon ausgehen, dass sich diese Karte sogar verdammt gut verkauft. Man muss bedenken, dass hier ein Strassenpreis von ca. 230-250€ drin ist. Für einen 17-19" TFT User kann es was besseres momentan gar nicht geben. Ich habe schon einige Spiele durchgemessen und bei 1280x1024 4xAA kommt man selten weit über 300MB Vram Verbrauch. Und bis ca. 400MB (grob geschätzt) sollte es auch keine Framedrops geben.

Darf ich fragen, mit was du das misst?

dargo
2007-01-11, 13:15:27
Sicher, auf 1280 limitiert könnte das interessant werden. Ich persönlich sehe es aber gar nicht ein, auf 1600x1200(+) zu verzichten ... schon gar nicht mit einem G80 unter der Kühlerhaube.

Raff, gehe bitte nicht von dir aus. Wenn dir das nicht zusagt hast du andere Karten zur Auswahl. Die breite Masse nutzt aber nunmal einen 17-19" TFT (behaupte ich jetzt einfach mal).

Darf ich fragen, mit was du das misst?
Mit dem Video Memory Watcher, alternativ ATT.

robbitop
2007-01-11, 13:16:17
ATi kann hier duch die feinere Ganularität des SC und dem Ringbus zwischen ROPs und SC beinahe beliebig skalieren.
Der Unterschied besteht nur daran, dass NV ROP Partitionen abschalten muss, wenn das Speicherinterface variieren soll. Das ist ja nicht all zu kritisch, da die ROP Leistung eher überschätzt wird.

ATI kann (wenn sich an der Speichermenge nichts ändern soll) auch nicht soo doll skalieren. 1024 Bit, 512 Bit, 256 Bit, 128 Bit.
Bei NV müssen es eben krumme Skalierungen sein. 96 Bit 192 Bit 384 Bit.
Wenn feiner skaliert werden soll, müssen beide IHVs auch bei der Speichermenge hantieren. Für eine solche Variante könnte man dann auch ein eigenes PCB entwerfen.

Vorteil NV: das Skalieren nach oben und unten ist designtechnisch einfacher.


ATi will bis Juni 2007 das gesamte Portfolie, also Low-/Mid- und High-End am Markt haben, soviel Zeit kann sich nV hier nicht lassen. Noch dazu scheint diesmal ATi billiger fertigen zu können, wenn man mal R600 vs G80 (plus NVIO) vergleicht. Natürlich muss man da erstmal schauen, wie es mit der Leistung aussieht.
Es wird immer heißer gekocht als gegessen. ;)
Das Portfolio von NV ist im März/April draussen. Entscheident ist, wie teuer Mainstream und Low Cost zu fertigen sind. Hier ist NV ja bekanntlich erfahren.
Außerdem weiß man noch nicht wie teuer ein R600 ist. Bisher gabs ja anscheinend enorme Prozessprobleme. Der Yield ist genau wie die DIE Größe eine Komponente über die Kosten. Das sollte man nicht vergessen. Hinzukommt, dass ATI den gesamten Chip anscheinend sehr hoch takten muss.
Ergo: abwarten

reunion
2007-01-11, 13:17:08
In 80nm oder 65nm??

Keine Ahnung, ich weiß nur das Dailytech angeblich eine neue ATi-Roadmap in die Hände bekomen hat, und dort auch von R610 und R630 berichtet wird:

The company has also added the R610 and R630 GPUs to the roadmap. In the past, ATI has used lower number codenames to denote entry-level products. We would suspect R610 would be the entry-level R600 cutdown, and R630 would be the mid-range chipset. The Radeon roadmap puts both of these products on the shelf before June 2007.

http://dailytech.com/article.aspx?newsid=5630

Doomi
2007-01-11, 13:20:16
Meiner Meinung nach völlig überteuert...

Der Witz ist: Die verkaufen eine Karte mit dem selben Namen um den Anschein zu erwecken, das die Leistung genauso gut ist, aber im Endeffekt wird die Karte gnadenlos abkacken, weil der VRAM für eine Karte dieser Leistungsfähigkeit viel zu klein ist. Schon bei üblichen Auflösungen von 1280x1024 und 1600x1200 mit viel AA wird er limitieren.

Ich werde mit freude die Leute sehen, die sich diese Karte kaufen und nach Monaten feststellen, das sie nicht zu gebrauchen ist, weil sie in aktuellen Games kein Land mehr sind.

Würde mich nicht wundern, wenn dann die alte Generation mit 512 MB sie überholt ...

Außerdem hat eine Karte dieser Preisklasse auf jeden Fall 512 MB verdient... schon die 7950 für 230 € oder die 7900 GS für 177 € ist damit ausgestattet. Warum wird gerade an einer teureren Karte daran gespart?

Was kommt demnächst? Intels Core 2 Quad 4 GHz mit 128 KB Cache? ;D

na ich weiß ja nicht wie du darauf kommst das die Karte völlig unbrauchbar ist und "abkacken" soll wegen "nur" 360 MB Ram.. oje.. Selbst heutzutage ist der Leistungsvorsprung mit ner 512er Karte gegenüber ner 256 meist vernachlässigbar wenn mans nicht gerade mit Auflösungen jenseits der 1600 x 1200 und dem ganzen AA und AF Schnickschnck übertreibt.. Jetzt hat die Karte noch einiges an Mehrspeicher wie eine 256 iger und wird wohl für die nächsten 1 bis 2 Jahre auch ausreichend sein, bis dann mal in 2 Jahren 512 MB vorraussetzung und Standart wie heute 256 MB werden. Die Asuskarte war im übrigen für ihr Zeit eine sehr schnelle Karte und hat keineswegs abgekackt im gegensatz zur 256 MB GT.. die 256 MB hat die echte GT damals auch nicht wirklich gebraucht, entscheidender war, das der Ram mehr Mhz hatte wie der, der 128 - Edition. Das die Karte heutzutage natürlich eine schlechte Wahl darstellt ist wohl klar, doch damals war sie eine günstige Alternative. Genauso wie die GTS mit 360 MB heutzutage eine sinnvolle Alternative darstellt. Man muss nur wissen was man damit machen will. Außerdem denke ich das der Preis auch noch weiter sinken wird...

Gast
2007-01-11, 13:20:19
Ich würde davon ausgehen, dass sich diese Karte sogar verdammt gut verkauft. Man muss bedenken, dass hier ein Strassenpreis von ca. 230-250€ drin ist. Für einen 17-19" TFT User kann es was besseres momentan gar nicht geben. Ich habe schon einige Spiele durchgemessen und bei 1280x1024 4xAA kommt man selten weit über 300MB Vram Verbrauch. Und bis ca. 400MB (grob geschätzt) sollte es auch keine Framedrops geben.

Die Messungen halte ich allesamt für Unsinn.
Schonmal was von dynamischer Einteilung gehört?

Windows passt sich beispielweise den RAM-Ausbau an. Wenn du 2 GB drin hast, könnte es sein, das 300 MB physikalisch genutzt werden und wenn du 512 MB drin hast, kann es sein, das nur 120 MB physikalisch fürs System allein genutzt werden.

Bei Grafikkarten sollte es ähnlich sein, aber da fehlen mir genauere Infos, speziell über Treiber und Softwareanpassungen: Wenn mehr VRAM vorhanden ist, werden vielleicht mehr Texturen ausgelagert, auch wenn sie nicht gebraucht werden (abhängig von der Anwendung). Das wäre auf jeden Fall die logische Schlußverfolgerung daraus. Denn es wäre dumm, die überschüssigen Reserven nicht zu nutzen.

Jetzt wäre mal Insiderwissen gefragt! Wie handelt der Treiber das? Und wieviele Entwickler bauen darauf auf:confused:

Der VRAM kann schon arg limitieren. Nicht vergessen, das die Karte erst bald auf den Markt kommt und erst bei den darauffolgenden Titeln wirklich gefordert wird!

Wenn jedoch schon jetzt Unterschiede zwischen 256 und 512 MB gemessen werden können, bei 1280x1024 ohne alles, dann kann ich mir beim besten Willen nicht vorstellen, das 384 für alles ausreichend sein sollen, speziell wenn AA dazu kommt und die Anwendung ansich leistungshungriger ist.

Yups
2007-01-11, 13:21:46
Dann weiss ich ja was als nächstes bei mir reinkommt ;) :) Eine gute Ablösung für meine 6800GT. Der Ram würde nicht so das Problem bei mir sein, da ich bisher eh nur an einem 17"TFT spiele.
Das wird bestimmt klasse, da die Karte in geringen auflösungen und ohne übermäßiges AA sicherlich so schnell sein wird wie die GTS oder GTX da ja der CHip der gleiche sein wird :)

dargo
2007-01-11, 13:23:06
Und du solltest versuchen zu lesen und zu verstehen.
Es ist deshalb so geschrieben, weil es genau so gemeint war. Eine schnelle Hardware, ausgebremst durch eine fehlende Basis.

Und du solltest nachdenken was du schreibst. Hätte ein C2D nur 128KB Cache wäre er in jeder Lage deutlich langsamer. Eine G8800GTS mit 320MB wird aber nur bei ~400MB und mehr Vram Verbrauch langsamer.

Doomi
2007-01-11, 13:24:44
299 Dollar wären nach Umrechnung dann ca 220 € .. für den Preis lass ich mir das Kärtchen durchaus gefallen.. dann noch ordentlich übertakten.. wäre dann der nächste Preisleistungskracher..

die 7800 GTX ab zu ebay und noch 180 € dafür .. für 40 € Mehrkosten dann 100 % mehrleistung .. sehr feiner Deal .. freu mich drauf

Gast2
2007-01-11, 13:29:14
Wenn jedoch schon jetzt Unterschiede zwischen 256 und 512 MB gemessen werden können,

...was aber nicht der Fall ist.

Gast
2007-01-11, 13:30:47
Selbst heutzutage ist der Leistungsvorsprung mit ner 512er Karte gegenüber ner 256 meist vernachlässigbar wenn mans nicht gerade mit Auflösungen jenseits der 1600 x 1200 und dem ganzen AA und AF Schnickschnck übertreibt..

Da war doch was?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2

Schon bei 1600x1200 ohne AA gibt es bedeutende Unterschiede von 30 zu 39 fps und mit 4xAA sind es dann sogar 18 vs 30fps! Und das bei einem Game, das bereits "ewig" auf dem Markt ist. Was ist mit den kommenden Titeln? Die berücksichtigt hier scheinbar niemand.

Klar wäre der Vorsprung wegen 384MB vielleicht geringer... selbst wenn es nur noch 24 vs 30fps wären, so wäre der Unterschied schon noch ordentlich und vorallem spürbar!

Ich würde nie über 200 € für eine Karte in den Sand setzen, von der ich weiß, das sie nach kurzer Zeit schon der natürlichen Alterung unterliegt!
Bei der 8800 GTX kann man sich wenigstens sichern sein, das da erstmal nicht der VRAM limitiert, denn so schnell kommen wir über 768/1 GB nicht hinaus... aber bei 384 ist es unvorhersehbar, wie lang der noch hält!

Nicht vergessen: Entwickler richten sich nach der Messe! Es gibt mittlerweile sogar LowCost Karten mit 512 MB. Wenn die Entwickler auf die glorreiche Idee kommen sollten, nur noch hochauflösunde Texturen zu nutzen, dann könnte die 384 MB Versionen sehr alt aussehen...

Gast
2007-01-11, 13:31:19
...was aber nicht der Fall ist.

Ignorant? Steht schwarz auf weiß da.

Gast
2007-01-11, 13:32:53
Und du solltest nachdenken was du schreibst.

Wenn dir meine persönliche Meinung nicht passt, ist das dein Problem. Ich kann so viele Vergleiche anstellen, wie ich möchte.

Hätte ein C2D nur 128KB Cache wäre er in jeder Lage deutlich langsamer.

Schon das ist falsch. Das ist damit nicht gesagt. Er wäre nur dann langsamer, wenn die 128 KB nicht ausreichend wären.

Eine G8800GTS mit 320MB wird aber nur bei ~400MB und mehr Vram Verbrauch langsamer.

s.o.

dargo
2007-01-11, 13:35:55
Die Messungen halte ich allesamt für Unsinn.
Schonmal was von dynamischer Einteilung gehört?

Windows passt sich beispielweise den RAM-Ausbau an. Wenn du 2 GB drin hast, könnte es sein, das 300 MB physikalisch genutzt werden und wenn du 512 MB drin hast, kann es sein, das nur 120 MB physikalisch fürs System allein genutzt werden.

Bei Grafikkarten sollte es ähnlich sein, aber da fehlen mir genauere Infos, speziell über Treiber und Softwareanpassungen.
Den Vram verwaltet afaik nur der Grafiktreiber und das Game selbst. Ich meine, welchen Sinn sollte es machen zb. wenn 320MB Texturspeicher gebraucht werden 160MB von der Grafikkarte und die anderen 160MB auf den Arbeitsspeicher auszulagern. Sowas würde keine Spielehersteller machen. Es wird afaik immer möglichst das maximum vom Vram "abgezapft". Oder (das habe ich schon bei Call of Duty 2 gesehen) der Vram wird zb. zu ca. 90% ausgelastet und einige MBs werden auf den Arbeitsspeicher ausgelagert. In diesem Fall gab es aber keine Einbrüche bei den Frames.

Dh. ist die Software intelligent genug kann sie ruhig auch was vom Arbeitsspeicher "abzapfen" obwohl der Vram noch nicht zu 100% verbraucht ist.

reunion
2007-01-11, 13:36:37
Der Unterschied besteht nur daran, dass NV ROP Partitionen abschalten muss, wenn das Speicherinterface variieren soll. Das ist ja nicht all zu kritisch, da die ROP Leistung eher überschätzt wird.


Der Nachteil von nV ist vorallem, dass abhängig von der Auswahl der funktionierenden ROPs auch die Platine bestückt werden muss, da jeder ROP-Cluster fest mit den dafür vorgesehenen Platz auf der Platine verbunden ist. Somit benötig ein Chip mit teilweise deaktivierten Einheiten auch immer das aufwändige PCB der fehlerfreien Variante.


Außerdem weiß man noch nicht wie teuer ein R600 ist. Bisher gabs ja anscheinend enorme Prozessprobleme. Der Yield ist genau wie die DIE Größe eine Komponente über die Kosten. Das sollte man nicht vergessen.


Zumindest in punkte Die-Größe ist R600 im Vorteil. Den Yield kann man natürlich nicht beurteilen. Von Prozessproblemen würde ich allerdings nicht sprechen. R600 sollte ursprünglich im "Winter 2006" kommen, nun scheint es Februar/März zu werden. IMHO ein völlig normaler und einkalkulierter Zeitrahmen bei einem solchen Chip. G80 verspätete sich um einen ähnlichen Zeitraum.


Hinzukommt, dass ATI den gesamten Chip anscheinend sehr hoch takten muss.


Sehr hoch takten kann. Das ist ein Unterschied. Auch G80 läuft nahe am Maximum für diesen Chip, ich habe bis jetzt kaum GTX-Karten gesehen, die sich mehr als 10-15% übertakten ließen.

Doomi
2007-01-11, 13:36:53
Da war doch was?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2

Schon bei 1600x1200 ohne AA gibt es bedeutende Unterschiede von 30 zu 39 fps und mit 4xAA sind es dann sogar 18 vs 30fps! Und das bei einem Game, das bereits "ewig" auf dem Markt ist. Was ist mit den kommenden Titeln? Die berücksichtigt hier scheinbar niemand.

Klar wäre der Vorsprung wegen 384MB vielleicht geringer... selbst wenn es nur noch 24 vs 30fps wären, so wäre der Unterschied schon noch ordentlich und vorallem spürbar!

Ich würde nie über 200 € für eine Karte in den Sand setzen, von der ich weiß, das sie nach kurzer Zeit schon der natürlichen Alterung unterliegt!
Bei der 8800 GTX kann man sich wenigstens sichern sein, das da erstmal nicht der VRAM limitiert, denn so schnell kommen wir über 768/1 GB nicht hinaus... aber bei 384 ist es unvorhersehbar, wie lang der noch hält!

Nicht vergessen: Entwickler richten sich nach der Messe! Es gibt mittlerweile sogar LowCost Karten mit 512 MB. Wenn die Entwickler auf die glorreiche Idee kommen sollten, nur noch hochauflösunde Texturen zu nutzen, dann könnte die 384 MB Versionen sehr alt aussehen...

ja, ich vergaß mal wieder CoD2 zu erwähnen.. :)

ok.. ja stimmt.. aber ich denke mal, das der Unterschied hier nicht soo gewaltig ist, wie von 256 auf 512 MB..

und ein Jahr später schmeiß ich die Karte eh wieder raus und hohl mir den nächsten Preisleistungshammer.. mir ist der Ram egal und das Kärtchen ist wie geschaffen für mich.. gerade wenn ich im Februar noch bissel was für die 7800 GTX bekomme.. glaube nicht das 2007 das Jahr der unspielbaren Games für alle Karten mit 380 MB Ram wird.. :) dann nehm ich halt statt 4 AA nur 2 AA bei 1600 x 1200 und schon ist mir der Ram pipe :)

Anarchy-HWLUXX
2007-01-11, 13:37:22
@gast - Deine vergleiche sind realitätsfremd genauso wie deine sonstige meinung.

299 Dollar wären nach Umrechnung dann ca 220 € .. für den Preis lass ich mir das Kärtchen durchaus gefallen.. dann noch ordentlich übertakten.. wäre dann der nächste Preisleistungskracher..



220€ wird es sicherlich nicht sein ;)

Nen vergleich : Ein C2D E6600 kostet laut Liste 316$, minimal Preis ist bei Geizhals 280€. Da die GraKas net in so großen mengen verkauft werden wie CPUs sollte der Preis bei den sehr Billigen Shops nach ner Zeit (sicherlich net zum Launch) auf ca. 270€ runtergehn ...

reunion
2007-01-11, 13:39:05
Mit dem Video Memory Watcher, alternativ ATT.

Und wie machst du das beim ATT? Ich bin offensichtlich zu blöd das zu bewerkstelligen.

Raff
2007-01-11, 13:40:33
Und wie machst du das beim ATT? Ich bin offensichtlich zu blöd das zu bewerkstelligen.

Rechtsklick auf das Symbol im Systray, "Tools & Options", "OnScreen Display". Da kannst du dann diversen Kram einstellen, der dich beim Spielen stört. ;)

MfG,
Raff

reunion
2007-01-11, 13:43:49
Und du solltest nachdenken was du schreibst. Hätte ein C2D nur 128KB Cache wäre er in jeder Lage deutlich langsamer. Eine G8800GTS mit 320MB wird aber nur bei ~400MB und mehr Vram Verbrauch langsamer.

Und wie kommst du darauf, dass da noch 80MB Knautschzone bleiben? Sobal eine Karte auslagern muss, sollte die Leistung in den Keller gehen.

dargo
2007-01-11, 13:45:52
Da war doch was?
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_256_mb/11/#abschnitt_call_of_duty_2

Schon bei 1600x1200 ohne AA gibt es bedeutende Unterschiede von 30 zu 39 fps und mit 4xAA sind es dann sogar 18 vs 30fps! Und das bei einem Game, das bereits "ewig" auf dem Markt ist. Was ist mit den kommenden Titeln? Die berücksichtigt hier scheinbar niemand.

Klar wäre der Vorsprung wegen 384MB vielleicht geringer... selbst wenn es nur noch 24 vs 30fps wären, so wäre der Unterschied schon noch ordentlich und vorallem spürbar!

1. Und jetzt bitte ein anderes Game außer CoD2.
2. Du hast anscheinend übersehen, dass die X1800XT 256MB hat, die neue GTS aber 320MB.
3. Die neue GTS hat 320MB Vram mit einem 384Bit SI (nicht 384MB Vram).


Ich würde nie über 200 € für eine Karte in den Sand setzen, von der ich weiß, das sie nach kurzer Zeit schon der natürlichen Alterung unterliegt!
Bei der 8800 GTX kann man sich wenigstens sichern sein, das da erstmal nicht der VRAM limitiert, denn so schnell kommen wir über 768/1 GB nicht hinaus... aber bei 384 ist es unvorhersehbar, wie lang der noch hält!

OMG.
Jetzt wird eine 599$ Grafikkarte mit einer 299$ verglichen. :hammer:


Nicht vergessen: Entwickler richten sich nach der Messe! Es gibt mittlerweile sogar LowCost Karten mit 512 MB.

1. Die breite Masse ist immer noch höchstens mit 256MB Vram unterwegs.
2. Was bringt mir eine LowCost 512MB Graka wenn die Rohleistung fehlt?


Wenn die Entwickler auf die glorreiche Idee kommen sollten, nur noch hochauflösunde Texturen zu nutzen, dann könnte die 384 MB Versionen sehr alt aussehen...
Dank der Konsolen wird das leider nicht passieren (paar Ausnahmen wird es sicherlich geben).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5141303&postcount=505

Leider unterstützt das Game kein AA.


Schon das ist falsch. Das ist damit nicht gesagt. Er wäre nur dann langsamer, wenn die 128 KB nicht ausreichend wären.

Enschuldige mal bitte. Es gibt bei Games beim C2D schon einen Unterschied von ca. 5-15% zwischen 2MB und 4MB Cache. Wie soll es dann keinen Unterschied zwischen 128KB und 2-4MB Cache geben. :|

reunion
2007-01-11, 13:45:53
Rechtsklick auf das Symbol im Systray, "Tools & Options", "OnScreen Display". Da kannst du dann diversen Kram einstellen, der dich beim Spielen stört. ;)

MfG,
Raff

:massa:
Vielen dank, ich wusste schon lange, dass das damit irgendwie geht, habe aber trotz längerer Suche nie das richtige Menü gefunden. :)

Gast
2007-01-11, 13:46:32
Wenn der Preis der 8800GTS-320-MiB stimmt, gibt es wohl keinen Grund mehr noch eine x1950xt zu kaufen.

Gast
2007-01-11, 13:49:41
ja, ich vergaß mal wieder CoD2 zu erwähnen.. :)

Bei der Karte würde ich eigentlich eher schon das fiktive CoD3 als Vergleich nehmen. Wer weiß, wie es da aussehen wird. Vielleicht sehen wir dann schon Unterschiede zwischen 512MB und 1 GB? Ich mags nicht beurteilen!



@gast - Deine vergleiche sind realitätsfremd genauso wie deine sonstige meinung.

Meine Vergleiche sind so wie sie sind: Zutreffend.
Sie stellen genau das dar, was ich ausgedrücken will und was bereits jetzt zutrifft, somit 100% Realität. Ob dir das passt, ist irrelevant. Oder willst du etwa abstreiben, es gäbe keine Unterschied bei den VRAM Größen? Denn was anderes stand da nie.

Das du nicht in der Lage bist, eine gegenteilige Meinung zu bringen, über die es zu diskutieren lohnt, zeigt mir ausschließlich, das du nicht in der Lage bist, Meinungen zu akzeptieren, die dir nicht passen.

Durch deine News oder Hardwaretätigkeit scheinst du ein Sturrkopf geworden zu sein? Denk mal darüber nach. :)

Gast
2007-01-11, 13:53:46
1. Und jetzt bitte ein anderes Game außer CoD2.

Google ist dein Freund. Gibt genügend, sogar bei CB. Selbst im Durchschnitt aller Anwendungen sind es noch einige Prozente.

Du hast anscheinend übersehen, dass die X1800XT 256MB hat, die neue GTS aber 320MB.

Du hast anscheinend nicht gelesen, das ich das explizit erwähnt habe? Lesen!

OMG.
Jetzt wird eine 599$ Grafikkarte mit einer 299$ verglichen. :hammer:

Wo siehst du da einen Vergleich? Was kann ich dafür, das du nicht in der Lage bist, richtig zu lesen? Da ist, war und wird nie ein Vergleich sein.

Die breite Masse ist immer noch höchstens mit 256MB Vram unterwegs.

Und deswegen gibt es keine Anwendungen die mehr als 256 MB nutzen? Selten so gelacht.

Was bringt mir eine LowCost 512MB Graka wenn die Rohleistung fehlt?

Dann scheint Dir nicht bewusst zu sein, das der VRAM auch ohne stark fordernde Rohpower ausgelastet werden kann. Es gibt nicht nur Games...

dargo
2007-01-11, 13:56:39
Und wie kommst du darauf, dass da noch 80MB Knautschzone bleiben? Sobal eine Karte auslagern muss, sollte die Leistung in den Keller gehen.
Das habe ich nur bei CoD2 beobachtet. Diese (wie du so schön sagt) Knautschzone kann je nach Spiel varieren. Ich bin zuerst auch immer davon ausgegangen, dass man beim Auslagern sofort Framedrops haben müsste. Anscheinend werden die paar MBs schnell genug vom Arbeitsspeicher verarbeitet. Ich habe Framedrops bei CoD2 erst ab ca. 120MB über Vram beobachtet.

robbitop
2007-01-11, 13:58:32
Der Nachteil von nV ist vorallem, dass abhängig von der Auswahl der funktionierenden ROPs auch die Platine bestückt werden muss, da jeder ROP-Cluster fest mit den dafür vorgesehenen Platz auf der Platine verbunden ist. Somit benötig ein Chip mit teilweise deaktivierten Einheiten auch immer das aufwändige PCB der fehlerfreien Variante.
Ja für die Speichervariation brauchts dann eben ein anderes PCB. Wenn ATI so in so kleinen Schritten was am SI oder am Speicher drehen würde, bräuchten sie das auch. Ich sehe den Nachteil nicht.
Wie gesagt: bei halbierung oder Dopplung des SI oder der Speichermenge bleibt alles wie üblich. Mehr hat ATI/NV bisher nie gedreht. Wenn man Zwischenschritte will gibts halt kleine Nachteile.



Zumindest in punkte Die-Größe ist R600 im Vorteil. Den Yield kann man natürlich nicht beurteilen. Von Prozessproblemen würde ich allerdings nicht sprechen. R600 sollte ursprünglich im "Winter 2006" kommen, nun scheint es Februar/März zu werden. IMHO ein völlig normaler und einkalkulierter Zeitrahmen bei einem solchen Chip. G80 verspätete sich um einen ähnlichen Zeitraum.
Laut Sapphire (wir von 3dc haben einen sehr guten Draht zu denen) ist R600 schon deutlich eher geplant gewesen. IIRC war das für den gleichen Zeitraum wie G80 geplant. Kommt R600 erst im März sind das 4 Monate.




Sehr hoch takten kann. Das ist ein Unterschied. Auch G80 läuft nahe am Maximum für diesen Chip, ich habe bis jetzt kaum GTX-Karten gesehen, die sich mehr als 10-15% übertakten ließen.
Ach? Und warum gibt es von Herstellern inzwischen Varianten mit 630 MHz Chiptakt von Werk aus? Und auch diese kann man übertakten. Ist alles eine Frage der Spannung. R580 konnte man ja ohne großen Aufwand auch nicht sonderlich übertakten (VCore, deutlich bessere Kühlung).

dargo
2007-01-11, 14:10:45
Selbst im Durchschnitt aller Anwendungen sind es noch einige Prozente.
Hier hast du mal einen kleinen Test zwischen X1950XT 256MB und X1900XT 512MB.
http://www.neoseeker.com/resourcelink.html?rid=132387
Wahnsinnsunterschied. :cool:
Dass die X1950XT manchmal minimal schneller ist liegt einfach am um 175Mhz höheren Speichertakt bzw. etwas höherer Bandbreite.


Und deswegen gibt es keine Anwendungen die mehr als 256 MB nutzen? Selten so gelacht.

Das habe ich nicht behauptet.


Dann scheint Dir nicht bewusst zu sein, das der VRAM auch ohne stark fordernde Rohpower ausgelastet werden kann. Es gibt nicht nur Games...
Ich lach mich gleich weg. Die Leute die diesen Thread lesen und so eine Karte einplanen, denen geht es nur um Games und nichts Anderes.

Anarchy-HWLUXX
2007-01-11, 14:17:49
Meine Vergleiche sind so wie sie sind: Zutreffend.
Sie stellen genau das dar, was ich ausgedrücken will und was bereits jetzt zutrifft, somit 100% Realität. Ob dir das passt, ist irrelevant. Oder willst du etwa abstreiben, es gäbe keine Unterschied bei den VRAM Größen? Denn was anderes stand da nie.

Das du nicht in der Lage bist, eine gegenteilige Meinung zu bringen, über die es zu diskutieren lohnt, zeigt mir ausschließlich, das du nicht in der Lage bist, Meinungen zu akzeptieren, die dir nicht passen.

Durch deine News oder Hardwaretätigkeit scheinst du ein Sturrkopf geworden zu sein? Denk mal darüber nach. :)

320MB sind bei einer GraKa immernoch mehr als durchschnitt welcher bei unter 256MB liegt - dein vergleich vonwegen 128kB Cache für nen Quadcore :lol: Realistisch - klar ... 128kB cache hat nen Northwood Celeron anno 2002.


Mit 320MB wird die GTS jede 256er Karte hintersich lassen und bei 1280er Auflösungen können auch 512er keinen großartigen vorteil für sich verbuchen durch die 200MB an extra RAM - ein großteil der User ist mit 17" oder 19" Zoll TFTs unterwegs (ergo 1280er) - wer sich war größeres leisten kann wird wohl kaum ne Midrange GraKa kaufen ...


Dann scheint Dir nicht bewusst zu sein, das der VRAM auch ohne stark fordernde Rohpower ausgelastet werden kann. Es gibt nicht nur Games...

Wo brauchst denn du denn deine minimalen 512MB GRAFIKRAM ausser in Games :)

dargo
2007-01-11, 14:22:51
Ja für die Speichervariation brauchts dann eben ein anderes PCB. Wenn ATI so in so kleinen Schritten was am SI oder am Speicher drehen würde, bräuchten sie das auch. Ich sehe den Nachteil nicht.
Wie gesagt: bei halbierung oder Dopplung des SI oder der Speichermenge bleibt alles wie üblich. Mehr hat ATI/NV bisher nie gedreht. Wenn man Zwischenschritte will gibts halt kleine Nachteile.

Das verstehe ich jetzt nicht ganz. Wieso braucht man für andere Speichervariationen ein anderes PCB?
Gehen wir davon aus der schnellste R600 hätte ein 512Bit SI mit 1GB Vram. Dann würde ATI ein langsameres R600 Modell mit zb. 384Bit und 768MB mit kleinerem PCB bringen. Was spricht dagegen es genauso wie NV zu machen?
Eine noch kleinere Version mit gleichem PCB aber 320Bit und 640MB Vram.

Also zb. :

X2800XTX - 512Bit, 1GB Vram, 16 Speicherchips
X2800XT - 384Bit, 768MB Vram, 12 Speicherchips
X2800XL - 320Bit, 640MB, 10 Speicherchips

Wäre sowas nicht denkbar?

Edit:
Man könnte auch theoretisch eine X2800XT mit 448Bit und 896MB mit 14 Chips und gleichem PCB wie die X2800XTX rausbringen oder?

reunion
2007-01-11, 14:31:09
Das verstehe ich jetzt nicht ganz. Wieso braucht man für andere Speichervariationen ein anderes PCB?
Gehen wir davon aus der schnellste R600 hätte ein 512Bit SI mit 1GB Vram. Dann würde ATI ein langsameres R600 Modell mit zb. 384Bit und 768MB mit kleinerem PCB bringen. Was spricht dagegen es genauso wie NV zu machen?
Eine noch kleinere Version mit gleichem PCB aber 320Bit und 640MB Vram.

Also zb. :

X2800XTX - 512Bit, 1GB Vram, 16 Speicherchips
X2800XT - 384Bit, 768MB Vram, 12 Speicherchips
X2800XL - 320Bit, 640MB, 10 Speicherchips

Wäre sowas nicht denkbar?

Edit:
Man könnte auch theoretisch eine X2800XT mit 448Bit und 896MB mit 14 Chips und gleichem PCB wie die X2800XTX rausbringen oder?

Natürlich wäre das bei ATI denkbar. Nur nV müsste eben auch bei dieser X2800XL dasselbe, aufwändige PCB wie bei der XTX verwendet (bis auch die stromversorgung), da die ROPs-Cluster fest mit den dafür vorgesehenen Plätzen auf der Platine verbunden sind, und je nachdem welche ROPs kaputt sind hier unterschiedlich bestückt werden muss.

reunion
2007-01-11, 14:35:15
Laut Sapphire (wir von 3dc haben einen sehr guten Draht zu denen) ist R600 schon deutlich eher geplant gewesen. IIRC war das für den gleichen Zeitraum wie G80 geplant. Kommt R600 erst im März sind das 4 Monate.


Möglich. Die frühesten Termine, die ATI offiziell angab waren jedenfalls Winter 2006. Das sagt Orton bis vor kurzem immer wieder in verschiedenen Interviews.


Ach? Und warum gibt es von Herstellern inzwischen Varianten mit 630 MHz Chiptakt von Werk aus? Und auch diese kann man übertakten. Ist alles eine Frage der Spannung. R580 konnte man ja ohne großen Aufwand auch nicht sonderlich übertakten (VCore, deutlich bessere Kühlung).

Das sind nichtmal 10% im Vergelich zur Standardversion. Und bei diesen ist dann auch meist bei ~650-660Mhz Schluss. Durchaus möglich, dass man hier mit mehr Spannung noch ein paar zusätzliche Mhz herauskitzeln kann, aber für die Taktregionen einier R600 ist G80 IMHO nicht ausgelegt.

Gast
2007-01-11, 14:36:00
320MB sind bei einer GraKa immernoch mehr als durchschnitt

Dann gehst du fälschlich von der Annahme aus, den Durchschnitt zu kennen.

Wenn Du sowas schreibst, solltest du es belegen können: Wie sieht denn der Durchschnitt aller PCs aus, welche zum spielen genutzt werden? Bitte mit seriöser Quelle, Landübergreifend und auf >200 Games bezogen!

Stelle Dir vor, es gibt sogar Rechner mit 128 MB Grafikkarte, die nicht zum spielen genutzt werden, die gehen trotzdem in der Statistik mit ein. Was heißt das nun? :)

Wo brauchst denn du denn deine minimalen 512MB GRAFIKRAM ausser in Games :)

Das Auslagern von Texturen, hochauflösende Texturen und Anwendungen, wie Rendering/CAD können auch dann von großem VRAM profitieren, wenn die Rohpower sehr gering ist.

Schließlich kommt es nicht immer darauf an, etwas in Echtzeit darzustellen.

Gast
2007-01-11, 14:36:28
Ich lach mich gleich weg. Die Leute die diesen Thread lesen und so eine Karte einplanen, denen geht es nur um Games und nichts Anderes.

Die Leute in diesem Thread sind glücklicherweise nicht relevant, wenn es darum geht, den Weltbedarf zu errechnen. Denn sonst müsste sich jeder arme Schlucker sich jedes Jahr eine 500 € Karte gönnen und ich wette, dann, würden die nächsten 800 € Karten nicht lange auf sich warten lassen.

Black-Scorpion
2007-01-11, 14:37:52
:massa:
Vielen dank, ich wusste schon lange, dass das damit irgendwie geht, habe aber trotz längerer Suche nie das richtige Menü gefunden. :)
Die bessere Methode dürfte dafür aber "ATT -> Hardware -> Überwachungsgraphen -> Hinzufügen -> Quellen" sein.

robbitop
2007-01-11, 14:39:55
Natürlich wäre das bei ATI denkbar. Nur nV müsste eben auch bei dieser X2800XL dasselbe, aufwändige PCB wie bei der XTX verwendet (bis auch die stromversorgung), da die ROPs-Cluster fest mit den dafür vorgesehenen Plätzen auf der Platine verbunden sind, und je nachdem welche ROPs kaputt sind hier unterschiedlich bestückt werden muss.

Achso meinst du das. Naja ich gehe davon aus, dass man nicht nach kaputten ROPs selektiert (sooo groß sind die im Vergleich zu den Fragmentprozessoren ja nicht) und einfach nur die Fragmentprozessoren. Dann kann man ja festlegen, welche ROP man für alle Karten deaktiviert oder ob man das Deaktivieren lässt.
So groß wie die Fragmentprozessoren sind die ja nicht also auch nicht so wahrscheinlich, dass da was kaputt geht.
Bei ATI musste ja bisher die ganze Pipeline inkl der ROPs deaktiviert werden, nur dass das keinen Einfluß auf den Speichercontroller hatte.

Festzuhalten bleibt: NV kann die Fragmentprozessoren variieren und auch die ROPs, wobei bei denen das SI mitgeändert wird. (letzteres ist nicht mehr so flexibel wie NV4x es war).

Hat alles Vor- und Nachteile. Dafür ist es einfacher bei nativen Chipdesigns zu skalieren. Man braucht am SI nichts mehr zu machen und nimmt einfach ROP Partitionen weg oder klatscht welche dran an den Crossbar.

robbitop
2007-01-11, 14:43:51
Das sind nichtmal 10% im Vergelich zur Standardversion. Und bei diesen ist dann auch meist bei ~650-660Mhz Schluss. Durchaus möglich, dass man hier mit mehr Spannung noch ein paar zusätzliche Mhz herauskitzeln kann, aber für die Taktregionen einier R600 ist G80 IMHO nicht ausgelegt.
Es sind fast genau 10%.
Der IHV legt die Taktraten und die Spannung fest. NV hat sich aufgrund von Abwärme und von Yields für 575 MHz entschieden und ist mit einem enormen Transistorbudget und 90nm nur knapp über der Leistungsaufnahme einer R580.
Einen solchen weg ging man auch beim G70 und beim G71. Es klingelt am Ende einfach mehr in der Kasse und man hat weniger Stress beim Tapeout.

Seit R5xx strebt ATI ja den neusten Fertigungsprozess und hohe Taktraten an. Das war finanziell keine gute Entscheidung.

Anarchy-HWLUXX
2007-01-11, 14:47:26
Dann gehst du fälschlich von der Annahme aus, den Durchschnitt zu kennen.


Nichts einfacher als das :

http://www.steampowered.com/status/survey.html

Die zahl der Karten mit mit 512MB ist verschwindend klein.


Stelle Dir vor, es gibt sogar Rechner mit 128 MB Grafikkarte, die nicht zum spielen genutzt werden, die gehen trotzdem in der Statistik mit ein. Was heißt das nun? :)

Mal wieder Realitätsfremd - es geht hier ausschließlich um Games :rolleyes:


Das Auslagern von Texturen, hochauflösende Texturen und Anwendungen, wie Rendering/CAD können auch dann von großem VRAM profitieren, wenn die Rohpower sehr gering ist.

Schließlich kommt es nicht immer darauf an, etwas in Echtzeit darzustellen.

Wer Prodiktiv mit CAD arbeitet wird sicherlich net an der GraKa sparen ... und es wird wohl eher ne Quadro als ne GeForce denn die haben Treiberseitige Optimierungen für derartige arbeiten ...

dargo
2007-01-11, 14:53:50
Die Leute in diesem Thread sind glücklicherweise nicht relevant, wenn es darum geht, den Weltbedarf zu errechnen. Denn sonst müsste sich jeder arme Schlucker sich jedes Jahr eine 500 € Karte gönnen und ich wette, dann, würden die nächsten 800 € Karten nicht lange auf sich warten lassen.
Richtig. Die Hardware von 3DC Usern ist im Durchschnitt eh deutlich schneller als der allgemeiner Durchschnitt.

Ich formuliere es mal anders - wieso siehst du die G8800GTS 320MB als Gamer Karte schlecht?
Oder anders gesagt - würdest du eher eine X1900XT 512MB für 240€ oder eine G8800GTS 320MB für 250€ als Gamer kaufen?

dargo
2007-01-11, 15:00:43
NV hat sich aufgrund von Abwärme und von Yields für 575 MHz entschieden und ist mit einem enormen Transistorbudget und 90nm nur knapp über der Leistungsaufnahme einer R580.

Naja, einen R580+ und einen G80, was den Stromverbrauch angeht zu vergleichen halte ich für wenig sinnvoll.

1. Der G80 ist Konkurent für den R600.
2. Die Architekturen sind einfach zu unterschiedlich. Wie würde es wohl aussehen wenn ein R580+ einen Shadertakt von 1350Mhz hätte? Oder der G80 einen von 575Mhz?

Gast
2007-01-11, 15:05:46
Nichts einfacher als das :

http://www.steampowered.com/status/survey.html

Die zahl der Karten mit mit 512MB ist verschwindend klein.

Ist das dein ernst? Ich habe dich nach einer seriösen Quelle gefragt, die sich mit >200 Games befasst und Landübergreifend ist.

Das ist dort nicht der Fall.

Ich muss kein Hellseher sein um zu behaupten, das du drei verschiedene Ergebnisse bekommen wirst, wenn du drei Genres vergleichst.
Nehmen wir mal Online RPG, Lebensimulationen und 3D-Shooter.
Glaubst du, die Statistik wäre überall die selbe?

Der Durchschnitt ergibt sich jedoch aus allen existierenden Genres zusammen und deswegen fehlt bei der Steam-Statistik einfach alles, um eine klare Aussage zu machen.

Wer Prodiktiv mit CAD arbeitet wird sicherlich net an der GraKa sparen ... und es wird wohl eher ne Quadro als ne GeForce denn die haben Treiberseitige Optimierungen für derartige arbeiten ...

Du meinst, jeder sollte hunderte/tausende Euro für eine Grafikkarte ausgeben, nur weil er ab und zu mal anderen Anwendungen außer Games hantiert?

Kaufst Du dir auch einen Supercomputer, weil du zuhause ab und an arbeitest? ;)

robbitop
2007-01-11, 15:08:49
Naja, einen R580+ und einen G80, was den Stromverbrauch angeht zu vergleichen halte ich für wenig sinnvoll.

1. Der G80 ist Konkurent für den R600.
2. Die Architekturen sind einfach zu unterschiedlich. Wie würde es wohl aussehen wenn ein R580+ einen Shadertakt von 1350Mhz hätte? Oder der G80 einen von 575Mhz?
Ist doch banane welche Generation die sind. NV erreichte beim G71 deutlich mehr punch pro Transistor und beim G8x ist es ebenso. Es geht mir nicht um reine Leistung sondern um Abwärme pro Transistor.
G80 hat 2x soviele Logiktransistoren wie R580 und kommt auf ähnliche Leistungsaufnahmen.

Der Shadertakt von 1350 MHz ist ein Weg, den NVIDIA gegangen ist. Sie haben wenige aber sehr flexible ALUs gebaut. Also müssen sie mit den 1350 MHz die geringe Masse an ALUs wieder reinholen. Ein anderer weg sind viele unflexible ALUs.

Anarchy-HWLUXX
2007-01-11, 15:09:33
Ist das dein ernst? Ich habe dich nach einer seriösen Quelle gefragt, die sich mit >200 Games befasst und Landübergreifend ist.



Wozu mehrere Games - es geht darum mit welcher hardware gespielt wird und die VRAM statistik sagt :

32 MB 16,810 2.19 % ##
64 MB 71,778 9.35 % #########
96 MB 3,972 0.52 % #
128 MB 265,486 34.58 % ###################################
256 MB 323,360 42.12 % ##########################################
512 MB 58,934 7.68 % ########
Other 27,381 3.57 %

Gerade mal ca.8% haben 512MB+ an VRAM ... ergo sind 320MB weit über dem durchschnitt.


Ausserdem ist dan ne Steam Statistik - auf diese Plattform gibt es mehr als nur HalfLife und CSS ;) Wobei shooter schon eher die leute dazu bewegen aufzurüsten - eine statistik nur bei Strategie und Rollenspielen würde wohl mehr richtung 128MB gehen ...

Gast
2007-01-11, 15:11:53
Ich formuliere es mal anders - wieso siehst du die G8800GTS 320MB als Gamer Karte schlecht?

Weil mir da schlicht und ergreifend die (kurzfristige) Zukunftssicherheit fehlt und die definiere ich anhand des Preises und der Leistung.

Mit 320 MB wäre das sogar noch schlimmer, als angenommen (habe vorher fälschlich 384 MB gelesen). Die Leistung der Karte ist gut, keine Frage. Was passiert jedoch, wenn die games, der nächsten 12-18 Monate plötzlich weit mehr VRAM brauchen werden, als die momentanen? Was wenn die Leistung dann um >50% einbricht? Für diese Misere wären mir 299$ einfach zu viel Geld.

Oder anders gesagt - würdest du eher eine X1900XT 512MB für 240€ oder eine G8800GTS 320MB für 250€ als Gamer kaufen?

Erstmal warten wir die Endpreise ab, danach können wir weiter spekulieren. :)

Wenn ich jetzt ne Karte bräuchte, würde ich definitiv eine sehr günstige nehmen (Übergang) oder gleich 8800 GTX. Dazwischen ist zu unsicher.

Gast
2007-01-11, 15:17:10
Wozu mehrere Games - es geht darum mit welcher hardware gespielt wird

Um eine Statistik über den Durchschnitt anzustellen, brauchst Du den Durchschnitt über alle Länder und Games hinaus. Ein oder ein paar Games reichen nicht.

Beispiel: Counter-Strike

Lief sogar auf Pentium II und Pentium III Prozessoren ganz passabel und wird sicherlich heute noch auf solche Maschinen betrieben. Denn wozu sollte sich jemand einen neune Rechner kaufen, wenn er nur CS spielt?

Allerdings wird dieser jemand, der so einen Pentium II/III sein eigen nennt, nicht Oblivion spielen. ;)
Und da kommste mit Pentium II und 256 MB RAM nicht weit.

Folglich fällt der Durchschnitt anders aus, als dort dargestellt, weil bei Steam nur eine begrenzte Anzahl an Games angeboten werden.

Anarchy-HWLUXX
2007-01-11, 15:26:05
Um eine Statistik über den Durchschnitt anzustellen, brauchst Du den Durchschnitt über alle Länder und Games hinaus. Ein oder ein paar Games reichen nicht.

Steam ist GLOBAL.



Beispiel: Counter-Strike

Lief sogar auf Pentium II und Pentium III Prozessoren ganz passabel und wird sicherlich heute noch auf solche Maschinen betrieben. Denn wozu sollte sich jemand einen neune Rechner kaufen, wenn er nur CS spielt?

Allerdings wird dieser jemand, der so einen Pentium II/III sein eigen nennt, nicht Oblivion spielen. ;)
Und da kommste mit Pentium II und 256 MB RAM nicht weit.

Folglich fällt der Durchschnitt anders aus, als dort dargestellt, weil bei Steam nur eine begrenzte Anzahl an Games angeboten werden.

CS lief auch auf der HL1 engine :rolleyes:

die meisten Games auf steam benutzen entweder die Source engine oder z.B. die Unreal Warfare engine -> Red Orchestra oder auch die Doom3 Engine -> Prey.

Weiterhin ist die Statistik immer aktuell - schau mal beim OS, 93% haben XP SP2 drauf ... sicherlich ist die zahl der PII Rechner arg gering ;)


Jetzt aber zurück zum thema - wills du immernoch behaupten das der Durchschnittliche Gamer PC 256MB oder mehr hat ? Die antwort kann nur ein definitives NEIN sein - folglich sind 320MB überdurchschnittlich und auch für die nächste zeit ausreichend - wenn man net gerade plant Crysis auf nem 24" bei 8*AA /16*AF zu spielen :rolleyes:

Gast
2007-01-11, 15:30:04
Und wie kommst du darauf, dass da noch 80MB Knautschzone bleiben? Sobal eine Karte auslagern muss, sollte die Leistung in den Keller gehen.



4GB/s PCIe Transferrate reichen locker, um mal eben ein paar zig MB Texturen zu transferieren, je rechenintensver der Shader desto weniger merkt man, dass Texturen ausgelagert wurden.

Gast
2007-01-11, 15:30:41
Steam ist GLOBAL.

Länderübergreifend ist Steam, nicht Genre oder Gamesübergreifend.

CS lief auch auf der HL1 engine :rolleyes:

... und läuft heute immer noch.

Sowohl CS als auch Diablo II, die sehr beliebt sind, rennen auf uralt Maschinen immer noch ganz passabel. Aber wenn du jetzt eine Statistik nur darüber machst, dann wird sie anders ausfallen, als wenn du sie bei Oblivion, Gothic 3 oder Quake 4 machst...

Denn diese Games werden die Leute mit schwächeren Maschinen schon aufgrund der Tatsache, das kein großartiger Spielspaß aufkommen wird, gänzlich meiden.

die meisten Games auf steam benutzen entweder die Source engine oder z.B. die Unreal Warfare engine -> Red Orchestra oder auch die Doom3 Engine -> Prey.

Weiterhin ist die Statistik immer aktuell - schau mal beim OS, 93% haben XP SP2 drauf ... sicherlich ist die zahl der PII Rechner arg gering ;)

Kann dir nicht ganz folgen? WinXP lief auf einem Pentium II super. Hauptsache genug RAM ist drin.

dargo
2007-01-11, 15:33:46
Der Shadertakt von 1350 MHz ist ein Weg, den NVIDIA gegangen ist. Sie haben wenige aber sehr flexible ALUs gebaut. Also müssen sie mit den 1350 MHz die geringe Masse an ALUs wieder reinholen. Ein anderer weg sind viele unflexible ALUs.
Das ist richtig, aber ein Weg den nur diese Architektur zulässt. Trotzdem stelle ich die Frage wie würde der G80 mit nur einem Shadertakt von 575Mhz aussehen. Ich könnte mir gut vorstellen ca. 25% weniger Leistung bzw. ~50% weniger Vorsprung auf den R580+.

Schade, dass man den Shadertakt (afaik) nicht ändern kann. Das würde mich wirklich interessieren.

dargo
2007-01-11, 15:42:23
Weil mir da schlicht und ergreifend die (kurzfristige) Zukunftssicherheit fehlt und die definiere ich anhand des Preises und der Leistung.

Da hätten wir wieder das Thema - PC und Zukunfssicherheit. :rolleyes:


Mit 320 MB wäre das sogar noch schlimmer, als angenommen (habe vorher fälschlich 384 MB gelesen). Die Leistung der Karte ist gut, keine Frage. Was passiert jedoch, wenn die games, der nächsten 12-18 Monate plötzlich weit mehr VRAM brauchen werden, als die momentanen? Was wenn die Leistung dann um >50% einbricht? Für diese Misere wären mir 299$ einfach zu viel Geld.

Das siehst du leider falsch.

1. Wenn man jetzt (oder Februar/März) sich diese Karte holt will man jetzt die Leistung haben und nicht erst in Games die in 12 Monaten erscheinen. Sich ne Grafikkarte für Spiele zu kaufen die so viel später erscheinen ist reine Geldvernichtung.

2. Sollten Spiele in 12-18 Monaten höheren Vram Bedarf haben (was mit Sicherheit passieren wird) kann ich dir garantieren, dass auch der allgemeiner Grafikkarten-Leistungshunger deutlich ansteigt. Somit bist du gezwungen entweder auf Details oder AA (eventuell kleinere Stufe) zu verzichten und/oder eine kleinere Auflösung zu wählen. Wodurch der Texturspeicherbedarf wieder geringer wird.

robbitop
2007-01-11, 15:42:47
Das ist richtig, aber ein Weg den nur diese Architektur zulässt. Trotzdem stelle ich die Frage wie würde der G80 mit nur einem Shadertakt von 575Mhz aussehen. Ich könnte mir gut vorstellen ca. 25% weniger Leistung bzw. ~50% weniger Vorsprung auf den R580+.

Schade, dass man den Shadertakt (afaik) nicht ändern kann. Das würde mich wirklich interessieren.
Jetzt vergleichst du aber wirklich Äpfel mit Bananen. Ob man nun den Shadertakt heruntersetzt oder bei einer Lösung mit vielen simplen Einheiten die Einheitenanzahl senkt, ist Jacke wie Hose.
NVIDIA ging eher den ersten Weg und ich nehme an, dass ATI den zweiten Weg geht. Entscheident ist, was hinten rauskam.

Beim G80 waren die ALUs aufgrund ihrer Flexibilität eben extrem teuer (wie auch alles andere). Somit konnte man nur eine relativ geringe Anzahl von ihnen verbauen. Am Ende kommt allerdings extrem viel heraus.

Letztendlich hat der G80 für eine große Anzahl von Transistoren (die wie gesagt für Performance und Features notwendig sind) eine relativ geringe Abwärme.

aths
2007-01-11, 15:55:12
Die GTS mit 320 MiB wird wohl etwa so eine Weder-Fisch-noch-Fleisch-Karte wie die 6800 GT mit 128 MiB. Sehr starke GPU, die nach Arbeit sucht, aber gnadenlos vom stets überladenen VRAM in ihrem Element gebremst wird. Könnte aber trotzdem ein nettes Kärtchen werden, wenn man auf das neue AA keinen Wert legt. ;)Ich spiele auf einer 7600 GT (256 MiB) alles mit AA. Warum sollte das mit einer 800 GTS und 320 MiB nicht möglich sein?

Weil mir da schlicht und ergreifend die (kurzfristige) Zukunftssicherheit fehlt und die definiere ich anhand des Preises und der Leistung.

Mit 320 MB wäre das sogar noch schlimmer, als angenommen (habe vorher fälschlich 384 MB gelesen). Die Leistung der Karte ist gut, keine Frage. Was passiert jedoch, wenn die games, der nächsten 12-18 Monate plötzlich weit mehr VRAM brauchen werden, als die momentanen? Was wenn die Leistung dann um >50% einbricht? Für diese Misere wären mir 299$ einfach zu viel Geld.Nicht jeder will seine Karte 2 Jahre behalten. Die Straßenpreise werden sich schon einpendeln.

Die 6600 GT kam zum Beispiel mit nur 128 MiB RAM, eigentlich etwas dürftig, aber bei 256 MiB wäre sie einfach zu teuer geworden.



4GB/s PCIe Transferrate reichen locker, um mal eben ein paar zig MB Texturen zu transferieren, je rechenintensver der Shader desto weniger merkt man, dass Texturen ausgelagert wurden.Nutzbar sind nur 3 GB/s. Außerdem spielt da auch die Frage der RAM-Speicherbandbreite eine Rolle. Texturen auszulagern kann nur eine Notlösung sein.

robbitop
2007-01-11, 16:11:16
Ich spiele auf einer 7600 GT (256 MiB) alles mit AA. Warum sollte das mit einer 800 GTS und 320 MiB nicht möglich sein?



Du spielst aber auch nur relativ alte bzw nicht ressourcenintensiven Spiele.

Ailuros
2007-01-11, 16:22:27
Ich spiele auf einer 7600 GT (256 MiB) alles mit AA. Warum sollte das mit einer 800 GTS und 320 MiB nicht möglich sein?

Jetzt habt Ihr mich beide verwirrt; Deine 7600 hat wohl 256MB Speicher und eine 128bit Busbreite, wobei die 8800GTS 640MB Speicher und 320bit Busbreite hat.

Wieso es jetzt der 8800GTS an Speicher mangeln sollte fuer die Kategorie in die sie gehoert ist mir eigentlich auch fremd.


Die 6600 GT kam zum Beispiel mit nur 128 MiB RAM, eigentlich etwas dürftig, aber bei 256 MiB wäre sie einfach zu teuer geworden.

Tja nur wuerden eher andere Flaschenhaelse zum Vorschein kommen auf einer 6600 bevor man 256MB Speicher auf dem Ding ueberhaupt benuetzen koennte.

Daher schnallen IMHLO IHVs eher mehr Speicher auf mainstream bzw. low-end GPUs als sie im Grunde eigentlich brauchen wuerden. Es gibt sogar budget GPUs mit 512MB Speicher; wozu dieser jetzt gut sein soll weiss ich auch nicht.

PCGH_Carsten
2007-01-11, 16:25:28
Achso meinst du das. Naja ich gehe davon aus, dass man nicht nach kaputten ROPs selektiert (sooo groß sind die im Vergleich zu den Fragmentprozessoren ja nicht) und einfach nur die Fragmentprozessoren. Dann kann man ja festlegen, welche ROP man für alle Karten deaktiviert oder ob man das Deaktivieren lässt.
Dagegen spräche allerdings, dass unterschiedliche GTS-Modelle auch unterschiedlich mit RAM-Bausteinen bestückt sind. Mindestens zwei Konfigurationen sind so auch im Netz zu finden (Pärchen oben links bzw. unten rechts fehlt).

robbitop
2007-01-11, 16:28:14
Haben die nicht längst ein eigenes PCB mit nur 10 Speicher"slots" (mir viel kein besserer Ausdruck ein)?

StefanV
2007-01-11, 16:30:14
Haben die nicht längst ein eigenes PCB mit nur 10 Speicher"slots" (mir viel kein besserer Ausdruck ein)?
Ist nicht möglich!

robbitop
2007-01-11, 16:35:05
Natürlich ist das möglich. 10 Bausteine a 32 Bit. Allerdings müsste man dann mit dem G80 die ROP von vornherein festlegen, die man für alle GTSen deaktivieren will. Die Fragmentprozessoren kann man sich hingegen noch aussuchen.
Oder aber man haut einen eigenen G8x für die GTS raus.

PCGH_Carsten
2007-01-11, 16:44:26
Haben die nicht längst ein eigenes PCB mit nur 10 Speicher"slots" (mir viel kein besserer Ausdruck ein)?
Ich habe noch keins gesehen.

Coda
2007-01-11, 16:46:41
Natürlich ist das möglich.

Nein ist es nicht, weil jeweils andere ROP-Partitionen deaktiviert sind.

Ich nehme übrigens an dass nVIDIA Chargen macht mit Chips bei denen jeweils die gleichen Partitionen deaktiviert sind damit man das ganze überhaupt so bestücken kann.

Allerdings müsste man dann mit dem G80 die ROP von vornherein festlegen, die man für alle GTSen deaktivieren will.

Die werden ja deaktiviert weil sie kaputt sind und nicht aus Spaß an der Freude.

robbitop
2007-01-11, 16:53:22
Nein ist es nicht, weil jeweils andere ROP-Partitionen deaktiviert sind.

Ich nehme übrigens an dass nVIDIA Chargen macht mit Chips bei denen jeweils die gleichen Partitionen deaktiviert sind damit man das ganze überhaupt so bestücken kann.

Ich sage ja, wenn man sich vorher entscheiden würde. Insofern wäre es möglich. ;)
Man könnte dann beim PCB sparen. Aber fiele ein Haufen Chips in den Mülleimer. Offensichtlich ist die jetzige Variante am Günstigsten.

reunion
2007-01-11, 16:54:58
Es sind fast genau 10%.
Der IHV legt die Taktraten und die Spannung fest. NV hat sich aufgrund von Abwärme und von Yields für 575 MHz entschieden und ist mit einem enormen Transistorbudget und 90nm nur knapp über der Leistungsaufnahme einer R580.
Einen solchen weg ging man auch beim G70 und beim G71. Es klingelt am Ende einfach mehr in der Kasse und man hat weniger Stress beim Tapeout.

Seit R5xx strebt ATI ja den neusten Fertigungsprozess und hohe Taktraten an. Das war finanziell keine gute Entscheidung.

Es hat natürlich alles seinen Vor- und Nachteile. Was glaubst du wieviel kleiner G80 mit einem Takt von ~750Mhz wäre? Damit könnte man locker ein drittel der Funktionseinheiten einsparen, und noch immer dieselbe Leistung erreichen.

robbitop
2007-01-11, 16:59:14
Es hat natürlich alles seinen Vor- und Nachteile. Was glaubst du wieviel kleiner G80 mit einem Takt von ~750Mhz wäre? Damit könnte man locker ein drittel der Funktionseinheiten einsparen, und noch immer dieselbe Leistung erreichen.
Tja mach das mal mit ner 90nm GPU. Da werden sicher Yields Probleme machen.

reunion
2007-01-11, 17:01:22
G80 hat 2x soviele Logiktransistoren wie R580 und kommt auf ähnliche Leistungsaufnahmen.


Na jetzt übertreib mal nicht. Ein G80 schluckt schon 30-40W mehr als ein R580+ unter Last, im wesentlich wichtigerem idel-Mode sind es sogar um die 40-50W. Zwar für die doppelte Anzahl an Logiktransistoren nicht schlecht, aber erstens entwickelt sich auch ein Fertigungsprozess weiter, und zweitens ist G80 eben schon einen neue Generation mit höher entwickelten Stromsparmechanismen. Auch bei R600 wird die Leistung/Transistoren im Vergelich zum R580+ steigen, das traue ich mich jetzt schon zu sagen.

Tja mach das mal mit ner 90nm GPU. Da werden sicher Yields Probleme machen.

Das war auch mehr ein theoretischen Beispiel. Es sollte klar sein, auf was ich hinaus wollte

Coda
2007-01-11, 17:03:27
Na jetzt übertreib mal nicht. Ein G80 schluckt schon 30-40W mehr als ein R580+ unter Last

20W maximal. XBit hat nicht selber gemessen sondern nVIDIA-Angaben verwendet. Ich gehe davon aus dass es in der Praxis sogar eher weniger ist wie man hier sieht:
http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif

Damit dürfte die 8800 GTX in der Tat etwa auf X1950XTX-Niveau sein.

Dazu auch:
We have to say that we worried too much about the power consumption of the GeForce 8800 GTX. In practice, it has in fact approximately the same power consumption as the ATI Radeon X1950 XTX.

Es ist etwas mehr. Aber sicher keine 30-40W.

Was Idle angeht magst du recht haben, spielt aber was die Limitierung der Performance des Chips durch Hitzeentwicklung angeht keine Rolle. Und darum ging's doch eher, oder?

seahawk
2007-01-11, 17:11:37
Haben die nicht längst ein eigenes PCB mit nur 10 Speicher"slots" (mir viel kein besserer Ausdruck ein)?

Ich habe bisher nur ein PCB gesehen, dass theoretisch die Vollbestückung mit 768MB zu läßt. So den 2 Varianten von Quasar hatte ich auch schon eine wo Chips mitttendrin nicht belegt waren.

reunion
2007-01-11, 17:13:13
20W maximal. XBit hat nicht selber gemessen sondern nVIDIA-Angaben verwendet. Ich gehe davon aus dass es in der Praxis sogar eher weniger ist wie man hier sieht:
http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif

Damit dürfte die 8800 GTX in der Tat etwa auf X1950XTX-Niveau sein.


Warum nimmst du nicht gleich die Graphen mit G80?
http://www.xbitlabs.com/images/video/gf8800/results/8800gtx_power.gif
Demnach wäre es knapp über 20W, wobei das je nach Test stark schwankt, CB hat bsw. über 30W gemessen. Die Leistungsaufnahme ist für die Leistung sicherlich nicht übermäßig hoch, aber doch über X1950XTX-Niveau, wie eigentlich bei jeder Messung festgestellt wurde.

Coda
2007-01-11, 17:16:27
Warum nimmst du nicht gleich die Graphen mit G80?

Weil das nicht gemessen ist, sondern Angaben von nVIDIA. Das ist die maximale TDP. Kannst nicht vergleichen.

Hab dir extra den GX2-Graph dazu gepostet (33W weniger gemesen als Angabe von nVIDIA):
http://www.xbitlabs.com/images/video/ati-x1950xtx/x1950_power.gif

CB hat bsw. über 30W gemessen.

CB hat nach dem Netzteil gemessen. Das ist eh für die Katz, weil jedes Netzteil auf 12V vs. 5V verschiedene Wirkungsgrade hat, und gerade nVIDIA zieht traditionell gar nichts aus 5V.

seahawk
2007-01-11, 17:16:50
Dabei sollte man aber die 256MB mehr an RAM nicht vergessen, dazu noch relativ hochtaktenden GDDR3 gegen relativ niedrig getakteten GDDR4. Den Ausgabechip müßte man auch abziehen, wenn man rein den Mehrverbrauch des G80 sehen wollte.

reunion
2007-01-11, 17:19:19
Okay, jetzt versteh' ich. Allerdings gibt es ja auch von anderen Seiten Messungen, wenn auch nur die Gesamtleistungsaufnahme des PCs: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/31/#abschnitt_stromverbrauch

Seis drum, wie schon mehmals gesagt, ist die Leistungsaufnahma für die Leistung sehr gut. Jetzt muss sich zeigen was R600 zu stande bringt.

dargo
2007-01-11, 17:19:40
Demnach wäre es knapp über 20W, wobei das je nach Test stark schwankt, CB hat bsw. über 30W gemessen.
Bitte nicht die CB Messungen einbeziehen. CB misst den Gesamtverbrauch. und bei diesem fließt die Verlustleitung des NT ins Ergebnis ein.

Coda
2007-01-11, 17:19:56
Computerbase hab ich doch gerade angesprochen, oder nicht? Nach dem Netzteil gemessen ist nicht relevant, vor allem nicht für die Hitzeverlustleistung eines Chips (evtl. für die Stromrechnung, wenn sich die Netzteile da alle ähnlich verhalten - was wir nicht wissen).

dargo
2007-01-11, 17:23:43
CB hat nach dem Netzteil gemessen. Das ist eh für die Katz, weil jedes Netzteil auf 12V vs. 5V verschiedene Wirkungsgrade hat, und gerade nVIDIA zieht traditionell gar nichts aus 5V.
Ähm, momentmal. Die 5V Schiene wird doch bei PCIe Grakas überhaupt nicht mehr belastet, auch nicht bei ATI. PCIe Grakas bedienen sich zu ca. 90-95% aus der 12V Schiene, der Rest fliesst über die 3,3V Schiene.

Coda
2007-01-11, 17:24:30
Dann ist es halt 3,3V. Bei ATi sind es aber eben nicht 95% 12V.

Ailuros
2007-01-11, 17:24:36
TechReport:

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

Ihr koennt ja die Stromverbrauch-Debatte nochmal in ein paar Monaten wiederholen, dann werden wir schon sehen was genau vergleichsmaessig "viel" und was "wenig" ist.

reunion
2007-01-11, 17:25:25
Dabei sollte man aber die 256MB mehr an RAM nicht vergessen, dazu noch relativ hochtaktenden GDDR3 gegen relativ niedrig getakteten GDDR4. Den Ausgabechip müßte man auch abziehen, wenn man rein den Mehrverbrauch des G80 sehen wollte.

Es geht um die Leistung im Verhältnis zum stromverbauch, alles andere ist Käse. Der RAM trägt zur höheren Leistung bei (mit GDDR3 vs. GDDR4 könnte man argumentieren, ja), und ohne dem NVIO Chip geht bei der Karte gar nichts. Der wurde doch nur ausgelagert, weil das Die sonst zu fett geworden wäre.

Computerbase hab ich doch gerade angesprochen, oder nicht? Nach dem Netzteil gemessen ist nicht relevant, vor allem nicht für die Hitzeverlustleistung eines Chips (evtl. für die Stromrechnung, wenn sich die Netzteile da alle ähnlich verhalten - was wir nicht wissen).

Hab' ich nicht gesehen.

Gast
2007-01-11, 17:27:03
Die 6600 GT kam zum Beispiel mit nur 128 MiB RAM, eigentlich etwas dürftig, aber bei 256 MiB wäre sie einfach zu teuer geworden.In der Lebzeit meiner 6600GT hatte ich durch die geringe VRAM-Menge eigentlich keinerlei Nachteile verspüren können.

Ailuros
2007-01-11, 17:27:31
Der wurde doch nur ausgelagert, weil das Die sonst zu fett geworden wäre.

Deine Schlussfolgerung ;)

dargo
2007-01-11, 17:27:41
Computerbase hab ich doch gerade angesprochen, oder nicht?
Zwischen deinem und meinem Post liegen gerade mal 3 Minuten. Bitte verzeih mir, dass ich dein Posting nicht bemerkt habe. :)

Bei ATi sind es aber eben nicht 95% 12V.
Sondern?

Coda
2007-01-11, 17:28:26
Der wurde doch nur ausgelagert, weil das Die sonst zu fett geworden wäre.

Nope. Weil die 1,35Ghz-ALUs sonst dem RAMDAC erhebliche Probleme gemacht hätten mit Interferenzen. <5 Mio. Transistoren zusätzlich wären auch voll scheiß egal gewesen.

Sondern?
http://www.xbitlabs.com/misc/picture/?src=/images/video/x1950pro-gf7900gs/7900gs_pwr_full.gif&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/x1950pro-gf7900gs/1950pro_pwr_full.gif&1=1

Man beachte dass das eine X1950Pro ist die schon digital PWMs hat. Bei den X800 war's noch wesentlich krasser. Ich weiß allerdings nicht wie sich der Spannungswandler der X1900XTX verhält. Ich vermute aber mal, dass mehr aus 3,3V gezogen wird, ansonsten kann ich mir die Irregularitäten bei den Netzteil-Messungen nicht erklären.

2B-Maverick
2007-01-11, 17:33:18
Geht die 8800 eigentlich mittlerweile in einen echten 2D-Stromspar-Modus?
Oder hat NV das immer noch nicht geschafft / hinbekommen wollen.

CU
Markus

dargo
2007-01-11, 17:33:22
TechReport:

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

Dein Link zeigt mir nur, dass Oblivion kein guter Kandidat ist um die Grafikkarte am Limit (bezogen auf Stromverbrauch) zu betreiben. 7W mehr für die G8800GTX gegenüber der X1950XTX ist ein Witz. Dann hätte sich NV den zweiten PCIE Stecker sparen können.

Wahrscheinlich war bei diesem Test die CPU zu langsam um die G8800GTX auf 100% zu halten.

Coda
2007-01-11, 17:34:25
Geht die 8800 eigentlich mittlerweile in einen echten 2D-Stromspar-Modus?
Oder hat NV das immer noch nicht geschafft / hinbekommen wollen.

Es gibt da für nVIDIA wohl gar nichts zum "hinbekommen". Das ist nicht groß relevant bei der Kundschaft die High-End kauft.

Dein Link zeigt mir nur, dass Oblivion kein guter Kandidat ist um die Grafikkarte am Limit (bezogen auf Stromverbrauch) zu betreiben. 7W mehr für die G8800GTX gegenüber der X1950XTX ist ein Witz. Dann hätte sich NV den zweiten PCIE Stecker sparen können.

Nein. Erstmal ist nVIDIA da schon immer übervorsichtig (die 2 Stromstecker der 6800 Ultra waren auch nicht nötig, haben aber schwache Netzteile entlastet wenn man über 2 Rails angeschlossen hat) und zweitens zieht die Karte eben alles aus den 12V-PCIe-Steckern, im Gegensatz zu ATi.

reunion
2007-01-11, 17:35:33
Deine Schlussfolgerung ;)

Was hat das denn sonst für Vorteile?

Coda
2007-01-11, 17:36:53
Was hat das denn sonst für Vorteile?

Hab ich auch schon gesagt.

reunion
2007-01-11, 17:39:04
Oh Mann, hier gehts ja heute schnell zur Sache. :)
Wobei ich mir bei dem Die keine 5 mio Transistoren vorstellen kann, wenn da nicht ein Steinzeitprozess verwendet wurde. In relation zu G80 sollten da gut 50-100mio Transistoren drin stecken.

Ailuros
2007-01-11, 17:39:39
Dein Link zeigt mir nur, dass Oblivion kein guter Kandidat ist um die Grafikkarte am Limit (bezogen auf Stromverbrauch) zu betreiben. 7W mehr für die G8800GTX gegenüber der X1950XTX ist ein Witz. Dann hätte sich NV den zweiten PCIE Stecker sparen können.

Wahrscheinlich war bei diesem Test die CPU zu langsam um die G8800GTX auf 100% zu halten.

Immerhin 2W mehr als das was NV selber behauptet LOL. Was habt Ihr eigentlich fuer einen Koller mit dem Stromverbrauch ueberhaupt? Hockt Ihr Tag und Nacht vor der Stromuhr und kalkuliert wieviel kiloWatt was genau verbraucht oder was?

High end D3D10 Leistung wird nicht umsonst kommen; schon gar nicht bei R600 und dieses war schon ca. 1 Jahr bekannt. Ob es jetzt 40,30,20 oder nur 10W Unterschied sind, sollte mich genau wieso jucken? Du wirst wohl entschuldigen aber man kann's auch uebertreiben.

Coda
2007-01-11, 17:39:45
Oh Mann, hier gehts ja heute schnell zur Sache. :)
Wobei ich mich bei dem Die keine 5 mio Transistoren vorstellen kann, wenn da nicht ein Steinzeitprozess verwendet wurde. In realtion zu G80 sollten da gut 50-100mio Transistoren drin stecken.

Das Die ist bloß so "groß" damit man die Pads nach außen führen kann. Bei Flipchip werden die Chips direkt auf das PCB gelötet, die Lötpunkte müssen also auf das Die verteilt werden. Ich kratz das Ding jetzt nicht von meiner Leiterplatte, aber ich denke dass es komplett voll ist mit Pads.

Und das ein 2D-Teil 50-100 Mio. Transistoren hat ist sowieso lächerlich. Da kannst ja ne 6200 draus bauen.

AnarchX
2007-01-11, 17:40:18
Ob nVidia vielleicht die 8800GTS 320MB mit dem Forceware 100 launcht, um zu zeigen was die Karte wirklich für ihre 299$ leistet? ;)

Ailuros
2007-01-11, 17:41:07
Oh Mann, hier gehts ja heute schnell zur Sache. :)
Wobei ich mir bei dem Die keine 5 mio Transistoren vorstellen kann, wenn da nicht ein Steinzeitprozess verwendet wurde. In relation zu G80 sollten da gut 50-100mio Transistoren drin stecken.

50-100M was genau? Nun bleib mal bitte auf dem Teppich. Coda war zwar ein klein bisschen konservativ mit seiner Schaetzung aber Du hast das Ganze gerade zur Komoedie transformiert.

PCGH_Carsten
2007-01-11, 17:41:47
Es gibt da für nVIDIA wohl gar nichts zum "hinbekommen". Das ist nicht groß relevant bei der Kundschaft die High-End kauft.
Bei mir ist es das schon. Ich werde meinen PC demnächst wieder zum Surfen und DVD-Schauen benutzen und habe keine Lust, dass er dabei 150W oder mehr verbrutzelt - vor allem nicht, wenn er dafür nichts leistet. Wenn das Teil echte Schwerarbeit zu verrichten hat, kann es ja meinetwegen auch ein bissel Strom saufen. Aber nicht beim Faulenzen.

Außerdem fehlen mit hybride und supersampling-AA Modi.

Coda
2007-01-11, 17:43:40
Bei mir ist es das schon.

Bei mir auch. Aber ich denke nicht dass wir den relevanten Käuferkreis repräsentieren.

Ich hab die 2D-Verlustleistung der 8800 GTS auch nur zähneknirschend mitgenommen, weil ich frühstmöglich D3D10-Hardware wollte ;)

Außerdem fehlen mit hybride und supersampling-AA Modi.

Vermisse ich beim Filter der Karte eigentlich recht wenig. Aber das wird jetzt wirklich OT.

Black-Scorpion
2007-01-11, 17:45:07
Es gibt da für nVIDIA wohl gar nichts zum "hinbekommen". Das ist nicht groß relevant bei der Kundschaft die High-End kauft.
Sorry, aber das ist ja wohl ein dämliches Argument.
Oder sollte das nur ein seltsame Umschreibung für "funktioniert nicht" sein?

dargo
2007-01-11, 17:45:16
http://www.xbitlabs.com/misc/picture/?src=/images/video/x1950pro-gf7900gs/7900gs_pwr_full.gif&1=1
http://www.xbitlabs.com/misc/picture/?src=/images/video/x1950pro-gf7900gs/1950pro_pwr_full.gif&1=1

Und was soll jetzt daran so schlimm sein? :)
Ich sagte ja ca. 90-95%. Oder willst du jetzt ATI schlecht machen weil sie ~1,7A von der 3,3V Schiene abzapfen? :|

Nur mal zur Info - ein heutzutage eher "schwaches" Seasonic S12-330W NT bietet max. 20A auf der 3,3V Schiene. Und die einzigen Komponenten die daran noch nuckeln sind Arbeitsspeicher, Mainboard und evetuell PCI Komponenten.

Coda
2007-01-11, 17:45:47
Und was soll jetzt daran so schlimm sein? :)

Wie gesagt: X1950Pro mit Digital PWM. Das ist nicht repräsentativ für die R580+-Karten. Ich will nur folgendes zeigen:

a) nVIDIA "nix" aus 3,3V zieht
b) ATi sehr wohl
c) sehr viel sogar in der Vergangenheit

Und da die X1950XTX auch einen recht großen Stromhunger hat gehe ich mal davon aus dass da einiges mehr durch 3,3V fließt. Ich kann's momentan aber nicht beweisen.

Nur mal zur Info - ein heutzutage eher "schwaches" Seasonic S12-330W NT bietet max. 20A auf der 3,3V Schiene. Und die einzigen Komponenten die daran noch nuckeln sind Arbeitsspeicher, Mainboard und evetuell PCI Komponenten.

Sind insgesamt immerhin 66W.

reunion
2007-01-11, 17:47:34
50-100M was genau? Nun bleib mal bitte auf dem Teppich. Coda war zwar ein klein bisschen konservativ mit seiner Schaetzung aber Du hast das Ganze gerade zur Komoedie transformiert.

Was weiß ich, was im dem Ding genau drin ist, das war einen reine Schätzung in relation zur Die-Größe. Coda hat ja schon gesagt, warum das so ist.

Wie gesagt: X1950Pro mit Digital PWM. Das ist nicht repräsentativ für die R580+-Karten. Ich will nur folgendes zeigen:

a) nVIDIA "nix" aus 3,3V zieht
b) ATi sehr wohl
c) sehr viel sogar in der Vergangenheit

Und da die X1950XTX auch einen recht großen Stromhunger hat gehe ich mal davon aus dass da einiges mehr durch 3,3V fließt. Ich kann's momentan aber nicht beweisen.


Unabhängig davon würde ich das eher als Vorteil sehen, dass die Last etwas verteilt wird.

Ailuros
2007-01-11, 17:51:36
Obwohl eigentlich nebensaechlich: NVIO hat eine X Anzahl an Transistoren die sowieso nur dumm rumhocken, weil man ja einen chip bauen wollte. Das Ding hat ja ueberhaupt keine Logik eingebaut.

Coda
2007-01-11, 17:52:35
Du meinst Fülltransistoren, oder nicht? Etwas Logik ist schon nötig um das DVI-Signal zu generieren beispielsweise.

dargo
2007-01-11, 17:53:13
Erstmal ist nVIDIA da schon immer übervorsichtig (die 2 Stromstecker der 6800 Ultra waren auch nicht nötig, haben aber schwache Netzteile entlastet wenn man über 2 Rails angeschlossen hat...

1. Erkläre mir mal bitte wie du bei einer AGP Graka und ATX 1.3 NT mit jedem Stecker je ein Rail treffen willst. Ich kenne zumindest keine NTs bei denen die Rails über Kabelstränge beschriftet sind.

2. Seit wann haben ATX 1.3 NTs zwei 12V Rails?


... und zweitens zieht die Karte eben alles aus den 12V-PCIe-Steckern, im Gegensatz zu ATi.
Ok, hiermit hast du mir eindeutig bewiesen, dass dein Herz nur für NV schlägt.

Coda
2007-01-11, 17:54:02
1. Erkläre mir mal bitte wie du bei einer AGP Graka und ATX 1.3 NT mit jedem Stecker je ein Rail treffen willst. Ich kenne zumindest keine NTs bei denen die Rails über Kabelstränge beschriftet sind.

Zumindest werden die Kabel nicht so belastet. Ich hab schon durchgeschmorte Molex-Stecker gesehen an GPUs.

Ok, hiermit hast du mir eindeutig bewiesen, dass dein Herz nur für NV schlägt.

Was ist daran "bewiesen"? Das sind Fakten.

Ich will nur eruieren, warum die Strommessungen soweit auseinander driften bei Messung an der Karte und hinter dem Netzteil. Soll ich jetzt die alten X800-Messungen von XBit rausholen um's dir zu zeigen?

dargo
2007-01-11, 17:56:25
Es gibt da für nVIDIA wohl gar nichts zum "hinbekommen". Das ist nicht groß relevant bei der Kundschaft die High-End kauft.

Ist eine G8800GTS auch High-End? :rolleyes:
Die gesamte G80 Palette hat dieses Problem in 2D.

reunion
2007-01-11, 17:58:46
Obwohl eigentlich nebensaechlich: NVIO hat eine X Anzahl an Transistoren die sowieso nur dumm rumhocken, weil man ja einen chip bauen wollte. Das Ding hat ja ueberhaupt keine Logik eingebaut.

Seltsam ist das schon, da man ja trotzdem das komplette Die zahlen muss, auch wenn durch die vielen Fülltransistoren die Yield nahe bei 100% liegen wird. Falls da wirklich nur fünf Millionen Transistoren wirklich gebraucht werde, ist diese Lösung jedenfalls nicht gerade "smart".

StefanV
2007-01-11, 17:59:53
Ist eine G8800GTS auch High-End? :rolleyes:
Die gesamte G80 Palette hat dieses Problem in 2D.
Absolutely...

Für Mainstream ist das Teil noch a bisserl teuer...

Ailuros
2007-01-11, 18:00:04
Du meinst Fülltransistoren, oder nicht? Etwas Logik ist schon nötig um das DVI-Signal zu generieren beispielsweise.

Ja Fuelltransistoren. Das bisschen Logik kann man sehr leicht als "gar nichts" bezeichnen. Hauptsache Du hast mich verstanden ;)

Coda
2007-01-11, 18:00:46
Ist eine G8800GTS auch High-End? :rolleyes:

Natürlich ist das High-End. Wieviel Leute geben denn bitte 370€ für ne GPU aus?

Seltsam ist das schon, da man ja trotzdem das komplette Die zahlen muss, auch wenn durch die vielen Fülltransistoren die Yield nahe bei 100% liegen wird. Falls da wirklich nur fünf Millionen Transistoren wirklich gebraucht werde, ist diese Lösung jedenfalls nicht gerade "smart".

Was willst du sonst machen? Die Signale rausbeamen? ;)

On-Die und verrauschtes Bild wäre auch nicht gerade "smart" gewesen, vor allem nicht beim wahrscheinlichen Medienaufschrei deshalb...

Ailuros
2007-01-11, 18:04:51
Seltsam ist das schon, da man ja trotzdem das komplette Die zahlen muss, auch wenn durch die vielen Fülltransistoren die Yield nahe bei 100% liegen wird. Falls da wirklich nur fünf Millionen Transistoren wirklich gebraucht werde, ist diese Lösung jedenfalls nicht gerade "smart".

Nach Deiner Ansicht waere es "weiser" gewesen keinen getrennten chip zu entwickeln um mit zahllosen Interferenz-Problemen zu kaempfen oder? Das es eine bekloppte Idee mit 1.35GHz ALUs ist, hast Du wohl ueberlesen.

***edit: ich gehe ein Spiel spielen; dass ich den gleichen Quark wie Coda wiederhole macht mir Angst :D

dargo
2007-01-11, 18:07:45
Immerhin 2W mehr als das was NV selber behauptet LOL.

Wie kommst du jetzt auf 2W :confused:

Ich sehe jetzt erst, dass in deinem Link eine X1900XTX mehr Strom verbraucht als eine G8800GTX. :lol:
Nee, sorry. Ein klarer Fall von CPU-Limitierung beim der G8800GTX. ;)


Was habt Ihr eigentlich fuer einen Koller mit dem Stromverbrauch ueberhaupt? Hockt Ihr Tag und Nacht vor der Stromuhr und kalkuliert wieviel kiloWatt was genau verbraucht oder was?

High end D3D10 Leistung wird nicht umsonst kommen; schon gar nicht bei R600 und dieses war schon ca. 1 Jahr bekannt. Ob es jetzt 40,30,20 oder nur 10W Unterschied sind, sollte mich genau wieso jucken? Du wirst wohl entschuldigen aber man kann's auch uebertreiben.
Die Verbrauchswerte >100W liegen schon eigendlich über meinem gesetzen Limit. Trotzdem hatte ich mir eine X1900XT zugelegt da ich keine andere Alternative hatte (hatte vorher eine ~60W X1800XL). Ich möchte jetzt aber auf keinem Fall in Richtung ~140W gehen.

Es ist aber nicht nur der Stromverbrauch der mich stört. Daraus resultiert auch eine größere Wärmeentwicklung wodurch Gehäusellüfter, Grakalüfter, CPU Lüfter lauter werden. Ich weiß, es mag kein großer Unterschied bei der Geräuschkulisse sein, aber der Trend gefällt mir überhaupt nicht. Wo ist die Grenze?

Bei den CPUs versuchen beide Hersteller (Intel und AMD) immer sparsamere CPUs zu entwickeln. Bei den GPUs sehen wir leider das Gegenteil.

dargo
2007-01-11, 18:20:45
Wie gesagt: X1950Pro mit Digital PWM. Das ist nicht repräsentativ für die R580+-Karten. Ich will nur folgendes zeigen:

Eine X1950XTX belastet die 3,3V Schiene zu ~5%. Wahnsinn. :cool:
http://www.xbitlabs.com/misc/picture/?src=/images/video/ati-x1950xtx/x1950_power_full.gif&1=1


a) nVIDIA "nix" aus 3,3V zieht
b) ATi sehr wohl
c) sehr viel sogar in der Vergangenheit

Welche Vergangenheit?
In der Vergangenheit gings um AGP Grakas und bei denen war die Stromverteilung ganz anders. Bei ATX 1.3 NTs war die combined 3,3+5V Leistung wichtig und nicht die 12V Schiene.


Und da die X1950XTX auch einen recht großen Stromhunger hat gehe ich mal davon aus dass da einiges mehr durch 3,3V fließt. Ich kann's momentan aber nicht beweisen.

Nö, siehe oben. Knapp 6,5W. :)


Sind insgesamt immerhin 66W.
Und wer soll diese übrig gebliebenen ~60W dann verbraten? Und bitte nicht vergessen, ich habe vom 330W Seasonic gesprochen, das niemand mit einer X1950XTX nutzen wird. Eher ein 430W Seasonic mit max. 30A (99W).

LovesuckZ
2007-01-11, 18:22:49
Bei den CPUs versuchen beide Hersteller (Intel und AMD) immer sparsamere CPUs zu entwickeln. Bei den GPUs sehen wir leider das Gegenteil.

AUch die GPUs werden sparsamer. Die GTX leigt auf einem X1950XTX X-Fire Niveau und verbraucht annährend soviel wie eine einzelne Karte.
Eine Verdopplung der Leistung bei gleichbleibender Stromaufnahme? Das nenne ich sparsam.
Was bringen mir niedrige Werte, wenn die Leistung aber nur kleckchen Weise ansteigt? Und wenn ich mir AMD ansehe, so verbraucht ein FX Prozessor auch schon sehr viel. Auch Intel's QuadCore ist kein sparsamer Prozessor, und bringt kaum Leistungsgewinne.

dargo
2007-01-11, 18:26:42
Zumindest werden die Kabel nicht so belastet. Ich hab schon durchgeschmorte Molex-Stecker gesehen an GPUs.

Richtig. Nur hoffentlich hat NV bei der G6800Ultra auch dazu geschrieben, dass man beide Stecker an zwei verschiedene Kabelsträge anschliessen sollte. Denn an einem Kabelstrang bringt es null komma nix.


Ich will nur eruieren, warum die Strommessungen soweit auseinander driften bei Messung an der Karte und hinter dem Netzteil.
Ich kenne sehr gut den Unterschied zwischen an der Komponente und hinterm NT messen. :)

Ailuros
2007-01-11, 18:27:02
Wie kommst du jetzt auf 2W :confused:

Weil NV nur 5W Unterschied behauptet hatte deshalb.

Ich sehe jetzt erst, dass in deinem Link eine X1900XTX mehr Strom verbraucht als eine G8800GTX. :lol:
Nee, sorry. Ein klarer Fall von CPU-Limitierung beim der G8800GTX. ;)

7W mehr als X1950XTX und weniger als ein System mit einer X1900XTX. Techreport hat einen Core2Duo X6800@2.93GHz benutzt und irgend eine Stelle in Oblivion bei 1600*1200 mit AF. AA haette sie IMO natuerlich auch noch benutzen sollen, aber dann gingen die G7x wohl nicht mehr (ultra quality in Oblivion heisst wohl mit HDR). Sooo CPU limitiert kann das Ganze gar nicht sein.

Wie dem auch sei Euer Koller um 10W mehr oder weniger ist trotz allem lachhaft.

Die Verbrauchswerte >100W liegen schon eigendlich über meinem gesetzen Limit. Trotzdem hatte ich mir eine X1900XT zugelegt da ich keine andere Alternative hatte (hatte vorher eine ~60W X1800XL). Ich möchte jetzt aber auf keinem Fall in Richtung ~140W gehen.

Wenn man so heikel wie Du mit Stromverbrauch ist, dann waere eine G7x die logischere Alternative gewesen. Natuerlich haettest Du dann auch Nachteile einbussen muessen, aber umsonst bekommt man nichts.

Es ist aber nicht nur der Stromverbrauch der mich stört. Daraus resultiert auch eine größere Wärmeentwicklung wodurch Gehäusellüfter, Grakalüfter, CPU Lüfter lauter werden. Ich weiß, es mag kein großer Unterschied bei der Geräuschkulisse sein, aber der Trend gefällt mir überhaupt nicht. Wo ist die Grenze?

Die zwei fans meines PSU und die 7 fans des Gehaeuses ("silent") ueberdecken den Luefter der 8800GTX und dabei hab ich sogar von 60% default auf 75% aufgedreht. Nur wenn ich auf 100% schalte kann ich das Ding deutlich raushoeren. Auf der CPU hockt ein gigantischer Heatsink von Thermaltake mit 0dB.

Den Luefter einer 7600GT kann man staerker raushoeren als bei dem Ding. Wie dem auch sei...wo die Grenze sein soll? Das kannst Du ATI ab Maerz dann fragen :P

Bei den CPUs versuchen beide Hersteller (Intel und AMD) immer sparsamere CPUs zu entwickeln. Bei den GPUs sehen wir leider das Gegenteil.

Jegliche heutige CPU ist ja auch eine absolute Banause was 3D betrifft im Vergleich zu einer high end GPU. Der Vergleich hat weder Haende noch Fuesse.

dargo
2007-01-11, 18:29:31
Absolutely...

Für Mainstream ist das Teil noch a bisserl teuer...
Auch eine G8800GTS 320MB für ca. 250€? An der GPU soll sich angeblich nichts ändern. Also auch nicht am Stromverbrauch in 2D minus natürlich die Verlustleistung des GDDR3 in 2D. Wobei es weiterhin 10 Chips sein sollen.

AUch die GPUs werden sparsamer. Die GTX leigt auf einem X1950XTX X-Fire Niveau und verbraucht annährend soviel wie eine einzelne Karte.
Eine Verdopplung der Leistung bei gleichbleibender Stromaufnahme? Das nenne ich sparsam.

Nochmal, die Verlustleistung ist nicht gleich geblieben! Vergleiche mal eine G8800GTS mit einer X1900XT. nahezu identische Verbrauchswerte aber keine Verdoppelung der Leistung.

In einem Punkt muss ich mich aber korrigieren. Der Vergleich CPUs und GPUs ist ein Schlechter. In dem Zeitraum in dem eine ~Verdoppelung der Grafikleistung stattfindet verbessert sich die CPU Leistung deutlich geringer.


Auch Intel's QuadCore ist kein sparsamer Prozessor, und bringt kaum Leistungsgewinne.
Schau dir mal was anderes als nur Spiele an. Dass ein Qaudcore kaum was bringt liegt ganz alleine an den Spieleentwicklern. Der Quadcore ist aber noch relativ kurz auf dem Markt.

LovesuckZ
2007-01-11, 18:42:18
Nochmal, die Verlustleistung ist nicht gleich geblieben! Vergleiche mal eine G8800GTS mit einer X1900XT. nahezu identische Verbrauchswerte aber keine Verdoppelung der Leistung.

Auch eine nicht Verdopplung der Leistung bei gleicher Leistungsaufnahme ist positiv. Eine GTS ist zwischen 0 - 50% schneller als deine X1900XT. Und verbraucht gerade gleich viel.

Schau dir mal was anderes als nur Spiele an. Dass ein Qaudcore kaum was bringt liegt ganz alleine an den Spieleentwicklern. Der Quadcore ist aber noch relativ kurz auf dem Markt.

Ich interessiere mich nicht für Packprogramme und 3DMark - Scores.

Ailuros
2007-01-11, 18:46:23
Nochmal, die Verlustleistung ist nicht gleich geblieben! Vergleiche mal eine G8800GTS mit einer X1900XT. nahezu identische Verbrauchswerte aber keine Verdoppelung der Leistung.

Weil die GTS nur eine kastrierte GTX ist vielleicht? Wie wuerde der Stromverbrauch aussehen wenn die GTS von Grund auf mit nur 5 clusters gebaut wird?

Solche Kleinigkeiten muessten sofort einleuchten.

Raff
2007-01-11, 18:51:11
Jetzt habt Ihr mich beide verwirrt; Deine 7600 hat wohl 256MB Speicher und eine 128bit Busbreite, wobei die 8800GTS 640MB Speicher und 320bit Busbreite hat.

Wieso es jetzt der 8800GTS an Speicher mangeln sollte fuer die Kategorie in die sie gehoert ist mir eigentlich auch fremd.

Eine G80-Karte gehört aktuell nach ganz oben, und da gibt's hohe Auflösungen mit AA/AF. Mit 640 MiB und ebenso 320-Bit-SI ist die GTS dort etwa auf dem Niveau einer Radeon X1950 XTX. Wenn ihr aber der Speicher ausgeht - was der Radeon so schnell nicht passiert - kann das schnell anders aussehen. Nun, dafür ist sie eben billiger. IMO sollte man sich aber davor hüten, einen High-End-Chip mit einer Speichermenge zu versorgen, die nicht ganz so high-endig ist. Also extremer 6800-128-MiB-Übertakter spreche ich da aus Erfahrung. ;) Es ist ist Verschwendung, die GPU verhungern zu lassen. Und da man die Belastung nicht einmal mehr durch SSAA mehr in Richtung GPU verlagern kann ... blöd.

MfG,
Raff

dargo
2007-01-11, 18:55:41
Wie dem auch sei...wo die Grenze sein soll? Das kannst Du ATI ab Maerz dann fragen :P

Das war auf beide Hersteller bezogen und nicht nur NV. :)


Jegliche heutige CPU ist ja auch eine absolute Banause was 3D betrifft im Vergleich zu einer high end GPU. Der Vergleich hat weder Haende noch Fuesse.
Für 3D wurde die CPU auch nicht gebaut. Auf der anderen Seite frage ich mich warum noch bei vielen Games die CPU so viele Aufgaben übernehmen muss die eigendlich von der GPU erledigt werden könnten? Schatten in GTR2 zum Bleistift.


Ich interessiere mich nicht für Packprogramme und 3DMark - Scores.
Oh Gott, wer spricht denn von Packprogrammen oder noch schlimmer 3DMark?
Schonmal was von 3D Studio Max oder Adobe Premiere Pro gehört?

Coda
2007-01-11, 19:36:55
Schau dir mal was anderes als nur Spiele an. Dass ein Qaudcore kaum was bringt liegt ganz alleine an den Spieleentwicklern.

Oder am guten alten Amdhal...

Ailuros
2007-01-11, 19:39:34
Eine G80-Karte gehört aktuell nach ganz oben, und da gibt's hohe Auflösungen mit AA/AF.

Aber nicht so hoch wie fuer die GTX. Man soll froh sein wenn zukuenftige Spiele mit AA/AF in 1600 auf der GTX noch spielbar sind und einer GTS dann eben in 1280.

Mit 640 MiB und ebenso 320-Bit-SI ist die GTS dort etwa auf dem Niveau einer Radeon X1950 XTX.

Momentan ja. Da Treiber-updates in der vorsehbaren Zukunft noch nachholen werden und der Abstand zu Gunsten der GTS in kommenden Spielen noch dazuwachsen wird, ist das Niveau sehr kurzsichtig eingeschaetzt.

http://www.anandtech.com/video/showdoc.aspx?i=2895&p=4

In 1600*1200 liegt der Unterschied momentan bei "nur" 58% zwischen den beiden.

Wenn ihr aber der Speicher ausgeht - was der Radeon so schnell nicht passiert - kann das schnell anders aussehen.
Nun, dafür ist sie eben billiger. IMO sollte man sich aber davor hüten, einen High-End-Chip mit einer Speichermenge zu versorgen, die nicht ganz so high-endig ist. Also extremer 6800-128-MiB-Übertakter spreche ich da aus Erfahrung. ;) Es ist ist Verschwendung, die GPU verhungern zu lassen. Und da man die Belastung nicht einmal mehr durch SSAA mehr in Richtung GPU verlagern kann ... blöd.

Die 6800nonU war eher eine "Performance" und keine High end GPU wie die 6800GT/Ultra. Man konnte zwar auf dem Ding eher selten 4xAA in >1280 Aufloesungen benutzen, aber 2xAA eben dann schon.

Wenn eine GTS Variante jetzt etwa $300 kosten soll und die GTX immer noch irgendwo unterhalb von $600 kostet, sollte man auch analog weniger erwarten.

LovesuckZ
2007-01-11, 19:48:36
Schonmal was von 3D Studio Max oder Adobe Premiere Pro gehört?

Dagegen stehen hunderte Anwendungen, welche von der 8800GTX beflügelt werden.

Raff
2007-01-11, 20:14:01
Wenn eine GTS Variante jetzt etwa $300 kosten soll und die GTX immer noch irgendwo unterhalb von $600 kostet, sollte man auch analog weniger erwarten.

Was anderes habe ich ja nie behauptet. :) Dennoch sehe ich es als Verschwendung an, eine derart potente GPU wie den G80 (bei dem - wie du auch sagst - noch Potenzial brachliegt) durch den VRAM zu limitieren. Da Nvidia offenbar beim AA mehr Speicher verbrät als Ati kann das fies werden. Wie gesagt, ich habe mich bei meiner 6800 @ ~GT-Rohleistung (425/460, 6 VS) oft geärgert, dass die GPU könnte, der RAM aber nicht. In Extremfällen wie CoD war 16 Bit (dito Texturen) fast doppelt (!) so schnell wie 32 Bit ... mit 4x AA. Dreimal dürft ihr raten, warum AGP-Overclocking da etwas brachte. :naughty:

MfG,
Raff

Ailuros
2007-01-11, 22:39:03
Was anderes habe ich ja nie behauptet. :) Dennoch sehe ich es als Verschwendung an, eine derart potente GPU wie den G80 (bei dem - wie du auch sagst - noch Potenzial brachliegt) durch den VRAM zu limitieren.

Nach der Logik duerfte es nur 400-600$ G80 GPUs geben.

Da Nvidia offenbar beim AA mehr Speicher verbrät als Ati kann das fies werden.

Wenn dieses auch fuer diese Generation zutreffen sollte, nicht unbedingt zum Grad dass es in jeglichem Fall die Spielbarkeit entscheiden wuerde. Uebrigens ganz nebenbei:

http://users.otenet.gr/~ailuros/MCwithAA.pdf

Ja ich weiss dass SS2 nicht allzu viel mit kommenden Spielen zu tun hat, aber 2048*1536 ist nicht gerade eine mickrige Aufloesung. Alles 4x Multisampling (auch 8x/16x coverage) bewegt sich hier noch im 320MB Bereich und das bei einem Spiel dass bis zu 8-layer MT benutzt.

Wie gesagt, ich habe mich bei meiner 6800 @ ~GT-Rohleistung (425/460, 6 VS) oft geärgert, dass die GPU könnte, der RAM aber nicht. In Extremfällen wie CoD war 16 Bit (dito Texturen) fast doppelt (!) so schnell wie 32 Bit ... mit 4x AA. Dreimal dürft ihr raten, warum AGP-Overclocking da etwas brachte. :naughty:

Dank Unwinder konnte man damals die Einheiten freisetzen; wobei diese aber nicht immer garantiert fehlerfrei waren und Du kannst auch nicht damit punkten. Offiziell war die nonU ein 3 quad Produkt und es gibt guten Grund warum man ab G7x dann die Einheiten nicht mehr freischalten konnte.

dargo
2007-01-11, 23:28:10
@Ailuros
Gut, dass du das verlinkst. Ich bin ebenfalls der Meinung, dass eine G8800GTS mit 320MB ihre Darseinsberechtigung in für sie "vorgesehenen" BQ hat.
Und SS2 hat sogar sehr schöne Texturen.

Was mich aber etwas wundert ist der Preis. Sind 10x 32MB Chips wirklich so viel günstiger wie 10x 64MB Chips? Oder deutet das eventuell auf eine baldige Preissenkung der G8800GTS 640MB zb. auf 350$ 399$ hin?

Ailuros
2007-01-11, 23:56:07
320MB Speicher duerften locker fuer $100 Unterschied gelten.

AnarchX
2007-01-11, 23:59:52
320MB Speicher duerften locker fuer $100 Unterschied gelten.

Also wohl eher noch mehr? ;)
Da dürfte die 8800GTS 320MB wohl auf sehr interessante Preis schnell fallen können.

Aber wie schon oben erwähnt, habe ich den Verdacht, dass die Karte vielleicht sogar mit dem FW100 gelauncht werden könnte.
Oder hebt man sich den doch noch für den R600-Launch auf?

robbitop
2007-01-12, 10:08:12
Das war auch mehr ein theoretischen Beispiel. Es sollte klar sein, auf was ich hinaus wollte
Ist es nicht. Worauf willst du hinaus?

reunion
2007-01-12, 10:33:50
Da du auf die Wirtschaftlichkeit angespielt hast, wollte ich damit zeigen, dass ein hoher Takt plus fortschrittlicher Fertigungsprozess mit kleinerem Die auf längere Sicht witschaftlicher sein kann als moderate Taktraten mit größerem Die.

robbitop
2007-01-12, 10:42:56
Da du auf die Wirtschaftlichkeit angespielt hast, wollte ich damit zeigen, dass ein hoher Takt plus fortschrittlicher Fertigungsprozess mit kleinerem Die auf längere Sicht witschaftlicher sein kann als moderate Taktraten mit größerem Die.
Das hast du aber bisher nicht erfolgreich gezeigt. ;)
80nm war zum G80 Launch, wie R600 zeigt, wohl noch nicht reif für so einen Brocken (für vernünftige Yields). Also geht NV lieber konservativ ran und geht auf Nummer sicher. Das war einer der Schlüssel für den Erfolg in den letzten Jahren. Dann gibt's einen Shrink, wenn die richtige Zeit gekommen ist (G71, G81).

Ich bin kein Mitarbeiter bei TSMC und kann es daher schwer belegen. Aber ich denke wirtschaftlich hatten die Entscheidungen bei NV in letzter Zeit absolut Hand und Fuß. Gerade bei der Produktion.

AnarchX
2007-01-12, 11:56:54
[No GeForce Go 8800 Series For Notebooks]
http://img353.imageshack.us/img353/6742/g81mjf0.jpg
Those who are waiting for GeForce Go 8800 series to appear on notebooks are in for disappointment since there are no plans for that. Apparently, 90nm G80 proves too much for a notebook to handle. [...]
http://vr-zone.com/index.php?i=4477

Hauwech
2007-01-12, 12:20:49
Zumindest was die Top Chips angeht, hat Nvidia doch eigentlich nach dem NV30 immer auf recht konservative Prozesse gesetzt. Damit sind sie bis jetzt eigentlich auch gut gefahren.

@AnarchX Naja, wenn ich dem Link folge, sollen zumindest bis Q3 keine G80 Chips für Notebooks kommen.

Those who are waiting for GeForce Go 8800 series to appear on notebooks are in for disappointment since there are no plans for that. Apparently, 90nm G80 proves too much for a notebook to handle. Therefore only mainstream G84 and value G86 will be available for notebooks, targeted for release in early Q2. Consumers will have to wait till Q3 this year to enjoy high end GeForce 8 series graphics on their notebooks when the die shrink happens.

Bleibt noch die Frage, wenn schon keine G80 Chips für Notebooks kommen und der R600 tatsächlich mehr Strom zieht als G80, werden wir auch keine dicken Chips von ATI in Notebooks sehen. Würde also folgern, nicht allzu schlimm für Nvidia. Ist aber nur meine Meinung.

Gast
2007-01-12, 12:25:19
Meiner Meinung nach völlig überteuert...

Der Witz ist: Die verkaufen eine Karte mit dem selben Namen um den Anschein zu erwecken, das die Leistung genauso gut ist, aber im Endeffekt wird die Karte gnadenlos abkacken, weil der VRAM für eine Karte dieser Leistungsfähigkeit viel zu klein ist. Schon bei üblichen Auflösungen von 1280x1024 und 1600x1200 mit viel AA wird er limitieren.

Ich werde mit freude die Leute sehen, die sich diese Karte kaufen und nach Monaten feststellen, das sie nicht zu gebrauchen ist, weil sie in aktuellen Games kein Land mehr sind.

Würde mich nicht wundern, wenn dann die alte Generation mit 512 MB sie überholt ...

Außerdem hat eine Karte dieser Preisklasse auf jeden Fall 512 MB verdient... schon die 7950 für 230 € oder die 7900 GS für 177 € ist damit ausgestattet. Warum wird gerade an einer teureren Karte daran gespart?

Was kommt demnächst? Intels Core 2 Quad 4 GHz mit 128 KB Cache? ;D


unsinn bei den 7900ern haben die 512 ggü den 256ern auch nicht DEN riesenvorteil

Ailuros
2007-01-12, 16:14:13
[No GeForce Go 8800 Series For Notebooks]

http://vr-zone.com/index.php?i=4477

Zuerst wird es nur low-end bzw. mainstream GPUs fuer Schlepptopps von beiden IHVs geben. Ausser ich hab was verpasst hat ATI den M71 schon fertig (low-end), von mainstream hab ich noch keine Ahnung. NV scheint sowohl eine mainstream als auch eine budget Variante zu haben.

Fuer high end G8x/R6x0 wuerde jegliches ueber 65nm IMHLO nicht viel Sinn machen; ausser man will auch eine Batterie auf dem Buckel fuer's laptop mitschleppen pfff....

Ailuros
2007-01-12, 16:28:34
Das hast du aber bisher nicht erfolgreich gezeigt. ;)
80nm war zum G80 Launch, wie R600 zeigt, wohl noch nicht reif für so einen Brocken (für vernünftige Yields). Also geht NV lieber konservativ ran und geht auf Nummer sicher. Das war einer der Schlüssel für den Erfolg in den letzten Jahren. Dann gibt's einen Shrink, wenn die richtige Zeit gekommen ist (G71, G81).

Ich bin kein Mitarbeiter bei TSMC und kann es daher schwer belegen. Aber ich denke wirtschaftlich hatten die Entscheidungen bei NV in letzter Zeit absolut Hand und Fuß. Gerade bei der Produktion.


Mit so viel "Handarbeit" im G80 seit letztem Jahr um den Stromverbrauch zu reduzieren, bin ich mir gar nicht so sicher dass 80nm ueberhaupt notwendig gewesen waere. Das Risiko um auf 80nm vor einem Jahr umzusteigen waere relativ klein gewesen und Zeit hatte man auch genug.

Die NV Strategie seit NV30 heisst zwar "minimize risks/maximize margins" aber im gegebenen Fall tippe ich eher auf den zweiten Anteil der Strategie. Mit R&D Unkosten nur so rumschmeissen ist auch nicht optimal und NV ist in den letzten Jahren in vielen Aspekten verdammt "geizig" geworden. Frueher floss das Geld in groesseren Mengen raus ;)

Gast
2007-01-12, 17:23:05
Mal ne hypothetische Frage:

Derzeit sind X1950 Pro-Karten von ATI recht preiswert, für 170 € bekommt man reichlich Frames.

Nehmen wir einmal an die Mainstream-Karten von Nvidia, ob sie nun G84 oder G86 heißen, haben wie bisherige Mainstream-Karten die Hälfte der "Recheneinheiten" einer Enthusiast-Lösung (GeForce 8800 GTX) und kosten vielleicht 200-250€ zur Markteinführung.

Mit welcher Karte bekomme ich dann unter DirectX 9.0c-Bedingungen mehr Frames pro €?

Mich würde es ziemlich nerven, wenn ich auf die GeForce 8600 GT warten würde, die dann aber gegen eine X1950 Pro-Karte im Preis-Leistungs-Verhältnis untergeht...

Vielen Dank im Voraus!

deekey777
2007-01-12, 18:58:59
NVIDIA's GeForce 8600, 8500 and 680SE (http://www.anandtech.com/displays/showdoc.aspx?i=2904&p=15)
NVIDIA has two G80 derivatives designed to target the more mainstream segments: G84 and G86. G84 will be the base of NVIDIA’s GeForce 8600 while G86 will be used in what is currently known as the GeForce 8500(?). Detailed specifications aren’t known other than the chips are supposed to be 80nm, but expected launch date is around April or May.

Also on the roster is a 320MB GeForce 8800 GTS card, which is expected to be priced at $299. Currently clock speeds and shader configuration are expected to be no different than the $449 640MB version, the card will only have less memory. Honestly, we expect 320MB to be more than enough for most games/resolutions, which may make the 320MB card extremely attractive. Couple it with a Core 2 Duo E4300 and you’ve got one fast and affordable system
Kein Launch zur CeBIT.

Ailuros
2007-01-12, 19:06:36
Neue und zukuenftige Spiele werden total andere Standards fuer Preis/Leistungsverhaeltnisse legen.

Schaffen es jetzt beide IHVs dass ihre R6x0/G8x0 mainstream GPUs da in etwa halb so schnell sind, dann liegen sie schon mehr oder weniger auf RV570 Niveau. Beide werden dann eben mit D3D10 vermarkten.

Nichts Neues eigentlich; es widerholt sich lediglich die gleiche Geschichte.

AnarchX
2007-01-12, 19:40:19
NVIDIA's GeForce 8600, 8500 and 680SE (http://www.anandtech.com/displays/showdoc.aspx?i=2904&p=15)

Kein Launch zur CeBIT.

Könnte das bedeuten, dass man hier vielleicht doch schon auf 65nm setzt?
Immerhin gab es ja mal Gerüchte das nV schon etwas mit 65nm in der Produktion haben soll.

Coda
2007-01-12, 19:52:12
Chipsatz evtl.?

AnarchX
2007-01-12, 19:56:29
Chipsatz evtl.?
Hab jetzt nochmal danach gegooglet und die Meldungen aus dem Oktober 2006 sprechen von GPUs bei TSMC, die bei diesen testgefertigt werden(z.B. (http://www.xbitlabs.com/news/video/display/20061026014448.html)).
edit:
Wobei Beyond3D etwas von einem G72 in 65nm (http://www.beyond3d.com/) schreibt, auf welchen sich dies wohl beziehen könnte.

Sunrise
2007-01-12, 23:33:15
...wenn da nicht ein Steinzeitprozess verwendet wurde.
Wird aktuell produziert bei TSMC auf deren 110nm (Value-)Node in Fab14 (12" Wafer).

Gast
2007-01-13, 07:50:18
unsinn bei den 7900ern haben die 512 ggü den 256ern auch nicht DEN riesenvorteil

Dann informiere dich besser mal. Bei den Games der neuen Generation liegen die Unterschiede locker mal bei >50 %.

AnarchX
2007-01-13, 10:41:10
http://img179.imageshack.us/img179/5700/g84g86mp1am4.jpg
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_2.htm
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_3.htm

Ultra? So wenig Transistoren? So niedrige GPU-Taktraten?
Wird wohl doch an einigen Stellen mit Phantasie ergänzt wurden sein.

Ailuros
2007-01-13, 10:55:43
http://img179.imageshack.us/img179/5700/g84g86mp1am4.jpg
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_2.htm
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_3.htm

Ultra? So wenig Transistoren? So niedrige GPU-Taktraten?
Wird wohl doch an einigen Stellen mit Phantasie ergänzt wurden sein.

Die Transistoren-Anzahl macht mir Sinn, es sind ja nur 4 clusters fuer die angebliche Ultra. Interessanter ist die GT; falls das Zeug stimmen sollte, dann hat das Ding 4 clusters/1 deaktiviert, aber mit allen 4 ROP partitions aktiv.

AnarchX
2007-01-13, 10:59:55
Die Transistoren-Anzahl macht mir Sinn, es sind ja nur 4 clusters fuer die angebliche Ultra.

Aber der 8 cluster G80 hat doch 680Mio Transistoren und NVIO wird man doch bei G84/G86 wieder integrieren aus Kostengründen oder?
Ich hätte bei G84 eher etwas zwischen 350-400Mio geschätzt.

Ailuros
2007-01-13, 11:02:46
Dann informiere dich besser mal. Bei den Games der neuen Generation liegen die Unterschiede locker mal bei >50 %.

Zwischen einer G71 einmal mit 256 und einmal mit 512MB im Vergleich? Die 512MB Variante hat es zwar leichter aber sie muss anscheinend auch vom System Speicher schaufeln wenn mich jetzt Company of Heroes nicht total an der Nase herumfuehrt. In 1280*1024 (mit allem auf dem absoluten Maximum) frisst das Ding 603MB vom GPU und 9MB vom System-Speicher.

Settings zuruecksetzen die am meisten Speicher fressen und die IQ nicht zu stark beinflussen. Das heisst aber nicht dass eine 8800GTX nur alleine dank ihrem 768MB Speicher fast bis zu 3x mal so schnell ist in dem Spiel wie eine 512MB G71 ;)

Ailuros
2007-01-13, 11:09:25
Aber der 8 cluster G80 hat doch 680Mio Transistoren und NVIO wird man doch bei G84/G86 wieder integrieren aus Kostengründen oder?
Ich hätte bei G84 eher etwas zwischen 350-400Mio geschätzt.

IMHO muesste NVIO getrennt bleiben aus dem gleichen Grund wie auf G80. Die genau Haelfte fuer 4 clusters waere 340M, wobei ich aber eine SP Frequenz von ca. 1GHz erwarte und nicht mehr. Da die Dinger auf 80nm sein werden, wuerde mich ein leichtes "umschaufeln" der Einheiten nicht wundern um Transistoren und noch mehr Strom zu sparen.

G71 war bei 278M, G73 aber bei relativ viel 177M; im ersten Fall wurden die PS/VS Einheiten umgeschaufelt (von 302M/G70), im zweiten Fall eben nicht.

reunion
2007-01-13, 12:23:00
IMHO muesste NVIO getrennt bleiben aus dem gleichen Grund wie auf G80. Die genau Haelfte fuer 4 clusters waere 340M, wobei ich aber eine SP Frequenz von ca. 1GHz erwarte und nicht mehr. Da die Dinger auf 80nm sein werden, wuerde mich ein leichtes "umschaufeln" der Einheiten nicht wundern um Transistoren und noch mehr Strom zu sparen.

G71 war bei 278M, G73 aber bei relativ viel 177M; im ersten Fall wurden die PS/VS Einheiten umgeschaufelt (von 302M/G70), im zweiten Fall eben nicht.

Du kannst nicht einfach die Transistorenanzahl halbieren, da viele Dinge auch im Low- oder Midragechip unverändert beibehalten werden müssen, und man nicht alles halbieren kann. Die Vergangenheit hat gezeigt, dass ein in punkto Funktionseinheiten halbierter Midragechip gut 2/3 der Transistoren der High-End-Chips hat.

G71 278M
G73 178M

NV40 222M
NV43 146M

NV35 130M
NV36 82M

Das könnte man auch mit ATi-Chips beliebig fortsetzten.

->
G80 681M
G83 ~450M

300mio sind IMHO viel zu wenig.

robbitop
2007-01-13, 12:29:45
Die Designs werden immer besser skalierbar. Allerdings klingen mir 300 Mio für die Hälfte der Funktionseinheiten zu wenig.

Gast
2007-01-13, 12:32:33
imho auch recht ernüchternd
bei den taktraten würde die ultra kaum schneller als nbe 7900gtx sein

und die gt würd ja komplett den bach runter gehen mit 350mhz und nen cluster weniger

interessant könnte die 8300gt für den lowcost markt werden, endlich ist man wohl komplett von den 64bit weg(wobei da bestimmt noch was anchkommt)

aber bei der gs irritieren micih die 24sp
kann man von einem cluster auch nur ne hälfte deaktivieren?

reunion
2007-01-13, 12:39:39
imho auch recht ernüchternd
bei den taktraten würde die ultra kaum schneller als nbe 7900gtx sein


Vielleicht nicht in älteren Spielen, aber in neueren dürfte selbst ein halbierter G80 die altbackene Architekur des G71 vernichten. In Gothic 3 wird eine 7900GTX/512 bereits von einer X1800GTO mit drei R520-Quads geschlagen, in Anno 1701 und NFS:Carbon siehts nicht wirklich besser aus.

AnarchX
2007-01-13, 12:52:42
Die Designs werden immer besser skalierbar. Allerdings klingen mir 300 Mio für die Hälfte der Funktionseinheiten zu wenig.

Dadurch das der IO teil wohl weiterhin ausgelagert werden muss, sollte bei der G80-Architektur die Transistoren sehr exakt mit den Einheiten skalieren.

Aber 300Mio sind auch aus meiner Sicht, wohl nur möglich wenn man hier noch Funktionen weglässt bzw. die Einheiten beschneidet.

Persönlich halte ich von den Infos von Beareyes bis auf SI und Einheitenanzahl nicht wirklich viel.

dargo
2007-01-13, 13:03:44
imho auch recht ernüchternd
bei den taktraten würde die ultra kaum schneller als nbe 7900gtx sein

Ist das nicht genug für 140-160€? :|
Wobei die 179$ sich wohl eher auf die 256MB Version beziehen oder etwa 512MB?

Black-Scorpion
2007-01-13, 13:19:55
Wie man von 179,- $ netto auf 140,- - 160,- Euro brutto kommt muss man mir mal verraten.
Die Rechnerei wird sich wohl nie ändern.

dargo
2007-01-13, 13:29:39
Wie man von 179,- $ netto auf 140,- - 160,- Euro brutto kommt muss man mir mal verraten.
Die Rechnerei wird sich wohl nie ändern.
Ganz einfach. € zu $ = 1*~1.3

G8800GTS 449$ = Strassenpreis von 369€ (und hier erwarte ich in 2-3 Wochen sogar 350€).
G8600 Ultra 179$ = Strassenpreis von ~150€ (Umrechnungsfaktor ca. 1,22)

PS: wer direkt beim Launch kauft ist selber schuld.

Gast
2007-01-13, 13:41:19
Die Karte ist nicht uninteressant.
Für hohe Auflösungen nur bedingt geeignet, da dort innerhalb eines Jahres oder so, der VRAM doch Probleme bereiten wird.

Für mittlere Auflösungen alá 19" TFT ist sie jedoch recht brauchbar. Der Chip sollte auch für 2007 kommende Titel noch ausreichend Power für diese Auflösungen haben.

In der Zukunft wird sie sich dann der GTS 640 immer mehr annähern, weil die große, dann eben für die speichertechnisch noch nutzbaren hohen auflösungen aufgrund fehlender Chip power nicht mehr so eignet.

Und für den Preis derzeit meiner meinung nach zukunftsträchtiger als ne X1950XTX, da meiner ansicht die fehlende Chip power der X1950XTX bald eher limitieren wird ind mittleren Auflösungen als die Speicherbandbreite der GTS 320

Gast
2007-01-13, 16:22:20
Ist das nicht genug für 140-160€? :|
Wobei die 179$ sich wohl eher auf die 256MB Version beziehen oder etwa 512MB?
naja die vorgänger
6600gt>5950U
7600gt>6800U

7900gt<8600U<7900gtx

wäre ja noch ok aber die gt macht mir echt sorgen
dürfte nicht schneller sein als 7900gs
es sei denn nur die 350mhz haben keine auswirkungen auf die shader, so dass die auch >1000 laufen und nicht irgendwo bei 700 rumkrebsen

Coda
2007-01-13, 16:49:28
Vielleicht nicht in älteren Spielen, aber in neueren dürfte selbst ein halbierter G80 die altbackene Architekur des G71 vernichten.

Altbacken ist was anderes. Es ist einfach Logiksparsam ;)

dargo
2007-01-13, 18:24:00
320MB Speicher duerften locker fuer $100 Unterschied gelten.
Da fällt mir gerade ein, die G8800GTS 640MB hat doch eine UVP von 449$. Also sind es schon 150$ Unterschied.
Bissel viel imho. :|

seahawk
2007-01-13, 19:11:50
Sie hat heute ne UVP von 449$.

dargo
2007-01-13, 19:48:24
Sie hat heute ne UVP von 449$.
Ja ich weiß. Deswegen frage ich mich ob NV die UVP für die G8800GTS 640MB eventuell mit dem Erscheinen der G8800GTS 320MB auf 399$ korrigiert.
Die 150$ Unterschied erscheinen mir nämlich etwas zu viel.