PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008?


Seiten : [1] 2 3 4 5

w0mbat
2008-01-09, 14:21:41
Next gen Nvidia is GT200 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5031&Itemid=1)


CES 2008: A new name for G100

The first time we heard about a product from Nvidia called G100 was almost a year ago. This should be one of the codenames for the next generation Nvidia card, but it might not be the only one.

D8E is Geforce 9800GX2, and that is already a done deal, but after that comes a new high-end card. We know that this product is expected in the middle of this year and that Nvidia is working on it. The new codename is GT200 and we know that Dan Vivoli likes GT stuff, so we wouldn't be surprised that he came up with the name.

We can also tell you that this is one big chip, but no real surprises there.

GeneralHanno
2008-01-09, 15:13:51
Passt zwar nicht 100% hier rein, aber:

Keine 45nm Grafikkarten in 2008 ! (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5033&Itemid=1)

laser114
2008-01-09, 15:33:14
Hmm, hat Nvidia seit neustem eine Abteilung für die Verteilung von Codenamen?
Sieht irgendwie so aus, als hätten die nichts zu tun. :ucrazy2:

Gast
2008-01-09, 15:39:47
Passt zwar nicht 100% hier rein, aber:

Keine 45nm Grafikkarten in 2008 ! (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5033&Itemid=1)
Kann man also damit rechnen, dass dieser Chip erst im Jahr 2009, vielleicht Anfang März kommt, sprich noch über ein Jahr bis dahin?

Snoopy1978
2008-01-09, 15:45:54
Kann man also damit rechnen, dass dieser Chip erst im Jahr 2009, vielleicht Anfang März kommt, sprich noch über ein Jahr bis dahin?

Na wenn er in 45nm gefertigt wird, dann wohl erst 2009(falls Nvidia es nicht wieder anders plant).Aber die grünen Jungs waren eigentlich immer vorsichtig was neue verkleinerte Prozesse betrifft,also könnte der GT200 im 65nm oder im 55nm erscheinen und das noch dieses Jahr.:wink:

nomadhunter
2008-01-09, 15:53:37
65nm dürften es ziemlich sicher nicht sein. Dazu hat sich Ailuros auch schon geäußert, außerdem braucht man bei der zu erwartenden Transistorzahl von knapp 2 Milliarden unbedingt einen möglichst kleinen Fertigungsprozess, sonst wird das Ganze unbezahlbar. 45nm dürften es dagegen auch eher nicht sein, da der Prozess im Q3 noch viel zu neu für einen riesigen High-End-Chip ist und NVIDIA kaum bis 2009 warten wird. Dazu ist der G92, der wohl bis zum "GT200" hinhalten muss, einfach nicht gut genug.

GeneralHanno
2008-01-09, 16:38:57
Ich fasse mal aus demletzen Thread zusammen, was dort besprochen wurde:

- Launchtermin H2/08 (eher Q3)
- Fertigung in 55nm
- Neues Design (kein Refresh wie die G9x), aber an die G80 Architektur angelehnt ("no real surprises")
-> DX10.1 (definitiv kein DX11)
- Großer Singelchip (keine GX2-Karte)
-> die-size größer als G80, also über 500mm² denkbar
-> hoher Verbrauch
-> mind. doppelt so viele Transistoren wie der G80 (2*680M = über 1,4 Mrd Transistoren)
- Leistungssteigerung um den Faktor ~3 zum G80
- Vermutlich GDDR5 (falls verfügbar) oder GDDR3 Speicher, kein GDDR4
- Eventuell neuer Marketingname (GF10800GTX unwahrscheinlich)

Gast
2008-01-09, 16:46:27
Ich meine irgendwo gelesen zu haben das Ailuros sagte es wäre kein G100 Chip sondern gleich der G200 ohne DX11 weil DX11 sich verspätet...

GeneralHanno
2008-01-09, 16:51:01
DX11 kommt frühestens 2009. Daher benötigen ATi und Nvidia einen "zwischenschieber" der noch auf DX10(.1?) setzt.

Gast
2008-01-09, 16:51:17
Namen sind Schall und Rauch ..

nomadhunter
2008-01-09, 16:56:00
Ursprünglich sollte G100 der DX11-Chip sein, da Vienna/DX11 aber noch einige Zeit auf sich warten lässt, macht ein solcher Chip vor Ende 2009 nicht viel Sinn. Ob das, was hier im Thread als GT200 bezeichnet wird und im H2/08 released werden soll, ein anderer Name für das ist, was ursprünglich als G100 geplant war (dann hätte NV aber die DX11-Unterstützung gestrichen), oder gar nichts damit zu tun hat (Davon gehe ich eher aus, zuerst war ja der Name G200 im Gespräch, GT200 ist das gleiche mit einem T dazu. G100 wäre im dem Fall weiterhin der DX11-Chip für Ende 09.) ist aber eigentlich egal.

Namen sind Schall und Rauch ..
Oder so.

GeneralHanno
2008-01-09, 17:47:59
DX11 kommt 2009:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5036&Itemid=1

GT200 hat über 1Mrd transistoren:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5053&Itemid=57

Nvdia plant 55nm:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5054&Itemid=1

Ailuros
2008-01-10, 05:47:28
Hmm, hat Nvidia seit neustem eine Abteilung für die Verteilung von Codenamen?
Sieht irgendwie so aus, als hätten die nichts zu tun. :ucrazy2:

Ich hab seit einer Ewigkeit "G200" in der roadmap vor G100 erwaehnt. Ist jetzt noch ein "T" dazugekommen ist es wohl halb so schlimm.

Ailuros
2008-01-10, 05:55:10
DX11 kommt 2009:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5036&Itemid=1

GT200 hat über 1Mrd transistoren:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5053&Itemid=57

Nvdia plant 55nm:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5054&Itemid=1

Ob M$ jetzt aufs Gaspedal getreten hat und doch Vienna frueher vorstellt weiss ich nicht; das letzte Mal dass ich darueber hoerte hiess es von M$ selber dass es schwer sein wird es in 2009 noch zu schaffen. Ich schliesse zwar nicht aus dass sich wieder etwas geaendert hat, aber eine fruehe Veroeffentlichung heisst nichts gutes weder fuer das OS noch fuer die API.

Dass es sich nicht um 65 bzw. 45nm handelt hab ich schon angedeutet; bleibt ja wirklich nicht viel uebrig fuer die Antwort.

Was der Krampf mit den 1Milliarde Transistoren soll weiss wohl nur Fudo; wenn man 3x mal so hohe Leistung wie G80 anziehlt braucht man etwas mehr als nur laecherliche 25% mehr Transistoren als G92; dafuer haetten sie auch auf 65nm bleiben koennen.

Ailuros
2008-01-10, 06:01:58
Ursprünglich sollte G100 der DX11-Chip sein, da Vienna/DX11 aber noch einige Zeit auf sich warten lässt, macht ein solcher Chip vor Ende 2009 nicht viel Sinn. Ob das, was hier im Thread als GT200 bezeichnet wird und im H2/08 released werden soll, ein anderer Name für das ist, was ursprünglich als G100 geplant war (dann hätte NV aber die DX11-Unterstützung gestrichen), oder gar nichts damit zu tun hat (Davon gehe ich eher aus, zuerst war ja der Name G200 im Gespräch, GT200 ist das gleiche mit einem T dazu. G100 wäre im dem Fall weiterhin der DX11-Chip für Ende 09.) ist aber eigentlich egal.

Wenn Du die Datenbank durchsuchst, findest Du fast ein Jahr alte Andeutungen ueber die alte roadmap.

Nochmal die alte roadmap hatte folgendes nach G80:

G90 = refresh auf 65nm; man machte daraus G92
G200 = D3D10.1; daraus wurde GT200
G100 = D3D11

kurz: G100 war nie fuer H2 2008 geplant; Fudo blubberte nur aus seinem Hintern als er den G100 Codenamen erwaehnte und es wurde von anderen Deppen einfach so weitergetragen.

James Ryan
2008-01-10, 06:46:01
Dumme Frage, aber warum zum Teufel soll das Ding "GT200" als Codenamen haben?
Hat NVIDIA nicht erst vor kurzem das Namensschema komplett überarbeitet?
Sprich, der GT200 ist eigentlich G10E?

MfG :cool:

Ailuros
2008-01-10, 07:35:31
Dumme Frage, aber warum zum Teufel soll das Ding "GT200" als Codenamen haben?
Hat NVIDIA nicht erst vor kurzem das Namensschema komplett überarbeitet?
Sprich, der GT200 ist eigentlich G10E?

MfG :cool:

Liest hier irgend jemand die vorigen Beitraege oder was? Siehe oben und die Zahl "200" war seit einer Ewigkeit vorgesehen fuer D3D10.1 und fuer 11 dann eben "100".

HOT
2008-01-10, 10:37:43
D3D11 ist nicht gleichbedeutend mit Vienna. Das soll es auch für Vista als Update geben. Vista war ein Neuanfang, aber eben nicht mehr. Das passiert ja jetzt nicht bei jeder neuen Windows Version. Ist auch nicht nötig. Vista hat nur viele alte Zöpfe abgeschnitten und entsorgt, das war ja der Hauptgrund für die Inkompatibilität. Von daher ist Ende 2008 nicht unbedingt unwahrscheinlich. Dass der GT200 nicht D3D11 sondern D3D10.1 wird, sollte dennoch ziemlich "sicher" sein.

Ailuros
2008-01-10, 11:07:23
D3D11 ist nicht gleichbedeutend mit Vienna. Das soll es auch für Vista als Update geben. Vista war ein Neuanfang, aber eben nicht mehr.

In welchem Stadium seiner Entwicklung befindet sich denn D3D11 Deiner Meinung nach?

Dass der GT200 nicht D3D11 sondern D3D10.1 wird, sollte dennoch ziemlich "sicher" sein.

NVIDIA wuerde nicht eine so grosse Unmenge an Resourcen fuer einen Design verschwenden der nur so kurzzeitig nach Deiner These von einer D3D11 GPU abgeloest werden wuerde. Dass NV mit einer komplianten GPU spaeter antanzt als ein brandneues API kann ich mir aeusserst schwer vorstellen.

Bleiben wir erstmal dabei dass selbst 10.1 immer noch nicht verfuegbar ist.

HOT
2008-01-10, 11:13:44
In welchem Stadium seiner Entwicklung befindet sich denn D3D11 Deiner Meinung nach?

Keine Ahnung. Aber unwahrscheinlich ist es dennoch nicht unbedingt.

NVIDIA wuerde nicht eine so grosse Unmenge an Resourcen fuer einen Design verschwenden der nur so kurzzeitig nach Deiner These von einer D3D11 GPU abgeloest werden wuerde. Dass NV mit einer komplianten GPU spaeter antanzt als ein brandneues API kann ich mir aeusserst schwer vorstellen.

Bleiben wir erstmal dabei dass selbst 10.1 immer noch nicht verfuegbar ist.
Wir werden sehen ;). NV unterstützt jetzt ja auch kein D3D10.1. Und wenn das Teil schon August/September verfügbar sein soll (der GT200), dann ist ja immernoch recht weit vor D3D11 (Dezember oder 2009). Es kommt wohl darauf an, mit wem M$ die Vorgaben hauptsächlich macht. Wenn das hauptsächlich AMD ist z.Z. (so wie schon bei VS8), wird D3D11 wohl dem Featureset des R700 entsprechen. Die Frage ist nur, was NV macht und plant, das kann man schwer abschätzen. Genausowenig kann man die Einflüsse der IHVs auf D3D11 abschätzen.
Der Prozessormarkt ist z.Z. deutlich leichter zu durchschauen als der Grafikchipmarkt.

Ailuros
2008-01-10, 11:31:24
Keine Ahnung. Aber unwahrscheinlich ist es dennoch nicht unbedingt.

Eine durchaus ueberzeugende Antwort.

Wir werden sehen ;). NV unterstützt jetzt ja auch kein D3D10.1.

Es gibt zwar keine wahre Entschuldigungen fuer den fehlenden 10.1 support bis jetzt, aber so verdammt wichtig sind die paar Aenderungen in einer API revision nun auch wieder nicht.

Und wenn das Teil schon August/September verfügbar sein soll (der GT200), dann ist ja immernoch recht weit vor D3D11 (Dezember oder 2009).

GT200 ist momentan fuer Q3 projeziert; falls etwas schief laufen sollte was NV auch bewusst ist wenn sie eine roadmap entwickeln koennte es auch ins 4. Quartal rutschen. Man spricht von einer Leistungssteigerung von ca. 3x Mal im Vergleich zur 8800GTX und das mit einem gigantischem core.

So und jetzt erzaehl mir mal wie sie einen nochmals gesunden Leistungs-sprung nur Monate spaeter landen sollten, unter welchem Herstellungsprozess und wieso man ausgerechnet einem oeden API refresh wie 10.1 gerade so viel Leistung reserviert haben sollte und diese nicht gleich fuer 11 bzw. ein volles neues API aufgehoben hat.

Es handelt sich hier um eine logische Kette diverser Faktoren die unmittelbar miteinander verbunden sind. NV wuerde auf jeden Fall keine D3D11 GPU veroeffentlichen die nur marginal schneller ist als das GT200 Dingsbums.

Bleibt natuerlich nur noch dass GT200 am Ende doch D3D11 kompliant ist und wir alle an der Nase herumgefuehrt wurden.

Es kommt wohl darauf an, mit wem M$ die Vorgaben macht. Wenn das hauptsächlich AMD ist z.Z. (so wie schon bei VS8), wird D3D11 wohl dem Featureset des R700 entsprechen. Die Frage ist nur, was NV macht und plant, das kann man schwer abschätzen.

Vom R800 zu sprechen ist es noch viel zu frueh und nein mit dem codenamen hab ich mich nicht vertippt.

HOT
2008-01-10, 13:22:02
Ich will garnicht überzeugen, nur ein wenig Brainstorming betreiben ;). Denn auf solche Infos kann man sich einfach nicht immer verlassen, das haben wir schon früher gesehen. Ich bin nur an der wahrscheinlichsten Variante interessiert. Es tun sich jetzt 2 Optionen auf:

1.) Hm, wenn D3D11 tatschlich Ende 2008/Anfang2009 kommen soll, ist es dann wohl eher so, dass sowohl R700 als auch GT200 D3D11 unterstützen werden und meine erste Aussage ist einfach daneben. Wär auch irgendwie unlogisch, wenn ein so grosser neuer Chip ohne erweitertes Featureset erscheinen würde.
2.) War die D3D11 News eine Ente, werden beide Chips wohl nicht D3D11 beherrschen.

Wobei ich die 1. Variante für wahrscheinlicher halte. Es hängt alles davon ab, wann und wie M$ D3D11 wirklich plant. Auffällig ist, dass die D3D11 und GT200 Spekus mit der einen Milliarde Transen (:D) gleichzeitig durchs Netz geistern.

Ailuros
2008-01-10, 14:01:50
Ich will garnicht überzeugen, nur ein wenig Brainstorming betreiben ;). Denn auf solche Infos kann man sich einfach nicht immer verlassen, das haben wir schon früher gesehen. Ich bin nur an der wahrscheinlichsten Variante interessiert. Es tun sich jetzt 2 Optionen auf:

Ich bin bis jetzt ueber die Glaubwuerdigkeit der Mehrzahl der Infos die ich zugeschossen bekam durchaus zufrieden.

1.) Hm, wenn D3D11 tatschlich Ende 2008/Anfang2009 kommen soll, ist es dann wohl eher so, dass sowohl R700 als auch GT200 D3D11 unterstützen werden und meine erste Aussage ist einfach daneben. Wär auch irgendwie unlogisch, wenn ein so grosser neuer Chip ohne erweitertes Featureset erscheinen würde.
2.) War die D3D11 News eine Ente, werden beide Chips wohl nicht D3D11 beherrschen.

Wobei ich die 1. Variante für wahrscheinlicher halte. Es hängt alles davon ab, wann und wie M$ D3D11 wirklich plant. Auffällig ist, dass die D3D11 und GT200 Spekus mit der einen Milliarde Transen (:D) gleichzeitig durchs Netz geistern.

Komischerweise geistern die Angaben ueber die Moeglichkeit von 55nm und einem Monster-chip ueber's Netz in letzter Zeit seit ich es erwaehnt habe. Erstens sind es viel mehr als "nur" 1 Milliarde Transistoren sonst waere es der bloedeste chip ueberhaupt bei der massiven die-Groesse und zweitens wissen Fudo, Cudo und die gesamte hirnlose Bande die von diesen abschreiben selten wo es langgeht. Ich meckere schon seit einiger Zeit dass Fudo den "G100" Codenamen nur aus seinem Hintern gezogen hat. Und ich gebe momentan auch nichts weiteres ab, weil ich keine Lust habe dass es morgen auf jeder 0815 trash-tabloid Seite steht.

So viel zu den angeblichen Zufaellen erstmal.

HOT
2008-01-10, 14:51:20
Na jo, hört sich auf jeden Fall nicht unplausibel an. Auf die Fläche eines G80 bekommt man in 55nm locker über 2Milliarden Transistoren unter. Eher 2,4.

Gast
2008-01-10, 14:54:05
Wieso muss das unrentabel sein?

AnarchX
2008-01-10, 14:55:04
Naja, mehr als 2Mrd. wohl eher nicht, da ja G92 auch schon 320mm² brauch unter 65nm trotz nur 754M Transistoren.

Aber stellt sich wirklich die Frage wofür NV diese riesige Die-Size benötigt, ein 512-Bit SI wäre eine Erklärung, imo.

Ailuros
2008-01-10, 14:55:29
Na jo, hört sich auf jeden Fall nicht unplausibel an. Auf die Fläche eines G80 bekommt man in 55nm locker über 2Milliarden Transistoren unter. Eher 2,4.
Nur warum konzentriert man sich auf so grosse, doch recht unrentable Monsterchips?

Der chip hat mehr quadratmillimeter als G80 aber weniger Transistoren als Du ausrechnest.

Die Antwort ist dass high end den restlichen Markt antreibt. Der Punkt wo monolithische chips in eine Sackgasse geraten sind ist noch um einiges entfernt, wenn es diesen ueberhaupt gibt.

Ailuros
2008-01-10, 15:00:27
Aber stellt sich wirklich die Frage wofür NV diese Die-Size benötigt, ein 512-Bit SI wäre eine Erklärung, imo.

Mal sehen GDDR3 hilft hier nicht mehr fuer die Bandbreite die das Ding braucht mit 512bit; NV soll einen Koller gegen GDDR4 haben (der sich auch bis jetzt bewiesen hat) und GDDR5 gibt genug Bandbreite auf einem kleineren SI.

HOT
2008-01-10, 15:04:02
Stimmt, das war etwas hoch gegriffen. 2x RV670 + 40% eines RV670 wären ~1,6 Milliarden. Das ist aber mit Sicherheit machbar.

AnarchX
2008-01-10, 15:04:26
Mal sehen GDDR3 hilft hier nicht mehr fuer die Bandbreite die das Ding braucht mit 512bit; NV soll einen Koller gegen GDDR4 haben (der sich auch bis jetzt bewiesen hat) und GDDR5 gibt genug Bandbreite auf einem kleineren SI.

Dann sind es vielleicht >512-Bit, was die Die-Size ganz schnell erklärt. ;D

Aber wahrscheinlicher wäre wohl wenn GDDR5 sich verschiebt, würde wohl NV auch entsprechend verschieben.

Stimmt, das war etwas hoch gegriffen. 2x RV670 + 40% eines RV670 wären ~1,6 Milliarden. Das ist aber mit Sicherheit machbar.
Nicht NV und ATi bei der Packdichte gleichsetzen! Bei ATi ist sie höher, wegen der großen Caches.

HOT
2008-01-10, 15:10:17
Hmm ein RV670 hat 670Mio auf 200mm², NV 700Mio hätte auf theoretischen ~230mm² in 55nm über 700... so viel Unterschied gibts da eh net... dann sinds halt 1,5Millarden, ist doch egal.

DrumDub
2008-01-10, 15:40:28
NV soll einen Koller gegen GDDR4 haben (der sich auch bis jetzt bewiesen hat) warum eigentlich?

AnarchX
2008-01-10, 16:02:41
warum eigentlich?
Weil ATi ihn zusammen mit Samsung entwickelt hat.

GeneralHanno
2008-01-10, 16:04:35
Weil Ati bei der Entwicklung (Standatisierung) von GDDR4 massiv seine Finger im Spiel hatte und somit "pro-ATi" maßgeschneitert ist ...

Paul Brain
2008-01-10, 16:30:26
1.) Hm, wenn D3D11 tatschlich Ende 2008/Anfang2009 kommen soll, ist es dann wohl eher so, dass sowohl R700 als auch GT200 D3D11 unterstützen werden und meine erste Aussage ist einfach daneben. Wär auch irgendwie unlogisch, wenn ein so grosser neuer Chip ohne erweitertes Featureset erscheinen würde.
Ich denke, ein Faktor 3 - Leistungsschub sollte genug Verkaufsargumente für die Karten liefern, Featureset hin oder her...

AnarchX
2008-01-10, 16:37:49
http://img211.imageshack.us/img211/484/0000000655662e8f58c8np3.jpg (http://imageshack.us)
http://www.matbe.com/actualites/27851/samsung-gddr5/

256-Bit: 192GB/s
320-Bit: 240GB/s
384-Bit: 288GB/s

Sollte doch ausreichen... :D

Gast
2008-01-10, 16:40:29
Weil Ati bei der Entwicklung (Standatisierung) von GDDR4 massiv seine Finger im Spiel hatte und somit "pro-ATi" maßgeschneitert ist ...


Nein, GDDR3 ist eine ATI Entwicklung, GDDR4 nicht.

AnarchX
2008-01-10, 19:14:01
Fuad ganz in seinem Element:
GT200 won't do DirectX 10.1 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5081&Itemid=57)

;D

dargo
2008-01-10, 19:29:54
http://img211.imageshack.us/img211/484/0000000655662e8f58c8np3.jpg (http://imageshack.us)
http://www.matbe.com/actualites/27851/samsung-gddr5/

256-Bit: 192GB/s
320-Bit: 240GB/s
384-Bit: 288GB/s

Sollte doch ausreichen... :D
Naja, mit 3Ghz GDDR5 wird man sicherlich nicht gleich zu Anfang ankommen. Das wäre auch viel zu teuer. Aber es zeigt deutlich, dass NV noch ziemlich lange Abstand von einem 512Bit SI nehmen wird.

AnarchX
2008-01-10, 19:38:21
Wobei, wenn diesmal neben Samsung von Anfang an Hynx und Qimonda dabei sind, die Entwicklung hoffentlich etwas schneller geht, als bei GDDR4.

J0ph33
2008-01-10, 19:43:52
Warum hab ich das Gefühl, dass nVs nächster riesenchip weit entfernt von 500€ sein wird...die neue geforce2ultra...:rolleyes:

GeneralHanno
2008-01-10, 19:46:23
vermutlich wird der preis für 1000 grakas wieder bei 650$ liegen (so wie auch bei der GTX)

dargo
2008-01-10, 19:49:36
Wobei, wenn diesmal neben Samsung von Anfang an Hynx und Qimonda dabei sind, die Entwicklung hoffentlich etwas schneller geht, als bei GDDR4.
Ah, diesmal sind gleich 3 Hersteller am Start dabei? Das ist schon mal ein gutes Zeichen. :)
Ist GDDR5 eigendlich zu GDDR4 oder GDDR3 kompatibel?

Ailuros
2008-01-11, 14:37:23
Ah, diesmal sind gleich 3 Hersteller am Start dabei? Das ist schon mal ein gutes Zeichen. :)
Ist GDDR5 eigendlich zu GDDR4 oder GDDR3 kompatibel?

Kommt ganz drauf an was Du mit "kompatibel" meinst; wenn eine Architektur fuer GDDR3,4 und 5 ausgelegt ist dann kann man auch alle 3 Speicher-typen dafuer benutzen.

GDDR5 soll vergleichsmaessig zu 3 & 4 stromsparender sein; an die Kleinigkeit halte ich mich aber nicht bis ich es auf fertigen GPUs erstmal sehe.

Wie dem auch sei, falls NV tatsaechlich ihre Karten auf GDDR5 gelegt hat, gehen sie ein eher ungewoehnliches Risiko fuer ihre uebliche Strategie der letzten Jahre ein. Sich auf den neuesten Schrei der Speicher-technologie zu verlassen ist nicht gerade optimal wenn man X GBs an Bandbreite braucht.

Gast
2008-01-21, 16:46:02
Wie sieht es aus mit
- Platzbedarf (Slots)?
- Lautstärke des Lüfters
- Unterstützung für PCIe 1?

GeneralHanno
2008-01-21, 16:52:14
wir reden gerade über grobe erste skizzen und du willst details wissen :D

also 55nm + über 1,5Mrd Transistoren = viel leistung (3xGTX) und viel verbrauch (~200W), also potenter dual-slot kühler ;)

aths
2008-01-21, 17:05:53
Ursprünglich sollte G100 der DX11-Chip sein, da Vienna/DX11 aber noch einige Zeit auf sich warten lässt, macht ein solcher Chip vor Ende 2009 nicht viel Sinn. Ob das, was hier im Thread als GT200 bezeichnet wird und im H2/08 released werden soll, ein anderer Name für das ist, was ursprünglich als G100 geplant war (dann hätte NV aber die DX11-Unterstützung gestrichen), oder gar nichts damit zu tun hat (Davon gehe ich eher aus, zuerst war ja der Name G200 im Gespräch, GT200 ist das gleiche mit einem T dazu. G100 wäre im dem Fall weiterhin der DX11-Chip für Ende 09.) ist aber eigentlich egal.Man kann nicht einfach mal so eine bestimmte D3D-Compliance streichen.

Ruffnax
2008-01-22, 12:33:46
Außerdem, wenn die Karte größer sein sollte, als die 8800 GTX, dann muss ich mir ein neues Gehäuse anschaffen, worauf ich keine Lust habe!

Gast
2008-01-22, 13:21:32
Ich glaube nicht, dass die Länge nochmal vergrößert wird - die PCBs von GTX und Ultra sind jetzt schon knapp an der Grenze von größeren Kompatibilitätsproblemen. Man kann zwar immer damit argumentieren, dass die Zielgruppe dann auch Geld für ein großes Gehäuse hat, aber IMO hat alles eine Grenze und die ist mit dem der PCB-Länge des G80 durchaus erreicht.

Adam D. @ work

nomadhunter
2008-01-22, 14:08:28
Wenn man bei 256bit (oder höchstens 320bit) bleibt, kann man auch das PCB kleiner halten. Mehr als die Länge der GTX halte ich für sehr unwahrscheinlich. ATI bringt auf einem PCB in GTX-Größe ja sogar 2 Chips unter (3870X2).

laser114
2008-01-22, 14:32:47
Wenn man bei 256bit (oder höchstens 320bit) bleibt, kann man auch das PCB kleiner halten. Mehr als die Länge der GTX halte ich für sehr unwahrscheinlich. ATI bringt auf einem PCB in GTX-Größe ja sogar 2 Chips unter (3870X2).

Oder auch 512-Bit in 23 cm. Von daher dürfte mit GTX-Länge schon einiges möglich sein.

Gast
2008-01-22, 14:59:51
Wenn man bei 256bit (oder höchstens 320bit) bleibt, kann man auch das PCB kleiner halten. Mehr als die Länge der GTX halte ich für sehr unwahrscheinlich. ATI bringt auf einem PCB in GTX-Größe ja sogar 2 Chips unter (3870X2).

ATi bringt auch bei einem deutlich kürzerem PCB eine deutlich stromfressenderen R600 mit 512bit SI unter. Nur ist NV eben nicht ATi.

James Ryan
2008-01-22, 16:03:52
ATi bringt auch bei einem deutlich kürzerem PCB eine deutlich stromfressenderen R600 mit 512bit SI unter. Nur ist NV eben nicht ATi.

NVIDIA hatte schon immer längere PCBs, um die Signalstabilität besser halten zu können.
ATi hatte mit der sehr kurzen Platine der Radeon 9700 bspw. massive Probleme, Stichwort "Wellenproblem" weil die Signale gestört wurden.
Ich denke aber dass es sich NVIDIA nicht leisten kann, noch längere Karten als die GTX/Ultra herauszubringen. Da wurde die Schmerzgrenze doch für viele erreicht!

MfG :cool:

GeneralHanno
2008-01-22, 16:12:32
gibt es nicht eine ATX norm o.ä. zur maximalen längere von erweiterungskarten ?

dargo
2008-01-22, 17:37:55
Wie dem auch sei, falls NV tatsaechlich ihre Karten auf GDDR5 gelegt hat, gehen sie ein eher ungewoehnliches Risiko fuer ihre uebliche Strategie der letzten Jahre ein. Sich auf den neuesten Schrei der Speicher-technologie zu verlassen ist nicht gerade optimal wenn man X GBs an Bandbreite braucht.
Lese ich hieraus einen versteckten Hinweis von möglichem 512Bit SI mit GDDR3? Ich dachte NV wolllte noch nicht so früh in die "Breite". Mit 384Bit SI und 1,1Ghz GDDR3 wäre man bei 105,6GB/s. Ich kann mir kaum vorstellen, dass dies für eine GT200 reicht. Oder überwindet sich doch NV und pflastert auf das PCB GDDR4, falls GDDR5 noch auf sich warten lässt?

Anarchy-HWLUXX
2008-01-22, 18:19:36
gibt es nicht eine ATX norm o.ä. zur maximalen längere von erweiterungskarten ?

Türlich gibt es die, ne 8800GTX ist da scho gut drunter.

Das hier ist ne Fullsize Karte :

http://openpr.de/images/articles/8/7/87cebe4c4fce38819c5376e4a4311b52_g.jpg

Nightspider
2008-01-22, 22:43:52
Türlich gibt es die, ne 8800GTX ist da scho gut drunter.

Das hier ist ne Fullsize Karte :

http://openpr.de/images/articles/8/7/87cebe4c4fce38819c5376e4a4311b52_g.jpg

Darf man fragen, was das dür ein Gerät ist, und wofür die Anschlüsse dienen ?

THX

K4mPFwUr$t
2008-01-22, 22:50:17
hmm, schaut aus wie eine videokarte wenn ich mich nicht irre?

Gast
2008-01-22, 23:53:05
im Juni kommt ne überarbeitete Serie und dann soll im 3Q schon ne neue "Generation" kommen...ich glaube nicht

Anarchy-HWLUXX
2008-01-23, 02:50:13
Darf man fragen, was das dür ein Gerät ist, und wofür die Anschlüsse dienen ?

THX

Ist ne Quadro FX , die Zusatzplatine, KA ;) reinste Profi Hardware - wer sowas braucht weiss auch wozu sie gut ist ;D

Ich glaub aber das sind Videoausgänge und nen anschluss für nen Synchronisations Zeitsignal ...

-> nu BTT

Ailuros
2008-01-23, 05:33:19
Lese ich hieraus einen versteckten Hinweis von möglichem 512Bit SI mit GDDR3? Ich dachte NV wolllte noch nicht so früh in die "Breite". Mit 384Bit SI und 1,1Ghz GDDR3 wäre man bei 105,6GB/s. Ich kann mir kaum vorstellen, dass dies für eine GT200 reicht. Oder überwindet sich doch NV und pflastert auf das PCB GDDR4, falls GDDR5 noch auf sich warten lässt?

Jegliche Entscheidung die NV vor einiger Zeit getroffen hat, ist in der Zwischenzeit schon lange festgenagelt. Mit absoluter Sicherheit kann man momentan auch nichts wissen. Es deuten einfach mehrere hints auf GDDR5; das einzig dumme daran ist eben dass NV in dem Fall von ihrer ueblichen Strategie abweicht. Begrenzte Verfuegbarkeit des Speichers bedeutet dann auch automatisch beschissene Verfuegbarkeit der GPUs am Anfang.

***edit: http://forum.beyond3d.com/showpost.php?p=1119928&postcount=226

Clearly, there is a need to be smarter about your memory traffic. But being smarter either means more complex code needs to run (which steals FLOPS from shading), or area dedicated to complicated fixed-function logic, or you need to deal with significantly more latency and the resources associated with that.

Zwar aus dem Larabee/B3D thread gestolen, aber generell schon relativ.

Momentan ist fuer mich persoenlich sowieso viel zu gewagt einzuschaetzen wie viel Bandbreite genug ist oder nicht ohne weitere Einzelheiten. G80 war der erste Schritt die ROPs mit dem MC etwas zu verknuepfen; irgendwann kommt es hier wohl zur vollstaendigen Integrierung. Ob dieses jetzt schon in GT200 oder spaeter stattfindet kann ich noch nicht wissen.

Hvoralek
2008-01-27, 21:58:18
Aber stellt sich wirklich die Frage wofür NV diese riesige Die-Size benötigt, ein 512-Bit SI wäre eine Erklärung, imo.R600 ist ja "schon" groß genug für ein 512- bit- SI. Insofern wäre das allein kein Grund für einen Chip, der sogar noch größer ist als G80.

- Unterstützung für PCIe 1?PCIe 2 ist doch abwärtskompatibel.

Lese ich hieraus einen versteckten Hinweis von möglichem 512Bit SI mit GDDR3? Ich dachte NV wolllte noch nicht so früh in die "Breite". Mit 384Bit SI und 1,1Ghz GDDR3 wäre man bei 105,6GB/s. Ich kann mir kaum vorstellen, dass dies für eine GT200 reicht. Oder überwindet sich doch NV und pflastert auf das PCB GDDR4, falls GDDR5 noch auf sich warten lässt?Nvidia wird ja möglicherweise schon für die 9800 GTX in den sauren GDDR4- Apfel beißen. Warum dann nicht für G200 nochmal (Dass Fudo noch ein "T" in dem Namen ergänzt, heißt für mich übrigens nicht, dass da auch eines ist)?

GeneralHanno
2008-01-27, 22:49:05
wenn nvidia die 9800GTX mit GDDR4 bringen würde, wäre es schon komisch, wenn der GT200 nur auf GDDR3 setzen würde ;)

Hvoralek
2008-01-27, 22:55:20
wenn nvidia die 9800GTX mit GDDR4 bringen würde, wäre es schon komisch, wenn der GT200 nur auf GDDR3 setzen würde ;)Wenn das SI doppelt so breit ist, warum nicht? Genau den "Rückschritt" von GDDR4 @ 256 bit auf GDDR3 @ 512 bit gab es ja bei ATI zum R600, ohne dass sie deswegen einen PR- GAU erlitten hätten. Sicherlich wird der Leistungssprung von D8P auf G200 größer als der von R580 auf R600, aber die ~ 200 GiB/s mit schnellem GDDR3@512 bit wären schon etwa die 2,5- fache GTX- Bandbreite. Wenn die noch effizientere genutzt wird (da gab es schon bei D8P Verbesserungen), sollte das völlig ausreichen.

Gast
2008-01-27, 23:17:20
...aber die ~ 200 GiB/s mit schnellem GDDR3@512 bit wären schon etwa die 2,5- fache GTX- Bandbreite.

Dafür bräuchteste dann aber GDDR3 mit realen ~1,6Ghz. Den gibt es doch gar nicht? :|

Hvoralek
2008-01-27, 23:31:46
Dafür bräuchteste dann aber GDDR3 mit realen ~1,6Ghz. Den gibt es doch gar nicht? :|Stimmt, verrechnet. Mit GDDR3 käme man auf etwa 140 GiB/s :redface:

Das wäre wirklich knapp.

Coda
2008-01-28, 01:39:45
Darf man fragen, was das dür ein Gerät ist, und wofür die Anschlüsse dienen ?
Frame-Sync usw. für Einsatz im Broadcasting.

=Floi=
2008-01-28, 03:19:36
ich fände es sogar gut, wenn NV noch auf gut verfügbaren und billigen GDDR3 speicher setzen würde, und dafür dann auf ein 512bit breites SI und 2GB vram. In der praxis würde man bei einer "GTX" mit ca. 1125mhz noch immer auf brauchbare 144gb/sek kommen und das halte ich für ausreichend. Für mich spielt auch der preis eine rolle und wenn schon der chip groß ist könnte man hier ein paar € einsparen.

Ailuros
2008-01-28, 05:29:22
Wie schon so oft erwaehnt, es ist wichtiger wie die Bandbreite auf einer Architektur verwaltet wird, als die eigentliche Menge.

ich fände es sogar gut, wenn NV noch auf gut verfügbaren und billigen GDDR3 speicher setzen würde, und dafür dann auf ein 512bit breites SI und 2GB vram. In der praxis würde man bei einer "GTX" mit ca. 1125mhz noch immer auf brauchbare 144gb/sek kommen und das halte ich für ausreichend. Für mich spielt auch der preis eine rolle und wenn schon der chip groß ist könnte man hier ein paar € einsparen.

Was willst Du genau mit GDDR3@512bit einsparen? Wenn NV zu so einer Loesung greifen wird, dann nur wenn eine Alternative nicht moeglich ist; sonst kostet der fette Speichercontroller und der hoehere Stromverbrauch von GDDR3 insgesamt mehr.

HOT
2008-01-28, 09:27:40
Hm, gibt es eigentlich (halb)offizielle Infos über eine GTX? Oder ist das nur ein Wunschdenken bzw. eine Forennutzererfindung. Für HighEnd gibts ja die GX2 und die ist ja nichtmal teuer. Eigentlich braucht man keinen Chip zwischen GX2 und GTS.

Snoopy1978
2008-01-28, 09:40:04
Es gibt eigentlich nur 2 Codenamen die umher schwirren,GT200 und G100.Es gibt auch weiterhin halboffizielle Infos die mal in den Raum gestellt wurden.
So ala - 1800 Mio.Transistoren
- 512Bit SI
- 384 Shadereinheiten usw.
Wobei ich denke daß dies eher die Spezis für Nvidia´s echten Next-Gen-Chip darstellen.
Sozusagen streiten sich die Geister ob es eine 9800GTX gibt und ,wenn es die gibt, wie die aussieht.So gesagt halboffizielle Gerüchte die der Existenz einer 9800GTX Rechnung tragen,sind eigentlich nicht vorhanden.

AnarchX
2008-01-28, 09:46:17
Wie oft den noch:

-GT200(aka G200): D3D10.1, für H2 2008 geplant, großer Leistungssprung
-9800 GTX: D3D10, März/April 2008, ~ G92@max. Taktprojektion (waren mal bis zu 2.5GHz SD) und Triple-SLI-PCB -> Übergangslösung wie die 9800 GX2


Und über den GT200 hat AFAIK NV nicht mehr als Die-Size, wohl über Lücken bei TSCM, und Leistungsprojektion herausleaken lassen und eben als letztes GDDR5, wobei die Nutzung von diesem für zukünftige NV-Projekte schon länger bekannt ist. ;)

Gast
2008-01-28, 10:09:35
Wie oft den noch:



Selbst Schuld,macht auf der ersten Seite ne Zusammenfassung

AnarchX
2008-01-28, 10:10:29
Selbst Schuld,macht auf der ersten Seite ne Zusammenfassung

me != TI...;)

HOT
2008-01-28, 10:49:32
Wie oft den noch:
[...]
-9800 GTX: D3D10, März/April 2008, ~ G92@max. Taktprojektion (waren mal bis zu 2.5GHz SD) und Triple-SLI-PCB -> Übergangslösung wie die 9800 GX2
[...]
Mir ging es darum, ob es überhaupt irgendwelche Infos gibt, die so ein Teil bestätigen würden, oder ob es außerhalb der normalen Spekuforen überhaupt irgendwelche Gerüchte darüber gibt. Meiner Meinung nach ist der Einsatz von GDDR4 oder 5 doch eher unwahrscheinlich und die nur wegen dem 2. SLI Connector GTX zu nennen ist doch irgendwie blöde...
Ich war ja auch ein Verfechter der GTX = bessere 8800GTS V2 Theorie, aber irgendwie wird das angesichts der GX2 ziemlich sinnlos und unwahrscheinlich, zumal sich die GX2 auf dem Niveau der X2 von ATI einpendeln dürfte.

AnarchX
2008-01-28, 10:58:49
Mir ging es darum, ob es überhaupt irgendwelche Infos gibt, die so ein Teil bestätigen würden, oder ob es außerhalb der normalen Spekuforen überhaupt irgendwelche Gerüchte darüber gibt. Meiner Meinung nach ist der Einsatz von GDDR4 oder 5 doch eher unwahrscheinlich und die nur wegen dem 2. SLI Connector GTX zu nennen ist doch irgendwie blöde...
Aber Tri-SLI ist nunmal eben GTX und Ultra vorbehalten. ;)

Zudem wird man wohl doch die Taktraten noch etwas erhöhen (180W TDP!)

Und GDDR4 mag NV zwar nicht, aber möglich wäre die Nutzung wohl schon. Aber ein Sprung von 970 auf 1150-1200MHz (0.83ns GDDR3) würde wohl auch noch etwas Leistung freisetzen, wodurch man eine 8800 GTX schliesslich hinter sich lassen würde, was imo das Ziel der 98 GTX ist - 88GTX-Leistung bei höherer Marge.


Ich war ja auch ein Verfechter der GTX = bessere 8800GTS V2 Theorie, aber irgendwie wird das angesichts der GX2 ziemlich sinnlos und unwahrscheinlich, zumal sich die GX2 auf dem Niveau der X2 von ATI einpendeln dürfte.
Ja, aber die Lücke zwischen $300 und $450 würde sich gut damit füllen lassen und die Tri-SLI-Board-Besitzer würden auch eine Option haben. Schliesslich wäre 9800 GTX T-SLI wohl dann auch NVs schnellste High-End-Lösung, die durch 3-Way-AFR noch etwas unproblematischer wäre.

Anarchy-HWLUXX
2008-01-28, 11:40:01
Aber Tri-SLI ist nunmal eben GTX und Ultra vorenthalten. ;)



VorBEhalten nicht vorENThalten ;)

nomadhunter
2008-01-28, 13:30:20
ich fände es sogar gut, wenn NV noch auf gut verfügbaren und billigen GDDR3 speicher setzen würde, und dafür dann auf ein 512bit breites SI und 2GB vram.
2GB sind viel zu viel. Schon 1GB reicht bei aktuellen Spielen für 25x16 + AA, also Settings, in denen wohl auch G(T)200 an seine Grenzen stoßen wird. Da man außerdem noch möglichst schnellen Speicher braucht, wäre ein 2tes GB völlige Geldverschwendung (würde wahrscheinlich die UVP um knapp 100$ anheben).

HOT
2008-01-28, 14:22:56
[...]
Zudem wird man wohl doch die Taktraten noch etwas erhöhen (180W TDP!)
[...]
Woher ist die Info?

AnarchX
2008-01-28, 14:26:43
Woher ist die Info?

Von PHK bezogen auf D9E-20, schon lange bevor eine 9800 GTX bekannt war bzw. man über das neue Schema G9x-40/.../10 vom FW 171 erfuhr. ;)

Die 9800 GX2 ist wohl D9E-40, jedenfalls sprach er hier von einer Dual-Karte.

Und der nun auf der 9800 GX2 entdeckte G92-450 deutet ja auch auf höhere Taktraten als beim G92-400 (GTS 512MB) hin.

Aber dazu besser weiter im GF9-Thread...

Ailuros
2008-01-29, 08:16:16
Mir ging es darum, ob es überhaupt irgendwelche Infos gibt, die so ein Teil bestätigen würden, oder ob es außerhalb der normalen Spekuforen überhaupt irgendwelche Gerüchte darüber gibt.

Pfeiff auf die Spekuforen, es soll laut NV eine G92/9800GTX geben.

Ich war ja auch ein Verfechter der GTX = bessere 8800GTS V2 Theorie, aber irgendwie wird das angesichts der GX2 ziemlich sinnlos und unwahrscheinlich, zumal sich die GX2 auf dem Niveau der X2 von ATI einpendeln dürfte.

AMD hat und kann keine single chip high end Loesung momentan veroeffentlichen. So gesehen war auch die 7900GTX redundant im Angesicht der damaligen G7x/GX2. G92 hat eine so hohe Transistoren-anzahl damit der chip ueberhaupt um einiges hoeher getaktet wird als die bisherigen Varianten.

Gosh
2008-01-31, 12:36:00
http://translate.google.com/translate?u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D14253%26extra %3Dpage%253D1&langpair=zh%7Cen&hl=en&ie=UTF8

die GX2 kommt erst noch und die wollen die dann auch erstmal ne Weile als highend verkaufen.Schaut schlecht die nächste Generation noch vor Xmas zu sehn :(

GeneralHanno
2008-01-31, 12:58:29
der "artikel" ist alt (die geschichte mit den 256 virtuellen SP) und hat sich als falsch herausgestellt.

Snoopy1978
2008-01-31, 17:02:07
Mmh auf der anderen Seite wird spekuliert auf einen Release des GT200 im 2 Quartal.Was ich aber skeptisch sehe,das würde dann wirklich mit der GX2 und der 9800GTX kollidieren.Ich vertraue fest darauf das Nvidia (und Ati) ihre nächste "echte" HighEnd Generation noch vor Oktober diesen Jahres bringt.

dargo
2008-01-31, 17:54:25
Mmh auf der anderen Seite wird spekuliert auf einen Release des GT200 im 2 Quartal.Was ich aber skeptisch sehe,das würde dann wirklich mit der GX2 und der 9800GTX kollidieren.
Nicht Q2 sondern die zweite Jahreshälfte. Und wenn man vom schlimmsten Fall ausgeht ist damit sogar Dezember 2008 möglich.

Pfeiff auf die Spekuforen, es soll laut NV eine G92/9800GTX geben.

Weißt du schon wann diese GTX nun endlich erscheinen wird? Ich habe schon langsam den Überblick verloren. :usweet:

GeneralHanno
2008-01-31, 18:49:46
anfang Q2 08 kommt die 9800GTX
H2 kommt dann der GT200

Hvoralek
2008-01-31, 19:23:54
anfang Q2 08 kommt die 9800GTXAnfang Q2? Ich dachte, das Teil sei auf März verschoben worden :confused:

K4mPFwUr$t
2008-01-31, 19:29:07
hoffe mal es wird eine brauchbare single ship lösung werden.
denn mit multi-gpu systemen habe ich nicht viel am hut.

zumal der leistungsunterschied großer sein sollte bei der 9800GTX gegenüber der 8800GT zur 8800GTS.

Bakelit
2008-01-31, 20:25:07
Langsam bin ich, gelinde gesagt, genervt von den ständigen Verschiebungen und armseligen, dürren Gerüchten. Ich wünsche mir eindlich wieder eine taufrische highend-Lösung. Langsam muss man sich ja ernsthaft Gedanken machen, ob der Lüfter auf der mehr als 1 Jahr alten 8800gtx durchhalten wird oder die Korrosion der Lötverbindungen nicht langsam in kritische Bereiche abdriftet. Es ist einfach unglaublich, einen derartigen Stillstand in der IT-Branche hat es so noch nie gegeben. Wenn das in diesem Tempo(<-unpassender Ausdruck) weitergeht, sollte man eher auf Konsolen umsteigen, die bringen dann wohl häufiger signifikante Weiterentwicklungen.
Die IT-Branche ist elend langweilig geworden..

Gosh
2008-01-31, 21:12:15
Ja,grad Nvidia is da lächerlich,man macht nur das Nötigste.
Möcht nicht wissen wie schnell die Karten heute ohne ATI wären :rolleyes:

K4mPFwUr$t
2008-01-31, 21:20:51
wo keine konkurrenz, da kein handeln nötig.
oder würdet ihr gelder in die entwicklung stecken wenn das alte produkt der konkurrenz vorraus wäre nach gut einem jahr?

das einzigste was sich da lohnen würde wäre ein die shrink.

bei den CPUs ist es was anderes, intel ist im high end berreich seit dem c2d vorne.
um diesen vorsprung noch mehr auszubauen entwickelt mal halt immer neue produkte.
so das die konkurrenz erstmal nicht so schnell hinterher kommt.

Snoopy1978
2008-01-31, 21:27:29
Im Augenblick gehts durcheinander mit dem ganzen Hardwarespass.Ja ich wünsche mir auch ne starke Singlechip-Lösung.Mit 2 Grafikkarten im SLI-Verbund könnte ich mich ja noch anfreunden aber Quad-SLI,bzw. Quad-Crossfire finde ich überflüssig.

Hvoralek
2008-01-31, 21:33:11
Langsam bin ich, gelinde gesagt, genervt von den ständigen Verschiebungen und armseligen, dürren Gerüchten. Ich wünsche mir eindlich wieder eine taufrische highend-Lösung. Langsam muss man sich ja ernsthaft Gedanken machen, ob der Lüfter auf der mehr als 1 Jahr alten 8800gtx durchhalten wird oder die Korrosion der Lötverbindungen nicht langsam in kritische Bereiche abdriftet. Es ist einfach unglaublich, einen derartigen Stillstand in der IT-Branche hat es so noch nie gegeben. Wenn das in diesem Tempo(<-unpassender Ausdruck) weitergeht, sollte man eher auf Konsolen umsteigen, die bringen dann wohl häufiger signifikante Weiterentwicklungen.
Die IT-Branche ist elend langweilig geworden..Das hat es sogar in genau dem Markt schon einmal gegeben. Oder was hat sich in den zwei Jahren zwischen R300 und NV40/ R420 Weltbewegendes getan?

GeneralHanno
2008-01-31, 21:35:29
mal nicht so ungeduldig. spätestens zu weihnachten gibts wieder nen ordentlichen singelchip von nvidia ;)

K4mPFwUr$t
2008-01-31, 21:46:45
sind ja auch noch gut 11 monate, wenn da absolut nichts neues käme wäre es wirklich peinlich.
peinlich für AMD und nV, denn in dem bisherigen tempo hätten wir schon längst die nächste gen.

nur fragt man sich warum ATI und nV uns nur halb gares anbieten will.
nur weil DX11 verschoben wurde (und es wohl auch nochmal wird ...) kann man nicht die neuste gen mit inkl. DX11 support verschieben. DX10.1 nutzt ja auch noch kein spiel, trozdem gibt es sollche hw :O

Gosh
2008-01-31, 21:52:21
mal nicht so ungeduldig. spätestens zu weihnachten gibts wieder nen ordentlichen singelchip von nvidia ;)

naja,wenn man die schnellste Graka besitzt aber Spiele mehr brauchen als vorhanden ist :redface:

Schrotti
2008-02-01, 02:51:42
Ich warte schon auf Fragen wie "kommt der GT200 auch für AGP".

Odal
2008-02-01, 03:34:16
Ja,grad Nvidia is da lächerlich,man macht nur das Nötigste.
Möcht nicht wissen wie schnell die Karten heute ohne ATI wären :rolleyes:

naja hatte man ja auch nicht nötig was neues zu entwickeln...ati hat ja erst vor kurzem auf grund ihres kaufs durch amd technischer schwierigkeiten und leeren kassen gleichgezogen

da gabs nicht die gefahr also gilt es eben mit altem mist den kunden zu schröpfen wie es nur geht...

fortschritt gihbts nur durch konkurenzkampf ansonsten läuft das alles schleppend und im endeffekt zahlt man für 10% mehr performance pro jahr ne neue karte...

aber mal so allgemein gesagt...

gpus wachsen nicht auf bäumen ein wenig dauert entwicklung und anpassung des fertigungsprozesses,,,,

Snoopy1978
2008-02-01, 06:21:52
Ich warte schon auf Fragen wie "kommt der GT200 auch für AGP"

Ja :biggrin:,ich stelle die Frage hier gleich mal.Am besten frage ich Ailuros:"Kommt eine GT200 für AGP".?

ShadowXX
2008-02-01, 08:30:00
wo keine konkurrenz, da kein handeln nötig.
oder würdet ihr gelder in die entwicklung stecken wenn das alte produkt der konkurrenz vorraus wäre nach gut einem jahr?

Entwickeln tun die schon oder meinst du das nV den Ings Geld für rumsitzen und YouTube-Surfen zahlt.

Es wird momenten eben eher für die Schublade produziert.
Iich hoffe es zumindest und ich hoffe das es was "sinnvolles" ist und nicht wie bei ATI wo Sie zwar entwickelt haben (R600 "Urfassung) aber scheinbar viel zu lässig an die Sache rangegangen sind und nVs G80 Design bodenlos unterschätzt (und Ihres gnadenlos überschätzt) haben.

Aber im Prinzip haben wir tatsächlich die Situation R300 vs. nv30 (wenn auch nicht so extrem ausgeprägt beim Leistungsunterschied) seit einiger Zeit.
Ati kann momentan nicht (warum auch immer) und nV will nicht wirklich.
Wenn man es nicht so eng sieht, ist der G92 doch ein "R350".....

Langsam bin ich, gelinde gesagt, genervt von den ständigen Verschiebungen und armseligen, dürren Gerüchten. Ich wünsche mir eindlich wieder eine taufrische highend-Lösung. Langsam muss man sich ja ernsthaft Gedanken machen, ob der Lüfter auf der mehr als 1 Jahr alten 8800gtx durchhalten wird oder die Korrosion der Lötverbindungen nicht langsam in kritische Bereiche abdriftet.
Ja, in die Richtung habe ich mir auch schon Gedanken gemach:biggrin:

Normalerweise verkaufe ich GFX-Karten bevor ich den Lüfter reinigen muss, aber in diesem Fall habe ich fast bedenken die Karte aus dem PCIe-Slot zu ziehen, da Sie inzwischen sicher festgerostet ist.

naja hatte man ja auch nicht nötig was neues zu entwickeln...ati hat ja erst vor kurzem auf grund ihres kaufs durch amd technischer schwierigkeiten und leeren kassen gleichgezogen

Schön wäre es wenn Sie gleichgezogen hätten.....im Prinzip sind Sie nicht mal das, sondern Sie bieten ein extreme Notlösung (ähnlich wie damals nV mit Ihrer GX2)...auch wenn das viele nicht sehen wollen.
Das dabei in manchen Fällen (wo AFR ordentlich Funktioniert) sogar die Performancekrone rausspringt wird dankend mitgenommen, aber ist mehr ein "Abfallprodukt" der Konstruktion.

Gast
2008-02-01, 09:08:46
2 x GT200 = G100

GeneralHanno
2008-02-01, 09:52:36
jo, der GT200 (500mm² die size in 55nm = 180 TDP) warum nicht zwei zu ner dualkarte zusammenschließen :rolleyes:

K4mPFwUr$t
2008-02-01, 10:19:28
und statt einem spiel als beilage bekommt man eine vapo bei gelegt :biggrin:

Snoopy1978
2008-02-01, 10:51:57
Oder einen Gutschein für den Kauf von Flüssigstickstoff.

Anarchy-HWLUXX
2008-02-01, 11:27:51
Wenn ich mich recht erinnere is das hier das "Spekulationen" Forum und nich das "Schwachsinn" Forum ... na ja, ATM tendiert es zum letzteren.

Snoopy1978
2008-02-01, 11:43:04
http://www.fudzilla.com/index.php?op...=5488&Itemid=1.

Fuad behauptet zu wissen das der GT200 Chip in 65nm hergestellt wird und heisser sein wird als 2*G92 im GX2 Verbund.

K4mPFwUr$t
2008-02-01, 12:00:27
klingt nicht gerade rosig. wenn der fall so eintritt kann man nur hoffen das der refresh besser ausschaut. ein richtiger stromsparmodus wäre hier dringenst anzu raten.
zumal der kühler sicherlich dem entsprechend groß und vor allem laut ausfallen dürfte.

aber fuad bleibt fuad, meistens ist aber ein bisschen wahrheit mit drinne.

@anarchy
durch dein posting hast du auch nicht sonderlich viel beigetragen zum topic.
wenn dir das niveau im 3dc zu niedrig ist, dann schaue mal wie es im HWL forum erst ist :rolleyes:

Gosh
2008-02-01, 12:41:18
wenn dir das niveau im 3dc zu niedrig ist, dann schaue mal wie es im HWL forum erst ist :rolleyes:

Dass stimmt,dort bekommt man nen Knall,Kindergarten pur

Snoopy1978
2008-02-01, 12:48:16
Wenn ich mich recht erinnere is das hier das "Spekulationen" Forum und nich das "Schwachsinn" Forum ... na ja, ATM tendiert es zum letzteren.

Ein bisschen Ironie und Sarkasmus muss eben manchmal sein ,auch wenns manchen in einem Anfall von Sachlichkeit ,schwachsinnig vorkommt.

dargo
2008-02-01, 14:19:03
http://www.fudzilla.com/index.php?op...=5488&Itemid=1.

Fuad behauptet zu wissen das der GT200 Chip in 65nm hergestellt wird und heisser sein wird als 2*G92 im GX2 Verbund.
Hast du wirklich bei so einem Monster was anderes erwartet?

Odal
2008-02-01, 14:25:17
also in 65nm halt ich mal für ein gerücht...da bin ich mal gespannt wie sie das kühlen wollen und vor allem ob soviel stromanschlüsse wie das ding dann braucht überhaupt noch aufs pcb passen neben dem mehrere kilo wiegenden kühler ^^

AnarchX
2008-02-01, 14:29:58
Wohlmöglich hat Fuad die Die-Size gehört und denkt sich, dass kann doch nur 65nm sein. :D

Aber schätzungsweise ~150W GPU-TDP sollte man doch vernünftig und leise mit einer Vapor-Chamber und gut geregelter Lüftersteuerung kühlen können.

GeneralHanno
2008-02-01, 14:37:43
was heisst denn schon heisser als G92@GX2 ... vll hat man einfach den thermal throttle wert erhöht ... also 100°C als lasttemperatur wären ja denkbar ...
seit G80 @ 90nm würde mich GT200 @ 65nm nicht wirklich überraschen. da ist nvidia eben stockkonservativ ...

laser114
2008-02-01, 14:37:58
Wohlmöglich hat Fuad die Die-Size gehört und denkt sich, dass kann doch nur 65nm sein. :D

Andererseits sprechend zwei Faktoren für den größeren Fertigungsprozess:

A) Die Anwendbarkeit. Nvidia hat noch keinen 55nm-Chip vorgestellt dafür gibt es jetzt aber viele 65nm-Chips. Sass die sofort bei einem Riesen-Die den neuen Prozess wählen widerspricht eigentlich ihrer Strategie, auch wenn es nur ein Half-Node ist

B) G80 kam Ende 2006 in 90 nm, ein normaler Entwicklungszyklus gibt einen Full-Shrink 2 Jahre. Macht 65 nm Ende 2008.

Snoopy1978
2008-02-01, 16:13:08
Na auf die Kühllösung bin ich mal gespannt wenn der Chip wirklich soviel Abwärme produzieren sollte.Das wäre dann eine Vapor-Chamber Dualslotlösung.

Schlammsau
2008-02-01, 16:27:59
Die 65nm und noch mehr Transistoren als die 8800GTS!?
nicht schlecht......

........langsam glaube ich, bei nVidia ist Energieverschwendung Pflicht geworden.

nomadhunter
2008-02-01, 16:30:13
http://www.fudzilla.com/index.php?op...=5488&Itemid=1.

Fuad behauptet zu wissen das der GT200 Chip in 65nm hergestellt wird und heisser sein wird als 2*G92 im GX2 Verbund.
Das würde vielleicht mit 1 Milliarde Transistoren funktionieren. Damit könnte man sich aber mal wieder nur leicht von G92/G80 absetzen. NVIDIA braucht langsam aber mal einen Chip, der wirklich erheblich mehr leistet und das erfordert eben auch entsprechend viele Transistoren. Ailuros sprach ja schon von ~1,7 Milliarden, evtl. sogar noch mehr (knapp 2). Das wiederum geht nur mit 55nm-Fertigung. Deswegen halte ich die Fuad-Meldung für Unsinn.

Anarchy-HWLUXX
2008-02-01, 17:03:18
........langsam glaube ich, bei nVidia ist Energieverschwendung Pflicht geworden.

LoooL ? Aber die 2900 XT wird mal schnell vergessen ;) Wenn jemand hier Verschwendemeister is dann ATi :P

Hvoralek
2008-02-01, 17:23:08
jo, der GT200 (500mm² die size in 55nm = 180 TDP) warum nicht zwei zu ner dualkarte zusammenschließen :rolleyes:Und D3D11 dazulöten ;D

Fuad behauptet zu wissen das der GT200 Chip in 65nm hergestellt wird und heisser sein wird als 2*G92 im GX2 Verbund.Wie heiß werden denn die Chips auf einer 9800 GX2?

Aber schätzungsweise ~150W GPU-TDP sollte man doch vernünftig und leise mit einer Vapor-Chamber und gut geregelter Lüftersteuerung kühlen können.Nur 150W TDP? Das wäre ja nur knapp mehr als bei einer D8P- GTS :|

Schlammsau
2008-02-01, 17:34:11
LoooL ? Aber die 2900 XT wird mal schnell vergessen ;) Wenn jemand hier Verschwendemeister is dann ATi :P

Die 2900XT war zugegebener Masen im Bereich Stromverbrauch, eine Entäuschung. Nichts desto trotz, hat die 3850 und 3870 alles besser gemacht, worin die 2900 versagte.

Soll aber hier nicht das Thema sein. Hier geht es um nVidia! ;)

nVidia wird in letzter Zeit zunehmend kritisiert, wegen des hohen Stromverbrauchs. Das kann hier keiner leugnen.

Snoopy1978
2008-02-01, 17:45:02
Das würde vielleicht mit 1 Milliarde Transistoren funktionieren. Damit könnte man sich aber mal wieder nur leicht von G92/G80 absetzen

Naja es hätte bestimmt auch niemand gedacht das die 681 Mio. Transistoren im 90nm Prozess unterbringen.Also zutrauen würde ich Nvidia das,vor allem weil sie eben schon immer vorsichtig waren mit neuen Prozessen.

Wie heiß werden denn die Chips auf einer 9800 GX2?


Dazu kann ich nichts sagen,ich habe die "Neuigkeit" ja nur hier publik gemacht.Ich schätze aber,wenn Fuad so ein Palaver draus macht,das die 85 Grad/celsius Marke überschritten werden kann.Es wird auf jeden Fall keiner Angst haben müssen das seine Grafikkarte frieren muss.

Aber schätzungsweise ~150W GPU-TDP sollte man doch vernünftig und leise mit einer Vapor-Chamber und gut geregelter Lüftersteuerung kühlen können


Anbei,war die Vapor-Chamber nicht eine patentierte Erfindung von Sapphire?
Und vor allem wenn die Specs so in etwa stimmen werden es bestimmt unter Last mehr werden als "nur" 150W.Viel eher vielleicht 200-230 Watt.

laser114
2008-02-01, 18:01:01
Naja es hätte bestimmt auch niemand gedacht das die 681 Mio. Transistoren im 90nm Prozess unterbringen.Also zutrauen würde ich Nvidia das,vor allem weil sie eben schon immer vorsichtig waren mit neuen Prozessen.

Korrekt. Selbst wenn das Die nur leicht größer wird (~ 500 mm²) sind 1,4 Mrd. Transistoren drinne, je nach Design. Und bei solchen Monsterchips und Nvidias bisheriger Politik ist einfach 65 nm das was ich erwarte.

Auch ein Half-Node kann kräftig fehlschlagen ... siehe R600.

Gast
2008-02-01, 18:16:57
Auch ein Half-Node kann kräftig fehlschlagen ... siehe R600.

Das hat aber nichts mit dem Half-Node zu tun, sondern mit dem Chip selbst.

Nightspider
2008-02-01, 18:29:41
Dennoch fertig AMD/ATI schon seit ca. November in 55nm Mainstram-Chips.
Ein dreiviertel Jahr sollte nun wirklich reichen, das man keine Fehler mehr im HighEnd-Bereich macht.

Vor allem, wenn man Nvidias Kapital bedenkt, und das sie ihren alten Chip auch über ein Jahr lang produziert haben. Wenn man den G(t)200 auch 1 Jahr lang produziert, spart Nvidia mit Sicherheit auch eine Menge Geld.

dargo
2008-02-01, 19:02:48
also in 65nm halt ich mal für ein gerücht...da bin ich mal gespannt wie sie das kühlen wollen und vor allem ob soviel stromanschlüsse wie das ding dann braucht überhaupt noch aufs pcb passen neben dem mehrere kilo wiegenden kühler ^^
Hast du schon vergessen, dass mit PCIe 2.0 300W möglich sind? 1x 8Pin und 1x 6Pin Stecker, schon passt es. Und wie kommst du zu der Annahme, dass NV kein 65nm für den GT200 verwendet?

Nur 150W TDP? Das wäre ja nur knapp mehr als bei einer D8P- GTS :|
AnarchX sprach von 150W GPU-TDP. Nicht von der gesamten Grafikkarte. ;)

Die 2900XT war zugegebener Masen im Bereich Stromverbrauch, eine Entäuschung. Nichts desto trotz, hat die 3850 und 3870 alles besser gemacht, worin die 2900 versagte.

Alles besser gemacht? Die neue ATI-Reihe ist höchstens stromsparender. In diesem Zeitraum (zwischen R600 und RV670) sollte aber in der Regel mehr bei rumkommen als nur Stromsparen.


nVidia wird in letzter Zeit zunehmend kritisiert, wegen des hohen Stromverbrauchs. Das kann hier keiner leugnen.
Hä? Das einzige was in diesem Forum kritisiert wird (zu recht) ist der Idle-Stromverbrauch. Was hat das jetzt mit dem Stromverbrauch bei Last zu tun?

laser114
2008-02-01, 19:08:49
Das hat aber nichts mit dem Half-Node zu tun, sondern mit dem Chip selbst.

Ein Zusammenhang mit dem Prozess besteht garantiert. Dabei geht es mir gar nicht um das Design, sondern dem Erscheinungsdatum. Geplant war Q2/2007 sicher nicht.

reunion
2008-02-01, 19:30:39
Das hat aber nichts mit dem Half-Node zu tun, sondern mit dem Chip selbst.

Doch. Der 80nm High-Performance Prozess hatte laut TSMC Probleme mit hochkomplexen Chips und führte außerdem zu sehr hohen Leckströmen.

Hvoralek
2008-02-01, 19:33:39
AnarchX sprach von 150W GPU-TDP. Nicht von der gesamten Grafikkarte. ;)*tomatenvondenaugenwisch*

Andererseits: Viel macht der Speicher da auch nicht aus, oder?

dargo
2008-02-01, 19:46:22
*tomatenvondenaugenwisch*

Andererseits: Viel macht der Speicher da auch nicht aus, oder?
Es gibt ja noch die Stromversorgung etc. :)

GeneralHanno
2008-02-01, 20:55:53
vor allem spannungswandler und speicherchips (und sonstige bauteile).

Odal
2008-02-01, 21:33:57
Hast du schon vergessen, dass mit PCIe 2.0 300W möglich sind? 1x 8Pin und 1x 6Pin Stecker, schon passt es. Und wie kommst du zu der Annahme, dass NV kein 65nm für den GT200 verwendet?


Ein G92 hat um die 750 Mio Transistoren in 65nm...ein GT200 dürfte schätzungsweise das doppelte oder mehr haben....
ein G92 wird unter last schon über 80°C heiss...und die 88GTS kühler kann man nicht gerade als unterdimensioniert bezeichnen...

nun stellt man sich mal den doppelten chip im gleichen fertigungsprozess vor...wie will man das bitte kühlen das das ding unter 100°C bleibt?

gibts dann zur graka standardgemäß ne wakü dazu oder wie?

GeneralHanno
2008-02-01, 21:38:25
das kühlen wird nicht das problem sein (der R600 überhitze auch nicht), das problem lautet "silent" ;)

der GT200 (nur der chip) wird wohl eine TDP von bis zu 200W haben.

dargo
2008-02-01, 23:12:27
Ein G92 hat um die 750 Mio Transistoren in 65nm...ein GT200 dürfte schätzungsweise das doppelte oder mehr haben....
ein G92 wird unter last schon über 80°C heiss...und die 88GTS kühler kann man nicht gerade als unterdimensioniert bezeichnen...

Und was hat der G92 jetzt genau mit einem GT200 gemeinsam? Wenn du schon so vergleichst dann darf ich dich daran erinnern, dass ein G80 681 Mio. Transistoren (afaik ohne den zusätzlichen Chip) in 90nm auf die Beine stellt.

der GT200 (nur der chip) wird wohl eine TDP von bis zu 200W haben.
Nun übertreib mal nicht. ;)

Ailuros
2008-02-02, 07:38:46
http://www.fudzilla.com/index.php?op...=5488&Itemid=1.

Fuad behauptet zu wissen das der GT200 Chip in 65nm hergestellt wird und heisser sein wird als 2*G92 im GX2 Verbund.

Wenn jemand mit Absicht irrefuehrt sicher:

http://forum.beyond3d.com/showpost.php?p=1124625&postcount=390

James Ryan
2008-02-02, 07:49:29
Ein G92 hat um die 750 Mio Transistoren in 65nm...ein GT200 dürfte schätzungsweise das doppelte oder mehr haben....
ein G92 wird unter last schon über 80°C heiss...und die 88GTS kühler kann man nicht gerade als unterdimensioniert bezeichnen...

nun stellt man sich mal den doppelten chip im gleichen fertigungsprozess vor...wie will man das bitte kühlen das das ding unter 100°C bleibt?

gibts dann zur graka standardgemäß ne wakü dazu oder wie?

Der G92 ist nur ein halbgarer Shrink!
Ich kann mir vorstellen, dass die GT200 in 65nm kommt, und einen ähnlichen Kühler wie die Gf 8800er Karten haben wird, eventuell mit einer Heatpipe mehr.

Ist übrigens lustig, genau die gleiche Diskussion entstand vor dem G80-Launch. ;D

MfG :cool:

Ailuros
2008-02-02, 07:50:01
Korrekt. Selbst wenn das Die nur leicht größer wird (~ 500 mm²) sind 1,4 Mrd. Transistoren drinne, je nach Design. Und bei solchen Monsterchips und Nvidias bisheriger Politik ist einfach 65 nm das was ich erwarte.

Ich wuerde nur daran denken, wenn ich nicht schon wuesste dass AMD schon bescheid darueber weiss.

Auch ein Half-Node kann kräftig fehlschlagen ... siehe R600.

Es gibt stets um einiges hoehere Chancen dass ein jeglicher Herstellungsprozess (ob half node oder nicht) ins Gesicht knallt, wenn man ihn als erster benutzt.

R520@90nm kam ja durchaus zeitig an; komischerweise kam G80 aber auch auf 90nm an. Merkst Du vielleicht zufaellig einen Trend?

Schlammsau
2008-02-02, 10:42:15
Alles besser gemacht? Die neue ATI-Reihe ist höchstens stromsparender. In diesem Zeitraum (zwischen R600 und RV670) sollte aber in der Regel mehr bei rumkommen als nur Stromsparen.


Hä? Das einzige was in diesem Forum kritisiert wird (zu recht) ist der Idle-Stromverbrauch. Was hat das jetzt mit dem Stromverbrauch bei Last zu tun?

ATI hats unter anderem geschafft mit halbiertem Speicherinterface (von 512 auf 256) teils höhere Frames mit der HD3870 als die 2900 zu liefern.
Der Stromverbrauch ist sehr deutlich gesunken und dann natürlich die dadurch notwendige Kühlung.

Wer hat von dem STromverbrauch unter Last gesprochen???? :|

GeneralHanno
2008-02-02, 11:03:50
Beim lastverbrauch hat ATi ja das problem, dass sie trotz besserem fertigungsprozess, "wesentlich" höhere kernspannungen haben. soweit ich weis arbeitet ATi mit 1,2-1,3V und nvidia nur mit 1,0-1,15V. Dass der verbrauch quadratisch zur spannung steigt, muss ich wohl nicht erwähnen.

ATi vs Nvidia:

- schmale chips (die-size, transistoren-count) vs
breite chips (zumal bei ATi mehr transistoren für chaches draufgehen als bei nvidia)
- hohe taktraten vs niedrige (nvidia kann den kerntakt so niedrig halten, weil 1. die chips breiter sind und 2. die shader separat getaktet werden können)
- fortschrittlicher vs konservativen fertigungsprozess (der alte prozess ist event. ausgereifter, so dass man weniger spannung braucht)

dargo
2008-02-02, 11:29:12
ATI hats unter anderem geschafft mit halbiertem Speicherinterface (von 512 auf 256) teils höhere Frames mit der HD3870 als die 2900 zu liefern.
Der Stromverbrauch ist sehr deutlich gesunken und dann natürlich die dadurch notwendige Kühlung.

1. Die 512Bit SI beim R600 waren eh Blödsinn. Zum Glück hats ATI auch eingesehen.

2. Bei so einem missglückten R600 ist es nicht verwunderlich was ein RV670 leistet. Eine ganz normale Entwicklung. Wobei ich leistungsmäßig vom RV670 eigendlich mehr erwartet hätte.

Schlammsau
2008-02-02, 11:32:46
1. Die 512Bit SI beim R600 waren eh Blödsinn. Zum Glück hats ATI auch eingesehen.

2. Bei so einem missglückten R600 ist es nicht verwunderlich was ein RV670 leistet. Eine ganz normale Entwicklung. Wobei ich leistungsmäßig vom RV670 eigendlich mehr erwartet hätte.

Dafür ist ja jetzt die X2 da! Und wann kommt der R700?

dargo
2008-02-02, 11:45:42
Dafür ist ja jetzt die X2 da!

Wenn da die Sache mit dem CF nicht wäre. SLI/CF ist kein Ersatz für Single-GPU-Grafikkarten.


Und wann kommt der R700?
Der wurde afaik auf 2009 verschoben. :)

4711
2008-02-02, 12:27:52
"Wenn da die Sache mit dem CF nicht wäre. SLI/CF ist kein Ersatz für Single-GPU-Grafikkarten."

Naja mal abwarten auf die NV X²,schlecht gefahren bin ich mit der "alten X²" nicht..und man brauchs Board nicht zu wechseln.wenn die ATI 100 Euronen günstiger wäre würd ichs glatt mal versuchen,soviel Leutchen können sich nicht alle irren.

Schlammsau
2008-02-02, 12:45:40
Wenn da die Sache mit dem CF nicht wäre. SLI/CF ist kein Ersatz für Single-GPU-Grafikkarten.


Wenn der Preis stimmt, für mich schon!

http://www.hardwareschotte.de/hardware/preise/catid_3001173/preis_Radeon+HD+3800+Serie?srt=preis&ctf=1&searchstring=3870+X2&searchrange=cat

LovesuckZ
2008-02-02, 12:53:43
Der Stromverbrauch ist sehr deutlich gesunken und dann natürlich die dadurch notwendige Kühlung.


Er ist für die gebotene Leistung unter LAST jedoch schlechter als der der G92 Karten.
Das rächt sich dann bei der 3870x², die mal locker 70 Watt mehr benötigt als die 8800GTX.

Nakai
2008-02-02, 12:56:01
Er ist für die gebotene Leistung unter LAST jedoch schlechter als der der G92 Karten.
Das rächt sich dann bei der 3870x², die mal locker 70 Watt mehr benötigt als die 8800GTX.

Mhh...70 Watt sind da etwas zuviel, aber du hast schon recht. Das ist aber das allgemeine Problem von Dual-Karten.


mfg Nakai

reunion
2008-02-02, 13:06:26
Er ist für die gebotene Leistung unter LAST jedoch schlechter als der der G92 Karten.


Vollkommen logisch bei den Taktraten und der Spannung. Dafür ist der Chip auch deutlich kleiner.

LovesuckZ
2008-02-02, 13:10:27
Vollkommen logisch bei den Taktraten und der Spannung.

Warum verbrauchte die 7900GTX dann weniger als die 1900XTX? :confused:

Schlammsau
2008-02-02, 13:25:11
Er ist für die gebotene Leistung unter LAST jedoch schlechter als der der G92 Karten.
Das rächt sich dann bei der 3870x², die mal locker 70 Watt mehr benötigt als die 8800GTX.

LAST ist doch gar nicht das Problem! Die X2 verbraucht unter Last ja mehr als die Ultra.
Das Problem ist der Stromverbrauch im Idle. Wieviele Leute machen den Computer nur zum zocken an und danach gleich wieder aus......also ich nicht!
Bei mir läuft der Rechner eigentlich immer wenn ich Zuhause bin. Surfe im Internet, schaue Filme, höre Musik, schreibe meine Steuererklärung, etc.....
Bei den meisten Menschen läuft der Rechner mehr im IDLE als unter LAST.
Kenne das von mir und aus meinem Bekanntenkreis.

Der IDLE Verbauch sollte für jeden der ausschlaggebende Wert sein, wenn ich mich für stromsparende Komponenten entscheiden will!

4711
2008-02-02, 13:28:30
Ihr solltet es endlich mal lassen über Stromverbrauch zu reden im zusammenhang mit Highend Karten und alle neuen Games optimal zu spielen zu können..ein Auto fährt auch nicht 300km/h mit 2 Litern Sprit.

LovesuckZ
2008-02-02, 13:29:53
Das Problem ist der Stromverbrauch im Idle. Wieviele Leute machen den Computer nur zum zocken an und danach gleich wieder aus......also ich nicht!
Bei mir läuft der Rechner eigentlich immer wenn ich Zuhause bin. Surfe im Internet, schaue Filme, höre Musik, schreibe meine Steuererklärung, etc.....
Bei den meisten Menschen läuft der Rechner mehr im IDLE als unter LAST.
Kenne das von mir und aus meinem Bekanntenkreis.

Und? :confused:
Wer sich eine 3870x² kauft, wird wohl auch sehr viel spielen. Ansonsten reiche auch eine Konsole und eine einfachere Karte.


Der IDLE Verbauch sollte für jeden der ausschlaggebende Wert sein!

Richtig. Und wenn man dann mal spielt, explodiert der Rechner, da das Netzteil, Mainboard und andere Bauteile die LAST nicht mehr aushalten.
Nein, das wäre so, als wenn man sich einen Porsche kauft und dann an 10 Tagen im Jahr schnell fahren zu können - der Rest der Zeit lebt man in Tokyo.

Hvoralek
2008-02-02, 13:33:46
ATI hats unter anderem geschafft mit halbiertem Speicherinterface (von 512 auf 256) teils höhere Frames mit der HD3870 als die 2900 zu liefern.Der Unterschied in der Bandbreite ist geringer. Die geringere Bandbreite hat allerdings kaum geschadet, das stimmt. Was sagt das jetzt über RV670 aus? :confused:

Der Stromverbrauch ist sehr deutlich gesunken und dann natürlich die dadurch notwendige Kühlung.Man hat es geschafft, mit einem kleineren Fertigungsprozess den Stromverbrauch bei gleicher Leistung zu senken, Gratulation. Genau das kann man von einem Shrink auch erwarten. In der Hinsicht finde ich eher die mäßige Besserung bei D8P enttäuschend als die bei RV670 besonders toll.

Wer hat von dem STromverbrauch unter Last gesprochen???? :|Das gehört ja wohl zum Stromverbrauch dazu (Und daran ändert sich auch durch noch so viele Satzzeichen nichts). Dass Du imM lieber auf den Verbrauch im Leerlauf blickst, ist klar. Dafür bezieht Nvidia auch völlig zu recht Prügel. Auf die Weise H-SLI vermarkten zu wollen, ist ein Frechheit. Deshalb kann man aber nicht ignorieren, dass RV670 bei gleichem Verbrauch weniger leistet als D8P. Man hat es gerade erst geschafft, Karte zu bauen, die nach fps etwas schneller ist als G80 und dafür sogar mehr Energie braucht als R600 (und das in 55 vs. 90 nm!).

Und wann kommt der R700?Etwas namens "R700" wohl diesen Sommer (RV770- X2). Der ursprünglich geplante R700 entweder 2009 oder (meine Vermutung) gar nicht mehr.

LAST ist doch gar nicht das Problem! Die X2 verbraucht unter Last ja mehr als die Ultra. [...]

Der IDLE Verbauch sollte für jeden der ausschlaggebende Wert sein, wenn ich mich für stromsparende Komponenten entscheiden will!Für die Stromrechnung ist beides wichtig. Wobei die 15-20W, die eine 8800 GT mehr braucht als eine 3870, verglichen mit manchen anderen Geräten ziemlicher Kleinkram sind. Ein Problem kann aber eher der Lastverbrauch werden für Netzteil/ Kühlung.

Schlammsau
2008-02-02, 13:35:05
Und? :confused:
Wer sich eine 3870x² kauft, wird wohl auch sehr viel spielen. Ansonsten reiche auch eine Konsole und eine einfachere Karte.

Das ist totaler Blödsinn!


Richtig. Und wenn man dann mal spielt, explodiert der Rechner, da das Netzteil, Mainboard und andere Bauteile die LAST nicht mehr aushalten.
Nein, das wäre so, als wenn man sich einen Porsche kauft und dann an 10 Tagen im Jahr schnell fahren zu können - der Rest der Zeit lebt man in Tokyo.

Das ist noch grösserer Blödsinn!

Schlammsau
2008-02-02, 13:39:25
Für die Stromrechnung ist beides wichtig. Wobei die 15-20W, die eine 8800 GT mehr braucht als eine 3870, verglichen mit manchen anderen Geräten ziemlicher Kleinkram sind. Ein Problem kann aber eher der Lastverbrauch werden für Netzteil/ Kühlung.

Sicher ist beides wichtig......aber der IDLE Verbrauch ist wichtiger oder sollte es zumindest sein!
es sind knapp 30 Watt, die die GT mehr verbraucht......beim nichts tun!
Es geht hier nicht nur ums Geld, sondern auch um den Umweltgedanken. (nein, ich bin kein Grüner :))

LovesuckZ
2008-02-02, 13:39:33
Das ist totaler Blödsinn!

Nein, soetwas nenne man dann Fehlkauf. Wer seinen Rechner 22h am Tag laufen lässt und nur 2h spielt, wäre mit einer Konsole wesentlich besser bedient - vorallen wenn es um die Senkung des Stromverbrauches ginge.

Das ist noch grösserer Blödsinn!

Wieso? IDLE zeigt nicht den Worst-Case. Was bringt mit ein geringer IDLE-Verbrauch, wenn man Rechner bei LAST dauernd abstürzt? Die Mehrkosten der Anschaffung müssen dabei immer mitbetrachtet werden.

Schlammsau
2008-02-02, 13:49:44
Nein, soetwas nenne man dann Fehlkauf. Wer seinen Rechner 22h am Tag laufen lässt und nur 2h spielt, wäre mit einer Konsole wesentlich besser bedient - vorallen wenn es um die Senkung des Stromverbrauches ginge.
ich z.B. kann absolut gar nichts mit Konsolen anfangen.



Wieso? IDLE zeigt nicht den Worst-Case. Was bringt mit ein geringer IDLE-Verbrauch, wenn man Rechner bei LAST dauernd abstürzt? Die Mehrkosten der Anschaffung müssen dabei immer mitbetrachtet werden.
Man muss natürlich damit rechnen, wenn man eine High End Graka verbaut, auch ein starkes NT zu verbauen.

dargo
2008-02-02, 13:53:21
Ihr solltet es endlich mal lassen über Stromverbrauch zu reden im zusammenhang mit Highend Karten und alle neuen Games optimal zu spielen zu können..ein Auto fährt auch nicht 300km/h mit 2 Litern Sprit.
Naja, so unwichtig ist der Last-Stromverbrauch nun wieder auch nicht. Ich zb. möchte keine Karte haben die bei Last 200-250W verballert (egal wie schnell diese ist). Solange alles im Rahmen bleibt ist es ok. Wobei der Rahmen für viele ziemlich dehnbar ist. :D

Hvoralek
2008-02-02, 13:53:53
Sicher ist beides wichtig......aber der IDLE Verbrauch ist wichtiger oder sollte es zumindest sein!Das kann man mMn nicht pauschal sagen.

es sind knapp 30 Watt, die die GT mehr verbraucht......beim nichts tun!Für mich sind 35W - 19W (http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0) nur 16W.

Es geht hier nicht nur ums Geld, sondern auch um den Umweltgedanken. (nein, ich bin kein Grüner :))15-20W mehr oder weniger sind nicht die Welt. Da würde es sich vlt. eher lohnen, die Platinenherstellung u.ä. unter die Lupe zu nehmen.

Wobei ich sowieso die Auffassung vertrete, dass Energiesparen natürlich sinnvoll ist (Ich würde gerne die Stromsparmechnismen der Notebookfassungen beim Desktop- D8P sehen), der wichtigere Ansatzpunkt aber die Energieerzeugung.

Gast
2008-02-02, 13:55:04
Sicher ist beides wichtig......aber der IDLE Verbrauch ist wichtiger oder sollte es zumindest sein!
es sind knapp 30 Watt, die die GT mehr verbraucht......beim nichts tun!
Es geht hier nicht nur ums Geld, sondern auch um den Umweltgedanken. (nein, ich bin kein Grüner :))

Sind es NICHT. Es sind ca. 18 Watt
Sicher wird es streuungen geben bei Messungen. Aber 30 Watt niemals.

dargo
2008-02-02, 13:59:20
Sicher ist beides wichtig......aber der IDLE Verbrauch ist wichtiger oder sollte es zumindest sein!
es sind knapp 30 Watt, die die GT mehr verbraucht......beim nichts tun!
Es geht hier nicht nur ums Geld, sondern auch um den Umweltgedanken. (nein, ich bin kein Grüner :))
Ähm, ich weiß zwar nicht wie du zu diesen 30W kommst, aber bei mir sind es knapp 16W mehr für die GT gegenüber einer HD3870:
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html

Und laut Gerüchten soll die G9600GT endlich einen echten 2D Stromsparmodus haben. Vielleicht wirkt sich das auch auf die zukünftige G9800GTX aus, eventuell nachträglich sogar für die GT/GTS.

Hvoralek
2008-02-02, 14:03:23
Und laut Gerüchten soll die G9600GT endlich einen echten 2D Stromsparmodus haben. Vielleicht wirkt sich das auch auf die zukünftige G9800GTX aus, eventuell nachträglich sogar für die GT/GTS.Hardwareseitig könnte das möglich sein (siehe 8800 GTX-M). Wenn sich die Funktionen aber einfach über einen Treiber freischalten ließen, hätte Nvidia das wohl nach Erscheinen des RV670 bald getan.

dargo
2008-02-02, 14:04:17
Nein, soetwas nenne man dann Fehlkauf. Wer seinen Rechner 22h am Tag laufen lässt und nur 2h spielt, wäre mit einer Konsole wesentlich besser bedient - vorallen wenn es um die Senkung des Stromverbrauches ginge.

Das ist nur die halbe Wahrheit. :)

Nutzt der Konsolero einen Fernseher/LCD bzw. Plasma ist man beim Display ganz schnell (je nach Gerät) bei + 100-200W. Wenn da noch zusätzlich eine dicke Surround-Anlage dazu kommt wirds ganz böse. :D

Ok, unter gleichen Vorraussetzungen ist man bei Last mit einer Konsole sparsamer. Bei Idle wäre ich mir da aber nicht so sicher. Aber wann idlet schon eine Konsole? :D

Gast
2008-02-02, 14:05:45
Naja, so unwichtig ist der Last-Stromverbrauch nun wieder auch nicht. Ich zb. möchte keine Karte haben die bei Last 200-250W verballert (egal wie schnell diese ist). Solange alles im Rahmen bleibt ist es ok. Wobei der Rahmen für viele ziemlich dehnbar ist. :D
Der Rahmen muss ja auch gedehnt werden, wenn es voran gehen soll. Bis jetzt musste der Rahmen immer erweitert werden trotz fortgeschrittener Technologie. Wenn man bedenkt, dass man schon bei 65 und 55 nm angekommen ist und der nächste Schritt 45 nm oder höchstens 32 nm sein wird, ist es klar, dass der Verbrauch sich bei z.B. Verdoppelung der Leistung erhöhen muss. Das kann die Technologie nur lindern aber nicht vollständig kompensieren. nV hat ja schon verglichen zu Amd einen richtig gut optimierte Architektur bzgl. Leistung/Verbrauch-Verhältnis, glaube kaum, dass das noch ausbaufähig ist. 200 Watt sind eigentlich auch nicht wirklich viel, selbst 300 Watt nicht. Das Problem könnte die Kühlung geben. Man müsste endlich zu Triple-Slot oder noch mehr Kühllösungen übergehen, dann dürfte das auch kein Problem. Wird zwar teurer als bisher werden, aber wenn man sich an die Schallmauer ranwagt bzw. diese durchbrechen will, steigt halt der Aufwand.

LovesuckZ
2008-02-02, 14:06:01
Nutzt der Konsolero einen Fernseher/LCD bzw. Plasma ist man beim Display ganz schnell (je nach Gerät) bei + 100-200W. Wenn da noch zusätzlich eine dicke Surround-Anlage dazu kommt wirds ganz böse. :D

Kann ich auch alles mit meinem PC. Oder eben auch mit einer Konsole die selben Vorraussetzungen schaffen: Selbe Anlage, selbes Ausgabegrät.

Schlammsau
2008-02-02, 14:08:13
Ähm, ich weiß zwar nicht wie du zu diesen 30W kommst, aber bei mir sind es knapp 16W mehr für die GT gegenüber einer HD3870:
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html

Und laut Gerüchten soll die G9600GT endlich einen echten 2D Stromsparmodus haben. Vielleicht wirkt sich das auch auf die zukünftige G9800GTX aus, eventuell nachträglich sogar für die GT/GTS.

....jede Seite, hat andere Ergebnisse.
Laut dem letzten Test von CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/28/#abschnitt_leistungsaufnahme).... verbraucht ein Gesamtsystem mit der GT, 30 Watt mehr im Idle als mit der 3870.
http://www.abload.de/img/1w0foo.jpg

dargo
2008-02-02, 14:09:18
Laut dem letzten Test von CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/28/#abschnitt_leistungsaufnahme)....
http://www.abload.de/img/1w0foo.jpg
CB misst an der Steckdose und den gesamten Verbrauch. Nicht wirklich informativ.

LovesuckZ
2008-02-02, 14:11:16
Laut dem letzten Test von CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/28/#abschnitt_leistungsaufnahme)....
http://www.abload.de/img/1w0foo.jpg

http://www.hardware.fr/medias/photos_news/00/21/IMG0021867.gif
http://www.hardware.fr/articles/701-2/dossier-amd-radeon-hd-3870-x2.html

http://images.anandtech.com/graphs/atiradeonhd3870x2_012708225732/16453.png
http://www.anandtech.com/video/showdoc.aspx?i=3209&p=12

Und nun? :confused:

Schlammsau
2008-02-02, 14:13:17
tja, welchem Test glaubt man jetzt nun???

dargo
2008-02-02, 14:15:18
tja, welchem Test glaubt man jetzt nun???
Dem von xbitlabs. Gesamtverbräuche an der Steckdose sind für den Popo. :wink:
Außerdem sollte man nicht vergessen, dass es leichte Serienstreuungen gibt. Natürlich keine mit +/-15W.

mike49
2008-02-02, 14:47:21
Dem von xbitlabs. Gesamtverbräuche an der Steckdose sind für den Popo. :wink:

Wieso denn das?

Hast Du mit deinem Stromversorgung etwa einen Deal, die Effizienzverluste durch das NT nicht mit bezahlen zu müssen sondern nur den 'nackten' Stromverbrauch der Karte?

dargo
2008-02-02, 15:01:30
Wieso denn das?

Weil wir hier Karte X mit Karte Y vergleichen und nicht den Rechner X mit Rechner Y.

Schlammsau
2008-02-02, 15:25:00
Weil wir hier Karte X mit Karte Y vergleichen und nicht den Rechner X mit Rechner Y.

es ist immer das gleiche System, nur die Graka wird ausgetauscht.
Also ist der Test für mich schon relevant!
Ich glaube auch, dass CB weiss was sie tun! Irgendwo hab ich auch mal gelesen, dass es fast unmöglich sei den Stromverbrauch der Karte einzeln zu ermitteln.

Gast
2008-02-02, 15:32:06
http://www.hardware.fr/medias/photos_news/00/21/IMG0021867.gif
http://www.hardware.fr/articles/701-2/dossier-amd-radeon-hd-3870-x2.html

http://images.anandtech.com/graphs/atiradeonhd3870x2_012708225732/16453.png
http://www.anandtech.com/video/showdoc.aspx?i=3209&p=12

Und nun? :confused:


Laut aktuellem Test der ct (Verbrauch nur der Karten):

8800GT idle: 35W - 38W
3870 idle: 21W - 26W
3850 idle: 14W - 22W

Gast
2008-02-02, 15:33:56
Irgendwo hab ich auch mal gelesen, dass es fast unmöglich sei den Stromverbrauch der Karte einzeln zu ermitteln.

Wieso sollte das unmöglich sein? Es erfordert halt entsprechendes Equipment und das ist nicht ganz billig.

mike49
2008-02-02, 15:44:58
Weil wir hier Karte X mit Karte Y vergleichen und nicht den Rechner X mit Rechner Y.

:confused:

Computerbase macht die Messungen doch immer mit dem gleichen Rechner, die einzige Variable ist die Grafikkarte. Ergo zeigt der Test, wie stark der Stromverbrauch auf einer typischen Systemumgebung in Abhängigkeit von der verwendeten Grafikkarte variiert.

Und komm mir jetzt bitte nicht mit irgendwelchen theoretischen Verbrauchsmessungen. Letztlich zählt nämlich nur, wieviel Strom eine Grafikkarte in einer typischen Systemumgebung de facto aus der Steckdose zieht und nichts anderes. Genau das mißt CB und genau dafür zahlen wir auch unsere Stromrechnungen!

Schlammsau
2008-02-02, 15:47:59
:confused:

Computerbase macht die Messungen doch immer mit dem gleichen Rechner, die einzige Variable ist die Grafikkarte. Ergo zeigt der Test, wie stark der Stromverbrauch auf einer typischen Systemumgebung in Abhängigkeit von der verwendeten Grafikkarte variiert.

Und komm mir jetzt bitte nicht mit irgendwelchen theoretischen Verbrauchsmessungen. Letztlich zählt nämlich nur, wieviel Strom eine Grafikkarte in einer typischen Systemumgebung de facto aus der Steckdose zieht und nichts anderes. Genau das mißt CB und genau dafür zahlen wir auch unsere Stromrechnungen!

jepp so ist es!
Aber was man noch beachten sollte ist die Tatsache, dass manche Hersteller ihre HD38xx im Idle nicht runtertakten lassen. Wie Powercolor mit ihrer HD38xx PCS Serie..... (nur durch verändern des BIOS, taktet die Karte im Idle runter und verbraucht dann über 10Watt weniger)
Hat die testende Seite so ein Model erwischt, ist der ganze Test fürn "Arsch". Weil die "normalen" Karten immer heruntertakten.
Warum manche Hersteller so verfahren, kann ich nicht beantworten.

Hvoralek
2008-02-02, 15:54:30
....jede Seite, hat andere Ergebnisse.Gibt es außer CB auch noch jemanden mit 30 statt 15W?

Gast
2008-02-02, 16:00:21
:confused:

Computerbase macht die Messungen doch immer mit dem gleichen Rechner, die einzige Variable ist die Grafikkarte. Ergo zeigt der Test, wie stark der Stromverbrauch auf einer typischen Systemumgebung in Abhängigkeit von der verwendeten Grafikkarte variiert.



Nein, es ist nicht immer der gleiche Rechner, oder auf welchem Rechner willst du Crossfire und SLI betreiben können?
Nur für Einzelkarten ist es der gleiche Rechner.

mike49
2008-02-02, 16:13:14
Nein, es ist nicht immer der gleiche Rechner, oder auf welchem Rechner willst du Crossfire und SLI betreiben können?
Nur für Einzelkarten ist es der gleiche Rechner.
Und um was geht es hier gerade?

Richtig: Einzelkarten! ;)

Schlammsau
2008-02-02, 16:13:51
Nein, es ist nicht immer der gleiche Rechner, oder auf welchem Rechner willst du Crossfire und SLI betreiben können?
Nur für Einzelkarten ist es der gleiche Rechner.

Es ist kein CF/SLI Test ;)

@Computerbase

Testsystem:

* Prozessor
o Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)
* Motherboard
o Asus Striker Extreme (Nvidia nForce 680i) Haupt-Testplatine und für SLI-Systeme
o Asus P5W DH Deluxe (Intel i975X) für CrossFire-Systeme



wenn ich das jetzt richtig deute, wurde der Test auf einem Asus Striker Extreme gemacht oder?

laser114
2008-02-02, 16:20:27
wenn ich das jetzt richtig deute, wurde der Test auf einem Asus Striker Extreme gemacht oder?

Korrekt, so ist es auch.

dargo
2008-02-02, 16:20:57
:confused:

Computerbase macht die Messungen doch immer mit dem gleichen Rechner, die einzige Variable ist die Grafikkarte. Ergo zeigt der Test, wie stark der Stromverbrauch auf einer typischen Systemumgebung in Abhängigkeit von der verwendeten Grafikkarte variiert.

Und komm mir jetzt bitte nicht mit irgendwelchen theoretischen Verbrauchsmessungen. Letztlich zählt nämlich nur, wieviel Strom eine Grafikkarte in einer typischen Systemumgebung de facto aus der Steckdose zieht und nichts anderes. Genau das mißt CB und genau dafür zahlen wir auch unsere Stromrechnungen!
Du verstehst es immer noch nicht oder? :)

Ich will wissen wieviel Leistung jede Graka verbraucht. Und dafür sind die Werte von xbitlabs ausschlaggebend. Denn nur da werden ausschließlich die Grafikkarten gemessen. Was ich später bezahle kann ich mir selbst ausrechnen. Schließlich kenne ich die Effizienz meines NTs.

Und wie du auf theoretische Verbrauchsmessungen kommst ist mir auch schleierhaft. Das sind Praxis-Werte, eben nur der Grafikkarten. Diese können nichts dafür, dass dein NT keine Effizienz von 100% liefern kann.

Odal
2008-02-02, 16:32:10
es ist immer das gleiche System, nur die Graka wird ausgetauscht.
Also ist der Test für mich schon relevant!
Ich glaube auch, dass CB weiss was sie tun! Irgendwo hab ich auch mal gelesen, dass es fast unmöglich sei den Stromverbrauch der Karte einzeln zu ermitteln.


naja möglich ist das schon das beweist ja xbit labs
als technische information auch durchaus interessant...für den anwender ist es aber wichtig was der rechner aus der dose saugt...nur lässt sich das nicht so einfach übertragen da jedes system eine andere energieeffizienz aufweisst..

beim einen sind 20Watt mehrverbrauch durch die grafikkarte 25Watt mehr die der rechner aus der dose zieht und beim anderen sind das vielleicht sogar 35 watt...

ist eben ne schwierige angelegenheit den mehrverbrauch pauschal zu bewerten

Gast
2008-02-02, 17:31:26
Warum macht ihr euch bei 25Watt in die Hose... kauft euch ne Energiesparlampe und dann darf auch die stärkere Graka in den PC *g
Außerdem ist es doch Hirnrissig, an der Graka sparen zu wollen aber die CPU an die Kante hin zu übertakten... War die CPU da eigentlich in irgend einem Stromsparmodus? Dynamisches OC bei den Mainboards ausgeschaltet?
Was wenn eine Graka den PCIe Bus voll ans Versorgungslimit fährt und dann erst die Anschlüsse direkt am Netzteil nutzt und die andere Karte es genau andersrum macht und sich nur über die externen Anschlüsse versorgt? Muss man dann einen "Wirkungsgrad" vom Mainboard mit einrechen oder wie?

nomadhunter
2008-02-02, 18:08:27
Heutige CPUs haben schon traumhafte Stromsparfunktionen. Wenn alles richtig funktioniert (was normalerweise der Fall ist, wenn man nicht gerade an den Spannungen rumfummelt), braucht ein aktueller C2D oder X2 etwa 5 Watt. Davon ist selbst die 3850 mit ihren 13,5 Watt noch meilenweit entfernt, die 8800 GT braucht im Idle mit 35 Watt so viel wie 7 (!) aktuelle Mittelklasse-CPUs. Und das, obwohl man den Idle-Verbrauch mit einfachen Mitteln wohl problemlos in Richtung 10 Watt drücken könnte. Dass da gemeckert wird, sollte klar sein. Z.B. beim Standby-Verbrauch von Monitoren, Fernsehern, ... meckert man über wesentlich kleinere Beträge (heutzutage meist 1-2 Watt).

AnarchX
2008-02-02, 18:13:00
Alles eine Kostenfrage, eine wohl nicht wirklich billige 8800M-GTX vebraucht im Idle ~5W (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6041420#post6041420).
Ein wohl relativ gut selektierter Die, eine hocheffiziente Stromversorgung und zusätzliche Logik um den GDDR teilweise abzuschalten und schon sind solche traumhaften Werte auch bei einer GraKa möglich. ;)

Hier könnte Steam eigentlich mal eine Umfrage starten und herausfinden, wie sehr sich High-End-Besitzer für die Energieeffizienz ihrer HW interessieren...

LovesuckZ
2008-02-02, 18:15:49
Sry, aber der Vergleich CPU - Grafikkarte ist doch vollkommen lächerlich. Es gibt nicht nur die GPU, sondern eine ganze Platine mit Speicher.
Wenn du schon vergleichen möchtest, dann bitte CPU, Speicher und Motherboard.

nomadhunter
2008-02-02, 18:16:12
@AnarchX:
Deswegen sage ich ja, um die 10 Watt sollten auch mit wesentlich einfacheren Methoden drin sein (Spannungs-/Taktsenkung, Abschalten von Chipteilen, all das muss der G92 ja eh schon können, sonst könnte er nicht in NBs verwendet werden).

AnarchX
2008-02-02, 18:20:23
Dass es möglich ist zeigt ja ATi mit der 3850 @13W Idle (http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_13.html#sect0).

Dass GF8 soetwas nicht bietet ist eine politische Entscheidung und vielleicht NVs Einschätzung von den Ansprüchen des Marktes.

Aber wie es aussieht wird wohl NV ab GF9 kontern/sich anders ausrichten und das nicht nur mit HybridPower, sodass GT200 wohl auch doch einen vernünftigen Verbrauch aufweisen wird.

mike49
2008-02-02, 21:30:52
Ich will wissen wieviel Leistung jede Graka verbraucht. Und dafür sind die Werte von xbitlabs ausschlaggebend. Denn nur da werden ausschließlich die Grafikkarten gemessen. Was ich später bezahle kann ich mir selbst ausrechnen. Schließlich kenne ich die Effizienz meines NTs.

Und wie du auf theoretische Verbrauchsmessungen kommst ist mir auch schleierhaft. Das sind Praxis-Werte, eben nur der Grafikkarten. Diese können nichts dafür, dass dein NT keine Effizienz von 100% liefern kann.
Das sehe ich etwas anders:

Was Du möchtest sind rein theoretische Werte, in der Praxis zählt was hinten rauskommt (= Verbauch an der Steckdose).

Und ob ein NT jetzt 80% oder 85% Effizienz hat ist dabei so ziemlich sch...egal. Auf jeden Fall sind diese Werte deutlich praxisnäher, da sie den tatsächlichen Verbrauch verschiedener Grafikkarten unter ansonsten exakt gleichen Bedingungen (Board, NT etc..) widerspiegeln.

nomadhunter
2008-02-02, 23:50:19
Das Problem ist, dass solche Komplettmessungen viel stärkeren Schwankungen unterliegen. Kannst du ja selber sehen. Der Unterschied zwischen der 3870 und 8800 GT im Idle schwankt ungefähr zwischen 15 und 30 Watt, wenn man an der Steckdose misst. Genauso beim Lastvergleich zwischen den beiden Karten. In manchen Tests wurde der Verbrauch der 8800 GT als etwas höher als der der 3870 angegeben, obwohl die 8800 GT in Wirklichkeit weniger verbraucht.

Wenn du unbedingt realitätsgetreue Messungen haben willst, dann nimm die Werte von Xbit-labs und teile sie je nach Effizienz deines Netzteil durch 0,75 bis 0,85.

Paul Brain
2008-02-03, 04:01:23
Das sehe ich etwas anders:

Was Du möchtest sind rein theoretische Werte, in der Praxis zählt was hinten rauskommt (= Verbauch an der Steckdose).

Und ob ein NT jetzt 80% oder 85% Effizienz hat ist dabei so ziemlich sch...egal. Auf jeden Fall sind diese Werte deutlich praxisnäher, da sie den tatsächlichen Verbrauch verschiedener Grafikkarten unter ansonsten exakt gleichen Bedingungen (Board, NT etc..) widerspiegeln.
Ich sehe das aber auch wieder anders als Du... ;)
Z.B. möchte ich den Stromverbrauch der Grafikkarte exakt kennen, um abschätzen zu können, wieviel A mein Netzteil auf welcher Leitung liefern muß, um das System stabil betreiben zu können. Oder andersrum: Ich hab ein Netzteil und will wissen, ob sich die Graka in dem System noch "ausgeht", oder ob auch ein neues NT fällig wäre.

Ailuros
2008-02-03, 09:51:19
Darf ich fragen was die letzten paar Seiten mit dem H2 2008 chip genau zu tun haben? :biggrin:

dargo
2008-02-03, 09:53:59
Darf ich fragen was die letzten paar Seiten mit dem H2 2008 chip genau zu tun haben? :biggrin:
Ach Ail, ein paar Diskussionen außerhalb vom Thema lassen sich manchmal nicht vermeiden. :)

Ailuros
2008-02-03, 10:14:28
Ach Ail, ein paar Diskussionen außerhalb vom Thema lassen sich manchmal nicht vermeiden. :)

Passiert mir selber oefters als ich es selber lieb habe. Abgesehen davon hat die Leistung pro Watt Rate fuer G200 im Vergleich zu G9x/8x genauso viel gemeinsam wie G8x vs. G7x.

Gast
2008-02-03, 14:07:02
Passiert mir selber oefters als ich es selber lieb habe. Abgesehen davon hat die Leistung pro Watt Rate fuer G200 im Vergleich zu G9x/8x genauso viel gemeinsam wie G8x vs. G7x.
Also kann man annehmen, daß nV noch Potential hat und das Verhältnis noch weiter aufbessert? Das wäre natürlich genial. falls das möglich ist.
Dann wäre evtl. doch 2,5 bis 3 fache Leistung einer 8800 GTX bei annähernd gleichem Verbrauch möglich. Da muß sich Amd aber warm anziehen oder es kommt wieder ein Konterchip in der "Qualität" eines R600 raus, nur daß diesmal dann der Previewriesenkühler wirklich als Stock Cooling Lösung gebraucht wird. ;D

GeneralHanno
2008-02-03, 15:01:27
Man darf keine Wunder erwarten, aber wenn man den GT200 mit der 9800GX2 vergleicht. Letztere wird sicher 225W TDP haben und leistungsmäßig bei 1,2xULTRA liegen. Der GT200 wird mit einer ähnlichen TDP (für die gesammte Karte, nicht nur die GPU), vermutlich 2xULTRA schaffen ;)

Hvoralek
2008-02-03, 18:45:59
Also kann man annehmen, daß nV noch Potential hat und das Verhältnis noch weiter aufbessert? Das wäre natürlich genial. falls das möglich ist.Gegenüber G80 würde ich zumindest die doppelte Pro- Watt- Leistung erwarten, allein schon durch den Fertigungsprozesswechsel. Das Erstaunliche an G80 war ja die erhebliche Steigerung der Pro- Watt- Leistung auf dem gleichen Fertigungsprozess. Das wird sich wohl kaum wiederholen.

Gast
2008-02-03, 22:06:06
Warum nicht? Haben wir doch schon vorher immer wieder gesehen das das geht... bei beiden Herstellern und in anderen Bereichen auch.
Man sollte lieber mal etwas mehr einsetzbare Features in die D3D Spec oder in die Chips integrieren. CSAA is ja ganz nett genauso TS/MSAA, aber wenn man sieht im vgl. zu Konsolen, was PC Grakas an Leistungsüberschuss haben. Und dann "nur" in AA (AF kostet ja nix mehr mittlerweile) umwandeln und Shadereffekte bis zum Flimmmern, frage ich mich doch, wohin uns die Softwareentwickler treiben.
Und warum der US Markt immer noch als der wichtigste gilt, wenn in Europa auch Millionen Absätze erzielt werden können (siehe Crysis, PS3, Filme die in USA floppen und bei uns gut gehen).

Ich hoffe auf genug brachiale Leistung des GT200, das Crysis ins max.Details rennen kann. Was wohl aktuell an zu vordernden Shadern liegt, das dem nicht so ist? Sonst noch ein Stück Software im Umlauf bzw in der Entwicklung das eine GT200 ins Schwitzen bringen könnte? FarCry2 auf der GC2007 lief auf einer 8800GTX schon flüssig ohne QuadCore...
Hardware für die es keine Software gibt, wäre im Nov08 evtl. schwer zu verkaufen wenn die G80/G92 Serie immer noch genügt für 99% aller Spiele.

Hvoralek
2008-02-04, 00:59:02
Warum nicht? Haben wir doch schon vorher immer wieder gesehen das das geht... bei beiden Herstellern und in anderen Bereichen auch.Eine großartige Verbesserung der Energieeffizienz ohne Prozesswechsel gab es, ja, aber selten. Wo denn noch in letzter Zei? Conroe. Und sonst? Ich wäre erstaunt, wenn Nvidia da nach so kurzer Zeit noch einmal einen erheblichen Sprung schaffen sollte. Keine großen Änderungen an der Energieeffizienz der Architektur würden in 55 nm immer noch ungefähr dreifache G80- Leistung bei nur etwas höherem Stromverbrauch bedeuten. Viel mehr (also z.B. dreifache Leistung bei weniger Verbrauch) zu fordern, wäre vermessen.

=Floi=
2008-02-04, 02:26:32
X3 ist ja eh ausreichend und man muß ja auch mal sehen, WO die leistungssteigerung zum tragen kommt. Es wäre schön, wenn NV noch weiter das (TAA) 4XAA und das 8XAA aufbohren würden. In den indirekten bereichen liegt auch noch handlungsbedarf. (1,5-2 gb vram, 3X HDMI oder 2X HDMI und 1X DVI, stromsparfunktionen in 2D, SLI für alle chipsätze und den kompletten traffic über die bridges)

Ailuros
2008-02-04, 05:40:48
Eine großartige Verbesserung der Energieeffizienz ohne Prozesswechsel gab es, ja, aber selten. Wo denn noch in letzter Zei? Conroe. Und sonst? Ich wäre erstaunt, wenn Nvidia da nach so kurzer Zeit noch einmal einen erheblichen Sprung schaffen sollte. Keine großen Änderungen an der Energieeffizienz der Architektur würden in 55 nm immer noch ungefähr dreifache G80- Leistung bei nur etwas höherem Stromverbrauch bedeuten. Viel mehr (also z.B. dreifache Leistung bei weniger Verbrauch) zu fordern, wäre vermessen.

Korrekt.

Es wäre schön, wenn NV noch weiter das (TAA) 4XAA und das 8XAA aufbohren würden.

Es ist noch viel zu frueh ueber solche Einzelheiten bescheid zu wissen, aber persoenlich erwarte ich keine allzu grossen Aenderungen bis zu D3D11 was den AA Algorithmus betrifft. Mir waere es sowieso lieber wenn sie sich weiterhin auf die Effizienz und Flexibilitaet von CSAA konzentrieren wuerden.

Was jetzt den Rest betrifft, waere es eher wuenschenswert wenn ISVs nicht so viel Resourcen fuer jegliches Spiel so freiherzig verplempern wuerden. Beispiel waere Assasin's Creed dass fuer den PC Port =/>2GB (System-)Speicher verplempern soll; wenn ich bedenke mit wie viel Speicher ein Spiel auf PS3 oder XBox360 auskommen muss, hapert es irgendwo an der gesamten Geschichte. Es ist mir zwar bewusst dass die PC Version hoechstwahrscheinlich mehr Details abbekommt, aber nein der Unterschied im Speicherverbrauch ist auf keinen Fall gerechtfertigt. Es riecht einfach verdaechtig nach einem miesen Port.

Ich hoffe auf genug brachiale Leistung des GT200, das Crysis ins max.Details rennen kann. Was wohl aktuell an zu vordernden Shadern liegt, das dem nicht so ist? Sonst noch ein Stück Software im Umlauf bzw in der Entwicklung das eine GT200 ins Schwitzen bringen könnte? FarCry2 auf der GC2007 lief auf einer 8800GTX schon flüssig ohne QuadCore...

Irgendwie hab ich das Gefuehl dass ein Spiel wie Crysis nicht nur mit zusaetzlicher GPU-Arithmetik allein zufrieden sein wird. Natuerlich kommen mit der Zeit hoffentlich auch ein paar Patches die vielleicht ein paar Einzelheiten zurecht biegen koennen. Es geht ja nicht nur um Crysis; es war in der Vergangenheit auch oefters der Fall dass man Spiel A oder B einfach zur Tuer rausdruecken musste und sich dann nach dem Release mit Einzelheiten beschaeftigte. Battlefield 2 war eins der Beispiele wo bis zu den ersten Patches das Ding Speicher bis zum geht nicht mehr schluckte.

Versteht mich nicht falsch, aber bis zum Punkt wo es endlich mal wieder zu wahren Innovationen kommt was gameplay und storyline in einem Spiel kommt, werde ich persoenlich nicht so leicht begeistert sein, egal ob ein Spiel jetzt mir tonnenweise Gruenzeug ins Gesicht schmiert, oder jeder verdammte Felsen bis zum geht nicht mehr glaenzt damit auch jeder blinde sehen kann dass man X Shader verwendet hat.

=Floi=
2008-02-04, 07:41:39
ich meinte nur die geschwingigkeit von aa. Beim algorythmus kenne ich mich zu wenig aus aber bei thema hast du recht und hier wäre sicherlich auch noch viel potential.

Ich bin mit den innovationen von crysis schon zufrieden

GeneralHanno
2008-02-04, 07:46:38
mehr MS-AA speed? mehr ROPs, speicherbandbreite und speichermenge ;)

wenn die GT200 DX10.1 unterschützen soll, dann muss der AA-algo aber imo modifiziert werden, oder ?!

Gosh
2008-02-04, 08:01:13
Sollte Dx10.1 das AA nicht immer möglich machen,egal welche Dreckseffekte aktiviert sind ?

Chris Lux
2008-02-04, 10:43:36
Sollte Dx10.1 das AA nicht immer möglich machen,egal welche Dreckseffekte aktiviert sind ?
in dem ton wirst du hier nicht lange spass haben.

mit D3D10.1 wird es moeglich AA auch in faellen, in denen es heute nicht moeglich ist, zu unterstuetzen. dazu muss aber die software speziell angepasst werden. es ist nicht ohne weiteres einfach so dazuschaltbar.

laser114
2008-02-04, 11:12:10
Fud behauptet, die TDP läge bei 250 Watt für eine GT200-Karte:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5519&Itemid=1

(8800 GTX war 175 Watt)

nomadhunter
2008-02-04, 12:21:39
Wenn das TDP/Real-Verhältnis wie bei der GTX bleibt, wären das ~188W. Für vermutlich 3-fache Leistung IMHO noch in Ordnung. Mir wär das zu viel, aber es kommt ja bestimmt irgendwann noch eine Performance-Karte mit 8800GT-Verlustleistung aber 1,5-2x GTX-Leistung.

Gosh
2008-02-04, 12:27:00
Könnt froh wenn die Karte doppelte Leistung in normalen Auflösungen hat. 3 fach is irgendein Benchmark oder in 25xx Auflösung

nomadhunter
2008-02-04, 12:45:54
Bei vermutlich 2,5x so vielen Transistoren wäre es IMHO peinlich, wenn man nicht (in realen Anwendungen!) mindestens 3x G80-Leistung erreicht. Immerhin muss man ja auch fast keine Transistoren für neue Features ausgeben. DX10.1 kann G80 wahrscheinlich eh schon halb, und der Rest werden kaum ein paar Millionen Transistoren sein.

Nightspider
2008-02-04, 13:53:14
Hoffentlich bringen sie diesmal eine Wakü zu ertragenden Preisen oder einen sehr großen LuKü mit zusätzlichem Wakü-Anschluss wie bei manchen teuren Mainboards derzeit...

K4mPFwUr$t
2008-02-04, 14:11:32
und hoffentlich wird das speichermanagement besser als bei der GF8 :eek:
denn das ist mit momentan ein con für nV.

Gast
2008-02-04, 14:18:26
Fud behauptet, die TDP läge bei 250 Watt für eine GT200-Karte:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5519&Itemid=1

(8800 GTX war 175 Watt)
Macht Sinn. Man kann sich ja als Referenz mal die 8800 GTS 512 vornehmen. Auch in 65 nm gefertigt und knapp so schnell wie eine GTX. Computerbase hat für das Gesamtsystem mit der GTS 268 Watt und 300 mit einer GTX gemessen. Bei gleichem Testaufbau dürfte die Wirkungsgradveränderung des Netzteils durch die minimale unterschiedliche Auslastung nur geringfügig reinspielen. Man sieht, soviel Ersparnis hat es nicht gebracht, zumal die GTX noch mehr Speicher hat - das kann ja auch noch mal 5 bis 10 Watt Mehrverbrauch ausmachen.
Da kann man froh sein, wenn am Ende mit dem GT200 wirklich die doppelte Leistung in Spielen gegenüber einer GTX rauskommt. Der Chip schreit gerade danach direkt in 45 nm gefertigt zu werden. Hoffentlich dauert diesmal der Shrink nicht solange wie beim G80 zu G90.

Gosh
2008-02-04, 14:30:17
und hoffentlich wird das speichermanagement besser als bei der GF8 :eek:
denn das ist mit momentan ein con für nV.

und der 2D Verbrauch muß runter,es kann ned sein dass die Karte beim surfen 200W zieht :mad:

Gast
2008-02-04, 14:42:32
und der 2D Verbrauch muß runter,es kann ned sein dass die Karte beim surfen 200W zieht :mad:
Diesmal muss nV was tun. Denn der 3D Verbrauch wird wahrscheinlich noch "nen Tick" höher sein als bei einer GTX und damit auch der Idle Verbrauch ohne Takt- und Spannungsabsenkung hoch sein. Dann könnte die Karte mehr als 100 Watt im Idle ziehen. Das wäre natürlich ein sehr gutes Argument für hSLi. ;D
Ich hoffe nV ist nicht so gemein und bietet trotzdem diesmal eine Idleenergiesparlösung an.
Müssen tun sie es natürlich nicht, aber es wäre eine nette Geste.

nomadhunter
2008-02-04, 15:58:21
Da kann man froh sein, wenn am Ende mit dem GT200 wirklich die doppelte Leistung in Spielen gegenüber einer GTX rauskommt.
Was soll das? GT200 hat vermutlich mindestens 2,5x so viele Transistoren wie G80 und wird mindestens einen (65nm), vermutlich aber eher zwei (55nm) Fertigungsprozesse kleiner als G80 gefertigt. Das kann gar nicht nur 2x so viel Mehrleistung werden. Für was haut NV denn deiner Meinung nach die ganzen Transistoren raus? Für das bisschen DX10.1 sicher nicht.

LovesuckZ
2008-02-04, 15:59:29
Wären es nicht maximal drei?

K4mPFwUr$t
2008-02-04, 16:22:06
wegen dem 2D/3D modus.
die beste variante wäre mit clockrates runter (GPU, shader und RAM), voltage runter und besonders chipteile abstellen die nicht benötigt werden.

besonders letzteres sollte sich bemerkbar machen. da die chips immer größer werden müssen immer mehr transistoren auch im sparmodus mit saft versorgt werden, auch wenn diese nicht benötigt werden. es wird also einen unterschied geben zwischen nur voltage + clocks gegenüber der mit chipteil-abstellung.

Gast
2008-02-04, 17:14:54
Was soll das? GT200 hat vermutlich mindestens 2,5x so viele Transistoren wie G80 und wird mindestens einen (65nm), vermutlich aber eher zwei (55nm) Fertigungsprozesse kleiner als G80 gefertigt. Das kann gar nicht nur 2x so viel Mehrleistung werden. Für was haut NV denn deiner Meinung nach die ganzen Transistoren raus? Für das bisschen DX10.1 sicher nicht.
Naja, durchgehend doppelte Mehrleistung gegenüber einer 8880 GTX ist schon kein Pappenstiel. Wenn in Crysis diese Leistung, falls nicht gerade die CPU limitiert, umgesetzt werden könnte, wäre das sehr gut.
Und ich ging ja auch von der Annahme aus, dass er in 65 nm gefertigt wird und nahm als Anhaltspunkt eine 8800 GTS 512. Da ja vermutlich keine großartige architekturbedingte Effizienzsteigerung mehr gegenüber G90 stattfinden wird, bleibt nur der Fertigungsprozess als Sparfaktor. Und mit der Feststellung, dass eine GTS 512 mit 32 Watt Entlastung unter Last gegenüber einer GTX beim gemessenen Gesamtsystem beiträgt (laut computerbase) aber dabei unter AA und AF meistens unter der Leistung einer GTX liegt, muss der GT200 erheblich mehr bieten und bei gleichzeitiger TDP von 250 Watt (falls die überhaupt stimmt) bleibt da nicht mehr allzu viel Spielraum als etwas über 2 fache Leistung. Zudem wird vermutlich der GT200 auch mehr Vram als die 8800 GTS 512 haben, hoffe ich jedenfalls, und der braucht auch etwas Saft, was dann dem Chip nicht mehr zur Verfügung steht.
Aber lassen wir uns einfach überraschen. ;)

LovesuckZ
2008-02-04, 17:21:53
Man kann den G92 nicht als Maßstab nehmen. Eine 7900GTX verbraucht ca. 90 Watt - eine 8800GTX 140 Watt. Zweite ist bus zum Faktor 4 schneller. Der G92 ist ein einfacher, schnell gezauberter Shrink.

Hvoralek
2008-02-04, 18:51:25
Könnt froh wenn die Karte doppelte Leistung in normalen Auflösungen hat. 3 fach is irgendein Benchmark oder in 25xx AuflösungGibt es dafür irgendwelche Anhaltspunkte oder sagt uns das nur Deine Kristallkugel? :rolleyes:

<= 2x G80- Leistung könnte schon gegen den früher erscheinden Doppel- RV770 knapp werden und wäre, wie hier schon mehrfach gesagt, ziemlich enttäuschend.

Macht Sinn. Man kann sich ja als Referenz mal die 8800 GTS 512 vornehmen. Auch in 65 nm gefertigt und knapp so schnell wie eine GTX.War nicht bisher immer von 55 nm für G200 die Rede? :confused:

2,5- fache G80- Komplexität in 65 nm dürfte jedenfalls einen ziemlichen Kuhfladenchip ergeben (Das wäre wohl > 600 mm²). Ich glaube jedenfalls, man sollte so oder so nicht D8P als Vergleich nehmen. Der scheint ein etwas verunglückter Shrink zu sein.

Man kann den G92 nicht als Maßstab nehmen. Eine 7900GTX verbraucht ca. 90 Watt - eine 8800GTX 140 Watt. Zweite ist bus zum Faktor 4 schneller. Der G92 ist ein einfacher, schnell gezauberter Shrink.G71 --> G80 ist auch ein *kleinerer* Architekturwechsel gewesen. Aber dass Du für Nvidia wieder alles im grünstmöglichen Bereich siehst, ist auch irgendwie klar.

Gast
2008-02-04, 19:13:05
nVidia GT200 braucht 250W?


Kommender High-End Grafikchip noch 65nm, mit hohem Stromverbrauch

"[...] High-End Grafikchip noch in 65nm Technik gefertigt und eine enorme Leistungsaufnahme besitzen. Der Chip mit dem Codenamen "GT200" basiert angeblich auf mehr als einer Milliarde Transistoren. Konkurrent AMD ist bei der Radeon HD 3800 Serie auf die Produktion in 55nm umgestiegen, aber nVidia ist beim Wechsel der Fertigung sehr vorsichtig.

[...] verzichtet man auf die geringere Strukturbreite und setzt lieber auf die schon beim G92 (GeForce 8800 GT, GTS 512MB) bewährte Produktion in 65nm.
[...] Mit einer Thermal Design Power (TDP) von 250 Watt beim GT200 überträfe nVidia sogar den ATI R600 (Radeon HD 2900), der mit einer TDP 230 bis 240 Watt schon einer der stromhungrigsten Grafikchip überhaupt ist. Um eine aufwändige Kühlung wird nVidia deshalb nicht herum kommen.
Derzeit rechnet man damit, dass der GT200 auf Grafikkarten mit der Bezeichnung GeForce 9800 GTX zum Einsatz kommen wird. Nach der GeForce 9800 GX2, die analog zur Radeon HD 3870 X2 auf zwei G92 Grafikchips basiert, dürfte die 9800 GTX das nächste Single-Chip High-End Modell werden. Ein Einführungstermin ist derzeit noch unklar. Vermutet wird die zweite Hälfte dieses Jahres."

http://hartware.de/news_44013.html

;D

LovesuckZ
2008-02-04, 19:38:30
G71 --> G80 ist auch ein *kleinerer* Architekturwechsel gewesen. Aber dass Du für Nvidia wieder alles im grünstmöglichen Bereich siehst, ist auch irgendwie klar.

Ka, was du von mir willst:
680 Milionen Transistoren gegen 278 Millionen Transistoren. Das auf einem gleichen Fertigungsprozeß.

Gast
2008-02-04, 19:45:34
Erstmal abwarten wann die ersten Screenies der GT200 Karten auftauchen. Das die Karte ordentlich Saft brauchen wird sollte klar sein, aber die Leistungssteigerung könnte sich in Gegenden G71vs.G80 bewegen, wenn denn die Software von enorm gesteigerter Arithmetik Leistung profitieren kann. 8xAA als Standard sollte man nicht in betracht ziehen, 4xAA an Kanten reicht doch erstmal. ShaderAA wird interessant, dazu brauchs wieder Arithmetik Leistung oder?
Und wer über den "Stromverbrauch" jammert ist hier klar fehl am Platz und wird doch eh die kleinen Modelle mit unter 100Watt sich besorgen, also.

w0mbat
2008-02-04, 19:46:17
Es geht doch nicht um die Transistoren oder den Fertigungsprozess, sonder wie er schon sagte um die Architektur. Manchmal hat man echt das Gefühl du willst die Anderen falsch verstehen.

nomadhunter
2008-02-04, 19:48:08
Und ich ging ja auch von der Annahme aus, dass er in 65 nm gefertigt wird und nahm als Anhaltspunkt eine 8800 GTS 512. Da ja vermutlich keine großartige architekturbedingte Effizienzsteigerung mehr gegenüber G90 stattfinden wird, bleibt nur der Fertigungsprozess als Sparfaktor.
G(T)200 ist eine neue Architektur, da sind durchaus architekturbedingte Effizienzsteigerungen zu erwarten. Im Gegensatz zu G92, der kaum mehr als ein Shrink des G80 ist. Und die 65nm-Geschichte halte ich für Unsinn. Das widerspricht allem, was Ailuros bisher gesagt hat. 1,7+ Milliarden Transistoren @ 65nm sind Irrsinn (bei G92-Packdichte wären das 650mm²+), das geht nur mit 55nm (auch hier werden es >500mm² werden). Und 9-10 (wenn alle Stricke reißen, kann man auch 12 draus machen, es herrscht ja kaum Konkurrenzdruck) Monate nach RV670 sollte auch NV bereit für 55nm sein. Immerhin fertigt man ja bei den gleichen Foundries und so konservativ ist NV auch nicht.

LovesuckZ
2008-02-04, 19:55:58
Es geht doch nicht um die Transistoren oder den Fertigungsprozess, sonder wie er schon sagte um die Architektur. Manchmal hat man echt das Gefühl du willst die Anderen falsch verstehen.

Richtig. Aus diesem Grund ist es unsinnig über dem Stromverbrauch und der Leistung zu diskutieren.

Hvoralek
2008-02-04, 21:48:04
Ka, was du von mir willst:
680 Milionen Transistoren gegen 278 Millionen Transistoren. Das auf einem gleichen Fertigungsprozeß.Die Energieeffizienzsteigerung zu G80 war beachtlich, ja. Du scheinst ja bei G200 mit einer ähnlichen Steigerung (zusätzlich zu der durch den Prozesswechsel) zu rechnen. Erwartest Du vergleichbare Änderungen an der Architektur?

G(T)200 ist eine neue Architektur, da sind durchaus architekturbedingte Effizienzsteigerungen zu erwarten. Im Gegensatz zu G92, der kaum mehr als ein Shrink des G80 ist.Was für eine neue Architektur? Ich glaube kaum, dass G200 mehr eine "neue Architektur" werden wird als G70. Ein paar Verbesserungen im Detail sicher, aber man wird nicht zwei Jahre nach G80 und ~ 1 1/2 Jahre vor G100 alles von Grund auf umkrempeln.

Richtig. Aus diesem Grund ist es unsinnig über dem Stromverbrauch und der Leistung zu diskutieren.Weil G200 auf einer neuen Architektur basiert, die mit G80 ähnlich wenig zu tun hat wie G70? Nochmal: Wenn Nvidia innerhalb von 3 - 4 Jahren drei völlig neue Architekturen aus dem Hut zaubert (und bei G100 erwarte ich eine), fresse ich einen Besen. Das wird ein geshrinkter und verbreiterter G80 mit ein paar kleineren architektonischen Überarbeitungen.

GeneralHanno
2008-02-04, 22:00:23
der GT200 wird zwar eine neue generation, aber keine neue (grund-architektur). So wie die FX5, GF6&7 alle auf einer oft überarbeiteten architektur basierten, wird es wohl auch mit G80, G92 und GT200 sein ;)

vielleicht werden ja mehr als 16SP in ein SIMD geschaltet. aber am grundaufbau wird sich wohl nix grundlegendes ändern ;)

4 Vitamins
2008-02-04, 22:01:50
nVidia GT200 braucht 250W?


Kommender High-End Grafikchip noch 65nm, mit hohem Stromverbrauch

"[...] High-End Grafikchip noch in 65nm Technik gefertigt und eine enorme Leistungsaufnahme besitzen. Der Chip mit dem Codenamen "GT200" basiert angeblich auf mehr als einer Milliarde Transistoren. Konkurrent AMD ist bei der Radeon HD 3800 Serie auf die Produktion in 55nm umgestiegen, aber nVidia ist beim Wechsel der Fertigung sehr vorsichtig.

[...] verzichtet man auf die geringere Strukturbreite und setzt lieber auf die schon beim G92 (GeForce 8800 GT, GTS 512MB) bewährte Produktion in 65nm.
[...] Mit einer Thermal Design Power (TDP) von 250 Watt beim GT200 überträfe nVidia sogar den ATI R600 (Radeon HD 2900), der mit einer TDP 230 bis 240 Watt schon einer der stromhungrigsten Grafikchip überhaupt ist. Um eine aufwändige Kühlung wird nVidia deshalb nicht herum kommen.
Derzeit rechnet man damit, dass der GT200 auf Grafikkarten mit der Bezeichnung GeForce 9800 GTX zum Einsatz kommen wird. Nach der GeForce 9800 GX2, die analog zur Radeon HD 3870 X2 auf zwei G92 Grafikchips basiert, dürfte die 9800 GTX das nächste Single-Chip High-End Modell werden. Ein Einführungstermin ist derzeit noch unklar. Vermutet wird die zweite Hälfte dieses Jahres."

http://hartware.de/news_44013.html

;D

Bin schon mal gespannt wie "die üblichen verdächtigen", die auf dem verbrauch von R600 rumgeritten haben, den verbrauch von 255 watt ,als gut, zurecht biegen.

Sicher ist, dass unseren "verbalakrobaten" nix zu peinlich ist

gruss.

GeneralHanno
2008-02-04, 22:05:03
Das Problem des R600 war relativ einfach gefasst (etwas zugespitzt):
ein R600 mit 200W erreichte die selbe Leistung einer 8800GTS640 mit 100W

4711
2008-02-04, 22:07:06
quatsch die Leute die sich diese Karten kaufen denen ist es vollkommen Latte was die beim Games verbraucht.
Die darauf rumreiten würden gerne können aber nicht wegen hier €€€€€€€€ das ist wie üblich!

Hvoralek
2008-02-04, 22:11:55
Bin schon mal gespannt wie "die üblichen verdächtigen", die auf dem verbrauch von R600 rumgeritten haben, den verbrauch von 255 watt ,als gut, zurecht biegen.

Sicher ist, dass unseren "verbalakrobaten" nix zu peinlich ist

gruss.250W TDP würde wohl etwa 200W real unter Volllast bedeuten. Sich das schönzureden dürfte bei der zu erwartenden Leistung nicht schwer fallen. Eine 3870 X2 braucht auch schon fast 200W, insofern wäre ich nicht überrascht, wenn ATIs Topmodell im Herbst noch mehr Strom frisst als der Spitzen- G200 (und dabei voraussichtlich langsamer sein wird).

GeneralHanno
2008-02-04, 22:11:56
Ich gehöre zur Katerorgie:
stromverbrauch der kosten ist mir schnuppe (da sollte man lieber energiesparlampen kaufen), stromverbrauch der umwelt ist mir schnuppe (da sollte man lieber die heizung um 1 runterdrehen).

stromverbrauch der hitze im gehäuse und daraus resultierende lautstärke (!!!) sind mit alles andere als egal. und 250W kann man nicht lautlos kühlen (außer die kühlhartware kostet mehr als ein alienware PC ...)

LovesuckZ
2008-02-04, 22:12:16
Die Energieeffizienzsteigerung zu G80 war beachtlich, ja. Du scheinst ja bei G200 mit einer ähnlichen Steigerung (zusätzlich zu der durch den Prozesswechsel) zu rechnen. Erwartest Du vergleichbare Änderungen an der Architektur?

Ich erwarte einen ähnlichen Schritt wie von NV40 -> G70. Doppelte Leistung bei gleichem bzw. dreifache Leistung bei leicht höhrerem Stromverbrauch.


Weil G200 auf einer neuen Architektur basiert, die mit G80 ähnlich wenig zu tun hat wie G70? Nochmal: Wenn Nvidia innerhalb von 3 - 4 Jahren drei völlig neue Architekturen aus dem Hut zaubert (und bei G100 erwarte ich eine), fresse ich einen Besen. Das wird ein geshrinkter und verbreiterter G80 mit ein paar kleineren architektonischen Überarbeitungen.

Hier ging es um die Transistorenanzahl. Und diese sagt nunmal nichts über die Leistung und dem Stromverbrauch aus.

Gast
2008-02-04, 22:14:21
Bin schon mal gespannt wie "die üblichen verdächtigen", die auf dem verbrauch von R600 rumgeritten haben, den verbrauch von 255 watt ,als gut, zurecht biegen.

Sicher ist, dass unseren "verbalakrobaten" nix zu peinlich ist

gruss.
^
Der Lächerliche R600 hatte auch zuviel verbraucht für das was er geleistet hat. Da reicht ein heutiger 9600 für den ollen R600er ;D

GeneralHanno
2008-02-04, 22:17:04
Hier ging es um die Transistorenanzahl. Und diese sagt nunmal nichts über die Leistung und dem Stromverbrauch aus.

naja der transistorencount ist immer noch die beste angabe (wesentlich besser als taktrate, FLOPs, speichermenge o.ä.) um die leistung GROB einzuschätzen. eine gewisse unsicherheit wird es immer geben (flaschenhälse, viel chache uswusw ...)

und neben takt und spannung ist die transistorenzahl ein weiterer faktor im bezug auf stromverbrauch - wie oben gesagt - natürlich nur grob!

LovesuckZ
2008-02-04, 22:18:41
naja der transistorencount ist immer noch die beste angabe (wesentlich besser als taktrate, FLOPs, speichermenge o.ä.) um die leistung GROB einzuschätzen. eine gewisse unsicherheit wird es immer geben (flaschenhälse, viel chache uswusw

Hö?
Wie soll das gehen?

4711
2008-02-04, 22:19:16
Ach Leute Ende 2008..hat doch jeder ne superduber Multi Wassertrockeneisstickstoffkühlung im PC.

GeneralHanno
2008-02-04, 22:30:29
ich will man die provokante these aufstellen, dass in den letzten jahren (allgemein) die durchschnittliche leistung (keine spezialfälle) pro transistor stagniert.

Beim Netburst wurde der höhere transistorencount für höhere taktraten verwendet. bei core hat man das budget "umgeschichtet" um die breite und sprungvorhersage zu verbessern.

4711
2008-02-04, 22:34:52
genau ´..ganz genau so wollt ichs eigendlich ausdrücken....hellau und alaf ich geh jetzt wieder einen heben ;D

Gast
2008-02-04, 22:35:10
Bin schon mal gespannt wie "die üblichen verdächtigen", die auf dem verbrauch von R600 rumgeritten haben, den verbrauch von 255 watt ,als gut, zurecht biegen

Das ist völlig wurstig, am Ende zählt nur das was hinten rauskommt und da konnte man eine R600 getrost in die Tonne schmeißen.

Hvoralek
2008-02-04, 23:50:49
Ich erwarte einen ähnlichen Schritt wie von NV40 -> G70. Doppelte Leistung bei gleichem bzw. dreifache Leistung bei leicht höhrerem Stromverbrauch.Das ergibt sich allein schon durch den Pozesswechsel bei i.W. gleicher Architektur. Dann sind wir uns doch einig :confused:

Hier ging es um die Transistorenanzahl. Und diese sagt nunmal nichts über die Leistung und dem Stromverbrauch aus.Natürlich beides sehr wohl mit der Komplexität eines Chips zusammen. Daher kommen ja auch diese Schätzungen: 2,5x so viele Transistoren als G80 sollten (natürlich je nach genauer Nutzung und auch Taktraten) etwa dreifache G80- Leistung schaffen. In 55 nm wäre der Stromverbrauch dabei wohl etwas höher.

Wenn die Chipkomplexität Deiner Meinung nach keine Rolle spielt, woher kommen denn dann Deine Schätzungen dazu? Das ist ja so ziemlich das einzige, was von G200 bisher halbwegs sicher bekannt ist.

Gast
2008-02-05, 07:44:33
Naja, beim R600 hat diese Rechnung nicht ganz gestimmt...

GeneralHanno
2008-02-05, 08:07:33
welche rechnung hat beim R600 nicht gestimmt?

Ultron
2008-02-05, 08:34:54
Ich gehöre zur Katerorgie:
stromverbrauch der kosten ist mir schnuppe (da sollte man lieber energiesparlampen kaufen), stromverbrauch der umwelt ist mir schnuppe (da sollte man lieber die heizung um 1 runterdrehen).

stromverbrauch der hitze im gehäuse und daraus resultierende lautstärke (!!!) sind mit alles andere als egal. und 250W kann man nicht lautlos kühlen (außer die kühlhartware kostet mehr als ein alienware PC ...)

Aber sicher mit Wasser kannst selbst 500W lautlos kühlen. Alle anderen müssen halt das leise Geräusch einer Highend Graka leben. Die Chips dürfen eh alle über 100°C heiss werden, also kann man sie unübertaktet sicher auch mit Luft ziemlich leise kühlen.

Ab 2010 erwarte ich aber nix anderes wie nur noch ab Werk wassergekühlte Grafikkarten, mit Luft geht das nicht mehr, wenn dann nur mit extra teuren und aufwendigen Heatpipes, die den Preis einer Wakü aber übersteigen.

GeneralHanno
2008-02-05, 08:53:48
naja bei ner wakü brauchst du aber immer eine pumpe und einen radiator ... und die machen nunmal auch krach

Gast
2008-02-05, 09:01:38
250W TDP würde wohl etwa 200W real unter Volllast bedeuten. Sich das schönzureden dürfte bei der zu erwartenden Leistung nicht schwer fallen. Eine 3870 X2 braucht auch schon fast 200W, insofern wäre ich nicht überrascht, wenn ATIs Topmodell im Herbst noch mehr Strom frisst als der Spitzen- G200 (und dabei voraussichtlich langsamer sein wird).

Nur wage ich zu bezweifeln das ein GT200 mit an die 2 Mrd Transistoren keine höhere TDP als 250W hat.

GeneralHanno
2008-02-05, 09:17:16
an die 2 Mrd ist wohl etwas übertrieben ;)

Anarchy-HWLUXX
2008-02-05, 09:49:14
naja bei ner wakü brauchst du aber immer eine pumpe und einen radiator ... und die machen nunmal auch krach

Der Radiator macht sicher keinen krach, wenn dann die darauf montierten Lüfter ... wobei das sache des Users ist welche Lüfter er montiert. Und Pumpen können auch sehr leise sein, muss ja nicht zwingend eine Laing verbaut werden.

Wenn man sich nicht zu blöde anstellt ist hinterher die HDD das lauteste im System.

nomadhunter
2008-02-05, 10:22:35
Zum Thema Leistung pro Transistor stagniert: Die 6800 Ultra hatte 222 Mio., G80 hat 681 Mio., also gut das Dreifache. Die Leistungssteigerung einer GTX (Ultra noch mehr) dürfte in heutigen Spielen aber eher das 6-8fache betragen. Denke also schon, dass die Leistung pro Transistor im Laufe der Zeit steigt.

Und ob man G(T)200 jetzt im Vergleich zum G80 als neue Generation bezeichnet, ist Haarspalterei. Es ist keine völlig neue Architektur wie G80 oder bald vielleicht G100, aber es ist auch mehr als nur ein Refresh. Deswegen gehe ich auch zumindest von leichten architekturbedingten Leistungssteigerungen aus.