Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 4] - Übersicht in #1!


Seiten : 1 2 [3] 4 5

Unyu
2008-06-03, 16:14:03
Wie die 80W der 9800Gtx? ;D
Peak != Durchschnitsverbrauch im CPU limitierten 3DMark06
http://www.xbitlabs.com/images/video/geforce9800gtx/9800gtx_power.gif

Ailuros
2008-06-03, 16:15:17
Wow, hab ich das grad richtig gelesen? Ein 2D-Stromspar-Modus von Nvidia? Jetzt wissen wir ja, wo die 1,4 Milliarden Transistoren hin sind ;D Ehrlich: das ist spitze. Das nimmt dem G200 definitiv einen richtig fetten Nachteil :up:

Manche Ueberraschungen ueberlaesst man lieber fuer den Launch. Ich sagte ja schon dass man jegliche Stromverbrauch-Angabe die ueber die Anzahl der Kabel eingeschaetzt wurde nicht so ernst nehmen sollte. RV770 wird ja auch einen ziemlich moderaten idle-Verbrauch haben; der R700 load-Verbrauch ist eine ganz andere Geschichte ;)

Snoopy69
2008-06-03, 16:19:32
sehr interessant, da brauch man schon 1Gb VRAM :biggrin:
Wundert mich eigentlich. Die Grafik sieht gegen Crysis billig aus.

Don Vito
2008-06-03, 16:25:29
Sieht gut aus - ähnlich wie die 9800GTX
Aber meine wird eh nackisch gemacht, wenn es schöne Wasserkühler gibt. Dann wird kaltes Chiller-Wasser durchgejagt :D
Zum Relaese erscheinen Wasserkühler von Aqua-Computer;)

Snoopy69
2008-06-03, 16:27:45
Ich weiss :wink:

Adam D.
2008-06-03, 16:29:56
Manche Ueberraschungen ueberlaesst man lieber fuer den Launch. Ich sagte ja schon dass man jegliche Stromverbrauch-Angabe die ueber die Anzahl der Kabel eingeschaetzt wurde nicht so ernst nehmen sollte. RV770 wird ja auch einen ziemlich moderaten idle-Verbrauch haben; der R700 load-Verbrauch ist eine ganz andere Geschichte ;)
Wenn das nicht die letzte Überraschung war, da kann man ja wirklich gespannt in die nächsten 14 Tage gehen ;) Dass der RV770 gute Idle-Werte haben wird, ich denke, daran gibt es überhaupt kein Zweifel. PowerPlay wurde wahrscheinlich weiter verbessert.

Einige Reviews werden ja sicher auch Crossfire getestet haben, da kann man sich ja 'n recht gutes Bild davon machen können, was ein R700 letztendlich in realen Szenarien verbauchen wird.

Snoopy69
2008-06-03, 16:34:33
Wieso verbrät eine HD3870 X2 bei idle das 3-fache einer HD3870?

Sorkalm
2008-06-03, 16:37:58
Wieso verbrät eine HD3870 X2 bei idle das 3-fache einer HD3870?

Die Platine macht den Hauptteil der Steigerung aus, zudem hast du natürlich 2 GPUs die Idlen.

Gast
2008-06-03, 16:46:36
Einige Reviews werden ja sicher auch Crossfire getestet haben, da kann man sich ja 'n recht gutes Bild davon machen können, was ein R700 letztendlich in realen Szenarien verbauchen wird.

Das wird wieder an den Treibern liegen...

Snoopy69
2008-06-03, 16:50:26
Die Platine macht den Hauptteil der Steigerung aus, zudem hast du natürlich 2 GPUs die Idlen.
Kann irgendwie nicht sein...
Eine 8800GTX verbrät bei mir 85W bei idle und 2 Karten logischischweise 2x 85W.
Hier ist es aber das 3fache.

Aber egal...
Wenn die 30W bei der GTX280 (oder 280GTX?) wirklich stimmen wären das ca. 140W weniger bei mir (bei idle!) :)

Gast
2008-06-03, 16:52:15
Hier ist es aber das 3fache

Wo denn ?

Snoopy69
2008-06-03, 16:54:09
Wo denn ?
Da denn...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6551904&postcount=501

Gast
2008-06-03, 16:57:03
Da denn...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6551904&postcount=501

Ja hab ich übersehn.
Naja die hat ja noch den PLX Chip druff und DDR3 sowie ein anderen 2D Takt ich glaub 500mhz und nicht 300mhz wie die Single 3870

Adam D.
2008-06-03, 17:14:30
Das wird wieder an den Treibern liegen...
Da die Crossfire-Treiber ingesamt einen ordentlichen Eindruck machen und der RV770 keine großen Unterschiede zum Vorgänger bringen wird, denke ich, dass es zum Release sicher Treiber gibt, die ganz ok funktionieren. Und dann lastet man halt mal mit Vantage die beiden Karte richtig aus, das wird mindestens funktionieren und dann kann man schon mal 'ne kleine Tendenz ausmachen.

Gast
2008-06-03, 17:24:50
Wieso verbrät eine HD3870 X2 bei idle das 3-fache einer HD3870?

PLX Chip, Takt ist höher, GDDR3 gegen GDDR4 und und und

Gast
2008-06-03, 17:32:31
wenn die news wieder verschwunden ist, dann sind diese daten wohl bestätigt!

Naja, es könnte aber auch genau das Gegenteil heißen. Denkbar wäre auch, dass es sich um einen Fake handelt, und CB das deshalb löscht, weil man sich nicht mit der Nivea der anderen Gerüchteküchen einreiben will.

Gast
2008-06-03, 17:37:28
Naja, es könnte aber auch genau das Gegenteil heißen. Denkbar wäre auch, dass es sich um einen Fake handelt, und CB das deshalb löscht, weil man sich nicht mit der Nivea der anderen Gerüchteküchen einreiben will.


Also die letzte These kannst du mal getrost streichen.

Gast
2008-06-03, 17:49:57
Kann irgendwie nicht sein...
Eine 8800GTX verbrät bei mir 85W bei idle und 2 Karten logischischweise 2x 85W.
Hier ist es aber das 3fache.

Aber egal...
Wenn die 30W bei der GTX280 (oder 280GTX?) wirklich stimmen wären das ca. 140W weniger bei mir (bei idle!) :)

haut auch nicht hin, die X2 taktete genauso 300 Mhz wie ne 38X0.

ich hab mit ner PCI Graka 210 Watt IDEL (ganzes System) und mit der X2 265 Watt, also 55 Watt für die X2.

tombman
2008-06-03, 18:00:17
IDEL
Weil der Fehler IMMER WIEDER kommt:
http://de.wikipedia.org/wiki/Idle

Btw, gibts eigentlich schon GAMEBENCHES der GTX280?

Gast
2008-06-03, 18:06:11
ja, in zwei Wochen ;)

Gast
2008-06-03, 18:10:18
Manche Ueberraschungen ueberlaesst man lieber fuer den Launch. Ich sagte ja schon dass man jegliche Stromverbrauch-Angabe die ueber die Anzahl der Kabel eingeschaetzt wurde nicht so ernst nehmen sollte. RV770 wird ja auch einen ziemlich moderaten idle-Verbrauch haben; der R700 load-Verbrauch ist eine ganz andere Geschichte ;)

R700 ?
Dachte den gibts es nicht mehr? Oder nennt man 2xRV770 nun R700?

AnarchX
2008-06-03, 18:10:38
Btw, gibts eigentlich schon GAMEBENCHES der GTX280?
Bis auf die Nvidia-Balken in #1 gibt es bisher noch nichts.

R700 ?
Dachte den gibts es nicht mehr? Oder nennt man 2xRV770 nun R700?
R700 war schon immer 2x RV770, nur haben sich ein paar technische Details geändert.
Hier wird er auch genannt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6541998&postcount=1

Snoopy69
2008-06-03, 18:19:49
haut auch nicht hin, die X2 taktete genauso 300 Mhz wie ne 38X0.

ich hab mit ner PCI Graka 210 Watt IDEL (ganzes System) und mit der X2 265 Watt, also 55 Watt für die X2.
Du Glücklicher...
Mein ganzes Sys. braucht bei Vista x64 + Dreamscene ca. 380W - IDLE!!!
Ohne Dreamscene ca. 10W weniger.
Mit der GTX280 müsste ich dann auf 240W idle kommen :)

Triskaine
2008-06-03, 18:26:39
Du Glücklicher...
Mein ganzes Sys. braucht bei Vista x64 + Dreamscene ca. 380W - IDLE!!!

AAAAAAAAAHHHHHHHHHHH! Entschuldigung wenn ich frage, aber wie hoch ist deine Stromrechung?

Snoopy69
2008-06-03, 18:45:24
Mom. zahle ich pro Monat 45€

Bei 3DMark06 - Firefly Forest (am Ende) hab ich load ca. 600W :D

Pu1se
2008-06-03, 18:45:54
ist doch wurscht wie hoch die stromrechnung ist. solange man sie zahlen kann ;)

Snoopy69
2008-06-03, 18:48:09
Sehe ich auch so...

btw: Meine Klima (800W) läuft ja auch noch ca. 6h am Tag. Der Chiller war bei den 600W aber nicht dabei. Dann wäre ich bei 1000W :ulol:

AnarchX
2008-06-03, 18:54:08
Bitte beim Thema bleiben.

@Snoopy69
Ich bin ja gespannt, ob du der GTX 280 mit deinem Chiller einen ähnlichen Schub wie der 8800 GTX geben kannst.:D

Gast
2008-06-03, 18:54:23
Sehe ich auch so...

btw: Meine Klima (800W) läuft ja auch noch ca. 6h am Tag. Der Chiller war bei den 600W aber nicht dabei. Dann wäre ich bei 1000W :ulol:

Da kann man richtig stolz drauf sein...

Sonyfreak
2008-06-03, 19:00:29
Bei den meisten G80-Karten lässt sich der GPU-Takt um mindestens 20% anheben. Ich bin schon neugierig, ob die GTX 2x0-Karten auch soviel Taktpotenzial haben.

mfg.

Sonyfreak

Snoopy69
2008-06-03, 19:35:27
Bitte beim Thema bleiben.

@Snoopy69
Ich bin ja gespannt, ob du der GTX 280 mit deinem Chiller einen ähnlichen Schub wie der 8800 GTX geben kannst.:D
Bin auch gespannt...
Ich gehe mal von max. 30°C Core-Temperatur bei load aus. Damit sollte schon was drin sein.

Da kann man richtig stolz drauf sein...
Nein, nicht wirklich...

Gast
2008-06-03, 19:40:14
Wieso verbrät eine HD3870 X2 bei idle das 3-fache einer HD3870?

hauptsächlich dürften wohl die spannungswandler im idle für den verbrauch verantwortlich sein. bei der X2 müssen diese natürlich größer dimensioniert sein und sind dabei natürlich ineffizienter wenn sie nicht ausgelastet werden.

Snoopy69
2008-06-03, 19:47:09
hauptsächlich dürften wohl die spannungswandler im idle für den verbrauch verantwortlich sein. bei der X2 müssen diese natürlich größer dimensioniert sein und sind dabei natürlich ineffizienter wenn sie nicht ausgelastet werden.
Trotzdem komisch...
Andere Dual-GPU-Karten brauchen nicht das 3fache (siehe Grafik weiter oben)

Sorry for OT

Gast
2008-06-03, 19:47:48
hauptsächlich dürften wohl die spannungswandler im idle für den verbrauch verantwortlich sein. bei der X2 müssen diese natürlich größer dimensioniert sein und sind dabei natürlich ineffizienter wenn sie nicht ausgelastet werden.

nochmal:
ich hab mit ner PCI Graka 210 Watt IDEL (ganzes System) und mit der X2 265 Watt, also 55 Watt für die X2.

gerafft?

Eggcake
2008-06-03, 20:00:00
nochmal:
ich hab mit ner PCI Graka 210 Watt IDEL (ganzes System) und mit der X2 265 Watt, also 55 Watt für die X2.

gerafft?

Was tut das nun zur Sache? Dass die X2 mehr verbrät sah man ja schon weiter oben. Die Frage die grad diskutiert wird ist "warum" das so ist.

Aber back to topic bitte :ugly:

Gast
2008-06-03, 20:02:06
Trotzdem komisch...
Andere Dual-GPU-Karten brauchen nicht das 3fache (siehe Grafik weiter oben)



andere dual-gpu-karten sind aber auch 2 zusammengebaute karten, und sollten sich deshalb exakt wie 2 einzelkarten verhalten.

bei ATI kommt ja noch dazu, dass die karten eh schon recht sparsam sind, womit die effizienz der wandler noch weiter sinkt.

Gast
2008-06-03, 21:51:20
Während die Kartons bei GTX 260 und 280 schon gedruckt sind, spekuliert Fuad in einer wenigen Stunden alten Meldung noch, dass die GTX 260 mit 210 Shadereinheiten läuft. ;)
Irgendwie hat Fuad Scheuklappen auf, bei ihm hat ja auch der RV770 bis vor wenigen Tagen noch 512 bit Interface gehabt...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7675&Itemid=1

crux2005
2008-06-03, 22:01:36
ehm, lol, wieso sollte der G200 nur 8 cluter haben :|, auf dem die-shot von CF sieht man doch deutlich 10 cluter mit SPs, TAUs etc, die sich wiederholen ... mann mann ...

GeneralHanno
2008-06-03, 22:04:06
ehm, lol, wieso sollte der G200 nur 8 cluter haben :|, auf dem die-shot von CF sieht man doch deutlich 10 cluter mit SPs, TAUs etc, die sich wiederholen ... mann mann ...

fuad meint in dem zusammenhang mit clustern die ROP-quads ;)

pest
2008-06-03, 22:09:31
sorry wenn repost

http://resources.vr-zone.com//newspics/Jun08/03/GTX280_GPUZ.jpg

crux2005
2008-06-03, 22:10:18
achso, ergibt Sinn, trotzdem ist die Bezeichnung nicht ganz korrekt, oder ?

Gast
2008-06-03, 22:30:28
sorry wenn repost

http://resources.vr-zone.com//newspics/Jun08/03/GTX280_GPUZ.jpg

Was bitte schön soll das Bild aussagen? Was glaubst du woher die Chip Daten stammen? Meinst du das Programm ist auch nur im entferntesten einen unbekannten Chip nach seinen Specs auszulesen? Sry aber da ist mir jede gephotoshopte Präsentationsfolie lieber als sowas an den Haaren herbeigezogenem...
Wenn jemand in die Datenbank des GPU-Z reinschreibt, der G200 hat 64 ROPs dann zeigt er das auch an... das Tool ist Käse wenns um unbekannte GPUs geht...

pest
2008-06-03, 22:39:05
mir doch egal was das Bild aussagt, freu dich über die Taktraten
was sagen die 1000 NVidia Präsi-Folien aus...

Gast
2008-06-03, 22:46:25
http://www.hexus.net/content/item.php?item=13600

Gast
2008-06-03, 22:57:58
mir doch egal was das Bild aussagt, freu dich über die Taktraten
was sagen die 1000 NVidia Präsi-Folien aus...

Und wo kommen die Taktraten her? Wenn du mal nachschaust wie lange es immer dauert bis der Rivatuner releaste GPUs über den Treiber richtig auslesen kann... Echt das Tool sagt nur das was man ihm beibringt, es selber ließt maximal die ID der GPU aus die dieser Windows meldet, der Rest is aus der Datenbank!

pest
2008-06-03, 23:06:01
Und wo kommen die Taktraten her? Wenn du mal nachschaust wie lange es immer dauert bis der Rivatuner releaste GPUs über den Treiber richtig auslesen kann...

Nope, die Default-Taktraten werden aus dem höchten Performance-State der Karte ausgelesen, deswegen ändert sich das auch wenn man die Karte neu flasht ;)

Snoopy69
2008-06-03, 23:12:17
http://www.hexus.net/content/item.php?item=13600
Die beiden ATI´s sind völlig uninteressant für Leute, die HQ spielen, da nur 512MB

Adam D.
2008-06-03, 23:30:35
Die beiden ATI´s sind völlig uninteressant für Leute, die HQ spielen, da nur 512MB
Wem 1280x1040 mit AA/AF reichen, der kann gut zu den neuen ATis greifen, da ihnen deutlich später der VRAM ausgeht.

PS: Mit den Daten von Gigabyte ist es jetzt bestätigt, dass der G200 kein DX10.1 beherrscht. Hatte ja bis zum Schluss gehofft, dass es doch noch 'ne Überraschung gibt, aber die Hoffnung ist jetzt gestorben.

Gast
2008-06-03, 23:32:29
Die beiden ATI´s sind völlig uninteressant für Leute, die HQ spielen, da nur 512MB

Die Ati karten gehen sparsamer mit vram um.Due kannst eine 512 Ati karte mit der 756 mb 8800 Ultra vergleichen wenn nicht gleich die 1 gb variante.

Gast
2008-06-03, 23:33:20
Wem 1280x1040 mit AA/AF reichen, der kann gut zu den neuen ATis greifen, da ihnen deutlich später der VRAM ausgeht.


Wo isn da der Sinn? bei der Aussage. gruml-/

Adam D.
2008-06-03, 23:35:20
Wo isn da der Sinn? bei der Aussage. gruml-/
Wo ist das Misverständnis? 'Ner ATi-Karte geht halt einfach net so schnell der VRAM aus wie bei den Nvidia-Pendants, daher reichen den Karten 512MB VRAM.

Liszca
2008-06-03, 23:37:22
Ich habe PowerPlay nicht vergessen, sondern ignoriert. Denn ich sehe es als halbgewalkte Lösung an. Da sich der Lastverbrauch von Grafikkarten rapide steigert, wird auch der idle-Verbrauch mindestens linear steigen - PowerPlay hin oder her. Allein schon die Grundversorgung von PCB und Speicher spielen da eine große Rolle. die Endlösung kann in dem Fall nur HybridPower o.ä. sein, alles andere wäre ein Stop auf halbem Weg.

nein powerplay ist besser, weil ich nicht ein chipsatz von amd nehmen müßte, sondern es funktioniert mit allen chipsätzen!

Gast
2008-06-03, 23:38:59
Wo ist das Misverständnis? 'Ner ATi-Karte geht halt einfach net so schnell der VRAM aus wie bei den Nvidia-Pendants, daher reichen den Karten 512MB VRAM.

nene mei guter...-Wem 1280x1040 mit AA/AF reichen, der kann gut zu den neuen ATis greifen, da ihnen deutlich später der VRAM ausgeht.-

das ergibt keinen Sinn, da ATI ja der vraum eben nicht so schnell ausgeht (haste ja selber auch schon gesagt). also kann ich ja erst recht grössere auflössungen fahren mit AA/AF

Adam D.
2008-06-03, 23:40:21
das ergibt keinen Sinn, da ATI ja der vraum eben nicht so schnell ausgeht (haste ja selber auch schon gesagt). also kann ich ja erst recht grössere auflössungen fahren mit AA/AF
Naja, irgendwo ist dann auch einfach mal Ende. Aber das ist dann sicher von Anwendung zu Anwendung unterschiedlich. Gibt sicher auch einige Spiele, da kann man 1920x1240 fahren ohne Probleme.

Snoopy69
2008-06-03, 23:43:49
Wo ist das Misverständnis? 'Ner ATi-Karte geht halt einfach net so schnell der VRAM aus wie bei den Nvidia-Pendants, daher reichen den Karten 512MB VRAM.
Was aber auch nicht heisst, dass sie dann leistungsfähiger sind, da weniger Texturen im Ram vorgeladen sind. Oder seh ich das falsch?

Aber er hat schon Recht. Mit meiner Aussage was alles schon gesagt (bei HQ).
Es sagt ja auch niemand auf die Anwort "das Glas ist halb voll", dass es halb leer ist :D

Adam D.
2008-06-03, 23:46:11
Was aber auch nicht heisst, dass sie dann leistungsfähiger sind, da weniger Texturen im Ram vorgeladen sind. Oder seh ich das falsch?
Ne, das gehört sicher zum Performance-Verlust dazu, wenn man hohe Auflösungen fährt. Aber es ist weit weniger dramatisch wie beim G92 zum Beispiel, der dann total einbricht.

Gast
2008-06-04, 00:12:47
Wem 1280x1040 mit AA/AF reichen, der kann gut zu den neuen ATis greifen, da ihnen deutlich später der VRAM ausgeht.


Erstmal echte Benchmarks abwarten, ohne AA/AF sind bisher Zahlen aufgetaucht, das die nix mehr heutzutage Aussagen ist ja klar. Midrange ist auch mittlerweile mit 4xAA/16xAF. Meinetwegen auch 8xAF, aber das darf schon gar nicht mehr sein, AF sollte nix mehr kosten und wenn man das schon reduzieren muss für 2FPS, sollte man eher die Graka austauschen oder die Details im Game umstellen.
Deswegen, die Performance Werte des Vantage sind doch pure, ohne AA/AF oder?

Odal
2008-06-04, 07:12:33
der angebliche 25watt idle verbrauch des GT200 kam sowieso nur durch hybrid sli zustande.

Schlammsau
2008-06-04, 07:18:05
der angebliche 25watt idle verbrauch des GT200 kam sowieso nur durch hybrid sli zustande.
25 Watt im Idle (ohne HSLi) für so einen Boliden wie den GT200, wäre wahrlich eine Sensation! Für mich nur fraglich wie nVidia dann HSLi an den Mann bringen will! Deswegen glaube ich nicht so wirklich an diese geleakten Verbrauchswerte! Die Werte werden wohl stimmen, aber mit Hybrid SLi, was die Sache natürlich Witzlos macht!

Chris2CB
2008-06-04, 07:30:17
25 Watt im Idle (ohne HSLi) für so einen Boliden wie den GT200, wäre wahrlich eine Sensation! Für mich nur fraglich wie nVidia dann HSLi an den Mann bringen will! Deswegen glaube ich nicht so wirklich an diese geleakten Verbrauchswerte! Die Werte werden wohl stimmen, aber mit Hybrid SLi, was die Sache natürlich Witzlos macht!



Dafür hätte ich und sicher auch einige andere User eine Erklärung wie du auf diese Schlussvolgerung kommst. 25 oder auch 35Watt idle Verbrauch ist doch keines Weges unrealistisch, auch nicht für eine GTX 280 bzw. 260. Wenn ATI bei einem Großen Chip noch mehr sparen kann, wieso sollte das ein Hersteller wie Nvidia nicht auch können.

RV 670 braucht ca. 20 Watt idle
RV 770 wird vermutlich ca. 15 Watt Verbrauchen
Was spricht denn hier dann gegen die 30Watt der Nvidia Karten.

Schlammsau
2008-06-04, 07:47:22
Dafür hätte ich und sicher auch einige andere User eine Erklärung wie du auf diese Schlussvolgerung kommst. 25 oder auch 35Watt idle Verbrauch ist doch keines Weges unrealistisch, auch nicht für eine GTX 280 bzw. 260. Wenn ATI bei einem Großen Chip noch mehr sparen kann, wieso sollte das ein Hersteller wie Nvidia nicht auch können.

RV 670 braucht ca. 20 Watt idle
RV 770 wird vermutlich ca. 15 Watt Verbrauchen
Was spricht denn hier dann gegen die 30Watt der Nvidia Karten.

Was dagegen spricht ist hauptsächlich das Hybrid SLi was nVidia ja verkaufen möchte! Wenn aber sogar die schnellste Karte von nV ohne HSLi im Idle nur 25 Watt verbraucht, ist quasi kein Bedarf mehr an einem HSLi fähigen Motherboard. Warum sollte ich ein Board mit HSLi Chipsatz von nVidia kaufen, um mir evtl. 10-20Watt zu sparen? Muss aber dafür ein komplett neues Board kaufen, und brauche zwingend Vista dafür!
Ergo würden die meisten auf HSLi verzichten! Alles andere wäre unlogisch!
Zum anderen ist es schon komisch, wenn gerade hier nVidia eine Trendwende bei ihren Produkten einleutet! Aber dass ist alles nur Spekulation! Lassen wir uns überraschen.

seahawk
2008-06-04, 08:56:09
Hybrid-SLI bliebt immer noch als Lösung für SLI-Systeme erhalten. Wenn Du 2-3 GTX280 völlig abschalten kannst, ist das schon nicht schlecht und ein dicker Vorteil gegenüber CF. Die Einzelkarte will man aber auch in Mainboards von Intel verkaufen können und da ist Hybrid-SLI keine Lösung.

HOT
2008-06-04, 09:18:52
25W brauchen die RV670 Karten im Idle bei sehr geringer Taktrate. Weniger wird auch der RV770 nicht schaffen, den schätze ich etwa auf 30W ein. Für einen Chip wie den G200 sind das ohne HSLI unmöglich zu erreichende Werte, allein die Stromversorgung muss ja grösser dimensioniert sein, was zu mehr Abwärme und damit zu mehr Stromverbrauch führt. Wenn NV so eine Technik wie PowerPlay integriert, schafft man vllt. 40-50W in Idle. Dass NV aber den HybridSLI-Wert offensichtlich angibt, spricht eher nicht dafür, dass der G200 sonderlich sparsam ist im Idle.

AnarchX
2008-06-04, 09:21:55
Wenn NV einen H-SLI-Wert angeben würde, müsste da eine 0 stehen... ;)

Schlammsau
2008-06-04, 09:23:53
Wenn NV einen H-SLI-Wert angeben würde, müsste da eine 0 stehen... ;)

gut AnarchX, du hast gesprochen!
Dann stimmt der Idle Verbrauch! Die 280GTX ist ein Stromsparwunder!

Gast
2008-06-04, 09:28:13
25W brauchen die RV670 Karten im Idle bei sehr geringer Taktrate. Weniger wird auch der RV770 nicht schaffen, den schätze ich etwa auf 30W ein. Für einen Chip wie den G200 sind das ohne HSLI unmöglich zu erreichende Werte, allein die Stromversorgung muss ja grösser dimensioniert sein, was zu mehr Abwärme und damit zu mehr Stromverbrauch führt. Wenn NV so eine Technik wie PowerPlay integriert, schafft man vllt. 40-50W in Idle. Dass NV aber den HybridSLI-Wert offensichtlich angibt, spricht eher nicht dafür, dass der G200 sonderlich sparsam ist im Idle.


Die Verbrauchswerte Messung von Xbit Labs ist hier doch schon 100 Mal gepostet worden. Demnach brauch einen 3870 ca. 18 Watt beim idlen. Da sind 30 Watt für den G200 gar nicht sooo unrealistisch, wenn Nvidia für die Messung die Testumgebung noch ein bisschen geschönt hat.

Schlammsau
2008-06-04, 09:31:13
Die Verbrauchswerte Messung von Xbit Labs ist hier doch schon 100 Mal gepostet worden. Demnach brauch einen 3870 ca. 18 Watt beim idlen. Da sind 30 Watt für den G200 gar nicht sooo unrealistisch, wenn Nvidia für die Messung die Testumgebung noch ein bisschen geschönt hat.

Nur das der GT200 rund 3x so schnell wie eine 3870 ist! Ich weiss nicht, 40-50W Idle Verbrauch könnt ich mir eher Vorstellen!

Adam D.
2008-06-04, 09:35:01
Wir wissen doch noch gar nicht, was da an Technologie alles reingeflossen ist. Wenn da ähnliche Techniken eingesetzt werden wie bei den mobilen G90ern, dann hat der G200 wirklich 'nen astreinen 2D-Modus.

AnarchX
2008-06-04, 09:37:09
Nur das der GT200 rund 3x so schnell wie eine 3870 ist!
Und was hat das mit dem Idle-Verbrauch zu tun?

Schon amüsant, da wird sich desöfteren über den zu hohen Idle-Verbrauch der GF aufgeregt und wenn sich NV dann diesem Problem annimmt, glaubt man es nicht.;D

Schlammsau
2008-06-04, 09:44:11
Und was hat das mit dem Idle-Verbrauch zu tun?

Schon amüsant, da wird sich desöfteren über den zu hohen Idle-Verbrauch der GF aufgeregt und wenn sich NV dann diesem Problem annimmt, glaubt man es nicht.;D

man ist ja diesbezüglich oft genug entäuscht worden!
Und genau, wie viele dem neuen RV770 keine gute Leistung zutrauen!

HOT
2008-06-04, 09:46:26
Wenn NV einen H-SLI-Wert angeben würde, müsste da eine 0 stehen... ;)
Vergiss es. Die wird nicht komplett abgeschaltet, da ist selbstredend auch bei HSLI noch Saft drauf. Die bekommt doch nicht einfach keinen Strom mehr, sondern wird in eine Art Ruhemodus schlafen gelegt.

HOT
2008-06-04, 09:48:41
Die beiden ATI´s sind völlig uninteressant für Leute, die HQ spielen, da nur 512MB
Gibt doch jetzt schon massig RV670 Karten mit 1GB. Warum sollte das beim RV770 anders sein? Wer soviel Speicher braucht wird ihn auch bekommen.

AnarchX
2008-06-04, 09:52:11
Vergiss es. Die wird nicht komplett abgeschaltet, da ist selbstredend auch bei HSLI noch Saft drauf.
Aber wohl kaum 25W, der Unterschied bei der 9800 GTX liegt ja auch bei ~50W (http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/9/#abschnitt_leistungsaufnahme), also das etwa was sie laut Xbit-Labs und NV direkt aus dem NT zieht inkl. Effizienz des NTs.

Und wenn dann wäre es doch absoluter Blödsinn, die 9800 GTX, die auch H-SLI beherrscht, diese der GTX 280 ohne dieses gegenüberzustellen, da hätte man besser eine 8800 Ultra genommen.

Freut euch doch, dass NV endlich auf ATi reagiert hat und eben noch eins drauf gesetzt hat, sodass ATi sich bei den zukünftigen High-End-Karten auch daran ausrichten muss.

HOT
2008-06-04, 09:57:21
Klar, 20W sind es bei einer 9800GTX definitiv nicht - eher so 5-10. Eine 9800GTX ist aber auch kein G200, sondern eher ein RV670 ohne PowerPlay von der Leistungsaufnahme her.

_flx
2008-06-04, 10:17:08
Bin ich der einzige den der Stromverbrauch einer GraKa erst interessiert wenn, für Pendant A ein neues PSU nötig wäre und für Pendant B nicht?!

Eggcake
2008-06-04, 10:33:00
Ich würde mich sicher freuen wenns einen Sparmodus geben würde, nur kann ichs irgendwie auch noch nicht ganz glauben...wobei nach der grossen Kritik beim G80+G92 wäre es auch verständlich, wenn sie endlich reagieren würden.

AnarchX
2008-06-04, 10:36:34
GTX 280 Graphics Demo *NEW AND REAL* NOT CRAP FAKES* (http://uk.youtube.com/watch?v=K9gwJwCNvT8)

Wohl nicht mehr lang zu Beowulf als Game. ;)

Karte scheint aber wohl eher die GTX 260 zu sein, da nur 2x 6 Pin.

Adam D.
2008-06-04, 10:38:51
GTX 280 Graphics Demo *NEW AND REAL* NOT CRAP FAKES* (http://uk.youtube.com/watch?v=K9gwJwCNvT8)

Wohl nicht mehr lang zu Beowulf als Game. ;)
Mal sehen, wie lang das Teil auf Youtube bleibt :D Sieht zwar nett aus, haut mich jetzt aber nicht wirklich um.

tombman
2008-06-04, 10:39:59
Naja, und dazu noch youtube CRAP AUFLÖSUNG... da sieht man ned viel...

Ist der Versteinerte vielleicht INTEL? :D

mr orange
2008-06-04, 10:53:31
2x6pin stromanschlüsse?

Gast
2008-06-04, 11:03:52
1x8 und 1x6 soweit ich weiß.

Odal
2008-06-04, 11:08:16
Aber wohl kaum 25W, der Unterschied bei der 9800 GTX liegt ja auch bei ~50W (http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/9/#abschnitt_leistungsaufnahme), also das etwa was sie laut Xbit-Labs und NV direkt aus dem NT zieht inkl. Effizienz des NTs.

Und wenn dann wäre es doch absoluter Blödsinn, die 9800 GTX, die auch H-SLI beherrscht, diese der GTX 280 ohne dieses gegenüberzustellen, da hätte man besser eine 8800 Ultra genommen.

Freut euch doch, dass NV endlich auf ATi reagiert hat und eben noch eins drauf gesetzt hat, sodass ATi sich bei den zukünftigen High-End-Karten auch daran ausrichten muss.


HOT hat schon ganz recht, bei HSLi ist der Stromverbrauch der Karte nicht 0 sondern beim GT200 eben genau dieser geleakte verbrauch....

das der relativ hoch ausfällt liegt an der dicken spannungsversorgung die der monsterchip braucht....da fällt natürlich dann auch fürs nix tun entsprechend mehr verlustleistung ab.....

das ding bekommt keinen stromsparmodus wo es nur max. 30 watt verbraucht...wovon träumen hier einige nachts?

das ding ist hybrid sli fähig und schluckt dann in diesem günstigen fall noch 25-30 watt

Gast
2008-06-04, 11:11:08
HOT hat schon ganz recht, bei HSLi ist der Stromverbrauch der Karte nicht 0 sondern beim GT200 eben genau dieser geleakte verbrauch....



Nein, AnarchX hat Recht und der Verbrauch ist 0 (abgesehen von den Idle-Verlusten der Spannungswandler auf der Karte).

tombman
2008-06-04, 11:17:43
2x6pin stromanschlüsse?
Jo, war sicher die 260er..

Schlammsau
2008-06-04, 11:21:06
also laut diesem Test, zieht eine 9800GTX mit aktiviertem Hybrid Power, trotzdem "noch" rund 10 Watt aus der Steckdose!
http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/9/#abschnitt_leistungsaufnahme

Eggcake
2008-06-04, 11:24:06
Edit: hier stand kacke.
Edit2: Sind sogar nur 6 Watt im idle, je nachdem welches Mainboard dort benutzt wurde.

AnarchX
2008-06-04, 11:35:34
6W hinterm Netzteil, also wohl real eher ~5W.
Und wenn CnQ aktiv ist, gibt es offenbar keinen Unterschied mehr.

Wie schon gesagt, die 25W beziehen sich definitiv nicht auf die abgeschaltene Karte unter H-SLI.

Schlammsau
2008-06-04, 11:44:36
is das so schwer nachzuvollziehen?
erstens sind es nur Marketingfolien und zweitens kann man es fast nicht glauben, dass so ein Bolide, den Idle Verbrauch einer 9600GT hat!
Versteht mich nicht falsch, wenn das stimmt, hat nVidia meinen vollen Respekt, aber man sollte die Kirche schon im Dorf lassen!

AffenJack
2008-06-04, 12:23:09
du kannst es natürlich nicht glauben, dass nvidia ihren idleverbrauch reduzieren kann, weil du nix im bezug auf nvidia glauben kannst was nvidia gut machen könnte und schon so verborht bist,dass nur ati alles gut macht und nvidia schlecht.
Aber dass AMD 10W idle schafft glaubst du natürlich sofort.
Wenn Amd mit 8xx Milliarden Transistoren 10W schaffen sollte, wieso Nvidia mit 1,4Milliarden was nichtma das doppelte ist 25W oder 30W?
Dein fanboygehabe ist schon nicht mehr schön, wenn man den thread liest

Unyu
2008-06-04, 12:50:30
zweitens kann man es fast nicht glauben, dass so ein Bolide, den Idle Verbrauch einer 9600GT hat!
Bei einer AMD Karte glaubst du es sofort.

Grestorn
2008-06-04, 12:54:08
das ding ist hybrid sli fähig und schluckt dann in diesem günstigen fall noch 25-30 watt

Das wäre ja mal so was von unlogisch...

Was sollte dann Hybrid-Power überhaupt noch bewirken, wenn man ohne auf die selbe Leistungsaufnahme kommt?

RoNsOn Xs
2008-06-04, 12:54:32
nebenbei hat es Ail doch schon mehr oder minder bestätigt, als er einige beiträge über den idle-verbrauch von euch gelesen hat (das zB war eine überraschung des G200s)

Odal
2008-06-04, 12:58:50
Das wäre ja mal so was von unlogisch...

Was sollte dann Hybrid-Power überhaupt noch bewirken, wenn man ohne auf die selbe Leistungsaufnahme kommt?


das wäre ja mal sowas von gar nicht unlogisch weil man bei einer 88GTX schon auf über 80 watt idle/peak verbrauch kommt

und ein GT200 wird noch ein stück größer

ohne stromsparmechanismen ist man da jedenfalls mit 80-100 watt idle verbrauch (je nach ausgereiftheit des prozesses für solchen megachip) dabei

die frage sollte eher lauten: "was soll denn hybrid sli noch bewirken wenn nvidias high end chips schon nur 20-30 watt im idle fressen?" warum rührt man denn hjetzt bzgl. hybrid sli so die große werbetrommel und führt sogar extra die 9er serie dafür ein?

Unyu
2008-06-04, 13:06:17
"was soll denn hybrid sli noch bewirken wenn nvidias high end chips schon nur 20-30 watt im idle fressen?"
Weitere 20W sparen?
/im Triple SLI sinds schon 60W.

Unyu
2008-06-04, 13:11:24
Natürlich.
CB hats doch bestätigt.

Gast
2008-06-04, 13:14:38
Ändert euren Ton oder hört auf zu Posten, was solln das bitte?

Topic:
Die 25-30Watt IDLE beziehen sich doch auf die reine GPU oder? Lassen sich denn die 8 Speicherchips komplett abschalten? Im 2D Modus brauch die Karte ja auch, wenn auch nur mininal, Grafikspeicher.

RoNsOn Xs
2008-06-04, 13:17:44
der speicher einer graka zieht nur so gut wie keinen strom, kann man voll vernachlässigen

Gast
2008-06-04, 13:18:42
Wenn NV einen H-SLI-Wert angeben würde, müsste da eine 0 stehen... ;)

erzähl kein Mist, ich hab Hybrid SLI mit ner 9800GTX und nem ASUS m3n-HT Deluxe, die karte läuft weiter und wird auch weiterhin warm und zockt sich trotzdem 30 Watt (satt 85) also mit Hybrid SLI hab ich satte 55 Watt weniger.

Also nix mit 0 :rolleyes:

Odal
2008-06-04, 13:20:41
ich komm da nicht mit wie manche leute so verblendet sein können...

nvidia führt jetzt hybrid sli ein um den idle verbrauch nochmal um 10-15 watt zu senken weil ein 25-30watt idle verbrauch des GT200 ja zu viel sind wo sie sich seit herbst 2006 um gescheite idle stromsparmaßnahmen einen dreck scheren

die glauben wohl auch man zieht sich die hose mit der kneifzange an

Unyu
2008-06-04, 13:24:09
Also nix mit 0 :rolleyes:
http://www.legitreviews.com/article/708/5/

"Our power consumption testing showed that NVIDIA HybridPower technology is no joke! We were able to reduce our idle power by 55W, which is a 41% power reduction. In Performance Boost mode the system started off at 129W and then after four minutes changed over to Save Power mode and got down to 78W. A quick bump of the mouse and the system would change profile settings and the video card would power back on. One thing we did notice is that even though NVIDIA states the video card is fully turned off in Save Power mode, we did notice slightly higher power usage than when one was not installed into the system. It's likely that just having the pair of 6-pin PCIe power connectors installed and the card in the system that it is consuming three Watts."

Stimmt, sind 3W. :rolleyes:

Gast
2008-06-04, 13:24:43
Odal, der Idle-Modus ist quasi bestätigt worden.
Auch wenn du es nicht wahr haben möchtest!
Die Stromaufnahme unter Last und der fehlende DX 10.1 Support sind aber weiterhin die negativen Punkte der GTX260/280.

Winter[Raven]
2008-06-04, 13:26:17
Die Stromaufnahme unter Last und der fehlende DX 10.1 Support sind aber weiterhin die negativen Punkte der GTX260/280.

a. Für die Leitung die man mit der GPU bekommt ist die Stromaufnahme mehr als gerecht.
b. D3D10.1 ist und bleibt irrelevant.

Schlammsau
2008-06-04, 13:28:18
Das ein Porsche auch 20 Liter Super+ verbraucht, ist auch der Leistung angemessen! Würdest du ihn trotzdem kaufen, oder dir nicht wünschen, dass er weniger Verbraucht!?

Gast
2008-06-04, 13:28:27
Für wehn? Für dich?
Ich wette die 55er Variante die 3 Monate später kommt hat DX10.1

Odal
2008-06-04, 13:28:37
Odal, der Idle-Modus ist quasi bestätigt worden.
Auch wenn du es nicht wahr haben möchtest!
Die Stromaufnahme unter Last und der fehlende DX 10.1 Support sind aber weiterhin die negativen Punkte der GTX260/280.


aha offizielle nvidia quelle bitte?
am besten noch mit erklärung was der hybrid scheiss dann soll?

dildo4u
2008-06-04, 13:28:53
Die Stromaufnahme unter Last und der fehlende DX 10.1 Support sind aber weiterhin die negativen Punkte der GTX260/280.
Murks der Chip wird mit Abstand die beste pro Watt Leistung haben.

AnarchX
2008-06-04, 13:32:20
Bitte etwas auf den Ton achten, wir wollen doch hier eine sachliche Diskussion führen. Das geht vor allem an dich Odal.

dildo4u
2008-06-04, 13:32:22
aha offizielle nvidia quelle bitte?
am besten noch mit erklärung was der hybrid scheiss dann soll?
Nvidias Angebot besteht noch aus SLI,Triple SLI,Quad SLI mit der 9800GT/GTX/ GX2 Serie alle diese Karten/Kombinationen profitieren von Hybrid SLI.

Unyu
2008-06-04, 13:34:45
Ich wette die 55er Variante die 3 Monate später kommt hat DX10.1
Wie kommst du darauf?

Jetzt heißt es durchtunneln bis D3D11.

AnarchX
2008-06-04, 13:34:58
Nvidias Angebot besteht noch aus SLI,Triple SLI,Quad SLI und der 9600 und 9800 Serie alle diese Karten/Kombinationen profitieren von Hybrid SLI.
Die 9600er unterstützen kein H-SLI, jedenfalls nicht nach NVs Referenzvorgabe.

dildo4u
2008-06-04, 13:35:34
Die 9600er unterstützen kein H-SLI, jedenfalls nicht nach NVs Referenzvorgabe.
Oh oki dachte alle Karten der 9er Serie.

seahawk
2008-06-04, 13:50:29
aha offizielle nvidia quelle bitte?
am besten noch mit erklärung was der hybrid scheiss dann soll?

Da gibt es mehrere Ansätze. Für eine Single-Karte war es eigentlich immer ne dumme Idee, daber für SLI macht es Sinn. SLI geht sowieso nur auf NV Boards und 2 oder 3 GTX280 werden schon einiges saugen, vor allem falls das der Stromsparmodus im SLI nicht funktioniert.

Mich überrascht es zwar auch dass GT200 schon die entsprechend Technik hat, aber für die gesamte GT200.Linie mußte es sein, wenn man am OEM Markt mit seinen restlichen Karten nicht dumm dastehen will. Die Energiesiegel sind heute immer wichtiger und da müssen die Karten eben auch auf nicht NV-SLI-Boards sparsam sein.

Gast
2008-06-04, 13:54:00
aha offizielle nvidia quelle bitte?
am besten noch mit erklärung was der hybrid scheiss dann soll?

Ein paar Seiten vorher war eine Folie aus NVs GTX 280 Präsentation.
Aber wenn du es nicht glauben willst, ist das eigentlich recht egal, in 2 Wochen wirst du es doch eh sehen!
Der "Hybrid Scheiß" ist für SLI, ist doch logisch!

Redneck
2008-06-04, 13:54:05
;6554171']a. Für die Leitung die man mit der GPU bekommt ist die Stromaufnahme mehr als gerecht.
b. D3D10.1 ist und bleibt irrelevant.

zum ersten Teil würde ich dir Recht geben.
Der 2.Teil ist zutiefst subjektiv und es gibt sicherlich einige Leuite für die es
relevant erscheint (genauso wie AA... braucht man schliessslich auch nicht.. läßt sich auch wunderbar ohne spielen)

Gast
2008-06-04, 14:05:40
http://www.legitreviews.com/article/708/5/

"Our power consumption testing showed that NVIDIA HybridPower technology is no joke! We were able to reduce our idle power by 55W, which is a 41% power reduction. In Performance Boost mode the system started off at 129W and then after four minutes changed over to Save Power mode and got down to 78W. A quick bump of the mouse and the system would change profile settings and the video card would power back on. One thing we did notice is that even though NVIDIA states the video card is fully turned off in Save Power mode, we did notice slightly higher power usage than when one was not installed into the system. It's likely that just having the pair of 6-pin PCIe power connectors installed and the card in the system that it is consuming three Watts."

Stimmt, sind 3W. :rolleyes:

du kannst mir zeigen was du willst ich glaube das was ich sehen und ist so wie ich gesagt hab.

AnarchX
2008-06-04, 14:07:59
du kannst mir zeigen was du willst ich glaube das was ich sehen und ist so wie ich gesagt hab.
Computerbase kommt aber auch auf ein ähnliches Ergebnis. Da solltest du deine Konfig vielleicht nochmal überprüfen.

deekey777
2008-06-04, 14:09:03
In einem anderen Forum habe ich gelesen, dass Crytek eine Demo für die G200 liefern soll. Stimmt's oder habe ich Recht?

Unyu
2008-06-04, 14:09:15
Der 2.Teil ist zutiefst subjektiv und es gibt sicherlich einige Leuite für die es
relevant erscheint
Für welche Anwendungen braucht man .1? :confused:

HarryHirsch
2008-06-04, 14:12:11
In einem anderen Forum habe ich gelesen, dass Crytek eine Demo für die G200 liefern soll. Stimmt's oder habe ich Recht?

wäre nicht das erste mal, siehe the project für ati damals

AnarchX
2008-06-04, 14:12:13
In einem anderen Forum habe ich gelesen, dass Crytek eine Demo für die G200 liefern soll. Stimmt's oder habe ich Recht?

Link? Bisher ist nur Medusa als Demo bekannt (vor einigen Seiten verlinkt).

Redneck
2008-06-04, 14:18:28
Für welche Anwendungen braucht man .1? :confused:

darum geht es nicht.
Wenn ich mir ein Auto kaufe bestimme ich auch die Farbe.
Da fragt mich der Händler auch nicht, wofür ich diese oder jene Farbe
brauche. Beeinflußt diese oder jene Farbe die technischen Leistungen des Fahrzeugs ? Nein ! Warum bestehe dann also darauf eine bestimmte zu erhalten ?
Weil es mich glücklich macht...

Ausserdem : garantierst Du uns das es in 1,2 oder 6 Monaten nicht Anwendungen gibt, die .01 unterstützen und davon profitieren ?
Wenn Du das kannst, sag uns bitte wo man die Kristallkugel dazu kaufen kann.

Redneck
2008-06-04, 14:21:01
Für welche Anwendungen braucht man .1? :confused:

Achso...
mal eine Gegenfrage :
Für welche Anwendung (ausser Crysis) benötigt man die Power eine GTX280..
ist auch eine subjektive Frage.
Wenn ich den ganzen Tag Crysis auf einem 30 Zöller Spiele ist die Leistungsfrage relevant für mich ansonsten eher nicht

Unyu
2008-06-04, 14:22:06
garantierst Du uns das es in 1,2 oder 6 Monaten nicht Anwendungen gibt, die .01 unterstützen und davon profitieren?
Seit den 7,8 Monaten seit Release gibts 0 Anwendungen. Meinst du das ändert sich noch?
Angekündigt wurde noch nichts.


Für welche Anwendung (ausser Crysis) benötigt man die Power eine GTX280..
Praktisch jedes Spiel der letzten Jahre.

Gast
2008-06-04, 14:22:20
Wenn Du das kannst, sag uns bitte wo man die Kristallkugel dazu kaufen kann.


Dazu braucht man keine Kristallkugel sondern es reicht, den Verstand mal einzuschalten. Den genutzten Technologielevel gibt immer der Marktführer vor und das ist nun einmal Nvidia.

Schlammsau
2008-06-04, 14:25:15
Seit den 7,8 Monaten seit Release gibts 0 Anwendungen. Meinst du das ändert sich noch?
Angekündigt wurde noch nichts.
Falsch....wie lange gibt es das SP1 für Vista? Nämlich seit dem ist .1 erst nutzbar!
Wie viele DX10 Spiele wurden nach erscheinen des SP1 für Vista veröffentlicht? Richtig, nur 1.....und rate mal welches das war! ;)


Praktisch jedes Spiel der letzten Jahre.
Schon klar, wenn man Auflösungen jenseitz von 1900 x irgendwas hat, braucht man diese Leistung!

Gast
2008-06-04, 14:28:05
Seit den 7,8 Monaten seit Release gibts 0 Anwendungen. Meinst du das ändert sich noch?
Angekündigt wurde noch nichts.




ja klar Mensch, DX10.1 gibt es erst seit 2 Monaten seit dem SP1 also hör auf.
Es kommen Spiele mit DX10.1 da bin ich mir sicher und würde sogar drauf wetten das Clear Sky zB DX10.1 nutzt.

Redneck
2008-06-04, 14:30:35
Seit den 7,8 Monaten seit Release gibts 0 Anwendungen. Meinst du das ändert sich noch?
Angekündigt wurde noch nichts.


Praktisch jedes Spiel der letzten Jahre.

Eben weil man es nicht kategorisch ausschliessen kann, sollte man nicht von vornherein sagemn, das man es nicht braucht. Assassins Creed hatte 10.1 support bevor es zurück gepatched wurde.

Und was die Power angeht... das ist doch alles subjektiv.
ich habe auch relative aktuelle Spiele auf dem Rechner (COD4 ist mein letztes)
und das läßt sich mit meiner 8800 gt ganz gut so spielen ohne das ich zu grosse
kompromisse machen muß. Ist halt alles subjektiv.

Hakim
2008-06-04, 14:30:49
Ist es den höchstes Know how einer GPU einen guten Stromsparmodus zu verpassen?? Wieso sind so viele überrascht (einig können es ja immer noch nicht glauben) das der G200 einen Stromsparmodus hat? Das einzige was mich überrascht hat war das die G92 keinen Sparmodus haben. Bin kein experte aber ich denke nicht das es sehr viel Aufwand bedarf bei einem chip sowas zu integrieren.

Redneck
2008-06-04, 14:37:06
Dazu braucht man keine Kristallkugel sondern es reicht, den Verstand mal einzuschalten. Den genutzten Technologielevel gibt immer der Marktführer vor und das ist nun einmal Nvidia.

Nochmal :
man kann es nicht ausschliessen. Egal wer Marktführer ist und dadurch den Ton
angibt. Es wird immer Ausnahmen geben die besonderen Support erhalten.
Es wäre doch ärgerlich wenn es gerade einen Titel träfe, den man persönlich sehr mag.

ShadowXX
2008-06-04, 14:39:13
ja klar Mensch, DX10.1 gibt es erst seit 2 Monaten seit dem SP1 also hör auf.
Es kommen Spiele mit DX10.1 da bin ich mir sicher und würde sogar drauf wetten das Clear Sky zB DX10.1 nutzt.
Ernsthaft....wenn die Devs tatsächlich erst mit der Auslieferung an alle des SP1 Anfangen für 10.1 zu entwickeln, kommen die Games pünktlich zu den DX11-Karten.

Wenn irgendjemand was für 10.1 bringt, dann hat dieser jemand auch schon vor langer Zeit angefangen für 10.1 zu Coden.

Ich kann mir durchaus vorstellen, das die eine oder andere Engine tatsächlich 10.1 benutzen wird, aber wohl anders als die meisten denken....nämlich dafür hier und da mal einen Pass in besonderen Situationen zu sparen, aber das war es dann auch schon.

Nochmal :
man kann es nicht ausschliessen. Egal wer Marktführer ist und dadurch den Ton
angibt. Es wird immer Ausnahmen geben die besonderen Support erhalten.
Es wäre doch ärgerlich wenn es gerade einen Titel träfe, den man persönlich sehr mag.
Nochmal: Was erwartest du durch den 10.1 Support? Bessere Grafik? Vergiss es.

Gast
2008-06-04, 14:39:29
Deutsche News zum YouTube-Video, das die GTX 260 in einer neuen Nvidia-Demo zeigt:

http://www.hardware-infos.com/news.php?news=2118

Gast
2008-06-04, 14:41:33
so ist es, jetzt zB ist mein lieblingsgame GRID, es hat kein NV Logo udn sihet auf den ATIs besser aus (hat nix mit DX10.1 zutun).

Redneck
2008-06-04, 14:45:57
Nochmal: Was erwartest du durch den 10.1 Support? Bessere Grafik? Vergiss es.

Ja (besser insofern das eine vernünftige AA implementierung stattfinden kann (sofern ich das als Laie richtig verstanden habe)).

Ich freuhe mich (ganz ehrlich... keine Ironie) für die Leute, für die 10.1 kein
Kriterium sind. Bitte akzeptiert aber auch, das es für andere Leute sehr wohl eines ist.

Unyu
2008-06-04, 14:46:50
Falsch....wie lange gibt es das SP1 für Vista? Nämlich seit dem ist .1 erst nutzbar!
Die Entwickler mussten nicht auf das finale SP1 warten, um zu progerammieren.


Schon klar, wenn man Auflösungen jenseitz von 1900 x irgendwas hat, braucht man diese Leistung!
Auch in kleinen Auflösungen, wenn man weiß wo der Qualitätschalter ist oder wo man FSAA aktiviert.

Redneck
2008-06-04, 14:58:08
Auch in kleinen Auflösungen, wenn man weiß der Qualitätschalter ist oder wo man FSAA aktiviert.

hmmm , spiele bei meinen spielen auf 1680x1050 auf höchsten BQ level (nein, kein 16xaa aber ein für mich völlig ausreichendes 4aa aber sonst alles auf Anschlag). Und nein, ich spiele nicht Crysis. Welche Spiele meinst Du denn.
Jetzt mal Butter bei de Fische...

AnarchX
2008-06-04, 15:01:01
Topic...
AC-D3D10.1-IQ-Diskussion bitte im passenden Thread weiterführen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412454&page=38


http://img58.imageshack.us/img58/6326/gtx200series260lf5ma4.jpg (http://imageshack.us)

Adam D.
2008-06-04, 15:33:45
Damit sind ja alle Gerüchte bestätigt :D Bin mal gespannt, was es am Release-Tag noch für Überraschungen an Architektur und Feature-Set gibt.

PS: "Do not distribute" ;D

Gast
2008-06-04, 15:35:51
Nicht schlecht. Die Karte wird ca. 70% schneller als die 8800GTX sein und nur ein paar Watt mehr ziehen. Nett, nett.

dargo
2008-06-04, 15:46:41
In einem anderen Forum habe ich gelesen, dass Crytek eine Demo für die G200 liefern soll. Stimmt's oder habe ich Recht?
Auf Basis der CryEngine2 oder eine völlig andere?

Gosh
2008-06-04, 15:57:01
Nicht schlecht. Die Karte wird ca. 70% schneller als die 8800GTX sein .

in was ?
70% in 2500 ist kein Wunder aber in 1280 mit 4xAA,Die Auflösung die fast alle spielen,da wäre 70% gut.Was aber nicht der Fall sein wird.

AnarchX
2008-06-04, 15:58:21
in was ?
70% in 2500 ist kein Wunder aber in 1280 mit 4xAA,Die Auflösung die fast alle spielen,da wäre 70% gut.Was aber nicht der Fall sein wird.
Begründung?

deekey777
2008-06-04, 16:00:01
Auf Basis der CryEngine2 oder eine völlig andere?
(Auch an AnarchX)
Ich weiß nicht, ob es ernst gemeint war, der User an sich ist seriös.

Unyu
2008-06-04, 16:00:06
Begründung?
CPU Limit? ;)

Gosh
2008-06-04, 16:01:00
Wie kommt ihr auf eure Schätzungen,anhand von Zahlen,so geht dass nicht.

AnarchX
2008-06-04, 16:02:50
Wie kommt ihr auf eure Schätzungen,anhand von Zahlen,so geht dass nicht.
Lies bitte doch hier etwas im Thread mit bzw. wenigstens das 1. Posting. Weshalb der GT200 so stark sein wird, wurde schon mehrfach geklärt und lässt sich nicht einfach aus den reinen Spezifikationen lesen.

Anarchy-HWLUXX
2008-06-04, 16:03:59
in was ?
70% in 2500 ist kein Wunder aber in 1280 mit 4xAA,Die Auflösung die fast alle spielen,da wäre 70% gut.Was aber nicht der Fall sein wird.
Wer kauft denn eine GTX2x0 um auf einer 1280er Funzel zu zocken ? Da langt auch dicke ne G92er oder G80 GTX ...

Grindcore
2008-06-04, 16:06:03
Wie kommt ihr auf eure Schätzungen,anhand von Zahlen,so geht dass nicht.
Rofl, wie denn sonst? Anhand von mystischen Prophezeiungen? Wenn die Karte in der Rohleistung 70% schneller ist, dieser Vorsprung in einer niedrigen Auflösung aber schrumpft, dann winkt das CPU-Limit mit dem Zaunpfahl.

InsaneDruid
2008-06-04, 16:14:46
Wer kauft denn eine GTX2x0 um auf einer 1280er Funzel zu zocken ? Da langt auch dicke ne G92er oder G80 GTX ...

Langt sie? Für SSAA?

dargo
2008-06-04, 16:16:13
Langt sie? Für SSAA?
SSAA ist kein offizieller AA-Modi.

Gast
2008-06-04, 16:17:40
Langt sie? Für SSAA?
SSAA ist kein offizieller AA-Modi.

sie ist kein offizieller AA-Modi weil es nicht langt,ich hoffe deine frage ist beantwortet:)

InsaneDruid
2008-06-04, 16:20:11
SSAA ist kein offizieller AA-Modi.
Ahja, und daher darf man keine G200 für SSAA nutzen oder was?

Wars warm heute?

Liszca
2008-06-04, 16:20:21
für hybrid sli soll doch der 8200 nforce herhalten oder?

aber der kann doch garkein dual-link dvi display ansteuern laut CT, oder kommt da auch noch gleich ein neues board für raus?

Hvoralek
2008-06-04, 16:21:20
SSAA ist kein offizieller AA-Modi.Dass es nicht offiziell ist, bedeutet ja nicht, dass man es nicht nutzen darf.

Und bitte, ein Modus. "Modi" ist Plural.

/edit: zu langsam. Zumindest für mich ist es heute wohl zu warm.

dargo
2008-06-04, 16:24:25
Ahja, und daher darf man keine G200 für SSAA nutzen oder was?

Wo habe ich das gesagt? Wenn man genug Leistung über hat kann man natürlich auch SSAA nutzen. Damit aber zu argumentieren ist hirnrissig. Ich erinnere dich nochmal an SSAA wenn du deinen G200 mit Crysis betreibst. ;)

Im Prinzip hat Anarchy-HWLUXX vollkommen recht. Es gibt nichts außer Crysis womit ein G92/G80 in 1280-er Auflösung überfordert wäre.

Unyu
2008-06-04, 16:27:36
für hybrid sli soll doch der 8200 nforce herhalten oder?

http://www.nvidia.de/page/hybrid_sli.html
Sind noch ein paar Andere, klick "Hybrid SLI Konfigurator"

Damit aber zu argumentieren ist hirnrissig.
Warum, wenn man auf Qualität steht?

Gast
2008-06-04, 16:30:33
eigentlich ist es schon hirnrissig wenn jemand überhaupt sich gedanken macht so eine karte zu kaufen aber selbst zu hause noch mit einem 22 zoll monitor rumzugurken.das ist hirnrissig:)

InsaneDruid
2008-06-04, 16:30:40
Wo habe ich das gesagt? Wenn man genug Leistung über hat kann man natürlich auch SSAA nutzen. Damit aber zu argumentieren ist hirnrissig. Ich erinnere dich nochmal an SSAA wenn du deinen G200 mit Crysis betreibst. ;)

Im Prinzip hat Anarchy-HWLUXX vollkommen recht. Es gibt nichts außer Crysis womit ein G92/G80 in 1280-er Auflösung überfordert wäre.

Dann halt das "offizielle"
16xQ+SS TRSAA.

Odal
2008-06-04, 16:33:15
Wo habe ich das gesagt? Wenn man genug Leistung über hat kann man natürlich auch SSAA nutzen. Damit aber zu argumentieren ist hirnrissig. Ich erinnere dich nochmal an SSAA wenn du deinen G200 mit Crysis betreibst. ;)

Im Prinzip hat Anarchy-HWLUXX vollkommen recht. Es gibt nichts außer Crysis womit ein G92/G80 in 1280-er Auflösung überfordert wäre.


er hat aber schon recht SSAA

das ist eben die beste möglichkeit bei niedrig aufgelösten anzeigegeräten (z.b. TFT mit 1280x1024) die BQ zu verbessern ohne kompromisse einzugehen

wenn ich mir mal Mass Effect anschaue muß ich eigentlich schon sagen das der G92 in 1280x1024 in akzeptabler Bildqualität zu langsam dafür ist.

Gegen das Massive Shaderflimmern hilft nämlich nur 2x2 SSAA und da sacken bei mir die FPS auf stellenweise unter 25 ab.

dargo
2008-06-04, 16:41:22
er hat aber schon recht SSAA

SSAA bringt in manchen Games Probleme mit sich. Es funktioniert einfach nicht richtig.


wenn ich mir mal Mass Effect anschaue muß ich eigentlich schon sagen das der G92 in 1280x1024 in akzeptabler Bildqualität zu langsam dafür ist.

ME kommt von der XBox360. Also, entweder haben die Entwickler die PC-Version optisch deutlich aufgebohrt oder die Portierung ist misslungen. Anders kann ich mir nicht erklären warum ein G92 zu langsam sein sollte.

Snoopy69
2008-06-04, 16:42:13
Wer kauft denn eine GTX2x0 um auf einer 1280er Funzel zu zocken ? Da langt auch dicke ne G92er oder G80 GTX ...
Ich frag mich, was für "Funzels" die meisten G200-Interessenten haben, da die Masse aller Zocker ja 19" @ 1280x1024 (oder gar 17) haben. Dafür ist diese karte wirklich oversized. Für 1920x1200 reicht sie allerdings nicht immer (wenn alles hoch sein soll). Ein HW-fressenderes (Graka) Game wie Crysis kenne ich derzeit nicht. Auch da wird man Abstriche machen müssen. Das wurde aber auch in Interviews VOR dem Release von Crysis gesagt.

InsaneDruid
2008-06-04, 16:42:13
Eben.

Manchmal wünschte ich mir ich hätte kein 1920*1200 (bzw 1650*1080 auf dem kleinen) sondern "nur" 1280..

Gast
2008-06-04, 16:43:24
Selbst mit 17" ist die 280 einfach schneller. Wer nun ohne AA und AF und mit mittleren Details spielt - wird da jedoch keinen Vorteil sehen.

dargo
2008-06-04, 16:47:29
Warum, wenn man auf Qualität steht?
Es spricht auch nichts dagegen. Wie gesagt, wenn genug Puffer da ist warum nicht? Aber wollen wir jetzt wirklich Grafikkarten anhand der SSAA-Performance beurteilen? Wenn jemand sagt, dass ein G92/G80 für 1280 ausreicht und ein anderer mit SSAA kommt dann denke ich mir nur :ugly:.

Dann sage ich jetzt auch, die G280GTX ist für 1280 viel zu langsam. Man wird damit Crysis in 1280x1024 4x4SSAA mit max. Details unter Vista nicht spielen können. Wollen wir wirklich so weiter machen?

Snoopy69
2008-06-04, 16:47:48
Eben.

Manchmal wünschte ich mir ich hätte kein 1920*1200 (bzw 1650*1080 auf dem kleinen) sondern "nur" 1280..
Den TFT kannst bestimmt so einstellen, als wenn du vor einem 19" sitzen würdest. Also 1280x1024 nicht auf 24" gestreckt. :wink:

@ dargo

Bei den Vista-Treibern hat sich viel getan. Man hat unter Vista mittlerweile genauso viel fps wie unter XP. Mit crysis64.exe hab ich sogar ein paar fps mehr :D

Anarchy-HWLUXX
2008-06-04, 16:53:39
Mit nem 24er kann man alles mögliche an Auflösungen fahren wenn man den Treiber so einstellt das nicht interpoliert wird - dann hat man eben nen schwarzen rand aussenrum hat mich aber net gestört bei paar älteren Games die kein WS support hatten ...

Unyu
2008-06-04, 16:53:41
Aber wollen wir jetzt wirklich Grafikkarten anhand der SSAA-Performance beurteilen?
Fände ich durchaus spannend. Man vergleicht doch auch die MSAA Performance. ;)

Las doch einfach mal Crysis weg, gibt auch noch andere Spiele... die SSAA mögen. :)

SSAA bringt in manchen Games Probleme mit sich. Es funktioniert einfach nicht richtig.

MSAA ist auch nicht immer so dolle... :(

dargo
2008-06-04, 16:54:28
@ dargo

Bei den Vista-Treibern hat sich viel getan. Man hat unter Vista mittlerweile genauso viel fps wie unter XP. Mit crysis64.exe hab ich sogar ein paar fps mehr :D
Mit Vista war eigendlich der DX10-Modus gemeint.

GeneralHanno
2008-06-04, 16:55:07
SSAA ist eigentlich genau das selbe, wie eine höhere auflösung ohne MSAA und AF. wer also die SSAA-leistung beurteilen will, muss auf benchs mit extremst hohen auflösungen gucken ;)

Snoopy69
2008-06-04, 16:56:14
Joh, ich spiele doch Crysis unter Vista x64. Und?

Gast
2008-06-04, 16:56:14
Werden zum Launch eigentlich genug Karten zur Verfügung stehen "hard launch" oder nur ein paar Alibikarten, weiss man das?

dargo
2008-06-04, 16:57:00
Las doch einfach mal Crysis weg, gibt auch noch andere Spiele... die SSAA mögen. :)

Es gibt aber genauso Spiele wo SSAA Probleme mit sich bringt. Schon mal NfS: ProSteet mit SSAA gespielt? Durch ein Fullscreeneffekt wird das ganze Bild unscharf/milchig.

Grestorn
2008-06-04, 16:58:34
Werden zum Launch eigentlich genug Karten zur Verfügung stehen "hard launch" oder nur ein paar Alibikarten, weiss man das?

Das wird man immer erst nachher wissen.

James Ryan
2008-06-04, 16:59:45
Es gibt aber genauso Spiele wo SSAA Probleme mit sich bringt. Schon mal NfS: ProSteet mit SSAA gespielt? Durch ein Fullscreeneffekt wird das ganze Bild unscharf/milchig.

Nicht nur NfS PS, sondern meiner Erfahrung nach auch
- C&C Tiberium Wars
- HL2 EP2
- CS:Source

MfG :cool:

Unyu
2008-06-04, 17:02:01
Es gibt aber genauso Spiele wo SSAA Probleme mit sich bringt.
Ja läuft nicht immer so dolle, aber oft genug. :)

SSAA ist eigentlich genau das selbe, wie eine höhere auflösung ohne MSAA und AF. wer also die SSAA-leistung beurteilen will, muss auf benchs mit extremst hohen auflösungen gucken ;)
Es wird selten ~ 3xxx x 2xxx oder höher getestet. ;)

Moralelastix
2008-06-04, 17:02:59
(Auch an AnarchX)
Ich weiß nicht, ob es ernst gemeint war, der User an sich ist seriös.


Die hatten damals bei der ATI Launch Demo auch nur das normale FarCry genutzt.

Hatte halt ne besonders hohe Ployanzahl......

Wär aber sicher interessant ob Crysis für ne NV Demo extra gepimpt würde.....

ShadowXX
2008-06-04, 17:03:26
Nicht nur NfS PS, sondern meiner Erfahrung nach auch
- C&C Tiberium Wars
- HL2 EP2
- CS:Source

MfG :cool:
Also zumindest EP2 kann ich mit Supersamplinganteil (8xS) ohne Probleme und irgendwelche Milchglaseffekte spielen.

Gosh
2008-06-04, 17:03:57
Wer kauft denn eine GTX2x0 um auf einer 1280er Funzel zu zocken ? Da langt auch dicke ne G92er oder G80 GTX ...

90% der Käufer

dildo4u
2008-06-04, 17:08:38
90% der Käufer
Wer 500€ für eine GTX280 ausgibt hat auch die 300€ für ein 24er TFT der wesentlich besser zur Karte passt.

Gast
2008-06-04, 17:09:27
Wer 500€ für eine GTX280 ausgibt hat auch die 300€ für ein 24er TFT der wesentlich besser zur Karte passt.


hihi 500 euro?meinst du die 260?

crux2005
2008-06-04, 17:10:47
Werden zum Launch eigentlich genug Karten zur Verfügung stehen "hard launch" oder nur ein paar Alibikarten, weiss man das?

manche haben schon ~ 20 GTX280 Karten "auf Lager" ;)

Anarchy-HWLUXX
2008-06-04, 17:22:25
90% der Käufer
Ich kann mir jetzt auch mal eben einen prozentwert erfinden - macht ihn aber kein stück realistischer.

GeneralHanno
2008-06-04, 17:24:44
Es wird selten ~ 3xxx x 2xxx oder höher getestet. ;)

naja, es gibt ja immerhin die 30"-2560*1600-er test, die auf die performence von 2x2-OGSSAA@1280*800 schließen lässt ;)

Coda
2008-06-04, 17:39:10
90% der Käufer
Leider ist das aber auch mein Eindruck. Viele kaufen sich High-End und haben dann noch nen 19"-CRT dran hängen.

Ist mir auch absolut schleierhaft. Da ist man dann knauserig.

dargo
2008-06-04, 17:44:19
Leider ist das aber auch mein Eindruck. Viele kaufen sich High-End und haben dann noch nen 19"-CRT dran hängen.

Ist mir auch absolut schleierhaft. Da ist man dann knauserig.
Naja, immerhin bekommt derjenige dann viel länger hohe FPS. :D

Odal
2008-06-04, 17:50:36
Leider ist das aber auch mein Eindruck. Viele kaufen sich High-End und haben dann noch nen 19"-CRT dran hängen.

Ist mir auch absolut schleierhaft. Da ist man dann knauserig.

beim crt ist es was anderes aber beim TFT hat man nunmal ne feste auflösung...wenn du performance nicht mehr reicht steht man doof da und muss hochskalieren lassen oder sich mit nem kleinen bild zufrieden geben...

und eigentlich schafft man auch highend auf 1280x1024 auszureizen..kommt immer auf die einstellungen drauf an....

und lieber hau ich SSAA bzw nen hybrid modus in kleinerer auflösung rein als ne 2xxx auflösung zu fahren und keine leistung mehr für AF und AA zu haben

ich mein nicht das ich highend kaufen würde aber wenn wärs bei mir auch in 1280x1024 ausgereizt

Nightspider
2008-06-04, 17:50:56
Leider ist das aber auch mein Eindruck. Viele kaufen sich High-End und haben dann noch nen 19"-CRT dran hängen.

Ist mir auch absolut schleierhaft. Da ist man dann knauserig.

Wayne ? Mein 19" hat perfektes Schwarzwert und schafft ne Auflösung von 2048*1600, mach das erstmal mit nem TFT :P ;D

PS: Werd mir jetzt dennoch nen 24"er kaufen...

Snoopy69
2008-06-04, 17:50:58
naja, es gibt ja immerhin die 30"-2560*1600-er test, die auf die performence von 2x2-OGSSAA@1280*800 schließen lässt ;)
Wobei 30" in der Auflösung für Manche Spiele viel zu viel sind. Immerhin müssen hier ca. 77% mehr Pixel berechnet werden im Gegensatz zu 1920x1200...
Da schafft keine käufliche HW zur Zeit!

Mit der höchsten Einstellung in Crysis wird man @ 1920x1200 auch 2x GTX280 in die Knie zwingen

Anarchy-HWLUXX
2008-06-04, 17:56:16
Ich bin von 18" auf 24" und der unterschied ist gewaltig ... am PC hängen nur meine zwei alten 18er und der 24er in der mitte, ich denk im traum nicht dran wieder auf einem der 18er zu Zocken.

Die leute die noch an ollen geräten humhängen wissen einfach nicht was sie verpassen.

tombman
2008-06-04, 18:02:11
Mit der höchsten Einstellung in Crysis wird man @ 1920x1200 auch 2x GTX280 in die Knie zwingen
Nein, wird man nicht. Mit zwei overclockten GTX @ SLI hatte ich, mit ALTEN TREIBERN, mit VERY HIGH + 4xAA @ 1920x1200 ca 19fps.

Also wirds mit 2x GTX280 GANZ SICHER flüssig sein ;)

Gosh
2008-06-04, 18:03:33
Leider ist das aber auch mein Eindruck. Viele kaufen sich High-End und haben dann noch nen 19"-CRT dran hängen.

Ist mir auch absolut schleierhaft. Da ist man dann knauserig.

Hat nichts mit Geiz zu tun,die beste Hardware ist einfach nicht gut genug um alle Spiele in 1900 und superduper AA AF spielen zu können,nicht in Top fps

Snoopy69
2008-06-04, 18:06:55
Nein, wird man nicht. Mit zwei overclockten GTX @ SLI hatte ich, mit ALTEN TREIBERN, mit VERY HIGH + 4xAA @ 1920x1200 ca 19fps.

Also wirds mit 2x GTX280 GANZ SICHER flüssig sein ;)
Glaube ich nicht...
Mit Tweaks, mit denen Crysis mal richtig geil aussieht werden auch 2x GTX280 kotzen :D
Immerhin ist Crysis für Insider frei skalierbar.

btw: 19fps sind alles andere als flüssig. Als richtig flüssig bezeichne ich ein Spiel mit ECHTEN (nicht nur gemessen) 30fps, wobei diese 30 die Min-fps sein sollen.

Im Interview wurde gesagt, dass die CryEnginge JEDE HW in den nächsten 1-2 Jahren ausreizen wird. Die 2 jahre sind noch nicht um :wink:

Anarchy-HWLUXX
2008-06-04, 18:07:00
Hat nichts mit Geiz zu tun,die beste Hardware ist einfach nicht gut genug um alle Spiele in 1900 und superduper AA AF spielen zu können,nicht in Top fps
Das wird auch NIE der fall sein ... es gibt immer ein oder zwei extrem Frodernde Games.

Glaube ich nicht...
Mit Tweaks, mit denen Crysis mal richtig geil aussieht werden auch 2x GTX280 kotzen :D
Immerhin ist Crysis für Insider frei skalierbar.

Super, frickeln mer am Game rum bis es nicht mehr läuft *applaus* Was hat das jetzt mit der Realität zu tun ?

Nightspider
2008-06-04, 18:08:27
Ich bin von 18" auf 24" und der unterschied ist gewaltig ... am PC hängen nur meine zwei alten 18er und der 24er in der mitte, ich denk im traum nicht dran wieder auf einem der 18er zu Zocken.

Die leute die noch an ollen geräten humhängen wissen einfach nicht was sie verpassen.

Schlechte Reaktionszeiten, Farbverfälschungen, ein blendendes Schwarz und eine niedrigere native Auflösung ? :rolleyes:

Leider werde ich auch so langsam zu einem TFT gezwungen... :(

Snoopy69
2008-06-04, 18:14:12
Super, frickeln mer am Game rum bis es nicht mehr läuft *applaus* Was hat das jetzt mit der Realität zu tun ?
Na du kannst es doch so skalieren, dass es noch super läuft.
Das was man von Haus aus sieht (sogar mit Patch 1.21) ist also noch nicht alles.

Bitteschön... http://www.forumdeluxx.de/forum/showthread.php?t=480414

Wem das noch nicht reicht hat ja noch die Sandbox 2 zum Spielen :D

Gast
2008-06-04, 18:15:19
Wenn er 19FPS mit zwei 8800GTX SLI hat wird das wohl locker auf zwei GTX 280 SLI flüssig laufen, die müssten ja was zwischen 40-50FPS haben....

Anarchy-HWLUXX
2008-06-04, 18:16:34
Schlechte Reaktionszeiten, Farbverfälschungen, ein blendendes Schwarz und eine niedrigere native Auflösung ? :rolleyes:

Leider werde ich auch so langsam zu einem TFT gezwungen... :(

1. Hä ? Alles subjektiv in dem Bereich, wenn man ich an specs aufgeilt geht türlich nix über CRT ... meine 18er haben angegebene 25ms und es hat mir nix ausgemacht :D

2. Kommt aufs Panel an und die wenigsten leute brauchen Farbtreue im Bereich der Druckvorstufe - mal abgesehen davon das die wenigsten ihre Monis gescheit kalibrieren, teilweise tut das scho weh wenn ich mir die gräuseligen Settings im Büro ansehe.

3. Schwarzwert - Könnte besser sein aber beiweitem kein KO kriterium.

4. Niedrig verglichen mit WAS ?


Wayne ? Mein 19" hat perfektes Schwarzwert und schafft ne Auflösung von 2048*1600, mach das erstmal mit nem TFT :P ;D

Die Maske ist Gnadenlos überfahren, die extra pixel sieht man da nemmer - von verwendung bei 2D mal ganz zu schweigen da 1600*1200 auf 21" gerade noch so OK ist zum Proggen.

Coda
2008-06-04, 18:17:01
Wayne ? Mein 19" hat perfektes Schwarzwert und schafft ne Auflösung von 2048*1600, mach das erstmal mit nem TFT :P ;D
Ich finde nicht das Problem, dass es ein CRT ist, aber 19" CRT (=17-18" TFT) ist einfach verdammt mickrig und nicht mehr zeitgemäß.

Ist natürlich nur meine Meinung, aber ich würde sowas nicht mehr an ner High-End-Grafikkarte betreiben. Unverhältnismäßig.

Schlechte Reaktionszeiten, Farbverfälschungen, ein blendendes Schwarz und eine niedrigere native Auflösung ? :rolleyes:

Leider werde ich auch so langsam zu einem TFT gezwungen... :(
High-End-TFTs (non-TN) sind gar nicht so übel. Ich hab auch lange an meinem CRT gehangen weil ich so einiges furchtbares gesehen hatte an TFTs, aber man muss da halt ein bisschen was investieren.

Wenn das 26"-Dingens vor dem ich sitz ne Röhre wär, wär sie wahrscheinlich mindestens 1m lang. Dann lieber so ;)

Gast
2008-06-04, 18:21:32
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4870_x2_geforce_gtx_280/

InsaneDruid
2008-06-04, 18:23:03
Den TFT kannst bestimmt so einstellen, als wenn du vor einem 19" sitzen würdest. Also 1280x1024 nicht auf 24" gestreckt. :wink:

Hehehe, jeah, da kann ich auch nen CRT rauskramen :)


[QUOTE=Anarchy-HWLUXX;6554934]Ich bin von 18" auf 24" und der unterschied ist gewaltig ... am PC hängen nur meine zwei alten 18er und der 24er in der mitte, ich denk im traum nicht dran wieder auf einem der 18er zu Zocken.

Die leute die noch an ollen geräten humhängen wissen einfach nicht was sie verpassen.

Also ich bin von 20" auf 24" gegangen und abseits des Platzgewinns zum Arbeiten (2d/3d) find ich den gefühlten Unterschied eher gering. Halt größer, hat man sich aber auch sehr fix dran gewöhnt und dann fällt es einem kaum noch auf.

Daher würde ich nicht pauschal kleinere Schirme (auf denen dann auch alles fixer läuft) als mies abtun.

Gut, evtl weil ich schon edn Umstieg 4:3 auf 16:10 hinter mir hatte, was wirklich ne Offenbahrung war.

Gast
2008-06-04, 18:27:46
is das so schwer nachzuvollziehen?



ist es denn so schwer nachzuvollziehen, dass es völlig sinnlos ist gefakte werte zu verbreiten nur um dann später als lügner dazustehen?

klar sind es marketingfolien, diese lügen aber üblicherweise nicht sondern erzählen vielleicht nur nicht die ganze wahrheit bzw. man zeigt fälle in denen man besonders gut dasteht und natürlich nicht solche in denen man nicht gut dasteht.

beim idle-stromverbrauch gibt es nur keine manipulationsmöglichkeiten, dieser ist immer praktisch gleich hoch. benchmarks oder auch den loadverbrauch kannst du in dem sinne manipulieren, dass du programme und/oder settings wählst in denen du besonders gut bist. diese möglichkeiten gibt es beim idle-verbrauch aber nicht, idle ist immer idle.

Black-Scorpion
2008-06-04, 18:29:21
Bei einer AMD Karte glaubst du es sofort.
AMD hat ja auch schon bewiesen das sie es können.
nV bis jetzt nur bei der 9600er und den Mobil Chips.
Der G80 hat ja nicht mal annähernd etwas was man als 2D Modus bezeichnen kann.
Ob sie es bei dem Monster auch können müssen sie erstmal beweisen.
Das ist der kleine aber feine Unterschied.

Coda
2008-06-04, 18:31:39
Vor G8x hatte NVIDIA auch Stromsparmodi. Erzähl doch keinen Crap.

Snoopy69
2008-06-04, 18:35:03
Wenn er 19FPS mit zwei 8800GTX SLI hat wird das wohl locker auf zwei GTX 280 SLI flüssig laufen, die müssten ja was zwischen 40-50FPS haben....
Werden wird ja sehen...
Mit Tweaks würde das der Einstellung "Ultra Hoch" entsprechen :wink:

Gast
2008-06-04, 18:39:10
Im Prinzip hat Anarchy-HWLUXX vollkommen recht. Es gibt nichts außer Crysis womit ein G92/G80 in 1280-er Auflösung überfordert wäre.


bildschirme mit 1680er auflösung sind allerdings praktisch schon mainstream, und auch "FullHD"-screens mit 1920er auflösung sind schon sehr weit in den bezahlbaren bereich gerutscht.

tombman
2008-06-04, 18:41:55
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/radeon_hd_4870_x2_geforce_gtx_280/
Wie gesagt, ich opfere locker alles bis +20%, wenn ich dafür durch 'nen single-chip 'ne perfekte frame-Verteilung bekomme ;)

Gast
2008-06-04, 18:45:53
1. Hä ? Alles subjektiv in dem Bereich, wenn man ich an specs aufgeilt geht türlich nix über CRT ... meine 18er haben angegebene 25ms und es hat mir nix ausgemacht :D

2. Kommt aufs Panel an und die wenigsten leute brauchen Farbtreue im Bereich der Druckvorstufe - mal abgesehen davon das die wenigsten ihre Monis gescheit kalibrieren, teilweise tut das scho weh wenn ich mir die gräuseligen Settings im Büro ansehe.

3. Schwarzwert - Könnte besser sein aber beiweitem kein KO kriterium.

4. Niedrig verglichen mit WAS ?




Die Maske ist Gnadenlos überfahren, die extra pixel sieht man da nemmer - von verwendung bei 2D mal ganz zu schweigen da 1600*1200 auf 21" gerade noch so OK ist zum Proggen.
In 3D kann man einen überfahrenen CRT ganz gut gebrauchen. Im Gegensatz zu TFTs mit nativen Pixeln gibts stattdessen massig downgesampeltes AA und das sieht gar nicht mal so schlecht aus. Schnelle Reaktionszeit, mehr Hz, UND hat schon einer mal gedacht das so ein Ding in 2048x1536 mit(!) SSAA betrieben werden kann...?

Black-Scorpion
2008-06-04, 18:52:49
Vor G8x hatte NVIDIA auch Stromsparmodi. Erzähl doch keinen Crap.
Und?
Danach haben sie es nicht geschafft. Oder habe ich was anderes gesagt?

RoNsOn Xs
2008-06-04, 18:53:18
In 3D kann man einen überfahrenen CRT ganz gut gebrauchen. Im Gegensatz zu TFTs mit nativen Pixeln gibts stattdessen massig downgesampeltes AA und das sieht gar nicht mal so schlecht aus. Schnelle Reaktionszeit, mehr Hz, UND hat schon einer mal gedacht das so ein Ding in 2048x1536 mit(!) SSAA betrieben werden kann...?
wie überfährt man?

The_Invisible
2008-06-04, 19:02:18
wie überfährt man?

du stellst eine höhere auflösung ein als es streifen/loch/schlitzmaske zulassen.

mfg

Unyu
2008-06-04, 19:02:49
nV bis jetzt nur bei der 9600er und den Mobil Chips.
Die 9600 hat keinen 2D Modus.
Das sie dort sparsam ist liegt am unglaublich sparsamen 3D Modus.


Danach haben sie es nicht geschafft. Oder habe ich was anderes gesagt?
Du hast diese Tatsache gekonnt verschwiegen:
"AMD hat ja auch schon bewiesen das sie es können."

frix
2008-06-04, 19:06:05
Auch wenn ich hier auf das OT thema eingehe. Aber man sollte die vorteile von TFT's nicht unterschlagen. Ich hatte einen sehr guten 19" CRT und hab nun einen sehr guten 24" TFT und ich bereuhe nichts.

RoNsOn Xs
2008-06-04, 19:16:10
du stellst eine höhere auflösung ein als es streifen/loch/schlitzmaske zulassen.

mfg
ist aber in keinem spiel anwählbar

Unyu
2008-06-04, 19:18:14
ist aber in keinem spiel anwählbar
Musst schon ins Treibermenü gehen.
Viel Spass mit einem verblurten Bild!

The_Invisible
2008-06-04, 19:24:15
ist aber in keinem spiel anwählbar

bei meinem alten 19" crt bin ich oft mit ner 2000er auflösung gefahren, da braucht man kein AA mehr :D

mfg

Gast
2008-06-04, 19:32:20
Gibt es schon Infos was für ein Netzteil man für den GTX280 benötigt ?

Reicht da noch ein 500 Watt Netzteil aus ?

Mit einer Geforce 7800 GTX komme ich mit meinejm System jetzt in 3D auf ca. 140 Watt Volllast.

MfG

RoNsOn Xs
2008-06-04, 19:32:40
Musst schon ins Treibermenü gehen.
Viel Spass mit einem verblurten Bild!
bin ich gewesen, kann diese auflösung dann auch anwählen, mein dsktop hat dann diese auflösung, aber im spiel ist dennoch nix von diesem modus zu sichten.

Snoopy1978
2008-06-04, 19:54:15
Gibt es schon Infos was für ein Netzteil man für den GTX280 benötigt ?

Reicht da noch ein 500 Watt Netzteil aus ?


Also ich denke schon das 500 Watt ausreichen dürften,ich versorge mit einem 380 Watt Netzteil eine 8800GTS(640) mit Saft und habe vor mit einem 900 Watt Netzteil ein SLI System mit GTX280 zu versorgen.

Gast
2008-06-04, 19:54:43
Wie gesagt, ich opfere locker alles bis +20%, wenn ich dafür durch 'nen single-chip 'ne perfekte frame-Verteilung bekomme ;)


Sagt der Sli user höchspersönlich?

Was ist denn mit dir los`?

Gast
2008-06-04, 20:04:10
Ich frag mich, was für "Funzels" die meisten G200-Interessenten haben, da die Masse aller Zocker ja 19" @ 1280x1024 (oder gar 17) haben. Dafür ist diese karte wirklich oversized. Für 1920x1200 reicht sie allerdings nicht immer (wenn alles hoch sein soll). Ein HW-fressenderes (Graka) Game wie Crysis kenne ich derzeit nicht. Auch da wird man Abstriche machen müssen. Das wurde aber auch in Interviews VOR dem Release von Crysis gesagt.

Die Karte ist nichtmal drausen und ihr wisst wohl alle schon wie sie Performt anhand EINER 3DMarkVantage Score. Mahlzeit, heut muss es wirklich heiss gewesen sein. Das ist keine Spekulation mit fundierten Quellen, sondern einfach nur gelaber, die letzten 15Seiten btw...

Gast
2008-06-04, 20:05:52
In 3D kann man einen überfahrenen CRT ganz gut gebrauchen. Im Gegensatz zu TFTs mit nativen Pixeln gibts stattdessen massig downgesampeltes AA und das sieht gar nicht mal so schlecht aus. Schnelle Reaktionszeit, mehr Hz, UND hat schon einer mal gedacht das so ein Ding in 2048x1536 mit(!) SSAA betrieben werden kann...?

Welcher CRT schafft in der Auflösung bitte 85 oder gar 100Hz?

tombman
2008-06-04, 20:11:49
Sagt der Sli user höchspersönlich?

Was ist denn mit dir los`?
Wieso, ist doch kein Widerspruch. Ich habe lieber 30fps ohne AFR als 36fps mit AFR ;) (GTX280 vs R700)

AnarchX
2008-06-04, 20:24:55
GTX 280 bei Gigabyte auf der Computex:
http://vga.zol.com.cn/94/949234.html

Gast
2008-06-04, 20:35:04
Wieso, ist doch kein Widerspruch. Ich habe lieber 30fps ohne AFR als 36fps mit AFR ;) (GTX280 vs R700)
Aber mit AFR Karte sprich Radeon kannst du MP Shooter gleich knicken.

dargo
2008-06-04, 20:37:06
Gibt es schon Infos was für ein Netzteil man für den GTX280 benötigt ?

Reicht da noch ein 500 Watt Netzteil aus ?

Die Wattzahl ist uninteressant. Das Ding soll 236W TDP haben. Nimm zur Sicherheit 200W real, also knapp 17A. Je nachdem wie sparsam deine CPU ist würde ich schon was in Richtung 30A combined aufwärts auf 12V empfehlen.

tombman
2008-06-04, 20:39:46
Aber mit AFR Karte sprich Radeon kannst du MP Shooter gleich knicken.
Ähm, genau das habe ich doch gerade gesagt...

Gast
2008-06-04, 20:46:23
Wird es vom G200 eingeltich auch kleinere Versionen geben, Nachfolger vom G92? Oder basiert der G92b schon auf dem G200?

Könnt mir da gut eine GPU mit:

6 Cluster mit 20ROPs / 320Bit / 640MB vorstellen!

Wären dann 144 Shader und 48 TMUs

Coda
2008-06-04, 20:47:11
Was macht man eigentlich wenn man ein Netzteil mit nur 2x6xPCIE-Stromstecker hat? Gibt's da einen Adapter?

Winter[Raven]
2008-06-04, 20:47:58
Also nur D3D10....

Gast
2008-06-04, 20:56:19
Irgendwie kann ich mich noch dunkel erinnern als die Anhänger von NVidia alle gschrien haben als ATI noch kein DX9 bei seinen Karten unterstüzt hatte. Da wurde gemeckert was das Zeug hält, Fortschrittsbremser usw. und jetzt. Bei einem Brandneuen Chip und dann kein DX10.1 da sollten die NVidianer mal ganz ruhig sein. Ein echtes Armutszeugnis! Aber vielleicht ist es für NVidia bei DX10.1 schwieriger die Treibertrickserein zu verbergen und deshalb wird es nicht unterstüzt...

tombman
2008-06-04, 20:57:24
Was macht man eigentlich wenn man ein Netzteil mit nur 2x6xPCIE-Stromstecker hat? Gibt's da einen Adapter?
Die Frage hat mich lang beschäftigt, zum Glück gibts für mein Netzteil eine Lösung ;)
http://www.alternate.de/html/product/Netzteile_Zubehoer/Enermax/EMC008_Zusatzkabel_PCIe_6+2/213687/?articleId=213687

Ich habe aber auf ebay schon echte 6 auf 8 pin Adapter gesehen. Zur Not kannste die auch fertigen lassen...

Oder einfach selbst bauen, die zwei zusätzlichen sind ja nur reine, schwarze Massekabel...

Daredevil
2008-06-04, 20:59:40
Was macht man eigentlich wenn man ein Netzteil mit nur 2x6xPCIE-Stromstecker hat? Gibt's da einen Adapter?
Sind diese denn unbedingt notwendig?
Bei der 2900xt hatte man 1x8Pin + 1x6Pin, man konnte sie jedoch auch mit 2x 6Pin betreiben und sogar gut übertakten, allerdings funktionierte Overdrive damit dann nicht.

pest
2008-06-04, 21:01:07
Oder einfach selbst bauen, die zwei zusätzlichen sind ja nur reine, schwarze Massekabel...

Das kann nur jmd. sagen der von Elektrotechnik nicht viel Ahnung hat.

Gast
2008-06-04, 21:04:10
Irgendwie kann ich mich noch dunkel erinnern als die Anhänger von NVidia alle gschrien haben als ATI noch kein DX9 bei seinen Karten unterstüzt hatte. Da wurde gemeckert was das Zeug hält, Fortschrittsbremser usw. und jetzt. Bei einem Brandneuen Chip und dann kein DX10.1 da sollten die NVidianer mal ganz ruhig sein. Ein echtes Armutszeugnis! Aber vielleicht ist es für NVidia bei DX10.1 schwieriger die Treibertrickserein zu verbergen und deshalb wird es nicht unterstüzt...

wie das in irgend einer form vergleichbar wäre und welche Treibertrickserein meist du genau? Das macht derzeit wohl eher ATI als NV...

Coda
2008-06-04, 21:04:28
Sind diese denn unbedingt notwendig?
Das wird sich noch herausstellen.

dargo
2008-06-04, 21:04:37
Was macht man eigentlich wenn man ein Netzteil mit nur 2x6xPCIE-Stromstecker hat? Gibt's da einen Adapter?
Du kannst davon ausgehen, dass die Grafikkartenhersteller einen Adapter beilegen. Es würde mich sehr wundern wenn dies nicht der Fall sein sollte.

Gast
2008-06-04, 21:06:00
Das kann nur jmd. sagen der von Elektrotechnik nicht viel Ahnung hat.

Es sind nur zwei Masseleitungen und von wo die kommen dürfte so ziemlich egal sein...

Coda
2008-06-04, 21:07:45
Du kannst davon ausgehen, dass die Grafikkartenhersteller einen Adapter beilegen. Es würde mich sehr wundern wenn dies nicht der Fall sein sollte.
Ich bin mir da nicht so sicher. Der 8-Pin-Stromanschluss ergibt ja nur Sinn wenn auch wirklich mehr Strom fließen kann.

Wenn dann müsste man irgendwie 1x normaler Stromstecker + 1x6xPCIe = 8xPCIe machen.

dargo
2008-06-04, 21:11:22
Ich bin mir da nicht so sicher. Der 8-Pin-Stromanschluss ergibt ja nur Sinn wenn auch wirklich mehr Strom fließen kann.

Hast du dir schon mal angesehen wie ein 6Pin auf Molex Adapter aussieht? :)

Coda
2008-06-04, 21:17:35
Inwiefern? Man macht nicht aus Spaß zwei zusätzliche Leitungen an einen Stecker um dann hinten wieder parallel zu schalten.

Gast
2008-06-04, 21:18:37
Wird es vom G200 eingeltich auch kleinere Versionen geben, Nachfolger vom G92? Oder basiert der G92b schon auf dem G200?

Könnt mir da gut eine GPU mit:

6 Cluster mit 20ROPs / 320Bit / 640MB vorstellen!

Wären dann 144 Shader und 48 TMUs

Nope das wird nix, G92b wird ein reiner Shrink auf 55nm. Die Marge per Wafer muss besser werden ^^

tombman
2008-06-04, 21:19:32
Das kann nur jmd. sagen der von Elektrotechnik nicht viel Ahnung hat.
Brauche ich auch gar nicht, weil ich ja genau weiß wie diese 6 auf 8 pin "Adapter" genau aussehen.
Rate mal was die machen? ....


Genau, die splitten die schwarzen Kabel einfach auf- wow :rolleyes:

dargo
2008-06-04, 21:23:03
Inwiefern?
Mein Adapter (ich habe überhaupt keinen PCIe Stecker am NT) geht von 3 +12V Leitungen an der Grafikkarte auf 2 +12V Leitungen an je einem Molexstecker. Das selbe Prinzip sollte kein Problem am 8Pin auf 6Pin Adapter darstellen.

Stimmt das eigendlich mit den 2 zusätzlichen Masseleitungen am 8Pin Stecker? Ich habe mir den noch nicht so genau angeguckt. Würde für mich aber keinen Sinn machen. Das würde bedeuten man schickt die vollen 150W nur über 3 +12V Leitungen? :|

Coda
2008-06-04, 21:24:24
Tombman du liegst leider falsch

Der 6er Stecker ist 2xVcc und 3xMasse (der gelbe in der Mitte muss nicht angeschlossen sein laut Spezifikation), der 8er 3xVcc und 5xMasse. Es ist eben nicht nur zusätzliche Masse - was auch keinen Sinn ergeben würde.

Damit dürfte aber entweder 6er+Molex oder auch Molex+Molex auf 8er möglich sein. Oder das Netzteil bietet sowieso schon 3xVcc auf dem 6er-Stecker, dann könnte man ihn wohl auch einfach so im 8er Anschluss verwenden. Verwirrend das ganze.

Grestorn
2008-06-04, 21:24:35
Das stabile Massepotential ist das Problem, nicht die +12V.

Chris2CB
2008-06-04, 21:25:55
Mein Adapter (ich habe überhaupt keinen PCIe Stecker am NT) geht von 3 +12V Leitungen an der Grafikkarte auf 2 +12V Leitungen an je einem Molexstecker. Das selbe Prinzip sollte kein Problem am 8Pin auf 6Pin Adapter darstellen.

Stimmt das eigendlich mit den 2 zusätzlichen Masseleitungen am 8Pin Stecker? Ich habe mir den noch nicht so genau angeguckt. Würde für mich aber keinen Sinn machen. Das würde bedeuten man schickt die vollen 150W nur über 3 +12V Leitungen? :|


Aha, man kann also lt. deiner Aussage Masse komplett weg lassen...........

Coda
2008-06-04, 21:27:58
Das stabile Massepotential ist das Problem, nicht die +12V.
Könnte man meinen. Ist aber nicht so, weil auch mehr Strom spezifiziert ist (~4 statt ~2A).

Die 150 statt 75W kommen ja nicht aus der Luft.

dargo
2008-06-04, 21:29:06
Aha, man kann also lt. deiner Aussage Masse komplett weg lassen...........
Wieso komplett weglassen? :confused:
Der 6Pin Stecker hat doch schon 3x Masse.

Was ich mir auch vorstellen könnte wenn das mit den 2 zusätzlichen Masseleitungen stimmen sollte - man geht von 8Pin auf 6Pin und zusätzlich auf den Molexstecker der schon 2x Masse bietet.

Coda
2008-06-04, 21:29:57
Es sind NICHT nur zwei zusätzliche Massen.

Chris2CB
2008-06-04, 21:31:48
Wieso komplett weglassen? :confused:
Der 6Pin Stecker hat doch schon 3x Masse.

Was ich mir auch vorstellen könnte wenn das mit den 2 zusätzlichen Masseleitungen stimmen sollte - man geht von 8Pin auf 6Pin und zusätzlich auf den Molexstecker der schon 2x Masse bietet.


schau mal oben was Coda geschrieben hat.

dargo
2008-06-04, 21:31:56
Es sind NICHT nur zwei zusätzliche Massen.
Könnt ihr euch endlich einig sein oder muss ich jetzt den 8Pin Stecker selbst unter die Lupe nehmen? :ugly:

Also was denn jetzt 1x +12V + 1x Masse?