PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 280/260: (P)Review-Thread


Seiten : 1 2 [3] 4

tombman
2008-06-16, 20:40:26
Wieviele GPGPU-Anwendungen spielst Du, wieviele GPGPU-Anwendungen spielen die Gamer im allgemeinen?
Das mußt Nvidia fragen, war nicht meine Design-Entscheidung...

Schlammsau
2008-06-16, 20:46:51
Und das wäre er MIT nicht? :rolleyes:

@Gast, Nr 2343: wenn mich wer direkt gefragt hätte, ob ich enttäuscht bin von der GTX280, dann hätte er eine direkt Antwort erhalten.
Das ist aber nicht geschehen...

@mods, bitte überprüft mal die IP Adressen der ganzen Gäste. Da haben sich sicher wieder einige regs ausgeloggt um gratis bashen zu können...
Bist du von der GTX280 entäuscht?

Snoopy69
2008-06-16, 20:47:35
Weniger Details? => Weiche, SATAN ;D

Bevor ich weniger Details in einem Spiel einstelle weigere ich mich es zu spielen :cool:

Es sind nicht nur 2 games... 8800GTX SLI hat erstmal 1920x1200 in fps Regionen gebracht, die fps-mäßig spielbar waren. Dann kamen die MR ;) Und deshalb brauche ich OVERKILL um von der MR Zone wegzukommen ;)

Und was wäre ein tombman ohne Übertreibung? :D
Geht mir nicht anders...
Allerdings schaue ich erst noch paar Wochen zu. Wakü ist hier für mich absolut Pflicht (Kühlblöcke werden sofort dazu gekauft), wenn ich lese, dass jmd Angst bekam, als der Lüfter hochdrehte :D

Und 2 von den Monstern...? Oje Tombi :ulol:

La Junta
2008-06-16, 20:48:29
Ich finde die Karte schon ziemlich interesant . Hatte es auch vor sie mir direkt bei release zu kaufen , was mich aber echt das erste mal bei ner Graka etwas erschreckt ist der Verbrauch . Einfach nur Krank , zudem weiss ich nicht ob meine Wakü für die Karte langen würde . Für die Leistung finde ich den preis nicht mal übertrieben . Hab aber da noch meine bedenken in Sachen Verbrauch und Kühlung .

Gast
2008-06-16, 20:49:12
Bist du von der GTX280 entäuscht?

Warum soll er? die GTX280 is im bereich vonner Gx2. Ich find jut.

tombman
2008-06-16, 20:51:22
Bist du von der GTX280 entäuscht?
Auf ner Skala von 1 bis 10, wobei 10= "ich spritz gleich ab, so geil ist die Karte" und 1="ich geh mich jetzt umbringen" würde ich sagen: ~7.
Geht mir nicht anders...
Allerdings schaue ich erst noch paar Wochen zu. Wakü ist hier (für mich) absolut Pflicht, wenn ich lese, dass jmd Angst bekam, als der Lüfter hochdrehte :D

Und 2 von den Monstern...? Oje Tombi :ulol:
Lautstärke erstmal egal, wie ich die kühle überlege ich mir später..

Aber erstmal welche bekommen, die nicht 550€+ kosten. Naja, mit Glück diese Woche...

Und wenn mir was ned paßt kann ich auch eine wieder verkaufen, sollte ganz schnell weggehen ...

d2kx
2008-06-16, 20:55:58
Bist du von zwei GTX 280 enttäuscht?

Von drei?

^^

tombman
2008-06-16, 20:58:04
Bist du von zwei GTX 280 enttäuscht?

Na DAS kann ich dir erst sagen, wenn ich sie selbst habe...

La Junta
2008-06-16, 20:58:46
Aber erstmal welche bekommen, die nicht 550€+ kosten. Naja, mit Glück diese Woche...

Und wenn mir was ned paßt kann ich auch eine wieder verkaufen, sollte ganz schnell weggehen ...

Hier in der Schweiz ist sie schon bei nem Händler lieferbar für 767 Franken , was ca 480 Euro entspricht . Denke nicht das es bei euch anders sein wird , bzw ist .

Edit : Nur noch 2 stk. . Soll ich , soll ich nicht ??? .... Kacke ist das scheisse :D .

Gast
2008-06-16, 21:01:45
Jo die Preise sind schon ein wenig am Fallen, 500€ sind schon unterschritten, nächste Woche kann schon 450€ das Maß sein.
Die GTX260 geht schon für 329€ bei ihr ist dann mit Einführung der HD4870 sicher 299€ drin.
Wobei die OC Versionen der GTX260 mal stark zu wünschen übrig lassen...
http://geizhals.at/deutschland/a344444.html

MadManniMan
2008-06-16, 21:07:39
Das mußt Nvidia fragen, war nicht meine Design-Entscheidung...

Ich frag Dich aber, warum Du dann über den G200 sprichst, als wäre er eine ähnliche Offenbarung, wie der G80.

aths
2008-06-16, 21:08:50
dass will ich wissen. und vorallem ob mein bequiet straight power 500w reichen würde.....280: 8+6-Pin. 550 Watt Minimum.

tombman
2008-06-16, 21:11:16
Hier in der Schweiz ist sie schon bei nem Händler lieferbar für 767 Franken , was ca 480 Euro entspricht . Denke nicht das es bei euch anders sein wird , bzw ist .

Edit : Nur noch 2 stk. . Soll ich , soll ich nicht ??? .... Kacke ist das scheisse :D .
Ich hätte ja gesagt, bestell mir zwei, aber da Schweiz nicht in der EU ist -> ne laß mal, keinen Bock darauf, daß der Zoll sich 2 Wochen dran aufgeilt ;D
Ich frag Dich aber, warum Du dann über den G200 sprichst, als wäre er eine ähnliche Offenbarung, wie der G80.
Einbildung...

tombman
2008-06-16, 21:11:46
280: 8+6-Pin. 550 Watt Minimum.
Und wieviel Watt bei 2x 280? Reicht mein 1000er?

Was sagen deine Unterlagen?

aths
2008-06-16, 21:14:37
Naja, ich hoffe doch aths Artikel geht heute noch online, dieser wäre dann eine gute Basis mit dem zugehörigen Thread, um darüber weiterzudiskutieren.Ich warte noch auf einige Details von Nvidia. Da lasse ich mich auch nicht hetzen. Mein Artikel soll auch keinen Gesamtüberblick über den neuen Chip bieten, sondern lediglich einige Aspekte beleuchten.

aths
2008-06-16, 21:16:01
Und wieviel Watt bei 2x 280? Reicht mein 1000er?

Was sagen deine Unterlagen?1000 W reichen locker. Das Problem ist, dass die neuen Chips die Leistungsaufnahme so regeln, dass sie manchmal in sehr kurzer Zeit sehr viel mehr Strom verbrauchen als vorher. Es gibt Netzteile, deren Elektronik "denkt" dass ein Kurzschluss aufgetreten ist und dann abschalten.

Einen Gedanken vom kommenden (kurzen) Artikel kann ich schon mal vorwegnehmen: Die neue Karte ist grob vergleichbar mit dem G70. Zwar deutlich schneller als der NV40, aber der G71 brachte dann noch mal spürbar mehr Takt. Immerhin ist die GTX-280 locker 50-80% schneller als die 9800 GTX, und dank (im Verhältnis zu den TMUs) überproportional gestiegener Shaderpower vor allem für zukünftige Spiele besser gerüstet.

Was mich wiederum nervt: Auch die neue GTX bietet nur D3D 10.0.

Snoopy69
2008-06-16, 21:22:15
280: 8+6-Pin. 550 Watt Minimum.
Wie berechnest du das?


1000 W reichen locker. Das Problem ist, dass die neuen Chips die Leistungsaufnahme so regeln, dass sie manchmal in sehr kurzer Zeit sehr viel mehr Strom verbrauchen als vorher. Es gibt Netzteile, deren Elektronik "denkt" dass ein Kurzschluss aufgetreten ist und dann abschalten.

Klingt einleuchtend.
Könnte man auch modden, oder? Ich mein, nen fetten Puffer Elko in die 12V-Leitung basteln. Gut oder gefährlich für HW (beim Ausschalten)?

Ich würde auch SLI mit meinem NT (Sig.) probieren.

aths
2008-06-16, 21:23:42
Wie berechnest du das?Offizielle Nvidia-Angabe. Ich weiß auch von Leuten, dass sie mit einem 550-W-NT die GTX 280 getestet haben. Empfehle aber eher 650+ W bei Effizienz 80+.

Klingt einleuchtend.
Könnte man auch modden, oder? Ich mein, nen fetten Puffer Elko in die 12V-Leitung basteln. Gut oder gefährlich für HW (beim Ausschalten)? Ich würde an Transformatoren nicht basteln.

Hast du zwei 8-Pin- und zwei 6-Pin-Stecker an deinem NT?

derwalde
2008-06-16, 21:28:02
280: 8+6-Pin. 550 Watt Minimum.

dann ist sie erstmal erst recht gestorben. 70 euro fürn neues netzteil auf die 550€ ist WAY TOO MUCH.

Das Auge
2008-06-16, 21:30:46
Einen Gedanken vom kommenden (kurzen) Artikel kann ich schon mal vorwegnehmen: Die neue Karte ist grob vergleichbar mit dem G70. Zwar deutlich schneller als der NV40, aber der G71 brachte dann noch mal spürbar mehr Takt.

Na bei den bescheidenen Yieldraten kann man nur hoffen, daß nv schnell auf 55nm umsteigt und es einen Massenkompatiblen G200 gibt. Wann kann man eigentlich mit 45nm bei TSMC rechnen?

Snoopy69
2008-06-16, 21:32:43
Offizielle Nvidia-Angabe. Ich weiß auch von Leuten, dass sie mit einem 550-W-NT die GTX 280 getestet haben. Empfehle aber eher 650+ W bei Effizienz 80+.

Ich würde an Transformatoren nicht basteln.

Hast du zwei 8-Pin- und zwei 6-Pin-Stecker an deinem NT?
*Energieelektroniker* :wink:

Nicht direkt IM NT, sondern nur die Ausgänge etwas stabilisieren (bei kurzzeitig hohen Strömen).

Gast
2008-06-16, 21:35:14
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Leadtek/GTX280/274025/?articleId=274025&tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Lieferbar!

Gast
2008-06-16, 21:37:47
Offizielle Nvidia-Angabe. Ich weiß auch von Leuten, dass sie mit einem 550-W-NT die GTX 280 getestet haben. Empfehle aber eher 650+ W bei Effizienz 80+.

Ich würde an Transformatoren nicht basteln.

Hast du zwei 8-Pin- und zwei 6-Pin-Stecker an deinem NT?

Die Nvidia Angaben kannst du vergessen. Die müssen auch "Xilence" und solche Konsorten mit berücksichtigen, auf deren Wattangaben nicht so Verlass ist.

Mein System frisst aktuell unter last mit GTS 512 und 3,2Ghz Quad 240W---Nun rechne halt 130W drauf dann hast du 370W...das sollte ein gutes 500W NT (z.b. enermax) packen

Snoopy69
2008-06-16, 21:38:53
http://geizhals.at/deutschland/a344396.html

mapel110
2008-06-16, 21:40:54
Die Nvidia Angaben kannst du vergessen. Die müssen auch "Xilence" und solche Konsorten mit berücksichtigen, auf deren Wattangaben nicht so Verlass ist.

Mein System frisst aktuell unter last mit GTS 512 und 3,2Ghz Quad 240W---Nun rechne halt 130W drauf dann hast du 370W...das sollte ein gutes 500W NT (z.b. enermax) packen
Du kannst das nicht so einfach hochrechnen. Die Gesamtleistung des NTs ist relativ unwichtig. Wichtiger ist die Leistung auf der 12 Volt Schiene.

La Junta
2008-06-16, 21:41:34
Ich warte noch etwas mit dem kauf , auch wenns hart ist . Aber ein neues Netzteil u.s.w , es kommt doch schon so einiges zusammen :D .

http://www.digitec.ch/ProdukteDetails2.aspx?Reiter=Details&Artikel=151300 <--- Für die Schweizer unter uns :D .

Edit : Naja das letzte stk. inzwischen .

Snoopy69
2008-06-16, 21:42:45
Bin ich blind oder gibt es KEINE GTX280 mit HDMI???

Odal
2008-06-16, 21:47:26
*Energieelektroniker* :wink:

Nicht direkt IM NT, sondern nur die Ausgänge etwas stabilisieren (bei kurzzeitig hohen Strömen).


und der rechner läuft noch ne halbe stunde nach dem ausschalten nach ;D

user77
2008-06-16, 21:48:58
ich weiß nicht was alle erwartet habe?

die karte ist in hohen qualitätseinstellungnen 40-60% schneller als die bisher schnellst singlechip Graka (9800gtx).

und derzeit kostet sie halt wie jede neue high end grafikkarte 500€, was hat damals die 8800 ultra gekostet (noch mehr)

wenn die hd 4er reihe rauskommt werden die preise fallen!

Daddelprinz
2008-06-16, 21:51:27
Bin ich blind oder gibt es KEINE GTX280 mit HDMI???

Nur mit Adapter Stecker, der DVI hat aber auch HDCP Verschlüsselung....

Gast
2008-06-16, 21:59:11
Du kannst das nicht so einfach hochrechnen. Die Gesamtleistung des NTs ist relativ unwichtig. Wichtiger ist die Leistung auf der 12 Volt Schiene.

Abend,
mein Antec Phantom 500 hat 400W auf der 12V
Würde das reichen?

Snoopy69
2008-06-16, 22:02:01
und der rechner läuft noch ne halbe stunde nach dem ausschalten nach ;D
Dann hätte ich gleichzeitig ne "USV" :D


Nur mit Adapter Stecker, der DVI hat aber auch HDCP Verschlüsselung....
Das ist doch Sch...!!! :P
ATI ist da wesentlich fortschrittlicher. (DVI, HDMI und DP an einer Karte). Wobei bei DP höhere Auflösungen als mit HDMI möglich wären.

Gast
2008-06-16, 22:07:22
Dann hätte ich gleichzeitig ne "USV" :D



Das ist doch Sch...!!! :P
ATI ist da wesentlich fortschrittlicher. (DVI, HDMI und DP an einer Karte). Wobei bei DP höhere Auflösungen als mit HDMI möglich wären.


Wer braucht HDMI? AnyHD-DVD tuts auch :D

Grestorn
2008-06-16, 22:08:40
Ob man nun einen Adapter von HDMI auf DVI braucht (wenn man 2 Monitore anschließen will) oder einen von DVI auf HDMI (wenn man ein TV anschließen will) ist doch egal, oder?

Gast
2008-06-16, 22:10:08
irgendwie wirkt die 200er sehr "wuchtig" ......

passt die noch in "normale" Gehäuse rein ?

MikBach
2008-06-16, 22:42:49
Ob man nun einen Adapter von HDMI auf DVI braucht (wenn man 2 Monitore anschließen will) oder einen von DVI auf HDMI (wenn man ein TV anschließen will) ist doch egal, oder?
Davon sollte man eh die Finger lassen.
Bestmögliche Qualität gibts nur per VGA. Soweit am TV vorhanden.

Grestorn
2008-06-16, 22:45:43
Davon sollte man eh die Finger lassen.
Bestmögliche Qualität gibts nur per VGA. Soweit am TV vorhanden.

Und wieso das?

Overscan: Kein Thema bei guten Geräten.
RGB-Range: Kein Thema.
Skalierung: Kein Thema bei guten Geräten.

Don Vito
2008-06-16, 22:47:44
Und wieso das?

Overscan: Kein Thema bei guten Geräten.
RGB-Range: Kein Thema.
Skalierung: Kein Thema bei guten Geräten.
Sehe ich auch so...

HPVD
2008-06-16, 22:48:48
....
ATI ist da wesentlich fortschrittlicher. (DVI, HDMI und DP an einer Karte). ....

gibts irgendwo schon ATI-karten mit Displayport??
Oder ist es gesichert (foto!!) das die neuen HD4xxx einen haben?

MikBach
2008-06-16, 22:49:01
Und wieso das?
Weil du per HDMI oft die Bild"verbesserer" hast, die die BQ verschlechern.
Ausserdem schluckt nicht jeder Flach-TV die native Auflöung per HDMI, aber das hatten wir schon...
edit:

Overscan: Kein Thema bei guten Geräten.
Bei eingen Geräten schon.

Skalierung: Kein Thema bei guten Geräten.
Ist das dein ernst?
Skalierung ist immer von Nachteil.
Deswegen nativ per VGA.
Klappt immer problemlos

Henroldus
2008-06-16, 22:49:02
Du kannst das nicht so einfach hochrechnen. Die Gesamtleistung des NTs ist relativ unwichtig. Wichtiger ist die Leistung auf der 12 Volt Schiene.
kann man hierzu die beiden 12V Leitungen addieren?
hab ein 400W Enermax Liberty mit 2x 20A auf den 12V schienen, sollte doch für ne GTX260 (2x 6pin) reichen oder?
als CPU kommt dann noch ein Sparsamer Wolfdale 8400 rein

Anarchy-HWLUXX
2008-06-16, 22:49:53
Das ist doch Sch...!!! :P
ATI ist da wesentlich fortschrittlicher. (DVI, HDMI und DP an einer Karte). Wobei bei DP höhere Auflösungen als mit HDMI möglich wären.

LoL ? Weleches Standard ATi Layout einer High End Karte hat HDMI ?

-> Keins.

Die Modelle mit HDMI sind eigenentwicklungen der Hersteller.

anddill
2008-06-16, 22:50:59
*Energieelektroniker* :wink:

Nicht direkt IM NT, sondern nur die Ausgänge etwas stabilisieren (bei kurzzeitig hohen Strömen).
Auch wenn ich der Meinung bin, daß es nicht wirklich sinnvoll ist:
http://www.caseking.de/shop/catalog/Netzteile/Levicom/Levicom-Stabilizer-V-VGA::10716.html

Daredevil
2008-06-16, 22:55:03
LoL ? Weleches Standard ATi Layout einer High End Karte hat HDMI ?

-> Keins.

Die Modelle mit HDMI sind eigenentwicklungen der Hersteller.
Macht man mit dem DVI > HDMI Adapter mit Sound nicht das gleiche?

mictasm
2008-06-16, 23:10:17
*Energieelektroniker* :wink:

Nicht direkt IM NT, sondern nur die Ausgänge etwas stabilisieren (bei kurzzeitig hohen Strömen).

Bitte nicht die Ausgänge eines Schaltnetzteils mit einer Batterie (Autohifi) vergleichen. Da kann ein zu großer Kondensator (und nur ein wirklich großer würde etwas puffern) auch schaden.

schnarx
2008-06-16, 23:13:35
Ich liebäugle mit der 280er. Bis dafür Wakü Teile dafür erhältlich sind halte ich mich noch zurück.

Wo bekomme ich einen Adapter für den 8-Pol Anschluss? Mein S12-500 bietet keinen derartigen Anschluss.

Wäre evtl noch ein sinnvolle Information für die erste Seite.

Snoopy69
2008-06-16, 23:16:15
Davon sollte man eh die Finger lassen.
Bestmögliche Qualität gibts nur per VGA. Soweit am TV vorhanden.
VGA? Du machst Witze oder?
Wie willst du mit analogem VGA scharfes Full-HD realisieren? Das sieht mega-beschissen aus.


Auch wenn ich der Meinung bin, daß es nicht wirklich sinnvoll ist:
http://www.caseking.de/shop/catalog/Netzteile/Levicom/Levicom-Stabilizer-V-VGA::10716.html
Sieh an :)
Wäre aber wirklich interessant zu wissen, ob man ein NT, das ander Abschaltgrenze ist (laut Aths). mit dem Teil stabilisiert werden kann. Soll ja nur kurzzeitig hohe Ströme liefern. Könnte damit klappen. Müsste man aber testen.

Ich hatte dich schon mal gefragt, ob es möglich wäre 2 gleiche NTs zu parallelisieren. Müsste doch mit einer Schaltung zw. beiden NTs (wegen der Masse-Sache) zu machen sein, oder?

Bitte nicht die Ausgänge eines Schaltnetzteils mit einer Batterie (Autohifi) vergleichen. Da kann ein zu großer Kondensator (und nur ein wirklich großer würde etwas puffern) auch schaden.
Begründung?
Natürlich muss davor ein berechneter Vorwiderstand rein, klar.
Die Ausgänge sind im übrigen ja auch gepuffert (halt nicht so gross - nimmt ja auch viel Platz weg)

dildo4u
2008-06-16, 23:20:21
Ein paar Vergleiche mit GTX 280 vs G80/G92 im SLI und GTX 280 (TRI) SLI vs GX2 QuadSLI.


http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/slicoh.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/sliep2.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/sliqw.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/slifear.gif


http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/page13.asp

Snoopy69
2008-06-16, 23:22:02
@ dildo4u

Wo ist Crysis? 60fps? :D

dildo4u
2008-06-16, 23:24:11
Die haben Crysis nicht im SLI getestet.Hothardware schon aber ohne AA. :rolleyes:

http://www.hothardware.com/articleimages/Item1167/crysis.png

http://hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/?page=11

Snoopy69
2008-06-16, 23:27:52
Die haben Crysis nicht im SLI getestet.
Vielleicht weil das Ergebnis sehr böse wäre.
Konnte man ja auch paar Wochen vorher irgendwo lesen, dass selbst T-SLI bei dieser Auflösung zu schuften hat.

edit:

O_o: Bei 4xAA kotzt T-SLI nur so ab. Und das war noch nicht mal Very High oder mit Tweaks (= Ultra High) :ulol:
2009 könnte es "vielleicht" ein T-SLI schaffen. Aber nur vielleicht...

czuk
2008-06-16, 23:29:27
Bin ich eigentlich der einzige, den (erstmals) der enorme Stromverbrauch des G280 so richtig -pardon- anpisst?

Ich hab ja damals mit vielem kein Problem gehabt; GfFX, Gf6800GT, Gf8800GTS aber diese GPU liegt nun erstmals deutlich über meiner Schmerzgrenze - die ist einfach nicht akzeptabel für mich, so hart es als Performance-Liebhaber auch sein mag.

Gast
2008-06-16, 23:29:36
Ein paar Vergleiche mit GTX 280 vs G80/G92 im SLI und GTX 280 (TRI) SLI vs GX2 QuadSLI.


http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/slicoh.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/sliep2.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/sliqw.gif

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/images/slifear.gif


http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/page13.asp


Locker GX2 Niveau.

MikBach
2008-06-16, 23:34:07
VGA? Du machst Witze oder?
Wie willst du mit analogem VGA scharfes Full-HD realisieren? Das sieht mega-beschissen aus.

Wenn man keine Ahnung hat...

BTW ich schreibe jetzr am LCD-TV per VGA und es sieht perfekt aus.
Per HDMI war es schlechter.

schnarx
2008-06-16, 23:36:44
Bin ich eigentlich der einzige, den (erstmals) der enorme Stromverbrauch des G280 so richtig -pardon- anpisst?

Ich hab ja damals mit vielem kein Problem gehabt; GfFX, Gf6800GT, Gf8800GTS aber diese GPU liegt nun erstmals deutlich über meiner Schmerzgrenze - die ist einfach nicht akzeptabel für mich, so hart es als Performance-Liebhaber auch sein mag.

Weniger wäre gewiss schön gewesen, was will man noch großartig darüber verlieren. Green-ITler müssen wohl auf den Refresh warten. ;D.
Idle hält es sich ja noch in Grenzen, hätte durchaus schlimmer kommen können. :rolleyes:

Henroldus
2008-06-16, 23:37:36
Bin ich eigentlich der einzige, den (erstmals) der enorme Stromverbrauch des G280 so richtig -pardon- anpisst?

Ich hab ja damals mit vielem kein Problem gehabt; GfFX, Gf6800GT, Gf8800GTS aber diese GPU liegt nun erstmals deutlich über meiner Schmerzgrenze - die ist einfach nicht akzeptabel für mich, so hart es als Performance-Liebhaber auch sein mag.
geht mir ähnlich, was nützt ein geringer Idle Verbrauch, wenn ich zum Gamen ein neues Netzteil brauche?
Es wird maximal die 260er werden, zumal sie preis/leistiúngs mässig um einiger besser da steht.
Vorher heißt es aber noch die ATI 48701GB abwarten :biggrin:

dildo4u
2008-06-16, 23:38:49
O_o: Bei 4xAA kotzt T-SLI nur so ab. Und das war noch nicht mal Very High oder mit Tweaks (= Ultra High) :ulol:
2009 könnte es "vielleicht" ein T-SLI schaffen. Aber nur vielleicht...
Wenn man von den Scores hier ausgeht dürfte ein GTX280 Tri-SLI ca auf 40-45fps im Schnitt kommen bei 1920*1200 4XAA Very High.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

Snoopy69
2008-06-16, 23:40:02
Wenn man keine Ahnung hat...

BTW ich schreibe jetzr am LCD-TV per VGA und es sieht perfekt aus.
Per HDMI war es schlechter.
Warum schreibst du es dann?

http://de.wikipedia.org/wiki/Video_Graphics_Array

http://de.wikipedia.org/wiki/Hdmi

Wirds jetzt klar? :wink:

edit:

Sorry, dann taugt der LCD nix. Wenn er perfekt Full-HD beherrscht, sieht es auch perfekt aus. VGA ist analoger "Abfall" in meinen Augen.

MuLuNGuS
2008-06-16, 23:45:06
die GTX260 gibt's ja schon ab 329€, hätt ich jetzt nicht gedacht.

MikBach
2008-06-16, 23:46:19
Warum schreibst du es dann?

http://de.wikipedia.org/wiki/Video_Graphics_Array

http://de.wikipedia.org/wiki/Hdmi

Wirds jetzt klar? :wink:

edit:

Sorry, dann taugt der LCD nix. Wenn er perfekt Full-HD beherrscht, sieht es auch perfekt aus. VGA ist analoger "Abfall" in meinen Augen.
Dann hast du keine Ahnung.
Perfektes Bild am LCD-TV erreichst du in den meistem fällen nur mit VGA, da sonst die Bilverbesserer das bild unnatürlich machen.
Das Thema ist aber schon oft durchgekaut worden...

Gast
2008-06-16, 23:50:51
die GTX260 gibt's ja schon ab 329€, hätt ich jetzt nicht gedacht.


Jup, fast ein Preisbrecher, die 300€ Grenze fällt sicher. Seltsam das ist...

Mr.Magic
2008-06-16, 23:55:39
Dann hast du keine Ahnung.
Perfektes Bild am LCD-TV erreichst du in den meistem fällen nur mit VGA, da sonst die Bilverbesserer das bild unnatürlich machen.
Das Thema ist aber schon oft durchgekaut worden...

1. Perfektes Bild ist bei Digital->Analog->Digital-Wandlung nicht möglich (ansonsten auch nicht, irgendwo ist immer ein Kompromiss). Im besten Fall ist der Qualitätsverlust beim VGA-Kabel so gering, dass er nicht weiter auffällt.
Bei 37"-FullHD und 0,5-1,5m Abstand müsste es dazu z.B. schon ein extrem hochwertiges Kabel sein.
http://home.arcor.de/magic-dsl/nethands/Desktop.JPG2. Bei ordentlichen Geräten kann man alle Bildverbesserer abschalten.
3. Ja, das wurde es. Möglicherweise hättest du mal ein paar Threads zu diesem Thema durchlesen sollen.

Sorry wegen OT, aber das ist ja nicht auszuhalten.

Daddelprinz
2008-06-16, 23:57:21
Dann hast du keine Ahnung.
Perfektes Bild am LCD-TV erreichst du in den meistem fällen nur mit VGA, da sonst die Bilverbesserer das bild unnatürlich machen.
Das Thema ist aber schon oft durchgekaut worden...

Also ich erreiche hier an drei verschiedenen(!) HD Flachschirmen ganz sicher das beste Bild über eine Digitale Verbindung.
DVI & HDMI lassen VGA technisch einfach alt aussehen.

Wenn Dein Bildschirm so ein schlechtes Bild macht tausche das Gerät besser um...

:ulol:

dargo
2008-06-16, 23:59:38
Jup, fast ein Preisbrecher, die 300€ Grenze fällt sicher. Seltsam das ist...
Was soll daran seltsam sein? Ich habe doch gesagt, die G260GTX wird 290€ kosten. Eventuell sogar etwas weniger.

Gast
2008-06-16, 23:59:49
Bin ich eigentlich der einzige, den (erstmals) der enorme Stromverbrauch des G280 so richtig -pardon- anpisst?

Ich hab ja damals mit vielem kein Problem gehabt; GfFX, Gf6800GT, Gf8800GTS aber diese GPU liegt nun erstmals deutlich über meiner Schmerzgrenze - die ist einfach nicht akzeptabel für mich, so hart es als Performance-Liebhaber auch sein mag.

Ich finde den Verbracuh unter last ga rnicht mal so schlimm, den laut computerbase hat eine 8800ULTRA nur 20Watt weniger!

Auf die Leistung bezogen ist der G200 sicher als recht sparsam anzusehen!

Snoopy69
2008-06-17, 00:02:44
Dann hast du keine Ahnung.
Perfektes Bild am LCD-TV erreichst du in den meistem fällen nur mit VGA
Analog - niemals! (Unschärfe, Schatten, Rauschen)
Ich gehe vom Optimum aus und nicht von Billig-LCDs.

Aber lassen wir das. Analog ist ja das "Beste" (deiner Meinung nach).
Die Wiki´s sprechen jedenfalls Bände...

Coda
2008-06-17, 00:08:37
Also rein technisch gesehen ist VGA ganz sicher unterlegen wenn das digitale Signal vernünftig vom Bildschirm verwendet wird. Da braucht man ja nicht drüber diskutieren wie ich finde.

tb
2008-06-17, 00:10:55
Dann hast du keine Ahnung.
Perfektes Bild am LCD-TV erreichst du in den meistem fällen nur mit VGA, da sonst die Bilverbesserer das bild unnatürlich machen.
Das Thema ist aber schon oft durchgekaut worden...

Die Bildverbesserer greifen aber oft auch bei analogem Signal, wie bei älteren 100Hz Röhrengeräten. Da ist die beste Lösung, ein sauberes digitales Signal und alle "Bildverbesserer" abschalten, dazu zähl ich auch mal Dinge wie Bildschärfe erhöhen etc...


Thomas

dildo4u
2008-06-17, 00:16:12
VR-Zone Review

http://vr-zone.com/proofread/5881/8

Snoopy69
2008-06-17, 00:20:34
*grrr*
Schon wieder keine Angabe, ob AA aktivl war.

TheBrother
2008-06-17, 00:23:12
Im Benchmarkreview, review gibts die links zum Beta GPU Folding Client und BadaBOOM (beide brauchen aber den Launch Treiber...) Hab die News nirgendwo gefunden, wollte aber auch keinen extra Thread aufmachen...

http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip

http://benchmarkreviews.com/content/software/BadaBoom.zip

Gruß

Brother

Raff
2008-06-17, 00:24:45
Ich weiß gar nicht, was ihr noch sehen wollt. Die Karte ist zwischen 30 und 800 :D Prozent schneller als eine 8800 Ultra, meist jedoch "nur" 50-60 Prozent. Das zieht sich durch alle glaubhaften, kompetent durchgeführten Tests. Und die lassen sich doch an einer Hand abzählen. ;)

MfG,
Raff

dargo
2008-06-17, 00:28:46
Ich weiß gar nicht, was ihr noch sehen wollt. Die Karte ist zwischen 30 und 800 :D Prozent schneller als eine 8800 Ultra, meist jedoch "nur" 50-60 Prozent. Das zieht sich durch alle glaubhaften, kompetent durchgeführten Tests. Und die lassen sich doch an einer Hand abzählen. ;)

Weißt du was mir bei den ganzen Benchmarks seltsam vorkommt? Diese Extremen zwischen vielen Games (ich meine jetzt keine Messungen wo der Vram ausgeht). Mal sind es nur paar Prozentpunkte Vorsprung, dann ist der Vorsprung wieder durchaus gewaltig (> Faktor 2 G8800GTX). Bevor ich die Karte entgültig beurteile warte ich erstmal paar Wochen auf einige neue Treiber.

Raff
2008-06-17, 00:30:50
Neue Treiber werden da gewiss noch was reißen, Wunder würde ich aber keine erwarten. Es ist eben keine "neue", sondern eine aufgebrezelte Architektur, die vielleicht noch ein paar Blasen hat.

Für weitere "Extreme" gibt's morgen auf pcgh.de feine Benchies mit FSAA ab 16xQ.

MfG,
Raff

Snoopy69
2008-06-17, 00:41:34
Wurde das schon gepostet? http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_VGPU_Modifications/5880.html

Marodeur
2008-06-17, 00:42:20
Wenn ich mir die Benchmarks so ansehe find ich die 260er wirklich interessanter als die 280er. Vor allem auch die OC-Ergebnisse sind nicht schlecht, mal sehen was mit besserer Kühlung drin ist.

http://enthusiast.hardocp.com/images/articles/1213329410dkPbuPba8A_10_3_l.gif

Superheld
2008-06-17, 00:47:20
Neue Treiber werden da gewiss noch was reißen, Wunder würde ich aber keine erwarten. Es ist eben keine "neue", sondern eine aufgebrezelte Architektur, die vielleicht noch ein paar Blasen hat.

Für weitere "Extreme" gibt's morgen auf pcgh.de feine Benchies mit FSAA ab 16xQ.

MfG,
Raff

ich dachte eigentlich 16xS und andere :comfort:

Raff
2008-06-17, 00:48:02
"Ab 16xQ" ist 16xQ, 16xS, 32xS und 16x OGSS. :naughty:

MfG,
Raff

Superheld
2008-06-17, 00:50:48
oh nice da werd ich mal vorbei schauen:biggrin:

dargo
2008-06-17, 00:59:55
Neue Treiber werden da gewiss noch was reißen, Wunder würde ich aber keine erwarten. Es ist eben keine "neue", sondern eine aufgebrezelte Architektur, die vielleicht noch ein paar Blasen hat.

Für weitere "Extreme" gibt's morgen auf pcgh.de feine Benchies mit FSAA ab 16xQ.

Es geht mir nicht um Wunder. Ich sehe aber bei dem CB-Test einige Ungereimheiten (erst recht in dem Fall, dass der G200 vom G80/G92 abstamm) die vielleicht anderen nicht sofort auffallen.

Beispiel: (ausgehend immer von 100% der G8800GTX)

UT3 in 1600x1200 4xAA/16xAF
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/20/

G280GTX = 201%
G8800Ultra = 116%
G8800GTX = 100%

Bioshock in 1600x1200 4xAA/16xAF
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/22/

G280GTX = 167%
G8800Ultra = 126%
G8800GTX = 100%

Obwohl sich die G8800Ultra in Bioshock mehr von der G8800GTX absetzen kann als in UT3 ist das Ergebnis der G280GTX gegenüber den beiden Vorgängern in Bioshock deutlich schlechter als bei UT3. Da kann doch irgendwas nicht passen.

Raff
2008-06-17, 01:01:13
Vergiss bitte nicht, dass CB mit verschiedenen Treibern testet. Das sorgt schnell für inkonsistente Kost.

MfG,
Raff

dargo
2008-06-17, 01:06:06
Wenn ich mir die Benchmarks so ansehe find ich die 260er wirklich interessanter als die 280er. Vor allem auch die OC-Ergebnisse sind nicht schlecht, mal sehen was mit besserer Kühlung drin ist.

http://enthusiast.hardocp.com/images/articles/1213329410dkPbuPba8A_10_3_l.gif
Dieses Diagramm ist völlig wertlos. Was soll denn dieser 4fps Ausreißer da ohne Übertaktung? :|
Da sich die avg.fps aus den max. und min. fps ergeben ist dieser Test wie gesagt wertlos. Ich wüsste nicht was eine ~16%-ige Übertaktung mit der Beseitigung von solcher Extreme zu tun haben sollte.

Superheld
2008-06-17, 01:06:23
wie Dargo meinst du das die GTX 280 schnell einbricht ?

Odal
2008-06-17, 01:07:05
Im Benchmarkreview, review gibts die links zum Beta GPU Folding Client und BadaBOOM (beide brauchen aber den Launch Treiber...) Hab die News nirgendwo gefunden, wollte aber auch keinen extra Thread aufmachen...

http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip

http://benchmarkreviews.com/content/software/BadaBoom.zip

Gruß

Brother


folding@home funzt auf dem G92 badaboom leider nicht
treiber ist 177.26

karte per ini tweak oder 3danalyze etc. auf GTX280 faken?

dargo
2008-06-17, 01:10:08
Vergiss bitte nicht, dass CB mit verschiedenen Treibern testet. Das sorgt schnell für inkonsistente Kost.

Die unterschiedlichen Treiber ändern nichts an dieser Unstimmigkeit Raff. In beiden Games wurden gleiche Treiber für die jeweiligen Grafikkarten verwendet. G8800GTX/Ultra mit 174.16 und G280GTX 177.34.
Wenn CB alles richtig gebencht hat dann scheint der Treiber der G280GTX noch ein seltsames "Eigenleben" zu haben.

blackbox
2008-06-17, 01:10:34
folding@home funzt auf dem G92 badaboom leider nicht
treiber ist 177.26

karte per ini tweak oder 3danalyze etc. auf GTX280 faken?

Geht zur Zeit nicht.
Voraussetzungen:
• You are using Windows Vista 32 (Windows XP is not supported at this time.)
• User Account Controls are disabled.
• You are using an NVIDIA GeForce GTX 280 and GTX 260 . Other GPUs are not
supported in this build. They will be fully supported in the final release.
• You are using the 177.34 driver.

dargo
2008-06-17, 01:26:28
@Raff
Es wird noch besser. Diese Unstimmigkeiten gibts nicht nur zwischen UT3 und Bioshock sondern selbst schon bei UT3 alleine.

In 1600x1200 4xAA/16xAF ist die G280GTX 74% schneller als die G8800Ultra. In 2560x1600 1xAA/1xAF ist sie nur noch 46% schneller als die G8800Ultra. In 2560x1600 4xAA/16xAF ist sie wiederum 68% schneller als die Ultra.

Schon das alleine ergibt keinen Sinn. Vorallem weil die tatsächlichen Frames in 1600x1200 4xAA/16xAF und 2560x1600 1xAA/1xAF nicht weit voneinander liegen (G8800Ultra). Warum zum Teufel ist die G280GTX gerade in 2560x1600 1xAA/1AF so langsam gegenüber der G8800Ultra?

Sehr seltsam das ganze.

wie Dargo meinst du das die GTX 280 schnell einbricht ?
Kannst du das bitte genauer ausführen? Ich kann dir nicht ganz folgen. :)

tb
2008-06-17, 01:27:15
Kann mal bitte jemand den Idle Leistungsbedarf der 260/280 unter Vista mit und ohne Aero messen?

P.S. 640€ (280GTX + neues Netzteil halten mich mom. noch aus Vernunft etwas zurück, mir so eine Karte zuzulegen..., zumal ich kaum zocke... aber mich ein paar CUDA Quälereien schon reizen würden)

Thomas

Gast
2008-06-17, 01:31:20
Was außer Spielen und F@H kann man mit der GTX260/280 eigentlich noch machen? Bitte stichpunktartig auflisten

Eggcake
2008-06-17, 01:32:33
@Raff
Es wird noch besser. Diese Unstimmigkeiten gibts nicht nur zwischen UT3 und Bioshock sondern selbst schon bei UT3 alleine.

In 1600x1200 4xAA/16xAF ist die G280GTX 74% schneller als die G8800Ultra. In 2560x1600 1xAA/1xAF ist sie nur noch 46% schneller als die G8800Ultra. In 2560x1600 4xAA/16xAF ist sie wiederum 68% schneller als die Ultra.

Schon das alleine ergibt keinen Sinn. Vorallem weil die tatsächlichen Frames in 1600x1200 4xAA/16xAF und 2560x1600 1xAA/1xAF nicht weit voneinander liegen (G8800Ultra). Warum zum Teufel ist die G280GTX gerade in 2560x1600 1xAA/1AF so langsam gegenüber der G8800Ultra?


Mit der Gefahr hin ein "Wenn man keine Ahnung hat..." zu kassieren, weil gross Ahnung habe ich wirklich nicht:

Scheint mir logisch, dass die 280GTX unter Qualitätseinstellungen weniger einbricht als eine Ultra/8800GTX. Das sieht man ja schon bei niedrigeren Auflösungen, wo ohne Qualieinstellungen die GTX/Ultra z.T. vorne liegt und mit aktiviertem AA/AF die GTX280 deutlich zulegt.
Also rein von dem her sehe ich da überhaupt keine "Unstimmigkeiten"...

dargo
2008-06-17, 01:38:46
Mit der Gefahr hin ein "Wenn man keine Ahnung hat..." zu kassieren, weil gross Ahnung habe ich wirklich nicht:

Scheint mir logisch, dass die 280GTX unter Qualitätseinstellungen weniger einbricht als eine Ultra/8800GTX. Das sieht man ja schon bei niedrigeren Auflösungen, wo ohne Qualieinstellungen die GTX/Ultra z.T. vorne liegt und mit aktiviertem AA/AF die GTX280 deutlich zulegt.
Also rein von dem her sehe ich da überhaupt keine "Unstimmigkeiten"...
Dann hast du dir den CB-Bench mit UT3 den ich meine nicht genau angeschaut. Die Frames der Ultra in 1600x1200 4xAA/16xAF sind fast identisch mit den Frames in 2560x1600 1xAA/1xAF (80 und 74,6fps). Warum ist das bei der G280GTX nicht der Fall?

tb
2008-06-17, 01:41:16
Was außer Spielen und F@H kann man mit der GTX260/280 eigentlich noch machen? Bitte stichpunktartig auflisten

- was jede Grafikkarte auch kann - windows, linux, etc. darstellen
- mittles CUDA (C/C++ artige Programmiersprache) Software dafür entwickeln, z.b. F@H
- PhysX Beschleunigung nutzen, wenn es denn mal Treiber dafür gibt
- Videos decodieren mit weniger CPU Belastung

Die Punkte treffen aber auch auf die Geforce8/9 zu, bei PhysiX bin ich mir nicht sicher, was das Marketing entscheidet.

P.S. Hast Du noch an was bestimmtes gedacht?

Thomas

Superheld
2008-06-17, 01:42:08
Kannst du das bitte genauer ausführen? Ich kann dir nicht ganz folgen. :)

achso Dargo hab deine Letzte Zeile nicht gelesen...

7fps mehr sind ganz schön viel bei 50Mhz mehr Core / +200Mhz Shader , stell das mal selber ein da kommst du vielleicht auf 3fps:cool:

Gast
2008-06-17, 01:45:19
Dann hast du dir den CB-Bench mit UT3 den ich meine nicht genau angeschaut. Die Frames der Ultra in 1600x1200 4xAA/16xAF sind fast identisch mit den Frames in 2560x1600 1xAA/1xAF (80 und 74,6fps). Warum ist das bei der G280GTX nicht der Fall?

Vielleicht limitiert in diesem Fall bei der GTX 280 bei 2560x1600 die Pixelfüllrate? Die ist ja im Gegensatz zum Rest nicht so stark erhöht worden.

Odal
2008-06-17, 01:51:05
Geht zur Zeit nicht.
Voraussetzungen:
• You are using Windows Vista 32 (Windows XP is not supported at this time.)
• User Account Controls are disabled.
• You are using an NVIDIA GeForce GTX 280 and GTX 260 . Other GPUs are not
supported in this build. They will be fully supported in the final release.
• You are using the 177.34 driver.


folding geht auf jedenfall und badaboom müste theoretisch auch gehen wenn man dem eine GTX280 vorgaukeln würde


bzgl folding

meine 88GT
http://www.abload.de/img/foldingh66.jpg

CB
http://pics.computerbase.de/2/1/8/1/8/3_m.jpg


ich weiß nicht ob CB sli laufen hatte aber die GTX280 ist 5-10 mal so schnell 75-80% schneller ^^

nagut der folding client nutzt auch noch die CPU mit da suckt ja meine gegen d3en CB quadcore @ 4Ghz ^^

wobei ich folding wohl erstmal so ein molekül fertig machen lassen muss

*edit* kommanedo zurück es lief bei mir nur mit angezogener handbremse

Snoopy69
2008-06-17, 01:56:29
Irgendwie finde ich Folding at Home sinnfrei. Oder nutzt ihr das? Vielleicht sogar regelmäßig?

Gast
2008-06-17, 01:57:41
Naja, wenn ich mir das ganze nochmal durch den Kopf gehen lasse hole ich mir 2*260. Eine 260 ist ja gerade noch zu akzeptieren. Dann Accelero draufschnallen und Ruhe ist. Endlich ein 2D-Modus! Achso, steige von ner alten G80 640MB um. Für mich sollte es lohnen. Die große GTX ist natürlich völlig inakzeptabel! Gute Nacht Gemeinde.

Gast
2008-06-17, 02:00:20
Bei einer meine ich den Preis von einer! Scheiße, war ein harte Tag. Ab ins Bett. Und gogogo Deutschland*Fahneschwenk*

Shakti
2008-06-17, 02:17:33
Vor etwa 20 Monaten, als sie neu rauskam, habe ich mir eine 8800gtx geholt. War teuer und trotzdem begehrt. Hat mir (ausser unter Vista64, wo die Treiber ueber ein Jahr gebraucht haben, um einigermassen zu funktionieren), treue Dienste geleistet.

Nachdem Crysis raus kam, hatte ich gehofft, die neue 280gtx wuerde das Spiel auf 1680x1050 in very high mit 16x AF fluessig schaffen, aber das tut sie ja wohl nicht.

Im Gegensatz zur damaligen Euphorie herrscht jetzt ja bei der 280gtx eine fast schon gedrueckte Stimmung, wenn ich mir so einige Foren und Reviews ansehe.

Und fast keiner kauft sich jetzt \ hat schon eine. Viele warten auf die neue von ATI, wobei ich denke, das die Crysis auch im Doppelpack auch nicht wirklich schaffen wird.

Traurig, nochmal 20 Monate warten?

Gast
2008-06-17, 02:23:02
Ich kann das Crysis gebbabel nicht mehr hören. Mass Effect, was ich selbstverständlich gekauft habe, sieht sowas von geil auf der alten G80 aus. Sahne sag ich euch. Performance Top. Also vergesst endlich mal Crysis denn in Zukunft kommt eh alles von der konsole auf den PC. Jetzt gute Nacht und cya

Gast
2008-06-17, 02:39:36
Hier noch nen Test. Ziemlich realistisch kurz, bündig, gut. http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946296/geforce_gtx_260.html

kokett
2008-06-17, 02:40:20
Irgendwie finde ich Folding at Home sinnfrei. Oder nutzt ihr das? Vielleicht sogar regelmäßig?

Folding, SETI und wie die ganzen distributed computing projekte heissen, sind alle sinnfrei. es kostet dich als nutzer nur strom und die "work units" die über distributed computing verteilt werden, sind -zumindest war es bei seti @ home so- alles datensätze wo von vorneherein davon ausgegangen wird, dass das was man sucht, darin nicht enthalten sein wird. klingt vielleicht böse, aber ich würde sowas nie laufen lassen, geschweige denn auch nur einen euro mehrpreis bei spielehardware akzeptieren, nur damit sowas darauf läuft. klar, bei der geforce 10 nutzt es nur eine schnittstelle, die prinzipiell für alles mögliche eingesetzt werden kann, aber wenn ich die wahl hätte, würde ich eine grafikkarte die wirklich ausschließlich als 3d Spielebeschleuniger fungiert und dafür günstiger ist jederzeit bevorzugen. Leider macht ati ja auch bei dem schwachsinn mit :/.

Gast
2008-06-17, 02:48:45
Naja, da tut man was für die Wissenschaft. Nebenher testet man sein System auf Stabilität. Also sinnfrei, nein würde ich sagen.

tb
2008-06-17, 02:49:06
Folding, SETI und wie die ganzen distributed computing projekte heissen, sind alle sinnfrei. es kostet dich als nutzer nur strom und die "work units" die über distributed computing verteilt werden, sind -zumindest war es bei seti @ home so- alles datensätze wo von vorneherein davon ausgegangen wird, dass das was man sucht, darin nicht enthalten sein wird. klingt vielleicht böse, aber ich würde sowas nie laufen lassen, geschweige denn auch nur einen euro mehrpreis bei spielehardware akzeptieren, nur damit sowas darauf läuft. klar, bei der geforce 10 nutzt es nur eine schnittstelle, die prinzipiell für alles mögliche eingesetzt werden kann, aber wenn ich die wahl hätte, würde ich eine grafikkarte die wirklich ausschließlich als 3d Spielebeschleuniger fungiert und dafür günstiger ist jederzeit bevorzugen. Leider macht ati ja auch bei dem schwachsinn mit :/.

Hier geht es um neue Absatzmöglichkeiten. ATI's Steam bzw. NVIDIA's CUDA wurde nicht für den Heimanwender oder F@H entwickelt. Das sind pos. Nebenprodukte. "distributed computing projekte" sind nicht sinnfrei, gerade im medizinischen Bereich. Niemand zwingt Dich dazu. Es ist ein freies geben...(ist nicht sehr populär, ich weiss) genau wie Geld-Spenden, nur das hier Rechenzeit gespendet wird. Sind Spenden an die Krebshilfe sinnfrei, nur weil man kein Krebs hat?

Mehr Infos:

http://www.rechenkraft.net/wiki/index.php?title=Willkommen_beim_Verein_Rechenkraft.net_e.V.
http://www.boinc.de/projekte.htm

Thomas

Gast
2008-06-17, 02:52:19
Richtig. Neulich erst einen Bericht auf N24 darüber gesehen. Lasse immer solche Programme nebenher laufen. Wichtig für Medizin, Wissenschaft, Physik. Hier wird wenigstens ein Quad auf 4ghz sinnvoll genutzt! Meine Meinung.

Snoopy69
2008-06-17, 02:59:13
Vergiss Warhead nicht (für PC) :D

Ist schon etwas bedrückend. Aber eig. sind wir es, die alles (möglichst viele Polygon´s) haben wollen (also high oder very high, obwohl die HW nur medium packt). Wenn man die Engine mal mit Tweaks (müsste ultra high sein) gesehen hat, ist man schon ziemlich "versaut". Man verschlechtert sich dann nur ungerne.

Nichts gegen (zb) Age of Conan, aber es ist MEILENWEIT davon entfernt.

http://www.abload.de/thumb/hc_144hi7.jpg (http://www.abload.de/image.php?img=hc_144hi7.jpg) http://www.abload.de/thumb/hc_1430y9.jpg (http://www.abload.de/image.php?img=hc_1430y9.jpg) http://www.abload.de/thumb/hc_145x4h.jpg (http://www.abload.de/image.php?img=hc_145x4h.jpg)

Gast
2008-06-17, 03:01:47
Schau dir mal bei Mass Effect die Gesichter an. Die Animationen stehen dem plöden Crysis in nix, aber wirklich nix, nach. Deswegen geilt euch nicht an dem beschissen programmierten Crysis auf. Die neue GTX260 ist völlig in Ordnung. Die 280 muss natürlich gesenkt werden. Das wird sie auch bald. Die Programmierer müssen halt gut sein

kokett
2008-06-17, 03:03:39
Hier geht es um neue Absatzmöglichkeiten. ATI's Steam bzw. NVIDIA's CUDA wurde nicht für den Heimanwender oder F@H entwickelt.

Ist mir klar, die Kosten für die Entwicklung werden jedoch logischerweise über den Verkauf der Karten wieder reingeholt. Die meisten dieser Karten werden wohl in Gaming-PCs landen und somit wohl eher weniger davon profitieren. Selbst beschleunigtes Video Encoding wird wohl nur auf einem verschwindend kleinen Anteil der Karten laufen, einfach weil es der durchschnittliche gamer nicht braucht. Ob man als Spieler von CUDA oder Steam kurz/mittelfristig etwas hat, muss man erstmal abwarten (ich denke eher nicht). Bezahlen muss man eben schon jetzt dafür.

Ich will auch keine Grundsatzdiskussion über distributed Computing lostreten, ich bin mir nur relativ sicher, dass wenn jemand anstatt 150€ im Jahr an Stromkosten zu verballern diese 150€ direkt an die Krebshilfe spendet, er nicht nur der Krebshilfe einen größeren Dienst erweist, sondern auch der Umwelt.
Ich bin nicht grundsätzlich gegen Spenden, ich bin grundsätzlich gegen Ressourcen-Verschwendung und meiner Meinung nach ist distributed computing genau dieses.

Aber jetzt genug OT :) .

tb
2008-06-17, 03:04:43
Schau dir mal bei Mass Effect die Gesichter an. Die Animationen stehen dem plöden Crysis in nix, aber wirklich nix, nach. Deswegen geilt euch nicht an dem beschissen programmierten Crysis auf. Die neue GTX260 ist völlig in Ordnung. Die 280 muss natürlich gesenkt werden. Das wird sie auch bald. Die Programmierer müssen halt gut sein

Aua. Schreib erstmal selbst eine Spiel wie Crysis, bevor Du die Entwickler als blöd hinstellst.

Thomas

Gast
2008-06-17, 03:06:32
Ich sag doch nur das die Animationen der Gesichter in Mass Effect dem Crysis Müll in nix nachstehen. Da ist nix aua. Aber am besten back to topic.

Snoopy69
2008-06-17, 03:07:16
Sorry, ich kenne Screens von Mass Effect...
Meine persönliche Merinung - ich finds billig. Die Unterschiede zur CryEngine 2 sind klar zu sehen!

Wieder BTT? :wink:

Gast
2008-06-17, 03:08:46
Also, Poren, Narben, Gesichtsmimik, Seelenzustände werden in Mass Effect flüssig dargestellt. Ja, btt:-)

tb
2008-06-17, 03:13:33
ich bin grundsätzlich gegen Ressourcen-Verschwendung und meiner Meinung nach ist distributed computing genau dieses.


Dazu müsste man mal die laufenden Kosten eines Rechenzentrums gegenrechen.

Du darft hier nicht der falschen Annahme unterliegen, die GPU sei wegens CUDA extra großartig anders entwickelt worden und würde nun schlechtere Leistung in Spielen liefern.
Ohne CUDA etc. wäre es gut möglich, das HighEnd Karten noch mehr kosten würden, denn dann würden sie nur in Spiele-PCs eingesetzt werden.

Thomas

tb
2008-06-17, 03:16:08
Ich sag doch nur das die Animationen der Gesichter in Mass Effect dem Crysis Müll in nix nachstehen. Da ist nix aua. Aber am besten back to topic.

Aua bezog sich auf "Die Programmierer müssen halt gut sein".
Da könntest Du auch sagen bei z.b. BMW arbeiten in der Motorenabteilung nur Idioten, weil die keinen V12 mit 500PS bauen, der nur 3 Liter schluckt.

Als Entwickler kann man es nicht allen recht machen. Einige wollen, eine skalierbare Engine, die 1-2 GFX Generation fordern kann, andere wollen 60 fps mit max. Details. Beides geht nunmal nicht.
Crysis kann man in zwei Jahren noch spielen und es wird immernoch mit max. Details richtig gut aussehen. Andere Spiele laufen dann eben mit 200fps, sehen aber weit weniger beeindruckend aus.

Thomas

Odal
2008-06-17, 03:18:55
@Raff
Es wird noch besser. Diese Unstimmigkeiten gibts nicht nur zwischen UT3 und Bioshock sondern selbst schon bei UT3 alleine.

In 1600x1200 4xAA/16xAF ist die G280GTX 74% schneller als die G8800Ultra. In 2560x1600 1xAA/1xAF ist sie nur noch 46% schneller als die G8800Ultra. In 2560x1600 4xAA/16xAF ist sie wiederum 68% schneller als die Ultra.

Schon das alleine ergibt keinen Sinn. Vorallem weil die tatsächlichen Frames in 1600x1200 4xAA/16xAF und 2560x1600 1xAA/1xAF nicht weit voneinander liegen (G8800Ultra). Warum zum Teufel ist die G280GTX gerade in 2560x1600 1xAA/1AF so langsam gegenüber der G8800Ultra?

Sehr seltsam das ganze.


Kannst du das bitte genauer ausführen? Ich kann dir nicht ganz folgen. :)
Dann hast du dir den CB-Bench mit UT3 den ich meine nicht genau angeschaut. Die Frames der Ultra in 1600x1200 4xAA/16xAF sind fast identisch mit den Frames in 2560x1600 1xAA/1xAF (80 und 74,6fps). Warum ist das bei der G280GTX nicht der Fall?

da is nix seltsam dran....auflösungserhöhung skalliert über die gesamte gpu hinweg (solang der vram nicht ausgeht)

AA aber eher über die Bandbreite und Speichermenge

Gast
2008-06-17, 03:19:03
Ist gut tb. Seh das nicht zu eng. Bist du nicht der Meinung das es an Unfähigkeit grenzt Crysis mit 2 GTX 280 nicht flüssig zum laufen zu bringen (Hohe Auflösung+alles hoch). Und das auf Nvidia the way its meant to be played. Naja, ich reiche mal ne Pfeife durch den Raum:-)

tombman
2008-06-17, 03:28:08
...Crysis mit 2 GTX 280 nicht flüssig zum laufen zu bringen (Hohe Auflösung+alles hoch)...
Genau das wird aber sehr wohl möglich sein...

Gast
2008-06-17, 03:29:45
na, hier hat eine unter DX10 keine berauschenden Werte. Skaliert Sli da so viel besser? hier die benches http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946296/geforce_gtx_260.html

Gast
2008-06-17, 03:31:03
Und ich meine keine Mickey Mouse Auflösungen. Für 1100 Euro erwarte ich viel.

tb
2008-06-17, 03:31:37
Ist gut tb. Seh das nicht zu eng. Bist du nicht der Meinung das es an Unfähigkeit grenzt Crysis mit 2 GTX 280 nicht flüssig zum laufen zu bringen (Hohe Auflösung+alles hoch). Und das auf Nvidia the way its meant to be played. Naja, ich reiche mal ne Pfeife durch den Raum:-)

Ich nehm die Preife an ;)

Unfähigkeit,nicht unbedingt. Ich kann nicht sagen, in wie fern, der DX10 Codepfad in Crysis gut oder schlecht gemacht ist im Vergleich zu DX9, vielleicht kann da Demirug helfen. Crysis rendert halt jede Menge, eben auch viele kleine Details und Effekte, die nicht immer direkt ins Auge fallen. Gerade in hohen Auflösungen + FSAA zieht es da verdammt viel Leistung, aber sieht eben auch sehr gut aus. Ich denke mal, NVIDIA hat da ordenlich GFX Know-How eingebaut, vielleicht etwas zuviel, aber die Idee von DX10 war ja, Karten unterscheiden sich nur noch in der Leistung, nicht mehr den Features. Somit macht es schon Sinn, eine Engine zu bauen, die über mehrere Jahre hinweg High-End Qualität liefert, ohne das man den Code ändern muss. So kann man mit jeder neuen Karte die Bildqualität nochmals aufwerten, vielleicht war das sogar ein Grund für NVIDIA (reine Spekulation von mir).

SLI-Skalierung ist wohl eher ein Konzept-/Treiberproblem. Die Idee ist ja recht gut, aber die granularität der Umsetzung is momentan nicht unbeding für jedes Spiel geeignet. Da bin ich auf zukünftige Multi-GPU(mehr als zwei) Karten gespannt.


Thomas

Gast
2008-06-17, 03:33:56
Siehste tombman. Laut den benches sieht das nicht so gut aus unter DX10. Danke tb. Erstmal ziehen:-)

tb
2008-06-17, 03:38:33
Genau das wird aber sehr wohl möglich sein...

BTW. wenn du 2gb an Kartenspeicher im System hast, dann bleiben nur noch 2gb für 32-Bit Windows übrig. Dann sollte man wohl doch auf 64-Bit umsteigen.

P.S. bin mal auf ATI's 4870x2 gespannt. Vielleicht gibs da schon ne neue Crossfire Generation...

Thomas

Gast
2008-06-17, 03:45:20
39,5 als Einzelkarte auf nem 22 TFT. Lachhaft für den Preis. Werde mir wohl ne GTX260 zulegen. Wenns nicht mehr reicht in meinen games gibts ne zwote und gut is. MfG

tombman
2008-06-17, 03:45:46
Siehste tombman. Laut den benches sieht das nicht so gut aus unter DX10. Danke tb. Erstmal ziehen:-)
Wo schaust du eigentlich hin?

Hier mal ordentliche Werte:

Als Benchmark verwenden wir nicht den integrierten Benchmark, sondern setzen auf eine eigens erstellte Timedemo in dem grafiklastigen Level „Ice“. Wir testen die auf Version 1.21 aktualisierte Vollversion des Spiels. Auch wenn die Einstellung „Very High“ für viele (vor allem günstigere) Grafikkarten unspielbar ist, haben wir uns dennoch für die höchste Qualitätsstufe entschieden
http://img214.imageshack.us/img214/4272/vhse9.jpg (http://imageshack.us)

Aber klar, 1680x1050 ist bei dir sicher eine kleine Auflösung :rolleyes:

Und das ist OHNE ocing ;) Von 600core auf 700core ocing Möglichkeit wurde bereits bestätigt :)

Gast
2008-06-17, 03:49:31
Ey, tombman. Wir könnten hier die ganze Nacht diskutieren. Ich sehe auf Gamestar andere Werte. Und dafür 1100 Euro berappen für 60? Frames auf dem 22 TFT? Nein Danke. Aber mach du Ruhig.

tombman
2008-06-17, 03:49:42
BTW. wenn du 2gb an Kartenspeicher im System hast, dann bleiben nur noch 2gb für 32-Bit Windows übrig. Dann sollte man wohl doch auf 64-Bit umsteigen.
Habe hier alles an OSen was ich brauche. Habe ja jetzt auch nur 2.3gb in XP.
1.5gb wegen SLi weg und dann noch ca 200mb, wo ich nicht genau weiß wo die hingekommen sind. Hinweise: Phys-X Karte + X-Fi. Haben beide eigenen Speicher...;)

Aber sowieso wayne, habe eh Vista 64 hier...

tb
2008-06-17, 03:50:11
Wo schaust du eigentlich hin?

Hier mal ordentliche Werte:

http://img214.imageshack.us/img214/4272/vhse9.jpg (http://imageshack.us)

Aber klar, 1680x1050 ist bei dir sicher eine kleine Auflösung :rolleyes:

Und das ist OHNE ocing ;) Von 600core auf 700core ocing Möglichkeit wurde bereits bestätigt :)

Ist das die 32-bit oder 64-bit Version, würd mich mal interessieren?

Thomas

tombman
2008-06-17, 03:50:52
Ey, tombman. Wir könnten hier die ganze Nacht diskutieren. Ich sehe auf Gamestar andere Werte. Und dafür 1100 Euro berappen für 60? Frames auf dem 22 TFT? Nein Danke. Aber mach du Ruhig.
Gamestar und Computerbase vergleichen- das ist wie BILD und die DiePresse :rolleyes:

tombman
2008-06-17, 03:52:08
Ist das die 32-bit oder 64-bit Version, würd mich mal interessieren?

Ist mir egal, bei mir performen die ziemlich gleich. Und wenn, nehm ich die schnellere.

@all, vergeßt es Leute, ihr könnt GX280@ SLI nicht stoppen, oder meine Freude darauf ;)

Gast
2008-06-17, 03:52:47
Ja kaufe und behellige uns mit deinen benches. Pfeife reich;-)

tombman
2008-06-17, 03:55:32
Gamestar hat ja nichtmal auf VERY HIGH gebenched, nur auf HIGH -> noob³ :)

Behalte deine Pfeife, aber nicht weil ich auf Aggro bin, sondern weil ich rauchen hasse :)

Gast
2008-06-17, 03:57:05
Warten wirs ab. Ich warte auf deine benches. Aber bitte ohne Paintbearbeitung. Würde ja eh nix bringen, die frames bleiben auffem Boden:-)

tb
2008-06-17, 03:57:39
Habe hier alles an OSen was ich brauche. Habe ja jetzt auch nur 2.3gb in XP.
1.5gb wegen SLi weg und dann noch ca 200mb, wo ich nicht genau weiß wo die hingekommen sind. Hinweise: Phys-X Karte + X-Fi. Haben beide eigenen Speicher...;)

Aber sowieso wayne, habe eh Vista 64 hier...

Der Verlust unter 32-Bit Windows ergibt sich durch die Limitierung des Adressbereiches, und da zieht jede Karte mit Speicher am System, denn die Daten müssen ja irgendwie aus dem Hauptspeicher zu den Karten kommen.
Ab Tripple-SLI mit ner GTX 280 dürfte dann 64-Bit zwingend notwending sein.

http://www.codinghorror.com/blog/archives/000811.html

Thomas

tb
2008-06-17, 03:59:13
Ist mir egal, bei mir performen die ziemlich gleich.

Noch ;)


Thomas

tombman
2008-06-17, 03:59:41
Der Verlust unter 32-Bit Windows ergibt sich durch die Limitierung des Adressbereiches, und da zieht jede Karte mit Speicher am System, denn die Daten müssen ja irgendwie aus dem Hauptspeicher zu den Karten kommen.
Ab Tripple-SLI mit ner GTX 280 dürfte dann 64-Bit zwingend notwending sein.

http://www.codinghorror.com/blog/archives/000811.html

Thomas
Habe ich doch gerade gesagt (ich hab derzeit nur mehr 2.3gb von 4gb, wegen 2x Graka+ 2 Karten mit eigenem Ram).

tombman
2008-06-17, 04:00:19
Noch ;)

Ich HABE zwei 64bit OS hier... -> WAYNE.

Meine ganzen Vergleichbenchmarks habe ich auf dem 64bit OS ausgeführt....

tb
2008-06-17, 04:05:34
Ich HABE zwei 64bit OS hier... -> WAYNE.

Meine ganzen Vergleichbenchmarks habe ich auf dem 64bit OS ausgeführt....

Wer ist Wayne? ;)

P.S. Na denne, aber denk an die Umwelt und Deine Augen. Nicht 3 Wochen lang durchzocken ;)

Thoms

Gast
2008-06-17, 04:05:50
Und der ganze Aufwand nur für Crysis und Penismark...Alte games lasse ich mit ner 260 in völlig neuem Licht erstrahlen. Aber, wie gesagt, tombman ich will benches von 280 sli von dir sehen. Hoffentlich bist du nicht enttäuscht. 1100 Euro und Crysis DX10 tft 22 Auflösung 4/8 ruckelig. Meine Prognose

Gast
2008-06-17, 04:07:52
Ist das die 32-bit oder 64-bit Version, würd mich mal interessieren?

Thomas

64Bit nehmen die.

tb
2008-06-17, 04:08:51
64Bit nehmen die.

Danke.

Gast
2008-06-17, 04:10:11
lol das muss man sich mal vor Augen führen. 1100 Euro und nicht fähig 8/16 für Crysis zu fahren. ABer ich hoffe Tombman belehrt mich und uns eines besseren.

tb
2008-06-17, 04:15:21
lol das muss man sich mal vor Augen führen. 1100 Euro und nicht fähig 8/16 für Crysis zu fahren. ABer ich hoffe Tombman belehrt mich und uns eines besseren.

Sie es mal so, teurer werden die Karten ja wohl nicht und jede Leidenschaft hat ihren Preis, deswegen auch "Leiden"-Schaft ;)

Thomas

Gast
2008-06-17, 04:17:56
lol das muss man sich mal vor Augen führen. 1100 Euro und nicht fähig 8/16 für Crysis zu fahren. ABer ich hoffe Tombman belehrt mich und uns eines besseren.

Selbstverständlich ist das möglich, alles eine Frage der Detailfülle. Hör endlich auf den beleidigten Neidhammel zu spielen. Crysis in voller Detailfülle wirst du in HD Auflösungen mit einer Singlechip Karte in den nächsten 1 einhalb Jahren ganz sicher nicht zu Gesicht bekommen das ist sicher.

Gast
2008-06-17, 04:18:21
Du sagst es. Leider ist tombman hier das "Opfer". Aber wenn er die Knete übrig hat, lass es Ihm gegönnt sein. Ich finds nur lustig. Gamestar sind alles noobs. Nicht nur die, nein ALLE! Ich sage nochmal, ich freue mich auf die benchmarks des Fachmanns;-)

=Floi=
2008-06-17, 04:18:21
warum hat denn nv nich das gflop vollgemacht?

wann kommt denn der physx treiber? gibt es schon von dritten neue cuda benchmarks?

tb
2008-06-17, 04:21:41
Du sagst es. Leider ist tombman hier das "Opfer". Aber wenn er die Knete übrig hat, lass es Ihm gegönnt sein. Ich finds nur lustig. Gamestar sind alles noobs. Nicht nur die, nein ALLE! Ich sage nochmal, ich freue mich auf die benchmarks des Fachmanns;-)

Da ist aber jemand neidisch ;)

tb
2008-06-17, 04:23:19
warum hat denn nv nich das gflop vollgemacht?

wann kommt denn der physx treiber? gibt es schon von dritten neue cuda benchmarks?

gflop - Hitze/Strom/Marketing für den nächsten Refresh....
physx - sollten in den nächsten 3-4 Wochen kommen
cuda benchmarks - k.a.

Thomas

Gast
2008-06-17, 04:25:00
Wieso? Hast du schonmal in meine Brieftasche geschaut? Ich sehe nicht ein soviel Geld zu verbraten. Du weisst ja, geiz ist geil. Ich hol mir ne 260 und gut ist. Was später kommt weiß der Hardwarehott. In diesem Sinne

tb
2008-06-17, 04:36:21
Wieso? Hast du schonmal in meine Brieftasche geschaut? Ich sehe nicht ein soviel Geld zu verbraten. Du weisst ja, geiz ist geil. Ich hol mir ne 260 und gut ist. Was später kommt weiß der Hardwarehott. In diesem Sinne

Es zwingt Dich ja auch keiner. Das ist aber auch kein Grund, über andere zu lästern. Nicht jeder ist gern Erbsensuppe, das ist eine Frage der Vorliebe.

Thomas

Gast
2008-06-17, 04:39:34
OK Leute. Behalt den Fred mal im Auge wegen 280 GTX Sli benches von tombman. Jetzt wird die Pfeife ausgemacht das Bett wartet. Bis dann Leute schlaft gut

tb
2008-06-17, 04:40:37
OK Leute. Behalt den Fred mal im Auge wegen 280 GTX Sli benches von tombman. Jetzt wird die Pfeife ausgemacht das Bett wartet. Bis dann Leute schlaft gut

Schalf gut, und schau nochmal, ob die Pfeife wirklich aus ist, nicht das nochwas anbrennt ;)

Thomas

puntarenas
2008-06-17, 06:56:30
SLI / CF Harmoniser - ein zweiter Anlauf gegen die Mikroruckler (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421672) abgespaltet.

Grestorn
2008-06-17, 07:33:32
Ist das dein ernst?
Skalierung ist immer von Nachteil.
Deswegen nativ per VGA.
Klappt immer problemlos

Gute Geräte skalieren einfach nicht (da sie zumindest optional auch ein Overscan verwenden), deswegen schrieb ich "Kein Problem bei guten Geräten".

Daredevil
2008-06-17, 07:33:54
Ich bin mal eben in die Zukunft gesprungen und hab die 4870 gebencht :D
http://img3.imagebanana.com/img/kb7q7z0e/Clipboard03.jpg
Ist natürlich von mir ein >>>>>Fake<<<<<.

Wobei ich dem Gast hier auch nichts unterstellen möchte, hatte nur grad die Lustige cmd.exe Idee ^^
Mach dochmal ein IngameBild nach 2 Loops :)

Daredevil
2008-06-17, 07:43:49
Einfach mit Druck ein Screenshot machen und uppen :)
Oben links werden dann doch die FPS des letzen Runs angezeigt.

Das sieht in meinem Falle dann So (http://img3.imagebanana.com/img/1nduyvo/Clipboard03.jpg) aus.

dargo
2008-06-17, 08:10:34
Vielleicht limitiert in diesem Fall bei der GTX 280 bei 2560x1600 die Pixelfüllrate? Die ist ja im Gegensatz zum Rest nicht so stark erhöht worden.
Dann würde die G280GTX in 2560x1600 4xAA/16xAF nicht wieder ihren Vorsprung ausbauen können.

da is nix seltsam dran....auflösungserhöhung skalliert über die gesamte gpu hinweg (solang der vram nicht ausgeht)

AA aber eher über die Bandbreite und Speichermenge
Seit wann fehlt es einer G8800Ultra an Bandbreite? :|
Und nein, der Vram geht ihr auch nicht aus.

Gast
2008-06-17, 08:12:03
ne Fräge

hat jemand einen Test gefunden wo World of Warcraft mit drin ist ?

AnarchX
2008-06-17, 08:16:24
TweakPC hat einen doch recht interessanten Artikel:
http://www.tweakpc.de/berichte/nvidia_geforce_gtx_200/s02.php
... mit Video, wo ein Nvidia-Arbeiter die Architektur des G200 erklärt.
Ausserdem einige interessante Bilder der Folien vom Editors Day:
http://img254.imageshack.us/img254/2255/577542f41ctv3.jpg (http://imageshack.us)

Da wird der doppelte LRF in kommenden Games wohl einiges bringen.

JaDz
2008-06-17, 08:19:00
BTW. wenn du 2gb an Kartenspeicher im System hast, dann bleiben nur noch 2gb für 32-Bit Windows übrig. Dann sollte man wohl doch auf 64-Bit umsteigen.
Nimmt nicht jede Karte unabhängig von der VRAM-Größe immer 256 MB vom System? Kann da mal jemand was definitives sagen?

Heelix01
2008-06-17, 08:23:58
Nimmt nicht jede Karte unabhängig von der VRAM-Größe immer 256 MB vom System? Kann da mal jemand was definitives sagen?
Das war bei AGP so ? Bei PCIe wird das dynamisch geregelt.

Daredevil
2008-06-17, 08:27:27
Das liegt nicht an der Karte sondern am Mainboard.
Dein mainboard weiß nicht ob du ein 32 oder 64 Bit System hast und scheffelt so zur Sicherheit ein "Loch", eine großzügige Reserve.( Was soweit ich weiß 512mb groß ist ).
Und je größter dein VRam ist desto kleiner wird kein Arbeitsspeicher.
( So hab ich das mal erklärt bekommen ).
Ist hier aber nicht Teil des Topics.

Danke fürs Video *guck*

czuk
2008-06-17, 08:31:51
Ich finde den Verbracuh unter last ga rnicht mal so schlimm, den laut computerbase hat eine 8800ULTRA nur 20Watt weniger!

Auf die Leistung bezogen ist der G200 sicher als recht sparsam anzusehen!


Naja, bisher gingen signifikante Leistungssteigerungen immer noch mit relativ verhaltenen Steigerungen der Stromverbräuche einher. Mein Bauchgefühl sagt mir, dass bei den G200'er Karten dieses Verhältnis so nicht mehr besteht, d.h. das die Leistungsaufnahme doch deutlicher steigt als die Performance in Relation zur Vorgängergeneration.

Wenn der G200 auf die Leistung bezogen als recht sparsam anzusehen wäre, dann sollte ich jetzt schonmal für ein 2kW Netzteil sparen, dass ich 2010 für die übernächste Generation benötigen werde, wenn du verstehst.
Und das kann es doch nicht sein...

Gast
2008-06-17, 09:17:41
http://geizhals.at/eu/a344256.html

mit 700Mhz Chiptakt :)

Gastomio
2008-06-17, 09:24:41
Irgendwas haben die bei Nvidia nicht ganz verstanden.
Die Nutzung von GDDR5 erhöht nicht nur die Speicherbandbreite, sondern steigert die allgemeine Performance aufgrund der höheren Taktung.

Und für 500€ hätte ich doch bitte, bitte, bitte mit Sahne oben drauf GDDR5, liebes Nvidia-Team. Idioten.

AnarchX
2008-06-17, 09:27:47
Wenn NV auch noch GDDR5 verwendet hätte, wären wohl 4870 und GTX 200 nicht vor August am Markt gewesen.
Aber das Jahr ist noch lang und wenn NV clever war, so hat der MC schon GDDR5-Support.;)

aths
2008-06-17, 09:28:47
Ich liebäugle mit der 280er. Bis dafür Wakü Teile dafür erhältlich sind halte ich mich noch zurück.

Wo bekomme ich einen Adapter für den 8-Pol Anschluss? Mein S12-500 bietet keinen derartigen Anschluss.

Wäre evtl noch ein sinnvolle Information für die erste Seite.Vergiss die Adapter. Wenn du 2x 6-Pin auf 1x 8-Pin schaltest, brauchst du noch 1x 6-Pin aus 2x 4-Pin (Molex.) Das geht vielleicht von den Anschlüssen her, aber ich zweifle ob das Netzteil dafür genügend Saft liefert. Kauf dir ein Netzteil, welches die erforderlichen PCI-E-Stromanschlüsse gleich mitbringt und 80+-zertifiziert ist.

Undertaker
2008-06-17, 10:04:00
BTW. wenn du 2gb an Kartenspeicher im System hast, dann bleiben nur noch 2gb für 32-Bit Windows übrig. Dann sollte man wohl doch auf 64-Bit umsteigen.

Das ist so nicht der Fall. Windows adressiert keinesfalls den kompletten Grafikspeicher selbst - ich und andere habe mit einer 1GB Karte nämlich immernoch 3,5GB unter XP32...

Odal
2008-06-17, 10:10:05
warum hat denn nv nich das gflop vollgemacht?

wann kommt denn der physx treiber? gibt es schon von dritten neue cuda benchmarks?


naja gibt doch den folding@home client und diverse bilder in den GTX280 reviews
der läuft doch per cuda

eins von meiner 88GT hab ich sogar hier irgendwo im thread gepostet

fazit war das der GT200 nicht wirklich überdurchschnittlich schneller in folding@home war wie ein g80/92

normale steigerung durch die "mehr shader"

von höherer effizienz hat man nichts gemerkt

schnarx
2008-06-17, 10:32:57
Vergiss die Adapter. Wenn du 2x 6-Pin auf 1x 8-Pin schaltest, brauchst du noch 1x 6-Pin aus 2x 4-Pin (Molex.) Das geht vielleicht von den Anschlüssen her, aber ich zweifle ob das Netzteil dafür genügend Saft liefert. Kauf dir ein Netzteil, welches die erforderlichen PCI-E-Stromanschlüsse gleich mitbringt und 80+-zertifiziert ist.

Wirklich viel mehr als meine alte 8800 GTX (OC) zieht sich die Karte unter Last ja auch nicht.
Wirkungsgrad liegt beim S12 bereits auf sehr hohem Niveau.
Evtl dicht an der Grenze...

ShadowXX
2008-06-17, 10:33:24
naja gibt doch den folding@home client und diverse bilder in den GTX280 reviews
der läuft doch per cuda

eins von meiner 88GT hab ich sogar hier irgendwo im thread gepostet

fazit war das der GT200 nicht wirklich überdurchschnittlich schneller in folding@home war wie ein g80/92

normale steigerung durch die "mehr shader"

von höherer effizienz hat man nichts gemerkt
Wo hast du denn den folding@home client für die g80/g92 her?

Odal
2008-06-17, 10:40:52
Wo hast du denn den folding@home client für die g80/g92 her?
Folding@home GPU Client (http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip)
http://www.abload.de/img/foldingh66.jpg
http://pics.computerbase.de/2/1/8/1/8/3_m.jpg

ShadowXX
2008-06-17, 10:46:18
Folding@home GPU Client (http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip)
http://www.abload.de/img/foldingh66.jpg
http://pics.computerbase.de/2/1/8/1/8/3_m.jpg
Danke.....nur warum gibts den nicht bei Stanford / F@H selbst??

aths
2008-06-17, 11:04:17
TweakPC hat einen doch recht interessanten Artikel:
http://www.tweakpc.de/berichte/nvidia_geforce_gtx_200/s02.php
... mit Video, wo ein Nvidia-Arbeiter die Architektur des G200 erklärt.
Ausserdem einige interessante Bilder der Folien vom Editors Day:
http://img254.imageshack.us/img254/2255/577542f41ctv3.jpg (http://imageshack.us)

Da wird der doppelte LRF in kommenden Games wohl einiges bringen.Man sollte den Herstellern echt verbieten, Vergleichsbalken zu zeigen, die nicht bei Null anfangen. Entweder nennen die rein die Zahlen (richtig beschriftet ist es ja) oder sie zeigen Balken die man auch optisch vergleichen kann – also mit Null anfangen.

Odal
2008-06-17, 11:09:35
Danke.....nur warum gibts den nicht bei Stanford / F@H selbst??

na da gibts den doch nur das er auf der cpu abläuft

die CUDA implementierung dürfte doch nvidia gemacht haben

deekey777
2008-06-17, 11:10:37
Folding@home GPU Client (http://benchmarkreviews.com/content/software/NVIDIA_GPU_Folding@Home_A.zip)
http://www.abload.de/img/foldingh66.jpg
http://pics.computerbase.de/2/1/8/1/8/3_m.jpg
Wie hast du ihn installiert?

ShadowXX, weil der Client noch nicht fertig ist.

Moralelastix
2008-06-17, 11:14:37
Wann kommt der fertige Client endlich? Noch diese Woche?

Ich will endlich was Sinnvolles mit der Graka anfangen. °|°

Odal
2008-06-17, 11:16:41
Wie hast du ihn installiert?

ShadowXX, weil der Client noch nicht fertig ist.


RTFM ;) und installier dir den 177.26 Treiber der hat cuda support

es schien auch mal nen 3dcenter team gegeben zu haben

http://alt.3dcenter.org/distributed_computing/folding-teampage/

das ist aber wohl eingeschlafen...naja die teamid könnte man vielleicht immer noch verwenden

deekey777
2008-06-17, 11:19:30
RTFM ;)
Habe ich.
Ich habe aber den Treiber nicht. Das Kopieren von cudart.dll hat mir nichts gebracht (ist aber WinXP).

ShadowXX
2008-06-17, 11:21:39
Wie hast du ihn installiert?

Da ist doch ne Installationanleitung mit dabei?

Habe ich.
Ich habe aber den Treiber nicht. Das Kopieren von cudart.dll hat mir nichts gebracht (ist aber WinXP).
Naja, es steht dabei das es für Vista gedacht ist und Sie nicht garantieren das es unter XP läuft.
Und den Treiber den Sie dort angeben wirst du wohl benötigen.....wie bei allen Cuda-Sachen.

ShadowXX, weil der Client noch nicht fertig ist.
Die haben da ja auch andere Beta Clients, warum also nicht diesen.

Moralelastix
2008-06-17, 11:22:28
Is da was faul dran? Ich kann den mit WinRAR nicht entpacken.

dargo
2008-06-17, 11:23:25
Vergiss die Adapter. Wenn du 2x 6-Pin auf 1x 8-Pin schaltest, brauchst du noch 1x 6-Pin aus 2x 4-Pin (Molex.) Das geht vielleicht von den Anschlüssen her, aber ich zweifle ob das Netzteil dafür genügend Saft liefert. Kauf dir ein Netzteil, welches die erforderlichen PCI-E-Stromanschlüsse gleich mitbringt und 80+-zertifiziert ist.
Aths, nur weil sein NT keinen 8Pin Stecker hat heißt es noch lange nicht, dass das NT mit einer G280GTX überfordert ist. Nach dieser These müsste mein Seasonic S12 380W schon lange explodiert sein da es auch keinen 6Pin Stecker hat den die Grafikkarte benötigt. :tongue:

Das S12 500 hat afaik 33A combined auf 12V was vollkommen für diese Graka und eine CPU bis zu 100W (und mehr) locker ausreicht.

deekey777
2008-06-17, 11:25:24
Ich fasse es nicht...
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=187&Itemid=1&limit=1&limitstart=4
...
Naja, es steht dabei das es für Vista gedacht ist und Sie nicht garantieren das es unter XP läuft.
Und den Treiber den Sie dort angeben wirst du wohl benötigen.....wie bei allen Cuda-Sachen.
...
Man braucht für CUDA einen speziellen Treiber? Ist das anwenderfreundlich, bei ATi hat man es geschafft, ab dem 8.3 den Support für CAL/Brook+ in den normalen Treiber zu integrieren.
Jetzt lade ich wieder den 169.21 herunter (habe vorher abgebrochen).

dargo
2008-06-17, 11:28:45
Ich fasse es nicht...
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=187&Itemid=1&limit=1&limitstart=4
Ach du sche... :eek:

Jetzt sehen wir wo die Transistoren gewandert sind.

Odal
2008-06-17, 11:31:23
Habe ich.
Ich habe aber den Treiber nicht. Das Kopieren von cudart.dll hat mir nichts gebracht (ist aber WinXP).


weil du den treiber nicht installieren willst oder ihn nicht hast?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420985

ist doch schon seit ner woche im umlauf

Man braucht für CUDA einen speziellen Treiber? Ist das anwenderfreundlich, bei ATi hat man es geschafft, ab dem 8.3 den Support für CAL/Brook+ in den normalen Treiber zu integrieren.
Jetzt lade ich wieder den 169.21 herunter (habe vorher abgebrochen).

das is doch immer ein "normaler" treiber nur das CUDA support nicht bei jedem treiber freigeschaltet war

Odal
2008-06-17, 11:34:45
Ach du sche... :eek:

Jetzt sehen wir wo die Transistoren gewandert sind.

http://benchmarkreviews.com/images/articles/NVIDIA_GPU_Computing/hd_movie_transcode.png

finde ich jetzt aber nicht so beeindruckend wenn man die relativ "geringe" arithmetische leistung einer 9600GT betrachtet

und hier:

http://benchmarkreviews.com/images/articles/NVIDIA_GPU_Computing/folding_at_home_performance.png

dürfte ne 98GTX auch schon um die 300 ns/day haben
und folding@home ist sicherlich schon ein extremer fall was die reine rechenauslastung anbelangt

Luziver
2008-06-17, 11:40:41
ich hab mit einer 8800GTS 512 430ns/day

Odal
2008-06-17, 11:41:37
ich hab mit einer 8800GTS 512 430ns/day

:eek: screenshot or it never happend

dann muss bei meiner kiste was im argen sein

was hast du für nen shadertakt?

dargo
2008-06-17, 11:48:05
@Odal
Ich meine die Physik-Performance.

AnarchX
2008-06-17, 11:49:24
@Odal
Ich meine die Physik-Performance.
Wobei da der Vergleich mit G9x fehlt. ;)

deekey777
2008-06-17, 11:49:31
Ach du sche... :eek:

Jetzt sehen wir wo die Transistoren gewandert sind.

Und ich sehe nur, dass du auf die Balkenlänge schaust.

weil du den treiber nicht installieren willst oder ihn nicht hast?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420985

ist doch schon seit ner woche im umlauf
...
Irgendwie kann ich diesen Treiber nicht herunterladen. ;(

Luziver
2008-06-17, 11:50:43
http://www.abload.de/thumb/8800gts51297r.jpg (http://www.abload.de/image.php?img=8800gts51297r.jpg)

@1620 also normal aber mit einem q6600

Odal
2008-06-17, 11:51:36
Und ich sehe nur, dass du auf die Balkenlänge schaust.


Irgendwie kann ich diesen Treiber nicht herunterladen. ;(


geht bei mir runterzuladen (also xp 32bit) mal downloadmanager probieren?

http://www.abload.de/thumb/8800gts51297r.jpg (http://www.abload.de/image.php?img=8800gts51297r.jpg)

@1620 also normal aber mit einem q6600


ok das muss dann sehr cpu abhängig sein werde das gleich mal verifizieren

lässt die "leistung" der GTX280 aber auch in folding@home in keinem herausragend gutem licht erscheinen....wenn man mit einer 88GTS@stock schon auf 70% der leistung kommt....

und die hatten ja auch einen quadcore @4ghz

dargo
2008-06-17, 11:52:17
Und ich sehe nur, dass du auf die Balkenlänge schaust.

Wundert dich das bei einer englischsprachigen Seite? Ich dachte das wüsstest du längst. :)
Aber du kannst mir gerne die Tests näher erläutern wenn du magst.

deekey777
2008-06-17, 11:52:49
geht bei mir runterzuladen (also xp 32bit) mal downloadmanager probieren?
Auch. Und mit Oprah.
Aber der blöde Router blockiert die Seite, also Router weg und der Download läuft. :biggrin:

Mr.Magic
2008-06-17, 11:58:32
Doppelpost wegen Internetlag. Kann gelöscht werden.

Raff
2008-06-17, 11:59:29
GTX 280 mit 16xQ, 16xS, 32xS und 16x OGSS, inklusive 25% OC: http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/

MfG,
Raff

Mr.Magic
2008-06-17, 12:00:05
http://benchmarkreviews.com/images/articles/NVIDIA_GPU_Computing/hd_movie_transcode.png

finde ich jetzt aber nicht so beeindruckend wenn man die relativ "geringe" arithmetische leistung einer 9600GT betrachtet

Die Daten müssen ja auch noch gelesen und geschrieben werden. Müsste halt mal jemand direkt mit einer RAM-Disk testen, aber noch ist zumindest das Ausgabeverzeichnis fix.

Odal
2008-06-17, 12:01:16
so nochmal getestet...50% cpu takt bringt bei mir dann auch nur 64% folding@home leistung

also entweder schummelt nvidia mit ihrem folding@home client und gaukelt uns nur vor das dieser hauptsächlich auf der GPU rechnet :D oder meine grafikkarte wird zum ersten mal sehr stark cpu limitiert :D

Die Daten müssen ja auch noch gelesen und geschrieben werden. Müsste halt mal jemand direkt mit einer RAM-Disk testen, aber noch ist zumindest das Ausgabeverzeichnis vorgeschrieben.


mag sein das sich der unterschied dann etwas erhöht aber in der praxis wird sich das dann auch nicht anders bemerkbar machen

also beim video encoden

den badaboom client hab ich noch nicht zum laufen bekommen...der würde mich ja deutlich mehr interessieren wie folding@home....

endlich filme für den PDA in wenigen minuten nebenbei umwandeln :D

Marodeur
2008-06-17, 12:02:03
Dieses Diagramm ist völlig wertlos. Was soll denn dieser 4fps Ausreißer da ohne Übertaktung? :|
Da sich die avg.fps aus den max. und min. fps ergeben ist dieser Test wie gesagt wertlos. Ich wüsste nicht was eine ~16%-ige Übertaktung mit der Beseitigung von solcher Extreme zu tun haben sollte.

Naja, an diesem 4fps-Ausreisser würd ich mich ja jetzt nicht aufhängen. Ich schätz mal da gabs andere Probs, kurzen Hänger durch nachladen oder sonstwas denn im andern Diagramm in noch höherer Auflösung gibts den Ausreisser nicht. Daher beachte ich diesen auch gar nicht und seh mir lieber den Rest des Diagramms an.
Das so ein extremer zacken nicht normal sein kann sollte aber irgendwie auch klar sein.

AnarchX
2008-06-17, 12:02:17
Da scheint ja die höhere MUL-Nutzbarkeit selbst laut NV momentan noch nicht viel zu bringen:
http://img524.imageshack.us/img524/3894/552e2015fegn5.jpg (http://imageshack.us)

Und hier ist auch wieder 650MHz GTX 280:
http://www.tweakpc.de/gallery/showphoto.php/photo/4498
;D

dildo4u
2008-06-17, 12:05:09
GTX 280 mit 16xQ, 16xS, 32xS und 16x OGSS, inklusive 25% OC: http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/

MfG,
Raff
Nice für SSAA Liebhaber führt wieder kein Weg an der neuen NV Karte vorbei.

Nazar
2008-06-17, 12:11:58
Schau dir mal bei Mass Effect die Gesichter an. Die Animationen stehen dem plöden Crysis in nix, aber wirklich nix, nach. Deswegen geilt euch nicht an dem beschissen programmierten Crysis auf. Die neue GTX260 ist völlig in Ordnung. Die 280 muss natürlich gesenkt werden. Das wird sie auch bald. Die Programmierer müssen halt gut sein

Wie schon öfter erwähnt, ist Crysis das Maß aller Dinge zur Zeit. Die Benchmarks sprechen Bände!
Das Du zum wiederholten mal mit MS ankommst und allen Ernstes diese beiden Spiele miteinander vergleichst, zeugt von Deinem Mangel an Sachverstand.
Mass Effekt zeigt nur in den vorgerenderten Zwischensequenzen eine hohe Qualität und dann auch nur bei den Gesichtern. Die Kleidungstexturen sind teilweise dermaßen schlecht (Gespräche mit Quest NPC), dass man als BQ Liebhaber gerade so den Kotzreiz unterdrücken kann.
Du vergleichst hier Äpfel mit Birnen!

Zum Thema:
weiß vielleicht jemand wo man einen Wasserkühler für die 280 herbekommen kann?

Slipknot79
2008-06-17, 12:15:02
Aber erstmal welche bekommen, die nicht 550€+ kosten. Naja, mit Glück diese Woche...

Schau mal bei Peluga vorbei ;-) Also ned persönlich, sondern die Homepage. Bin gerade schwer am Überlegen ob ich ned zugreifen soll :(

Wo schaust du eigentlich hin?

Hier mal ordentliche Werte:

http://img214.imageshack.us/img214/4272/vhse9.jpg (http://imageshack.us)

Aber klar, 1680x1050 ist bei dir sicher eine kleine Auflösung :rolleyes:

Und das ist OHNE ocing ;) Von 600core auf 700core ocing Möglichkeit wurde bereits bestätigt :)

Ist halt die Frage ob das Ocing reicht um hier aus dem MR-Bereich zu kommen :(

Mr.Magic
2008-06-17, 12:16:48
Mass Effekt zeigt nur in den vorgerenderten Zwischensequenzen eine hohe Qualität und dann auch nur bei den Gesichtern.

Nur ganz wenige Zwischensequenzen sind bei ME vorgerendert. Merkt man sofort, da diese wieder mal gruselig aussehen. Die Videos sind nämlich vergleichsweise niedrig aufgelöst (720p), enthalten MPEG Kompressionsartefakte, und es fehlt AntiAliasing.

ps: Das bei Crysis ein wesentlich höherer Rechenaufwand getrieben wird dürfte klar sein. Vor allem was Vegetation angeht - die Planeten sind kahl, und die Bäume in der Citadel sehen nicht unbedingt atemberaubend aus.

AnarchX
2008-06-17, 12:25:36
Das Thema ist hier immernoch GTX 200 und nicht die Optik von gewissen Spielen.

deekey777
2008-06-17, 12:31:29
http://benchmarkreviews.com/images/articles/NVIDIA_GPU_Computing/hd_movie_transcode.png

finde ich jetzt aber nicht so beeindruckend wenn man die relativ "geringe" arithmetische leistung einer 9600GT betrachtet

und hier:

http://benchmarkreviews.com/images/articles/NVIDIA_GPU_Computing/folding_at_home_performance.png

dürfte ne 98GTX auch schon um die 300 ns/day haben
und folding@home ist sicherlich schon ein extremer fall was die reine rechenauslastung anbelangt

Bliiind.
Video Encoding
For video encoding, a 110-second clip encodes in 21 seconds on the GeForce GTX 280. The same clip takes 231 seconds on the fastest CPU. See for yourself, and download the BadaBOOM Media Converter (http://benchmarkreviews.com/content/software/BadaBoom.zip)by Elemental Technologies directly from Benchmark Reviews.

Die Schrift in Blau ist ein Link.

pest
2008-06-17, 12:39:00
diese Videocodingangaben sind doch witzlos. Ohne entsprechende Qualitätsangaben/vergleiche kann man die Balken so lang machen wie man will.

Odal
2008-06-17, 12:42:41
Bliiind.


Die Schrift in Blau ist ein Link.

ich hab den doch längst nur der läuft nicht und spuckt nur aus das er ne GTX280/260 GPU verlangt...

ausserdem is das eh nur ein demo wo die videolänge auf 2 min limitiert ist

Chris Lux
2008-06-17, 12:54:00
hi,
wie ist das nun mit dem 8pin anschluss. gibt es da adapter für 6pin anschlüsse?

Gast
2008-06-17, 12:58:17
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:

GeneralHanno
2008-06-17, 12:59:40
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:

RAFF :D
er hat auf PCGH das teil bis zur schmerzgrenze geoced, um dann 32xS-AA+16AF+TSSAA laufen zu lassen :D

dargo
2008-06-17, 13:00:15
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:
In ca. 1-2 Monaten kann ich es dir sagen. Dann sollte man von "ausgereiften" Treibern ausgehen können.

Gast
2008-06-17, 13:00:30
Da scheint ja die höhere MUL-Nutzbarkeit selbst laut NV momentan noch nicht viel zu bringen:
http://img524.imageshack.us/img524/3894/552e2015fegn5.jpg (http://imageshack.us)

Und hier ist auch wieder 650MHz GTX 280:
http://www.tweakpc.de/gallery/showphoto.php/photo/4498
;D



Im Preview von Beyond3D steht sinngemäß drin (zumindest verstehe ich es so) das das zusätzliche MUL sowieso nur bei GPGPU was bringt. Bei games ist es wie beim G80 anscheinend nicht nutzbar. Dh. Bei Games hat die GTX280 anscheinend "nur" 622GFLOPS.

Zudem sind die 64FP units nur dazugeklebt und damit ebenfalls für Spiele nicht nutzbar

Gast
2008-06-17, 13:00:46
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:

Das hängt ja wohl vom jeweiligen Erwartungsstand des Betrachters ab.
Mich beeindruckt sie nicht, sie ist in etwa das was ich erwartet habe.

Raff
2008-06-17, 13:11:10
RAFF :D
er hat auf PCGH das teil bis zur schmerzgrenze geoced, um dann 32xS-AA+16AF+TSSAA laufen zu lassen :D

Spätestens schön übertaktet ist die Karte ja auch brutal schnell und erreicht oft doppelte 8800U-Leistung. Wenn sie 400 €uro kostet, kann man mal sehen ... :D

MfG,
Raff

Odal
2008-06-17, 13:17:34
In ca. 1-2 Monaten kann ich es dir sagen. Dann sollte man von "ausgereiften" Treibern ausgehen können.


was soll da noch weiter ausreifen? architektur ist G80 und den gibts seit 1.5 jahren

und anpassungen an die ähnderungen bzgl. speicherverwaltung etc. wird man jawohl hinbekommen haben neben der "entwicklung" der GTX280

ist ja nicht so das man einen architekturbruch/sprung wie bei g71->g80 hat

dildo4u
2008-06-17, 13:22:24
Im Preview von Beyond3D steht sinngemäß drin (zumindest verstehe ich es so) das das zusätzliche MUL sowieso nur bei GPGPU was bringt. Bei games ist es wie beim G80 anscheinend nicht nutzbar. Dh. Bei Games hat die GTX280 anscheinend "nur" 622GFLOPS.

Zudem sind die 64FP units nur dazugeklebt und damit ebenfalls für Spiele nicht nutzbar
Das passt aber nicht zu den Benches gerade die Shaderlastigen Engines(UE3.0) und Spiele wie z.B Konsolenumsetunzgen aller NFS:Carbon die auch auf den ATIs recht gut laufen liegen der GTX280 sher gut im Vergleich zum G80/G92.

http://ht4u.net/reviews/2008/msi_n280gtx/

http://bjvq779l.multipic.de/clipboard03jjk.jpg

http://s2.directupload.net/images/080617/u4f6eu2h.jpg


http://bjvq779l.multipic.de/jjkzu.jpg

Gast
2008-06-17, 13:22:50
RAFF :D
er hat auf PCGH das teil bis zur schmerzgrenze geoced, um dann 32xS-AA+16AF+TSSAA laufen zu lassen :D
20-40 Fps in HL2 und FEAR toll das ist in Games leider nicht flüssig :(

Grestorn
2008-06-17, 13:23:02
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:

Beeindruckt... nun ja, sie erfüllt ziemlich genau meine Erwartungen. Ich habe jetzt mal eine Zotac 280 AMP bestellt. Die ersetzt mein bisheriges 8800 GTX SLI Gespann. Irgendwann kommt vielleicht mal ne zweite dazu, aber erst wenn es auch für Intel eine Hybrid-Power Lösung gibt.

PHuV
2008-06-17, 13:27:04
Gibts hier eigentlich jemand den die 280 wirklich beeindruckt? Also mehr als nur wohlwollende Zurkenntnisnahme? :rolleyes:

Mich, ich finde die Leistungswerte ganz ordentlich, und mal schauen, ob ich gleich einen neuen Rechner kaufe (2x280 GTX und 790er-Board), oder doch erst aufrüste.

Mr. Lolman
2008-06-17, 13:30:44
Das passt aber nicht zu den Benches gerade die Shaderlastigen Engines(UE3.0) und Spiele wie z.B Konsolenumsetunzgen aller NFS:Carbon die auch auf den ATIs recht gut laufen liegen der GTX280 sher gut im Vergleich zum G80/G92.

http://ht4u.net/reviews/2008/msi_n280gtx/

http://bjvq779l.multipic.de/clipboard03jjk.jpg

http://s2.directupload.net/images/080617/u4f6eu2h.jpg


http://bjvq779l.multipic.de/jjkzu.jpg

Was mich ein bisschen wundert ist, dass ATI-Karten bei HT4U immer sooo extrem schlecht abschneiden. ZB wenn man die Anno Ergebnisse mit denen von CB vergleicht: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/7/#abschnitt_anno_1701

dildo4u
2008-06-17, 13:33:01
Was mich ein bisschen wundert ist, dass ATI-Karten bei HT4U immer sooo extrem schlecht abschneiden. ZB wenn man die Anno Ergebnisse mit denen von CB vergleicht: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/7/#abschnitt_anno_1701
Die haben alle ATI Karten mit dem Cat 8.3 gebencht auch die X2.Egal mir gings um den Vergleich G80 /G200.

reallord
2008-06-17, 13:43:07
Die haben alle ATI Karten mit dem Cat 8.3 gebencht auch die X2.Egal mir gings um den Vergleich G80 /G200.

Aber auch der Vergleich ist laut den Testsystemangaben (http://ht4u.net/reviews/2008/msi_n280gtx/index11.php) von HT4U unnütz oder?


NVIDIA ForceWare 177.34 WHQL (nur MSI N280GTX)
NVIDIA ForceWare 174.53


Alle nVs mit alten Treibern (auch G80) und nur die 280 mit den Neuen. Und die ATIs nur mit den 8.3ern...

dildo4u
2008-06-17, 13:45:19
Aber auch der Vergleich ist laut den Testsystemangaben (http://ht4u.net/reviews/2008/msi_n280gtx/index11.php) von HT4U unnütz oder?



Alle nVs mit alten Treibern (auch G80) und nur die 280 mit den Neuen. Und die ATIs nur mit den 8.3ern...
Bis auf den Vantage Benchmark gab es keine großen Steigerungen mit den neuen Treiber(Auf G80/G92) von daher passt das Bild aus den Benches schon.Und uralt sind die Treiber mit dem die G80/G92) getestet worden auch nicht alle wichtigen Optemierung für diese "alten" Spiele von 2007 sind schon im Treiber.

Sorkalm
2008-06-17, 13:49:42
Das passt aber nicht zu den Benches gerade die Shaderlastigen Engines(UE3.0) und Spiele wie z.B Konsolenumsetunzgen aller NFS:Carbon die auch auf den ATIs recht gut laufen liegen der GTX280 sher gut im Vergleich zum G80/G92.

Die Shader bleiben mit 240 Stück gegenüber den 128 des G80/G92 auch immer noch die größte Erweiterung gegenüber den alten Chips.

Gast
2008-06-17, 13:51:43
RAFF :D
er hat auf PCGH das teil bis zur schmerzgrenze geoced, um dann 32xS-AA+16AF+TSSAA laufen zu lassen :D

Was ist daran so toll? Für mich ist das immer so als wenn man eine Penispumpe zur Hilfe nehmen muss. Und irgendwann ist der Mist dann kaputt.

Gast
2008-06-17, 14:01:28
Naja, mir fällt einfach auf dass nun nach der ersten Reviewwelle eine gewisse Ernüchterung eingekehrt ist. Klar, die 280 ist eine gute Karte, keine Frage, aber es fehlt einfach der gewisse "Wow" Faktor meiner Beobachtung nach.

Das Auge
2008-06-17, 14:02:57
Wie siehts eigentlich mit der Lautstärke der 260 aus? Ist doch der gleiche Kühler, dafür genehmigt sich die Karte rund 50W weniger. Die sollte doch nicht ganz so derb aufdrehen? Gibts da schon verlässliche Werte/Erfahrungen?

Gast
2008-06-17, 14:04:43
Zotac wirbt auf dem 260 Karton mit "low noise cooler" und auf dem 280 Karton ned. KA obs was bedeutet.

Ronny G.
2008-06-17, 14:26:57
und die Verfügbarkeit bei Alternate spricht auch nicht gerade von ner Hypewelle um diese Karte, das Geld scheint doch nicht so locker zu sitzen wie man annehmen mag.

Ich überlege auch schon wieder zu wechseln, doch bin ich weder AA noch AF @supersinnloshigh Fetischist, noch brauche ich Auflösung jenseits der 1680x1050, den nur da würde die Karte momentan richtig was reisen. Ich werde nen Refresh und Zukünftige Spieletitel beobachten um nen evtl. Wechsel in betracht zu ziehen.

dildo4u
2008-06-17, 14:31:18
Mal sehen ob sich die Karte so schnell wie hier überall bei 450€ einpendelt.

http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=a9a48574197c1b222.05421407&campaign=gat&mc=2

d2kx
2008-06-17, 14:31:19
Mmh die GeForce GTX 280 gibts für 509€ bei VV-Computer... ganz so toll scheinen die ja doch nicht wegzugehen.

Sorkalm
2008-06-17, 14:33:07
Mmh die GeForce GTX 280 gibts für 509€ bei VV-Computer... ganz so toll scheinen die ja doch nicht wegzugehen.

PCTweaker hat auch für den selben Preis eine PoV GTX 280 sofort lieferbar - denke mal die 500€-Grenze wird schnell fallen.

Das Auge
2008-06-17, 14:33:20
Die 280 ist bei mir auch keine Option, zu monströs ist der Verbrauch. Die kleine 260er zu einem guten Preis und mit leiser Kühlung ist dagegen schon interessanter. V.a. wenn mein weniger bewanderter Nachbar mir meine GT zu einem (für mich :udevil:) guten Preis abkauft...

Gast
2008-06-17, 14:37:12
Mal sehen ob sich die Karte so schnell wie hier überall bei 450€ einpendelt.

http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=a9a48574197c1b222.05421407&campaign=gat&mc=2

Wird in 2-3 wochen sicher um 400€ zu bekommen sein, was dann gut ist für die Karte und die 260er unter 300€

Grestorn
2008-06-17, 14:38:31
Das hat man bei der 8800GTX auch gesagt. Und gewartet. Und gewartet...

Dass es Shops gibt, die unter Preis anbieten und dann ewig nicht liefern, sollte sich doch inzwischen rumgesprochen haben. Manche Shops ködern so Kunden und warten mit der Lieferung dann so lange, bis die Preise entsprechend gesunken sind. Ein paar Kunden lassen sich so offenbar verscheißern...

Taigatrommel
2008-06-17, 14:39:27
Mal sehen ob sich die Karte so schnell wie hier überall bei 450€ einpendelt.

http://www.e-shop24.com/oxid/index.php?cl=details&cnid=&anid=a9a48574197c1b222.05421407&campaign=gat&mc=2

Naja, e-shop24 macht ganz schön Preisdruck, wobei die Bewertungen des Shops jetzt auch nicht soooooo gut sind. Ich würde da eher nicht bestellen. Mal ganz davon abgesehen, dass die keine einzige GTX lieferbar haben.

Wie dem auch sei kann man die GTX 280 bei guten Shops ab 509,- Euro bekommen. Selbst Alternate hat ein paar Karten ab 529,- Euro da. Über 550,- würde ich auch nur für OC Varianten ausgeben.

dreamweaver
2008-06-17, 15:28:03
Wird in 2-3 wochen sicher um 400€ zu bekommen sein, was dann gut ist für die Karte und die 260er unter 300€

Die 260er steht schon unter 300. Hier für 283 Euro (ok, noch nicht lieferbar)
http://geizhals.at/deutschland/a344447.html

BTW, was rechtfertigt den doppelten Preis von 566 Euro für die 260er von EVGa? Black Pearl? http://geizhals.at/deutschland/a344473.html
Die Daten sind gleich.
:ucrazy2:

Taigatrommel
2008-06-17, 15:33:40
Ja, nur hier mal wieder e-shop24, wo viel günstig angeboten wird aber nichts auf Lager ist.
Die Black Pearl Versionen von EVGA sind wassergekühlt und übertaktet.

dreamweaver
2008-06-17, 15:39:39
Ja, nur hier mal wieder e-shop24, wo viel günstig angeboten wird aber nichts auf Lager ist.
Die Black Pearl Versionen von EVGA sind wassergekühlt und übertaktet.
Aha, naja. Trotzdem heftig. Mehr als ne 280er. In den geizhals Daten steht davon aber auch nix.

Sorkalm
2008-06-17, 15:44:24
Die Preise sind eh nichts wert, solange nichts lieferbar ist.

Taigatrommel
2008-06-17, 15:45:21
Hmmm, jetzt wo du es sagst... bei EVGA ist eine "Black Pearl" auch nicht gelistet. Dort gibt es nur eine ganz normale GTX 260.

Marodeur
2008-06-17, 15:51:01
Über 200 € Aufschlag für vormontierte WaKü ist schon leicht übertrieben... Schade... :(

EDIT:
Stimmt, bei Geizhals steht noch nichtmal was von WaKü, aber anders macht der Name Black Pearl wenig Sinn.

EDIT2:
Ah, ok. Der Kühler is ja schon fertig. ^^
http://www.evga.com/articles/416.asp

mekakic
2008-06-17, 15:51:30
Wann steht eigentlich ein Refresh der aktuellen Generation in 55nm (oder was kleinerem) an?

Gast
2008-06-17, 16:00:51
Hat die GTX 260 eigentlich auch 8pin + 6pin Stromanschluss, oder nur 6pin + 6pin?

AnarchX
2008-06-17, 16:01:36
Wann steht eigentlich ein Refresh der aktuellen Generation in 55nm (oder was kleinerem) an?
nVidia Kommende GeForce 200 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421630)

dildo4u
2008-06-17, 16:05:06
Hat die GTX 260 eigentlich auch 8pin + 6pin Stromanschluss, oder nur 6pin + 6pin?
6 und 6.

http://www.driverheaven.net/reviewimages/zotac_280_gtx_nv_260_gtx/power.jpg

http://www.driverheaven.net/reviews.php?reviewid=579&pageid=4

LordDeath
2008-06-17, 16:19:31
Die GT200 hat ca. doppelt so viele Transistoren als die G80, hat aber nicht doppelt soviel Einheiten (256 ALUs, 128 TMUs). Waren jetzt diese ganzen internen Anpassungen sinnvoll, oder wäre man mit dieser fiktiven doppelten G80 jetzt nicht doch schneller?

dildo4u
2008-06-17, 16:22:21
Die GT200 hat ca. doppelt so viele Transistoren als die G80, hat aber nicht doppelt soviel Einheiten (256 ALUs, 128 TMUs). Waren jetzt diese ganzen internen Anpassungen sinnvoll, oder wäre man mit dieser fiktiven doppelten G80 jetzt nicht doch schneller?
Kommt drauf an wie Shaderlastig die PC Games in den nästen 18 Monaten werden.

mictasm
2008-06-17, 16:39:07
Wird in 2-3 wochen sicher um 400€ zu bekommen sein, was dann gut ist für die Karte und die 260er unter 300€

Ich glaube auch nicht, dass die 400€ so schnell erreicht werden.