PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 3 4 5 6 [7] 8

Gast
2008-05-28, 17:13:16
Lol :rolleyes: eine 8800GTX schafft in Very High 1680x1050 4xAA+16xAF grad mal 11FPS.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Weil der Speicher nicht da ist.

Dominator18.....

Gast
2008-05-28, 17:13:55
Weil der Speicher nicht da ist.

Dominator18.....

PS:Nvidia wird das neue gerät schon auf Crysis getrimmt haben.

Dominator18.....

Gast
2008-05-28, 17:21:30
Weil der Speicher nicht da ist.

Dominator18.....

Die 8800GTX hat 768mb schon vergessen ?

crux2005
2008-05-28, 17:23:17
Bleibt die Frage wofür man dann ~2x Transistoren benötigt. Normalerweise benötigt selbst ein doppelt so breiter Chip nur gut 2/3 mehr Transistoren. Außer DP, Verbesserungen am Tri-Setup, mögliche GPCPU-Optimierungen und dem Videoprozessor dürfte sich featuremäßig zwischen G80 und GT200 nicht viel getan haben.

für den 512Bit MC ? könnte mir vorstellen das der viele Transistoren schluckt

Gast
2008-05-28, 17:24:15
Wenn beim GT200 einige Flaschenhälse beseitigt sind kann sie durchaus auch Crysis flüssig darstellen. Wer weiss denn schon was bei AA und Auflösung limitiert? Villeicht irgendwas Kleines das überproportional bremst.

robbitop
2008-05-28, 17:48:13
Ein aufgebohrtes Tri-Setup, verbesserte Cache-Hirarchie (8xMSAA anyone?), Z-Kompression, mehr Flops pro SP, mehr ROPs und breiteres Speicherinterface sind Baustellen an denen verbreitert wurde. Da sollte schon etwas mehr Endleistung rauskommen, als es die Skalierung der reinen Einheiten zeigt, sofern die Bandbreite nicht zum Bremsklotz wird.

Coda
2008-05-28, 17:57:35
Die breitere Architektur könnte eher zu einer schlechteren Granulität führen. Vll. nicht mehr Threads mit 32 Pixeln, sondern jetzt mit 48 (2*3*8 statt 2*2*8).
Wollte ich auch sagen.

Das 8xMSAA nicht performt könnte übrigens auch am Tri-Setup liegen bei G92. Wenn das nur 4 "Samples"/Takt raushauen kann dann ist es auch klar warum die ganzen CSAA-Modi soviel kosten.

Gast
2008-05-28, 18:35:29
für alle die meinen der GT200 wird 3x schneller als eine GTX.

sollten die probleme mit 8xMSAA behoben sein dürfte sogar noch wesentlich mehr drinnen sein.

BiG OnE
2008-05-28, 18:57:03
@ Gast

Displayport ist zwar nett, aber ich wüsste jetzt kein Gerät das DP hat.

Also, da brauch ich bloß auf die Rückseite meines Monitors zu gucken, Dell UltraSharp 3008WFP.

Bis denne ...

Gast
2008-05-28, 19:30:13
Also, da brauch ich bloß auf die Rückseite meines Monitors zu gucken, Dell UltraSharp 3008WFP.

Bis denne ...


gehörst dann zu denen unter 0,1% die das haben.

InsaneDruid
2008-05-28, 19:34:46
Solange die Ausgänge halbwegs kompatibel sind dürfte es eh relativ Wurst sein, was für Ausgänge verbaut sind.

Snoopy1978
2008-05-28, 19:41:19
Also, da brauch ich bloß auf die Rückseite meines Monitors zu gucken, Dell UltraSharp 3008WFP.



Na der Name des Monitors muss ja noch genannt werden. :biggrin:

gehörst dann zu denen unter 0,1% die das haben

Ja hier regiert bei einigen die Dekadenz.:wink:

Aber im Ernst,solche Boliden wie die GTX280 wollen ja auch was zu tun haben.Besonders wenn sie im SLI daherkommen.Da macht es ja nicht gerade den Sinn mit Monitorgrößen unter 24 Zoll zu arbeiten.

BiG OnE
2008-05-28, 20:04:26
Du wolltest doch ein Gerät wissen das ein DP hat, oder hab ich dich da irgendwie missverstanden. Und das Wort was Du verwenden wolltest, war wahrscheinlich Dekadenz, hat nix damit zu tun, sondern mit einer geregelten Arbeit und es sich leisten zu können.

Bis denne ...

Snoopy1978
2008-05-28, 20:55:08
Ich wollte das nicht wissen und danke das du mich auf meinen Schreibfehler hingewiesen hast.Und zum Thema Dekadenz muss ich sagen daß das scherzhaft gemeint war und nicht ernst.:rolleyes:

deekey777
2008-05-28, 23:07:22
Die breitere Architektur könnte eher zu einer schlechteren Granulität führen. Vll. nicht mehr Threads mit 32 Pixeln, sondern jetzt mit 48 (2*3*8 statt 2*2*8).
...
Wobei "schlecht" schlecht klingt. Schlimm ist es nicht, der R580 hat's ja überlebt. Und der Xenos sowie die R600-Generation hat Threads mit je 64 Pixeln (und Vertizen).

Überhaupt: Der G80 hat zwei Kerne (2xVec8), dass sie gemeinsam arbeiten müssen (an einem Thread), ist eine "Software"-Limitierung.

Vielleicht hebt NV diese Limitierung beim G200 auf, womit 3 unabhängige Threads a 32 Pixeln parallel hätten (Stichwort CUDA).

Und jetzt föhnt euch die Axelhaare. :biggrin:

tombman
2008-05-29, 03:58:44
Also aus dem Chinatext liest man ja "double precision" heraus -> :naughty: :cool:

Viel mehr als 2x G80 GTX wirds wohl nicht werden (laut der X4xxx Ansage), so wie es jetzt aussieht :(

Preis-Worstcase:
Da der Preis 600+ Dollar ist, ist das Maximum damit 699$ (sonst würds ja 700+$ heißen). Nach heutigem Kurs wären das 446.6€.
20% Idiotensteuer drauf wären dann ~ 535€.
Euro-Händlerabzocke im ersten Monat macht daraus sicher 599€ lagernd :ugly:

tombman
2008-05-29, 04:07:24
Und was wohl das neue "Geschmacksmuster" der ROPs ist? :D (edit: Laut Übersetzung ins Englische, offenbar ein neues ROP-Design...)
Könnte auch neue AA-Muster bedeuten ;)

Coda
2008-05-29, 04:51:45
Also aus dem Chinatext liest man ja "double precision" heraus -> :naughty: :cool:
Das ist für dich doch sowieso sowas von völlig irrelevant.

Gast
2008-05-29, 07:38:46
Also aus dem Chinatext liest man ja "double precision" heraus -> :naughty: :cool:


Kann AMD seit RV670.

AnarchX
2008-05-29, 07:51:21
Get pulled deeper into the gaming experience than ever before with NVIDIA® GeForce® GTX 280 and GTX 260.

High definition worlds crackle and hum with cinema-quality clarity in games including Unreal Tournament® 3, Assassin’s Creed™, Call of Duty® 4: Modern Warfare™ and S.T.A.L.K.E.R.: Clear Sky. Lifelike characters behave with such realistic intensity that your palms sweat and your heart races. Objects react to the forces of nature exactly as nature intended.

And beyond games, GeForce GTX 200 GPUs shift everyday processing tasks from the CPU to the GPU - Blu-ray movies, 3D Internet browsing with PicLens, Folding@home protein-folding, and video transcoding. With a 50% perf boost over the previous generations, both performance and immersion are absolute.

Get Visual. Get GeForce.

http://we.pcinlife.com/thread-940795-1-1.html

reunion@work
2008-05-29, 07:57:00
http://we.pcinlife.com/thread-940795-1-1.html

"With a 50% perf boost over the previous generations"

Naja, hört sich ja nicht unbedingt berauschend an. Wenn es sich auf die 9800GX2 bezieht, wäre es aber noch im Rahmen.

Coda
2008-05-29, 07:58:37
Das mit den "50% mehr" hatten wir schon vor über ner Woche irgendwann mal. Das ist ziemlich sicher Quatsch, vor allem auf alles andere als die GX2 bezogen.

reunion@work
2008-05-29, 07:59:22
Das mit den "50% mehr" hatten wir schon vor über ner Woche irgendwann mal. Das ist ziemlich sicher Quatsch, vor allem auf alles andere als die GX2 bezogen.

Ja, da bezog es sich aber auf die angebliche Effizienz der Shader.

AnarchX
2008-05-29, 08:01:39
Nunja, klingt aber wie ein offizieller Werbetext. ;)

Aber wer weiß auf welche Settings sich dieser Wert nun genau bezieht, laut NV war ja die 9600 GT auch nur 90% schneller als eine 8600GTS, was auch etwas tief gegriffen war.

da Vinci
2008-05-29, 08:10:05
Wenn man den ganzen Text zitiert, bezieht sich der 2. Absatz aber eher auf die Videobeschleunigung.

Get pulled deeper into the gaming experience than ever before with NVIDIA® GeForce® GTX 280 and GTX 260.

High definition worlds crackle and hum with cinema-quality clarity in games including Unreal Tournament® 3, Assassin’s Creed™, Call of Duty® 4: Modern Warfare™ and S.T.A.L.K.E.R.: Clear Sky. Lifelike characters behave with such realistic intensity that your palms sweat and your heart races. Objects react to the forces of nature exactly as nature intended.

And beyond games, GeForce GTX 200 GPUs shift everyday processing tasks from the CPU to the GPU - Blu-ray movies, 3D Internet browsing with PicLens, Folding@home protein-folding, and video transcoding. With a 50% perf boost over the previous generations, both performance and immersion are absolute.

Moralelastix
2008-05-29, 08:24:09
Fragt sich nur ob all die superduper Anwendungen auch da sind wenn der Chip da is. Oder ob man wieder Monate warten muss bis die Software endlich für alle verfügbar is.

Gast
2008-05-29, 10:24:27
http://www.imgimg.de/uploads/vantageextreme83534223jpg.jpg

Gast
2008-05-29, 10:32:36
Quelle?

Adam D.
2008-05-29, 10:33:44
Quelle?
Sein Hirn. Ist derselbe wie schon vor ein paar Seiten. Aber das ist so cool, ich erstell mir glaub ich auch gleich mal 'n paar Balken :usad:

Gast
2008-05-29, 10:37:16
und selbst wenn es wahr wäre, wenn interessiert Vantage?
Ich will die Spieleleistung der neuen Karten sehen.

MuLuNGuS
2008-05-29, 10:49:29
zumindest spiegeln die balken das wieder was man von einer GT200 erwartet, ob es sich um einen fake handelt oder nicht steht auf einem anderen blatt...

Adam D.
2008-05-29, 10:52:04
Natürlich ist es ein Fake - oder lädst du exklusive Daten auf imgimg.de hoch? Jeder hier kann ein Diagramm erstellen und das treffen, was man vom GT200 erwartet :rolleyes:

MuLuNGuS
2008-05-29, 10:54:40
Natürlich ist es ein Fake - oder lädst du exklusive Daten auf imgimg.de hoch? Jeder hier kann ein Diagramm erstellen und das treffen, was man vom GT200 erwartet :rolleyes:

ich hab nicht behauptet das es kein fake ist, es ging mir nur um die werte also bleib ruhig.

Adam D.
2008-05-29, 11:05:30
zumindest spiegeln die balken das wieder was man von einer GT200 erwartet, ob es sich um einen fake handelt oder nicht steht auf einem anderen blatt...
Ich bin ruhig, es regt mich nur auf, dass hier dauernd irgendwer meint, völlig sinnloses Zeugs zu posten. War ja nix gegen dich.

Godmode
2008-05-29, 11:21:03
Richtig schön mit Office 2007 gemacht!

deekey777
2008-05-29, 11:23:50
Wenn man den ganzen Text zitiert, bezieht sich der 2. Absatz aber eher auf die Videobeschleunigung.
Denkst du, die GTX280 interessiert es, ob sie gerade Farbwerte berechnet oder ein Video codiert/transcodiert?
Von der wiederauferstandenen MUL-Einheit sollte auch das Rendering profitieren, wenn es der Shadercode hergibt.
Recht hast du insoweit, dass zB die CUDA-Dokumentation diese MUL-Einheit nirgendwo erwähnte, sprich sie war nicht nutzbar.

gbm31
2008-05-29, 11:43:57
Preis-Worstcase:
Da der Preis 600+ Dollar ist, ist das Maximum damit 699$ (sonst würds ja 700+$ heißen). Nach heutigem Kurs wären das 446.6€.
20% Idiotensteuer drauf wären dann ~ 535€.
Euro-Händlerabzocke im ersten Monat macht daraus sicher 599€ lagernd :ugly:



bisher wurden beim release immer schön die zahlen übernommen, geh also mal von 699€ aus...

drmaniac
2008-05-29, 12:29:13
Meine einzige Hoffnung: Crysis in 1920, Very High, 4xAA mit 30 fps (auch in den Eisleveln).

Wenn sie das schafft ist gut.


oh wei ;)

Ich mag kein SLI (microruckler, keine 100% mehr Leistung, Spiele müssen es unterstützen, brauche meine PCI Steckplätze für andere Dinge, Preis...naja Preis egal fast :D) und will eine Single GraKa welche mir Crysis auf nem 30er (2560x1600) mal flüssig darstellt.

Ailuros
2008-05-29, 12:50:51
Das mit den "50% mehr" hatten wir schon vor über ner Woche irgendwann mal. Das ist ziemlich sicher Quatsch, vor allem auf alles andere als die GX2 bezogen.

http://forum.beyond3d.com/showthread.php?t=46800&page=68

Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

Coda
2008-05-29, 12:56:27
Vantage skaliert im AFR aber auch verdammt gut.

Adam D.
2008-05-29, 13:04:40
Vantage skaliert im AFR aber auch verdammt gut.
Jo, und zeigt fast deutlicher als alles andere die Mikroruckler-Problematik.

Gast
2008-05-29, 13:05:12
also bei CF noch nicht gut, liegt aber am Treiber ich hab soviel GPU Punkte mit ner X2 wie ne 8800GTX das kann ja wohl nicht sein, und ohne CF 2 FPS weniger *g*

dildo4u
2008-05-29, 13:07:31
also bei CF noch nicht gut, liegt aber am Treiber ich hab soviel GPU Punkte mit ner X2 wie ne 8800GTX das kann ja wohl nicht sein, und ohne CF 2 FPS weniger *g*
Schon den cat 8.5 drauf? Soll ja auch bei Vantage zulegen.

http://www.computerbase.de/news/treiber/grafikkarten/ati/2008/mai/ati_catalyst_85_dx10/

Ailuros
2008-05-29, 13:10:56
Vantage skaliert im AFR aber auch verdammt gut.

Das mit den angeblichen +50% ist sowieso auf die pro ALU Effizienz gezielt im Vergleich zu G8x/9x.

Gast
2008-05-29, 13:38:17
Die neuen Karten sind wohl doch schneller als angenommen:
http://img222.imageshack.us/img222/1851/bild1nc8.th.png (http://img222.imageshack.us/my.php?image=bild1nc8.png)

Gast
2008-05-29, 13:39:47
CJ bestätigt nochmals die GT2xxx Werte aus dem b3d forum, meint aber die HD4xxx sind nicht richtig...

Well at least they got the GTX 280 and GTX 260 numbers right. But I leaked those some time ago on another forum.

san.salvador
2008-05-29, 13:39:47
Die neuen Karten sind wohl doch schneller als angenommen:
http://img222.imageshack.us/img222/1851/bild1nc8.th.png (http://img222.imageshack.us/my.php?image=bild1nc8.png)
Vielleicht sind aber auch nur die Balken bunter, man weiß es nicht. ;)

Sonyfreak
2008-05-29, 13:41:37
Genau der gleiche Schwachsinn wie schon auf der vorigen Seite. :rolleyes:

mfg.

Sonyfreak

tombman
2008-05-29, 13:58:17
Kann diesen spasstigen Gast mal wer aufhalten?

Der X41xx Wert für die 280er scheint glaubhaft, bissi mehr als die GX2 eben ->kommt hin.

MuLuNGuS
2008-05-29, 14:01:17
Genau der gleiche Schwachsinn wie schon auf der vorigen Seite. :rolleyes:

mfg.

Sonyfreak


ist halt alles schmarrn bis die ersten richtigen reviews kommen^^
®

Nightspider
2008-05-29, 14:06:06
Lasst sie doch.

Das überbrückt die Wartezeit solange :ulol:

tombman
2008-05-29, 14:07:12
Eine GX2 gibt mittlerweile um <400€ LAGERND.

Bei dem Preis der GTX 280 MUSS sie schneller als ne GX2 sein, ansonsten versteht das keiner...

Anarchy-HWLUXX
2008-05-29, 14:07:14
ist halt alles schmarrn bis die ersten richtigen reviews kommen^^
®
Oder einer zeigt uns zu den Benches den Testaufbau + Zerlegte GTX2x0 und allen einzelheiten :D

Klar muss die GTX280 die GX2 plätten ... war ja bei der 7950GX2 auch nicht anders, die konnt gerade mal so in seltenen fällen zur GTS kontakt halten.


*dasistsospannend* :ucatch:

tombman
2008-05-29, 14:10:02
Na dann reichts doch, schneller muß sie ja nicht sein- zumindest für mich :D

Btw, FUDO comfirmed:

The biggest issue is the price as around $600 might be too steep but at the same time GT200 / D10U-30 the board that you now known as Geforce GTX 280 will definitely be faster than dual chip Geforce 9800 GX2 that sells for minimum of $500.

Yippie-ay-yah, motherfucker ;D

Schlammsau
2008-05-29, 14:37:10
Na dann reichts doch, schneller muß sie ja nicht sein- zumindest für mich :D

Btw, FUDO comfirmed:


Yippie-ay-yah, motherfucker ;D

ähm....natürlich wird er schneller :|, die gx2 ist doch auch "nur" rund 1,7x GTX! Wie gesagt maximal doppelte GTX Geschwindigkeit!

Gast
2008-05-29, 14:39:01
Na dann reichts doch, schneller muß sie ja nicht sein- zumindest für mich :D

Btw, FUDO comfirmed:


Yippie-ay-yah, motherfucker ;D

Dann ist die GT280 definitiv eine geile karte, aber bei dem spekulierten preis von 600$+ auch zu teuer. Die Karte darf am Ende nicht mehr als 450€ kosten um ein attraktives P/L zu haben.

seahawk
2008-05-29, 14:39:15
Immer oder manchmal ist die Frage. Da wo der GX2 der VRAM ausgeht dürfte es leicht sein mit der GT280 besser zu liegen. :D

Gast
2008-05-29, 14:44:32
[url]Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF


Das wäre aber weniger als hier angenommen. Einiges unter 2x 8800 Ultra. Manchmal war zu lesen von 2.5x-3x Leistung. Da war wieder der Hype größer als berechtigt.

dildo4u
2008-05-29, 14:44:51
Dann ist die GT280 definitiv eine geile karte, aber bei dem spekulierten preis von 600$+ auch zu teuer. Die Karte darf am Ende nicht mehr als 450€ kosten um ein attraktives P/L zu haben.
Die schnellste erhältliche Karte kann sich immer ein sonder Bonus leisten war schon immer so und wird auch immer so bleiben.Imo keine Frage das vom P/L Verhältniss her die Mainstreamkarten um 130€ besser sein werden wie es Heute auch der Fall ist.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/27/#abschnitt_preisleistungverhaeltnis

Gast
2008-05-29, 14:50:59
CJ bestätigt nochmals die GT2xxx Werte aus dem b3d forum, meint aber die HD4xxx sind nicht richtig...
Und wieso leaked er dann nicht die HD4xxx Werte??

Gast
2008-05-29, 14:53:37
Kann diesen spasstigen Gast mal wer aufhalten?

Der X41xx Wert für die 280er scheint glaubhaft, bissi mehr als die GX2 eben ->kommt hin.

Dito.

Adam D.
2008-05-29, 14:54:41
Und wieso leaked er dann nicht die HD4xxx Werte??
Weil er es noch nicht kann? Versprechen, NDA, Verantwortung ... was weiß ich. AiL könnte uns auch alles erzählen, tut es aber nicht ;)

Gast
2008-05-29, 15:02:56
http://img233.imageshack.us/img233/7738/rsvw6.png

crux2005
2008-05-29, 15:06:28
Gast sapamming deluxe :frown:

das nervt, immer diese bunten Balken ...

Anarchy-HWLUXX
2008-05-29, 15:08:17
Spielen mer jetzt wer bastelt den besten Graphen oder wie ;)

Gast
2008-05-29, 15:15:31
Dito.

tja so ist es und nicht ansatzweise 600 euro wert und genau das ist der punkt.welchen grund soll ein besitzter mit 2*8800gtx haben zuwechseln?
1.neue technik,nein
2.mehr performance ,nein
3.billiger,nein(kriegt man ja knapp ein triple für das geld)

nur microruckler spricht dafür und das war es schon.

Sorkalm
2008-05-29, 15:19:48
Spielen mer jetzt wer bastelt den besten Graphen oder wie ;)

Der Gewinner kriegt dann einen Extra-Graphen wo er mal vorne liegt... :D

Dumm nur, dass es nur einen Mitspieler gibt. :ugly:

Adam D.
2008-05-29, 15:22:47
tja so ist es und nicht ansatzweise 600 euro wert und genau das ist der punkt.welchen grund soll ein besitzter mit 2*8800gtx haben zuwechseln?
1.neue technik,nein
2.mehr performance ,nein
3.billiger,nein(kriegt man ja knapp ein triple für das geld)

nur microruckler spricht dafür und das war es schon.
Woher willst du das eigentlich wissen? Hast du schon wirklich handfeste, brauchbare Benchmarks und Technik-Overviews gesehen?

Gast
2008-05-29, 15:25:20
Weil er es noch nicht kann? Versprechen, NDA, Verantwortung ... was weiß ich. AiL könnte uns auch alles erzählen, tut es aber nicht ;)
Sollte er aber ;)

Gast
2008-05-29, 15:25:22
Woher willst du das eigentlich wissen? Hast du schon wirklich handfeste, brauchbare Benchmarks und Technik-Overviews gesehen?

weil ich es weis,woher willst du das gegenteil wissen?

Anarchy-HWLUXX
2008-05-29, 15:26:36
weil ich es weis,woher willst du das gegenteil wissen?
Von der selben quelle wie du weiss ich das du es nicht weisst :D

tombman
2008-05-29, 15:26:53
bisher wurden beim release immer schön die zahlen übernommen, geh also mal von 699€ aus...
Der Dollarkurs ist aber nicht mehr der selbe wie Ende 2006 ;)

frix
2008-05-29, 15:28:05
was soll die skala mit den zahlen da unten bedeuten? Kartoffeln?

Adam D.
2008-05-29, 15:29:17
Sollte er aber ;)
Wär natürlich schön, aber er hat durchaus schon einiges verlauten lassen ...

weil ich es weis,woher willst du das gegenteil wissen?
... und zwar, dass der GT200 ein Monster wird und mit dem Die, der Zeit und der Selbstanschauung von Nvidia auch nichts anderes erwartet werden muss.

tombman
2008-05-29, 15:29:39
was soll die skala mit den zahlen da unten bedeuten? Kartoffeln?
Der Grad des Wahnsinns des Gastes über die Zeit ;)

dr_mordio
2008-05-29, 15:31:40
Der Dollarkurs ist aber nicht mehr der selbe wie Ende 2006 ;)

naja aber das muß ja nichts heißen. siehe apple und die ipod touches der 16GB kam in amerika wie in DE für 399,-

was soll die skala mit den zahlen da unten bedeuten? Kartoffeln?
nein das sind die hardcore fanboys die jedes der produkte in zehntausender zahlen haben wird ;D

AnarchX
2008-05-29, 15:33:20
naja aber das muß ja nichts heißen. siehe apple und die ipod touches der 16GB kam in amerika wie in DE für 399,-


Bei den GraKa-Launches der nahen Vergangenheit wurde der Wechselkurs doch berücksichtigt.

Gast
2008-05-29, 15:37:01
Bei den GraKa-Launches der nahen Vergangenheit wurde der Wechselkurs doch berücksichtigt.

aber nicht zum launch sondern viel später,das problem sind die scheiss händler die machen die preis einfach 1 zu 1 zum start.

dr_mordio
2008-05-29, 15:37:38
Bei den GraKa-Launches der nahen Vergangenheit wurde der Wechselkurs doch berücksichtigt.

ja das stimmt schon, aber da war ja auch nicht so ein knaller wie die GTX280 dabei.
ich denke schon das da gerade am anfang gute aufschläge sein werden. und wenns nur der findige händler ist.
denn auch das ist leider bei gefragten karten in letzterzeit gut in mode gekommen.

Anarchy-HWLUXX
2008-05-29, 15:44:15
aber nicht zum launch sondern viel später,das problem sind die scheiss händler die machen die preis einfach 1 zu 1 zum start.
Meinst du etwa die US Shops halten sich beim Launch an die UVP ... wohl kaum.

dargo
2008-05-29, 15:45:37
ja das stimmt schon, aber da war ja auch nicht so ein knaller wie die GTX280 dabei.

Wie bitte? Was war denn deiner Meinung nach 2006 der G80? Ein Misserfolg? :|

dr_mordio
2008-05-29, 15:58:07
Wie bitte? Was war denn deiner Meinung nach 2006 der G80? Ein Misserfolg? :|
das habe ich doch garnicht gesagt.
ich sage eher das es in letzter zeit mode geworden ist bei den shops es immer weiter zu übertreiben.
vom G80 hatte ich doch garnichts gesagt?
aber so richtig akut wurde die preistreiberei ja bei der HD3870 und der 8800GT

san.salvador
2008-05-29, 16:09:56
Schau dir die Preise an, potente Hardware ist billig wie nie, die von dir erwähnten Grafikkarten bekommt man geradezu nachgeschmissen.

gbm31
2008-05-29, 16:13:06
Der Dollarkurs ist aber nicht mehr der selbe wie Ende 2006 ;)
Meinst du etwa die US Shops halten sich beim Launch an die UVP ... wohl kaum.


nun, ich wollte mir eigentlich auch mal einen 299$ eee-pc kaufen...

;)

Adam D.
2008-05-29, 16:16:08
Schau dir die Preise an, potente Hardware ist billig wie nie, die von dir erwähnten Grafikkarten bekommt man geradezu nachgeschmissen.
Hmm, hast du den Launch verschlafen? Wenn du 'ne 8800GT am Anfang haben wolltest, musstest du gut 270€ zahlen. Klar hat sich das mit steigender Verfügbarkeit (extrem) geändert, aber am Anfang (und das waren einige Wochen) war es richtig mies.

dr_mordio
2008-05-29, 16:16:28
Schau dir die Preise an, potente Hardware ist billig wie nie, die von dir erwähnten Grafikkarten bekommt man geradezu nachgeschmissen.
ähh ja..
eine seite vorher ging es um die preisaufschläge beim release.
jetzt sind die preise natürlich im keller.

ich denke mal es liegt am warmen wetter das jeder nur noch halbherzig lesen tut.

der eine meint ich hab was gegen G80 in form der GTX der nächste meint ich meine die aktuellen preise.

also nochma für alle:
die preise der der neuen großen garfikkarten bei ATI/AMD und auch bei Nvidia sind massiv hochgepuscht worden in den ersten wochen nach erscheinen.
und das von händlern welche die teile lieferbar hatten und merken, das es nicht gerde viele karten gibt.
und das wird leider bei der GTX280 auch nicht besser werden.
ich erwarte die ersten wochen extrem perverse preise, die sich vor den US preisen nicht verstecken müssen.

dr_mordio
2008-05-29, 16:17:15
Hmm, hast du den Launch verschlafen? Wenn du 'ne 8800GT am Anfang haben wolltest, musstest du gut 270€ zahlen. Klar hat sich das mit steigender Verfügbarkeit (extrem) geändert, aber am Anfang (und das waren einige Wochen) war es richtig mies.

danke!
genau das meinte ich

Gast
2008-05-29, 16:19:12
Hmm, hast du den Launch verschlafen? Wenn du 'ne 8800GT am Anfang haben wolltest, musstest du gut 270€ zahlen. Klar hat sich das mit steigender Verfügbarkeit (extrem) geändert, aber am Anfang (und das waren einige Wochen) war es richtig mies.
ich habe für meine sogar für 350euro in der bucht bekommen.:)

Anarchy-HWLUXX
2008-05-29, 16:28:31
nun, ich wollte mir eigentlich auch mal einen 299$ eee-pc kaufen...
;)

gibt es jetzt für 268€ und du vergisst das die 19% MWST bei uns - in den USA ist das viel weniger - glaub 5,75% Sales Tax oder so ...


Hmm, hast du den Launch verschlafen? Wenn du 'ne 8800GT am Anfang haben wolltest, musstest du gut 270€ zahlen. Klar hat sich das mit steigender Verfügbarkeit (extrem) geändert, aber am Anfang (und das waren einige Wochen) war es richtig mies.

Also wer weder Hirn noch Gedund hatte wurd abgezogen ... andererseits versuchten dann viele leute die günstig eine gekauft hatten die dann mit Gewinn zu verticken - auch net besser als die Shops und nen beweis dafür das es "normal" ist :rolleyes:

The_Invisible
2008-05-29, 16:29:12
was soll die skala mit den zahlen da unten bedeuten? Kartoffeln?

eher "wieviele eier kann meine graka in der stunde kochen" :)

mfg

gbm31
2008-05-29, 16:36:31
gibt es jetzt für 268€ und du vergisst das die 19% MWST bei uns - in den USA ist das viel weniger - glaub 5,75% Sales Tax oder so ...



schlaule! und wie lange ist das ding jetzt auf dem markt?
und wieviel dollar gibts grad fürn euro?

laß mal lieber das augenrollen...

MEDIC-on-DUTY
2008-05-29, 16:54:01
Was´n hier los? Alle koppen sich um den Preis, obwohl der noch überhaupt nicht fest steht. Viel interessanter ist doch, dass jetzt endlich mal aus vertrauenswürdigen Quellen die ersten Balken auftauchen. Ich will endlich wissen was das Teil zerreißt.

Schlammsau
2008-05-29, 17:28:49
Sollte eigentlich Vertaruenswürdig sein!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538909#post6538909

HOT
2008-05-29, 17:53:52
Der Preis wird sich Preis/Leistungsmässig eh so einpendeln, dass es passt. Diese Herumreiterei auf irgendwelchen eventuellen Preisen ist echt bescheuert.

Gast
2008-05-29, 18:35:36
Der Preis wird sich Preis/Leistungsmässig eh so einpendeln, dass es passt. Diese Herumreiterei auf irgendwelchen eventuellen Preisen ist echt bescheuert.
Das ist doch nur die Angst vor den Preisen zu Releasebeginn. Die Leute sind süchtig und die Händler werden das natürlich wieder schamlos ausnutzen und mit Wucherpreisen beginnen. Es wird trotzdem gekauft, denn es gibt viele die gar nicht anders können als zu kaufen. War eigentlich bei jedem Release so und bei dem jetzt erst recht, wo die meisten Kunden grakatechnisch mindestens ein Jahr und länger auf Entzug waren und total ausgehungert sind. Da werden zu Release alle Dämme brechen.

Snoopy1978
2008-05-29, 18:37:13
Die Preise haben sich,zumindest teilweise, vorteilhaft für den Kunden entwickelt.Ich kann mich noch lebhaft daran erinnern das Mitte 2005 eine Anmerkung in der PCGH stand, in der zu lesen war das Ati und Nvidia die Preise für High-End-Grafikkarten mittelfristig auf ca. 1000 Euro erhöhen wollen um mehr Gewinn einzufahren.

gbm31
2008-05-29, 18:42:04
... Ati und Nvidia die Preise für High-End-Grafikkarten mittelfristig auf ca. 1000 Euro erhöhen wollen um mehr Gewinn einzufahren.


selten so einen blödsinn gelesen.


wer soll die kaufen? tombman, blaire, don vito - und davon lebt nvidia bzw. ati dann?


der gewinn würd ganz schnell ausbleiben und die konsolen boomen bei solchen preisen.


btw: das ist keine angst (ich hab damals schon keine 8800gtx gekauft, und jetzt auch sicher nicht aufrüsten) sondern die gleiche gewissheit wie bei den drm-seifenblasen. (ich warte noch darauf, daß steam platzt...)

Gast
2008-05-29, 18:45:01
Grafikkarten waren schon immer viel zu billig, guck euch doch mal die wucher Preise im CPU bereich an! Da zahlt man für Highend gleich mal 1000 bis 1500.- US Doller, für ein Produkt das deutlich billiger in der Herstellung ist als zum beispiel eben eine GTX 280er....

Gast
2008-05-29, 18:45:12
Das ist doch nur die Angst vor den Preisen zu Releasebeginn. Die Leute sind süchtig und die Händler werden das natürlich wieder schamlos ausnutzen und mit Wucherpreisen beginnen. Es wird trotzdem gekauft, denn es gibt viele die gar nicht anders können als zu kaufen. War eigentlich bei jedem Release so und bei dem jetzt erst recht, wo die meisten Kunden grakatechnisch mindestens ein Jahr und länger auf Entzug waren und total ausgehungert sind. Da werden zu Release alle Dämme brechen.

und? kapitalismus halt :rolleyes:

AnarchX
2008-05-29, 18:49:23
Halte ich auch für Unsinn bzw. wurde der Plan wohl geändert: bis zu 1800€ für ein Tri-SLI-System, die NV exkl. Chipsatzeinnahmen dem Gamer mit der dicken Geldtasche abknöpfen kann.:D

Da zahlt man für Highend gleich mal 1000 bis 1500.- US Doller, für ein Produkt das deutlich billiger in der Herstellung ist als zum beispiel eben eine GTX 280er....
Eine solche CPU herzustellen benötigt aber auch ein gewisses Know-How, was eben auch kostet und zudem hat eine CPU ein deutlich breiteres Anwendungsfeld, wobei das sich ja bald ändern wird...

Psychopat
2008-05-29, 18:53:32
Das ist doch nur die Angst vor den Preisen zu Releasebeginn. Die Leute sind süchtig und die Händler werden das natürlich wieder schamlos ausnutzen und mit Wucherpreisen beginnen. Es wird trotzdem gekauft, denn es gibt viele die gar nicht anders können als zu kaufen. War eigentlich bei jedem Release so und bei dem jetzt erst recht, wo die meisten Kunden grakatechnisch mindestens ein Jahr und länger auf Entzug waren und total ausgehungert sind. Da werden zu Release alle Dämme brechen.

Naja, schau dir Tombman doch an. Der würde jeden Preis für zwei GTX 280 zahlen. Wäre nVidia + Händler doch blöd, das nicht zu nutzen.
Deswegen sind ja soviele 8800GT's in der Bucht weiterverkauft worden, weils da Leute gab die solche Preise gezahlt haben.

Die gelbe Eule
2008-05-29, 18:54:38
Kann denn vielleicht später eine GPU die CPU komplett ersetzen? Das würde viel mehr Möglichkeiten bringen, gerade dann, wenn es nicht nur um die Bildausgabe geht.

AnarchX
2008-05-29, 18:56:42
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D

Gast
2008-05-29, 18:58:03
Eine solche CPU herzustellen benötigt aber auch ein gewisses Know-How, was eben auch kostet und zudem hat eine CPU ein deutlich breiteres Anwendungsfeld, wobei das sich ja bald ändern wird...

Ja klar der G200 kann jede hinterhoff Firma Entwickeln/Herstellen oder wie?

Intel soll mal zuerst einen Chip bringen der 1400Mio. Transistoren hat, die fast nur für die Logik da sind und nicht 60% der Chip grösse aus einfachem Cache besteht ;)

Gast
2008-05-29, 19:05:41
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D

*Hust* nicht der Nachfolger/Refresh des GT200 hatte sein Tapeout *hust*

mapel110
2008-05-29, 19:07:51
55nm Variante vom G92 wohl, aka G92b?!

Fetza
2008-05-29, 19:09:07
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D

Wenn das so stimmt, freuen wir uns alle auf haarfön II :-)

dargo
2008-05-29, 19:11:07
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D
Sehe ich das richtig?

G280GTX = 649$
G260GTX = 449$

Der Preis der G260GTX wäre zu schön um wahr zu sein. 320-330€ Straßenpreis in DE. :up:

nagus
2008-05-29, 19:11:46
http://www.imgimg.de/uploads/vantageextreme83534223jpg.jpg

ähm.. nur so nebenbei bemerkt: die gx2 skalliert doch extrem gut mit vantage... wie zum geier soll sich dass dann rein rechnerisch ausgehn, dass die GX2 deutlich langsamer ist als die GT260?

die GT260 hat angeblich 715GFlops, die GX2 knapp 1200GFLops. bei der texturfüllrate schauts änlich aus.

also wie zum geier soll das funktionieren????

es gibt meiner meinug nach nur 2 plausible erklärungen:

1. diese benchmarks sind gefälscht
2. nvidia cheatet auf teufel komm raus mit den launchtreibern der geforce gt260

AnarchX
2008-05-29, 19:15:09
also wie zum geier soll das funktionieren????
Eben 200-300 Mio. Transistoren die nicht in Einheiten oder Ähnliches geflossen sind, sondern in die Effizienz des Design.

Nebenbei sind es bei der GX2 768GFLOPs, wenn man das Missing-MUL nicht betrachtet, was wohl im Vergleich zu GT200 zu empfehlen ist.

seahawk
2008-05-29, 19:20:59
Interessant was der Inq über den neuen NCV Chip sagt. Mal wieder eine Vollflopp für NV. :D

nagus
2008-05-29, 19:21:21
naja... aber der unterschied kommt mir trotzdem ein bisschen SEHR extrem vor. ich trau mich fast wetten dass diese benchmarks nicht 100% ok sind. entweder gefäscht oder gecheatet oder was weiß ich. außerdem glaub ich nicht, dass die 4870X2 es nicht schaffen soll, die GT200 zu übertrumpfen.... sorry aber auch wenn ich das noch so positiv für nvidia sehe... wie soll das bitte gehn?!

mapel110
2008-05-29, 19:22:45
naja... aber der unterschied kommt mir trotzdem ein bisschen SEHR extrem vor. ich trau mich fast wetten dass diese benchmarks nicht 100% ok sind. entweder gefäscht oder gecheatet oder was weiß ich. außerdem glaub ich nicht, dass die 4870X2 es nicht schaffen soll, die GT200 zu übertrumpfen.... sorry aber auch wenn ich das noch so positiv für nvidia sehe... wie soll das bitte gehn?!
Indem der einzelne 4870er eben nur ein Mid Range Chip ist?!

Gast
2008-05-29, 19:23:18
Sehe ich das richtig?

G280GTX = 649$
G260GTX = 449$

Der Preis der G260GTX wäre zu schön um wahr zu sein. 320-330€ Straßenpreis in DE. :up:

ne siehst du falsch,das nach den zahlen werden euros sein:)

Psychopat
2008-05-29, 19:23:42
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D

Mal zusammengefasst:
- Yield 280 und 260 zusammen 40%
- Nur 4 Hersteller mit Karten am Anfang
- Kaum Margen für die Hersteller, da teures PCB, Speicher + Kühlung

Spricht nicht gerade für gute Verfügbarkeit und schnell sinkende Preise...

Wäre mal interessant zu wissen wie es diesbezüglich beim RV770 steht. Evtl. kann AMD nVidia da erheblich über den Preis zusetzen. Was für Einen Preis haltet ihr denn realistisch für den RV770 2-3 Monate nach Launch? 170 pro, 220 XT?
Mit CF bekommt man dann längere Balken als bei nVidia für sein Geld...
(ich tippe auf 400 Euro GTX 260, 550 GTX 280)

dildo4u
2008-05-29, 19:23:50
naja... aber der unterschied kommt mir trotzdem ein bisschen SEHR extrem vor. ich trau mich fast wetten dass diese benchmarks nicht 100% ok sind. entweder gefäscht oder gecheatet oder was weiß ich. außerdem glaub ich nicht, dass die 4870X2 es nicht schaffen soll, die GT200 zu übertrumpfen.... sorry aber auch wenn ich das noch so positiv für nvidia sehe... wie soll das bitte gehn?!
Vantage läuft scheisse auf den ATI's schlechter als im Durchscnitt bei den aktuellen Games da fehlen noch Optemierungen im Treiber ist doch nix Neues.Also so oder so selbst wenn die Werte stimmen taugt Vantage nur dazu Chips innerhalb des Herstellers zu vergleichen.

seahawk
2008-05-29, 19:24:49
Aner besser als ne heutige 9800GTX, so gesehen müßte det FT2X0 schon ne Überraschung sein, wenn er die 4870X2 schlagen kann. Aber ATI kann den Preis drücken und NV nicht. ATI hat imho die Trümpfe in der HAnd, während NV wohl den Turbohaartrockner wieder erwecken lassen muss.

AnarchX
2008-05-29, 19:25:15
Interessant was der Inq über den neuen NCV Chip sagt. Mal wieder eine Vollflopp für NV. :D
Genau wie der G80. (http://www.theinquirer.net/en/inquirer/news/2006/09/13/nvidia-g80-mystery-starts-thickening) :D

naja... aber der unterschied kommt mir trotzdem ein bisschen SEHR extrem vor. ich trau mich fast wetten dass diese benchmarks nicht 100% ok sind. entweder gefäscht oder gecheatet oder was weiß ich.
Nunja, CJ ist doch eine sehr zuverlässige Quelle, mit gewisser roter Tendenz und er wäre wohl der letzte der Werte positiv für NV fälscht.


außerdem glaub ich nicht, dass die 4870X2 es nicht schaffen soll, die GT200 zu übertrumpfen.... sorry aber auch wenn ich das noch so positiv für nvidia sehe... wie soll das bitte gehn?!
Die RV7xx-Werte sind Fakes aus dem HW-Luxx... ;)
Wenn ATi den Treiber vernünftig optimiert, dann würde ich R700 auch vor der GTX280 im 3DMurks sehen....

Gast
2008-05-29, 19:26:17
haha unglaublich,jetzt wird schon über ein diagramm disskutiert das nicht mal eine quelle,unglaublich was hier abgeht.

Coda
2008-05-29, 19:26:33
Eine solche CPU herzustellen benötigt aber auch ein gewisses Know-How, was eben auch kostet und zudem hat eine CPU ein deutlich breiteres Anwendungsfeld, wobei das sich ja bald ändern wird...
Die Entwicklung einer heutigen GPU-Architektur ist sicher nicht billiger.

dargo
2008-05-29, 19:27:56
ne siehst du falsch,das nach den zahlen werden euros sein:)
Bitte nicht schon wieder diese unnötige Diskussion $ vs. €. Wenn die 449$ UVP stimmen dann kostet die G260GTX in DE spätestens im August 320-330€, garantiert. Außer, es passiert ähnliches wie beim G92 nach dem Launch.

Gast
2008-05-29, 19:29:55
Bitte nicht schon wieder diese unnötige Diskussion $ vs. €. Wenn die 449$ UVP stimmen dann kostet die G260GTX in DE spätestens im August 320-330€, garantiert. Außer, es passiert ähnliches wie beim G92 nach dem Launch.

omg,wovon träumst du?was hat den damals die 8800gtx und 8800gts gekostet? und der dollar kurs war nicht viel besser als jetzt,die ausrede ist schon mal nicht gültig.

AnarchX
2008-05-29, 19:30:19
Die Entwicklung einer heutigen GPU-Architektur ist sicher nicht billiger.
Das zweifele ich auch nicht an und das war ja auch nur ein Teil meines Postings, der Zeit-Geld-Faktor an dem Intel/AMD wohl eben auch mitverdienen will ist ein anderer und hier sind die GPUs ja gerade im Begriff mit einzusteigen, wobei das aber wohl eher für Tesla und FireStream geschehen wird.

dargo
2008-05-29, 19:31:07
omg,wovon träumst du?was hat den damals die 8800gtx und 8800gts gekostet? und der dollar kurs war nicht viel besser als jetzt,die ausrede ist schon mal nicht gültig.
Wir sprechen uns nochmal im August. Ich werde mir mal deinen Beitrag festnageln. ;)

Gast
2008-05-29, 19:33:49
Wir sprechen uns nochmal im August. Ich werde mir mal deinen Beitrag festnageln. ;)

sweety die kommen am 17 juni raus,dann nagel ich dich an der wand.

dargo
2008-05-29, 19:37:59
sweety die kommen am 17 juni raus,dann nagel ich dich an der wand.
Ja und? Wenn du gerne den "Schlechte-Verfügbarkeit-Händler-Aufpreis" zahlst, bitte. Ich warte bis August. ;)

Gast
2008-05-29, 19:38:11
Wir sprechen uns nochmal im August. Ich werde mir mal deinen Beitrag festnageln. ;)

was sich in 2 monaten abspielt ist doch schon total uninteresant,warum nicht gleich zu weihnachten:)

GeneralHanno
2008-05-29, 19:42:47
meine güter, wie kann man eigentlich SOOO ein ATi-fanboy wie charlie von inq sein. das geht echt gar nicht :rolleyes:

es wäre zumindest ein interessanter schachzug, wenn nvidia den G200 auf 55nm shrinkt ...

Snoopy69
2008-05-29, 19:43:04
Bitte nicht schon wieder diese unnötige Diskussion $ vs. €. Wenn die 449$ UVP stimmen dann kostet die G260GTX in DE spätestens im August 320-330€, garantiert. Außer, es passiert ähnliches wie beim G92 nach dem Launch.
Vergiss es - niemals!
Ich würde auch sagen, dass $ gegen € getauscht wird, aber die Zahlen vorne bleiben. Schon oft genug erlebt.
Und im August wird die Karte noch sehr rar und begehrt sein. Das treibt den Preis.
Ich sehe den Preis in den ersten 2-3Mon. recht hoch...

dargo
2008-05-29, 19:43:19
was sich in 2 monaten abspielt ist doch schon total uninteresant,warum nicht gleich zu weihnachten:)
Naja, wir wollen mal nicht übertreiben. Zu Weihnachten kann es schon wieder schnellere Grafikkarten geben. Dann könnte ich gleich auf 2009 warten. :D
Nee, die 6-8 Wochen nach Launch warte ich gerne ab. Warum sollte ich gleich zugreifen wenn ich nach dieser imo kurzen Wartezeit über 100€ sparen kann? :)

Vergiss es - niemals!
Ich würde auch sagen, dass $ gegen € getauscht wird, aber die Zahlen vorne bleiben. Schon oft genug erlebt.
Und im August wird die Karte noch sehr rar und begehrt sein. Das treibt den Preis.
Ich sehe den Preis in den ersten 2-3Mon. recht hoch...
Ist auch angetackert. ;)

Schlammsau
2008-05-29, 19:46:22
Genau wie der G80. (http://www.theinquirer.net/en/inquirer/news/2006/09/13/nvidia-g80-mystery-starts-thickening) :D
Naja.... erstens, dein verlinkter Artikel, ist 2 Monate vor Release erschienen. Und zweitens ist der Autor nur auf Gerüchte eingegangen, die für ihn nicht ganz plausibel klangen!
Der Artikel über den GT200 ist wesentlich kritischer geschrieben!
Bin zwar kein Profi, aber die manche Kritikpunkte könnten der Wahrheit entsprechen.....wie sehr teures PCB, R700 wesentlich billiger herzustellen bei gleicher Performance, etc.....

reunion
2008-05-29, 19:47:29
Mal zusammengefasst:
- Yield 280 und 260 zusammen 40%
- Nur 4 Hersteller mit Karten am Anfang
- Kaum Margen für die Hersteller, da teures PCB, Speicher + Kühlung

Spricht nicht gerade für gute Verfügbarkeit und schnell sinkende Preise...


Mich wundert es ja schon, dass die Karten bei der Die-Größe überhaupt noch um üblichen 400-600$ angeboten werden können. Das sind bekanntlich Montecito-Ausmaße, und das Ding kostet mehrere tausend Dollar trotz sehr hohem Cacheanteil und ohne 1GB VRAM, NVIO und dgl.

dildo4u
2008-05-29, 19:50:15
Mich wundert es ja schon, dass die Karten bei der Die-Größe überhaupt noch um üblichen 400-600$ angeboten werden können.
Der Chip ist ganze 15% größer als der G80 wow.:rolleyes:

dargo
2008-05-29, 19:53:56
Bin zwar kein Profi, aber die manche Kritikpunkte könnten der Wahrheit entsprechen.....wie sehr teures PCB, R700 wesentlich billiger herzustellen bei gleicher Performance, etc.....
Wie kann man nur Single-GPU mit CF vergleichen? *kopfschüttel*

Adam D.
2008-05-29, 19:55:21
Naja.... erstens, dein verlinkter Artikel, ist 2 Monate vor Release erschienen. Und zweitens ist der Autor nur auf Gerüchte eingegangen, die für ihn nicht ganz plausibel klangen!
Der Artikel über den GT200 ist wesentlich kritischer geschrieben!
Bin zwar kein Profi, aber die manche Kritikpunkte könnten der Wahrheit entsprechen.....wie sehr teures PCB, R700 wesentlich billiger herzustellen bei gleicher Performance, etc.....
Ach, die sind einfach nur frustriert, weil Nvidia sie permanent ausgesperrt hat. Nvidia ist keine Firma mehr, die irgendwelchen großartigen Risiken eingeht, die haben den GT200 aus gutem Grund so designt. ATi geht halt 'nen anderen Weg, welcher davon besser ist, lässt sich sicher nicht pauschal in 2 Sätzen sagen.

Snoopy69
2008-05-29, 19:57:03
Ist auch angetackert. ;)
Wie meinen? :tongue:

Schlammsau
2008-05-29, 19:57:18
Wie kann man nur Single-GPU mit CF vergleichen? *kopfschüttel*

Laut ATi wird es von ihnen devinitiv keine SingleGPU High End Lösungen mehr geben.
Also muss man diese beiden miteinander Vergleichen!
Und ich denke, dass das Ruckelproblem verbessert bzw. behoben wird!
Wann? Keine Ahnung!

Unyu
2008-05-29, 20:00:39
Also muss man diese beiden miteinander Vergleichen!
Nö, du kannst Single mit Single vergleichen:
G92b - RV770

Wie kann man nur Single-GPU mit CF vergleichen? *kopfschüttel*
Indem man in der Traumwelt lebt, die CF Probleme würden sich in 2 Monaten in Luft auflösen.

Schlammsau
2008-05-29, 20:02:22
Ach, die sind einfach nur frustriert, weil Nvidia sie permanent ausgesperrt hat. Nvidia ist keine Firma mehr, die irgendwelchen großartigen Risiken eingeht, die haben den GT200 aus gutem Grund so designt. ATi geht halt 'nen anderen Weg, welcher davon besser ist, lässt sich sicher nicht pauschal in 2 Sätzen sagen.

kein Plan warum sie so gegen nV wettern. Aber manche Sachen klingen durchaus plausibel, von manchen anderen hab ich keine Ahnung! :redface:

dargo
2008-05-29, 20:12:06
Laut ATi wird es von ihnen devinitiv keine SingleGPU High End Lösungen mehr geben.

Dann haben die ein Problem.


Also muss man diese beiden miteinander Vergleichen!

Nö, du kannst höchstens dann die Midrange-Produkte vergleichen.


Und ich denke, dass das Ruckelproblem verbessert bzw. behoben wird!
Wann? Keine Ahnung!
Da kannst du lange warten bis du grau wirst.

Nakai
2008-05-29, 20:15:01
Nö, du kannst höchstens dann die Midrange-Produkte vergleichen.

Natürlich kann man vergleichen.
Dem Dau isses egal was in der Karte ist, hauptsache sie bringt FPS.
Wieso sollte man Produkte nicht miteinander vergleichen können?


mfg Nakai

Gast
2008-05-29, 20:18:31
Da kannst du lange warten bis du grau wirst.

Bis zum R800 wird er wohl noch keine grauen haare haben.

Unyu
2008-05-29, 20:20:27
Bis zum R800 wird er wohl noch keine grauen haare haben.
In wie fern wird der R800 den CF Support des R700 verbessern?

Dem Dau isses egal

Sind wir hier in einem Dau Forum? ;)

Wieso sollte man Produkte nicht miteinander vergleichen können?
Weil bis auf die FPS nichts gleich ist.

reunion
2008-05-29, 20:20:57
Der Chip ist ganze 15% größer als der G80 wow.:rolleyes:

20%. Und schon ein G80 war verdammt groß.

Schlammsau
2008-05-29, 20:21:25
Dann haben die ein Problem.
warum sollten sie ein Problem haben?
Für die allermeisten Enthusiasten, zählt nur die Balkenlänge, sonst nichts!
Und von Microrucklern haben die wenigsten etwas gehört, bzw. stört es sie nicht!
Es ist immo eh nur ein Phänomen, deutscher Webseiten, insbesondere unseres Forums, wo SLi bzw. CF so dermassen schlecht gemacht wird!
Wenn Tombman nicht gewesen wäre, würde doch heute noch jeder CF oder SLi Nutzer, sich über die immense Power freuen!

Nö, du kannst höchstens dann die Midrange-Produkte vergleichen.
wenn du meinst!

Da kannst du lange warten bis du grau wirst.
Dann hab ich ja noch ein paar Jahre :smile:

dargo
2008-05-29, 20:23:14
Bis zum R800 wird er wohl noch keine grauen haare haben.
Ob das AFR Problem mit dem R800 schon gelöst werden kann steht noch in den Sternen. Afaik soll der R800 nur die doppelte Auslegung vom Speicher erstmal aus der Welt schaffen.

Adam D.
2008-05-29, 20:25:11
Ob das AFR Problem mit dem R800 schon gelöst werden kann steht noch in den Sternen. Afaik soll der R800 nur die doppelte Auslegung vom Speicher erstmal aus der Welt schaffen.
Naja, ich denke, dass man da schon so optimistisch sein kann, dass der R800 (H2/09?) da erhebliche Verbesserungen zeigen wird.

Schlammsau
2008-05-29, 20:27:05
In wie fern wird der R800 den CF Support des R700 verbessern?

So war der R700 ursprunglich geplant.
Hoffentlich wird zumindest der R800 so:

http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif

Snoopy69
2008-05-29, 20:28:34
Was denkt ihr - ist das Mikroruckel-Problem irgendwann zu lösen?
Ist das nur HW-technisch lösbar oder auch durch Treiber?

Gast
2008-05-29, 20:29:07
So war der R700 ursprunglich geplant.
Hoffentlich wird zumindest der R800 so:

http://pc.watch.impress.co.jp/docs/2007/1204/kaigai404_01l.gif

wie kommst du drauf das es beim r700 so nicht ist?es gibt ja eigentlich nur die gerüchte vom Inquirer,aber das sagt genau das aus.

Nakai
2008-05-29, 20:29:46
Weil bis auf die FPS nichts gleich ist.

Na und? Beide Karten bringen dem Käufer Leistung fürs Geld. Natürlich gibt es Unterschiede zwischen den Karten, aber Vergleichen kann man immer, jedenfalls performancemäßig, featuremäßig usw... aber natürlich nicht vom Aufbau, da unterscheiden sich die Karten gewiss.


mfg Nakai

AnarchX
2008-05-29, 20:31:47
wie kommst du drauf das es beim r700 so nicht ist?es gibt ja eigentlich nur die gerüchte vom Inquirer,aber das sagt genau das aus.

Es gibt Bilder vom Kühler aus zuverlässiger Quelle, die ein Shared-Memory-Prinzip doch ziemlich ausschließen.

Schlammsau
2008-05-29, 20:33:01
wie kommst du drauf das es beim r700 so nicht ist?es gibt ja eigentlich nur die gerüchte vom Inquirer,aber das sagt genau das aus.
natürlich hoffe ich weiterhin, dass es schon beim R700 so ist! Dennoch gibt es Gerüchte die in der Hinsicht nichts gutes deuten.

Gast
2008-05-29, 20:36:08
Es gibt Bilder vom Kühler aus zuverlässiger Quelle, die ein Shared-Memory-Prinzip doch ziemlich ausschließen.
natürlich hoffe ich weiterhin, dass es schon beim R700 so ist! Dennoch gibt es Gerüchte die in der Hinsicht nichts gutes deuten.


lol was für gerüchte,erstmal muss man keine gerüchte ernst nehmen und vorallem wo sind die gerüchte denn?quellen bitte

Unyu
2008-05-29, 20:38:23
Hoffentlich wird zumindest der R800 so:
Gut, dann kann man R800 eventuell mit Sinlge GPUs vergleichen, R700 trotzdem nicht. ;)

Adam D.
2008-05-29, 20:39:45
lol was für gerüchte,erstmal muss man keine gerüchte ernst nehmen und vorallem wo sind die gerüchte denn?quellen bitte
Wie AnarchX schon geschrieben hat, es gibt Bilder vom Kühler des R700 und da der vom Aufbau völlig identisch ist zu dem des R680 gibt es einfach keinen Anlass zu glauben, dass der R700 die Verbesserungen schon implentiert hat. Außerdem hat ATi laut einigen Aussagen nicht viele Mittel in die Entwicklung des R700 gesteckt, ergo würd ich da keine großen Verbesserungen erwarten.

dargo
2008-05-29, 20:41:29
Gut, dann kann man R800 eventuell mit Sinlge GPUs vergleichen, R700 trotzdem nicht. ;)
Da wäre ich mir nicht so sicher. Es sind immer noch zwei GPUs. Solange wir nicht wissen wie diese arbeiten würde ich nicht voreilig vor Freude an die Decke gehen.

mapel110
2008-05-29, 20:43:19
Was denkt ihr - ist das Mikroruckel-Problem irgendwann zu lösen?
Ist das nur HW-technisch lösbar oder auch durch Treiber?
Dazu gabs hier schon mehr als einen Thread. Es gibt ja schon diverse Lösungen.
SFR nutzen, fps-limiter nutzen, Vsync nutzen, für hohe fps sorgen etc pp

Coda
2008-05-29, 20:44:19
Bei AFR kann es aber transparent wenn dann nur der Treiber lösen. Und ich vermute immer noch dass das Leistung kosten wird.

Gast
2008-05-29, 20:59:49
Was denkt ihr - ist das Mikroruckel-Problem irgendwann zu lösen?

natürlich wäre es lösbar, nur kostet das eben leistung. balkenlänge zählt eben immer noch mehr wie ruckler.

AnarchX
2008-05-29, 21:52:19
GT200 - der "heilige" Chip? :D

http://img169.imageshack.us/img169/6605/gt200cjzo7pm6.jpg

Gast
2008-05-29, 21:55:40
Wie AnarchX schon geschrieben hat, es gibt Bilder vom Kühler des R700 und da der vom Aufbau völlig identisch ist zu dem des R680 gibt es einfach keinen Anlass zu glauben, dass der R700 die Verbesserungen schon implentiert hat. Außerdem hat ATi laut einigen Aussagen nicht viele Mittel in die Entwicklung des R700 gesteckt, ergo würd ich da keine großen Verbesserungen erwarten.

aha, ist klar das siehst du am Kühler oder was :ugly:

Gast
2008-05-29, 22:03:51
Passend zu der The-Inquirer-Meldung nun auch die erste deutsche Übersetzung:

http://www.hardware-infos.com/news.php?news=2107

Snoopy1978
2008-05-29, 22:05:26
Da war der Gast wohl eher......

Das passt zu den Andeutungen von Ailuros das Nvidia die Oper vom HighEnd Monster dieses Jahr noch nicht ausgeschmettert hat.

Snoopy1978
2008-05-29, 22:09:05
aha, ist klar das siehst du am Kühler oder was


Ich glaube das kann man am Kühler erkennen,da der 2 getrennte Kupferblöcke aufweist.Jeder für eine GPU.

AnarchX
2008-05-29, 22:46:16
GT200 - der "heilige" Chip? :D

http://img169.imageshack.us/img169/6605/gt200cjzo7pm6.jpg

This is also based on a die shot, although a better one so if you can't corroborate it, you'll just have to believe me:
~26.5% SMs, ~26% Non-SM Clusters (TMUs etc.), ~14.25% memory I/O, ~13.25% unique, ~8% MCs, ~6.25% ROPs, ~2% Misc. I/O, 4%+ Misc. (intrachip I/O, rounding errors, unidentifiable units, etc.)
http://forum.beyond3d.com/showthread.php?t=46800&page=71

Die gelbe Eule
2008-05-29, 22:56:00
Hab ich wohl richtig vermutet, es gibt nur wieder eine begrenzte Verfügbarkeit für die, die es nicht lassen können. Außer EVGA, XFX, Asus und PNY sehe ich da auch keine Boardpartner die einen Vorzug bekommen würden. Könnte trotzdem ein Schnäppchen werden wenn der GT200b kommt.

Snoopy69
2008-05-29, 23:07:42
natürlich wäre es lösbar, nur kostet das eben leistung. balkenlänge zählt eben immer noch mehr wie ruckler.
Was ziemlich dumm ist...
U.U. hat man trotz SLI und mehr angezeigten fps weniger spürbare fps

K4mPFwUr$t
2008-05-29, 23:14:22
hmm, klingt nicht gerade berauschend die news vom GT200.
man kann nur hoffen das der OEM markt nicht alle verfügbaren GPUs abgreift.
oder diese werden sehr teuer, was ein warten auf den GT200b vieleicht verbessern würde.

Die gelbe Eule
2008-05-29, 23:18:14
Außer Alienware würde es niemanden geben der GT200 verbaut. Die schnellste Karte bis zum Refresh zu haben, darum gehts eigentlich nur. Und wenn die HD4870x2 doch schneller ist, dann wird auch eine GX2 nicht lange auf sich warten lassen.

derwalde
2008-05-29, 23:25:19
und ich werd trotzdem nicht wiederstehen können *hibbelig sei*;)

kruemelmonster
2008-05-29, 23:32:13
...
Grafikkarten waren schon immer viel zu billig, guck euch doch mal die wucher Preise im CPU bereich an! Da zahlt man für Highend gleich mal 1000 bis 1500.- US Doller, für ein Produkt das deutlich billiger in der Herstellung ist als zum beispiel eben eine GTX 280er....

Eine solche CPU herzustellen benötigt aber auch ein gewisses Know-How, was eben auch kostet und zudem hat eine CPU ein deutlich breiteres Anwendungsfeld, wobei das sich ja bald ändern wird...

Auf dem Wafer sind alle Dice gleich. Das Produkt- und Preiskostüm wird ihnen erst später angezogen.


...
Nee, die 6-8 Wochen nach Launch warte ich gerne ab. Warum sollte ich gleich zugreifen wenn ich nach dieser imo kurzen Wartezeit über 100€ sparen kann? :)
...


Dito. Sobald die GTX 260 für unter 350€ zu haben ist geht die Bestellung raus. Die Wartezeit werd ich mir einfach mit massig Lesestoff von beyond3d, xbitlabs, 3dc und dem Rest der Rasselbande vertreiben. :popcorn:

AffenJack
2008-05-29, 23:32:58
Außer Alienware würde es niemanden geben der GT200 verbaut. Die schnellste Karte bis zum Refresh zu haben, darum gehts eigentlich nur. Und wenn die HD4870x2 doch schneller ist, dann wird auch eine GX2 nicht lange auf sich warten lassen.

Ne Gx2 kannste erstmal vergessen denk ich, selbst bei 55nm wäre der stromverbrauch und die diesize viel zu groß dafür.
Ab 45nm könnts wieder eine geben.
Zur Not würde man einfach beim Umstieg auf 55nm wohl die Taktraten etwas erhöhen, dann sollte das auch reichen.
Ail meinte ja schon, dass da dieses Jahr noch was schnelleres kommt als die gtx280

Die gelbe Eule
2008-05-29, 23:38:03
Wenn diese GX2 aber wie bei ATi aufgebaut ist, wird es wahrscheinlich doch passen ;)

Gast
2008-05-29, 23:39:16
Wenn diese GX2 aber wie bei ATi aufgebaut ist, wird es wahrscheinlich doch passen ;)

Das sprengt die PCIE 2.0 Specs ...

Gast
2008-05-29, 23:41:52
Hat Nvidia also fertigungsprobleme?

Nicht das sich der Start der neuen Serie verspätet=?

Don Vito
2008-05-29, 23:42:49
Dann gäbe es wohl wieder ein Netzteil dazu...
Gab doch mal die 6800 SLI Karte von Asus mit 2 GPUs oder so, wo ein Netzteil dabei war und die Karte eigens versorgt hatte.

Die gelbe Eule
2008-05-29, 23:43:22
2x8Pin + 2.0 PCI-E würde wohl schon passen, gerade mit 55nm hätte man weniger Verlustleistung. Zwei gleiche Karten im SLi verbrauchen auch nicht das doppelte an Strom.

Gast
2008-05-29, 23:46:45
2x8Pin + 2.0 PCI-E würde wohl schon passen, gerade mit 55nm hätte man weniger Verlustleistung. Zwei gleiche Karten im SLi verbrauchen auch nicht das doppelte an Strom.

Das mit weniger Verlustleistung durch 55nm wird sich erst noch zeigen. Es geht in erster Linie um Platzeinsparung auf dem Wafer.

Siehe z.B. ATI RV630 --> RV635 .. etwa gleiche Performance bei etwa gleicher Verlustleistung.

horn 12
2008-05-29, 23:53:58
So schnell zerplatzt die Seifenblase.:rolleyes::mad::mad:
Da könnte ATI NUN VIEL WIEDER GUT MACHEN BEI GUTER VERFÜGBARKEIT und Top Preisen, das einzige Manko sind die raren GDDR5 Speicherchips.
Haben somit 3 Monate Vorsprung und dann auch die High End Krone über, wenn alles glatt läuft 1 bis 2 Monate zumindest.:cool:

Da wird wohl die HD4870 dennoch schneller als viele angenommen, und vor allem weitaus attraktiver werden, selbst für hartnäckige NV Anhänger.

PS: Wie war das mal mit der Meldung:
NV könnte zu jeder Zeit ATI problemlos angreifen, für jede ATI Lösung wäre schon was passendes in der Schublade parat....:eek::eek:
ABER: ---> Dies sieht mir aber ganz und gar nicht daraus aus!
Dies kann auch mal Nvidia treffen und geschieht NV Recht mit iher einfach zu extremen Hochnässigkeit.
Ebenso das Statement dass man zukünfig wohl wieder auf X² und Dual GPU Karten setzt, so wie der Konkurrent....
War da nicht mal eine Aussage: Man will bei Singlekarten bleiben nicht beim Konkurrenzschrott...

Das wird der 2-te R600 werden, (Zwar gar etwas bessere Leistung im Verhältnis) wie ich es schon mal prophezeit hatte, mir aber keiner glauben wollte.
So einen gewaltigen Knaller wie den G80 hat nicht mal Nvidia nur so aus dem Nichts (wie sie immer behaupteten) aus dem Ärmel zu schütteln!

Denkt mal darüber nach!

Chris2CB
2008-05-30, 00:01:31
Nach der Meldung bekommt man irgendwie den Verdacht das TSMC wohl doch schon dabei ist die Preise zu erhöhen, selbst wenn jetzt Nvidia wirklich 125$ Pro Chip zahlen muss, ist das ja kein Grund, die anderen waren sicher nicht um welten billiger, wohl aber in Zukunft wird das zu weit nach oben gehen.

Gast
2008-05-30, 00:05:56
So schnell zerplatzt die Seifenblase.:rolleyes::mad::mad:
Da könnte ATI NUN VIEL WIEDER GUT MACHEN BEI GUTER VERFÜGBARKEIT und Top Preisen, das einzige Manko sind die raren GDDR5 Speicherchips.
Haben somit 3 Monate Vorsprung und dann auch die High End Krone über, wenn alles glatt läuft 1 bis 2 Monate zumindest.:cool:

Da wird wohl die HD4870 dennoch schneller als viele angenommen, und vor allem weitaus attraktiver werden, selbst für hartnäckige NV Anhänger.

PS: Wie war das mal mit der Meldung:
NV könnte zu jeder Zeit ATI problemlos angreifen, für jede ATI Lösung wäre schon was passendes in der Schublade parat....:eek::eek:
ABER: ---> Dies sieht mir aber ganz und gar nicht daraus aus!
Dies kann auch mal Nvidia treffen und geschieht NV Recht mit iher einfach zu extremen Hochnässigkeit.
Ebenso das Statement dass man zukünfig wohl wieder auf X² und Dual GPU Karten setzt, so wie der Konkurrent....
War da nicht mal eine Aussage: Man will bei Singlekarten bleiben nicht beim Konkurrenzschrott...

Das wird der 2-te R600 werden, (Zwar gar etwas bessere Leistung im Verhältnis) wie ich es schon mal prophezeit hatte, mir aber keiner glauben wollte.
So einen gewaltigen Knaller wie den G80 hat nicht mal Nvidia nur so aus dem Nichts (wie sie immer behaupteten) aus dem Ärmel zu schütteln!

Denkt mal darüber nach!

Du Tagträumer hast ja grad nich gefehlt.. Wir sprechen uns in knapp 3 Wochen nochmal :)

Btw was mir grad einfällt: selbst wenn die 4870 etwas schneller als die 9800GTX sein sollte kann NV doch die Preise senken und den Launch bzw. die Zeit danach erstmal die Preise versalzen bis ne entsprechende Alternative (G92b?) da ist..

Chris2CB
2008-05-30, 00:13:01
Du Tagträumer hast ja grad nich gefehlt.. Wir sprechen uns in knapp 3 Wochen nochmal :)

Btw was mir grad einfällt: selbst wenn die 4870 etwas schneller als die 9800GTX sein sollte kann NV doch die Preise senken und den Launch bzw. die Zeit danach erstmal die Preise versalzen bis ne entsprechende Alternative (G92b?) da ist..


Bei den aktuellen Konsolen umsetzungen( das werden auch immer mehr) sind die 3870 nicht weit von einer 9800GTX entfernt, da wird dann eine 4870 schon ein gutes Stück schneller sein.

Snoopy69
2008-05-30, 00:16:17
Die 9800GTX ist doch eine Gurke...
@ 1920x1200 + AA/AF zieht eine 8800GTX die 9800er ab. Aber auch nur weil die "Cleveren" von NV am Ram sparen wollten. Das spiegelt sich auch an den Preisen wieder.

Wäre sie top, wäre sie auch nicht so billig zu haben.


Ich hoffe, dass NV mal so richtig den Ar...aufgerissen bekommt. Hätten die eine ernsthafte Konkurenz, würden sie uns nicht alles mit irgendwelchen besch... Kompromissen hinlegen. (zb zu wenig Ram, nur DDR3, kein Stromsparfeature). In der Hinsicht ist ATI viel weiter. Nur eben nicht bei Perf.

mapel110
2008-05-30, 00:21:56
Warum alle immer auf der Speichermenge rumreiten... Der G92 hat auch weniger Bandbreite und das deutlich.

Hvoralek
2008-05-30, 00:24:08
Bei den aktuellen Konsolen umsetzungen( das werden auch immer mehr) sind die 3870 nicht weit von einer 9800GTX entfernt, da wird dann eine 4870 schon ein gutes Stück schneller sein.Du meinst wohl UE3- Spiele? In anderen technisch moderneren Konsolenumsetzungen wie CoD 4 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/8/#abschnitt_call_of_duty_4) oder Lost Planet (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/20/#abschnitt_lost_planet) sieht das anders aus. Und in der Leistungsklasse sollten UE3- Spiele selbst in hohen Auflösungen kein Problem sein.

Gast
2008-05-30, 00:24:35
die reicht dicke, der VRAM ist zu wenig.

Snoopy69
2008-05-30, 00:25:20
@ mapel110

Weil eben die Speichemenge ab einer gewissen Auflösung die Leistung limitert, da ständig Texturen auf den viel langsameren Desktop-Ram geswapt werden müssen (bei gleichzeitig noch langsamerer Anbindung). Tests gibts ja genügend darüber...

Wenn man natürlich nur @ 1280x1024 oder 1680x1050 spielt reicht der Vram meist noch aus. Dann ist die 9800GTX auch schneller. Bei allem darüber hinaus loost sie ab. Sie will ja noch, kann aber wegen zu wenig Vram nicht mehr.

Ich hab bei mir nicht selten mehr als 700MB Verbrauch beim Vram in Rivatuner gesehen. Also gut 200MB zuviel für die "kleine" 9800GTX

Gast
2008-05-30, 00:26:46
Du meinst wohl UE3- Spiele? In anderen technisch moderneren Konsolenumsetzungen wie CoD 4 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/8/#abschnitt_call_of_duty_4) oder Lost Planet (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/20/#abschnitt_lost_planet) sieht das anders aus. Und in der Leistungsklasse sollten UE3- Spiele selbst in hohen Auflösungen kein Problem sein.


also mal im ernst, ich frag mich was CB da immer macht ich zocke CoD4 den ganezn Tag in 1920x1200 4xAA 16xAF und hab noch NIE weniger als 45 FPS gesehen, im MP mit selben Settings stehen die FPS auf 92 ode rmal 80 wenns richtig kracht.

Coda
2008-05-30, 00:27:09
GT200 - der "heilige" Chip? :D

http://img169.imageshack.us/img169/6605/gt200cjzo7pm6.jpg
Ich frag mich was die ROPs sind. Die ALU/TMU-Cluster zu indentifizieren ist ja kein Problem, aber es müssten 32 gleiche ROPs verbaut sein irgendwo.

mapel110
2008-05-30, 00:27:22
die reicht dicke, der VRAM ist zu wenig.
omg, dann müsste die 1024 MB-Version sich ja stark absetzen können und das kann sie nur sehr selten, deutlich seltener als es sonst einen Abstand zwischen 8800 GTS 512 und 8800 GTX gibt...

Odal
2008-05-30, 00:30:30
Die 9800GTX ist doch eine Gurke...
@ 1920x1200 + AA/AF zieht eine 8800GTX die 9800er ab. Aber auch nur weil die "Cleveren" von NV am Ram sparen wollten. Das spiegelt sich auch an den Preisen wieder.

Wäre sie top, wäre sie auch nicht so billig zu haben.


Ich hoffe, dass NV mal so richtig den Ar...aufgerissen bekommt. Hätten die eine ernsthafte Konkurenz, würden sie uns nicht alles mit irgendwelchen besch... Kompromissen hinlegen. (zb zu wenig Ram, nur DDR3, kein Stromsparfeature). In der Hinsicht ist ATI viel weiter. Nur eben nicht bei Perf.

naja die produktionskosten sind halt deutlich weniger....kleineres DIE einfacheres PCB evtl. billigerer Kühler etc.

und in "normalen" auflösungen liegt die 98GTX sogar leicht for der 88GTX (nicht soviel das die namensgebung einleuchtend wäre aber immerhin)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/22/#abschnitt_performancerating_qualitaet

in ausnahmeauflösungen und bestimmten situationen kann sich das blatt allerdings manchmal wenden

bzgl. GT200
war klar das NVidia in Zukunft auf performancechips und multigpu lösungen umschwenkt....
solche monsterchips + pcb wird halt auf dauer viel zu teuer...und ist ja nicht ohne grund bei cpus auch zu multicore lösungen übergegangen....
jeder zu entwickelnde chip weniger spart mächtig finanzen ein....
die nachteile die beim kunden haften bleiben stehn natürlich wieder auf nem anderen blatt....

aber die dicke kohle macht man auch nicht im highend bereich...eben weil der absatz fehlt...und wenn jetzt noch die mega hohen produktionskosten viel vom verkaufspreis auffressen macht man noch weniger gewinn....ich glaube seit der x800pro/x1950pro usw. sieht man das man durchaus mit ner lösung im performance segment absätze erziehlen kann wenn diese ideal darauf ausgelegt sind...

nvidia hat den marketing und namensvorteil wenn die mal nicht einen riesen G92 chip zu dumpingpreisen hätten verschleudern müssen..sondern was extra aufs performance segment ausgelegtes hätten die soviel kasse machen können...

aber das wurde ja schon erwähnt denen ist der RV670 in die quere gekommen....

Gast
2008-05-30, 00:31:19
die müsste auch ma lernen die MIn FPS zu messen und nicht ihr krassen MAX FPS die eh keien Schwanz interessiert:rolleyes:

Snoopy69
2008-05-30, 00:40:41
in ausnahmeauflösungen und bestimmten situationen kann sich das blatt allerdings manchmal wenden


Was heisst Ausnahmeauflösung? Der Trend geht langsam aber sehr sicher in Richtung 24" bzw. 1920x1200. Schon wegen Full-HD-Filmen. Und niedriger als die native Auflösung von 1920x1200 spiele ich nur bei Crysis, da dies absolut anspruchsvoll ist. Die Masse hat natürlich 22" und weniger, aber 24" ist keine Ausnahme mehr. Das war vor 2 jahren mal... :wink:

Ich hätte mit der 9800GTX jedenfalls nichts gut gemacht.


die müsste auch ma lernen die MIn FPS zu messen und nicht ihr krassen MAX FPS die eh keien Schwanz interessiert:rolleyes:
Ist denen wohl zuviel Arbeit...
PCGH macht das, aber leider kaum Auswahl an Spielen (im Heft)

Coda
2008-05-30, 00:51:47
die müsste auch ma lernen die MIn FPS zu messen und nicht ihr krassen MAX FPS die eh keien Schwanz interessiert:rolleyes:
Min FPS sind ein sehr schwieriger Fall. Ein Frame der stark nach unten abweicht und das ganze Ergebnis ist zur sau obwohl die Karte beispielsweise sonst überall die konstanteren Frameraten liefert.

Odal
2008-05-30, 01:03:42
Was heisst Ausnahmeauflösung? Der Trend geht langsam aber sehr sicher in Richtung 24" bzw. 1920x1200. Schon wegen Full-HD-Filmen. Und niedriger als die native Auflösung von 1920x1200 spiele ich nur bei Crysis, da dies absolut anspruchsvoll ist. Die Masse hat natürlich 22" und weniger, aber 24" ist keine Ausnahme mehr. Das war vor 2 jahren mal... :wink:

Ich hätte mit der 9800GTX jedenfalls nichts gut gemacht.



die masse hat eher 17-19 zoll (bzw. die widescreen variationen) und nicht selten noch ne röhre stehen...
ausserdem schert sich die masse nicht um TFT skalierung....oder kauft gar Grafikkarten für 500€

die 9800GTX ist derzeit dort wo "normale" Leute noch drüber nachdenken einzusteigen....

Snoopy69
2008-05-30, 01:11:02
Trotzdem finde ich es sinnfrei da nur 512MB zuverbauen, obwohl die Karte mehr könnte.
Oder wie teuer wären zusätzliche 256MB DDR3 gewesen? :wink:

9800LE wäre vielleicht passender gewesen :ulol:

tombman
2008-05-30, 01:16:44
Nvidia GT200 sucessor tapes out
Playing the numbers game (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

Wobei man hier wieder Infos von Hasstiraden gegen NV trennen muss... :D
meine güter, wie kann man eigentlich SOOO ein ATi-fanboy wie charlie von inq sein. das geht echt gar nicht :rolleyes:
Jo, echt unpackbar wie sich der Typ zum Vollpfosten macht. Und das auf ner Seite wie INQ. Den Witz von Fudo wird er eh nie erreichen, da kann er noch so Rumpelstilzchen-like rumhümpfen...

Gast
2008-05-30, 01:18:13
stimmt, aber nicht "GTX" für so ne Schrottkarte (hab auch 8800 GTX SLI).
Die Kiddis können sie damit beeindrucken aber die Plan davon haben wohl eher nicht, ich hatte mir ne Gx2 gekauft weil ich mal Quad SLI haben wollte nach einem Tag fragt ich mich" wollen die mich verarschen?".

Eingepackt>> zurück damit.

Snoopy69
2008-05-30, 01:18:49
Min FPS sind ein sehr schwieriger Fall. Ein Frame der stark nach unten abweicht und das ganze Ergebnis ist zur sau obwohl die Karte beispielsweise sonst überall die konstanteren Frameraten liefert.
Trotzdem gibt bei unterschiedlich starken Karten unterschiedliche Min-fps.

Eine starke Karte hat mehr Min-fps als eine Schwache. Dazu sollte man natürlich nicht mit einer Auflösung für Mädchen herummachen.

stimmt, aber nicht "GTX" für so ne Schrottkarte (hab auch 8800 GTX SLI).
Die Kiddis können sie damit beeindrucken aber die Plan davon haben wohl eher nicht, ich hatte mir ne Gx2 gekauft weil ich mal Quad SLI haben wollte nach einem Tag fragt ich mich" wollen die mich verarschen?".

Eingepackt>> zurück damit.
:ulol:
Was war denn? Noch mehr Mikroruckler. Nicht Crysis-gerecht?

Ich war auch nahe dran, aber solange ATI/AMD und NV keinen Finger rührt verdienen die keinen Cent für SLI an mir. Selbst dran Schuld, sag ich nur...

Gast
2008-05-30, 01:26:12
ach die Mikroruckler hab ich eh nie gespührt ausser in Crybug, wenn man über 30 FPS bekomtm man davon nix mit.
DIe GX2 geht unter gegen die 2x GTXn, die MAX FPS sind zwar schön aber flüssig spielen in 1920x1200 4xAA 16xAF kannste knicken.

ich wollte TDU zocken mit 8xS, ich hab gedacht ich hab da ne 8600GT drin :ugly:

Coda
2008-05-30, 01:27:57
Eine starke Karte hat mehr Min-fps als eine Schwache.
Nur wenn in den Fällen ein CPU-Limit vorliegt. Dagegen kann die GPU aber rein gar nichts machen.

tombman
2008-05-30, 01:27:57
Wenn ATI beim R700 das MR Problem löst, schreibe ich eine Woche "ATI=GOTT" in meine Sig, kein Witz ;)

Trotzdem, das bessere Know-How hat Nvidia, weil die Königsklasse nun mal ein single Megachip ist, da gibts nix dran zu deuteln. Runtergehen und was kleines, stromsparendes kann man immer bauen, aber einen fetten Megachip bauen ist eben die Kunst.

Odal
2008-05-30, 01:30:04
Trotzdem finde ich es sinnfrei da nur 512MB zuverbauen, obwohl die Karte mehr könnte.
Oder wie teuer wären zusätzliche 256MB DDR3 gewesen? :wink:

9800LE wäre vielleicht passender gewesen :ulol:

weil es nicht bei +256MB bleibt? dazu müssen sie das speicherinterface verbreitern was den chip grösser und teurer macht und vorallem auch das pcb....

der G92 schlägt sich mit seinem speicherinterface recht gut....sind ja auch ein paar bandbreitenschonende verbesserungen drin

und das der G92 soviel mehr könnte mit mehr als 512MB speicher halte ich für ein Gerücht denn diverse 1GB variationen zeigen eigentlich kaum mehrperformance (von ausnahmen bzw. ausnahmeauflösungen mal abgesehen)

die 9800gtx halte ich von der namensgebung allerdings auch für nen witz...

Snoopy69
2008-05-30, 01:31:26
Nur wenn in den Fällen ein CPU-Limit vorliegt. Dagegen kann die GPU aber rein gar nichts machen.
In 1920x1200 + AA/AF wird eine starke CPU sicher nicht limitieren.

@ Odal

Ja denkt NV nur wieder an die Masse? Für was Gescheites würde ich auch 1000€ pro Karte hinlegen. Stattdessen wird man aber nur verarscht. Aber solange es kaufsüchtige Freaks gibt, kann man das Verhalten der Hersteller nicht ändern. Der Kunde hat die Macht. Leider nicht die HW-süchtigen Kunden.

Aquaschaf
2008-05-30, 01:34:05
Runtergehen und was kleines, stromsparendes kann man immer bauen, aber einen fetten Megachip bauen ist eben die Kunst.

Wenn "man" ATI oder NVidia ist, sonst auch nicht.

Gast
2008-05-30, 01:37:56
Runtergehen und was kleines, stromsparendes kann man immer bauen, aber einen fetten Megachip bauen ist eben die Kunst.

ich find das ist keien Kunst, den G200 kaufen eh kaum welche ausser euche freaks (Blaire, DonVito usw.)

Highend will keiner mehr, gut wollen schon aber zu welchem Preis.

Snoopy69
2008-05-30, 01:46:56
ich find das ist keien Kunst, den G200 kaufen eh kaum welche ausser euche freaks (Blaire, DonVito usw.)

Highend will keiner mehr, gut wollen schon aber zu welchem Preis.
Wieso soll das keiner mehr wollen? Du schreibt ja "Highend", aber wirklich Highend ist das nicht. Statt DDR4 wird billiges DDR3 verbaut. Stromsparfeature? Fehlanzeige!!! Das sind alles Kosten, die NV einspart, um die Gewinnspanne schön hoch zu halten. Mich kotzt das ziemlich an. Für 1000€ sollte doch was Gescheites herzustellen sein, oder nicht?

Unter Highend verstehe ich alles vom Besten + jedes noch so kleine Feature.

Ich finde ATI/AMD hätte mal wieder die Krone verdient. Und dann aber min. 2-3Jahre, damit es NV mal schon richtig schön dreckig geht. Vielleicht wacht ja dann mal jmd bei denen auf...

Aquaschaf
2008-05-30, 01:55:59
Ich finde ATI/AMD hätte mal wieder die Krone verdient.

Wieso? NVidia hat mit G80 insgesamt die rundere Architektur abgeliefert und kann nun die Früchte dieser Investition ernten. ATI konnte nach R300 ja auch eine ganze Weile ziemlich bequem mit dem Design leben. Ich vermute stark dass sich an den Verhältnissen bis bei beiden der nächste Architekturwechsel ansteht nicht so viel ändern wird.

Gast
2008-05-30, 01:58:52
Wieso soll das keiner mehr wollen? Du schreibt ja "Highend", aber wirklich Highend ist das nicht. Statt DDR4 wird billiges DDR3 verbaut. Stromsparfeature? Fehlanzeige!!! Das sind alles Kosten, die NV einspart, um die Gewinnspanne schön hoch zu halten. Mich kotzt das ziemlich an. Für 1000€ sollte doch was Gescheites herzustellen sein, oder nicht?

Unter Highend verstehe ich alles vom Besten + jedes noch so kleine Feature.

Ich finde ATI/AMD hätte mal wieder die Krone verdient. Und dann aber min. 2-3Jahre, damit es NV mal schon richtig schön dreckig geht. Vielleicht wacht ja dann mal jmd bei denen auf...


Dito.
ich wollts nicht gleich so krass schreiben, wollte kein FB krieg auslösen hier :ugly:

Highend ist der Gt200, aber nur in den FPS.
in allen andern sachen ist ATI Meilen voraus da hast du Recht.

dargo
2008-05-30, 05:54:25
Passend zu der The-Inquirer-Meldung nun auch die erste deutsche Übersetzung:

http://www.hardware-infos.com/news.php?news=2107
Wie war das nochmal mit 10000$ je Wafer? Hier lese ich nur noch was von 5000$.

tombman
2008-05-30, 07:00:57
Highend ist der Gt200, aber nur in den FPS.
in allen andern sachen ist ATI Meilen voraus da hast du Recht.
?? Wo bitte denn vorraus, außer in der Fertigung?

Schlammsau
2008-05-30, 07:32:25
?? Wo bitte denn vorraus, außer in der Fertigung?

Stromsparmechanismen und DX10.1 (auch wenns momentan noch nicht gebarucht wird)!
Das sind alles Faktoren, die die Radeon länger interessant machen, als die Geforces!
Auch wenns dir sch**** egal ist, ob die Karte nen grünen Punkt drauf hat oder nen Techlevel höher ist. Im Grunde genommen hat der GTX280 bzw. 260, ausser der Leistung, doch nichts bahnbrechendes zu bieten!?
ich weiss, dass reicht dir. Aber zukunftssicher ist was anderes!
Über kurz oder lang werden "Ressourcenvernichter" vom Markt verschwinden.....den Trend sieht man schon bei den Autos, weniger Verbrauch ist oft mehr!
Und hier geht es um die Verslustleistung im Idle, nicht unter Last! nV hats allen Anschein nach wieder nicht auf die Reihe bekommen.....sonst würden sie es an die grosse Glocke hängen!

Typisch Ami halt Klotzen, nicht kleckern! ;)

Chris2CB
2008-05-30, 07:33:04
Wie war das nochmal mit 10000$ je Wafer? Hier lese ich nur noch was von 5000$.

Alles nur Hausnummern:frown:


Den Preis kann man sich ausrechnen wenn man die billigste OEM Karte nimmt, den Preis den Dell für 1000 - 5000stk. bezahlt und die restlichen kosten abzieht, also PCB, Shipping etc.

5000$ ist immer noch zu hoch für Massenfertigung, aber halt als Anhaltspunkt ok.

Die 125$ Pro Chip kann man eigentlich auch so stehen lassen als Anhaltspunkt, nur realistisch ist der keinesweges. Eine Karte würde dann in der Herstllung ca. 250$ kosten(Material), was eher für einen VK von 1000$ und mehr spricht da ja sonst nichts bei raus kommt und man Stellt keine Produkte her die völlig unrentabel sind, auch wenns high end ist.


Im Metallberrech liegen zwischen Fertigungskosten und VK welten.

tombman
2008-05-30, 07:47:24
Stromsparmechanismen und DX10.1 (auch wenns momentan noch nicht gebarucht wird)!
Das sind alles Faktoren, die die Radeon länger interessant machen, als die Geforces!
Auch wenns dir sch**** egal ist, ob die Karte nen grünen Punkt drauf hat oder nen Techlevel höher ist. Im Grunde genommen hat der GTX280 bzw. 260, ausser der Leistung, doch nichts bahnbrechendes zu bieten!?
ich weiss, dass reicht dir. Aber zukunftssicher ist was anderes!
Über kurz oder lang werden "Ressourcenvernichter" vom Markt verschwinden.....den Trend sieht man schon bei den Autos, weniger Verbrauch ist oft mehr!
Und hier geht es um die Verslustleistung im Idle, nicht unter Last! nV hats allen Anschein nach wieder nicht auf die Reihe bekommen.....sonst würden sie es an die grosse Glocke hängen!

Typisch Ami halt Klotzen, nicht kleckern! ;)

Hier gehts um ENTHUSIAST LEVEL HARDWARE. Da kommt Stromsparen unter "ferner liefen..."
.1 ist 2008 egal...

Oder schreist du beim Veyron auch: "Der schluckt zuviel Benzin bei 400km/h!" ;D

MuLuNGuS
2008-05-30, 07:57:28
Aber zukunftssicher ist was anderes!



eine lahme performance ist auch nicht gerade zukunftssicher,

man muß einfach flexibel (sein)bleiben wenn die 4870 eine gute alternative ist kommt halt mal wieder die rote-plage in den rechner ;)

Schlammsau
2008-05-30, 07:57:39
Hier gehts um ENTHUSIAST LEVEL HARDWARE. Da kommt Stromsparen unter "ferner liefen..."
.1 ist 2008 egal...

Oder schreist du beim Veyron auch: "Der schluckt zuviel Benzin bei 400km/h!" ;D

2008 vielleicht.....aber was ist nächstes Jahr? Willst du dir als Enthusiast, gleich die nächste High End Graka für viel zu viel Geld holen? Die Karte ist in absehbarer Zeit "veraltet"! Nicht von der Leistung her, sondern weil sie einfach Features nicht hat!
Ähm ja....auch beim Veyron, 500ML, etc. schreie ich! Weils heutztage nicht mehr tragbar ist! Schon klar, Leistung braucht Energie!....aber nicht zu viel!
Und wenn ein Rechner im Idle 300 Watt verbraucht....ist das Jenseits von gut und böse!
Hier gehts nur ums Prinzip. Ich weiss am Ende des Jahres macht es vielleicht 100€ aus, aber man muss weiter denken!
Deswegen sind ATi Karten momentan zukunftssicherer!

Daredevil
2008-05-30, 08:01:25
Nein Nein... bei dir gehts um Enthusiastenzeug..
Würde es dich stören wenn ne GT200 im idle 15 Watt verbraucht ?
Würdest du es hier groß rumschreien wenn dem wirklich so wäre? ( OMG Ati OWNED! Halbsoschnell aber verbraucht mehr!!! )
Sieeehste, es hat also doch Relevanz :)

Es geht hier ja nicht um den Laststromverbrauch, sondern das dein Veyron beim nichtgebrauchen immernoch Benzin schluckt ;)

reunion@work
2008-05-30, 08:04:28
Wenn ATI beim R700 das MR Problem löst, schreibe ich eine Woche "ATI=GOTT" in meine Sig, kein Witz ;)

Trotzdem, das bessere Know-How hat Nvidia, weil die Königsklasse nun mal ein single Megachip ist, da gibts nix dran zu deuteln. Runtergehen und was kleines, stromsparendes kann man immer bauen, aber einen fetten Megachip bauen ist eben die Kunst.

Sie werden das Problem lösen, aber erst mit R8xx. R7xx ist "just Crossfire". Auch nV wird mit hoher Wahrscheinlichkeit ein ähnliches Konzept verfolgen IMHO.

MartinRiggs
2008-05-30, 08:11:53
Ich bin mal auf die Messwerte gespannt, ich glaube es dürfte so gut wie unmöglich sein die GTX280/GTX260 wirklich leise zu kühlen bei den TDP zahlen und nem Kühler der dem einer "alten" 8800GTX ähnelt.
Wenn die TDP-Zahlen stimmen und der Stromsparmechanismus fehlt dann dürfte die GTX280 schon im Idle den halben rechner braten, das ist mal wirklich geile Enthusiasten-Hardware:rolleyes:

Nicht das mich jemand falsch versteht, ich hab echt mal wieder Bock auf High-End und die 8800GTX war ne geniale Karte, aber die war auch schon nahe am Wasser gebaut und hat grade noch den Spagat zwischen Leistung/Lautstärke geschafft, bei der GTX280 bin ich wirklich sehr skeptisch, aber vielleicht gibt es ja nen Accelero Super Exxxxtreme GTX280 mit 3 120ern:biggrin::biggrin:

reunion@work
2008-05-30, 08:12:23
Nicht direkt on Topic, aber im Zusammenhang wohl auch nicht ganz unintressant:

Nvidia: Current Flagship “G92” Graphics Processor to Live for Another 6-12 Month (http://www.xbitlabs.com/news/video/display/20080528160257_Nvidia_Projects_Long_Lifespan_for_Current_Generation_Flagship_Gra phics_Chip.html)

Damit dürfte wohl klar sein das nV G92 in der 2XX-Generation weiter verwenden wird. Da sich am Tech-Level wohl auch nichts getan hat aber durchaus nachvollziehbar.

tombman
2008-05-30, 08:12:45
2008 vielleicht.....aber was ist nächstes Jahr? Willst du dir als Enthusiast, gleich die nächste High End Graka für viel zu viel Geld holen?

jawohl, das habe ich, und das werde ich ;D

Die Karte ist in absehbarer Zeit "veraltet"! Nicht von der Leistung her, sondern weil sie einfach Features nicht hat!
Wenn die veraltet ist, ist sie schon lange nicht mehr bei mir im Sys, sondern bei einem ebay 2. oder 3. Käufer ;D

Ähm ja....auch beim Veyron, 500ML, etc. schreie ich! Weils heutztage nicht mehr tragbar ist! Schon klar, Leistung braucht Energie!....aber nicht zu viel!
Definiere "zu viel". fps/Watt? ;)

Und wenn ein Rechner im Idle 300 Watt verbraucht....ist das Jenseits von gut und böse!
Hier gehts nur ums Prinzip. Ich weiss am Ende des Jahres macht es vielleicht 100€ aus, aber man muss weiter denken!
100€ macht das NIE aus im Jahr. Du mußt die DIFFERENZ zu ATI rechnen, und dann wielange der PC tatsächlich eingeschaltet bleibt.



Deswegen sind ATi Karten momentan zukunftssicherer!
Wenig FPS ist NIEMALS zukunftssicher. Weil was nützen die stromsparende 5fps? Gar nix, weilst dann erst wieder neukaufen mußt...

tombman
2008-05-30, 08:14:15
Ich bin mal auf die Messwerte gespannt, ich glaube es dürfte so gut wie unmöglich sein die GTX280/GTX260 wirklich leise zu kühlen bei den TDP zahlen und nem Kühler der dem einer "alten" 8800GTX ähnelt.
Wenn die TDP-Zahlen stimmen und der Stromsparmechanismus fehlt dann dürfte die GTX280 schon im Idle den halben rechner braten, das ist mal wirklich geile Enthusiasten-Hardware:rolleyes:

Nicht das mich jemand falsch versteht, ich hab echt mal wieder Bock auf High-End und die 8800GTX war ne geniale Karte, aber die war auch schon nahe am Wasser gebaut und hat grade noch den Spagat zwischen Leistung/Lautstärke geschafft, bei der GTX280 bin ich wirklich sehr skeptisch, aber vielleicht gibt es ja nen Accelero Super Exxxxtreme GTX280 mit 3 120ern:biggrin::biggrin:
Da kommt FIX Wakü rein, mit Luft kühle ich GTX 280 sicher nur in der Anfangsphase ;)

mapel110
2008-05-30, 08:15:38
Deswegen sind ATi Karten momentan zukunftssicherer!
Zukunftsicher mit deutlich weniger Performance als High End von der Konkurrenz? Also das sehe ich anders.

Schlammsau
2008-05-30, 08:18:24
Zukunftsicher mit deutlich weniger Performance als High End von der Konkurrenz? Also das sehe ich anders.
Nein, Zukunftssicherer mit besserem AA durch DX10.1 (auch wenns erst mit DX11 zum tragen kommt) und besserem Stromverbrauch im Idle!!

tombman
2008-05-30, 08:19:23
Worst-Case Rechnung: 100 Watt weniger als Nvidia @idle, PC 12 Stunden pro Tag an, 15 Cent/KWh.

Sind 65€ im JAHR....(100*12*365/1000*0.15)

Uuuh, ich habe ja so Angst ;)

MartinRiggs
2008-05-30, 08:20:39
Da kommt FIX Wakü rein, mit Luft kühle ich GTX 280 sicher nur in der Anfangsphase ;)

Du darfst nicht immer dich mit allen anderen Vergleichen, ne Wakü kommt mir nicht in den Rechner, darf man nicht auch "normaler" beknackter sein der sich ne High-End-Karte kauft und sie trotzdem halbwegs gescheit gekühlt bekommt?
Aber ich hoffe da mal ganz auf Arctic Cooling:) ich hab ja genug PCI-Slots frei für kranke Kühlkonstruktionen.:ugly:

Botcruscher
2008-05-30, 08:21:32
Woohoo eine Karte die nach 2-3 Monaten gleich in die Vitrine zur V6000 wandert. Zumindest die Sammler haben ihre Freude.

tombman
2008-05-30, 08:23:30
Woohoo eine Karte die nach 2-3 Monaten gleich in die Vitrine zur V6000 wandert. Zumindest die Sammler haben ihre Freude.
So wie G80 GTX in die Vitrine gewandert ist? Eh "nur" 1.5 Jahre absolutes HighEnd ;)

reunion@work
2008-05-30, 08:25:21
So wie G80 GTX in die Vitrine gewandert ist? Eh "nur" 1.5 Jahre absolutes HighEnd ;)

Noch dieses Jahr kommt ein 55nm Refresh.

Botcruscher
2008-05-30, 08:25:50
Von G80 gabs aber viel zu viele. Hier wird es anders.

Schlammsau
2008-05-30, 08:28:36
Worst-Case Rechnung: 100 Watt weniger als Nvidia @idle, PC 12 Stunden pro Tag an, 15 Cent/KWh.

Sind 65€ im JAHR....(100*12*365/1000*0.15)

Uuuh, ich habe ja so Angst ;)

15 Cent/KWh wo lebst den du? ich zahle schon 19Cent/KWh und billiger wird der Strom auch nicht mehr! ...und dann komme ich bei deiner Rechnung schon auf fast 85€ im Jahr! ;)
Aber wie gesagt, mal einen Schritt weiter denken! Aber das ist bei dir Sinnlos!
Erinnert mich stark an ein AVM Firmwareupdate für meinen Router, wo nachträglich ein Stromsparmechanismuss eingefügt wurde. Im Endeffekt wurden nur 2 Watt eingespart, also nicht der Rede wert, aber die Masse machts! Wenn 100'000 Leute nur 2 Watt weniger die Stunde verbrauchen *klick*, ist uns schon geholfen. Eigentlich hätte ich dich für so schlau gehalten, dass das auch bei dir ankommt!

AnarchX
2008-05-30, 09:08:15
N
Damit dürfte wohl klar sein das nV G92 in der 2XX-Generation weiter verwenden wird. Da sich am Tech-Level wohl auch nichts getan hat aber durchaus nachvollziehbar.
Das bezweifele ich doch sehr, eher wird GeForce 9800/9900 noch parallel zur GTX 200 Serie verkauft werden, wie es damals NV auch mit NV42 bei G70 tat.

Gast
2008-05-30, 09:10:01
Nein, Zukunftssicherer mit besserem AA durch DX10.1 (auch wenns erst mit DX11 zum tragen kommt) und besserem Stromverbrauch im Idle!!


Ohne Performance keine Zukunftssicherheit! Selbst die 1 Jahr ältere 8800GTX wird länger leben als eine 3870!

AnarchX
2008-05-30, 09:15:11
Laut Asuka, Mod im PCinlife, der schon gezeigt hat, dass er etwas mehr über GT200 weiß (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6537073&postcount=1477), soll die GTX 280 wohl 2-mal so schnell wie eine 8800 Ultra sein (http://we.pcinlife.com/thread-941299-1-1.html).

Und auch noch ein paar Details von CJ:
The documents talk about "Improved Dual Issue"... so make of it what you will.... Also mentioned are "2x Registers" and "3x ROP blending performance".

Eben wie schon oft gesagt, mehr als man auf dem Papierspecs sieht.

Odal
2008-05-30, 09:24:17
Das bezweifele ich doch sehr, eher wird GeForce 9800/9900 noch parallel zur GTX 200 Serie verkauft werden, wie es damals NV auch mit NV42 bei G70 tat.


das mag zwar sein aber verfügbarkeit und preis des GT200 werden den G92b wohl erstmal noch zum erwerbbaren "Highend" machen...vielleicht gits ja ne 9800Ultra auf G92b basis in 55nm mit deutlich höherem takt

Schlammsau
2008-05-30, 09:36:47
Ohne Performance keine Zukunftssicherheit! Selbst die 1 Jahr ältere 8800GTX wird länger leben als eine 3870!
Darauf würde ich nicht wetten, der einzige Vorteil der 8800GTX ist die Geschwindigkeit! Sie ist "nur" 1,5x schneller als eine 3870!
Aber reden wir von Vergleichbaren Modelen.....wie der 9600GT und der 8800GT bzw. 9800GT! Durch das fehlende .1 wird die Karte schneller Featuremässig veraltet sein als die 3870 und sie wird von vielen wieder abgestossen! In einem Jahr, oder lassen wir es 1,5 Jahre sein, werden mehr Leute eine HD3xxx haben als eine Vergleichbare von nVidia. Zum grössten Teil wegen DX10.1 (was ja dann auch in DX11 implementiert ist) und weil die ATi Karten mit der Zeit immer schneller werden! Das liegt leider/zum Glück aber auch an der etwas "lahmarschigen" Treiberprogrammierung von ATi.

Adam D.
2008-05-30, 09:46:25
Darauf würde ich nicht wetten, der einzige Vorteil der 8800GTX ist die Geschwindigkeit! Sie ist "nur" 1,5x schneller als eine 3870!
Aber reden wir von Vergleichbaren Modelen.....wie der 9600GT und der 8800GT bzw. 9800GT! Durch das fehlende .1 wird die Karte schneller Featuremässig veraltet sein als die 3870 und sie wird von vielen wieder abgestossen! In einem Jahr, oder lassen wir es 1,5 Jahre sein, werden mehr Leute eine HD3xxx haben als eine Vergleichbare von nVidia. Zum grössten Teil wegen DX10.1 (was ja dann auch in DX11 implementiert ist) und weil die ATi Karten mit der Zeit immer schneller werden! Das liegt leider/zum Glück aber auch an der etwas "lahmarschigen" Treiberprogrammierung von ATi.
Die Nvidia-Karten sind jetzt schon "veraltet", nur wird sich D3D10.1 seeeeeeeeeehr schwer durchsetzen können und wenn D3D11 raus ist, kannst mit 'nem RV670 oder G92 eh nur noch müde lachen.

Hvoralek
2008-05-30, 10:24:25
Trotzdem finde ich es sinnfrei da nur 512MB zuverbauen, obwohl die Karte mehr könnte.
Oder wie teuer wären zusätzliche 256MB DDR3 gewesen? :wink:Man kann nur nicht einfach mal so vier Speicherchips mehr an das SI klatschen.

Sie werden das Problem lösen, aber erst mit R8xx. R7xx ist "just Crossfire".Das einzige, was wirklich absehbar gelöst wird, ist die VRAM- Redundanz. Ob man bei AFR bleibt oder auf ein anderes Verfahren umsteigt, ist noch nicht so klar.

Nein, Zukunftssicherer mit besserem AA durch DX10.1 (auch wenns erst mit DX11 zum tragen kommt) und besserem Stromverbrauch im Idle!!Und was nützt Dir eine 10.1- Karte in einem 11- Pfad?

Gast
2008-05-30, 10:34:36
Mal eine Frage an die Spezialisten: Das AA Problem bei DX10<->DX10.1 ist das Z-Subsampling. Ist das bei DX10 einfach vermurkst oder besteht war das auch schon in DX9 so?

Schlammsau
2008-05-30, 10:37:26
Und was nützt Dir eine 10.1- Karte in einem 11- Pfad?

DX11 unterstützt unfreiwillig auch gleichzeitig DX10.1! ;)

reunion@work
2008-05-30, 10:38:07
Das einzige, was wirklich absehbar gelöst wird, ist die VRAM- Redundanz. Ob man bei AFR bleibt oder auf ein anderes Verfahren umsteigt, ist noch nicht so klar.


Denk mal nach. Shared-VRAM schließt AFR aus.

Grestorn
2008-05-30, 10:38:30
DX11 unterstützt unfreiwillig auch gleichzeitig DX10.1! ;)

Wie kommst Du da drauf?

Du postuliert, dass ein DX11 Spiel auf einer Karte, die 10.1 kann, besser läuft als auf einer Karte, die nur 10.0 kann. Das ist aber nach meinem Kenntnisstand nicht so.

Hvoralek
2008-05-30, 10:45:47
DX11 unterstützt unfreiwillig auch gleichzeitig DX10.1! ;)Noch einmal: Was nützt es 10.1- Harware, wenn D3D11- Titel u.a. 10.1- Funktionen nutzen, sofern sie nicht auch einen 10.1- Pfad bieten?

Denk mal nach. Shared-VRAM schließt AFR aus.Warum das? Ich wüsste nicht, wieso es ein Problem geben sollte, im selben Speicher mehrere Backbuffer anzulegen.

AnarchX
2008-05-30, 10:47:00
Denk mal nach. Shared-VRAM schließt AFR aus.

Nicht unbedingt, man benötigt halt nur zwei getrennte Framebuffer, während die GPUs die Eingangsdaten ja sharen können und somit effektiv mehr Speicher zu Verfügung steht.

pest
2008-05-30, 10:49:09
Nvidia GT200 successor tapes out (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes)

reunion@work
2008-05-30, 10:49:58
Warum das? Ich wüsste nicht, wieso es ein Problem geben sollte, im selben Speicher mehrere Backbuffer anzulegen.

Wie willst du zwei Frames parallel berechnen, wenn du nur noch einen VRAM hast? Wenn du die Framebuffer im VRAM wieder teilst, dann braucht man sich gar nicht die Mühe machen und ihn zusammenlegen. Der Gewinn wäre nur minimal.

Hvoralek
2008-05-30, 10:52:02
Wie willst du zwei Frames parallel berechnen, wenn du nur noch einen VRAM hast? Wenn du die Framebuffer im VRAM wieder teilst, dann braucht man sich gar nicht die Mühe machen und ihn zusammenlegen. Der Gewinn wäre nur minimal.Der Framebuffer braucht nur einen geringen Teil des VRAMs, das meiste sind Texturen.

reunion@work
2008-05-30, 10:55:23
Der Framebuffer braucht nur einen geringen Teil des VRAMs, das meiste sind Texturen.

Die Texturen bleiben auch nicht gleich.

AnarchX
2008-05-30, 10:55:32
Wie willst du zwei Frames parallel berechnen, wenn du nur noch einen VRAM hast? Wenn du die Framebuffer im VRAM wieder teilst, dann braucht man sich gar nicht die Mühe machen und ihn zusammenlegen. Der Gewinn wäre nur minimal.
So minimal wie AMDs RnD-Budget?

Aber so groß sind doch Framebuffer nun auch wieder nicht, sodass wenn wirklich Texturdaten und co. von beiden GPUs nur einmal abgelegt werden müssten, man doch einiges an Speicher gewinnt.

Zwei getrennte GPUs an einem Frame rechnen zu lassen bringt eben elementare Probleme mit sich, die ich einem AMD in der momentanen Lage eher nicht zutraue zu lösen.