PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800GTX 512MB mit GDDR3 1,7GHz+ Speicher?


Seiten : [1] 2 3

Die gelbe Eule
2005-10-27, 14:10:30
HKEPC.com (http://www.worldlingo.com/wl/translate?wl_lp=ZH_TW-EN&wl_fl=2&wl_rurl=http%3A%2F%2Fhttp%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fviewthread.php?tid=49583 8%2F&wl_url=http%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fviewthread.php?tid=495838&wlg_table=-3) schreibt in Ihrem Artikel, das nach letzten News die 7800GTX 512MB einen Speicher mit mindestens 1,7GHz(850Mhz) bekommen wird, da Samsung bereits 1.8GHz ausliefert.

Davon ab schreibt der Artikel über GDDR4, das dort 2.5GHz angepeilt sind :D

Lubi
2005-10-27, 14:38:19
Dann bin ich mal auf die ersten 1,4 ms GDR 4 Speicher gespannt ;)

Positive Entwicklung das Ganze. Aber ob der Speicher dann auch so effizient eingesetzt werden kann???

Cya Lubi

seahawk
2005-10-27, 15:07:07
Dann hoffe ich, dass die HErsteller der 512MB GTX auch eine gute Ladung mehr Coretakt mitgeben.

Die gelbe Eule
2005-10-27, 15:13:14
475+ sollten mit dem Speicher reichen um wieder über die XT zu kommen.

Spasstiger
2005-10-27, 15:14:39
Dann hoffe ich, dass die HErsteller der 512MB GTX auch eine gute Ladung mehr Coretakt mitgeben.

Braucht die 7800 GTX mit ihren 48 ALUs/Pixelprozessoren doch gar nicht. 512 MB schnellerer Speicher sollten schon reichen, um der X1800 XT überall Paroli bieten zu können.

Demirug
2005-10-27, 15:32:59
Kann man kaufen? Nein
Auf der nVidia Seite zu bewundern? Nein

Dann Spekulation

Ailuros
2005-10-27, 15:41:06
HKEPC.com (http://www.worldlingo.com/wl/translate?wl_lp=ZH_TW-EN&wl_fl=2&wl_rurl=http%3A%2F%2Fhttp%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fviewthread.php?tid=49583 8%2F&wl_url=http%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fviewthread.php?tid=495838&wlg_table=-3) schreibt in Ihrem Artikel, das nach letzten News die 7800GTX 512MB einen Speicher mit mindestens 1,7GHz(850Mhz) bekommen wird, da Samsung bereits 1.8GHz ausliefert.

Davon ab schreibt der Artikel über GDDR4, das dort 2.5GHz angepeilt sind :D

Dass die Seite fuer die Tonne ist, muss man erwaehnen?

Die gelbe Eule
2005-10-27, 15:43:29
Aber abwegig ist es nicht.

StefanV
2005-10-27, 16:16:58
Aber abwegig ist es nicht.
Und warum solls so sein?!

Nur weil dus gern so hättest?!

Ailuros
2005-10-27, 16:22:07
Aber abwegig ist es nicht.

Und was ist wenn ich Dir sagen wuerde dass die Chancen gering sind dass wir GDDR4 selbst nicht mit den ersten R580/G7x GPUs sehen werden?

Eine 7800GTX 512MB sollte heute auch bezahlbar sein und duerfte logischerweise nicht mit einem hoeheren Preis als eine X1800XT 512MB ankommen.

Asmodeus
2005-10-27, 17:11:42
Wann ist nun eigentlich damit zu rechnen, dass eine 7800 GTX mit 512 MByte Speicher wirklich kaufbar in den Handel kommt?

Gruss, Carsten.

mapel110
2005-10-27, 17:17:33
Wann ist nun eigentlich damit zu rechnen, dass eine 7800 GTX mit 512 MByte Speicher wirklich kaufbar in den Handel kommt?

Gruss, Carsten.
Es gibt doch Gerüchte, wonach die 512 MB 7800 GTX anfang November vorgestellt werden soll und eigentlich gibts keine Hinweise darauf, dass das ein Paperlaunch werden könnte.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/oktober/geforce_7800_gtx_512_mb_7_november/

StefanV
2005-10-27, 17:21:24
Richtig, man braucht ja 'nur' noch weitere 8 32MB Chips auf die Karte pappen, schon hat man 'nen Exemplar mit 512MB RAM...

Wobei man das auch noch selbst machen könnte, wenn man das entsprechende Equipment hätte ;)

Asmodeus
2005-10-27, 17:26:20
Richtig, man braucht ja 'nur' noch weitere 8 32MB Chips auf die Karte pappen, schon hat man 'nen Exemplar mit 512MB RAM...

Wobei man das auch noch selbst machen könnte, wenn man das entsprechende Equipment hätte ;)

Ist wirklich davon auszugehen, dass die 512 MB noch wie bei den FX4400 mit 16 Chips realisiert werden? Gibt es nicht schon ne Weile 512 MBit Chips, so dass auch 8 Chips für 512 MByte genügen würden? Oder gibt es da andere Gründe, wieso es 16 Chips sein müssen?

Gruss, Carsten.

mindfaq
2005-10-27, 17:44:58
Laut HKEPC sollte der R520 auch mit 24 Pipelines und >600Mhz kommen, also sollte man auch eine solche Aussage mit Vorsicht bewerten. ;)

Ich glaube nicht, dass wir je einen G70 mit 850Mhz-Speicher sehen werden.
Eine 512MB-Version wird kommen, denke ich. Allerdings wird der Speicher höchstens ein bisschen schneller sein als auf den 256MB-Varianten, wenn überhaupt. Das reicht auch schon und macht die Karten nicht so teuer und vor allem besser verfügbar.
Mir wäre derart schneller Speicher zwar auch lieber, aber wir werden ihn wohl nicht sehen. ;)

Black-Scorpion
2005-10-27, 17:57:20
Ist wirklich davon auszugehen, dass die 512 MB noch wie bei den FX4400 mit 16 Chips realisiert werden? Gibt es nicht schon ne Weile 512 MBit Chips, so dass auch 8 Chips für 512 MByte genügen würden? Oder gibt es da andere Gründe, wieso es 16 Chips sein müssen?

Gruss, Carsten.
Könnte das mit dem Speichercontroller zu tun haben?

StefanV
2005-10-27, 18:03:50
Ist wirklich davon auszugehen, dass die 512 MB noch wie bei den FX4400 mit 16 Chips realisiert werden? Gibt es nicht schon ne Weile 512 MBit Chips, so dass auch 8 Chips für 512 MByte genügen würden? Oder gibt es da andere Gründe, wieso es 16 Chips sein müssen?

Gruss, Carsten.
Die Bauart der neuen Chips ist eine andere, siehe die X1x00 Serie...

Man müsste also ein neues PCB designen, dazu kommt noch, das nicht ganz klar ist, ob der Mem Conti mit diesen großen Chips umgehen könnte, ergo wird man wohl eher 16 Chips draufpacken...

Die gelbe Eule
2005-10-27, 18:54:54
Und was ist wenn ich Dir sagen wuerde dass die Chancen gering sind dass wir GDDR4 selbst nicht mit den ersten R580/G7x GPUs sehen werden?

Eine 7800GTX 512MB sollte heute auch bezahlbar sein und duerfte logischerweise nicht mit einem hoeheren Preis als eine X1800XT 512MB ankommen.

Ich rede hier von 1,7GHZ GDDR3 nicht GDDR4, steht auch so sinngemäß auf HKEPC.

Coda
2005-10-27, 19:01:28
850Mhz GDDR3 ist aber viel. Ich dachte es ist nur bis 800Mhz spezifiziert?

Die gelbe Eule
2005-10-27, 19:09:23
Guckst Du hier (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm).

Ailuros
2005-10-28, 01:09:23
850Mhz GDDR3 ist aber viel. Ich dachte es ist nur bis 800Mhz spezifiziert?

Dachte ich auch.

Ich rede hier von 1,7GHZ GDDR3 nicht GDDR4, steht auch so sinngemäß auf HKEPC.

Dann schlag mal einen Preis vor fuer 512MB 850MHz GDDR3, denn die Zahl am Ende ist hier weniger wichtig als der Punkt dass das Board auch bezahlbar sein muss. Von Verfuegbarkeit in den naechsten paar Wochen reden wir wohl lieber auch nicht.

Schon im Fruehling dieses Jahres gab es aehnliche links ueber angebliche 800MHz Speichermodule doch ich sah dann mitte Sommer nur 600MHz GDDR3 auf der G70. Das sie so breit verfuegbar war von Anfang an und dass die Preise so schnell gefallen sind, sollte eine Indizie fuer den Grund sein warum nur so niedriger Speicher. Wie dem auch sei ich hab einen G70 Uebertaktungs-Artikel fertig und um z.B. 15% rundum mehr Leistung zu bekommen muss man um etwa 15% den core und den Speicher uebertakten. Nur den Speicher uebertakten bringt eher langweilige ~5%.

Nimmt man jetzt fuer diesen core ca. 40% schnelleren Speicher, muesste man auch den core um ca. 40% hoeher takten koennen, damit auch die extra 40% an Leistung am anderen Ende rauskommen. Das waeren 600MHz. Angenommen das Ding hat tatsaechlich hoehere Frequenzen (was ich momentan immer noch bezweifle, weil es leichter ist den Vendors zu ueberlassen....), dann waere 490MHz sinnvoller als Taktrate und 700MHz GDDR3 reichen auch in diesem Fall vollkommen aus.

Von einer Seite die immer noch eine 6 quad R520 erwartet, will ich erstmal gar nichts hoeren.

Ailuros
2005-10-29, 01:34:29
Hmmmm ich glaube ich muss mir hier einen Fehlschlag anrechnen ;)

Beomaster
2005-10-29, 08:28:21
Ich dachte Samsung hat bereits 2GHz GDDR3, wieso gehts denn da bloß bis 1800?

Winter[Raven]
2005-10-29, 10:56:12
Unwahrscheinlich, das es wirkliche Taktsteigerungen geben wird, womit wollen die dann den G80 befeuern?

Es bringt einfach nichts bei einer schon existierenden Generation etwas besseres zu verbauen wenn man es bei einem Refresh als NEUERUNG anpreisen kann.

VooDoo7mx
2005-10-29, 11:48:49
Müsste man für GDDR4 nicht auch noch den Speichercontroller am Chip modifizieren?

Die 7800GTX 512MB wird mit allerhöchster warscheinlichkeit die gleichen Taktraten wie die "normale" haben.

GDDR4 kommt frühstens mit R580/G70 Refresh.

Ich halte es sogar für extrem abwegig in die Richtung GDDR4 zu spekulieren. Samsung hat gerade erst einmalm die Produktion angefhren. Die Preise dürften exorbitant sein.

Hakim
2005-10-29, 13:34:37
850 Mhz speicher wären auch übertrieben. Eine evt. 7800 U sollte so 500 Mhz core und 512 MB 750 Mhz speicher haben.

reunion
2005-10-29, 13:48:12
Ich halte das nicht unbedingt für unwarscheindlich... ;)

Die gelbe Eule
2005-10-29, 14:21:38
Auch für die, die es überlesen haben, im Topic steht GDDR3 nicht GDDR4. Zwar wird im Artikel hauptäschlich GDDR4 erwähnt, aber im letzten Absatz das die 512MB Version den schnellsten RAM abbekommen würde.

Einfacher Grund wäre, diese Speicher zu verbauen, weil er nunmal verfügbar ist. Irgendwo muss man ja im Massenmarkt zeigen wo der Hammer hängt und was würde sich besser anbieten, als eine HighEnd Grafikkarte, die jeder mitbekommt?

MikBach
2005-10-29, 17:32:12
Einfacher Grund wäre, diese Speicher zu verbauen, weil er nunmal verfügbar ist.
Kommt auf den Preis an...

Irgendwo muss man ja im Massenmarkt zeigen wo der Hammer hängt und was würde sich besser anbieten, als eine HighEnd Grafikkarte, die jeder mitbekommt?
Massenmarkt und High-End passt nicht wirklich zusammen. :wink:

GloomY
2005-10-29, 18:26:21
Guckst Du hier (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm).Da sehe ich Speicher mit bis zu 900 MHz. Also sind die 850 MHz durchaus realistisch.

btw: GDDR4 soll bis 1,4 GHz gehen (http://www.heise.de/newsticker/meldung/65511). :O

Die gelbe Eule
2005-10-29, 18:30:54
Massenmarkt und High-End passt nicht wirklich zusammen. :wink:

Das schon, aber es geht ja darum welcher Speicher verfügbar ist. Und Massenmarkt heißt, moderate Preise und breite Verfügbarkeit.

Dunkeltier
2005-10-29, 19:19:13
Da sehe ich Speicher mit bis zu 900 MHz. Also sind die 850 MHz durchaus realistisch.

btw: GDDR4 soll bis 1,4 GHz gehen (http://www.heise.de/newsticker/meldung/65511). :O

Hm, der auf der neuen Radeon verbaute Speicher läuft ja mit 1,9 Volt bei 750 Mhz. Liegt also genau dazwischen. Mir kommen dumme Gedanken. :) 2V und 850-900 Mhz... *lechz* :D

MikBach
2005-10-29, 20:04:32
Das schon, aber es geht ja darum welcher Speicher verfügbar ist. Und Massenmarkt heißt, moderate Preise und breite Verfügbarkeit.
Nein, Der 850Mhz-Speicher ist bestimmt nicht für die Masse bestimmt.
Und moderate Preise gibt es beim High-End-Speicher sowieso nicht. Siehe CPUs oder sonstwas. Die teuerste CPU ist nicht in dem Maße schneller, wie sie mehr kostet.

Die gelbe Eule
2005-10-29, 20:17:18
Sie wird trotzdem nicht mehr kosten als die XT und davon ab kein Paperlaunch werden. Das PCB muss man ja vielleicht gar nicht anpassen, sondern nur die RAMS zusätzlich draufpacken. Die Taktraten der GPU sind eh bis 486MHz garatiert stabil.

MikBach
2005-10-29, 20:20:58
Sie wird trotzdem nicht mehr kosten als die XT und davon ab kein Paperlaunch werden.

Quelle? Oder nur Tagträume?

Die Taktraten der GPU sind eh bis 486MHz garatiert stabil.
Quelle? :|

Die gelbe Eule
2005-10-29, 20:49:31
Es gibt zig Karten die jetzt schon mit 486MHz angeboten werden, sollte bekannt sein.

NVidia muss keine Karte neuerfinden und die XTs eh noch net lieferbar sind, warum jetzt schon eine Welle schlagen? Man möchte gerne im Fokus stehen, also wird der Zeitpunkt gut gewählt.

530€ kostet eine X1800XT mit 512MB. Eine 7800GTX mit 256MB kostet 450€. Da werden 256MB RAM kaum 70€ Mehrpreis bedeuten.

-error-
2005-10-30, 00:07:25
530€ kostet eine X1800XT mit 512MB. Eine 7800GTX mit 256MB kostet 450€. Da werden 256MB RAM kaum 70€ Mehrpreis bedeuten.

Achja? Schau dir mal die Preis der X800 XL an, einmal mit 256 MB und dann die Version mit 512 MB.

Ailuros
2005-10-30, 00:18:10
']Unwahrscheinlich, das es wirkliche Taktsteigerungen geben wird, womit wollen die dann den G80 befeuern?

Es bringt einfach nichts bei einer schon existierenden Generation etwas besseres zu verbauen wenn man es bei einem Refresh als NEUERUNG anpreisen kann.

Wenn ich mal falsch liege, habe ich auch die Grosszuegigkeit es einzugestehen ;)

Die Eule liegt auf dem richtigen Pfad; zwar gibt es ein paar Punkte die auch der Wahrheit entsprechen in meinem vorletzten Post, aber insgesamt lag ich total daneben.

mapel110
2005-10-30, 00:30:34
Die X1800 XT 512 MB ist doch sowieso noch nicht verfügbar. Wie will man da Preise genau einschätzen?!
(Man schaue sich die eine verfügbare im Shop mal genauer an. Die ist nicht verfügbar.)

850 Mhz Ram würde dann wohl nur Sinn machen, wenn man auch den Coretakt erheblich steigern könnte laut Ail.
von 600 auf 850 sind 41 %
von 430 auf 606 sind 41 %, ist also recht unwahrscheinlich imo.

Ailuros
2005-10-30, 00:47:03
Ich hab mir die Augen gerieben beim letzten briefing und dass ist schon wieder mal zu viel geblubbert ;)

Schrotti
2005-10-30, 01:32:22
Dann bin ich mal auf die ersten 1,4 ms GDR 4 Speicher gespannt ;)

Positive Entwicklung das Ganze. Aber ob der Speicher dann auch so effizient eingesetzt werden kann???

Cya Lubi

Sorry kann mir das net verkneifen aber 1,4ms währen doch ein bissel viel.

Wobei ich mich eh frage ob ein so hoher Takt noch viel bringt.

reunion
2005-10-30, 12:35:29
Hm, der auf der neuen Radeon verbaute Speicher läuft ja mit 1,9 Volt bei 750 Mhz.

2V AFAIK.

Dunkeltier
2005-10-30, 14:17:38
Es gibt zig Karten die jetzt schon mit 486MHz angeboten werden, sollte bekannt sein.

Du kennst den Unterschied zwischen hochgetakteten RAM und einer hochgetakteten GPU?



NVidia muss keine Karte neuerfinden und die XTs eh noch net lieferbar sind, warum jetzt schon eine Welle schlagen? Man möchte gerne im Fokus stehen, also wird der Zeitpunkt gut gewählt.

Mit einen alten Produkt, was außer 512 MB keine weiteren Vorzüge wie zum Beispiel anständigere Filterung bietet? Wir sind begeistert...



530€ kostet eine X1800XT mit 512MB. Eine 7800GTX mit 256MB kostet 450€. Da werden 256MB RAM kaum 70€ Mehrpreis bedeuten.

Eine Radeon X1800 XT gibt es schon ab 491 Euro, sollten diese besser verfügbar werden wird der Preis ziemlich flott sinken. Ist reine Marktwirtschaft.

Paul Brain
2005-10-30, 14:23:22
Wobei ich mich eh frage ob ein so hoher Takt noch viel bringt.
Hohe Auflösungen? Hohe AA-Settings?

Die 7800GTX hab ich persönlich mir nur deshalb noch nicht geholt, weil sie "dank" des langsamen Speichers bei meinen Anforderungen (mindestens 1600x1200, mind. 4xAA) schlecht skaliert. Da bleib ich vorerst bei meiner X800XT, bei der ich (wie anderswo bereits erwähnt) bei solchen Auflösungen zwar meistens höchstens 2xAA nutzen kann, die aber immerhin auch schon 500MHz GDDR3 hat.

Mir persönlich bringt die beste Shaderleistung nix, wenn ich sie mangels Speicherbandbreite bei hohen Auflösungen nicht nutzen kann.

Greets

Winter[Raven]
2005-10-30, 14:27:13
Was hier wieder abgeht ... wenn ich hier so einige Comments so lesen muss ... Dunkeltier, keine Vorteile? hmm, leiser, Kühler, ausgereifter... Denkst du nur ATi kann Ihre preise senken? Zimmlich einseitige betrachtung die du an den Tag legst.

@ Auliros

Du musst es wissen, aber für mich würde es einfach keinen Sinn machen jetzt die Bandwidth zu verschwenden, dafür steht Nvidia mit der 256MB Karte minimal besser da. Wenn es so kommt das der Refresh in 0.9nm mit 32Pipes +/- Mhz Steigerung kommen sollte, ist man wieder Limitiert.

Dunkeltier
2005-10-30, 14:34:33
']Was hier wieder abgeht ... wenn ich hier so einige Comments so lesen muss ... Dunkeltier, keine Vorteile? hmm, leiser, Kühler, ausgereifter... Denkst du nur ATi kann Ihre preise senken? Zimmlich einseitige betrachtung die du an den Tag legst.


Zur Lautstärke kann ich mir noch kein Bild machen. Ausgereifter? Wo denn? Die verkorkten Treiber, wo es nVidia bis heute nicht geschafft hat n Fehler zu fixen? Das ist keine einseitige Betrachtung, ich seh das ganze sachlich und nüchtern.

Die gelbe Eule
2005-10-30, 14:50:33
Du kennst den Unterschied zwischen hochgetakteten RAM und einer hochgetakteten GPU?

Der RAM bei den Karten wird auch hochgetaktet, viele laufen bereits bei 625MHz.


Mit einen alten Produkt, was außer 512 MB keine weiteren Vorzüge wie zum Beispiel anständigere Filterung bietet? Wir sind begeistert...

Alt? Was ist dann die X1800? Warum sollte noch einer die X1800 kaufen wollen, wenn es das alles schon länger bei der 7800er gibt?
Außerdem höre ich da etwas ProATI heraus, darum geht es in diesem Thread wie so oft auch nicht.


Eine Radeon X1800 XT gibt es schon ab 491 Euro, sollten diese besser verfügbar werden wird der Preis ziemlich flott sinken. Ist reine Marktwirtschaft.

"kein Bestand" Wie kann etwas 491€ kosten, das nichtmal da ist?
Du kennst das Spiel mit Bestellung und Auftragsannahme oder? Günstiger Preis zum anlocken, dann Preis anheben.


Übrigens, bei Grafikkartenpower.de gibt es eine GTX für 414€. Sollten die 512er rauskommen, wird der Preis noch weiter fallen.

Dunkeltier
2005-10-30, 16:31:39
Der RAM bei den Karten wird auch hochgetaktet, viele laufen bereits bei 625MHz.

Du kennst den Unterschied zwischen Mhz zum beinahe Nulltarif und für viel Geld?



Alt? Was ist dann die X1800? Warum sollte noch einer die X1800 kaufen wollen, wenn es das alles schon länger bei der 7800er gibt? Außerdem höre ich da etwas ProATI heraus, darum geht es in diesem Thread wie so oft auch nicht.

Ich wüßte nicht, das nVidia beinahe volle trilineare Filterung bietet. Ebenso wenig wüßte ich nicht, das nVidia 6xMSAA bietet, welches im Gegensatz zum Supersampling in den Spielen wenigstens vernünftig nutzbar ist. Und mehr Speichertakt bietet, womit die Karte weniger Bandbreitenlimitiert ist. Und ganz wichtig, bugfreie Treiber...wo bietet mir dies nVidia? Seitdem ich wieder mal 'ne nVidia-Karte habe, habe ich in fast allen Spielen nur Fehler. Das fängt bei FarCry mit dem Rand an, geht weiter über die kaputte Taktung in manch wenigen Spielen, macht vor Texturfehlern in einigen Spielen mit TSSAA nicht halt (z.B. Bf1942 auf Fahrzeugen und Gebäuden), windet sich weiter zum Performance-Bug mit gammakorrigierten MSAA, hört nicht auf bei Videoabspielbugs, macht nicht vor Schattenfehlern in der alten HL-Engine halt, etc... Ich könnte die Liste unendlich weiter fortsetzen.

Jedenfalls hat nVidia den Anschluß bei der Treiberentwicklung im Windows-Bereich eindeutig verloren. Bevor die sich um so einen scheiß wie Dual-Core Unterstützung kümmern, würde ich erst einmal zusehen Bugfreie Treiber zu entwicklen. Die auch eine vernünftige Bildqualität bieten.



"kein Bestand" Wie kann etwas 491€ kosten, das nichtmal da ist?
Du kennst das Spiel mit Bestellung und Auftragsannahme oder? Günstiger Preis zum anlocken, dann Preis anheben.

Du kennst auf Nachnahme vorbestellen? Wenn nicht, dann Pech. Jedenfalls ist hinlänglich bekannt, das die "richtige" Markteinführung erst im November ist. Wozu also noch über Verfügbarkeitsangaben diskutieren?


Übrigens, bei Grafikkartenpower.de gibt es eine GTX für 414€. Sollten die 512er rauskommen, wird der Preis noch weiter fallen.

Eine 256 MB Radeon X1800 XT gibt es rein hypothetisch für 457 Euro. Wieso sollte man sich da eine GTX mit lahmeren Speicher und schlechterer Bildqualität antun? :|

Spasstiger
2005-10-30, 16:39:15
Eine 256 MB Radeon X1800 XT gibt es rein hypothetisch für 457 Euro. Wieso sollte man sich da eine GTX mit lahmeren Speicher und schlechterer Bildqualität antun? :|

Du sagst es ja schon selbst, rein hypothetisch. Außerdem scheint bei den ATI-Karten die SM3- und HDR-Kompatabilität noch nicht 100% gegeben zu sein, wenn man sich die Probleme in diversen 3D-Anwendungen anschaut (Farcry, AoE 3, Relief Mapping Demo). Und die Nvidia-Karten bieten hauseigene OpenGL-Extensions, die von ATI nicht unterstützt, von einigen wenigen Anwendungen aber verwendet werden (z.b. das "3mood"-Grafiktool für Doom 3 bzw. der Quake-4-Pendant "quak4").

Dunkeltier
2005-10-30, 16:46:08
Du sagst es ja schon selbst, rein hypothetisch. Außerdem scheint bei den ATI-Karten die SM3- und HDR-Kompatabilität noch nicht 100% gegeben zu sein, wenn man sich die Probleme in diversen 3D-Anwendungen anschaut (Farcry, AoE 3, Relief Mapping Demo). Und die Nvidia-Karten bieten hauseigene OpenGL-Extensions, die von ATI nicht unterstützt, von einigen wenigen Anwendungen aber verwendet werden (z.b. das "3mood"-Grafiktool für Doom 3 bzw. der Quake-4-Pendant "quak4").


Abwarten und Tee trinken. Bis jetzt hat Ati in der Regel sehr schnell auf Treiberprobleme reagiert (innerhalb von 1-2 Monaten). Während nVidia einen gigantischen Berg schon seit Monaten mit sich rumschleppt. Ich werde ja in kürze die Gelegenheit haben, dies auszutesten. :)

Demirug
2005-10-30, 17:29:53
Du sagst es ja schon selbst, rein hypothetisch. Außerdem scheint bei den ATI-Karten die SM3- und HDR-Kompatabilität noch nicht 100% gegeben zu sein, wenn man sich die Probleme in diversen 3D-Anwendungen anschaut (Farcry, AoE 3, Relief Mapping Demo). Und die Nvidia-Karten bieten hauseigene OpenGL-Extensions, die von ATI nicht unterstützt, von einigen wenigen Anwendungen aber verwendet werden (z.b. das "3mood"-Grafiktool für Doom 3 bzw. der Quake-4-Pendant "quak4").

Du kannst nun wirklich nicht erwarten das ATI Extensions unterstützt die nVidia für die eigenen Karten entworfen hat. Es gibt ja auch ATI Extensions die nVidia nicht unterstützt. Das ist der ganz normale OpenGL Wahnsinn.

Die SM3/HDR Probleme sind nur in so fern ATI anzulasten das sie eben ein relevante DX9 Features nicht unterstützen. Die Spiele sind alle so programmiert das sie FP16 Filterung brauchen.

Spasstiger
2005-10-30, 17:34:54
Du kannst nun wirklich nicht erwarten das ATI Extensions unterstützt die nVidia für die eigenen Karten entworfen hat. Es gibt ja auch ATI Extensions die nVidia nicht unterstützt. Das ist der ganz normale OpenGL Wahnsinn.

Ja, ich wollte das ja auch nicht als Fehler seitens ATI darstellen. Ich wollte nur ausdrücken, dass es Anwendungen gibt, die von diesen speziellen Extensions Gebrauch machen und dass es dann natürlich auch User gibt, die auf diese Extensions nicht verzichten wollen. Es gibt z.b. genug Doom 3 und Quake 4 Fans, die auch gerne mal 3mood oder quak4 ausprobieren oder sogar damit die Spiele durchzocken würden.
Sorry, dass diese Überlegung aus meinem obigen Posting nicht hervorging. :)

Mumins
2005-10-30, 18:27:10
Übrigens, bei Grafikkartenpower.de gibt es eine GTX für 414€. Sollten die 512er rauskommen, wird der Preis noch weiter fallen.

Das denke ich nicht. Die 256MB mehr müssen bezahlt werden, also wird die 512MB Karte so um die 550€ kosten. Die 256MB Version billiger zu machen ist noch nicht notwendig.

Blaire
2005-11-01, 15:54:13
http://theinquirer.net/?article=27368 :D

mindfaq
2005-11-01, 16:00:24
Haben will...;)

(del676)
2005-11-01, 16:46:36
http://theinquirer.net/?article=27368 :D

kann man sie schon vorbestellen :|

robbitop
2005-11-01, 16:59:23
wenn das stimmt, würde mich mal interessieren, wie NV das hinbekommen hat.
Neues Tapeout? Einfach nur mehr Spannung? Selektion? Wie stehts mit den Yields?
Wie auch immer, wenn das Teil so erscheint, dreht sich die Situation natürlich gewaltig.

Coda
2005-11-01, 17:15:18
Die Quadro FX 4500 hat bereits jetzt 550Mhz Pixeltakt *hint*

Horimoto
2005-11-01, 17:16:06
Durch erhöhen der Spannung hat VRZone 600MHz Core hinbekommen, mit etwas besserer LuKü. Sprich ne DualSlot kühlung, in Art von ACS dazu noch eine erhöhte Spannung und es wäre ohne probs möglich.

robbitop
2005-11-01, 17:16:58
Die Quadro FX 4500 hat bereits jetzt 550Mhz Pixeltakt *hint*
Das habe ich zwar schon mehrfach gelesen, kann es aber bisher nicht glauben (ist ein bisschen hoch). Wo steht das offiziell? (habe schonmal danach gesucht) RLZ (IIRC) meinte das wären 4xxMHz Coretakt. Er arbeitet AFAIK mit solchen Teilen.

Coda
2005-11-01, 17:20:52
Das stimmt wirklich, kannst du mir glauben.

robbitop
2005-11-01, 17:22:41
Das stimmt wirklich, kannst du mir glauben.
Wo kann ich das nachlesen? ;)
Gehört hab' ich's ja auch. Und leg' es bitte nicht als mangelndes Vertrauen aus. Ich würds einfach gern schwarz auf weis haben. Habe es damals leider nicht gefunden.

reunion
2005-11-01, 17:23:39
http://theinquirer.net/?article=27368 :D


Das deckt sich auch mit meinem Informationen, allerdings wird der Speicher mitnichtern mit 900Mhz takten. ;)

deekey777
2005-11-01, 17:24:18
Wo kann ich das nachlesen? ;)
Gehört hab' ich's ja auch. Und leg' es bitte nicht als mangelndes Vertrauen aus. Ich würds einfach gern schwarz auf weis haben. Habe es damals leider nicht gefunden.

Es sind 550 MHz für die ROPs und den Shader-Teil und 470 MHz für den Vertex-Teil.

Coda
2005-11-01, 17:24:34
Das deckt sich auch mit meinem Informationen, allerdings wird der Speicher mitnichtern mit 900Mhz takten. Aber auch nicht viel drunter wahrscheinlich...

reunion
2005-11-01, 17:25:08
nV gibt 10.8 Millionen Texel/s für die Quadro FX 4500 an:

http://www.nvidia.com/object/IO_11761.html

Ergo 450Mhz...

robbitop
2005-11-01, 17:28:49
nV gibt 10.8 Millionen Texel/s für die Quadro FX 4500 an:

http://www.nvidia.com/object/IO_11761.html

Ergo 450Mhz...
Aha ... dachte ich's mir doch, dass das mit den 550MHz eine Urban legend war. Vieleicht hat Theinq auch nur bei hpec abgeschrieben...

Coda
2005-11-01, 17:30:04
Ist es nicht: http://www.heise.de/preisvergleich/a168605.html

Was glaubt ihr wofür das Ding den Killerkühler braucht?

reunion
2005-11-01, 17:35:22
Ist es nicht: http://www.heise.de/preisvergleich/a168605.html

Geizhals (http://www.geizhals.at/eu/a168513.html) gibt ebenfalls 550Mhz Pixeltakt an, allerdings würde ich nV hier doch mehr trauen.

//Edit: Scheint auch nur von Geizhals abgekupfert zu sein, IMHO ein Tippfehler.

robbitop
2005-11-01, 17:36:00
Ist es nicht: http://www.heise.de/preisvergleich/a168605.html

Was glaubt ihr wofür das Ding den Killerkühler braucht?
Hm ...nur seltsam, warum NV das nicht auch so angibt...

Coda
2005-11-01, 17:36:14
Da hat nVIDIA wohl etwas falsches auf ihrer Webseite stehen in diesem Fall.

Glaub's oder nicht :)

Stimmt der link? Bekomme irgendwie einen HTML Quellcode nur rein.Eigentlich schon :|

smockdogx
2005-11-01, 17:57:13
ich finde es schwachsinnig grafikkarten mit 512 mb raus zu bringen
nichtmal bei doom gabs einen leistuns unterschied zwichen 256mbund 512 mb
nur marketing
in der pc hardware war auch mal so ein test da hat bf grad mal 118mb gebraucht
für was also 512 :crazy2:

Coda
2005-11-01, 18:01:49
Blödsinn. F.E.A.R. ist in 1600x1200 4xAA schon gnadenlos VRAM-limitiert. Genauso Serious Sam 2.

Die gelbe Eule
2005-11-01, 18:14:38
Also wenn das jetzt so stimmt mit den 550MHz/1800MHz, möglich ist es ja, specs des RAMS sind bekannt, wie hoch müsste dann der R520(R580) gehen um gleichzuziehen?
Ist das dann überhaupt noch möglich mit dem Design oder muss ein neues PCB her mit 20+ Pipes?

RLZ
2005-11-01, 18:16:28
RLZ (IIRC) meinte das wären 4xxMHz Coretakt. Er arbeitet AFAIK mit solchen Teilen.
Du vertauschst mich glaub ich mit Asmodeus. Der hat die Dinger afaik für sein Landschaftsrendering. :)

Black-Scorpion
2005-11-01, 18:18:24
Das dürfte vom Takt nicht mehr zu schaffen sein.
Selbst wenn die GPU so hoch zu takten wäre klemmt es dann beim Speichertakt.

Was hat das PCB mit den Pipes zu tun? :confused:

mapel110
2005-11-01, 18:19:53
Also wenn das jetzt so stimmt mit den 550MHz/1800MHz, möglich ist es ja, specs des RAMS sind bekannt, wie hoch müsste dann der R520(R580) gehen um gleichzuziehen?
Ist das dann überhaupt noch möglich mit dem Design oder muss ein neues PCB her mit 20+ Pipes?
Um die gleiche Performance-Relation wie bisher wieder zu haben (zwischen GTX und XT)?!

1 GB Ram 2100 Mhz/GPU 800 Mhz ;)

robbitop
2005-11-01, 18:23:36
Du vertauschst mich glaub ich mit Asmodeus. Der hat die Dinger afaik für sein Landschaftsrendering. :)
Args, ja sorry :)

Die gelbe Eule
2005-11-01, 18:29:33
Was hat das PCB mit den Pipes zu tun? :confused:

Zielt darauf ab, da keiner damit rausrücken möchte, warum die X1800 soviele Transistoren hat. 20+ Pipes müssten mehr Transistoren brauchen und somit würde auch die GPU wachsen. Wenn die jetzige GPU schon das Desgin für mehr Pipes hätte, wäre es ja irgendwie aufgefallen.

Die gelbe Eule
2005-11-01, 18:32:32
Um die gleiche Performance-Relation wie bisher wieder zu haben (zwischen GTX und XT)?!

1 GB Ram 2100 Mhz/GPU 800 Mhz ;)

Also wird der R580 mehr Pipes haben müssen, sonst wäre die Karte sinnlos.

Coda
2005-11-01, 18:35:18
Also wird der R580 mehr Pipes haben müssen, sonst wäre die Karte sinnlos.48ALUs/16TMUs, praktisch 4xRV530 statt 4xRV515.

Die gelbe Eule
2005-11-01, 18:47:32
Daraus werde ich noch net schlau. Wie ist dann die normale zählweise?

der Lustige
2005-11-01, 18:54:05
Hmm um die 900 Mhz zu realisieren zu können, müsste mindestens ein 1,2 ns Speicher von Samsung verbaut werden.

Die Grafikkarte wird wohl dann kaum unter 750 euro zu haben sein.

Dann können Sie auch gleich die Gelegenheit nutzen 8x 64 MB Chips (einseitig montiert) zu verbauen, anstatt 16x 32 MB.

Ich glaube aber in anbetracht der Kosten nicht wirklich daran.

Zum Anfang hieß es auch immer der R520 wird 32 Pipes haben :)
Die Spekulationen von Theinquirer würde ich eh nicht ernst nehmen, sind oft ein Griff ins Klo (R520)

Die neue GTX wird bestens falls 1,4 ns (700 Mhz) Speicher in der 32 MB Ausführung bekommen und mehr nicht.

mindfaq
2005-11-01, 18:57:20
Daraus werde ich noch net schlau. Wie ist dann die normale zählweise?Wie meinst du das ? Der R580 hat 16 ROPs, 16 TMUs und 48 ALUs. Also weiterhin ein "16-Pipeline-Chip".

Coda
2005-11-01, 19:10:03
Daraus werde ich noch net schlau. Wie ist dann die normale zählweise?48x1/3 wenn du so willst. G70 ist 24x1.

Spasstiger
2005-11-01, 19:10:55
Der GeForce 7800 GTX Chip hat 16 ROPs, 24 TMUs und 48 ALUs, oder?

Coda
2005-11-01, 19:15:24
Es sind 48 ALUs ja. Aber bei ATi laufen sie getrennt, bei nVIDIA jeweils 2 zusammengefasst.

Die gelbe Eule
2005-11-01, 20:32:24
Auf HKEPC.com ist ein Artikel über die 512MB Version verschwunden, obwohl auf der Hauptseite noch erwähnt. Stand da etwas zuviel oder eher was falsches?

tombman
2005-11-01, 21:10:57
Also xbit labs hatte eine quadro fx4500 und da waren es auch 550mhz core...

http://www.xbitlabs.com/articles/cpu/display/opteron-ws_9.html

...For our test session we managed to BORROW a graphics card based on the latest and greatest professional GPU from NVIDIA – Quadro FX 4500. It is based on the G70 architecture. This card also became a part of our dual-processor workstation...
...The main part of the Quadro FX 4500 core works at 550MHz, which the GeForce 7800 GTX chip works at 430MHz. The vertex processor unit of both solutions works at the same frequency of 470MHz...
Damit das mal geklärt wäre ;)
Wie Coda schon sagte, der Monsterkühler hat schon seinen Sinn ;)

Also damit ist klar, daß nvidia 550mhz core raushauen kann, wenn sie wollen :cool:

Blaze
2005-11-01, 21:16:50
Ich hoffs nicht...meine arme Geldbörse :D

StefanV2
2005-11-01, 21:36:37
ich finde es schwachsinnig grafikkarten mit 512 mb raus zu bringen
nichtmal bei doom gabs einen leistuns unterschied zwichen 256mbund 512 mb
nur marketing
in der pc hardware war auch mal so ein test da hat bf grad mal 118mb gebraucht
für was also 512 :crazy2:
Dir scheinen wohl die ganzen x1800XT Reviews entgangen zu sein, oder?!

tombman
2005-11-01, 21:53:56
FEAR hat bei meinen Messungen mit 3danalyse bis zu 320mb gefressen...
Also klar bringen 512mb Karten was...

r00t
2005-11-01, 22:01:20
Ich hoffs nicht...meine arme Geldbörse :D


me too..weihnachtsgeld is coming^^

aber stellt euch die karte mal im sli vor ^^

Die gelbe Eule
2005-11-01, 22:51:58
Da kann dann der G80 nur noch ein Monster werden ^^

tombman
2005-11-02, 01:38:12
Stellt euch mal nvidia mit 90nm Prozess vor und 32pipelines @ 600core :D

phil99
2005-11-02, 01:38:14
Weiss man schon, was die 512mb Version in etwa kostet ?

SKYNET
2005-11-02, 02:13:37
500-550€ dürfte der normale strassenpreis sein! :o)

Blaze
2005-11-02, 06:46:55
Da kann dann der G80 nur noch ein Monster werden ^^

Den werd ich mir auch erst holen...kein Bock schon wieder so viel Geld zu verballern, für meine Zwecke reichen die 256er GTXen auch noch bis zum G80 ;)

seahawk
2005-11-02, 08:26:42
Mit der Quadro seit ihr schon auf der richtigen Fährte.

Anarchy-HWLUXX
2005-11-02, 11:15:21
500-550€ dürfte der normale strassenpreis sein! :o)

Sollt hinkommen ... jedenfalls nicht viel mehr als ne 1800XT die mit ähmlich viel RAM daherkommt ...


Einziges problem wäre dann : Nach der Leistungsspritze wird der Abstand zur G80 kleiner als bisher mit der GTX256 :|

seahawk
2005-11-02, 11:20:14
Um den G80 würde ich mir keine Sorgen machen.

Anarchy-HWLUXX
2005-11-02, 13:00:14
Um den G80 würde ich mir keine Sorgen machen.


Aha ? Weisst du was was sonst keiner weiss oda wir ?

Godmode
2005-11-02, 13:09:42
Aha ? Weisst du was was sonst keiner weiss oda wir ?

Ich denke wenn sie auf 90nm wechseln könnten sie nochmal ordentlich den Takt erhöhen. Es gibt da 2 Möglichkeiten:
INTEL/ATI 90nm: viele Hitze
AMD 90nm: kühl

seahawk
2005-11-02, 13:29:41
Aha ? Weisst du was was sonst keiner weiss oda wir ?

Da der G70 Nachfolger, also der hier so genannte G80, ja in 90nm produziert werden soll, bestehen für NV mehrere Möglichkeiten zur Performanceverbesserung.

a) interen Verbesserungen in den Tempregistern, in der Pixelpipeline, in den Cahces im Memorycontroller, was ja schon alleine einen erheblichen Unterschied machen kann

b) mehr ALUs

c) mehr Takt

d) mehr Pipes

Jeder Kombination davon sollte bei einem ausgereiften 90nm Designprozess (G80 soll im Plan liegen) ausreichend Mehrleistung liefern um auch einen 550MHZ G70 hinreichend zu schlagen. Die Art und Weise wie NV dies realisiert möchte ich zum gegenwärtigen zeitpunkt nicht im Detail diskutieren.

Johnny
2005-11-02, 14:14:23
http://www.theinquirer.net/?article=27368 :eek:
Ich weiss, Inquirer, aber trotzdem!!!

Blaze
2005-11-02, 14:27:01
http://www.theinquirer.net/?article=27368 :eek:
Ich weiss, Inquirer, aber trotzdem!!!

alt ;(

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3634548#post3634548

Die gelbe Eule
2005-11-02, 14:31:39
Der Artikel steht da schon seit gestern. Die Quelle von HKEPC.com hat zuviel verraten, der Artikel ist wieder weg :(
Hat den vielleicht noch jemand ?

robbitop
2005-11-02, 14:50:33
Aha ? Weisst du was was sonst keiner weiss oda wir ?
Da kann problemlos durch mehr Takt/Quads/mehr Temp Register/eine 3. ALU pro Pipe nachgeholfen werden.

Coda
2005-11-02, 16:03:07
Ich denke wenn sie auf 90nm wechseln könnten sie nochmal ordentlich den Takt erhöhen. Es gibt da 2 Möglichkeiten:
INTEL/ATI 90nm: viele Hitze
AMD 90nm: kühlDer 90nm low-k Prozess von TSMC ist mit Sicherheit besser als der 110nm.

Da kann problemlos durch mehr Takt/Quads/mehr Temp Register/eine 3. ALU pro Pipe nachgeholfen werden.3 ALUs pro Pipeline wird ineffizient. Da macht es eher Sinn TMUs von den ALUs zu entkoppeln wie es ATi auch macht.

Die nächste nVIDIA-Generation könnte eh auch ein Unified Shader sein.

robbitop
2005-11-02, 16:53:54
3 ALUs pro Pipeline wird ineffizient. Da macht es eher Sinn TMUs von den ALUs zu entkoppeln wie es ATi auch macht.

Die nächste nVIDIA-Generation könnte eh auch ein Unified Shader sein.
Sinn ja, aber es kostet vermutlich mehr R&D und mehr Transistoren. Wenn's nicht so wäre, hätte man es anders gelöst. Eine dritte ALU soll ja recht einfach hinzuzufügen sein. Besonders bei AF im Zusammenhang mit PS sollte das etwas bringen.

Ansonsten wären auch brachial mehr Quads/Takt machbar. Aber bisher hat NV soziemlich immer zw 2 Refreshes auch etw in der Pipeline geändert. Vieleicht nur die Temps...

Coda
2005-11-02, 17:03:18
Sinn ja, aber es kostet vermutlich mehr R&D und mehr Transistoren. Wenn's nicht so wäre, hätte man es anders gelöst. Eine dritte ALU soll ja recht einfach hinzuzufügen sein. Besonders bei AF im Zusammenhang mit PS sollte das etwas bringen.Wieso sollte das was bringen? Die TMU stallt den kompletten Pixelshader.

Ansonsten wären auch brachial mehr Quads/Takt machbar. Aber bisher hat NV soziemlich immer zw 2 Refreshes auch etw in der Pipeline geändert. Vieleicht nur die Temps...G70 hatte für einen Refresh auch mehr Quads. Das NV4x Design ist da wesentlich skalierbarer als NV3x.

Irgendwann braucht man nur eine brutale Monster-Crossbar. Wahrscheinlich wird man da auch zu einem Bus übergehen.

Demirug
2005-11-02, 17:23:54
3 ALUs pro Pipeline wird ineffizient. Da macht es eher Sinn TMUs von den ALUs zu entkoppeln wie es ATi auch macht.

Sie sind nur Latenzentkoppelt.

nVidia kann zwei Wege gehen. Mehr Alus in Reihe schalten oder die ALUs und TMUs nebeneinander legen. Hat beides vor und Nachteile. Wobei mir Mittel bis Langfristig die parallel Lösung die bessere scheint. Wenn sie aber nochmal einen schnellen Refresh brauchen würde ich eher auf Reihen ALUs tippen.

Die nächste nVIDIA-Generation könnte eh auch ein Unified Shader sein.

Reden wir von einem D3D10 Chip? Dann sage ich mal Jaein.

Coda
2005-11-02, 17:25:33
nVidia kann zwei Wege gehen. Mehr Alus in Reihe schalten oder die ALUs und TMUs nebeneinander legen. Hat beides vor und Nachteile. Wobei mir Mittel bis Langfristig die parallel Lösung die bessere scheint. Wenn sie aber nochmal einen schnellen Refresh brauchen würde ich eher auf Reihen ALUs tippen.Meinst du es ist wirklich noch genügend Parallelität in den gängigen Pixelshadern vorhanden um 3 ALUs zu füttern?

Demirug
2005-11-02, 17:26:27
Wieso sollte das was bringen? Die TMU stallt den kompletten Pixelshader.

Wenn die zusätzliche ALU ausreicht um alle VLIWs ohne Texturezugriff zu beseitigen sind sie Neutral.

Irgendwann braucht man nur eine brutale Monster-Crossbar. Wahrscheinlich wird man da auch zu einem Bus übergehen.

Bus über einen dermassen großen Chip ist Problematisch. Ring ist besser.

Demirug
2005-11-02, 17:27:05
Meinst du es ist wirklich noch genügend Parallelität in den gängigen Pixelshadern vorhanden um 3 ALUs zu füttern?

Wieso Parallelität?

Coda
2005-11-02, 17:30:19
Naja voneinander abhängige Befehle lassen sich wohl kaum auf die 2 ALUs verteilen, nicht?

robbitop
2005-11-02, 19:05:41
je mehr ALU's desto schneller kann wieder gesamplet werden. Klar greift das Gesetz des sinkenden Grenzertrages aber dennoch könnte es noch etw rausholen. Vorrausgesetzt man erweitert die Temp Register.

Demirug
2005-11-02, 19:20:33
Naja voneinander abhängige Befehle lassen sich wohl kaum auf die 2 ALUs verteilen, nicht?

Ich schrieb ja extra in Reihe. Also so das eine ALU auf das Ergebniss der anderen zugreifen kann.

Coda
2005-11-02, 19:23:07
Das ganze ist doch superskalar oder nicht? Da stellt sich doch immer das Problem, dass man im Code genügend Parallelitäten finden muss um die Einheiten überhaupt füttern zu können.

tombman
2005-11-02, 19:40:00
http://www.theinquirer.net/?article=27400

*dancing* :cool:

Demirug
2005-11-02, 19:48:04
Das ganze ist doch superskalar oder nicht? Da stellt sich doch immer das Problem, dass man im Code genügend Parallelitäten finden muss um die Einheiten überhaupt füttern zu können.

Wieso Superskalar? Nur weil die Pipeline ein VLIW benutzt bedeutet das ja nicht das die ganzen Rechenwerke Nebeneinander liegen.

Die TMU greift ja auf die Ergebnisse der ALU1 zu und die ALU2 wiederum auf die Ergebnisse der TMU. Eine ALU3 könnte dann so eingebaut werden das sie das Ergebniss von ALU2 nutzt.

Coda
2005-11-02, 19:49:43
Naja nVIDIA redet doch selber von "superscalar". Du meinst das ganze ist Pipeline-Artig angeordnet?

mindfaq
2005-11-02, 19:52:53
Jetzt sollte NV nur noch eine kostenlose Umtauschaktion für Besitzer der normalen GTX einführen. Aber das ist natürlich nur ein Wunschtraum...

Marc-
2005-11-02, 19:58:06
http://www.theinquirer.net/?article=27400

*dancing* :cool:

The inquirer ist natürlich DIE Referenz auf die ich mich verlassen taet:) Ich möcht nur an die Story des Inquirers über die 32 Pipes der R520 erinnern, die auch aus sichersten quellen "confirmed" war:)
Erstaunlich wie leicht manche leuts auf derlei "hitmachines" reinfallen:)

Coda
2005-11-02, 19:59:37
R520 hat auch 32 Pipelines. 16 ALU-Pipelines und 16 TMU-Pipelines ;)

StefanV
2005-11-02, 20:03:15
Ich denke wenn sie auf 90nm wechseln könnten sie nochmal ordentlich den Takt erhöhen. Es gibt da 2 Möglichkeiten:
INTEL/ATI 90nm: viele Hitze
AMD 90nm: kühl
Tschuldigung, aber was du hier schreibst ist absoluter blödsinn!

Denn es sollte nicht unerwähnt bleiben, das der Preskopp mal eben etwa doppelt so viele Logiktransistoren wie der Nordwald hat...

ASrock_User
2005-11-02, 20:04:37
The inquirer ist natürlich DIE Referenz auf die ich mich verlassen taet:) Ich möcht nur an die Story des Inquirers über die 32 Pipes der R520 erinnern, die auch aus sichersten quellen "confirmed" war:)
Erstaunlich wie leicht manche leuts auf derlei "hitmachines" reinfallen:)

Also, so ganz mag ich an eine 7800 GTX 512 "Ultra" ;) auch noch nicht glaube... vor allem nicht mit diesen Taktraten. 500/1400 Mhz wäre ne Sache, die ich mir noch vorstellen könnte.

*rumspinn on*
Oder nV bringt eine solche Karte echt raus, die kaum verfügbar (uznd viel zu teuer) ist, aber auf dem Blatt hat nV was "richtig" schnelles. ATi würde natürlich mit einem entsprechenden "Pressegegenstück" nachziehen *gg*
*rumspinn off*

Aber.. warten wir einfach ab. Wir werden sehen was uns die Zeit für Antworten bringt. Evt. sind wir am Montag schlauer ;)


Gruß
ASrock_USer

Demirug
2005-11-02, 20:13:04
Naja nVIDIA redet doch selber von "superscalar". Du meinst das ganze ist Pipeline-Artig angeordnet?

Natürlich ist es eine Pipeline. Das geht ja auch klar aus den ganzen CineFX Unterlagen hervor.

Coda
2005-11-02, 20:21:24
Natürlich ist es eine Pipeline. Das geht ja auch klar aus den ganzen CineFX Unterlagen hervor.Danke, man lernt immer wieder was dazu ;)

Bin wieder auf das Marketing hereingefallen das groß was von "superscalar" redet.

Demirug
2005-11-02, 20:50:08
Danke, man lernt immer wieder was dazu ;)

Bin wieder auf das Marketing hereingefallen das groß was von "superscalar" redet.

Streng nach der Definition bedeutet "superscalar" ja nichts anderes als "Mehr als ein Scalar gleichzeitig".

reunion
2005-11-02, 20:52:24
3 ALUs pro Pipeline wird ineffizient. Da macht es eher Sinn TMUs von den ALUs zu entkoppeln wie es ATi auch macht.


Die TMUs entkoppelt man nicht mal eben so, nV hat konsequent das Rampage-Design übernommen und perfektioniert, daran wird man IMHO auch festgehalten (müssen). Ich rechne mit zwei zusätzlichen, weitgehend unveränderten Quads bei G75.

Demirug
2005-11-02, 21:01:50
Die TMUs entkoppelt man nicht mal eben so, nV hat konsequent das Rampage-Design übernommen und perfektioniert, daran wird man IMHO auch festgehalten (müssen). Ich rechne mit zwei zusätzlichen, weitgehend unveränderten Quads bei G75.

Dafür wären dann auch ~33% mehr Bandbreite zu veranschlagen.

Das alternative Design exsitiert BTW schon einige Zeit. Die Frage ist ob nVidia vor D3D10 überhaupt noch ein Modifiziertes Design bringt.

Hakim
2005-11-02, 21:06:44
puhh...550 Mhz core und 512 MB@900 Mhz speicher!! Zumindest die 900 mhz Speicher etwas übertrieben finde ich. Wenn so eine Version mit annährend der angegebenen werten kommen sollte wirds die x1800xt SPEEDMAßIG sehr schwer haben.

Godmode
2005-11-02, 21:29:46
Tschuldigung, aber was du hier schreibst ist absoluter blödsinn!

Denn es sollte nicht unerwähnt bleiben, das der Preskopp mal eben etwa doppelt so viele Logiktransistoren wie der Nordwald hat...

Du solltest mehr zwischen den Zeilen lesen! Ich meinte damit dass es maßgeblich auf das Design ankommt und brachte eben das was wir jetzt haben/hatten ein: die 90nm Chips von Intel und ATI werden recht "warm", wo hingegen die AMD Chips recht kühl bleiben.

Folgerung: wenn das neue Nvidia Produkt im 90nm Prozess auch so "nett" läuft wie im 110nm Verfahren dann wird diese GPU auch wieder schnell werden.

robbitop
2005-11-02, 21:34:35
R520 hat auch 32 Pipelines. 16 ALU-Pipelines und 16 TMU-Pipelines ;)
LOL. Das ist ja beinahe der gleiche Schwachsinn wie bei XGI mit den 8 Textur und 4 PS Pipes.

robbitop
2005-11-02, 21:38:27
Dafür wären dann auch ~33% mehr Bandbreite zu veranschlagen.

Das alternative Design exsitiert BTW schon einige Zeit. Die Frage ist ob nVidia vor D3D10 überhaupt noch ein Modifiziertes Design bringt.
Mehr Quads würden die Performance aber dennoch erhöhen. Wenn die Pipes rumstallen, brauchen sie eh keine Bandbreite. Und schon bei Spielen wie FEAR sieht man immer mehr, wie sich das Verhältnis Bandbreite - Rechenleistung langsam ändert.

Coda
2005-11-02, 21:42:01
LOL. Das ist ja beinahe der gleiche Schwachsinn wie bei XGI mit den 8 Textur und 4 PS Pipes.Natürlich. Aber für Inquirer würde das reichen ;)

reunion
2005-11-02, 21:49:30
Du solltest mehr zwischen den Zeilen lesen! Ich meinte damit dass es maßgeblich auf das Design ankommt und brachte eben das was wir jetzt haben/hatten ein: die 90nm Chips von Intel und ATI werden recht "warm", wo hingegen die AMD Chips recht kühl bleiben.

Folgerung: wenn das neue Nvidia Produkt im 90nm Prozess auch so "nett" läuft wie im 110nm Verfahren dann wird diese GPU auch wieder schnell werden.

Nur hat das nicht das Geringste damit zu tun, dass diese Chips in 90nm Strukturbreite gefertigt werden.
Der 90nm Prozess ist in jeder Hinsicht besser, als der 110nm Prozess - wenn nV den Takt oder die Transistorenanzahl also nicht übermäßig anhebt, wird man damit keinerlei Probleme haben. Manche scheinen offensichtlich zu glauben, der 90nm Prozess ist irgendwie verflucht, dem ist sicher nicht so.

reunion
2005-11-02, 21:51:13
Dafür wären dann auch ~33% mehr Bandbreite zu veranschlagen.



Sollte mit GDDR4 spielend erreichbar sein.
Selbst die neuen 900Mhz GDDR3-Chips würden bei unverändertem Takt die Bandbreite um 50% anheben.

LOL. Das ist ja beinahe der gleiche Schwachsinn wie bei XGI mit den 8 Textur und 4 PS Pipes.


So schwachsinnig ist das gar nicht IMHO.
Im Gegensatz zum nV-Design sind die ALUs und die TMUs bei ATI nicht in Serie-, sondern parallel geschaltet; ist halt alles Definitionssache.

Godmode
2005-11-02, 22:30:52
Der 90nm Prozess ist in jeder Hinsicht besser, als der 110nm Prozess - wenn nV den Takt oder die Transistorenanzahl also nicht übermäßig anhebt, wird man damit keinerlei Probleme haben.

Ich sagte nirgendwo dass der 90nm Prozess schlecht ist.


Manche scheinen offensichtlich zu glauben, der 90nm Prozess ist irgendwie verflucht, dem ist sicher nicht so.

Du triffst es auf den Punkt, ich wollte eigentlich nur sagen: Es kommt drauf an ob Nvidia im 90nm Prozess sowas wie AMD schafft oder "nur" sowas wie Intel.

Die gelbe Eule
2005-11-02, 22:43:56
Biite bleibt doch beim Thema, einen G80 Thread gibt es bereits. Sammelt mal bitte mehr Infos.

Einige User die an der Quelle sitzen habe schon die Zahlen bestätigt, wenn auch net offiziell. Der R580 muss sich schon strecken um dann dagegen zu halten.

Paul Brain
2005-11-02, 23:26:08
http://www.theinquirer.net/?article=27400

*dancing* :cool:
Ganz genau... :tongue:

nVidia, ich komme! ;D
Damit sind dann viell. auch endlich anständige AA-Modi größer als 2x in hohen Auflösungen möglich. Ich liebe Speicherbandbreite :biggrin:

Einziger mir momentan in den Sinn kommender Nachteil: Kein gleichzeitiges HDR und AA *argl* :mad:
TV-out soll bei nVidia ja derzeit sogar besser sein als bei ATi, ich hoffe, daß die VGA-Signalqualität zumindest ebenbürtig ist, um 1800x1400 bei 85Hz scharf darstellen zu können. Naja, wozu gibts das 14-tägige Rückgaberecht :wink:
Jetzt brauch ich nur noch einen passenden Kühler von Innovatek, und eine Single-Slotblende, damit ich den PCI-Slot neben der Graka nutzen kann... *kopfkratz*

Marc-
2005-11-03, 00:24:41
Biite bleibt doch beim Thema, einen G80 Thread gibt es bereits. Sammelt mal bitte mehr Infos.

Einige User die an der Quelle sitzen habe schon die Zahlen bestätigt, wenn auch net offiziell. Der R580 muss sich schon strecken um dann dagegen zu halten.

von welchen "Usern die an der Quelle sitzen" redest du bitte? Was hier manche leuts denken was für unglaublich vertrauliche informationsquellen sie besitzen und ach wie nah sie am puls der zeit sitzen... sagenhaft. Und wie du "deinen" thread zu lenken gedenkst... hallo? das is ein diskussionsthread, kein "wir-sammeln-die-krassesten-hype-news-thread".
Was ich seit etwa 100 posts schon fragen wollte... warum eigentlich "gelbe Eule" und nicht "grüner troll"?

Coda
2005-11-03, 00:31:58
Jeder selber muss wissen was er glaubt, aber man muss nicht deswegen rumstänkern.

Ich meine, was ist daran so unwahrscheinlich? Das der G70 mit 550Mhz läuft zeigt die Quadro und der Speicher ist auch vorhanden. Das es gleich 900Mhz werden glaube ich allerdings auch nicht ganz.

Ich kann mich auch nicht dran erinnern dass ein GPU-Hersteller es ausgelassen hat seine Vorteile auszuspielen.

Die gelbe Eule
2005-11-03, 00:34:35
Marc- liebt es zu stänkern, ob im Marktplatz oder woanders. Sachlichkeit ist bei Ihm unbekannt.

Das Thema ist und bleibt 7800GTX mit 512MB GDDR3 1700MHz, manche gehen leider zu weit davon weg.

Davon ab:

NVidia hat aus Fehlern gelernt und ATi muss für seine bluten. Noch nichtmal ist die 1800Xt erhältlich, schon kommt die Bombe von NV hinterher, die alle vorherigen ATi Zweifler wieder zweifeln läßt.

SKYNET
2005-11-03, 00:47:06
The inquirer ist natürlich DIE Referenz auf die ich mich verlassen taet:) Ich möcht nur an die Story des Inquirers über die 32 Pipes der R520 erinnern, die auch aus sichersten quellen "confirmed" war:)
Erstaunlich wie leicht manche leuts auf derlei "hitmachines" reinfallen:)



:rolleyes: :rolleyes: :rolleyes:

es gibt hier wen, der wusste schon vor wochen diese spezifikationen... achne, derjenige hatte das ja noch jemanden anders erzählt... :o)

tombman
2005-11-03, 00:50:15
Jeder selber muss wissen was er glaubt, aber man muss nicht deswegen rumstänkern.

Ich meine, was ist daran so unwahrscheinlich? Das der G70 mit 550Mhz läuft zeigt die Quadro und der Speicher ist auch vorhanden. Das es gleich 900Mhz werden glaube ich allerdings auch nicht ganz.

Ich kann mich auch nicht dran erinnern dass ein GPU-Hersteller es ausgelassen hat seine Vorteile auszuspielen.

Eben, 550core sind Realität, und ob es jetzt 1700, 1800 oder 1900 mem sind, die 550core allein brechen der X1800XT das Genick ;)

tombman
2005-11-03, 00:51:19
Ganz genau... :tongue:

nVidia, ich komme! ;D
Damit sind dann viell. auch endlich anständige AA-Modi größer als 2x in hohen Auflösungen möglich. Ich liebe Speicherbandbreite :biggrin:

Einziger mir momentan in den Sinn kommender Nachteil: Kein gleichzeitiges HDR und AA *argl* :mad:
TV-out soll bei nVidia ja derzeit sogar besser sein als bei ATi, ich hoffe, daß die VGA-Signalqualität zumindest ebenbürtig ist, um 1800x1400 bei 85Hz scharf darstellen zu können. Naja, wozu gibts das 14-tägige Rückgaberecht :wink:
Jetzt brauch ich nur noch einen passenden Kühler von Innovatek, und eine Single-Slotblende, damit ich den PCI-Slot neben der Graka nutzen kann... *kopfkratz*

Davon zwei Stück @ SLI und dann fett FEAR quälen ;)

SKYNET
2005-11-03, 00:51:33
Eben, 550core sind Realität, und ob es jetzt 1700, 1800 oder 1900 mem sind, die 550core allein brechen der X1800XT das Genick ;)


ohne passenden bandbreite wird das aber nix so... ;o)

tombman
2005-11-03, 00:52:53
ohne passenden bandbreite wird das aber nix so... ;o)
Hehe, also da verlaß ich mich ganz auf Nvidia, daß sie einem 550er core einen angemessen Speicher zur Seite stellen ;)

Coda
2005-11-03, 00:54:43
850 würden da schon reichen.

Paul Brain
2005-11-03, 01:35:02
850 würden da schon reichen.
Da isses zu 900 aber auch nicht mehr weit...

Paul Brain
2005-11-03, 01:37:38
Davon zwei Stück @ SLI und dann fett FEAR quälen ;)
Jop. Und Battlefield. Und CS:S, DOD:S. Und: - endlich! - Riddick! Das Game hab ich schon Monate daheim liegen, mags auf der X800XT aber einfach ned spielen, das is ja selbst in 1600x1200 2xAA eine Zumutung. :biggrin:

tombman
2005-11-03, 01:43:10
Jop. Und Battlefield. Und CS:S, DOD:S. Und: - endlich! - Riddick! Das Game hab ich schon Monate daheim liegen, mags auf der X800XT aber einfach ned spielen, das is ja selbst in 1600x1200 2xAA eine Zumutung. :biggrin:
Hehe, kenn ich, ohne gescheite hardware werden games nicht gespielt :)

Spasstiger
2005-11-03, 03:12:09
Hehe, kenn ich, ohne gescheite hardware werden games nicht gespielt :)

Ne X800 XT als nicht gescheite Hardware zu bezeichnen kann ja eigentlich nur von Tombman kommen. :biggrin:
Gut, ehrlichgesagt hatte ich Riddick bei mir auch nicht drauf, habs lieber anderswo auf schnelleren Grakas gezockt. Meine Radeon 9700 schwächelt nämlich schon etwas in Riddick, auch in 1024x768.

Bei der GeForce 7800 "Ultra" (GTX 512 MB) bin ich mal auf die Verfügbarkeit gespannt. Wenn Nvidia es tatsächlich schafft, die "Ultra" vor der X1800 XT auf den Markt zu bringen, wäre das sehr böse für ATI. Denn ich kann mir vorstellen, dass einige schon sehnlichst auf die neueste High-End-Generation mit 512 MB warten und dann eben die Karte holen, die eher verfügbar ist.

Die gelbe Eule
2005-11-03, 03:21:15
Werden sie wohl nicht ganz schaffen, mitte November ist angepeilt. Wäre auch schlau, da dann die ganze neuen Reviews erstmal abklingen und die 7800 "Ultra" dann alleine präsentiert werden kann.

mapel110
2005-11-03, 06:29:39
Werden sie wohl nicht ganz schaffen, mitte November ist angepeilt.
Wenn man die derzeitige Verfügbarkeit der X1800 XL anschaut einen Monat nach Vorstellung, dürften sie keine Probleme haben, mitte November größere Verfügbarkeit als ATI zu erreichen im High End.

seahawk
2005-11-03, 07:31:33
Dafür wären dann auch ~33% mehr Bandbreite zu veranschlagen.

Das alternative Design exsitiert BTW schon einige Zeit. Die Frage ist ob nVidia vor D3D10 überhaupt noch ein Modifiziertes Design bringt.

Imho nicht.

Verfügbarkeit einer 512MB "Ultra" GTX, ist für NV überhaupt kein Problem. Der Preis regelt die Nachfrage und damit das notwendige Angebot.

Marc-
2005-11-03, 08:45:46
Jeder selber muss wissen was er glaubt, aber man muss nicht deswegen rumstänkern.

Ich meine, was ist daran so unwahrscheinlich? Das der G70 mit 550Mhz läuft zeigt die Quadro und der Speicher ist auch vorhanden. Das es gleich 900Mhz werden glaube ich allerdings auch nicht ganz.

Ich kann mich auch nicht dran erinnern dass ein GPU-Hersteller es ausgelassen hat seine Vorteile auszuspielen.

Es geht nur darum, das es a bissel lächerlich ist wenn ständig die leuts irgendwelche "todsicheren quellen" zitieren um die jeweils ihnen genehme firma zu hypen.
Den Coretakt kann ich mir im übrigen auch gut vorstellen... die angaben über den speicher sind eher absurd und würden auch nicht den bisher gezeigten entwicklungsschritten der firmen entsprechen.
Zumal zumindest die Frage der verfügbarkeit bei entsprechenden speichermodulen da ist... ich WEISS das sie am markt sind, aber in welchen stueckzahlen und zu welchem preis?

Marc-
2005-11-03, 08:49:19
Marc- liebt es zu stänkern, ob im Marktplatz oder woanders. Sachlichkeit ist bei Ihm unbekannt.

Das Thema ist und bleibt 7800GTX mit 512MB GDDR3 1700MHz, manche gehen leider zu weit davon weg.

Davon ab:

NVidia hat aus Fehlern gelernt und ATi muss für seine bluten. Noch nichtmal ist die 1800Xt erhältlich, schon kommt die Bombe von NV hinterher, die alle vorherigen ATi Zweifler wieder zweifeln läßt.

Wann wo kommt die bombe? wann wo kann ich sie kaufen? für welchen preis?
Zurück zur sachlichkeit... wo sind denn nun deine "sicheren quellen? sag sie doch einfach mal, denn genau darum gings. Denn irgendwelche nebulösen aussagen sind nicht wirklich das was ich unter sachlichkeit verstehe. Und genau das kreide ich dir auch an.

Spasstiger
2005-11-03, 08:51:03
Es geht nur darum, das es a bissel lächerlich ist wenn ständig die leuts irgendwelche "todsicheren quellen" zitieren um die jeweils ihnen genehme firma zu hypen.

Die todsichere Quelle ist bestimmt ein Bekannter, der einen kennt, dessen Bekannter mal für Nvidia auf einer Messe Merchandising betrieben hat. ;D

Marc-
2005-11-03, 08:56:11
Eben, 550core sind Realität, und ob es jetzt 1700, 1800 oder 1900 mem sind, die 550core allein brechen der X1800XT das Genick ;)

Wir können ja mal sobald die karten raussind vergleichen als was NV sie WIRKLICH rausbringt. Ich tippe auf 500-550 coretakt seitens NV (natürlich wirds auch wieder goldensample hersteller geben usw... wie bei ati allerdings auch) und 1400-1500 speicher.
Mal sehen wer näher dranliegt.

seahawk
2005-11-03, 08:59:18
Ne 800MHZ DDR wird es imho schon sein.

phil99
2005-11-03, 11:09:21
Den Coretakt schaffe ich mit meiner auch schon fast.
Hab da wohl ein Luckysample.
Dafür ärger ich mich über den lahmen Speicher, der gerade bei hohen Auflösungen wichtig wäre, und natürlich 512mb sind für Highend eigentlich wichtig, damit auch zukünftige Spiele nicht auslagern müssen.
2 von diesen Karten im SLI, vom Preis abgesehen, machen dann wieder Sinn, wobei
ich 4 GT im SLI für sinnfrei halte, wegen dem kleinen Speicher.

Omnicron
2005-11-03, 12:02:49
Aus sehr sicherer Quelle weiss ich nun die Taktraten zumindest eines Herstellers. ;D
Mittels einer kleinen Spannungserhöhung ist der Coretakt näher an 600 als an 550. ;D
Und der Ausdruck 1,7Ghz+ Speicher stimmt auch, wobei es noch lange nicht 1,8Ghz ist.
Kann natürlich sein das dies nur ihre OCing version ist und die normalen Karten bisserl niedriger takten.

Marc-
2005-11-03, 12:14:23
Aus sehr sicherer Quelle weiss ich nun die Taktraten zumindest eines Herstellers. ;D
Mittels einer kleinen Spannungserhöhung ist der Coretakt näher an 600 als an 550. ;D
Und der Ausdruck 1,7Ghz+ Speicher stimmt auch, wobei es noch lange nicht 1,8Ghz ist.
Kann natürlich sein das dies nur ihre OCing version ist und die normalen Karten bisserl niedriger takten.

Was hier alle für leuts "sichere Quellen" haben... und jede "sichere Quelle" sagt was anderes und keiner gibt mal preis welche denn seine ist. sowas überzeugt:)

robbitop
2005-11-03, 12:18:46
Aus sehr sicherer Quelle weiss ich nun die Taktraten zumindest eines Herstellers. ;D
Mittels einer kleinen Spannungserhöhung ist der Coretakt näher an 600 als an 550. ;D
Und der Ausdruck 1,7Ghz+ Speicher stimmt auch, wobei es noch lange nicht 1,8Ghz ist.
Kann natürlich sein das dies nur ihre OCing version ist und die normalen Karten bisserl niedriger takten.
XFX oder Gähnward? ^^

Anarchy-HWLUXX
2005-11-03, 12:25:31
Ömmm ... geilo ;D

http://www.hardwareluxx.de/story.php?id=3078

Screen : http://static.hardwareluxx.de:443/hardware/andreas/News/XFX_GeForce7800GTX_512MB_BIOS.jpg

9800ProZwerg
2005-11-03, 12:28:27
Muss als ATI Fan sagen: "ATI it`s over"
550+MHZ Core und 850+MHZ Mem, da hat die XT nicht mehr viel zu melden, außer der besseren Bildquali!

Die Runde geht wohl an NV!

erwingage
2005-11-03, 12:33:38
ich fange gleich an zu sparen! :biggrin:
wenn man sich vorstellt irgendwann mal 2 von den dingern im gehäuse zu haben! :eek:

Omnicron
2005-11-03, 12:48:57
Ömmm ... geilo ;D

http://www.hardwareluxx.de/story.php?id=3078

Screen : http://static.hardwareluxx.de:443/hardware/andreas/News/XFX_GeForce7800GTX_512MB_BIOS.jpg


Welcher Hannes hat das denn geleakt :mad:

robbitop
2005-11-03, 13:13:30
Welcher Hannes hat das denn geleakt :mad:
Ach komm! Das war doch klar, dass XFX und Leadtek ein paar Mhz über die NV Spezifikationen gehen werden. Kann sich jeder zusammenreimen.
Und die 550/1700 werden doch von mehreren Sites inzwischen angegeben.

Marc-
2005-11-03, 13:16:08
Welcher Hannes hat das denn geleakt :mad:

wenns denn geleaked ist... sollte nicht schwer sein ein bestehendes bios mittels bios editor dementsprechend zu modifizieren. Schliesslich ist da lediglich ein screen eines geöffneten bios files zu sehen... nix von der dazugehörigen karte (sofern es sie denn gibt).
Ein bios für einen solchen shot zu editieren sollte für geübte finger mit entsprechenden tools ne sache von 5 minuten sein.
BTW: Aber trotzdem immer wieder lustig zu sehen wie leuts auf die kleinste spekulation abgehen:)

Anarchy-HWLUXX
2005-11-03, 13:25:59
wenns denn geleaked ist... sollte nicht schwer sein ein bestehendes bios mittels bios editor dementsprechend zu modifizieren. Schliesslich ist da lediglich ein screen eines geöffneten bios files zu sehen... nix von der dazugehörigen karte (sofern es sie denn gibt).
Ein bios für einen solchen shot zu editieren sollte für geübte finger mit entsprechenden tools ne sache von 5 minuten sein.
BTW: Aber trotzdem immer wieder lustig zu sehen wie leuts auf die kleinste spekulation abgehen:)


schau dir mal post #165 an, erst lesen, dann Zeit anschauen, dann die zeit vom HWLuxx news post ...



Und Pic, hier schwirrt was rum, bzw. wohl die QUELLE vom BIOS File :|

http://www.mvktech.net/index.php?option=com_simpleboard&func=view&catid=10&id=24239

http://www.forumdeluxx.de/forum/showthread.php?t=169894

Marc-
2005-11-03, 13:34:06
schau dir mal post #165 an, erst lesen, dann Zeit anschauen, dann die zeit vom HWLuxx news post ...



Und Pic, hier schwirrt was rum, bzw. wohl die QUELLE vom BIOS File :|

http://www.mvktech.net/index.php?option=com_simpleboard&func=view&catid=10&id=24239

http://www.forumdeluxx.de/forum/showthread.php?t=169894
aeh und?
Was soll mir das sagen? Die sichere quelle ein HWluxx redakteur? der auch nicht annähernd präzise sagen kann wos herkommt? sondern nur schwammig davon redet das was im netz aufgetaucht ist? weia
Und selbst wenn ich das biosfile selbst hab, was besagt das? Wie soll ich sehen obs net einfach editiert is? also wirklich...

Die gelbe Eule
2005-11-03, 13:37:16
Marc- versucht leider immer kläglich Leute persönlich anzugreifen. Jetzt wo die erste handfesten Infos durchsickern, kommt er mit der Faketour. Ist die Karte mit den Taktraten verfügbar, hat er komischerweise Postpause ^^

Denke nicht das die 580 MHz das letzte Wort sind, XFX hat immer etwas Luft nach oben gehabt. Wer jemals so eine Karte besaß, weiß was ich meine.

Anarchy-HWLUXX
2005-11-03, 13:39:53
aeh und?
Was soll mir das sagen? Die sichere quelle ein HWluxx redakteur? der auch nicht annähernd präzise sagen kann wos herkommt? sondern nur schwammig davon redet das was im netz aufgetaucht ist? weia
Und selbst wenn ich das biosfile selbst hab, was besagt das? Wie soll ich sehen obs net einfach editiert is? also wirklich...

Du hast dir die Links nichtmal angesehen denn dann wüsstest du das die Quelle MKVtech oist und nicht HWLuxx :rolleyes:

Setzen, 6.

Gandharva
2005-11-03, 13:40:26
http://www.mvktech.net/components/com_simpleboard/uploaded/images/7800GTX-512MB-bg-01.jpg

550/1700 ist wohl sehr wahrscheinlich für die normalo-ausführung. das gibt ein saftiges leistungsplus gegenüber der 256mb variante. tippe mal auf 550€ einstandspreis.

Marc-
2005-11-03, 13:44:28
Marc- versucht leider immer kläglich Leute persönlich anzugreifen. Jetzt wo die erste handfesten Infos durchsickern, kommt er mit der Faketour. Ist die Karte mit den Taktraten verfügbar, hat er komischerweise Postpause ^^

Denke nicht das die 580 MHz das letzte Wort sind, XFX hat immer etwas Luft nach oben gehabt. Wer jemals so eine Karte besaß, weiß was ich meine.

Das siehste sogar richtig. Was soll ich dann auch sagen wenns so ist? Dann war eine quelle ausnahmsweise mal doch zuverlässig. Durchchaust du aber mal die früheren threads dieser thematik siehst du das es bisher äusserst selten so war. Sollte sich das alles so bestätigen können wir doch alle früh und glücklich sein, wo siehst du da den angriff? das ich mich bemühe dinge dann zu glauben wenn es nachvollziehbare belege gibt? seltsame ansicht buah.

Omnicron
2005-11-03, 13:48:55
Und Pic, hier schwirrt was rum, bzw. wohl die QUELLE vom BIOS File :|

http://www.mvktech.net/index.php?option=com_simpleboard&func=view&catid=10&id=24239

http://www.forumdeluxx.de/forum/showthread.php?t=169894


Ich dachte das Teil wär secret, aber wenn er es schon gestern hochgeladen hat und sogar ein Pic gibt.. wieso hat er nich selber ne News gebracht hat und HWLuxx die Hits überlässt is mir allerdings ein Rätsel.
Die 580Mhz sind @ 1.45V default. Ich denke das is die OC Version und die Standardkarten sind 550/1700.

reunion
2005-11-03, 13:50:46
http://www.mvktech.net/components/com_simpleboard/uploaded/images/7800GTX-512MB-bg-01.jpg

550/1700 ist wohl sehr wahrscheinlich für die normalo-ausführung. das gibt ein saftiges leistungsplus gegenüber der 256mb variante. tippe mal auf 550€ einstandspreis.


Schade, dass man den Quadro-Kühler benutzt.
So muss man praktisch drei Slots unter der Grafikkarte freilassen, um den Luftstrom des ohnehin schon hohen Kühlers nicht komplett abzuwürgen - hier wäre ein Radiallüfter, der die Luft aus dem Gehäuse bläst, die bessere Wahl gewesen.

Marc-
2005-11-03, 13:51:50
Du hast dir die Links nichtmal angesehen denn dann wüsstest du das die Quelle MKVtech oist und nicht HWLuxx :rolleyes:

Setzen, 6.
Hmm. und wenn du mir nu noch den qualitativen unterschied erklärst?
Zumal es wohl noch mehr zu denken geben sollte wenn die quelle eine explizite biosmodding und editing seite ist. aber danke für den hinweis:)

Gandharva
2005-11-03, 13:52:51
Das siehste sogar richtig. Was soll ich dann auch sagen wenns so ist? Dann war eine quelle ausnahmsweise mal doch zuverlässig. Durchchaust du aber mal die früheren threads dieser thematik siehst du das es bisher äusserst selten so war. Sollte sich das alles so bestätigen können wir doch alle früh und glücklich sein, wo siehst du da den angriff? das ich mich bemühe dinge dann zu glauben wenn es nachvollziehbare belege gibt? seltsame ansicht buah.

falls es dir bisher entgangen ist: wir befinden uns hier im spekulation (http://de.wikipedia.org/wiki/Spekulation)s-forum. falls es nachvollziehbare belege zu dieser karte geben wird die von nv offiziell bestätigt sind wird man diesen thread hier wohl nicht mehr brauchen. mal ganz abgesehen davon das ich deine auftreten hier im thread zum kotzen finde und mit dieser meinung wohl nicht alleine bin.

Gandharva
2005-11-03, 13:56:46
Schade, dass man den Quadro-Kühler benutzt.
So muss man praktisch drei Slots unter der Grafikkarte freilassen, um den Luftstrom des ohnehin schon hohen Kühlers nicht komplett abzuwürgen - hier wäre ein Radiallüfter, der die Luft aus dem Gehäuse bläst, die bessere Wahl gewesen.

so spart man eben entwicklungskosten und erhöht den gewinn. auf so kurze zeit einen neuen kühler aus der tasche zu ziehen wäre wohl sowieso nicht drin.

Demirug
2005-11-03, 13:57:23
Schade, dass man den Quadro-Kühler benutzt.
So muss man praktisch drei Slots unter der Grafikkarte freilassen, um den Luftstrom des ohnehin schon hohen Kühlers nicht komplett abzuwürgen - hier wäre ein Radiallüfter, der die Luft aus dem Gehäuse bläst, die bessere Wahl gewesen.

Verbaut ja nicht jeder den Referenzkühler.

Marc-
2005-11-03, 14:03:03
falls es dir bisher entgangen ist: wir befinden uns hier im spekulation (http://de.wikipedia.org/wiki/Spekulation)s-forum. falls es nachvollziehbare belege zu dieser karte geben wird die von nv offiziell bestätigt sind wird man diesen thread hier wohl nicht mehr brauchen../QUOTE]
Und wenn du dir den von dir freundlicherweise verlinkten artikel selbst mal zu gemüte führen wuerdest, wuerdest du sehen, das zu der spekulation eben auch die anderslautende spekulation gehört bzw das anzweifeln der richtigkeit der spekulationen:)

[QUOTE=Striper]mal ganz abgesehen davon das ich deine auftreten hier im thread zum kotzen finde und mit dieser meinung wohl nicht alleine bin.
Und auch dieses kompliment kann ich unbesehen zurueckgeben:) simmer uns ja einig dann:)

Spasstiger
2005-11-03, 14:03:28
Schade, dass man den Quadro-Kühler benutzt.
So muss man praktisch drei Slots unter der Grafikkarte freilassen, um den Luftstrom des ohnehin schon hohen Kühlers nicht komplett abzuwürgen - hier wäre ein Radiallüfter, der die Luft aus dem Gehäuse bläst, die bessere Wahl gewesen.

Dafür ist das Teil wohl recht effizient und leise. Hat doch auch was. Ein NV Silencer oder ein Zalman VF-700 kann imo nicht gegen den Quadro-Kühler anstinken.

Blaire
2005-11-03, 14:14:16
http://www.mvktech.net/components/com_simpleboard/uploaded/images/7800GTX-512MB-bg-01.jpg

550/1700 ist wohl sehr wahrscheinlich für die normalo-ausführung. das gibt ein saftiges leistungsplus gegenüber der 256mb variante. tippe mal auf 550€ einstandspreis.

Haben will :)

Die gelbe Eule
2005-11-03, 14:24:31
Was für die Quadro gut ist, kann für die GTX nicht schlecht sein. Bin gespannt wer sich noch an anderen Lösungen versuchen wird. Silencerkarten wird es eh geben, doch diese Heatpipekonstruktion gefällt mir am besten.

Bleibt abzuwarten ob die 7800GT auch noch einen Boost bekommt oder die 7800GTX 256MB nun unter 400€ fällt.

Hakim
2005-11-03, 14:24:59
ob es wohl versionen geben wird wo 2 chips mit dem coretakt auf einer Platine verbaut werden :biggrin:

Blaire
2005-11-03, 14:29:16
Muss als ATI Fan sagen: "ATI it`s over"
550+MHZ Core und 850+MHZ Mem, da hat die XT nicht mehr viel zu melden, außer der besseren Bildquali!

Die Runde geht wohl an NV!

Vieleicht bringt Nvidia ja auch besseres AF mit den neuen Karten?

Godmode
2005-11-03, 14:41:39
ob es wohl versionen geben wird wo 2 chips mit dem coretakt auf einer Platine verbaut werden :biggrin:

Kann ich mir fast nicht vorstellen, da die Dual 7800GT von Asus schon extrem heiß wird, vielleicht im nächst kleineren Fertigungsprozess.

Anarchy-HWLUXX
2005-11-03, 14:45:49
Vieleicht bringt Nvidia ja auch besseres AF mit den neuen Karten?


wäre definitiv ne gute idee ... dirkter konter auf ATi und das "HQ AF", das es ja scho bei GF3/4/FX gab ...


Ich glaub bans3i hat in der Sig stehen was nVidia mit der extrapower anstellen kann ;)

erwingage
2005-11-03, 15:00:18
http://www.gamestar.de/news/hardware/29385/

mehr sage ich nicht dazu! ;D

Dunkeltier
2005-11-03, 15:09:19
*lol* Schön editiertes Bios. Denn normalerweise wird der Speichertakt unter 2D nicht geändert. Und wieso sollte die Geometric Clock gleich dem Rest sein? Absolut unglaubwürdig, mal abgesehen von den zu hohen Taktraten.

Gandharva
2005-11-03, 15:20:44
w00t! billiger als ich dachte!

http://www.fscomputer.de/index/programID/14/partnerID/1684/requestedArt/13466925/Article/13466925.html

529,00€

Hakim
2005-11-03, 15:26:02
Ich glaub bei der Rohleistung kann sich Nv ruhig erlauben 1-3 % performance zugunsten der BQ zu opfern.

Blaire
2005-11-03, 15:29:06
w00t! billiger als ich dachte!

http://www.fscomputer.de/index/programID/14/partnerID/1684/requestedArt/13466925/Article/13466925.html

529,00€

Das lässt darauf schließen das Nvidia 512MB Karten sofort auf den Markt schmeisst. :) Hab mir mal gleich 2 bestellt (obwohl ich denke das die die sowieso noch nicht lieferbar haben...)

Marc-
2005-11-03, 15:31:37
*lol* Schön editiertes Bios. Denn normalerweise wird der Speichertakt unter 2D nicht geändert. Und wieso sollte die Geometric Clock gleich dem Rest sein? Absolut unglaubwürdig, mal abgesehen von den zu hohen Taktraten.

PSSSSSSST... doch nich sowas sagen dunkeltier... dann gehörst doch auch zu den Pösen Purschen... nich tun sowas:)

Gandharva
2005-11-03, 15:35:42
Das lässt darauf schließen das Nvidia 512MB Karten sofort auf den Markt schmeisst. :) Hab mir mal gleich 2 bestellt (obwohl ich denke das die die sowieso noch nicht lieferbar haben...)

ich melde schonmal interesse an einer deiner 2 alten an! achja: du spinnst doch! ;)

Spasstiger
2005-11-03, 15:35:50
Das lässt darauf schließen das Nvidia 512MB Karten sofort auf den Markt schmeisst. :) Hab mir mal gleich 2 bestellt (obwohl ich denke das die die sowieso noch nicht lieferbar haben...)

Was machst dann mit deinen alten GTXen? Ich kauf dir eine für 250 Euro ab. ;D

Anarchy-HWLUXX
2005-11-03, 15:40:22
PSSSSSSST... doch nich sowas sagen dunkeltier... dann gehörst doch auch zu den Pösen Purschen... nich tun sowas:)



Normalerweise wird der nicht verändert ... aber normalerweise rennt der auch net mit 1.7GHz in der gegend rum ...

Coda
2005-11-03, 16:13:24
PSSSSSSST... doch nich sowas sagen dunkeltier... dann gehörst doch auch zu den Pösen Purschen... nich tun sowas:)Nehmen wir mal an wir hätten recht, was dann?

Könntest du es bitte bleiben lassen im Speku-Forum jeden der meint etwas zu wissen was dir nicht in den Kram macht dumm anzumachen? Kindisch ist das, nichts anderes.

DeX
2005-11-03, 16:18:23
so spart man eben entwicklungskosten und erhöht den gewinn. auf so kurze zeit einen neuen kühler aus der tasche zu ziehen wäre wohl sowieso nicht drin.

Naja, Kosten vielleicht, aber Zeit?
Ich will ja nicht überheblich klingen, aber einen Kühler zu designen ist wohl ne Arbeit von einem Tag ;)

Hakim
2005-11-03, 16:18:30
Meint ihr die Werden wie bei der GTX einführung auch direkt zu bestellen sein?

Coda
2005-11-03, 16:19:53
Meint ihr die Werden wie bei der GTX einführung auch direkt zu bestellen sein?Ja.

Marc-
2005-11-03, 16:22:22
Nehmen wir mal an wir hätten recht, was dann?

Könntest du es bitte bleiben lassen im Speku-Forum jeden der meint etwas zu wissen was dir nicht in den Kram macht dumm anzumachen? Kindisch ist das, nichts anderes.

Jups- das ist es wohl in der tat. Wundert mich das grade dir als selbsternanntem guru der bios shot net ein wenig seltsam vorkommt. Es ist zudem wohl eher rar, das ein bios eher "irgendwo" auftaucht als die entsprechende karte.
Naja. man tut wohl einiges um das zu pushen was einem lieb ist. Und ich denke das hat nix mit spekulieren oder sonstwas zu tun.

Coda
2005-11-03, 16:24:16
Wo zur Hölle habe ich mich als Guru bezeichnet? Geht's noch?

Das BIOS kann echt sein oder auch nicht, darauf will ich mich auch nicht verlassen. Wenn der Default-Clockspeed 550 ist wird aber 580 auch möglich sein bei selektierten Chips, das sind nur 5% mehr.

Godmode
2005-11-03, 16:24:52
du spinnst doch! ;)

Man müsste das mal durchrechnen, wenn man immer das neueste kauft und das alte(was eigentlich auch noch recht neu ist) gleich über Ebay verscherbelt wieviel man da drauf zahlt?

edit: Weis man was ob es von 3DC und Computerbase Reviews geben wird?

mindfaq
2005-11-03, 16:36:43
Braucht wer mitte November eine XFX 7800GTX Extreme ? :biggrin:

Blaze
2005-11-03, 16:39:42
Ich bleib dabei, ich warte auf den G80... :cool:

Hakim
2005-11-03, 16:40:10
Kommt drauf an, wie verzweifelt willst du den unter wert verkaufen? :biggrin:

Die gelbe Eule
2005-11-03, 16:51:32
http://img2.pcpop.com/ArticleImages/400x300/0/150/000150791.jpg
http://img2.pcpop.com/ArticleImages/400x300/0/150/000150792.jpg

Komischerweise berichten sämtliche Asienseiten "nur" über 530MHz Core/ 1800MHz RAM. Wäre natürlich auch sinnig unter der Quadro zu bleiben ;)

Coda
2005-11-03, 16:55:48
Das oberste Bild ist eine 256MiB Version, also nichts neues.

Wäre natürlich auch sinnig unter der Quadro zu bleibenDie Quadros liefen bis zum G70 immer mit weniger Takt als die entsprechenden Consumer-Boards. Insofern weiß ich nicht was für einen Sinn du da erkennst.

Die gelbe Eule
2005-11-03, 16:57:23
Ja habe ich entfernt, habe die Chips die fehlen übersehen ^^

Das Sample ist übrigens von Colorful aus China ;)

Die Quadros liefen bis zum G70 immer mit weniger Takt als die entsprechenden Consumer-Boards. Insofern weiß ich nicht was für einen Sinn du da erkennst.

Ja bis zum G70. Jetzt könnte man durch den Taktunterschied auch das HighEnd Modell numerisch nach oben setzen.

Coda
2005-11-03, 17:30:11
Die Quadros haben die FireGLs und Realizms als Gegner, nicht die Konsumentenhardware.

Die Quadro FX 4500 ist wohl ein Resultat der sehr starken Realizm 800.

Omnicron
2005-11-03, 17:42:51
Jups- das ist es wohl in der tat. Wundert mich das grade dir als selbsternanntem guru der bios shot net ein wenig seltsam vorkommt. Es ist zudem wohl eher rar, das ein bios eher "irgendwo" auftaucht als die entsprechende karte.
Naja. man tut wohl einiges um das zu pushen was einem lieb ist. Und ich denke das hat nix mit spekulieren oder sonstwas zu tun.

So rar ist das nicht. Das 7800GTX BIOS hatten wir 3 Wochen bevor die Karte vorgestellt wurde. Hab noch keine Anwort von Mavke, aber das scheint dieselbe Quelle zu sein. Ich gehe sehr stark davon aus das dies BIOS echt ist.

Wenn ich mir die Timings anschaue scheinen dort Samsung K4J52324QC-BJ11 oder BJ12 verbaut zu sein. Und Nvidia scheint dies schon seit Vorstellung der 7800GTX geplant haben, bzw hat schon bei den ersten 7800GTX BIOSen die Timings für diesen Speicher drin.
Bei diesem 512er ist ein noch heftigeres (loseres) Set drinne, entweder Samsung hat noch was schnelleres als 1.1ns vor oder ein anderer RAM Hersteller braucht das.

Die gelbe Eule
2005-11-03, 17:45:30
Es ist BJ11 verbaut ;)

reunion
2005-11-03, 17:52:21
Vieleicht bringt Nvidia ja auch besseres AF mit den neuen Karten?


Unwarscheindlich, der Core ist weiterhin ein G70.

Es ist BJ11 verbaut ;)

Anders wären die anvisierten Taktraten auch gar nicht zu erreichen.

Meint ihr die Werden wie bei der GTX einführung auch direkt zu bestellen sein?


Zu bestellen ja, verfügbar nein.

Komischerweise berichten sämtliche Asienseiten "nur" über 530MHz Core/ 1800MHz RAM. Wäre natürlich auch sinnig unter der Quadro zu bleiben ;)


Man sollte bedenken, dass nV drei Clockdomains im G70 hat.
Diese können sich auch deutlicher als bei der 256MB-Version voneinander unterscheiden. Bei den durchgesickerten Infos wird natürlich meistens der höchste Takt angegeben, welcher nicht zwangsläufig der Entscheidende sein muss.

Coda
2005-11-03, 18:24:06
Zu bestellen ja, verfügbar nein.Sagt wer?

reunion
2005-11-03, 18:32:38
Sagt wer?


Ich.

Die gelbe Eule
2005-11-03, 18:43:30
NV hat die ganze Zeit gesagt, das es keinen Paperlaunch mehr geben wird. Warten wir mal Mitte November ab. Solange werden die XT Zweifler auch noch warten ;)

Coda
2005-11-03, 18:48:47
Ich.Die Chips gibt's ausreichend, den Speicher auch, genügend Zeit war auch vorhanden.

reunion
2005-11-03, 18:56:07
NV hat die ganze Zeit gesagt, das es keinen Paperlaunch mehr geben wird. Warten wir mal Mitte November ab. Solange werden die XT Zweifler auch noch warten ;)

nV arbeitet wie jedes andere Unternehmen gewinnorientiert, und deshalb wird es auch sicherlich mal wieder zu einem Paperlaunch kommen - sofern sich das finanziell lohnen könnte.

Die Chips gibt's ausreichend, den Speicher auch, genügend Zeit war auch vorhanden.

Die Chips gibts, klar. Aber sonst?
Ich sage ja nicht, dass man die Karten jetzt monatelang nicht kaufen wird können, am 7.11. wird dies aber IMHO noch nicht der Fall sein. Diese Aussage ist im übrigen nicht aus der Luft gegriffen, dafür habe ich durchaus Gründe.

Die gelbe Eule
2005-11-03, 19:08:18
Finanziell würde es sich für dieses Quartal lohnen, die XT in die Schranken zu weisen, damit alle die nun auf die XT gewartet haben, die neue GTX vielleicht ins Auge fassen.
Man hat aus Fehlern gelernt und diese Vorsprung möchte man innehalten. Immer einen draufzusetzen, wenn es erforderlich ist, besser gehts gar nicht ...


Ich wüßte nicht was man an einem Paperlaunch verdient, außer vielleicht Aufmerksamkeit ...

reunion
2005-11-03, 19:21:54
Ich wüßte nicht was man an einem Paperlaunch verdient, außer vielleicht Aufmerksamkeit ...

Dann denk' mal logisch drüber nach.

Coda
2005-11-03, 19:27:57
Wer sagt denn das nVIDIA am gleichen Tag launcht?

Marc-
2005-11-03, 19:35:23
Finanziell würde es sich für dieses Quartal lohnen, die XT in die Schranken zu weisen, damit alle die nun auf die XT gewartet haben, die neue GTX vielleicht ins Auge fassen.
Man hat aus Fehlern gelernt und diese Vorsprung möchte man innehalten. Immer einen draufzusetzen, wenn es erforderlich ist, besser gehts gar nicht ...


Ich wüßte nicht was man an einem Paperlaunch verdient, außer vielleicht Aufmerksamkeit ...

1. erreicht man das, was man augenscheinlich jetzt schon erreicht, nämlich man lenkt die aufmerksamkeit auf eine noch tollere karte anstatt auf den naeherrückenden XT launch. Das alleine rentiert sich schon fundamental
2. hält man potentielle XT käufer vom kauf ab indem man die suppe am köcheln hält und immer wieder baldige verfügbarkeit zusichert (selbst wenn man weiss das es nicht so sein wird).
3. Es gibt nichts besseres als eine hochgelobte sache solang sie noch nicht erschienen ist. Es werden keine schwächen bekannt, jeder projeziert seine hoffnungen und vorstellungen hinein. (bekanntes psychisches phänomen was ständig benutztes werbemittel ist). Sobald die karte erscheint kann sie faktisch nur enttäuschen gegen das was vorher erwartet worden ist. (siehe r520, siehe GF FX, siehe nie erschienene spiele wie duke nukem 3d, siehe HL2).
4. Muss man solange nicht die harten fakten bringen, nämlich den preis, der vermutlich eben so konkurrenzlos heftig sein wird.
4a. Man kann die karte nach einigen wochen/monaten tatsächlich in ausreichender verfügbarkeit zu annehmbaren preisen launchen, da der preis durch weniger ausschuss, vorprodukzierte chargen und bessere verfügbarkeit und preise beispielsweise der speicherchips in annehmbare regionen sinkt.

Blaire
2005-11-03, 19:50:15
Bissl eng wirds werden. :wink:
http://img126.imageshack.us/img126/4746/topview0me.gif
http://img126.imageshack.us/img126/7135/frontview7pg.gif

deLuxX`
2005-11-03, 19:50:22
Ich hab' keinen Zweifel daran, dass nVIDIA die Chips in ausreichenden Stückzahlen so hoch takten kann. Nur kann ich mir beim besten Willen nicht vorstellen wie sie an ausreichend viel von diesen, doch ziemlich hoch getakteten Rams kommen wollen.
Hieß es nicht, Sony und M$ würden die alle aufkaufen?

-deLuxX`

Coda
2005-11-03, 20:01:25
Tun sie auch, aber Infineon produziert ja jetzt auch GDDR3, weshalb die Situation wohl etwas besser geworden ist.

KaKÅrØT
2005-11-03, 20:08:21
NVIDIA pwnd ATI! zitat: (bin zu faul zu schreiben) ;D und habe keine ahnung obs schon gepostet wurde.....also


NVIDIA: GeForce 7800 GTX 512 MB mit 550/1800 MHz?

Erst gestern hatten wir darüber berichtet, dass NVIDIA am 7. November eine " GeForce 7800 Ultra 512MB" auf den Markt bringen würde. Gänzlich falsch war die Meldung nicht, aber es gibt Neuigkeiten.


So wird die 512 MB-Version der GeForce 7800 GTX offenbar doch nicht den Beinamen "Ultra" tragen, obwohl sie es durchaus verdient hätte. Wie bereits
berichtet, will NVIDIA den Takt gegenüber der normalen 7800 GTX erhöhen - das allerdings stärker als gedacht. So soll die GeForce 7800 GTX mit 512 MB statt mit 430 MHz GPU- und 1.200 MHz Speichertakt mit 550 MHz GPU- und 1.800 MHz Speichertakt arbeiten. Wobei bis jetzt nicht ganz klar ist, ob die 1.800 MHz exakt stimmen. Aber als grobe Hausnummer kann man diesen Wert ansehen.

Die Karte wird augenscheinlich auch nicht am 7. November erscheinen, sondern erst gegen Mitte des Monats. Dafür soll die GeForce 6800 GS an diesem Datum das Licht der Welt erblicken.

NVIDIA wird also das Original 7800 GTX PCB Design verändert haben, um dermaßen hoch takten zu können. Auch bei der Kühlung wird NVIDIA Veränderungen vorgenommen haben, man kann wohl von einer Dual-Slot-Kühlung ausgehen können.

wenn das stimmen sollte (werden wir ja früher oder später erfahren (1.8GHZ speicher! omg)

Da sieht es mit ati schlecht aus ,aber mal abwarten auf die ersten tests und daten... ich wette ein paar aktualiesieren alle 5min die japanische site :D

deLuxX`
2005-11-03, 20:09:11
Tun sie auch, aber Infineon produziert ja jetzt auch GDDR3, weshalb die Situation wohl etwas besser geworden ist.

Ah, ok. Das wusste ich nicht.

-deLuxX`

Die gelbe Eule
2005-11-03, 20:13:07
@Blaire:

Wenn man die alten Layouts nimmt ja, mit dem neuen DFI saollte es ohne Probleme Zwsichenraum geben.

Hakim
2005-11-03, 20:17:35
ne dumme frage: Wird der kommende chip noch in 1.10 mic oder schon in 0.90 mic hergestellt?

Coda
2005-11-03, 20:27:39
Der Chip ist identisch.

reunion
2005-11-03, 21:02:10
Tun sie auch, aber Infineon produziert ja jetzt auch GDDR3, weshalb die Situation wohl etwas besser geworden ist.

Nur ist Infineon weit davon entfernt, 1.1ns-GDDR3-Speicher produzieren zu können, momentan erreicht man maximal 2ns.


Wer sagt denn das nVIDIA am gleichen Tag launcht?

INQ. :D

Coda
2005-11-03, 21:17:31
Nur ist Infineon weit davon entfernt, 1.1ns-GDDR3-Speicher produzieren zu können, momentan erreicht man maximal 2ns.Ich rede ja auch nicht über das RAM für die Karte sondern über das für die XBox und die PS3. Ich nehme an dass da auch Infineon produziert.

INQ. :DMan braucht Inq ja auch nicht alles glauben.

Demirug
2005-11-03, 21:44:58
Ich rede ja auch nicht über das RAM für die Karte sondern über das für die XBox und die PS3. Ich nehme an dass da auch Infineon produziert.

AFAIK liefert Infineon da nur Flashspeicher.

TheCounter
2005-11-03, 22:22:09
Versteh nicht ganz wieso es unbedingt so schlecht für ATi aussehen sollte? Die können genauso noch schnelleren Speicher verbauen oder sogar GDDR4 nehmen wenn er denn verfügbar ist. Also entschieden ist da noch garnix, selbst wenn eine 7800GTX mit 550/900 kommen sollte (*hint* X1800XT-PE *hint* ;)).

Coda
2005-11-03, 22:27:57
Für die Füllrate bräuchte ATi 825Mhz. Auch wenn die Architektur besser ist werden es mindestens 750Mhz sein müssen.

Jetzt ist die Frage ob R520 das mit einigermaßen brauchbaren Kühllösungen noch mitmacht. Imho bringen sie vorher verfrüht R580 auf den Markt.

Spasstiger
2005-11-03, 22:28:17
Versteh nicht ganz wieso es unbedingt so schlecht für ATi aussehen sollte? Die können genauso noch schnelleren Speicher verbauen oder sogar GDDR4 nehmen wenn er denn verfügbar ist. Also entschieden ist da noch garnix, selbst wenn eine 7800GTX mit 550/900 kommen sollte (*hint* X1800XT-PE *hint* ;)).

Nvidia könnte ATI aber immer noch den X1800 XT Launch versauen. Und das wäre schon sehr tragisch für ATI. Aber ATI hat mit Sicherheit damit gerechnet, weshalb es ja auch schon die ganzen X1800 XT Benches gibts (auch wenn der offizielle Launch erst diesen Monat ist).

Für die Füllrate bräuchte ATi 825Mhz. Auch wenn die Architektur besser ist werden es mindestens 750Mhz sein müssen.

Es kommt jetzt drauf an, welche Füllrate du meinst. ;)
Die Pixelfüllrate ist bei der Radeon X1800 XT auch nach Erscheinen der GeForce 7800 "Ultra" höher (16*625 vs. 16*550).

Über Füllrate und Pipelines bei den aktuellen Karten zu argumentieren wird sowieso immer unhandlicher.
Aber genauso wäre es schlecht, nur über die Anzahl der ALUs zu argumentieren.
Man muss immer schauen, was hinten rauskommt.
Natürlich wird Nvidia Ende des Monats mit großer Sicherheit besser dastehen als ATI (Leistung + Verfügbarkeit).

mapel110
2005-11-03, 22:33:34
Versteh nicht ganz wieso es unbedingt so schlecht für ATi aussehen sollte? Die können genauso noch schnelleren Speicher verbauen oder sogar GDDR4 nehmen wenn er denn verfügbar ist. Also entschieden ist da noch garnix, selbst wenn eine 7800GTX mit 550/900 kommen sollte (*hint* X1800XT-PE *hint* ;)).
Schau dir mal die Verfügbarkeit der 500/500 Radeon hat, sieht nicht toll aus. Wenn nvidia es schafft, 550/850 zu liefern, bedeutet das 28 % mehr Rohpower. Und das holt ATI bei ihrem Design nicht mehr raus. Sie haben ja schon 625/750. Rechne da mal 28% drauf. Dann bist du bei 800 Mhz und ATI hat jetzt schon Dual Slot Kühlung.
Derzeit spricht alles dafür, dass ATI hinterher hinken wird, was Rohleistung angeht. Aber es gibt immernoch einen guten Grund, eine Radeon zu nehmen und das ist Bildqualität pro fps. Da kann nvidia wohl nicht so schnell kontern. Ich glaubs mittlerweile nicht mehr, dass einfach so per Treiber mehr AF-Qualität möglich ist bei nvidia, sonst hätte man es wohl auch weiterhin als Option angeboten, auch bei NV4x.

Es kommt jetzt drauf an, welche Füllrate du meinst. ;)
Die Pixelfüllrate ist bei der Radeon X1800 XT auch nach Erscheinen der GeForce 7800 "Ultra" höher (16*625 vs. 16*550).

Das sollte die Texelfüllrate sein.
/edit
okay, Pixelfüllrate.

Blaire
2005-11-03, 22:34:07
Wenn man jetzt noch SLI mit einrechnet , kann Ati gleich einpacken. Von Crossfire X1800 Benchmarks weit und breit keine Spur und Ati wird sicher bei ihren Treibern viel Lehrgeld zahlen. Nvidia hat auch einige Monate gebraucht um vernünftige Treiber für SLI zu entwickeln.

Coda
2005-11-03, 22:35:03
Es kommt jetzt drauf an, welche Füllrate du meinst. ;)
Die Pixelfüllrate ist bei der Radeon X1800 XT auch nach Erscheinen der GeForce 7800 "Ultra" höher (16*625 vs. 16*550).Die Pixelfüllrate ist scheiß egal. Und das mein ich genau so.

Über Füllrate und Pipelines bei den aktuellen Karten zu argumentieren wird sowieso immer unhandlicher.Das passt immer noch ganz gut so wie die Benchmarks im Moment aussehen.

Man darf nicht vergessen dass die Optimierungen an den einzelnen Einheiten gegen einen Grenzwert gehen der langsam erreicht wird. Und dann zählt nur noch Anzahl * Takt.

mapel110
2005-11-03, 22:37:03
hm?! Ist ROPs mal Chiptakt nicht Texelfüllrate und Pipes mal Chiptakt Pixelfüllrate?!

Coda
2005-11-03, 22:39:15
Andersrum natürlich. Die ROPs schreiben die Pixel in den Framebuffer. TMUs * Takt gibt Texelfüllrate.

Spasstiger
2005-11-03, 22:48:53
Die Pixelfüllrate ist scheiß egal. Und das mein ich genau so.

Das sehe ich genauso.

robbitop
2005-11-03, 23:02:01
Für die Füllrate bräuchte ATi 825Mhz. Auch wenn die Architektur besser ist werden es mindestens 750Mhz sein müssen.

Wieso sollte sie besser sein?

mapel110
2005-11-03, 23:04:04
Wieso sollte sie besser sein?
Derzeit siehts wohl so aus, dass ATI mehr Power pro Pipe hat als nvidias G70.