Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - G90 im H2 2007? Alles rund um die neue Generation G9x - Teil 2
w0mbat
2007-09-20, 21:39:19
Morgen kann ich dir wohl sagen was für eine Karte das war.
mike49
2007-09-20, 21:40:48
Also wohl eher G98 oder unterstützen die anderen G8x schon den Display-Port?
Keine Ahnung, glaube aber eher nicht.
Ich tippe (bzw. hoffe ;)) dann auch mal, daß das ein G98 ist...
AnarchX
2007-09-20, 21:41:35
@w0mbat
Gut.
Jedenfalls könnte es aber wohl auch ein G8x sein, da hier offensichtlich zwei Transmitter-Chips verbaut sind, die den Ports vorgeschalten sind.
Die gelbe Eule
2007-09-20, 21:50:11
Wahrscheinlich eine 8600er (Quadro?), deswegen kein SLi. Das PCB sieht stark danach aus.
Falls ATI/AMD es bis dahin schaffen, wieder einen echten Knaller auf den Markt zu bringen: Ja!
Ansonsten sieht man ja gerade was passiert, wenn der Konkurrenzdruck ausbleibt: Das High-End von 2006 bleibt auch in 2007 die schnellste Karte auf dem Markt...
konkurrenz ok aber die spiele machen allein schon genug druck.
akt. spiele machen einen g80 schon gut druck aber für crysis sind die besten karten einfach ein witz.
wenn ich das beste auf dem markt kaufe und 500euro ausgebe,dann will,ja genau WILL ich ein 100% super flüssiges spielerlebnis.
aber nv/ati machen immer nur das nötigste
Die gelbe Eule
2007-09-20, 23:45:14
Nur Du vergisst das man hier nicht wegen Spielen die VGA Karten auf den Markt wirft. Eher müssten die Spieleprogrammierer zusehen, daß die breite Masse es spielen kann, nicht nur die, welche 500€ ausgeben.
(+44)
2007-09-20, 23:48:28
Es gab immer Spiele, die mit der neu eingeführten Highend-Generation ruckeln, wenn man es mit den Settings übertreibt.
Die Entwicklung bei den Grafikkarten geht doch sowieso sehr schnell, was wir brauchen ist vernünftige Software.
Die 8800GTX (okay, jetzt die "Ultra") stand ne Weile an der Spitze - wenn sie ein Jahr lang gehalten hat, darf auch ein Nachfolger kommen, aber bitte nicht nach 4 Monaten, sowas frustet dann doch *g* (7800GTX=>7800GTX-512)
Ich selbst überlege, meine 8800GTX noch vor dem G90-Launch zu verkaufen, mal sehn. Allerdings hab ich nicht den Geizhals-Neupreis gezahlt sondern einiges weniger, da fällt mein Wertverlust wohl nicht soo krass aus.
Neosix
2007-09-21, 00:00:03
blos nicht zuschnell sein. von g90 ist in den ganzen 13 seiten garnicht die rede. und die tatsache das er bisher nicht angekündigt wurde bedeutet das er auch nicht in 3 tagen plötzlich rauskommt. du wirst mit deiner GTX denke ich noch länger sich zufrieden geben ^^
Slipknot79
2007-09-21, 00:08:12
Morgen kann ich dir wohl sagen was für eine Karte das war.
Es ist morgen.
(+44)
2007-09-21, 01:15:47
blos nicht zuschnell sein. von g90 ist in den ganzen 13 seiten garnicht die rede. und die tatsache das er bisher nicht angekündigt wurde bedeutet das er auch nicht in 3 tagen plötzlich rauskommt. du wirst mit deiner GTX denke ich noch länger sich zufrieden geben ^^
Nein, 12 Monate sind schon ein Extrem, normalerweise sind die Intervalle kürzer:
6800 Ultra: Mai 2004
7800GTX: Juni 2005
7800GTX/512: Nov. 2005
7900GTX: März 2006
8800GTX: November 2006
Es wird einfach bald ein neuer Highend-Chip kommen, selbst wenns nur ein shrinked G80 (G90) mit deutlich mehr Takt wird. (Siehe 7800GTX auf 7900GTX, G70=>G71)
Oder man verbreitert die Architektur bei nahezu gleichem Takt, wie bei nV40 (16/6) auf G70 (24/8) geschehen.
Ailuros
2007-09-21, 06:37:25
Eine high end Loesung wird es zwar geben, nur wird diese eben nicht "G90" heissen. Irgendwann wird es schon klar werden wie beide IHVs und warum genau ihre roadmaps geaendert haben.
Adam D.
2007-09-21, 07:15:43
Es bleibt für mich weiterhin die eine Frage: wir haben eine 8700GTS für die Lücke 8600-8800GTS und wir werden wohl auch eine neue High-End-Karte (>8800GTX) sehen. Ich hoffe sehr, dass die 8800GTS auch eine Ablösung bekommt, denn das dürfte die Karte sein, die viele Anwender jetzt brauchen, wenn man mal anschaut, was dann in nächster Zeit an Spielen kommt.
Plz Nvidiaz, giev teh 8800GTS-Nachfolgerz :uconf3:
Ri*g*g*er
2007-09-21, 10:03:11
Die sollen mal nen bischen Gas geben.
Hab ne X1900XT im Rechner und so langsam geht meiner Grafikkarte die Puste aus bei 1920 x 1200 aber ne "alte" 8800 GTX pack ich mir nicht mehr in den Rechner.
Ich hoffe die bringen passend für Crysis ne neue Highend Grafikkarte die dazu schön leise ist und weniger Strom schluckt als die 8800 GTX.
Dann ist das Teil so gut wie gekauft.
Gruss
Ri*g*g*er
Ailuros
2007-09-21, 10:17:35
Refreshes = aus alt mach neu + etwas mehr Leistung + hoeherer Preis.
Henroldus
2007-09-21, 10:34:45
Die sollen mal nen bischen Gas geben.
Hab ne X1900XT im Rechner und so langsam geht meiner Grafikkarte die Puste aus bei 1920 x 1200 aber ne "alte" 8800 GTX pack ich mir nicht mehr in den Rechner.
Ich hoffe die bringen passend für Crysis ne neue Highend Grafikkarte die dazu schön leise ist und weniger Strom schluckt als die 8800 GTX.
Dann ist das Teil so gut wie gekauft.
Gruss
Ri*g*g*er
100% Agreement :frown:
if (Preis< 350€)
seahawk
2007-09-21, 11:16:54
Nein, 12 Monate sind schon ein Extrem, normalerweise sind die Intervalle kürzer:
6800 Ultra: Mai 2004
7800GTX: Juni 2005
7800GTX/512: Nov. 2005
7900GTX: März 2006
8800GTX: November 2006
Es wird einfach bald ein neuer Highend-Chip kommen, selbst wenns nur ein shrinked G80 (G90) mit deutlich mehr Takt wird. (Siehe 7800GTX auf 7900GTX, G70=>G71)
Oder man verbreitert die Architektur bei nahezu gleichem Takt, wie bei nV40 (16/6) auf G70 (24/8) geschehen.
Du vergißt 7950GX2
AnarchX
2007-09-21, 12:30:04
Du vergißt 7950GX2
... und die 8800Ultra.;)
(+44)
2007-09-21, 12:44:39
...Stimmt, wenn man die Beiden noch dazunimmt werden die Zeitlichen Abstände nur noch extremer.
Was ich sagen wollte ist einfach, dass mit dem G80 wieder mal ne Karte gab, die ein volles Jahr am Markt war und nicht von ner GX2, nem Refresh oder sonstigem überholt wurde. (Von der Ultra mal abgesehn.)
Und diese Entwicklung ist angesichts der Entwicklung seit der 7800GTX-7800GTX512-7900GTX-7950GX2 ganz gut, der G7x wurde IMO ziemlich ausgeschlachtet, auf dem Rücken der Kunden die alle paar Monate einen Nachfolger ihrer Karte erblicken durften. Andererseits bin Mitte 2006 günstig an ne 7900GTX gekommen, das hab ich der GX2 zu verdanken, hmm.
Eine high end Loesung wird es zwar geben, nur wird diese eben nicht "G90" heissen. Irgendwann wird es schon klar werden wie beide IHVs und warum genau ihre roadmaps geaendert haben.
Meinst du damit, dass wieder eine GX2-Karte kommen soll? Was spricht dagegen, einen G80 zu verbreitern? (Im nV40=>G70-Stil.) (Oder ganz simpel, Shrink und Taktraten hochtreiben, siehe G71)
Ailuros
2007-09-21, 14:42:56
Meinst du damit, dass wieder eine GX2-Karte kommen soll? Was spricht dagegen, einen G80 zu verbreitern? (Im nV40=>G70-Stil.) (Oder ganz simpel, Shrink und Taktraten hochtreiben, siehe G71)
Es muss nicht mir nichts dir nichts eine GX2 Loesung sein, obwohl die meisten Indizien in diese Richtung deuten. Falls sie zu einer single chip high end Loesung greifen sollten, heisst sie dann immer noch "G92" und ich will ernsthaft bezweifeln dass es mehr als 8 cluster/6 ROP partitions mit um einiges hoehere Frequenzen als G80 sein wird.
Folgendes Dilemma: warum ein NV4x-->G70 Schritt und nicht ein G70-->G71 Schritt stattdessen? Mit 800MHz und 32 TMUs bekommt man einen Batzen mehr Fuellrate im Vergleich zu G80 und man erhoeht einfach die Bandbreite mit schnellerem Speicher. Warum sollte man die bisherige "schlanke" aber hochgetaktete Shader Strategie des G80 etwas aendern?
Ob man jetzt zwei Performance GPUs auf ein PCB schnallt oder zur single chip Loesung greift sind die Endwerte bei den bis jetzt spekulierten Frequenzen eigentlich gleich. Eine GX2 Loesung duerfte IMHLO weniger kosten und auch weniger Strom verbrauchen als eine single-chip Loesung. Kommt ganz drauf an wie "mager" das uebliche Sparschwein von NVIDIA diesmal wieder ist.
(+44)
2007-09-21, 16:09:21
Hmm, nur waren die GX2 (nicht ohne Grund) teilweise auch unbeliebt.
Bis SLI mal rundläuft muss man rumprobieren und basteln, für den faulen Zocker der sich nicht weiter mit den Treibern beschäftigen will ist das sicher nicht optimal.
Und auch ich, der ich mich schnell mit SLI und all seinen Tücken und Macken auseinandersetzen würde, hätte immernoch Frust wenn es dann doch nicht die gewünschte Mehrleistung bringt - in einigen Fällen stinkt die teure GX2 dann nämlich gegen die GTX ab.
Wenn sie es allerdings schaffen, mehrere Chips zu verbauen die als "Ganzes" angesteuert werden, ohne Leistungsverlust - dann gerne.
Aber das scheint so einfach nicht zu sein, dann würde SLI ja auch immer 100%ig skalieren.
Was rätst du den 8800GTX/Ultra-Besitzern hier und jetzt? Noch die Karte ohne großen Verlust verkaufen, weil mit einer deutlich potenteren Karte zu rechnen ist? (Der Wert einer GTX fällt dann sicher deutlich) (Die Gerüchte von wegen Doppelte Ultra-Performance, realistisch?)
Oder entspannt abwarten, da die neuen Karten nur ca 30% Mehrleistung bringen, aber 550€ teuer sind... (Wie z.B. von G70 auf G71, 7800GTX auf 7900GTX)
PS: Wieso bist du dir so sicher, dass ein "G90" kein G80-Shrink mit deutlich mehr Takt ist?
(Mich interessiert die ganze Entwicklung deshalb, weil ichs schon oft geschafft habe, Karten fast verlustfrei abzustoßen, bevor was neues kommt *g* - ich betrachte die Dinger als Kapital - die Einzige Karte die ich "alt werden" hab lassen war eine 9600Pro)
Adam D.
2007-09-21, 16:15:26
Naja, wenn der G92 wirklich die angepeilte Performance erzielt, dann erzielen 2 maximal 80% mehr, was sicher nicht 2x Ultra ist ;) Über Ultra, aber wohl nicht viel.
Die gelbe Eule
2007-09-21, 16:16:59
Ultra ist ja auch nur übertaktet, was beim G92 ja auch möglich ist und bestimmt nicht zu knapp.
Adam D.
2007-09-21, 16:24:13
Mein Standpunkt ist immer noch, dass G92 = 8700GTS. Und 2x 8700GTS ist schnell, aber nicht der Mörder.
G92 is dead welcome D8E.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3197&Itemid=51
(+44)
2007-09-21, 17:06:49
Erst Midrange und dann Enthusiast? Na da hat er sich wieder sauber widersprochen.
w0mbat
2007-09-21, 17:35:10
D8V (G98) = Value
D8M (G96) = Mainstream
D8E (G92) = Enthusiast
AnarchX
2007-09-21, 17:58:01
Fehlt nur noch:
D8P = 8700GTS/8800GT
edit:
D8V (G98) = Value
D8M (G96) = Mainstream
D8E (G92) = Enthusiast
Wobei dies eigentlich nicht unbedingt Sinn macht, da ja Desktop Generation 8 schon vergeben sein müsste:
D8V - G86@64Bit (D8V-SE/GS)
D8M - G84/G86 (D8M-SE/GT/GTS)
D8E - G80 (D8E-GTS/GTX/Ultra)
Fehlt eben nur noch D8P - G92?
:confused:
D8V (G98) = Value
D8M (G96) = Mainstream
D8E (G92) = Enthusiast
Wieso? Laut Fudzilla kommt der Enthusiast erst Anfang 2008, und der G92 kommt im November. Das kann also nicht stimmen?
Kommt ganz drauf an wie "mager" das uebliche Sparschwein von NVIDIA diesmal wieder ist.
Oder wie "dick" bzw. lange der echte Nachfolger G100 (Gx20) noch braucht. Ob man einen Re-Refresh Chip aus Marketingtechnischen Gründen bringen kann/muss. nV ist nicht in der Position alle Karten (Taktraten) auf den Tisch legen zu müssen. Und da man eh die Margen halten bzw. erhöhen will im Highend, wird G9x Highend wie G70-G71 werden, ggf sogar weniger im Verhältniss was Leistungstechnisch hinten rumkommt.
prophet
2007-09-21, 20:50:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3197&Itemid=51
Wie bekifft war der Typ? :|
Mein Fazit: ausser V, M, E(nthusiast) kommt noch High-End. E kommt Nov (G92) und High-End kommt nächstes Jahr.
Richtig? :|
Also doch jetzt ne GTX kaufen :confused:
Neosix
2007-09-21, 21:25:29
nein bleib standhaft. es wird was besseres kommen. wann auch immer :)
seahawk
2007-09-21, 22:11:39
Enthusiast ist High-End - Performance ist die Mittelstufe
warum sollte man auch zum crysis release eine neue top karte rausbringen.
das spiel wurde perfekt für grakafirma programmiert,es läuft nämlich auf allen pc´s so richrig schön scheiße langsam (betatester)
crytek und die programmierkünste ;D
Ailuros
2007-09-21, 23:49:16
Oder wie "dick" bzw. lange der echte Nachfolger G100 (Gx20) noch braucht. Ob man einen Re-Refresh Chip aus Marketingtechnischen Gründen bringen kann/muss. nV ist nicht in der Position alle Karten (Taktraten) auf den Tisch legen zu müssen. Und da man eh die Margen halten bzw. erhöhen will im Highend, wird G9x Highend wie G70-G71 werden, ggf sogar weniger im Verhältniss was Leistungstechnisch hinten rumkommt.
Microsoft hat bis jetzt wieviele API Veroeffentlichungs-Termine einhalten koennen? Projeziert ist D3D11 bzw. Vienna afaik fuer 2009, was mir aber uebermaessig optimistisch klingt.
Die wichtigere Frage ist was genau D3D11 ausser der Tesselations-Einheit noch mit sich bringen wird.
Ailuros
2007-09-21, 23:51:01
Enthusiast ist High-End - Performance ist die Mittelstufe
G71 galt als Codename sowohl fuer die 7900GT/GS Dinger als auch fuer die 7900GTX bzw. 7950GX2.
prophet
2007-09-22, 09:51:34
Enthusiast ist High-End - Performance ist die Mittelstufe
was nun? :|
D8E and D8V where V stands for Value comes in November while the high end part will be pushed in early 2008.
Dieser Satz macht grammatikalisch sowieso keinen Sinn, genauso wie der ganze Text :ulol:
seahawk
2007-09-22, 13:34:25
was nun? :|
Dieser Satz macht grammatikalisch sowieso keinen Sinn, genauso wie der ganze Text :ulol:
Ein Chip kann beides sein.
warum sollte man auch zum crysis release eine neue top karte rausbringen.
das spiel wurde perfekt für grakafirma programmiert,es läuft nämlich auf allen pc´s so richrig schön scheiße langsam (betatester)
crytek und die programmierkünste ;D
Na, dann haben die Jungs eben keine Ahnung. Ich finde, es läuft eigentlich ganz akzeptabel.
Außerdem: Auf welchen PCs konnte man Far Cry bei Erscheinen bis zum Anschlag aufgedreht spielen? Ich habe den Eindruck, dass das Firmenpolitik bei Crytek ist, die Spiele ein wenig in die Zukunft zu programmieren.
w0mbat
2007-09-24, 14:10:59
Ich denke die nächste high-end GPU von nVidia wird wieder eine Dual-GPU mit zwei PCBs, wie die 7950GX2.
Ich denke die nächste high-end GPU von nVidia wird wieder eine Dual-GPU mit zwei PCBs, wie die 7950GX2.
Hoffentlich gibs dann das SLI Problem mit den unregelmässigen Bildern nicht mehr, das wäre dann fatal.
pXe
egal,hauptsache es kommt irgendwas mit G80+50% power mindestens.
wer in der crysisbeta ist,weiß wie mies das game programmiert wurde,da kannst du jede power gebrauchen
Nightspider
2007-09-24, 18:06:07
egal,hauptsache es kommt irgendwas mit G80+50% power mindestens.
wer in der crysisbeta ist,weiß wie mies das game programmiert wurde,da kannst du jede power gebrauchen
Du hast " [/Ironie] " vergessen ! :wink:
Schlecht programmiert. :biggrin: :rolleyes:
Vielleicht ist die Grafik des Spiels auch einfach zu gut für deinen PC !? ;D
leute mit quad 3.5 ghz und 8800ultra sli haben in fights 10 fps aber heeeey
master_blaster
2007-09-24, 19:09:26
Außerdem: Auf welchen PCs konnte man Far Cry bei Erscheinen bis zum Anschlag aufgedreht spielen? Ich habe den Eindruck, dass das Firmenpolitik bei Crytek ist, die Spiele ein wenig in die Zukunft zu programmieren.
Auf der 9800 Pro mit XP3200+ habe ich damals alles auf max in 1280*1024 mit 4*AF absolut flüssig gespielt; und sich über die Performance einer Beta zu beschweren ist, wie sich über die Optik eines komplett zugeklebten Auto-Erlkönigs aufzuregen, weil er so dunkel ist...
Nightspider
2007-09-24, 21:06:20
Crysis skaliert noch viel stärker in die Zukunft als es FarCry je tat.
Crysis soll noch die schnellsten PCs in 1-2 Jahren ordentlich an die Grenzen bringen, später kommen neue Grafikupdates hinzu, also schiebt es ja nicht auf schlechte Programmierung ihr _Beta_ User.
Ailuros
2007-09-24, 21:43:04
Crysis skaliert noch viel stärker in die Zukunft als es FarCry je tat.
Crysis soll noch die schnellsten PCs in 1-2 Jahren ordentlich an die Grenzen bringen, später kommen neue Grafikupdates hinzu, also schiebt es ja nicht auf schlechte Programmierung ihr _Beta_ User.
Kommt drauf an ob die System-Resourcen gerechtfertigt verschwendet werden oder wenn sie - wie in Far Cry - durch einigen Optimierungs-Fehlern sinnlos verplempert werden.
Ein guter "Benchmark" wird Crysis nur sein falls der erste Fall zutrifft.
Ganz nebenbei wird hier viel zu sehr ueber Crysis uebertrieben ;)
Crysis soll noch die schnellsten PCs in 1-2 Jahren ordentlich an die Grenzen bringen, ...
Ich kann diese abgedroschene Phrase bald nimmer lesen, ein Spiel zu programmieren was auch auf Highend PCs in zwei Jahren noch ruckelt ist keine grosse Kunst (es den Käufern glaubhaft zu verkaufen schon eher*g*).
Die Frage ist eher:
Wie läuft Crysis dann in zwei Jahren auf Highend PCs im Vergleich zu den dann _aktuellen_ Spielen? Und kann es dann noch mit deren Grafik mithalten?
(Und wer spielt das denn überhaupt noch?...)
Was ich bisher aber von Crysis gesehen hab geht die Performance soweit noch in Ordnung.
pXe
hesTeR-
2007-09-25, 00:21:37
egal,hauptsache es kommt irgendwas mit G80+50% power mindestens.
wer in der crysisbeta ist,weiß wie mies das game programmiert wurde,da kannst du jede power gebrauchen
Alter Schwede was eine B E T A ist is dir aber schon klar oder ? es geht doch darum das sie den code jetzt noch optimieren und leute mit unterschiedlicher hardware das spiel in der B E T A testen und man es dann optimieren kann ... btw is das spiel wenn es rauskommt brandneu und setzt maßstäbe was die grafik angeht ich habe lieber ein spiel wo ich evtl erstmal alles auf middle spiele wo es immernoch geil is und wenn ich mir ne neue graka kaufe läuft es auf high und wenn alles neu is extrem ect ect du musst bedenken das die 8xxx nun auch schon "älter" is und die leute wollen ja sachen die ihre über teuere hardware mal ans limit bringt weils nunmal scheiss egal is ob man css mit 60 oder 270 ffps spielt ...
und komisch wenn es so mies programiert is das es neben der unreal engine die zurzeit beste und meist verkaufte ist ....
Nightspider
2007-09-25, 01:43:13
Ich kann diese abgedroschene Phrase bald nimmer lesen, ein Spiel zu programmieren was auch auf Highend PCs in zwei Jahren noch ruckelt ist keine grosse Kunst pXe
Es geht ja nicht darum das Spiel möglichs ineffizient zu proggen sondern die Spieler auch in 1-2 Jahren durch mehr Details noch zum Staunen zu bringen. Das verbessert nicht nur das Image des Entwicklers CryTek sondern steigert auch die Verkaufszahlen aktueller und zukünftiger Produkte.
Wie effizient die neuen Effekte dann sein werden ist nicht sooo wichtig, sind ja nur optional, hauptsache man kann ältere Spiele überhaupt pimpen um noch etwas rauszuholen.
MuLuNGuS
2007-09-25, 08:32:48
Alter Schwede was eine B E T A ist is dir aber schon klar oder ? es geht doch darum das sie den code jetzt noch optimieren und leute mit unterschiedlicher hardware das spiel in der B E T A testen und man es dann optimieren kann ... btw is das spiel wenn es rauskommt brandneu und setzt maßstäbe was die grafik angeht ich habe lieber ein spiel wo ich evtl erstmal alles auf middle spiele wo es immernoch geil is und wenn ich mir ne neue graka kaufe läuft es auf high und wenn alles neu is extrem ect ect du musst bedenken das die 8xxx nun auch schon "älter" is und die leute wollen ja sachen die ihre über teuere hardware mal ans limit bringt weils nunmal scheiss egal is ob man css mit 60 oder 270 ffps spielt ...
und komisch wenn es so mies programiert is das es neben der unreal engine die zurzeit beste und meist verkaufte ist ....
finde ich immer witzig das einige glauben das die entwickler noch einmal tonnen von code durchkrempeln, man versucht derbe flaschenhälse zu entfernen wenn es noch welche gibt, mehr aber auch nicht. wenn man eine routine schreibt wird die auch gleich so weit es geht optimiert, sonst würde das programm ja auch nie fertig werden^^
Die gelbe Eule
2007-09-25, 15:50:57
Hester hat aber recht. Bei HG:L war der Sprung von Alpha auf Beta ziemlich krass, 25% mehr Performance bei noch besserer Grafik. Und dabei ist noch nichtmal der Multicoresupport implementiert.
w0mbat
2007-09-25, 16:03:35
D8E aka G92 is dual PCB card (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3245&Itemid=1)
Early 2008, GX2 like
Nvidia's next generation high end part will have two PCB cards. The card codenamed D8E or the one that we called G90 – G92 for months will be GX2 like.
We wrote about such a card back in March when our Cuda sources confirmed that Nvidia has such a design in plans.
Desktop 8 series Enthusiast is scheduled for first months of 2008 and will need a lot of power. It is a 65 part, or lets say it will have two chips each 65 nanometre with its own memory. This will bring back the Quad SLI concept in the game.
If you don't trust us, ask Nvidia.
master_blaster
2007-09-25, 16:56:51
Also für die die, die meinen, meckern zu müssen: Nach der Beta kommt die Alpha und erst dann die Goldmaster, die in den Handel kommt. Und im jedem Stadium wird an der Performance geschraubt.
Außerdem ist's ja (nicht böse sein :rolleyes:) ein G9X Thread und nicht der Crysisthread.
aehmkei
2007-09-25, 17:00:47
Nach der Beta kommt die Alpha und erst dann die Goldmaster
Erst Alpha, dann Beta und dann geht das ganze RTM/Gold
Adam D.
2007-09-25, 18:02:40
Also für die die, die meinen, meckern zu müssen: Nach der Beta kommt die Alpha und erst dann die Goldmaster, die in den Handel kommt. Und im jedem Stadium wird an der Performance geschraubt.
Außerdem ist's ja (nicht böse sein :rolleyes:) ein G9X Thread und nicht der Crysisthread.
Es ist naiv zu glauben, dass sich noch großartig was tut. Das Spiel ist seiner absoluten Endphase, Kleinigkeiten werden gefixt werden, aber nicht mehr.
prophet
2007-09-25, 18:29:29
Ich bin der "Crysis"-Thread. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371636)
Ach ja, keine Ursache :wink:
master_blaster
2007-09-25, 20:34:50
Erst Alpha, dann Beta und dann geht das ganze RTM/Gold
Jo, war etwas unkonzentriert, :redface:.
Es ist naiv zu glauben, dass sich noch großartig was tut. Das Spiel ist seiner absoluten Endphase, Kleinigkeiten werden gefixt werden, aber nicht mehr.
Bei FarCry gab es allein durch Patches bis 15% mehr Performance... und bis November ist ja noch was Zeit
Ach ja G90 und so: voll toll ... ;D
"Desktop 8 series Enthusiast is scheduled for first months of 2008"
och nö,das is doch großer mist,schnelle karten sollen gefälligst früher kommen
:(
Adam D.
2007-09-25, 20:49:15
"Desktop 8 series Enthusiast is scheduled for first months of 2008"
och nö,das is doch großer mist,schnelle karten sollen gefälligst früher kommen
:(
Kann doch auch sein, dass neben der 8700GTS auch noch ein High-End-Modell kommt, aber eben nicht das Ultra-High-End. Die Pläne sind zur Zeit eh alle komisch, als könnte das auch grad noch passieren ;D
k0nan
2007-09-25, 21:10:16
wehe denen, die bringen im nov keinen GTX-ersatz heraus! die jetzige GTX für 450€ ist jawohl unzumutbar!
Noebbie
2007-09-25, 22:02:00
"Desktop 8 series Enthusiast is scheduled for first months of 2008"
och nö,das is doch großer mist,schnelle karten sollen gefälligst früher kommen
:(
Vllt. ist diesmal ja ATI früher dran.
Hauwech
2007-09-25, 22:20:57
wehe denen, die bringen im nov keinen GTX-ersatz heraus! die jetzige GTX für 450€ ist jawohl unzumutbar!
warum?
AnarchX
2007-09-25, 23:37:00
Ein Kommentar auf Fuads neueste Meldung:
Nvidia defenetly has a new GX2 card coming based on the "die-shrink".
* Xtreme-OCer, der gute Verbindungen zu den Herstellern hat.
LovesuckZ
2007-09-25, 23:43:18
warum?
Weil die Leute den Wert einer Sache nicht mehr zuschätzen wissen.
MuLuNGuS
2007-09-26, 08:37:32
Weil die Leute den Wert einer Sache nicht mehr zuschätzen wissen.
doch doch das schon,
man hat sich nur erhofft das die GTS/GTX nach so langer zeit(und kurz vor dem release neuer karten) doch mal etwas weniger kosten werden.
für 350€ würde ich mir glaube ich sofort eine GTX kaufen aber so warte ich doch erstmal ab was da so kommt. ist ja nicht so das man nicht ohne leben kann, oder etwa doch nicht?
®
Ailuros
2007-09-26, 10:14:11
Vllt. ist diesmal ja ATI früher dran.
Sicher mit "R680" die in den selben Korb wie "G90" faellt ;)
Ailuros
2007-09-26, 10:18:26
wehe denen, die bringen im nov keinen GTX-ersatz heraus! die jetzige GTX für 450€ ist jawohl unzumutbar!
G92 ultra high end wird bis zu 50% schneller sein als eine GTX, aber der Preis wird sich wohl irgendwo um die 550 Euros nach Schaetzung bewegen.
Da ein GX2 Dingsbums zu stark von SLi Kompatibilitaet in Spielen abhaengt, ist eine 8800GTX bei 450 Euros genau warum unzumutbar?
Ich haette zwar auch liebend gerne high end Leistung fuer 200 oder sogar 150 Euros, aber man sollte schon auf dem Boden bleiben.
Ailuros
2007-09-26, 10:25:19
doch doch das schon,
man hat sich nur erhofft das die GTS/GTX nach so langer zeit(und kurz vor dem release neuer karten) doch mal etwas weniger kosten werden.
für 350€ würde ich mir glaube ich sofort eine GTX kaufen aber so warte ich doch erstmal ab was da so kommt. ist ja nicht so das man nicht ohne leben kann, oder etwa doch nicht?
®
Reine Hypothese:
8800GTX in Spiel X = 100 fps
G92/GX2 = 150 fps
G92 (single) = 80-85 fps
Wenn jetzt die letzte Loesung irgendwo =/>250 Euro kostet, kann man durchaus damit leben.
k0nan
2007-09-26, 16:21:53
@Ailurus & Hauwech
ganz einfach: ich kauf doch keine graka für 450€, die 1 jahr alt ist ;)
versteht ihr, was ich meine? wenn im nov ein gtx-ersatz für 500€ rauskommt - nagut, dann muss ich halt 500€ ausgeben, aber 450€ sind für 1 jahr alt einfach zuviel.
http://forum.beyond3d.com/showthread.php?p=1070129#post1070129
Spasstiger
2007-09-26, 23:18:38
ganz einfach: ich kauf doch keine graka für 450€, die 1 jahr alt ist ;)
Hättest halt Anfang des Jahres die GTX gekauft, Wertverlust seit dem fast gleich 0. :biggrin:
AnarchX
2007-09-26, 23:59:51
384Bit @ 1.6GHz = 2x256Bit @ 1.2GHz
:uponder:
dargo
2007-09-27, 09:47:47
384Bit @ 1.6GHz = 2x256Bit @ 1.2GHz
:uponder:
Was möchtest du damit ausdrücken? Falls es eine Frage war, ja es stimmt. :D
AnarchX
2007-09-27, 10:04:43
Was möchtest du damit ausdrücken? Falls es eine Frage war, ja es stimmt. :D
Ailuros und auch jemand anderes erzählte ja etwas von größeren Mengen 1.6GHz GDDR4 die NV eingekauft haben soll.
Seltsam, dass dies mit einem 384Bit SI gerade die gleiche Speicherbandreite wie bei ATis möglichen Gegenspieler 2xRV670, wo wohl 1.2GHz GDDR4 zum Einsatz kommen wird, ergibt oder?
Irgendwie glaube ich nicht mehr so recht an die GX2, gerade wenn G92 wirklich nur 4 Cluster ist, wäre es eine ziemlich sinnfreie Aktion.
Zudem gab es ja vor kurzem auch noch diese Folie mit 3-Wege-SLI ("The new Ultimate Gaming Platform"), die wohl demnächst mit nF780a/i (3x PCIe x16) gelauncht wird.
Also nicht unbedingt ein Zeichen, dass Quad-SLI wiederkommt bzw. erst recht nicht ein 6-Wege-SLI (3xGX2), was selbst für NV mit ihrer Multi-GPU-Erfahrung eher Wahnsinn wäre.
reunion
2007-09-27, 10:20:42
Seltsam, dass dies mit einem 384Bit SI gerade die gleiche Speicherbandreite wie bei ATis möglichen Gegenspieler 2xRV670, wo wohl 1.2GHz GDDR4 zum Einsatz kommen wird, ergibt oder?
Warum?
AnarchX
2007-09-28, 08:50:20
Warum?
Fiel mir halt so auf, beide IHVs versuchen ja bei den Nummern, worauf man noch Einfluss hat, so nah wie möglich zu liegen.
Aber ein paar neue Dinge aus der Gerüchte-Küche:
8800GT
- D8P (also G92?) wird nicht mehr mit 8700GTS bezeichnet, sondern nun als 8800GT, da die Performance zu dieser Serie näher liegt (~10k 3DM06)
- Gegner ist RV670XTX (also die Pro?)
- 600MHz Core-Takt
(Das wäre aber bei 16 Doppel-TMUs doch ziemlich wenig und und ein Shadertakt von 2.4GHz also ein Ratio von 1:4, wäre eine extreme Steigerung.
Also vielleicht doch 6 Cluster @0.6/1.8GHz? (Wobei das zu 8800GT nicht passen würde)
Die 0.8/2.4GHz beziehen sich auf die Top-SKU?)
- 64SPs
-Single-slot design, PCI-Express 2.0, built-in HDMI / HDCP, two Dual-Link DVI, aber kein VP3 laut Briefing
- auf den Briefing-Photos soll die Karte wie eine 7800GTX ausgesehen haben
http://www.mobile01.com/topicdetail.php?f=298&t=410038&last=3704595
I'm hearing things about a die-size of 17x17 for G92, which would seem to be a fairly large chip for the $199 bracket. And we all know that nV loves good margins... A chip this size doesn't fit in nV's margin model at all to say the least. Any thoughts?
http://forum.beyond3d.com/showpost.php?p=1071197&postcount=439
289mm² für einen 64SP-Chip? Selbst für 96SPs wäre es noch zuviel.
Vielleicht doch der G90, welcher doch etwas mehr als ein G80@65nm, unterwegs... ;)
Nightspider
2007-09-28, 09:03:26
Wird 1,6 Ghz GDDR4 Speicher schon in Masse produziert ?
Sollte ja angeblich am Mitte des Jahres in Masse gehen aber ob die es geschafft haben weiß ja keiner.
dargo
2007-09-28, 12:32:49
Ailuros und auch jemand anderes erzählte ja etwas von größeren Mengen 1.6GHz GDDR4 die NV eingekauft haben soll.
Seltsam, dass dies mit einem 384Bit SI gerade die gleiche Speicherbandreite wie bei ATis möglichen Gegenspieler 2xRV670, wo wohl 1.2GHz GDDR4 zum Einsatz kommen wird, ergibt oder?
Vielleicht sind diese einfach nur für den G90 in 2008 vorgesehen. Keine Ahnung wie früh man den GDDR4 einkaufen muss.
AnarchX
2007-09-28, 13:00:32
Vielleicht sind diese einfach nur für den G90 in 2008 vorgesehen. Keine Ahnung wie früh man den GDDR4 einkaufen muss.
Möglich, aber eine High-End-Lösung wurde den Analysten für Ende 2007 versprochen.
Und 2x64SPs+ Redundanz+ SLI ist eher etwas unlogisch...
btw.
Nvidia G92 is GeForce 8800 GT (http://www.vr-zone.com/?i=5299)
The performance lies between GeForce 8600 GTS and 8800 GTS 640MB. However, knowing that RV670 is doing better than expected, Nvidia is now trying to bump up clock speed of G92 and may push forward its launch schedule to early November to be ahead of RV670.
Nightspider
2007-09-28, 18:43:07
Durch ATI wird wohl die Entwicklung etwas ausgebremst, da die Konkurenz fehlt.
Aber NV hat jetzt mehr Zeit ihre Chips zu optimieren und vielleicht sehen wir so einen Performance-Anstieg wie vom G71 zum G80. We will see.
Ich würde mich über die doppelte G80 Leistung auf einer Karte zum Crysis Release freuen. =)
maximus_hertus
2007-09-28, 19:59:46
Vergiss es, es wird keine doppelte Performance im Vergleich zur G80 geben, nicht vom G92.
Ausserdem kann man nur bedingt was am Chipdesign ändern, da das Design weit vor der 2900 begonnen wurde, desweiteren hat die 2900 wohl keinen grossen Einfluss auf die Entwicklung des G92 gehabt, da es unterschiedliche Segmente sind.
Nightspider
2007-09-28, 20:22:52
Vom G92 nicht aber den (8800gt) mein ich ja nicht... sondern den G90...
Die gelbe Eule
2007-09-28, 23:01:14
Wenn die 8800GT nun auf 215€ kommt, also die 512MB Version, dann wäre sie noch besser dran als die 320er. Doch müsste der Takt schon gewaltig besser sein.
Nightspider
2007-09-29, 11:05:54
AMD will 55nm-Chips im November unter die Leute bringen. Wenn Nvidia für November-Dezember den gleichen Schritt gehen will, dann könnte ein echter G80 Nachfolger noch mehr als die doppelte Leistung haben.
reunion
2007-09-29, 11:16:42
AMD will 55nm-Chips im November unter die Leute bringen. Wenn Nvidia für November-Dezember den gleichen Schritt gehen will, dann könnte ein echter G80 Nachfolger noch mehr als die doppelte Leistung haben.
Den Schritt wirst du aber nicht sehen. NV ist schon seit längerer Zeit einen Fertigungsschritt hinter ATi zurück. Man verkauft ja noch nichtmal 65nm GPUs, da wird man sicher nicht gleich auf 55nm gehen.
Den Schritt wirst du aber nicht sehen. NV ist schon seit längerer Zeit einen Fertigungsschritt hinter ATi zurück. Man verkauft ja noch nichtmal 65nm GPUs, da wird man sicher nicht gleich auf 55nm gehen.
Klar verkauft nVidia GPUs in 65 nm. AnarchX hat dich schon einmal draf hingewiesen. Eigentlich ist nV der erste Hersteller, der GPUs in 65-nm-Fertigung anbietet.
Nightspider
2007-09-29, 11:18:51
Vielleicht ist das das Ziel der längeren Phasen, somit könnte man leicht Fertigungsstuden überspringen, da spart Nvidia unendlich viel Geld bei.
Schließlich verkauft sich der G80 wie geschnitten Brot.
80nm wurden auch übersprungen und so könnte man sich gleich auf 65nm konzentriert haben.
reunion
2007-09-29, 11:22:22
Klar verkauft nVidia GPUs in 65 nm. AnarchX hat dich schon einmal draf hingewiesen. Eigentlich ist nV der erste Hersteller, der GPUs in 65-nm-Fertigung anbietet.
Aha, wo denn? AnarchX hat AFAIK die GF7200 erwähnt, welche aber laut nV in 90nm gefertigt wird: http://www.nvidia.de/object/7_series_techspecs_de.html
Der erste 65nm Chip überhaupt ist AFAIK die erst kürzlich vorgestellte IPG GF7050.
80nm wurden auch übersprungen und so könnte man sich gleich auf 65nm konzentriert haben.
Wo wurde 80nm übersprungen? Bis auf den G80 werden sämtliche G8x-Chip aktuell in 80nm gefertigt.
AnarchX
2007-09-29, 11:29:23
Ja, G78 war entweder eine reine Testfertigung, was eigentlich auch keinen Sinn macht, oder man hat hier einfach MCP78 mit G78 verwechselt, was ich mittlerweile glaube.
btw.
Neue Gerüchte zum G92:
- insgesamt soll er 6 Cluster besitzen und 4 ROP-Partitionen
- ROP/TMUs sollen niedriger getaktet sein (die 600MHz?), dafür aber SPs deutlich höher im Verhältnis um einen niedrigen Verbrauch zu erreichen
- 8800GT(?): 65W GPU, 110W gesamt
Nakai
2007-09-29, 12:09:43
Irgendwie versteh ich Nvidias Logik nicht. Die GT ist unterhalb der GTS angesiedelt, jedenfalls vom Namen und dann wäre sie schneller als die 8800GTS...
- ROP/TMUs sollen niedriger getaktet sein (die 600MHz?), dafür aber SPs deutlich höher im Verhältnis um einen niedrigen Verbrauch zu erreichen
Ich bleibe bei 4 Cluster und einem relativ hohen Takt. Ail hat ja gesagt, dass der G92 sogar 800Mhz getaktet sein könnte, ich denke das zwar nicht ganz.
700Mhz bei 4 Cluster für ROPs und TMUs und 1,8Ghz für die Shader, wäre mein Vorschlag.
mfg Nakai
nun, es eine dualGPU karte mit 1terraflopp rohleistung geben soll (sehr altes gerücht!) , dann wären 6 cluster am wahrscheinlcichsten:
2 GPUs * 6 cluster * 16SP/cluster * 3 * 1800 mhz = 1,04 terraflopp
und 1800mhz shadertakt wäre ration 1:3 zu 600mhz chiptakt.
Irgendwie glaube ich die 8800GT wird nicht so ein knaller, wie ich mir erhofft habe. Auf dem Papier sieht der RV670 ja deutlich besser aus (korrigiert mich, falls ich falsch liege). Jedenfalls spricht die Bezeichnung ja für Leistung unterhalb der 8800GTS, dem RV670 wird aber nachgesagt er könne es fast mit der Radeon HD 2900XT aufnehmen.
F5.Nuh
2007-09-29, 12:50:19
Wann soll die den jetztt ca. kommen? will aufrüsten, daher die frage. Wenn ich eine GTX dann für 350€ kriegen würde, wäre ich bereit zu warten!!
Hvoralek
2007-09-29, 12:56:27
btw.
Neue Gerüchte zum G92:
- insgesamt soll er 6 Cluster besitzen und 4 ROP-Partitionen
- ROP/TMUs sollen niedriger getaktet sein (die 600MHz?), dafür aber SPs deutlich höher im Verhältnis um einen niedrigen Verbrauch zu erreichen
- 8800GT(?): 65W GPU, 110W gesamtSo neu sind die glaube ich nicht. Es geistern doch seit längerem vier Cluster @ 800/ 2400 und sechs Cluster @ 600/ 1800 durch die Gegend.
Nightspider
2007-09-29, 13:08:51
Wo wurde 80nm übersprungen? Bis auf den G80 werden sämtliche G8x-Chip aktuell in 80nm gefertigt.
Ich rede vom HighEnd. Es kam kein Refresh einer G80 in 80nm mit mehr Takt und optimierungen wie früher.
Da kann es gut sein, das Nvidia wirklich Ende des Jahres mit 55nm ankommt, wer weiß.
Irgendwie glaube ich die 8800GT wird nicht so ein knaller, wie ich mir erhofft habe. Auf dem Papier sieht der RV670 ja deutlich besser aus (korrigiert mich, falls ich falsch liege). Jedenfalls spricht die Bezeichnung ja für Leistung unterhalb der 8800GTS, dem RV670 wird aber nachgesagt er könne es fast mit der Radeon HD 2900XT aufnehmen.
Werden wohl beide gleichauf sein, ganz einfach. Die HD2900XT kann ja mit der GTS640 nur teilweise mithalten, wird man sehen müssen wie die GT dahinter sich einpendelt. Crysis und UT07 kommen ja zum Release, beide Spiele werden den Ausschlag geben was die *hust* bessere Karte ist.
James Ryan
2007-09-29, 15:23:40
Ich rede vom HighEnd. Es kam kein Refresh einer G80 in 80nm mit mehr Takt und optimierungen wie früher.
Da kann es gut sein, das Nvidia wirklich Ende des Jahres mit 55nm ankommt, wer weiß.
Warum hätte NVIDIA denn von 90nm auf 80nm shrinken sollen mit dem G80?
Wäre doch absolut sinnlos gewesen, so hoch kann man mit 80nm auch nicht takten.
Lieber den G80 auf 65nm oder gleich 55nm shrinken, 8 Cluster rein und ordentlich takten. Damit hätte AMD richtig Probleme solange noch auf die R6xx Architektur gesetzt wird.
Ich hoffe ja immer noch dass der G90 noch kommt, ein G92 oder RV670 ist für mich persönlich uninteressant.
MfG :cool:
seahawk
2007-09-29, 17:15:20
G92 könnte als 8800GT mit 600 Mhz getaktet sein.
also kommt definitiv im November nur eine Karte die schlechter ist als eine 8800 GTS 640 ?
Hvoralek
2007-09-29, 21:14:36
also kommt definitiv im November nur eine Karte die schlechter ist als eine 8800 GTS 640 ?Definitiv ist das nicht. Wenn ein Einzel- G92 8800 GT oder 8700 heißt, würde der Name tatsächlich darauf hinweisen. Ein 4- Cluster- G80 @ 800/2400 wäre aber ein Stück schneller als eine 8800 GTS.
Nakai
2007-09-29, 21:43:21
Also Leute, denkt ihr wirklich, dass man es schafft den G92 mit 4 Cluster auf 2,4 Ghz hochzujagen? Möglich wärs, aber eher unwahrscheinlich. Naja G84 mit 2Ghz ging ja auch...
mfg Nakai
laser114
2007-09-29, 22:13:00
Zwischen Hochjagen und Taktraten für die Massenfertigung besteht ja auch noch ein gewisser Unterschied...
AnarchX
2007-09-29, 22:19:04
1 > 2 und 3 >> 4
:D
Hvoralek
2007-09-29, 22:27:12
Also Leute, denkt ihr wirklich, dass man es schafft den G92 mit 4 Cluster auf 2,4 Ghz hochzujagen? Möglich wärs, aber eher unwahrscheinlich. Naja G84 mit 2Ghz ging ja auch...In 65 nm halte ich das für durchaus denbar. Bei G80 gingen ja bei einem komplexeren Chip in 90 nm schon 1500 MHz.
1 > 2 und 3 >> 4
:D:confused:
?
G91 --> High- End ("G90")
G92 --> Performance
G93 --> Mittelklasse
G94 --> Low- End
?
Ne, man würde den 90er- Zahlenraum wohl besser ausnutzen.
Nakai
2007-09-29, 22:29:33
In 65 nm halte ich das für durchaus denkbar. Bei G80 gingen ja bei einem komplexeren Chip in 90 nm schon 1500 MHz.
Mal schaun, ich geh eher von 6 Cluster und 600Mhz TMU- und 1,8 für Shadertakt aus.
mfg Nakai
Die gelbe Eule
2007-09-29, 23:06:30
Die finalen Taktraten werden wohl erst kommen, wenn man weiß, was der RV670 drauf hat. Potential ist doch eh genug vorhanden, sieht man an VGPU Mods bis 950+MHz bei den G86. Warum sollten also 750-850MHz unmöglich sein?
Der G92 aka 8800GT wird wohl wieder eine 4200ti werden, so oder so.
AnarchX
2007-09-30, 11:04:39
http://www.directupload.com/showoriginal-11538.jpghttp://www.directupload.com/showoriginal-11539.jpg
dargo
2007-09-30, 11:08:24
Schon wieder ein IHS für die GPU? :( Wird langsam zur Mode. Leider eher suboptimal für den Wärmeaustausch, naja. :cool:
AnarchX
2007-09-30, 11:55:56
Schon wieder ein IHS für die GPU? :( Wird langsam zur Mode. Leider eher suboptimal für den Wärmeaustausch, naja. :cool:
Irgendein Sinn wird es wohl schon haben, dass man es auf eine $250-SKU verbaut.
Mal noch ein paar Überlegen zu G9x allgemein:
Dual-GPU-SKU für den Enthusiast-Consumer:
dagegen spricht:
- "Michael Hara (VP of Investor Relations) has claimed that their next-generation chip, also known as G92 in the rumour mill, will deliver close to one teraflop of performance."
- 3-Wege-SLI: dazu gibt es schon Marketing-Folien(die auf Wunsch von NV entfernt wurden hier im Forum) und die 3mal x16-Chipsätze nF780i/a bzw. 790i kommen ab November, wäre natürlich etwas seltsam wenn die kommende HighEnd-Lösung hier nicht unterstützt wird (6-Wege-AFR wäre Unsinn und bei SFR-Spielerein wäre man wohl nicht wirklich schneller als 3 Ultras im funktionieren 3-W-AFR)
- CJs 289mm² Chip, dessen Existenz nicht nur von ihm angedeutet wurde
- NVs Einkauf bei Samsung: 1.6GHz GDDR4, von Ailuros und auch anderen angedeutet, welcher besser zu 384Bit als zu 512(2x256)Bit passt
- unnötige Redundanz (2x Kontrolllogik, Speicher, ...)
- G71GX2 war eher eine Notlösung und Q-SLI war schnell tot
- die 1000M Transisitoren für "G92" in einem Diagramm bei pcpop, was später auf ????M geändert wurde
dafür spricht:
- ATi wird es machen mit R670 (wobei hier gerade ein Single-Chip wieder im Vorteil wäre gegen ein Dual-Setup, was auf viel Softwarearbeit angewiesen ist...)
G92 - 4 oder 6 Cluster? :
- imo 4 Cluster mit einem Vorteil von 6 Clustern, was die Verwirrung hierum erklären könnte
-> 4 Cluster a 3x Vec8 bzw. 24SPs
- Tex/Pix-Leistung hätte man mit 32TAU/FUs und 16ROPs(a 8Z/4MSAA-SC)@600MHz+ genug im Vergleich zur Konkurrenz(RV670), aber arithmetisch sähe man mit 64SPs eher schwach aus und für eine Mid-Range-SKU sollte man wohl auch nicht die höchste SD(~2.4GHz) erwarten, da würden 96SPs@1.8GHz(die auch schon öfters genannt wurden) vernünftiger aussehen und auf dem Papier eine vergleichbare Zahl zum Konkurrenten RV670-Revival (320SPs@750MHz) ergeben
Was neben der 4/6C-Verwirrung auch für 24SPs pro Cluster spricht ist dies:
me more waiting for G90 @ 65nm with 192 improved SP running at 2,5GHz to replace my GTX at end of the year
...und eben die 289mm², die mehr sind als ein G80@65nm in der Theorie, bei dem NV sicherlich wie auch schon bei G71 an der Packdichte/Layout optimiert hat.
Also vielleicht doch 920GFLOPs(2.4GHz) MADD, immerhin wird die Konkurrenz ähnliches auffahren können mit 2xRV670 und MADD-Leistung ist ja deutlich bedeutender im HPC-Markt und wohl auch für Vertex-Berechnungen, wo G8x-Quadro ziemlich gegen die MADD-starken-R6xx-FireGLs einstecken muss.
Ob nun die 8800GT auch auf diesem 289mm²-Chip basiert bleibt fraglich, ich würde eher auf eine eigene GPU mit knapp über 200mm² tippen.
Das Dualkarten kommen, würde ich auch nicht ausschliessen, aber eben nicht für Consumer(GeForce), sondern eher für Tesla wo man die Leistung pro 1H-Rack mehr als verdoppeln würde um eben zu zeigen wie ernst man es mit seinem Auftritt im HPC-Markt meint.
Aber im Endeffekt ist dies alles auch nur sehr spekulativ, da NV mittlerweile gelernt hat, wie sie wichtige Infos (z.B. G80-Specs, G84s SP-Zahl) möglichst bis kurz vor dem Launch geheim halten können, indem wohl die AIBs nur mit dem nötigsten Infos versorgt werden bzw. auch Fehlinfos herausgegeben werden um Maulwürfe zu sondieren.
reunion
2007-09-30, 12:09:17
http://www.directupload.com/showoriginal-11538.jpghttp://www.directupload.com/showoriginal-11539.jpg
Wenn der Name 8800GT jetzt offiziell ist, dann wird das Ding sicher keine 8800GTS schlagen.
dargo
2007-09-30, 12:10:41
Wenn der Name 8800GT jetzt offiziell ist, dann wird das Ding sicher keine 8800GTS schlagen.
Wäre es schlimm bei ~200€ Strassenpreis? Ich denke nicht. :)
reunion
2007-09-30, 12:23:12
dafür spricht:
- ATi wird es machen mit R670 (wobei hier gerade ein Single-Chip wieder im Vorteil wäre gegen ein Dual-Setup, was auf viel Softwarearbeit angewiesen ist...)
Und nV hat es bei der letzten Generation genauso gemacht.
...und eben die 289mm², die mehr sind als ein G80@65nm in der Theorie, bei dem NV sicherlich wie auch schon bei G71 an der Packdichte/Layout optimiert hat.
Naja. Ein G80 in 65nm hätte bei einem perfektem Shrink (dem man in der Praxis nicht hinbekommt, wenn man nicht Redundanz einsparen kann) noch immer 252.4568mm². Wenn du dann noch NVIO (in 65nm sind das ca. 6mm²), und die Verbesserungen bei G84 (welche nicht gerade billig sein drüften, wenn man sich mal ansieht, wieviele Transistoren G84 verschlingt, obwohl der defacto nur 1/4 G80 ist) hinzurechnest, sowie den Kleinkram wie Videoprozessor, D3D10.1, PCIe2.0 etc. bist du IMHO nicht mehr weit entfernt von besagten 289mm². Aber eine Erhöhung der SPs auf 24 pro Cluster bei identischer TMU/ROP-Anzahl könnte noch machbar sein, sofern das G80-Design in dieser Hinsicht flexibel genug ist.
Ob nun die 8800GT auch auf diesem 289mm²-Chip basiert bleibt fraglich, ich würde eher auf eine eigene GPU mit knapp über 200mm² tippen.
Bei nur 4 Cluster wäre der Chip in 65nm sicher deutlich kleiner als 200mm².
reunion
2007-09-30, 12:24:07
Wäre es schlimm bei ~200€ Strassenpreis? Ich denke nicht. :)
Da es einen RV670 mit mindestens R600-Leistung vermutlich zum selben Preis geben wird, wäre das zumindest nicht berauschend.
Winter[Raven]
2007-09-30, 12:35:31
@ reunion
Du weißt noch garnichts über die neuen GPUs und urteilst schon...
reunion
2007-09-30, 12:38:51
;5888160']@ reunion
Du weißt noch garnichts über die neuen GPUs und urteilst schon...
Ich spekuliere, wie jeder andere hier auch, und leite Dinge her, die man aufgrund der schon erhältlicher Chips herleiten kann. Nicht mehr und nicht weniger.
hört ihr euch noch selbst,is ja ekelhaft
dargo
2007-09-30, 13:30:25
;5888160']@ reunion
Du weißt noch garnichts über die neuen GPUs und urteilst schon...
Eben, wenn AMD beim RV670 die selben AA/AF Probleme (Einbrüche) hat wie beim R600 würde ich eh jedem zu einer G8800GT raten. Leise Referenzlüfter kann AMD eh nicht verbauen, Bildschirmskalierung beherrschen die Treiber immer noch nicht richtig (oder hat sich da schon was geändert?). Wie dem auch sei, warten wir erstmal die beiden GPUs ab und die Preise der Grafikkarten. Mal angenommen, beide Karten wären ungefähr gleich schnell bei annährend dem selben Preis (was auch gut für den Kunden wäre) dann würden für mich die obengenannten Gründe bei der Entscheidung schon reichen. Nur weil AMD drauf steht kaufe ich nicht sofort das Produkt. ;)
Undertaker
2007-09-30, 13:40:56
also rein von der leistung her ist schon die hd2900pro ein harter gegner für die 8800gt(s) - und das zu einem top-preis. wenn da nicht noch treiber/lautstärke/stromverbrauch wären ;)
Dual-GPU-SKU für den Enthusiast-Consumer:
[INDENT]dagegen spricht:
- "Michael Hara (VP of Investor Relations) has claimed that their next-generation chip, also known as G92 in the rumour mill, will deliver close to one teraflop of performance."
- NVs Einkauf bei Samsung: 1.6GHz GDDR4, von Ailuros und auch anderen angedeutet, welcher besser zu 384Bit als zu 512(2x256)Bit passt
Auf einem Package, welches so groß wie das des G80 ist, können durchaus auch zwei 65-nm-Performance-Mainstream-GPUs plus eine Bridge Platz finden. :)
dargo
2007-09-30, 13:43:40
@Undertaker
Harter Gegner ja, aber nur beim Preis. :)
Denn mit 4xMSAA/16xAF wüsste ich nicht, dass sie an eine G8800GTS 640 rankommt.
reunion
2007-09-30, 13:55:26
Eben, wenn AMD beim RV670 die selben AA/AF Probleme (Einbrüche) hat wie beim R600 würde ich eh jedem zu einer G8800GT raten.
Ein R600 liegt ohne AA/AF meist vor der GTS und mit zumindest nicht weit dahinter. Ein RV670 wird durch die höheren Taktraten wohl etwas vor dem R600 liegen.
Leise Referenzlüfter kann AMD eh nicht verbauen,
Sagt wer? Die Kühler des RV670 sind relativ klein, und lassen auf relativ wenig Verlustleistung und einen leisen Lüfter hoffen.
Hvoralek
2007-09-30, 14:14:05
Sagt wer? Die Kühler des RV670 sind relativ klein, und lassen auf relativ wenig Verlustleistung und einen leisen Lüfter hoffen.Wenn man von einer TDP von 105W bzw. 132W (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5862274#post5862274) ausgeht, dürfte der reale Verbrauch unter Vollast bei etwa 70W bzw. 100W liegen. Dann deutet ein kleiner Lüfter eher auf hohe Drehzahlen hin.
reunion
2007-09-30, 14:28:10
Wenn man von einer TDP von 105W bzw. 132W (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5862274#post5862274) ausgeht, dürfte der reale Verbrauch unter Vollast bei etwa 70W bzw. 100W liegen. Dann deutet ein kleiner Lüfter eher auf hohe Drehzahlen hin.
Ein R600XT hat eine TDP von 240W und erreicht laut xbitlabs 161W und Vollast. Das liegt doch deutlich unter der TDP. Zudem hat ja nur die Pro mit 105W TDP einen relativ kleinen Single-Slot Kühler, die XT mit 135W hat eine bis jetzt noch nicht abfotografierte Dual-Slot-Kühlung.
dargo
2007-09-30, 14:35:30
Ein R600 liegt ohne AA/AF meist vor der GTS und mit zumindest nicht weit dahinter. Ein RV670 wird durch die höheren Taktraten wohl etwas vor dem R600 liegen.
Das weiß ich, nur weil AMD Probleme bei der aktuellen GPU mit AA/AF hat werde ich mit Sicherheit nicht darauf verzichten, vorallem wenn man schon Jahre lang damit gespielt hat. Und das sehe sicherlich nicht nur ich so.
Ein R600XT hat eine TDP von 240W und erreicht laut xbitlabs 161W und Vollast. Das liegt doch deutlich unter der TDP.
Hvoralek hat doch gesagt, dass real es deutlich weniger sind. Ich darf nur mal an den Kühler der X1800XL erinnern. Diese Karte hatte auch eine ziemlich geringe Verlustleistung (afaik ~60W). Trotzdem war der Kühler, zumindest bei Last Müll.
reunion
2007-09-30, 14:43:47
Das weiß ich, nur weil AMD Probleme bei der aktuellen GPU mit AA/AF hat werde ich mit Sicherheit nicht darauf verzichten, vorallem wenn man schon Jahre lang damit gespielt hat. Und das sehe sicherlich nicht nur ich so.
Was soll das denn jetzt? Das habe ich weder gefordert, noch sehe ich das anders. Das entscheidende war das restliche, auf das du natürlich nicht eingegangen bist. Ein RV670 mit 825Mhz wird es voraussichtlich auch mit AA/AF mit einer GTS aufnehmen können, da ein R600 dort auch (wenn überhaupt) dann nicht weit hinten liegt. Und wer sagt denn, dass sich am starken Einbruch nichts geändert hat?
Hvoralek hat doch gesagt, dass real es deutlich weniger sind. Ich darf nur mal an den Kühler der X1800XL erinnern. Diese Karte hatte auch eine ziemlich geringe Verlustleistung (afaik ~60W). Trotzdem war der Kühler, zumindest bei Last Müll.
Stimmt, was ja nicht bedeutet, dass ATi aus den Fehlern nichts gelernt hat. Die Kühler der 2600/2400-Serie sind jedenfalls sehr leise, leiser als die der Konkurrenz.
AnarchX
2007-09-30, 14:47:44
Und nV hat es bei der letzten Generation genauso gemacht.
Aber auch nur um die Performance-Krone bei sich zu behalten und dies aus der guten Position mit einem ~200mm² Chip. Jetzt ist halt ATi wohl in der gleichen Position, fragt sich nur ob ihre 2950X2X es mit dem was NV plant mithalten kann wie die G71GX2 anfangs gegen den R580.
Wenn du dann noch NVIO (in 65nm sind das ca. 6mm²)
Wobei, wenn der Chip im HPC-Markt eingesetzt werden soll, vielleicht NVIO weiterhin bestehen bleibt, auch für H-SLI könnte man Karten ohne NVIO verkaufen. Aber natürlich sollte man diesen auch mit bedenken bei der Die-Size, da hast du recht.
und die Verbesserungen bei G84 (welche nicht gerade billig sein drüften, wenn man sich mal ansieht, wieviele Transistoren G84 verschlingt, obwohl der defacto nur 1/4 G80 ist) hinzurechnest
Nunja, ein G84/G86 Cluster kostet ja 79M Transistoren und 54mm²@80nm. Imo verschlingt bei G8x vorallem das Setup einiges.
Zudem sieht man an diesen Zahlen, dass eine Vec8-ALU nicht unbedingt viel kosten sollte.
sowie den Kleinkram wie Videoprozessor, D3D10.1, PCIe2.0 etc. bist du IMHO nicht mehr weit entfernt von besagten 289mm².
VP könnte ja weiterhin im NVIO sein und PCIe2.0 dürfte wohl schon im G8x sein, laut den Tesla-Dokumenten und D3D10.1 dürfte wohl auch schon im G8x schlummern (Folie #1), aber natürlich kann man hier den Support in G9x auch noch etwas verbessert haben.
Aber dass in ~289mm², 8C/6RPs sich verbergen sollten, kann man doch annehmen oder? ;)
Bei nur 4 Cluster wäre der Chip in 65nm sicher deutlich kleiner als 200mm².
Die Zahl bezog sich eher auf einen 4C/96SP-Chip.
Auf einem Package, welches so groß wie das des G80 ist, können durchaus auch zwei 65-nm-Performance-Mainstream-GPUs plus eine Bridge Platz finden. :)
Und was soll das für einen Sinn machen?(siehe restliche Argumente)
An diesem PCB-Plan der 8800GT sieht man imo auch gut die Informationspolitik von NV: Die AIBs bekommen die Pläne für das PCB und die Pins, aber was nun sich auf dem Package verbirgt wird noch geheim gehalten.
Vielleicht kommen auch davon die Dual-Die-Package-Gerüchte mit zweimal 6 Clustern, aber im Endeffekt ist es vielleicht doch eine GPU mit 192SPs. :D
dargo
2007-09-30, 14:48:16
Ein RV670 mit 825Mhz wird es voraussichtlich auch mit AA/AF mit einer GTS aufnehmen können, da ein R600 dort auch nicht weit hinten liegt.
Das mag schon sein. Der Konkurrent heiß dann aber G92 und nicht G80. Und noch weiß niemand wie NV den G92 abstuft. Ich glaube nämlich kaum, dass es nur einen G92 geben wird.
Und wer sagt denn, dass sich am starken Einbruch nicht geändert hat?
Niemand, ich hoffe doch sehr, dass man in dieser Hinsicht viel verbessert hat.
Die Kühler der 2600/2400-Serie sind jedenfalls sehr leise, leiser als die der Konkurrenz.
Das freut mich. Dann sollte man das ruhig bei den nächsten (auch High-End) Grakas bitte fortsetzen.
seahawk
2007-09-30, 15:04:37
also rein von der leistung her ist schon die hd2900pro ein harter gegner für die 8800gt(s) - und das zu einem top-preis. wenn da nicht noch treiber/lautstärke/stromverbrauch wären ;)
Was vom RV670 aber gelöst wird und gleichezitig ist der Chip auch noch scneller. Das wird der legitime Nachfolder der X1950PRo und der alleinige Herrscher des Performancesegements. Als es 1950PRo gab, wollte auch niemand mehr ne 7900GT. Und so wird es zwischen 2950PRo und 8800GT auch ausgehen,
reunion
2007-09-30, 15:10:55
Aber auch nur um die Performance-Krone bei sich zu behalten und dies aus der guten Position mit einem ~200mm² Chip. Jetzt ist halt ATi wohl in der gleichen Position, fragt sich nur ob ihre 2950X2X es mit dem was NV plant mithalten kann wie die G71GX2 anfangs gegen den R580.
Stellt sich die Frage warum man damals nicht auch auf einen größeren single-Chip gesetzt hat. Im Endeffekt hat alles seine Vor- und Nachteile, so kann man mit nur einem Chip den Preisbereich von ~149-599$ abdecken. Das spart einiges an R&D. Aber natürlich wäre ein großes Die eleganter. Bleibt die Frage welchen Weg nV wählt. Man bräuchte wohl doch zumindest die 1.5-fache Leistung einer 8800U um mit der 2950X2X gleichzuziehen.
Wobei, wenn der Chip im HPC-Markt eingesetzt werden soll, vielleicht NVIO weiterhin bestehen bleibt, auch für H-SLI könnte man Karten ohne NVIO verkaufen. Aber natürlich sollte man diesen auch mit bedenken bei der Die-Size, da hast du recht.
Kann ich mir nicht vorstellen, das ganze ist doch eine ziemliche Verschwendung. Ein NVIO nimmt immerhin 49mm² Die-Fläche in Anspruch, auch wenn davon 3/4 blank sind, aber das spielt ja bei den Fertigungskosten keine Rolle. Sonst würde man wohl nicht ausreichend Kontakte unterbringen.
Nunja, ein G84/G86 Cluster kostet ja 79M Transistoren und 54mm²@80nm.
Wie kommst du auf die Zahlen?
Die Zahl bezog sich eher auf einen 4C/96SP-Chip.
Selbst dann sind es wohl eher ~150mm², wenn ein doppelter "G90" auf 289mm² kommen soll.
AnarchX
2007-09-30, 16:22:09
Stellt sich die Frage warum man damals nicht auch auf einen größeren single-Chip gesetzt hat.
Diesen hätte man aber dann nur auf einer HighEnd SKU verkaufen können bzw. in niedrigen Segmenten mit einer deutlich niedrigeren Marge als der G71.
Es war halt eine Entscheidung, zudem kommt es mir auch etwas vor dass man sich selbst etwa mit 4-Wege-SLI überschätzt hatte, 4-Way-AFR kam nie und mittlerweile scheint Q-SLI mit den neueren Treibern tot zu sein, vorallem unter Vista.
Bleibt die Frage welchen Weg nV wählt. Man bräuchte wohl doch zumindest die 1.5-fache Leistung einer 8800U um mit der 2950X2X gleichzuziehen.
Ja, vorallem Bandbreite und arithmetische Leistung sollten steigen. Aber mit einer Texelleistung von ~50GTex(~800MHz) sollte man eigentlich gut aufgestellt sein gegenüber 2xRV670 mit etwas über 20GTex.
Kann ich mir nicht vorstellen, das ganze ist doch eine ziemliche Verschwendung. Ein NVIO nimmt immerhin 49mm² Die-Fläche in Anspruch, auch wenn davon 3/4 blank sind, aber das spielt ja bei den Fertigungskosten keine Rolle. Sonst würde man wohl nicht ausreichend Kontakte unterbringen.
Ja, das war eher Unsinn, da ja NVIO auch für SLI zuständig sein soll.
Wird wohl schon wieder in den Chip wandern, mit dem Shadertakt hatte es ja im Nachhinein wohl doch nicht zu tun gehabt.
Wie kommst du auf die Zahlen?
Eben der Unterschied zwischen G84 und G86 (http://www.beyond3d.com/resources/chips/1/30/release_date), dieser sollte ja einen Cluster betragen. Oder denkst du mehr?
Selbst dann sind es wohl eher ~150mm², wenn ein doppelter "G90" auf 289mm² kommen soll.
G86 ist immerhin auch noch fast 70% von G84, obwohl er einen Cluster (50% der Recheneinheiten) weniger hat.
Zudem würde ich ja bei G92 TMUs=TAUs erwarten, wo hingegen "G90" wohl weiterhin Doppel-TMUs haben sollte.
Eben der Unterschied zwischen G84 und G86 (http://www.beyond3d.com/resources/chips/1/30/release_date), dieser sollte ja einen Cluster betragen. Oder denkst du mehr?
Da gibt's noch mehr Unterschiede - wetten?
AnarchX
2007-09-30, 16:39:37
Da gibt's noch mehr Unterschiede - wetten?
Dann sind eben die Cluster und somit eine Vec8-ALU noch kleiner. :D
Der G84 hat einige Funktionen mehr Single-Cycle, IIRC.
Das kostet Transistoren.
Hauwech
2007-09-30, 17:02:26
Stellt sich die Frage warum man damals nicht auch auf einen größeren single-Chip gesetzt hat. Im Endeffekt hat alles seine Vor- und Nachteile, so kann man mit nur einem Chip den Preisbereich von ~149-599$ abdecken. Das spart einiges an R&D. Aber natürlich wäre ein großes Die eleganter. Bleibt die Frage welchen Weg nV wählt. Man bräuchte wohl doch zumindest die 1.5-fache Leistung einer 8800U um mit der 2950X2X gleichzuziehen.
Bei dir wird aus einem "up to 1.5 CF 600" irgendwie ein "definitely 1.5 CF 600". Bei Nv gab es auch schon Chips die "up to 7 times faster" als der Vorgänger waren... :|
reunion
2007-09-30, 17:16:15
Bei dir wird aus einem "up to 1.5 CF 600" irgendwie ein "definitely 1.5 CF 600". Bei Nv gab es auch schon Chips die "up to 7 times faster" als der Vorgänger waren... :|
Inwiefern? Schon für R600CF bräuchte man wohl fast 1.5 x 8800U-Leistung. Ich gehe momentan von knapp über R600 Leistung für den Single-Chip aus, und etwas über R600 CF Leistung dann eben für die Dual-Config. Für 1.5 x R600 CF bräuchte man wohl 8800U SLi Leistung.
seahawk
2007-09-30, 17:38:00
Und 8800 SLI Leistung wird NV kaum in einem Single-Chip erreichen können. Gehen wir davonaus, dass schon der RV670 in etwa auf dem Niveau der 8800GTX liegt.
Nakai
2007-09-30, 17:38:18
Inwiefern? Schon für R600CF bräuchte man wohl fast 1.5 x 8800U-Leistung. Ich gehe momentan von knapp über R600 Leistung für den Single-Chip aus, und etwas über R600 CF Leistung dann eben für die Dual-Config. Für 1.5 x R600 CF bräuchte man wohl 8800U SLi Leistung.
Die 1.5xCF-Leistung bezieht sich nur auf Spezialfälle, nur lässt sich das dann wieder auf den Rv670 übertragen, welcher wohl dann auch in den gleichen Fällen 1.5xR600 ist.
mfg Nakai
Die gelbe Eule
2007-09-30, 18:30:05
Ich gehe mal von den Daten aus:
- G92 wird HighEnd, aber nicht die letzte Ausbaustufe
- G92 ist ein G80 Shrink
- G92 hat 384bit, nicht 256bit
- G92 hat Taktraten im Bereich von 750MHz und mehr, wo der Weg hingeht sah man am G86, da wa r 675MHz nie ein Problem
- G92 wird GDDR4 bekommen, doch nur im Topmodell, hier kann man wie ATi taktieren
- GT könnte wieder eine Abkehr vom vorherigen Muster bedeuten, damals gab es auch nur GT und Ultra, Zwischenversionen bekommen einfach eine andere numerische Bezeichung. Wobei GTX erhalten bleibt. GTS hört sich einfach zu weich an, vergleicht man es mit dem Motorsport.
seahawk
2007-09-30, 18:36:49
Dann hääte man immer noch keine Perfromancekarte.
G92 hat 64SP
G92 ist kein G80 Shrink
G92 hat nur 256 Bit
Die gelbe Eule
2007-09-30, 18:42:46
Und das sagt wer ganz sicher? Ein Shrink wäre kostengünstiger und mehr ist ein Refreshchip auch nicht. PCI-E 2.0 und D3D10.1 ist das einzig neue was wir bekommen. NV hat nicht das erste mal gestreut.
seahawk
2007-09-30, 19:33:42
Was beides schon im G80 schlummerte. Die Frage ist nur, wo im Angebot von NV ein Lücke kladdt. High-End, nö. Einstiegssegment - nö.
Sie haben eine Schwäche (von den AMrgen her) im absoluten Low-End, da kommt G98
Sie haben keine Performancekarte - da kommt G92
Ein G80 Shrink wäre f+r Perfromance zu stark und als neuens High-End zu schwach.
Ein G80 Shrink wäre [...] als neuens High-End zu schwach.
Was glaubst du denn, was beim reinen Wechsel des Fertigungsprozesses von 90 auf 65 oder gar 55nm drin wäre, taktmäßig?
Die gelbe Eule
2007-09-30, 19:41:44
Performance? Dort haben sie seit Monaten die 8800GTS und verkaufen auch mehr als prächtig. ATi hat erst vor kurzem nachlegen können und nur weil eine Pro rauskommt, die man durch einen Preisnachlass der 320er locker abfangen kann, muss man nicht Torschlußpanik bekommen.
ATi musste von den Taktraten seine Karten bisher immer am Limit fahren, daß sagt viel über die Güte der Chips aus. Der Druck des Marktes fordert halt seinen Tribut.
AnarchX
2007-09-30, 19:48:05
Aber ab November wird es den RV670 im Performance-Segment geben, der nur mit 194mm² daherkommt, günstigem 256Bit PCB, höheren Taktraten als R600 und auch gewisse Makel von R600 nicht mehr besitzt.;)
Dagegen muss NV etwas vergleichbares dagegenstellen und das wird die 8800GT sein.
Die gelbe Eule
2007-09-30, 19:50:00
Als ob die 8800GTS 640MB nicht dafür reichen würde. Gerade das 256bit PCB sollte die Leistung die man hier mehr bekommt wieder schmälern zum R600.
Nakai
2007-09-30, 19:50:51
auch gewisse Makel von R600 nicht mehr besitzt.
Was wohl die 150%R600-CF der Dualkarte erklärt?^^;)
mfg Nakai
AnarchX
2007-09-30, 19:54:13
Als ob die 8800GTS 640MB nicht dafür reichen würde.
Du würdest also gegen oben genanntes einen 480mm² Chip engegensetzen, der noch mit einem teuren 320Bit PCB daherkommt, wo dazu noch ein externes IO aufgelötet ist? :ugly:
Nakai
2007-09-30, 19:57:12
Als ob die 8800GTS 640MB nicht dafür reichen würde. Gerade das 256bit PCB sollte die Leistung die man hier mehr bekommt wieder schmälern zum R600.
Wenn du dich da nicht irrst...ein R600 ist ohne AA und AF schneller als ein 8800GTS. Der Rv670 wird wohl die Latte noch höher legen.
mfg Nakai
Die gelbe Eule
2007-09-30, 19:58:49
320bit heute sich abenteuerlich an, sollte aber nicht wirklich teurer als ein 256bit sein und deutlich günstiger als ein 512bit. Wenn ATi die 512bit PCBs schon so krass verschleudern kann, hat NV doch eher gar keine Probleme mit 320bit. Auch hier kann das Wort "Abverkauf" fallen.
Wenn du dich da nicht irrst...ein R600 ist ohne AA und AF schneller als ein 8800GTS. Der Rv670 wird wohl die Latte noch höher legen.
mfg Nakai
Nicht überall und nicht immer. Und wenn es wieder nur die Monsteraufläsungen sind oder 10x7, interessiert es doch wirklich niemanden. Außerdem sollte man hier AA und AF immer nutzen und nicht weil der R600 so krass einbricht nun aufeinmal ohne zu vergleichen.
reunion
2007-09-30, 20:02:43
Dagegen muss NV etwas vergleichbares dagegenstellen und das wird die 8800GT sein.
Die zumindest dem Namen nach nicht mit der 8800GTS mithalten kann. Wenn das mal nicht zu wenig ist.
Als ob die 8800GTS 640MB nicht dafür reichen würde.
Wenn an der AA-Leistung geschraubt wurde nicht. Zudem hast du mit einem G80 in punkto Margen keine Chance gegen eine RV670. NV kann damit nie in die Preisregionen vorstoßen, die für AMD noch lange lukrativ wären.
Gerade das 256bit PCB sollte die Leistung die man hier mehr bekommt wieder schmälern zum R600.
Wenn man sich die Speichertaktskalierung eines R600 ansieht, bezweifle ich das. Bei nur 16 TMUs auch kein Wunder. Zudem wird man das teilweise durch GDDR4 abfedern.
320bit heute sich abenteuerlich an, sollte aber nicht wirklich teurer als ein 256bit sein und deutlich günstiger als ein 512bit. Wenn ATi die 512bit PCBs schon so krass verschleudern kann, hat NV doch eher gar keine Probleme mit 320bit. Auch hier kann das Wort "Abverkauf" fallen.
Was hilft das wenn AMD aus einem Wafer fast 2.5x so viele Chips rausbekommt?
Die gelbe Eule
2007-09-30, 20:09:00
NV schreibt schwarz, ATi rot, ich würde mich auf einen Preiskampf mit NV nicht einlassen wollen.
Man vergisst leider hier wieder, daß NV den Umstieg länger geplant hatte und somit von der besseren Yieldrate profitieren kann. Gerade das kann ATI nicht mehr aufholen, da sie immer über den neueren kleineren Prozess einsteigen müssen. 64bit mehr dürften preislich kaum ins Gewicht fallen und vielleicht gibt es auch echte kleine Chips, anstatt deaktivierte.
reunion
2007-09-30, 20:13:31
NV schreibt schwarz, ATi rot, ich würde mich auf einen Preiskampf mit NV nicht einlassen wollen.
Man vergisst leider hier wieder, daß NV den Umstieg länger geplant hatte und somit von der besseren Yieldrate profitieren kann. Gerade das kann ATI nicht mehr aufholen, da sie immer über den neueren kleineren Prozess einsteigen müssen. 64bit mehr dürften preislich kaum ins Gewicht fallen und vielleicht gibt es auch echte kleine Chips, anstatt deaktivierte.
Stell' doch nicht derart auf stur. Jedes Unternehmen ist darauf aus, den Gewinn zu maximieren. nV wäre schön blöd, wenn sie gegen RV670 noch immer G80 antreten lassen würden. Ein billig zu produzierender Chip im Performance-Segment ist da mehr als nahe liegend, und mit G92 scheint die entsprechende Lösung in 65nm ja schon kurz vor der Veröffentlichung.
"Nett" wären auch GTS-ähnliche Chips in 65nm mit entsprechend erhöhten Taktraten. Die laufen dann natürlich nicht mehr als "GT". :)
Die gelbe Eule
2007-09-30, 20:21:04
Stell' doch nicht derart auf stur. Jedes Unternehmen ist darauf aus, den Gewinn zu maximieren. nV wäre schön blöd, wenn sie gegen RV670 noch immer G80 antreten lassen würden. Ein billig zu produzierender Chip im Performance-Segment ist da mehr als nahe liegend, und mit G92 scheint die entsprechende Lösung in 65nm ja schon kurz vor der Veröffentlichung.
NV maximiert von Quartal zu Quartal und wichtig ist doch der Marktanteil, welcher auch gestiegen ist. Vielleicht wird der G92 günstig zu produzieren sein, nur das er langsamer ist als bisher bekannt, wage ich zu bezweifeln.
seahawk
2007-10-01, 07:23:20
Marktanteil ist sekundär, wenn die Marge nicht stimmt. Und mit dem G80 dürfte es unmöglich sein eine brauchbare Marge gegenüber dem RV670 zu erreichen. G92 sotiert sich unter RV670, wird aber eben auch schneller billiger, was man sich bei G92 aber leisten kann.
Die gelbe Eule
2007-10-01, 07:35:15
Man möchte schneller als 8600GTS, aber langsamer als 8800GTS 640 sein. Muss ja nicht heißen, daß man deutlich langsamer ist. Es wird auf jedenfall spannend für mich, ob es der G92 wird oder ich die 320er nochmal kaufen muss. Und genau da sollte man ansetzen, ob sie die 320er auch ersetzen kann.
James Ryan
2007-10-01, 08:02:55
Gehen wir davonaus, dass schon der RV670 in etwa auf dem Niveau der 8800GTX liegt.
;D
Der RV670 ist ein R600 mit 256 Bit Speicherinterface...
Warum sollte er schneller sein als ein R600? :| Der Takt allein wird es nicht richten können, der Abstand R600 <-> GTX ist groß!
Außerdem deutet das "RV" schon an, dass dieser Chip in der Single-Ausführung eher unter dem R600 liegen wird.
Man man, immer diese Hypes und Träumereien! :rolleyes:
MfG :cool:
Und mit dem G80 dürfte es unmöglich sein eine brauchbare Marge gegenüber dem RV670 zu erreichen.
Bedenke: NV konnte bislang knapp ein Jahr ungestört den G80 mit den Margen, die SIE wollten verkaufen, da keine Konkurrenz.
Die Teile werden 2950Pro/XT heißen: R600-Performance ist drin, dazu architektonische Verbesserungen, niedrigerer Fertigungsprozess. Das sind die Fakten und lassen auf einen starken Chip hoffen, das hat nicht viel mit Träumerei zu tun.
James Ryan
2007-10-01, 10:24:01
Die Teile werden 2950Pro/XT heißen: R600-Performance ist drin, dazu architektonische Verbesserungen, niedrigerer Fertigungsprozess. Das sind die Fakten und lassen auf einen starken Chip hoffen, das hat nicht viel mit Träumerei zu tun.
Aha, Fakten :rolleyes:
Dann hast du sicher absolut wasserdichte Quellen die diese Aussagen belegen?!
Interessant auch, dass jetzt von R600 Perfomance die Rede ist, vorher hieß es, dass der RV670 auf GTX Niveau liegen wird. Was denn nun?
MfG :cool:
seahawk
2007-10-01, 10:55:15
1.5 CF R600 Performance geht nur, wenn auch der einzelne Chip 1.3-1.5 x R600 leistet. Das reicht locker für die GTX.
James Ryan
2007-10-01, 11:01:03
Und wo sind die Fakten?
Das ist doch alles nur Spekulation und hat weder Hand noch Fuß.
Mal wieder das gleiche Spielchen wie vor dem R600 Launch, die üblichen Verdächtigen hypen was das Zeug hält, propagieren den Untergang NVIDIAs und was kommt am Ende raus?
MfG :cool:
robbitop
2007-10-01, 11:04:58
Ich halte diese Performanceangaben ebenfalls fuer hoax. Mich wuerde es nicht ueberraschen, wenn das Teil langsamer als ein R600 ist. Ich lasse mich jedoch gern ueberaschen.
Seid ihr dafür nicht im falschen Thread? Hier geht's um G9x - für RV6xx gibt's was eigenes.
Die gelbe Eule
2007-10-01, 11:07:49
Dann müsste der aber auch von den Transistoren doppelt so schwer sein, was ich kaum glaube.
Takt dürfte er unter 800MHz nicht antreten und auch GDDR4 mit 1.4GHZ fahren. Wer soll das bitte bezahlen? Und gerade wenn sie GTX Performance liefert, warum sollte man sich eine ATI Karte kaufen die das gleiche leistet, wie NV seit über einem Jahr? Technischer Fortschritt? NV würde sich totlachen ...
2 einzelne Karten sind immernoch günstiger als 2 zusammengepappt. Und ich möchte den sehen, welcher 6+8Pin x2 verbaut, aber beim Stromverbrauch die Klappe hält.
James Ryan
2007-10-01, 11:13:15
Ich halte diese Performanceangaben ebenfalls fuer hoax. Mich wuerde es nicht ueberraschen, wenn das Teil langsamer als ein R600 ist. Ich lasse mich jedoch gern ueberaschen.
Ein RV670 wird ziemlich sicher langsamer sein als ein R600, allein das "RV" sagt doch schon alles.
Aber wozu noch diskutieren, AMD wird doch die absolute Überkarte bringen welche nur 200€ kostet und eine GTX lockerst schlägt... irgendwann. ;)
MfG :cool:
robbitop
2007-10-01, 11:13:25
Naja wenn RV670 mit einer so geringen Flaeche in etwa das gleiche leistet, wie R600, ist das fuer das Performancesegment schon sehr gut. Dann kann man R600/GTS Leistung zum Preis von 200 EUR erhalten (Tendenz fallend) und mit der "GX2" dann immerhin HighEnd Leistung.
Offenbar hat ATI einen sehr guten upper-Midrange Chip, aber leider keinen richtigen HighEnd Chip. NV scheint ausser dem 90 nm G80 ein aehnliches Modell im Sinn zu haben.
Im R600-Thread gibt's doch genügend Fotos, die die Eckdaten bestätigen. Einzig die Taktraten sind noch nicht beschlossene Sache, aber die Gerüchte darüber stammen aus relativ sicheren Quellen.
Ich sag ja auch nicht, dass der RV670 die Überkarte wird, ganz sicher nicht. Aber wenn sie R600-Performance mit den Verbesserungen bringt, dann reicht mir das vollkommen. Und das ist realistisch.
Die gelbe Eule
2007-10-01, 11:21:19
Realistisch kann man jetzt einen R600 für 215€ bekommen, deswegen gibt es ja die Pro. Wie man hier den Bogen spannen möchte mit einer Valuekarte, ist mir noch schleierhaft. NV tauscht nur Ihr Portfolio aus, sparsamer und effizienter als die alten Modelle. Ist halt der Nimbus des Reagierens.
Ich halte diese Performanceangaben ebenfalls fuer hoax. Mich wuerde es nicht ueberraschen, wenn das Teil langsamer als ein R600 ist. Ich lasse mich jedoch gern ueberaschen.
Abwarten. Es sind noch lange nicht alle Folien an die Öffentlichkeit gelangt, die ATi im September an die AIBs gesendet hat. Da gibt es durchaus noch interessante Verbesserungen ggü. R600, die Hoffnung auf mehr machen. ;)
reunion
Außerdem deutet das "RV" schon an, dass dieser Chip in der Single-Ausführung eher unter dem R600 liegen wird.
Man man, immer diese Hypes und Träumereien! :rolleyes:
MfG :cool:
Der "RV" deutet IMHO an, das ursprünglich noch etwas größeres als ein RV670 geplant war, man aber diesen wohl zugunsten der Dual-Lösung gecancelt hat.
reunion
robbitop
2007-10-01, 11:40:44
Wie gesagt, glaube ich nicht, dass man das AA-Problem mal eben beseitigen konnte. Es ist bisher selbst in den neuesten R(v)6xx Mitgliedern vorhanden. Scheint also doch etwas Haariges zu sein oder vieleicht sogar eine Design/Skalierungsentscheidung.
Alle moeglichen Seiten sprechen von R600-aehnlicher Performance oder leicht darunter. (ausser CJ)
James Ryan
2007-10-01, 11:44:28
Abwarten. Es sind noch lange nicht alle Folien an die Öffentlichkeit gelangt, die ATi im September an die AIBs gesendet hat. Da gibt es durchaus noch interessante Verbesserungen ggü. R600, die Hoffnung auf mehr machen. ;)
reunion
Du scheinst angeblich immer mehr zu wissen als andere User.
Ich wäre erfreut wenn du mit mir dein Wissen teilen würdest, wenn du möchtest auch via PN.
Also, entweder Fakten oder gar nichts, dieses Hyperei nervt gewaltig, vor allem wenn dies auf andere User übertragen wird (*hust* horn 12 *hust*)
MfG :cool:
Wie gesagt, glaube ich nicht, dass man das AA-Problem mal eben beseitigen konnte. Es ist bisher selbst in den neuesten R(v)6xx Mitgliedern vorhanden.
Dem stimme ich zu. Da das Problem in allen R(V)6xx Chips auftritt, ist es in der R(V)6xx Generation nicht zu beseitigen.
Ebensowenig konnte seinerzeit ja NV die FP-Rechenschwäche in den NV3x beseitigen, weil es eben im Design so drin war.
Hvoralek
2007-10-01, 13:17:09
1.5 CF R600 Performance geht nur, wenn auch der einzelne Chip 1.3-1.5 x R600 leistet. Das reicht locker für die GTX."Bis zu" 1,5- fache Leistung wird wohl bedeuten, dass die Performance oft etwa gleich ist und in bestimmten, vlt. nur wenigen, Fällen deutlich höher. Mich wundert v.a., dass nicht von den Einzelkarten die Rede ist, sondern ausdrücklich von RV670- X2 vs. R600- CF. Wäre es nicht möglich, dass die Chips selbst etwa gleich schnell sind, aber bei der X2 in bestimmten Fällen CF richtig funktioniert? Je nachdem, woran es bei R600 genau klemmt, könnte allerdings vlt. auch repariertes MSAA bis zu 50% bringen. Ich würde aber auf keinen Fall von durchgehend 30-50% höherer Leistung pro Chip ausgehen.
warum sollte man sich eine ATI Karte kaufen die das gleiche leistet, wie NV seit über einem Jahr?Wenn sie günstiger ist als vergleichbare Nvidiakarten, ist doch herzlich egal, ob man 1 Jahr zuvor dasselbe zum 2 1/2- fachen Preis auch schon hätte bekommen können.
AnarchX
2007-10-01, 13:27:16
Der "RV" deutet IMHO an, das ursprünglich noch etwas größeres als ein RV670 geplant war, man aber diesen wohl zugunsten der Dual-Lösung gecancelt hat.
Die Dual-Lösung ist wie schon öfters angedeutet der R670.
Mal sehen ob hier ATi endlich auf eine eigene PCIe-Bridge setzen wird.
Wie gesagt, glaube ich nicht, dass man das AA-Problem mal eben beseitigen konnte.
Die Frage ist überhaupt wie man das AA-Problem definiert: Für mich ist es eine AA-Performance in einigen Fällen unter R580, dass man G80 bzw. Nachfolger mit seiner extrem fetten/leistungsfähigen ROPs angreifen könnte, ist eher zu bezweifeln.
Aber auf jeden Fall darf man bei RV670 im Punkt AA eine positive Veränderung gegenüber R600 erwarten, jedenfalls verspricht dies AMD. ;)
In welchem Ausmaß und wie dies passiert, wird man dann wohl zu gegebener Zeit erfahren.
Nakai
2007-10-01, 14:01:55
Erinnert ihr euch an die R680-Ente? Vll war es keine Ente, sondern nur der Name war falsch...;)
Aber auf jeden Fall darf man bei RV670 im Punkt AA eine positive Veränderung gegenüber R600 erwarten, jedenfalls verspricht dies AMD.
In welchem Ausmaß und wie dies passiert, wird man dann wohl zu gegebener Zeit erfahren.
Bis zu 50% Extraperformance? Ist das die versteckte Leistungssteigerung?
mfg Nakai
Die gelbe Eule
2007-10-01, 20:07:12
ATi kann auch über Treiberspielchen die Performance steigern. Würde mich nicht wundern wenn man wieder ein neues AA einführt, daß performant aber halt optimiert ist. Noch nennt niemand eine HighEnd Karte, weder hüben noch drüben. Das Taktpotential war bei ATi fast immer am Limit, NV ist da deutlich effizienter was den kleineren Prozess angeht.
Hvoralek
2007-10-01, 20:33:55
BQ- mindernde Aktionen halte ich für unwahrscheinlich, nachdem man selbst bei R600 das AF in Ruhe gelassen hat, obwohl sicher die Verlockung gegeben war, hier erneut zu sparen. Und mit einem CSAA- Klon oder so etwas rechne ich nicht.
Die gelbe Eule
2007-10-01, 20:44:12
Man hatte bereits voher küsntlich in Treiberrevisionen künstlich die Performance reduziert, damit neue Karten dann immer mit Prozenten über Monate glänzen können. Man sollte weder bei NV oder ATi Wunder erwarten, nur scheinen einige User sich dessen nicht bewusst zu sein. Warum sollte jetzt etwas mit Faktor 2 kommen, was voher nie der Fall war? Erst mit Multicores sieht man was neues, vorher sehen wir Shrinks mit mehr Takt und vielleicht mehr Clustern. Da sich die Shaderdomäne nun einzeln ansteuern läßt, wird das viele Hersteller bewegen, hier Grenzen auszuloten. Sparkle arbeitet daran und vermarktet es bereits.
AnarchX
2007-10-01, 20:48:29
BQ- mindernde Aktionen halte ich für unwahrscheinlich, nachdem man selbst bei R600 das AF in Ruhe gelassen hat, obwohl sicher die Verlockung gegeben war, hier erneut zu sparen.
:D Ich glaube so mancher wird überrascht sein...
Da sich die Shaderdomäne nun einzeln ansteuern läßt, wird das viele Hersteller bewegen, hier Grenzen auszuloten. Sparkle arbeitet daran und vermarktet es bereits.
Per BIOS, der einzig sinnvolle Weg für den AIB, geht das schon seit November 2006. ;)
Nakai
2007-10-01, 20:54:41
:D Ich glaube so mancher wird überrascht sein...
Da muss ich dir zustimmen...:D
Um ehrlich zu sein, wird ATI endlich mal aufholen oder sogar die Konkurrenz übertreffen, was auch Zeit wurde.
mfg Nakai
Die gelbe Eule
2007-10-01, 20:57:59
Das kann auch negativ gemeint sein, bei AnarchX weiß man nie. Gehyped wird das Teil ohne Ende, man wäre also nicht überrascht, wenn ATi die Performance liefert die man sich wünscht.
reunion
2007-10-01, 20:59:07
Das kann auch negativ gemeint sein, bei AnarchX weiß man nie. Gehyped wird das Teil ohne Ende, man wäre also nicht überrascht, wenn ATi die Performance liefert die man sich wünscht.
Ist aber nicht negativ gemeint.
AnarchX
2007-10-01, 21:10:19
Um ehrlich zu sein, wird ATI endlich mal aufholen oder sogar die Konkurrenz übertreffen, was auch Zeit wurde.
Es bleibt nach wie vor die Frage was NV plant und diese sind sehr bedacht darauf, dass eben nichts wegen dem fast zeigleichen Start bis kurz vor der Veröffentlichung an die Öffentlichkeit bzw. Konkurrenz gelangt, da sie verlieren könnten.
Während ATi gewinnen oder verlieren kann und deshalb mit offenen Karten spielt, was gleichzeitig Publicity für die Produkte bedeutet.
Natürlich sieht ATis Planung nicht schlecht aus, aber imo eben auch nicht so überwältigend, dass NV keine Chance hätte dies zu übertreffen, mit der nachwievor doch überlegenen Architektur.
Aber auf jeden Fall scheint der Winter spannend zu werden.=)
Nakai
2007-10-01, 21:18:46
Es bleibt nach wie vor die Frage was NV plant und diese sind sehr bedacht darauf, dass eben nichts wegen dem fast zeigleichen Start bis kurz vor der Veröffentlichung an die Öffentlichkeit bzw. Konkurrenz gelangt, da sie verlieren könnten.
Während ATi gewinnen oder verlieren kann und deshalb mit offenen Karten spielt, was gleichzeitig Publicity für die Produkte bedeutet.
Natürlich sieht ATis Planung nicht schlecht aus, aber imo eben auch nicht so überwältigend, dass NV keine Chance hätte dies zu übertreffen, mit der nachwievor doch überlegenen Architektur.
Aber auf jeden Fall scheint der Winter spannend zu werden.=)
Gehen wir mal davon aus, was die Gerüchte sagen. Ein G92 ist ein halber G80 mit einigen Verbesserungen. Der wird sicherlich nicht den RV670 besiegen können.
Falls er ein 3/4 G80 wirds wegen dem 65Nm-Bereich relativ knapp werden, jedoch wurde es gesagt, dass der neue Chip das alte Highend nicht ablösen wird.
Ebenso muss man es berücksichtigen, dass ATI derzeit etwa 20% hinter NV liegt. Dieser Rückstand muss aufgeholt werden und das wird der RV670 eben schaffen, mehr nicht.
Das kann auch negativ gemeint sein, bei AnarchX weiß man nie.
Ich kann mich Reunion anschließen.
mfg Nakai
Die gelbe Eule
2007-10-01, 21:25:26
Also soll eine 256bit Karte noch schneller sein als eine 512bit? Taktraten von mehr als 1GHz sollten dann anliegen, hohes Ziel beim ersten Spin. Überraschend kann nur der Preis sein.
Nakai
2007-10-01, 21:27:11
Habens die 512Bit wirklich gebracht?
(2400 x 256)/8 = ~76800MB/s
mfg Nakai
BQ- mindernde Aktionen halte ich für unwahrscheinlich, nachdem man selbst bei R600 das AF in Ruhe gelassen hat, obwohl sicher die Verlockung gegeben war, hier erneut zu sparen.
HAt man doch gar nicht - frag mal Raff.
AnarchX
2007-10-01, 21:38:40
Gehen wir mal davon aus, was die Gerüchte sagen. Ein G92 ist ein halber G80 mit einigen Verbesserungen. Der wird sicherlich nicht den RV670 besiegen können.
Da ist es wieder ein Frage des Taktes.
Imo behauptet sich die 2900XT hauptsächlich wegen der hohen MADD-Leistung und teilweise auch wegen der Bandbreite in einigen Fällen gegen die 8800GTS.
Die 8800GT liegt vielleicht in gewissen Punkten (Bandbreite, Texelleistung) hinter der 8800GTS, was auch den Namen rechtfertigt, dies sollte aber trotzdem noch genug sein (Annahme 32TMUs@600MHz, 256Bit@0.9GHz) gegen die Konkurrenzkarte RV670-Revival, jedoch aber nicht im Punkt arithmetische Leistung, wo Ailuros mehrfach seine ~460GFLOPs nannte. Immerhin 50% mehr als bei einer 8800GTS, was einige Benchmarks entscheiden könnte.
Falls er ein 3/4 G80 wirds wegen dem 65Nm-Bereich relativ knapp werden, jedoch wurde es gesagt, dass der neue Chip das alte Highend nicht ablösen wird.
Wer sagt das?;)
Ebenso muss man es berücksichtigen, dass ATI derzeit etwa 20% hinter NV liegt. Dieser Rückstand muss aufgeholt werden und das wird der RV670 eben schaffen, mehr nicht.
Naja, in manchen Fällen sind es aber auch mehr als 20%.
Aber mal sehen, jedenfalls scheint die Zukunft bei ATi deutlich besser als die Gegenwart auszusehen.
Nakai,
Mit 8x MSAA schon. :)
dildo4u
2007-10-01, 21:44:16
Ebenso muss man es berücksichtigen, dass ATI derzeit etwa 20% hinter NV liegt. Dieser Rückstand muss aufgeholt werden und das wird der RV670 eben schaffen, mehr nicht.
AMD selber spricht auf der Marketingfolie "nur" von R600 Speed und nicht von 20% mher Speed.Auf einer Marketingfolie wo Naturgemäß seitens der Hersteller eher über als untertrieben wird wie kommst du da also auf einemal auf 20% mher Speed?Wunschdenken?
Nakai
2007-10-01, 21:44:58
Wer sagt das?;)
;)
Mit 8x MSAA schon.
Ja...der R600 bricht da genug ein...
mfg Nakai
Hvoralek
2007-10-01, 23:27:00
:D Ich glaube so mancher wird überrascht sein...Ich hoffe, das bedeutet nicht, dass ATI jetzt auf die Idee gekommen ist, da zu sparen. Wobei allein schon stark winkelabhängiges AF in manchen Fällen für 50% Mehrleistung ggü. R600 reichen könnte.
Ich würde ja hoffen, dass der Kommentar auf mehr als 4 Texturblöcke hindeutet. Bei 194 mm² glaube ich das aber nicht so recht.
HAt man doch gar nicht - frag mal Raff.Also zumindest in Sachen Winkelanhängigkeit ist R6xx nicht schlechter als R5xx. Auch sonst ist zumindest laut BBSR (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index8.php) die Texturfilterung i.O. Raff findet zwar wirklich so ziemlich überall irgendein Flimmern, aber mir wäre neu, dass er die R600- Filterung schlechter findet als die R5xx-.
robbitop
2007-10-01, 23:48:03
In einem Interview mit Eric Demers wurde mir (zum R600) mitgeteilt, dass man selbst nicht zufrieden mit dem AF sei und man dies so schnell wie moeglich verbessern werde. Nachdem G80 eine hohe Messlatte gesetzt hat, wird man die bisher erworbene BQ wohl kaum wieder einreissen sondern eher erhoehen. Alles andere wuerde in massiver Kritik muenden.
Hvoralek
2007-10-02, 00:53:45
Was ist denn an der AF- Qualität auszusetzen? Das Hauptproblem scheinen mir die Leistungseinbrüche dadurch zu sein.
James Ryan
2007-10-02, 07:50:58
AMD selber spricht auf der Marketingfolie "nur" von R600 Speed und nicht von 20% mher Speed.Auf einer Marketingfolie wo Naturgemäß seitens der Hersteller eher über als untertrieben wird wie kommst du da also auf einemal auf 20% mher Speed?Wunschdenken?
Falls du es noch nicht gemerkt hast, das war immer so! ;)
Morgen liest du dann was von "RV670 ist 20% schneller als eine GTX!" ;D
Ich würde einfach abwarten und auf alle Gerüchte pfeifen, der R600 Launch war doch schon peinlich genug für unsere Muster-Spekulanten.
MfG :cool:
Ja...der R600 bricht da genug ein...
Nee, eben nicht. Der Einbruch mit 8x MSAA ist verhältnismäßig geringer als bei NV - was unter anderem darauf zurückzuführen ist, dass er ausreichend Bandbreite hat und dass die ROPs einen zweiten Zyklus beim G8x einlegen müssen.
Also zumindest in Sachen Winkelanhängigkeit ist R6xx nicht schlechter als R5xx. Auch sonst ist zumindest laut BBSR (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index8.php) die Texturfilterung i.O. Raff findet zwar wirklich so ziemlich überall irgendein Flimmern, aber mir wäre neu, dass er die R600- Filterung schlechter findet als die R5xx-.
Der 3DCenter-Artikel entstand, wie die Verfasser selbst mehrfach sagten, unter enormem Zeitdruck...
Raff:
http://www.pcgameshardware.de/?article_id=603118
Für Robbitop scheint auch nicht alles im Lot:
http://forum.beyond3d.com/showpost.php?p=1020633&postcount=124
AnarchX
2007-10-02, 09:43:42
Mal wieder zurück zum eigentlichen Thema:
NVIDIA 8800GT based on G92 core Early Specs (http://my.ocworkbench.com/bbs/showthread.php?p=421506#post421506)
OCW war eigentlich auch eine gute Quelle in naher Vergangenheit, immerhin wussten sie vor allen anderen, dass G84 nur 32SPs hat.
Die gelbe Eule
2007-10-02, 09:45:20
Dann wird das Teil wohl mehrere Cluster haben als die 320 oder?
robbitop
2007-10-02, 09:49:28
Was ist denn an der AF- Qualität auszusetzen? Das Hauptproblem scheinen mir die Leistungseinbrüche dadurch zu sein.
Es flimmert bei hochfrequenten Texturen.
AF muss kosten. Die R6xx hat nicht so viel Fuellrate zur Verfuegung. Da kann das schon zum Flaschenhals ausarten. G80 hat so viel Fuellrate, dass AF kaum in einen Fuellraten Flaschenhals ausartet.
AnarchX
2007-10-02, 09:53:29
Dann wird das Teil wohl mehrere Cluster haben als die 320 oder?
:|
Cluster bei G80: 4 Doppel-TMUs (4TA+8TFs, ~kostenloses tri bzw. 2x bi-AF) + 2 Vec8-ALUs (je 16 SPs)
Cluster bei G84/86: 8 TMUs (8TA+8TFs) + 2 Vec8-ALUs (je 16 SPs)
ROP-Partion: 4 ROPs + 64Bit Speicherkanal
Nunja, 4 G84-Cluster und 4 RPs @600MHz wären schon imo ausreichend gegen Revival, nur eben nicht arithmetische Leistung, wenn man nicht weit über 2GHz mit der Shaderdomain geht.
Irgendwie passt es nicht zusammen. im OCWorkbench-Link steht, dass der G92 als Konkurrent zum RV670 gedacht ist und sogar etwas schneller sein soll, insgesamt aber zwischen 8600GTS und 8800GTS liegen soll.
Vom RV670 erwartet man im Gegensatz dazu eine Performance nicht unter dem R600, also eher in Richtung 8800GTS640 oder drüber.
Wie soll das gehen?
Ist in der Tat ein Widerspruch, denn nach den aktuellen Informationen dürfte ein RV670 Gladitor durchaus auf GTS-Niveau sein. Vielleicht nicht immer, aber zumindest nur wenig darunter.
Die gelbe Eule
2007-10-02, 11:47:24
Die 600MHz sind auch sehr wenig, da muss schon 800+ stehen, was bei dem Chip kein Thema sein sollte. Nur alles auf die Shaderdomain zu schieben und zu hoffen das man hier exorbitante MHz rausholte, ist zu gewagt. Auch müsste man von den Shadern her selbst auf RV670 Niveau sein.
seahawk
2007-10-02, 11:48:12
Wer sagt, dass G92 nicht sehr nahe an 8800GTS 640 liegt ?
robbitop
2007-10-02, 11:48:16
Nunja 600 MHz sprechen eher fuer einen 6 Cluster Chip. Dann wuerde die Performanceangabe auch ziemlich exakt stimmen.
AnarchX
2007-10-02, 11:49:00
16ROPs/TMUs@600MHz, 256Bit@900MHz:
9,6GPix
9,6GTex (freies tri/2xbi-AF)
57,6GB/s
-> zwischen 8600GTS und 8800GTS -> 8800GT
64SP@1.8GHz = 345GFLOPs (=8800GTS) bzw. noch mehr 96SPs(4x24)@1.8GHz bzw. 64SPs@2GHz+
-> der Punkt, welcher über die Konkurrenzfähigkeit gegen RV670 entscheidet (imo)
Dass gab es durchaus schon öfters, dass ein SKU in einem Punkt ihrem Namen eben nicht entsprach und mehr Rohleistung als eine SKU mit "höherem" Name hatte:
5700Ultra > 5800 bei Bandbreite und Pixelfüllrate, 6800GS > 6800GT bei der Vertexleistung, X1650XT > X1800GTO bei der arithmetischen Leistung,...
w0mbat
2007-10-02, 12:09:07
Irgendwie passt es nicht zusammen. im OCWorkbench-Link steht, dass der G92 als Konkurrent zum RV670 gedacht ist und sogar etwas schneller sein soll, insgesamt aber zwischen 8600GTS und 8800GTS liegen soll.
Vom RV670 erwartet man im Gegensatz dazu eine Performance nicht unter dem R600, also eher in Richtung 8800GTS640 oder drüber.
Wie soll das gehen?
Es gibt nicht nur einen RV670.
600Mhz bei den ROPs und TMUs sind für solch einen Chip viel zuwenig. Alleine die 8800GTX liegt bei fast 600MHz, da gibt es keinen Grund solch eine Karte so niedrig zu takten.
Bei der 7900GT hat nVidia zwar den Chiptakt bei 450mhz gelassen, aber fast alle Karten ließen sich auf 5500mhz übertakten.
Es muss also noch eine Karte geben, die über der 8800gt angesiedelt ist, da 600MHz für solchen Chip einfach nur lächelrich gering ist.
AnarchX
2007-10-02, 12:47:56
Dass G92 auf mehr als einer SKU verwendet werden soll ist doch anzunehmen.
Vielleicht kommt ja noch eine 8850GTS: 750MHz ROP/TMUs, 1.1-1.2GHz GDDR3/4 und eben 64SPs@2.2GHz+ bzw. 96(4x24)@1.8GHz+, eben ein Gegenstück zur 2950XT (RV670 Gladiator).
Naja, bald wird wohl NV mal ein paar mehr Infos herausgeben müssen, für Verpackung und Co, die dann wohl ihren Weg ins Netz finden. :D
750Mhz? Ich erwarte mir von einem halbierten G80 mindesten 863Mhz bei den ROPs und TMUs. nVidia konnte bei einem einzig geschrinkten G71 die Taktrate um 50% erhöhen. Und da soll nVidia bei lächerlichen 750MHz bleiben?
AnarchX
2007-10-02, 13:09:54
750Mhz? Ich erwarte mir von einem halbierten G80 mindesten 863Mhz bei den ROPs und TMUs.
Möglich, aber man möchte ja den Stromverbrauch gegenüber 8800GTS/GTX senken. ;)
Das Taktpotential kann man dann halt per OC bzw. Werks-OC-Versionen ausschöpfen. Die 8600GTS geht ja auch von ihren 675MHz auf 800MHz bzw. mit VMOD fast auf 1GHz mit LuKü...
Möglich, aber man möchte ja den Stromverbrauch gegenüber 8800GTS/GTX senken. ;)
Und aus dem Grund hat es Gerüchte um eine X² Karte gegeben?!
Selbst bei 863MHz sollte man nicht mehr verbrauchen als eine 7900GTX. Immerhin handelt es sich ja bei der Karte um einen halbierten G80.
AnarchX
2007-10-02, 13:16:51
Selbst bei 863MHz sollte man nicht mehr verbrauchen als eine 7900GTX. Immerhin handelt es sich ja bei der Karte um einen halbierten G80.
So einfach ist dass eben nicht, schau dir dochmal den Verbrauch der 8600GTS an, einem Viertel-G80 an und dazu sollte man bedenken, dass eben kritische Pfade ganz schnell ein Taktlimit setzen können, wo man mehr Spannung benötigt um hier noch minimale Steigerungen zu erzielen und der Verbrauch plötzlich sprunghaft ansteigt.
Und warum sollte man ROP/TMUs so hoch takten, wenn diese den R6xx-Gegenstücken deutlich überlegen sind?
James Ryan
2007-10-02, 13:29:31
Naja, bald wird wohl NV mal ein paar mehr Infos herausgeben müssen, für Verpackung und Co, die dann wohl ihren Weg ins Netz finden. :D
Hoffen wir es, um den G92 ist es schon länger verdächtig still geworden, ATi ist demgegenüber quasi jeden Tag positiv in den News.
Ähnlich war es aber im letzten Jahr um diese Zeit ebenfalls. ;)
MfG :cool:
seahawk
2007-10-02, 13:42:11
Bis jetzt war es immer ein gutes Zeichen, wenn NV ruhig war.
Bis jetzt war es immer ein gutes Zeichen, wenn NV ruhig war.
Nv ist immer ruhig. Bei G84 war es bsw. kein gutes Zeichen. :D
reunion
robbitop
2007-10-02, 13:49:23
Es gibt bis jetzt keine Konkurrenz zu G84, die besser ist. Wo war das kein gutes Zeichen?
Die gelbe Eule
2007-10-02, 13:52:54
NV ist ruhig um die Pappenheimer zu catchen, welche ständig alles ausplaudern. Sollte seit dem G80 bekannt sein.
seahawk
2007-10-02, 13:53:19
Nv ist immer ruhig. Bei G84 war es bsw. kein gutes Zeichen. :D
reunion
Wo ist das Problem mit G84 ? Er war nicht dass, was manche erwarteten, im Vergleich zu RV630 liegt er aber solide.
Die gelbe Eule
2007-10-02, 14:04:44
Erwartungshaltung und Realität klaffen doch gerade hier sehr weit auseinander. Wenn Karte XY nicht das leistet was man möchte, wartet man wieder auf die nächste, bis man merkt, das eine DX8.1 Karte doch mal zu alt wird.
AnarchX
2007-10-02, 14:09:34
G92/ D8M launches on the 29th (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3403&Itemid=34) (Oktober)
Nur sollte G92 eigentlich D8P sein, also G98? :|
Die gelbe Eule
2007-10-02, 14:16:28
Vielleicht gibt es G92 und D8M parallel? Warum sollte auch Lowcost eher dran sein als Performance, ist doch viel zu früh.
LovesuckZ
2007-10-02, 14:17:06
Du solltest "October" hinzufügen.
Die gelbe Eule
2007-10-02, 14:18:08
D8M/ G92 is Geforce 8800 GT (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3404&Itemid=34)
Also wieder was anderes? Vielleicht ist dann die 8900er der D8P.
AnarchX
2007-10-02, 14:36:44
Warum sollte auch Lowcost eher dran sein als Performance, ist doch viel zu früh.
Weil RV610 seit einigen Monaten konkurrenzlos ist. ;)
w0mbat
2007-10-02, 14:49:35
Laut CB kommen G92 & G98 am 12. November zusammen mit den nF 780i SLi.
nForce 780i SLI und G92/98 ab 12. November (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/nforce_780i_sli_g92_98_12_november/)
robbitop
2007-10-02, 14:52:34
Weil RV610 seit einigen Monaten konkurrenzlos ist. ;)
Wieso? Die HD2400 ist im gleichen Preissegment wie die Geforce 8400. Scheinen beide in etwa gleich viel zu kosten und auch aehnlich viel zu bieten.
Es gibt bis jetzt keine Konkurrenz zu G84, die besser ist. Wo war das kein gutes Zeichen?
Sehr viele hofften sehr lange auf einen halben G80. Daraus wurde ja - wie heute bekannt ist - nichts. Zwar hast du recht, dass der Chip durch die schwache Konkurrenz noch immer gut dasteht, allerdings ist die Diskrepanz innerhalb der GF8-Reihe trotzdem unverkennbar. Zumindest war es noch nie vorher der Fall, dass ein High-End-Produkt ein ähnliches oder gar besseres P/L-Verhältnis bot, als dies im Midrage der Fall ist.
reunion
seahawk
2007-10-02, 14:55:27
D8H,D8P,D8M,D8V und wir kennen nur G92/98 - da fehlt doch was. :D
Sehr viele hofften sehr lange auf einen halben G80. Daraus wurde ja - wie heute bekannt ist - nichts. Zwar hast du recht, dass der Chip durch die schwache Konkurrenz noch immer gut dasteht, allerdings ist die Diskrepanz innerhalb der GF8-Reihe trotzdem unverkennbar. Zumindest war es noch nie vorher der Fall, dass ein High-End-Produkt ein ähnliches oder gar besseres P/L-Verhältnis bot, als dies im Midrage der Fall ist.
reunion
Ist bei ATI nicht besser - zum heutgien Stand.
Wieso? Die HD2400 ist im gleichen Preissegment wie die Geforce 8400. Scheinen beide in etwa gleich viel zu kosten und auch aehnlich viel zu bieten.
Nicht dein ernst, oder? Das Die des RV610 ist erheblich kleiner: 82mm² vs. 115mm². Der Stromverbrauch der nV-Karte ist beinahe doppelt so hoch, die Leistung ist niedriger und die Videofeatures können ebenfalls nicht mithalten. RV610 ist in faktisch jeder Hinsicht vorzuziehen und dürfte für AMD auch noch billiger zu fertigen sein.
reunion
AnarchX
2007-10-02, 14:59:29
Wieso? Die HD2400 ist im gleichen Preissegment wie die Geforce 8400. Scheinen beide in etwa gleich viel zu kosten und auch aehnlich viel zu bieten.
82mm² vs 115mm², HDMI über DVI, volle Beschleunigung für VC-1 für RV610. (edit: Achja und auch der Stromvebrauch siehe reunion)
Nicht ohne Grund torpedierte NV diesen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=365179
robbitop
2007-10-02, 15:09:04
Sehr viele hofften sehr lange auf einen halben G80. Daraus wurde ja - wie heute bekannt ist - nichts. Zwar hast du recht, dass der Chip durch die schwache Konkurrenz noch immer gut dasteht, allerdings ist die Diskrepanz innerhalb der GF8-Reihe trotzdem unverkennbar. Zumindest war es noch nie vorher der Fall, dass ein High-End-Produkt ein ähnliches oder gar besseres P/L-Verhältnis bot, als dies im Midrage der Fall ist.
reunion
Naja das ist aber schon lange so. Bei ATI gabs schon seit der X800 Serie keine vernuenftige Mainstreamversionen mehr. Die halben/dreiviertel Versionen kamen immer erst viel Spaeter. Beim G80 wurde ein guenstiger halber/dreiviertel G80 (wie beim R5xx) gar nicht moeglich, da das Teil (aufgrund der Breite der Architektur und der neuen Features) so riesig wurde. Mittlerweile muss jeder IHV wohl fuer halbe/dreiviertel Karten wohl immer erst die naechsten Prozesse abwarten.
Das ging diese Generation NV so und ATI auch.
Beide Unternehmen nutzen die grossen Karten als Hebel, damit man die kleinen kauft, und die bitte dann mit maximalem Umsatz und maximaler Gewinnspanne.
robbitop
2007-10-02, 15:11:25
Nicht dein ernst, oder? Das Die des RV610 ist erheblich kleiner: 82mm² vs. 115mm². Der Stromverbrauch der nV-Karte ist beinahe doppelt so hoch, die Leistung ist niedriger und die Videofeatures können ebenfalls nicht mithalten. RV610 ist in faktisch jeder Hinsicht vorzuziehen und dürfte für AMD auch noch billiger zu fertigen sein.
reunion
Ist doch latz, wie gross die DIE-Groesse ist. Den Endkunden kosten sie gleichviel. Und dass UVD so deutlich besser was die Videofunktionen der G8x ist, glaube ich kaum. Der einzige Unterschied ist IIRC, dass bei irgendeiner (selten genutzten..VC1 glaub ich) HD Codec-art eine von 4 Berechnungsstufen auf dem G84 nicht laufen, auf dem RV6xx schon. H264 hingegen rennt auch auf dem G84 komplett beschleunigt. Den Unterschied kann man IMO kaum messen.
Was die Performance angeht, weiss ich leider nicht. Hast du da Zahlen zur Hand?
HDMI ist allerdings ein Argument.
Naja das ist aber schon lange so. Bei ATI gabs schon seit der X800 Serie keine vernuenftige Mainstreamversionen mehr. Die halben/dreiviertel Versionen kamen immer erst viel Spaeter. Beim G80 wurde ein guenstiger halber/dreiviertel G80 (wie beim R5xx) gar nicht moeglich, da das Teil (aufgrund der Breite der Architektur und der neuen Features) so riesig wurde. Mittlerweile muss jeder IHV wohl fuer halbe/dreiviertel Karten wohl immer erst die naechsten Prozesse abwarten.
Das ging diese Generation NV so und ATI auch.
Beide Unternehmen nutzen die grossen Karten als Hebel, damit man die kleinen kauft, und die bitte dann mit maximalem Umsatz und maximaler Gewinnspanne.
Das ist zwar richtig, aber so groß war der Unterschied jedenfalls noch nie.
reunion
robbitop
2007-10-02, 15:20:30
Naja X600 ist 1/4 X800.
X1600 ist 1/4 X1900. 8600 ist 1/4 8800. Und jetzt kommen sie ;)
Die Zahl 6 ist in beiden Produktreihen jedenfalls nun entgueltig schlechtgemacht.
Ist doch latz, wie gross die DIE-Groesse ist. Den Endkunden kosten sie gleichviel.
Es ging hier darum, warum nV den G98 vorher releasen sollte. Für nV sind die Herstellungskosten alles andere als "latz".
Und dass UVD so deutlich besser was die Videofunktionen der G8x ist, glaube ich kaum. Der einzige Unterschied ist IIRC, dass bei irgendeiner (selten genutzten..VC1 glaub ich) HD Codec-art eine von 4 Berechnungsstufen auf dem G84 nicht laufen, auf dem RV6xx schon. H264 hingegen rennt auch auf dem G84 komplett beschleunigt. Den Unterschied kann man IMO kaum messen.
Es ist sicher kein Vorteil, und den Unterschied kann man je nach Film AFAIK sehrwohl deutlich messen.
Was die Performance angeht, weiss ich leider nicht. Hast du da Zahlen zur Hand?
Wenn ich zu Hause bin.
reunion
Naja X600 ist 1/4 X800.
X700 kam nur wenig später und war eine halbe X800. G84 benötigte ebenso lange und ist trotzdem nur 1/4.
X1600 ist 1/4 X1900. G84 ist 1/4 G80. Und jetzt kommen sie ;)
X1600 kam vor X1900 und nicht mehrere Monate danach.
reunion
robbitop
2007-10-02, 15:27:30
X700 kam nur wenig später und war eine halbe X800. G84 benötigte ebenso lange und ist trotzdem nur 1/4.
Sie kam nicht wenig spaeter. Das waren schon einige Monate, die die X600 allein dastand.
X1600 kam vor X1900 und nicht mehrere Monate danach.
reunion
Die X1650 und die X1950 kamen aber ewig spaeter. Die X1600 war wiedermal kein anstaendiges midrange. Die Konkurrenz (7600) hat das natuerlich gnadenlos ausgenutzt.
Es ist sicher kein Vorteil, und den Unterschied kann man je nach Film AFAIK sehrwohl deutlich messen.
Naja ich will sowas schon fuehlen koennen und nicht nur messen koennen. Da G84 bei VC1 alle 3 anderen Stufen auch beschleunigt, und bei h264 sogar ebenfalls alle 4, sehe ich keinen so grossen Nachteil. Ok ein faktischer (auf einer Liste) waere es allerdings schon. ;)
Sie kam nicht wenig spaeter. Das waren schon einige Monate, die die X600 allein dastand.
Natürlich. Nur bei nV kam einige Monate gar nichts, und dann erst ein geviertelter G80.
Naja ich will sowas schon fuehlen koennen und nicht nur messen koennen. Da G84 bei VC1 alle 3 anderen Stufen auch beschleunigt, und bei h264 sogar ebenfalls alle 4, sehe ich keinen so grossen Nachteil. Ok ein faktischer (auf einer Liste) waere es allerdings schon. ;)
Da ich es gerade gefunden habe, hier VC1-Vergleiche von CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/11/#abschnitt_children_of_men
Wie man sieht liegen die UVD-Chips immer in front. Natürlich ist das nicht so gravierend, kann aber sehrwohl den Unterschied ausmachen zwischen flüssigen Filmvergnügen und gelegentlichen Rucklern.
Aber der Punkt ist auch ein anderer: Wo liegen die Vorteile der 8400GS/8500GT? Ich sehe keinen einzigen und das trotz des erheblich größeren Die und den damit verbundenen Fertigungskosten. Deshalb ist das Lowend-Segment auch das einzige, in dem nV soetwas wie Handlungsbedarf hat, und deshalb würde ein möglichst früher G98 IMHO durchaus Sinn machen.
reunion
/Edit: Im übrigen sehe ich gerade, dass die nV-Chips bei H264 auch nicht besser sind, einzig MPEG2 scheint ihnen zu liegen.
robbitop
2007-10-02, 15:43:12
Aber der Punkt ist auch ein anderer: Wo liegen die Vorteile der 8400GS/8500GT? Ich sehe keinen einzigen und das trotz des erheblich größeren Die und den damit verbundenen Fertigungskosten. Deshalb ist das Lowend-Segment auch das einzige, in dem nV soetwas wie Handlungsbedarf hat, und deshalb würde ein möglichst früher G98 IMHO durchaus Sinn machen.
reunion
Da gebe ich dir allerdings recht.
deekey777
2007-10-02, 16:05:11
/Edit: Im übrigen sehe ich gerade, dass die nV-Chips bei H264 auch nicht besser sind, einzig MPEG2 scheint ihnen zu liegen.
Die Grünen verursachen eine höhere Prozessorlast*, weil der Treiber den frisch entschlüsselten Datenstrom wieder verschlüsseln lässt, bevor dieser an die Grafikkarte weitergeleitet wird (darum haben die Grafikchips einen HW-Decoder an Bord).
*Der Prozessor entschlüsselt das Material, trennt die Audiospur von der Videospur. Dann wird die Videospur wieder verschlüsselt, an die Grafikkarte weitergeleitet und von dieser wieder entschlüsselt (PVP ahoi). Die Radeons machen das nicht.
Wenn man aber AACS-freies Videomaterial nimmt, ist die CPU-Last nicht nur deutlich niedrig, sondern der Radeon ebenbürtig.
PS: VC-1 ist schon sehr wichtig. Die erste gerippte HD DVD ("Serenity" ;)) hatte VC-1. Schade nur, dass VC-1-Beschleunigung auf AVIVO-Radeons nicht funktioniert.
Nakai
2007-10-02, 18:32:08
Dass G92 auf mehr als einer SKU verwendet werden soll ist doch anzunehmen.
Ich seh den G92 zwischen G84 und G80 also als Zwischenstück mit Tendenz den Rv670 anzugreifen.
Vll erscheint noch ein G90, welcher gegen den Rv670-Dual angesiedelt sein wird. Jedenfalls meine Meinung...
Sie kam nicht wenig spaeter. Das waren schon einige Monate, die die X600 allein dastand.
X600 war 9600XT auf PCIe. Als Konkurrenz war sie nicht wirklich gedacht, eher als Lückenfüller.
mfg Nakai
Sonyfreak
2007-10-02, 18:35:17
Naja X600 ist 1/4 X800.Die X600 ist ein RV380 und damit eine Radeon 9600. Das Teil ist daher nicht auf der selben Featureebene wie ein X800er-Chip (R420).
mfg.
Sonyfreak
robbitop
2007-10-02, 18:41:24
Ich weiss. Ist fuer den Endkunden doch egal. Mir ging's um die Einteilung der IHVs und die Preis/Leistung fuer Endkunden bzgl Mainstream-GPUs. Nicht um Codenamen.
P.S.
Featuretechnisch lag zw RV3xx und R4xx sowieso so gut wie nichts Relevantes dazwischen.
X600 war 9600XT auf PCIe. Als Konkurrenz war sie nicht wirklich gedacht, eher als Lückenfüller.
Schau dir die Einteilung von ATI zu der Zeit an. Sie haben es als ihr damaliges Midrange verkauft.
Mir geht's darum, dass beide IHVs die 6er Reihe seit einiger Zeit echt abgeruestet haben. Was vorher gutes Midrange war ist seit dem nur noch unteres Midrange. Klar, dass dann viele Kunden verwirrt sind.
reunion
2007-10-02, 19:00:12
Mir geht's darum, dass beide IHVs die 6er Reihe seit einiger Zeit echt abgeruestet haben. Was vorher gutes Midrange war ist seit dem nur noch unteres Midrange. Klar, dass dann viele Kunden verwirrt sind.
Was einzig und alleine daran liegt, dass durch den harten Konkurrenzkampf zwischen ATi und NV die Kosten des High-End-Pendants explodieren. Ein R300, welcher Ende 2002 kam, brachte es auf 107mio Transistoren. Ein G80 Ende 2006 bringt es fast auf 700mio Transistoren. Das sprengt Moores Law deutlich. Im Midrage- und Lowendbereich werden die Gewinne erwirtschaftet, da kann man solche Sprünge einfach nicht machen. Dementsprechend stieg die Transistorenanzahl von RV350 (75mio) auf G84 (289mio) auch wesentlich langsamer. Die Folge sind Midragechips, die gegen die High-End-Kollegen ziemlich alt aussehen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.