Archiv verlassen und diese Seite im Standarddesign anzeigen : NV50 / G80?
The_Invisible
2006-08-22, 15:22:11
Hm, naja, wenn der G80 erst Ende des Jahres kommt is auch net so schlimm.
Hauptsache der is mindestens 100% schneller als eine 7900 GTX
denn dafür werden wirs wohl dann sehr brauchen: http://www.crysis-hq.de/
Kann man die Geometrie Shader auch für Physik nutzen irgentwie ? ^^
wenn er wirklich mindestens 100% schneller ist, ist er schon mein
aber ich kann mir das irgendwie nicht vorstellen...
mfg
er wird so 30% schneller sein,mehr ned
Wozu sollte Dual-Irgendwas bei Grafikkarten gut sein? Außer bei Dual-GPU auf einem Substrat ist das IMO eher sinnlos. Wenn ich die Cores integriere, kann ich deutlich einfacher über die Anzahl der ALUs skalieren als Speichercontroller, 2D-Teil, Arbiter usw. alles doppelt mit rumzuschleppen.
=Floi=
2006-08-23, 20:47:54
dürfte aber in der produktion günstiger sein
zB 2 7900GT chips als 1 500mio transistor monster
persönlich bin ich auch eher ein 1 chip design fan
dürfte aber in der produktion günstiger sein
zB 2 7900GT chips als 1 500mio transistor monster
persönlich bin ich auch eher ein 1 chip design fan
Und wieviel Effizienz kostet das? Zuviel - außerdem wird das PCB deutlich aufwendiger und das kostet auch.
Ailuros
2006-08-24, 00:27:13
Nein es war wie 2 6800Gt im SLI.
Ich habe 60%, weil es einfach am schlüssigsten aussieht.
Wenn man beim G80 die gleichen ALUs nimmt, kommt auf 50% Mehrleistung.
Da ich mir aber nicht vorstellen kann, dass die Architektur so sehr geändert wird, also werden die ALUs wahrscheinlich Leistungsfähiger konzipert und vll auch mehr davon, dann kann man sich eine Mehrleistung von etwa 60 bis 70% herausschätzen, und das nur in DX9-Anwendungen.
NV40:
16 ALUs * 12 FLOPs * 0.35 GHz = 67.2 GFLOPs
6800GT@SLi = 134.4 GFLOPs
G70:
24 ALUs * 16 FLOPs * 0.43 GHz = 165.12 GFLOPs
Zwar nur rein theoretischer Firlefanz aber es hilft schon zu verstehen wieso die G70 nur um etwas schneller war als das NV4x/SLi Gespann.
7950GX2 =
48 ALUs * 16 FLOPs * 0.50 GHz = 384 GFLOPs
GX2 ist zweifellos in so manchen Stellen zweimal so schnell wie eine G70. Langsamer als die GX2 darf der G80 auf keinen Fall sein.
AnarchX
2006-08-24, 21:50:07
GeForce 8 im November?!
Wie Hartware.net aus einer sicheren Quelle erfahren hat, plant nVidia die Einführung der achten GeForce Generation im November. Viele Details wurden nicht genannt, aber die Grafikkarten sollen voll zu DirectX 10 kompatibel sein und auch HDCP soll von Haus aus in jeder Karte integriert sein. Ein HDMI-Anschluß ist optional und wird auf Grund der hohen Lizenzkosten den Grafikkartenherstellern überlassen. Wie üblich bei nVidia wird sich die neue Generation zunächst auf High-End beschränken.
http://www.hartware.de/news_40633.html
Zapat
2006-08-24, 22:29:17
Boah ist das noch lange hin und dann hat die Karte noch nichtmall Unfined Shader.Ich warte auf denn R600 dann hab ich hauptsache ein echten Dx 10 Chip und nicht so ein halben..:biggrin:
Boah ist das noch lange hin und dann hat die Karte noch nichtmall Unfined Shader.Ich warte auf denn R600 dann hab ich hauptsache ein echten Dx 10 Chip und nicht so ein halben..:biggrin:
schlaue wahl,allein wegen der bildqualität warte ich auf den r600
AnarchX
2006-08-24, 22:37:33
schlaue wahl,allein wegen der bildqualität warte ich auf den r600
Du weißt wohl schon wie es bei der Bildqualität bei Geforce8 aussehen wird?;)
Boah ist das noch lange hin und dann hat die Karte noch nichtmall Unfined Shader.Ich warte auf denn R600 dann hab ich hauptsache ein echten Dx 10 Chip und nicht so ein halben..
USA hat nix mit D3D10 zu tun...
paul.muad.dib
2006-08-24, 22:46:38
DX 10 ist doch für diese Generation sowieso eher ein Schmankerl als ein ernst zu nehmendes Kriterium.
Bis Vista erscheint sind schon fast die ersten Refreshes da...
Ich freue mich schon auf Benchmarks von wegen "schnellste DX 10 Karte".
Palpatin
2006-08-24, 23:31:02
Warum darf der G80 nicht langsamer als ne GX 2 sein ..... ein 6800 gt sli gespann war auch in den meisten benches schneller als ne 7800 gtx.
Nightspider
2006-08-25, 01:48:51
Warum darf der G80 nicht langsamer als ne GX 2 sein ..... ein 6800 gt sli gespann war auch in den meisten benches schneller als ne 7800 gtx.
G80 ist auch eine neue Generation und kein Refresh. Daher muss der Leistungssprung schon aus Prinzip größer sein. :rolleyes:
Boah ist das noch lange hin und dann hat die Karte noch nichtmall Unfined Shader.Ich warte auf denn R600 dann hab ich hauptsache ein echten Dx 10 Chip und nicht so ein halben..:biggrin:Da ist aber mal wieder jemand gut informiert. Selbstverständlich wird der G80 ein vollwertiger D3D10-Chip. Außerdem gibt es kein "DX10".
GeForce 8 im November?!
nVidia erster bei Grafikkarten mit DirectX 10 Support?
Wie Hartware.net aus einer sicheren Quelle erfahren hat, plant nVidia die Einführung der achten GeForce Generation im November. Viele Details wurden nicht genannt, aber die Grafikkarten sollen voll zu DirectX 10 kompatibel sein und auch HDCP soll von Haus aus in jeder Karte integriert sein. Ein HDMI-Anschluß ist optional und wird auf Grund der hohen Lizenzkosten den Grafikkartenherstellern überlassen. Wie üblich bei nVidia wird sich die neue Generation zunächst auf High-End beschränken.
Gaestle
2006-08-25, 09:13:07
Wozu sollte Dual-Irgendwas bei Grafikkarten gut sein? Außer bei Dual-GPU auf einem Substrat ist das IMO eher sinnlos. Wenn ich die Cores integriere, kann ich deutlich einfacher über die Anzahl der ALUs skalieren als Speichercontroller, 2D-Teil, Arbiter usw. alles doppelt mit rumzuschleppen.
C1 hat vorgemacht, dass ein (quasi) Dual-Core-Design nicht zwangsläufig zweimal den gleichen Core beinhalten muss, sondern dass die beiden Cores für unterschiedliche Aufgaben zuständig sein können. Wie effektiv das ganze dann ist, und wo die Flaschenhälse sind, weiß ich nicht.
Hvoralek
2006-08-25, 15:05:57
C1 hat vorgemacht, dass ein (quasi) Dual-Core-Design nicht zwangsläufig zweimal den gleichen Core beinhalten muss, sondern dass die beiden Cores für unterschiedliche Aufgaben zuständig sein können.Eine Überlegung wäre z.B., alle Schaltungen, die nur einmal vorhanden sein müssen (etwa Rasterizer, Speichercontroller, Arbiter), auf einen Die zu packen und dazu dann eine variable Anzahl an Chips mit TMUs, Shadern und ROPs auf die Platine zu setzen. Wäre das technisch machbar?
/edit: Gab es so eine Idee nicht auch schon einmal ("Thor" der Bitboys afair ein ähnliches Konzept)?
Gaestle
2006-08-25, 15:57:21
Eine Überlegung wäre z.B., alle Schaltungen, die nur einmal vorhanden sein müssen (etwa Rasterizer, Speichercontroller, Arbiter), auf einen Die zu packen und dazu dann eine variable Anzahl an Chips mit TMUs, Shadern und ROPs auf die Platine zu setzen. Wäre das technisch machbar?
/edit: Gab es so eine Idee nicht auch schon einmal ("Thor" der Bitboys afair ein ähnliches Konzept)?
Ich glaube, C1 hat angedeutet, dass es machbar ist und funktionieren dürfte (obwohl hier nur der eDRAM und die Stencil.operatoren ausgelagert wurden). ( http://www.computerbase.de/artikel/hardware/multimedia/2005/test_microsoft_xbox_360/7 )
Ob das für Desktop-Chips sinnvoll ist, weiß ich nicht. Ob wir es irgendwann bei Desktop-Chips sehen werden, weiß ich auch nicht.
Hvoralek
2006-08-25, 16:08:33
Ich glaube, C1 hat angedeutet, dass es machbar ist und funktionieren dürfte (obwohl hier nur der eDRAM und die Stencil.operatoren ausgelagert wurden). ( http://www.computerbase.de/artikel/hardware/multimedia/2005/test_microsoft_xbox_360/7 )Da sind nur die ROPs "ausgelagert", die afaics schlicht die "fertigen" Daten von der GPU bekommen müssen. Wenn man aber auch die sonstigen Teile der GPU über verschiedene Chips verteilt, müsste man ständig Daten zwischen denen hin- und herschieben. Ich kann mir kaum vorstellen, dass das so ganz problemlos möglich wäre.
Ob das für Desktop-Chips sinnvoll ist, weiß ich nicht. Ob wir es irgendwann bei Desktop-Chips sehen werden, weiß ich auch nicht.So wie beim R500 mMn wohl nicht. Die Idee, eDRAM als Backbuffer zu verwenden, ist zwar eine gute Idee, aber in einer wirklich sinnvollen Größe dürfte das arg teuer sein.
Ailuros
2006-08-26, 06:51:32
GeForce 8 im November?!
nVidia erster bei Grafikkarten mit DirectX 10 Support?
Wie Hartware.net aus einer sicheren Quelle erfahren hat, plant nVidia die Einführung der achten GeForce Generation im November. Viele Details wurden nicht genannt, aber die Grafikkarten sollen voll zu DirectX 10 kompatibel sein und auch HDCP soll von Haus aus in jeder Karte integriert sein. Ein HDMI-Anschluß ist optional und wird auf Grund der hohen Lizenzkosten den Grafikkartenherstellern überlassen. Wie üblich bei nVidia wird sich die neue Generation zunächst auf High-End beschränken.
Nach dem ueblichen Anhang dass wenn alles nach Plan laeuft, macht die obrige Andeutung schon Sinn. Das vorige Ziel war "back to school" aber es war wohl doch etwas zu optimistisch eingeschaetzt.
Ob sie auch diesen Termin einhalten werden koennen ist immer noch nicht sicher.
"Ein HDMI-Anschluß ist optional und wird auf Grund der hohen Lizenzkosten den Grafikkartenherstellern überlassen".
oha und die ersten werden alle den Anschluß haben.....wetten :D >900€+Viasko..wers brauch.....
Sunrise
2006-08-26, 13:40:03
"Ein HDMI-Anschluß ist optional und wird auf Grund der hohen Lizenzkosten den Grafikkartenherstellern überlassen".
oha und die ersten werden alle den Anschluß haben.....wetten :D >900€+Viasko..wers brauch.....
Es handelt sich hierbei um vernachlässigbare Kosten, die du sowieso kaum spüren wirst. Den AIBs wird es deshalb überlassen, weil diese die zusätzlichen Kosten auch tragen müssen - das ist also eigentlich kalter Kaffe und wird in einigen Jahren wohl sowieso zum Standard werden.
Wenn wir wirklich SKUs mit einem MSRP von >$700 sehen, dann ist das vornehmlich bedingt durch die vorerst geringen Margen, die der IHV selbst abfangen muss, und das trifft dann sowohl auf G80, wie auch auf R600 zu. Je nach Einführungszeitpunkt, rechnet hier sicher niemand mit "Schnäppchen" (als solche sind sie eigentlich auch nicht gedacht).
Zitat aus der neuen Gamestar:
Nach Gamestar Recherchen hat Nvidia erste Grafikkarten des Geforce7 Nachfolgers G80 an einige Partner ausgeliefert.
Die von uns gesichtete Vorserienplatine belegt wie die Geforce 7900GTX
zwei Slotbleche und hat eine schwarze Küglerabdeckung .......
G80 Grafikkarten sollen zwischen Oktober und Dezember erscheinen .....
gguru
2006-09-01, 15:24:45
G80 Grafikkarten sollen zwischen Oktober und Dezember erscheinen.....
Zwischen Oktober und Dezember liegt November. ^^
Das würde die früheren Angaben bestätigen.
Für mich kann der g80 garnicht früh genug kommen.
Ach ja, die Tage verstreichen und man hört rein gar nichts ....
Die gelbe Eule
2006-09-04, 06:03:35
Hmm warum reden hier einige noch davon das der G80 kein US hat? Laut D3D10 Spezifiaktion muss nur die Geometrieeinheit ausgelagert sein, den Rest kann man dynamisch verwalten. Könnte also ein semi-US Modell werden.
Ailuros
2006-09-04, 06:18:49
Hmm warum reden hier einige noch davon das der G80 kein US hat? Laut D3D10 Spezifiaktion muss nur die Geometrieeinheit ausgelagert sein, den Rest kann man dynamisch verwalten. Könnte also ein semi-US Modell werden.
IMHO macht es mehr Sinn wenn man fuer einen "semi-US" geht, GS/VS zu vereinigen und nicht PS/VS+GS.
Godmode
2006-09-04, 07:11:56
IMHO macht es mehr Sinn wenn man fuer einen "semi-US" geht, GS/VS zu vereinigen und nicht PS/VS+GS.
Und warum, weil VS und GS mit gleichen Daten hantieren?
Die gelbe Eule
2006-09-04, 07:16:07
Dachte US wäre nur die Zusammenlegung von PS und VS, der GS gehört da ja gar nicht rein ...
Dachte US wäre nur die Zusammenlegung von PS und VS, der GS gehört da ja gar nicht rein ...
Falsch gedacht. Unified heisst unified und nicht "ein bißchen unified".
Die gelbe Eule
2006-09-04, 08:00:11
Ein bißchen unified ist immernoch unified. Geometrieshader gibt es erst mit D3D10 in Hardware und die dürfen noch außerhalb einer US Architektur liegen, müssen es aber nicht.
ShadowXX
2006-09-04, 13:25:08
Ein bißchen unified ist immernoch unified. Geometrieshader gibt es erst mit D3D10 in Hardware und die dürfen noch außerhalb einer US Architektur liegen, müssen es aber nicht.
Erlaubt ist alles, solange du die D3D10-Specs erfüllst....auch bei D3D10 kannst du, wenn du lustig bist, PS, VS & GS in getrennten Einheiten verbauen.
Aber ich stimme AiL zu, das wenn man nur einen "ein bisserl USC" baut besser GS&VS als VS&PS vereinigt.
Die gelbe Eule
2006-09-04, 13:39:30
Da sich die GS doch eher nur dem SM 4.0 zuwenden sollen, ist es vielleicht erstmal einfacher sie auszulagern. NV sagte ja selbst das man die alte Technologie noch ausreizen kann und der Sprung ins kalte Wasser kann ja immer daneben gehen.
seahawk
2006-09-04, 14:19:33
Die Ider einer Zusammenlegung von VS+GS bei einer Trennung vom PS macht durchaus Sinn. Vor allem weil man da denn Bedarf an Tempregistern exakter bestimmen kann.
Ailuros
2006-09-05, 00:14:05
Und warum, weil VS und GS mit gleichen Daten hantieren?
Nicht nur IMHO. Wie ich schon im R600 Thread erwaehnte, ich erwarte bei der ersten Generation nichts besonderes (von beiden IHVs) was GS betrifft. Man deckt eben die D3D10 Vorraussetzungen ab, Entwickler koennen damit herumspielen und man kuemmert sich um die Leistung dann eben spaeter, wenn hoehere Chip-komplexitaet moeglich ist.
Und warum, weil VS und GS mit gleichen Daten hantieren?
Weil einer von beiden sehr oft leer läuft...
Godmode
2006-09-05, 17:21:31
Nicht nur IMHO. Wie ich schon im R600 Thread erwaehnte, ich erwarte bei der ersten Generation nichts besonderes (von beiden IHVs) was GS betrifft. Man deckt eben die D3D10 Vorraussetzungen ab, Entwickler koennen damit herumspielen und man kuemmert sich um die Leistung dann eben spaeter, wenn hoehere Chip-komplexitaet moeglich ist.
Ja das klingt plausibel
Weil einer von beiden sehr oft leer läuft...
Ach so ist das gemeint. Kann man eigentlich endlich vernünftiges dynamisches Branching erwarten?
Blackpitty
2006-09-07, 22:45:14
Hab den Thread nicht durchgelesen, aber soll der G80 AA + HDR können?
Ach so ist das gemeint. Kann man eigentlich endlich vernünftiges dynamisches Branching erwarten?
Das dyn. branching der Vertexshader von nVIDIA war schon immer gut. Viel besser als das von ATI im Moment.
Im Pixelshader ist auch stark davon auszugehen.
Hab den Thread nicht durchgelesen, aber soll der G80 AA + HDR können?
Verlangt D3D10 zwingend (genauer gesagt: MSAA auf FP16-Rendertargets).
Nightspider
2006-09-07, 22:55:47
Hab den Thread nicht durchgelesen, aber soll der G80 AA + HDR können?
Mensch Pitty, das ist der 3.Thread in dem ich deinen Fragen-Spamerei einhalt gebieten muss ! :biggrin:
*g*
Nein, es ist noch nichts dergleichen bestätigt aber man kann ruhigen gewissens davon ausgehen...das wäre sonst ein großes Eigentor für Nvidia. ;)
Nein, es ist noch nichts dergleichen bestätigt
Ist es. Es sei denn es wird keine D3D10-Karte...
Nightspider
2006-09-07, 23:51:48
Ist es. Es sei denn es wird keine D3D10-Karte...
Ich hab glaube ich noch nirgents gelesen, das HDR+AA eine Vorraussetzung für Direct3D10 ist...
Ich hab glaube ich noch nirgents gelesen, das HDR+AA eine Vorraussetzung für Direct3D10 ist...
Dann solltest du dir die SDK-Dokumentation zur Gemüte führen.
Ailuros
2006-09-08, 06:11:26
Mensch Pitty, das ist der 3.Thread in dem ich deinen Fragen-Spamerei einhalt gebieten muss ! :biggrin:
*g*
Nein, es ist noch nichts dergleichen bestätigt aber man kann ruhigen gewissens davon ausgehen...das wäre sonst ein großes Eigentor für Nvidia. ;)
Es ist wohl die einzige Kleinigkeit die wir offiziell bestaetigen durften in der Vergangenheit.
Blackpitty
2006-09-08, 17:24:37
Mensch Pitty, das ist der 3.Thread in dem ich deinen Fragen-Spamerei einhalt gebieten muss ! :biggrin:
*g*
Nein, es ist noch nichts dergleichen bestätigt aber man kann ruhigen gewissens davon ausgehen...das wäre sonst ein großes Eigentor für Nvidia. ;)
Na wenn das so ist (wegen den 3 Threads) dann müsstest du ja auch von mein Problem kennen, das ich gerade habe.
Nightspider
2006-09-08, 17:32:41
Na wenn das so ist (wegen den 3 Threads) dann müsstest du ja auch von mein Problem kennen, das ich gerade habe.
Öhhhhh....^^' Du bist nicht auf dem Laufenden ? =)
Blackpitty
2006-09-08, 17:52:29
nein, ob ich noch eine 7900GX2 für den Hammer Preis von 370€ kaufen soll oder eben nicht ;(
Mach halt, wenn du (oder deine Eltern ;)) die Kohle hast und den Drang nach mehr Grafikleistung verspürst. Ich für meinen Teil bleibe bei meiner 7800GTX/256.
Blackpitty
2006-09-08, 18:50:23
was hat das mit meinen erltern zu tun???
Die 7900 GX2 gibts doch garnicht mehr für 370 Euro.
Blackpitty
2006-09-08, 20:44:13
da bist du aber schlecht informiert....
ShadowXX
2006-09-08, 20:57:36
Dann solltest du dir die SDK-Dokumentation zur Gemüte führen.
AFAIK ist das noch nicht mal zu 100% in D3D10.1 definiert.
Zumindest gibt es erst ab D3D10.1 vorschriften das MSAA überhaupt unterstützt werden muss.
Was D3D10 vorschreibt ist das FP16 Blending und Filterung funktionieren muss. MSAA wird wie gesagt AFAIK nicht erwähnt. Ich gehe allerdings davon aus, das es beide großen IHVs bieten werden.
siehe auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4595625&postcount=13
Könnte das eine G80 sein?
http://666kb.com/i/aheom8lfkm9k4fqno.jpg
http://666kb.com/i/aheon93op1wiakek4.jpg
=Floi=
2006-09-10, 15:20:06
das sollte eine dual gpu karte sein
doppelte stromversorgung 2 stromanschlüsse
heatpipe geht nicht in die mitte
Nightspider
2006-09-10, 15:31:53
Vielleicht ist der G80 in der schnellsten Variante eine Single-Card-Dual-Chip Version.
also 2*64 Shader *sabber* :rolleyes:
gguru
2006-09-10, 15:33:17
Ich glaub das ist eine Dual 7900 GT.
Bin aber nicht sicher was G71-GT-N-A2 heißt.
http://www.galaxytech.com/masterpiece/about.asp
Ich glaub das ist eine Dual 7900 GT.
Bin aber nicht sicher was G71-GT-N-A2 heißt.
http://www.galaxytech.com/masterpiece/about.asp
Hast recht, scheint mir doch keine g80 zu sein. Einen Versuch wars dennoch wert:biggrin:
Das Layout zumindest ist neu.
http://www.galaxytech.com/masterpiece/Photos/show/show1.jpg
gguru
2006-09-10, 15:52:15
Mir ist das dabei eingefallen: http://youtube.com/watch?v=OXZTN19ogiY
Aber zurück zum Thema: Angenommen der G80 soll am Releasetag schon erhältlich sein, wie es beim G70 war, wie lange vorher würden sie ihn wahrscheinlich ankündigen?
=Floi=
2006-09-10, 16:08:19
ca 1 woche wie bei der 7950GT aktuell, aber dann sind noch immer keine daten bekannt wenn NV das NDA drauf hat
vor feb ist es sowieso nicht interesannt
erst brauchen wir mal ein win und ohne druck wird NV nichts freigeben weil sie sich nur selbst damit ins fleisch schneiden
Rente
2006-09-10, 16:14:30
vor feb ist es sowieso nicht interesannt
erst brauchen wir mal ein win und ohne druck wird NV nichts freigeben weil sie sich nur selbst damit ins fleisch schneiden
Wieso das denn bitte? Soll der G80 bei DX9-Anwendungen langsamer sein? Ich glaube kaum...
Die SM3.0-Fähigkeiten der GF6-Reihe liefen auch eine ganze Weile ohne Unterstützung der Entwickler, ob die D3D10-Fähigkeiten des G80 nun erst in 3-6 Monaten genutzt werden können ist eigentlich ziemlich egal.
Einen Hard-Launch im November, Anfang Dezember würde ich sehr favorisieren, damit hätte nV einen Vorsprung zu ATi/AMD (die ja wohl erst 2007 den R600 launchen) und könnte das Weinachtsgeschäft gut nutzen...
gguru
2006-09-10, 16:19:16
Einen Hard-Launch im November, Anfang Dezember würde ich sehr favorisieren, damit hätte nV einen Vorsprung zu ATi/AMD (die ja wohl erst 2007 den R600 launchen) und könnte das Weinachtsgeschäft gut nutzen...
Laut hartnäckigen Gerüchten (die ich aus den Foren von nvnews und beyond3d herhabe) soll der G80 in der ersten Novemberhälfte kommen.
An Entwickler wurde bereits DX10 Hardware ausgeliefert, z.B. Crytek.
=Floi=
2006-09-10, 16:26:04
naja ein D3D10 chip ohne D3D10 O_o
und ausgerechnet bei NV wo sowieso jedes future gehyped wird
(und wenn er 10X schneller in 9.0c ist ist directx9 ab dem launch faktisch tot )
ein neuer chip kostet ne menge geld, da wird eher nochmal ein refresh nachgeschoben (7990GT ;D ) als dass NV den chip umsonst realeasd
Rente
2006-09-10, 16:28:34
Laut hartnäckigen Gerüchten (die ich aus den Foren von nvnews und beyond3d herhabe) soll der G80 in der ersten Novemberhälfte kommen.
An Entwickler wurde bereits DX10 Hardware ausgeliefert, z.B. Crytek.
Das sind ja sehr gute Nachrichten, in beiden Foren sind ja gelegentlich Mitarbeiter von nVidia zu finden.
Zu CryTek: Arbeiten die mit einem Vista Build mit D3D10, oder wie machen die das?
TheGamer
2006-09-10, 16:37:04
Das sind ja sehr gute Nachrichten, in beiden Foren sind ja gelegentlich Mitarbeiter von nVidia zu finden.
Zu CryTek: Arbeiten die mit einem Vista Build mit D3D10, oder wie machen die das?
Ja wie sonst, DU kannst dir ja auch ein Vista Build mit D3D10 runterladen das ist kein Problem, nur fehlt dir die Hardware ;)
ScottManDeath
2006-09-11, 09:04:40
naja ein D3D10 chip ohne D3D10 O_o
Höh? Wo haben wir denn dies aufgeschnappt?
naja ein D3D10 chip ohne D3D10 O_o
Und? R300 war auch ein D3D9-Chip ohne D3D9. War trotzdem toll.
ShadowXX
2006-09-11, 12:45:10
Und? R300 war auch ein D3D9-Chip ohne D3D9. War trotzdem toll.
Man sollte auch immer in Hinterkopf haben, das die D3D10-"Hype"-Features wie z.B. GS in der ersten Gen sowieso mehr auf dem Papier bestehen (ok ok....der r300 war da die Ausnahme der Regel, aber der r300 war auch insgesamt ein Ausnahmechip).
Aber nV und ATI "warnen" die Devs ja jetzt schon den GS "ordentlich" zu nutzen.....ist mehr eine "Techdemo".
Also macht der G80 tatsächlich, durchaus auch für DX9 Sinn....man könnte auch sagen, das dies eigentlich mehr der "finale" DX9-Chip ist, der zufällig auch D3D10 beherrscht.
Und 2-3 Monate vor r600 könnte nV (gerade im Weihnachtsgeschäft) tatsächlich richtig Geld in die Kassen spülen, da dann vielleicht sogar einige beinharte ATI-Käufer zur "Überbrückung" einen G80 kaufen würden.
gguru
2006-09-11, 19:22:19
Was habt ihr beiden? Natürlich ist der G80 als vollständig DX10 tauglich geplant. Unified Shader Architecture ist kein Kriterium.
Moralelastix
2006-09-11, 19:36:29
Das ist schon eins.
Nur setzt ATI das in Hardware um und NV simuliert per Treiber also CPU.
AnarchX
2006-09-11, 19:37:45
Das ist schon eins.
Nur setzt ATI das in Hardware um und NV simuliert per Treiber also CPU.
:rolleyes:
Dann erklär mal was eine Unified Shader Architektur mit D3D10 so zwingend zu tun hat?
Moralelastix
2006-09-11, 20:12:41
Na wenn die IHVs das Feature nicht bringen müssten frag ich mich wieso sie es dann trotzdem tun?
Bestimmt aus reiner Innovationsgeilheit!:biggrin:
AnarchX
2006-09-11, 20:27:43
Na wenn die IHVs das Feature nicht bringen müssten frag ich mich wieso sie es dann trotzdem tun?
Bestimmt aus reiner Innovationsgeilheit!:biggrin:
Du weisst wobei es sich bei einer U.S.A. handelt und welcher IHV sie schon im Einsatzt hat in einer bestimmten Konsole?;)
Moralelastix
2006-09-11, 20:34:18
Weshalb macht sich dann NV die Arbeit mit der Simulierung?
Zukünftig will NV doch auch umstellen.
ShadowXX
2006-09-11, 20:39:59
Na wenn die IHVs das Feature nicht bringen müssten frag ich mich wieso sie es dann trotzdem tun?
Bestimmt aus reiner Innovationsgeilheit!:biggrin:
Nur das D3D10 API Interface verlangt danach.....der Treiber muss es also zur Verfügung stellen.
Wie es in HW umgesetzt wird ist völlig egal.
Der Hauptgründe, warum es dann früher (ATI) oder später (nV) auch vollständig in der HW so umgesetzt wird, sind wohl die (größeren) Latenzen die bei getrennten Einheiten entstehen und das man Transistoren sparen kann.
Aber wie schon öfter erwähnt: Von den D3D10-Fähigkeiten würde ich, ausser das diese unterstützt werden, noch nicht zuviel erwarten.
AnarchX
2006-09-11, 20:41:00
Weshalb macht sich dann NV die Arbeit mit der Simulierung?
Zukünftig will NV doch auch umstellen.
Informier dich! :rolleyes:
Da muss nix simuliert werden, da USA eine Arbeitsweise ist und kein Effekt.
gguru
2006-09-11, 21:07:42
Der G80 soll 32 (2*16) vereinigte VS/GS Einheiten haben. Dazu noch 64 (2*32) PS Einheiten. Wüsste nicht was ein Treiber da zu simulieren hätte.
Übrigens: Chief Scientist bei NVidia, David Kirk, erwartet, "dass D3D10-Grafikkarten vor D3D10-Spielen da sein werden".
:smile:
Expandable
2006-09-11, 21:14:10
... "dass D3D10-Grafikkarten vor D3D10-Spielen da sein werden".
Wtf? War das schon jemals bei irgendeiner D3D-Version anders?
Moralelastix
2006-09-11, 22:28:14
http://www.beyond3d.com/forum/showthread.php?p=828462#post828462
"Non-unified ps/vs"
Ich glaub die sind gut im Raten.
deekey777
2006-09-11, 22:33:30
Die meisten Infos sind aus dem B3D-Forum, eher sind wir gut im Raten.
(Abgesehen von den Usern, die auch im B3D-Forum zu Hause sind wie Demirug, Ailuros, Sunrise...).
Das ewige Missverständnis.
Direct3D 10 erfordert keine Unified-Shader-GPU im Sinne von gemeinsamen Einheiten für alle Stages sondern verlangt nur dass diese Stages alle die gleichen Grundfunktionen zur Verfügung stellen.
Es gibt also einen Unterschied zwischen "Unified Shader" auf Hardware- und auf Software-Ebene.
Zum mitnotieren:
- Unified Shader in Software: Gleiche Funktionen für alle Pipelinestages.
- Unified Shader in Hardware: Alle Stages werden von den gleichen ALUs ausgeführt.
Kapisch?
Ailuros
2006-09-12, 06:57:17
Ich koennte mir locker Faelle vorstellen wo kommende D3D10 GPUs nicht besonders schneller sein werden als zeitige GPUs. Wie viele genau "wahre" D3D9 Spiele gibt es momentan auf Regalen? Wieviele von all den Spielen sind teilweise zu stark CPU limitiert und wieviele sind im Grunde DX7+ Spiele mit ein paar zusatzlichen D3D9 Effekten?
Solche Seiteneffekte sind normal bei neuen Generationen und es war in der Vergangenheit auch nicht besonders anders.
Ailuros
2006-09-12, 07:10:58
Aber wie schon öfter erwähnt: Von den D3D10-Fähigkeiten würde ich, ausser das diese unterstützt werden, noch nicht zuviel erwarten.
Wie bei jeder neuen Generation sind die neuen Features/Faehigkeiten anfangs meistens von Entwickler-Interesse. Bei der Unmenge die D3D10 an Chipkomplexitaet mit sich bringt, sieht es nicht aus als ob momentan ein wirklich schneller D3D10 chip moeglich waere und ich kann mir auch nicht vorstellen was es mir als Verbraucher genau bringen wuerde, ausser ein paar techdemos und synthetischen Applikationen.
Und natuerlich - so wie immer - wenn wahre D3D10 Spiele endlich erscheinen, werden G80/R600 so veraltet sein dass sich kein Schwein mehr mit diesen beschaeftigen wird.
Am Ende sind wohl Entwickler erstmal froh wenn alle chips (ja auch IGPs) die Basis-Forderungen von D3D10 erfuellen koennen, damit sie erstmal wahre D3D10 Spiele fuer die Zukunft entwickeln koennen.
Was mich als Verbraucher stets interessiert ist was eine GPU als Buendel insgesamt fuer die zeitigen Spiele leisten kann, mit welcher Bildqualitaet, Stromverbrauch, Preis etc. Persoenlich macht mir erstmal Vista viel mehr Gedanken als alles andere. Ich hab nicht die geringste Lust eine Uebersumme fuer generelle Aufruestungen zu bezahlen fuer ein OS dass wohl mehr als ein "service pack" brauchen wird um wirklich nutzbar zu sein. So "irrelevant" ist es am Ende auch nicht....
Quasar
2006-09-12, 08:57:42
Wenn Ati dieses Mal ihren OpenGL-Treiber rechtzeitig auf die Reihe kriegt und den Rasterizer-Part entsprechend ausgelegt hat, könnten Sie dank HW-USA recht gute FireGL-Karten aufs Parkett legen.
G80 late because of a respin
http://www.the-inquirer.net/default.aspx?article=34319
Wenn Ati dieses Mal ihren OpenGL-Treiber rechtzeitig auf die Reihe kriegt und den Rasterizer-Part entsprechend ausgelegt hat, könnten Sie dank HW-USA recht gute FireGL-Karten aufs Parkett legen.
Stimmt, reiner Vertexdurchsatz dürfte ziemlich übel sein bei dem Teil :D
gguru
2006-09-12, 15:34:20
G80 late because of a respin
http://www.the-inquirer.net/default.aspx?article=34319
Wie jetzt? November? Naja, Inquirer...:rolleyes:
ShadowXX
2006-09-12, 16:38:25
G80 late because of a respin
http://www.the-inquirer.net/default.aspx?article=34319
Viel gruseliger als die Verspätung hört sich das hier an:
So, it is going to be late, that is not the ugly bit, board partners are telling us that it very well might have an external PSU to power the beast. We told you it was going to be hot, but not as hot as an R600. Either way, this does not bode well for either card. Think of a monster with a brick to keep it from running away.
Externe PSUs.......wo soll das noch enden? Und woran erinnert mich das bloss?. Ach ja 3Dfx und die nie erschienen Karte dazu.
Und der r600 soll noch stromhungeriger sein......
Moralelastix
2006-09-12, 16:41:35
Mir wirds auch schon ganz schlecht! Und erst die Abwärme *würg*
Woher willst Du wissen das der R600 noch mehr Stom verbauchen soll?
AnarchX
2006-09-12, 16:43:06
Woher willst Du wissen das der R600 noch mehr Stom verbauchen soll?
Steht doch im zitierten Text:
but not as hot as an R600
Nunja auf INQ würde ich mich nicht unbedingt verlassen, die geben neben einigen Wahrheiten auch viel Unsinn von sich...
Moralelastix
2006-09-12, 16:45:51
Vielleicht lässt sich das auch im Sinne von "schnell" deuten?
AnarchX
2006-09-12, 16:49:06
Vielleicht lässt sich das auch im Sinne von "schnell" deuten?
ROFL!!! ;D
Die GraKa mit dem größten Kühler bzw. die lauteste ist natürlich die schnellste..;)
Wie kommt man nur auf solche Ideen?
The_Invisible
2006-09-12, 17:27:51
Viel gruseliger als die Verspätung hört sich das hier an:
Externe PSUs.......wo soll das noch enden? Und woran erinnert mich das bloss?. Ach ja 3Dfx und die nie erschienen Karte dazu.
Und der r600 soll noch stromhungeriger sein......
hm, hab in meiner stromsteckleiste keinen stecker mehr frei :D
aber hört sich nicht gerade kühl und sparsam an, ich glaube ich warte auf refresh
mfg
gguru
2006-09-12, 17:30:06
aber hört sich nicht gerade kühl und sparsam an, ich glaube ich warte auf refresh
Der Inquirer hats wieder mal geschafft.
Moralelastix
2006-09-12, 17:36:20
ROFL!!! ;D
Die GraKa mit dem größten Kühler bzw. die lauteste ist natürlich die schnellste..;)
Wie kommt man nur auf solche Ideen?
Verdammt Du nimmst einem auch jede Hoffung!:biggrin:
Vielleicht kommt der R600 ja in 65nm daher und verbraucht dann nur 150W.
Moralelastix
2006-09-12, 17:53:01
Ich frag mich wie die sowas mit ner Lufkühlung gebacken bekommen wollen?
http://www.xbitlabs.com/articles/video/display/ati-x1950xtx_7.html
Die Kühlung der Radeon X1950 XTX wird da auch nicht mehr reichen.
Also irgendwas sehr großes, schweres und schön lautes als Kühlung?
Da bleibt ja nur eine Wakü als vernünftige Kühlung übrig.
Vielleicht kommt der R600 ja in 65nm daher und verbraucht dann nur 150W.Ich bezweifle, dass einer von beiden D3D10-Chips in 65 nm kommt.
deekey777
2006-09-12, 19:57:29
Verdammt Du nimmst einem auch jede Hoffnung!:biggrin:
Vielleicht kommt der R600 ja in 65nm daher und verbraucht dann nur 150W.
Nein, der R600 wird (zunächst) in 80 nm gefertigt. Das ist so sicher wie das Amen in der Kirche.
Zu der Sache mit externen Netzteilen und so: Wenn mich nicht alles täuscht, war es so, dass die Grafikkartenhersteller den PSU-Herstellern einen Tipp gaben, ihre nächsten Netzteile etwas stärker zu machen, damit diese den Anforderungen der kommenden Grafikkarten-Generation leistungsmäßig gerecht werden. Man ging von dem Worst Case aus, also mindestens von einem CF-Verbund oder SLI-Verbund bis Quad-SLI/-CF. Die PSU-Hersteller haben darauf extrem starke Modelle gezeig, diverse News-Seiten haben möglicherweise zu viel darein interpretiert. Jetzt haben wir einen G80, der 1000 Watt braucht...
Ailuros
2006-09-13, 06:55:38
Stimmt, reiner Vertexdurchsatz dürfte ziemlich übel sein bei dem Teil :D
Wie sieht denn der "Vertexdurchsatz" auf Xenos genau in Echtzeit aus?
ShadowXX
2006-09-13, 10:11:44
Nein, der R600 wird (zunächst) in 80 nm gefertigt. Das ist so sicher wie das Amen in der Kirche.
Zu der Sache mit externen Netzteilen und so: Wenn mich nicht alles täuscht, war es so, dass die Grafikkartenhersteller den PSU-Herstellern einen Tipp gaben, ihre nächsten Netzteile etwas stärker zu machen, damit diese den Anforderungen der kommenden Grafikkarten-Generation leistungsmäßig gerecht werden. Man ging von dem Worst Case aus, also mindestens von einem CF-Verbund oder SLI-Verbund bis Quad-SLI/-CF. Die PSU-Hersteller haben darauf extrem starke Modelle gezeig, diverse News-Seiten haben möglicherweise zu viel darein interpretiert. Jetzt haben wir einen G80, der 1000 Watt braucht...
Das hört sich hier schon etwas anders an:
board partners are telling us that it very well might have an external PSU to power the beast.
Das was du da gepostet hat waren AFAIR die "Rumors" für die letzte Gen (also das jetzt erhältliche).
Wobei: Es ist natürlich nur der INQ........aber beim 500++ Mio. Transis bei 500-600MHz (oder sogar mehr) in nur 80 (ATI) oder sogar 90(? nV)nm.
Das hört sich heiß und hungrig an.....da benötige ich nicht mal den INQ.
paul.muad.dib
2006-09-13, 11:24:36
:rolleyes:
Dann erklär mal was eine Unified Shader Architektur mit D3D10 so zwingend zu tun hat?
AFAIK gehört das zu den Minimalanforderungen von MS, das zumindest für die Software eine USA da ist. NV erfüllt das aber, indem sie eine solche vortäuschen.
Grestorn
2006-09-13, 12:01:29
AFAIK gehört das zu den Minimalanforderungen von MS, das zumindest für die Software eine USA da ist. NV erfüllt das aber, indem sie eine solche vortäuschen.
Wie schon geschrieben wurde: D3D10 schreibt nur vor, dass PS und VS den selben, vollständigen Befehlssatz nutzen können.
Dass diese auch von der selben Hardware ausgführt werden müssen, steht nirgendwo als Bedingung für D3D10-compliance.
Ich bin sehr gespannt, ob es ATI schafft mit der US Architektur und netto weniger Shadereinheiten an die Effizienz einer getrennten, spezialisierten Architektur heranzukommen.
deekey777
2006-09-13, 12:15:52
Das hört sich hier schon etwas anders an:
Das was du da gepostet hat waren AFAIR die "Rumors" für die letzte Gen (also das jetzt erhältliche).
Wobei: Es ist natürlich nur der INQ........aber beim 500++ Mio. Transis bei 500-600MHz (oder sogar mehr) in nur 80 (ATI) oder sogar 90(? nV)nm.
Das hört sich heiß und hungrig an.....da benötige ich nicht mal den INQ.
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770
ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card. ATI and NVIDIA won't confirm or deny our findings and we are receiving conflicting information as to the exact specifications of these new GPUs, but the one thing is for sure is that the power requirements are steep.
Power supply makers are being briefed now in order to make sure that the power supplies they are shipping by the end of this year are up to par with the high end GPU requirements for late 2006/early 2007. You will see both higher wattage PSUs (1000 - 1200W) as well as secondary units specifically for graphics cards. One configuration we’ve seen is a standard PSU mounted in your case for your motherboard, CPU and drives, running alongside a secondary PSU installed in a 5.25” drive bay. The secondary PSU would then be used to power your graphics cards.
Daraus kann ich nur ableiten, dass der Worst Case gemeint ist.
Die kommende Generation werden definitiv Transistoren-Monster sein, das ist klar.
Wie sieht denn der "Vertexdurchsatz" auf Xenos genau in Echtzeit aus?
Ha? CAD-Software braucht praktisch keine Pixelshader, dass heißt die ALUs stehen praktisch ausschließlich für die Vertexshader zur Verfügung.
Was hat das mit Xenos zu tun?
AFAIK gehört das zu den Minimalanforderungen von MS, das zumindest für die Software eine USA da ist. NV erfüllt das aber, indem sie eine solche vortäuschen.
ARGH.
http://forum-3dcenter.org/vbulletin/showpost.php?p=4765208&postcount=831
Moralelastix
2006-09-13, 13:04:12
"up to 300W per card"
Also langsam wirds ja nur noch lächerlich!
Selbst ein Nachfolger der GX2 Karten der dann auch "nur" über 200W verbraucht is schon an der Grenze zum Hirnriss aber 300W!!:uhammer:
Wenn das wirklich so kommt wird das eine noch größere "Lachplatte" als der der P4.
(+44)
2006-09-13, 13:47:44
"up to 300W per card"
Also langsam wirds ja nur noch lächerlich!
Selbst ein Nachfolger der GX2 Karten der dann auch "nur" über 200W verbraucht is schon an der Grenze zum Hirnriss aber 300W!!:uhammer:
Wenn das wirklich so kommt wird das eine noch größere "Lachplatte" als der der P4.
Gerade aus dem Grund habe ich meine X1900XT gegen ne 7900GTX eingetauscht - Das Ding wird mir zu warm und zu laut.
Und ich bin wirklich kein "Öko-Freak", hatte bisher immer nen P4 im Einsatz.
Und ich muss sagen - selbst nen Prescott2M @ 4GHz kann man mit nem XP-90C und nem sehr leisen Noiseblocker-Lüfter auch im Sommer problemlos leise kühlen.
Bei nem Prozessor würde mir auch nie im Leben einfallen, den Boxed-Kühler zu verwenden - anders bei ner Grafikkarte, da lässt man den Kühler oftmals allein wegen der Garantie drauf.
Und was hat man davon? Grafikkarte wird ziemlich heiß und in den meisten Fällen ziemlich laut.
Wenn sich die hohe Abwärme bewahrheitet, frag ich mich ernsthaft, welche Kühllösung so ne kleine Grafikkarte noch auf Temperatur halten soll.
Selbst wenn die Abwärme unter 200 Watt bleibt - Die Hersteller werden n bisschen Metall mit nem riesigen Radiallüfter draufklatschen - ergo:
Ultra-Heiße Karten sind ultralaut und haben eine Ultrahohe Ausfallrate.
Gerade wo die Prozessorhersteller endlich wieder halbwegs stromsparende CPU's bringen, treiben die Grafikkartenhersteller es wieder auf die Spitze.
Und ja, es sind Gerüchte, aber fast alle IT-Gerüchte waren irgendwo doch wieder Insiderinfos, die sich zumindest im Ansatz bewahrheitet haben.
Slipknot79
2006-09-13, 14:01:09
>Wenn sich die hohe Abwärme bewahrheitet, frag ich mich ernsthaft, welche Kühllösung so ne kleine Grafikkarte noch auf Temperatur halten soll.
Für den Ottonormalverbraucher ne "unbezahlbare" Wakü :(
Moralelastix
2006-09-13, 14:09:25
Ich glaub Leute wie "razor" sind schon ausgewandert oder liegen noch im Koma nachdem sie das gelesen haben.:biggrin:
paul.muad.dib
2006-09-13, 14:16:54
ARGH.
http://forum-3dcenter.org/vbulletin/showpost.php?p=4765208&postcount=831
Aber genau das habe ich doch geschrieben:
AFAIK gehört das zu den Minimalanforderungen von MS, das zumindest für die Software eine USA da ist.
Neosix
2006-09-13, 14:20:13
spass beiseite aber mir macht das richtig angst. ich warte schon sehnsüchtig auf dx10 karten. um die auch unter vista nutzen zu können. aber ich frage mich ernsthaft was das soll. ich bin zwar kein silent freak aber ein rechner muss geschlossen zumindestens nicht nervend auffallen. und auch ein externes netzteil für eine graka baue ich mir ganz sicher nicht ein.
was meint ihr. ich holle mir eine 7900GTX (derzeit eine 6800LE) und hab damit genug power um auf die refresh der dx10 chips in 65nm zu warten?
paul.muad.dib
2006-09-13, 14:23:28
Gerade wo die Prozessorhersteller endlich wieder halbwegs stromsparende CPU's bringen, treiben die Grafikkartenhersteller es wieder auf die Spitze.
Und ja, es sind Gerüchte, aber fast alle IT-Gerüchte waren irgendwo doch wieder Insiderinfos, die sich zumindest im Ansatz bewahrheitet haben.
Die Performance per Watt steigt doch bei GPUs fast schneller als bei CPUs - nur steigt die Leistung noch schneller.
Dein Vergleich hinkt außerdem. Wenn du auf eine Grafikkarte einen Towerkühler draufsetzen würdest, wäre sie auch problemlos leise kühlbar. Daher brauchen wir einfach ein neues Layout, was der Grafikkartenküglung gegebüber ATX mehr Platz einräumt. Wenn dann die GPU-Hersteller noch Stromsparmechanismen für den 2D Modus einbauen, z.B. eine reduzierte Spannung, deutliches heruntertakten oder Abschalten einiger Einheiten, ist die Verlustleistung unproblematisch.
Gleich bleibende oder sinkende Stromverbräuche sind dagegen imo nur möglich, wenn sich die Graka-Entwicklung deutlich verlangsamt.
Grestorn
2006-09-13, 14:38:40
Aber genau das habe ich doch geschrieben:
Es ist auch für die Software keine USA da, da es eine unterschiedliche Zahl an PS und VS gibt, etwas, dass bei USA prinzipiell nicht der Fall sein kann.
VS und PS sind nur gleich zu programmieren, das ist alles.
Aber genau das habe ich doch geschrieben:
Nein du redest von "Emulation". Es wird nix emuliert.
(+44)
2006-09-13, 14:59:01
Die Performance per Watt steigt doch bei GPUs fast schneller als bei CPUs - nur steigt die Leistung noch schneller.
Dein Vergleich hinkt außerdem. Wenn du auf eine Grafikkarte einen Towerkühler draufsetzen würdest, wäre sie auch problemlos leise kühlbar. Daher brauchen wir einfach ein neues Layout, was der Grafikkartenküglung gegebüber ATX mehr Platz einräumt. Wenn dann die GPU-Hersteller noch Stromsparmechanismen für den 2D Modus einbauen, z.B. eine reduzierte Spannung, deutliches heruntertakten oder Abschalten einiger Einheiten, ist die Verlustleistung unproblematisch.
Gleich bleibende oder sinkende Stromverbräuche sind dagegen imo nur möglich, wenn sich die Graka-Entwicklung deutlich verlangsamt.
Ich denke, das Abwärme-Problem würden wir TECHNISCH gesehen nicht haben.
Wenn man denn wöllte, könnte man auch jetzt schon deutlich kleinere Fertigungsprozesse und bessere Chipdesigns haben.
Nur sind die Hersteller eben keine Staatlich subventionierten Forschungseinrichtungen, sondern HERSTELLER, deren einziges Ziel das Geldverdienen ist, und nicht der technologische Fortschritt.
Fortschritt wird ja z.b. auch zurückgehalten, weil der Markt laut Meinung der Hersteller "momentan keinen weiteren Fortschritt benötigt".
Rein technologisch MUSS es doch möglich sein, die Leistung bei gleichbleibender/geringerer Abwärme zu erhöhen. Der Core 2 Duo hat die Leistung gegenüber nem Pentium 4 ja auch verdreifacht (Dualcore!) und die Abwärme verdrittelt.
Der Formfaktor ist sicher wichtig - aber es gibt momentan einfach keinen Ersatz für ATX und es ist in naher Zukunft keiner in Aussicht.
BTX verschwindet komplett aus dem Retail-Markt - ATX bleibt, mit seinen kleinen und sich unter ihrer Eigenlast verbiegenden Grafikkarten.
Nun stehen in wenigen Monaten allerdings diese Transistor-Monster an und wollen gekühlt werden.
Selbst wenn man sie leise kühlen kann - der Aufwand und der Mehrpreis wird wohl von den wenigsten Kunden akzeptiert werden.
Ich jedenfalls will keine 200-300W-Karte im Rechner haben, und wenn sie passiv gekühlt werden kann.
paul.muad.dib
2006-09-13, 15:39:33
Was ist prinzipiell gegen eine Karte zu sagen, die unter Last 200 Watt verbraucht? So lange sie im Idle Betrieb genügsam ist, ist das doch völlig egal, wenn man mal ein paar Stunden pro Woche die Karte so verwendet. Es beschwert sich ja auch keiner, dass ein Bügeleisen so viel verbraucht, eben weil man es nur ab und zu einschaltet.
Die These, dass Hersteller absichtlich fortschrittlichere Fertigungsprozesse zurückhalten ist echt abwägig. Wenn ATI oder NV könnten, würden sie sofort in 0,5 nm produzieren, schon allein, weil die Herstellungskosten dann stark sinken würden.
Das Beispiel mit Netburst und Core Architektur ist ein Extremfall. Netburst war einfach eine sehr ineffiziente Architektur. Vergleichst du Core 2 mit Core 1 oder Pentium M, dann geht auch hier die höhere Leistung mit einem höheren Verbrauch einher.
Es geht also nur, wenn man eine andere Architektur verwendet, sonst sind die Möglichkeiten sehr begrenzt. Allerdings sind auch hier die Ergebnisse zu sehen, beispielsweise braucht onboard-Grafik nur einen kleinen passivkühler und bringt eine Leistung, für die Vergleichbare Karten eine aktive Kühlung brauchten.
paul.muad.dib
2006-09-13, 15:41:28
Nein du redest von "Emulation". Es wird nix emuliert.
Ich habe es so verstanden, dass der NV-Treiber dann die DirektX Anweisungen annimt, als wären US vorhanden und diese dann an die entsprechenden Rechenwerke aufteilt.
Moralelastix
2006-09-13, 15:45:53
Ich hab das auch so verstanden.
Grestorn
2006-09-13, 15:56:47
Ich habe es so verstanden, dass der NV-Treiber dann die DirektX Anweisungen annimt, als wären US vorhanden und diese dann an die entsprechenden Rechenwerke aufteilt.
Die Shadereinheiten sind unified, in dem Sinn, dass sie alle gleich programmiert werden, d.h. genau die selben Befehle nutzen können.
Sie sind nicht unified in dem Sinn, dass man einfach x Shadereinheiten vom Treiber gemeldet bekommt, und bei jeder einzelnen frei bestimmen kann, ob sie als Pixel oder ein Vertex Shadereinheit genutzt werden soll. Das ist aber in D3D10 auch nicht vorgeschrieben. Es ist ok, dass die GPU fest x Vertex- und y Pixelshadereinheiten meldet.
Ich habe es so verstanden, dass der NV-Treiber dann die DirektX Anweisungen annimt, als wären US vorhanden und diese dann an die entsprechenden Rechenwerke aufteilt.
Du hasts immer noch nich kapiert. Es gibt einen Unterschied zwischen dem was Microsoft "unified shader" nennt auf API-Ebene und was ATI "unified shader" nennt auf Hardware-Ebene.
Der Treiber muss [i]gar nicht
Verdammter Browser.
... gar nichts besonderes machen. Es ist eine stink-normale kompatible D3D10-GPU vorhanden.
Oder andersrum: Direct3D 10 braucht auf API-Ebene nicht mehr oder weniger unified shader in Hardware als Direct3D 9 schon.
Es gibt keine speziellen API-Calls die irgendwas damit zu tun hätten dass R600 alles auf den gleichen ALUs ausführt.
Anarchy-HWLUXX
2006-09-13, 17:47:53
Gerüchte Voraus, Helm anziehen und Rettungsweste anlegen
http://uk.theinquirer.net/?article=34359
MadManniMan
2006-09-13, 18:11:34
Fassen wir zusammen:
- 384bit SI
- 384 bzw. 768 MB onboard
- 48 PP DX9 / 48 PP D3D10
- 1/3 Die-Fläche für D3D10 Blah
- 20*20mm Die-Fläche
LOL?
http://uk.theinquirer.net/?article=34359Hmm, ich weiß jetzt gerade nicht, was ich dazu sagen soll. ;)
Anarchy-HWLUXX
2006-09-13, 18:22:27
Hmm, ich weiß jetzt gerade nicht, was ich dazu sagen soll. ;)
Des Teil würde in Real mehr als nur verfreakt aussehen ;D
PS : Es heisst DX10 ;)
AnarchX
2006-09-13, 18:24:40
Des Teil würde in Real mehr als nur verfreakt aussehen ;D
Geforce FX²? :ugly:
deekey777
2006-09-13, 18:41:47
Fassen wir zusammen:
- 384bit SI
- 384 bzw. 768 MB onboard
- 48 PP DX9 / 48 PP D3D10
- 1/3 Die-Fläche für D3D10 Blah
- 20*20mm Die-Fläche
LOL?
Doppel-LOL: http://www.beyond3d.com/forum/showthread.php?t=33576
Das ist doch alles aus dem og Thread zusammenkop... zusammengefasst.
Aha...ich glaube das ist so ein Mist...
Es sieht einfach mehr danach aus, dass der Chip 32 PPs und 16VS hat.
Daraus kann man ja 48 Pipes rausdichten...rofl...^^
Das ist kompletter Unfug, auch die Die-Fläche wäre viel zu groß. Das ist nicht wirtschaftlich und das macht ja NV aus, das sie wirtschaftlich handeln.
Aber vll irren wir uns alle und der The-INQ hat mal wieder recht^^
paul.muad.dib
2006-09-13, 19:23:41
Interessant finde ich die Sache mit dem SI und der Ram Menge. Das scheint mir durchaus plausibel, auch wenn ich bezweifel, dass NV so ein teures PCB nimmt.
Wenn der G80 ähnlich wie der G70/G71 aufgebaut ist, braucht er massig Speicherbandbreite, um die TMUs zu versorgen. Gerade an der 7900 GS sieht man, wie Speicherlimitiert die ganze Architektur ist. Und ein 384 bit SI bringt auf einen Schlag 1/3 mehr Speicherbandbreite mal dem was durch höheren Takt kommt.
Nightspider
2006-09-13, 19:41:26
Definiert mal bitte Si, wie es bei G70/71 ist und wie sich der angeblich höhere Wert bei G80 auswirkt, bzw. wodurch mehr Bandbreite ensteht. :)
Sunrise
2006-09-13, 19:45:11
Ich denke, das Abwärme-Problem würden wir TECHNISCH gesehen nicht haben.
Wenn man denn wöllte, könnte man auch jetzt schon deutlich kleinere Fertigungsprozesse und bessere Chipdesigns haben.
...
Der Core 2 Duo hat die Leistung gegenüber nem Pentium 4 ja auch verdreifacht (Dualcore!) und die Abwärme verdrittelt.
Das Abwärme-Problem ist einfach das Resultat aus allen Variablen, die für GPUs gelten und die sich leider physikalisch und auch technisch nicht verändern lassen. Auch lassen sich beide nicht direkt vergleichen.
Der Logik-Anteil einer GPU bei >500 Millionen Transistoren ist um ein Vielfaches höher, als bei einem Core 2 Duo, eine GPU arbeitet massiv parallel, die Komplexität insgesamt ist deutlich höher und dadurch, dass der Logikanteil so hoch ist, kannst du auch nicht dichter packen, wie das eben beim L2-Cache (der einen riesigen Teil des Dies ausmacht) der Fall ist (das könnte man jetzt stundenlang weiterführen, wenn man wollte) und verändert somit natürlich auch die Defekttoleranz drastisch zum Nachteil.
Hinzu kommt, dass man bei High-End-GPUs ganz andere Voraussetzungen an einen Prozess stellen muss, als dies bei CPUs (die in Massenfertigung, wie der Core 2 Duo, hergestellt werden) der Fall ist. Die Fertigung dieser GPU-Monster ist ungleich schwieriger, und um diesem entgegenzuwirken, nutzt man eben auch möglichst nur Fertigungsprozesse, die bereits "gereift" sind, um nachher nicht die Anschluss komplett zu verpassen.
Unter der Brücksichtigung dieser angeführten Dinge, ist das einfach eine Abwägung an Nutzen/Risiken, die sich hierbei ergeben, und die jeder IHV auch für sich entscheiden muss, wenn er das Design einer High-End-GPU entwirft.
MadManniMan
2006-09-13, 20:42:09
Gerade an der 7900 GS sieht man, wie Speicherlimitiert die ganze Architektur ist. Und ein 384 bit SI bringt auf einen Schlag 1/3 mehr Speicherbandbreite mal dem was durch höheren Takt kommt.
Mehr noch: 50%!
AnarchX
2006-09-13, 20:46:40
384bit SI hört sich toll an, aber ist das wirklich realisierbar ohne das die resultierende Karte übermässig teuer wird?
Zudem was wird dann mit dem Mainstreamsegment, dieses dürfte, da hier wohl noch lange 128bit Standard sein wird. Wie kommt man dann hier auf eine vernünftige Performance im Verhältnis zum HighEnd?
Definiert mal bitte Si, wie es bei G70/71 ist und wie sich der angeblich höhere Wert bei G80 auswirkt, bzw. wodurch mehr Bandbreite ensteht. :)
Naja, 384 statt 256 Bit wäre wie eine Autobahn mit 3 statt 2 Spuren, ergo kann man 50% mehr Autos (= Datenpakete) pro Sekunde durchpusten. ;) Plus Takterhöhung dürfte das nette Ergebnisse bringen, sofern man an der Bandbreite hängt.
€dit: Oh, Manni hat's schon gesagt. Zu lahm. X-D
384bit SI hört sich toll an, aber ist das wirklich realisierbar ohne das die resultierende Karte übermässig teuer wird?
Eventuell nutzt man dann langsamer getakteten Speicher. Der Top-RAM sollte ja auch deutlich teurer sein als das nächstlangsamere Modell. Fragt sich nur, was das ausmachen würde ...
MfG,
Raff
The_Invisible
2006-09-13, 20:53:22
lol
384 bit speicherinterface mit 768mb speicher, mit dem würde wohl keiner rechnen, ich glaubs aber nicht...
mfg
Sonyfreak
2006-09-13, 20:55:35
Wurde nich auch schon mal beim G70 darüber spekuliert, ob er vielleicht mit einem 384bit Speicherinterface kommt? Ich bilde mir ein, schon mal eine Diskussioin zu dem Thema gelesen zu haben.
mfg.
Sonyfreak
AnarchX
2006-09-13, 20:57:49
Eventuell nutzt man dann langsamer getakteten Speicher. Der Top-RAM sollte ja auch deutlich teurer sein als das nächstlangsamere Modell. Fragt sich nur, was das ausmachen würde ...
Ich bezweifele, dass ein breites Interface + langsamer RAM wirtschaftlicher ist als die umgekehrte Variante, zudem verfällt der RAM auch schneller im Preis als ein aufwendigeres PCB, dass ein 384bit SI nach sich führen würde.
Naja, irgendwann muss der Schritt mal gemacht werden. Alles tendiert zur Parallelität, da man durch pures "Übertakten" nicht mehr viel reißen kann. Gerade in Sachen Speicher wird man dem G80 nicht mal eben GDDR mit 1.500 realen MHz zur Seite stellen können, also verbreitert man das Interface. Mit dem Rest innerhalb der GPU - und nun auch bei den CPUs - ist's ja nicht anders.
MfG,
Raff
AnarchX
2006-09-13, 21:04:00
Mal schauen ob wir im November einen G80 mit 96GB/s(1000MHz GDDR4) sehen werden, für HDR wäre das ja garnichtmal so unbrauchbar.;)
deekey777
2006-09-13, 21:52:19
Zu 384-bit-SI:
http://www.beyond3d.com/forum/showthread.php?p=827570#post827570
Das Gerücht war, dass der G80 mit 12 Speicherchips kommt.
Spasstiger
2006-09-13, 22:07:25
Hat man eigentlich bei der Radeon 9700 damals ernsthaft damit gerechnet, dass diese ein 256 Bit PCB haben würde (ich mein jetzt bevor die finalen Specs bekannt wurden)? Sogar die GeForce FX 5800 hatte ja nur ein 128 Bit SI.
Ich lasse mich in der aktuellen Situation gerne überraschen, 384 Bit SI klingt reizvoll. Das zusammen mit 1 GHz GDDR4 RAM und Bandbreite ist erstmal kein Thema mehr bei den nächsten NV-Karten. :biggrin:
AnarchX
2006-09-13, 22:13:28
Hat man eigentlich bei der Radeon 9700 damals ernsthaft damit gerechnet, dass diese ein 256 Bit PCB haben würde (ich mein jetzt bevor die finalen Specs bekannt wurden)? Sogar die GeForce FX 5800 hatte ja nur ein 128 Bit SI.
Parhelia hatte auch schon 256bit.
deekey777
2006-09-13, 22:17:56
Wer sagt, dass der G80 GDDR4 unterstützen wird?
http://www.beyond3d.com/forum/showthread.php?t=33576
Blackpitty
2006-09-13, 22:19:22
http://www.theinquirer.net/default.aspx?article=33343
Netzteile kaufen!!!
Marsch Marsch
AnarchX
2006-09-13, 22:27:23
http://www.theinquirer.net/default.aspx?article=33343
Netzteile kaufen!!!
Marsch Marsch
Alt...:|
Wer sagt, dass der G80 GDDR4 unterstützen wird?
http://www.beyond3d.com/forum/showthread.php?t=33576
Warum sollte er es nicht?
G71 tut es doch AFAIK schon?
deekey777
2006-09-13, 22:29:16
http://www.theinquirer.net/default.aspx?article=33343
Netzteile kaufen!!!
Marsch Marsch
Vorrige Seite durchlesen, marsch marsch!
Alt...:|
Warum sollte er es nicht?
Lies mal den B3D-Thread.
paul.muad.dib
2006-09-13, 22:57:06
384bit SI hört sich toll an, aber ist das wirklich realisierbar ohne das die resultierende Karte übermässig teuer wird?
Das ist halt die Frage. Ich kann mir vorstellen, dass bei NV laut genug darüber nachgedacht worden ist, dass es als Gerücht nach außen gedrungen ist. Ob es dann noch die wirtschaftlichkeitsrechnungen überstanden hat, ist eine andere.
Aber ich gebe Raff auch Recht, igendwann wird ein breiteres SI kommen. Die Anzahl der TMUs war von Geforce 1 - 5 relativ konstant. Ab der Geforce 6800 ging es dann rapide hoch dazu kommt die Etablierung von Technologien wie AA und HDR die zusätzliche Bandbreite fordern. Damit kann die Entwicklung der Taktraten einfach nicht Schritt halten.
Imo war die beschränkte Speicherbandbreite auch ein Grund für ATI, bei 16 TMUs zu bleiben.
Quasar
2006-09-13, 23:37:40
Ich bezweifele, dass ein breites Interface + langsamer RAM wirtschaftlicher ist als die umgekehrte Variante, zudem verfällt der RAM auch schneller im Preis als ein aufwendigeres PCB, dass ein 384bit SI nach sich führen würde.
Ist halt die Frage, was da alles reinspielt in den Prozess.
Denkbar wäre ja auch, dass für ein PCB, welches für 1 GHz+ RAM-Takt ausgelegt sein müßte, die Komplexität für ein sauberes Signal soweit ansteigt, dass man ähnlich kosteneffektiv ein 50% breiteres Interface (es werden ja "nur" 50 Prozent mehr Anschlüsse und Bahnen für das Speicherinterface benötigt, nicht für den kompletten Chip) bei niedrigeren Taktraten verwirklichen kann. Außerdem könnte man, wenn das langfristig geplant gewesen ist, auch den Memorycontroller in der GPU entsprechend auf GDDR4-Kompatibilität verzichten lassen.
Dafür spräche weiterhin, dass 384 Bit gut zur "Power of 3"-Kampagne passen würde *ggg*.
Allerdings würden Nvidia dann die marketingtechnisch zugkräftigen Begriffe GDDR4 und die hohe Zahl entgehen, die man vor den Takt des Speichers schreiben könnte.
Zauberer
2006-09-14, 01:37:53
Parhelia hatte auch schon 256bit.
Damit konnte damals ja aber wohl keiner rechnen, weil Matrox für den Grafikkartenmarkt sehr lange aus dem Gamer-Geschäft war.
Ok, die Parhelia war darum (wegen der langen Zeit) auch ein Flop. ;(
Ich halte ein 384 Bit SI, für möglich.
Spasstiger
2006-09-14, 02:47:52
Ich halte ein 384 Bit SI, für möglich.
Dass sogar ein 512 Bit SI möglich ist, wenn der Kunde bereit ist, dafür zu zahlen, zeigt die 3dlabs Wildcat Realizm 800.
Wäre auf jeden Fall eine feine Sache, wenn Nvidia ein 384 Bit SI UND GDDR4-RAM-Unterstützung gebacken bekommt. Dann hätte ATI schwer was zu knabbern. Wobei sie dann sicherlich auch mit einem 384 Bit SI nachziehen würden so wie Nvidia mit der GeForce FX 5900 beim 256 Bit SI nachzog.
The_Invisible
2006-09-14, 13:44:03
Dass sogar ein 512 Bit SI möglich ist, wenn der Kunde bereit ist, dafür zu zahlen, zeigt die 3dlabs Wildcat Realizm 800.
Wäre auf jeden Fall eine feine Sache, wenn Nvidia ein 384 Bit SI UND GDDR4-RAM-Unterstützung gebacken bekommt. Dann hätte ATI schwer was zu knabbern. Wobei sie dann sicherlich auch mit einem 384 Bit SI nachziehen würden so wie Nvidia mit der GeForce FX 5900 beim 256 Bit SI nachzog.
ja, das ging ja recht schnell damals, konnte also nicht so kompliziert gewesen sein, man wollte halt nur nicht.
mfg
Dass sogar ein 512 Bit SI möglich ist, wenn der Kunde bereit ist, dafür zu zahlen, zeigt die 3dlabs Wildcat Realizm 800.
Nein zeigt sie nicht. Das sind 2x256Bit. Das hat auch eine GX2.
Nvidia G80 mystery starts thickening
http://www.theinquirer.net/default.aspx?article=34359
Dass sogar ein 512 Bit SI möglich ist, wenn der Kunde bereit ist, dafür zu zahlen, zeigt die 3dlabs Wildcat Realizm 800.
Wäre auf jeden Fall eine feine Sache, wenn Nvidia ein 384 Bit SI UND GDDR4-RAM-Unterstützung gebacken bekommt. Dann hätte ATI schwer was zu knabbern. Wobei sie dann sicherlich auch mit einem 384 Bit SI nachziehen würden so wie Nvidia mit der GeForce FX 5900 beim 256 Bit SI nachzog.
Die Realizm 800 hat aber auch nur 256 Bit pro Chip. Bei 2 Chips sind das natürlich dann effektiv 512 Bit, aber die Verdrahtung ist weitaus weniger komplex.
Spasstiger
2006-09-14, 14:29:33
Die Realizm 800 hat aber auch nur 256 Bit pro Chip. Bei 2 Chips sind das natürlich dann effektiv 512 Bit, aber die Verdrahtung ist weitaus weniger komplex.
Achso, wusste nicht, dass die Karte zwei Grafikchips hat.
Ailuros
2006-09-14, 15:39:01
Was bisher fuer den G80 spekuliert wird, hat leider oder Gott sei Dank (je nach Perspektive) fast gar nichts mit dem wahren Resultat zu tun. NVIDIA verwirrt mal wieder mit Absicht und ich wuerde eher um Geduld beten, bevor man jeden Franzen von B3D Foren Mitgliedern oder noch schlimmer INQ-Kaka blindlings glaubt.
Es wird auch keine zuverlaessige Infos geben, bis irgendwo etwas in der Zwischenzeit auftaucht, aber dieses wird dann auch indirekt "kontrolliert" sein. Die Mehrzahl von dem was ich momentan lesen kann ist meistens viel zu weit von der Realitaet entfernt dass ich bald einen Pelzmantel brauche ;)
ScottManDeath
2006-09-14, 19:39:33
Jups, es ist lustig anzusehen, was da so spekuliert wird, und was es dann letztendlich wird. Warten wir es einfach ab.....
paul.muad.dib
2006-09-14, 20:17:20
Jups, es ist lustig anzusehen, was da so spekuliert wird, und was es dann letztendlich wird. Warten wir es einfach ab.....
Aber gerade das Süekulieren ist doch der Sinn dieses Threads und seiner über 900 Beiträge. Klar, sicher ist nix, aber man kann ja wenigstens erörtern, was wahrscheinlich ist.
Moralelastix
2006-09-14, 20:30:13
Und nix ist schöner als die Vorfreude.
Bevor wieder die Ernüchterung kommt.:biggrin:
gguru
2006-09-16, 18:57:53
Das hat heute jemand im beyond3d forum über den g80 gepostet:
From someone I trust:
- 40% dedicated to D3D10 (a little unclear if this means of the entire die).
- NDA expires beginning of november.
- Hard launch.
- Aims for good availability for 3 SKU's for chrismas sales.
Ich werd wohl gleich eine kaufen, damit ich überhaupt eine bekomme.
Nightspider
2006-09-16, 19:39:15
Das hat heute jemand im beyond3d forum über den g80 gepostet:
Ich werd wohl gleich eine kaufen, damit ich überhaupt eine bekomme.
Interessant....
PS: Vista:RC-1 sieht nice aus. Läuft schneller als Beta2 aber trotzdem noch lahm. Weiß einer, ob die Aero-Oberfläche mit D3D10 noch besser aussieht ? Bessere Glanzeffekte/AA/AF oder sowas ?
Expandable
2006-09-16, 20:28:31
Weiß einer, ob die Aero-Oberfläche mit D3D10 noch besser aussieht ? Bessere Glanzeffekte/AA/AF oder sowas ?
Aero ist D3D9Ex only. Außerdem ist die Oberfläche bei mir schön schnell (6800GT, 256MByte, 1280x1024).
Nightspider
2006-09-16, 22:02:50
Aero ist D3D9Ex only. Außerdem ist die Oberfläche bei mir schön schnell (6800GT, 256MByte, 1280x1024).
Ich rede auch nicht von der Oberfläche sondern von Vista allgemein. Wenn ich manche Audio oder Video Dateien öffnen will, muss ich manchmal paar Sekunden warten. (Habe Dualcore)
Und Half Life 2 @ 64 Bit lief auch bissl schlechter als das normale.
...und das Aero erst aber DirectX9 verfügbar ist, weiß ich auch. Ich will wissen ob es von D3D10 Vorteile erzielen kann? :confused:
gguru
2006-09-16, 22:33:49
[...] ob die Aero-Oberfläche mit D3D10 noch besser aussieht ? Bessere Glanzeffekte/AA/AF oder sowas?
Ich rede auch nicht von der Oberfläche
Mhm, schon klar.
Und was hat das ganze mit dem Thema zu tun? Sagt uns lieber ob ihr etwas neues über den G80 Release Termin wisst.
Nightspider
2006-09-16, 23:05:23
Wenn ich erst ne Frage zur Oberfläche stelle und sage das Vista RC-1 langsam ist, dann ist da ein Unterschied.
Dir ist der Unterschied zwischen dem OS Vista und der grafischen Oberfläche aber schon bekannt oder ? ;)
Das "ich rede nicht von der Oberfläche" bezog sich darauf, dass ich sagte, Vista wäre langsam (bisher)
Das hat insofern etwas mit dem G80 zu tun, da dies ein weiterer kleiner Kaufgrund sein könnte, wenn Vista durch D3D10 besser aussieht.
AnarchX
2006-09-16, 23:51:51
Das hat insofern etwas mit dem G80 zu tun, da dies ein weiterer kleiner Kaufgrund sein könnte, wenn Vista durch D3D10 besser aussieht.
D3D10 Theme Update for M$ Vista only 50$...;)
Dass man Aero auf D3D10 so schnell portieren ist anzuzweifeln, da es dafür wirtschaftlich gesehen keinen Bedarf gibt.
Ailuros
2006-09-17, 00:00:07
Das hat heute jemand im beyond3d forum über den g80 gepostet:
Dabei sind die geschaetzten 40% auch ein ziemlich gesundes Prozentual; waere es weniger gaebe es Grund zur Unruhe.
Nightspider
2006-09-17, 00:01:48
Dürfte doch theoretisch kein sooo großes Problem sein oder ?
Zudem...mit Vista kommt eine neue APi...warum sollte dann genau dieses OS nicht von seiner eigenen neuen API profitieren sollen...
Zumindest hoffe ich mal, das Microsoft beides parallel eingebaut hat.
...naja...mal abwarten... :smile:
phil99
2006-09-17, 09:09:02
Werden die neuen Karten bzw ihre Refreshs 1024 MB haben ?
Die Spieleentwickler schreien ja nach mehr Speicher.
Ailuros
2006-09-17, 10:11:41
Werden die neuen Karten bzw ihre Refreshs 1024 MB haben ?
Die Spieleentwickler schreien ja nach mehr Speicher.
Ich wuerde erstmal abwarten bis 512MB framebuffer etwas mehr Sinn machen als heutzutage, bis ich eine Unmenge von Moneten fuer 1024MB Speicher verplempern wuerde.
paul.muad.dib
2006-09-17, 12:51:58
Dürfte doch theoretisch kein sooo großes Problem sein oder ?
Zudem...mit Vista kommt eine neue APi...warum sollte dann genau dieses OS nicht von seiner eigenen neuen API profitieren sollen...
Zumindest hoffe ich mal, das Microsoft beides parallel eingebaut hat.
...naja...mal abwarten... :smile:
Warum in aller Welt sollte die Benutzeroberfläche Direct3D10 einsetzen? Weil es sich besser anhört? Für das was jetzt ist, könnte man imo locker DX8 nehmen.
AnarchX
2006-09-17, 13:11:15
Warum in aller Welt sollte die Benutzeroberfläche Direct3D10 einsetzen? Weil es sich besser anhört? Für das was jetzt ist, könnte man imo locker DX8 nehmen.
... zudem wird ja mit Aero schon jetzt noch nichtmal das Potential von DX9 ausgenutzt, aus dem einfachen Grund: es soll auch auf der schwächsten DX9-HW laufen, alles andere wäre ja ein Schuss ins eigene Bein.
Aber nun besser Schluss mit dem OT.
LordDeath
2006-09-17, 13:18:16
kann die aero oberfläche bei pcs mit langsamer onboard grafik und shared memory den rechner verlangsamen? also wie sehr nuckeln die effekte an der speicherbandbreite?
Bessere Glanzeffekte/AA/AF oder sowas ?
Ha? Was soll AF bei keinerlei Texturverzerrung bitte bewirken?
AnarchX
2006-09-17, 13:30:24
Ha? Was soll AF bei keinerlei Texturverzerrung bitte bewirken?
Konnten sich die Fenster bei Vista nicht frei im Raum drehen, also so dass auch Verzerrungen enstehen, AFAIR hatte ich das mal in einem Video gesehen....
btw.
Am besten macht ein Mod hierraus eine neues Topic.;)
Konnten sich die Fenster bei Vista nicht frei im Raum drehen, also so dass auch Verzerrungen enstehen, AFAIR hatte ich das mal in einem Video gesehen....
btw.
Am besten macht ein Mod hierraus eine neues Topic.;)
Ich denke dafür werden überhaupt keine Mipmaps verwendet. Deshalb sieht dieses Schwenken auch nicht so prall aus.
Spasstiger
2006-09-18, 01:09:37
Ich wuerde erstmal abwarten bis 512MB framebuffer etwas mehr Sinn machen als heutzutage, bis ich eine Unmenge von Moneten fuer 1024MB Speicher verplempern wuerde.
Und wie stehts mit 768 MB VRAM. ;)
Die große Frage wird aber für viele wohl sein - wenn Nvidia tatsächlich ein 384 Bit SI bringt - ob nicht auch 384 MB ausreichen.
Und wie stehts mit 768 MB VRAM. ;)
Die große Frage wird aber für viele wohl sein - wenn Nvidia tatsächlich ein 384 Bit SI bringt - ob nicht auch 384 MB ausreichen.
Schlechte Skalierung und 12 Speicherbausteine...wo soll man das unterbringen?
Teilweise werden schon 512MB stark ausgelastet.
AnarchX
2006-09-18, 12:07:01
Schlechte Skalierung und 12 Speicherbausteine...wo soll man das unterbringen?
Teilweise werden schon 512MB stark ausgelastet.
768MB für die 8800GTX und 384MB für die 8800GT...;)
Botcruscher
2006-09-18, 12:15:18
Und wie stehts mit 768 MB VRAM. ;)
Die große Frage wird aber für viele wohl sein - wenn Nvidia tatsächlich ein 384 Bit SI bringt - ob nicht auch 384 MB ausreichen.
Den BS glaub ich erst wenn ich es sehe...
Woher kommt das lustige Gerücht überhaupt? Inq?
Ich sehe die ganzen Spekulationen als reine Irreführung und bullshit .... jetzt behauptet Inq auch noch , dass der R600 250 W verbraucht
http://www.theinquirer.net/default.aspx?article=34446
MuLuNGuS
2006-09-18, 12:37:37
250W würde ich allmählich als "pervers" bezeichnen..
ShadowXX
2006-09-18, 12:45:25
250W würde ich allmählich als "pervers" bezeichnen..
Eyyy....aber du brauchst dann im Winter keime Heizung mehr. Und das nicht nur für dein Zimmer, sondern es reicht sogar für die gesammte Wohnung (und im Sommer verkaufts du die überschüssige Wärmeleistung preiswert in die Antarktis....oder besser doch nicht, da wirds momentan ja schon von "alleine" zu warm. Dann eben Grönland).
Liefert ATI dann auch gleich ne Kompressorkühlung mit? (nicht das ich dem INQ wirklich glaube, aber gesetz den falles......).
Und wenn ich wieder mal von FUADs 64 "Pipelines" lesen, wird mir fast schlecht.
MuLuNGuS
2006-09-18, 12:54:36
Eyyy....aber du brauchst dann im Winter keime Heizung mehr. Und das nicht nur für dein Zimmer, sondern es reicht sogar für die gesammte Wohnung (und im Sommer verkaufts du die überschüssige Wärmeleistung preiswert in die Antarktis....oder besser doch nicht, da wirds momentan ja schon von "alleine" zu warm. Dann eben Grönland).
Liefert ATI dann auch gleich ne Kompressorkühlung mit? (nicht das ich dem INQ wirklich glaube, aber gesetz den falles......).
Und wenn ich wieder mal von FUADs 64 "Pipelines" lesen, wird mir fast schlecht.
shittttt....meine frau und ich haben uns gerade eine neue heizungsanlage gegönnt, hätte ich das vorher gewußt hätte ich zwei fliegen mit einer grafikkarte schlagen können..:D:D
paul.muad.dib
2006-09-18, 13:18:29
Und wie stehts mit 768 MB VRAM. ;)
Die große Frage wird aber für viele wohl sein - wenn Nvidia tatsächlich ein 384 Bit SI bringt - ob nicht auch 384 MB ausreichen.
Die Frage, ob sie ausreichen ist eher sekundär - wichtiger isr die, wie das Marketing den Leuten erklären soll, dass die Nachfolgerkarte weniger Ram hat. Gerade die Marketingspezialisten von NV werden so einen faux-pas nicht begehen.
seahawk
2006-09-18, 14:01:23
der Inq. die Antwort für die 250W vor der Nase und schafft es wieder nicht. :lol:
Spasstiger
2006-09-18, 14:25:02
Die Frage, ob sie ausreichen ist eher sekundär - wichtiger isr die, wie das Marketing den Leuten erklären soll, dass die Nachfolgerkarte weniger Ram hat. Gerade die Marketingspezialisten von NV werden so einen faux-pas nicht begehen.
384 MB sind doch mehr als 256 MB. ;)
Ich gehe natürlich davon aus, dass es dann auch 768-MB-Versionen geben wird.
Aber so mancher High-End-Käufer wird sich dann die Frage stelle, obs wirklich 500 Euro für die 768-MB-Version sein müssen, oder obs auch die 384-MB-Version für 400 Euro tut.
na so abwegig is das garnich die gx2 verbraucht schon 140 watt und wenn die neue radeon min genau so schnell wird bzw ein paar verbesserungen hier und da mehr takt denn denk ich mal können wir mit an die 200 watt schon rechnen....
paul.muad.dib
2006-09-18, 18:43:49
na so abwegig is das garnich die gx2 verbraucht schon 140 watt und wenn die neue radeon min genau so schnell wird bzw ein paar verbesserungen hier und da mehr takt denn denk ich mal können wir mit an die 200 watt schon rechnen....
Die GX2 ist ja auch SLI - eine 7900 GTX verbraucht ja auch nicht so viel wie ein 6800 Ultra SLI obwohl sie leistungsmäßig wohl vorne liegt.
Wahrscheinlich verarschen mal wieder ien paar Leute den armen Fuad. Wäre ja nicht das erste Mal ;)
AnarchX
2006-09-18, 19:42:29
7900 GTX verbraucht ja auch nicht so viel wie ein 6800 Ultra SLI obwohl sie leistungsmäßig wohl vorne liegt.
7900GTX 90nm vs 6800Ultra SLI 130nm....;)
G80 erscheint noch in 90nm und R600 in 80nm, also vom Stromverbrauch werden die neuen Karten Maßstäbe setzen, wenn sie die entsprechende Leistung bringen wollen.
Nur dass es 250W sind bezweifele ich etwas, ausser ATI will mit einem 1GHz R600 alles davon fegen.:biggrin:
Gasthaus
2006-09-19, 02:49:55
384 MB sind doch mehr als 256 MB. ;)
Ich gehe natürlich davon aus, dass es dann auch 768-MB-Versionen geben wird.
Aber so mancher High-End-Käufer wird sich dann die Frage stelle, obs wirklich 500 Euro für die 768-MB-Version sein müssen, oder obs auch die 384-MB-Version für 400 Euro tut.
Darauf könnte es wohl hinauslaufen ein 384Bit-SI mit genannten Speichergrössen.
Was soll eigentlich noch das"Märchen"von,ein 512er SI ist zu aufwändig?Wir haben 2006.
Aber unzeitgemässe Heizungen welche völlig am Rad drehen sind kein Problem.
Selbst wenn die Dinger mit vorsichtigen 150W laufen.150Watt,gehts noch?Wir eiern seit der 9700 auf dem dünnen"256erSeil"herum,nur das vorn und hinten mächtig der Hahn aufgedreht wurde.Und einer der Hähne ist immer kurz vorm Verglühen,especially ATI-GPUs,auf welchen ich sprichwörtlich Teewasser kochen könnte mit DIE als Herdplatte.
Ich weiss nicht so recht...oder klärt mich auf:)
Ailuros
2006-09-19, 07:08:32
na so abwegig is das garnich die gx2 verbraucht schon 140 watt und wenn die neue radeon min genau so schnell wird bzw ein paar verbesserungen hier und da mehr takt denn denk ich mal können wir mit an die 200 watt schon rechnen....
Zwei "zusammengeloetete" PCBs mit insgesamt 1024MB Speicher. Netter Vergleich nichdestominder ;)
AnarchX
2006-09-19, 09:41:17
G80 verbraucht nicht mehr als 175W...;)
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f155%2f155791.shtml
MadManniMan
2006-09-19, 09:59:05
G80 verbraucht nicht mehr als 175W...;)
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f155%2f155791.shtml
Aua, das ist heftig... die angesprochenen ~500 Mio Transen sind Indiz, daß man der Quelle durachaus Glauben schenken könnte. :|
paul.muad.dib
2006-09-19, 10:15:05
7900GTX 90nm vs 6800Ultra SLI 130nm....;)
Gut, dann nimm halt die 7800 GTX, die ist auch in 130 nm. Ja, sie mag nicht ganz so schnell sein wie ein 6800 Ultra SLI. Aber vom Stromverbrauch liegen Welten dazwischen.
G80 erscheint noch in 90nm und R600 in 80nm, also vom Stromverbrauch werden die neuen Karten Maßstäbe setzen, wenn sie die entsprechende Leistung bringen wollen.
Kommt drauf an, für was sie die Leistuing bringen wollen. NVidia könnte ja auch eine schnelle DX9 Karte mit einigen Zusatzfeatures für D3D10 bringen. Es ist schließlich deren Philosophie, zuerst die Features zu bringen und dann die Leistung nachzuliefern.
Außerdem würde das kein Mensch merken. Der G80 soll im November kommen. Vista kommt frühestens im März, das sind schonmal 4 Monate. Bis dahin haben alle Benchmark Ergebnisse eh noch Beta-Status und werden nicht ernstgenommen. Dann dauerts noch einmal etwas, bis überhaupt einige Spiele heraus sind, die D3D10 nutzen, so dass ein Benchmark Parcours fertig ist. Außerdem sind ja auch die Treiber noch nicht ausgereift.
Wenn dann Mitte 2007 erste ernst zu nehmende D3D10 Benchmarks gefahren werden, gibt's schon längst wieder einen Refresh-Chip. Aber selbst in diesen Benchmarks würden wohl noch nicht allzu viele Leistungskritische D3D10 Shader eingesetzt.
Fazit: NV könnte es ausreichen, die DX9 Leistung zu erhöhen, indem z.B. das ein oder andere Quad drangepappt wird, die Speicherbandbreite stiegt (wie auch immer) und das Design etwas effizienter wird. D3D10 Funktionen brauchen dann nur vorhanden zu sein.
In der Vergangenheit ist NV mit dieser Strategie ja auch ganz gut gefahren.
Der Stromverbrauch wird trotzdem steigen, aber eben nicht so extrem, eher auf ein Niveau knapp oberhalb der X1900 XTX.
AnarchX
2006-09-19, 11:04:58
Gut, dann nimm halt die 7800 GTX, die ist auch in 130 nm. Ja, sie mag nicht ganz so schnell sein wie ein 6800 Ultra SLI. Aber vom Stromverbrauch liegen Welten dazwischen.
Falsch, G70 erschien in 110nm.
Zudem ist der Sprung von NV40(~222Mio. Transistoren). auf G70(~303Mio. Transistoren/verwandete Architektur). bei weitem nicht so grundlegend wie der nun auf G80(~500Mio. Transistoren/neue Architektur).
Aua, das ist heftig... die angesprochenen ~500 Mio Transen sind Indiz, daß man der Quelle durachaus Glauben schenken könnte. :|
175W halt ich imo auch für sehr realistisch, immerhin verdoppelt man gegenüber G71 mal locker den Transistorcount, zudem noch etwas komplexere Logik, wegen D3D10 und das alles ohne den Prozess zu wechseln - 90nm.
Na hoffentlich bekommen wir keinen FX Flow 2 zu sehen... :D
dildo4u
2006-09-19, 11:17:26
immerhin verdoppelt man gegenüber G71 mal locker den Transistorcount,
Dann müsste der G80 aber fast 560Mio Transistoren haben was ich für höst unwahrscheinlich halte.
AnarchX
2006-09-19, 11:19:11
Dann müsste der G80 aber fast 560Mio Transistoren haben was ich für höst unwahrscheinlich halte.
Aktuell werden ja ~500Mio Transistoren geschätzt, was man etwa als eine Verdopplung sehen kann...;)
=Floi=
2006-09-19, 11:19:20
und was würde so viele transistoren brauchen?
die ganzen shader einheiten?
danke
AnarchX
2006-09-19, 11:21:15
und was würde so viele transistoren brauchen?
die ganzen shader einheiten?
D3D10 mit seinen allerhand Neuerungen + Leistungboost gegenüber aktuellen GPUs = ~500Mio Transistoren...;)
Moralelastix
2006-09-19, 16:07:55
http://uk.theinquirer.net/?article=34479
er kommt später....
(+44)
2006-09-19, 16:11:16
War zu erwarten *g*
Naja, ohne D3D10-Spiele kann mir der G80 erstmal egal sein, außerdem is meine 7900GTX aktuell noch was wert, das könnte sich nach dem G80-Launch aber schnell ändern :(
AnarchX
2006-09-19, 16:14:24
http://uk.theinquirer.net/?article=34479
er kommt später....
Ende November bzw. Anfang Dezember...;)
paul.muad.dib
2006-09-19, 16:45:56
Bei 175 Watt muss man sich wohl endgültig entscheiden, ob man Leistung oder geringe Lautstärke haben will. Bisher ließ sich ja mit Zusatzlüftern alles noch gut kühlen, aber hier wird selbst der gute Quadro-Kühler aufdrehen müssen. Wenn man nicht noch einen Slot opfert, ist sonst wohl einfach zu wenig Kühlfläche vorhanden.
Oder es muss halt doch mal 'ne Wakü sein.
gguru
2006-09-19, 16:46:55
Ende November bzw. Anfang Dezember...;)
Nein, da steht, dass man ihn bisher für den Zeitraum erwartet hat. Der INQ vermutet, dass nVidia im Oktober anfängt über den G80 zu plaudern und am Jahresende die NDA aufhebt.
Ich hoffe doch stark, dass das alles nicht stimmt. Gothic 3 kommt im Oktober und ich muss aufrüsten, aber bestimmt nicht wenn ein Generationswechsel bevorsteht. Ach ja, und Gothic 3 will ich so bald wie möglich spielen. :biggrin:
Sonst gibt es noch folgende "Neuigkeiten":
19.09.2006:
* Unified Shader Architecture
* Support FP16 HDR+MSAA
* Support GDDR4 memories
* Close to 700M transistors (G71 - 278M / G70 - 302M)
* New AA mode : VCAA
* Core clock scalable up to 1.5GHz
* Shader Peformance : 2x Pixel / 12x Vertex over G71
* 8 TCPs & 128 stream processors
* Much more efficient than traditional architecture
* 384-bit memory interface (256-bit+128-bit)
* 768MB memory size (512MB+256MB)
* Two models at launch : GeForce 8800GTX and GeForce 8800GT
* GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
* GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499
Our friends have gotten some information of the upcoming NVIDIA G80 and it appears that G80 gonna be unified shader after all. It should be pretty close to the truth and it explained the mystery of the strange DRAM capacities that INQ reported previously. Expect G80 to be out somewhere in mid November along with Kentsfield.
Quelle: http://www.vr-zone.com/?i=4007
Mitte November klingt wieder sehr gut. Aber der Rest sieht falsch aus. ^^
Nightspider
2006-09-19, 17:08:14
LoL, "700mio.Trans."+++ "Core clock scalable up to 1.5GHz" :D
Ich melde meinen Backofen-Aufsatz schonmal zum Patent an! ;D
So ein Schwachsinn...aber liest sich schon geil :)
Und was könnte das sein: "New AA mode : VCAA" ???
deekey777
2006-09-19, 17:10:51
Ohoh, scheinbar bleibt der Memory-Controller weiterhin in 64-bit-Stufen unterteilt (384-320). Lernt man nichts in Satan Clara?
ShadowXX
2006-09-19, 17:14:42
LoL, "700mio.Trans."+++ "Core clock scalable up to 1.5GHz" :D
Ich melde meinen Backofen-Aufsatz schonmal zum Patent an! ;D
So ein Schwachsinn...aber liest sich schon geil :)
Und was könnte das sein: "New AA mode : VCAA" ???
Gut finde ich auch die abhängigkeit des Mem-Busses von der Anzahl der TCP(?)-Chips.
Was die wohl sein mögen:
Texture Co-Processor?
Texture Custom Pipeline?
Transvestits Coming-out Party?
VCAA ist der Vice City AA-Mode........jedesmal wenn man den benutzt, wirst man erschossen. Deshalb kann auch noch keiner sagen ob der was bringt.
@DK777
Du glaubst doch diese Specs nicht, oder?
AnarchX
2006-09-19, 17:27:17
VCAA - variance control AA(?), was wohl bedeutet dass man AA je nach Bildinhalt passend einsetzen kann.;)
(AFAIK war das doch auch eine Neuerung bei D3D10?)
Diese Specs sind jedenfalls um einiges glaubwürdiger, als was man von INQ zu hören bekommt... :D
Diese Specs sind in meinen Augen ziemlicher Unsinn. Wirkt auf mich genauso frei erfunden wie die 8-Quad-R520-Geschichten.
deekey777
2006-09-19, 17:48:23
@DK777
Du glaubst doch diese Specs nicht, oder?
Natürlich nicht, die sind irgendwie strange, obwohl man da was zusammenbasteln kann, wenn andere unsinnige Sachen hinzugefügt werden:
Unified Shader Architecture
Support FP16 HDR+MSAA <- Ist ja logisch.
Support GDDR4 memories <- Warum nicht?
Close to 700M transistors (G71 - 278M / G70 - 302M)
New AA mode : VCAA
Core clock scalable up to 1.5GHz
Shader Peformance : 2x Pixel / 12x Vertex over G71
8 TCPs & 128 stream processors
Much more efficient than traditional architecture
384-bit memory interface (256-bit+128-bit)
768MB memory size (512MB+256MB)
Two models at launch : GeForce 8800GTX and GeForce 8800GT
GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649 <- 768 MiB, da 384-bit-SI
GeForce 8800GT: 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499 <- 640 MiB, da 320-bit-SI
Wie kommt man auf 128 irgendwas?
Der G80 soll 48 DX9- und 48 Dx10-ALUs haben, da haben wir schon 96. Aus 16 US-Einheiten machen wir gleich 16 dedizierte VS- und 16 dedizierte GS-Einheiten, das sind schon 32 Dings, was wir mit den 96 anderen Dings zusammenlegen: 128 Dings.
Warum die 8800GTX nur 7 TCPs und die 8800GT sogar nur 6 TCPs haben, lässt sich einfach erklären: Fertigungsprobleme. Um eine ausreichnende Menge an guten Chips zu bekommen, werden absichtlich G80 mit 8 TCPs gefertigt, von denen ein TCP deaktiviert wird.
Habe ich was vergessen?
Ach ja: Der R520 kann an bis zu 8 Quads rechnen.
Und überhaupt:
Das sind die G90-Specs!
€: Das einzige Gerücht, das glaubwürdig erscheint, ist, dass der G80 den doppelten Score in 3D 2006 schafft als 7950X2.
Ohoh, scheinbar bleibt der Memory-Controller weiterhin in 64-bit-Stufen unterteilt (384-320). Lernt man nichts in Satan Clara?
Abgesehen davon dass das ziemliche Spekulationen sind, könnten ja auch 2 davon deaktiviert sein...
AnarchX
2006-09-19, 17:52:12
AFAIR hatte einer unser Gurus mal gesagt, dass 128ALUs beim G80 gar nicht so abwägig sind...;)
(Wobei das auf der Grundlage war, dass er noch auf CineFX basiert.)
deekey777
2006-09-19, 18:01:29
Wer sagt, dass es beim G80 nicht um einen weiterentwickelten G70/G71 handelt? Es gab schon Andeutungen, dass erst der G90 wirklich neu sein soll.
Nightspider
2006-09-19, 18:13:46
Wer sagt, dass es beim G80 nicht um einen weiterentwickelten G70/G71 handelt? Es gab schon Andeutungen, dass erst der G90 wirklich neu sein soll.
Ich glaube, der G80 ist ein stark überarbeiteter Chip der alten Generation...
G90 wird sicherlich erst 2008 kommen und dann USA besitzen...dieser ist dann sowieso total überarbeitet...
Hier werden alle nach Strich und Faden verarscht so siehts aus Mädels *gg*
Nach den NV30- und R520-Spekulationen verstehe ich nicht warum manche sowas immer noch so leichtfertig für bare Münze nehmen.
MadManniMan
2006-09-19, 18:32:24
Das 384bit SI wäre in Anbetracht der 3dfx-Ingenieure an Bord vielleicht gar nicht sooo unwahrscheinlich, hat man doch dem V2 schon ein 192bit SI spendiert gehabt ;)
Nightspider
2006-09-19, 18:33:41
Wurde schon gesagt, dass er R600 jetzt doch ""nur"" 180 Watt brauchen soll ?
http://www.techpowerup.com/
hat man doch dem V2 schon ein 192bit SI spendiert gehabt ;)
Hat man nicht. Das waren 3x64 Bit. Nach der Rechnung hätte die GX2 auch ein "512-Bit-SI.
Botcruscher
2006-09-19, 18:57:03
Close to 700M transistors (G71 - 278M / G70 - 302M)
Core clock scalable up to 1.5GHz
384-bit memory interface (256-bit+128-bit)
768MB memory size (512MB+256MB)
Rofl. 1.5 GHz bei 700Mio Transen;D Dazu noch dieses lustige Speicherinterface. Wer streut bitte solche Informationen? Wenn man jemanden wirklich verarschen will, dann doch bitte mit realistischen Daten.
AnarchX
2006-09-19, 19:00:38
Rofl. 1.5 GHz bei 700Mio Transen;D Dazu noch dieses lustige Speicherinterface. Wer streut bitte solche Informationen? Wenn man jemanden wirklich verarschen will, dann doch bitte mit realistischen Daten.
"Core clock scalable up to 1.5GHz ist nicht gleichbedeutend mit dem Auslieferungs-Chiptakt einer GF 8800GTX...;)
Botcruscher
2006-09-19, 19:04:54
"Core clock scalable up to 1.5GHz ist nicht gleichbedeutend mit dem Auslieferungs-Chiptakt einer GF 8800GTX...;)
Mit... Stickstoff?:rolleyes: Spekuliert: Selbst bei realistischen 450-550mio Transen werden es max 800Mhz.
AnarchX
2006-09-19, 19:10:16
Mit... Stickstoff?:rolleyes:
Warum nicht.:)
Das die Architektur bis 1.5GHz skalieren könnte, was wohl irgendwelche Simulatoren ausgegeben haben, muss ja nicht bedeuten, dass dies mit normaler, marktauglicher Kühlung möglich ist bzw. im 90nm Prozess.
Aber im Endeffekt ist eine solche Angabe ziemlich wayne, sowohl für den Kunden als auch für den IHV, da diese Taktraten eh nie zu Lebzeiten des Chips erreicht werden, da schon der Nachfolger in den Startlöchern steht.
Ohoh, scheinbar bleibt der Memory-Controller weiterhin in 64-bit-Stufen unterteilt (384-320). Lernt man nichts in Satan Clara?
Meinst du, Nvidias Techniker können nicht rechnen? Die werden schon wissen, welche Unterteilung ihres SI den besten Kosten-/Nutzen-Faktor hat.
deekey777
2006-09-19, 20:13:08
Nach den NV30- und R520-Spekulationen verstehe ich nicht warum manche sowas immer noch so leichtfertig für bare Münze nehmen.
Bei der Menge der G80-Spezifikationen, die sich in diesem Thread findet, verliert man leicht den Überblick. ;) :D
@Gast von 19.09.2006 20:07:06:
Liest man nicht raus, dass ich Schwachsinn geschrieben habe?
€: Na gut, bei der Menge, was ich schreibe, ist es schwer zu unterscheiden, ob ich meinen Schwachsinn absichtlich oder unabsichtlich geschrieben habe. :D
ShadowXX
2006-09-19, 21:55:47
Das 384bit SI wäre in Anbetracht der 3dfx-Ingenieure an Bord vielleicht gar nicht sooo unwahrscheinlich, hat man doch dem V2 schon ein 192bit SI spendiert gehabt ;)
Quatsch....die 384 lassen sich ganz einfach erklären:
192 Bit für D3D10 und 128 für DX9 und nochmal 64 für einen VSA100Chip den Sie im Keller gefunden haben damit Sie sagen können: Hier 4xSGSSAA......
Und die 1.5GHz beziehen sich auch den VSA100-Anteil, damit auch ein bisserl Power rüberkommt, wenn der sein SpareGrid Supersampling anschmeisst.
Ich weiß nicht wer sich das Ausgedacht hat, aber ich glaube das das Zeug was er Getrunken oder Geraucht hatte ziemlich gut oder sehr sehr schlecht war.
Zumindest wird es sich, nachdem er diese Specs irgend jemand ins Ohr geflüstert hat bestimmt vor Lachen in die Hose gemacht haben.
Hört man in Californien eigentlich momentan immer noch das Lachen der nV Ings, die das auch gelesen haben.
gguru
2006-09-19, 22:04:35
Jemand nimmt die ganzen Gerüchte von heute so ernst, dass er es für notwendig hielt, sie in der Wikipedia einzutragen:
http://en.wikipedia.org/w/index.php?title=GeForce_8_Series&oldid=76591450
Ailuros
2006-09-19, 23:03:27
Wer sagt, dass es beim G80 nicht um einen weiterentwickelten G70/G71 handelt? Es gab schon Andeutungen, dass erst der G90 wirklich neu sein soll.
G80 ist eine absolut logische Zwischenstufe zwischen G7x und der uebernaechsten Generation; aber dazu braucht man kein besonderes Wissen um sich das vorzustellen.
Was jetzt den Quark von VR-zone betrifft, nun ja...Mahlzeit eben LOL :D
deekey777
2006-09-19, 23:44:36
Wenn die Kalifornier es wieder schaffen, einen Chip wie G71 hinzuzaubern, dann ich sie nur loben. Selbst wenn überall stehen würde, der G80 sei bloß ein um D3D10 erweiterter G71, ist es mir egal, so lange er seine (des G71) Eigenschaften wie Leistungsaufnahme oder Wärmeabgabe hat (natürlich in Relation zum Gebotenen).
Zu den VR-zone-Specs:
Weißt du, was das Schlimmste sein kann, wenn die VR-Typen richtige Andeutungen bekommen, diese aber falsch aufgeschrieben und interpretiert haben, so dass sie jetzt nonsense erscheinen.
VR: "Na, erzählt was zum G80!"
Mr. X: "Ihr wisst schon, heutige GPUs sind Stream-Prozessoren, wenn wir jetzt dies und das zusammenführen, könnte man meinen, der G80 hätte 128 'Stream-Prozessoren'"
VR notiert: Der G80 hat 128 Stream-Prozessoren.
Mr. X: "...und 8 TMU-Quads, die wir auch TCPs nennen, hat der G80 auch. Die eine Version wird 7 TCPs haben, die etwas schwächere 6 TCPs."
VR notiert: 8 TCPs, aus G80 mit 7 TCPs macht er eine 8800GTX, mit 7 TCPs eine GT. Dass ein G80 mit 8 TCPs eine "8800 Ultra" sein kann, kommt er gar nicht drauf.
Es könnte auch sein, dass Mr. X nur sagte, dass der G80 TCPs hat in der Hoffnung, dass der VR-Redakteur die Andeutung versteht.
VCAA ist eigentlich eine Antwort auf ATis TempAA, usw.
Ich will nicht sagen, dass die Specs richtig sind, sondern nur, dass VR-Zone irgendwas zu hören oder zu sehen bekam, dies aber falsch ausgelegt hat.
Natürlich kann es auch um eine Täuschungsaktion handeln: Hier und da kamen so manche kluge Leute mit ihren Theorien zu nah an die richtigen Specs und ziehen noch richtige Schlüsse aus ihren Überlegungen. Also muss etwas Blödsinn in die Welt gesetzt werden, damit die nicht so klugen Leute nicht auf die Überlegungen der Klugen schauen, sondern auf die absichtlich falschen Infos.
Ist das gleiche wie mit dem R520: Hat er wirklich 32 Pipelines, wie es VR-Zone behauptet hatte? Nein, aber wenn man auf die Architektur einen Blick wirft, könnte es rein rechnerisch (wortwörtlich) stimmen.
Ailuros
2006-09-20, 06:29:34
Wenn die Kalifornier es wieder schaffen, einen Chip wie G71 hinzuzaubern, dann ich sie nur loben. Selbst wenn überall stehen würde, der G80 sei bloß ein um D3D10 erweiterter G71, ist es mir egal, so lange er seine (des G71) Eigenschaften wie Leistungsaufnahme oder Wärmeabgabe hat (natürlich in Relation zum Gebotenen).
Man sollte aber nicht vergessen dass G71 den G70 bzw. NV40 folgte; und dass soll nur heissen dass das Resultat auch nicht beim ersten Versuch gelang.
Zu den VR-zone-Specs:
Weißt du, was das Schlimmste sein kann, wenn die VR-Typen richtige Andeutungen bekommen, diese aber falsch aufgeschrieben und interpretiert haben, so dass sie jetzt nonsense erscheinen.
VR: "Na, erzählt was zum G80!"
Mr. X: "Ihr wisst schon, heutige GPUs sind Stream-Prozessoren, wenn wir jetzt dies und das zusammenführen, könnte man meinen, der G80 hätte 128 'Stream-Prozessoren'"
VR notiert: Der G80 hat 128 Stream-Prozessoren.
Mr. X: "...und 8 TMU-Quads, die wir auch TCPs nennen, hat der G80 auch. Die eine Version wird 7 TCPs haben, die etwas schwächere 6 TCPs."
VR notiert: 8 TCPs, aus G80 mit 7 TCPs macht er eine 8800GTX, mit 7 TCPs eine GT. Dass ein G80 mit 8 TCPs eine "8800 Ultra" sein kann, kommt er gar nicht drauf.
Es könnte auch sein, dass Mr. X nur sagte, dass der G80 TCPs hat in der Hoffnung, dass der VR-Redakteur die Andeutung versteht.
VCAA ist eigentlich eine Antwort auf ATis TempAA, usw.
Ich will nicht sagen, dass die Specs richtig sind, sondern nur, dass VR-Zone irgendwas zu hören oder zu sehen bekam, dies aber falsch ausgelegt hat.
Natürlich kann es auch um eine Täuschungsaktion handeln: Hier und da kamen so manche kluge Leute mit ihren Theorien zu nah an die richtigen Specs und ziehen noch richtige Schlüsse aus ihren Überlegungen. Also muss etwas Blödsinn in die Welt gesetzt werden, damit die nicht so klugen Leute nicht auf die Überlegungen der Klugen schauen, sondern auf die absichtlich falschen Infos.
So ist es auch meistens.
Ist das gleiche wie mit dem R520: Hat er wirklich 32 Pipelines, wie es VR-Zone behauptet hatte? Nein, aber wenn man auf die Architektur einen Blick wirft, könnte es rein rechnerisch (wortwörtlich) stimmen.
Der 32 Pipes Quark originierte von Fudo; bei einer Messe vor der Veroeffentlichung plauderte er mit ATI und NV Kerlen; die letzteren verar***ten ihn dass R520 32 pipes haben wird und obwohl die ATI Kerle ihn versicherten dass das Ding nur 4 quads haben wird, glaubte er eher der Konkurrenz. Als ihm damals jemand schrieb stammelte er verzweiffelt dass selbst NVIDIA 32 pipes behaupten wuerde. Dass sich damals sowohl die NV als auch die ATI Kerle fast krank gelacht haben sollte wohl klar sein.
So und jetzt erklaer mir aber mal bitte wie man "rein rechnerisch" mit 16 ROPs, 16 TMUs, 16 ALUs und 16 SIMD Kanaelen auf "32 pipes" kommen kann; nicht nur dass ich wuerde liebend wissen wieviel "pipes" ich fuer G70 oder noch schlimmer fuer R580 rechnen muesste.
Das eigentliche Fazit ist woanders: wenn man nichts weiss haelt man die Klappe; wenn man ein paar Schnaeppchen zugeschossen bekommt aber nicht weiss wie man diese interpretieren soll genauso.
Persoenlich wuerde es mich kein bisschen wundern, wenn G80 eher der R580 Logik generell naeher rueckt als alles andere; und dass heisst jetzt nicht so und so viele quads oder ALUs, sondern ich wuerde eher denken was G7x/NV4x genau im Vergleich zur Konkurrenz fehlte.
***edit:
http://www.theinquirer.net/default.aspx?article=34494
http://www.theinquirer.net/default.aspx?article=34479
;)
robbitop@work
2006-09-20, 08:46:38
Ohoh, scheinbar bleibt der Memory-Controller weiterhin in 64-bit-Stufen unterteilt (384-320). Lernt man nichts in Satan Clara?
Weißt du wie teuer und komplex ein >256 Bit Interface wird, wenn es in 32 Bit Häppchen unterteilt wird? Die Wirkung einer noch feineren Granularität wird oftmals stark überschätzt. Stattdessen kann man die Transistoren lieber in Recheneinheiten investieren. Es sollte relativ selten passieren, dass mal ein Paket durchrutscht, dass kleiner als 16 bytes ist. Es werden generell ganze Quads in den Speicher geschrieben und wir haben schon ohne AA 4x Farbwerte a 4 Bytes. Hinzukommt noch 1 Byte für komprimierten Z-Traffic. Mit AA wächst letzterer vor allem. Und nicht zu vergessen wären noch Texturzugriffe.
Die Leute in Santa Clara haben sich schon etwas dabei gedacht ;-)
MuLuNGuS
2006-09-20, 08:57:49
hmm,
die specs klingen so schräg dass sie schon weider wahr sein könnten..löl
we will see.
®
Gast_
2006-09-20, 10:25:06
Weißt du wie teuer und komplex ein >256 Bit Interface wird, wenn es in 32 Bit Häppchen unterteilt wird?
Wenn man keine Crossbar macht ist das kein großes Thema.
Die Wirkung einer noch feineren Granularität wird oftmals stark überschätzt.
Echt? Die Benchmarks mit viel AA G71 vs. R5xx sehen da aber anders aus.
robbitop@work
2006-09-20, 10:51:00
Wenn man keine Crossbar macht ist das kein großes Thema.
Kein großes Thema. Klar ;-)
Echt? Die Benchmarks mit viel AA G71 vs. R5xx sehen da aber anders aus.[/QUOTE]
Du weißt schon, dass bis auf die Memorycontroller noch andere Unterschiede zwischen beiden GPUs bestehen?
Anarchy-HWLUXX
2006-09-20, 10:51:49
Ich find die news bei VR-Zone nemmer ... ob nV da bissi nachgeholfen dat das se verschwinden:|
Botcruscher
2006-09-20, 11:43:23
Ich find die news bei VR-Zone nemmer ... ob nV da bissi nachgeholfen dat das se verschwinden:|
Die hatten vielleicht Angst wegen Imageschäden.:biggrin:
Gast_
2006-09-20, 12:28:30
Kein großes Thema. Klar ;-)
Ja richtig gehört. Cell hat auch einen Ringbus, der deutlich größer als sowas sein dürfte.
Du weißt schon, dass bis auf die Memorycontroller noch andere Unterschiede zwischen beiden GPUs bestehen?
Ja, aber das ist mit Sicherheit der Hauptgrund, weil das sich nur auf die ROPs zurückführen lässt, die beide ziemlich sicher die gleichen Kompressionsmöglichkeiten haben (Color- und Z).
robbitop@work
2006-09-20, 12:37:34
Ja richtig gehört. Cell hat auch einen Ringbus, der deutlich größer als sowas sein dürfte.
R5xx besitzt jedoch keinen richtigen "Ringbus"
Ja, aber das ist mit Sicherheit der Hauptgrund, weil das sich nur auf die ROPs zurückführen lässt, die beide ziemlich sicher die gleichen Kompressionsmöglichkeiten haben (Color- und Z).
Ja aber was ist mit dem Cache System (sehr hohe Assoziativitä)? ;-)
Die AA Performance zog erst nach ein paar Treibern an. Die Granularität ist ja starr, jedoch hat man anscheinend etwas bei den bursts geregelt.
Weiterhin haben beide IHVs andere Herangehensweisen beim MSAA. Auch hier könnte eine Ursache stecken. Aths hat mal etwas erwähnt bezüglich der Übertragung der Colorsamples an Nicht-Poly-Edges...
Gast_
2006-09-20, 12:42:35
R5xx besitzt jedoch keinen richtigen "Ringbus"
Ich weiß. Das Ding ist ein Crossbar in eine Richtung. Reine Transistorschinderei, kannst auch vollständig machen wenn die Caches groß genug sind. Latenz ist nicht so wichtig bei GPUs.
Ja aber was ist mit dem Cache System (sehr hohe Assoziativitä)? ;-)
Das interessiert doch beim AA nicht. Da gehts um die Input-Daten.
Die AA Performance zog erst nach ein paar Treibern an.
Ja, weil sie den Speichercontroller anders eingestellt haben.
Weiterhin haben beide IHVs andere Herangehensweisen beim MSAA.
Grundsätzlich funktioniert das exakt gleich. Außerdem glaube ich nicht dass ATI da großartig noch was rausholen konnte seit R300 außer eben der Granularität.
sklave_gottes
2006-09-20, 12:48:46
Ja richtig gehört. Cell hat auch einen Ringbus, der deutlich größer als sowas sein dürfte.
Ja, aber das ist mit Sicherheit der Hauptgrund, weil das sich nur auf die ROPs zurückführen lässt, die beide ziemlich sicher die gleichen Kompressionsmöglichkeiten haben (Color- und Z).
Sehe dir mal die etwas neueren bensch werte an z.b. :
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/22/#abschnitt_performancerating
Die 7900gtx verliert mit aa/af im schnitt genau so viel wie die x1900xtx.
Die 7800gtx 512MB verliert dagegen viel mehr leistung.(obwohl die meiste Speicherbandbreite).Ich denke das liegt eher weniger am speicherkontoller.
robbitop@work
2006-09-20, 12:53:27
Das interessiert doch beim AA nicht. Da gehts um die Input-Daten.
Naja Cache misses kosten Bandbreite. Und wenn die fehlt, merkt man das beim AA. ;-)
Was mich stutzig macht, waren AiLs Skallierungsversuche (ich hoffe du kannst dich an die errinnern):
FEAR 4xMS ohne AF und er spielte mit Chip und Speichertakt herum.
4xAA haute richtig in die Performance (~50% IIRC), AF bei einem Gegentest von ihm jedoch kaum.
Komischerweise skallierte es nur mit der Erhöhung des Chiptaktes signifikant und nicht mit der Erhöhung des Speichertaktes.
Das impliziert, dass genug Speicherbandbreite beim G70/71 vorhanden ist und dennoch das AA am teuersten ist. Da hilft keine Granularitätssteigerung, welche ja lediglich die effektive Bandbreite steigert. Da liegt irgendwas im Design quer ... ein Puffer oder irgendwelche Latenzen..keiner weiß das so genau.
Und selbst wenn es die Granularität wäre, würde es IMO nicht in diesem Maße zu einer Steigerung der Performance kommen. So viel Verschnitt gibt es ja auch nicht, wenn man ganze Quads in den FB schreibt (das Gesetz des abnehmenden Grenzertrages schlägt da zu)
Gast_
2006-09-20, 12:56:32
Naja ich denke das lässt sich hier jetzt nicht klären. Auf jedenfall hat ATI ja nicht umsonst das Ringbus-Crossbar-Ding konstruiert (das hätten sie bei 64-Bit-Granulartiät nicht gebraucht) wenn ihre Simulationen nicht gezeigt hätten dass es einiges bringt.
robbitop@work
2006-09-20, 13:03:30
Naja ich denke das lässt sich hier jetzt nicht klären. Auf jedenfall hat ATI ja nicht umsonst das Ringbus-Crossbar-Ding konstruiert (das hätten sie bei 64-Bit-Granulartiät nicht gebraucht) wenn ihre Simulationen nicht gezeigt hätten dass es einiges bringt.
Der Controller im R420 war eh schon veraltet und noch aus der R300 Zeit. IIRC ein starrer Controller. Da man eh einen neuen entwickeln musste, lohnte sich dieser Ringbus möglicherweise. NV hatte im NV4x einen recht flexiblen Controller. Ich könnte mir vorstellen, dass sich die noch feinere Granularität kaum lohnt.
NV20 bis zur NV30 hatten jeweils 32 Bit Granularität, insofern hat man auch praktischer Erfahrungen zu diesem Thema. 64 Bit scheint jedoch bei größeren Interfaces eine Art sweet spot in P/L zu sein.
Merlin31
2006-09-20, 13:57:38
http://www.winfuture.de/news,27541.html
Neosix
2006-09-20, 14:04:36
Nun schon 700mio Transistoren. Aber in der vergangenheit haben wir ja gelernt das viele Transistoern eben nicht immer nur schlechter Takt oder viel Wärme bedeuten. Zumindestens hoffe ich das es auf G80 trifft.
Sunrise
2006-09-20, 21:22:07
Noch schlimmer sieht es aus als ob wir "quads" so langsam als Beschreibung auch loswerden muessen. Kann man am Ende Xenos entweder mit "pipelines" oder "quads" wirklich schon heute beschreiben?
...
Der Unterschied ist hier dass ich mit einer Beschreibung der Art: 3* 16-way SIMD zufrieden waere, aber nicht mit irgend etwas dass mit quads oder pipelines im normalen verkorksten Gebrauch zu tun haette.
Und Xenos ist hier erst der Anfang...
Ist völlig richtig, Ailuros. Die Notwendigkeit, nach solchen (exakteren) Beschreibungen hätte auch noch einen anderen, angenehmen Nebeneffekt, nämlich den, dass man endlich aufhört mit dieser "Pipeline"-Zählerei, die zwar für sich gesehen (eine Architektur, z.B. die Skalierbarkeit betreffend, bezogen z.B. auf (Quad)-"Blöcke") Sinn ergibt, in Zukunft aber so stark mit dem gesamten Aufbau verschachtelt ist, dass wir hier wirklich genauer hinsehen müssen, um zu verstehen, wie diese Architektur wirklich aufgebaut ist (funktioniert wäre ein Schritt zuweit) - und nicht, um uns an irgendwelchen, ziemlich nichtssagenden Zahlen zu "erfreuen" (freundlich ausgedrückt).
Das Problem ist, dass selbst wir beide (wir sind im Prinzip alle Laien, da wir keine Blueprints der Architekturen selbst haben, und auch nur Schlüsse aus Beobachtungen/Patenten ziehen können, denn der pure "Glaube" an Slides, ist bei mir persönlich schon lange verflogen) wahrscheinlich nicht mehr verstanden werden. Es gilt hier wie so oft, einen möglichst verständlichen Mittelweg zu finden, der aber - so sieht es aktuell aus - nur pro-Architektur des jeweiligen IHVs gilt, und somit womöglich nicht allgemeingültig ist.
PS: Wenn ich dann wiederum manchmal Jaweds Ausführungen lese, dann frage ich mich auch des Öfteren, ob man es vielleicht nicht auch übertreiben kann. Wobei solche Ansichten auch wichtig sind, und über Dinge nachzudenken, die erstmal völlig utopisch und verrückt klingen, hat natürlich auch einen gewissen Reiz.
Pfeffernase
2006-09-20, 22:23:49
Also wirklich Leute.
Es ist ja in Ordnung eine große Neugier auf kommende Grafikkarten zu haben, was hier aber über Architekturinterne Dinge spekuliert und diskutiert wird, ist nichts als glücklose Zeitverschwendung.
Ich wette die Mehrzahl der Leute die hier verkrampft fachsimpeln, programmieren beruflich nicht einmal Grafikanwendungen um mit den spekulierten Daten etwas auch nur hypothetisch praktisch anfangen zu können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.