PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller G70/GeForce 7800 GTX Sammelthread


Seiten : 1 [2] 3 4

Oblivion
2005-06-22, 20:25:48
Auf jeden Fall nicht auf die Art wie man es überlicherweise macht. Wie der Trick funktionieren soll von dem nVidia spricht haben sie im Detail noch nicht verraten.

Speku: "gefälschtes" HDR

MarcWessels
2005-06-22, 20:29:57
Man hat nur begrenzte Ressourcen und muss Prioritäten setzen. Eines nach dem anderen.
Wie lange hast du auf die Verfügbarkeit von NV40/R420 warten müssen? Wie lange beim G70? Warum meckerst du? :)

Eben DAS wüsste ich auch gern. Ich meckere, weil ich als Pentium-M-User nichts mit PCI-E-Karten anfangen kann.

Aber zumindest sehen die Kühlermaße ja so aus, als wenn ich den NV40-Alphacool-Wakühler weiterhin verwenden kann, wenn ich den Teil, der jetzt für die Spannungsregler gedahct ist, absäge und die rückseitigen Ramchips mit einem langsam laufenden Papst kühle. :)

robbitop
2005-06-22, 20:31:52
Eben DAS wüsste ich auch gern. Ich meckere, weil ich als Pentium-M-User nichts mit PCI-E-Karten anfangen kann.

Aber zumindest sehen die Kühlermaße ja so aus, als wenn ich den NV40-Alphacool-Wakühler weiterhin verwenden kann, wenn ich den Teil, der jetzt für die Spannungsregler gedahct ist, absäge und die rückseitigen Ramchips mit einem langsam laufenden Papst kühle. :)
Dann warte doch erstmal ein bisschen :)

Demirug
2005-06-22, 20:36:27
Macht der G70 eigentlich auch Filter@Scanout?

Spielt beim HDR keinen Rolle weil man einen FP16 BUffer nicht direkt zum Scanout benutzten kann. Da fehlt das Tonemapping.

Und zum SG TSSAA....wenn es theoretisch auch fürs "normale" SSAA funktionieren würde, wäre es doch doof von nV, wenn Sie das nicht freischalten oder sogar Wahlweise (also OG/SG) anbieten würden.....

Theoretisch sollte es auch als FSAA funktionieren.

Karümel
2005-06-22, 20:36:29
Gibt es eigentlich schon Infos zu kleineren Modellen?

deekey777
2005-06-22, 20:37:15
Auf jeden Fall nicht auf die Art wie man es überlicherweise macht. Wie der Trick funktionieren soll von dem nVidia spricht haben sie im Detail noch nicht verraten.

Kein OpenEXR, aber eine andere Definition des HDR, wo auch das AA funktioniert?

Demirug
2005-06-22, 20:38:25
Kein OpenEXR, aber eine andere Definition des HDR, wo auch das AA funktioniert?

Wie gesagt Details hat nVidia nicht rausgerückt.

SentinelBorg
2005-06-22, 20:39:37
So, zich Tests nun gelesen :smile:

Fazit: Die 7800GTX scheint mir ein rundum rundes Produkt zu sein.
In den entscheidenden Situationen deutlich schneller als eine GF6800Ultra, dabei leiser und mit weniger Stromverbrauch. Dazu nun natürlich ein funktionierendes PureVideo und einige guter neuer Features wie Gamma-korrektes-AA und Transparency-AA. HDCP Support ist auch dabei, was für Freunde von HD-Filmen ein ziemlich wichtiges Feature sein wird.

Interessant auch, dass sie sich intern tatsächlich noch als NV47 meldet, damit ist die Frage, ob NV47 = G70, nun endlich auch geklärt.

Sentinel

Godmode
2005-06-22, 20:43:52
Gibt es eigentlich schon Infos zu kleineren Modellen?

Ich hab irgendwo gelesen dass nur die 68U ersetzt werden soll. Die anderen sollen bleiben.

ShadowXX
2005-06-22, 21:13:44
Spielt beim HDR keinen Rolle weil man einen FP16 BUffer nicht direkt zum Scanout benutzten kann. Da fehlt das Tonemapping.


War doof von mir gequotet...ich meinte das eigentlich nicht auf HDR bezogen, sondern allgemein.

Weil es wird ja oft gesagt, das der 68Ultra/GT in hohen Auflösungen mit AA deshalb die Puste ausgeht, weil Sie Filter@Scanout machen....falls das der G70 nun nicht mehr macht, hätte man zumindest schonmal einen Faktor, warum das bei der G70 vielleicht nicht so ist.

Demirug
2005-06-22, 21:16:49
War doof von mir gequotet...ich meinte das eigentlich nicht auf HDR bezogen, sondern allgemein.

Weil es wird ja oft gesagt, das der 68Ultra/GT in hohen Auflösungen mit AA deshalb die Puste ausgeht, weil Sie Filter@Scanout machen....falls das der G70 nun nicht mehr macht, hätte man zumindest schonmal einen Faktor, warum das bei der G70 vielleicht nicht so ist.

Er kann es sicher noch aber vielleicht hat es nVidia bei den hohen Auflösungen deaktiviert oder es spielt da irgendwie die TurboCache Fähigkeit rein.

Das Auge
2005-06-22, 21:43:35
Falls es schon angesprochen wurde schon mal ein vorsorgliches "tut mir leid", AAAAABER ist das Layout der Karte insoweit gleich geblieben, daß man einen den Silencer Rev.2 der 6800er-Reihe weiterverwenden könnte?
(nicht, daß ich mir die Karte gleich kaufen will, aber als Option für die Zukunft durchaus interessant)

-error-
2005-06-22, 22:24:44
Bringt TSAA wirklich keinen Performanceverlust?

http://anandtech.com/video/showdoc.aspx?i=2451&p=19

Demirug
2005-06-22, 22:29:06
Bringt TSAA wirklich keinen Performanceverlust?

http://anandtech.com/video/showdoc.aspx?i=2451&p=19

Die MS Variante ist wirklich so schnell nur bringt die bei sowas wie HL2 auch überhaupt nichts. Für HL2 muss man die SS Varainte nutzen und die kostet auch ein wenig.

Gast
2005-06-22, 22:31:26
Bringt TSAA wirklich keinen Performanceverlust?

http://anandtech.com/video/showdoc.aspx?i=2451&p=19

kommt sicherlich sehr stark auf die szene an.

die MSAA-methode dürfte wohl nie wirklich zusätzlich was kosten, bei der SSAA-methode kann es durchaus größere einbrüche geben wenn das ganze bild von einer alpha-textur belegt ist.

PatTheMav
2005-06-22, 22:33:03
Ich muss sagen, die G70 scheint ein wirklich rundum schickes Produkt zu sein, allerdings war mir der Stromverbrauch der 6800 Ultra schon zu hoch. Daß es dabei geblieben ist und der Lüfterlärm generell niedrig ist, werte ich positiv, aber ein für mich zu hoher Wert bleibt auch bei Stagnation immer noch zu hoch.

Für potentielle Aufrüster wie mich ist das nu natürlich ne doofe Situation. Einerseits hat man die immer noch sehr gut performende X800 (AGP) im Rechner, will man aber auf nen A64 ab 3500+ aufrüsten, kann man sich ja fast nicht zwischen nem "alten" AGP-A64-Board für die X800 oder nem PCI-X-Board für ne G70 entscheiden ...

Gast
2005-06-22, 22:38:29
Und ich dachte bis zum heutigen Tag ernsthaft, dass ich nicht viel falsch gemacht hab mit dem Kauf der 6800GT :mad:
Hast du auch nicht.

Überleg dir mal wie Nvidias 4x MSAA technisch realisiert ist, wieviel Speicher die Karte hat und was für ein Setting da gewählt wurde, dann kommst du schnell darauf, wieso der Wert für die Ultra so niedrig ist.
Das hat aber keine generelle Aussage auf die Performance bei diesem Spiel. Hier tippe ich auf DRAM Knappheit.

acrowley23
2005-06-22, 22:39:48
Für potentielle Aufrüster wie mich ist das nu natürlich ne doofe Situation. Einerseits hat man die immer noch sehr gut performende X800 (AGP) im Rechner, will man aber auf nen A64 ab 3500+ aufrüsten, kann man sich ja fast nicht zwischen nem "alten" AGP-A64-Board für die X800 oder nem PCI-X-Board für ne G70 entscheiden ...


Oder man ist vernünftig und wartet bis Herbst und holt sich dann den aktuellsten A 64 Sockel und DualCore CPU !! Dazu noch eine R520 :biggrin:
Also warte noch ! Lohnt im moment absolut net.

Zum G70....Na ja , ist ja zumindest für aktuell x800XT oder 6800GT/U Besitzer wohl kaum ein allzu grosser Reiz ...
Ein Quantensprung ist es zumindest net.

Coda
2005-06-22, 22:41:17
Wurde am dynamischen PS branching eigentlich was geändert, oder ist das immer noch "lahm" (es gibt keinen Vergleich, also in Anführungszeichen)

LordDeath
2005-06-22, 22:52:34
Für potentielle Aufrüster wie mich ist das nu natürlich ne doofe Situation. Einerseits hat man die immer noch sehr gut performende X800 (AGP) im Rechner, will man aber auf nen A64 ab 3500+ aufrüsten, kann man sich ja fast nicht zwischen nem "alten" AGP-A64-Board für die X800 oder nem PCI-X-Board für ne G70 entscheiden ...

ich würde an deiner stelle warten, bis cpu UND graka nicht mehr richtig reichen. ein xp 3200+ hat ja eigentlich noch sehr viel leistung (sie wird ja nicht weniger, sie wird nur eher gebraucht :D) und da spiele eh unter quali-settings graka limitiert sind sollte die wahl des wartens da leichter fallen. beim umsatteln auf a64 wär dann direkt ein neues mainboard + graka notwendig, so dass du dann beruhigt ein pci-e board kaufen könntest. zudem hast du durch das warten dann noch einen(oder mehrere) r520 abkömmling zur wahl und mit dualcore vielleicht auch noch etwas bezahlbares...
also jetzt aufrüsten wäre in deinem fall aus meiner sicht blöd, nur wie ist deine sicht? ^^

Ronny145
2005-06-22, 23:03:44
Weitere:
http://www.pcper.com/article.php?aid=150&type=expert
http://www.golem.de/0506/38775.html
http://www.extremetech.com/article2/0,1558,1830246,00.asp
http://www.neoseeker.com/Articles/Hardware/Previews/G70preview/
http://www.hartware.de/review_479.html
http://www.nvnews.net/previews/geforce_7800_gtx/index.shtml
http://www.ocworkbench.com/2005/nvidia/GeForce%207800GTX/g1.htm

MarioK
2005-06-22, 23:35:25
HDCP Support ist auch dabei, was für Freunde von HD-Filmen ein ziemlich wichtiges Feature sein wird.
Sentinel

wo hast du was über HDCP gefunden?

mario

PatTheMav
2005-06-22, 23:44:29
ich würde an deiner stelle warten, bis cpu UND graka nicht mehr richtig reichen. ein xp 3200+ hat ja eigentlich noch sehr viel leistung (sie wird ja nicht weniger, sie wird nur eher gebraucht :D) und da spiele eh unter quali-settings graka limitiert sind sollte die wahl des wartens da leichter fallen. beim umsatteln auf a64 wär dann direkt ein neues mainboard + graka notwendig, so dass du dann beruhigt ein pci-e board kaufen könntest. zudem hast du durch das warten dann noch einen(oder mehrere) r520 abkömmling zur wahl und mit dualcore vielleicht auch noch etwas bezahlbares...
also jetzt aufrüsten wäre in deinem fall aus meiner sicht blöd, nur wie ist deine sicht? ^^
Na ich weiss nicht so recht - ich hab trotz der X800 irgendwie manchma miserable Performance. In WoW hab ich dauernd schwankende FPS-Zahlen. Manchmal bin ich durchgehend am Vsync-Limit, dann laufe ich durchs Nachtelfen-Gebiet und ich komme kaum über 25 fps. Und ich zocke nur mit 2x AA auf 1280x1024. Hier würd sich ein Athlon64 4000+ sehr lohnen. Die Battlefield 2 Demo läuft auf High only Settings mit 2x AA eigentlich auch recht smooth, laut eingebautem FPS-Meter zwar nie über 45 fps und ab und zu drops unter 30, aber subjektiv läuft es smooth. Das aber nur auf 1024x768 Bildpunkten. Und wenn ich dann in Benchmarks lese, daß das Game Graka-limitiert ist und 1280x1024 und bis zu 1600x1200 mit 2xAA locker spielbar sein soll, dann frag ich mich, warum das bei mir nicht der Fall ist und ich nichtmal auf 1024x768 mit niedrigeren Settings annähernd an Benchmark- oder Erfahrungswerte anderer herankomme. Selbst nach der 3DC-Umfrage wunderte ich mich, wie Leute mit schlechterer Hardware als ich in höheren Settings flüssig spielen können.

Wenn ich aber manchmal hier lese, wie Leute mit schwächerem Prozessor UND Graka mehr FPS dauerhaft zu haben scheinen, frage ich mich, was an meinem System "falsch" ist und hatte gehofft mit nem A64 4000+ der X800 XT endlich nen kompetetiven Unterbau zu liefern.

Immerhin meine 2 GB Ram von Corsair kann ich doch unabhängig von sonstigen Aufrüstwünschen kaufen, oder kommt da gleich die DDR2-Keule ? :(

deekey777
2005-06-22, 23:44:31
So, zich Tests nun gelesen :smile:

.. HDCP Support ist auch dabei, was für Freunde von HD-Filmen ein ziemlich wichtiges Feature sein wird.

.

Sentinel

Ja, die werden sich freuen, daß deren Urlaubsvideos per HDCP "geschützt" an den Bildschirm weitergeleitet werden... Das wird bestimmt eine lustige Sache.

wo hast du was über HDCP gefunden?

mario

Er schaut vielleicht alle Seiten des Threads durch?

dildo4u
2005-06-22, 23:59:26
Hier endlich auch ein paar Benches mit min fps Angaben


http://www.fileloader.de/file_data/file_iGY5vl1gInNERHw3nOHGR1glqcbHp5hylfT7rvDZ.jpg

http://www.fileloader.de/file_data/file_lQFZOyFu4Cco9W66pRkIzEa4GRoocIzo9fny3TIY.jpg

http://www.fileloader.de/file_data/file_Pt3NGc7Y5Mz4JtJDbwvBGP3EbtkjKWQAquyWxVUS.jpg

http://www.fileloader.de/file_data/file_v8ZMCUCe78qooinO7vyyYs4KkwmS5jURHUDtOqyv.jpg

http://www.pcper.com/article.php?aid=150

MadManniMan
2005-06-22, 23:59:52
...was an meinem System "falsch" ist und hatte gehofft mit nem A64 4000+ der X800 XT endlich nen kompetetiven Unterbau zu liefern.

Hm, nichts.

Problem: VSync - sieh es ein, du bist mit diesem Anspruch ein Exot. Das Gros spielt ohne VSync und somit sind auch ohne weiteres spielbarere Settings möglich.

deekey777
2005-06-23, 00:01:21
Schöne Benches... Vielleicht wird es endlich Zeit, nur die Seiten zu verlinken, denn die Eigentümer dieser müssen auch für den Traffic zahlen, wenn die Bilder hier im Forum verlinkt und angezeigt werden. ;)

PatTheMav
2005-06-23, 00:01:33
Hm, nichts.

Problem: VSync - sieh es ein, du bist mit diesem Anspruch ein Exot. Das Gros spielt ohne VSync und somit sind auch ohne weiteres spielbarere Settings möglich.Ja klar, wenn es um entsprechend höhere FPS geht, aber mein Monitor läuft in den meisten Settings auf 85 Hz und damit sollten 85Fps möglich sein, doch selbst die werden ja bei mir eher selten erreicht.

dildo4u
2005-06-23, 00:03:06
Schöne Benches... Vielleicht wird es endlich Zeit, nur die Seiten zu verlinken, denn die Eigentümer dieser müssen auch für den Traffic zahlen, wenn die Bilder hier im Forum verlinkt und angezeigt werden. ;)
Ich setzt die Gleich auf anderen webspace.

MarioK
2005-06-23, 00:14:52
Er schaut vielleicht alle Seiten des Threads durch?

und ich dachte das wir nicht in speku forum sind ...

- quak um HDCP (MSI produkt seite bsp.) ist der gleiche wie seit jahrem und dem R300 ...
- marketing typ von nVidia bei GIGA meinte HDMI kommt ...
- das ASUS EAX600XT/HDTV ein HDMI ausgang hat glaube ich dir nur nach foto beweiss ... http://www.asus.de/products/vga/eax600xt-htvd/overview.htm lol: (This picture is for reference only; actual spec. and PCB color are based on the real product)

mario

Gast
2005-06-23, 00:15:09
Denke das die Taktraten stimmen:

Asus Extreme N7800GTX/2DHTV, 470/1200 MHz, 550 Euro
GigaByte GV-NX78256V-B, 430/1200 MHz, 550 Euro
Leadtek PX7800GTX-TDH256, 450/1200 MHz, 570 Euro
MSI NX7800GTX-VT2D256E, 430/1200 MHz, 570 Euro
ProlinkPixelview GeForce 7800GTX, 430/1200 MHz, 550 Euro
XFX GF7800 GTX, 450/1250 MHz, 550 Euro


Quelle: http://www.hardware-mag.de/news.php?id=38255

Gast
2005-06-23, 00:17:40
Hier endlich auch ein paar Benches mit min fps Angaben


http://www.fileloader.de/file_data/file_iGY5vl1gInNERHw3nOHGR1glqcbHp5hylfT7rvDZ.jpg

http://www.fileloader.de/file_data/file_lQFZOyFu4Cco9W66pRkIzEa4GRoocIzo9fny3TIY.jpg

http://www.fileloader.de/file_data/file_Pt3NGc7Y5Mz4JtJDbwvBGP3EbtkjKWQAquyWxVUS.jpg

http://www.fileloader.de/file_data/file_v8ZMCUCe78qooinO7vyyYs4KkwmS5jURHUDtOqyv.jpg

http://www.pcper.com/article.php?aid=150


Gibts denn schon Tests mit Farcry und dem neuen Patch (1.32=, der ja dem NV Treiber untersagt zur Laufzeit die Shader zu "bearbeiten", oder hab ich da was falsch verstanden?

tombman
2005-06-23, 00:23:30
hmm, alles durchgelesen (soo viele reviews, uff) und hier meine Meinung.

1.) vertex shader ist eher stiefmüterlich behandelt worden. Eine x850xtpe is immer noch schneller... rofl
1.b.) was aber ned so schlimm ist, nutzt eh praktisch kein game aus heutzutage

2.) Pixel shader perf. haut fett rein, dh alles Anwendungen wo pixel "teuer" sind, 3d05, shadermark, HDR laufen viel schneller als beim Vorgänger und der Konkurrenz ab

3.) Transparent AA is ein Hit, weil es alpha Texturen glättet und fast nix kostet. (obwohl man sich den MS mode hätte sparen können)
3.b.) Aber echtes SSAA über das ganze Bild in sehr hohen Modi sieht immer noch viel besser aus- nichts ownt 4x4 SSAA :cool:

4.) Power+ Lärm+ Hitze+ Platz = 1.a, diesmal hat auch die "Öko"-Fraktion (;D ) nichts zu meckern

5.) Eine A64 cpu@ 2.6ghz ist das mindeste was man haben sollte, wenn man an 7800gtx SLI denkt, und ein 600Watt NT gleich dazu- ansonsten hat man ned viel Spaß dran.

6.) Ein Monitor der 1600x1200 kann ist auch schwer anzuraten bei 7800gtx SLI, sonst lohnt sich die Sache ned. TFT 1280x1024 user sollten lieber bei einer 7800gtx bleiben....

7.) bei cpu limitierten games hilft die ganze Sache natürlich weiterhin gar nix

8.) Wieso hab ich das Gefühl, das es noch um einiges schneller gehen könnte? 7800ultra und R520 schweben da vor :)

Coda
2005-06-23, 00:23:55
Zum HSI Thema: Was ein Quatsch. Die Bandbreite wird bei uploads ins RAM bei jeder Grafikkarte (auch einer FX 5200) voll ausgeschöpft, weil das Graka RAM deutlich schneller ist als der Bus.

An der Temperatur des HSI wird auch eine GPU wie der G70 rein gar nichts ändern.

Es kann allerdings sein, dass nVIDIA einen HSI 2 mit Die-Shrink bringt. Der wäre wirklich kühler und billiger herzustellen - aber sicher nicht weil sich G70 nicht mit dem alten betreiben lässt.

1.) vertex shader ist eher stiefmüterlich behandelt worden. Eine x850xtpe is immer noch schneller... roflWelche Spiele sind denn genau Vertexlimitiert? 3DMark 05? ;)
Nein im Ernst. Die Vertexshader des G70 sind auf alle Fälle ausreichend, die Pixelperformance ist gefragt und die wurde erheblich gesteigert.

2.) Pixel shader perf. haut fett rein, dh alles Anwendungen wo pixel "teuer" sind, 3d05, shadermark, HDR laufen viel schneller als beim Vorgänger und der Konkurrenz abHDR hat rein gar nix mit den Shadern zu tun, sondern mit den ROPs. Da wurden wohl die Datenpfade aufgebohrt.

tombman
2005-06-23, 00:28:16
Welche Spiele sind denn genau Vertexlimitiert? 3DMark 05? ;)
Nein im Ernst. Die Vertexshader des G70 sind auf alle Fälle ausreichend, die Pixelperformance ist gefragt und die wurde erheblich gesteigert.


1.b.) was aber ned so schlimm ist, nutzt eh praktisch kein game aus heutzutage

Wer lesen kann.... :rolleyes:

Corrail
2005-06-23, 00:29:09
Kurze Frage (ich hoffe sie wurde noch nicht gestellt):
Ich lese gerade, dass der Chip 64Bit Floating Point Blending unterstützt (http://www.nvidia.com/page/7800_features.html). Ist hier 4x16Bit gemeint oder 4x64Bit? Weil der NV40 kann ja nur 4x16Bit wenn ich mich nicht irre...

Coda
2005-06-23, 00:30:45
Wer lesen kann.... :rolleyes:Mich hat vor allem gestört, dass du behauptest das X850 immer noch mehr Vertexshaderleistung hat. Da hätte "beim 3DMark" dazugehört - das ist nämlich sicherlich nicht immer der Fall.

deekey777
2005-06-23, 00:33:34
Gibts denn schon Tests mit Farcry und dem neuen Patch (1.32=, der ja dem NV Treiber untersagt zur Laufzeit die Shader zu "bearbeiten", oder hab ich da was falsch verstanden?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3178456&postcount=70

Könnte aber ein Treiberproblemchen sein, denn den Patch 1.32 gibt es ja erst seit dem 18. Mai...

(Er war im 64Bit Upgrade dabei.)

Coda
2005-06-23, 00:35:08
DeviceID auf NV40 setzen und nochmal benchen wäre da angebracht.

tombman
2005-06-23, 01:15:06
Mich hat vor allem gestört, dass du behauptest das X850 immer noch mehr Vertexshaderleistung hat. Da hätte "beim 3DMark" dazugehört - das ist nämlich sicherlich nicht immer der Fall.

Es ist solange allgemeingültig wahr, solange ein gegenteiliger bench das nicht widerlegen kann.

Die sollten mal "xvox" benchen, da könnte man dann mehr sagen, aber diese "review noobs" kennen des ja ned :rolleyes:

Coda
2005-06-23, 01:16:55
Einfach: Einen Vertexshader mit einer einzigen Matrix-Vertexmultiplikation basteln.
Dafür hat nVIDIA im Gegensatz zu ATi dedizierte HW.

Übrigens ist das gar nicht mal so selten :rolleyes:

Und nein man kann nicht von einem Bench auf Allgemeingültigkeit schließen X-D

Coda
2005-06-23, 01:42:33
Filtert G70 eigentlich wirklich mit dem korrekten Gammawert? ATi benützt ja iirc immer 2,2.

tombman
2005-06-23, 01:54:35
Dank den SLI bits von MCC rennt gta.sa sogar auf 1920x1200 4/16 flüssig @ 6800ultrasli :)

Wer die bits hat, hat die Macht ;)

tombman
2005-06-23, 01:57:06
E

Und nein man kann nicht von einem Bench auf Allgemeingültigkeit schließen X-D

Es ist aber nicht EIN bench, sondern der EINZIGE bench ;)

Wenn wir nur einmal miteinander Tennis spielen, uns vorher nie getroffen haben und auch sonst nix von einander wissen, und ich gewinne haushoch, dann ist es korrekt zu sagen, daß ich besser bin :)

ps: ja, ich weiß, daß digitlife bei dem einen Test die 7800gtx deutlich vorne sieht, aber gibt dir das ned zu denken, daß ein 3dm05 Einzeltest nicht gut auf der 7800gtx abschneidet? Ich mein, jeder schaut doch drauf, und nvidia hat sicher alles getan um den zu optimieren- oder habens den vertex shader Test einfach ned optimiert?

Noch was:

ATI-NVIDIA

540core-430core
6vs-8vs
_________________
noob Rechnung: 540*6= 3240, 430*8= 3440 --> knapp ;)

SKYNET
2005-06-23, 02:05:05
Nein, CS601, der war mal verdammt angesagt.


tja, selber schuld wenn man dem trend hinterher schwimmt... ich habe damals lian-li gekauft, weils chic und teuer war, und sich sonst kaum nen arsch leisten konnte....
fazit: die karten kann von mir aus 40cm lang sein, und ich hätte keine platzprobleme. =)

tombman
2005-06-23, 02:06:34
tja, selber schuld wenn man dem trend hinterher schwimmt... ich habe damals lian-li gekauft, weils chic und teuer war, und sich sonst kaum nen arsch leisten konnte....
fazit: die karten kann von mir aus 40cm lang sein, und ich hätte keine platzprobleme. =)

geht mir genauso .. lange Gehäuse sind Pflicht :) (CM 101-SX4 Alu)

ShadowXX
2005-06-23, 11:03:41
Filtert G70 eigentlich wirklich mit dem korrekten Gammawert? ATi benützt ja iirc immer 2,2.

Soweit ich das mitbekommen habe, benutzt auch nV immer 2,2.

Aber man kann es ja ein- bzw. ausschalten.

ShadowXX
2005-06-23, 11:06:34
Kurze Frage (ich hoffe sie wurde noch nicht gestellt):
Ich lese gerade, dass der Chip 64Bit Floating Point Blending unterstützt (http://www.nvidia.com/page/7800_features.html). Ist hier 4x16Bit gemeint oder 4x64Bit? Weil der NV40 kann ja nur 4x16Bit wenn ich mich nicht irre...

Das wird mit nahezu 100%iger wahrscheinlichkeit 4x16FP sein......genauso wie das öfter auftauchende Schlagwort "128Bit Rendering" eben 4x32 ist.

Gast
2005-06-23, 11:15:46
HDR hat rein gar nix mit den Shadern zu tun, sondern mit den ROPs. Da wurden wohl die Datenpfade aufgebohrt.

der aufwand für das tonemapping und für die ganzen überblendfilter ist auch nicht zu unterschätzen und muss vom pixel-shader durchgeführt werden (vor allem wenn man es so wie crytek macht ;) )

Wenn wir nur einmal miteinander Tennis spielen, uns vorher nie getroffen haben und auch sonst nix von einander wissen, und ich gewinne haushoch, dann ist es korrekt zu sagen, daß ich besser bin

du kannst deshalb aber nicht behaupten dass du der bessere sportler wärst, am nächsten tag trefft ihr in volleyball aufeinander und schon schaut es ganz anders aus ;)

Ist hier 4x16Bit gemeint oder 4x64Bit? Weil der NV40 kann ja nur 4x16Bit wenn ich mich nicht irre...

natürlich 4x16bit, 32bit farbauflösung sind ja auch 4x8bit.

4x64bit kann kein teil des chips rechnen, maximal 4x32bit in den shadern (bzw. natürlich 4x16bit in den ROPs)

reunion
2005-06-23, 11:30:14
tja, selber schuld wenn man dem trend hinterher schwimmt... ich habe damals lian-li gekauft, weils chic und teuer war, und sich sonst kaum nen arsch leisten konnte....
fazit: die karten kann von mir aus 40cm lang sein, und ich hätte keine platzprobleme. =)


Schön für dich.
Ich habe jedenfalls keine Lust, mir wegen einer neuen Grafikkarte ein neues Gehäuse zu kaufen, alles was länger ist als eine 9700pro/6600GT wird eben nicht gekauft.

reunion
2005-06-23, 11:32:13
Filtert G70 eigentlich wirklich mit dem korrekten Gammawert? ATi benützt ja iirc immer 2,2.


Würde man immer korrekt filter, hätte man wohl kaum eine Option im Treiber eingebaut diese auszuschalten.

up¦²
2005-06-23, 12:01:20
Ehrlich gesagt schon lustig, wenn GTA-SA zur sprache kommt: das sieht doch bescheuert aus, qua 3d aber es spielt sich eben toll.

Mit genügend hardware darf man sich eher auf sowas freun:
http://www.gamespot.com/ps2/action/25tolife/screens_6114757.html?page=8


Naja, wird in D sowieso verboten ... :whisper:

muuuuuuh
2005-06-23, 12:44:06
ich versteh garnicht wieso einige von euch mehr oder weniger entäuscht sind von der leistung der GTX, und wieso mann behaubtet die radeon sei an sich ein schnellerer chip.

X850 XT-PE : chip: 540mhz ram: 1180mhz

6800 Ultra : chip: 400mhz ram: 1100mhz

7800 GTX : chip: 430mhz ram: 1200mhz

wenn mann es sich genau anguckt ist es doch eine gute leistung für die geforce karten (speziel 6800U) das sie trotz niedriger taktung in einem teil der spiele schneller ist und im anderen teil nur minimal langsamer, und es ist mit sicherheit ein fakt das die 6800U auf gleicher takt höhe schneller ist als die X850 XT-PE

was den 7800er an geht bin ich mir sicher das die ihn mit einer 2slot kühlung auf 550 chiptakt bekommen würden und somit wieder ein ganzes stück schneller währe

also momentan hat nvidia seine führung weiter ausgebaut mit dem 7800er

DrumDub
2005-06-23, 12:55:55
auch interessant: The results are quite interesting: the GeForce 7800 GTX with its 302 million transistors, 24 pixel pipelines and 430MHz frequency consumed 80.7 watts under that load, while the much simpler GeForce 6800 Ultra had a consumption of 77.3 watts. There’s less than 3 watts of difference! So, the 0.11-micron tech process really helped NVIDIA to keep the power consumption of the GeForce 7800 GTX on the same level with the previous-generation model. http://www.xbitlabs.com/articles/video/display/g70-indepth_6.html

irgendwie versteh ich nur nicht, wie andere websites einen niedrigeren stromverbrauch gemessen haben wollen, als bei einer 6800u.

ShadowXX
2005-06-23, 12:59:59
irgendwie versteh ich nur nicht, wie andere websites einen niedrigeren stromverbrauch gemessen haben wollen, als bei einer 6800u.

Im Idle soll Sie weniger verbrauchen als die 6800Ultra....xbit spricht von Werten unter "load" (aka Belastung).

dildo4u
2005-06-23, 13:02:23
Die Pixelshader Performance ist wirklich Gigantisch und umso Komplexer die Shader werden umso mher kann sich die karte absetzen

http://www.fileloader.de/file_data/file_tsW9cle7gsZ3ftjWgZO8nH5dyvQyWVXpnTOqfTOl.jpg

http://www.fileloader.de/file_data/file_VqUOrYVrj5nTZckGp2XNLHJCdDclKQ3Ggx5yw0F5.jpg

http://www.fileloader.de/file_data/file_BpI4Sx71Hh3laM0HiKjdGuS5TIj2LN5wdnRVByxt.jpg

http://www.fileloader.de/file_data/file_1YTt49Tt4dFUDDSAZhQK8aK4HtDq4ATW8MpdwjxQ.jpg



http://www.xbitlabs.com/articles/video/display/g70-indepth_13.html

DrumDub
2005-06-23, 13:03:07
Im Idle soll Sie weniger verbrauchen als die 6800Ultra....xbit spricht von Werten unter "load" (aka Belastung). ja, das war mir bekannt, ich meinte es aber dennoch, wie ich es geschrieben habe: http://www.anandtech.com/video/showdoc.aspx?i=2451&p=20

wobei techreport wohl auch etwas mehr gemessen hat als bei der 6800u unter load: http://www.techreport.com/reviews/2005q2/geforce-7800gtx/index.x?pg=26

DrumDub
2005-06-23, 13:07:17
Die Pixelshader Performance ist wirklich Gigantisch und umso Komplexer die Shader werden umso mher kann sich die karte absetzen



http://www.xbitlabs.com/articles/video/display/g70-indepth_13.html
jau. doppelte performance gegenüber der 6800u ist in dieser hinsicht gegeben, so lange nicht die fillrate limitiert.

Winter[Raven]
2005-06-23, 13:08:21
Schönes neues Teil, werde ich aber wohl auslassen müssen, da ich erst nächstes Jahr mir einen neuen Rechner zusammenbauen werde (Dual Core, PCI-E, DDR2) ... lohnt es für mich nicht jetzt >= 500 € auszugeben, da würde meine CPU nicht mal nachkommen *gg*

aber ich muss schon vor NV den Hut ziehen für die Verfügbarkeit, wirlich einfach nur genial gemacht.

Jetzt steht ATI noch unter einem viel größerem Druck ... :)

Demirug
2005-06-23, 13:12:33
jau. doppelte performance gegenüber der 6800u ist in dieser hinsicht gegeben, so lange nicht die fillrate limitiert.

Ich habe hier sogar Shader die auf das 3 fache kommen.

DrumDub
2005-06-23, 13:17:34
Ich habe hier sogar Shader die auf das 3 fache kommen. sind das welche mit branching?

p.s.: jetzt weiß ich auch, warum tim sweeney sich entsprechend zum g70 geäußert hat. die ue3 wird diese karte lieben... :)

seahawk
2005-06-23, 13:17:37
Nach dem Sommer fliegt die alte 9700PRo raus und ne 7800GT oder GTX kommt rein. Schon für das Transperceny-AA muss man sie lieben.

Demirug
2005-06-23, 13:24:40
sind das welche mit branching?

p.s.: jetzt weiß ich auch, warum tim sweeney sich entsprechend zum g70 geäußert hat. die ue3 wird diese karte lieben... :)


Nein, da sind hauptsächlich ADDs, MADs und DPs drin.

Oblivion
2005-06-23, 13:25:35
Die Pixelshader Performance ist wirklich Gigantisch und umso Komplexer die Shader werden umso mher kann sich die karte absetzen
http://www.xbitlabs.com/articles/video/display/g70-indepth_13.html

Is das nicht irgendwie logisch mit mehr Pipelines?

Aber weils mir grad einfällt - G70 hat 24 Pixelpipelines, eine Xbox360 soll 50 haben!

gregaar
2005-06-23, 13:25:36
ähm mal so ne frage: entweder wird hier zeimlich gehypert oder die 7800gtx ist wesentlich schneller als die 6800U.
Ne 6800U habe ich zu zeit. würde es überhauptl lohne ne 7800gtx anzuschaffen?

ich spiele eigentlich wegen dem 19"TFT immer mit diesen Settings:
4xAA
8xAF
1280x1024

in den meisten vergleichen ist, wie ich gesehen habe die 7800gtx nicht viel schneller als meine 6800U in meinen settings. oder?

Oblivion
2005-06-23, 13:27:23
ähm mal so ne frage: entweder wird hier zeimlich gehypert oder die 7800gtx ist wesentlich schneller als die 6800U.
Ne 6800U habe ich zu zeit. würde es überhauptl lohne ne 7800gtx anzuschaffen?

ich spiele eigentlich wegen dem 19"TFT immer mit diesen Settings:
4xAA
8xAF
1280x1024

in den meisten vergleichen ist, wie ich gesehen habe die 7800gtx nicht viel schneller als meine 6800U in meinen settings. oder?

Wennst bei dir das Geld auf Bäumen wachst kauf dir ne 7800GTX - sicher bringts nen Leistungsschub - doch daweil ist die 6800U auch ausreichend

dildo4u
2005-06-23, 13:27:42
Is das nicht irgendwie logisch mit mehr Pipelines?


Sie hat ja "nur " 8 Ppipes mher da ist die doppelte Leistung bei fast Gleichem takt schon erstaunlich.

ShadowXX
2005-06-23, 13:31:20
Is das nicht irgendwie logisch mit mehr Pipelines?

Aber weils mir grad einfällt - G70 hat 24 Pixelpipelines, eine Xbox360 soll 50 haben!

Der Xenos hat im dem sinne keine Pipes mehr, sondern 48 ALUs....die alledings AFAIK anders aufgebaut sind wie die ALUs in den Pipes von den Desktopchips von nV (oder auch ATI) und sich deshalb auch schwer vergleichen lassen.

Und wenn man das ganze genauer betrachtet hat eine G70 sogar (24*2+8) 56Alus.

Das ganze kann man sehr schlecht miteinander vergleichen.....hinzu kommt das Xenos "nur" 8 Farbwerte pro Takt ausspucken kann.

ShadowXX
2005-06-23, 13:33:31
Wennst bei dir das Geld auf Bäumen wachst kauf dir ne 7800GTX - sicher bringts nen Leistungsschub - doch daweil ist die 6800U auch ausreichend

Ich habe auch meherer Test gesehen, wo auch in diesen Einstellungen teilweise deutlich mehr bei der GTX rauskommt.....man könnte aber natürlich anstatt mit 4xAA immer mit 8xS daddeln...

Ich würde mir momentan die 7800GTX zum größten Teil wegen des Transparent AA kaufen.....das ist wirklich Lecker.

DrumDub
2005-06-23, 13:34:51
Nein, da sind hauptsächlich ADDs, MADs und DPs drin. ah so. ich kam drauf, wegen der beiden letzten werte:
http://www.xbitlabs.com/images/video/geforce-7800/xbitmark.gif

seahawk
2005-06-23, 13:41:32
ähm mal so ne frage: entweder wird hier zeimlich gehypert oder die 7800gtx ist wesentlich schneller als die 6800U.
Ne 6800U habe ich zu zeit. würde es überhauptl lohne ne 7800gtx anzuschaffen?

ich spiele eigentlich wegen dem 19"TFT immer mit diesen Settings:
4xAA
8xAF
1280x1024

in den meisten vergleichen ist, wie ich gesehen habe die 7800gtx nicht viel schneller als meine 6800U in meinen settings. oder?

Ich würde mir das Geld sparen,denn mindestens bis zum Nachfolger des G70 wird Deine 6800Ultra locker halten.

Geo72
2005-06-23, 13:44:25
Sind die Angaben in der folgenden Abbildung richtig?
http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3105

Sind also G70 und die PS3 GPU bis auf Taktfrequenz und Schnittstellen identisch?

ShadowXX
2005-06-23, 13:45:12
Ich würde mir das Geld sparen,denn mindestens bis zum Nachfolger des G70 wird Deine 6800Ultra locker halten.

Das ist momentan IMHO schwer abzuschätzen....den Nachfolger des G70 würde ich nicht vor März 2006 erwarten und bis dahin könnten durchaus meherer Games rauskommen, die verstärkt auf SM3.0 und Shaderpower im allgemeinen setzen.....

Klar...wenn man alles runterdreht wirds langen...aber gerade Leute die sich eine 6800Ultra gekauft haben wollen eiegntlich immer alles voll aufgedreht + AA/AF haben....und das könnte dann wirklich knapp werden.

Das ist auch der Grund warum ich mir eine GTX holen werde, obwohl ich momentan ne Ultra hab....ich warte nur noch auf Ende des Monats.

dildo4u
2005-06-23, 13:45:48
Sind die Angaben in der folgenden Abbildung richtig?
http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3105

Sind also G70 und die PS3 GPU bis auf Taktfrequenz und Schnittstellen identisch?
Jap nur wird die PS3 GPU in 90Nm gebaut.

Godmode
2005-06-23, 13:46:40
Sind die Angaben in der folgenden Abbildung richtig?
http://www.hardspell.com/hard/showcont.asp?news_id=14372&pageid=3105

Sind also G70 und die PS3 GPU bis auf Taktfrequenz und Schnittstellen identisch?


Schaut so aus!

Winter[Raven]
2005-06-23, 14:12:49
Das ist momentan IMHO schwer abzuschätzen....den Nachfolger des G70 würde ich nicht vor März 2006 erwarten und bis dahin könnten durchaus meherer Games rauskommen, die verstärkt auf SM3.0 und Shaderpower im allgemeinen setzen.....

Klar...wenn man alles runterdreht wirds langen...aber gerade Leute die sich eine 6800Ultra gekauft haben wollen eiegntlich immer alles voll aufgedreht + AA/AF haben....und das könnte dann wirklich knapp werden.

Das ist auch der Grund warum ich mir eine GTX holen werde, obwohl ich momentan ne Ultra hab....ich warte nur noch auf Ende des Monats.

Bis solche Spiele auf dem Markt kommen, dauerts noch und wenn, kann er die Karte billiger kaufen als jetzt mit den Eintrittspreisen ;)

Deswegen würd ich warten mit dem GF 7800, wer sich jetzt einen neuen PC zusammenstellt und dann bis zu den WGF2.0 warten will ist mit dem G70 gut bedient.

ShadowXX
2005-06-23, 14:20:39
']Bis solche Spiele auf dem Markt kommen, dauerts noch und wenn, kann er die Karte billiger kaufen als jetzt mit den Eintrittspreisen ;)


Ich glaub das das schneller geht als du denkst (ist aber meine persönlcihe Einschätzung).....bei dem mit dem Warten wegen der Preise gebe ich dir aber Recht....

Freakazoid
2005-06-23, 14:23:37
Sicher wurde es zwar schon irgendwo gesagt, aber wie siehts mit der Winkelabhänigkeit beim AF aus?

DrumDub
2005-06-23, 14:27:04
das vsync thema wurde von mir rausgesplittet. hier gehts weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=230954

Winter[Raven]
2005-06-23, 14:32:11
Ich glaub das das schneller geht als du denkst (ist aber meine persönlcihe Einschätzung).....bei dem mit dem Warten wegen der Preise gebe ich dir aber Recht....

Ich erwarte die "Shaderlästigen" Games ehe Q4 2005 - Q1 2006, kein Dev wird sich jetzt in den nächsten Monaten ein Shaderlästiges Game auf die Menschen loslassen nur weil der G70 da ist.

DrumDub
2005-06-23, 14:41:39
Sicher wurde es zwar schon irgendwo gesagt, aber wie siehts mit der Winkelabhänigkeit beim AF aus? alles beim alten...

ShadowXX
2005-06-23, 14:44:05
']Ich erwarte die "Shaderlästigen" Games ehe Q4 2005 - Q1 2006, kein Dev wird sich jetzt in den nächsten Monaten ein Shaderlästiges Game auf die Menschen loslassen nur weil der G70 da ist.

Der r520 kommt ja auch.....

Coda
2005-06-23, 14:46:01
Es ist aber nicht EIN bench, sondern der EINZIGE bench ;)So ein Quatsch.

gnomi
2005-06-23, 15:05:41
Die 7800 GTX ist ohne Frage eine grandiose Grafikkarte. :up:
Pfeilschnell, anscheinend überraschend leise, Stromverbrauch für High End durchaus erträglich. (auch nur 1 Slot pro Karte im SLI)
Gute Verbesserungen wie die extrem gestiegene Pixelshaderleistung und die leicht zugelegte Vertexshaderleistung sind ebenfalls nur zu begrüßen. (besonders ersteres)
Auf Wunsch gammokorriegiertes MSAA ist ebenfalls nett, und dies war im Grunde genommen mit Blick auf ATI auch überfällig.
Das Transparenz AA ist neben der gestiegenen PS Leistung IMHO gar das beste an diesem Refreshchip.
Ach ja- toll ist auch, daß ich diesen Chip zum Lauch auch tatsächlich bekommen kann. ;)
Schwächen sehe ich abgesehen von den traurigerweise weiterhin existierenden AF Filteroptimierungen keine besonderen. Die Füllraten- und Speicherbandbreitenzuwächse sind mit Blick zur Konkurrenz sicherlich nicht phänomenal, gehen ggb. dem NV 40 aber voll in Ordnung und langen dicke.

Es stimmt ein wenig, daß sich der G70 in einer Vielzahl aktueller Titel letztendlich nicht so extrem gegenüber Füllratenmonstern wie der X850 abheben kann. Letztendlich stellt dies aber kein sonderlich großes Problem dar, da sich die Anforderungen an den Chip IMHO noch weiter zugunsten der Stärken der Geforce 6/7 Serie verschieben werden.
Denn mehr als bereits schon der NV 40, ist der G70 für zukünftige Titel ausgelegt. Für Entwickler und Leute, die sehr lange Kompatibilität mit ihren Karten erwarten, natürlich erste Wahl.
In Sachen Speed im absoluten High End Bereich ist ATI zugegebenermaßen voll da. Ebenso sind ihre Treiber wirklich sehr ausgereift und werden schön regelmäßig weiter verbessert. Nur nutzt dies bei technisch klar unterlegenen und bezogenen auf die gesamte Produktserie unterm Strich schwächeren Karten nicht wirklich etwas. (die Schnitzer in Sachen Verfügbarkeit der AGP Karten kämen dann auch noch hinzu)

Wie dem auch sei: Obwohl der G70 das momentane Maß aller Dinge ist, würde ich mich hüten, mir ausgerechnet jetzt so eine Karte zu kaufen. :)
Gründe?
a) ATI wird bald nachlegen. Sie werden technisch und auch von der Speed her prinzipiell denke ich mal aufschließen bis gleichziehen können. Eventuell bringen sie auch einen einfach noch besseren Chip- im Gegensatz zu manch anderem würde ich das jetzt nichtmal ausschließen wollen. Ich würde mir daher erst einmal beide Karten angucken wollen, bevor ich mich festlege. Der G70 ist denke ich noch schlagbar...
b) Abgesehen vom Tranzparenz AA sind die Stärken des G70 momentan noch nicht so extrem wichtig. Wer eine Karte neueren Datums hat und nicht gerade ein Freak ist, bekommt beim nächsten Grafikkartenlauch einfach noch mehr für sein Geld. Bis Mitte nächsten Jahres tut es ein NV 40 trotz gehobener Ansprüche doch noch locker. Die Speed wird reicher und die wichtigsten Features hat auch diese Karte. Und bei den ersten UE3 Titeln (oder anderem Vielversprechendem wie Alan Wake bspw.) hat man dann eine noch bessere GPU.
c) Das Teil ist ganz schön teuer muß ich sagen. 550 Euro ist einfach maßlos überzogen. Zudem auch nur für PCI Express lieferbar. Auch hat man bei solchen Geschossen sehr leicht ein Problem mit der CPU. Mein kleiner und ein wenig übertakteter Athlon 64 3000+ ist nicht gerade der richtige Partner für diese Karte. Da bedarf es denke ich schon etwas Größerem.

SKYNET
2005-06-23, 15:10:18
Schön für dich.
Ich habe jedenfalls keine Lust, mir wegen einer neuen Grafikkarte ein neues Gehäuse zu kaufen, alles was länger ist als eine 9700pro/6600GT wird eben nicht gekauft.


dann musst du wohl damit leben ab 2006 alles in 800*600 zu spielen, without AA/AF mittlere details, weil sonst alles zu ner diashow verkommt. ;D

reunion
2005-06-23, 15:10:36
So ein Quatsch.


Das nicht, allerdings gewinnt R480 z.B. bei Xbitlabs drei von vier VS-Test (ja, ich weiß, 3dmark), scheint also insgesamt die Nase vorn zu haben:

Thus, the new graphics card from NVIDIA is not as good at processing geometry as it is at executing pixel shaders. However, it is not much worse than the RADEON X850 XT Platinum Edition, so we don’t expect the performance of the GeForce 7800 GTX to degenerate much in games with complex geometry.


http://www.xbitlabs.com/articles/video/display/g70-indepth_14.html

reunion
2005-06-23, 15:12:33
dann musst du wohl damit leben ab 2006 alles in 800*600 zu spielen, without AA/AF mittlere details, weil sonst alles zu ner diashow verkommt. ;D


Mal sehen, was die neue nV-Mittelklasse oder R520 bringt. =)

Gast
2005-06-23, 15:15:01
']Ich erwarte die "Shaderlästigen" Games ehe Q4 2005 - Q1 2006, kein Dev wird sich jetzt in den nächsten Monaten ein Shaderlästiges Game auf die Menschen loslassen nur weil der G70 da ist.

Warum nicht? In einem Monat wird der R520 vorgestellt, somit hast du dann 2 Chips die sich ggü ihren Vorgängern durch höhere Shaderleistung absetzen. Kleinere, aber stärkere Versionen als ihre Vorgänger kommen sehr wahrscheinlich auch noch hinzu.

MarcWessels
2005-06-23, 15:23:48
Schön für dich.
Ich habe jedenfalls keine Lust, mir wegen einer neuen Grafikkarte ein neues Gehäuse zu kaufen, alles was länger ist als eine 9700pro/6600GT wird eben nicht gekauft.Ich habe auch ein CS-601 und sehe das Problem nicht? Da ist doch Platz genug... :confused:

MadManniMan
2005-06-23, 15:26:16
Warum nicht? In einem Monat wird der R520 vorgestellt, somit hast du dann 2 Chips die sich ggü ihren Vorgängern durch höhere Shaderleistung absetzen. Kleinere, aber stärkere Versionen als ihre Vorgänger kommen sehr wahrscheinlich auch noch hinzu.

Ganz kurze Zwischenfrage: steht der Termin? Ich meine, kommt der R520 wirklich Mitte/Ende Juli?

Gast
2005-06-23, 15:26:47
Mal sehen, was die neue nV-Mittelklasse oder R520 bringt. =)

Ja wie gestaltet sich jetzt eigentlich NV's Produktpalette? Ok, die 68U fällt weg aber der Leistungsabstand zwischen 68GT und 78GTX ist doch schon ziemlich groß.

Weiss da schon jemand mehr?

DrumDub
2005-06-23, 15:29:14
Ich habe auch ein CS-601 und sehe das Problem nicht? Da ist doch Platz genug... :confused: ich sehs auch nicht. ;)
reunion hat aber an der stelle nen radiator im gehäuse zwecks wakü.

Gast
2005-06-23, 15:30:17
Ganz kurze Zwischenfrage: steht der Termin? Ich meine, kommt der R520 wirklich Mitte/Ende Juli?

Anscheinend ja, allerdings weiss niemand so genau, ob das vorerst ein Papiertiger wird oder nicht. Die Gerüchte über Fertigungsschwierigkeiten sind da und bis jetzt durch nichts aussagekräftiges widerlegt worden.

SentinelBorg
2005-06-23, 15:36:59
Ja wie gestaltet sich jetzt eigentlich NV's Produktpalette? Ok, die 68U fällt weg aber der Leistungsabstand zwischen 68GT und 78GTX ist doch schon ziemlich groß.

Weiss da schon jemand mehr?
Also es sollen auf jeden Fall noch eine 7800GT und eine normale 7800er kommen.

Sentinel

MarcWessels
2005-06-23, 15:37:24
ich sehs auch nicht. ;)
reunion hat aber an der stelle nen radiator im gehäuse zwecks wakü.

Das ist natürlich schlecht. :biggrin:

ShadowXX
2005-06-23, 15:40:59
Also es sollen auf jeden Fall noch eine 7800GT und eine normale 7800er kommen.

Sentinel

AFAIK ist nur eine GT aber keine 7800 mit nix hinterdran angekündigt....

Vielleicht ist der Yield so gut, das es fast keine Chips mit kaputten Quads gibt, damit es sich lohnen würde sowas auf den Markt zu schmeissen...ausserdem würde dieses Karte dann mit der 6800GT kollidieren.

MSABK
2005-06-23, 15:41:20
Wesi man schon über den Geforce 7600 was ?

Gast
2005-06-23, 15:59:22
Ja wie gestaltet sich jetzt eigentlich NV's Produktpalette? Ok, die 68U fällt weg aber der Leistungsabstand zwischen 68GT und 78GTX ist doch schon ziemlich groß.

Weiss da schon jemand mehr?

ich könnte mir vorstellen dass man dazwischen noch einen g70 mit einem oder 2 defekten quads packt (bei rund 400MHz, den taktprobleme scheint es ja keine zu geben), dann hätte man ca. die geschwindigkeit einer 6800ultra mit den features eines g70.

der rest kann eigentlich imo bleiben (es sei denn es ergeben sich große einsparmöglichkeiten durch den 110nm prozess, aber ich kann mir nicht vorstellen dass diese groß genug sind um extra für die 6800GT einen eigenen ersatzchip zu bauen), und die verteilung auf die einzelnen chiphersteller (nv40 IBM, g70 TSMC) scheint auch gut getroffen zu sein.

Hellfire-Torrod
2005-06-23, 16:02:19
Wesi man schon über den Geforce 7600 was ?

Ich vermute (;)) einen 90nm NV42 mit G70 Technoligie.

reunion
2005-06-23, 16:03:45
ich sehs auch nicht. ;)
reunion hat aber an der stelle nen radiator im gehäuse zwecks wakü.

Richtig.

Das ist natürlich schlecht. :biggrin:

Ja, ich hab mit das Teil damals nichts ahnend zu einer Geforce3 eingebaut - als anschließend die Geforce 4 kam, schaute ich erstmal blöd aus der Wäsche, hatte aber dann Glück mit 'ner Radeon 9700pro. Inzwischen bin ich auf PCIe umgestiegen, und eine 6600GT geht sich auf den Millimeter aus. Bei einer noch längeren Karte muss ich irgendwo was absägen. :D

MarcWessels
2005-06-23, 16:08:42
Ja, ich hab mit das Teil damals nichts ahnend zu einer Geforce3 eingebaut - als anschließend die Geforce 4 kam, schaute ich erstmal blöd aus der Wäsche, hatte aber dann Glück mit 'ner Radeon 9700pro. Inzwischen bin ich auf PCIe umgestiegen, und eine 6600GT geht sich auf den Millimeter aus. Bei einer noch längeren Karte muss ich irgendwo was absägen. :D

:D


Zu den Reviews noch etwas-> Wahrscheinlich wurde ja überall die Deafulteinstellung genommen (Quality + einer der Optimierungen) und ab 1600x1200 wurde ja der Abstand zur 6800U richtig groß. Mich würde mal interessieren, wie es bei High Quality aussieht, denn dort ist die 6800U (vor allem bei einigen Titeln) RICHTIG heftig eingebrochen, wenn man AF und AA gleichzeitig verwendete und das sogar schon in 1024x768 - ein Beispiel wäre hier F1-2002.

Gibt es irgendein Review, wo in HQ gemessen wurde?

Kenny1702
2005-06-23, 16:20:57
AFAIK ist nur eine GT aber keine 7800 mit nix hinterdran angekündigt....

Vielleicht ist der Yield so gut, das es fast keine Chips mit kaputten Quads gibt, damit es sich lohnen würde sowas auf den Markt zu schmeissen...ausserdem würde dieses Karte dann mit der 6800GT kollidieren.
"Wie geht es nun weiter nach der GeForce 7800 GTX? Als erstes einmal werden aus dem G70-Chip noch zwei weitere Grafikkarten resultieren: GeForce 7800 GT und GeForce 7800. Wenn wir mal spekulieren dürfen, wird erstere ein niedriger getaktetes Modell und zweitere mit teilweise deaktivierten Pipelines ausgeliefert werden, um einen gewissen Unterschied zur GeForce 7800 GTX zu erreichen. Doch derzeit sind noch keine verläßlichen Daten zu diesen beiden weiteren G70-Grafikkarten bekannt."

3DCenter - nVidia GeForce 7800 GTX (G70) Review (http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/fazit.php)

sUPER
2005-06-23, 16:39:36
sU PER

PingpiN
2005-06-23, 16:44:46
Ich bin ja eigentlich auch mehr Ati fan aber wenn man mall überlegt hat Ati nur mit der 9700 Punkten können.Davor gabts nichts anderes ausser NV,damals wo die 9700 rauskamm war Ati technisch besser und auch schneller als Nv aber so langsam kommts mir vor als würde Ati wieder nicht mehr mithalten können klar sind die X800 Karten schneller aber warum hat Ati damals nicht Ps 3.0 auf ihren Karten verbaut?Wenn Ati mit denn R520 nicht Punktet siets schwarz aus für Ati. :eek:

Hellfire-Torrod
2005-06-23, 16:47:12
Ich bin ja eigentlich auch mehr Ati fan aber wenn man mall überlegt hat Ati nur mit der 9700 Punkten können.Davor gabts nichts anderes ausser NV,damals wo die 9700 rauskamm war Ati technisch besser und auch schneller als Nv aber so langsam kommts mir vor als würde Ati wieder nicht mehr mithalten können klar sind die X800 Karten schneller aber warum hat Ati damals nicht Ps 3.0 auf ihren Karten verbaut?Wenn Ati mit denn R520 nicht Punktet siets schwarz aus für Ati. :eek:

Das ist nur vorübergehend weil gerade was neues gekommen ist. Das wirds sich irgendwann wieder angleichen.
Der verzicht von PS3 lag wohl daran, das ATI angst hatte, durch dem mehr an transistoren eine noch geringere ausbäute zu bekommen. Also hat man es rausgelassen, da es auch noch kaum gebraucht wurde/wird.

PingpiN
2005-06-23, 16:49:07
Das ist nur vorübergehend weil gerade was neues gekommen ist. Das wirds sich irgendwann wieder angleichen.
Der verzicht von PS3 lag wohl daran, das ATI angst hatte, durch dem mehr an transistoren eine noch geringere ausbäute zu bekommen. Also hat man es rausgelassen, da es auch noch kaum gebraucht wurde/wird.

Jetzt wird es aber gebraucht. ;) Wenn auf einer X800 Graka Ps 3.0 vorhanden wäre hatte ich mir bestimmt nicht ne Nv Karte gekauft. ;)Und so denken bestimmt vielle hier,die hälfte der Leute wären bei Ati geblieben wenn sie Ps 3.0 auf ihren Karten verbaut hätten. :whisper:

ShadowXX
2005-06-23, 17:20:25
"Wie geht es nun weiter nach der GeForce 7800 GTX? Als erstes einmal werden aus dem G70-Chip noch zwei weitere Grafikkarten resultieren: GeForce 7800 GT und GeForce 7800. Wenn wir mal spekulieren dürfen, wird erstere ein niedriger getaktetes Modell und zweitere mit teilweise deaktivierten Pipelines ausgeliefert werden, um einen gewissen Unterschied zur GeForce 7800 GTX zu erreichen. Doch derzeit sind noch keine verläßlichen Daten zu diesen beiden weiteren G70-Grafikkarten bekannt."

3DCenter - nVidia GeForce 7800 GTX (G70) Review (http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/fazit.php)

Auf den Herstellerseiten tauchen z.Zt. nur die GT und die GTX auf......

deekey777
2005-06-23, 17:33:06
Ja wie gestaltet sich jetzt eigentlich NV's Produktpalette? Ok, die 68U fällt weg aber der Leistungsabstand zwischen 68GT und 78GTX ist doch schon ziemlich groß.

Weiss da schon jemand mehr?

Laut dem von Demirug geposteten Statement werden die 6800 und 6800GT weiterhin bleiben, die 7800GTX ersetzt nur die 6800Ultra. So richtig glauben will ich daran nicht, denn die 6800 Standard PCIe basiert auf dem NV42 (0.11 µm Shrink des NV41), aber die 6800GT weiterhin auf dem in der Herstellung teureren NV45, dazu von IBM gefertigt - wo ist der Sinn? Vielleicht erfährt die 6800GT ein "Refresh" als G70 mit 2 deaktivierten Quads oder ein Shrink auf 110 nm. Keine Ahnung...

Hellfire-Torrod
2005-06-23, 17:42:15
Jetzt wird es aber gebraucht. ;) Wenn auf einer X800 Graka Ps 3.0 vorhanden wäre hatte ich mir bestimmt nicht ne Nv Karte gekauft. ;)Und so denken bestimmt vielle hier,die hälfte der Leute wären bei Ati geblieben wenn sie Ps 3.0 auf ihren Karten verbaut hätten. :whisper:

Durch die neuen Konsolen wird P.S.3 auch auf dem PC ein wahren boom erleben.

reunion
2005-06-23, 17:45:33
So richtig glauben will ich daran nicht, denn die 6800 Standard PCIe basiert auf dem NV42 (0.11 µm Shrink des NV41), aber die 6800GT weiterhin auf dem in der Herstellung teureren NV45, dazu von IBM gefertigt - wo ist der Sinn? Vielleicht erfährt die 6800GT ein "Refresh" als G70 mit 2 deaktivierten Quads oder ein Shrink auf 110 nm. Keine Ahnung...


NV48

deekey777
2005-06-23, 17:46:52
NV48

Was war der NV48 noch mal? Ein NV45 mit 512MB oder so? :)

Hellfire-Torrod
2005-06-23, 17:46:55
...Vielleicht erfährt die 6800GT ein "Refresh" als G70 mit 2 deaktivierten Quads oder ein Shrink auf 110 nm. Keine Ahnung...

das wird dan wohl die 7800 vanilla sein. Den NV45 weiterhin als etabliertes produkt zu produzieren wäre eigendlichd dumm, wenn man mit einer 7800 das selbe zum selben preis bekommt, dabei auch noch produktionskosten spart( "GTX abfall") und in guten mengen liefern kann. Jens neuschäfer sprach von "Bis ende diesen jahres wird die 6er serie noch geliefert" im selben atemzug hies es "mit den 7800 Vanillakarten ist ende diesen jahres zu rechnen". Also wird die 7800 Vanilla eine 6800gt mit den technologischen vorzügen der GTX.
350/1000 takt (vieleicht auch mehr, um abstand zu gewinnen)
G70 Architektur
G70 AA und alles andere
110nm
16 pipes

Schaun ma mal- währe zu mindest logisch.

Nvidia bezeichnet seine non Ultra non irgendwas karten als Vanilla, nur damit wir uns nicht falsch verstehen.

VooDoo7mx
2005-06-23, 18:33:09
NV48 ist ein in in 110nm bei TSMC gefertigter NV40 mit nativen PCIe Interface.

Ich denke mal die ersten NV48 (6800GT)Karten sollten in kürze den markt erreichen.

NV40 und NV45 fallen weg. NV lässte keine Chips mehr von IBM herstellen. Die ganze Produktion der NV4X Reihe liegt nun bei TSMC.

MadManniMan
2005-06-23, 18:50:58
Das heißt also:

NV42 = 6800 @110nm @TSMC
NV43 = 6600 @110nm @TSMC
NV44 = 6200 @110nm @TSMC
NV47 = 7800 @110nm @TSMC
NV48 = 6800 GT @110nm @TSMC ... ?

Sorry, hab momentan nicht den besten Überblick... was ist mit AGP-Boards?

VooDoo7mx
2005-06-23, 19:01:44
NV47 gabs nie.

NV47 war nur irgendein Gespinnst eines Internet Magazins. Ich glaube mal wieder vom Inquirer

G70 heißt das Güte Stück!

Der NV47 ist nie in irgendeinen Treiber aufgetaucht. Der G70 und NV48 schon vor einiger Zeit.

Den einzigen AGP Chip den NV noch fertigen lässt, ist der NV44A.
Für 6200 Low Cost Boards für ~50$ wäre es zu teuer noch die Bridge samt Kühler zu verbauen.

Momentan werden wohl noch NV40 Bestände abverkauft.

Ich könnte mir auch vorstellen, dass 6800GT Boards mit NV48 ein neues Layout bekommen, da nicht mehr so große Kühler und weniger aufwendige elektrische Bauteile nötig wären.

Wenn ich mir den G70 anschaue, könnten NV48 6800GT deutlich weniger Strom verbrauchen als ihre NV40/NV45 Kollegen.

Warscheinlich wird es auch NV48 Boards mit dem HSI geben.

EDIT: Achaja es gibt auch NV43 Karten die als 6200 verkauft werden. Die ahben ein deaktiviertes Quad, aber ein 128Bit Speicherinterface.

deekey777
2005-06-23, 19:09:24
Der Rivatuner erkennt den G70 als NV47. ;)

VooDoo7mx
2005-06-23, 19:15:19
Der Rivatuner erkennt den G70 als NV47. ;)

Toll!

Der Rivatuner kann auch Bockwurst für ne 7800GTX hinschreiben.
Kommt nur darauf an, was der Programmierer in das Programm schreibt.
Wenn Unwinder eben meint, dass der NV47 existent ist, dann tut er das einfach.

Für mich gab es diesen Chip nie. Er kam nur als Gerücht, höchstwarscheinlich von Fuad verbreitet, ins Netz.

Spasstiger
2005-06-23, 19:27:34
Was ist eigentlich mit einer 512 MB Version der 7800 GTX und wird es auch eine AGP-Version geben? Sorry, falls die Fragen schon beantwortet wurden, habe aber keine Lust den ganzen Thread zu durchsuchen.

SKYNET
2005-06-23, 19:44:58
Was ist eigentlich mit einer 512 MB Version der 7800 GTX und wird es auch eine AGP-Version geben? Sorry, falls die Fragen schon beantwortet wurden, habe aber keine Lust den ganzen Thread zu durchsuchen.


1. noch nicht lieferbar
2. ja wird es wohl definitiv, bis anfang/mitte 2006 wollten NV/ATI eigentlich noch AGP karten(auch highend) bringen.

Quasar
2005-06-23, 19:46:03
Toll!

Der Rivatuner kann auch Bockwurst für ne 7800GTX hinschreiben.
Kommt nur darauf an, was der Programmierer in das Programm schreibt.
Wenn Unwinder eben meint, dass der NV47 existent ist, dann tut er das einfach.

Für mich gab es diesen Chip nie. Er kam nur als Gerücht, höchstwarscheinlich von Fuad verbreitet, ins Netz.
Der nV47 ist der G70. Das ist halb-offiziell bestätigt. Man wollte nur eine klarere Nomenklatur (GF-7-Series = G70) - auf Druck u.a. der eigenen Kunden.

Gast
2005-06-23, 20:07:36
Was haltet ihr davon?
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=5

The secret is all in compilation and scheduling. Now that NVIDIA has had more time to work with scheduling and profiling code on an already efficient and powerful architecture, they have an opportunity. This generation, rather than build a compiler to fit hardware, they were able to take what they've learned and build their hardware to better fit a mature compiler already targeted to the architecture. All this leads up to the fact that the 7800 GTX with current drivers does absolutely no shader replacement. This is quite a big deal in light of the fact that, just over a year ago, thousands of shaders were stored in the driver ready for replacement on demand in NV3x and even NV4x. It's quite an asset to have come this far with hardware and software in the relatively short amount of time NVIDIA has spent working with real-time compilation of shader programs

Hat einer der Gurus schon mal vorsichtig angefragt bei NV ob sie wirklich das Shaderreplacement sein lassen können mit dem G70, da man ihm ja quasi alles zu fressen geben kann ohne das er sich da verschluckt.

Xmas
2005-06-23, 20:15:26
Toll!

Der Rivatuner kann auch Bockwurst für ne 7800GTX hinschreiben.
Kommt nur darauf an, was der Programmierer in das Programm schreibt.
Wenn Unwinder eben meint, dass der NV47 existent ist, dann tut er das einfach.

Für mich gab es diesen Chip nie. Er kam nur als Gerücht, höchstwarscheinlich von Fuad verbreitet, ins Netz.
Unwinder hat auch allen Grund dazu, denn NV47 ist in einem Treiber aufgetaucht: http://www.beyond3d.com/forum/viewtopic.php?p=455503#455503

Gast
2005-06-23, 20:16:20
Was haltet ihr davon?
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=5



Hat einer der Gurus schon mal vorsichtig angefragt bei NV ob sie wirklich das Shaderreplacement sein lassen können mit dem G70, da man ihm ja quasi alles zu fressen geben kann ohne das er sich da verschluckt.

deshalb wird ein effizienterer algorithmus aber immer noch schneller laufen als ein "schlampig" programmierter.

Gast
2005-06-23, 20:20:24
Anandtech überarbeitet sein Review weiter und der Transparenz Anti Aliasing Test ist nun vollständig, mit schönen Vergleichsbildern, die sicher Leo für den 2. Teil seines Artikels auch anfertigen wird (man erinnere sich an Aquamark-Vergleichs-Bilder).

http://www.anandtech.com/video/showdoc.aspx?i=2451&p=19


Warum sieht das Garagentor so "gebogen" aus ^^

Coda
2005-06-23, 20:21:02
Ich glaube kaum dass nVIDIA beim G70 bei Doom 3 das Shaderreplacment beseitigt hat ;)

Funky Bob
2005-06-23, 20:31:53
Ich glaube kaum dass nVIDIA beim G70 bei Doom 3 das Shaderreplacment beseitigt hat ;)
Ganz ehrlich?

Warum sollten sie auch? Ich meine, wenn sie einen Weg gefunden haben, den Shader so anzupassen, dass er schneller von der Hardware abgearbeitet werden kann und der Shader zum mathematisch gleichem Ergebnis kommt, was ist daran dann verkehrt?

Das einzige Problem ist doch, dass die vielleicht mal auf die Idee kommen, irgendwelche Fixwerte zu nehmen oder ähnliches.

Wenn BMW nun nen Auto (das Spiel) entwickelt hat, bei dem die Autobauer (die Entwickler) die Handbremse immer ein klein wenig angezogen haben, warum sollte der BMW-Händler (die Treiberleute) nicht die Handbremse lösen?

Ich weiß, der Vergleich hinkt, aber zum veranschaulichen wie ichs meine reichts :)

ShadowXX
2005-06-23, 20:32:44
Ich glaube kaum dass nVIDIA beim G70 bei Doom 3 das Shaderreplacment beseitigt hat ;)

Warum nicht?.......vielleicht erklärt das auch einige der Scores, wo sich der G70 nicht so extrem vom nv40 abheben konnte...Doom3 gehörte dazu.

doppelschwoer
2005-06-23, 20:33:50
Sagt einmal,
die Leistung der 7800 ist ja nicht der Mega Brenner. Dafür, dass die Pixelpipes doch aufgebohrt wurden und ganze 50% mehr Pipes da sind hätte ich doch mehr erwartet.

Liegt das Möglicherweise an der Speicherbandbreite. Die ist ja nicht wirklich viel höher als bei der 6800 Ultra. Wäre mal interessant wie die Leistung steigt, wenn man den Spricher hoch dreht, oder umgekehrt den GPU Takt runterschraubt. Wenn die Bandbreite das Problem ist, sollte ja mit weniger GPU power die Absolute Leistung weniger stark fallen.
Ist das vielleicht der letzte Highend Chip mit 256bit Bandbreite???

Beim 6800 review habt ihr doch einen Solchen vergleich gemacht. Bitte mit der 7800 auch!! Bitte!!

Coda
2005-06-23, 20:34:37
Wenn der Code für's Replacement schon im Treiber ist bringt nVIDIA das weglassen genau was?

Glaubst du wirklich nVIDIA opfert in diesem Wettbewerb auch nur ein Quäntchen Performance für soetwas wie "Moral"?

ShadowXX
2005-06-23, 20:36:25
Wenn der Code für's Replacement schon im Treiber ist bringt nVIDIA das weglassen genau was?

Glaubst du wirklich nVIDIA opfert in diesem Wettbewerb auch nur ein Quäntchen Performance für soetwas wie "Moral"?

Und wenn die Shader die für den nv40 gedacht waren auf dem G70 gar nichts oder nicht viel bringen?

Wir werden es wohl erst mit einem der nächsten Treiber erfahren, wenn der G70 plötzlich bei den üblichen verdächtigen nochmal 10-20% mehr Leistung bringt.

Wäre übrigens auch ne ganz nette Idee um ATI zu foppen....der Treiber mit den Shaderoptimierungen kommt zum r520-Launch.....

Und bis dahin lässt man ihn ohne optimierungen laufen.....momentan haben Sie keinen Grund das letzte Quentchen aus der HW rauszuholen.

Coda
2005-06-23, 20:39:25
Und wenn die Shader die für den nv40 gedacht waren auf dem G70 gar nichts oder nicht viel bringen?Möglich - aber Carmack verwendet im Shader einen LUT zum normalisieren, was G70 garantiert nicht entgegen kommt (braucht Bandbreite statt Shaderleistung)

Die Sache lässt sich übrigens sehr leicht nachprüfen. Sponsert mir jemand nen G70? :tongue:

Wir werden es wohl erst mit einem der nächsten Treiber erfahren, wenn der G70 plötzlich bei den üblichen verdächtigen nochmal 10-20% mehr Leistung bringt.

Wäre übrigens auch ne ganz nette Idee um ATI zu foppen....der Treiber mit den Shaderoptimierungen kommt zum r520-Launch.....

Und bis dahin lässt man ihn ohne optimierungen laufen.....momentan haben Sie keinen Grund das letzte Quentchen aus der HW rauszuholen.Klingt schon plausibler...

(del676)
2005-06-23, 20:53:24
ASUS 7800 GTX Software Bundle und Details
http://pic.digital-info.net/sxs112/EN7800GTX.JPG

STOP

http://www.asus.com.tw/products4.aspx?modelmenu=2&model=546&l1=2&l2=6&l3=198

da steht was neues:
Engine Clock: 470 MHz**
**NV clock(430MHz)+Geometric Delta clock(40MHz)
was heisst das?

Coda
2005-06-23, 21:03:27
Wieviel Vertex TMUs hat G70 eigentlich?

dildo4u
2005-06-23, 21:04:12
Wieviel Vertex TMUs hat G70 eigentlich?
8

http://www.xbitlabs.com/articles/video/display/g70-indepth_2.html

PingpiN
2005-06-23, 21:07:39
8

http://www.xbitlabs.com/articles/video/display/g70-indepth_2.html


Nicht grade ein grosser schritt nach vorne, :biggrin: ist ja auch nicht so wichtig.(VS)

Coda
2005-06-23, 21:07:56
Danke. Und nochwas: Ist das TSS rotated grid?

SentinelBorg
2005-06-23, 21:17:10
Danke. Und nochwas: Ist das TSS rotated grid?
Ja.

Coda
2005-06-23, 21:18:23
Und wieso wird dann kein RGSSAA Modus für's ganze Bild angeboten?

ShadowXX
2005-06-23, 21:20:48
Und wieso wird dann kein RGSSAA Modus für's ganze Bild angeboten?

Das hab ich mich auch schon gefragt.....und dann hab ich Demi gefragt und der meinte, das das theoretisch möglich sein sollte.

Er wollte mal ein bisserl mit seinem DXTweaker "rumspielen".

Veilleicht kommts ja auch mit einem der nächsten Treiber....oder Sie machens schon, es ist bisher nur noch keinem Aufgefallen.

PingpiN
2005-06-23, 21:21:06
Und wieso wird dann kein RGSSAA Modus für's ganze Bild angeboten?

Weil da woll die Power nicht mehr reicht. :eek: :biggrin: :redface: :mad:

ShadowXX
2005-06-23, 21:23:00
Weil da woll die Power nicht mehr reicht. :eek: :biggrin: :redface: :mad:

Nonsense....Der Performanceverbrauch ist gleich bei RGSSAA und OGSSAA.

Das würde keinen Unterschied machen.....

reunion
2005-06-23, 21:56:18
Seltsam:

http://www.xbitlabs.com/images/video/geforce-7800/fillrate_nocolor_z.gif

By the way, the GeForce 6800 Ultra and GeForce 7800 GTX both exceed the theoretical maximum in this test. We don’t know yet how to explain this fact.

http://www.xbitlabs.com/articles/video/display/g70-indepth_12.html

Oblivion
2005-06-23, 22:02:31
Sagt einmal,
die Leistung der 7800 ist ja nicht der Mega Brenner. Dafür, dass die Pixelpipes doch aufgebohrt wurden und ganze 50% mehr Pipes da sind hätte ich doch mehr erwartet.

Liegt das Möglicherweise an der Speicherbandbreite. Die ist ja nicht wirklich viel höher als bei der 6800 Ultra. Wäre mal interessant wie die Leistung steigt, wenn man den Spricher hoch dreht, oder umgekehrt den GPU Takt runterschraubt. Wenn die Bandbreite das Problem ist, sollte ja mit weniger GPU power die Absolute Leistung weniger stark fallen.
Ist das vielleicht der letzte Highend Chip mit 256bit Bandbreite???

Beim 6800 review habt ihr doch einen Solchen vergleich gemacht. Bitte mit der 7800 auch!! Bitte!!

Ähm was hast du erwartet vom G70? dass er als "Refresh-Chip" 50 - 100% schneller is?

Oblivion
2005-06-23, 22:03:35
Seltsam:
By the way, the GeForce 6800 Ultra and GeForce 7800 GTX both exceed the theoretical maximum in this test. We don’t know yet how to explain this fact.

http://www.xbitlabs.com/articles/video/display/g70-indepth_12.html

Also das muss was schief gelaufen sein - das kann ich mir wirklich nicht vorstellen dass NV da so klar voranliegt

Coda
2005-06-23, 22:10:29
Wieso? nV hat effektiv 32 ROPs wenn man nur Z schreibt.

Ich kann das übrigens glaube ich erklären: Die ROPs laufen mit Speichertakt.

Andreas12
2005-06-23, 22:12:21
Ich persönlich bin ja der Meinung, dass man als
Besitzer einer 6800GT oder ultra den G70 getrost an sich vorüber ziehen lassen kann.
Wenn ich das hier mal anmerken darf.

Oder liege ich da völlig falsch?

doppelschwoer
2005-06-23, 22:12:53
Ähm was hast du erwartet vom G70? dass er als "Refresh-Chip" 50 - 100% schneller is?

Naja, bei 50% mehr Pipelines + Verbesserungen + mehr Takt da sollten doch 50% über alles drin sein...

Erwarten darf man ja, bin halt etwas enttäuscht. Kann aber auch daran liegen, dass einfach die CPUs nun zu langsam werden.
Oder es liegt wirklich an der Speicherbandbreite.

Coda
2005-06-23, 22:13:47
Natürlich liegt es an der Speicherbandbreite.

Gast
2005-06-23, 22:14:06
Ich persönlich bin ja der Meinung, dass man als
Besitzer einer 6800GT oder ultra den G70 getrost an sich vorüber ziehen lassen kann.
Wenn ich das hier mal anmerken darf.

Oder liege ich da völlig falsch?

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif

reunion
2005-06-23, 22:16:26
Ich kann das übrigens glaube ich erklären: Die ROPs laufen mit Speichertakt.


Laut Demirug eben nicht.

Andreas12
2005-06-23, 22:19:07
Sehr beeindruckend.
Na gut, muss ich doch glatt übersehen haben.

Coda
2005-06-23, 22:19:55
Laut Demirug eben nicht.Wieso sollten sie das geändert haben? Beim NV40 war's sicher so.

BlackArchon
2005-06-23, 22:20:20
Wieso? nV hat effektiv 32 ROPs wenn man nur Z schreibt.

Ich kann das übrigens glaube ich erklären: Die ROPs laufen mit Speichertakt.
Demirug hat doch letztens mal gesagt, dass das doch nicht so ist. Wie denn nun?

€: Da ist mir einer zuvor gekommen. :)

deekey777
2005-06-23, 22:21:06
Wieso sollten sie das geändert haben? Beim NV40 war's sicher so.

War es auch, du mußt aber im Thread etwas graben.

reunion
2005-06-23, 22:21:28
Wieso sollten sie das geändert haben? Beim NV40 war's sicher so.


Also ich weiß von nichts. :uhippie:

Coda
2005-06-23, 22:24:27
Anders kann man sich das Schaubild bei XBit aber kaum erklären, nicht?

Quasar
2005-06-23, 22:25:36
8

http://www.xbitlabs.com/articles/video/display/g70-indepth_2.html
Bin ich blind? Wo steht denn da was von Vertex-TMUs? Da werden doch nur Vertexprozessoren angegeben.

reunion
2005-06-23, 22:27:18
Anders kann man sich das Schaubild bei XBit aber kaum erklären, nicht?


Möglich.

Hier gehts los:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3178102&highlight=speichertakt#post3178102

Quasar
2005-06-23, 22:27:25
Wieso sollten sie das geändert haben? Beim NV40 war's sicher so.
Beim nV40 hat Demirug von nV diese Info bekommen - aber nachdem sich das beim G70 beim Nachmessen als nicht zutreffend herausgestellt hat, darf auch die Korrektheit der nV40-info angezweifelt werden.

dildo4u
2005-06-23, 22:28:02
Bin ich blind? Wo steht denn da was von Vertex-TMUs? Da werden doch nur Vertexprozessoren angegeben.
Sorry dachte das wäre das Gleiche bin halt ein noob.

Quasar
2005-06-23, 22:32:28
Sorry dachte das wäre das Gleiche bin halt ein noob.
Leider ist's das nicht. AFAIK ist noch nichtmal sichergestellt, daß die Vertex-TMUs überhaupt separate sein müssen - niemand wird daran gehindert, die TMUs eines Pixelquads dafür zu mißbrauchen, wenn er's denn verschaltet bekommt.

deekey777
2005-06-23, 22:34:47
Hundertpro wurde das hier schon gepostet... ;(

First Serious Sam 2 benchmarks - we have 'em! (http://www.bit-tech.net/news/2005/06/23/first_serious_sam_2_benchmarks/)

The game uses Shader Model 2.0++ with fallback to Shader Models 1.4 and 1.1 on older cards. With 2, there is the full complement of HDR lighting, parallax mapping and all the other fancy effects that you would expect from a bleeding-edge engine.

Ich dachte, SS2 wird kein HDR unterstützen...

ShadowXX
2005-06-23, 22:42:14
Hundertpro wurde das hier schon gepostet... ;(

First Serious Sam 2 benchmarks - we have 'em! (http://www.bit-tech.net/news/2005/06/23/first_serious_sam_2_benchmarks/)

The game uses Shader Model 2.0++ with fallback to Shader Models 1.4 and 1.1 on older cards. With 2, there is the full complement of HDR lighting, parallax mapping and all the other fancy effects that you would expect from a bleeding-edge engine.

Ich dachte, SS2 wird kein HDR unterstützen...

Lies mal etwas tiefer.....das ist nicht das HDR welches speziell von nV unterstützt wird, sondern eins das nur im Shader gerechnet wird......also keine Ausnutzung der FP16 Filter und Blender.


Jetzt können wir uns wieder darum streiten ob das denn "echtes" HDR ist.....

deekey777
2005-06-23, 22:44:42
Lies mal etwas tiefer.....das ist nicht das HDR welches speziell von nV unterstützt wird, sondern eins das nur im Shader gerechnet wird......

Jetzt können wir uns wieder darum streiten ob das denn "echtes" HDR ist.....

Nur weil kein HDR nach OpenEXR verwendet wird, das in Far Cry oder in SC3 benutzt wurde, sondern was "eigenes", müssen wir uns nicht streiten. ;)
HDR ist wohl das, wie man es für sich definiert, wobei es natürlich "Richtlinien" gibt.

Coda
2005-06-23, 22:46:19
Nur weil kein HDR nach OpenEXR verwendet wird, das in Far Cry oder in SC3 benutzt wurde, sondern was "eigenes", müssen wir uns nicht streiten. ;)
HDR ist wohl das, wie man es für sich definiert, wobei es natürlich "Richtlinien" gibt.Zumindes simpler Bloom scheidet aus, weil da keinerlei höhere Farbauflösung verrechnet wird.

deekey777
2005-06-23, 22:51:06
Zumindes simpler Bloom scheidet aus, weil da keinerlei höhere Farbauflösung verrechnet wird.

Das sagt VALVe auch:
Half Life 2: Lost Coast HDR overview (http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/1.html)
"For example, Lombardi says of Blooming: "This feature has been added to other applications and is often mistaken as a full implementation of HDR," - one reason why he was keen to talk to us to help clear the air surrounding HDR rendering."

Ich freue mich gewaltig auf die Lost Coast Map, auch wenn meine 9800Pro unterfodert wird. ;)
Selbst wenn VALVes HDR Scheiße aussieht, wird es vorausichtlich auf allen Grafikkarten gleich schlecht aussehen, wobei ich der 7800GTX sehr gute Performance zutraue.

dildo4u
2005-06-23, 22:52:18
Ich freue mich gewaltig auf die Lost Coast Map, auch wenn meine 9800Pro unterfodert wird. ;)
Selbst wenn VALVes HDR Scheiße aussieht, wird es vorausichtlich auf allen Grafikkarten gleich schlecht aussehen, wobei ich der 7800GTX sehr gute Performance zutraue.
Es wird 2Versionen des HDR geben eins setzt PS3.0 vorraus.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2980404#post2980404

Coda
2005-06-23, 22:54:08
Nicht PS 3.0, sondern FP Blending.

deekey777
2005-06-23, 22:54:11
Es wird 2Versionen des HDR geben eins setzt PS3.0 vorraus.

Das wäre mir neu, stand bestimmt in der PCGH. :biggrin:

dildo4u
2005-06-23, 22:54:59
Das wäre mir neu, stand bestimmt in der PCGH. :biggrin:
Jap Demurig hat da den Entwickler befragt.

deekey777
2005-06-23, 22:57:07
Jap Demurig hat da den Entwickler befragt.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2980404#post2980404[/QUOTE]

Aha! Das spricht weiterhin, daß die Lost Coast Map zum Release des R520 als Geschenk veröffentlicht wird.
(In dem genannten Thread habe ich ehrlich gesagt nur die News zu Lost Coast gepostet und die Diskussion zwischendurch nicht ganz verfolgt.)

valves hdr is einzige real wirkende in games aber hey wenn man auf übertriebenes steht

Hä?

VooDoo7mx
2005-06-23, 23:22:33
Im Thread hab ich was bezüglich einer 7800GT Listung bei den Hesrtellern gelesen.

Wie sind die Taktraten von dieser Variante?

Ich glaub Shadow XX war es...

robbitop
2005-06-24, 02:27:41
Ich kann das übrigens glaube ich erklären: Die ROPs laufen mit Speichertakt.
Das hat sich inzwischen als falsch rausgestellt.

Labberlippe
2005-06-24, 05:38:02
Hundertpro wurde das hier schon gepostet... ;(

First Serious Sam 2 benchmarks - we have 'em! (http://www.bit-tech.net/news/2005/06/23/first_serious_sam_2_benchmarks/)

The game uses Shader Model 2.0++ with fallback to Shader Models 1.4 and 1.1 on older cards. With 2, there is the full complement of HDR lighting, parallax mapping and all the other fancy effects that you would expect from a bleeding-edge engine.

Ich dachte, SS2 wird kein HDR unterstützen...

Hi

Ich kann nicht glauben das die screens mit einer G70 gemacht wurden.
Das ganze sieht mir sehr winkelabhängig aus.
Besonders fällt mir auf das das zweite Bild vorne scharf ist (Bodentextur) und dann wie beim bilinearen AF komplett verschwimmt.

oder täusche ich mich ???

Gruss Labberlippe

Oblivion
2005-06-24, 07:19:29
Jetzt können wir uns wieder darum streiten ob das denn "echtes" HDR ist.....

HA! meine Rede - hab ich vorher schon gepostet

wenn sich noch wer an die Celestal City Demo von Quest3d erinnert - dort wurde ja auch gefälschtes HDR benutzt (auch wenn das von der Demo programmiert wurde) aber vll will Nvidia zukünftig dieses gefälschte HDR einbaun?

kann auch sein dass das Blödsinn is - aber IMO müsst das doch so gehn

Freakazoid
2005-06-24, 07:21:20
alles beim alten...
;(

ShadowXX
2005-06-24, 08:31:06
Im Thread hab ich was bezüglich einer 7800GT Listung bei den Hesrtellern gelesen.

Wie sind die Taktraten von dieser Variante?

Ich glaub Shadow XX war es...

Auf der Seite war die GT nur angekündigt...Taktraten standen noch nicht dabei.

ShadowXX
2005-06-24, 10:05:22
Die Entwickler scheinen übrigens von der GTX begeistert zu sein:


Die neue NVIDIA GeForce 7800 GTX-GPU nutzt die Begeisterung der Entwickler, die von der NVIDIA GeForce 6-Serie ausgelöst wurde, und ist die leistungsstärkste Grafikplattform, die sowohl die Microsoft® DirectX® 9.0 Shader Model 3.0-Technologie als auch die NVIDIA SLI(tm)-Technologie unterstützt - heißbegehrt, weil diese Funktionen nur mit NVIDIA-Hardware möglich sind. Shader Model 3.0 ist Bestandteil der aktuellsten API (Application Programming Interface) von Microsoft, die Spiele-Entwickler für die Entwicklung ihrer kommenden Titel für PC- und Spielekonsolen der nächsten Generation migriert haben.

"Für mehr als ein Jahr war NVIDIA der einzige Hersteller von Grafikprozessoren, der Shader Model 3.0 und die aktuellsten APIs unterstützte. Dies verschaffte NVIDIA einen großen Vorteil, weil die Spiele-Entwickler ihre zukünftigen Titel auf NVIDIA-Hardware entwickelt haben," sagte Dave Pottinger, technischer Direktor der Ensemble Studios. "Mit Shader Model 3.0 können wir erweiterte Effekte in Age of Empires III verwirklichen, beispielsweise echtes HDR-Lighting (High Dynamic Range) oder Darstellungen in Filmqualität. Außerdem sind Wassereffekte in Echtzeit möglich, die das Gesamterlebnis in unseren Spielen optimieren."

Dank der neu entwickelten Shader-Engine, die für moderne Programmiertechniken optimiert ist, bietet die GeForce FX 7800 GTX-GPU eine 30-prozentige Steigerung mit einer Shading-Leistung von bis zu 200 Gigaflops und stellt Entwicklern eine Plattform zur Verfügung mit der sie Inhalte erstellen können, die visuell sehr ansprechend sind und mit höheren Bildfrequenzen ablaufen.

Das Herzstück der GeForce 7800 GTX-GPU ist die aufgrund der neuen Funktionen außergewöhnliche Qualität. Zu diesen Funktionen gehört beispielsweise Transparency Supersampling und Multisampling Antialiasing. Diese neuen Antialiasing-Modi bieten eine konkurrenzlose Leistung und Bildqualität bei heutigen und zukünftigen Spielen.
"Battlefield 2 spielt in großen Außenszenarien und wir setzen verstärkt transparente und halbtransparente Texturen ein. Die NVIDIA Transparency AA-Modi glätten Linien innerhalb dieser Texturen, und die Ergebnisse sind überwältigend," sagte Torbjörn Söderman, Rendering Programmierer bei DICE. "Die Transparency AA-Funktion der GeForce 7800 GTX-GPU wendet Antialiasing an Stellen an, die zuvor unmöglich waren."
Außerdem ist die GeForce 7800 GTX die einzige GPU mit Unterstützung für die nächste wesentliche Funktion, die Spiele-Entwickler, die an Spielen für PCs und Konsolen der nächsten Generation arbeiten, fordern: HDR (High Dynamic Range Lighting). Spiele-Entwickler verwenden HDR, um Farbe, Beleuchtung und Schatten der Filmindustrie in die Spiele-Industrie zu übertragen.

"Wir hatten ein Bild davon in unseren Köpfen, wie wir HDR in Unreal Tournament 2007 einsetzen wollten, aber die Realisierung davon am Computerbildschirm war ohne NVIDIA-Hardware unmöglich," sagte Mark Rein, Vizepräsident von Epic Games. "Die GeForce 7800 GTX-GPU ist der einzige Grafikprozessor auf dem Markt, der über alle Funktionen für überwältigende Spiele verfügt. Wir empfehlen diese GPU allen Spiele-Lizenznehmen als Entwicklungsplattform, und zwar unabhängig von der gewünschten Zielplattform."

(indirekte) quelle: http://www.hardtecs4u.de/


Wenn die alle gekauft sind, hat nV wohl so gut wie alle wichtigen Spielestudios gekauft und ATI hätte so oder so schlechte Karten......

Quasar
2005-06-24, 10:26:09
Hi

Ich kann nicht glauben das die screens mit einer G70 gemacht wurden.
Das ganze sieht mir sehr winkelabhängig aus.
Besonders fällt mir auf das das zweite Bild vorne scharf ist (Bodentextur) und dann wie beim bilinearen AF komplett verschwimmt.

oder täusche ich mich ???

Gruss Labberlippe

SeSam2 hat(te) eine deutliche Bugwelle - das stimmt. Leider hab ich es mir nicht mit abgeschalteten Optimierungen angeschaut.

ksrythx.

Winter[Raven]
2005-06-24, 10:40:15
@ Shadow

Man muss nicht gekauft sein um von der G70 Karte begeistert zusein, meiner Meinung sprechen die Devs derzeit nichts als die Warheit, auch wenn viele dahinter eine PR-Maschine sehen die von Nvidia ausgeht.

ShadowXX
2005-06-24, 10:56:26
']@ Shadow

Man muss nicht gekauft sein um von der G70 Karte begeistert zusein, meiner Meinung sprechen die Devs derzeit nichts als die Warheit, auch wenn viele dahinter eine PR-Maschine sehen die von Nvidia ausgeht.

Ich bin völlig deiner Meinung.

Deshalb meine sarkasmus-tags.....ich wollte nur denene, die gleich "gekauft" schreien etwas den Wind aus den Segeln nehmen...

Winter[Raven]
2005-06-24, 11:03:21
Ich bin völlig deiner Meinung.

Deshalb meine sarkasmus-tags.....ich wollte nur denene, die gleich "gekauft" schreien etwas den Wind aus den Segeln nehmen...

:biggrin:

Ok, habs übersehn *gg*

@ Thema

Es ist aber auch abzusehn das die große Anzahl und insbesonderer Bekannter DEV's auf den G70 Zug aufspringen werden.

Man hat bei ATI mit der R4xx Reihe versagt auf die Wünsche der DEV's einzugehen, von Nvidia kennt man ja das gegenteil. Man lieferte den DEVS vor über einem Jahr den NV40, die Devs waren begeistert Technik und Speed in einer Karte. Was machte ATI? Shadermodel 3.0 ist unwichtig, keiner braucht es ... aber aufeinmal ist es doch so wichtig geworden...

Nvidia konnte in diesem über einem Jahr mit dem G70 eine Evolutionsstuffe höher gehen, ATI muss aber eine Revolution fabrizieren, leider erwartet laut unseren 3D Gurus keiner das es ATI schafft und wenn dann erst mit dem R580, nur Nvidia schläft ja auch nicht.

-=CHICKEN=-
2005-06-24, 13:38:59
http://ocnews.hartware.de/news_38098.html

EDIT: ich hoffe, das der thread der passende ist.

p.s. eine "SLI" variante für dualGPUs wird es aber wohl weiterhin nicht geben oder?

Winter[Raven]
2005-06-24, 13:41:37
http://ocnews.hartware.de/news_38098.html
ich hoffe, das der thread der passende ist.

Schon gehört *gg*

Gast
2005-06-24, 13:43:02
http://ocnews.hartware.de/news_38098.html

EDIT: ich hoffe, das der thread der passende ist.

p.s. eine "SLI" variante für dualGPUs wird es aber wohl weiterhin nicht geben oder?

angeblich arbeitet nvidia schon an entsprechenden treibern, bis es allerdings soweit ist wird es wohl noch dauern.

Tomcat70
2005-06-24, 13:55:30
']:biggrin:

Es ist aber auch abzusehn das die große Anzahl und insbesonderer Bekannter DEV's auf den G70 Zug aufspringen werden.

Man hat bei ATI mit der R4xx Reihe versagt auf die Wünsche der DEV's einzugehen, von Nvidia kennt man ja das gegenteil. Man lieferte den DEVS vor über einem Jahr den NV40, die Devs waren begeistert Technik und Speed in einer Karte. Was machte ATI? Shadermodel 3.0 ist unwichtig, keiner braucht es ... aber aufeinmal ist es doch so wichtig geworden...

Nvidia konnte in diesem über einem Jahr mit dem G70 eine Evolutionsstuffe höher gehen, ATI muss aber eine Revolution fabrizieren, leider erwartet laut unseren 3D Gurus keiner das es ATI schafft und wenn dann erst mit dem R580, nur Nvidia schläft ja auch nicht.

welcher G70-Zug bitte?? lol
logisch das die entwickler über neue hardware begeistert sind, bei dir klingt das allerdings so als ob games in zukunft nicht auf ati-hardware laufen würden.

dein fanboy-gebashe gegen ati wird mit der zeit lächerlich.

freu dich doch lieber drauf wenn der r520 entgegen deiner hoffnung den g70 übertrifft. aber das wirst wohl nicht schaffen...........

Tomcat70
2005-06-24, 13:56:41
ka ob das schon geposted wurde:

Insider Report: NVIDIA Says No to 7800 GTX in AGP Form
http://www.cooltechzone.com/index.php?option=content&task=view&id=1463&Itemid=0

Winter[Raven]
2005-06-24, 13:59:34
@tomcat, auch wenn du den namen meines Lieblingsflugzeuges hast, muss ich dich derbe entteuschen, ich freu mich über die konkurrenz, den nichts anderes belebt das Geschäft :)

Nun soweit mir bekannt ist, hat sich der großteil der Devs einen G70 angeschafft ... :P

Tomcat70
2005-06-24, 14:01:05
Nun soweit mir bekannt ist, hat sich der großteil der Devs einen G70 angeschafft ... :P

ja und? is doch völlig normal bei neuer hardware. der r520 ist ja noch nicht erhältlich, also wo liegt der sinn deiner aussage?

Winter[Raven]
2005-06-24, 14:07:41
Ahhh ... wo der Sinn muss ich gerade dich fragen, ich komm ned so drauf... tut mir Leid.

Was heißt hier Aussagen, ich habe in diesem Fread 3 Mal gepostet und das soll Gebashe sein? Das erste mal sage ich das de rG70 nix für mich ist und das es sich für mich lohnt auf dne g80 oder erste WGF2.0 chips zuwarten, und jetzt nur die Schlussfolgerung für dne Verluste die ATI einfährt, so what?

*bahnhof* Vielleicht sollte ich wirklich Schluss machen und ins Wochenende gehen.*/bahnhof*

deekey777
2005-06-24, 14:33:10
']...

Nun soweit mir bekannt ist, hat sich der großteil der Devs einen G70 angeschafft ... :P

Haben die dich angerufen?
Zumindest Crytek hat den R520 seit März. Auch die Earth-Entwickler sollen einen R520 haben, denn diese haben ja in ihrem Patch das SM 3.0a erfunden...

Winter[Raven]
2005-06-24, 14:36:05
Haben die dich angerufen?
Zumindest Crytek hat den R520 seit März. Auch die Earth-Entwickler sollen einen R520 haben, denn diese haben ja in ihrem Patch das SM 3.0a erfunden...

Nein die haben mich nicht angerufen, aber da zwitschert was vom Baum ... ;D

Haben ist eine Sache, auf was man schließlich entwickelt ist eine andere Sache ... :smile:

Coda
2005-06-24, 14:38:48
Heute werden die meisten Shader doch eh in einer Hochsprache geschrieben, da ist eine Anpassung an eine spezifische Architektur recht schwer.

Zur Zeit werden auf Grund der Verfügbarkeit aber wirklich die meisten einen NV40/G70 haben. R420 ist aus nachvollziehbaren Gründen nicht gerade attraktiv...

deekey777
2005-06-24, 14:41:42
Kann der G70 eigentlich 3Dc?

Coda
2005-06-24, 14:42:43
Jain, per U8V8 Emulation halt afaik. Ich denke nVIDIA hat das Konzept auch nicht gerade überzeugt...

deekey777
2005-06-24, 14:43:51
Jain, per U8V8 Emulation halt afaik. Ich denke nVIDIA hat das Konzept auch nicht gerade überzeugt...

Das kann meine 9800Pro auch... :D

Coda
2005-06-24, 14:48:55
3Dc ist auch nicht gerade ein tolles Feature weil man alle Shader dafür anpassen muss.

Black-Scorpion
2005-06-24, 14:51:54
Jain, per U8V8 Emulation halt afaik. Ich denke nVIDIA hat das Konzept auch nicht gerade überzeugt...
Wenn mans nicht hat kann man auch nicht überzeugt sein. ;)

VooDoo7mx
2005-06-24, 14:54:32
Haben die dich angerufen?
Zumindest Crytek hat den R520 seit März. Auch die Earth-Entwickler sollen einen R520 haben, denn diese haben ja in ihrem Patch das SM 3.0a erfunden...

R520 hat nicht einmal sein finales Tape Out hinter sich.
Vielleicht haben einige Entickler schon Tools/Guides zur R520 Programmierung. Eine Krte wird allerdings dort niemand haben. Und noch weniger seit März. :hammer:

deekey777
2005-06-24, 14:57:02
R520 hat nicht einmal sein finales Tape Out hinter sich.
Vielleicht haben einige Entickler schon Tools/Guides zur R520 Programmierung. Eine Krte wird allerdings dort niemand haben. Und noch weniger seit März. :hammer:

Ja, nee, ist klar... ;)
Es gibt auch einen lustigen Eintrag in der ReadMe des Patches 1.32 für Far Cry:
Der Patch 1.32 (32 Bit) beseitigt die folgenden Probleme:

* Ein Problem mit Shader Model 3.0 wurde beseitigt, das dazu führte, dass bei neuerer ATI-Hardware Grafikfehler auftraten.

Quasar
2005-06-24, 15:03:31
non-finale Samples mit niedrigerem Takt wären eine Erklärung. Rein für's Debugging wären diese absolut ausreichend und bei Einführung einer neuen Architektur sicherlich auch dringend anzuraten.

MartinRiggs
2005-06-24, 15:13:06
Ja, nee, ist klar... ;)
Es gibt auch einen lustigen Eintrag in der ReadMe des Patches 1.32 für Far Cry:
Der Patch 1.32 (32 Bit) beseitigt die folgenden Probleme:

* Ein Problem mit Shader Model 3.0 wurde beseitigt, das dazu führte, dass bei neuerer ATI-Hardware Grafikfehler auftraten.

Damit haben die doch den verborgenen Shader 3.0 gemeint der in meiner X800 XL sein Unwesen treibt :D
Wäre cool wenn die neuen Karten gleichschnell sind, dann werden sie wohl über den Preis auf Kundenfang gehen müssen.
Hoffentlich gibt es dann sowas wie ne X900 XL die wieder der Preis-Leistungs Hammer wird. :D

DrumDub
2005-06-24, 15:13:57
R520 hat nicht einmal sein finales Tape Out hinter sich.
doch. du wirfst respin und tapeout durcheinander.

SKYNET
2005-06-24, 15:15:58
ka ob das schon geposted wurde:

Insider Report: NVIDIA Says No to 7800 GTX in AGP Form
http://www.cooltechzone.com/index.php?option=content&task=view&id=1463&Itemid=0


glaubst doch nicht, das NV sich sonen faules ei ins nest legt wie ATI. :|

reunion
2005-06-24, 15:18:06
glaubst doch nicht, das NV sich sonen faules ei ins nest legt wie ATI. :|


Ich glaube wer sich eine High-End Grafikkarte vom Schlage einer 7800GTX kauft, hat auch PCIe bzw. kann es sich leisten Nachzurüsten. ;)

MartinRiggs
2005-06-24, 15:20:43
Zumal die 7800 GTX wird doch schon recht warm, vielleicht passt das dann nicht mehr mit dem Bridge-Chip.
Schließlich wird der Bridge-Chip bei NV so warm das er gekühlt werden muss.
Aber wie so oft, warten wir ab was die Zeit bringt.

tombman
2005-06-24, 15:21:48
asus dual gpu 7800 card :O

Denkt ihr was ich denke? --> P-M pci-e + asus 7800 dual card = :cool:

(müßten nur noch die Treiber mitspielen ;))

Coda
2005-06-24, 15:22:53
G70 braucht weniger Strom als NV40, das ist kein Problem. Der Bridgechip wird auch nicht wärmer als bei ner NV40, der Durchsatz ist der gleiche.

Denkt ihr was ich denke? --> P-M pci-e + asus 7800 dual card = Bist du sicher dass ein P-M die bessere CPU (mit übertakten) ist als ein FX57 San Diego?

Ich glaube wer sich eine High-End Grafikkarte vom Schlage einer 7800GTX kauft, hat auch PCIe bzw. kann es sich leisten Nachzurüsten. Naja, ich müsste den ganzen Rechner ersetzen für das Ding... Ist schon etwas ärgerlich.

(del676)
2005-06-24, 15:31:33
Naja, ich müsste den ganzen Rechner ersetzen für das Ding... Ist schon etwas ärgerlich.

normal sollte das mainboard alleine reichen

Coda
2005-06-24, 15:33:01
Naja. Ich kauf kein Sockel 754 Mainboard mehr ;)

Außerdem wäre der 3000+ wohl zu lahm für G70...

cl55amg
2005-06-24, 15:38:52
das tape out hat der r520 lange hinter sich.
ich bin sehr gespannt wie der r520 sich schlagen wird.
im moment finde ich den g70 sehr lecker und überlege ob ich ihn "schnellstmöglich" anschaffen werde so bald er da ist. doch der r520 ist auch interessant. ich hoffe das ati sich angestrengt hat, denn am schlimmsten für uns alle und unsere brieftaschen wäre wenn ein hersteller überlegen ist!

interessant ist noch das inquirer behauptet das der r520 möglicherweise mehr als 24 pixex pipes hat...
we will see

(del676)
2005-06-24, 15:40:57
Außerdem wäre der 3000+ wohl zu lahm für G70...

denk ich nicht, ausser du spielt in kleinen auflösungen

Mumins
2005-06-24, 15:42:15
glaubst doch nicht, das NV sich sonen faules ei ins nest legt wie ATI. :|

Leute, die über 500€ für ne Graka haben, haben auch noch 150€ für ein neues Board übrig. ATI hat den Fehler ja eher im unteren Preissegment gemacht. Da ist niemand bereit noch ein neues Board zu holen.

VooDoo7mx
2005-06-24, 15:43:14
doch. du wirfst respin und tapeout durcheinander.

Ja da hast du Recht! Sorry!

Aber irgendwie soll der R520 schon ziemlich viele Respins gehabt haben, wenn man dem Netz Glauben schenkt.



Denkt ihr was ich denke? --> P-M pci-e + asus 7800 dual card = :cool:


So macht macht mir Mathematik Spaß. :ugly:

Danke Tombi! :ucatch:

@Coda

Gerade bei Spielen ist der PM dem K8 um rund 10% bei gleichen Takt überlegen. Die Integer leistung ist einfach abartig. ;)
Außerdem legt er mit ansteigenden Takt besser zu als der K8.

730er oder 740er gehen mit mehr V-Core auf 2,6-2,8Ghz mit H²O oder Kompressor geht noch mehr.

Leute, die über 500€ für ne Graka haben, haben auch noch 150€ für ein neues Board übrig. ATI hat den Fehler ja eher im unteren Preissegment gemacht. Da ist niemand bereit noch ein neues Board zu holen.

Sehe ich auch so.

Coda
2005-06-24, 16:25:50
Gerade bei Spielen ist der PM dem K8 um rund 10% bei gleichen Takt überlegen. Die Integer leistung ist einfach abartig.Ja, nur ist das Design auch nicht für so "hohe" Taktraten ausgelegt.

Außerdem legt er mit ansteigenden Takt besser zu als der K8.Das glaube ich kaum. Der A64 skaliert schon ziemlich linear.

730er oder 740er gehen mit mehr V-Core auf 2,6-2,8Ghz mit H²O oder Kompressor geht noch mehr.Jo, nur fängt da der FX-57 gerade erst an.

denk ich nicht, ausser du spielt in kleinen auflösungenEigentlich nur 1600x1200 ;)

Aber es gibt keine SLi Boards für 754 :(

deekey777
2005-06-24, 16:26:28
doch. du wirfst respin und tapeout durcheinander.

R520 hat den Codename "Fudo", die Platine des R520 hat den Codename "Raptor" - beides als ganzes: The Respinator.

Sry. ;(

Hellfire-Torrod
2005-06-24, 16:36:22
das tape out hat der r520 lange hinter sich.
ich bin sehr gespannt wie der r520 sich schlagen wird.
im moment finde ich den g70 sehr lecker und überlege ob ich ihn "schnellstmöglich" anschaffen werde so bald er da ist. doch der r520 ist auch interessant. ich hoffe das ati sich angestrengt hat, denn am schlimmsten für uns alle und unsere brieftaschen wäre wenn ein hersteller überlegen ist!

interessant ist noch das inquirer behauptet das der r520 möglicherweise mehr als 24 pixex pipes hat...
we will see

Pipelines hin oder her. Wenn das ding wieder n Paperlaunch wird dan ist das ein herber rückschlag für ATI, da NV das geld macht. Ein hardwaremonster in 90nm und 24+ Pipes und sehr hohen taktraten wird wohl kaum in mengen verfügbar sein.
Der G70 scheint ökonimisch gut durchdacht zu sein. Er ist in ausreichenen mengen verfügbar!

deekey777
2005-06-24, 16:42:00
Was für 24 Pipes? Der R520 kommt eher mit 16, aber viel höheren Takten.

cl55amg
2005-06-24, 16:51:14
Was für 24 Pipes? Der R520 kommt eher mit 16, aber viel höheren Takten.


quelle für diese information?

Dunkeltier
2005-06-24, 17:02:09
quelle für diese information?


Wunschdenken. Bis jetzt hat sich ATI noch nicht dazu geäußert, und was so an Vorabfakten durch den Raum geistert hat weder Hand noch Fuß. Die einzigen die Bescheid wissen ist Ati sowie Spieleentwickler die evtl. schon ein Vorabexemplar gestellt bekommen haben.

mapel110
2005-06-24, 17:05:43
Für R520 gibts einen Extra-Thread, obendrein ist das hier das falsche Forum für Spekulationen. Back to Topic

cl55amg
2005-06-24, 17:09:14
jedenfalls hat die super gerüchteküche inquirer gemeint das der chip 32 pipes
hat.
sie spekulieren das der yield nicht so gut sein soll, deshalb würde ati den chip nur mit 24 ausliefern wollen.ausser der g70 wäre zu schnell, dann würden sie den 32er weg gehen.

http://www.theinquirer.net/?article=23648

ich halte es schonmal für sehr unwahrscheinlich das der r520 nur 16 pipes haben wird, wenn man bedenkt das der xbox chip von ati 48 hat!(universelle pipes)

das ist endlich mal wieder richtig spannend!

@mapel110
ok

Coda
2005-06-24, 17:11:52
wenn man bedenkt das der xbox chip von ati 48 hat!(universelle pipes)Das ist in keinster Weiße vergleichbar. R500 ist effektiv nicht viel schneller als R420.

cl55amg
2005-06-24, 17:18:35
Das ist in keinster Weiße vergleichbar. R500 ist effektiv nicht viel schneller als R420.


ist mir soweit bekannt, bzw. habe die theoretischen berechnungen in der ct gelesen.
aber auch die perf. kann man schlecht vergleichen(wegen den 10Mb edram).
aber die pipes sind physikalisch vorhanden.
leider gehört das aber nicht in den thread...:-(

dildo4u
2005-06-24, 17:28:56
Hier mal die Finalen Watercooled OC Ergebnisse von Oppainter
single und sli.
http://www.xtremeresources.com/forums/showpost.php?p=449158&postcount=1

SKYNET
2005-06-24, 17:49:05
Hier mal die Finalen Watercooled OC Ergebnisse von Oppainter
single und sli.
http://www.xtremeresources.com/forums/showpost.php?p=449158&postcount=1


und wenn larse die dinger erst in die griffeln bekommt.... kannst dich schonmal auf 700MHz core freuen. ;D :cool:

PingpiN
2005-06-24, 17:52:18
Hey Leute ihr sitzt ja grade auch vorm Pc. :smile: Ich hab da mall ne Frage ist bei euch auch alles so heiss also Cpu und Gpu?meine Gpu ist im desk Betrieb 65 C heiss :mad: :confused: wenn ich spiele 80 C ist das noch in ordnung ?
In Winter warens grade mall 45 C. :ufinger:

ShadowXX
2005-06-24, 18:08:28
ist mir soweit bekannt, bzw. habe die theoretischen berechnungen in der ct gelesen.
aber auch die perf. kann man schlecht vergleichen(wegen den 10Mb edram).
aber die pipes sind physikalisch vorhanden.
leider gehört das aber nicht in den thread...:-(

Nur ganz ganz ganz kurz....das Ding hat keine 48Pipes, sondern 48 Alus!!

Gast
2005-06-24, 18:14:02
Was ist eigentlich mit "H.264 encoding" bei der 7800?
Wenn der RSX ein bissl veränderter 7800er ist, dann hat er ja auch den selben Videoprozessor an bord.

Wenn wir Pech haben, hat NV diese Fähigkeit eingespart, da die PS3 sicherlich genug StreamPower mitbringt und "H.264 encoding" in Echtzeit nebenbei abzuarbeiten.

Mumins
2005-06-24, 18:19:10
Hey Leute ihr sitzt ja grade auch vorm Pc. :smile: Ich hab da mall ne Frage ist bei euch auch alles so heiss also Cpu und Gpu?meine Gpu ist im desk Betrieb 65 C heiss :mad: :confused: wenn ich spiele 80 C ist das noch in ordnung ?
In Winter warens grade mall 45 C. :ufinger:

Jo, kann schon sein, meine GPU is um 5C° wärmer, die CPU um 10.

Gast
2005-06-24, 19:19:16
Asus kipt seine Pläne 2 NV40U auf einer Karte zu verbauen und dreht mit einer Dual 7800GTX richtig auf! Damit könnte 4xSLI möglich werden.
(Jaja, was das kostet und alles könnt ihr euch Sparen, geht wohl eher darum mal zu zeigen wo der Technikhammer hängt, Prestige Karten!)


Quelle: http://www.xbitlabs.com/news/video/display/20050622142400.html

Winter[Raven]
2005-06-24, 19:40:46
Heute werden die meisten Shader doch eh in einer Hochsprache geschrieben, da ist eine Anpassung an eine spezifische Architektur recht schwer.

Zur Zeit werden auf Grund der Verfügbarkeit aber wirklich die meisten einen NV40/G70 haben. R420 ist aus nachvollziehbaren Gründen nicht gerade attraktiv...

Ich habe nicht gesagt das die auf den G70 spezifisch optimieren oder ähnliches, ich habe nur gesagt "entwickeln". Bitte mir nicht die Worte m Mund umdrehen :), vielleicht kamm es so rüber in dem Fall SORRY :)

Hellfire-Torrod
2005-06-24, 22:58:20
Kann man sich den un irgendwo die Präsentation runterladen? (nicht die schnipsel bei giga)

MarcWessels
2005-06-25, 01:36:55
Leute, die über 500€ für ne Graka haben, haben auch noch 150€ für ein neues Board übrig. ATI hat den Fehler ja eher im unteren Preissegment gemacht. Da ist niemand bereit noch ein neues Board zu holen.

Darum geht es nicht - ich würde eine deutlich schlechtere Übertaktbarkeit meines Pentium Ms (1800er) in Kauf nehmen müssen. Und ich geb doch nicht dickes Geld für nen 2266er aus, nur um das Prob zu umgehen - außerdem käme ich mit meienr Wakü bei dem 478er Adapter nicht weiter, da zwei Löcher zur Verschraubung von diesem verdeckt werden, also dürfte ich für meine Wakü auch nochmal zusätzlich Geld ausgeben!

Ich werde tierisch sauer, wenn es die 7800GTX nicht für AGP gibt! :mad:

SKYNET
2005-06-25, 02:23:09
Ich werde tierisch sauer, wenn es die 7800GTX nicht für AGP gibt! :mad:


ich würds gut finden, eine förderung für PCIe.

Gast
2005-06-25, 02:40:22
Asus kipt seine Pläne 2 NV40U auf einer Karte zu verbauen und dreht mit einer Dual 7800GTX richtig auf! Damit könnte 4xSLI möglich werden.
(Jaja, was das kostet und alles könnt ihr euch Sparen, geht wohl eher darum mal zu zeigen wo der Technikhammer hängt, Prestige Karten!)


Quelle: http://www.xbitlabs.com/news/video/display/20050622142400.html

ATI kann auch 4XCrossfire mit R520, easy going! Wo der Hammer hängt wird erst in wenigen Wochen entschieden!

SKYNET
2005-06-25, 03:04:55
ATI kann auch 4XCrossfire mit R520, easy going! Wo der Hammer hängt wird erst in wenigen Wochen entschieden!


10-12 wochen sind also wenig? :|

Spasstiger
2005-06-25, 11:26:54
Asus kipt seine Pläne 2 NV40U auf einer Karte zu verbauen und dreht mit einer Dual 7800GTX richtig auf! Damit könnte 4xSLI möglich werden.
(Jaja, was das kostet und alles könnt ihr euch Sparen, geht wohl eher darum mal zu zeigen wo der Technikhammer hängt, Prestige Karten!)


Quelle: http://www.xbitlabs.com/news/video/display/20050622142400.html

Ich habe nur das Gefühl, dass sich Asus wieder ins Gespräch bringen will, nachdem sie's mit den lauten GeForce 6800ern (ein wenig) verbockt haben. Wobei ja die 6800 GT mit 128 MB DDR1 ja ein genialer Schachzug von Asus war, wurde trotz teilweise deutlichem Aufrpeis eher gekauft als eine Non Ultra von einem anderen Hersteller (die sich auch meist auf 16 Pipes modden ließ).

MSABK
2005-06-25, 12:29:05
Bei Computerbase.de steht das der G70 32 Pipelines hat, man hat aber nur 24 aktiviert um die Chip ausbeute hoch genug zu halten.

BvB123
2005-06-25, 12:34:01
Bei Computerbase.de steht das der G70 32 Pipelines hat, man hat aber nur 24 aktiviert um die Chip ausbeute hoch genug zu halten.
alles nur spekulation, ich glaub net dran

ShadowXX
2005-06-25, 12:37:06
alles nur spekulation, ich glaub net dran


Juppss...die Speku geht von B3D aus, wo ein Analyst schrieb, das der 110nm Prozess bei früheren Chips nicht so dolle gewesen sein soll.

Aber das ist wirklich reine Spekulation dieses Analysten.

Demi hält es übrigens für Unwahrscheinlich...

Blaze
2005-06-25, 12:37:38
Zitat von MarcWessels

Ich werde tierisch sauer, wenn es die 7800GTX nicht für AGP gibt! :mad:

Irgendwann muss mal schluss sein, sonst hätte man sich PCIe gleich sparen können :rolleyes:

(del676)
2005-06-25, 12:45:55
Ich werde tierisch sauer, wenn es die 7800GTX nicht für AGP gibt! :mad:

warum?
wenn man ein halbwegs aktuelles system hat braucht man nurs mainboard mit upgraden.
wenn man ne ram/cpu kombination hat für die es kein pci-e mainboard gibt ist die cpu sowieso zu langsam.
man kann ned ewig altlasten mitschleppen.
ne agp variante heisst verdammt viel mehraufwand für nvidia.

Gast
2005-06-25, 12:54:46
ATI kann auch 4XCrossfire mit R520, easy going! Wo der Hammer hängt wird erst in wenigen Wochen entschieden!

Bis jetzt kannst du noch nicht mal CrossFire kaufen und wenn, dann nur für X800. Nebenbei hat ATI bis jetzt auch noch nichts von 4xCrossFire gezeigt.

muuuuuuuuh
2005-06-25, 14:35:02
Ich werde tierisch sauer, wenn es die 7800GTX nicht für AGP gibt! :mad:


Da die GTX im gegensatz zur GT sli fähig sein soll nehme ich an das die GT nix anderes ist als die GTX bloß für AGP

Das X bei der namensgebung könnte auch von PCIeXpress herkommen, wer weis...

nvidia würde auf nicht wenige kunden verzichten müssen sollten sie keine agp karten mehr herstellen

Gast
2005-06-25, 15:32:47
ATI kann auch 4XCrossfire mit R520, easy going!
:|
SLI mit 2 Karten finde ich ja schon übertrieben, aber 4 Karten, wovon jede knapp 100 Watt verbraucht?
Hallo?
Da muss man echt schon den Bezug zur Realität verloren haben oder geistig krank sein...
Ob SLI oder Crossfire spielt hier keine Rolle.

Wo der Hammer hängt wird erst in wenigen Wochen entschieden!
Hauptsache im November gibt die Wahl zwischen ATI und Nvidia.
Im Sommer gibts bessere Sachen als Zocken...
Frauen z.B. ;D

dildo4u
2005-06-25, 16:09:11
VR-zone review
http://www.vr-zone.com/?i=2367&s=1


Tjo wie man hier schön sieht hat mal selbst mit einem FX55 mit einem 7800SLI eine CPU limitierung auch beim 3Dmark 05 :)

http://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-CPUScale.gif

Demirug
2005-06-25, 16:16:06
VR-zone review
http://www.vr-zone.com/?i=2367&s=1


Tjo wie man hier schön sieht hat mal selbst mit einem FX55 mit einem 7800SLI eine CPU limitierung auch beim 3Dmark 05 :)


Gerade bei 3dmark muss man CPU Limiterungen in einem anderen Licht sehen.

dildo4u
2005-06-25, 16:17:03
Gerade bei 3dmark muss man CPU Limiterungen in einem anderen Licht sehen.
Jo stimmt hat was mit der vertex Leistung zu tun wird die beim sli addiert?

Demirug
2005-06-25, 16:26:06
Jo stimmt hat was mit der vertex Leistung zu tun wird die beim sli addiert?

Das meinte ich eigentlich nicht. Sowohl ATI wie auch nVidia missbrauchen die CPU für Vertexprocessing. Deswegen skaliert der 3DMark05 ja auch mit der CPU.